WO2023176467A1 - 要因推論装置、要因推論方法、要因推論システムおよび端末装置 - Google Patents

要因推論装置、要因推論方法、要因推論システムおよび端末装置 Download PDF

Info

Publication number
WO2023176467A1
WO2023176467A1 PCT/JP2023/007733 JP2023007733W WO2023176467A1 WO 2023176467 A1 WO2023176467 A1 WO 2023176467A1 JP 2023007733 W JP2023007733 W JP 2023007733W WO 2023176467 A1 WO2023176467 A1 WO 2023176467A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
node
knowledge model
factor
nodes
Prior art date
Application number
PCT/JP2023/007733
Other languages
English (en)
French (fr)
Inventor
洋平 原田
丈英 平田
Original Assignee
Jfeスチール株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jfeスチール株式会社 filed Critical Jfeスチール株式会社
Priority to JP2023536386A priority Critical patent/JPWO2023176467A1/ja
Publication of WO2023176467A1 publication Critical patent/WO2023176467A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring

Definitions

  • the present invention relates to a factor inference device, a factor inference method, a factor inference system, and a terminal device.
  • Non-Patent Document 1 proposes a method of calculating relative influence values for input variables that play an important role.
  • Non-Patent Document 1 does not provide information regarding the mechanism of how each variable influences prediction and detection. Therefore, currently, these are estimated using the user's predictions and knowledge of the detection target. Therefore, non-experts and inexperienced users cannot make accurate guesses and cannot take appropriate actions.
  • Patent Document 1 attempts to present the influence of variables by automatically outputting the causal relationships between variables.
  • the present invention has been made in view of the above, and even when used by a user who does not have deep knowledge of the subject of analysis, it is possible to obtain auxiliary information useful for problem solving from operational data such as sensor data and setting values. It is an object of the present invention to provide a factor inference device, a factor inference method, a factor inference system, and a terminal device that can give the following information and lead to appropriate and prompt actions.
  • a factor inference device is a factor inference device for inferring the factors of a phenomenon in a process, and the factor inference device infers the cause of a phenomenon in a process, and the factor inference device infers the cause of a phenomenon in a process.
  • knowledge model acquisition means for acquiring a knowledge model expressed in the form of a network connecting the nodes, and creating information including at least an abnormality index regarding the event based on the data collected from the process; information creation means for searching for information on nodes in the knowledge model based on the names of data collected from the process, and node extraction means for extracting corresponding nodes;
  • the present invention includes a data combining means for linking the information, and a factor inference means for inferring and presenting the cause of the phenomenon based on the structure of the knowledge model and the information linked to the node.
  • the node extraction means searches for character information that is the same as or similar to the name of the data from the character information of the event corresponding to the node of the knowledge model.
  • the node is extracted by
  • the factor inference means presents a causal route connecting the nodes in the knowledge model and indicating a causal relationship between the phenomena, and the causal route is If there are multiple causal routes, the causal routes are ranked and presented based on the information linked to each node of the causal routes.
  • the factor inference means calculates the number of nodes to which an abnormality index indicating an abnormality is connected in the causal route, or the number of nodes selected as a causal route in the past. Based on the number, the causal routes are ranked and presented.
  • the factor inference means blocks the knowledge model based on the information, connects the nodes in the knowledge model, and establishes a causal relationship between the phenomena. A causal route indicating the above is presented for each block.
  • the abnormality index includes at least one of the categories determined based on the degree of abnormality indicating the degree of abnormality and the degree of deviation from a predetermined normal state. One is included.
  • a factor inference method is a factor inference method that is executed by a device constructed by a computer and infers the cause of a phenomenon in a process, a knowledge model acquisition step, in which a knowledge model acquisition means included in the computer acquires a knowledge model expressed in a network format connecting the nodes, with events occurring in the process as nodes, regarding the causal relationship of phenomena in the process; an information creation step in which an information creation means included in the computer creates information including at least an abnormality index regarding the event based on data collected from the process; a node extracting step of searching the information of the node of the knowledge model based on the name of the node and extracting the corresponding node; and a data combining means included in the computer extracting the information corresponding to the extracted node. and a factor inference step in which a factor inference means included in the computer infers and presents a factor of the phenomenon based on the structure of the knowledge model and the
  • a factor inference system includes a factor inference server device and a terminal device, wherein the factor inference server device is a process Regarding the causal relationship of the phenomenon in the previous article, a knowledge model acquisition means that acquires a knowledge model expressed in a network format connecting the nodes, with events that occur in the process as nodes, and based on the data collected from the process, information creation means for creating information including at least an abnormality index regarding the phenomenon; and node extraction means for searching for information on nodes of the knowledge model and extracting corresponding nodes based on the names of the data collected from the process; data linking means for linking the corresponding information to the extracted node; factor inference means for inferring the cause of the phenomenon based on the structure of the knowledge model and the information linked to the node; output means for outputting information including at least the cause of the phenomenon inferred by the factor inference means to the terminal device, the terminal device acquiring information including at least the cause of the phenomenon from
  • a terminal device comprises: an information acquisition means for acquiring information including at least a factor of a phenomenon in a process from a factor inference server device; a display means for displaying the acquired information, the cause of the phenomenon is a knowledge model expressed in the form of a network connecting the nodes, with events that occur in the process as nodes, regarding the causal relationship of the phenomenon in the process.
  • information inferred based on a structure and, in the knowledge model, information associated with a node extracted based on a name of data collected from the process, the information including at least an anomaly indicator regarding the event. It is.
  • factor inference device factor inference method, factor inference system, and terminal device according to the present invention
  • problems can be solved from operational data such as sensor data and setting values.
  • operational data such as sensor data and setting values.
  • useful auxiliary information This allows the user to take appropriate and prompt action to solve the problem using this auxiliary information.
  • FIG. 1 is a diagram showing a schematic configuration of a factor inference device according to an embodiment of the present invention.
  • FIG. 2 is a flowchart showing the procedure of the factor inference method executed by the factor inference device according to the embodiment of the present invention.
  • FIG. 3 is a diagram showing an example of a knowledge model in the factor inference method according to the embodiment of the present invention.
  • FIG. 4 is a diagram showing an example in which some nodes of a knowledge model are blocked in the factor inference method according to the embodiment of the present invention.
  • FIG. 5 is a diagram illustrating an example of an abnormality index (abnormality/normality classification) acquired by the standalone monitoring system in the factor inference method according to the embodiment of the present invention.
  • FIG. 1 is a diagram showing a schematic configuration of a factor inference device according to an embodiment of the present invention.
  • FIG. 2 is a flowchart showing the procedure of the factor inference method executed by the factor inference device according to the embodiment of the present invention.
  • FIG. 6 is a diagram showing an example of an abnormality index (degree of abnormality) acquired by the abnormality detection system in the factor inference method according to the embodiment of the present invention.
  • FIG. 7 is a diagram showing an example of monitoring items automatically assigned to a knowledge model in the factor inference method according to the embodiment of the present invention.
  • FIG. 8 is a diagram illustrating an example of the result of factor inference using the abnormal/normal classification in the factor inference method according to the embodiment of the present invention.
  • FIG. 9 is a diagram illustrating an example of a factor inference result using abnormality degree in the factor inference method according to the embodiment of the present invention.
  • FIG. 10 is a diagram showing a modification example in which the factor inference method according to the embodiment of the present invention is applied to predicting the surface quality of a steel plate.
  • FIG. 11 is a diagram showing a schematic configuration of a factor inference system according to an embodiment of the present invention.
  • FIG. 12 is a diagram showing an example of a knowledge model in an example of the factor inference method according to the embodiment of the present invention.
  • FIG. 13 is a diagram showing an example of a factor inference result in an example of the factor inference method according to the embodiment of the present invention.
  • a factor inference device, a factor inference method, a factor inference system, and a terminal device according to embodiments of the present invention will be described with reference to the drawings. Note that the present invention is not limited to the following embodiments, and the components in the following embodiments include those that can be easily replaced by those skilled in the art, or those that are substantially the same.
  • a factor inference device is for inferring the factors of a phenomenon in a process.
  • the factor inference device includes a manufacturing process for steel products, a power generation process for power generation equipment, a transport process for transport equipment, and the like.
  • the hot rolling process is a process of rolling a heated slab to a predetermined thickness.
  • the hot rolling process uses a large number of equipment such as heating furnaces, rolling mills, and quenching equipment, but if an abnormality occurs in the equipment, there is a possibility of serious problems such as breakage of the plate during rolling or perforation. There is. Therefore, it is important for stable production to infer the cause of the abnormality and present it to the user (operator, etc.) to prevent these serious troubles.
  • FIG. 1 shows an example of the configuration of an information processing device 1 for realizing a factor inference device.
  • This information processing device 1 is realized by, for example, a general-purpose computer such as a workstation or a personal computer. Further, the information processing device 1 includes an input section 10, a storage section 20, a calculation section 30, and an output section 40, as shown in FIG.
  • the input unit 10 is an input means for the calculation unit 30, and is realized by, for example, an input device such as a keyboard, a mouse pointer, or a numeric keypad.
  • the input unit 10 inputs information necessary for various calculations in the calculation unit 30.
  • the storage unit 20 is realized by a recording medium such as an EPROM (Erasable Programmable ROM), a hard disk drive (HDD), and a removable medium.
  • a recording medium such as an EPROM (Erasable Programmable ROM), a hard disk drive (HDD), and a removable medium.
  • removable media include disc recording media such as a USB (Universal Serial Bus) memory, a CD (Compact Disc), a DVD (Digital Versatile Disc), and a BD (Blu-ray (registered trademark) Disc).
  • the storage unit 20 can store an operating system (OS), various programs, various tables, various databases, and the like.
  • a knowledge model 21 is stored in the storage unit 20. Note that in addition to the knowledge model 21, the storage unit 20 may also store calculation results in the calculation unit 30, etc., as necessary.
  • the knowledge model 21 is a model in which the causal relationship between phenomena in a process is expressed in a network format in which events that occur in the process are nodes, and the nodes are connected.
  • This knowledge model 21 is, for example, created manually in advance and stored in the storage unit 20 in a form that can be read by a computer.
  • only one knowledge model 21 may be created so as to correspond to a plurality of phenomena (troubles), or a plurality of knowledge models 21 may be created corresponding to a plurality of phenomena. Note that details of the knowledge model 21 will be described later (see FIGS. 3 and 4).
  • the calculation unit 30 is realized by a processor such as a CPU (Central Processing Unit), and a memory (main memory) such as a RAM (Random Access Memory) or a ROM (Read Only Memory).
  • a processor such as a CPU (Central Processing Unit)
  • a memory main memory
  • RAM Random Access Memory
  • ROM Read Only Memory
  • the calculation unit 30 loads a program into the work area of the main storage unit and executes it, and controls each component through the execution of the program, thereby achieving functions that meet a predetermined purpose.
  • the calculation unit 30 functions as a knowledge model acquisition unit 31, an information creation unit 32, a node extraction unit 33, a data combination unit 34, and a factor inference unit 35 through execution of the above-described program.
  • FIG. 1 shows an example in which the functions of each part of the calculation unit 30 are realized by one computer, the method of realizing the functions of each part is not particularly limited. For example, the function of each part is realized by multiple computers. You may realize each of them.
  • the knowledge model acquisition unit 31 acquires the knowledge model 21 from the storage unit 20.
  • the information creation unit 32 collects operational data from the process, and creates information that includes at least an abnormality index regarding the event based on the operational data.
  • the information created by the information creation unit 32 is information that is linked to nodes of the knowledge model 21 in a data combination unit 34, which will be described later.
  • this information may include, for example, data format, equipment type, event timing, and the like.
  • the abnormality index includes, for example, an abnormality degree (abnormality score (abnormal value)) indicating the degree of abnormality, a classification determined based on the degree of deviation from a predetermined normal state, and the like. Note that the "classification determined based on the degree of deviation from the normal state" indicates, for example, a determination result of normality/abnormality.
  • abnormality degree abnormality score (abnormal value)
  • classification determined based on the degree of deviation from the normal state indicates, for example, a determination result of normality/abnormality.
  • the data format includes, for example, observed values, set values, categories, etc.
  • observed value refers to sensor data of equipment acquired by a sensor.
  • setting value refers to a setting value set in the equipment.
  • category indicates the type of data.
  • the timing of the event includes the time of setting calculation, during operation, and during non-operation. Note that “at the time of setting calculation” indicates that the event occurred during setting calculation. Furthermore, “during operation” indicates that the event occurred during operation. Furthermore, “during non-operation” indicates that the event occurred during non-operation.
  • the node extraction unit 33 searches for node information in the knowledge model 21 based on the name of the data collected from the process, and extracts the corresponding node. Specifically, the node extraction unit 33 extracts a node from the character information of the event corresponding to the node of the knowledge model 21 by searching for character information that is the same as or similar to the name of the data. Then, monitoring items related to the content of the event of the extracted node are automatically assigned to the extracted node based on the similarity of characters. Note that details of the processing of the node extracting unit 33 will be described later (see FIG. 7).
  • the data linking unit 34 links information corresponding to the node (information created by the information creating unit 32) to the node of the knowledge model 21 extracted by the node extracting unit 33. Note that details of the processing of the data combining unit 34 will be described later (see FIGS. 8 and 9).
  • the factor inference unit 35 infers the factors that cause the phenomenon based on the structure of the knowledge model 21 and the information linked to the nodes of the knowledge model 21, and presents it to the user. Specifically, the factor inference unit 35 identifies a causal route that connects nodes in the knowledge model 21 and indicates a causal relationship between phenomena. Then, the factor inference unit 35 presents the causal route to the user through the output unit 40.
  • the factor inference unit 35 ranks and presents the causal routes based on information linked to each node of the causal routes.
  • the factor inference unit 35 ranks the causal routes based on, for example, the number of nodes to which an abnormality index indicating an abnormality is connected in the inferred causal route, or the number of nodes selected as causal routes in the past. and can be presented.
  • the factor inference unit 35 can also divide the knowledge model 21 into blocks based on information linked to each node, and present a causal route for each block in the knowledge model 21. Note that details of each process in the factor inference unit 35 will be described later (see FIGS. 8 and 9).
  • the output unit 40 is an output means that outputs the calculation result by the calculation unit 30.
  • the output unit 40 is realized by, for example, an input device such as a display or a printer.
  • the output unit 40 outputs, for example, the knowledge model 21 created in advance, the inference result of the cause of the phenomenon (for example, a causal route) in the factor inference unit 35, and the like.
  • the factor inference method includes a knowledge model acquisition step (step S1), an operation data collection step (step S2), an information creation step (step S3), a node extraction step (step S4), A data combination step (step S5), a factor inference step (step S6), and a factor presentation step (step S7) are performed in this order.
  • step S1 knowledge model acquisition step
  • step S2 operation data collection step
  • step S3 information creation step
  • step S4 a node extraction step
  • a data combination step step S5
  • a factor inference step step S6
  • a factor presentation step step S7
  • ⁇ Knowledge model acquisition step> the knowledge model acquisition unit 31 acquires the knowledge model 21 stored in the storage unit 20 in advance. The details of the knowledge model 21 will be explained below.
  • the knowledge model 21 is a model in which the causal relationship between phenomena in a process is expressed in a network format in which events that occur in the process are nodes and the nodes are connected.
  • a computer in order to use a computer to infer how events related to process monitoring items will develop and what kind of trouble they will lead to, a computer will use knowledge about the mechanisms of phenomena that cause trouble. It is prepared as a processable knowledge model 21.
  • the knowledge model 21 expresses the mechanism of trouble occurrence using a network structure in the form of a causal chain that connects events with causal relationships.
  • the final result of this causal chain that is, the destination (top) of each event, becomes the trouble to focus on in the process.
  • events such as equipment setting conditions, physical phenomena, equipment states, etc. related to troubles are treated as nodes in a network structure, and causally related events are connected by edges.
  • Specific troubles (trouble A in FIG. 3) described at the top of the knowledge model 21 include, for example, holes, bends, and breaks in the hot rolling process. Furthermore, examples of events indicated by each node of the knowledge model 21 include "uneven heating of the slab in the heating furnace,” “uneven heat occurs in the slab,” “crown becomes larger,” and the like.
  • Blocking of knowledge model As will be described later, when attribute information is registered for a node of the knowledge model 21, the knowledge model 21 selects nodes corresponding to some events based on the attribute information, as shown in FIG. 4, for example. It is also possible to block.
  • block X shown in the figure includes another knowledge model 21 having common attribute information. For example, events 3, 5, and 6 shown in the figure are all expressed as one block because the attribute [timing] is "at the time of setting calculation.”
  • the information creation unit 32 collects operation data from the process. Subsequently, in the information creation step, the information creation unit 32 creates information including at least an abnormality index regarding the event based on the collected operation data.
  • operation data can be collected through, for example, an existing standalone monitoring system or an abnormality detection system, and information including abnormality indicators can be created.
  • a stand-alone monitoring system In a stand-alone monitoring system, a large amount of operational data is collected using various sensors installed in the equipment, and after determining monitoring items, monitoring is performed based on whether or not the data deviates from a predetermined threshold.
  • a monitoring method in a standalone monitoring system for example, there is a method in which a deviation of 3 ⁇ or more from the average of the normal distribution is determined to be abnormal, and a method in which the value of a monitored item deviates from the upper or lower management limit range, as shown in Figure 5. For example, there is a method of determining that there is an abnormality when the condition occurs.
  • the cause of the trouble is inferred using the abnormality index acquired by the standalone monitoring system and the knowledge model 21.
  • the abnormality index acquired by the standalone monitoring system may be an abnormal/normal classification (judgment result) as shown in FIG. 5, or may be an abnormality degree (abnormality score) indicating the degree of abnormality.
  • Anomaly detection system employ methods using machine learning to determine whether equipment is exhibiting abnormalities.
  • a single monitoring item is looked at to determine whether there is an abnormality
  • a plurality of monitoring items are looked at in combination to determine whether there is an abnormality.
  • a machine learning method in an anomaly detection system for example, a statistical-based method such as a graphical Gaussian model or principal component analysis, or a deep learning-based method such as an autoencoder can be used.
  • data of monitoring items during normal times is learned, and whether or not the current data is abnormal is output.
  • the anomaly detection system as shown in FIG. 6, for example, the degree of abnormality (abnormality score) for each monitored item is output, and whether or not a monitored item is abnormal is determined based on the magnitude of the degree of abnormality.
  • monitoring items in the hot rolling process include, for example, "meandering amount", “load difference", “slab temperature difference”, etc.
  • the number of monitoring items in the anomaly detection system is enormous, reaching several thousand items. Therefore, it is difficult to instantly determine what kind of trouble will result from a monitoring item determined to be abnormal. Furthermore, it is difficult for inexperienced users who do not have sufficient knowledge about problems to speculate about the mechanism by which phenomena related to each monitoring item can develop into problems in order to take actions to deal with problems. It is difficult. Therefore, in this embodiment, the cause of the trouble is inferred using the anomaly index acquired by the anomaly detection system and the knowledge model 21.
  • the node extraction unit 33 searches the character information of the node of the knowledge model 21 based on the name of the data collected from the process, and extracts the corresponding node. Then, monitoring items related to the content of the event of the extracted node are automatically assigned to the extracted node based on the similarity of characters.
  • Methods for searching character information for nodes include searching for character strings based on rules, preparing a dictionary of synonyms that summarizes variations in spelling, etc., and searching for similar words while taking into account the effects of variations in spelling. Examples include a method of searching, a method of searching for similar words using a machine learning model, etc.
  • the monitoring item “temperature difference of the slab” is assigned. Note that some events cannot be monitored (observed) by sensors, etc. Therefore, it is not necessary to assign monitoring items to all nodes, and there may be nodes that do not have monitoring items.
  • attribute information may be assigned to nodes in which monitoring items are registered, as necessary.
  • This attribute information includes, for example, abnormality indicators related to the event, data format, type of equipment, timing of the event, and the like.
  • the abnormality index includes, for example, an abnormality degree (abnormality score) indicating the degree of abnormality, a classification determined based on the degree of deviation from a predetermined normal state, and the like.
  • the data format includes, for example, observed values, set values, categories, and the like.
  • the timing of the event includes the time of setting calculation, during operation, and during non-operation. Note that, similarly to monitoring items, it is not necessary to assign attribute information to all nodes, and there may be nodes without attribute information.
  • the data combination unit 34 connects information corresponding to the node (information created by the information creation unit 32) to the node of the knowledge model 21 (the node extracted by the node extraction unit 33).
  • the information linked to the knowledge model 21 is information that includes at least the abnormality index acquired by the above-described standalone monitoring system or abnormality detection system.
  • Information linked to the knowledge model 21 includes abnormality indicators, data formats, types of equipment, timing of events, etc.
  • examples of the abnormality index include the classification of abnormality/normality as shown in Table 1, the degree of abnormality calculated for each monitoring item as shown in Table 2, and the like. Note that Table 1 shows two patterns of classification consisting of "abnormal/normal” as an example, but for example, three patterns of classification consisting of "normal/minor abnormality/major abnormality” may be used.
  • the factor inference unit 35 infers the cause of the phenomenon based on the structure of the knowledge model 21 and the information linked to the nodes of the knowledge model 21.
  • the knowledge model 21 expressed in a graph structure of causal chains and the anomaly indicators shown in Tables 1 and 2 to determine what kind of trouble may occur in the process and how the trouble will be solved. Infer what happens.
  • inference using the abnormality index (abnormal/normal classification) in Table 1 and inference using the abnormality index (degree of abnormality) in Table 2 will be explained separately.
  • the path is further traced in the direction of the result only when all the corresponding events become abnormal. For example, in FIG. 8, both event 5 and event 6 are abnormal, so event 3 is traced. Further, if a monitoring item reaches a normal event while tracing in the direction of the result, the process of tracing further in the direction of the result is interrupted.
  • the abnormality indicators in Table 2 are reflected (combined) in the knowledge model 21, and then, as shown in FIG. 9, the process is traced from the event of the monitoring item to the result of the causal relationship according to the degree of abnormality.
  • the trouble described in the final node reached (trouble A in the figure) is identified as a trouble that may occur in the process.
  • the causal route of the event that was followed earlier is identified, as shown by the bold line in the same figure.
  • the causal route with the highest total abnormality degree is identified as the generation mechanism described in the final node.
  • the total abnormality degree of the causal route from Event 5 ⁇ Event 3 ⁇ Event 1 ⁇ Trouble A is the highest at "24.0", so as shown by the thick line in the figure, Event 5 ⁇ Event Identify the causal route from 3 to event 1 to trouble A.
  • the factor inference unit 35 presents the causes of the phenomenon inferred in the factor inference step to the user through the output unit 40.
  • the causal routes shown in bold lines in FIGS. 8 and 9 are presented.
  • the causal route in addition to the method of highlighting the causal route with a thick line as shown in the figure, the causal route may be highlighted as shown below, for example.
  • nodes and edges included in the causal route may be displayed in a different color from other nodes and edges, or only nodes and edges included in the causal route may be displayed, Other nodes and edges may be hidden.
  • the multiple troubles and multiple troubles may be presented to the user through the output unit 40.
  • the causal routes identified in the factor inference step the causal routes are ranked based on the number of nodes to which abnormal indicators indicating an abnormality are connected, or the number of nodes that have been selected as causal routes in the past. may be presented.
  • a predictive model (machine learning model) has been developed that predicts the occurrence of flaws based on the manufacturing conditions of steel sheets.
  • This technology uses numerical indicators (hereinafter referred to as ⁇ degree of influence'') to indicate which of the data items of the manufacturing conditions used (hereinafter referred to as ⁇ explanatory variables'') influence the results predicted by the prediction model. ) can be output.
  • ⁇ degree of influence'' numerical indicators
  • ⁇ explanatory variables'' influence the results predicted by the prediction model.
  • a knowledge model 21 expressed in a network structure of causal relationships of events that cause defects is created in a form that can be read by a computer. Further, to the nodes of this knowledge model 21, explanatory variables (see explanatory variables 1 to 4 in the figure) of the prediction model related to the event of the node are assigned.
  • information regarding whether each explanatory variable is important or not is linked to the nodes of the knowledge model 21.
  • Information regarding whether each explanatory variable is important can be created, for example, based on whether the degree of influence of the explanatory variable calculated by the prediction model exceeds a predetermined threshold.
  • the factor inference system 2 includes a factor inference server device 3 and a terminal device 4, as shown in FIG.
  • the factor inference server device 3 and the terminal device 4 are configured to be able to communicate through a network N such as the Internet network, for example. Further, in the factor inference system 2, the terminal device 4 is placed, for example, in a steelworks.
  • the factor inference server device 3 is realized by, for example, a server placed on a cloud.
  • This factor inference server device 3 is a network compatible server device of the factor inference device realized by the information processing device 1 shown in FIG. 1, and has the same configuration as the factor inference device. That is, the factor inference server device 3 includes, among the components of the information processing device 1, a calculation section that functions as a knowledge model acquisition section, an information creation section, a node extraction section, a data combination section, and a factor inference section, and an output section. At least.
  • the knowledge model acquisition unit of the factor inference server device 3 acquires a knowledge model expressed in the form of a network connecting nodes, with events that occur in the process as nodes, regarding the causal relationships between phenomena in the process. Furthermore, the information creation unit of the factor inference server device 3 creates information that includes at least an abnormality index regarding the event based on the data collected from the process. Further, the node extraction unit of the factor inference server device 3 searches for information on the nodes of the knowledge model based on the names of data collected from the process, and extracts the corresponding nodes. Further, the data linking unit of the factor inference server device 3 links corresponding information to the extracted nodes.
  • the factor inference unit of the factor inference server device 3 infers the cause of the phenomenon based on the structure of the knowledge model and the information linked to the nodes. Further, the output unit of the factor inference server device 3 outputs information including at least the cause of the phenomenon inferred by the factor inference unit to the terminal device 4 via the network N.
  • the terminal device 4 acquires various information from the factor inference server device 3 through the network N and displays it.
  • This terminal device 4 is realized by, for example, a general-purpose computer such as a personal computer, or a mobile information processing device such as a tablet computer.
  • the terminal device 4 includes a calculation section that functions as an information acquisition section and a display section.
  • an external display such as a liquid crystal display (LCD), an organic EL display (OLED), a touch panel display, etc. is connected to the terminal device 4.
  • LCD liquid crystal display
  • OLED organic EL display
  • touch panel display etc.
  • the information acquisition unit of the terminal device 4 acquires from the factor inference server device 3 information that includes at least the cause of the phenomenon inferred by the factor inference server device 3.
  • the causes of this phenomenon are based on the structure of a knowledge model expressed in the form of a network that connects nodes, with events that occur in the process as nodes, and the information linked to the nodes of the knowledge model. It was inferred that Furthermore, the information linked to the node of the knowledge model is information linked to the node extracted based on the name of the data collected from the process in the knowledge model, and includes at least an abnormality indicator related to the event. be.
  • the causes of the above phenomenon include, for example, the entire causal route that associates the phenomenon in the process with its factors (see Figures 8 and 9), the highlighting of the causal route of the inferred cause of the phenomenon, and the highlighting of multiple causal routes. Ranking results, etc. Then, the display unit of the terminal device 4 causes the above-mentioned external display to display this information acquired by the information acquisition unit.
  • FIG. 12 shows the knowledge model used in this embodiment.
  • the knowledge model shown in FIG. 12 shows how multiple events affect a certain trouble C.
  • Each node of the knowledge model is given an explanation of the event that indicates the causal influence. Note that some nodes (phenomena) cannot be directly observed or data does not exist, so inferring factors is performed using nodes of observable phenomena. In the figure, the shaded nodes indicate nodes of unobservable phenomena, and the other nodes indicate nodes of observable phenomena.
  • Table 3 shows the degree of abnormality calculated by the abnormality diagnosis system for the monitoring items of the observable nodes in FIG.
  • a character search was performed on the monitoring items shown in Table 3, and nodes that were determined to match were extracted (node extraction step). In this node extraction step, if the same word is simply used, the monitoring item is assigned accordingly. On the other hand, if the words are not the same but similar, you can link similar words in advance (for example, "pressure” and “hydraulic”, “operator” and “operation”, etc.), and then link them to the appropriate node. Assign monitoring items to
  • the corresponding anomaly degree was assigned to the extracted nodes (data combination step), and as shown in Figure 13, the knowledge model was used to infer the factors (factor inference step) (causal route). . Note that some nodes (phenomena) may not be directly observable or for which no data exists, so the factors that can be inferred are made using observable nodes.
  • factor inference device factor inference method, factor inference system, and terminal device according to the embodiments described above, even when used by a user (operator, etc.) who does not have deep knowledge of the analysis target, sensor data and setting values It is possible to provide useful auxiliary information (causal route) for problem solving from operational data such as This allows the user to take appropriate and prompt action to solve the problem using this auxiliary information.
  • Information processing device 10 Input unit (input means) 20 Storage unit (storage means) 21 Knowledge model 30 Arithmetic unit (arithmetic means) 31 Knowledge model acquisition unit (knowledge model acquisition means) 32 Information creation department (information creation means) 33 Node extraction unit (node extraction means) 34 Data coupling section (data coupling means) 35 Factor inference section (factor inference means) 40 Output section (output means) 2 Factor inference system 3 Factor inference server device 4 Terminal device N Network

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

要因推論装置は、知識モデルを取得する知識モデル取得手段と、プロセスから収集したデータに基づいて、事象に関する異常指標を少なくとも含む情報を作成する情報作成手段と、プロセスから収集したデータの名称に基づいて、知識モデルのノードの情報を検索し、対応するノードを抽出するノード抽出手段と、抽出したノードに対して、対応する情報を結び付けるデータ結合手段と、知識モデルの構造とノードに結び付けられた情報とに基づいて、現象の要因を推論して提示する要因推論手段と、を備える。

Description

要因推論装置、要因推論方法、要因推論システムおよび端末装置
 本発明は、要因推論装置、要因推論方法、要因推論システムおよび端末装置に関する。
 昨今、ビックデータ分析やIoTの活用が盛んになり、膨大なデータを取得することができる。一方で、それらのデータを分析し、問題解決にまで至るには、分析対象に対する深い知識も持ち合わせる必要があり、そうでない場合は膨大なデータを正しく活用することは困難である。そのため、例えば生産装置のあるセンサデータが、普段とは異なる挙動を示した場合、このような挙動が生産装置や製品の品質にどのような影響を及ぼすのかに関する知識がなければ、問題解決のための対策を講じることは難しい。
 また、機械学習技術の進歩により、膨大なデータから高精度な予測や異常検知が可能となり、様々な場面で活用されるようになってきた。例えば鉄鋼業において、製造条件を入力データとして、深層学習技術を利用して、製品の表面疵の発生有無の予測や、多くの監視項目の情報を複合的に分析した設備異常の検知等が行われている。
 このようなデータの活用が進む中で、やはり上記と同様に、機械学習の結果から対応のアクションを起こすには課題がある。具体的には、機械学習モデルが異常と検知した監視項目の情報から、どのようなメカニズムでどのようなトラブルが起こりうるかについては、分析対象に対する深い知識が必要となる。このような知識を持ち合わせてない場合、機械学習の結果をもとにユーザがアクションを取ることは困難である。現場において、深い知識を持つベテラン層は限られているため、適切なアクションに結び付けられる補助情報の出力が求められている。
特開2019-194849号公報
Marco,"Why should I trust you?:Explaining the predictions of any classifier",Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining,August 2016,pp.1135-1144
 適切なアクションに結び付けるための補助情報を導出するための技術として、例えば非特許文献1では、重要な役割を果たした入力変数について、相対的な影響度の数値を求める手法が提案されている。
 しかしながら、非特許文献1で提案された技術では、各変数がどのように影響して予測や検知に至ったかのメカニズムに関する情報は与えられない。そのため、現状では、ユーザが有している予測や検知対象に対する知識を用いて、これらを推測している。従って、非専門家や経験の浅いユーザの場合、的確な推測ができず、適切なアクションに結び付けることができない。
 また、多数の変数を用いた機械学習の場合、分析対象に対する知識を持ち合わせていたとしても、推測に負荷や時間が掛かる等の理由により、迅速なアクションを起こすことができない場合もある。
 例えば特許文献1で提案された技術では、変数間の因果関係を自動で出力することにより、変数の影響を提示しようとしている。しかしながら、機械学習モデルで使用する変数の関係だけでは、やはり非専門家や経験の浅いユーザの場合、適切にメカニズムを理解できるとは言い難い。
 本発明は、上記に鑑みてなされたものであって、分析対象に対する深い知識を有しないユーザが使用する場合においても、センサデータや設定値等の操業データから問題解決のために有用な補助情報を与えることができ、適切かつ迅速なアクションに結び付けることができる要因推論装置、要因推論方法、要因推論システムおよび端末装置を提供することを目的とする。
 上述した課題を解決し、目的を達成するために、本発明に係る要因推論装置は、プロセスにおける現象の要因を推論する要因推論装置であって、前記プロセスにおける現象の因果関係について、前記プロセスに生ずる事象をノードとし、前記ノード間を結ぶネットワーク形式で表現された知識モデルを取得する知識モデル取得手段と、前記プロセスから収集したデータに基づいて、前記事象に関する異常指標を少なくとも含む情報を作成する情報作成手段と、前記プロセスから収集したデータの名称に基づいて、前記知識モデルのノードの情報を検索し、対応するノードを抽出するノード抽出手段と、抽出した前記ノードに対して、対応する前記情報を結び付けるデータ結合手段と、前記知識モデルの構造と前記ノードに結び付けられた前記情報とに基づいて、前記現象の要因を推論して提示する要因推論手段と、を備える。
 また、本発明に係る要因推論装置は、上記発明において、前記ノード抽出手段が、前記知識モデルのノードに対応する事象の文字情報から、前記データの名称と同一または類似の文字情報を検索することにより、前記ノードを抽出する。
 また、本発明に係る要因推論装置は、上記発明において、前記要因推論手段が、前記知識モデルにおいて、前記ノード同士を結び、かつ前記現象の因果関係を示す因果ルートを提示し、前記因果ルートが複数ある場合、前記因果ルートの各ノードに結び付けられた前記情報に基づいて、前記因果ルートをランク付けして提示する。
 また、本発明に係る要因推論装置は、上記発明において、前記要因推論手段が、前記因果ルートにおいて、異常を示す異常指標が結び付けられたノードの個数、または過去に因果ルートとして選択されたノードの個数に基づいて、前記因果ルートをランク付けして提示する。
 また、本発明に係る要因推論装置は、上記発明において、前記要因推論手段が、前記情報に基づいて前記知識モデルをブロック化し、前記知識モデルにおいて、前記ノード同士を結び、かつ前記現象の因果関係を示す因果ルートを前記ブロックごとに提示する。
 また、本発明に係る要因推論装置は、上記発明において、前記異常指標には、異常の度合いを示す異常度、予め定められた正常状態からの逸脱度に基づいて決定される区分のうち、少なくとも一つが含まれる。
 上述した課題を解決し、目的を達成するために、本発明に係る要因推論方法は、コンピュータによって構築された装置によって実行され、プロセスにおける現象の要因を推論する要因推論方法であって、前記コンピュータが備える知識モデル取得手段が、前記プロセスにおける現象の因果関係について、前記プロセスに生ずる事象をノードとし、前記ノード間を結ぶネットワーク形式で表現された知識モデルを取得する知識モデル取得ステップと、前記コンピュータが備える情報作成手段が、前記プロセスから収集したデータに基づいて、前記事象に関する異常指標を少なくとも含む情報を作成する情報作成ステップと、前記コンピュータが備えるノード抽出手段が、前記プロセスから収集したデータの名称に基づいて、前記知識モデルのノードの情報を検索し、対応するノードを抽出するノード抽出ステップと、前記コンピュータが備えるデータ結合手段が、抽出した前記ノードに対して、対応する前記情報を結び付けるデータ結合ステップと、前記コンピュータが備える要因推論手段が、前記知識モデルの構造と前記ノードに結び付けられた前記情報とに基づいて、前記現象の要因を推論して提示する要因推論ステップと、を含む。
 上述した課題を解決し、目的を達成するために、本発明に係る要因推論システムは、要因推論サーバ装置と、端末装置と、を備える要因推論システムであって、前記要因推論サーバ装置が、プロセスにおける現象の因果関係について、前記プロセスに生ずる事象をノードとし、前記ノード間を結ぶネットワーク形式で表現された知識モデルを取得する知識モデル取得手段と、前記プロセスから収集したデータに基づいて、前記事象に関する異常指標を少なくとも含む情報を作成する情報作成手段と、前記プロセスから収集したデータの名称に基づいて、前記知識モデルのノードの情報を検索し、対応するノードを抽出するノード抽出手段と、抽出した前記ノードに対して、対応する前記情報を結び付けるデータ結合手段と、前記知識モデルの構造と前記ノードに結び付けられた前記情報とに基づいて、前記現象の要因を推論する要因推論手段と、前記要因推論手段において推論された現象の要因を少なくとも含む情報を、前記端末装置に出力する出力手段と、を備え、前記端末装置が、前記要因推論サーバ装置から現象の要因を少なくとも含む情報を取得する情報取得手段と、前記情報取得手段が取得した情報を表示する表示手段と、を備える。
 上述した課題を解決し、目的を達成するために、本発明に係る端末装置は、要因推論サーバ装置から、プロセスにおける現象の要因を少なくとも含む情報を取得する情報取得手段と、前記情報取得手段が取得した情報を表示する表示手段と、を備え、前記現象の要因が、プロセスにおける現象の因果関係について、前記プロセスに生ずる事象をノードとし、前記ノード間を結ぶネットワーク形式で表現された知識モデルの構造と、前記知識モデルにおいて、前記プロセスから収集したデータの名称に基づいて抽出されたノードに結び付けられた情報であって、前記事象に関する異常指標を少なくとも含む情報とに基づいて推論されたものである。
 本発明に係る要因推論装置、要因推論方法、要因推論システムおよび端末装置によれば、分析対象に対する深い知識を有しないユーザが使用する場合においても、センサデータや設定値等の操業データから問題解決のために有用な補助情報を与えることができる。これにより、この補助情報を利用して、ユーザが問題解決のための適切かつ迅速なアクションを起こすことが可能となる。
図1は、本発明の実施形態に係る要因推論装置の概略的な構成を示す図である。 図2は、本発明の実施形態に係る要因推論装置が実行する要因推論方法の手順を示すフローチャートである。 図3は、本発明の実施形態に係る要因推論方法において、知識モデルの一例を示す図である。 図4は、本発明の実施形態に係る要因推論方法において、知識モデルの一部のノードをブロック化した一例を示す図である。 図5は、本発明の実施形態に係る要因推論方法において、単体監視システムによって取得する異常指標(異常/正常の区分)の一例を示す図である。 図6は、本発明の実施形態に係る要因推論方法において、異常検知システムによって取得する異常指標(異常度)の一例を示す図である。 図7は、本発明の実施形態に係る要因推論方法において、知識モデルに自動的に割り当てた監視項目の一例を示す図である。 図8は、本発明の実施形態に係る要因推論方法において、異常/正常の区分を用いた要因の推論結果の一例を示す図である。 図9は、本発明の実施形態に係る要因推論方法において、異常度を用いた要因の推論結果の一例を示す図である。 図10は、本発明の実施形態に係る要因推論方法を、鋼板の表面品質の予測に適用した場合の変形例を示す図である。 図11は、本発明の実施形態に係る要因推論システムの概略的な構成を示す図である。 図12は、本発明の実施形態に係る要因推論方法の実施例において、知識モデルの一例を示す図である。 図13は、本発明の実施形態に係る要因推論方法の実施例において、要因の推論結果の一例を示す図である。
 本発明の実施形態に係る要因推論装置、要因推論方法、要因推論システムおよび端末装置について、図面を参照しながら説明する。なお、本発明は以下の実施の形態に限定されるものではなく、以下の実施の形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものも含まれる。
〔要因推論装置〕
 実施形態に係る要因推論装置について、図1を参照しながら説明する。要因推論装置は、プロセスにおける現象の要因を推論するためのものである。本実施形態における「プロセス」としては、例えば鉄鋼製品の製造プロセス、発電設備の発電プロセス、搬送設備の搬送プロセス等が挙げられる。
 本実施形態では、熱延プロセスにおける異常の要因を推論する場合を想定して説明を行う。熱延プロセスは、加熱したスラブを所定の厚みまで圧延する工程である。熱延プロセスでは、加熱炉、圧延機、急冷設備等の多数の設備により処理を行うが、設備で異常が起こると、圧延途中における板の破断や、穴あき等の重大なトラブルを起こす可能性がある。そのため、異常の要因を推論してユーザ(オペレータ等)に提示し、これらの重大トラブルを未然に防ぐことは、安定した生産のためには重要である。
 図1は、要因推論装置を実現するための情報処理装置1の構成の一例を示している。この情報処理装置1は、例えばワークステーションやパソコン等の汎用コンピュータによって実現される。また、情報処理装置1は、図1に示すように、入力部10と、記憶部20と、演算部30と、出力部40と、を備えている。
 入力部10は、演算部30に対する入力手段であり、例えばキーボード、マウスポインタ、テンキー等の入力装置によって実現される。入力部10は、演算部30における各種演算に必要な情報を入力する。
 記憶部20は、例えばEPROM(Erasable Programmable ROM)、ハードディスクドライブ(Hard Disk Drive:HDD)およびリムーバブルメディア等の記録媒体によって実現される。リムーバブルメディアとしては、例えばUSB(Universal Serial Bus)メモリ、CD(Compact Disc)、DVD(Digital Versatile Disc)、BD(Blu-ray(登録商標) Disc)のようなディスク記録媒体が挙げられる。
 記憶部20には、オペレーティングシステム(Operating System:OS)、各種プログラム、各種テーブル、各種データベース等が格納可能である。記憶部20には、知識モデル21が格納されている。なお、記憶部20には、知識モデル21の他にも、必要に応じて演算部30における演算結果等が格納されてもよい。
 知識モデル21は、プロセスにおける現象の因果関係について、当該プロセスに生ずる事象をノードとし、ノード間を結ぶネットワーク形式で表現されたモデルである。この知識モデル21は、例えば予め人手で作成され、コンピュータが読み込める形で記憶部20に格納される。また、知識モデル21は、複数の現象(トラブル)に対応できるように一つだけ作成してもよく、あるいは複数の現象に対応させて複数作成してもよい。なお、知識モデル21の詳細については後記する(図3および図4参照)。
 演算部30は、例えばCPU(Central Processing Unit)等からなるプロセッサと、RAM(Random Access Memory)やROM(Read Only Memory)等からなるメモリ(主記憶部)と、によって実現される。
 演算部30は、プログラムを主記憶部の作業領域にロードして実行し、プログラムの実行を通じて各構成部等を制御することにより、所定の目的に合致した機能を実現する。演算部30は、前記したプログラムの実行を通じて、知識モデル取得部31、情報作成部32、ノード抽出部33、データ結合部34および要因推論部35として機能する。なお、図1では、一台のコンピュータによって演算部30の各部の機能を実現する場合の例を示しているが、各部の機能の実現方法は特に限定されず、例えば複数のコンピュータによって各部の機能をそれぞれ実現してもよい。
 知識モデル取得部31は、記憶部20から知識モデル21を取得する。
 情報作成部32は、プロセスから操業データを収集し、当該操業データに基づいて、事象に関する異常指標を少なくとも含む情報を作成する。情報作成部32が作成する情報は、後記するデータ結合部34において、知識モデル21のノードに結び付けられる情報である。この情報としては、前記した異常指標に加えて、例えばデータ形式、設備の種類、事象のタイミング等が含まれてもよい。
 異常指標には、例えば異常の度合いを示す異常度(異常スコア(異常値))、予め定められた正常状態からの逸脱度に基づいて決定される区分等が含まれる。なお、「正常状態からの逸脱度に基づいて決定される区分」とは、例えば正常/異常の判定結果のことを示している。
 データ形式には、例えば観測値、設定値、カテゴリ等が含まれる。なお、「観測値」とは、センサによって取得された設備のセンサデータのことを示している。また、「設定値」とは、設備に設定される設定値のことを示している。また、「カテゴリ」とは、データの種類のことを示している。
 事象のタイミングには、設定計算時、操業中、非操業中等が含まれる。なお、「設定計算時」とは、当該事象が設定計算時に発生したことを示している。また、「操業中」とは、当該事象が操業中に発生したことを示している。また、「非操業中」とは、当該事象が非操業中に発生したことを示している。
 ノード抽出部33は、プロセスから収集したデータの名称に基づいて、知識モデル21のノードの情報を検索し、対応するノードを抽出する。ノード抽出部33は、具体的には、知識モデル21のノードに対応する事象の文字情報から、データの名称と同一または類似の文字情報を検索することにより、ノードを抽出する。そして、抽出したノードに対して、当該ノードの事象の内容と関係のある監視項目を、文字の類似性に基づいて自動的に割り当てる。なお、ノード抽出部33の処理の詳細については後記する(図7参照)。
 データ結合部34は、ノード抽出部33が抽出した知識モデル21のノードに対して、当該ノードに対応する情報(情報作成部32によって作成された情報)を結び付ける。なお、データ結合部34の処理の詳細については後記する(図8および図9参照)。
 要因推論部35は、知識モデル21の構造と、当該知識モデル21のノードに結び付けられた情報とに基づいて、現象が発生する要因を推論し、ユーザに提示する。要因推論部35は、具体的には、知識モデル21において、ノード同士を結び、かつ現象の因果関係を示す因果ルートを特定する。そして、要因推論部35は、当該因果ルートを、出力部40を通じてユーザに提示する。
 また、要因推論部35は、推論した因果ルートが複数ある場合、当該因果ルートの各ノードに結び付けられた情報に基づいて、因果ルートをランク付けして提示する。この場合、要因推論部35は、例えば推論した因果ルートにおいて、異常を示す異常指標が結び付けられたノードの個数、または過去に因果ルートとして選択されたノードの個数に基づいて、因果ルートをランク付けして提示することができる。
 また、要因推論部35は、各ノードに結び付けられる情報に基づいて知識モデル21をブロック化し、知識モデル21において、因果ルートをブロックごとに提示することもできる。なお、要因推論部35における各処理の詳細については後記する(図8および図9参照)。
 出力部40は、演算部30による演算結果を出力する出力手段である。出力部40は、例えばディスプレイ、プリンタ等の入力装置によって実現される。出力部40は、例えば予め作成された知識モデル21、要因推論部35における現象の要因の推論結果(例えば因果ルート)等を、出力する。
〔要因推論方法〕
 実施形態に係る要因推論方法について、図2~図9を参照しながら説明する。要因推論方法では、図2に示すように、知識モデル取得ステップ(ステップS1)と、操業データ収集ステップ(ステップS2)と、情報作成ステップ(ステップS3)と、ノード抽出ステップ(ステップS4)と、データ結合ステップ(ステップS5)と、要因推論ステップ(ステップS6)と、要因提示ステップ(ステップS7)と、を順に行う。以下、各ステップの詳細について説明する。
<知識モデル取得ステップ>
 知識モデル取得ステップでは、知識モデル取得部31が、記憶部20に予め格納されている知識モデル21を取得する。以下、知識モデル21の詳細について説明する。
(知識モデル)
 知識モデル21は、上記のように、プロセスにおける現象の因果関係について、当該プロセスに生ずる事象をノードとし、ノード間を結ぶネットワーク形式で表現されたモデルである。本実施形態では、プロセスの監視項目に関係する事象が、どのように発展してどのようなトラブルへと至るのかをコンピュータ上で推測するために、トラブルを引き起こす現象のメカニズムに関する知識を、コンピュータが処理可能な知識モデル21として用意する。
 知識モデル21は、図3に示すように、トラブル発生のメカニズムを、事象間を因果関係で結んだ因果連鎖の形で、ネットワーク構造を用いて表現している。この因果連鎖の最終結果、すなわち各事象を辿った先(最上段)が、プロセスにおいて注目するトラブルとなる。知識モデル21では、具体的には、トラブルに関連する設備の設定条件、物理的現象、設備の状態等の事象を、ネットワーク構造におけるノードとし、因果関係のある事象をエッジによって接続している。
 図3に一例として示した知識モデル21では、And条件で事象が生じる場合は、丸印を介して各事象をエッジにより接続している。一方、Or条件で事象が生じる場合は、丸印を介さずに各事象をエッジにより直接接続している。例えば同図に示した知識モデル21では、「事象5および事象6の両方が起こると事象3が発生する」、「事象3または事象4のいずれかが起こると事象1が発生する」、「事象1または事象2のいずれかが起こるとトラブルAが発生する」、ということをそれぞれ示している。
 知識モデル21の最上段に記述される具体的なトラブル(図3のトラブルA)としては、例えば熱延プロセスにおける穴あき、腰折れ、破断等が挙げられる。また、知識モデル21の各ノードが示す事象の例としては、例えば「加熱炉でのスラブの加熱むら」、「スラブに偏熱が生じる」、「クラウンが大きくなる」等が挙げられる。
 なお、図3に示した知識モデル21では、便宜上「トラブルA」、「事象1~7」と表記しているが、実際の運用では、トラブルAおよび事象1~7に対応する具体的な内容が記述される。このように、本実施形態では、因果関係のネットワーク構造で表現した知識モデル21を、コンピュータが読み込める形で作成しておく。
(知識モデルのブロック化)
 知識モデル21は、後記するように、知識モデル21のノードに対して属性情報が登録されている場合、例えば図4に示すように、当該属性情報に基づいて、一部の事象に対応するノードをブロック化することも可能である。例えば同図に示したブロックXの中には、共通の属性情報を有する別の知識モデル21が内包されている。例えば同図に示した事象3,5,6は、いずれも属性[タイミング]が「設定計算時」であるため、一つのブロックとしてまとめて表現している。
 また、ブロックの中に更にブロックを作成することも可能であり、階層的な表現が可能となっている。また、知識モデル21を、出力部40を通じてユーザに提示した際に、ブロックをクリックすることにより、内包されているノードやブロックの詳細を表示することも可能である。このように、知識モデル21の一部をブロック化することにより、事象間の因果関係を、同じ属性単位(例えば同じ設備単位)で提示することができるため、プロセスにおけるトラブルの要因をより分かりやすく提示することができる。
<操業データ収集ステップ、情報作成ステップ>
 操業データ収集ステップでは、情報作成部32がプロセスから操業データを収集する。続いて、情報作成ステップでは、情報作成部32が、収集した操業データに基づいて、事象に関する異常指標を少なくとも含む情報を作成する。操業データ収集ステップおよび情報作成ステップでは、例えば既存の単体監視システムや異常検知システム等を通じて、操業データを収集し、かつ異常指標を含む情報を作成することができる。
(単体監視システム)
 単体監視システムでは、設備に設置された各種センサ等により操業データを多数収集し、監視項目を決定した後、予め定めた閾値から逸脱するか否か等により監視を行う。単体監視システムにおける監視の方法としては、例えば正常時の分布の平均から3σ以上乖離すると異常と判定する方法や、図5に示すように、監視項目の値が管理上限または管理下限の範囲から逸脱した場合に異常と判定する方法等が挙げられる。
 ここで、操業データは多岐にわたるため、全てを監視することは難しく、異常な挙動を示しているデータがあったとしても、そのデータから生産への影響を判断するには、各設備やプロセスへの深い知識が必要となる。そのため、ベテラン層でなければ、データから生産への影響を判断することは困難である。そこで、本実施形態では、単体監視システムによって取得した異常指標と、知識モデル21とを利用して、トラブルの要因を推論する。なお、単体監視システムによって取得する異常指標は、図5に示すような異常/正常の区分(判定結果)でもよく、あるいは異常の度合いを示す異常度(異常スコア)でもよい。
(異常検知システム)
 異常検知システムでは、設備が異常を示しているかどうかを判断するために、機械学習を用いた方法を取り入れている。単体監視システムでは、監視項目単体を見て異常かどうかを判断するのに対して、異常検知システムでは、複数の監視項目を複合的に見て異常かどうかを判断する。
 異常検知システムにおける機械学習の手法としては、例えばグラフィカルガウシアンモデルや主成分分析等の統計ベースの手法、オートエンコーダ等の深層学習をベースとした手法等を用いることができる。これらの手法では、正常時における監視項目のデータを学習させ、現在のデータが異常か否かを出力する。異常検知システムでは、例えば図6に示すように、監視項目ごとの異常度(異常スコア)が出力され、監視項目が異常か否かは異常度の大小により判断する。なお、熱延プロセスにおける監視項目としては、例えば「蛇行量」、「荷重差」、「スラブの温度差」等が挙げられる。
 ここで、異常検知システムにおける監視項目の数は、数千項目にもなり膨大である。そのため、異常と判断した監視項目から、瞬時にどのようなトラブルに結び付くのかを判断することは困難である。また、トラブルに対応するアクションを取るために、各監視項目に関連する現象がどのようなメカニズムによりトラブルへと発展しうるのかを推測することは、トラブルに関する十分な知識がない経験の浅いユーザには困難である。そこで、本実施形態では、異常検知システムによって取得した異常指標と、知識モデル21とを利用してトラブルの要因を推論する。
<ノード抽出ステップ>
 ノード抽出ステップでは、ノード抽出部33が、プロセスから収集したデータの名称に基づいて、知識モデル21のノードの文字情報を検索し、対応するノードを抽出する。そして、抽出したノードに対して、当該ノードの事象の内容と関係のある監視項目を、文字の類似性に基づいて自動的に割り当てる。
 ノードの文字情報を検索する手法としては、ルールベースに基づいて文字列を検索する方法、表記ゆれ等をまとめた類義語の辞書を予め用意し、表記ゆれ等の影響を考慮して類似する単語を検索する方法、または機械学習モデルを利用して類似する単語を検索する方法等が挙げられる。
 例えば図7に示すように、事象2の内容が「加熱炉でのスラブの温度むら」である場合、「スラブの温度差」という監視項目が割り当てられる。なお、事象によってはセンサ等によって監視(観測)できないものある。そのため、全てのノードに監視項目を割り当てる必要はなく、監視項目のないノードがあってもよい。
 なお、知識モデル21のノードのうち、監視項目が登録されたノードに対して、必要に応じて属性情報を割り当ててもよい。この属性情報には、例えば事象に関する異常指標、データ形式、設備の種類、事象のタイミング等が含まれる。
 異常指標には、例えば異常の度合いを示す異常度(異常スコア)、予め定められた正常状態からの逸脱度に基づいて決定される区分等が含まれる。また、データ形式には、例えば観測値、設定値、カテゴリ等が含まれる。また、事象のタイミングには、設定計算時、操業中、非操業中等が含まれる。なお、監視項目と同様に、全てのノードに属性情報を割り当てる必要はなく、属性情報のないノードがあってもよい。
<データ結合ステップ>
 データ結合ステップでは、データ結合部34が、知識モデル21のノード(ノード抽出部33によって抽出されたノード)に対して、当該ノードに対応する情報(情報作成部32によって作成された情報)を結び付ける。データ結合ステップにおいて、知識モデル21に結び付ける情報は、前記した単体監視システムや異常検知システムによって取得した異常指標を少なくとも含む情報である。
 知識モデル21に結び付ける情報としては、異常指標、データ形式、設備の種類、事象のタイミング等が挙げられる。また、異常指標としては、例えば表1に示すような異常/正常の区分や、表2に示すような監視項目ごとに算出された異常度等が挙げられる。なお、表1では、「異常/正常」からなる2パターンの区分を一例として示しているが、例えば「正常/小異常/大異常」からなる3パターンの区分を用いてもよい。
Figure JPOXMLDOC01-appb-T000001
Figure JPOXMLDOC01-appb-T000002
<要因推論ステップ>
 要因推論ステップでは、要因推論部35が、知識モデル21の構造と、当該知識モデル21のノードに結び付けられた情報とに基づいて、現象の要因を推論する。要因推論ステップでは、因果連鎖のグラフ構造で表現した知識モデル21と、表1および表2に示した異常指標とを用いて、プロセスにおいてどのようなトラブルが発生しうるか、またトラブルがどのように発生するのかを推論する。以下では、表1の異常指標(異常/正常の区分)を用いた推論と、表2の異常指標(異常度)を用いた推論とについて、それぞれ分けて説明する。
(異常/正常の区分を用いた推論)
 データ結合ステップにおいて、表1の異常指標を知識モデル21に反映(結合)させた上で、図8に示すように、異常と判断した監視項目の事象から因果関係の結果方向へと辿る。これにより、到達した最終のノードに記述されたトラブル(同図ではトラブルA)を、プロセスに発生しうるトラブルとして特定する。また、当該トラブルの発生メカニズムとして、同図の太線で示すように、先ほど辿った事象の因果ルートを特定する。
 ここで、要因推論ステップにおいて、因果関係の結果方向へと辿る際に、Andの接続関係がある場合は、該当する事象が全て異常となった場合のみ、更に結果方向へと辿るようにする。例えば図8では、事象5と事象6の両方が異常となっているため、事象3へ辿っている。また、結果方向へと辿る途中で、監視項目が正常の事象に到達した場合には、そこからさらに結果方向へ辿る処理は中断する。
(異常度を用いた推論)
 データ結合ステップにおいて、表2の異常指標を知識モデル21に反映(結合)させた上で、図9に示すように、異常度に応じて監視項目の事象から因果関係の結果方向へと辿る。これにより、到達した最終のノードに記述されたトラブル(同図ではトラブルA)を、プロセスに発生しうるトラブルとして特定する。また、当該トラブルの発生メカニズムとして、同図の太線で示すように、先ほど辿った事象の因果ルートを特定する。
 ここで、要因推論ステップでは、最終のノードに記述されたの発生メカニズムとして、異常度の総和が最も高い因果ルートを特定する。例えば図9では、事象5→事象3→事象1→トラブルAまでの因果ルートの異常度の総和が、「24.0」で最も高いため、同図の太線で示すように、事象5→事象3→事象1→トラブルAまでの因果ルートを特定する。
<要因提示ステップ>
 要因提示ステップでは、要因推論部35が、要因推論ステップで推論した現象の要因を、出力部40を通じてユーザに提示する。要因提示ステップでは、具体的には、図8および図9において太線で示した因果ルートを提示する。なお、要因提示ステップでは、同図のように因果ルートを太線で強調表示(ハイライト表示)する方法以外にも、例えば以下のように因果ルートを強調表示してもよい。例えば、要因提示ステップでは、因果ルートに含まれるノードおよびエッジを、それ以外のノードおよびエッジとは別の色で表示してもよく、あるいは、因果ルートに含まれるノードおよびエッジのみを表示し、それ以外のノードおよびエッジを非表示としてもよい。
 なお、要因推論ステップにおいて、複数のトラブルが特定された場合や、複数の因果ルートが特定された場合は、複数のトラブルおよび複数のトラブルを、出力部40を通じてユーザに提示すればよい。その際、例えば要因推論ステップで特定された因果ルートにおいて、異常を示す異常指標が結び付けられたノードの個数、または過去に因果ルートとして選択されたノードの個数に基づいて、因果ルートをランク付けして提示してもよい。
〔変形例〕
 前記した実施形態では、熱延プロセスにおける異常の要因を推論する場合を想定していたが、例えば鋼板の表面品質の予測に適用することも可能である。鋳造や圧延において問題が生じ、製造後や製造途中において鋼板の表面に疵が付くことがある。疵が付いた鋼板は出荷できないため、歩留ロスに結び付く。
 そのため、鋼板の製造条件から疵の発生の有無を予測する予測モデル(機械学習モデル)が開発されている。この技術では、予測モデルが予測した結果に対して、使用した製造条件のデータ項目(以下、「説明変数」という)のうちのどれが影響しているかという指標を数値(以下「影響度」という)によって出力することが可能である。鋼板に疵が発生すると予測された場合は、原因を探るために上記の影響度を参考にするが、疵の発生メカニズムに関する深い知識がないと、各説明変数の現象がどのように結び付いて疵が発生したのかを判断することが難しい。
 そこで、本変形例では、図10に示すように、疵を引き起こす事象の因果関係のネットワーク構造で表現された知識モデル21を、コンピュータが読み込める形で作成しておく。また、この知識モデル21のノードには、当該ノードの事象に関係する予測モデルの説明変数(同図の説明変数1~4参照)を割り当てる。
 本変形例のデータ結合ステップでは、知識モデル21のノードに対して、各説明変数が重要であるか否かに関する情報を結び付ける。各説明変数が重要であるか否かに関する情報は、例えば予測モデルによって計算された説明変数の影響度が、予め定めた閾値を超えるか否かに基づいて作成することができる。
 本変形例では、要因推論ステップにおいて、図10の太線で示すような因果ルートを特定する。そして、要因提示ステップにおいて、特定した因果ルートを提示する。
〔要因推論システム〕
 実施形態に係る要因推論システム2は、図11に示すように、要因推論サーバ装置3と、端末装置4と、を備えている。要因推論サーバ装置3および端末装置4は、例えばインターネット回線網等のネットワークNを通じて通信可能に構成されている。また、要因推論システム2のうち、端末装置4は、例えば製鉄所内に配置される。
 要因推論サーバ装置3は、例えばクラウド上に配置されたサーバ等により実現される。この要因推論サーバ装置3は、図1に示した情報処理装置1によって実現される要因推論装置のネットワーク対応サーバ装置であり、当該要因推論装置と同様の構成を備えている。すなわち、要因推論サーバ装置3は、情報処理装置1の構成要素のうち、知識モデル取得部、情報作成部、ノード抽出部、データ結合部および要因推論部として機能する演算部と、出力部と、を少なくともを備えている。
 要因推論サーバ装置3の知識モデル取得部は、プロセスにおける現象の因果関係について、プロセスに生ずる事象をノードとし、ノード間を結ぶネットワーク形式で表現された知識モデルを取得する。また、要因推論サーバ装置3の情報作成部は、プロセスから収集したデータに基づいて、事象に関する異常指標を少なくとも含む情報を作成する。また、要因推論サーバ装置3のノード抽出部は、プロセスから収集したデータの名称に基づいて、知識モデルのノードの情報を検索し、対応するノードを抽出する。また、要因推論サーバ装置3のデータ結合部は、抽出したノードに対して、対応する情報を結び付ける。また、要因推論サーバ装置3の要因推論部は、知識モデルの構造とノードに結び付けられた情報とに基づいて、現象の要因を推論する。また、要因推論サーバ装置3の出力部は、要因推論部において推論された現象の要因を少なくとも含む情報を、ネットワークN経由で端末装置4に出力する。
 端末装置4は、要因推論サーバ装置3からネットワークNを通じて各種情報を取得して表示する。この端末装置4は、例えばパソコン等の汎用コンピュータ、タブレット型コンピュータ等のモバイル情報処理機器によって実現される。また、端末装置4は、情報取得部および表示部として機能する演算部を備えている。また、端末装置4には、例えば液晶ディスプレイ(LCD)、有機ELディスプレイ(OLED)、タッチパネルディスプレイ等の外部ディスプレイが接続されている。
 端末装置4の情報取得部は、要因推論サーバ装置3から、当該要因推論サーバ装置3によって推論された現象の要因を少なくとも含む情報を取得する。この現象の要因は、プロセスにおける現象の因果関係について、プロセスに生ずる事象をノードとし、ノード間を結ぶネットワーク形式で表現された知識モデルの構造と、知識モデルのノードに結び付けられた情報とに基づいて推論されたものである。また、知識モデルのノードに結び付けられた情報は、当該知識モデルにおいて、プロセスから収集したデータの名称に基づいて抽出されたノードに結び付けられた情報であって、事象に関する異常指標を少なくとも含む情報である。
 また、上記の現象の要因としては、例えばプロセスにおける現象とその要因とを関連付けた因果ルート全体(図8および図9参照)、推論した現象の要因の因果ルートの強調表示、複数の因果ルートのランク付けの結果、等が挙げられる。そして、端末装置4の表示部は、情報取得部が取得したこれらの情報を、上記の外部ディスプレイに表示させる。
〔実施例〕
 本発明に係る要因推論方法を鋼板の圧延プロセスに適用した実施例について、図12および図13を参照しながら説明する。図12は、本実施例で用いる知識モデルを示している。
 図12に示した知識モデルは、あるトラブルCに対して、複数の事象がどのような影響を与えるのかを示している。知識モデルのそれぞれのノードには、因果の影響を示す事象の説明が付与されている。なお、ノード(現象)によっては、直接観測ができない場合やデータが存在しないものもあるため、観測可能な現象のノードを利用して要因の推論を行う。同図において、網掛けで示したノードは観測不可能な現象のノードを示しており、それ以外のノードは観測可能な現象のノードを示している。
 表3は、図12の観測可能なノードの監視項目について、異常診断システムによって演算された異常度を示している。
Figure JPOXMLDOC01-appb-T000003
 本実施例では、表3に示した監視項目に対して文字検索を行い、一致すると判断されたノードを抽出した(ノード抽出ステップ)。なお、このノード抽出ステップでは、単純に同じ単語が使われている場合はその通りに監視項目を割り当てる。一方、同じ単語ではなく、類似した単語である場合は、あらかじめ類似の単語を紐づけておく(例えば「圧力」と「油圧」、「オペレータ」と「オペ」等)ことにより、適切なノードに対して監視項目を割り当てる。
 本実施例では、図13に示すように、「設備Aの油圧が低下」という事象のノードに対しては、「設備A圧力」という監視項目を、「オペレータ操作量が適正量を超える」というという事象のノードに対しては、「オペ操作量」という監視項目を割り当てた。また、「鋼板の厚さが設定と異なる」という事象のノードに対しては、「鋼板板厚」という監視項目を、「鋼板の温度が設定と異なる」というという事象のノードに対しては、「鋼板温度」という監視項目を割り当てた。また、「設備Bの速度が速い」という事象のノードに対しては、「設備B速度」という監視項目を割り当てた。
 続いて、抽出したノードに対して、対応する異常度を割り当て(データ結合ステップ)、図13に示すように、知識モデルを利用して要因の推論(要因推論ステップ)を行った(因果ルート)。なお、ノード(現象)によっては、直接観測ができない場合やデータが存在しないものもあるため、観測可能なノードを利用して要因の推論を行う。
 図13では、トラブルCまでの因果ルートが4つ存在する。そして、同図に太線で示すように、トラブルCに至るノードのうち、異常度の合計(以下、「ルート異常度合計」とう)が最も高いノードを辿ると、「設備状態Bの速度異常(速度が遅い)」ことが根本的な原因であることがわかる。このように、本発明に係る要因推論方法によれば、知識モデルを用いることにより、トラブルの根本的な原因を容易に把握することが可能となる。
 以上説明した実施形態に係る要因推論装置、要因推論方法、要因推論システムおよび端末装置によれば、分析対象に対する深い知識を有しないユーザ(オペレータ等)が使用する場合においても、センサデータや設定値等の操業データから問題解決のために有用な補助情報(因果ルート)を与えることができる。これにより、この補助情報を利用して、ユーザが問題解決のための適切かつ迅速なアクションを起こすことが可能となる。
 以上、本発明に係る要因推論装置、要因推論方法、要因推論システムおよび端末装置について、発明を実施するための形態および実施例により具体的に説明したが、本発明の趣旨はこれらの記載に限定されるものではなく、請求の範囲の記載に基づいて広く解釈されなければならない。また、これらの記載に基づいて種々変更、改変等したものも本発明の趣旨に含まれることはいうまでもない。
 1 情報処理装置
 10 入力部(入力手段)
 20 記憶部(記憶手段)
 21 知識モデル
 30 演算部(演算手段)
 31 知識モデル取得部(知識モデル取得手段)
 32 情報作成部(情報作成手段)
 33 ノード抽出部(ノード抽出手段)
 34 データ結合部(データ結合手段)
 35 要因推論部(要因推論手段)
 40 出力部(出力手段)
 2 要因推論システム
 3 要因推論サーバ装置
 4 端末装置
 N ネットワーク

Claims (9)

  1.  プロセスにおける現象の要因を推論する要因推論装置であって、
     前記プロセスにおける現象の因果関係について、前記プロセスに生ずる事象をノードとし、前記ノード間を結ぶネットワーク形式で表現された知識モデルを取得する知識モデル取得手段と、
     前記プロセスから収集したデータに基づいて、前記事象に関する異常指標を少なくとも含む情報を作成する情報作成手段と、
     前記プロセスから収集したデータの名称に基づいて、前記知識モデルのノードの情報を検索し、対応するノードを抽出するノード抽出手段と、
     抽出した前記ノードに対して、対応する前記情報を結び付けるデータ結合手段と、
     前記知識モデルの構造と前記ノードに結び付けられた前記情報とに基づいて、前記現象の要因を推論して提示する要因推論手段と、
     を備える要因推論装置。
  2.  前記ノード抽出手段は、前記知識モデルのノードに対応する事象の文字情報から、前記データの名称と同一または類似の文字情報を検索することにより、前記ノードを抽出する、
     請求項1に記載の要因推論装置。
  3.  前記要因推論手段は、
     前記知識モデルにおいて、前記ノード同士を結び、かつ前記現象の因果関係を示す因果ルートを提示し、
     前記因果ルートが複数ある場合、前記因果ルートの各ノードに結び付けられた前記情報に基づいて、前記因果ルートをランク付けして提示する、
     請求項1または請求項2に記載の要因推論装置。
  4.  前記要因推論手段は、前記因果ルートにおいて、異常を示す異常指標が結び付けられたノードの個数、または過去に因果ルートとして選択されたノードの個数に基づいて、前記因果ルートをランク付けして提示する、
     請求項3に記載の要因推論装置。
  5.  前記要因推論手段は、前記情報に基づいて前記知識モデルをブロック化し、前記知識モデルにおいて、前記ノード同士を結び、かつ前記現象の因果関係を示す因果ルートを前記ブロックごとに提示する、
     請求項1から請求項4のいずれか一項に記載の要因推論装置。
  6.  前記異常指標には、異常の度合いを示す異常度、予め定められた正常状態からの逸脱度に基づいて決定される区分のうち、少なくとも一つが含まれる、
     請求項1から請求項5のいずれか一項に記載の要因推論装置。
  7.  コンピュータによって構築された装置によって実行され、プロセスにおける現象の要因を推論する要因推論方法であって、
     前記コンピュータが備える知識モデル取得手段が、前記プロセスにおける現象の因果関係について、前記プロセスに生ずる事象をノードとし、前記ノード間を結ぶネットワーク形式で表現された知識モデルを取得する知識モデル取得ステップと、
     前記コンピュータが備える情報作成手段が、前記プロセスから収集したデータに基づいて、前記事象に関する異常指標を少なくとも含む情報を作成する情報作成ステップと、
     前記コンピュータが備えるノード抽出手段が、前記プロセスから収集したデータの名称に基づいて、前記知識モデルのノードの情報を検索し、対応するノードを抽出するノード抽出ステップと、
     前記コンピュータが備えるデータ結合手段が、抽出した前記ノードに対して、対応する前記情報を結び付けるデータ結合ステップと、
     前記コンピュータが備える要因推論手段が、前記知識モデルの構造と前記ノードに結び付けられた前記情報とに基づいて、前記現象の要因を推論して提示する要因推論ステップと、
     を含む要因推論方法。
  8.  要因推論サーバ装置と、端末装置と、を備える要因推論システムであって、
     前記要因推論サーバ装置は、
     プロセスにおける現象の因果関係について、前記プロセスに生ずる事象をノードとし、前記ノード間を結ぶネットワーク形式で表現された知識モデルを取得する知識モデル取得手段と、
     前記プロセスから収集したデータに基づいて、前記事象に関する異常指標を少なくとも含む情報を作成する情報作成手段と、
     前記プロセスから収集したデータの名称に基づいて、前記知識モデルのノードの情報を検索し、対応するノードを抽出するノード抽出手段と、
     抽出した前記ノードに対して、対応する前記情報を結び付けるデータ結合手段と、
     前記知識モデルの構造と前記ノードに結び付けられた前記情報とに基づいて、前記現象の要因を推論する要因推論手段と、
     前記要因推論手段において推論された現象の要因を少なくとも含む情報を、前記端末装置に出力する出力手段と、
     を備え、
     前記端末装置は、
     前記要因推論サーバ装置から現象の要因を少なくとも含む情報を取得する情報取得手段と、
     前記情報取得手段が取得した情報を表示する表示手段と、
     を備える要因推論システム。
  9.  要因推論サーバ装置から、プロセスにおける現象の要因を少なくとも含む情報を取得する情報取得手段と、
     前記情報取得手段が取得した情報を表示する表示手段と、
     を備え、
     前記現象の要因は、プロセスにおける現象の因果関係について、前記プロセスに生ずる事象をノードとし、前記ノード間を結ぶネットワーク形式で表現された知識モデルの構造と、前記知識モデルにおいて、前記プロセスから収集したデータの名称に基づいて抽出されたノードに結び付けられた情報であって、前記事象に関する異常指標を少なくとも含む情報とに基づいて推論されたものである、
     端末装置。
PCT/JP2023/007733 2022-03-16 2023-03-02 要因推論装置、要因推論方法、要因推論システムおよび端末装置 WO2023176467A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023536386A JPWO2023176467A1 (ja) 2022-03-16 2023-03-02

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-041005 2022-03-16
JP2022041005 2022-03-16

Publications (1)

Publication Number Publication Date
WO2023176467A1 true WO2023176467A1 (ja) 2023-09-21

Family

ID=88023609

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/007733 WO2023176467A1 (ja) 2022-03-16 2023-03-02 要因推論装置、要因推論方法、要因推論システムおよび端末装置

Country Status (2)

Country Link
JP (1) JPWO2023176467A1 (ja)
WO (1) WO2023176467A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0666607A (ja) * 1992-08-21 1994-03-11 Hitachi Ltd プラント運転情報提供方法及び装置
JPH07219624A (ja) * 1994-02-04 1995-08-18 Hitachi Ltd プラント監視方法および装置
JPH08234832A (ja) * 1995-02-24 1996-09-13 Toshiba Corp プラント監視診断装置および方法
JP2000075923A (ja) * 1998-09-03 2000-03-14 Yamatake Corp 異常診断装置
JP2007257285A (ja) * 2006-03-23 2007-10-04 Omron Corp 要因推定装置、要因推定方法、プログラムおよびコンピュータ読取可能記録媒体
JP2019082943A (ja) * 2017-10-31 2019-05-30 株式会社日立製作所 因果関係モデル構築システムおよび方法
JP2021174408A (ja) * 2020-04-28 2021-11-01 Jfeスチール株式会社 支援装置及び支援方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0666607A (ja) * 1992-08-21 1994-03-11 Hitachi Ltd プラント運転情報提供方法及び装置
JPH07219624A (ja) * 1994-02-04 1995-08-18 Hitachi Ltd プラント監視方法および装置
JPH08234832A (ja) * 1995-02-24 1996-09-13 Toshiba Corp プラント監視診断装置および方法
JP2000075923A (ja) * 1998-09-03 2000-03-14 Yamatake Corp 異常診断装置
JP2007257285A (ja) * 2006-03-23 2007-10-04 Omron Corp 要因推定装置、要因推定方法、プログラムおよびコンピュータ読取可能記録媒体
JP2019082943A (ja) * 2017-10-31 2019-05-30 株式会社日立製作所 因果関係モデル構築システムおよび方法
JP2021174408A (ja) * 2020-04-28 2021-11-01 Jfeスチール株式会社 支援装置及び支援方法

Also Published As

Publication number Publication date
JPWO2023176467A1 (ja) 2023-09-21

Similar Documents

Publication Publication Date Title
JP6411769B2 (ja) 状態監視装置
JP6556328B2 (ja) 生産設備経営最適化装置
JP7031743B2 (ja) 異常検知装置
JP6315528B1 (ja) 異常検知モデル構築装置、異常検知モデル構築方法及びプログラム
Wen et al. Myths and misconceptions of data-driven methods: Applications to process safety analysis
JP2018163622A (ja) 製造不良原因の探索支援方法及び情報処理装置
Ganguly et al. A teaching–learning based optimization approach for economic design of X-bar control chart
Krishna et al. Less is more: Minimizing code reorganization using XTREE
JP7248188B2 (ja) 異常診断モデルの構築方法、異常診断方法、異常診断モデルの構築装置および異常診断装置
WO2023176467A1 (ja) 要因推論装置、要因推論方法、要因推論システムおよび端末装置
WO2023176464A1 (ja) 要因推論装置、要因推論方法、要因推論システムおよび端末装置
Zhang et al. KPI-related operating performance assessment based on distributed ImRMR-KOCTA for hot strip mill process
JP4500876B1 (ja) 生産管理システム
Harbour The three “Ds “of successful performance measurement: Design, data, and display
US11665193B2 (en) Method for managing plant, plant design device, and plant management device
de León Hijes et al. Assessment of functional condition of equipment in industrial plants based on multiple measurements
Moore et al. Process visualization in medical device manufacture: an adaptation of short run SPC techniques
JP3053902B2 (ja) 異常原因診断方法
Rabatel et al. Fuzzy anomaly detection in monitoring sensor data
WO2022085350A1 (ja) 異常診断モデルの構築方法、異常診断方法、異常診断モデルの構築装置および異常診断装置
JPH01216218A (ja) 軸振動異常診断装置
Gangadhari et al. From unstructured accident reports to a hybrid decision support system for occupational risk management: The consensus converging approach
Alimohammad USING DECISION TREES AND BAYESIAN LEARNNG FOR REDUCING FALSE ALARMS IN CONTROL CHARTS
JP7173395B1 (ja) 分析装置、分析方法及びプログラム
WO2022210061A1 (ja) 監視装置及び方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2023536386

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23770425

Country of ref document: EP

Kind code of ref document: A1