WO2021002110A1 - 学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置 - Google Patents

学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置 Download PDF

Info

Publication number
WO2021002110A1
WO2021002110A1 PCT/JP2020/019936 JP2020019936W WO2021002110A1 WO 2021002110 A1 WO2021002110 A1 WO 2021002110A1 JP 2020019936 W JP2020019936 W JP 2020019936W WO 2021002110 A1 WO2021002110 A1 WO 2021002110A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
learning
physical property
unit
multidimensional
Prior art date
Application number
PCT/JP2020/019936
Other languages
English (en)
French (fr)
Inventor
昌孝 長谷川
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2021529911A priority Critical patent/JP7321263B2/ja
Priority to EP20834753.4A priority patent/EP3995997A4/en
Priority to CN202080045879.5A priority patent/CN114072811A/zh
Publication of WO2021002110A1 publication Critical patent/WO2021002110A1/ja
Priority to US17/541,725 priority patent/US20220091589A1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/4183Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by data acquisition, e.g. workpiece identification
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B17/00Systems involving the use of models or simulators of said systems
    • G05B17/02Systems involving the use of models or simulators of said systems electric
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B01PHYSICAL OR CHEMICAL PROCESSES OR APPARATUS IN GENERAL
    • B01JCHEMICAL OR PHYSICAL PROCESSES, e.g. CATALYSIS OR COLLOID CHEMISTRY; THEIR RELEVANT APPARATUS
    • B01J19/00Chemical, physical or physico-chemical processes in general; Their relevant apparatus
    • B01J19/0006Controlling or regulating processes
    • B01J19/0013Controlling the temperature of the process
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41885Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by modeling, simulation of the manufacturing system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B01PHYSICAL OR CHEMICAL PROCESSES OR APPARATUS IN GENERAL
    • B01JCHEMICAL OR PHYSICAL PROCESSES, e.g. CATALYSIS OR COLLOID CHEMISTRY; THEIR RELEVANT APPARATUS
    • B01J2219/00Chemical, physical or physico-chemical processes in general; Their relevant apparatus
    • B01J2219/00049Controlling or regulating processes
    • B01J2219/00051Controlling the temperature
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B01PHYSICAL OR CHEMICAL PROCESSES OR APPARATUS IN GENERAL
    • B01JCHEMICAL OR PHYSICAL PROCESSES, e.g. CATALYSIS OR COLLOID CHEMISTRY; THEIR RELEVANT APPARATUS
    • B01J2219/00Chemical, physical or physico-chemical processes in general; Their relevant apparatus
    • B01J2219/00049Controlling or regulating processes
    • B01J2219/00191Control algorithm
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B01PHYSICAL OR CHEMICAL PROCESSES OR APPARATUS IN GENERAL
    • B01JCHEMICAL OR PHYSICAL PROCESSES, e.g. CATALYSIS OR COLLOID CHEMISTRY; THEIR RELEVANT APPARATUS
    • B01J2219/00Chemical, physical or physico-chemical processes in general; Their relevant apparatus
    • B01J2219/00049Controlling or regulating processes
    • B01J2219/00191Control algorithm
    • B01J2219/00222Control algorithm taking actions
    • B01J2219/00227Control algorithm taking actions modifying the operating conditions
    • B01J2219/00229Control algorithm taking actions modifying the operating conditions of the reaction system
    • B01J2219/00231Control algorithm taking actions modifying the operating conditions of the reaction system at the reactor inlet
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N2021/258Surface plasmon spectroscopy, e.g. micro- or nanoparticles in suspension
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Definitions

  • the technology of the present disclosure relates to a learning device, a learning device operating method, a learning device operating program, and an operating device.
  • Patent Document 1 proposes a machine learning model that learns physical property-related data derived from physical property data representing the physical properties of a product as input data for learning in order to improve the accuracy of prediction.
  • Patent Document 1 exemplifies foods and drinks such as coffee beans as products. Further, in Patent Document 1, as physical property data, near infrared (NIR; Near Infrared) spectroscopic analysis data, Fourier transform infrared (FT-IR; Fourier Transform Infrared) spectroscopic analysis data, and nuclear magnetic resonance (NMR; Nuclear Magnetic Resonance) ) Spectral data such as spectroscopic analysis data, or image data obtained by photographing a product with a camera or the like is exemplified. Then, as the physical property-related data, numerical values obtained from the spectrum data, for example, the slope, periodicity, amplitude, peak height, peak width, etc. of the waveform of the spectrum are listed. Further, as the physical property-related data, the image data itself obtained by photographing the product with a camera or the like is mentioned.
  • NIR near infrared
  • FT-IR Fourier transform infrared
  • NMR Nuclear Magnetic Resonance
  • Some physical property data such as the weight of the product, represent one type of physical property of the product with one parameter, while others, such as the above spectral data and image data, represent one type of product.
  • Such physical property data can be said to be multidimensional physical property data when the parameters are regarded as dimensions.
  • physical property data representing one type of physical property of a product with one parameter can be said to be one-dimensional physical property data.
  • multidimensional physical property data physical property data representing one type of product property with a plurality of parameters
  • the physical property-related data derived from the multidimensional physical property data is referred to as multidimensional physical property-related data.
  • Patent Document 1 exemplifies the slope, periodicity, amplitude, peak height, peak width, and the like of the waveform of the spectrum as the multidimensional property-related data derived from the spectrum data which is the multidimensional physical property data.
  • the numerical values exemplified in Patent Document 1 comprehensively covers the overall characteristics of the multidimensional physical property data, it cannot be said that the numerical values accurately represent the physical properties of the product. Therefore, even if such numerical values are given to a machine learning model as learning input data for learning, there is a risk that the prediction accuracy will reach a plateau at a relatively low level.
  • the technique of the present disclosure is used to predict the quality of a product by a machine learning model when the multidimensional property-related data derived from the multidimensional property data of the product is given to a machine learning model as learning input data for learning. It is an object of the present invention to provide a learning device capable of further improving accuracy, a method of operating the learning device, an operation program of the learning device, and an operation device.
  • the learning device of the present disclosure includes a first acquisition unit that acquires multidimensional physical property data representing the physical properties of a product, and input data for learning given to a machine learning model that predicts the quality of the product. Is derived from the multidimensional physical property data, and at least a part of the auto encoder is applied to the multidimensional physical property data to derive the multidimensional physical property related data related to the multidimensional physical property data as input data for learning. It includes a derivation unit and a learning unit that gives learning input data including multidimensional physical property-related data to a machine learning model for training and outputs the machine learning model as a learned model to be used for actual operation.
  • the input data for learning also includes the production condition data set in the production process of the product.
  • the autoencoder is learned by being given multidimensional physical property data of a product whose quality is better than a preset level, and the derivation unit gives the autoencoder the multidimensional physical property data and outputs the output data. It is preferable to output and derive the multidimensional physical property related data based on the difference data between the multidimensional physical property data and the output data given to the autoencoder.
  • the derivation unit gives multidimensional physical property data to the autoencoder, outputs the feature data from the encoder network of the autoencoder, and derives the multidimensional physical property related data based on the feature data.
  • the multidimensional physical property data preferably includes image data of a spectrum represented by spectral data detected by spectroscopic analysis of the product.
  • the derivation unit derives multidimensional physical property-related data for each of a plurality of sections in which the spectrum data is divided.
  • the multidimensional physical property data preferably includes image data obtained by photographing the product.
  • the product is preferably produced by using the flow synthesis method.
  • the operation device of the present disclosure includes a second acquisition unit that acquires a trained model output from the learning unit of the learning device, and a third acquisition unit that acquires multidimensional physical property-related data for prediction of a product of unknown quality.
  • the trained model acquired in the 3rd acquisition unit is given the multidimensional physical property-related data for prediction of products of unknown quality to predict the quality, and the trained model is used. It is provided with an output control unit that controls to output the quality prediction result.
  • the first acquisition step of acquiring the multidimensional physical property data representing the physical properties of the product and the input data for learning given to the machine learning model for predicting the quality of the product are multidimensional physical properties. It is a derivation step to derive from the data, and a derivation step to apply at least a part of the auto encoder to the multidimensional physical property data and derive the multidimensional physical property related data related to the multidimensional physical property data as input data for learning. It includes a learning step in which input data for learning including data related to dimensional physical properties is given to a machine learning model to be trained, and the machine learning model is output as a trained model to be used for actual operation.
  • the first acquisition unit that acquires the multidimensional physical property data representing the physical properties of the product and the input data for learning given to the machine learning model that predicts the quality of the product are multidimensional physical properties. It is a derivation unit that derives from the data, and is a derivation unit that applies at least a part of the auto encoder to the multidimensional physical property data and derives the multidimensional physical property related data related to the multidimensional physical property data as input data for learning.
  • the computer functions as a learning unit that gives learning input data including dimensional physical property-related data to a machine learning model to train it and outputs the machine learning model as a learned model to be used for actual operation.
  • the quality of the product by the machine learning model is determined. It is possible to provide a learning device capable of further improving the accuracy of prediction, a method of operating the learning device, an operation program of the learning device, and an operation device.
  • the machine learning system 2 includes a learning device 10 and an operating device 11.
  • the learning device 10 and the operating device 11 are, for example, desktop personal computers.
  • the learning device 10 and the operating device 11 are connected to each other so as to be able to communicate with each other via the network 12.
  • the network 12 is, for example, a LAN (Local Area Network) or a WAN (Wide Area Network) such as the Internet or a public communication network.
  • the flow reaction device 13, the physical characteristic analyzer 14, and the quality evaluation device 15 are also connected to the network 12.
  • the flow reactor 13 produces the product PR from the raw material RM according to the production condition data PCD in the production process by the flow synthesis method.
  • the physical property analyzer 14 analyzes the physical characteristics of the product PR and outputs the physical characteristic data PD which is the analysis result.
  • the quality evaluation device 15 evaluates the quality of the product PR and outputs the quality data QD which is the evaluation result.
  • the production condition data PCD is transmitted from the flow reaction device 13, the physical property data PD is transmitted from the physical property analysis device 14, and the quality data QD is transmitted from the quality evaluation device 15 to the learning device 10.
  • the learning device 10 acquires the production condition data PCD from the flow reaction device 13, the physical property data PD from the physical property analyzer 14, and the quality data QD from the quality evaluation device 15.
  • the learning device 10 derives the physical property-related data (hereinafter, abbreviated as related data) PRD from the physical property data PD.
  • the learning input data IDL is composed of the related data PRD and the production condition data PCD.
  • the production condition data PCD, the physical property data PD, the related data PRD derived from the physical property data PD, and the quality data QD have a common ID (Identification Data) assigned to one product PR. ) Is associated.
  • the learning device 10 has a machine learning model M.
  • the machine learning model M is a model for predicting the quality of the product PR.
  • the learning device 10 gives the machine learning model M a learning input data IDL composed of a production condition data PCD and a related data PRD with the same ID (FIG. 6). 20).
  • the machine learning model M outputs the learning output data ODL corresponding to the learning input data IDL.
  • the quality data QD is the data for matching the answer with the learning output data ODL.
  • the higher the prediction accuracy of the machine learning model M the smaller the difference between the quality data QD and the learning output data ODL. Therefore, the learning device 10 compares the learning output data ODL with the quality data QD having the same ID as the learning input data IDL, and evaluates the prediction accuracy of the machine learning model M. Then, the machine learning model M is updated according to the evaluation result.
  • the learning device 10 inputs the learning input data IDL to the machine learning model M, outputs the learning output data ODL from the machine learning model M, evaluates the prediction accuracy of the machine learning model M, and uses the machine learning model M.
  • the update is performed while changing the learning input data IDL and the quality data QD.
  • the learning device 10 transmits the machine learning model M whose prediction accuracy has reached a preset level to the operation device 11 as a learned model TM to be used for actual operation.
  • the operation device 11 receives the learned model TM from the learning device 10.
  • the operation device 11 includes a prediction production condition data PCDF which is production condition data of a product PR whose quality is unknown, and a prediction physical property related data (hereinafter, prediction related data) which is related data of a product PR whose quality is unknown. (Abbreviated as) Give PRDF to the trained model TM.
  • the prediction-related data PRDF is data derived from the prediction-related physical property data PDF (see FIG. 21), which is the physical property data PD of the product PR whose quality is unknown, like the related data PRD.
  • the trained model TM outputs the quality prediction data QFD corresponding to the production condition data PCDF for prediction and the related data PRDF for prediction.
  • the flow reaction performed in the flow reaction apparatus 13 is a synthetic reaction for synthesizing monomers, a polymerization reaction for producing a polymer by reacting monomers with each other, and the like. Therefore, the product PR may be, for example, a compound at a growth stage that is the target of a polymerization reaction.
  • the flow reaction apparatus 13 carries out an anionic polymerization reaction of polystyrene, which is a product PR, by a flow reaction.
  • the flow reactor 13 includes a first raw material supply unit 20, a second raw material supply unit 21, a reaction section 22, a temperature control unit 23, a recovery / disposal section 24, a setting unit 25, a system controller 26, and the like. ..
  • the first raw material supply unit 20 is connected to the upstream end of the reaction section 22 by a pipe (not shown).
  • the first raw material supply unit 20 supplies the first raw material RM1 to the reaction section 22.
  • the first raw material supply unit 20 has a pump for sending the first raw material RM1 to the reaction section 22. By controlling the rotation speed of this pump, the flow rate of the first raw material RM1 sent from the first raw material supply unit 20 to the reaction section 22 is adjusted.
  • the first raw material RM1 is a solution in which lithium polystyryl is dissolved in a solvent.
  • Polystyryllithium functions as an initiator for the anionic polymerization reaction of polystyrene, which is the product PR. Tetrahydrofuran is used as the solvent.
  • a small amount of toluene and hexane are mixed in the solution.
  • the raw material for the flow reaction may be a mixture of a reactant such as polystyryllithium and another substance, such as the first raw material RM1, or may be composed of only the reactant.
  • the second raw material supply section 21 is connected to the upstream end of the reaction section 22 by a pipe (not shown).
  • the second raw material supply unit 21 supplies the second raw material RM2 to the reaction section 22.
  • the second raw material supply unit 21 also has a pump for sending the second raw material RM2 to the reaction section 22, like the first raw material supply unit 20. By controlling the rotation speed of this pump, the flow rate of the second raw material RM2 sent from the second raw material supply unit 21 to the reaction section 22 is adjusted.
  • the second raw material RM2 is an aqueous methanol solution. Methanol is used as a terminator for anionic polymerization reactions.
  • the reaction section 22 is a section for performing a flow reaction (anionic polymerization reaction in this example).
  • the reaction section 22 has a merging part 30 and a reaction part 31.
  • the merging portion 30 is composed of a first pipe portion 32, a second pipe portion 33, and a third pipe portion 34.
  • the first pipe portion 32 and the second pipe portion 33 are linearly connected, and the third pipe portion 34 intersects the first pipe portion 32 and the second pipe portion 33 at right angles. That is, the merging portion 30 has a T-shape.
  • the first pipe section 32 is connected to the first raw material supply section 20, and the second pipe section 33 is connected to the second raw material supply section 21. Further, the third pipe portion 34 is connected to the reaction portion 31.
  • the first raw material supply section 20 supplies the first raw material RM1 to the first pipe section 32
  • the second raw material supply section 21 supplies the second raw material RM2 to the second pipe section 33. Then, the first raw material RM1 and the second raw material RM2 are merged in the third pipe section 34 and sent out to the reaction section 31 in a mixed state.
  • the first pipe portion 32 is provided with a first flow velocity sensor 35 that detects the flow velocity of the first raw material RM1 passing through the first pipe portion 32.
  • the second pipe portion 33 is provided with a second flow velocity sensor 36 that detects the flow velocity of the second raw material RM2 passing through the second pipe portion 33.
  • the third pipe portion 34 is provided with a third flow velocity sensor 37 that detects the flow velocity of the mixture of the first raw material RM1 and the second raw material RM2 passing through the third pipe portion 34.
  • the reaction unit 31 is an elongated tube in which a plurality of straight tubes having the same inner diameter are connected in a straight line.
  • the length L of the reaction unit 31 can be changed by changing the number of straight pipes to be connected and / or the length of the straight pipes. Further, the reaction unit 31 can change the inner diameter ⁇ by changing the inner diameter of the straight pipe to be connected.
  • the inside of the reaction unit 31 is a flow path through which a mixture of the first raw material RM1 and the second raw material RM2 flows, and is a place where a flow reaction is performed.
  • the flow reaction is promoted to obtain a polystyrene solution.
  • the flow reaction also proceeds slightly in the third pipe portion 34 of the merging portion 30, but the length of the third pipe portion 34 is very short with respect to the length L of the reaction portion 31. Therefore, the third tube portion 34 is ignored, and the length L of the reaction portion 31 is regarded as the reaction path length which is the length of the field where the flow reaction is performed.
  • the inner diameter ⁇ of the reaction unit 31 is regarded as the reaction path diameter, which is the diameter of the field where the flow reaction is performed.
  • the temperature control unit 23 includes a heater and / or a cooler, and adjusts the temperature inside the reaction unit 31 (hereinafter, referred to as reaction temperature).
  • a temperature sensor 38 for detecting the reaction temperature is provided at the downstream end of the reaction unit 31.
  • the recovery / disposal section 24 is a section for recovering polystyrene, which is a product PR, and discarding waste whose reaction has failed.
  • the collection / disposal section 24 has a collection unit 40 and a disposal unit 41.
  • the recovery unit 40 and the disposal unit 41 are connected to the downstream end of the reaction unit 31 by a three-way valve 42. With this three-way valve 42, it is possible to switch between a recovery line connecting the reaction unit 31 and the recovery unit 40 and a disposal line connecting the reaction unit 31 and the disposal unit 41.
  • the recovery unit 40 precipitates polystyrene from the polystyrene solution.
  • the recovery unit 40 collects the precipitated polystyrene by filtering it from the solution. Then, the collected polystyrene is dried. More specifically, the recovery unit 40 has a container provided with a stirrer, holds methanol in the container, and mixes a polystyrene solution into the stirred methanol to precipitate polystyrene.
  • the recovery unit 40 has a constant temperature bath with a depressurizing function, and the inside of the constant temperature bath is decompressed and heated to dry methanol.
  • the disposal unit 41 is a tank for storing waste.
  • the waste is when the flow rate of the first raw material RM1, the flow rate of the second raw material RM2, the flow rate of the mixture, the reaction temperature, etc. are disturbed for some reason, and the production cannot be performed under the originally planned production conditions. , It was sent out from the reaction unit 31.
  • the setting unit 25 receives the setting of the production conditions in the production process of the product PR by the operator of the flow reaction device 13.
  • the production conditions accepted by the setting unit 25 are registered in the system controller 26 as the production condition data PCD set in the production process of the product PR.
  • the system controller 26 comprehensively controls the overall operation of the flow reaction device 13.
  • the system controller 26 includes a first raw material supply unit 20, a second raw material supply unit 21, a temperature control unit 23, a first flow velocity sensor 35, a second flow velocity sensor 36, a third flow velocity sensor 37, a temperature sensor 38, and a three-way valve 42. Is connected to.
  • the system controller 26 controls the rotation speed of the pump of the first raw material supply unit 20 according to the flow velocity of the first raw material RM1 detected by the first flow velocity sensor 35, and adjusts the flow rate of the first raw material RM1.
  • the system controller 26 controls the rotation speed of the pump of the second raw material supply unit 21 according to the flow velocity of the second raw material RM2 detected by the second flow velocity sensor 36, and adjusts the flow rate of the second raw material RM2. .
  • the system controller 26 drives the temperature control unit 23 according to the reaction temperature detected by the temperature sensor 38. Further, the system controller 26 controls the three-way valve 42 to switch between the above-mentioned collection line and the disposal line.
  • the reaction section 45 shown in FIG. 6 may be used instead of the reaction section 22.
  • the same components as those in FIG. 5 are designated by the same reference numerals, and the description thereof will be omitted.
  • the merging portion 46 of the reaction section 45 shown in FIG. 6 is composed of a first pipe portion 47, a second pipe portion 48, a third pipe portion 49, and a fourth pipe portion 50.
  • the first pipe portion 47 and the second pipe portion 48 are connected in a straight line.
  • the third pipe portion 49 and the fourth pipe portion 50 are linearly connected.
  • the first pipe portion 47 and the second pipe portion 48 intersect with the third pipe portion 49 and the fourth pipe portion 50 at right angles. That is, the merging portion 46 has a cross shape.
  • the first pipe section 47 and the second pipe section 48 are connected to the first raw material supply section 20, and the third pipe section 49 is connected to the second raw material supply section 21. Further, the fourth pipe portion 50 is connected to the reaction portion 31.
  • the first raw material supply section 20 supplies the first raw material RM1 to the first pipe section 47 and the second pipe section 48, and the second raw material supply section 21 supplies the second raw material RM2 to the third pipe section 49. .. Then, the first raw material RM1 and the second raw material RM2 are merged in the fourth pipe section 50 and sent out to the reaction section 31 in a mixed state.
  • the first pipe portion 47 and the second pipe portion 48 are provided with a first flow velocity sensor 51 and a second flow velocity sensor 52 for detecting the flow velocity of the first raw material RM1 passing through the first pipe portion 47 and the second pipe portion 48.
  • the third pipe portion 49 is provided with a third flow velocity sensor 53 that detects the flow velocity of the second raw material RM2 passing through the third pipe portion 49.
  • the fourth pipe portion 50 is provided with a fourth flow velocity sensor 54 that detects the flow velocity of a mixture of the first raw material RM1 and the second raw material RM2 passing through the fourth pipe portion 50.
  • the system controller 26 is the first raw material supply unit according to the average value of the flow velocity of the first raw material RM1 detected by the first flow velocity sensor 51 and the flow velocity of the first raw material RM1 detected by the second flow velocity sensor 52.
  • the rotation speed of the 20 pumps is controlled to adjust the flow rate of the first raw material RM1.
  • the system controller 26 controls the rotation speed of the pump of the second raw material supply unit 21 according to the flow velocity of the second raw material RM2 detected by the third flow velocity sensor 53, and adjusts the flow rate of the second raw material RM2.
  • the production condition data PCD is the concentration (unit: mol / l) and flow velocity (unit: ml / min) of the first raw material RM1, the concentration (unit: mol / l) and flow velocity (unit: unit: mol / l) of the second raw material RM2. : Ml / min), the shape of the confluence, the reaction path diameter ⁇ (unit: mm), the reaction path length L (unit: m), and the reaction temperature (unit: ° C.).
  • the item of the shape of the confluence is "T-shaped" in the figure when the reaction section 22 shown in FIG. 5 is used, and "cross-shaped" when the reaction section 45 shown in FIG. 6 is used. 36 etc.) are registered respectively.
  • the flow velocity of the mixture may be added as an item of the production condition data PCD.
  • the system controller 26 makes the first flow velocity of the first raw material RM1 detected by the first flow velocity sensor 35 match the flow velocity of the first raw material RM1 registered in the production condition data PCD.
  • the flow rate of the first raw material RM1 is adjusted by controlling the rotation speed of the pump of the raw material supply unit 20.
  • the system controller 26 of the second raw material supply unit 21 so that the flow velocity of the second raw material RM2 detected by the second flow velocity sensor 36 matches the flow velocity of the second raw material RM2 registered in the production condition data PCD.
  • the flow rate of the second raw material RM2 is adjusted by controlling the rotation speed of the pump.
  • the average value of the flow velocity of the first raw material RM1 detected by the first flow velocity sensor 51 and the flow velocity of the first raw material RM1 detected by the second flow velocity sensor 52 is the production condition.
  • the flow rate of the first raw material RM1 is adjusted by controlling the rotation speed of the pump of the first raw material supply unit 20 so as to match the flow velocity of the first raw material RM1 registered in the data PCD.
  • the system controller 26 of the second raw material supply unit 21 so that the flow velocity of the second raw material RM2 detected by the third flow velocity sensor 53 matches the flow velocity of the second raw material RM2 registered in the production condition data PCD.
  • the flow rate of the second raw material RM2 is adjusted by controlling the rotation speed of the pump.
  • system controller 26 drives the temperature control unit 23 so that the reaction temperature detected by the temperature sensor 38 matches the reaction temperature registered in the production condition data PCD.
  • the system controller 26 causes.
  • the three-way valve 42 is controlled to switch to the disposal line, and the waste is guided to the disposal section 41. If the reaction fails and waste is generated, the physical property data PD and the quality data QD are not output as a matter of course. Therefore, the production condition data PCD when waste is generated is discarded without being transmitted to the learning device 10.
  • the physical characteristic analyzer 14 spectroscopically analyzes the product PR and detects the spectral data SPD.
  • the physical characteristic analyzer 14 performs, for example, near-infrared spectroscopic analysis, Fourier transform infrared spectroscopic analysis, Raman spectroscopic analysis, and nuclear magnetic resonance spectroscopic analysis as spectroscopic analysis.
  • the spectral data SPD illustrated in FIG. 8 is obtained by Raman spectroscopic analysis and is composed of a set of wavenumber and intensity.
  • the spectrum SP is obtained by plotting the intensity of the spectrum data SPD for each wave number and connecting them with a line.
  • the image data SPIMD of this spectrum SP becomes the physical property data PD.
  • the image data SPIMD of the spectrum SP is an example of "multidimensional physical property data" according to the technique of the present disclosure.
  • the spectrum data SPD may be composed of a set of wavelength and intensity instead of the set of wave number and intensity.
  • the quality evaluation device 15 outputs the molecular weight dispersion degree and the molecular weight of the product PR as the quality data QD.
  • the molecular weight is here the number average molecular weight.
  • the molecular weight dispersion is a value obtained by dividing the weight average molecular weight by the number average molecular weight.
  • the quality evaluation apparatus 15 determines the molecular weight dispersion and the molecular weight by gel permeation chromatography (hereinafter abbreviated as GPC (Gel Permeation Chromatography)) using, for example, a polystyrene solution in which polystyrene, which is a product PR, is dissolved in tetrahydrofuran.
  • GPC Gel Permeation Chromatography
  • GPC GPC is performed under the following conditions.
  • Equipment HLC-8220GPC (manufactured by Tosoh Corporation)
  • Detector Differential refractometer (RI (Refractive Index) detector)
  • Pre-column TSKGUARDCOLUMN HXL-L 6mm x 40mm (manufactured by Tosoh Corporation)
  • Sample side column The following three columns (1) to (3) are directly connected in order (all manufactured by Tosoh Corporation).
  • the quality data QD is not limited to the molecular weight dispersion and the molecular weight of the product PR.
  • the molar concentration which is the concentration of the product PR in the solution may be used as the quality data QD.
  • the yield of the product PR obtained by dividing the amount of the product PR by the amount of the raw material RM may be used as the quality data QD.
  • the yield of the by-product and the like may be used as the quality data QD.
  • the computers constituting the learning device 10 and the operating device 11 have the same basic configuration, and include a storage device 60, a memory 61, a CPU (Central Processing Unit) 62, a communication unit 63, a display 64, and an input. It includes a device 65. These are interconnected via a bus line 66.
  • a storage device 60 a memory 61, a CPU (Central Processing Unit) 62, a communication unit 63, a display 64, and an input. It includes a device 65. These are interconnected via a bus line 66.
  • the storage device 60 is a hard disk drive built in the computer constituting the learning device 10 or the like, or connected via a cable or a network. Alternatively, the storage device 60 is a disk array in which a plurality of hard disk drives are connected. The storage device 60 stores control programs such as an operating system, various application programs, and various data associated with these programs. A solid state drive may be used instead of or in addition to the hard disk drive.
  • the memory 61 is a work memory for the CPU 62 to execute a process.
  • the CPU 62 comprehensively controls each part of the computer by loading the program stored in the storage device 60 into the memory 61 and executing the processing according to the program.
  • the communication unit 63 is a network interface that controls the transmission of various information via the network 12.
  • the display 64 displays various screens.
  • the computer constituting the learning device 10 and the like receives input of operation instructions from the input device 65 through various screens.
  • the input device 65 is a keyboard, a mouse, a touch panel, or the like.
  • subscript "A” is attached to each part of the learning device 10 and the subscript “B” is attached to each part of the operation device 11 to distinguish them.
  • the first operation program 70 is stored in the storage device 60A of the learning device 10.
  • the first operation program 70 is an application program for making the computer function as the learning device 10. That is, the first operation program 70 is an example of the "operation program of the learning device" according to the technique of the present disclosure.
  • the storage device 60A also stores the production condition data PCD in the production process of the product PR from the flow reaction device 13, the physical property data PD from the physical property analyzer 14, and the quality data QD from the quality evaluation device 15.
  • the autoencoder AE is also stored in the storage device 60A. Further, the storage device 60A also stores the related data PRD derived from the physical property data PD using the autoencoder AE, and the machine learning model M. A plurality of sets of production condition data PCD, physical property data PD, related data PRD, and quality data QD are stored.
  • the CPU 62A of the computer constituting the learning device 10 cooperates with the memory 61 and the like to control the first read / write (hereinafter abbreviated as RW (Read Write)) control unit 75. It functions as a first derivation unit 76, a learning unit 77, and a transmission control unit 78.
  • RW Read Write
  • the first RW control unit 75 controls reading of various data in the storage device 60A and storage of various data in the storage device 60A.
  • the first RW control unit 75 reads the physical property data PD and the autoencoder AE from the storage device 60A, and outputs the physical property data PD and the autoencoder AE to the first derivation unit 76. Further, the first RW control unit 75 stores the related data PRD from the first derivation unit 76 in the storage device 60A.
  • the first RW control unit 75 has acquired the physical property data PD by reading the physical property data PD from the storage device 60A. That is, the first RW control unit 75 is an example of the "first acquisition unit" according to the technique of the present disclosure.
  • the first RW control unit 75 reads the related data PRD, the production condition data PCD, and the quality data QD from the storage device 60A, and outputs these to the learning unit 77. Further, the first RW control unit 75 reads the machine learning model M from the storage device 60A and outputs the machine learning model M to either the learning unit 77 or the transmission control unit 78. Further, the first RW control unit 75 stores the machine learning model M from the learning unit 77 in the storage device 60A.
  • the first out-licensing unit 76 receives the physical property data PD from the first RW control unit 75.
  • the first derivation unit 76 applies the autoencoder AE to the physical property data PD to derive the related data PRD. That is, the first out-licensing unit 76 is an example of the “out-licensing unit” according to the technique of the present disclosure.
  • the first derivation unit 76 assigns the same ID as the physical property data PD to the derived related data PRD, and outputs the related data PRD to the first RW control unit 75.
  • the first derivation unit 76 derives the related data PRD each time a new physical characteristic data PD is transmitted from the physical characteristic analyzer 14.
  • the learning unit 77 receives the learning input data IDL, the quality data QD, and the machine learning model M from the first RW control unit 75.
  • the learning unit 77 gives the learning input data IDL to the machine learning model M for learning, and outputs the learned model TM.
  • the transmission control unit 78 receives the machine learning model M from the first RW control unit 75.
  • the machine learning model M received by the transmission control unit 78 from the first RW control unit 75 is a trained model TM.
  • the transmission control unit 78 controls to transmit the learned model TM to the operation device 11.
  • the autoencoder AE has a plurality of layers for analyzing the input image data IIMD (see FIG. 12), and a convolutional neural network that extracts features in which the frequency band of the spatial frequency included in the input image data IIMD is different for each layer. It is a hierarchical machine learning model composed of.
  • the convolutional neural network is, for example, U-Net (U-Shaped Neural Network), SegNet, or the like.
  • the input image data IIMD is the image data SPIMD of the spectrum SP.
  • the autoencoder AE is composed of an encoder network 80 and a decoder network 81.
  • the encoder network 80 performs a convolution operation using the filter F (see FIG. 13) for each layer, and performs a convolution process for extracting the image feature map CMP.
  • the decoder network 81 gradually increases the image size of the minimum image feature map CMP output from the lowest layer of the encoder network 80. Then, the gradually enlarged image feature map CMP and the image feature map CMP output in each layer of the encoder network 80 are combined to generate an output image data OIMD having the same image size as the input image data IIMD. ..
  • the output image data OIMD is an example of "output data" according to the technique of the present disclosure.
  • Input data DI (see FIG. 13) having a plurality of pixel values arranged in two dimensions is input to each layer of the encoder network 80.
  • the encoder network 80 performs a convolution process on the input data DI in each layer to extract the image feature map CMP.
  • Input image data IIMD is input as input data DI in the uppermost first layer of the encoder network 80.
  • the first layer performs a convolution process on the input image data IIMD, and outputs, for example, an image feature map CMP having the same image size as the input image data IIMD.
  • the image feature map CMP output in each upper layer is input as the input data DI.
  • convolution processing is performed on the image feature map CMP, and for example, an image feature map CMP having the same image size as the input image feature map CMP is output.
  • a 3 ⁇ 3 filter F is applied to the input data DI, and the pixel value e of the pixel of interest Ip in the input data DI and the eight pixels Is adjacent to the pixel of interest Ip.
  • the output data DIc in which the pixel values are arranged in a two-dimensional manner is obtained in the same manner as the input data DI.
  • the pixel value k of the pixel Icp of the output data DIc which is the result of the convolution calculation for the pixel of interest Ip, is, for example. It can be obtained by calculating the following (Equation 1).
  • k az + by + cx + dw + ev + fu + gt + hs + ir ... (Equation 1)
  • the above-mentioned convolution operation is performed on each pixel of the input data DI, and the pixel value k is output.
  • the output data DIc having the pixel values k arranged in two dimensions is output.
  • One output data DIc is output for one filter F.
  • output data DIc is output for each filter F.
  • the output data DIc is data in which the pixel values k are arranged two-dimensionally, and has a width and a height. Further, when a plurality of output data DIc are output by applying a plurality of filters F of different types, the image feature map CMP becomes a set of a plurality of output data DIc. In the image feature map CMP, the number of filters F is called the number of channels.
  • the image feature map CMP shown in FIG. 14 is an example of a 4-channel image feature map CMP having four output data DIcs output by applying four filters F.
  • the autoencoder AE is prepared for each of a plurality of sections of the spectrum data SPD.
  • 20 sections INT1, INT2, INT3, ..., INT20 in which the spectrum data SPD is divided into 20 equal parts are illustrated.
  • the case where the autoencoders AE_INT1 to AE_INT20 are prepared for each section INT1 to INT20 is illustrated.
  • Each autoencoder AE_INT1 to AE_INT20 is specialized for the image data SPIMD_INT1 to SPIMD_INT20 of the spectrum SP of each section INT1 to INT20.
  • the autoencoders AE_INT1 to AE_INT20 may be collectively referred to as the autoencoder AE.
  • the autoencoder AE is provided with the image data SPIMD of the spectrum SP of the product PR whose quality is better than the preset level as the input image data IIMDL for learning. Then, the autoencoder AE is learned so that the learning input image data IIMDL and the learning output image data OIMDL match. That is, the auto-encoder AE ideally receives the input image data IIMD when the image data SPIMD of the spectrum SP of the product PR whose quality is better than the preset level is input as the input image data IIMD. Output image data OIMD having a spectrum SP having the same shape as the spectrum SP is output.
  • the preset levels are, for example, a molecular weight dispersion of 1.5 or more, a molecular weight of 25,000 or more, and the like.
  • FIG. 16 illustrates the autoencoder AE_INT1 of the autoencoders AE_INT1 to AE_INT20. Therefore, the input image data IIMDL for learning is the image data SPIMD_INT1 of the spectrum SP in the interval INT1.
  • the first derivation unit 76 gives the image data SPIMD of the spectrum SP to the autoencoder AE as the input image data IIMD, and outputs the output image data OIMD.
  • the first derivation unit 76 calculates the difference data DD between the input image data IIMD and the output image data OIMD. Specifically, the first derivation unit 76 calculates the difference in intensity between the input image data IIMD and the output image data OIMD at each wave number as the difference data DD for each of the sections INT1 to INT20.
  • FIG. 17 only the autoencoder AE_INT1 is shown, as in FIG.
  • the autoencoder AE_INT1 is provided with the image data SPIMD_INT1 of the spectrum SP of the section INT1 as the input image data IIMD. Then, the difference data DD_INT1 of the section INT1 is calculated based on the input image data IIMD and the output image data OIMD of the autoencoder AE_INT1.
  • the image data SPIMD of the spectrum SP of the product PR whose quality is better than the preset level is given as the input image data IIMDL for learning and learned. It was done. Therefore, if the quality of the product PR, which is the source of the input image data IIMD, is better than the preset level, the output image data OIMD substantially the same as the input image data IIMD is output from the autoencoder AE. To. Therefore, the difference in intensity is relatively small. On the contrary, if the quality of the product PR is equal to or lower than the preset level, the output image data OIMD different from the input image data IIMD is output from the autoencoder AE. Therefore, the difference in intensity is relatively large. That is, according to the difference data DD, it can be known whether or not the quality of the product PR is better than the preset level.
  • the first out-licensing unit 76 derives related data PRD_INT1, PRD_INT2, ..., PRD_INT20 for each of the difference data DD_INT1, DD_INT2, ..., DD_INT20 in each section INT1 to INT20. Specifically, the first derivation unit 76 derives the average value and the sum of the differences in the intensities of each section INT1 to INT20 as the related data PRD_INT1 to PRD_INT20.
  • Related data PRD_INT1 to PRD_INT20 are examples of "multidimensional physical property related data" according to the technique of the present disclosure.
  • other representative values such as the maximum value, the minimum value, the median value, and the variance of the intensity difference may be derived as the related data PRD.
  • the learning unit 77 has a first processing unit 85, an evaluation unit 86, and an updating unit 87.
  • the first processing unit 85 gives the learning input data IDL to the machine learning model M, and causes the machine learning model M to output the learning output data ODL.
  • the learning output data ODL is composed of the molecular weight dispersion and the molecular weight as in the quality data QD (see FIG. 20).
  • the first processing unit 85 outputs the learning output data ODL to the evaluation unit 86.
  • the evaluation unit 86 receives the learning output data ODL from the first processing unit 85.
  • the evaluation unit 86 compares the learning output data ODL and the quality data QD, and evaluates the prediction accuracy of the machine learning model M.
  • the evaluation unit 86 outputs the evaluation result to the update unit 87.
  • the evaluation unit 86 evaluates the prediction accuracy of the machine learning model M using, for example, a loss function.
  • the loss function is a function that expresses the degree of difference between the training output data ODL and the quality data QD. The closer the calculated value of the loss function is to 0, the higher the accuracy of prediction of the machine learning model M.
  • the update unit 87 updates the machine learning model M according to the evaluation result from the evaluation unit 86.
  • the update unit 87 changes the values of various parameters of the machine learning model M by a stochastic gradient descent method or the like accompanied by a learning coefficient.
  • the learning coefficient indicates the range of change in the values of various parameters of the machine learning model M. That is, the larger the learning coefficient is, the larger the range of change in the values of various parameters is, and the greater the degree of update of the machine learning model M.
  • the update of the learning model M is repeated until the prediction accuracy reaches a preset level.
  • the first processing unit 85 gives the machine learning model M a learning input data IDL composed of production condition data PCD and related data PRD. Then, the evaluation unit 86 evaluates the prediction accuracy of the machine learning model M, and the update unit 87 updates the machine learning model M. By repeating such processing while changing the learning input data IDL, the machine learning model M reaches a preset level of prediction accuracy.
  • the machine learning model M whose prediction accuracy has reached a preset level is stored in the storage device 60A by the first RW control unit 75 as a learned model TM.
  • the second operation program 110 is stored in the storage device 60B of the operating device 11.
  • the second operation program 110 is an application program for operating the computer as the operation device 11.
  • the storage device 60B also stores the trained model TM from the learning device 10, the same autoencoder AE as the learning device 10, and the predictive physical property data PDF from the physical property analyzer 14.
  • the storage device 60B also stores the forecast production condition data PCDF.
  • the production condition data PCDF for prediction is input by the operator via the input device 65B. More specifically, an input screen prepared with input boxes for each item of the forecast production condition data PCDF is displayed on the display 64B, and the forecast production condition data PCDF is input through the input screen.
  • the production condition data PCDF for prediction and the physical property data PDF for prediction are the production condition data PCD and the physical property data PD of the product PR whose quality is unknown and whose quality is predicted by using the trained model TM.
  • the storage device 60B also stores the prediction physical property-related data (hereinafter abbreviated as prediction-related data) PRDF derived from the prediction physical property data PDF.
  • prediction-related data hereinafter abbreviated as prediction-related data
  • the CPU 62B of the computer constituting the operating device 11 cooperates with the memory 61 and the like to perform the second RW control unit 115, the second derivation unit 116, the second processing unit 117, and the second processing unit 117. It functions as a display control unit 118.
  • the second RW control unit 115 controls reading of various data in the storage device 60B and storage of various data in the storage device 60B, similarly to the first RW control unit 75 of the learning device 10.
  • the second RW control unit 115 reads the prediction physical property data PDF and the autoencoder AE from the storage device 60B, and outputs the prediction physical property data PDF and the autoencoder AE to the second derivation unit 116. Further, the second RW control unit 115 stores the prediction-related data PRDF from the second derivation unit 116 in the storage device 60B.
  • the second RW control unit 115 reads the trained model TM from the storage device 60B and outputs the trained model TM to the second processing unit 117.
  • the second RW control unit 115 has acquired the trained model TM by reading the trained model TM from the storage device 60B. That is, the second RW control unit 115 is an example of the "second acquisition unit" according to the technique of the present disclosure.
  • the second RW control unit 115 reads the prediction-related data PRDF and the prediction production condition data PCDF from the storage device 60B, and outputs these to the second processing unit 117.
  • the second RW control unit 115 has acquired the prediction-related data PRDF by reading the prediction-related data PRDF from the storage device 60B. That is, the second RW control unit 115 is an example of the "third acquisition unit" according to the technique of the present disclosure.
  • the second derivation unit 116 receives the prediction physical characteristic data PDF and the autoencoder AE from the second RW control unit 115.
  • the second derivation unit 116 derives the prediction-related data PRDF from the prediction physical property data PDF. More specifically, the second out-licensing unit 116, like the first out-licensing unit 76 of the learning device 10, obtains the average value and the sum of the intensity differences for each of the plurality of sections INT1 to INT20 in which the spectrum data SPDs are divided. Derived.
  • the second processing unit 117 receives the prediction production condition data PCDF, the prediction related data PRDF, and the trained model TM from the second RW control unit 115.
  • the second processing unit 117 gives the trained model TM the production condition data PCDF for prediction and the related data PRDF for prediction to predict the quality. That is, the second processing unit 117 is an example of the "processing unit” according to the technique of the present disclosure.
  • the second processing unit 117 outputs the quality prediction data QFD, which is the quality prediction result by the trained model TM, to the display control unit 118.
  • the quality prediction data QFD is composed of the molecular weight dispersion and the molecular weight (see FIG. 22 and the like).
  • the display control unit 118 controls to display various screens on the display 64B.
  • the various screens include a quality prediction display screen 120 (see FIG. 23) for displaying the quality prediction data QFD. That is, the display control unit 118 is an example of the "output control unit" according to the technique of the present disclosure.
  • FIG. 22 shows how the trained model TM predicts the quality of the product PR whose ID is PR0500 and whose quality is unknown.
  • the prediction production condition data PCDF and the prediction related data PRDF are given to the trained model TM.
  • the quality prediction data QFD output from the trained model TM is displayed on the quality prediction display screen 120 displayed on the display 64B under the control of the display control unit 118.
  • the display of the quality prediction display screen 120 disappears by selecting the OK button 121.
  • the CPU 62A of the learning device 10 has the first RW control unit 75, the first derivation unit 76, the learning unit 77, and the transmission. It functions as a control unit 78.
  • the learning unit 77 functions as a first processing unit 85, an evaluation unit 86, and an updating unit 87.
  • step ST1002 when the learning device 10 receives the new physical property data PD from the physical property analyzer 14, the image data SPIMD of the spectrum SP in this example, and stores it in the storage device 60A (YES in step ST1001).
  • the image data SPIMD of the spectrum SP is read from the storage device 60A by the first RW control unit 75 (step ST1002).
  • the image data SPIMD of the spectrum SP is output from the first RW control unit 75 to the first derivation unit 76.
  • step ST1002 is an example of the "first acquisition step" according to the technique of the present disclosure.
  • step ST1003 the image data SPIMD of the spectrum SP is given to the autoencoder AE by the first derivation unit 76.
  • step ST1004 the difference data DD between the output image data OIMD output from the autoencoder AE and the image data SPIMD of the spectrum SP given to the autoencoder AE is calculated.
  • step ST1003 the first derivation unit 76 relates the average value and the sum of the intensity differences for each of the plurality of sections INT1 to INT20 in which the spectral data SPDs are divided based on the difference data DD. Derived as data PRD (step ST1003).
  • the related data PRD is output from the first derivation unit 76 to the first RW control unit 75 (step ST1004).
  • step ST1003 is an example of a "derivation step" according to the technique of the present disclosure.
  • the learning input data IDL composed of a set of the production condition data PCD and the related data PRD set in the production process of the product PR by the first RW control unit 75. Is read from the storage device 60A (step ST2001). The learning input data IDL is output from the first RW control unit 75 to the learning unit 77.
  • the learning input data IDL composed of the production condition data PCD and the related data PRD is given to the machine learning model M, and the machine learning model M
  • the learning output data ODL is output from (step ST2002).
  • the evaluation unit 86 compares the learning output data ODL and the quality data QD, and evaluates the accuracy of predicting the quality of the product PR by the machine learning model M (step ST2003).
  • step ST2004 When the evaluation result of the prediction accuracy of the machine learning model M by the evaluation unit 86 is that the prediction accuracy of the machine learning model M is less than a preset level (NO in step ST2004), the update unit 87 Updates the machine learning model M (step ST2005). Then, using the updated machine learning model M, the processes of step ST2001, step ST2002, and step ST2003 are repeated. In each of these processes from step ST2001 to step ST2003, the evaluation result of the prediction accuracy of the machine learning model M by the evaluation unit 86 has reached a preset level of the prediction accuracy of the machine learning model M. If (YES in step ST2004), the process ends.
  • the machine learning model M whose prediction accuracy has reached a preset level is output from the learning unit 77 to the first RW control unit 75 as a learned model TM (step ST2006).
  • the trained model TM is stored in the storage device 60A by the first RW control unit 75.
  • the learned model TM is transmitted to the operation device 11 by the transmission control unit 78. Note that these series of steps ST2001 to ST2006 are examples of "learning steps" according to the technique of the present disclosure.
  • the CPU 62B of the operation device 11 has a second RW control unit 115, a second out-licensing unit 116, a second processing unit 117, and a display. It functions as a control unit 118.
  • the second RW control unit 115 reads out the prediction physical characteristic data PDF and the autoencoder AE from the storage device 60B, and outputs the PDF to the second derivation unit 116. Then, the second derivation unit 116 derives the average value and the sum of the intensity differences for each of the plurality of sections INT1 to INT20 that divide the spectrum data SPD of the prediction physical property data PDF. In this way, the prediction-related data PRDF is derived in the second derivation unit 116. The prediction-related data PRDF is stored in the storage device 60B by the second RW control unit 115.
  • the learned model TM is read from the storage device 60B by the second RW control unit 115 (step ST500). Further, the second RW control unit 115 reads out the forecast production condition data PCDF and the forecast related data PRDF set in the production process of the product PR from the storage device 60B (step ST600). The trained model TM, the forecast production condition data PCDF, and the forecast related data PRDF are output from the second RW control unit 115 to the second processing unit 117.
  • the prediction production condition data PCDF and the prediction related data PRDF are given to the trained model TM, and the quality prediction data QFD is output from the trained model TM ( Step ST700).
  • the quality prediction data QFD is output from the second processing unit 117 to the display control unit 118.
  • the display control unit 118 displays the quality prediction display screen 120 shown in FIG. 23 on the display 64B (step ST800).
  • the quality prediction display screen 120 makes the quality prediction data QFD available for viewing by the operator.
  • the learning device 10 acquires the physical property data PD by the first RW control unit 75, applies the autoencoder AE to the physical property data PD in the first derivation unit 76, and inputs the related data PRD for learning. Derived as data IDL. Then, in the learning unit 77, the learning input data IDL including the related data PRD is given to the machine learning model M for learning, and the learned model TM is output. Therefore, the numerical values that accurately represent the physical properties of the product PR (here, the average value and the sum of the strength differences) can be derived as the related data PRD, and the quality prediction of the product PR by the trained model TM can be performed. The accuracy can be further improved.
  • Comparative Example 1 Examples in which the production condition data PCD and the related data PRD derived by using the autoencoder AE are given as the learning input data IDL are shown in Comparative Example 1 and The results were obtained that the coefficient of determination of the molecular weight dispersion and the coefficient of determination of the molecular weight were higher than those of Comparative Example 2.
  • Comparative Example 2 when only the production condition data PCD is given as the input data IDL for learning, in Comparative Example 2, the production condition data PCD and the related data PRD composed of the representative value of the intensity are input for learning. This is a case where it is given as data IDL and trained. In this way, by giving the related data PRD derived using the autoencoder AE as the input data IDL for learning and training it, the accuracy of predicting the quality of the product PR by the trained model TM can be further improved. Was confirmed.
  • the related data PRD of Comparative Example 2 has an average value, a maximum value, a minimum value, a median value, and a variance which are representative values of the intensities of the spectral data SPD_INT1 to SPD_INT20 of each section INT1 to INT20. , Skewness, and kurtosis.
  • the spectrum data SPD itself becomes the physical property data PD.
  • the learning input data IDL includes not only the related data PRD but also the production condition data PCD. Therefore, the quality prediction data QFD considering the influence of the production condition data PCD can be output from the machine learning model M.
  • the physical property data PD includes the image data SPIMD of the spectrum SP represented by the spectrum data SPD detected by spectroscopically analyzing the product PR.
  • the related data PRD is the average value and the sum of the differences in the intensities derived for each of the plurality of sections INT1 to INT20 that divide the spectrum data SPD.
  • the amount of data in the related data PRD can be reduced as compared with the case where the intensity of each wave number of the spectrum data SPD is used as the related data PRD.
  • the operation device 11 acquires the trained model TM and the prediction-related data PRDF by the second RW control unit 115.
  • the trained model TM is given the prediction-related data PRDF to predict the quality.
  • the quality of the product PR when the quality of the product PR is actually evaluated by the quality evaluation device 15, the pretreatment of the product PR and the quality evaluation process take a relatively long time, for example, about 1 to 2 weeks.
  • the trained model TM if the trained model TM is used, the quality of the product PR can be predicted in a very short time.
  • the prediction accuracy of the trained model TM is relatively high, so that the operator can make a production plan for future product PR with great reference to the quality prediction data QFD. ..
  • the image data IMD obtained by photographing the product PR is referred to as the physical property data PD.
  • the physical characteristic analyzer 130 of the second embodiment is, for example, a digital optical microscope, which captures a product PR and outputs image data IMD as physical characteristic data PD.
  • the image data IMD is an example of "multidimensional physical property data" according to the technique of the present disclosure.
  • the first derivation unit 135 of the second embodiment describes each of the plurality of regions AR1-1, AR1-2, ..., AR10-10 that equally divide the image data IMD.
  • Related data PRD_AR1-1, PRD_AR1-2, ..., PRD_AR10-10 are derived.
  • the first derivation unit 135 uses the related data PRD_AR1-1 to PRD_AR10-10 as the pixel values of the image data IMD_AR1-1 to IMD_AR10-10 of each region AR1-1 to AR10-10, and these images.
  • the data IMD_AR1-1 to IMD_AR10-10 are given to the auto encoder AE, and the average value and the sum of the differences from the pixel values of the output image data OIMD are derived. Further, although illustration and detailed description are omitted, in the second derivation unit of the operation device as well as the first derivation unit 135, the average value of the differences in the pixel values of the image data IMD of the product PR whose quality is unknown. And the sum is derived as the related data PRDF for prediction.
  • the autoencoder AE is prepared for each area AR of the image data IMD.
  • the image data IMD obtained by photographing the product PR is referred to as the physical property data PD. Therefore, the physical characteristics of the product PR can be grasped more easily.
  • the image data IMD may be the physical property data PD instead of the image data SPIMD of the spectrum SP of the first embodiment, or may be the physical property data PD in addition to the image data SPIMD of the spectrum SP.
  • the physical property analyzer 130 is not limited to the illustrated digital optical microscope, and may be a scanning electron microscope (SEM) or the like.
  • the multidimensional physical property data is not limited to the spectrum data SPD of the first embodiment and the image data IMD of the second embodiment.
  • Multidimensional physical property data related to any of the five human senses of sight, hearing, smell, touch, and taste may be used.
  • tactile data of the product PR odor data at the time of production of the product PR, audio data at the time of production of the product PR, and the like can be mentioned.
  • the outputs of the tactile sensors at a plurality of locations of the product PR are used as tactile data, and the average value of the outputs of the tactile sensors at the plurality of locations is derived as the related data PRD.
  • the period from the start to the end of production is recorded with a microphone to obtain voice data
  • the voice data is divided into a plurality of sections, and the average value of the frequencies and the average values of the amplitudes of the respective sections are recorded as related data. Derived as PRD.
  • the related data PRD is derived based on the image feature map CMP output from the encoder network 140 which is a part of the autoencoder AE.
  • the first derivation unit 145 of the fourth embodiment gives the image data SPIMD of the spectrum SP, which is the physical property data PD, to the autoencoder AE as the input image data IIMD. Then, the image feature map CMP is output from the encoder network 140 of the autoencoder AE.
  • the image feature map CMP is, for example, the smallest image feature map CMP output from the lowest layer of the encoder network 140.
  • the autoencoder AE of the third embodiment is prepared for each of a plurality of sections INT1 to INT20 of the spectrum data SPD, like the autoencoder AE of the first embodiment.
  • the autoencoder AE of the third embodiment has the image data SPIMD of the spectrum SP of various product PRs as the input image data for learning regardless of the quality level. It was given and learned as IIMDL.
  • the first derivation unit 145 derives the related data PRD based on the image feature map CMP. That is, the image feature map CMP is an example of "feature data" according to the technique of the present disclosure.
  • the image feature map CMP is the output data DIc of channel 1 (Ch1), the output data DIc of channel 2 (Ch2), the output data DIc of channel 3 (Ch3), and the output data DIc of channel 4 (Ch4).
  • the first derivation unit 145 derives the average value of the pixel values as the related data PRD for each of the output data DIcs of channels 1 to 4.
  • the maximum value, the minimum value, the median value, the variance, and the like may be derived as the related data PRD.
  • each section INT1 to the image data SPIMD of the spectrum SP of the product PR whose quality is unknown The average value of the pixel values of the output data DIc of the image feature map CMP of INT20 is derived as the prediction-related data PRDF.
  • the autoencoder AE_INT1 is provided with the image data SPIMD_INT1 of the spectrum SP of the section INT1 as the input image data IIMD.
  • the first derivation unit 145 derives the related data PRD_INT1 of the section INT1 from the image feature map CMP of the encoder network 140 of the autoencoder AE_INT1. Although illustration and description are omitted, related data PRD_INT2 to PRD_INT20 are also derived from the image feature map CMP of the encoder network 140 of the autoencoders AE_INT2 to AE_INT20 for the other sections INT2 to INT20.
  • the related data PRD is derived based on the image feature map CMP output from the encoder network 140 of the autoencoder AE. Therefore, as in the first embodiment, a numerical value (here, the average value of the pixel values of the output data DIc) that accurately represents the physical properties of the product PR can be derived as the related data PRD, and the trained model can be derived. The accuracy of TM prediction can be further improved.
  • the image feature map CMP may be output from a layer other than the lowest layer of the encoder network 140.
  • the related data PRD based on the image feature map CMP may be used in place of the related data PRD based on the difference data DD of the first embodiment, or may be used in addition to the related data PRD.
  • the input image data IIMD is not limited to the image data SPIMD of the illustrated spectrum SP.
  • the image data IMD obtained by photographing the product PR of the second embodiment may be used as the input image data IIMD.
  • the condition that contributes to the improvement of the accuracy of the quality prediction of the product PR by the machine learning model M is set in advance from the plurality of items of the related data PRD. Highly contributing items satisfying the above conditions are extracted, and the related data PRD of the high contributing items is selectively given to the machine learning model M for learning.
  • the same components as those in the first embodiment will be designated by the same reference numerals and description thereof will be omitted.
  • the first operation program 151 is stored in the storage device 60A of the learning device 150 of the fourth embodiment.
  • the first operation program 151 is an example of the "operation program of the learning device" according to the technique of the present disclosure, like the first operation program 70 of the first embodiment.
  • the CPU 62A of the computer constituting the learning device 150 cooperates with the memory 61 and the like to perform the first RW control unit 75, the first derivation unit 76, and the learning of the first embodiment.
  • the unit 77 and the transmission control unit 78 it functions as an extraction unit 155.
  • the learning unit 77 gives the learning input data IDL to the machine learning model M for learning, and outputs a temporary machine learning model PM (see FIG. 35).
  • the learning unit 77 outputs a temporary machine learning model PM to the first RW control unit 75.
  • the first RW control unit 75 stores the temporary machine learning model PM in the storage device 60A.
  • the period during which the learning unit 77 outputs the tentative machine learning model PM is referred to as tentative learning.
  • the machine learning model M used in the tentative learning is referred to as a first machine learning model M1 (see FIG. 34).
  • the first RW control unit 75 reads the temporary machine learning model PM from the storage device 60A and outputs the temporary machine learning model PM to the extraction unit 155.
  • the extraction unit 155 uses a temporary machine learning model PM to extract high-contribution items from a plurality of items of the related data PRD.
  • the high contribution item is an item that satisfies a preset condition to the extent that it contributes to the improvement of the accuracy of the quality prediction of the product PR.
  • the extraction unit 155 outputs the high contribution item information HCII, which is the extraction result of the high contribution item, to the learning unit 77.
  • the extraction unit 155 outputs the high contribution item information HCII to the first RW control unit 75, and the first RW control unit 75 stores the high contribution item information HCII in the storage device 60A.
  • the learning unit 77 receives the high contribution item information HCII from the extraction unit 155.
  • the learning unit 77 selectively gives the machine learning model M the related data PRD of the high contribution item based on the high contribution item information HCII to train the machine learning model M, and outputs the machine learning model M as a learned model TM.
  • main learning the period during which the learning unit 77 outputs the learned model TM is referred to as main learning.
  • the machine learning model M used in this learning is referred to as a second machine learning model M2 (see FIG. 42).
  • the transmission control unit 78 receives the high contribution item information HCII from the first RW control unit 75 together with the trained model TM, and controls the high contribution item information HCII to be transmitted to the operation device 175 (see FIG. 44).
  • the first processing unit 85 gives a plurality of items of the production condition data PCD and the related data PRD to the first machine learning model M1 as learning input data IDL. Then, the evaluation unit 86 evaluates the prediction accuracy of the first machine learning model M1, and the update unit 87 updates the first machine learning model M1. By repeating such processing while changing the learning input data IDL, the accuracy of prediction of the first machine learning model M1 reaches a preset level.
  • the first machine learning model M1 whose prediction accuracy has reached a preset level is stored in the storage device 60A by the first RW control unit 75 as a temporary machine learning model PM.
  • the extraction unit 155 has a third processing unit 160, a fourth processing unit 161, a calculation unit 162, and a determination unit 163.
  • the third processing unit 160 gives the learning input data IDL to the temporary machine learning model PM, and causes the temporary machine learning model PM to output the temporary output data POD.
  • the tentative output data POD is composed of the molecular weight dispersion and the molecular weight as in the learning output data ODL (see FIG. 36 and the like).
  • the third processing unit 160 outputs the temporary output data POD to the calculation unit 162.
  • the fourth processing unit 161 provisionally sets the same production condition data PCD as that given to the temporary machine learning model PM in the third processing unit 160, and the extraction physical property related data (hereinafter abbreviated as extraction related data) PRDE. Is given to the machine learning model PM of the above, and the temporary output data PODE for extraction is output from the temporary machine learning model PM.
  • the provisional output data PODE for extraction is composed of the molecular weight dispersion and the molecular weight as in the learning output data ODL (see FIG. 37 and the like).
  • the fourth processing unit 161 outputs the temporary output data PODE for extraction to the calculation unit 162.
  • the calculation unit 162 receives the temporary output data POD from the third processing unit 160 and the temporary output data POD for extraction from the fourth processing unit 161. Based on the provisional output data POD and the provisional output data PODE for extraction, the calculation unit 162 determines that the items of the related data PRD contribute to the improvement of the accuracy of quality prediction of the first machine learning model M1. Calculate the contribution of PRD items. The calculation unit 162 outputs the contribution information CI, which is the calculation result of the contribution, to the determination unit 163.
  • the determination unit 163 receives the contribution information CI from the calculation unit 162. The determination unit 163 determines whether or not each of the plurality of items of the related data PRD is a high contribution item based on the contribution information CI and the setting condition SC. The determination unit 163 outputs the high contribution item information HCII to the learning unit 77 as the determination result.
  • FIG. 36 in the third processing unit 160, as in the case of the first processing unit 85 shown in FIG. 34, a plurality of items of the related data PRD are completely given to the temporary machine learning model PM. Be done.
  • the fourth processing unit 161 the extraction-related data PRDE from which one of the plurality of items of the related data PRD is removed is given to the tentative machine learning model PM.
  • FIG. 37 shows an example in which the item of the average value of the difference in intensity of the related data PRD_INT1 in the first section INT1 is excluded.
  • the calculation unit 162 first calculates the rate of change from the temporary output data POD and the temporary output data PODE for extraction.
  • the rate of change is a value indicating how much the output data of the tentative machine learning model PM changes due to the influence of the items excluded in the extraction-related data PRDE.
  • the calculation unit 162 converts the rate of change into the degree of contribution using the conversion table 170 that converts the rate of change into the degree of contribution.
  • the conversion table 170 when the rate of change is 0 or more and less than 0.05, the contribution degree is 0, when the rate of change is 0.05 or more and less than 0.1, the degree of contribution is 1, ..., The rate of change is 0.
  • Contribution 9 is registered when it is .45 or more and less than 0.5
  • contribution 10 is registered when the rate of change is 0.5 or more.
  • the case of 26000 is illustrated.
  • the rate of change in molecular weight dispersion
  • the degree of contribution is 0, so the degree of contribution obtained by converting the rate of change in the degree of molecular weight dispersion is calculated as 0.
  • the degree of contribution obtained by converting the rate of change in molecular weight is calculated to be 3.
  • the degree of contribution calculated in this way is the degree of contribution of the items excluded in the extraction-related data PRDE (in FIG. 39, the item of the average value of the difference in intensity of the related data PRD_INT1).
  • the fourth processing unit 161 gives the extraction-related data PRDE to the temporary machine learning model PM one after another while changing the items to be excluded one by one.
  • the fourth processing unit 161 gives 40 extraction related data PRDEs to the temporary machine learning model PM.
  • the calculation unit 162 calculates the degree of contribution for each extraction-related data PRDE. In order to improve the reliability of the value of the rate of change, the rate of change is calculated not only for one set of production condition data PCD and related data PRD but also for a plurality of different sets of production condition data PCD and related data PRD, and the average thereof. The value may be converted to contribution.
  • the contribution of each of the plurality of items of the related data PRD is registered in the contribution information CI.
  • the two numerical values next to each item are the degree of contribution, the left side is the degree of contribution obtained by converting the rate of change in molecular weight dispersion, and the right side is the degree of contribution obtained by converting the rate of change in molecular weight.
  • the contribution degree obtained by converting the change rate of the total molecular weight dispersion of the first interval INT1 is 4, and the contribution degree obtained by converting the change rate of the molecular weight is 6.
  • the setting condition SC is “the contribution degree obtained by converting the change rate of the molecular weight dispersion and the contribution degree obtained by converting the change rate of the molecular weight are both 6 or more”, and the contribution information CI is illustrated in FIG. 40.
  • the determination unit 163 determines the average value and the sum of the differences in the intensities of the second section INT1 in which the contribution degree obtained by converting the change rate of the molecular weight dispersion and the contribution degree obtained by converting the change rate of the molecular weight are both 6 or more.
  • Each item indicated by the hatching of the average value and the sum of the intensities of the 20th section INT20 is determined to be a high contribution item.
  • sparse modeling the method of extracting the essential part (highly contributing item in this example) from a plurality of data (multiple items of the related data PRD in this example) in this way is called sparse modeling.
  • Such sparse modeling can be performed, for example, using a glmnet package that can operate on the R language.
  • a detailed algorithm for sparse modeling is described in, for example, "Journal of Statistical Software, vol.33-1 (2010)" Regularization Paths for Generalized Liner Models via Coordinate Descent ".
  • the related data PRD of the high contribution item is selectively given to the second machine learning model M2 in the first processing unit 85.
  • items other than the high-contribution items are selectively excluded and given to the second machine learning model M2.
  • the evaluation unit 86 evaluates the prediction accuracy of the second machine learning model M2
  • the update unit 87 updates the second machine learning model M2.
  • the second machine learning model M2 whose prediction accuracy has reached a preset level is stored in the storage device 60A by the first RW control unit 75 as a learned model TM.
  • the second machine learning model M2 used in this learning has the same characteristics such as type and performance as the first machine learning model M1 used in tentative learning.
  • provisional learning step ST5000
  • extraction of high-contribution items step ST6000
  • main learning step ST7000
  • the first machine learning model M1 is learned and used as a tentative machine learning model PM.
  • a tentative machine learning model PM is used to extract high-contribution items.
  • the second machine learning model M2 is learned and used as a learned model TM.
  • the second operation program 176 is stored in the storage device 60B of the operation device 175 of the fourth embodiment. Further, the storage device 60B stores the high contribution item information HCII from the learning device 150.
  • the second RW control unit 115 of the operation device 175 reads the high contribution item information HCII from the storage device 60B, and outputs the high contribution item information HCII to the second derivation unit 180.
  • the second derivation unit 180 like the second derivation unit 116 of the operation device 11 of the first embodiment, calculates the average value and the sum of the intensity differences for each of the plurality of sections INT1 to INT20 in which the spectrum data SPDs are divided. Derived as prediction-related data PRDF.
  • the second derivation unit 180 selectively derives the high contribution item based on the high contribution item information HCII, and does not derive the items other than the high contribution item. Therefore, the prediction-related data PRDF is the same as the related data PRD of FIG. 42, in which items other than the high-contribution items are selectively excluded (see FIG. 45).
  • FIG. 45 shows how the trained model TM predicts the quality of the product PR whose ID is PR1000 and whose quality is unknown. Similar to the case shown in FIG. 42, in the second processing unit 117, the prediction-related data PRDF of the high-contribution item among the plurality of items is selectively given to the trained model TM. Conversely, items other than the high-contribution items are selectively excluded and given to the trained model TM.
  • the learning device 150 gives the learning input data IDL to the first machine learning model M1 for learning in the learning unit 77, and outputs a temporary machine learning model PM.
  • the extraction unit 155 extracts high-contribution items from a plurality of items of the related data PRD using a temporary machine learning model PM.
  • the related data PRD of the high contribution item is selectively given to the second machine learning model M2 for learning, and is output as a learned model TM. Therefore, it is possible to improve the accuracy of predicting the quality of the product PR by the trained model TM as compared with the case where the related data PRD other than the high contribution item is given and trained. In addition, it is possible to improve the efficiency of learning because it is possible to prevent the learning effort from being devoted to items that have a low degree of contribution to improving the accuracy of prediction.
  • the learning input data IDL includes not only the related data PRD but also the production condition data PCD. Therefore, the high-contribution item can be extracted in consideration of the influence of the production condition data PCD, and the validity of the high-contribution item can be further enhanced.
  • the section INTs that divide the spectrum data SPD may overlap each other.
  • the regions AR that divide the image data IMD may also overlap each other.
  • Product PR is not limited to those produced using the flow synthesis method. For example, it may be produced by using a batch synthesis method.
  • the production condition received by the setting unit 25 of the flow reaction device 13 is the production condition data PCD, but the present invention is not limited to this.
  • the value may be the production condition data PCD.
  • the quality prediction display screen 120 is illustrated as the output form of the quality prediction data QFD, but the present invention is not limited to this. Instead of or in addition to the quality prediction display screen 120, a form in which the quality prediction data QFD is printed out on a paper medium and a form in which the quality prediction data QFD is output as a data file may be adopted.
  • machine learning models M that use linear regression, Gaussian process regression, support vector regression, decision tree, ensemble method, bagging method, boosting method, gradient boosting method, and the like. Further, there are those using a simple perceptron, a multi-layer perceptron, a deep neural network, a convolutional neural network, a deep belief network, a recurrent neural network, a stochastic neural network and the like. Which of the machine learning models M illustrated above is used is not particularly limited, and the machine learning model M of any method can be selected.
  • Random forest can be mentioned as an ensemble method. As is well known, Random Forest uses randomly sampled training data and randomly selected explanatory variables to create multiple decision trees with low correlation, and integrates and averages their prediction results. Improve the accuracy of prediction.
  • the control parameters of the machine learning model M in this case include the number of explanatory variables to be selected and the number of branches of the decision tree.
  • Control parameters include the number of network layers and nodes, the type of activation function, the dropout ratio, the mini-batch size, the number of epochs, the learning rate, and the like.
  • Such a machine learning model M has a plurality of execution frameworks, and can be appropriately selected from among them.
  • it can be selected from Tensorflow, CNT (Cognitive Toolkit), Theano, cafe, mxnet, Keras, PyTorch, Chainer, Scikit-learn, Caret, MATLAB (registered trademark) and the like.
  • the hardware configuration of the computer that constitutes the machine learning system 2 can be modified in various ways.
  • the learning device 10 and the operating device 11 may be integrated and configured by one computer.
  • at least one of the learning device 10 and the operating device 11 can be configured by a plurality of computers separated as hardware for the purpose of improving processing power and reliability.
  • the function of the first derivation unit 76 of the learning device 10 and the function of the learning unit 77 are distributed to two computers.
  • the learning device 10 is composed of two computers.
  • the hardware configuration of the computer of the machine learning system 2 can be appropriately changed according to the required performance such as processing power, safety, and reliability.
  • application programs such as the first operation program 70, 151, the second operation program 110, and 176 are duplicated or a plurality of storages for the purpose of ensuring safety and reliability.
  • Various types such as control unit 115, second derivation unit 116, 180, second processing unit 117, display control unit 118, extraction unit 155 (third processing unit 160, fourth processing unit 161, calculation unit 162, determination unit 163).
  • various processors shown below can be used as the hardware structure of the processing unit (Processing Unit) that executes the processing.
  • the various processors include CPUs 62A and 62B, which are general-purpose processors that execute software (first operation programs 70, 151, second operation programs 110, 176) and function as various processing units.
  • a programmable logic device Programmable Logic Device: PLD
  • PLD programmable Logic Device
  • FPGA Field Programmable Gate Array
  • ASIC Application Specific Integrated Circuit
  • One processor may be composed of one of these various processors, or a combination of two or more processors of the same type or different types (for example, a combination of a plurality of FPGAs and / or a CPU and a CPU). It may be configured in combination with FPGA). Further, a plurality of processing units may be configured by one processor.
  • one processor is configured by a combination of one or more CPUs and software, as represented by a computer such as a client and a server.
  • a processor functions as a plurality of processing units.
  • SoC system on chip
  • a processor that realizes the functions of the entire system including a plurality of processing units with one IC (Integrated Circuit) chip is used. is there.
  • the various processing units are configured by using one or more of the various processors as a hardware structure.
  • an electric circuit in which circuit elements such as semiconductor elements are combined can be used.
  • the first acquisition processor that acquires multidimensional physical property data representing the physical properties of the product, It is a derivation processor that derives learning input data given to a machine learning model that predicts the quality of the product from the multidimensional physical property data, and applies at least a part of an autoencoder to the multidimensional physical property data to obtain the above.
  • a derivation processor that derives the multidimensional property-related data related to the multidimensional property data as the training input data, and
  • a learning processor that gives learning input data including the multidimensional physical property-related data to a machine learning model to train it, and outputs the machine learning model as a learned model to be used in actual operation.
  • a learning device equipped with A derivation processor that derives the multidimensional property-related data related to the multidimensional property data as the training input data, and
  • a learning processor that gives learning input data including the multidimensional physical property-related data to a machine learning model to train it, and outputs the machine learning model as a learned model to be used in actual operation.
  • Appendix 2 A second acquisition processor that acquires the trained model output from the learning processor of the learning device according to Appendix 1.
  • a third acquisition processor that acquires multidimensional property-related data for prediction of products of unknown quality
  • a processing processor that predicts the quality by giving the trained model acquired in the second acquisition processor the multidimensional physical property-related data for prediction of the product of unknown quality acquired in the third acquisition processor.
  • An output control processor that controls the output of the quality prediction result based on the trained model. Operational equipment equipped with.
  • the technique of the present disclosure can be appropriately combined with the various embodiments described above and various modifications.
  • various configurations can be adopted as long as they do not deviate from the gist.
  • the technique of the present disclosure extends to a storage medium for storing the program non-temporarily in addition to the program.
  • a and / or B is synonymous with "at least one of A and B". That is, “A and / or B” means that it may be only A, only B, or a combination of A and B. Further, in the present specification, when three or more matters are connected and expressed by "and / or", the same concept as “A and / or B" is applied.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Manufacturing & Machinery (AREA)
  • Automation & Control Theory (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Chemical Kinetics & Catalysis (AREA)
  • Organic Chemistry (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Feedback Control In General (AREA)

Abstract

生産物の多次元物性データから導出された多次元物性関連データを学習用入力データとして機械学習モデルに与えて学習させる場合に、機械学習モデルによる生産物の品質の予測の精度をより向上させることが可能な学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置を提供する。学習装置の第1導出部は、多次元物性データにオートエンコーダを適用して、多次元物性データに関連する多次元物性関連データを学習用入力データとして導出する。学習部は、多次元物性関連データを含む学習用入力データを機械学習モデルに与えて学習させ、機械学習モデルを実際の運用に供する学習済みモデルとして出力する。

Description

学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置
 本開示の技術は、学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置に関する。
 生産物の品質を、機械学習モデルを用いて予測することが行われている。特許文献1には、予測の精度を高めるために、生産物の物性を表す物性データから導出された物性関連データを学習用入力データとして学習する機械学習モデルが提案されている。
 特許文献1では、生産物としてコーヒー豆等の飲食品が例示されている。また、特許文献1では、物性データとして、近赤外(NIR;Near Infrared)分光分析データ、フーリエ変換赤外(FT-IR;Fourier Transform Infrared)分光分析データ、核磁気共鳴(NMR;Nuclear Magnetic Resonance)分光分析データ等のスペクトルデータ、あるいは生産物をカメラ等で撮影して得られる画像データが例示されている。そして、物性関連データとして、スペクトルデータから得られる数値、例えばスペクトルの波形の傾き、周期性、振幅、ピーク高さ、ピーク幅等が挙げられている。また、物性関連データとして、生産物をカメラ等で撮影して得られる画像データ自体が挙げられている。
特開2018-018354号公報
 物性データには、生産物の重さ等のように、生産物の一種類の物性を1つのパラメータで表すものもあれば、上記のスペクトルデータ、画像データのように、生産物の一種類の物性を複数のパラメータで表すものもある。より詳しくは、スペクトルデータであれば、スペクトルが生産物の物性であり、例えば波数と強度が複数のパラメータに該当する。画像データであれば、色が生産物の物性であり、赤色、緑色、青色の各画素値が複数のパラメータに該当する。こうした物性データは、パラメータを次元として捉えた場合、多次元の物性データであると言える。対して、生産物の一種類の物性を1つのパラメータで表す物性データは、一次元の物性データであると言える。以下、生産物の一種類の物性を複数のパラメータで表した物性データを、多次元物性データという。また、多次元物性データから導出された物性関連データを、多次元物性関連データという。
 特許文献1では、前述のように、多次元物性データであるスペクトルデータから導出する多次元物性関連データとして、スペクトルの波形の傾き、周期性、振幅、ピーク高さ、ピーク幅等が例示されている。しかしながら、特許文献1において例示された数値はいずれも、多次元物性データの全体的な特徴を網羅的にカバーしたものではないため、生産物の物性を的確に表した数値とは言い難かった。したがって、こうした数値を学習用入力データとして機械学習モデルに与えて学習させても、予測の精度が比較的低レベルで頭打ちになるおそれがあった。
 本開示の技術は、生産物の多次元物性データから導出された多次元物性関連データを学習用入力データとして機械学習モデルに与えて学習させる場合に、機械学習モデルによる生産物の品質の予測の精度をより向上させることが可能な学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置を提供することを目的とする。
 上記目的を達成するために、本開示の学習装置は、生産物の物性を表す多次元物性データを取得する第1取得部と、生産物の品質を予測する機械学習モデルに与える学習用入力データを、多次元物性データから導出する導出部であり、多次元物性データにオートエンコーダの少なくとも一部を適用して、多次元物性データに関連する多次元物性関連データを学習用入力データとして導出する導出部と、多次元物性関連データを含む学習用入力データを機械学習モデルに与えて学習させ、機械学習モデルを実際の運用に供する学習済みモデルとして出力する学習部と、を備える。
 学習用入力データは、生産物の生産工程において設定された生産条件データも含むことが好ましい。
 オートエンコーダは、品質が予め設定されたレベルよりも良好な生産物の多次元物性データを与えられて学習されたものであり、導出部は、オートエンコーダに多次元物性データを与えて出力データを出力させ、オートエンコーダに与えた多次元物性データと出力データとの差分データに基づいて多次元物性関連データを導出することが好ましい。
 導出部は、オートエンコーダに多次元物性データを与えて、オートエンコーダのエンコーダネットワークから特徴データを出力させ、特徴データに基づいて多次元物性関連データを導出することが好ましい。
 多次元物性データは、生産物を分光分析して検出されたスペクトルデータで表されるスペクトルの画像データを含むことが好ましい。
 導出部は、スペクトルデータを分けた複数の区間のそれぞれについて多次元物性関連データを導出することが好ましい。
 多次元物性データは、生産物を撮影して得られる画像データを含むことが好ましい。
 生産物は、フロー合成法を用いて生産されたものであることが好ましい。
 本開示の運用装置は、学習装置の学習部から出力された学習済みモデルを取得する第2取得部と、品質が未知の生産物の予測用多次元物性関連データを取得する第3取得部と、第2取得部において取得した学習済みモデルに、第3取得部において取得した、品質が未知の生産物の予測用多次元物性関連データを与えて品質を予測させる処理部と、学習済みモデルによる品質の予測結果を出力する制御を行う出力制御部と、を備える。
 本開示の学習装置の作動方法は、生産物の物性を表す多次元物性データを取得する第1取得ステップと、生産物の品質を予測する機械学習モデルに与える学習用入力データを、多次元物性データから導出する導出ステップであり、多次元物性データにオートエンコーダの少なくとも一部を適用して、多次元物性データに関連する多次元物性関連データを学習用入力データとして導出する導出ステップと、多次元物性関連データを含む学習用入力データを機械学習モデルに与えて学習させ、機械学習モデルを実際の運用に供する学習済みモデルとして出力する学習ステップと、を備える。
 本開示の学習装置の作動プログラムは、生産物の物性を表す多次元物性データを取得する第1取得部と、生産物の品質を予測する機械学習モデルに与える学習用入力データを、多次元物性データから導出する導出部であり、多次元物性データにオートエンコーダの少なくとも一部を適用して、多次元物性データに関連する多次元物性関連データを学習用入力データとして導出する導出部と、多次元物性関連データを含む学習用入力データを機械学習モデルに与えて学習させ、機械学習モデルを実際の運用に供する学習済みモデルとして出力する学習部として、コンピュータを機能させる。
 本開示の技術によれば、生産物の多次元物性データから導出された多次元物性関連データを学習用入力データとして機械学習モデルに与えて学習させる場合に、機械学習モデルによる生産物の品質の予測の精度をより向上させることが可能な学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置を提供することができる。
機械学習システム、フロー反応装置、物性分析装置、品質評価装置を示す図である。 フロー反応装置と物性分析装置と品質評価装置における処理の概要を示す図である。 学習装置と運用装置における処理の概要を示す図である。 生産条件データ、物性データ、関連データ、および品質データが共通のIDで関連付けられていることを示す図である。 T字形状の合流部をもつ反応セクションを有するフロー反応装置を示す図である。 十字形状の合流部をもつ反応セクションを有するフロー反応装置を示す図である。 生産条件データを示す図である。 スペクトルデータとスペクトルを示す図である。 品質データを示す図である。 学習装置および運用装置を構成するコンピュータを示すブロック図である。 学習装置のCPUの処理部を示すブロック図である。 オートエンコーダを示す図である。 畳み込み処理の説明図である。 画像特徴マップを示す図である。 オートエンコーダがスペクトルデータの複数の区間毎に用意されていることを示す図である。 品質が予め設定されたレベルよりも良好な生産物のスペクトルの画像データを、オートエンコーダに学習用入力画像データとして与えて学習させる様子を示す図である。 オートエンコーダの入力画像データと出力画像データとの差分データを算出する様子を示す図である。 第1導出部により、スペクトルデータを分けた複数の区間のそれぞれについて、関連データとして差分データの平均値および総和を導出する様子を示す図である。 学習部の詳細を示す図である。 第1処理部の処理を示す図である。 運用装置のCPUの処理部を示すブロック図である。 第2処理部の処理を示す図である。 品質予測表示画面を示す図である。 学習装置の処理手順を示すフローチャートである。 学習装置の処理手順を示すフローチャートである。 運用装置の処理手順を示すフローチャートである。 比較例と実施例の分子量分散度の決定係数および分子量の決定係数を示す表である。 比較例2の関連データを示す図である。 画像データを示す図である。 画像データを分けた複数の領域を示す図である。 第1導出部により、画像データを分けた複数の領域のそれぞれについて、関連データを導出する様子を示す図である。 画像特徴マップに基づいて関連データを導出する様子を示す図である。 第4実施形態の学習装置のCPUの処理部を示すブロック図である。 仮学習における第1処理部の処理を示す図である。 抽出部の詳細を示す図である。 第3処理部の処理を示す図である。 第4処理部の処理を示す図である。 算出部の処理を示す図である。 算出部の処理の具体例を示す図である。 寄与度情報を示す図である。 判定部の処理を示す図である。 本学習における第1処理部の処理を示す図である。 第4実施形態の学習装置の処理手順を示すフローチャートである。 第4実施形態の運用装置のCPUの処理部を示すブロック図である。 第2処理部の処理を示す図である。
 [第1実施形態]
 図1において、機械学習システム2は、学習装置10および運用装置11を備える。学習装置10および運用装置11は、例えばデスクトップ型のパーソナルコンピュータである。学習装置10および運用装置11は、ネットワーク12を介して相互に通信可能に接続されている。ネットワーク12は、例えば、LAN(Local Area Network)、もしくはインターネット、公衆通信網等のWAN(Wide Area Network)である。ネットワーク12には、フロー反応装置13、物性分析装置14、および品質評価装置15も接続されている。
 図2において、フロー反応装置13は、フロー合成法により、生産工程における生産条件データPCDにしたがって、原料RMから生産物PRを生産する。物性分析装置14は、生産物PRの物性を分析し、その分析結果である物性データPDを出力する。品質評価装置15は、生産物PRの品質を評価し、その評価結果である品質データQDを出力する。フロー反応装置13から生産条件データPCDが、物性分析装置14から物性データPDが、品質評価装置15から品質データQDが、それぞれ学習装置10に送信される。
 図3において、学習装置10は、フロー反応装置13からの生産条件データPCD、物性分析装置14からの物性データPD、および品質評価装置15からの品質データQDを取得する。学習装置10は、物性データPDから物性関連データ(以下、関連データと略す)PRDを導出する。この関連データPRDと、生産条件データPCDとで、学習用入力データIDLが構成される。生産条件データPCD、物性データPD、物性データPDから導出された関連データPRD、および品質データQDは、図4に示すように、1つの生産物PRに対して付された共通のID(Identification Data)で関連付けられている。
 学習装置10は機械学習モデルMを有する。機械学習モデルMは、生産物PRの品質を予測するためのモデルである。学習装置10は、この機械学習モデルMの予測の精度を高めるため、同じIDが付された生産条件データPCDおよび関連データPRDで構成される学習用入力データIDLを機械学習モデルMに与える(図20参照)。機械学習モデルMは、学習用入力データIDLに応じた学習用出力データODLを出力する。
 品質データQDは、学習用出力データODLとの答え合わせを行うためのデータである。機械学習モデルMの予測の精度が高いほど、品質データQDと学習用出力データODLとの差異は小さくなる。このため、学習装置10は、学習用出力データODLと、学習用入力データIDLと同じIDが付された品質データQDとを比較し、機械学習モデルMの予測の精度を評価する。そして、この評価結果に応じて、機械学習モデルMを更新する。学習装置10は、学習用入力データIDLの機械学習モデルMへの入力と学習用出力データODLの機械学習モデルMからの出力、機械学習モデルMの予測の精度の評価、および機械学習モデルMの更新を、学習用入力データIDLおよび品質データQDを変更しつつ行う。そして、これら一連の処理を、機械学習モデルMの予測の精度が予め設定されたレベルとなるまで繰り返す。学習装置10は、予測の精度が予め設定されたレベルとなった機械学習モデルMを、実際の運用に供する学習済みモデルTMとして運用装置11に送信する。
 運用装置11は、学習装置10からの学習済みモデルTMを受信する。運用装置11は、品質が未知の生産物PRの生産条件データである予測用生産条件データPCDF、および品質が未知の生産物PRの関連データである予測用物性関連データ(以下、予測用関連データと略す)PRDFを学習済みモデルTMに与える。予測用関連データPRDFは、関連データPRDと同様に、品質が未知の生産物PRの物性データPDである予測用物性データPDF(図21参照)から導出したデータである。学習済みモデルTMは、これら予測用生産条件データPCDFおよび予測用関連データPRDFに応じた品質予測データQFDを出力する。
 フロー反応装置13で行われるフロー反応は、モノマーを合成する合成反応、あるいはモノマー同士を反応させることにより重合体を生成する重合反応等である。したがって、生産物PRは、例えば重合反応の対象となる成長段階の化合物であってもよい。本例においては、フロー反応装置13は、生産物PRであるポリスチレンのアニオン重合反応をフロー反応で行う。
 図5において、フロー反応装置13は、第1原料供給部20、第2原料供給部21、反応セクション22、温度調節部23、回収廃棄セクション24、設定部25、システムコントローラ26等を備えている。
 第1原料供給部20は、反応セクション22の上流側端部と、図示しない配管によって接続されている。第1原料供給部20は、第1原料RM1を反応セクション22に供給する。第1原料供給部20は、第1原料RM1を反応セクション22に送り出すためのポンプを有している。このポンプの回転数を制御することにより、第1原料供給部20から反応セクション22に送り出される第1原料RM1の流量が調節される。
 本例において、第1原料RM1は、ポリスチリルリチウムを溶媒に溶解した溶液である。ポリスチリルリチウムは、生産物PRであるポリスチレンのアニオン重合反応の開始剤として機能する。溶媒にはテトラヒドロフランが用いられる。また、溶液にはトルエンおよびヘキサンが少量混合されている。なお、フロー反応の原料は、第1原料RM1のようにポリスチリルリチウム等の反応物と他の物質との混合物であってもよいし、反応物のみで構成されていてもよい。
 第2原料供給部21は、第1原料供給部20と同じく、反応セクション22の上流側端部と、図示しない配管によって接続されている。第2原料供給部21は、第2原料RM2を反応セクション22に供給する。第2原料供給部21も、第1原料供給部20と同じく、第2原料RM2を反応セクション22に送り出すためのポンプを有している。このポンプの回転数を制御することにより、第2原料供給部21から反応セクション22に送り出される第2原料RM2の流量が調節される。
 本例において、第2原料RM2は、メタノール水溶液である。メタノールはアニオン重合反応の停止剤として用いられる。
 反応セクション22は、フロー反応(本例においてはアニオン重合反応)を行うためのセクションである。反応セクション22は、合流部30と反応部31とを有する。合流部30は、第1管部32、第2管部33、および第3管部34で構成される。第1管部32と第2管部33は直線状に繋がっており、第3管部34は第1管部32および第2管部33と直角に交差している。すなわち合流部30はT字形状をしている。
 第1管部32は第1原料供給部20に、第2管部33は第2原料供給部21に、それぞれ接続されている。また、第3管部34は、反応部31に接続されている。第1管部32には第1原料供給部20から第1原料RM1が、第2管部33には第2原料供給部21から第2原料RM2が、それぞれ供給される。そして、第1原料RM1および第2原料RM2は、第3管部34において合流し、混合された状態で反応部31に送り出される。
 第1管部32には、第1管部32を通過する第1原料RM1の流速を検出する第1流速センサ35が設けられている。また、第2管部33には、第2管部33を通過する第2原料RM2の流速を検出する第2流速センサ36が設けられている。さらに、第3管部34には、第3管部34を通過する第1原料RM1と第2原料RM2の混合物の流速を検出する第3流速センサ37が設けられている。
 反応部31は、複数本の同じ内径の直管を直線状に繋げた細長い管である。反応部31は、繋げる直管の本数および/または直管の長さを変えることで、長さLを変更可能である。また、反応部31は、繋げる直管の内径を変えることで、内径Φを変更可能である。
 反応部31の内部は、第1原料RM1と第2原料RM2との混合物が流れる流路であり、フロー反応を行う場である。混合物が反応部31を通過することで、フロー反応が進められ、ポリスチレン溶液とされる。合流部30の第3管部34においてもフロー反応は若干進むが、反応部31の長さLに対して第3管部34の長さは非常に短い。このため、第3管部34は無視し、反応部31の長さLを、フロー反応を行う場の長さである反応路長と見なす。同様に、反応部31の内径Φを、フロー反応を行う場の径である反応路径と見なす。
 温度調節部23は、加熱器および/または冷却器を含み、反応部31の内部の温度(以下、反応温度という)を調節する。反応部31の下流側端部には、反応温度を検出する温度センサ38が設けられている。
 回収廃棄セクション24は、生産物PRであるポリスチレンを回収し、かつ反応が失敗した廃棄物を廃棄するセクションである。回収廃棄セクション24は、回収部40と廃棄部41とを有する。回収部40と廃棄部41とは、反応部31の下流側端部と三方弁42によって接続されている。この三方弁42により、反応部31と回収部40とを接続する回収ラインと、反応部31と廃棄部41とを接続する廃棄ラインとの切り替えが可能である。
 回収部40は、ポリスチレン溶液からポリスチレンを析出させる。回収部40は、析出させたポリスチレンを溶液からろ過して採取する。そして、採取したポリスチレンを乾燥させる。より詳しくは、回収部40は、攪拌機を備えた容器をもち、当該容器にメタノールを収容し、攪拌されているメタノール中にポリスチレン溶液を混入することで、ポリスチレンを析出させる。また、回収部40は、減圧機能付きの恒温槽をもち、恒温槽内部を減圧状態にして加熱することで、メタノールを乾燥させる。
 廃棄部41は、廃棄物を貯留するタンクである。ここで廃棄物とは、第1原料RM1の流速、第2原料RM2の流速、混合物の流速、反応温度等が何らかの要因で乱され、当初予定していた生産条件にて生産できなかった場合に、反応部31から送り出されたものである。
 設定部25は、フロー反応装置13のオペレータによる生産物PRの生産工程における生産条件の設定を受け付ける。この設定部25で受け付けられた生産条件が、生産物PRの生産工程において設定された生産条件データPCDとしてシステムコントローラ26に登録される。
 システムコントローラ26は、フロー反応装置13の全体の動作を統括的に制御する。システムコントローラ26は、第1原料供給部20、第2原料供給部21、温度調節部23、第1流速センサ35、第2流速センサ36、第3流速センサ37、温度センサ38、および三方弁42と接続されている。
 システムコントローラ26は、第1流速センサ35が検出した第1原料RM1の流速に応じて、第1原料供給部20のポンプの回転数を制御し、第1原料RM1の流量を調節する。同様に、システムコントローラ26は、第2流速センサ36が検出した第2原料RM2の流速に応じて、第2原料供給部21のポンプの回転数を制御し、第2原料RM2の流量を調節する。また、システムコントローラ26は、温度センサ38が検出した反応温度に応じて、温度調節部23を駆動させる。さらに、システムコントローラ26は、三方弁42を制御して、前述の回収ラインと廃棄ラインとを切り替える。
 反応セクション22に代えて、図6に示す反応セクション45を用いてもよい。なお、図6において、図5と同じ構成には同じ符号を付し、説明を省略する。
 図6に示す反応セクション45の合流部46は、第1管部47、第2管部48、第3管部49、および第4管部50で構成される。第1管部47と第2管部48は直線状に繋がっている。同じく、第3管部49と第4管部50は直線状に繋がっている。そして、第1管部47および第2管部48は、第3管部49および第4管部50と直角に交差している。すなわち合流部46は十字形状をしている。
 第1管部47および第2管部48は第1原料供給部20に、第3管部49は第2原料供給部21に、それぞれ接続されている。また、第4管部50は、反応部31に接続されている。第1管部47および第2管部48には第1原料供給部20から第1原料RM1が、第3管部49には第2原料供給部21から第2原料RM2が、それぞれ供給される。そして、第1原料RM1および第2原料RM2は、第4管部50において合流し、混合された状態で反応部31に送り出される。
 第1管部47および第2管部48には、第1管部47および第2管部48を通過する第1原料RM1の流速を検出する第1流速センサ51および第2流速センサ52が設けられている。また、第3管部49には、第3管部49を通過する第2原料RM2の流速を検出する第3流速センサ53が設けられている。さらに、第4管部50には、第4管部50を通過する第1原料RM1と第2原料RM2の混合物の流速を検出する第4流速センサ54が設けられている。
 この場合、システムコントローラ26は、第1流速センサ51が検出した第1原料RM1の流速と、第2流速センサ52が検出した第1原料RM1の流速の平均値に応じて、第1原料供給部20のポンプの回転数を制御し、第1原料RM1の流量を調節する。また、システムコントローラ26は、第3流速センサ53が検出した第2原料RM2の流速に応じて、第2原料供給部21のポンプの回転数を制御し、第2原料RM2の流量を調節する。
 図7において、生産条件データPCDは、第1原料RM1の濃度(単位:mol/l)および流速(単位:ml/min)、第2原料RM2の濃度(単位:mol/l)および流速(単位:ml/min)、合流部の形状、反応路径Φ(単位:mm)、反応路長L(単位:m)、および反応温度(単位:℃)の各項目を有する。合流部の形状の項目には、図5で示した反応セクション22を用いた場合は図示の「T字状」が、図6で示した反応セクション45を用いた場合は「十字状」(図36等参照)が、それぞれ登録される。なお、混合物の流速を生産条件データPCDの項目として加えてもよい。
 反応セクション22を用いた場合、システムコントローラ26は、第1流速センサ35が検出した第1原料RM1の流速が、生産条件データPCDに登録された第1原料RM1の流速と一致するよう、第1原料供給部20のポンプの回転数を制御して第1原料RM1の流量を調節する。同様に、システムコントローラ26は、第2流速センサ36が検出した第2原料RM2の流速が、生産条件データPCDに登録された第2原料RM2の流速と一致するよう、第2原料供給部21のポンプの回転数を制御して第2原料RM2の流量を調節する。
 反応セクション45を用いた場合、システムコントローラ26は、第1流速センサ51が検出した第1原料RM1の流速と、第2流速センサ52が検出した第1原料RM1の流速の平均値が、生産条件データPCDに登録された第1原料RM1の流速と一致するよう、第1原料供給部20のポンプの回転数を制御して第1原料RM1の流量を調節する。同様に、システムコントローラ26は、第3流速センサ53が検出した第2原料RM2の流速が、生産条件データPCDに登録された第2原料RM2の流速と一致するよう、第2原料供給部21のポンプの回転数を制御して第2原料RM2の流量を調節する。
 また、システムコントローラ26は、温度センサ38が検出した反応温度が、生産条件データPCDに登録された反応温度と一致するよう、温度調節部23を駆動させる。
 システムコントローラ26は、各センサ35、36、38、51、52、53で検出した各値と、生産条件データPCDに登録された各値との乖離が、予め設定された範囲を超えた場合、三方弁42を制御して廃棄ラインに切り替え、廃棄物を廃棄部41に導く。なお、反応が失敗して廃棄物が出た場合は、当然ながら物性データPDおよび品質データQDは出力されない。このため、廃棄物が出た場合の生産条件データPCDは、学習装置10には送信されずに破棄される。
 図8において、物性分析装置14は、生産物PRを分光分析して、スペクトルデータSPDを検出する。物性分析装置14は、分光分析として、例えば、近赤外分光分析、フーリエ変換赤外分光分析、ラマン分光分析、核磁気共鳴分光分析を行う。図8に例示するスペクトルデータSPDは、ラマン分光分析で得られたものであり、波数と強度の組で構成される。このスペクトルデータSPDの強度を波数毎にプロットして線で繋いだものが、スペクトルSPである。本例においては、このスペクトルSPの画像データSPIMDが、物性データPDとなる。スペクトルSPの画像データSPIMDは、本開示の技術に係る「多次元物性データ」の一例である。なお、波数と強度の組に代えて、波長と強度の組でスペクトルデータSPDが構成されていてもよい。
 図9において、品質評価装置15は、品質データQDとして、生産物PRの分子量分散度および分子量を出力する。分子量は、ここでは数平均分子量である。また、分子量分散度は、重量平均分子量を数平均分子量で除算した値である。品質評価装置15は、例えば、生産物PRであるポリスチレンをテトラヒドロフランに溶解したポリスチレン溶液を用いて、ゲルパーミエーションクロマトグラフィ(以下、GPC(Gel Permeation Chromatography)と略す)により分子量分散度および分子量を求める。
 GPCは、下記の条件で行っている。
 装置:HLC-8220GPC(東ソー(株)製)
 検出器:示差屈折計(RI(Refractive Index)検出器)
 プレカラム:TSKGUARDCOLUMN HXL-L 6mm×40mm(東ソー(株)製)
 サンプル側カラム:以下(1)~(3)の3本を順に直結(全て東ソー(株)製)
 (1)TSK-GEL GMHXL 7.8mm×300mm
 (2)TSK-GEL G4000HXL 7.8mm×300mm
 (3)TSK-GEL G2000HXL 7.8mm×300mm
 リファレンス側カラム:TSK-GEL G1000HXL 7.8mm×300mm
 恒温槽温度:40℃
 移動層:テトラヒドロフラン
 サンプル側移動層流量:1.0ml/min
 リファレンス側移動層流量:1.0ml/min
 試料濃度:0.1質量%
 試料注入量:100μl
 データ採取時間:試料注入後5分~45分
 サンプリングピッチ:300msec
 なお、GPCに代えて、赤外分光分析、核磁気共鳴分光分析、高速液体クロマトグラフィ(HPLC;High Performance Liquid Chromatography)、またはガスクロマトグラフィ(GC;Gas Chromatography)等、各種の手法を用いてもよい。また、品質データQDは、生産物PRの分子量分散度および分子量に限らない。生産物PRが溶液の状態で得られる場合は、溶液中の生産物PRの濃度であるモル濃度を品質データQDとしてもよい。あるいは、生産物PRの量を原料RMの量で除算した生産物PRの収率を品質データQDとしてもよい。さらには、副生産物が生産された場合は、副生産物の収率等を品質データQDとしてもよい。
 図10において、学習装置10および運用装置11を構成するコンピュータは、基本的な構成は同じであり、ストレージデバイス60、メモリ61、CPU(Central Processing Unit)62、通信部63、ディスプレイ64、および入力デバイス65を備えている。これらはバスライン66を介して相互接続されている。
 ストレージデバイス60は、学習装置10等を構成するコンピュータに内蔵、またはケーブル、ネットワークを通じて接続されたハードディスクドライブである。もしくはストレージデバイス60は、ハードディスクドライブを複数台連装したディスクアレイである。ストレージデバイス60には、オペレーティングシステム等の制御プログラム、各種アプリケーションプログラム、およびこれらのプログラムに付随する各種データ等が記憶されている。なお、ハードディスクドライブに代えて、あるいは加えて、ソリッドステートドライブを用いてもよい。
 メモリ61は、CPU62が処理を実行するためのワークメモリである。CPU62は、ストレージデバイス60に記憶されたプログラムをメモリ61へロードして、プログラムにしたがった処理を実行することにより、コンピュータの各部を統括的に制御する。
 通信部63は、ネットワーク12を介した各種情報の伝送制御を行うネットワークインターフェースである。ディスプレイ64は各種画面を表示する。学習装置10等を構成するコンピュータは、各種画面を通じて、入力デバイス65からの操作指示の入力を受け付ける。入力デバイス65は、キーボード、マウス、タッチパネル等である。
 なお、以下の説明では、学習装置10の各部に添え字の「A」を、運用装置11の各部に添え字の「B」を、それぞれ付して区別する。
 図11において、学習装置10のストレージデバイス60Aには、第1作動プログラム70が記憶されている。第1作動プログラム70は、コンピュータを学習装置10として機能させるためのアプリケーションプログラムである。すなわち、第1作動プログラム70は、本開示の技術に係る「学習装置の作動プログラム」の一例である。
 ストレージデバイス60Aには、フロー反応装置13からの生産物PRの生産工程における生産条件データPCD、物性分析装置14からの物性データPD、および品質評価装置15からの品質データQDも記憶される。また、ストレージデバイス60Aには、オートエンコーダAEも記憶される。さらに、ストレージデバイス60Aには、オートエンコーダAEを用いて物性データPDから導出された関連データPRD、および機械学習モデルMも記憶される。生産条件データPCD、物性データPD、関連データPRD、および品質データQDのセットは、複数記憶されている。
 第1作動プログラム70が起動されると、学習装置10を構成するコンピュータのCPU62Aは、メモリ61等と協働して、第1リードライト(以下、RW(Read Write)と略す)制御部75、第1導出部76、学習部77、および送信制御部78として機能する。
 第1RW制御部75は、ストレージデバイス60A内の各種データの読み出し、およびストレージデバイス60Aへの各種データの記憶を制御する。第1RW制御部75は、ストレージデバイス60Aから物性データPDおよびオートエンコーダAEを読み出し、物性データPDおよびオートエンコーダAEを第1導出部76に出力する。また、第1RW制御部75は、第1導出部76からの関連データPRDをストレージデバイス60Aに記憶する。なお、第1RW制御部75は、物性データPDをストレージデバイス60Aから読み出すことで、物性データPDを取得していることになる。すなわち、第1RW制御部75は、本開示の技術に係る「第1取得部」の一例である。
 第1RW制御部75は、ストレージデバイス60Aから関連データPRD、生産条件データPCD、および品質データQDを読み出し、これらを学習部77に出力する。また、第1RW制御部75は、ストレージデバイス60Aから機械学習モデルMを読み出し、機械学習モデルMを学習部77および送信制御部78のいずれかに出力する。また、第1RW制御部75は、学習部77からの機械学習モデルMをストレージデバイス60Aに記憶する。
 第1導出部76は、第1RW制御部75からの物性データPDを受け取る。第1導出部76は、物性データPDにオートエンコーダAEを適用して、関連データPRDを導出する。すなわち、第1導出部76は、本開示の技術に係る「導出部」の一例である。第1導出部76は、導出した関連データPRDに物性データPDと同じIDを付し、関連データPRDを第1RW制御部75に出力する。第1導出部76は、物性分析装置14から新たな物性データPDが送信される度に、関連データPRDの導出を行う。
 学習部77は、第1RW制御部75からの学習用入力データIDL、品質データQD、および機械学習モデルMを受け取る。学習部77は、学習用入力データIDLを機械学習モデルMに与えて学習させ、学習済みモデルTMを出力する。
 送信制御部78は、第1RW制御部75からの機械学習モデルMを受け取る。送信制御部78が第1RW制御部75から受け取る機械学習モデルMは、学習済みモデルTMである。送信制御部78は、学習済みモデルTMを運用装置11に送信する制御を行う。
 オートエンコーダAEは、入力画像データIIMD(図12参照)を解析する複数の階層を有し、階層毎に、入力画像データIIMDに含まれる空間周波数の周波数帯域が異なる特徴を抽出する、畳み込みニューラルネットワークで構成された階層型の機械学習モデルである。畳み込みニューラルネットワークは、例えばU-Net(U-Shaped Neural Network)、SegNet等である。本例において、入力画像データIIMDは、スペクトルSPの画像データSPIMDである。
 図12に示すように、オートエンコーダAEは、エンコーダネットワーク80とデコーダネットワーク81とで構成される。エンコーダネットワーク80は、階層毎に、フィルタF(図13参照)を用いた畳み込み演算を行って、画像特徴マップCMPを抽出する畳み込み処理を行う。デコーダネットワーク81は、エンコーダネットワーク80の最下位階層から出力された最小の画像特徴マップCMPの画像サイズを段階的に拡大する。そして、段階的に拡大された画像特徴マップCMPと、エンコーダネットワーク80の各階層で出力された画像特徴マップCMPとを結合して、入力画像データIIMDと同じ画像サイズの出力画像データOIMDを生成する。なお、出力画像データOIMDは、本開示の技術に係る「出力データ」の一例である。
 エンコーダネットワーク80の各階層には、二次元に配列された複数の画素値をもつ入力データDI(図13参照)が入力される。エンコーダネットワーク80は、各階層において、入力データDIに対して畳み込み処理を行って画像特徴マップCMPを抽出する。エンコーダネットワーク80の最上位の第1階層には、入力データDIとして入力画像データIIMDが入力される。第1階層は、入力画像データIIMDに畳み込み処理を行って、例えば、入力画像データIIMDと同じ画像サイズの画像特徴マップCMPを出力する。第2階層以下では、入力データDIとして、上位の各階層で出力された画像特徴マップCMPが入力される。第2階層以下では、画像特徴マップCMPに対して畳み込み処理が行われて、例えば、入力された画像特徴マップCMPと同じ画像サイズの画像特徴マップCMPが出力される。
 図13において、畳み込み処理は、入力データDIに例えば3×3のフィルタFを適用して、入力データDI内の注目画素Ipの画素値eと、注目画素Ipに隣接する8個の画素Isの画素値a、b、c、d、f、g、h、iを畳み込むことにより、入力データDIと同様に、二次元状に画素値が配列された出力データDIcを得る処理である。フィルタFの係数をr、s、t、u、v、w、x、y、zとした場合、注目画素Ipに対する畳み込み演算の結果である、出力データDIcの画素Icpの画素値kは、例えば下記の(式1)を計算することで得られる。
 k=az+by+cx+dw+ev+fu+gt+hs+ir・・・(式1)
 畳み込み処理では、入力データDIの各画素に対して上記のような畳み込み演算を行い、画素値kを出力する。こうして、二次元状に配列された画素値kをもつ出力データDIcが出力される。出力データDIcは、1個のフィルタFに対して1つ出力される。種類が異なる複数のフィルタFが使用された場合は、フィルタF毎に出力データDIcが出力される。
 図14に示すように、出力データDIcは、二次元状に画素値kが配列されたデータであり、幅と高さをもつ。また、種類が異なる複数のフィルタFを適用して、複数の出力データDIcが出力された場合は、画像特徴マップCMPは、複数の出力データDIcの集合になる。画像特徴マップCMPにおいて、フィルタFの数はチャンネル数と呼ばれる。図14に示す画像特徴マップCMPは、4個のフィルタFを適用して出力された4つの出力データDIcを有する、4チャンネルの画像特徴マップCMPの例である。
 図15に示すように、オートエンコーダAEは、スペクトルデータSPDの複数の区間毎に用意されている。図15では、スペクトルデータSPDを分けた複数の区間として、スペクトルデータSPDを20等分に分けた20個の区間INT1、INT2、INT3、・・・、INT20を例示している。そして、区間INT1~INT20毎に、オートエンコーダAE_INT1~AE_INT20が用意された場合を例示している。各オートエンコーダAE_INT1~AE_INT20は、各区間INT1~INT20のスペクトルSPの画像データSPIMD_INT1~SPIMD_INT20に特化したものである。なお、以下の説明では、オートエンコーダAE_INT1~AE_INT20をまとめてオートエンコーダAEと表記する場合がある。
 図16に示すように、オートエンコーダAEには、品質が予め設定されたレベルよりも良好な生産物PRのスペクトルSPの画像データSPIMDが、学習用入力画像データIIMDLとして与えられる。そして、オートエンコーダAEは、学習用入力画像データIIMDLと学習用出力画像データOIMDLが一致するよう学習される。すなわち、オートエンコーダAEは、品質が予め設定されたレベルよりも良好な生産物PRのスペクトルSPの画像データSPIMDが入力画像データIIMDとして入力された場合に、理想的には、入力画像データIIMDのスペクトルSPと形状が同じスペクトルSPをもつ出力画像データOIMDを出力する。なお、予め設定されたレベルとは、例えば、分子量分散度が1.5以上、分子量が25000以上等である。
 図16では、各オートエンコーダAE_INT1~AE_INT20のうちのオートエンコーダAE_INT1を例示している。このため、学習用入力画像データIIMDLは、区間INT1のスペクトルSPの画像データSPIMD_INT1である。
 図17に示すように、第1導出部76は、スペクトルSPの画像データSPIMDを入力画像データIIMDとしてオートエンコーダAEに与えて、出力画像データOIMDを出力させる。次いで、第1導出部76は、入力画像データIIMDと出力画像データOIMDとの差分データDDを算出する。具体的には、第1導出部76は、各区間INT1~INT20のそれぞれについて、入力画像データIIMDと出力画像データOIMDの各波数における強度の差分を、差分データDDとして算出する。
 図17では、図16と同様に、オートエンコーダAE_INT1のみを図示している。オートエンコーダAE_INT1には、入力画像データIIMDとして、区間INT1のスペクトルSPの画像データSPIMD_INT1が与えられる。そして、入力画像データIIMDと、オートエンコーダAE_INT1の出力画像データOIMDとに基づいて、区間INT1の差分データDD_INT1が算出される。
 ここで、オートエンコーダAEは、図16で示したように、品質が予め設定されたレベルよりも良好な生産物PRのスペクトルSPの画像データSPIMDが、学習用入力画像データIIMDLとして与えられて学習されたものである。このため、入力画像データIIMDの出所である生産物PRの品質が、予め設定されたレベルよりも良好であったならば、入力画像データIIMDと略同じ出力画像データOIMDがオートエンコーダAEから出力される。したがって、強度の差分は比較的小さくなる。逆に、生産物PRの品質が、予め設定されたレベル以下であったならば、入力画像データIIMDとは異なる出力画像データOIMDがオートエンコーダAEから出力される。したがって、強度の差分は比較的大きくなる。すなわち、差分データDDによれば、生産物PRの品質が予め設定されたレベルよりも良好か否かが分かる。
 図18に示すように、第1導出部76は、各区間INT1~INT20の差分データDD_INT1、DD_INT2、・・・、DD_INT20のそれぞれについて、関連データPRD_INT1、PRD_INT2、・・・、PRD_INT20を導出する。具体的には、第1導出部76は、関連データPRD_INT1~PRD_INT20として、各区間INT1~INT20の強度の差分の平均値および総和を導出する。関連データPRD_INT1~PRD_INT20は、本開示の技術に係る「多次元物性関連データ」の一例である。この例の場合、関連データPRD_INT1~PRD_INT20を統合した関連データPRDのトータルの項目数は、代表値が強度の差分の平均値および総和の2種で区間が20区間であるため、2×20=40個となる。なお、強度の差分の平均値および総和に代えて、あるいは加えて、強度の差分の最大値、最小値、中央値、分散といった他の代表値を、関連データPRDとして導出してもよい。
 図19に示すように、学習部77は、第1処理部85、評価部86、および更新部87を有する。第1処理部85は、学習用入力データIDLを機械学習モデルMに与えて、機械学習モデルMから学習用出力データODLを出力させる。学習用出力データODLは、品質データQDと同じく、分子量分散度および分子量で構成される(図20参照)。第1処理部85は、学習用出力データODLを評価部86に出力する。
 評価部86は、第1処理部85からの学習用出力データODLを受け取る。評価部86は、学習用出力データODLと品質データQDとを比較し、機械学習モデルMの予測の精度を評価する。評価部86は、評価結果を更新部87に出力する。
 評価部86は、例えば、損失関数を用いて機械学習モデルMの予測の精度を評価する。損失関数は、学習用出力データODLと品質データQDとの差異の程度を表す関数である。損失関数の算出値が0に近いほど、機械学習モデルMの予測の精度が高いことを示す。
 更新部87は、評価部86からの評価結果に応じて、機械学習モデルMを更新する。例えば、更新部87は、学習係数を伴う確率的勾配降下法等により、機械学習モデルMの各種パラメータの値を変化させる。学習係数は、機械学習モデルMの各種パラメータの値の変化幅を示す。すなわち、学習係数が比較的大きい値であるほど、各種パラメータの値の変化幅は大きくなり、機械学習モデルMの更新度合いも大きくなる。
 これら第1処理部85による機械学習モデルMへの学習用入力データIDLの入力と評価部86への学習用出力データODLの出力、評価部86による予測の精度の評価、および更新部87による機械学習モデルMの更新は、予測の精度が予め設定されたレベルとなるまで、繰り返し続けられる。
 図20に示すように、第1処理部85は、生産条件データPCDおよび関連データPRDで構成される学習用入力データIDLを機械学習モデルMに与える。そして、評価部86による機械学習モデルMの予測の精度の評価、および更新部87による機械学習モデルMの更新が行われる。こうした処理が学習用入力データIDLを変えつつ繰り返し続けられることで、機械学習モデルMは予測の精度が予め設定されたレベルに達する。予測の精度が予め設定されたレベルに達した機械学習モデルMは、学習済みモデルTMとして、第1RW制御部75によりストレージデバイス60Aに記憶される。
 図21において、運用装置11のストレージデバイス60Bには、第2作動プログラム110が記憶されている。第2作動プログラム110は、コンピュータを運用装置11として機能させるためのアプリケーションプログラムである。
 ストレージデバイス60Bには、学習装置10からの学習済みモデルTM、学習装置10と同じオートエンコーダAE、および物性分析装置14からの予測用物性データPDFも記憶される。また、ストレージデバイス60Bには、予測用生産条件データPCDFも記憶される。予測用生産条件データPCDFは、入力デバイス65Bを介してオペレータにより入力される。より詳しくは、予測用生産条件データPCDFの各項目の入力ボックスが用意された入力画面がディスプレイ64Bに表示され、入力画面を通じて予測用生産条件データPCDFが入力される。予測用生産条件データPCDFおよび予測用物性データPDFは、品質が未知で、これから学習済みモデルTMを用いて品質を予測する生産物PRの生産条件データPCDおよび物性データPDである。
 また、ストレージデバイス60Bには、予測用物性データPDFから導出された予測用物性関連データ(以下、予測用関連データと略す)PRDFも記憶される。
 第2作動プログラム110が起動されると、運用装置11を構成するコンピュータのCPU62Bは、メモリ61等と協働して、第2RW制御部115、第2導出部116、第2処理部117、および表示制御部118として機能する。
 第2RW制御部115は、学習装置10の第1RW制御部75と同様、ストレージデバイス60B内の各種データの読み出し、およびストレージデバイス60Bへの各種データの記憶を制御する。第2RW制御部115は、ストレージデバイス60Bから予測用物性データPDFおよびオートエンコーダAEを読み出し、予測用物性データPDFおよびオートエンコーダAEを第2導出部116に出力する。また、第2RW制御部115は、第2導出部116からの予測用関連データPRDFをストレージデバイス60Bに記憶する。
 第2RW制御部115は、ストレージデバイス60Bから学習済みモデルTMを読み出し、学習済みモデルTMを第2処理部117に出力する。第2RW制御部115は、学習済みモデルTMをストレージデバイス60Bから読み出すことで、学習済みモデルTMを取得していることになる。すなわち、第2RW制御部115は、本開示の技術に係る「第2取得部」の一例である。
 第2RW制御部115は、ストレージデバイス60Bから予測用関連データPRDFおよび予測用生産条件データPCDFを読み出し、これらを第2処理部117に出力する。第2RW制御部115は、予測用関連データPRDFをストレージデバイス60Bから読み出すことで、予測用関連データPRDFを取得していることになる。すなわち、第2RW制御部115は、本開示の技術に係る「第3取得部」の一例である。
 第2導出部116は、第2RW制御部115からの予測用物性データPDFおよびオートエンコーダAEを受け取る。第2導出部116は、予測用物性データPDFから予測用関連データPRDFを導出する。より詳しくは、第2導出部116は、学習装置10の第1導出部76と同じように、スペクトルデータSPDを分けた複数の区間INT1~INT20のそれぞれについて、強度の差分の平均値および総和を導出する。
 第2処理部117は、第2RW制御部115からの予測用生産条件データPCDF、予測用関連データPRDF、および学習済みモデルTMを受け取る。第2処理部117は、学習済みモデルTMに予測用生産条件データPCDFおよび予測用関連データPRDFを与えて品質を予測させる。すなわち、第2処理部117は、本開示の技術に係る「処理部」の一例である。第2処理部117は、学習済みモデルTMによる品質の予測結果である品質予測データQFDを表示制御部118に出力する。品質予測データQFDは、品質データQDと同じく、分子量分散度および分子量で構成される(図22等参照)。
 表示制御部118は、各種画面をディスプレイ64Bに表示する制御を行う。各種画面には、前述の予測用生産条件データPCDFの入力画面の他、品質予測データQFDを表示する品質予測表示画面120(図23参照)がある。すなわち、表示制御部118は、本開示の技術に係る「出力制御部」の一例である。
 図22は、IDがPR0500の、品質が未知の生産物PRの品質を、学習済みモデルTMで予測する様子を示している。第2処理部117において、予測用生産条件データPCDFおよび予測用関連データPRDFが学習済みモデルTMに与えられる。
 図23において、表示制御部118の制御の下でディスプレイ64Bに表示される品質予測表示画面120には、学習済みモデルTMから出力された品質予測データQFDが表示される。品質予測表示画面120は、OKボタン121を選択することで表示が消える。
 次に、上記構成による作用について、図24~図26のフローチャートを参照して説明する。まず、学習装置10において第1作動プログラム70が起動されると、図11で示したように、学習装置10のCPU62Aは、第1RW制御部75、第1導出部76、学習部77、および送信制御部78として機能される。学習部77は、図19で示したように、第1処理部85、評価部86、および更新部87として機能される。
 図24において、学習装置10では、物性分析装置14からの新たな物性データPD、本例においてはスペクトルSPの画像データSPIMDが受信されてストレージデバイス60Aに記憶された場合(ステップST1001でYES)、第1RW制御部75によりストレージデバイス60AからスペクトルSPの画像データSPIMDが読み出される(ステップST1002)。スペクトルSPの画像データSPIMDは、第1RW制御部75から第1導出部76に出力される。なお、ステップST1002は、本開示の技術に係る「第1取得ステップ」の一例である。
 図17で示したように、まず、第1導出部76により、オートエンコーダAEにスペクトルSPの画像データSPIMDが与えられる。そして、これによりオートエンコーダAEから出力された出力画像データOIMDと、オートエンコーダAEに与えたスペクトルSPの画像データSPIMDとの差分データDDが算出される。次いで、図18で示したように、第1導出部76により、差分データDDに基づいて、スペクトルデータSPDを分けた複数の区間INT1~INT20のそれぞれについて、強度の差分の平均値および総和が関連データPRDとして導出される(ステップST1003)。関連データPRDは、第1導出部76から第1RW制御部75に出力される(ステップST1004)。関連データPRDは、第1RW制御部75によりストレージデバイス60Aに記憶される。なお、ステップST1003は、本開示の技術に係る「導出ステップ」の一例である。
 また、図25に示すように、学習装置10では、第1RW制御部75により、生産物PRの生産工程において設定された生産条件データPCDおよび関連データPRDの組で構成される学習用入力データIDLがストレージデバイス60Aから読み出される(ステップST2001)。学習用入力データIDLは、第1RW制御部75から学習部77に出力される。
 学習部77では、図20で示したように、第1処理部85において、生産条件データPCDおよび関連データPRDで構成される学習用入力データIDLが機械学習モデルMに与えられ、機械学習モデルMから学習用出力データODLが出力される(ステップST2002)。そして、評価部86において、学習用出力データODLと品質データQDとが比較され、機械学習モデルMによる生産物PRの品質の予測の精度が評価される(ステップST2003)。
 評価部86による機械学習モデルMの予測の精度の評価結果が、機械学習モデルMの予測の精度が予め設定されたレベル未満であるという内容であった場合(ステップST2004でNO)、更新部87により機械学習モデルMが更新される(ステップST2005)。そして、更新後の機械学習モデルMを用いて、ステップST2001、ステップST2002、およびステップST2003の処理が繰り返される。これらのステップST2001~ステップST2003の各処理は、評価部86による機械学習モデルMの予測の精度の評価結果が、機械学習モデルMの予測の精度が予め設定されたレベルに達したという内容であった場合(ステップST2004でYES)に終了される。予測の精度が予め設定されたレベルに達した機械学習モデルMは、学習済みモデルTMとして学習部77から第1RW制御部75に出力される(ステップST2006)。学習済みモデルTMは、第1RW制御部75によりストレージデバイス60Aに記憶される。そして、学習済みモデルTMは、送信制御部78によって運用装置11に送信される。なお、これら一連のステップST2001~ステップST2006は、本開示の技術に係る「学習ステップ」の一例である。
 運用装置11において第2作動プログラム110が起動されると、図21で示したように、運用装置11のCPU62Bは、第2RW制御部115、第2導出部116、第2処理部117、および表示制御部118として機能される。
 運用装置11では、第2RW制御部115によりストレージデバイス60Bから予測用物性データPDFおよびオートエンコーダAEが読み出され、第2導出部116に出力される。そして、第2導出部116により、予測用物性データPDFのスペクトルデータSPDを分けた複数の区間INT1~INT20のそれぞれについて、強度の差分の平均値および総和が導出される。こうして第2導出部116において予測用関連データPRDFが導出される。予測用関連データPRDFは、第2RW制御部115によりストレージデバイス60Bに記憶される。
 図26に示すように、運用装置11では、第2RW制御部115によりストレージデバイス60Bから学習済みモデルTMが読み出される(ステップST500)。また、第2RW制御部115によりストレージデバイス60Bから生産物PRの生産工程において設定された予測用生産条件データPCDFおよび予測用関連データPRDFが読み出される(ステップST600)。学習済みモデルTM、予測用生産条件データPCDF、および予測用関連データPRDFは、第2RW制御部115から第2処理部117に出力される。
 図22で示したように、第2処理部117において、予測用生産条件データPCDFと予測用関連データPRDFが学習済みモデルTMに与えられ、学習済みモデルTMから品質予測データQFDが出力される(ステップST700)。品質予測データQFDは、第2処理部117から表示制御部118に出力される。
 表示制御部118により、図23で示した品質予測表示画面120がディスプレイ64Bに表示される(ステップST800)。この品質予測表示画面120によって、品質予測データQFDがオペレータの閲覧に供される。
 以上説明したように、学習装置10は、物性データPDを第1RW制御部75で取得し、第1導出部76において、物性データPDにオートエンコーダAEを適用して、関連データPRDを学習用入力データIDLとして導出する。そして、学習部77において、関連データPRDを含む学習用入力データIDLを機械学習モデルMに与えて学習させ、学習済みモデルTMを出力する。したがって、生産物PRの物性を的確に表した数値(ここでは強度の差分の平均値および総和)を、関連データPRDとして導出することができ、学習済みモデルTMによる生産物PRの品質の予測の精度をより向上させることができる。
 より具体的には図27の表125に示すように、生産条件データPCDと、オートエンコーダAEを用いて導出した関連データPRDとを学習用入力データIDLとして与えた実施例は、比較例1および比較例2よりも分子量分散度の決定係数および分子量の決定係数が高い、という結果が得られた。なお、比較例1は、生産条件データPCDのみを学習用入力データIDLとして与えた場合、比較例2は、生産条件データPCDと、強度の代表値で構成される関連データPRDを、学習用入力データIDLとして与えて学習させた場合である。このように、オートエンコーダAEを用いて導出した関連データPRDを学習用入力データIDLとして与えて学習させることで、学習済みモデルTMによる生産物PRの品質の予測の精度をより向上させることができることが確かめられた。
 なお、比較例2の関連データPRDは、例えば図28に示すように、各区間INT1~INT20のスペクトルデータSPD_INT1~SPD_INT20の強度の代表値である平均値、最大値、最小値、中央値、分散、歪度、および尖度で構成される。この場合は、スペクトルデータSPD自体が物性データPDとなる。
 学習用入力データIDLは、関連データPRDだけでなく生産条件データPCDも含んでいる。このため、生産条件データPCDの影響も考慮した品質予測データQFDを、機械学習モデルMから出力させることができる。
 物性データPDは、生産物PRを分光分析して検出されたスペクトルデータSPDで表されるスペクトルSPの画像データSPIMDを含む。そして、関連データPRDは、スペクトルデータSPDを分けた複数の区間INT1~INT20のそれぞれについて導出した強度の差分の平均値および総和である。スペクトルデータSPDの各波数の強度を全て関連データPRDとする場合と比べて、関連データPRDのデータ量を減らすことができる。
 運用装置11は、学習済みモデルTMおよび予測用関連データPRDFを第2RW制御部115で取得する。次いで、第2処理部117において、学習済みモデルTMに予測用関連データPRDFを与えて品質を予測させる。そして、表示制御部118の制御の下で、学習済みモデルTMによる品質の予測結果である品質予測データQFDを含む品質予測表示画面120をディスプレイ64Bに表示させる。したがって、オペレータは、生産物PRをわざわざ品質評価装置15にかけて実際に品質を評価させることなく、簡単に生産物PRの品質がどの程度であるかを把握することができる。
 ここで、品質評価装置15において生産物PRの品質を実際に評価する場合、生産物PRの前処理および品質の評価処理に、例えば1週間~2週間程度の比較的長い時間が掛かる。対して、学習済みモデルTMを用いれば、ごく短い時間で生産物PRの品質を予測することができる。しかも、図27で実施例として示したように学習済みモデルTMの予測の精度が比較的高いので、オペレータは品質予測データQFDを大いに参考にして今後の生産物PRの生産計画を立てることができる。
 [第2実施形態]
 図29~図31に示す第2実施形態では、生産物PRを撮影して得られる画像データIMDを物性データPDとする。
 図29において、第2実施形態の物性分析装置130は、例えばデジタル光学顕微鏡であり、生産物PRを撮影して画像データIMDを物性データPDとして出力する。なお、画像データIMDは、本開示の技術に係る「多次元物性データ」の一例である。
 図30および図31に示すように、第2実施形態の第1導出部135は、画像データIMDを等分した複数の領域AR1-1、AR1-2、・・・、AR10-10のそれぞれについて、関連データPRD_AR1-1、PRD_AR1-2、・・・、PRD_AR10-10を導出する。具体的には、第1導出部135は、関連データPRD_AR1-1~PRD_AR10-10として、各領域AR1-1~AR10-10の画像データIMD_AR1-1~IMD_AR10-10の画素値と、これらの画像データIMD_AR1-1~IMD_AR10-10をオートエンコーダAEに与えて出力された出力画像データOIMDの画素値との差分の平均値および総和を導出する。また、図示および詳細な説明は省略するが、運用装置の第2導出部においても、第1導出部135と同様に、品質が未知の生産物PRの画像データIMDの画素値の差分の平均値および総和が、予測用関連データPRDFとして導出される。なお、オートエンコーダAEは、画像データIMDの領域AR毎に用意される。
 このように、第2実施形態では、生産物PRを撮影して得られる画像データIMDを物性データPDとする。したがって、生産物PRの物性をより容易に捉えることができる。
 なお、画像データIMDは、上記第1実施形態のスペクトルSPの画像データSPIMDに代えて物性データPDとしてもよいし、スペクトルSPの画像データSPIMDに加えて物性データPDとしてもよい。また、物性分析装置130は、例示のデジタル光学顕微鏡に限らず、走査型電子顕微鏡(SEM;Scanning Electron Microscope)等でもよい。
 多次元物性データは、上記第1実施形態のスペクトルデータSPD、および上記第2実施形態の画像データIMDに限らない。ヒトの五感である視覚、聴覚、臭覚、触覚、味覚のいずれかに関係する多次元物性データを用いてもよい。例えば生産物PRの触覚データ、生産物PRの生産時の臭気データ、生産物PRの生産時の音声データ等が挙げられる。
触覚データの場合は、生産物PRの複数箇所の触感センサの出力を触覚データとし、複数箇所のそれぞれの触覚センサの出力の平均値等を関連データPRDとして導出する。音声データの場合は、生産開始から終了までをマイクで録音して音声データとし、該音声データを複数の区間に分け、複数の区間のそれぞれの周波数の平均値、振幅の平均値等を関連データPRDとして導出する。
 [第3実施形態]
 図32に示す第4実施形態では、オートエンコーダAEの一部であるエンコーダネットワーク140から出力された画像特徴マップCMPに基づいて関連データPRDを導出する。
 図32において、第4実施形態の第1導出部145は、物性データPDであるスペクトルSPの画像データSPIMDを、入力画像データIIMDとしてオートエンコーダAEに与える。そして、オートエンコーダAEのエンコーダネットワーク140から画像特徴マップCMPを出力させる。画像特徴マップCMPは、例えば、エンコーダネットワーク140の最下位階層から出力された最小の画像特徴マップCMPである。なお、第3実施形態のオートエンコーダAEは、上記第1実施形態のオートエンコーダAEと同じく、スペクトルデータSPDの複数の区間INT1~INT20毎に用意されている。ただし、第3実施形態のオートエンコーダAEは、上記第1実施形態のオートエンコーダAEとは異なり、品質のレベルに関係なく、種々の生産物PRのスペクトルSPの画像データSPIMDが学習用入力画像データIIMDLとして与えられて学習されたものである。
 第1導出部145は、画像特徴マップCMPに基づいて関連データPRDを導出する。すなわち、画像特徴マップCMPは、本開示の技術に係る「特徴データ」の一例である。
 図32では、画像特徴マップCMPが、チャンネル1(Ch1)の出力データDIc、チャンネル2(Ch2)の出力データDIc、チャンネル3(Ch3)の出力データDIc、チャンネル4(Ch4)の出力データDIcで構成されていた場合を例示している。そして、第1導出部145により、チャンネル1~チャンネル4の出力データDIcのそれぞれについて、画素値の平均値を関連データPRDとして導出する例を示している。なお、平均値に代えて、あるいは加えて、最大値、最小値、中央値、分散等を関連データPRDとして導出してもよい。また、図示および詳細な説明は省略するが、運用装置の第2導出部においても、第1導出部145と同様に、品質が未知の生産物PRのスペクトルSPの画像データSPIMDの各区間INT1~INT20の画像特徴マップCMPの出力データDIcの画素値の平均値が、予測用関連データPRDFとして導出される。
 図32では、オートエンコーダAE_INT1のみを図示している。オートエンコーダAE_INT1には、入力画像データIIMDとして、区間INT1のスペクトルSPの画像データSPIMD_INT1が与えられる。第1導出部145は、オートエンコーダAE_INT1のエンコーダネットワーク140の画像特徴マップCMPから、区間INT1の関連データPRD_INT1を導出する。なお、図示および説明は省略するが、他の区間INT2~INT20についても、オートエンコーダAE_INT2~AE_INT20のエンコーダネットワーク140の画像特徴マップCMPから、関連データPRD_INT2~PRD_INT20が導出される。
 このように、第3実施形態では、オートエンコーダAEのエンコーダネットワーク140から出力された画像特徴マップCMPに基づいて関連データPRDを導出する。したがって、上記第1実施形態と同様に、生産物PRの物性を的確に表した数値(ここでは出力データDIcの画素値の平均値)を、関連データPRDとして導出することができ、学習済みモデルTMの予測の精度をより向上させることができる。
 画像特徴マップCMPは、エンコーダネットワーク140の最下位階層以外の階層から出力されたものであってもよい。
 なお、画像特徴マップCMPに基づく関連データPRDは、上記第1実施形態の差分データDDに基づく関連データPRDに代えて用いてもよいし、加えて用いてもよい。
 第3実施形態においても、入力画像データIIMDは例示したスペクトルSPの画像データSPIMDに限らない。スペクトルSPの画像データSPIMDに代えて、あるいは加えて、上記第2実施形態の、生産物PRを撮影して得られる画像データIMDを入力画像データIIMDとしてもよい。
 [第4実施形態]
 図33~図45に示す第4実施形態では、関連データPRDの複数の項目の中から、機械学習モデルMによる生産物PRの品質の予測の精度の向上に寄与する程度が予め設定された条件を満たす高寄与項目を抽出し、高寄与項目の関連データPRDを選択的に機械学習モデルMに与えて学習させる。なお、以下では、上記第1実施形態と同じ構成については同じ符号を付して説明を省略する。
 図33において、第4実施形態の学習装置150のストレージデバイス60Aには、第1作動プログラム151が記憶されている。第1作動プログラム151は、上記第1実施形態の第1作動プログラム70と同じく、本開示の技術に係る「学習装置の作動プログラム」の一例である。
 第1作動プログラム151が起動されると、学習装置150を構成するコンピュータのCPU62Aは、メモリ61等と協働して、上記第1実施形態の第1RW制御部75、第1導出部76、学習部77、および送信制御部78に加えて、抽出部155として機能する。
 この場合、学習部77は、学習用入力データIDLを機械学習モデルMに与えて学習させ、仮の機械学習モデルPM(図35参照)を出力する。学習部77は、仮の機械学習モデルPMを第1RW制御部75に出力する。第1RW制御部75は、仮の機械学習モデルPMをストレージデバイス60Aに記憶する。以下、この学習部77が仮の機械学習モデルPMを出力する期間を、仮学習という。また、仮学習において用いられる機械学習モデルMを、第1機械学習モデルM1(図34参照)と表記する。
 第1RW制御部75は、仮の機械学習モデルPMをストレージデバイス60Aから読み出し、仮の機械学習モデルPMを抽出部155に出力する。抽出部155は、仮の機械学習モデルPMを用いて、関連データPRDの複数の項目の中から高寄与項目を抽出する。高寄与項目は、生産物PRの品質の予測の精度の向上に寄与する程度が予め設定された条件を満たす項目である。抽出部155は、高寄与項目の抽出結果である高寄与項目情報HCIIを学習部77に出力する。また、図示は省略したが、抽出部155は、高寄与項目情報HCIIを第1RW制御部75に出力し、第1RW制御部75は、高寄与項目情報HCIIをストレージデバイス60Aに記憶する。
 学習部77は、抽出部155からの高寄与項目情報HCIIを受け取る。学習部77は、高寄与項目情報HCIIに基づいて、高寄与項目の関連データPRDを選択的に機械学習モデルMに与えて学習させ、機械学習モデルMを学習済みモデルTMとして出力する。以下、この学習部77が学習済みモデルTMを出力する期間を、本学習という。また、本学習において用いられる機械学習モデルMを、第2機械学習モデルM2(図42参照)と表記する。
 送信制御部78は、学習済みモデルTMとともに高寄与項目情報HCIIを第1RW制御部75から受け取り、高寄与項目情報HCIIも運用装置175(図44参照)に送信する制御を行う。
 図34に示すように、仮学習では、第1処理部85は、生産条件データPCDおよび関連データPRDの複数の項目を、余すところなく学習用入力データIDLとして第1機械学習モデルM1に与える。そして、評価部86による第1機械学習モデルM1の予測の精度の評価、および更新部87による第1機械学習モデルM1の更新が行われる。こうした処理が学習用入力データIDLを変えつつ繰り返し続けられることで、第1機械学習モデルM1は予測の精度が予め設定されたレベルに達する。予測の精度が予め設定されたレベルに達した第1機械学習モデルM1は、仮の機械学習モデルPMとして、第1RW制御部75によりストレージデバイス60Aに記憶される。
 図35に示すように、抽出部155は、第3処理部160、第4処理部161、算出部162、および判定部163を有する。第3処理部160は、学習用入力データIDLを仮の機械学習モデルPMに与えて、仮の機械学習モデルPMから仮の出力データPODを出力させる。仮の出力データPODは、学習用出力データODLと同じく、分子量分散度および分子量で構成される(図36等参照)。第3処理部160は、仮の出力データPODを算出部162に出力する。
 第4処理部161は、第3処理部160で仮の機械学習モデルPMに与えたものと同じ生産条件データPCDと、抽出用物性関連データ(以下、抽出用関連データと略す)PRDEとを仮の機械学習モデルPMに与えて、仮の機械学習モデルPMから抽出用仮の出力データPODEを出力させる。抽出用仮の出力データPODEは、学習用出力データODLと同じく、分子量分散度および分子量で構成される(図37等参照)。第4処理部161は、抽出用仮の出力データPODEを算出部162に出力する。
 算出部162は、第3処理部160からの仮の出力データPODと第4処理部161からの抽出用仮の出力データPODEとを受け取る。算出部162は、仮の出力データPODおよび抽出用仮の出力データPODEに基づいて、関連データPRDの項目が第1機械学習モデルM1の品質の予測の精度の向上に寄与する程度である関連データPRDの項目の寄与度を算出する。算出部162は、寄与度の算出結果である寄与度情報CIを判定部163に出力する。
 判定部163は、算出部162からの寄与度情報CIを受け取る。判定部163は、寄与度情報CIと設定条件SCとに基づいて、関連データPRDの複数の項目の各々が高寄与項目であるか否かを判定する。判定部163は、判定結果として高寄与項目情報HCIIを学習部77に出力する。
 図36に示すように、第3処理部160においては、図34で示した第1処理部85の場合と同様に、関連データPRDの複数の項目が余すところなく仮の機械学習モデルPMに与えられる。対して図37に示すように、第4処理部161においては、関連データPRDの複数の項目のうちの1つの項目が除かれた抽出用関連データPRDEが仮の機械学習モデルPMに与えられる。なお、図37では、第1区間INT1の関連データPRD_INT1の強度の差分の平均値の項目が除かれた例を示している。
 図38および図39に示すように、算出部162は、まず、仮の出力データPODおよび抽出用仮の出力データPODEから、変化率を算出する。変化率は、以下の(式2)で求められる。
 変化率=|仮の出力データと抽出用仮の出力データとの差分|/仮の出力データ・・・(式2)
 変化率は、抽出用関連データPRDEにおいて除かれた項目の影響で、仮の機械学習モデルPMの出力データがどの程度変化するかを示す値である。
 次いで、算出部162は、変化率を寄与度に変換する変換表170を用いて、変化率を寄与度に変換する。変換表170には、変化率が0以上0.05未満の場合に寄与度0が、変化率が0.05以上0.1未満の場合に寄与度1が、・・・、変化率が0.45以上0.5未満の場合に寄与度9が、変化率が0.5以上の場合に寄与度10が、それぞれ登録されている。
 図39は、図36で示した仮の出力データPODの分子量分散度=1.5865、分子量=22000、図37で示した抽出用仮の出力データPODEの分子量分散度=1.6043、分子量=26000の場合を例示している。この場合、分子量分散度の変化率=|1.5865-1.6043|/1.5865≒0.01である。変換表170によれば、変化率が0.01の場合、寄与度は0であるため、分子量分散度の変化率を変換した寄与度は0と算出される。同様に、分子量の変化率=|22000-26000|/22000≒0.18であるので、分子量の変化率を変換した寄与度は3と算出される。こうして算出した寄与度は、抽出用関連データPRDEにおいて除かれた項目(図39においては関連データPRD_INT1の強度の差分の平均値の項目)の寄与度である。
 第4処理部161は、除く項目を1つずつ変更しながら、次々に抽出用関連データPRDEを仮の機械学習モデルPMに与えていく。本例においては、関連データPRDの項目数は40個あるため、第4処理部161は40個の抽出用関連データPRDEを仮の機械学習モデルPMに与える。また、算出部162は、各抽出用関連データPRDEについて寄与度を算出する。なお、変化率の値の信頼性を高めるため、1組の生産条件データPCDと関連データPRDだけでなく、異なる複数の組の生産条件データPCDと関連データPRDについて変化率を算出し、その平均値を寄与度に変換してもよい。
 図40に示すように、寄与度情報CIには、関連データPRDの複数の項目の各々の寄与度が登録されている。各項目の横の2つの数値が寄与度であり、左側は分子量分散度の変化率を変換した寄与度、右側は分子量の変化率を変換した寄与度である。例えば、第1区間INT1の総和の分子量分散度の変化率を変換した寄与度は4、分子量の変化率を変換した寄与度は6である。
 図41は、設定条件SCが、「分子量分散度の変化率を変換した寄与度および分子量の変化率を変換した寄与度がともに6以上」で、寄与度情報CIが図40に例示したものであった場合を示す。この場合、判定部163は、分子量分散度の変化率を変換した寄与度および分子量の変化率を変換した寄与度がともに6以上である、第2区間INT1の強度の差分の平均値および総和、・・・、第20区間INT20の強度の差分の平均値および総和のハッチングで示す各項目を、高寄与項目であると判定する。
 なお、このように、複数のデータ(本例においては関連データPRDの複数の項目)から本質部分(本例においては高寄与項目)を抽出する手法は、スパースモデリングと呼ばれる。こうしたスパースモデリングは、例えば、R言語上で動作可能なglmnetパッケージを用いて行うことができる。スパースモデリングの詳細アルゴリズムは、例えば、「Journal of statistical software, vol.33-1(2010) “Regularization Paths for Generalized Linear Models via Coordinate Descent”」に記載されている。
 図42に示すように、本学習では、第1処理部85において、高寄与項目の関連データPRDが選択的に第2機械学習モデルM2に与えられる。逆を言えば、高寄与項目以外の項目が選択的に除かれて、第2機械学習モデルM2に与えられる。そして、評価部86による第2機械学習モデルM2の予測の精度の評価、および更新部87による第2機械学習モデルM2の更新が行われる。こうした処理が学習用入力データIDLを変えつつ繰り返し続けられることで、第2機械学習モデルM2は予測の精度が予め設定されたレベルに達する。予測の精度が予め設定されたレベルに達した第2機械学習モデルM2は、学習済みモデルTMとして、第1RW制御部75によりストレージデバイス60Aに記憶される。なお、本学習で用いられる第2機械学習モデルM2は、仮学習で用いられる第1機械学習モデルM1と、種類、性能といった特性は同じである。
 以上をまとめると、図43に示すように、第4実施形態の学習装置150では、主として、仮学習(ステップST5000)、高寄与項目の抽出(ステップST6000)、および本学習(ステップST7000)が行われる。仮学習では、第1機械学習モデルM1が学習されて、仮の機械学習モデルPMとされる。高寄与項目の抽出では、仮の機械学習モデルPMが用いられる。本学習では、第2機械学習モデルM2が学習されて、学習済みモデルTMとされる。
 図44において、第4実施形態の運用装置175のストレージデバイス60Bには、第2作動プログラム176が記憶されている。また、ストレージデバイス60Bには、学習装置150からの高寄与項目情報HCIIが記憶される。
 運用装置175の第2RW制御部115は、高寄与項目情報HCIIをストレージデバイス60Bから読み出し、高寄与項目情報HCIIを第2導出部180に出力する。第2導出部180は、上記第1実施形態の運用装置11の第2導出部116と同じく、スペクトルデータSPDを分けた複数の区間INT1~INT20のそれぞれについて、強度の差分の平均値および総和を予測用関連データPRDFとして導出する。ただし、第2導出部180は、高寄与項目情報HCIIに基づいて、高寄与項目を選択的に導出し、高寄与項目以外の項目は導出しない。このため、予測用関連データPRDFは、図42の関連データPRDと同様に、高寄与項目以外の項目が選択的に除かれたものとなる(図45参照)。
 図45は、IDがPR1000の、品質が未知の生産物PRの品質を、学習済みモデルTMで予測する様子を示している。図42で示した場合と同じく、第2処理部117において、複数の項目のうちの高寄与項目の予測用関連データPRDFが選択的に学習済みモデルTMに与えられる。逆を言えば、高寄与項目以外の項目が選択的に除かれて、学習済みモデルTMに与えられる。
 このように、学習装置150は、学習部77において、学習用入力データIDLを第1機械学習モデルM1に与えて学習させ、仮の機械学習モデルPMを出力する。次いで、抽出部155により、仮の機械学習モデルPMを用いて、関連データPRDの複数の項目の中から高寄与項目を抽出する。そして、学習部77において、高寄与項目の関連データPRDを選択的に第2機械学習モデルM2に与えて学習させ、学習済みモデルTMとして出力する。したがって、高寄与項目以外の関連データPRDが与えられて学習した場合よりも、学習済みモデルTMによる生産物PRの品質の予測の精度を向上させることができる。また、予測の精度の向上に寄与度の低い項目に学習の労力が割かれることが防がれるため、学習の効率を高めることができる。
 学習用入力データIDLは、関連データPRDだけでなく生産条件データPCDも含んでいる。このため、生産条件データPCDの影響も考慮して高寄与項目を抽出することができ、高寄与項目の妥当性をより高めることができる。
 スペクトルデータSPDを分ける区間INTは、互いにオーバーラップしていてもよい。同様に、画像データIMDを分ける領域ARも、互いにオーバーラップしていてもよい。
 生産物PRは、フロー合成法を用いて生産されたものに限らない。例えばバッチ合成法を用いて生産されたものでもよい。
 なお、上記各実施形態では、フロー反応装置13の設定部25で受け付けられた生産条件を、生産条件データPCDとしているが、これに限らない。第1流速センサ35、第2流速センサ36、第3流速センサ37、温度センサ38、第1流速センサ51、第2流速センサ52、第3流速センサ53、および第4流速センサ54で検出した実測値を、生産条件データPCDとしてもよい。
 上記各実施形態では、品質予測データQFDの出力形態として、品質予測表示画面120を例示したが、これに限らない。品質予測表示画面120に代えて、あるいは加えて、品質予測データQFDを紙媒体に印刷出力する形態、品質予測データQFDをデータファイルとして出力する形態を採用してもよい。
 なお、機械学習モデルMとしては、線形回帰、ガウス過程回帰、サポートベクター回帰、決定木、アンサンブル法、バギング法、ブースティング法、勾配ブースティング法等を用いたものがある。また、単純パーセプトロン、多層パーセプトロン、ディープニューラルネットワーク、畳み込みニューラルネットワーク、ディープビリーフネットワーク、リカレントニューラルネットワーク、確率的ニューラルネットワーク等を用いたものがある。上記で例示したうちのいずれの機械学習モデルMを用いるかは特に制限はなく、任意の手法の機械学習モデルMを選択することができる。
 アンサンブル法としてはランダムフォレストが挙げられる。ランダムフォレストは、周知のように、ランダムサンプリングされた学習データとランダムに選択された説明変数を用いることにより、相関の低い決定木群を複数作成し、それらの予測結果を統合および平均させることで予測の精度の向上を図る。この場合の機械学習モデルMの制御パラメータとしては、選択する説明変数の数や決定木の分岐数がある。
 ディープニューラルネットワークは、比較的制御パラメータの数が多く柔軟な組み合わせも可能であるため、多様なデータ構成に対して高い予測性能を発揮することができる。制御パラメータとしては、ネットワークのレイヤー数やノード数、活性化関数の種類、ドロップアウトの割合、ミニバッチサイズ、エポック数、学習率等がある。
 こうした機械学習モデルMは、実行フレームワークが複数存在し、その中から適宜選択することができる。例えば、Tensorflow、CNTK(Cognitive Toolkit)、Theano、Caffe、mxnet、Keras、PyTorch、Chainer、Scikit-learn、Caret、MATLAB(登録商標)等から選択することができる。
 機械学習システム2を構成するコンピュータのハードウェア構成は種々の変形が可能である。例えば、学習装置10と運用装置11とを統合して、1台のコンピュータで構成してもよい。また、学習装置10および運用装置11のうちの少なくともいずれかを、処理能力および信頼性の向上を目的として、ハードウェアとして分離された複数台のコンピュータで構成することも可能である。例えば、学習装置10の第1導出部76の機能と、学習部77の機能とを、2台のコンピュータに分散して担わせる。この場合は2台のコンピュータで学習装置10を構成する。
 このように、機械学習システム2のコンピュータのハードウェア構成は、処理能力、安全性、信頼性等の要求される性能に応じて適宜変更することができる。さらに、ハードウェアに限らず、第1作動プログラム70、151、第2作動プログラム110、176等のアプリケーションプログラムについても、安全性および信頼性の確保を目的として、二重化したり、あるいは、複数のストレージデバイスに分散して格納することももちろん可能である。
 上記各実施形態において、例えば、第1RW制御部75、第1導出部76、135、145、学習部77(第1処理部85、評価部86、更新部87)、送信制御部78、第2RW制御部115、第2導出部116、180、第2処理部117、表示制御部118、抽出部155(第3処理部160、第4処理部161、算出部162、判定部163)といった各種の処理を実行する処理部(Processing Unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(Processor)を用いることができる。各種のプロセッサには、上述したように、ソフトウェア(第1作動プログラム70、151、第2作動プログラム110、176)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU62A、62Bに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
 1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、および/または、CPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
 複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントおよびサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
 さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(circuitry)を用いることができる。
 以上の記載から、以下の付記項1、2に記載の発明を把握することができる。
 [付記項1]
 生産物の物性を表す多次元物性データを取得する第1取得プロセッサと、
 前記生産物の品質を予測する機械学習モデルに与える学習用入力データを、前記多次元物性データから導出する導出プロセッサであり、前記多次元物性データにオートエンコーダの少なくとも一部を適用して、前記多次元物性データに関連する多次元物性関連データを前記学習用入力データとして導出する導出プロセッサと、
 前記多次元物性関連データを含む前記学習用入力データを機械学習モデルに与えて学習させ、前記機械学習モデルを実際の運用に供する学習済みモデルとして出力する学習プロセッサと、
を備える学習装置。
 [付記項2]
 付記項1に記載の学習装置の前記学習プロセッサから出力された前記学習済みモデルを取得する第2取得プロセッサと、
 品質が未知の生産物の予測用多次元物性関連データを取得する第3取得プロセッサと、
 前記第2取得プロセッサにおいて取得した前記学習済みモデルに、前記第3取得プロセッサにおいて取得した、前記品質が未知の生産物の前記予測用多次元物性関連データを与えて前記品質を予測させる処理プロセッサと、
 前記学習済みモデルによる前記品質の予測結果を出力する制御を行う出力制御プロセッサと、
を備える運用装置。
 本開示の技術は、上述の種々の実施形態と種々の変形例を適宜組み合わせることも可能である。また、上記各実施形態に限らず、要旨を逸脱しない限り種々の構成を採用し得ることはもちろんである。さらに、本開示の技術は、プログラムに加えて、プログラムを非一時的に記憶する記憶媒体にもおよぶ。
 以上に示した記載内容および図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、および効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、および効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容および図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことはいうまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容および図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。
 本明細書において、「Aおよび/またはB」は、「AおよびBのうちの少なくとも1つ」と同義である。つまり、「Aおよび/またはB」は、Aだけであってもよいし、Bだけであってもよいし、AおよびBの組み合わせであってもよい、という意味である。また、本明細書において、3つ以上の事柄を「および/または」で結び付けて表現する場合も、「Aおよび/またはB」と同様の考え方が適用される。
 本明細書に記載された全ての文献、特許出願および技術規格は、個々の文献、特許出願および技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
2 機械学習システム
10、150 学習装置
11、175 運用装置
12 ネットワーク
13 フロー反応装置
14、130 物性分析装置
15 品質評価装置
20 第1原料供給部
21 第2原料供給部
22、45 反応セクション
23 温度調節部
24 回収廃棄セクション
25 設定部
26 システムコントローラ
30、46 合流部
31 反応部
32~34 第1管部~第3管部
35~37 第1流速センサ~第3流速センサ
38 温度センサ
40 回収部
41 廃棄部
42 三方弁
47~50 第1管部~第4管部
51~54 第1流速センサ~第4流速センサ
60、60A、60B ストレージデバイス
61 メモリ
62、62A、62B CPU
63 通信部
64、64B ディスプレイ
65、65B 入力デバイス
66 バスライン
70、151 第1作動プログラム(学習装置の作動プログラム)
75 第1リードライト制御部(第1RW制御部、第1取得部)
76、135、145 第1導出部(導出部)
77 学習部
78 送信制御部
80、140 エンコーダネットワーク
81 デコーダネットワーク
85 第1処理部
86 評価部
87 更新部
110、176 第2作動プログラム
115 第2リードライト制御部(第2RW制御部、第2取得部、第3取得部)
116、180 第2導出部
117 第2処理部(処理部)
118 表示制御部(出力制御部)
120 品質予測表示画面
121 OKボタン
125 表
155 抽出部
160 第3処理部
161 第4処理部
162 算出部
163 判定部
170 変換表
AE オートエンコーダ
AR 領域
CI 寄与度情報
CMP 画像特徴マップ(特徴データ)
DD 差分データ
DI オートエンコーダの入力データ
DIc オートエンコーダの出力データ
F フィルタ
HCII 高寄与項目情報
Icp 出力データの画素
IDL 学習用入力データ
IIMD 入力画像データ
IIMDL 学習用入力画像データ
IMD 画像データ
INT 区間
Ip 注目画素
Is 隣接する画素
L 反応路長
M 機械学習モデル
M1、M2 第1機械学習モデル、第2機械学習モデル
ODL 学習用出力データ
OIMD 出力画像データ
OIMDL 学習用出力画像データ
PCD 生産条件データ
PCDF 予測用生産条件データ
PD 物性データ
PDF 予測用物性データ
PM 仮の機械学習モデル
POD 仮の出力データ
PODE 抽出用仮の出力データ
PR 生産物
PRD 物性関連データ(関連データ)
PRDE 抽出用物性関連データ(抽出用関連データ)
PRDF 予測用物性関連データ(予測用関連データ)
QD 品質データ
QFD 品質予測データ
RM 原料
RM1、RM2 第1原料、第2原料
SC 設定条件
SP スペクトル
SPD スペクトルデータ
SPIMD スペクトルの画像データ
ST500、ST600、ST700、ST800、ST1001、ST1004、ST5000、ST6000、ST7000 ステップ
ST1002 ステップ(第1取得ステップ)
ST1003 ステップ(導出ステップ)
ST2001~ST2006 ステップ(学習ステップ)
TM 学習済みモデル
Φ 反応路径

Claims (11)

  1.  生産物の物性を表す多次元物性データを取得する第1取得部と、
     前記生産物の品質を予測する機械学習モデルに与える学習用入力データを、前記多次元物性データから導出する導出部であり、前記多次元物性データにオートエンコーダの少なくとも一部を適用して、前記多次元物性データに関連する多次元物性関連データを前記学習用入力データとして導出する導出部と、
     前記多次元物性関連データを含む前記学習用入力データを機械学習モデルに与えて学習させ、前記機械学習モデルを実際の運用に供する学習済みモデルとして出力する学習部と、
    を備える学習装置。
  2.  前記学習用入力データは、前記生産物の生産工程において設定された生産条件データも含む請求項1に記載の学習装置。
  3.  前記オートエンコーダは、前記品質が予め設定されたレベルよりも良好な前記生産物の前記多次元物性データを与えられて学習されたものであり、
     前記導出部は、前記オートエンコーダに前記多次元物性データを与えて出力データを出力させ、前記オートエンコーダに与えた前記多次元物性データと前記出力データとの差分データに基づいて前記多次元物性関連データを導出する請求項1または請求項2に記載の学習装置。
  4.  前記導出部は、前記オートエンコーダに前記多次元物性データを与えて、前記オートエンコーダのエンコーダネットワークから特徴データを出力させ、前記特徴データに基づいて前記多次元物性関連データを導出する請求項1から請求項3のいずれか1項に記載の学習装置。
  5.  前記多次元物性データは、前記生産物を分光分析して検出されたスペクトルデータで表されるスペクトルの画像データを含む請求項1から請求項4のいずれか1項に記載の学習装置。
  6.  前記導出部は、前記スペクトルデータを分けた複数の区間のそれぞれについて前記多次元物性関連データを導出する請求項5に記載の学習装置。
  7.  前記多次元物性データは、前記生産物を撮影して得られる画像データを含む請求項1から請求項6のいずれか1項に記載の学習装置。
  8.  前記生産物は、フロー合成法を用いて生産されたものである請求項1から請求項7のいずれか1項に記載の学習装置。
  9.  請求項1から請求項8のいずれか1項に記載の学習装置の前記学習部から出力された前記学習済みモデルを取得する第2取得部と、
     品質が未知の生産物の予測用多次元物性関連データを取得する第3取得部と、
     前記第2取得部において取得した前記学習済みモデルに、前記第3取得部において取得した、前記品質が未知の生産物の前記予測用多次元物性関連データを与えて前記品質を予測させる処理部と、
     前記学習済みモデルによる前記品質の予測結果を出力する制御を行う出力制御部と、を備える運用装置。
  10.  生産物の物性を表す多次元物性データを取得する第1取得ステップと、
     前記生産物の品質を予測する機械学習モデルに与える学習用入力データを、前記多次元物性データから導出する導出ステップであり、前記多次元物性データにオートエンコーダの少なくとも一部を適用して、前記多次元物性データに関連する多次元物性関連データを前記学習用入力データとして導出する導出ステップと、
     前記多次元物性関連データを含む前記学習用入力データを機械学習モデルに与えて学習させ、前記機械学習モデルを実際の運用に供する学習済みモデルとして出力する学習ステップと、
    を備える学習装置の作動方法。
  11.  生産物の物性を表す多次元物性データを取得する第1取得部と、
     前記生産物の品質を予測する機械学習モデルに与える学習用入力データを、前記多次元物性データから導出する導出部であり、前記多次元物性データにオートエンコーダの少なくとも一部を適用して、前記多次元物性データに関連する多次元物性関連データを前記学習用入力データとして導出する導出部と、
     前記多次元物性関連データを含む前記学習用入力データを機械学習モデルに与えて学習させ、前記機械学習モデルを実際の運用に供する学習済みモデルとして出力する学習部として、コンピュータを機能させる学習装置の作動プログラム。
PCT/JP2020/019936 2019-07-03 2020-05-20 学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置 WO2021002110A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021529911A JP7321263B2 (ja) 2019-07-03 2020-05-20 学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置
EP20834753.4A EP3995997A4 (en) 2019-07-03 2020-05-20 LEARNING DEVICE, METHOD FOR OPERATING LEARNING DEVICE, OPERATING PROGRAM FOR LEARNING DEVICE, AND OPERATING DEVICE
CN202080045879.5A CN114072811A (zh) 2019-07-03 2020-05-20 学习装置、学习装置的动作方法、学习装置的动作程序及运用装置
US17/541,725 US20220091589A1 (en) 2019-07-03 2021-12-03 Learning apparatus, operation method of learning apparatus, operation program of learning apparatus, and operating apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-124420 2019-07-03
JP2019124420 2019-07-03

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/541,725 Continuation US20220091589A1 (en) 2019-07-03 2021-12-03 Learning apparatus, operation method of learning apparatus, operation program of learning apparatus, and operating apparatus

Publications (1)

Publication Number Publication Date
WO2021002110A1 true WO2021002110A1 (ja) 2021-01-07

Family

ID=74100678

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/019936 WO2021002110A1 (ja) 2019-07-03 2020-05-20 学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置

Country Status (5)

Country Link
US (1) US20220091589A1 (ja)
EP (1) EP3995997A4 (ja)
JP (1) JP7321263B2 (ja)
CN (1) CN114072811A (ja)
WO (1) WO2021002110A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4246251A1 (en) * 2022-03-18 2023-09-20 Rockwell Automation Technologies, Inc. Machine learning optimization of control code in an industrial automation environments

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06304724A (ja) * 1993-04-20 1994-11-01 Nippon Steel Corp 品質制御装置および制御方法
JP2016091359A (ja) * 2014-11-06 2016-05-23 株式会社リコー 情報処理システム、情報処理装置、情報処理方法、及びプログラム
JP2018005773A (ja) * 2016-07-07 2018-01-11 株式会社リコー 異常判定装置及び異常判定方法
JP2018018354A (ja) 2016-07-28 2018-02-01 高砂香料工業株式会社 ディープラーニングを用いた飲食品の品質予測方法及び飲食品
JP2018116054A (ja) * 2017-01-19 2018-07-26 国立大学法人 香川大学 触覚センサ、触覚測定装置、学習済みモデル、および識別装置
WO2019073666A1 (ja) * 2017-10-11 2019-04-18 株式会社ニコン 判定装置、判定方法、および判定プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06304724A (ja) * 1993-04-20 1994-11-01 Nippon Steel Corp 品質制御装置および制御方法
JP2016091359A (ja) * 2014-11-06 2016-05-23 株式会社リコー 情報処理システム、情報処理装置、情報処理方法、及びプログラム
JP2018005773A (ja) * 2016-07-07 2018-01-11 株式会社リコー 異常判定装置及び異常判定方法
JP2018018354A (ja) 2016-07-28 2018-02-01 高砂香料工業株式会社 ディープラーニングを用いた飲食品の品質予測方法及び飲食品
JP2018116054A (ja) * 2017-01-19 2018-07-26 国立大学法人 香川大学 触覚センサ、触覚測定装置、学習済みモデル、および識別装置
WO2019073666A1 (ja) * 2017-10-11 2019-04-18 株式会社ニコン 判定装置、判定方法、および判定プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Regularization Paths for Generalized Linear Models via Coordinate Descent", JOURNAL OF STATISTICAL SOFTWARE, vol. 33-1, 2010
See also references of EP3995997A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4246251A1 (en) * 2022-03-18 2023-09-20 Rockwell Automation Technologies, Inc. Machine learning optimization of control code in an industrial automation environments

Also Published As

Publication number Publication date
JP7321263B2 (ja) 2023-08-04
EP3995997A1 (en) 2022-05-11
CN114072811A (zh) 2022-02-18
JPWO2021002110A1 (ja) 2021-01-07
EP3995997A4 (en) 2022-11-16
US20220091589A1 (en) 2022-03-24

Similar Documents

Publication Publication Date Title
WO2021002111A1 (ja) 学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置
Devos et al. Simultaneous data pre-processing and SVM classification model selection based on a parallel genetic algorithm applied to spectroscopic data of olive oils
Vitale et al. A rapid and non-invasive method for authenticating the origin of pistachio samples by NIR spectroscopy and chemometrics
CN103528990B (zh) 一种近红外光谱的多模型建模方法
Borba et al. Portable near infrared spectroscopy as a tool for fresh tomato quality control analysis in the field
Koljonen et al. A review of genetic algorithms in near infrared spectroscopy and chemometrics: past and future
Zhu et al. Penalized discriminant analysis for the detection of wild-grown and cultivated Ganoderma lucidum using Fourier transform infrared spectroscopy
WO2021002110A1 (ja) 学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置
He et al. Feature space monitoring for smart manufacturing via statistics pattern analysis
TWI790296B (zh) 頻譜分析裝置及頻譜分析方法
Khanmohammadi et al. A novel technique based on diffuse reflectance near-infrared spectrometry and back-propagation artificial neural network for estimation of particle size in TiO2 nano particle samples
Akulich et al. Explainable predictive modeling for limited spectral data
Yan et al. Handheld near-infrared spectroscopy: State-of-the-art instrumentation and applications in material identification, food authentication, and environmental investigations
Vigni et al. Near infrared spectroscopy and multivariate analysis to evaluate wheat flour doughs leavening and bread properties
Khadem et al. Signal fragmentation based feature vector generation in a model agnostic framework with application to glucose quantification using absorption spectroscopy
Kazemzadeh et al. Deep learning as an improved method of preprocessing biomedical Raman spectroscopy data
Yu et al. Is this pear sweeter than this apple? A universal SSC model for fruits with similar physicochemical properties
Reis et al. Prediction of profiles in the process industries
Soh et al. A sparse fused group lasso regression model for fourier-transform infrared spectroscopic data with application to purity prediction in olive oil blends
Verdú et al. Laser scattering imaging combined with CNNs to model the textural variability in a vegetable food tissue
Tavassoli et al. Template-oriented genetic algorithm feature selection of analyte wavelets in the Raman spectrum of a complex mixture
Mokari et al. Exploring the steps of infrared (IR) spectral analysis: Pre-processing,(classical) data modelling, and deep learning
Yu et al. When Process Analysis Technology Meets Transfer Learning: A Model Transfer Strategy Between Different Spectrometers for Quantitative Analysis
Lu et al. Determination of nitrogen in rapeseed by Fourier transform infrared photoacoustic spectroscopy and independent component analysis
Mota et al. Multivariate near infrared spectroscopy models to monitor polycondensation production process reactions

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20834753

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021529911

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020834753

Country of ref document: EP

Effective date: 20220203