WO2021002111A1 - 学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置 - Google Patents

学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置 Download PDF

Info

Publication number
WO2021002111A1
WO2021002111A1 PCT/JP2020/020026 JP2020020026W WO2021002111A1 WO 2021002111 A1 WO2021002111 A1 WO 2021002111A1 JP 2020020026 W JP2020020026 W JP 2020020026W WO 2021002111 A1 WO2021002111 A1 WO 2021002111A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
learning
physical property
unit
machine learning
Prior art date
Application number
PCT/JP2020/020026
Other languages
English (en)
French (fr)
Inventor
昌孝 長谷川
直貴 中村
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2021529912A priority Critical patent/JP7321264B2/ja
Priority to EP20834262.6A priority patent/EP3995996A4/en
Priority to CN202080045534.XA priority patent/CN114008631A/zh
Publication of WO2021002111A1 publication Critical patent/WO2021002111A1/ja
Priority to US17/542,869 priority patent/US20220092435A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/2823Imaging spectrometer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16CCOMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
    • G16C20/00Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
    • G16C20/70Machine learning, data mining or chemometrics
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16CCOMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
    • G16C60/00Computational materials science, i.e. ICT specially adapted for investigating the physical or chemical properties of materials or phenomena associated with their design, synthesis, processing, characterisation or utilisation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J2003/283Investigating the spectrum computer-interfaced
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Definitions

  • the technology of the present disclosure relates to a learning device, a learning device operating method, a learning device operating program, and an operating device.
  • Patent Document 1 proposes a machine learning model that learns physical property-related data derived from physical property data representing the physical properties of a product as input data for learning in order to improve the accuracy of prediction.
  • Patent Document 1 exemplifies foods and drinks such as coffee beans as products. Further, in Patent Document 1, as physical property data, near infrared (NIR; Near Infrared) spectroscopic analysis data, Fourier transform infrared (FT-IR; Fourier Transform Infrared) spectroscopic analysis data, and nuclear magnetic resonance (NMR; Nuclear Magnetic Resonance) ) Spectral data such as spectroscopic analysis data, or image data obtained by photographing a product with a camera or the like is exemplified. Then, as the physical property-related data, numerical values obtained from the spectrum data, for example, the slope, periodicity, amplitude, peak height, peak width, etc. of the waveform of the spectrum are listed. Further, as the physical property-related data, the image data itself obtained by photographing the product with a camera or the like is mentioned.
  • NIR near infrared
  • FT-IR Fourier transform infrared
  • NMR Nuclear Magnetic Resonance
  • Some physical property data such as the weight of the product, represent one type of physical property of the product with one parameter, while others, such as the above spectral data and image data, represent one type of product.
  • Such physical property data can be said to be multidimensional physical property data when the parameters are regarded as dimensions.
  • physical property data representing one type of physical property of a product with one parameter can be said to be one-dimensional physical property data.
  • multidimensional physical property data physical property data representing one type of product property with a plurality of parameters
  • the physical property-related data derived from the multidimensional physical property data is referred to as multidimensional physical property-related data.
  • Multidimensional physical property related data is composed of many numerical values and image data, so there are relatively many items. Many of these items of multidimensional physical property-related data contribute significantly to improving the prediction accuracy of machine learning models, while others make little contribution. Therefore, when the multidimensional physical property-related data is given to the machine learning model as it is for learning, the learning result is not so improved, and the prediction accuracy of the machine learning model may reach a plateau at a relatively low level.
  • the technique of the present disclosure is used to predict the quality of a product by a machine learning model when the multidimensional property-related data derived from the multidimensional property data of the product is given to a machine learning model as learning input data for learning. It is an object of the present invention to provide a learning device capable of further improving accuracy, a method of operating the learning device, an operation program of the learning device, and an operation device.
  • the learning device of the present disclosure is input data for learning given to a machine learning model for predicting the quality of a product, and is derived from multidimensional physical property data representing the physical properties of the product.
  • a first acquisition unit that acquires learning input data including multidimensional physical property-related data having the above items, and a temporary learning unit that gives learning input data to a machine learning model for learning and outputs a temporary machine learning model.
  • An extraction unit that uses a temporary machine learning model to extract high-contribution items that satisfy preset conditions to the extent that they contribute to improving the accuracy of quality prediction from multiple items of multidimensional physical property-related data. It also includes a main learning unit that selectively gives multidimensional property-related data of high-contribution items to a machine learning model for training and outputs the machine learning model as a trained model to be used for actual operation.
  • the input data for learning also includes the production condition data set in the production process of the product.
  • the multidimensional physical property data preferably includes spectral data detected by spectroscopic analysis of the product.
  • the multidimensional physical property-related data is a representative value of the intensity derived for each of a plurality of sections in which the spectral data is divided.
  • the multidimensional physical property data preferably includes image data obtained by photographing the product.
  • the product is preferably produced by using the flow synthesis method.
  • the autoencoder is learned by being given multidimensional physical property data of a product whose quality is better than a preset level, and the derivation unit gives the autoencoder the multidimensional physical property data and outputs the output data. It is preferable to output and derive the multidimensional physical property related data based on the difference data between the multidimensional physical property data and the output data given to the autoencoder.
  • the derivation unit gives multidimensional physical property data to the autoencoder, outputs the feature data from the encoder network of the autoencoder, and derives the multidimensional physical property related data based on the feature data.
  • the multidimensional physical property data preferably includes image data of a spectrum represented by spectral data detected by spectroscopic analysis of the product.
  • the derivation unit derives multidimensional physical property-related data for each of a plurality of sections in which the spectrum data is divided.
  • the operation device of the present disclosure includes a second acquisition unit that acquires a trained model output from the main learning unit of the learning device, and a third acquisition unit that acquires multidimensional physical property-related data for prediction of a product of unknown quality. Then, the trained model acquired in the second acquisition unit is given the multidimensional physical property-related data for prediction of the product whose quality is unknown, which is acquired in the third acquisition unit, to predict the quality, and the trained model. It is provided with an output control unit that controls to output the quality prediction result by.
  • the operation method of the learning device of the present disclosure is input data for learning given to a machine learning model for predicting the quality of a product, and has a plurality of items derived from multidimensional physical property data representing the physical properties of the product.
  • An extraction step that uses a model to extract high-contribution items that satisfy preset conditions to the extent that they contribute to improving the accuracy of quality prediction from multiple items of multidimensional physical property-related data, and high-contribution items. It is provided with this learning step in which the multidimensional physical property-related data of the above is selectively given to the machine learning model to be trained, and the machine learning model is output as a trained model to be used for actual operation.
  • the operation program of the learning device of the present disclosure is input data for learning given to a machine learning model for predicting the quality of a product, and has a plurality of items derived from multidimensional physical property data representing the physical properties of the product.
  • a first acquisition unit that acquires learning input data including dimensional physical property-related data, a temporary learning unit that gives learning input data to a machine learning model for learning, and outputs a temporary machine learning model, and a temporary machine learning Using a model, an extraction unit that extracts high-contribution items that satisfy preset conditions to the extent that they contribute to improving the accuracy of quality prediction from multiple items of multidimensional physical property-related data, and high-contribution items
  • the computer functions as the main learning unit that selectively gives the machine learning model the multidimensional physical property-related data of the above to train it and outputs the machine learning model as a trained model to be used for actual operation.
  • the quality of the product by the machine learning model is determined. It is possible to provide a learning device capable of further improving the accuracy of prediction, a method of operating the learning device, an operation program of the learning device, and an operation device.
  • the machine learning system 2 includes a learning device 10 and an operating device 11.
  • the learning device 10 and the operating device 11 are, for example, desktop personal computers.
  • the learning device 10 and the operating device 11 are connected to each other so as to be able to communicate with each other via the network 12.
  • the network 12 is, for example, a LAN (Local Area Network) or a WAN (Wide Area Network) such as the Internet or a public communication network.
  • the flow reaction device 13, the physical characteristic analyzer 14, and the quality evaluation device 15 are also connected to the network 12.
  • the flow reactor 13 produces the product PR from the raw material RM according to the production condition data PCD in the production process by the flow synthesis method.
  • the physical property analyzer 14 analyzes the physical characteristics of the product PR and outputs the physical characteristic data PD which is the analysis result.
  • the quality evaluation device 15 evaluates the quality of the product PR and outputs the quality data QD which is the evaluation result.
  • the production condition data PCD is transmitted from the flow reaction device 13, the physical property data PD is transmitted from the physical property analysis device 14, and the quality data QD is transmitted from the quality evaluation device 15 to the learning device 10.
  • the learning device 10 acquires the production condition data PCD from the flow reaction device 13, the physical property data PD from the physical property analyzer 14, and the quality data QD from the quality evaluation device 15.
  • the learning device 10 derives the physical property-related data (hereinafter, abbreviated as related data) PRD from the physical property data PD.
  • the learning input data IDL is composed of the related data PRD and the production condition data PCD.
  • the production condition data PCD, the physical property data PD, the related data PRD derived from the physical property data PD, and the quality data QD have a common ID (Identification Data) assigned to one product PR. ) Is associated.
  • the learning device 10 has a machine learning model M.
  • the machine learning model M is a model for predicting the quality of the product PR.
  • the learning device 10 gives the machine learning model M a learning input data IDL composed of a production condition data PCD and a related data PRD with the same ID (FIG. 6). See 15 mag).
  • the machine learning model M outputs the learning output data ODL corresponding to the learning input data IDL.
  • the quality data QD is the data for matching the answer with the learning output data ODL.
  • the higher the prediction accuracy of the machine learning model M the smaller the difference between the quality data QD and the learning output data ODL. Therefore, the learning device 10 compares the learning output data ODL with the quality data QD having the same ID as the learning input data IDL, and evaluates the prediction accuracy of the machine learning model M. Then, the machine learning model M is updated according to the evaluation result.
  • the learning device 10 inputs the learning input data IDL to the machine learning model M, outputs the learning output data ODL from the machine learning model M, evaluates the prediction accuracy of the machine learning model M, and uses the machine learning model M.
  • the update is performed while changing the learning input data IDL and the quality data QD.
  • the learning device 10 transmits the machine learning model M whose prediction accuracy has reached a preset level to the operation device 11 as a learned model TM to be used for actual operation.
  • the operation device 11 receives the learned model TM from the learning device 10.
  • the operation device 11 includes a prediction production condition data PCDF which is production condition data of a product PR whose quality is unknown, and a prediction physical property related data (hereinafter, prediction related data) which is related data of a product PR whose quality is unknown. (Abbreviated as) Give PRDF to the trained model TM.
  • the prediction-related data PRDF is data derived from the prediction-related physical property data PDF (see FIG. 24), which is the physical property data PD of the product PR whose quality is unknown, like the related data PRD.
  • the trained model TM outputs the quality prediction data QFD corresponding to the production condition data PCDF for prediction and the related data PRDF for prediction.
  • the flow reaction performed in the flow reaction apparatus 13 is a synthetic reaction for synthesizing monomers, a polymerization reaction for producing a polymer by reacting monomers with each other, and the like. Therefore, the product PR may be, for example, a compound at a growth stage that is the target of a polymerization reaction.
  • the flow reaction apparatus 13 carries out an anionic polymerization reaction of polystyrene, which is a product PR, by a flow reaction.
  • the flow reactor 13 includes a first raw material supply unit 20, a second raw material supply unit 21, a reaction section 22, a temperature control unit 23, a recovery / disposal section 24, a setting unit 25, a system controller 26, and the like. ..
  • the first raw material supply unit 20 is connected to the upstream end of the reaction section 22 by a pipe (not shown).
  • the first raw material supply unit 20 supplies the first raw material RM1 to the reaction section 22.
  • the first raw material supply unit 20 has a pump for sending the first raw material RM1 to the reaction section 22. By controlling the rotation speed of this pump, the flow rate of the first raw material RM1 sent from the first raw material supply unit 20 to the reaction section 22 is adjusted.
  • the first raw material RM1 is a solution in which lithium polystyryl is dissolved in a solvent.
  • Polystyryllithium functions as an initiator for the anionic polymerization reaction of polystyrene, which is the product PR. Tetrahydrofuran is used as the solvent.
  • a small amount of toluene and hexane are mixed in the solution.
  • the raw material for the flow reaction may be a mixture of a reactant such as polystyryllithium and another substance, such as the first raw material RM1, or may be composed of only the reactant.
  • the second raw material supply section 21 is connected to the upstream end of the reaction section 22 by a pipe (not shown).
  • the second raw material supply unit 21 supplies the second raw material RM2 to the reaction section 22.
  • the second raw material supply unit 21 also has a pump for sending the second raw material RM2 to the reaction section 22, like the first raw material supply unit 20. By controlling the rotation speed of this pump, the flow rate of the second raw material RM2 sent from the second raw material supply unit 21 to the reaction section 22 is adjusted.
  • the second raw material RM2 is an aqueous methanol solution. Methanol is used as a terminator for anionic polymerization reactions.
  • the reaction section 22 is a section for performing a flow reaction (anionic polymerization reaction in this example).
  • the reaction section 22 has a merging part 30 and a reaction part 31.
  • the merging portion 30 is composed of a first pipe portion 32, a second pipe portion 33, and a third pipe portion 34.
  • the first pipe portion 32 and the second pipe portion 33 are linearly connected, and the third pipe portion 34 intersects the first pipe portion 32 and the second pipe portion 33 at right angles. That is, the merging portion 30 has a T-shape.
  • the first pipe section 32 is connected to the first raw material supply section 20, and the second pipe section 33 is connected to the second raw material supply section 21. Further, the third pipe portion 34 is connected to the reaction portion 31.
  • the first raw material supply section 20 supplies the first raw material RM1 to the first pipe section 32
  • the second raw material supply section 21 supplies the second raw material RM2 to the second pipe section 33. Then, the first raw material RM1 and the second raw material RM2 are merged in the third pipe section 34 and sent out to the reaction section 31 in a mixed state.
  • the first pipe portion 32 is provided with a first flow velocity sensor 35 that detects the flow velocity of the first raw material RM1 passing through the first pipe portion 32.
  • the second pipe portion 33 is provided with a second flow velocity sensor 36 that detects the flow velocity of the second raw material RM2 passing through the second pipe portion 33.
  • the third pipe portion 34 is provided with a third flow velocity sensor 37 that detects the flow velocity of the mixture of the first raw material RM1 and the second raw material RM2 passing through the third pipe portion 34.
  • the reaction unit 31 is an elongated tube in which a plurality of straight tubes having the same inner diameter are connected in a straight line.
  • the length L of the reaction unit 31 can be changed by changing the number of straight pipes to be connected and / or the length of the straight pipes. Further, the reaction unit 31 can change the inner diameter ⁇ by changing the inner diameter of the straight pipe to be connected.
  • the inside of the reaction unit 31 is a flow path through which a mixture of the first raw material RM1 and the second raw material RM2 flows, and is a place where a flow reaction is performed.
  • the flow reaction is promoted to obtain a polystyrene solution.
  • the flow reaction also proceeds slightly in the third pipe portion 34 of the merging portion 30, but the length of the third pipe portion 34 is very short with respect to the length L of the reaction portion 31. Therefore, the third tube portion 34 is ignored, and the length L of the reaction portion 31 is regarded as the reaction path length which is the length of the field where the flow reaction is performed.
  • the inner diameter ⁇ of the reaction unit 31 is regarded as the reaction path diameter, which is the diameter of the field where the flow reaction is performed.
  • the temperature control unit 23 includes a heater and / or a cooler, and adjusts the temperature inside the reaction unit 31 (hereinafter, referred to as reaction temperature).
  • a temperature sensor 38 for detecting the reaction temperature is provided at the downstream end of the reaction unit 31.
  • the recovery / disposal section 24 is a section for recovering polystyrene, which is a product PR, and discarding waste whose reaction has failed.
  • the collection / disposal section 24 has a collection unit 40 and a disposal unit 41.
  • the recovery unit 40 and the disposal unit 41 are connected to the downstream end of the reaction unit 31 by a three-way valve 42. With this three-way valve 42, it is possible to switch between a recovery line connecting the reaction unit 31 and the recovery unit 40 and a disposal line connecting the reaction unit 31 and the disposal unit 41.
  • the recovery unit 40 precipitates polystyrene from the polystyrene solution.
  • the recovery unit 40 collects the precipitated polystyrene by filtering it from the solution. Then, the collected polystyrene is dried. More specifically, the recovery unit 40 has a container provided with a stirrer, holds methanol in the container, and mixes a polystyrene solution into the stirred methanol to precipitate polystyrene.
  • the recovery unit 40 has a constant temperature bath with a depressurizing function, and the inside of the constant temperature bath is decompressed and heated to dry methanol.
  • the disposal unit 41 is a tank for storing waste.
  • the waste is when the flow rate of the first raw material RM1, the flow rate of the second raw material RM2, the flow rate of the mixture, the reaction temperature, etc. are disturbed for some reason, and the production cannot be performed under the originally planned production conditions. , It was sent out from the reaction unit 31.
  • the setting unit 25 receives the setting of the production conditions in the production process of the product PR by the operator of the flow reaction device 13.
  • the production conditions accepted by the setting unit 25 are registered in the system controller 26 as the production condition data PCD set in the production process of the product PR.
  • the system controller 26 comprehensively controls the overall operation of the flow reaction device 13.
  • the system controller 26 includes a first raw material supply unit 20, a second raw material supply unit 21, a temperature control unit 23, a first flow velocity sensor 35, a second flow velocity sensor 36, a third flow velocity sensor 37, a temperature sensor 38, and a three-way valve 42. Is connected to.
  • the system controller 26 controls the rotation speed of the pump of the first raw material supply unit 20 according to the flow velocity of the first raw material RM1 detected by the first flow velocity sensor 35, and adjusts the flow rate of the first raw material RM1.
  • the system controller 26 controls the rotation speed of the pump of the second raw material supply unit 21 according to the flow velocity of the second raw material RM2 detected by the second flow velocity sensor 36, and adjusts the flow rate of the second raw material RM2. .
  • the system controller 26 drives the temperature control unit 23 according to the reaction temperature detected by the temperature sensor 38. Further, the system controller 26 controls the three-way valve 42 to switch between the above-mentioned collection line and the disposal line.
  • the reaction section 45 shown in FIG. 6 may be used instead of the reaction section 22.
  • the same components as those in FIG. 5 are designated by the same reference numerals, and the description thereof will be omitted.
  • the merging portion 46 of the reaction section 45 shown in FIG. 6 is composed of a first pipe portion 47, a second pipe portion 48, a third pipe portion 49, and a fourth pipe portion 50.
  • the first pipe portion 47 and the second pipe portion 48 are connected in a straight line.
  • the third pipe portion 49 and the fourth pipe portion 50 are linearly connected.
  • the first pipe portion 47 and the second pipe portion 48 intersect with the third pipe portion 49 and the fourth pipe portion 50 at right angles. That is, the merging portion 46 has a cross shape.
  • the first pipe section 47 and the second pipe section 48 are connected to the first raw material supply section 20, and the third pipe section 49 is connected to the second raw material supply section 21. Further, the fourth pipe portion 50 is connected to the reaction portion 31.
  • the first raw material supply section 20 supplies the first raw material RM1 to the first pipe section 47 and the second pipe section 48, and the second raw material supply section 21 supplies the second raw material RM2 to the third pipe section 49. .. Then, the first raw material RM1 and the second raw material RM2 are merged in the fourth pipe section 50 and sent out to the reaction section 31 in a mixed state.
  • the first pipe portion 47 and the second pipe portion 48 are provided with a first flow velocity sensor 51 and a second flow velocity sensor 52 for detecting the flow velocity of the first raw material RM1 passing through the first pipe portion 47 and the second pipe portion 48.
  • the third pipe portion 49 is provided with a third flow velocity sensor 53 that detects the flow velocity of the second raw material RM2 passing through the third pipe portion 49.
  • the fourth pipe portion 50 is provided with a fourth flow velocity sensor 54 that detects the flow velocity of a mixture of the first raw material RM1 and the second raw material RM2 passing through the fourth pipe portion 50.
  • the system controller 26 is the first raw material supply unit according to the average value of the flow velocity of the first raw material RM1 detected by the first flow velocity sensor 51 and the flow velocity of the first raw material RM1 detected by the second flow velocity sensor 52.
  • the rotation speed of the 20 pumps is controlled to adjust the flow rate of the first raw material RM1.
  • the system controller 26 controls the rotation speed of the pump of the second raw material supply unit 21 according to the flow velocity of the second raw material RM2 detected by the third flow velocity sensor 53, and adjusts the flow rate of the second raw material RM2.
  • the production condition data PCD is the concentration (unit: mol / l) and flow velocity (unit: ml / min) of the first raw material RM1, the concentration (unit: mol / l) and flow velocity (unit: unit: mol / l) of the second raw material RM2. : Ml / min), the shape of the confluence, the reaction path diameter ⁇ (unit: mm), the reaction path length L (unit: m), and the reaction temperature (unit: ° C.).
  • the item of the shape of the confluence is "T-shaped" in the figure when the reaction section 22 shown in FIG. 5 is used, and "cross-shaped" when the reaction section 45 shown in FIG. 6 is used (FIG. 6). 17 etc.) are registered respectively.
  • the flow velocity of the mixture may be added as an item of the production condition data PCD.
  • the system controller 26 makes the first flow velocity of the first raw material RM1 detected by the first flow velocity sensor 35 match the flow velocity of the first raw material RM1 registered in the production condition data PCD.
  • the flow rate of the first raw material RM1 is adjusted by controlling the rotation speed of the pump of the raw material supply unit 20.
  • the system controller 26 of the second raw material supply unit 21 so that the flow velocity of the second raw material RM2 detected by the second flow velocity sensor 36 matches the flow velocity of the second raw material RM2 registered in the production condition data PCD.
  • the flow rate of the second raw material RM2 is adjusted by controlling the rotation speed of the pump.
  • the average value of the flow velocity of the first raw material RM1 detected by the first flow velocity sensor 51 and the flow velocity of the first raw material RM1 detected by the second flow velocity sensor 52 is the production condition.
  • the flow rate of the first raw material RM1 is adjusted by controlling the rotation speed of the pump of the first raw material supply unit 20 so as to match the flow velocity of the first raw material RM1 registered in the data PCD.
  • the system controller 26 of the second raw material supply unit 21 so that the flow velocity of the second raw material RM2 detected by the third flow velocity sensor 53 matches the flow velocity of the second raw material RM2 registered in the production condition data PCD.
  • the flow rate of the second raw material RM2 is adjusted by controlling the rotation speed of the pump.
  • system controller 26 drives the temperature control unit 23 so that the reaction temperature detected by the temperature sensor 38 matches the reaction temperature registered in the production condition data PCD.
  • the system controller 26 causes.
  • the three-way valve 42 is controlled to switch to the disposal line, and the waste is guided to the disposal section 41. If the reaction fails and waste is generated, the physical property data PD and the quality data QD are not output as a matter of course. Therefore, the production condition data PCD when waste is generated is discarded without being transmitted to the learning device 10.
  • the physical property analyzer 14 spectroscopically analyzes the product PR and detects the spectral data SPD as the physical characteristic data PD.
  • the physical characteristic analyzer 14 performs, for example, near-infrared spectroscopic analysis, Fourier transform infrared spectroscopic analysis, Raman spectroscopic analysis, and nuclear magnetic resonance spectroscopic analysis as spectroscopic analysis.
  • the spectral data SPD illustrated in FIG. 8 is obtained by Raman spectroscopic analysis and is composed of a set of wavenumber and intensity. That is, the spectrum data SPD is an example of "multidimensional physical property data" according to the technique of the present disclosure.
  • the spectrum SP is obtained by plotting the intensity of the spectrum data SPD for each wave number and connecting them with a line.
  • the spectrum data SPD may be composed of a set of wavelength and intensity instead of the set of wave number and intensity.
  • the quality evaluation device 15 outputs the molecular weight dispersion degree and the molecular weight of the product PR as the quality data QD.
  • the molecular weight is here the number average molecular weight.
  • the molecular weight dispersion is a value obtained by dividing the weight average molecular weight by the number average molecular weight.
  • the quality evaluation apparatus 15 determines the molecular weight dispersion and the molecular weight by gel permeation chromatography (hereinafter abbreviated as GPC (Gel Permeation Chromatography)) using, for example, a polystyrene solution in which polystyrene, which is a product PR, is dissolved in tetrahydrofuran.
  • GPC Gel Permeation Chromatography
  • GPC GPC is performed under the following conditions.
  • Equipment HLC-8220GPC (manufactured by Tosoh Corporation)
  • Detector Differential refractometer (RI (Refractive Index) detector)
  • Pre-column TSKGUARDCOLUMN HXL-L 6mm x 40mm (manufactured by Tosoh Corporation)
  • Sample side column The following three columns (1) to (3) are directly connected in order (all manufactured by Tosoh Corporation).
  • the quality data QD is not limited to the molecular weight dispersion and the molecular weight of the product PR.
  • the molar concentration which is the concentration of the product PR in the solution may be used as the quality data QD.
  • the yield of the product PR obtained by dividing the amount of the product PR by the amount of the raw material RM may be used as the quality data QD.
  • the yield of the by-product and the like may be used as the quality data QD.
  • the computers constituting the learning device 10 and the operating device 11 have the same basic configuration, and include a storage device 60, a memory 61, a CPU (Central Processing Unit) 62, a communication unit 63, a display 64, and an input. It includes a device 65. These are interconnected via a bus line 66.
  • a storage device 60 a memory 61, a CPU (Central Processing Unit) 62, a communication unit 63, a display 64, and an input. It includes a device 65. These are interconnected via a bus line 66.
  • the storage device 60 is a hard disk drive built in the computer constituting the learning device 10 or the like, or connected via a cable or a network. Alternatively, the storage device 60 is a disk array in which a plurality of hard disk drives are connected. The storage device 60 stores control programs such as an operating system, various application programs, and various data associated with these programs. A solid state drive may be used instead of or in addition to the hard disk drive.
  • the memory 61 is a work memory for the CPU 62 to execute a process.
  • the CPU 62 comprehensively controls each part of the computer by loading the program stored in the storage device 60 into the memory 61 and executing the processing according to the program.
  • the communication unit 63 is a network interface that controls the transmission of various information via the network 12.
  • the display 64 displays various screens.
  • the computer constituting the learning device 10 and the like receives input of operation instructions from the input device 65 through various screens.
  • the input device 65 is a keyboard, a mouse, a touch panel, or the like.
  • subscript "A” is attached to each part of the learning device 10 and the subscript “B” is attached to each part of the operation device 11 to distinguish them.
  • the first operation program 70 is stored in the storage device 60A of the learning device 10.
  • the first operation program 70 is an application program for making the computer function as the learning device 10. That is, the first operation program 70 is an example of the "operation program of the learning device" according to the technique of the present disclosure.
  • the storage device 60A also stores the production condition data PCD from the flow reaction device 13, the physical property data PD from the physical property analyzer 14, and the quality data QD from the quality evaluation device 15.
  • the storage device 60A also stores the related data PRD derived from the physical property data PD and the machine learning model M. A plurality of sets of production condition data PCD, physical property data PD, related data PRD, and quality data QD are stored.
  • the CPU 62A of the computer constituting the learning device 10 cooperates with the memory 61 and the like to control the first read / write (hereinafter abbreviated as RW (Read Write)) control unit 75. It functions as a first derivation unit 76, a learning unit 77, an extraction unit 78, and a transmission control unit 79.
  • RW Read Write
  • the first RW control unit 75 controls reading of various data in the storage device 60A and storage of various data in the storage device 60A.
  • the first RW control unit 75 reads the physical property data PD from the storage device 60A and outputs the physical property data PD to the first derivation unit 76. Further, the first RW control unit 75 stores the related data PRD from the first derivation unit 76 in the storage device 60A.
  • the first RW control unit 75 reads the related data PRD, the production condition data PCD, and the quality data QD from the storage device 60A, and outputs these to the learning unit 77. Since the related data PRD and the production condition data PCD constitute the learning input data IDL, the first RW control unit 75 acquires the learning input data IDL by reading the related data PRD and the production condition data PCD from the storage device 60A. You will be doing. That is, the first RW control unit 75 is an example of the "first acquisition unit" according to the technique of the present disclosure.
  • the first RW control unit 75 reads the machine learning model M from the storage device 60A, and outputs the machine learning model M to any of the learning unit 77, the extraction unit 78, and the transmission control unit 79. Further, the first RW control unit 75 stores the machine learning model M from the learning unit 77 in the storage device 60A.
  • the first out-licensing unit 76 receives the physical property data PD from the first RW control unit 75.
  • the first derivation unit 76 derives the related data PRD from the physical property data PD.
  • the first derivation unit 76 assigns the same ID as the physical property data PD to the derived related data PRD, and outputs the related data PRD to the first RW control unit 75.
  • the first derivation unit 76 derives the related data PRD each time a new physical characteristic data PD is transmitted from the physical characteristic analyzer 14.
  • the learning unit 77 receives the learning input data IDL, the quality data QD, and the machine learning model M from the first RW control unit 75.
  • the learning unit 77 gives the learning input data IDL to the machine learning model M for learning, and outputs a temporary machine learning model PM (see FIG. 16). That is, the learning unit 77 is an example of the "provisional learning unit" according to the technique of the present disclosure.
  • the machine learning model M used during the period in which the learning unit 77 functions as the provisional learning unit is referred to as a first machine learning model M1 (see FIG. 15).
  • the extraction unit 78 receives the machine learning model M from the first RW control unit 75.
  • the machine learning model M received by the extraction unit 78 from the first RW control unit 75 is a temporary machine learning model PM.
  • the extraction unit 78 uses a temporary machine learning model PM to extract high-contribution items from a plurality of items of the related data PRD.
  • the high contribution item is an item that satisfies a preset condition to the extent that it contributes to the improvement of the accuracy of the quality prediction of the product PR.
  • the extraction unit 78 outputs the high contribution item information HCII, which is the extraction result of the high contribution item, to the learning unit 77.
  • the extraction unit 78 outputs the high contribution item information HCII to the first RW control unit 75, and the first RW control unit 75 stores the high contribution item information HCII in the storage device 60A.
  • the learning unit 77 receives the high contribution item information HCII from the extraction unit 78.
  • the learning unit 77 selectively gives the machine learning model M the related data PRD of the high contribution item based on the high contribution item information HCII to train the machine learning model M, and outputs the machine learning model M as a learned model TM. That is, the learning unit 77 is an example of the "main learning unit" according to the technique of the present disclosure.
  • the machine learning model M used during the period in which the learning unit 77 functions as the main learning unit is referred to as a second machine learning model M2 (see FIG. 23).
  • the transmission control unit 79 receives the machine learning model M from the first RW control unit 75.
  • the machine learning model M received by the transmission control unit 79 from the first RW control unit 75 is a trained model TM.
  • the transmission control unit 79 controls to transmit the learned model TM to the operation device 11. Further, the transmission control unit 79 receives the high contribution item information HCII from the first RW control unit 75 together with the learned model TM, and controls to transmit the high contribution item information HCII to the operation device 11.
  • the first derivation unit 76 derives the related data PRD for each of the plurality of sections in which the spectrum data SPD is divided.
  • the first derivation unit 76 derives a representative value of intensity as the related data PRD.
  • the related data PRD is an example of "multidimensional physical property related data" according to the technique of the present disclosure.
  • the learning unit 77 has a first processing unit 85, an evaluation unit 86, and an updating unit 87.
  • the first processing unit 85 gives the learning input data IDL to the machine learning model M, and causes the machine learning model M to output the learning output data ODL.
  • the learning output data ODL is composed of the molecular weight dispersion and the molecular weight as in the quality data QD (see FIG. 15 and the like).
  • the first processing unit 85 outputs the learning output data ODL to the evaluation unit 86.
  • the evaluation unit 86 receives the learning output data ODL from the first processing unit 85.
  • the evaluation unit 86 compares the learning output data ODL and the quality data QD, and evaluates the prediction accuracy of the machine learning model M.
  • the evaluation unit 86 outputs the evaluation result to the update unit 87.
  • the evaluation unit 86 evaluates the prediction accuracy of the machine learning model M using, for example, a loss function.
  • the loss function is a function that expresses the degree of difference between the training output data ODL and the quality data QD. The closer the calculated value of the loss function is to 0, the higher the accuracy of prediction of the machine learning model M.
  • the update unit 87 updates the machine learning model M according to the evaluation result from the evaluation unit 86.
  • the update unit 87 changes the values of various parameters of the machine learning model M by a stochastic gradient descent method or the like accompanied by a learning coefficient.
  • the learning coefficient indicates the range of change in the values of various parameters of the machine learning model M. That is, the larger the learning coefficient is, the larger the range of change in the values of various parameters is, and the greater the degree of update of the machine learning model M.
  • the update of the learning model M is repeated until the prediction accuracy reaches a preset level.
  • the first processing unit 85 completely uses the plurality of items of the production condition data PCD and the related data PRD as the learning input data IDL. It is given to the first machine learning model M1. Then, the evaluation unit 86 evaluates the prediction accuracy of the first machine learning model M1, and the update unit 87 updates the first machine learning model M1. By repeating such processing while changing the learning input data IDL, the accuracy of prediction of the first machine learning model M1 reaches a preset level.
  • the first machine learning model M1 whose prediction accuracy has reached a preset level is stored in the storage device 60A by the first RW control unit 75 as a temporary machine learning model PM.
  • the extraction unit 78 has a second processing unit 90, a third processing unit 91, a calculation unit 92, and a determination unit 93.
  • the second processing unit 90 gives the learning input data IDL to the temporary machine learning model PM, and causes the temporary machine learning model PM to output the temporary output data POD.
  • the tentative output data POD is composed of the molecular weight dispersion and the molecular weight as in the learning output data ODL (see FIG. 17 and the like).
  • the second processing unit 90 outputs the temporary output data POD to the calculation unit 92.
  • the third processing unit 91 provisionally sets the same production condition data PCD as that given to the temporary machine learning model PM by the second processing unit 90, and the extraction physical property related data (hereinafter abbreviated as extraction related data) PRDE. It is given to the machine learning model PM of the above, and the temporary output data PODE for extraction is output from the temporary machine learning model PM.
  • the provisional output data PODE for extraction is composed of the molecular weight dispersion and the molecular weight as in the learning output data ODL (see FIG. 18 and the like).
  • the third processing unit 91 outputs the temporary output data PODE for extraction to the calculation unit 92.
  • the calculation unit 92 receives the temporary output data POD from the second processing unit 90 and the temporary output data POD for extraction from the third processing unit 91. Based on the provisional output data POD and the provisional output data PODE for extraction, the calculation unit 92 determines that the items of the related data PRD contribute to improving the accuracy of quality prediction of the first machine learning model M1. Calculate the contribution of PRD items. The calculation unit 92 outputs the contribution information CI, which is the calculation result of the contribution, to the determination unit 93.
  • the determination unit 93 receives the contribution information CI from the calculation unit 92.
  • the determination unit 93 determines whether or not each of the plurality of items of the related data PRD is a high contribution item based on the contribution information CI and the setting condition SC.
  • the determination unit 93 outputs the high contribution item information HCII to the learning unit 77 as the determination result.
  • FIG. 17 in the second processing unit 90, as in the case of the first processing unit 85 shown in FIG. 15, a plurality of items of the related data PRD are completely given to the temporary machine learning model PM. Be done.
  • the extraction-related data PRDE from which one of the plurality of items of the related data PRD is removed is given to the provisional machine learning model PM.
  • FIG. 18 shows an example in which the item of the average value of the related data PRD_INT1 in the first section INT1 is excluded.
  • the calculation unit 92 first calculates the rate of change from the temporary output data POD and the temporary output data PODE for extraction.
  • the rate of change is a value indicating how much the output data of the tentative machine learning model PM changes due to the influence of the items excluded in the extraction-related data PRDE.
  • the calculation unit 92 converts the rate of change into the degree of contribution using the conversion table 100 that converts the rate of change into the degree of contribution.
  • the conversion table 100 when the rate of change is 0 or more and less than 0.05, the contribution degree is 0, when the rate of change is 0.05 or more and less than 0.1, the degree of contribution is 1, ..., The rate of change is 0.
  • Contribution 9 is registered when it is .45 or more and less than 0.5
  • contribution 10 is registered when the rate of change is 0.5 or more.
  • 26000 is illustrated.
  • the rate of change in molecular weight dispersion
  • the degree of contribution is 0, so the degree of contribution obtained by converting the rate of change in the degree of molecular weight dispersion is calculated as 0.
  • the degree of contribution obtained by converting the rate of change in molecular weight is calculated to be 3.
  • the contribution calculated in this way is the contribution of the items excluded in the extraction-related data PRDE (in FIG. 20, the item of the average value of the related data PRD_INT1).
  • the third processing unit 91 gives the extraction-related data PRDE to the temporary machine learning model PM one after another while changing the items to be excluded one by one.
  • the third processing unit 91 gives 140 extraction related data PRDEs to the temporary machine learning model PM.
  • the calculation unit 92 calculates the degree of contribution for each extraction-related data PRDE. In order to improve the reliability of the value of the rate of change, the rate of change is calculated not only for one set of production condition data PCD and related data PRD but also for a plurality of different sets of production condition data PCD and related data PRD, and the average thereof. The value may be converted to contribution.
  • the contribution of each of the plurality of items of the related data PRD is registered in the contribution information CI.
  • the two numerical values next to each item are the degree of contribution, the left side is the degree of contribution obtained by converting the rate of change in molecular weight dispersion, and the right side is the degree of contribution obtained by converting the rate of change in molecular weight.
  • the contribution degree obtained by converting the change rate of the maximum value of the molecular weight dispersion of the first section INT1 is 8
  • the contribution degree obtained by converting the change rate of the molecular weight is 6.
  • the setting condition SC is “the contribution degree obtained by converting the rate of change in the molecular weight dispersion and the degree of contribution obtained by converting the rate of change in the molecular weight are both 6 or more”, and the contribution information CI is illustrated in FIG. Shows the case.
  • the determination unit 93 determines the maximum value, dispersion, skewness, and kurtosis of the first section INT1 in which the contribution degree obtained by converting the rate of change in the molecular weight dispersion and the contribution degree obtained by converting the rate of change in the molecular weight are both 6 or more.
  • sparse modeling the method of extracting the essential part (highly contributing item in this example) from a plurality of data (multiple items of the related data PRD in this example) in this way is called sparse modeling.
  • Such sparse modeling can be performed, for example, using a glmnet package that can operate on the R language.
  • a detailed algorithm for sparse modeling is described in, for example, "Journal of Statistical Software, vol.33-1 (2010)" Regularization Paths for Generalized Liner Models via Coordinate Descent ".
  • the related data PRD of the highly contributing item is selectively given to the second machine learning model M2 in the first processing unit 85.
  • items other than the high-contribution items are selectively excluded and given to the second machine learning model M2.
  • the evaluation unit 86 evaluates the prediction accuracy of the second machine learning model M2
  • the update unit 87 updates the second machine learning model M2.
  • the second machine learning model M2 whose prediction accuracy has reached a preset level is stored in the storage device 60A by the first RW control unit 75 as a learned model TM.
  • the second machine learning model M2 used during the period when the learning unit 77 functions as the main learning unit is different from the first machine learning model M1 used during the period when the learning unit 77 functions as the temporary learning unit, such as type and performance.
  • the characteristics are the same.
  • the second operation program 110 is stored in the storage device 60B of the operating device 11.
  • the second operation program 110 is an application program for operating the computer as the operation device 11.
  • the storage device 60B also stores the trained model TM from the learning device 10, the high-contribution item information HCII, and the physical characteristic data PDF for prediction from the physical property analyzer 14.
  • the storage device 60B also stores the forecast production condition data PCDF.
  • the production condition data PCDF for prediction is input by the operator via the input device 65B. More specifically, an input screen prepared with input boxes for each item of the forecast production condition data PCDF is displayed on the display 64B, and the forecast production condition data PCDF is input through the input screen.
  • the production condition data PCDF for prediction and the physical property data PDF for prediction are the production condition data PCD and the physical property data PD of the product PR whose quality is unknown and whose quality is predicted by using the trained model TM.
  • the storage device 60B also stores the prediction physical property-related data (hereinafter abbreviated as prediction-related data) PRDF derived from the prediction physical property data PDF.
  • prediction-related data hereinafter abbreviated as prediction-related data
  • the CPU 62B of the computer constituting the operating device 11 cooperates with the memory 61 and the like to perform the second RW control unit 115, the second derivation unit 116, the fourth processing unit 117, and the second operation program 110. It functions as a display control unit 118.
  • the second RW control unit 115 controls reading of various data in the storage device 60B and storage of various data in the storage device 60B, similarly to the first RW control unit 75 of the learning device 10.
  • the second RW control unit 115 reads the prediction physical property data PDF and the high contribution item information HCII from the storage device 60B, and outputs the prediction physical property data PDF and the high contribution item information HCII to the second derivation unit 116. Further, the second RW control unit 115 stores the prediction-related data PRDF from the second derivation unit 116 in the storage device 60B.
  • the second RW control unit 115 reads the trained model TM from the storage device 60B and outputs the trained model TM to the fourth processing unit 117.
  • the second RW control unit 115 has acquired the trained model TM by reading the trained model TM from the storage device 60B. That is, the second RW control unit 115 is an example of the "second acquisition unit" according to the technique of the present disclosure.
  • the second RW control unit 115 reads the prediction-related data PRDF and the prediction production condition data PCDF from the storage device 60B, and outputs these to the fourth processing unit 117.
  • the second RW control unit 115 has acquired the prediction-related data PRDF by reading the prediction-related data PRDF from the storage device 60B. That is, the second RW control unit 115 is an example of the "third acquisition unit" according to the technique of the present disclosure.
  • the second derivation unit 116 receives the prediction physical characteristic data PDF and the high contribution item information HCII from the second RW control unit 115.
  • the second derivation unit 116 derives the prediction-related data PRDF from the prediction physical property data PDF. More specifically, the second derivation unit 116, like the first derivation unit 76 of the learning device 10, has an average value, a maximum value, and a minimum value of the intensities for each of the plurality of sections INT1 to INT20 in which the spectral data SPDs are divided. Derivation of value, median, variance, skewness, and kurtosis.
  • the second out-licensing unit 116 selectively derives the high-contribution item based on the high-contribution item information HCII, and does not derive the items other than the high-contribution item. Therefore, in the prediction-related data PRDF, items other than the high-contribution items are selectively excluded as in the related data PRD of FIG. 23 (see FIG. 25).
  • the fourth processing unit 117 receives the prediction production condition data PCDF, the prediction related data PRDF, and the trained model TM from the second RW control unit 115.
  • the fourth processing unit 117 gives the trained model TM the production condition data PCDF for prediction and the related data PRDF for prediction to predict the quality. That is, the fourth processing unit 117 is an example of the "processing unit" according to the technique of the present disclosure.
  • the fourth processing unit 117 outputs the quality prediction data QFD, which is the quality prediction result by the trained model TM, to the display control unit 118.
  • the quality prediction data QFD is composed of the molecular weight dispersion and the molecular weight like the quality data QD (see FIG. 25 and the like).
  • the display control unit 118 controls to display various screens on the display 64B.
  • the various screens include a quality prediction display screen 120 (see FIG. 26) for displaying the quality prediction data QFD. That is, the display control unit 118 is an example of the "output control unit" according to the technique of the present disclosure.
  • FIG. 25 shows how the trained model TM predicts the quality of the product PR whose ID is PR0500 and whose quality is unknown. Similar to the case shown in FIG. 23, in the fourth processing unit 117, the prediction-related data PRDF of the high-contribution item among the plurality of items is selectively given to the trained model TM. Conversely, items other than the high-contribution items are selectively excluded and given to the trained model TM.
  • the quality prediction data QFD output from the trained model TM is displayed on the quality prediction display screen 120 displayed on the display 64B under the control of the display control unit 118.
  • the display of the quality prediction display screen 120 disappears by selecting the OK button 121.
  • the CPU 62A of the learning device 10 includes the first RW control unit 75, the first derivation unit 76, the learning unit 77, and the extraction unit. It functions as 78 and a transmission control unit 79.
  • the learning unit 77 functions as a first processing unit 85, an evaluation unit 86, and an updating unit 87.
  • the extraction unit 78 functions as a second processing unit 90, a third processing unit 91, a calculation unit 92, and a determination unit 93.
  • the spectrum data SPD which is the physical property data PD
  • the spectrum data SPD is read from the storage device 60A by the first RW control unit 75 and output to the first derivation unit 76.
  • representative values of intensity (mean value, maximum value, minimum value, etc.) are used for each of the plurality of sections INT1 to INT20 in which the spectrum data SPD is divided by the first derivation unit 76.
  • Median, variance, skewness, and kurtosis) are derived as the relevant data PRD.
  • the related data PRD is output from the first derivation unit 76 to the first RW control unit 75, and is stored in the storage device 60A by the first RW control unit 75.
  • the derivation of the related data PRD is performed every time a new physical characteristic data PD is transmitted from the physical characteristic analyzer 14.
  • step ST100 provisional learning (step ST100), extraction of high-contribution items (step ST200), and main learning (step ST300) are mainly performed.
  • the first machine learning model M1 is learned and used as a tentative machine learning model PM.
  • a tentative machine learning model PM is used to extract high-contribution items.
  • the second machine learning model M2 is learned and used as a learned model TM.
  • the first RW control unit 75 sends the learning input data IDL composed of the set of the production condition data PCD and the related data PRD set in the production process from the storage device 60A. It is read (step ST1001).
  • the learning input data IDL is output from the first RW control unit 75 to the learning unit 77.
  • step ST1001 is an example of the "first acquisition step” according to the technique of the present disclosure.
  • the learning unit 77 in the learning unit 77, as shown in FIG. 15, in the first processing unit 85, a plurality of items of the production condition data PCD and the related data PRD are completely converted into the first machine learning model M1 as the input data IDL for learning. Given, the learning output data ODL is output from the first machine learning model M1 (step ST1002). Then, the evaluation unit 86 compares the learning output data ODL and the quality data QD, and evaluates the accuracy of predicting the quality of the product PR by the first machine learning model M1 (step ST1003).
  • the evaluation result of the prediction accuracy of the first machine learning model M1 by the evaluation unit 86 is that the prediction accuracy of the first machine learning model M1 is less than a preset level (NO in step ST1004).
  • the update unit 87 updates the first machine learning model M1 (step ST1005). Then, using the updated first machine learning model M1, the processes of step ST1001, step ST1002, and step ST1003 are repeated. In each of the processes of steps ST1001 to ST1003, the evaluation result of the prediction accuracy of the first machine learning model M1 by the evaluation unit 86 has reached a preset level of the prediction accuracy of the first machine learning model M1. If the content is (YES in step ST1004), the process is terminated.
  • the first machine learning model M1 whose prediction accuracy has reached a preset level is output from the learning unit 77 to the first RW control unit 75 as a temporary machine learning model PM (step ST1006).
  • the temporary machine learning model PM is stored in the storage device 60A by the first RW control unit 75. It should be noted that these series of steps ST1001 to ST1006 are examples of "provisional learning steps" according to the technique of the present disclosure.
  • a plurality of items of the production condition data PCD and the related data PRD are completely provisionally provisioned. It is given to the machine learning model PM of the above, and the temporary output data POD is output from the temporary machine learning model PM (step ST2001). The temporary output data POD is output from the second processing unit 90 to the calculation unit 92.
  • the production condition data PCD and the extraction-related data PRDE from which one of the plurality of items of the related data PRD is removed are provisionally machine-learned. It is given to the model PM, and the temporary output data PODE for extraction is output from the temporary machine learning model PM (step ST2002). The temporary output data PODE for extraction is output from the third processing unit 91 to the calculation unit 92.
  • the calculation unit 92 calculates the contribution of one item excluded from the extraction-related data PRDE based on the provisional output data POD and the extraction provisional output data PODE. (Step ST2003). These steps ST2002 and ST2003 are repeated while changing the items to be excluded one by one until the contributions of all the items of the related data PRD are calculated (YES in step ST2004). The contributions of all the items of the related data PRD calculated in this way are output from the calculation unit 92 to the determination unit 93 as the contribution information CI shown in FIG.
  • the determination unit 93 determines whether or not each of the plurality of items of the related data PRD is a high contribution item based on the contribution information CI and the setting condition SC (Ste ST2005). Then, this determination result is output from the determination unit 93 to the learning unit 77 as the high contribution item information HCII (step ST2006). Note that these series of steps ST2001 to ST2006 are examples of "extraction steps" according to the technique of the present disclosure.
  • the learning input data IDL composed of a set of the production condition data PCD and the related data PRD is read from the storage device 60A by the first RW control unit 75 (step ST3001).
  • the learning input data IDL is output from the first RW control unit 75 to the learning unit 77.
  • the production condition data PCD and the related data PRD of the high contribution item are selectively given to the second machine learning model M2 as the input data IDL for learning.
  • the learning output data ODL is output from the second machine learning model M2 (step ST3002).
  • the evaluation unit 86 compares the learning output data ODL and the quality data QD, and evaluates the accuracy of predicting the quality of the product PR by the second machine learning model M2 (step ST3003).
  • step ST3004 When the evaluation result of the prediction accuracy of the second machine learning model M2 by the evaluation unit 86 is that the prediction accuracy of the second machine learning model M2 is less than a preset level (NO in step ST3004). , The update unit 87 updates the second machine learning model M2 (step ST3005). Then, using the updated second machine learning model M2, the processes of step ST3001, step ST3002, and step ST3003 are repeated. In each of the processes of steps ST3001 to ST3003, the evaluation result of the prediction accuracy of the second machine learning model M2 by the evaluation unit 86 has reached a preset level of the prediction accuracy of the second machine learning model M2. If the content is (YES in step ST3004), the process is terminated.
  • the second machine learning model M2 whose prediction accuracy has reached a preset level is output from the learning unit 77 to the first RW control unit 75 as a learned model TM (step ST3006).
  • the trained model TM is stored in the storage device 60A by the first RW control unit 75.
  • the learned model TM is transmitted to the operation device 11 by the transmission control unit 79.
  • these series of steps ST3001 to ST3006 are an example of "the present learning step" which concerns on the technique of this disclosure.
  • the CPU 62B of the operation device 11 includes the second RW control unit 115, the second derivation unit 116, the fourth processing unit 117, and the display. It functions as a control unit 118.
  • the second RW control unit 115 reads out the prediction physical characteristic data PDF and the high contribution item information HCII from the storage device 60B, and outputs the PDF to the second derivation unit 116. Then, the second derivation unit 116 derives a representative value of the intensity only for the high contribution items for each of the plurality of sections INT1 to INT20 in which the spectrum data SPD of the prediction physical property data PDF is divided. In this way, the prediction-related data PRDF is derived in the second derivation unit 116.
  • the prediction-related data PRDF is stored in the storage device 60B by the second RW control unit 115.
  • the learned model TM is read from the storage device 60B by the second RW control unit 115 (step ST500). Further, the second RW control unit 115 reads out the forecast production condition data PCDF and the forecast related data PRDF set in the production process from the storage device 60B (step ST600). The trained model TM, the forecast production condition data PCDF, and the forecast related data PRDF are output from the second RW control unit 115 to the fourth processing unit 117.
  • the prediction production condition data PCDF and the prediction related data PRDF are given to the trained model TM, and the quality prediction data QFD is output from the trained model TM ( Step ST700).
  • the quality prediction data QFD is output from the fourth processing unit 117 to the display control unit 118.
  • the display control unit 118 displays the quality prediction display screen 120 shown in FIG. 26 on the display 64B (step ST800).
  • the quality prediction display screen 120 makes the quality prediction data QFD available for viewing by the operator.
  • the learning device 10 acquires the learning input data IDL including the related data PRD in the first RW control unit 75, and the learning unit 77 gives the learning input data IDL to the first machine learning model M1. And output a temporary machine learning model PM.
  • the extraction unit 78 extracts high-contribution items from a plurality of items of the related data PRD using a temporary machine learning model PM.
  • the learning unit 77 the related data PRD of the high contribution item is selectively given to the second machine learning model M2 for learning, and is output as a learned model TM. Therefore, it is possible to improve the accuracy of predicting the quality of the product PR by the trained model TM as compared with the case where the related data PRD other than the high contribution item is given and trained.
  • Comparative Example 1 when only the production condition data PCD is given as the learning input data IDL, in Comparative Example 2, a plurality of items of the production condition data PCD and the related data PRD are completely subjected to the learning input data IDL. This is the case when the data is given and learned. In this way, it was confirmed that the accuracy of predicting the quality of the product PR by the trained model TM can be further improved by giving the related data PRD of the high contribution item as the input data IDL for learning and training. ..
  • the learning input data IDL includes not only the related data PRD but also the production condition data PCD. Therefore, the quality prediction data QFD considering the influence of the production condition data PCD can be output from the machine learning model M. In addition, high-contribution items can be extracted in consideration of the influence of production condition data PCD, and the validity of high-contribution items can be further enhanced.
  • the physical property data PD includes the spectral data SPD detected by spectroscopically analyzing the product PR.
  • the related data PRD is a representative value of the intensity derived for each of the plurality of sections INT1 to INT20 in which the spectrum data SPD is divided. The amount of data in the related data PRD can be reduced as compared with the case where the intensity of each wave number of the spectrum data SPD is used as the related data PRD.
  • the operation device 11 acquires the trained model TM and the prediction-related data PRDF by the second RW control unit 115.
  • the trained model TM is given the prediction-related data PRDF to predict the quality.
  • the quality of the product PR when the quality of the product PR is actually evaluated by the quality evaluation device 15, the pretreatment of the product PR and the quality evaluation process take a relatively long time, for example, about 1 to 2 weeks.
  • the trained model TM if the trained model TM is used, the quality of the product PR can be predicted in a very short time.
  • the prediction accuracy of the trained model TM is relatively high, so that the operator can make a production plan for future product PR with great reference to the quality prediction data QFD. ..
  • the image data IMD obtained by photographing the product PR is referred to as the physical property data PD.
  • the physical characteristic analyzer 130 of the second embodiment is, for example, a digital optical microscope, which captures a product PR and outputs image data IMD as physical characteristic data PD.
  • the image data IMD is an example of "multidimensional physical property data" according to the technique of the present disclosure.
  • the first derivation unit 135 of the second embodiment describes each of the plurality of regions AR1-1, AR1-2, ..., AR10-10 that equally divide the image data IMD.
  • Related data PRD_AR1-1, PRD_AR1-2, ..., PRD_AR10-10 are derived.
  • the first derivation unit 135 uses the related data PRD_AR1-1 to PRD_AR10-10 as the red pixel value and the green pixel value of the image data IMD_AR1-1 to IMD_AR10-10 of each region AR1-1 to AR10-10.
  • the average value of each of the blue pixel values is derived.
  • each color pixel value may be derived as the related data PRD.
  • other representative values such as the maximum value, the minimum value, the median value, and the variance of each color pixel value may be derived as the related data PRD.
  • each region AR1-1 to AR10 of the image data IMD of the product PR whose quality is unknown.
  • the average value of each of the red pixel value, the green pixel value, and the blue pixel value of -10 is derived as the prediction-related data PRDF.
  • the image data IMD obtained by photographing the product PR is referred to as the physical property data PD. Therefore, the physical characteristics of the product PR can be grasped more easily.
  • the image data IMD may be a physical property data PD instead of the spectrum data SPD of the first embodiment, or may be a physical property data PD in addition to the spectrum data SPD.
  • the physical property analyzer 130 is not limited to the illustrated digital optical microscope, and may be a scanning electron microscope (SEM) or the like.
  • the multidimensional physical property data is not limited to the spectrum data SPD of the first embodiment and the image data IMD of the second embodiment.
  • Multidimensional physical property data related to any of the five human senses of sight, hearing, smell, touch, and taste may be used.
  • tactile data of the product PR odor data at the time of production of the product PR, audio data at the time of production of the product PR, and the like can be mentioned.
  • the outputs of the tactile sensors at a plurality of locations of the product PR are used as tactile data, and the average value of the outputs of the tactile sensors at the plurality of locations is derived as the related data PRD.
  • the period from the start to the end of production is recorded with a microphone to obtain voice data
  • the voice data is divided into a plurality of sections, and the average value of the frequencies and the average values of the amplitudes of the respective sections are recorded as related data. Derived as PRD.
  • the autoencoder AE is given the input image data IIMD as the physical property data PD to output the output image data OIMD, and the input image data IIMD and the output image given to the autoencoder AE.
  • the related data PRD is derived based on the difference data DD from the data OIMD.
  • the first derivation unit 140 of the third embodiment derives the related data PRD from the input image data IIMD as the physical property data PD by using the autoencoder AE. That is, the first out-licensing unit 140 is an example of the "out-licensing unit" according to the technique of the present disclosure.
  • the image data SPIMD of the spectrum SP which is an example of the “multidimensional physical property data” according to the technique of the present disclosure, is used as the input image data IIMD will be described.
  • the autoencoder AE has a plurality of layers for analyzing the input image data IIMD, and each layer extracts features having different spatial frequency frequency bands included in the input image data IIMD, and is composed of a convolutional neural network. It is a type machine learning model.
  • the convolutional neural network is, for example, U-Net (U-Shaped Neural Network), SegNet, or the like.
  • the autoencoder AE is composed of an encoder network 145 and a decoder network 146.
  • the encoder network 145 performs a convolution operation using the filter F (see FIG. 38) for each layer, and performs a convolution process for extracting the image feature map CMP.
  • the decoder network 146 gradually increases the image size of the minimum image feature map CMP output from the lowest layer of the encoder network 145. Then, the gradually enlarged image feature map CMP and the image feature map CMP output in each layer of the encoder network 145 are combined to generate an output image data OIMD having the same image size as the input image data IIMD. ..
  • Input data DI (see FIG. 38) having a plurality of pixel values arranged in two dimensions is input to each layer of the encoder network 145.
  • the encoder network 145 performs a convolution process on the input data DI in each layer to extract the image feature map CMP.
  • the input image data IIMD is input as the input data DI in the uppermost first layer of the encoder network 145.
  • the first layer performs a convolution process on the input image data IIMD, and outputs, for example, an image feature map CMP having the same image size as the input image data IIMD.
  • the image feature map CMP output in each upper layer is input as the input data DI.
  • convolution processing is performed on the image feature map CMP, and for example, an image feature map CMP having the same image size as the input image feature map CMP is output.
  • a 3 ⁇ 3 filter F is applied to the input data DI, and the pixel value e of the pixel of interest Ip in the input data DI and the eight pixels Is adjacent to the pixel of interest Ip.
  • the output data DIc in which the pixel values are arranged in a two-dimensional manner is obtained in the same manner as the input data DI.
  • the pixel value k of the pixel Icp of the output data DIc which is the result of the convolution calculation for the pixel of interest Ip, is, for example. It can be obtained by calculating the following (Equation 2).
  • the above-mentioned convolution operation is performed on each pixel of the input data DI, and the pixel value k is output.
  • the output data DIc having the pixel values k arranged in two dimensions is output.
  • One output data DIc is output for one filter F.
  • output data DIc is output for each filter F.
  • the output data DIc is data in which the pixel values k are arranged two-dimensionally, and has a width and a height. Further, when a plurality of output data DIc are output by applying a plurality of filters F of different types, the image feature map CMP becomes a set of a plurality of output data DIc. In the image feature map CMP, the number of filters F is called the number of channels.
  • the image feature map CMP shown in FIG. 39 is an example of a 4-channel image feature map CMP having four output data DIcs output by applying four filters F.
  • the autoencoder AE is prepared for each of a plurality of sections INT1 to INT20 of the spectrum data SPD (autoencoder AE_INT1 to AE_INT20).
  • Each autoencoder AE_INT1 to AE_INT20 is specialized for the image data SPIMD_INT1 to SPIMD_INT20 of the spectrum SP of each section INT1 to INT20.
  • the autoencoders AE_INT1 to AE_INT20 may be collectively referred to as the autoencoder AE.
  • the autoencoder AE is provided with the image data SPIMD of the spectrum SP of the product PR whose quality is better than the preset level as the input image data IIMDL for learning. Then, the autoencoder AE is learned so that the learning input image data IIMDL and the learning output image data OIMDL match. That is, the auto-encoder AE ideally receives the input image data IIMD when the image data SPIMD of the spectrum SP of the product PR whose quality is better than the preset level is input as the input image data IIMD. Output image data OIMD having a spectrum SP having the same shape as the spectrum SP is output.
  • the preset levels are, for example, a molecular weight dispersion of 1.5 or more, a molecular weight of 25,000 or more, and the like.
  • FIG. 41 illustrates the autoencoder AE_INT1 of the autoencoders AE_INT1 to AE_INT20. Therefore, the input image data IIMDL for learning is the image data SPIMD_INT1 of the spectrum SP in the interval INT1.
  • the first derivation unit 140 gives the image data SPIMD of the spectrum SP to the autoencoder AE as the input image data IIMD, and outputs the output image data OIMD.
  • the first derivation unit 140 calculates the difference data DD between the input image data IIMD and the output image data OIMD. Specifically, the first derivation unit 140 calculates the difference in intensity between the input image data IIMD and the output image data OIMD at each wave number as the difference data DD for each of the sections INT1 to INT20.
  • FIG. 42 as in FIG. 41, only the autoencoder AE_INT1 is shown.
  • the autoencoder AE_INT1 is provided with the image data SPIMD_INT1 of the spectrum SP of the section INT1 as the input image data IIMD. Then, the difference data DD_INT1 of the section INT1 is calculated based on the input image data IIMD and the output image data OIMD of the autoencoder AE_INT1.
  • the autoencoder AE learns by giving the image data SPIMD of the spectrum SP of the product PR whose quality is better than the preset level as the input image data IIMDL for learning. It was done. Therefore, if the quality of the product PR, which is the source of the input image data IIMD, is better than the preset level, the output image data OIMD substantially the same as the input image data IIMD is output from the autoencoder AE. To. Therefore, the difference in intensity is relatively small. On the contrary, if the quality of the product PR is equal to or lower than the preset level, the output image data OIMD different from the input image data IIMD is output from the autoencoder AE. Therefore, the difference in intensity is relatively large. That is, according to the difference data DD, it can be known whether or not the quality of the product PR is better than the preset level.
  • the first derivation unit 140 derives related data PRD_INT1, PRD_INT2, ..., PRD_INT20 for each of the difference data DD_INT1, DD_INT2, ..., DD_INT20 of each section INT1 to INT20. Specifically, the first derivation unit 140 derives the average value and the sum of the differences in the intensities of each section INT1 to INT20 as the related data PRD_INT1 to PRD_INT20. In addition, instead of or in addition to the average value and the sum of the intensity differences, other representative values such as the maximum value, the minimum value, the median value, and the variance of the intensity difference may be derived as the related data PRD.
  • each section INT1 to the image data SPIMD of the spectrum SP of the product PR whose quality is unknown The mean value and the sum of the intensity differences of INT20 are derived as the prediction-related data PRDF.
  • the autoencoder AE is given the input image data IIMD as the physical property data PD to output the output image data OIMD, and the input image data given to the autoencoder AE.
  • the related data PRD is derived based on the difference data DD between the IIMD and the output image data OIMD. Therefore, a numerical value that more accurately represents the physical properties of the product PR than the representative values of strength such as mean value, maximum value, minimum value, median value, variance, skewness, and kurtosis illustrated in the first embodiment. (Here, the average value and the sum of the differences in intensity) can be derived as the related data PRD. Therefore, the accuracy of prediction of the trained model TM can be further improved.
  • the related data PRD based on the difference data DD may be used instead of the representative values of intensities such as the average value, the maximum value, the minimum value, the median value, the variance, the skewness, and the kurtosis of the first embodiment. , May be used in addition.
  • the input image data IIMD is not limited to the image data SPIMD of the illustrated spectrum SP.
  • the image data IMD obtained by photographing the product PR of the second embodiment may be used as the input image data IIMD.
  • the autoencoder AE is prepared for each area AR of the image data IMD.
  • the related data PRD is derived based on the image feature map CMP output from the encoder network 155 which is a part of the autoencoder AE. That is, the image feature map CMP is an example of "feature data" according to the technique of the present disclosure.
  • the first derivation unit 150 of the fourth embodiment gives the image data SPIMD of the spectrum SP, which is the physical property data PD, to the autoencoder AE as the input image data IIMD, as in the third embodiment.
  • the image feature map CMP is output from the encoder network 155 of the autoencoder AE.
  • the image feature map CMP is, for example, the smallest image feature map CMP output from the lowest layer of the encoder network 155.
  • the autoencoder AE of the fourth embodiment is prepared for each of a plurality of sections INT1 to INT20 of the spectrum data SPD, like the autoencoder AE of the third embodiment.
  • the autoencoder AE of the fourth embodiment is different from the autoencoder AE of the third embodiment, and the image data SPIMD of the spectrum SP of various product PRs is input image data for learning regardless of the quality level. It was given and learned as IIMDL.
  • the first derivation unit 150 derives the related data PRD based on the image feature map CMP.
  • the image feature map CMP is the output data DIc of channel 1 (Ch1), the output data DIc of channel 2 (Ch2), the output data DIc of channel 3 (Ch3), and the output data DIc of channel 4 (Ch4).
  • the first derivation unit 150 derives the average value of the pixel values as the related data PRD for each of the output data DIcs of channels 1 to 4.
  • the maximum value, the minimum value, the median value, the variance, and the like may be derived as the related data PRD.
  • each section INT1 to the image data SPIMD of the spectrum SP of the product PR whose quality is unknown The average value of the pixel values of the output data DIc of the image feature map CMP of INT20 is derived as the prediction-related data PRDF.
  • the autoencoder AE_INT1 is provided with the image data SPIMD_INT1 of the spectrum SP of the section INT1 as the input image data IIMD.
  • the first derivation unit 150 derives the related data PRD_INT1 of the section INT1 from the image feature map CMP of the encoder network 155 of the autoencoder AE_INT1. Although illustration and description are omitted, related data PRD_INT2 to PRD_INT20 are also derived from the image feature map CMP of the encoder network 155 of the autoencoders AE_INT2 to AE_INT20 for the other sections INT2 to INT20.
  • the related data PRD is derived based on the image feature map CMP output from the encoder network 155 of the autoencoder AE. Therefore, as in the third embodiment, a numerical value (here, the average value of the pixel values of the output data DIc) that accurately represents the physical properties of the product PR can be derived as the related data PRD, and the trained model can be derived. The accuracy of TM prediction can be further improved.
  • the image feature map CMP may be output from a layer other than the lowest layer of the encoder network 155.
  • the related data PRD based on the image feature map CMP may be used instead of the representative values of intensities such as the average value, the maximum value, the minimum value, the median value, the variance, the skewness, and the kurtosis of the first embodiment. However, it may be used in addition. Further, the related data PRD based on the image feature map CMP may be used in place of the related data PRD based on the difference data DD of the third embodiment, or may be used in addition to the related data PRD.
  • the input image data IIMD is not limited to the image data SPIMD of the illustrated spectrum SP.
  • the image data IMD obtained by photographing the product PR of the second embodiment may be used as the input image data IIMD.
  • the autoencoder AE is prepared for each area AR of the image data IMD.
  • the section INTs that divide the spectrum data SPD may overlap each other.
  • the regions AR that divide the image data IMD may also overlap each other.
  • Product PR is not limited to those produced using the flow synthesis method. For example, it may be produced by using a batch synthesis method.
  • the production condition received by the setting unit 25 of the flow reaction device 13 is the production condition data PCD, but the present invention is not limited to this.
  • the value may be the production condition data PCD.
  • the quality prediction display screen 120 is illustrated as the output form of the quality prediction data QFD, but the present invention is not limited to this. Instead of or in addition to the quality prediction display screen 120, a form in which the quality prediction data QFD is printed out on a paper medium and a form in which the quality prediction data QFD is output as a data file may be adopted.
  • machine learning models M that use linear regression, Gaussian process regression, support vector regression, decision tree, ensemble method, bagging method, boosting method, gradient boosting method, and the like. Further, there are those using a simple perceptron, a multi-layer perceptron, a deep neural network, a convolutional neural network, a deep belief network, a recurrent neural network, a stochastic neural network and the like. Which of the machine learning models M illustrated above is used is not particularly limited, and the machine learning model M of any method can be selected.
  • Random forest can be mentioned as an ensemble method. As is well known, Random Forest uses randomly sampled training data and randomly selected explanatory variables to create multiple decision trees with low correlation, and integrates and averages their prediction results. Improve the accuracy of prediction.
  • the control parameters of the machine learning model M in this case include the number of explanatory variables to be selected and the number of branches of the decision tree.
  • Control parameters include the number of network layers and nodes, the type of activation function, the dropout ratio, the mini-batch size, the number of epochs, the learning rate, and the like.
  • Such a machine learning model M has a plurality of execution frameworks, and can be appropriately selected from among them.
  • it can be selected from Tensorflow, CNT (Cognitive Toolkit), Theano, cafe, mxnet, Keras, PyTorch, Chainer, Scikit-learn, Caret, MATLAB (registered trademark) and the like.
  • the hardware configuration of the computer that constitutes the machine learning system 2 can be modified in various ways.
  • the learning device 10 and the operating device 11 may be integrated and configured by one computer.
  • at least one of the learning device 10 and the operating device 11 can be configured by a plurality of computers separated as hardware for the purpose of improving processing power and reliability.
  • the functions of the first derivation unit 76 of the learning device 10 the functions of the learning unit 77, and the functions of the extraction unit 78 are distributed to three computers.
  • the learning device 10 is composed of three computers.
  • the hardware configuration of the computer of the machine learning system 2 can be appropriately changed according to the required performance such as processing power, safety, and reliability.
  • application programs such as the first operation program 70 and the second operation program 110 are duplicated or distributed to a plurality of storage devices for the purpose of ensuring safety and reliability.
  • various processors shown below can be used as the hardware structure of the processing unit (Processing Unit) that executes the processing.
  • the various processors include FPGAs in addition to CPUs 62A and 62B, which are general-purpose processors that execute software (first operation program 70, second operation program 110) and function as various processing units.
  • Programmable logic device Programmable Logic Device: PLD
  • PLD Programmable Logic Device
  • ASIC Application Special Integrated Circuit
  • One processor may be composed of one of these various processors, or a combination of two or more processors of the same type or different types (for example, a combination of a plurality of FPGAs and / or a CPU and a CPU). It may be configured in combination with FPGA). Further, a plurality of processing units may be configured by one processor.
  • one processor is configured by a combination of one or more CPUs and software, as represented by a computer such as a client and a server.
  • a processor functions as a plurality of processing units.
  • SoC system on chip
  • a processor that realizes the functions of the entire system including a plurality of processing units with one IC (Integrated Circuit) chip is used. is there.
  • the various processing units are configured by using one or more of the various processors as a hardware structure.
  • an electric circuit in which circuit elements such as semiconductor elements are combined can be used.
  • [Appendix 1] Input data for learning given to a machine learning model that predicts the quality of a product, and input for learning including multidimensional physical property-related data having a plurality of items derived from the multidimensional physical property data representing the physical properties of the product.
  • high-contribution items satisfying preset conditions to the extent that they contribute to improving the accuracy of quality prediction are extracted from the plurality of items of the multidimensional physical property-related data.
  • Extraction processor and The learning processor that selectively gives the machine learning model the multidimensional property-related data of the high contribution item to train the machine learning model and outputs the machine learning model as a learned model to be used in actual operation.
  • Appendix 2 A second acquisition processor that acquires the trained model output from the main learning processor of the learning device according to Appendix 1.
  • a third acquisition processor that acquires multidimensional property-related data for prediction of products of unknown quality
  • a processing processor that predicts the quality by giving the predicted multidimensional physical property-related data acquired by the third acquisition processor to the trained model acquired by the second acquisition processor.
  • An output control processor that controls the output of the quality prediction result based on the trained model. Operational equipment equipped with.
  • the technique of the present disclosure can be appropriately combined with the various embodiments described above and various modifications.
  • various configurations can be adopted as long as they do not deviate from the gist.
  • the technique of the present disclosure extends to a storage medium for storing the program non-temporarily in addition to the program.
  • a and / or B is synonymous with "at least one of A and B". That is, “A and / or B” means that it may be only A, only B, or a combination of A and B. Further, in the present specification, when three or more matters are connected and expressed by "and / or", the same concept as “A and / or B" is applied.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Quality & Reliability (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Chemical & Material Sciences (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Feedback Control In General (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

生産物の多次元物性データから導出された多次元物性関連データを学習用入力データとして機械学習モデルに与えて学習させる場合に、機械学習モデルによる生産物の品質の予測の精度をより向上させることが可能な学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置を提供する。学習装置の学習部は、生産物の物性データから導出された、複数の項目を有する関連データを含む学習用入力データを第1機械学習モデルに与えて学習させ、仮の機械学習モデルを出力する。抽出部は、仮の機械学習モデルを用いて、関連データの複数の項目の中から、品質の予測の精度の向上に寄与する程度が予め設定された条件を満たす高寄与項目を抽出する。学習部は、高寄与項目の関連データを選択的に第2機械学習モデルに与えて学習させ、第2機械学習モデルを実際の運用に供する学習済みモデルとして出力する。

Description

学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置
 本開示の技術は、学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置に関する。
 生産物の品質を、機械学習モデルを用いて予測することが行われている。特許文献1には、予測の精度を高めるために、生産物の物性を表す物性データから導出された物性関連データを学習用入力データとして学習する機械学習モデルが提案されている。
 特許文献1では、生産物としてコーヒー豆等の飲食品が例示されている。また、特許文献1では、物性データとして、近赤外(NIR;Near Infrared)分光分析データ、フーリエ変換赤外(FT-IR;Fourier Transform Infrared)分光分析データ、核磁気共鳴(NMR;Nuclear Magnetic Resonance)分光分析データ等のスペクトルデータ、あるいは生産物をカメラ等で撮影して得られる画像データが例示されている。そして、物性関連データとして、スペクトルデータから得られる数値、例えばスペクトルの波形の傾き、周期性、振幅、ピーク高さ、ピーク幅等が挙げられている。また、物性関連データとして、生産物をカメラ等で撮影して得られる画像データ自体が挙げられている。
特開2018-018354号公報
 物性データには、生産物の重さ等のように、生産物の一種類の物性を1つのパラメータで表すものもあれば、上記のスペクトルデータ、画像データのように、生産物の一種類の物性を複数のパラメータで表すものもある。より詳しくは、スペクトルデータであれば、スペクトルが生産物の物性であり、例えば波数と強度が複数のパラメータに該当する。画像データであれば、色が生産物の物性であり、赤色、緑色、青色の各画素値が複数のパラメータに該当する。こうした物性データは、パラメータを次元として捉えた場合、多次元の物性データであると言える。対して、生産物の一種類の物性を1つのパラメータで表す物性データは、一次元の物性データであると言える。以下、生産物の一種類の物性を複数のパラメータで表した物性データを、多次元物性データという。また、多次元物性データから導出された物性関連データを、多次元物性関連データという。
 多次元物性関連データは、多くの数値および画像データで構成されるため、比較的項目が多い。こうした多次元物性関連データの多くの項目の中には、機械学習モデルの予測の精度の向上に大いに寄与するものもあれば、ほとんど寄与しないものもある。このため、多次元物性関連データをそのまま機械学習モデルに与えて学習させた場合、学習の成果があまり上がらず、機械学習モデルの予測の精度が比較的低レベルで頭打ちになるおそれがあった。
 本開示の技術は、生産物の多次元物性データから導出された多次元物性関連データを学習用入力データとして機械学習モデルに与えて学習させる場合に、機械学習モデルによる生産物の品質の予測の精度をより向上させることが可能な学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置を提供することを目的とする。
 上記目的を達成するために、本開示の学習装置は、生産物の品質を予測する機械学習モデルに与える学習用入力データであり、生産物の物性を表す多次元物性データから導出された、複数の項目を有する多次元物性関連データを含む学習用入力データを取得する第1取得部と、学習用入力データを機械学習モデルに与えて学習させ、仮の機械学習モデルを出力する仮学習部と、仮の機械学習モデルを用いて、多次元物性関連データの複数の項目の中から、品質の予測の精度の向上に寄与する程度が予め設定された条件を満たす高寄与項目を抽出する抽出部と、高寄与項目の多次元物性関連データを選択的に機械学習モデルに与えて学習させ、機械学習モデルを実際の運用に供する学習済みモデルとして出力する本学習部と、を備える。
 学習用入力データは、生産物の生産工程において設定された生産条件データも含むことが好ましい。
 多次元物性データは、生産物を分光分析して検出されたスペクトルデータを含むことが好ましい。
 多次元物性関連データは、スペクトルデータを分けた複数の区間のそれぞれについて導出した強度の代表値であることが好ましい。
 多次元物性データは、生産物を撮影して得られる画像データを含むことが好ましい。
 生産物は、フロー合成法を用いて生産されたものであることが好ましい。
 多次元物性データにオートエンコーダの少なくとも一部を適用して、多次元物性関連データを導出する導出部を備えることが好ましい。
 オートエンコーダは、品質が予め設定されたレベルよりも良好な生産物の多次元物性データを与えられて学習されたものであり、導出部は、オートエンコーダに多次元物性データを与えて出力データを出力させ、オートエンコーダに与えた多次元物性データと出力データとの差分データに基づいて多次元物性関連データを導出することが好ましい。
 導出部は、オートエンコーダに多次元物性データを与えて、オートエンコーダのエンコーダネットワークから特徴データを出力させ、特徴データに基づいて多次元物性関連データを導出することが好ましい。
 多次元物性データは、生産物を分光分析して検出されたスペクトルデータで表されるスペクトルの画像データを含むことが好ましい。
 導出部は、スペクトルデータを分けた複数の区間のそれぞれについて多次元物性関連データを導出することが好ましい。
 本開示の運用装置は、学習装置の本学習部から出力された学習済みモデルを取得する第2取得部と、品質が未知の生産物の予測用多次元物性関連データを取得する第3取得部と、第2取得部において取得した学習済みモデルに、第3取得部において取得した、品質が未知の生産物の予測用多次元物性関連データを与えて品質を予測させる処理部と、学習済みモデルによる品質の予測結果を出力する制御を行う出力制御部と、を備える。
 本開示の学習装置の作動方法は、生産物の品質を予測する機械学習モデルに与える学習用入力データであり、生産物の物性を表す多次元物性データから導出された、複数の項目を有する多次元物性関連データを含む学習用入力データを取得する第1取得ステップと、学習用入力データを機械学習モデルに与えて学習させ、仮の機械学習モデルを出力する仮学習ステップと、仮の機械学習モデルを用いて、多次元物性関連データの複数の項目の中から、品質の予測の精度の向上に寄与する程度が予め設定された条件を満たす高寄与項目を抽出する抽出ステップと、高寄与項目の多次元物性関連データを選択的に機械学習モデルに与えて学習させ、機械学習モデルを実際の運用に供する学習済みモデルとして出力する本学習ステップと、を備える。
 本開示の学習装置の作動プログラムは、生産物の品質を予測する機械学習モデルに与える学習用入力データであり、生産物の物性を表す多次元物性データから導出された、複数の項目を有する多次元物性関連データを含む学習用入力データを取得する第1取得部と、学習用入力データを機械学習モデルに与えて学習させ、仮の機械学習モデルを出力する仮学習部と、仮の機械学習モデルを用いて、多次元物性関連データの複数の項目の中から、品質の予測の精度の向上に寄与する程度が予め設定された条件を満たす高寄与項目を抽出する抽出部と、高寄与項目の多次元物性関連データを選択的に機械学習モデルに与えて学習させ、機械学習モデルを実際の運用に供する学習済みモデルとして出力する本学習部として、コンピュータを機能させる。
 本開示の技術によれば、生産物の多次元物性データから導出された多次元物性関連データを学習用入力データとして機械学習モデルに与えて学習させる場合に、機械学習モデルによる生産物の品質の予測の精度をより向上させることが可能な学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置を提供することができる。
機械学習システム、フロー反応装置、物性分析装置、品質評価装置を示す図である。 フロー反応装置と物性分析装置と品質評価装置における処理の概要を示す図である。 学習装置と運用装置における処理の概要を示す図である。 生産条件データ、物性データ、関連データ、および品質データが共通のIDで関連付けられていることを示す図である。 T字形状の合流部をもつ反応セクションを有するフロー反応装置を示す図である。 十字形状の合流部をもつ反応セクションを有するフロー反応装置を示す図である。 生産条件データを示す図である。 スペクトルデータとスペクトルを示す図である。 品質データを示す図である。 学習装置および運用装置を構成するコンピュータを示すブロック図である。 学習装置のCPUの処理部を示すブロック図である。 スペクトルデータを分けた複数の区間を示す図である。 第1導出部により、スペクトルデータを分けた複数の区間のそれぞれについて、関連データを導出する様子を示す図である。 学習部の詳細を示す図である。 仮学習における第1処理部の処理を示す図である。 抽出部の詳細を示す図である。 第2処理部の処理を示す図である。 第3処理部の処理を示す図である。 算出部の処理を示す図である。 算出部の処理の具体例を示す図である。 寄与度情報を示す図である。 判定部の処理を示す図である。 本学習における第1処理部の処理を示す図である。 運用装置のCPUの処理部を示すブロック図である。 第4処理部の処理を示す図である。 品質予測表示画面を示す図である。 学習装置の処理手順を示すフローチャートである。 仮学習の処理手順を示すフローチャートである。 高寄与項目の抽出の処理手順を示すフローチャートである。 本学習の処理手順を示すフローチャートである。 運用装置の処理手順を示すフローチャートである。 比較例と実施例の分子量分散度の決定係数および分子量の決定係数を示す表である。 画像データを示す図である。 画像データを分けた複数の領域を示す図である。 第1導出部により、画像データを分けた複数の領域のそれぞれについて、関連データを導出する様子を示す図である。 物性データにオートエンコーダを適用して、関連データを導出する様子を示す図である。 オートエンコーダを示す図である。 畳み込み処理の説明図である。 画像特徴マップを示す図である。 オートエンコーダがスペクトルデータの複数の区間毎に用意されていることを示す図である。 品質が予め設定されたレベルよりも良好な生産物のスペクトルの画像データを、オートエンコーダに学習用入力画像データとして与えて学習させる様子を示す図である。 オートエンコーダの入力画像データと出力画像データとの差分データを算出する様子を示す図である。 第1導出部により、スペクトルデータを分けた複数の区間のそれぞれについて、関連データとして差分データの平均値および総和を導出する様子を示す図である。 画像特徴マップに基づいて関連データを導出する様子を示す図である。
 [第1実施形態]
 図1において、機械学習システム2は、学習装置10および運用装置11を備える。学習装置10および運用装置11は、例えばデスクトップ型のパーソナルコンピュータである。学習装置10および運用装置11は、ネットワーク12を介して相互に通信可能に接続されている。ネットワーク12は、例えば、LAN(Local Area Network)、もしくはインターネット、公衆通信網等のWAN(Wide Area Network)である。ネットワーク12には、フロー反応装置13、物性分析装置14、および品質評価装置15も接続されている。
 図2において、フロー反応装置13は、フロー合成法により、生産工程における生産条件データPCDにしたがって、原料RMから生産物PRを生産する。物性分析装置14は、生産物PRの物性を分析し、その分析結果である物性データPDを出力する。品質評価装置15は、生産物PRの品質を評価し、その評価結果である品質データQDを出力する。フロー反応装置13から生産条件データPCDが、物性分析装置14から物性データPDが、品質評価装置15から品質データQDが、それぞれ学習装置10に送信される。
 図3において、学習装置10は、フロー反応装置13からの生産条件データPCD、物性分析装置14からの物性データPD、および品質評価装置15からの品質データQDを取得する。学習装置10は、物性データPDから物性関連データ(以下、関連データと略す)PRDを導出する。この関連データPRDと、生産条件データPCDとで、学習用入力データIDLが構成される。生産条件データPCD、物性データPD、物性データPDから導出された関連データPRD、および品質データQDは、図4に示すように、1つの生産物PRに対して付された共通のID(Identification Data)で関連付けられている。
 学習装置10は機械学習モデルMを有する。機械学習モデルMは、生産物PRの品質を予測するためのモデルである。学習装置10は、この機械学習モデルMの予測の精度を高めるため、同じIDが付された生産条件データPCDおよび関連データPRDで構成される学習用入力データIDLを機械学習モデルMに与える(図15等参照)。機械学習モデルMは、学習用入力データIDLに応じた学習用出力データODLを出力する。
 品質データQDは、学習用出力データODLとの答え合わせを行うためのデータである。機械学習モデルMの予測の精度が高いほど、品質データQDと学習用出力データODLとの差異は小さくなる。このため、学習装置10は、学習用出力データODLと、学習用入力データIDLと同じIDが付された品質データQDとを比較し、機械学習モデルMの予測の精度を評価する。そして、この評価結果に応じて、機械学習モデルMを更新する。学習装置10は、学習用入力データIDLの機械学習モデルMへの入力と学習用出力データODLの機械学習モデルMからの出力、機械学習モデルMの予測の精度の評価、および機械学習モデルMの更新を、学習用入力データIDLおよび品質データQDを変更しつつ行う。そして、これら一連の処理を、機械学習モデルMの予測の精度が予め設定されたレベルとなるまで繰り返す。学習装置10は、予測の精度が予め設定されたレベルとなった機械学習モデルMを、実際の運用に供する学習済みモデルTMとして運用装置11に送信する。
 運用装置11は、学習装置10からの学習済みモデルTMを受信する。運用装置11は、品質が未知の生産物PRの生産条件データである予測用生産条件データPCDF、および品質が未知の生産物PRの関連データである予測用物性関連データ(以下、予測用関連データと略す)PRDFを学習済みモデルTMに与える。予測用関連データPRDFは、関連データPRDと同様に、品質が未知の生産物PRの物性データPDである予測用物性データPDF(図24参照)から導出したデータである。学習済みモデルTMは、これら予測用生産条件データPCDFおよび予測用関連データPRDFに応じた品質予測データQFDを出力する。
 フロー反応装置13で行われるフロー反応は、モノマーを合成する合成反応、あるいはモノマー同士を反応させることにより重合体を生成する重合反応等である。したがって、生産物PRは、例えば重合反応の対象となる成長段階の化合物であってもよい。本例においては、フロー反応装置13は、生産物PRであるポリスチレンのアニオン重合反応をフロー反応で行う。
 図5において、フロー反応装置13は、第1原料供給部20、第2原料供給部21、反応セクション22、温度調節部23、回収廃棄セクション24、設定部25、システムコントローラ26等を備えている。
 第1原料供給部20は、反応セクション22の上流側端部と、図示しない配管によって接続されている。第1原料供給部20は、第1原料RM1を反応セクション22に供給する。第1原料供給部20は、第1原料RM1を反応セクション22に送り出すためのポンプを有している。このポンプの回転数を制御することにより、第1原料供給部20から反応セクション22に送り出される第1原料RM1の流量が調節される。
 本例において、第1原料RM1は、ポリスチリルリチウムを溶媒に溶解した溶液である。ポリスチリルリチウムは、生産物PRであるポリスチレンのアニオン重合反応の開始剤として機能する。溶媒にはテトラヒドロフランが用いられる。また、溶液にはトルエンおよびヘキサンが少量混合されている。なお、フロー反応の原料は、第1原料RM1のようにポリスチリルリチウム等の反応物と他の物質との混合物であってもよいし、反応物のみで構成されていてもよい。
 第2原料供給部21は、第1原料供給部20と同じく、反応セクション22の上流側端部と、図示しない配管によって接続されている。第2原料供給部21は、第2原料RM2を反応セクション22に供給する。第2原料供給部21も、第1原料供給部20と同じく、第2原料RM2を反応セクション22に送り出すためのポンプを有している。このポンプの回転数を制御することにより、第2原料供給部21から反応セクション22に送り出される第2原料RM2の流量が調節される。
 本例において、第2原料RM2は、メタノール水溶液である。メタノールはアニオン重合反応の停止剤として用いられる。
 反応セクション22は、フロー反応(本例においてはアニオン重合反応)を行うためのセクションである。反応セクション22は、合流部30と反応部31とを有する。合流部30は、第1管部32、第2管部33、および第3管部34で構成される。第1管部32と第2管部33は直線状に繋がっており、第3管部34は第1管部32および第2管部33と直角に交差している。すなわち合流部30はT字形状をしている。
 第1管部32は第1原料供給部20に、第2管部33は第2原料供給部21に、それぞれ接続されている。また、第3管部34は、反応部31に接続されている。第1管部32には第1原料供給部20から第1原料RM1が、第2管部33には第2原料供給部21から第2原料RM2が、それぞれ供給される。そして、第1原料RM1および第2原料RM2は、第3管部34において合流し、混合された状態で反応部31に送り出される。
 第1管部32には、第1管部32を通過する第1原料RM1の流速を検出する第1流速センサ35が設けられている。また、第2管部33には、第2管部33を通過する第2原料RM2の流速を検出する第2流速センサ36が設けられている。さらに、第3管部34には、第3管部34を通過する第1原料RM1と第2原料RM2の混合物の流速を検出する第3流速センサ37が設けられている。
 反応部31は、複数本の同じ内径の直管を直線状に繋げた細長い管である。反応部31は、繋げる直管の本数および/または直管の長さを変えることで、長さLを変更可能である。また、反応部31は、繋げる直管の内径を変えることで、内径Φを変更可能である。
 反応部31の内部は、第1原料RM1と第2原料RM2との混合物が流れる流路であり、フロー反応を行う場である。混合物が反応部31を通過することで、フロー反応が進められ、ポリスチレン溶液とされる。合流部30の第3管部34においてもフロー反応は若干進むが、反応部31の長さLに対して第3管部34の長さは非常に短い。このため、第3管部34は無視し、反応部31の長さLを、フロー反応を行う場の長さである反応路長と見なす。同様に、反応部31の内径Φを、フロー反応を行う場の径である反応路径と見なす。
 温度調節部23は、加熱器および/または冷却器を含み、反応部31の内部の温度(以下、反応温度という)を調節する。反応部31の下流側端部には、反応温度を検出する温度センサ38が設けられている。
 回収廃棄セクション24は、生産物PRであるポリスチレンを回収し、かつ反応が失敗した廃棄物を廃棄するセクションである。回収廃棄セクション24は、回収部40と廃棄部41とを有する。回収部40と廃棄部41とは、反応部31の下流側端部と三方弁42によって接続されている。この三方弁42により、反応部31と回収部40とを接続する回収ラインと、反応部31と廃棄部41とを接続する廃棄ラインとの切り替えが可能である。
 回収部40は、ポリスチレン溶液からポリスチレンを析出させる。回収部40は、析出させたポリスチレンを溶液からろ過して採取する。そして、採取したポリスチレンを乾燥させる。より詳しくは、回収部40は、攪拌機を備えた容器をもち、当該容器にメタノールを収容し、攪拌されているメタノール中にポリスチレン溶液を混入することで、ポリスチレンを析出させる。また、回収部40は、減圧機能付きの恒温槽をもち、恒温槽内部を減圧状態にして加熱することで、メタノールを乾燥させる。
 廃棄部41は、廃棄物を貯留するタンクである。ここで廃棄物とは、第1原料RM1の流速、第2原料RM2の流速、混合物の流速、反応温度等が何らかの要因で乱され、当初予定していた生産条件にて生産できなかった場合に、反応部31から送り出されたものである。
 設定部25は、フロー反応装置13のオペレータによる生産物PRの生産工程における生産条件の設定を受け付ける。この設定部25で受け付けられた生産条件が、生産物PRの生産工程において設定された生産条件データPCDとしてシステムコントローラ26に登録される。
 システムコントローラ26は、フロー反応装置13の全体の動作を統括的に制御する。システムコントローラ26は、第1原料供給部20、第2原料供給部21、温度調節部23、第1流速センサ35、第2流速センサ36、第3流速センサ37、温度センサ38、および三方弁42と接続されている。
 システムコントローラ26は、第1流速センサ35が検出した第1原料RM1の流速に応じて、第1原料供給部20のポンプの回転数を制御し、第1原料RM1の流量を調節する。同様に、システムコントローラ26は、第2流速センサ36が検出した第2原料RM2の流速に応じて、第2原料供給部21のポンプの回転数を制御し、第2原料RM2の流量を調節する。また、システムコントローラ26は、温度センサ38が検出した反応温度に応じて、温度調節部23を駆動させる。さらに、システムコントローラ26は、三方弁42を制御して、前述の回収ラインと廃棄ラインとを切り替える。
 反応セクション22に代えて、図6に示す反応セクション45を用いてもよい。なお、図6において、図5と同じ構成には同じ符号を付し、説明を省略する。
 図6に示す反応セクション45の合流部46は、第1管部47、第2管部48、第3管部49、および第4管部50で構成される。第1管部47と第2管部48は直線状に繋がっている。同じく、第3管部49と第4管部50は直線状に繋がっている。そして、第1管部47および第2管部48は、第3管部49および第4管部50と直角に交差している。すなわち合流部46は十字形状をしている。
 第1管部47および第2管部48は第1原料供給部20に、第3管部49は第2原料供給部21に、それぞれ接続されている。また、第4管部50は、反応部31に接続されている。第1管部47および第2管部48には第1原料供給部20から第1原料RM1が、第3管部49には第2原料供給部21から第2原料RM2が、それぞれ供給される。そして、第1原料RM1および第2原料RM2は、第4管部50において合流し、混合された状態で反応部31に送り出される。
 第1管部47および第2管部48には、第1管部47および第2管部48を通過する第1原料RM1の流速を検出する第1流速センサ51および第2流速センサ52が設けられている。また、第3管部49には、第3管部49を通過する第2原料RM2の流速を検出する第3流速センサ53が設けられている。さらに、第4管部50には、第4管部50を通過する第1原料RM1と第2原料RM2の混合物の流速を検出する第4流速センサ54が設けられている。
 この場合、システムコントローラ26は、第1流速センサ51が検出した第1原料RM1の流速と、第2流速センサ52が検出した第1原料RM1の流速の平均値に応じて、第1原料供給部20のポンプの回転数を制御し、第1原料RM1の流量を調節する。また、システムコントローラ26は、第3流速センサ53が検出した第2原料RM2の流速に応じて、第2原料供給部21のポンプの回転数を制御し、第2原料RM2の流量を調節する。
 図7において、生産条件データPCDは、第1原料RM1の濃度(単位:mol/l)および流速(単位:ml/min)、第2原料RM2の濃度(単位:mol/l)および流速(単位:ml/min)、合流部の形状、反応路径Φ(単位:mm)、反応路長L(単位:m)、および反応温度(単位:℃)の各項目を有する。合流部の形状の項目には、図5で示した反応セクション22を用いた場合は図示の「T字状」が、図6で示した反応セクション45を用いた場合は「十字状」(図17等参照)が、それぞれ登録される。なお、混合物の流速を生産条件データPCDの項目として加えてもよい。
 反応セクション22を用いた場合、システムコントローラ26は、第1流速センサ35が検出した第1原料RM1の流速が、生産条件データPCDに登録された第1原料RM1の流速と一致するよう、第1原料供給部20のポンプの回転数を制御して第1原料RM1の流量を調節する。同様に、システムコントローラ26は、第2流速センサ36が検出した第2原料RM2の流速が、生産条件データPCDに登録された第2原料RM2の流速と一致するよう、第2原料供給部21のポンプの回転数を制御して第2原料RM2の流量を調節する。
 反応セクション45を用いた場合、システムコントローラ26は、第1流速センサ51が検出した第1原料RM1の流速と、第2流速センサ52が検出した第1原料RM1の流速の平均値が、生産条件データPCDに登録された第1原料RM1の流速と一致するよう、第1原料供給部20のポンプの回転数を制御して第1原料RM1の流量を調節する。同様に、システムコントローラ26は、第3流速センサ53が検出した第2原料RM2の流速が、生産条件データPCDに登録された第2原料RM2の流速と一致するよう、第2原料供給部21のポンプの回転数を制御して第2原料RM2の流量を調節する。
 また、システムコントローラ26は、温度センサ38が検出した反応温度が、生産条件データPCDに登録された反応温度と一致するよう、温度調節部23を駆動させる。
 システムコントローラ26は、各センサ35、36、38、51、52、53で検出した各値と、生産条件データPCDに登録された各値との乖離が、予め設定された範囲を超えた場合、三方弁42を制御して廃棄ラインに切り替え、廃棄物を廃棄部41に導く。なお、反応が失敗して廃棄物が出た場合は、当然ながら物性データPDおよび品質データQDは出力されない。このため、廃棄物が出た場合の生産条件データPCDは、学習装置10には送信されずに破棄される。
 図8において、物性分析装置14は、生産物PRを分光分析して、物性データPDとしてスペクトルデータSPDを検出する。物性分析装置14は、分光分析として、例えば、近赤外分光分析、フーリエ変換赤外分光分析、ラマン分光分析、核磁気共鳴分光分析を行う。図8に例示するスペクトルデータSPDは、ラマン分光分析で得られたものであり、波数と強度の組で構成される。すなわち、スペクトルデータSPDは、本開示の技術に係る「多次元物性データ」の一例である。このスペクトルデータSPDの強度を波数毎にプロットして線で繋いだものが、スペクトルSPである。なお、波数と強度の組に代えて、波長と強度の組でスペクトルデータSPDが構成されていてもよい。
 図9において、品質評価装置15は、品質データQDとして、生産物PRの分子量分散度および分子量を出力する。分子量は、ここでは数平均分子量である。また、分子量分散度は、重量平均分子量を数平均分子量で除算した値である。品質評価装置15は、例えば、生産物PRであるポリスチレンをテトラヒドロフランに溶解したポリスチレン溶液を用いて、ゲルパーミエーションクロマトグラフィ(以下、GPC(Gel Permeation Chromatography)と略す)により分子量分散度および分子量を求める。
 GPCは、下記の条件で行っている。
 装置:HLC-8220GPC(東ソー(株)製)
 検出器:示差屈折計(RI(Refractive Index)検出器)
 プレカラム:TSKGUARDCOLUMN HXL-L 6mm×40mm(東ソー(株)製)
 サンプル側カラム:以下(1)~(3)の3本を順に直結(全て東ソー(株)製)
 (1)TSK-GEL GMHXL 7.8mm×300mm
 (2)TSK-GEL G4000HXL 7.8mm×300mm
 (3)TSK-GEL G2000HXL 7.8mm×300mm
 リファレンス側カラム:TSK-GEL G1000HXL 7.8mm×300mm
 恒温槽温度:40℃
 移動層:テトラヒドロフラン
 サンプル側移動層流量:1.0ml/min
 リファレンス側移動層流量:1.0ml/min
 試料濃度:0.1質量%
 試料注入量:100μl
 データ採取時間:試料注入後5分~45分
 サンプリングピッチ:300msec
 なお、GPCに代えて、赤外分光分析、核磁気共鳴分光分析、高速液体クロマトグラフィ(HPLC;High Performance Liquid Chromatography)、またはガスクロマトグラフィ(GC;Gas Chromatography)等、各種の手法を用いてもよい。また、品質データQDは、生産物PRの分子量分散度および分子量に限らない。生産物PRが溶液の状態で得られる場合は、溶液中の生産物PRの濃度であるモル濃度を品質データQDとしてもよい。あるいは、生産物PRの量を原料RMの量で除算した生産物PRの収率を品質データQDとしてもよい。さらには、副生産物が生産された場合は、副生産物の収率等を品質データQDとしてもよい。
 図10において、学習装置10および運用装置11を構成するコンピュータは、基本的な構成は同じであり、ストレージデバイス60、メモリ61、CPU(Central Processing Unit)62、通信部63、ディスプレイ64、および入力デバイス65を備えている。これらはバスライン66を介して相互接続されている。
 ストレージデバイス60は、学習装置10等を構成するコンピュータに内蔵、またはケーブル、ネットワークを通じて接続されたハードディスクドライブである。もしくはストレージデバイス60は、ハードディスクドライブを複数台連装したディスクアレイである。ストレージデバイス60には、オペレーティングシステム等の制御プログラム、各種アプリケーションプログラム、およびこれらのプログラムに付随する各種データ等が記憶されている。なお、ハードディスクドライブに代えて、あるいは加えて、ソリッドステートドライブを用いてもよい。
 メモリ61は、CPU62が処理を実行するためのワークメモリである。CPU62は、ストレージデバイス60に記憶されたプログラムをメモリ61へロードして、プログラムにしたがった処理を実行することにより、コンピュータの各部を統括的に制御する。
 通信部63は、ネットワーク12を介した各種情報の伝送制御を行うネットワークインターフェースである。ディスプレイ64は各種画面を表示する。学習装置10等を構成するコンピュータは、各種画面を通じて、入力デバイス65からの操作指示の入力を受け付ける。入力デバイス65は、キーボード、マウス、タッチパネル等である。
 なお、以下の説明では、学習装置10の各部に添え字の「A」を、運用装置11の各部に添え字の「B」を、それぞれ付して区別する。
 図11において、学習装置10のストレージデバイス60Aには、第1作動プログラム70が記憶されている。第1作動プログラム70は、コンピュータを学習装置10として機能させるためのアプリケーションプログラムである。すなわち、第1作動プログラム70は、本開示の技術に係る「学習装置の作動プログラム」の一例である。
 ストレージデバイス60Aには、フロー反応装置13からの生産条件データPCD、物性分析装置14からの物性データPD、および品質評価装置15からの品質データQDも記憶される。また、ストレージデバイス60Aには、物性データPDから導出された関連データPRD、および機械学習モデルMも記憶される。生産条件データPCD、物性データPD、関連データPRD、および品質データQDのセットは、複数記憶されている。
 第1作動プログラム70が起動されると、学習装置10を構成するコンピュータのCPU62Aは、メモリ61等と協働して、第1リードライト(以下、RW(Read Write)と略す)制御部75、第1導出部76、学習部77、抽出部78、および送信制御部79として機能する。
 第1RW制御部75は、ストレージデバイス60A内の各種データの読み出し、およびストレージデバイス60Aへの各種データの記憶を制御する。第1RW制御部75は、ストレージデバイス60Aから物性データPDを読み出し、物性データPDを第1導出部76に出力する。また、第1RW制御部75は、第1導出部76からの関連データPRDをストレージデバイス60Aに記憶する。
 第1RW制御部75は、ストレージデバイス60Aから関連データPRD、生産条件データPCD、および品質データQDを読み出し、これらを学習部77に出力する。関連データPRDおよび生産条件データPCDは学習用入力データIDLを構成するため、第1RW制御部75は、関連データPRDおよび生産条件データPCDをストレージデバイス60Aから読み出すことで、学習用入力データIDLを取得していることになる。すなわち、第1RW制御部75は、本開示の技術に係る「第1取得部」の一例である。
 第1RW制御部75は、ストレージデバイス60Aから機械学習モデルMを読み出し、機械学習モデルMを学習部77、抽出部78、および送信制御部79のいずれかに出力する。また、第1RW制御部75は、学習部77からの機械学習モデルMをストレージデバイス60Aに記憶する。
 第1導出部76は、第1RW制御部75からの物性データPDを受け取る。第1導出部76は、物性データPDから関連データPRDを導出する。第1導出部76は、導出した関連データPRDに物性データPDと同じIDを付し、関連データPRDを第1RW制御部75に出力する。第1導出部76は、物性分析装置14から新たな物性データPDが送信される度に、関連データPRDの導出を行う。
 学習部77は、第1RW制御部75からの学習用入力データIDL、品質データQD、および機械学習モデルMを受け取る。学習部77は、学習用入力データIDLを機械学習モデルMに与えて学習させ、仮の機械学習モデルPM(図16参照)を出力する。すなわち、学習部77は、本開示の技術に係る「仮学習部」の一例である。以下、学習部77が仮学習部として機能する期間において用いられる機械学習モデルMを、第1機械学習モデルM1(図15参照)と表記する。
 抽出部78は、第1RW制御部75からの機械学習モデルMを受け取る。抽出部78が第1RW制御部75から受け取る機械学習モデルMは、仮の機械学習モデルPMである。抽出部78は、仮の機械学習モデルPMを用いて、関連データPRDの複数の項目の中から高寄与項目を抽出する。高寄与項目は、生産物PRの品質の予測の精度の向上に寄与する程度が予め設定された条件を満たす項目である。抽出部78は、高寄与項目の抽出結果である高寄与項目情報HCIIを学習部77に出力する。また、図示は省略したが、抽出部78は、高寄与項目情報HCIIを第1RW制御部75に出力し、第1RW制御部75は、高寄与項目情報HCIIをストレージデバイス60Aに記憶する。
 学習部77は、抽出部78からの高寄与項目情報HCIIを受け取る。学習部77は、高寄与項目情報HCIIに基づいて、高寄与項目の関連データPRDを選択的に機械学習モデルMに与えて学習させ、機械学習モデルMを学習済みモデルTMとして出力する。すなわち、学習部77は、本開示の技術に係る「本学習部」の一例である。以下、学習部77が本学習部として機能する期間において用いられる機械学習モデルMを、第2機械学習モデルM2(図23参照)と表記する。
 送信制御部79は、第1RW制御部75からの機械学習モデルMを受け取る。送信制御部79が第1RW制御部75から受け取る機械学習モデルMは、学習済みモデルTMである。送信制御部79は、学習済みモデルTMを運用装置11に送信する制御を行う。また、送信制御部79は、学習済みモデルTMとともに高寄与項目情報HCIIを第1RW制御部75から受け取り、高寄与項目情報HCIIも運用装置11に送信する制御を行う。
 図12および図13に示すように、第1導出部76は、スペクトルデータSPDを分けた複数の区間のそれぞれについて、関連データPRDを導出する。第1導出部76は、関連データPRDとして、強度の代表値を導出する。なお、この関連データPRDは、本開示の技術に係る「多次元物性関連データ」の一例である。
 図12では、スペクトルデータSPDを分けた複数の区間として、スペクトルデータSPDを20等分に分けた20個の区間INT1、INT2、INT3、・・・、INT20を例示している。そして、図13では、各区間INT1~INT20の各スペクトルデータSPD_INT1~SPD_INT20の強度の代表値である平均値、最大値、最小値、中央値、分散、歪度、および尖度を、関連データPRD_INT1~PRD_INT20として導出した例を示している。この例の場合、関連データPRD_INT1~PRD_INT20を統合した関連データPRDのトータルの項目数は、代表値が7種で区間が20区間であるため、7×20=140個となる。
 図14に示すように、学習部77は、第1処理部85、評価部86、および更新部87を有する。第1処理部85は、学習用入力データIDLを機械学習モデルMに与えて、機械学習モデルMから学習用出力データODLを出力させる。学習用出力データODLは、品質データQDと同じく、分子量分散度および分子量で構成される(図15等参照)。第1処理部85は、学習用出力データODLを評価部86に出力する。
 評価部86は、第1処理部85からの学習用出力データODLを受け取る。評価部86は、学習用出力データODLと品質データQDとを比較し、機械学習モデルMの予測の精度を評価する。評価部86は、評価結果を更新部87に出力する。
 評価部86は、例えば、損失関数を用いて機械学習モデルMの予測の精度を評価する。損失関数は、学習用出力データODLと品質データQDとの差異の程度を表す関数である。損失関数の算出値が0に近いほど、機械学習モデルMの予測の精度が高いことを示す。
 更新部87は、評価部86からの評価結果に応じて、機械学習モデルMを更新する。例えば、更新部87は、学習係数を伴う確率的勾配降下法等により、機械学習モデルMの各種パラメータの値を変化させる。学習係数は、機械学習モデルMの各種パラメータの値の変化幅を示す。すなわち、学習係数が比較的大きい値であるほど、各種パラメータの値の変化幅は大きくなり、機械学習モデルMの更新度合いも大きくなる。
 これら第1処理部85による機械学習モデルMへの学習用入力データIDLの入力と評価部86への学習用出力データODLの出力、評価部86による予測の精度の評価、および更新部87による機械学習モデルMの更新は、予測の精度が予め設定されたレベルとなるまで、繰り返し続けられる。
 図15に示すように、学習部77が仮学習部として機能する期間では、第1処理部85は、生産条件データPCDおよび関連データPRDの複数の項目を、余すところなく学習用入力データIDLとして第1機械学習モデルM1に与える。そして、評価部86による第1機械学習モデルM1の予測の精度の評価、および更新部87による第1機械学習モデルM1の更新が行われる。こうした処理が学習用入力データIDLを変えつつ繰り返し続けられることで、第1機械学習モデルM1は予測の精度が予め設定されたレベルに達する。予測の精度が予め設定されたレベルに達した第1機械学習モデルM1は、仮の機械学習モデルPMとして、第1RW制御部75によりストレージデバイス60Aに記憶される。
 図16に示すように、抽出部78は、第2処理部90、第3処理部91、算出部92、および判定部93を有する。第2処理部90は、学習用入力データIDLを仮の機械学習モデルPMに与えて、仮の機械学習モデルPMから仮の出力データPODを出力させる。仮の出力データPODは、学習用出力データODLと同じく、分子量分散度および分子量で構成される(図17等参照)。第2処理部90は、仮の出力データPODを算出部92に出力する。
 第3処理部91は、第2処理部90で仮の機械学習モデルPMに与えたものと同じ生産条件データPCDと、抽出用物性関連データ(以下、抽出用関連データと略す)PRDEとを仮の機械学習モデルPMに与えて、仮の機械学習モデルPMから抽出用仮の出力データPODEを出力させる。抽出用仮の出力データPODEは、学習用出力データODLと同じく、分子量分散度および分子量で構成される(図18等参照)。第3処理部91は、抽出用仮の出力データPODEを算出部92に出力する。
 算出部92は、第2処理部90からの仮の出力データPODと第3処理部91からの抽出用仮の出力データPODEとを受け取る。算出部92は、仮の出力データPODおよび抽出用仮の出力データPODEに基づいて、関連データPRDの項目が第1機械学習モデルM1の品質の予測の精度の向上に寄与する程度である関連データPRDの項目の寄与度を算出する。算出部92は、寄与度の算出結果である寄与度情報CIを判定部93に出力する。
 判定部93は、算出部92からの寄与度情報CIを受け取る。判定部93は、寄与度情報CIと設定条件SCとに基づいて、関連データPRDの複数の項目の各々が高寄与項目であるか否かを判定する。判定部93は、判定結果として高寄与項目情報HCIIを学習部77に出力する。
 図17に示すように、第2処理部90においては、図15で示した第1処理部85の場合と同様に、関連データPRDの複数の項目が余すところなく仮の機械学習モデルPMに与えられる。対して図18に示すように、第3処理部91においては、関連データPRDの複数の項目のうちの1つの項目が除かれた抽出用関連データPRDEが仮の機械学習モデルPMに与えられる。なお、図18では、第1区間INT1の関連データPRD_INT1の平均値の項目が除かれた例を示している。
 図19および図20に示すように、算出部92は、まず、仮の出力データPODおよび抽出用仮の出力データPODEから、変化率を算出する。変化率は、以下の(式1)で求められる。
 変化率=|仮の出力データと抽出用仮の出力データとの差分|/仮の出力データ・・・(式1)
 変化率は、抽出用関連データPRDEにおいて除かれた項目の影響で、仮の機械学習モデルPMの出力データがどの程度変化するかを示す値である。
 次いで、算出部92は、変化率を寄与度に変換する変換表100を用いて、変化率を寄与度に変換する。変換表100には、変化率が0以上0.05未満の場合に寄与度0が、変化率が0.05以上0.1未満の場合に寄与度1が、・・・、変化率が0.45以上0.5未満の場合に寄与度9が、変化率が0.5以上の場合に寄与度10が、それぞれ登録されている。
 図20は、図17で示した仮の出力データPODの分子量分散度=1.5865、分子量=22000、図18で示した抽出用仮の出力データPODEの分子量分散度=1.6043、分子量=26000の場合を例示している。この場合、分子量分散度の変化率=|1.5865-1.6043|/1.5865≒0.01である。変換表100によれば、変化率が0.01の場合、寄与度は0であるため、分子量分散度の変化率を変換した寄与度は0と算出される。同様に、分子量の変化率=|22000-26000|/22000≒0.18であるので、分子量の変化率を変換した寄与度は3と算出される。こうして算出した寄与度は、抽出用関連データPRDEにおいて除かれた項目(図20においては関連データPRD_INT1の平均値の項目)の寄与度である。
 第3処理部91は、除く項目を1つずつ変更しながら、次々に抽出用関連データPRDEを仮の機械学習モデルPMに与えていく。本例においては、関連データPRDの項目数は140個あるため、第3処理部91は140個の抽出用関連データPRDEを仮の機械学習モデルPMに与える。また、算出部92は、各抽出用関連データPRDEについて寄与度を算出する。なお、変化率の値の信頼性を高めるため、1組の生産条件データPCDと関連データPRDだけでなく、異なる複数の組の生産条件データPCDと関連データPRDについて変化率を算出し、その平均値を寄与度に変換してもよい。
 図21に示すように、寄与度情報CIには、関連データPRDの複数の項目の各々の寄与度が登録されている。各項目の横の2つの数値が寄与度であり、左側は分子量分散度の変化率を変換した寄与度、右側は分子量の変化率を変換した寄与度である。例えば、第1区間INT1の最大値の分子量分散度の変化率を変換した寄与度は8、分子量の変化率を変換した寄与度は6である。
 図22は、設定条件SCが、「分子量分散度の変化率を変換した寄与度および分子量の変化率を変換した寄与度がともに6以上」で、寄与度情報CIが図21に例示したものであった場合を示す。この場合、判定部93は、分子量分散度の変化率を変換した寄与度および分子量の変化率を変換した寄与度がともに6以上である、第1区間INT1の最大値、分散、歪度、尖度、第2区間INT2の中央値、分散、歪度、尖度、・・・、第20区間INT20の平均値、最大値、最小値、歪度のハッチングで示す各項目を、高寄与項目であると判定する。
 なお、このように、複数のデータ(本例においては関連データPRDの複数の項目)から本質部分(本例においては高寄与項目)を抽出する手法は、スパースモデリングと呼ばれる。こうしたスパースモデリングは、例えば、R言語上で動作可能なglmnetパッケージを用いて行うことができる。スパースモデリングの詳細アルゴリズムは、例えば、「Journal of statistical software, vol.33-1(2010) “Regularization Paths for Generalized Linear Models via Coordinate Descent”」に記載されている。
 図23に示すように、学習部77が本学習部として機能する期間では、第1処理部85において、高寄与項目の関連データPRDが選択的に第2機械学習モデルM2に与えられる。逆を言えば、高寄与項目以外の項目が選択的に除かれて、第2機械学習モデルM2に与えられる。そして、評価部86による第2機械学習モデルM2の予測の精度の評価、および更新部87による第2機械学習モデルM2の更新が行われる。こうした処理が学習用入力データIDLを変えつつ繰り返し続けられることで、第2機械学習モデルM2は予測の精度が予め設定されたレベルに達する。予測の精度が予め設定されたレベルに達した第2機械学習モデルM2は、学習済みモデルTMとして、第1RW制御部75によりストレージデバイス60Aに記憶される。なお、学習部77が本学習部として機能する期間で用いられる第2機械学習モデルM2は、学習部77が仮学習部として機能する期間で用いられる第1機械学習モデルM1と、種類、性能といった特性は同じである。
 図24において、運用装置11のストレージデバイス60Bには、第2作動プログラム110が記憶されている。第2作動プログラム110は、コンピュータを運用装置11として機能させるためのアプリケーションプログラムである。
 ストレージデバイス60Bには、学習装置10からの学習済みモデルTMと高寄与項目情報HCII、および物性分析装置14からの予測用物性データPDFも記憶される。また、ストレージデバイス60Bには、予測用生産条件データPCDFも記憶される。予測用生産条件データPCDFは、入力デバイス65Bを介してオペレータにより入力される。より詳しくは、予測用生産条件データPCDFの各項目の入力ボックスが用意された入力画面がディスプレイ64Bに表示され、入力画面を通じて予測用生産条件データPCDFが入力される。予測用生産条件データPCDFおよび予測用物性データPDFは、品質が未知で、これから学習済みモデルTMを用いて品質を予測する生産物PRの生産条件データPCDおよび物性データPDである。
 また、ストレージデバイス60Bには、予測用物性データPDFから導出された予測用物性関連データ(以下、予測用関連データと略す)PRDFも記憶される。
 第2作動プログラム110が起動されると、運用装置11を構成するコンピュータのCPU62Bは、メモリ61等と協働して、第2RW制御部115、第2導出部116、第4処理部117、および表示制御部118として機能する。
 第2RW制御部115は、学習装置10の第1RW制御部75と同様、ストレージデバイス60B内の各種データの読み出し、およびストレージデバイス60Bへの各種データの記憶を制御する。第2RW制御部115は、ストレージデバイス60Bから予測用物性データPDFおよび高寄与項目情報HCIIを読み出し、予測用物性データPDFおよび高寄与項目情報HCIIを第2導出部116に出力する。また、第2RW制御部115は、第2導出部116からの予測用関連データPRDFをストレージデバイス60Bに記憶する。
 第2RW制御部115は、ストレージデバイス60Bから学習済みモデルTMを読み出し、学習済みモデルTMを第4処理部117に出力する。第2RW制御部115は、学習済みモデルTMをストレージデバイス60Bから読み出すことで、学習済みモデルTMを取得していることになる。すなわち、第2RW制御部115は、本開示の技術に係る「第2取得部」の一例である。
 第2RW制御部115は、ストレージデバイス60Bから予測用関連データPRDFおよび予測用生産条件データPCDFを読み出し、これらを第4処理部117に出力する。第2RW制御部115は、予測用関連データPRDFをストレージデバイス60Bから読み出すことで、予測用関連データPRDFを取得していることになる。すなわち、第2RW制御部115は、本開示の技術に係る「第3取得部」の一例である。
 第2導出部116は、第2RW制御部115からの予測用物性データPDFおよび高寄与項目情報HCIIを受け取る。第2導出部116は、予測用物性データPDFから予測用関連データPRDFを導出する。より詳しくは、第2導出部116は、学習装置10の第1導出部76と同じように、スペクトルデータSPDを分けた複数の区間INT1~INT20のそれぞれについて、強度の平均値、最大値、最小値、中央値、分散、歪度、および尖度を導出する。ただし、第2導出部116は、高寄与項目情報HCIIに基づいて、高寄与項目を選択的に導出し、高寄与項目以外の項目は導出しない。このため、予測用関連データPRDFは、図23の関連データPRDと同様に、高寄与項目以外の項目が選択的に除かれたものとなる(図25参照)。
 第4処理部117は、第2RW制御部115からの予測用生産条件データPCDF、予測用関連データPRDF、および学習済みモデルTMを受け取る。第4処理部117は、学習済みモデルTMに予測用生産条件データPCDFおよび予測用関連データPRDFを与えて品質を予測させる。すなわち、第4処理部117は、本開示の技術に係る「処理部」の一例である。第4処理部117は、学習済みモデルTMによる品質の予測結果である品質予測データQFDを表示制御部118に出力する。品質予測データQFDは、品質データQDと同じく、分子量分散度および分子量で構成される(図25等参照)。
 表示制御部118は、各種画面をディスプレイ64Bに表示する制御を行う。各種画面には、前述の予測用生産条件データPCDFの入力画面の他、品質予測データQFDを表示する品質予測表示画面120(図26参照)がある。すなわち、表示制御部118は、本開示の技術に係る「出力制御部」の一例である。
 図25は、IDがPR0500の、品質が未知の生産物PRの品質を、学習済みモデルTMで予測する様子を示している。図23で示した場合と同じく、第4処理部117において、複数の項目のうちの高寄与項目の予測用関連データPRDFが選択的に学習済みモデルTMに与えられる。逆を言えば、高寄与項目以外の項目が選択的に除かれて、学習済みモデルTMに与えられる。
 図26において、表示制御部118の制御の下でディスプレイ64Bに表示される品質予測表示画面120には、学習済みモデルTMから出力された品質予測データQFDが表示される。品質予測表示画面120は、OKボタン121を選択することで表示が消える。
 次に、上記構成による作用について、図27~図31のフローチャートを参照して説明する。まず、学習装置10において第1作動プログラム70が起動されると、図11で示したように、学習装置10のCPU62Aは、第1RW制御部75、第1導出部76、学習部77、抽出部78、および送信制御部79として機能される。学習部77は、図14で示したように、第1処理部85、評価部86、および更新部87として機能される。また、抽出部78は、図16で示したように、第2処理部90、第3処理部91、算出部92、および判定部93として機能される。
 学習装置10では、第1RW制御部75によりストレージデバイス60Aから物性データPDであるスペクトルデータSPDが読み出され、第1導出部76に出力される。そして、図12および図13で示したように、第1導出部76により、スペクトルデータSPDを分けた複数の区間INT1~INT20のそれぞれについて、強度の代表値(平均値、最大値、最小値、中央値、分散、歪度、および尖度)が関連データPRDとして導出される。関連データPRDは、第1導出部76から第1RW制御部75に出力され、第1RW制御部75によりストレージデバイス60Aに記憶される。関連データPRDの導出は、物性分析装置14から新たな物性データPDが送信される度に行われる。
 図27において、学習装置10では、主として、仮学習(ステップST100)、高寄与項目の抽出(ステップST200)、および本学習(ステップST300)が行われる。仮学習では、第1機械学習モデルM1が学習されて、仮の機械学習モデルPMとされる。高寄与項目の抽出では、仮の機械学習モデルPMが用いられる。本学習では、第2機械学習モデルM2が学習されて、学習済みモデルTMとされる。
 図28に示すように、仮学習では、まず、第1RW制御部75により、生産工程において設定された生産条件データPCDおよび関連データPRDの組で構成される学習用入力データIDLがストレージデバイス60Aから読み出される(ステップST1001)。学習用入力データIDLは、第1RW制御部75から学習部77に出力される。なお、ステップST1001は、本開示の技術に係る「第1取得ステップ」の一例である。
 学習部77では、図15で示したように、第1処理部85において、生産条件データPCDおよび関連データPRDの複数の項目が、余すところなく学習用入力データIDLとして第1機械学習モデルM1に与えられ、第1機械学習モデルM1から学習用出力データODLが出力される(ステップST1002)。そして、評価部86において、学習用出力データODLと品質データQDとが比較され、第1機械学習モデルM1による生産物PRの品質の予測の精度が評価される(ステップST1003)。
 評価部86による第1機械学習モデルM1の予測の精度の評価結果が、第1機械学習モデルM1の予測の精度が予め設定されたレベル未満であるという内容であった場合(ステップST1004でNO)、更新部87により第1機械学習モデルM1が更新される(ステップST1005)。そして、更新後の第1機械学習モデルM1を用いて、ステップST1001、ステップST1002、およびステップST1003の処理が繰り返される。これらのステップST1001~ステップST1003の各処理は、評価部86による第1機械学習モデルM1の予測の精度の評価結果が、第1機械学習モデルM1の予測の精度が予め設定されたレベルに達したという内容であった場合(ステップST1004でYES)に終了される。予測の精度が予め設定されたレベルに達した第1機械学習モデルM1は、仮の機械学習モデルPMとして学習部77から第1RW制御部75に出力される(ステップST1006)。仮の機械学習モデルPMは、第1RW制御部75によりストレージデバイス60Aに記憶される。なお、これら一連のステップST1001~ステップST1006は、本開示の技術に係る「仮学習ステップ」の一例である。
 図29に示すように、高寄与項目の抽出では、図16および図17で示したように、第2処理部90において、生産条件データPCDおよび関連データPRDの複数の項目が、余すところなく仮の機械学習モデルPMに与えられ、仮の機械学習モデルPMから仮の出力データPODが出力される(ステップST2001)。仮の出力データPODは、第2処理部90から算出部92に出力される。
 また、図16および図18で示したように、第3処理部91において、生産条件データPCDと、関連データPRDの複数の項目の1つが除かれた抽出用関連データPRDEとが仮の機械学習モデルPMに与えられ、仮の機械学習モデルPMから抽出用仮の出力データPODEが出力される(ステップST2002)。抽出用仮の出力データPODEは、第3処理部91から算出部92に出力される。
 図19および図20で示したように、算出部92において、仮の出力データPODおよび抽出用仮の出力データPODEに基づいて、抽出用関連データPRDEで除いた1つの項目の寄与度が算出される(ステップST2003)。これらステップST2002およびステップST2003は、関連データPRDの全ての項目の寄与度が算出される(ステップST2004でYES)まで、除く項目が1つずつ変更されつつ、繰り返し行われる。こうして算出された関連データPRDの全ての項目の寄与度は、図21で示した寄与度情報CIとして算出部92から判定部93に出力される。
 判定部93では、図22で示したように、寄与度情報CIと設定条件SCとに基づいて、関連データPRDの複数の項目の各々が、高寄与項目であるか否かが判定される(ステップST2005)。そして、この判定結果が、高寄与項目情報HCIIとして判定部93から学習部77に出力される(ステップST2006)。なお、これら一連のステップST2001~ステップST2006は、本開示の技術に係る「抽出ステップ」の一例である。
 図30に示すように、本学習では、第1RW制御部75により、生産条件データPCDおよび関連データPRDの組で構成される学習用入力データIDLがストレージデバイス60Aから読み出される(ステップST3001)。学習用入力データIDLは、第1RW制御部75から学習部77に出力される。
 学習部77では、図23で示したように、第1処理部85において、生産条件データPCDと高寄与項目の関連データPRDが選択的に学習用入力データIDLとして第2機械学習モデルM2に与えられ、第2機械学習モデルM2から学習用出力データODLが出力される(ステップST3002)。そして、評価部86において、学習用出力データODLと品質データQDとが比較され、第2機械学習モデルM2による生産物PRの品質の予測の精度が評価される(ステップST3003)。
 評価部86による第2機械学習モデルM2の予測の精度の評価結果が、第2機械学習モデルM2の予測の精度が予め設定されたレベル未満であるという内容であった場合(ステップST3004でNO)、更新部87により第2機械学習モデルM2が更新される(ステップST3005)。そして、更新後の第2機械学習モデルM2を用いて、ステップST3001、ステップST3002、およびステップST3003の処理が繰り返される。これらのステップST3001~ステップST3003の各処理は、評価部86による第2機械学習モデルM2の予測の精度の評価結果が、第2機械学習モデルM2の予測の精度が予め設定されたレベルに達したという内容であった場合(ステップST3004でYES)に終了される。予測の精度が予め設定されたレベルに達した第2機械学習モデルM2は、学習済みモデルTMとして学習部77から第1RW制御部75に出力される(ステップST3006)。学習済みモデルTMは、第1RW制御部75によりストレージデバイス60Aに記憶される。そして、学習済みモデルTMは、送信制御部79によって運用装置11に送信される。なお、これら一連のステップST3001~ステップST3006は、本開示の技術に係る「本学習ステップ」の一例である。
 運用装置11において第2作動プログラム110が起動されると、図24で示したように、運用装置11のCPU62Bは、第2RW制御部115、第2導出部116、第4処理部117、および表示制御部118として機能される。
 運用装置11では、第2RW制御部115によりストレージデバイス60Bから予測用物性データPDFおよび高寄与項目情報HCIIが読み出され、第2導出部116に出力される。そして、第2導出部116により、予測用物性データPDFのスペクトルデータSPDを分けた複数の区間INT1~INT20のそれぞれについて、高寄与項目に限って、強度の代表値が導出される。こうして第2導出部116において予測用関連データPRDFが導出される。予測用関連データPRDFは、第2RW制御部115によりストレージデバイス60Bに記憶される。
 図31に示すように、運用装置11では、第2RW制御部115によりストレージデバイス60Bから学習済みモデルTMが読み出される(ステップST500)。また、第2RW制御部115によりストレージデバイス60Bから生産工程における設定された予測用生産条件データPCDFおよび予測用関連データPRDFが読み出される(ステップST600)。学習済みモデルTM、予測用生産条件データPCDF、および予測用関連データPRDFは、第2RW制御部115から第4処理部117に出力される。
 図25で示したように、第4処理部117において、予測用生産条件データPCDFと予測用関連データPRDFが学習済みモデルTMに与えられ、学習済みモデルTMから品質予測データQFDが出力される(ステップST700)。品質予測データQFDは、第4処理部117から表示制御部118に出力される。
 表示制御部118により、図26で示した品質予測表示画面120がディスプレイ64Bに表示される(ステップST800)。この品質予測表示画面120によって、品質予測データQFDがオペレータの閲覧に供される。
 以上説明したように、学習装置10は、関連データPRDを含む学習用入力データIDLを第1RW制御部75で取得し、学習部77において、学習用入力データIDLを第1機械学習モデルM1に与えて学習させ、仮の機械学習モデルPMを出力する。次いで、抽出部78により、仮の機械学習モデルPMを用いて、関連データPRDの複数の項目の中から高寄与項目を抽出する。そして、学習部77において、高寄与項目の関連データPRDを選択的に第2機械学習モデルM2に与えて学習させ、学習済みモデルTMとして出力する。したがって、高寄与項目以外の関連データPRDが与えられて学習した場合よりも、学習済みモデルTMによる生産物PRの品質の予測の精度を向上させることができる。
 より具体的には図32の表125に示すように、生産条件データPCDと高寄与項目の関連データPRDを学習用入力データIDLとして与えた実施例は、比較例1および比較例2よりも分子量分散度の決定係数および分子量の決定係数が高い、という結果が得られた。なお、比較例1は、生産条件データPCDのみを学習用入力データIDLとして与えた場合、比較例2は、生産条件データPCDおよび関連データPRDの複数の項目を、余すところなく学習用入力データIDLとして与えて学習させた場合である。このように、高寄与項目の関連データPRDを学習用入力データIDLとして与えて学習させることで、学習済みモデルTMによる生産物PRの品質の予測の精度をより向上させることができることが確かめられた。
 また、予測の精度の向上に寄与度の低い項目に学習の労力が割かれることが防がれるため、学習の効率を高めることができる。
 学習用入力データIDLは、関連データPRDだけでなく生産条件データPCDも含んでいる。このため、生産条件データPCDの影響も考慮した品質予測データQFDを、機械学習モデルMから出力させることができる。また、生産条件データPCDの影響も考慮して高寄与項目を抽出することができ、高寄与項目の妥当性をより高めることができる。
 物性データPDは、生産物PRを分光分析して検出されたスペクトルデータSPDを含む。そして、関連データPRDは、スペクトルデータSPDを分けた複数の区間INT1~INT20のそれぞれについて導出した強度の代表値である。スペクトルデータSPDの各波数の強度を全て関連データPRDとする場合と比べて、関連データPRDのデータ量を減らすことができる。
 運用装置11は、学習済みモデルTMおよび予測用関連データPRDFを第2RW制御部115で取得する。次いで、第4処理部117において、学習済みモデルTMに予測用関連データPRDFを与えて品質を予測させる。そして、表示制御部118の制御の下で、学習済みモデルTMによる品質の予測結果である品質予測データQFDを含む品質予測表示画面120をディスプレイ64Bに表示させる。したがって、オペレータは、生産物PRをわざわざ品質評価装置15にかけて実際に品質を評価させることなく、簡単に生産物PRの品質がどの程度であるかを把握することができる。
 ここで、品質評価装置15において生産物PRの品質を実際に評価する場合、生産物PRの前処理および品質の評価処理に、例えば1週間~2週間程度の比較的長い時間が掛かる。対して、学習済みモデルTMを用いれば、ごく短い時間で生産物PRの品質を予測することができる。しかも、図32で実施例として示したように学習済みモデルTMの予測の精度が比較的高いので、オペレータは品質予測データQFDを大いに参考にして今後の生産物PRの生産計画を立てることができる。
 [第2実施形態]
 図33~図35に示す第2実施形態では、生産物PRを撮影して得られる画像データIMDを物性データPDとする。
 図33において、第2実施形態の物性分析装置130は、例えばデジタル光学顕微鏡であり、生産物PRを撮影して画像データIMDを物性データPDとして出力する。なお、画像データIMDは、本開示の技術に係る「多次元物性データ」の一例である。
 図34および図35に示すように、第2実施形態の第1導出部135は、画像データIMDを等分した複数の領域AR1-1、AR1-2、・・・、AR10-10のそれぞれについて、関連データPRD_AR1-1、PRD_AR1-2、・・・、PRD_AR10-10を導出する。具体的には、第1導出部135は、関連データPRD_AR1-1~PRD_AR10-10として、各領域AR1-1~AR10-10の画像データIMD_AR1-1~IMD_AR10-10の赤色画素値、緑色画素値、青色画素値の各々の平均値を導出する。なお、各色画素値の平均値に代えて、あるいは加えて、各色画素値の最大値、最小値、中央値、分散といった他の代表値を関連データPRDとして導出してもよい。また、図示および詳細な説明は省略するが、運用装置の第2導出部においても、第1導出部135と同様に、品質が未知の生産物PRの画像データIMDの各領域AR1-1~AR10-10の赤色画素値、緑色画素値、青色画素値の各々の平均値が、予測用関連データPRDFとして導出される。
 このように、第2実施形態では、生産物PRを撮影して得られる画像データIMDを物性データPDとする。したがって、生産物PRの物性をより容易に捉えることができる。
 なお、画像データIMDは、上記第1実施形態のスペクトルデータSPDに代えて物性データPDとしてもよいし、スペクトルデータSPDに加えて物性データPDとしてもよい。また、物性分析装置130は、例示のデジタル光学顕微鏡に限らず、走査型電子顕微鏡(SEM;Scanning Electron Microscope)等でもよい。
 多次元物性データは、上記第1実施形態のスペクトルデータSPD、および上記第2実施形態の画像データIMDに限らない。ヒトの五感である視覚、聴覚、臭覚、触覚、味覚のいずれかに関係する多次元物性データを用いてもよい。例えば生産物PRの触覚データ、生産物PRの生産時の臭気データ、生産物PRの生産時の音声データ等が挙げられる。触覚データの場合は、生産物PRの複数箇所の触感センサの出力を触覚データとし、複数箇所のそれぞれの触覚センサの出力の平均値等を関連データPRDとして導出する。音声データの場合は、生産開始から終了までをマイクで録音して音声データとし、該音声データを複数の区間に分け、複数の区間のそれぞれの周波数の平均値、振幅の平均値等を関連データPRDとして導出する。
 [第3実施形態]
 図36~図43に示す第3実施形態では、オートエンコーダAEに物性データPDとしての入力画像データIIMDを与えて出力画像データOIMDを出力させ、オートエンコーダAEに与えた入力画像データIIMDと出力画像データOIMDとの差分データDDに基づいて関連データPRDを導出する。
 図36において、第3実施形態の第1導出部140は、オートエンコーダAEを用いて物性データPDとしての入力画像データIIMDから関連データPRDを導出する。すなわち、第1導出部140は、本開示の技術に係る「導出部」の一例である。なお、以下では、本開示の技術に係る「多次元物性データ」の一例であるスペクトルSPの画像データSPIMDを入力画像データIIMDとして用いた場合を説明する。
 オートエンコーダAEは、入力画像データIIMDを解析する複数の階層を有し、階層毎に、入力画像データIIMDに含まれる空間周波数の周波数帯域が異なる特徴を抽出する、畳み込みニューラルネットワークで構成された階層型の機械学習モデルである。畳み込みニューラルネットワークは、例えばU-Net(U-Shaped Neural Network)、SegNet等である。
 図37に示すように、オートエンコーダAEは、エンコーダネットワーク145とデコーダネットワーク146とで構成される。エンコーダネットワーク145は、階層毎に、フィルタF(図38参照)を用いた畳み込み演算を行って、画像特徴マップCMPを抽出する畳み込み処理を行う。デコーダネットワーク146は、エンコーダネットワーク145の最下位階層から出力された最小の画像特徴マップCMPの画像サイズを段階的に拡大する。そして、段階的に拡大された画像特徴マップCMPと、エンコーダネットワーク145の各階層で出力された画像特徴マップCMPとを結合して、入力画像データIIMDと同じ画像サイズの出力画像データOIMDを生成する。
 エンコーダネットワーク145の各階層には、二次元に配列された複数の画素値をもつ入力データDI(図38参照)が入力される。エンコーダネットワーク145は、各階層において、入力データDIに対して畳み込み処理を行って画像特徴マップCMPを抽出する。エンコーダネットワーク145の最上位の第1階層には、入力データDIとして入力画像データIIMDが入力される。第1階層は、入力画像データIIMDに畳み込み処理を行って、例えば、入力画像データIIMDと同じ画像サイズの画像特徴マップCMPを出力する。第2階層以下では、入力データDIとして、上位の各階層で出力された画像特徴マップCMPが入力される。第2階層以下では、画像特徴マップCMPに対して畳み込み処理が行われて、例えば、入力された画像特徴マップCMPと同じ画像サイズの画像特徴マップCMPが出力される。
 図38において、畳み込み処理は、入力データDIに例えば3×3のフィルタFを適用して、入力データDI内の注目画素Ipの画素値eと、注目画素Ipに隣接する8個の画素Isの画素値a、b、c、d、f、g、h、iを畳み込むことにより、入力データDIと同様に、二次元状に画素値が配列された出力データDIcを得る処理である。フィルタFの係数をr、s、t、u、v、w、x、y、zとした場合、注目画素Ipに対する畳み込み演算の結果である、出力データDIcの画素Icpの画素値kは、例えば下記の(式2)を計算することで得られる。
 k=az+by+cx+dw+ev+fu+gt+hs+ir・・・(式2)
 畳み込み処理では、入力データDIの各画素に対して上記のような畳み込み演算を行い、画素値kを出力する。こうして、二次元状に配列された画素値kをもつ出力データDIcが出力される。出力データDIcは、1個のフィルタFに対して1つ出力される。種類が異なる複数のフィルタFが使用された場合は、フィルタF毎に出力データDIcが出力される。
 図39に示すように、出力データDIcは、二次元状に画素値kが配列されたデータであり、幅と高さをもつ。また、種類が異なる複数のフィルタFを適用して、複数の出力データDIcが出力された場合は、画像特徴マップCMPは、複数の出力データDIcの集合になる。画像特徴マップCMPにおいて、フィルタFの数はチャンネル数と呼ばれる。図39に示す画像特徴マップCMPは、4個のフィルタFを適用して出力された4つの出力データDIcを有する、4チャンネルの画像特徴マップCMPの例である。
 図40に示すように、オートエンコーダAEは、スペクトルデータSPDの複数の区間INT1~INT20毎に用意(オートエンコーダAE_INT1~AE_INT20)されている。各オートエンコーダAE_INT1~AE_INT20は、各区間INT1~INT20のスペクトルSPの画像データSPIMD_INT1~SPIMD_INT20に特化したものである。なお、以下の説明では、オートエンコーダAE_INT1~AE_INT20をまとめてオートエンコーダAEと表記する場合がある。
 図41に示すように、オートエンコーダAEには、品質が予め設定されたレベルよりも良好な生産物PRのスペクトルSPの画像データSPIMDが、学習用入力画像データIIMDLとして与えられる。そして、オートエンコーダAEは、学習用入力画像データIIMDLと学習用出力画像データOIMDLが一致するよう学習される。すなわち、オートエンコーダAEは、品質が予め設定されたレベルよりも良好な生産物PRのスペクトルSPの画像データSPIMDが入力画像データIIMDとして入力された場合に、理想的には、入力画像データIIMDのスペクトルSPと形状が同じスペクトルSPをもつ出力画像データOIMDを出力する。なお、予め設定されたレベルとは、例えば、分子量分散度が1.5以上、分子量が25000以上等である。
 図41では、各オートエンコーダAE_INT1~AE_INT20のうちのオートエンコーダAE_INT1を例示している。このため、学習用入力画像データIIMDLは、区間INT1のスペクトルSPの画像データSPIMD_INT1である。
 図42に示すように、第1導出部140は、スペクトルSPの画像データSPIMDを入力画像データIIMDとしてオートエンコーダAEに与えて、出力画像データOIMDを出力させる。次いで、第1導出部140は、入力画像データIIMDと出力画像データOIMDとの差分データDDを算出する。具体的には、第1導出部140は、各区間INT1~INT20のそれぞれについて、入力画像データIIMDと出力画像データOIMDの各波数における強度の差分を、差分データDDとして算出する。
 図42では、図41と同様に、オートエンコーダAE_INT1のみを図示している。オートエンコーダAE_INT1には、入力画像データIIMDとして、区間INT1のスペクトルSPの画像データSPIMD_INT1が与えられる。そして、入力画像データIIMDと、オートエンコーダAE_INT1の出力画像データOIMDとに基づいて、区間INT1の差分データDD_INT1が算出される。
 ここで、オートエンコーダAEは、図41で示したように、品質が予め設定されたレベルよりも良好な生産物PRのスペクトルSPの画像データSPIMDが、学習用入力画像データIIMDLとして与えられて学習されたものである。このため、入力画像データIIMDの出所である生産物PRの品質が、予め設定されたレベルよりも良好であったならば、入力画像データIIMDと略同じ出力画像データOIMDがオートエンコーダAEから出力される。したがって、強度の差分は比較的小さくなる。逆に、生産物PRの品質が、予め設定されたレベル以下であったならば、入力画像データIIMDとは異なる出力画像データOIMDがオートエンコーダAEから出力される。したがって、強度の差分は比較的大きくなる。すなわち、差分データDDによれば、生産物PRの品質が予め設定されたレベルよりも良好か否かが分かる。
 図43に示すように、第1導出部140は、各区間INT1~INT20の差分データDD_INT1、DD_INT2、・・・、DD_INT20のそれぞれについて、関連データPRD_INT1、PRD_INT2、・・・、PRD_INT20を導出する。具体的には、第1導出部140は、関連データPRD_INT1~PRD_INT20として、各区間INT1~INT20の強度の差分の平均値および総和を導出する。なお、強度の差分の平均値および総和に代えて、あるいは加えて、強度の差分の最大値、最小値、中央値、分散といった他の代表値を、関連データPRDとして導出してもよい。また、図示および詳細な説明は省略するが、運用装置の第2導出部においても、第1導出部140と同様に、品質が未知の生産物PRのスペクトルSPの画像データSPIMDの各区間INT1~INT20の強度の差分の平均値および総和が、予測用関連データPRDFとして導出される。
 このように、第3実施形態では、第1導出部140において、オートエンコーダAEに物性データPDとしての入力画像データIIMDを与えて出力画像データOIMDを出力させ、オートエンコーダAEに与えた入力画像データIIMDと出力画像データOIMDとの差分データDDに基づいて関連データPRDを導出する。このため、上記第1実施形態で例示した、平均値、最大値、最小値、中央値、分散、歪度、尖度といった強度の代表値よりも、生産物PRの物性を的確に表した数値(ここでは強度の差分の平均値および総和)を、関連データPRDとして導出することができる。したがって、学習済みモデルTMの予測の精度をより向上させることができる。
 なお、差分データDDに基づく関連データPRDは、上記第1実施形態の平均値、最大値、最小値、中央値、分散、歪度、尖度といった強度の代表値に代えて用いてもよいし、加えて用いてもよい。
 入力画像データIIMDは例示したスペクトルSPの画像データSPIMDに限らない。スペクトルSPの画像データSPIMDに代えて、あるいは加えて、上記第2実施形態の、生産物PRを撮影して得られる画像データIMDを入力画像データIIMDとしてもよい。この場合、オートエンコーダAEは、画像データIMDの領域AR毎に用意される。
 [第4実施形態]
 図44に示す第4実施形態では、オートエンコーダAEの一部であるエンコーダネットワーク155から出力された画像特徴マップCMPに基づいて関連データPRDを導出する。すなわち、画像特徴マップCMPは、本開示の技術に係る「特徴データ」の一例である。
 図44において、第4実施形態の第1導出部150は、上記第3実施形態と同じく、物性データPDであるスペクトルSPの画像データSPIMDを、入力画像データIIMDとしてオートエンコーダAEに与える。そして、オートエンコーダAEのエンコーダネットワーク155から画像特徴マップCMPを出力させる。画像特徴マップCMPは、例えば、エンコーダネットワーク155の最下位階層から出力された最小の画像特徴マップCMPである。なお、第4実施形態のオートエンコーダAEは、上記第3実施形態のオートエンコーダAEと同じく、スペクトルデータSPDの複数の区間INT1~INT20毎に用意されている。ただし、第4実施形態のオートエンコーダAEは、上記第3実施形態のオートエンコーダAEとは異なり、品質のレベルに関係なく、種々の生産物PRのスペクトルSPの画像データSPIMDが学習用入力画像データIIMDLとして与えられて学習されたものである。
 第1導出部150は、画像特徴マップCMPに基づいて関連データPRDを導出する。図44では、画像特徴マップCMPが、チャンネル1(Ch1)の出力データDIc、チャンネル2(Ch2)の出力データDIc、チャンネル3(Ch3)の出力データDIc、チャンネル4(Ch4)の出力データDIcで構成されていた場合を例示している。そして、第1導出部150により、チャンネル1~チャンネル4の出力データDIcのそれぞれについて、画素値の平均値を関連データPRDとして導出する例を示している。なお、平均値に代えて、あるいは加えて、最大値、最小値、中央値、分散等を関連データPRDとして導出してもよい。また、図示および詳細な説明は省略するが、運用装置の第2導出部においても、第1導出部150と同様に、品質が未知の生産物PRのスペクトルSPの画像データSPIMDの各区間INT1~INT20の画像特徴マップCMPの出力データDIcの画素値の平均値が、予測用関連データPRDFとして導出される。
 図44では、オートエンコーダAE_INT1のみを図示している。オートエンコーダAE_INT1には、入力画像データIIMDとして、区間INT1のスペクトルSPの画像データSPIMD_INT1が与えられる。第1導出部150は、オートエンコーダAE_INT1のエンコーダネットワーク155の画像特徴マップCMPから、区間INT1の関連データPRD_INT1を導出する。なお、図示および説明は省略するが、他の区間INT2~INT20についても、オートエンコーダAE_INT2~AE_INT20のエンコーダネットワーク155の画像特徴マップCMPから、関連データPRD_INT2~PRD_INT20が導出される。
 このように、第4実施形態では、オートエンコーダAEのエンコーダネットワーク155から出力された画像特徴マップCMPに基づいて関連データPRDを導出する。したがって、上記第3実施形態と同様に、生産物PRの物性を的確に表した数値(ここでは出力データDIcの画素値の平均値)を、関連データPRDとして導出することができ、学習済みモデルTMの予測の精度をより向上させることができる。
 画像特徴マップCMPは、エンコーダネットワーク155の最下位階層以外の階層から出力されたものであってもよい。
 なお、画像特徴マップCMPに基づく関連データPRDは、上記第1実施形態の平均値、最大値、最小値、中央値、分散、歪度、尖度といった強度の代表値に代えて用いてもよいし、加えて用いてもよい。また、画像特徴マップCMPに基づく関連データPRDは、上記第3実施形態の差分データDDに基づく関連データPRDに代えて用いてもよいし、加えて用いてもよい。
 第4実施形態においても上記第3実施形態と同じく、入力画像データIIMDは例示したスペクトルSPの画像データSPIMDに限らない。スペクトルSPの画像データSPIMDに代えて、あるいは加えて、上記第2実施形態の、生産物PRを撮影して得られる画像データIMDを入力画像データIIMDとしてもよい。この場合、オートエンコーダAEは、画像データIMDの領域AR毎に用意される。
 スペクトルデータSPDを分ける区間INTは、互いにオーバーラップしていてもよい。同様に、画像データIMDを分ける領域ARも、互いにオーバーラップしていてもよい。
 生産物PRは、フロー合成法を用いて生産されたものに限らない。例えばバッチ合成法を用いて生産されたものでもよい。
 なお、上記各実施形態では、フロー反応装置13の設定部25で受け付けられた生産条件を、生産条件データPCDとしているが、これに限らない。第1流速センサ35、第2流速センサ36、第3流速センサ37、温度センサ38、第1流速センサ51、第2流速センサ52、第3流速センサ53、および第4流速センサ54で検出した実測値を、生産条件データPCDとしてもよい。
 上記各実施形態では、品質予測データQFDの出力形態として、品質予測表示画面120を例示したが、これに限らない。品質予測表示画面120に代えて、あるいは加えて、品質予測データQFDを紙媒体に印刷出力する形態、品質予測データQFDをデータファイルとして出力する形態を採用してもよい。
 なお、機械学習モデルMとしては、線形回帰、ガウス過程回帰、サポートベクター回帰、決定木、アンサンブル法、バギング法、ブースティング法、勾配ブースティング法等を用いたものがある。また、単純パーセプトロン、多層パーセプトロン、ディープニューラルネットワーク、畳み込みニューラルネットワーク、ディープビリーフネットワーク、リカレントニューラルネットワーク、確率的ニューラルネットワーク等を用いたものがある。上記で例示したうちのいずれの機械学習モデルMを用いるかは特に制限はなく、任意の手法の機械学習モデルMを選択することができる。
 アンサンブル法としてはランダムフォレストが挙げられる。ランダムフォレストは、周知のように、ランダムサンプリングされた学習データとランダムに選択された説明変数を用いることにより、相関の低い決定木群を複数作成し、それらの予測結果を統合および平均させることで予測の精度の向上を図る。この場合の機械学習モデルMの制御パラメータとしては、選択する説明変数の数や決定木の分岐数がある。
 ディープニューラルネットワークは、比較的制御パラメータの数が多く柔軟な組み合わせも可能であるため、多様なデータ構成に対して高い予測性能を発揮することができる。制御パラメータとしては、ネットワークのレイヤー数やノード数、活性化関数の種類、ドロップアウトの割合、ミニバッチサイズ、エポック数、学習率等がある。
 こうした機械学習モデルMは、実行フレームワークが複数存在し、その中から適宜選択することができる。例えば、Tensorflow、CNTK(Cognitive Toolkit)、Theano、Caffe、mxnet、Keras、PyTorch、Chainer、Scikit-learn、Caret、MATLAB(登録商標)等から選択することができる。
 機械学習システム2を構成するコンピュータのハードウェア構成は種々の変形が可能である。例えば、学習装置10と運用装置11とを統合して、1台のコンピュータで構成してもよい。また、学習装置10および運用装置11のうちの少なくともいずれかを、処理能力および信頼性の向上を目的として、ハードウェアとして分離された複数台のコンピュータで構成することも可能である。例えば、学習装置10の第1導出部76の機能と、学習部77の機能と、抽出部78の機能とを、3台のコンピュータに分散して担わせる。この場合は3台のコンピュータで学習装置10を構成する。
 このように、機械学習システム2のコンピュータのハードウェア構成は、処理能力、安全性、信頼性等の要求される性能に応じて適宜変更することができる。さらに、ハードウェアに限らず、第1作動プログラム70、第2作動プログラム110等のアプリケーションプログラムについても、安全性および信頼性の確保を目的として、二重化したり、あるいは、複数のストレージデバイスに分散して格納することももちろん可能である。
 上記各実施形態において、例えば、第1RW制御部75、第1導出部76、135、140、150、学習部77(第1処理部85、評価部86、更新部87)、抽出部78(第2処理部90、第3処理部91、算出部92、判定部93)、送信制御部79、第2RW制御部115、第2導出部116、第4処理部117、表示制御部118といった各種の処理を実行する処理部(Processing Unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(Processor)を用いることができる。各種のプロセッサには、上述したように、ソフトウェア(第1作動プログラム70、第2作動プログラム110)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU62A、62Bに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
 1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、および/または、CPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
 複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントおよびサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
 さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(circuitry)を用いることができる。
 以上の記載から、以下の付記項1、2に記載の発明を把握することができる。
 [付記項1]
 生産物の品質を予測する機械学習モデルに与える学習用入力データであり、前記生産物の物性を表す多次元物性データから導出された、複数の項目を有する多次元物性関連データを含む学習用入力データを取得する第1取得プロセッサと、
 前記学習用入力データを前記機械学習モデルに与えて学習させ、仮の機械学習モデルを出力する仮学習プロセッサと、
 前記仮の機械学習モデルを用いて、前記多次元物性関連データの前記複数の項目の中から、前記品質の予測の精度の向上に寄与する程度が予め設定された条件を満たす高寄与項目を抽出する抽出プロセッサと、
 前記高寄与項目の前記多次元物性関連データを選択的に前記機械学習モデルに与えて学習させ、前記機械学習モデルを実際の運用に供する学習済みモデルとして出力する本学習プロセッサと、
を備える学習装置。
 [付記項2]
 付記項1に記載の学習装置の前記本学習プロセッサから出力された前記学習済みモデルを取得する第2取得プロセッサと、
 品質が未知の生産物の予測用多次元物性関連データを取得する第3取得プロセッサと、
 前記第2取得プロセッサにおいて取得した前記学習済みモデルに、前記第3取得プロセッサにおいて取得した前記予測用多次元物性関連データを与えて前記品質を予測させる処理プロセッサと、
 前記学習済みモデルによる前記品質の予測結果を出力する制御を行う出力制御プロセッサと、
を備える運用装置。
 本開示の技術は、上述の種々の実施形態と種々の変形例を適宜組み合わせることも可能である。また、上記各実施形態に限らず、要旨を逸脱しない限り種々の構成を採用し得ることはもちろんである。さらに、本開示の技術は、プログラムに加えて、プログラムを非一時的に記憶する記憶媒体にもおよぶ。
 以上に示した記載内容および図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、および効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、および効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容および図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことはいうまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容および図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。
 本明細書において、「Aおよび/またはB」は、「AおよびBのうちの少なくとも1つ」と同義である。つまり、「Aおよび/またはB」は、Aだけであってもよいし、Bだけであってもよいし、AおよびBの組み合わせであってもよい、という意味である。また、本明細書において、3つ以上の事柄を「および/または」で結び付けて表現する場合も、「Aおよび/またはB」と同様の考え方が適用される。
 本明細書に記載された全ての文献、特許出願および技術規格は、個々の文献、特許出願および技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
2 機械学習システム
10 学習装置
11 運用装置
12 ネットワーク
13 フロー反応装置
14、130 物性分析装置
15 品質評価装置
20 第1原料供給部
21 第2原料供給部
22、45 反応セクション
23 温度調節部
24 回収廃棄セクション
25 設定部
26 システムコントローラ
30、46 合流部
31 反応部
32~34 第1管部~第3管部
35~37 第1流速センサ~第3流速センサ
38 温度センサ
40 回収部
41 廃棄部
42 三方弁
47~50 第1管部~第4管部
51~54 第1流速センサ~第4流速センサ
60、60A、60B ストレージデバイス
61 メモリ
62、62A、62B CPU
63 通信部
64、64B ディスプレイ
65、65B 入力デバイス
66 バスライン
70 第1作動プログラム(学習装置の作動プログラム)
75 第1リードライト制御部(第1RW制御部、第1取得部)
76、135、140、150 第1導出部(導出部)
77 学習部(仮学習部、本学習部)
78 抽出部
79 送信制御部
85 第1処理部
86 評価部
87 更新部
90 第2処理部
91 第3処理部
92 算出部
93 判定部
100 変換表
110 第2作動プログラム
115 第2リードライト制御部(第2RW制御部、第2取得部、第3取得部)
116 第2導出部
117 第4処理部(処理部)
118 表示制御部(出力制御部)
120 品質予測表示画面
121 OKボタン
125 表
145、155 エンコーダネットワーク
146 デコーダネットワーク
AE オートエンコーダ
AR 領域
CI 寄与度情報
CMP 画像特徴マップ
DD 差分データ
DI オートエンコーダの入力データ
DIc オートエンコーダの出力データ
F フィルタ
HCII 高寄与項目情報
Icp 出力データの画素
IDL 学習用入力データ
IIMD 入力画像データ
IIMDL 学習用入力画像データ
IMD 画像データ
INT 区間
Ip 注目画素
Is 隣接する画素
L 反応路長
M 機械学習モデル
M1、M2 第1機械学習モデル、第2機械学習モデル
ODL 学習用出力データ
OIMD 出力画像データ
OIMDL 学習用出力画像データ
PCD 生産条件データ
PCDF 予測用生産条件データ
PD 物性データ
PDF 予測用物性データ
PM 仮の機械学習モデル
POD 仮の出力データ
PODE 抽出用仮の出力データ
PR 生産物
PRD 物性関連データ(関連データ)
PRDE 抽出用物性関連データ(抽出用関連データ)
PRDF 予測用物性関連データ(予測用関連データ)
QD 品質データ
QFD 品質予測データ
RM 原料
RM1、RM2 第1原料、第2原料
SC 設定条件
SP スペクトル
SPD スペクトルデータ
SPIMD スペクトルの画像データ
ST100、ST200、ST300、ST500、ST600、ST700、ST800 ステップ
ST1001~ST1006 ステップ(仮学習ステップ)
ST2001~ST2006 ステップ(抽出ステップ)
ST3001~ST3006 ステップ(本学習ステップ)
TM 学習済みモデル
Φ 反応路径

Claims (14)

  1.  生産物の品質を予測する機械学習モデルに与える学習用入力データであり、前記生産物の物性を表す多次元物性データから導出された、複数の項目を有する多次元物性関連データを含む学習用入力データを取得する第1取得部と、
     前記学習用入力データを前記機械学習モデルに与えて学習させ、仮の機械学習モデルを出力する仮学習部と、
     前記仮の機械学習モデルを用いて、前記多次元物性関連データの前記複数の項目の中から、前記品質の予測の精度の向上に寄与する程度が予め設定された条件を満たす高寄与項目を抽出する抽出部と、
     前記高寄与項目の前記多次元物性関連データを選択的に前記機械学習モデルに与えて学習させ、前記機械学習モデルを実際の運用に供する学習済みモデルとして出力する本学習部と、
    を備える学習装置。
  2.  前記学習用入力データは、前記生産物の生産工程において設定された生産条件データも含む請求項1に記載の学習装置。
  3.  前記多次元物性データは、前記生産物を分光分析して検出されたスペクトルデータを含む請求項1または請求項2に記載の学習装置。
  4.  前記多次元物性関連データは、前記スペクトルデータを分けた複数の区間のそれぞれについて導出した強度の代表値である請求項3に記載の学習装置。
  5.  前記多次元物性データは、前記生産物を撮影して得られる画像データを含む請求項1から請求項4のいずれか1項に記載の学習装置。
  6.  前記生産物は、フロー合成法を用いて生産されたものである請求項1から請求項5のいずれか1項に記載の学習装置。
  7.  前記多次元物性データにオートエンコーダの少なくとも一部を適用して、前記多次元物性関連データを導出する導出部を備える請求項1から請求項6のいずれか1項に記載の学習装置。
  8.  前記オートエンコーダは、前記品質が予め設定されたレベルよりも良好な前記生産物の前記多次元物性データを与えられて学習されたものであり、
     前記導出部は、前記オートエンコーダに前記多次元物性データを与えて出力データを出力させ、前記オートエンコーダに与えた前記多次元物性データと前記出力データとの差分データに基づいて前記多次元物性関連データを導出する請求項7に記載の学習装置。
  9.  前記導出部は、前記オートエンコーダに前記多次元物性データを与えて、前記オートエンコーダのエンコーダネットワークから特徴データを出力させ、前記特徴データに基づいて前記多次元物性関連データを導出する請求項7または請求項8に記載の学習装置。
  10.  前記多次元物性データは、前記生産物を分光分析して検出されたスペクトルデータで表されるスペクトルの画像データを含む請求項7から請求項9のいずれか1項に記載の学習装置。
  11.  前記導出部は、前記スペクトルデータを分けた複数の区間のそれぞれについて前記多次元物性関連データを導出する請求項10に記載の学習装置。
  12.  請求項1から請求項11のいずれか1項に記載の学習装置の前記本学習部から出力された前記学習済みモデルを取得する第2取得部と、
     品質が未知の生産物の予測用多次元物性関連データを取得する第3取得部と、
     前記第2取得部において取得した前記学習済みモデルに、前記第3取得部において取得した、前記品質が未知の生産物の前記予測用多次元物性関連データを与えて前記品質を予測させる処理部と、
     前記学習済みモデルによる前記品質の予測結果を出力する制御を行う出力制御部と、を備える運用装置。
  13.  生産物の品質を予測する機械学習モデルに与える学習用入力データであり、前記生産物の物性を表す多次元物性データから導出された、複数の項目を有する多次元物性関連データを含む学習用入力データを取得する第1取得ステップと、
     前記学習用入力データを前記機械学習モデルに与えて学習させ、仮の機械学習モデルを出力する仮学習ステップと、
     前記仮の機械学習モデルを用いて、前記多次元物性関連データの前記複数の項目の中から、前記品質の予測の精度の向上に寄与する程度が予め設定された条件を満たす高寄与項目を抽出する抽出ステップと、
     前記高寄与項目の前記多次元物性関連データを選択的に前記機械学習モデルに与えて学習させ、前記機械学習モデルを実際の運用に供する学習済みモデルとして出力する本学習ステップと、
    を備える学習装置の作動方法。
  14.  生産物の品質を予測する機械学習モデルに与える学習用入力データであり、前記生産物の物性を表す多次元物性データから導出された、複数の項目を有する多次元物性関連データを含む学習用入力データを取得する第1取得部と、
     前記学習用入力データを前記機械学習モデルに与えて学習させ、仮の機械学習モデルを出力する仮学習部と、
     前記仮の機械学習モデルを用いて、前記多次元物性関連データの前記複数の項目の中から、前記品質の予測の精度の向上に寄与する程度が予め設定された条件を満たす高寄与項目を抽出する抽出部と、
     前記高寄与項目の前記多次元物性関連データを選択的に前記機械学習モデルに与えて学習させ、前記機械学習モデルを実際の運用に供する学習済みモデルとして出力する本学習部として、
    コンピュータを機能させる学習装置の作動プログラム。
PCT/JP2020/020026 2019-07-03 2020-05-21 学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置 WO2021002111A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021529912A JP7321264B2 (ja) 2019-07-03 2020-05-21 学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置
EP20834262.6A EP3995996A4 (en) 2019-07-03 2020-05-21 TEACHING DEVICE, TEACHING DEVICE OPERATING METHOD, TEACHING DEVICE OPERATING PROGRAM, AND OPERATING DEVICE
CN202080045534.XA CN114008631A (zh) 2019-07-03 2020-05-21 学习装置、学习装置的动作方法、学习装置的动作程序及运用装置
US17/542,869 US20220092435A1 (en) 2019-07-03 2021-12-06 Learning apparatus, operation method of learning apparatus, operation program of learning apparatus, and operating apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019124419 2019-07-03
JP2019-124419 2019-07-03

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/542,869 Continuation US20220092435A1 (en) 2019-07-03 2021-12-06 Learning apparatus, operation method of learning apparatus, operation program of learning apparatus, and operating apparatus

Publications (1)

Publication Number Publication Date
WO2021002111A1 true WO2021002111A1 (ja) 2021-01-07

Family

ID=74100684

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/020026 WO2021002111A1 (ja) 2019-07-03 2020-05-21 学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置

Country Status (5)

Country Link
US (1) US20220092435A1 (ja)
EP (1) EP3995996A4 (ja)
JP (1) JP7321264B2 (ja)
CN (1) CN114008631A (ja)
WO (1) WO2021002111A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115101149A (zh) * 2022-06-30 2022-09-23 曲阜师范大学 材料微观结构总能量预测方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113743688B (zh) * 2020-05-27 2023-10-20 富联精密电子(天津)有限公司 质量管控方法、装置、计算机装置及存储介质
US11573549B2 (en) * 2020-07-10 2023-02-07 Rohde & Schwarz Gmbh & Co. Kg Configuration method and configuration system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06304724A (ja) * 1993-04-20 1994-11-01 Nippon Steel Corp 品質制御装置および制御方法
JP2016091359A (ja) * 2014-11-06 2016-05-23 株式会社リコー 情報処理システム、情報処理装置、情報処理方法、及びプログラム
JP2016109495A (ja) * 2014-12-03 2016-06-20 タカノ株式会社 分類器生成装置、外観検査装置、分類器生成方法、及びプログラム
JP2018005773A (ja) * 2016-07-07 2018-01-11 株式会社リコー 異常判定装置及び異常判定方法
JP2018018354A (ja) 2016-07-28 2018-02-01 高砂香料工業株式会社 ディープラーニングを用いた飲食品の品質予測方法及び飲食品
JP2018116054A (ja) * 2017-01-19 2018-07-26 国立大学法人 香川大学 触覚センサ、触覚測定装置、学習済みモデル、および識別装置
WO2019073666A1 (ja) * 2017-10-11 2019-04-18 株式会社ニコン 判定装置、判定方法、および判定プログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06304724A (ja) * 1993-04-20 1994-11-01 Nippon Steel Corp 品質制御装置および制御方法
JP2016091359A (ja) * 2014-11-06 2016-05-23 株式会社リコー 情報処理システム、情報処理装置、情報処理方法、及びプログラム
JP2016109495A (ja) * 2014-12-03 2016-06-20 タカノ株式会社 分類器生成装置、外観検査装置、分類器生成方法、及びプログラム
JP2018005773A (ja) * 2016-07-07 2018-01-11 株式会社リコー 異常判定装置及び異常判定方法
JP2018018354A (ja) 2016-07-28 2018-02-01 高砂香料工業株式会社 ディープラーニングを用いた飲食品の品質予測方法及び飲食品
JP2018116054A (ja) * 2017-01-19 2018-07-26 国立大学法人 香川大学 触覚センサ、触覚測定装置、学習済みモデル、および識別装置
WO2019073666A1 (ja) * 2017-10-11 2019-04-18 株式会社ニコン 判定装置、判定方法、および判定プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
NORIKO ET AL..: "Factors Identification Using Sensitivity of Layered Neural Networks and Its Application to Pearl Color Evaluation.", IEEJ TRANSACTIONS C., vol. 116 -C, no. 5, 20 April 1996 (1996-04-20), pages 556 - 562, XP055783440 *
See also references of EP3995996A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115101149A (zh) * 2022-06-30 2022-09-23 曲阜师范大学 材料微观结构总能量预测方法
CN115101149B (zh) * 2022-06-30 2024-05-24 曲阜师范大学 材料微观结构总能量预测方法

Also Published As

Publication number Publication date
CN114008631A (zh) 2022-02-01
US20220092435A1 (en) 2022-03-24
EP3995996A4 (en) 2022-10-05
JPWO2021002111A1 (ja) 2021-01-07
JP7321264B2 (ja) 2023-08-04
EP3995996A1 (en) 2022-05-11

Similar Documents

Publication Publication Date Title
WO2021002111A1 (ja) 学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置
Devos et al. Simultaneous data pre-processing and SVM classification model selection based on a parallel genetic algorithm applied to spectroscopic data of olive oils
Karimi et al. Detection and quantification of food colorant adulteration in saffron sample using chemometric analysis of FT-IR spectra
CN103528990B (zh) 一种近红外光谱的多模型建模方法
Koljonen et al. A review of genetic algorithms in near infrared spectroscopy and chemometrics: past and future
Borba et al. Portable near infrared spectroscopy as a tool for fresh tomato quality control analysis in the field
WO2021002110A1 (ja) 学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置
Zhu et al. Penalized discriminant analysis for the detection of wild-grown and cultivated Ganoderma lucidum using Fourier transform infrared spectroscopy
JP7028075B2 (ja) 画像処理装置、画像処理方法、画像センサ
Jiang et al. Qualitative and quantitative analysis in solid-state fermentation of protein feed by FT-NIR spectroscopy integrated with multivariate data analysis
TWI790296B (zh) 頻譜分析裝置及頻譜分析方法
Galvao et al. An application of subagging for the improvement of prediction accuracy of multivariate calibration models
Scalisi et al. Maturity prediction in yellow peach (Prunus persica L.) cultivars using a fluorescence spectrometer
Akulich et al. Explainable predictive modeling for limited spectral data
Vigni et al. Near infrared spectroscopy and multivariate analysis to evaluate wheat flour doughs leavening and bread properties
Yan et al. Handheld near-infrared spectroscopy: State-of-the-art instrumentation and applications in material identification, food authentication, and environmental investigations
Li et al. Improvement of NIR prediction ability by dual model optimization in fusion of NSIA and SA methods
Khadem et al. Signal fragmentation based feature vector generation in a model agnostic framework with application to glucose quantification using absorption spectroscopy
Reis et al. Prediction of profiles in the process industries
Kazemzadeh et al. Deep learning as an improved method of preprocessing biomedical Raman spectroscopy data
Costa et al. A comparative study of multiresponse optimization criteria working ability
Verdú et al. Laser scattering imaging combined with CNNs to model the textural variability in a vegetable food tissue
Soh et al. A sparse fused group lasso regression model for fourier-transform infrared spectroscopic data with application to purity prediction in olive oil blends
Tavassoli et al. Template-oriented genetic algorithm feature selection of analyte wavelets in the Raman spectrum of a complex mixture
Yu et al. When Process Analysis Technology Meets Transfer Learning: A Model Transfer Strategy Between Different Spectrometers for Quantitative Analysis

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20834262

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021529912

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020834262

Country of ref document: EP

Effective date: 20220203