JP7321263B2 - 学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置 - Google Patents

学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置 Download PDF

Info

Publication number
JP7321263B2
JP7321263B2 JP2021529911A JP2021529911A JP7321263B2 JP 7321263 B2 JP7321263 B2 JP 7321263B2 JP 2021529911 A JP2021529911 A JP 2021529911A JP 2021529911 A JP2021529911 A JP 2021529911A JP 7321263 B2 JP7321263 B2 JP 7321263B2
Authority
JP
Japan
Prior art keywords
data
physical property
learning
unit
product
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021529911A
Other languages
English (en)
Other versions
JPWO2021002110A1 (ja
Inventor
昌孝 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2021002110A1 publication Critical patent/JPWO2021002110A1/ja
Application granted granted Critical
Publication of JP7321263B2 publication Critical patent/JP7321263B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/4183Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by data acquisition, e.g. workpiece identification
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B17/00Systems involving the use of models or simulators of said systems
    • G05B17/02Systems involving the use of models or simulators of said systems electric
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B01PHYSICAL OR CHEMICAL PROCESSES OR APPARATUS IN GENERAL
    • B01JCHEMICAL OR PHYSICAL PROCESSES, e.g. CATALYSIS OR COLLOID CHEMISTRY; THEIR RELEVANT APPARATUS
    • B01J19/00Chemical, physical or physico-chemical processes in general; Their relevant apparatus
    • B01J19/0006Controlling or regulating processes
    • B01J19/0013Controlling the temperature of the process
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41885Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by modeling, simulation of the manufacturing system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B01PHYSICAL OR CHEMICAL PROCESSES OR APPARATUS IN GENERAL
    • B01JCHEMICAL OR PHYSICAL PROCESSES, e.g. CATALYSIS OR COLLOID CHEMISTRY; THEIR RELEVANT APPARATUS
    • B01J2219/00Chemical, physical or physico-chemical processes in general; Their relevant apparatus
    • B01J2219/00049Controlling or regulating processes
    • B01J2219/00051Controlling the temperature
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B01PHYSICAL OR CHEMICAL PROCESSES OR APPARATUS IN GENERAL
    • B01JCHEMICAL OR PHYSICAL PROCESSES, e.g. CATALYSIS OR COLLOID CHEMISTRY; THEIR RELEVANT APPARATUS
    • B01J2219/00Chemical, physical or physico-chemical processes in general; Their relevant apparatus
    • B01J2219/00049Controlling or regulating processes
    • B01J2219/00191Control algorithm
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B01PHYSICAL OR CHEMICAL PROCESSES OR APPARATUS IN GENERAL
    • B01JCHEMICAL OR PHYSICAL PROCESSES, e.g. CATALYSIS OR COLLOID CHEMISTRY; THEIR RELEVANT APPARATUS
    • B01J2219/00Chemical, physical or physico-chemical processes in general; Their relevant apparatus
    • B01J2219/00049Controlling or regulating processes
    • B01J2219/00191Control algorithm
    • B01J2219/00222Control algorithm taking actions
    • B01J2219/00227Control algorithm taking actions modifying the operating conditions
    • B01J2219/00229Control algorithm taking actions modifying the operating conditions of the reaction system
    • B01J2219/00231Control algorithm taking actions modifying the operating conditions of the reaction system at the reactor inlet
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N2021/258Surface plasmon spectroscopy, e.g. micro- or nanoparticles in suspension
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Manufacturing & Machinery (AREA)
  • Automation & Control Theory (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Biochemistry (AREA)
  • Analytical Chemistry (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Organic Chemistry (AREA)
  • Chemical Kinetics & Catalysis (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Feedback Control In General (AREA)

Description

本開示の技術は、学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置に関する。
生産物の品質を、機械学習モデルを用いて予測することが行われている。特許文献1には、予測の精度を高めるために、生産物の物性を表す物性データから導出された物性関連データを学習用入力データとして学習する機械学習モデルが提案されている。
特許文献1では、生産物としてコーヒー豆等の飲食品が例示されている。また、特許文献1では、物性データとして、近赤外(NIR;Near Infrared)分光分析データ、フーリエ変換赤外(FT-IR;Fourier Transform Infrared)分光分析データ、核磁気共鳴(NMR;Nuclear Magnetic Resonance)分光分析データ等のスペクトルデータ、あるいは生産物をカメラ等で撮影して得られる画像データが例示されている。そして、物性関連データとして、スペクトルデータから得られる数値、例えばスペクトルの波形の傾き、周期性、振幅、ピーク高さ、ピーク幅等が挙げられている。また、物性関連データとして、生産物をカメラ等で撮影して得られる画像データ自体が挙げられている。
特開2018-018354号公報
物性データには、生産物の重さ等のように、生産物の一種類の物性を1つのパラメータで表すものもあれば、上記のスペクトルデータ、画像データのように、生産物の一種類の物性を複数のパラメータで表すものもある。より詳しくは、スペクトルデータであれば、スペクトルが生産物の物性であり、例えば波数と強度が複数のパラメータに該当する。画像データであれば、色が生産物の物性であり、赤色、緑色、青色の各画素値が複数のパラメータに該当する。こうした物性データは、パラメータを次元として捉えた場合、多次元の物性データであると言える。対して、生産物の一種類の物性を1つのパラメータで表す物性データは、一次元の物性データであると言える。以下、生産物の一種類の物性を複数のパラメータで表した物性データを、多次元物性データという。また、多次元物性データから導出された物性関連データを、多次元物性関連データという。
特許文献1では、前述のように、多次元物性データであるスペクトルデータから導出する多次元物性関連データとして、スペクトルの波形の傾き、周期性、振幅、ピーク高さ、ピーク幅等が例示されている。しかしながら、特許文献1において例示された数値はいずれも、多次元物性データの全体的な特徴を網羅的にカバーしたものではないため、生産物の物性を的確に表した数値とは言い難かった。したがって、こうした数値を学習用入力データとして機械学習モデルに与えて学習させても、予測の精度が比較的低レベルで頭打ちになるおそれがあった。
本開示の技術は、生産物の多次元物性データから導出された多次元物性関連データを学習用入力データとして機械学習モデルに与えて学習させる場合に、機械学習モデルによる生産物の品質の予測の精度をより向上させることが可能な学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置を提供することを目的とする。
上記目的を達成するために、本開示の学習装置は、生産物の物性を表す多次元物性データを取得する第1取得部と、生産物の品質を予測する機械学習モデルに与える学習用入力データを、多次元物性データから導出する導出部であり、多次元物性データにオートエンコーダの少なくとも一部を適用して、多次元物性データに関連する多次元物性関連データを学習用入力データとして導出する導出部と、多次元物性関連データを含む学習用入力データを機械学習モデルに与えて学習させ、機械学習モデルを実際の運用に供する学習済みモデルとして出力する学習部と、を備える。
学習用入力データは、生産物の生産工程において設定された生産条件データも含むことが好ましい。
オートエンコーダは、品質が予め設定されたレベルよりも良好な生産物の多次元物性データを与えられて学習されたものであり、導出部は、オートエンコーダに多次元物性データを与えて出力データを出力させ、オートエンコーダに与えた多次元物性データと出力データとの差分データに基づいて多次元物性関連データを導出することが好ましい。
導出部は、オートエンコーダに多次元物性データを与えて、オートエンコーダのエンコーダネットワークから特徴データを出力させ、特徴データに基づいて多次元物性関連データを導出することが好ましい。
多次元物性データは、生産物を分光分析して検出されたスペクトルデータで表されるスペクトルの画像データを含むことが好ましい。
導出部は、スペクトルデータを分けた複数の区間のそれぞれについて多次元物性関連データを導出することが好ましい。
多次元物性データは、生産物を撮影して得られる画像データを含むことが好ましい。
生産物は、フロー合成法を用いて生産されたものであることが好ましい。
本開示の運用装置は、学習装置の学習部から出力された学習済みモデルを取得する第2取得部と、品質が未知の生産物の予測用多次元物性関連データを取得する第3取得部と、第2取得部において取得した学習済みモデルに、第3取得部において取得した、品質が未知の生産物の予測用多次元物性関連データを与えて品質を予測させる処理部と、学習済みモデルによる品質の予測結果を出力する制御を行う出力制御部と、を備える。
本開示の学習装置の作動方法は、生産物の物性を表す多次元物性データを取得する第1取得ステップと、生産物の品質を予測する機械学習モデルに与える学習用入力データを、多次元物性データから導出する導出ステップであり、多次元物性データにオートエンコーダの少なくとも一部を適用して、多次元物性データに関連する多次元物性関連データを学習用入力データとして導出する導出ステップと、多次元物性関連データを含む学習用入力データを機械学習モデルに与えて学習させ、機械学習モデルを実際の運用に供する学習済みモデルとして出力する学習ステップと、を備える。
本開示の学習装置の作動プログラムは、生産物の物性を表す多次元物性データを取得する第1取得部と、生産物の品質を予測する機械学習モデルに与える学習用入力データを、多次元物性データから導出する導出部であり、多次元物性データにオートエンコーダの少なくとも一部を適用して、多次元物性データに関連する多次元物性関連データを学習用入力データとして導出する導出部と、多次元物性関連データを含む学習用入力データを機械学習モデルに与えて学習させ、機械学習モデルを実際の運用に供する学習済みモデルとして出力する学習部として、コンピュータを機能させる。
本開示の技術によれば、生産物の多次元物性データから導出された多次元物性関連データを学習用入力データとして機械学習モデルに与えて学習させる場合に、機械学習モデルによる生産物の品質の予測の精度をより向上させることが可能な学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置を提供することができる。
機械学習システム、フロー反応装置、物性分析装置、品質評価装置を示す図である。 フロー反応装置と物性分析装置と品質評価装置における処理の概要を示す図である。 学習装置と運用装置における処理の概要を示す図である。 生産条件データ、物性データ、関連データ、および品質データが共通のIDで関連付けられていることを示す図である。 T字形状の合流部をもつ反応セクションを有するフロー反応装置を示す図である。 十字形状の合流部をもつ反応セクションを有するフロー反応装置を示す図である。 生産条件データを示す図である。 スペクトルデータとスペクトルを示す図である。 品質データを示す図である。 学習装置および運用装置を構成するコンピュータを示すブロック図である。 学習装置のCPUの処理部を示すブロック図である。 オートエンコーダを示す図である。 畳み込み処理の説明図である。 画像特徴マップを示す図である。 オートエンコーダがスペクトルデータの複数の区間毎に用意されていることを示す図である。 品質が予め設定されたレベルよりも良好な生産物のスペクトルの画像データを、オートエンコーダに学習用入力画像データとして与えて学習させる様子を示す図である。 オートエンコーダの入力画像データと出力画像データとの差分データを算出する様子を示す図である。 第1導出部により、スペクトルデータを分けた複数の区間のそれぞれについて、関連データとして差分データの平均値および総和を導出する様子を示す図である。 学習部の詳細を示す図である。 第1処理部の処理を示す図である。 運用装置のCPUの処理部を示すブロック図である。 第2処理部の処理を示す図である。 品質予測表示画面を示す図である。 学習装置の処理手順を示すフローチャートである。 学習装置の処理手順を示すフローチャートである。 運用装置の処理手順を示すフローチャートである。 比較例と実施例の分子量分散度の決定係数および分子量の決定係数を示す表である。 比較例2の関連データを示す図である。 画像データを示す図である。 画像データを分けた複数の領域を示す図である。 第1導出部により、画像データを分けた複数の領域のそれぞれについて、関連データを導出する様子を示す図である。 画像特徴マップに基づいて関連データを導出する様子を示す図である。 第4実施形態の学習装置のCPUの処理部を示すブロック図である。 仮学習における第1処理部の処理を示す図である。 抽出部の詳細を示す図である。 第3処理部の処理を示す図である。 第4処理部の処理を示す図である。 算出部の処理を示す図である。 算出部の処理の具体例を示す図である。 寄与度情報を示す図である。 判定部の処理を示す図である。 本学習における第1処理部の処理を示す図である。 第4実施形態の学習装置の処理手順を示すフローチャートである。 第4実施形態の運用装置のCPUの処理部を示すブロック図である。 第2処理部の処理を示す図である。
[第1実施形態]
図1において、機械学習システム2は、学習装置10および運用装置11を備える。学習装置10および運用装置11は、例えばデスクトップ型のパーソナルコンピュータである。学習装置10および運用装置11は、ネットワーク12を介して相互に通信可能に接続されている。ネットワーク12は、例えば、LAN(Local Area Network)、もしくはインターネット、公衆通信網等のWAN(Wide Area Network)である。ネットワーク12には、フロー反応装置13、物性分析装置14、および品質評価装置15も接続されている。
図2において、フロー反応装置13は、フロー合成法により、生産工程における生産条件データPCDにしたがって、原料RMから生産物PRを生産する。物性分析装置14は、生産物PRの物性を分析し、その分析結果である物性データPDを出力する。品質評価装置15は、生産物PRの品質を評価し、その評価結果である品質データQDを出力する。フロー反応装置13から生産条件データPCDが、物性分析装置14から物性データPDが、品質評価装置15から品質データQDが、それぞれ学習装置10に送信される。
図3において、学習装置10は、フロー反応装置13からの生産条件データPCD、物性分析装置14からの物性データPD、および品質評価装置15からの品質データQDを取得する。学習装置10は、物性データPDから物性関連データ(以下、関連データと略す)PRDを導出する。この関連データPRDと、生産条件データPCDとで、学習用入力データIDLが構成される。生産条件データPCD、物性データPD、物性データPDから導出された関連データPRD、および品質データQDは、図4に示すように、1つの生産物PRに対して付された共通のID(Identification Data)で関連付けられている。
学習装置10は機械学習モデルMを有する。機械学習モデルMは、生産物PRの品質を予測するためのモデルである。学習装置10は、この機械学習モデルMの予測の精度を高めるため、同じIDが付された生産条件データPCDおよび関連データPRDで構成される学習用入力データIDLを機械学習モデルMに与える(図20参照)。機械学習モデルMは、学習用入力データIDLに応じた学習用出力データODLを出力する。
品質データQDは、学習用出力データODLとの答え合わせを行うためのデータである。機械学習モデルMの予測の精度が高いほど、品質データQDと学習用出力データODLとの差異は小さくなる。このため、学習装置10は、学習用出力データODLと、学習用入力データIDLと同じIDが付された品質データQDとを比較し、機械学習モデルMの予測の精度を評価する。そして、この評価結果に応じて、機械学習モデルMを更新する。学習装置10は、学習用入力データIDLの機械学習モデルMへの入力と学習用出力データODLの機械学習モデルMからの出力、機械学習モデルMの予測の精度の評価、および機械学習モデルMの更新を、学習用入力データIDLおよび品質データQDを変更しつつ行う。そして、これら一連の処理を、機械学習モデルMの予測の精度が予め設定されたレベルとなるまで繰り返す。学習装置10は、予測の精度が予め設定されたレベルとなった機械学習モデルMを、実際の運用に供する学習済みモデルTMとして運用装置11に送信する。
運用装置11は、学習装置10からの学習済みモデルTMを受信する。運用装置11は、品質が未知の生産物PRの生産条件データである予測用生産条件データPCDF、および品質が未知の生産物PRの関連データである予測用物性関連データ(以下、予測用関連データと略す)PRDFを学習済みモデルTMに与える。予測用関連データPRDFは、関連データPRDと同様に、品質が未知の生産物PRの物性データPDである予測用物性データPDF(図21参照)から導出したデータである。学習済みモデルTMは、これら予測用生産条件データPCDFおよび予測用関連データPRDFに応じた品質予測データQFDを出力する。
フロー反応装置13で行われるフロー反応は、モノマーを合成する合成反応、あるいはモノマー同士を反応させることにより重合体を生成する重合反応等である。したがって、生産物PRは、例えば重合反応の対象となる成長段階の化合物であってもよい。本例においては、フロー反応装置13は、生産物PRであるポリスチレンのアニオン重合反応をフロー反応で行う。
図5において、フロー反応装置13は、第1原料供給部20、第2原料供給部21、反応セクション22、温度調節部23、回収廃棄セクション24、設定部25、システムコントローラ26等を備えている。
第1原料供給部20は、反応セクション22の上流側端部と、図示しない配管によって接続されている。第1原料供給部20は、第1原料RM1を反応セクション22に供給する。第1原料供給部20は、第1原料RM1を反応セクション22に送り出すためのポンプを有している。このポンプの回転数を制御することにより、第1原料供給部20から反応セクション22に送り出される第1原料RM1の流量が調節される。
本例において、第1原料RM1は、ポリスチリルリチウムを溶媒に溶解した溶液である。ポリスチリルリチウムは、生産物PRであるポリスチレンのアニオン重合反応の開始剤として機能する。溶媒にはテトラヒドロフランが用いられる。また、溶液にはトルエンおよびヘキサンが少量混合されている。なお、フロー反応の原料は、第1原料RM1のようにポリスチリルリチウム等の反応物と他の物質との混合物であってもよいし、反応物のみで構成されていてもよい。
第2原料供給部21は、第1原料供給部20と同じく、反応セクション22の上流側端部と、図示しない配管によって接続されている。第2原料供給部21は、第2原料RM2を反応セクション22に供給する。第2原料供給部21も、第1原料供給部20と同じく、第2原料RM2を反応セクション22に送り出すためのポンプを有している。このポンプの回転数を制御することにより、第2原料供給部21から反応セクション22に送り出される第2原料RM2の流量が調節される。
本例において、第2原料RM2は、メタノール水溶液である。メタノールはアニオン重合反応の停止剤として用いられる。
反応セクション22は、フロー反応(本例においてはアニオン重合反応)を行うためのセクションである。反応セクション22は、合流部30と反応部31とを有する。合流部30は、第1管部32、第2管部33、および第3管部34で構成される。第1管部32と第2管部33は直線状に繋がっており、第3管部34は第1管部32および第2管部33と直角に交差している。すなわち合流部30はT字形状をしている。
第1管部32は第1原料供給部20に、第2管部33は第2原料供給部21に、それぞれ接続されている。また、第3管部34は、反応部31に接続されている。第1管部32には第1原料供給部20から第1原料RM1が、第2管部33には第2原料供給部21から第2原料RM2が、それぞれ供給される。そして、第1原料RM1および第2原料RM2は、第3管部34において合流し、混合された状態で反応部31に送り出される。
第1管部32には、第1管部32を通過する第1原料RM1の流速を検出する第1流速センサ35が設けられている。また、第2管部33には、第2管部33を通過する第2原料RM2の流速を検出する第2流速センサ36が設けられている。さらに、第3管部34には、第3管部34を通過する第1原料RM1と第2原料RM2の混合物の流速を検出する第3流速センサ37が設けられている。
反応部31は、複数本の同じ内径の直管を直線状に繋げた細長い管である。反応部31は、繋げる直管の本数および/または直管の長さを変えることで、長さLを変更可能である。また、反応部31は、繋げる直管の内径を変えることで、内径Φを変更可能である。
反応部31の内部は、第1原料RM1と第2原料RM2との混合物が流れる流路であり、フロー反応を行う場である。混合物が反応部31を通過することで、フロー反応が進められ、ポリスチレン溶液とされる。合流部30の第3管部34においてもフロー反応は若干進むが、反応部31の長さLに対して第3管部34の長さは非常に短い。このため、第3管部34は無視し、反応部31の長さLを、フロー反応を行う場の長さである反応路長と見なす。同様に、反応部31の内径Φを、フロー反応を行う場の径である反応路径と見なす。
温度調節部23は、加熱器および/または冷却器を含み、反応部31の内部の温度(以下、反応温度という)を調節する。反応部31の下流側端部には、反応温度を検出する温度センサ38が設けられている。
回収廃棄セクション24は、生産物PRであるポリスチレンを回収し、かつ反応が失敗した廃棄物を廃棄するセクションである。回収廃棄セクション24は、回収部40と廃棄部41とを有する。回収部40と廃棄部41とは、反応部31の下流側端部と三方弁42によって接続されている。この三方弁42により、反応部31と回収部40とを接続する回収ラインと、反応部31と廃棄部41とを接続する廃棄ラインとの切り替えが可能である。
回収部40は、ポリスチレン溶液からポリスチレンを析出させる。回収部40は、析出させたポリスチレンを溶液からろ過して採取する。そして、採取したポリスチレンを乾燥させる。より詳しくは、回収部40は、攪拌機を備えた容器をもち、当該容器にメタノールを収容し、攪拌されているメタノール中にポリスチレン溶液を混入することで、ポリスチレンを析出させる。また、回収部40は、減圧機能付きの恒温槽をもち、恒温槽内部を減圧状態にして加熱することで、メタノールを乾燥させる。
廃棄部41は、廃棄物を貯留するタンクである。ここで廃棄物とは、第1原料RM1の流速、第2原料RM2の流速、混合物の流速、反応温度等が何らかの要因で乱され、当初予定していた生産条件にて生産できなかった場合に、反応部31から送り出されたものである。
設定部25は、フロー反応装置13のオペレータによる生産物PRの生産工程における生産条件の設定を受け付ける。この設定部25で受け付けられた生産条件が、生産物PRの生産工程において設定された生産条件データPCDとしてシステムコントローラ26に登録される。
システムコントローラ26は、フロー反応装置13の全体の動作を統括的に制御する。システムコントローラ26は、第1原料供給部20、第2原料供給部21、温度調節部23、第1流速センサ35、第2流速センサ36、第3流速センサ37、温度センサ38、および三方弁42と接続されている。
システムコントローラ26は、第1流速センサ35が検出した第1原料RM1の流速に応じて、第1原料供給部20のポンプの回転数を制御し、第1原料RM1の流量を調節する。同様に、システムコントローラ26は、第2流速センサ36が検出した第2原料RM2の流速に応じて、第2原料供給部21のポンプの回転数を制御し、第2原料RM2の流量を調節する。また、システムコントローラ26は、温度センサ38が検出した反応温度に応じて、温度調節部23を駆動させる。さらに、システムコントローラ26は、三方弁42を制御して、前述の回収ラインと廃棄ラインとを切り替える。
反応セクション22に代えて、図6に示す反応セクション45を用いてもよい。なお、図6において、図5と同じ構成には同じ符号を付し、説明を省略する。
図6に示す反応セクション45の合流部46は、第1管部47、第2管部48、第3管部49、および第4管部50で構成される。第1管部47と第2管部48は直線状に繋がっている。同じく、第3管部49と第4管部50は直線状に繋がっている。そして、第1管部47および第2管部48は、第3管部49および第4管部50と直角に交差している。すなわち合流部46は十字形状をしている。
第1管部47および第2管部48は第1原料供給部20に、第3管部49は第2原料供給部21に、それぞれ接続されている。また、第4管部50は、反応部31に接続されている。第1管部47および第2管部48には第1原料供給部20から第1原料RM1が、第3管部49には第2原料供給部21から第2原料RM2が、それぞれ供給される。そして、第1原料RM1および第2原料RM2は、第4管部50において合流し、混合された状態で反応部31に送り出される。
第1管部47および第2管部48には、第1管部47および第2管部48を通過する第1原料RM1の流速を検出する第1流速センサ51および第2流速センサ52が設けられている。また、第3管部49には、第3管部49を通過する第2原料RM2の流速を検出する第3流速センサ53が設けられている。さらに、第4管部50には、第4管部50を通過する第1原料RM1と第2原料RM2の混合物の流速を検出する第4流速センサ54が設けられている。
この場合、システムコントローラ26は、第1流速センサ51が検出した第1原料RM1の流速と、第2流速センサ52が検出した第1原料RM1の流速の平均値に応じて、第1原料供給部20のポンプの回転数を制御し、第1原料RM1の流量を調節する。また、システムコントローラ26は、第3流速センサ53が検出した第2原料RM2の流速に応じて、第2原料供給部21のポンプの回転数を制御し、第2原料RM2の流量を調節する。
図7において、生産条件データPCDは、第1原料RM1の濃度(単位:mol/l)および流速(単位:ml/min)、第2原料RM2の濃度(単位:mol/l)および流速(単位:ml/min)、合流部の形状、反応路径Φ(単位:mm)、反応路長L(単位:m)、および反応温度(単位:℃)の各項目を有する。合流部の形状の項目には、図5で示した反応セクション22を用いた場合は図示の「T字状」が、図6で示した反応セクション45を用いた場合は「十字状」(図36等参照)が、それぞれ登録される。なお、混合物の流速を生産条件データPCDの項目として加えてもよい。
反応セクション22を用いた場合、システムコントローラ26は、第1流速センサ35が検出した第1原料RM1の流速が、生産条件データPCDに登録された第1原料RM1の流速と一致するよう、第1原料供給部20のポンプの回転数を制御して第1原料RM1の流量を調節する。同様に、システムコントローラ26は、第2流速センサ36が検出した第2原料RM2の流速が、生産条件データPCDに登録された第2原料RM2の流速と一致するよう、第2原料供給部21のポンプの回転数を制御して第2原料RM2の流量を調節する。
反応セクション45を用いた場合、システムコントローラ26は、第1流速センサ51が検出した第1原料RM1の流速と、第2流速センサ52が検出した第1原料RM1の流速の平均値が、生産条件データPCDに登録された第1原料RM1の流速と一致するよう、第1原料供給部20のポンプの回転数を制御して第1原料RM1の流量を調節する。同様に、システムコントローラ26は、第3流速センサ53が検出した第2原料RM2の流速が、生産条件データPCDに登録された第2原料RM2の流速と一致するよう、第2原料供給部21のポンプの回転数を制御して第2原料RM2の流量を調節する。
また、システムコントローラ26は、温度センサ38が検出した反応温度が、生産条件データPCDに登録された反応温度と一致するよう、温度調節部23を駆動させる。
システムコントローラ26は、各センサ35、36、38、51、52、53で検出した各値と、生産条件データPCDに登録された各値との乖離が、予め設定された範囲を超えた場合、三方弁42を制御して廃棄ラインに切り替え、廃棄物を廃棄部41に導く。なお、反応が失敗して廃棄物が出た場合は、当然ながら物性データPDおよび品質データQDは出力されない。このため、廃棄物が出た場合の生産条件データPCDは、学習装置10には送信されずに破棄される。
図8において、物性分析装置14は、生産物PRを分光分析して、スペクトルデータSPDを検出する。物性分析装置14は、分光分析として、例えば、近赤外分光分析、フーリエ変換赤外分光分析、ラマン分光分析、核磁気共鳴分光分析を行う。図8に例示するスペクトルデータSPDは、ラマン分光分析で得られたものであり、波数と強度の組で構成される。このスペクトルデータSPDの強度を波数毎にプロットして線で繋いだものが、スペクトルSPである。本例においては、このスペクトルSPの画像データSPIMDが、物性データPDとなる。スペクトルSPの画像データSPIMDは、本開示の技術に係る「多次元物性データ」の一例である。なお、波数と強度の組に代えて、波長と強度の組でスペクトルデータSPDが構成されていてもよい。
図9において、品質評価装置15は、品質データQDとして、生産物PRの分子量分散度および分子量を出力する。分子量は、ここでは数平均分子量である。また、分子量分散度は、重量平均分子量を数平均分子量で除算した値である。品質評価装置15は、例えば、生産物PRであるポリスチレンをテトラヒドロフランに溶解したポリスチレン溶液を用いて、ゲルパーミエーションクロマトグラフィ(以下、GPC(Gel Permeation Chromatography)と略す)により分子量分散度および分子量を求める。
GPCは、下記の条件で行っている。
装置:HLC-8220GPC(東ソー(株)製)
検出器:示差屈折計(RI(Refractive Index)検出器)
プレカラム:TSKGUARDCOLUMN HXL-L 6mm×40mm(東ソー(株)製)
サンプル側カラム:以下(1)~(3)の3本を順に直結(全て東ソー(株)製)
(1)TSK-GEL GMHXL 7.8mm×300mm
(2)TSK-GEL G4000HXL 7.8mm×300mm
(3)TSK-GEL G2000HXL 7.8mm×300mm
リファレンス側カラム:TSK-GEL G1000HXL 7.8mm×300mm
恒温槽温度:40℃
移動層:テトラヒドロフラン
サンプル側移動層流量:1.0ml/min
リファレンス側移動層流量:1.0ml/min
試料濃度:0.1質量%
試料注入量:100μl
データ採取時間:試料注入後5分~45分
サンプリングピッチ:300msec
なお、GPCに代えて、赤外分光分析、核磁気共鳴分光分析、高速液体クロマトグラフィ(HPLC;High Performance Liquid Chromatography)、またはガスクロマトグラフィ(GC;Gas Chromatography)等、各種の手法を用いてもよい。また、品質データQDは、生産物PRの分子量分散度および分子量に限らない。生産物PRが溶液の状態で得られる場合は、溶液中の生産物PRの濃度であるモル濃度を品質データQDとしてもよい。あるいは、生産物PRの量を原料RMの量で除算した生産物PRの収率を品質データQDとしてもよい。さらには、副生産物が生産された場合は、副生産物の収率等を品質データQDとしてもよい。
図10において、学習装置10および運用装置11を構成するコンピュータは、基本的な構成は同じであり、ストレージデバイス60、メモリ61、CPU(Central Processing Unit)62、通信部63、ディスプレイ64、および入力デバイス65を備えている。これらはバスライン66を介して相互接続されている。
ストレージデバイス60は、学習装置10等を構成するコンピュータに内蔵、またはケーブル、ネットワークを通じて接続されたハードディスクドライブである。もしくはストレージデバイス60は、ハードディスクドライブを複数台連装したディスクアレイである。ストレージデバイス60には、オペレーティングシステム等の制御プログラム、各種アプリケーションプログラム、およびこれらのプログラムに付随する各種データ等が記憶されている。なお、ハードディスクドライブに代えて、あるいは加えて、ソリッドステートドライブを用いてもよい。
メモリ61は、CPU62が処理を実行するためのワークメモリである。CPU62は、ストレージデバイス60に記憶されたプログラムをメモリ61へロードして、プログラムにしたがった処理を実行することにより、コンピュータの各部を統括的に制御する。
通信部63は、ネットワーク12を介した各種情報の伝送制御を行うネットワークインターフェースである。ディスプレイ64は各種画面を表示する。学習装置10等を構成するコンピュータは、各種画面を通じて、入力デバイス65からの操作指示の入力を受け付ける。入力デバイス65は、キーボード、マウス、タッチパネル等である。
なお、以下の説明では、学習装置10の各部に添え字の「A」を、運用装置11の各部に添え字の「B」を、それぞれ付して区別する。
図11において、学習装置10のストレージデバイス60Aには、第1作動プログラム70が記憶されている。第1作動プログラム70は、コンピュータを学習装置10として機能させるためのアプリケーションプログラムである。すなわち、第1作動プログラム70は、本開示の技術に係る「学習装置の作動プログラム」の一例である。
ストレージデバイス60Aには、フロー反応装置13からの生産物PRの生産工程における生産条件データPCD、物性分析装置14からの物性データPD、および品質評価装置15からの品質データQDも記憶される。また、ストレージデバイス60Aには、オートエンコーダAEも記憶される。さらに、ストレージデバイス60Aには、オートエンコーダAEを用いて物性データPDから導出された関連データPRD、および機械学習モデルMも記憶される。生産条件データPCD、物性データPD、関連データPRD、および品質データQDのセットは、複数記憶されている。
第1作動プログラム70が起動されると、学習装置10を構成するコンピュータのCPU62Aは、メモリ61等と協働して、第1リードライト(以下、RW(Read Write)と略す)制御部75、第1導出部76、学習部77、および送信制御部78として機能する。
第1RW制御部75は、ストレージデバイス60A内の各種データの読み出し、およびストレージデバイス60Aへの各種データの記憶を制御する。第1RW制御部75は、ストレージデバイス60Aから物性データPDおよびオートエンコーダAEを読み出し、物性データPDおよびオートエンコーダAEを第1導出部76に出力する。また、第1RW制御部75は、第1導出部76からの関連データPRDをストレージデバイス60Aに記憶する。なお、第1RW制御部75は、物性データPDをストレージデバイス60Aから読み出すことで、物性データPDを取得していることになる。すなわち、第1RW制御部75は、本開示の技術に係る「第1取得部」の一例である。
第1RW制御部75は、ストレージデバイス60Aから関連データPRD、生産条件データPCD、および品質データQDを読み出し、これらを学習部77に出力する。また、第1RW制御部75は、ストレージデバイス60Aから機械学習モデルMを読み出し、機械学習モデルMを学習部77および送信制御部78のいずれかに出力する。また、第1RW制御部75は、学習部77からの機械学習モデルMをストレージデバイス60Aに記憶する。
第1導出部76は、第1RW制御部75からの物性データPDを受け取る。第1導出部76は、物性データPDにオートエンコーダAEを適用して、関連データPRDを導出する。すなわち、第1導出部76は、本開示の技術に係る「導出部」の一例である。第1導出部76は、導出した関連データPRDに物性データPDと同じIDを付し、関連データPRDを第1RW制御部75に出力する。第1導出部76は、物性分析装置14から新たな物性データPDが送信される度に、関連データPRDの導出を行う。
学習部77は、第1RW制御部75からの学習用入力データIDL、品質データQD、および機械学習モデルMを受け取る。学習部77は、学習用入力データIDLを機械学習モデルMに与えて学習させ、学習済みモデルTMを出力する。
送信制御部78は、第1RW制御部75からの機械学習モデルMを受け取る。送信制御部78が第1RW制御部75から受け取る機械学習モデルMは、学習済みモデルTMである。送信制御部78は、学習済みモデルTMを運用装置11に送信する制御を行う。
オートエンコーダAEは、入力画像データIIMD(図12参照)を解析する複数の階層を有し、階層毎に、入力画像データIIMDに含まれる空間周波数の周波数帯域が異なる特徴を抽出する、畳み込みニューラルネットワークで構成された階層型の機械学習モデルである。畳み込みニューラルネットワークは、例えばU-Net(U-Shaped Neural Network)、SegNet等である。本例において、入力画像データIIMDは、スペクトルSPの画像データSPIMDである。
図12に示すように、オートエンコーダAEは、エンコーダネットワーク80とデコーダネットワーク81とで構成される。エンコーダネットワーク80は、階層毎に、フィルタF(図13参照)を用いた畳み込み演算を行って、画像特徴マップCMPを抽出する畳み込み処理を行う。デコーダネットワーク81は、エンコーダネットワーク80の最下位階層から出力された最小の画像特徴マップCMPの画像サイズを段階的に拡大する。そして、段階的に拡大された画像特徴マップCMPと、エンコーダネットワーク80の各階層で出力された画像特徴マップCMPとを結合して、入力画像データIIMDと同じ画像サイズの出力画像データOIMDを生成する。なお、出力画像データOIMDは、本開示の技術に係る「出力データ」の一例である。
エンコーダネットワーク80の各階層には、二次元に配列された複数の画素値をもつ入力データDI(図13参照)が入力される。エンコーダネットワーク80は、各階層において、入力データDIに対して畳み込み処理を行って画像特徴マップCMPを抽出する。エンコーダネットワーク80の最上位の第1階層には、入力データDIとして入力画像データIIMDが入力される。第1階層は、入力画像データIIMDに畳み込み処理を行って、例えば、入力画像データIIMDと同じ画像サイズの画像特徴マップCMPを出力する。第2階層以下では、入力データDIとして、上位の各階層で出力された画像特徴マップCMPが入力される。第2階層以下では、画像特徴マップCMPに対して畳み込み処理が行われて、例えば、入力された画像特徴マップCMPと同じ画像サイズの画像特徴マップCMPが出力される。
図13において、畳み込み処理は、入力データDIに例えば3×3のフィルタFを適用して、入力データDI内の注目画素Ipの画素値eと、注目画素Ipに隣接する8個の画素Isの画素値a、b、c、d、f、g、h、iを畳み込むことにより、入力データDIと同様に、二次元状に画素値が配列された出力データDIcを得る処理である。フィルタFの係数をr、s、t、u、v、w、x、y、zとした場合、注目画素Ipに対する畳み込み演算の結果である、出力データDIcの画素Icpの画素値kは、例えば下記の(式1)を計算することで得られる。
k=az+by+cx+dw+ev+fu+gt+hs+ir・・・(式1)
畳み込み処理では、入力データDIの各画素に対して上記のような畳み込み演算を行い、画素値kを出力する。こうして、二次元状に配列された画素値kをもつ出力データDIcが出力される。出力データDIcは、1個のフィルタFに対して1つ出力される。種類が異なる複数のフィルタFが使用された場合は、フィルタF毎に出力データDIcが出力される。
図14に示すように、出力データDIcは、二次元状に画素値kが配列されたデータであり、幅と高さをもつ。また、種類が異なる複数のフィルタFを適用して、複数の出力データDIcが出力された場合は、画像特徴マップCMPは、複数の出力データDIcの集合になる。画像特徴マップCMPにおいて、フィルタFの数はチャンネル数と呼ばれる。図14に示す画像特徴マップCMPは、4個のフィルタFを適用して出力された4つの出力データDIcを有する、4チャンネルの画像特徴マップCMPの例である。
図15に示すように、オートエンコーダAEは、スペクトルデータSPDの複数の区間毎に用意されている。図15では、スペクトルデータSPDを分けた複数の区間として、スペクトルデータSPDを20等分に分けた20個の区間INT1、INT2、INT3、・・・、INT20を例示している。そして、区間INT1~INT20毎に、オートエンコーダAE_INT1~AE_INT20が用意された場合を例示している。各オートエンコーダAE_INT1~AE_INT20は、各区間INT1~INT20のスペクトルSPの画像データSPIMD_INT1~SPIMD_INT20に特化したものである。なお、以下の説明では、オートエンコーダAE_INT1~AE_INT20をまとめてオートエンコーダAEと表記する場合がある。
図16に示すように、オートエンコーダAEには、品質が予め設定されたレベルよりも良好な生産物PRのスペクトルSPの画像データSPIMDが、学習用入力画像データIIMDLとして与えられる。そして、オートエンコーダAEは、学習用入力画像データIIMDLと学習用出力画像データOIMDLが一致するよう学習される。すなわち、オートエンコーダAEは、品質が予め設定されたレベルよりも良好な生産物PRのスペクトルSPの画像データSPIMDが入力画像データIIMDとして入力された場合に、理想的には、入力画像データIIMDのスペクトルSPと形状が同じスペクトルSPをもつ出力画像データOIMDを出力する。なお、予め設定されたレベルとは、例えば、分子量分散度が1.5以上、分子量が25000以上等である。
図16では、各オートエンコーダAE_INT1~AE_INT20のうちのオートエンコーダAE_INT1を例示している。このため、学習用入力画像データIIMDLは、区間INT1のスペクトルSPの画像データSPIMD_INT1である。
図17に示すように、第1導出部76は、スペクトルSPの画像データSPIMDを入力画像データIIMDとしてオートエンコーダAEに与えて、出力画像データOIMDを出力させる。次いで、第1導出部76は、入力画像データIIMDと出力画像データOIMDとの差分データDDを算出する。具体的には、第1導出部76は、各区間INT1~INT20のそれぞれについて、入力画像データIIMDと出力画像データOIMDの各波数における強度の差分を、差分データDDとして算出する。
図17では、図16と同様に、オートエンコーダAE_INT1のみを図示している。オートエンコーダAE_INT1には、入力画像データIIMDとして、区間INT1のスペクトルSPの画像データSPIMD_INT1が与えられる。そして、入力画像データIIMDと、オートエンコーダAE_INT1の出力画像データOIMDとに基づいて、区間INT1の差分データDD_INT1が算出される。
ここで、オートエンコーダAEは、図16で示したように、品質が予め設定されたレベルよりも良好な生産物PRのスペクトルSPの画像データSPIMDが、学習用入力画像データIIMDLとして与えられて学習されたものである。このため、入力画像データIIMDの出所である生産物PRの品質が、予め設定されたレベルよりも良好であったならば、入力画像データIIMDと略同じ出力画像データOIMDがオートエンコーダAEから出力される。したがって、強度の差分は比較的小さくなる。逆に、生産物PRの品質が、予め設定されたレベル以下であったならば、入力画像データIIMDとは異なる出力画像データOIMDがオートエンコーダAEから出力される。したがって、強度の差分は比較的大きくなる。すなわち、差分データDDによれば、生産物PRの品質が予め設定されたレベルよりも良好か否かが分かる。
図18に示すように、第1導出部76は、各区間INT1~INT20の差分データDD_INT1、DD_INT2、・・・、DD_INT20のそれぞれについて、関連データPRD_INT1、PRD_INT2、・・・、PRD_INT20を導出する。具体的には、第1導出部76は、関連データPRD_INT1~PRD_INT20として、各区間INT1~INT20の強度の差分の平均値および総和を導出する。関連データPRD_INT1~PRD_INT20は、本開示の技術に係る「多次元物性関連データ」の一例である。この例の場合、関連データPRD_INT1~PRD_INT20を統合した関連データPRDのトータルの項目数は、代表値が強度の差分の平均値および総和の2種で区間が20区間であるため、2×20=40個となる。なお、強度の差分の平均値および総和に代えて、あるいは加えて、強度の差分の最大値、最小値、中央値、分散といった他の代表値を、関連データPRDとして導出してもよい。
図19に示すように、学習部77は、第1処理部85、評価部86、および更新部87を有する。第1処理部85は、学習用入力データIDLを機械学習モデルMに与えて、機械学習モデルMから学習用出力データODLを出力させる。学習用出力データODLは、品質データQDと同じく、分子量分散度および分子量で構成される(図20参照)。第1処理部85は、学習用出力データODLを評価部86に出力する。
評価部86は、第1処理部85からの学習用出力データODLを受け取る。評価部86は、学習用出力データODLと品質データQDとを比較し、機械学習モデルMの予測の精度を評価する。評価部86は、評価結果を更新部87に出力する。
評価部86は、例えば、損失関数を用いて機械学習モデルMの予測の精度を評価する。損失関数は、学習用出力データODLと品質データQDとの差異の程度を表す関数である。損失関数の算出値が0に近いほど、機械学習モデルMの予測の精度が高いことを示す。
更新部87は、評価部86からの評価結果に応じて、機械学習モデルMを更新する。例えば、更新部87は、学習係数を伴う確率的勾配降下法等により、機械学習モデルMの各種パラメータの値を変化させる。学習係数は、機械学習モデルMの各種パラメータの値の変化幅を示す。すなわち、学習係数が比較的大きい値であるほど、各種パラメータの値の変化幅は大きくなり、機械学習モデルMの更新度合いも大きくなる。
これら第1処理部85による機械学習モデルMへの学習用入力データIDLの入力と評価部86への学習用出力データODLの出力、評価部86による予測の精度の評価、および更新部87による機械学習モデルMの更新は、予測の精度が予め設定されたレベルとなるまで、繰り返し続けられる。
図20に示すように、第1処理部85は、生産条件データPCDおよび関連データPRDで構成される学習用入力データIDLを機械学習モデルMに与える。そして、評価部86による機械学習モデルMの予測の精度の評価、および更新部87による機械学習モデルMの更新が行われる。こうした処理が学習用入力データIDLを変えつつ繰り返し続けられることで、機械学習モデルMは予測の精度が予め設定されたレベルに達する。予測の精度が予め設定されたレベルに達した機械学習モデルMは、学習済みモデルTMとして、第1RW制御部75によりストレージデバイス60Aに記憶される。
図21において、運用装置11のストレージデバイス60Bには、第2作動プログラム110が記憶されている。第2作動プログラム110は、コンピュータを運用装置11として機能させるためのアプリケーションプログラムである。
ストレージデバイス60Bには、学習装置10からの学習済みモデルTM、学習装置10と同じオートエンコーダAE、および物性分析装置14からの予測用物性データPDFも記憶される。また、ストレージデバイス60Bには、予測用生産条件データPCDFも記憶される。予測用生産条件データPCDFは、入力デバイス65Bを介してオペレータにより入力される。より詳しくは、予測用生産条件データPCDFの各項目の入力ボックスが用意された入力画面がディスプレイ64Bに表示され、入力画面を通じて予測用生産条件データPCDFが入力される。予測用生産条件データPCDFおよび予測用物性データPDFは、品質が未知で、これから学習済みモデルTMを用いて品質を予測する生産物PRの生産条件データPCDおよび物性データPDである。
また、ストレージデバイス60Bには、予測用物性データPDFから導出された予測用物性関連データ(以下、予測用関連データと略す)PRDFも記憶される。
第2作動プログラム110が起動されると、運用装置11を構成するコンピュータのCPU62Bは、メモリ61等と協働して、第2RW制御部115、第2導出部116、第2処理部117、および表示制御部118として機能する。
第2RW制御部115は、学習装置10の第1RW制御部75と同様、ストレージデバイス60B内の各種データの読み出し、およびストレージデバイス60Bへの各種データの記憶を制御する。第2RW制御部115は、ストレージデバイス60Bから予測用物性データPDFおよびオートエンコーダAEを読み出し、予測用物性データPDFおよびオートエンコーダAEを第2導出部116に出力する。また、第2RW制御部115は、第2導出部116からの予測用関連データPRDFをストレージデバイス60Bに記憶する。
第2RW制御部115は、ストレージデバイス60Bから学習済みモデルTMを読み出し、学習済みモデルTMを第2処理部117に出力する。第2RW制御部115は、学習済みモデルTMをストレージデバイス60Bから読み出すことで、学習済みモデルTMを取得していることになる。すなわち、第2RW制御部115は、本開示の技術に係る「第2取得部」の一例である。
第2RW制御部115は、ストレージデバイス60Bから予測用関連データPRDFおよび予測用生産条件データPCDFを読み出し、これらを第2処理部117に出力する。第2RW制御部115は、予測用関連データPRDFをストレージデバイス60Bから読み出すことで、予測用関連データPRDFを取得していることになる。すなわち、第2RW制御部115は、本開示の技術に係る「第3取得部」の一例である。
第2導出部116は、第2RW制御部115からの予測用物性データPDFおよびオートエンコーダAEを受け取る。第2導出部116は、予測用物性データPDFから予測用関連データPRDFを導出する。より詳しくは、第2導出部116は、学習装置10の第1導出部76と同じように、スペクトルデータSPDを分けた複数の区間INT1~INT20のそれぞれについて、強度の差分の平均値および総和を導出する。
第2処理部117は、第2RW制御部115からの予測用生産条件データPCDF、予測用関連データPRDF、および学習済みモデルTMを受け取る。第2処理部117は、学習済みモデルTMに予測用生産条件データPCDFおよび予測用関連データPRDFを与えて品質を予測させる。すなわち、第2処理部117は、本開示の技術に係る「処理部」の一例である。第2処理部117は、学習済みモデルTMによる品質の予測結果である品質予測データQFDを表示制御部118に出力する。品質予測データQFDは、品質データQDと同じく、分子量分散度および分子量で構成される(図22等参照)。
表示制御部118は、各種画面をディスプレイ64Bに表示する制御を行う。各種画面には、前述の予測用生産条件データPCDFの入力画面の他、品質予測データQFDを表示する品質予測表示画面120(図23参照)がある。すなわち、表示制御部118は、本開示の技術に係る「出力制御部」の一例である。
図22は、IDがPR0500の、品質が未知の生産物PRの品質を、学習済みモデルTMで予測する様子を示している。第2処理部117において、予測用生産条件データPCDFおよび予測用関連データPRDFが学習済みモデルTMに与えられる。
図23において、表示制御部118の制御の下でディスプレイ64Bに表示される品質予測表示画面120には、学習済みモデルTMから出力された品質予測データQFDが表示される。品質予測表示画面120は、OKボタン121を選択することで表示が消える。
次に、上記構成による作用について、図24~図26のフローチャートを参照して説明する。まず、学習装置10において第1作動プログラム70が起動されると、図11で示したように、学習装置10のCPU62Aは、第1RW制御部75、第1導出部76、学習部77、および送信制御部78として機能される。学習部77は、図19で示したように、第1処理部85、評価部86、および更新部87として機能される。
図24において、学習装置10では、物性分析装置14からの新たな物性データPD、本例においてはスペクトルSPの画像データSPIMDが受信されてストレージデバイス60Aに記憶された場合(ステップST1001でYES)、第1RW制御部75によりストレージデバイス60AからスペクトルSPの画像データSPIMDが読み出される(ステップST1002)。スペクトルSPの画像データSPIMDは、第1RW制御部75から第1導出部76に出力される。なお、ステップST1002は、本開示の技術に係る「第1取得ステップ」の一例である。
図17で示したように、まず、第1導出部76により、オートエンコーダAEにスペクトルSPの画像データSPIMDが与えられる。そして、これによりオートエンコーダAEから出力された出力画像データOIMDと、オートエンコーダAEに与えたスペクトルSPの画像データSPIMDとの差分データDDが算出される。次いで、図18で示したように、第1導出部76により、差分データDDに基づいて、スペクトルデータSPDを分けた複数の区間INT1~INT20のそれぞれについて、強度の差分の平均値および総和が関連データPRDとして導出される(ステップST1003)。関連データPRDは、第1導出部76から第1RW制御部75に出力される(ステップST1004)。関連データPRDは、第1RW制御部75によりストレージデバイス60Aに記憶される。なお、ステップST1003は、本開示の技術に係る「導出ステップ」の一例である。
また、図25に示すように、学習装置10では、第1RW制御部75により、生産物PRの生産工程において設定された生産条件データPCDおよび関連データPRDの組で構成される学習用入力データIDLがストレージデバイス60Aから読み出される(ステップST2001)。学習用入力データIDLは、第1RW制御部75から学習部77に出力される。
学習部77では、図20で示したように、第1処理部85において、生産条件データPCDおよび関連データPRDで構成される学習用入力データIDLが機械学習モデルMに与えられ、機械学習モデルMから学習用出力データODLが出力される(ステップST2002)。そして、評価部86において、学習用出力データODLと品質データQDとが比較され、機械学習モデルMによる生産物PRの品質の予測の精度が評価される(ステップST2003)。
評価部86による機械学習モデルMの予測の精度の評価結果が、機械学習モデルMの予測の精度が予め設定されたレベル未満であるという内容であった場合(ステップST2004でNO)、更新部87により機械学習モデルMが更新される(ステップST2005)。そして、更新後の機械学習モデルMを用いて、ステップST2001、ステップST2002、およびステップST2003の処理が繰り返される。これらのステップST2001~ステップST2003の各処理は、評価部86による機械学習モデルMの予測の精度の評価結果が、機械学習モデルMの予測の精度が予め設定されたレベルに達したという内容であった場合(ステップST2004でYES)に終了される。予測の精度が予め設定されたレベルに達した機械学習モデルMは、学習済みモデルTMとして学習部77から第1RW制御部75に出力される(ステップST2006)。学習済みモデルTMは、第1RW制御部75によりストレージデバイス60Aに記憶される。そして、学習済みモデルTMは、送信制御部78によって運用装置11に送信される。なお、これら一連のステップST2001~ステップST2006は、本開示の技術に係る「学習ステップ」の一例である。
運用装置11において第2作動プログラム110が起動されると、図21で示したように、運用装置11のCPU62Bは、第2RW制御部115、第2導出部116、第2処理部117、および表示制御部118として機能される。
運用装置11では、第2RW制御部115によりストレージデバイス60Bから予測用物性データPDFおよびオートエンコーダAEが読み出され、第2導出部116に出力される。そして、第2導出部116により、予測用物性データPDFのスペクトルデータSPDを分けた複数の区間INT1~INT20のそれぞれについて、強度の差分の平均値および総和が導出される。こうして第2導出部116において予測用関連データPRDFが導出される。予測用関連データPRDFは、第2RW制御部115によりストレージデバイス60Bに記憶される。
図26に示すように、運用装置11では、第2RW制御部115によりストレージデバイス60Bから学習済みモデルTMが読み出される(ステップST500)。また、第2RW制御部115によりストレージデバイス60Bから生産物PRの生産工程において設定された予測用生産条件データPCDFおよび予測用関連データPRDFが読み出される(ステップST600)。学習済みモデルTM、予測用生産条件データPCDF、および予測用関連データPRDFは、第2RW制御部115から第2処理部117に出力される。
図22で示したように、第2処理部117において、予測用生産条件データPCDFと予測用関連データPRDFが学習済みモデルTMに与えられ、学習済みモデルTMから品質予測データQFDが出力される(ステップST700)。品質予測データQFDは、第2処理部117から表示制御部118に出力される。
表示制御部118により、図23で示した品質予測表示画面120がディスプレイ64Bに表示される(ステップST800)。この品質予測表示画面120によって、品質予測データQFDがオペレータの閲覧に供される。
以上説明したように、学習装置10は、物性データPDを第1RW制御部75で取得し、第1導出部76において、物性データPDにオートエンコーダAEを適用して、関連データPRDを学習用入力データIDLとして導出する。そして、学習部77において、関連データPRDを含む学習用入力データIDLを機械学習モデルMに与えて学習させ、学習済みモデルTMを出力する。したがって、生産物PRの物性を的確に表した数値(ここでは強度の差分の平均値および総和)を、関連データPRDとして導出することができ、学習済みモデルTMによる生産物PRの品質の予測の精度をより向上させることができる。
より具体的には図27の表125に示すように、生産条件データPCDと、オートエンコーダAEを用いて導出した関連データPRDとを学習用入力データIDLとして与えた実施例は、比較例1および比較例2よりも分子量分散度の決定係数および分子量の決定係数が高い、という結果が得られた。なお、比較例1は、生産条件データPCDのみを学習用入力データIDLとして与えた場合、比較例2は、生産条件データPCDと、強度の代表値で構成される関連データPRDを、学習用入力データIDLとして与えて学習させた場合である。このように、オートエンコーダAEを用いて導出した関連データPRDを学習用入力データIDLとして与えて学習させることで、学習済みモデルTMによる生産物PRの品質の予測の精度をより向上させることができることが確かめられた。
なお、比較例2の関連データPRDは、例えば図28に示すように、各区間INT1~INT20のスペクトルデータSPD_INT1~SPD_INT20の強度の代表値である平均値、最大値、最小値、中央値、分散、歪度、および尖度で構成される。この場合は、スペクトルデータSPD自体が物性データPDとなる。
学習用入力データIDLは、関連データPRDだけでなく生産条件データPCDも含んでいる。このため、生産条件データPCDの影響も考慮した品質予測データQFDを、機械学習モデルMから出力させることができる。
物性データPDは、生産物PRを分光分析して検出されたスペクトルデータSPDで表されるスペクトルSPの画像データSPIMDを含む。そして、関連データPRDは、スペクトルデータSPDを分けた複数の区間INT1~INT20のそれぞれについて導出した強度の差分の平均値および総和である。スペクトルデータSPDの各波数の強度を全て関連データPRDとする場合と比べて、関連データPRDのデータ量を減らすことができる。
運用装置11は、学習済みモデルTMおよび予測用関連データPRDFを第2RW制御部115で取得する。次いで、第2処理部117において、学習済みモデルTMに予測用関連データPRDFを与えて品質を予測させる。そして、表示制御部118の制御の下で、学習済みモデルTMによる品質の予測結果である品質予測データQFDを含む品質予測表示画面120をディスプレイ64Bに表示させる。したがって、オペレータは、生産物PRをわざわざ品質評価装置15にかけて実際に品質を評価させることなく、簡単に生産物PRの品質がどの程度であるかを把握することができる。
ここで、品質評価装置15において生産物PRの品質を実際に評価する場合、生産物PRの前処理および品質の評価処理に、例えば1週間~2週間程度の比較的長い時間が掛かる。対して、学習済みモデルTMを用いれば、ごく短い時間で生産物PRの品質を予測することができる。しかも、図27で実施例として示したように学習済みモデルTMの予測の精度が比較的高いので、オペレータは品質予測データQFDを大いに参考にして今後の生産物PRの生産計画を立てることができる。
[第2実施形態]
図29~図31に示す第2実施形態では、生産物PRを撮影して得られる画像データIMDを物性データPDとする。
図29において、第2実施形態の物性分析装置130は、例えばデジタル光学顕微鏡であり、生産物PRを撮影して画像データIMDを物性データPDとして出力する。なお、画像データIMDは、本開示の技術に係る「多次元物性データ」の一例である。
図30および図31に示すように、第2実施形態の第1導出部135は、画像データIMDを等分した複数の領域AR1-1、AR1-2、・・・、AR10-10のそれぞれについて、関連データPRD_AR1-1、PRD_AR1-2、・・・、PRD_AR10-10を導出する。具体的には、第1導出部135は、関連データPRD_AR1-1~PRD_AR10-10として、各領域AR1-1~AR10-10の画像データIMD_AR1-1~IMD_AR10-10の画素値と、これらの画像データIMD_AR1-1~IMD_AR10-10をオートエンコーダAEに与えて出力された出力画像データOIMDの画素値との差分の平均値および総和を導出する。また、図示および詳細な説明は省略するが、運用装置の第2導出部においても、第1導出部135と同様に、品質が未知の生産物PRの画像データIMDの画素値の差分の平均値および総和が、予測用関連データPRDFとして導出される。なお、オートエンコーダAEは、画像データIMDの領域AR毎に用意される。
このように、第2実施形態では、生産物PRを撮影して得られる画像データIMDを物性データPDとする。したがって、生産物PRの物性をより容易に捉えることができる。
なお、画像データIMDは、上記第1実施形態のスペクトルSPの画像データSPIMDに代えて物性データPDとしてもよいし、スペクトルSPの画像データSPIMDに加えて物性データPDとしてもよい。また、物性分析装置130は、例示のデジタル光学顕微鏡に限らず、走査型電子顕微鏡(SEM;Scanning Electron Microscope)等でもよい。
多次元物性データは、上記第1実施形態のスペクトルデータSPD、および上記第2実施形態の画像データIMDに限らない。ヒトの五感である視覚、聴覚、臭覚、触覚、味覚のいずれかに関係する多次元物性データを用いてもよい。例えば生産物PRの触覚データ、生産物PRの生産時の臭気データ、生産物PRの生産時の音声データ等が挙げられる。
触覚データの場合は、生産物PRの複数箇所の触感センサの出力を触覚データとし、複数箇所のそれぞれの触覚センサの出力の平均値等を関連データPRDとして導出する。音声データの場合は、生産開始から終了までをマイクで録音して音声データとし、該音声データを複数の区間に分け、複数の区間のそれぞれの周波数の平均値、振幅の平均値等を関連データPRDとして導出する。
[第3実施形態]
図32に示す第4実施形態では、オートエンコーダAEの一部であるエンコーダネットワーク140から出力された画像特徴マップCMPに基づいて関連データPRDを導出する。
図32において、第4実施形態の第1導出部145は、物性データPDであるスペクトルSPの画像データSPIMDを、入力画像データIIMDとしてオートエンコーダAEに与える。そして、オートエンコーダAEのエンコーダネットワーク140から画像特徴マップCMPを出力させる。画像特徴マップCMPは、例えば、エンコーダネットワーク140の最下位階層から出力された最小の画像特徴マップCMPである。なお、第3実施形態のオートエンコーダAEは、上記第1実施形態のオートエンコーダAEと同じく、スペクトルデータSPDの複数の区間INT1~INT20毎に用意されている。ただし、第3実施形態のオートエンコーダAEは、上記第1実施形態のオートエンコーダAEとは異なり、品質のレベルに関係なく、種々の生産物PRのスペクトルSPの画像データSPIMDが学習用入力画像データIIMDLとして与えられて学習されたものである。
第1導出部145は、画像特徴マップCMPに基づいて関連データPRDを導出する。すなわち、画像特徴マップCMPは、本開示の技術に係る「特徴データ」の一例である。
図32では、画像特徴マップCMPが、チャンネル1(Ch1)の出力データDIc、チャンネル2(Ch2)の出力データDIc、チャンネル3(Ch3)の出力データDIc、チャンネル4(Ch4)の出力データDIcで構成されていた場合を例示している。そして、第1導出部145により、チャンネル1~チャンネル4の出力データDIcのそれぞれについて、画素値の平均値を関連データPRDとして導出する例を示している。なお、平均値に代えて、あるいは加えて、最大値、最小値、中央値、分散等を関連データPRDとして導出してもよい。また、図示および詳細な説明は省略するが、運用装置の第2導出部においても、第1導出部145と同様に、品質が未知の生産物PRのスペクトルSPの画像データSPIMDの各区間INT1~INT20の画像特徴マップCMPの出力データDIcの画素値の平均値が、予測用関連データPRDFとして導出される。
図32では、オートエンコーダAE_INT1のみを図示している。オートエンコーダAE_INT1には、入力画像データIIMDとして、区間INT1のスペクトルSPの画像データSPIMD_INT1が与えられる。第1導出部145は、オートエンコーダAE_INT1のエンコーダネットワーク140の画像特徴マップCMPから、区間INT1の関連データPRD_INT1を導出する。なお、図示および説明は省略するが、他の区間INT2~INT20についても、オートエンコーダAE_INT2~AE_INT20のエンコーダネットワーク140の画像特徴マップCMPから、関連データPRD_INT2~PRD_INT20が導出される。
このように、第3実施形態では、オートエンコーダAEのエンコーダネットワーク140から出力された画像特徴マップCMPに基づいて関連データPRDを導出する。したがって、上記第1実施形態と同様に、生産物PRの物性を的確に表した数値(ここでは出力データDIcの画素値の平均値)を、関連データPRDとして導出することができ、学習済みモデルTMの予測の精度をより向上させることができる。
画像特徴マップCMPは、エンコーダネットワーク140の最下位階層以外の階層から出力されたものであってもよい。
なお、画像特徴マップCMPに基づく関連データPRDは、上記第1実施形態の差分データDDに基づく関連データPRDに代えて用いてもよいし、加えて用いてもよい。
第3実施形態においても、入力画像データIIMDは例示したスペクトルSPの画像データSPIMDに限らない。スペクトルSPの画像データSPIMDに代えて、あるいは加えて、上記第2実施形態の、生産物PRを撮影して得られる画像データIMDを入力画像データIIMDとしてもよい。
[第4実施形態]
図33~図45に示す第4実施形態では、関連データPRDの複数の項目の中から、機械学習モデルMによる生産物PRの品質の予測の精度の向上に寄与する程度が予め設定された条件を満たす高寄与項目を抽出し、高寄与項目の関連データPRDを選択的に機械学習モデルMに与えて学習させる。なお、以下では、上記第1実施形態と同じ構成については同じ符号を付して説明を省略する。
図33において、第4実施形態の学習装置150のストレージデバイス60Aには、第1作動プログラム151が記憶されている。第1作動プログラム151は、上記第1実施形態の第1作動プログラム70と同じく、本開示の技術に係る「学習装置の作動プログラム」の一例である。
第1作動プログラム151が起動されると、学習装置150を構成するコンピュータのCPU62Aは、メモリ61等と協働して、上記第1実施形態の第1RW制御部75、第1導出部76、学習部77、および送信制御部78に加えて、抽出部155として機能する。
この場合、学習部77は、学習用入力データIDLを機械学習モデルMに与えて学習させ、仮の機械学習モデルPM(図35参照)を出力する。学習部77は、仮の機械学習モデルPMを第1RW制御部75に出力する。第1RW制御部75は、仮の機械学習モデルPMをストレージデバイス60Aに記憶する。以下、この学習部77が仮の機械学習モデルPMを出力する期間を、仮学習という。また、仮学習において用いられる機械学習モデルMを、第1機械学習モデルM1(図34参照)と表記する。
第1RW制御部75は、仮の機械学習モデルPMをストレージデバイス60Aから読み出し、仮の機械学習モデルPMを抽出部155に出力する。抽出部155は、仮の機械学習モデルPMを用いて、関連データPRDの複数の項目の中から高寄与項目を抽出する。高寄与項目は、生産物PRの品質の予測の精度の向上に寄与する程度が予め設定された条件を満たす項目である。抽出部155は、高寄与項目の抽出結果である高寄与項目情報HCIIを学習部77に出力する。また、図示は省略したが、抽出部155は、高寄与項目情報HCIIを第1RW制御部75に出力し、第1RW制御部75は、高寄与項目情報HCIIをストレージデバイス60Aに記憶する。
学習部77は、抽出部155からの高寄与項目情報HCIIを受け取る。学習部77は、高寄与項目情報HCIIに基づいて、高寄与項目の関連データPRDを選択的に機械学習モデルMに与えて学習させ、機械学習モデルMを学習済みモデルTMとして出力する。以下、この学習部77が学習済みモデルTMを出力する期間を、本学習という。また、本学習において用いられる機械学習モデルMを、第2機械学習モデルM2(図42参照)と表記する。
送信制御部78は、学習済みモデルTMとともに高寄与項目情報HCIIを第1RW制御部75から受け取り、高寄与項目情報HCIIも運用装置175(図44参照)に送信する制御を行う。
図34に示すように、仮学習では、第1処理部85は、生産条件データPCDおよび関連データPRDの複数の項目を、余すところなく学習用入力データIDLとして第1機械学習モデルM1に与える。そして、評価部86による第1機械学習モデルM1の予測の精度の評価、および更新部87による第1機械学習モデルM1の更新が行われる。こうした処理が学習用入力データIDLを変えつつ繰り返し続けられることで、第1機械学習モデルM1は予測の精度が予め設定されたレベルに達する。予測の精度が予め設定されたレベルに達した第1機械学習モデルM1は、仮の機械学習モデルPMとして、第1RW制御部75によりストレージデバイス60Aに記憶される。
図35に示すように、抽出部155は、第3処理部160、第4処理部161、算出部162、および判定部163を有する。第3処理部160は、学習用入力データIDLを仮の機械学習モデルPMに与えて、仮の機械学習モデルPMから仮の出力データPODを出力させる。仮の出力データPODは、学習用出力データODLと同じく、分子量分散度および分子量で構成される(図36等参照)。第3処理部160は、仮の出力データPODを算出部162に出力する。
第4処理部161は、第3処理部160で仮の機械学習モデルPMに与えたものと同じ生産条件データPCDと、抽出用物性関連データ(以下、抽出用関連データと略す)PRDEとを仮の機械学習モデルPMに与えて、仮の機械学習モデルPMから抽出用仮の出力データPODEを出力させる。抽出用仮の出力データPODEは、学習用出力データODLと同じく、分子量分散度および分子量で構成される(図37等参照)。第4処理部161は、抽出用仮の出力データPODEを算出部162に出力する。
算出部162は、第3処理部160からの仮の出力データPODと第4処理部161からの抽出用仮の出力データPODEとを受け取る。算出部162は、仮の出力データPODおよび抽出用仮の出力データPODEに基づいて、関連データPRDの項目が第1機械学習モデルM1の品質の予測の精度の向上に寄与する程度である関連データPRDの項目の寄与度を算出する。算出部162は、寄与度の算出結果である寄与度情報CIを判定部163に出力する。
判定部163は、算出部162からの寄与度情報CIを受け取る。判定部163は、寄与度情報CIと設定条件SCとに基づいて、関連データPRDの複数の項目の各々が高寄与項目であるか否かを判定する。判定部163は、判定結果として高寄与項目情報HCIIを学習部77に出力する。
図36に示すように、第3処理部160においては、図34で示した第1処理部85の場合と同様に、関連データPRDの複数の項目が余すところなく仮の機械学習モデルPMに与えられる。対して図37に示すように、第4処理部161においては、関連データPRDの複数の項目のうちの1つの項目が除かれた抽出用関連データPRDEが仮の機械学習モデルPMに与えられる。なお、図37では、第1区間INT1の関連データPRD_INT1の強度の差分の平均値の項目が除かれた例を示している。
図38および図39に示すように、算出部162は、まず、仮の出力データPODおよび抽出用仮の出力データPODEから、変化率を算出する。変化率は、以下の(式2)で求められる。
変化率=|仮の出力データと抽出用仮の出力データとの差分|/仮の出力データ・・・(式2)
変化率は、抽出用関連データPRDEにおいて除かれた項目の影響で、仮の機械学習モデルPMの出力データがどの程度変化するかを示す値である。
次いで、算出部162は、変化率を寄与度に変換する変換表170を用いて、変化率を寄与度に変換する。変換表170には、変化率が0以上0.05未満の場合に寄与度0が、変化率が0.05以上0.1未満の場合に寄与度1が、・・・、変化率が0.45以上0.5未満の場合に寄与度9が、変化率が0.5以上の場合に寄与度10が、それぞれ登録されている。
図39は、図36で示した仮の出力データPODの分子量分散度=1.5865、分子量=22000、図37で示した抽出用仮の出力データPODEの分子量分散度=1.6043、分子量=26000の場合を例示している。この場合、分子量分散度の変化率=|1.5865-1.6043|/1.5865≒0.01である。変換表170によれば、変化率が0.01の場合、寄与度は0であるため、分子量分散度の変化率を変換した寄与度は0と算出される。同様に、分子量の変化率=|22000-26000|/22000≒0.18であるので、分子量の変化率を変換した寄与度は3と算出される。こうして算出した寄与度は、抽出用関連データPRDEにおいて除かれた項目(図39においては関連データPRD_INT1の強度の差分の平均値の項目)の寄与度である。
第4処理部161は、除く項目を1つずつ変更しながら、次々に抽出用関連データPRDEを仮の機械学習モデルPMに与えていく。本例においては、関連データPRDの項目数は40個あるため、第4処理部161は40個の抽出用関連データPRDEを仮の機械学習モデルPMに与える。また、算出部162は、各抽出用関連データPRDEについて寄与度を算出する。なお、変化率の値の信頼性を高めるため、1組の生産条件データPCDと関連データPRDだけでなく、異なる複数の組の生産条件データPCDと関連データPRDについて変化率を算出し、その平均値を寄与度に変換してもよい。
図40に示すように、寄与度情報CIには、関連データPRDの複数の項目の各々の寄与度が登録されている。各項目の横の2つの数値が寄与度であり、左側は分子量分散度の変化率を変換した寄与度、右側は分子量の変化率を変換した寄与度である。例えば、第1区間INT1の総和の分子量分散度の変化率を変換した寄与度は4、分子量の変化率を変換した寄与度は6である。
図41は、設定条件SCが、「分子量分散度の変化率を変換した寄与度および分子量の変化率を変換した寄与度がともに6以上」で、寄与度情報CIが図40に例示したものであった場合を示す。この場合、判定部163は、分子量分散度の変化率を変換した寄与度および分子量の変化率を変換した寄与度がともに6以上である、第2区間INT1の強度の差分の平均値および総和、・・・、第20区間INT20の強度の差分の平均値および総和のハッチングで示す各項目を、高寄与項目であると判定する。
なお、このように、複数のデータ(本例においては関連データPRDの複数の項目)から本質部分(本例においては高寄与項目)を抽出する手法は、スパースモデリングと呼ばれる。こうしたスパースモデリングは、例えば、R言語上で動作可能なglmnetパッケージを用いて行うことができる。スパースモデリングの詳細アルゴリズムは、例えば、「Journal of statistical software, vol.33-1(2010) “Regularization Paths for Generalized Linear Models via Coordinate Descent”」に記載されている。
図42に示すように、本学習では、第1処理部85において、高寄与項目の関連データPRDが選択的に第2機械学習モデルM2に与えられる。逆を言えば、高寄与項目以外の項目が選択的に除かれて、第2機械学習モデルM2に与えられる。そして、評価部86による第2機械学習モデルM2の予測の精度の評価、および更新部87による第2機械学習モデルM2の更新が行われる。こうした処理が学習用入力データIDLを変えつつ繰り返し続けられることで、第2機械学習モデルM2は予測の精度が予め設定されたレベルに達する。予測の精度が予め設定されたレベルに達した第2機械学習モデルM2は、学習済みモデルTMとして、第1RW制御部75によりストレージデバイス60Aに記憶される。なお、本学習で用いられる第2機械学習モデルM2は、仮学習で用いられる第1機械学習モデルM1と、種類、性能といった特性は同じである。
以上をまとめると、図43に示すように、第4実施形態の学習装置150では、主として、仮学習(ステップST5000)、高寄与項目の抽出(ステップST6000)、および本学習(ステップST7000)が行われる。仮学習では、第1機械学習モデルM1が学習されて、仮の機械学習モデルPMとされる。高寄与項目の抽出では、仮の機械学習モデルPMが用いられる。本学習では、第2機械学習モデルM2が学習されて、学習済みモデルTMとされる。
図44において、第4実施形態の運用装置175のストレージデバイス60Bには、第2作動プログラム176が記憶されている。また、ストレージデバイス60Bには、学習装置150からの高寄与項目情報HCIIが記憶される。
運用装置175の第2RW制御部115は、高寄与項目情報HCIIをストレージデバイス60Bから読み出し、高寄与項目情報HCIIを第2導出部180に出力する。第2導出部180は、上記第1実施形態の運用装置11の第2導出部116と同じく、スペクトルデータSPDを分けた複数の区間INT1~INT20のそれぞれについて、強度の差分の平均値および総和を予測用関連データPRDFとして導出する。ただし、第2導出部180は、高寄与項目情報HCIIに基づいて、高寄与項目を選択的に導出し、高寄与項目以外の項目は導出しない。このため、予測用関連データPRDFは、図42の関連データPRDと同様に、高寄与項目以外の項目が選択的に除かれたものとなる(図45参照)。
図45は、IDがPR1000の、品質が未知の生産物PRの品質を、学習済みモデルTMで予測する様子を示している。図42で示した場合と同じく、第2処理部117において、複数の項目のうちの高寄与項目の予測用関連データPRDFが選択的に学習済みモデルTMに与えられる。逆を言えば、高寄与項目以外の項目が選択的に除かれて、学習済みモデルTMに与えられる。
このように、学習装置150は、学習部77において、学習用入力データIDLを第1機械学習モデルM1に与えて学習させ、仮の機械学習モデルPMを出力する。次いで、抽出部155により、仮の機械学習モデルPMを用いて、関連データPRDの複数の項目の中から高寄与項目を抽出する。そして、学習部77において、高寄与項目の関連データPRDを選択的に第2機械学習モデルM2に与えて学習させ、学習済みモデルTMとして出力する。したがって、高寄与項目以外の関連データPRDが与えられて学習した場合よりも、学習済みモデルTMによる生産物PRの品質の予測の精度を向上させることができる。また、予測の精度の向上に寄与度の低い項目に学習の労力が割かれることが防がれるため、学習の効率を高めることができる。
学習用入力データIDLは、関連データPRDだけでなく生産条件データPCDも含んでいる。このため、生産条件データPCDの影響も考慮して高寄与項目を抽出することができ、高寄与項目の妥当性をより高めることができる。
スペクトルデータSPDを分ける区間INTは、互いにオーバーラップしていてもよい。同様に、画像データIMDを分ける領域ARも、互いにオーバーラップしていてもよい。
生産物PRは、フロー合成法を用いて生産されたものに限らない。例えばバッチ合成法を用いて生産されたものでもよい。
なお、上記各実施形態では、フロー反応装置13の設定部25で受け付けられた生産条件を、生産条件データPCDとしているが、これに限らない。第1流速センサ35、第2流速センサ36、第3流速センサ37、温度センサ38、第1流速センサ51、第2流速センサ52、第3流速センサ53、および第4流速センサ54で検出した実測値を、生産条件データPCDとしてもよい。
上記各実施形態では、品質予測データQFDの出力形態として、品質予測表示画面120を例示したが、これに限らない。品質予測表示画面120に代えて、あるいは加えて、品質予測データQFDを紙媒体に印刷出力する形態、品質予測データQFDをデータファイルとして出力する形態を採用してもよい。
なお、機械学習モデルMとしては、線形回帰、ガウス過程回帰、サポートベクター回帰、決定木、アンサンブル法、バギング法、ブースティング法、勾配ブースティング法等を用いたものがある。また、単純パーセプトロン、多層パーセプトロン、ディープニューラルネットワーク、畳み込みニューラルネットワーク、ディープビリーフネットワーク、リカレントニューラルネットワーク、確率的ニューラルネットワーク等を用いたものがある。上記で例示したうちのいずれの機械学習モデルMを用いるかは特に制限はなく、任意の手法の機械学習モデルMを選択することができる。
アンサンブル法としてはランダムフォレストが挙げられる。ランダムフォレストは、周知のように、ランダムサンプリングされた学習データとランダムに選択された説明変数を用いることにより、相関の低い決定木群を複数作成し、それらの予測結果を統合および平均させることで予測の精度の向上を図る。この場合の機械学習モデルMの制御パラメータとしては、選択する説明変数の数や決定木の分岐数がある。
ディープニューラルネットワークは、比較的制御パラメータの数が多く柔軟な組み合わせも可能であるため、多様なデータ構成に対して高い予測性能を発揮することができる。制御パラメータとしては、ネットワークのレイヤー数やノード数、活性化関数の種類、ドロップアウトの割合、ミニバッチサイズ、エポック数、学習率等がある。
こうした機械学習モデルMは、実行フレームワークが複数存在し、その中から適宜選択することができる。例えば、Tensorflow、CNTK(Cognitive Toolkit)、Theano、Caffe、mxnet、Keras、PyTorch、Chainer、Scikit-learn、Caret、MATLAB(登録商標)等から選択することができる。
機械学習システム2を構成するコンピュータのハードウェア構成は種々の変形が可能である。例えば、学習装置10と運用装置11とを統合して、1台のコンピュータで構成してもよい。また、学習装置10および運用装置11のうちの少なくともいずれかを、処理能力および信頼性の向上を目的として、ハードウェアとして分離された複数台のコンピュータで構成することも可能である。例えば、学習装置10の第1導出部76の機能と、学習部77の機能とを、2台のコンピュータに分散して担わせる。この場合は2台のコンピュータで学習装置10を構成する。
このように、機械学習システム2のコンピュータのハードウェア構成は、処理能力、安全性、信頼性等の要求される性能に応じて適宜変更することができる。さらに、ハードウェアに限らず、第1作動プログラム70、151、第2作動プログラム110、176等のアプリケーションプログラムについても、安全性および信頼性の確保を目的として、二重化したり、あるいは、複数のストレージデバイスに分散して格納することももちろん可能である。
上記各実施形態において、例えば、第1RW制御部75、第1導出部76、135、145、学習部77(第1処理部85、評価部86、更新部87)、送信制御部78、第2RW制御部115、第2導出部116、180、第2処理部117、表示制御部118、抽出部155(第3処理部160、第4処理部161、算出部162、判定部163)といった各種の処理を実行する処理部(Processing Unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(Processor)を用いることができる。各種のプロセッサには、上述したように、ソフトウェア(第1作動プログラム70、151、第2作動プログラム110、176)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU62A、62Bに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、および/または、CPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントおよびサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(circuitry)を用いることができる。
以上の記載から、以下の付記項1、2に記載の発明を把握することができる。
[付記項1]
生産物の物性を表す多次元物性データを取得する第1取得プロセッサと、
前記生産物の品質を予測する機械学習モデルに与える学習用入力データを、前記多次元物性データから導出する導出プロセッサであり、前記多次元物性データにオートエンコーダの少なくとも一部を適用して、前記多次元物性データに関連する多次元物性関連データを前記学習用入力データとして導出する導出プロセッサと、
前記多次元物性関連データを含む前記学習用入力データを機械学習モデルに与えて学習させ、前記機械学習モデルを実際の運用に供する学習済みモデルとして出力する学習プロセッサと、
を備える学習装置。
[付記項2]
付記項1に記載の学習装置の前記学習プロセッサから出力された前記学習済みモデルを取得する第2取得プロセッサと、
品質が未知の生産物の予測用多次元物性関連データを取得する第3取得プロセッサと、
前記第2取得プロセッサにおいて取得した前記学習済みモデルに、前記第3取得プロセッサにおいて取得した、前記品質が未知の生産物の前記予測用多次元物性関連データを与えて前記品質を予測させる処理プロセッサと、
前記学習済みモデルによる前記品質の予測結果を出力する制御を行う出力制御プロセッサと、
を備える運用装置。
本開示の技術は、上述の種々の実施形態と種々の変形例を適宜組み合わせることも可能である。また、上記各実施形態に限らず、要旨を逸脱しない限り種々の構成を採用し得ることはもちろんである。さらに、本開示の技術は、プログラムに加えて、プログラムを非一時的に記憶する記憶媒体にもおよぶ。
以上に示した記載内容および図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、および効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、および効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容および図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことはいうまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容および図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。
本明細書において、「Aおよび/またはB」は、「AおよびBのうちの少なくとも1つ」と同義である。つまり、「Aおよび/またはB」は、Aだけであってもよいし、Bだけであってもよいし、AおよびBの組み合わせであってもよい、という意味である。また、本明細書において、3つ以上の事柄を「および/または」で結び付けて表現する場合も、「Aおよび/またはB」と同様の考え方が適用される。
本明細書に記載された全ての文献、特許出願および技術規格は、個々の文献、特許出願および技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
2 機械学習システム
10、150 学習装置
11、175 運用装置
12 ネットワーク
13 フロー反応装置
14、130 物性分析装置
15 品質評価装置
20 第1原料供給部
21 第2原料供給部
22、45 反応セクション
23 温度調節部
24 回収廃棄セクション
25 設定部
26 システムコントローラ
30、46 合流部
31 反応部
32~34 第1管部~第3管部
35~37 第1流速センサ~第3流速センサ
38 温度センサ
40 回収部
41 廃棄部
42 三方弁
47~50 第1管部~第4管部
51~54 第1流速センサ~第4流速センサ
60、60A、60B ストレージデバイス
61 メモリ
62、62A、62B CPU
63 通信部
64、64B ディスプレイ
65、65B 入力デバイス
66 バスライン
70、151 第1作動プログラム(学習装置の作動プログラム)
75 第1リードライト制御部(第1RW制御部、第1取得部)
76、135、145 第1導出部(導出部)
77 学習部
78 送信制御部
80、140 エンコーダネットワーク
81 デコーダネットワーク
85 第1処理部
86 評価部
87 更新部
110、176 第2作動プログラム
115 第2リードライト制御部(第2RW制御部、第2取得部、第3取得部)
116、180 第2導出部
117 第2処理部(処理部)
118 表示制御部(出力制御部)
120 品質予測表示画面
121 OKボタン
125 表
155 抽出部
160 第3処理部
161 第4処理部
162 算出部
163 判定部
170 変換表
AE オートエンコーダ
AR 領域
CI 寄与度情報
CMP 画像特徴マップ(特徴データ)
DD 差分データ
DI オートエンコーダの入力データ
DIc オートエンコーダの出力データ
F フィルタ
HCII 高寄与項目情報
Icp 出力データの画素
IDL 学習用入力データ
IIMD 入力画像データ
IIMDL 学習用入力画像データ
IMD 画像データ
INT 区間
Ip 注目画素
Is 隣接する画素
L 反応路長
M 機械学習モデル
M1、M2 第1機械学習モデル、第2機械学習モデル
ODL 学習用出力データ
OIMD 出力画像データ
OIMDL 学習用出力画像データ
PCD 生産条件データ
PCDF 予測用生産条件データ
PD 物性データ
PDF 予測用物性データ
PM 仮の機械学習モデル
POD 仮の出力データ
PODE 抽出用仮の出力データ
PR 生産物
PRD 物性関連データ(関連データ)
PRDE 抽出用物性関連データ(抽出用関連データ)
PRDF 予測用物性関連データ(予測用関連データ)
QD 品質データ
QFD 品質予測データ
RM 原料
RM1、RM2 第1原料、第2原料
SC 設定条件
SP スペクトル
SPD スペクトルデータ
SPIMD スペクトルの画像データ
ST500、ST600、ST700、ST800、ST1001、ST1004、ST5000、ST6000、ST7000 ステップ
ST1002 ステップ(第1取得ステップ)
ST1003 ステップ(導出ステップ)
ST2001~ST2006 ステップ(学習ステップ)
TM 学習済みモデル
Φ 反応路径

Claims (10)

  1. 生産物の物性を表す多次元物性データを取得する第1取得部と、
    前記生産物の品質を予測する機械学習モデルに与える学習用入力データを、前記多次元物性データから導出する導出部であり、前記多次元物性データにオートエンコーダの少なくとも一部を適用して、前記多次元物性データに関連する多次元物性関連データを前記学習用入力データとして導出する導出部と、
    前記多次元物性関連データ、および、前記生産物の生産工程において設定された生産条件データを含む前記学習用入力データを機械学習モデルに与えて学習させ、前記機械学習モデルを実際の運用に供する学習済みモデルとして出力する学習部と、
    を備える学習装置。
  2. 前記オートエンコーダは、前記品質が予め設定されたレベルよりも良好な前記生産物の前記多次元物性データを与えられて学習されたものであり、
    前記導出部は、前記オートエンコーダに前記多次元物性データを与えて出力データを出力させ、前記オートエンコーダに与えた前記多次元物性データと前記出力データとの差分データに基づいて前記多次元物性関連データを導出する請求項1に記載の学習装置。
  3. 前記導出部は、前記オートエンコーダに前記多次元物性データを与えて、前記オートエンコーダのエンコーダネットワークから特徴データを出力させ、前記特徴データに基づいて前記多次元物性関連データを導出する請求項1または請求項2に記載の学習装置。
  4. 前記多次元物性データは、前記生産物を分光分析して検出されたスペクトルデータで表されるスペクトルの画像データを含む請求項1から請求項のいずれか1項に記載の学習装置。
  5. 前記導出部は、前記スペクトルデータを分けた複数の区間のそれぞれについて前記多次元物性関連データを導出する請求項に記載の学習装置。
  6. 前記多次元物性データは、前記生産物を撮影して得られる画像データを含む請求項1から請求項のいずれか1項に記載の学習装置。
  7. 前記生産物は、フロー合成法を用いて生産されたものである請求項1から請求項のいずれか1項に記載の学習装置。
  8. 請求項1から請求項のいずれか1項に記載の学習装置の前記学習部から出力された前記学習済みモデルを取得する第2取得部と、
    品質が未知の生産物の予測用多次元物性関連データ、および、前記品質が未知の生産物の生産工程において設定された予測用生産条件データを取得する第3取得部と、
    前記第2取得部において取得した前記学習済みモデルに、前記第3取得部において取得した、前記品質が未知の生産物の前記予測用多次元物性関連データおよび前記予測用生産条件データを与えて前記品質を予測させる処理部と、
    前記学習済みモデルによる前記品質の予測結果を出力する制御を行う出力制御部と、を備える運用装置。
  9. 生産物の物性を表す多次元物性データを取得する第1取得ステップと、
    前記生産物の品質を予測する機械学習モデルに与える学習用入力データを、前記多次元物性データから導出する導出ステップであり、前記多次元物性データにオートエンコーダの少なくとも一部を適用して、前記多次元物性データに関連する多次元物性関連データを前記学習用入力データとして導出する導出ステップと、
    前記多次元物性関連データ、および、前記生産物の生産工程において設定された生産条件データを含む前記学習用入力データを機械学習モデルに与えて学習させ、前記機械学習モデルを実際の運用に供する学習済みモデルとして出力する学習ステップと、
    を備える学習装置の作動方法。
  10. 生産物の物性を表す多次元物性データを取得する第1取得部と、
    前記生産物の品質を予測する機械学習モデルに与える学習用入力データを、前記多次元物性データから導出する導出部であり、前記多次元物性データにオートエンコーダの少なくとも一部を適用して、前記多次元物性データに関連する多次元物性関連データを前記学習用入力データとして導出する導出部と、
    前記多次元物性関連データ、および、前記生産物の生産工程において設定された生産条件データを含む前記学習用入力データを機械学習モデルに与えて学習させ、前記機械学習モデルを実際の運用に供する学習済みモデルとして出力する学習部として、コンピュータを機能させる学習装置の作動プログラム。
JP2021529911A 2019-07-03 2020-05-20 学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置 Active JP7321263B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019124420 2019-07-03
JP2019124420 2019-07-03
PCT/JP2020/019936 WO2021002110A1 (ja) 2019-07-03 2020-05-20 学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置

Publications (2)

Publication Number Publication Date
JPWO2021002110A1 JPWO2021002110A1 (ja) 2021-01-07
JP7321263B2 true JP7321263B2 (ja) 2023-08-04

Family

ID=74100678

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021529911A Active JP7321263B2 (ja) 2019-07-03 2020-05-20 学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置

Country Status (5)

Country Link
US (1) US20220091589A1 (ja)
EP (1) EP3995997A4 (ja)
JP (1) JP7321263B2 (ja)
CN (1) CN114072811A (ja)
WO (1) WO2021002110A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230297060A1 (en) * 2022-03-18 2023-09-21 Rockwell Automation Technologies, Inc. Machine learning optimization of control code in an industrial automation environments

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016091359A (ja) 2014-11-06 2016-05-23 株式会社リコー 情報処理システム、情報処理装置、情報処理方法、及びプログラム
JP2018005773A (ja) 2016-07-07 2018-01-11 株式会社リコー 異常判定装置及び異常判定方法
JP2018116054A (ja) 2017-01-19 2018-07-26 国立大学法人 香川大学 触覚センサ、触覚測定装置、学習済みモデル、および識別装置
WO2019073666A1 (ja) 2017-10-11 2019-04-18 株式会社ニコン 判定装置、判定方法、および判定プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3373588B2 (ja) * 1993-04-20 2003-02-04 新日本製鐵株式会社 品質制御装置および制御方法
JP2018018354A (ja) 2016-07-28 2018-02-01 高砂香料工業株式会社 ディープラーニングを用いた飲食品の品質予測方法及び飲食品

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016091359A (ja) 2014-11-06 2016-05-23 株式会社リコー 情報処理システム、情報処理装置、情報処理方法、及びプログラム
JP2018005773A (ja) 2016-07-07 2018-01-11 株式会社リコー 異常判定装置及び異常判定方法
JP2018116054A (ja) 2017-01-19 2018-07-26 国立大学法人 香川大学 触覚センサ、触覚測定装置、学習済みモデル、および識別装置
WO2019073666A1 (ja) 2017-10-11 2019-04-18 株式会社ニコン 判定装置、判定方法、および判定プログラム

Also Published As

Publication number Publication date
CN114072811A (zh) 2022-02-18
JPWO2021002110A1 (ja) 2021-01-07
US20220091589A1 (en) 2022-03-24
WO2021002110A1 (ja) 2021-01-07
EP3995997A1 (en) 2022-05-11
EP3995997A4 (en) 2022-11-16

Similar Documents

Publication Publication Date Title
JP7321264B2 (ja) 学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置
Nie et al. Detection of water content in rapeseed leaves using terahertz spectroscopy
Shao et al. Multivariate calibration methods in near infrared spectroscopic analysis
He et al. Feature space monitoring for smart manufacturing via statistics pattern analysis
JP7321263B2 (ja) 学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置
Nie et al. Potential of visible and near infrared spectroscopy and pattern recognition for rapid quantification of notoginseng powder with adulterants
TWI790296B (zh) 頻譜分析裝置及頻譜分析方法
Galvao et al. An application of subagging for the improvement of prediction accuracy of multivariate calibration models
CN110736707A (zh) 一种主仪器向从仪器光谱模型传递的光谱检测优化方法
Gributs et al. Parsimonious calibration models for near-infrared spectroscopy using wavelets and scaling functions
Yan et al. Handheld near-infrared spectroscopy: State-of-the-art instrumentation and applications in material identification, food authentication, and environmental investigations
Biancolillo et al. Sequential data fusion techniques for the authentication of the PGI senise (“crusco”) bell pepper
Medendorp et al. Applications of integrated sensing and processing in spectroscopic imaging and sensing
Reis et al. Prediction of profiles in the process industries
Khadem et al. Signal fragmentation based feature vector generation in a model agnostic framework with application to glucose quantification using absorption spectroscopy
Yu et al. Is this pear sweeter than this apple? A universal SSC model for fruits with similar physicochemical properties
Soh et al. A sparse fused group lasso regression model for fourier-transform infrared spectroscopic data with application to purity prediction in olive oil blends
Ji et al. Research and application validation of a feature wavelength selection method based on acousto-optic tunable filter (AOTF) and automatic machine learning (AutoML)
Strani et al. A multiblock approach to fuse process and near-infrared sensors for on-line prediction of polymer properties
Mokari et al. Exploring the steps of infrared (IR) spectral analysis: Pre-processing,(classical) data modelling, and deep learning
Chen et al. A decision tree network with semi-supervised entropy learning strategy for spectroscopy aided detection of blood hemoglobin
Verdú et al. Laser scattering imaging combined with CNNs to model the textural variability in a vegetable food tissue
Tavassoli et al. Template-oriented genetic algorithm feature selection of analyte wavelets in the Raman spectrum of a complex mixture
Monteiro et al. A Numerical Procedure for Multivariate Calibration Using Heteroscedastic Principal Components Regression
Cheng et al. Semi-Supervised Deep Learning-Based Multi-component Spectral Calibration Modeling for UV–vis and Near-Infrared Spectroscopy without Information Loss

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230725

R150 Certificate of patent or registration of utility model

Ref document number: 7321263

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150