JP7321264B2 - 学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置 - Google Patents

学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置 Download PDF

Info

Publication number
JP7321264B2
JP7321264B2 JP2021529912A JP2021529912A JP7321264B2 JP 7321264 B2 JP7321264 B2 JP 7321264B2 JP 2021529912 A JP2021529912 A JP 2021529912A JP 2021529912 A JP2021529912 A JP 2021529912A JP 7321264 B2 JP7321264 B2 JP 7321264B2
Authority
JP
Japan
Prior art keywords
data
learning
physical property
unit
machine learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021529912A
Other languages
English (en)
Other versions
JPWO2021002111A1 (ja
Inventor
昌孝 長谷川
直貴 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2021002111A1 publication Critical patent/JPWO2021002111A1/ja
Application granted granted Critical
Publication of JP7321264B2 publication Critical patent/JP7321264B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/2823Imaging spectrometer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16CCOMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
    • G16C20/00Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
    • G16C20/70Machine learning, data mining or chemometrics
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16CCOMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
    • G16C60/00Computational materials science, i.e. ICT specially adapted for investigating the physical or chemical properties of materials or phenomena associated with their design, synthesis, processing, characterisation or utilisation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J2003/283Investigating the spectrum computer-interfaced
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Quality & Reliability (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Chemical & Material Sciences (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Feedback Control In General (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Description

本開示の技術は、学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置に関する。
生産物の品質を、機械学習モデルを用いて予測することが行われている。特許文献1には、予測の精度を高めるために、生産物の物性を表す物性データから導出された物性関連データを学習用入力データとして学習する機械学習モデルが提案されている。
特許文献1では、生産物としてコーヒー豆等の飲食品が例示されている。また、特許文献1では、物性データとして、近赤外(NIR;Near Infrared)分光分析データ、フーリエ変換赤外(FT-IR;Fourier Transform Infrared)分光分析データ、核磁気共鳴(NMR;Nuclear Magnetic Resonance)分光分析データ等のスペクトルデータ、あるいは生産物をカメラ等で撮影して得られる画像データが例示されている。そして、物性関連データとして、スペクトルデータから得られる数値、例えばスペクトルの波形の傾き、周期性、振幅、ピーク高さ、ピーク幅等が挙げられている。また、物性関連データとして、生産物をカメラ等で撮影して得られる画像データ自体が挙げられている。
特開2018-018354号公報
物性データには、生産物の重さ等のように、生産物の一種類の物性を1つのパラメータで表すものもあれば、上記のスペクトルデータ、画像データのように、生産物の一種類の物性を複数のパラメータで表すものもある。より詳しくは、スペクトルデータであれば、スペクトルが生産物の物性であり、例えば波数と強度が複数のパラメータに該当する。画像データであれば、色が生産物の物性であり、赤色、緑色、青色の各画素値が複数のパラメータに該当する。こうした物性データは、パラメータを次元として捉えた場合、多次元の物性データであると言える。対して、生産物の一種類の物性を1つのパラメータで表す物性データは、一次元の物性データであると言える。以下、生産物の一種類の物性を複数のパラメータで表した物性データを、多次元物性データという。また、多次元物性データから導出された物性関連データを、多次元物性関連データという。
多次元物性関連データは、多くの数値および画像データで構成されるため、比較的項目が多い。こうした多次元物性関連データの多くの項目の中には、機械学習モデルの予測の精度の向上に大いに寄与するものもあれば、ほとんど寄与しないものもある。このため、多次元物性関連データをそのまま機械学習モデルに与えて学習させた場合、学習の成果があまり上がらず、機械学習モデルの予測の精度が比較的低レベルで頭打ちになるおそれがあった。
本開示の技術は、生産物の多次元物性データから導出された多次元物性関連データを学習用入力データとして機械学習モデルに与えて学習させる場合に、機械学習モデルによる生産物の品質の予測の精度をより向上させることが可能な学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置を提供することを目的とする。
上記目的を達成するために、本開示の学習装置は、生産物の品質を予測する機械学習モデルに与える学習用入力データであり、生産物の物性を表す多次元物性データから導出された、複数の項目を有する多次元物性関連データを含む学習用入力データを取得する第1取得部と、学習用入力データを機械学習モデルに与えて学習させ、仮の機械学習モデルを出力する仮学習部と、仮の機械学習モデルを用いて、多次元物性関連データの複数の項目の中から、品質の予測の精度の向上に寄与する程度が予め設定された条件を満たす高寄与項目を抽出する抽出部と、高寄与項目の多次元物性関連データを選択的に機械学習モデルに与えて学習させ、機械学習モデルを実際の運用に供する学習済みモデルとして出力する本学習部と、を備える。
学習用入力データは、生産物の生産工程において設定された生産条件データも含むことが好ましい。
多次元物性データは、生産物を分光分析して検出されたスペクトルデータを含むことが好ましい。
多次元物性関連データは、スペクトルデータを分けた複数の区間のそれぞれについて導出した強度の代表値であることが好ましい。
多次元物性データは、生産物を撮影して得られる画像データを含むことが好ましい。
生産物は、フロー合成法を用いて生産されたものであることが好ましい。
多次元物性データにオートエンコーダの少なくとも一部を適用して、多次元物性関連データを導出する導出部を備えることが好ましい。
オートエンコーダは、品質が予め設定されたレベルよりも良好な生産物の多次元物性データを与えられて学習されたものであり、導出部は、オートエンコーダに多次元物性データを与えて出力データを出力させ、オートエンコーダに与えた多次元物性データと出力データとの差分データに基づいて多次元物性関連データを導出することが好ましい。
導出部は、オートエンコーダに多次元物性データを与えて、オートエンコーダのエンコーダネットワークから特徴データを出力させ、特徴データに基づいて多次元物性関連データを導出することが好ましい。
多次元物性データは、生産物を分光分析して検出されたスペクトルデータで表されるスペクトルの画像データを含むことが好ましい。
導出部は、スペクトルデータを分けた複数の区間のそれぞれについて多次元物性関連データを導出することが好ましい。
本開示の運用装置は、学習装置の本学習部から出力された学習済みモデルを取得する第2取得部と、品質が未知の生産物の予測用多次元物性関連データを取得する第3取得部と、第2取得部において取得した学習済みモデルに、第3取得部において取得した、品質が未知の生産物の予測用多次元物性関連データを与えて品質を予測させる処理部と、学習済みモデルによる品質の予測結果を出力する制御を行う出力制御部と、を備える。
本開示の学習装置の作動方法は、生産物の品質を予測する機械学習モデルに与える学習用入力データであり、生産物の物性を表す多次元物性データから導出された、複数の項目を有する多次元物性関連データを含む学習用入力データを取得する第1取得ステップと、学習用入力データを機械学習モデルに与えて学習させ、仮の機械学習モデルを出力する仮学習ステップと、仮の機械学習モデルを用いて、多次元物性関連データの複数の項目の中から、品質の予測の精度の向上に寄与する程度が予め設定された条件を満たす高寄与項目を抽出する抽出ステップと、高寄与項目の多次元物性関連データを選択的に機械学習モデルに与えて学習させ、機械学習モデルを実際の運用に供する学習済みモデルとして出力する本学習ステップと、を備える。
本開示の学習装置の作動プログラムは、生産物の品質を予測する機械学習モデルに与える学習用入力データであり、生産物の物性を表す多次元物性データから導出された、複数の項目を有する多次元物性関連データを含む学習用入力データを取得する第1取得部と、学習用入力データを機械学習モデルに与えて学習させ、仮の機械学習モデルを出力する仮学習部と、仮の機械学習モデルを用いて、多次元物性関連データの複数の項目の中から、品質の予測の精度の向上に寄与する程度が予め設定された条件を満たす高寄与項目を抽出する抽出部と、高寄与項目の多次元物性関連データを選択的に機械学習モデルに与えて学習させ、機械学習モデルを実際の運用に供する学習済みモデルとして出力する本学習部として、コンピュータを機能させる。
本開示の技術によれば、生産物の多次元物性データから導出された多次元物性関連データを学習用入力データとして機械学習モデルに与えて学習させる場合に、機械学習モデルによる生産物の品質の予測の精度をより向上させることが可能な学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置を提供することができる。
機械学習システム、フロー反応装置、物性分析装置、品質評価装置を示す図である。 フロー反応装置と物性分析装置と品質評価装置における処理の概要を示す図である。 学習装置と運用装置における処理の概要を示す図である。 生産条件データ、物性データ、関連データ、および品質データが共通のIDで関連付けられていることを示す図である。 T字形状の合流部をもつ反応セクションを有するフロー反応装置を示す図である。 十字形状の合流部をもつ反応セクションを有するフロー反応装置を示す図である。 生産条件データを示す図である。 スペクトルデータとスペクトルを示す図である。 品質データを示す図である。 学習装置および運用装置を構成するコンピュータを示すブロック図である。 学習装置のCPUの処理部を示すブロック図である。 スペクトルデータを分けた複数の区間を示す図である。 第1導出部により、スペクトルデータを分けた複数の区間のそれぞれについて、関連データを導出する様子を示す図である。 学習部の詳細を示す図である。 仮学習における第1処理部の処理を示す図である。 抽出部の詳細を示す図である。 第2処理部の処理を示す図である。 第3処理部の処理を示す図である。 算出部の処理を示す図である。 算出部の処理の具体例を示す図である。 寄与度情報を示す図である。 判定部の処理を示す図である。 本学習における第1処理部の処理を示す図である。 運用装置のCPUの処理部を示すブロック図である。 第4処理部の処理を示す図である。 品質予測表示画面を示す図である。 学習装置の処理手順を示すフローチャートである。 仮学習の処理手順を示すフローチャートである。 高寄与項目の抽出の処理手順を示すフローチャートである。 本学習の処理手順を示すフローチャートである。 運用装置の処理手順を示すフローチャートである。 比較例と実施例の分子量分散度の決定係数および分子量の決定係数を示す表である。 画像データを示す図である。 画像データを分けた複数の領域を示す図である。 第1導出部により、画像データを分けた複数の領域のそれぞれについて、関連データを導出する様子を示す図である。 物性データにオートエンコーダを適用して、関連データを導出する様子を示す図である。 オートエンコーダを示す図である。 畳み込み処理の説明図である。 画像特徴マップを示す図である。 オートエンコーダがスペクトルデータの複数の区間毎に用意されていることを示す図である。 品質が予め設定されたレベルよりも良好な生産物のスペクトルの画像データを、オートエンコーダに学習用入力画像データとして与えて学習させる様子を示す図である。 オートエンコーダの入力画像データと出力画像データとの差分データを算出する様子を示す図である。 第1導出部により、スペクトルデータを分けた複数の区間のそれぞれについて、関連データとして差分データの平均値および総和を導出する様子を示す図である。 画像特徴マップに基づいて関連データを導出する様子を示す図である。
[第1実施形態]
図1において、機械学習システム2は、学習装置10および運用装置11を備える。学習装置10および運用装置11は、例えばデスクトップ型のパーソナルコンピュータである。学習装置10および運用装置11は、ネットワーク12を介して相互に通信可能に接続されている。ネットワーク12は、例えば、LAN(Local Area Network)、もしくはインターネット、公衆通信網等のWAN(Wide Area Network)である。ネットワーク12には、フロー反応装置13、物性分析装置14、および品質評価装置15も接続されている。
図2において、フロー反応装置13は、フロー合成法により、生産工程における生産条件データPCDにしたがって、原料RMから生産物PRを生産する。物性分析装置14は、生産物PRの物性を分析し、その分析結果である物性データPDを出力する。品質評価装置15は、生産物PRの品質を評価し、その評価結果である品質データQDを出力する。フロー反応装置13から生産条件データPCDが、物性分析装置14から物性データPDが、品質評価装置15から品質データQDが、それぞれ学習装置10に送信される。
図3において、学習装置10は、フロー反応装置13からの生産条件データPCD、物性分析装置14からの物性データPD、および品質評価装置15からの品質データQDを取得する。学習装置10は、物性データPDから物性関連データ(以下、関連データと略す)PRDを導出する。この関連データPRDと、生産条件データPCDとで、学習用入力データIDLが構成される。生産条件データPCD、物性データPD、物性データPDから導出された関連データPRD、および品質データQDは、図4に示すように、1つの生産物PRに対して付された共通のID(Identification Data)で関連付けられている。
学習装置10は機械学習モデルMを有する。機械学習モデルMは、生産物PRの品質を予測するためのモデルである。学習装置10は、この機械学習モデルMの予測の精度を高めるため、同じIDが付された生産条件データPCDおよび関連データPRDで構成される学習用入力データIDLを機械学習モデルMに与える(図15等参照)。機械学習モデルMは、学習用入力データIDLに応じた学習用出力データODLを出力する。
品質データQDは、学習用出力データODLとの答え合わせを行うためのデータである。機械学習モデルMの予測の精度が高いほど、品質データQDと学習用出力データODLとの差異は小さくなる。このため、学習装置10は、学習用出力データODLと、学習用入力データIDLと同じIDが付された品質データQDとを比較し、機械学習モデルMの予測の精度を評価する。そして、この評価結果に応じて、機械学習モデルMを更新する。学習装置10は、学習用入力データIDLの機械学習モデルMへの入力と学習用出力データODLの機械学習モデルMからの出力、機械学習モデルMの予測の精度の評価、および機械学習モデルMの更新を、学習用入力データIDLおよび品質データQDを変更しつつ行う。そして、これら一連の処理を、機械学習モデルMの予測の精度が予め設定されたレベルとなるまで繰り返す。学習装置10は、予測の精度が予め設定されたレベルとなった機械学習モデルMを、実際の運用に供する学習済みモデルTMとして運用装置11に送信する。
運用装置11は、学習装置10からの学習済みモデルTMを受信する。運用装置11は、品質が未知の生産物PRの生産条件データである予測用生産条件データPCDF、および品質が未知の生産物PRの関連データである予測用物性関連データ(以下、予測用関連データと略す)PRDFを学習済みモデルTMに与える。予測用関連データPRDFは、関連データPRDと同様に、品質が未知の生産物PRの物性データPDである予測用物性データPDF(図24参照)から導出したデータである。学習済みモデルTMは、これら予測用生産条件データPCDFおよび予測用関連データPRDFに応じた品質予測データQFDを出力する。
フロー反応装置13で行われるフロー反応は、モノマーを合成する合成反応、あるいはモノマー同士を反応させることにより重合体を生成する重合反応等である。したがって、生産物PRは、例えば重合反応の対象となる成長段階の化合物であってもよい。本例においては、フロー反応装置13は、生産物PRであるポリスチレンのアニオン重合反応をフロー反応で行う。
図5において、フロー反応装置13は、第1原料供給部20、第2原料供給部21、反応セクション22、温度調節部23、回収廃棄セクション24、設定部25、システムコントローラ26等を備えている。
第1原料供給部20は、反応セクション22の上流側端部と、図示しない配管によって接続されている。第1原料供給部20は、第1原料RM1を反応セクション22に供給する。第1原料供給部20は、第1原料RM1を反応セクション22に送り出すためのポンプを有している。このポンプの回転数を制御することにより、第1原料供給部20から反応セクション22に送り出される第1原料RM1の流量が調節される。
本例において、第1原料RM1は、ポリスチリルリチウムを溶媒に溶解した溶液である。ポリスチリルリチウムは、生産物PRであるポリスチレンのアニオン重合反応の開始剤として機能する。溶媒にはテトラヒドロフランが用いられる。また、溶液にはトルエンおよびヘキサンが少量混合されている。なお、フロー反応の原料は、第1原料RM1のようにポリスチリルリチウム等の反応物と他の物質との混合物であってもよいし、反応物のみで構成されていてもよい。
第2原料供給部21は、第1原料供給部20と同じく、反応セクション22の上流側端部と、図示しない配管によって接続されている。第2原料供給部21は、第2原料RM2を反応セクション22に供給する。第2原料供給部21も、第1原料供給部20と同じく、第2原料RM2を反応セクション22に送り出すためのポンプを有している。このポンプの回転数を制御することにより、第2原料供給部21から反応セクション22に送り出される第2原料RM2の流量が調節される。
本例において、第2原料RM2は、メタノール水溶液である。メタノールはアニオン重合反応の停止剤として用いられる。
反応セクション22は、フロー反応(本例においてはアニオン重合反応)を行うためのセクションである。反応セクション22は、合流部30と反応部31とを有する。合流部30は、第1管部32、第2管部33、および第3管部34で構成される。第1管部32と第2管部33は直線状に繋がっており、第3管部34は第1管部32および第2管部33と直角に交差している。すなわち合流部30はT字形状をしている。
第1管部32は第1原料供給部20に、第2管部33は第2原料供給部21に、それぞれ接続されている。また、第3管部34は、反応部31に接続されている。第1管部32には第1原料供給部20から第1原料RM1が、第2管部33には第2原料供給部21から第2原料RM2が、それぞれ供給される。そして、第1原料RM1および第2原料RM2は、第3管部34において合流し、混合された状態で反応部31に送り出される。
第1管部32には、第1管部32を通過する第1原料RM1の流速を検出する第1流速センサ35が設けられている。また、第2管部33には、第2管部33を通過する第2原料RM2の流速を検出する第2流速センサ36が設けられている。さらに、第3管部34には、第3管部34を通過する第1原料RM1と第2原料RM2の混合物の流速を検出する第3流速センサ37が設けられている。
反応部31は、複数本の同じ内径の直管を直線状に繋げた細長い管である。反応部31は、繋げる直管の本数および/または直管の長さを変えることで、長さLを変更可能である。また、反応部31は、繋げる直管の内径を変えることで、内径Φを変更可能である。
反応部31の内部は、第1原料RM1と第2原料RM2との混合物が流れる流路であり、フロー反応を行う場である。混合物が反応部31を通過することで、フロー反応が進められ、ポリスチレン溶液とされる。合流部30の第3管部34においてもフロー反応は若干進むが、反応部31の長さLに対して第3管部34の長さは非常に短い。このため、第3管部34は無視し、反応部31の長さLを、フロー反応を行う場の長さである反応路長と見なす。同様に、反応部31の内径Φを、フロー反応を行う場の径である反応路径と見なす。
温度調節部23は、加熱器および/または冷却器を含み、反応部31の内部の温度(以下、反応温度という)を調節する。反応部31の下流側端部には、反応温度を検出する温度センサ38が設けられている。
回収廃棄セクション24は、生産物PRであるポリスチレンを回収し、かつ反応が失敗した廃棄物を廃棄するセクションである。回収廃棄セクション24は、回収部40と廃棄部41とを有する。回収部40と廃棄部41とは、反応部31の下流側端部と三方弁42によって接続されている。この三方弁42により、反応部31と回収部40とを接続する回収ラインと、反応部31と廃棄部41とを接続する廃棄ラインとの切り替えが可能である。
回収部40は、ポリスチレン溶液からポリスチレンを析出させる。回収部40は、析出させたポリスチレンを溶液からろ過して採取する。そして、採取したポリスチレンを乾燥させる。より詳しくは、回収部40は、攪拌機を備えた容器をもち、当該容器にメタノールを収容し、攪拌されているメタノール中にポリスチレン溶液を混入することで、ポリスチレンを析出させる。また、回収部40は、減圧機能付きの恒温槽をもち、恒温槽内部を減圧状態にして加熱することで、メタノールを乾燥させる。
廃棄部41は、廃棄物を貯留するタンクである。ここで廃棄物とは、第1原料RM1の流速、第2原料RM2の流速、混合物の流速、反応温度等が何らかの要因で乱され、当初予定していた生産条件にて生産できなかった場合に、反応部31から送り出されたものである。
設定部25は、フロー反応装置13のオペレータによる生産物PRの生産工程における生産条件の設定を受け付ける。この設定部25で受け付けられた生産条件が、生産物PRの生産工程において設定された生産条件データPCDとしてシステムコントローラ26に登録される。
システムコントローラ26は、フロー反応装置13の全体の動作を統括的に制御する。システムコントローラ26は、第1原料供給部20、第2原料供給部21、温度調節部23、第1流速センサ35、第2流速センサ36、第3流速センサ37、温度センサ38、および三方弁42と接続されている。
システムコントローラ26は、第1流速センサ35が検出した第1原料RM1の流速に応じて、第1原料供給部20のポンプの回転数を制御し、第1原料RM1の流量を調節する。同様に、システムコントローラ26は、第2流速センサ36が検出した第2原料RM2の流速に応じて、第2原料供給部21のポンプの回転数を制御し、第2原料RM2の流量を調節する。また、システムコントローラ26は、温度センサ38が検出した反応温度に応じて、温度調節部23を駆動させる。さらに、システムコントローラ26は、三方弁42を制御して、前述の回収ラインと廃棄ラインとを切り替える。
反応セクション22に代えて、図6に示す反応セクション45を用いてもよい。なお、図6において、図5と同じ構成には同じ符号を付し、説明を省略する。
図6に示す反応セクション45の合流部46は、第1管部47、第2管部48、第3管部49、および第4管部50で構成される。第1管部47と第2管部48は直線状に繋がっている。同じく、第3管部49と第4管部50は直線状に繋がっている。そして、第1管部47および第2管部48は、第3管部49および第4管部50と直角に交差している。すなわち合流部46は十字形状をしている。
第1管部47および第2管部48は第1原料供給部20に、第3管部49は第2原料供給部21に、それぞれ接続されている。また、第4管部50は、反応部31に接続されている。第1管部47および第2管部48には第1原料供給部20から第1原料RM1が、第3管部49には第2原料供給部21から第2原料RM2が、それぞれ供給される。そして、第1原料RM1および第2原料RM2は、第4管部50において合流し、混合された状態で反応部31に送り出される。
第1管部47および第2管部48には、第1管部47および第2管部48を通過する第1原料RM1の流速を検出する第1流速センサ51および第2流速センサ52が設けられている。また、第3管部49には、第3管部49を通過する第2原料RM2の流速を検出する第3流速センサ53が設けられている。さらに、第4管部50には、第4管部50を通過する第1原料RM1と第2原料RM2の混合物の流速を検出する第4流速センサ54が設けられている。
この場合、システムコントローラ26は、第1流速センサ51が検出した第1原料RM1の流速と、第2流速センサ52が検出した第1原料RM1の流速の平均値に応じて、第1原料供給部20のポンプの回転数を制御し、第1原料RM1の流量を調節する。また、システムコントローラ26は、第3流速センサ53が検出した第2原料RM2の流速に応じて、第2原料供給部21のポンプの回転数を制御し、第2原料RM2の流量を調節する。
図7において、生産条件データPCDは、第1原料RM1の濃度(単位:mol/l)および流速(単位:ml/min)、第2原料RM2の濃度(単位:mol/l)および流速(単位:ml/min)、合流部の形状、反応路径Φ(単位:mm)、反応路長L(単位:m)、および反応温度(単位:℃)の各項目を有する。合流部の形状の項目には、図5で示した反応セクション22を用いた場合は図示の「T字状」が、図6で示した反応セクション45を用いた場合は「十字状」(図17等参照)が、それぞれ登録される。なお、混合物の流速を生産条件データPCDの項目として加えてもよい。
反応セクション22を用いた場合、システムコントローラ26は、第1流速センサ35が検出した第1原料RM1の流速が、生産条件データPCDに登録された第1原料RM1の流速と一致するよう、第1原料供給部20のポンプの回転数を制御して第1原料RM1の流量を調節する。同様に、システムコントローラ26は、第2流速センサ36が検出した第2原料RM2の流速が、生産条件データPCDに登録された第2原料RM2の流速と一致するよう、第2原料供給部21のポンプの回転数を制御して第2原料RM2の流量を調節する。
反応セクション45を用いた場合、システムコントローラ26は、第1流速センサ51が検出した第1原料RM1の流速と、第2流速センサ52が検出した第1原料RM1の流速の平均値が、生産条件データPCDに登録された第1原料RM1の流速と一致するよう、第1原料供給部20のポンプの回転数を制御して第1原料RM1の流量を調節する。同様に、システムコントローラ26は、第3流速センサ53が検出した第2原料RM2の流速が、生産条件データPCDに登録された第2原料RM2の流速と一致するよう、第2原料供給部21のポンプの回転数を制御して第2原料RM2の流量を調節する。
また、システムコントローラ26は、温度センサ38が検出した反応温度が、生産条件データPCDに登録された反応温度と一致するよう、温度調節部23を駆動させる。
システムコントローラ26は、各センサ35、36、38、51、52、53で検出した各値と、生産条件データPCDに登録された各値との乖離が、予め設定された範囲を超えた場合、三方弁42を制御して廃棄ラインに切り替え、廃棄物を廃棄部41に導く。なお、反応が失敗して廃棄物が出た場合は、当然ながら物性データPDおよび品質データQDは出力されない。このため、廃棄物が出た場合の生産条件データPCDは、学習装置10には送信されずに破棄される。
図8において、物性分析装置14は、生産物PRを分光分析して、物性データPDとしてスペクトルデータSPDを検出する。物性分析装置14は、分光分析として、例えば、近赤外分光分析、フーリエ変換赤外分光分析、ラマン分光分析、核磁気共鳴分光分析を行う。図8に例示するスペクトルデータSPDは、ラマン分光分析で得られたものであり、波数と強度の組で構成される。すなわち、スペクトルデータSPDは、本開示の技術に係る「多次元物性データ」の一例である。このスペクトルデータSPDの強度を波数毎にプロットして線で繋いだものが、スペクトルSPである。なお、波数と強度の組に代えて、波長と強度の組でスペクトルデータSPDが構成されていてもよい。
図9において、品質評価装置15は、品質データQDとして、生産物PRの分子量分散度および分子量を出力する。分子量は、ここでは数平均分子量である。また、分子量分散度は、重量平均分子量を数平均分子量で除算した値である。品質評価装置15は、例えば、生産物PRであるポリスチレンをテトラヒドロフランに溶解したポリスチレン溶液を用いて、ゲルパーミエーションクロマトグラフィ(以下、GPC(Gel Permeation Chromatography)と略す)により分子量分散度および分子量を求める。
GPCは、下記の条件で行っている。
装置:HLC-8220GPC(東ソー(株)製)
検出器:示差屈折計(RI(Refractive Index)検出器)
プレカラム:TSKGUARDCOLUMN HXL-L 6mm×40mm(東ソー(株)製)
サンプル側カラム:以下(1)~(3)の3本を順に直結(全て東ソー(株)製)
(1)TSK-GEL GMHXL 7.8mm×300mm
(2)TSK-GEL G4000HXL 7.8mm×300mm
(3)TSK-GEL G2000HXL 7.8mm×300mm
リファレンス側カラム:TSK-GEL G1000HXL 7.8mm×300mm
恒温槽温度:40℃
移動層:テトラヒドロフラン
サンプル側移動層流量:1.0ml/min
リファレンス側移動層流量:1.0ml/min
試料濃度:0.1質量%
試料注入量:100μl
データ採取時間:試料注入後5分~45分
サンプリングピッチ:300msec
なお、GPCに代えて、赤外分光分析、核磁気共鳴分光分析、高速液体クロマトグラフィ(HPLC;High Performance Liquid Chromatography)、またはガスクロマトグラフィ(GC;Gas Chromatography)等、各種の手法を用いてもよい。また、品質データQDは、生産物PRの分子量分散度および分子量に限らない。生産物PRが溶液の状態で得られる場合は、溶液中の生産物PRの濃度であるモル濃度を品質データQDとしてもよい。あるいは、生産物PRの量を原料RMの量で除算した生産物PRの収率を品質データQDとしてもよい。さらには、副生産物が生産された場合は、副生産物の収率等を品質データQDとしてもよい。
図10において、学習装置10および運用装置11を構成するコンピュータは、基本的な構成は同じであり、ストレージデバイス60、メモリ61、CPU(Central Processing Unit)62、通信部63、ディスプレイ64、および入力デバイス65を備えている。これらはバスライン66を介して相互接続されている。
ストレージデバイス60は、学習装置10等を構成するコンピュータに内蔵、またはケーブル、ネットワークを通じて接続されたハードディスクドライブである。もしくはストレージデバイス60は、ハードディスクドライブを複数台連装したディスクアレイである。ストレージデバイス60には、オペレーティングシステム等の制御プログラム、各種アプリケーションプログラム、およびこれらのプログラムに付随する各種データ等が記憶されている。なお、ハードディスクドライブに代えて、あるいは加えて、ソリッドステートドライブを用いてもよい。
メモリ61は、CPU62が処理を実行するためのワークメモリである。CPU62は、ストレージデバイス60に記憶されたプログラムをメモリ61へロードして、プログラムにしたがった処理を実行することにより、コンピュータの各部を統括的に制御する。
通信部63は、ネットワーク12を介した各種情報の伝送制御を行うネットワークインターフェースである。ディスプレイ64は各種画面を表示する。学習装置10等を構成するコンピュータは、各種画面を通じて、入力デバイス65からの操作指示の入力を受け付ける。入力デバイス65は、キーボード、マウス、タッチパネル等である。
なお、以下の説明では、学習装置10の各部に添え字の「A」を、運用装置11の各部に添え字の「B」を、それぞれ付して区別する。
図11において、学習装置10のストレージデバイス60Aには、第1作動プログラム70が記憶されている。第1作動プログラム70は、コンピュータを学習装置10として機能させるためのアプリケーションプログラムである。すなわち、第1作動プログラム70は、本開示の技術に係る「学習装置の作動プログラム」の一例である。
ストレージデバイス60Aには、フロー反応装置13からの生産条件データPCD、物性分析装置14からの物性データPD、および品質評価装置15からの品質データQDも記憶される。また、ストレージデバイス60Aには、物性データPDから導出された関連データPRD、および機械学習モデルMも記憶される。生産条件データPCD、物性データPD、関連データPRD、および品質データQDのセットは、複数記憶されている。
第1作動プログラム70が起動されると、学習装置10を構成するコンピュータのCPU62Aは、メモリ61等と協働して、第1リードライト(以下、RW(Read Write)と略す)制御部75、第1導出部76、学習部77、抽出部78、および送信制御部79として機能する。
第1RW制御部75は、ストレージデバイス60A内の各種データの読み出し、およびストレージデバイス60Aへの各種データの記憶を制御する。第1RW制御部75は、ストレージデバイス60Aから物性データPDを読み出し、物性データPDを第1導出部76に出力する。また、第1RW制御部75は、第1導出部76からの関連データPRDをストレージデバイス60Aに記憶する。
第1RW制御部75は、ストレージデバイス60Aから関連データPRD、生産条件データPCD、および品質データQDを読み出し、これらを学習部77に出力する。関連データPRDおよび生産条件データPCDは学習用入力データIDLを構成するため、第1RW制御部75は、関連データPRDおよび生産条件データPCDをストレージデバイス60Aから読み出すことで、学習用入力データIDLを取得していることになる。すなわち、第1RW制御部75は、本開示の技術に係る「第1取得部」の一例である。
第1RW制御部75は、ストレージデバイス60Aから機械学習モデルMを読み出し、機械学習モデルMを学習部77、抽出部78、および送信制御部79のいずれかに出力する。また、第1RW制御部75は、学習部77からの機械学習モデルMをストレージデバイス60Aに記憶する。
第1導出部76は、第1RW制御部75からの物性データPDを受け取る。第1導出部76は、物性データPDから関連データPRDを導出する。第1導出部76は、導出した関連データPRDに物性データPDと同じIDを付し、関連データPRDを第1RW制御部75に出力する。第1導出部76は、物性分析装置14から新たな物性データPDが送信される度に、関連データPRDの導出を行う。
学習部77は、第1RW制御部75からの学習用入力データIDL、品質データQD、および機械学習モデルMを受け取る。学習部77は、学習用入力データIDLを機械学習モデルMに与えて学習させ、仮の機械学習モデルPM(図16参照)を出力する。すなわち、学習部77は、本開示の技術に係る「仮学習部」の一例である。以下、学習部77が仮学習部として機能する期間において用いられる機械学習モデルMを、第1機械学習モデルM1(図15参照)と表記する。
抽出部78は、第1RW制御部75からの機械学習モデルMを受け取る。抽出部78が第1RW制御部75から受け取る機械学習モデルMは、仮の機械学習モデルPMである。抽出部78は、仮の機械学習モデルPMを用いて、関連データPRDの複数の項目の中から高寄与項目を抽出する。高寄与項目は、生産物PRの品質の予測の精度の向上に寄与する程度が予め設定された条件を満たす項目である。抽出部78は、高寄与項目の抽出結果である高寄与項目情報HCIIを学習部77に出力する。また、図示は省略したが、抽出部78は、高寄与項目情報HCIIを第1RW制御部75に出力し、第1RW制御部75は、高寄与項目情報HCIIをストレージデバイス60Aに記憶する。
学習部77は、抽出部78からの高寄与項目情報HCIIを受け取る。学習部77は、高寄与項目情報HCIIに基づいて、高寄与項目の関連データPRDを選択的に機械学習モデルMに与えて学習させ、機械学習モデルMを学習済みモデルTMとして出力する。すなわち、学習部77は、本開示の技術に係る「本学習部」の一例である。以下、学習部77が本学習部として機能する期間において用いられる機械学習モデルMを、第2機械学習モデルM2(図23参照)と表記する。
送信制御部79は、第1RW制御部75からの機械学習モデルMを受け取る。送信制御部79が第1RW制御部75から受け取る機械学習モデルMは、学習済みモデルTMである。送信制御部79は、学習済みモデルTMを運用装置11に送信する制御を行う。また、送信制御部79は、学習済みモデルTMとともに高寄与項目情報HCIIを第1RW制御部75から受け取り、高寄与項目情報HCIIも運用装置11に送信する制御を行う。
図12および図13に示すように、第1導出部76は、スペクトルデータSPDを分けた複数の区間のそれぞれについて、関連データPRDを導出する。第1導出部76は、関連データPRDとして、強度の代表値を導出する。なお、この関連データPRDは、本開示の技術に係る「多次元物性関連データ」の一例である。
図12では、スペクトルデータSPDを分けた複数の区間として、スペクトルデータSPDを20等分に分けた20個の区間INT1、INT2、INT3、・・・、INT20を例示している。そして、図13では、各区間INT1~INT20の各スペクトルデータSPD_INT1~SPD_INT20の強度の代表値である平均値、最大値、最小値、中央値、分散、歪度、および尖度を、関連データPRD_INT1~PRD_INT20として導出した例を示している。この例の場合、関連データPRD_INT1~PRD_INT20を統合した関連データPRDのトータルの項目数は、代表値が7種で区間が20区間であるため、7×20=140個となる。
図14に示すように、学習部77は、第1処理部85、評価部86、および更新部87を有する。第1処理部85は、学習用入力データIDLを機械学習モデルMに与えて、機械学習モデルMから学習用出力データODLを出力させる。学習用出力データODLは、品質データQDと同じく、分子量分散度および分子量で構成される(図15等参照)。第1処理部85は、学習用出力データODLを評価部86に出力する。
評価部86は、第1処理部85からの学習用出力データODLを受け取る。評価部86は、学習用出力データODLと品質データQDとを比較し、機械学習モデルMの予測の精度を評価する。評価部86は、評価結果を更新部87に出力する。
評価部86は、例えば、損失関数を用いて機械学習モデルMの予測の精度を評価する。損失関数は、学習用出力データODLと品質データQDとの差異の程度を表す関数である。損失関数の算出値が0に近いほど、機械学習モデルMの予測の精度が高いことを示す。
更新部87は、評価部86からの評価結果に応じて、機械学習モデルMを更新する。例えば、更新部87は、学習係数を伴う確率的勾配降下法等により、機械学習モデルMの各種パラメータの値を変化させる。学習係数は、機械学習モデルMの各種パラメータの値の変化幅を示す。すなわち、学習係数が比較的大きい値であるほど、各種パラメータの値の変化幅は大きくなり、機械学習モデルMの更新度合いも大きくなる。
これら第1処理部85による機械学習モデルMへの学習用入力データIDLの入力と評価部86への学習用出力データODLの出力、評価部86による予測の精度の評価、および更新部87による機械学習モデルMの更新は、予測の精度が予め設定されたレベルとなるまで、繰り返し続けられる。
図15に示すように、学習部77が仮学習部として機能する期間では、第1処理部85は、生産条件データPCDおよび関連データPRDの複数の項目を、余すところなく学習用入力データIDLとして第1機械学習モデルM1に与える。そして、評価部86による第1機械学習モデルM1の予測の精度の評価、および更新部87による第1機械学習モデルM1の更新が行われる。こうした処理が学習用入力データIDLを変えつつ繰り返し続けられることで、第1機械学習モデルM1は予測の精度が予め設定されたレベルに達する。予測の精度が予め設定されたレベルに達した第1機械学習モデルM1は、仮の機械学習モデルPMとして、第1RW制御部75によりストレージデバイス60Aに記憶される。
図16に示すように、抽出部78は、第2処理部90、第3処理部91、算出部92、および判定部93を有する。第2処理部90は、学習用入力データIDLを仮の機械学習モデルPMに与えて、仮の機械学習モデルPMから仮の出力データPODを出力させる。仮の出力データPODは、学習用出力データODLと同じく、分子量分散度および分子量で構成される(図17等参照)。第2処理部90は、仮の出力データPODを算出部92に出力する。
第3処理部91は、第2処理部90で仮の機械学習モデルPMに与えたものと同じ生産条件データPCDと、抽出用物性関連データ(以下、抽出用関連データと略す)PRDEとを仮の機械学習モデルPMに与えて、仮の機械学習モデルPMから抽出用仮の出力データPODEを出力させる。抽出用仮の出力データPODEは、学習用出力データODLと同じく、分子量分散度および分子量で構成される(図18等参照)。第3処理部91は、抽出用仮の出力データPODEを算出部92に出力する。
算出部92は、第2処理部90からの仮の出力データPODと第3処理部91からの抽出用仮の出力データPODEとを受け取る。算出部92は、仮の出力データPODおよび抽出用仮の出力データPODEに基づいて、関連データPRDの項目が第1機械学習モデルM1の品質の予測の精度の向上に寄与する程度である関連データPRDの項目の寄与度を算出する。算出部92は、寄与度の算出結果である寄与度情報CIを判定部93に出力する。
判定部93は、算出部92からの寄与度情報CIを受け取る。判定部93は、寄与度情報CIと設定条件SCとに基づいて、関連データPRDの複数の項目の各々が高寄与項目であるか否かを判定する。判定部93は、判定結果として高寄与項目情報HCIIを学習部77に出力する。
図17に示すように、第2処理部90においては、図15で示した第1処理部85の場合と同様に、関連データPRDの複数の項目が余すところなく仮の機械学習モデルPMに与えられる。対して図18に示すように、第3処理部91においては、関連データPRDの複数の項目のうちの1つの項目が除かれた抽出用関連データPRDEが仮の機械学習モデルPMに与えられる。なお、図18では、第1区間INT1の関連データPRD_INT1の平均値の項目が除かれた例を示している。
図19および図20に示すように、算出部92は、まず、仮の出力データPODおよび抽出用仮の出力データPODEから、変化率を算出する。変化率は、以下の(式1)で求められる。
変化率=|仮の出力データと抽出用仮の出力データとの差分|/仮の出力データ・・・(式1)
変化率は、抽出用関連データPRDEにおいて除かれた項目の影響で、仮の機械学習モデルPMの出力データがどの程度変化するかを示す値である。
次いで、算出部92は、変化率を寄与度に変換する変換表100を用いて、変化率を寄与度に変換する。変換表100には、変化率が0以上0.05未満の場合に寄与度0が、変化率が0.05以上0.1未満の場合に寄与度1が、・・・、変化率が0.45以上0.5未満の場合に寄与度9が、変化率が0.5以上の場合に寄与度10が、それぞれ登録されている。
図20は、図17で示した仮の出力データPODの分子量分散度=1.5865、分子量=22000、図18で示した抽出用仮の出力データPODEの分子量分散度=1.6043、分子量=26000の場合を例示している。この場合、分子量分散度の変化率=|1.5865-1.6043|/1.5865≒0.01である。変換表100によれば、変化率が0.01の場合、寄与度は0であるため、分子量分散度の変化率を変換した寄与度は0と算出される。同様に、分子量の変化率=|22000-26000|/22000≒0.18であるので、分子量の変化率を変換した寄与度は3と算出される。こうして算出した寄与度は、抽出用関連データPRDEにおいて除かれた項目(図20においては関連データPRD_INT1の平均値の項目)の寄与度である。
第3処理部91は、除く項目を1つずつ変更しながら、次々に抽出用関連データPRDEを仮の機械学習モデルPMに与えていく。本例においては、関連データPRDの項目数は140個あるため、第3処理部91は140個の抽出用関連データPRDEを仮の機械学習モデルPMに与える。また、算出部92は、各抽出用関連データPRDEについて寄与度を算出する。なお、変化率の値の信頼性を高めるため、1組の生産条件データPCDと関連データPRDだけでなく、異なる複数の組の生産条件データPCDと関連データPRDについて変化率を算出し、その平均値を寄与度に変換してもよい。
図21に示すように、寄与度情報CIには、関連データPRDの複数の項目の各々の寄与度が登録されている。各項目の横の2つの数値が寄与度であり、左側は分子量分散度の変化率を変換した寄与度、右側は分子量の変化率を変換した寄与度である。例えば、第1区間INT1の最大値の分子量分散度の変化率を変換した寄与度は8、分子量の変化率を変換した寄与度は6である。
図22は、設定条件SCが、「分子量分散度の変化率を変換した寄与度および分子量の変化率を変換した寄与度がともに6以上」で、寄与度情報CIが図21に例示したものであった場合を示す。この場合、判定部93は、分子量分散度の変化率を変換した寄与度および分子量の変化率を変換した寄与度がともに6以上である、第1区間INT1の最大値、分散、歪度、尖度、第2区間INT2の中央値、分散、歪度、尖度、・・・、第20区間INT20の平均値、最大値、最小値、歪度のハッチングで示す各項目を、高寄与項目であると判定する。
なお、このように、複数のデータ(本例においては関連データPRDの複数の項目)から本質部分(本例においては高寄与項目)を抽出する手法は、スパースモデリングと呼ばれる。こうしたスパースモデリングは、例えば、R言語上で動作可能なglmnetパッケージを用いて行うことができる。スパースモデリングの詳細アルゴリズムは、例えば、「Journal of statistical software, vol.33-1(2010) “Regularization Paths for Generalized Linear Models via Coordinate Descent”」に記載されている。
図23に示すように、学習部77が本学習部として機能する期間では、第1処理部85において、高寄与項目の関連データPRDが選択的に第2機械学習モデルM2に与えられる。逆を言えば、高寄与項目以外の項目が選択的に除かれて、第2機械学習モデルM2に与えられる。そして、評価部86による第2機械学習モデルM2の予測の精度の評価、および更新部87による第2機械学習モデルM2の更新が行われる。こうした処理が学習用入力データIDLを変えつつ繰り返し続けられることで、第2機械学習モデルM2は予測の精度が予め設定されたレベルに達する。予測の精度が予め設定されたレベルに達した第2機械学習モデルM2は、学習済みモデルTMとして、第1RW制御部75によりストレージデバイス60Aに記憶される。なお、学習部77が本学習部として機能する期間で用いられる第2機械学習モデルM2は、学習部77が仮学習部として機能する期間で用いられる第1機械学習モデルM1と、種類、性能といった特性は同じである。
図24において、運用装置11のストレージデバイス60Bには、第2作動プログラム110が記憶されている。第2作動プログラム110は、コンピュータを運用装置11として機能させるためのアプリケーションプログラムである。
ストレージデバイス60Bには、学習装置10からの学習済みモデルTMと高寄与項目情報HCII、および物性分析装置14からの予測用物性データPDFも記憶される。また、ストレージデバイス60Bには、予測用生産条件データPCDFも記憶される。予測用生産条件データPCDFは、入力デバイス65Bを介してオペレータにより入力される。より詳しくは、予測用生産条件データPCDFの各項目の入力ボックスが用意された入力画面がディスプレイ64Bに表示され、入力画面を通じて予測用生産条件データPCDFが入力される。予測用生産条件データPCDFおよび予測用物性データPDFは、品質が未知で、これから学習済みモデルTMを用いて品質を予測する生産物PRの生産条件データPCDおよび物性データPDである。
また、ストレージデバイス60Bには、予測用物性データPDFから導出された予測用物性関連データ(以下、予測用関連データと略す)PRDFも記憶される。
第2作動プログラム110が起動されると、運用装置11を構成するコンピュータのCPU62Bは、メモリ61等と協働して、第2RW制御部115、第2導出部116、第4処理部117、および表示制御部118として機能する。
第2RW制御部115は、学習装置10の第1RW制御部75と同様、ストレージデバイス60B内の各種データの読み出し、およびストレージデバイス60Bへの各種データの記憶を制御する。第2RW制御部115は、ストレージデバイス60Bから予測用物性データPDFおよび高寄与項目情報HCIIを読み出し、予測用物性データPDFおよび高寄与項目情報HCIIを第2導出部116に出力する。また、第2RW制御部115は、第2導出部116からの予測用関連データPRDFをストレージデバイス60Bに記憶する。
第2RW制御部115は、ストレージデバイス60Bから学習済みモデルTMを読み出し、学習済みモデルTMを第4処理部117に出力する。第2RW制御部115は、学習済みモデルTMをストレージデバイス60Bから読み出すことで、学習済みモデルTMを取得していることになる。すなわち、第2RW制御部115は、本開示の技術に係る「第2取得部」の一例である。
第2RW制御部115は、ストレージデバイス60Bから予測用関連データPRDFおよび予測用生産条件データPCDFを読み出し、これらを第4処理部117に出力する。第2RW制御部115は、予測用関連データPRDFをストレージデバイス60Bから読み出すことで、予測用関連データPRDFを取得していることになる。すなわち、第2RW制御部115は、本開示の技術に係る「第3取得部」の一例である。
第2導出部116は、第2RW制御部115からの予測用物性データPDFおよび高寄与項目情報HCIIを受け取る。第2導出部116は、予測用物性データPDFから予測用関連データPRDFを導出する。より詳しくは、第2導出部116は、学習装置10の第1導出部76と同じように、スペクトルデータSPDを分けた複数の区間INT1~INT20のそれぞれについて、強度の平均値、最大値、最小値、中央値、分散、歪度、および尖度を導出する。ただし、第2導出部116は、高寄与項目情報HCIIに基づいて、高寄与項目を選択的に導出し、高寄与項目以外の項目は導出しない。このため、予測用関連データPRDFは、図23の関連データPRDと同様に、高寄与項目以外の項目が選択的に除かれたものとなる(図25参照)。
第4処理部117は、第2RW制御部115からの予測用生産条件データPCDF、予測用関連データPRDF、および学習済みモデルTMを受け取る。第4処理部117は、学習済みモデルTMに予測用生産条件データPCDFおよび予測用関連データPRDFを与えて品質を予測させる。すなわち、第4処理部117は、本開示の技術に係る「処理部」の一例である。第4処理部117は、学習済みモデルTMによる品質の予測結果である品質予測データQFDを表示制御部118に出力する。品質予測データQFDは、品質データQDと同じく、分子量分散度および分子量で構成される(図25等参照)。
表示制御部118は、各種画面をディスプレイ64Bに表示する制御を行う。各種画面には、前述の予測用生産条件データPCDFの入力画面の他、品質予測データQFDを表示する品質予測表示画面120(図26参照)がある。すなわち、表示制御部118は、本開示の技術に係る「出力制御部」の一例である。
図25は、IDがPR0500の、品質が未知の生産物PRの品質を、学習済みモデルTMで予測する様子を示している。図23で示した場合と同じく、第4処理部117において、複数の項目のうちの高寄与項目の予測用関連データPRDFが選択的に学習済みモデルTMに与えられる。逆を言えば、高寄与項目以外の項目が選択的に除かれて、学習済みモデルTMに与えられる。
図26において、表示制御部118の制御の下でディスプレイ64Bに表示される品質予測表示画面120には、学習済みモデルTMから出力された品質予測データQFDが表示される。品質予測表示画面120は、OKボタン121を選択することで表示が消える。
次に、上記構成による作用について、図27~図31のフローチャートを参照して説明する。まず、学習装置10において第1作動プログラム70が起動されると、図11で示したように、学習装置10のCPU62Aは、第1RW制御部75、第1導出部76、学習部77、抽出部78、および送信制御部79として機能される。学習部77は、図14で示したように、第1処理部85、評価部86、および更新部87として機能される。また、抽出部78は、図16で示したように、第2処理部90、第3処理部91、算出部92、および判定部93として機能される。
学習装置10では、第1RW制御部75によりストレージデバイス60Aから物性データPDであるスペクトルデータSPDが読み出され、第1導出部76に出力される。そして、図12および図13で示したように、第1導出部76により、スペクトルデータSPDを分けた複数の区間INT1~INT20のそれぞれについて、強度の代表値(平均値、最大値、最小値、中央値、分散、歪度、および尖度)が関連データPRDとして導出される。関連データPRDは、第1導出部76から第1RW制御部75に出力され、第1RW制御部75によりストレージデバイス60Aに記憶される。関連データPRDの導出は、物性分析装置14から新たな物性データPDが送信される度に行われる。
図27において、学習装置10では、主として、仮学習(ステップST100)、高寄与項目の抽出(ステップST200)、および本学習(ステップST300)が行われる。仮学習では、第1機械学習モデルM1が学習されて、仮の機械学習モデルPMとされる。高寄与項目の抽出では、仮の機械学習モデルPMが用いられる。本学習では、第2機械学習モデルM2が学習されて、学習済みモデルTMとされる。
図28に示すように、仮学習では、まず、第1RW制御部75により、生産工程において設定された生産条件データPCDおよび関連データPRDの組で構成される学習用入力データIDLがストレージデバイス60Aから読み出される(ステップST1001)。学習用入力データIDLは、第1RW制御部75から学習部77に出力される。なお、ステップST1001は、本開示の技術に係る「第1取得ステップ」の一例である。
学習部77では、図15で示したように、第1処理部85において、生産条件データPCDおよび関連データPRDの複数の項目が、余すところなく学習用入力データIDLとして第1機械学習モデルM1に与えられ、第1機械学習モデルM1から学習用出力データODLが出力される(ステップST1002)。そして、評価部86において、学習用出力データODLと品質データQDとが比較され、第1機械学習モデルM1による生産物PRの品質の予測の精度が評価される(ステップST1003)。
評価部86による第1機械学習モデルM1の予測の精度の評価結果が、第1機械学習モデルM1の予測の精度が予め設定されたレベル未満であるという内容であった場合(ステップST1004でNO)、更新部87により第1機械学習モデルM1が更新される(ステップST1005)。そして、更新後の第1機械学習モデルM1を用いて、ステップST1001、ステップST1002、およびステップST1003の処理が繰り返される。これらのステップST1001~ステップST1003の各処理は、評価部86による第1機械学習モデルM1の予測の精度の評価結果が、第1機械学習モデルM1の予測の精度が予め設定されたレベルに達したという内容であった場合(ステップST1004でYES)に終了される。予測の精度が予め設定されたレベルに達した第1機械学習モデルM1は、仮の機械学習モデルPMとして学習部77から第1RW制御部75に出力される(ステップST1006)。仮の機械学習モデルPMは、第1RW制御部75によりストレージデバイス60Aに記憶される。なお、これら一連のステップST1001~ステップST1006は、本開示の技術に係る「仮学習ステップ」の一例である。
図29に示すように、高寄与項目の抽出では、図16および図17で示したように、第2処理部90において、生産条件データPCDおよび関連データPRDの複数の項目が、余すところなく仮の機械学習モデルPMに与えられ、仮の機械学習モデルPMから仮の出力データPODが出力される(ステップST2001)。仮の出力データPODは、第2処理部90から算出部92に出力される。
また、図16および図18で示したように、第3処理部91において、生産条件データPCDと、関連データPRDの複数の項目の1つが除かれた抽出用関連データPRDEとが仮の機械学習モデルPMに与えられ、仮の機械学習モデルPMから抽出用仮の出力データPODEが出力される(ステップST2002)。抽出用仮の出力データPODEは、第3処理部91から算出部92に出力される。
図19および図20で示したように、算出部92において、仮の出力データPODおよび抽出用仮の出力データPODEに基づいて、抽出用関連データPRDEで除いた1つの項目の寄与度が算出される(ステップST2003)。これらステップST2002およびステップST2003は、関連データPRDの全ての項目の寄与度が算出される(ステップST2004でYES)まで、除く項目が1つずつ変更されつつ、繰り返し行われる。こうして算出された関連データPRDの全ての項目の寄与度は、図21で示した寄与度情報CIとして算出部92から判定部93に出力される。
判定部93では、図22で示したように、寄与度情報CIと設定条件SCとに基づいて、関連データPRDの複数の項目の各々が、高寄与項目であるか否かが判定される(ステップST2005)。そして、この判定結果が、高寄与項目情報HCIIとして判定部93から学習部77に出力される(ステップST2006)。なお、これら一連のステップST2001~ステップST2006は、本開示の技術に係る「抽出ステップ」の一例である。
図30に示すように、本学習では、第1RW制御部75により、生産条件データPCDおよび関連データPRDの組で構成される学習用入力データIDLがストレージデバイス60Aから読み出される(ステップST3001)。学習用入力データIDLは、第1RW制御部75から学習部77に出力される。
学習部77では、図23で示したように、第1処理部85において、生産条件データPCDと高寄与項目の関連データPRDが選択的に学習用入力データIDLとして第2機械学習モデルM2に与えられ、第2機械学習モデルM2から学習用出力データODLが出力される(ステップST3002)。そして、評価部86において、学習用出力データODLと品質データQDとが比較され、第2機械学習モデルM2による生産物PRの品質の予測の精度が評価される(ステップST3003)。
評価部86による第2機械学習モデルM2の予測の精度の評価結果が、第2機械学習モデルM2の予測の精度が予め設定されたレベル未満であるという内容であった場合(ステップST3004でNO)、更新部87により第2機械学習モデルM2が更新される(ステップST3005)。そして、更新後の第2機械学習モデルM2を用いて、ステップST3001、ステップST3002、およびステップST3003の処理が繰り返される。これらのステップST3001~ステップST3003の各処理は、評価部86による第2機械学習モデルM2の予測の精度の評価結果が、第2機械学習モデルM2の予測の精度が予め設定されたレベルに達したという内容であった場合(ステップST3004でYES)に終了される。予測の精度が予め設定されたレベルに達した第2機械学習モデルM2は、学習済みモデルTMとして学習部77から第1RW制御部75に出力される(ステップST3006)。学習済みモデルTMは、第1RW制御部75によりストレージデバイス60Aに記憶される。そして、学習済みモデルTMは、送信制御部79によって運用装置11に送信される。なお、これら一連のステップST3001~ステップST3006は、本開示の技術に係る「本学習ステップ」の一例である。
運用装置11において第2作動プログラム110が起動されると、図24で示したように、運用装置11のCPU62Bは、第2RW制御部115、第2導出部116、第4処理部117、および表示制御部118として機能される。
運用装置11では、第2RW制御部115によりストレージデバイス60Bから予測用物性データPDFおよび高寄与項目情報HCIIが読み出され、第2導出部116に出力される。そして、第2導出部116により、予測用物性データPDFのスペクトルデータSPDを分けた複数の区間INT1~INT20のそれぞれについて、高寄与項目に限って、強度の代表値が導出される。こうして第2導出部116において予測用関連データPRDFが導出される。予測用関連データPRDFは、第2RW制御部115によりストレージデバイス60Bに記憶される。
図31に示すように、運用装置11では、第2RW制御部115によりストレージデバイス60Bから学習済みモデルTMが読み出される(ステップST500)。また、第2RW制御部115によりストレージデバイス60Bから生産工程における設定された予測用生産条件データPCDFおよび予測用関連データPRDFが読み出される(ステップST600)。学習済みモデルTM、予測用生産条件データPCDF、および予測用関連データPRDFは、第2RW制御部115から第4処理部117に出力される。
図25で示したように、第4処理部117において、予測用生産条件データPCDFと予測用関連データPRDFが学習済みモデルTMに与えられ、学習済みモデルTMから品質予測データQFDが出力される(ステップST700)。品質予測データQFDは、第4処理部117から表示制御部118に出力される。
表示制御部118により、図26で示した品質予測表示画面120がディスプレイ64Bに表示される(ステップST800)。この品質予測表示画面120によって、品質予測データQFDがオペレータの閲覧に供される。
以上説明したように、学習装置10は、関連データPRDを含む学習用入力データIDLを第1RW制御部75で取得し、学習部77において、学習用入力データIDLを第1機械学習モデルM1に与えて学習させ、仮の機械学習モデルPMを出力する。次いで、抽出部78により、仮の機械学習モデルPMを用いて、関連データPRDの複数の項目の中から高寄与項目を抽出する。そして、学習部77において、高寄与項目の関連データPRDを選択的に第2機械学習モデルM2に与えて学習させ、学習済みモデルTMとして出力する。したがって、高寄与項目以外の関連データPRDが与えられて学習した場合よりも、学習済みモデルTMによる生産物PRの品質の予測の精度を向上させることができる。
より具体的には図32の表125に示すように、生産条件データPCDと高寄与項目の関連データPRDを学習用入力データIDLとして与えた実施例は、比較例1および比較例2よりも分子量分散度の決定係数および分子量の決定係数が高い、という結果が得られた。なお、比較例1は、生産条件データPCDのみを学習用入力データIDLとして与えた場合、比較例2は、生産条件データPCDおよび関連データPRDの複数の項目を、余すところなく学習用入力データIDLとして与えて学習させた場合である。このように、高寄与項目の関連データPRDを学習用入力データIDLとして与えて学習させることで、学習済みモデルTMによる生産物PRの品質の予測の精度をより向上させることができることが確かめられた。
また、予測の精度の向上に寄与度の低い項目に学習の労力が割かれることが防がれるため、学習の効率を高めることができる。
学習用入力データIDLは、関連データPRDだけでなく生産条件データPCDも含んでいる。このため、生産条件データPCDの影響も考慮した品質予測データQFDを、機械学習モデルMから出力させることができる。また、生産条件データPCDの影響も考慮して高寄与項目を抽出することができ、高寄与項目の妥当性をより高めることができる。
物性データPDは、生産物PRを分光分析して検出されたスペクトルデータSPDを含む。そして、関連データPRDは、スペクトルデータSPDを分けた複数の区間INT1~INT20のそれぞれについて導出した強度の代表値である。スペクトルデータSPDの各波数の強度を全て関連データPRDとする場合と比べて、関連データPRDのデータ量を減らすことができる。
運用装置11は、学習済みモデルTMおよび予測用関連データPRDFを第2RW制御部115で取得する。次いで、第4処理部117において、学習済みモデルTMに予測用関連データPRDFを与えて品質を予測させる。そして、表示制御部118の制御の下で、学習済みモデルTMによる品質の予測結果である品質予測データQFDを含む品質予測表示画面120をディスプレイ64Bに表示させる。したがって、オペレータは、生産物PRをわざわざ品質評価装置15にかけて実際に品質を評価させることなく、簡単に生産物PRの品質がどの程度であるかを把握することができる。
ここで、品質評価装置15において生産物PRの品質を実際に評価する場合、生産物PRの前処理および品質の評価処理に、例えば1週間~2週間程度の比較的長い時間が掛かる。対して、学習済みモデルTMを用いれば、ごく短い時間で生産物PRの品質を予測することができる。しかも、図32で実施例として示したように学習済みモデルTMの予測の精度が比較的高いので、オペレータは品質予測データQFDを大いに参考にして今後の生産物PRの生産計画を立てることができる。
[第2実施形態]
図33~図35に示す第2実施形態では、生産物PRを撮影して得られる画像データIMDを物性データPDとする。
図33において、第2実施形態の物性分析装置130は、例えばデジタル光学顕微鏡であり、生産物PRを撮影して画像データIMDを物性データPDとして出力する。なお、画像データIMDは、本開示の技術に係る「多次元物性データ」の一例である。
図34および図35に示すように、第2実施形態の第1導出部135は、画像データIMDを等分した複数の領域AR1-1、AR1-2、・・・、AR10-10のそれぞれについて、関連データPRD_AR1-1、PRD_AR1-2、・・・、PRD_AR10-10を導出する。具体的には、第1導出部135は、関連データPRD_AR1-1~PRD_AR10-10として、各領域AR1-1~AR10-10の画像データIMD_AR1-1~IMD_AR10-10の赤色画素値、緑色画素値、青色画素値の各々の平均値を導出する。なお、各色画素値の平均値に代えて、あるいは加えて、各色画素値の最大値、最小値、中央値、分散といった他の代表値を関連データPRDとして導出してもよい。また、図示および詳細な説明は省略するが、運用装置の第2導出部においても、第1導出部135と同様に、品質が未知の生産物PRの画像データIMDの各領域AR1-1~AR10-10の赤色画素値、緑色画素値、青色画素値の各々の平均値が、予測用関連データPRDFとして導出される。
このように、第2実施形態では、生産物PRを撮影して得られる画像データIMDを物性データPDとする。したがって、生産物PRの物性をより容易に捉えることができる。
なお、画像データIMDは、上記第1実施形態のスペクトルデータSPDに代えて物性データPDとしてもよいし、スペクトルデータSPDに加えて物性データPDとしてもよい。また、物性分析装置130は、例示のデジタル光学顕微鏡に限らず、走査型電子顕微鏡(SEM;Scanning Electron Microscope)等でもよい。
多次元物性データは、上記第1実施形態のスペクトルデータSPD、および上記第2実施形態の画像データIMDに限らない。ヒトの五感である視覚、聴覚、臭覚、触覚、味覚のいずれかに関係する多次元物性データを用いてもよい。例えば生産物PRの触覚データ、生産物PRの生産時の臭気データ、生産物PRの生産時の音声データ等が挙げられる。触覚データの場合は、生産物PRの複数箇所の触感センサの出力を触覚データとし、複数箇所のそれぞれの触覚センサの出力の平均値等を関連データPRDとして導出する。音声データの場合は、生産開始から終了までをマイクで録音して音声データとし、該音声データを複数の区間に分け、複数の区間のそれぞれの周波数の平均値、振幅の平均値等を関連データPRDとして導出する。
[第3実施形態]
図36~図43に示す第3実施形態では、オートエンコーダAEに物性データPDとしての入力画像データIIMDを与えて出力画像データOIMDを出力させ、オートエンコーダAEに与えた入力画像データIIMDと出力画像データOIMDとの差分データDDに基づいて関連データPRDを導出する。
図36において、第3実施形態の第1導出部140は、オートエンコーダAEを用いて物性データPDとしての入力画像データIIMDから関連データPRDを導出する。すなわち、第1導出部140は、本開示の技術に係る「導出部」の一例である。なお、以下では、本開示の技術に係る「多次元物性データ」の一例であるスペクトルSPの画像データSPIMDを入力画像データIIMDとして用いた場合を説明する。
オートエンコーダAEは、入力画像データIIMDを解析する複数の階層を有し、階層毎に、入力画像データIIMDに含まれる空間周波数の周波数帯域が異なる特徴を抽出する、畳み込みニューラルネットワークで構成された階層型の機械学習モデルである。畳み込みニューラルネットワークは、例えばU-Net(U-Shaped Neural Network)、SegNet等である。
図37に示すように、オートエンコーダAEは、エンコーダネットワーク145とデコーダネットワーク146とで構成される。エンコーダネットワーク145は、階層毎に、フィルタF(図38参照)を用いた畳み込み演算を行って、画像特徴マップCMPを抽出する畳み込み処理を行う。デコーダネットワーク146は、エンコーダネットワーク145の最下位階層から出力された最小の画像特徴マップCMPの画像サイズを段階的に拡大する。そして、段階的に拡大された画像特徴マップCMPと、エンコーダネットワーク145の各階層で出力された画像特徴マップCMPとを結合して、入力画像データIIMDと同じ画像サイズの出力画像データOIMDを生成する。
エンコーダネットワーク145の各階層には、二次元に配列された複数の画素値をもつ入力データDI(図38参照)が入力される。エンコーダネットワーク145は、各階層において、入力データDIに対して畳み込み処理を行って画像特徴マップCMPを抽出する。エンコーダネットワーク145の最上位の第1階層には、入力データDIとして入力画像データIIMDが入力される。第1階層は、入力画像データIIMDに畳み込み処理を行って、例えば、入力画像データIIMDと同じ画像サイズの画像特徴マップCMPを出力する。第2階層以下では、入力データDIとして、上位の各階層で出力された画像特徴マップCMPが入力される。第2階層以下では、画像特徴マップCMPに対して畳み込み処理が行われて、例えば、入力された画像特徴マップCMPと同じ画像サイズの画像特徴マップCMPが出力される。
図38において、畳み込み処理は、入力データDIに例えば3×3のフィルタFを適用して、入力データDI内の注目画素Ipの画素値eと、注目画素Ipに隣接する8個の画素Isの画素値a、b、c、d、f、g、h、iを畳み込むことにより、入力データDIと同様に、二次元状に画素値が配列された出力データDIcを得る処理である。フィルタFの係数をr、s、t、u、v、w、x、y、zとした場合、注目画素Ipに対する畳み込み演算の結果である、出力データDIcの画素Icpの画素値kは、例えば下記の(式2)を計算することで得られる。
k=az+by+cx+dw+ev+fu+gt+hs+ir・・・(式2)
畳み込み処理では、入力データDIの各画素に対して上記のような畳み込み演算を行い、画素値kを出力する。こうして、二次元状に配列された画素値kをもつ出力データDIcが出力される。出力データDIcは、1個のフィルタFに対して1つ出力される。種類が異なる複数のフィルタFが使用された場合は、フィルタF毎に出力データDIcが出力される。
図39に示すように、出力データDIcは、二次元状に画素値kが配列されたデータであり、幅と高さをもつ。また、種類が異なる複数のフィルタFを適用して、複数の出力データDIcが出力された場合は、画像特徴マップCMPは、複数の出力データDIcの集合になる。画像特徴マップCMPにおいて、フィルタFの数はチャンネル数と呼ばれる。図39に示す画像特徴マップCMPは、4個のフィルタFを適用して出力された4つの出力データDIcを有する、4チャンネルの画像特徴マップCMPの例である。
図40に示すように、オートエンコーダAEは、スペクトルデータSPDの複数の区間INT1~INT20毎に用意(オートエンコーダAE_INT1~AE_INT20)されている。各オートエンコーダAE_INT1~AE_INT20は、各区間INT1~INT20のスペクトルSPの画像データSPIMD_INT1~SPIMD_INT20に特化したものである。なお、以下の説明では、オートエンコーダAE_INT1~AE_INT20をまとめてオートエンコーダAEと表記する場合がある。
図41に示すように、オートエンコーダAEには、品質が予め設定されたレベルよりも良好な生産物PRのスペクトルSPの画像データSPIMDが、学習用入力画像データIIMDLとして与えられる。そして、オートエンコーダAEは、学習用入力画像データIIMDLと学習用出力画像データOIMDLが一致するよう学習される。すなわち、オートエンコーダAEは、品質が予め設定されたレベルよりも良好な生産物PRのスペクトルSPの画像データSPIMDが入力画像データIIMDとして入力された場合に、理想的には、入力画像データIIMDのスペクトルSPと形状が同じスペクトルSPをもつ出力画像データOIMDを出力する。なお、予め設定されたレベルとは、例えば、分子量分散度が1.5以上、分子量が25000以上等である。
図41では、各オートエンコーダAE_INT1~AE_INT20のうちのオートエンコーダAE_INT1を例示している。このため、学習用入力画像データIIMDLは、区間INT1のスペクトルSPの画像データSPIMD_INT1である。
図42に示すように、第1導出部140は、スペクトルSPの画像データSPIMDを入力画像データIIMDとしてオートエンコーダAEに与えて、出力画像データOIMDを出力させる。次いで、第1導出部140は、入力画像データIIMDと出力画像データOIMDとの差分データDDを算出する。具体的には、第1導出部140は、各区間INT1~INT20のそれぞれについて、入力画像データIIMDと出力画像データOIMDの各波数における強度の差分を、差分データDDとして算出する。
図42では、図41と同様に、オートエンコーダAE_INT1のみを図示している。オートエンコーダAE_INT1には、入力画像データIIMDとして、区間INT1のスペクトルSPの画像データSPIMD_INT1が与えられる。そして、入力画像データIIMDと、オートエンコーダAE_INT1の出力画像データOIMDとに基づいて、区間INT1の差分データDD_INT1が算出される。
ここで、オートエンコーダAEは、図41で示したように、品質が予め設定されたレベルよりも良好な生産物PRのスペクトルSPの画像データSPIMDが、学習用入力画像データIIMDLとして与えられて学習されたものである。このため、入力画像データIIMDの出所である生産物PRの品質が、予め設定されたレベルよりも良好であったならば、入力画像データIIMDと略同じ出力画像データOIMDがオートエンコーダAEから出力される。したがって、強度の差分は比較的小さくなる。逆に、生産物PRの品質が、予め設定されたレベル以下であったならば、入力画像データIIMDとは異なる出力画像データOIMDがオートエンコーダAEから出力される。したがって、強度の差分は比較的大きくなる。すなわち、差分データDDによれば、生産物PRの品質が予め設定されたレベルよりも良好か否かが分かる。
図43に示すように、第1導出部140は、各区間INT1~INT20の差分データDD_INT1、DD_INT2、・・・、DD_INT20のそれぞれについて、関連データPRD_INT1、PRD_INT2、・・・、PRD_INT20を導出する。具体的には、第1導出部140は、関連データPRD_INT1~PRD_INT20として、各区間INT1~INT20の強度の差分の平均値および総和を導出する。なお、強度の差分の平均値および総和に代えて、あるいは加えて、強度の差分の最大値、最小値、中央値、分散といった他の代表値を、関連データPRDとして導出してもよい。また、図示および詳細な説明は省略するが、運用装置の第2導出部においても、第1導出部140と同様に、品質が未知の生産物PRのスペクトルSPの画像データSPIMDの各区間INT1~INT20の強度の差分の平均値および総和が、予測用関連データPRDFとして導出される。
このように、第3実施形態では、第1導出部140において、オートエンコーダAEに物性データPDとしての入力画像データIIMDを与えて出力画像データOIMDを出力させ、オートエンコーダAEに与えた入力画像データIIMDと出力画像データOIMDとの差分データDDに基づいて関連データPRDを導出する。このため、上記第1実施形態で例示した、平均値、最大値、最小値、中央値、分散、歪度、尖度といった強度の代表値よりも、生産物PRの物性を的確に表した数値(ここでは強度の差分の平均値および総和)を、関連データPRDとして導出することができる。したがって、学習済みモデルTMの予測の精度をより向上させることができる。
なお、差分データDDに基づく関連データPRDは、上記第1実施形態の平均値、最大値、最小値、中央値、分散、歪度、尖度といった強度の代表値に代えて用いてもよいし、加えて用いてもよい。
入力画像データIIMDは例示したスペクトルSPの画像データSPIMDに限らない。スペクトルSPの画像データSPIMDに代えて、あるいは加えて、上記第2実施形態の、生産物PRを撮影して得られる画像データIMDを入力画像データIIMDとしてもよい。この場合、オートエンコーダAEは、画像データIMDの領域AR毎に用意される。
[第4実施形態]
図44に示す第4実施形態では、オートエンコーダAEの一部であるエンコーダネットワーク155から出力された画像特徴マップCMPに基づいて関連データPRDを導出する。すなわち、画像特徴マップCMPは、本開示の技術に係る「特徴データ」の一例である。
図44において、第4実施形態の第1導出部150は、上記第3実施形態と同じく、物性データPDであるスペクトルSPの画像データSPIMDを、入力画像データIIMDとしてオートエンコーダAEに与える。そして、オートエンコーダAEのエンコーダネットワーク155から画像特徴マップCMPを出力させる。画像特徴マップCMPは、例えば、エンコーダネットワーク155の最下位階層から出力された最小の画像特徴マップCMPである。なお、第4実施形態のオートエンコーダAEは、上記第3実施形態のオートエンコーダAEと同じく、スペクトルデータSPDの複数の区間INT1~INT20毎に用意されている。ただし、第4実施形態のオートエンコーダAEは、上記第3実施形態のオートエンコーダAEとは異なり、品質のレベルに関係なく、種々の生産物PRのスペクトルSPの画像データSPIMDが学習用入力画像データIIMDLとして与えられて学習されたものである。
第1導出部150は、画像特徴マップCMPに基づいて関連データPRDを導出する。図44では、画像特徴マップCMPが、チャンネル1(Ch1)の出力データDIc、チャンネル2(Ch2)の出力データDIc、チャンネル3(Ch3)の出力データDIc、チャンネル4(Ch4)の出力データDIcで構成されていた場合を例示している。そして、第1導出部150により、チャンネル1~チャンネル4の出力データDIcのそれぞれについて、画素値の平均値を関連データPRDとして導出する例を示している。なお、平均値に代えて、あるいは加えて、最大値、最小値、中央値、分散等を関連データPRDとして導出してもよい。また、図示および詳細な説明は省略するが、運用装置の第2導出部においても、第1導出部150と同様に、品質が未知の生産物PRのスペクトルSPの画像データSPIMDの各区間INT1~INT20の画像特徴マップCMPの出力データDIcの画素値の平均値が、予測用関連データPRDFとして導出される。
図44では、オートエンコーダAE_INT1のみを図示している。オートエンコーダAE_INT1には、入力画像データIIMDとして、区間INT1のスペクトルSPの画像データSPIMD_INT1が与えられる。第1導出部150は、オートエンコーダAE_INT1のエンコーダネットワーク155の画像特徴マップCMPから、区間INT1の関連データPRD_INT1を導出する。なお、図示および説明は省略するが、他の区間INT2~INT20についても、オートエンコーダAE_INT2~AE_INT20のエンコーダネットワーク155の画像特徴マップCMPから、関連データPRD_INT2~PRD_INT20が導出される。
このように、第4実施形態では、オートエンコーダAEのエンコーダネットワーク155から出力された画像特徴マップCMPに基づいて関連データPRDを導出する。したがって、上記第3実施形態と同様に、生産物PRの物性を的確に表した数値(ここでは出力データDIcの画素値の平均値)を、関連データPRDとして導出することができ、学習済みモデルTMの予測の精度をより向上させることができる。
画像特徴マップCMPは、エンコーダネットワーク155の最下位階層以外の階層から出力されたものであってもよい。
なお、画像特徴マップCMPに基づく関連データPRDは、上記第1実施形態の平均値、最大値、最小値、中央値、分散、歪度、尖度といった強度の代表値に代えて用いてもよいし、加えて用いてもよい。また、画像特徴マップCMPに基づく関連データPRDは、上記第3実施形態の差分データDDに基づく関連データPRDに代えて用いてもよいし、加えて用いてもよい。
第4実施形態においても上記第3実施形態と同じく、入力画像データIIMDは例示したスペクトルSPの画像データSPIMDに限らない。スペクトルSPの画像データSPIMDに代えて、あるいは加えて、上記第2実施形態の、生産物PRを撮影して得られる画像データIMDを入力画像データIIMDとしてもよい。この場合、オートエンコーダAEは、画像データIMDの領域AR毎に用意される。
スペクトルデータSPDを分ける区間INTは、互いにオーバーラップしていてもよい。同様に、画像データIMDを分ける領域ARも、互いにオーバーラップしていてもよい。
生産物PRは、フロー合成法を用いて生産されたものに限らない。例えばバッチ合成法を用いて生産されたものでもよい。
なお、上記各実施形態では、フロー反応装置13の設定部25で受け付けられた生産条件を、生産条件データPCDとしているが、これに限らない。第1流速センサ35、第2流速センサ36、第3流速センサ37、温度センサ38、第1流速センサ51、第2流速センサ52、第3流速センサ53、および第4流速センサ54で検出した実測値を、生産条件データPCDとしてもよい。
上記各実施形態では、品質予測データQFDの出力形態として、品質予測表示画面120を例示したが、これに限らない。品質予測表示画面120に代えて、あるいは加えて、品質予測データQFDを紙媒体に印刷出力する形態、品質予測データQFDをデータファイルとして出力する形態を採用してもよい。
なお、機械学習モデルMとしては、線形回帰、ガウス過程回帰、サポートベクター回帰、決定木、アンサンブル法、バギング法、ブースティング法、勾配ブースティング法等を用いたものがある。また、単純パーセプトロン、多層パーセプトロン、ディープニューラルネットワーク、畳み込みニューラルネットワーク、ディープビリーフネットワーク、リカレントニューラルネットワーク、確率的ニューラルネットワーク等を用いたものがある。上記で例示したうちのいずれの機械学習モデルMを用いるかは特に制限はなく、任意の手法の機械学習モデルMを選択することができる。
アンサンブル法としてはランダムフォレストが挙げられる。ランダムフォレストは、周知のように、ランダムサンプリングされた学習データとランダムに選択された説明変数を用いることにより、相関の低い決定木群を複数作成し、それらの予測結果を統合および平均させることで予測の精度の向上を図る。この場合の機械学習モデルMの制御パラメータとしては、選択する説明変数の数や決定木の分岐数がある。
ディープニューラルネットワークは、比較的制御パラメータの数が多く柔軟な組み合わせも可能であるため、多様なデータ構成に対して高い予測性能を発揮することができる。制御パラメータとしては、ネットワークのレイヤー数やノード数、活性化関数の種類、ドロップアウトの割合、ミニバッチサイズ、エポック数、学習率等がある。
こうした機械学習モデルMは、実行フレームワークが複数存在し、その中から適宜選択することができる。例えば、Tensorflow、CNTK(Cognitive Toolkit)、Theano、Caffe、mxnet、Keras、PyTorch、Chainer、Scikit-learn、Caret、MATLAB(登録商標)等から選択することができる。
機械学習システム2を構成するコンピュータのハードウェア構成は種々の変形が可能である。例えば、学習装置10と運用装置11とを統合して、1台のコンピュータで構成してもよい。また、学習装置10および運用装置11のうちの少なくともいずれかを、処理能力および信頼性の向上を目的として、ハードウェアとして分離された複数台のコンピュータで構成することも可能である。例えば、学習装置10の第1導出部76の機能と、学習部77の機能と、抽出部78の機能とを、3台のコンピュータに分散して担わせる。この場合は3台のコンピュータで学習装置10を構成する。
このように、機械学習システム2のコンピュータのハードウェア構成は、処理能力、安全性、信頼性等の要求される性能に応じて適宜変更することができる。さらに、ハードウェアに限らず、第1作動プログラム70、第2作動プログラム110等のアプリケーションプログラムについても、安全性および信頼性の確保を目的として、二重化したり、あるいは、複数のストレージデバイスに分散して格納することももちろん可能である。
上記各実施形態において、例えば、第1RW制御部75、第1導出部76、135、140、150、学習部77(第1処理部85、評価部86、更新部87)、抽出部78(第2処理部90、第3処理部91、算出部92、判定部93)、送信制御部79、第2RW制御部115、第2導出部116、第4処理部117、表示制御部118といった各種の処理を実行する処理部(Processing Unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(Processor)を用いることができる。各種のプロセッサには、上述したように、ソフトウェア(第1作動プログラム70、第2作動プログラム110)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU62A、62Bに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、および/または、CPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントおよびサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(circuitry)を用いることができる。
以上の記載から、以下の付記項1、2に記載の発明を把握することができる。
[付記項1]
生産物の品質を予測する機械学習モデルに与える学習用入力データであり、前記生産物の物性を表す多次元物性データから導出された、複数の項目を有する多次元物性関連データを含む学習用入力データを取得する第1取得プロセッサと、
前記学習用入力データを前記機械学習モデルに与えて学習させ、仮の機械学習モデルを出力する仮学習プロセッサと、
前記仮の機械学習モデルを用いて、前記多次元物性関連データの前記複数の項目の中から、前記品質の予測の精度の向上に寄与する程度が予め設定された条件を満たす高寄与項目を抽出する抽出プロセッサと、
前記高寄与項目の前記多次元物性関連データを選択的に前記機械学習モデルに与えて学習させ、前記機械学習モデルを実際の運用に供する学習済みモデルとして出力する本学習プロセッサと、
を備える学習装置。
[付記項2]
付記項1に記載の学習装置の前記本学習プロセッサから出力された前記学習済みモデルを取得する第2取得プロセッサと、
品質が未知の生産物の予測用多次元物性関連データを取得する第3取得プロセッサと、
前記第2取得プロセッサにおいて取得した前記学習済みモデルに、前記第3取得プロセッサにおいて取得した前記予測用多次元物性関連データを与えて前記品質を予測させる処理プロセッサと、
前記学習済みモデルによる前記品質の予測結果を出力する制御を行う出力制御プロセッサと、
を備える運用装置。
本開示の技術は、上述の種々の実施形態と種々の変形例を適宜組み合わせることも可能である。また、上記各実施形態に限らず、要旨を逸脱しない限り種々の構成を採用し得ることはもちろんである。さらに、本開示の技術は、プログラムに加えて、プログラムを非一時的に記憶する記憶媒体にもおよぶ。
以上に示した記載内容および図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、および効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、および効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容および図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことはいうまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容および図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。
本明細書において、「Aおよび/またはB」は、「AおよびBのうちの少なくとも1つ」と同義である。つまり、「Aおよび/またはB」は、Aだけであってもよいし、Bだけであってもよいし、AおよびBの組み合わせであってもよい、という意味である。また、本明細書において、3つ以上の事柄を「および/または」で結び付けて表現する場合も、「Aおよび/またはB」と同様の考え方が適用される。
本明細書に記載された全ての文献、特許出願および技術規格は、個々の文献、特許出願および技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
2 機械学習システム
10 学習装置
11 運用装置
12 ネットワーク
13 フロー反応装置
14、130 物性分析装置
15 品質評価装置
20 第1原料供給部
21 第2原料供給部
22、45 反応セクション
23 温度調節部
24 回収廃棄セクション
25 設定部
26 システムコントローラ
30、46 合流部
31 反応部
32~34 第1管部~第3管部
35~37 第1流速センサ~第3流速センサ
38 温度センサ
40 回収部
41 廃棄部
42 三方弁
47~50 第1管部~第4管部
51~54 第1流速センサ~第4流速センサ
60、60A、60B ストレージデバイス
61 メモリ
62、62A、62B CPU
63 通信部
64、64B ディスプレイ
65、65B 入力デバイス
66 バスライン
70 第1作動プログラム(学習装置の作動プログラム)
75 第1リードライト制御部(第1RW制御部、第1取得部)
76、135、140、150 第1導出部(導出部)
77 学習部(仮学習部、本学習部)
78 抽出部
79 送信制御部
85 第1処理部
86 評価部
87 更新部
90 第2処理部
91 第3処理部
92 算出部
93 判定部
100 変換表
110 第2作動プログラム
115 第2リードライト制御部(第2RW制御部、第2取得部、第3取得部)
116 第2導出部
117 第4処理部(処理部)
118 表示制御部(出力制御部)
120 品質予測表示画面
121 OKボタン
125 表
145、155 エンコーダネットワーク
146 デコーダネットワーク
AE オートエンコーダ
AR 領域
CI 寄与度情報
CMP 画像特徴マップ
DD 差分データ
DI オートエンコーダの入力データ
DIc オートエンコーダの出力データ
F フィルタ
HCII 高寄与項目情報
Icp 出力データの画素
IDL 学習用入力データ
IIMD 入力画像データ
IIMDL 学習用入力画像データ
IMD 画像データ
INT 区間
Ip 注目画素
Is 隣接する画素
L 反応路長
M 機械学習モデル
M1、M2 第1機械学習モデル、第2機械学習モデル
ODL 学習用出力データ
OIMD 出力画像データ
OIMDL 学習用出力画像データ
PCD 生産条件データ
PCDF 予測用生産条件データ
PD 物性データ
PDF 予測用物性データ
PM 仮の機械学習モデル
POD 仮の出力データ
PODE 抽出用仮の出力データ
PR 生産物
PRD 物性関連データ(関連データ)
PRDE 抽出用物性関連データ(抽出用関連データ)
PRDF 予測用物性関連データ(予測用関連データ)
QD 品質データ
QFD 品質予測データ
RM 原料
RM1、RM2 第1原料、第2原料
SC 設定条件
SP スペクトル
SPD スペクトルデータ
SPIMD スペクトルの画像データ
ST100、ST200、ST300、ST500、ST600、ST700、ST800 ステップ
ST1001~ST1006 ステップ(仮学習ステップ)
ST2001~ST2006 ステップ(抽出ステップ)
ST3001~ST3006 ステップ(本学習ステップ)
TM 学習済みモデル
Φ 反応路径

Claims (13)

  1. 生産物の品質を予測する機械学習モデルに与える学習用入力データであり、前記生産物の物性を表す多次元物性データから導出された、複数の項目を有する多次元物性関連データ、および、前記生産物の生産工程において設定された生産条件データを含む学習用入力データを取得する第1取得部と、
    前記学習用入力データを前記機械学習モデルに与えて学習させ、仮の機械学習モデルを出力する仮学習部と、
    前記仮の機械学習モデルを用いて、前記多次元物性関連データの前記複数の項目の中から、前記品質の予測の精度の向上に寄与する程度が予め設定された条件を満たす高寄与項目を抽出する抽出部と、
    前記高寄与項目の前記多次元物性関連データを選択的に前記機械学習モデルに与えて学習させ、前記機械学習モデルを実際の運用に供する学習済みモデルとして出力する本学習部と、
    を備える学習装置。
  2. 前記多次元物性データは、前記生産物を分光分析して検出されたスペクトルデータを含む請求項1または請求項に記載の学習装置。
  3. 前記多次元物性関連データは、前記スペクトルデータを分けた複数の区間のそれぞれについて導出した強度の代表値である請求項に記載の学習装置。
  4. 前記多次元物性データは、前記生産物を撮影して得られる画像データを含む請求項1から請求項のいずれか1項に記載の学習装置。
  5. 前記生産物は、フロー合成法を用いて生産されたものである請求項1から請求項のいずれか1項に記載の学習装置。
  6. 前記多次元物性データにオートエンコーダの少なくとも一部を適用して、前記多次元物性関連データを導出する導出部を備える請求項1から請求項のいずれか1項に記載の学習装置。
  7. 前記オートエンコーダは、前記品質が予め設定されたレベルよりも良好な前記生産物の前記多次元物性データを与えられて学習されたものであり、
    前記導出部は、前記オートエンコーダに前記多次元物性データを与えて出力データを出力させ、前記オートエンコーダに与えた前記多次元物性データと前記出力データとの差分データに基づいて前記多次元物性関連データを導出する請求項に記載の学習装置。
  8. 前記導出部は、前記オートエンコーダに前記多次元物性データを与えて、前記オートエンコーダのエンコーダネットワークから特徴データを出力させ、前記特徴データに基づいて前記多次元物性関連データを導出する請求項または請求項に記載の学習装置。
  9. 前記多次元物性データは、前記生産物を分光分析して検出されたスペクトルデータで表されるスペクトルの画像データを含む請求項から請求項のいずれか1項に記載の学習装置。
  10. 前記導出部は、前記スペクトルデータを分けた複数の区間のそれぞれについて前記多次元物性関連データを導出する請求項に記載の学習装置。
  11. 請求項1から請求項10のいずれか1項に記載の学習装置の前記本学習部から出力された前記学習済みモデルを取得する第2取得部と、
    品質が未知の生産物の予測用多次元物性関連データ、および、前記品質が未知の生産物の生産工程において設定された予測用生産条件データを取得する第3取得部と、
    前記第2取得部において取得した前記学習済みモデルに、前記第3取得部において取得した、前記品質が未知の生産物の前記予測用多次元物性関連データおよび前記予測用生産条件データを与えて前記品質を予測させる処理部と、
    前記学習済みモデルによる前記品質の予測結果を出力する制御を行う出力制御部と、を備える運用装置。
  12. 生産物の品質を予測する機械学習モデルに与える学習用入力データであり、前記生産物の物性を表す多次元物性データから導出された、複数の項目を有する多次元物性関連データ、および、前記生産物の生産工程において設定された生産条件データを含む学習用入力データを取得する第1取得ステップと、
    前記学習用入力データを前記機械学習モデルに与えて学習させ、仮の機械学習モデルを出力する仮学習ステップと、
    前記仮の機械学習モデルを用いて、前記多次元物性関連データの前記複数の項目の中から、前記品質の予測の精度の向上に寄与する程度が予め設定された条件を満たす高寄与項目を抽出する抽出ステップと、
    前記高寄与項目の前記多次元物性関連データを選択的に前記機械学習モデルに与えて学習させ、前記機械学習モデルを実際の運用に供する学習済みモデルとして出力する本学習ステップと、
    を備える学習装置の作動方法。
  13. 生産物の品質を予測する機械学習モデルに与える学習用入力データであり、前記生産物の物性を表す多次元物性データから導出された、複数の項目を有する多次元物性関連データ、および、前記生産物の生産工程において設定された生産条件データを含む学習用入力データを取得する第1取得部と、
    前記学習用入力データを前記機械学習モデルに与えて学習させ、仮の機械学習モデルを出力する仮学習部と、
    前記仮の機械学習モデルを用いて、前記多次元物性関連データの前記複数の項目の中から、前記品質の予測の精度の向上に寄与する程度が予め設定された条件を満たす高寄与項目を抽出する抽出部と、
    前記高寄与項目の前記多次元物性関連データを選択的に前記機械学習モデルに与えて学習させ、前記機械学習モデルを実際の運用に供する学習済みモデルとして出力する本学習部として、
    コンピュータを機能させる学習装置の作動プログラム。
JP2021529912A 2019-07-03 2020-05-21 学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置 Active JP7321264B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019124419 2019-07-03
JP2019124419 2019-07-03
PCT/JP2020/020026 WO2021002111A1 (ja) 2019-07-03 2020-05-21 学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置

Publications (2)

Publication Number Publication Date
JPWO2021002111A1 JPWO2021002111A1 (ja) 2021-01-07
JP7321264B2 true JP7321264B2 (ja) 2023-08-04

Family

ID=74100684

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021529912A Active JP7321264B2 (ja) 2019-07-03 2020-05-21 学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置

Country Status (5)

Country Link
US (1) US20220092435A1 (ja)
EP (1) EP3995996A4 (ja)
JP (1) JP7321264B2 (ja)
CN (1) CN114008631A (ja)
WO (1) WO2021002111A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113743688B (zh) * 2020-05-27 2023-10-20 富联精密电子(天津)有限公司 质量管控方法、装置、计算机装置及存储介质
US11573549B2 (en) * 2020-07-10 2023-02-07 Rohde & Schwarz Gmbh & Co. Kg Configuration method and configuration system
CN115101149B (zh) * 2022-06-30 2024-05-24 曲阜师范大学 材料微观结构总能量预测方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016091359A (ja) 2014-11-06 2016-05-23 株式会社リコー 情報処理システム、情報処理装置、情報処理方法、及びプログラム
JP2016109495A (ja) 2014-12-03 2016-06-20 タカノ株式会社 分類器生成装置、外観検査装置、分類器生成方法、及びプログラム
JP2018005773A (ja) 2016-07-07 2018-01-11 株式会社リコー 異常判定装置及び異常判定方法
JP2018116054A (ja) 2017-01-19 2018-07-26 国立大学法人 香川大学 触覚センサ、触覚測定装置、学習済みモデル、および識別装置
WO2019073666A1 (ja) 2017-10-11 2019-04-18 株式会社ニコン 判定装置、判定方法、および判定プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3373588B2 (ja) * 1993-04-20 2003-02-04 新日本製鐵株式会社 品質制御装置および制御方法
JP2018018354A (ja) 2016-07-28 2018-02-01 高砂香料工業株式会社 ディープラーニングを用いた飲食品の品質予測方法及び飲食品

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016091359A (ja) 2014-11-06 2016-05-23 株式会社リコー 情報処理システム、情報処理装置、情報処理方法、及びプログラム
JP2016109495A (ja) 2014-12-03 2016-06-20 タカノ株式会社 分類器生成装置、外観検査装置、分類器生成方法、及びプログラム
JP2018005773A (ja) 2016-07-07 2018-01-11 株式会社リコー 異常判定装置及び異常判定方法
JP2018116054A (ja) 2017-01-19 2018-07-26 国立大学法人 香川大学 触覚センサ、触覚測定装置、学習済みモデル、および識別装置
WO2019073666A1 (ja) 2017-10-11 2019-04-18 株式会社ニコン 判定装置、判定方法、および判定プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
長田典子、外2名,ニューラルネットの感度特性を用いた要因特定法と真珠色彩識別への応用,電気学会論文誌C,日本,社団法人電気学会,1996年04月20日,Vol.116-C, No.5,pp.556-562

Also Published As

Publication number Publication date
EP3995996A4 (en) 2022-10-05
WO2021002111A1 (ja) 2021-01-07
US20220092435A1 (en) 2022-03-24
CN114008631A (zh) 2022-02-01
JPWO2021002111A1 (ja) 2021-01-07
EP3995996A1 (en) 2022-05-11

Similar Documents

Publication Publication Date Title
JP7321264B2 (ja) 学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置
Kunz et al. Model updating for spectral calibration maintenance and transfer using 1-norm variants of Tikhonov regularization
He et al. Feature space monitoring for smart manufacturing via statistics pattern analysis
de Almeida et al. Vis-NIR spectrometric determination of Brix and sucrose in sugar production samples using kernel partial least squares with interval selection based on the successive projections algorithm
Ni et al. Discrimination of Radix Isatidis and Rhizoma et Radix Baphicacanthis Cusia samples by near infrared spectroscopy with the aid of chemometrics
JP7321263B2 (ja) 学習装置、学習装置の作動方法、学習装置の作動プログラム、並びに運用装置
Galvao et al. An application of subagging for the improvement of prediction accuracy of multivariate calibration models
TWI790296B (zh) 頻譜分析裝置及頻譜分析方法
JP6760663B2 (ja) 試料解析装置および試料解析用プログラム
Gributs et al. Parsimonious calibration models for near-infrared spectroscopy using wavelets and scaling functions
Vigni et al. Near infrared spectroscopy and multivariate analysis to evaluate wheat flour doughs leavening and bread properties
Silalahi et al. Robust wavelength selection using filter-wrapper method and input scaling on near infrared spectral data
Bao et al. Rapid detection of talc content in flour based on near-infrared spectroscopy combined with feature wavelength selection
Yan et al. Handheld near-infrared spectroscopy: State-of-the-art instrumentation and applications in material identification, food authentication, and environmental investigations
WO2020190766A1 (en) Enhanced resolution in semiconductor fabrication data acquisition instruments using machine learning
Medendorp et al. Applications of integrated sensing and processing in spectroscopic imaging and sensing
Reis et al. Prediction of profiles in the process industries
Khadem et al. Signal fragmentation based feature vector generation in a model agnostic framework with application to glucose quantification using absorption spectroscopy
Yu et al. Is this pear sweeter than this apple? A universal SSC model for fruits with similar physicochemical properties
Soh et al. A sparse fused group lasso regression model for fourier-transform infrared spectroscopic data with application to purity prediction in olive oil blends
Costa et al. A comparative study of multiresponse optimization criteria working ability
Tavassoli et al. Template-oriented genetic algorithm feature selection of analyte wavelets in the Raman spectrum of a complex mixture
Monteiro et al. A Numerical Procedure for Multivariate Calibration Using Heteroscedastic Principal Components Regression
Tan et al. A multi-model fusion strategy for multivariate calibration using near and mid-infrared spectra of samples from brewing industry
US9645086B2 (en) Componential analysis method, componential analysis apparatus and non-transitory computer-readable recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230725

R150 Certificate of patent or registration of utility model

Ref document number: 7321264

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150