JP2021136024A - 画像生成装置、ゴム組成物の配合推定装置及び学習装置 - Google Patents

画像生成装置、ゴム組成物の配合推定装置及び学習装置 Download PDF

Info

Publication number
JP2021136024A
JP2021136024A JP2021019382A JP2021019382A JP2021136024A JP 2021136024 A JP2021136024 A JP 2021136024A JP 2021019382 A JP2021019382 A JP 2021019382A JP 2021019382 A JP2021019382 A JP 2021019382A JP 2021136024 A JP2021136024 A JP 2021136024A
Authority
JP
Japan
Prior art keywords
machine learning
learning model
image
microscope image
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021019382A
Other languages
English (en)
Inventor
将志 福地
Masashi Fukuchi
将志 福地
宏明 山田
Hiroaki Yamada
宏明 山田
和加奈 伊藤
Wakana Ito
和加奈 伊藤
美紀 長谷山
Yoshinori Haseyama
美紀 長谷山
貴弘 小川
Takahiro Ogawa
貴弘 小川
廉 藤後
Ren Togo
廉 藤後
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Rubber Industries Ltd
Hokkaido University NUC
Original Assignee
Sumitomo Rubber Industries Ltd
Hokkaido University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Rubber Industries Ltd, Hokkaido University NUC filed Critical Sumitomo Rubber Industries Ltd
Publication of JP2021136024A publication Critical patent/JP2021136024A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Analysing Materials By The Use Of Radiation (AREA)
  • Image Analysis (AREA)

Abstract

【課題】ゴム組成物の構造と配合との相関を推定する技術を提供する。【解決手段】画像生成装置は、データ取得部と、画像生成部とを備える。データ取得部は、ゴム組成物を構成する材料の配合を表す配合データを取得する。画像生成部は、前記取得した配合データをノイズとともに機械学習モデルに入力し、前記機械学習モデルの出力として、前記ゴム組成物を顕微鏡により撮像した顕微鏡画像を模擬する模擬顕微鏡画像を生成する。【選択図】図3

Description

本発明は、画像生成装置、ゴム組成物の配合推定装置及び学習装置に関する。
特許第6609387号(特許文献1)は、ゴム材料を顕微鏡により撮像した画像の特徴を示す指標及びゴム材料の配合から、当該ゴム材料の特性を推定する方法を開示する。
特許第6609387号公報
特許文献1によれば、(画像に表現される)ゴム材料の構造、ゴム材料の配合、及びゴム材料の特性は、互いに相関を有する。しかし、特許文献1には、ゴム材料の構造と配合との相関を推定する方法については開示されていない。
本発明は、このような課題を解決するためになされたものであり、その目的は、画像に表現されるゴム組成物の構造と配合との相関を推定する技術を提供することである。
本発明の一側面に係る画像生成装置は、データ取得部と、画像生成部とを備える。データ取得部は、ゴム組成物を構成する材料の配合を表す配合データを取得する。画像生成部は、前記取得した配合データをノイズとともに機械学習モデルに入力し、前記機械学習モデルの出力として、前記ゴム組成物を顕微鏡により撮像した顕微鏡画像を模擬する模擬顕微鏡画像を生成する。
上記画像生成装置によれば、ゴム組成物の配合データを与えると、ゴム組成物の構造を推定する模擬顕微鏡画像が得られる。これにより、配合データから得られるゴム組成物の構造を予測することが可能になる。
上記画像生成装置において、前記顕微鏡は、電子顕微鏡であってもよい。
本発明の一側面に係るゴム組成物の配合推定装置は、画像取得部と、配合推定部とを備える。画像取得部は、ゴム組成物を顕微鏡により撮像した顕微鏡画像あるいはこれを模擬する模擬顕微鏡画像を取得する。配合推定部は、前記取得した顕微鏡画像あるいは前記取得した模擬顕微鏡画像を機械学習モデルに入力し、前記機械学習モデルの出力として前記ゴム組成物を構成する材料の配合を推定する。
上記ゴム組成物の配合推定装置によれば、材料の配合が未知であるゴム組成物の構造を表す画像あるいはゴム組成物の構造を予測する画像に基づいて、ゴム組成物を構成する材料の配合を推定することができる。
上記配合推定装置において、前記顕微鏡は、電子顕微鏡であってもよい。
本発明の一側面に係る学習済みモデルの生成方法は、以下のステップを備える。
・ゴム組成物を顕微鏡により撮像した顕微鏡画像と、前記ゴム組成物を構成する材料の配合を表す配合データとが組み合わせられた学習用データを用意するステップ。
・前記配合データ及びノイズが入力されると、前記入力された配合データ及びノイズに基づいて、前記顕微鏡画像を模擬する模擬顕微鏡画像を生成する第1機械学習モデルと、前記顕微鏡画像又は前記模擬顕微鏡画像が入力されると、前記入力された画像が前記顕微鏡画像であるか否かを示す識別結果を出力する第2機械学習モデルとを学習させるステップ。
なお、前記学習させるステップは、以下のステップを交互に繰り返す。
・前記顕微鏡画像又は前記模擬顕微鏡画像を前記第2機械学習モデルに入力したときに、前記第2機械学習モデルが出力する前記識別結果の正解確率が高くなるように前記第2機械学習モデルを学習させるステップ。
・前記模擬顕微鏡画像を前記第2機械学習モデルに入力したときに、前記第2機械学習モデルが出力する前記識別結果の正解確率が低くなるように前記第1機械学習モデルを学習させるステップ。
上記学習済みモデルの生成方法において、前記第1機械学習モデルは、入力されたデータをアップサンプリングすることで、前記入力されたデータよりサイズの大きいデータを生成し、これを所定のサイズの前記模擬顕微鏡画像として出力する生成層を含んでもよい。前記第2機械学習モデルは、前記生成層と対を為す識別層であって、前記生成層が出力する前記模擬顕微鏡画像又は前記模擬顕微鏡画像と同じサイズを有する前記顕微鏡画像が入力されると、前記入力された画像が前記顕微鏡画像であるか否かを示す識別結果を出力する識別層を含んでもよい。また、上記学習済みモデルの生成方法は、前記学習させるステップの後に、新たな前記生成層を1つ前記第1機械学習モデルに追加するとともに、追加される当該生成層と対を為す新たな前記識別層を1つ前記第2機械学習モデルに追加するステップと、前記追加するステップの後に、前記第1機械学習モデルと前記第2機械学習モデルとをさらに学習させるステップと、をさらに備え、前記追加するステップと、前記さらに学習させるステップとを交互に繰り返し、前記追加される生成層が出力する前記模擬顕微鏡画像のサイズを、前記追加するステップが繰り返されるごとに段階的に大きくしてもよい。
上記学習済みモデルの生成方法において、前記第2機械学習モデルは、入力された前記顕微鏡画像又は前記模擬顕微鏡画像に対応する配合データを推定するデータをさらに出力してもよい。前記第2機械学習モデルを学習させるステップは、前記顕微鏡画像を前記第2機械学習モデルに入力したときに、前記第2機械学習モデルが出力する前記データと前記配合データとの差が小さくなるように前記第2機械学習モデルを学習させるステップを含んでもよい。前記第1機械学習モデルを学習させるステップは、前記模擬顕微鏡画像を前記第2機械学習モデルに入力したときに、前記第2機械学習モデルが出力する前記データと、前記第1機械学習モデルに入力された前記配合データとの差が小さくなるように前記第1機械学習モデルを学習させるステップを含んでもよい。
上記学習済みモデルの生成方法において、前記顕微鏡は、電子顕微鏡であってもよい。
本発明によれば、ゴム組成物の構造と配合との相関を推定する技術が提供される。
電子顕微鏡により撮像されたゴム組成物の画像の例。 第1実施形態に係る学習装置の機械学習モデルの概念図。 第1実施形態に係る学習装置の電気的構成を示すブロック図。 第2機械学習モデルの学習処理の流れを示すフローチャート。 第1機械学習モデルの学習処理の流れを示すフローチャート。 第1実施形態に係る画像生成装置の電気的構成を示すブロック図。 第1実施形態に係る画像生成処理の流れを示すフローチャート。 第1実施形態に係る推定装置の電気的構成を示すブロック図。 第1実施形態に係る推定処理の流れを示すフローチャート。 第2実施形態に係る学習装置の電気的構成を示すブロック図。 第2実施形態に係る学習装置の機械学習モデルの概念図。 第3機械学習モデルの構成を説明する図。 第2実施形態に係る学習処理の流れを示すフローチャート。 第2実施形態に係る学習の方法を説明する図。 第2実施形態に係る画像生成装置の電気的構成を示すブロック図。 実施例に係る実験で取得された画像と、生成された画像の例。 実施例に係る実験結果を示すヒストグラム。 別の実施例に係る実験で取得された画像と、生成された画像の例。 別の実施例に係る実験で生成された画像の例。
<1.概要>
ゴム組成物は、弾性を有する高分子化合物であり、典型的には、複数の配合物が共に混練されることにより生成される。配合物の種類としては、例えばモノマー(ブタジエン、スチレン等)、フィラー(シリカ、カーボン等)及び架橋剤等が挙げられる。ゴム組成物の開発では、目的に合わせて多種多様な原料の中から配合物を選択し、その配合量を決定し、試作を行うということが繰り返されるため、開発コストが嵩みがちである。このため、より効率的にゴム組成物を開発する技術へのニーズが高まっている。
ところで、ゴム組成物を顕微鏡により撮像した顕微鏡画像からは、ゴム組成物の構造に関する特徴を抽出し得る。図1は、拡大倍率2万倍でゴム組成物の内部が撮像された走査型電子顕微鏡の画像である。図1の画像では、グレースケールで表された明暗により特定の配合物を判別することができる。例えば、カーボンの凝集体が相対的に暗いエリアとして画像に現れる一方、シリカの凝集体が相対的に明るいエリアとして現れる。すなわち、ゴム組成物が撮像された顕微鏡画像には、フィラー凝集体のサイズや、フィラー凝集体間の距離、フィラーのポリマー相に対する分布(分配)等、ゴム組成物の構造を表現する情報が含まれる。
本発明者らは、鋭意検討の結果、画像に表現されるゴム組成物の構造と、ゴム組成物を構成する材料の配合を表す配合データとの相関を推定する技術を発明するに至った。より具体的には、本発明者らは、機械学習モデルを学習させ、ゴム組成物の配合データからはゴム組成物の顕微鏡画像を模擬した画像を生成し、ゴム組成物の顕微鏡画像からはゴム組成物の配合データを推定することを想到した。以下、本発明の一実施形態に係る画像生成装置、ゴム組成物の配合推定装置及び学習装置について説明する。
[A.第1実施形態]
<2−1.学習装置>
本開示の第1実施形態に係る学習装置1は、条件付き画像生成モデルの1つであるAC−GAN(auxiliary classifier generative adversarial network)を学習させる装置である。図2は、本実施形態に係る機械学習モデルを示す概念図である。AC−GANは、第1機械学習モデル200及び第2機械学習モデル300の2つの機械学習モデルを含んでいる。学習装置1は、これらの機械学習モデルを競合的に学習させることにより、ゴム組成物の顕微鏡画像と類似した新しい画像である模擬顕微鏡画像を生成する学習済みモデル200Aと、入力された画像からゴム組成物の配合データを推定する学習済みモデル300Aとを生成する。生成された学習済みモデル200Aは、後述する画像生成装置2(以下、単に「生成装置2」と称することがある)に実装され、生成された学習済みモデル300Aは、後述するゴム組成物の配合推定装置3(以下、単に「推定装置3」と称することがある)に実装される。
図3は、学習装置1の電気的構成を示すブロック図である。本実施形態の学習装置1は、ハードウェアとしては汎用のコンピュータである。学習装置1は、記憶部10、制御部11、通信インターフェース12、外部インターフェース13、入力装置14及び出力装置15を備えている。これらの部10〜15は、互いにバス線を介して接続されており、相互に通信可能である。
記憶部10は、ハードディスクやフラッシュメモリ等の不揮発性の記憶装置から構成されており、AC−GANを学習させるために用意された学習用データ100が格納される。また、記憶部10には、AC−GANを学習させるための学習プログラム101が格納されている。学習用データ100及び学習プログラム101は、USBメモリ等の記憶媒体7や、学習装置1が接続されるネットワーク8等から取得され得る。さらに、記憶部10には、AC−GANの学習を行う過程で更新される、第1機械学習モデル200及び第2機械学習モデル300のパラメータ102が保存される。
制御部11は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)等のプロセッサ、RAM(Random Access Memory)及びROM(Read only memory)等から構成されている。なお、学習プログラム101は、ROMに格納されていてもよい。制御部11は、記憶部10から学習プログラム101を読み出して実行することにより、学習処理部111及び保存処理部112として動作する。学習処理部111及び保存処理部112の動作は、後述する。
通信インターフェース12は、例えば、有線LANモジュール、無線LANモジュール等から構成されている。通信インターフェース12は、外部装置とネットワーク8を介した有線又は無線によるデータ通信を行うためのインターフェースである。外部インターフェース13は、例えばUSB(Universal Serial Bus)ポートや専用ポートから構成されている。外部インターフェース13は、外部装置と通信可能な接続を構築するためのインターフェースである。
入力装置14は、マウスやキーボード、音声マイク、操作ボタン等から構成されている。入力装置14は、制御部11に対するユーザからの操作を受け付ける。出力装置15は、ディスプレイ、スピーカ等から構成されており、情報を出力する。入力装置14及び出力装置15は、タッチパネルディスプレイ等により一体的に構成されていてもよい。
<2−2.学習処理>
以下、学習処理について説明する。図4及び図5は、学習装置1が行う学習処理の流れを示すフローチャートである。
学習用データ100は、サンプルとして実在するゴム組成物に由来するデータである。より具体的には、学習用データ100は、ゴム組成物を顕微鏡により撮像した顕微鏡画像と、ゴム組成物の材料の配合割合を表す配合データとが組み合わされた多数のデータセットである。顕微鏡画像は、サンプルとなるゴム組成物を顕微鏡で撮像した画像であり、倍率や、電子顕微鏡のモードといった撮像条件は、各サンプルで共通である。i番目の訓練用サンプル(i=1,2,…,Nimage;Nimageは訓練用サンプル数)の顕微鏡画像を
Figure 2021136024
とする。本実施形態では、顕微鏡画像として、各顕微鏡画像をH×Wに予め分割した、パッチ
Figure 2021136024
を用いる。つまり、1種類のサンプルにつき、複数のパッチが取得される。取得された複数のパッチについて、パッチの特徴を示す、特徴量が従う確率分布をpdataと定義する。
顕微鏡は、本実施形態では走査型電子顕微鏡(SEM)である。しかし、顕微鏡はこれに限定されず、その他の種類の電子顕微鏡(TEM、STEM等)及び光学顕微鏡等から適宜選択することができる。また、顕微鏡の分解能の例として、好ましくは135nm/pixel(1画素当たりの撮像される対象物の長さ)の範囲が挙げられる。さらに、ゴム組成物を撮像する拡大倍率の例として、好ましくは2500〜40000倍の範囲が挙げられる。顕微鏡により撮像されるゴム組成物の部位は特に限定されないが、外部空間との境界となる表面の部位よりは、内側の部位であることが好ましい。
配合データは、1種類のサンプルにつき、1通りが存在する。配合データは、例えばモノマー、フィラー及びその他の添加物といった、Ncom種類の材料に対する割合を表すデータである。配合データの割合を要素に持つ配合ベクトルを、
Figure 2021136024
とする。ただし、各要素の取り得る値は[0,1]である。
図4は、第2機械学習モデル300の学習処理の流れを示すフローチャートである。本実施形態の学習処理部111は、まず第1機械学習モデル200のパラメータを一定にした状態で、第2機械学習モデル300の学習を行う。学習プログラム101がユーザの指示により実行され、ユーザによる学習開始の指示が入力装置14を介して受け付けられると、図4に示す学習処理がスタートする。
ステップS1では、学習処理部111が配合ベクトルyfakeとともに、一様分布pzに従う乱数ベクトルzを第1機械学習モデル200に入力する。乱数ベクトルzは、乱数から発生させたデータ、つまりノイズを要素に有するベクトルである。乱数は、学習処理部111がその都度生成してもよいし、学習プログラム101以外のプログラムにより生成されたものを学習処理部111が取得してもよい。配合ベクトルyfakeは、第1機械学習モデル200を条件付けするために入力される。配合ベクトルyfakeは、配合ベクトルyiと同様の次元、及び各要素の取り得る値の範囲を有するベクトルである。本実施形態のステップS1では、配合ベクトルyfakeとして学習用データ100に由来する配合ベクトルyiが入力されるが、学習用データ100に由来しないベクトルも配合ベクトルyfakeとして入力され得る。
第1機械学習モデル200は、配合ベクトルyfake及び乱数ベクトルzが入力されると、これらを特徴量とする画像を生成するように構成されるモデルであって、機械学習により更新されるパラメータを含んでいる。本実施形態では、第1機械学習モデル200は、ニューラルネットワークであり、各ニューロン間の結合の重み、各ニューロンの閾値等が上述のパラメータに該当する。第1機械学習モデル200は、入力された配合ベクトルyfake及び乱数ベクトルzを用いて、データ空間への写像
Figure 2021136024
を生成し、出力する。これは、顕微鏡画像を模擬する模擬顕微鏡画像である。本実施形態では、1つの配合ベクトルyfake及び乱数ベクトルzの組合せから、H×W枚の模擬顕微鏡画像(パッチ)が生成される。生成する模擬顕微鏡画像(パッチ)の枚数は、適宜選択されてよい。
ステップS2では、学習処理部111が
Figure 2021136024
のいずれかを第2機械学習モデル300に入力する。つまり、学習処理部111は、1回のステップS2につき、顕微鏡画像及び模擬顕微鏡画像のいずれかのパッチ群をランダムに選択し、選択したパッチ群を第2機械学習モデル300に入力する。ステップS2では、学習処理部111は、入力したパッチ群が顕微鏡画像(real)であるか模擬顕微鏡画像(fake)であるかを認識しているが、「real」であるか「fake」であるかの正解は、第2機械学習モデル300に与えない。
第2機械学習モデル300は、画像が入力されると、入力された画像が学習データに由来するもの(real)か否(fake)かの識別結果を出力するように構成されるモデルであって、機械学習により更新されるパラメータを含んでいる。なお、第2機械学習モデル300が出力する識別結果は、「real」であるか「fake」であるかを表す確率であってもよいし、この確率に基づいて判定される「real」であるか「fake」であるかを表すデータであってもよい。本実施形態では、第2機械学習モデル300は、ニューラルネットワークであり、各ニューロン間の結合の重み、各ニューロンの閾値等が上述のパラメータに該当する。本実施形態の第2機械学習モデル300は、入力されたパッチ群に対し、各パッチが「real」であるか「fake」であるかを表す確率を出力する。また、本実施形態の第2機械学習モデル300は、パッチ群の特徴量から、入力された画像の配合データとして推定されるデータを識別結果と同時に出力するように構成される。具体的には、第2機械学習モデル300は、画像が入力されると、
Figure 2021136024
を出力する。ただし、確率分布D(S|P)は入力された画像(パッチP)が学習用データ100のパッチPj iであるか否かを表す確率分布であり、
Figure 2021136024
である。また、配合ベクトルypred(P)は、配合データとして推定される値を要素に有するベクトルである。
ステップS3では、学習処理部111が、出力された識別結果及びy#pred(P)と、入力が「real」であるか「fake」であるかの正解及び学習用データ100に含まれる配合データとをそれぞれ照合し、第2機械学習モデル300のパラメータを調整する。より具体的には、学習処理部111は、第2機械学習モデル300の出力する識別結果の正解確率が高くなると同時に、第2機械学習モデル300の出力するデータと学習用データ100に含まれる配合データとの差が小さくなるように第2機械学習モデル300のパラメータを調整する。本実施形態では、学習処理部111は、以下の式(1)及び(2)で表される損失関数LC及び損失関数LSの和(−LC+LS)が最大となるように第2機械学習モデル300のパラメータを調整する。
Figure 2021136024
(1)
Figure 2021136024
(2)
ただし、式(1)(2)における
Figure 2021136024
は、同一の訓練用サンプルの顕微鏡画像のパッチ及び配合ベクトルである。
学習処理部111は、ステップS4において、第2機械学習モデル300の学習が完了したか否かを判断する。学習処理部111は、ステップS1〜S3の繰り返しが所定の回数に到達したら、学習が完了したと判断してもよいし、(−LC+LS)が目標値に到達したら、学習が完了したと判断してもよい。学習処理部111は、学習が完了していないと判断した場合、ステップS1〜S3をさらに繰り返す。これにより、学習処理部111は、第2機械学習モデル300のパラメータを最適化していく。保存処理部112は、1回の学習が行われ、ステップS3で第2機械学習モデル300のパラメータが調整されるごとに、最新のパラメータをパラメータ102として記憶部10に上書き保存する。
学習処理部111は、第2機械学習モデル300の学習が完了したと判断すると、第2機械学習モデル300の学習処理を終える。続いて、学習処理部111は、第2機械学習モデル300のパラメータを一定にした状態で第1機械学習モデル200の学習をスタートする。図5は、第1機械学習モデル200の学習処理の流れを示すフローチャートである。このときの第2機械学習モデル300のパラメータとしては、直近の第2機械学習モデル300の学習において、最適化されたパラメータを使用することができる。
ステップS21では、学習処理部111は、配合ベクトルyfakeとともに乱数ベクトルzを第1機械学習モデル200に入力し、出力として模擬顕微鏡画像
Figure 2021136024
を生成させる。本実施形態のステップS21では、配合ベクトルyfakeとして学習用データ100に由来する配合ベクトルyiが入力されるが、学習用データ100に由来しないベクトルも配合ベクトルyfakeとして入力され得る。
ステップS22では、学習処理部111が、ステップS21で生成された模擬顕微鏡画像を第2機械学習モデル300に入力する。第2機械学習モデル300は、この入力に対し、確率分布D(S|P)及び配合ベクトルypred(P)を出力する。
ステップS23では、学習処理部111は、第2機械学習モデル300の識別結果の正解確率が低くなると同時に、配合ベクトルyfakeと配合ベクトルypred(P)との差が小さくなるように第1機械学習モデル200のパラメータを調整する。つまり、学習処理部111は、模擬顕微鏡画像がより顕微鏡画像により類似し、第2機械学習モデル300が模擬顕微鏡画像を本来の顕微鏡画像と認識しやすくなるように第1機械学習モデル200を学習させる。併せて、模擬顕微鏡画像から第2機械学習モデル300によって推定される配合データが、より本来の配合データに近くなるように第1機械学習モデル200のパラメータを調整する。本実施形態では、学習処理部111は、−(LC+LS)が最大となるように第1機械学習モデル200のパラメータを調整する。
学習処理部111は、ステップS24において、第1機械学習モデル200の学習が完了したか否かを判断する。学習処理部111は、ステップS21〜S23の繰り返しが所定の回数に到達したら、学習が完了したと判断してもよいし、−(LC+LS)が目標値に到達したら、学習が完了したと判断してもよい。学習処理部111は、学習が完了していないと判断した場合、ステップS21〜S23をさらに繰り返す。これにより、学習処理部111は、第1機械学習モデル200のパラメータを最適化していく。保存処理部112は、ステップS23で第1機械学習モデル200のパラメータが調整されるごとに、最新のパラメータをパラメータ102として記憶部10に上書き保存する。
学習処理部111は、ステップS24において、第1機械学習モデル200の学習が完了したと判断すると、第1機械学習モデル200の学習処理を終える。続いて、上述した第2機械学習モデル300の学習を再び開始する。このようにして、学習処理部111は、第2機械学習モデル300の学習と第1機械学習モデル200の学習とを交互に繰り返す。学習を繰り返す回数は、所定の回数であってよい。このようにすることで、配合データを入力すると、これと対を為す模擬顕微鏡画像を出力する学習済みモデル200Aが得られる。また、顕微鏡画像又は模擬顕微鏡画像を入力すると、それが顕微鏡画像であるか否かの識別結果を出力するとともに、入力された画像と対を為す配合データを推定するデータを出力する学習済みモデル300Aが得られる。
<2−3.画像生成装置>
以下、学習済みモデル200Aを利用した生成装置2の構成と、生成装置2が行う処理について説明する。図6は画像生成装置2の電気的構成を示すブロック図である。本実施形態の生成装置2は、ハードウェアとしては汎用のコンピュータである。生成装置2は、記憶部20、制御部21、通信インターフェース22、外部インターフェース23、入力装置24及び出力装置25を備えている。これらの部20〜25は、互いにバス線を介して接続されており、相互に通信可能である。
記憶部20は、ハードディスクやフラッシュメモリ等の不揮発性の記憶装置から構成されており、生成装置2を動作させるためのプログラム201が格納されている。プログラム201には、学習装置1により学習されたパラメータを含む、学習済みモデル200Aが含まれる。プログラム201は、USBメモリ等の記憶媒体7や、ネットワーク8等から取得され得る。
制御部21は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)等のプロセッサ、RAM(Random Access Memory)及びROM(Read only memory)等から構成されている。なお、プログラム201は、ROMに格納されていてもよい。制御部21は、記憶部20からプログラム201を読み出して実行することにより、データ取得部210及び画像生成部211として動作する。各部の動作は、後述する。
通信インターフェース22は、例えば、有線LANモジュール、無線LANモジュール等から構成されている。通信インターフェース22は、外部装置とネットワーク8を介した有線又は無線によるデータ通信を行うためのインターフェースである。外部インターフェース23は、例えばUSB(Universal Serial Bus)ポートや専用ポートから構成されている。外部インターフェース23は、外部装置と通信可能な接続を構築するためのインターフェースである。
入力装置24は、マウスやキーボード、音声マイク、操作ボタン等から構成されている。入力装置24は、制御部21に対するユーザからの操作を受け付ける。出力装置25は、ディスプレイ、スピーカ等から構成されており、情報を出力する。入力装置24及び出力装置25は、タッチパネルディスプレイ等により一体的に構成されていてもよい。
図7は、生成装置2が行う画像生成処理の流れを示すフローチャートである。生成装置2は、入力装置24を介して、ユーザにより画像生成処理開始の指示を受け付けると、画像生成処理をスタートする。
ステップS41では、データ取得部210が、ゴム組成物を構成する材料の配合を表す配合データを取得する。配合データは、所定の種類の材料について、それぞれの配合割合を[0,1]の範囲で表すデータであり、ベクトルとしても扱うことができる。配合データは、記憶媒体7を介して取得されてもよいし、ネットワーク8を介して取得されてもよいし、通信可能に接続された外部装置から直接取得されてもよい。
続くステップS42では、画像生成部211が、取得した配合データを、ノイズを表す乱数ベクトルとともに学習済みモデル200Aに入力する。一様分布に従うこの乱数ベクトルは、画像生成部211がその都度生成してもよいし、プログラム201以外のプログラムにより生成されたものを画像生成部211がその都度取得してもよい。学習済みモデル200Aは、配合データを配合ベクトルと捉え、乱数ベクトルとともにデータ空間へ写像する。その結果、ステップS43では、ゴム組成物を顕微鏡により撮像した顕微鏡画像を模擬する、模擬顕微鏡画像が出力される。
出力された画像は、例えば配合データが予め判明しているゴム組成物の構造を予測するのに利用することができる。また、出力された画像は、例えばゴム組成物の顕微鏡画像に基づいて、ゴム組成物の特性を推定する機械学習モデルを学習させるためのデータとして利用することができる。さらに、出力された画像は、例えばゴム組成物の構造の経年変化を予測するのに利用し得る。例えば、製造からの経過時間ごとのゴム組成物の顕微鏡画像が利用できる場合、これを利用して、異なる経過時間ごとに複数の学習用データ100を用意し、それぞれを学習装置1によって学習させ、学習済みモデル200Aを複数生成する。こうして作成された複数の学習済みモデル200Aは、それぞれ、所定の経過時間に対応した模擬顕微鏡画像を出力する。
<2−4.推定装置>
以下、学習済みモデル300Aを利用したゴム組成物の推定装置3の構成と、推定装置3が行う処理について説明する。図8は推定装置3の電気的構成を示すブロック図である。本実施形態の推定装置3は、ハードウェアとしては汎用のコンピュータである。推定装置3は、記憶部30、制御部31、通信インターフェース32、外部インターフェース33、入力装置34及び出力装置35を備えている。これらの部30〜35は、互いにバス線を介して接続されており、相互に通信可能である。
記憶部30は、ハードディスクやフラッシュメモリ等の不揮発性の記憶装置から構成されており、推定装置3を動作させるためのプログラム301が格納されている。プログラム301には、学習装置1により学習されたパラメータを含む、学習済みモデル300Aが含まれる。プログラム301は、USBメモリ等の記憶媒体7や、ネットワーク8等から取得され得る。
制御部31は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)等のプロセッサ、RAM(Random Access Memory)及びROM(Read only memory)等から構成されている。なお、プログラム301は、ROMに格納されていてもよい。制御部31は、記憶部30からプログラム301を読み出して実行することにより、画像取得部310及び配合推定部311として動作する。各部の動作は、後述する。
通信インターフェース32は、例えば、有線LANモジュール、無線LANモジュール等から構成されている。通信インターフェース32は、外部装置とネットワーク8を介した有線又は無線によるデータ通信を行うためのインターフェースである。外部インターフェース33は、例えばUSB(Universal Serial Bus)ポートや専用ポートから構成されている。外部インターフェース33は、外部装置と通信可能な接続を構築するためのインターフェースである。
入力装置34は、マウスやキーボード、音声マイク、操作ボタン等から構成されている。入力装置34は、制御部31に対するユーザからの操作を受け付ける。出力装置35は、ディスプレイ、スピーカ等から構成されており、情報を出力する。入力装置34及び出力装置35は、タッチパネルディスプレイ等により一体的に構成されていてもよい。
図9は、推定装置3が行う配合推定処理の流れを示すフローチャートである。推定装置3は、入力装置34を介して、ユーザにより配合推定処理開始の指示を受け付けると、配合推定処理をスタートする。
ステップS51では、画像取得部310が、学習済みモデル300Aに入力される入力画像を取得する。入力画像は、ゴム組成物を顕微鏡により撮像した顕微鏡画像であってもよいし、顕微鏡画像に類似する画像、例えば顕微鏡画像を模擬する模擬顕微鏡画像であってもよい。入力は、記憶媒体7を介して取得されてもよいし、ネットワーク8を介して取得されてもよいし、通信可能に接続された外部装置から直接取得されてもよい。入力画像が顕微鏡画像であれば、例えば推定装置3とデータ通信可能に接続された顕微鏡から、その撮像画像を推定装置3に取り込んでもよい。
続くステップS52では、配合推定部311が、取得した入力画像を学習済みモデル300Aに入力する。ステップS53では、学習済みモデル300Aが、入力画像に基づいて、ゴム組成物を構成する材料の配合を推定する。つまり、学習済みモデル300Aは、入力画像と対を為す配合データを出力する。
推定装置3により出力される配合データは、例えばそれを構成する材料及びその配合が不明である、ゴム組成物の材料及び配合を推定するのに使用することができる。
[B.第2実施形態]
<3−1.学習装置>
以下、図10〜図14を参照しつつ、本開示の第2実施形態に係る学習装置1Aについて説明する。図10は、学習装置1Aの電気的構成を表すブロック図である。第1実施形態に係る学習装置1は、AC−GANによる機械学習モデルを学習させるように構成されたが、本実施形態に係る学習装置1Aは、条件付き画像生成モデルの1つである「Conditional Style Generative Adversarial Network:StyleGAN」による機械学習モデルを学習させるように構成される。このため、学習装置1Aは、ハードウェアとしては学習装置1と同様の構成を有する汎用のパーソナルコンピュータであるが、記憶部10に格納される学習プログラム101A及びパラメータ102Aが学習装置1とは異なっている。学習プログラム101Aには、本実施形態に係る機械学習モデル(StyleGAN)が組み込まれ、その学習の結果に応じてパラメータ102Aが更新され、記憶部10に保存される。以下の説明では、学習装置1と共通する構成については共通の符号を付して説明を省略し、学習装置1とは相違する学習装置1Aの構成、つまり機械学習モデルの構成と、その学習処理について説明する。
<3−2.学習処理>
図11は、本実施形態に係る機械学習モデルの概略を説明する図である。この機械学習モデルでは、第1実施形態に係る機械学習モデルと同様に、画像を生成する第3機械学習モデル400と、画像の真偽を識別する第4機械学習モデル500との競合的な学習が行われる。ただし、StyleGANの学習では、低解像度から中解像度、中解像度から高解像度へと、生成される画像の解像度を段階的に上げるように第3機械学習モデル400及び第4機械学習モデル500の学習が行われる。これにより、色等、画像の大まかな情報から、位置や模様といった詳細な情報へと徐々に着目して学習が行えるようになり、最終的に、学習用データの画像との類似度が高い、高解像度の画像を生成することができる。学習済みの第3機械学習モデル400(以下、「学習済みモデル400A」と称することがある)は、学習済みモデル200Aと同様に、汎用のコンピュータ等に実装されることにより、画像生成装置2A(以下、単に「生成装置2A」と称することがある)を構成することができる。
以下、図11〜図14を参照しつつ、StyleGANの構成と、学習装置1Aが行う学習処理の流れについて説明する。図13は、学習装置1が行う学習処理の流れを示すフローチャートである。
本実施形態の学習用データ100Aは、顕微鏡画像XiをH×Wに予め分割したパッチ
Figure 2021136024
及び、各顕微鏡画像Xiに対応する配合ベクトルyiが組み合わせられたデータから用意される。パッチPi jからは、後述する生成ネットワーク402によって生成されるべき模擬顕微鏡画像のサイズに合わせて、4×4ピクセルのパッチPi j、8×8ピクセルのパッチPi j、16×16ピクセルのパッチPi j…といったサイズごとのパッチPi jが生成される。こうして生成された各サイズのパッチPi jと、元の配合ベクトルyiとをそれぞれ組み合わせたものが学習用データ100Aである。つまり、学習用データ100Aは、顕微鏡画像のサイズごとに用意された、顕微鏡画像と配合ベクトルとのデータセットであると言うことができる。第1実施形態と同様、各パッチの特徴量は、確率分布pdataに従う。
図12は、本実施形態に係る第3機械学習モデル400の構成を説明する図である。図12に示す通り、第3機械学習モデル400は、射影ネットワーク401と、生成ネットワーク402とを含む。射影ネットワーク401は、入力されたノイズ及びゴムの配合データから、特徴量
Figure 2021136024
を算出して出力する機械学習モデルであり、微分可能な任意の射影であれば特に限定されない。本実施形態の射影ネットワーク401は、8層の全結合層を有するニューラルネットワークであり、「マッピングネットワーク」とも称される。射影ネットワーク401の各ニューロン間の結合の重み、各ニューロンの閾値等は、更新可能なパラメータ102Aに含まれ、学習によって調整される。特徴量wは、「スタイル情報」とも称され、後述する生成ネットワーク402によって生成される模擬顕微鏡画像Pfake(正確には、模擬顕微鏡画像のパッチ)に反映されるべき画像の性質が表現された特徴量であって、各要素が独立して単一の性質を表現するベクトルである。
図13に示す学習処理のステップST1では、学習処理部111が、射影ネットワーク401に、学習用データ100Aから所定のバッチサイズだけピックアップした配合ベクトルyfakeと、ノイズとしての乱数ベクトルz〜N(μ,σ2)とを入力し、射影ネットワーク401からの出力である特徴量wを導出する。
ステップST2では、学習処理部111が、射影ネットワーク401から出力された特徴量wを、アフィン変換を用いて2つのパラメータ
Figure 2021136024
に変換する。wsはscaleパラメータであり、wbはbiasパラメータである。
ステップST3では、学習処理部111が、パラメータws、wb及び乱数ベクトルzmap〜N(μ,σ2)を下式に代入することにより、特徴量wAdaを算出する。ただし、式中の「x(ボールド斜体)」は、乱数ベクトルzmapを後述する学習の各段階における生成ネットワーク402に入力して得られる中間特徴出力である。
Figure 2021136024
ステップST3で算出される特徴量
Figure 2021136024
は、AdaIN(Adaptive Instance Normalization)モジュールに基づいて変換された特徴量である。AdaINモジュールを使用すると、スタイルごとに機械学習モデルを学習させる必要がなくなり、任意のスタイルに対応することができる。つまり、特徴量wAdaを用いることにより、学習用データ100Aに含まれない配合ベクトルに対しても適切に模擬顕微鏡画像を生成することが可能となる。
ステップST4では、学習処理部111が、新たなノイズとしての乱数ベクトルzmap〜N(μ,σ2)及び特徴量wAdaを、生成ネットワーク402に入力し、生成ネットワーク402から模擬顕微鏡画像Pfakeを出力する。ここで、生成ネットワーク402は、学習が進行するにつれ、同じ乱数ベクトルzmap〜N(μ,σ2)及び特徴量wAdaの入力から、より高い解像度の、つまりより大きなサイズの画像を生成するように構成される。生成ネットワーク402は、まず小さいサイズの画像を出力する生成器403として構成される。学習により、生成器403が学習用データ100Aの同サイズの画像により近い画像を出力できるようになると、生成器403にさらに機械学習モデルの層が追加され、一段階大きいサイズの画像を出力する生成器403となる。この生成器403を再び学習させ、学習用データ100Aの同サイズの画像により近い画像を出力できるようにする。この手順を繰り返すことにより、高い解像度の画像を生成可能な生成ネットワーク402が最終的に生成される。以下、学習の都度追加される層を、「生成層」と称する。
生成器403は、入力されたデータから、所定の大きさを有する画像を生成して出力する機械学習モデルであれば、その構造は特に限定されない。本実施形態の生成器403は、1つまたは複数のアップサンプリング層4030を有する。アップサンプリング層4030は、転置畳み込みを行うことで、入力されたデータよりもサイズの大きいデータを生成する。転置畳み込み等のパラメータは、パラメータ102Aに含まれ、学習により調整される。
乱数ベクトルzmap及び特徴量wAdaは、生成ネットワーク402、つまり生成器403に入力される。より詳細には、生成器403の各アップサンプリング層4030で転置畳み込みが行われる都度、乱数ベクトルzmap及び特徴量wAdaが生成器403に取り込まれる。つまり、模擬顕微鏡画像Pfakeに反映されるべきスタイル情報が、各解像度の画像の生成過程で取り込まれ、各解像度の画像が有する異なる性質の情報を特徴づける。これにより、高い品質の模擬顕微鏡画像Pfakeを出力する学習済みモデル400Aを生成することが可能となる。
以下、生成ネットワーク402が最初に4×4の生成器403として構成される場合の例を説明する。4×4の生成器403は、4×4ピクセルの画像を出力する機械学習モデルである。ステップST4において、4×4の生成器403に乱数ベクトルzmap及び特徴量wAdaが入力されると、4×4の模擬顕微鏡画像Pfakeが4×4の生成器403から出力される。
ステップST5では、学習処理部111が、生成された4×4の模擬顕微鏡画像Pfake及び学習用データ100Aに含まれる4×4のパッチ画像を第4機械学習モデル500に入力する。第4機械学習モデル500は、生成器403と対になる識別器501として構成される。識別器501は、生成器403と同様に、学習が進行するにつれて、次第に高い解像度の画像を識別する識別器501となる。つまり、図14に示すように、生成器403に生成層が追加され、より大きなサイズの画像を生成する生成器403となるに従って、対になる識別器501にもより大きなサイズの画像を識別するための層が追加され、最終的には大きなサイズの画像を識別することができる第4機械学習モデル500となる。従って、ここでは、4×4の生成器403と対になる4×4の識別器501に、模擬顕微鏡画像Pfake及び4×4のパッチ画像が入力される。以下、生成層が追加されるのに連動して識別器501に追加される層を、「識別層」と称する。
識別器501は、入力された画像が、学習用データ100Aに由来する画像(真)か生成ネットワーク402により生成された画像か(偽)かを判別する結果を出力する機械学習モデルであれば、その構造は特に限定されない。本実施形態の識別器501は、確率出力層を含む。4×4の識別器501は、入力された画像それぞれについて、特徴量を抽出し、それが学習用データ100Aに含まれる画像(真)である確率または尤度を出力する。
ステップST6では、学習処理部111が第3機械学習モデル400または第4機械学習モデル500のいずれかのパラメータを調整する。ステップST1〜ステップST6は所定の回数だけ繰り返されるが、学習処理部111は、処理がステップST6に到達するたびに、第3機械学習モデル400のパラメータの調整または第4機械学習モデル500のパラメータの調整を、交互に行う。まず、第4機械学習モデル500のパラメータを固定したまま第3機械学習モデル400のパラメータが調整される場合について説明する。この場合のステップST6では、学習処理部111が、以下の式で表される損失関数を計算し、その値が最小化されるように射影ネットワーク401及び生成器403を含む生成ネットワーク402のパラメータを最適化する。式中、f(・)は射影ネットワーク401を、g(・)は生成ネットワーク402を、d(・)は第4機械学習モデル500を、λは正則化係数をそれぞれ表す。また、pzは乱数ベクトルzが従う一様分布である。
Figure 2021136024
上記損失関数は、Wasserstein divergenceに基づく損失関数である。Wasserstein divergenceは、第3機械学習モデル400が出力するデータと、これに対応する学習用データ100Aとの差に注目する点では第1実施形態における損失関数と類似しているが、模擬顕微鏡画像Pfakeが従う確率分布を動かして、学習用データ100AのパッチPj iが従う確率分布に一致させるときのコストを最小化するという考え方に基づく点が異なる。学習に使用する損失関数はこれに限定されないが、Wasserstein divergenceに基づく損失関数を用いることで、StyleGANの学習をより安定的に行うことができる。
学習処理部111は、上記損失関数の値が最小化されるように、つまり、第3機械学習モデル400から出力される模擬顕微鏡画像Pfakeが従う確率分布と、学習用データ100AのパッチPj iが従う確率分布との一致度が高くなるように、第3機械学習モデル400のパラメータを調整する。これは、第4機械学習モデル500の識別結果の正解確率が低くなるように、第3機械学習モデル400のパラメータを調整するとも言い換えることができる。保存処理部112は、パラメータ102Aに含まれる第3機械学習モデル400のパラメータを、調整後のパラメータに更新する。
また、第3機械学習モデル400のパラメータを固定したまま第4機械学習モデル500のパラメータが調整される場合、ステップST6では、学習処理部111が上述の損失関数の値が最大化されるように第4機械学習モデル500のパラメータを最適化する。つまり、第4機械学習モデル500の識別結果の正解確率が高くなるように、第4機械学習モデル500のパラメータを調整する。保存処理部112は、パラメータ102Aに含まれる第4機械学習モデル500のパラメータを、調整後のパラメータに更新する。
ステップST7では、学習処理部111が、現時点における第3機械学習モデル400及び第4機械学習モデル500の学習が完了したか否かを判断する。学習が完了したか否かの判断基準は、適宜決定することができる。例えば、生成層と、これと対になる識別層が最後に追加されてから、ステップST1からステップST6までが所定の回数だけ繰り返されると、学習を完了したと判断することができる。あるいは、第4機械学習モデル500の識別結果の正解確率が低い値で収束し、第3機械学習モデル400から出力される模擬顕微鏡画像Pfakeが学習用データ100AのパッチPj iに近づいたと判断できる程度になると、学習を完了したと判断することができる。学習が完了していないと判断されると、処理はステップST1に戻る。
ステップST1に戻ると、学習処理部111は、再び学習用データ100Aから所定のバッチサイズだけ配合ベクトルyfakeをピックアップし、さらにステップST1〜ST6までを繰り返す。
ステップST7で学習が完了したと判断された場合、処理はステップST8に移行する。ステップST8では、学習処理部111が、生成ネットワーク402に新たな生成層を、第4機械学習モデル500に新たな識別層を、それぞれ追加するか否かを判断する。生成層及び識別層は、生成器403、つまり生成ネットワーク402の出力する模擬顕微鏡画像Pfakeが、所定のサイズに到達するまで追加される。つまり、ステップST8では、学習処理部111が、生成ネットワーク402が所定のサイズの模擬顕微鏡画像Pfakeを出力可能になったか否かを判断するとも言える。学習処理部111が生成層及び識別層を追加すると判断すると、処理はステップST9に進む。
ステップST9では、学習が完了した生成器403に、1段階高い解像度に対応する生成層が追加され、1段階高い解像度の生成器403が生成される。例えば、4×4の生成器403の学習が完了した後には、4×4の生成器403に8×8の模擬顕微鏡画像Pfakeを生成する生成層が追加されて、8×8の模擬顕微鏡画像Pfakeを出力する8×8の生成器403が生成される。また同様に、ステップST9では、第4機械学習モデル500に、学習が完了した識別器501に、1段階高い解像度に対応する識別層が追加される。例えば、4×4の識別器501の学習が完了した後には、8×8の画像の真偽を識別する、8×8の識別層が第4機械学習モデル500、つまり4×4の識別器501に追加される。このように、各解像度に対応する生成器403及び識別器501が段階的に生成されつつ学習されることにより、最終的にはノイズ及び配合ベクトルを入力すると、所定の解像度の模擬顕微鏡画像Pfakeを出力する生成ネットワーク402が生成される。このように、段階的に生成層及び識別層を追加し、学習させていくことにより、解像度の高い画像を出力する機械学習モデルの生成が可能になる。
一方、ステップST8で生成層及び識別層がこれ以上追加されなかった場合、学習処理は終了する。これにより、射影ネットワーク401及び生成ネットワーク402を含む、学習済みモデル400Aが生成される。生成ネットワーク402は、各アップサンプリング層4030にAdaINに基づく特徴量wAdaが入力される構造となる。つまり、模擬顕微鏡画像Pfakeに反映されるべきスタイル情報が各解像度の画像の生成過程に存在するため、ゴムの配合ベクトルの要素を用いた多様なスタイルの操作が可能となる。
<3−3.画像生成装置及び画像生成処理>
学習済みモデル400Aは、これを1つの学習済みモデルとして捉えた場合、ノイズ及び配合データを入力すると、模擬顕微鏡画像を出力するモデルであるということができる。従って、学習済みモデル400Aをハードウェアに実装することにより、ノイズ及び配合データを入力すると模擬顕微鏡画像を生成する生成装置2Aを製造することができる。図15は、生成装置2Aの電気的構成を示すブロック図である。生成装置2Aは、ハードウェアとしては生成装置2や学習装置1、1A等と同様の構成を有する汎用のパーソナルコンピュータであり、記憶部20には学習済みモデル400Aが組み込まれたプログラム201Aが格納されている。生成装置2Aのその他の構成は、生成装置2や学習装置1、1A等と共通であるため、同様の符号を付して説明を省略する。
生成装置2Aに入力されるデータの種類は、生成装置2に入力されるデータの種類と共通である。また、生成装置2Aから出力されるデータの種類は、生成装置2から出力されるデータの種類と共通である。従って、生成装置2Aによる画像生成処理の流れは、図7に示すフローチャートと同様である。ただし、学習済みモデル400Aは、解像度ごとに模擬顕微鏡画像Pfakeを生成する学習済みの生成層を含んでいるということができる。このため、生成装置2Aは、各生成層で生成されるデータを、各解像度の模擬顕微鏡画像Pfakeとしてそれぞれ出力するように構成されてもよい。このように生成装置2Aを構成することで、ゴム組成物の配合が各解像度における顕微鏡画像の特徴に、どのように影響するかを検討することができる。
<4.変形例>
以上、本発明の一実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて、種々の変更が可能である。そして、以下に示す変形例は、適宜組合せが可能である。
<4−1>
学習装置1は、AC−GANを利用した機械学習ではなく、他の画像生成モデル、例えばVAE(Variational Autoencoder)を利用した機械学習を行ってもよい。すなわち、学習済みモデル200A及び学習済みモデル300Aは、VAEの機械学習や、その他の画像生成モデルの機械学習により生成されてもよい。
<4−2>
学習装置1の第1機械学習モデル200の学習では、後述するKL(Kullback-Leibler)ダイバージェンスを利用してもよい。KLダイバージェンスは、確率分布同士の距離を示す尺度であり、[0、∞]の値をとり得る。KLダイバージェンスの値が小さければ小さいほど、それぞれの確率分布に従うデータの類似度が高いと言える。具体的には、第2機械学習モデル300が、第1機械学習モデル200の生成する模擬顕微鏡画像と顕微鏡画像とのKLダイバージェンスを出力するように構成され、学習処理部111が、KLダイバージェンスの値が小さくなるように第1機械学習モデル200を学習させてもよい。
<4−3>
学習装置1、1A、画像生成装置2,2A及び推定装置3は、プロセッサに代えて又はこれに加えて、ASIC(application specific integrated circuit)、PLD(programmable logic device)等を備え、演算に利用するように構成されてもよい。また、学習プログラム101,101A、プログラム201,201A、及びプログラム301は、それぞれステップS1〜S4、S21〜S24、S41〜S43及びS51〜S53をそれぞれがインストールされる装置に実行させるが、これらのプログラムは、少なくとも一部のステップを別のコンピュータやデバイス、インターネットを介して提供されるサービス等に分散して実行させてもよい。
<4−4>
ステップS1〜S4は、ステップS21〜S24の後に行われてもよい。つまり、学習装置1は、まず第1機械学習モデル200の学習を行ってから、第2機械学習モデル300の学習を行うように構成されてもよい。
以下、本発明の実施例について説明する。ただし、以下の実施例は、あくまでも本発明の例示に過ぎず、本発明はこれに限定されない。
上記第1,第2実施形態と同様の学習装置を用いてそれぞれ学習させた学習済みモデルを用いて、模擬顕微鏡画像(パッチ)を生成した。生成したパッチと、顕微鏡画像のパッチとの類似度を比較した。
[実験1−第1実施形態に係る画像生成方法による実験]
<実験条件>
配合データが互いに異なる72サンプルのゴム組成物を用意した。それぞれのゴム組成物を電子顕微鏡画像で撮像し、計156枚の顕微鏡画像を取得した。つまり、各サンプルについて、複数の顕微鏡画像が存在した。顕微鏡画像はグレースケールであり、解像度は1536×1024ピクセルであった。拡大倍率は、20000倍であった。
各顕微鏡画像を128×128ピクセルのパッチに分割し、1枚の顕微鏡画像につき522枚のパッチを生成した。ただし、パッチ分割時のスライド幅は50ピクセルであった。配合データの材料の種類Ncomは、32とした。つまり、配合ベクトルは32次元のベクトルであった。
学習時のバッチサイズは64であり、学習回数であるエポック数は50であった。AC−GANの学習は、深層学習のフレームワークTensorFlowを用いて行った。検証方法は、10分割公差検定を採用した。つまり、ゴム組成物のサンプルを訓練サンプルと評価用サンプルとに分け、訓練サンプルの顕微鏡画像と配合データとのデータセットを学習用データとして用い、評価用サンプルの顕微鏡画像と配合データとのデータセットを検証に用いた。
本実験では、評価用サンプルの配合データから模擬顕微鏡画像のパッチを作成し、生成したパッチが評価用サンプルの顕微鏡画像のパッチとどの程度類似しているかを評価した。類似度の評価方法として、以下のようにKLダイバージェンスを用いた。KLダイバージェンスは、値が小さいほど画像が類似することを意味する。
(1−1)1枚の顕微鏡画像を上述の方法で分割し、522枚のパッチを生成した。
(1−2)学習装置を用いて学習させた、第1機械学習モデルに評価用サンプルの配合データを入力して、522枚のパッチを生成した。
(2)(1−1)及び(1−2)で生成した各パッチについて、画像の特徴量を表す特徴量を算出した。特徴量の算出は、公知のデータセットであるImageNetによって学習済みの、Inception−v3(Google社)を用いた。特徴量は、Inception−v3の第3プーリング層から出力される2048次元のベクトルとした。
(3)算出された特徴量に対して主成分分析を行い、次元削減を施し、78次元のベクトルを得た。
(4)顕微鏡画像のパッチの特徴量が従う確率分布Sと、模擬顕微鏡画像のパッチの特徴量が従う確率分布TのKLダイバージェンスDKL(S||T)を以下の式に基づいて算出した。
Figure 2021136024
ただし、式中のs(x)及びt(x)は、それぞれ確率分布S及びTの確率密度関数である。
なお、同一のサンプルで複数枚の顕微鏡画像が存在する場合には、各顕微鏡画像とのKLダイバージェンスの平均値を算出した。全サンプルに対するKLダイバージェンスを昇順に並べたときの生成目的のサンプル(模擬顕微鏡画像のパッチの元となった配合データを有するサンプル)の順位を用いて評価を行った。
<実験結果>
図16は、あるサンプルの顕微鏡画像と、顕微鏡画像から生成されたパッチ(a)と、当該サンプルの配合データから生成された模擬顕微鏡画像のパッチ(b)の一例である。図16に示すように、パッチ(a)及びパッチ(b)が定性的に類似していることが確認された。
図17は、全72サンプルに対するKLダイバージェンスを昇順に並べたときの生成目的のサンプルの順位のヒストグラムである。図17により、類似度が上位となるサンプルの数が一番多くなっており、その後、順位が下がるにつれて該当するサンプルの数が減少している。これにより、配合データから当該ゴム組成物の顕微鏡画像に類似する模擬顕微鏡画像が作成可能なことが確認された。平均順位は、17.5位であった。
[実験2−第2実施形態に係る画像生成方法による実験]
<実験条件>
配合データが互いに異なる72サンプルのゴム組成物を用意した。それぞれのゴム組成物を電子顕微鏡画像で撮像し、計156枚の顕微鏡画像を取得した。つまり、各サンプルについて、複数の顕微鏡画像が存在した。顕微鏡画像はグレースケールであり、解像度は1536×1024ピクセルであった。拡大倍率は、20000倍であった。配合データとこれに対応する顕微鏡画像とが対になった156セットのデータセットを分けて、9割をStyleGANの学習を行うための訓練サンプルとし、残りの1割を学習検証用の評価用サンプルとした。
各顕微鏡画像を256×256ピクセルのパッチに分割し、1枚の顕微鏡画像につき416枚のパッチを生成した。パッチ分割時のスライド幅は50ピクセルであった。配合データの材料の種類Ncomは、33とした。つまり、配合ベクトルは33次元のベクトルであった。学習時のバッチサイズは64であり、学習回数であるエポック数は100であった。このような条件で第2実施形態に係る第3機械学習モデル及び第4機械学習モデルを学習させ、256×256ピクセルの模擬顕微鏡画像(以下、「生成パッチ」と称する)を生成する学習済みモデルを生成した。
<評価>
学習済みモデルにより生成された生成パッチの分布と、評価用サンプルの顕微鏡画像から生成(分割)されたパッチ(以下、「実パッチ」と称する)の分布との類似度を評価した。まず、m(m=1,2,…,M;Mは評価用サンプルの配合データの種類)番目の配合データに対応する実パッチ及び生成パッチを、ImageNetで学習済みのDenseNet121に入力して、それぞれのパッチの特徴量を算出した。実パッチについて算出された特徴量の平均及び共分散を、それぞれμr m及びΣr mと定義した。また、生成パッチについても同様に、特徴量の平均及び共分散を、それぞれμg m及びΣg mと定義した。そして、以下の式に従ってFrechet Inception Distance(FIDPM)を算出した。FIDPMは、特定の配合データから生成された生成パッチと、その配合データに対応する実パッチとの類似度を表す指標であって、値が小さいほど分布間の類似度が高いことを表す。
Figure 2021136024
Figure 2021136024
また、比較指標として、以下の式に基づき、FIDCMを算出した。FIDCMは、特定の配合データから生成された生成パッチと、特定の配合データを除く配合データに対応する実パッチとの類似度を表す指標であり、値が小さいほど分布間の類似度が高いことを表す。
Figure 2021136024
Figure 2021136024
それぞれを算出すると、FIDPM=181.9、FIDCM=233.6となり、FIDPMがFIDCMよりも小さい値となった。このことは、特定の配合データに基づいて生成された生成パッチと当該配合データに対応する実パッチとの類似度が、当該生成パッチと当該配合データ以外の配合データに対応する実パッチとの類似度よりも全般的に高いことを示す。これにより、第2実施形態に係る学習済みモデルにより配合データを表現したパッチを生成可能であることが確認された。
<参考1>
参考として、256×256の生成パッチと、元の配合データに対応する顕微鏡画像とを比較する画像を図18に示す。ゴム組成物A及びゴム組成物Bは、それぞれ異なる配合データを有するゴム組成物である。ゴム組成物Aの顕微鏡画像とゴム組成物Bの顕微鏡画像とを比較すると、ゴム組成物Aの顕微鏡画像がより暗く、ゴム組成物Bの顕微鏡画像がより明るい。同様に、ゴム組成物Aの配合データから生成された生成パッチと、ゴム組成物Bの配合データから生成された生成パッチとを比較すると、ゴム組成物Aの配合データから生成された生成パッチの方がより暗くなっている。つまり、生成パッチには元の顕微鏡画像に現れる特徴が反映されていることが確認できる。
<参考2>
また別の参考として、ゴム組成物の材料のうち、特定の2種類のポリマーの配合割合を段階的に変化させた配合データを作成した。これらの配合データを学習済みモデルにそれぞれ入力し、256×256の生成パッチを出力した。それぞれの生成パッチを図19に示す。図19から分かるように、ポリマーの配合割合に応じて、生成パッチに現れる特徴が変化していることが分かる。
1,1A 学習装置
2,2A 画像生成装置
3 配合推定装置
10 記憶部
100,100A 学習用データ
111 学習処理部
200 第1機械学習モデル
210 データ取得部
211 画像生成部
300 第2機械学習モデル
310 画像取得部
311 配合推定部
400 第3機械学習モデル
500 第4機械学習モデル

Claims (16)

  1. ゴム組成物を構成する材料の配合を表す配合データを取得するデータ取得部と、
    前記取得した配合データをノイズとともに機械学習モデルに入力し、前記機械学習モデルの出力として、前記ゴム組成物を顕微鏡により撮像した顕微鏡画像を模擬する模擬顕微鏡画像を生成する画像生成部と
    を備える、
    画像生成装置。
  2. 前記顕微鏡は、電子顕微鏡である、
    請求項1に記載の画像生成装置。
  3. 前記機械学習モデルは、入力された前記配合データ及び前記ノイズから、前記模擬顕微鏡画像に反映されるべき性質を表す特徴量を算出し、出力する射影ネットワークを含む、
    請求項1又は2に記載の画像生成装置。
  4. 前記機械学習モデルは、入力されたデータをアップサンプリングすることで、前記入力されたデータよりサイズの大きいデータを生成し、前記模擬顕微鏡画像として出力する生成ネットワークをさらに含み、前記生成ネットワークには、アップサンプリングの都度前記特徴量が取り込まれる、
    請求項3に記載の画像生成装置。
  5. ゴム組成物を構成する材料の配合を表す配合データを取得するステップと、
    前記取得した配合データをノイズとともに機械学習モデルに入力し、前記機械学習モデルの出力として、前記ゴム組成物を顕微鏡により撮像した顕微鏡画像を模擬する模擬顕微鏡画像を生成するステップと
    を含む、
    画像生成方法。
  6. ゴム組成物を構成する材料の配合を表す配合データを取得するステップと、
    前記取得した配合データをノイズとともに機械学習モデルに入力し、前記機械学習モデルの出力として、前記ゴム組成物を顕微鏡により撮像した顕微鏡画像を模擬する模擬顕微鏡画像を生成するステップと
    をコンピュータに実行させる、
    画像生成プログラム。
  7. ゴム組成物を顕微鏡により撮像した顕微鏡画像あるいはこれを模擬する模擬顕微鏡画像を取得する画像取得部と、
    前記取得した顕微鏡画像あるいは前記取得した模擬顕微鏡画像を機械学習モデルに入力し、前記機械学習モデルの出力として前記ゴム組成物を構成する材料の配合を推定する配合推定部と
    を備える、
    ゴム組成物の配合推定装置。
  8. 前記顕微鏡は、電子顕微鏡である、
    請求項7に記載の配合推定装置。
  9. ゴム組成物を顕微鏡により撮像した顕微鏡画像あるいはこれを模擬する模擬顕微鏡画像を取得するステップと、
    前記取得した顕微鏡画像あるいは前記取得した模擬顕微鏡画像を機械学習モデルに入力し、前記機械学習モデルの出力として前記ゴム組成物を構成する材料の配合を推定するステップと
    を含む、
    ゴム組成物の配合推定方法。
  10. ゴム組成物を顕微鏡により撮像した顕微鏡画像あるいはこれを模擬する模擬顕微鏡画像を取得するステップと、
    前記取得した顕微鏡画像あるいは前記取得した模擬顕微鏡画像を機械学習モデルに入力し、前記機械学習モデルの出力として前記ゴム組成物を構成する材料の配合を推定するステップと
    をコンピュータに実行させる、
    ゴム組成物の配合推定プログラム。
  11. ゴム組成物を顕微鏡により撮像した顕微鏡画像と、前記ゴム組成物を構成する材料の配合を表す配合データとが組み合わせられた学習用データを用意するステップと、
    前記配合データ及びノイズが入力されると、前記入力された配合データ及びノイズに基づいて、前記顕微鏡画像を模擬する模擬顕微鏡画像を生成する第1機械学習モデルと、前記顕微鏡画像又は前記模擬顕微鏡画像が入力されると、前記入力された画像が前記顕微鏡画像であるか否かを示す識別結果を出力する第2機械学習モデルとを学習させるステップと
    を備え、
    前記学習させるステップは、
    前記顕微鏡画像又は前記模擬顕微鏡画像を前記第2機械学習モデルに入力したときに、前記第2機械学習モデルが出力する前記識別結果の正解確率が高くなるように前記第2機械学習モデルを学習させるステップと、
    前記模擬顕微鏡画像を前記第2機械学習モデルに入力したときに、前記第2機械学習モデルが出力する前記識別結果の正解確率が低くなるように前記第1機械学習モデルを学習させるステップと
    を交互に繰り返す、
    学習済みモデルの生成方法。
  12. 前記第1機械学習モデルは、入力されたデータをアップサンプリングすることで、前記入力されたデータよりサイズの大きいデータを生成し、これを所定のサイズの前記模擬顕微鏡画像として出力する生成層を含み、
    前記第2機械学習モデルは、前記生成層と対を為す識別層であって、前記生成層が出力する前記模擬顕微鏡画像又は前記模擬顕微鏡画像と同じサイズを有する前記顕微鏡画像が入力されると、前記入力された画像が前記顕微鏡画像であるか否かを示す識別結果を出力する識別層を含み、
    前記学習させるステップの後に、新たな前記生成層を1つ前記第1機械学習モデルに追加するとともに、追加される当該生成層と対を為す新たな前記識別層を1つ前記第2機械学習モデルに追加するステップと、
    前記追加するステップの後に、前記第1機械学習モデルと前記第2機械学習モデルとをさらに学習させるステップと、
    をさらに備え、
    前記追加するステップと、前記さらに学習させるステップとを交互に繰り返し、
    前記追加される生成層が出力する前記模擬顕微鏡画像のサイズを、前記追加するステップが繰り返されるごとに段階的に大きくする、
    請求項11に記載の学習済みモデルの生成方法。
  13. 前記第2機械学習モデルは、入力された前記顕微鏡画像又は前記模擬顕微鏡画像に対応する配合データを推定するデータをさらに出力し、
    前記第2機械学習モデルを学習させるステップは、前記顕微鏡画像を前記第2機械学習モデルに入力したときに、前記第2機械学習モデルが出力する前記データと前記配合データとの差が小さくなるように前記第2機械学習モデルを学習させるステップを含み、
    前記第1機械学習モデルを学習させるステップは、前記模擬顕微鏡画像を前記第2機械学習モデルに入力したときに、前記第2機械学習モデルが出力する前記データと、前記第1機械学習モデルに入力された前記配合データとの差が小さくなるように前記第1機械学習モデルを学習させるステップを含む、
    請求項11に記載の学習済みモデルの生成方法。
  14. 前記顕微鏡は、電子顕微鏡である、
    請求項11から13のいずれかに記載の学習済みモデルの生成方法。
  15. ゴム組成物を顕微鏡により撮像した顕微鏡画像と、前記ゴム組成物を構成する材料の配合を表す配合データとが組み合わせられた学習用データを用意するステップと、
    前記配合データ及びノイズが入力されると、前記入力された配合データ及びノイズに基づいて、前記顕微鏡画像を模擬する模擬顕微鏡画像を出力する第1機械学習モデルと、前記顕微鏡画像又は前記模擬顕微鏡画像が入力されると、前記入力された画像が前記顕微鏡画像であるか否かを示す識別結果を出力する第2機械学習モデルとを学習させるステップと
    をコンピュータに実行させ、
    前記学習させるステップは、
    前記顕微鏡画像又は前記模擬顕微鏡画像を前記第2機械学習モデルに入力したときに、前記第2機械学習モデルが出力する前記識別結果の正解確率が高くなるように前記第2機械学習モデルを学習させるステップと、
    前記模擬顕微鏡画像を前記第2機械学習モデルに入力したときに、前記第2機械学習モデルが出力する前記識別結果の正解確率が低くなるように前記第1機械学習モデルを学習させるステップと
    を交互に繰り返す、
    学習済みモデルの生成プログラム。
  16. ゴム組成物を顕微鏡により撮像した顕微鏡画像と、前記ゴム組成物を構成する材料の配合を表す配合データとが組み合わせられた学習用データを記憶する記憶部と、
    前記配合データ及びノイズが入力されると、前記入力された配合データ及びノイズに基づいて生成される、前記顕微鏡画像を模擬する模擬顕微鏡画像を出力する第1機械学習モデルと、前記顕微鏡画像又は前記模擬顕微鏡画像が入力されると、前記入力された画像が前記顕微鏡画像であるか否かを示す識別結果を出力する第2機械学習モデルとを学習させる学習処理部と
    を備え、
    前記学習処理部は、
    前記顕微鏡画像又は前記模擬顕微鏡画像を前記第2機械学習モデルに入力したときに、前記第2機械学習モデルが出力する前記識別結果の正解確率が高くなるように前記第2機械学習モデルを学習させるステップと、
    前記模擬顕微鏡画像を前記第2機械学習モデルに入力したときに、前記第2機械学習モデルが出力する前記識別結果の正解確率が低くなるように前記第1機械学習モデルを学習させるステップと
    を交互に繰り返す、
    学習装置。
JP2021019382A 2020-02-25 2021-02-09 画像生成装置、ゴム組成物の配合推定装置及び学習装置 Pending JP2021136024A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020029574 2020-02-25
JP2020029574 2020-02-25

Publications (1)

Publication Number Publication Date
JP2021136024A true JP2021136024A (ja) 2021-09-13

Family

ID=77661455

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021019382A Pending JP2021136024A (ja) 2020-02-25 2021-02-09 画像生成装置、ゴム組成物の配合推定装置及び学習装置

Country Status (1)

Country Link
JP (1) JP2021136024A (ja)

Similar Documents

Publication Publication Date Title
CN114925748B (zh) 模型训练及模态信息的预测方法、相关装置、设备、介质
Zhang et al. Image denoising based on sparse representation and gradient histogram
TWI763451B (zh) 利用自動地選擇演算法模組來檢驗樣本的系統、方法、和非暫時性電腦可讀媒體
CN111179235A (zh) 图像检测模型的生成方法及装置、应用方法及装置
CN111046893B (zh) 图像相似性确定方法和装置、图像处理方法和装置
JP6609387B1 (ja) ゴム材料の特性推定方法、システム及びプログラム
JP7482470B2 (ja) ゴム材料の物性推定方法、システム及びプログラム
CN114299358A (zh) 图像质量评估方法、装置、电子设备及机器可读存储介质
Sang et al. Image quality assessment based on quaternion singular value decomposition
Oszust A regression-based family of measures for full-reference image quality assessment
JP2021136024A (ja) 画像生成装置、ゴム組成物の配合推定装置及び学習装置
Oszust Image quality assessment with lasso regression and pairwise score differences
Tanguy Convergence of SGD for training neural networks with Sliced Wasserstein losses
US20150287176A1 (en) Method and appratus for hybrid test pattern generation for opc model calibration
CN115760603A (zh) 一种基于大数据技术的干涉阵列宽带成像方法
CN112529772B (zh) 一种零样本设置下的无监督图像转换方法
CN115272527A (zh) 基于色盘对抗网络的图像上色方法
Rajpal et al. Fast digital watermarking of uncompressed colored images using bidirectional extreme learning machine
CN113781375A (zh) 一种基于多曝光融合的车载视觉增强方法
JP7148078B2 (ja) 属性推定装置、属性推定方法、属性推定器学習装置、及びプログラム
CN113313021A (zh) 一种基于低质量影像识别的深度学习模型构建方法
Marin et al. Evaluation of generative adversarial network for human face image synthesis
CN111914898B (zh) 一种基于自适应阈值的机载sar任务适应性评估方法
WO2024043109A1 (ja) 画像処理方法、画像処理装置、及びプログラム
CN116993770B (zh) 一种基于残差扩散模型的图像分割方法

Legal Events

Date Code Title Description
AA64 Notification of invalidation of claim of internal priority (with term)

Free format text: JAPANESE INTERMEDIATE CODE: A241764

Effective date: 20210413

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210420

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240508

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240514