JP2021136024A - 画像生成装置、ゴム組成物の配合推定装置及び学習装置 - Google Patents
画像生成装置、ゴム組成物の配合推定装置及び学習装置 Download PDFInfo
- Publication number
- JP2021136024A JP2021136024A JP2021019382A JP2021019382A JP2021136024A JP 2021136024 A JP2021136024 A JP 2021136024A JP 2021019382 A JP2021019382 A JP 2021019382A JP 2021019382 A JP2021019382 A JP 2021019382A JP 2021136024 A JP2021136024 A JP 2021136024A
- Authority
- JP
- Japan
- Prior art keywords
- machine learning
- learning model
- image
- microscope image
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000000203 mixture Substances 0.000 title claims abstract description 130
- 230000013016 learning Effects 0.000 title claims description 206
- 238000010801 machine learning Methods 0.000 claims abstract description 219
- 238000000034 method Methods 0.000 claims abstract description 56
- 239000000463 material Substances 0.000 claims abstract description 33
- 238000003384 imaging method Methods 0.000 claims abstract description 17
- 238000001000 micrograph Methods 0.000 claims description 164
- 238000013329 compounding Methods 0.000 claims description 108
- 238000012545 processing Methods 0.000 claims description 69
- 238000003860 storage Methods 0.000 claims description 32
- 238000012549 training Methods 0.000 claims description 31
- 238000009472 formulation Methods 0.000 claims description 17
- 238000004088 simulation Methods 0.000 abstract 1
- 239000013598 vector Substances 0.000 description 62
- 230000008569 process Effects 0.000 description 32
- 238000009826 distribution Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 15
- 238000002156 mixing Methods 0.000 description 15
- 238000004891 communication Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 11
- 238000011156 evaluation Methods 0.000 description 10
- 238000002474 experimental method Methods 0.000 description 8
- 210000002569 neuron Anatomy 0.000 description 6
- 239000000945 filler Substances 0.000 description 5
- VYPSYNLAJGMNEJ-UHFFFAOYSA-N Silicium dioxide Chemical compound O=[Si]=O VYPSYNLAJGMNEJ-UHFFFAOYSA-N 0.000 description 4
- 229920000642 polymer Polymers 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 150000001875 compounds Chemical class 0.000 description 3
- 238000009827 uniform distribution Methods 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- KAKZBPTYRLMSJV-UHFFFAOYSA-N Butadiene Chemical compound C=CC=C KAKZBPTYRLMSJV-UHFFFAOYSA-N 0.000 description 2
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 2
- PPBRXRYQALVLMV-UHFFFAOYSA-N Styrene Chemical compound C=CC1=CC=CC=C1 PPBRXRYQALVLMV-UHFFFAOYSA-N 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 229910052799 carbon Inorganic materials 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000000178 monomer Substances 0.000 description 2
- 238000010058 rubber compounding Methods 0.000 description 2
- 239000000377 silicon dioxide Substances 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 239000003431 cross linking reagent Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000004898 kneading Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 239000002994 raw material Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
Images
Landscapes
- Analysing Materials By The Use Of Radiation (AREA)
- Image Analysis (AREA)
Abstract
Description
・ゴム組成物を顕微鏡により撮像した顕微鏡画像と、前記ゴム組成物を構成する材料の配合を表す配合データとが組み合わせられた学習用データを用意するステップ。
・前記配合データ及びノイズが入力されると、前記入力された配合データ及びノイズに基づいて、前記顕微鏡画像を模擬する模擬顕微鏡画像を生成する第1機械学習モデルと、前記顕微鏡画像又は前記模擬顕微鏡画像が入力されると、前記入力された画像が前記顕微鏡画像であるか否かを示す識別結果を出力する第2機械学習モデルとを学習させるステップ。
なお、前記学習させるステップは、以下のステップを交互に繰り返す。
・前記顕微鏡画像又は前記模擬顕微鏡画像を前記第2機械学習モデルに入力したときに、前記第2機械学習モデルが出力する前記識別結果の正解確率が高くなるように前記第2機械学習モデルを学習させるステップ。
・前記模擬顕微鏡画像を前記第2機械学習モデルに入力したときに、前記第2機械学習モデルが出力する前記識別結果の正解確率が低くなるように前記第1機械学習モデルを学習させるステップ。
ゴム組成物は、弾性を有する高分子化合物であり、典型的には、複数の配合物が共に混練されることにより生成される。配合物の種類としては、例えばモノマー(ブタジエン、スチレン等)、フィラー(シリカ、カーボン等)及び架橋剤等が挙げられる。ゴム組成物の開発では、目的に合わせて多種多様な原料の中から配合物を選択し、その配合量を決定し、試作を行うということが繰り返されるため、開発コストが嵩みがちである。このため、より効率的にゴム組成物を開発する技術へのニーズが高まっている。
<2−1.学習装置>
本開示の第1実施形態に係る学習装置1は、条件付き画像生成モデルの1つであるAC−GAN(auxiliary classifier generative adversarial network)を学習させる装置である。図2は、本実施形態に係る機械学習モデルを示す概念図である。AC−GANは、第1機械学習モデル200及び第2機械学習モデル300の2つの機械学習モデルを含んでいる。学習装置1は、これらの機械学習モデルを競合的に学習させることにより、ゴム組成物の顕微鏡画像と類似した新しい画像である模擬顕微鏡画像を生成する学習済みモデル200Aと、入力された画像からゴム組成物の配合データを推定する学習済みモデル300Aとを生成する。生成された学習済みモデル200Aは、後述する画像生成装置2(以下、単に「生成装置2」と称することがある)に実装され、生成された学習済みモデル300Aは、後述するゴム組成物の配合推定装置3(以下、単に「推定装置3」と称することがある)に実装される。
以下、学習処理について説明する。図4及び図5は、学習装置1が行う学習処理の流れを示すフローチャートである。
ただし、式(1)(2)における
以下、学習済みモデル200Aを利用した生成装置2の構成と、生成装置2が行う処理について説明する。図6は画像生成装置2の電気的構成を示すブロック図である。本実施形態の生成装置2は、ハードウェアとしては汎用のコンピュータである。生成装置2は、記憶部20、制御部21、通信インターフェース22、外部インターフェース23、入力装置24及び出力装置25を備えている。これらの部20〜25は、互いにバス線を介して接続されており、相互に通信可能である。
以下、学習済みモデル300Aを利用したゴム組成物の推定装置3の構成と、推定装置3が行う処理について説明する。図8は推定装置3の電気的構成を示すブロック図である。本実施形態の推定装置3は、ハードウェアとしては汎用のコンピュータである。推定装置3は、記憶部30、制御部31、通信インターフェース32、外部インターフェース33、入力装置34及び出力装置35を備えている。これらの部30〜35は、互いにバス線を介して接続されており、相互に通信可能である。
<3−1.学習装置>
以下、図10〜図14を参照しつつ、本開示の第2実施形態に係る学習装置1Aについて説明する。図10は、学習装置1Aの電気的構成を表すブロック図である。第1実施形態に係る学習装置1は、AC−GANによる機械学習モデルを学習させるように構成されたが、本実施形態に係る学習装置1Aは、条件付き画像生成モデルの1つである「Conditional Style Generative Adversarial Network:StyleGAN」による機械学習モデルを学習させるように構成される。このため、学習装置1Aは、ハードウェアとしては学習装置1と同様の構成を有する汎用のパーソナルコンピュータであるが、記憶部10に格納される学習プログラム101A及びパラメータ102Aが学習装置1とは異なっている。学習プログラム101Aには、本実施形態に係る機械学習モデル(StyleGAN)が組み込まれ、その学習の結果に応じてパラメータ102Aが更新され、記憶部10に保存される。以下の説明では、学習装置1と共通する構成については共通の符号を付して説明を省略し、学習装置1とは相違する学習装置1Aの構成、つまり機械学習モデルの構成と、その学習処理について説明する。
図11は、本実施形態に係る機械学習モデルの概略を説明する図である。この機械学習モデルでは、第1実施形態に係る機械学習モデルと同様に、画像を生成する第3機械学習モデル400と、画像の真偽を識別する第4機械学習モデル500との競合的な学習が行われる。ただし、StyleGANの学習では、低解像度から中解像度、中解像度から高解像度へと、生成される画像の解像度を段階的に上げるように第3機械学習モデル400及び第4機械学習モデル500の学習が行われる。これにより、色等、画像の大まかな情報から、位置や模様といった詳細な情報へと徐々に着目して学習が行えるようになり、最終的に、学習用データの画像との類似度が高い、高解像度の画像を生成することができる。学習済みの第3機械学習モデル400(以下、「学習済みモデル400A」と称することがある)は、学習済みモデル200Aと同様に、汎用のコンピュータ等に実装されることにより、画像生成装置2A(以下、単に「生成装置2A」と称することがある)を構成することができる。
学習済みモデル400Aは、これを1つの学習済みモデルとして捉えた場合、ノイズ及び配合データを入力すると、模擬顕微鏡画像を出力するモデルであるということができる。従って、学習済みモデル400Aをハードウェアに実装することにより、ノイズ及び配合データを入力すると模擬顕微鏡画像を生成する生成装置2Aを製造することができる。図15は、生成装置2Aの電気的構成を示すブロック図である。生成装置2Aは、ハードウェアとしては生成装置2や学習装置1、1A等と同様の構成を有する汎用のパーソナルコンピュータであり、記憶部20には学習済みモデル400Aが組み込まれたプログラム201Aが格納されている。生成装置2Aのその他の構成は、生成装置2や学習装置1、1A等と共通であるため、同様の符号を付して説明を省略する。
<4.変形例>
以上、本発明の一実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて、種々の変更が可能である。そして、以下に示す変形例は、適宜組合せが可能である。
学習装置1は、AC−GANを利用した機械学習ではなく、他の画像生成モデル、例えばVAE(Variational Autoencoder)を利用した機械学習を行ってもよい。すなわち、学習済みモデル200A及び学習済みモデル300Aは、VAEの機械学習や、その他の画像生成モデルの機械学習により生成されてもよい。
学習装置1の第1機械学習モデル200の学習では、後述するKL(Kullback-Leibler)ダイバージェンスを利用してもよい。KLダイバージェンスは、確率分布同士の距離を示す尺度であり、[0、∞]の値をとり得る。KLダイバージェンスの値が小さければ小さいほど、それぞれの確率分布に従うデータの類似度が高いと言える。具体的には、第2機械学習モデル300が、第1機械学習モデル200の生成する模擬顕微鏡画像と顕微鏡画像とのKLダイバージェンスを出力するように構成され、学習処理部111が、KLダイバージェンスの値が小さくなるように第1機械学習モデル200を学習させてもよい。
学習装置1、1A、画像生成装置2,2A及び推定装置3は、プロセッサに代えて又はこれに加えて、ASIC(application specific integrated circuit)、PLD(programmable logic device)等を備え、演算に利用するように構成されてもよい。また、学習プログラム101,101A、プログラム201,201A、及びプログラム301は、それぞれステップS1〜S4、S21〜S24、S41〜S43及びS51〜S53をそれぞれがインストールされる装置に実行させるが、これらのプログラムは、少なくとも一部のステップを別のコンピュータやデバイス、インターネットを介して提供されるサービス等に分散して実行させてもよい。
ステップS1〜S4は、ステップS21〜S24の後に行われてもよい。つまり、学習装置1は、まず第1機械学習モデル200の学習を行ってから、第2機械学習モデル300の学習を行うように構成されてもよい。
<実験条件>
配合データが互いに異なる72サンプルのゴム組成物を用意した。それぞれのゴム組成物を電子顕微鏡画像で撮像し、計156枚の顕微鏡画像を取得した。つまり、各サンプルについて、複数の顕微鏡画像が存在した。顕微鏡画像はグレースケールであり、解像度は1536×1024ピクセルであった。拡大倍率は、20000倍であった。
(1−1)1枚の顕微鏡画像を上述の方法で分割し、522枚のパッチを生成した。
(1−2)学習装置を用いて学習させた、第1機械学習モデルに評価用サンプルの配合データを入力して、522枚のパッチを生成した。
(2)(1−1)及び(1−2)で生成した各パッチについて、画像の特徴量を表す特徴量を算出した。特徴量の算出は、公知のデータセットであるImageNetによって学習済みの、Inception−v3(Google社)を用いた。特徴量は、Inception−v3の第3プーリング層から出力される2048次元のベクトルとした。
(3)算出された特徴量に対して主成分分析を行い、次元削減を施し、78次元のベクトルを得た。
(4)顕微鏡画像のパッチの特徴量が従う確率分布Sと、模擬顕微鏡画像のパッチの特徴量が従う確率分布TのKLダイバージェンスDKL(S||T)を以下の式に基づいて算出した。
図16は、あるサンプルの顕微鏡画像と、顕微鏡画像から生成されたパッチ(a)と、当該サンプルの配合データから生成された模擬顕微鏡画像のパッチ(b)の一例である。図16に示すように、パッチ(a)及びパッチ(b)が定性的に類似していることが確認された。
<実験条件>
配合データが互いに異なる72サンプルのゴム組成物を用意した。それぞれのゴム組成物を電子顕微鏡画像で撮像し、計156枚の顕微鏡画像を取得した。つまり、各サンプルについて、複数の顕微鏡画像が存在した。顕微鏡画像はグレースケールであり、解像度は1536×1024ピクセルであった。拡大倍率は、20000倍であった。配合データとこれに対応する顕微鏡画像とが対になった156セットのデータセットを分けて、9割をStyleGANの学習を行うための訓練サンプルとし、残りの1割を学習検証用の評価用サンプルとした。
学習済みモデルにより生成された生成パッチの分布と、評価用サンプルの顕微鏡画像から生成(分割)されたパッチ(以下、「実パッチ」と称する)の分布との類似度を評価した。まず、m(m=1,2,…,M;Mは評価用サンプルの配合データの種類)番目の配合データに対応する実パッチ及び生成パッチを、ImageNetで学習済みのDenseNet121に入力して、それぞれのパッチの特徴量を算出した。実パッチについて算出された特徴量の平均及び共分散を、それぞれμr m及びΣr mと定義した。また、生成パッチについても同様に、特徴量の平均及び共分散を、それぞれμg m及びΣg mと定義した。そして、以下の式に従ってFrechet Inception Distance(FIDPM)を算出した。FIDPMは、特定の配合データから生成された生成パッチと、その配合データに対応する実パッチとの類似度を表す指標であって、値が小さいほど分布間の類似度が高いことを表す。
参考として、256×256の生成パッチと、元の配合データに対応する顕微鏡画像とを比較する画像を図18に示す。ゴム組成物A及びゴム組成物Bは、それぞれ異なる配合データを有するゴム組成物である。ゴム組成物Aの顕微鏡画像とゴム組成物Bの顕微鏡画像とを比較すると、ゴム組成物Aの顕微鏡画像がより暗く、ゴム組成物Bの顕微鏡画像がより明るい。同様に、ゴム組成物Aの配合データから生成された生成パッチと、ゴム組成物Bの配合データから生成された生成パッチとを比較すると、ゴム組成物Aの配合データから生成された生成パッチの方がより暗くなっている。つまり、生成パッチには元の顕微鏡画像に現れる特徴が反映されていることが確認できる。
また別の参考として、ゴム組成物の材料のうち、特定の2種類のポリマーの配合割合を段階的に変化させた配合データを作成した。これらの配合データを学習済みモデルにそれぞれ入力し、256×256の生成パッチを出力した。それぞれの生成パッチを図19に示す。図19から分かるように、ポリマーの配合割合に応じて、生成パッチに現れる特徴が変化していることが分かる。
2,2A 画像生成装置
3 配合推定装置
10 記憶部
100,100A 学習用データ
111 学習処理部
200 第1機械学習モデル
210 データ取得部
211 画像生成部
300 第2機械学習モデル
310 画像取得部
311 配合推定部
400 第3機械学習モデル
500 第4機械学習モデル
Claims (16)
- ゴム組成物を構成する材料の配合を表す配合データを取得するデータ取得部と、
前記取得した配合データをノイズとともに機械学習モデルに入力し、前記機械学習モデルの出力として、前記ゴム組成物を顕微鏡により撮像した顕微鏡画像を模擬する模擬顕微鏡画像を生成する画像生成部と
を備える、
画像生成装置。 - 前記顕微鏡は、電子顕微鏡である、
請求項1に記載の画像生成装置。 - 前記機械学習モデルは、入力された前記配合データ及び前記ノイズから、前記模擬顕微鏡画像に反映されるべき性質を表す特徴量を算出し、出力する射影ネットワークを含む、
請求項1又は2に記載の画像生成装置。 - 前記機械学習モデルは、入力されたデータをアップサンプリングすることで、前記入力されたデータよりサイズの大きいデータを生成し、前記模擬顕微鏡画像として出力する生成ネットワークをさらに含み、前記生成ネットワークには、アップサンプリングの都度前記特徴量が取り込まれる、
請求項3に記載の画像生成装置。 - ゴム組成物を構成する材料の配合を表す配合データを取得するステップと、
前記取得した配合データをノイズとともに機械学習モデルに入力し、前記機械学習モデルの出力として、前記ゴム組成物を顕微鏡により撮像した顕微鏡画像を模擬する模擬顕微鏡画像を生成するステップと
を含む、
画像生成方法。 - ゴム組成物を構成する材料の配合を表す配合データを取得するステップと、
前記取得した配合データをノイズとともに機械学習モデルに入力し、前記機械学習モデルの出力として、前記ゴム組成物を顕微鏡により撮像した顕微鏡画像を模擬する模擬顕微鏡画像を生成するステップと
をコンピュータに実行させる、
画像生成プログラム。 - ゴム組成物を顕微鏡により撮像した顕微鏡画像あるいはこれを模擬する模擬顕微鏡画像を取得する画像取得部と、
前記取得した顕微鏡画像あるいは前記取得した模擬顕微鏡画像を機械学習モデルに入力し、前記機械学習モデルの出力として前記ゴム組成物を構成する材料の配合を推定する配合推定部と
を備える、
ゴム組成物の配合推定装置。 - 前記顕微鏡は、電子顕微鏡である、
請求項7に記載の配合推定装置。 - ゴム組成物を顕微鏡により撮像した顕微鏡画像あるいはこれを模擬する模擬顕微鏡画像を取得するステップと、
前記取得した顕微鏡画像あるいは前記取得した模擬顕微鏡画像を機械学習モデルに入力し、前記機械学習モデルの出力として前記ゴム組成物を構成する材料の配合を推定するステップと
を含む、
ゴム組成物の配合推定方法。 - ゴム組成物を顕微鏡により撮像した顕微鏡画像あるいはこれを模擬する模擬顕微鏡画像を取得するステップと、
前記取得した顕微鏡画像あるいは前記取得した模擬顕微鏡画像を機械学習モデルに入力し、前記機械学習モデルの出力として前記ゴム組成物を構成する材料の配合を推定するステップと
をコンピュータに実行させる、
ゴム組成物の配合推定プログラム。 - ゴム組成物を顕微鏡により撮像した顕微鏡画像と、前記ゴム組成物を構成する材料の配合を表す配合データとが組み合わせられた学習用データを用意するステップと、
前記配合データ及びノイズが入力されると、前記入力された配合データ及びノイズに基づいて、前記顕微鏡画像を模擬する模擬顕微鏡画像を生成する第1機械学習モデルと、前記顕微鏡画像又は前記模擬顕微鏡画像が入力されると、前記入力された画像が前記顕微鏡画像であるか否かを示す識別結果を出力する第2機械学習モデルとを学習させるステップと
を備え、
前記学習させるステップは、
前記顕微鏡画像又は前記模擬顕微鏡画像を前記第2機械学習モデルに入力したときに、前記第2機械学習モデルが出力する前記識別結果の正解確率が高くなるように前記第2機械学習モデルを学習させるステップと、
前記模擬顕微鏡画像を前記第2機械学習モデルに入力したときに、前記第2機械学習モデルが出力する前記識別結果の正解確率が低くなるように前記第1機械学習モデルを学習させるステップと
を交互に繰り返す、
学習済みモデルの生成方法。 - 前記第1機械学習モデルは、入力されたデータをアップサンプリングすることで、前記入力されたデータよりサイズの大きいデータを生成し、これを所定のサイズの前記模擬顕微鏡画像として出力する生成層を含み、
前記第2機械学習モデルは、前記生成層と対を為す識別層であって、前記生成層が出力する前記模擬顕微鏡画像又は前記模擬顕微鏡画像と同じサイズを有する前記顕微鏡画像が入力されると、前記入力された画像が前記顕微鏡画像であるか否かを示す識別結果を出力する識別層を含み、
前記学習させるステップの後に、新たな前記生成層を1つ前記第1機械学習モデルに追加するとともに、追加される当該生成層と対を為す新たな前記識別層を1つ前記第2機械学習モデルに追加するステップと、
前記追加するステップの後に、前記第1機械学習モデルと前記第2機械学習モデルとをさらに学習させるステップと、
をさらに備え、
前記追加するステップと、前記さらに学習させるステップとを交互に繰り返し、
前記追加される生成層が出力する前記模擬顕微鏡画像のサイズを、前記追加するステップが繰り返されるごとに段階的に大きくする、
請求項11に記載の学習済みモデルの生成方法。 - 前記第2機械学習モデルは、入力された前記顕微鏡画像又は前記模擬顕微鏡画像に対応する配合データを推定するデータをさらに出力し、
前記第2機械学習モデルを学習させるステップは、前記顕微鏡画像を前記第2機械学習モデルに入力したときに、前記第2機械学習モデルが出力する前記データと前記配合データとの差が小さくなるように前記第2機械学習モデルを学習させるステップを含み、
前記第1機械学習モデルを学習させるステップは、前記模擬顕微鏡画像を前記第2機械学習モデルに入力したときに、前記第2機械学習モデルが出力する前記データと、前記第1機械学習モデルに入力された前記配合データとの差が小さくなるように前記第1機械学習モデルを学習させるステップを含む、
請求項11に記載の学習済みモデルの生成方法。 - 前記顕微鏡は、電子顕微鏡である、
請求項11から13のいずれかに記載の学習済みモデルの生成方法。 - ゴム組成物を顕微鏡により撮像した顕微鏡画像と、前記ゴム組成物を構成する材料の配合を表す配合データとが組み合わせられた学習用データを用意するステップと、
前記配合データ及びノイズが入力されると、前記入力された配合データ及びノイズに基づいて、前記顕微鏡画像を模擬する模擬顕微鏡画像を出力する第1機械学習モデルと、前記顕微鏡画像又は前記模擬顕微鏡画像が入力されると、前記入力された画像が前記顕微鏡画像であるか否かを示す識別結果を出力する第2機械学習モデルとを学習させるステップと
をコンピュータに実行させ、
前記学習させるステップは、
前記顕微鏡画像又は前記模擬顕微鏡画像を前記第2機械学習モデルに入力したときに、前記第2機械学習モデルが出力する前記識別結果の正解確率が高くなるように前記第2機械学習モデルを学習させるステップと、
前記模擬顕微鏡画像を前記第2機械学習モデルに入力したときに、前記第2機械学習モデルが出力する前記識別結果の正解確率が低くなるように前記第1機械学習モデルを学習させるステップと
を交互に繰り返す、
学習済みモデルの生成プログラム。 - ゴム組成物を顕微鏡により撮像した顕微鏡画像と、前記ゴム組成物を構成する材料の配合を表す配合データとが組み合わせられた学習用データを記憶する記憶部と、
前記配合データ及びノイズが入力されると、前記入力された配合データ及びノイズに基づいて生成される、前記顕微鏡画像を模擬する模擬顕微鏡画像を出力する第1機械学習モデルと、前記顕微鏡画像又は前記模擬顕微鏡画像が入力されると、前記入力された画像が前記顕微鏡画像であるか否かを示す識別結果を出力する第2機械学習モデルとを学習させる学習処理部と
を備え、
前記学習処理部は、
前記顕微鏡画像又は前記模擬顕微鏡画像を前記第2機械学習モデルに入力したときに、前記第2機械学習モデルが出力する前記識別結果の正解確率が高くなるように前記第2機械学習モデルを学習させるステップと、
前記模擬顕微鏡画像を前記第2機械学習モデルに入力したときに、前記第2機械学習モデルが出力する前記識別結果の正解確率が低くなるように前記第1機械学習モデルを学習させるステップと
を交互に繰り返す、
学習装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020029574 | 2020-02-25 | ||
JP2020029574 | 2020-02-25 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021136024A true JP2021136024A (ja) | 2021-09-13 |
Family
ID=77661455
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021019382A Pending JP2021136024A (ja) | 2020-02-25 | 2021-02-09 | 画像生成装置、ゴム組成物の配合推定装置及び学習装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021136024A (ja) |
-
2021
- 2021-02-09 JP JP2021019382A patent/JP2021136024A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114925748B (zh) | 模型训练及模态信息的预测方法、相关装置、设备、介质 | |
Zhang et al. | Image denoising based on sparse representation and gradient histogram | |
TWI763451B (zh) | 利用自動地選擇演算法模組來檢驗樣本的系統、方法、和非暫時性電腦可讀媒體 | |
CN111179235A (zh) | 图像检测模型的生成方法及装置、应用方法及装置 | |
CN111046893B (zh) | 图像相似性确定方法和装置、图像处理方法和装置 | |
JP6609387B1 (ja) | ゴム材料の特性推定方法、システム及びプログラム | |
JP7482470B2 (ja) | ゴム材料の物性推定方法、システム及びプログラム | |
CN114299358A (zh) | 图像质量评估方法、装置、电子设备及机器可读存储介质 | |
Sang et al. | Image quality assessment based on quaternion singular value decomposition | |
Oszust | A regression-based family of measures for full-reference image quality assessment | |
JP2021136024A (ja) | 画像生成装置、ゴム組成物の配合推定装置及び学習装置 | |
Oszust | Image quality assessment with lasso regression and pairwise score differences | |
Tanguy | Convergence of SGD for training neural networks with Sliced Wasserstein losses | |
US20150287176A1 (en) | Method and appratus for hybrid test pattern generation for opc model calibration | |
CN115760603A (zh) | 一种基于大数据技术的干涉阵列宽带成像方法 | |
CN112529772B (zh) | 一种零样本设置下的无监督图像转换方法 | |
CN115272527A (zh) | 基于色盘对抗网络的图像上色方法 | |
Rajpal et al. | Fast digital watermarking of uncompressed colored images using bidirectional extreme learning machine | |
CN113781375A (zh) | 一种基于多曝光融合的车载视觉增强方法 | |
JP7148078B2 (ja) | 属性推定装置、属性推定方法、属性推定器学習装置、及びプログラム | |
CN113313021A (zh) | 一种基于低质量影像识别的深度学习模型构建方法 | |
Marin et al. | Evaluation of generative adversarial network for human face image synthesis | |
CN111914898B (zh) | 一种基于自适应阈值的机载sar任务适应性评估方法 | |
WO2024043109A1 (ja) | 画像処理方法、画像処理装置、及びプログラム | |
CN116993770B (zh) | 一种基于残差扩散模型的图像分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AA64 | Notification of invalidation of claim of internal priority (with term) |
Free format text: JAPANESE INTERMEDIATE CODE: A241764 Effective date: 20210413 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210420 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20210420 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230904 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240508 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240514 |