JP7453244B2 - 推定装置、訓練装置、推定方法及びモデル生成方法 - Google Patents
推定装置、訓練装置、推定方法及びモデル生成方法 Download PDFInfo
- Publication number
- JP7453244B2 JP7453244B2 JP2021546951A JP2021546951A JP7453244B2 JP 7453244 B2 JP7453244 B2 JP 7453244B2 JP 2021546951 A JP2021546951 A JP 2021546951A JP 2021546951 A JP2021546951 A JP 2021546951A JP 7453244 B2 JP7453244 B2 JP 7453244B2
- Authority
- JP
- Japan
- Prior art keywords
- atoms
- information
- neural network
- physical property
- graph
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims description 94
- 238000000034 method Methods 0.000 title claims description 51
- 230000000704 physical effect Effects 0.000 claims description 152
- 238000013528 artificial neural network Methods 0.000 claims description 118
- 239000013598 vector Substances 0.000 claims description 111
- 238000012545 processing Methods 0.000 claims description 30
- 239000013078 crystal Substances 0.000 claims description 28
- 125000004429 atom Chemical group 0.000 description 339
- 238000000605 extraction Methods 0.000 description 47
- 230000008569 process Effects 0.000 description 28
- 238000004364 calculation method Methods 0.000 description 27
- 230000015654 memory Effects 0.000 description 23
- 238000010586 diagram Methods 0.000 description 22
- 230000006870 function Effects 0.000 description 20
- 239000000284 extract Substances 0.000 description 15
- 230000014509 gene expression Effects 0.000 description 14
- 230000004913 activation Effects 0.000 description 11
- CIWBSHSKHKDKBQ-JLAZNSOCSA-N Ascorbic acid Chemical compound OC[C@H](O)[C@H]1OC(=O)C(O)=C1O CIWBSHSKHKDKBQ-JLAZNSOCSA-N 0.000 description 8
- 238000010606 normalization Methods 0.000 description 8
- 238000005457 optimization Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 7
- 239000000463 material Substances 0.000 description 7
- 238000003775 Density Functional Theory Methods 0.000 description 6
- 230000000052 comparative effect Effects 0.000 description 6
- 238000013075 data extraction Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000010365 information processing Effects 0.000 description 5
- 238000011176 pooling Methods 0.000 description 4
- 238000007792 addition Methods 0.000 description 3
- 239000003054 catalyst Substances 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 239000006185 dispersion Substances 0.000 description 3
- 125000004435 hydrogen atom Chemical group [H]* 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 239000000126 substance Substances 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000004069 differentiation Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000013526 transfer learning Methods 0.000 description 2
- 208000037004 Myoclonic-astatic epilepsy Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 125000004432 carbon atom Chemical group C* 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 150000002500 ions Chemical class 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000000874 microwave-assisted extraction Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 229910052760 oxygen Inorganic materials 0.000 description 1
- 239000001301 oxygen Substances 0.000 description 1
- 125000004430 oxygen atom Chemical group O* 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000003077 quantum chemistry computational method Methods 0.000 description 1
- -1 tensors Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16C—COMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
- G16C60/00—Computational materials science, i.e. ICT specially adapted for investigating the physical or chemical properties of materials or phenomena associated with their design, synthesis, processing, characterisation or utilisation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Image Analysis (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
図1は、本実施形態に係る推定装置1の機能を示すブロック図である。本実施形態の推定装置1は、原子の種類等の情報と座標の情報、及び、境界条件の情報から分子等(以下、単原子分子、分子、結晶を含むものを分子等と記載する)である推定対象の物性値を推定して出力する。この推定装置1は、入力部10と、記憶部12と、原子特徴取得部14と、入力情報構成部16と、構造特徴抽出部18と、物性値予測部20と、出力部22と、を備える。
原子特徴取得部14は、上述したように、例えば、原子を示すワンホットベクトルを入力すると、潜在空間のベクトルを出力するニューラルネットワークを備える。原子を示すワンホットベクトルは、例えば、原子核情報についての情報を示すワンホットベクトルである。より具体的には、例えば、陽子数、中性子数、電子数をワンホットベクトルに変換したものである。例えば、陽子数と、中性子数とが入力されることにより、同位体についても特徴取得の対象とすることもできる。例えば、陽子数と、電子数とが入力されることにより、イオンについても特徴取得の対象とすることもできる。
入力情報構成部16は、入力されたデータ及び原子特徴取得部14が生成したデータに基づいて、分子等における原子配置、接続に関するグラフを生成する。入力情報構成部16は、入力する分子等の構造と併せて境界条件を考慮し、隣接原子の有無を判断し、隣接原子がある場合にはその座標を決定する。
本実施形態の構造特徴抽出部18は、上述したように、グラフ情報を入力すると、そのグラフの構造に関する特徴を出力するニューラルネットワークを備える。ここで、入力するグラフの特徴として、角度情報を含んでもよい。
本実施形態の物性値予測部20は、上述したように、分子等の構造に関する特徴、例えば、更新ノード特徴及び更新エッジ特徴を入力すると、物性値を予測して出力するMLP等のニューラルネットワーク(第4ネットワーク)を備える。更新ノード特徴及び更新エッジ特徴は、そのまま入力されるだけではなく、後述するように求めたい物性値に対応して加工して入力されてもよい。
本実施形態に係る訓練装置は、前述の推定装置1を訓練する。特に、推定装置1のうち、原子特徴取得部14、構造特徴抽出部18、及び、物性値予測部20にそれぞれ備えられるニューラルネットワークの訓練を行う。
なお、本明細書において、訓練とは、ニューラルネットワーク等の構造を有し入力に対して適切な出力が可能なモデルを生成することを指す。
原子特徴取得部14の第1ネットワークは、例えば、原子の識別子等又はワンホットベクトルを入力すると、特性値を出力するように訓練することも可能である。このニューラルネットワークは、上述したように、例えば、VAEに基づくVariational Encoder Decoderを利用するものであってもよい。
次に、構造特徴抽出部18の第2ネットワークと第3ネットワークの訓練について説明する。
物性値予測部20に備えられる第4ネットワークは、構造特徴抽出部18が出力した更新ノード特徴と、更新エッジ特徴と、を入力すると、物性値を出力する。第4ネットワークは、例えば、MLP等の構造を備える。
前述の各実施形態は、例えば、プログラムを用いると以下のように示すことができる。
(1)
1又は複数のプロセッサに実行させると、
原子に関するベクトルから潜在空間における原子の特徴を抽出する第1ネットワークに、前記ベクトルを入力し、
前記第1ネットワークを介して、潜在空間における原子の特徴を推定する、
プログラム。
(2)
1又は複数のプロセッサに実行させると、
入力された原子の座標、原子の特徴、及び、境界条件に基づいて、対象の原子の構造を構成し、
前記構造に基づいて、原子同士の距離、及び、3原子の為す角度、を取得し、
前記原子の特徴をノード特徴、前記距離及び前記角度をエッジ特徴として、前記ノード特徴及び前記エッジ特徴を更新し、前記ノード特徴及び前記エッジ特徴を推定する、
プログラム。
(3)
前記1又は複数のプロセッサに実行させると、
請求項1から請求項7のいずれかに記載の前記第1ネットワークに、対象に含まれる原子の性質を示すベクトルを入力して、潜在空間における原子の特徴を抽出し、
原子の座標、抽出された前記潜在空間における原子の特徴、及び、境界条件に基づいて、前記対象の原子の構造を構成し、
請求項10から請求項12のいずれかに記載の前記第2ネットワークに、前記原子の特徴及び前記構造に基づいたノード特徴を入力して、前記更新ノード特徴を取得し、
請求項13から請求項16のいずれかに記載の前記第3ネットワークに、前期原子の特徴及び前記構造に基づいたエッジ特徴を入力して、前記更新エッジ特徴を取得し、
ノードの特徴及びエッジの特徴から物性値を推定する第4ネットワークに、取得した前記更新ノード特徴及び前記更新エッジ特徴を入力して、前記対象の物性値を推定する、
プログラム。
(4)
1又は複数のプロセッサに実行させると、
原子に関するベクトルから潜在空間における原子の特徴を抽出する第1ネットワークに原子に関するベクトルを入力し、
前記潜在空間における原子の特徴を入力すると原子の物性値を出力するデコーダに前記潜在空間における原子の特徴を入力して、原子の特性値を推定し、
前記1又は複数のプロセッサが、推定された原子の特性値と、教師データとの誤差を算出し、
算出した誤差を逆伝播して、前記第1ネットワーク及び前記デコーダを更新し、
前記第1ネットワークのパラメータを出力する、
プログラム。
(5)
1又は複数のプロセッサに実行させると、入力された原子の座標、原子の特徴、及び、境界条件に基づいて、対象の原子の構造を構成し、
前記構造に基づいて、原子同士の距離、及び、3原子の為す角度、を取得し、
前記原子の特徴をノード特徴として、更新ノード特徴を取得する、第2ネットワーク、及び、前記距離及び前記角度をエッジ特徴として、更新エッジ特徴を取得する、第3ネットワークに、前記原子の特徴、前記距離、及び、前記角度に基づいた情報を入力し、
前記更新ノード特徴及び前記更新エッジ特徴に基づいて、誤差を算出し、
算出した誤差を逆伝播して、前記第2ネットワーク及び前記第3ネットワークを更新する、
プログラム。
(6)
1又は複数のプロセッサにより実行させると、原子に関するベクトルから潜在空間における原子の特徴を抽出する第1ネットワークに、対象に含まれる原子の性質を示すベクトルを入力して、潜在空間における原子の特徴を抽出し、
原子の座標、抽出された前記潜在空間における原子の特徴、及び、境界条件に基づいて、前記対象の原子の構造を構成し、
前記構造に基づいて、原子同士の距離、及び、3原子の為す角度、を取得し、
前記原子の特徴をノード特徴として、更新ノード特徴を取得する、第2ネットワークに、前記原子の特徴及び前記構造に基づいたノード特徴を入力して、前記更新ノード特徴を取得し、
前記距離及び前記角度をエッジ特徴として、更新エッジ特徴を取得する、第3ネットワークに、前期原子の特徴及び前記構造に基づいたエッジ特徴を入力して、前記更新エッジ特徴を取得し、
ノードの特徴及びエッジの特徴から物性値を推定する第4ネットワークに、取得した前記更新ノード特徴及び前記更新エッジ特徴を入力して、前記対象の物性値を推定し、
推定した前記対象の物性値と、教師データと、から誤差を算出し、
算出した誤差を、前記第4ネットワーク、前記第3ネットワーク、前記第2ネットワーク及び前記第1ネットワークに逆伝播し、前記第4ネットワーク、前記第3ネットワーク、前記第2ネットワーク及び前記第1ネットワークを更新する、
プログラム。
(7)
(1)~(6)に記載のプログラムは、それぞれ、非一時的なコンピュータ可読媒体に記憶されてもよく、当該非一時的なコンピュータ可読媒体に格納されている(1)~(6)に記載の1以上のプログラムを読み出すことにより、1又は複数のプロセッサに、(1)~(6)に記載の方法を実行するように構成されてもよい。
10:入力部、
12:記憶部、
14:原子特徴取得部、
140:ワンホットベクトル生成部、
142:エンコーダ、
144:デコーダ、
146:第1ネットワーク、
16:入力情報構成部、
18:構造特徴抽出部、
180:グラフデータ抽出部、
182:第2ネットワーク、
184:第3ネットワーク、
20:物性値予測部、
22:出力部、
2:訓練装置、
24:誤差算出部、
26:パラメータ更新部
Claims (36)
- 少なくとも1つの記憶装置と、
少なくとも1つのプロセッサと、を備え、
前記少なくとも1つのプロセッサは、
複数の原子の情報を、複数の原子の情報を入力すると物性値を出力するように訓練されたニューラルネットワークに入力することで前記複数の原子の物性値を推定し、
前記複数の原子の情報は、前記複数の原子の立体的な位置関係の情報を含み、
前記ニューラルネットワークは、グラフベースの構成を含み、
前記物性値は、少なくともエネルギーを含み、
前記少なくとも1つのプロセッサは、
前記エネルギーを位置微分することにより、各原子に働く力を算出する、
推定装置。 - 少なくとも1つの記憶装置と、
少なくとも1つのプロセッサと、を備え、
前記少なくとも1つのプロセッサは、
複数の原子の情報を、複数の原子の情報を入力すると物性値を出力するように訓練されたニューラルネットワークに入力することで前記複数の原子の物性値を推定し、
前記複数の原子の情報は、前記複数の原子の立体的な位置関係の情報を含み、
前記ニューラルネットワークは、グラフベースの構成を含み、
前記少なくとも1つのプロセッサは、
前記複数の原子の座標情報、前記複数の原子の種類、及び、境界条件に基づいて、前記複数の原子の情報を含むグラフを生成し、
前記グラフを前記複数の原子の情報として前記ニューラルネットワークに入力する、
推定装置。 - 少なくとも1つの記憶装置と、
少なくとも1つのプロセッサと、を備え、
前記少なくとも1つのプロセッサは、
複数の原子の情報を、複数の原子の情報を入力すると物性値を出力するように訓練されたニューラルネットワークに入力することで前記複数の原子の物性値を推定し、
前記複数の原子の情報は、前記複数の原子の立体的な位置関係の情報を含み、
前記ニューラルネットワークは、グラフベースの構成を含み、
前記少なくとも1つのプロセッサは、
前記複数の原子の情報を含む、少なくとも並進不変又は回転不変な情報であるグラフを生成し、
前記グラフを前記複数の原子の情報として前記ニューラルネットワークに入力する、
推定装置。 - 少なくとも1つの記憶装置と、
少なくとも1つのプロセッサと、を備え、
前記少なくとも1つのプロセッサは、
複数の原子の情報を、複数の原子の情報を入力すると物性値を出力するように訓練されたニューラルネットワークに入力することで前記複数の原子の物性値を推定し、
前記複数の原子の情報は、前記複数の原子の立体的な位置関係の情報を含み、
前記ニューラルネットワークは、グラフベースの構成を含み、
前記少なくとも1つのプロセッサは、
前記複数の原子の情報を含み、ノード特徴及びエッジ特徴を有するグラフを生成し、
前記グラフを前記複数の原子の情報として前記ニューラルネットワークに入力し、
前記ニューラルネットワークは、
少なくとも前記ノード特徴を入力すると更新ノード特徴を出力する第2ネットワーク部と、
少なくとも前記エッジ特徴を入力すると更新エッジ特徴を出力する第3ネットワーク部と、
少なくとも前記更新ノード特徴及び前記更新エッジ特徴を入力すると前記物性値を出力する第4ネットワーク部と、を含む、
推定装置。 - 少なくとも1つの記憶装置と、
少なくとも1つのプロセッサと、を備え、
前記少なくとも1つのプロセッサは、
複数の原子の情報を、複数の原子の情報を入力すると物性値を出力するように訓練されたニューラルネットワークに入力することで前記複数の原子の物性値を推定し、
前記複数の原子の情報は、前記複数の原子の立体的な位置関係の情報を含み、
前記ニューラルネットワークは、グラフベースの構成を含み、
前記少なくとも1つの記憶装置は、第1ニューラルネットワークを用いて抽出された、原子の種類ごとの特徴を記憶しており、
前記少なくとも1つのプロセッサは、
前記複数の原子に含まれる原子の種類に基づいて、対応する前記特徴を前記少なくとも1つの記憶装置から取得し、
前記複数の原子の情報を含むグラフを、取得した前記特徴を用いて生成し、
前記グラフを前記複数の原子の情報として前記ニューラルネットワークに入力する、
推定装置。 - 少なくとも1つの記憶装置と、
少なくとも1つのプロセッサと、を備え、
前記少なくとも1つのプロセッサは、
複数の原子の情報を、複数の原子の情報を入力すると物性値を出力するように訓練されたニューラルネットワークに入力することで前記複数の原子の物性値を推定し、
前記複数の原子の情報は、前記複数の原子の立体的な位置関係の情報を含み、
前記ニューラルネットワークは、グラフベースの構成を含み、
前記少なくとも1つのプロセッサは、
前記複数の原子に含まれる原子の種類に関する情報を第1ニューラルネットワークに入力することで、特徴を取得し、
取得した前記特徴を用いて、前記複数の原子の情報を含むグラフを生成し、
前記グラフを前記複数の原子の情報として前記ニューラルネットワークに入力する、
推定装置。 - 前記立体的な位置関係の情報は、原子間の距離及び角度に関する情報を含む、
請求項1から請求項6のいずれかに記載の推定装置。 - 前記物性値は少なくともエネルギーを含む、
請求項2から請求項6のいずれか、又は、請求項1を引用しない請求項7に記載の推定装置。 - 前記少なくとも1つのプロセッサは、
前記エネルギーを位置微分することにより、各原子に働く力を算出する、
請求項8に記載の推定装置。 - 前記少なくとも1つのプロセッサは、
前記ニューラルネットワークの逆伝播処理を用いて、前記各原子に働く力を算出する、
請求項1又は請求項9に記載の推定装置。 - 前記少なくとも1つのプロセッサは、
前記複数の原子の情報を含むグラフを生成し、
前記グラフを前記ニューラルネットワークに入力する、
請求項1、又は、請求項1を引用する請求項7に記載の推定装置。 - 前記少なくとも1つのプロセッサは、
前記複数の原子の座標情報、前記複数の原子の種類、及び、境界条件に基づいて、前
記グラフを生成する、
請求項3から請求項6のいずれか、
請求項7から請求項10のうち、請求項1を引用しないいずれかであり、かつ、請求項2を引用しないいずれか、又は、
請求項11、
に記載の推定装置。 - 前記グラフは、少なくとも並進不変又は回転不変な情報である、
請求項2、
請求項4から請求項10のうち、請求項1を引用しないいずれかであり、かつ、請求項3を引用しないいずれか、
請求項11、又は、
請求項3を引用しない請求項12、
に記載の推定装置。 - 前記グラフは、ノード特徴及びエッジ特徴を含む、
請求項2若しくは請求項3、
請求項5から請求項10のうち、請求項1を引用しないいずれかであり、かつ、請求項4を引用しないいずれか、
請求項11、
請求項4を引用しない請求項12、又は、
請求項4を引用しない請求項13、
に記載の推定装置。 - 前記ノード特徴は、前記複数の原子の種類に基づく特徴を含み、
前記エッジ特徴は、原子間の距離及び角度に関する情報を含む、
請求項4又は請求項14に記載の推定装置。 - 前記少なくとも1つのプロセッサは、
前記複数の原子に含まれる着目原子に関する情報と前記着目原子から所定範囲内に存在する複数の原子に関する情報とに基づいて、前記エッジ特徴を生成する、
請求項4、請求項14又は請求項15に記載の推定装置。 - 前記ニューラルネットワークは、
少なくとも前記ノード特徴を入力すると更新ノード特徴を出力する第2ネットワーク部と、
少なくとも前記エッジ特徴を入力すると更新エッジ特徴を出力する第3ネットワーク部と、
少なくとも前記更新ノード特徴及び前記更新エッジ特徴を入力すると前記物性値を出力する第4ネットワーク部と、を含む、
請求項14から請求項16のうち、請求項4を引用しないいずれかに記載の推定装置。 - 前記少なくとも1つの記憶装置は、原子の種類ごとの特徴を記憶しており、
前記少なくとも1つのプロセッサは、
前記複数の原子に含まれる原子の種類に基づいて、対応する前記特徴を前記少なくとも1つの記憶装置から取得し、
取得した前記特徴を用いて前記グラフを生成する、
請求項2から請求項4のいずれか、
請求項2から請求項4のいずれかを引用する請求項7、
請求項8から請求項17のうち請求項2から請求項4のいずれかを引用し、請求項5を引用しないいずれかであり、かつ、請求項6を引用しないいずれか、又は、
請求項11、
に記載の推定装置。 - 前記少なくとも1つの記憶装置に記憶されている前記特徴は、第1ニューラルネットワークを用いて抽出されたものである、
請求項18に記載の推定装置。 - 前記少なくとも1つのプロセッサは、
前記複数の原子に含まれる原子の種類に関する情報を第1ニューラルネットワークに入力することで、特徴を取得し、
取得した前記特徴を用いて前記グラフを生成する、
請求項2から請求項4のいずれか、
請求項2から請求項4のいずれかを引用する請求項7、
請求項8から請求項17のうち請求項2から請求項4のいずれかを引用し、請求項5を引用しないいずれかであり、かつ、請求項6を引用しないいずれか、又は、
請求項11、
に記載の推定装置。 - 前記第1ニューラルネットワークは、原子の物性値を教師データとして訓練されたモデルである、
請求項5、請求項6、請求項19若しくは請求項20、又は、
請求項7から請求項10若しくは請求項12から請求項17のうち、請求項5若しくは請求項6を引用するいずれか、
に記載の推定装置。 - 前記第1ニューラルネットワークは、Variational Encoder Decoderにより訓練されたモデルである、
請求項21に記載の推定装置。 - 前記特徴は、潜在空間におけるベクトルである、
請求項5、請求項6、又は、請求項18から請求項22のいずれか、又は、
請求項7から請求項10若しくは請求項12から請求項17のうち、請求項5若しくは請求項6を引用するいずれか、
に記載の推定装置。 - 前記ニューラルネットワークの構成は、前記複数の原子に含まれる原子の種類に依らず共通である、
請求項1から請求項23のいずれかに記載の推定装置。 - 前記ニューラルネットワークは、少なくともグラフニューラルネットワーク又はグラフ畳み込みネットワークの何れかを含む、
請求項1から請求項24のいずれかに記載の推定装置。 - 前記複数の原子は、少なくとも、分子又は結晶の何れかを構成する原子である、
請求項1から請求項25のいずれかに記載の推定装置。 - 請求項1から請求項26のいずれかに記載の推定装置を用いて、前記少なくとも1つのプロセッサにより、前記複数の原子の前記物性値を推定する、
推定方法。 - 請求項1から請求項26のいずれかに記載の推定装置において、前記少なくとも1つのプロセッサに、前記複数の原子の前記物性値を推定する推定方法を実行させる、プログラム。
- 少なくとも1つの記憶装置と、
少なくとも1つのプロセッサと、を備え、
前記少なくとも1つのプロセッサは、
複数の原子の情報をニューラルネットワークに入力することで前記複数の原子の物性値を推定し、
推定した前記物性値と教師データとの誤差を算出し、
算出した前記誤差を逆伝播して、前記ニューラルネットワークを更新し、
前記複数の原子の情報は、前記複数の原子の立体的な位置関係の情報を含み、
前記ニューラルネットワークは、グラフベースの構成を含み、
前記物性値は、少なくともエネルギーを含み、
前記少なくとも1つのプロセッサは、
前記エネルギーを位置微分することにより、各原子に働く力を算出する、
訓練装置。 - 少なくとも1つの記憶装置と、
少なくとも1つのプロセッサと、を備え、
前記少なくとも1つのプロセッサは、
複数の原子の情報をニューラルネットワークに入力することで前記複数の原子の物性値を推定し、
推定した前記物性値と教師データとの誤差を算出し、
算出した前記誤差を逆伝播して、前記ニューラルネットワークを更新し、
前記複数の原子の情報は、前記複数の原子の立体的な位置関係の情報を含み、
前記ニューラルネットワークは、グラフベースの構成を含み、
前記少なくとも1つのプロセッサは、
前記複数の原子の座標情報、前記複数の原子の種類、及び、境界条件に基づいて、前記複数の原子の情報を含むグラフを生成し、
前記グラフを前記複数の原子の情報として前記ニューラルネットワークに入力する、
訓練装置。 - 少なくとも1つの記憶装置と、
少なくとも1つのプロセッサと、を備え、
前記少なくとも1つのプロセッサは、
複数の原子の情報をニューラルネットワークに入力することで前記複数の原子の物性値を推定し、
推定した前記物性値と教師データとの誤差を算出し、
算出した前記誤差を逆伝播して、前記ニューラルネットワークを更新し、
前記複数の原子の情報は、前記複数の原子の立体的な位置関係の情報を含み、
前記ニューラルネットワークは、グラフベースの構成を含み、
前記少なくとも1つのプロセッサは、
前記複数の原子の情報を含む、少なくとも並進不変又は回転不変な情報であるグラフを生成し、
前記グラフを前記複数の原子の情報として前記ニューラルネットワークに入力する、
訓練装置。 - 少なくとも1つの記憶装置と、
少なくとも1つのプロセッサと、を備え、
前記少なくとも1つのプロセッサは、
複数の原子の情報をニューラルネットワークに入力することで前記複数の原子の物性値を推定し、
推定した前記物性値と教師データとの誤差を算出し、
算出した前記誤差を逆伝播して、前記ニューラルネットワークを更新し、
前記複数の原子の情報は、前記複数の原子の立体的な位置関係の情報を含み、
前記ニューラルネットワークは、グラフベースの構成を含み、
前記少なくとも1つのプロセッサは、
前記複数の原子の情報を含み、ノード特徴及びエッジ特徴を有するグラフを生成し、
前記グラフを前記複数の原子の情報として前記ニューラルネットワークに入力し、
前記ニューラルネットワークは、
少なくとも前記ノード特徴を入力すると更新ノード特徴を出力する第2ネットワーク部と、
少なくとも前記エッジ特徴を入力すると更新エッジ特徴を出力する第3ネットワーク部と、
少なくとも前記更新ノード特徴及び前記更新エッジ特徴を入力すると前記物性値を出力する第4ネットワーク部と、を含む、
訓練装置。 - 少なくとも1つの記憶装置と、
少なくとも1つのプロセッサと、を備え、
前記少なくとも1つのプロセッサは、
複数の原子の情報をニューラルネットワークに入力することで前記複数の原子の物性値を推定し、
推定した前記物性値と教師データとの誤差を算出し、
算出した前記誤差を逆伝播して、前記ニューラルネットワークを更新し、
前記複数の原子の情報は、前記複数の原子の立体的な位置関係の情報を含み、
前記ニューラルネットワークは、グラフベースの構成を含み、
前記少なくとも1つの記憶装置は、第1ニューラルネットワークを用いて抽出された、原子の種類ごとの特徴を記憶しており、
前記少なくとも1つのプロセッサは、
前記複数の原子に含まれる原子の種類に基づいて、対応する前記特徴を前記少なくとも1つの記憶装置から取得し、
前記複数の原子の情報を含むグラフを、取得した前記特徴を用いて生成し、
前記グラフを前記複数の原子の情報として前記ニューラルネットワークに入力する、
訓練装置。 - 少なくとも1つの記憶装置と、
少なくとも1つのプロセッサと、を備え、
前記少なくとも1つのプロセッサは、
複数の原子の情報をニューラルネットワークに入力することで前記複数の原子の物性値を推定し、
推定した前記物性値と教師データとの誤差を算出し、
算出した前記誤差を逆伝播して、前記ニューラルネットワークを更新し、
前記複数の原子の情報は、前記複数の原子の立体的な位置関係の情報を含み、
前記ニューラルネットワークは、グラフベースの構成を含み、
前記少なくとも1つのプロセッサは、
前記複数の原子に含まれる原子の種類に関する情報を第1ニューラルネットワークに入力することで、特徴を取得し、
取得した前記特徴を用いて、前記複数の原子の情報を含むグラフを生成し、
前記グラフを前記複数の原子の情報として前記ニューラルネットワークに入力する、
訓練装置。 - 少なくとも1つの記憶装置と、
少なくとも1つのプロセッサと、を備え、
前記少なくとも1つのプロセッサは、
請求項1から請求項26のいずれかに記載の推定装置において、物性値を推定をするためのニューラルネットワーク及び当該ニューラルネットワークに係る入出力インタフェースを形成し、
複数の原子の情報を前記ニューラルネットワークに入力することで前記複数の原子の物性値を推定し、
推定した前記物性値と教師データとの誤差を算出し、
算出した前記誤差を逆伝播して、前記ニューラルネットワークを更新する、
訓練装置。 - 請求項29から請求項35のいずれかに記載の訓練装置を用いて、前記少なくとも1つのプロセッサにより、前記ニューラルネットワークを生成する、
モデル生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024034182A JP2024056017A (ja) | 2019-09-20 | 2024-03-06 | 推定装置、訓練装置、推定方法及び訓練方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019172034 | 2019-09-20 | ||
JP2019172034 | 2019-09-20 | ||
PCT/JP2020/035307 WO2021054402A1 (ja) | 2019-09-20 | 2020-09-17 | 推定装置、訓練装置、推定方法及び訓練方法 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024034182A Division JP2024056017A (ja) | 2019-09-20 | 2024-03-06 | 推定装置、訓練装置、推定方法及び訓練方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2021054402A1 JPWO2021054402A1 (ja) | 2021-03-25 |
JPWO2021054402A5 JPWO2021054402A5 (ja) | 2023-05-23 |
JP7453244B2 true JP7453244B2 (ja) | 2024-03-19 |
Family
ID=74884302
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021546951A Active JP7453244B2 (ja) | 2019-09-20 | 2020-09-17 | 推定装置、訓練装置、推定方法及びモデル生成方法 |
JP2024034182A Pending JP2024056017A (ja) | 2019-09-20 | 2024-03-06 | 推定装置、訓練装置、推定方法及び訓練方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024034182A Pending JP2024056017A (ja) | 2019-09-20 | 2024-03-06 | 推定装置、訓練装置、推定方法及び訓練方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220207370A1 (ja) |
JP (2) | JP7453244B2 (ja) |
CN (1) | CN114521263A (ja) |
DE (1) | DE112020004471T5 (ja) |
WO (1) | WO2021054402A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210287137A1 (en) * | 2020-03-13 | 2021-09-16 | Korea University Research And Business Foundation | System for predicting optical properties of molecules based on machine learning and method thereof |
JP7392203B2 (ja) * | 2021-06-11 | 2023-12-05 | 株式会社Preferred Networks | 訓練装置、訓練方法、プログラム及び推論装置 |
JP7403032B2 (ja) * | 2021-06-11 | 2023-12-21 | 株式会社Preferred Networks | 訓練装置、推定装置、訓練方法、推定方法及びプログラム |
CN114239802B (zh) * | 2021-12-13 | 2024-09-13 | 清华大学 | 保持相似变换不变性的图神经网络方法、装置及设备 |
WO2023176901A1 (ja) * | 2022-03-15 | 2023-09-21 | 株式会社 Preferred Networks | 情報処理装置、モデル生成方法及び情報処理方法 |
WO2024034688A1 (ja) * | 2022-08-10 | 2024-02-15 | 株式会社Preferred Networks | 学習装置、推論装置及びモデル作成方法 |
CN115859597B (zh) * | 2022-11-24 | 2023-07-14 | 中国科学技术大学 | 基于杂化泛函和第一性原理的分子动力学模拟方法和系统 |
CN118673973A (zh) * | 2023-03-17 | 2024-09-20 | 株式会社 东芝 | 信息处理装置、信息处理方法以及存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020166706A (ja) | 2019-03-29 | 2020-10-08 | 株式会社クロスアビリティ | 結晶形予測装置、結晶形予測方法、ニューラルネットワークの製造方法、及びプログラム |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6630640B2 (ja) * | 2016-07-12 | 2020-01-15 | 株式会社日立製作所 | 材料創成装置、および材料創成方法 |
JP6922284B2 (ja) * | 2017-03-15 | 2021-08-18 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及びプログラム |
US11289178B2 (en) * | 2017-04-21 | 2022-03-29 | International Business Machines Corporation | Identifying chemical substructures associated with adverse drug reactions |
JP6898562B2 (ja) * | 2017-09-08 | 2021-07-07 | 富士通株式会社 | 機械学習プログラム、機械学習方法、および機械学習装置 |
JP2019152543A (ja) * | 2018-03-02 | 2019-09-12 | 株式会社東芝 | 目標認識装置、目標認識方法及びプログラム |
WO2019173401A1 (en) * | 2018-03-05 | 2019-09-12 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and methods for spatial graph convolutions with applications to drug discovery and molecular simulation |
-
2020
- 2020-09-17 CN CN202080065663.5A patent/CN114521263A/zh active Pending
- 2020-09-17 JP JP2021546951A patent/JP7453244B2/ja active Active
- 2020-09-17 DE DE112020004471.8T patent/DE112020004471T5/de active Pending
- 2020-09-17 WO PCT/JP2020/035307 patent/WO2021054402A1/ja active Application Filing
-
2022
- 2022-03-18 US US17/698,950 patent/US20220207370A1/en active Pending
-
2024
- 2024-03-06 JP JP2024034182A patent/JP2024056017A/ja active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020166706A (ja) | 2019-03-29 | 2020-10-08 | 株式会社クロスアビリティ | 結晶形予測装置、結晶形予測方法、ニューラルネットワークの製造方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20220207370A1 (en) | 2022-06-30 |
CN114521263A (zh) | 2022-05-20 |
JP2024056017A (ja) | 2024-04-19 |
WO2021054402A1 (ja) | 2021-03-25 |
DE112020004471T5 (de) | 2022-06-02 |
JPWO2021054402A1 (ja) | 2021-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7453244B2 (ja) | 推定装置、訓練装置、推定方法及びモデル生成方法 | |
JP7354320B2 (ja) | 量子デバイスのノイズ除去方法および装置、電子機器、コンピュータ可読記憶媒体並びにコンピュータプログラム | |
WO2019229527A2 (en) | Methods and systems for solving a problem on a quantum computer | |
CN111105017B (zh) | 神经网络量化方法、装置及电子设备 | |
Modi et al. | FlowPM: Distributed TensorFlow implementation of the FastPM cosmological N-body solver | |
JP7142968B2 (ja) | フルウェーブフォームインバージョン方法、装置及び電子設備 | |
CN110023966A (zh) | 使用量子计算仿真材料 | |
JP2020109660A (ja) | 編集可能なフィーチャツリーの推測のためのデータ集合を形成すること | |
JP2020109659A (ja) | 編集可能なフィーチャツリーの推測のためにニューラルネットワークを学習すること | |
CN111063398A (zh) | 一种基于图贝叶斯优化的分子发现方法 | |
Zheng et al. | RockGPT: reconstructing three-dimensional digital rocks from single two-dimensional slice with deep learning | |
WO2022247092A1 (en) | Methods and systems for congestion prediction in logic synthesis using graph neural networks | |
CN114021728A (zh) | 量子数据测量方法及系统、电子设备和介质 | |
Seo et al. | Graph neural networks and implicit neural representation for near-optimal topology prediction over irregular design domains | |
CN117095753A (zh) | 一种蛋白质稳定性预测方法及网络app | |
WO2022163629A1 (ja) | 推定装置、訓練装置、推定方法、生成方法及びプログラム | |
RU2718409C1 (ru) | Система восстановления трехмерной структуры образца породы | |
CN114692529A (zh) | 一种cfd高维响应的不确定度量化方法、装置、计算机设备 | |
JP7425755B2 (ja) | 変換方法、訓練装置及び推論装置 | |
CN111275799B (zh) | 动画的生成方法、装置和电子设备 | |
Wittmer et al. | An autoencoder compression approach for accelerating large-scale inverse problems | |
CN116152907A (zh) | 手势重建方法、装置以及电子设备 | |
JP7392203B2 (ja) | 訓練装置、訓練方法、プログラム及び推論装置 | |
CN115659677B (zh) | 一种基于量子计算的动力学模拟方法及装置 | |
Nair et al. | NAS-NeRF: Generative neural architecture search for neural radiance fields |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220527 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230515 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230515 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230515 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230818 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231012 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231208 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240307 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7453244 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |