WO2024111471A1 - 情報処理装置、学習済みモデル生成装置、情報処理方法、学習済みモデル生成方法、情報処理プログラム、及び学習済みモデル生成プログラム - Google Patents
情報処理装置、学習済みモデル生成装置、情報処理方法、学習済みモデル生成方法、情報処理プログラム、及び学習済みモデル生成プログラム Download PDFInfo
- Publication number
- WO2024111471A1 WO2024111471A1 PCT/JP2023/040970 JP2023040970W WO2024111471A1 WO 2024111471 A1 WO2024111471 A1 WO 2024111471A1 JP 2023040970 W JP2023040970 W JP 2023040970W WO 2024111471 A1 WO2024111471 A1 WO 2024111471A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- crystal
- trained
- substance
- decoder
- data
- Prior art date
Links
- 230000010365 information processing Effects 0.000 title claims description 63
- 238000000034 method Methods 0.000 title claims description 59
- 238000003672 processing method Methods 0.000 title claims description 7
- 239000000126 substance Substances 0.000 claims abstract description 109
- 238000003062 neural network model Methods 0.000 claims abstract description 49
- 239000013078 crystal Substances 0.000 claims description 242
- 239000013598 vector Substances 0.000 claims description 137
- 238000012549 training Methods 0.000 claims description 123
- 239000000463 material Substances 0.000 claims description 75
- 238000010801 machine learning Methods 0.000 claims description 35
- 238000012545 processing Methods 0.000 claims description 33
- 230000008569 process Effects 0.000 claims description 16
- 238000010586 diagram Methods 0.000 description 39
- 230000000875 corresponding effect Effects 0.000 description 22
- 239000002245 particle Substances 0.000 description 20
- 238000003860 storage Methods 0.000 description 19
- 238000013528 artificial neural network Methods 0.000 description 17
- 230000001537 neural effect Effects 0.000 description 15
- 238000004458 analytical method Methods 0.000 description 14
- 241000894007 species Species 0.000 description 14
- 238000013459 approach Methods 0.000 description 13
- 238000009826 distribution Methods 0.000 description 11
- 230000000704 physical effect Effects 0.000 description 10
- 238000005070 sampling Methods 0.000 description 9
- FAPWRFPIFSIZLT-UHFFFAOYSA-M Sodium chloride Chemical group [Na+].[Cl-] FAPWRFPIFSIZLT-UHFFFAOYSA-M 0.000 description 7
- 238000011156 evaluation Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000012360 testing method Methods 0.000 description 7
- 238000013500 data storage Methods 0.000 description 6
- 238000011161 development Methods 0.000 description 6
- 230000018109 developmental process Effects 0.000 description 6
- 238000010200 validation analysis Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 4
- 239000010949 copper Substances 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 229910052984 zinc sulfide Inorganic materials 0.000 description 4
- XEEYBQQBJWHFJM-UHFFFAOYSA-N Iron Chemical compound [Fe] XEEYBQQBJWHFJM-UHFFFAOYSA-N 0.000 description 3
- 238000002441 X-ray diffraction Methods 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 235000002639 sodium chloride Nutrition 0.000 description 3
- 239000011780 sodium chloride Substances 0.000 description 3
- 239000002887 superconductor Substances 0.000 description 3
- 239000013076 target substance Substances 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 229910052802 copper Inorganic materials 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 239000013077 target material Substances 0.000 description 2
- 229910021521 yttrium barium copper oxide Inorganic materials 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 229910017706 MgZn Inorganic materials 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- BTGZYWWSOPEHMM-UHFFFAOYSA-N [O].[Cu].[Y].[Ba] Chemical compound [O].[Cu].[Y].[Ba] BTGZYWWSOPEHMM-UHFFFAOYSA-N 0.000 description 1
- 150000001450 anions Chemical class 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 150000001768 cations Chemical class 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000002050 diffraction method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 229910010272 inorganic material Inorganic materials 0.000 description 1
- 239000011147 inorganic material Substances 0.000 description 1
- 229910052742 iron Inorganic materials 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000005293 physical law Methods 0.000 description 1
- 238000004451 qualitative analysis Methods 0.000 description 1
- 238000011158 quantitative evaluation Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000002910 structure generation Methods 0.000 description 1
- WGPCGCOKHWGKJJ-UHFFFAOYSA-N sulfanylidenezinc Chemical compound [Zn]=S WGPCGCOKHWGKJJ-UHFFFAOYSA-N 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16C—COMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
- G16C20/00—Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
- G16C20/70—Machine learning, data mining or chemometrics
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16C—COMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
- G16C20/00—Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
- G16C20/80—Data visualisation
Definitions
- the present disclosure relates to an information processing device, a trained model generation device, an information processing method, a trained model generation method, an information processing program, and a trained model generation program.
- the purpose of this disclosure is to represent a field that represents the structure of a substance composed of atomic point groups.
- the information processing device disclosed herein is an information processing device that includes a processing unit that uses a neural network model to represent a field that represents the structure of a substance composed of atomic point groups.
- the information processing method disclosed herein is an information processing method in which a computer executes processing to represent a field that represents the structure of a substance composed of atomic point groups using a neural network model.
- the information processing program disclosed herein is an information processing program for causing a computer to execute processing that utilizes a neural network model to represent a field that represents the structure of a substance composed of atomic point groups.
- the information processing device, information processing method, and information processing program disclosed herein can represent a field that represents the structure of a substance composed of atomic point groups.
- FIG. 1 is a diagram for explaining the present embodiment.
- FIG. 1 is a diagram for explaining the present embodiment.
- FIG. 1 is a diagram for explaining the present embodiment.
- FIG. 1 is a diagram for explaining the present embodiment.
- FIG. 1 is a diagram for explaining the present embodiment.
- 1 is a block diagram showing a hardware configuration of an information processing device according to an embodiment of the present invention.
- FIG. 1 is a diagram for explaining the present embodiment.
- FIG. 1 is a diagram for explaining the present embodiment.
- FIG. 1 is a diagram for explaining the present embodiment.
- FIG. 1 is a diagram for explaining the present embodiment.
- FIG. 1 is a diagram for explaining the present embodiment.
- FIG. 1 is a diagram for explaining the present embodiment.
- FIG. 1 is a diagram for explaining the present embodiment.
- FIG. 1 is a diagram for explaining the present embodiment.
- FIG. 1 is a diagram for explaining the present embodiment.
- FIG. 1 is a diagram for explaining the present embodiment.
- FIG. 1 is a diagram for explaining the present embodiment.
- FIG. 1 is a diagram for explaining the present embodiment.
- FIG. 1 is a diagram for explaining the present embodiment.
- FIG. 1 is a diagram for explaining the present embodiment.
- FIG. 1 is a diagram for explaining the present embodiment.
- FIG. 1 is a diagram for explaining the present embodiment.
- FIG. 1 is a diagram for explaining the present embodiment.
- FIG. 1 is a diagram for explaining the present embodiment.
- FIG. 1 is a diagram for explaining the present embodiment.
- FIG. 1 is a diagram for explaining the present embodiment.
- FIG. 1 is a diagram for explaining the present embodiment.
- FIG. 1 is a diagram for explaining the present embodiment.
- FIG. 1 is a diagram for explaining the present embodiment.
- FIG. 1 is a diagram for explaining the present embodiment.
- FIG. 1 is a diagram for explaining the present embodiment.
- FIG. 1 is a diagram for explaining the present embodiment.
- FIG. 1 is a diagram for explaining the present embodiment.
- NeSF neural structure field
- MI informatics
- MI Magnetic ink Characterization
- the crystal structure of an inorganic material is a regular and periodic arrangement of atoms in three-dimensional (3D) space. This arrangement is usually described by lattice constants, which define the 3D positions and types of atoms in a unit cell and the movement of the unit cell in 3D space.
- the atoms in a unit cell have no clear order, and their number can vary from one to hundreds.
- NeSF Neural Structure Field
- NeSF the target material information is given as a fixed-dimensional vector z, and consider the problem of recovering the crystal structure from z.
- the input z can specify, for example, information about the crystal structure of the material, or some desired criteria for the material to be generated.
- the neural network f instead of the neural network f directly outputting the crystal structure as f(z), the neural network f is used as an implicit function to indirectly represent the crystal structure embedded in z. Specifically, f is treated as a vector field on a 3D Cartesian coordinate p, and is conditioned on the target material information z.
- the network f is trained to output a 3D vector pointing from a query point p to the nearest atomic position a.
- the output s is expected to be a-p. If the position field is ideally trained, then at any query point p, the nearest atomic position a can be obtained as p+f(p,z).
- the position field is a scalar potential
- the scalar potential can be interpreted as the gradient vector field - ⁇ (p) of the nearest atom's position, where p is the query point and p is the nearest atom's position, a i .
- the kind field is trained to output a categorical probability distribution indicating the kind of the nearest atom.
- the output dimension of the kind field is the number of candidate atom kinds.
- the proposed NeSF is inspired by the concept of vector fields in classical physics and implicit neural representations in computer vision [30-34]. Implicit neural representations have been recently proposed to handle several representation problems in 3D computer vision applications, such as 3D shape estimation of objects [31-33] and free-viewpoint image synthesis [30, 34].
- 3D shape estimation having a neural network directly output a 3D mesh or point cloud leads to representation problems similar to those encountered in crystal structures.
- a signed distance function (SDF) is utilized in DeepSDF [31], where a neural network f(p) models the 3D shape by indicating with a positive or negative sign whether a query point p is outside or inside the object volume and outputs a respective scalar.
- NeSF follows the basic idea of implicit neural representations and further extends it to the estimation of crystal structures described by the positions and species of atoms. The accurate description of atomic positions in crystal structures is of great importance in materials science. Thus, NeSF outputs vectors pointing to the nearest atoms, representing the positions of atoms more directly than existing implicit neural representations of 3D geometry.
- the ICSG3D method uses 32 ⁇ 32 ⁇ 32 voxels to represent crystal structures and estimates them using a 3D convolutional neural network (CNN).
- CNN 3D convolutional neural network
- voxel-based 3DCNNs are computationally and memory intensive, a resolution of 32 ⁇ 32 ⁇ 32 voxels is roughly the limit for training voxel-based models on standard computing systems.
- existing crystal structures contain more than a few dozen atoms in the unit cell, or the unit cell is stretched or distorted. Therefore, a sufficiently high resolution is required to accurately represent diverse crystal structures in voxels.
- NeSF can only indirectly provide atomic positions in a representation such as the peak of a scalar field of electron density discretized in voxel space.
- the proposed NeSF overcomes the limitations of voxelization. With NeSF, there is essentially no trade-off between spatial resolution and required memory. In theory, NeSF can achieve infinitely high spatial resolution by using a compact (memory- and parameter-efficient) neural network instead of a costly 3DCNN. Moreover, NeSF can effectively represent any crystal structure, including elongated or distorted unit cells. Moreover, NeSF can directly provide Cartesian coordinates of atomic positions, rather than the peaks of scalar fields. We believe that the proposed NeSF will break through the technical bottleneck of the MI approach for crystal structure estimation and contribute to the progress of MI research in this direction.
- NeSF successfully recovers a wide range of crystal structures, from the relatively basic structures of perovskite materials to the complex structures of cuprate superconductors. Extensive quantitative evaluation results show that NeSF outperforms the voxelized approach of ICSG3D [24].
- estimating the crystal structure from z amounts to estimating the positions and species of atoms in the unit cell along with the lattice constants.
- the lattice constants are modeled as lengths a, b, and c and angles ⁇ , ⁇ , and ⁇ , and are estimated by a simple multilayer perceptron (MLP) using the input z.
- MLP simple multilayer perceptron
- the atomic positions and species are estimated by the position field fp and type field fs of the NeSF, respectively, as described in the previous section.
- Score the particles Score each particle p i and filter outliers. Since the norm of the output of the position field
- NeSF NeSF Training Training Training
- 3D query points ⁇ p s i ⁇ in the unit cell we randomly sample 3D query points ⁇ p s i ⁇ in the unit cell and calculate the loss values of the field output at these points.
- f p (p s i , z) and f s (p s i , z) we monitor the query points densely.
- a query point sampling strategy is required for training.
- Existing implicit neural representations for 3D shape estimation such as DeepSDF [31], sample training query points near the surface.
- Curriculum DeepSDF [35] further introduces curriculum learning, in which the sampling density is enhanced near the surface as training progresses.
- Global grid sampling This method considers 3D grid points that uniformly cover the entire unit cell and samples the points with perturbations that follow a Gaussian distribution.
- Local grid sampling This method considers local 3D grid points centered on each atomic position and samples the points with perturbations that follow a Gaussian distribution.
- the proposed NeSF-based autoencoder consists of an encoder and a decoder.
- the encoder is a neural network that converts the input crystal structure (i.e., the positions and species of atoms in the unit cell, and the lattice constants) into an abstract latent vector z.
- the decoder using NeSF, reconstructs the input crystal structure from the latent vector z.
- Autoencoders are typically used to learn latent vector representations of data via self-supervised learning, where the input data can be supervised through the reconstruction loss.
- the ICSG3D dataset [24] is a materials collection of three datasets that includes 7897 materials with limited crystal systems (cubic) and prototypes (i.e., AB, ABX2, and ABX3).
- the LCS6 ⁇ dataset consists of 6005 materials with unit cell sizes of 6 ⁇ or less along the x, y, and z axes, with no restrictions on crystal systems and prototypes.
- the YBCO-like dataset consists of 100 materials with narrow unit cells along the c-axis. These structures typically include those of yttrium barium copper oxide (YBCO) superconductors. Due to its complex structure and relatively few samples, the YBCO-like dataset is the most challenging of the three datasets evaluated. For more details on these data sets, see Figure 27, section 4.1.
- YBCO yttrium barium copper oxide
- each dataset was randomly split into a training (90.25%), validation (4.75%), and test (5%) set.
- the training set was used only for training the ML model.
- the validation set was used to pre-validate the trained ML model, and the test set was used to calculate the final evaluation score after training, validation, and tuning of hyperparameters.
- the hyperparameters were tuned based on the validation scores of the LCS6 ⁇ dataset.
- the YBCO-like dataset had only 100 samples, so it was treated a little differently from the other two evaluated datasets.
- Atom number error is the fraction of material in which the number of atoms in the unit cell is incorrectly estimated.
- Position error is the average error in the reconstructed atom positions. Depending on the denominator of the metric, position error was evaluated in two ways. The actual metric was used to evaluate the average position error at the actual atomic sites of the crystal structure by calculating the shortest distance to the estimated atomic sites. In contrast, the detected metric was used to evaluate the error at the estimated sites by calculating the shortest distance to the actual atomic sites. The actual metric is more sensitive to errors associated with underestimation of atom number, whereas the detected metric is more sensitive to errors associated with overestimation.
- Type error is the average fraction of atoms whose type is incorrectly estimated. Similar to the position error, type error was evaluated using the actual and detected metrics. Lower values of these metrics indicate better performance.
- Table 1 shows the reconstruction error of the proposed NeSF-based autoencoder and the ICSG3D baseline on the test set of the three datasets. Overall, the proposed method consistently outperforms ICSG3D on all evaluation metrics, with significant improvements in performance on the type error of all datasets and all metrics on the YBCO-like dataset.
- Figure 3 shows the crystal structures from the three evaluated datasets, comparing the test samples with the reconstruction results by the proposed autoencoder and ICSG3D.
- ICSG3D For the ICSG3D dataset, the simplest of the three datasets, ICSG3D achieved good performance for atom number error and position error, but with a larger species error (about 65% for both real and detected metrics). In contrast, the proposed method achieved a slight improvement in position error and atom number error, and a significant reduction in species error (about 4%). This is likely because ICSG3D estimates atomic species via electron density maps, whereas the proposed method more directly represents atomic species as categorical distributions. Extending ICSG3D to estimate categorical distributions for each voxel is impractical, as it would require about 100x323 times more memory usage at the output (i.e., 100 species categories per 323 voxels are needed in addition to one electron density map).
- the performance advantage of the proposed method is even clearer, especially with regard to positional errors.
- the LCS6 ⁇ dataset contains a variety of crystal structures (non-cubic, distorted crystal structures, etc.), while the YBCO-like dataset contains a very narrow crystal structure.
- the YBCO-like dataset contains very few samples, which may lead to overfitting of the model (i.e., the performance of the test set may be significantly degraded).
- the proposed method is able to accurately estimate the positions and species of atoms.
- Fig. 4 shows the distribution of reconstruction errors in 10 test trials for materials from the ICSG3D and LCS6 ⁇ datasets according to the number of atoms given as the median (point) and the 68% range around them (colored area).
- the YBCO-like dataset is excluded from this analysis since it contains only materials with 13 atoms in the unit cell.
- Fig. 4a and 4b show the signed error between the detected and real atom counts.
- Fig. 4c and 4d show the distribution of position errors
- Fig. 4e and 4f show the distribution of type errors.
- the atom count is either correctly or underestimated by both methods, so we report the error in the real metric.
- the proposed method provides the correct type of both atoms for more than 68% of diatomic materials, while ICSG3D often erroneously estimates one of the two atom types.
- the errors of the three types by both methods tend to increase with the number of atoms, but they consistently perform better than ICSG3D for materials with varying numbers of atoms.
- the performance of ICSG3D tends to degrade more significantly for materials with a large number of atoms.
- ICSG3D tends to underestimate the number of atoms (Fig. 4b), and this tendency is likely due to the spatial resolution of ICSG3D being limited to 32 ⁇ 32 ⁇ 32 voxels. This suggests that ICSG3D is unable to capture polyatomic structures.
- the remarkable high performance of the proposed method can be attributed to two reasons.
- our method does not use discretization, which makes it more advantageous than grid-based ICSG3D for estimating complex crystal structures.
- spatial resolution is limited by cubically increasing computation and memory usage.
- the proposed NeSF is free from such a trade-off between resolution and computational complexity, and therefore can effectively represent complex structures.
- the model size of the proposed NeSF using MLP is much smaller than that of the 3DCNN architecture of ICSG3D.
- the number of training samples required for an ML model is correlated with the number of trainable parameters.
- Grid-based methods use layers of 3D convolution filters that contain many trainable parameters.
- NeSF uses an implicit neural representation to indirectly describe the 3D space as fields rather than voxels. It is therefore efficiently implemented by MLP with fewer parameters than 3DCNN. Specifically, the NeSF-based autoencoder has 760,000 parameters, which is only 2.24% of the number of parameters of the 3DCNN-based ICSG3D (34 million parameters). This difference gives NeSF an advantage over grid-based methods, especially on small datasets such as the YBCO-like dataset.
- the interpolation result from ZnS (mp-10695) to CdS (mp-2469) is shown in Figure 5.
- the resulting compositional transition is ZnS ⁇ MgZn 3 S 4 (Mg 0.25 Zn 0.75 S) ⁇ MgZnS 2 (Mg 0.5 Zn 0.5 S) ⁇ Mg 3 ZnS 4 (Mg 0.75 Zn 0.25 S) ⁇ MgS ⁇ MgCd 3 S 4 (Mg 0.25 Cd 0.75 S) ⁇ CdS.
- composition AX and cubic structure are mostly preserved. Moreover, the composition changes continuously along the interpolation path without collapse.
- NeSF employs a relatively simple network architecture, and architectural design choices were not fully explored.
- NeSF treats elements as mutually independent categorical (one-hot) vectors.
- it does not explicitly train the model using the physical properties or similarities of the elements.
- other developments have attempted to explicitly inject the physical properties and features of elements into the model.
- existing crystal structure encoders [16] use fingerprints such as group and period, electron density, atomic radius, and electronegativity to represent input elements instead of using one-hot vectors.
- ICSG3D24 the output of atomic species is trained using the mean squared error of atomic numbers, rather than the categorical loss considered in our method.
- NeSF does not explicitly consider the space group symmetry. Therefore, the local spatial arrangement of atoms in a conventional unit cell estimated by NeSF does not necessarily follow the space group symmetry.
- ICSG3D [24] has the same limitation, symmetry is an important concept in crystallography. Therefore, incorporating space group symmetry constraints into NeSF is an important direction for future work.
- NeSF should be applied to generative models in future work with appropriate performance analysis.
- NeSF uses neural networks to estimate crystal structures. It is difficult to directly determine crystal structures using neural networks, because these structures are essentially represented as unordered sets containing various numbers of atoms.
- NeSF overcomes this problem by treating crystal structures as continuous vector fields rather than as discrete sets of atoms.
- the idea of NeSF is borrowed from vector fields in physics and recent implicit neural representations in computer vision.
- Implicit neural representations are ML methods that use neural networks to represent 3D geometry. NeSF extends this method by introducing position and type fields to estimate atomic positions and species in crystal structures, respectively. Unlike existing grid-based approaches for representing crystal structures, NeSF has no tradeoff between spatial resolution and computational complexity and can represent arbitrary crystal structures.
- NeSF was applied as an autoencoder for crystal structures and demonstrated its performance and expressiveness on a dataset with diverse crystal structures. Quantitative performance analysis showed clear advantages of the NeSF-based autoencoder over existing grid-based methods, especially in estimating complex crystal structures. Furthermore, qualitative analysis of the learned latent space revealed that the autoencoder captures similarities between crystal structures rather than randomly mapping them.
- NeSF can be easily incorporated into powerful deep generative models such as variational autoencoders and generative adversarial networks to discover new crystal structures. Such generative models of crystal structures will be important for the inverse design of materials, a major challenge in MI. NeSF can overcome the technical bottleneck of ML in crystal structure estimation and pave the way for the development of next-generation materials.
- FIG. 7 is a block diagram showing the hardware configuration of an information processing device 10 according to this embodiment.
- the information processing device 10 has a CPU (Central Processing Unit) 12, a memory 14, a storage device 16, an input/output I/F (Interface) 18, a storage medium reading device 20, and a communication I/F 22.
- Each component is connected to each other so as to be able to communicate with each other via a bus 24.
- the storage device 16 stores information processing programs for executing the various processes described below.
- the CPU 12 is a central processing unit that executes various programs and controls each component. That is, the CPU 12 reads the programs from the storage device 16 and executes the programs using the memory 14 as a working area. The CPU 12 performs the various arithmetic processes described above in accordance with the programs stored in the storage device 16.
- Memory 14 is made up of RAM (Random Access Memory) and temporarily stores programs and data as a working area.
- Storage device 16 is made up of ROM (Read Only Memory), HDD (Hard Disk Drive), SSD (Solid State Drive), etc., and stores various programs including the operating system, and various data.
- the input/output I/F 18 is an interface for inputting data from an external device and outputting data to an external device.
- an input device for performing various inputs such as a keyboard or a mouse
- an output device for outputting various information such as a display or a printer
- a touch panel display may be used as the output device to function as an input device.
- the storage medium reader 20 reads data stored in various storage media such as CD (Compact Disc)-ROM, DVD (Digital Versatile Disc)-ROM, Blu-ray Disc, and USB (Universal Serial Bus) memory, and writes data to the storage media.
- CD Compact Disc
- DVD Digital Versatile Disc
- USB Universal Serial Bus
- the communication I/F 22 is an interface for communicating with other devices, and uses standards such as Ethernet (registered trademark), FDDI, and Wi-Fi (registered trademark).
- the information processing device 10 of this embodiment uses the method described above to train an autoencoder that includes an encoder and a decoder. This makes it possible to use a neural network model to represent a field that represents the structure of a substance that is composed of a group of atomic points.
- the information processing device 10 functionally includes a learning acquisition unit 102, a learning unit 104, an acquisition unit 108, and a processing unit 110.
- a data storage unit 100 and a trained model storage unit 106 are provided in a predetermined storage area of the information processing device 10.
- Each functional configuration is realized by the CPU 12 reading out each program stored in the storage device 16, expanding it in the memory 14, and executing it.
- the information processing device 10 trains a neural network model that represents a field that represents the structure of a substance composed of atomic point groups.
- the data storage unit 100 stores training crystal data that represents the crystal structure of a substance.
- the training crystal data includes position data that represents the positions of the atoms that make up the crystal of the substance, type data that represents the types of atoms that make up the crystal of the substance, and lattice constant data for the crystal of the substance.
- FIG. 9 is a diagram showing an example of multiple training crystal data stored in the data storage unit 100.
- one training crystal data is data representing the crystal structure of a certain substance.
- one training crystal data is stored in such a manner that position data representing the positions of multiple atoms constituting a crystal of a certain substance, type data representing the types of multiple atoms constituting the crystal of the substance, and lattice constant data of the crystal of the substance are associated with each other.
- the position data is three-dimensional position coordinate data for each of the multiple atoms.
- the type data is label data representing the type of each of the multiple atoms.
- the lattice constant data includes the length of the crystal axis and the angle between the axes.
- FIG. 10 is a diagram for explaining the structure of the autoencoder of this embodiment and an overview of the processing executed by the information processing device 10 of this embodiment.
- FIG. 10 is a more simplified diagram of FIG. 1(b).
- the autoencoder AE of this embodiment includes an encoder E, a first decoder D1, a second decoder D2, and a third decoder D3.
- the encoder E when a combination of position data P representing the positions of atoms constituting the crystal of a substance, type data S representing the type of atoms constituting the crystal of a substance, and lattice constant data L of the crystal of a substance is input, the encoder E outputs a latent vector z. Note that one crystal data representing the combination of position data P, type data S, and lattice constant data L is set for one crystal structure of a substance.
- the first decoder D1 when a combination of a query point p, which is a point of interest in a substance, and a latent vector z is input, the first decoder D1 outputs a position field fp representing the position field of atoms constituting the crystal of the substance. Based on this position field fp , estimated position data Pe of the atoms constituting the crystal of the substance is calculated. The calculation method will be described later.
- the second decoder D2 when a combination of a query point p, which is a point of interest in a substance, and a latent vector z is input, the second decoder D2 outputs a type field fs representing the field of the type of atoms that constitute the crystal of the substance. Based on this type field fs , estimated type data Se of the atoms that constitute the crystal of the substance is calculated. The calculation method will be described later.
- the third decoder D3 outputs estimated lattice constant data L e of the crystal of the material when a query point p, which is a point of interest in the material, and a latent vector z are input.
- a case where there is one third decoder D3 will be described as an example, but there may be two third decoders D3.
- the third decoder D3 is composed of a decoder that outputs the length of the crystal axis and a decoder that outputs the inter-axis angle.
- the information processing device 10 of this embodiment learns each parameter of the autoencoder AE by unsupervised machine learning (or self-supervised learning) so that a combination of position data P, type data S, and lattice constant data L input to the autoencoder AE matches a combination of estimated position data P e , estimated type data S e, and estimated lattice constant data L e output from the autoencoder AE.
- a trained first decoder D1, a trained second decoder D2, and a trained third decoder D3, which are components of the trained autoencoder AE are obtained.
- the learning acquisition unit 102 When the learning acquisition unit 102 receives an instruction signal to train the autoencoder AE, it reads out the learning crystal data stored in the data storage unit 100. The learning acquisition unit 102 also sets a learning query point, which is a point of interest within the learning material. The learning acquisition unit 102 may set the learning query point by randomly sampling positions in space within the learning material.
- the learning unit 104 trains the autoencoder AE using unsupervised machine learning, it inputs training crystal data to the encoder E of the autoencoder AE to obtain a latent vector z that represents the crystal structure of the training material.
- the encoder E can be realized, for example, by using the ideas of PointNet [28] or DeepSets [29] described above.
- the learning unit 104 obtains a position field fp representing the position field of atoms constituting the crystal of the training material by inputting a combination of the latent vector z and the training query point p to the first decoder D1 of the autoencoder AE. Then, the learning unit 104 estimates the positions of the atoms constituting the crystal of the training material based on the position field fp output from the first decoder D1.
- FIG. 11 is a diagram for explaining the setting of training query points and position fields. Note that FIG. 11 is a diagram similar to FIG. 2, but is shown again for the sake of explanation. As shown in FIG. 11, multiple training query points are set in space M within the substance. The white circles shown in FIG. 11 represent the training query points. Also, A1, A2, and A3 shown in FIG. 11(a) represent the actual positions of atoms in space M within the substance.
- the learning unit 104 obtains a position field fp as shown in Fig. 11(b) by inputting a combination of a learning query point p and a latent vector z to the first decoder D1.
- Each of the arrows shown in Fig. 11 corresponds to a position field fp .
- the learning unit 104 repeatedly updates the position of each of the multiple training query points according to the position field fp output from the first decoder D1. Specifically, the learning unit 104 generates the position of a new training query point by adding a vector represented by the position field fp to the position of each of the multiple training query points. As a result, as shown in Fig. 11(d), the position of each of the multiple training query points converges to the position of the actual atom. Then, the learning unit 104 obtains estimated positions P e 1 , P e 2, and P e 3 of atoms as shown in Fig. 11(e) based on the positions of each of the multiple training query points, for example, by using Non-max Suppression.
- the learning unit 104 obtains a type field fs representing the field of the types of atoms that make up the crystal of the training material by inputting a combination of the latent vector z and the training query point p to the second decoder D2 of the autoencoder AE.
- the learning unit 104 estimates the types of atoms that make up the crystal of the training material based on the type field fs output from the second decoder D2.
- FIG. 12 is a diagram for explaining the setting of training query points and the type field. Note that FIG. 12 is a diagram similar to FIG. 2, but is shown again for the sake of explanation. As shown in FIG. 12, multiple training query points are set in a space M within the substance. As in FIG. 12, the white circles shown in FIG. 12 represent training query points.
- the learning unit 104 sets a plurality of learning query points for the estimated positions P e 1, P e 2, and P e 3 of atoms and for positions surrounding the estimated positions P e 1, P e 2, and P e 3.
- the learning unit 104 obtains a type field f s by inputting a combination of the training query point p and the latent vector z to the second decoder D2.
- the type field f s corresponds to a probability representing the type of atom obtained for each training query point.
- the examples shown in Fig. 12(g) and (h) indicate that the type of atom located at a certain training query point is most likely to be iron (Fe), and the type of atom located at another training query point is most likely to be copper (Cu).
- the learning unit 104 estimates the type of atom corresponding to each position of the multiple learning query points according to the type field fs output from the second decoder D2. For example, for each of the estimated positions P e 1, P e 2, and P e 3, the learning unit 104 identifies the element with the highest probability at the learning query point corresponding to the estimated position and the element with the highest probability at the learning query points around the estimated position. Then, the learning unit 104 estimates the most frequently occurring element at the multiple learning query points set for each of the estimated positions P e 1, P e 2, and P e 3 as the type of atom at the estimated positions P e 1, P e 2, and P e 3.
- an estimated type S e 1 of the atom present at the estimated position P e 1 an estimated type S e 2 of the atom present at the estimated position P e 2, and an estimated type S e 3 of the atom present at the estimated position P e 3 are obtained.
- the type of atom located at estimated position P e 1 is estimated to be silicon Si
- the type of atom located at estimated position P e 2 is estimated to be iron Fi
- the type of atom located at estimated position P e 3 is estimated to be copper Cu.
- the learning unit 104 obtains lattice constant data L e of the crystal of the learning material by inputting the latent vector z to the third decoder D3 of the autoencoder AE.
- the lattice constant data L e output from the third decoder D3 includes the lengths of the crystal axes and the inter-axis angles.
- the learning unit 104 uses unsupervised machine learning to train the autoencoder AE so that the combination of the estimated atomic positions, estimated atomic types, and lattice constant data output from the third decoder D3 corresponds to the combination of the atomic positions, atomic types, and lattice constant data in the training crystal data, thereby generating a trained first decoder D1 and a trained second decoder D2.
- the learning unit 104 generates the learned first decoder D1 and the learned second decoder D2 by training the autoencoder AE using unsupervised machine learning so that the estimated positions P e 1, P e 2 , P e 3 of the estimated atoms match the atomic position data P1, P2, P3 in the training crystal data, the estimated types S e 1, S e 2, S e 3 of the estimated atoms match the atomic type data S1, S2 , S3 in the training crystal data, and the lattice constant data L e output from the third decoder D3 matches the lattice constant data L in the training crystal data.
- the learning unit 104 stores the trained autoencoder AE in the trained model storage unit 106. Since the trained autoencoder AE also includes a trained first decoder D1, a trained second decoder D2, and a trained third decoder D3, these trained models are also stored in the trained model storage unit 106.
- the trained encoder E when the trained encoder E is input with crystal data representing the crystal structure of a substance, the crystal data including position data representing the positions of the atoms constituting the crystal of the substance, type data representing the types of atoms constituting the crystal of the substance, and lattice constant data of the crystal of the substance, it outputs a latent vector z representing the crystal of the substance.
- the field data representing the field of the structure of a substance in this embodiment is represented by a position field representing the field of the position of the atoms constituting the crystal of the substance, and a type field representing the field of the type of the atoms constituting the crystal of the substance. Therefore, the trained first decoder D1, which is an example of a trained first neural network model, outputs a position field f p corresponding to the query point when an arbitrary vector and a query point are input.
- the trained first decoder D1 and the trained second decoder D2 are examples of trained neural network models that output field data representing the field of the structure of a substance at the query point when an arbitrary vector and a query point are input.
- the trained third decoder outputs lattice constant data L e of the crystal of the material when a combination of an arbitrary vector replacing the latent vector z and a query point is input.
- the acquisition unit 108 When the acquisition unit 108 receives an instruction signal to acquire field data of the crystal structure of the target substance, it reads out the trained first decoder D1 and trained second decoder D2 stored in the trained model storage unit 106. The acquisition unit 108 also acquires, for example, a target vector input by a user and a query point, which is a point of interest within the substance.
- the target vector is an arbitrary vector that replaces the latent vector z, and may be any vector that describes the properties of a material in the same way as the latent vector.
- the target vector may be a vector that represents the physical properties desired by the user.
- the trained first decoder D1 and the trained second decoder D2 are treated as pre-trained models, and are re-trained using the vector that represents the physical properties of the material, so that useful field data is output from the trained first decoder D1 and the trained second decoder D2.
- the processing unit 110 inputs the target vector and the query point acquired by the acquisition unit 108 to the trained first decoder D1 and the trained second decoder D2, thereby acquiring field data corresponding to the query point.
- the processing unit 110 inputs the target vector and the query point acquired by the acquisition unit 108 to the trained first decoder D1, thereby acquiring a position field fp corresponding to the query point. Also, the processing unit 110 inputs the target vector and the query point acquired by the acquisition unit 108 to the trained second decoder D2, thereby acquiring a type field fs corresponding to the query point.
- the field data output from the trained first decoder D1 and the trained second decoder D2 is data that represents the field of the structure of a substance according to the target vector and the query point.
- the target vector is a vector that represents the desired physical properties as described above
- field data corresponding to that vector is output.
- field data at those multiple query points is obtained, and it is also possible to generate a crystal structure of a material having the desired physical properties based on that field data.
- XRD X-ray diffraction
- step S ⁇ b>100 the learning acquisition unit 102 acquires a plurality of learning crystal data stored in the data storage unit 100 .
- step S102 the training acquisition unit 102 sets one training crystal data from the multiple training crystal data acquired in step S100. Then, the training unit 104 sets multiple training query points p i in the space within the substance represented by the set training crystal data, where i is an index for identifying the training query points.
- step S104 the learning unit 104 inputs the position data P, type data S, and lattice constant data L of the learning crystal data set in step S102 to the encoder E of the autoencoder AE, thereby obtaining the latent vector z.
- step S106 the learning unit 104 inputs a combination of the training query point p i set in step S102 and the latent vector z set in step S104 to the first decoder D1 to obtain a position field f p . Note that the learning unit 104 obtains a position field f p for each of the multiple training query points.
- step S108 the learning unit 104 inputs a combination of the training query point p i set in step S102 and the latent vector z set in step S104 to the second decoder D2 to obtain a type field f s . Note that the learning unit 104 obtains a type field f s for each of the multiple training query points.
- step S110 the learning unit 104 acquires lattice constant data L e by inputting a combination of the learning query point p i set in step S102 and the latent vector z set in step S104 to the third decoder D3. Note that the learning unit 104 acquires lattice constant data L e for each of the multiple learning query points.
- step S112 the learning unit 104 estimates the position of the atom based on the position field fp obtained in step S106.
- the learning unit 104 updates the positions of the multiple training query points by the above-mentioned method to obtain a final estimated position Pe .
- step S114 the learning unit 104 estimates the type of the atom based on the estimated position P e of the atom obtained in step S112 and the type field f s obtained in step S108. In this way, the learning unit 104 obtains an estimated type S e of the atom present at the estimated position P e .
- step S116 the learning unit 104 generates a learned first decoder D1 and a learned second decoder D2 by training the autoencoder AE using unsupervised machine learning so that the estimated atomic position P e obtained in step S112 matches the atomic position data P in the training crystal data, the estimated atomic type S e obtained in step S114 matches the atomic type data S in the training crystal data, and the lattice constant data L e obtained in step S110 matches the lattice constant data L in the training crystal data.
- machine learning termination conditions may include whether the machine learning processing has been performed a predetermined number of times or whether the error between the data output from the autoencoder AE and the training crystal data is below a predetermined threshold. Note that, although the above description has been given using an example in which one training crystal data set is set and training is performed, this is not limiting, and machine learning may be performed at once using multiple training crystal data.
- step S118 the learning unit 104 determines whether the above-mentioned termination conditions are satisfied. If the termination conditions are satisfied, the process proceeds to step S120. On the other hand, if the termination conditions are not satisfied, the process returns to step S102.
- step S120 the learning unit 104 stores the trained autoencoder AE obtained by the machine learning processing in steps S102 to S116 in the trained model storage unit 106.
- the information processing device 10 receives the target vector and the query point, it executes the estimation processing routine shown in FIG. 14.
- step S200 the acquisition unit 108 acquires a target vector and a query point.
- step S202 the processing unit 110 reads out the trained first decoder D1 and the trained second decoder D2 stored in the trained model storage unit 106.
- step S204 the processing unit 110 inputs the target vector and the query point obtained in step S200 to the trained first decoder D1 read out in step S202, thereby obtaining a position field fp corresponding to the target vector and the query point.
- step S206 the processing unit 110 inputs the target vector and the query point acquired in step S200 to the trained second decoder D2 read out in step S202, thereby acquiring a type field fs corresponding to the target vector and the query point.
- step S208 the processing unit 110 outputs the position field fp acquired in step S204 and the type field fs acquired in step S206 as results.
- the information processing device 10 can learn a neural network model that expresses a field that represents the structure of a substance that is composed of a group of atomic points. Furthermore, the information processing device 10 can use the neural network model to express a field that represents the structure of a substance that is composed of a group of atomic points.
- the information processing device 10 acquires training crystal data representing the crystal structure of a training substance, the training crystal data including position data representing the positions of atoms constituting the crystal of the training substance, type data representing the type of atoms constituting the crystal of the training substance, and lattice constant data of the crystal of the training substance, and a training query point which is a focus point within the training substance.
- the information processing device 10 acquires a latent vector representing the crystal structure of the training substance by inputting the training crystal data to an encoder of the autoencoder.
- the information processing device 10 acquires a position field representing the field of the positions of atoms constituting the crystal of the training substance by inputting a combination of the latent vector and the training query point to a first decoder of the autoencoder.
- the information processing device 10 estimates the positions of the atoms constituting the crystal of the training substance based on the position field output from the first decoder.
- the information processing device 10 acquires type field data representing the field of the type of atoms constituting the crystal of the training substance by inputting a combination of the latent vector and the training query point to a second decoder of the autoencoder.
- the information processing device 10 estimates the type of atoms constituting the crystal of the training material based on the type field output from the second decoder.
- the information processing device 10 acquires lattice constant data of the crystal of the training material by inputting a combination of the latent vector and the training query point to a third decoder of the autoencoder.
- the information processing device 10 generates a trained first decoder and a trained second decoder by training the autoencoder using unsupervised machine learning so that a combination of the estimated atomic position, the estimated atomic type, and the lattice constant data output from the third decoder corresponds to a combination of the position data, type data, and lattice constant data of the training crystal data.
- the information processing device 10 also acquires a target vector and a query point, which is a point of interest within the substance, and inputs the target vector and the query point to a first decoder and a second decoder, which are an example of a trained neural network model, to acquire field data corresponding to the query point.
- This field data is represented by a position field representing the field of the position of the atoms constituting the crystal of the substance, and a type field representing the field of the type of atoms constituting the crystal of the substance.
- the second decoder When an arbitrary vector in place of the latent vector and the query point are input, the second decoder outputs a type field corresponding to the query point.
- the information processing device 10 acquires a position field corresponding to the query point by inputting the target vector and the query point to the first decoder.
- the information processing device 10 also acquires a type field corresponding to the query point by inputting the target vector and the query point to the second decoder. For example, when the target vector is a vector representing a desired physical property, field data corresponding to the vector is output.
- the trained first decoder D1 and the trained second decoder D2 are used as pre-trained models.
- the case where the field representing the crystal structure is modeled by a neural field has been described as an example, but the present invention is not limited to this. It is also possible to model the structure of a substance composed of a group of atomic points that does not include a repeating structure, as well as a crystal structure that includes a repeating structure, by a neural field. In this case, it may not be necessary to estimate the lattice constant, and therefore the Lattice Decoder shown in FIG. 1 may not be necessary.
- the vector z input to the decoder is a latent vector output from the encoder, but this is not limited to this.
- a configuration may be used in which random noise is used as the vector z.
- an autoencoder including an encoder and a decoder is used as the neural network model, but the present invention is not limited to this.
- Other models may be used as the neural network model, for example, a generative adversarial network (GAN).
- GAN generative adversarial network
- FIGS 15 to 30 are diagrams for explaining the details of this embodiment.
- processors in this case include PLDs (Programmable Logic Devices) such as FPGAs (Field-Programmable Gate Arrays) whose circuit configuration can be changed after manufacture, and dedicated electric circuits such as ASICs (Application Specific Integrated Circuits), which are processors with circuit configurations designed exclusively to execute specific processes.
- PLDs Programmable Logic Devices
- FPGAs Field-Programmable Gate Arrays
- ASICs Application Specific Integrated Circuits
- each process may be executed by one of these various processors, or may be executed by a combination of two or more processors of the same or different types (for example, multiple FPGAs, or a combination of a CPU and an FPGA, etc.).
- the hardware structure of these various processors is, more specifically, an electric circuit that combines circuit elements such as semiconductor elements.
- the programs are described as being stored (e.g., installed) in advance in a storage device, but this is not limiting.
- the programs may be provided in a form stored in a storage medium such as a CD-ROM, DVD-ROM, Blu-ray disc, or USB memory.
- the programs may also be downloaded from an external device via a network.
- An information processing device including a processing unit that uses a neural network model to represent a field that represents a structure of a substance constituted by a group of atomic points.
- the method further includes an acquisition unit that acquires a target vector and a query point that is a point of interest within the material, the neural network model is a trained neural network model that, when an arbitrary vector and the query point are input, outputs field data representing a field of a structure of the material at the query point; the processing unit inputs the target vector and the query point acquired by the acquisition unit to the trained neural network model, thereby acquiring the field data corresponding to the query point; 2.
- the information processing device according to claim 1.
- the field data is represented by a position field representing a field of a position of an atom constituting the crystal of the substance, and a type field representing a field of a type of an atom constituting the crystal of the substance
- the trained neural network model includes a trained first neural network model and a trained second neural network model; the trained first neural network model, when the arbitrary vector and the query point are input, outputs the position field corresponding to the query point; the second trained neural network model, when the arbitrary vector and the query point are input, outputs the type field corresponding to the query point;
- the processing unit includes: acquiring the position field corresponding to the query point by inputting the target vector and the query point acquired by the acquisition unit into the trained first neural network model; acquiring the type field corresponding to the query point by inputting the target vector and the query point acquired by the acquisition unit into the trained second neural network model; 3.
- the information processing device is represented by a position field representing a field of a position of an atom constituting the crystal of the substance, and a type field
- the trained neural network model is A trained model is generated in advance by machine learning based on training crystal data, the training crystal data including: crystal data representing a crystal structure of the substance, the crystal data including position data representing positions of atoms constituting the crystal of the substance, type data representing types of atoms constituting the crystal of the substance, and lattice constant data of the crystal of the substance. 4.
- the information processing device according to claim 2 or 3.
- the trained neural network model is a trained first decoder and a trained second decoder of a trained autoencoder,
- a trained encoder of the trained autoencoder receives crystal data representing a crystal structure of the substance, the crystal data including position data representing positions of atoms constituting the crystal of the substance, type data representing types of atoms constituting the crystal of the substance, and lattice constant data of the crystal of the substance
- the trained encoder outputs a latent vector representing a crystal of the substance
- the trained first decoder when the arbitrary vector replacing the latent vector and the query point are input, outputs the position field corresponding to the query point
- the trained second decoder when the arbitrary vector replacing the latent vector and the query point are input, outputs the type field corresponding to the query point
- the trained first decoder and the trained second decoder are trained models obtained by performing unsupervised machine learning on an autoencoder including an encoder, a first decoder, and a second decoder based on the
- the autoencoder further comprising a third decoder;
- the trained third decoder is a trained model that outputs lattice constant data of a crystal of the substance when the arbitrary vector instead of the latent vector is input. 5.
- the information processing device according to claim 4.
- a trained model generating device including a learning unit that trains a neural network model that expresses a field that represents the structure of a substance composed of atomic point groups.
- the learning acquisition unit further includes: learning crystal data representing a crystal structure of the learning substance, the learning crystal data including position data representing the positions of atoms constituting the crystal of the learning substance, type data representing the types of atoms constituting the crystal of the learning substance, and lattice constant data of the crystal of the learning substance; and a learning query point which is a point of interest within the learning substance;
- the learning unit is When training an autoencoder using unsupervised machine learning, The training crystal data is input to an encoder of the autoencoder to obtain a latent vector representing a crystal structure of the training substance; A combination of the latent vector and the training query point is input to a first decoder of the autoencoder to obtain a position field representing a position field of atoms constituting a crystal of the training substance; estimating positions of atoms constituting the crystal of the learning material based on the position field output from the first decoder; A combination of the latent vector and the training query point is input to a second decoder of the auto
- Appendix 9 An information processing method in which a computer executes a process to represent a field that represents the structure of a substance composed of a group of atomic points using a neural network model.
- Appendix 10 A trained model generation method in which a computer executes processing to train a neural network model that expresses a field that represents the structure of a substance composed of a group of atomic points.
- Appendix 12 A trained model generation program that trains a neural network model that expresses a field that represents the structure of a substance composed of atomic point groups, and allows a computer to execute processing.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Chemical & Material Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Crystallography & Structural Chemistry (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Analysing Materials By The Use Of Radiation (AREA)
Abstract
ニューラルネットワークモデルを利用して、原子点群によって表された物質の構造を表す場を表現する。
Description
本開示は、情報処理装置、学習済みモデル生成装置、情報処理方法、学習済みモデル生成方法、情報処理プログラム、及び学習済みモデル生成プログラムに関する。
従来、3D結晶構造のためのオートエンコーダベースの生成的深層表現学習パイプラインに関する技術が知られている(例えば、Callum J. Court, Batuhan Yildirim, Apoorv Jain, and Jacqueline M. Cole, "3-D Inorganic Crystal Structure Generation and Property Prediction via Representation Learning", J. Chem. inf. Model. 2020, 60, 10, 4518-4535, [令和4年11月18日検索],インターネット<URL:https://pubs.acs.org/doi/10.1021/acs.jcim.0c00464>を参照)。
本開示は、原子点群により構成される物質の構造を表す場を表現することを目的とする。
上記目的を達成するために、本開示に係る情報処理装置は、ニューラルネットワークモデルを利用して、原子点群により構成される物質の構造を表す場を表現する処理部を含む情報処理装置である。
また、本開示の情報処理方法は、ニューラルネットワークモデルを利用して、原子点群により構成される物質の構造を表す場を表現する、処理をコンピュータが実行する情報処理方法である。
また、本開示の情報処理プログラムは、ニューラルネットワークモデルを利用して、原子点群により構成される物質の構造を表す場を表現する、処理をコンピュータに実行させるための情報処理プログラムである。
本開示の情報処理装置、情報処理方法、及び情報処理プログラムによれば、原子点群により構成される物質の構造を表す場を表現することができる。
以下、本開示の実施形態の一例を、図面を参照しつつ説明する。本実施形態では、本開示に係る情報処理装置を例に説明する。なお、各図面において同一又は等価な構成要素及び部分には同一の参照符号を付与している。また、図面の寸法及び比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。
<概要>
結晶、その中でも材料の逆設計法は、「運」や「セレンディピティ」に頼ることなく、求める特性を持った材料を探索する次世代の手法に貢献することができる。本実施形態では、ニューラルネットワークを使用して結晶構造を表現するための正確で実用的なアプローチとして、ニューラル構造フィールド(NeSF)を提案する。物理学におけるベクトル場の概念とコンピュータビジョンにおける暗黙的なニューラル表現に着想を得て、提案されたNeSFは、結晶構造を原子の離散的な集合としてではなく、連続的な場と見なす。既存のグリッドベースの離散空間表現とは異なり、NeSFは空間解像度と計算の複雑さの間のトレードオフを克服し、任意の結晶構造を表現することができる。本実施形態では、NeSFを評価するために、ペロブスカイト構造材料や銅酸塩超伝導体など、さまざまな結晶構造を回復できる結晶構造のオートエンコーダを提案する。広範な定量的結果は、既存のグリッドベースのアプローチと比較して、NeSFの優れたパフォーマンスを示している。なお、以下において[]内の番号は、図21~図23に示されている参考文献番号を表す。
結晶、その中でも材料の逆設計法は、「運」や「セレンディピティ」に頼ることなく、求める特性を持った材料を探索する次世代の手法に貢献することができる。本実施形態では、ニューラルネットワークを使用して結晶構造を表現するための正確で実用的なアプローチとして、ニューラル構造フィールド(NeSF)を提案する。物理学におけるベクトル場の概念とコンピュータビジョンにおける暗黙的なニューラル表現に着想を得て、提案されたNeSFは、結晶構造を原子の離散的な集合としてではなく、連続的な場と見なす。既存のグリッドベースの離散空間表現とは異なり、NeSFは空間解像度と計算の複雑さの間のトレードオフを克服し、任意の結晶構造を表現することができる。本実施形態では、NeSFを評価するために、ペロブスカイト構造材料や銅酸塩超伝導体など、さまざまな結晶構造を回復できる結晶構造のオートエンコーダを提案する。広範な定量的結果は、既存のグリッドベースのアプローチと比較して、NeSFの優れたパフォーマンスを示している。なお、以下において[]内の番号は、図21~図23に示されている参考文献番号を表す。
<1.はじめに>
材料科学の基本的なパラダイムでは、材料特性が結晶構造と密接に結合していると仮定して、構造と特性との関係を考慮する。したがって、材料科学における従来のアプローチでは、材料の構造と特性の関係の理論的および実験的分析が行われ、優れた特性を持つ新しい材料が探索される[1,2]。しかし、これらの従来のアプローチは、労働集約的な人間の分析や「セレンディピティ」にさえ依存している。材料の分析と開発を自動化または支援するために、データ駆動型のアプローチが材料科学で積極的に研究されており、マテリアルズインフォマティクス(MI)の領域が確立されている[3‐6]。物理法則の推定に基づく従来のアプローチとは異なり、MIは、収集された材料のデータセットから、統計および機械学習(ML)手法を介して材料の知識(構造と特性の関係を支配する法則など)を明らかにすることを目的としている。近年、MLの技術的進歩と大規模な材料データベースの出現により、MIは急速に発展している[6,7]。したがって、強力なニューラルネットワークベースのML手法は、MI研究の重要な要素になりつつある[6]。MIのアプリケーションには、結晶構造[6]や組成[8‐11]などの材料特性データからの材料特性の予測、実験データの自動分析[12‐14]、および科学文献からの知識検索のための自然言語処理[15]が含まれる。
材料科学の基本的なパラダイムでは、材料特性が結晶構造と密接に結合していると仮定して、構造と特性との関係を考慮する。したがって、材料科学における従来のアプローチでは、材料の構造と特性の関係の理論的および実験的分析が行われ、優れた特性を持つ新しい材料が探索される[1,2]。しかし、これらの従来のアプローチは、労働集約的な人間の分析や「セレンディピティ」にさえ依存している。材料の分析と開発を自動化または支援するために、データ駆動型のアプローチが材料科学で積極的に研究されており、マテリアルズインフォマティクス(MI)の領域が確立されている[3‐6]。物理法則の推定に基づく従来のアプローチとは異なり、MIは、収集された材料のデータセットから、統計および機械学習(ML)手法を介して材料の知識(構造と特性の関係を支配する法則など)を明らかにすることを目的としている。近年、MLの技術的進歩と大規模な材料データベースの出現により、MIは急速に発展している[6,7]。したがって、強力なニューラルネットワークベースのML手法は、MI研究の重要な要素になりつつある[6]。MIのアプリケーションには、結晶構造[6]や組成[8‐11]などの材料特性データからの材料特性の予測、実験データの自動分析[12‐14]、および科学文献からの知識検索のための自然言語処理[15]が含まれる。
多くのMI研究は、バンドギャップ、ゼーベック係数、弾性率など、特定の材料の特性の予測に焦点を当ててきた[16‐18]。このタイプのタスクを材料間の構造と特性の関係の発見と見なすと、さらに別の重要なタイプのタスク、つまり逆問題を構成する特性と構造の関係の発見がある[19‐23]。
材料の開発におけるこの逆アプローチの潜在的な有用性にもかかわらず、これ[19‐23]またはその根底にある問題[24‐26]、つまり特定の条件下での結晶構造の推定に対処した研究はほとんど無い。MIとMLに関しては、結晶構造を入力するか出力するか(つまり、結晶構造をMIおよびML用語でエンコードまたはデコードするか)によって決定的な違いが生じる。結晶構造の符号化は、グラフニューラルネットワーク[10、16、17、27]を使用して適切に確立されるが、結晶構造の復号化には技術的なボトルネックが残る。この調査では、ボトルネックに対処した。
無機材料の結晶構造は、3次元(3D)空間における原子の規則的かつ周期的な配置である。この配置は、通常、単位セル内の原子の3D位置と種類、および3D空間での単位セルの移動を定義する格子定数によって記述される。単位セル内の原子には明確な順序がなく、その数は1個から数百個までさまざまである。ニューラルネットワークを含むMLモデルは一般に、処理のために固定次元で一貫して順序付けられたテンソルを受け入れるため、MLモデルで結晶構造を扱うことは簡単ではなく[16]、モデルを介して結晶構造を決定することはさらに困難である。
本実施形態では、ニューラルネットワークがそのような構造を解読または決定できるようにする結晶構造の一般的な表現を提案する。私たちのアプローチの根底にある重要な概念を図1に示す。ここでは、結晶構造は、原子の離散セットとしてではなく、3D空間に関連付けられた連続ベクトル場として表される。私たちは、私たちのアプローチを神経構造フィールド(NeSF)と呼んでいる。NeSFは、位置フィールドと種類フィールドの2種類のベクトルフィールドを使用して、結晶構造の単位セル内の原子の位置と種をそれぞれ暗黙的に表す。
NeSFの概念を説明するために、ターゲットの物質情報が固定次元ベクトルzとして与えられていると仮定し、zから結晶構造を復元する問題を考える。入力zは、例えば、材料の結晶構造に関する情報、または生成される材料についてのいくつかの所望の基準を指定することができる。NeSFでは、ニューラルネットワークfが直接結晶構造をf(z)として出力するのではなく、ニューラルネットワークfを陰関数として使用して、zに埋め込まれた結晶構造を間接的に表現する。具体的には、fを3Dデカルト座標p上のベクトルフィールドとして扱い、ターゲット材料情報zを条件とする。
関心のある結晶構造内において、位置フィールドでは、ネットワークfがクエリポイントpから最も近い原子位置aを指す3Dベクトルを出力するようにトレーニングされる。したがって、出力sはa-pであると予想される。位置フィールドが理想的に訓練されている場合、任意のクエリポイントpで最も近い原子の位置aをp+f(p,z)として取得できる。
数学的には、位置フィールドは、スカラーポテンシャル
の勾配ベクトルフィールド-φ(p)として解釈できる。スカラーポテンシャルは、クエリポイントpと最も近い原子の位置{ai}との間の距離の2乗によって表現される。同様に、種類フィールドは、最も近い原子の種類を示すカテゴリカル確率分布を出力するようにトレーニングされる。したがって、種類フィールドの出力次元は候補原子種の数である。
提案されたNeSFは、古典物理学におけるベクトル場の概念とコンピュータビジョンにおける暗黙的なニューラル表現[30‐34]に触発されている。オブジェクトの3D形状推定[31‐33]や自由視点画像合成[30,34]など、3Dコンピュータビジョンアプリケーションにおけるいくつかの表現の問題を処理するために、暗黙的なニューラル表現が最近提案された。3D形状推定では、ニューラルネットワークに3Dメッシュまたは点群を直接出力させると、結晶構造で発生するのと同様の表現の問題が発生する。これらの問題を克服するために、符号付き距離関数(SDF)がDeepSDF[31]で利用され、ニューラルネットワークf(p)はクエリポイントpがオブジェクトボリュームの外側または内側にあるかどうかを正または負の符号で示すことによって3D形状をモデル化し、それぞれのスカラーを出力する。NeSFは、暗黙的な神経表現の基本的な考え方に従い、さらにそれを原子の位置と種によって記述される結晶構造の推定に拡張する。結晶構造における原子位置の正確な記述は、材料科学において非常に重要である。したがって、NeSFは、最も近い原子を指すベクトルを出力して、3Dジオメトリの既存の暗黙的なニューラル表現よりも直接的に原子の位置を表す。
3Dジオメトリ結晶構造を連続ベクトル場として表現するという私たちのアイデアは、最近のMI研究[19,20,22,24‐26]でグリッドベースの離散化(つまり、ボクセル化)を使用して部分的かつ暗黙のうちに検討されてきたが、離散化されたベクトル場としての明示的な考慮は無かった。これらの研究では、単位セル内の3D空間がボクセルに離散化され、各ボクセルに電子密度が割り当てられる。電子密度は、基本的にボクセルの周囲の原子の有無を表す。ただし、1次元(オーディオ信号など)または2次元(画像など)のデータと比較すると、3Dデータの離散化は、計算時間とメモリ空間の両方に関して、空間解像度と計算の複雑さの間のトレードオフにかなり悩まされる。たとえば、ICSG3Dメソッド[24]は、32×32×32ボクセルを使用して結晶構造を表し、3D畳み込みニューラルネットワーク(CNN)を使用してそれらを推定する。ボクセルベースの3DCNNは計算とメモリを大量に消費するため、32×32×32ボクセルの解像度は、標準的なコンピューティングシステムでボクセルベースのモデルをトレーニングするためのおおよその限界である。一方、既存の結晶構造では、単位格子に数十個
以上の原子が含まれていたり、単位格子が伸びたり歪んだりしている。したがって、ボクセルで多様な結晶構造を正確に表現するには、十分に高い解像度が必要である。さらに、ボクセルベースのモデルは、ボクセル空間で離散化された電子密度のスカラーフィールドのピークなどの表現で原子位置を間接的にしか提供できない。提案されたNeSFは、ボクセル化の限界を克服する。NeSFでは、空間解像度と必要なメモリの間に基本的にトレードオフは無い。理論的には、NeSFは、コストのかかる3DCNNの代わりにコンパクトな(メモリ効率とパラメーター効率の高い)ニューラルネットワークを使用して、無限に高い空間解像度を実現できる。さらに、NeSFは、細長いまたは歪んだ単位格子を含む任意の結晶構造を効果的に表すことができる。さらに、NeSFは、スカラーフィールドのピークではなく、原子位置のデカルト座標を直接提供できる。提案されたNeSFは、結晶構造推定のためのMIアプローチの技術的なボトルネックを突破し、この方向でのMI研究の進歩に貢献すると信じている。
以上の原子が含まれていたり、単位格子が伸びたり歪んだりしている。したがって、ボクセルで多様な結晶構造を正確に表現するには、十分に高い解像度が必要である。さらに、ボクセルベースのモデルは、ボクセル空間で離散化された電子密度のスカラーフィールドのピークなどの表現で原子位置を間接的にしか提供できない。提案されたNeSFは、ボクセル化の限界を克服する。NeSFでは、空間解像度と必要なメモリの間に基本的にトレードオフは無い。理論的には、NeSFは、コストのかかる3DCNNの代わりにコンパクトな(メモリ効率とパラメーター効率の高い)ニューラルネットワークを使用して、無限に高い空間解像度を実現できる。さらに、NeSFは、細長いまたは歪んだ単位格子を含む任意の結晶構造を効果的に表すことができる。さらに、NeSFは、スカラーフィールドのピークではなく、原子位置のデカルト座標を直接提供できる。提案されたNeSFは、結晶構造推定のためのMIアプローチの技術的なボトルネックを突破し、この方向でのMI研究の進歩に貢献すると信じている。
次のセクションでは、提案されたNeSFについて詳しく説明し、数値実験を通じてさまざまな結晶構造に対するその表現力を示す。特に、NeSFは、ペロブスカイト材料の比較的基本的な構造から銅酸塩超伝導体の複雑な構造まで、さまざまな結晶構造の回復に成功している。広範な定量的評価の結果は、NeSFがICSG3D[24]のボクセル化アプローチよりも優れていることを示す。
<2 結果と考察>
最初に、NeSFを使用して結晶構造を推定し、NeSFをトレーニングする手順について説明する。次に、NeSFの応用として、結晶構造のオートエンコーダを提示する。このオートエンコーダでは、結晶構造がエンコーダを介してベクトルz(潜在ベクトルと呼ばれる)に埋め込まれ、NeSFがデコーダとして機能し、入力された結晶構造をzから復元する。NeSFベースのオートエンコーダのパフォーマンスは、ボクセル化ベースのICSG3Dベースラインを上回る再構成精度を評価することによって定量的に分析される。学習されたベクトルzの空間を定性的に分析し提案されたオートエンコーダによってこの分析は、学習された空間が、単にランダムに結晶構造を埋め込むのではなく、結晶構造間の類似性を反映していることを示す。
最初に、NeSFを使用して結晶構造を推定し、NeSFをトレーニングする手順について説明する。次に、NeSFの応用として、結晶構造のオートエンコーダを提示する。このオートエンコーダでは、結晶構造がエンコーダを介してベクトルz(潜在ベクトルと呼ばれる)に埋め込まれ、NeSFがデコーダとして機能し、入力された結晶構造をzから復元する。NeSFベースのオートエンコーダのパフォーマンスは、ボクセル化ベースのICSG3Dベースラインを上回る再構成精度を評価することによって定量的に分析される。学習されたベクトルzの空間を定性的に分析し提案されたオートエンコーダによってこの分析は、学習された空間が、単にランダムに結晶構造を埋め込むのではなく、結晶構造間の類似性を反映していることを示す。
<2.1 NeSFによる結晶構造>
推定ターゲットの材料情報がベクトルzとして与えられると、zから結晶構造を推定することは、単位セル内の原子の位置と種を格子定数とともに推定することになる。格子定数は、長さa、b、およびcと角度α、β、およびγとしてモデル化され、入力zを使用した単純な多層パーセプトロン(MLP)によって推定される。一方、原子位置と原子種は、前節で説明したように、NeSFの位置フィールドfpと種類フィールドfsによってそれぞれ推定される。これらのフィールドは単純なMLPとしても実装され、それぞれがクエリ位置pとベクトルzを入力として取り、フィールド値を予測する(つまり、3Dポインティングベクトルまたはカテゴリ確率分布)。NeSFネットワークのアーキテクチャの概要を図1(b)の右側に示す。
推定ターゲットの材料情報がベクトルzとして与えられると、zから結晶構造を推定することは、単位セル内の原子の位置と種を格子定数とともに推定することになる。格子定数は、長さa、b、およびcと角度α、β、およびγとしてモデル化され、入力zを使用した単純な多層パーセプトロン(MLP)によって推定される。一方、原子位置と原子種は、前節で説明したように、NeSFの位置フィールドfpと種類フィールドfsによってそれぞれ推定される。これらのフィールドは単純なMLPとしても実装され、それぞれがクエリ位置pとベクトルzを入力として取り、フィールド値を予測する(つまり、3Dポインティングベクトルまたはカテゴリ確率分布)。NeSFネットワークのアーキテクチャの概要を図1(b)の右側に示す。
エンコーダからベクトルzが与えられると、NeSFを使用した原子位置と種の推定が図2に示され、5つのステップにまとめられる。
1.粒子を初期化する。まず、MLPを介して格子定数を推定する。次に、バウンディングボックス内の3Dグリッドポイントで、パーティクルと呼ばれる初期クエリポイント{p0
i}を定期的に広げる。境界ボックスは各データセットに共通であり、すべてのトレーニングサンプルの原子を大まかに囲むように指定されている。
2.パーティクルを移動する。pt+1
i=pt
i+fp(pt
i,z)に従って、位置
フィールドを使用して各粒子pt iの位置を更新する。このプロセスをすべての粒子に対して繰り返し、{pi}を原子位置の候補として取得する。位置フィールドは最も近い原子位置を指していると予想されるため、粒子はこのプロセスを通じて最も近い原子に向かって移動する。
フィールドを使用して各粒子pt iの位置を更新する。このプロセスをすべての粒子に対して繰り返し、{pi}を原子位置の候補として取得する。位置フィールドは最も近い原子位置を指していると予想されるため、粒子はこのプロセスを通じて最も近い原子に向かって移動する。
3.粒子にスコアを付ける。各粒子piをスコアリングし、外れ値をフィルター処理する。位置フィールドの出力のノルム||fp(pi,z)||は、piから最も近い原子までの推定距離を示すため、各粒子piを||fp(pi,z)||でスコア付けし、スコアが特定のしきい値(この場合は0.9Åに設定)を超える場合、その粒子を破棄する。
4.原子を検出する。この時点まで、粒子は原子の周りにクラスターを形成すると予想される。したがって、単純なクラスタリングアルゴリズムを適用して、各クラスター位置を原子位置として検出し、結晶構造内の原子数を決定する。ここでは、オブジェクト検出、Non-Maximum Suppressionでよく知られているクラスタリングアルゴリズムを使用する。具体的には、候補粒子のリストをBc={pi}として初期化し、受け入れられた粒子の別のリストをBa={}として初期化する。1)Bcからスコアが最も低い(原子に最も近いと推定される)粒子を選択し、Baに移動する。2)選択した粒子の周囲の球状領域内にある粒子をBcから削除する(この研究では球半径は0.5Åに設定した。)。これらの手順をBcが空になるまで繰り返すことにより、Baに格納された選択された粒子として原子位置{ai}を取得する。
5.種類を推定する。最後に、種類フィールドfs(p,z)を使用して、各原子位置aiの原子種を推定する。aiのエラーに対するロバストな推定のために、aiをクエリとして直接使用する代わりに、種類フィールドへのクエリとして各aiの周りに新しい粒子を集中的に広げる。したがって、複数の確率分布が得られ、それぞれが原子aiの種を予測する。その中で最も頻度の高い原子種が最終的な推定値として選択される。
<2.2 NeSFのトレーニング>
NeSFのトレーニングは、上記の推定アルゴリズムとは異なり、はるかに単純である。ユニットセル内の3Dクエリポイント{ps i}をランダムにサンプリングし、これらのポイントでのフィールド出力の損失値を計算する。したがって、fp(ps i,z)とfs(ps i,z)を監視して、それぞれ最も近い原子の位置と種類を示す。ただし、メモリ使用量の実際的な制限のため、クエリポイントを密にサンプリングすることはできない。したがって、トレーニングにはクエリポイントのサンプリング戦略が必要である。DeepSDF[31]などの3D形状推定のための既存の暗黙的なニューラル表現は、表面近くのトレーニングクエリポイントをサンプリングする。カリキュラムDeepSDF[35]はさらにカリキュラム学習を導入し、トレーニングが進むにつれてサンプリング密度が表面近くで強化される。
NeSFのトレーニングは、上記の推定アルゴリズムとは異なり、はるかに単純である。ユニットセル内の3Dクエリポイント{ps i}をランダムにサンプリングし、これらのポイントでのフィールド出力の損失値を計算する。したがって、fp(ps i,z)とfs(ps i,z)を監視して、それぞれ最も近い原子の位置と種類を示す。ただし、メモリ使用量の実際的な制限のため、クエリポイントを密にサンプリングすることはできない。したがって、トレーニングにはクエリポイントのサンプリング戦略が必要である。DeepSDF[31]などの3D形状推定のための既存の暗黙的なニューラル表現は、表面近くのトレーニングクエリポイントをサンプリングする。カリキュラムDeepSDF[35]はさらにカリキュラム学習を導入し、トレーニングが進むにつれてサンプリング密度が表面近くで強化される。
位置フィールドと種類フィールドをトレーニングするための望ましいサンプリング戦略を検討するために、提案されたアルゴリズムでそれらのダイナミクスを検討する。1)粒子は、最も近い原子に向かって位置フィールド内を繰り返し移動する。したがって、位置場は、粒子が目的地まで流れるようにどこでも十分に正確でなければならず、原子の近くでは非常に正確でなければならない。2)種類フィールドは、原子の周りでのみ照会される。したがって、どこでも正確である必要は無いが、推定された原子位置のエラーに対して堅牢でなければならない。
上記の要件を満たすために、2つのサンプリング方法を導入して、位置フィールドと種類フィールドをトレーニングする。1)グローバルグリッドサンプリング:この方法では、単位セル全体を均一にカバーする3Dグリッドポイントを考慮し、ガウス分布に従う摂動でポイントをサンプリングする。2)ローカルグリッドサンプリング:この方法では、各原子位置を中心とするローカル3Dグリッドポイントを考慮し、ガウス分布に従う摂動でポイントをサンプリングする。
位置フィールドをトレーニングするために、両方のサンプリング方法を組み合わせる。したがって、クエリポイントは、ユニットセル全体で均一に、原子の周囲で密にサンプリングされる。種類フィールドをトレーニングするには、ローカルグリッドサンプリングを使用して、トレーニングクエリポイントを原子の近傍に集中させる。
<2.3 結晶構造オートエンコーダ>
NeSFの表現力を実証および評価するために、結晶構造のオートエンコーダを提案する。他の一般的なオートエンコーダと同様に、提案されているNeSFベースのオートエンコーダは、エンコーダとデコーダで構成されている。エンコーダは、入力結晶構造(つまり、単位セル内の原子の位置と種、および格子定数)を抽象的な潜在ベクトルzに変換するニューラルネットワークである。NeSFを使用するデコーダは、潜在ベクトルzから入力結晶構造を再構築する。オートエンコーダは通常、自己教師あり学習を介してデータの潜在的なベクトル表現を学習するために使用される。この学習では、入力データが再構成損失を介して学習を監視できる。
NeSFの表現力を実証および評価するために、結晶構造のオートエンコーダを提案する。他の一般的なオートエンコーダと同様に、提案されているNeSFベースのオートエンコーダは、エンコーダとデコーダで構成されている。エンコーダは、入力結晶構造(つまり、単位セル内の原子の位置と種、および格子定数)を抽象的な潜在ベクトルzに変換するニューラルネットワークである。NeSFを使用するデコーダは、潜在ベクトルzから入力結晶構造を再構築する。オートエンコーダは通常、自己教師あり学習を介してデータの潜在的なベクトル表現を学習するために使用される。この学習では、入力データが再構成損失を介して学習を監視できる。
私たちは結晶構造の解読に焦点を当てているが、その符号化はMIで研究されている。結晶構造は本質的に原子の集合であるため、その符号化では順列に対して不変で可変数の原子を処理する必要がある。MLでは、このようなエンコーダは一般に集合関数と呼ばれる[28,29]。その中で、グラフニューラルネットワークのファミリー[10,16,17,27]は、一般的な結晶構造エンコーダとして機能する。ただし、これらのネットワークは原子の位置をエッジとして暗黙的に表し、正確な座標を破棄しながら原子間の距離をエンコードする。この距離ベースのグラフ表現は、座標系への不変性を確保するための鍵だが、入力での情報の損失は、意図せずに再構成のパフォーマンスを妨げる可能性がある。したがって、PointNet[28]とDeepSets[29]の基本的なエンコーダアーキテクチャを採用する。このアーキテクチャは、集合関数ベースのネットワークの最も単純なタイプを表すだけでなく、入力結晶構造の情報を保存することもできるため、NeSFデコーダの性能評価に適している。提案されたオートエンコーダのアーキテクチャは、図28のセクション4.2で詳述されている。
<トレーニングと評価の手続き>
ICSG3D、limited cell size6Å(LCS6Å)、およびYBCO-like datasetsの3つの材料データセットでオートエンコーダとICSG3D24(ベースライン)をトレーニングおよび評価した。これらのデータセットは、Materials Projectから材料の結晶構造を収集し、さまざまな難易度を持つように設計されている。ICSG3Dデータセット[24]は、マテリアルコレクションであり、限定された結晶系(立方体)とプロトタイプ(つまり、AB、ABX2、およびABX3)を含む7897のマテリアルが含まれている3つのデータセットである。LCS6Åデータセットは、x,y,z軸方向の単位格子サイズが6Å以下の6005の材料で構成されており、結晶系とプロトタイプに制限はない。YBCOのようなデータセットは、c軸に沿って狭い単位セルを持つ100の材料で構成されている。これらの構造には、通常、イットリウムバリウム銅酸化物(YBCO)超伝導体の構造が含まれる。構造が複雑でサンプルが比較的少ないため、YBCOのようなデータセットは、評価された3つのデータセットの中で最も困難である。これらのデータセットの詳細については、図27のセクション4.1を参照されたい。
ICSG3D、limited cell size6Å(LCS6Å)、およびYBCO-like datasetsの3つの材料データセットでオートエンコーダとICSG3D24(ベースライン)をトレーニングおよび評価した。これらのデータセットは、Materials Projectから材料の結晶構造を収集し、さまざまな難易度を持つように設計されている。ICSG3Dデータセット[24]は、マテリアルコレクションであり、限定された結晶系(立方体)とプロトタイプ(つまり、AB、ABX2、およびABX3)を含む7897のマテリアルが含まれている3つのデータセットである。LCS6Åデータセットは、x,y,z軸方向の単位格子サイズが6Å以下の6005の材料で構成されており、結晶系とプロトタイプに制限はない。YBCOのようなデータセットは、c軸に沿って狭い単位セルを持つ100の材料で構成されている。これらの構造には、通常、イットリウムバリウム銅酸化物(YBCO)超伝導体の構造が含まれる。構造が複雑でサンプルが比較的少ないため、YBCOのようなデータセットは、評価された3つのデータセットの中で最も困難である。これらのデータセットの詳細については、図27のセクション4.1を参照されたい。
トレーニングと評価のために、各データセットをトレーニング(90.25%)、検証(4.75%)、およびテスト(5%)セットにランダムに分割した。トレーニングセットは、MLモデルのトレーニングにのみ使用された。検証セットは、トレーニング済みのMLモデルを事前に検証するために使用され、テストセットは、トレーニング、検証、およびハイパーパラメータの調整後に最終的な評価スコアを計算するために使用された。ハイパーパラメータは、LCS6Åデータセットの検証スコアに基づいて調整された。検証スコアランダム性(ネットワークの重みの初期化におけるランダム性など)によるパフォーマンスの変動を減らすために、さまざまなランダムシードでトレーニングと評価を10回繰り返し、スコアの平均と標準偏差を使用してパフォーマンスを評価した。YBCOのようなデータセットには100個のサンプルしかないため、他の2つの評価済みデータセットとは少し異なる方法で処理された。データ分割によるパフォーマンスの変動を減らすために、YBCOのようなデータセットに20倍の交差検証を採用したが、10回ではなく1回評価した。ニューラルネットワークの反復トレーニングは、Adam[36]をオプティマイザとして確率的勾配降下法を使用して実施された。損失関数の定義を含む詳細なトレーニング手順は、図28のセクション4.3で提供される。
再構成性能は、原子数、位置、および種類の誤差に関して測定された。原子数の誤差は、単位セル内の原子数が正しく見積もられていない材料の割合である。位置誤差は、再構成された原子位置の平均誤差である。メトリックの分母に応じて、位置誤差を2つの方法で評価した。実際のメトリックを使用して、推定原子サイトまでの最短距離を計算することにより、結晶構造の実際の原子サイトでの平均位置誤差を評価した。対照的に、検出されたメトリックは、実際の原子サイトまでの最短距離を計算することにより、推定サイトでのエラーを評価するために使用された。実際のメトリックは、原子数の過小評価に関連するエラーに対してより敏感だが、検出されたメトリックは、過大評価に関連するエラーに対してより敏感である。種類エラーは、種類が正しく推定されていない原子の平均割合である。位置誤差と同様に、種類の誤差は、実際の測定基準と検出された測定基準を使用して評価された。これらの指標の値が低いほど、パフォーマンスが優れていることを示している。
<ICSG3Dとの定量的な性能比較>
表1は、3つのデータセットのテストセットにおける、提案されたNeSFベースのオートエンコーダとICSG3Dベースラインの再構成エラーを示している。全体として、提案された方法は、すべての評価指標でICSG3Dよりも一貫して優れており、すべてのデータセットの種類エラーとYBCOのようなデータセットのすべての指標のパフォーマンスが大幅に向上している。図3は、3つの評価されたデータセットからの結晶構造を示しており、テストサンプルと、提案されたオートエンコーダとICSG3Dによる再構成結果を比較している。
表1は、3つのデータセットのテストセットにおける、提案されたNeSFベースのオートエンコーダとICSG3Dベースラインの再構成エラーを示している。全体として、提案された方法は、すべての評価指標でICSG3Dよりも一貫して優れており、すべてのデータセットの種類エラーとYBCOのようなデータセットのすべての指標のパフォーマンスが大幅に向上している。図3は、3つの評価されたデータセットからの結晶構造を示しており、テストサンプルと、提案されたオートエンコーダとICSG3Dによる再構成結果を比較している。
3つのデータセットの中で最も簡単なICSG3Dデータセットの場合、ICSG3Dは原子数のエラーと位置エラーに対して優れたパフォーマンスを達成したが、種類のエラーが大きくなる(実際のメトリックと検出されたメトリックの両方で約65%)。対照的に、提案された方法では、位置誤差と原子数の誤差がわずかに改善され、種の誤差が大幅に減少した(約4%)。これは、ICSG3Dが電子密度マップを介して原子種を推定するためであると考えられるが、提案された方法は原子種をカテゴリ分布としてより直接的に表す。ICSG3Dを拡張して各ボクセルのカテゴリ分布を推定することは、出力で約100×323倍のメモリ使用量が必要になるため、現実的でない(つまり、1つの電子密度マップに加えて、323ボクセルごとに100種カテゴリが必要である)。
ICSG3Dデータセットよりも困難なLCS6ÅおよびYBCOのようなデータセットの場合、特に位置誤差に関して、提案された方法のパフォーマンス上の利点はさらに明確である。LCS6Åデータセットにはさまざまな結晶構造(非立方体構造、歪んだ結晶構造など)が含まれているが、YBCO様データセットには非常に狭い結晶構造が含まれている。さらに、YBCOのようなデータセットにはサンプルがほとんど含まれていないため、モデルのオーバーフィッティングにつながる可能性がある(つまり、テストセットのパフォーマンスが大幅に低下する可能性がある)。これらの困難にもかかわらず、提案された方法は、原子の位置と種を正確に推定できる。
メソッドのパフォーマンスと構造の複雑さの関係を詳細に分析するために、図4は、中央値(ポイント)として与えられた原子の数と、それらの周りの68%の範囲(色付きの領域)に応じた、ICSG3DおよびLCS6Åデータセットからの材料についての10回のテスト試行における再構成エラーの分布を示している。YBCOのようなデータセットは、単位セルに13個の原子を持つ材料のみを含むため、この分析から除外される。図4aと4bは、検出された原子数と実際の原子数の間の符号付き誤差を示している。これらの結果は、両方の方法が、ICSG3Dデータセット内のサンプルのほとんど(つまり、68%以上)の原子数を正しく推定していることを示している(図4a)。ただし、ICSG3Dメソッドは、LCS6Åデータセットの原子数を過小評価している(図4b)。同様に、図4cおよび4dは、位置誤差の分布を示し、図4cおよび4dは、位置誤差の分布を示す。図4eと4fは、種類の誤差の分布を示している。ほとんどの場合、原子数は両方の方法で正しく推定されるか、過小評価されるため、実際の測定基準でエラーを報告する。図4eのx=2での分布を調べると、ICSG3Dデータセットの二原子構造の種エラーの傾向を判断できる。
提案された方法は、二原子物質の68%以上について両方の原子の正しい種類を提供するが、ICSG3Dは2つの原子のうちの1つの種類をしばしば誤って推定する。全体として、両方の方法による3種類のエラーは原子数とともに増加する傾向があるが、原子数が変化する材料に対しては、一貫してICSG3Dよりも優れた結果が得られる。私たちの方法と比較して、ICSG3Dのパフォーマンスは、原子数の多い材料でより顕著に低下する傾向がある。ICSG3Dは、原子数を過小評価する傾向にあり(図4b)、この傾向は、ICSG3Dの空間分解能が32×32×32ボクセルに制限されているためであると考えられる。このことは、ICSG3Dが多原子構造を捉えることができないということを示唆している。
提案手法の注目すべき高いパフォーマンスは、2つの理由に起因すると考えられる。まず、私たちの方法は離散化を使用しないため、複雑な結晶構造を推定するためにグリッドベースのICSG3Dよりも有利である。グリッドベースの方法では、空間解像度は、立方体的に増加する計算とメモリ使用量によって制限される。提案されたNeSFは、解像度と計算の複雑さの間のこのようなトレードオフから解放されているため、複雑な構造を効果的に表すことができる。第二に、MLPを使用する提案されたNeSFのモデルサイズは、ICSG3Dの3DCNNアーキテクチャのモデルサイズよりもはるかに小さい。一般に、MLモデルに必要なトレーニングサンプルの数は、トレーニング可能なパラメーターの数と相関している。グリッドベースの方法では、多くのトレーニング可能なパラメーターを含む3D畳み込みフィルターのレイヤーを使用する。対照的に、NeSFは暗黙的なニューラル表現を使用して、3D空間をボクセルではなくフィールドとして間接的に記述する。したがって、3DCNNよりも少ないパラメーターでMLPによって効率的に実装される。具体的には、NeSFベースのオートエンコーダには76万個のパラメーターがあり、これは3DCNNベースのICSG3D(3,400万個のパラメーター)のパラメーター数の2.24%にすぎない。この違いにより、特にYBCOのようなデータセットなどの小さなデータセットでは、グリッドベースの方法よりもNeSFが有利になる。
<2.4 潜在空間補間>
結晶構造の学習された潜在空間を検査することにより、提案されたNeSFベースのオートエンコーダの特性を定性的に分析した。一般に、優れた潜在空間は、類似した項目(プロパティ、特性、カテゴリなどの点で)を空間内で密接にマッピングする必要がある。これにより、人間と機械による分析を容易にする潜在データ表現が提供される。結晶構造の潜在空間の構築を評価するために、潜在空間の遷移を一連の結晶構造として可視化した。潜在空間が構造的類似性の観点から材料間の関係を捉えるように訓練されている場合、潜在空間内の2点間を補間すると、類似の結晶構造を持つ一連の材料が生成されるはずである。
結晶構造の学習された潜在空間を検査することにより、提案されたNeSFベースのオートエンコーダの特性を定性的に分析した。一般に、優れた潜在空間は、類似した項目(プロパティ、特性、カテゴリなどの点で)を空間内で密接にマッピングする必要がある。これにより、人間と機械による分析を容易にする潜在データ表現が提供される。結晶構造の潜在空間の構築を評価するために、潜在空間の遷移を一連の結晶構造として可視化した。潜在空間が構造的類似性の観点から材料間の関係を捉えるように訓練されている場合、潜在空間内の2点間を補間すると、類似の結晶構造を持つ一連の材料が生成されるはずである。
補間分析は次のように進められる。
1.ソースおよび宛先のマテリアルとしてICSG3Dテストセットを設定し、トレーニング済みエンコーダを介してzsrcおよびzdstとしてそれらの潜在ベクトルを取得する。
2.潜在ベクトルのシーケンスを取得するために、潜在空間でzsrcとzdstの間を線形に補間する。
3.トレーニング済みデコーダ(NeSF)を介して各潜在ベクトルをデコードし、その結晶構造を取得する。
ソースと宛先の間の中間結晶構造は、トレーニング済みデコーダを介して潜在ベクトルから再構築されるため、これらの構造はデータセットに表示されない場合がある。
分析の解釈を容易にするために、よく知られているzinc-blendeおよびrock-salt structure familiesをベンチマーク材料として選択した。どちらのファミリーもAXで与えられる組成を持ち、Aは陽イオン、Xは陰イオンであり、結晶構造は立方晶系に基づいている。したがって、ソースと宛先のマテリアルがこれらのファミリーのいずれかに属している場合、特徴的な構成と構造プロトタイプは補間パス全体で保持する必要がある。
最初の例として、ZnS(mp-10695)からCdS(mp-2469)への補間結果を図5に示す。得られた組成式の遷移は、ZnS→MgZn3S4(Mg0.25Zn0.75S)→MgZnS2(Mg0.5Zn0.5S)→Mg3ZnS4(Mg0.75Zn0.25S)→MgS→MgCd3S4(Mg0.25Cd0.75S)→CdSである。
2番目の例として、MgO(mp‐1265)からNaCl(mp‐22862)への補間の結果を図6に示す。得られた組成式の遷移は、MgO→NaMgO2(Na0.5Mg0.5O)→NaO→Na2ClO(NaCl0.5O0.5)→Na4Cl3O(
NaCl0.75O0.25)→NaClである。
NaCl0.75O0.25)→NaClである。
さらに、SIにおいて、NaCl(mp‐22862)からPbSへ、MgO(mp‐1265)からCaO(mp‐2605)へ、PbS(mp‐21276)からCaO(mp‐2605)への内挿の結果を提供する。
補間の例では、組成AXと立方体構造がほとんど保持されている。さらに、構図は補間パスに沿って崩壊することなく連続的に変化する。これらの結果は、私たちのエンコーダが結晶構造の特徴を抽象的な空間で捉えることによって意味のある連続表現を学習し、提案されたNeSFモデルがこれらの表現を結晶構造にうまくデコードすることを示唆している。
<2.5 限界と将来の方向性>
この研究は主に、暗黙的なニューラル表現を使用して結晶構造を推定するための基本的なアプローチの開発に焦点を当てた。さらなる改善の余地と将来の作業における重要な方向性を示唆するために、NeSFの3つの主な制限を特定した。
この研究は主に、暗黙的なニューラル表現を使用して結晶構造を推定するための基本的なアプローチの開発に焦点を当てた。さらなる改善の余地と将来の作業における重要な方向性を示唆するために、NeSFの3つの主な制限を特定した。
まず、NeSFは比較的単純なネットワークアーキテクチャを採用しており、アーキテクチャ設計の選択肢が十分に検討されていなかった。たとえば、NeSFは要素を相互に独立したカテゴリカル(ワンホット)ベクトルとして扱う。したがって、要素の物理的特性や類似性を使用してモデルを明示的にトレーニングすることは無い。一方、他の開発では、要素の物理的特性と機能をモデルに明示的に注入しようとした。たとえば、既存の結晶構造エンコーダ[16]は、ワンホットベクトルを使用する代わりに、グループと周期、電子密度、原子半径、電気陰性度などのフィンガープリントを使用して入力要素を表す。ICSG3D24では、原子種の出力は、私たちの方法で考慮されるカテゴリカルロスではなく、原子番号の平均二乗誤差を使用してトレーニングされる。これらのスキームをモデルに組み込むことで、潜在空間内の要素と再構築された結晶構造の間の特性と類似性を反映できる可能性がある。NeSFに関するもう1つのアーキテクチャ上の選択は、結晶構造を表現するために従来の(現在の選択)またはprimitive cellを使用するかどうかである。どちらの形式にも、アプリケーションに応じて長所と短所がある。従来のユニットセルは、手動分析を容易にするより直感的な視覚化を提供するが、プリミティブユニットセルは、コンピュータ処理を容易にする可能性のあるよりコンパクトな構造表現を提供する。今後の作業では、ネットワークアーキテクチャの設計を徹底的に分析する必要がある。
別の制限は、提案されたNeSFが空間群の対称性を明示的に考慮していないことである。したがって、NeSFによって推定される従来の単位セル内の原子の局所的な空間配置は、必ずしも空間群対称性には従わない。ICSG3D[24]にも同じ制限があるが、対称性は結晶学における重要な概念である。したがって、空間群対称性の制約をNeSFに組み込むことは、将来の作業の重要な方向性である。
最後に、評価目的で、変分オートエンコーダ[16,25,37]や敵対的生成ネットワーク[26,37‐39]などの生成モデルではなく、オートエンコーダキテクチャを採用した。これらの生成モデルは、潜在的な構造表現を意図的に乱して、データセットには表示されない多様な構造を生成する。生成モデルのこの側面は、新しい構造の発見により適しているが、グラウンドトゥルース構造の欠如により、定量的で信頼性の高いパフォーマンス分析が妨げられる。
NeSFは、適切なパフォーマンス分析を使用して、将来の作業で生成モデルに適用する必要がある。
<3 まとめ>
本実施形態では、ニューラルネットワークを用いて結晶構造を推定するNeSFを提案した。ニューラルネットワークを使用して結晶構造を直接決定することは困難である。これらの構造は基本的に、さまざまな数の原子を含む順序付けられていない集合として表されるためである。NeSFは、結晶構造を離散的な原子の集合としてではなく、連続したベクトル場として扱うことで、この問題を克服している。NeSFのアイデアは、物理学におけるベクトル場と、コンピュータビジョンにおける最近の暗黙的なニューラル表現から借用している。暗黙的ニューラル表現は、ニューラルネットワークを使用して3Dジオメトリを表すML手法である。NeSFは、位置フィールドと種類フィールドを導入してこの手法を拡張し、結晶構造の原子位置と種をそれぞれ推定する。結晶構造を表現するための既存のグリッドベースのアプローチとは異なり、NeSFは空間分解能と計算の複雑さの間のトレードオフがなく、任意の結晶構造を表現できる。
本実施形態では、ニューラルネットワークを用いて結晶構造を推定するNeSFを提案した。ニューラルネットワークを使用して結晶構造を直接決定することは困難である。これらの構造は基本的に、さまざまな数の原子を含む順序付けられていない集合として表されるためである。NeSFは、結晶構造を離散的な原子の集合としてではなく、連続したベクトル場として扱うことで、この問題を克服している。NeSFのアイデアは、物理学におけるベクトル場と、コンピュータビジョンにおける最近の暗黙的なニューラル表現から借用している。暗黙的ニューラル表現は、ニューラルネットワークを使用して3Dジオメトリを表すML手法である。NeSFは、位置フィールドと種類フィールドを導入してこの手法を拡張し、結晶構造の原子位置と種をそれぞれ推定する。結晶構造を表現するための既存のグリッドベースのアプローチとは異なり、NeSFは空間分解能と計算の複雑さの間のトレードオフがなく、任意の結晶構造を表現できる。
NeSFは結晶構造のオートエンコーダとして適用され、多様な結晶構造を持つデータセットでその性能と表現力を実証した。定量的性能分析は、特に複雑な結晶構造の推定において、既存のグリッドベースの方法よりもNeSFベースのオートエンコーダの明確な利点を示しました。さらに、学習した潜在空間の定性的分析により、オートエンコーダが結晶構造をランダムにマッピングするのではなく、結晶構造間の類似性を捉えることが明らかになった。
材料科学では、結晶構造の設計と構築は、目的の特性を持つ材料を検索する際の基本的なプロセスである。MLはニューラルネットワークの発達により急速に進歩しており、それらのネットワークを使用して任意の結晶構造を表現することは、次世代の材料開発に不可欠である。たとえば、NeSFは、変分オートエンコーダや敵対的生成ネットワークなどの強力な深層生成モデルに簡単に組み込むことができ、新しい結晶構造を発見できる。このような結晶構造の生成モデルは、MIの主要な課題である材料の逆設計にとって重要になる。NeSFは、結晶構造推定におけるMLの技術的なボトルネックを克服し、次世代の材料開発への道を開くことができる。
図7は、本実施形態に係る情報処理装置10のハードウェア構成を示すブロック図である。図7に示されるように、情報処理装置10は、CPU(Central Processing Unit)12、メモリ14、記憶装置16、入出力I/F(Interface)18、記憶媒体読取装置20、及び通信I/F22を有する。各構成は、バス24を介して相互に通信可能に接続されている。
記憶装置16には、後述する各処理を実行するための情報処理プログラムが格納されている。CPU12は、中央演算処理ユニットであり、各種プログラムを実行したり、各構成を制御したりする。すなわち、CPU12は、記憶装置16からプログラムを読み出し、メモリ14を作業領域としてプログラムを実行する。CPU12は、記憶装置16に記憶されているプログラムに従って、上記各種の演算処理を行う。
メモリ14は、RAM(Random Access Memory)により構成され、作業領域として一時的にプログラム及びデータを記憶する。記憶装置16は、ROM(Read Only Memory)、及びHDD(Hard Disk Drive)、SSD(Solid State Drive)等により構成され、オペレーティングシステムを含む各種プログラム、及び各種データを格納する。
入出力I/F18は、外部装置からのデータの入力、及び外部装置へのデータの出力を行うインタフェースである。また、例えば、キーボードやマウス等の、各種の入力を行うための入力装置、及び、例えば、ディスプレイやプリンタ等の、各種の情報を出力するための出力装置が接続されてもよい。出力装置として、タッチパネルディスプレイを採用することにより、入力装置として機能させてもよい。
記憶媒体読取装置20は、CD(Compact Disc)-ROM、DVD(Digital Versatile Disc)-ROM、ブルーレイディスク、USB(Universal Serial Bus)メモリ等の各種記憶媒体に記憶されたデータの読み込みや、記憶媒体に対するデータの書き込み等を行う。
通信I/F22は、他の機器と通信するためのインタフェースであり、例えば、イーサネット(登録商標)、FDDI、Wi-Fi(登録商標)等の規格が用いられる。
本実施形態の情報処理装置10は、上述したような手法を用いて、エンコーダとデコーダとを含んで構成されるオートエンコーダを学習させる。これにより、ニューラルネットワークモデルを利用して原子点群により構成される物質の構造を表す場を表現することができる。
次に、情報処理装置10の機能構成について説明する。図8に示されるように、情報処理装置10は、機能的には、学習用取得部102と、学習部104と、取得部108と、処理部110とを含む。また、情報処理装置10の所定の記憶領域には、データ記憶部100と、学習済みモデル記憶部106とが設けられている。各機能構成は、CPU12が記憶装置16に記憶された各プログラムを読み出し、メモリ14に展開して実行することにより実現される。
まず、情報処理装置10は、原子点群により構成される物質の構造を表す場を表現するニューラルネットワークモデルを学習させる。
データ記憶部100には、物質の結晶構造を表す学習用結晶データが格納されている。学習用結晶データは、物質の結晶を構成する原子の位置を表す位置データと、物質の結晶を構成する原子の種類を表す種類データと、物質の結晶の格子定数データとを含んで構成されている。
図9は、データ記憶部100に格納される複数の学習用結晶データの一例を示す図である。図9に示されているように、1つの学習用結晶データは、ある1つの物質の結晶構造を表すデータである。図9に示されているように、1つの学習用結晶データは、ある物質の結晶を構成する複数の原子の位置を表す位置データと、当該物質の結晶を構成する複数の原子の種類を表す種類データと、当該物質の結晶の格子定数データとが対応付けられて格納される。位置データは、複数の原子の各々の3次元位置座標データである。また、種類データは、複数の原子の各々の種類を表すラベルデータである。また、格子定数データには、結晶軸の長さと軸間角度とが含まれている。
図10は、本実施形態のオートエンコーダの構造と、本実施形態の情報処理装置10が実行する処理の概要とを説明するための図である。図10は、図1(b)をより簡略化した図である。
図10に示されているように、本実施形態のオートエンコーダAEは、エンコーダEと、第1デコーダD1と、第2デコーダD2と、第3デコーダD3とを含んで構成されている。
図10に示されているように、エンコーダEは、物質の結晶を構成する原子の位置を表す位置データPと、物質の結晶を構成する原子の種類を表す種類データSと、物質の結晶の格子定数データLとの組み合わせが入力されると、潜在ベクトルzを出力する。なお、1つの物質の結晶構造に対して、位置データPと種類データSと格子定数データLとの組み合わせを表す1つの結晶データが設定される。
また、図10に示されているように、第1デコーダD1は、物質内の着目点であるクエリポイントpと潜在ベクトルzとの組み合わせが入力されると、物質の結晶を構成する原子の位置の場を表す位置フィールドfpを出力する。この位置フィールドfpに基づいて、当該物質の結晶を構成する原子の推定位置データPeが計算される。計算方法は後述する。
また、図10に示されているように、第2デコーダD2は、物質内の着目点であるクエリポイントpと潜在ベクトルzとの組み合わせが入力されると、物質の結晶を構成する原子の種類の場を表す種類フィールドfsを出力する。この種類フィールドfsに基づいて、当該物質の結晶を構成する原子の推定種類データSeが計算される。計算方法は後述する。
また、図10に示されているように、第3デコーダD3は、物質内の着目点であるクエリポイントpと潜在ベクトルzが入力されると、物質の結晶の推定格子定数データLeを出力する。なお、本実施形態では、第3デコーダD3が1つである場合を例に説明するが、第3デコーダD3は2つであってもよい。この場合には、例えば、第3デコーダD3は、結晶軸の長さを出力するデコーダと、軸間角度を出力するデコーダとによって構成される。
本実施形態の情報処理装置10は、オートエンコーダAEに入力される位置データPと種類データSと格子定数データLとの組み合わせと、オートエンコーダAEから出力される推定位置データPeと推定種類データSeと推定格子定数データLeとの組み合わせとが一致するように、教師なし機械学習(又は、自己教師あり学習)によってオートエンコーダAEの各パラメーターを学習させる。これにより、学習済みのオートエンコーダAEが得られる。また、学習済みのオートエンコーダAEの構成要素である、学習済みの第1デコーダD1、学習済みの第2デコーダD2、及び学習済みの第3デコーダD3が得られる。
学習用取得部102は、オートエンコーダAEを学習させる旨の指示信号を受け付けると、データ記憶部100に格納されている学習用結晶データを読み出す。また、学習用取得部102は、学習用の物質内の着目点である学習用クエリポイントを設定する。なお、学習用取得部102は、学習用の物質内の空間中の位置をランダムにサンプリングすることにより、学習用クエリポイントを設定するようにしてもよい。
学習部104は、教師なし機械学習を用いてオートエンコーダAEを学習させる際に、オートエンコーダAEのうちのエンコーダEに対して学習用結晶データを入力することにより、学習用の物質の結晶構造を表す潜在ベクトルzを取得する。なお、エンコーダEは、例えば、上述したPointNet[28]又はDeepSets[29]のアイデアを用いることによって実現することが可能である。
次に、学習部104は、オートエンコーダAEのうちの第1デコーダD1に対して、潜在ベクトルzと学習用クエリポイントpとの組み合わせを入力することにより、学習用の物質の結晶を構成する原子の位置の場を表す位置フィールドfpを取得する。そして、学習部104は、第1デコーダD1から出力された位置フィールドfpに基づいて、学習用の物質の結晶を構成する原子の位置を推定する。
図11は、学習用クエリポイントの設定と位置フィールドとを説明するための図である。なお、図11は、図2と同様の図であるが、説明のために再掲する。図11に示されているように、物質内の空間Mにおいて、複数の学習用クエリポイントが設定される。図11に示されている白い丸が学習用クエリポイントを表している。また、図11(a)に示されているA1,A2,A3は、物質内の空間Mにおける実際の原子の位置を表している。
学習部104は、第1デコーダD1に対して学習用クエリポイントpと潜在ベクトルzとの組み合わせを入力することにより、図11(b)に示されるような位置フィールドfpを取得する。図11に示されている矢印の各々が位置フィールドfpに対応する。
そして、学習部104は、図11(b)(c)に示されるように、第1デコーダD1から出力される位置フィールドfpに応じて、複数の学習用クエリポイントの各々の位置を更新することを繰り返す。具体的には、学習部104は、複数の学習用クエリポイントの各々の位置に対して、位置フィールドfpが表すベクトルを加算することにより、新たな学習用クエリポイントの位置を生成する。これにより、図11(d)に示されるように、複数の学習用クエリポイントの各々の位置は、実際の原子の位置へと収束する。そして、学習部104は、複数の学習用クエリポイントの各々の位置に基づいて、例えば、Non-max Suppressionを用いることにより、図11(e)に示されているような原子の推定位置Pe1,Pe2,Pe3を得る。
次に、学習部104は、オートエンコーダAEのうちの第2デコーダD2に対して、潜在ベクトルzと学習用クエリポイントpとの組み合わせを入力することにより、学習用の物質の結晶を構成する原子の種類の場を表す種類フィールドfsを取得する。そして、学習部104は、第2デコーダD2から出力された種類フィールドfsに基づいて、学習用の物質の結晶を構成する原子の種類を推定する。
図12は、学習用クエリポイントの設定と種類フィールドとを説明するための図である。なお、図12は、図2と同様の図であるが、説明のために再掲する。図12に示されているように、物質内の空間Mにおいて、複数の学習用クエリポイントが設定される。図12と同様に、図12に示されている白い丸が学習用クエリポイントを表している。
具体的には、学習部104は、図12(f)(g)に示されているように、原子の推定位置Pe1,Pe2,Pe3の位置と、推定位置Pe1,Pe2,Pe3の周囲の位置とに対して複数の学習用クエリポイントを設定する。
そして、学習部104は、第2デコーダD2に対して学習用クエリポイントpと潜在ベクトルzとの組み合わせを入力することにより、種類フィールドfsを取得する。図12(g)に示されているように、種類フィールドfsは、学習用クエリポイント毎に得られる原子の種類を表す確率に相当する。図12(g)(h)に示されている例では、ある学習用クエリポイントに位置する原子の種類は鉄Feである確率が最も高く、別の学習用クエリポイントに位置する原子の種類は銅Cuである確率が最も高いことが表されている。
そして、学習部104は、図12(g)(h)に示されるように、第2デコーダD2から出力される種類フィールドfsに応じて、複数の学習用クエリポイントの各々の位置に相当する原子の種類を推定する。例えば、学習部104は、推定位置Pe1,Pe2,Pe3の各々について、当該推定位置に相当する学習用クエリポイントにおいて最も確率が高かった元素と、当該推定位置の周囲の学習用クエリポイントにおいて最も確率が高かった元素とを特定する。そして、学習部104は、推定位置Pe1,Pe2,Pe3の各々に対して設定された複数の学習用クエリポイントにおいて最頻出の元素を、推定位置Pe1,Pe2,Pe3における原子の種類として推定する。このため、推定位置Pe1に存在する原子の推定種類Se1と、推定位置Pe2に存在する原子の推定種類Se2と、推定位置Pe3に存在する原子の推定種類Se3とが得られる。
例えば、図12(i)に示されているように、推定位置Pe1に位置する原子の種類はシリコンSiであると推定され、推定位置Pe2に位置する原子の種類は鉄Fiであると推定され、推定位置Pe3に位置する原子の種類は銅Cuであると推定される。
次に、学習部104は、オートエンコーダAEのうちの第3デコーダD3に対して、潜在ベクトルzを入力することにより、学習用の物質の結晶の格子定数データLeを取得する。第3デコーダD3から出力された格子定数データLeには、結晶軸の長さと軸間角度とが含まれている。
そして、学習部104は、推定された原子の位置、推定された原子の種類、及び第3デコーダD3から出力された格子定数データとの組み合わせと、学習用結晶データにおける、原子の位置、原子の種類、及び格子定数データとの組み合わせとが対応するように、教師なし機械学習を用いてオートエンコーダAEを学習させることにより、学習済みの第1デコーダD1と学習済みの第2デコーダD2とを生成する。
例えば、上記の例においては、学習部104は、推定された原子の推定位置Pe1,Pe2,Pe3と学習用結晶データにおける原子の位置データP1,P2,P3とが一致し、かつ推定された原子の推定種類Se1,Se2,Se3と学習用結晶データにおける原子の種類データS1,S2,S3とが一致し、かつ第3デコーダD3から出力された格子定数データLeと学習用結晶データにおける格子定数データLとが一致するように、教師なし機械学習を用いてオートエンコーダAEを学習させることにより、学習済みの第1デコーダD1と学習済みの第2デコーダD2とを生成する。
学習部104は、学習済みのオートエンコーダAEを、学習済みモデル記憶部106へ格納する。学習済みのオートエンコーダAEには、学習済みの第1デコーダD1、学習済みの第2デコーダD2、及び学習済みの第3デコーダD3も含まれているため、それらの学習済みモデルも学習済みモデル記憶部106へ格納される。
なお、学習済みのエンコーダEは、物質の結晶構造を表す結晶データであって、物質の結晶を構成する原子の位置を表す位置データと、物質の結晶を構成する原子の種類を表す種類データと、物質の結晶の格子定数データとを含む結晶データが入力されると、物質の結晶を表す潜在ベクトルzを出力する。
上述したように、本実施形態の物質の構造の場を表すフィールドデータは、物質の結晶を構成する原子の位置の場を表す位置フィールドと、物質の結晶を構成する原子の種類の場を表す種類フィールドとによって表される。このため、学習済みの第1ニューラルネットワークモデルの一例である学習済みの第1デコーダD1は、任意のベクトルとクエリポイントとが入力されると、クエリポイントに対応する位置フィールドfpを出力する。また、学習済みの第2ニューラルネットワークモデルの一例である第2デコーダD2は、任意のベクトルとクエリポイントとが入力されると、クエリポイントに対応する種類フィールドfsを出力する。なお、学習済みの第1デコーダD1及び学習済みの第2デコーダD2は、任意のベクトルとクエリポイントとが入力されると、クエリポイントにおける物質の構造の場を表すフィールドデータを出力する学習済みニューラルネットワークモデルの一例である。
学習済みの第3デコーダは、潜在ベクトルzに代わる任意のベクトルとクエリポイントとの組み合わせが入力されると、物質の結晶の格子定数データLeを出力する。
取得部108は、対象物質の結晶構造のフィールドデータを取得する旨の指示信号を受け付けると、学習済みモデル記憶部106に格納されている学習済み第1デコーダD1及び学習済み第2デコーダD2を読み出す。また、取得部108は、例えば、ユーザから入力された対象ベクトルと物質内の着目点であるクエリポイントとを取得する。
なお、対象ベクトルは、潜在ベクトルzに代わる任意のベクトルであり、潜在ベクトルと同様に材料の性質を記述するものであればどのようなベクトルであってもよい。例えば、対象ベクトルは、ユーザが所望する物性を表すベクトルであってもよい。例えば、対象ベクトルの第1成分には[bandgap = xxx]が格納され、第2成分には[formation energy = xxx]が格納されているような物質の物性を表すベクトルであってもよい。この場合には、学習済みの第1デコーダD1及び学習済みの第2デコーダD2は事前学習モデルとして扱われ、物質の物性を表すベクトルによって再学習がされることにより、学習済みの第1デコーダD1及び学習済みの第2デコーダD2から有用なフィールドデータが出力されることになる。
処理部110は、学習済み第1デコーダD1及び学習済み第2デコーダD2に対して、取得部108により取得された対象ベクトルとクエリポイントとを入力することにより、クエリポイントに対応するフィールドデータを取得する。
具体的には、処理部110は、学習済み第1デコーダD1に対して、取得部108により取得された対象ベクトルとクエリポイントとを入力することにより、クエリポイントに対応する位置フィールドfpを取得する。また、処理部110は、学習済み第2デコーダD2に対して、取得部108により取得された対象ベクトルとクエリポイントとを入力することにより、クエリポイントに対応する種類フィールドfsを取得する。
学習済み第1デコーダD1及び学習済み第2デコーダD2から出力されるフィールドデータは、対象ベクトルとクエリポイントとに応じた、物質の構造の場を表すデータである。潜在ベクトルに代えて任意のベクトルである対象ベクトルを学習済みの第1デコーダD1及び学習済みの第2デコーダD2へ入力することにより、対象ベクトルが表す結晶構造を予測すること等が可能となり得る。
例えば、対象ベクトルが上述したような所望の物性を表すベクトルである場合には、そのベクトルに対応するフィールドデータが出力される。複数のクエリポイントを学習済み第2デコーダD2及び学習済み第2デコーダD2へ入力することにより、それら複数のクエリポイントにおけるフィールドデータが取得されるため、それらのフィールドデータに基づいて、所望の物性を有する物質の結晶構造を生成することも可能となる。
対象ベクトルとしては、例えば、XRD(X線回析)の計測データも利用することが可能である。この場合には、対象となる物質のXRDの計測データを学習済み第1デコーダD1及び学習済み第2デコーダD2へ入力することにより、対象となる物質の結晶構造を予測することが可能となる。また、本実施形態の学習済み第1デコーダD1及び学習済み第2デコーダD2と、テキストデータ等の他モーダルを処理対象とするエンコーダとを組み合わせて利用することも可能である。
<情報処理装置10の作用>
次に、図を参照して、実施形態の情報処理装置10の作用を説明する。情報処理装置10は、学習用結晶データを受け付けると、データ記憶部100に格納する。そして、情報処理装置10は、学習処理開始の指示信号を受け付けると、図13に示す学習済みモデル生成処理ルーチンを実行する。
次に、図を参照して、実施形態の情報処理装置10の作用を説明する。情報処理装置10は、学習用結晶データを受け付けると、データ記憶部100に格納する。そして、情報処理装置10は、学習処理開始の指示信号を受け付けると、図13に示す学習済みモデル生成処理ルーチンを実行する。
<学習済みモデル生成処理ルーチン>
ステップS100において、学習用取得部102は、データ記憶部100に格納されている複数の学習用結晶データを取得する。
ステップS100において、学習用取得部102は、データ記憶部100に格納されている複数の学習用結晶データを取得する。
ステップS102において、学習用取得部102は、上記ステップS100で取得された複数の学習用結晶データから1つの学習用結晶データを設定する。そして、学習部104は、設定された学習用結晶データが表す物質内の空間において複数の学習用クエリポイントpiを設定する。なお、iは学習用クエリポイントを識別するためのインデックスである。
ステップS104において、学習部104は、上記ステップS102で設定された学習用結晶データのうちの位置データP、種類データS、及び格子定数データLを、オートエンコーダAEのうちのエンコーダEに対して入力することにより、潜在ベクトルzを取得する。
ステップS106において、学習部104は、ステップS102で設定された学習用クエリポイントpiとステップS104で設定された潜在ベクトルzとの組み合わせを、第1デコーダD1へ入力することにより、位置フィールドfpを取得する。なお、学習部104は、複数の学習用クエリポイント毎に、位置フィールドfpを取得する。
ステップS108において、学習部104は、ステップS102で設定された学習用クエリポイントpiとステップS104で設定された潜在ベクトルzとの組み合わせを、第2デコーダD2へ入力することにより、種類フィールドfsを取得する。なお、学習部104は、複数の学習用クエリポイント毎に、種類フィールドfsを取得する。
ステップS110において、学習部104は、ステップS102で設定された学習用クエリポイントpiとステップS104で設定された潜在ベクトルzとの組み合わせを、第3デコーダD3へ入力することにより、格子定数データLeを取得する。なお、学習部104は、複数の学習用クエリポイント毎に、格子定数データLeを取得する。
ステップS112において、学習部104は、ステップS106で得られた位置フィールドfpに基づいて原子の位置を推定する。なお、学習部104は、上述した方法により、複数の学習用クエリポイントの位置を更新し、最終的な推定位置Peを得る。
ステップS114において、学習部104は、ステップS112で得られた原子の推定位置Peと、ステップS108で得られた種類フィールドfsとに基づいて、原子の種類を推定する。これにより、学習部104は、推定位置Peに存在する原子の推定種類Seを得る。
ステップS116において、学習部104は、ステップS112で得られた原子の推定位置Peと学習用結晶データにおける原子の位置データPとが一致し、かつステップS114で得られた原子の推定種類Seと学習用結晶データにおける原子の種類データSとが一致し、かつステップS110で得られた格子定数データLeと学習用結晶データにおける格子定数データLとが一致するように、教師なし機械学習を用いてオートエンコーダAEを学習させることにより、学習済みの第1デコーダD1と学習済みの第2デコーダD2とを生成する。
機械学習の終了条件が満たされるまで、ステップS102~ステップS116の処理が繰り返される。例えば、機械学習の終了条件としては、所定の繰り返し回数の機械学習の処理が実行されたか、オートエンコーダAEから出力されるデータと学習用結晶データとの間の誤差が所定の閾値以下であるか、といった条件が採用され得る。なお、上記では1つの学習用結晶データが設定されて学習が実行される場合を例に説明したが、これに限定されるものではなく、複数の学習用結晶データを用いて一度に機械学習を実行するようにしてもよい。
ステップS118において、学習部104は、上記の終了条件が満たされたか否かを判定する。終了条件が満たされた場合には、ステップS120へ移行する。一方、終了条件が満たされていない場合には、ステップS102へ戻る。
ステップS120において、学習部104は、ステップS102~ステップS116の機械学習処理により得られた学習済みのオートエンコーダAEを、学習済みモデル記憶部106へ格納する。
次に、情報処理装置10は、対象ベクトルとクエリポイントとを受け付けると、図14に示す推定処理ルーチンを実行する。
<推定処理ルーチン>
ステップS200において、取得部108は、対象ベクトルとクエリポイントとを取得する。
ステップS200において、取得部108は、対象ベクトルとクエリポイントとを取得する。
ステップS202において、処理部110は、学習済みモデル記憶部106に格納されている学習済みの第1デコーダD1及び学習済みの第2デコーダD2を読み出す。
ステップS204において、処理部110は、ステップS202で読み出された学習済みの第1デコーダD1に対して、ステップS200で取得された対象ベクトルとクエリポイントとを入力することにより、対象ベクトルとクエリポイントとに応じた位置フィールドfpを取得する。
ステップS206において、処理部110は、ステップS202で読み出された学習済みの第2デコーダD2に対して、ステップS200で取得された対象ベクトルとクエリポイントとを入力することにより、対象ベクトルとクエリポイントとに応じた種類フィールドfsを取得する。
ステップS208において、処理部110は、ステップS204で取得された位置フィールドfpと、ステップS206で取得された種類フィールドfsとを結果として出力する。
以上説明したように、情報処理装置10によれば、原子点群により構成される物質の構造を表す場を表現するニューラルネットワークモデルを学習させることができる。また、情報処理装置10によれば、ニューラルネットワークモデルを利用して、原子点群により構成される物質の構造を表す場を表現することができる。
具体的には、情報処理装置10は、学習用の物質の結晶構造を表す学習用結晶データであって、学習用の物質の結晶を構成する原子の位置を表す位置データと、学習用の物質の結晶を構成する原子の種類を表す種類データと、学習用の物質の結晶の格子定数データとを含む学習用結晶データと、学習用の物質内の着目点である学習用クエリポイントとを取得する。情報処理装置10は、教師なし機械学習を用いてオートエンコーダを学習させる際に、オートエンコーダのうちのエンコーダに対して学習用結晶データを入力することにより、学習用の物質の結晶構造を表す潜在ベクトルを取得する。情報処理装置10は、オートエンコーダのうちの第1デコーダに対して、潜在ベクトルと学習用クエリポイントとの組み合わせを入力することにより、学習用の物質の結晶を構成する原子の位置の場を表す位置フィールドを取得する。情報処理装置10は、第1デコーダから出力された位置フィールドに基づいて、学習用の物質の結晶を構成する原子の位置を推定する。情報処理装置10は、オートエンコーダのうちの第2デコーダに対して、潜在ベクトルと学習用クエリポイントとの組み合わせを入力することにより、学習用の物質の結晶を構成する原子の種類の場を表す種類フィールドデータを取得する。情報処理装置10は、第2デコーダから出力された種類フィールドに基づいて、学習用の物質の結晶を構成する原子の種類を推定する。情報処理装置10は、オートエンコーダのうちの第3デコーダに対して、潜在ベクトル学習用クエリポイントとの組み合わせを入力することにより、学習用の物質の結晶の格子定数データを取得する。情報処理装置10は、推定された原子の位置、推定された原子の種類、及び第3デコーダから出力された格子定数データとの組み合わせと、学習用結晶データのうちの位置データ、種類データ、及び格子定数データとの組み合わせとが対応するように、教師なし機械学習を用いてオートエンコーダを学習させることにより、学習済みの第1デコーダと学習済みの第2デコーダとを生成する。
本実施形態では、上述したような方法を採用することにより、物質の構造を表す場をニューラルフィールドによって表現することが可能となった。また、固定長のベクトルから結晶データを生成することが可能となった。
また、情報処理装置10は、対象ベクトルと物質内の着目点であるクエリポイントとを取得し、学習済みニューラルネットワークモデルの一例である第1デコーダ及び第2デコーダに対して、対象ベクトルとクエリポイントとを入力することにより、クエリポイントに対応するフィールドデータを取得する。このフィールドデータは、物質の結晶を構成する原子の位置の場を表す位置フィールドと、物質の結晶を構成する原子の種類の場を表す種類フィールドとによって表される。第1デコーダは、潜在ベクトルに代わる任意のベクトルとクエリポイントとが入力されると、クエリポイントに対応する位置フィールドを出力する。第2デコーダは、潜在ベクトルに代わる任意のベクトルとクエリポイントとが入力されると、クエリポイントに対応する種類フィールドを出力する。情報処理装置10は、第1デコーダに対して、対象ベクトルとクエリポイントとを入力することにより、クエリポイントに対応する位置フィールドを取得する。また、情報処理装置10は、第2デコーダに対して、対象ベクトルとクエリポイントとを入力することにより、クエリポイントに対応する種類フィールドを取得する。例えば、対象ベクトルが所望の物性を表すベクトルである場合には、そのベクトルに対応するフィールドデータが出力される。複数のクエリポイントを学習済み第2デコーダD2及び学習済み第2デコーダD2へ入力することにより、それら複数のクエリポイントにおけるフィールドデータが取得されるため、それらのフィールドデータに基づいて、所望の物性を有する物質の結晶構造を生成することも可能となる。
なお、対象ベクトルを変更する場合には、学習済みの第1デコーダD1及び学習済み第2デコーダD2を再学習させる方が好ましい。この場合には、学習済みの第1デコーダD1及び学習済み第2デコーダD2は、事前学習モデルとして利用される。
なお、上記実施形態では、結晶構造を表す場をニューラルフィールドによってモデル化する場合を例に説明したが、これに限定されるものではない。繰り返し構造を含む結晶構造に限らず、繰り返し構造を含まない、原子点群により構成される物質の構造をニューラルフィールドによってモデル化してもよい。この場合には、格子定数の推定が不要となり得るため、図1において示されているLattice Decorderが不要となり得る。
また、上述実施形態では、デコーダに入力されるベクトルzは、エンコーダから出力される潜在ベクトルである場合を例に説明したが、これに限定されるものではない。例えば、ユーザが所望する物性を表すベクトルをzとし、そのベクトルzをデコーダに与えることが可能なように構成してもよい(例えば、bandgap = xxx, formation energy = xxx 等の条件をベクトルで表現)。また、ベクトルzとしてランダムなノイズを利用するような構成にしてもよい。
上述実施形態では、ニューラルネットワークモデルとして、エンコーダとデコーダとを含んで構成されるオートエンコーダを利用する場合を例に説明したが、これに限定されるものではない。ニューラルネットワークモデルとしては他のモデルを利用してもよく、例えば、敵対的生成ネットワーク(GAN)を利用してもよい。
また、図15~図30に、本実施形態の詳細を説明するための図を示す。
また、上記実施形態でCPUがソフトウェア(プログラム)を読み込んで実行した各処理を、CPU以外の各種のプロセッサが実行してもよい。この場合のプロセッサとしては、FPGA(Field-Programmable Gate Array)等の製造後に回路構成を変更可能なPLD(Programmable Logic Device)、及びASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が例示される。また、各処理を、これらの各種のプロセッサのうちの1つで実行してもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGA、及びCPUとFPGAとの組み合わせ等)で実行してもよい。また、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路である。
また、上記実施形態では、各プログラムが記憶装置に予め記憶(例えば、インストール)されている態様を説明したが、これに限定されない。プログラムは、CD-ROM、DVD-ROM、ブルーレイディスク、USBメモリ等の記憶媒体に記憶された形態で提供されてもよい。また、プログラムは、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
(付記)
以下、本開示の態様について付記する。
以下、本開示の態様について付記する。
(付記1)
ニューラルネットワークモデルを利用して、原子点群により構成される物質の構造を表す場を表現する処理部を含む情報処理装置。
ニューラルネットワークモデルを利用して、原子点群により構成される物質の構造を表す場を表現する処理部を含む情報処理装置。
(付記2)
対象ベクトルと物質内の着目点であるクエリポイントとを取得する取得部を更に含み、
前記ニューラルネットワークモデルは、任意のベクトルと前記クエリポイントとが入力されると、前記クエリポイントにおける前記物質の構造の場を表すフィールドデータを出力する学習済みニューラルネットワークモデルであり、
前記処理部は、前記学習済みニューラルネットワークモデルに対して、前記取得部により取得された前記対象ベクトルと前記クエリポイントとを入力することにより、前記クエリポイントに対応する前記フィールドデータを取得する、
付記1に記載の情報処理装置。
対象ベクトルと物質内の着目点であるクエリポイントとを取得する取得部を更に含み、
前記ニューラルネットワークモデルは、任意のベクトルと前記クエリポイントとが入力されると、前記クエリポイントにおける前記物質の構造の場を表すフィールドデータを出力する学習済みニューラルネットワークモデルであり、
前記処理部は、前記学習済みニューラルネットワークモデルに対して、前記取得部により取得された前記対象ベクトルと前記クエリポイントとを入力することにより、前記クエリポイントに対応する前記フィールドデータを取得する、
付記1に記載の情報処理装置。
(付記3)
前記フィールドデータは、前記物質の結晶を構成する原子の位置の場を表す位置フィールドと、前記物質の結晶を構成する原子の種類の場を表す種類フィールドとによって表され、
前記学習済みニューラルネットワークモデルは、学習済みの第1ニューラルネットワークモデルと、学習済みの第2ニューラルネットワークモデルとを含み、
前記学習済みの第1ニューラルネットワークモデルは、前記任意のベクトルと前記クエリポイントとが入力されると、前記クエリポイントに対応する前記位置フィールドを出力し、
前記学習済みの第2ニューラルネットワークモデルは、前記任意のベクトルと前記クエリポイントとが入力されると、前記クエリポイントに対応する前記種類フィールドを出力し、
前記処理部は、
前記学習済みの第1ニューラルネットワークモデルに対して、前記取得部により取得された前記対象ベクトルと前記クエリポイントとを入力することにより、前記クエリポイントに対応する前記位置フィールドを取得し、
前記学習済みの第2ニューラルネットワークモデルに対して、前記取得部により取得された前記対象ベクトルと前記クエリポイントとを入力することにより、前記クエリポイントに対応する前記種類フィールドを取得する、
付記2に記載の情報処理装置。
前記フィールドデータは、前記物質の結晶を構成する原子の位置の場を表す位置フィールドと、前記物質の結晶を構成する原子の種類の場を表す種類フィールドとによって表され、
前記学習済みニューラルネットワークモデルは、学習済みの第1ニューラルネットワークモデルと、学習済みの第2ニューラルネットワークモデルとを含み、
前記学習済みの第1ニューラルネットワークモデルは、前記任意のベクトルと前記クエリポイントとが入力されると、前記クエリポイントに対応する前記位置フィールドを出力し、
前記学習済みの第2ニューラルネットワークモデルは、前記任意のベクトルと前記クエリポイントとが入力されると、前記クエリポイントに対応する前記種類フィールドを出力し、
前記処理部は、
前記学習済みの第1ニューラルネットワークモデルに対して、前記取得部により取得された前記対象ベクトルと前記クエリポイントとを入力することにより、前記クエリポイントに対応する前記位置フィールドを取得し、
前記学習済みの第2ニューラルネットワークモデルに対して、前記取得部により取得された前記対象ベクトルと前記クエリポイントとを入力することにより、前記クエリポイントに対応する前記種類フィールドを取得する、
付記2に記載の情報処理装置。
(付記4)
前記学習済みニューラルネットワークモデルは、
前記物質の結晶構造を表す結晶データであって、前記物質の結晶を構成する原子の位置を表す位置データと、前記物質の結晶を構成する原子の種類を表す種類データと、前記物質の結晶の格子定数データとを含む学習用結晶データに基づいて機械学習によって予め生成された学習済みモデルである、
付記2又は付記3に記載の情報処理装置。
前記学習済みニューラルネットワークモデルは、
前記物質の結晶構造を表す結晶データであって、前記物質の結晶を構成する原子の位置を表す位置データと、前記物質の結晶を構成する原子の種類を表す種類データと、前記物質の結晶の格子定数データとを含む学習用結晶データに基づいて機械学習によって予め生成された学習済みモデルである、
付記2又は付記3に記載の情報処理装置。
(付記5)
前記学習済みニューラルネットワークモデルは、学習済みのオートエンコーダのうちの、学習済みの第1デコーダ及び学習済みの第2デコーダであり、
前記学習済みのオートエンコーダのうちの学習済みのエンコーダは、前記物質の結晶構造を表す結晶データであって、前記物質の結晶を構成する原子の位置を表す位置データと、前記物質の結晶を構成する原子の種類を表す種類データと、前記物質の結晶の格子定数データとを含む結晶データが入力されると、前記物質の結晶を表す潜在ベクトルを出力し、
前記学習済みの第1デコーダは、前記潜在ベクトルに代わる前記任意のベクトルと、前記クエリポイントとが入力されると、前記クエリポイントに対応する前記位置フィールドを出力し、
前記学習済みの第2デコーダは、前記潜在ベクトルに代わる前記任意のベクトルと、前記クエリポイントとが入力されると、前記クエリポイントに対応する前記種類フィールドを出力し、
前記学習済みの第1デコーダ及び前記学習済みの第2デコーダは、前記結晶データに基づいて、エンコーダと第1デコーダと第2デコーダとを備えたオートエンコーダを教師なし機械学習させることにより得られる学習済みモデルである、
付記3に記載の情報処理装置。
前記学習済みニューラルネットワークモデルは、学習済みのオートエンコーダのうちの、学習済みの第1デコーダ及び学習済みの第2デコーダであり、
前記学習済みのオートエンコーダのうちの学習済みのエンコーダは、前記物質の結晶構造を表す結晶データであって、前記物質の結晶を構成する原子の位置を表す位置データと、前記物質の結晶を構成する原子の種類を表す種類データと、前記物質の結晶の格子定数データとを含む結晶データが入力されると、前記物質の結晶を表す潜在ベクトルを出力し、
前記学習済みの第1デコーダは、前記潜在ベクトルに代わる前記任意のベクトルと、前記クエリポイントとが入力されると、前記クエリポイントに対応する前記位置フィールドを出力し、
前記学習済みの第2デコーダは、前記潜在ベクトルに代わる前記任意のベクトルと、前記クエリポイントとが入力されると、前記クエリポイントに対応する前記種類フィールドを出力し、
前記学習済みの第1デコーダ及び前記学習済みの第2デコーダは、前記結晶データに基づいて、エンコーダと第1デコーダと第2デコーダとを備えたオートエンコーダを教師なし機械学習させることにより得られる学習済みモデルである、
付記3に記載の情報処理装置。
(付記5)
前記オートエンコーダは、第3デコーダを更に備え、
学習済みの第3デコーダは、前記潜在ベクトルに代わる前記任意のベクトルが入力されると、前記物質の結晶の格子定数データを出力する学習済みモデルである、
付記4に記載の情報処理装置。
前記オートエンコーダは、第3デコーダを更に備え、
学習済みの第3デコーダは、前記潜在ベクトルに代わる前記任意のベクトルが入力されると、前記物質の結晶の格子定数データを出力する学習済みモデルである、
付記4に記載の情報処理装置。
(付記7)
原子点群により構成される物質の構造を表す場を表現するニューラルネットワークモデルを学習させる学習部を含む学習済みモデル生成装置。
原子点群により構成される物質の構造を表す場を表現するニューラルネットワークモデルを学習させる学習部を含む学習済みモデル生成装置。
(付記8)
学習用の前記物質の結晶構造を表す学習用結晶データであって、学習用の前記物質の結晶を構成する原子の位置を表す位置データと、学習用の前記物質の結晶を構成する原子の種類を表す種類データと、学習用の前記物質の結晶の格子定数データとを含む学習用結晶データと、学習用の前記物質内の着目点である学習用クエリポイントとを取得する学習用取得部を更に含み、
前記学習部は、
教師なし機械学習を用いてオートエンコーダを学習させる際に、
前記オートエンコーダのうちのエンコーダに対して前記学習用結晶データを入力することにより、前記学習用の物質の結晶構造を表す潜在ベクトルを取得し、
前記オートエンコーダのうちの第1デコーダに対して、前記潜在ベクトルと前記学習用クエリポイントとの組み合わせを入力することにより、前記学習用の物質の結晶を構成する原子の位置の場を表す位置フィールドを取得し、
前記第1デコーダから出力された前記位置フィールドに基づいて、前記学習用の物質の結晶を構成する原子の位置を推定し、
前記オートエンコーダのうちの第2デコーダに対して、前記潜在ベクトルと前記学習用クエリポイントとの組み合わせを入力することにより、前記学習用の物質の結晶を構成する原子の種類の場を表す種類フィールドデータを取得し、
前記第2デコーダから出力された前記種類フィールドに基づいて、前記学習用の物質の結晶を構成する原子の種類を推定し、
前記オートエンコーダのうちの第3デコーダに対して、前記潜在ベクトル前記学習用クエリポイントとの組み合わせを入力することにより、前記学習用の物質の結晶の格子定数データを取得し、
推定された前記原子の位置、推定された前記原子の種類、及び前記第3デコーダから出力された前記格子定数データとの組み合わせと、前記学習用結晶データのうちの前記位置データ、前記種類データ、及び前記格子定数データとの組み合わせとが対応するように、教師なし機械学習を用いてオートエンコーダを学習させることにより、学習済みの第1デコーダと学習済みの第2デコーダとを生成する、
付記7に記載の学習済みモデル生成装置。
学習用の前記物質の結晶構造を表す学習用結晶データであって、学習用の前記物質の結晶を構成する原子の位置を表す位置データと、学習用の前記物質の結晶を構成する原子の種類を表す種類データと、学習用の前記物質の結晶の格子定数データとを含む学習用結晶データと、学習用の前記物質内の着目点である学習用クエリポイントとを取得する学習用取得部を更に含み、
前記学習部は、
教師なし機械学習を用いてオートエンコーダを学習させる際に、
前記オートエンコーダのうちのエンコーダに対して前記学習用結晶データを入力することにより、前記学習用の物質の結晶構造を表す潜在ベクトルを取得し、
前記オートエンコーダのうちの第1デコーダに対して、前記潜在ベクトルと前記学習用クエリポイントとの組み合わせを入力することにより、前記学習用の物質の結晶を構成する原子の位置の場を表す位置フィールドを取得し、
前記第1デコーダから出力された前記位置フィールドに基づいて、前記学習用の物質の結晶を構成する原子の位置を推定し、
前記オートエンコーダのうちの第2デコーダに対して、前記潜在ベクトルと前記学習用クエリポイントとの組み合わせを入力することにより、前記学習用の物質の結晶を構成する原子の種類の場を表す種類フィールドデータを取得し、
前記第2デコーダから出力された前記種類フィールドに基づいて、前記学習用の物質の結晶を構成する原子の種類を推定し、
前記オートエンコーダのうちの第3デコーダに対して、前記潜在ベクトル前記学習用クエリポイントとの組み合わせを入力することにより、前記学習用の物質の結晶の格子定数データを取得し、
推定された前記原子の位置、推定された前記原子の種類、及び前記第3デコーダから出力された前記格子定数データとの組み合わせと、前記学習用結晶データのうちの前記位置データ、前記種類データ、及び前記格子定数データとの組み合わせとが対応するように、教師なし機械学習を用いてオートエンコーダを学習させることにより、学習済みの第1デコーダと学習済みの第2デコーダとを生成する、
付記7に記載の学習済みモデル生成装置。
(付記9)
ニューラルネットワークモデルを利用して、原子点群により構成される物質の構造を表す場を表現する、処理をコンピュータが実行する情報処理方法。
ニューラルネットワークモデルを利用して、原子点群により構成される物質の構造を表す場を表現する、処理をコンピュータが実行する情報処理方法。
(付記10)
原子点群により構成される物質の構造を表す場を表現するニューラルネットワークモデルを学習させる、処理をコンピュータが実行する学習済みモデル生成方法。
原子点群により構成される物質の構造を表す場を表現するニューラルネットワークモデルを学習させる、処理をコンピュータが実行する学習済みモデル生成方法。
(付記11)
ニューラルネットワークモデルを利用して、原子点群により構成される物質の構造を表す場を表現する、処理をコンピュータに実行させるための情報処理プログラム。
ニューラルネットワークモデルを利用して、原子点群により構成される物質の構造を表す場を表現する、処理をコンピュータに実行させるための情報処理プログラム。
(付記12)
原子点群により構成される物質の構造を表す場を表現するニューラルネットワークモデルを学習させる、処理をコンピュータに実行させるための学習済みモデル生成プログラム。
原子点群により構成される物質の構造を表す場を表現するニューラルネットワークモデルを学習させる、処理をコンピュータに実行させるための学習済みモデル生成プログラム。
2022年11月21日に出願された日本国特許出願2022‐186043号及び2023年8月9日に出願された日本国特許出願2023‐130520号の開示は、その全体が参照により本明細書に取り込まれる。本明細書に記載された全ての文献、特許出願、および技術規格は、個々の文献、特許出願、および技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
Claims (12)
- ニューラルネットワークモデルを利用して、原子点群により構成される物質の構造を表す場を表現する処理部を含む情報処理装置。
- 対象ベクトルと物質内の着目点であるクエリポイントとを取得する取得部を更に含み、
前記ニューラルネットワークモデルは、任意のベクトルと前記クエリポイントとが入力されると、前記クエリポイントにおける前記物質の構造の場を表すフィールドデータを出力する学習済みニューラルネットワークモデルであり、
前記処理部は、前記学習済みニューラルネットワークモデルに対して、前記取得部により取得された前記対象ベクトルと前記クエリポイントとを入力することにより、前記クエリポイントに対応する前記フィールドデータを取得する、
請求項1に記載の情報処理装置。 - 前記フィールドデータは、前記物質の結晶を構成する原子の位置の場を表す位置フィールドと、前記物質の結晶を構成する原子の種類の場を表す種類フィールドとによって表され、
前記学習済みニューラルネットワークモデルは、学習済みの第1ニューラルネットワークモデルと、学習済みの第2ニューラルネットワークモデルとを含み、
前記学習済みの第1ニューラルネットワークモデルは、前記任意のベクトルと前記クエリポイントとが入力されると、前記クエリポイントに対応する前記位置フィールドを出力し、
前記学習済みの第2ニューラルネットワークモデルは、前記任意のベクトルと前記クエリポイントとが入力されると、前記クエリポイントに対応する前記種類フィールドを出力し、
前記処理部は、
前記学習済みの第1ニューラルネットワークモデルに対して、前記取得部により取得された前記対象ベクトルと前記クエリポイントとを入力することにより、前記クエリポイントに対応する前記位置フィールドを取得し、
前記学習済みの第2ニューラルネットワークモデルに対して、前記取得部により取得された前記対象ベクトルと前記クエリポイントとを入力することにより、前記クエリポイントに対応する前記種類フィールドを取得する、
請求項2に記載の情報処理装置。 - 前記学習済みニューラルネットワークモデルは、
前記物質の結晶構造を表す結晶データであって、前記物質の結晶を構成する原子の位置を表す位置データと、前記物質の結晶を構成する原子の種類を表す種類データと、前記物質の結晶の格子定数データとを含む学習用結晶データに基づいて機械学習によって予め生成された学習済みモデルである、
請求項2又は請求項3に記載の情報処理装置。 - 前記学習済みニューラルネットワークモデルは、学習済みのオートエンコーダのうちの、学習済みの第1デコーダ及び学習済みの第2デコーダであり、
前記学習済みのオートエンコーダのうちの学習済みのエンコーダは、前記物質の結晶構造を表す結晶データであって、前記物質の結晶を構成する原子の位置を表す位置データと、前記物質の結晶を構成する原子の種類を表す種類データと、前記物質の結晶の格子定数データとを含む結晶データが入力されると、前記物質の結晶を表す潜在ベクトルを出力し、
前記学習済みの第1デコーダは、前記潜在ベクトルに代わる前記任意のベクトルと、前記クエリポイントとが入力されると、前記クエリポイントに対応する前記位置フィールドを出力し、
前記学習済みの第2デコーダは、前記潜在ベクトルに代わる前記任意のベクトルと、前記クエリポイントとが入力されると、前記クエリポイントに対応する前記種類フィールドを出力し、
前記学習済みの第1デコーダ及び前記学習済みの第2デコーダは、前記結晶データに基づいて、エンコーダと第1デコーダと第2デコーダとを備えたオートエンコーダを教師なし機械学習させることにより得られる学習済みモデルである、
請求項3に記載の情報処理装置。 - 前記オートエンコーダは、第3デコーダを更に備え、
学習済みの第3デコーダは、前記潜在ベクトルに代わる前記任意のベクトルが入力されると、前記物質の結晶の格子定数データを出力する学習済みモデルである、
請求項5に記載の情報処理装置。 - 原子点群により構成される物質の構造を表す場を表現するニューラルネットワークモデルを学習させる学習部を含む学習済みモデル生成装置。
- 学習用の前記物質の結晶構造を表す学習用結晶データであって、学習用の前記物質の結晶を構成する原子の位置を表す位置データと、学習用の前記物質の結晶を構成する原子の種類を表す種類データと、学習用の前記物質の結晶の格子定数データとを含む学習用結晶データと、学習用の前記物質内の着目点である学習用クエリポイントとを取得する学習用取得部を更に含み、
前記学習部は、
教師なし機械学習を用いてオートエンコーダを学習させる際に、
前記オートエンコーダのうちのエンコーダに対して前記学習用結晶データを入力することにより、前記学習用の物質の結晶構造を表す潜在ベクトルを取得し、
前記オートエンコーダのうちの第1デコーダに対して、前記潜在ベクトルと前記学習用クエリポイントとの組み合わせを入力することにより、前記学習用の物質の結晶を構成する原子の位置の場を表す位置フィールドを取得し、
前記第1デコーダから出力された前記位置フィールドに基づいて、前記学習用の物質の結晶を構成する原子の位置を推定し、
前記オートエンコーダのうちの第2デコーダに対して、前記潜在ベクトルと前記学習用クエリポイントとの組み合わせを入力することにより、前記学習用の物質の結晶を構成する原子の種類の場を表す種類フィールドを取得し、
前記第2デコーダから出力された前記種類フィールドに基づいて、前記学習用の物質の結晶を構成する原子の種類を推定し、
前記オートエンコーダのうちの第3デコーダに対して、前記潜在ベクトルと前記学習用クエリポイントとの組み合わせを入力することにより、前記学習用の物質の結晶の格子定数データを取得し、
推定された前記原子の位置、推定された前記原子の種類、及び前記第3デコーダから出力された前記格子定数データとの組み合わせと、前記学習用結晶データのうちの前記位置データ、前記種類データ、及び前記格子定数データとの組み合わせとが対応するように、教師なし機械学習を用いてオートエンコーダを学習させることにより、学習済みの第1デコーダと学習済みの第2デコーダとを生成する、
請求項7に記載の学習済みモデル生成装置。 - ニューラルネットワークモデルを利用して、原子点群により構成される物質の構造を表す場を表現する、処理をコンピュータが実行する情報処理方法。
- 原子点群により構成される物質の構造を表す場を表現するニューラルネットワークモデルを学習させる、処理をコンピュータが実行する学習済みモデル生成方法。
- ニューラルネットワークモデルを利用して、原子点群により構成される物質の構造を表す場を表現する、処理をコンピュータに実行させるための情報処理プログラム。
- 原子点群により構成される物質の構造を表す場を表現するニューラルネットワークモデルを学習させる、処理をコンピュータに実行させるための学習済みモデル生成プログラム。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022186043 | 2022-11-21 | ||
JP2022-186043 | 2022-11-21 | ||
JP2023130520A JP2024074765A (ja) | 2022-11-21 | 2023-08-09 | 情報処理装置、学習済みモデル生成装置、情報処理方法、学習済みモデル生成方法、情報処理プログラム、及び学習済みモデル生成プログラム |
JP2023-130520 | 2023-08-09 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2024111471A1 true WO2024111471A1 (ja) | 2024-05-30 |
Family
ID=91195613
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2023/040970 WO2024111471A1 (ja) | 2022-11-21 | 2023-11-14 | 情報処理装置、学習済みモデル生成装置、情報処理方法、学習済みモデル生成方法、情報処理プログラム、及び学習済みモデル生成プログラム |
Country Status (1)
Country | Link |
---|---|
WO (1) | WO2024111471A1 (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018010428A (ja) * | 2016-07-12 | 2018-01-18 | 株式会社日立製作所 | 材料創成装置、および材料創成方法 |
JP2020166706A (ja) * | 2019-03-29 | 2020-10-08 | 株式会社クロスアビリティ | 結晶形予測装置、結晶形予測方法、ニューラルネットワークの製造方法、及びプログラム |
WO2021262792A1 (en) * | 2020-06-24 | 2021-12-30 | Sri International | Unsupervised invertible physics-based vector representation for molecules |
WO2023047843A1 (ja) * | 2021-09-27 | 2023-03-30 | オムロン株式会社 | モデル生成方法、データ提示方法、データ生成方法、推定方法、モデル生成装置、データ提示装置、データ生成装置、及び推定装置 |
CN116343937A (zh) * | 2022-12-28 | 2023-06-27 | 深圳晶泰科技有限公司 | 晶体结构生成方法、装置、电子设备及计算机可读存储介质 |
-
2023
- 2023-11-14 WO PCT/JP2023/040970 patent/WO2024111471A1/ja unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018010428A (ja) * | 2016-07-12 | 2018-01-18 | 株式会社日立製作所 | 材料創成装置、および材料創成方法 |
JP2020166706A (ja) * | 2019-03-29 | 2020-10-08 | 株式会社クロスアビリティ | 結晶形予測装置、結晶形予測方法、ニューラルネットワークの製造方法、及びプログラム |
WO2021262792A1 (en) * | 2020-06-24 | 2021-12-30 | Sri International | Unsupervised invertible physics-based vector representation for molecules |
WO2023047843A1 (ja) * | 2021-09-27 | 2023-03-30 | オムロン株式会社 | モデル生成方法、データ提示方法、データ生成方法、推定方法、モデル生成装置、データ提示装置、データ生成装置、及び推定装置 |
CN116343937A (zh) * | 2022-12-28 | 2023-06-27 | 深圳晶泰科技有限公司 | 晶体结构生成方法、装置、电子设备及计算机可读存储介质 |
Non-Patent Citations (1)
Title |
---|
NAOYA CHIBA; YUTA SUZUKI; TATSUNORI TANIAI; RYO IGARASHI; YOSHITAKA USHIKU; KOTARO SAITO; KANTA ONO: "Neural Structure Fields with Application to Crystal Structure Autoencoders", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 14 December 2023 (2023-12-14), 201 Olin Library Cornell University Ithaca, NY 14853, XP091667703, DOI: 10.1038/s43246-023-00432-w * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Weerakody et al. | A review of irregular time series data handling with gated recurrent neural networks | |
JP7187681B2 (ja) | 細胞画像の分析のためのコンピュータ実装方法、コンピュータプログラム製品およびシステム | |
Ouyang et al. | SISSO: A compressed-sensing method for identifying the best low-dimensional descriptor in an immensity of offered candidates | |
Rajan | Informatics for materials science and engineering: data-driven discovery for accelerated experimentation and application | |
Willett et al. | Minimax optimal level-set estimation | |
Burlina et al. | Where's Wally now? Deep generative and discriminative embeddings for novelty detection | |
Honarkhah et al. | Stochastic simulation of patterns using distance-based pattern modeling | |
CN103262104A (zh) | 用于为对象配置评分的方法以及决策支持系统 | |
Alverson et al. | Generative adversarial networks and diffusion models in material discovery | |
Berman et al. | Bayesian renormalization | |
Papamarkou et al. | Position paper: Challenges and opportunities in topological deep learning | |
Shen et al. | Idlat: An importance-driven latent generation method for scientific data | |
WO2024111471A1 (ja) | 情報処理装置、学習済みモデル生成装置、情報処理方法、学習済みモデル生成方法、情報処理プログラム、及び学習済みモデル生成プログラム | |
Chiba et al. | Neural structure fields with application to crystal structure autoencoders | |
Wang et al. | Hyper-STTN: Social Group-aware Spatial-Temporal Transformer Network for Human Trajectory Prediction with Hypergraph Reasoning | |
JP2024074765A (ja) | 情報処理装置、学習済みモデル生成装置、情報処理方法、学習済みモデル生成方法、情報処理プログラム、及び学習済みモデル生成プログラム | |
Miscouridou et al. | Cox-Hawkes: doubly stochastic spatiotemporal Poisson processes | |
Szymanski et al. | Using efficient supanova kernel for heart disease diagnosis | |
Qiao et al. | Using the KDE method to model ecological niches: A response to Blonder et al.(2017) | |
JP4451332B2 (ja) | 類似時系列データ計算装置、および類似時系列データ計算プログラム | |
Lee et al. | Methodological framework for materials discovery using machine learning | |
Vu et al. | iPMDS: Interactive probabilistic multidimensional scaling | |
Crutchfield | Discovering coherent structures in nonlinear spatial systems | |
Li et al. | Imaging by unsupervised feature learning of the wave equation | |
Lutton et al. | Visual analytics of ea data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 23894480 Country of ref document: EP Kind code of ref document: A1 |