CN110858504A - 产生化学结构的方法、神经网络设备和非瞬时计算机可读的记录介质 - Google Patents
产生化学结构的方法、神经网络设备和非瞬时计算机可读的记录介质 Download PDFInfo
- Publication number
- CN110858504A CN110858504A CN201910140880.5A CN201910140880A CN110858504A CN 110858504 A CN110858504 A CN 110858504A CN 201910140880 A CN201910140880 A CN 201910140880A CN 110858504 A CN110858504 A CN 110858504A
- Authority
- CN
- China
- Prior art keywords
- chemical structure
- neural network
- new
- property
- expression region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000000126 substance Substances 0.000 title claims abstract description 336
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 275
- 238000000034 method Methods 0.000 title claims abstract description 110
- 230000014509 gene expression Effects 0.000 claims abstract description 173
- 230000008569 process Effects 0.000 claims description 41
- 230000004913 activation Effects 0.000 claims description 22
- 230000006870 function Effects 0.000 claims description 18
- 238000004422 calculation algorithm Methods 0.000 claims description 12
- 230000002068 genetic effect Effects 0.000 claims description 11
- 238000012886 linear function Methods 0.000 claims description 9
- 238000005457 optimization Methods 0.000 claims description 8
- 239000010410 layer Substances 0.000 description 77
- 238000010586 diagram Methods 0.000 description 20
- IJGRMHOSHXDMSA-UHFFFAOYSA-N Atomic nitrogen Chemical compound N#N IJGRMHOSHXDMSA-UHFFFAOYSA-N 0.000 description 16
- 238000004364 calculation method Methods 0.000 description 11
- 230000008859 change Effects 0.000 description 11
- 238000012545 processing Methods 0.000 description 10
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 8
- 229910052799 carbon Inorganic materials 0.000 description 8
- 229910052757 nitrogen Inorganic materials 0.000 description 8
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 7
- 229910052760 oxygen Inorganic materials 0.000 description 7
- 239000001301 oxygen Substances 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 238000004088 simulation Methods 0.000 description 4
- 239000003086 colorant Substances 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 238000000611 regression analysis Methods 0.000 description 3
- 238000004618 QSPR study Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- PCTMTFRHKVHKIS-BMFZQQSSSA-N (1s,3r,4e,6e,8e,10e,12e,14e,16e,18s,19r,20r,21s,25r,27r,30r,31r,33s,35r,37s,38r)-3-[(2r,3s,4s,5s,6r)-4-amino-3,5-dihydroxy-6-methyloxan-2-yl]oxy-19,25,27,30,31,33,35,37-octahydroxy-18,20,21-trimethyl-23-oxo-22,39-dioxabicyclo[33.3.1]nonatriaconta-4,6,8,10 Chemical compound C1C=C2C[C@@H](OS(O)(=O)=O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2.O[C@H]1[C@@H](N)[C@H](O)[C@@H](C)O[C@H]1O[C@H]1/C=C/C=C/C=C/C=C/C=C/C=C/C=C/[C@H](C)[C@@H](O)[C@@H](C)[C@H](C)OC(=O)C[C@H](O)C[C@H](O)CC[C@@H](O)[C@H](O)C[C@H](O)C[C@](O)(C[C@H](O)[C@H]2C(O)=O)O[C@H]2C1 PCTMTFRHKVHKIS-BMFZQQSSSA-N 0.000 description 1
- 208000021049 Carney complex type 2 Diseases 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000004615 ingredient Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000002844 melting Methods 0.000 description 1
- 230000008018 melting Effects 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000035772 mutation Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16C—COMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
- G16C10/00—Computational theoretical chemistry, i.e. ICT specially adapted for theoretical aspects of quantum chemistry, molecular mechanics, molecular dynamics or the like
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16C—COMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
- G16C20/00—Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
- G16C20/40—Searching chemical structures or physicochemical data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/086—Learning methods using evolutionary algorithms, e.g. genetic algorithms or genetic programming
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16C—COMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
- G16C20/00—Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
- G16C20/50—Molecular design, e.g. of drugs
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16C—COMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
- G16C20/00—Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
- G16C20/70—Machine learning, data mining or chemometrics
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Chemical & Material Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Crystallography & Structural Chemistry (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Evolutionary Biology (AREA)
- Physiology (AREA)
- Medicinal Chemistry (AREA)
- Pharmacology & Pharmacy (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Analytical Chemistry (AREA)
- Chemical Kinetics & Catalysis (AREA)
Abstract
本发明涉及产生化学结构的方法、神经网络设备和非瞬时计算机可读的记录介质。通过使用神经网络使用在对于参比化学结构的描述符或图像中的表达特定性质的表达区域来产生新的化学结构。所述新的化学结构可通过改变在所述参比化学结构中的对应于所述表达区域的局部结构而产生。
Description
对相关申请的交叉引用
本申请要求在韩国知识产权局于2018年8月23日提交的韩国专利申请No.10-2018-0098373的优先权,将其公开内容全部通过引用引入本文中。
技术领域
本公开内容涉及用于使用神经网络产生化学结构的方法和设备。
背景技术
神经网络指的是模仿生物大脑(以生物大脑为模型)的计算架构。利用先进的神经网络技术,各种类型的电子系统已经通过使用神经网络分析输入的数据和产生优化的信息。
近年来,已经对如下的方法进行了大量的研究:通过使用神经网络技术评价化学结构的性质来选择将用在材料开发中的化学结构。特别地,存在开发通过使用神经网络技术产生满足多种要求的新的化学结构的方法的需要。
发明内容
本公开内容的实施方式涉及用于使用神经网络产生化学结构的方法和设备。此外,提供计算机可读的记录介质,其包括程序,所述程序当被计算机执行时实行所述方法。将要解决的技术问题不限于如所描述的这些,而是可存在其它技术问题。
额外的方面将在随后的描述中部分地阐明,且部分地将由所述描述明晰,或者可通过所提供的实施方式的实践获悉。
根据实施方式的方面,提供通过使用神经网络设备产生化学结构的方法,其包括:将化学结构的描述符输入到经训练的神经网络,所述经训练的神经网络产生所述化学结构的性质的性质值,所述化学结构的描述符代表所述化学结构的结构特性且所述化学结构的性质为由所述化学结构所拥有的特性;确定在所述描述符中的用于表达所述性质的表达区域,所述表达区域包括在所述描述符中的位(比特,bit)位置;和通过修改在所述化学结构中的局部结构而产生新的化学结构,所述局部结构对应于所述表达区域。
确定表达区域可包括通过如下确定在所述描述符中的用于表达所述性质的表达区域:所述经训练的神经网络实行解释(解译)过程以确定所述性质值是否由在所述化学结构中的所述局部结构表达。
确定表达区域可包括通过如下确定在所述描述符中的用于表达所述性质的表达区域:向所述经训练的神经网络应用逐层相关性传播(layer-wise relevancepropagation,LRP)技术,其中向所述经训练的神经网络的节点应用的激活函数可被选定(指定)作为线性函数以向所述经训练的神经网络应用所述LRP技术,和均方误差(MSE)可被选定用于优化。
产生新的化学结构可包括:获得在所述描述符中的所述表达区域的所述位位置的位值;以及通过向所述位位置的位值应用遗传学算法和修改对应于所述表达区域的所述局部结构而产生所述新的化学结构。
产生新的化学结构可包括:通过修改在所述化学结构中的所述局部结构而产生新的第一化学结构,所述局部结构对应于所述表达区域;将对于所述新的第一化学结构的描述符输入到所述经训练的神经网络以输出对于所述新的第一化学结构的特定性质的性质值;以及当对于所述新的第一化学结构的特定性质的性质值小于预设值时,通过改变在所述新的第一化学结构中的局部结构而产生新的第二化学结构,所述局部结构对应于所述表达区域,和当对于所述新的第一化学结构的特定性质的性质值等于或大于所述预设值时,存储所述新的第一化学结构。
根据实施方式的方面,提供配置成产生化学结构的神经网络设备,其包括:配置成存储至少一个(种)程序的存储器;和配置成通过执行所述至少一个程序而驱动神经网络的处理器,其中所述处理器被配置成:将化学结构的描述符输入到经训练的神经网络,所述经训练的神经网络产生所述化学结构的性质的性质值,所述化学结构的描述符代表所述化学结构的结构特性且所述化学结构的性质为由所述化学结构所拥有的特性;确定在所述描述符中的用于表达所述性质的表达区域,所述表达区域包括在所述描述符中的位位置;和通过修改在所述化学结构中的局部结构而产生新的化学结构,所述局部结构对应于所述表达区域。
根据实施方式的方面,提供通过使用神经网络设备产生化学结构的方法,其包括:将化学结构的图像输入到经训练的神经网络,所述经训练的神经网络产生所述化学结构的性质的性质值,所述化学结构的图像代表所述化学结构的结构特性且所述化学结构的性质为由所述化学结构所拥有的特性;确定在所述图像中的用于表达所述性质的表达区域,所述表达区域包括在所述图像中的一个或多个像素;和通过修改在所述化学结构中的局部结构而产生新的化学结构,所述局部结构对应于所述表达区域。
确定表达区域可包括通过如下确定在所述图像中的用于表达所述性质的表达区域:所述经训练的神经网络实行解释过程以确定所述性质值是否由在所述化学结构中的所述局部结构表达。
确定表达区域可包括通过如下确定在所述图像中的用于表达所述性质的表达区域:向所述经训练的神经网络应用逐层相关性传播(LRP)技术,其中向所述经训练的神经网络的节点应用的激活函数可被选定作为线性函数以向所述经训练的神经网络应用所述LRP技术,和均方误差(MSE)可被选定用于优化。
产生新的化学结构可包括:获得在所述图像中的所述表达区域中的所述一个或多个像素的像素值;以及通过向所述一个或多个像素的像素值应用高斯噪声和修改对应于所述表达区域的所述局部结构而产生所述新的化学结构。
产生新的化学结构可包括:当在所述图像中的表达所述性质的多个表达区域存在时,获得在所述图像中的对应于所述多个表达区域的坐标信息;基于所述坐标信息计算在所述图像中的所述多个表达区域的中心点和获得所述中心点的像素值;以及通过向所述像素值应用高斯噪声和修改对应于所述中心点的局部结构而产生所述新的化学结构。
产生新的化学结构可包括:通过修改在所述化学结构中的所述局部结构而产生新的第一化学结构,所述局部结构对应于所述表达区域;将对于所述新的第一化学结构的图像输入到所述经训练的神经网络以输出对于所述新的第一化学结构的特定性质的性质值;以及当对于所述新的第一化学结构的特定性质的性质值小于预设值时,通过改变在所述新的第一化学结构中的局部结构而产生新的第二化学结构,所述局部结构对应于所述表达区域,和当对于所述新的第一化学结构的特定性质的性质值等于或大于所述预设值时,存储所述新的第一化学结构。
根据实施方式的方面,提供配置成产生化学结构的神经网络设备,其包括:配置成存储至少一个程序的存储器;和配置成通过执行所述至少一个程序而驱动神经网络的处理器,其中所述处理器被配置成:将化学结构的图像输入到经训练的神经网络,所述经训练的神经网络产生所述化学结构的性质的性质值,所述化学结构的图像代表所述化学结构的结构特性且所述化学结构的性质为由所述化学结构所拥有的特性;确定在所述图像中的用于表达所述性质的表达区域,所述表达区域包括在所述图像中的一个或多个像素;和通过修改在所述化学结构中的局部结构而产生新的化学结构,所述局部结构对应于所述表达区域。
根据实施方式的方面,提供非瞬时计算机可读的记录介质,其包括程序,所述程序当被计算机执行时,实行所述方法的任一种。
附图说明
由结合附图考虑的实施方式的以下描述,这些和/或其它方面将变得明晰和更容易理解,其中:
图1为说明根据实施方式的神经网络设备的硬件构造的方块图;
图2为说明通过根据实施方式的深度(深层)神经网络(DNN)实行的计算的图;
图3为说明通过根据实施方式的循环(递归)神经网络(RNN)实行的计算的图;
图4为说明根据实施方式的用于产生化学结构的神经网络系统的概念图;
图5为说明根据实施方式的代表化学结构的方法的图;
图6为说明根据实施方式的解释神经网络的方法的图;
图7为说明根据实施方式的改变描述符的表达区域以产生新的化学结构的实例的图;
图8为说明根据实施方式的通过改变描述符的位值而改变局部结构的实例的图;
图9为说明根据实施方式的通过改变图像的像素值而改变局部结构的实例的图;
图10为说明根据实施方式的当在图像上存在多个表达区域时改变像素值的实例的图;
图11为根据实施方式的在神经网络设备中通过改变对于化学结构的描述符而产生新的化学结构的方法的流程图;和
图12为根据实施方式的在神经网络设备中通过改变对于化学结构的图像而产生新的化学结构的方法的流程图。
具体实施方式
现在将对实施方式详细地进行介绍,其实例示于附图中,其中相同的附图标记始终指的是相同的元件。在这点上,本实施方式可具有不同的形式且不应被解释为限于本文中阐明的描述。因此,下面仅通过参照附图描述实施方式以说明方面。如本文中使用的,术语“和/或”包括相关列举项目的一个或多个的任何和全部组合。表述例如“……的至少一个(种)”当在要素列表之前或之后时修改整个要素列表而不修改所述列表的单独要素,使得“a、b和c的至少一个(种)”的表述或与其类似的表述包括:仅a,仅b,仅c,仅a和b,仅b和c,仅a和c,以及a、b和c的全部。
在整个说明书中使用的术语“根据一些实施方式”或者“根据实施方式”不一定表示相同的实施方式。
本公开内容的一些实施方式可通过功能块(框)构造和各种处理操作描绘。这些功能块的一些或全部可使用各种数量的履行特定功能的硬件和/或软件组件(构件,成分)实施。例如,本公开内容的功能块可使用执行指令以实行给定功能的一个或多个微处理器或电路实施。此外,例如,本公开内容的功能块可以多种编程或脚本语言实施。所述功能块可用通过一个或多个处理器执行的算法实施。本公开内容还可采用用于电子构造、信号处理、和/或数据处理的常规技术。术语“机构”、“元件”、“单元”和“构造”可在广义上使用且不限于机械和物理构造。
此外,在附图中所示的在组件之间的连接线或连接构件仅仅说明功能性连接和/或物理或电路连接。在实际设备中,在组件之间的连接可由可被替换或添加的各种功能性连接、物理连接、或电路连接提供。
同时,关于本文中使用的术语,作为在神经网络系统中使用的数据的描述符指的是用于描述化学结构的结构特性(特征)的指示值并且可通过对给定的化学结构实行相对简单的计算而获得。根据实施方式,描述符可包括指示是否包括特定局部结构的分子结构指纹(例如,摩根(Morgan)指纹和扩展连通指纹(ECFP))。此外,所述描述符可为配置有可由给定的化学结构立即计算的值例如分子量或者在分子结构中包括的局部结构(例如,环)的数量的定量结构-性质关系(QSPR)模型。
另外,性质指的是由化学结构所拥有的特性并且可为通过实验测量的真实数值或者可通过模拟来计算。例如,当所述化学结构被用作显示(显示器)材料时,所述化学结构的所述性质可为对于光的透射波长、发射波长等。当所述物质用作电池材料时,所述化学结构的所述性质可为电压。不同于描述符,性质的计算可需要复杂的模拟,其使得需要超出对于描述符的相似模拟的额外的计算(calculation)和估算(computation)。
此外,结构指的是化学结构的原子水平结构。为了通过实行第一性原理计算而推导(得出)性质,需要将结构在原子水平上表达。因此,原子水平结构需要被推导以产生新的化学结构。所述结构可为基于原子键合关系的结构式或以简单的格式(一维)的字符串。表达结构的字符串的格式可为简化分子线性输入系统(规范)(SMILES)代码、SmilesArbitrary Target Specification(SMARTS)代码、国际化合物标识(InChi)代码等。
另外,因子指的是定义描述符、性质、和结构之间的关系的要素。因子可基于数据库中存储的描述符-性质-结构式通过机器学习确定。因此,可确定在因子、描述符、性质、和结构式之间的关系如何。
在下文中,将参照附图详细地描述本公开内容的实施方式。
图1为说明根据实施方式的神经网络设备100的硬件构造的方块图。
神经网络设备100可使用多种类型的设备例如个人计算机(PC)、服务器、可移动设备、和嵌入式设备实施。神经网络设备100的实例可包括,但不限于,使用神经网络实行语音识别、图像识别、图像分类等的智能电话、平板设备、增强现实(AR)设备、物联网(IoT)设备、自动驾驶车辆、机器人、医学设备等。此外,神经网络设备100可为安置在以上描述的设备上、连接至以上描述的设备、或安装在以上描述的设备中的专用硬件(HW)加速器。神经网络设备100可为硬件加速器例如作为用于驱动神经网络的专用模块(组件)的神经处理器(处理单元)(神经网络处理器)(NPU)、张量处理器(TPU)、或神经引擎,但不限于此。
参照图1,神经网络设备100包括处理器110和存储器120。图1仅说明与本公开内容的实施方式有关的神经网络设备100的组件。因此,本领域技术人员明晰,神经网络设备100可进一步包括除图1中显示的组件之外的任何其它通用组件。
处理器110控制用于驱动神经网络设备100的总体功能。例如,处理器110通过执行存储在神经网络设备100的存储器120中的程序而控制神经网络设备100的总体操作。处理器110可作为提供在神经网络设备100中的中央处理器(CPU)、图形处理器(GPU)、应用处理器(AP)等实施,但不限于此。
存储器120是存储在神经网络设备100中处理的多种数据的硬件组件。例如,存储器120可存储由神经网络设备100处理过的和将由神经网络设备100处理的数据。存储器120还可存储待通过神经网络设备100的处理器110执行的应用、驱动程序等。存储器120可包括随机存取存储器(RAM)例如动态随机存取存储器(DRAM)和静态随机存取存储器(SRAM)、只读存储器(ROM)、电可擦可编程只读存储器(EEPROM)、CD-ROM、蓝光或其它光盘存储器、硬盘驱动器(HDD)、固态硬盘(SSD)、或闪速存储器(闪存)。
存储器120可将彼此匹配的对于化学结构的描述符和用数字代表所述化学结构的性质的性质值作为一个组或对存储。神经网络设备100可从存储器120读取所述描述符和与其对应的性质值或者将所述描述符和与其对应的性质值写入存储器120中。在实施方式中,所述描述符可包括多个位值,和所述性质值可为对于透射波长、发射波长、电压等的值。
尽管未在图1中示出,但是存储器120可将彼此关联的对于化学结构的图像和用数字代表所述化学结构的性质的性质值作为一个组或对存储。在实施方式中,所述图像可包括n×m个像素(其中n和m为自然数)。在下文中,描述符的描述同样适用于其中描述符被图像替换的情况。
存储器120可将代表化学结构的结构特征值以及匹配所述结构特征值的描述符和性质值作为一个组或对存储。所述结构特征值可为作为表达化学结构的串格式的SMILES代码或SMARTS代码。
处理器110可执行指令以实施人工神经网络(ANN),例如深度神经网络(DNN)和循环神经网络(RNN)。
处理器110可容许DNN通过使用描述符和对应于所述描述符的性质值进行学习,并且在该过程中可确定定义在所述描述符和所述性质值之间的关系的因子。然后,处理器110可通过如下输出对应于新的描述符的性质值作为输出数据:通过使用未在DNN的学习过程中使用过的新的描述符作为输入数据驱动经训练的DNN。
处理器110可容许RNN通过使用描述符和结构特征值进行学习,并且在该过程中可确定定义在所述描述符和所述结构特征值之间的关系的因子。然后,处理器110可通过如下输出对应于新的描述符的结构特征值作为输出数据:通过使用在RNN的学习过程中未使用过的新的描述符作为输入数据驱动经训练的RNN。
神经网络设备100可进一步包括用户界面。用户界面指的是用于输入数据以控制神经网络设备100的设备或软件。用户界面的实例可包括,但不限于,键座、圆顶开关(锅仔片)、触摸板(例如,电容叠加型、电阻叠加型、红外光束型、表面声波型、积分应变仪(integral strain gauge)型、和压电型)、缓动盘(滚轮,jog wheel)、和轻摇开关(滚轮开关,jog switch)、以及可被显示用于接收用户输入的图形用户界面(GUI)。
图2为说明通过根据实施方式的DNN实行的计算的图。
参照图2,DNN 20可具有包括输入层、隐藏层、和输出层的结构,基于所接收的输入数据(例如,I1和I2)实行计算,并且基于计算结果产生输出数据(例如,O1和O2)。
例如,如图2中所示,DNN 20可包括输入层(层1)、两个隐藏层(层2和层3)、和输出层(层4)。由于DNN 20可包括许多用于处理有效信息的层,因此,与包括单个层的神经网络相比,DNN 20可处理复杂的数据。同时,尽管图2中所示的DNN 20包括4个层,但是DNN 20仅是实例并且还可包括与其中所示的那些相比更多或更少的层以及更多或更少的通道。即,DNN 20可具有与图2中所示的不同的各种层结构。
包括在DNN 20中的层各自可具有多个通道。所述通道可分别对应于多个人工节点,人工节点称作神经元、处理元件(PE)、单元、或类似的术语。例如,如图2中所示,层1可包括两个通道(节点),且层2和3可分别包括三个通道。然而,所述层仅是实例,且包括在DNN20中的层各自可具有各种数量的通道(节点)和与其它节点的互连。
包括在DNN 20的层各自中的通道可互连以处理数据。例如,通道可实行从一个层的通道接收的数据的计算并且将计算结果输出到另一层的通道。
各通道的输入和输出可称作输入激活和输出激活。即,激活可不仅是一个通道的输出,而且是与包括在相继的层中的通道的输入对应的参数。同时,所述通道各自可基于从包括在先前层中的通道接收的激活和权重确定其激活。权重为用于计算各通道的输出激活的参数且可为被赋值到在通道之间的关系的值。
所述通道各自可通过接收输入并且产生输出激活的计算单元或处理元件处理。可对各通道的输入-输出绘图。例如,当σ为激活函数、为来自包括在第(i-1)层中的第k通道至包括在第i层中的第j通道的权重、为包括在第i层中的第j通道的偏置、且为第i层的第j通道的激活时,可使用下面的方程1计算激活
[方程1]
如图2中所示,第二层层2的第一通道CH1的激活可作为表达。另外,根据方程1,可具有的值。在方程1中,σ表示激活函数例如Relu、sigmoid(S形)、和tanh(双曲正切)。结果,特定层中的特定通道的激活可表示通过使的值通过所述激活函数而获得的结果。
然而,上述方程1仅是用于描述用于处理DNN 20中的数据的激活和权重的实例,且实施方式不限于此。
在实施方式中,神经网络设备100可容许DNN 20通过使用存储在存储器中的描述符(或图像)和性质值进行学习。DNN 20可在使用所述描述符和所述性质值的学习过程中确定定义在描述符(或图像)和性质值之间的关系的因子。
即,在构成DNN 20的层1至4之中,所述描述符(或图像)可对应于输入层(层1)的多个通道(节点)的值,所述性质值可对应于输出层(层4)的多个通道(节点)的值,且所述因子可对应于至少一个隐藏层(层2和/或3)的多个通道(节点)的值。
然后,经训练的DNN 20可通过接收新的描述符(或新的图像)作为输入数据驱动而被驱动,且因此可输出对应于所接收的新的描述符(或新的图像)的性质值作为输出数据。
图3为说明通过根据实施方式的RNN实行的计算的图。
在下文中,为了描述的方便,将不重复以上参照图2给出的描述。
RNN 30是分析随着时间改变的数据例如时间序列数据且通过将在参比时间点t和下一时间点t+1之间的网络连接而构造的神经网络。即,RNN 30是其中时间方面被考虑并且能够通过修改模型以容许向所述神经网络的隐藏层的递归输入而从顺序地输入的数据或者以特征序列输入的数据有效地学习模式的神经网络。
参照图3,示出了构成RNN 30的隐藏层的节点s。节点s可基于输入数据x实行计算并且产生输出数据o。RNN 30可将相同的任务迭代应用于所有序列,且节点s的最终的输出结果受之前的计算的结果影响。
RNN 31为展开的具有回路的RNN 30。关于RNN 30的术语“展开”指的是对于整个序列表达RNN 30。在RNN 31中,xt为在时间步t处的输入值,且st为在时间步t处的隐藏状态。术语st可通过下面的方程2表达。在方程2中,可使用tanh或Relu函数作为函数f。用于计算第一隐藏状态的st-1可通常被初始化至0。另外,在RNN 31中,ot为在时间步t处的输出值。
[方程2]
这里,st为所述网络的存储部分并且存储在之前的时间步处关于事件的信息。输出值ot仅取决于当前时间步t的存储。
同时,不同于其中参数彼此不同的现有的神经网络结构,RNN 31对于所有的时间步共享参数U、V、和W。即,由于RNN 31的各步除了输入值之外实行几乎相同的计算,因此可减少待学习的参数的数量。
在实施方式中,神经网络设备100可容许RNN 31通过使用存储在存储器中的描述符(或图像)和性质值进行学习。替代地,神经网络设备100可容许RNN 31通过使用在DNN 20的学习过程中确定的因子和性质值进行学习。
例如,当RNN 31的W为在DNN 20的学习过程中确定的因子且由SMILES代码代表的结构特征值为“ABCD”时,Ot-1和xt可为“ABC”,且Ot和xt+1可为“BCD”。然后,可将各时间步中的SMILES代码集合以输出一个SMILES代码“ABCDEFG”即结构特征值作为输出数据。
然后,经训练的RNN 31可通过接收新的描述符(或新的图像)作为输入数据而被驱动,且因此可输出对应于所接收的新的描述符(或新的图像)的结构特征值作为输出数据。替代地,经训练的RNN 31可通过接收对于新的描述符(或新的图像)的因子作为输入数据而被驱动,且因此可输出对应于所述新的描述符(或新的图像)的结构特征值作为输出数据。
图4为说明根据实施方式的用于产生化学结构的神经网络系统的概念图。
参照图4,说明配置成通过使用DNN 410和RNN 420产生化学结构的神经网络系统。
作为在神经网络系统中使用的数据的描述符可由作为用于代表化学结构的结构特性的指示值的ECFP代表。性质指的是由化学结构所拥有的特性且可为指示关于光的透射波长和发射波长的真实数值。结构指的是化学结构的原子水平结构且可由SMILES代码代表。例如,结构式可根据如以下面的方程3显示的SMILES代码表达。
[方程3]
OCl=C(C=C2C=CNC2=Cl)Cl=C(C=CC=Cl)Cl=CC2=C(NC=C2)C=Cl
因子为定义在描述符、性质、和结构之间的关系的要素。因子可为至少一个隐藏层。当因子包括多个隐藏层时,可对于各隐藏层确定定义在描述符和性质之间的关系的因子、定义在描述符和结构之间的关系的因子等。
DNN 410可通过接收描述符作为输入数据而被驱动,并且输出对应于所接收的描述符的性质值作为输出数据。在使用描述符和性质值的学习过程中,DNN 410可确定定义在描述符和性质值之间的关系的因子。RNN 420可通过接收在DNN 410的学习过程中确定的因子或描述符作为输入数据而被驱动,并且输出结构特征值作为输出数据。
图5为说明根据实施方式的代表化学结构510的方法的图。
参照图5,化学结构510代表通过原子的组合形成的分子的形状。化学结构510可由原子的位置、在原子之间的距离、原子键的强度等代表。
在一种实施方式中,化学结构510可由包括多个位值(1或0)的描述符520代表。通过描述符520,可确定化学结构510是否包括特定的局部结构。
在另一实施方式中,化学结构510可作为具有一定尺寸的图像530代表。图像530可包括n×m个像素(其中n和m为自然数)的三种通道(红色、绿色和蓝色(RGB))。在所述图像中,8位,即,从0(黑色)到255(白色)的值,可被分配到图像530的各像素。例如,鲜红色可用246的R通道值、20的G通道值、和50的B通道值合成,和当所有通道值为255时,合成白色。
在下文中,为了描述的方便,将描述其中通过使用一个通道将化学结构510显示作为图像530的方法。
构成化学结构510的原子可以彼此不同的颜色显示在图像530上。化学结构510可包括碳(C)、氮(N)、和氧(O),且在图像530上,碳(C)可以黑色显示,氮(N)可以蓝色显示,且氧(O)可以红色显示。
参照图5,在包括6×6个像素的图像530上,化学结构510的碳(C)位于其处的像素的值可为“0”,氮(N)位于其处的像素的值可为“50”,且氧(O)位于其处的像素的值可为“186”。在不存在原子之处的像素的值可为“255”。
某原子显示在图像530上的颜色类型、构成图像530的像素的数量等不限于以上实例。
对于化学结构510的描述符520或图像530可用作神经网络的输入数据,且对于化学结构510的特定性质值可作为神经网络的输出数据输出。
图6为说明根据实施方式的解释神经网络的方法的图。
神经网络设备100可获得对于参比化学结构的描述符或图像以输出对于所述参比化学结构的特定性质值。在实施方式中,所述描述符可包括多个位值,且所述图像可包括n×m个像素(其中n和m为自然数)。
神经网络设备100可将对于所述参比化学结构的描述符或图像输入到经训练的神经网络作为输入数据和通过推理过程610驱动所述神经网络,以获得对于所述参比化学结构的特定性质值作为所述神经网络的输出数据。
在此情况下,神经网络设备100可实行解释过程620以确定特定性质值是否由在所述参比化学结构中的局部结构表达。
参照图6,在实施方式中,神经网络设备100可通过使用逐层相关性传播(LRP)技术对经训练的神经网络进行解释。LRP技术是在经训练的神经网络的相反方向(即,从输出层到输入层的方向)上传播相关性的方法。在LRP技术中,当相关性在层之间传播时,在下部层的多个节点之中的与上部层具有最大相关性的节点从上部层的相应节点获得最大相关性。
计算LRP技术中的相关性的方法可通过方程4表示。在方程4中,ai和aj分别为在第i层的特定节点中待确定的输出值和在第j层的特定节点中待确定的输出值。w+ ij为将第i层的所述特定节点与第j层的所述特定节点联系起来的权重值。Ri和Rj分别表示第i层的所述特定节点的相关性和第j层的所述特定节点的相关性。
[方程4]
在实施方式中,为了LRP技术的应用,神经网络设备100可通过使用回归分析方法选定向经训练的神经网络的节点应用的激活函数作为线性函数,和可选定均方误差(MSE)用于优化。具体地,在回归分析方法中,由于最终的输出值可包括若干个整数值,因此所述神经网络可通过选定输出节点的激活函数作为线性函数而被训练。为了实施所述回归分析方法,损失函数可被选定作为神经网络学习过程中的MSE。
然而,可用在解释过程620中以确定特定性质值是否由在所述参比化学结构中的任何局部结构表达的技术不限于以上描述的实例。
当所述神经网络的输入数据为对于所述参比化学结构的描述符时,输入层的多个节点可分别对应于构成描述符的位值。神经网络设备100可通过解释过程620获得与所述参比化学结构的特定性质值的表达具有最大相关性的输入层的节点(即,描述符的位位置)。由于描述符的位位置对应于在所述参比化学结构中的特定局部结构,因此神经网络设备100可经由通过解释过程620获得描述符的位位置而确定与所述参比化学结构的特定性质值的表达具有最大相关性的特定局部结构。
当所述神经网络的输入数据为对于所述参比化学结构的图像时,所述输入层的多个节点可分别对应于构成所述图像的像素值。神经网络设备100可通过解释过程620获得与所述参比化学结构的特定性质值的表达具有最大相关性的输入层的节点(即,所述图像的像素坐标)。由于所述图像的像素坐标对应于所述参比化学结构中的特定局部结构,因此神经网络设备100可经由通过解释过程620获得所述图像的像素坐标而确定与所述参比化学结构的特定性质值的表达具有最大相关性的特定局部结构。
在下文中,与所述参比化学结构的特定性质值的表达具有最大相关性的描述符的位位置和图像的像素坐标将被称作表达区域。
图7为说明根据实施方式的改变描述符的表达区域以产生新的化学结构的实例的图。
参照图7,参比化学结构710的描述符712可为“11100011011010110”。神经网络设备100可向神经网络(例如,DNN)的输入层的节点分别顺序地输入构成描述符712的位值,并且输出对于参比化学结构710的性质值(即“,发射波长:320nm”)。
神经网络设备100可获得与参比化学结构710的波长值的表达具有最大相关性的输入层的节点(即,描述符712的表达区域713)。描述符712的表达区域713可对应于参比化学结构710中的特定位置711。在图7中,表达区域713对应于一个位值。然而,表达区域713可对应于多个连续的位值,且多个表达区域可在描述符712中。
神经网络设备100可改变表达区域713的位值以改善参比化学结构710的性质。当表达区域713的位值被改变时,特定位置711的结构可被改变。作为改变表达区域713的位值的方法,可使用遗传学算法,且随后将参照图8描述其细节。神经网络设备100可改变表达区域713的位值和/或在表达区域713周围的位值。
神经网络设备100可改变表达区域713的位值和输出新的描述符722。参照图7,当将新的描述符722中的表达区域713的位值“1”改变为“110100”时,神经网络设备100可将对应于位值“110100”的新的局部结构721应用于特定位置711和产生新的化学结构720,新的局部结构721被应用于新的化学结构720。
关于产生新的化学结构720的方法,神经网络设备100可输入新的描述符722作为神经网络(例如,RNN)的输入数据和输出结构特征值作为输出数据,并且可基于所输出的结构特征值产生新的化学结构720。
神经网络设备100可将新的化学结构720的描述符722输入到所述神经网络中和输出对应于输入到所述神经网络中的描述符722的性质值(即,“发射波长:325nm”)。即,神经网络设备100可通过改变参比化学结构710的局部结构和产生新的化学结构720而改善性质。
神经网络设备100可通过上述过程重复产生化学结构,直至产生具有与预设值(例如,“发射波长:350nm”)接近的性质值的化学结构。
具体地,神经网络设备100可将对于新的化学结构720的性质值(例如,“发射波长:325nm”)与预设值(例如,“发射波长:350nm”)进行比较,并且当对于新的化学结构720的性质值小于所述预设值时,通过改变描述符722的表达区域723的位值而产生新的化学结构。
当通过上述过程产生的对于所述新的化学结构的性质值等于或大于所述预设值时,神经网络设备100可将所产生的新的化学结构存储在存储器中。
图8为说明根据实施方式的通过改变描述符的位值而改变局部结构的实例的图。
在实施方式中,神经网络设备100可向构成参比化学结构的描述符的位值应用遗传学算法,和对所述位值实行选择、交叉(交迭)或变异操作(运行)。
神经网络设备100可通过向构成所述参比化学结构的描述符的位值应用遗传学算法而改变所述参比化学结构的描述符。当所述参比化学结构的描述符被改变或修改时,所述参比化学结构中的局部结构可被变异、除去、或替换,或者局部结构可被添加到所述参比化学结构。
参照图8,神经网络设备100可通过向构成所述参比化学结构的描述符的位值应用遗传学算法而使所述参比化学结构中的局部结构变异。例如,神经网络设备100可将所述参比化学结构中的第一位置810中的碳(C)改变成氮(N)。替代地,神经网络设备100可将与在第一位置810中的原子组合的相邻的原子811和812改变成其它原子。
另外,神经网络设备100可通过向构成所述参比化学结构的描述符的位值应用遗传学算法而向所述参比化学结构添加局部结构。例如,神经网络设备100可添加局部结构823以连接到所述参比化学结构中的第二位置820中的原子。替代地,神经网络设备100可添加局部结构以连接到与第二位置820中的原子组合的相邻的原子821和822。替代地,神经网络设备100可以连接到在第二位置820中的原子和与第二位置820中的原子组合的相邻原子821两者的稠环的形式添加局部结构824。
另外,神经网络设备100可通过向构成所述参比化学结构的描述符的位值应用遗传学算法而除去所述参比化学结构中的局部结构。例如,神经网络设备100可除去所述参比化学结构中的连接到第三位置830中的原子的局部结构831。替代地,神经网络设备100可通过除去在第三位置830中的原子而改变环结构。
另外,神经网络设备100可通过向构成所述参比化学结构的描述符的位值应用遗传学算法而替换所述参比化学结构中的局部结构。例如,神经网络设备100可将在所述参比化学结构中的第四位置840的环结构改变成新的局部结构841或842。
然而,通过改变描述符的位值而改变局部结构的实例不限于以上描述。
图9为说明根据实施方式的通过改变图像的像素值而改变局部结构的实例的图。
参照图9,参比化学结构910的图像912可包括6×6个像素。构成参比化学结构910的原子可以彼此不同的颜色显示在图像912上。参比化学结构910可包括碳(C)、氮(N)、和氧(O),且在图像912上,碳(C)可以黑色显示,氮(N)可以蓝色显示,且氧(O)可以红色显示。在图像912上,碳(C)位于其处的像素的值可为“0”,氮(N)位于其处的像素的值可为“50”,且氧(O)位于其处的像素的值可为“186”。
神经网络设备100可向神经网络(例如,DNN)的输入层的节点分别顺序地输入构成图像912的像素值,且因此可输出对于参比化学结构910的性质值(即,“发射波长:320nm”)。
神经网络设备100可获得与参比化学结构910的波长值的表达具有最大相关性的输入层的节点(即,图像912的表达区域913)。图像912的表达区域913可对应于参比化学结构910中的特定位置911。在图9中,表达区域913对应于一个像素值。然而,表达区域913可对应于多个相邻的像素值,且多个表达区域可被提供在图像912中。
神经网络设备100可改变表达区域913的像素值和/或在表达区域913周围的像素值以改善参比化学结构910的性质。当表达区域913的像素值和/或在表达区域913周围的像素值被改变时,特定位置911的结构可被改变。在实施方式中,可通过使用高斯噪声改变表达区域913的像素值和/或在表达区域913周围的像素值。高斯噪声指的是其任意次序(阶,order)的分布函数由正态分布表示的噪声。
神经网络设备100可改变表达区域913的像素值和/或在表达区域913周围的像素值,且因此输出新的图像922。参照图9,当在新的图像922中表达区域913的像素值和/或在表达区域913周围的像素值被改变时,神经网络设备100可向特定位置911应用对应于经改变的像素值的新的局部结构921和产生新的化学结构920。
关于产生新的化学结构920的方法,神经网络设备100可输入新的图像922作为神经网络(例如,RNN)的输入数据和输出结构特征值作为输出数据,并且可基于所输出的结构特征值产生新的化学结构920。
神经网络设备100可将新的化学结构920的图像922输入到所述神经网络中和输出对应于输入到所述神经网络中的图像922的性质值(即,“发射波长:325nm”)。即,神经网络设备100可通过改变参比化学结构910的局部结构和产生新的化学结构920而改善性质。
神经网络设备100可通过上述过程重复产生化学结构,直至产生具有与预设值(例如,“发射波长:350nm”)接近的性质值的化学结构。
具体地,神经网络设备100可将对于新的化学结构920的性质值(例如,“发射波长:325nm”)与预设值(例如,“发射波长:350nm”)进行比较,并且当对于新的化学结构920的性质值小于所述预设值时,通过改变图像922中的表达区域913的像素值和/或在表达区域913周围的像素值而产生新的化学结构。
当通过上述过程产生的对于新的化学结构的性质值等于或大于所述预设值时,神经网络设备100可将所产生的新的化学结构存储在存储器中。
图10为说明根据实施方式的当在图像上存在多个表达区域时改变像素值的实例的图。
参照图10,参比化学结构1010的图像1012可包括6×6个像素。构成参比化学结构1010的原子可以彼此不同的颜色显示在图像1012上。例如,在图像1012上,碳(C)位于其处的像素的值可为“0”,氮(N)位于其处的像素的值可为“50”,且氧(O)位于其处的像素的值可为“186”。
神经网络设备100可向神经网络(例如,DNN)的输入层的节点顺序地输入构成图像1012的像素值和输出对于参比化学结构1010的性质值(即,“发射波长:320nm”)。
在实施方式中,可存在与参比化学结构1010的波长值的表达具有最大相关性、或者相对于其它节点的高的相关性的输入层的多个节点。即,在图像1012上可存在多个表达区域,即,第一表达区域1013a和第二表达区域1013b。图像1012中的第一表达区域1013a和第二表达区域1013b可分别对应于参比化学结构1010中的第一位置1011a和第二位置1011b。如图10中所示,对应于第二表达区域1013b的第二位置1011b可在参比化学结构1010外面。
当在图像1012上存在多个表达区域即第一表达区域1013a和第二表达区域1013b时,神经网络设备100可获得在图像1012上的对应于所述多个表达区域即第一表达区域1013a和第二表达区域1013b的坐标信息。例如,基于图像1012的具有原点(0,0)的左下角,第一表达区域1013a的坐标信息可为(3,3)且第二表达区域1013b的坐标信息可为(5,3)。
神经网络设备100可基于对应于所述多个表达区域即第一表达区域1013a和第二表达区域1013b的坐标信息输出中心点1014的坐标信息(4,3)。神经网络设备100可改变中心点1014的像素值和/或在中心点1014周围的像素值以改善参比化学结构1010的性质。当中心点1014的像素值和/在中心点1014周围的像素值被改变时,在参比化学结构1010上的对应于中心点1014的特定位置1015的结构可被改变。在实施方式中,可通过使用高斯噪声改变中心点1014的像素值和/或在中心点1014周围的像素值。
神经网络设备100可改变中心点1014的像素值和/或在中心点1014周围的像素值和输出新的图像1022。参照图10,当在新的图像1022中的中心点1014的像素值和/或在中心点1014周围的像素值被改变时,神经网络设备100可向特定位置1015应用对应于经改变的像素值的新的局部结构1021和产生新的化学结构1020。
神经网络设备100可将新的化学结构1020的图像1022输入到所述神经网络中和输出对应于输入到所述神经网络中的图像1022的性质值(即,“发射波长:325nm”)。即,神经网络设备100可通过改变参比化学结构1010的局部结构和产生新的化学结构1020而改善性质。
图11为根据实施方式的在神经网络设备中通过改变对于化学结构的描述符而产生新的化学结构的方法的流程图。
在神经网络设备中产生化学结构的方法涉及以上参照附图描述的实施方式,且因此,尽管在下面的描述中被省略,但是以上参照附图给出的描述也可应用于图11中所示的方法。
参照图11,在操作1110中,神经网络设备可获得对于参比化学结构的描述符。
描述符为用于代表化学结构的结构特性的指示值。描述符可通过对给定的化学结构实行相对简单的操作而获得。在实施方式中,描述符可由ECFP代表且可包括多个位值。然而,描述符的表达方式不限于此。
在下文中,对于参比化学结构的描述符将被称作参比描述符。
在操作1120中,神经网络设备可将参比描述符输入到经训练的神经网络中和输出对于所述参比化学结构的特定性质的性质值。
性质指的是由化学结构所拥有的特性且可为指示关于光的透射波长和发射波长的真实数值。不同于描述符的情况,性质的计算可需要复杂的模拟且是耗时的。
所述神经网络设备的存储器可将彼此匹配的对于特定化学结构的描述符和用数字代表所述特定化学结构的性质的性质值作为一个组存储。
在实施方式中,所述神经网络设备可容许神经网络(例如,DNN)通过使用存储在存储器中的描述符和性质值进行学习。在使用所述描述符和所述性质值的学习过程中,可在所述神经网络中确定定义在所述描述符和所述性质值之间的关系的因子。
所述神经网络设备可通过如下输出对应于所述参比描述符的性质值作为所述神经网络的输出数据:输入所述参比描述符作为经训练的神经网络的输入数据,和驱动所述神经网络。
在操作1130中,所述神经网络设备可确定在所述参比描述符中的表达特定性质的表达区域。
所述神经网络设备可实行解释过程以确定特定性质值是否由在所述参比化学结构中的任何局部结构表达。
在实施方式中,所述神经网络设备可通过使用LRP技术对经训练的神经网络进行解释。LRP技术是在经训练的神经网络的相反方向(即,从输出层到输入层的方向)上传播相关性的方法。在LRP技术中,当在层之间传播相关性时,在下部层的多个节点之中的与上部层具有最大相关性的节点从所述上部层的相应节点获得所述最大相关性。
为了LRP技术的应用,所述神经网络设备可选定向经训练的神经网络的节点应用的激活函数作为线性函数,和可选定MSE用于优化。
所述神经网络的输入层的多个节点可分别对应于构成所述描述符的位值。所述神经网络设备可通过解释过程获得在所述参比化学结构的特定性质值的表达中具有最大相关性的输入层的节点,即,参比描述符的位位置(或表达区域)。由于所述参比描述符的表达区域对应于所述参比化学结构中的特定局部结构,因此所述神经网络设备可经由通过所述解释过程获得所述参比描述符的表达区域而确定在所述参比化学结构的特定性质值的表达中具有最大相关性的特定局部结构。
在操作1140中,所述神经网络设备可通过改变在所述参比化学结构中的对应于所述表达区域的局部结构而产生新的化学结构。
所述神经网络设备可接收目标性质值作为输入。在实施方式中,所述神经网络设备可包括用户界面,所述用户界面是用于输入用于控制所述神经网络设备的数据的工具。例如,所述用户界面可为键座、触摸板等,但不限于此。
所述目标性质值为将在所述神经网络设备中最终产生的化学结构的特定性质的数值。在实施方式中,所述目标性质值可为折射率值、弹性模量、熔点、透射波长、和/或发射波长。例如,所述神经网络设备可接收“发射波长:350nm”作为目标性质值。替代地,所述目标性质值可以递增的(+)方向或递减(-)的方向、而不是以数值设置。
所述神经网络设备可通过改变所述参比化学结构中的局部结构而产生具有与所述目标性质值接近的性质值得新的化学结构。
在实施方式中,所述神经网络设备可通过改变所述参比描述符的表达区域的位值而输出新的描述符。当所述参比描述符的表达区域的位值被改变时,所述参比化学结构中的局部结构可被改变。改变所述表达区域的位值的方法可使用遗传学算法,但不限于此。
所述神经网络设备可通过如下输出对应于新的描述符的结构特征值作为神经网络的输出数据:输入其中所述参比描述符的表达区域的位值被改变的新的描述符作为经训练的神经网络(例如,RNN)的输入数据,和驱动所述神经网络。所述神经网络设备可基于所输出的结构特征值产生新的化学结构。替代地,所述神经网络设备可使用在DNN的学习过程中输出的对于新的描述符的因子作为经训练的神经网络(例如,RNN)的输入数据。
所述神经网络设备可通过上述过程重复地产生化学结构,直至产生具有与目标性质值(例如,“发射波长:350nm”)接近的性质值的化学结构。
具体地,所述神经网络设备可将对于新的化学结构的性质值与目标性质值进行比较,和当对于所述新的化学结构的性质值小于所述目标性质值时,通过改变所述参比描述符的表达区域的位值而再次产生新的化学结构。
当通过上述过程产生的新的化学结构的性质值等于或大于所述目标性质值时,所述神经网络设备可将所产生的新的化学结构存储在存储器中。
图12为根据实施方式的在神经网络设备中通过改变对于化学结构的图像而产生新的化学结构的方法的流程图。
在下文中,省略与参照图11所给出的那些相同的描述。
参照图12,在操作1210中,所述神经网络设备可获得对于参比化学结构的图像。
在实施方式中,对于所述参比化学结构的图像可包括n×m个像素(其中n和m为自然数)。例如,8位,即,从0(黑色)到255(白色)的值,可被分配到所述图像的各像素。
在下文中,对于所述参比化学结构的图像将被称作参比图像。
在操作1220中,神经网络设备可将参比图像输入到经训练的神经网络中和输出对于所述参比化学结构的特定性质的性质值。
所述神经网络设备的存储器可将彼此匹配的对于特定化学结构的图像和用数字表示所述特定化学结构的性质的性质值作为一个组存储。
在实施方式中,所述神经网络设备可容许神经网络(例如,DNN)通过使用存储在存储器中的图像和性质值进行学习。在使用所述图像和所述性质值的学习过程中,可在所述神经网络中确定定义在所述图像和所述性质值之间的关系的因子。
所述神经网络设备可通过如下输出对应于所述参比图像的性质值作为所述神经网络的输出数据:输入所述参比图像作为经训练的神经网络的输入数据,和驱动所述神经网络。
在操作1230中,所述神经网络设备可确定在所述图像中的表达特定性质的表达区域。
所述神经网络的输入层的多个节点可分别对应于构成所述图像的像素值。所述神经网络设备可通过解释过程获得在所述参比化学结构的特定性质值的表达中具有最大相关性的输入层的节点,即,所述参比图像的像素坐标(或表达区域)。由于所述参比图像的表达区域对应于所述参比化学结构中的特定局部结构,因此所述神经网络设备可经由通过解释过程获得所述参比图像的表达区域而确定在所述参比化学结构的特定性质值的表达中具有最大相关性的特定局部结构。
在操作1240中,所述神经网络设备可通过改变在所述参比化学结构中的对应于所述表达区域的局部结构而产生新的化学结构。
在实施方式中,所述神经网络设备可通过改变参比图像的表达区域的像素值和/或在所述表达区域周围的像素值而产生新的图像。当所述参比图像的表达区域的像素值和/或在所述表达区域周围的像素值被改变时,所述参比化学结构中的局部结构可被改变。在实施方式中,可通过使用高斯噪声改变所述参比图像的表达区域的像素值和/或在所述表达区域周围的像素值,但改变所述像素值的方法不限于此。
所述神经网络设备可通过如下输出对应于新的图像的结构特征值作为所述神经网络的输出数据:输入其中所述参比图像的表达区域的像素值和/或在所述表达区域周围的像素值被改变的新的图像作为经训练的神经网络(例如,RNN)的输入数据,和驱动所述神经网络。所述神经网络设备可基于所输出的结构特征值产生新的化学结构。替代地,所述神经网络设备可使用在DNN的学习过程中输出的对于新的图像的因子作为经训练的神经网络(例如,RNN)的输入数据。
所述神经网络设备可通过上述过程重复地产生化学结构,直至产生具有与目标性质值(例如,“发射波长:350nm”)接近的性质值的化学结构。
具体地,所述神经网络设备可将对于新的化学结构的性质值与目标性质值进行比较,和当对于新的化学结构的性质值小于所述目标性质值时,通过改变所述参比图像的表达区域的像素值和/或在所述表达区域周围的像素值而再次产生新的化学结构。
当通过上述过程产生的新的化学结构的性质值等于或大于所述目标性质值时,所述神经网络设备可将所产生的新的化学结构存储在存储器中。
根据上述实施方式,经训练的神经网络可被解释以明确(specify)表达化学结构的性质的局部结构。另外,通过改变经明确的局部结构,可产生具有改善的性质的新的化学结构。
此外,前述实施方式可以存储由计算机可执行的指令、例如由计算机执行的程序模块的记录介质的形式体现。计算机可读介质可为可通过计算机访问的任何记录介质,并且可包括易失性和非易失性介质以及可移动和不可移动介质。此外,所述计算机可读介质可包括计算机存储介质和通信介质。所述计算机存储介质包括使用任何用于存储信息例如计算机可读指令、数据结构、程序模块、或其它数据的方法或技术实施的易失性和非易失性以及可移动和不可移动介质。所述通信介质包括经调制的数据信号或其它传输机理的计算机可读指令、数据结构、程序模块、或其它数据且可包括任何传输介质。
另外,在整个说明书中,术语“单元”可为硬件组件例如处理器或电路和/或由硬件组件例如处理器执行的软件组件。
本公开内容的以上描述被提供用于说明的目的,且本领域技术人员将理解,在不改变本公开内容的技术构思和实质特征的情况下,可进行多种改变和变型。因此,明晰的是,上述说明性的实施方式在所有方面中都是说明性的且不限制本公开内容。例如,被描述为单一类型的各组件可以分布的方式实施。同样,被描述为分布的组件可以组合的方式实施。
应理解,本文中描述的实施方式应仅在描述的意义上考虑且不用于限制的目的。在各实施方式中的特征或方面的描述应典型地被认为可用于其它实施方式中的其它类似特征或方面。
尽管已经参照附图描述了一种或多种实施方式,但是本领域普通技术人员将理解,在不脱离如由所附权利要求限定的精神和范围的情况下可在其中进行形式和细节方面的多种变化。
Claims (23)
1.通过使用神经网络设备产生化学结构的方法,所述方法包括:
将化学结构的描述符输入到经训练的神经网络,所述经训练的神经网络产生所述化学结构的性质的性质值,所述化学结构的描述符代表所述化学结构的结构特性且所述化学结构的性质为由所述化学结构所拥有的特性;
确定在所述描述符中的用于表达所述性质的表达区域,所述表达区域包括在所述描述符中的位位置;和
通过修改在所述化学结构中的局部结构而产生新的化学结构,所述局部结构对应于所述表达区域。
2.如权利要求1所述的方法,其中所述确定包括:
通过以下确定在所述描述符中的用于表达所述性质的表达区域:所述经训练的神经网络实行解释过程以确定所述性质值是否由在所述化学结构中的所述局部结构表达。
3.如权利要求2所述的方法,其中所述确定包括:
通过向所述经训练的神经网络应用逐层相关性传播(LRP)技术而确定在所述描述符中的用于表达所述性质的表达区域,
其中向所述经训练的神经网络的节点应用的激活函数被选定作为线性函数以向所述经训练的神经网络应用所述LRP技术,和均方误差(MSE)被选定用于优化。
4.如权利要求1所述的方法,其中所述产生包括:
获得在所述描述符中的所述表达区域的位位置的位值;和
通过向所述位位置的位值应用遗传学算法和修改对应于所述表达区域的所述局部结构而产生所述新的化学结构。
5.如权利要求1所述的方法,其中所述产生包括:
通过修改在所述化学结构中的所述局部结构而产生新的第一化学结构,所述局部结构对应于所述表达区域;
将对于所述新的第一化学结构的描述符输入到所述经训练的神经网络以输出对于所述新的第一化学结构的特定性质的性质值;以及
当对于所述新的第一化学结构的特定性质的性质值小于预设值时,通过改变在所述新的第一化学结构中的局部结构而产生新的第二化学结构,所述局部结构对应于所述表达区域,和当对于所述新的第一化学结构的特定性质的性质值等于或大于所述预设值时,存储所述新的第一化学结构。
6.配置成产生化学结构的神经网络设备,所述神经网络设备包括:
配置成存储至少一个程序的存储器;和
配置成通过执行所述至少一个程序而控制所述神经网络设备来实施神经网络的处理器,当所述至少一个程序被执行时,所述处理器被配置成:
将化学结构的描述符输入到经训练的神经网络,所述经训练的神经网络产生所述化学结构的性质的性质值,所述化学结构的描述符代表所述化学结构的结构特性且所述化学结构的性质为由所述化学结构所拥有的特性;
确定在所述描述符中的用于表达所述性质的表达区域,所述表达区域包括在所述描述符中的位位置;和
通过修改在所述化学结构中的局部结构而产生新的化学结构,所述局部结构对应于所述表达区域。
7.如权利要求6所述的神经网络设备,其中当所述至少一个程序被执行时,所述处理器被进一步配置成通过如下确定在所述描述符中的用于表达所述性质的表达区域:所述经训练的神经网络实行解释过程以确定所述性质值是否由在所述化学结构中的所述局部结构表达。
8.如权利要求7所述的神经网络设备,其中当所述至少一个程序被执行时,所述处理器被进一步配置成:
通过向所述经训练的神经网络应用逐层相关性传播(LRP)技术而确定在所述描述符中的用于表达所述性质的表达区域;以及
选定向所述经训练的神经网络的节点应用的激活函数作为线性函数以向所述经训练的神经网络应用所述LRP技术和选定均方误差(MSE)用于优化。
9.如权利要求6所述的神经网络设备,其中当所述至少一个程序被执行时,所述处理器被进一步配置成获得在所述描述符中的所述表达区域的位位置的位值以及通过向所述位位置的位值应用遗传学算法和修改对应于所述表达区域的所述局部结构而产生所述新的化学结构。
10.如权利要求6所述的神经网络设备,其中当所述至少一个程序被执行时,所述处理器被配置成:
通过修改在所述化学结构中的所述局部结构而产生新的第一化学结构,所述局部结构对应于所述表达区域;
将对于所述新的第一化学结构的描述符输入到所述经训练的神经网络以输出对于所述新的第一化学结构的特定性质的性质值;和
当对于所述新的第一化学结构的特定性质的性质值小于预设值时,通过改变在所述新的第一化学结构中的局部结构而产生新的第二化学结构,所述局部结构对应于所述表达区域,和当对于所述新的第一化学结构的特定性质的性质值等于或大于所述预设值时,将所述新的第一化学结构存储在所述存储器中。
11.通过使用神经网络设备产生化学结构的方法,所述方法包括:
将化学结构的图像输入到经训练的神经网络,所述经训练的神经网络产生所述化学结构的性质的性质值,所述化学结构的图像代表所述化学结构的结构特性且所述化学结构的性质为由所述化学结构所拥有的特性;
确定在所述图像中的用于表达所述性质的表达区域,所述表达区域包括在所述图像中的一个或多个像素;和
通过修改在所述化学结构中的局部结构而产生新的化学结构,所述局部结构对应于所述表达区域。
12.如权利要求11所述的方法,其中所述确定包括:
通过如下确定在所述图像中的用于表达所述性质的表达区域:所述经训练的神经网络实行解释过程以确定所述性质值是否由在所述化学结构中的所述局部结构表达。
13.如权利要求12所述的方法,其中所述确定包括:
通过向所述经训练的神经网络应用逐层相关性传播(LRP)技术而确定在所述图像中的用于表达所述性质的表达区域,
其中向所述经训练的神经网络的节点应用的激活函数被选定作为线性函数以向所述经训练的神经网络应用所述LRP技术,和均方误差(MSE)被选定用于优化。
14.如权利要求11所述的方法,其中所述产生包括:
获得在所述图像中的所述表达区域中的一个或多个像素的像素值;和
通过向所述一个或多个像素的像素值应用高斯噪声和修改对应于所述表达区域的所述局部结构而产生所述新的化学结构。
15.如权利要求11所述的方法,其中所述表达区域包括表达所述性质的多个表达区域,且所述产生包括:
获得在所述图像中的对应于所述多个表达区域的坐标信息;
基于所述坐标信息计算在所述图像中的所述多个表达区域的中心点和获得所述中心点的像素值;和
通过向所述像素值应用高斯噪声和修改对应于所述中心点的所述局部结构而产生所述新的化学结构。
16.如权利要求11所述的方法,其中所述产生包括:
通过修改在所述化学结构中的所述局部结构而产生新的第一化学结构,所述局部结构对应于所述表达区域;
将对于所述新的第一化学结构的图像输入到所述经训练的神经网络以输出对于所述新的第一化学结构的特定性质的性质值;和
当对于所述新的第一化学结构的特定性质的性质值小于预设值时,通过改变在所述新的第一化学结构中的局部结构而产生新的第二化学结构,所述局部结构对应于所述表达区域,和当对于所述新的第一化学结构的特定性质的性质值等于或大于所述预设值时,存储所述新的第一化学结构。
17.配置成产生化学结构的神经网络设备,所述神经网络设备包括:
配置成存储至少一个程序的存储器;和
配置成通过执行所述至少一个程序而控制所述神经网络设备来实施神经网络的处理器,当所述至少一个程序被执行时,所述处理器被配置成:
将化学结构的图像输入到经训练的神经网络,所述经训练的神经网络产生所述化学结构的性质的性质值,所述化学结构的图像代表所述化学结构的结构特性且所述化学结构的性质为由所述化学结构所拥有的特性;
确定在所述图像中的用于表达所述性质的表达区域,所述表达区域包括在所述图像中的一个或多个像素;和
通过修改在所述化学结构中的局部结构而产生新的化学结构,所述局部结构对应于所述表达区域。
18.如权利要求17所述的神经网络设备,其中当所述至少一个程序被执行时,所述处理器被进一步配置成通过如下确定在所述图像中的用于表达所述性质的表达区域:所述经训练的神经网络实行解释过程以确定所述性质值是否由在所述化学结构中的所述局部结构表达。
19.如权利要求18所述的神经网络设备,其中当所述至少一个程序被执行时,所述处理器被进一步配置成:
通过向所述经训练的神经网络应用逐层相关性传播(LRP)技术而确定在所述图像中的用于表达所述性质的表达区域;以及
选定向所述经训练的神经网络的节点应用的激活函数作为线性函数以向所述经训练的神经网络应用所述LRP技术和选定均方误差(MSE)用于优化。
20.如权利要求17所述的神经网络设备,其中当所述至少一个程序被执行时,所述处理器被进一步配置成获得在所述图像中的所述表达区域中的一个或多个像素的像素值以及通过向所述一个或多个像素的像素值应用高斯噪声和修改对应于所述表达区域的所述局部结构而产生所述新的化学结构。
21.如权利要求17所述的神经网络设备,其中所述表达区域包括表达所述性质的多个表达区域,且当所述至少一个程序被执行时,所述处理器被进一步配置成:
获得在所述图像中的对应于所述多个表达区域的坐标信息;
基于所述坐标信息计算在所述图像中的所述多个表达区域的中心点和获得所述中心点的像素值;以及
通过向所述像素值应用高斯噪声和修改对应于所述中心点的所述局部结构而产生所述新的化学结构。
22.如权利要求17所述的神经网络设备,其中当所述至少一个程序被执行时,所述处理器被进一步配置成:
通过修改在所述化学结构中的所述局部结构而产生新的第一化学结构,所述局部结构对应于所述表达区域;
将对于所述新的第一化学结构的图像输入到所述经训练的神经网络以输出对于所述新的第一化学结构的特定性质的性质值;和
当对于所述新的第一化学结构的特定性质的性质值小于预设值时,通过改变在所述新的第一化学结构中的局部结构而产生新的第二化学结构,所述局部结构对应于所述表达区域,和当对于所述新的第一化学结构的特定性质的性质值等于或大于所述预设值时,将所述新的第一化学结构存储在所述存储器中。
23.非瞬时计算机可读的记录介质,其包括程序,所述程序当被计算机执行时,实行如权利要求1-5和11-16任一项所述的方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2018-0098373 | 2018-08-23 | ||
KR1020180098373A KR102547802B1 (ko) | 2018-08-23 | 2018-08-23 | 뉴럴 네트워크를 이용하여 화학 구조를 생성하는 장치 및 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110858504A true CN110858504A (zh) | 2020-03-03 |
Family
ID=65904210
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910140880.5A Pending CN110858504A (zh) | 2018-08-23 | 2019-02-26 | 产生化学结构的方法、神经网络设备和非瞬时计算机可读的记录介质 |
Country Status (4)
Country | Link |
---|---|
US (2) | US11670403B2 (zh) |
EP (1) | EP3614314B1 (zh) |
KR (1) | KR102547802B1 (zh) |
CN (1) | CN110858504A (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210287137A1 (en) * | 2020-03-13 | 2021-09-16 | Korea University Research And Business Foundation | System for predicting optical properties of molecules based on machine learning and method thereof |
CN114496111B (zh) * | 2022-01-28 | 2024-09-13 | 厦门大学 | 一种基于机器学习快速预测核磁共振化学位移的方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040186815A1 (en) * | 2002-12-20 | 2004-09-23 | Stockfisch Thomas P. | Method for accommodating missing descriptor and property data while training neural network models |
US20100010946A1 (en) * | 2006-08-31 | 2010-01-14 | Silicos Nv | Method for evolving molecules and computer program for implementing the same |
US20130138436A1 (en) * | 2011-11-26 | 2013-05-30 | Microsoft Corporation | Discriminative pretraining of deep neural networks |
WO2016150472A1 (en) * | 2015-03-20 | 2016-09-29 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Relevance score assignment for artificial neural network |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB201209239D0 (en) | 2012-05-25 | 2012-07-04 | Univ Glasgow | Methods of evolutionary synthesis including embodied chemical synthesis |
KR102276339B1 (ko) | 2014-12-09 | 2021-07-12 | 삼성전자주식회사 | Cnn의 근사화를 위한 학습 장치 및 방법 |
KR102523472B1 (ko) | 2016-08-01 | 2023-04-18 | 삼성전자주식회사 | 신규 물질의 구조 생성 방법 및 장치 |
KR20180056013A (ko) | 2016-11-18 | 2018-05-28 | 강원대학교산학협력단 | 나노 물질의 독성을 예측하는 방법 및 장치 |
KR102587959B1 (ko) | 2018-01-17 | 2023-10-11 | 삼성전자주식회사 | 뉴럴 네트워크를 이용하여 화학 구조를 생성하는 장치 및 방법 |
-
2018
- 2018-08-23 KR KR1020180098373A patent/KR102547802B1/ko active IP Right Grant
-
2019
- 2019-02-06 US US16/269,092 patent/US11670403B2/en active Active
- 2019-02-26 CN CN201910140880.5A patent/CN110858504A/zh active Pending
- 2019-03-21 EP EP19164409.5A patent/EP3614314B1/en active Active
-
2023
- 2023-04-26 US US18/139,655 patent/US20230268035A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040186815A1 (en) * | 2002-12-20 | 2004-09-23 | Stockfisch Thomas P. | Method for accommodating missing descriptor and property data while training neural network models |
US20100010946A1 (en) * | 2006-08-31 | 2010-01-14 | Silicos Nv | Method for evolving molecules and computer program for implementing the same |
US20130138436A1 (en) * | 2011-11-26 | 2013-05-30 | Microsoft Corporation | Discriminative pretraining of deep neural networks |
WO2016150472A1 (en) * | 2015-03-20 | 2016-09-29 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Relevance score assignment for artificial neural network |
Non-Patent Citations (1)
Title |
---|
JAECHANG LIM等: "Molecular generative model based on conditional variational autoencoder for de novo molecular design", 《JOURNAL OF CHEMINFORMATICS》, vol. 10, 31 December 2018 (2018-12-31), pages 1 - 9, XP055635609, DOI: 10.1186/s13321-018-0286-7 * |
Also Published As
Publication number | Publication date |
---|---|
US20200066377A1 (en) | 2020-02-27 |
EP3614314B1 (en) | 2024-09-04 |
KR102547802B1 (ko) | 2023-06-26 |
EP3614314A1 (en) | 2020-02-26 |
US20230268035A1 (en) | 2023-08-24 |
US11670403B2 (en) | 2023-06-06 |
KR20200022595A (ko) | 2020-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3514734B1 (en) | Method and apparatus for generating a chemical structure using a neural network | |
KR101899101B1 (ko) | 인공 신경망 기반 예측 모델 생성 장치 및 방법 | |
Shukla | Neuro-genetic prediction of software development effort | |
US20230268035A1 (en) | Method and apparatus for generating chemical structure using neural network | |
WO2022068623A1 (zh) | 一种模型训练方法及相关设备 | |
KR102295805B1 (ko) | 학습 데이터 관리 방법 | |
KR102355489B1 (ko) | 약물-표적 단백질의 상호작용을 예측하는 방법 및 그 방법을 수행하는 장치 | |
US20230316379A1 (en) | Deep learning based visual compatibility prediction for bundle recommendations | |
CN111898728A (zh) | 一种基于多Agent强化学习的团队机器人决策方法 | |
US20220335293A1 (en) | Method of optimizing neural network model that is pre-trained, method of providing a graphical user interface related to optimizing neural network model, and neural network model processing system performing the same | |
US20230004816A1 (en) | Method of optimizing neural network model and neural network model processing system performing the same | |
US20220413496A1 (en) | Predictive Modeling of Aircraft Dynamics | |
CN112819151A (zh) | 用于识别图像的方法和设备以及训练方法 | |
WO2022012347A1 (en) | Predictive models having decomposable hierarchical layers configured to generate interpretable results | |
CN113490955B (zh) | 用于产生金字塔层的架构的系统和方法 | |
US20220164639A1 (en) | A system for mapping a neural network architecture onto a computing core and a method of mapping a neural network architecture onto a computing core | |
WO2022127603A1 (zh) | 一种模型处理方法及相关装置 | |
US20210174910A1 (en) | Method and apparatus for generating new chemical structure using neural network | |
KR102122232B1 (ko) | 멀티 태스크를 위한 신경망 자동 생성 장치 및 방법 | |
EP4195106A1 (en) | Constrained weight inference for online distributed learning | |
Daskin | A Simple Quantum Blockmodeling with Qubits and Permutations | |
KR20240066869A (ko) | 적대적 학습 기반 자동데이터 증강 방법 및 시스템 | |
JP2022045087A (ja) | モデル解析装置、モデル解析方法、及びプログラム | |
CN116415620A (zh) | 用于神经网络的全局解释的方法和系统 | |
KR20210076554A (ko) | 깊은 신경망 내에서의 강화된 배치 정규화를 위한 전자 장치, 방법, 및 컴퓨터 판독가능 매체 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |