CN110046692A - 产生化学结构的方法、神经网络设备和计算机可读记录介质 - Google Patents
产生化学结构的方法、神经网络设备和计算机可读记录介质 Download PDFInfo
- Publication number
- CN110046692A CN110046692A CN201811266187.4A CN201811266187A CN110046692A CN 110046692 A CN110046692 A CN 110046692A CN 201811266187 A CN201811266187 A CN 201811266187A CN 110046692 A CN110046692 A CN 110046692A
- Authority
- CN
- China
- Prior art keywords
- descriptor
- generation
- neural network
- value
- property
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16C—COMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
- G16C20/00—Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
- G16C20/40—Searching chemical structures or physicochemical data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/12—Computing arrangements based on biological models using genetic models
- G06N3/126—Evolutionary algorithms, e.g. genetic algorithms or genetic programming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16C—COMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
- G16C20/00—Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16C—COMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
- G16C20/00—Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
- G16C20/50—Molecular design, e.g. of drugs
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16C—COMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
- G16C20/00—Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
- G16C20/70—Machine learning, data mining or chemometrics
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16C—COMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
- G16C20/00—Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
- G16C20/80—Data visualisation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N37/00—Details not covered by any other group of this subclass
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16B—BIOINFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR GENETIC OR PROTEIN-RELATED DATA PROCESSING IN COMPUTATIONAL MOLECULAR BIOLOGY
- G16B15/00—ICT specially adapted for analysing two-dimensional or three-dimensional molecular structures, e.g. structural or functional relations or structure alignment
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16C—COMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
- G16C20/00—Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
- G16C20/20—Identification of molecular entities, parts thereof or of chemical compositions
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16C—COMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
- G16C20/00—Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
- G16C20/30—Prediction of properties of chemical compounds, compositions or mixtures
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16C—COMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
- G16C60/00—Computational materials science, i.e. ICT specially adapted for investigating the physical or chemical properties of materials or phenomena associated with their design, synthesis, processing, characterisation or utilisation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16C—COMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
- G16C99/00—Subject matter not provided for in other groups of this subclass
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Chemical & Material Sciences (AREA)
- Crystallography & Structural Chemistry (AREA)
- Evolutionary Biology (AREA)
- Physiology (AREA)
- Genetics & Genomics (AREA)
- Medicinal Chemistry (AREA)
- Pharmacology & Pharmacy (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Neurology (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明涉及产生化学结构的方法、神经网络设备和计算机可读记录介质。通过神经网络设备实行的产生化学结构的方法包括接收目标性质值和目标结构特征值作为输入,基于所接收的输入选择第一代描述符,通过将遗传算法应用于所述第一代描述符而产生第二代描述符,通过使用第一神经网络和第二神经网络评价各第二代描述符的性质和结构,基于评价的结果从所述第二代描述符选择具有所述目标性质值和所述目标结构特征值的候选描述符,和通过使用所述第二神经网络对于所选择的候选描述符产生化学结构。
Description
对相关申请的交叉引用
本申请要求在韩国知识产权局于2018年1月17日提交的韩国专利申请No.10-2018-0006275的权益,将其公开内容通过引用全部引入本文中。
技术领域
本公开内容涉及使用神经网络产生化学结构的方法和装置。
背景技术
神经网络指的是模仿生物大脑(以生物大脑为模型)的计算架构。利用先进的神经网络技术,各种类型的电子系统已经通过使用神经网络分析输入的数据和提取的有效信息。
近年来,已经对如下的方法进行了大量的研究:通过使用神经网络技术评价化学结构的性质来选择将用在材料开发中的化学结构。特别地,存在开发通过使用神经网络技术产生满足多种要求的新的化学结构的方法的需要。
发明内容
提供使用神经网络产生化学结构的方法和装置。此外,提供包括程序的计算机可读介质,所述程序当被计算机执行时,实行所述方法。待解决的技术问题不限于如所描述的这些,而是可存在其它技术问题。
额外的方面将在随后的描述中部分地阐明,且部分地将由所述描述明晰,或者可通过所提供的实施方式的实践获悉。
根据一种实施方式的方面,通过神经网络设备实行的产生化学结构的方法包括:接收目标性质值和目标结构特征值作为输入,基于所接收的输入选择第一代描述符,通过将遗传算法应用于所述第一代描述符而产生(多个)第二代描述符,通过使用第一神经网络评价各第二代描述符的性质和通过使用第二神经网络评价各第二代描述符的结构,基于评价的结果从所述第二代描述符选择具有所述目标性质值和所述目标结构特征值的候选描述符,和通过使用所述第二神经网络对于所选择的候选描述符产生化学结构。
根据另一实施方式的方面,配置成产生化学结构的神经网络设备包括配置成接收目标性质值和目标结构特征值作为输入的用户界面、存储至少一种程序的存储器、和配置成通过执行所述至少一种程序而驱动神经网络设备的处理器,其中所述处理器基于所接收的输入选择第一代描述符,通过将遗传算法应用于所述第一代描述符而产生第二代描述符,通过使用第一神经网络评价各第二代描述符的性质,通过使用第二神经网络评价各第二代描述符的结构,以及基于评价的结果从所述第二代描述符选择具有所述目标性质值和所述目标结构特征值的候选描述符,和通过使用所述第二神经网络对于所选择的候选描述符产生化学结构。
根据另一实施方式的方面,通过使用神经网络设备的条件变分自编码器(CVAE)产生化学结构的方法包括将第一描述符转换成低维潜在变量(潜变量,隐变量),将所述潜在变量绘制(映射)成潜在图(map),从所述潜在图选择从所述第一描述符转换的所述潜在变量未被绘制到其的区域,以及将所选择的区域的潜在变量转换成高维第二描述符和对于所述第二描述符产生化学结构。
根据另一实施方式的方面,配置成通过使用条件变分自编码器(CVAE)产生化学结构的神经网络设备包括存储至少一种程序的存储器、和配置成通过执行所述至少一种程序而驱动神经网络设备的处理器,其中所述处理器将第一描述符转换成低维潜在变量,将所述潜在变量绘制成潜在图,从所述潜在图选择从所述第一描述符转换的所述潜在变量未被绘制到其的区域,以及将所选择的区域的潜在变量转换成高维第二描述符和对于所述第二描述符产生化学结构.
根据另一实施方式的方面,计算机可读记录介质包括当被计算机执行时实行上述方法的程序。
附图说明
由结合附图考虑的实施方式的以下描述,这些和/或其它方面将变得明晰和更容易理解,其中:
图1为说明根据实施方式的神经网络设备的硬件构造的方块图;
图2为用于描述通过根据实施方式的深度(深层)神经网络(DNN)实行的计算的图;
图3为用于描述通过根据实施方式的循环(递归)神经网络(RNN)实行的计算的图;
图4为用于描述的通过根据实施方式的条件变分自编码器(CVAE)实行的计算的图;
图5为说明根据实施方式的用于产生化学结构的神经网络系统的概念图;
图6为用于示例性地描述根据实施方式的将物质的结构式作为字符串表达的实例的图;
图7为用于描述根据实施方式的选择第一代描述符的过程的图;
图8为用于描述根据实施方式的将遗传算法应用于第一代描述符的过程的图;
图9A和9B为用于描述根据实施方式的评价描述符的性质和结构的过程的图;
图10为根据实施方式的配置成通过使用CVAE产生化学结构的神经网络系统的概念图;
图11为用于描述根据实施方式的通过使用DNN和RNN产生化学结构的方法的流程图;和
图12为用于描述根据实施方式的通过使用CVAE产生化学结构的方法的流程图。
具体实施方式
现在将对实施方式详细地进行介绍,其实例示于附图中,其中相同的附图标记始终指的是相同的元件。在这点上,本实施方式可具有不同的形式且不应被解释为限于本文中阐明的描述。因此,下面仅通过参照附图描述实施方式以说明方面。如本文中使用的,术语“和/或”包括相关列举项目的一个或多个的任何和全部组合。表述例如“……的至少一个(种)”当在要素列表之前或之后时修饰整个要素列表而不修饰所述列表的单独要素。
在整个说明书中使用的术语“根据一些实施方式”或者“根据(一种)实施方式”不一定表示相同的实施方式。
本公开内容的一些实施方式可通过功能块(框)构造和各种处理操作描绘。这些功能块的一些或全部可使用各种数量的履行特定功能的硬件和/或软件组件(构件,成分)实施。例如,本公开内容的功能块可使用用于给定功能的一个或多个微处理器或电路实施。此外,例如,本公开内容的功能块可以多种编程或脚本语言实施。所述功能块可用在一个或多个处理器上运行的算法实施。本公开内容还可采用用于电子构造、信号处理、和/或数据处理的常规技术。术语“机构”、“元件”、“单元”和“构造”可在广义上使用且不限于机械和物理构造。
此外,在附图中所示的在组件之间的连接线或连接构件仅仅说明功能性连接和/或物理或电路连接。在实际设备中,在组件之间的连接可由可被替换或添加的各种功能性连接、物理连接、或电路连接提供。
同时,关于本文中使用的术语,作为在神经网络系统中使用的数据的描述符指的是用于描述物质的特性(特征)的指示值且可通过对给定的物质进行相对简单的计算而获得。根据实施方式,描述符可包括指示是否包括特定的局部结构的分子结构指纹(例如,摩根(Morgan)指纹和扩展连通指纹(ECFP))以及配置有可被立即计算的值例如分子量或者在分子结构中包括的局部结构(例如,环)的数量的定量结构-性质关系(QSPR)。
另外,性质指的是由物质所拥有的特性并且可为通过实验测量的真实的数或者可通过模拟来计算。例如,当所述物质为显示(显示器)材料时,所述性质可为对于光的透射波长、发射波长等。当所述物质为电池材料时,所述性质可为电压。不同于描述符,性质的计算可需要复杂的模拟且花费长的时间。
此外,结构指的是物质的原子水平结构。为了通过实行第一性原理计算而推导(得出)性质,需要将结构在原子水平上表达。因此,物质的结构需要被推导至原子水平以产生新的化学结构。所述结构可为基于原子键合关系的结构式或以简单的格式(一维)的字符串。表达结构的字符串的格式可为简化分子线性输入系统(规范)(SMILES)代码、SmilesArbitrary Target Specification(SMARTS)代码、国际化合物标识(InChi)代码等。
另外,因子指的是定义描述符、性质、和结构之间的关系的要素。因子可基于数据库中存储的描述符-性质-结构式通过机器学习确定。因此,可找出因子是如何与描述符、性质、和结构式相关联的。
在下文中,将参照附图详细地描述本公开内容的实施方式。
图1为说明根据实施方式的神经网络设备的硬件构造的方块图。
神经网络设备100可使用多种类型的设备例如个人计算机(PC)、服务器设备、可移动设备、和嵌入式设备实施。神经网络设备100的实例可包括,但不限于,使用神经网络实行语音识别、图像识别、图像分类等的智能电话、平板设备、增强现实(AR)设备、物联网(IoT)设备、自动驾驶车辆、机器人、医学设备等。此外,神经网络设备100可为安装在以上描述的设备上的专用硬件(HW)加速器。神经网络设备100可为硬件加速器例如作为用于驱动神经网络的专用模块(组件)的神经处理器(处理单元)(神经网络处理器)(NPU)、张量处理器(TPU)、和神经引擎,而不限于此。
参照图1,神经网络设备100包括处理器110和存储器120。图1仅说明与本公开内容的实施方式有关的神经网络设备100的组件。因此,本领域技术人员明晰,神经网络设备100可进一步包括除图1中显示的组件之外的任何其它通用组件。
处理器110控制用于驱动神经网络设备100的总的(总体)功能。例如,处理器110通过执行存储在神经网络设备100的存储器120中的程序而控制神经网络设备100的总的操作。处理器110可作为提供在神经网络设备100中的中央处理器(CPU)、图形处理器(GPU)、应用处理器(AP)等实施,而不限于此。
存储器120是存储在神经网络设备100中处理的多种数据的硬件组件。例如,存储器120可存储由神经网络设备100处理过的和将由神经网络设备100处理的数据。存储器120还可存储待通过神经网络设备100驱动的应用、驱动程序等。存储器120可包括随机存取存储器(RAM)例如动态随机存取存储器(DRAM)和静态随机存取存储器(SRAM)、只读存储器(ROM)、电可擦可编程只读存储器(EEPROM)、CD-ROM、蓝光、或其它光盘存储器、硬盘驱动器(HDD)、固态硬盘(SSD)、或闪速存储器(闪存)。
同时,存储器120将彼此匹配的结构特征值和性质值作为一个组存储。神经网络设备100可从存储器120读取所述结构特征值和所述性质值或者将所述结构特征值和所述性质值写入存储器120中。性质值指的是物质的特性并且可为通过实验测量的真实的数或者可通过模拟来计算。另外,作为用于表达物质的结构的指示值的结构特征值可为表明是否包括特定的局部结构的分子结构指纹(例如,摩根指纹和ECFP)。
处理器110可驱动深度神经网络(DNN)、循环神经网络(RNN)、和条件变分自动编码器(CVAE)。
处理器110可容许DNN通过使用描述符和性质(性质值)进行学习并且可在该过程中确定定义在所述描述符和所述性质之间的关系的因子。通过驱动经训练的DNN,处理器110可使用描述符作为到输入层的输入数据实行计算并且基于计算结果产生性质值作为输出数据。
处理器110可容许RNN通过使用描述符和结构(结构特征值)进行学习并且可在该过程中确定定义在所述描述符和所述结构之间的关系的因子。通过驱动经训练的RNN,处理器110可使用描述符或因子作为到输入层的输入数据实行计算并且基于计算结果产生结构特征值作为输出数据。
处理器110可通过使用CVAE产生在数据库中不存在的新的化学结构。特别地,可使用作为数据库中存储的高维数据的描述符作为到CVAE的输入层的输入数据,并且可通过编码器实行将高维描述符转换成作为低维数据的潜在变量的编码。接着,将低维潜在变量通过CVAE的解码器解码。最后,可从输出层输出作为与新的化学结构对应的高维数据的描述符。
同时,神经网络设备100可进一步包括用户界面(未示出)。用户界面指的是用于输入数据以控制神经网络设备100的设备。用户界面的实例可包括,但不限于,键座、圆顶开关(锅仔片)、触摸板(例如,电容叠加型、电阻叠加型、红外光束型、表面声波型、积分应变仪(integral strain gauge)型、和压电型)、缓动盘(滚轮,jog wheel)、和轻摇开关(滚轮开关,jog switch)。
在下文中,将详细地描述通过使用神经网络设备100产生化学结构和评价所产生的化学结构的方法。将在下面描述的方法可通过神经网络设备100的处理器110和存储器120实行。
图2为用于描述通过根据实施方式的DNN实行的计算的图。
参照图2,DNN 20具有包括输入层、隐藏层、和输出层的结构,基于所接收的输入数据(例如,I1和I2)实行计算,并且基于计算结果产生输出数据(例如,O1和O2)。
例如,如图2中所示,DNN 20可包括输入层(层1)、两个隐藏层(层2和层3)、和输出层(层4)。由于DNN 20可包括许多用于处理有效信息的层,因此,与包括单个层的神经网络相比,DNN 20可处理复杂的数据。同时,尽管图2中所示的DNN 20包括4个层,但是DNN 20仅是实例并且还可包括与其中所示的那些相比更多或更少的层以及更多或更少的通道。即,DNN 20可具有与图2中所示的不同的各种层结构。
包括在DNN 20中的层各自可具有多个通道。所述通道可对应于多个人工节点,人工节点称作神经元、处理元件(PE)、单元、或类似的术语。例如,如图2中所示,层1可包括两个通道(节点),且层2和3可分别包括三个通道。然而,所述层仅是实例,且包括在DNN 20中的层各自可具有各种数量的通道(节点)。
包括在DNN 20的层各自中的通道可互连以处理数据。例如,通道可实行从一个层的通道接收的数据的计算并且将计算结果输出到另一层的通道。
各通道的输入和输出可称作输入激活和输出激活。即,激活可不仅是一个通道的输出,而且是与包括在相继的层中的通道的输入对应的参数。同时,所述通道各自可基于从包括在先前层中的通道接收的激活和权重确定其激活。权重为用于计算各通道的输出激活的参数且可为被赋值到在通道之间的关系的值。
所述通道各自可通过接收输入并且将输出激活输出的计算单元或处理元件处理。可对各通道的输入-输出绘图。例如,当σ为激活函数、为来自包括在第(i-1)层中的第k通道至包括在第i层中的第j通道的权重、为包括在第i层中的第j通道的偏置、且为第i层的第j通道的激活时,可使用下面的表达式1计算激活
表达式1
如图2中所示,第二层层2的第一通道CH1的激活可作为表达。另外,根据表达式1,可具有的的值。然而,上述表达式1仅为用于描述用于处理DNN 20中的数据的激活和权重的实例,且实施方式不限于此。激活可为通过如下获得的值:将从先前层接收的激活之和输入至激活函数,并且用修正线性单元(ReLU)处理结果。
根据实施方式,DNN 20可经由使用描述符和性质值进行学习而确定定义在描述符和性质之间的关系的因子。即,在构成DNN 20的层1至4之中,描述符对应于输入层(层1),性质值对应于输出层(层4),且因子对应于至少一个隐藏层(层2和3)。
DNN 20可使用描述符作为到输入层的输入数据实行计算,并且基于计算结果产生性质值作为输出数据。
图3为用于描述通过根据实施方式的RNN实行的计算的图。
在下文中,为了描述的方便,将不重复以上参照图2给出的描述。
RNN 30是学习随着时间变化的数据例如时间序列数据且通过将在参比时间点t和下一时间点t+1连接而构造的神经网络。即,RNN 30是其中时间方面被考虑并且能够通过修改模型以容许向所述神经网络的隐藏层的递归输入而从顺序地输入的数据或者以特征序列输入的数据有效地学习模式的神经网络。
参照图3,示出了构成RNN 30的隐藏层的节点s。节点s可基于输入数据x实行计算并且产生输出数据o。RNN 30可将相同的任务应用于所有序列,且节点s的最终的输出结果受之前的计算的结果影响。
RNN 31为展开的具有回路的RNN 30。术语“展开”RNN 30指的是对于整个序列表达RNN 30。在RNN 31中,xt为在时间步t处的输入值,且st为在时间步t处的隐藏状态。st可通过下面的表达式2表达。在表达式2中,可使用双曲正切或Relu函数作为函数f。用于计算第一隐藏状态的st-1可通常被初始化至0。另外,在RNN 31中,ot为在时间步t处的输出值。
表达式2
这里,st为所述网络的存储部分并且存储在之前的时间步处关于事件的信息。输出值ot仅取决于当前时间步t的存储。
同时,不同于其中参数彼此不同的现有的神经网络结构,RNN 31对于所有的时间步共享参数U、V、和W。即,由于RNN 31的各步除了输入值之外实行几乎相同的计算,因此可减少待学习的参数的数量。
根据实施方式,RNN 32可经由使用描述符和结构(结构特征值)进行学习而确定定义在描述符和结构之间的关系的因子。如以上参照图2所描述的,所述因子可为至少一个隐藏层。RNN 32可使用描述符或因子作为到输入层的输入数据实行计算并且基于计算结果产生结构特征值作为输出数据。
例如,当代表结构特征值的字符串为“ABCDEFG”时,各时间步的输入和输出可为“ABC”、“BCD”、“CDE”、“DEF”、和“EFG”。即,RNN的各步可使用在时间点t处输入的字符串的下一字符串作为时间点t+1的输入。
RNN 32可实行学习以将产生代表数据h和s(即,因子和结构数据)的结构s的字符串的概率最大化。产生字符串的概率p可由下面的表达式3表达。
表达式3
当通过学习完成RNN部分的构造时(即,当用于确定结构因子的RNN模型的参数被确定时),可将通过对描述符进行编码而获得的因子解码。根据另一实施方式,解码通过如下顺序地进行:通过使用因子e(x)作为输入获得经解码的字符串的第一部分ABC,使用所获得的部分“ABC”作为输入获得所述字符串的部分“BCD”,和使用所获得的部分“BCD”获得所述字符串的部分“CDE”。
参照图3,在时间点t处的字符串的部分的前两个字符与在时间点t-1处的字符串的部分的最后两个字符是相同的。然后,将各时间点的字符集合以输出单个字符串ABCDEFG。
图4为用于描述通过根据实施方式的CVAE实行的计算的图。
参照图4,CVAE 40具有包括输入层、编码器、解码器、和输出层的结构。使用数据库中存储的高维数据例如图像作为到CVAE 40的输入层的输入数据,且编码器实行将所述高维数据转换成低维潜在变量z的编码。根据实施方式,潜在变量z遵循具有平均值μ和方差σ(Σ)的正态分布并且可为二至五十维数据。然后,解码器将低维潜在变量z解码以从输出层输出在数据库中不存在的新的图像(高维数据)。
例如,当使用人形状的图像作为输入数据时,潜在变量可为对象(物体)的形状、相机的视点、关于光源的信息等。当使用数字的图像作为输入数据时,潜在变量可为在线之间的角度、纵横比等。
同时,可将潜在变量z绘制成潜在图。当包括在潜在图的潜在变量z未被绘制到其的区域中的预定的值z'被输入到解码器时,可从输出层产生在数据库中未存储的新的数据。
在CVAE 40中,可使用作为数据库中存储的高维数据的描述符作为到输入层的输入数据,并且可通过编码器执行将高维描述符转换成低维潜在变量的编码。然后,可通过CVAE 40的解码器将所述低维潜在变量解码。最后,可从输出层输出作为与新的化学结构对应的高维数据的描述符。
图5为说明根据实施方式的用于产生化学结构的神经网络系统的概念图。
参照图5,说明配置成通过使用DNN 500、RNN 510、和CVAE 520产生化学结构的神经网络系统。
作为在所述神经网络系统中使用的数据的描述符可包括配置有可立即计算的值例如指示是否包括特定的局部结构的分子结构指纹(ECFP)的QSPR描述符。性质指的是由物质所拥有的特性,并且可为通过实验测量的真实的数或者可通过模拟来计算。结构指的是物质的原子水平的结构。表达所述结构的字符串格式可被简化作为SMILES代码、SMARTS代码、InChi代码等。例如,结构式可通过SMILES代码如表达式4中所示地表达或者通过SMARTS代码如表达式5中所示地表达。
表达式4
OC1=C(C=C2C=CNC2=C1)C1=C(C=CC=C1)C1=CC2=C(NC=C2)C=C1
表达式5
[#6]-1-[#6]=[#6]-[#6]-2=[#6]-1-[#6]-1=[#6](-[#6]-[#6]=[#7]-[#6]-1)-[#7]=[#6]-2
因子是定义在描述符、性质、和结构之间的关系的要素。因子可为至少一个隐藏层。当因子包括多个隐藏层时,可对于每个隐藏层确定限定在描述符和性质之间的关系的因子、限定在描述符和结构之间的关系的因子等。
潜在图是二维地或三维地表达的描述符被绘制到其的可视化的(能形象化的)坐标。可通过使用潜在图使在描述符之间的相似性可视化和对其进行鉴别。
DNN 500可使用描述符作为到输入层的输入数据实行计算并且基于计算结果产生性质(性质值)作为输出数据。RNN 510可使用描述符或因子作为到输入层的输入数据实行计算并且基于计算结果产生结构(结构特征值)作为输出数据。作为表达结构特征值的字符串格式,可使用SMILES代码、SMARTS代码等。
另外,DNN 500和RNN 510可通过基于在存储于存储器中的性质(性质值)和结构(结构特征值)之间的关系实行学习来确定定义在描述符、性质、和结构之间的关系的因子。根据实施方式,因子可为至少一个隐藏层。当因子包括多个隐藏层时,可对于每个隐藏层确定限定在描述符和性质之间的关系的因子以及限定在描述符和结构之间的关系的因子。
RNN 510可使用由DNN 500确定的因子作为到输入层的输入数据实行计算并且基于计算结果产生结构特征值作为输出数据。
在CVAE 520中,使用作为数据库中存储的高维数据的描述符作为到输入层的输入数据,并且可通过编码器实行将高维描述符转换成作为低维数据的潜在变量的编码。然后,当CVAE 520的解码器将低维潜在变量解码时,可从输出层输出作为与新的化学结构对应的高维数据的描述符。在其中使用从CVAE 520输出的描述符作为DNN 500的输入数据的情况中,可产生性质值。在其中使用输出的描述符作为RNN 510的输入数据的情况中,可产生结构特征值。
图6为用于示例性地描述根据实施方式的将物质的结构式作为字符串表达的实例的图。
参照图6,说明将物质的结构式作为字符串表达的实例。在物质的整个结构610中,可存在将被保持即必须包括在将最终产生的化学结构中的局部结构620。
局部结构620可通过字符串例如SMILES代码、SMARTS代码、或InChi代码表达。例如,局部结构620可作为表达式6中所示的SMARTS代码表达。
表达式6
[#6]-1-[#7]=[#6]-[#6]-2-[#6]-1=[#6]-[#6]-1=[#6]-[#6]=[#6]-[#7]=[#6]-2-1
另外,当在局部结构620中容许在键和原子部分方面的变化时,局部结构620可作为SMARTS代码621表达。当在局部结构620中容许在原子部分方面的变化时,局部结构620可作为SMARTS代码622表达。当在局部结构620中键和原子部分是固定的时,局部结构620可作为SMARTS代码623表达。
图7为用于描述根据实施方式的选择第一代描述符的过程的图。
参照图7,神经网络设备700可接收目标性质值710和目标结构特征值720作为输入值。神经网络设备700可产生满足目标性质值710和目标结构特征值720的化学结构。即,所述神经网络设备可产生包括预定的局部结构和具有改善的性质的化学结构。
目标性质值710指的是由通过神经网络设备700最终产生的化学结构所拥有的某个性质的数值。根据一种实施方式,目标性质值710可为折射率值、弹性模量、熔点、透射波长、和发射波长。例如,神经网络设备700可接收“发射波长:λ=350nm”作为目标性质值710。
根据另一实施方式,目标性质值710可为增加(+)方向或降低(-)方向,而不是给定的数值。存储器730将彼此匹配的结构特征值和性质值作为一个组存储。神经网络设备700可选择存储在存储器730中的给定性质值。在该情况中,由于神经网络设备700将目标性质值710设定作为增加方向而不是某个数值,因此将最终产生的化学结构可具有比在存储器730中选择的性质值大的性质值。
目标结构特征值720指的是在将由神经网络设备700最终产生的化学结构中必须包括的局部结构的数值。所述局部结构可作为SMILES代码或SMARTS代码表达。另外,为了用数值表达作为SMILES代码或SMARTS代码表达的所述局部结构,可使用描述符例如ECFP和QSPR。
根据实施方式,目标结构特征值720可为特定化学结构的描述符。例如,局部结构721可作为SMILES代码722a或SMARTS代码722b表达。神经网络设备700可接收与SMILES代码722a或SMARTS代码722b对应的描述符723作为目标结构特征值720。为了理解的容易,图7说明与描述符723对应的SMILES代码和SMARTS代码、以及化学结构。
同时,所述描述符可为具有100位(比特,bit)的长度的二进制值。在下文中,为了描述的方便,将仅通过具有“1”的位值(比特值)的位(数位,digit)来表达描述符。例如,描述符723可通过[0 2 4 8 9 10 18 19 20 29 30 42 47 48 49 51 53 56 57 63 64 66 7279 83 86 87 93 95 97 98]表达。在此情况中,描述符723的位0、2、4、8、9、10等指示位值“1”且位1、3、5、6、7、11等指示位值“0”。
神经网络设备700可基于所接收的目标性质值710和目标结构特征值720选择第一代描述符740。特别地,神经网络设备700可从其中存储彼此匹配的结构特征值和性质值的存储器730选择具有与接收的目标性质值710类似的性质值以及与接收的目标结构特征值720类似的结构特征值的第一代描述符740。
参照图7,神经网络设备700接收“发射波长:λ=350nm”的输入作为目标性质值710和描述符723的输入作为目标结构特征值720。神经网络设备700可从存储器730选择具有与接收的输入类似的结构特征值和性质值的化学结构。所选择的化学结构可具有作为描述符1和2表达的目标结构特征值740,且包括在目标结构特征值740中的多个描述符(例如,描述符1和2)对应于第一代描述符。同时,为了理解的容易,图7说明分别与描述符1和2对应的SMILES代码、SMARTS代码、以及化学结构。
图8为用于描述根据实施方式的将遗传算法应用于第一代描述符的过程的图。
参照图8,神经网络设备可通过将遗传算法应用于第一代描述符而产生第二代描述符。遗传算法为用于通过对之前的候选物质实行交叉(交迭)和变异操作(运行)来产生新的候选物质的算法。遗传算法的操作是任意的过程。遗传算法包括例如选择、交叉、和变异的操作。选择为用于选择从一代传递到下一代的候选物质的过程。交叉为经由在一代内的配对而产生下一代的候选物质的过程。变异为经由在一种候选物质中在描述符的顺序或值方面的随机的变化而改变候选物质的过程。
参照图8,神经网络设备可选择第一代描述符。第一代描述符为描述符1至4,且描述符1至4可通过二进制代码表达。
所述神经网络设备可对被选择作为第一代描述符的描述符1至4实行交叉和变异操作。作为交叉和变异操作的结果,所述神经网络设备可从第一代描述符(描述符1至4)产生第二代描述符。
图9A和9B为用于描述根据实施方式的评价描述符的性质和结构的过程的图。
参照图9A,神经网络设备的DNN 900为其中经由使用描述符和性质(性质值)进行学习而确定定义在描述符和性质之间的关系的因子的神经网络。
特别地,DNN 900基于指示描述符和性质值的(x,y)数据(可存在更多个)学习编码函数e(·)和预测函数f(·)。编码函数e(·)为用于从描述符推导隐藏参数的函数。当描述符为x时,可经由编码函数确定关于描述符x的因子h(=e(x))。预测函数f(·)为用于基于在编码的基础上所获得的因子预测性质的函数。在其中性质为y的情况中,当因子h被代入到预测函数中时,y=f(h)。在学习操作中,DNN 900可确定因子使得数据(x,y)的概率最大化或者使在经由预测的性质值f(e(x))和真实性质y之间的差异最小化。
DNN 900使用描述符作为到输入层的输入数据实行计算并且基于计算结果产生性质值作为输出数据。所述因子可为用于代表在所述描述符和所述性质之间的关系的未公开的核心要素。在构成DNN 900的多个层之中,所述描述符可为输入层,所述因子可为隐藏层,且所述性质值可为输出层。
所述神经网络设备将第二代描述符输入到DNN 900作为输入数据并且通过向其应用编码函数e(·)和预测函数f(·)而产生各(相应的)第二代描述符的性质值作为输出数据。所述神经网络设备可通过将所产生的性质值与目标性质值进行比较而评价第二代描述符的性质。
另外,所述神经网络设备的RNN 910为其中经由使用描述符和结构(结构特征值)进行学习而定义在描述符和结构之间的关系的因子的神经网络。
特别地,RNN 910基于指示描述符和结构特征值的(x,s)数据学习编码函数e(·)和解码函数d(·),并且可在学习解码函数d(·)的过程中确定因子。同时,当经由DNN 900的学习过程确定编码函数e(·)时,RNN 910可通过使用由DNN 900确定的编码函数e(·)基于作为因子和结构特征值的(h,s)数据学习解码函数d(·)。
解码函数d(·)为用于通过使用由描述符得到的因子产生在原子水平上的物质的结构的函数。当所述结构作为s表达时,建立s=d(h)。
RNN 910使用描述符作为到输入层的输入数据实行计算并且基于计算结果产生结构特征值作为输出数据。所述因子可为用于代表在所述描述符和所述结构之间的关系的未公开的核心要素并且可为RNN 910的隐藏层。也可使用经由DNN 900的学习过程产生的隐藏层。
所述神经网络设备将第二代描述符输入到RNN 910作为输入数据并且通过向其应用编码函数e(·)和解码函数d(·)而产生各第二代描述符的结构特征值作为输出数据。所述神经网络设备可通过鉴别所产生的结构特征值是否包括目标结构特征值而评价第二代描述符的结构。
特别地,RNN 910可产生SMILES代码的形式的结构特征值(最终的化学结构)。当将目标结构特征值(局部结构)以SMARTS代码的形式输入时,所述神经网络设备可通过如下确定所述结构特征值是否包括所述目标结构特征值:通过使用RDkit库将与所述结构特征值对应的SMILES代码同与目标结构特征值对应的SMARTS代码进行比较。当由RNN 910产生的结构特征值包括所述目标结构特征值时,即,当所产生的最终的化学结构包括局部结构时,所述神经网络设备可选择输入到RNN 910的第二代描述符作为候选描述符。同时,表达结构特征值(最终的化学结构)和目标结构特征值(局部结构)的方法不限于此。
所述神经网络设备可通过使用DNN 900评价第二代描述符的性质和通过使用RNN910评价第二代描述符的结构。另外,所述神经网络设备可基于性质和结构的评价结果从第二代描述符选择具有目标性质值和目标结构特征值的候选描述符。最后,所述神经网络设备对于所选择的候选描述符产生化学结构,由此产生包括所述特定的局部结构和具有所述目标性质值的改善的化学结构。
同时,当第二代描述符的性质值和/或结构特征值不能达到目标值时,所述神经网络设备可通过将遗传算法应用于第二代描述符而产生第三代描述符。所述神经网络设备可通过使用DNN 900评价第三代描述符的性质和通过使用RNN 910评价第三代描述符的结构。所述神经网络设备可通过使用遗传算法发展描述符直至产生满足目标性质值和目标结构特征值的描述符。
另外,当具有目标性质值和目标结构特征值的候选描述符的数量小于作为第二代描述符的性质和结构的评价的结果的预设值时,所述神经网络设备可改变应用于遗传算法的变换指数。
同时,第一代描述符的变换程度可根据应用于遗传算法的变换指数而改变。根据实施方式,降低变换指数可指的是在构成遗传算法的选择、交叉、变异、和替换操作之中,降低具有第一代描述符的大的变换程度的操作的数量。然而,改变变换指数的方法不限于此。
所述神经网络设备可在改变遗传算法的变换指数之后从第一代描述符再产生(重新产生)第二代描述符。根据实施方式,当产生100个第二代描述符并且具有目标性质值和目标结构特征值的描述符的数量为10或更小时,所述神经网络设备可降低遗传算法的变换指数,然后再次将遗传算法应用于第一代描述符以再产生第二代描述符。
参照图9B,所述神经网络设备可通过如下产生包括特定的局部结构和具有改善的性质的化学结构:通过使用遗传算法发展描述符,以及通过使用DNN 900和RNN 910评价所产生的描述符的性质值和结构特征值。
根据实施方式,所述神经网络设备可逐渐(逐步地)产生包括特定的局部结构和具有改善的性质的化学结构。例如,所述神经网络设备可产生包括局部结构921和增加的波长(T1值)的化学结构。
特别地,所述神经网络设备可选择包括局部结构921、具有355.93的T1值、和“OC(=O)C1=CC=CC=C1NC1=CC=CC=C1”的结构特征值的化学结构922。所述神经网络设备可通过如下产生包括局部结构921和具有420.11的增加的T1值的化学结构923:将遗传算法应用于所选择的化学结构922的结构特征值“OC(=O)C1=CC=CC=C1NC1=CC=CC=C1”。所产生的化学结构923具有“N(C1=CC=CC=C1)C1=C2C=CC=CC2=NC2=C1C=CC=C2”的结构特征值。
这样,所述神经网络设备可通过将遗传算法应用于所产生的化学结构923而产生包括局部结构921和具有增加的T1值的化学结构。所述神经网络设备可通过如下产生化学结构:向其应用遗传算法直至产生具有与目标性质值类似的性质值的化学结构。
根据另一实施方式,所述神经网络设备还可通过将遗传算法应用于所产生的化学结构923而产生包括特定的局部结构和降低的T1值的化学结构。
图10为根据实施方式的配置成通过使用CVAE产生化学结构的神经网络系统的概念图。
所述神经网络设备的CVAE 1000使用描述符(其为存储在数据库中的高维数据)作为到输入层的输入数据,并且通过编码器实行将高维描述符转变成作为低维数据的潜在变量的编码。接着,CVAE 1000的的解码器将低维潜在变量解码,且最后,从输出层输出作为与新的化学结构对应的高维数据的描述符。
特别地,CVAE 1000可将对于现有化学结构的每一个的高维描述符x编码成低维潜在变量l。潜在变量l可包括通过将高维描述符x的维度降低而获得二维描述符z和核心结构信息t。然而,包括在潜在变量l中的数据不限于此。
与核心结构信息t对应的结构的实例示于下表1中。
表1
可将潜在变量l绘制成潜在图1030。包括在潜在变量l中的二维描述符z对应于潜在图1030的(x,y)坐标值,且包括在潜在变量l中的核心结构信息t通过潜在图1030中的颜色区分(其中在图10中未示出潜在图1030的颜色)。
根据实施方式,核心结构信息t可以八种不同的颜色显示在潜在图1030中。例如,具有核心结构t=0的潜在变量l可以蓝色显示在潜在图1030中,且具有核心结构t=1的潜在变量l可以天蓝色显示在潜在图1030中。
当使用潜在图1030时,可在视觉上鉴别在描述符之间的相似性。在潜在图1030中,可确认描述符是根据结构形式聚拢(集合)的。因此,由此产生包括特定的结构形式的新的化学结构是相对容易的。参照图10的潜在图1030,可确认,描述符按照相同的颜色,即,相同的结构形式聚拢。
CVAE 1000可从潜在图1030选择潜在变量未被绘制到其的区域1040。当将所选择的区域的潜在变量1040解码时,所述潜在变量可被转换成高维描述符。CVAE 1000可对于所转换的高维描述符产生化学结构,由此产生(创造)新的化学结构。
即,CVAE 1000可通过将潜在图1030的潜在变量未被绘制到其的区域1040的预定的潜在变量解码而产生在数据库中未存储的新的化学结构。此外,通过将与特定的结构的潜在变量聚拢于其中的区域相邻的潜在图1030的区域的潜在变量解码可产生包括所述特定的结构的化学结构。
另外,所述神经网络设备可通过使用DNN 1010产生由CVAE 100产生所述新的化学结构的性质值和通过使用RNN 1020产生其结构特征值。所述神经网络设备还可评价所述新的化学结构的性质和结构特性。当作为评价的结果,未满足所述目标性质值和所述目标结构特征值时,所述神经网络设备通过将遗传算法应用于所产生的新的化学结构而产生下一代化学结构。
图11为用于描述根据实施方式的通过使用DNN和RNN产生化学结构的方法的流程图。图11中所示的通过神经网络设备实行的产生化学结构的方法与以上参照附图描述的实施方式有关。因此,尽管在下面的描述中被省略,但是以上参照附图描述的内容也可应用于图11中所示的方法。
参照图11,神经网络设备可在操作1110中接收目标性质值和目标结构特征值作为输入数据。
目标性质值为由将通过所述神经网络设备最终产生的化学结构所拥有的某个性质的数值。根据一种实施方式,所述目标性质值可为折射率值、弹性模量、熔点、透射波长、和发射波长。根据另一实施方式,目标性质值可被设置为增加的(+)方向或降低的(-)方向,而不是给定的数值。
目标结构特征值为在将通过所述神经网络设备最终产生的化学结构中必须包括的局部结构的数值。可使用描述符例如ECFP和QSPR来采用数值表达所述局部结构。
所述神经网络设备可基于所述目标性质值和所述目标结构特征值产生包括特定的局部结构和具有改善的性质的化学结构。
在操作1120中,所述神经网络设备可基于所接收的输入数据选择第一代描述符。所述神经网络设备可在存储于存储器中的描述符之中选择具有与所接收的目标性质值类似的性质值和与所接收的目标结构特征值类似的结构特征值的描述符作为第一代描述符。
在操作1130中,所述神经网络设备可通过将遗传算法应用于第一代描述符而产生第二代描述符。所述神经网络设备可通过对第一代描述符实行交叉和变异操作而产生第二代描述符。
在操作1140中,所述神经网络设备可评价第二代描述符的性质和结构。
所述神经网络设备可通过将第二代描述符输入到DNN作为输入数据且向其应用编码函数和预测函数而产生各第二代描述符的性质值作为输出数据。所述神经网络设备可通过将所产生的性质值与目标性质值进行比较而评价第二代描述符的性质。
此外,所述神经网络设备可通过将第二代描述符输入到RNN作为输入数据且向其应用编码函数和解码函数而产生各第二代描述符的结构特征值作为输出数据。所述神经网络设备可通过将所产生的结构特征值与目标结构特征值进行比较而评价第二代描述符的结构。
根据实施方式,所述神经网络设备可通过如下确定所述结构特征值是否包括目标结构特征值:通过使用RDkit库将与所述结构特征值对应的SMILES代码同与所述目标结构特征值对应的SMARTS代码进行比较。当通过RNN 910产生的结构特征值包括所述目标结构特征值时,即,当所产生的最终的化学结构包括所述局部结构时,所述神经网络设备可选择输入到RNN 910的第二代描述符作为候选描述符。
在操作1150中,所述神经网络设备可基于评价结果从第二代描述符选择具有目标性质值和目标结构特征值的候选描述符。
同时,当第二代描述符的性质值和/或结构特征值不能达到目标值时,所述神经网络设备可通过将遗传算法应用于第二代描述符而产生第三代描述符。所述神经网络设备可通过使用DNN评价第三代描述符的性质和通过使用RNN评价第三代描述符的结构。即,所述神经网络设备可通过使用遗传算法发展描述符直至产生满足目标性质值和目标结构特征值的描述符。
在操作1160中,所述神经网络设备可对于所选择的候选描述符产生化学结构。
所述神经网络设备可通过将候选描述符输入到RNN作为输入数据并且向其应用编码函数和解码函数而产生各候选描述符的结构特征值。所述神经网络设备可通过将所产生的结构特征值转换成SMILES代码、InChi代码等而产生化学结构。
图12为用于描述根据实施方式的通过使用CVAE产生化学结构的方法的流程图。图12中所示的通过神经网络设备实行的产生化学结构的方法与以上参照附图描述的实施方式有关。因此,尽管在下面的描述中被省略,但是以上参照附图描述的内容也可应用于图12中所示的方法。
参照图12,所述神经网络设备可在操作1210中将第一描述符转换成低维潜在变量。
存储器将彼此匹配的结构(结构特征值)和性质(性质值)作为一个组存储。结构特征值以描述符的形式存储在存储器中,且存储在存储器中的描述符可为高维数据。
所述神经网络设备可将存储在存储器中的化学结构的描述符(即,第一描述符)分别转变成低维潜在变量。根据实施方式,在接收目标性质值和/或目标结构特征值作为输入数据之后,所述神经网络设备可基于所接收的输入选择存储在存储器中的化学结构的描述符的一些作为第一描述符。所述神经网络设备可将所选择的第一描述符转换成低维潜在变量。
所述神经网络设备可通过使用CVAE将高维描述符编码成低维潜在变量。所述潜在变量可包括通过将高维描述符的维度降低而获得的二维描述符和核心结构。
在操作1220中,所述神经网络设备可将潜在变量绘制成潜在图。
包括在潜在变量中的二维描述符可与潜在图的(x,y)坐标值对应,且包括在潜在变量中的核心结构可在潜在图中作为颜色表达。
在操作1230中,所述神经网络设备可从潜在图选择潜在变量未被绘制到其的区域。
所述神经网络设备可将包括在潜在图的潜在变量未被绘制到其的区域中的预定的值输入到解码器和将所述预定的值解码,由此产生在数据库中未存储的新的化学结构。
由于可确认在潜在图中描述符根据结构形式聚拢,因此由此产生新的化学结构是相对容易的。可通过如下产生包括特定的结构的化学结构:在包括在现有的化学结构的潜在变量未被绘制到其的区域中的潜在变量之中,将与特定的结构的潜在变量聚拢于其中的区域邻近的区域的潜在变量解码。
在操作1240中,所述神经网络设备可将所选择的区域的潜在变量转换成高维第二描述符和对于第二描述符产生化学结构。
所述神经网络设备可通过如下将潜在变量转换成高维描述符:通过使用CVAE将所选择的区域的潜在变量解码。此外,所述神经网络设备可通过如下产生新的化学结构:通过使用CVAE对于所转换的高维描述符产生化学结构。
另外,所述神经网络设备可评价各转换的高维描述符的性质和结构。当作为评价结果,未满足目标性质值和目标结构特征值时,所述神经网络设备可通过如下产生下一代化学结构:将遗传算法应用于经转换的高维描述符。其描述与操作1110至1160的那些相同且将不在此重复。
此外,前述实施方式可以包括由计算机可执行的指令、例如由计算机执行的程序模块的记录介质的形式体现。计算机可读介质可为可通过计算机访问的任何记录介质,并且可包括易失性和非易失性介质以及可移动和不可移动介质。此外,所述计算机可读介质可包括计算机存储介质和通信介质。所述计算机存储介质包括使用任何用于存储信息例如计算机可读指令、数据结构、程序模块、或其它数据的方法或技术实施的易失性和非易失性以及可移动和不可移动介质。所述通信介质包括经调制的数据信号或其它传输机理的计算机可读指令、数据结构、程序模块、或其它数据且可包括任何传输介质。
另外,在整个说明书中,术语“单元”可为硬件组件例如处理器或电路和/或由硬件组件例如处理器执行的软件组件。
本公开内容的以上描述被提供用于说明的目的,且本领域技术人员将理解,在不改变本公开内容的技术构思和实质特征的情况下,可进行多种改变和变型。因此,明晰的是,上述说明性的实施方式在所有方面中都是说明性的且不限制本公开内容。例如,被描述为单一类型的各组件可以分布的方式实施。同样,被描述为分布的组件可以组合的方式实施。
应理解,本文中描述的实施方式应仅在描述的意义上考虑且不用于限制的目的。在各实施方式中的特征或方面的描述应典型地被认为可用于其它实施方式中的其它类似特征或方面。
尽管已经参照附图描述了一种或多种实施方式,但是本领域普通技术人员将理解,在不脱离如由所附权利要求限定的精神和范围的情况下可在其中进行形式和细节方面的多种变化。
Claims (21)
1.产生化学结构的方法,所述方法是通过神经网络设备实行的并且包括:
接收目标性质值和目标结构特征值作为输入;
基于所接收的输入选择第一代描述符;
通过将遗传算法应用于所述第一代描述符而产生第二代描述符;
通过使用第一神经网络评价各第二代描述符的性质和通过使用第二神经网络评价各第二代描述符的结构;
基于评价的结果从所述第二代描述符选择具有所述目标性质值和所述目标结构特征值的候选描述符;和
通过使用所述第二神经网络对于所选择的候选描述符产生化学结构。
2.如权利要求1所述的方法,其中所述候选描述符的选择进一步包括:
当所选择的候选描述符的数量小于预定的值时,改变所述遗传算法的变换指数;和
通过基于所改变的变换指数将遗传算法应用于所述第一代描述符而再产生第二代描述符。
3.如权利要求1所述的方法,其中所述性质的评价包括:
将所述第二代描述符输入到所述第一神经网络和产生各第二代描述符的性质值作为输出;和
通过将所产生的性质值与所述目标性质值相比较而评价各第二代描述符的性质,
其中所述第一神经网络为深度神经网络(DNN)。
4.如权利要求1所述的方法,其中所述结构的评价包括:
将所述第二代描述符输入到所述第二神经网络和产生各第二代描述符的结构特征值作为输出;和
通过确定所产生的结构特征值是否包括所述目标结构特征值而评价各第二代描述符的结构,
其中所述第二神经网络为循环神经网络(RNN)。
5.神经网络设备,其配置成产生化学结构,所述神经网络设备包括:
配置成接收目标性质值和目标结构特征值作为输入的用户界面;
存储至少一种程序的存储器;和
配置成通过执行所述至少一种程序而驱动神经网络设备的处理器,
其中所述处理器基于所接收的输入选择第一代描述符,
通过将遗传算法应用于所述第一代描述符而产生第二代描述符,
通过使用第一神经网络评价各第二代描述符的性质,通过使用第二神经网络评价各第二代描述符的结构,和基于评价的结果从所述第二代描述符选择具有所述目标性质值和所述目标结构特征值的候选描述符,以及
通过使用所述第二神经网络对于所选择的候选描述符产生化学结构。
6.如权利要求5所述的神经网络设备,其中当所选择的候选描述符的数量小于预定的值时,所述处理器改变所述遗传算法的变换指数;和
通过基于所改变的变换指数将遗传算法应用于所述第一代描述符而再产生第二代描述符。
7.如权利要求5所述的神经网络设备,其中所述处理器将所述第二代描述符输入到所述第一神经网络和产生各第二代描述符的性质值作为输出;以及
通过将所产生的性质值与所述目标性质值相比较而评价各第二代描述符的性质,
其中所述第一神经网络为深度神经网络(DNN)。
8.如权利要求5所述的神经网络设备,其中所述处理器将所述第二代描述符输入到所述第二神经网络和产生各第二代描述符的结构特征值作为输出;以及
通过确定所产生的结构特征值是否包括所述目标结构特征值而评价各第二代描述符的结构,
其中所述第二神经网络为循环神经网络(RNN)。
9.产生化学结构的方法,其通过使用神经网络设备的条件变分自编码器(CVAE),所述方法包括:
将第一描述符转换成低维潜在变量;
将所述潜在变量绘制成潜在图;
从所述潜在图选择由所述第一描述符转换的所述潜在变量未被绘制到其的区域;以及
将所选择的区域的潜在变量转换成高维第二描述符和对于所述第二描述符产生化学结构。
10.如权利要求9所述的方法,其中所述低维潜在变量包括核心结构信息和低维描述符。
11.如权利要求9所述的方法,其中所述化学结构的产生包括:
接收目标性质值和目标结构特征值作为输入;
通过使用第一神经网络评价各第二描述符的性质和通过使用第二神经网络评价各第二描述符的结构;
基于评价的结果从所述第二描述符选择具有所述目标性质值和所述目标结构特征值的候选描述符;和
通过使用所述第二神经网络对于所选择的候选描述符产生化学结构。
12.如权利要求9所述的方法,其进一步包括:
接收目标性质值和目标结构特征值作为输入;
通过将遗传算法应用于所述第二描述符而产生下一代描述符;
通过使用第一神经网络评价各下一代描述符的性质,和通过使用第二神经网络评价各下一代描述符的结构;
基于评价的结果从所述下一代描述符选择具有所述目标性质值的候选描述符;和
通过使用所述第二神经网络对于所选择的候选描述符产生化学结构。
13.如权利要求11所述的方法,其中所述性质的评价包括:
将所述第二描述符输入到所述第一神经网络和产生各第二描述符的性质值作为输出;以及
通过将所产生的性质值与所述目标性质值相比较而评价各第二描述符的性质,
其中所述第一神经网络为深度神经网络(DNN)。
14.如权利要求11所述的方法,其中所述结构的评价包括:
将所述第二描述符输入到所述第二神经网络和产生各第二描述符的化学结构值作为输出;以及
通过确定所产生的结构特征值是否包括所述目标结构特征值而评价所述第二描述符的结构,
其中所述第二神经网络为循环神经网络(RNN)。
15.神经网络设备,其配置成通过使用条件变分自编码器(CVAE)而产生化学结构,所述神经网络设备包括:
存储至少一种程序的存储器;和
配置成通过执行所述至少一种程序而驱动神经网络设备的处理器,
其中所述处理器将第一描述符转换成低维潜在变量;
将所述潜在变量绘制成潜在图;
从所述潜在图选择由所述第一描述符转换的所述潜在变量未被绘制到其的区域;以及
将所选择的区域的潜在变量转换成高维第二描述符和对于所述第二描述符产生化学结构。
16.如权利要求15所述的神经网络设备,其中所述低维潜在变量包括核心结构信息和低维描述符。
17.如权利要求15所述的神经网络设备,其进一步包括配置成接收目标性质值和目标结构特征值作为输入的用户界面,
其中所述处理器通过使用第一神经网络评价各第二描述符的性质和通过使用第二神经网络评价各第二描述符的结构,
基于评价的结果从所述第二描述符选择具有所述目标性质值和所述目标结构特征值的候选描述符,和
通过使用所述第二神经网络对于所选择的候选描述符产生化学结构。
18.如权利要求15所述的神经网络设备,其进一步包括配置成接收目标性质值和目标结构特征值作为输入的用户界面,
其中所述处理器通过将遗传算法应用于所述第二描述符而产生下一代描述符;
通过使用所述第一神经网络评价各下一代描述符的性质,和通过使用第二神经网络评价各下一代描述符的结构;
基于评价的结果从所述下一代描述符选择具有所述目标性质值和所述目标结构特征值的候选描述符;和
通过使用所述第二神经网络对于所选择的候选描述符产生化学结构。
19.如权利要求17所述的神经网络设备,其中所述处理器将所述第二描述符输入到循环神经网络和对于各高维描述符产生化学结构作为输出,以及
通过确定所产生的结构特征值是否包括所述目标结构特征值而评价所述第二描述符的结构。
20.如权利要求17所述的神经网络设备,其中所述处理器将所述第二描述符输入到深度神经网络和产生各第二描述符的性质值作为输出,以及
通过将所产生的性质值与所述目标性质值进行比较而评价各第二描述符的性质。
21.计算机可读记录介质,其包括程序,所述程序当被计算机执行时,实行如权利要求1-4和9-14任一项所述的方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2018-0006275 | 2018-01-17 | ||
KR1020180006275A KR102587959B1 (ko) | 2018-01-17 | 2018-01-17 | 뉴럴 네트워크를 이용하여 화학 구조를 생성하는 장치 및 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110046692A true CN110046692A (zh) | 2019-07-23 |
Family
ID=63914913
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811266187.4A Pending CN110046692A (zh) | 2018-01-17 | 2018-10-29 | 产生化学结构的方法、神经网络设备和计算机可读记录介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11581067B2 (zh) |
EP (1) | EP3514734B1 (zh) |
KR (1) | KR102587959B1 (zh) |
CN (1) | CN110046692A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112955962A (zh) * | 2019-10-11 | 2021-06-11 | 迈立塔股份有限公司 | 新药候选物质导出方法及装置 |
CN114220488A (zh) * | 2021-11-08 | 2022-03-22 | 深圳晶泰科技有限公司 | 化合物设计方法、装置、设备及计算机可读存储介质 |
WO2023077522A1 (zh) * | 2021-11-08 | 2023-05-11 | 深圳晶泰科技有限公司 | 化合物设计方法、装置、设备及计算机可读存储介质 |
JP7483244B2 (ja) | 2019-10-21 | 2024-05-15 | 国立大学法人東京工業大学 | 化合物生成装置、化合物生成方法、学習装置、学習方法及びプログラム |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102547802B1 (ko) | 2018-08-23 | 2023-06-26 | 삼성전자주식회사 | 뉴럴 네트워크를 이용하여 화학 구조를 생성하는 장치 및 방법 |
US11995854B2 (en) * | 2018-12-19 | 2024-05-28 | Nvidia Corporation | Mesh reconstruction using data-driven priors |
EP4050612A4 (en) * | 2019-10-21 | 2023-11-15 | Standigm Inc. | METHOD AND DEVICE FOR COMPOUND DESIGN |
KR20210072528A (ko) * | 2019-12-09 | 2021-06-17 | 삼성전자주식회사 | 뉴럴 네트워크를 이용하여 새로운 화학 구조를 생성하는 장치 및 방법 |
US11875264B2 (en) * | 2020-01-15 | 2024-01-16 | R4N63R Capital Llc | Almost unsupervised cycle and action detection |
US20210303762A1 (en) * | 2020-03-31 | 2021-09-30 | International Business Machines Corporation | Expert-in-the-loop ai for materials discovery |
CN112199884A (zh) * | 2020-09-07 | 2021-01-08 | 深圳先进技术研究院 | 物品分子生成方法、装置、设备及存储介质 |
CN112270951B (zh) * | 2020-11-10 | 2022-11-01 | 四川大学 | 基于多任务胶囊自编码器神经网络的全新分子生成方法 |
JP7312468B2 (ja) * | 2021-02-12 | 2023-07-21 | Hpcシステムズ株式会社 | 分子構造生成方法及びプログラム |
CN113276119B (zh) * | 2021-05-25 | 2022-06-28 | 清华大学深圳国际研究生院 | 一种基于图Wasserstein自编码网络的机器人运动规划方法及系统 |
KR20230132186A (ko) * | 2022-03-08 | 2023-09-15 | 연세대학교 산학협력단 | 딥러닝 기반 분자 설계 방법, 이를 수행하는 장치 및 컴퓨터 프로그램 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5463564A (en) | 1994-09-16 | 1995-10-31 | 3-Dimensional Pharmaceuticals, Inc. | System and method of automatically generating chemical compounds with desired properties |
JP2003058579A (ja) | 2001-08-21 | 2003-02-28 | Bridgestone Corp | 設計・配合の最適化方法 |
JP2004301928A (ja) | 2003-03-28 | 2004-10-28 | Seiko Epson Corp | 薄膜形成方法および薄膜を有する被処理体 |
DE10350525A1 (de) | 2003-10-29 | 2005-06-09 | Bayer Technology Services Gmbh | Verfahren zur Visualisierung der ADME-Eigenschaften chemischer Substanzen |
JP2006113893A (ja) | 2004-10-15 | 2006-04-27 | Mitsubishi Electric Corp | 化学物質の自動分類方法、情報空間の可視化法及び情報検索システム並びに情報検索プログラム |
KR101375672B1 (ko) | 2011-10-27 | 2014-03-20 | 주식회사 켐에쎈 | 화합물의 물성을 예측하는 방법 및 화합물의 물성을 예측하는 시스템 |
KR102457974B1 (ko) | 2015-11-04 | 2022-10-21 | 삼성전자주식회사 | 신규 물질 탐색 방법 및 장치 |
US10366779B2 (en) | 2015-12-30 | 2019-07-30 | International Business Machines Corporation | Scheme of new materials |
KR102523472B1 (ko) | 2016-08-01 | 2023-04-18 | 삼성전자주식회사 | 신규 물질의 구조 생성 방법 및 장치 |
-
2018
- 2018-01-17 KR KR1020180006275A patent/KR102587959B1/ko active IP Right Grant
- 2018-10-10 US US16/156,709 patent/US11581067B2/en active Active
- 2018-10-18 EP EP18201299.7A patent/EP3514734B1/en active Active
- 2018-10-29 CN CN201811266187.4A patent/CN110046692A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112955962A (zh) * | 2019-10-11 | 2021-06-11 | 迈立塔股份有限公司 | 新药候选物质导出方法及装置 |
JP7483244B2 (ja) | 2019-10-21 | 2024-05-15 | 国立大学法人東京工業大学 | 化合物生成装置、化合物生成方法、学習装置、学習方法及びプログラム |
CN114220488A (zh) * | 2021-11-08 | 2022-03-22 | 深圳晶泰科技有限公司 | 化合物设计方法、装置、设备及计算机可读存储介质 |
WO2023077522A1 (zh) * | 2021-11-08 | 2023-05-11 | 深圳晶泰科技有限公司 | 化合物设计方法、装置、设备及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
KR20190087898A (ko) | 2019-07-25 |
EP3514734B1 (en) | 2024-05-29 |
US11581067B2 (en) | 2023-02-14 |
US20190220573A1 (en) | 2019-07-18 |
KR102587959B1 (ko) | 2023-10-11 |
EP3514734A1 (en) | 2019-07-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110046692A (zh) | 产生化学结构的方法、神经网络设备和计算机可读记录介质 | |
Salmeron et al. | Learning fuzzy cognitive maps with modified asexual reproduction optimisation algorithm | |
KR102166105B1 (ko) | 신경망 및 신경망 트레이닝의 방법 | |
CN110362723A (zh) | 一种题目特征表示方法、装置及存储介质 | |
US20230316379A1 (en) | Deep learning based visual compatibility prediction for bundle recommendations | |
US11334791B2 (en) | Learning to search deep network architectures | |
CN112735535A (zh) | 预测模型训练、数据预测方法、装置和存储介质 | |
CN108701264A (zh) | 能力赋予数据生成装置 | |
CN112000772A (zh) | 面向智能问答基于语义特征立方体的句子对语义匹配方法 | |
CN114548591B (zh) | 一种基于混合深度学习模型和Stacking的时序数据预测方法及系统 | |
US20230268035A1 (en) | Method and apparatus for generating chemical structure using neural network | |
Rai | Advanced deep learning with R: Become an expert at designing, building, and improving advanced neural network models using R | |
Dunn et al. | Evaluating robustness to context-sensitive feature perturbations of different granularities | |
US20230253076A1 (en) | Local steps in latent space and descriptors-based molecules filtering for conditional molecular generation | |
JP2021068410A (ja) | 化合物生成装置、化合物生成方法、学習装置、学習方法及びプログラム | |
US20210174910A1 (en) | Method and apparatus for generating new chemical structure using neural network | |
Mezzadri et al. | An order-dependent transfer model in categorization | |
Urbanowicz et al. | Introducing rule-based machine learning: a practical guide | |
KR20190132169A (ko) | 분자구조를 생성하는 장치 및 방법 | |
Breu | Point Cloud Classification as a Support for BIM-based Progress Tracking | |
CN117011672B (zh) | 基于类特定元提示学习的小样本类增对象识别方法和装置 | |
Gallagher | Request Confirmation Networks: A cortically inspired approach to neuro-symbolic script execution | |
Urbanowicz et al. | Introducing learning classifier systems: rules that capture complexity | |
Urbanowicz | Introducing rule-based machine learning: Capturing complexity | |
Mainzer et al. | Algorithms Simulate Evolution |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |