CN117875370A - 一种利用分子数据的任务处理方法及装置 - Google Patents
一种利用分子数据的任务处理方法及装置 Download PDFInfo
- Publication number
- CN117875370A CN117875370A CN202211220376.4A CN202211220376A CN117875370A CN 117875370 A CN117875370 A CN 117875370A CN 202211220376 A CN202211220376 A CN 202211220376A CN 117875370 A CN117875370 A CN 117875370A
- Authority
- CN
- China
- Prior art keywords
- trained
- quantum
- molecular
- data
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title abstract description 13
- 238000003062 neural network model Methods 0.000 claims abstract description 82
- 238000012545 processing Methods 0.000 claims abstract description 59
- 238000012549 training Methods 0.000 claims abstract description 59
- 238000000034 method Methods 0.000 claims abstract description 31
- 230000006870 function Effects 0.000 claims description 66
- 239000013598 vector Substances 0.000 claims description 45
- 238000004590 computer program Methods 0.000 claims description 15
- 238000005457 optimization Methods 0.000 claims description 15
- 239000002096 quantum dot Substances 0.000 claims description 13
- 238000005259 measurement Methods 0.000 claims description 11
- 239000000126 substance Substances 0.000 claims description 9
- 238000003860 storage Methods 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 description 13
- 238000013528 artificial neural network Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 7
- 238000009826 distribution Methods 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000011176 pooling Methods 0.000 description 5
- 231100000419 toxicity Toxicity 0.000 description 5
- 230000001988 toxicity Effects 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000012512 characterization method Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 241001235534 Graphis <ascomycete fungus> Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 229910052729 chemical element Inorganic materials 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000004768 lowest unoccupied molecular orbital Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000000329 molecular dynamics simulation Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000005610 quantum mechanics Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 231100000331 toxic Toxicity 0.000 description 1
- 230000002588 toxic effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
- 238000005303 weighing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N10/00—Quantum computing, i.e. information processing based on quantum-mechanical phenomena
- G06N10/20—Models of quantum computing, e.g. quantum circuits or universal quantum computers
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Mathematical Optimization (AREA)
- Computational Mathematics (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Analysis (AREA)
- Condensed Matter Physics & Semiconductors (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种利用分子数据的任务处理方法及装置,方法包括:首先构建量子图神经网络模型,获得待训练分子,并确定待训练分子的图数据,以获取训练数据集,确定待训练分子任务处理类型对应的损失函数,利用训练数据集,并基于所确定的损失函数,响应于量子图神经网络模型的优化终止条件,以获得训练好的量子图神经网络模型,通过训练好的量子图神经网络模型,对利用分子数据的任务进行处理,它通过训练好的量子图神经网络模型,实现利用分子数据的任务处理,利用量子的相关特性,提高相关任务的处理速度和精度。
Description
技术领域
本发明属于量子计算技术领域,特别是一种利用分子数据的任务处理方法及装置。
背景技术
随着人工智能技术的飞速发展,图神经网络模型不仅被广泛应用在图像识别、目标检测、自然语言处理等分类任务中,也被越来越多的研究者用来解决物理、化学、材料、医学等领域的回归训练问题,如凝聚态物理中的分子动力学计算。
传统的利用分子数据进行的任务处理方法主要依靠提取分子指纹或人为设计的特征,然后与机器学习算法结合使用。由于计算能力的加快,大型分子数据集的处理需求越来越高,利用经典图神经网络模型解决基于分子数据相关的任务处理问题的难点在于特征提取和数据处理过程的复杂度高、训练过程中参数众多、训练准确度低等,而利用量子计算在计算能力方面具有巨大潜力,与经典计算机相比,信息处理量愈多,实施运算也愈加有利,也更能确保运算的精准性。现阶段,如何利用量子技术,实现基于分子数据相关任务的精准且快速的处理,成为一个亟待解决的问题。
发明内容
本发明的目的是提供一种利用分子数据的任务处理方法及装置,以解决现有技术中的不足,它通过训练好的量子图神经网络模型,实现利用分子数据的任务处理,利用量子的相关特性,提高相关任务的处理速度和精度。
本申请的一个实施例提供了一种利用分子数据的任务处理方法,所述方法包括:
构建量子图神经网络模型;
获得待训练分子,并确定所述待训练分子的图数据,以获取训练数据集,其中,所述训练数据集包括待训练分子的节点特征向量和边特征向量;
确定所述待训练分子任务处理类型对应的损失函数;
利用所述训练数据集,并基于所确定的损失函数,响应于所述量子图神经网络模型的优化终止条件,以获得训练好的量子图神经网络模型,其中,所述优化终止条件为所述损失函数的值收敛为固定值;
通过所述训练好的量子图神经网络模型,对利用分子数据的任务进行处理。
可选的,所述量子图神经网络模型包括:
用于特征向量优化的目标量子线路。
可选的,所述目标量子线路是通过以下方式构建的:
获取一组量子比特;
利用第一类量子逻辑门,构建用于将所述待训练分子的图数据映射到所述量子比特叠加态的第一子量子线路;
利用第二类量子逻辑门,构建用于优化所述待训练分子的图数据的第二子量子线路;
构建用于提取优化后的待训练分子的图数据的特征向量的测量子线路;
利用所述第一子量子线路、所述第二子量子线路和所述测量子线路,获得用于特征向量优化的目标量子线路。
可选的,所述第一类量子逻辑门包括:Hadamard量子逻辑门和量子旋转逻辑门;
所述第二类量子逻辑门包括:CNOT量子逻辑门和量子旋转逻辑门。
可选的,所述获得待训练分子,并确定所述待训练分子的图数据,包括:
利用smiles格式的待训练分子表达式,生成所述待训练分子的图数据。
可选的,所述利用smiles格式的待训练分子表达式,生成所述待训练分子的图数据,包括:
将所述smiles格式的待训练分子表达式的原子转换为图数据的节点,将所述smiles格式的待训练分子表达式的化学键转换为图数据的边,以获得所述待训练分子的图数据。
可选的,所述确定所述待训练分子任务处理类型对应的损失函数,包括:
若所述待训练分子任务处理类型为分类任务,则分类任务对应的损失函数为:
H(p,q)=-∑x(p(x)log q(x)+(1-p(x))log(1-q(x)))
其中,所述p(x)为待训练分子数据集标签,所述q(x)为量子图神经网络模型根据输入待训练分子数据所生成的概率值。
若所述待训练分子任务处理类型为回归训练任务,则回归训练任务对应的损失函数为:
其中,所述N为待训练分子数据集数量,所述yi为待训练分子数据的标签值,所述fθ(xi)为量子图神经网络模型的输出值。
本申请的又一实施例提供了一种利用分子数据的任务处理装置,所述装置包括:
构建模块,用于构建量子图神经网络模型;
获得模块,用于获得待训练分子,并确定所述待训练分子的图数据,以获取训练数据集,其中,所述训练数据集包括待训练分子的节点特征向量和边特征向量;
确定模块,用于确定所述待训练分子任务处理类型对应的损失函数;
响应模块,用于利用所述训练数据集,并基于所确定的损失函数,响应于所述量子图神经网络模型的优化终止条件,以获得训练好的量子图神经网络模型,其中,所述优化终止条件为所述损失函数的值收敛为固定值;
实现模块,用于通过所述训练好的量子图神经网络模型,对利用分子数据的任务进行处理。
可选的,所述获得模块,包括:
生成单元,用于利用smiles格式的待训练分子表达式,生成所述待训练分子的图数据。
可选的,所述生成单元,包括:
获得子单元,用于将所述smiles格式的待训练分子表达式的原子转换为图数据的节点,将所述smiles格式的待训练分子表达式的化学键转换为图数据的边,以获得所述待训练分子的图数据。
可选的,所述确定模块,包括:
第一确定单元,用于若所述待训练分子任务处理类型为分类任务,则分类任务对应的损失函数为:
H(p,q)=-∑x(p(x)log q(x)+(1-p(x))log(1-q(x)))
其中,所述p(x)为待训练分子数据集标签,所述q(x)为量子图神经网络模型根据输入待训练分子数据所生成的概率值。
第二确定单元,用于若所述待训练分子任务处理类型为回归训练任务,则回归训练任务对应的损失函数为:
其中,所述N为待训练分子数据集数量,所述yi为待训练分子数据的标签值,所述fθ(xi)为量子图神经网络模型的输出值。
本申请的又一实施例提供了一种存储介质,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时实现上述任一项中所述的方法。
本申请的又一实施例提供了一种电子装置,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以实现上述任一项中所述的方法。
与现有技术相比,本发明首先构建量子图神经网络模型,获得待训练分子,并确定待训练分子的图数据,以获取训练数据集,确定待训练分子任务处理类型对应的损失函数,利用训练数据集,并基于所确定的损失函数,响应于量子图神经网络模型的优化终止条件,以获得训练好的量子图神经网络模型,通过训练好的量子图神经网络模型,对利用分子数据的任务进行处理,它通过训练好的量子图神经网络模型,实现利用分子数据的任务处理,利用量子的相关特性,提高相关任务的处理速度和精度。
附图说明
图1是本发明实施例提供的一种利用分子数据的任务处理方法的计算机终端的硬件结构框图;
图2是本发明实施例提供的一种利用分子数据的任务处理方法的流程示意图;
图3是本发明实施例提供的一种目标量子线路示意图;
图4是本发明实施例提供的一种利用分子数据的任务处理装置的结构示意图。
具体实施方式
下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
本发明实施例首先提供了一种利用分子数据的任务处理方法,该方法可以应用于电子设备,如计算机终端,具体如普通电脑、量子计算机等。
下面以运行在计算机终端上为例对其进行详细说明。图1为本发明实施例提供的一种利用分子数据的任务处理方法的计算机终端的硬件结构框图。如图1所示,计算机终端可以包括一个或多个(图1中仅示出一个)处理器102(处理器102可以包括但不限于微处理器MCU或可编程逻辑器件FPGA等的处理装置)和用于存储数据的存储器104,可选地,上述计算机终端还可以包括用于通信功能的传输装置106以及输入输出设备108。本领域普通技术人员可以理解,图1所示的结构仅为示意,其并不对上述计算机终端的结构造成限定。例如,计算机终端还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。
存储器104可用于存储应用软件的软件程序以及模块,如本申请实施例中的利用分子数据的任务处理方法对应的程序指令/模块,处理器102通过运行存储在存储器104内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的方法。存储器104可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器104可进一步包括相对于处理器102远程设置的存储器,这些远程存储器可以通过网络连接至计算机终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
传输装置106用于经由一个网络接收或者发送数据。上述的网络具体实例可包括计算机终端的通信供应商提供的无线网络。在一个实例中,传输装置106包括一个网络适配器(Network Interface Controller,NIC),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输装置106可以为射频(Radio Frequency,RF)模块,其用于通过无线方式与互联网进行通讯。
需要说明的是,真正的量子计算机是混合结构的,它包含两大部分:一部分是经典计算机,负责执行经典计算与控制;另一部分是量子设备,负责运行量子程序进而实现量子计算。而量子程序是由量子语言如QRunes语言编写的一串能够在量子计算机上运行的指令序列,实现了对量子逻辑门操作的支持,并最终实现量子计算。具体的说,量子程序就是一系列按照一定时序操作量子逻辑门的指令序列。
在实际应用中,因受限于量子设备硬件的发展,通常需要进行量子计算模拟以验证量子算法、量子应用等等。量子计算模拟即借助普通计算机的资源搭建的虚拟架构(即量子虚拟机)实现特定问题对应的量子程序的模拟运行的过程。通常,需要构建特定问题对应的量子程序。本发明实施例所指量子程序,即是经典语言编写的表征量子比特及其演化的程序,其中与量子计算相关的量子比特、量子逻辑门等等均有相应的经典代码表示。
量子线路作为量子程序的一种体现方式,也称量子逻辑电路,是最常用的通用量子计算模型,表示在抽象概念下对于量子比特进行操作的线路,其组成包括量子比特、线路(时间线),以及各种量子逻辑门,最后常需要通过量子测量操作将结果读取出来。
不同于传统电路是用金属线所连接以传递电压信号或电流信号,在量子线路中,线路可看成是由时间所连接,亦即量子比特的状态随着时间自然演化,在这过程中按照哈密顿运算符的指示,一直到遇上逻辑门而被操作。
一个量子程序整体上对应有一条总的量子线路,本发明所述量子程序即指该条总的量子线路,其中,该总的量子线路中的量子比特总数与量子程序的量子比特总数相同。可以理解为:一个量子程序可以由量子线路、针对量子线路中量子比特的测量操作、保存测量结果的寄存器及控制流节点(跳转指令)组成,一条量子线路可以包含几十上百个甚至千上万个量子逻辑门操作。量子程序的执行过程,就是对所有的量子逻辑门按照一定时序执行的过程。需要说明的是,时序即单个量子逻辑门被执行的时间顺序。
需要说明的是,经典计算中,最基本的单元是比特,而最基本的控制模式是逻辑门,可以通过逻辑门的组合来达到控制电路的目的。类似地,处理量子比特的方式就是量子逻辑门。使用量子逻辑门,能够使量子态发生演化,量子逻辑门是构成量子线路的基础,量子逻辑门包括单比特量子逻辑门,如Hadamard门(H门,哈德玛门)、泡利-X门(X门)、泡利-Y门(Y门)、泡利-Z门(Z门)、RX门、RY门、RZ门等等;多比特量子逻辑门,如CNOT门、CR门、iSWAP门、Toffoli门等等。量子逻辑门一般使用酉矩阵表示,而酉矩阵不仅是矩阵形式,也是一种操作和变换。一般量子逻辑门在量子态上的作用是通过酉矩阵左乘以量子态右矢对应的矩阵进行计算的。
本领域技术人员可以理解的是,在经典计算机中,信息的基本单元是比特,一个比特有0和1两种状态,最常见的物理实现方式是通过电平的高低来表示这两种状态。在量子计算中,信息的基本单元是量子比特,一个量子比特也有0和1两种状态,记为|0>和|1>,但它可以处于0和1两种状态的叠加态,可表示为其中,a、b为表示|0>态、|1>态振幅(概率幅)的复数,这是经典比特不具备的。测量后,量子比特的状态会塌缩至一个确定的状态(本征态,此处为|0>态、|1>态),其中,塌缩至|0>的概率是|a|2,塌缩至|1>的概率是|b|2,|a|2+|b|2=1,|>为狄拉克符号。
量子态,即指量子比特的状态,一般需要使用一组正交完备的基向量描述,其通常使用的计算基在量子算法(或称量子程序)中用二进制表示。例如,一组量子比特为q0、q1、q2,表示第0位、第1位、第2位量子比特,从高位到低位排序为q2q1q0,该组量子比特的量子态为23个计算基的叠加态,8个计算基是指:|000>、|001>、|010>、|011>、|100>、|101>、|110>、|111>,每个计算基与量子比特位对应一致,如|000>态,000从高位到低位对应q2q1q0。简言之,量子态是各基向量组成的叠加态,当其他基的概率幅为0时,即处于其中一个确定的基向量。
在量子力学中,所有的可测量的力学量都可以用一个厄密矩阵来描述,厄密矩阵的定义是,该矩阵的转置共轭即是该矩阵本身,即有:这样的矩阵通常称之为测量算符,非零算符都会有至少一个不为0的本征值λ以及与之对应的本征态|ψ>,满足H|ψ>=λ|ψ>,如果算符H的本征值对应的是某一个体系的能级分布,那么这样的算符也可以称其为哈密顿量(Hamiltonian)。
根据含时薛定谔方程,从一个态|ψ(t=0)>开始演化到另一个态|ψ(t=T)>是利用酉算符完成的,即U(0,T)|ψ(t=0)>=|ψ(t=T)>,其中,哈密顿量和酉算符的关系是,如果一个量子态在某个系统下自然演化,描述该系统的能量即哈密顿量,则酉算符可以由哈密顿量写出:
当系统从时间0开始,且哈密顿量不随时间变化时,酉算符即U=exp(-iHt)。在封闭系统的量子计算中,除测量外,所有的量子操作都可以用一个酉矩阵来描述,酉矩阵的定义是,该矩阵的转置共轭即是该矩阵的逆,即有:一般来说,酉算符在量子计算中也称之为量子逻辑门。
参见图2,图2为本发明实施例提供的一种利用分子数据的任务处理方法的流程示意图,可以包括如下步骤:
S201:构建量子图神经网络模型。
在量子图神经网络模型中,用量子线路替换经典图神经网络中的图节点嵌入层,实现将分子图数据中的节点特征映射到高维希尔伯特空间中,并利用量子线路中数据并行计算的特点和量子纠缠的特性来提高特征提取和数据处理的效率。采用量子-经典混合算法可以减少训练参数量,降低模型复杂度。
具体的,量子图神经网络模型可以包括:
用于特征向量优化的目标量子线路。
其中,所述目标量子线路是通过以下方式构建的:
1.获取一组量子比特;
2.利用第一类量子逻辑门,构建用于将所述待训练分子的图数据映射到所述量子比特叠加态的第一子量子线路;
3.利用第二类量子逻辑门,构建用于优化所述待训练分子的图数据的第二子量子线路;
4.构建用于提取优化后的待训练分子的图数据的特征向量的测量子线路;
5.利用所述第一子量子线路、所述第二子量子线路和所述测量子线路,获得用于特征向量优化的目标量子线路。
需要说明的是,所述第一类量子逻辑门包括:Hadamard量子逻辑门(H门)和量子旋转逻辑门;所述第二类量子逻辑门包括:CNOT量子逻辑门和量子旋转逻辑门。
其中,利用第一子量子线路、第二子量子线路和测量子线路,获得用于特征向量优化的目标量子线路,可以包括:
依次将所述第一子量子线路、所述第二子量子线路和所述测量子线路组合,得到目标量子线路,或依次将所述第一子量子线路、预设数量个所述第二子量子线路和所述测量子线路组合,得到目标量子线路,其中,所述预设数量为大于等于2的整数。
示例性的,参见图3,图3为本发明实施例提供的一种目标量子线路示意图,其中,获取9个量子比特并将所有量子比特的初态置为|0>,分别为量子比特q[0]-q[8],在第一子量子线路中(图3实线框部分)主要使用了H门和RY门,首先使用H门作用于量子比特的初态上,使其转化为叠加态/>然后将经典的图节点数据xi=[a0、a0、…、a7、a8]作为量子门参数,形式为RY(aj),其中j=0,1,…,7,8,分别量子化映射到叠加态的量子位上。在一层第二子量子线路(图3虚线框部分)中使用了两种量子门操作:CNOT门和RY门。CNOT门的主要作用是实现量子纠缠,它可以使量子比特之间的信息进行交换与传递。在实现了多次跨量子位的纠缠后,线路中又引入了参数化的RY(θ)门,通过不断迭代优化旋转角参数θ可以实现对目标量子线路的优化从而学习到更有效的节点特征编码,而且可以根据线路结构和任务需要多次叠加此层,增加深度,以寻求更优线路模型。测量输出层是目标量子线路的最后一层,作用是使量子比特的退相干,实现量子数据到经典数据的转化。
S202:获得待训练分子,并确定所述待训练分子的图数据,以获取训练数据集,其中,所述训练数据集包括待训练分子的节点特征向量和边特征向量。
具体的,待训练分子可以认为是用户想要获得分子性质结果的分子结构建模,例如包括组成该化学分子的原子类型、化学元素键、原子个数、原子坐标、电荷及自旋多重度等。
其中,获得待训练分子,并确定所述待训练分子的图数据,可以包括:
利用smiles格式的待训练分子表达式,生成所述待训练分子的图数据。
具体的,将所述smiles格式的待训练分子表达式的原子转换为图数据的节点,将所述smiles格式的待训练分子表达式的化学键转换为图数据的边,以获得所述待训练分子的图数据。
例如,根据获得的待训练分子,将待训练分子的原子转换为图数据的节点,将待训练分子的化学键转换为图数据的边,以获得待训练分子的图数据。其中,节点特征向量是表征节点(即实体对象)属性的向量,属性是描述图神经网络节点的特征。图神经网络是一种直接作用于图上的神经网络,图数据是由节点和边组成的一种数据结构,其中,节点是指实体对象,边是指节点之间的关系。图神经网络中每一个节点基于信息传播机制,通过相互交换信息来更新本节点的状态。在一些实施例中,图神经网络模型可以基于当前每个节点的状态,获取节点的训练结果。
S203:确定所述待训练分子任务处理类型对应的损失函数。
具体的,待训练分子任务处理类型可以包括分类任务和回归任务,其中,对于分类任务,例如可以为分子的毒性检测;对于回归任务,例如可以为分子能隙预测等。
在一种可选的实施方式中,所述确定所述待训练分子任务处理类型对应的损失函数,可以包括:
若所述待训练分子任务处理类型为分类任务,则分类任务对应的损失函数为:
H(p,q)=-∑x(p(x)log q(x)+(1-p(x))log(1-q(x)))
其中,所述p(x)为待训练分子数据集标签,所述q(x)为量子图神经网络模型根据输入待训练分子数据所生成的概率值。
若所述待训练分子任务处理类型为回归训练任务,则回归训练任务对应的损失函数为:
其中,N为待训练分子数据集数量,Di为待训练分子数据的标签值,fθ(xi)为量子图神经网络模型的输出值。
S204:利用所述训练数据集,并基于所确定的损失函数,响应于所述量子图神经网络模型的优化终止条件,以获得训练好的量子图神经网络模型,其中,所述优化终止条件为所述损失函数的值收敛为固定值。
具体的,可以首先利用训练数据集,将分子图数据的各个节点的特征编码到量子线路中,然后利用量子线路进行节点特征提取,将得到的具有新节点特征的图数据输入到量子图神经网络模型的卷积层和池化层进行图的表征提取,并以此表征为基础输出训练结果;然后利用损失函数计算输出结果的损失值,根据该值对模型参数进行优化,其中也包含了量子线路中参数的迭代优化;通过对量子图神经网络模型的不断迭代优化来提高分子训练准确度和稳定性。
示例性的,利用目标量子线路,首先,输入待训练分子的图数据的各个节点通过目标量子线路(量子变分线路VQC)进行特征编码得到节点特征编码向量/>其中,n为单个节点特征数,例如,可以令n=9,然后将得到的特征向量融合生成节点编码特征矩阵/>以水分子H2O为例,该分子中含有3个原子节点和2条边(化学键),可以通过smiles2graph库将该分子数据转化为含有边特征向量E和节点特征向量/>的图数据。图数据中的各个原子节点特征向量分别经过VQC的特征编码,输出新的节点特征编码向量/>然后将其拼接成新的节点特征。接上述如图3所示的示例,在编码过程中,由于该模型中单节点特征数n=9,所以量子线路是由9个量子比特组成,且用各个量子比特的泡利Z的测量期望值作为输出,所以输出的各节点的特征编码x′i为一个9维向量。
需要说明的是,具体的,基于损失函数,判断是否满足量子图神经网络模型的优化终止条件其实是判断量子图神经网络针对不同的任务类型是否已经训练好,当损失函数满足的值收敛为固定值时,例如损失函数的值收敛为零或者其他数值,就会得到训练好的针对不同任务类型的量子图神经网络模型。
同时,也可以通过判断当前损失函数的值与前一次得到的损失函数的值的差值是否满足预设的精度的方式,确定量子图神经网络针对不同的任务类型是否已经训练好。随着量子图神经网络模型的不断优化,损失函数的值会越来越小,即当前损失函数的值与前一次损失函数的值的差值也会越来越小,优化的目的是使损失函数的值收敛为固定值。当前损失函数的值和前一次损失函数的值差值在预设范围内,说明损失函数的值已经近似等于期望输出的概率分布,基于此对后续的研究与期望输出的概率分布进行后续的研究差别不大,为了减少计算资源的浪费,则终止优化,此时量子图神经网络模型就已经训练完成。这里所说的预设的精度可以由优化想要达到的精度确定的,比如精度为10-5,则预设范围可以为(0,10-5)。
S205:通过所述训练好的量子图神经网络模型,对利用分子数据的任务进行处理。
具体的,在得到训练好的量子图神经网络模型之后,可以将一组待预测分子的数据集输入到训练好的量子图神经网络模型中,以得到待预测分子性质的任务处理结果。
示例性的,将一组待预测分子的数据集输入到训练好的量子图神经网络模型的步骤,可以包括:待预测分子特征抽取,构建特征向量和邻接矩阵,将分子图像转化为具有原子信息、化学键信息以及分子结构信息的数字化向量,构建图像卷积层,将得到的特征向量和图像邻接矩阵输入,获取卷积后的特征向量;构建池化层,对分子的特征向量进行池化,提取分子特征向量;最后,在通过多层图卷积操作后得到节点表征后,需要对图上各个节点的表征做图池化(Graph Pooling),或称为图读出(Graph Readout),得到一个图表征节点,基于图的表征,通过全连接神经网络层输出预测值。
示例性的,对于分子毒性检测的分类任务,基于Clintox数据集对量子图神经网络模型进行训练,得到可以对分子数据进行毒性预测的模型。ClinTox包含1,484个分子,在临床试验中标有FDA批准状态和毒性状态。
利用smile2graph工具可以将smiles格式的分子数据转化为分子的图表示:例如,每个节点有9个特征表示,每条边有3个特征表示。然后将处理好的分子图数据输入到预先构建好的量子图神经网络中,进行结果预测。对于分类任务,模型的输出结果为介于[0,1]间的概率分布,如:输出结果为[0.8,0.2],则分类结果为[1,0]。对于训练过程中的损失计算则是利用交叉熵损失(CrossEntropyLoss)函数H(p,q)完成,计算公式如下:
H(p,q)=-∑x(p(x)log q(x)+(1-p(x))log(1-q(x)))
其中,概率分布p(x)为期望输出,即数据集的标签,概率分布为实际输出,即模型根据输入数据所生成的概率值。交叉熵损失越小实际输出的概率分布q(x)与期望输出的概率分布p(x)越接近。
对于上述Clintox数据集的分类任务,这里给出5个分子数据的一次训练过程为例,首先进行数据预处理,将分子数据转化为图数据结构,然后将图数据输入到量子图神经网络模型中进行前向传播预测,假如输出的预测结果为:[0.6,0.4]、[0.2,0.75]、[0.3,0.65]、[0.5,0.1]、[0.9,0.2],分子毒性预测的数据标签为[1,0]、[1,0]、[1,0]、[1,0]、[1,0]。则通过上述的交叉熵损失计算公式得到的损失函数的值为:
H(p,q)=-(log0.6+log0.2+log0.3+log0.5+log0.9)=4.123
同时,根据输出结果可以得出分子的分类结果为[1,0]、[0,1]、[0,1]、[1,0]、[1,0],通过与分子毒性预测的数据标签进行对比可以看出,分子数据1,4,5的分类结果是正确的,那么分类的准确率为3/5。
对于上述Clintox数据集的回归任务,这里同样以上述问题中给出的示例数据为例,即给出5个分子数据的一次训练过程。首先进行与分类任务中相同的分子预处理,将smiles格式的分子数据转化成量子图神经网络模型可以处理的分子图数据;然后将该数据输入到预先构建好的量子图神经网络中,有该数据集的预测结果为一个代表HOMO-LUMO能隙的实数值,所以该模型的输出也应该为一个实数域的数值。假如通过该模型的示例图数据的输出结果为:2.41,则根据上述的损失函数计算公式可得损失函数的值为:
Loss=(6.811-2.41)2=19.3688
需要说明的是,可以利用优化器指引损失函数的参数往正确的方向上更新至合适的大小,使得更新后的参数让损失函数值不断逼近全局最优。例如,利用损失函数和优化器,计算参数下降的梯度,具体的计算方法与优化器的类型有关,然后,在获得梯度之后,利用优化器对应的参数更新算式,获得新的参数值,示例性的,参数更新算式可以为:θi+1=θi-αgt,其中,θi为当前参数,θi+1为新的参数值,α为学习速率,gt为当前参数的梯度,α可以是在构建量子图神经网络时设置的。
可见,本发明首先构建量子图神经网络模型,获得待训练分子,并确定待训练分子的图数据,以获取训练数据集,确定待训练分子任务处理类型对应的损失函数,利用训练数据集,并基于所确定的损失函数,响应于量子图神经网络模型的优化终止条件,以获得训练好的量子图神经网络模型,通过训练好的量子图神经网络模型,对利用分子数据的任务进行处理,它通过训练好的量子图神经网络模型,实现利用分子数据的任务处理,利用量子的相关特性,提高相关任务的处理速度和精度。
参见图4,图4为本发明实施例提供的一种利用分子数据的任务处理装置的结构示意图,与图2所示的流程相对应,可以包括:
构建模块401,用于构建量子图神经网络模型;
获得模块402,用于获得待训练分子,并确定所述待训练分子的图数据,以获取训练数据集,其中,所述训练数据集包括待训练分子的节点特征向量和边特征向量;
确定模块403,用于确定所述待训练分子任务处理类型对应的损失函数;
响应模块404,用于利用所述训练数据集,并基于所确定的损失函数,响应于所述量子图神经网络模型的优化终止条件,以获得训练好的量子图神经网络模型,其中,所述优化终止条件为所述损失函数的值收敛为固定值;
实现模块405,用于通过所述训练好的量子图神经网络模型,对利用分子数据的任务进行处理。
具体的,所述获得模块,包括:
生成单元,用于利用smiles格式的待训练分子表达式,生成所述待训练分子的图数据。
具体的,所述生成单元,包括:
获得子单元,用于将所述smiles格式的待训练分子表达式的原子转换为图数据的节点,将所述smiles格式的待训练分子表达式的化学键转换为图数据的边,以获得所述待训练分子的图数据。
具体的,所述确定模块,包括:
第一确定单元,用于若所述待训练分子任务处理类型为分类任务,则分类任务对应的损失函数为:
H(p,q)=-∑x(p(x)log q(x)+(1-p(x))log(1-q(x)))
其中,所述p(x)为待训练分子数据集标签,所述q(x)为量子图神经网络模型根据输入待训练分子数据所生成的概率值。
第二确定单元,用于若所述待训练分子任务处理类型为回归训练任务,则回归训练任务对应的损失函数为:
其中,所述N为待训练分子数据集数量,所述yi为待训练分子数据的标签值,所述fθ(xi)为量子图神经网络模型的输出值。
与现有技术相比,本发明首先构建量子图神经网络模型,获得待训练分子,并确定待训练分子的图数据,以获取训练数据集,确定待训练分子任务处理类型对应的损失函数,利用训练数据集,并基于所确定的损失函数,响应于量子图神经网络模型的优化终止条件,以获得训练好的量子图神经网络模型,通过训练好的量子图神经网络模型,对利用分子数据的任务进行处理,它通过训练好的量子图神经网络模型,实现利用分子数据的任务处理,利用量子的相关特性,提高相关任务的处理速度和精度。
本发明实施例还提供了一种存储介质,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时实现上述任一项中方法实施例中的步骤。
具体的,在本实施例中,上述存储介质可以被设置为存储用于实现以下步骤的计算机程序:
S201:构建量子图神经网络模型;
S202:获得待训练分子,并确定所述待训练分子的图数据,以获取训练数据集,其中,所述训练数据集包括待训练分子的节点特征向量和边特征向量;
S203:确定所述待训练分子任务处理类型对应的损失函数;
S204:利用所述训练数据集,并基于所确定的损失函数,响应于所述量子图神经网络模型的优化终止条件,以获得训练好的量子图神经网络模型,其中,所述优化终止条件为所述损失函数的值收敛为固定值;
S205:通过所述训练好的量子图神经网络模型,对利用分子数据的任务进行处理。
具体的,在本实施例中,上述存储介质可以包括但不限于:U盘、只读存储器(Read-Only Memory,简称为ROM)、随机存取存储器(Random Access Memory,简称为RAM)、移动硬盘、磁碟或者光盘等各种可以存储计算机程序的介质。
本发明实施例还提供了一种电子装置,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以实现上述任一项中方法实施例中的步骤。
具体的,上述电子装置还可以包括传输设备以及输入输出设备,其中,该传输设备和上述处理器连接,该输入输出设备和上述处理器连接。
具体的,在本实施例中,上述处理器可以被设置为通过计算机程序实现以下步骤:
S201:构建量子图神经网络模型;
S202:获得待训练分子,并确定所述待训练分子的图数据,以获取训练数据集,其中,所述训练数据集包括待训练分子的节点特征向量和边特征向量;
S203:确定所述待训练分子任务处理类型对应的损失函数;
S204:利用所述训练数据集,并基于所确定的损失函数,响应于所述量子图神经网络模型的优化终止条件,以获得训练好的量子图神经网络模型,其中,所述优化终止条件为所述损失函数的值收敛为固定值;
S205:通过所述训练好的量子图神经网络模型,对利用分子数据的任务进行处理。
以上依据图式所示的实施例详细说明了本发明的构造、特征及作用效果,以上所述仅为本发明的较佳实施例,但本发明不以图面所示限定实施范围,凡是依照本发明的构想所作的改变,或修改为等同变化的等效实施例,仍未超出说明书与图示所涵盖的精神时,均应在本发明的保护范围内。
Claims (10)
1.一种利用分子数据的任务处理方法,其特征在于,所述方法包括:
构建量子图神经网络模型;
获得待训练分子,并确定所述待训练分子的图数据,以获取训练数据集,其中,所述训练数据集包括待训练分子的节点特征向量和边特征向量;
确定所述待训练分子任务处理类型对应的损失函数;
利用所述训练数据集,并基于所确定的损失函数,响应于所述量子图神经网络模型的优化终止条件,以获得训练好的量子图神经网络模型,其中,所述优化终止条件为所述损失函数的值收敛为固定值;
通过所述训练好的量子图神经网络模型,对利用分子数据的任务进行处理。
2.根据权利要求1所述的方法,其特征在于,所述量子图神经网络模型包括:
用于特征向量优化的目标量子线路。
3.根据权利要求2所述的方法,其特征在于,所述目标量子线路是通过以下方式构建的:
获取一组量子比特;
利用第一类量子逻辑门,构建用于将所述待训练分子的图数据映射到所述量子比特叠加态的第一子量子线路;
利用第二类量子逻辑门,构建用于优化所述待训练分子的图数据的第二子量子线路;
构建用于提取优化后的待训练分子的图数据的特征向量的测量子线路;
利用所述第一子量子线路、所述第二子量子线路和所述测量子线路,获得用于特征向量优化的目标量子线路。
4.根据权利要求3所述的方法,其特征在于,所述第一类量子逻辑门包括:Hadamard量子逻辑门和量子旋转逻辑门;
所述第二类量子逻辑门包括:CNOT量子逻辑门和量子旋转逻辑门。
5.根据权利要求1所述的方法,其特征在于,所述获得待训练分子,并确定所述待训练分子的图数据,包括:
利用smiles格式的待训练分子表达式,生成所述待训练分子的图数据。
6.根据权利要求5所述的方法,其特征在于,所述利用smiles格式的待训练分子表达式,生成所述待训练分子的图数据,包括:
将所述smiles格式的待训练分子表达式的原子转换为图数据的节点,将所述smiles格式的待训练分子表达式的化学键转换为图数据的边,以获得所述待训练分子的图数据。
7.根据权利要求1所述的方法,其特征在于,所述确定所述待训练分子任务处理类型对应的损失函数,包括:
若所述待训练分子任务处理类型为分类任务,则分类任务对应的损失函数为:
H(p,q)=-Σx(p(x)logq(x)+(1-p(x))log(1-q(x)))
其中,所述p(x)为待训练分子数据集标签,所述q(x)为量子图神经网络模型根据输入待训练分子数据所生成的概率值。
若所述待训练分子任务处理类型为回归训练任务,则回归训练任务对应的损失函数为:
其中,所述N为待训练分子数据集数量,所述yi为待训练分子数据的标签值,所述fθ(xi)为量子图神经网络模型的输出值。
8.一种利用分子数据的任务处理装置,其特征在于,所述装置包括:
构建模块,用于构建量子图神经网络模型;
获得模块,用于获得待训练分子,并确定所述待训练分子的图数据,以获取训练数据集,其中,所述训练数据集包括待训练分子的节点特征向量和边特征向量;
确定模块,用于确定所述待训练分子任务处理类型对应的损失函数;
响应模块,用于利用所述训练数据集,并基于所确定的损失函数,响应于所述量子图神经网络模型的优化终止条件,以获得训练好的量子图神经网络模型,其中,所述优化终止条件为所述损失函数的值收敛为固定值;
实现模块,用于通过所述训练好的量子图神经网络模型,对利用分子数据的任务进行处理。
9.一种存储介质,其特征在于,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时实现所述权利要求1至7任一项中所述的方法。
10.一种电子装置,包括存储器和处理器,其特征在于,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以实现所述权利要求1至7任一项中所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211220376.4A CN117875370A (zh) | 2022-09-30 | 2022-09-30 | 一种利用分子数据的任务处理方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211220376.4A CN117875370A (zh) | 2022-09-30 | 2022-09-30 | 一种利用分子数据的任务处理方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117875370A true CN117875370A (zh) | 2024-04-12 |
Family
ID=90577814
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211220376.4A Pending CN117875370A (zh) | 2022-09-30 | 2022-09-30 | 一种利用分子数据的任务处理方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117875370A (zh) |
-
2022
- 2022-09-30 CN CN202211220376.4A patent/CN117875370A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Jia et al. | Quantum neural network states: A brief review of methods and applications | |
CN113159239B (zh) | 一种量子图卷积神经网络处理图数据的方法 | |
US12079691B2 (en) | Quantum convolution operator | |
CN114821217B (zh) | 一种基于量子经典混合神经网络的图像识别方法及装置 | |
CN114792378A (zh) | 一种量子图像识别方法及装置 | |
CN114358319B (zh) | 基于机器学习框架的分类方法及相关装置 | |
CN115661550A (zh) | 基于生成对抗网络的图数据类别不平衡分类方法及装置 | |
CN116011682B (zh) | 一种气象数据预测方法、装置、存储介质及电子装置 | |
CN114358216B (zh) | 基于机器学习框架的量子聚类方法及相关装置 | |
CN114358317B (zh) | 基于机器学习框架的数据分类方法及相关设备 | |
CN114358318B (zh) | 基于机器学习框架的分类方法及相关装置 | |
CN114764620B (zh) | 一种量子卷积操作器 | |
Lu et al. | Qas-bench: rethinking quantum architecture search and a benchmark | |
CN114511094A (zh) | 一种量子算法的优化方法、装置、存储介质与电子装置 | |
CN113222151B (zh) | 一种量子态的变换方法及装置 | |
CN113222160B (zh) | 一种量子态的转换方法及装置 | |
CN116431807B (zh) | 一种文本分类方法、装置、存储介质及电子装置 | |
CN116403657A (zh) | 一种药物反应预测方法、装置、存储介质及电子装置 | |
CN116011681A (zh) | 一种气象数据预测方法、装置、存储介质及电子装置 | |
CN117875370A (zh) | 一种利用分子数据的任务处理方法及装置 | |
CN117877611A (zh) | 一种预测分子性质的方法及装置 | |
CN116306952B (zh) | 一种分子性质预测方法、装置、存储介质及电子装置 | |
CN115700572B (zh) | 一种网格方程与物理方程迭代的量子求解方法及装置 | |
CN116499466B (zh) | 一种智能体导航方法、装置、存储介质及电子装置 | |
WO2024007919A1 (zh) | 基于lbm的量子流动模拟方法、装置、介质及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |