CN113159239B - 一种量子图卷积神经网络处理图数据的方法 - Google Patents

一种量子图卷积神经网络处理图数据的方法 Download PDF

Info

Publication number
CN113159239B
CN113159239B CN202110716435.6A CN202110716435A CN113159239B CN 113159239 B CN113159239 B CN 113159239B CN 202110716435 A CN202110716435 A CN 202110716435A CN 113159239 B CN113159239 B CN 113159239B
Authority
CN
China
Prior art keywords
quantum
graph
data
module
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110716435.6A
Other languages
English (en)
Other versions
CN113159239A (zh
Inventor
吕金虎
高庆
郑瑾
刘克新
王振乾
吕颜轩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN202110716435.6A priority Critical patent/CN113159239B/zh
Publication of CN113159239A publication Critical patent/CN113159239A/zh
Application granted granted Critical
Publication of CN113159239B publication Critical patent/CN113159239B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N10/00Quantum computing, i.e. information processing based on quantum-mechanical phenomena
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Computational Mathematics (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于人工智能、机器学习和量子计算领域,涉及一种量子图卷积神经网络处理图数据的方法,包括:对数据预处理;将预处理后的数据制备为多个量子比特;构建具有量子比特输入模块、量子图卷积模块、量子池化模块、量子比特测量模块和网络优化更新模块的量子图卷积神经网络模型;多次迭代训练模型并优化模型中量子门的参数,使输出结果尽可能达到目标输出,实现机器学习任务。本发明利用量子计算和神经网络的优势能够有效处理非欧式空间数据类型的机器学习任务,使量子神经网络不再局限于仅处理结构化数据,极大扩展了量子机器学习的适用范围。此外,本发明的模型还易于封装且具有很强的泛化性能,可根据不同的图数据结构进行扩展。

Description

一种量子图卷积神经网络处理图数据的方法
技术领域
本发明属于人工智能、机器学习和量子计算领域,特别涉及一种量子图卷积神经网络处理图数据的方法。
背景技术
近十几年时间里,机器学习和深度学习快速崛起,已经成为大数据时代下的技术基石,人工神经网络在信息处理、自动化、工程、医学等领域都取得了巨大的成功。随着信息技术不断发展,信息化将各个行业紧密联系起来,产业数据呈爆炸式增长,这种增长不仅是数据量的增长,还包括数据种类、结构和生产速度上的增长,这对计算和内存资源具有很高的要求,导致机器学习在处理高维数据时遇到计算瓶颈。
叠加、纠缠和量子并行等量子特性使量子系统具有较强的计算能力。与传统计算相比,量子计算在处理经典机器学习中所涉及的高维数据和训练过程缓慢等问题上更高效,显示出潜在的指数级计算性能。量子机器学习主要指通过量子计算硬件实现机器学习算法,从而能够更高效、智能地处理经典或量子数据。量子机器学习利用量子计算的优势优化经典的机器学习算法,具有相对稳定的计算能力和抑制退相干能力,可成为一种功能强大的机器学习应用程序。
目前,现有的量子神经网络模型实现经典的机器学习任务大多数所处理的都是欧式空间中的结构化数据,基于这些数据的张量计算系统是相对自然和有效的。然而,对于量子神经网络如何处理非欧式空间中数据,相应的研究很少。现实生活中的许多场景,如交通网络、社交网络、引用网络等都是以图数据的形式存在,为了扩大量子机器学习的应用范围,在机器学习任务中对这类数据的处理不可忽视。图数据是不规则的,不同于图像和文本数据,图数据中每个节点的局部结构各异,导致现有的量子神经网络模型不适合直接用于图数据。因此,根据图数据的结构特点,提供一种基于量子计算硬件,能够充分挖掘量子计算潜力,高效提取图数据特征的量子图卷积神经网络模型处理机器学习任务是亟待解决的技术问题。
发明内容
针对上述问题,本发明提供一种量子图卷积神经网络模型处理图数据的方法,本方法能够对具有图结构特点的数据进行高效的特征表示,实现处理图数据的机器学习任务。
为实现上述目的,本发明提供了一种量子图卷积神经网络处理图数据的方法,包括如下步骤:
S1:获取机器学习中图像处理任务的图像数据,识别图像的图结构得到输入图数据,建立图像处理数据集,包括输入图数据和其对应的目标输的,并将所述数据集划分为训练集和测试集;
S2:对数据集中的输入图数据进行预处理和对输入图数据中的节点和边进行统一编码;
S3:构建量子图卷积神经网络模型,包括量子比特输入模块、量子图卷积模块、量子池化模块、量子比特测量模块和网络优化更新模块;所述量子比特输入模块用于将机器学习任务的输入图数据信息制备为量子比特;所述量子图卷积模块用于构建量子电路,并根据输入图数据的结构特点对制备的量子比特施加多个受控量子门操作,改变量子比特的量子态,实现对输入图数据的节点的特征提取;所述量子池化模块用于对所述量子图卷积模块的特征提取结果进行量子测量操作,并根据测量结果,利用受控量子门对量子比特施加不同的操作使部分量子比特发生坍缩,所述部分量子比特的量子态包含的信息通过受控量子门与其相邻量子比特所包含的信息进行交互;所述量子比特测量模块对经过所述量子池化模块处理后剩下的量子比特施加测量操作以获得期望值,并将所述期望值映射到所述量子图卷积神经网络模型的输出,作为机器学习任务的输出结果;所述网络优化更新模块用于分析所述量子图卷积神经网络模型的输出结果与输入图数据对应的目标输出的误差,并根据误差分析结果利用优化算法更新所述量子图卷积神经网络模型中受控量子门的序列及其参数;
S4:利用步骤S2预处理后的训练集对所构建的量子图卷积神经网络模型进行迭代训练,直至满足机器学习任务所设置的阈值条件后终止训练,获得训练后的量子图卷积神经网络模型;
S5:利用步骤S2预处理后的测试集验证训练后的量子图卷积神经网络模型的性能。
进一步,步骤S2具体过程为:
1)对输入图数据的特征进行预处理,包括:对含有缺失值、格式不一致、逻辑错误和非实际需求问题的脏数据进行预处理;将不满足维度要求的输入图数据进行维度扩充,以使得输入图数据的维度与量子态可编码的维度相等;对输入图数据进行归一化处理,使输入图数据各个分量的平方和为1,满足量子态系数的归一化条件;
2)采用深度优先的遍历算法对输入图数据中的节点和边进行统一编码。
进一步,所述量子比特输入模块采用幅值编码的方式将输入图数据信息制备为量子比特的量子态,然后依据目标量子态设计量子门序列,将量子比特由初始量子态变换为目标量子态。
进一步,所述量子图卷积模块运行过程如下:
所述量子图卷积模块构建量子电路,将输入图数据的拓扑结构直接在量子电路上表达,量子电路中的量子门表示输入图数据节点和边的关系,节点之间边的存在性决定两个节点是否进行卷积操作;利用互换量子门保证量子电路中双量子比特量子门施加于相邻的单量子比特上,利用量子门对连接的量子比特进行操作,改变量子比特的量子态,实现对输入图数据节点特征的提取;
其中,量子门包含可调参数θ,改变可调参数θ能够改变对应量子门对量子比特所施加的操作,带有可调参数的量子门包括R x (θ)旋转量子门,R y (θ)旋转量子门和R z (θ)旋转量子门,其表达式分别为:
Figure 213822DEST_PATH_IMAGE001
Figure 334224DEST_PATH_IMAGE002
Figure 973016DEST_PATH_IMAGE003
其中,i为复数单位;
所述量子图卷积模块包括一个或多个量子图卷积层,一个或多个量子图卷积层的层数表示输入图数据中节点聚合其邻居节点的阶数,相同层的双量子比特量子门的参数相同,不同层的双量子比特量子门的参数不同。
进一步,所述量子池化模块包括受控非门、旋转量子门和逆旋转量子门。
进一步,所述网络优化模块中,采用交叉熵损失函数或将准确率作为衡量指标衡量所述量子图卷积神经网络模型的输出结果与输入图数据对应的目标输出的误差。
进一步,所述网络优化模块根据误差分析结果,利用梯度下降算法优化参数化量子电路。
本发明还提供了一种量子图卷积神经网络处理图数据的计算设备,包括至少一个处理器,以及与所述至少一个处理器通信连接的存储器;其中,所述存储器用于存储执行指令,所述至少一个处理器用于根据所述执行指令,执行上述方法,得到机器学习任务结果。
本发明的有益效果:
1)本发明的量子图卷积神经网络模型能够利用量子计算和神经网络的优势有效地处理非欧式空间数据类型的机器学习任务,使量子神经网络不再局限于仅处理结构化的数据,极大地扩展了量子机器学习的适用范围;
2)本发明的量子图卷积神经网络模型基于图数据的拓扑结构进行搭建,能够准确地表示节点间的关联性,并且保留了卷积操作局部连接和参数共享的特点,能够更高效的聚合节点及其邻居节点的数据特征,增强了图数据的表达能力;
3)本发明的量子图卷积神经网络模型易于封装且具有很强的泛化性能,可根据不同的图数据结构进行扩展。
附图说明
图1是本发明实施例1的量子图卷积神经网络处理图数据的方法流程示意图;
图2是经典图卷积神经网络示意图;
图3是本发明实施例1的量子图卷积神经网络模型的量子电路示意图;
图4是本发明实施例1的量子图卷积神经网络模型中量子图卷积层模块中所用的量子门;
图5是本发明实施例1的量子图卷积神经网络模型中量子池化层模块中所用的量子门;
图6是本发明实施例2的量子图卷积神经网络训练方法的流程示意图。
具体实施方式
下面结合附图和实施例进一步描述本发明,应该理解,以下所述实施例旨在便于对本发明的理解,而对其不起任何限定作用。
实施例1
参考图1,本实施例提供了一种量子图卷积神经网络处理图数据的方法,包括如下步骤:
S1:获取机器学习中图像处理任务的图像数据,识别图像的图结构得到输入图数据,建立图像处理数据集,包括输入图数据和其对应的目标输的,并将所述数据集划分为训练集和测试集;
S2:对数据集中的输入图数据进行预处理并对输入图数据中的节点和边进行统一编码;
本实施例中,对图数据的预处理主要包括:将含有缺失值、格式不一致、逻辑错误和非实际需求等问题的脏数据进行预处理;将不满足维度要求的输入数据进行维度扩充,以使得输入数据的维度与量子态可编码的维度相等;归一化处理,使输入数据各个分量的平方和为1,满足量子态系数的归一化条件。此外,图是一种相对复杂的数据结构,表示形式为G=(V,E),其中V为节点的集合,E为边的集合,对于每个节点均有其对应的特征。本发明提出的量子图卷积神经网络需要将图的拓扑结构映射到量子电路中,因此需要利用统一的编码方式对输入图数据中的节点和边进行编号。特别地,本实施例采用深度优先的遍历算法对数据集中的每个图数据样本进行统一编码可以降低量子电路的复杂度,提高所构建的量子图卷积神经网络模型的运算效率。
S3:构建量子图卷积神经网络模型,包括量子比特输入模块、量子图卷积模块、量子池化模块、量子比特测量模块和网络优化更新模块;下面对各模块进行具体说明:
1)量子比特输入模块
量子计算硬件只能对量子比特实施操控,从而处理通过量子比特的量子态所存储的信息,利用所述量子比特输入模块可以实现将预处理后的输入图数据信息存储到量子态中。根据获取输入图数据的类型,量子比特输入模块实施不同的具体操作:对于经典图数据(指现在机器学习中常用的图数据),量子比特输入模块执行量子态制备方法,采用幅值编码的方式将图数据信息制备为量子比特的初始量子态,然后依据目标量子态设计量子比特量子逻辑门(本文简称量子门)序列,将量子比特由初始量子态变换为目标量子态;对于量子数据,量子比特输入模块直接读入给定的量子比特。
量子比特输入模块为经典图数据转换为量子数据的关键步骤,不同于经典电子计 算机,量子计算机操作的基本数据单元是量子比特。物理上,量子比特可以有不同方法的实 现,可由两能级原子系统的基态、激发态,也可由光的不同偏振方向来表示。区别于经典比 特在任一时刻只能取一个值,量子比特可以处于
Figure 837067DEST_PATH_IMAGE004
Figure 713756DEST_PATH_IMAGE005
的任意叠加态,表示为
Figure 270639DEST_PATH_IMAGE006
。数学上,它为一个n维希尔伯特空间中的复向量,表示为:
Figure 803252DEST_PATH_IMAGE007
其中,
Figure 595627DEST_PATH_IMAGE008
为基态,
Figure 467768DEST_PATH_IMAGE009
为复数,是每个量子态的概率幅,且满足
Figure 54608DEST_PATH_IMAGE010
由于量子力学的叠加和纠缠特性,n个量子比特的量子态
Figure 277778DEST_PATH_IMAGE011
包含2 n 个基态:
Figure 280370DEST_PATH_IMAGE012
,进而可以表示为一个2 n 维的复向量:
Figure 397230DEST_PATH_IMAGE013
用两组量子比特分别映射节点和图的拓扑结构,一方面,用激发态
Figure 295916DEST_PATH_IMAGE014
和基态
Figure 596929DEST_PATH_IMAGE015
来 表示图结构的局部连接性,如果两个节点有连接,则相应的量子比特设为
Figure 606473DEST_PATH_IMAGE014
,并通过受控 量子比特量子逻辑门(本文简称受控量子门)作用于这两个节点。另一方面,通过幅值编码 的方法,利用多量子比特对节点的特征信息进行编码。
幅值编码方式将量子态的每个复值系数用于存储一个复数。例如,对于一个N=2 n 维实向量
Figure 515523DEST_PATH_IMAGE016
,可以用n个量子比特的量子态系数来编码,即量子态取值为
Figure 444165DEST_PATH_IMAGE017
。幅值编码只能处理归一化的经典矢量,即
Figure 376349DEST_PATH_IMAGE018
2)量子图卷积层模块
所述量子图卷积层模块用于构建量子门,对量子比特输入模块得到的量子态进行变换,对量子态中编码的输入数据进行特征提取,实现类似经典图卷积神经网络中的卷积操作。
已知卷积神经网络具有局部连接和权值共享的特性,与规则的网格结构相对应,对于图这种不具有规则的空间结构,当不确定相邻节点的数量或节点顺序时,难以选择固定的卷积核以适应整个图的不规则性。图卷积神经网络可以自动地学习节点特征和节点间的关联信息,利用图中边的信息聚合节点信息以生成新的节点表示形式,学习获得每个节点的隐藏状态,如图2所示,节点u 3聚合其邻居节点u 1u 2u 4和自身的特征,以生成新的节点表示v 3。图2中节点的聚合方式为:
Figure 720742DEST_PATH_IMAGE019
其中,
Figure 812195DEST_PATH_IMAGE020
是新生成的节点vl时刻的隐藏态;
Figure 787104DEST_PATH_IMAGE021
l时刻的特征维度的转换 矩阵;σ为非线性激活函数;
Figure 331218DEST_PATH_IMAGE022
为节点ul时刻的隐藏态;l+1时刻节点的隐藏态
Figure 682565DEST_PATH_IMAGE023
通过如下公式更新:
Figure 628524DEST_PATH_IMAGE024
其中,A表示邻接矩阵,
Figure 836652DEST_PATH_IMAGE025
表示聚合一阶邻居节点实现信息传输。在邻接矩 阵中加入闭环操作并对其归一化,可得到完整的图卷积神经网络的表达式:
Figure 743428DEST_PATH_IMAGE026
其中,
Figure 491941DEST_PATH_IMAGE027
I是单位矩阵,
Figure 433352DEST_PATH_IMAGE028
Figure 874698DEST_PATH_IMAGE029
的度矩阵。
本发明的量子图卷积层模块利用量子电路表达了与图卷积神经网络相同的思想,量子电路中的量子门通过对所连接的量子比特进行操作,改变量子比特的量子态,实现对图数据节点特征的提取。量子图卷积层电路是可用于训练的参数化量子电路,因此,本实施例的量子图卷积层模块中的量子门包含可调参数,改变该类量子门的参数能够改变其对量子比特所施加的操作。特别地,带有可调参数θ的量子门包括R x, R y R z 旋转量子门,其表达式为:
Figure 65508DEST_PATH_IMAGE001
Figure 758657DEST_PATH_IMAGE030
Figure 413630DEST_PATH_IMAGE003
其中,i为复数单位。
图3为根据本发明实施例提供的量子图卷积神经网络模型的量子电路示意图,其 以一个简单的图数据样本作为代表,该样本包括2条边(c 0, c 1)、3个节点(0,1,2)且每个节点 只包含一个特征。图3中每条横线301表示一个量子比特;方框302表示受控量子门(U1,U2); 虚线框303表示量子图卷积层模块。可以将图数据的拓扑结构直接在量子图卷积层模块的 量子电路上表达,其中受控量子门表示节点和边的关系。类似于经典图卷积神经网络的局 部连接和参数共享性,本实施例用两组量子比特分别映射节点和图的拓扑结构,其中,
Figure 166822DEST_PATH_IMAGE031
表示边的量子比特,用激发态
Figure 844928DEST_PATH_IMAGE005
和基态
Figure 203753DEST_PATH_IMAGE004
进行控制,如果两个节点有边,则相 应的量子比特设为
Figure 588598DEST_PATH_IMAGE005
,并通过受控量子门作用于这两个节点,c i 下面的横线表示节点特征 的量子比特,体现了量子图卷积操作的局部连接性。特别地,所述量子图卷积层模块可以包 含多个量子图卷积层,量子图卷积层的层数表示图中节点聚合其邻居节点的阶数,所以相 同层的双量子比特量子门的参数相同,不同层的双量子比特量子门的参数不同,这体现了 卷积操作的参数共享性。
所述量子比特输入模块将经典图数据的信息编码为量子态的振幅,因此在量子图卷积层模块中包含能够实现在振幅上大范围变换的幺正运算,且双量子比特量子门作用于两个单量子比特上,可利用其实现任意的双量子比特运算。双量子比特量子门可以包含最少的量子门数,如图4所示,本实施例的双量子比特量子门包括3个受控非门、3个单量子比特旋转门(R y R z )和4个单量子比特量子门。
将单量子比特量子门
Figure 637325DEST_PATH_IMAGE032
使用ZYZ分解为旋转门:
Figure 5990DEST_PATH_IMAGE033
其中,
Figure 837679DEST_PATH_IMAGE034
为群;δαβγ是实值角度,对应2个R z 门和1个R y 门;
对于单量子比特量子门,角度αβγ,Φ满足:
Figure 467244DEST_PATH_IMAGE035
若忽略全局相位,则:
Figure 296660DEST_PATH_IMAGE036
本实施例的量子图卷积层模块应用3个受控非门和15个单量子比特量子旋转门组成双量子比特量子门电路实现图卷积操作,通过聚合每个节点的邻居节点特征更新其当前节点的状态值,图4中的a,b,c,d为单量子比特量子门。特别地,本发明的量子图卷积层模块可基于图的拓扑结构进行扩展,卷积层数可根据节点聚集的阶数确定。
3)量子池化层模块
本发明的量子池化层模块通过引入量子测量和受控量子门减小了节点特征映射的维度并引入非线性,达到与经典池化层相同的效果。本实施例的量子池化层模块的量子电路图为图3虚线框304,利用该量子池化层对部分量子比特实施测量操作,根据测量结果,受控量子门对其相邻的量子比特施加酉变换V。经过量子池化层模块,被测量的量子比特发生坍缩,不再参与后续运算,其量子态所包含的信息通过受控量子门与相邻量子比特进行交互,有效地降低了节点特征映射的维度。
量子系统(括多个量子比特和多个参数化的量子门)中的信息不可直接获取,需经 过量子测量操作间接提取量子态的信息。根据量子态的不同实施量子测量,所得测量结果1 和-1的概率不同。例如,对量子态
Figure 277254DEST_PATH_IMAGE037
施加Z测量操作,得到测量结果1和-1的 概率为
Figure 647055DEST_PATH_IMAGE038
Figure 272072DEST_PATH_IMAGE039
,测量后量子比特的量子态坍缩,不再参与后续运算。 在一定概率下,每次测量都得到一个可能值,为了获得尽可能精确的量子态信息,可进行多 次重复测量。
有利地,本发明的量子池化层模块具有较强的逼近性能,如图5所示,本实施例的 量子池化层模块中的量子门包括受控非门、单量子比特量子旋转门(R y R z )和单量子比特 量子逆旋转门(
Figure 397023DEST_PATH_IMAGE040
Figure 474700DEST_PATH_IMAGE041
)。
4)量子比特测量模块
所述量子比特测量模块作用于量子图卷积层模块和量子池化层模块之后,对所剩一个或多个量子比特施加Z测量操作以获得期望值,其量子电路如图3的虚线框305所示,用于将所获期望值映射到量子图卷积神经网络模型的输出,作为机器学习任务的最终输出结果。
5)网络优化模块
所述网络优化模块用于将量子比特测量模块的输出结果与预处理后的数据集中对应的目标输出结果做误差分析,根据误差分析结果利用优化算法更新所构建的量子图卷积神经网络模型中量子门的可调参数,提高量子图卷积神经网络模型处理机器学习任务的性能。
本实施例中,采用交叉熵损失函数衡量所述网络优化模块的误差分析结果,函数定义为:
Figure 241668DEST_PATH_IMAGE042
其中,x表示图数据样本,y表示预处理后的图数据对应的目标输出;f(θ,x)表示量子比特测量模块的输出结果,m表示样本总数。L(θ)的值越小,表示误差越小,对应模型的性能越好。同时,为了更直观的判别量子图卷积神经网络模型的性能,可用准确率作为衡量指标作参考,定义为:
Figure 517928DEST_PATH_IMAGE043
其中,Acc表示准确率;g(·)为指标函数。
本实施例中,根据误差分析结果,网络优化模块利用梯度下降算法优化参数化量子电路U θ ,具体过程如下:
a. 计算梯度:量子图卷积神经网络模型中的可调参数θ,沿着损失函数下降最快 的方向进行更新:
Figure 954726DEST_PATH_IMAGE044
,其中,
Figure 378754DEST_PATH_IMAGE045
是梯度向量,η为学习率。迭代更新可调参数θ, 直到收敛到损失函数的局部极小值。设量子电路为
Figure 293620DEST_PATH_IMAGE046
,训练的量子门为
Figure 689967DEST_PATH_IMAGE047
,其中
Figure 422299DEST_PATH_IMAGE048
为多个泡利矩阵的张量积,利用链式法则计算损失函 数相对于可调参数θ的第j个分量θ j 的梯度值。量子图卷积神经网络所选定的K个输出量子 比特的测量结果的期望值函数为
Figure 208990DEST_PATH_IMAGE049
,梯度
Figure 49251DEST_PATH_IMAGE050
可写作期望值
Figure 503366DEST_PATH_IMAGE051
的函数。
b. 调整参数:通过调整偏移参数向量,
Figure 78704DEST_PATH_IMAGE052
Figure 742904DEST_PATH_IMAGE053
,重新运行 量子图卷积神经网络模型,获取新测量的期望值
Figure 999573DEST_PATH_IMAGE054
Figure 432828DEST_PATH_IMAGE055
。通过参数偏移法 则计算各个测量期望值
Figure 179067DEST_PATH_IMAGE056
关于可调参数θ的第j个分量θ j 的梯度:
Figure 940350DEST_PATH_IMAGE057
进而,可得损失函数的梯度值
Figure 390923DEST_PATH_IMAGE058
,选择合适的学习参数η进行参数更新。
S4:利用步骤S2预处理后的训练集对所构建的量子图卷积神经网络模型进行迭代训练,直至满足机器学习任务所设置的阈值条件后终止训练,获得训练后的量子图卷积神经网络模型;
S5:利用步骤S2预处理后的测试集验证训练后的量子图卷积神经网络模型的性能。
本发明的量子图卷积神经网络模型的整体结构可以适应不同类型的图数据集,它以拓扑(或邻接矩阵)关系和节点特征作为模型的输入。对于处理图节点类型的机器学习任务,数据集中的每个样本都必须提供邻接矩阵和节点的特征信息;对于处理图类型的机器学习任务,由于已知图结构,所以量子图卷积神经网络模型具有固定且更简单的网络结构,并且只需要考虑节点特征作为输入。
实施例2
如图6所示,本实施例还提供了一种量子图卷积神经网络的训练方法,包括如下步骤:
S1:获取机器学习任务的训练数据集,对输入图数据进行预处理以及统一编码后;
S2:将实施例1构建的量子图卷积神经网络模型的参数初始化;
S3:确定训练集图数据的数据类型,根据不同的数据类型,进行量子态的制备或输入;其中,对于经典图数据,使用量子态制备的方法将其编码为相应信息的量子比特;对于量子数据,可直接读入作为输入数据;
S4: 将输出的量子态输入到量子图卷积神经网络模型的量子图卷积模块的量子图卷积层并运行;
S5: 将量子图卷积层的运行结果输入到量子池化层模块的量子池化层并运行;
S6: 将量子池化层的运行结果进行量子比特测量操作以获得期望值,并将期望值映射到量子图卷积神经网络模型的输出,作为机器学习任务的最终输出结果;
S7: 运行网络优化模块,分析步骤S6的输出结果与期望输出的误差,根据分析结果利用优化算法更新量子图卷积神经网络模型中量子门的参数;
S8:重复步骤S3-S7,直至满足机器学习任务所设置的阈值条件再终止训练,最后保存量子图卷积神经网络模型训练完成后的量子门序列和其参数用以实现机器学习任务。
实施例3
本实施例提供了一种利用本发明的量子图卷积神经网络处理图数据的方法实现图分类任务的方法,包括:
获取实现图分类任务所需的数据集;
调用训练后最后保存的量子图卷积神经网络模型;
将获取的待分类数据输入至量子图卷积神经网络模型进行分类,得到机器学习图分类任务的分类结果。
实施例4
本实施例提供了一种量子图卷积神经网络模型的计算设备,包括:至少一个处理器、与处理器通信连接的至少一个存储器以及量子计算硬件,其中:
所述至少一个存储器用于存储可被处理器和量子计算硬件执行的程序指令;所述处理器用于调用程序指令执行本发明任一种可能的实现方式所提供的量子图卷积神经网络模型。
综上,本发明的量子图卷积神经网络能够利用量子计算和神经网络的优势有效地处理非欧式空间数据类型的机器学习任务,使量子神经网络不再局限于仅处理结构化的数据,极大地扩展了量子机器学习的适用范围。此外,本发明的量子图卷积神经网络模型基于图数据的拓扑结构进行搭建,能够准确地表示节点间的关联性,并且保留了卷积操作局部连接和参数共享的特点,能够更高效的聚合节点及其邻居节点的数据特征,增强了图数据的表达能力。
对于本领域的普通技术人员来说,在不脱离本发明创造构思的前提下,还可以对本发明的实施例做出若干变型和改进,这些都属于本发明的保护范围。

Claims (7)

1.一种量子图卷积神经网络处理图数据的方法,其特征在于,包括如下步骤:
S1:获取机器学习中图像处理任务的图像数据,识别图像的图结构得到输入图数据,建立图像处理数据集,包括输入图数据和其对应的目标输出,并将所述数据集划分为训练集和测试集;
S2:对数据集中的输入图数据进行预处理和对输入图数据中的节点和边进行统一编码;
S3:构建量子图卷积神经网络模型,包括量子比特输入模块、量子图卷积模块、量子池化模块、量子比特测量模块和网络优化更新模块;所述量子比特输入模块用于将机器学习任务的输入图数据信息制备为量子比特;所述量子图卷积模块用于构建量子电路,并根据输入图数据的结构特点对制备的量子比特施加多个受控量子门操作,改变量子比特的量子态,实现对输入图数据的节点的特征提取;所述量子池化模块用于对所述量子图卷积模块的特征提取结果进行量子测量操作,并根据测量结果,利用受控量子门对量子比特施加不同的操作使部分量子比特发生坍缩,所述部分量子比特的量子态包含的信息通过受控量子门与其相邻量子比特所包含的信息进行交互;所述量子比特测量模块对经过所述量子池化模块处理后剩下的量子比特施加测量操作以获得期望值,并将所述期望值映射到所述量子图卷积神经网络模型的输出,作为机器学习任务的输出结果;所述网络优化更新模块用于分析所述量子图卷积神经网络模型的输出结果与输入图数据对应的目标输出的误差,并根据误差分析结果利用优化算法更新所述量子图卷积神经网络模型中受控量子门的序列及其参数;
S4:利用步骤S2预处理后的训练集对所构建的量子图卷积神经网络模型进行迭代训练,直至满足机器学习任务所设置的阈值条件后终止训练,获得训练后的量子图卷积神经网络模型;
S5:利用步骤S2预处理后的测试集验证训练后的量子图卷积神经网络模型的性能;
步骤S2具体过程为:
1)对输入图数据的特征进行预处理,包括:对含有缺失值、格式不一致、逻辑错误和非实际需求问题的脏数据进行预处理;将不满足维度要求的输入图数据进行维度扩充,以使得输入图数据的维度与量子态可编码的维度相等;对输入图数据进行归一化处理,使输入图数据各个分量的平方和为1,满足量子态系数的归一化条件;
2)采用深度优先的遍历算法对输入图数据中的节点和边进行统一编码。
2.根据权利要求1所述的方法,其特征在于,所述量子比特输入模块采用幅值编码的方式将输入图数据信息制备为量子比特的量子态,然后依据目标量子态设计量子门序列,将量子比特由初始量子态变换为目标量子态。
3.根据权利要求1所述的方法,其特征在于,所述量子图卷积模块运行过程如下:
所述量子图卷积模块构建量子电路,将输入图数据的拓扑结构直接在量子电路上表达,量子电路中的量子门表示输入图数据节点和边的关系,节点之间边的存在性决定两个节点是否进行卷积操作;利用互换量子门保证量子电路中双量子比特量子门施加于相邻的单量子比特上,利用量子门对连接的量子比特进行操作,改变量子比特的量子态,实现对输入图数据节点特征的提取;
其中,量子门包含可调参数θ,改变可调参数θ能够改变对应量子门对量子比特所施加的操作,带有可调参数的量子门包括R x (θ)旋转量子门,R y (θ)旋转量子门和R z (θ)旋转量子门,其表达式分别为:
Figure 222210DEST_PATH_IMAGE001
Figure 670509DEST_PATH_IMAGE002
Figure 715825DEST_PATH_IMAGE003
其中,i为复数单位;
所述量子图卷积模块包括一个或多个量子图卷积层,一个或多个量子图卷积层的层数表示输入图数据中节点聚合其邻居节点的阶数,相同层的双量子比特量子门的参数相同,不同层的双量子比特量子门的参数不同。
4.根据权利要求1所述的方法,其特征在于,所述量子池化模块包括受控非门、旋转量子门和逆旋转量子门。
5.根据权利要求1所述的方法,其特征在于,所述网络优化模块中,采用交叉熵损失函数或将准确率作为衡量指标衡量所述量子图卷积神经网络模型的输出结果与输入图数据对应的目标输出的误差。
6.根据权利要求1所述的方法,其特征在于,所述网络优化模块根据误差分析结果,利用梯度下降算法优化参数化量子电路。
7.一种量子图卷积神经网络处理图数据的计算设备,其特征在于,包括至少一个处理器,以及与所述至少一个处理器通信连接的存储器;其中,所述存储器用于存储执行指令,所述至少一个处理器用于根据所述执行指令,执行根据权利要求1-6之一所述的方法,得到机器学习任务结果。
CN202110716435.6A 2021-06-28 2021-06-28 一种量子图卷积神经网络处理图数据的方法 Active CN113159239B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110716435.6A CN113159239B (zh) 2021-06-28 2021-06-28 一种量子图卷积神经网络处理图数据的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110716435.6A CN113159239B (zh) 2021-06-28 2021-06-28 一种量子图卷积神经网络处理图数据的方法

Publications (2)

Publication Number Publication Date
CN113159239A CN113159239A (zh) 2021-07-23
CN113159239B true CN113159239B (zh) 2021-09-28

Family

ID=76875962

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110716435.6A Active CN113159239B (zh) 2021-06-28 2021-06-28 一种量子图卷积神经网络处理图数据的方法

Country Status (1)

Country Link
CN (1) CN113159239B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114764620B (zh) * 2021-12-31 2024-04-09 本源量子计算科技(合肥)股份有限公司 一种量子卷积操作器
CN113361664B (zh) * 2021-08-10 2021-11-05 北京航空航天大学 一种基于量子卷积神经网络的图像识别系统及方法
CN114446414B (zh) * 2022-01-24 2023-05-23 电子科技大学 基于量子循环神经网络的逆向合成分析方法
CN114511092B (zh) * 2022-02-07 2023-04-18 上海图灵智算量子科技有限公司 一种基于量子线路的图注意力机制实现方法
CN114358295B (zh) * 2022-03-22 2022-06-21 合肥本源量子计算科技有限责任公司 基于机器学习框架的二分类方法及相关装置
CN115691669B (zh) * 2023-01-03 2023-03-17 北京中科弧光量子软件技术有限公司 一种基于量子卷积神经网络的蛋白质结构分类系统
CN115761384B (zh) * 2023-01-09 2023-04-28 苏州浪潮智能科技有限公司 一种图像分类方法、装置、电子设备和存储介质
CN117669753B (zh) * 2024-01-31 2024-04-16 北京航空航天大学杭州创新研究院 量子模型训练方法、多模态数据处理方法及装置
CN117787248B (zh) * 2024-02-23 2024-05-14 北京航空航天大学杭州创新研究院 量子自注意力文本处理方法、装置、量子设备及存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108596213A (zh) * 2018-04-03 2018-09-28 中国地质大学(武汉) 一种基于卷积神经网络的高光谱遥感图像分类方法及系统
CN109800883B (zh) * 2019-01-25 2020-12-04 合肥本源量子计算科技有限责任公司 量子机器学习框架构建方法、装置及量子计算机
CN111368920B (zh) * 2020-03-05 2024-03-05 中南大学 基于量子孪生神经网络的二分类方法及其人脸识别方法
CN112365139A (zh) * 2020-10-29 2021-02-12 浙江工业大学 一种图卷积神经网络下的人群危险程度分析方法

Also Published As

Publication number Publication date
CN113159239A (zh) 2021-07-23

Similar Documents

Publication Publication Date Title
CN113159239B (zh) 一种量子图卷积神经网络处理图数据的方法
CN111373420B (zh) 用于量子计算的方法和系统
CN110263227B (zh) 基于图神经网络的团伙发现方法和系统
CN108108854B (zh) 城市路网链路预测方法、系统及存储介质
JP2023534358A (ja) 量子系の基底状態エネルギーの推定方法、およびシステム
CN107886161A (zh) 一种提高复杂信息系统效能的全局敏感性分析方法
Henderson et al. Methods for accelerating geospatial data processing using quantum computers
WO2023093857A1 (zh) 基于量子线路求解非线性方程组的方法、装置和存储介质
CN115661550B (zh) 基于生成对抗网络的图数据类别不平衡分类方法及装置
Alam et al. Addressing temporal variations in qubit quality metrics for parameterized quantum circuits
Melnikov et al. Quantum state preparation using tensor networks
Mu et al. Auto-CASH: A meta-learning embedding approach for autonomous classification algorithm selection
Hong et al. Variational gridded graph convolution network for node classification
CN114676837A (zh) 基于量子模拟器的进化量子神经网络架构搜索方法
Guo et al. Reducing evaluation cost for circuit synthesis using active learning
Umeano et al. What can we learn from quantum convolutional neural networks?
Tchapet Njafa et al. Quantum associative memory with improved distributed queries
CN117076993A (zh) 基于云原生的多智能体博弈决策系统及方法
Jiang et al. Quantile-based policy optimization for reinforcement learning
Xu et al. LaPOLeaF: Label propagation in an optimal leading forest
Schrodi et al. Towards discovering neural architectures from scratch
CN114550849A (zh) 基于量子图神经网络解决化学分子性质预测的方法
CN114511097A (zh) 基于量子线路的互学习方法及系统
CN114519430A (zh) 一种软量子神经网络系统及模式识别方法
CN115423107A (zh) 通过量子线路确定目标对象的状态的方法和设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant