CN114511097A - 基于量子线路的互学习方法及系统 - Google Patents
基于量子线路的互学习方法及系统 Download PDFInfo
- Publication number
- CN114511097A CN114511097A CN202210115065.5A CN202210115065A CN114511097A CN 114511097 A CN114511097 A CN 114511097A CN 202210115065 A CN202210115065 A CN 202210115065A CN 114511097 A CN114511097 A CN 114511097A
- Authority
- CN
- China
- Prior art keywords
- quantum
- state
- classical
- types
- gate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 238000004364 calculation method Methods 0.000 claims abstract description 53
- 230000009466 transformation Effects 0.000 claims abstract description 40
- 230000006870 function Effects 0.000 claims abstract description 33
- 238000013528 artificial neural network Methods 0.000 claims abstract description 16
- 239000002131 composite material Substances 0.000 claims abstract description 13
- 238000011478 gradient descent method Methods 0.000 claims abstract description 13
- 230000017105 transposition Effects 0.000 claims abstract description 9
- 238000012549 training Methods 0.000 claims description 67
- 239000011159 matrix material Substances 0.000 claims description 54
- 238000012360 testing method Methods 0.000 claims description 35
- 239000002096 quantum dot Substances 0.000 claims description 22
- 230000008569 process Effects 0.000 claims description 19
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000012546 transfer Methods 0.000 claims description 3
- 238000010801 machine learning Methods 0.000 description 22
- 238000004422 calculation algorithm Methods 0.000 description 19
- 230000000694 effects Effects 0.000 description 9
- AYFVYJQAPQTCCC-GBXIJSLDSA-N L-threonine Chemical compound C[C@@H](O)[C@H](N)C(O)=O AYFVYJQAPQTCCC-GBXIJSLDSA-N 0.000 description 8
- 238000010586 diagram Methods 0.000 description 5
- 238000013461 design Methods 0.000 description 4
- 230000004069 differentiation Effects 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 230000005610 quantum mechanics Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000004575 stone Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N10/00—Quantum computing, i.e. information processing based on quantum-mechanical phenomena
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Computational Mathematics (AREA)
- Condensed Matter Physics & Semiconductors (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Complex Calculations (AREA)
Abstract
本发明涉及到基于量子线路的互学习方法及系统。将经典形式的互学习对象进行量子态编码,以提供量子态形式的相对编码数据。将两类相对编码数据互相实施张量积运算从而得到复合量子体系下的两类态。用预设酉变换及其共轭转置前后作用于两类态,然后所述两类态求偏迹运算后得到两种结果,测量该两种结果得到它们的经典态。由神经网络及损失函数来计算该两种结果的经典态的预测值与标签的差异,对差异进行反向传播计算并由梯度下降法更新预设酉变换的参数。
Description
技术领域
本发明主要涉及到量子技术领域,更确切的说,涉及到基于量子线路的互学习方法和训练模型以及相关的系统。
背景技术
量子机器学习将量子计算与传统机器学习算法进行结合,属于新兴领域。目的是能够加速传统机器学习算法,解决机器学习应用受限的问题。Feynman首次提出构建一台基于量子力学原理的计算机来模拟量子系统,与传统计算机相比,量子计算机的模拟效率近乎是实现了指数级提升,从此开启了量子计算的相关深入研究。
随着机器学习和深度学习的快速崛起,其成为大数据时代下的技术基石,人工神经网络在信息处理、自动化、工程、医学等领域都取得了巨大成功。与传统计算相比量子计算在处理经典机器学习中所涉及的高维数据和训练过程缓慢等问题上更加高效,具潜在的指数级计算性能。量子机器学习主要是指通过量子计算硬件实现机器学习算法,从而能够更高效和智能地处理经典数据或者量子数据。
叠加和纠缠及量子并行等内禀量子特性使量子系统具有较强的计算能力。量子计算是目前最具潜力,并且逐步被普遍认为最有可能替代经典计算的新型计算模型。不同于经典的计算的模型,量子计算通过利用量子的不确定状态来存储信息,并在特定物理环境下通过对量子操控,使量子状态发生改变,从而完成针对量子信息的计算和处理。近三十多年的发展研究中,通过对量子叠加态、量子纠缠态及量子相干性等的深入研究,人们发现量子计算具有高效存储、并行计算和不确定计算等能力。同时,针对信息处理领域的难题还可利用量子计算模型,高效量子算法的设计也取得了惊人的成果。
利用参数化的量子线路辅助机器学习已在多个领域有所应用。例如特征工程在机器学习中有着举足轻重的作用,它的核心目标之一是最大限度地从原始数据当中提取特征以供算法模型使用。获得好的特征则模型的灵活性越强,性能越出色。
基于信息技术不断发展,信息化将各行业紧密联系起来,产业数据呈爆炸式增长且这种增长不仅是数据量的增长,还包括数据种类、结构和生产速度方面的增长,这些对计算和硬件资源具有很高的要求,导致机器学习在处理高维数据时遇到计算瓶颈。因此如何减少需要训练的参数量、如何用更少的存储介质、如何使机器学习相关的模型训练过程更快收敛至稳定状态等各种疑虑是亟待解决的问题。而正是基于现有技术的缺陷,本申请提出了基于量子线路的互学习算法及相关训练模型。
发明内容
本申请公开了一种基于量子线路的互学习方法,包括以下步骤:
S1、对第一、第二类信息分别进行量子态编码,以提供量子态形式的第一类编码数据和第二类编码数据;
S2、将所述第一、第二类编码数据作为互学习的输入;
S3、实施所述第一类编码数据与所述第二类编码数据的张量积运算和实施所述第二类编码数据与所述第一类编码数据的张量积运算对应分别得到复合量子体系的态AB和态BA,其中A、B分别代表所述第一、第二类编码数据;
S4、将参数化的预设酉变换U(θ)和其共轭转置前后作用于所述态AB与态BA,籍此使所述态AB与态BA进行演化并求偏迹后得到第一、第二结果;
S5、对所述第一、第二结果进行测量,分别得到第一、第二经典态;
S6、将所述第一、第二经典态继续输入到一个模型中执行预定的计算,基于该计算而得到该模型的预测值;
S7、使用损失函数来衡量预测值与标签的差异;
S8、对该差异进行反向传播计算并由梯度下降法更新所述预设酉变换U(θ)的参数θ。
上述的方法,还包括以下步骤:
S9、多次重复所述的步骤S4-S8。
上述的方法,还包括以下步骤:
S10、替换提供所述第一、第二类信息的训练样本,以更新所述第一、第二类信息并重复一次所述步骤S1-S9,在训练集中用不同的训练样本训练调节所述参数θ。
上述的方法,还包括以下步骤:
S11、基于训练集而多次重复所述步骤S1-S10,再从另一个测试集取数个提供所述第一、第二类信息的测试样本,更新所述第一、第二类信息,多次重复所述步骤S1-S7。
上述的方法,其中:
在多次重复所述步骤S1-S7的过程中:
如果测试样本的损失函数均小于选定的一个阈值,则所述参数θ的训练完成;
否则返回至使用训练集而多次重复所述步骤S1-S10,继续训练所述参数θ,直至测试样本的损失函数均小于所述选定的阈值。
上述的方法,其中:
步骤S6中的所述的预定的运算包括回归计算或者分类计算;
步骤S7中使用的损失函数包括均方误差损失函数。
上述的方法,其中:
步骤S1中的所述量子态编码包括:
将第一、第二类信息对应分别重新排列为第一、第二特征矩阵;
将第一、第二特征矩阵进行转置转换并分别得到第一、第二转置矩阵;
将第一特征矩阵与第一转置矩阵相乘得到第一半正定矩阵;
将第二特征矩阵与第二转置矩阵相乘得到第二半正定矩阵;
再将第一、第二半正定矩阵分别转换成量子态密度矩阵的第一、第二类编码数据。
上述的方法,其中:
步骤S4中的所述预设酉变换U(θ)利用通用门集合和后级单比特旋转门来实施;
所述通用门集合包括参数化的前级单比特旋转门和受控非门,每位量子比特经过前级单比特旋转门的旋转操作后、再视为一个目标比特而由受控非门执行受控运算,该受控运算的控制比特选自于其他量子比特;
每位量子比特经过首次旋转操作及受控运算后,之后由所述后级单比特旋转门再次实施旋转操作。
上述的方法,其中:
所述前级和后级单比特旋转门均包括分别沿X、Y、Z轴旋转的一系列旋转门;
所述预设酉变换U(θ)的参数θ至少包括一系列旋转门各自的旋转角度。
本申请公开了一种基于量子线路的互学习方法,包括:
将经典形式的第一、第二类信息分别进行量子态编码,以提供量子态形式的第一类编码数据和第二类编码数据;
在互学习环节:
用预设酉变换U(θ)和其共轭转置前后作用于所述态AB与态BA,所述态AB与态BA求偏迹后得到第一、第二结果,所述第一、第二结果测量后得到第一、第二经典态;
所述第一、第二经典态继续输入到神经网络而计算出预测值,由损失函数计算预测值与标签的差异,对所述差异进行反向传播计算并由梯度下降法更新所述预设酉变换U(θ)中的参数θ。
本申请公开了一种基于量子线路的互学习的系统,包括:
量子计算单元和经典计算单元;
所述经典计算单元被配制成执行以下操作:
将经典形式的第一、第二类信息分别进行量子态编码,以提供量子态形式的第一类编码数据和第二类编码数据;
所述量子计算单元被配制成执行以下操作:
用预设酉变换U(θ)和其共轭转置前后作用于所述态AB与态BA,对所述态AB与态BA求偏迹后得到第一、第二结果,测量所述第一、第二结果得到第一、第二经典态;
所述经典计算单元被配制成进一步执行以下操作:
所述第一、第二经典态继续输入到神经网络而计算出预测值,由损失函数计算预测值与标签的差异,对所述差异进行反向传播计算并由梯度下降法更新所述预设酉变换U(θ)中的参数θ。
上述的系统,其中:
所述经典计算单元配置有提供所述第一、第二类信息的训练集,在训练集中用不同的训练样本训练调节所述参数θ。
上述的系统,其中:
所述经典计算单元还配置有提供所述第一、第二类信息的测试集,从测试集取数个提供所述第一、第二类信息的测试样本来测试所述参数θ是否符合预期:如果测试样本的损失函数均小于选定的一个定义好的阈值,则所述参数θ的训练完成;
否则返回至使用训练集继续训练所述参数θ。
上述的系统,其中:
由多个量子线路来实施所述预设酉变换U(θ),每个量子线路包括前级和后级单比特旋转门及布置在于它们之间的受控非门,任一量子线路的受控非门受控于其他量子线路。
本申请公开了一种基于量子线路的互学习方法,包括:
将经典形式的互学习对象进行量子态编码,以提供量子态形式的相对编码数据;
将两类相对编码数据互相实施张量积运算,得到复合量子体系下的两类态;
先利用预设酉变换及其共轭转置分别前后作用于所述两类态,然后所述两类态求偏迹运算后得到两种结果,测量该两种结果以得到它们的经典态;
经典态输入到神经网络而计算出预测值,由损失函数计算预测值与标签的差异,对所述差异进行反向传播计算并由梯度下降法更新所述预设酉变换U(θ)中的参数θ。
上述的方法,其中:
由多个量子线路来实施所述预设酉变换,每个量子线路包括前级和后级单比特旋转门及布置在于它们之间的受控非门,任一量子线路的受控非门受控于其他量子线路。
上述的方法,其中:
所述前级和后级单比特旋转门均包括分别沿X、Y、Z轴旋转的一系列旋转门;
所述预设酉变换的参数至少包括一系列旋转门各自的旋转角度。
以上内容基于量子线路,提出了一种“量子互学习”的特征选择算法,该算法考虑到了两种量子信息之间的关系而不是让信息作为独立存在的个体,让模型学习到它们的互相依赖的关系,从而让两种量子信息协同工作,选择出更好的数据特征进行利用。
和传统互学习方法相比,本发明使得需要训练的参数量大大减少;用到的存储介质也即量子比特数目也大大减少;基于参数化量子线路的模型,其在训练过程中能够更快收敛至稳定状态。与此同时,量子互学习算法可在量子计算设备和量子芯片等量子硬件上高度和并行的处理数据特征,比经典算法拥有更为广泛的应用。
附图说明
为使上述目的和特征及优点能够更加明显易懂,下面结合附图对具体实施方式做详细的阐释,阅读以下详细说明并参照以下附图之后,本申请的特征和优势将显而易见。
图1是在本申请中基于量子线路来实现模型训练的大体框架示意图。
图2是多次重复训练和更新预设酉变换的参数而执行的流程示意图。
图3是在训练集中用不同的训练样本训练调节预设酉变换内的参数。
图4是将整个训练集迭代训练多次后再从测试集中取若干样本输入。
图5是在测试集中用不同的测试样本来检测损失函数是否小于阈值。
图6是传统经典输入信息进行量子态编码的可选实施例的大致过程。
图7是可实现预设酉变换的包含量子电路的量子线路的粗略示意图。
图8是量子线路含前级和后级单比特旋转门及受控非门的可选范例。
图9是包括量子计算单元和经典计算单元的量子线路互学习的系统。
具体实施方式
下面将结合各实施例,对本发明的方案进行清楚完整的阐述,所描述的实施例仅是本发明用作叙述说明所用的实施例而非全部的实施例,基于该等实施例,本领域的技术人员在没有做出创造性劳动的前提下所获得的方案属于本发明的保护范围。
量子机器学习借助量子计算的并行性,可实现优化传统机器学习的目的。量子机器学习算法通常需要经过以下的若干主要步骤。
首先,需将经典信息转换成量子信息。为发挥量子计算机的高并行特性,通常需要对经典信息进行编码,将其转换成量子信息,好比将一门语言翻译成其他语言。合适而巧妙的编码将更加有效的利用量子计算的潜力。
其次,传统机器学习算法的量子转换。由于量子计算机或量子化计算和经典电子计算机的操作单元不同,无法将所有的经典计算机的方法都移植到量子计算机上,并且不是所有在量子计算机上的操作都会有指数性的加速。所以设计出适用于量子计算机的创新性算法将显得十分重要。量子机器学习算法的设计,要兼顾经典算法的数据结构、数据库等系列化的传统式技术,同时还要不断设计出更多适合量子理论的相关算法模型。
再次,提取最终计算结果。由于计算结果为量子态无法直接使用,需要经过量子测量操作使量子叠加态波包塌缩至经典态,将经典信息提取出来。
随着量子机器学习的发展,利用参数化的量子线路辅助机器学习已经在多个领域具有应用和成就。本申请下文介绍的内容遵循量子计算但提出了新的算法。
参见图1,本申请提出的一种基于量子线路的互学习方法,或认为提出了基于参数化量子线路学习的量子互学习算法及其训练模型,主要包括以下部分。
步骤S1、对第一类信息F1进行量子态编码以提供量子态的第一类编码数据A以及对第二类信息F2进行量子态编码以提供量子态的第二类编码数据B。可理解成:在需要进行量子互学习的位置或对象处对输入信息例如F1和F2等进行量子态的编码,输出的数据例如A和B需用于后续的进一步量子计算。
步骤S2、将第一类编码数据A和第二类编码数据B作为互学习的输入。即将量子态编码后的数据例如A和B以及它们的维度作为互学习算法模型的输入。
步骤S4、将参数化的预设酉变换U(θ)和其共轭转置前后作用于态AB与态BA,籍此使得态AB与态BA进行演化并求偏迹后得到第一结果A’和第二结果B’。譬如将参数化的预设酉变换U(θ)作用于态AB后再将其共轭转置矩阵作用于态AB,这种作用实质上是矩阵乘法的运算例如简略表达为相对应的,同样如此再譬如将参数化的预设酉变换U(θ)作用于态BA后再将其共轭转置矩阵作用于态BA,这种作用实质上是矩阵乘法的运算例如籍此,将参数化的预设酉变换U(θ)和其共轭转置前后作用于态AB后再将这种作用的运算结果求偏迹可得到第一结果A’。矩阵偏迹运算是量子力学的一种运算方式、是一种特殊的矩阵迹运算。预设酉变换U(θ)和其共轭转置前后作用于态BA后再将这种作用的运算结果求偏迹可得到第二结果B’。张量积运算的主要作用之一是构建态AB与态BA的联合分布或称联合系统,其后续的偏迹的作用则是将演化后的联合分布分离开,得到完成相互学习后的第一和第二结果。
互学习环节的大致介绍:首先是张量积运算部分,可构建联合系统。本申请的联合系统经过演化,即做完张量积后的联合系统经过酉变换操作,这期间酉变换使得做张量积运算的数据或信息产生了相互作用的效果,相当于纠缠演化。原来子系统的信息例如第一类编码数据和第二类编码数据A与B会发生变化。交互过程中,双方会相互将对方的特征引入和施加到自身处。再者是求偏迹部分,可构建交互学习后的子系统的分布,也就是说进行偏迹测量可以把联合系统分离开,得到原来子系统的信息(如A与B)经过互学习后的信息(如A’和B’)。求偏迹及分离得到的第一结果A’和第二结果B’是原信息经过交互学习后的信息输出,学习后的信息双方相互考虑和纳入了对方的特征。
步骤S5、对第一结果A’和第二结果B’进行测量。通常得到的一个力学量的测量值后粒子所处的状态由原来的叠加态变成了之后的某本征态,发生了坍缩。与此同时对该第一结果A’测量得到第一经典态C而对第二结果B’测量得到第二经典态D。此时两种信息的特征从量子态变回经典态。关于互学习的特点:注意第一经典态C中信息包含着第二类编码数据B对第一类编码数据A的信息的影响、以及第二经典态D中信息包含着第一类编码数据A对第二类编码数据B的信息的影响。
步骤S6、用第一经典态C和第二经典态D执行预定的预测运算或计算。通常是按预测的需求来执行相应的预测操作,也即是按需选择。如可理解成对第一和第二经典态这类输入作出预测,根据它们的特征来判断它的类别或预测其值。例如输出变量为有限个离散变量的预测问题通常被认为是解决分类问题,分类问题是将事物打签。再如输入变量与输出变量均为连续变量的预测问题是回归问题,回归问题是用来预测一个值。这里所谓的预定的预测运算通常包括回归计算或分类计算。图中运算F1’或预测计算用于对第一经典态执行预定的某类运算(如卷积等神经网络,可按需设计)、图中运算F2’或预测计算用于对第二经典态执行预定的某类运算(如卷积等神经网络,可按需设计)。预测计算的算法例如回归模型和分类模型,皆属于现有技术的范畴。在上述运算的阶段,不管其中间采用什么类型的网络也不管其采用什么类型的计算,最后皆会产生一个输出,如果采用分类则产生的输出是类别,如果采用回归则产生的输出是值。分类或者是回归,本质都是对输入作出预测而得到预测值,譬如分类预测得到类别或回归预测得到某个值,然后这个预测得到预测值和已知的真实值即标签去算差异,下文会继续介绍。
关于S6,主要作用是将经典态C和D作为特征,继续输入到下一级模型中继续进行其他需要的计算F1’和F2’(这里按需自主选择模型和计算,“按需”是指以解决最终问题为导向例如解决回归、分类等问题),基于此得到模型预测值。
步骤S7、可用损失函数LOSS来衡量基于第一经典态C和第二经典态D的预测值与标签的差异。第一经典态C和第二经典态D执行预定的运算F1’和F2’中,本范例可在步骤S6的运算中进行合并或者拼接。现举例说明,第一经典态C经过卷积等神经网络的运算结果和第二经典态D经过卷积等神经网络的运算结果合并或拼接。典型的就是矩阵形式的两种运算结果进行合并或拼接。基于第一经典态C和第二经典态D的预测值可以是第一经典态C和第二经典态D执行预定的运算中进行了合并或拼接、再输入至全连接神经网络被处理而得到的预测值。损失函数LOSS衡量基于第一经典态C和第二经典态D的这个预测值与标签(label)的差异。损失函数并不受限于某种特定的函数类型而是多样化的,在一个可选的范例中是使用均方误差损失函数。
步骤S8、对前述差异进行反向传播计算(Back Propagation)并由梯度下降法更新所述预设酉变换U(θ)的参数θ。后文会继续详细介绍这部分内容。
参见图2,互学习方法包括步骤S9:多次重复所述的步骤S4-S8。步骤S9中重复的次数可与下文提及的阈值相关,也可以按需选择。在步骤S9中体现了在训练集中选择提供第一类信息F1的训练样本SP1和提供第二类信息F2的训练样本SP1来训练调节所述参数θ的过程。训练集记为TR及测试集记为TE。每一对输入算一个样本。
参见图3,互学习方法包括步骤S10:替换提供第一类信息F1的训练样本SP1为其他的训练样本SP1’。相同的道理,也还替换提供第二类信息F2的训练样本SP1为其他的训练样本SP1’。该替换过程用标号10表示。从而可将第一类信息和第二类信息予以更新并且重复一次所述步骤S1-S9。在步骤S10中体现了在训练集中用不同的训练样本训练调节所述参数θ的过程。此训练过程可遍历整个训练集。
参见图4,互学习方法包括步骤S11:基于训练集而多次重复步骤S1-S10。也即通过多次重复执行步骤S1-S10的流程而将整个训练集迭代训练多次,该迭代次数可以按照需求任意设置。训练集迭代结束之后,还需实施后续测试流程。
参见图5,互学习方法包括步骤S11:再从测试集取可以提供第一类信息F1的测试样本ST1和取可提供第二类信息F2的测试样本ST1。该过程用标号20表示。也即从测试集取数个可提供第一、第二类信息的测试样本,更新所述第一、第二类信息,并且多次重复前述步骤S1-S7。在多次重复步骤S1-S7的过程中:如果测试样本的损失函数之值均小于选定的一个阈值THRE,则参数θ的训练完成。反之,若测试样本的损失函数之值均不低于选定的该阈值THRE,则参数θ的训练没有被完成;此时返回至使用训练集而多次重复所述的步骤S1-S10(如图3所示),继续训练所述参数θ,直至测试样本的损失函数均小于所述选定的阈值THRE。
参见图6,步骤S1中的量子态编码包括:将第一类信息F1和第二类信息F2对应分别重新排列为第一特征矩阵V1和第二特征矩阵V2。另外还将第一特征矩阵V1和第二特征矩阵V2进行转置转换并分别得到第一转置矩阵V1 T和第二转置矩阵V2 T。还需将第一特征矩阵V1与第一转置矩阵V1 T相乘得到第一半正定矩阵V1×V1 T;与此同时还需将第二特征矩阵V2与第二转置矩阵V2 T相乘得到第二半正定矩阵V2×V2 T。再将第一和第二半正定矩阵分别转换成量子态密度矩阵的第一类编码数据A和第二类编码数据B。
参见图6,在范例中特征为(k×l)的输入信息F1与特征为(h×t)的输入信息F2的量子态编码过程:选择合适的量子比特数n1和n2(这里的合适是指选择最小的n1和n2以满足条件),将输入信息F1和F2重新排列为特征矩阵V1和V2而且特征矩阵V1和V2它们的大小分别为和在重新排列中如果特征矩阵不够填充则对矩阵补0(记)。可用标号30来表征该过程。
参见图6,分别将V1和V2的转置对应与V1和V2相乘(即V1 T×V1,V2 T×V2),从而得到两个大小分别为m1×m1和m2×m2的Gram半正定矩阵。
参见图6,将上述两个Gram半正定矩阵进行encoding编码操作(encoding编码操作可以将mp×mp的Gram半正定矩阵转换为mp×mp的量子态密度矩阵;p=1,2)得到要进行互学习的量子态输入A和B。至此完成量子态编码。encoding编码在python等相关的框架下可将半正定矩阵转换成量子态密度矩阵,属现有技术。尤其是在机器学习领域这类编码是经常使用的手段。例如在量子语言模型,其借鉴了量子力学中密度矩阵的概念而且可以将某些概率不确定性encoding编码到密度矩阵中。
参见图7,预设酉变换U(θ)的大体实现过程如图所示:通用门集合ENT包括参数化的前级单比特旋转门和受控非门,单比特旋转模块ROT包括后级单比特旋转门。量子态测量部分MEA用于对量子比特的状态进行测量。在可选的范例中由神经网络以及损失函数来计算测量出的经典态的预测值与标签的差异,对差异进行反向传播计算并由梯度下降法更新所述预设酉变换U(θ)中的参数θ。
参见图7,假设有n个量子比特输入,则对应使用到了n个量子线路。诸多量子比特在图中用q1-qn表示,n为正整数。例如选择的量子比特数n等于n1+n2。通常由单量子比特门和受控非门构成通用门集合(universal set)。
参见图8,第一个量子线路的通用门集合包括单比特旋转门而且还包括受控非门CNOT,这是以第一个量子线路的通用门集合为例。第一个量子线路还包括单比特旋转门Rx(α1)Ry(β1)Rz(γ1)。为了区分,线路前侧的称为前级单比特旋转门而线路后侧的Rx(α1)Ry(β1)Rz(γ1)称为后级单比特旋转门。M1是对量子比特的状态进行测量的部分。量子比特q1在第一个量子线路上进行量子操作并且在图示的可选范例中第一个量子线路上的受控非门CNOT受控于第n个量子线路中的受控非门的操作结果,即第一个量子线路上的受控非门CNOT受控于第n个量子线路。前级单比特旋转门内的角度参数的右上标i可以取自然数。
参见图8,第二个量子线路的通用门集合包括单比特旋转门而且还包括受控非门CNOT,这是以第二个量子线路的通用门集合为例。第二个量子线路还包括单比特旋转门Rx(α2)Ry(β2)Rz(γ2)。为了区分,线路前侧的称为前级单比特旋转门而线路后侧的Rx(α2)Ry(β2)Rz(γ2)称为后级单比特旋转门。M2是对量子比特的状态进行测量的部分。量子比特q2在第二个量子线路上进行量子操作并且在图示的可选范例中第二个量子线路上的受控非门CNOT受控于第一个量子线路的前级单比特旋转门的旋转操作结果。
参见图8,第三个量子线路的通用门集合包括单比特旋转门而且还包括受控非门CNOT,这是以第三个量子线路的通用门集合为例。第三个量子线路还包括单比特旋转门Rx(α3)Ry(β3)Rz(γ3)。为了区分,线路前侧的称为前级单比特旋转门而线路后侧的Rx(α3)Ry(β3)Rz(γ3)称为后级单比特旋转门。M3是对量子比特的状态进行测量的部分。量子比特q3在第三个量子线路上进行量子操作并且在图示的可选范例中第三个量子线路上的受控非门CNOT受控于第二个量子线路上的受控非门的操作结果,即第三个量子线路上的受控非门CNOT受控于第二个量子线路。
参见图8,第n个量子线路的通用门集合包括单比特旋转门而且还包括受控非门CNOT,这是以第n个量子线路的通用门集合为例。第n个量子线路还包括单比特旋转门Rx(αn)Ry(βn)Rz(γn)。为了区分,线路前侧的称为前级单比特旋转门而线路后侧的Rx(αn)Ry(βn)Rz(γn)称为后级单比特旋转门。Mn是对量子比特的状态进行测量的部分。量子比特qn在第n个量子线路上进行量子操作并且在图示的可选范例中第n个量子线路上的受控非门CNOT受控于第n-1个量子线路的受控非门的操作结果。第n个量子线路上的受控非门CNOT受控于第n-1个量子线路。
参见图8,在量子计算或量子线路计算模型中,量子门(Quantum gate)是最基础的逻辑门单元,量子逻辑门使用酉矩阵表示,类似于常见的逻辑门通常是针对一个或两个比特进行操作,常见的量子门也是针对一个或两个量子比特等进行操作。例如这一些量子门可以是用2×2或者4×4等类型的酉矩阵表示。前述的前级和后级单比特旋转门均包括分别沿X、Y、Z轴旋转的一系列旋转门。第n个量子线路上的前级单比特旋转门包括了分别沿X、Y、Z轴旋转的一系列旋转门酉变换的参数θ至少包括前级单比特旋转门中的三个门各自的旋转角度线路后级单比特旋转门包括了分别沿X、Y、Z轴旋转的一系列旋转门Rx(αn)Ry(βn)Rz(γn),酉变换的参数θ也可包括后级单比特旋转门中的三个门各自的旋转角度αn、βn、γn。
参见图8,在可选而非必须的实施中,每位量子比特例如qn经过前级单比特旋转门的旋转操作后、再视为一个目标比特(即目标量子位Target qubit)而由受控非门执行受控运算,并且该受控运算的控制比特(即控制量子位Control qubit)选自于其他量子比特例如在该范例中选自于第n-1个量子线路上的第n-1个量子比特q(n-1)。每位量子比特经过首次旋转操作及受控运算后,之后由后级单比特旋转门再次实施旋转操作。
参见图8,在可选而非必须的实施中,某一些观点中:认为量子线路譬如图中的实施例所使用的n个量子线路达成了不同量子比特之间的纠缠效果。而实施多层量子线路的实现方式包括:如图所示的量子线路被复制多份,每一份量子线路称之为一层,量子比特被多层如图所示的量子线路先后处理后可达到更好的训练效果。或者也可以说图中的量子线路构成了一个单层的纠缠层,而在实际应用中可使用数量更多的纠缠层,纠缠层的数量可以自由选择,通常而言,一般纠缠层的数量越多则训练效果越好。另外在不同的量子比特之间使用两比特门(例如施加CNOT门)从而生成了纠缠效果。纠缠部分又可分为两个子部分也即参数化单比特旋转模块和结构固定的两比特操作模块。其中参数化单比特操作模块是由三个绕着X轴、Y轴、Z轴的旋转操作组合而来,酉变换的可调参数θ是旋转操作的角度。两比特操作模块例如受控非门没有可调的参数。前述酉变换的特点是参数化的旋转可以组合成任意单比特旋转操作。
参见图8,在可选而非必须的实施中,每个量子线路包括前级和后级单比特旋转门及布置在于它们之间的受控非门,任一量子线路的受控非门受控于其他量子线路。例如在图中的范例中第一个量子线路的受控非门受控于第n个量子线路;与此同时,从第二个量子线路到第n个量子线路,后一个量子线路的受控非门受控于相邻的前一个量子线路例如后一第二个量子线路的受控非门受控于相邻前一第一量子线路,后一第n个量子线路的受控非门受控于相邻前一第n-1量子线路。在可选而非必须的实施中,第二个量子线路的受控非门受控于第一个量子线路的前级单比特旋转门的旋转操作结果,从第二个量子线路到第n个量子线路,后一个量子线路的受控非门受控于相邻的前一个量子线路的受控非门的受控操作结果,第一个量子线路的受控非门受控于第n个量子线路的受控非门的受控操作结果。譬如从第二个量子线路到第n个量子线路,第k个量子线路的受控非门受控于相邻的前一第k-1个量子线路,正整数k满足2≤k≤n。
参见图8,在图中未展示出的实施中,每个量子线路包括前级和后级单比特旋转门及布置在于它们间的受控非门,任一量子线路的受控非门仍受控于其他量子线路。将图中范例改进为第一个量子线路的受控非门受控于第n-1个量子线路,第二个量子线路的受控非门受控于第n个量子线路;同时,从第三个量子线路到第n个量子线路,第k个量子线路的受控非门受控于第k-2个量子线路,正整数k满足3≤k≤n。如第三个量子线路的受控非门受控于第一个量子线路、第四个量子线路的受控非门受控于第二个量子线路。若每个量子线路使用多个受控非门,则图8的实施例和其改进实施例可以混合使用,由此可见任一量子线路的受控非门受控于其他量子线路的实现方式是多样化的。
参见图9,本申请还披露了一种基于量子线路的互学习的系统,包括量子计算单元和经典计算单元。量子计算单元含已知的量子计算设备和量子芯片等,这里的量子计算单元也可以用量子硬件替代。经典计算单元除了包括经典计算机,还包括可用于传统数据计算的电子设备例如平板电脑或手持设备等,经典计算单元还包括带有控制装置、半导体芯片或装载有软件的处理器、微处理器、逻辑器件、状态机或微控制器或门阵列、数字信号处理器及类似的计算系统。同时量子计算单元也包括但不限于量子计算机、量子信息处理系统或量子密码系统或者量子模拟器。在图示的实施例中,量子计算单元和经典计算单元之间存在通信关系或者数据交互关系。
参见图9,经典计算单元被配制成执行以下操作:将经典的第一类信息F1和经典的第二类信息F2分别进行量子态编码,量子态编码在前文已介绍过,不再赘述,从而提供量子态形式的第一类编码数据A和第二类编码数据B。
参见图9,量子计算单元被配制成执行以下操作:对第一与第二类编码数据实施张量积运算对第二与第一类编码数据实施张量积运算对应分别得到复合量子体系的态AB和态BA。用酉变换U(θ)和其共轭转置前后作用于AB与BA,对AB与BA求偏迹后得到第一结果A’和第二结果B’,测量它们后得到第一、第二经典态C、D。
参见图9,经典计算单元被配制成执行以下操作:运行神经网络或机器学习等及由损失函数来计算第一、第二经典态C、D的预测值与标签的差异,对差异进行反向传播计算并由梯度下降法更新所述预设酉变换U(θ)中的参数θ。经典计算单元每次更新参数θ后还同步更改量子计算单元的酉变换U(θ)中的参数θ,这是基于量子计算单元和经典计算单元之间存在通信关系或者数据交互关系。
参见图9,在可选但非必须的范例中,披露了基于量子线路的互学习方法:将经典形式的互学习对象进行量子态编码,以提供量子态形式的相对编码数据;将两类相对编码数据互相实施张量积运算,得到复合量子体系下的两类态;先利用预设酉变换及其共轭转置分别前后作用于两类态,然后两类态求偏迹运算后得到两种结果,测量该两种结果得到它们的经典态;由神经网络及损失函数来计算该两种结果的经典态的预测值与标签的差异并对差异进行反向传播计算并由梯度下降法更新预设酉变换的参数。
参见图9,在可选的实施例中,经典计算单元配置有可提供第一类信息F1和相关的第二类信息F2的训练集TR,在训练集TR中用不同的训练样本训练调节参数θ。
参见图9,在可选的实施例中,经典计算单元配置有可提供第一类信息F1和相关的第二类信息F2的测试集TE,从测试集取数个提供第一、第二类信息F1和F2的测试样本来测试所述参数θ是否符合预期:如果测试样本的损失函数均小于选定的一个定义好的阈值THRE则参数θ的训练完成,即LOSS<THRE的情况为是(Y)。相反如果测试样本的损失函数不低于阈值THRE,即LOSS<THRE的情况为否(N),则返回至使用训练集继续训练参数θ,重新训练,直至能够符合LOSS<THRE的条件。在可选但非必须的范例中使用了(LOSS<THRE)?Y:N来描述这个过程,如图所示。
以上通过说明和附图的内容,给出了具体实施方式的特定结构的典型实施例,上述申请内容提出了现有的较佳实施例,但这些内容并不作为局限。对于本领域的技术人员而言在阅读上述说明后,各种变化和修正无疑将显而易见。因此,所附的权利要求书应当看作是涵盖本发明的真实意图和范围的全部变化和修正。在权利要求书范围之内的任何和所有等价的范围与内容,都应认为仍属本发明的意图和范围内。
Claims (15)
1.一种基于量子线路的互学习方法,其特征在于,包括以下步骤:
S1、对第一、第二类信息分别进行量子态编码,以提供量子态形式的第一类编码数据和第二类编码数据;
S2、将所述第一、第二类编码数据作为互学习的输入;
S3、实施所述第一类编码数据与所述第二类编码数据的张量积运算和实施所述第二类编码数据与所述第一类编码数据的张量积运算对应分别得到复合量子体系的态AB和态BA,其中A、B分别代表所述第一、第二类编码数据;
S4、将参数化的预设酉变换U(θ)和其共轭转置前后作用于所述态AB与态BA,籍此使所述态AB与态BA进行演化并求偏迹后得到第一、第二结果;
S5、对所述第一、第二结果进行测量,分别得到第一、第二经典态;
S6、将所述第一、第二经典态继续输入到一个模型中执行预定的计算,基于该计算而得到该模型的预测值;
S7、使用损失函数来衡量预测值与标签的差异;
S8、对该差异进行反向传播计算并由梯度下降法更新所述预设酉变换U(θ)的参数θ。
2.根据权利要求1所述的方法,其特征在于,还包括以下步骤:
S9、多次重复所述的步骤S4-S8。
3.根据权利要求2所述的方法,其特征在于,还包括以下步骤:
S10、替换提供所述第一、第二类信息的训练样本,以更新所述第一、第二类信息并重复一次所述步骤S1-S9,在训练集中用不同的训练样本训练调节所述参数θ。
4.根据权利要求3所述的方法,其特征在于,还包括以下步骤:
S11、基于训练集而多次重复所述步骤S1-S10,再从另一个测试集取数个提供所述第一、第二类信息的测试样本,更新所述第一、第二类信息,多次重复所述步骤S1-S7。
5.根据权利要求4所述的方法,其特征在于:
在多次重复所述步骤S1-S7的过程中:
如果测试样本的损失函数均小于选定的一个阈值,则所述参数θ的训练完成;
否则返回至使用训练集而多次重复所述步骤S1-S10,继续训练所述参数θ,直至测试样本的损失函数均小于所述选定的阈值。
6.根据权利要求1所述的方法,其特征在于:
步骤S6中的该模型执行的所述计算包括回归计算或者分类计算;
步骤S7中使用的损失函数包括均方误差损失函数。
7.根据权利要求1所述的方法,其特征在于:
步骤S1中的所述量子态编码包括:
将第一、第二类信息对应分别重新排列为第一、第二特征矩阵;
将第一、第二特征矩阵进行转置转换并分别得到第一、第二转置矩阵;
将第一特征矩阵与第一转置矩阵相乘得到第一半正定矩阵;
将第二特征矩阵与第二转置矩阵相乘得到第二半正定矩阵;
再将第一、第二半正定矩阵分别转换成量子态密度矩阵的第一、第二类编码数据。
8.根据权利要求1所述的方法,其特征在于:
步骤S4中的所述预设酉变换U(θ)利用通用门集合和后级单比特旋转门来实施;
所述通用门集合包括参数化的前级单比特旋转门和受控非门,每位量子比特经过前级单比特旋转门的旋转操作后、再视为一个目标比特而由受控非门执行受控运算,该受控运算的控制比特选自于其他量子比特;
每位量子比特经过首次旋转操作及受控运算后,之后由所述后级单比特旋转门再次实施旋转操作。
9.根据权利要求1所述的方法,其特征在于:
所述前级和后级单比特旋转门均包括分别沿X、Y、Z轴旋转的一系列旋转门;
所述预设酉变换U(θ)的参数θ至少包括一系列旋转门各自的旋转角度。
10.一种基于量子线路的互学习方法,其特征在于,包括:
将经典形式的第一、第二类信息分别进行量子态编码,以提供量子态形式的第一类编码数据和第二类编码数据;
在互学习环节:
用预设酉变换U(θ)和其共轭转置前后作用于所述态AB与态BA,所述态AB与态BA求偏迹后得到第一、第二结果,所述第一、第二结果测量后得到第一、第二经典态;
所述第一、第二经典态继续输入到神经网络而计算出预测值,由损失函数计算预测值与标签的差异,对所述差异进行反向传播计算并由梯度下降法更新所述预设酉变换U(θ)中的参数θ。
11.一种基于量子线路的互学习的系统,其特征在于,包括:
量子计算单元和经典计算单元;
所述经典计算单元被配制成执行以下操作:
将经典形式的第一、第二类信息分别进行量子态编码,以提供量子态形式的第一类编码数据和第二类编码数据;
所述量子计算单元被配制成执行以下操作:
用预设酉变换U(θ)和其共轭转置前后作用于所述态AB与态BA,对所述态AB与态BA求偏迹后得到第一、第二结果,测量所述第一、第二结果得到第一、第二经典态;
所述经典计算单元被配制成进一步执行以下操作:
所述第一、第二经典态继续输入到神经网络而计算出预测值,由损失函数计算预测值与标签的差异,对所述差异进行反向传播计算并由梯度下降法更新所述预设酉变换U(θ)中的参数θ。
12.根据权利要求11所述的系统,其特征在于:
所述经典计算单元配置有提供所述第一、第二类信息的训练集,在训练集中用不同的训练样本训练调节所述参数θ。
13.根据权利要求12所述的系统,其特征在于:
所述经典计算单元还配置有提供所述第一、第二类信息的测试集,从测试集取数个提供所述第一、第二类信息的测试样本来测试所述参数θ是否符合预期:如果测试样本的损失函数均小于一个定义好的阈值,则所述参数θ的训练完成;
否则返回至使用训练集继续训练所述参数θ。
14.根据权利要求11所述的系统,其特征在于:
由多个量子线路来实施所述预设酉变换U(θ),每个量子线路包括前级和后级单比特旋转门及布置在于它们之间的受控非门,任一量子线路的受控非门受控于其他量子线路。
15.一种基于量子线路的互学习方法,其特征在于,包括:
将经典形式的互学习对象进行量子态编码,以提供量子态形式的相对编码数据;
将两类相对编码数据互相实施张量积运算,得到复合量子体系下的两类态;
先利用预设酉变换及其共轭转置分别前后作用于所述两类态,然后所述两类态求偏迹运算后得到两种结果,测量该两种结果得到它们的经典态;
经典态输入到神经网络而计算出预测值,由损失函数计算预测值与标签的差异,对所述差异进行反向传播计算并由梯度下降法更新所述预设酉变换U(θ)中的参数θ。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210115065.5A CN114511097A (zh) | 2022-02-02 | 2022-02-02 | 基于量子线路的互学习方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210115065.5A CN114511097A (zh) | 2022-02-02 | 2022-02-02 | 基于量子线路的互学习方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114511097A true CN114511097A (zh) | 2022-05-17 |
Family
ID=81550915
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210115065.5A Pending CN114511097A (zh) | 2022-02-02 | 2022-02-02 | 基于量子线路的互学习方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114511097A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115632660A (zh) * | 2022-12-22 | 2023-01-20 | 山东海量信息技术研究院 | 一种数据压缩方法、装置、设备及介质 |
-
2022
- 2022-02-02 CN CN202210115065.5A patent/CN114511097A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115632660A (zh) * | 2022-12-22 | 2023-01-20 | 山东海量信息技术研究院 | 一种数据压缩方法、装置、设备及介质 |
CN115632660B (zh) * | 2022-12-22 | 2023-03-17 | 山东海量信息技术研究院 | 一种数据压缩方法、装置、设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108154240B (zh) | 一种低复杂度的量子线路模拟系统 | |
Oh et al. | A tutorial on quantum convolutional neural networks (QCNN) | |
CN113159239B (zh) | 一种量子图卷积神经网络处理图数据的方法 | |
US20200272930A1 (en) | Quantum Artificial Neural Networks | |
EP3766019A1 (en) | Hybrid quantum-classical generative modes for learning data distributions | |
CN114444664B (zh) | 基于量子计算的注意力模型及神经网络模型 | |
KR102100368B1 (ko) | 양자 데이터베이스를 위한 효과적 양자 메모리 구조 | |
Stein et al. | A hybrid system for learning classical data in quantum states | |
CN112613571A (zh) | 一种用于图像识别的量子神经网络方法、系统及介质 | |
Hu et al. | On the design of quantum graph convolutional neural network in the nisq-era and beyond | |
Alam et al. | Addressing temporal variations in qubit quality metrics for parameterized quantum circuits | |
CN114511092B (zh) | 一种基于量子线路的图注意力机制实现方法 | |
CN114519430A (zh) | 一种软量子神经网络系统及模式识别方法 | |
CN114283903A (zh) | 基于量子门控循环神经网络预测蛋白质药物结合力的方法 | |
CN114550849A (zh) | 基于量子图神经网络解决化学分子性质预测的方法 | |
Wu et al. | wpScalable quantum neural networks for classification | |
CN114511097A (zh) | 基于量子线路的互学习方法及系统 | |
Li et al. | EQNAS: Evolutionary quantum neural architecture search for image classification | |
CN114444701A (zh) | 训练量子线路及数据嵌入的方法 | |
CN114512201A (zh) | 基于量子gat算法进行药物靶点结合能的预测方法及装置 | |
Kawase et al. | Parametric t-stochastic neighbor embedding with quantum neural network | |
Kashyap et al. | Quantum convolutional neural network architecture for multi-class classification | |
Moe et al. | Implementing spatio-temporal graph convolutional networks on graphcore ipus | |
Sajadimanesh et al. | NISQ-Friendly Non-Linear Activation Functions for Quantum Neural Networks | |
Chen et al. | A QCNN algorithm deployed on a quantum computer |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20220517 |
|
RJ01 | Rejection of invention patent application after publication |