CN109074520A - 量子处理器及其用于实现神经网络的用途 - Google Patents

量子处理器及其用于实现神经网络的用途 Download PDF

Info

Publication number
CN109074520A
CN109074520A CN201780023582.7A CN201780023582A CN109074520A CN 109074520 A CN109074520 A CN 109074520A CN 201780023582 A CN201780023582 A CN 201780023582A CN 109074520 A CN109074520 A CN 109074520A
Authority
CN
China
Prior art keywords
quantum
quantum bit
bit
processor
bits
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201780023582.7A
Other languages
English (en)
Other versions
CN109074520B (zh
Inventor
普亚·罗奈格
安娜·莱维特
丹尼尔·克劳福德
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
1QB Information Technologies Inc
Original Assignee
1QB Information Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 1QB Information Technologies Inc filed Critical 1QB Information Technologies Inc
Publication of CN109074520A publication Critical patent/CN109074520A/zh
Application granted granted Critical
Publication of CN109074520B publication Critical patent/CN109074520B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N10/00Quantum computing, i.e. information processing based on quantum-mechanical phenomena
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N10/00Quantum computing, i.e. information processing based on quantum-mechanical phenomena
    • G06N10/40Physical realisations or architectures of quantum processors or components for manipulating qubits, e.g. qubit coupling or qubit control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • G06N3/065Analogue means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Neurology (AREA)
  • Computational Mathematics (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Superconductor Devices And Manufacturing Methods Thereof (AREA)
  • Bipolar Transistors (AREA)
  • Recrystallisation Techniques (AREA)

Abstract

公开了量子处理器。量子处理器包括多个量子位的N个连续组(1、2、…、N),其中,N大于或等于3;其中,多个量子位的N个连续组的每组量子位包括多个基本上平行的量子位;其中,多个量子位的N个连续组的第一组的每个量子位被定尺寸且整形,使得它基本上垂直跨过多个量子位的N个连续组的第二组量子位的每个量子位的一部分;其中,多个量子位的N个连续组的最后一组的每个量子位被定尺寸且整形,使得它基本上垂直跨过多个量子位的N个连续组的第二组至最后一组的每个量子位的一部分;其中,多个量子位的N‑2个连续组中不包括第一组和最后一组的任何给定组的每个量子位被定尺寸且整形,使得它仅基本上垂直跨过多个量子位的N个连续组的对应连续组和对应的前一组的每个量子位的一部分;以及多个耦合器,每个耦合器用于在两个量子位的交叉处提供通信耦合。

Description

量子处理器及其用于实现神经网络的用途
相关申请的交叉引证
本专利申请要求于2016年4月13日提交(现已准许的)加拿大专利申请号2,927,171以及于2016年4月13日提交的美国专利申请号15/097,823的优先权。
技术领域
本发明涉及计算。更确切地,本发明涉及量子处理器及其用于实现神经网络的用途。
背景技术
人工神经网络
人工神经网络(ANN)是通过生物神经网络产生的计算模型并且用于近似函数。人工神经网络具有图理论表示,其中,图的节点还称为神经元,并且其边缘还被称为突触。
普通玻尔兹曼机(GBM)是一种人工神经网络的类型,其中,神经元表示具有线性偏置的二元变量,并且两个神经元之间的每个突触表示涉及与神经元相关的二元变量的二次项。具体地,存在与由来自所有线性和二次项的贡献组成的普通玻尔兹曼机相关联的全局能量函数。
因此,普通玻尔兹曼机是用于近似因变量的联合分的图形模型。对应图包含称为可见节点(或输入变量)以及称为隐藏节点(或潜在变量)的非可见节点的节点。开发普通玻尔兹曼机以表示和解决某些组合问题,并且可以用作概率机器学习工具。普通玻尔兹曼机的应用包括但不限于视觉对象和语音识别、分类、回归任务、降维、信息检索和图像重建。至于普通玻尔兹曼机的概述,参见D.Ackley,G.Hinton,T.Sejnowski的“A LearningAlgorithm for Boltzmann Machines,”CognitiveScience 9,147-169(1985)。
通过编码感兴趣的因变量作为较大图的节点来执行普通玻尔兹曼机中的分布式近似。这些节点是可见节点,并且所有其他节点是隐藏节点。分别为在图中的每个边和顶点分配权重和偏置,并且根据这些权重和偏置将能量函数分配至图。
未能证明具有任意连接的普通玻尔兹曼机对机器学习意义特别有用。这是由于近似学习方法慢,且尤其是在隐藏单元远离可见单元的情况下。当对隐藏节点之间的连接进行某些限制时,普通玻尔兹曼机神经网络变得更易于训练且可用于机器学习任务。当在隐藏节点之间不允许连接并且在可见节点之间不允许连接时,产生的神经网络称为受限玻尔兹曼机(RBM),其仅由一个可见层和一个隐藏层组成。
由于没有内部可见或内部隐藏的节点连接,因此开发了有效的训练算法,该算法通过易于在可见层上的一组输入上学习概率分布使受限玻尔兹曼机在机器学习领域中表现出色。至于应用、算法和理论,参见Y.Bengio等人的“Representation Learning:AReviewand New Perspectives,arXiv2014”的第6部分。
受限玻尔兹曼机的理念已经多元化,以便创建更有效的神经网络,称为深度玻尔兹曼机(DBM)。深度玻尔兹曼机是通过将受限玻尔兹曼机堆叠在一起而形成,使得第一受限玻尔兹曼机的隐藏层用作第二受限玻尔兹曼机的可见层,第二受限玻尔兹曼机的隐藏层用作第三受限玻尔兹曼机的可见层等。这个结构被广泛研究并且是深度学习的基础。这个结构的优点在于受限玻尔兹曼机接着玻尔兹曼机可以使用为独立受限玻尔兹曼机开发的相同训练算法从上到下训练网络权重和偏置。
训练深度玻尔兹曼机的受限玻尔兹曼机接着受限玻尔兹曼机方法以累积误差为代价,该累积误差起因于每个受限玻尔兹曼机的分布的近似。
量子处理器
量子处理器是多个量子位的量子力学系统,在该量子处理器上的测量将从通过系统的全局能量限定的玻尔兹曼分布产生样本。
量子位是在希尔伯特空间上的表现的量子力学系统的物理实现并且至少实现表示双态量子位元的两个独特且可区别的本征态。量子位元是数字位的模拟,其中,环境存储装置可以存储双态量子信息的双态|0>和|1>,而且处于双态的叠加态α|0>+β|1>。在各种实施方式中,这种系统可具有大于两个本征态,则在这样情况下,其他本征态用于通过退化测量表示两个逻辑状态。已经提出了量子位实现的各种实施方式:例如,固态核自旋、电子地或利用核磁共振测量和控制、捕获的离子、光腔(腔量子电动力学)中的原子、液态核自旋、量子点中的电荷或自旋自由度、基于约瑟夫逊结的超导量子电路[BaroneandPaterno,1982,PhysicsandApplicationsoftheJosephsonEffect,JohnWileyandSons,NewYork;Martinisetal.,2002,PhysicalReviewLetters89,117901]以及氦电子。
将每个量子位感应耦接至称为局部场偏置的偏置源。在一个实施方式中,偏置源是用于通过量子位贯穿磁通量以提供对量子位的状态控制的电磁装置[US 2006/0225165]。
量子位上的局部场偏置是可编程的且可控制的。在一个实施方式中,包括数字处理单元的量子位控制系统连接至量子位的系统并且能够编程和调谐量子位上的局部场偏置。
此外,量子处理器可以包括多个量子位的多对之间的多个耦合。两个量子位之间的耦合是将磁通量贯穿两个量子位的接近两个量子位的装置。在一个实施方式中,耦合可由被复合约瑟夫逊结中断的超导电路组成。磁通量可贯穿复合约瑟夫逊结并且因此贯穿这两个量子位上的磁通量[US 2006/0225165]。这个磁通量的强度二次贡献给量子处理器的能量。在一个实施方式中,通过调谐接近两个量子位的耦合装置执行耦合强度。
耦合强度是可控制的且可编程的。在一个实施方式中,包括数字处理单元的量子装置控制系统连接至多个耦合并且能够编程量子处理器的耦合强度。
例如,量子退火装置是在Farhi,E.等人的“QuantumAdiabaticEvolutionAlgorithmsversusSimulatedAnnealing”arXiv.org:quantph/0201031(2002),pp.1-16中描述的运载量子退火的量子处理器。
量子退火装置执行将量子处理器从最初设置转换为最终设置。量子处理器的最初和最终设置提供通过它们对应的最初和最终的哈密顿函数描述的量子系统。至于如上所述的具有局部场偏置和耦合的量子退火装置,最终的哈密顿函数可以表示为二次函数f(x)=∑ihixi+∑(i,j)J(i,j)xixj,其中,第一和数在表示量子退火装置的量子位的指数i上进行并且第二和数超过量子位i和j之间存在耦合的配对(i,j)。
量子退火装置可以用作它们的能量函数的优化器。这种模拟处理器的实施方式由McGeoch,CatherineC.和CongWang在2013年5月14 16的(2013)“用于组合优化的绝热量子系统的实验评论”计算前沿(ExperimentalEvaluationofanAdiabaticQuantumSystemforCombinatorialOptimization”ComputingFrontiers)”中公开并且还在专利申请US2006/0225165中公开。
利用对量子退火过程的较少修改,量子处理器反而可以用于提供以有限温度形成它们的能量函数的玻尔兹曼分布的样本。该读物被称为技术报告:Bian,Z.,Chudak,F.,Macready,W.G.和Rose,G.的(2010)“TheIsingmodel:teachinganoldproblemnewtricks”并且还有Amin,M.H.,Andriyash,E.,Rolfe,J.,Kulchytskyy,B.和Melko,R.的(2016)“QuantumBoltzmannMachine”arXiv:1601.02036。
这个采样方法被称为量子采样。
至于具有局部场偏置和耦合的量子处理器,量子采样从与以上采用的二次函数的玻尔兹曼分布稍有不同的分布提供样本。
参考Amin,M.H.,Andriyash,E.,Rolfe,J.,Kulchytskyy,B.和Melko,R.的(2016)“QuantumBoltzmannMachine”arXiv:1601.02036研究量子采样距玻尔兹曼采样有多远。
通过浏览下面的本发明的公开内容、附图和具体实施方式,本发明的特征将显而易见。
发明内容
根据广泛方面,公开了量子处理器,包括:第一集合量子位,包括多个量子位的N个连续组(1、2、…、N),其中,N大于或等于3;其中,多个量子位的N个连续组的每组量子位包括多个基本上平行的量子位;其中,多个量子位的N个连续组的第一组的每个量子位被定尺寸且整形,使得第一组的每个量子位基本上垂直跨过多个量子位的N个连续组的第二组量子位的每个量子位的一部分;其中,多个量子位的N个连续组的最后一组的每个量子位被定尺寸且整形,使得最后一组的每个量子位仅基本上垂直跨过多个量子位的N个连续组的第二组至最后一组的每个量子位的一部分;其中,多个量子位的N-2个连续组中不包括第一组和最后一组的任何给定组的每个量子位被定尺寸且整形,使得它仅基本上垂直跨过多个量子位的N个连续组的对应连续组和对应的前一组的每个量子位的一部分;以及多个耦合器,每个耦合器用于在两个量子位的交叉处提供通信耦合。
根据实施方式,量子处理器用于实现包括多个神经元和多个突触的神经网络;其中,多个神经元的每个神经元与量子位相关联,并且多个突触的每个突触与量子处理器的耦合器相关联。
根据实施方式,公开了用于训练在量子处理器中实现的神经网络的方法,该方法包括:提供用于使量子处理器的多个耦合器和多个量子位初始化的初始化数据;进行下列各项直到满足标准:执行量子处理器的量子采样以提供第一经验平均值,获得用于训练神经网络的至少一个训练数据实例,执行量子处理器的量子采样;其中,没有将偏置被分配给量子处理器的给定多个量子位中的量子位;其中,给定多个量子位中的量子位与其他量子位之间的耦合被切断;进一步地,其中,使用所切断耦合的权重以及至少一个训练数据实例来改变与给定多个量子位中的至少一个量子位耦合的量子位的偏置,以确定第二经验平均值;以及使用第一经验平均值和第二经验平均值更新量子处理器的耦合器和量子位的对应权重和偏置;并且提供指示表示经训练的神经网络的数据的量子处理器的耦合器和量子位的最终权重和偏置。
根据实施方式,初始化数据包括:多个偏置,每个偏置用于多个量子位的一个量子位;多个权重,每个权重用于多个耦合器的一个耦合器和学习速率计划。
根据实施方式,使用包括量子处理器的模拟计算机以及操作性地连接至模拟计算机的数字计算机来执行提供初始化数据。
根据实施方式,从先前生成的数据集获得至少一个训练数据实例。
根据实施方式,从实时源获得至少一个训练数据实例。
根据实施方式,所生成的数据集被存储在操作性地连接至包括量子处理器的模拟计算机的数字计算机中。
根据实施方式,实时源来源于操作性地连接至包括量子处理器的模拟计算机的数字计算机。
根据实施方式,该标准包括停止条件;并且该停止条件包括确定是否不存在另外可用的训练数据实例。
根据实施方式,数字计算机包括存储器;并且提供量子处理器的耦合器和量子位的最终权重和偏置包括将量子处理器的耦合器和量子位的最终权重和偏置存储在数字计算机的存储器中。
根据实施方式,提供量子处理器的耦合器和量子位的最终权重和偏置包括将量子处理器的耦合器和量子位的最终权重和偏置提供到操作性地连接至数字计算机的另一个处理单元。
根据广泛方面,公开了包括中央处理单元的数字计算机;显示装置;通信端口,用于将数字计算机操作性地连接至包括用于实现神经网络的量子处理器的模拟计算机;以及存储单元,包括用于训练神经网络的应用程序,该应用程序包括:用于提供初始化数据的指令,该初始化数据的指令用于使量子处理器的多个耦合器以及量子位的多个偏置初始化;用于进行下列各项直到满足标准的指令:执行量子处理器的量子采样以提供第一经验平均值,获得用于训练神经网络的至少一个训练数据实例,执行量子处理器的量子采样;其中,没有将偏置分配给量子处理器的给定多个量子位中的量子位;其中,给定多个量子位中的量子位与其他量子位之间的耦合被切断;进一步地,其中,使用所切断耦合的权重以及至少一个训练数据实例来改变与给定多个量子位的至少一个量子位耦合的量子位的偏置,以便确定第二经验平均值;以及使用第一经验平均值和第二经验平均值更新量子处理器的耦合器和量子位的对应权重和偏置;以及作为表示经训练的神经网络的数据的用于提供量子处理器的耦合器和量子位的最终权重和偏置的指令。
根据广泛方面,公开了一种用于存储计算机可执行指令的非易失性计算机可读存储介质,当该指令被执行时,使得数字计算机执行用于训练在量子处理器中实现的神经网络的方法,该方法包括:提供用于使量子处理器的多个耦合器和多个量子位初始化的初始化数据;进行下列各项直到满足标准:执行量子处理器的量子采样以提供第一经验平均值,获得用于训练神经网络的至少一个训练数据实例,执行量子处理器的量子采样;其中,没有将偏置分配给量子处理器的给定多个量子位中的量子位;其中,给定多个量子位中的量子位与其他量子位之间的耦合被切断;进一步地,其中,使用切断耦合的权重以及至少一个训练数据实例来改变与给定多个量子位中的至少一个量子位耦合的量子位的偏置,以便确定第二经验平均值;以及使用第一经验平均值和第二经验平均值更新量子处理器的耦合器和量子位的对应权重和偏置;并且提供指示出表示经训练的神经网络的数据的量子处理器的耦合器和量子位的最终权重和偏置。
根据实施方式,神经网络是深度玻尔兹曼机。
本文中公开的量子处理器的优点在于其仅包括具有二阶相互作用的量子电路的系统。
本文中公开的量子处理器的另一个优点在于其可以用于实现深度玻尔兹曼机。
本文中公开的用于训练在量子处理器中实现的深度玻尔兹曼机的方法的另一个优点在于比现有技术的方法快。
本文中公开的用于训练在量子处理器中实现的深度玻尔兹曼机的方法的另一个优点在于比现有技术的受限玻尔兹曼机的受限玻尔兹曼机训练方法精确。
附图说明
为了使本发明可以被容易地理解,通过在附图中举例的方式示出本发明的实施方式。
图1是示出了包括耦接至模拟计算机的数字系统的系统的实施方式的示图。
图2是示出了根据实施方式的量子处理器架构的示图。在这个实施方式中,公开了螺旋布局。
图3是示出了另一个量子处理器架构的示图。在这个实施方式中,公开了替换的模型布局。
图4是示出了用于训练在图2和图3中示出的类型的量子处理器中实现的神经网络的方法的实施方式的流程图。
图5示出了利用从对应的训练的神经网络获得的数据使用应用程序中的量子处理器的方法的实施方式的流程图。
本发明的更多细节及其优点将从下文所包括的详细说明中显而易见。
具体实施方式
在实施方式的以下描述中,参照的附图通过举例方式示出,藉此可实施本发明。
术语
术语“发明”和类似术语是指“在本申请中所公开的一个或多个发明”,除非另有明确规定。
术语“一方面”、“一个实施方式(an embodiment)、“实施方式(embodiment)”、“多个实施方式(embodiments)”、“所述实施方式(the embodiment)”、“所述多个实施方式(theembodiments)”、“一个或多个实施方式(one or more embodiments)”、“一些实施方式(some embodiments)”、“某些实施方式(certain embodiments)”、“一个实施方式(oneembodiment)”、“另一实施方式(another embodiment)”和类似术语是指“所公开的发明的一个或多个(但不是全部)实施方式”,除非另有明确规定。
在描述一实施方式时对“另一实施方式”或“另一方面”的引用不意味着所引用的实施方式与另一实施方式(例如,在所引用的实施方式之前描述的实施方式)互斥,除非另有明确规定。
术语“包括”、“包含”及其变形是指“包括但不限于”,除非另有明确规定。
术语“一个(a)”、“一个(an)”、“所述(the)”和“至少一个”是指“一个或多个”,除非另有明确限定。
术语“多个”是指“两个或更多个”,除非另有明确规定。
术语“本文中”是指“在本申请中,包括可通过引证结合的任何内容”,除非另有明确规定。
术语“因此”在本文中仅用于在仅表达先前和明确陈述的一些内容的预期结果、目标或后果的分句或其他单词集之前。因此,当术语“因此”在权利要求中使用时,术语“因此”修饰的分句或其他词语不对权利要求构成特定的进一步局限或者以其他方式限制权利要求的含义或范围。
术语“例如(e.g.)”和类似的术语是指“例如(for example)”,且因此不限制它们说明的术语或短语。例如,在句子“计算机通过互联网发送数据(例如,指令、数据结构)”中,术语“例如”说明“指令”是计算机可通过互联网发送的“数据”,并且还说明“数据结构”是计算机可通过互联网发送的“数据”的实例。然而,“指令”和“数据结构”这两者仅是“数据”的实例,并且除了“指令”和“数据结构”之外的其他内容可以是“数据”。
术语“即”等类似术语是指“也就是”,并且因此限制了它们所解释的术语或短语。
术语“模拟计算机”是指包括量子处理器、量子位的控制系统、耦合装置以及读取系统的系统,它们全部互相通过通信总线连接。
标题和摘要都不应被理解为以任何方式限制所公开的发明的范围。本申请的标题和本申请中提供的部分的标头仅为方便起见,并且不应被理解为以任何方式限制本公开内容。
本申请中描述了许多实施方式,并且仅为了说明性目的呈现。在任何情况下,所描述的实施方式不是限制性的并且不旨在限制。如从公开内容容易清晰可见的,目前公开的说明广泛适用于许多实施方式。本领域的普通技术人员应认识到,所公开的发明可以各种修改和更改(诸如,结构上的和逻辑上的修改)来实践。尽管可参考一个或多个具体实施方式和/或附图来描述所公开的发明的具体特征,但是应理解,此类特征不限于在参考它们所描述的一个或多个具体实施方式或附图中的使用,除非另有明确规定。
应当理解,本发明可以许多方式实现。在本说明书中,这些实现方式,或本发明可采取的任何其他形式可被称为系统或技术。被描述为被配置为执行任务的诸如处理器或存储器的部件包括被临时配置为在给定时间执行任务的通用部件或被制造为执行任务的特定部件。
综上所述,本发明针对量子处理器及其用于实现神经网络的用途。
现在参考图1,示出了包括耦接至模拟计算机10的数字系统8的系统的实施方式的示图。
将理解,数字计算机8可以是任何类型的数字计算机。
在一个实施方式中,数字计算机8从由台式计算机、便携式计算机、平板电脑、服务器、智能电话等组成的组合中选择。还将理解,在上述中,数字计算器8还可以被广泛称为处理器。
在图1中示出的实施方式中,数字计算机8包括还称为微处理器的中央处理单元12、显示装置14、输入装置16、通信端口20、数据总线18和存储器22。
中央处理单元12用于处理计算机指令。本领域技术人员将理解,可以提供中央处理单元12的各种实施方式。
在一个实施方式中,中央处理单元12包括以2.5GHz运转且由美国英特尔公司制造的CPU核i53210。
显示装置14用于向用户显示数据。本领域技术人员将理解,可以使用各种类型的显示装置14。
在一个实施方式中,显示装置14是标准的液晶显示器(LCD)监视器。
输入装置16用于将数据输入到数字计算机8中。
通信端口20用于与数字计算机8共享数据。
例如,通信端口20可包括用于将键盘和鼠标连接至数字计算机8的通用串行总线(USB)端口。
通信端口20可进一步包括使数字计算机8与模拟计算机10能够连接的数据网络通信端口,诸如,IEEE802.3端口。
本领域技术人员将理解,可以提供通信端口20的各种可替换的实施方式。
存储单元22用于存储计算机可执行指令。
存储单元22可包括系统存储器,诸如,用于存储系统控制程序(例如,BIOS、操作系统模块、应用程序等)的高速随机存取存储器(RAM)以及只读存储器(ROM)。
将理解,在一个实施方式中,存储单元22包括操作系统模块。
将理解,操作系统模块可以是各种类型的。
在一个实施方式中,操作系统模块是由AppleTM制造的OS X Yosemite。
存储单元22进一步包括用于训练在模拟计算机10的量子处理器28中实现的神经网络的应用程序。
存储单元22可进一步包括用于使用模拟计算机10的应用程序。
存储单元22可以进一步包括量子处理器数据,诸如,用于量子处理器28的每个耦合器的对应权重以及用于量子处理器28的每个量子位的对应偏置。
模拟计算机10包括量子位控制系统24、读取控制系统26、量子处理器28和耦合装置控制系统30。
量子处理器28可以是各种类型的。在一个实施方式中,量子处理器包括超导量子位。
读取控制系统26用于读取量子处理器28的量子位。实际上,将理解,为了使在本文中公开的方法中使用量子处理器,需要在它们的量子力学状态下测量量子系统的量子位的读取系统。多次测量提供量子位的状态的样本。此外,需要这个样本来自由该系统的能量函数限定的分布。读取的结果被反馈给数字计算机8。经由量子位控制系统24控制量子处理器28的量子位的偏置。经由耦合装置控制系统30控制耦合器。
将理解,读取控制系统26可以是各种类型的。例如,读取控制系统26可包括多个dc-SQUID磁强计,每个dc-SQUID磁强计连接至量子处理器28的不同的量子位。读取控制系统26可提供电压或电流值。在一个实施方式中,如本领域中众所周知的,dc-SQUID磁强计包括通过至少一个约瑟夫逊结中断的超导材料的回路。
耦合装置控制系统30可包括用于耦合装置的一个或多个耦合控制器(也称为“耦合器”)。每个耦合控制器可被配置为将对应的耦合装置的耦合强度从零调谐至最大值。将理解,例如,可调谐耦合装置以在量子处理器28的量子位之间提供铁磁或反铁磁耦合。在美国专利号8,421,053和美国专利申请公开号2015/0046681中公开了此类模拟计算机的实例。
现在参考图2,示出了量子处理器199的第一实施方式。将理解,图2中示出的量子处理器199公开了螺旋布局,而图3中示出的量子处理器299公开了替换的模式布局。
仍然参考图2,量子处理器199包括多个量子位的七个连续组。
在图2中示出的实施方式中,多个基本上平行的量子位的第一组包括M0个量子位。更确切地,多个量子位的第一组包括量子位v1200、量子位v2202…和量子位vM0204。
在图2中示出的实施方式中,多个量子位的剩余的N-1个组包括多个量子位的六个组。
将理解,多个量子位的每个组包括多个基本上平行的量子位。
此外,将理解,第一组量子位的第一组多个基本上平行的量子位的每个量子位基本上垂直跨过第二组量子位的多个基本上平行的量子位的一部分。
在图2中示出的实施方式中,多个基本上平行的第二组量子位包括量子位h1,1210、量子位h1,2208…和量子位h1,M1206。因此,将理解,第二组量子位包括M1个量子位。
第三组量子位包括量子位h2,1212、量子位h2,2214…和量子位h2,M2216。因此,将理解,多个基本上平行量子位的第三组包括M2个量子位。
第四组量子位包括量子位h3,1218、量子位h3,2220…和量子位h3,M3222。因此,将理解,多个基本上平行量子位的第四组包括M3个量子位。
多个量子位的第五组包括量子位h4,1224、量子位h4,2226…和量子位h4,M4228。因此,将理解,多个基本上平行量子位的第五组包括M4个量子位。
多个量子位的第六组包括量子位h5,1234、量子位h5,2232…和量子位h5,M5230。因此,将理解的是,多个基本上平行量子位的第六组包括M5个量子位。
最后,多个量子位的第七组包括量子位h6,1236、量子位h6,2238…和量子位h6, M6240。因此,将理解的是,多个基本上平行量子位的第七组包括M6个量子位。
将进一步理解的是,确定多个量子位中的第七组的每个量子位被定尺寸且整形,使得其基本上垂直跨过多个量子位中第六组的每个量子位的一部分,并且确定多个量子位的第二、第三、第四、第五或第六连续组的任何给定组的每个量子位被定尺寸且整形,使得其仅基本上垂直跨过多个量子位的七个连续组的对应的连续组和对应的上一组的每个量子位的一部分。
例如,包括量子位h2,1212、量子位h2,2214…和量子位h2,M2216的多个量子位的第三组垂直跨过包括量子位h1,1210、量子位h1,2208…和量子位h1,M1206的多个量子位的第二组的量子位的一部分。
多个量子位的第三组进一步垂直跨过包括量子位h3,1218、量子位h3,2220…和量子位h3,M3222的多个量子位的第四组的量子位的一部分。
类似地,多个量子位的第四组,即,量子位h3,1218、量子位h3,2220…和量子位h3, M3222基本上垂直跨过包括量子位h2,1212、量子位h2,2214…和量子位h2,M2216的多个量子位的第三组的量子位的一部分、以及包括量子位h4,1224、量子位h4,2226…和量子位h4,M4228的第五组量子位的多个量子位的量子位的一部分。
第五组量子位的每个量子位,即,量子位h4,1224、量子位h4,2226…和量子位h4, M4228基本上垂直跨过两个其它相邻组(即,包括量子位h5,1234、量子位h5,2232…和量子位h5,M5230的多个量子位的第六组)中的每个组的量子位的一部分。
第五组量子位的每个量子位还基本上垂直跨过包括量子位h3,1218、量子位h3, 2220…和量子位h3,M3222的第四组量子位的量子位的一部分。
包括h5,1234、量子位h5,2232…和量子位h5,M5230的第六组量子位的每个量子位基本上垂直跨过包括量子位h4,1224、量子位h4,2226…和量子位h4,M4228的第五组量子位中的每一个的对应量子位集的量子位的一部分、以及包括h6,1236、量子位h6,2238…和量子位h6,M6240的多个量子位的第七组的一部分。
将理解,量子处理器199进一步包括多个耦合器。每个耦合器用于在两个量子位的交叉处提供通信耦合。
例如,在量子位v1200和量子位h1,M1206的交叉处提供耦合器242。
在量子位v1200和量子位h1,2208的交叉处提供耦合器244。
在量子位v1200和量子位h1,1210的交叉处提供耦合器246。
在量子位v2202和量子位h1,1210的交叉处提供耦合器252。
在量子位v2202和量子位h1,2208的交叉处提供耦合器250。
在量子位v2202和量子位h1,M1206的交叉处提供耦合器248。
在量子位h1,1210和量子位vN204的交叉处提供耦合器258。
在量子位vM0204和量子位h1,2208的交叉处提供耦合器256。
在量子位vM0204和量子位h1,M1206的交叉处提供耦合器254。
在量子位h2,1212和量子位h1,M1206的交叉处提供耦合器260。
在量子位h1,M1206和量子位h2,2214的交叉处提供耦合器262。
在量子位h1,M1206和量子位h2,M2216的交叉处提供耦合器264。
在量子位h1,2208和量子位h2,1212的交叉处提供耦合器266。
在量子位h2,2214和量子位h1,2208的交叉处提供耦合器268。
在量子位h1,2208和量子位h2,M2216的交叉处提供耦合器270。
在量子位h2,1212和量子位h1,1210的交叉处提供耦合器280。
在量子位h2,2214和量子位h1,1210的交叉处提供耦合器282。
在量子位h2,M2216和量子位h1,1210的交叉处提供耦合器284。
现在参考图3,示出了量子处理器299的另一个实施方式。
仍然参考图2,量子处理器299包括多个量子位的八个连续组。
量子处理器299进一步包括多个耦合器,每个耦合器用于在两个量子位的交叉处提供通信耦合。
更确切地,多个量子位的第一组包括量子位v1300、量子位v2302…以及量子位vM0304。因此,将理解,多个基本上平行量子位的第一组包括M0个量子位。
在图3中示出的实施方式中,多个量子位的剩余的N-1组包括多个量子位的七个组。
将理解,多个量子位的每个组包括多个基本上平行的量子位。
此外,将理解,第一组量子位的第一组多个基本上平行的量子位的每个量子位仅基本上垂直跨过第二组量子位的多个基本上平行的量子位的一部分。
在图3中示出的实施方式中,第二组多个基本上平行的量子位包括量子位h1,1306、量子位h1,2308…和量子位h1,M1310。因此,将理解,第二组量子位包括M1个量子位。
第三组量子位包括量子位h2,1312、量子位h2,2314…和量子位h2,M2316。因此,将理解,多个基本上平行量子位的第三组包括M2个量子位。
第四组量子位包括量子位h3,1318、量子位h3,2320…和量子位h3,M3322。因此,将理解,多个基本上平行量子位的第四组包括M3个量子位。
多个量子位的第五组包括量子位h4,1324、量子位h4,2326…和量子位h4,M4328。因此,将理解,多个基本上平行量子位的第五组包括M4个量子位。
多个量子位的第六组包括量子位h5,1330、量子位h5,2332…和量子位h5,M5334。因此,将理解,多个基本上平行量子位的第六组包括M5个量子位。
多个量子位的第七组包括量子位h6,1336、量子位h6,2338…和量子位h6,M6340。因此,将理解,多个基本上平行量子位的第七组包括M6个量子位。
最后,多个量子位的第八组包括量子位h7,1342、量子位h7,2344…和量子位h7, M7346。因此,将理解,多个基本上平行量子位的第七组包括M6个量子位。
将进一步理解,多个量子位的第八组的每个量子位被定尺寸且整形,使得其基本上垂直跨过多个量子位的第七组的每个量子位的一部分,并且多个量子位的第二、第三、第四、第五、第六或第七连续组的任何给定组的每个量子位被定尺寸且整形,使得其仅基本上垂直跨过多个量子位的七个连续组的对应的连续组和对应的上一组的每个量子位的一部分。
例如,包括量子位h2,1312、量子位h2,2314…和量子位h2,M2316的多个量子位的第三组垂直跨过包括量子位h1,1306、量子位h1,2308…和量子位h1,M1308的多个量子位的第二组的量子位的一部分。
多个量子位的第三组进一步垂直跨过包括量子位h3,1318、量子位h3,2320…和量子位h3,M3322的多个量子位的第四组的量子位的一部分。
类似地,多个量子位的第四组,即,量子位h3,1318、量子位h3,2320…和量子位h3, M3322基本上垂直跨过包括量子位h2,1312、量子位h2,2314…和量子位h2,M2316的多个量子位的第三组的量子位的一部分、以及包括量子位h4,1324、量子位h4,2326…和量子位h4,M4328的第五组量子位的多个量子位的量子位的一部分。
第五组量子位的每个量子位,即,量子位h4,1324、量子位h4,2326…和量子位h4, M4328基本上垂直跨过两个相邻组(即,包括量子位h5,1330、量子位h5,2332…和量子位h5, M5334的多个量子位的第六组)的每个组的量子位的一部分。
第五组量子位的每个量子位还基本上垂直跨过包括量子位h3,1318、量子位h3, 2320…和量子位h3,M3322的第四组量子位的量子位的一部分。
包括h5,1330、量子位h5,2332…和量子位h5,M5334的第六组量子位的每个量子位基本上垂直跨过包括量子位h4,1324、量子位h4,2326…和量子位h4,M4328的第五组量子位中的每一个的对应量子位集的量子位的一部分、以及包括h6,1336、量子位h6,2338…和量子位h6,M6340的多个量子位的第七组的一部分。
将理解,量子处理器299进一步包括多个耦合器。每个耦合器用于在两个量子位的交叉处提供通信耦合。
例如,在量子位v1300和量子位h1,M1310的交叉处提供耦合器354。
在量子位v1300和量子位h1,2308的交叉处提供耦合器352。
在量子位v1300和量子位h1,1306的交叉处提供耦合器350。
在量子位v2302和量子位h1,1306的交叉处提供耦合器356。
在量子位v2302和量子位h1,2308的交叉处提供耦合器358。
在量子位v2302和量子位h1,M1310的交叉处提供耦合器360。
设置量子处理器
将理解,在一个实施方式中,多个量子位的第一组的每个量子位可以被解释为深度玻尔兹曼机的可见节点,同时量子处理器的每个其他量子位可以被解释为深度玻尔兹曼机的隐藏节点。在这个意义上,对应的深度玻尔兹曼机的量子化标签和节点标签是可互换的。图2是这个实施方式的一个实例,其中,标记为v1200、v2202…和vM0204的量子位被解释为深度玻尔兹曼机的可见节点,并且剩余量子位被解释为相同的深度玻尔兹曼机的隐藏节点。
将进一步理解,在另一实施方式中,多个量子位的任何给定组的每个量子位中的每一个或一些可以被解释为深度玻尔兹曼机的可见节点,并且量子处理器的每个其他量子位可以被解释为深度玻尔兹曼机的隐藏节点。
在解释为可见节点的多个量子位中的量子位与解释为隐藏节点的多个量子位中的量子位之间的每个“打开”耦合被认为是对应的可见节点和对应的隐藏节点之间的二次权重。在连续层中被解释为隐藏节点的多个量子位中的任何其他两个量子位之间的“打开”耦合被认为是连续层中的两个对应的隐藏节点之间的二次权重。在连续层中被解释为可见节点的多个量子位中的任何其他两个量子位之间的“打开”耦合被认为是连续层中的两个对应的可见节点之间的二次权重。将理解,在本文中公开的量子处理器中,在多个量子位的给定组的量子为之间不存在层内连接。
在一个实施方式中,每个“打开”耦合具有作为对应权重的近似的浮点值强度。将理解,两个节点之间的非零权重表示节点的“连接性”。
在一个实施方式中,每个“断开”耦合具有有效的零值强度并且作为神的玻尔兹曼机中的任何两个节点之间的断开的近似。
在一个实施方式中,将在对应的深度玻尔兹曼机中解释为可见节点的多个量子位的量子位vi连接至属于在对应的深度玻尔兹曼机中解释为隐藏节点的多个量子位的连续层中的量子位hj的权重由wij表示。
仍然在这个实施方式中,将在对应的深度玻尔兹曼机中解释为隐藏节点的多个量子位的量子位hk连接至属于在对应的深度玻尔兹曼机中解释为隐藏节点的多个量子位的连续层中的量子位hj的权重由ukj表示。
仍然在这个实施方式中,将在对应的深度玻尔兹曼机中解释为可见节点的多个量子位的量子位vi连接至属于在对应的深度玻尔兹曼机中解释为可见节点的多个量子位的连续层中的量子位vj的权重由Sij表示。
偏置被限定为单个节点上的权重,至于在对应的深度玻尔兹曼机中解释为可见节点的多个量子位的量子位vi表示为ai并且至于在对应的深度玻尔兹曼机中解释为隐藏节点的多个量子位的给定组中的量子位hj表示为bj
将理解,固定的深度玻尔兹曼机是指其中可见节点被设置为特定的二进制值v’的深度玻尔兹曼机。
在固定的量子处理器中,未使用解释为可见节点的量子位。将理解,固定的量子处理器可被称为其中被解释为可见节点的多个量子位的量子位与剩余的两之外之间的耦合被“断开”的量子处理器。反而,可见量子位vi与隐藏节点hj之间的耦合的值被添加至乘以可见节点vi’的值的偏置bj。具体地,通过增加v′·wj调整在深度玻尔兹曼中对应于连接至可见节点的隐藏节点的每个量子位的偏置,其中,wj=∑iwij,其中,i指数超过可见节点。
将理解,松开的量子处理器可限定为未固定的量子处理器。
现在参考图4,示出了用于训练例如在图2和图3中公开的量子处理器中实现的神经网络的方法,其中,神经网络是深度玻尔兹曼机。
根据处理步骤400,提供初始化数据。
在一个实施方式中,初始化数据包括权重、偏置和学习速率计划,并且也许包括系统温度。
为对应于存在于对应的深度玻尔兹曼机中的初始偏置的多个量子位的每个量子位提供偏置。偏置包括偏置a和b。
为对应于存在于对应的深度玻尔兹曼机中的初始权重的量子处理器的多个耦合器的连接在一起的两个量子位之间的每个耦合器提供权重。权重包括初始权重w、u和s。
学习速率ε是乘以固定和松开的深度玻尔兹曼机之间的经验平均值中的差值的浮点值数。当采用训练样本时,用于缩放深度玻尔兹曼机的权重和偏置的变化的幅度。
学习速率计划是训练样本之间不同的一系列学习速率。在一个实施方式中,学习速率计划是浮点数的序列其中,i={1,...,K}是已经应用于深度玻尔兹曼机的训练样本的计数。例如,学习序列可以减少样本计数上的学习速率。另一实例,学习速率可以为全部训练样本保持相同的学习速率。
将理解,可以根据各种实施方式执行权重、偏置和学习速率计划。
在一个实施方式中,使用模拟计算机10和数字计算机8提供权重、偏置和学习速率计划的提供。
更确切地,每个权重由模拟计算机10的耦合装置控制系统30提供。
在一个实施方式中,提供的权重的指示被从数字计算机8的存储单元22提供至耦合装置控制系统30。
使用模拟计算机10的量子位控制系统24提供每个偏置。
在一个实施方式中,提供的偏置的指示被从数字计算机8的存储单元22提供至量子位控制系统24。
根据处理步骤402,利用松开的第一集合量子位的量子位执行量子采样。
将理解,利用松开的量子处理器的第一集量子位执行量子采样的目的是提供用于松开的量子处理器的经验平均值。
当考虑松开的量子处理器时,量子采样用于从近似用于松开的量子处理器的能量函数-E(v,h)=∑ijwijvihj+∑iaivi+∑kluklhkhl+∑jbjhj+∑ijsijvivj的玻尔兹曼分布提供样本。
将理解,在上文中,Z是配分函数(归一化常数)并且T是量子处理器的有效温度。
将进一步理解,没有必要将量子处理器的有效温度T指定或识别为内在使用的量子处理器工作的物理温度。
将理解,从这个处理步骤产生的结果是用于松开网络的经验平均值,还称为第一经验平均值,包括<vihj>model、<hj,hk>model、<vi>model、<hj>model和<vivj>model
将理解,经验平均值<vihj>model被称为可见节点i和隐藏节点j的各自乘积的基于模型的经验平均值。该计算基于由在松开的量子处理器上执行的量子采样提供的多个样本。
将理解,经验平均值<hjhk>model被称为隐藏节点j和隐藏节点k的各自乘积的基于模型的经验平均值。该计算基于由在松开的量子处理器上执行的量子采样提供的多个样本。
将理解,经验平均值<vi>model被称为可见节点i的基于模型的经验平均值。该计算基于由在松开的量子处理器上执行的量子采样提供的多个样本。
将理解,经验平均值<hj>model被称为隐藏节点j的基于模型的经验平均值。该计算基于由在松开的量子处理器上执行的量子采样提供的多个样本。
将理解,经验平均值<vivj>model被称为可见节点i和可见节点j的各自乘积的基于模型的经验平均值。该计算基于由在松开的量子处理器上执行的量子采样提供的多个样本。
根据处理步骤404,提供指示一个训练数据实例。
将理解,提供的至少一个训练数据实例用于训练深度玻尔兹曼机。
将理解,至少一个训练数据实例是表示其分布通过训练的方式通过深度玻尔兹曼机近似的多变二元随机变量的实现的二进制值的向量。在一个实施方式中,训练数据的大小由K表示。
将理解,可以根据各种实施方式提供至少一个训练数据实例。
在一个实施方式中,至少一个训练数据实例是从先前生成的数据集获得。例如,先前生成的数据集可存储在数字计算机8的存储单元22中。先前生成的数据集然后可经由数字计算机8的通信端口20提供至模拟计算机10的量子位控制系统24。
在一个可替换的实施方式,至少一个训练数据实例是从实时源获得。
在一个实施方式中,实时源可来源于数字计算机8。
在可替换的实施方式中,实时源可来源于操作性耦接至模拟计算机10的另一个处理单元。
根据处理步骤406,利用解释为固定的可见节点的量子位执行量子采样。
更确切地,将理解,使用切断耦合的权重以及至少一个训练数据实例改变被解释为连接至可见节点的深度玻尔兹曼机的隐藏节点的多个量子位的偏置,以便确定第二经验平均值。
实际上,将理解的是,至少一个训练数据实例以相继次序提供至深度玻尔兹曼机的可见节点。通过将深度玻尔兹曼机的可见节点固定至训练数据v′的一个实例来完成。
在一个实施方式中,通过“断开”被解释为深度玻尔兹曼机的可见节点的多个量子位与被解释为连接至由模拟计算机10的耦合装置控制系统30提供的可见节点的隐藏节点的多个量子位之间的耦合器并且在固定的量子处理器的描述中,通过被解释为连接至由模拟计算机10的量子位控制系统24提供的以上所述的可见节点的隐藏节点的多个量子位的偏置来完成。
如上所述,对应的玻尔兹曼分布使用利用固定至训练数据v’的量子处理器采样的量子近似。给定v′是由E(h)=E(h,v′)给定的网络的能量函数,因此仅有h的函数。
对应的玻尔兹曼分布是的近似。
这个处理步骤为包括<hj,hk>data和<hj>data的固定网络提供经验平均值,还称为第二经验平均值。
将理解的是,经验平均值<hjhk>data被称为隐藏节点j和隐藏节点k的各自乘积的基于数据的经验平均值。该计算基于由在松开的量子处理器上执行的量子采样提供的多个样本。
将理解的是,经验平均值<hj>data被称为隐藏节点j的基于数据的经验平均值。该计算基于由在松开的量子处理器上执行的量子采样提供的多个样本。
根据处理步骤408,更新量子处理器的权重和偏置。
将理解,使用固定的和松开的经验平均值,即使用第一和第二经验平均值更新量子处理器的权重和偏置。
更确切地,给出模型和数据经验平均值,可以使用以下各式更新量子处理器的权重和偏置:
Δwij=ε(v′i<hj>data-<vihj>model),Δukl=ε(<hkhj>data-<hkhj>model),
Δsij=ε(v′iv′j-<vivj>model),
Δai=ε(vi′-<vi>model),Δbj=ε(<hj>data-<hj>model)
其中,ε是从学习速率计划提供的学习速率。
根据处理步骤410,为了找出是否满足停止条件,执行测试。
实际上,将理解,如果在提供的训练数据集中不存在剩下的训练数据实例或者如果决定将不提供另外的训练数据实例,则可以停止深度玻尔兹曼机的训练。
在线上学习情况下,如果确定将不提供另外的数据实例,则可以停止深度玻尔兹曼机的训练。
在线上训练中,利用全部先前训练数据训练的深度玻尔兹曼机可以用于任何两个连续训练样本之间的预期任务。
在离线学习情况下,如果不存在提供训练数据集中剩下的训练数据实例或者如果由于任何原因决定将不提供另外的训练数据实例,则可以停止训练。在离线训练中,深度玻尔兹曼机不可用于任何两个连贯的训练样本之间的预期任务。
根据处理步骤412,提供训练的深度玻尔兹曼机数据。
将理解,训练的深度玻尔兹曼机数据包括深度玻尔兹曼机的最终权重和偏置。
将理解,可以根据各种实施方式提供训练的深度玻尔兹曼机数据。
在一个实施方式中,训练的深度玻尔兹曼机数据被存储在数字计算机22的存储单元中。
在可替换的实施方式中,训练的深度玻尔兹曼机数据被提供至操作性地连接至数字计算机8的未示出的另一个处理单元。
训练深度玻尔兹曼机以便从深度玻尔兹曼机节点之上的近似分布采样。根据应用,这可以通过固定所有、一些或没有可见节点并且从剩余的深度玻尔兹曼机节点的所有或一些的近似分布采样来完成。
将理解,训练的深度玻尔兹曼机数据可以对各种应用很有价值。
例如,可以使用在对应的量子处理器中实现的训练的深度玻尔兹曼机数据以用于从以下组合且非局限于此选择的应用,诸如,视觉对象识别、语音识别、分类任务、回归任务、降维、信息检索、模拟像斑、提取光流和机器人技术。
现在参考图5,示出了在应用中使用具有训练的深度玻尔兹曼机数据的量子处理器的实施方式。
根据处理步骤500,获得训练的深度玻尔兹曼机权重和偏置数据。
将理解,可以根据各种实施方式获得训练的量子处理器数据。
在一个实施方式中,训练的深度玻尔兹曼机数据是从操作性地连接至包括量子处理器的模拟计算机的数字计算机获得。
在可替换的实施方式中,训练的深度玻尔兹曼机数据从数字计算机的存储单元获得。
根据处理步骤502,根据为对应的可见节点提供的数据固定深度玻尔兹曼机的零个或更多个可见节点。
根据处理步骤504,以与上述相同的方式,量子处理器被固定至在处理步骤502中提供的数据。
将理解,可根据各种实施方式利用训练的深度玻尔兹曼机数据设置量子处理器。例如,在模拟计算机包括耦合装置控制系统和量子位控制系统的情况下,量子处理器可以使用模拟计算机的耦合装置控制系统和量子位控制系统利用训练的深度玻尔兹曼机进行设置。
将理解,深度玻尔兹曼机数据包括训练的深度玻尔兹曼机的权重和偏置,同时输入数据使应用于深度玻尔兹曼机的可见节点的二进制向量。
根据处理步骤506,执行玻尔兹曼分布的量子采样近似。玻尔兹曼分布的量子采样近似的目的是获得这种分布的样本。
根据处理步骤508,来自量子采样的分布样本结果用于该应用。在一种情况下,分布样本可用于重建图像。在另一种情况下,分布可以应用将输入数据分类。在另一种情况下,分布可以用于在判定过程中识别适当行为。
将理解,数字计算机8的存储单元22可包括用于训练在量子处理器28中实现的深度玻尔兹曼机的特定应用程序。
用于训练在量子处理器28中实现的深度玻尔兹曼机的特定应用程序可包括用于为使量子处理器28的多个耦合器和多个量子位初始化的初始化数据的指令。
用于训练在量子处理器28中实现的深度玻尔兹曼机的特定应用程序可进一步包括直到满足标准,用于以下各项的指令:执行量子处理器的量子采样以提供第一经验平均值;获得用于训练神经网络的至少一个训练数据实例;执行量子处理器的量子采样;其中,没有将偏置分配给量子处理器的给定多个量子位的量子位;其中,给定多个量子位的量子位与其他量子位之间的耦合被切断;进一步地,其中,使用切断耦合的权重以及至少一个训练数据实例改变与给定多个量子位的至少一个量子位耦合的量子位的偏置,以便确定第二经验平均值并且使用第一和第二经验平均值更新量子处理器的耦合器和量子位的对应权重和偏置。
用于训练在量子处理器28中实现的深度玻尔兹曼机的特定应用程序可进一步包括用于提供量子处理器的耦合器和量子位的最终权重和偏置作为表示训练的神经网络的数据的指令。
将理解,进一步公开了用于存储计算机可执行指令的非易失性计算机可读存储介质,当执行时,该指令使得数字计算机执行用于在以上公开的量子处理器中实现的深度玻尔兹曼机的方法,该方法包括:用于提供用于使多个耦合器以及量子处理器的量子位的多个偏置初始化的初始化数据的指令;直到满足标准:执行量子处理器的量子采样以提供第一经验平均值,获得用于训练神经网络的至少一个训练数据实例,执行量子处理器的量子采样;其中,没有将偏置分配给量子处理器的给定多个量子位的量子位;其中,给定多个量子位的量子位与其他量子位之间的耦合被切断;进一步地,其中,使用切断耦合的权重以及至少一个训练数据实例改变与给定多个量子位的至少一个量子位耦合的量子位的偏置,以便确定第二经验平均值,以及使用第一和第二经验平均值更新量子处理器的耦合器和量子位的对应权重和偏置;并且在满足标准之后,提供对应于量子处理器的深度玻尔兹曼机的耦合器和量子位的最终权重和偏置。
将理解,本文中公开的量子处理器的优点在于仅包括具有二阶相互作用的量子电路的系统。将进一步理解,在一个实施方式中,可以使用在美国专利号8,421,053中公开的方法制造这种量子处理器。
将理解,本文中公开的用于训练在量子处理器中实现的深度玻尔兹曼机的方法的另一个优点在于比现有技术的方法更快。
将进一步理解,本文中公开的用于训练在量子处理器中实现的深度玻尔兹曼机的方法的另一个优点在于比现有技术的受限玻尔兹曼机接着受限玻尔兹曼机训练方法更精确。
尽管以上描述涉及到如发明人目前所设想的特定的优选实施方式,但是应理解,本发明在其广泛方面包括在本文中描述的元件的功能等同物。
项1.一种量子处理器,包括:
多个量子位的N个连续组(1、2、…、N),其中,N大于或等于3;
其中,多个量子位的N个连续组的每组量子位包括多个基本上平行的量子位;
其中,多个量子位的N个连续组的第一组的每个量子位被定尺寸且整形,使得第一组的每个量子位仅基本上垂直跨过多个量子位的N个连续组的第二组量子位的每个量子位的一部分;
其中,多个量子位的N个连续组的最后一组的每个量子位被定尺寸且整形,使得最后一组的每个量子位仅基本上垂直跨过多个量子位的N个连续组的第二组至最后一组的每个量子位的一部分;
其中,多个量子位的N-2个连续组中不包括第一组和最后一组的任何给定组的每个量子位被定尺寸且整形,使得给定组的每个量子位仅基本上垂直跨过多个量子位的N个连续组的对应连续组和对应的前一组的每个量子位的一部分;
多个耦合器,每个耦合器用于在两个量子位的交叉处提供通信耦合。
项2.根据项1所述的量子处理器,其中,量子处理器用于实现包括多个神经元和多个突触的神经网络;其中,多个神经元的每个神经元与量子位相关联,并且多个突触的每个突触与量子处理器的耦合器相关联。
项3.一种用于训练在项2中所述的量子处理器中实现的神经网络的方法,该方法包括:
提供用于使量子处理器的多个耦合器和多个量子位初始化的初始化数据;
进行下列各项直到满足标准:
执行量子处理器的量子采样以提供第一经验平均值;
获得用于训练神经网络的至少一个训练数据实例;
执行量子处理器的量子采样;其中,没有将偏置分配给量子处理器的给定多个量子位中的量子位;其中,给定多个量子位中的量子位与其他量子位之间的耦合被切断;进一步地,其中,使用切断耦合的权重以及至少一个训练数据实例来改变与给定多个量子位中的至少一个量子位耦合的量子位的偏置,以确定第二经验平均值;
使用第一经验平均值和第二经验平均值更新量子处理器的耦合器和量子位的对应权重和偏置;并且
提供指示表示经训练的神经网络的数据的量子处理器的耦合器和量子位的最终权重和偏置。
项4.根据项3所述的方法,其中,初始化数据包括:多个偏置,每个偏置用于多个量子位中的一个量子位;多个权重,每个权重用于多个耦合器中的一个耦合器和学习速率计划。
项5.根据项4所述的方法,其中,使用包括量子处理器的模拟计算机以及操作性地连接至模拟计算机的数字计算机执行提供初始化数据。
项6.根据项3至4中任一项所述的方法,其中,从先前生成的数据集获得至少一个训练数据实例。
项7.根据项3至4中任一项所述的方法,其中,从实时源获得至少一个训练数据实例。
项8.根据项6所述的方法,其中,生成的数据集被存储在操作性地连接至包括量子处理器的模拟计算机的数字计算机中。
项9.根据项7所述的方法,其中,实时源来源于操作性地连接至包括量子处理器的模拟计算机的数字计算机。
项10.根据项3至9中任一项所述的方法,其中,该标准包括停止条件;其中,改停止条件包括确定是否不存在另外可用的训练数据实例。
项11.根据项5、8和9中任一项所述的方法,其中,数字计算机包括存储器;进一步地,其中,提供量子处理器的耦合器和量子位的最终权重和偏置包括将量子处理器的耦合器和量子位的最终权重和偏置存储在数字计算机的存储器中。
项12.根据项5、8和9中任一项所述的方法,其中,提供量子处理器的耦合器和量子位的最终权重和偏置包括将量子处理器的耦合器和量子位的最终权重和偏置提供到操作性地连接至数字计算机的另一个处理单元。
项13.一种数字计算机,包括:
中央处理单元;
显示装置;
通信端口,用于将数字计算机操作性地连接至包括用于实现根据项2所述的神经网络的量子处理器的模拟计算机;
存储单元,包括用于训练神经网络的应用程序,该应用程序包括:
用于提供初始化数据的指令,该初始化数据用于使量子处理器的多个耦合器和量子位的多个偏置初始化;
用于进行下列各项直到满足标准的指令:
执行量子处理器的量子采样以提供第一经验平均值;
获得用于训练神经网络的至少一个训练数据实例;
执行量子处理器的量子采样;其中,没有将偏置分配给量子处理器的给定多个量子位中的量子位;其中,给定多个量子位中的量子位与其他量子位之间的耦合被切断;进一步地,其中,使用切断耦合的权重以及至少一个训练数据实例来改变与给定多个量子位中的至少一个量子位耦合的量子位的偏置,以确定第二经验平均值;
使用第一经验平均值和第二经验平均值更新量子处理器的耦合器和量子位的对应权重和偏置;以及
作为表示训练的神经网络的数据的用于提供量子处理器的耦合器和量子位的最终权重和偏置的指令。
项14.一种用于存储计算机可执行指令的非易失性计算机可读存储介质,当该指令被执行时,使得数字计算机执行用于训练在项2中所述的量子处理器中实现的神经网络的方法,该方法包括:
提供用于使量子处理器的多个耦合器和多个量子位初始化的初始化数据;
进行下列各项直到满足标准:
执行量子处理器的量子采样以提供第一经验平均值;
获得用于训练神经网络的至少一个训练数据实例;
执行量子处理器的量子采样;其中,没有将偏置分配给量子处理器的给定多个量子位中的量子位;其中,给定多个量子位中的量子位与其他量子位之间的耦合被切断;进一步地,其中,使用切断耦合的权重以及至少一个训练数据实例改变与给定多个量子位中的至少一个量子位耦合的量子位的偏置,以确定第二经验平均值;
使用第一经验平均值和第二经验平均值更新量子处理器的耦合器和量子位的对应权重和偏置;并且
提供指示出表示训练的神经网络的数据的量子处理器的耦合器和量子位的最终权重和偏置。
项15.根据项2至12中任一项所述的方法,其中,神经网络是深度玻尔兹曼机。

Claims (15)

1.一种量子处理器,包括:
多个量子位的N个连续组(1、2、…、N),其中,N大于或等于3;
其中,所述多个量子位的所述N个连续组的每组量子位包括多个基本上平行的量子位;
其中,所述多个量子位的所述N个连续组的第一组的每个量子位被定尺寸且整形,使得所述第一组的每个量子位仅基本上垂直跨过所述多个量子位的所述N个连续组的第二组量子位的每个量子位的一部分;
其中,所述多个量子位的所述N个连续组的最后一组的每个量子位被定尺寸且整形,使得所述最后一组的每个量子位仅基本上垂直跨过所述多个量子位的所述N个连续组的第二组至最后一组的每个量子位的一部分;
其中,所述多个量子位的N-2个连续组中不包括所述第一组和所述最后一组的任何给定组的每个量子位被定尺寸且整形,使得所述给定组的每个量子位仅基本上垂直跨过多个量子位的所述N个连续组的对应连续组和对应的前一组的每个量子位的一部分;
多个耦合器,每个所述耦合器用于在两个量子位的交叉处提供通信耦合。
2.根据权利要求1所述的量子处理器,其中,所述量子处理器用于实现包括多个神经元和多个突触的神经网络;其中,所述多个神经元的每个神经元与量子位相关联,并且所述多个突触的每个突触与所述量子处理器的耦合器相关联。
3.一种用于训练在权利要求2中所述的量子处理器中实现的神经网络的方法,所述方法包括:
提供用于使量子处理器的多个耦合器和多个量子位初始化的初始化数据;
进行下列各项直到满足标准:
执行所述量子处理器的量子采样以提供第一经验平均值;
获得用于训练所述神经网络的至少一个训练数据实例;
执行所述量子处理器的量子采样;其中,没有将偏置分配给所述量子处理器的给定多个量子位中的量子位;其中,所述给定多个量子位中的量子位与其他量子位之间的耦合被切断;进一步地,其中,使用所切断耦合的权重以及至少一个训练数据实例来改变与所述给定多个量子位中的至少一个量子位耦合的量子位的偏置,以确定第二经验平均值;
使用所述第一经验平均值和所述第二经验平均值更新所述量子处理器的耦合器和量子位的对应权重和偏置;并且
提供指示表示经训练的神经网络的数据的所述量子处理器的耦合器和量子位的最终权重和偏置。
4.根据权利要求3所述的方法,其中,所述初始化数据包括:多个偏置,每个所述偏置用于所述多个量子位中的一个量子位;多个权重,每个所述权重用于所述多个耦合器中的一个耦合器和学习速率计划。
5.根据权利要求4所述的方法,其中,使用包括所述量子处理器的模拟计算机以及操作性地连接至所述模拟计算机的数字计算机来执行提供所述初始化数据。
6.根据权利要求3至4中任一项所述的方法,其中,从先前生成的数据集获得所述至少一个训练数据实例。
7.根据权利要求3至4中任一项所述的方法,其中,从实时源获得所述至少一个训练数据实例。
8.根据权利要求6所述的方法,其中,所生成的数据集被存储在操作性地连接至包括所述量子处理器的模拟计算机的数字计算机中。
9.根据权利要求7所述的方法,其中,所述实时源来源于操作性地连接至包括所述量子处理器的模拟计算机的数字计算机。
10.根据权利要求3至9中任一项所述的方法,其中,所述标准包括停止条件;其中,所述停止条件包括确定是否不存在另外可用的训练数据实例。
11.根据权利要求5、8和9中任一项所述的方法,其中,所述数字计算机包括存储器;进一步地,其中,提供所述量子处理器的耦合器和量子位的最终权重和偏置包括将所述量子处理器的耦合器和量子位的最终权重和偏置存储在所述数字计算机的存储器中。
12.根据权利要求5、8和9中任一项所述的方法,其中,提供所述量子处理器的耦合器和量子位的最终权重和偏置包括将所述量子处理器的所述耦合器和所述量子位的最终权重和偏置提供到操作性地连接至所述数字计算机的另一个处理单元。
13.一种数字计算机,包括:
中央处理单元;
显示装置;
通信端口,用于将所述数字计算机操作性地连接至包括用于实现根据权利要求2所述的神经网络的量子处理器的模拟计算机;
存储单元,包括用于训练所述神经网络的应用程序,所述应用程序包括:
用于提供初始化数据的指令,所述初始化数据用于使所述量子处理器的多个耦合器以及量子位的多个偏置初始化;
用于进行下列各项直到满足标准的指令:
执行所述量子处理器的量子采样以提供第一经验平均值;
获得用于训练所述神经网络的至少一个训练数据实例;
执行所述量子处理器的量子采样;其中,没有将偏置分配给所述量子处理器的给定多个量子位中的量子位;其中,所述给定多个量子位中的量子位与其他量子位之间的耦合被切断;进一步地,其中,使用所切断耦合的权重以及至少一个训练数据实例来改变与所述给定多个量子位中的至少一个量子位耦合的量子位的偏置,以确定第二经验平均值;
使用所述第一经验平均值和所述第二经验平均值更新所述量子处理器的所述耦合器和所述量子位的对应权重和偏置;以及
作为表示经训练的神经网络的数据的用于提供所述量子处理器的所述耦合器和所述量子位的最终权重和偏置的指令。
14.一种用于存储计算机可执行指令的非易失性计算机可读存储介质,当所述指令被执行时,使数字计算机执行用于训练在权利要求2中所述的量子处理器中实现的神经网络的方法,所述方法包括:
提供用于使所述量子处理器的多个耦合器和多个量子位初始化的初始化数据;
进行下列各项直到满足标准:
执行所述量子处理器的量子采样以提供第一经验平均值;
获得用于训练所述神经网络的至少一个训练数据实例;
执行所述量子处理器的量子采样;其中,没有将偏置被分配给所述量子处理器的给定多个量子位中的量子位;其中,所述给定多个量子位中的量子位与其他量子位之间的耦合被切断;进一步地,其中,使用所切断耦合的权重以及至少一个训练数据实例来改变与所述给定多个量子位中的至少一个量子位耦合的量子位的偏置,以确定第二经验平均值;
使用所述第一经验平均值和所述第二经验平均值更新所述量子处理器的所述耦合器和所述量子位的对应权重和偏置;并且
提供指示出表示经训练的神经网络的数据的所述量子处理器的所述耦合器和所述量子位的最终权重和偏置。
15.根据权利要求2至12中任一项所述的方法,其中,所述神经网络是深度玻尔兹曼机。
CN201780023582.7A 2016-04-13 2017-04-13 量子处理器及其用于实现神经网络的用途 Active CN109074520B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
CA2927171A CA2927171C (en) 2016-04-13 2016-04-13 Quantum processor and its use for implementing a neural network
US15/097,823 US10229355B2 (en) 2016-04-13 2016-04-13 Quantum processor and its use for implementing a neural network
US15/097,823 2016-04-13
CA2,927,171 2016-04-13
PCT/IB2017/052149 WO2017179011A1 (en) 2016-04-13 2017-04-13 Quantum processor and its use for implementing a neural network

Publications (2)

Publication Number Publication Date
CN109074520A true CN109074520A (zh) 2018-12-21
CN109074520B CN109074520B (zh) 2021-09-14

Family

ID=60041448

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780023582.7A Active CN109074520B (zh) 2016-04-13 2017-04-13 量子处理器及其用于实现神经网络的用途

Country Status (6)

Country Link
US (1) US10229355B2 (zh)
JP (1) JP6703132B2 (zh)
CN (1) CN109074520B (zh)
CA (1) CA2927171C (zh)
GB (1) GB2564596B (zh)
WO (1) WO2017179011A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020151129A1 (zh) * 2019-01-25 2020-07-30 合肥本源量子计算科技有限责任公司 量子机器学习框架构建方法、装置、量子计算机及计算机存储介质
CN111651337A (zh) * 2020-05-07 2020-09-11 哈尔滨工业大学 一种sram存储器空间服役故障分类失效检测方法
CN112561069A (zh) * 2020-12-23 2021-03-26 北京百度网讯科技有限公司 模型处理方法、装置、设备、存储介质及产品
CN114187598A (zh) * 2020-08-25 2022-03-15 合肥本源量子计算科技有限责任公司 手写数字识别方法、系统、设备及计算机可读存储介质

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11797641B2 (en) 2015-02-03 2023-10-24 1Qb Information Technologies Inc. Method and system for solving the lagrangian dual of a constrained binary quadratic programming problem using a quantum annealer
CA2881033C (en) 2015-02-03 2016-03-15 1Qb Information Technologies Inc. Method and system for solving lagrangian dual of a constrained binary quadratic programming problem
US10074792B1 (en) * 2017-03-10 2018-09-11 Northrop Grumman Systems Corporation ZZZ coupler for superconducting qubits
US11544545B2 (en) 2017-04-04 2023-01-03 Hailo Technologies Ltd. Structured activation based sparsity in an artificial neural network
US11238334B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method of input alignment for efficient vector operations in an artificial neural network
US10387298B2 (en) 2017-04-04 2019-08-20 Hailo Technologies Ltd Artificial neural network incorporating emphasis and focus techniques
US11615297B2 (en) 2017-04-04 2023-03-28 Hailo Technologies Ltd. Structured weight based sparsity in an artificial neural network compiler
US11551028B2 (en) 2017-04-04 2023-01-10 Hailo Technologies Ltd. Structured weight based sparsity in an artificial neural network
US10903413B2 (en) 2018-06-20 2021-01-26 Equal!.Labs Inc. Semiconductor process optimized for quantum structures
WO2019244078A1 (en) 2018-06-20 2019-12-26 equal1.labs Inc. Quantum structure incorporating electric and magnetic angle control
US11568293B2 (en) * 2018-07-18 2023-01-31 Accenture Global Solutions Limited Quantum formulation independent solver
CA3112596A1 (en) * 2018-10-24 2020-04-30 Zapata Computing, Inc. Hybrid quantum-classical computer system for implementing and optimizing quantum boltzmann machines
JP6675565B1 (ja) * 2019-02-21 2020-04-01 Mdr株式会社 量子計算素子
WO2020255076A1 (en) * 2019-06-19 2020-12-24 1Qb Information Technologies Inc. Method and system for mapping a dataset from a hilbert space of a given dimension to a hilbert space of a different dimension
US10922618B2 (en) 2019-06-21 2021-02-16 Beit Inc. Multi-pass system for emulating a quantum computer and methods for use therewith
US11742901B2 (en) * 2020-07-27 2023-08-29 Electronics And Telecommunications Research Institute Deep learning based beamforming method and apparatus
US11811421B2 (en) 2020-09-29 2023-11-07 Hailo Technologies Ltd. Weights safety mechanism in an artificial neural network processor
US11263077B1 (en) 2020-09-29 2022-03-01 Hailo Technologies Ltd. Neural network intermediate results safety mechanism in an artificial neural network processor
US11237894B1 (en) 2020-09-29 2022-02-01 Hailo Technologies Ltd. Layer control unit instruction addressing safety mechanism in an artificial neural network processor
US11221929B1 (en) 2020-09-29 2022-01-11 Hailo Technologies Ltd. Data stream fault detection mechanism in an artificial neural network processor
US20220097690A1 (en) * 2020-09-30 2022-03-31 Toyota Motor Engineering & Manufacturing North America, Inc. Optical sense-compute solution for real-time navigation involving multiple vehicles
US20220147314A1 (en) 2020-11-12 2022-05-12 equal1.labs Inc. System and method of quantum stochastic rounding using silicon based quantum dot arrays
CN116502726B (zh) * 2023-06-28 2023-09-19 深圳市爱云信息科技有限公司 基于量子芯片的数据存储系统及方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1672171A (zh) * 2002-07-31 2005-09-21 雅马哈发动机株式会社 基于量子软计算的智能机电控制悬架系统
US20070239366A1 (en) * 2004-06-05 2007-10-11 Hilton Jeremy P Hybrid classical-quantum computer architecture for molecular modeling
CN101088102A (zh) * 2004-12-23 2007-12-12 D-波系统公司 包括量子装置的模拟处理器
CN101868802A (zh) * 2007-09-24 2010-10-20 D-波系统公司 用于量子位状态读出的系统、方法以及装置
CN102034133A (zh) * 2010-12-16 2011-04-27 浙江工业大学 一种基于量子神经网络的多因素系统的综合评价方法
CN103582949A (zh) * 2011-06-14 2014-02-12 国际商业机器公司 用于量子信息处理的固定耦合量子系统的模块化阵列
US20150046457A1 (en) * 2008-11-07 2015-02-12 The Board of Trustees of the Leland Stanford Junior Unviersity Systems and methods for determining optimal parameters for dynamic quantum clustering analyses
WO2015178990A2 (en) * 2014-02-28 2015-11-26 Rigetti & Co., Inc. Housing qubit devices in an electromagnetic waveguide system
US20160071021A1 (en) * 2014-09-09 2016-03-10 D-Wave Systems Inc. Systems and methods for improving the performance of a quantum processor via reduced readouts

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005122052A1 (en) 2004-06-05 2005-12-22 D-Wave Systems, Inc. Hybrid classical-quantum computer architecture for molecular modeling
US7533068B2 (en) 2004-12-23 2009-05-12 D-Wave Systems, Inc. Analog processor comprising quantum devices
EP2263166B1 (en) 2008-03-24 2020-02-19 D-Wave Systems Inc. Systems, devices, and methods for analog processing
JP6465876B2 (ja) 2013-06-28 2019-02-06 ディー−ウェイブ システムズ インコーポレイテッド データの量子処理のためのシステムおよび方法
US9183508B2 (en) 2013-08-07 2015-11-10 D-Wave Systems Inc. Systems and devices for quantum processor architectures
US20150095477A1 (en) * 2013-09-30 2015-04-02 Elwha LLC, a limited liability company of the State of Delaware Mobile device sharing facilitation methods and systems featuring party identifier inclusions that are conditional
CA2943489C (en) 2014-03-21 2019-11-12 Google Inc. Chip including classical and quantum computing processers
US9710758B2 (en) 2014-04-23 2017-07-18 D-Wave Systems Inc. Quantum processor with instance programmable qubit connectivity
EP3227837A1 (en) 2014-12-05 2017-10-11 Microsoft Technology Licensing, LLC Quantum deep learning

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1672171A (zh) * 2002-07-31 2005-09-21 雅马哈发动机株式会社 基于量子软计算的智能机电控制悬架系统
US20070239366A1 (en) * 2004-06-05 2007-10-11 Hilton Jeremy P Hybrid classical-quantum computer architecture for molecular modeling
CN101088102A (zh) * 2004-12-23 2007-12-12 D-波系统公司 包括量子装置的模拟处理器
CN101868802A (zh) * 2007-09-24 2010-10-20 D-波系统公司 用于量子位状态读出的系统、方法以及装置
US20150046457A1 (en) * 2008-11-07 2015-02-12 The Board of Trustees of the Leland Stanford Junior Unviersity Systems and methods for determining optimal parameters for dynamic quantum clustering analyses
CN102034133A (zh) * 2010-12-16 2011-04-27 浙江工业大学 一种基于量子神经网络的多因素系统的综合评价方法
CN103582949A (zh) * 2011-06-14 2014-02-12 国际商业机器公司 用于量子信息处理的固定耦合量子系统的模块化阵列
WO2015178990A2 (en) * 2014-02-28 2015-11-26 Rigetti & Co., Inc. Housing qubit devices in an electromagnetic waveguide system
US20160071021A1 (en) * 2014-09-09 2016-03-10 D-Wave Systems Inc. Systems and methods for improving the performance of a quantum processor via reduced readouts

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
MOHAMMAD H.AMIN 等: "Quantum Boltzmann Machine", 《ARXIV》 *
STEVEN H. ADACHI等: "Application of Quantum Annealing to Training of Deep Neural Networks", 《2015 LOCKHEED MARTIN CORPORATION》 *
陈晖 等: "量子保密通信发展趋势与对策探讨", 《信息安全与通信保密》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020151129A1 (zh) * 2019-01-25 2020-07-30 合肥本源量子计算科技有限责任公司 量子机器学习框架构建方法、装置、量子计算机及计算机存储介质
CN111651337A (zh) * 2020-05-07 2020-09-11 哈尔滨工业大学 一种sram存储器空间服役故障分类失效检测方法
CN111651337B (zh) * 2020-05-07 2022-07-12 哈尔滨工业大学 一种sram存储器空间服役故障分类失效检测方法
CN114187598A (zh) * 2020-08-25 2022-03-15 合肥本源量子计算科技有限责任公司 手写数字识别方法、系统、设备及计算机可读存储介质
CN114187598B (zh) * 2020-08-25 2024-02-09 本源量子计算科技(合肥)股份有限公司 手写数字识别方法、设备及计算机可读存储介质
CN112561069A (zh) * 2020-12-23 2021-03-26 北京百度网讯科技有限公司 模型处理方法、装置、设备、存储介质及产品

Also Published As

Publication number Publication date
CA2927171C (en) 2017-05-02
US20170300808A1 (en) 2017-10-19
JP2019514135A (ja) 2019-05-30
US10229355B2 (en) 2019-03-12
CA2927171A1 (en) 2016-07-04
GB2564596A (en) 2019-01-16
CN109074520B (zh) 2021-09-14
WO2017179011A1 (en) 2017-10-19
JP6703132B2 (ja) 2020-06-03
GB201815580D0 (en) 2018-11-07
GB2564596A8 (en) 2021-10-20
GB2564596B (en) 2022-03-23

Similar Documents

Publication Publication Date Title
CN109074520A (zh) 量子处理器及其用于实现神经网络的用途
Yang Optimization techniques and applications with examples
CN109154798A (zh) 用于改进随机控制问题的策略的方法和系统
CN110462612A (zh) 使用在网络节点处具有软件代理的网络进行机器学习并然后对网络节点进行排名的方法和装置
CN109446430A (zh) 产品推荐的方法、装置、计算机设备及可读存储介质
CN105593849A (zh) 数据库访问
Jadon et al. Improving siamese networks for one-shot learning using kernel-based activation functions
Ravi Kumar et al. A framework of dimensionality reduction utilizing PCA for neural network prediction
da Silva et al. Weightless neural network parameters and architecture selection in a quantum computer
Yu et al. Xcrossnet: Feature structure-oriented learning for click-through rate prediction
CN110188825A (zh) 基于离散多视图聚类的图像聚类方法、系统、设备及介质
Huembeli et al. The physics of energy-based models
Zhao et al. What is market talking about market-oriented prospect analysis for entrepreneur fundraising
Atarashi et al. A deep neural network for pairwise classification: Enabling feature conjunctions and ensuring symmetry
Dobrovolny et al. Session based recommendations using recurrent neural networks-long short-term memory
Islam et al. A machine learning driven android based mobile application for flower identification
Leoneti et al. Modeling the Conflict Within Group Decision Making: A Comparison Between Methods that Require and Do Not Require the Use of Preference Aggregation Techniques
Qi et al. A new method to generate semantic templates based on multilayer perceptron
Moeini et al. Portfolio optimization by means of a χ-armed bandit algorithm
Sussner et al. A subsethod interval associative memory with competitive learning
Viloria et al. Machine learning applied to the H index of colombian authors with publications in scopus
Carfora et al. Combinatorial framework for topological quantum computing
Hristova et al. Generalized Net Model of Library Activities Using Intuitionistic Fuzzy Estimations
MORONI A survey on feature selection methods for classification solved with quantum annealing
Gili et al. An inductive bias from quantum mechanics: learning order effects with non-commuting measurements

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: British Columbia

Applicant after: 1QB Information Technology Company

Address before: Columbia Canada

Applicant before: 1QB Information Technology Company

GR01 Patent grant
GR01 Patent grant