CN111738426A - 一种基于gru模型的量子密码系统稳定控制方法 - Google Patents
一种基于gru模型的量子密码系统稳定控制方法 Download PDFInfo
- Publication number
- CN111738426A CN111738426A CN202010787769.8A CN202010787769A CN111738426A CN 111738426 A CN111738426 A CN 111738426A CN 202010787769 A CN202010787769 A CN 202010787769A CN 111738426 A CN111738426 A CN 111738426A
- Authority
- CN
- China
- Prior art keywords
- gru
- network
- model
- data
- parameter vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明提供一种基于GRU模型的量子密码系统稳定控制方法,应用于量子密码(QKD)系统。利用QKD传输系统调制器件和外部环境等参数变量的时序数据并结合NLP领域中的Sequence to Sequence思想,训练一个GRU时序预处理模型,根据输入当前时间步的环境参数和之前时间步的系统参数向量,快速地预测出下一时间步的系统参数向量。该方法大大加快了补偿参数的获取过程,并降低了补偿参数获取的硬件支持。
Description
技术领域
本发明涉及量子通信、量子加密、量子信息等领域,尤其涉及一种基于GRU模型的量子密码系统稳定控制方法。
背景技术
量子密码是量子通信的核心,它的安全与否直接决定着量子通信系统的安全性。量子密码的安全性建立在量子力学的基本原理之上,同时通过结合香农提出的“一次一密”(OTP,One Time Pad)定理,原则上可以为合法用户(Alice、Bob)提供无条件安全的量子通信。现有实用化的量子密码系统可以使用不同的编码方式,比如相位、偏振、时间-能量编码等,其中基于相位编码的系统应用最为广泛。自第一个量子密码协议——BB84协议提出以来,量子密码无论是在理论上还是在实验上均取得了巨大的进步。与此同时,越来越多的量子密码协议如参考系无关协议(RFI, Reference Frame Independent )、测量设备无关协议(MDI, Measurement Device Independent)等,也相继投入到实际的量子密钥分配应用中。但是诸多协议对应的QKD系统往往存在着相位漂移、光强起伏、偏振漂移等问题,因此在QKD实用化过程中往往需要对这些参数进行扫描、监控或其他相关操作,以获取这些参数在QKD系统中的补偿量,保证QKD系统的正常传输。但是在有些补偿量的获取过程中,如通过扫描获取补偿电压的过程中,QKD系统无法进行传输,这就导致系统整体效率低下,虽然可以使用基于FPGA的相位实时补偿技术,但这种方法需要比较高昂的硬件开销。尤其是对于高速QKD或是复杂协议系统而言,需要快速补偿或同时获取多个补偿量,使得硬件开销进一步增大。
发明内容
针对现有技术的不足,本发明的目的是提供一种基于GRU模型的量子密码(QKD)系统稳定控制方法,应用于QKD系统。利用QKD传输系统调制器件和外部环境等参数变量的时序数据,训练一个GRU时序预处理模型,根据输入当前时间步的环境参数和之前时间步的参数向量,快速地预测出下一时间步的参数向量。该方法大大加快了补偿参数的获取过程,并降低了补偿参数获取的硬件支持。本发明使用BB84 相位编码QKD系统中的时序数据进行了验证,但不仅仅限于BB84协议或相位编码QKD系统。仿真结果表明:参数向量中补偿参数的预测值,和系统实际补偿参数的值相对接近;预测速度快,极大的提高了QKD系统的有效传输效率。
本发明提供一种基于GRU模型的量子密码系统稳定控制方法,所述方法的适用场景为包括量子密钥分发在内的量子密码系统的稳定控制,采用的模型获取思想为NLP中的Sequence to Sequence思想,方法包括网络训练过程、网络预测过程和网络更新过程,所述网络训练过程包括以下步骤:
步骤一:对QKD系统中获取的时序数据进行处理,根据Sequence to Sequence思想设计机器学习的特征数据和标签数据,并按照7:3的比例划分为训练集和测试集;
步骤二:根据特征数据和标签数据的数据结构,确定GRU网络的输入、输出层规格,并根据数据集数据量的多少确定隐藏层的层数,最终完成GRU网络架构;
步骤三:将训练集数据导入到确定的GRU网络架构,利用网络的正向、反向传播实现GRU网络的训练;
网络预测过程包括以下步骤:
步骤四:借助训练好的GRU预处理模型,对参数向量进行预测,并考虑该步骤的误差累积问题;
网络更新过程包括以下步骤:
步骤五:考虑预测获取的参数向量和扫描获取的真实参数向量间的周期交互问题,并根据QKD系统的实际传输情况,确定交互周期;
步骤六:根据确定的交互周期,周期性的用真实参数向量代替预测的参数向量进行后时间步的向量预测并同时微调网络,以此来实现网络的更新。
进一步改进在于:所述方法采用的模型获取思想是Sequence to Sequence思想,而非一般时序问题中使用的时间窗思想,该思想获取的模型更易于后期在QKD系统中的使用。
进一步改进在于:所述步骤四中借助训练好的GRU预处理模型,对参数向量进行预测不同于常用的单一标量预测,这里是对向量进行预测,所以每一时间步所要预测的全部补偿参数应视为一个整体。
进一步改进在于:所述方法通过一次整体训练,获取GRU预处理模型,此后在预测过程中通过结合更新过程对网络进行微更新,进而在QKD系统中长时间使用GRU预处理模型。
本发明的有益效果是:参数向量的回归不同于单一标量的回归,根据系统所需补偿参数的不同可以自行设计所需回归的参数向量。适用于多种QKD协议、基于多种编码方式的QKD系统,以及包括光纤、片上等多种材料构成形式的QKD系统,具有能够准确、快速预测出系统所需补偿参数,提高系统传输效率,减小附加系统硬件开销的优势。
附图说明
图1为本发明的GRU模型使用的完整流程图。
图2为本发明的GRU模型细胞单元的内部结构图。
图3为本发明的相关数据格式图。
图4为本发明的GRU网络的一般训练过程图。
图5不使用微更新机制的GRU模型在测试集一上的预测效果图。
图6使用微更新机制的GRU模型在测试集一上的预测效果图。
图7不使用微更新机制的GRU模型在测试集二上的预测效果图。
图8使用微更新机制的GRU模型在测试集二上的预测效果图。
图9为本发明的GRU模型在两个测试集上的RMSE柱状图。
图10为本发明的GRU模型与LSTM模型在两个训练集上的训练时长对比图。
具体实施方式
为了加深对本发明的理解,下面将结合实施例对本发明作进一步的详述,本实施例仅用于解释本发明,并不构成对本发明保护范围的限定。
本实施例提供一种基于GRU模型的量子密码系统稳定控制方法,所述方法的适用场景为包含量子密钥分发在内的量子密码系统的稳定控制,采用的模型获取思想为NLP领域的Sequence to Sequence思想,方法包括网络训练过程、网络预测过程和网络更新过程,所述网络训练过程包括以下步骤:
步骤一:对QKD系统中获取的时序数据进行处理,根据Sequence to Sequence思想设计机器学习的特征数据和标签数据,并按照7:3的比例划分为训练集和测试集;
步骤二:根据特征数据和标签数据的数据结构,确定GRU网络的输入、输出层规格,并根据数据集数据量的多少确定隐藏层的层数,最终完成GRU网络架构;
步骤三:将训练集数据导入到确定的GRU网络架构,利用网络的正向、反向传播实现GRU网络的训练;
网络预测过程包括以下步骤:
步骤四:借助训练好的GRU预处理模型,对参数向量进行预测,并考虑该步骤的误差累积问题;
网络更新过程包括以下步骤:
步骤五:考虑预测获取的参数向量和扫描获取的真实参数向量间的周期交互问题,并根据QKD系统的实际传输情况,确定交互周期;
步骤六:根据确定的交互周期,周期性的用真实参数向量代替预测的参数向量进行后时间步的向量预测并同时微调网络,以此来实现网络的更新。
所述步骤四中借助训练好的GRU预处理模型,对参数向量进行预测不同于常用的单一标量预测,这里是对向量进行预测,所以每一时间步所要预测的全部补偿参数应视为一个整体。所述步骤四中对参数向量进行预测时,存在误差累积的问题时,当所需预测的向量中包含多个补偿参数时,其误差累积更大。所述方法通过一次整体训练,获取GRU预处理模型,此后在预测过程中通过结合更新过程对网络进行微更新,进而在QKD系统中长时间使用该模型。
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体时序数据并参照附图,对本发明作进一步说明。
GRU网络介绍:GRU(Gate Recurrent Unit)是循环神经网络(Recurrent NeuralNetwork,RNN)的一种,和LSTM(Long-Short Term Memory)一样,也是为了解决长期记忆和反向传播中的梯度消失等问题而提出来的。相比LSTM,使用GRU能够达到相当的效果,并且相比之下更容易进行训练,能够很大程度上提高训练效率,因此很多时候会更倾向于使用GRU。而对于复杂QKD系统而言,由于涉及到的参数相对较多,同时处理的是向量回归问题,所以在处理效率和准确率上,GRU相比LSTM都会有所改善。从GRU的网络结构来看,GRU与LSTM网络的整体结构类似,都由一连串结构完全相同的细胞单元构成,最大的不同点是两者细胞单元的内部结构不同,LSTM的细胞单元含有“输入门”、“输出门”、“遗忘门”,而GRU将LSTM的三门结构集成为“重置门”、“更新门”的两门结构,因此GRU在获取LSTM同等处理效果的同时,还进一步提高了数据处理的效率。GRU神经网络处理的一般数据格式为[bach,time_step,feature_dim],其中bach是时序数据的批次,time_step是时序数据的时间跨度,feature_dim是每个时间步上数据的维度。细胞单元是GRU递归网络的核心,细胞单元的数量与GRU网络输入数据的time_step直接对应,每一个时间点的数据都由一个细胞单元进行处理并将处理所得的信息传递给下一个细胞单元,因此一连串结构完全相同的细胞单元是GRU网络可以长期记忆的关键。
附图2是GRU细胞单元的内部结构图。为了解决标准RNN的梯度消失问题,GRU使用了更新门(update gate)与重置门(reset gate)。从直观上来说,重置门决定了如何将新的输入信息与前面的记忆相结合,更新门定义了前面记忆保存到当前时间步的量。基本上,这两个门控向量决定了哪些信息最终能作为细胞单元的输出。这两个门控机制的特殊之处在于,它们能够保存长期序列中的信息,且不会随时间而清除或因为与预测不相关而移除。接下来分四个部分,对GRU的细胞单元进行介绍。
更新门(update gate):在时间步t,首先需要使用以下公式计算更新门:其中,参数表示第t个时间步的输入向量,即输入序列X的第t个分量,它会经过一个线性变换(与权重矩阵相乘);参数表示的是前一个时间步t-1保存的信息,它同样也会经过一个线性变换(与偏置矩阵相乘)。更新门将这两部分信息相加并投入到Sigmoid激活函数中,因此结果会被激活函数压缩到0~1之间。更新门帮助模型决定到底要将多少过去的信息传递到未来,或到底前一时间步的信息有多少是需要继续传递的,这使得模型能减少梯度消失的风险。
重置门(reset gate):本质上来说,重置门主要决定了到底有多少过去的信息需要遗忘,其使用下述表达式进行计算:,该表达式与更新门的表达式是一样的,只不过线性变换的参数和用处不一样而已。如前面更新门所述和先经过一个线性变换,再相加投入Sigmoid激活函数以输出激活值。
当前记忆内容:现在具体讨论一下这些门控到底如何影响最终的输出。在重置门的使用中,新的记忆内容将使用重置门储存过去相关的信息,它的计算表达式为:,输入与上一时间步信息先经过一个线性变换,即分别右乘矩阵W和U。计算重置门与的Hadamard乘积,即与的对应元素乘积。因为前面计算的重置门是一个由0到1组成的向量,此向量用于衡量门控开启的大小。例如某个元素对应的门控值为0,那么就代表这个元素的信息完全被遗忘掉。该Hadamard乘积将确定所要保留与遗忘的之前信息。最后将这两部分的计算结果相加再投入双曲正切激活函数中即为当前记忆内容。
当前时间步的最终记忆:在最后一步,网络需要计算,该向量将保留当前单元的信息并传递到下一个单元中。在这个过程中,需要使用更新门,它决定了当前记忆内容和前一时间步中需要收集的信息是什么。这一过程表示为:,为更新门的激活结果,同样以门控的形式控制了信息的流入。与Hadamard乘积表示前一时间步保留到最终记忆的信息,该信息加上当前记忆保留至最终记忆的信息就等于最终细胞单元输出的内容。由上述分析可知,细胞单元不会随时间而清除以前的信息,它会保留相关的信息并传递到下一个单元,因此它利用全部信息而避免了梯度消失问题。
GRU模型的参数向量预测和反馈控制:本实施例在BB84相位编码QKD系统中进行了验证,由于BB84量子密钥分配系统在实际传输过程中只需调控相电压,所以参数向量中只含相电压一个补偿参数。不同协议对应不同的QKD系统,系统所需调控的参数也不尽相同,所以参数向量中包含的补偿参数应结合所用的具体协议进行确定。以下对本实施例在BB84系统获取的数据集上的效果进行展示,GRU模型在QKD系统的完整使用流程可参见附图1。
GRU参数向量预测模型所用数据的获取和处理:BB84 QKD系统按照10秒扫描,10秒传输的方式获取GRU模型所需使用的时序数据,因此BB84 QKD系统的传输占空比为50%。获取的时序数据包括系统所处环境的温度、湿度、光强以及调控器件获取的相电压等。为了演示GRU模型对参数向量预测的准确性和普适性,分别在基于FM(Faraday-Michelson,法拉第-马克尔逊)干涉环的BB84量子密钥分配系统和MZ(Mach-Zehnde,马赫-曾德尔)干涉环的BB84量子密钥分配系统上各收集了一批数据。其中MZ型QKD系统获取的数据包含温度、湿度、光强、电压四个参数。FM型QKD系统获取的数据包含温度、湿度、电压三个参数。两个数据集的原始时间步分别为3313、5000,每个时间步数据的时间跨度为20s,所以两个数据集的时间跨度分别约为18.4小时、27.8小时。这里还需注意,从QKD实验系统中直接获取的时序数据格式为[time_step,feature_dim],要将其转变为递归网络GRU能够正确处理的数据格式[bach,time_step,feature_dim]。之后利用自然语言处理领域(NLP, Natural LanguageProcessing)中序列到序列(Sequence to Sequence)的思想,从中划分出特征序列数据[bach,time_step,feature_X]和标签序列数据[batch,time_step,feature_Y] 。其中feature_Y存放的是t+1时刻的参数向量,而feature_X则包含了从t-n到t时刻的多个参数向量,GRU模型在QKD系统中涉及到的相关数据格式可详见附图3。此外为了消除数据间的量纲影响并优化后续的网络训练效果,可以采用StandScaler或MinmaxScaler数据标准化方法,消除feature_Y、feature_X上有关参数的量纲。至此对数据集的处理基本结束,之后按照7:3的比例将数据集划分为训练集和测试集,具体的数据集时间步划分,如表I所示。
GRU参数向量预测模型的训练:
根据特征数据中的feature_X确定网络的输入层结构,根据标签数据中的feature_Y确定输出层结构。并根据参数向量的预测需求确定隐藏层的数目,由于数据相对简单,故只用一层GRU神经层作为隐藏层,至此GRU回归网络基本搭建完成。在网络训练之前还需设置网络的训练参数,对于反向传播所采用的优化算法,采用效果相对较好的Adam优化算法。因为此处两个数据集的数据批次都只有1批,故将批训练的大小置为1,并将数据训练的轮数设置为300轮,来训练整个GRU网络的权重(weight)和偏置 (bias)。训练过程中GRU网络的正向传播和反向传播使得网络的权重和偏置不断优化,不断降低模型误差提高其预测准确性,以此获得GRU预处理模型。GRU网络的一般训练过程可参见附图4。
GRU参数向量预测模型的预测:
获取预处理模型后,便可以利用预处理模型进行时序向量的预测。预测过程中最重要的一点是给预处理模型喂的数据应当与训练时所用的数据在第三维度feature_X上保持一致。模型根据输入的数据进行参数向量的正确预测。而在预测过程中feature_X结构的实现来源于两方面,一方面是系统当前时间步获取的环境数据,另一方面是前几个时间步的参数向量。例如将系统原始的4维时序数据温度、湿度、电压、光强,在feature_X上构造成7维。feature_X中前3维的数据,温度、湿度和光强来源于QKD系统对环境的实时获取,后四维的数据由4个参数向量构成,每个参数向量只包含一个电压参数,四个参数向量分别对应着当前时间步和前三个时间步的补偿电压。此外对于预测参数向量的使用也包含两方面,一方面预测的参数向量直接交由QKD系统作为补偿参数使用。另一方面要将预测的参数向量储存起来,方便连续使用四个参数向量并结合其他环境参数,构成7维的feature_X,进行下一时间步参数向量的预测输出。
GRU参数向量预测模型的更新:
在利用预处理模型进行参数向量预测时会出现一个问题,如果一直用存储起来的参数向量进行预测,那么参数向量中补偿参数的预测误差就会越来越大。因为在进行预测时,网络会进行反向传播,存在梯度消失和梯度爆炸等问题,这不可避免的使得预测值和真实值有所偏差,试想第一次预测的值有偏差,第二次预测需要用到第一次预测的值,在偏差的基础上接着产生偏差。随着时间跨度的增大,整个模型的效果会变得越来越差。为了使QKD系统能够长时间使用GRU参数向量预测模型,就需要对模型进行周期性的更新,来减弱误差累积的影响。而对于模型的更新则需要用到真实补偿参数构成的参数向量,所以预处理模型还需要和获取补偿参数的设备建立联系。在模拟GRU模型在实际系统的使用时,设计了30时间步作为一个周期,一个周期获取3次真实的参数向量,用这连续获取的3个参数向量并结合matlab提供的网络矫正函数(predictAndUpdateState)对GRU预处理模型进行微更新,从而实现系统的反馈控制。
为了更直观的展示本实施例的预测效果,接下来对模型在两个数据集上的效果进行说明。这里使用的电脑硬件配置为Intel Core i7-9750H CPU @2.6GHZ、NVIDIA GeForceGTX1650、16GB DDR4。分析GRU模型预测参数向量的效果时选取均方根误差(RMSE)作为衡量指标。均方根误差的表达式如下所示:。
下面从多个仿真图对应的不同角度,来分析GRU参数向量预测模型在测试集上所表现出的效果。
从拟合曲线角度:附图5和附图6对应数据集一,即从FM型QKD系统中获取的数据。附图7和附图8对应数据集二,即从MZ型QKD系统中获取的数据。其中图5和图7是不带有微更新机制的GRU模型在测试集上的效果仿真图,图6和图8是利用matlab提供的网络矫正函数(predictAndUpdateState)进行微更新的GRU模型在测试集上的效果仿真图。通过比较图5、6和图7、8,可以看出带有更新机制的GRU模型在两个测试集上的效果都要明显优于没有更新机制的GRU模型。从图6、8拟合曲线的整体来看,两个不同设备在不同情况下获取的不同分布的数据,通过GRU模型都能够相对较好的预测出下一个时间步的相电压,这也说明了GRU参数向量预测模型对不同环境下不同QKD系统的普遍适用性。
从均方根误差(RMSE)角度:附图9是附图5 、6、7和8中四幅拟合曲线对应的误差衡量指标RMSE。由图9可知,带有更新机制的GRU模型在数据集一上的RMSE值为0.04455,在数据集二上的RMSE值为0.03615。不带有微更新机制的GRU模型在数据集一上的RMSE值为0.26139,在数据集二上的RMSE值为0.23077。比较两个不同机制的GRU模型在同一数据集上的效果,可以清楚的发现带有更新机制的GRU模型对参数向量的预测效果,要比不带有更新机制的GRU模型要好。比较同一机制的GRU模型在两个测试集上的RMSE值,可以知道对于分布特性比较规律的数据而言,GRU模型对其的处理效果要更好一点。
从和LSTM模型的横向对比角度:对GRU模型在测试集上单方面评估之后,还测试了LSTM模型在上述测试集上的效果。经过实际仿真测试,GRU模型的预测准确程度与LSTM模型的预测效果基本一致。但是 GRU的训练收敛速度明显快于LSTM,即GRU模型所用的时间明显小于LSTM模型所用的时间,具体可参见附图10中GRU模型和LSTM模型在两个训练集上通过电脑GPU进行训练的训练时长图。由此可知在补偿参数分布相对简单且规则的QKD数据集上,GRU模型具有收敛速度快的优点,这样的优点对于参数向量中含有多个补偿参数的复杂系统而言,是大有裨益的。
以上验证仅是本发明的一个实施实例,应当指出:本发明不限于相位编码的BB84协议,同样适用于其他协议或其他编码方式的量子密码系统。对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对参数向量做出若干设计亦或是用其他递归网络模型对GRU模型进行替换,这些改变或润饰也应视为本发明的保护范围。
Claims (3)
1.一种基于GRU模型的量子密码系统稳定控制方法,其特征在于:所述方法的适用场景为包括量子密钥分发在内的量子密码系统的稳定控制,以Matlab作为环境,以自然语言处理领域中序列到序列的思想作为模型获取的思想,该思想并非时序问题中惯用的时间窗思想,方法包括网络训练过程、网络预测过程和网络更新过程,所述网络训练过程包括以下步骤:
步骤一:对量子密码系统中获取的时序数据进行处理,根据Sequence to Sequence思想设计机器学习的特征数据和标签数据,并按照比例划分为训练集和测试集;
步骤二:根据特征数据和标签数据的数据结构,确定GRU网络的输入、输出层规格,并根据数据集数据量的多少确定隐藏层的层数,最终完成GRU网络架构;
步骤三:将训练集数据导入到确定的GRU网络架构,利用网络的正向、反向传播实现GRU网络的训练;
网络预测过程包括以下步骤:
步骤四:借助训练好的GRU预处理模型,对参数向量进行预测,并考虑该步骤的误差累积问题;
网络更新过程包括以下步骤:
步骤五:考虑预测获取的参数向量和扫描获取的真实参数向量间的周期交互问题,并根据QKD系统的实际传输情况,确定交互周期;
步骤六:根据确定的交互周期,周期性的用真实参数向量代替预测的参数向量进行后时间步的向量预测并同时微调网络,以此来实现网络的更新。
2.如权利要求1所述的一种基于GRU模型的量子密码系统稳定控制方法,其特征在于:所述步骤四中借助训练好的GRU预处理模型,对参数向量进行预测不同于常用的单一标量预测,而是对向量进行预测,所以每一时间步所要预测的全部补偿参数应视为一个整体。
3.如权利要求1所述的一种基于GRU模型的量子密码系统稳定控制方法,其特征在于:所述方法的网络更新处在模型预测阶段,这与训练阶段的模型参数更新并不相同,即通过一次整体训练,获取GRU预处理模型,此后在预测过程中结合Matlab环境特有的网络更新功能,对网络进行微调,以减弱由所需预测的参数向量含有多个补偿参数带来的误差累积,进而使QKD系统长时间使用GRU预处理模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010787769.8A CN111738426A (zh) | 2020-08-07 | 2020-08-07 | 一种基于gru模型的量子密码系统稳定控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010787769.8A CN111738426A (zh) | 2020-08-07 | 2020-08-07 | 一种基于gru模型的量子密码系统稳定控制方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111738426A true CN111738426A (zh) | 2020-10-02 |
Family
ID=72658234
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010787769.8A Pending CN111738426A (zh) | 2020-08-07 | 2020-08-07 | 一种基于gru模型的量子密码系统稳定控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111738426A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113411185A (zh) * | 2021-06-09 | 2021-09-17 | 南京邮电大学 | 一种基于gru模型的量子密码系统稳定控制方法 |
JP2023042571A (ja) * | 2021-09-14 | 2023-03-27 | テラ クアンタム アーゲー | 量子通信セットアップを決定するための方法、量子通信セットアップ、コンピュータプログラム、およびデータ処理システム |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110365473A (zh) * | 2019-05-31 | 2019-10-22 | 南京邮电大学 | 一种基于机器学习的量子通信系统的主动反馈控制方法 |
-
2020
- 2020-08-07 CN CN202010787769.8A patent/CN111738426A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110365473A (zh) * | 2019-05-31 | 2019-10-22 | 南京邮电大学 | 一种基于机器学习的量子通信系统的主动反馈控制方法 |
Non-Patent Citations (1)
Title |
---|
JINGYANG LIU等: "Practical Phase-Modulation Stabilization in Quantum Key Distribution via Machine Learning", 《PHYSICAL REVIEW APPLIED》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113411185A (zh) * | 2021-06-09 | 2021-09-17 | 南京邮电大学 | 一种基于gru模型的量子密码系统稳定控制方法 |
JP2023042571A (ja) * | 2021-09-14 | 2023-03-27 | テラ クアンタム アーゲー | 量子通信セットアップを決定するための方法、量子通信セットアップ、コンピュータプログラム、およびデータ処理システム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Tank et al. | Neural granger causality | |
Lampinen et al. | An analytic theory of generalization dynamics and transfer learning in deep linear networks | |
Hernández et al. | Variational encoding of complex dynamics | |
Wang et al. | Stochastic configuration networks ensemble with heterogeneous features for large-scale data analytics | |
Marcinkevičs et al. | Interpretable models for granger causality using self-explaining neural networks | |
Kuss | Gaussian process models for robust regression, classification, and reinforcement learning | |
Dangerfield et al. | Modeling ion channel dynamics through reflected stochastic differential equations | |
CN111373420A (zh) | 量子近似优化中的成本函数变形 | |
Vogt et al. | On lyapunov exponents for rnns: Understanding information propagation using dynamical systems tools | |
Mack et al. | Attention-based convolutional autoencoders for 3d-variational data assimilation | |
Niu et al. | Recurrent neural networks in the eye of differential equations | |
Sakai et al. | Eigenvalue analysis of an irreversible random walk with skew detailed balance conditions | |
Agrawal et al. | Wide neural networks with bottlenecks are deep Gaussian processes | |
CN111738426A (zh) | 一种基于gru模型的量子密码系统稳定控制方法 | |
René et al. | Inference of a mesoscopic population model from population spike trains | |
Shin et al. | Physics-informed variational inference for uncertainty quantification of stochastic differential equations | |
Sun et al. | H∞ fusion estimation for uncertain discrete time-delayed Hamiltonian systems with sensor saturations: An event-triggered approach | |
Nieman et al. | Control implemented on quantum computers: Effects of noise, nondeterminism, and entanglement | |
Sun et al. | Data-driven bandwidth selection for nonstationary semiparametric models | |
Lei et al. | A novel time-delay neural grey model and its applications | |
Scardapane et al. | Stochastic training of neural networks via successive convex approximations | |
Zielewski et al. | Efficient Pause Location Prediction Using Quantum Annealing Simulations and Machine Learning | |
Huetsch et al. | The Landscape of Unfolding with Machine Learning | |
Kressner et al. | Certified and fast computations with shallow covariance kernels | |
Guha et al. | Conformalization of sparse generalized linear models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20201002 |
|
RJ01 | Rejection of invention patent application after publication |