CN105808454A - 一种多端口访问共享缓存的方法及装置 - Google Patents
一种多端口访问共享缓存的方法及装置 Download PDFInfo
- Publication number
- CN105808454A CN105808454A CN201410851929.5A CN201410851929A CN105808454A CN 105808454 A CN105808454 A CN 105808454A CN 201410851929 A CN201410851929 A CN 201410851929A CN 105808454 A CN105808454 A CN 105808454A
- Authority
- CN
- China
- Prior art keywords
- buffer memory
- port
- shared buffer
- output
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本发明公开了一种多端口访问共享缓存的方法及装置,该方法包括:采集多端口数据流量;将所采集的多端口数据流量作为样本,输入预先建立的BP神经网络模型进行训练;根据所述BP网络模型的输出值,计算每个端口访问共享缓存的时间长度;每个端口在所分配的时间长度内依次访问共享缓存。本发明通过统计多端口的数据流量,依据端口传输数量流量的多少,为每个端口分配相匹配的访问共享缓存的时间长度,合理利用缓存总线,保证各个端口与共享缓存之间数据传输的可靠性。
Description
技术领域
本发明涉及网络通信技术领域,尤其涉及一种多端口访问共享缓存的方法及装置。
背景技术
共享缓存是交换机中比较常用的一种结构。在这种结构中,如图1所示,所有的输入端口和输出端口都共享一个缓存模块,所有需要经过交换机的数据都在缓存模块中存储转发。该结构的优点是缓存资源可以得到充分使用,可以获得最佳的时延和吞吐率性能。该结构的优点是缓存资源可以得到充分使用,可以获得最佳的时延和吞吐率性能。但是,因为缓存的集中管理和缓存的共用,导致缓存的读写访问时间限制了交换机的规模。如果通过增加缓存的带宽来提高速度,会增加芯片的设计难度。因此,必须有一种合理的缓存结构来管理缓存空间和缓存带宽。
现有技术中,在输入端口访问共享缓存时,为每个端口分配均等的时间长度,在一个时钟周期内,每个端口在所分配的时间长度内,依次将缓冲区的数据包存储至缓存模块。但是,由于各个端口的数据流量不同,有的端口在所分配的时间长度内传输数据包后,缓冲区的数据包有剩余未传输的数据包,甚至有残余数据包,导致丢包;有的端口在所分配的时间长度内传输数据包时,仅利用部分时间长度,即完成数据包传输,导致部分时间长度浪费。
发明内容
本发明实施例提供一种多端口访问共享缓存的方法及装置,用以解决多端口访问共享缓存时,端口所分配的时间长度与端口所传输数据流量不匹配,导致数据丢包的问题。
本发明实施例提供一种多端口访问共享缓存的方法,所述方法包括:
采集多端口数据流量;
根据所采集的多端口数据流量,计算每个端口访问共享缓存的时间长度;
每个端口在所分配的时间长度内依次访问共享缓存。
可选地,根据所采集的多端口数据流量,计算每个端口访问共享缓存的时间长度包括:
将所采集的多端口数据流量作为样本,输入预先建立的BP神经网络模型进行训练;
根据所述BP网络模型的输出值,计算每个端口访问共享缓存的时间长度。
可选地,所述BP神经网络模型包括输入层、隐含层和输出层,所述输入层与所述隐含层之间预设有连接权值,所述隐含层与所述输出层之间预设有连接权值,将所采集的多端口数据流量作为样本,输入预先建立的BP神经网络模型进行训练包括:
S1、给各连接权值分别赋一个区间(-1,1)内的随机数,设定误差函数e,给定计算精度值ε和最大学习次数M;
S2、随机选取第k个输入样本并相应获得对应期望输出;
S3、计算隐含层各神经元的输入和输出;
S4、利用网络期望输出和实际输出,计算误差函数对输出层的各神经元的偏导数δo(k);
S5、利用隐含层到输出层的连接权值、输出层的δo(k)和隐含层的输出计算误差函数对隐含层各神经元的偏导数δh(k);
S6、利用输出层各神经元的δo(k)和隐含层各神经元的输出修正连接权值who(k);
S7、利用隐含层各神经元的δh(k)和输入层各神经元的输入修正连接权值;
S8、计算全局误差;
S9、判断网络误差是否满足要求,当误差达到预设精度或学习次数大于预设最大次数,结束算法,否则,选取下一个学习样本及对应的期望输出,返回至S3,进入下一轮学习。
可选地,所述方法还包括:
监测所述多端口在轮询一次访问共享缓存后是否存在未发送报文;
对于多端口中任一端口,当所述端口在一次访问共享缓存后存在未发送报文时,触发BP网络模型重新训练,重新计算每个端口访问共享缓存的时间长度。
可选地,所述方法还包括:
监测所述多端口在访问共享缓存时数据流量的变化值;
对于多端口中任一端口,当所述端口当前访问共享缓存的数据流量与上一次访问共享缓存的数据流量差值大于预设值时,触发BP网络模型重新训练,重新计算每个端口访问共享缓存的时间长度。
本发明实施例还提供一种多端口访问共享缓存的装置,所述装置包括:
数据流量采集模块,用于采集多端口数据流量;
时间长度计算模块,用于根据所采集的多端口数据流量,计算每个端口访问共享缓存的时间长度;
共享缓存访问模块,用于每个端口在所分配的时间长度内依次访问共享缓存。
可选地,所述时间长度计算模块用于将所采集的多端口数据流量作为样本,输入预先建立的BP神经网络模型进行训练;根据所述BP网络模型的输出值,计算每个端口访问共享缓存的时间长度。
可选地,所述BP神经网络模型包括输入层、隐含层和输出层,所述输入层与所述隐含层之间预设有连接权值,所述隐含层与所述输出层之间预设有连接权值,所述时间长度计算模块还用于S1、给各连接权值分别赋一个区间(-1,1)内的随机数,设定误差函数e,给定计算精度值ε和最大学习次数M;S2、随机选取第k个输入样本并相应获得对应期望输出;S3、计算隐含层各神经元的输入和输出;S4、利用网络期望输出和实际输出,计算误差函数对输出层的各神经元的偏导数δo(k);S5、利用隐含层到输出层的连接权值、输出层的δo(k)和隐含层的输出计算误差函数对隐含层各神经元的偏导数δh(k);S6、利用输出层各神经元的δo(k)和隐含层各神经元的输出修正连接权值who(k);S7、利用隐含层各神经元的δh(k)和输入层各神经元的输入修正连接权值;S8、计算全局误差;S9、判断网络误差是否满足要求,当误差达到预设精度或学习次数大于预设最大次数,结束算法,否则,选取下一个学习样本及对应的期望输出,返回至S3,进入下一轮学习。
可选地,所述装置还包括:报文监控模块,用于监测所述多端口在轮询一次访问共享缓存后是否存在未发送报文;对于多端口中任一端口,当所述端口在一次访问共享缓存后存在未发送报文时,触发BP网络模型重新训练,重新计算每个端口访问共享缓存的时间长度。
可选地,所述装置还包括:数据流量监控模块,用于监测所述多端口在访问共享缓存时数据流量的变化值;对于多端口中任一端口,当所述端口当前访问共享缓存的数据流量与上一次访问共享缓存的数据流量差值大于预设值时,触发BP网络模型重新训练,重新计算每个端口访问共享缓存的时间长度。
本发明实施例提供的方法,通过统计多端口的数据流量,依据端口传输数量流量的多少,为每个端口分配相匹配的访问共享缓存的时间长度,合理利用缓存总线,保证各个端口与共享缓存之间数据传输的可靠性。
附图说明
图1为现有技术提供的共享缓存结构示意图;
图2为本发明实施例提供的多端口访问共享缓存方法流程图;
图3是本发明实施例提供的多端口访问共享缓存方法流程图;
图4为本发明实施例提供的多端口访问共享缓存装置的结构示意图。
具体实施方式
本发明为了实现多端口访问共享缓存时,端口所分配的时间长度与端口所传输数据流量匹配,保证多端口与共享缓存之间数据传输的可靠性,提供了一种多端口访问共享缓存的方法。
下面结合说明书附图,对本发明进行详细说明。
多端口访问共享缓存时,每个端口以轮询的方式依次访问共享缓存,在所分配的时间长度内将缓冲区数据包存储至共享缓存。当多端口数据流量在一段时间内变化不大,甚至不变时,在最初设定时间长度时,不再需要管理员介入,手工配置每个端口的所分配的时间长度,而是系统通过统计每个端口数据流量,依据端口传输数量流量的多少,为每个端口分配相匹配的访问共享缓存的时间长度,保证各个端口与共享缓存之间数据传输的可靠性。
图2是本发明实施例提供的多端口访问共享缓存方法流程图。参见图2,该实施例包括:
201、采集多端口数据流量;
202、根据所采集的多端口数据流量,计算每个端口访问共享缓存的时间长度;
203、每个端口在所分配的时间长度内依次访问共享缓存。
本发明实施例提供的方法,通过统计多端口的数据流量,依据端口传输数量流量的多少,为每个端口分配相匹配的访问共享缓存的时间长度,合理利用缓存总线,保证各个端口与共享缓存之间数据传输的可靠性。
可选地,根据所采集的多端口数据流量,计算每个端口访问共享缓存的时间长度包括:
将所采集的多端口数据流量作为样本,输入预先建立的BP神经网络模型进行训练;
根据该BP网络模型的输出值,计算每个端口访问共享缓存的时间长度。
可选地,该BP神经网络模型包括输入层、隐含层和输出层,该输入层与该隐含层之间预设有连接权值,该隐含层与该输出层之间预设有连接权值,将所采集的多端口数据流量作为样本,输入预先建立的BP神经网络模型进行训练包括:
S1、给各连接权值分别赋一个区间(-1,1)内的随机数,设定误差函数e,给定计算精度值ε和最大学习次数M;
S2、随机选取第k个输入样本并相应获得对应期望输出;
S3、计算隐含层各神经元的输入和输出;
S4、利用网络期望输出和实际输出,计算误差函数对输出层的各神经元的偏导数δo(k);
S5、利用隐含层到输出层的连接权值、输出层的δo(k)和隐含层的输出计算误差函数对隐含层各神经元的偏导数δh(k);
S6、利用输出层各神经元的δo(k)和隐含层各神经元的输出修正连接权值who(k);
S7、利用隐含层各神经元的δh(k)和输入层各神经元的输入修正连接权值;
S8、计算全局误差;
S9、判断网络误差是否满足要求,当误差达到预设精度或学习次数大于预设最大次数,结束算法,否则,选取下一个学习样本及对应的期望输出,返回至S3,进入下一轮学习。
可选地,该方法还包括:
监测该多端口在轮询一次访问共享缓存后是否存在未发送报文;
对于多端口中任一端口,当该端口在一次访问共享缓存后存在未发送报文时,触发BP网络模型重新训练,重新计算每个端口访问共享缓存的时间长度。
可选地,该方法还包括:
监测该多端口在访问共享缓存时数据流量的变化值;
对于多端口中任一端口,当该端口当前访问共享缓存的数据流量与上一次访问共享缓存的数据流量差值大于预设值时,触发BP网络模型重新训练,重新计算每个端口访问共享缓存的时间长度。
为了精准计算每个端口所分配访问共享缓存的时间长度,保证各个端口与共享缓存之间数据传输的可靠性,本发明实施例中,引入BP神经网络算法。该BP神经算法学习的过程为神经网络在外界输入样本的刺激下不断改变网络的连接权值,以使网络的输出不断的接近期望的输出。下面详细陈述本发明实施例提供的基于BP神经网络算法的多端口访问共享缓存的方法。
图3是本发明实施例提供的多端口访问共享缓存的方法流程图。参见图3,该实施例包括:
301、系统采集多端口数据流量;
在本发明实施例中,单位时间内单独一个端口的流量计算公式可以为p1_length+...+pn_length,其中pn为接收或发送的数据包的编号,pn_length为该数据包的字节长度,通过访问以太网接口芯片可以精确的计算出此值。
302、系统将所采集的多端口数据流量作为样本,输入预先建立的BP神经网络模型进行训练;
假设该BP神经网络模型包括输入层、隐含层和输出层,输入层有n个神经元,隐含层有p个神经元,输出层有q个神经元。下面首先定义该BP神经网络模型所涉及的变量:
输入向量:x=(x1,x2,…,xn);隐含层输入向量:hi=(hi1,hi2,…,hip);
隐含层输出向量:ho=(ho1,ho2,…,hop);输出层输入向量:yi=(yi1,yi2,…,yiq);输出层输出向量:yo=(yo1,yo2,…,yoq);期望输出向量:do=(d1,d2,…,dq);输入层与中间层的连接权值:wih;隐含层与输出层的连接权值:who;隐含层各神经元的阈值:bh;输出层各神经元的阈值:bo;样本数据个数:k=1,2,…m;激活函数:f(.);误差函数:
在本发明实施例中,将所采集的多端口数据流量作为样本,输入预先建立的BP神经网络模型进行训练包括以下计算步骤:
S1、给各连接权值分别赋一个区间(-1,1)内的随机数,设定误差函数e,给定计算精度值ε和最大学习次数M;
S2、随机选取第k个输入样本并相应获得对应期望输出;
x(k)=(x1(k),x2(k),…,xn(k)),d0(k)=(d1(k),d2(k),…,dq(k))。
S3、计算隐含层各神经元的输入和输出;
hoh(k)=f(hih(k))h=1,2,…,p),
yoo(k)=f(yio(k))o=1,2,…,q)。
S4、利用网络期望输出和实际输出,计算误差函数对输出层的各神经元的偏导数δo(k);
在本发明实施例中,实际输出为单个端口在给定时间长度内平均数据流量,网络期望输出为所有端口在一个周期内的平均数据流量(所有端口的数据流量的加和除以每个端口获得的时间长度加和得到总的平均数据流量)。
S5、利用隐含层到输出层的连接权值、输出层的δo(k)和隐含层的输出计算误差函数对隐含层各神经元的偏导数δh(k);
S6、利用输出层各神经元的δo(k)和隐含层各神经元的输出修正连接权值who(k);
S7、利用隐含层各神经元的δh(k)和输入层各神经元的输入修正连接权值;
S8、计算全局误差;
S9、判断网络误差是否满足要求,当误差达到预设精度或学习次数大于预设最大次数,结束算法,否则,选取下一个学习样本及对应的期望输出,返回至S3,进入下一轮学习。
在本发明实施例中,算法结束时,输出值为与端口获得的访问共享缓存的时间长度成线性关系
303、系统根据该BP网络模型的输出值,计算每个端口访问共享缓存的时间长度;
需要说明的是,本发明实施例是基于BP网络模型计算出与每个端口数据流量相匹配的时间长度。实际上,在本发明另一实施例中,也可以在单位时间内统计多端口数据流量后,计算每个端口数据流量占所有端口数据流量和的百分比,该比例值即为该端口所分配时间长度占用轮询周期的百分比,本发明实施例不作具体限定。
304、每个端口在所分配的时间长度内依次访问共享缓存;
每个端口所分配的时间长度与端口传输的数据流量相匹配的,保证缓存总线的合理利用。
305、监测该多端口,当达到预设条件时,触发BP网络模型重新训练,重新计算每个端口访问共享缓存的时间长度。
在本发明实施例中,在监控端口时,可以是监测该多端口在轮询一次访问共享缓存后是否存在未发送报文;对于多端口中任一端口,当该端口在一次访问共享缓存后存在未发送报文时,触发BP网络模型重新训练,重新计算每个端口访问共享缓存的时间长度;也可以是监测该多端口在访问共享缓存时数据流量的变化值;对于多端口中任一端口,当该端口当前访问共享缓存的数据流量与上一次访问共享缓存的数据流量差值大于预设值时,触发BP网络模型重新训练,重新计算每个端口访问共享缓存的时间长度。
本发明实施例提供的方法,基于BP网络模型,将多端口的数据流量作为样本输入,准确计算出每个端口所分配的访问共享缓存的时间长度,合理利用缓存总线,保证各个端口与共享缓存之间数据传输的可靠性。
图4是本发明实施例提供的多端口访问共享缓存的装置结构示意图。参见图4,该装置包括:数据流量采集模块41、时间长度计算模块42和共享缓存访问模块43。其中,
该数据流量采集模块41用于采集多端口数据流量;数据流量采集模块41与时间长度计算模块42连接,该时间长度计算模块42用于根据所采集的多端口数据流量,计算每个端口访问共享缓存的时间长度;时间长度计算模块42与共享缓存访问模块43连接,该共享缓存访问模块43用于每个端口在所分配的时间长度内依次访问共享缓存。
可选地,该时间长度计算模块42用于将所采集的多端口数据流量作为样本,输入预先建立的BP神经网络模型进行训练;根据该BP网络模型的输出值,计算每个端口访问共享缓存的时间长度。
可选地,该BP神经网络模型包括输入层、隐含层和输出层,该输入层与该隐含层之间预设有连接权值,该隐含层与该输出层之间预设有连接权值,该时间长度计算模块42还用于S1、给各连接权值分别赋一个区间(-1,1)内的随机数,设定误差函数e,给定计算精度值ε和最大学习次数M;S2、随机选取第k个输入样本并相应获得对应期望输出;S3、计算隐含层各神经元的输入和输出;S4、利用网络期望输出和实际输出,计算误差函数对输出层的各神经元的偏导数δo(k);S5、利用隐含层到输出层的连接权值、输出层的δo(k)和隐含层的输出计算误差函数对隐含层各神经元的偏导数δh(k);S6、利用输出层各神经元的δo(k)和隐含层各神经元的输出修正连接权值who(k);S7、利用隐含层各神经元的δh(k)和输入层各神经元的输入修正连接权值;S8、计算全局误差;S9、判断网络误差是否满足要求,当误差达到预设精度或学习次数大于预设最大次数,结束算法,否则,选取下一个学习样本及对应的期望输出,返回至S3,进入下一轮学习。
可选地,该装置还包括:报文监控模块,用于监测该多端口在轮询一次访问共享缓存后是否存在未发送报文;对于多端口中任一端口,当该端口在一次访问共享缓存后存在未发送报文时,触发BP网络模型重新训练,重新计算每个端口访问共享缓存的时间长度。
可选地,该装置还包括:数据流量监控模块,用于监测该多端口在访问共享缓存时,数据流量的变化值;对于多端口中任一端口,当该端口当前访问共享缓存的数据流量与上一次访问共享缓存的数据流量差值大于预设值时,触发BP网络模型重新训练,重新计算每个端口访问共享缓存的时间长度。
本发明实施例提供的装置,基于BP网络模型,将多端口的数据流量作为样本输入,准确计算出每个端口所分配的访问共享缓存的时间长度,合理利用缓存总线,保证各个端口与共享缓存之间数据传输的可靠性。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本申请的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请范围的所有变更和修改。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
Claims (10)
1.一种多端口访问共享缓存的方法,其特征在于,所述方法包括:
采集多端口数据流量;
根据所采集的多端口数据流量,计算每个端口访问共享缓存的时间长度;
每个端口在所分配的时间长度内依次访问共享缓存。
2.根据权利要求1所述的方法,其特征在于,根据所采集的多端口数据流量,计算每个端口访问共享缓存的时间长度包括:
将所采集的多端口数据流量作为样本,输入预先建立的BP神经网络模型进行训练;
根据所述BP网络模型的输出值,计算每个端口访问共享缓存的时间长度。
3.根据权利要求2所述的方法,其特征在于,所述BP神经网络模型包括输入层、隐含层和输出层,所述输入层与所述隐含层之间预设有连接权值,所述隐含层与所述输出层之间预设有连接权值,将所采集的多端口数据流量作为样本,输入预先建立的BP神经网络模型进行训练包括:
S1、给各连接权值分别赋一个区间(-1,1)内的随机数,设定误差函数e,给定计算精度值ε和最大学习次数M;
S2、随机选取第k个输入样本并相应获得对应期望输出;
S3、计算隐含层各神经元的输入和输出;
S4、利用网络期望输出和实际输出,计算误差函数对输出层的各神经元的偏导数δo(k);
S5、利用隐含层到输出层的连接权值、输出层的δo(k)和隐含层的输出计算误差函数对隐含层各神经元的偏导数δh(k);
S6、利用输出层各神经元的δo(k)和隐含层各神经元的输出修正连接权值who(k);
S7、利用隐含层各神经元的δh(k)和输入层各神经元的输入修正连接权值;
S8、计算全局误差;
S9、判断网络误差是否满足要求,当误差达到预设精度或学习次数大于预设最大次数,结束算法,否则,选取下一个学习样本及对应的期望输出,返回至S3,进入下一轮学习。
4.根据权利要求1所述的方法,其特征在于,所述方法还包括:
监测所述多端口在轮询一次访问共享缓存后是否存在未发送报文;
对于多端口中任一端口,当所述端口在一次访问共享缓存后存在未发送报文时,触发BP网络模型重新训练,重新计算每个端口访问共享缓存的时间长度。
5.根据权利要求1所述的方法,其特征在于,所述方法还包括:
监测所述多端口在访问共享缓存时数据流量的变化值;
对于多端口中任一端口,当所述端口当前访问共享缓存的数据流量与上一次访问共享缓存的数据流量差值大于预设值时,触发BP网络模型重新训练,重新计算每个端口访问共享缓存的时间长度。
6.一种多端口访问共享缓存的装置,其特征在于,所述装置包括:
数据流量采集模块,用于采集多端口数据流量;
时间长度计算模块,用于根据所采集的多端口数据流量,计算每个端口访问共享缓存的时间长度;
共享缓存访问模块,用于每个端口在所分配的时间长度内依次访问共享缓存。
7.根据权利要求6所述的装置,其特征在于,所述时间长度计算模块用于将所采集的多端口数据流量作为样本,输入预先建立的BP神经网络模型进行训练;根据所述BP网络模型的输出值,计算每个端口访问共享缓存的时间长度。
8.根据权利要求7所述的装置,其特征在于,所述BP神经网络模型包括输入层、隐含层和输出层,所述输入层与所述隐含层之间预设有连接权值,所述隐含层与所述输出层之间预设有连接权值,所述时间长度计算模块还用于S1、给各连接权值分别赋一个区间(-1,1)内的随机数,设定误差函数e,给定计算精度值ε和最大学习次数M;S2、随机选取第k个输入样本并相应获得对应期望输出;S3、计算隐含层各神经元的输入和输出;S4、利用网络期望输出和实际输出,计算误差函数对输出层的各神经元的偏导数δo(k);S5、利用隐含层到输出层的连接权值、输出层的δo(k)和隐含层的输出计算误差函数对隐含层各神经元的偏导数δh(k);S6、利用输出层各神经元的δo(k)和隐含层各神经元的输出修正连接权值who(k);S7、利用隐含层各神经元的δh(k)和输入层各神经元的输入修正连接权值;S8、计算全局误差;S9、判断网络误差是否满足要求,当误差达到预设精度或学习次数大于预设最大次数,结束算法,否则,选取下一个学习样本及对应的期望输出,返回至S3,进入下一轮学习。
9.根据权利要求6所述的装置,其特征在于,所述装置还包括:报文监控模块,用于监测所述多端口在轮询一次访问共享缓存后是否存在未发送报文;对于多端口中任一端口,当所述端口在一次访问共享缓存后存在未发送报文时,触发BP网络模型重新训练,重新计算每个端口访问共享缓存的时间长度。
10.根据权利要求6所述的装置,其特征在于,所述装置还包括:数据流量监控模块,用于监测所述多端口在访问共享缓存时数据流量的变化值;对于多端口中任一端口,当所述端口当前访问共享缓存的数据流量与上一次访问共享缓存的数据流量差值大于预设值时,触发BP网络模型重新训练,重新计算每个端口访问共享缓存的时间长度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410851929.5A CN105808454A (zh) | 2014-12-31 | 2014-12-31 | 一种多端口访问共享缓存的方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410851929.5A CN105808454A (zh) | 2014-12-31 | 2014-12-31 | 一种多端口访问共享缓存的方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105808454A true CN105808454A (zh) | 2016-07-27 |
Family
ID=56420542
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410851929.5A Pending CN105808454A (zh) | 2014-12-31 | 2014-12-31 | 一种多端口访问共享缓存的方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105808454A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107292387A (zh) * | 2017-05-31 | 2017-10-24 | 汪薇 | 一种基于bp识别蜂蜜质量的方法 |
CN107529696A (zh) * | 2017-05-11 | 2018-01-02 | 新华三云计算技术有限公司 | 一种存储资源访问控制方法及装置 |
CN111142808A (zh) * | 2020-04-08 | 2020-05-12 | 浙江欣奕华智能科技有限公司 | 存取设备及存取方法 |
CN111698789A (zh) * | 2019-03-15 | 2020-09-22 | 华为技术有限公司 | 通信系统中的调度方法、装置及存储介质 |
US11080200B2 (en) * | 2019-05-31 | 2021-08-03 | Apple Inc. | Allocation of machine learning tasks into a shared cache |
US11687789B2 (en) | 2019-05-31 | 2023-06-27 | Apple Inc. | Decomposition of machine learning operations |
US11836635B2 (en) | 2019-05-31 | 2023-12-05 | Apple Inc. | Mutable parameters for machine learning models during runtime |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5249283A (en) * | 1990-12-24 | 1993-09-28 | Ncr Corporation | Cache coherency method and apparatus for a multiple path interconnection network |
US5943684A (en) * | 1997-04-14 | 1999-08-24 | International Business Machines Corporation | Method and system of providing a cache-coherency protocol for maintaining cache coherency within a multiprocessor data-processing system |
CN101330433A (zh) * | 2007-06-20 | 2008-12-24 | 中兴通讯股份有限公司 | 基于传输网的以太网设备共享缓冲区管理方法和装置 |
CN101873269A (zh) * | 2010-06-24 | 2010-10-27 | 杭州华三通信技术有限公司 | 数据转发设备和端口缓存的分配方法 |
CN103955398A (zh) * | 2014-04-28 | 2014-07-30 | 浙江大学 | 一种基于处理器性能监控的虚拟机共生调度方法 |
-
2014
- 2014-12-31 CN CN201410851929.5A patent/CN105808454A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5249283A (en) * | 1990-12-24 | 1993-09-28 | Ncr Corporation | Cache coherency method and apparatus for a multiple path interconnection network |
US5943684A (en) * | 1997-04-14 | 1999-08-24 | International Business Machines Corporation | Method and system of providing a cache-coherency protocol for maintaining cache coherency within a multiprocessor data-processing system |
CN101330433A (zh) * | 2007-06-20 | 2008-12-24 | 中兴通讯股份有限公司 | 基于传输网的以太网设备共享缓冲区管理方法和装置 |
CN101873269A (zh) * | 2010-06-24 | 2010-10-27 | 杭州华三通信技术有限公司 | 数据转发设备和端口缓存的分配方法 |
CN103955398A (zh) * | 2014-04-28 | 2014-07-30 | 浙江大学 | 一种基于处理器性能监控的虚拟机共生调度方法 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107529696A (zh) * | 2017-05-11 | 2018-01-02 | 新华三云计算技术有限公司 | 一种存储资源访问控制方法及装置 |
CN107292387A (zh) * | 2017-05-31 | 2017-10-24 | 汪薇 | 一种基于bp识别蜂蜜质量的方法 |
CN111698789A (zh) * | 2019-03-15 | 2020-09-22 | 华为技术有限公司 | 通信系统中的调度方法、装置及存储介质 |
CN111698789B (zh) * | 2019-03-15 | 2022-05-13 | 华为技术有限公司 | 通信系统中的调度方法、装置及存储介质 |
US11080200B2 (en) * | 2019-05-31 | 2021-08-03 | Apple Inc. | Allocation of machine learning tasks into a shared cache |
US11687789B2 (en) | 2019-05-31 | 2023-06-27 | Apple Inc. | Decomposition of machine learning operations |
US11836635B2 (en) | 2019-05-31 | 2023-12-05 | Apple Inc. | Mutable parameters for machine learning models during runtime |
CN111142808A (zh) * | 2020-04-08 | 2020-05-12 | 浙江欣奕华智能科技有限公司 | 存取设备及存取方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105808454A (zh) | 一种多端口访问共享缓存的方法及装置 | |
CN108924198B (zh) | 一种基于边缘计算的数据调度方法、装置及系统 | |
CN109063777B (zh) | 网络流量分类方法、装置及实现装置 | |
CN103259696B (zh) | 网络带宽检测方法、装置及网络设备 | |
US20210056416A1 (en) | Distributed Deep Learning System | |
CN103248540B (zh) | 基于多分形小波模型的fpga网络流量发生系统及方法 | |
US12008468B2 (en) | Distributed deep learning system using a communication network for stochastic gradient descent calculations | |
CN108280207A (zh) | 一种构造完美哈希的方法 | |
CN104580005A (zh) | 一种精确按照流量模型发送随机长度报文的方法 | |
CN103970879A (zh) | 一种调整数据块存储位置的方法及系统 | |
CN109587072A (zh) | 分布式系统全局限速系统及方法 | |
CN101399708B (zh) | 一种建立网络性能模型的方法和设备 | |
CN106911740A (zh) | 一种缓存管理的方法和装置 | |
CN102801586B (zh) | QoS粒度与精度的自动化测试方法及装置 | |
Kim et al. | A highly-accurate and low-overhead prediction model for transfer throughput optimization | |
CN111340192A (zh) | 网络路径分配模型训练方法、路径分配方法、以及装置 | |
CN106850253A (zh) | 一种基于多状态网络的传输时间可靠性测量的方法 | |
CN107528731B (zh) | 应用于ns3并行仿真的网络分割优化算法 | |
CN111935767B (zh) | 一种网络仿真系统 | |
CN102571423A (zh) | 基于gshlpn的网络数据传输建模及性能分析方法 | |
CN107707483A (zh) | 一种负载均衡方法、系统、设备及计算机存储介质 | |
CN110109969A (zh) | 一种用于类不均衡应用的集成数据流挖掘方法和系统 | |
CN107395405A (zh) | 基于空间网络拓扑的测试环境模拟方法和装置 | |
CN105992280A (zh) | 一种数据处理方法及装置 | |
CN105007198B (zh) | 一种ip数据包乱序模拟仿真电路及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20160727 |
|
WD01 | Invention patent application deemed withdrawn after publication |