CN114500407B - 一种用于单组播混传的交换网络的调度方法 - Google Patents
一种用于单组播混传的交换网络的调度方法 Download PDFInfo
- Publication number
- CN114500407B CN114500407B CN202210036597.XA CN202210036597A CN114500407B CN 114500407 B CN114500407 B CN 114500407B CN 202210036597 A CN202210036597 A CN 202210036597A CN 114500407 B CN114500407 B CN 114500407B
- Authority
- CN
- China
- Prior art keywords
- multicast
- unicast
- transmission
- buffer
- neurons
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000005540 biological transmission Effects 0.000 title claims abstract description 147
- 238000000034 method Methods 0.000 title claims abstract description 45
- 210000002569 neuron Anatomy 0.000 claims abstract description 134
- 239000000872 buffer Substances 0.000 claims abstract description 125
- 238000013528 artificial neural network Methods 0.000 claims abstract description 67
- 230000005284 excitation Effects 0.000 claims description 10
- 230000000903 blocking effect Effects 0.000 claims description 6
- 230000009849 deactivation Effects 0.000 claims description 5
- 238000013507 mapping Methods 0.000 abstract description 19
- 230000002779 inactivation Effects 0.000 abstract description 9
- 230000001537 neural effect Effects 0.000 description 6
- 238000012360 testing method Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 210000004027 cell Anatomy 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000003139 buffering effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000002349 favourable effect Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 239000002699 waste material Substances 0.000 description 2
- 240000003537 Ficus benghalensis Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000008713 feedback mechanism Effects 0.000 description 1
- 235000003642 hunger Nutrition 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000037351 starvation Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L49/00—Packet switching elements
- H04L49/10—Packet switching elements characterised by the switching fabric construction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L43/00—Arrangements for monitoring or testing data switching networks
- H04L43/08—Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
- H04L43/0876—Network utilisation, e.g. volume of load or congestion level
- H04L43/0888—Throughput
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L47/00—Traffic control in data switching networks
- H04L47/70—Admission control; Resource allocation
- H04L47/80—Actions related to the user profile or the type of traffic
- H04L47/806—Broadcast or multicast traffic
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Environmental & Geological Engineering (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本申请公开了一种用于单组播混传的交换网络的调度方法,其主要的技术贡献在于将单组播混传交换网络完整地映射至神经网络运算的映射方法。特别重要的是对于可分裂扇出的组播传输的映射方法。具体地是指所有传输通道包括由所有单播缓存器中每一单播缓存器与对应输出端间的所有传输路径形成的单播通道以及由所有组播缓存器中每一组播缓存器与所有输出端间的所有传输路径形成的组播通道。本申请还定义了神经元的失活条件和冲突条件。通过以上技术方案,能够提高单组播传输的公平性,又能够保证大的吞吐量。
Description
技术领域
本申请涉及交换网络调度领域,具体涉及一种用于单组播混传的交换网络的调度方法。
背景技术
现代交换网络从单播交换网络演变至单组播混传的交换网络。这里所谓单播传输,是指将一个信息包从交换网络的一个输入端传输至指定的一个输出端;所谓组播传输,是指将一个信息包从交换网络的一个输入端传输至指定的多个输出端,这样,当信息发送端有多个目标地址发送请求时,只需要对网络输入端发送一个信息包就可以了。组播传输克服了单播传输向多个地址发送信息时数据复制的资源浪费,同时也克服了广播传输带宽时序资源浪费。
随着通讯技术的不断发展,新的应用情境不断涌现,对信息在交换网络传输提出了低延迟、高性能的要求。而一个能够同时满足单播传输和组播传输的交换网络,其传输是否能够保证公平性,满足Qos需求,取决于是否有良好的调度方案。
现有技术中,组播传输的调度方案都能够满足信息包分裂扇出传输要求。所谓分裂扇出传输是指允许在一个调度周期内将信息包从一个输入端传输至目标输出端中的一个或多个,直到全部目标输出端均已送达,才将信息包从缓存器中删除。如果不允许分裂扇出传输可能会导致一个信息包被滞留在缓存器中的时间过久,因此可能会降低交换网络的吞吐率。
对于传统的单组播混合传输的交换网络,每个输入端需要设置缓存器用于存储不能立刻传输的信息包。一般而言,对于单播传输,每个输入端开设一个VOQ队列用于存储单播信息包能够很好地解决单播信息包的线头阻塞问题,并且每个输入端的VOQ队列可以设置与输出端数量相等且一一对应的缓存器就可以满足需求。对于允许分裂扇出的组播传输,每个输入端可以设置一个或多个组播队列队列用于存储组播信息包,就可以使整个网络的吞吐率接近100%,并且也不会对组播信息包造成太严重的线头阻塞。
传统的针对单组播信息包混合传输的调度方案并没有从网络整体出发考虑每个信息包的调度,而是把单播信息包与组播信息包分开进行调度计算后再整合调度。这样的调度方式大大降低了交换网络的吞吐率,并且没有非常好地考虑各种高质量服务的需求。为了满足单播传输与组播传输的公平性,现有技术也有采用随机优先和轮流优先方案,虽然可以很好地克服一些信息包“饥饿”问题,但对于随机场景而言,单播信息包与组播信息包的载入量是未知的,无法预测什么时候哪种信息包的需求量更大,因此,这种针对单组播混传的公平性开发的方案可能在某些情况下造成更大的不公平。为了解决上述问题,现有技术中还有一些改进的调度方案采用了各种反馈机制,但在硬件上却难以实现。
因此,当前单组播混传的交换网络调度方法存在的主要缺陷是无法既考虑传输的公平性,又保证大的吞吐量。
当前,单播传输场景,存在利用时间连续神经网络运算进行调度的技术。例如2002年发表于IEEE Xplore,由Donghui Guo和Gerard Parr撰写的论文《A CNN MODEL FOR ATMCELLS SCHEDULING IN MIN SWITCHES》。该论文中,将单播交换网络映射至连续神经网络,并经过连续神经网络运算对交换网络进行调度。对于时间离散神经网络运算,则有1992年发表于INTERNATIONAL JOURNAL OF CIRCUIT THEORY AND APPLICATIONS,由HUBERTHARRER和JOSEF A.NOSSEK撰写的论文《DISCRETE-TIME CELLULAR NEURAL NETWORKS》以及2000年发表于INTERNATIONAL JOURNAL OF CIRCUIT THEORY AND APPLICATIONS,由Giuseppe Grassi撰写的论文《ON THE DESIGN OF DISCRETE-TIME CELLULAR NEURALNETWORKS WITH CIRCULANT MATRICES》。然而至今,现有技术中未发现有将单组播混传交换网络映射至神经网络运算进行调度的方案。
发明内容
本申请的目的在于克服背景技术中存在的上述缺陷或问题,提供一种用于单组播混传的交换网络的调度方法,其能够既考虑传输的公平性,又保证大的吞吐量。
为达成上述目的,采用如下技术方案:
第一技术方案,涉及一种用于单组播混传的交换网络的调度方法,所述交换网络传输的信息包括单播信息和组播信息,组播信息允许分裂扇出传输;所述交换网络设有若干输入端、若干输出端、若干内部节点;每个输入端与每个输出端间形成至少一条传输路径,所述传输路径经过内部节点;每个输入端设有若干缓存器,所有缓存器包括与各输出端数量相等且一一对应的若干单播缓存器和至少一个组播缓存器,单播缓存器用于缓存单播信息,组播缓存器用于缓存组播信息,信息缓存至缓存器形成信息队列;所述交换网络的调度方法为每间隔调度周期对交换网络进行调度;每个调度周期均包括以下步骤:S1:获取本次调度周期的期初所有缓存器的优先级;S2:通过神经网络运算确定本次调度周期需要接通的传输通道;具体地,所述神经网络运算中的神经元由所有传输通道映射而成;所述传输通道由传输路径和对应接通该传输路径的缓存器组成;定义由单播缓存器形成的传输通道为单播通道,定义由组播缓存器形成的传输通道为组播通道;所述所有传输通道包括由所有单播缓存器中每一单播缓存器与对应输出端间的所有传输路径形成的单播通道以及由所有组播缓存器中每一组播缓存器与所有输出端间的所有传输路径形成的组播通道;本次调度周期的期初,神经元除非符合以下失活条件之一否则为活跃神经元:经过失效的内部节点的传输通道所对应的神经元失活;缓存器未缓存信息的则与该缓存器有关的传输通道所对应的神经元失活;组播缓存器与该组播缓存器所对应的无接收任务输出端间形成的组播通道所对应的神经元失活;所述该组播缓存器所对应的无接收任务输出端是指无需接收该组播缓存器缓存的位于信息队列前端的信息的输出端;神经网络运算中,神经元的优先值为其所对应的传播通道所属缓存器的优先级;神经网络运算中,任意两个神经元除非符合以下冲突条件之一否则不构成冲突:若两个神经元所对应的传输通道指向同一输出端则构成冲突;若两个神经元所对应的传输通道经过同一内部节点则构成冲突;若两个神经元所对应的传输通道均为单播通道且涉及同一输入端则构成冲突;若两个神经元所对应的传输通道均为组播通道且涉及同一输入端的不同组播缓存器则构成冲突;若两个神经元分别对应单播通道和组播通道且涉及同一输入端则构成冲突;神经网络运算用于输出所有活跃神经元的输出值,所述输出值为第一值或第二值;输出值为第一值的神经元所对应的传输通道为本次调度周期需要接通的传输通道;S3:接通本次调度周期所有需要接通的传输通道以传输信息。
第二技术方案基于第一技术方案,其中,所述缓存器的优先级由该缓存器中已占用存储空间比值、位于信息队列前端的信息进入该缓存器的时长、该缓存器中位于信息队列前端的信息包的优先级中的一个或多个因素决定。
第三技术方案基于第一技术方案,其中,所述神经网络运算采用时间离散神经网络运算,所述第一值为+1,所述第二值为-1。
第四技术方案基于第三技术方案,其中,所述神经网络运算迭代输出每个活跃神经元的输出值,直至所有活跃神经元的输出值稳定;首次迭代前,允许对y0、R0、U0赋任意值;每次迭代中,每个活跃神经元的输出值通过以下公式确定:
xn=a*yn-1+Rn-1+I;
Un=zn-1;
其中,y0为首次迭代前该神经元的初始输出值;R0为首次迭代前其他神经元对该神经元的状态值的初始影响值;U0为首次迭代前与该神经元构成冲突的其他所有神经元对该神经元的初始影响值;n=0时,n意为首次迭代前;n>0时,n为迭代的序次;yn为第n次迭代结束时该神经元的输出值;Rn为第n次迭代时其他神经元对该神经元的状态值的影响值;Un为第n次迭代时与该神经元构成冲突的其他所有神经元对该神经元的影响值;zn为第n次迭代结束时与该神经元构成冲突的其他所有神经元中输出值为+1的神经元的数量;An为第n次迭代时神经网络对该神经元的激励值;xn为第n次迭代结束该神经元的状态值;I为该神经元的优先值;S为本次调度周期内活跃神经元的数量;a为常数,且a>0;b为常数,且b<0;e为常数,且e>0。
第五技术方案基于第四技术方案,其中,|b|>e。
第六技术方案基于第五技术方案,其中,交换网络阻塞越严重,设定b和e时,应使越小;交换网络阻塞越不严重,设定b和e时,应使/>越大。
第七技术方案基于第六技术方案,其中,y0=0、R0=0、U0=0。
第八技术方案基于第七技术方案,其中,首次迭代前,还允许对A0赋任意值,A0为首次迭代前神经网络对该神经元的初始激励值。
第九技术方案基于第八技术方案,其中,A0=0。
第十技术方案基于第一或第二技术方案,其中,所述神经网络运算采用连续神经网络运算。
相对于现有技术,上述方案具有的如下有益效果:
对于第一技术方案,其最核心的技术贡献是将单组播混传交换网络完整地映射至神经网络运算的映射方法。其中,特别重要的是对于可分裂扇出的组播传输的映射方法。具体地是指所有传输通道包括由所有单播缓存器中每一单播缓存器与对应输出端间的所有传输路径形成的单播通道以及由所有组播缓存器中每一组播缓存器与所有输出端间的所有传输路径形成的组播通道。可以看到,这里单播传输的映射方法与组播传输的映射方法是不同的。对于允许分裂扇出的组播传输,本申请是第一次将其映射到神经网络运算中。第一技术方案的第二个技术贡献是定义了神经元失活条件,其一是定义了由分裂扇出组播传输导致的失活条件,即组播缓存器与该组播缓存器所对应的无接收任务输出端间形成的组播通道所对应的神经元失活,其二是定义了由于硬件导致的内部节点失效引起的神经元失活,使交换网络具有更强的鲁棒性。以上技术贡献,使得单播通道与组播通道间具有了公平性。同时,基于神经网络运算的效能,辅以失活条件和冲突条件,能够保证交换网络的吞吐量,不使网络资源形成浪费。
第二技术方案涉及缓存器优先级的决定方法,其可以应对不同的网络需求。当网络需求为延迟和不丢包时,可以由该缓存器中已占用存储空间比值和/或位于信息队列前端的信息进入该缓存器的时长决定。当网络需求为保证时效应较高的信息包的传输时,可以由位于信息队列前端的信息包的优先级决定。
第三技术方案涉及将时间离散神经网络运算运用至经过第一技术方案映射后的交换网络调度方法。这是首次将时间离散神经网络运算用来解决交换网络调度问题。
第四技术方案为时间离散神经网络运算的具体方法。其中,最重要的技术贡献在于引入了An,An为第n次迭代时神经网络对该神经元的激励值。该激励值的加入使得在某些优先值较低的神经元本已在头几次迭代时被筛掉又未与其他神经元发生冲突时,能够提高本来未被选中的神经元的Rn值和xn值,从而更有利于被时间离散神经网络运算选中,进一步有效增加了交换网络的吞吐量。
第六技术方案中,确定了b和e的设定方法,从而有利于从全局把握通过设定来进一步提高交换网络的吞吐量。具体机制是,在阻塞严重的交换网络,优先级低的传输通道越不容易被选中,因此,在/>越小的情况下,对这些优先级低的传输通道的激励就越大,越可能增加交换网络的吞吐量。
第七、第八、第九技术方案涉及y0、R0、U0和A0的初始值设定。y0、R0、U0和A0可以由上一调度周期的相应值决定,也可以在本次调度周期开始时,将寄存器中存储的上一调度周期的相应值清除并重新进行赋值。一般而言,如果重新赋值,可以使时间离散神经网络运算的迭代次数降低。
第十技术方案涉及采用时间连续神经网络运算来实现交换网络的调度。正如在背景技术所述,论文《A CNN MODEL FOR ATM CELLS SCHEDULING IN MIN SWITCHES》已经公开了在单播交换网络中运用时间连续神经网络运算进行调度的方案。在完成第一技术方案的映射后,时间连续神经网络运算的算法已经属于现有技术,本领域技术人员可以很容易地将其与第一技术方案的映射结合,解决本申请想要解决的技术问题。
本申请另一个非常重要的技术效果在于本申请的技术方案可以适用于各种性质的交换网络,对交换网络本身的拓扑结构没有特殊要求。
附图说明
为了更清楚地说明实施例的技术方案,下面简要介绍所需要使用的附图:
图1为实施例一中交换网络结构示意图;
主要附图标记说明:
交换网络10,输入端1,输出端2,交换器3,内部节点4,单播缓存器5,组播缓存器6。
具体实施方式
权利要求书和说明书中,除非另有限定,术语“第一”、“第二”或“第三”等,都是为了区别不同对象,而不是用于描述特定顺序。
权利要求书和说明书中,除非另有限定,术语“中心”、“横向”、“纵向”、“水平”、“垂直”、“顶”、“底”、“内”、“外”、“上”、“下”、“前”、“后”、“左”、“右”、“顺时针”、“逆时针”等指示的方位或位置关系乃基于附图所示的方位和位置关系,且仅是为了便于简化描述,而不是暗示所指的装置或元件必须具有特定的方位或以特定的方位构造和操作。
权利要求书和说明书中,除非另有限定,术语“固接”或“固定连接”,应作广义理解,即两者之间没有位移关系和相对转动关系的任何连接方式,也就是说包括不可拆卸地固定连接、可拆卸地固定连接、连为一体以及通过其他装置或元件固定连接。
权利要求书和说明书中,除非另有限定,术语“包括”、“具有”以及它们的变形,意为“包含但不限于”。
权利要求书和说明书中,除非另有限定,术语“内部节点”的准确含义是包含符合以下条件的交换网络中的连接点:该连接点具有至少两个输入与一个输出;例如,对于bayan型交换网络来说,内部节点并不是交换器(crossover),而是交换器中的作为输出口的连接点,只要该连接点符合以上定义,且不为交换网络的输入端或输出端即可。
权利要求书和说明书中,除非另有限定,术语“所有活跃神经元的输出值稳定”是指本次迭代的所有神经元的输出值与上次迭代的所有神经元的输出值均相等,则迭代结束,本次迭代的输出值为神经网络运算的输出值。
下面将结合附图,对实施例中的技术方案进行清楚、完整地描述。
实施例一
参见图1,本实施例中的交换网络10属于单组播混传的交换网络,具体地说,本实施例的交换网络10传输的信息包括单播信息和组播信息,其中,组播信息允许分裂扇出传输。
图1示出了实施例一中交换网络10的结构图。如图1所示,本实施例中的交换网络10为8*8banyan网络,其有八个输入端1、八个输出端2和十二个交换器3。每个交换器3中均有两个输入口和两个输出口,每个输入口均与两个输出口连通,其中,所有交换器3中的所有输出口均符合本申请对内部节点4的定义,因此,本实施例中,共有24个内部节点4。本实施例中的交换网络10中,每个输入端1与每个输出端2间形成一条传输路径,总共形成六十四条传输路径。在其他实施例中,每个输入端1与每个输出端2间允许形成多条传输路径。每条传输路径均要经过内部节点4,本实施例中,每条传输路径均要经过三个内部节点4。通过控制各交换器3,可以控制传输路径的通断。本实施例中,每个输入端1设有九个缓存器。所有缓存器包括与各输出端2数量相等且一一对应的八个单播缓存器5和一个组播缓存器6,在其他实施例中,每个输入端1可以设有多个组播缓存器6。单播缓存器5用于缓存单播信息,组播缓存器6用于缓存组播信息。信息缓存至缓存器形成信息队列。
本实施例中,交换网络10的调度方法为每间隔调度周期对交换网络10进行调度。在每个调度周期均包括以下步骤:
S1:获取本次调度周期的期初所有缓存器的优先级;缓存器的优先级所述缓存器的优先级由该缓存器中已占用存储空间比值、位于信息队列前端的信息进入该缓存器的时长、该缓存器中位于信息队列前端的信息包的优先级中的一个或多个因素决定。本实施例中,由于网络需求为延迟和不丢包,因此缓存器的优先级综合考虑该缓存器中已占用存储空间比值、位于信息队列前端的信息进入该缓存器的时长两个因素。在其他实施例中,特别是当网络需求为保证时效应较高的信息包的传输时,可以由位于信息队列前端的信息包的优先级决定。
S2:通过神经网络运算确定本次调度周期需要接通的传输通道;
具体地,神经网络运算中的神经元由所有传输通道映射而成;传输通道由传输路径和对应接通该传输路径的缓存器组成;定义由单播缓存器5形成的传输通道为单播通道,定义由组播缓存器6形成的传输通道为组播通道;所有传输通道包括由所有单播缓存器5中每一单播缓存器5与对应输出端2间的所有传输路径形成的单播通道以及由所有组播缓存器6中每一组播缓存器6与所有输出端2间的所有传输路径形成的组播通道;本实施例中,每个输入端1共有八个单播缓存器5,每个单播缓存器对应一条单播通道,八个输入端1共有为六十四条单播通道;本实施例中,每个输入端有一个组播缓存器6,每个组播缓存器6对应各输出端1共有八条组播通道,八个输入端1共有六十四条组播通道。因此,本实施例中,传输通道的数量为一百二十八条,神经网络运算中的神经元对应的也有一百二十八个。
本次调度周期的期初,神经元除非符合以下失活条件之一否则为活跃神经元:经过失效的内部节点4的传输通道所对应的神经元失活;缓存器未缓存信息的则与该缓存器有关的传输通道所对应的神经元失活;组播缓存器6与该组播缓存器6所对应的无接收任务输出端2间形成的组播通道所对应的神经元失活;该组播缓存器6所对应的无接收任务输出端2是指无需接收该组播缓存器6缓存的位于信息队列前端的信息的输出端2。
神经网络运算中,神经元的优先值为其所对应的传播通道所属缓存器的优先级。
神经网络运算中,任意两个神经元是否构成冲突是由交换网络10的结构决定的。具体地,任意两个神经元除非符合以下冲突条件之一否则不构成冲突:若两个神经元所对应的传输通道指向同一输出端2则构成冲突;若两个神经元所对应的传输通道经过同一内部节点4则构成冲突;若两个神经元所对应的传输通道均为单播通道且涉及同一输入端1则构成冲突;若两个神经元所对应的传输通道均为组播通道且涉及同一输入端1的不同组播缓存器6则构成冲突;若两个神经元分别对应单播通道和组播通道且涉及同一输入端1则构成冲突;本实施例中,由于每个输入端1只有一个组播缓存器6,因此,冲突条件之一的两个神经元所对应的传输通道均为组播通道且涉及同一输入端1的不同组播缓存器6则构成冲突的规则不适用。而在其他实施例中,如果每个输入端1有两个以上的组播缓存器6,则该冲突条件应当适用。
神经网络运算用于输出所有活跃神经元的输出值,所述输出值为第一值或第二值;输出值为第一值的神经元所对应的传输通道为本次调度周期需要接通的传输通道;本实施例中,所述第一值为+1,所述第二值为-1。
本实施例中,神经网络运算采用时间离散神经网络运算,具体地,所述神经网络运算迭代输出每个活跃神经元的输出值,直至所有活跃神经元的输出值稳定;这里,“所有活跃神经元的输出值稳定”是指本次迭代的所有神经元的输出值与上次迭代的所有神经元的输出值均相等,则迭代结束,本次迭代的输出值为神经网络运算的输出值。首次迭代前,允许对y0、R0、U0赋任意值,也可以对A0赋任意值;每次迭代中,每个活跃神经元的输出值通过以下公式确定:
xn=a*yn-1+Rn-1+I;
Un=zn-1;
其中:
y0为首次迭代前该神经元的初始输出值;R0为首次迭代前其他神经元对该神经元的状态值的初始影响值;U0为首次迭代前与该神经元构成冲突的其他所有神经元对该神经元的初始影响值;A0为首次迭代前神经网络对该神经元的初始激励值;n=0时,n意为首次迭代前;n>0时,n为迭代的序次;yn为第n次迭代结束时该神经元的输出值;Rn为第n次迭代时其他神经元对该神经元的状态值的影响值;Un为第n次迭代时与该神经元构成冲突的其他所有神经元对该神经元的影响值;zn为第n次迭代结束时与该神经元构成冲突的其他所有神经元中输出值为+1的神经元的数量;An为第n次迭代时神经网络对该神经元的激励值;xn为第n次迭代结束该神经元的状态值;I为该神经元的优先值;S为本次调度周期内活跃神经元的数量;a为常数,且a>0;b为常数,且b<0;e为常数,且e>0。一般地,在设定b和e时,可以使|b|>e。交换网络阻塞越严重,设定b和e时,应使越小;交换网络阻塞越不严重,设定b和e时,应使/>越大。在本实施例中,a=1;b=-0.25;e=0.015625。对于本领域技术人员来说,在了解和掌握了本申请的技术构思后,选取适当的a、b和e值并不困难。本实施例中,y0、R0、U0和A0在每次调度周期期初赋值为0。
S3:接通本次调度周期所有需要接通的传输通道以传输信息。具体地,由控制器控制交换器3接通传输通道,输入端1将对应的缓存器中的位于信息队列前端的信息通过该传输通道的传输路径发送至对应输出端2。
申请人对本实施例中的交换网络10的调度方法进行了测试,以测试单播传输与组播传输的公平性和整个交换网络10的吞吐率。具体地,吞吐率的计算方式为随机抽取若干次调度结果,对信息包被成功传输的输出端2进行叠加,对每次调度前,位于缓存器中信息队列前端的信息所请求到达的输出端2进行叠加,取两者间的比值为吞吐率。单播传输与组播传输的公平性则采用单组播周期延迟差评价。所谓单组播周期延迟差,是指随机抽取的若干次调度周期,计算所有单播缓存器5中位于队列前端的信息包已跨越最大调度周期数与所有组播缓存器6中位于队列前端的信息包已跨越最大调度周期数之间的差值的绝对值。
测试条件为随机产生组播信息包、单播信息包,单播信息包输入与输出随机,组播信息包输入与输出组合随机,信息包产生的时间密度随机,但保证高速运转。
在以上测试条件下,获得的吞吐率稳定在100%,单组播周期延迟差为3,每个调度周期平均迭代次数为38.1,且迭代次数不会随着网络神经元数量增大而显著增大。
从以上实施例和测试结果可以看出,本实施例中的技术方案主要技术贡献是将单组播混传交换网络完整地映射至神经网络运算的映射方法。其中,特别重要的是对于可分裂扇出的组播传输的映射方法。具体地是指所有传输通道包括由所有单播缓存器中每一单播缓存器与对应输出端间的所有传输路径形成的单播通道以及由所有组播缓存器中每一组播缓存器与所有输出端间的所有传输路径形成的组播通道。可能看到,这里单播传输的映射方法与组播传输的映射方法是不同的。对于允许分裂扇出的组播传输,本申请是第一次将其映射到神经网络运算中。第一技术方案的第二个技术贡献是定义了神经元失活条件,其一是定义了由分裂扇出组播传输导致的失活条件,即组播缓存器与该组播缓存器所对应的无接收任务输出端间形成的组播通道所对应的神经元失活,其二是定义了由于硬件导致的内部节点失效引起的神经元失活,使交换网络具有更强的鲁棒性。以上技术贡献,使得单播通道与组播通道间具有了公平性。同时,基于神经网络运算的效能,辅以失活条件和冲突条件,能够保证交换网络的吞吐量,不使网络资源形成浪费。本实施例将时间离散神经网络运算运用至经过映射后的交换网络调度方法。这是首次将时间离散神经网络运算用来解决交换网络调度问题。本实施例公开了时间离散神经网络的具体方法,其中,最重要的技术贡献在于引入了An,An为第n次迭代时神经网络对该神经元的激励值。该激励值的加入使得在某些优先值较低的神经元本已在头几次迭代时被筛掉又未与其他神经元发生冲突时,能够提高本来未被选中的神经元的Rn值和xn值,从而更有利于被时间离散神经网络运算选中,进一步有效增加了交换网络的吞吐量。本实施例通过b和e的设定方法,从而有利于从全局把握通过设定来进一步提高交换网络的吞吐量。具体机制是,在阻塞严重的交换网络,优先级低的传输通道越不容易被选中,因此,在/>越小的情况下,对这些优先级低的传输通道的激励就越大,越可能增加交换网络的吞吐量。本申请中,y0、R0、U0和A0可以由上一调度周期的相应值决定,也可以在本次调度周期开始时,将寄存器中存储的上一调度周期的相应值清除并重新进行赋值。本实施例中,对y0、R0、U0和A0均重新赋值,可以使时间离散神经网络运算的迭代次数降低。
实施例二
实施例二与实施例一唯一的区别是采用《A CNN MODEL FOR ATM CELLSSCHEDULING IN MIN SWITCHES》已经公开的时间连续神经网络运算。本领域技术人员可以很容易地将其与第一技术方案的映射结合,解决本申请想要解决的技术问题。
需要注意的是,虽然实施例一和实施例二的交换网络10为banyan网络,但本申请的调度方法对各种性质的交换网络均能适用,对交换网络10本身的拓扑结构没有特殊要求。
上述说明书和实施例的描述,用于解释本申请的保护范围,但并不构成对本申请保护范围的限定。
Claims (10)
1.一种用于单组播混传的交换网络的调度方法,其特征是:
所述交换网络传输的信息包括单播信息和组播信息,组播信息允许分裂扇出传输;
所述交换网络设有若干输入端、若干输出端、若干内部节点;每个输入端与每个输出端间形成至少一条传输路径,所述传输路径经过内部节点;
每个输入端设有若干缓存器,所有缓存器包括与各输出端数量相等且一一对应的若干单播缓存器和至少一个组播缓存器,单播缓存器用于缓存单播信息,组播缓存器用于缓存组播信息,信息缓存至缓存器形成信息队列;
所述交换网络的调度方法为每间隔调度周期对交换网络进行调度;
每个调度周期均包括以下步骤:
S1:获取本次调度周期的期初所有缓存器的优先级;
S2:通过神经网络运算确定本次调度周期需要接通的传输通道;具体地,
所述神经网络运算中的神经元由所有传输通道映射而成;所述传输通道由传输路径和对应接通该传输路径的缓存器组成;定义由单播缓存器形成的传输通道为单播通道,定义由组播缓存器形成的传输通道为组播通道;所述所有传输通道包括由所有单播缓存器中每一单播缓存器与对应输出端间的所有传输路径形成的单播通道以及由所有组播缓存器中每一组播缓存器与所有输出端间的所有传输路径形成的组播通道;
本次调度周期的期初,神经元除非符合以下失活条件之一否则为活跃神经元:经过失效的内部节点的传输通道所对应的神经元失活;缓存器未缓存信息的则与该缓存器有关的传输通道所对应的神经元失活;组播缓存器与该组播缓存器所对应的无接收任务输出端间形成的组播通道所对应的神经元失活;所述该组播缓存器所对应的无接收任务输出端是指无需接收该组播缓存器缓存的位于信息队列前端的信息的输出端;
神经网络运算中,神经元的优先值为其所对应的传播通道所属缓存器的优先级;
神经网络运算中,任意两个神经元除非符合以下冲突条件之一否则不构成冲突:若两个神经元所对应的传输通道指向同一输出端则构成冲突;若两个神经元所对应的传输通道经过同一内部节点则构成冲突;若两个神经元所对应的传输通道均为单播通道且涉及同一输入端则构成冲突;若两个神经元所对应的传输通道均为组播通道且涉及同一输入端的不同组播缓存器则构成冲突;若两个神经元分别对应单播通道和组播通道且涉及同一输入端则构成冲突;
神经网络运算用于输出所有活跃神经元的输出值,所述输出值为第一值或第二值;输出值为第一值的神经元所对应的传输通道为本次调度周期需要接通的传输通道;
S3:接通本次调度周期所有需要接通的传输通道以传输信息。
2.如权利要求1所述的一种用于单组播混传的交换网络的调度方法,所述缓存器的优先级由该缓存器中已占用存储空间比值、位于信息队列前端的信息进入该缓存器的时长、该缓存器中位于信息队列前端的信息包的优先级中的一个或多个因素决定。
3.如权利要求1所述的一种用于单组播混传的交换网络的调度方法,其特征是,所述神经网络运算采用时间离散神经网络运算,所述第一值为+1,所述第二值为-1。
4.如权利要求3所述的一种用于单组播混传的交换网络的调度方法,其特征是,所述神经网络运算迭代输出每个活跃神经元的输出值,直至所有活跃神经元的输出值稳定;首次迭代前,允许对y0、R0、U0赋任意值;每次迭代中,每个活跃神经元的输出值通过以下公式确定:
xn=a*yn-1+Rn-1+I;
Un=zn-1;
其中:
y0为首次迭代前该神经元的初始输出值;
R0为首次迭代前其他神经元对该神经元的状态值的初始影响值;
U0为首次迭代前与该神经元构成冲突的其他所有神经元对该神经元的初始影响值;
n=0时,n意为首次迭代前;n>0时,n为迭代的序次;
yn为第n次迭代结束时该神经元的输出值;
Rn为第n次迭代时其他神经元对该神经元的状态值的影响值;
Un为第n次迭代时与该神经元构成冲突的其他所有神经元对该神经元的影响值;
zn为第n次迭代结束时与该神经元构成冲突的其他所有神经元中输出值为+1的神经元的数量;
An为第n次迭代时神经网络对该神经元的激励值;
xn为第n次迭代结束该神经元的状态值;
I为该神经元的优先值;
S为本次调度周期内活跃神经元的数量;
a为常数,且a>0;
b为常数,且b<0;
e为常数,且e>0。
5.如权利要求4所述的一种用于单组播混传的交换网络的调度方法,其特征是,|b|>e。
6.如权利要求5所述的一种用于单组播混传的交换网络的调度方法,其中,交换网络阻塞越严重,设定b和e时,应使越小;交换网络阻塞越不严重,设定b和e时,应使/>越大。
7.如权利要求6所述的一种用于单组播混传的交换网络的调度方法,其特征是,y0=0、R0=0、U0=0。
8.如权利要求7所述的一种用于单组播混传的交换网络的调度方法,其特征是,首次迭代前,还允许对A0赋任意值,A0为首次迭代前神经网络对该神经元的初始激励值。
9.如权利要求8所述的一种用于单组播混传的交换网络的调度方法,其特征是,A0=0。
10.如权利要求1或2所述的一种用于单组播混传的交换网络的调度方法,其特征是,所述神经网络运算采用连续神经网络运算。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210036597.XA CN114500407B (zh) | 2022-01-13 | 2022-01-13 | 一种用于单组播混传的交换网络的调度方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210036597.XA CN114500407B (zh) | 2022-01-13 | 2022-01-13 | 一种用于单组播混传的交换网络的调度方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114500407A CN114500407A (zh) | 2022-05-13 |
CN114500407B true CN114500407B (zh) | 2023-10-27 |
Family
ID=81511022
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210036597.XA Active CN114500407B (zh) | 2022-01-13 | 2022-01-13 | 一种用于单组播混传的交换网络的调度方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114500407B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101488913A (zh) * | 2008-12-10 | 2009-07-22 | 南京邮电大学 | 基于双层递归神经网络的应用层组播树构建方法 |
EP3349487A1 (en) * | 2017-01-12 | 2018-07-18 | ASUSTek Computer Inc. | Method and apparatus of handling interest indication in a wireless communication system |
CN110633786A (zh) * | 2018-06-21 | 2019-12-31 | 英特尔公司 | 用于确定人工神经网络拓扑的技术 |
CN112260950A (zh) * | 2020-10-19 | 2021-01-22 | 桂林电子科技大学 | 一种基于业务优先级区分的云存储网络组播流调度方法 |
CN113490157A (zh) * | 2021-07-06 | 2021-10-08 | 香港中文大学(深圳) | 一种基于深度强化学习的组播调度方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IL150281A0 (en) * | 2002-06-18 | 2002-12-01 | Teracross Ltd | Method and system for multicast and unicast scheduling |
-
2022
- 2022-01-13 CN CN202210036597.XA patent/CN114500407B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101488913A (zh) * | 2008-12-10 | 2009-07-22 | 南京邮电大学 | 基于双层递归神经网络的应用层组播树构建方法 |
EP3349487A1 (en) * | 2017-01-12 | 2018-07-18 | ASUSTek Computer Inc. | Method and apparatus of handling interest indication in a wireless communication system |
CN110633786A (zh) * | 2018-06-21 | 2019-12-31 | 英特尔公司 | 用于确定人工神经网络拓扑的技术 |
CN112260950A (zh) * | 2020-10-19 | 2021-01-22 | 桂林电子科技大学 | 一种基于业务优先级区分的云存储网络组播流调度方法 |
CN113490157A (zh) * | 2021-07-06 | 2021-10-08 | 香港中文大学(深圳) | 一种基于深度强化学习的组播调度方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114500407A (zh) | 2022-05-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Prabhakar et al. | On the speedup required for combined input-and output-queued switching | |
US6356546B1 (en) | Universal transfer method and network with distributed switch | |
McKeown et al. | A quantitative comparison of iterative scheduling algorithms for input-queued switches | |
US6580721B1 (en) | Routing and rate control in a universal transfer mode network | |
McKeown | A fast switched backplane for a gigabit switched router | |
EP1002402B1 (en) | Trunking support in a high performance network device | |
US8467294B2 (en) | Dynamic load balancing for port groups | |
JP3846880B2 (ja) | データ・パケット・スイッチのマルチキャスト・トラフィックを制御するためのシステム及び方法 | |
US7680097B1 (en) | Network switch having a hybrid switch architecture | |
US7082132B1 (en) | Universal edge node | |
Lotfi-Kamran et al. | BARP-a dynamic routing protocol for balanced distribution of traffic in NoCs | |
US20180278550A1 (en) | Buffer Optimization in Modular Switches | |
JP5034491B2 (ja) | スイッチにおける優先度帯域制御方法 | |
Chrysos et al. | Weighted fairness in buffered crossbar scheduling | |
EP3295628A1 (en) | Dynamic protection of shared memory used by output queues in a network device | |
CN114500407B (zh) | 一种用于单组播混传的交换网络的调度方法 | |
Yang et al. | An efficient scheduling algorithm for CIOQ switches with space-division multiplexing expansion | |
Shen et al. | Design and performance analysis of a practical load-balanced switch | |
US20040017810A1 (en) | Multicast packet queuing | |
Escudero-Sahuquillo et al. | FBICM: Efficient congestion management for high-performance networks using distributed deterministic routing | |
US20180241688A1 (en) | Distributing and Rate Limiting Packets Among Multiple Paths in a Single Stage Switching Topology to a Reordering Node | |
Gómez et al. | VOQ/sub SW: a methodology to reduce HOL blocking in InfiniBand networks | |
Hyatt et al. | Congestion control in the wormhole-routed torus with clustering and delayed deflection | |
KR100368439B1 (ko) | 이중 스위칭 평면을 갖는 패킷 스위치에서 전송 순서 보장 방법 및 장치 | |
JP2007510378A (ja) | ノンブロッキングで決定論的マルチレートユニキャストパケットスケジューリング |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |