CN114500407B - 一种用于单组播混传的交换网络的调度方法 - Google Patents

一种用于单组播混传的交换网络的调度方法 Download PDF

Info

Publication number
CN114500407B
CN114500407B CN202210036597.XA CN202210036597A CN114500407B CN 114500407 B CN114500407 B CN 114500407B CN 202210036597 A CN202210036597 A CN 202210036597A CN 114500407 B CN114500407 B CN 114500407B
Authority
CN
China
Prior art keywords
multicast
unicast
transmission
buffer
neurons
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210036597.XA
Other languages
English (en)
Other versions
CN114500407A (zh
Inventor
郭东辉
马钦鸿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen University
Original Assignee
Xiamen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen University filed Critical Xiamen University
Priority to CN202210036597.XA priority Critical patent/CN114500407B/zh
Publication of CN114500407A publication Critical patent/CN114500407A/zh
Application granted granted Critical
Publication of CN114500407B publication Critical patent/CN114500407B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L49/00Packet switching elements
    • H04L49/10Packet switching elements characterised by the switching fabric construction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/08Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
    • H04L43/0876Network utilisation, e.g. volume of load or congestion level
    • H04L43/0888Throughput
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/70Admission control; Resource allocation
    • H04L47/80Actions related to the user profile or the type of traffic
    • H04L47/806Broadcast or multicast traffic

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Environmental & Geological Engineering (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

本申请公开了一种用于单组播混传的交换网络的调度方法,其主要的技术贡献在于将单组播混传交换网络完整地映射至神经网络运算的映射方法。特别重要的是对于可分裂扇出的组播传输的映射方法。具体地是指所有传输通道包括由所有单播缓存器中每一单播缓存器与对应输出端间的所有传输路径形成的单播通道以及由所有组播缓存器中每一组播缓存器与所有输出端间的所有传输路径形成的组播通道。本申请还定义了神经元的失活条件和冲突条件。通过以上技术方案,能够提高单组播传输的公平性,又能够保证大的吞吐量。

Description

一种用于单组播混传的交换网络的调度方法
技术领域
本申请涉及交换网络调度领域,具体涉及一种用于单组播混传的交换网络的调度方法。
背景技术
现代交换网络从单播交换网络演变至单组播混传的交换网络。这里所谓单播传输,是指将一个信息包从交换网络的一个输入端传输至指定的一个输出端;所谓组播传输,是指将一个信息包从交换网络的一个输入端传输至指定的多个输出端,这样,当信息发送端有多个目标地址发送请求时,只需要对网络输入端发送一个信息包就可以了。组播传输克服了单播传输向多个地址发送信息时数据复制的资源浪费,同时也克服了广播传输带宽时序资源浪费。
随着通讯技术的不断发展,新的应用情境不断涌现,对信息在交换网络传输提出了低延迟、高性能的要求。而一个能够同时满足单播传输和组播传输的交换网络,其传输是否能够保证公平性,满足Qos需求,取决于是否有良好的调度方案。
现有技术中,组播传输的调度方案都能够满足信息包分裂扇出传输要求。所谓分裂扇出传输是指允许在一个调度周期内将信息包从一个输入端传输至目标输出端中的一个或多个,直到全部目标输出端均已送达,才将信息包从缓存器中删除。如果不允许分裂扇出传输可能会导致一个信息包被滞留在缓存器中的时间过久,因此可能会降低交换网络的吞吐率。
对于传统的单组播混合传输的交换网络,每个输入端需要设置缓存器用于存储不能立刻传输的信息包。一般而言,对于单播传输,每个输入端开设一个VOQ队列用于存储单播信息包能够很好地解决单播信息包的线头阻塞问题,并且每个输入端的VOQ队列可以设置与输出端数量相等且一一对应的缓存器就可以满足需求。对于允许分裂扇出的组播传输,每个输入端可以设置一个或多个组播队列队列用于存储组播信息包,就可以使整个网络的吞吐率接近100%,并且也不会对组播信息包造成太严重的线头阻塞。
传统的针对单组播信息包混合传输的调度方案并没有从网络整体出发考虑每个信息包的调度,而是把单播信息包与组播信息包分开进行调度计算后再整合调度。这样的调度方式大大降低了交换网络的吞吐率,并且没有非常好地考虑各种高质量服务的需求。为了满足单播传输与组播传输的公平性,现有技术也有采用随机优先和轮流优先方案,虽然可以很好地克服一些信息包“饥饿”问题,但对于随机场景而言,单播信息包与组播信息包的载入量是未知的,无法预测什么时候哪种信息包的需求量更大,因此,这种针对单组播混传的公平性开发的方案可能在某些情况下造成更大的不公平。为了解决上述问题,现有技术中还有一些改进的调度方案采用了各种反馈机制,但在硬件上却难以实现。
因此,当前单组播混传的交换网络调度方法存在的主要缺陷是无法既考虑传输的公平性,又保证大的吞吐量。
当前,单播传输场景,存在利用时间连续神经网络运算进行调度的技术。例如2002年发表于IEEE Xplore,由Donghui Guo和Gerard Parr撰写的论文《A CNN MODEL FOR ATMCELLS SCHEDULING IN MIN SWITCHES》。该论文中,将单播交换网络映射至连续神经网络,并经过连续神经网络运算对交换网络进行调度。对于时间离散神经网络运算,则有1992年发表于INTERNATIONAL JOURNAL OF CIRCUIT THEORY AND APPLICATIONS,由HUBERTHARRER和JOSEF A.NOSSEK撰写的论文《DISCRETE-TIME CELLULAR NEURAL NETWORKS》以及2000年发表于INTERNATIONAL JOURNAL OF CIRCUIT THEORY AND APPLICATIONS,由Giuseppe Grassi撰写的论文《ON THE DESIGN OF DISCRETE-TIME CELLULAR NEURALNETWORKS WITH CIRCULANT MATRICES》。然而至今,现有技术中未发现有将单组播混传交换网络映射至神经网络运算进行调度的方案。
发明内容
本申请的目的在于克服背景技术中存在的上述缺陷或问题,提供一种用于单组播混传的交换网络的调度方法,其能够既考虑传输的公平性,又保证大的吞吐量。
为达成上述目的,采用如下技术方案:
第一技术方案,涉及一种用于单组播混传的交换网络的调度方法,所述交换网络传输的信息包括单播信息和组播信息,组播信息允许分裂扇出传输;所述交换网络设有若干输入端、若干输出端、若干内部节点;每个输入端与每个输出端间形成至少一条传输路径,所述传输路径经过内部节点;每个输入端设有若干缓存器,所有缓存器包括与各输出端数量相等且一一对应的若干单播缓存器和至少一个组播缓存器,单播缓存器用于缓存单播信息,组播缓存器用于缓存组播信息,信息缓存至缓存器形成信息队列;所述交换网络的调度方法为每间隔调度周期对交换网络进行调度;每个调度周期均包括以下步骤:S1:获取本次调度周期的期初所有缓存器的优先级;S2:通过神经网络运算确定本次调度周期需要接通的传输通道;具体地,所述神经网络运算中的神经元由所有传输通道映射而成;所述传输通道由传输路径和对应接通该传输路径的缓存器组成;定义由单播缓存器形成的传输通道为单播通道,定义由组播缓存器形成的传输通道为组播通道;所述所有传输通道包括由所有单播缓存器中每一单播缓存器与对应输出端间的所有传输路径形成的单播通道以及由所有组播缓存器中每一组播缓存器与所有输出端间的所有传输路径形成的组播通道;本次调度周期的期初,神经元除非符合以下失活条件之一否则为活跃神经元:经过失效的内部节点的传输通道所对应的神经元失活;缓存器未缓存信息的则与该缓存器有关的传输通道所对应的神经元失活;组播缓存器与该组播缓存器所对应的无接收任务输出端间形成的组播通道所对应的神经元失活;所述该组播缓存器所对应的无接收任务输出端是指无需接收该组播缓存器缓存的位于信息队列前端的信息的输出端;神经网络运算中,神经元的优先值为其所对应的传播通道所属缓存器的优先级;神经网络运算中,任意两个神经元除非符合以下冲突条件之一否则不构成冲突:若两个神经元所对应的传输通道指向同一输出端则构成冲突;若两个神经元所对应的传输通道经过同一内部节点则构成冲突;若两个神经元所对应的传输通道均为单播通道且涉及同一输入端则构成冲突;若两个神经元所对应的传输通道均为组播通道且涉及同一输入端的不同组播缓存器则构成冲突;若两个神经元分别对应单播通道和组播通道且涉及同一输入端则构成冲突;神经网络运算用于输出所有活跃神经元的输出值,所述输出值为第一值或第二值;输出值为第一值的神经元所对应的传输通道为本次调度周期需要接通的传输通道;S3:接通本次调度周期所有需要接通的传输通道以传输信息。
第二技术方案基于第一技术方案,其中,所述缓存器的优先级由该缓存器中已占用存储空间比值、位于信息队列前端的信息进入该缓存器的时长、该缓存器中位于信息队列前端的信息包的优先级中的一个或多个因素决定。
第三技术方案基于第一技术方案,其中,所述神经网络运算采用时间离散神经网络运算,所述第一值为+1,所述第二值为-1。
第四技术方案基于第三技术方案,其中,所述神经网络运算迭代输出每个活跃神经元的输出值,直至所有活跃神经元的输出值稳定;首次迭代前,允许对y0、R0、U0赋任意值;每次迭代中,每个活跃神经元的输出值通过以下公式确定:
xn=a*yn-1+Rn-1+I;
Un=zn-1
其中,y0为首次迭代前该神经元的初始输出值;R0为首次迭代前其他神经元对该神经元的状态值的初始影响值;U0为首次迭代前与该神经元构成冲突的其他所有神经元对该神经元的初始影响值;n=0时,n意为首次迭代前;n>0时,n为迭代的序次;yn为第n次迭代结束时该神经元的输出值;Rn为第n次迭代时其他神经元对该神经元的状态值的影响值;Un为第n次迭代时与该神经元构成冲突的其他所有神经元对该神经元的影响值;zn为第n次迭代结束时与该神经元构成冲突的其他所有神经元中输出值为+1的神经元的数量;An为第n次迭代时神经网络对该神经元的激励值;xn为第n次迭代结束该神经元的状态值;I为该神经元的优先值;S为本次调度周期内活跃神经元的数量;a为常数,且a>0;b为常数,且b<0;e为常数,且e>0。
第五技术方案基于第四技术方案,其中,|b|>e。
第六技术方案基于第五技术方案,其中,交换网络阻塞越严重,设定b和e时,应使越小;交换网络阻塞越不严重,设定b和e时,应使/>越大。
第七技术方案基于第六技术方案,其中,y0=0、R0=0、U0=0。
第八技术方案基于第七技术方案,其中,首次迭代前,还允许对A0赋任意值,A0为首次迭代前神经网络对该神经元的初始激励值。
第九技术方案基于第八技术方案,其中,A0=0。
第十技术方案基于第一或第二技术方案,其中,所述神经网络运算采用连续神经网络运算。
相对于现有技术,上述方案具有的如下有益效果:
对于第一技术方案,其最核心的技术贡献是将单组播混传交换网络完整地映射至神经网络运算的映射方法。其中,特别重要的是对于可分裂扇出的组播传输的映射方法。具体地是指所有传输通道包括由所有单播缓存器中每一单播缓存器与对应输出端间的所有传输路径形成的单播通道以及由所有组播缓存器中每一组播缓存器与所有输出端间的所有传输路径形成的组播通道。可以看到,这里单播传输的映射方法与组播传输的映射方法是不同的。对于允许分裂扇出的组播传输,本申请是第一次将其映射到神经网络运算中。第一技术方案的第二个技术贡献是定义了神经元失活条件,其一是定义了由分裂扇出组播传输导致的失活条件,即组播缓存器与该组播缓存器所对应的无接收任务输出端间形成的组播通道所对应的神经元失活,其二是定义了由于硬件导致的内部节点失效引起的神经元失活,使交换网络具有更强的鲁棒性。以上技术贡献,使得单播通道与组播通道间具有了公平性。同时,基于神经网络运算的效能,辅以失活条件和冲突条件,能够保证交换网络的吞吐量,不使网络资源形成浪费。
第二技术方案涉及缓存器优先级的决定方法,其可以应对不同的网络需求。当网络需求为延迟和不丢包时,可以由该缓存器中已占用存储空间比值和/或位于信息队列前端的信息进入该缓存器的时长决定。当网络需求为保证时效应较高的信息包的传输时,可以由位于信息队列前端的信息包的优先级决定。
第三技术方案涉及将时间离散神经网络运算运用至经过第一技术方案映射后的交换网络调度方法。这是首次将时间离散神经网络运算用来解决交换网络调度问题。
第四技术方案为时间离散神经网络运算的具体方法。其中,最重要的技术贡献在于引入了An,An为第n次迭代时神经网络对该神经元的激励值。该激励值的加入使得在某些优先值较低的神经元本已在头几次迭代时被筛掉又未与其他神经元发生冲突时,能够提高本来未被选中的神经元的Rn值和xn值,从而更有利于被时间离散神经网络运算选中,进一步有效增加了交换网络的吞吐量。
第六技术方案中,确定了b和e的设定方法,从而有利于从全局把握通过设定来进一步提高交换网络的吞吐量。具体机制是,在阻塞严重的交换网络,优先级低的传输通道越不容易被选中,因此,在/>越小的情况下,对这些优先级低的传输通道的激励就越大,越可能增加交换网络的吞吐量。
第七、第八、第九技术方案涉及y0、R0、U0和A0的初始值设定。y0、R0、U0和A0可以由上一调度周期的相应值决定,也可以在本次调度周期开始时,将寄存器中存储的上一调度周期的相应值清除并重新进行赋值。一般而言,如果重新赋值,可以使时间离散神经网络运算的迭代次数降低。
第十技术方案涉及采用时间连续神经网络运算来实现交换网络的调度。正如在背景技术所述,论文《A CNN MODEL FOR ATM CELLS SCHEDULING IN MIN SWITCHES》已经公开了在单播交换网络中运用时间连续神经网络运算进行调度的方案。在完成第一技术方案的映射后,时间连续神经网络运算的算法已经属于现有技术,本领域技术人员可以很容易地将其与第一技术方案的映射结合,解决本申请想要解决的技术问题。
本申请另一个非常重要的技术效果在于本申请的技术方案可以适用于各种性质的交换网络,对交换网络本身的拓扑结构没有特殊要求。
附图说明
为了更清楚地说明实施例的技术方案,下面简要介绍所需要使用的附图:
图1为实施例一中交换网络结构示意图;
主要附图标记说明:
交换网络10,输入端1,输出端2,交换器3,内部节点4,单播缓存器5,组播缓存器6。
具体实施方式
权利要求书和说明书中,除非另有限定,术语“第一”、“第二”或“第三”等,都是为了区别不同对象,而不是用于描述特定顺序。
权利要求书和说明书中,除非另有限定,术语“中心”、“横向”、“纵向”、“水平”、“垂直”、“顶”、“底”、“内”、“外”、“上”、“下”、“前”、“后”、“左”、“右”、“顺时针”、“逆时针”等指示的方位或位置关系乃基于附图所示的方位和位置关系,且仅是为了便于简化描述,而不是暗示所指的装置或元件必须具有特定的方位或以特定的方位构造和操作。
权利要求书和说明书中,除非另有限定,术语“固接”或“固定连接”,应作广义理解,即两者之间没有位移关系和相对转动关系的任何连接方式,也就是说包括不可拆卸地固定连接、可拆卸地固定连接、连为一体以及通过其他装置或元件固定连接。
权利要求书和说明书中,除非另有限定,术语“包括”、“具有”以及它们的变形,意为“包含但不限于”。
权利要求书和说明书中,除非另有限定,术语“内部节点”的准确含义是包含符合以下条件的交换网络中的连接点:该连接点具有至少两个输入与一个输出;例如,对于bayan型交换网络来说,内部节点并不是交换器(crossover),而是交换器中的作为输出口的连接点,只要该连接点符合以上定义,且不为交换网络的输入端或输出端即可。
权利要求书和说明书中,除非另有限定,术语“所有活跃神经元的输出值稳定”是指本次迭代的所有神经元的输出值与上次迭代的所有神经元的输出值均相等,则迭代结束,本次迭代的输出值为神经网络运算的输出值。
下面将结合附图,对实施例中的技术方案进行清楚、完整地描述。
实施例一
参见图1,本实施例中的交换网络10属于单组播混传的交换网络,具体地说,本实施例的交换网络10传输的信息包括单播信息和组播信息,其中,组播信息允许分裂扇出传输。
图1示出了实施例一中交换网络10的结构图。如图1所示,本实施例中的交换网络10为8*8banyan网络,其有八个输入端1、八个输出端2和十二个交换器3。每个交换器3中均有两个输入口和两个输出口,每个输入口均与两个输出口连通,其中,所有交换器3中的所有输出口均符合本申请对内部节点4的定义,因此,本实施例中,共有24个内部节点4。本实施例中的交换网络10中,每个输入端1与每个输出端2间形成一条传输路径,总共形成六十四条传输路径。在其他实施例中,每个输入端1与每个输出端2间允许形成多条传输路径。每条传输路径均要经过内部节点4,本实施例中,每条传输路径均要经过三个内部节点4。通过控制各交换器3,可以控制传输路径的通断。本实施例中,每个输入端1设有九个缓存器。所有缓存器包括与各输出端2数量相等且一一对应的八个单播缓存器5和一个组播缓存器6,在其他实施例中,每个输入端1可以设有多个组播缓存器6。单播缓存器5用于缓存单播信息,组播缓存器6用于缓存组播信息。信息缓存至缓存器形成信息队列。
本实施例中,交换网络10的调度方法为每间隔调度周期对交换网络10进行调度。在每个调度周期均包括以下步骤:
S1:获取本次调度周期的期初所有缓存器的优先级;缓存器的优先级所述缓存器的优先级由该缓存器中已占用存储空间比值、位于信息队列前端的信息进入该缓存器的时长、该缓存器中位于信息队列前端的信息包的优先级中的一个或多个因素决定。本实施例中,由于网络需求为延迟和不丢包,因此缓存器的优先级综合考虑该缓存器中已占用存储空间比值、位于信息队列前端的信息进入该缓存器的时长两个因素。在其他实施例中,特别是当网络需求为保证时效应较高的信息包的传输时,可以由位于信息队列前端的信息包的优先级决定。
S2:通过神经网络运算确定本次调度周期需要接通的传输通道;
具体地,神经网络运算中的神经元由所有传输通道映射而成;传输通道由传输路径和对应接通该传输路径的缓存器组成;定义由单播缓存器5形成的传输通道为单播通道,定义由组播缓存器6形成的传输通道为组播通道;所有传输通道包括由所有单播缓存器5中每一单播缓存器5与对应输出端2间的所有传输路径形成的单播通道以及由所有组播缓存器6中每一组播缓存器6与所有输出端2间的所有传输路径形成的组播通道;本实施例中,每个输入端1共有八个单播缓存器5,每个单播缓存器对应一条单播通道,八个输入端1共有为六十四条单播通道;本实施例中,每个输入端有一个组播缓存器6,每个组播缓存器6对应各输出端1共有八条组播通道,八个输入端1共有六十四条组播通道。因此,本实施例中,传输通道的数量为一百二十八条,神经网络运算中的神经元对应的也有一百二十八个。
本次调度周期的期初,神经元除非符合以下失活条件之一否则为活跃神经元:经过失效的内部节点4的传输通道所对应的神经元失活;缓存器未缓存信息的则与该缓存器有关的传输通道所对应的神经元失活;组播缓存器6与该组播缓存器6所对应的无接收任务输出端2间形成的组播通道所对应的神经元失活;该组播缓存器6所对应的无接收任务输出端2是指无需接收该组播缓存器6缓存的位于信息队列前端的信息的输出端2。
神经网络运算中,神经元的优先值为其所对应的传播通道所属缓存器的优先级。
神经网络运算中,任意两个神经元是否构成冲突是由交换网络10的结构决定的。具体地,任意两个神经元除非符合以下冲突条件之一否则不构成冲突:若两个神经元所对应的传输通道指向同一输出端2则构成冲突;若两个神经元所对应的传输通道经过同一内部节点4则构成冲突;若两个神经元所对应的传输通道均为单播通道且涉及同一输入端1则构成冲突;若两个神经元所对应的传输通道均为组播通道且涉及同一输入端1的不同组播缓存器6则构成冲突;若两个神经元分别对应单播通道和组播通道且涉及同一输入端1则构成冲突;本实施例中,由于每个输入端1只有一个组播缓存器6,因此,冲突条件之一的两个神经元所对应的传输通道均为组播通道且涉及同一输入端1的不同组播缓存器6则构成冲突的规则不适用。而在其他实施例中,如果每个输入端1有两个以上的组播缓存器6,则该冲突条件应当适用。
神经网络运算用于输出所有活跃神经元的输出值,所述输出值为第一值或第二值;输出值为第一值的神经元所对应的传输通道为本次调度周期需要接通的传输通道;本实施例中,所述第一值为+1,所述第二值为-1。
本实施例中,神经网络运算采用时间离散神经网络运算,具体地,所述神经网络运算迭代输出每个活跃神经元的输出值,直至所有活跃神经元的输出值稳定;这里,“所有活跃神经元的输出值稳定”是指本次迭代的所有神经元的输出值与上次迭代的所有神经元的输出值均相等,则迭代结束,本次迭代的输出值为神经网络运算的输出值。首次迭代前,允许对y0、R0、U0赋任意值,也可以对A0赋任意值;每次迭代中,每个活跃神经元的输出值通过以下公式确定:
xn=a*yn-1+Rn-1+I;
Un=zn-1
其中:
y0为首次迭代前该神经元的初始输出值;R0为首次迭代前其他神经元对该神经元的状态值的初始影响值;U0为首次迭代前与该神经元构成冲突的其他所有神经元对该神经元的初始影响值;A0为首次迭代前神经网络对该神经元的初始激励值;n=0时,n意为首次迭代前;n>0时,n为迭代的序次;yn为第n次迭代结束时该神经元的输出值;Rn为第n次迭代时其他神经元对该神经元的状态值的影响值;Un为第n次迭代时与该神经元构成冲突的其他所有神经元对该神经元的影响值;zn为第n次迭代结束时与该神经元构成冲突的其他所有神经元中输出值为+1的神经元的数量;An为第n次迭代时神经网络对该神经元的激励值;xn为第n次迭代结束该神经元的状态值;I为该神经元的优先值;S为本次调度周期内活跃神经元的数量;a为常数,且a>0;b为常数,且b<0;e为常数,且e>0。一般地,在设定b和e时,可以使|b|>e。交换网络阻塞越严重,设定b和e时,应使越小;交换网络阻塞越不严重,设定b和e时,应使/>越大。在本实施例中,a=1;b=-0.25;e=0.015625。对于本领域技术人员来说,在了解和掌握了本申请的技术构思后,选取适当的a、b和e值并不困难。本实施例中,y0、R0、U0和A0在每次调度周期期初赋值为0。
S3:接通本次调度周期所有需要接通的传输通道以传输信息。具体地,由控制器控制交换器3接通传输通道,输入端1将对应的缓存器中的位于信息队列前端的信息通过该传输通道的传输路径发送至对应输出端2。
申请人对本实施例中的交换网络10的调度方法进行了测试,以测试单播传输与组播传输的公平性和整个交换网络10的吞吐率。具体地,吞吐率的计算方式为随机抽取若干次调度结果,对信息包被成功传输的输出端2进行叠加,对每次调度前,位于缓存器中信息队列前端的信息所请求到达的输出端2进行叠加,取两者间的比值为吞吐率。单播传输与组播传输的公平性则采用单组播周期延迟差评价。所谓单组播周期延迟差,是指随机抽取的若干次调度周期,计算所有单播缓存器5中位于队列前端的信息包已跨越最大调度周期数与所有组播缓存器6中位于队列前端的信息包已跨越最大调度周期数之间的差值的绝对值。
测试条件为随机产生组播信息包、单播信息包,单播信息包输入与输出随机,组播信息包输入与输出组合随机,信息包产生的时间密度随机,但保证高速运转。
在以上测试条件下,获得的吞吐率稳定在100%,单组播周期延迟差为3,每个调度周期平均迭代次数为38.1,且迭代次数不会随着网络神经元数量增大而显著增大。
从以上实施例和测试结果可以看出,本实施例中的技术方案主要技术贡献是将单组播混传交换网络完整地映射至神经网络运算的映射方法。其中,特别重要的是对于可分裂扇出的组播传输的映射方法。具体地是指所有传输通道包括由所有单播缓存器中每一单播缓存器与对应输出端间的所有传输路径形成的单播通道以及由所有组播缓存器中每一组播缓存器与所有输出端间的所有传输路径形成的组播通道。可能看到,这里单播传输的映射方法与组播传输的映射方法是不同的。对于允许分裂扇出的组播传输,本申请是第一次将其映射到神经网络运算中。第一技术方案的第二个技术贡献是定义了神经元失活条件,其一是定义了由分裂扇出组播传输导致的失活条件,即组播缓存器与该组播缓存器所对应的无接收任务输出端间形成的组播通道所对应的神经元失活,其二是定义了由于硬件导致的内部节点失效引起的神经元失活,使交换网络具有更强的鲁棒性。以上技术贡献,使得单播通道与组播通道间具有了公平性。同时,基于神经网络运算的效能,辅以失活条件和冲突条件,能够保证交换网络的吞吐量,不使网络资源形成浪费。本实施例将时间离散神经网络运算运用至经过映射后的交换网络调度方法。这是首次将时间离散神经网络运算用来解决交换网络调度问题。本实施例公开了时间离散神经网络的具体方法,其中,最重要的技术贡献在于引入了An,An为第n次迭代时神经网络对该神经元的激励值。该激励值的加入使得在某些优先值较低的神经元本已在头几次迭代时被筛掉又未与其他神经元发生冲突时,能够提高本来未被选中的神经元的Rn值和xn值,从而更有利于被时间离散神经网络运算选中,进一步有效增加了交换网络的吞吐量。本实施例通过b和e的设定方法,从而有利于从全局把握通过设定来进一步提高交换网络的吞吐量。具体机制是,在阻塞严重的交换网络,优先级低的传输通道越不容易被选中,因此,在/>越小的情况下,对这些优先级低的传输通道的激励就越大,越可能增加交换网络的吞吐量。本申请中,y0、R0、U0和A0可以由上一调度周期的相应值决定,也可以在本次调度周期开始时,将寄存器中存储的上一调度周期的相应值清除并重新进行赋值。本实施例中,对y0、R0、U0和A0均重新赋值,可以使时间离散神经网络运算的迭代次数降低。
实施例二
实施例二与实施例一唯一的区别是采用《A CNN MODEL FOR ATM CELLSSCHEDULING IN MIN SWITCHES》已经公开的时间连续神经网络运算。本领域技术人员可以很容易地将其与第一技术方案的映射结合,解决本申请想要解决的技术问题。
需要注意的是,虽然实施例一和实施例二的交换网络10为banyan网络,但本申请的调度方法对各种性质的交换网络均能适用,对交换网络10本身的拓扑结构没有特殊要求。
上述说明书和实施例的描述,用于解释本申请的保护范围,但并不构成对本申请保护范围的限定。

Claims (10)

1.一种用于单组播混传的交换网络的调度方法,其特征是:
所述交换网络传输的信息包括单播信息和组播信息,组播信息允许分裂扇出传输;
所述交换网络设有若干输入端、若干输出端、若干内部节点;每个输入端与每个输出端间形成至少一条传输路径,所述传输路径经过内部节点;
每个输入端设有若干缓存器,所有缓存器包括与各输出端数量相等且一一对应的若干单播缓存器和至少一个组播缓存器,单播缓存器用于缓存单播信息,组播缓存器用于缓存组播信息,信息缓存至缓存器形成信息队列;
所述交换网络的调度方法为每间隔调度周期对交换网络进行调度;
每个调度周期均包括以下步骤:
S1:获取本次调度周期的期初所有缓存器的优先级;
S2:通过神经网络运算确定本次调度周期需要接通的传输通道;具体地,
所述神经网络运算中的神经元由所有传输通道映射而成;所述传输通道由传输路径和对应接通该传输路径的缓存器组成;定义由单播缓存器形成的传输通道为单播通道,定义由组播缓存器形成的传输通道为组播通道;所述所有传输通道包括由所有单播缓存器中每一单播缓存器与对应输出端间的所有传输路径形成的单播通道以及由所有组播缓存器中每一组播缓存器与所有输出端间的所有传输路径形成的组播通道;
本次调度周期的期初,神经元除非符合以下失活条件之一否则为活跃神经元:经过失效的内部节点的传输通道所对应的神经元失活;缓存器未缓存信息的则与该缓存器有关的传输通道所对应的神经元失活;组播缓存器与该组播缓存器所对应的无接收任务输出端间形成的组播通道所对应的神经元失活;所述该组播缓存器所对应的无接收任务输出端是指无需接收该组播缓存器缓存的位于信息队列前端的信息的输出端;
神经网络运算中,神经元的优先值为其所对应的传播通道所属缓存器的优先级;
神经网络运算中,任意两个神经元除非符合以下冲突条件之一否则不构成冲突:若两个神经元所对应的传输通道指向同一输出端则构成冲突;若两个神经元所对应的传输通道经过同一内部节点则构成冲突;若两个神经元所对应的传输通道均为单播通道且涉及同一输入端则构成冲突;若两个神经元所对应的传输通道均为组播通道且涉及同一输入端的不同组播缓存器则构成冲突;若两个神经元分别对应单播通道和组播通道且涉及同一输入端则构成冲突;
神经网络运算用于输出所有活跃神经元的输出值,所述输出值为第一值或第二值;输出值为第一值的神经元所对应的传输通道为本次调度周期需要接通的传输通道;
S3:接通本次调度周期所有需要接通的传输通道以传输信息。
2.如权利要求1所述的一种用于单组播混传的交换网络的调度方法,所述缓存器的优先级由该缓存器中已占用存储空间比值、位于信息队列前端的信息进入该缓存器的时长、该缓存器中位于信息队列前端的信息包的优先级中的一个或多个因素决定。
3.如权利要求1所述的一种用于单组播混传的交换网络的调度方法,其特征是,所述神经网络运算采用时间离散神经网络运算,所述第一值为+1,所述第二值为-1。
4.如权利要求3所述的一种用于单组播混传的交换网络的调度方法,其特征是,所述神经网络运算迭代输出每个活跃神经元的输出值,直至所有活跃神经元的输出值稳定;首次迭代前,允许对y0、R0、U0赋任意值;每次迭代中,每个活跃神经元的输出值通过以下公式确定:
xn=a*yn-1+Rn-1+I;
Un=zn-1
其中:
y0为首次迭代前该神经元的初始输出值;
R0为首次迭代前其他神经元对该神经元的状态值的初始影响值;
U0为首次迭代前与该神经元构成冲突的其他所有神经元对该神经元的初始影响值;
n=0时,n意为首次迭代前;n>0时,n为迭代的序次;
yn为第n次迭代结束时该神经元的输出值;
Rn为第n次迭代时其他神经元对该神经元的状态值的影响值;
Un为第n次迭代时与该神经元构成冲突的其他所有神经元对该神经元的影响值;
zn为第n次迭代结束时与该神经元构成冲突的其他所有神经元中输出值为+1的神经元的数量;
An为第n次迭代时神经网络对该神经元的激励值;
xn为第n次迭代结束该神经元的状态值;
I为该神经元的优先值;
S为本次调度周期内活跃神经元的数量;
a为常数,且a>0;
b为常数,且b<0;
e为常数,且e>0。
5.如权利要求4所述的一种用于单组播混传的交换网络的调度方法,其特征是,|b|>e。
6.如权利要求5所述的一种用于单组播混传的交换网络的调度方法,其中,交换网络阻塞越严重,设定b和e时,应使越小;交换网络阻塞越不严重,设定b和e时,应使/>越大。
7.如权利要求6所述的一种用于单组播混传的交换网络的调度方法,其特征是,y0=0、R0=0、U0=0。
8.如权利要求7所述的一种用于单组播混传的交换网络的调度方法,其特征是,首次迭代前,还允许对A0赋任意值,A0为首次迭代前神经网络对该神经元的初始激励值。
9.如权利要求8所述的一种用于单组播混传的交换网络的调度方法,其特征是,A0=0。
10.如权利要求1或2所述的一种用于单组播混传的交换网络的调度方法,其特征是,所述神经网络运算采用连续神经网络运算。
CN202210036597.XA 2022-01-13 2022-01-13 一种用于单组播混传的交换网络的调度方法 Active CN114500407B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210036597.XA CN114500407B (zh) 2022-01-13 2022-01-13 一种用于单组播混传的交换网络的调度方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210036597.XA CN114500407B (zh) 2022-01-13 2022-01-13 一种用于单组播混传的交换网络的调度方法

Publications (2)

Publication Number Publication Date
CN114500407A CN114500407A (zh) 2022-05-13
CN114500407B true CN114500407B (zh) 2023-10-27

Family

ID=81511022

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210036597.XA Active CN114500407B (zh) 2022-01-13 2022-01-13 一种用于单组播混传的交换网络的调度方法

Country Status (1)

Country Link
CN (1) CN114500407B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101488913A (zh) * 2008-12-10 2009-07-22 南京邮电大学 基于双层递归神经网络的应用层组播树构建方法
EP3349487A1 (en) * 2017-01-12 2018-07-18 ASUSTek Computer Inc. Method and apparatus of handling interest indication in a wireless communication system
CN110633786A (zh) * 2018-06-21 2019-12-31 英特尔公司 用于确定人工神经网络拓扑的技术
CN112260950A (zh) * 2020-10-19 2021-01-22 桂林电子科技大学 一种基于业务优先级区分的云存储网络组播流调度方法
CN113490157A (zh) * 2021-07-06 2021-10-08 香港中文大学(深圳) 一种基于深度强化学习的组播调度方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL150281A0 (en) * 2002-06-18 2002-12-01 Teracross Ltd Method and system for multicast and unicast scheduling

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101488913A (zh) * 2008-12-10 2009-07-22 南京邮电大学 基于双层递归神经网络的应用层组播树构建方法
EP3349487A1 (en) * 2017-01-12 2018-07-18 ASUSTek Computer Inc. Method and apparatus of handling interest indication in a wireless communication system
CN110633786A (zh) * 2018-06-21 2019-12-31 英特尔公司 用于确定人工神经网络拓扑的技术
CN112260950A (zh) * 2020-10-19 2021-01-22 桂林电子科技大学 一种基于业务优先级区分的云存储网络组播流调度方法
CN113490157A (zh) * 2021-07-06 2021-10-08 香港中文大学(深圳) 一种基于深度强化学习的组播调度方法

Also Published As

Publication number Publication date
CN114500407A (zh) 2022-05-13

Similar Documents

Publication Publication Date Title
Prabhakar et al. On the speedup required for combined input-and output-queued switching
US6356546B1 (en) Universal transfer method and network with distributed switch
McKeown et al. A quantitative comparison of iterative scheduling algorithms for input-queued switches
US6580721B1 (en) Routing and rate control in a universal transfer mode network
McKeown A fast switched backplane for a gigabit switched router
EP1002402B1 (en) Trunking support in a high performance network device
US8467294B2 (en) Dynamic load balancing for port groups
JP3846880B2 (ja) データ・パケット・スイッチのマルチキャスト・トラフィックを制御するためのシステム及び方法
US7680097B1 (en) Network switch having a hybrid switch architecture
US7082132B1 (en) Universal edge node
Lotfi-Kamran et al. BARP-a dynamic routing protocol for balanced distribution of traffic in NoCs
US20180278550A1 (en) Buffer Optimization in Modular Switches
JP5034491B2 (ja) スイッチにおける優先度帯域制御方法
Chrysos et al. Weighted fairness in buffered crossbar scheduling
EP3295628A1 (en) Dynamic protection of shared memory used by output queues in a network device
CN114500407B (zh) 一种用于单组播混传的交换网络的调度方法
Yang et al. An efficient scheduling algorithm for CIOQ switches with space-division multiplexing expansion
Shen et al. Design and performance analysis of a practical load-balanced switch
US20040017810A1 (en) Multicast packet queuing
Escudero-Sahuquillo et al. FBICM: Efficient congestion management for high-performance networks using distributed deterministic routing
US20180241688A1 (en) Distributing and Rate Limiting Packets Among Multiple Paths in a Single Stage Switching Topology to a Reordering Node
Gómez et al. VOQ/sub SW: a methodology to reduce HOL blocking in InfiniBand networks
Hyatt et al. Congestion control in the wormhole-routed torus with clustering and delayed deflection
KR100368439B1 (ko) 이중 스위칭 평면을 갖는 패킷 스위치에서 전송 순서 보장 방법 및 장치
JP2007510378A (ja) ノンブロッキングで決定論的マルチレートユニキャストパケットスケジューリング

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant