CN100499600C - 一种交换网中传递反压信息的方法 - Google Patents

一种交换网中传递反压信息的方法 Download PDF

Info

Publication number
CN100499600C
CN100499600C CNB2006100615815A CN200610061581A CN100499600C CN 100499600 C CN100499600 C CN 100499600C CN B2006100615815 A CNB2006100615815 A CN B2006100615815A CN 200610061581 A CN200610061581 A CN 200610061581A CN 100499600 C CN100499600 C CN 100499600C
Authority
CN
China
Prior art keywords
pressure
chip
link
grades
chips
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CNB2006100615815A
Other languages
English (en)
Other versions
CN1878146A (zh
Inventor
宋玲玲
唐德智
王凯
罗柳柱
刘运华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Priority to CNB2006100615815A priority Critical patent/CN100499600C/zh
Publication of CN1878146A publication Critical patent/CN1878146A/zh
Application granted granted Critical
Publication of CN100499600C publication Critical patent/CN100499600C/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

本发明适用于通信领域,提供了一种交换网中传递反压信息的方法,通过对反压信息进行分组传递,可以提高交换网的有效带宽,缩短反压传递延时,节省大量的逻辑资源,尤其对于容量越大的交换网,反压信息传递的效果越明显。同时,通过本发明还可以灵活组建较小容量的交换网。

Description

一种交换网中传递反压信息的方法
技术领域
本发明属于通信领域,尤其涉及一种交换网中传递反压信息的方法。
背景技术
通信网络是由终端设备、传输设备、交换设备等基本要素组成的综合系统,交换设备能够实现任意两个用户间的通信连接,交换网是交换设备的核心部件。交换网的功能是将输入端口的信元,根据其路由信息交换到相应的输出端口,完成数据的交换。
交换网的一个重要功能指标是不能丢包,即交换网入口的信元必须能够从交换网的某个出口发送出去,不能在交换网内部丢弃。引起丢包的一个主要原因是发向某些目的端口的信元过多,共享缓存被大量占用,导致其他信元因不能分配到共享缓存而被丢弃。解决交换网丢包问题的一个方法就是传递反压信息。当发向某个目的端口的信元数量超过反压门限时,目的芯片会送出反压信息,告知相应的发送端口停止向其发送信元,以此保证共享缓存有适当的空闲单元存储信元。
在现有技术中,为了避免丢包,在交换网的一级芯片和三级芯片都设置反压门限,当目的端口的信元队列长度超过反压门限时就会产生反压,反压信息通过信元头传递。需要传递多少反压信息,由交换网的队列个数决定。
如图1所示,交换网通过M个一级芯片、M个三级芯片和N个二级芯片传输信元,支持的优先级个数为Y,一级芯片和三级芯片的端口数目为X。M、N、Y为2的幂次方。每个一级芯片的队列个数为M×X×Y个,三级芯片的队列个数为X×M×Y个,三级芯片需要传递的反压信息(三级反压)是X×M×Y bits。
每个一级芯片到二级芯片间有N条链路,这N条链路上传递的反压信息相同,即每条链路都传递M×X×Y bits反压信息。每个二级芯片到三级芯片间的M条链路传递的反压信息也相同,每条链路传递M×X×Y bits。
由上可知,现有技术的最大缺点是浪费带宽,容量越大带宽浪费越明显。例如M=64,N=64,X=4,Y=4,交换网的一级芯片与二级芯片间的每条链路需要传递64×4×4=1024bit(128字节)三级反压信息。如果分8个信元周期传递,1个信元需要携带16字节反压信息。假设1个信元的基本信息包括68字节,那么携带反压信息的信元需要68+16=84字节,交换网的有效带宽为68/84=81%。
现有技术的第二个缺点是反压信息传递延时大。按上述参数计算,为了提高带宽利用率,减少每个信元周期传递反压信息的字节数,例如每个信元周期传递8字节,则需要传递128/8=16个信元周期,传递反压信息的延时大,导致发送端响应反压速度慢,不能及时停止信元发送而造成丢包。
现有技术的第三个缺点是浪费逻辑电路资源。按照上面的参数计算,交换网的二级芯片能够接收到M条链路传递的M×X×Y bit反压信息,每条链路传递的反压信息来自于不同的一级芯片,所以需要处理的反压信息为M×(M×X×Y)bit。处理电路需要M×X×Y个M bit或逻辑。按照上面的参数计算,每个第二级交换芯片需要1024个64bit或逻辑。同理,每个三级芯片需要处理来自N个二级芯片的M×X×Y bit反压信息,处理电路需要M×X×Y个N bit或逻辑。
发明内容
本发明的目的在于提供一种交换网中传递反压信息的方法,旨在缩短反压信息的传递延时,节省交换网的有效带宽和逻辑资源。
本发明是这样实现的,一种交换网中传递反压信息的方法,所述交换网通过M个一级芯片、N个二级芯片,以及M个三级芯片传输信元,每个一级芯片和三级芯片的端口个数为X,支持的优先级个数为Y,所述方法包括下述步骤:
A.每个一级芯片将接收的对应三级芯片的X×M×Y比特反压信息按源芯片分为M个反压队列,并将所述M个反压队列分为N/k个反压分组,每个反压分组包含至少一个反压队列;
B.每个一级芯片通过与二级芯片连接的N条输出链路将所述N/k个反压分组全部传递给N个二级芯片,每条输出链路传递一个反压分组,每k条输出链路传递相同的反压分组;
C.每个二级芯片通过M条输入链路接收一级芯片发送的不同三级芯片的不同反压分组,每条输入链路接收一个反压分组,其中每k条输入链路接收不同三级芯片的相同反压分组,每M/k条链路中的不同链路接收不同三级芯片的不同反压分组,N个二级芯片从整体上接收到M个三级芯片的所有反压分组;
D.每个二级芯片按反压分组所对应的一级芯片将相应反压分组发送到与所述一级芯片对应的三级芯片;
E.每个三级芯片通过N条输入链路接收每个二级芯片发送的反压分组,组合成为M个三级芯片对与该三级芯片对应的一级芯片的反压信息,并将所述反压信息发送给与该三级芯片对应的一级芯片;
所述M、N、Y、k均为2的幂次方,k为传输反压分组的冗余链路数。
所述冗余链路数k为2。
当M=64、N=32、X=4、Y=2时,设一级芯片的芯片号sm_loc=0、1、2、......、63,每个一级芯片的N/k条链路组号link_grp=0、1、2、......、(N/k)-1,则:
(1)每N/k条链路传递反压分组的序号vimq_grp={link_grp[3:2]^sm_loc[5:4],link_grp[1:0]+sm_loc[3:2]},其中^表示逻辑异或,花括号表示逻辑连接操作;
(2)一级芯片的芯片号sm_loc属于链路组号link_grp的链路传递的反压分组为VIMQ(vimq_grp×M×k/N)、......、VIMQ(vimq_grp×M×k/N+M×k/N-1)。
每条链路通过多个信元周期传递一个反压分组。
本发明通过对反压信息进行分组传递,可以提高交换网的有效带宽,缩短反压传递延时,节省大量的逻辑资源,尤其对于容量越大的交换网,反压信息传递的效果越明显。同时,通过本发明还可以灵活组建较小容量的交换网。
附图说明
图1是典型三级交换网的结构图;
图2是三级芯片的队列结构图;
图3是一级芯片的队列结构图;
图4是三级芯片队列按照源芯片分组的结构图;
图5是本发明一个实施例中二级芯片S2_1收发反压信息过程的示意图;
图6是本发明一个实施例中二级芯片S2_2收发反压信息过程的示意图;
图7是本发明一个实施例中二级芯片S2_16收发反压信息过程的示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
在本发明中,将每个三级芯片产生的反压信息进行分组传递,提高交换网的有效带宽,缩短了反压传递延时,节省了大量的逻辑资源。
参见图1,从一级芯片S1_x(x=1~M)输入的信元,经过二级芯片S2_1,S2_2,......,或S2_N,交换到某个三级芯片的X个目的端口之一。
三级芯片的队列按目的端口排队,为了区别输出信元来自哪个一级芯片,还要在每个目的端口内按源芯片排队,这种队列组织方式可以称为虚拟输入队列(Virtual Input Module Queuing,VIMQ),如图2所示。图中Port0~Port x-1表示一个三级芯片的输出端口,S1_1、S1_2、......S1_M表示信元来自哪个一级芯片(源芯片),每个源芯片下又分Y个优先级。所以,每个三级芯片的队列个数为X×M×Y个,每个队列对应1bit反压信息。
一级芯片按虚拟输出队列(Virtual Output Queuing,VOQ)方式排队,如图3所示。所有发向三级芯片S3_1的信元组成一组,发向三级芯片S3_2的信元组成一组,......,共有M组。在每个组中又按目的端口和优先级分为X×Y个队列。所以,一级芯片的队列个数为M×X×Y个。
三级芯片产生的X×M×Y bit三级反压信息直接送入对应的一级芯片,S3_1的三级反压信息直接送入S1_1,......,S3_16的三级反压信息直接送入S1_16。然后一级芯片通过与二级芯片的N条链路把三级反压送给N个二级芯片。
在本发明中,每个一级芯片将X×M×Y bit反压信息分成N/k组,每k条链路传递的反压信息相同,以保证当某条链路出现故障时,仍有其他链路可以把反压信息传递出去。k为2的幂次方。作为本发明的一个优选实施例,每个一级芯片将X×M×Y bit反压信息分成N/2组。另外,不同的一级芯片在相同链路上传递的反压也不同,例如S1_1的链路1和S1_3的链路1分别传递反压的不同部分。
由于三级芯片是对接收到的一级芯片的信元队列产生的反压,因此每个三级芯片按照其队列组织形式都有M×X×Y个队列反压,本发明将来自同一个一级芯片、X个不同目的端口的队列反压分组成一个VIMQ,VIMQ的个数与一级芯片的个数相同,即三级芯片产生的反压信息包括M个反压信息组。
如图4所示,假设每个三级芯片有4个端口,每个端口有4个优先级,对于三级芯片S3_1产生的反压信息,VIMQ1是指从一级芯片S1_1发向三级芯片S3_1的4个端口的16个优先级队列反压,......,VIMQM是指从一级芯片S1_M发向三级芯片S3_M的4个端口的16个优先级队列反压。
在一级芯片到二级芯片的N条输出链路中,每k条链路负责传递1组反压信息,实现反压信息的冗余备份。连接同一个二级芯片的M个一级芯片的N条输出链路刚好传递N/k个反压分组的不同部分,需要注意的是这N/k个反压分组不是某个三级芯片的M×X×Y个队列反压,而是每个三级芯片队列反压的一个反压分组。
每个二级芯片通过M条输入链路接收一级芯片发送的不同三级芯片的不同反压分组,每条输入链路接收一个反压分组,其中每k条输入链路接收不同三级芯片的相同反压分组,每M/k条链路的不同链路接收不同三级芯片的不同反压分组,N个二级芯片从整体上接收到M个三级芯片的所有反压分组。每个二级芯片按反压分组所对应的源芯片通过与三级芯片间的M条输出链路将相应反压分组发送到与该源芯片对应的三级芯片。
N个二级芯片通过连接同一个三级芯片的N条链路使得该三级芯片能接收到其对应编号的一级芯片向三级芯片发送信元的反压情况。
每个三级芯片的输入链路都能收到该三级芯片对M个一级芯片的反压信息,考虑到反压信息的冗余传输,三级芯片需要将接收的反压信息进行逻辑或处理,然后将处理后的一份反压信息送入对应编号的一级芯片。
此时,每个一级芯片都获取到自身向M个三级芯片发送信元时,M个三级芯片产生的反压信息。如果一级芯片的某个队列被三级芯片反压,一级芯片就不会从这个队列中调度出信元,从而保证对应三级芯片的共享缓存不会被该队列耗尽而造成丢包。
作为本发明的一个优选实施例,假设M=64、N=32、X=4、Y=2、k=2,设一级芯片的芯片号sm_loc=0、1、2、......、63,每个一级芯片的N/k条链路组号link_grp=0、1、2、......、N/k-1,根据下述方法计算M个一级芯片的N/k条链路的反压分组:
设定变量vimq_grp表示每N/k条链路传递反压分组的序号,则vimq_grp={link_grp[3:2]^sm_loc[5:4],link_grp[1:0]+sm_loc[3:2]},其中^表示逻辑异或,花括号表示逻辑连接操作。
一级芯片的芯片号sm_loc属于链路组号link_grp的链路中传递的反压分组是VIMQ(vimq_grp×M×k/N)、......、VIMQ(vimq_grp×M×k/N+M×k/N-1)。
以下通过一个示例对本发明的具体实现进行详细说明。假设M=16,N=16,X=4,Y=4,每个三级芯片产生的反压信息为256bit,三级芯片S3_1将自身产生的256 bit反压信息(即16个VIMQ)直接发送给对应的一级芯片S1_1;三级芯片S3_2将自身产生的256 bit反压信息(即16个VIMQ)直接发送给对应的一级芯片S1_2;......三级芯片S3_M将自身产生的256 bit反压信息(即16个VIMQ)直接发送给对应的一级芯片S1_M。
一级芯片S1_1将256 bit反压信息分成8组,相邻的2个VIMQ一组,每组32 bit反压信息。将8组反压信息与一级芯片的16条输出链路对应,每两条输出链路传递相同的一组反压信息,以实现反压信息的冗余备份。如一级芯片S1_1的链路1和链路13负责传递三级芯片S3_1的VIMQ1和VIMQ2反压;链路2和14负责传递三级芯片S3_1的VIMQ9和VIMQ10反压;链路3和15负责传递三级芯片S3_1的VIMQ3和VIMQ4反压......。若一级芯片将每组反压信息(包括相邻的两个VIMQ,32 bit)分4个信元周期传递出去,则每个信元周期取出8 bit反压信息与一份信元内容组成一个新的信元,然后从本组反压信息对应的2条输出链路上发送出去。
如下表所示,与一级芯片S1_1相同,每个一级芯片都将对接收到的三级反压信息进行分组,并将其与输出链路相对应:一级芯片S1_2的链路1和13负责传递三级芯片S3_2的VIMQ1和VIMQ2,一级芯片S1_3的链路1和13负责传递三级芯片S3_3的VIMQ3和VIMQ4,一级芯片S1_4的链路1和13负责传递三级芯片S3_4的VIMQ3和VIMQ4,......。
Figure C200610061581D00101
Figure C200610061581D00111
图5是二级芯片S2_1收发反压信息的示意图,图中左侧链路1~16对应S2_1的16条输入链路,右侧链路1~16对应S2_1的16条输出链路,括号标识了该链路传递的反压将发向哪个三级芯片。S2_1将接收到的反压信息重新组合后,通过S2_1到16个三级芯片S3_z(z=1~16)的16条链路发送出去,每条输出链路传递的反压信息不同。
二级芯片S2_1的输入链路1接收到三级芯片S3_1的VIMQ1~2反压,即S1_1和S1_2向S3_1发送信元的队列反压;S2_1的输入链路2接收到S3_2的VIMQ1~2反压,即S1_1和S1_2向S3_2发送信元的队列反压;S2_1的输入链路3接收到S3_3的VIMQ3~4反压,即S1_3和S1_4向S3_3发送信元的队列反压;S2_1的输入链路4接收到S3_4的VIMQ3~4反压,即S1_3和S1_4向S3_4发送信元的队列反压;......。
二级芯片S2_1将同一个一级芯片向2个三级芯片发送信元的反压合并为一组,从对应编号的三级芯片的链路上发送出去:S1_1向S3_1和S3_2发送信元的队列反压,即是S3_1和S3_2的VIMQ1,将这一组队列反压发送到S3_1;S1_2向S3_1和S3_2发送信元的队列反压,即是S3_1和S3_2的VIMQ2,将这一组队列反压发送到S3_2;S1_3向S3_3和S3_4发送信元的队列反压,即是S3_3和S3_4的VIMQ3,将这一队列反压发送到S3_3;S1_4向S3_3和S3_4发送信元的队列反压,即是S3_3和S3_4的VIMQ4,将这一组队列反压发送到S3_4;......。
实际上,S3_1 VIMQ1就是对应图3中一级芯片S1_1 VOQ1队列反压,S3_2VIMQ1对应S1_1 VOQ2的队列反压,......,S3_16 VIMQ1对应S1_1 VOQ16的队列反压;S3_1 VIMQ16对应S1_16 VOQ1的队列反压,S3_2 VIMQ16对应S1_16 VOQ2的队列反压,......S3_16 VIMQ16对应S1_16 VOQ16的队列反压。
其他二级芯片对输入反压的处理方法相似,但是不同二级芯片相同链路输入、输出的反压不同,这与反压如何分组相关。图6示出了S2_2的接收的反压分组和发送的反压情况,图7示出了S2_16接收的反压分组和发送的反压情况。
每个三级芯片通过16条链路分别与S2_1、S2_2、......、S2_16连接,三级芯片一条输入链路上传递的反压信息是与该三级芯片对应编号的一级芯片向2个三级芯片发送信元的三级反压信息,16条链路共接收到对应一级芯片向16个三级芯片发送信元的反压情况。例如,三级芯片S3_1的16条链路接收的反压是S1_1向S3_1~S3_16发送信元的反压信息:S3_1链路1接收的反压为S3_1 VIMQ1和S3_2 VIMQ1,即一级芯片S1_1向三级芯片S3_1和S3_2发送信元产生的反压;S3_1链路2接收的反压为S3_9 VIMQ1和S3_10 VIMQ1,即一级芯片S1_1向三级芯片S3_9和S3_10发送信元产生的反压;......;S3_1链路16接收的反压为S3_15 VIMQ1和S3_16 VIMQ1,即一级芯片S1_1向三级芯片S3_15和S3_16发送信元产生的反压。
从交换网的整体上看,每个三级芯片能够接收到对应一级芯片向所有16个三级芯片发送信元的反压信息,即16个三级芯片对该一级芯片向其发送信元的队列反压情况。三级芯片将接收到的这些反压信息提取出来,由于每两条链路传递的反压信息相同,需要对其进行逻辑或操作处理为一份反压信息,然后直接送给对应的一级芯片。如果一级芯片的某些队列被反压,调度模块就不会从这些队列中调度出信元,从而保证共享缓存不会被某些队列耗尽而造成丢包。
首先,本发明提高了交换网的有效带宽。如M=64,N=64,X=4,Y=4,每个一级芯片需要传递的三级反压为64×4×4=1024 bit,将反压分成32组,每条链路需要传递32 bit。如果分4个信元周期传递,每个信元只需要增加1个字节(8 bit),交换网的有效带宽为68/(68+1)=98.6%,比前面计算的81%有很大提高。
其次,本发明缩短了反压传递延时,按照上面的计算,只需4个信元周期就可以将所有队列的反压传递出去。
另外,本发明节省了大量的逻辑资源,反压分组的同时考虑到信息的冗余备份,用2条链路传递相同的反压分组,每个二级芯片和三级芯片需要的逻辑资源是1024个2bit或逻辑。
最后,本发明的方案可以灵活组建较小容量的交换网。减少一级芯片、二级芯片和三级芯片的个数就可以减小交换网的容量。例如3种芯片各使用8个芯片组成原来容量二分之一的交换网,需要传递的反压为VIMQ1~8,只需要将一级芯片和三级芯片的链路1、3、5、7、9、11、13和15连接到相应的二级芯片上即可。
反压分组的方法可以根据交换网兼容的不同容量模式决定,即一级芯片每条链路传递的反压信息大小可以根据容量需求灵活制定。为了保证反压信息的冗余备份,可以使用若干条链路传递相同的部分。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (4)

1、一种交换网中传递反压信息的方法,所述交换网通过M个一级芯片、N个二级芯片,以及M个三级芯片传输信元,每个一级芯片和三级芯片的端口个数为X,支持的优先级个数为Y,其特征在于,所述方法包括下述步骤:
A.每个一级芯片将接收的对应三级芯片的X×M×Y比特反压信息按源芯片分为M个反压队列,并将所述M个反压队列分为N/k个反压分组,每个反压分组包含至少一个反压队列;
B.每个一级芯片通过与二级芯片连接的N条输出链路将所述N/k个反压分组全部传递给N个二级芯片,每条输出链路传递一个反压分组,每k条输出链路传递相同的反压分组;
C.每个二级芯片通过M条输入链路接收一级芯片发送的不同三级芯片的不同反压分组,每条输入链路接收一个反压分组,其中每k条输入链路接收不同三级芯片的相同反压分组,每M/k条链路中的不同链路接收不同三级芯片的不同反压分组,N个二级芯片从整体上接收到M个三级芯片的所有反压分组;
D.每个二级芯片按反压分组所对应的一级芯片将相应反压分组发送到与所述一级芯片对应的三级芯片;
E.每个三级芯片通过N条输入链路接收每个二级芯片发送的反压分组,组合成为M个三级芯片对与该三级芯片对应的一级芯片的反压信息,并将所述反压信息发送给与该三级芯片对应的一级芯片;
所述M、N、Y、k均为2的幂次方,k为传输反压分组的冗余链路数。
2、如权利要求1所述的交换网中传递反压信息的方法,其特征在于,所述冗余链路数k为2。
3、如权利要求2所述的交换网中传递反压信息的方法,其特征在于,当M=64、N=32、X=4、Y=2时,设一级芯片的芯片号sm_loc=0、1、2、......、63,每个一级芯片的N/k条链路组号link_grp=0、1、2、......、(N/k)-1,则:
(1)每N/k条链路传递反压分组的序号vimq_grp={link_grp[3:2]^sm_loc[5:4],link_grp[1:0]+sm_loc[3:2]},其中^表示逻辑异或,花括号表示逻辑连接操作;
(2)一级芯片的芯片号sm_loc属于链路组号link_grp的链路传递的反压分组为VIMQ(vimq_grp×M×k/N)、......、VIMQ(vimq_grp×M×k/N+M×k/N-1)。
4、如权利要求1、2或3所述的交换网中传递反压信息的方法,其特征在于,每条链路通过多个信元周期传递一个反压分组。
CNB2006100615815A 2006-07-10 2006-07-10 一种交换网中传递反压信息的方法 Expired - Fee Related CN100499600C (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CNB2006100615815A CN100499600C (zh) 2006-07-10 2006-07-10 一种交换网中传递反压信息的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CNB2006100615815A CN100499600C (zh) 2006-07-10 2006-07-10 一种交换网中传递反压信息的方法

Publications (2)

Publication Number Publication Date
CN1878146A CN1878146A (zh) 2006-12-13
CN100499600C true CN100499600C (zh) 2009-06-10

Family

ID=37510442

Family Applications (1)

Application Number Title Priority Date Filing Date
CNB2006100615815A Expired - Fee Related CN100499600C (zh) 2006-07-10 2006-07-10 一种交换网中传递反压信息的方法

Country Status (1)

Country Link
CN (1) CN100499600C (zh)

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
一种支持变长分组的CIOQ交换结构. 张树旗,贾树恒.计算机应用,第25卷第7期. 2005
一种支持变长分组的CIOQ交换结构. 张树旗,贾树恒.计算机应用,第25卷第7期. 2005 *
均匀业务下反压型输入/输出排队ATM交换机的性能分析. 钱炜宏,李乐民.电子科学学刊,第20卷第4期. 1998
均匀业务下反压型输入/输出排队ATM交换机的性能分析. 钱炜宏,李乐民.电子科学学刊,第20卷第4期. 1998 *

Also Published As

Publication number Publication date
CN1878146A (zh) 2006-12-13

Similar Documents

Publication Publication Date Title
KR100466083B1 (ko) 인터페이스 디바이스를 포함하는 장치 및 데이터 플로우 핸들링 방법
CN101170512B (zh) 报文业务处理方法
CN106850465A (zh) 一种Flex E数据交换方法及交换设备
JP2003508967A (ja) ネットワーク・プロセッサ及び方法を用いるネットワーク・スイッチ
JP2003508851A (ja) ネットワーク・プロセッサ、メモリ構成及び方法
US7079538B2 (en) High-speed router
JP2003508957A (ja) ネットワーク・プロセッサ処理コンプレックス及び方法
JP2003508951A (ja) Vlsiネットワーク・プロセッサ及び方法
CN101483593B (zh) 一种交换设备中基于聚合链路分配缓存的方法及装置
CN101534173A (zh) 一种数据流量控制方法和系统
CN101272338B (zh) 在非线速接口板进行端口带宽配置的方法和非线速接口板
CN107277652A (zh) Pon接入系统的跨盘lacp链路聚合方法及装置
CN101848158A (zh) 一种数据通道的负载均衡方法、装置和网络交换设备
CN100499600C (zh) 一种交换网中传递反压信息的方法
CN101950279A (zh) 均衡数据信息流量的方法、总线系统和译码器
CN1559159A (zh) 在使用多级协议处理情况下交换多数信号的装置和方法
CN112272933B (zh) 队列控制方法、装置及存储介质
KR100745674B1 (ko) 다중 스위칭 포트 지원 구조의 패킷 처리장치, 방법 및 그장치를 적용한 패킷 처리시스템
CN104580028A (zh) 基于扩展接口的交换芯片报文处理方法及装置
CN101227291B (zh) 以太网mac层交叉级联系统、传输方法及其应用的芯片
CN100372334C (zh) 一种实现在光网络中传输InfiniBand数据的设备及方法
CN101296189A (zh) 分布式流处理网络设备以及其中的报文传输方法
CN101217476A (zh) 一种多平面包交换方法、系统及设备
US20030198233A1 (en) Cross-connect switch and route monitoring assist apparatus
US20040008701A1 (en) Hierarchical finite-state machines

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20090610

CF01 Termination of patent right due to non-payment of annual fee