CN106850441B - 堆叠系统网络芯片NextHop资源分配方法 - Google Patents
堆叠系统网络芯片NextHop资源分配方法 Download PDFInfo
- Publication number
- CN106850441B CN106850441B CN201710036185.5A CN201710036185A CN106850441B CN 106850441 B CN106850441 B CN 106850441B CN 201710036185 A CN201710036185 A CN 201710036185A CN 106850441 B CN106850441 B CN 106850441B
- Authority
- CN
- China
- Prior art keywords
- chip
- nexthop
- address
- message
- mapping table
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L45/00—Routing or path finding of packets in data switching networks
- H04L45/74—Address processing for routing
- H04L45/745—Address table lookup; Address filtering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L61/00—Network arrangements, protocols or services for addressing or naming
- H04L61/09—Mapping addresses
- H04L61/25—Mapping addresses of the same type
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L61/00—Network arrangements, protocols or services for addressing or naming
- H04L61/50—Address allocation
Abstract
本发明公开了一种堆叠系统网络芯片NextHop资源分配方法,通过配置CHIPID逻辑地址分配表和NextHop地址映射表,当报文到达目的芯片时,根据源芯片获取的地址映射表的基址和逻辑NextHop地址映射出NextHop地址映射表对应条目的Index,从而得到本地NextHop地址。采用本发明使本地NextHop资源得到充分利用,避免了CPU对转发表的刷新操作,从而降低软件对芯片NextHop资源的管理难度。
Description
技术领域
本发明涉及芯片资源分配技术领域,具体涉及一种堆叠系统网络芯片NextHop资源分配方法。
背景技术
堆叠系统报文的转发查找与报文的编辑是分离的,报文编辑动作定义通过NextHop表项来存储,读取NextHop表项的Index是由转发表而得到的,这样在堆叠系统下发转发表项时,要先到出端口对应的芯片申请NextHop资源,得到对应的Index后,再在入端口的芯片配置转发表项。如果出端口发生芯片间的迁移时,会引起在出端口芯片申请NextHop资源后,软件刷新相关联转发表项的Index,由于每一个物理芯片的NextHop资源规格及编址不完全一致,给软件的管理带来很大的难度。
目前堆叠系统NextHop资源采用对等分配方案,用堆叠系统中所有芯片中最小的NextHop资源作为整个系统的资源空间,申请NextHop时,在所有芯片中统一申请同一个Index,并配置相应的表项,如图1所示,但该方法具有以下缺陷:
1.芯片A和芯片B上只能使用前6K NextHop资源空间,多余的NextHop资源空间被浪费。
2.如果出端口在芯片A上,申请的NextHop的Index为1,则芯片B/芯片C上Index为1的条目被浪费。
发明内容
针对现有技术的不足,本发明的主要目的在于:提出一种堆叠系统网络芯片NextHop资源分配方法,通过本地映射表,完成NextHop资源的Index的重映射,从而大大简化软件管理NextHop资源。
为实现前述目的,本发明公开了一种堆叠系统网络芯片NextHop资源分配方法,具体包括:
根据芯片的物理NextHop资源配置CHIPID(即芯片ID,下同)逻辑地址分配表,所述CHIPID逻辑地址分配表用于存储地址映射表的基址和地址映射表条目数;
CPU在入口芯片上下发转发表时,根据目的芯片ID申请逻辑NextHop地址,出口芯片申请物理NextHop地址并下发表项配置NextHop地址映射表中对应条目,对应条目的Index为所述CHIPID逻辑地址分配表中对应的地址映射表基址与所述逻辑NextHop地址之和;
当报文到达入口芯片后,入口芯片获取目的端口、逻辑NextHop地址后,将携带所述目的端口、逻辑NextHop地址及芯片ID的报文发送给出口芯片;
出口芯片接收到所述入口芯片发送的报文后,根据所述入口芯片的逻辑NextHop地址和芯片ID判断报文的NextHop是否越界;若越界,丢弃该报文;否则,获取NextHop地址映射表的Index,索引得到本地NextHop地址,获取报文的编辑信息,对报文进行相应编辑后发送。
优选地,堆叠系统内所有芯片的CHIPID逻辑地址分配表配置一致。
优选地,所述方法还包括:出口芯片接收所述报文后,根据入口芯片的芯片ID索引CHIPID逻辑地址分配表,得到地址映射表的基址和地址映射表条目数。
优选地,如果所述入口芯片的逻辑NextHop地址大于或等于地址映射表条目数,则表示报文的NextHop越界。
优选地,所述获取NextHop地址映射表的Index是通过计算所述根据入口芯片的芯片ID索引CHIPID逻辑地址分配表得到的地址映射表的基址与所述入口芯片的逻辑NextHop地址之和获得。
与现有技术相比,本发明的优点在于:本发明公开的一种堆叠系统网络芯片NextHop资源分配方法,通过本地映射表,完成NextHop资源的Index的重映射,使本地NextHop资源可以被充分利用,避免了CPU对转发表的刷新操作,大大降低软件对芯片NextHop资源的管理难度。
附图说明
图1是现有技术中堆叠系统NextHop资源采用对等分配方案示意图;
图2是本发明实施例提出的CHIPID逻辑地址分配表示意图;
图3是本发明实施例提出的NextHop地址映射表示意图;
图4是本发明实施例提出的CHIPID逻辑地址分配表示例图;
图5是本发明实施例提出的报文转发流程示意图;
图6是本发明实施例提出的堆叠系统网络芯片NextHop资源分配示意图。
具体实施方式
鉴于现有技术中的不足,本案发明人经长期研究和大量实践,得以提出本发明的技术方案。如下将对该技术方案、其实施过程及原理等作进一步的解释说明。
本发明实施例所述的堆叠系统网络芯片NextHop资源分配方法基于CHIPID逻辑地址分配表和NextHop地址映射表实现,所述CHIPID逻辑地址分配表用于存储根据源芯片ID得到的地址映射表的基址和对应地址映射表条目数,其表项构成如图2所示;所述NextHop地址映射表用于存储通过逻辑地址映射出的本地NextHop地址,其表项构成如图3所示。
当报文到达目的芯片时,根据源芯片获取的映射表的基址和逻辑NextHop地址映射出本地NextHop地址的Index,从而获取本地NextHop地址,使本地NextHop资源得到充分利用,避免CPU的对转发表的刷新操作,从而降低软件对芯片NextHop资源的管理难度。
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
首先,CPU需进行转发表配置操作,具体流程包括:
根据芯片的物理NextHop资源配置CHIPID逻辑地址分配表,进行NextHop地址映射表空间的分配,其分配示例如图4所示。CHIPID逻辑地址分配表是由堆叠系统全局规划而得,因此,所有芯片上CHIPID逻辑地址分配表配置一致。
CPU在入口芯片上下发转发表时,根据目的芯片ID申请逻辑NextHop地址,然后由出口芯片申请物理NextHop地址并下发表项,配置NextHop地址映射表中的对应的条目,其对应条目的Index=CHIPID逻辑地址分配表.地址映射表基址+逻辑NextHop地址。
之后,当报文到达堆叠系统后,经芯片组查找、转发、计算等一系列动作,获取NextHop地址映射表对应条目的Index,从而获取本地NextHop地址。
图5是本发明实施例提出的报文转发流程示意图,芯片A为入口(Ingress)芯片,芯片B为出口(Egress)芯片,芯片内部包括IPE(Ingress Process Engine)模块、BSR(BufferStore and Retrieve)模块和EPE(Egress Process Engine)模块。IPE模块主要对报文进行转发表的查找得到转发目的地和编辑信息,BSR模块对报文进行存储和转发到相应目的地,EPE模块根据IPE模块得到的编辑信息对原始报文进行编辑。报文转发过程如下:
1.芯片A报文处理流程
报文从网络端口进入后,在IPE模块通过转发表的查找得到目的端口和逻辑NextHop地址;
目的端口为芯片B的端口,芯片A将报文从芯片间的互联端口发送给芯片B,通过stackingHeader(堆叠系统报文头)携带目的端口、逻辑NextHop地址及芯片A的芯片ID。
2.芯片B报文处理流程
芯片B从芯片间的互联端口收到上述报文后,从stackingHeader可获取芯片A的CHIPID、目的端口、逻辑NextHop地址;
BSR模块根据目的端口将报文入相应的队列;
EPE模块根据芯片A的芯片ID索引CHIPID逻辑地址分配表,得到地址映射表的基址和地址映射表条目数,并判断报文的NextHop是否越界:
如果逻辑NextHop地址>=地址映射表条目数,则表示报文的NextHop越界,丢弃报文;
如果逻辑NextHop地址<地址映射表条目数,则计算NextHop地址映射表的Index,NextHop地址映射表的Index=地址映射表的基址+逻辑NextHop地址。根据上述计算出的Index索引NextHop地址映射表得到本地的物理NextHop地址,然后读取物理的NextHop内容获取报文的编辑信息,对报文进行相应的编辑后,发送给对应的端口。
需要说明的是,图5所示的实施例中虽然仅对入口芯片(芯片A)和出口芯片(芯片B)的报文转发过程进行说明,但本领域人员应当知晓,该处理过程还可能包括若干中间芯片,由于在此处理过程中中间芯片只是透明转发报文,不会对报文进行编辑动作,所以不需取NextHop地址,故在此不再另外赘述。
采用本发明实施例的堆叠系统网络芯片NextHop资源分配方法,对图1所示的堆叠系统进行NextHop资源分配,堆叠系统可提供16K+12K+6K的NextHop逻辑空间,其示例如图6所示,使NextHop资源得到充分利用。通过对本地NextHop地址进行映射查找,避免了CPU对转发表刷新操作而引起的查找错误,从而降低了对NextHop资源空间的管理难度。
应当理解,上述实施例仅为说明本发明的技术构思及特点,其目的在于让熟悉此项技术的人士能够了解本发明的内容并据以实施,并不能以此限制本发明的保护范围。凡根据本发明精神实质所作的等效变化或修饰,都应涵盖在本发明的保护范围之内。
Claims (5)
1.一种堆叠系统网络芯片NextHop资源分配方法,其特征在于:
根据芯片的物理NextHop资源配置芯片ID逻辑地址分配表,所述芯片ID逻辑地址分配表用于存储地址映射表的基址和地址映射表条目数;
CPU在入口芯片上下发转发表时,根据目的芯片ID申请逻辑NextHop地址,出口芯片申请物理NextHop地址并下发表项配置NextHop地址映射表中对应条目,对应条目的Index为所述芯片ID逻辑地址分配表中对应的地址映射表基址与所述逻辑NextHop地址之和;
当报文到达入口芯片后,入口芯片获取目的端口、逻辑NextHop地址后,将携带所述目的端口、逻辑NextHop地址及芯片ID的报文发送给出口芯片;
出口芯片接收到所述入口芯片发送的报文后,根据所述入口芯片的逻辑NextHop地址和芯片ID判断报文的NextHop是否越界;若越界,丢弃该报文;否则,获取NextHop地址映射表的Index,索引得到本地NextHop地址,获取报文的编辑信息,对报文进行相应编辑后发送。
2.根据权利要求1所述的堆叠系统网络芯片NextHop资源分配方法,其特征在于:堆叠系统内所有芯片的芯片ID逻辑地址分配表配置一致。
3.根据权利要求1所述的堆叠系统网络芯片NextHop资源分配方法,其特征在于,所述方法还包括:出口芯片接收所述报文后,根据入口芯片的芯片ID索引芯片ID逻辑地址分配表,得到地址映射表的基址和地址映射表条目数。
4.根据权利要求3所述的堆叠系统网络芯片NextHop资源分配方法,其特征在于:如果所述入口芯片的逻辑NextHop地址大于或等于地址映射表条目数,则表示报文的NextHop越界。
5.根据权利要求3所述的堆叠系统网络芯片NextHop资源分配方法,其特征在于:获取NextHop地址映射表的Index是通过计算所述根据入口芯片的芯片ID索引得到的地址映射表的基址与所述入口芯片的逻辑NextHop地址之和获得。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710036185.5A CN106850441B (zh) | 2017-01-17 | 2017-01-17 | 堆叠系统网络芯片NextHop资源分配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710036185.5A CN106850441B (zh) | 2017-01-17 | 2017-01-17 | 堆叠系统网络芯片NextHop资源分配方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106850441A CN106850441A (zh) | 2017-06-13 |
CN106850441B true CN106850441B (zh) | 2019-11-29 |
Family
ID=59124520
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710036185.5A Active CN106850441B (zh) | 2017-01-17 | 2017-01-17 | 堆叠系统网络芯片NextHop资源分配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106850441B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108132924B (zh) * | 2017-12-11 | 2021-05-25 | 珠海泰芯半导体有限公司 | 一种基于excel的芯片端口映射管理方法 |
CN113472643B (zh) * | 2021-06-15 | 2023-08-18 | 新华三信息安全技术有限公司 | 一种故障处理方法及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7088718B1 (en) * | 2002-03-19 | 2006-08-08 | Cisco Technology, Inc. | Server load balancing using IP option field approach to identify route to selected server |
CN105812263A (zh) * | 2016-03-10 | 2016-07-27 | 盛科网络(苏州)有限公司 | 一种在asic芯片中实现路由arp信息和编辑信息分离的方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6947931B1 (en) * | 2000-04-06 | 2005-09-20 | International Business Machines Corporation | Longest prefix match (LPM) algorithm implementation for a network processor |
-
2017
- 2017-01-17 CN CN201710036185.5A patent/CN106850441B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7088718B1 (en) * | 2002-03-19 | 2006-08-08 | Cisco Technology, Inc. | Server load balancing using IP option field approach to identify route to selected server |
CN105812263A (zh) * | 2016-03-10 | 2016-07-27 | 盛科网络(苏州)有限公司 | 一种在asic芯片中实现路由arp信息和编辑信息分离的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN106850441A (zh) | 2017-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI709866B (zh) | 設備型號識別方法、裝置及處理設備 | |
CN105224692B (zh) | 支持多核处理器的sdn多级流表并行查找的系统及方法 | |
CN105190543B (zh) | 针对循环数据流的基于可到达性的协调 | |
TWI660274B (zh) | 基於區塊鏈的資料處理方法及設備 | |
CN109547529A (zh) | 一种基于dds的分布式工业数据分发方法 | |
CN105335133B (zh) | 用于生成业务规则模型的方法和装置 | |
KR102625415B1 (ko) | 서브-프리미티브를 처리하기 위한 그래픽 처리 방법 및 시스템 | |
US9928266B2 (en) | Method and computing device for minimizing accesses to data storage in conjunction with maintaining a B-tree | |
CN108139882B (zh) | 针对网络装置实施阶层分布式链接列表的系统及方法 | |
CN105224519B (zh) | 自然语言中的自动问句检测 | |
US20200192880A1 (en) | Optimal dynamic shard creation in storage for graph workloads | |
CN105468797B (zh) | 一种信息处理方法及装置 | |
CN106850441B (zh) | 堆叠系统网络芯片NextHop资源分配方法 | |
CN108460046A (zh) | 一种地址聚合的方法以及设备 | |
WO2020134703A1 (zh) | 一种基于神经网络系统的图像处理方法及神经网络系统 | |
CN110443457A (zh) | 数据处理方法及装置 | |
CN106201673B (zh) | 一种地震数据处理方法及装置 | |
CN107515784A (zh) | 一种在分布式系统中计算资源的方法与设备 | |
CN109032533A (zh) | 一种数据存储方法、装置和设备 | |
CN109063114B (zh) | 能源云平台的异构数据集成方法、装置、终端及存储介质 | |
CN109582774A (zh) | 自然语言分类方法、装置、设备及存储介质 | |
Aarstad et al. | Related and unrelated variety in a tourism context | |
KR102066330B1 (ko) | 카테고리 디렉토리를 결정하기 위한 방법 및 디바이스와, 자동 분류 방법 및 디바이스 | |
CN106156049A (zh) | 一种数据读取的方法和系统 | |
CN106227776A (zh) | 一种支撑智慧金融的数据预处理方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP03 | Change of name, title or address |
Address after: 215000 unit 13 / 16, 4th floor, building B, No.5 Xinghan street, Suzhou Industrial Park, Jiangsu Province Patentee after: Suzhou Shengke Communication Co.,Ltd. Address before: 215000 unit 13 / 16, floor 4, building B, No. 5, Xinghan street, Wuxi Industrial Park, Jiangsu Province Patentee before: CENTEC NETWORKS (SU ZHOU) Co.,Ltd. |
|
CP03 | Change of name, title or address |