CN101420372B - 一种片上网络缓存分配方法 - Google Patents

一种片上网络缓存分配方法 Download PDF

Info

Publication number
CN101420372B
CN101420372B CN2008100462880A CN200810046288A CN101420372B CN 101420372 B CN101420372 B CN 101420372B CN 2008100462880 A CN2008100462880 A CN 2008100462880A CN 200810046288 A CN200810046288 A CN 200810046288A CN 101420372 B CN101420372 B CN 101420372B
Authority
CN
China
Prior art keywords
fifo
network
dir
chip
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN2008100462880A
Other languages
English (en)
Other versions
CN101420372A (zh
Inventor
王坚
李玉柏
武畅
杨中明
柴松
李桓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN2008100462880A priority Critical patent/CN101420372B/zh
Publication of CN101420372A publication Critical patent/CN101420372A/zh
Application granted granted Critical
Publication of CN101420372B publication Critical patent/CN101420372B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

本发明公开了一种片上网络缓存分配方法,其步骤包括:输入片上网络的相关参数,将所有缓存资源分配到每个FIFO上,获取当前配置下网络的平均延迟;建立片上网络的性能分析模型,根据输入参数对系统进行分析,得到每个FIFO的阻塞概率;找出阻塞概率最大的FIFO_MAX和阻塞概率最小的FIFO_MIN;更改系统配置,令FIFO_MAX的深度加1,FIFO_MIN的深度减1,并获取当前配置下网络的新平均延迟;如果新平均延迟小于或等于旧平均延迟,则更改配置生效,并跳回第二步;反之则以更改配置前的系统配置为最优配置;系统根据最优配置分配缓存。本发明先获取网络通信的瓶颈,再采用新算法来进行缓存分配,实现了片上网络的性能优化。

Description

一种片上网络缓存分配方法
技术领域
本发明涉及一种缓存分配方法,具体地说,是涉及一种片上网络的缓存分配方法。
背景技术
集成电路技术在过去的几十年中得到了飞速的发展,在单一芯片上可集成的晶体管数目遵循着摩尔定律不断增加,片上系统由单核处理器向着多核处理器的方向发展,片上通信机制也经历了从点对点到总线结构的转变。随着片上器件数目的进一步增加,为了使各部件之间更好的通信,总线结构已经不能胜任,芯片设计者需要寻求一种新的结构来解决片上器件互连的问题。于是,人们纷纷将目光聚焦于运用网络技术来解决芯片中器件互连的问题上,从而提出采用片上网络结构来解决片上通信的瓶颈问题。
在片上网络路由节点设计中,人们通常采取统一的缓存长度,但由于片上网络大多是针对特定应用设计,网络的通信量并不是理想的均匀模式,路由节点每个方向上的负载可以是非均衡的。这样,统一长度的缓存分配并不能使有限的资源得到充分利用,因此,针对不同应用进行片上网络的缓存分配,以改善网络的性能,是一个非常重要的问题。但是,目前要解决片上网络的缓存分配还存在许多困难,主要包括以下几个方面:
一.对于上网络不同的路由节点结构而言,数据在无阻塞情况下通过单个路由节点所需的时间是不同的,这需要根据当前路由节点结构来评估数据无阻塞通过单个节点的时间;
二.当几个方向的数据包竞争一个输出端口时,不同的调度算法使得各个方向数据的处理时间不同,因此需要分析调度算法对数据转发的影响;
三.对不同的应用而言,每个端口的负载是不同的,这就要求我们能够针对不同应用来分析各个端口的负载;
四.不同的缓存深度使得该缓存被填满的概率不同,从而影响数据从上级路由节点转发至本级路由节点所需的平均时间,而在这些缓存中,最容易被填满的缓存也就成为了网络中的通信瓶颈,因此,分析路由节点各个方向缓存为满的概率,是片上网络缓存分配的前提;
五.在分析出片上网络的通信瓶颈后,需要一种有效的缓存分配算法,算法要能计算出网络中所有路由节点各个端口相应的缓存资源深度,使得网络性能得到改善。
正是由于上述困难的存在,使得片上网络缓存分配问题始终未能得到较好的解决,但是,片上网络的缓存分配问题又影响着相关技术的发展,因此,片上网络缓存分配问题便成为了一个十分重要且急需解决的问题。
发明内容
本发明的目的是提供一种片上网络的缓存分配方法,解决现有技术存在的问题,通过建立片上网络性能分析模型来实现片上网络通信瓶颈的查找,并使用新的缓存分配方法来为不同端口分配相应深度的缓存资源,最终实现片上网络的通信性能的优化。
为了实现上述目的,本发明采用的技术方案如下:
一种片上网络缓存分配方法,包括如下步骤:a.向系统输入片上网络体系结构的相关参数和应用相关的参数,并为每个FIFO分配缓存资源,然后通过仿真得到当前配置下数据在网络中的平均延迟Delay;b.计算片上网络中向同一个方向发送数据的每个FIFO在当前系统配置下的阻塞概率;c.从所有FIFO中分别找出阻塞概率最大的FIFO和阻塞概率最小的FIFO,即FIFO_MAX和FIFO_MIN;d.更改系统配置,令FIFO_MAX的缓存深度Depth_X=Depth_X+1,FIFO_MIN的缓存深度Depth_Y=Depth_Y-1,并通过仿真得到当前配置下数据在片上网络中的平均延迟Delay_new;e.当Delay_new大于Delay,则d步骤对系统配置的更改无效,系统仍使用更改前的配置,每个FIFO的最优缓存深度即为配置更改前的缓存深度;f.当Delay_new小于或等于Delay时,d步骤对系统配置进行的更改生效,并返回步骤b继续执行,直到Delay_new大于Delay,然后按照步骤e执行。
所述阻塞概率的算法包括如下步骤:首先计算各个FIFO向相同节点发送数据的数据插入率λx,y,dir;然后计算各个FIFO向相同节点发送数据的平均服务时间Sx,y,dir;最后由平均服务时间得到平均服务率μx,y,dir,从而由数据插入率和平均服务率得到阻塞概率Px,y,full,dir
所述平均服务时间包括两部分:模拟数据接受本地路由节点的服务时间SL,以及模拟数据接受下级路由节点的服务时间Sx,y,dir,Next
所述模拟数据接受本地路由节点的服务时间SL为以下六个部分之和:FIFO的读写延迟SFIFO,包头解析SAD,链路选择SSEL,路由仲裁SARB,包通过Crossbar的延迟SCRO和包在两个路由节点之间传播的延迟SLink
所述模拟数据接受下级路由节点的服务时间Sx,y,dir,Next通过如下式子实现:
S x , y , dir , Next = 1 Σ ∀ dir ′ μ x , y , dir , dir ′ × P x , y , dir , dir ′
所述步骤a中为每个FIFO分配缓存资源包括以下两种方法:
(1)将所有缓存资源平均分配给每个FIFO;
(2)为每个FIFO分配一个初始缓存,并保证所有缓存资源中留有一部分缓存资源待用。
本发明的设计原理:通过建立片上网络的性能分析模型,来寻找片上网络的通信瓶颈,再设计一种算法来对其进行优化,并根据不同应用来为不同端口分配不同的缓存深度,从而提高片上网络的通信能力。
下面详细描述本发明的发明内容。
一.片上网络的性能分析模型
建立片上网络的性能分析模型,目的在于找到片上网络中的通信瓶颈,而片上网络中的通信瓶颈即为片上网络中数据传输时最容易出现阻塞的FIFO。因此,更为直观地说,找到片上网络通信中最容易出现阻塞的FIFO,或者说找到片上网络通信中阻塞概率最大的FIFO,即是建立片上网络的性能分析模型的目的。
为找到片上网络通信中阻塞概率最大的FIFO,我们先对片上网络通信过程进行分析。
如图1中虚线部分所示,一个片上网络节点处的数据传输结构主要由包头解析模块(AD)、链路选择模块(Channel SEL)、冲突仲裁模块(Arbiter)和数据交换模块(Crossbar)组成。在此,首先设定该通信链路采用输入缓存形式,且每个路由节点对数据包进行读写FIFO、包头解析、路由选择以及路由仲裁等操作的时间都相等,并且路由节点的本地FIFO为无穷长;数据交换采取虚拟直通的方式,一个包在无阻塞的情况下从路由节点发送第一个切片起到下一级路由节点接收完最后一个切片止所需时间与包长成比例。
为方便描述,首先作如下定义:
Rx,y:位于(x,y)处的路由节点;
dir:路由节点相应的方向,可以为E(east)、S(south)、W(west)、N(north)和L(Local)等任何方向;
FIFOx,y,dir:         Rx,y在dir方向的FIFO;
λx,y,dir:            FIFOx,y,dir处的数据插入率;
μx,y,dir:            FIFOx,y,dir的服务强度;
ρx,y,dir:            FIFOx,y,dir的利用率;
Kx,y,dir:            FIFOx,y,dir可容纳的包的个数;
Px,y,x′,y′,dir′:   FIFOx,y,,L的数据通过FIFOx′,y′,dir′的概率;
Px,y,dir,dir′:       FIFOx,y,dir的数据向dir’方向转发的概率;
Px,y,full,dir:       FIFOx,y,,dir为满的概率;
Sx,y,dir:            FIFOx,y,dir中的数据的平均服务时间;
SL:              数据包从进入路由节点起到准备好接受下一级路由节点服务止所需的间;
Sx,y,dir,Next:   FIFOx,y,dir中的数据包接受下级路由节点所需的平均服务时间;
μx,y,dir,dir′:  FIFOx,y,dir中的数据接受dir’方向的服务时能的平均率;
M:              数据包的长度;
Total:          总的缓存大小。
将图1所示虚线部分看成一个M/M/1/K(第一个M表示数据插入率为指数分布,第二个M表示数据服务率为指数分布,“1”表示一个队列只有一个服务器,K表示队列的长度)排队模型,根据M/M/1---/K排队模型公式,得到其阻塞概率公式如式(1):
P x , y , full , dir = ρ K × 1 - ρ 1 - ρ K + 1 - - - ( 1 )
其中 ρ = λ x , y , dir μ x , y , dir , μ x , y , dir = 1 S x , y , dir - - - ( 2 )
因此,只要计算出FIFOx,y,dir的数据插入率λx,y,dir和平均服务时间Sx,y,dir,就能找出最容易阻塞的FIFO,并把它作为通信瓶颈进行优化。
下面选取图1中虚线内的部分作为我们分析的对象,分别针对数据插入率λx,y,dir与平均服务时间Sx,y,dir进行建模。
(1)数据插入率
位于(x,y)处dir方向上的FIFOx,y,dir的数据插入率我们用下式来计算:
λ x ′ , y ′ , dir ′ = Σ ∀ x , y λ x , y , L × P x , y , x ′ , y ′ , dir ′ - - - ( 3 )
(2)平均服务时间
在片上网络中,数据包通过路由节点转发所需的时间看成为本地路由节点服务时间SL和下级路由节点服务时间两个部分之和。
Sx,y,dir=SL+Sx,y,dir,Next            (4)
本地路由节点服务时间SL是指数据包从进入路由节点起到准备好接受下一级路由节点服务止所需的间,包括FIFO的读写延迟SFIFO、包头解析SAD、链路选择SSEL、路由仲裁SARB、包通过Crossbar的延迟SCRO和包在两个路由节点之间传播的延迟SLink,即:
SL=SFIFO+SAD+SSEL+SARB+SCRO+SLink     (5)
本地路由节点服务时间的计算相对简单,通常在路由节点确定以后就可以轻易得出。但是,与普通网络性能分析模型不同点在于,在一些其它网络性能分析模型中,SFIFO是假定为零的,而在片上网络的性能分析模型中,SFIFO必须考虑。在一些其它的网络性能分析模型中,通常假定数据到达后插入缓存并准备好接受服务这个过程是瞬间完成的,即SFIFO=0;而在片上网络中,特别是采用同步FIFO的片上网络,从数据包到达FIFO端口起到数据包可以进行包头解析至,需要依次经过4个时钟周期:检测到数据到达并拉高写使能信号、检测到写使能信号并将数据写入缓存、检测到缓存中的数据并拉高读使能、检测到读使能信号并将数据读出,而数据包进行包头解析、链路选择、路由仲裁等处理需要几个时钟周期。因此,片上网络建模,必须考虑SFIFO对模型的影响。
下级路由节点服务时间是指数据包包头准备好向下级路由节点转发起到将数据包包尾发送到下级路由节点为止的时间。根据路由节点的体系结构,我们可以知道:在下一级FIFO没有阻塞时,数据可以从本地FIFO顺利地传送到下一级FIFO,所需时间与包长M成正比;而在下一级FIFO为满时,数据只能停留在本级FIFO,直到下级FIFO有数据被传走,才能向下一级FIFO传送。此外,在一个FIFO中,不同的数据包可能向不同的方向转发,为了得到FIFO中数据包接受下级路由节点服务时的平均服务时间,我们需要先计算出数据包向各个方向(即节点)转发的概率以及向各个方向(即节点)转发时所能得到的平均服务率。
总的看来,数据包能得到的下级路由节点服务的平均服务时间取决于以下四个方面:
1)本地FIFO中的数据包向各个方向(即节点)转发的概率;
2)相应的下级FIFO为满的概率;
3)相应的下级FIFO自身能得到的平均服务时间;
4)包长M。
下面,我们来求数据包接受模拟数据接受下级路由节点服务时所需的时间Sx,y,dir,Next。首先,将图1抽象成为图2,在图2中,图1中虚线部分被等效成两部分:第一个部分模拟数据包在接受本地路由节点的服务时间,所需时间为SL;第二个部分模拟数据接受下级路由节点服务时所需的时间。为了便于分析,我们把往相同方向(即节点)传送的数据包抽象出来构成并联的子队列(如图2中的FIFOx,y,L,向东转发的数据所需时间用SEN—下标第一个字母表示转发方向,第二个字母是Next的简写,表示接受下级路由节点的服务,向其它方向转发的数据只需要改变下标第一个字母即可作出相应的表示),每个子队列的服务率取决于相应的下一级FIFO能提供给它的服务率,第二个部分的总服务率可由子队列的服务率以及数据选择子队列的概率求出。模拟数据接受下级路由节点服务时所需的时间可用下式计算得出:
S x , y , dir , Next = 1 Σ ∀ dir ′ μ x , y , dir , dir ′ × P x , y , dir , dir ′ - - - ( 6 )
从式(6)可以看出,由于Px,y,dir,dir′在路由算法确定下来以后就已经为确定值,因此,只需要求出数据向各个方向转发时能得到的平均服务率μx,y,dir,dir′,就很容易得到下级路由接点总的平均服务率和平均服务时间。
为求解μx,y,dir,dir′,将一个路由节点中各个FIFO向相同方向发送的子队列提取出来构成一个整体(如图2中椭圆部分),则该部分的数据插入率为:
λ=λx,y,E×Px,y,E,Ex,y,S×Px,y,S,Ex,y,W×Px,y,W,E
x,y,N×Px,y,N,Ex,y,LO×Px,y,LO,E     (7)
此外,由于在下一级FIFO没有阻塞时,数据可以顺利地传送到下一级FIFO,所需时间与包长M成正比;而在下一级FIFO为满时,数据只能停留在本级FIFO,直到下级FIFO有数据被传走,才能向下一级FIFO传送。因此,将图2中椭圆部分得到的服务时间用下式表示:
S=(1-Px+1,y,full,W)×M+Px+1,y,full,W×(Sx+1x,y,+M)   (8)
所以,其服务率:
μ = 1 ( 1 - P x + 1 , y , full , W ) × M + P x + 1 , y , full , W × ( S x + 1 , y , W + M ) - - - ( 9 )
根据M/M/1排队模型公式,数据在图2的椭圆部分的平均等待时间:
w 1 = 1 μ - λ - - - ( 10 )
而我们对椭圆中的任意一个排队队列应用M/M/1排队模型公式(以本地FIFO在E方向的子队列为例),有:
w 2 = 1 μ x , y , L , E - λ x , y , L × P x , y , L , E - - - ( 11 )
假定路由节点的调度算法足够公平,使得每个子队列中的数据包等待时间相同,在这种情况下,即有:w1=w2。联立(7)(9)(10)(11)式,可得本地FIFO在E方向上子队列的服务率:
μ x , y , LO , E = 1 ( 1 - P x + 1 , y , full , W ) × M + P x + 1 , y , full , W × ( S x + 1 , y , W + M ) + λ x , y , S × P x , y , S , E + λ x , y , W × P x , y , W , E + λ x , y , N × P x , y , N , E + λ x , y , E × P x , y , E , E - - - ( 12 )
同理,我们可以求出其它几个方向上的子队列的服务率μx,y,W,E,μx,y,S,E,μx,y,N,E以及μx,y,E,E
利用式(6),我们可以将下级路由节点所能得到的各个方向的输入FIFO的平均服务时间Sx,y,dir,Next表示出来,再利用式(4),就可以得到整个队列所能得到的平均服务时间Sx,y,dir的表达式。对每个FIFO建立这样一个等式,就可以得到一个等式组,结合式(1)求解等式组,我们就能将每个FIFO的阻塞概率都用相应的Sx,y,dir,L以及该FIFO的长度Kx,y, dir表示出来,这样就能得到在当前配置下每个FIFO的阻塞概率。
二.缓存分配方法
以片上网络的性能分析模型所求得的阻塞概率为基础,本发明设计了如下的缓存分配方法:
第一步:输入片上网络通信节点体系结构的相关参数(SL,Px,y,x′,y′,dir′,…)和应用相关的参数(λx,y,dir,…),并为每个FIFO分配缓存资源(缓存资源的分配方法可以是将所有资源进行平均分配,也可以不将缓存资源分配,只为每个FIFO分配一个初始缓存),然后通过仿真得到当前配置下数据在网络中的平均延迟Delay,输入的参数由具体的片上网络结构体系决定;
第二步:根据输入参数对系统进行性能分析,得到每个FIFO的阻塞概率;
第三步:找出阻塞概率最大的FIFO_MAX以及阻塞概率最小的FIFO_MIN;
第四步:更改系统配置,令FIFO_MAX的缓存深度Depth_X=Depth_X+1,FIFO_MIN的缓存深度Depth_Y=Depth_Y-1,并通过仿真得到当前配置下数据在网络中的平均延迟Delay_new;
第五步:如果Delay_new小于或等于Delay,则该配置生效,并跳回第二步,如果Delay_new大于Delay,则更改配置前的系统配置为最优配置,所以将FIFO_MAX与FIFO_MIN的深度改回原来的值,即Depth_X=Depth_X-1,Depth_Y=Depth_Y+1,即更改前的每个FIFO的缓存深度为最优值。
本发明通过建立片上网络的性能分析模型,实现对指定的应用进行性能分析,寻找出片上网络的通信瓶颈,然后在性能分析的基础上按照缓存分配算法为不同的应用端口分配不同深度的缓存,使有限的缓存资源得到最大限度地利用,从而在不增加资源消耗的情况下改善网络性能。
下面通过具体实施方式和相关附图来对本发明作进一步说明。
附图说明
图1为本发明中片上网络的一种路由节点体系结构图。
图2为本发明的性能分析模型示意图。
图3为本发明中缓存分配算法流程图。
具体实施方式
下面通过举例来对本发明作进一步说明。
实施例1
本实施例是在4*4的mesh拓扑网络结构上,采取XY维序路由,对节点(0,0)处的通信状况进行性能分析,并进行优化以提高该节点的数据传输能力。
本实施例在总缓存深度Total=96的情况进行了仿真,并将均匀的缓存配置与本发明优化后的缓存配置的网络性能进行比较。
本实施例按照以下的缓存分配方法对网络进行优化。
第一步:向系统输入NOC体系结构的相关参数(SL,Px,y,x′,y′,dir′,Kx,y,dir)以及其应用的相关参数(λx,y,dir,Px,y,dir,dir′,M,Total),并将总缓存资源Total=96平均分配给东西南北四个输入FIFO,即每个输入FIFO获取的缓存深度为24,然后求出当前配置下数据在网络中的平均延迟Delay;
第二步:根据输入参数对系统进行分析,分别求出东西南北四个方向的输入FIFO的阻塞概率,阻塞概率的计算公式如式(1)
P x , y , full , dir = ρ K × 1 - ρ 1 - ρ K + 1 - - - ( 1 )
其中 ρ = λ x , y , dir μ x , y , dir , μ x , y , dir = 1 S x , y , dir - - - ( 2 )
由公式(1)、(2)可以得出,只需要求出东西南北四个方向上数据在网络中的数据插入率和平均服务时间,即可求出各个方向的输入FIFO的阻塞概率;
第三步:从第二步中分别找出阻塞概率最大的输入FIFO和阻塞概率最小的输入FIFO,即FIFO_MAX和FIFO_MIN;
第四步:更改系统配置,令FIFO_MAX的缓存深度Depth_X=Depth_X+1,FIFO_MIN的缓存深度Depth_Y=Depth_Y-1,并通过仿真得到当前配置下数据在网络中的平均延迟Delay_new;
第五步:如果Delay_new小于或等于Delay,则第四步中更改配置生效,并跳回第二步继续执行,直到Delay_new大于Delay;如果Delay_new大于Delay,则更改配置前的系统配置为最佳值,更改前每个FIFO的缓存分配值即为最优分配,所以将FIFO_MAX与FIFO_MIN的深度改回原来的值,即Depth_X=Depth_X-1,Depth_Y=Depth_Y+1。
本发明通过上述的缓存分配方法,将阻塞概率小的输入FIFO的缓存中多余的缓存分配给阻塞概率大的输入FIFO,从而在不增加缓存深度的情况下,减低了数据在整个网络中的传输延迟,实现了片上网络通信性能的优化。
下表为本发明与现有技术的数据传输延迟时间对比表:
 
数据插入率 现有技术(clk) 本发明(clk)
数据插入率=0.05 2571.58 2395.86
数据插入率=0.06 3476.71 3141.05
数据插入率=0.07 4926.83 4683.15
数据插入率=0.08 6098.26 5705.41
实施例2
实施例2与实施例的区别在于缓存分配方法第一步。实施例2中,缓存分配方法的第一步为:向系统输入NOC体系结构的相关参数(SL,Px,y,x′,y′,dir′,Kx,y,dir)以及其应用的相关参数(λx,y,dir,Px,y,dir,dir′,M,Total),并分别为东西南北四个输入FIFO分配一个深度相同的缓存,但是总缓存并未分配完,如分别为东西南北四个方向的输入FIFO分配一个深度为1的缓存,然后求出当前配置下数据在网络中的平均延迟Delay。
实施例2中缓存分配方法的其他步骤均与实施例1相同。
从上述实施例可以得出,本发明通过建立性能分析模型计算出片上网络的通信瓶颈,并设计了一种新的缓存分配方法来对片上网络通信性能进行优化,使片上网络的通信性能得到了大大提高。

Claims (6)

1.一种片上网络缓存分配方法,其特征在于,所述片上网络缓存分配方法包括如下步骤:
a.向系统输入片上网络体系结构的相关参数和应用相关的参数,并为每个FIFO分配缓存资源,然后通过仿真得到当前配置下数据在网络中的平均延迟Delay;
b.计算片上网络中向同一个节点发送数据的每个FIFO在当前系统配置下的阻塞概率;
c.从所有FIFO中分别找出阻塞概率最大的FIFO和阻塞概率最小的FIFO,即FIFO_MAX和FIFO_MIN;
d.更改系统配置,令FIFO_MAX的缓存深度Depth_X=Depth_X+1,FIFO_MIN的缓存深度Depth_Y=Depth_Y-1,并通过仿真得到当前配置下数据在片上网络中的平均延迟Delay_new;
e.当Delay_new大于Delay,则d步骤对系统配置的更改无效,系统仍使用更改前的配置,每个FIFO的最优缓存深度即为配置更改前的缓存深度;
f.当Delay_new小于或等于Delay时,d步骤对系统配置进行的更改生效,并返回步骤b继续执行,直到Delay_new大于Delay,然后按照步骤e执行。
2.根据权利要求1所述的片上网络缓存分配方法,其特征在于,所述阻塞概率的算法包括如下步骤:
首先计算每个FIFO向相同节点发送数据的数据插入率λx,y,dir
然后计算每个FIFO向相同节点发送数据的平均服务时间Sx,y,dir
最后由平均服务时间得到平均服务率μx,y,dir,从而由数据插入率和平均服务率得到阻塞概率Px,y,full,dir
3.根据权利要求2所述的片上网络缓存分配方法,其特征在于,所述平均服务时间包括两部分:模拟数据接受本地路由节点的服务时间SL,以及模拟数据接受下级路由节点的服务时间Sx,y,dir,Next
4.根据权利要求3所述的片上网络缓存分配方法,其特征在于,所述模拟数据接受本地路由节点的服务时间SL为以下六个部分之和:
FIFO的读写延迟SFIFO,包头解析SAD,链路选择SSEL,路由仲裁SARB,包通过Crossbar的延迟SCRO和包在两个路由节点之间传播的延迟SLink
5.根据权利要求3所述的片上网络缓存分配方法,其特征在于,所述模拟数据接受下级路由节点的服务时间Sx,y,dir,Next通过如下式子实现:
Figure F2008100462880C00021
6.根据权利要求1所述的片上网络缓存分配方法,其特征在于,所述步骤a中为每个FIFO分配缓存资源包括以下两种方法:
(1)将所有缓存资源平均分配给每个FIFO;
(2)为每个FIFO分配一个初始缓存,并保证所有缓存资源中留有一部分缓存资源待用。
CN2008100462880A 2008-10-16 2008-10-16 一种片上网络缓存分配方法 Expired - Fee Related CN101420372B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2008100462880A CN101420372B (zh) 2008-10-16 2008-10-16 一种片上网络缓存分配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2008100462880A CN101420372B (zh) 2008-10-16 2008-10-16 一种片上网络缓存分配方法

Publications (2)

Publication Number Publication Date
CN101420372A CN101420372A (zh) 2009-04-29
CN101420372B true CN101420372B (zh) 2010-12-08

Family

ID=40630987

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2008100462880A Expired - Fee Related CN101420372B (zh) 2008-10-16 2008-10-16 一种片上网络缓存分配方法

Country Status (1)

Country Link
CN (1) CN101420372B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102693213B (zh) * 2012-05-16 2015-02-04 南京航空航天大学 应用于片上网络的系统级传输延时模型的建立方法
CN103986664B (zh) * 2014-05-15 2017-06-27 厦门大学 一种用于片上网络的混合互连Mesh拓扑结构及其路由算法
CN112306369A (zh) * 2019-07-29 2021-02-02 腾讯科技(深圳)有限公司 一种数据处理方法、装置、服务器及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN2666045Y (zh) * 2003-12-05 2004-12-22 中国电子科技集团公司第三十研究所 一种通用高效数据包的数据缓存器
CN1770734A (zh) * 2004-11-05 2006-05-10 株式会社日立制作所 网络装置的通信量控制方法
CN1984042A (zh) * 2006-05-23 2007-06-20 华为技术有限公司 一种缓存地址的管理方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN2666045Y (zh) * 2003-12-05 2004-12-22 中国电子科技集团公司第三十研究所 一种通用高效数据包的数据缓存器
CN1770734A (zh) * 2004-11-05 2006-05-10 株式会社日立制作所 网络装置的通信量控制方法
CN1984042A (zh) * 2006-05-23 2007-06-20 华为技术有限公司 一种缓存地址的管理方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
杨帆等.一种新的输入缓存Clos结构及其路由/调度算法.《西安电子科技大学学报(自然科学版)》.2007,第34卷(第1期),第63-67页. *

Also Published As

Publication number Publication date
CN101420372A (zh) 2009-04-29

Similar Documents

Publication Publication Date Title
US9515961B2 (en) Credit flow control scheme in a router with flexible link widths utilizing minimal storage
Kim et al. A low latency router supporting adaptivity for on-chip interconnects
CN101383712B (zh) 一种片上网络的路由节点微结构
CN101488922B (zh) 具备自适应路由能力的片上网络路由器及其实现方法
Abdallah et al. Basic network-on-chip interconnection for future gigascale MCSoCs applications: Communication and computation orthogonalization
Xin et al. A low-latency NoC router with lookahead bypass
Wang et al. Area and power-efficient innovative congestion-aware Network-on-Chip architecture
CN102474468A (zh) 半导体系统、中继器及芯片电路
CN105740199A (zh) 芯片上网络的时序功率估算装置与方法
Zhou et al. An application specific NoC mapping for optimized delay
CN101420372B (zh) 一种片上网络缓存分配方法
Jiang et al. A lightweight early arbitration method for low-latency asynchronous 2D-mesh NoC's
Wang et al. Flexible and efficient QoS provisioning in AXI4-based network-on-chip architecture
Manna et al. Energy and performance evaluation of a dimension order routing algorithm for Mesh-of-Tree based Network-on-Chip architecture
Chen et al. Contention minimization in emerging smart NoC via direct and indirect routes
Lee et al. Design of a feasible on-chip interconnection network for a chip multiprocessor (cmp)
Raina et al. Traffic aware scheduling algorithm for network on chip
Fang et al. Exploration on routing configuration of HNoC with intelligent on-chip resource management
Bao et al. A priority-based polling scheduling algorithm for arbitration policy in Network on Chip
Bansal et al. Energy efficient noc router for high throughput applications in many-core gpus
Bui et al. On-time network on-chip: Analysis and architecture
Nori et al. A Novel Asynchronous Network-On-Chip Based on Source Asynchronous Signaling
Kang et al. Dynamic packet fragmentation for increased virtual channel utilization in on-chip routers
Zeng et al. A performance enhanced dual-switch Network-on-Chip architecture
Fang et al. Exploration on routing configuration of HNoC with reasonable energy consumption

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C17 Cessation of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20101208

Termination date: 20121016