CN106131202B - 面向信息中心网络中基于流体动力学理论的缓存放置决策评分方法 - Google Patents

面向信息中心网络中基于流体动力学理论的缓存放置决策评分方法 Download PDF

Info

Publication number
CN106131202B
CN106131202B CN201610574529.3A CN201610574529A CN106131202B CN 106131202 B CN106131202 B CN 106131202B CN 201610574529 A CN201610574529 A CN 201610574529A CN 106131202 B CN106131202 B CN 106131202B
Authority
CN
China
Prior art keywords
container
liquid
request
node
temperature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201610574529.3A
Other languages
English (en)
Other versions
CN106131202A (zh
Inventor
阳旺
吴帆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Central South University
Original Assignee
Central South University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Central South University filed Critical Central South University
Priority to CN201610574529.3A priority Critical patent/CN106131202B/zh
Publication of CN106131202A publication Critical patent/CN106131202A/zh
Application granted granted Critical
Publication of CN106131202B publication Critical patent/CN106131202B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services
    • H04L67/568Storing data temporarily at an intermediate stage, e.g. caching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services
    • H04L67/568Storing data temporarily at an intermediate stage, e.g. caching
    • H04L67/5682Policies or rules for updating, deleting or replacing the stored data

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Computation (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种面向信息中心网络中基于流体动力学理论的缓存放置决策评分方法,根据用户发送的请求,动态计算每个请求所经过节点的服务请求率,直至命中节点。利用请求服务率更细粒度评估当前节点对请求内容的重要性。同时利用流体动力学理论映射缓存决策过程,并依据其容器中液体温度高低决策缓存是否在该容器存储,本发明的技术效果在于,有效地提高了面向信息中心网络缓存的命中率,尤其在有限的缓存资源时仍然取得较好的结果,同时,有效解决了信息中心网络冗余问题,极大减少网络的相同内容的备份个数,使得网络缓存资源得到充分地利用。

Description

面向信息中心网络中基于流体动力学理论的缓存放置决策评 分方法
技术领域
本发明涉及网络缓存技术邻域,特别涉及一种面向信息中心网络中基于流体动力学理论的缓存放置决策评分方法。
背景技术
随着信息技术和互联网应用的快速普及,互联网应用范围和规模已经远远超越了设计初衷,逐渐取代了一些传统通讯媒介,成为当前信息社会的重要基础设施。互联网应用的主体已经转向文字信息和多媒体音频等内容的获取,信息服务内容已成为网络服务的主题。在互联网内容和需求高速发展的同时,当前的互联网的需求逐渐暴露出越来越多问题。以TCP/IP协议为核心技术的互联网面临着日益严重的技术挑战。目前网络主要通过数据包交换方式满足主机之间端对端的数据传输,在网络的安全性、可靠性、灵活性、移动性、拥塞控制和路由效率等方面暴露出许多不适应性。尤其在一些典型的覆盖网络优化解决方案P2P、CDN、云计算、大数据等技术在提高数据共享和分发效率的同时,更加剧了网络的冗余。
信息中心网络(Information Centric Networking,ICN)采用以信息为中心的网络通信模型,取代传统的以地址为中心的网络通信模型,通信模式从主机到主机演进为主机到网络,传输模式由传统的“推”改为“拉”,安全机制构建在信息上而不是主机上,转发机制由传统的存储转发演进为缓存转发,体系结构支持主机移动,从而更好满足大规模网络内容分发、移动内容存取、网络流量均衡等需求。但这种全新网络架构在理论、技术和应用方面尚有许多问题亟待解决。
信息中心网络是未来互联网架构中较有潜力的一种新一代互联网体系结构,拥有全新的工作机制和缓存机制。为了保证更高效的网络利用率、提高数据的可用性,ICN架构大量使用数据缓存机制。ICN缓存性能优化研究主要包括,缓存放置策略研究,缓存替换策略研究和缓存内容定位机制研究。缓存放置策略作为缓存技术的重要研究方向之一,用来判断一个内容是否需要缓存以及该内容缓存在哪些节点上是合理的,缓存放置策略是解决网络内容冗余度高和缓存利用率低等问题的有效方法。
针对ICN缓存问题的研究,国内外已经提出一些缓存放置策略算法:(1)默认缓存放置策略为全缓存策略,即表示在请求的内容返回路径上所有的中间节点对内容进行缓存。该策略简单易行,但导致网络冗余和缓存替换率大大提高,进而降低缓存命中率;(2)向下复制保留策略和向下复制删除策略,前者表示内容的副本只被保存在内容源的下一跳节点,后者表示将内容复制到下一跳节点,而且将命中节点的内容删除。虽然在一定程度上减少冗余,但在有限的缓存条件下,其优势并不明显;(3)概率缓存策略是一种随机缓存策略,它允许传输路径上的节点根据多种因素独立计算缓存概率,并基于加权概率执行放置策略,以实现缓存分布的公平性和优化配置。由于没有考虑相邻节点的影响,无法有效地减少缓存的冗余;(4)中心介数缓存策略将内容缓存在介数最大的节点上。在拓扑较小时,在一定程度上提高缓存的命中率,但同时导致介数较大节点负载过重和替换内容频繁;(5)协作缓存策略能够克服单点缓存处理能力弱、资源不足等问题,通过节点之间相互协作共享处理能力和资源,从而降低内容冗余度、提高缓存利用率和网络性能。但在请求较多时会出现较大延迟和负载。
发明内容
本发明的目的在于针对现有的信息中心网路缓存放置决策算法不能有效地解决网络冗余、高延迟和负载等问题,提出一种面向信息中心网络中基于流体动力学理论的缓存放置决策评分方法。
为了实现上述技术目的,本发明的技术方案是:
一种面向信息中心网络中基于流体动力学理论的缓存放置决策评分方法,包括以下步骤:
步骤1:建立基于流体动力学的请求模型,包括容器、连接各容器的管子和储存于容器内的液体,每个带缓存的用户节点分别对应一个容器,容器之间的管子对应网络拓扑中的边并由阀门控制,液体对应用户节点中存储的内容;
步骤2:根据内容请求进行初始化,设定请求服从分布参数;
步骤3:针对每次的用户请求,计算其经过节点的服务请求率并映射为对应的温度,然后以最小的服务请求率值对应最高的温度来进行排序,同时计算至命中节点的跳数,计算请求节点至命中节点路径上中心介数最大的节点BC;
步骤4:如果跳数大于2,且经过的路由器容器温度为0℃,则计算将液体缓存至与BC节点相连的两个容器;
步骤5:如果温度不为0℃,选取温度高的前2个容器缓存液体;
步骤6:重复步骤2-5,直至所有请求都发送完成。
所述的一种面向信息中心网络中基于流体动力学理论的缓存放置决策评分方法,所述的步骤2中,内容请求满足以下条件:
1)请求到达满足泊松分布;
2)内容热度分布服从Zipf分布规律:qm=c/ma,其中参数满足:a>0和qm表示内容m被请求的概率,a表用户请求的内容集中程度。
所述的一种面向信息中心网络中基于流体动力学理论的缓存放置决策评分方法,所述的步骤2中,设定请求服从分布参数包括请求次数间隔、设定发布者的温度、液体在容器内的高度、初始化时中间路由节点容器温度。
所述的一种面向信息中心网络中基于流体动力学理论的缓存放置决策评分方法,所述的步骤3中,在计算服务请求率时,根据流体动力学原理计算液体从一个容器流到另一个容器引起的体积变化,其中:
从a到a′之间的管子中液体流速其中g表示重力加速度,h表示液体高度;
则当流动在时间间隔i结束时,流动的液体体积Saa′为:
其中Waa′为管子的截面积,Δk为请求间隔。
所述的一种面向信息中心网络中基于流体动力学理论的缓存放置决策评分方法,所述的步骤3中,在计算服务请求率时,根据流体动力学原理计算液体从一个容器流到另一个容器引起的温度变化,其中:
其中ta(i+1)表示在第i个请求间隔结束时,容器a中混合后液体温度,Sa(i+1)为容器a中的液体体积, Saa′为从容器a流入容器a′的管子里面流动的液体体积,Sa″a为从容器a′流入容器a″的液体体积,分别表示从容器a流出液体到达的容器和流入a的液体来源的容器。
所述的一种面向信息中心网络中基于流体动力学理论的缓存放置决策评分方法,所述的步骤3中,计算用户请求经过节点a的服务请求率Is(a)通过以下公式计算:
其中,Ire(a)表示节点a收到的请求兴趣包,Ifw(a)表示节点a转发出去的兴趣包。
所述的一种面向信息中心网络中基于流体动力学理论的缓存放置决策评分方法,所述的步骤3中,将服务请求率映射为对应的温度值,服务请求率的值越小则对应的温度越高,即表示选择在该节点缓存的可能性就越高,液体温度taa′表达式为:taa′=qaa′·ta,其中qaa′表示受到从容器a到a′的影响程度,ta表示a容器的温度。
本发明的技术效果在于,利用服务请求率细粒度表征请求每次经过节点的影响,直至命中请求的数据。将节点的影响程度与液体温度相映射,结合流体动力学原理计算流体的流动过程,进而导致容器中液体体积和温度的变化,选择温度高的节点进行缓存内容,清晰阐述缓存放置决策过程的物理意义。本发明有效地提高了面向信息中心网络缓存的命中率,尤其在有限的缓存资源时仍然取得较好的结果,同时,有效解决了信息中心网络冗余问题,极大减少网络的相同内容的备份个数,使得网络缓存资源得到充分地利用。
下面结合附图对本发明作进一步说明。
附图说明
图1为流体系统容器之间连接规则的简单ICN网络拓扑示意图;
图2为流体动力学系统示意图;
图3为真实的Tiscali-3257网络拓扑图;
图4为液体平均温度示意图;
图5为平均跳数示意图;
图6为缓存放置算法在不同网络拓扑的性能对比图;
图7为缓存放置算法在不同内容分布的性能对比图;
图8为缓存放置算法在不同缓存大小占比的性能对比图。
具体实施方式
本发明主要目的是解决缓存命中率低,延迟大等问题,以提高有限缓存资源的利用率,进而有效地解决信息中心网络缓存冗余问题。同时,结合流体动力学原理计算流体的流动过程,进而导致容器中液体体积和温度的变化,选择温度高的节点进行缓存内容,清晰阐述缓存放置决策过程的物理意义。
为解决上述问题,首先给出流体动力学建模缓存放置决策过程的对应关系。任意的网络拓扑G和相应的节点集合V,每个带缓存的网络节点对应于同样大小的容器,且容器体积足够大。容器之间通过管子相连,管子对应缓存决策的影响关系。用户请求的内容被建模为液体,液体来源于发布者,流经中间的缓存节点,到达请求者。节点缓存位置选择评估等级被建模为液体温度,请求对评分的坚持度被建模为液体体积。缓存节点的评分受到内容请求的间接和直接影响,通过容器之间的液体交换更新容器中的液体温度。容器中的液体通过之间的管子流动,管子由阀门来控制,依据内容的请求决定阀门是否激活。如果有液体的流动,利用流体动力学原理,计算流体的速度,进而对流经的容器体积和温度进行更行。
ICN网络中三类节点之间的关系:发布者作为请求数据的源节点,为缓存节点提供数据源;请求者发送Interest数据包至其相邻的路由节点,路由器直接返回数据或者转发请求至其相邻的路由节点;如果未命中则转发至源节点,收到返回的数据包(Data packet)后决策如何选择缓存节点缓存数据,以提高后续数据的命中率。缓存决策依据请求的数据,动态缓存收到的数据至返回路径上最佳的缓存节点。内容请求主要特征:(1)内容请求服从zipf分布规律;(2)内容请求会对路径上的缓存位置产生影响;(3)内容请求之间相互独立。
流体系统主要有三部分构成:容器、管子、液体。容器:每个用户节点被对应到一个容器,容器中的液体体积表征选择该容器作为缓存位置的坚持度。请求液体流出容器后,原容器液体依然保持不变,流出的液体存于待缓存的位置容器或者只流经该缓存容器不存储至容器,由于待缓存的容器没有请求的内容,即待缓存位置容器没有液体。管子:容器之间的管子对于网络拓扑中的边,每个管子都由阀门控制,内容请求通过对阀门的控制,进而实现对不同容器之间的液体交互。液体:假设所有的容器中都是相同的液体,即请求者都请求相同的内容。保存原始内容的容器中液体高度保持不变,表示其坚持度不变,同时其液体温度也保持不变。液体的流动原则受内容请求的约束,即容器的液体高度大于被请求的容器时且对应管子的阀门激活时,液体才会流动。设置初始状态所有的缓存容器全部为空。
本模型有以下假设:(1)基于流体的缓存决策评分系统是一个封闭系统,每个发布者(Producer)所在容器温度保持不变,并提供充足的液体。针对路径上的缓存位置进行评分,即表示在哪个容器存储请求的液体,进而提高下次请求内容的命中率。发布者和用户不参与评分;(2)所有的容器和管子都是隔热的,且忽略温度自然冷却影响,液体温度主要受到用户请求的影响;(3)通过用户的请求已经评分的容器的液体体积和温度都将保持不变。即表示根据本次的用户请求,选择将所请求内容至命中节点的缓存位置进行评估,进而选择最优的位置缓存该内容;(4)由于基于内容缓存机制的体系结构传输可缓存数据的路由平均跳数为7,因此设置缓存评估等级为[1,7],即容器中的液体温度等级为1℃~7℃,0℃表示容器没有液体;(5)由于容器不具有类似路由器的转发请求功能,因此假设通过管子的阀门实现请求的传递。
具体实施步骤如下:
(1)流体请求过程设置:用户发送的请求过程满足以下方面:(i)请求到达满足泊松分布;(ii)内容热度分布服从Zipf分布规律:qm=c/ma,其中参数满足:a>0和qm表示内容m被请求的概率。a表用户请求的内容集中程度,其值越大说明较少的内容得到用户大量的请求。在本次实施中a取值范围为[0.8,1.0,1.2,1.5,2.0]。
(2)液体流动过程:利用流体动力学原理,计算液体从一个容器流到另一个容器引起液体温度及体积变化。计算流体速度其中g表示重力加速度,h表示液体高度。考虑两个容器间的液体流动,则从a到a′管子中的流速可计算为综合考虑管子的截面积Waa′和请求间隔Δk,则在时间间隔i结束时,流动的液体体积为:
根据每次用户发送请求,计算相应经过节点的服务请求率为:
其中,Ire(a)表示节点a收到的请求兴趣包,Ifw(a)表示节点a转发出去的兴趣包。利用不同的服务请求率来细粒度表征在每次请求对节点的影响程度。将服务请求率映射与之对应的温度值,其值越小对应的温度越高,选择在该节点缓存的可能性就越高。则液体温度表达式为:taa′=qaa′·ta,其中qaa′表示受到从容器a到a′的影响程度。
(3)液体混合过程:液体混合过程用来描述在不同的间隔请求时,液体如何与容器中已有的液体进行混合。根据流体动力学的质量守恒原则,在第i个请求间隔结束时,管子里面流动的液体体积Saa′将从容器a留入容器a′,同时有从容器a′流入容器a″的液体体积为Sa″a,则容器a中的液体体积表示为:
其中,分别表示从容器a流出液体到达的容器和流入a的液体来源的容器。液体的高度作为直接影响液体是否流动的必要条件之一,另一个必要条件是管子的阀门激活,液体高度计算为:
ha(i+1)=Sa(i+1)/b(4)
其中,b表示容器的截面积。为
为简单叙述,只考虑同一种液体情况下,其液体的比热容是常数。根据流体动力学原理的能量守恒原则,混合后的液体温度表示为:
其中,忽略其它影响,混合温度计算的本质为∑体积·温度/∑体积。其分子中第一部分表示容器a在i个时间请求间隔结束时,剩余的液体,第二部分表示新流入的液体。
基于流体动力学缓存放置决策算法(Fluid dynamics cache placement,FDCP)具体实现步骤如下:
①依据实施步骤(1)对流体系统请求进行初始化,设定请求服从分布参数,请求次数间隔为Δk=2.5×104,设定发布者的温度为7℃,高度为10,初始化时中间路由节点容器温度设置为0℃;
②针对每次的用户请求,利用公式(2)计算其经过节点的服务请求率,并排序好最小的值对应最高的温度,同时计算至命中节点的跳数,计算请求节点至命中节点路径上中心介数最大的节点(BC);
③如果跳数大于2,且经过的路由器容器温度为0℃,则计算将液体缓存至与BC节点相连的两个容器;
④如果温度不为0℃,选取温度高的前2个容器缓存液体;
⑤重复上述步骤,直至所有请求都发送完成。
图1是为说明流体系统容器之间的连接规则,构建简单的信息中心网络拓扑。其中包含一个内容发布节点(P),2个用户请求节点(C1,C2)以及5个路由节点(R1-R5)。
图2是流体系统,其中图2(a)表示两个容器之间液体流动过程,图2(b)描述图1拓扑对应的流体系统,内容发布者对应容器a1,路由器对应容器a2-a6,内容请求者对应a7-a8
为验证本发明文算法性进行如下实验:在真实的网络拓扑进行实验仿真,如图3所示,其表示Tiscali-3257网络拓扑,包括44个发布节点(黑色),36个请求节点(白色),160个路由节点(灰色)和404条边。每个路由器容器均有相同大小的缓存空间,其大小为缓存空间大小占总网络容量的百分比为[0.2%,0.4%,0.6%,0.8%,1%]。所有的路由器节点缓存替换策略采用LRU(Least Recently Used)策略。内容请求到达服从泊松分布,请求服从Zipf分布,其参数a取值范围为[0.8,1.0,1.2,1.5,2.0]。选择三个缓存放置算法与本发明算法进行对比:(i)全路径缓存(Leave Copy Everywhere,LCE);(ii)概率缓存(Probabilistic Caching,ProbCache);(iii)中心介数缓存(Betweenness CentralityCaching,CL4M)。
仿真实验首先分析本发明算法FDCP的收敛性。图4表示从两个真实拓扑(3257和7017)中任意选取7个路由器节点容器,由于在初始化阶段每个容器还没有液体,导致温度变化有较大波动。其容器中液体平均温度在预热周期过后趋于稳定值,说明最后每个容器中所缓存的液体趋于稳定,验证实验的合理性且符合真实情况。理论上已有数学证明在IP网络下平均路由跳数为16,而基于内容的信息中心网络平均路由跳数为7,从图5中可知,本发明算法均在7跳左右,且相比其它三种缓存放置策略均取得较好的受益(10%-30%)。从实验上验证数学证明的正确性,同时也说明本发明算法的正确性。
为进一步说明本发明算法的性能,从三方面说明本发明算法优势:网络拓扑影响,内容请求分布影响,以及缓存大小占总网络容量百分比的影响。从图6可知,在两个真实的网络拓扑中,缓存获得较高的命中率,同时取得良好的时延,并且负载依然与其它三种算法保持一致。从图7可知,随Zipf请求分布参数a的逐渐增加几种算法命中率均大幅提升,本发明算法较其它算法依然保持良好的优势。如果热度越来越集中导致缓存的内容可能都会存到BC节点上,使其节点的负载也就越大。在延迟方面,在获得较大的命中率前提下依然在延迟上保持优势。从图8可知,随着缓存大小占总网络容量百分比的增加,即每个路由器缓存大小的增加,然而在其增加到一定程度时,收益并没有得到较大的提升。本发明算法在负载上大于CL4M,主要原因在于CL4M选择BC节点进行缓存,其单个缓存容量增加对其性能提升有较大帮助。
通过大量实验,充分说明本发明在缓存放置策略上有较强的鲁棒性,尤其在有限的缓存资源下,不仅提高网络缓存的命中率,减少大量网络冗余,有效提高网络缓存资源利用率,而且通过流体动力学理论,清晰描述缓存放置决策整个过程的物理含义。
虽然本发明进行了一些实例的展示,但其并非用以限定本发明。本发明所属领域中的研究者及应用者根据本发明的实施方式所做出的结构、方法、功能组合的变换均在本发明的保护范围内,在不脱离本发明的精神和范围内,可按需要进行改动与拓展。因此,本发明的保护范围应当依据权利要求书所界定者为准。

Claims (7)

1.一种面向信息中心网络中基于流体动力学理论的缓存放置决策评分方法,其特征在于,包括以下步骤:
步骤1:建立基于流体动力学的请求模型,包括容器、连接各容器的管子和储存于容器内的液体,每个带缓存的用户节点分别对应一个容器,容器之间的管子对应网络拓扑中的边并由阀门控制,液体对应用户节点中存储的内容;
步骤2:根据内容请求进行初始化,设定请求服从分布参数;
步骤3:针对每次的用户请求,计算其经过节点的服务请求率并映射为对应的温度,然后以最小的服务请求率值对应最高的温度来进行排序,同时计算至命中节点的跳数,计算请求节点至命中节点路径上中心介数最大的节点BC;
步骤4:如果跳数大于2,且经过的路由器容器温度为0℃,则计算将液体缓存至与BC节点相连的两个容器;
步骤5:如果温度不为0℃,选取温度高的前2个容器缓存液体;
步骤6:重复步骤2-5,直至所有请求都发送完成。
2.根据权利要求1所述的一种面向信息中心网络中基于流体动力学理论的缓存放置决策评分方法,其特征在于,所述的步骤2中,内容请求满足以下条件:
1)请求到达满足泊松分布;
2)内容热度分布服从Zipf分布规律:qm=c/ma,其中参数满足:a>0和qm表示内容m被请求的概率,a表用户请求的内容集中程度。
3.根据权利要求1所述的一种面向信息中心网络中基于流体动力学理论的缓存放置决策评分方法,其特征在于,所述的步骤2中,设定请求服从分布参数包括请求次数间隔、设定发布者的温度、液体在容器内的高度和初始化时中间路由节点容器温度。
4.根据权利要求1所述的一种面向信息中心网络中基于流体动力学理论的缓存放置决策评分方法,其特征在于,所述的步骤3中,在计算服务请求率时,根据流体动力学原理计算液体从一个容器流到另一个容器引起的体积变化,其中:
从a到a′之间的管子中液体流速其中g表示重力加速度,h表示液体高度;
则当流动在时间间隔i结束时,流动的液体体积Saa′为:
S aa ′ = v aa ′ · w aa ′ · Δ k = 2 g [ h a ( i ) - h a ′ ( i ) ] · w aa ′ · Δ k
其中Waa′为管子的截面积,Δk为请求间隔。
5.根据权利要求1所述的一种面向信息中心网络中基于流体动力学理论的缓存放置决策评分方法,其特征在于,所述的步骤3中,在计算服务请求率时,根据流体动力学原理计算液体从一个容器流到另一个容器引起的温度变化,其中:
t a ( i + 1 ) = t a ( i ) · [ S a ( i ) - Σ a ′ ∈ D a o u t S aa ′ ] + Σ a ′ ′ ∈ D a i n S a ′ ′ a · t a ′ ′ a S a ( i + 1 )
其中ta(i+1)表示在第i个请求间隔结束时,容器a中混合后液体温度,Sa(i+1)为容器a中的液体体积, Saa′为从容器a流入容器a′的管子里面流动的液体体积,Sa″a为从容器a′流入容器a″的液体体积,分别表示从容器a流出液体到达的容器和流入a的液体来源的容器。
6.根据权利要求1所述的一种面向信息中心网络中基于流体动力学理论的缓存放置决策评分方法,其特征在于,所述的步骤3中,计算用户请求经过节点a的服务请求率Is(a)通过以下公式计算:
I s ( a ) = I r e ( a ) - I f w ( a ) I r e ( a )
其中,Ire(a)表示节点a收到的请求兴趣包,Ifw(a)表示节点a转发出去的兴趣包。
7.根据权利要求1所述的一种面向信息中心网络中基于流体动力学理论的缓存放置决策评分方法,其特征在于,所述的步骤3中,将服务请求率映射为对应的温度值,服务请求率的值越小则对应的温度越高,即表示选择在该节点缓存的可能性就越高,液体温度taa′表达式为:taa′=qaa′·ta,其中qaa′表示受到从容器a到a′的影响程度,ta表示a容器的温度。
CN201610574529.3A 2016-07-20 2016-07-20 面向信息中心网络中基于流体动力学理论的缓存放置决策评分方法 Expired - Fee Related CN106131202B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610574529.3A CN106131202B (zh) 2016-07-20 2016-07-20 面向信息中心网络中基于流体动力学理论的缓存放置决策评分方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610574529.3A CN106131202B (zh) 2016-07-20 2016-07-20 面向信息中心网络中基于流体动力学理论的缓存放置决策评分方法

Publications (2)

Publication Number Publication Date
CN106131202A CN106131202A (zh) 2016-11-16
CN106131202B true CN106131202B (zh) 2017-03-29

Family

ID=57290709

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610574529.3A Expired - Fee Related CN106131202B (zh) 2016-07-20 2016-07-20 面向信息中心网络中基于流体动力学理论的缓存放置决策评分方法

Country Status (1)

Country Link
CN (1) CN106131202B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107302571B (zh) * 2017-06-14 2019-10-18 北京信息科技大学 基于果蝇算法的信息中心网络路由和缓存管理方法
CN109617962B (zh) * 2018-12-11 2020-08-18 电子科技大学 一种基于内容关联度的车联网雾节点内容缓存方法
CN113596138B (zh) * 2021-07-26 2022-06-21 东北大学 一种基于深度强化学习的异构信息中心网络缓存分配方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104821961A (zh) * 2015-04-16 2015-08-05 广东技术师范学院 一种基于节点社团重要度的icn缓存策略
CN105357246A (zh) * 2015-08-12 2016-02-24 北京交通大学 基于信息中心网络的缓存方法和系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104821961A (zh) * 2015-04-16 2015-08-05 广东技术师范学院 一种基于节点社团重要度的icn缓存策略
CN105357246A (zh) * 2015-08-12 2016-02-24 北京交通大学 基于信息中心网络的缓存方法和系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
信息中心网络中的内置缓存技术研究;张国强等;《软件学报》;20140131;第25卷(第1期);第158-170页 *

Also Published As

Publication number Publication date
CN106131202A (zh) 2016-11-16

Similar Documents

Publication Publication Date Title
CN106131202B (zh) 面向信息中心网络中基于流体动力学理论的缓存放置决策评分方法
CN102647357B (zh) 一种处理内容路由方法及装置
CN105407055B (zh) 一种内容中心网络的能耗控制方法
CN104901980A (zh) 基于流行度的数据命名网络的均衡分布缓存方法
CN103117957B (zh) 机会网络中基于消息副本数与综合效能的缓存管理方法
Khelifi et al. A QoS-aware cache replacement policy for vehicular named data networks
Liu et al. Data sharing in VANETs based on evolutionary fuzzy game
CN109067920A (zh) 一种用于服务器内容更新的负载均衡及路由方法
CN112399485A (zh) 一种6g中基于ccn的新节点价值和内容流行度缓存方法
Mottahedi et al. IBCAV: Intelligent based clustering algorithm in VANET
Ji et al. Research on optimal intelligent routing algorithm for IoV with machine learning and smart contract
CN101551781B (zh) 一种p2p视频点播系统中的硬盘缓存替换方法
Alipio et al. Deep Reinforcement Learning perspectives on improving reliable transmissions in IoT networks: Problem formulation, parameter choices, challenges, and future directions
Alduayji et al. PF-EdgeCache: Popularity and freshness aware edge caching scheme for NDN/IoT networks
CN110266566A (zh) 一种电力通信网络传输性能的评估方法
Liu et al. Mobility-aware video prefetch caching and replacement strategies in mobile-edge computing networks
He et al. A Two‐Level Communication Routing Algorithm Based on Vehicle Attribute Information for Vehicular Ad Hoc Network
Ashraf et al. Forwarding and caching in video streaming over ICSDN: A clean-slate publish-subscribe approach
Lu et al. Geographic information and node selfish-based routing algorithm for delay tolerant networks
CN103179045A (zh) 支持p2p流量优化的资源节点选择方法
CN110784881B (zh) 一种物联终端多级边缘节点主动缓存方法、设备及介质
Zhu et al. A Popularity-Based Collaborative Caching Algorithm for Content-Centric Networking.
Joy et al. A key based cache replacement policy for cooperative caching in mobile ad hoc networks
Singh et al. LP-ACO technique for link stability in VANETs
Yufei et al. A centralized control caching strategy based on popularity and betweenness centrality in ccn

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170329