WO2020007073A1 - 一种信息中心网络虚拟化中内容缓存方法 - Google Patents

一种信息中心网络虚拟化中内容缓存方法 Download PDF

Info

Publication number
WO2020007073A1
WO2020007073A1 PCT/CN2019/079277 CN2019079277W WO2020007073A1 WO 2020007073 A1 WO2020007073 A1 WO 2020007073A1 CN 2019079277 W CN2019079277 W CN 2019079277W WO 2020007073 A1 WO2020007073 A1 WO 2020007073A1
Authority
WO
WIPO (PCT)
Prior art keywords
data packet
node
hop
total
weight
Prior art date
Application number
PCT/CN2019/079277
Other languages
English (en)
French (fr)
Inventor
刘期烈
王潇潇
诸葛丽强
王炎雨
李铮
曹傧
刘竟成
杨风帆
Original Assignee
重庆邮电大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 重庆邮电大学 filed Critical 重庆邮电大学
Priority to US16/979,134 priority Critical patent/US11502956B2/en
Publication of WO2020007073A1 publication Critical patent/WO2020007073A1/zh

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • H04L45/64Routing or path finding of packets in data switching networks using an overlay routing layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services
    • H04L67/568Storing data temporarily at an intermediate stage, e.g. caching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • H04L45/20Hop count for routing purposes, e.g. TTL
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/34Flow control; Congestion control ensuring sequence integrity, e.g. using sequence numbers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • H04L45/58Association of routers
    • H04L45/586Association of routers of virtual routers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • H04L45/74Address processing for routing
    • H04L45/742Route cache; Operation thereof

Definitions

  • the present invention relates to a new network environment combining a wireless network virtualization (abbreviation, WNV) and an information center network (abbreviation, ICN): an information center wireless network virtualization (abbreviation, ICWNV) network, and particularly relates to a content caching method in ICWNV .
  • WNV wireless network virtualization
  • ICN information center network
  • ICWNV information center wireless network virtualization
  • WNV is one of the most promising architectures in the next-generation network architecture. That is, on the premise of retaining the existing Internet, it can meet the needs of diverse applications by constructing a virtual network (VN) on the existing network.
  • VN virtual network
  • Network virtualization is the virtualization of network devices, that is, enhancements to traditional routers, switches, and other devices so that they can support a large number of scalable applications.
  • WNV technology solves the rigid problem facing the current Internet network architecture. It abstracts the common underlying infrastructure and provides a unified programmable interface through virtualization technology. It isolates multiple VNs with different topologies at the same time. Map to the common infrastructure to provide users with differentiated services and achieve resource sharing. ICN network is a new hotspot in the research of next-generation network architecture.
  • ICN information-centric communication instead of the existing end-centric communication. It directly identifies the content and locates, routes, and routes based on the content identification. Transmission to build the network into an integrated platform for information transmission, storage, and services.
  • One of the most important features in ICN is the in-network cache.
  • the storage space in the network node is used to cache the copy of the content and respond to the user's request nearby. This can effectively reduce redundant traffic, relieve network bandwidth pressure, and reduce the time for users to obtain content. .
  • the transmission efficiency of users to obtain content resources and the utilization of network resources are improved, network latency and network traffic are reduced, and network performance is improved.
  • the network uses ICN as the underlying infrastructure network (abbreviated as SN) and VN as an arbitrary topology network.
  • ICN infrastructure network
  • VN virtual network
  • the virtual node In the ICWNV network, the virtual node carries the content information required by the user. Through the node mapping and link mapping process, the underlying physical network provides sufficient CPU and bandwidth resources for the node mapping and link mapping. At the same time, the mapping node sends Content request is required, so the SN also needs to provide the required content in the mapping to complete the user's request.
  • the content requested by the user can be obtained from the data center or from the cache of the intermediate node. Obtaining content through intermediate nodes can greatly reduce the average number of hops to obtain content, reduce user response time, and improve network performance. However, the capacity of the node's cache space is small.
  • node mapping and link mapping As the number of different content requested by users increases, the node's cache space will reach saturation and stability. At this time, if a new data packet arrives at the node, the node needs to judge whether the incoming data packet is cached and whether it needs to replace the already cached data packet in the node.
  • nodes to cache content there are two main methods for nodes to cache content.
  • One is to push data packets to edge nodes through universal caching. This method can reduce the number of hops required for users to access content. But will cause each node to cache a large number of packets.
  • One type is to select important nodes in the network to cache data packets in a centralized manner. This scheme can reduce the redundancy of packet caches, but it will increase the number of hops required for users to access the data packets.
  • the energy consumption of data packets in the node cache is:
  • P cache is the cache power density of the network node
  • size k is the data length of c k
  • t is the time that the data packet c k is cached in node v i length.
  • the transmission energy consumption of data packets transmitted on the link is:
  • Request packet to a user at node c K v i, j is obtained in response to any node v and K c to transmit the energy produced by the v i; R i, k i for the user to access content in a node v c
  • the request rate of k ; d ij, k is the number of hops required by c k to transmit from node v j to node v i
  • P node is the node energy density
  • P link is the link energy density
  • P cache , P node , and P link are fixed values determined by the device parameters of the network.
  • the total network energy consumption E total is:
  • the problem with the prior art cache solution is that it does not consider the energy consumption of the network, which is not conducive to reducing the energy consumption of network operations.
  • the present invention proposes a content caching method in information center wireless network virtualization to reduce the total energy consumption of the information center wireless network virtualization network.
  • a content caching method in information center wireless network virtualization includes:
  • a first node receives a first data packet
  • the method further includes:
  • the second data packet is a data packet with the smallest request frequency weight stored in the buffer space of the first node.
  • the method further includes:
  • the method further includes:
  • the hop is not less than a preset maximum cache distance and the cache space of the first node is full, calculate that the first node discards the second data packet stored in its cache space and saves the first data packet Total energy consumption E total_k of the rear network;
  • the second data packet is a data packet with the smallest request frequency weight stored in the buffer space of the first node.
  • the method further includes:
  • the method further includes:
  • the request frequency weight is:
  • the first node receives the request data packet c m T in the time period before the current frequency of the request packet;
  • the request frequency weight is:
  • the count m (T n ) is a frequency at which the first node receives a request packet requesting a data packet c m in a time period T n ;
  • the ⁇ n is a weight value of the preset time period T n , ⁇ 1 >... > ⁇ n >... > ⁇ N > 0;
  • a node determines whether to cache a data packet by using a data packet cache distance identifier, and comprehensively considers the energy consumption of the cache generated by the data packet in the node cache and the transmission energy generated by the data packet transmitted over the link , Thereby effectively reducing the total network energy consumption.
  • FIG. 1 is a flowchart of a method according to Embodiment 1 of the present invention.
  • FIG. 2 is a flowchart of a method according to a specific embodiment 2 of the present invention.
  • the network does not care about the storage location of the content, only the content itself.
  • the content on the network does not use the IP address as the identification of the content, but uses the name of the content as the identification.
  • VNRs virtual network request
  • the ICWNV network will first provide enough CPU and bandwidth resources for the node mapping and link mapping of VNRs; the mapping node will then retrieve the corresponding data according to the user's interest packet routing. Neighboring nodes or data centers; then transmit the data packets to the mapping node along the reverse path of the interest packet.
  • the specific process for a user to request a data packet and obtain a data packet includes:
  • the network first completes node mapping and link mapping, and at the same time, the mapping node will send out interest packets according to the user's request;
  • the node first checks whether there is a data packet corresponding to the request in the buffer space, and if there is, sends the data packet back to the mapping node;
  • the node will query whether the pending request table contains an entry corresponding to the request. If there is, add the interface number of the interest packet to the interface list of the corresponding entry, indicating that a user has sent the same packet. Pass the request and pass the node; otherwise, create a new pending request table entry and query the node's forwarding information base to forward the request to the next hop node;
  • the node When the data packet arrives, the node will query the pending request table. If there is a request entry corresponding to the data in the pending request table, the data will be forwarded from the interface in the interface list of the entry, and according to the corresponding storage policy. Store it in the cache space (abbreviated as CS) of the appropriate node.
  • CS cache space
  • a buffer distance identifier hop is added to a data packet.
  • This embodiment is a preferred implementation of the content caching method in ICWNV according to the present invention. Referring to FIG. 1, the process of this embodiment is shown in FIG. 1 and includes:
  • the first node receives a first data packet
  • the node determines whether the cache distance identifier hop of the first data packet is less than a preset maximum cache distance hop max ; if yes, execute step S103; otherwise, execute step S104;
  • the hop is used to indicate the number of hops of the node where the first data packet is buffered from the first node
  • the hop max is based on the specific network size, node cache power density, node energy density, and link energy density and other parameters. It is preset through experimental data or simulation results to make the estimated average network performance under the premise of meeting the network transmission efficiency requirements. Lowest cost cache distance.
  • the hop is stored in the first data packet
  • the first node determines whether there is free buffer space, and if so, executes step S105, otherwise, executes step S106;
  • the first node determines whether the requested frequency weight of the first data packet is not less than the requested frequency weight of the second data packet; if yes, step S107 is performed, otherwise step S103 is performed;
  • the requested frequency weight and the requested frequency weight are The acquisition method is: the frequency of the receiving node within a time period T before the current time request packet to the request packet c m;
  • the requested frequency weight and the requested frequency weight are The acquisition method:
  • the count m (T n) is the frequency of the first node receiving the period T n c m Request packet of the packet;
  • the T [theta] n is the n-access the preset time period c m weight value;
  • the first node sends the first data packet to the next node.
  • the node judges whether to cache the data packet by using the data packet cache distance identifier, and comprehensively considers the energy consumption of the cache generated by the data packet in the node cache and the transmission energy generated by the data packet transmitted on the link. Consumption, thereby effectively reducing the energy consumption of node data packet distribution.
  • the discarded data packet is determined by the weight of the request frequency of the data packet to ensure that the data cached by the node is data with a high frequency of requests Improved user's efficiency in obtaining data.
  • This embodiment is another preferred implementation of the content caching method in ICWNV according to the present invention. Referring to FIG. 2, the process of this embodiment is shown in FIG. 2 and includes:
  • the node judges whether the buffer distance identifier hop of the first data packet is less than a preset maximum buffer distance hop max ; if yes, execute step S203; otherwise, execute step S204;
  • the hop is used to indicate the number of hops of the node where the first data packet is buffered from the first node
  • the hop max is based on the specific network size, node cache power density, node energy density, and link energy density and other parameters. It is preset through experimental data or simulation results to make the estimated average network performance under the premise of meeting the network transmission efficiency requirements. Lowest cost cache distance.
  • the hop is stored in the first data packet
  • the first node determines whether there is free buffer space, and if so, executes step S205, otherwise, executes step S206;
  • the k is the sequence number of the first data packet
  • the l is the sequence number of the data packet
  • l 1, 2,... K, l ⁇ k.
  • the second data packet is a data packet with the smallest request frequency weight stored in the buffer space of the first node.
  • the first node determines whether the E total_k is greater than the total energy consumption E total of the current network; if yes, execute step S203; otherwise, execute step S208;
  • the first node determines whether the requested frequency weight of the first data packet is not less than the requested frequency weight of the second data packet; if yes, step S209 is performed, otherwise step S203 is performed;
  • the requested frequency weight and the requested frequency weight are The acquisition method is: the frequency of the receiving node within a time period T before the current time request packet to the request packet c m;
  • the requested frequency weight and the requested frequency weight are The acquisition method:
  • the count m (T n) is the frequency of the first node receiving the period T n c m Request packet of the packet;
  • the T [theta] n is the n-access the preset time period c m weight value;
  • the first node sends the first data packet to a next node.
  • the solution of this specific embodiment is based on the specific embodiment 1.
  • the discarded data packet is determined by judging the total energy consumption after the data packet is buffered, which further reduces the total energy consumption of the network.
  • the time period for calculating the frequency of requesting a data packet is subdivided, and the weight of the frequency of requesting for each time period is set according to the distance between the time period and the current time, effectively avoiding the previous period of the target packet
  • the frequency of requests is very high, and the frequency of recent requests is very low, which leads to a higher overall request frequency, which improves the efficiency of user data acquisition.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本发明公开了一种信息中心网络虚拟化中内容缓存方法,包括,第一节点接收第一数据包;如果第一数据包的缓存距离标识hop小于预设的最大缓存距离,所述第一节点设置hop=hop+1;将所述第一数据包发送到下一节点;如果所述hop不小于预设的最大缓存距离,且所述第一节点的有空余的缓存空间,所述第一节点设置hop=0,保存所述第一数据包,将所述第一数据包发送到下一节点,本发明的技术方案中,节点通过数据包缓存距离标识判断是否对数据包进行缓存,综合考虑了数据包在节点缓存所产生的缓存能耗和数据包在链路中传输所产生的传输能耗,从而有效的降低了网络总能耗。

Description

一种信息中心网络虚拟化中内容缓存方法 技术领域
本发明涉及无线网络虚拟化(简称,WNV)与信息中心网络(简称,ICN)结合的新网络环境:信息中心无线网络虚拟化(简称,ICWNV)网络,特别涉及到一种ICWNV中内容缓存方法。
背景技术
WNV作为下一代网络体系架构中最有发展前景的架构之一,即在保留现有互联网的前提下,通过在现有的网络上构建虚拟网络(简称,VN)来满足多样化应用的需求。网络虚拟化是对网络设备的虚拟化,即对传统的路由器、交换机等设备进行增强,使其可以支持大量的可扩展的应用。WNV技术则是解决了当前互联网网络架构所面临的僵化问题,它通过虚拟化技术对共用的底层基础设施进行抽象并提供统一的可编程接口,将多个彼此隔离且具有不同拓扑结构的VN同时映射到共用的基础设施上,为用户提供差异性服务,实现资源共享。ICN网络作为下一代网络体系结构研究的新热点,它采用以信息为中心的通信方式替代了现有的以端为中心的通信方式,直接对内容进行统一标识并基于内容标识进行定位、路由和传输,将网络打造成为信息传输、存储和服务的一体化平台。在ICN中最重要的特征之一就是网内缓存,利用网络节点中的存储空间缓存内容的副本,就近响应用户的请求,可以有效的减少冗余流量,缓解网络带宽压力,降低用户获取内容时间。从而提高了用户获取内容资源的传输效率和网络资源的利用率,降低了网络时延和网络流量,改善了网络性能。
在当今网络数据流量爆炸式增长下,用户除了希望网络能提供计算资源、带宽资源等传统服务外,同时他们也需要网络为他们提供更快速获取内容资源的服务。所以研究者们提出信息中心无线网络虚拟化网络,该网络以ICN作为底层基础设施网络(简称,SN),VN为任意拓扑网络,在ICN与WNV结合的网络环境下不仅可以在不同的服务提供商之间共享基础设施资源,也可以共享内容资源;不仅可以实现虚拟化带来的增益,同时也可以实现网内缓存带来的收益。
在ICWNV网络中,虚拟节点携带用户所需的内容信息,通过节点映射与链路映射过程,底层物理网络为节点映射和链路映射提供足够的CPU和带宽资源;同时,映射节点会发送用户所需内容的请求,从而SN也需要为该映射中提供所需的内容来完成用户的请求。用户所请求的内容可以从数据中心获取,也可以从中间节点的缓存中获取。通过中间节点获取内容,可以大大减少获取内容的平均跳数,降低用户的响应时间,提高网络的性能。但是节点的缓存空间容量较小,根据节点映射和链路映射的范围,随着用户请求不同内容数量的增加,节点的缓存空间将达到饱和以及稳定状态。此时,如果有新的数据包到达节点时,节点则需要判断是否缓存到来的数据包,以及是否需要替换该节点中已经缓存的数据包。
在现有技术中,节点缓存内容的方法主要有两类,一类是通过普遍缓存方式把数据包快送推送到边缘节点,这种方法可以在一定程度上降低用户访问内容所需跳数,但会造成各节点缓存大量的数据包。一类是选取网络中重要节点集中缓存数据包,该方案能减少数据包缓存冗余,但会增加用户访问数据包所需的跳数。
现有技术的缓存方法都是从缓存空间的利用率和用户获取数据的效率角度来考虑节点是否缓存以及如何缓存数据包,而在实际的网络运营过程中,网络能耗也是网络性能的重要参数之一,网络中节点分发(包括,数据包在链路中的传输和在节点的缓存)都会产生能耗。
数据包在节点缓存所产生的缓存能耗为:
Figure PCTCN2019079277-appb-000001
其中,
Figure PCTCN2019079277-appb-000002
为数据包c k在节点v i缓存所产生的缓存能耗,P cache是网络节点的缓存功率密度;size k为c k的数据长度,t为数据包c k在节点v i中缓存的时间长度。
数据包在链路中传输所产生的传输能耗为:
Figure PCTCN2019079277-appb-000003
其中,
Figure PCTCN2019079277-appb-000004
为用户在节点v i请求数据包c k,在任意一个节点v j获得响应并传输所述c k到所述v i所产生的能耗;R i,k为用户在节点v i访问内容c k的请求速率;d ij,k为c k从节点v j传输到节点v i所需的跳数,P node为节点能量密度,P link为链路能量密度;
对于具体的网络,P cache、P node、P link是由网络的设备参数决定的固定值。
网络总能耗E total为:
Figure PCTCN2019079277-appb-000005
其中,K为网络中缓存的数据包数量,I为网络中的节点数量;x ij,k表示用户是否在节点v i请求数据包c k,如果是,x ij,k=1,否则x ij,k=0;y i,k表示节点v i是否缓存有数据包c k,如果是y i,k=1,否则y i,k=0。
现有技术缓存方案的问题在于,没有考虑网络能耗的问题,不利于网络 运营能耗的降低。
发明内容
为了解决现有技术中存在的上述问题,本发明提出了一种信息中心无线网络虚拟化中内容缓存方法,以降低信息中心无线网络虚拟化网络的总能耗。
为了实现上述目的,本发明采用了以下技术方案:
一种信息中心无线网络虚拟化中内容缓存方法,包括:
第一节点接收第一数据包;
如果所述第一数据包的缓存距离标识hop小于预设的最大缓存距离,所述第一节点设置hop=hop+1;将所述第一数据包发送到下一节点;
如果所述hop不小于预设的最大缓存距离,且所述第一节点的有空余的缓存空间,所述第一节点设置hop=0,保存所述第一数据包,将所述第一数据包发送到下一节点。
进一步的,所述方法还包括:
如果所述hop不小于预设的最大缓存距离,且所述第一节点缓存空间已满,如果所述第一数据包的请求频率权重小于所述第二数据包,所述第一节点设置hop=hop+1;将所述第一数据包发送到下一节点;
其中,所述第二数据包为所述第一节点缓存空间中保存的请求频率权重最小的数据包。
进一步的,所述方法还包括:
如果所述第一数据包的请求频率权重不小于所述第二数据包;所述第一节点丢弃所述第二数据包,保存所述第一数据包,设置hop=0,将所述第一数据包发送到下一节点;
进一步的,所述方法还包括:
如果所述hop不小于预设的最大缓存距离,且所述第一节点的缓存空间已满,计算所述第一节点丢弃其缓存空间中保存的第二数据包并保存所述第一数据包后网络的总能耗E total_k
如果所述E total_k大于当前网络的总能耗E total,所述第一节点设置hop=hop+1;将所述第一数据包发送到下一节点;
其中,所述第二数据包为所述第一节点缓存空间中保存的请求频率权重最小的数据包。
进一步的,所述方法还包括:
如果所述E total_k不大于当前网络的总能耗E total,且所述第一数据包在所述第一节点的请求频率权重小于所述第二数据包;所述第一节点设置hop=hop+1;将所述第一数据包发送到下一节点;
进一步的,所述方法还包括:
如果所述E total_k不大于当前网络的总能耗E total,且所述第一数据包在所述第一节点的请求频率权重不小于所述第二数据包,所述第一节点设置hop=0,丢弃所述第二数据包,保存所述第一数据包,设置E total=E total_k,将所述第一数据包发送到下一节点。
优选的,所述请求频率权重为:
所述第一节点在当前时刻之前的时间段T内接收到请求数据包c m的请求包的频率;
其中,所述m为数据包的序号,m=1,2,......K。
优选的,所述请求频率权重为:
Figure PCTCN2019079277-appb-000006
其中,所述
Figure PCTCN2019079277-appb-000007
为数据包c m的请求频率权重;
所述count m(T n)为所述第一节点在时间段T n接收到请求数据包c m的请求包的频率;
所述θ n为预设的时间段T n的权重值,θ 1>…>θ n>…>θ N>0;
所述n为时间段序号,n=1,2,……N;n越大,表明所述时间段T n与当前时刻T的时间距离越大。
本发明的技术方案中,节点通过数据包缓存距离标识判断是否对数据包进行缓存,综合考虑了数据包在节点缓存所产生的缓存能耗和数据包在链路中传输所产生的传输能耗,从而有效的降低了网络总能耗。
附图说明
图1为本发明具体实施例1方法流程图;
图2为本发明具体实施例2方法流程图;
具体实施方式
为了更好的说明本发明的技术方案,下面结合附图对本发明的具体实施方式进行详细描述。
在ICWNV网络中,网络不在关心内容的存储位置,只关心内容本身。网内的内容不在使用IP地址作为内容的标识,而是以内容的名称作为标识。在ICWNV网络中存在两种数据包类型:兴趣包和数据包。当虚拟网络请求(简称,VNRs)到来时,ICWNV网络首先会为VNRs的节点映射和链路映射提供足够多得CPU和带宽资源;接下来映射节点会根据用户的兴趣包路由检索到含有对应数据的邻近节点或者数据中心;然后将数据包沿着兴趣包的反向路 径传送到映射节点。
用户请求数据包并获取数据包的具体流程包括:
(1)根据用户请求,网络首先完成节点映射和链路映射,同时映射节点会根据用户的请求发出兴趣包;
(2)节点会首先检查缓存空间中是否有与该请求对应的数据包,如果有就将数据包传回到映射节点处;
(3)否则节点会查询未决请求表中是否含有与该请求对应的条目,如果有,就将兴趣包进入的接口号添加到对应条目的接口列表中,说明有用户对同样的数据包发出过请求,并且经过了该节点;否则新建一个未决请求表条目并查询节点的转发信息库,将请求转发到下一跳节点;
(4)数据包到达时,节点会查询未决请求表,如果未决请求表中存在与数据对应的请求条目就将数据从该条目的接口列表中的接口转发出去,并根据相应的存储策略将其存储在合适节点的缓存空间(简称,CS)中。
本发明的具体实施方式在数据包中添加缓存距离标识hop,当数据包缓存在当前节点中时,节点将该数据包的hop设置为0;否则节点设置该数据包的hop=hop+1。
具体实施例1
本实施例为本发明ICWNV中内容缓存方法的一种优选实施方式。参见图1,本实施例的流程如图1所示,包括:
S101.第一节点接收第一数据包;
S102.节点判断所述第一数据包的缓存距离标识hop是否小于预设的最大缓存距离hop max;如果是,执行步骤S103,否则,执行步骤S104;
其中,所述hop用于表示缓存有所述第一数据包的节点距离所述第一节点的跳数;
所述hop max为根据具体网络的规模、节点缓存功率密度、节点能量密度和链路能量密度等参数,通过实验数据或仿真结果预设的在满足网络传输效率需求前提下使得预估网络平均能耗最低的缓存距离。
本实施例中,所述hop保存在所述第一数据包中;
S103.第一节点设置hop=hop+1,执行步骤S108;
S104.第一节点判断是否有空余的缓存空间,如果是,执行步骤S105,否则,执行步骤S106;
S105.第一节点设置hop=0,保存所述第一数据包;执行步骤S108;
S106.第一节点判断所述第一数据包的请求频率权重是否不小于第二数据包的请求频率权重;如果是,执行步骤S107,否则执行步骤S103;
作为本具体实施例的一种优选实现方案,本步骤中,所述请求频率权重所述请求频率权重
Figure PCTCN2019079277-appb-000008
的获取方法为:所述第一节点在当前时刻之前的时间段T内接收到请求数据包c m的请求包的频率;
其中,所述m为数据包的序号,m=1,2,......K。
作为本具体实施例的又一种优选实现方案,本步骤中,所述请求频率权重所述请求频率权重
Figure PCTCN2019079277-appb-000009
的获取方法为:
Figure PCTCN2019079277-appb-000010
其中,所述count m(T n)为所述第一节点在时间段T n接收到请求数据包c m的请求包的频率;所述θ n为预设的时间段T n内访问所述c m的权重值;
θ 1>…>θ n>…>θ N>0;
所述n为时间段序号,n=1,2,......N;n越大,表明所述时间段T n与当前时刻T的时间距离越大。
S107.第一节点丢弃所述第二数据包,保存所述第一数据包,设置hop=0;
S108.第一节点将第一数据包发送到下一个节点。
本具体实施例中,网络在数据包中设置了一个表示缓存有该数据包的节点距离当前节点的跳数:缓存距离标识,当前节点在接收到数据包时,首先判断该数据包的缓存距离标识是否已小于预先设置的最大缓存距离,如果是,当前节点不对该数据包进行缓存,否则,当前节点进一步判断其缓存空间是否未满,如果是,当前节点保存该数据包,否则,当前节点丢弃该数据包和当前节点已缓存数据包中请求频率权重最小的一个数据包。本具体实施例的方案中,节点通过数据包缓存距离标识判断是否对数据包进行缓存,综合考虑了数据包在节点缓存所产生的缓存能耗和数据包在链路中传输所产生的传输能耗,从而有效的降低了节点数据包分发能耗,同时在缓存空间已满时,通过数据包的请求频率权重确定丢弃的数据包,保证了节点所缓存的数据是被请求频率高的数据,提高了用户获取数据的效率。
在本具体实施例的优选实现方案中,进一步对计算数据包请求频率的时间段进行细分,并根据时间段距当前时刻的距离来设置各时间段请求频率的权重,有效避免了目标数据包前期请求频率很高,最近的请求频率很低导致整体总的请求频率较高的情况,进一步提高了用户获取数据的效率。
具体实施例2
本实施例为本发明ICWNV中内容缓存方法的又一种优选实施方式。参见图2,本实施例的流程如图2所示,包括:
S201.第一节点接收第一数据包;
S202.节点判断所述第一数据包的缓存距离标识hop是否小于预设的最大缓存距离hop max;如果是,执行步骤S203,否则,执行步骤S204;
其中,所述hop用于表示缓存有所述第一数据包的节点距离所述第一节点的跳数;
所述hop max为根据具体网络的规模、节点缓存功率密度、节点能量密度和链路能量密度等参数,通过实验数据或仿真结果预设的在满足网络传输效率需求前提下使得预估网络平均能耗最低的缓存距离。
本实施例中,所述hop保存在所述第一数据包中;
S203.第一节点设置hop=hop+1,执行步骤S210;
S204.第一节点判断是否有空余的缓存空间,如果是,执行步骤S205,否则,执行步骤S206;
S205.第一节点计算并保存缓存第一数据包之后的总能耗E total,设置hop=0,保存所述第一数据包;执行步骤S210;
S206.计算第一节点丢弃其缓存空间中保存的第二数据包并保存所述第一数据包后网络总能耗E total_k
Figure PCTCN2019079277-appb-000011
其中,所述i,j为节点序号,i,j=1,2,......I,i≠j。
所述k为所述第一数据包的序号,所述l为数据包序号,l=1,2,......K,l≠k。
其中,所述第二数据包为所述第一节点缓存空间中保存的请求频率权重 最小的数据包。
S207.第一节点判断所述E total_k是否大于当前网络的总能耗E total;如果是,执行步骤S203;否则,执行步骤S208;
S208.第一节点判断所述第一数据包的请求频率权重是否不小于第二数据包的请求频率权重;如果是,执行步骤S209,否则执行步骤S203;
作为本具体实施例的一种优选实现方案,本步骤中,所述请求频率权重所述请求频率权重
Figure PCTCN2019079277-appb-000012
的获取方法为:所述第一节点在当前时刻之前的时间段T内接收到请求数据包c m的请求包的频率;
其中,所述m为数据包的序号,m=1,2,......K。
作为本具体实施例的又一种优选实现方案,本步骤中,所述请求频率权重所述请求频率权重
Figure PCTCN2019079277-appb-000013
的获取方法为:
Figure PCTCN2019079277-appb-000014
其中,所述count m(T n)为所述第一节点在时间段T n接收到请求数据包c m的请求包的频率;所述θ n为预设的时间段T n内访问所述c m的权重值;
θ 1>…>θ n>…>θ N>0;
所述n为时间段序号,n=1,2,......N;n越大,表明所述时间段T n与当前时刻T的时间距离越大。
S209.第一节点设置hop=0,丢弃所述第二数据包,保存所述第一数据包,设置E total=E total_k
S210.第一节点将所述第一数据包发送到下一节点。
本具体实施例的方案在具体实施例1的基础上,在缓存空间已满时,通过判断数据包缓存后的总能耗确定丢弃的数据包,进一步降低了网络的总能 耗。
在本具体实施例的优选实现方案中,对计算数据包请求频率的时间段进行细分,并根据时间段距当前时刻的距离来设置各时间段请求频率的权重,有效避免了目标数据包前期请求频率很高,最近的请求频率很低导致整体总的请求频率较高的情况,提高了用户获取数据的效率。
需要说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (10)

  1. 一种信息中心网络虚拟化中内容缓存方法,其特征在于,所述方法包括:
    第一节点接收第一数据包;
    如果所述第一数据包的缓存距离标识hop小于预设的最大缓存距离,所述第一节点设置hop=hop+1;将所述第一数据包发送到下一节点;
    如果所述hop不小于预设的最大缓存距离,且所述第一节点的有空余的缓存空间,所述第一节点设置hop=0,保存所述第一数据包,将所述第一数据包发送到下一节点。
  2. 根据权利要求1所述的方法,其特征在于,所述方法包括:
    如果所述hop不小于预设的最大缓存距离,且所述第一节点缓存空间已满;如果所述第一数据包的请求频率权重小于所述第二数据包,所述第一节点设置hop=hop+1;将所述第一数据包发送到下一节点;
    其中,所述第二数据包为所述第一节点缓存空间中保存的请求频率权重最小的数据包。
  3. 根据权利要求2所述的方法,其特征在于,所述方法包括:
    如果所述第一数据包的请求频率权重不小于所述第二数据包;所述第一节点丢弃所述第二数据包,保存所述第一数据包,设置hop=0,将所述第一数据包发送到下一节点。
  4. 根据权利要求2或3所述的方法,其特征在于,所述请求频率权重为:
    所述第一节点在当前时刻之前的时间段T内接收到请求数据包cm的请求包的频率;
    其中,所述m为数据包的序号,m=1,2,......K。
  5. 根据权利要求2或3所述的方法,其特征在于,所述请求频率权重为:
    Figure PCTCN2019079277-appb-100001
    其中,所述
    Figure PCTCN2019079277-appb-100002
    为数据包c m的请求频率权重;
    所述count m(T n)为所述第一节点在时间段T n接收到请求数据包c m的请求包的频率;
    所述θ n为预设的时间段T n的权重值,θ 1>…>θ n>…>θ N>0;
    所述n为时间段序号,n=1,2,……N;n越大,表明所述时间段T n与当前时刻T的时间距离越大。
  6. 根据权利要求1所述的方法,其特征在于,所述方法包括:
    如果所述hop不小于预设的最大缓存距离,且所述第一节点的缓存空间已满,计算所述第一节点丢弃其缓存空间中保存的第二数据包并保存所述第一数据包后网络的总能耗E total_k
    如果所述E total_k大于当前网络的总能耗E total,所述第一节点设置hop=hop+1;将所述第一数据包发送到下一节点;
    其中,所述第二数据包为所述第一节点缓存空间中保存的请求频率权重最小的数据包。
  7. 根据权利要求6所述的方法,其特征在于,所述方法包括:
    如果所述E total_k不大于当前网络的总能耗E total,且所述第一数据包在所述第一节点的请求频率权重小于所述第二数据包;所述第一节点设置hop=hop+1;将所述第一数据包发送到下一节点。
  8. 根据权利要求7所述的方法,其特征在于,所述方法包括:
    如果所述E total_k不大于当前网络的总能耗E total,且所述第一数据包在所述第一节点的请求频率权重不小于所述第二数据包,所述第一节点设置hop=0,丢弃所述第二数据包,保存所述第一数据包,设置E total=E total_k,将所述第一数据包发送到下一节点。
  9. 根据权利要求7或8所述的方法,其特征在于,所述请求频率权重为:
    所述第一节点在当前时刻之前的时间段T内接收到请求数据包c m的请求包的频率;
    其中,所述m为数据包的序号,m=1,2,......K。
  10. 根据权利要求7或8所述的方法,其特征在于,所述请求频率权重为:
    Figure PCTCN2019079277-appb-100003
    其中,所述
    Figure PCTCN2019079277-appb-100004
    为数据包c m的请求频率权重;
    所述count m(T n)为所述第一节点在时间段T n接收到请求数据包c m的请求包的频率;
    所述θ n为预设的时间段T n的权重值,θ 1>…>θ n>…>θ N>0;
    所述n为时间段序号,n=1,2,……N;n越大,表明所述时间段T n与当前时刻T的时间距离越大。
PCT/CN2019/079277 2018-07-04 2019-03-22 一种信息中心网络虚拟化中内容缓存方法 WO2020007073A1 (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/979,134 US11502956B2 (en) 2018-07-04 2019-03-22 Method for content caching in information-centric network virtualization

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201810725306.1A CN108900618A (zh) 2018-07-04 2018-07-04 一种信息中心网络虚拟化中内容缓存方法
CN201810725306.1 2018-07-04

Publications (1)

Publication Number Publication Date
WO2020007073A1 true WO2020007073A1 (zh) 2020-01-09

Family

ID=64347901

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2019/079277 WO2020007073A1 (zh) 2018-07-04 2019-03-22 一种信息中心网络虚拟化中内容缓存方法

Country Status (3)

Country Link
US (1) US11502956B2 (zh)
CN (1) CN108900618A (zh)
WO (1) WO2020007073A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114827273A (zh) * 2022-03-30 2022-07-29 南京邮电大学 基于时延优化的虚拟网络映射算法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108900618A (zh) 2018-07-04 2018-11-27 重庆邮电大学 一种信息中心网络虚拟化中内容缓存方法
CN111628933A (zh) * 2020-05-22 2020-09-04 哈尔滨工程大学 一种信息中心网络中基于内容关联性的路径缓存方法
CN111865826B (zh) * 2020-07-02 2022-01-04 大连理工大学 一种基于联邦学习的主动内容缓存方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103052114A (zh) * 2012-12-21 2013-04-17 中国科学院深圳先进技术研究院 数据缓存放置系统及数据缓存的方法
US20130227048A1 (en) * 2012-02-28 2013-08-29 Futurewei Technologies, Inc. Method for Collaborative Caching for Content-Oriented Networks
CN105635319A (zh) * 2016-03-03 2016-06-01 北京邮电大学 一种数据缓存的方法及装置
CN108093056A (zh) * 2017-12-25 2018-05-29 重庆邮电大学 信息中心无线网络虚拟化网络中节点缓存替换方法
CN108183867A (zh) * 2017-12-25 2018-06-19 重庆邮电大学 信息中心网络节点缓存替换方法
CN108900618A (zh) * 2018-07-04 2018-11-27 重庆邮电大学 一种信息中心网络虚拟化中内容缓存方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5336403B2 (ja) * 2010-02-24 2013-11-06 富士通株式会社 ノード装置およびコンピュータプログラム
US20120047504A1 (en) * 2010-08-17 2012-02-23 Robert Paul Morris Methods, systems, and computer program products for maintaining a resource based on a cost of energy
CN104901980B (zh) * 2014-03-05 2018-02-13 北京工业大学 基于流行度的数据命名网络的均衡分布缓存方法
CN105049254B (zh) * 2015-07-30 2018-08-21 重庆邮电大学 一种ndn/ccn中基于内容等级及流行度的数据缓存替换方法
CN105357246B (zh) * 2015-08-12 2018-08-24 北京交通大学 基于信息中心网络的缓存方法和系统
CN105656788B (zh) * 2015-12-25 2019-08-06 中国科学院信息工程研究所 基于流行度统计的ccn内容缓存方法
CN105407055B (zh) * 2015-12-30 2018-09-28 深圳先进技术研究院 一种内容中心网络的能耗控制方法
CN105939385B (zh) * 2016-06-22 2019-05-10 湖南大学 一种ndn缓存中基于请求频率的实时数据替换方法
CN106131182B (zh) * 2016-07-12 2019-04-09 重庆邮电大学 命名数据网络中一种基于流行度预测的协作缓存方法
CN106453495B (zh) * 2016-08-31 2019-02-19 北京邮电大学 一种基于内容流行度预测的信息中心网络缓存方法
CN106453518A (zh) * 2016-09-20 2017-02-22 北京工业大学 一种能量有效的内容中心网络分布式缓存方法
CN106790617B (zh) * 2016-12-30 2019-07-16 北京邮电大学 协同内容缓存控制系统和方法
CN106899692A (zh) * 2017-03-17 2017-06-27 重庆邮电大学 一种内容中心网络节点数据缓存替换方法和装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130227048A1 (en) * 2012-02-28 2013-08-29 Futurewei Technologies, Inc. Method for Collaborative Caching for Content-Oriented Networks
CN103052114A (zh) * 2012-12-21 2013-04-17 中国科学院深圳先进技术研究院 数据缓存放置系统及数据缓存的方法
CN105635319A (zh) * 2016-03-03 2016-06-01 北京邮电大学 一种数据缓存的方法及装置
CN108093056A (zh) * 2017-12-25 2018-05-29 重庆邮电大学 信息中心无线网络虚拟化网络中节点缓存替换方法
CN108183867A (zh) * 2017-12-25 2018-06-19 重庆邮电大学 信息中心网络节点缓存替换方法
CN108900618A (zh) * 2018-07-04 2018-11-27 重庆邮电大学 一种信息中心网络虚拟化中内容缓存方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
WANG, YONGGONG ET AL.: "Performance Analysis and Optimization for In-Network Caching Replacement in Information Centric Networking", JOURNAL OF COMPUTER RESEARCH AND DEVELOPMENT, 15 September 2015 (2015-09-15) *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114827273A (zh) * 2022-03-30 2022-07-29 南京邮电大学 基于时延优化的虚拟网络映射算法
CN114827273B (zh) * 2022-03-30 2023-11-24 南京邮电大学 基于时延优化的虚拟网络映射方法

Also Published As

Publication number Publication date
US11502956B2 (en) 2022-11-15
US20210083976A1 (en) 2021-03-18
CN108900618A (zh) 2018-11-27

Similar Documents

Publication Publication Date Title
WO2020007073A1 (zh) 一种信息中心网络虚拟化中内容缓存方法
CN104753797B (zh) 一种基于选择性缓存的内容中心网络动态路由方法
JP2003209567A (ja) パケット交換システム、パケット交換方法、ルーティング装置、パケットデータ及びその生成方法
CN111314224B (zh) 一种命名数据网络缓存方法
WO2020103855A1 (zh) 一种信息中心网络中转发端口的确定方法及装置
WO2017101230A1 (zh) 一种数据中心网络的路由选择方法及网络管理器
WO2015014196A1 (zh) 确定内容获取路径、请求处理的方法、装置和系统
CN111683013A (zh) 一种加速网络的路由方法和加速网络
CN111107000A (zh) 一种基于网络编码的命名数据网络中内容缓存方法
CN108183867B (zh) 信息中心网络节点缓存替换方法
CN108769252A (zh) 一种基于请求内容关联性的icn网络预缓存方法
JP2021064835A (ja) ネットワーク管理装置及び方法
CN108093056B (zh) 信息中心无线网络虚拟化网络中节点缓存替换方法
Huang et al. On-path collaborative in-network caching for information-centric networks
Nguyen et al. Adaptive caching for beneficial content distribution in information-centric networking
Yu et al. Dynamic popularity-based caching permission strategy for named data networking
Dong et al. On the cache-and-forward network architecture
Pu Pro^NDN: MCDM-Based Interest Forwarding and Cooperative Data Caching for Named Data Networking
CN108076144B (zh) 一种内容中心网络的公平缓存算法及装置
WO2023071324A1 (zh) 报文转发方法及装置
WO2013023479A1 (zh) 负荷分担方法、装置和系统
CN112822275B (zh) 基于topsis熵权法的轻量级缓存策略
Yang et al. Content-based hyperbolic routing and push mechanism in named data networking
CN113382053B (zh) 基于节点半局部中心性和内容热度的内容主动推送方法
Yeh et al. VIP: Joint traffic engineering and caching in Named Data Networks

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19830836

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19830836

Country of ref document: EP

Kind code of ref document: A1