WO2015014196A1 - 确定内容获取路径、请求处理的方法、装置和系统 - Google Patents

确定内容获取路径、请求处理的方法、装置和系统 Download PDF

Info

Publication number
WO2015014196A1
WO2015014196A1 PCT/CN2014/081869 CN2014081869W WO2015014196A1 WO 2015014196 A1 WO2015014196 A1 WO 2015014196A1 CN 2014081869 W CN2014081869 W CN 2014081869W WO 2015014196 A1 WO2015014196 A1 WO 2015014196A1
Authority
WO
WIPO (PCT)
Prior art keywords
content
network node
cache
request
hit rate
Prior art date
Application number
PCT/CN2014/081869
Other languages
English (en)
French (fr)
Inventor
刘树成
Original Assignee
华为技术有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 华为技术有限公司 filed Critical 华为技术有限公司
Priority to EP19159132.0A priority Critical patent/EP3567813B1/en
Priority to EP14831652.4A priority patent/EP3021537B1/en
Publication of WO2015014196A1 publication Critical patent/WO2015014196A1/zh
Priority to US15/011,106 priority patent/US10103986B2/en
Priority to US16/140,059 priority patent/US10587513B2/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • H04L45/74Address processing for routing
    • H04L45/742Route cache; Operation thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/64Hybrid switching systems
    • H04L12/6418Hybrid transport
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • H04L45/12Shortest path evaluation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • H04L45/12Shortest path evaluation
    • H04L45/124Shortest path evaluation using a combination of metrics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • H04L45/302Route determination based on requested QoS
    • H04L45/306Route determination based on the nature of the carried application
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • H04L45/74Address processing for routing
    • H04L45/745Address table lookup; Address filtering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services
    • H04L67/568Storing data temporarily at an intermediate stage, e.g. caching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/60Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources
    • H04L67/63Routing a service request depending on the request content or context

Definitions

  • the present invention claims to be submitted to the Chinese Patent Office on July 31, 2013, and the application number is CN 201310329105.7, and the invention name is "determined content acquisition path, request processing method, device, and The priority of the Chinese Patent Application, the entire disclosure of which is hereby incorporated by reference.
  • TECHNICAL FIELD The present invention relates to the field of communications, and in particular, to a method, an apparatus, and a system for determining a content acquisition path, request processing, and the like.
  • BACKGROUND According to statistics released by the Cisco (Virtual Network Index, VNI), more than 90% of Internet traffic in 2011 is file sharing, video and web pages. According to its prediction, this proportion will continue to increase, and it is estimated that by 2016 only video traffic will account for 54% of the total Internet traffic.
  • each network device located on the path of the user to the original content provider determines whether to return content to the user or forward the request based on whether the local cache hits the content.
  • the cache of network devices is limited, not all content can be cached.
  • research indicates that there are regional features of content requests (that is, users with similar geographical locations will request similar content), the same content in different caches.
  • the hit rate is different (that is, different content may be cached in different network devices). Therefore, routing through the existing path calculation method cannot effectively utilize the cache in the network.
  • the technical problem to be solved by the embodiments of the present invention is to provide a method, an apparatus, and a system for determining a content acquisition path and a content request processing, which are used to solve the problem that the content request routing process cannot be effectively utilized in the prior art.
  • the problem of caching in the network is to provide a method, an apparatus, and a system for determining a content acquisition path and a content request processing, which are used to solve the problem that the content request routing process cannot be effectively utilized in the prior art.
  • a method for determining a content acquisition path including:
  • the request is sent to the next network node based on the content acquisition path such that the next network node forwards or responds to the request.
  • the method further includes: acquiring, by the network node on each forwarding path, a cache hit ratio of the content;
  • the cache hit ratio of the content is obtained by: querying the cache hit ratio of the content on the forwarding path of the network node in the locally saved cache hit ratio information table, or in the cache hit ratio information table.
  • a second possible implementation manner of the first aspect is further provided, where the link cost according to each forwarding path is Determining, by the network node on each forwarding path, a content acquisition path for the cache hit ratio of the content includes:
  • a third possible implementation of the first aspect is also provided, the method further comprising: receiving a cache by hitting the content a content data packet generated by the network node or generated by the original content provider, the content data packet carrying hit rate information of the content by all cache network nodes through which the request passes; extracting the content data packet The hit rate information in the middle, updating the hit rate information of the content saved by the corresponding locally saved network node.
  • a request processing method including:
  • the cache network node receives a request from a user for requesting the original content provider to provide content, the request carrying the name of the content, the network address of the original content provider, and the network address of the user,
  • the cache network node is a network node responsible for caching the content; checking a local cache, if hitting the content, updating a local cache hit rate of the content, generating a content data packet, and transmitting the content to the user a data packet as a response to the request, where the content data packet carries hit ratio information of the cache network node to the content, or
  • the cache network node in a case that the cache network node hits the content, if the request further carries other cache network node hit rate information of the content, The cache network node extracts and carries the hit rate information in the content data packet, wherein the other cache network node refers to a node that the request passes before reaching the cache network node.
  • the sending the request to the original content provider after performing the following processing includes: Determining, by the cache network node, the next hop according to the content acquisition path information carried in the request; or, the cache network node calculates at least two forwarding paths to the original content provider, according to the chain on each forwarding path The path cost and the network node on each forwarding path determine a content acquisition path for the cache hit ratio of the content, and determine a next hop according to the determined content acquisition path.
  • a third possible implementation manner of the second aspect is further provided, where the content is missed in the cache network node
  • the method further includes: the cache network node receiving a content data packet generated by a cache network node that hits the content, or generated by the original content provider, the content data packet carrying the content Requesting hit rate information for the content by all cached network nodes; sending the content data packet to the user, or extracting hit rate information in the content data packet, updating the locally saved corresponding network node pair The hit rate information of the content, and the content data packet is sent to the user.
  • a network node for determining a content acquisition path including:
  • a first receiving unit configured to receive a request from a user, where the request is used to request an original content provider to provide content, the request carrying a name of the content, a network address of the original content provider, and the user website address;
  • a calculating unit configured to calculate at least two forwarding paths to the original content provider, and determine a content obtaining path according to a link cost on each forwarding path and a cache hit rate of the content on a network node on each forwarding path ;
  • a forwarding unit configured to send the request to the next network node according to the content acquisition path, In order for the next network node to forward or respond to the request.
  • the network node further includes: an acquiring unit, configured to acquire a hit ratio of the network node on the forwarding path to the content; the acquiring unit includes a storage module And the query module, or the storage module, the query module, and the preset module, where the storage module is configured to save cache hit ratio information of each network node in the network;
  • the storage module queries the cache hit ratio of the content of the network node on each forwarding path, or is used to query, by the storage module, the cache hit ratio of the cache network node on each forwarding path to the content, the cache
  • the network node is a network node responsible for buffering the content; the preset module is only when at least one network node exists, and the cache hit rate of the content by the at least one network node cannot be determined by the query module Calling, the preset module is configured to calculate an overall hit rate according to the at least one network node The cache hit rate is provided at least one network node of the content.
  • the second possible implementation manner of the foregoing third aspect is further provided, where the calculating unit includes:
  • the P u+1 represents a link cost of the i th network node to the i+1 th network node of the n network nodes;
  • the d, n represents a number from the n network nodes a path cost of the i network node to the nth network node;
  • a determining module configured to select a forwarding path with the least path cost among the at least two forwarding paths as the content obtaining path.
  • a third possible implementation manner of the third aspect is further provided, where the network node further includes: a second receiving unit, configured to: Receiving a content data packet generated by a cache network node that hits the content, or generated by the original content provider, the content data packet carrying a hit rate of the content by all cache network nodes through which the request passes And an update unit, configured to extract hit ratio information in the content data packet, and update hit ratio information of the locally saved corresponding network node to the content.
  • a cache network node including: a first receiving unit, configured to receive a request from a user, where the request is used to request an original content provider to provide content, the request carrying a name of the content, a network address of the original content provider, and the user a network address, the cache network node being a network node responsible for caching the content;
  • the first processing unit is configured to check the local cache and process the hitting of the content according to the local cache, including:
  • the cache network node hits the content rate information of the content, or if the content is missed, updates the local cache hit rate of the content, and performs the following processing on the request to the original content provider.
  • the first processing unit includes: an extracting module, configured to hit the content in the cache network node, and the request further carries other cache network nodes Extracting the hit rate information in the case of the hit rate information of the content, wherein the other cache network node refers to a node that the request passes before reaching the network node; and an information insertion module, configured to The hit rate information extracted by the extraction module is carried in the content data packet.
  • the first processing unit includes: a sending module, configured to be carried according to the request if the cache network node misses the content
  • the content acquisition path information determines a next hop, or is configured to calculate at least two forwarding paths to the original content provider if the cache network node misses the content, according to a chain on each forwarding path
  • the path cost and the network node on each forwarding path determine a content acquisition path for the cache hit ratio of the content, and determine a next hop according to the determined content acquisition path.
  • a third possible implementation manner of the fourth aspect is further provided, where the cache network node further includes: a second receiving unit And receiving, in the case that the cache network node misses the content, receiving a content data packet generated by a cache network node that hits the content, or generated by the original content provider, the content data packet Carrying all the cache network nodes that the request passes through a second hitting unit, configured to send the content data packet to the user, or to extract hit rate information in the content data packet, and update a locally saved corresponding network node pair The hit rate information of the content, and the content data packet is sent to the user.
  • a content acquisition system comprising a network node for determining a content acquisition path according to the third aspect of the present invention and a cache network node according to the fourth aspect of the present invention.
  • the embodiment of the present invention can determine the content acquisition path according to the link cost on each forwarding path and the cache hit ratio of the content on the forwarding path, and then perform routing according to the content acquisition path, which can effectively improve the network. Cache utilization, while further alleviating the pressure on the original content provider and improving the utilization of link resources.
  • FIG. 1 is a schematic flowchart of a method for determining a content acquisition path according to an embodiment of the present invention
  • FIG. 2 is a schematic flowchart of a request processing method according to an embodiment of the present invention
  • FIG. 3 is a schematic diagram of a network topology used in accordance with an embodiment of the present invention.
  • FIG. 4 is a schematic diagram of multi-path forwarding in the embodiment shown in FIG. 3;
  • FIG. 5 is another schematic diagram of multi-path forwarding in the embodiment shown in FIG. 3;
  • 6A is a block diagram of a network node that determines a content acquisition path, in accordance with an embodiment of the present invention
  • FIG. 6B is a block diagram of a computing unit of the embodiment shown in FIG. 6A;
  • 6C is a block diagram showing the calculation unit of the embodiment shown in FIG. 6A;
  • FIG. 7 is a block diagram of a network node that determines a content acquisition path, in accordance with an embodiment of the present invention.
  • FIG. 8A is a block diagram of a cache network node in accordance with an embodiment of the present invention.
  • Figure 8B is a block diagram showing the processing unit of the embodiment shown in Figure 8A;
  • Figure 8C is a block diagram showing the processing unit of the embodiment shown in Figure 8A; 9 is a block diagram of a cache network node according to an embodiment of the present invention; FIG. 10 is a block diagram of a content acquisition system according to an embodiment of the present invention.
  • FIG. 11 is a block diagram of a network node in accordance with an embodiment of the present invention.
  • Figure 12 is a block diagram of a network node in accordance with an embodiment of the present invention.
  • FIG. 1 is a schematic flowchart of a method for determining a content acquisition path according to an embodiment of the present invention. Referring to FIG. 1, the method includes (the dotted line indicates that the step is optional):
  • the first network node receives a request from a user, the request is used to request an original content provider to provide content, the request carries a name of the content, a network address of the original content provider, and a network of the user address.
  • the first network node may perform route calculation/addressing based on the original content provider and the user's network address (e.g., IP address).
  • the user's network address e.g., IP address
  • the "name of the content" referred to in the present invention includes not only a name in a narrow sense but also a mark or logo having a recognition/discrimination meaning in the broad sense that can identify the content.
  • the "request from the user” may be understood to mean that the source address of the request is the user, and does not restrict whether the user is directly connected to the node or connected by a forwarding device (for example, an intermediate forwarding node). In other words, the request can be forwarded to the first network node via other devices.
  • the present invention relates to "sending to the user", “sending to the content provider” or the like, and does not limit the manner of connection between the nodes.
  • the first network node includes a device that needs to perform route calculation, for example: an access router.
  • each network node is integrated to calculate the cache hit ratio of the content, thereby directly calculating the content acquisition path.
  • the method before 102 or in 102, the method includes: acquiring, by the network node on each forwarding path, a cache hit ratio of the content. For example, it can be obtained in the following ways:
  • the cache hit ratio of the content, the cache network node is a network node responsible for caching the content. It should be noted that the "network node responsible for caching the content" should be understood that the network node may cache the content instead of having the content cached.
  • the cache hit rate of the content cannot be obtained by querying the cache hit ratio information table (for example, when the first network node receives the content for the first time)
  • the hit rate information of the content may not be queried by the other network node, and the cache hit ratio of the content by the at least one network node is preset according to the overall hit ratio of the at least one network node.
  • the hit rate of the content may be preset according to a cache hit ratio of the at least one network node saved by the local cache, for example, if the at least one network node caches the hit ratio of other content. If the value is not high, the preset hit rate of the content may not be too high.
  • a feasible value is as follows: The minimum value is selected as the preset value in the set threshold and the known hit rate of all contents.
  • the first network node When the first network node receives the request for a certain content for the first time, it can use various methods to learn which caches in the network may cache the content, for example: recording all cache devices by using a centralized device, the first network When the node accesses the network, the cache information of all cache devices is obtained by querying at one time; the first network node performs self-learning by using the interaction information (ie: learning new cache information from each received content data); each cache device The distributed hash table technology itself determines which content is responsible for each, and the first network node can use the same technology to obtain cache information.
  • the "cache information" may include: the address of the cache device, the storage capacity of the cache device, and what content is currently stored.
  • 102 includes:
  • the first network node may forward the request to the next network node by using a source route, in which case, the path of the request in the entire route forwarding process That is, the content acquisition path.
  • a source route in which case, the path of the request in the entire route forwarding process That is, the content acquisition path.
  • the network address of the network node responsible for buffering the content may be carried in the IP option (without carrying the network address of the network node that does not have to pass), so as to be responsible for buffering the content.
  • the network node checks if the local cache hits the content.
  • the first network node may also send the request by using a tunneling technology, where the destination address is an address of the next network node, and then used by the next network node.
  • the same method of the first network node recalculates the content acquisition path for routing and forwarding.
  • the end point of each tunnel is a network node responsible for buffering the content, specifically: since the tunnel is established by a segment, first establishing from the first network node to the first A tunnel of the network node responsible for caching the content, the network node at the tunnel endpoint queries the local cache, and then carries the address of the subsequent network node in the IP option (or the method of recalculating the content acquisition path) The network node currently having a cache function establishes a tunnel with the next cached network node.
  • the method for determining the content acquisition path provided by this embodiment can effectively improve the utilization of the cache in the network (for example, compared with the traditional shortest path routing method), and at the same time further alleviate the pressure and improve the original content provider. Utilization of link resources.
  • the method further includes: 106: receiving a content data packet generated by a network node responsible for caching the content and hitting the content (ie, a cache network node hitting the content), or generated by the original content provider, the content data
  • the packet carries hit rate information for the content by all cached network nodes through which the request passes.
  • IP option IP option
  • the "network node responsible for buffering the content and hitting the content” (hereinafter referred to as “cache hit node”) and “original content provider” are respectively described, those skilled in the art will be described. It should be understood that in the present invention, the "original content provider” and the “cache hit node” are functionally identical except for differences due to different locations in the network. That is: the original content provider handles the request in the same way as the cache hit node, in other words, the "cache hit node” includes “original content provider” in some scenarios.
  • the first network node may timely update the hit rate information of the content of the network node responsible for buffering the content.
  • FIG. 2 is a schematic flowchart of a request processing method according to an embodiment of the present invention. Referring to FIG. 2, the method includes:
  • the cache network node receives a request from a user, the request is for requesting content provided by an original content provider, the request carrying a name of the content, a network address of the original content provider, and a network address of the user (eg, an IP address), the cache network node is a network node responsible for caching the content.
  • the cache network node may be the "next network node" in the embodiment shown in FIG. 1.
  • the packet carries the hit rate information of the cache network node to the content.
  • the cache network node extracts the hit rate information and carries it in the content data packet to use the hit rate information and the cache network node
  • the hit rate information for the content is sent to the first network node (eg, an access router).
  • the other cache network node refers to a node that the request passes before reaching the cache network node.
  • the sending the foregoing processed request to the original content provider includes:
  • the cache network node calculates at least two forwarding paths to the original content provider, and determines a content acquisition path according to the link cost on each forwarding path and the cache hit ratio of the content on the forwarding path of the network node on each forwarding path. Determining the next hop according to the determined content acquisition path (for example, when tunneling technology is used).
  • the specific calculation method is the same as the method for calculating the content acquisition path by the first network node in the embodiment shown in FIG. 1, and details are not described herein.
  • the content request processing method provided in this embodiment when determining whether the local cache hits the content, correspondingly sends or responds, and carries the current network node to the content in the content data packet of the sent request and response.
  • the hit rate information is such that the network node (for example, the first network node) that needs to perform route calculation timely updates the corresponding hit rate information, thereby providing a calculation basis for the method for determining the content acquisition path provided by the present invention.
  • the method further includes:
  • the cache network node receives a content data packet generated by a cache network node that hits the content, or generated by the original content provider, where the content data packet carries all cache network nodes through which the request passes. Hit rate information for the content.
  • Perform content data packet forwarding processing including:
  • the second may be applicable to a scenario in which a cache network node needs to perform or may need to perform route calculation.
  • the network includes 10 routers and 16 links; the value on the link is a chain of links.
  • the cost of the path (for example, it may be the weight of the link, the charging or the degree of congestion, etc.).
  • the link weight value is used as the link cost of the calculated route; two users are connected to the access router R1, and the original content is provided.
  • Each router is configured with a cache.
  • Each cache device is responsible for caching a portion of all content due to limited cache capacity. For multiple hash functions with multiple hash functions for the same content name, it should be responsible for caching.
  • the node number of the content (in this embodiment, two hash functions are used); each node replaces the content that should be cached locally with the principle of Least Frequently Used (LFU); each node is responsible for statistics and Record the hit rate of each content in the local cache.
  • LFU Least Frequently Used
  • Step 1 User 1 sends a request packet carrying the name of the content 1 in the packet, the IP address of the original content provider, and the IP address of the user 1.
  • Step 2 After receiving the request of User 1, R1 parses the request and calculates multiple paths to the original content provider according to the address of the original content provider.
  • Figure 4 shows the multipath information. By default, 3 paths are calculated. The default value can be modified.
  • the calculation method of multiple paths is to calculate the shortest path through the outgoing link for each outbound link of R1, and if the number of outgoing links is less than 3, calculate the secondary short circuit after a certain outgoing link until the required one is met. The number of multipaths.
  • Step 3 R1 calculates the cost for each path separately, and the calculation formula is as described in the embodiment shown in FIG. 1.
  • R1 receives the request for content 1 for the first time, R1 performs two hash calculations, and R5 and R10 are responsible for buffering content 1, but there is no hit ratio information of these two caches, so the default value is used.
  • the 50% hit rate is calculated, and the cost of each path is obtained (in Figures 4 and 5, the thick curve indicates the forwarding path, and the thin solid line indicates the topology relationship):
  • Path 1 C 2363 (no cache, and shortest path)
  • Path 3 has a total of four nodes, of which node 2 ( R10 ) and node 3 ( R5 ) have caches, node 1 ( R1 ) is the access router of user 1, and node 4 ( R6 ) is the access of the content provider.
  • Path 3 has the least cost, so path 3 is selected as the content acquisition path.
  • Step 4 R1 uses the source route to carry the information of path 3 in the IP option, and records the information of R5 and R10 (including: the IP addresses of R5 and R10;).
  • Step 5 After receiving the request, R10 extracts the name of content 1, and because it is responsible for the local cache, it queries the local cache. If there is no cached content 1 locally, then the content 1 is cached locally, and the content cache 1% of the local cache is carried in the IP option of the request packet, and then the request packet is forwarded to R5 according to the source route.
  • Step 6 After receiving the request, R5 extracts the name of content 1, and because it is responsible for the local cache, it queries the local cache.
  • the content cache 1 is cached locally, and the hit ratio of the content cache 1 is updated locally, and a content data packet is generated.
  • the hit rate 60% of the content cache in the local cache and the hit rate information extracted from the request packet are carried together in the IP option of the content data packet and sent to the user.
  • the IP option can contain the following information:
  • Step 7 After receiving the content data packet, R1 extracts the hit ratio information, updates the locally cached hit ratio information table (exemplary, as shown in the following table), and then transmits the content data packet to the user 1.
  • R1 extracts the hit ratio information, updates the locally cached hit ratio information table (exemplary, as shown in the following table), and then transmits the content data packet to the user 1.
  • user 2 After user 1 requests content 1, user 2 makes a request for content 1, including:
  • Step 1 User 2 sends a request packet, the name of the content 1 carried in the request packet, and the IP address of the original content provider and the IP address of the user 2.
  • Step 2 After receiving the request from User 2, R1 parses the request and calculates multiple paths to the original content provider according to the address of the original content provider.
  • Step 3 R1 calculates the cost for each path. According to the information of all cache hits in the network recorded by R1, the hit rate of R5 is 60%, and the hit rate of R10 is 40%. The cost of each path is obtained. For:
  • Path 1 C 2363 (no cache, and shortest path)
  • Step 4 R1 uses the source route to carry the information of path 2 in the IP option of the request packet, and records the address of R5 (or simultaneously records the addresses of R4 and R5).
  • Step 5 After receiving the request, R5 extracts the name of content 1, and queries the local cache because it is responsible for the contents of the local cache. If the content is cached locally, the content of the update content 1 is 62% in the local cache and the content data packet is generated, and the hit ratio information of the content 1 in the local cache is carried in the IP option of the content data packet to the user 2.
  • Step 6 After receiving the content data packet, R1 extracts the hit rate information therein, updates the local cache hit ratio information table, and then sends the content data packet to the user 2.
  • the scenario in this implementation mode is consistent with the scenario in the specific implementation mode 1, but the method of recalculating the content acquisition path by the intermediate cache router is used instead of the source routing method.
  • This implementation requires each cache router to record the hit rate of content in all cache routers as an access router.
  • Steps 1, 2, and 3 are identical to those in Embodiment 1 (not described here). After the calculation, path 3 is selected, and the cache router of the next hop is R10.
  • Step 4 R1 re-encapsulates the requested IP packet with the destination address R10.
  • Step 5 After receiving the packet, R10 performs decapsulation and extracts the name of content 1 from the request.
  • the local cache is queried because it is responsible for the local cache. If the content 1 is not cached locally, the hit rate information of the content 1 cached locally is updated.
  • Step 6 R10 recalculates the path to the original content provider (as shown in Figure 5), and calculates the cost for each path.
  • the cost of getting each path is:
  • Path 2 C 3663 (no cache)
  • Path 3 C 4857 (no cache)
  • Path 1 has the least cost, so choose path 1
  • Step 7 R10 re-encapsulates the request packet with R5 as the destination address and carries the local cache hit rate of 40% in the IP option.
  • Step 8 After receiving the packet, R5 decapsulates and extracts the content name in the request. Therefore, the local cache is queried because it is responsible for the local cache. If the content is cached locally, the content of the update content 1 is 60% in the local cache and the content data packet is generated. The hit rate information of content 1 cached locally and the hit rate information extracted from the request packet (i.e., content 1 in other cached hit rate information) are carried in the IP option and sent to user 1.
  • Step 9 After receiving the content data packet, R1 extracts the hit ratio information, updates the local cache hit ratio information table, and then sends the content data packet to the user 1 (since the shortest path is returned, that is, after R4 to R1, R10 can't get updated information).
  • FIG. 6A is a block diagram of a network node for determining a content acquisition path according to an embodiment of the present invention.
  • the network node 60 includes:
  • a first receiving unit 602 configured to receive a request from a user, where the request is used to request an original content provider to provide content, where the request carries a name of the content, a network address of the original content provider, and the user Network address.
  • the calculating unit 604 is configured to calculate at least two forwarding paths to the original content provider, and determine a content acquisition according to a link cost on each forwarding path and a cache hit ratio of the content on a network node on each forwarding path. path.
  • the forwarding unit 606 is configured to send the request to the next network node according to the content acquisition path, so that the next network node forwards or responds to the request.
  • the network node 60 further includes The obtaining unit 603 is configured to acquire a hit rate of the content by the network node on each forwarding path.
  • the obtaining unit 603 can also be a subunit of the computing unit 604.
  • the obtaining unit 603 includes:
  • the storage module 6031 is configured to save cache hit ratio information of each network node in the network
  • the query module 6032 is configured to query, by using the storage module, a cache hit ratio of the content of the network node on each forwarding path, or Querying, by the storage module, a cache hit ratio of the cache network node on each forwarding path, where the cache network node is a network node responsible for buffering the content.
  • the obtaining unit 603 may further include:
  • a preset module 6033 the module is called only when there is at least one network node, and the cache hit rate of the content cannot be determined by the query module, and the preset module 6033 is configured to be used according to the The overall hit rate condition of the at least one network node presets a cache hit ratio of the content by the at least one network node.
  • the determining module 6045 is configured to select, as the content obtaining path, a forwarding path with the least path cost among the at least two forwarding paths.
  • FIG. 7 is a block diagram of a network node for determining a content acquisition path according to an embodiment of the present invention.
  • the network node 70 includes a first receiving unit 602, a computing unit 604, and a forwarding unit 606 (for the first receiving unit 602).
  • a description of the calculation unit 604 and the forwarding unit 606, refer to the corresponding description in the embodiment shown in FIG. 6 and:
  • a second receiving unit 702 configured to receive a content data packet generated by a cache network node that hits the content, or generated by the original content provider, where the content data packet carries all cache networks that the request passes through The hit rate information of the node to the content;
  • the updating unit 704 is configured to extract hit ratio information in the content data packet, and update hit ratio information of the content saved by the locally saved corresponding network node.
  • the network node 70 may also include the obtaining unit 603 or the obtaining unit 603 as a subunit of the computing unit 604.
  • FIG. 8A is a block diagram of a cache network node according to an embodiment of the present invention.
  • the network node 80 includes:
  • a first receiving unit 802 configured to receive a request from a user, where the request is used to request an original content provider to provide content, where the request carries a name of the content, a network address of the original content provider, and the user Network address, the cache network node is a network node responsible for caching the content.
  • the first processing unit 804 is configured to check the local cache and process the hitting of the content according to the local cache, including:
  • the cache network node hits the content rate information of the content, or if the content is missed, updates the local cache hit rate of the content, and performs the following processing on the request to the original content provider.
  • the first processing unit 804 includes:
  • the extracting module 8041 is configured to extract the hit rate information when the cache network node 80 hits the content, and the request further carries other cache network node hit rate information of the content, where The other cache network node refers to the node through which the request passes before reaching the network node 80.
  • the information insertion module 8042 is configured to carry the hit ratio information extracted by the extraction module 8041 in the content data packet.
  • the first processing unit 804 includes:
  • the sending module 8043 is configured to determine, according to the content acquisition path information carried in the request, a next hop, or, in a case that the cache network node 80 misses the content, or
  • the cache network node 80 For calculating, in the case that the cache network node 80 misses the content, calculating at least two forwarding paths to the original content provider, according to link cost on each forwarding path and each forwarding The network node on the path determines a content acquisition path for the cache hit ratio of the content, and determines a next hop according to the determined content acquisition path.
  • FIG. 9 is a block diagram of a cache network node according to an embodiment of the present invention.
  • the network node 90 includes:
  • the first receiving unit 902 has the same function as the first receiving unit 802 in the embodiment shown in FIG.
  • the first processing unit 904 is configured to check the local cache and process the hit situation of the content according to the local cache. If the content is missed, update the hit ratio of the local cache to the content, and perform the following processing on the request.
  • the original content provider sends: the hit rate information of the cache network node 90 to the content is carried in the request.
  • a second receiving unit 906 configured to receive a content data packet generated by a cache network node that hits the content, or generated by the original content provider, where the content data packet carries all cache networks that the request passes through The hit rate information of the node for the content.
  • the second processing unit 908 is configured to send the content data packet to the user, or to extract hit ratio information in the content data packet, and then update a locally saved corresponding network node to hit the content. Information and transmitting the content data packet to the user.
  • the first processing unit 904 may include the sending module 8043 in the implementation manner shown in FIG. 8C.
  • FIG. 8A and FIG. 9 can be used to implement the function of the cache network node in the method embodiment.
  • each unit/module refer to the corresponding description in the method embodiment. I will not repeat them here.
  • FIG. 10 is a block diagram of a content acquisition system according to an embodiment of the present invention.
  • the system includes: a first network node and at least one cache network node.
  • the first network node receives a request from a user for requesting the original content provider to provide content, and the first network node determines a content acquisition path to forward the request, and the request is in the forwarding process.
  • the cache network node determines whether the local cache hits the content, and there are two possibilities of hitting and missing. Specifically, for the description of the first network node and the cache network node, and the description of the communication relationship between the two, Please refer to the corresponding description in the method and device embodiment of the present invention, and details are not described herein again.
  • the at least one cache network node does not hit the content, and at this time, the system further includes an original content provider, so that the original content is used.
  • the provider returns the content to the user and returns cache hit ratio information for the content by the at least one cache network node.
  • the network node 110 includes a receiver 111, a processor 112, a transmitter 113, and a memory 114, where the processor 112 and The receiver 111, the memory 114 and the transmitter 113 are connected, and the memory 114 stores various protocols, programs or applications to be called by the processor 112 to implement the following functions; receiving, by the receiver 111, a request from a user, The request is for requesting an original content provider to provide content, the request carrying a name of the content, a network address of the original content provider, and a network address of the user;
  • the request is forwarded to the next network node according to the content acquisition path, so that the next network node forwards or responds to the request.
  • the memory 114 stores a cache hit ratio information table, so that the processor 112 queries the network node on each forwarding path in the cache hit ratio information table.
  • Cache hit ratio of the content, or query, in the cache hit ratio information table a cache hit ratio of the cache network node on each forwarding path, where the cache network node is responsible for caching the content a network node; optionally, if at least one network node exists, and the cache hit ratio of the content cannot be obtained by querying the cache hit ratio information table, the processor 112 may be configured according to the at least one network The overall hit rate condition of the node presets a cache hit ratio of the content by the at least one network node.
  • the processor 112 further receives, by the receiver 111, a network node that is responsible for buffering the content and hitting the content (ie, hitting the content. a content data packet generated by the cache network node or generated by the original content provider, the content data packet carrying all cache network node pairs through which the request passes The hit rate information of the content; at this time, the processor 112 is further configured to extract hit ratio information in the content data packet, and update hit rate information of the content by the corresponding network node saved in the memory 114.
  • the network node 120 has a buffer function including a receiver 121, a processor 122, a transmitter 123, and a memory 124.
  • the processor 122 is coupled to the receiver 121, the memory 124, and the transmitter 123, and the memory 124 stores various protocols, programs, or applications for being called by the processor 122 to implement the following functions;
  • the network node 120 belongs to a cache network node, and the cache network node is a network node responsible for buffering the content;
  • the local cache may be set in the memory 124, or may be a cache processor independent of the memory 124
  • the hit rate information may Stored in the memory 124
  • the hit rate information may Stored in the memory 124
  • the content data packet carries a network node 120 a hit rate information for the content; or, if the content is missed, updating a local cache hit rate for the content, and performing the following processing on the request to provide the original content through the transmitter 123
  • the sender sends: the hit rate information of the content by the network node 120 in the request.
  • the processor 122 is further configured to: when the content is hit, and the request further carries the hit ratio information of the cached network node to the content. These hit ratio information is extracted and carried in the content data packet, which refers to the cache network node through which the request passes before reaching the network node 120.
  • the sending, by the processor 122, the request to the original content provider by using the transmitter 123 may include:
  • the acquisition path determines the next hop according to the determined content acquisition path.
  • the processor 122 is further configured to: receive, by the receiver 121, a cache network node that hits the content, or provide the original content. a content data packet generated by the user, the content data packet carrying hit rate information of the content of all cache network nodes that the request passes during the forwarding process;
  • the storage medium may be a magnetic disk, an optical disk, or a read-only storage memory (Read-Only)
  • ROM read only memory
  • RAM random access memory

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

本发明实施例公开了一种确定内容获取路径的方法,本发明实施例还公开了一种内容请求处理方法及相应装置和系统。其中,所述确定内容获取路径的方法包括:第一网络节点接收来自用户的请求,所述请求用于请求原始内容提供者提供内容,所述请求携带内容的名称、原始内容提供者的网络地址和用户的网络地址;计算到原始内容提供者的至少两条转发路径,根据各转发路径上的链路代价以及各转发路径上的网络节点对内容的緩存命中率确定一条内容获取路径;根据内容获取路径向下一个网络节点发送所述请求,以便下一个网络节点转发或响应所述请求。釆用本发明,能有效提高网络中的緩存的利用率,进一步緩解原始内容提供者的压力和提高链路资源的利用率。

Description

确定内容获取路径、 请求处理的方法、 装置和系统 本申请要求于 2013 年 7 月 31 日提交中国专利局、 申请号为 CN 201310329105.7、 发明名称为 "确定内容获取路径、 请求处理的方法、 装置和 系统" 的中国专利申请的优先权, 其全部内容通过引用结合在本申请中。 技术领域 本发明涉及通信领域, 尤其涉及一种确定内容获取路径、 请求处理的方 法、 装置和系统。 背景技术 根据思科( Cisco )视觉化网络指数 ( Virtual Network Index, VNI )发布的 统计, 2011年互联网流量中 90%以上的流量都是文件分享 (file sharing ), 视 频和网页。 才艮据其预测, 这一比例将继续增大, 估计到 2016年仅视频流量将 占到整个互联网流量的 54%。
在获取文件、 视频和网页等内容时, 不同的用户往往会反复请求相同的 内容。 现有 IP网络以主机为中心, 如果要进行内容的传送, 则需要建立端到 端的连接, 即: 要求每个用户各自与原始内容提供者建立连接, 然后由原始 内容提供者将用户所请求的内容完整的传送给用户。 这种做法, 一方面使得 原始内容递交者需要处理大量的用户请求, 容易造成响应緩慢甚至是拒绝服 务; 另一方面, 网络中的链路需要多次传输相同的内容, 造成网络资源的浪 费。 因此, 如何有效的进行内容递交是当今互联网面临的难题。
近几年, 学术界开始研究如何将传统的以主机为中心的 IP网络改造为以 内容为中心。 比较有代表性的是美国国家科学基金 ( National Science Foundation, NSF ) 的未来互联网架构 ( Future Internet Architecture, FIA ) 支持 的 NDN ( Named Data Networking ) 项目等, 以及欧洲的第七框架计划 ( Framework Program 7, FP7 ) 所支持的 PSIRP ( Publish-Subscribe Internet Routing Paradigm ) 项目等。 这些项目大都提出利用网络设备 (比如路由器) 的緩存来緩存内容并响应内容请求, 即: 网络设备在递交内容的过程中会根 据规则决定是否緩存, 并在转发内容请求时, 如果命中本地緩存则立刻返回 结果。
目前大部分的方案中都是: 位于用户到原始内容提供者的路径上的各个 网络设备根据本地緩存是否命中内容确定向用户返回内容或者转发所述请 求。 但是, 由于网络设备的緩存是有限的, 并不是所有内容都能够被緩存, 同时, 研究表明内容请求存在区域性特征(即地理位置相近的用户会请求类 似的内容), 不同的緩存中同一内容的命中率是不同的 (也就是说不同的内容 可能緩存于不同的网络设备中), 因此, 通过现有的路径计算方式进行路由, 无法有效利用网络中的緩存。
发明内容 本发明实施例所要解决的技术问题在于, 提供一种确定内容获取路径、 内容请求处理的方法、 装置和系统, 用于解决现有技术中, 在内容请求的路 由过程中, 无法有效利用网络中的緩存的问题。
为了解决上述技术问题, 第一方面, 提供了一种确定内容获取路径的方 法, 包括:
第一网络节点接收来自用户的请求, 所述请求用于请求原始内容提供者 提供内容, 所述请求携带所述内容的名称、 所述原始内容提供者的网络地址 和所述用户的网络地址;
计算到所述原始内容提供者的至少两条转发路径, 根据各转发路径上的 链路代价以及各转发路径上的网络节点对所述内容的緩存命中率确定一条内 容获取路径;
根据所述内容获取路径向下一个网络节点发送所述请求, 以便所述下一 个网络节点转发或响应所述请求。
作为所述第一方面的第一种可能的实现方式, 所述方法还包括: 获取所 述各转发路径上的网络节点对所述内容的緩存命中率; 所述各转发路径上的 网络节点对所述内容的緩存命中率通过以下方式获取: 在本地保存的緩存命 中率信息表中查询各转发路径上的网络节点对所述内容的緩存命中率, 或, 在所述緩存命中率信息表中查询各转发路径上的緩存网络节点对所述内容的 緩存命中率, 所述緩存网络节点是负责緩存所述内容的网络节点, 或者进一 步地, 在查询过程中, 如果存在至少一个网络节点, 其对所述内容的緩存命 中率无法通过查询所述緩存命中率信息表获得, 则根据所述至少一个网络节 点的整体命中率情况预设所述至少一个网络节点对所述内容的緩存命中率。
结合所述第一方面或所述第一方面的第一种可能的实现方式, 还提供了 所述第一方面的第二种可能的实现方式, 所述根据各转发路径上的链路代价 以及各转发路径上的网络节点对所述内容的緩存命中率确定一条内容获取路 径包括:
分别计算各转发路径的路径代价 C=d,n, 其中, d,n= cl51+1R1+1Pu+1 + (l -cl5 1+1R1+1)( Pu+1+C1+lj n), ( i<n ), 所述 n为当前进行计算的转发路径上的网络节点 数目; 当所述 n个网络节点中的第 i+1个网络节点负责緩存所述内容时, 所述 Φ1+ι=1 , 否则, 所述 Φ1+1=0; 所述 R1+1表示所述第 i+1个网络节点对所述内容 的緩存命中率; 所述 ,1+1表示所述 n个网络节点中的第 i个网络节点到第 i+1 个网络节点的链路代价; 所述 d,n表示从所述 n个网络节点中的第 i个网络节 点到第 n个网络节点的路径代价; 选取所述至少两条转发路径中路径代价最 小的一条转发路径作为所述内容获取路径。
结合所述第一方面的第一种或第二种可能的实现方式, 还提供了所述第 一方面的第三种可能的实现方式, 所述方法还包括: 接收由命中所述内容的 緩存网络节点生成的, 或者由所述原始内容提供者生成的内容数据分组, 所 述内容数据分组携带所述请求所经过的所有緩存网络节点对所述内容的命中 率信息; 提取所述内容数据分组中的命中率信息, 更新本地保存的相应网络 节点对所述内容的命中率信息。
第二方面, 提供了一种请求处理方法, 包括:
緩存网络节点接收来自用户的请求, 所述请求用于请求原始内容提供者 提供内容, 所述请求携带所述内容的名称、 所述原始内容提供者的网络地址 和所述用户的网络地址, 所述緩存网络节点是负责緩存所述内容的网络节点; 检查本地緩存, 如果命中所述内容, 则更新本地緩存对所述内容的命中 率, 生成内容数据分组, 并向所述用户发送所述内容数据分组作为对所述请 求的响应, 其中, 所述内容数据分组携带所述緩存网络节点对所述内容的命 中率信息, 或者,
检查本地緩存, 如果未命中所述内容, 则更新本地緩存对所述内容的命 中携带所述緩存网络节点对所述内容的命中率信息。
作为所述第二方面的第一种可能的实现方式, 在所述緩存网络节点命中 所述内容的情况下, 如果所述请求还携带有其它緩存网络节点对所述内容的 命中率信息, 则所述緩存网络节点提取这些命中率信息并将其携带在所述内 容数据分组中, 其中, 所述其它緩存网络节点是指所述请求在到达所述緩存 网络节点之前所经过的节点。
作为所述第二方面的第二种可能的实现方式, 在所述緩存网络节点未命 中所述内容的情况下, 所述将所述请求进行以下处理后向所述原始内容提供 者发送包括: 所述緩存网络节点根据所述请求中携带的内容获取路径信息确 定下一跳; 或者, 所述緩存网络节点计算到所述原始内容提供者的至少两条 转发路径, 根据各转发路径上的链路代价以及各转发路径上的网络节点对所 述内容的緩存命中率确定一条内容获取路径, 根据确定的内容获取路径确定 下一跳。
结合所述第二方面的或所述第二方面的第二种可能的实现方式, 还提供 了所述第二方面的第三种可能的实现方式, 在所述緩存网络节点未命中所述 内容的情况下, 所述方法还包括: 所述緩存网络节点接收由命中所述内容的 緩存网络节点生成的, 或者由所述原始内容提供者生成的内容数据分组, 所 述内容数据分组携带所述请求所经过的所有緩存网络节点对所述内容的命中 率信息; 向所述用户发送所述内容数据分组, 或者, 提取所述内容数据分组 中的命中率信息, 更新本地保存的相应网络节点对所述内容的命中率信息, 并向所述用户发送所述内容数据分组。
第三方面, 提供了一种确定内容获取路径的网络节点, 包括:
第一接收单元, 用于接收来自用户的请求, 所述请求用于请求原始内容 提供者提供内容, 所述请求携带所述内容的名称、 所述原始内容提供者的网 络地址和所述用户的网络地址;
计算单元, 用于计算到所述原始内容提供者的至少两条转发路径, 根据 各转发路径上的链路代价以及各转发路径上的网络节点对所述内容的緩存命 中率确定一条内容获取路径;
转发单元, 用于根据所述内容获取路径向下一个网络节点发送所述请求, 以便所述下一个网络节点转发或响应所述请求。
作为所述第三方面的一种可能的实现方式, 所述网络节点还包括获取单 元, 用于获取所述各转发路径上的网络节点对所述内容的命中率; 所述获取 单元包括存储模块和查询模块, 或者包括所述存储模块、 所述查询模块和预 设模块, 其中, 所述存储模块, 用于保存网络中各个网络节点的緩存命中率 信息; 所述查询模块, 用于通过所述存储模块查询各转发路径上的网络节点 对所述内容的緩存命中率, 或, 用于通过所述存储模块查询各转发路径上的 緩存网络节点对所述内容的緩存命中率, 所述緩存网络节点是负责緩存所述 内容的网络节点; 所述预设模块, 只有在存在至少一个网络节点, 且所述至 少一个网络节点对所述内容的緩存命中率无法通过所述查询模块确定时被调 用, 该预设模块用于根据所述至少一个网络节点的整体命中率情况预设所述 至少一个网络节点对所述内容的緩存命中率。
结合所述第三方面或所述第三方面的第一种可能的实现方式, 还提供了 所述第三方面的第二种可能的实现方式, 所述计算单元包括:
计算模块, 用于分别计算各转发路径的路径代价 C=d,n, 其中, η= Φ 1+1R1+1P +1 + (1 -01+1R1+1)( Pu+1+C1+1,n), ( i<n ), 所述 n为当前进行计算的转发 路径上的网络节点数目;当所述 n个网络节点中的第 i+1个网络节点负责緩存 所述内容时, 所述 Φ1+1=1 , 否则, 所述 Φ1+1=0; 所述 R1+1表示所述第 i+1个网 络节点对所述内容的緩存命中率; 所述 Pu+1表示所述 n个网络节点中的第 i 个网络节点到第 i+1个网络节点的链路代价; 所述 d,n表示从所述 n个网络节 点中的第 i个网络节点到第 n个网络节点的路径代价; 确定模块, 用于选取所 述至少两条转发路径中路径代价最小的一条转发路径作为所述内容获取路 径。
结合所述第三方面的第一种或第二种可能的实现方式, 还提供了所述第 三方面的第三种可能的实现方式, 所述网络节点还包括: 第二接收单元, 用 于接收由命中所述内容的緩存网络节点生成的, 或者由所述原始内容提供者 生成的内容数据分组, 所述内容数据分组携带所述请求所经过的所有緩存网 络节点对所述内容的命中率信息; 更新单元, 用于提取所述内容数据分组中 的命中率信息, 更新本地保存的相应网络节点对所述内容的命中率信息。
第四方面, 提供一种緩存网络节点, 包括: 第一接收单元, 用于接收来自用户的请求, 所述请求用于请求原始内容 提供者提供内容, 所述请求携带所述内容的名称、 所述原始内容提供者的网 络地址和所述用户的网络地址, 所述緩存网络节点是负责緩存所述内容的网 络节点;
第一处理单元, 用于检查本地緩存并根据本地緩存对所述内容的命中情 况进行处理, 包括:
如果命中所述内容, 则更新本地緩存对所述内容的命中率, 生成内容数 据分组, 并向所述用户发送所述内容数据分组作为对所述请求的响应, 其中, 所述内容数据分组携带所述緩存网络节点对所述内容的命中率信息 , 或者 , 如果未命中所述内容, 则更新本地緩存对所述内容的命中率, 将所述请 求进行以下处理后向所述原始内容提供者发送: 在所述请求中携带所述緩存 网络节点对所述内容的命中率信息。
作为所述第四方面的第一种可能的实现方式, 所述第一处理单元包括: 提取模块, 用于在所述緩存网络节点命中所述内容, 并且所述请求还携 带有其它緩存网络节点对所述内容的命中率信息的情况下, 提取这些命中率 信息, 其中, 所述其它緩存网络节点是指所述请求在到达所述网络节点之前 所经过的节点; 信息插入模块, 用于将所述提取模块提取的命中率信息携带 在所述内容数据分组中。
作为所述第四方面的第二种可能的实现方式, 所述第一处理单元包括: 发送模块, 用于在所述緩存网络节点未命中所述内容的情况下, 根据所 述请求中携带的内容获取路径信息确定下一跳, 或者, 用于在所述緩存网络 节点未命中所述内容的情况下, 计算到所述原始内容提供者的至少两条转发 路径, 根据各转发路径上的链路代价以及各转发路径上的网络节点对所述内 容的緩存命中率确定一条内容获取路径, 根据确定的内容获取路径确定下一 跳。
结合所述第四方面或所述第四方面的第二种可能的实现方式, 还提供了 所述第四方面的第三种可能的实现方式, 所述緩存网络节点还包括: 第二接 收单元, 用于在所述緩存网络节点未命中所述内容的情况下, 接收由命中所 述内容的緩存网络节点生成的, 或者由所述原始内容提供者生成的内容数据 分组, 所述内容数据分组携带所述请求所经过的所有緩存网络节点对所述内 容的命中率信息; 第二处理单元, 用于向所述用户发送所述内容数据分组, 或者, 用于提取所述内容数据分组中的命中率信息, 更新本地保存的相应网 络节点对所述内容的命中率信息, 并向所述用户发送所述内容数据分组。
第五方面, 提供一种内容获取系统, 包括根据本发明第三方面的确定内 容获取路径的网络节点和根据本发明第四方面的緩存网络节点。
实施本发明实施例, 根据各转发路径上的链路代价以及各转发路径上的 网络节点对所述内容的緩存命中率确定内容获取路径, 然后根据内容获取路 径进行路由, 能有效提高网络中的緩存的利用率, 同时, 进一步緩解原始内 容提供者的压力和提高了链路资源的利用率。
附图说明 为了更清楚地说明本发明实施例或现有技术中的技术方案, 下面将对实 施例或现有技术描述中所需要使用的附图作简单地介绍, 显而易见地, 下面 描述中的附图仅仅是本发明的一些实施例, 对于本领域普通技术人员来讲, 在不付出创造性劳动性的前提下, 还可以根据这些附图获得其他的附图。
图 1是根据本发明一种实施例的确定内容获取路径的方法的流程示意图; 图 2是根据本发明一种实施例的请求处理方法的流程示意图;
图 3是根据本发明一种实施例所使用的网络拓朴示意图;
图 4是图 3所示实施例的一种多路径转发示意图;
图 5是图 3所示实施例的另一种多路径转发示意图;
图 6A是根据本发明一种实施例的确定内容获取路径的网络节点的方块 示意图;
图 6B是图 6A所示实施例的计算单元的一种方块示意图;
图 6C是图 6A所示实施例的计算单元的一种方块示意图;
图 7是根据本发明一种实施例的确定内容获取路径的网络节点的方块示 意图;
图 8A是根据本发明一种实施例的緩存网络节点的方块示意图;
图 8B是图 8A所示实施例的处理单元的一种方块示意图;
图 8C是图 8A所示实施例的处理单元的一种方块示意图; 图 9是根据本发明一种实施例的緩存网络节点的方块示意图; 图 10是根据本发明一种实施例的内容获取系统的方块示意图;
图 11是根据本发明一种实施例的网络节点的方块示意图;
图 12是 居本发明一种实施例的网络节点的方块示意图。
具体实施方式 下面将结合本发明实施例中的附图, 对本发明实施例中的技术方案进行 清楚、 完整地描述, 显然, 所描述的实施例仅仅是本发明一部分实施例, 而 不是全部的实施例。 基于本发明中的实施例, 本领域普通技术人员在没有作 出创造性劳动前提下所获得的所有其他实施例 , 都属于本发明保护的范围。
图 1是根据本发明一种实施例的确定内容获取路径的方法的流程示意图, 参照图 1 , 该方法包括(虚线框表示该步骤为可选):
100: 第一网络节点接收来自用户的请求, 所述请求用于请求原始内容提 供者提供内容, 所述请求携带所述内容的名称、 所述原始内容提供者的网络 地址和所述用户的网络地址。
第一网络节点可以根据所述原始内容提供者和所述用户的网络地址 (例 如: IP地址)进行路由计算 /寻址。
本发明涉及的 "所述内容的名称" 不仅包含狭义上的名称, 还包含广义 上的可以标识所述内容的具有识别 /判别意义的标记或标识。
本发明涉及的 "来自用户的请求" 可以理解为所述请求的源地址是所述 用户, 而并不限制所述用户与节点是直接连接, 还是通过转发设备(例如: 中间转发节点)连接, 换而言之, 所述请求可以经由其他设备转发至所述第 一网络节点。 同样的道理, 本发明涉及的 "向所述用户发送"、 "向所述内容 提供者发送" 或类似表述, 均不对节点之间的连接方式作出限制。
所述第一网络节点包括需要进行路由计算的设备, 例如: 接入路由器。
102: 计算到所述原始内容提供者的至少两条转发路径, 根据各转发路径 上的链路代价以及各转发路径上的网络节点对所述内容的緩存命中率确定一 条内容获取路径。
可选的, 在本发明的一种实施例中, 可以釆用以下方式得到与 102相同 的处理结果: 在计算最短路径时, 综合各个网络节点对所述内容的緩存命中 率进行计算, 从而直接计算出内容获取路径。
可选的, 在本实施例的一种实现方式中, 在 102之前或在 102中包括: 获取所述各转发路径上的网络节点对所述内容的緩存命中率。 例如, 可通过 以下方式获取:
在本地保存的緩存命中率信息表中查询各转发路径上的网络节点对所述 内容的緩存命中率, 或, 在所述緩存命中率信息表中查询各转发路径上的緩 存网络节点对所述内容的緩存命中率, 所述緩存网络节点是负责緩存所述内 容的网络节点。 需要说明的是, "负责緩存所述内容的网络节点" 应当理解为 该网络节点可能緩存有所述内容而不是一定緩存有所述内容。
在上述的查询过程中, 如果存在至少一个网络节点, 其对所述内容的緩 存命中率无法通过查询所述緩存命中率信息表获得(例如, 当第一网络节点 首次接收到对某个内容的请求时, 可能无法查询到其他网络节点对该内容的 命中率信息), 则根据所述至少一个网络节点的整体命中率情况预设所述至少 一个网络节点对所述内容的緩存命中率。 具体的, 可以根据本地緩存保存的 所述至少一个网络节点对其他内容的緩存命中率, 预设其对所述内容的命中 率, 例如, 如果所述至少一个网络节点对其他内容的緩存命中率不高, 则其 对所述内容的预设命中率也不能过高, 一种可行的取值方式如下: 在设定阔 值和所有内容的已知命中率中选取最小值作为预设值。
当第一网络节点第一次接收到对某个内容的请求时, 可以釆用多种方法 获知网络中哪些緩存可能緩存有该内容, 例如: 利用集中式的设备记录所有 緩存设备, 第一网络节点在接入网络时通过查询一次性获得所有緩存设备的 緩存信息; 第一网络节点利用交互信息进行自学习 (即: 从每次收到的内容 数据中学习新的緩存信息); 各緩存设备本身利用分布式哈希表技术决定各自 负责哪些内容, 第一网络节点即可利用相同的技术获得緩存信息。 在上述方 法中, "緩存信息" 可以包括: 緩存设备的地址、 緩存设备的存储能力以及目 前存储有哪些内容等。
可选的, 在本实施例的一种实现方式中, 102包括:
分别计算各转发路径的路径代价 C=d,n, 其中, d,n= cl51+1R1+1Pu+1 + (l -cl5 1+1R1+1)( Pu+1+C1+lj n), ( i<n ), 所述 n为当前进行计算的转发路径上的网络节点 数目; 当所述 n个网络节点中的第 i+1个网络节点负责緩存所述内容时, 所述 Φ1+ι=1 , 否则, 所述 Φ1+1=0; 所述 R1+1表示所述第 i+1个网络节点对所述内容 的緩存命中率; 所述 ,1+1表示所述 n个网络节点中的第 i个网络节点到第 i+1 个网络节点的链路代价; 所述 d,n表示从所述 n个网络节点中的第 i个网络节 点到第 n个网络节点的路径代价; 选取所述至少两条转发路径中路径代价最 小的一条转发路径作为所述内容获取路径。
当然, 上述公式只是一种示例性的实现方式, 釆用与上述公式类似的计 算方法, 或者釆用上述公式的变形式进行路由计算, 均属于本发明的保护范 围。
104: 根据所述内容获取路径向下一个网络节点发送所述请求, 以便所述 下一个网络节点转发或响应所述请求。
可选的, 在 104 中, 所述第一网络节点可以釆用源路由的方式向所述下 一个网络节点转发所述请求, 在这种情况下, 所述请求在整个路由转发过程 中的路径即所述内容获取路径。 进一步可选的, 釆用源路由时, 可以在 IP选 项中携带负责緩存所述内容的网络节点的网络地址(而不携带非必须经过的 网络节点的网络地址 ), 以便负责緩存所述内容的网络节点在接收到所述请求 后检查本地緩存是否命中所述内容。
可选的, 在 104 中, 所述第一网络节点也可以釆用隧道技术发送所述请 求, 目的地址为所述下一个网络节点的地址, 然后由所述下一个网络节点釆 用与所述第一网络节点相同的方法重新计算内容获取路径进行路由转发。 进 一步可选的, 釆用隧道技术时, 每一段隧道的终点均为负责緩存所述内容的 网络节点, 具体而言: 由于隧道是一段段建立的, 先建立从所述第一网络节 点到第一个负责緩存所述内容的网络节点的隧道, 在隧道端点的网络节点就 会查询本地緩存, 然后在 IP选项中依然会携带后续网络节点的地址(或者釆 用重新计算内容获取路径的方法 ), 当前具有緩存功能的网络节点就会建立和 下一具有緩存功能的网络节点之间的隧道。
本实施例所提供的确定内容获取路径的方法, 能有效提高网络中的緩存 的利用率(例如, 相对于传统的最短路径路由方式), 同时, 进一步緩解了原 始内容提供者的压力和提高了链路资源的利用率。
可选的, 在本实施例的一种实现方式中, 在 104之后, 所述方法还包括: 106: 接收由负责緩存所述内容且命中所述内容的网络节点(即: 命中所 述内容的緩存网络节点)生成的, 或者由所述原始内容提供者生成的内容数 据分组, 所述内容数据分组携带所述请求所经过的所有緩存网络节点对所述 内容的命中率信息。
示例性的 , 以 IPv4协议为例 , 内容数据分组可通过 IP选项 ( IP option ) 携带命中率信息。
需要说明的是, 在本发明中虽然将 "负责緩存所述内容且命中所述内容 的网络节点" (以下简称 "緩存命中节点")和 "原始内容提供者" 分别进行 描述, 本领域技术人员应当理解, 在本发明中, "原始内容提供者" 与 "緩存 命中节点" 除了由于在网络中的位置不同而引起的差别外, 二者在功能上具 有一致性。 即: 原始内容提供者在接收到所述请求时的处理方式与緩存命中 节点的处理方式相同, 换而言之, "緩存命中节点" 在一些情景中包括 "原始 内容提供者"。
108: 提取所述内容数据分组中的命中率信息, 更新本地保存的相应网络 节点对所述内容的命中率信息。
本实现方式中, 第一网络节点可以及时更新负责緩存所述内容的网络节 点对所述内容的命中率信息。
图 2是根据本发明一种实施例的请求处理方法的流程示意图, 参照图 2, 所述方法包括:
200: 緩存网络节点接收来自用户的请求, 所述请求用于请求原始内容提 供者提供内容, 所述请求携带所述内容的名称、 所述原始内容提供者的网络 地址和所述用户的网络地址(例如, IP地址), 所述緩存网络节点是负责緩存 所述内容的网络节点。
在本实施例的一种实现方式中, 所述緩存网络节点可以是图 1 所示实施 例中的 "下一个网络节点 "。
202: 检查本地緩存, 判断是否命中所述内容。
204: 如果命中所述内容, 则更新本地緩存对所述内容的命中率, 生成内 容数据分组, 并向所述用户发送所述内容数据分组作为对所述请求的响应, 其中, 所述内容数据分组携带所述緩存网络节点对所述内容的命中率信息。
可选的, 在本实施例的一种实现方式中, 在 204 中, 如果所述请求还携 带有其它緩存网络节点对所述内容的命中率信息, 则所述緩存网络节点提取 这些命中率信息并将其携带在所述内容数据分组中, 以将这些命中率信息以 及所述緩存网络节点对所述内容的命中率信息一起发送至第一网络节点 (例 如: 接入路由器)。 其中, 所述其它緩存网络节点是指所述请求在到达所述緩 存网络节点之前所经过的节点。
206: 如果未命中所述内容, 则更新本地緩存对所述内容的命中率, 将所 述请求进行以下处理后向所述原始内容提供者发送: 在所述请求中携带所述 緩存网络节点对所述内容的命中率信息。
可选的, 在本实施例的一种实现方式中, 向所述原始内容提供者发送上 述处理后的请求包括:
所述緩存网络节点根据所述请求中携带的内容获取路径信息确定下一跳 (例如, 釆用源路由技术时); 或者,
所述緩存网络节点计算到所述原始内容提供者的至少两条转发路径, 根 据各转发路径上的链路代价以及各转发路径上的网络节点对所述内容的緩存 命中率确定一条内容获取路径, 根据确定的内容获取路径确定下一跳(例如 , 釆用隧道技术时)。 具体的计算方法与图 1所示实施例中的第一网络节点计算 内容获取路径的方法相同, 此处不赘述。
本实施例所提供的内容请求处理方法, 在判断本地緩存是否命中所述内 容的同时, 相应的进行发送或响应, 并在发送的请求和响应的内容数据分组 中携带当前网络节点对所述内容的命中率信息, 以便需要进行路由计算的网 络节点 (例如: 第一网络节点)及时更新相应的命中率信息, 从而为本发明 提供的确定内容获取路径的方法提供了计算基础。
可选的, 在本实施例的一种实现方式中, 在未命中所述内容的情况下, 所述方法还包括:
208: 所述緩存网络节点接收由命中所述内容的緩存网络节点生成的, 或 者由所述原始内容提供者生成的内容数据分组, 所述内容数据分组携带所述 请求所经过的所有緩存网络节点对所述内容的命中率信息。
210: 进行内容数据分组转发处理, 包括:
第一可能: 向所述用户发送所述内容数据分组; 或,
第二可能: 提取所述内容数据分组中的命中率信息, 更新本地保存的相 应网络节点对所述内容的命中率信息, 并向所述用户发送所述内容数据分组。 其中, 所述第二可能适用于緩存网络节点需要进行或可能需要进行路由计算 的场景。
下面示例性列举几个应用场景对本发明进行更为详细的说明。
图 3是本发明一种实施例所使用的网络拓朴示意图, 参照图 3 , 在本实施 例中: 网络包括 10个路由器, 16条链路; 链路上的数值是各条链路的链路代 价(例如: 可以是链路的权重、 收费或拥塞程度等指标), 本实施例将链路权 重值作为计算路由的链路代价; 有 2个用户连接到接入路由器 R1 , 原始内容 提供者和路由器 R6相连; 各个路由器都配置有緩存, 由于緩存容量有限, 各 个緩存设备分别负责緩存所有内容的一部分; 对同一内容名, 用多个哈希函 数进行多次哈希计算得到应该负责緩存该内容的节点编号(本实施例中釆用 2 个哈希函数); 各个节点对本地应该緩存的内容釆用最少频率使用 (Least Frequently Used, LFU ) 的原则来进行替换; 各个节点负责统计和记录本地緩 存中各个内容的命中率。
【具体实现方式 1】
步骤 1 : 用户 1发送请求分组, 请求分组中携带内容 1的名称、 原始内容 提供者的 IP地址和用户 1的 IP地址。
步骤 2: R1接收到用户 1的请求后, 解析请求, 根据原始内容提供者的 地址计算到原始内容提供者的多条路径。 参照图 4, 图 4为多路径信息, 默认 计算 3条路径, 该默认值可修改。 多条路径的计算方法是首先分别为 R1的各 个出链路计算通过该出链路的最短路径, 如果出链路数量小于 3 , 则计算经过 某条出链路的次短路, 直到满足所需多路径的数量。
步骤 3: R1分别为每条路径计算代价, 计算公式如图 1所示实施例中所 述。
此时是 R1第一次接收到对内容 1的请求, R1进行两次哈希计算得到 R5 和 R10 负责緩存内容 1 , 但没有这两个緩存的命中率信息, 因此釆用预设的 默认值 50%命中率计算, 得到各条路径的代价分别为 (在图 4和 5中, 粗曲 线表示转发路径, 细实线表示拓朴关系):
路径① C = 2363 (没有緩存, 且为最短路)
路径② C= 50% 1589 + 50%χ 2407 = 1998 路径③ C= 50% 1300 + 50% χ( 1300 + 50% 895 + 50% 1713 )= 1952 路径③的代价的详细计算解释如下:
路径③一共有四个节点, 其中, 节点 2 ( R10 )和节点 3 ( R5 )都有緩存, 节点 1 ( R1 )是用户 1的接入路由器, 节点 4 ( R6 )是内容提供者的接入路由 器;
+ (l— 02R2)( Pl,2+C2, 4) , 其中,
-03R3)( P2,3+C3, 4) ;
Figure imgf000016_0001
-04R4)( P3,4+C4, 4) ;
因为节点 4不负责緩存, 所以 Φ 4=0; 而 C4, 4=0 , 故 C3,4= P3,4=818; 节点 3负责緩存, 故 Φ3=1 , 通过查询得到 R3=50%, 故 C2,4=50% 895 +
50% ( 895+818 ) =1304;
节点 2负责緩存, 故 Φ2=1 , 通过查询得到 R2=50%, 故 C =
Figure imgf000016_0002
+ (1 -02R2)( Pi,2+C2, 4)=l 50% 1300 + ( 1-1 50% ) ( 1300+1304 ) =1952。
路径③的代价最小, 故选取路径③作为内容获取路径。
步骤 4: R1釆用源路由的方式在 IP选项中携带路径③的信息, 记录 R5 和 R10的信息 (包括: R5和 R10的 IP地址;)。
步骤 5: R10接收到请求后, 提取内容 1的名称, 由于是本地緩存负责的 内容, 因此查询本地緩存。 本地没有緩存内容 1 , 则更新内容 1在本地緩存的 命中率, 并将内容 1在本地緩存的命中率 40%携带在请求分组的 IP选项中, 然后根据源路由将请求分组转发给 R5。
步骤 6: R5接收到请求后, 提取内容 1的名称, 由于是本地緩存负责的 内容, 因此查询本地緩存。 本地緩存有内容 1 , 则更新内容 1在本地緩存的命 中率, 并生成内容数据分组。 将内容 1在本地緩存的命中率 60%和从请求分 组中提取的命中率信息 (即内容 1 在其他緩存的命中率信息)一并携带在内 容数据分组的 IP选项中, 发送给用户。 例如: IP选项中可以包含如下信息:
Figure imgf000016_0003
步骤 7: Rl接收到内容数据分组后, 提取命中率信息, 更新本地緩存的 命中率信息表(示例性的, 如下表), 然后将内容数据分组发送给用户 1。
Figure imgf000016_0004
【具体实现方式 2】
在用户 1请求内容 1之后, 用户 2对内容 1进行请求, 包括:
步骤 1 : 用户 2发送请求分组, 请求分组中携带内容 1的名称, 以及原始 内容提供者的 IP地址和用户 2的 IP地址。
步骤 2: R1接收到用户 2的请求后, 解析请求, 根据原始内容提供者的 地址计算到原始内容提供者的多条路径。
步骤 3 : R1分别为每条路径计算代价, 此次根据 R1记录的网络中所有緩 存的命中率信息, R5的命中率为 60%, R10的命中率为 40%, 得到各条路径 的代价分别为:
路径① C=2363 (没有緩存, 且为最短路)
路径② C= 60%χ 1589+40%χ2407=1916.2
路径③ C= 40%x l300+60%x ( 1300+60%χ895+40% 1713 ) =2033.32 路径②的代价最小, 因此选择路径②作为内容获取路径。
步骤 4: R1釆用源路由的方式在请求分组的 IP选项中携带路径②的信息, 记录 R5的地址(或者同时记录 R4和 R5的地址 )。
步骤 5: R5收到请求后, 提取内容 1的名称, 由于是本地緩存负责的内 容因此查询本地緩存。 本地緩存有内容 1 , 则更新内容 1在本地緩存的命中率 为 62%并生成内容数据分组, 将内容 1在本地緩存的命中率信息携带在内容 数据分组的 IP选项中向用户 2发送。
步骤 6: R1接收到内容数据分组后, 提取其中的命中率信息, 更新本地 緩存命中率信息表, 然后将内容数据分组发送给用户 2。
【具体实现方式 3】
本实现方式的场景与具体实现方式 1 的场景一致, 但釆用的是由中间緩 存路由器重新计算内容获取路径的方法而不是釆用源路由方法。 本实现方式 需要各个緩存路由器如同接入路由器一样记录所有緩存路由器中内容的命中 率。
步骤 1、 2和 3与实施例 1 中的完全一致(此处不赘述), 计算后选择路 径 3 , 下一跳的緩存路由器为 R10。
步骤 4: R1重新封装所述请求的 IP分组, 目的地址为 R10。
步骤 5: R10接收到分组后, 进行解封装, 从请求中提取内容 1的名称, 由于是本地緩存负责的内容因此查询本地緩存。 本地没有緩存内容 1 , 则更新 内容 1在本地緩存的命中率信息。
步骤 6: R10重新计算到原始内容提供者的路径 (如图 5所示), 分别为 每条路径计算代价, 此次根据 R10记录的网络中所有緩存的命中率信息表, R5的命中率为 50%。 得到各条路径的代价分别为:
路径① C = 50%χ 895 + 50%χ ( 985+818 ) =1349 (有緩存, 且为最短路 ) 路径② C= 3663 (无緩存)
路径③ C= 4857 (无緩存)
路径①的代价最小, 因此选择路径①
步骤 7: R10对请求分组进行重新封装, 以 R5为目的地址, 并将内容 1 在本地緩存的命中率 40%携带在 IP选项中。
步骤 8: R5收到分组后进行解封装, 提取请求中的内容名称, 由于是本 地緩存负责的内容因此查询本地緩存。 本地緩存有内容 1 , 则更新内容 1在本 地緩存的命中率为 60%并生成内容数据分组。 将内容 1在本地緩存的命中率 信息和从请求分组中提取的命中率信息 (即: 内容 1 在其他緩存的命中率信 息)一并携带在 IP选项中向用户 1发送。
步骤 9: R1接收到内容数据分组后, 提取命中率信息, 更新本地緩存命 中率信息表, 然后将内容数据分组发送给用户 1 (由于返回釆用的是最短路, 即经过 R4到 R1 , 故 R10无法得到更新的信息)。
图 6A是根据本发明一种实施例的确定内容获取路径的网络节点的方块 示意图, 参照图 6A, 网络节点 60包括:
第一接收单元 602, 用于接收来自用户的请求, 所述请求用于请求原始内 容提供者提供内容, 所述请求携带所述内容的名称、 所述原始内容提供者的 网络地址和所述用户的网络地址。
计算单元 604, 用于计算到所述原始内容提供者的至少两条转发路径,根 据各转发路径上的链路代价以及各转发路径上的网络节点对所述内容的緩存 命中率确定一条内容获取路径。
转发单元 606,用于根据所述内容获取路径向下一个网络节点发送所述请 求, 以便所述下一个网络节点转发或响应所述请求。
可选的, 在本实施例的一种实现方式中, 参照图 6B, 网络节点 60还包 括获取单元 603 , 用于获取所述各转发路径上的网络节点对所述内容的命中 率。 当然, 获取单元 603也可以作为计算单元 604的子单元。 示例性的, 获 取单元 603包括:
存储模块 6031 , 用于保存网络中各个网络节点的緩存命中率信息; 查询模块 6032, 用于通过所述存储模块查询各转发路径上的网络节点对 所述内容的緩存命中率, 或, 用于通过所述存储模块查询各转发路径上的緩 存网络节点对所述内容的緩存命中率, 所述緩存网络节点是负责緩存所述内 容的网络节点。
进一步可选的, 获取单元 603还可以包括:
预设模块 6033 , 该模块只有在存在至少一个网络节点, 所述至少一个网 络节点对所述内容的緩存命中率无法通过所述查询模块确定时被调用, 该预 设模块 6033用于根据所述至少一个网络节点的整体命中率情况预设所述至少 一个网络节点对所述内容的緩存命中率。
可选的, 在本实施例的一种实现方式中, 参照图 6C, 计算单元 604包括: 计算模块 6044, 用于分别计算各转发路径的路径代价 C=d,n (对于计算 公式的详细描述请参照图 1所示实施例中的描述);
确定模块 6045 , 用于选取所述至少两条转发路径中路径代价最小的一条 转发路径作为所述内容获取路径。
图 7是根据本发明一种实施例的确定内容获取路径的网络节点的方块示 意图, 参照图 7 , 网络节点 70包括第一接收单元 602、 计算单元 604、 转发单 元 606 (对于第一接收单元 602、 计算单元 604、 转发单元 606的说明请参照 图 6所示实施例中的相应说明 ) 以及:
第二接收单元 702, 用于接收由命中所述内容的緩存网络节点生成的, 或 者由所述原始内容提供者生成的内容数据分组, 所述内容数据分组携带所述 请求所经过的所有緩存网络节点对所述内容的命中率信息;
更新单元 704 , 用于提取所述内容数据分组中的命中率信息, 更新本地保 存的相应网络节点对所述内容的命中率信息。
当然, 网络节点 70也可以包括获取单元 603 , 或者将获取单元 603作为 计算单元 604的子单元。
本领域技术人员应当理解,图 6A和图 7所示实施例中的网络节点可以用 于实现方法实施例中的第一网络节点的功能, 对于各个单元 /模块的详细说明 请参照方法实施例中的相应说明, 此处不再赘述。
图 8A是根据本发明一种实施例的緩存网络节点的方块示意图, 参照图 8A, 网络节点 80包括:
第一接收单元 802, 用于接收来自用户的请求, 所述请求用于请求原始内 容提供者提供内容, 所述请求携带所述内容的名称、 所述原始内容提供者的 网络地址和所述用户的网络地址, 所述緩存网络节点是负责緩存所述内容的 网络节点。
第一处理单元 804,用于检查本地緩存并根据本地緩存对所述内容的命中 情况进行处理, 包括:
如果命中所述内容, 则更新本地緩存对所述内容的命中率, 生成内容数 据分组, 并向所述用户发送所述内容数据分组作为对所述请求的响应, 其中, 所述内容数据分组携带所述緩存网络节点对所述内容的命中率信息 , 或者 , 如果未命中所述内容, 则更新本地緩存对所述内容的命中率, 将所述请 求进行以下处理后向所述原始内容提供者发送: 在所述请求中携带所述緩存 网络节点对所述内容的命中率信息。
可选的, 在本实施例的一种实现方式中(适用于命中所述内容的场景), 参 照图 8B , 第一处理单元 804包括:
提取模块 8041 , 用于在所述緩存网络节点 80命中所述内容, 并且所述请 求还携带有其它緩存网络节点对所述内容的命中率信息的情况下, 提取这些 命中率信息, 其中, 所述其它緩存网络节点是指所述请求在到达所述网络节 点 80之前所经过的节点。
信息插入模块 8042 ,用于将所述提取模块 8041提取的命中率信息携带在 所述内容数据分组中。
可选的, 在本实施例的一种实现方式中(适用于未命中所述内容的场景), 参照图 8C, 第一处理单元 804包括:
发送模块 8043 , 用于在所述緩存网络节点 80未命中所述内容的情况下, 根据所述请求中携带的内容获取路径信息确定下一跳, 或者,
用于在所述緩存网络节点 80未命中所述内容的情况下, 计算到所述原始 内容提供者的至少两条转发路径, 根据各转发路径上的链路代价以及各转发 路径上的网络节点对所述内容的緩存命中率确定一条内容获取路径, 根据确 定的内容获取路径确定下一跳。
图 9是根据本发明一种实施例的緩存网络节点的方块示意图, 参照图 9, 网络节点 90包括:
第一接收单元 902, 功能与图 8所示实施例中的第一接收单元 802相同。 第一处理单元 904,用于检查本地緩存并根据本地緩存对所述内容的命中 情况进行处理, 如果未命中, 则更新本地緩存对所述内容的命中率, 将所述 请求进行以下处理后向所述原始内容提供者发送: 在所述请求中携带所述緩 存网络节点 90对所述内容的命中率信息。
第二接收单元 906, 用于接收由命中所述内容的緩存网络节点生成的, 或 者由所述原始内容提供者生成的内容数据分组, 所述内容数据分组携带所述 请求所经过的所有緩存网络节点对所述内容的命中率信息。
第二处理单元 908, 用于向所述用户发送所述内容数据分组, 或者, 用于提取所述内容数据分组中的命中率信息, 进而更新本地保存的相应 网络节点对所述内容的命中率信息, 并向所述用户发送所述内容数据分组。
可选的, 在本实施例的一种实现方式中, 第一处理单元 904 可以包括图 8C所示实现方式中的发送模块 8043。
本领域技术人员应当理解,图 8A和图 9所示緩存网络节点可以用于实现 方法实施例中的緩存网络节点的功能, 对于各个单元 /模块的详细说明请参照 方法实施例中的相应说明, 此处不再赘述。
图 10是根据本发明一种实施例的内容获取系统的方块示意图,参照图 10, 所示系统包括: 第一网络节点和至少一个緩存网络节点。 其中, 所述第一网 络节点接收来自用户的用于请求原始内容提供者提供内容的请求, 所述第一 网络节点确定内容获取路径以转发所述请求, 所述请求在转发过程中所经由 的緩存网络节点会判断本地緩存是否命中所述内容, 存在命中和未命中两种 可能, 具体的, 对于所述第一网络节点和所述緩存网络节点的描述以及二者 之间通信关系的描述, 请参照本发明各方法、 装置实施例中的相应说明, 此 处不再赘述。
可选的, 在本实施例的一种实现方式中, 所述至少一个緩存网络节点均 未命中所述内容, 此时, 所述系统还包括原始内容提供者, 以便由原始内容 提供者向用户返回所述内容, 以及返回所述至少一个緩存网络节点对所述内 容的緩存命中率信息。
图 11是才艮据本发明一种实施例的网络节点的结构示意图, 参照图 11 , 网 络节点 110包括接收机 111、 处理器 112、 发射机 113和存储器 114, 其中, 所述处理器 112与所述接收机 111、 存储器 114和发射机 113连接, 所述存储 器 114存储有各种协议、 程序或应用以由处理器 112调用从而实现以下功能; 通过所述接收机 111 接收来自用户的请求, 所述请求用于请求原始内容 提供者提供内容, 所述请求携带所述内容的名称、 所述原始内容提供者的网 络地址和所述用户的网络地址;
计算到所述原始内容提供者的至少两条转发路径, 根据各转发路径上的 链路代价以及各转发路径上的网络节点对所述内容的緩存命中率确定一条内 容获取路径;
通过所述发射机 113 ,根据所述内容获取路径向下一个网络节点转发所述 请求, 以便所述下一个网络节点转发或响应所述请求。
可选的, 在本实施例的一种实现方式中, 所述存储器 114保存有緩存命 中率信息表, 以便所述处理器 112在所述緩存命中率信息表中查询各转发路 径上的网络节点对所述内容的緩存命中率, 或, 在所述緩存命中率信息表中 查询各转发路径上的緩存网络节点对所述内容的緩存命中率, 所述緩存网络 节点是负责緩存所述内容的网络节点; 其中, 可选的, 如果存在至少一个网 络节点, 其对所述内容的緩存命中率无法通过查询所述緩存命中率信息表获 得, 则所述处理器 112 可以根据所述至少一个网络节点的整体命中率情况预 设所述至少一个网络节点对所述内容的緩存命中率。
可选的, 在本实施例的一种实现方式中, 所述处理器 112通过以下方式 确定所述内容获取路径: 分别计算各转发路径的路径代价 C=d,n (对于公式 的详细说明如前文所述, 此处不赘述;); 选取所述至少两条转发路径中路径代 价最小的一条转发路径作为所述内容获取路径。
可选的, 在本实施例的一种实现方式中, 所述处理器 112还通过所述接 收机 111 接收由负责緩存所述内容且命中所述内容的网络节点 (即: 命中所 述内容的緩存网络节点)生成的, 或者由所述原始内容提供者生成的内容数 据分组, 所述内容数据分组携带所述请求所经过的所有緩存网络节点对所述 内容的命中率信息; 此时, 所述处理器 112还用于提取所述内容数据分组中 的命中率信息, 并更新所述存储器 114 中保存的相应网络节点对所述内容的 命中率信息。
图 12是才艮据本发明一种实施例的网络节点的方块示意图, 参照图 12 , 网 络节点 120具有緩存功能, 其包括接收机 121、 处理器 122、 发射机 123和存 储器 124,其中,所述处理器 122与所述接收机 121、存储器 124和发射机 123 连接, 所述存储器 124存储有各种协议、 程序或应用以由处理器 122调用从 而实现以下功能;
通过所述接收机 121接收来自用户的请求, 所述请求用于请求原始内容 提供者提供内容, 所述请求携带所述内容的名称、 所述原始内容提供者的网 络地址和所述用户的网络地址, 所述网络节点 120属于緩存网络节点, 緩存 网络节点是负责緩存所述内容的网络节点;
检查本地緩存 (本地緩存可以设置在存储器 124中, 也可以是独立于存储 器 124而存在的緩存处理器), 如果命中所述内容, 则更新本地緩存对所述内 容的命中率(命中率信息可以保存在所述存储器 124中 ),生成内容数据分组, 并通过所述发射机 123 向所述用户发送所述内容数据分组作为对所述请求的 响应, 其中, 所述内容数据分组携带网络节点 120对所述内容的命中率信息; 或者, 如果未命中所述内容, 则更新本地緩存对所述内容的命中率, 将所述 请求进行以下处理后通过所述发射机 123 向所述原始内容提供者发送: 在所 述请求中携带网络节点 120对所述内容的命中率信息。
可选的, 在本实施例的一种实现方式中, 所述处理器 122还用于在命中 所述内容、 并且所述请求还携带有其它緩存网络节点对所述内容的命中率信 息的情况下, 提取这些命中率信息并将其携带在所述内容数据分组中, 所述 其它緩存网络节点是指所述请求在到达所述网络节点 120之前所经过的緩存 网络节点。
可选的, 在本实施例的一种实现方式中, 所述处理器 122通过所述发射 机 123向所述原始内容提供者发送请求可以包括:
根据所述请求中携带的内容获取路径信息确定下一跳; 或者,
计算到所述原始内容提供者的至少两条转发路径, 根据各转发路径上的 链路代价以及各转发路径上的网络节点对所述内容的緩存命中率确定一条内 容获取路径, 根据确定的内容获取路径确定下一跳。
可选的, 在本实施例的一种实现方式中, 所述处理器 122还用于: 通过所述接收机 121接收由命中所述内容的緩存网络节点生成的, 或者 由所述原始内容提供者生成的内容数据分组, 所述内容数据分组携带所述请 求在转发过程中所经过的所有緩存网络节点对所述内容的命中率信息;
通过所述发射机 123 向所述用户发送所述内容数据分组, 或者, 提取所 述内容数据分组中的命中率信息, 进而更新所述存储器 124保存的相应网络 节点对所述内容的命中率信息, 再通过所述发射机 123 向所述用户发送所述 内容数据分组。
对于本发明所提供的各个装置实施例的各个模块、 单元或组件的详细的 功能说明, 请参照相应的方法实施例中的说明, 说明书中不做赘述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流 程, 是可以通过计算机程序来指令相关的硬件来完成, 所述的程序可存储于 一计算机可读取存储介质中, 该程序在执行时, 可包括如上述各方法的实施 例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only
Memory, ROM )或随机存 己忆体 ( Random Access Memory, RAM )等。
以上所揭露的仅为本发明一种较佳实施例而已, 当然不能以此来限定本 发明之权利范围, 因此依本发明权利要求所作的等同变化, 仍属本发明所涵 盖的范围。

Claims

权 利 要 求
1、 一种确定内容获取路径的方法, 其特征在于, 包括:
第一网络节点接收来自用户的请求, 所述请求用于请求原始内容提供者 提供内容, 所述请求携带所述内容的名称、 所述原始内容提供者的网络地址 和所述用户的网络地址;
计算到所述原始内容提供者的至少两条转发路径, 根据各转发路径上的 链路代价以及各转发路径上的网络节点对所述内容的緩存命中率确定一条内 容获取路径;
根据所述内容获取路径向下一个网络节点发送所述请求, 以便所述下一 个网络节点转发或响应所述请求。
2、 根据权利要求 1所述的方法, 其特征在于, 还包括:
获取所述各转发路径上的网络节点对所述内容的緩存命中率;
所述各转发路径上的网络节点对所述内容的緩存命中率通过以下方式获 取:
在本地保存的緩存命中率信息表中查询各转发路径上的网络节点对所述 内容的緩存命中率, 或, 在所述緩存命中率信息表中查询各转发路径上的緩 存网络节点对所述内容的緩存命中率, 所述緩存网络节点是负责緩存所述内 容的网络节点, 或者,
在查询过程中, 如果存在至少一个网络节点, 其对所述内容的緩存命中 率无法通过查询所述緩存命中率信息表获得, 则根据所述至少一个网络节点 的整体命中率情况预设所述至少一个网络节点对所述内容的緩存命中率。
3、 根据权利要求 1或 2所述的方法, 其特征在于, 所述根据各转发路径 上的链路代价以及各转发路径上的网络节点对所述内容的緩存命中率确定一 条内容获取路径包括:
分别计算各转发路径的路径代价 C=d,n, 其中,
Ο^ Φ ^Ι^+ΙΡΜ+Ι + (1 - 1+iR1+i)( P +i+C1+1,n), ( i<n ),
所述 n为当前进行计算的转发路径上的网络节点数目; 当所述 n个网络 节点中的第 i+1个网络节点负责緩存所述内容时, 所述 Φ1+1=1 , 否则, 所述 Φ 1+ι=0; 所述 R1+1表示所述第 i+1 个网络节点对所述内容的緩存命中率; 所述 Ρ +ι表示所述 n个网络节点中的第 i个网络节点到第 i+1个网络节点的链路代 价; 所述 d,n表示从所述 n个网络节点中的第 i个网络节点到第 n个网络节点 的路径代价;
选取所述至少两条转发路径中路径代价最小的一条转发路径作为所述内 容获取路径。
4、 根据权利要求 2或 3所述的方法, 其特征在于, 所述方法还包括: 接收由命中所述内容的緩存网络节点生成的, 或者由所述原始内容提供 者生成的内容数据分组, 所述内容数据分组携带所述请求所经过的所有緩存 网络节点对所述内容的命中率信息;
提取所述内容数据分组中的命中率信息, 更新本地保存的相应网络节点 对所述内容的命中率信息。
5、 一种请求处理方法, 其特征在于, 包括:
緩存网络节点接收来自用户的请求, 所述请求用于请求原始内容提供者 提供内容, 所述请求携带所述内容的名称、 所述原始内容提供者的网络地址 和所述用户的网络地址, 所述緩存网络节点是负责緩存所述内容的网络节点; 检查本地緩存, 如果命中所述内容, 则更新本地緩存对所述内容的命中 率, 生成内容数据分组, 并向所述用户发送所述内容数据分组作为对所述请 求的响应, 其中, 所述内容数据分组携带所述緩存网络节点对所述内容的命 中率信息, 或者,
检查本地緩存, 如果未命中所述内容, 则更新本地緩存对所述内容的命 中携带所述緩存网络节点对所述内容的命中率信息。
6、 根据权利要求 5所述的方法, 其特征在于, 在所述緩存网络节点命中 所述内容的情况下, 如果所述请求还携带有其它緩存网络节点对所述内容的 命中率信息, 则所述緩存网络节点提取这些命中率信息并将这些命中率信息 携带在所述内容数据分组中, 其中, 所述其它緩存网络节点是指所述请求在 到达所述緩存网络节点之前所经过的节点。
7、 根据权利要求 5所述的方法, 其特征在于, 在所述緩存网络节点未命 中所述内容的情况下, 所述将所述请求进行以下处理后向所述原始内容提供 者发送包括:
所述緩存网络节点根据所述请求中携带的内容获取路径信息确定下一 跳; 或者,
所述緩存网络节点计算到所述原始内容提供者的至少两条转发路径, 根 据各转发路径上的链路代价以及各转发路径上的网络节点对所述内容的緩存 命中率确定一条内容获取路径, 根据确定的内容获取路径确定下一跳。
8、 根据权利要求 5或 7所述的方法, 其特征在于, 在所述緩存网络节点 未命中所述内容的情况下, 所述方法还包括:
所述緩存网络节点接收由命中所述内容的緩存网络节点生成的, 或者由 所述原始内容提供者生成的内容数据分组, 所述内容数据分组携带所述请求 所经过的所有緩存网络节点对所述内容的命中率信息;
向所述用户发送所述内容数据分组, 或者,
提取所述内容数据分组中的命中率信息, 更新本地保存的相应网络节点 对所述内容的命中率信息, 并向所述用户发送所述内容数据分组。
9、 一种确定内容获取路径的网络节点, 其特征在于, 包括:
第一接收单元, 用于接收来自用户的请求, 所述请求用于请求原始内容 提供者提供内容, 所述请求携带所述内容的名称、 所述原始内容提供者的网 络地址和所述用户的网络地址;
计算单元, 用于计算到所述原始内容提供者的至少两条转发路径, 根据 各转发路径上的链路代价以及各转发路径上的网络节点对所述内容的緩存命 中率确定一条内容获取路径;
转发单元, 用于根据所述内容获取路径向下一个网络节点发送所述请求, 以便所述下一个网络节点转发或响应所述请求。
10、 根据权利要求 9所述的网络节点, 其特征在于,
所述网络节点还包括获取单元, 用于获取所述各转发路径上的网络节点 对所述内容的命中率;
所述获取单元包括存储模块和查询模块, 或者包括所述存储模块、 所述 查询模块和预设模块, 其中,
所述存储模块 , 用于保存网络中各个网络节点的緩存命中率信息 , 所述查询模块, 用于通过所述存储模块查询各转发路径上的网络节点对 所述内容的緩存命中率, 或, 用于通过所述存储模块查询各转发路径上的緩 存网络节点对所述内容的緩存命中率, 所述緩存网络节点是负责緩存所述内 容的网络节点,
所述预设模块, 只有在存在至少一个网络节点, 且所述至少一个网络节 点对所述内容的緩存命中率无法通过所述查询模块确定时被调用, 该预设模 块用于根据所述至少一个网络节点的整体命中率情况预设所述至少一个网络 节点对所述内容的緩存命中率。
11、 根据权利要求 9或 10所述的网络节点, 其特征在于, 所述计算单元 包括:
计算模块, 用于分别计算各转发路径的路径代价 C=d,n, 其中,
Ο^ Φ ^Ι^+ΙΡΜ+Ι + (1 - 1+iR1+i)( P +i+C1+1,n), ( i<n ),
所述 n为当前进行计算的转发路径上的网络节点数目; 当所述 n个网络 节点中的第 i+1个网络节点负责緩存所述内容时, 所述 Φ 1+1=1 , 否则, 所述 Φ 1+ι=0; 所述 R1+1表示所述第 i+1 个网络节点对所述内容的緩存命中率; 所述 Ρ +ι表示所述 n个网络节点中的第 i个网络节点到第 i+1个网络节点的链路代 价; 所述 d,n表示从所述 n个网络节点中的第 i个网络节点到第 n个网络节点 的路径代价;
确定模块, 用于选取所述至少两条转发路径中路径代价最小的一条转发 路径作为所述内容获取路径。
12、 根据权利要求 10或 11所述的网络节点, 其特征在于, 所述网络节 点还包括:
第二接收单元, 用于接收由命中所述内容的緩存网络节点生成的, 或者 由所述原始内容提供者生成的内容数据分组, 所述内容数据分组携带所述请 求所经过的所有緩存网络节点对所述内容的命中率信息;
更新单元, 用于提取所述内容数据分组中的命中率信息, 更新本地保存 的相应网络节点对所述内容的命中率信息。
13、 一种緩存网络节点, 其特征在于, 包括:
第一接收单元, 用于接收来自用户的请求, 所述请求用于请求原始内容 提供者提供内容, 所述请求携带所述内容的名称、 所述原始内容提供者的网 络地址和所述用户的网络地址, 所述緩存网络节点是负责緩存所述内容的网 络节点;
第一处理单元, 用于检查本地緩存并根据本地緩存对所述内容的命中情 况进行处理, 包括:
如果命中所述内容, 则更新本地緩存对所述内容的命中率, 生成内容数 据分组, 并向所述用户发送所述内容数据分组作为对所述请求的响应, 其中, 所述内容数据分组携带所述緩存网络节点对所述内容的命中率信息 , 或者 , 如果未命中所述内容, 则更新本地緩存对所述内容的命中率, 将所述请 求进行以下处理后向所述原始内容提供者发送: 在所述请求中携带所述緩存 网络节点对所述内容的命中率信息。
14、 根据权利要求 13所述的緩存网络节点, 其特征在于, 所述第一处理 单元包括:
提取模块, 用于在所述緩存网络节点命中所述内容, 并且所述请求还携 带有其它緩存网络节点对所述内容的命中率信息的情况下, 提取这些命中率 信息, 其中, 所述其它緩存网络节点是指所述请求在到达所述网络节点之前 所经过的节点;
信息插入模块, 用于将所述提取模块提取的命中率信息携带在所述内容 数据分组中。
15、 根据权利要求 13所述的緩存网络节点, 其特征在于, 所述第一处理 单元包括:
发送模块, 用于在所述緩存网络节点未命中所述内容的情况下, 根据所 述请求中携带的内容获取路径信息确定下一跳, 或者,
用于在所述緩存网络节点未命中所述内容的情况下, 计算到所述原始内 容提供者的至少两条转发路径, 根据各转发路径上的链路代价以及各转发路 径上的网络节点对所述内容的緩存命中率确定一条内容获取路径, 根据确定 的内容获取路径确定下一跳。
16、 根据权利要求 14或 15所述的緩存网络节点, 其特征在于, 所述緩 存网络节点还包括:
第二接收单元, 用于在所述緩存网络节点未命中所述内容的情况下, 接 收由命中所述内容的緩存网络节点生成的, 或者由所述原始内容提供者生成 的内容数据分组, 所述内容数据分组携带所述请求所经过的所有緩存网络节 点对所述内容的命中率信息;
第二处理单元, 用于向所述用户发送所述内容数据分组, 或者, 用于提取所述内容数据分组中的命中率信息, 更新本地保存的相应网络 节点对所述内容的命中率信息, 并向所述用户发送所述内容数据分组。
17、 一种内容获取系统, 其特征在于, 所述系统包括: 如权利要求 9-12 中任一项所述的基于緩存命中率确定内容获取路径的网络节点, 和如权利要 求 13-16中任一项所述的具有緩存功能的网络节点。
PCT/CN2014/081869 2013-07-31 2014-07-09 确定内容获取路径、请求处理的方法、装置和系统 WO2015014196A1 (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP19159132.0A EP3567813B1 (en) 2013-07-31 2014-07-09 Method, apparatus and system for determining content acquisition path and processing request
EP14831652.4A EP3021537B1 (en) 2013-07-31 2014-07-09 Method, device and system for determining content acquisition path and processing request
US15/011,106 US10103986B2 (en) 2013-07-31 2016-01-29 Method, apparatus and system for determining content acquisition path and processing request
US16/140,059 US10587513B2 (en) 2013-07-31 2018-09-24 Method, apparatus and system for determining content acquisition path and processing request

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201310329105.7A CN104348722B (zh) 2013-07-31 2013-07-31 确定内容获取路径、请求处理的方法、装置和系统
CN201310329105.7 2013-07-31

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/011,106 Continuation US10103986B2 (en) 2013-07-31 2016-01-29 Method, apparatus and system for determining content acquisition path and processing request

Publications (1)

Publication Number Publication Date
WO2015014196A1 true WO2015014196A1 (zh) 2015-02-05

Family

ID=52430966

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2014/081869 WO2015014196A1 (zh) 2013-07-31 2014-07-09 确定内容获取路径、请求处理的方法、装置和系统

Country Status (4)

Country Link
US (2) US10103986B2 (zh)
EP (2) EP3567813B1 (zh)
CN (1) CN104348722B (zh)
WO (1) WO2015014196A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230104788A1 (en) * 2020-07-14 2023-04-06 MAINSTREAMING S.p.A. Method of distributing files through a content delivery network based also on artificial intelligence algorithms, telematic system and servers that allow to implement it

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101629106B1 (ko) * 2014-12-17 2016-06-09 경희대학교 산학협력단 컨텐츠 기반 네트워크에서 요청 컨텐츠의 해쉬값에 따라 컨텐츠를 송신하는 방법
CN104809225B (zh) * 2015-05-06 2018-11-20 泰康保险集团股份有限公司 链式信息传播追踪管理系统及方法
CN105049326B (zh) * 2015-06-19 2017-12-29 清华大学深圳研究生院 一种边缘网络区域中社交内容缓存方法
CN105718520A (zh) * 2016-01-15 2016-06-29 深圳市八零年代网络科技有限公司 一种互联网传播轨迹追踪的方法、装置及系统
US20180006937A1 (en) * 2016-06-30 2018-01-04 Fujitsu Limited Packet forwarding in information centric networking networks
US10255185B2 (en) * 2017-03-04 2019-04-09 International Business Machines Corporation Cache management in a stream computing environment that uses a set of many-core hardware processors
US10536368B2 (en) * 2017-05-23 2020-01-14 Fujitsu Limited Network-aware routing in information centric networking
US11336473B2 (en) * 2017-10-13 2022-05-17 Northeastern University Network and method for delivering content while minimizing congestion costs by jointly optimizing forwarding and caching strategies
WO2021003422A1 (en) 2019-07-02 2021-01-07 Northeastern University Network and method for servicing a computation request
CN110505300A (zh) * 2019-08-23 2019-11-26 中山大学 一种ip网络与命名数据网络混合的新型链式代理方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101741715A (zh) * 2008-11-20 2010-06-16 华为技术有限公司 发送消息的方法、接入路由节点设备和数据缓存系统
CN102204218A (zh) * 2011-05-31 2011-09-28 华为技术有限公司 数据处理方法、缓存节点、协作控制器及系统
CN102316390A (zh) * 2011-09-07 2012-01-11 中兴通讯股份有限公司 利用虚拟拓扑提高约束条件下路径计算效率的方法及装置
CN102790809A (zh) * 2011-05-16 2012-11-21 奇智软件(北京)有限公司 域名系统解析方法、装置及客户端

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6658463B1 (en) * 1999-06-10 2003-12-02 Hughes Electronics Corporation Satellite multicast performance enhancing multicast HTTP proxy system and method
US20020073167A1 (en) * 1999-12-08 2002-06-13 Powell Kyle E. Internet content delivery acceleration system employing a hybrid content selection scheme
US7552235B2 (en) * 2003-12-11 2009-06-23 International Business Machines Corporation Autonomic selection of a request routing policy based upon cache effectiveness
US7688753B1 (en) * 2007-12-28 2010-03-30 Emc Corporation Selection of a data path based on one or more performance characteristics of a computer system
US8667175B2 (en) 2008-03-13 2014-03-04 Cisco Technology, Inc. Server selection for routing content to a client using application layer redirection
US8665757B2 (en) * 2009-06-03 2014-03-04 Telefonaktiebolaget Lm Ericsson (Publ) Method and node for finding content in a content distribution network, and method for creating a virtual representation of a content distribution network
WO2011088304A1 (en) * 2010-01-14 2011-07-21 Beaumaris Networks Inc. Management and use of channel configuration information
CN102143199A (zh) * 2010-10-19 2011-08-03 华为技术有限公司 获取内容的方法、节点及内容网络
CN102118434A (zh) * 2010-12-28 2011-07-06 华为技术有限公司 数据包传输方法和设备
US20120239775A1 (en) 2011-03-18 2012-09-20 Juniper Networks, Inc. Transparent proxy caching of resources
US8539036B2 (en) * 2011-03-18 2013-09-17 Juniper Networks, Inc. Modular transparent proxy cache
US20120257560A1 (en) * 2011-04-07 2012-10-11 Sudharshan Srinivasan Cellular data bandwidth optimization using social networking concepts
CN103535011A (zh) 2011-12-14 2014-01-22 华为技术有限公司 内容分发网络cdn路由方法、设备和系统
CN102647357B (zh) 2012-04-20 2016-04-13 中兴通讯股份有限公司 一种处理内容路由方法及装置
KR101330052B1 (ko) * 2012-06-01 2013-11-15 에스케이텔레콤 주식회사 적응형 컨텐츠 전송 방식을 지원하는 컨텐츠 캐싱 서비스 제공 방법 및 이를 위한 로컬 캐싱 장치
US20140157324A1 (en) * 2012-11-30 2014-06-05 Comcast Cable Communications, Llc Content Identification and Management

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101741715A (zh) * 2008-11-20 2010-06-16 华为技术有限公司 发送消息的方法、接入路由节点设备和数据缓存系统
CN102790809A (zh) * 2011-05-16 2012-11-21 奇智软件(北京)有限公司 域名系统解析方法、装置及客户端
CN102204218A (zh) * 2011-05-31 2011-09-28 华为技术有限公司 数据处理方法、缓存节点、协作控制器及系统
CN102316390A (zh) * 2011-09-07 2012-01-11 中兴通讯股份有限公司 利用虚拟拓扑提高约束条件下路径计算效率的方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3021537A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230104788A1 (en) * 2020-07-14 2023-04-06 MAINSTREAMING S.p.A. Method of distributing files through a content delivery network based also on artificial intelligence algorithms, telematic system and servers that allow to implement it

Also Published As

Publication number Publication date
CN104348722B (zh) 2017-12-12
CN104348722A (zh) 2015-02-11
EP3567813B1 (en) 2022-10-26
US20160149810A1 (en) 2016-05-26
US20190028390A1 (en) 2019-01-24
US10587513B2 (en) 2020-03-10
EP3021537A1 (en) 2016-05-18
EP3567813A1 (en) 2019-11-13
US10103986B2 (en) 2018-10-16
EP3021537A4 (en) 2016-08-24
EP3021537B1 (en) 2019-09-11

Similar Documents

Publication Publication Date Title
WO2015014196A1 (zh) 确定内容获取路径、请求处理的方法、装置和系统
US8694675B2 (en) Generalized dual-mode data forwarding plane for information-centric network
US8837483B2 (en) Mapping private and public addresses
US9049251B2 (en) Method and apparatus for internet protocol based content router
JP6371592B2 (ja) コンテンツ中心ネットワークにおけるノードの通信方法及びそのノード
US20160182368A1 (en) Multi-nonce enabled interest packet design for named-data networking
WO2013029569A1 (en) A Generalized Dual-Mode Data Forwarding Plane for Information-Centric Network
EP2705645A1 (en) Name-based neighbor discovery and multi-hop service discovery in information-centric networks
CN108293023B (zh) 支持信息为中心的网络中的上下文感知的内容请求的系统和方法
WO2020103855A1 (zh) 一种信息中心网络中转发端口的确定方法及装置
CN108965479B (zh) 一种基于内容中心网络的域协同缓存方法及装置
WO2008128449A1 (fr) Procédé, système et dispositif d&#39;accès permettant la mise en oeuvre d&#39;une intercommunication à deux couches de service spécial
US8862095B2 (en) Managing mobile nodes in a lawful intercept architecture
WO2014057977A1 (ja) 通信ノード、通信システム、制御装置、パケット転送方法及びプログラム
CN110191068A (zh) 检测网络设备流缓存的陈旧存储器地址
Almishari et al. Optimizing bi-directional low-latency communication in named data networking
JP5784234B2 (ja) 情報中心ネットワークのための一般化デュアルモードデータ転送プレーン
Sukjaimuk et al. Adaptive congestion control in information-centric networking for the IoT sensor network
CN112866106B (zh) 一种兴趣包缓存方法、装置、设备及存储介质
WO2023097856A1 (zh) 一种icn网络中基于热度的随路协同缓存方法
Ott Router Modelling and Packet Level Cache Implementation for Content Aware TCP (CATCP)

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14831652

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2014831652

Country of ref document: EP