WO2007104586A1 - Verfahren zum betrieb eines dezentralen datennetzes - Google Patents

Verfahren zum betrieb eines dezentralen datennetzes Download PDF

Info

Publication number
WO2007104586A1
WO2007104586A1 PCT/EP2007/050181 EP2007050181W WO2007104586A1 WO 2007104586 A1 WO2007104586 A1 WO 2007104586A1 EP 2007050181 W EP2007050181 W EP 2007050181W WO 2007104586 A1 WO2007104586 A1 WO 2007104586A1
Authority
WO
WIPO (PCT)
Prior art keywords
network
network node
value
query
values
Prior art date
Application number
PCT/EP2007/050181
Other languages
English (en)
French (fr)
Inventor
Steffen Rusitschka
Alan Southall
Sebnem ÖZTUNALI
Original Assignee
Siemens Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Aktiengesellschaft filed Critical Siemens Aktiengesellschaft
Priority to EP07703731A priority Critical patent/EP1994713A1/de
Priority to US12/281,859 priority patent/US7936768B2/en
Publication of WO2007104586A1 publication Critical patent/WO2007104586A1/de

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/10Active monitoring, e.g. heartbeat, ping or trace-route
    • H04L43/103Active monitoring, e.g. heartbeat, ping or trace-route with adaptive polling, i.e. dynamically adapting the polling rate
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/16Threshold monitoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/1008Server selection for load balancing based on parameters of servers, e.g. available memory or workload
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/1012Server selection for load balancing based on compliance of requirements or conditions with available server resources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/1023Server selection for load balancing based on a hash applied to IP addresses or costs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1029Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers using data related to the state of servers by a load balancer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/104Peer-to-peer [P2P] networks
    • H04L67/1061Peer-to-peer [P2P] networks using node-based peer discovery mechanisms
    • H04L67/1065Discovery involving distributed pre-established resource-based relationships among peers, e.g. based on distributed hash tables [DHT] 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/104Peer-to-peer [P2P] networks
    • H04L67/1074Peer-to-peer [P2P] networks for supporting data block transmission mechanisms
    • H04L67/1078Resource delivery mechanisms
    • H04L67/1085Resource delivery mechanisms involving dynamic management of active down- or uploading connections
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/104Peer-to-peer [P2P] networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1095Replication or mirroring of data, e.g. scheduling or transport for data synchronisation between network nodes

Definitions

  • the invention relates to a method for operating a decentralized data network comprising a plurality of network nodes, wherein the network nodes can direct queries to the data network by means of sample values.
  • resources are distributed decentrally to the individual network nodes. It is possible here that each individual network node uses keywords to search for corresponding resources. For this purpose, query values are used, whereby a unique query value is generated from a keyword.
  • the polling values are managed by the network nodes, each network node being responsible for predetermined polling values. With the help of the query values, network nodes set up e.g. Searches in the net. Furthermore, a network node can also send so-called. Publication requests for a particular query value to the network node, which is responsible for the particular query value.
  • the sending network node announces that it wants to publish resources, which are associated with the particular request value and thereby the corresponding keyword, to the network, i. want to provide the other network node.
  • the network nodes may direct so-called subscription requests to the network by which a network node informs another network node responsible for a particular query value that it wishes to be informed of the publication of content relating to that particular query value.
  • the query values are for example hash values, which are generated with a hash algorithm.
  • the query values are stored in a table, wherein each table entry has a corresponding query value and this Contains data associated with the query value, for example a reference to the location of corresponding resources. This data is related to the keyword from which the query value was generated.
  • the table is preferably distributed decentrally in the data network, wherein each network node is responsible for a range of values of the table.
  • the object of the invention is therefore to provide a method for operating a decentralized data network, in which Overloading a network node is easily and effectively avoided due to too many requests.
  • the value table is preferably the distributed hash table mentioned above, wherein the query values in the hash table represent hash values. It is preferably ensured that one or more keywords are uniquely assigned to a query value, which can be achieved when using a distributed hash table with a hash algorithm, for example SHA1.
  • the frequency with which requests for the polling values assigned to a respective network node are directed to the respective network node is monitored for the network nodes.
  • inquiries here are in particular the search and / or
  • the inventive method is characterized in that in the event that the frequency of requests for one or more queries to a particular network node exceeds a predetermined threshold, at least one or more of the table entries of this or these queries are assigned to at least one other network node.
  • the threshold value can be set according to the requirements and the size of the data network For example, the threshold can be determined heuristically.
  • the data associated with a query value are, in a preferred embodiment of the invention, resources, in particular files, or references to memory locations of resources in the data network.
  • the other network node to which at least one or more table entries are assigned, is designed such that it can process inquiries whose frequency is above the predetermined threshold value. This ensures that it does not come again to an overload of the data network, because the other network node has a capacity that ensures the processing of popular requests.
  • the other network node can be a single powerful network computer or a cluster of network computers.
  • a new network node is added to the data network, wherein at least one or these table entries are assigned to the new network node.
  • the frequency of the requests for one or more query values in a respective network node is exceeded, it is also possible for at least one or more of the table entries of this or these query values to be assigned to a network node already present in the data network.
  • an assignment of the table entry or entries to another network node is reversed if the frequency of the requests is again below the predetermined threshold value. This ensures that the original network structure is restored in normal operation.
  • the network nodes each manage a contiguous range of values of table entries.
  • the query value for which the threshold of the frequency of the requests in the respective network node has been exceeded is removed from the value range of the respective network node and assigned to the other network node.
  • the values of the value range of the respective overloaded network node from the beginning of the value range to the extracted query value-excluding this query value- are assigned to the network node which has the value range which lies adjacent to the beginning of the value range of the congested network node.
  • the values of the value range of the respective network node are assigned to the overloaded network node as the new value range from the extracted query value-and exclusively this query value-up to the end of the value range of the overloaded network node.
  • the method is based on the join mechanism known for networks with distributed hash tables and ensures a simple and effective incorporation of a new network node by dividing the hash areas into adjacent network nodes.
  • the steps of monitoring requests and / or assigning table entries to other network nodes are performed remotely by each network node for the requests addressed to it.
  • the data network can be managed by a network operator, wherein the individual network nodes report congestion to the network operator, who then executes the assignment of table entries to another network computer, in particular the inclusion of a new network computer.
  • the invention further relates to a decentralized data network comprising a plurality of network nodes, wherein the data network is designed such that a method according to one of the preceding claims is feasible.
  • the data network is in this case, for example, a computer network in which the network nodes comprise one or more computers, in particular a peer-to-peer network, for. In the form of a chord ring.
  • FIG. 1 shows a schematic representation of a distributed hash table based peer-to-peer network in which the inventive method can be used;
  • FIG. 2 shows a schematic representation analogous to FIG. 1, in which the scenario of overloading a peer is illustrated;
  • FIG. and 3 shows a view analogous to FIGS. 1 and 2, which illustrates the replacement of the overloaded peer according to an embodiment of the method according to the invention.
  • a decentralized data network in the form of a peer-to-peer overlay network which is operated according to the method according to the invention, is considered by way of example.
  • the network has a ring structure, for example in the form of a chord ring, and comprises peers A, B, C, D, E, F, G, H, and I, which represent network nodes, which in turn represent one or more network computers.
  • it is possible to search for resources in the network.
  • the well-known from the prior art distributed hash table is used.
  • the search is made possible by means of keywords, whereby for each keyword a unique hash value is generated by a hash algorithm, for example SHAl.
  • a hash table which comprises a plurality of hash values, with corresponding data being associated with each hash value.
  • This table is distributed in the network of Fig. 1 to the participating network nodes A to I, each network node is responsible for a range of values of the table. According to Fig. 1, the responsibilities are distributed as follows:
  • Peer A manages the hash values 10000000 to 10000009; Peer B manages the hash values 10000010 to 10000019; Peer C manages the hash values 10000020 to 10000029; Peer D manages the hash values 10000030 to 10000039; Peer E manages the hash values 10000040 to 10000049; Peer F manages the hash values 10000050 to 10000059; Peer G manages the hash values 10000060 to 10000069; Peer H manages the hash values 10000070 to 10000079; Peer I manages the hash values 10000080 to 10000089.
  • Each peer can now use the keywords to query the data network, converting the keywords to the appropriate hash values.
  • the mechanism of finding hash values in a hash table distributed on peers is a mechanism well known in the art, which will therefore not be described further.
  • FIG. 2 shows, by way of example, the process of sending inquiries in the data network of FIG. 1.
  • requests from various peers S1 to S7 are directed to other peers, as indicated by corresponding solid or dashed arrows.
  • the requests S1 to S5 are directed by the corresponding peers I, G, F, C and E to the peer D.
  • These requests are shown with solid lines.
  • the requests here are, for example, search queries that search for a file xyz.doc that is requested more than frequently in the network, the corresponding hash value for these search requests being stored in peer D.
  • the hash value that is most frequently queried in Peer D has the value 10000033, which is within the range of values managed by Peer D.
  • the requests S6 and S7 of the peers F and H relate to other data stored in the network, which are less popular.
  • each peer can default, which in turn can cause the entire network to collapse.
  • it is monitored in each peer how frequently requests are directed to the respective peer. This can be decentralized by any peer However, it is also possible that a central monitoring entity is provided, which monitors the requests in all peers.
  • the frequency of the requests are detected by the peer itself, and when a threshold value is exceeded, each peer issues a corresponding message to a network operator, which is set up on the decentralized network.
  • the network operator manages a plurality of very powerful computers or computer clusters, which can be integrated into the decentralized data network if required.
  • the peer D reports an overload due to too frequent requests to the network operator.
  • the operator now removes the peer D from the network and replaces it with a high-performance computer or cluster of high-performance computers.
  • This process is shown in FIG.
  • the peer D is now no longer available, but instead a high-performance computer J is used, the computer is designed so that it can meet the capacity requirements of the strong requests.
  • the computer J is therefore a substitute for the peer D and he takes over the management of previously managed by Peer D hash values 10000030 to 10000039. If after a certain period of time, it is found that the number of requests in the computer J goes back again this is reported to the network operator, who can then reintegrate the original peer D into the data network.
  • the peer C which manages the adjacent smaller hash values 10000020 to 10000029, now also assumes the value range of 10000030 to 10000032, that is, he now manages the hash Values 10000020 to 10000032.
  • the hash value redistribution mechanism just described is the join mechanism known from the prior art for attaching a new peer in a distributed hash table based peer-to-peer system.

Abstract

Die Erfindung betrifft ein Verfahren zum Betrieb eines dezentralen Datennetzes umfassend eine Mehrzahl von Netzknoten (A,..., I), wobei die Netzknoten (A,..., I) Anfragen (S1,..., S7) mit Hilfe von Abfragewerten in das Datennetz richten können, bei dem: a) mehreren Netzknoten (A,..., I) jeweils ein oder mehrere Tabelleneinträge einer auf die Netzknoten (A,..., I) verteilten Wertetabelle zugewiesen sind, wobei jeder Tabelleneintrag einen Abfragewert und dem Abfragewert zugeordnete Daten umfasst; b) für die mehreren Netzknoten (A,..., I) jeweils die Häufigkeit überwacht wird, mit der Anfragen (S1,..., S7) für die einem jeweiligen Netzknoten (A,..., I) zugewiesenen Abfragewerte an den jeweiligen Netzknoten (A,..., I) gerichtet werden; c) falls in Schritt b) festgestellt wird, dass die Häufigkeit der Anfragen (S1,..., S7) für einen oder mehrere Abfragewerte an einen jeweiligen Netzknoten (A,..., I) einen vorbestimmten Schwellenwert überschreitet, zumindest der oder die Tabelleneinträge dieses oder dieser Abfragewerte wenigstens einem anderen Netzknoten (J) zugewiesen werden.

Description

Beschreibung
Verfahren zum Betrieb eines dezentralen Datennetzes
Die Erfindung betrifft ein Verfahren zum Betrieb eines dezentralen Datennetzes umfassend eine Mehrzahl von Netzknoten, wobei die Netzknoten Anfragen mit Hilfe von Abfragewerten an das Datennetz richten können.
In dezentralen Netzwerken, beispielsweise in auf einer verteilten Hash-Tabelle basierenden Peer-to-Peer-Overlay- Netzen, werden Ressourcen dezentral auf die einzelnen Netzknoten verteilt. Es ist hierbei möglich, dass jeder einzelne Netzknoten mit Hilfe von Schlüsselwörtern nach entsprechenden Ressourcen sucht. Hierzu werden Abfragewerte verwendet, wobei aus einem Schlüsselwort ein eindeutiger Abfragewert erzeugt wird. Die Abfragewerte werden von den Netzknoten verwaltet, wobei jeder Netzknoten für vorbestimmte Abfragewerte zuständig ist. Mit Hilfe der Abfragewerte richten Netzknoten z.B. Suchanfragen in das Netz. Ferner kann ein Netzknoten auch sog. Veröffentlichungsanfragen für einen bestimmten Abfragewert an den Netzknoten senden, der für den bestimmten Abfragewert zuständig ist. Mit solchen Veröffentlichungsanfragen teilt der aussendende Netzknoten mit, dass er Ressourcen, welche dem bestimmten Abfragewert und hierdurch dem entsprechenden Schlüsselwort zugeordnet sind, im Netz veröffentlichen möchte, d.h. den anderen Netzknoten zur Verfügung stellen möchte. Darüber hinaus können die Netzknoten sog. Abonnementanfragen in das Netz richten, mit denen ein Netzknoten einem anderen, für einen bestimmten Abfragewert zuständigen Netzknoten mitteilt, dass er über die Veröffentlichung von Inhalten betreffend diesen bestimmten Abfragewert informiert werden möchte.
Die Abfragewerte sind beispielsweise Hash-Werte, welche mit einem Hash-Algorithmus generiert werden. Vorzugsweise sind die Abfragewerte in einer Tabelle hinterlegt, wobei jeder Tabelleneintrag einen entsprechenden Abfragewert sowie diesem Abfragewert zugeordnete Daten enthalt, beispielsweise einen Verweis auf den Speicherort von entsprechenden Ressourcen. Diese Daten stehen hierbei im Zusammenhang mit dem Schlüsselwort, aus dem der Abfragewert generiert wurde. Die Tabelle ist vorzugsweise dezentral in dem Datennetz verteilt, wobei jeder Netzknoten für einen Wertebereich der Tabelle zustandig ist.
Es kann nunmehr der Fall auftreten, dass bestimmte Ressourcen, das heißt bestimmte Abfragewerte, besonders oft durch entsprechende Anfragen im Netz angefragt, insbesondere gesucht, veröffentlicht und abonniert werden. Es kommt dann zu einer Überlastung von denjenigen Netzknoten, die für die entsprechenden Abfragewerte verantwortlich sind. Solche Netzknoten werden auch als "Hot-Spots" bezeichnet. Bei der Überlastung eines Hot-Spots kann es zum Blockieren und Versagen dieses Netzknotens kommen. Die Folge ist, dass der Netzwerkverkehr im Bereich dieser Hot-Spots anwachst, so dass die Stabilität des gesamten Netzwerks gefährdet ist. Ferner verliert das Netzwerk an Leistungsfähigkeit.
Zur Losung der Hot-Spot-Problematik ist es aus dem Stand der Technik bekannt, besonders populäre Daten auf einen oder mehrere Netzknoten zu replizieren. Beispielsweise können die populären Daten, für die ein entsprechender Netzknoten zustandig ist, direkt auf Nachbarknoten repliziert werden. Es ist jedoch auch eine Replikation auf beliebige andere, beispielsweise durch Algorithmen bestimmte Netzknoten möglich. Das Replizieren von Daten bringt jedoch das Problem mit sich, dass im Netzwerk immer gewahrleistet sein muss, dass die replizierten Kopien aktuell sind. Dies erfordert weitere spezielle Mechanismen. Es sind aus dem Stand der Technik keine Verfahren bekannt, mit denen die Hot-Spot- Problematik zufriedenstellend gelost werden kann.
Aufgabe der Erfindung ist es deshalb, ein Verfahren zum Betrieb eines dezentralen Datennetzes zu schaffen, bei dem die Überlastung eines Netzknotens aufgrund zu vieler Anfragen einfach und effektiv vermieden wird.
Diese Aufgabe wird durch die unabhängigen Patentansprüche gelost. Weiterbildungen der Erfindung sind in den abhangigen Ansprüchen definiert.
In dem erfindungsgemaßen Verfahren sind mehreren Netzknoten jeweils ein oder mehrere Tabelleneintrage einer auf die Netzknoten verteilten Wertetabelle zugewiesen, wobei jeder Tabelleneintrag einen Abfragewert und dem Abfragewert zugeordnete Daten umfasst. Die Wertetabelle ist hierbei vorzugsweise die oben erwähnte verteilte Hash-Tabelle, wobei die Abfragewerte in der Hash-Tabelle Hash-Werte darstellen. Vorzugsweise wird sichergestellt, dass ein oder mehrere Schlüsselwörter eindeutig einem Abfragewert zugeordnet werden, was bei der Verwendung einer verteilten Hash-Tabelle mit einem Hash-Algorithmus, beispielsweise SHAl, erreicht werden kann.
In dem erfindungsgemaßen Verfahren wird für die Netzknoten jeweils die Häufigkeit überwacht, mit der Anfragen für die einem jeweiligen Netzknoten zugewiesenen Abfragewerte an dem jeweiligen Netzknoten gerichtet werden. Unter Anfragen sind hierbei insbesondere die eingangs erwähnten Such- und/oder
Veroffentlichungs- und/oder Abonnementanfragen zu verstehen. Das erfindungsgemaße Verfahren zeichnet sich dadurch aus, dass im Falle, dass die Häufigkeit der Anfragen für einen oder mehrere Abfragewerte an einen jeweiligen Netzknoten einen vorbestimmten Schwellenwert überschreitet, zumindest der oder die Tabelleneintrage dieses oder dieser Abfragewerte wenigstens einem anderen Netzknoten zugewiesen werden.
Durch eine solche Überwachung und Zuweisung eines häufig angefragten Abfragewertes zu einem anderen Netzknoten kann auf effektive Weise eine Überlastung eines Netzknotens vermieden werden. Der Schwellenwert kann hierbei gemäß den Anforderungen und der Große des Datennetzes entsprechend gewählt werden, beispielsweise kann der Schwellenwert heuristisch ermittelt werden.
Die einem Abfragewert zugeordneten Daten sind in einer bevorzugten Ausfuhrungsform der Erfindung Ressourcen, insbesondere Dateien, oder Verweise auf Speicherorte von Ressourcen im Datennetz.
In einer bevorzugten Ausfuhrungsform des erfindungsgemaßen Verfahrens ist der andere Netzknoten, dem zumindest der oder die Tabelleneintrage zugewiesen werden, derart ausgestaltet, dass er Anfragen verarbeiten kann, deren Häufigkeit über dem vorbestimmten Schwellenwert liegen. Hierdurch wird sichergestellt, dass es nicht erneut wieder zu einer Überlastung des Datennetzes kommt, denn der andere Netzknoten weist eine Leistungsfähigkeit auf, welche die Verarbeitung der populären Anfragen gewahrleistet. Der andere Netzknoten kann hierbei ein einzelner leistungsfähiger Netzrechner oder ein Cluster aus Netzrechnern sein.
In einer weiteren bevorzugten Ausfuhrungsform der Erfindung wird bei Überschreiten des Schwellenwerts der Häufigkeit der Anfragen für einen oder mehrere Abfragewerte in einem jeweiligen Netzknoten ein neuer Netzknoten dem Datennetz hinzugefugt, wobei dem neuen Netzknoten zumindest der oder die Tabelleneintrage dieses oder dieser Abfragewerte zugewiesen werden. Alternativ ist es auch möglich, dass bei Überschreiten des Schwellenwerts der Häufigkeit der Anfragen für einen oder mehrere Abfragewerte in einem jeweiligen Netzknoten zumindest der oder die Tabelleneintrage dieses oder dieser Abfragewerte einem im Datennetz bereits vorhandenen Netzknoten zugewiesen werden.
In einer weiteren Ausgestaltung des erfindungsgemaßen Verfahrens wird bei Überschreiten des Schwellenwerts der
Häufigkeit der Anfragen für einen oder mehrere Abfragewerte in einem Netzknoten der jeweilige Netzknoten durch den anderen Netzknoten ersetzt. Hierdurch wird ein besonders einfacher Mechanismus zur Vermeidung von Überlastungen gewahrleistet, wobei insbesondere keine Neuverteilung der Tabelleneintrage der Wertetabelle auf andere Netzknoten durchgeführt werden muss.
In einer weiteren Ausgestaltung des erfindungsgemaßen Verfahrens wird eine durchgeführte Zuweisung des oder der Tabelleneintrage zu einem anderen Netzknoten rückgängig gemacht, wenn die Häufigkeit der Anfragen wieder unterhalb des vorbestimmten Schwellenwerts liegt. Hierdurch wird gewahrleistet, dass im Normalbetrieb wieder die ursprungliche Netzstruktur hergestellt wird.
In einer besonders bevorzugten Ausfuhrungsform verwalten die Netzknoten jeweils einen zusammenhangenden Wertebereich von Tabelleneintragen. In diesem Fall wird der Abfragewert, für den der Schwellenwert der Häufigkeit der Anfragen in dem jeweiligen Netzknoten überschritten wurde, aus dem Wertebereich des jeweiligen Netzknotens herausgenommen und dem anderen Netzknoten zugewiesen. Hierbei werden die Werte des Wertebereichs des jeweiligen überlasteten Netzknotens vom Anfang des Wertebereichs bis zum herausgenommenen Abfragewert - ausschließlich dieses Abfragewerts - dem Netzknoten zugewiesen, der den Wertebereich aufweist, der benachbart zum Anfang des Wertebereichs des überlasteten Netzknotens liegt. Ferner werden die Werte des Wertebereichs des jeweiligen Netzknotens vom herausgenommenen Abfragewert - und ausschließlich dieses Abfragewerts - bis zum Ende des Wertebereichs des überlasteten Netzknotens dem überlasteten Netzknoten als neuer Wertebereich zugewiesen. Dieses
Verfahren beruht auf dem für Netzwerke mit verteilten Hash- Tabellen bekannten Join-Mechanismus und gewahrleistet eine einfache und effektive Eingliederung eines neuen Netzknotens durch eine Aufteilung der Hash-Bereiche auf benachbarte Netzknoten.
Statt der Verwendung dieses Join-Mechanismus kann bei Überschreiten der Häufigkeit der Anfragen für einen oder mehrere Abfragewerte in einem jeweiligen Netzknoten auch der Wertebereich des jeweiligen Netzknotens dem anderen Netzknoten komplett zugewiesen werden.
In einer weiteren Ausgestaltung des erfindungsgemaßen
Verfahrens werden die Schritte des Uberwachens der Anfragen und/oder der Zuweisung von Tabelleneintragen an andere Netzknoten dezentral von jedem Netzknoten für die an ihn gerichteten Anfragen durchgeführt. Gegebenenfalls kann das Datennetz von einem Netzbetreiber verwaltet werden, wobei die einzelnen Netzknoten Überlastungen an den Netzbetreiber melden, der dann die Zuweisung von Tabelleneintragen an einen anderen Netzrechner, insbesondere die Eingliederung eines neuen Netzrechners, ausfuhrt.
Neben dem oben beschriebenen Verfahren betrifft die Erfindung ferner ein dezentrales Datennetz umfassend eine Vielzahl von Netzknoten, wobei das Datennetz derart ausgestaltet ist, dass ein Verfahren nach einem der vorhergehenden Ansprüche durchfuhrbar ist. Das Datennetz ist hierbei beispielsweise ein Computernetz, in dem die Netzknoten einen oder mehrere Rechner umfassen, insbesondere ein Peer-to-Peer-Netz, z. B. in der Form eines Chord-Rings .
Ausfuhrungsbeispiele der Erfindung werden nachfolgend anhand der beigefugten Figuren detailliert beschrieben.
Es zeigen:
Fig. 1 eine schematische Darstellung eines auf einer verteilten Hash-Tabelle basierenden Peer-to-Peer- Netzes, in dem das erfindungsgemaße Verfahren einsetzbar ist;
Fig. 2 eine schematische Darstellung analog zu Fig. 1, in der das Szenario der Überlastung eines Peers dargestellt ist; und Fig. 3 eine Ansicht analog zu Fig. 1 und Fig. 2, welche das Ersetzen des überlasteten Peers gemäß einer Ausführungsform des erfindungsgemäßen Verfahrens verdeutlicht .
In der nachfolgend beschriebenen Ausführungsform wird beispielhaft ein dezentrales Datennetz in der Form eines Peer-to-Peer-Overlay-Netzes betrachtet, das gemäß dem erfindungsgemäßen Verfahren betrieben wird. Das Netz hat eine Ringstruktur, beispielsweise in der Form eines Chord-Rings, und umfasst Peers A, B, C, D, E, F, G, H und I, welche Netzknoten darstellen, die wiederum einen oder mehrere Netzrechner repräsentieren. In dem in Fig. 1 gezeigten Netz ist es möglich, nach Ressourcen im Netz zu suchen. Hierzu wird die hinlänglich aus dem Stand der Technik bekannte verteilte Hash-Tabelle verwendet. Die Suche wird mit Hilfe von Schlüsselwörtern ermöglicht, wobei für jedes Schlüsselwort ein eindeutiger Hash-Wert durch einen Hash- Algorithmus, beispielsweise SHAl, erzeugt wird. Für den entsprechenden Hash-Wert existiert dann in der Form eines Tabelleneintrags eine Zuordnung zu entsprechenden Daten, welche das Schlüsselwort betreffen, das dem Hash-Wert zugewiesen ist. Die Daten können hierbei Ressourcen sein, welche mit Schlüsselwörtern in Verbindung stehen, beispielsweise MP3-Dateien, digitale Bilder, Webseiten und dergleichen. Es existiert somit eine Hash-Tabelle, welche eine Vielzahl von Hash-Werten umfasst, wobei jedem Hash-Wert entsprechende Daten zugeordnet sind. Diese Tabelle wird in dem Netz der Fig. 1 auf die beteiligten Netzknoten A bis I verteilt, wobei jeder Netzknoten für einen Wertebereich der Tabelle zuständig ist. Gemäß Fig. 1 sind die Zuständigkeiten wie folgt verteilt:
Peer A verwaltet die Hash-Werte 10000000 bis 10000009; Peer B verwaltet die Hash-Werte 10000010 bis 10000019; Peer C verwaltet die Hash-Werte 10000020 bis 10000029; Peer D verwaltet die Hash-Werte 10000030 bis 10000039; Peer E verwaltet die Hash-Werte 10000040 bis 10000049; Peer F verwaltet die Hash-Werte 10000050 bis 10000059; Peer G verwaltet die Hash-Werte 10000060 bis 10000069; Peer H verwaltet die Hash-Werte 10000070 bis 10000079; Peer I verwaltet die Hash-Werte 10000080 bis 10000089.
Jeder Peer kann mit den Schlüsselwörtern nunmehr Anfragen in das Datennetz richten, wobei die Schlüsselwörter hierzu in die entsprechenden Hash-Werte umgewandelt werden. Der Mechanismus des Auffindens von Hash-Werten in einer auf Peers verteilten Hash-Tabelle ist ein hinlänglich aus dem Stand der Technik bekannter Mechanismus, der deshalb nicht näher beschrieben wird.
Fig. 2 zeigt beispielhaft den Vorgang des Aussendens von Anfragen in dem Datennetz der Fig. 1. In dem Netz werden von verschiedenen Peers Anfragen Sl bis S7 an andere Peers gerichtet, wie durch entsprechende durchgezogene bzw. gestrichelte Pfeile angedeutet ist. Die Anfragen Sl bis S5 werden hierbei von den entsprechenden Peers I, G, F, C und E an den Peer D gerichtet. Diese Anfragen sind mit durchgezogenen Linien gezeigt. Die Anfragen sind hierbei beispielsweise Suchanfragen, die einer überdurchschnittlich oft im Netz angefragten Datei xyz.doc suchen, wobei der entsprechende Hash-Wert für diese Suchanfragen in Peer D hinterlegt ist. Der Hash-Wert, der besonders oft in Peer D abgefragt wird, weist beispielsweise den Wert 10000033 auf, der innerhalb des Wertebereichs liegt, der von Peer D verwaltet wird. Demgegenüber betreffen die Anfragen S6 und S7 der Peers F bzw. H andere im Netz abgelegte Daten, welche weniger populär sind.
Sollten die häufigen Anfragen an den Hot-Spot-Peer D ein vorbestimmtes Maß überschreiten, kann es zum Ausfall dieses Peers kommen, was wiederum einen Zusammenbruch des gesamten Netzes nach sich ziehen kann. Um derartige Hot-Spots zu vermeiden, wird gemäß dem erfindungsgemäßen Verfahren in jedem Peer überwacht, wie häufig Anfragen an den jeweiligen Peer gerichtet werden. Dies kann dezentral durch jeden Peer selbst bewerkstelligt werden, es ist jedoch auch möglich, dass eine zentrale Uberwachungsinstanz vorgesehen ist, welche die Anfragen in allen Peers überwacht. In der hier beschriebenen Ausfuhrungsform werden die Häufigkeit der Anfragen von dem Peer selbst erfasst, wobei bei Überschreiten eines Schwellenwerts jeder Peer eine entsprechende Meldung an einen Netzwerk-Operator ausgibt, der auf das dezentrale Netz aufgesetzt ist. Der Netzwerk-Operator verwaltet hierbei eine Mehrzahl von sehr leistungsfähigen Rechnern bzw. Rechner- Clustern, die bei Bedarf in das dezentrale Datennetz eingebunden werden können.
In dem Szenario der Fig. 2 wird durch den Peer D eine Überlastung aufgrund zu häufiger Anfragen an den Netzwerk- Operator gemeldet. Als Konsequenz nimmt der Operator nunmehr den Peer D aus dem Netzwerk heraus und ersetzt ihn durch einen Hochleistungsrechner bzw. einen Cluster aus Hochleistungsrechnern. Dieser Vorgang ist in Fig. 3 gezeigt. Der Peer D ist nunmehr nicht mehr vorhanden, sondern stattdessen wird ein Hochleistungsrechner J verwendet, wobei der Rechner derart ausgelegt ist, dass er die Kapazitatsanforderungen der starken Anfragen erfüllen kann. Der Rechner J stellt somit einen Ersatz für den Peer D dar und er übernimmt die Verwaltung der zuvor von Peer D verwalteten Hash-Werte 10000030 bis 10000039. Sollte nach einem bestimmten Zeitraum festgestellt werden, dass die Anzahl an Anfragen im Rechner J wieder zurückgeht, wird dies an den Netzwerk-Operator gemeldet, der dann den ursprunglichen Peer D wieder in das Datennetz einbinden kann.
Anstatt des soeben beschriebenen Ersatzes des Peers D durch den Peer J ist es gegebenenfalls auch möglich, nur die Zuweisung des stark angefragten Hash-Wertes, der in der hier beschriebenen Ausfuhrungsform z.B. 10000033 ist, einem anderen Peer zuzuweisen, wobei dieser Peer ein bereits im Netzwerk vorhandener Peer oder ein durch den Operator neu eingebundener Peer sein kann. Beispielsweise ist es möglich, den leistungsfähigen Rechner J derart in das Netz einzubinden, dass er nur für den Hash-Wert 10000033 zuständig ist, was zur Folge hat, dass der Peer D stark entlastet wird, da alle Anfragen Sl bis S5 nun an den Peer J gehen. In diesem Fall ist eine Umordnung der Wertebereiche der verteilten Hash-Tabelle notwendig. Insbesondere sind dem Peer D dann nur noch die Hash-Werte 10000034 bis 10000039 zugeordnet und der Peer C, der die benachbarten kleineren Hash-Werte 10000020 bis 10000029 verwaltet, übernimmt nunmehr zusätzlich den Wertebereich von 10000030 bis 10000032, das heißt er verwaltet nunmehr die Hash-Werte 10000020 bis 10000032. Der soeben beschriebenen Mechanismus der Neuverteilung der Hash- Werte ist der aus dem Stand der Technik bekannte Join- Mechanismus zur Angliederung eines neuen Peers in einem auf einer verteilten Hash-Tabelle basierten Peer-to-Peer-Systems .
Die soeben beschriebene Ausführungsform des erfindungsgemäßen Verfahrens wurde anhand eines Beispiels beschrieben, bei dem das Netz von einem Operator verwaltet wird, der den Peer J in das Netz eingliedert. Dies ist jedoch nicht unbedingt erforderlich. Es ist auch möglich, dass ein anderer, im
Netzwerk bereits vorhandener Peer, der weniger stark belastet ist oder eine hohe Leistungsfähigkeit aufweist, alle Aufgaben des Peers J übernimmt, so dass kein zusätzlicher Peer in das Netzwerk aufgenommen werden muss.

Claims

Patentansprüche
1. Verfahren zum Betrieb eines dezentralen Datennetzes umfassend eine Mehrzahl von Netzknoten (A,..., I), wobei die Netzknoten (A,..., I) Anfragen (Sl,..., S7) mit Hilfe von Abfragewerten in das Datennetz richten können, bei dem: a) mehreren Netzknoten (A,..., I) jeweils ein oder mehrere Tabelleneinträge einer auf die Netzknoten (A,..., I) verteilten Wertetabelle zugewiesen sind, wobei jeder Tabelleneintrag einen Abfragewert und dem Abfragewert zugeordnete Daten umfasst; b) für die mehreren Netzknoten (A,..., I) jeweils die Häufigkeit überwacht wird, mit der Anfragen (Sl,..., S7) für die einem jeweiligen Netzknoten (A,..., I) zugewiesenen Abfragewerte an den jeweiligen Netzknoten (A,..., I) gerichtet werden; c) falls in Schritt b) festgestellt wird, dass die Häufigkeit der Anfragen (Sl,..., S7) für einen oder mehrere Abfragewerte an einen jeweiligen Netzknoten (A,..., I) einen vorbestimmten Schwellenwert überschreitet, zumindest der oder die Tabelleneinträge dieses oder dieser Abfragewerte wenigstens einem anderen Netzknoten (J) zugewiesen werden.
2. Verfahren nach Anspruch 1, bei dem die Wertetabelle eine verteilte Hash-Tabelle ist, wobei die Abfragewerte in der Hash-Tabelle Hash-Werte darstellen.
3. Verfahren nach Anspruch 1 oder 2, bei dem ein oder mehrere Schlüsselwörter eindeutig einem Abfragewert zugeordnet werden .
4. Verfahren nach Anspruch 3, bei dem die eindeutige Zuordnung der Schlüsselwörter zu einem Abfragewert mit einem Hash-Algorithmus, insbesondere mit SHAl, erzeugt wird.
5. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die einem Abfragewert zugeordnete Daten Ressourcen, insbesondere Dateien, oder Verweise auf Speicherorte von Ressourcen im Datennetz sind.
6. Verfahren nach einem der vorhergehenden Ansprüche, bei dem der andere Netzknoten (J) , dem in Schritt c) zumindest der oder die Tabelleneintrage zugewiesen werden, derart ausgestaltet ist, dass er Anfragen (Sl,..., S7) verarbeiten kann, deren Häufigkeit über dem vorbestimmten Schellenwert liegen.
7. Verfahren nach einem der vorhergehenden Ansprüche, bei dem der andere Netzknoten (J) ein Netzrechner oder ein Cluster aus Netzrechnern ist.
8. Verfahren nach einem der vorhergehenden Ansprüche, bei dem in Schritt c) bei Überschreiten des Schwellenwerts der
Häufigkeit der Anfragen (Sl,..., S7) für einen oder mehrere Abfragewerte in einem jeweiligen Netzknoten (A,..., I) ein neuer Netzknoten (J) dem Datennetz hinzugefugt wird, dem zumindest der oder die Tabelleneintrage dieses oder dieser Abfragewerte zugewiesen werden.
9. Verfahren nach einem der Ansprüche 1 bis 7, bei dem in Schritt c) bei Überschreiten des Schwellenwerts der Häufigkeit der Anfragen (Sl,..., S7) für einen oder mehrere Abfragewerte in einem jeweiligen Netzknoten (A,..., I) zumindest der oder die Tabelleneintrage dieses oder dieser Abfragewerte einem im Datennetz bereits vorhandenen Netzknoten (A,..., I) zugewiesen werden.
10. Verfahren nach einem der vorhergehenden Ansprüche, bei dem in Schritt c) bei Überschreiten des Schwellenwerts der Häufigkeit der Anfragen (Sl,..., S7) für einen oder mehrere Abfragewerte in einem jeweiligen Netzknoten (A,..., I) der andere Netzknoten den jeweiligen Netzknoten (A,..., I) ersetzt.
11. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Zuweisung des oder der Tabelleneintrage zu einem anderen Netzknoten (A,..., I) in Schritt c) rückgängig gemacht wird, wenn die Häufigkeit der Anfragen (Sl,..., S7) wieder unterhalb des vorbestimmten Schwellenwerts liegt.
12. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Netzknoten (A,..., I) jeweils einen zusammenhangenden Wertebereich von Tabelleneintragen verwalten.
13. Verfahren nach Anspruch 12, bei dem in Schritt c) der Abfragewert, für den der Schwellenwert der Häufigkeit der Anfragen in dem jeweiligen Netzknoten (A,..., I) überschritten wurde, aus dem Wertebereich des jeweiligen Netzknotens (A,..., I) herausgenommen wird und dem anderen Netzknoten (A,..., I) zugewiesen wird, wobei die Tabelleneintrage des Wertebereichs des jeweiligen Netzknotens (A,..., I) vom Anfang des Wertebereichs bis zum herausgenommenen Abfragewert und ausschließlich dieses Abfragewerts dem Netzknoten (A,..., I) zugewiesen werden, der den Wertebereich aufweist, der benachbart zum Anfang des Wertebereichs des jeweiligen Netzknotens (A,..., I) liegt, und wobei die Tabelleneintrage des Wertebereichs des jeweiligen Netzknotens (A,..., I) vom herausgenommenen Abfragewert und ausschließlich dieses Abfragewerts bis zum Ende des Wertebereichs des jeweiligen Netzknotens (A,..., I) dem jeweiligen Netzknoten (A,..., I) als neuer Wertebereich zugewiesen werden.
14. Verfahren nach Anspruch 12, bei dem in Schritt c) bei Überschreiten des Schwellenwerts der Häufigkeit der Anfragen
(Sl,..., S7) für einen oder mehrere Abfragewerte in einem jeweiligen Netzknoten (A,..., I) der Wertebereich des jeweilige Netzknotens (A,..., I) dem anderen Netzknoten (A,..., I) zugewiesen wird.
15. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Schritte b) und/oder c) des Anspruchs 1 dezentral von jedem Netzknoten (A,..., I) für die an ihn gerichteten Anfragen (Sl,..., S7) durchgeführt werden.
16. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Datennetz von einem Netzbetreiber verwaltet wird.
17. Dezentrales Datennetz, umfassend eine Vielzahl von Netzknoten (A,..., I), wobei das Datennetz derart ausgestaltet ist, dass ein Verfahren nach einem der vorhergehenden Ansprüche durchführbar ist.
18. Datennetz nach Anspruch 17, wobei das Datennetz ein Computernetz ist, in dem die Netzknoten (A,..., I) einen oder mehrere Rechner umfassen.
19. Datennetz nach Anspruch 17 oder 18, wobei das Datennetz ein Peer-to-Peer-Netz, insbesondere ein Chord-Ring, ist.
PCT/EP2007/050181 2006-03-10 2007-01-09 Verfahren zum betrieb eines dezentralen datennetzes WO2007104586A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP07703731A EP1994713A1 (de) 2006-03-10 2007-01-09 Verfahren zum betrieb eines dezentralen datennetzes
US12/281,859 US7936768B2 (en) 2006-03-10 2007-01-09 Method for operating a decentralized data network

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102006011291.1 2006-03-10
DE102006011291A DE102006011291A1 (de) 2006-03-10 2006-03-10 Verfahren zum Betrieb eines dezentralen Datennetzes

Publications (1)

Publication Number Publication Date
WO2007104586A1 true WO2007104586A1 (de) 2007-09-20

Family

ID=37964594

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2007/050181 WO2007104586A1 (de) 2006-03-10 2007-01-09 Verfahren zum betrieb eines dezentralen datennetzes

Country Status (5)

Country Link
US (1) US7936768B2 (de)
EP (1) EP1994713A1 (de)
CN (1) CN101401388A (de)
DE (1) DE102006011291A1 (de)
WO (1) WO2007104586A1 (de)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006052451B4 (de) * 2006-07-24 2008-05-08 Siemens Ag Verfahren zum Betrieb eines dezentralen Datennetzes
DE102007018299B3 (de) * 2007-04-18 2008-10-23 Siemens Ag Verfahren zur Verteilung von Ressourcen auf Netzknoten in einem dezentralen Datennetz
US8582469B2 (en) * 2007-11-14 2013-11-12 Cisco Technology, Inc. Peer-to-peer network including routing protocol enhancement
WO2013042358A1 (en) * 2011-09-21 2013-03-28 Nec Corporation Communication apparatus, communication system, communication control method, and program
FR2993735B1 (fr) * 2012-07-17 2015-04-17 Thales Sa Procede d'optimisation d'un service de dissemination des informations de qualite de service reseau
US20180028406A1 (en) * 2016-08-01 2018-02-01 Jim Patton Secure Controlled Substance Pill Dispensing Device

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7054867B2 (en) * 2001-09-18 2006-05-30 Skyris Networks, Inc. Systems, methods and programming for routing and indexing globally addressable objects and associated business models
US7096228B2 (en) * 2002-03-27 2006-08-22 Microsoft Corporation Method and system for managing data records on a computer network
US7657597B2 (en) * 2002-09-26 2010-02-02 Sun Microsystems, Inc. Instant messaging using distributed indexes
US7206934B2 (en) * 2002-09-26 2007-04-17 Sun Microsystems, Inc. Distributed indexing of identity information in a peer-to-peer network
US8095500B2 (en) * 2003-06-13 2012-01-10 Brilliant Digital Entertainment, Inc. Methods and systems for searching content in distributed computing networks
US8880502B2 (en) * 2004-03-15 2014-11-04 International Business Machines Corporation Searching a range in a set of values in a network with distributed storage entities
US7685312B1 (en) * 2005-02-10 2010-03-23 Sun Microsystems, Inc. Resource location by address space allocation
US20070143442A1 (en) * 2005-12-20 2007-06-21 Nec Laboratories America, Inc. Scalable Publish/Subscribe Broker Network Using Active Load Balancing

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
"Conference on Distributed Computing Systems", IEEE COMP. SOC, US, BD. CONF. 22, vol. 22, 2 July 2002 (2002-07-02), pages 46 - 55
DRUCKSCHRIFT GODFREY B ET AL.: "Load balancing in dynamic structured p2p systems", INFOCOM 2004. TWENTY-THIRD ANNUAL JOINT CONFERENCE OF THE IEEE COMPUTER AND COMMUNICATIONS SOCIETIES HONG KONG, PR CHINA 7-11 MARCH 2004, PISCATAWAY, NJ, USA, IEEE, vol. 4, 7 March 2004 (2004-03-07), pages 2253 - 2262
DRUCKSCHRIFT YIMING HU ET AL.: "Efficient, Proximity-Aware Load Balancing for DHT-Based P2P Systems", IEEE TRANS-ACTIONS ON PARALLEL AND DISTRIBUTED SYSTEMS, IEEE SERVICE CENTER, LOS ALAMITOS, CA, US, vol. 16, no. 4, April 2005 (2005-04-01), pages 349 - 361
DURY A: "Balancing access to highly accessed keys in peer-to-peer systems", SERVICES COMPUTING, 2004. (SCC 2004). PROCEEDINGS. 2004 IEEE INTERNATIONAL CONFERENCE ON SHANGHAI, CHINA SEPT. 15-18, 2004, PISCATAWAY, NJ, USA,IEEE, 15 September 2004 (2004-09-15), pages 517 - 522, XP010741573, ISBN: 0-7695-2225-4 *
GODFREY B ET AL: "Load balancing in dynamic structured p2p systems", INFOCOM 2004. TWENTY-THIRD ANNUALJOINT CONFERENCE OF THE IEEE COMPUTER AND COMMUNICATIONS SOCIETIES HONG KONG, PR CHINA 7-11 MARCH 2004, PISCATAWAY, NJ, USA,IEEE, vol. 4, 7 March 2004 (2004-03-07), pages 2253 - 2262, XP010740594, ISBN: 0-7803-8355-9 *
THEIMER M ET AL: "Overlook: scalable name service on an overlay network", PROCEEDINGS OF THE 22ND. INTERNATIONAL CONFERENCE ON DISTRIBUTED COMPUTING SYSTEMS. ICDCS 2002. VIENNA, AUSTRIA, JULY 2 - 5, 2002, INTERNATIONAL CONFERENCE ON DISTRIBUTED COMPUTING SYSTEMS, LOS ALAMITOS, CA : IEEE COMP. SOC, US, vol. CONF. 22, 2 July 2002 (2002-07-02), pages 46 - 55, XP010595516, ISBN: 0-7695-1585-1 *
YIMING HU ET AL: "Efficient, Proximity-Aware Load Balancing for DHT-Based P2P Systems", IEEE TRANSACTIONS ON PARALLEL AND DISTRIBUTED SYSTEMS, IEEE SERVICE CENTER, LOS ALAMITOS, CA, US, vol. 16, no. 4, April 2005 (2005-04-01), pages 349 - 361, XP011127508, ISSN: 1045-9219 *

Also Published As

Publication number Publication date
DE102006011291A1 (de) 2007-09-27
EP1994713A1 (de) 2008-11-26
US20090028165A1 (en) 2009-01-29
US7936768B2 (en) 2011-05-03
CN101401388A (zh) 2009-04-01

Similar Documents

Publication Publication Date Title
DE60317403T2 (de) Mehrstufige Cache-Speicherarchitektur und Cache-Speicherverwaltungsverfahren für gleichrangiges Namensauflösungs-Protokoll
DE112018000193B4 (de) Daten sequenziell in Zonen in einem verstreuten Speichernetzwerk speichern
DE69628769T2 (de) System und Verfahren um die Belastung von Datei-Server zu verteilen
DE60306084T2 (de) Verfahren zur Rundsendung von Inhalten eines Peer-to-Peer Netzes
DE60111072T2 (de) Verfahren und vorrichtung zur parallelen nachrichtenübermittlung in echtzeit von dateisegmentierten
DE60317925T2 (de) Steuerung von netzwerkverkehr in einer peer-to-peer umgebung
DE602005000862T2 (de) Datenverteilungssystem basierend auf einer Punkt-zu-Punkt Architektur
EP1423964B1 (de) Skalierbares peer-to-peer-netzwerk mit einem verzeichnisdienst
DE602005001883T2 (de) Überlagerte Daten, Selbstorganisierte überlagerte Metadaten, und Mehrfachsendung auf Anwendungsebene
DE60015423T2 (de) Verfahren und Vorrichtung zur Objektwiedergabe in einem Netzwerk
WO2007104586A1 (de) Verfahren zum betrieb eines dezentralen datennetzes
DE60128200T2 (de) Methode und System für skalierbare, hochperformante hierarchische Speicherverwaltung
DE10311082B4 (de) Elektronikdokumentmanagementverfahren
DE202014010898U1 (de) Hierarchische Stückelung von Objekten in einem dezentralen Speichersystem
DE112019000309B4 (de) Dynamisches batching von berechtigungen in einem verteilten speichernetzwerk
DE112013007597T5 (de) Verbesserter Webserver für die Speicherung grosser Dateien
EP2095611B1 (de) Verfahren zur lastverteilung bei einem peer-to-peer-overlay-netzwerk
DE112005001995T5 (de) Computeranordnung und Verfahren zum Anbieten von Diensten für Benutzer über ein Netzwerk
EP1711892A1 (de) Verfahren zum betreiben einer anordnung mehrerer rechner bei einem rechnerausfall
EP2044738B1 (de) Verfahren zum betrieb eines dezentralen datennetzes
DE102007018299B3 (de) Verfahren zur Verteilung von Ressourcen auf Netzknoten in einem dezentralen Datennetz
EP3475819B1 (de) Verfahren zur automatischen und dynamischen zuteilung der zuständigkeit für aufgaben an die verfügbaren rechenkomponenten in einem hochverteilten datenverarbeitungssystem
DE602004001333T2 (de) Computersystem und Verfahren zur Bereitstellung eines fehlerresistenten Datenverarbeitungdienstes
DE102008003500B4 (de) Verfahren zur Verwaltung von Rechenprozessen in einem dezentralen Datennetz
DE112020004493T5 (de) Zwischenspeicherfähigkeit von single-page-anwendungen

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2007703731

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 7185/DELNP/2008

Country of ref document: IN

WWE Wipo information: entry into national phase

Ref document number: 12281859

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 200780008631.6

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE