WO2003003673A1 - Routing method, node, packet communication system, program, and recording medium - Google Patents

Routing method, node, packet communication system, program, and recording medium Download PDF

Info

Publication number
WO2003003673A1
WO2003003673A1 PCT/JP2002/006616 JP0206616W WO03003673A1 WO 2003003673 A1 WO2003003673 A1 WO 2003003673A1 JP 0206616 W JP0206616 W JP 0206616W WO 03003673 A1 WO03003673 A1 WO 03003673A1
Authority
WO
WIPO (PCT)
Prior art keywords
bucket
destination address
packet
buckets
aggregated
Prior art date
Application number
PCT/JP2002/006616
Other languages
English (en)
French (fr)
Inventor
Koji Omae
Takehiro Ikeda
Ichiro Okajima
Narumi Umeda
Original Assignee
Ntt Docomo, Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ntt Docomo, Inc. filed Critical Ntt Docomo, Inc.
Priority to KR10-2003-7002866A priority Critical patent/KR100496217B1/ko
Priority to JP2003509724A priority patent/JP3778912B2/ja
Priority to US10/362,366 priority patent/US7301948B2/en
Priority to EP02738885A priority patent/EP1326387A4/en
Publication of WO2003003673A1 publication Critical patent/WO2003003673A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L49/00Packet switching elements
    • H04L49/90Buffering arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/04Protocols for data compression, e.g. ROHC
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/40Network security protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L2212/00Encapsulation of packets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/22Parsing or analysis of headers

Definitions

  • Routing method node, packet communication system, program, and recording medium
  • the present invention relates to a routing method, a node, a packet communication system, a program, and a recording medium that improve the use efficiency of network resources in a network using a bucket switching system.
  • each bucket is processed independently.
  • the routing node specifies the destination node with reference to the header information of all the buckets that have arrived, and performs routing to the destination.
  • the above-described conventional technique has a problem in that a large number of identical data are transmitted to the same node on a certain link, and the link band is compressed by the link layer header.
  • the lack of packet data compression causes link bandwidth pressure.
  • an object of the present invention is to provide a routing method, a node, a packet communication system, a program, and a recording medium that reduce the amount of communication data and efficiently use network resources.
  • the present invention has taken the following measures.
  • a routing method is a routing method for routing a bucket based on a destination address attached to a packet, the step of extracting a destination address of the bucket, and the step of extracting a plurality of packets. Extracting a plurality of buckets having at least a part of the route to each end point in common based on the destination address, and a plurality of buckets having at least a part of the route being common. A step of aggregating the buckets and creating an aggregated bucket including information of each bucket; and Applying and routing the aggregated packet based on the destination address.
  • the present invention when at least a part of the route to the destination address is common to a plurality of packets, information of a plurality of buckets is aggregated to reconstruct one aggregate pad. Therefore, the total number of transmitted packets decreases and the number of times the routing table is referred to decreases. This reduces the processing load and improves the processing speed. As a result, efficient use of network resources can be achieved.
  • the routing method according to the present invention is preferably a routing method for performing bucket routing based on a destination address attached to a bucket, wherein the step of extracting a bucket destination address and a plurality of buckets are aggregated. Restoring a plurality of original buckets from the aggregated packets, and determining whether at least a part of a route from a destination address of each restored bucket to each end point is common. If it is determined that at least part of the route is common, the destination address of the aggregate packet is rewritten so that the destination address of the aggregate bucket becomes the address of an adjacent node on the common route, and routing is performed. On the other hand, if there is no common route, routing the restored packets based on the respective destination addresses is included.
  • the packet is determined whether the packet should be relayed to the next node in the state of the aggregated packet, or whether a plurality of original buckets should be restored from the aggregated bucket and each bucket should be relayed.
  • the destination address of the aggregated packet is rewritten and the routing is performed so that the destination address of the aggregated bucket becomes the address of the adjacent node on the common route. Therefore, it is possible to reduce the total number of buckets on the network.
  • a routing method for routing a packet based on a destination address attached to a bucket comprising the steps of: extracting a destination address of the packet; Extracting, based on the extracted destination address, a plurality of packets that share at least a part of the route to each end point, and aggregating a plurality of buckets sharing at least a part of the route. Creating an aggregated bucket containing the information of each bucket; and Assigning a destination address to the destination, and aggregating packets based on the determined destination address. Routing the packet.
  • a destination address is assigned to an aggregation packet so that the destination address of the aggregation bucket is the address of a predetermined node having a function of restoring a plurality of original buckets from the aggregation bucket, and the aggregation packet is restored.
  • only the designated node restores the aggregated packet, and normal routing is performed on the unspecified node.
  • unnecessary restoration processing is avoided, and relay processing can be made more efficient.
  • a routing method for routing a bucket based on a destination address attached to a bucket comprising the steps of: extracting a destination address of the bucket; and Determines whether the address matches the address of the own node. If the result of the determination is that the extracted destination address matches the address of the own node, a plurality of buckets are collected from the aggregated bucket. Restoring the plurality of buckets, and routing each restored packet or an aggregate packet having a destination address that does not match the address of its own node based on the destination address.
  • the original plurality of packets are restored from the aggregated packet only when the destination address of the aggregated packet matches the address of the own node. That is, Only the node designated as the source node restores the aggregation bucket. As a result, the normal routing is performed on the node that is not specified, so that unnecessary restoration processing is avoided, and the relay processing can be made more efficient.
  • the routing method according to the present invention preferably includes a step of setting an aggregation flag indicating that the packet is an aggregation bucket in the header information of the aggregation bucket.
  • a plurality of buckets are aggregated and replaced with a single aggregated bucket.
  • the total number of buckets and the total amount of information communicated on the network can be reduced, and network resources can be used efficiently.
  • the routing method according to the present invention further comprises the step of compressing the aggregated packet.
  • the compression of the aggregated bucket is performed, for example, by converting a bit pattern included in the aggregated bucket into a predetermined code, or by converting a bit string commonly included in the plurality of packets into at least one of the plurality of buckets. It can be realized by a method such as extraction from As a result, the total number of packets and the total amount of information communicated on the network can be further reduced, and network resources can be used more efficiently.
  • a configuration is adopted in which only buckets buffered in the transmission queue of the own router are to be aggregated.
  • a node is a node that routes a bucket based on a destination address attached to a packet, the destination address extracting means for extracting a destination address of the bucket, and a plurality of buckets extracted.
  • Route common bucket extraction means that extracts multiple packets that share at least a part of the route to each end point based on the destination address, and aggregates multiple buckets that share at least a portion of the route
  • Aggregate packet creation means for creating an aggregate bucket including information of each bucket; and a destination for assigning a destination address to the aggregate bucket so that the destination address of the aggregate packet is the address of an adjacent node on the common path.
  • a node for routing a packet based on a destination address attached to a bucket a destination address extracting means for extracting a destination address of the packet, and a plurality of packets are aggregated.
  • a node for performing ⁇ / singling of a packet based on a destination address attached to a bucket, wherein a destination address extracting means for extracting a destination address of the packet; For a packet, based on the extracted destination address, at least part of the route is common to a route common bucket extracting means for extracting a plurality of buckets having at least a part of the route to each end point in common.
  • Aggregate bucket creating means for aggregating a plurality of buckets to create an aggregate packet including information of each bucket; and a destination address of the aggregate bucket having a function of restoring a plurality of original buckets from the aggregate bucket.
  • a destination address assigning means for assigning a destination address to the aggregation bucket so as to be an address of the node; And an aggregation bucket routing means for routing the aggregation bucket based on the destination address obtained.
  • the destination address of the aggregated bucket is assigned to the destination address of the aggregated bucket so that the address of the predetermined node has the function of restoring a plurality of original packets from the aggregated bucket, so that the aggregated bucket is restored.
  • Node can be specified.
  • only the designated node restores the aggregation bucket, and normal routing is performed on the unspecified node.
  • unnecessary restoration processing is avoided, and relay processing can be made more efficient.
  • the node according to the present invention is a node that routes a packet based on a destination address attached to the packet, the destination address of the packet.
  • Address extraction means for extracting a destination address
  • an address determination means for determining whether the extracted destination address matches the address of the own node, and a destination address extracted as a result of the determination, If the addresses match, there are restoration means for restoring the original multiple buckets from the aggregated bucket in which the multiple packets are aggregated, and a destination address that did not match the restored packet or the address of the own node.
  • Bucket routing means for routing the aggregated buckets based on the destination address.
  • the original multiple packets are restored from the aggregated packet only when the destination address of the aggregated packet matches the address of the own node. That is, only the node designated as the restoration node restores the aggregated packet.
  • the normal routing is performed on the node that is not specified, so that unnecessary restoration processing is avoided, and the relay processing can be made more efficient.
  • the node according to the present invention employs a configuration including an aggregation flag setting unit that sets an aggregation flag indicating that the packet is an aggregation packet in the header information of the aggregation bucket.
  • the node according to the present invention includes a bit number comparing unit that compares a total number of bits of a plurality of buckets having at least a part of a route common to the number of bits of the aggregated bucket.
  • a plurality of buckets are aggregated and replaced with a single aggregated bucket.
  • the total number of buckets and the total amount of information communicated on the network can be reduced, and network resources can be used efficiently.
  • the node according to the present invention comprises: Means are further provided.
  • the compression of the aggregated packet is performed by, for example, converting a bit pattern included in the aggregated packet into a predetermined code, or extracting a bit string included in the plurality of packets from at least one of the plurality of buckets. It is possible by a method such as putting out. As a result, the total number of packets and the total amount of information communicated on the network can be further reduced, and network resources can be used more efficiently.
  • the node according to the present invention employs a configuration in which only buckets buffered on the transmission queue are to be aggregated.
  • a packet communication system employs a configuration including a host that transmits a packet, the node that relays a packet, and a host that receives a packet.
  • a configuration including a host that transmits a packet, the node that relays a packet, and a host that receives a packet.
  • information of a plurality of buckets is aggregated to reconstruct one aggregated bucket.
  • the total number of buckets communicated on the network can be reduced. Accordingly, the number of times the routing table is referenced is reduced, and the processing load is reduced. As a result, the processing speed is improved, and as a result, efficient use of network resources can be achieved.
  • a program according to the present invention is a program for routing a packet based on a destination address attached to a packet.
  • the program extracts a destination address of a bucket, and extracts a plurality of packets. Based on the destination address, a process of extracting a plurality of buckets sharing at least a part of the route to each end point, and aggregating a plurality of packets sharing at least a portion of the route.
  • the process of creating an aggregated packet containing information on each packet and the destination address of the aggregated packet are set so that the destination address of the aggregated packet becomes the address of the adjacent node on the common route.
  • a configuration is employed in which the communication device executes a process of giving a dress and a process of routing an aggregation bucket based on a destination address.
  • the present invention when at least a part of a route to each destination address is common to a plurality of packets, information of a plurality of buckets is aggregated to reconstruct one aggregated bucket.
  • the total number of buckets communicated on the network can be reduced.
  • the number of times the routing table is referenced can be reduced, the processing load can be reduced, and the processing speed can be improved.
  • efficient use of network resources can be achieved.
  • the program according to the present invention is based on a destination address attached to a packet. A packet routing program that extracts the destination address of the packet, restores the original multiple buckets from the aggregated bucket that aggregates multiple buckets, and extracts the destination address of each restored bucket.
  • a configuration is adopted in which the processing is executed by the communication device.
  • the present invention it is determined whether to relay to the next link in the state of the aggregated packet or to restore each of the original buckets from the aggregated bucket and relay each of the buckets. If the result of this determination is that at least a part of the routes are common, the destination address of the aggregation bucket is rewritten and routed so that the destination address of the aggregation bucket becomes the address of the adjacent node on the common route. It is possible to reduce the total number of packets communicated above.
  • a program according to the present invention is a program for routing a packet based on a destination address attached to a packet, and extracts a destination address of a bucket.
  • a process of extracting a plurality of buckets having at least a part of a route to each of the destinations based on the extracted destination address for a plurality of packets, and a process of extracting at least a portion of the route.
  • the communication device executes a process of assigning a destination address to the aggregated bucket so as to obtain the address of the first node and a process of routing the aggregated bucket based on the determined destination address.
  • the destination address of the aggregated bucket is assigned to the aggregated packet such that the destination address is the address of a predetermined node having a function of restoring a plurality of original buckets from the aggregated bucket.
  • only the designated node restores the aggregated packet, and normal routing is performed on the unspecified node.
  • unnecessary restoration processing can be avoided, and the relay processing can be made more efficient.
  • a program according to the present invention is a program for routing a packet based on a destination address attached to a packet, the processing for extracting a destination address of a bucket, and the step of extracting the destination address of the packet to an address of the own node. If the extracted destination address matches the address of the own node as a result of the determination, the original packets are collected from the aggregated bucket in which multiple buckets are aggregated.
  • a configuration is employed in which the communication device executes a process of restoring and a process of routing each restored packet or an aggregated packet having a destination address that does not match the address of its own node based on the destination address.
  • a plurality of original packets are restored from an aggregated packet only when the destination address of the aggregated packet matches the address of the own node. That is, only the node designated as the restoration node restores the aggregation bucket. This allows normal routing to take place on non-designated nodes, thus saving unnecessary recovery. The processing is avoided, and the relay processing can be made more efficient.
  • the recording medium according to the present invention has a computer-readable configuration in which the above-described program is recorded.
  • the present invention when at least a part of the route to each destination address is common to a plurality of packets, information of the plurality of packets is aggregated to reconstruct one aggregated bucket.
  • the total number of buckets communicated on the network can be reduced.
  • the number of times the routing table is referenced can be reduced, the processing load can be reduced, and the processing speed can be improved. As a result, efficient use of network resources can be achieved.
  • FIG. 1 is a diagram schematically illustrating a bucket communication system according to a first embodiment of the present invention.
  • FIG. 2 is a block diagram showing a schematic configuration of a router having an aggregation function and a restoration function.
  • Figure 3 is a flowchart that performs the aggregation function.
  • FIG. 4 is a flowchart for performing the restoration function.
  • FIG. 5 is a diagram showing a configuration of an IP bucket.
  • FIG. 6 is a diagram illustrating an example of data storage in the compression table.
  • FIG. 7 is a diagram conceptually illustrating a matching process between packets I and I I and a bit pattern.
  • FIG. 8 is a conceptual diagram showing a configuration of a bucket compressed by the first bucket compression method.
  • FIG. 9A is a diagram showing a process of searching for a common part between the bucket I and the packet II.
  • FIG. 9B is a diagram showing an example of a detected bit string.
  • FIG. 10 is a conceptual diagram showing a configuration of a packet compressed by the second packet compression method.
  • FIG. 11A is a diagram showing an example of a configuration of a bucket I before passing through a router.
  • FIG. 11B is a diagram showing an example of a configuration of a bucket I after passing through a router.
  • FIG. 12A is a diagram showing an example of the configuration of the bucket II.
  • FIG. 12B is a diagram illustrating an example of the configuration of the aggregated bucket V that has been aggregated.
  • FIG. 13 is a diagram schematically illustrating a packet communication system according to the second embodiment of the present invention.
  • FIG. 14 is a block diagram showing a schematic configuration of a router having an aggregation function and a restoration function.
  • Figure 15 is a flowchart that performs the aggregation function.
  • FIG. 16 is a flowchart for performing the restoration function.
  • FIG. 17 is a diagram showing the configuration of the IP bucket.
  • FIG. 18 is a diagram schematically showing a bucket communication system according to the third embodiment of the present invention.
  • FIG. 19 is a flowchart showing the aggregation function at the Ethernet (registered trademark) level.
  • FIG. 20 is a diagram showing a configuration of an Ethernet frame.
  • FIG. 1 is a diagram schematically showing a bucket communication system according to a first embodiment of the present invention.
  • the node in the first embodiment creates an aggregated packet by encapsulating a plurality of IP buckets with one IP header.
  • a routing control protocol such as OSPF (Open Shortest Path First) is operating on the network.
  • OSPF Open Shortest Path First
  • all routers in the network have a restoration function that restores the aggregated bucket to the original multiple buckets.
  • routers C and H have not only the restoration function, but also IP encapsulation, that is, It has a bucket aggregation function to create one aggregation bucket.
  • Routers G and D that have only the restoration function execute the restoration flow shown in Fig. 4 for each received packet.
  • Routers C and H which have a restoration function and a packet aggregation function, execute the restoration flow shown in Fig. 4 for each of the received packets, and execute the aggregation flow shown in Fig. 3 on the sender queue. Execute.
  • FIG. 2 is a block diagram illustrating a schematic configuration of a router having an aggregation function and a restoration function according to the first embodiment.
  • This router has a restoration function unit 1 and an aggregation function unit 2.
  • the restoration function unit 1 transmits and receives packets to and from the link in the communication interface 3.
  • Destination address extraction The Z rewriting means 4 extracts the destination address of the received bucket. In addition, it has a function to rewrite the destination address of the received packet.
  • the restoration means 5 restores the original plurality of packets from the aggregated packet in which the plurality of packets are aggregated.
  • the judging means 6 judges whether at least a part of the routes from the destination addresses of the restored packets to the respective end points are common.
  • the destination address extracting / rewriting means 4 determines that the destination address of the aggregated packet is the address of an adjacent node on the common path (first embodiment The destination address of the aggregation bucket is rewritten so that it becomes a router.
  • the packet routing means 7 routes the aggregate bucket based on the rewritten destination address.
  • the packet routing means 7 routes the restored packets based on the respective destination addresses.
  • the aggregation function unit 2 uses the common route bucket extraction means 8 to extract a plurality of buckets based on the extracted destination address for at least a part of the routes to each of the plurality of buckets. Is extracted.
  • the aggregation bucket creating means 9 aggregates a plurality of buckets having at least a part of the route in common, and creates an aggregation bucket including information on each bucket.
  • the aggregate bucket compressing means 18 compresses the aggregate bucket using first and second bucket compression methods described later. Further, the collecting bucket compressing means 18 has a compression tape hole 18a. As shown in FIG. 6, the compression table 18a has a code area 181a and a bit pattern area 182a.
  • 3-bit data (for example, “000”, “001”, “010”, etc. Is stored as codes. Data having an arbitrary number of bits (for example, "1011110011010100011110010111", “0000100011111111",...) Is stored in the bit pattern area 182a in an updatable manner as a bit pattern.
  • the code is stored in a manner uniquely associated with the bit pattern so that the code is determined according to the specification of the bit pattern.
  • the destination address assigning means 10 assigns the destination address to the aggregation bucket so that the destination address of the aggregation bucket becomes an adjacent router on the common route.
  • the aggregation bucket routing means 11 routes the aggregation bucket based on the destination address.
  • the aggregation flag setting means 12 sets an aggregation flag indicating that the packet is an aggregation bucket in the header information of the aggregation bucket.
  • the bit number comparing means 13 compares the total bit number of a plurality of buckets at least partially common to the route with the bit number of the aggregated bucket.
  • the aggregated packet routing means 11 determines the aggregated packet based on the destination address only when the number of bits in the aggregated bucket is smaller than the total number of bits in the plurality of buckets as a result of the bit number comparison. To route. In the first embodiment, only the packets buffered on the transmission queue are to be aggregated.
  • the input / output interface 14 has a function of reading a program recorded on a recording medium such as a CD-ROM, and displaying data on an image.
  • the program of the routing method according to the present embodiment can be read from the recording medium using the input / output interface 14.
  • the storage means 15 stores the program read from the input / output interface 14.
  • the above components are connected to the control buses 16a and 16b, and are controlled by the control means 17.
  • the control means 17 The program stored in the means 15 is executed.
  • routers C and H shown in FIG. 1 have the aggregation function and the restoration function, they have the restoration function unit 1 and the aggregation function unit 2 shown in FIG.
  • routers G and D since routers G and D have only the restoration function, only restoration function unit 1 is provided. However, it is of course possible to provide router G and router D with an aggregation function.
  • step S1 it is determined whether or not a plurality of IP packets exist in the transmission queue. If there are no multiple IP buckets in the transmission queue, repeat the determination in step S1. If there are multiple IP buckets in the transmission queue, refer to the header information of any two IP buckets in the queue (step S 2). Here, these two IP buckets are referred to as IP buckets I and II.
  • step S3 it is determined whether or not at least a part of the route has a common part. If there is no common part, the process proceeds to step S1. If there is a common part, IP buckets (1) and (2) are compressed to create an encapsulated aggregate bucket (step S4). Here, the created aggregate packet is referred to as an IP packet 3.
  • the packets I and II are aggregated by the router C and transmitted to the hosts E and F via the router D, the first and second bucket compression of the aggregated packet according to the present invention is performed. The method will be described.
  • router C receives packets I and II received from hosts A and B, and bit patterns 1, 2, and 3 obtained from compression table 18a (see FIG. 6). ⁇ ⁇ ⁇ And collate to determine whether packets I and II contain a predetermined bit pattern.
  • the packet is composed of a bit string in units of 8 bits (1 byte)
  • the bit patterns determined to be included in buckets I and II as a result of the comparison Convert the turn to the corresponding code.
  • FIG. 8 is a diagram conceptually showing a configuration of a bucket compressed by the first bucket compression method.
  • the data portion of the compressed aggregated packet V is composed of compressed information V1 and compressed data V2.
  • the compression information VI is composed of fields F1 to F9.
  • Field F1 has a fixed length a common to all routers having the aggregation and restoration functions, and stores the number of compression points (for example, 4) existing in the data portion of the aggregation packet V.
  • Field F2 has a fixed length b common to all routers that have the aggregation and restoration functions, but in order to declare the number of bits in field F3 in consideration of the variable number of bits in the next field.
  • the next field bit number c 1 is stored.
  • the field F3 has a variable length c1 (for example, lbyte, 500byte) and stores the number d1 of bytes from the beginning of the compressed data V2 to code 1 which is the first compression location.
  • fields F 4, F 6 and F 8, like the field F 2 are used to declare the number of bits of the next fields F 5, F 7 and F 9, the number of bits of the next field c 2, c 3, c Stores 4 respectively.
  • Fields F5, F7, and F9 have variable lengths c2, c3, and c4, like field F3, and extend from the end of the compression point (for example, code 1) to the next compression point (for example, code 2). Store the number of bytes d2, d3, and d4 up to, respectively.
  • fields F5, F7, and F9 also store the number of bytes from the beginning of the compressed data V2 to each compression location (for example, code 2, 3, and 4), similarly to the Fino redo F3.
  • each compression location for example, code 2, 3, and 4
  • the fields F5, F7, and F9 can have a fixed length of, for example, 12 bits. In the case of the fixed length, the fields F5, F2, and F9 for declaring the number of bits are used. F4, F6 and F8 are not always necessary.
  • the compressed data V2 is composed of the uncompressed part of the number of bytes d1, d2, d3, d4 and the given
  • the compressed part code1, code2, code3, code4, which is 3-bit data, is arranged alternately. It is composed.
  • the data stored in F1 to F9 are used to convert the bit sequence to be converted into bit patterns into the compressed data V2. Used to specify from inside.
  • FIG. 9A The router C detects, from the packet I I, a data portion common to the packets I and I I received from the hosts A and B, respectively (hereinafter, referred to as a “common part”). That is, as shown in FIG. 9A, from the position where the leading end of packet I and the end of packet II match, to the position where the end of bucket I and the end of bucket II match. Move bucket II one byte at a time to search for common points. From the viewpoint of search efficiency, it is desirable that the bucket to be moved is a bucket having a relatively short number of bits.
  • the search is performed by calculating exclusive OR for each bit between the bucket I and the packet I I.
  • the same bit is expressed as "0" and the different bit is expressed as "1" between bucket I and bucket II.
  • a common point having a g-byte number of bits is searched at a position of f bytes from the leading end of the bucket II.
  • the process of searching for a common bit string of bucket I and bucket I I is performed as follows.
  • the longer one is packet I
  • the shorter one is bucket I I
  • the bucket length of bucket I is L1 byte, no.
  • the value of the k-th bit from the beginning of the packet I is B 1 (k_1) (that is, the first bit is B 1 (0), and the last bit is B 1 (L 1 * 8—1)).
  • the packet length of packet I I is L 2 bytes, and the value of the h-th bit from the head of packet I I is B 2 (h ⁇ 1).
  • bit string obtained as a result of the exclusive OR operation if 0 bytes are arranged consecutively for g bytes after f bytes from the beginning, the bit string B 1 (8 * f) to B 1 (8 * f + 8 * g-1) and the bit string B 2 (8 * L 2-8 * e '+ 8 * f) to B 2 (8 * L 2 — 8 * e, + 8 * f
  • bit string B 1 (8 * e + 8 * f) ⁇ : ⁇ (8 * e + 8 * f + 8 * g-1) and bit string B 2 (8 * f) to B 2 (8 * f + 8 * g) in No. 0 packet II -l) is the common part.
  • bit sequence B 1 For integers e greater than or equal to L 2 and less than L 1, the bit sequence B 1 (8 * e) ⁇ ; B 1 (8 * L 1-1) and the bit sequence B 2 (0) ⁇ : B 2 (8 * L Exclusive OR with 1-8 * e-1).
  • bit string obtained as a result of the exclusive OR operation if f bytes are placed from the beginning and 0s are arranged continuously for g bytes, the bit string B 1 (8 * e + 8 * f) ⁇ : Bl (8 * e + 8 * f + 8 * g—1) and ⁇ . It is a common part with the bit strings B 2 (8 * f) to B 2 (8 * f + 8 * g-l) in the packet I I.
  • FIG. 10 is a diagram conceptually showing a configuration of a bucket compressed by the second bucket compression method.
  • the data portion of the compressed aggregated packet V is composed of compressed information V3 and compressed data V4.
  • the compression information V3 is composed of fields Fl1 to F23.
  • Field F 11 has a fixed length h common to all routers having the aggregation and decompression functions, and indicates the number of compression points (for example, 4) existing in the data portion of the aggregation packet V.
  • Field Fl2 has a fixed length i common to all routers having an aggregation and restoration function, and stores the number j1 of bytes from the beginning to the first common location in packet I.
  • the field F 13 has a fixed length i, and stores the number k 1 of bytes from the beginning to the first common location in the bucket II.
  • Field F14 has a fixed length m common to all routers having an aggregation and restoration function, and stores the number of bytes n1 representing the number of bits at the first common location.
  • the common part of the number g of bytes is changed to compression information of the number of bytes (iX2 + m) as a result of the compression processing. Therefore, the fact that the bit string having at least the number of bytes g that satisfies the relationship g> i X 2 + m is selected as the common point of the compression target means that the compression effect by the second packet compression method is exhibited.
  • fields F 15, F 18, and F 21 have a fixed length i common to all routers having the aggregation and restoration function, and the second, third, and fourth The number of bytes j2, j3, and j4 up to the common location are stored, respectively.
  • finoredos F16, F19, and F22 have a fixed length i, and the number of bytes k2, k3 from the beginning to the second, third, and fourth common points in packet II. , k 4, respectively.
  • Fields F 17, F 20, and F 23 have a fixed length m common to all routers having an aggregation and restoration function, and represent a number of bits in the second, third, and fourth common locations. Stores the number of points n2, n3, ⁇ 4.
  • the compressed data V4 is composed of an uncompressed part V41 and a compressed part V42.
  • the uncompressed portion V41 corresponds to one packet (packet I) that is the same as before compression
  • the compressed portion V42 is the other packet (packet) from which the first to fourth common points are extracted. II). That is, the compressed portion V42 is data corresponding to the difference between the bucket I and the packet II.
  • Each of the data stored in F11 to F23 is obtained by decompressing the data part of the aggregated bucket V and bucket I and II.
  • decompressing the compressed data V4 it is used to specify the position where each common part is inserted from the compressed data V4.
  • the first and second compression methods can be applied to the same packet in a superimposed manner. Of course, three or more packets may be aggregated.
  • the number of bits in the data portion of the aggregate bucket V is calculated from the total value of the number of bits in the compressed portion before compression, as a result of the compression. It is reduced by the number of bits after subtracting the compression information. However, if the number of bits shortened by the compression of the aggregated packet is small, the number of bits may increase as a result of aggregation and compression. Therefore, the following processing is executed to compare the total number of bits of buckets I and II with the total number of bits of aggregated bucket V.
  • the number of bits of the IP buckets I, II, and 3 are counted, and the count results are L1, L2, and L3, respectively, and (L1 + L2 ) Is compared with L3 (steps S5, S6). If the comparison does not result in L 3 ⁇ (L 1 + L 2), discard the IP packet 3 (step
  • step SI proceed to step SI.
  • L 3 L 1 + L 2
  • the IP buckets 1 and 2 are discarded, and the IP bucket 3 is replaced with the neighboring router on the common route (step s8). .
  • Step T1 it is determined whether or not the received IP packet has an aggregation flag (Step T2). If the aggregation flag is not set, normal routing is performed (step T3). On the other hand, if the aggregation flag is attached, decapsulation (decomposition) is performed and the original I I packet is restored once (step # 4).
  • router D When decompressing packets that have been compressed by the first bucket compression method, decompression processing is required as preprocessing, but when decompressing, router D uses the compressed part of the compressed data (codel to 4) Referring to compression table 18a, To a pattern. In the decompression process performed prior to the decompression of the packet compressed by the second packet compression method, the router D inserts the data of the common part extracted at the time of compression into the compressed data.
  • step T5 it is determined whether or not the route has a common part. If there is no common part, the restored buckets are normally routed and the aggregated packet is discarded (step T5). 6). On the other hand, if the route has a common part, only the header of the aggregated packet is reworked and the destination is set to the adjacent node (router) on the common route (step # 7). Here, the data part is copied. Normally routing the aggregate bucket created in step ⁇ 7 and discarding each restored packet (step ⁇ 8).
  • the presence of the aggregation flag makes it possible to easily and quickly determine whether or not a packet is an aggregation bucket.
  • FIG. 5 in the IP packet format, a source IP address is added at the beginning, and a destination IP address is added next. Next, the aggregation flag is set as needed, and finally the data section is provided.
  • Host A sends an IP packet I to Host E. As shown in FIG. 5, the IP packet I has a source of host A and a destination of host E. Host B also sends an IP bucket II to host F. The IP bucket I I has a source of host B and a destination of host F.
  • Router C having received bucket I and bucket II, executes the aggregation flow shown in Fig. 3 by its aggregation function, and creates aggregation bucket III.
  • IP bucket III as shown in Fig. 5, the source is router C and the destination is router G, and the aggregation flag is set.
  • bucket I and the difference between buckets I and II are stored using a differential compression technique that incorporates inter-frame correlation coding in video.
  • the number of bits in bucket III is the number of bits in buckets I and II. Since the number is smaller than the number of packets, the packet III is routed.
  • the router G at the relay point executes the restoration flow shown in FIG.
  • the restored original packet is determined to have a common path in the future, and the restored packet is discarded.
  • the aggregated packet is routed to the adjacent router H on the common route.
  • This aggregated packet has the structure shown in FIG. That is, the source is router G, the destination is router H, and the aggregation flag is set.
  • the data section stores the bucket I and the difference between the buckets I and I I.
  • Router H at the relay point operates in the same manner as router G, and sends aggregated packet V to router D.
  • the aggregated packet V has a source of router H, a destination of router D, and an aggregation flag set, and the data section stores bucket I, and the difference between buckets I and II. Have been.
  • the router D executes the restoration flow shown in FIG. As shown in FIG. 4, for example, since the aggregation flag is set for the aggregated packet V, the packet is restored, and bucket VI (the same data configuration as bucket I) and bucket VII (the same data configuration as bucket II) are restored. ) To restore. Since the bucket V I and the bucket V I I no longer have a common path, the aggregated packet is discarded and the restored packet is routed. Note that the recovered packet may be aggregated again into another bucket on the transmission queue by executing the aggregation flow. Then, the IP packets V I and V I I are transmitted to the host E and the host F, respectively.
  • the packet communication system in the first embodiment when at least a part of the route to each destination address is common to a plurality of buckets, the information of the plurality of buckets is aggregated. Then, the total number of packets transmitted on the network can be reduced because it can be converted into one aggregate bucket. Also, by reducing the total number of packets, the routing table The number of times of reference is reduced, the processing load is reduced, and the processing speed can be improved. As a result, efficient use of network resources can be achieved. Furthermore, it is determined whether to relay to the next link in the state of the aggregated bucket or to restore each of the original buckets from the aggregated bucket and relay each bucket.
  • routing is performed by rewriting the destination address of the aggregate bucket so that the destination address of the aggregate bucket becomes an adjacent router on the common route. It is possible to reduce the total number of buckets communicated by.
  • the bucket I includes a basic IPv6 header P11, a route control header P12, and a data area P13, as shown in FIG. 11A.
  • the basic IPv6 header P11 an IP address (Care of address) temporarily used by the mobile terminal at the destination is stored as a via address 1.
  • the route control header P12 stores the address (Home address) end point address 2 unique to the mobile host VI to which the bucket I arrives.
  • the end point does not necessarily have to be the final destination of the packet, but includes the end point of a common path between any node or host.
  • data 1 which is actual data is stored in the data area P 13.
  • the bucket II includes a basic IPV6 header P21 and a data area P22, as shown in Fig. 12A.
  • Basic IPV 6 header P 21 has packet I
  • the unique address of the mobile host M that I reaches is stored as the destination address 2. It should be noted that data 2 which is actual data is stored in the data area P 22.
  • router C aggregates packets I and II, and adds aggregated packet V by adding destination address 1 indicating the current location of mopile host M. .
  • the aggregation bucket V stores the destination address 1 in the basic IPv6 header P51 as a routing destination. Further, a bucket I and a bucket II are broadcast to the data area P52.
  • the Mopile host M When the aggregated packet V reaches the node indicated by the destination address 1 (Mopile host M), the Mopile host M generates (restores) the buckets I and II from the aggregated bucket V. At this time, the destination address 1 and the destination address 2 are both addresses of the mobile host M.
  • the mobile host M can receive not only the aggregate bucket V having the end address 1 at the beginning but also the buckets I and II having the end address 2 at the beginning.
  • the bucket I is once encapsulated in another node (Home Agent) and transferred to the mobile host M, more efficient bucket transmission by avoiding the redundant path can be performed.
  • FIG. 13 is a diagram schematically showing a bucket communication system according to the second embodiment of the present invention.
  • an aggregate packet is created by encapsulating a plurality of IP packets with one IP header.
  • a routing protocol such as OSPF is operating on the network, and that the router with the aggregation function knows the network topology and which node has the restoration function. It is also possible to manually set the network topology and the node having the restoration function for the router having the aggregation function.
  • Router G in the network has neither restoration function nor aggregation function.
  • Router H has only a decapsulation restoration function.
  • Router C and Router D It has both an aggregation function by demultiplexing and a restoration function by decapsulation.
  • the aggregation function is a function for executing the processing shown in the flowchart of FIG. 15
  • the restoration function is a function for executing the processing shown in the flowchart of FIG.
  • the routers C and D having both functions execute the restoration flow for each of the received buckets and execute the aggregation flow on the transmission queue in parallel.
  • FIG. 14 is a block diagram illustrating a schematic configuration of a router having an aggregation function and a restoration function according to the second embodiment.
  • address determining means 70 for determining whether or not the extracted destination address matches the address of its own router is used instead of determining means 6 in restoration function unit 1. It is provided. Further, the destination address assigning means 10 assigns a destination address to the aggregated packet such that the destination address of the aggregated packet becomes an address of a predetermined node having a function of restoring a plurality of original buckets from the aggregated bucket. This makes it possible to specify the restoration node.
  • Other components are the same as in the first embodiment, and a description thereof will not be repeated.
  • routers C and D shown in FIG. 13 have the aggregation function and the restoration function, they have the restoration function unit 1 and the aggregation function unit 2 shown in FIG. Also, since the router H has only the restoration function, it has only the restoration function unit 1.
  • the router C determines whether there are a plurality of IP packets in the transmission queue (step R1). If there is no more than one IP packet in the transmission queue, repeat the determination in step R1. On the other hand, if there are multiple IP buckets in the transmission queue, the headers of any two IP buckets in the queue are referenced (step R2). These two IP buckets are referred to as IP buckets I and II, respectively.
  • step R 3 it is determined whether or not the route has a common part. If there is no common portion in the route, the process proceeds to step R1, and if there is a common portion in the route, the farthest node among the restoration nodes existing on the common route is searched (step R4).
  • the farthest router among the restoration nodes existing on this common route is referred to as FC (Farthest Common) zolator.
  • step R4 After the search in step R4, determine whether there is an FC router (step R4)
  • Step R6 IP packets ⁇ and ⁇ ⁇ are compressed to create an encapsulated aggregate bucket (Step R6).
  • This aggregation bucket is called IP bucket 3, and the destination is FC router.
  • the first or second packet compression method described with reference to FIGS. 6 to 10 or both are applied.
  • the number of bits of the IP packets (1), (2), and (3) is set to L1, L2, and L3, respectively, and (L1 + L2) is compared with L3 (step R7). If L 3 ⁇ (L 1 + L 2) does not hold as a result of the comparison, the IP packet 3 is discarded (step R 9), and the process proceeds to step R 1. On the other hand, if L 3 ⁇ (L 1 + L 2), the IP packets 1 and ⁇ ⁇ are discarded, and the IP packet 3 is routed to the FC router instead (step R8).
  • step ST1 When an IP packet is received (step ST1), it is determined whether the received IP packet has an aggregation flag (step ST2). If the aggregation flag is not attached, normal routing is performed (step ST6). On the other hand, if the aggregation flag is attached, it is determined whether or not the destination of the IP packet is its own router (step ST3). If the destination of the IP packet is not its own router, normal routing is performed (step ST6). If the destination of the IP packet is its own router, decapsulation (disassembly) is performed and the original IP packet is decomposed. Is restored (step ST4). Next, it is determined whether or not the restored IP bucket has an aggregation flag (step ST5). If the aggregation flag is not attached, normal routing is performed (step ST6). On the other hand, If so, the process proceeds to step ST3.
  • FIG. 17 in the IP packet format, a source IP address is added at the beginning, and a destination IP address is added next. Next, the aggregation flag is set if necessary, and finally the data section is provided.
  • Host A sends an IP bucket I to Host E. As shown in FIG. 17, the IP bucket I has a source of host A and a destination of host E. Host B also sends an IP bucket I I to host F. The IP bucket II has a source of host B and a destination of host F.
  • bucket I and the router C that has received the bucket I I execute the aggregation flow shown in Fig. 15 by its aggregation function, and create the aggregation bucket I I I.
  • bucket I and the difference between bucket I and I I are stored using a differential compression technique incorporating inter-frame correlation coding in a moving image.
  • the aggregation flag is set in the header, and router D, which is the FC router, is specified as the destination node of the aggregation packet.
  • Packet I I The number of bits in I
  • Bucket I I I is routed because it is less than the number of bits in I.
  • the designated node restores the aggregated packet.
  • the normal routing is performed in the node that is not specified, so that unnecessary restoration processing is avoided, and the relay processing can be made more efficient.
  • the relay point router G does not have a restoration function, and normally routes this bucket I I I.
  • This router G which does not have the restoration function, does not become the end point of the packet encapsulated by router C.
  • the relay point router H Upon receiving the aggregation bucket I I I, the relay point router H executes the restoration flow. According to FIG. 16, although the aggregation flag is set in the bucket I I I, since the destination address is not the router G, normal routing is eventually performed.
  • Router D executes the restoration flow shown in Figure 16. Run. As shown in Fig. 16, since the aggregation flag is set in packet III and the destination address is router D (owner), restoration is performed and packet VI (packet I has the same data configuration as packet I) is restored. Restore bucket VII (same data structure as bucket II). Here, the packet VI and the aggregated packet V may be aggregated again into another packet. Then, IP packets VI and V are transmitted to host E and host F, respectively.
  • a plurality of packets are aggregated and replaced with a single aggregated bucket, and the aggregated bucket is compressed. It reduces the total amount of information communicated over the network, and allows efficient use of network resources.
  • FIG. 18 is a diagram schematically showing a bucket communication system according to the third embodiment of the present invention.
  • an aggregated IP bucket is created from two IP packets using encapsulation, but two IP buckets are created without using force packeting technology. It is possible to create an aggregated Ethernet frame from.
  • an aggregated Ethernet frame is created from two IP packets. The premise is that a routing protocol is used on the network, as in the conventional Internet.
  • routers A and B have an aggregation function at the Ethernet level, and all routers on the network have a restoration function.
  • the aggregation function at the Ethernet level is a function for executing the processing shown in the flowchart of FIG.
  • the restoration function at the Ethernet level is a function that recognizes the aggregation flag of the aggregated Ethernet frame and extracts two IP buckets from the frame. A node that has both of these functions performs a restoration function for each received Ethernet frame, and executes an aggregation flow on the transmission queue in parallel.
  • Ethernet It is determined whether there are a plurality of frames (step Wl). If there are no multiple Ethernet frames in the transmission queue, repeat the determination in step W1. On the other hand, if there are multiple Ethernet frames in the transmission queue, the destination MAC addresses of any two Ethernet frames (1) and (2) in the queue are compared (step W2). It is determined whether the MAC address is common (step W3), and if not, the process proceeds to step W1. On the other hand, if the MAC address is common, both upper layer buckets in the data section of Ethernet frames 1 and 2 are stored in the data section, and the Ethernet frame 3 addressed to the common next hop MAC address is stored. Create (Step W 4).
  • step W5 it is determined whether or not the Ethernet frame 3 is within the MTU (Maximum Transmission Unit) (step W5). If not, the Ethernet frame 3 is discarded (step W6) and the process proceeds to step W1. Run. On the other hand, if Ethernet frame 3 is within the MTU in step W5, Ethernet frames 1 and ⁇ ⁇ are discarded, and Ethernet frame 3 is routed to the next hop instead (step W7).
  • MTU Maximum Transmission Unit
  • the destination MAC address is added at the beginning, and the source MAC address is added next.
  • the aggregation flag is set if necessary, and finally the data section is provided.
  • the source IP address and the destination IP address are stored in order.
  • An Ethernet frame I having the data portion of the IP packet I sent from the host A 1 on the Ethernet link A to the host B 1 on the Ethernet link B is transmitted, and the host A 2 on the link A transmits the link.
  • the Ethernet frame II in the IP packet II data part transmitted to the host B2 on B is transmitted.
  • Router A When these two frames are created in the queue, Router A's aggregation flow is executed. That is, the A creates an Ethernet header destined for the common destination, the router B, and stores the IP bucket I and the IP bucket II in the data part.
  • Figure 20 shows the created Ethernet frame V. Ethernet frame V is relayed to router B over Ethernet link C. At this time, in the Ethernet frame format, there is a flag set in the Ethernet header when the packet is an aggregation bucket. Since the Ethernet frame V is an “aggregation bucket”, the aggregation flag is set.
  • the router B Upon receiving the Ethernet frame V, the router B checks the restoration flag, and extracts two IP buckets I and I from the data part. Subsequently, the router B sends an Ethernet frame V I with the host B 1 as the destination MAC address and the host B 1
  • Ethernet frame V I I with B 2 as the destination MA C address is stored in the queue. Aggregation flow can be executed with this queue, but aggregation is not actually performed because the destination of the Ethernet frame is not common.
  • IP buckets I and I I are carried to Ethernet frames V I and V I I, respectively, and reach the hosts B 1 and B 2.
  • a recording medium refers to a reading device provided in hardware resources such as a general-purpose computer, which causes a change in the energy of magnetism, light, electricity, etc., according to the contents of a program, and outputs a signal corresponding thereto.
  • the description of the program can be transmitted to the reader.
  • Examples of such a recording medium include an IC card, a magnetic disk, an optical disk, and a magneto-optical disk.
  • non-volatile semiconductor memory such as HD (Hard Disk) that is fixedly built into the computer and firmware that is integrally fixed, such as firmware Is applicable.
  • the program may be configured such that a part or all of the program is received and recorded by a router or a node according to the present invention from another device via a transmission medium such as a communication line. Conversely, the program may be transmitted from the router or the node according to the present invention to another device via a transmission medium and installed.
  • the present invention when at least a part of the route to each destination address is common to a plurality of packets, information of the plurality of buckets is aggregated into one aggregated packet. Remake. Therefore, the total number of packets transmitted on the network can be reduced. Also, by reducing the total number of packets, the number of times the referencing of the rating table is reduced, the processing load can be reduced, and the processing speed can be improved. As a result, efficient use of network resources can be achieved.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Description

明糸田書
ルーチング方法、 ノード、 パケット通信システム、 プログラム、 及び記録媒体 技術分野
本発明は、 バケツト交換方式を用いたネッ 卜ワークにおいて、 ネットワーク資 源の利用効率を向上したルーチング方法、 ノード、 パケット通信システム、 プロ グラム、 及び記録媒体に関する。
背景技術
従来、 宛先が同一のノードで、 かつ同一のデータを含む複数のパケットが、 ル 一チングを行うノードに連続的に到着した場合であっても、 各バケツトは独立に 処理されている。 すなわち、 ルーチングを行う ードは、 到達した全てのバケツ トのヘッダ情報を参照して宛先のノードを特定し、 当該宛先に向けてそれぞれル 一チングを行う。
発明の開示
しかしながら、 上記従来技術では、 あるリンク上において、 同一のノードへ向 けて同一のデータが多数送信されることになり、 リンクレイヤヘッダによりリン ク帯域が圧迫されるという問題がある。 また、 パケットのデータ圧縮を行わない ことも、 リンク帯域の圧迫を引き起こしている。
そこで、 本発明は、 通信データ量を低減させ、 ネットワーク資源を効率的に利 用するルーチング方法、 ノード、 パケット通信システム、 プログラム、 及び記録 媒体を提供することを目的とする。
上記目的を達成するために、 本発明は以下に示す手段を講じた。
すなわち、 本発明に係るルーチング方法は、 パケットに付された宛先アドレス に基づいてバケツトのルーチングをするルーチング方法であって、 バケツ卜の宛 先アドレスを抽出するステップと、 複数のパケットについて、 抽出された宛先ァ ドレスに基づき、 それぞれの終点までの経路の少なくとも一部が共通している複 数のバケツトを抽出するステップと、 経路の少なくとも一部が共通している複数 のバケツトを集約して、 各バケツトの情報を含む集約バケツトを作成するステツ プと、 集約パケットの宛先アドレスが、 共通経路上の隣接ノードのア ドレスとな るように集約バケツ卜に宛先ァドレスを付与するステップと、 宛先ァドレスに基 づいて集約パケッ トをルーチングするステップとを含む。
本発明によれば、 複数のパケットに関して、 終点アドレスまでの経路の少なく とも一部が共通している場合は、 複数のバケツトの情報を集約して一つの集約パ ダットを再構成する。 したがって、 送信パケットの総数が減少すると共に、 ルー チングテーブルの参照回数が減少する。 これにより、 処理負担が軽減され処理速 度が向上する。 その結果、 ネットワーク資源の効率的な利用を図ることが可能と なる。
本発明に係るルーチング方法において好ましくは、 バケツトに付された宛先ァ ドレスに基づいてバケツトのルーチングを行うルーチング方法であって、 バケツ トの宛先ア ドレスを抽出するステップと、 複数のバケツトが集約された集約パケ ットから元の複数のバケツトを復元するステップと、 復元された各バケツトの宛 先ァドレスからそれぞれの終点までの経路の少なくとも一部が共通しているか否 かを判定するステップと、 判定の結果、 経路の少なくとも一部が共通している場 合は、 集約バケツトの宛先アドレスが共通経路上の隣接ノードのアドレスとなる ように集約パケットの宛先アドレスを書き換えてルーチングする。 一方、 共通す る経路がない場合は、 復元された各パケットを、 それぞれの宛先アドレスに基づ いてルーチングするステップとを含む。
本発明によれば、 集約パケットの状態で次ノードへ中継すべきか、 それとも元 となる複数のバケツトを集約バケツトから復元してそれぞれのバケツトを中継す べきかを判定する。 この判定の結果、 経路の少なくとも一部が共通している場合 は、 集約バケツ トの宛先ァドレスが共通経路上の隣接ノードのァドレスとなるよ うに集約パケットの宛先ア ドレスを書き換えてルーチングする。 したがって、 ネ ットワーク上のバケツト総数を減少させることが可能となる。 本発明に係るルーチング方法において好ましくは、 バケツトに付された宛先ァ ドレスに基づいて、 パケットのルーチングをするルーチング方法であって、 パケ ッ トの宛先アドレスを抽出するステップと、 複数のパケッ トについて、 抽出され た宛先アドレスに基づき、 それぞれの終点までの経路の少なくとも一部が共通し ている複数のパケットを抽出するステップと、 経路の少なくとも一部が共通して いる複数のバケツトを集約して、 各バケツトの情報を含む集約バケツトを作成す るステップと、 集約バケツトの宛先ァドレスが、 集約バケツトから元の複数のパ ケットを復元する機能を有する所定のノードのァドレスとなるように集約バケツ トに宛先ァドレスを付与するステップと、 決定された宛先ァドレスに基づいて集 約パケットをルーチングするステップとを含む。
本発明によれば、 集約バケツトの宛先ァドレスが、 集約バケツトから元の複数 のバケツトを復元する機能を有する所定のノードのァドレスとなるように集約パ ケットに宛先アドレスを付与し、 集約パケットを復元するノードを指定する。 こ れにより、 指定されたノードのみが集約パケットを復元するので、 指定されてい ないノードでは、 通常のルーチングが行われる。 その結果、 不要な復元処理が回 避され、 中継処理を効率化させることができる。
本発明に係るルーチング方法において好ましくは、 バケツトに付された宛先ァ ドレスに基づいてバケツトのルーチングをするノレ一チング方法であって、 バケツ トの宛先アドレスを抽出するステップと、 抽出された宛先アドレスが、 自ノード のアドレスと一致するか否かを判断するステップと、 判断の結果、 抽出された宛 先ァドレスが自ノードのァドレスと一致する場合は、 複数のバケツトが集約され た集約バケツトから元の複数のバケツトを復元するステップと、 復元された各パ ケッ ト、 又は自ノードのァドレスと一致しなかった宛先ァドレスを有する集約パ ケットを、 宛先アドレスに基づいてルーチングするステップとを含む。
本発明によれば、 集約パケッ トの宛先アドレスが自ノードのアドレスと一致す る場合にのみ、 集約パケットから元の複数のパケットを復元する。 すなわち、 復 元ノードとして指定されたノードのみが集約バケツトを復元する。 これにより、 指定されていないノードでは、 通常のルーチングが行われるので、 不要な復元処 理が回避され、 中継処理を効率化させることができる。
本発明に係るルーチング方法において好ましくは、 集約バケツトのヘッダ情報 に集約バケツトであることを示す集約フラグを設定するステップを含む。
これにより、 バケツトが集約バケツ卜であるか否かを簡易迅速に判断すること が可能となる。
本発明に係るルーチング方法において好ましくは、 経路の少なくとも一部が共 通している複数のバケツトの総ビット数と集約バケツトのビット数とを比較する ステップと、 比較の結果、 複数のバケツトの総ビット数よりも集約バケツトのビ ット数の方が小さい場合に限り、 集約パケットを、 その宛先アドレスに基づいて ルーチングするステップとを含む。
本発明によれば、複数のバケツトを集約して単一の集約バケツトに置き換える。 これにより、バケツトの総数とネットワーク上で通信される総情報量を低減させ、 ネットワーク資源を効率的に利用することが可能となる。
好適には、 本発明に係るルーチング方法は、 集約パケットを圧縮するステップ を更に含む。 集約バケツ 卜の圧縮は、 例えば、 集約バケツトに含まれるビットパ ターンを所定のコードに変換する、 あるいは、 上記複数のパケットに共通して含 まれるビット列を複数のバケツトの内の少なく とも 1つのバケツトから抜き出す 等の手法により実現可能である。 これにより、 パケットの総数とネットワーク上 で通信される総情報量を更に低減させ、 ネッ トワーク資源をより効率的に利用す ることが可能となる。
本発明に係るルーチング方法において好ましくは、 自ルータの送信キュー上に バッファされているバケツトのみを集約の対象とする構成を採る。
これにより、 複数のパケットから集約パケットを作成する機能を有するノード において、 集約バケツトの作成に伴う処理遅延時間の増大を抑えることが可能と なる。
本発明に係るノードは、 パケットに付された宛先アドレスに基づいて、 バケツ トのルーチングをするノードであって、 バケツトの宛先ァドレスを抽出する宛先 ァドレス抽出手段と、 複数のバケツトについて、 抽出された宛先ァドレスに基づ き、 それぞれの終点までの経路の少なくとも一部が共通している複数のパケット を抽出する経路共通バケツト抽出手段と、 経路の少なくとも一部が共通している 複数のバケツトを集約して、 各バケツトの情報を含む集約バケツトを作成する集 約パケット作成手段と、 集約パケットの宛先アドレスが、 共通経路上の隣接ノー ドのァドレスとなるように集約バケツトに宛先ァドレスを付与する宛先ァドレス 付与手段と、 宛先アドレスに基づいて集約パケットをルーチングする集約バケツ トルーチング手段とを備える構成を採る。
この構成により、 複数のパケットについて、 各終点アドレスまでの経路の少な くとも一部が共通している場合は、 複数のバケツトの情報を集約して一つの集約 バケツトを再構成するため、 ネットワーク上で通信されるバケツトの総数を減少 させることができる。 また、 パケット総数が減少することにより、 ルーチングテ 一ブルの参照回数を減少させ、 処理負担が軽減させ、 処理速度の向上を図ること ができる。その結果、ネットワーク資源の効率的な利用を図ることが可能となる。 本発明に係るノードにおいて好ましくは、 バケツトに付された宛先アドレスに 基づいて、 パケットのルーチングをするノードであって、 パケットの宛先アドレ スを抽出する宛先アドレス抽出手段と、 複数のパケットが集約された集約バケツ トから元の複数のバケツトを復元する復元手段と、 復元された各バケツトの宛先 ァドレスからそれぞれの終点までの経路の少なくとも一部が共通しているか否か を判定する判定手段と、 判定の結果、 経路の少なくとも一部が共通している場合 は、 集約バケツトの宛先ァドレスが共通経路上の隣接ノードのァドレスとなるよ うに集約パケットの宛先アドレスを書き換えてルーチングする一方、 共通する経 路がない場合は、 復元された各パケットを、 それぞれの宛先アドレスに基づいて ルーチングするバケツトルーチング手段とを備える構成を採る。
この構成により、 集約パケットの状態で次リンクへ中継すべき力、 それとも元 となる複数のバケツトを集約バケツトから復元してそれぞれのバケツトを中継す べきかを判定する。 この判定の結果、 経路の少なくとも一部が共通している場合 は、 集約パケットの宛先アドレスが共通経路上の隣接ノードのアドレスとなるよ うに集約バケツ 卜の宛先ァドレスを書き換えてルーチングするので、 ネッ トヮー ク上で通信されるパケット総数を減少させることが可能となる。
'本発明に係るノードにおいて好ましくは、 バケツトに付された宛先アドレスに 基づいて、 パケットの^/一チングをするノードであって、 パケットの宛先アドレ スを抽出する宛先アドレス抽出手段と、 複数のパケットについて、 抽出された宛 先アドレスに基づき、 それぞれの終点までの経路の少なくとも一部が共通してい る複数のバケツトを抽出する経路共通バケツト抽出手段と、 経路の少なくとも一 部が共通している複数のバケツトを集約して、 各バケツトの情報を含む集約パケ ットを作成する集約バケツト作成手段と、 集約バケツトの宛先アドレスが、 集約 バケツトから元の複数のバケツトを復元する機能を有する所定のノードのァドレ スとなるように集約バケツトに宛先ァドレスを付与する宛先ァドレス付与手段と、 決定された宛先ァドレスに基づいて集約バケツトをルーチングする集約バケツト ルーチング手段とを備える構成を採る。
このように、 集約バケツトの宛先ァドレス力 集約バケツトから元の複数のパ ケットを復元する機能を有する所定のノードのァドレスとなるように集約バケツ トに宛先アドレスを付与するので、 集約バケツトを復元するノードを指定するこ とができる。これにより、指定されたノードのみが集約バケツトを復元するので、 指定されていないノードでは、 通常のルーチングが行われる。 その結果、 不必要 な復元処理が回避され、 中継処理を効率化させることができる。
本発明に係るノードにおいて好ましくは、 パケットに付された宛先アドレスに 基づいて、 パケットのルーチングをするノードであって、 パケットの宛先アドレ スを抽出する宛先アドレス抽出手段と、 抽出された宛先アドレスが、 自ノードの アドレスと一致するか否かを判断するアドレス判断手段と、 判断の結果、 抽出さ れた宛先アドレスが、 自ノードのアドレスと一致する場合は、 複数のパケットが 集約された集約バケツトから元の複数のバケツトを復元する復元手段と、 復元さ れた各パケット、 又は自ノードのアドレスと一致しなかった宛先アドレスを有す る集約バケツトを、 宛先ァドレスに基づいてルーチングするバケツトルーチング 手段とを備える構成を採る。
このように、 集約パケッ トの宛先アドレスが、 自ノードのアドレスと一致する 場合にのみ、 集約パケットから元の複数のパケットを復元する。 すなわち、 復元 ノードとして指定されたノードのみが集約パケットを復元する。 これにより、 指 定されていないノードでは、 通常のルーチングが行われるので、 不必要な復元処 理が回避され、 中継処理を効率化させることができる。
本発明に係るノードにおいて好ましくは、 集約バケツトのヘッダ情報に集約パ ケットであることを示す集約フラグを設定する集約フラグ設定手段を備える構成 を採る。
これにより、 バケツトが集約バケツトであるか否かを簡易迅速に判断すること が可能となる。
本発明に係るノードにおいて好ましくは、 経路の少なくとも一部が共通してい る複数のバケツトの総ビット数と、 集約バケツ 卜のビット数とを比較するビット 数比較手段を備え、 集約バケツトルーチング手段は、 比較の結果、 複数のバケツ トの総ビット数よりも集約バケツトのビット数の方が小さい場合に限り、 集約パ ケットを、 その宛先アドレスに基づいてルーチングする構成を採る。
本発明によれば、複数のバケツ 卜を集約して単一の集約バケツ 卜に置き換える。 これにより、バケツ卜の総数とネットワーク上で通信される総情報量を低減させ、 ネットワーク資源を効率的に利用することが可能となる。
好適には、 本発明に係るノードは、 集約パケットを圧縮する集約パケット圧縮 手段を更に備える。 集約パケットの圧縮は、 例えば、 集約パケットに含まれるビ ットパターンを所定のコードに変換する、 あるいは、 上記複数のパケットに共通 して含まれるビット列を複数のバケツトの内の少なくとも 1つのバケツトから抜 き出す等の手法により可能である。 これにより、 パケッ トの総数とネットワーク 上で通信される総情報量を更に低減させ、 ネットワーク資源をより効率的に利用 することが可能となる。
本発明に係るノードにおいて好ましくは、 送信キュー上にバッファされている バケツトのみを集約の対象とする構成を採る。
これにより、 複数のバケツトから集約バケツトを作成する機能を有するノード において、 集約パケットの作成に伴う処理遅延時間の増大を抑えることが可能と なる。
本発明に係るパケット通信システムは、 パケットを送信するホストと、 バケツ トを中継する上記ノードと、 バケツトを受信するホストとを備えた構成を採る。 本発明によれば、 複数のパケットについて、 各終点アドレスまでの経路の少な くとも一部が共通している場合は、 複数のバケツトの情報を集約して一つの集約 バケツトを再構成するため、 ネットワーク上で通信されるバケツトの総数を減少 させることができる。 また、 これに伴い、 ルーチングテーブルの参照回数が減少 され処理負担が軽減される。 これにより、 処理速度が向上し、 その結果、 ネット ワーク資源の効率的な利用を図ることが可能となる。
本発明に係るプログラムは、 パケットに付された宛先アドレスに基づいて、 ノ、" ケットのルーチングをするプログラムであって、 バケツトの宛先ァドレスを抽出 する処理と、 複数のパケッ トについて、 抽出された宛先アドレスに基づき、 それ ぞれの終点までの経路の少なくとも一部が共通している複数のバケツ トを抽出す る処理と、 経路の少なくとも一部が共通している複数のパケットを集約して、 各 パケットの情報を含む集約パケットを作成する処理と、 集約パケットの宛先ァド レスが、 共通経路上の隣接ノードのアドレスとなるように集約バケツ 卜に宛先ァ ドレスを付与する処理と、 宛先アドレスに基づいて集約バケツトをルーチングす る処理とを通信装置に実行させる構成を採る。
本発明によれば、 複数のパケットについて、 各終点アドレスまでの経路の少な くとも一部が共通している場合は、 複数のバケツトの情報を集約して一つの集約 バケツトを再構成するため、 ネットワーク上で通信されるバケツトの総数を減少 させることができる。 また、 パケット総数が減少することにより、 ルーチングテ 一ブルの参照回数を減少させ、 処理負担が軽減させ、 処理速度の向上を図ること ができる。その結果、ネットワーク資源の効率的な利用を図ることが可能となる。 本発明に係るプログラムは、 パケットに付された宛先アドレスに基づいて、 ノ、。 ケットのルーチングをするプログラムであって、 パケットの宛先アドレスを抽出 する処理と、 複数のバケツトが集約された集約バケツトから元の複数のバケツト を復元する処理と、 復元された各バケツトの宛先アドレスからそれぞれの終点ま での経路の少なくとも一部が共通しているか否かを判定する処理と、判定の結果、 経路の少なくとも一部が共通している場合は、 集約バケツトの宛先アドレスが共 通経路上の隣接ノードのァドレスとなるように集約バケツ トの宛先ァドレスを書 き換えてルーチングする一方、 共通する経路がない場合は、 復元された各バケツ トを、 それぞれの宛先ァドレスに基づいてルーチングする処理とを通信装置に実 行させる構成を採る。
本発明によれば、 集約パケッ トの状態で次リンクへ中継すべきか、 それとも元 となる複数のバケツトを集約バケツトから復元してそれぞれのバケツトを中継す べきかを判定する。 この判定の結果、 経路の少なくとも一部が共通している場合 は、 集約バケツトの宛先アドレスが共通経路上の隣接ノードのアドレスとなるよ うに集約バケツトの宛先アドレスを書き換えてルーチングするので、 ネットヮー ク上で通信されるパケット総数を減少させることが可能となる。
本発明に係るプログラムは、 パケットに付された宛先アドレスに基づいて、 パ ケットのルーチングをするプログラムであって、 バケツトの宛先アドレスを抽出 する処理と、 複数のパケットについて、 抽出された宛先アドレスに基づき、 それ ぞれの終点までの経路の少なくとも一部が共通している複数のバケツトを抽出す る処理と、 経路の少なくとも一部が共通している複数のパケットを集約して、 各 バケツトの情報を含む集約バケツトを作成する処理と、 集約バケツトの宛先ァド レスが、 集約バケツトから元の複数のバケツトを復元する機能を有する所定のノ 一ドのァドレスとなるように集約バケツトに宛先ァドレスを付与する処理と、 決 定された宛先ァドレスに基づいて集約バケツトをルーチングする処理とを通信装 置に実行させる構成を採る。
本発明によれば、 集約バケツトの宛先ァドレスが、 集約バケツトから元の複数 のバケツトを復元する機能を有する所定のノードのァドレスとなるように集約パ ケットに宛先ァドレスを付与するので、 集約バケツトを復元するノードを指定す ることができる。 これにより、 指定されたノードのみが集約パケットを復元する ので、 指定されていないノードでは、 通常のルーチングが行われる。 その結果、 不必要な復元処理が回避され、 中継処理を効率化させることができる。
本発明に係るプログラムは、 パケットに付された宛先アドレスに基づいて、 パ ケットのルーチングをするプログラムであって、 バケツトの宛先ァドレスを抽出 する処理と、 抽出された宛先アドレスが、 自ノードのアドレスと一致するか否か を判断する処理と、 判断の結果、 抽出された宛先アドレスが、 自ノードのァドレ スと一致する場合は、 複数のバケツトが集約された集約バケツトから元の複数の パケットを復元する処理と、 復元された各パケット、 又は自ノードのアドレスと 一致しなかった宛先ァドレスを有する集約バケツ卜を、 宛先ァドレスに基づいて ルーチングする処理とを通信装置に実行させる構成を採る。
本発明によれば、 集約パケッ トの宛先アドレスが、 自ノードのアドレスと一致 する場合にのみ、 集約バケツ 卜から元の複数のバケツトを復元する。 すなわち、 復元ノードとして指定されたノードのみが集約バケツトを復元する。これにより、 指定されていないノードでは、 通常のルーチングが行われるので、 不必要な復元 処理が回避され、 中継処理を効率化させることができる。
本発明に係る記録媒体は、 上述したプログラムが記録されたコンピュータ読取 り可能な構成を採る。
本発明によれば、 複数のパケットについて、 各終点アドレスまでの経路の少な くとも一部が共通している場合は、 複数のパケットの情報を集約して一つの集約 バケツトを再構成するため、 ネットワーク上で通信されるバケツトの総数を減少 させることができる。 また、 パケット総数が減少することにより、 ルーチングテ 一ブルの参照回数を減少させ、 処理負担が軽減させ、 処理速度の向上を図ること ができる。その結果、ネットワーク資源の効率的な利用を図ることが可能となる。 図面の簡単な説明
図 1は、 本発明の第 1の実施の形態に係るバケツ 卜通信システムの概略を示す 図である。
図 2は、 集約機能及び復元機能を有するルータの概略構成を示すプロック図で ある。
図 3は、 集約機能を果たすフローチャートである。
図 4は、 復元機能を果たすフローチャートである。
図 5は、 I Pバケツトの構成を示す図である。
図 6は、 圧縮用テーブルのデータ格納例を示す図である。
図 7は、 パケット I , I I とビットパターンとの照合処理を概念的に示す図で ある。
図 8は、 第 1のバケツト圧縮方法によって圧縮されたバケツトの構成を示す概 念図である。
図 9 Aは、 バケツト I とパケット I I との共通個所を探索する処理を示す図で ある。 図 9 Bは、 検出されたビット列の一例を示す図である。
図 1 0は、 第 2のパケット圧縮方法によって圧縮されたパケットの構成を示す 概念図である。 図 1 1 Aは、 ルータ経由前のバケツト Iの構成の一例を示す図である。 図 1 1 Bは、 ルータ経由後のバケツト Iの構成の一例を示す図である。
図 1 2 Aは、 バケツト I Iの構成の一例を示す図である。 図 1 2 Bは、 集約さ れた集約バケツト Vの構成の一例を示す図である。
図 1 3は、 本発明の第 2の実施の形態に係るパケット通信システムの概略を示 す図である。
図 1 4は、 集約機能及び復元機能を有するルータの概略構成を示すプロック図 である。
図 1 5は、 集約機能を果たすフローチャートである。
図 1 6は、 復元機能を果たすフローチャートである。
図 1 7は、 I Pバケツトの構成を示す図である。
図 1 8は、 本発明の第 3の実施の形態に係るバケツト通信システムの概略を示 す図である。
図 1 9は、 Ethernet (登録商標) レベルの集約機能を示すフローチャートであ る。
図 2 0は、 Ethernetフレームの構成を示す図である。
発明を実施するための最良の形態
(第 1実施の形態)
図 1は、 本発明の第 1の実施の形態に係るバケツト通信システムの概略を示す 図である。 第 1の実施の形態におけるノードは、 複数の I Pバケツ 卜をまとめて 一つの I Pヘッダによりカプセリングすることで、 集約パケットを作成する。 こ こで、 前提としてネットワーク上では、 O S P F (Open Shortest Path First) などの経路制御プロトコルが働いているものとする。 図 1中、 ネットワーク中の すべてのルータは、 集約バケツトを元の複数のバケツトに復元する復元機能を備 えている。 例えば、 図 1中、 ルータ C, D , G , Hである。 また、 ルータ Cと H は、 復元機能のみならず、 I Pカプセル化、 すなわち複数のパケットを集約して 一つの集約バケツトを作成するバケツト集約機能を備えている。 復元機能のみを 有するルータ G、 Dは、 受信されたパケットそれぞれについて図 4に示す復元フ ローを実行する。 また、 復元機能及びパケッ ト集約機能を有するルータ C、 Hに おいては、 受信されたバケツトそれぞれについて図 4に示す復元フローを実行す ると共に、 送信側キュー上で図 3に示す集約フローを実行する。
図 2は、 第 1の実施の形態に係る集約機能及び復元機能を有するルータの概略 構成を示すブロック図である。 このルータは、 復元機能部 1と集約機能部 2とを 備えている。 復元機能部 1は、 通信インタフェース 3において、 リンクに対して パケットを送受信する。 宛先アドレス抽出 Z書き換え手段 4は、 受信したバケツ トの宛先アドレスを抽出する。 さらに、 受信したパケットの宛先アドレスを書き 換える機能を有する。 復元手段 5は、 複数のパケットが集約された集約パケット から元の複数のパケットを復元する。 判定手段 6は、 復元された各パケットの宛 先ァドレスからそれぞれの終点までの経路の少なくとも一部が共通しているか否 かを判定する。 宛先アドレス抽出/書き換え手段 4は、 判定手段 6による判定の 結果、 経路の少なくとも一部が共通している場合は、 集約パケットの宛先アドレ スが共通経路上の隣接ノードのアドレス (第 1の実施の形態ではルータ) となる ように集約バケツトの宛先アドレスを書き換える。パケットルーチング手段 7は、 書き換えられた宛先アドレスに基づいて集約バケツトをルーチングする。 一方、 パケットルーチング手段 7は、 上記判定の結果、 復元された各パケッ トに共通す る経路がない場合には、 復元された各パケットを、 それぞれの宛先アドレスに基 づいてルーチングする。
集約機能部 2は、 経路共通バケツ 卜抽出手段 8において、 複数のバケツトにつ いて、 抽出された宛先アドレスに基づき、 それぞれの終点までの経路の少なくと も一部が共通している複数のバケツトを抽出する。 集約バケツト作成手段 9は、 経路の少なくとも一部が共通している複数のバケツトを集約して、 各バケツトの 情報を含む集約バケツ トを作成する。 集約バケツト圧縮手段 1 8は、 後述の第 1及び第 2のバケツト圧縮方法を用い て集約バケツトを圧縮する。 また、 集約バケツト圧縮手段 1 8は、 圧縮用テープ ノレ 1 8 aを有する。 圧縮用テーブル 1 8 aは、 図 6に示す様に、 コード領域 1 8 1 aとビットパターン領域 1 8 2 aとを有する。 コード領域 1 8 1 aには、 3ビ ッ トのデータ (例えば、 "000"、 "001"、 "010"、 · · ·) がコードとして格納されて いる。 ビットパターン領域 1 8 2 aには、 任意のビット数を有するデータ (例え ば、 " 1011110011010100011110010111"、 "0000100011111111"、 · · · )がビットパタ ーンとして更新可能に格納されている。 コードは、 ビットパターンの特定に伴つ て決定される様に、 ビットパターンと一意的に対応付けられて格納されている。 宛先ァドレス付与手段 1 0は、 集約バケツトの宛先ァドレスが、 共通経路上の 隣接ルータとなるように集約バケツトに宛先ァドレスを付与する。 集約バケツト ルーチング手段 1 1は、宛先アドレスに基づいて集約バケツトをルーチングする。 また、 集約フラグ設定手段 1 2は、 集約バケツトのヘッダ情報に集約バケツ卜で あることを示す集約フラグを設定する。 ビット数比較手段 1 3は、 経路の少なく とも一部が共通している複数のバケツトの総ビット数と、 集約バケツ トのビット 数とを比較する。 ここで、 集約パケットルーチング手段 1 1は、 ビット数の比較 の結果、 複数のバケツトの総ビット数よりも集約バケツトのビット数の方が小さ い場合に限り、 集約パケットを、 その宛先アドレスに基づいてルーチングする。 また、 第 1の実施の形態では、 送信キュー上にバッファされているパケットのみ を集約の対象とする。
入出力インタフェース 1 4は、 CD- ROMなどの記録媒体に記録されているプログ ラムを読み取ったり、 データを画像表示する機能を果たす。 本実施の形態に係る ルーチング方法のプログラムは、 この入出力インタフェース 1 4を用いて記録媒 体から読み取ることが可能である。 記憶手段 1 5は、 入出力インタフェース 1 4 から読み取られたプログラムを記憶する。 以上の構成要素は、 制御バス 1 6 a及 び 1 6 bに接続され、 制御手段 1 7による制御を受ける。 制御手段 1 7は、 記憶 手段 1 5に記憶されているプログラムを実行する。
なお、 図 1に示すルータ C及びルータ Hは、 集約機能及び復元機能を備えてい るため、 図 2に示す復元機能部 1と集約機能部 2を備える。 また、 ルータ G及び ルータ Dは復元機能のみを備えているため、 復元機能部 1のみを備える。 但し、 ルータ G及びルータ Dに集約機能をもたせることも勿論可能である。
次に、 図 3に示す集約フローについて説明する。 まず、 送信キューに I Pパケ ッ卜が複数存在するか否かを判断する (ステップ S 1 )。送信キューに I Pバケツ トが複数存在しない場合は、 ステップ S 1における判断を繰り返し、 送信キュー に I Pバケツトが複数存在する場合は、 キュー中の任意の 2つの I Pバケツトの ヘッダ情報を参照する (ステップ S 2 )。 ここで、 この任意の 2つの I Pバケツト を、 I Pバケツト①及び②とする。
次に、 少なくとも経路の一部に共通部分があるか否かを判断する (ステップ S 3 )。 共通部分がない場合は、 ステップ S 1に移行し、 共通部分がある場合は、 I Pバケツト①及び②を圧縮してカプセル化した集約バケツトを作成する (ステツ プ S 4 )。 ここで、 作成された集約パケットを I Pパケット③とする。
以下、 パケット I, I Iがルータ Cにより集約され、 ルータ Dを経由してホス ト E, F宛に送信される場合を想定して、 本発明に係る集約パケットの第 1及び 第 2のバケツト圧縮方法について説明する。
まず、 図 6 , 図 7, 図 8を参照して、 第 1のパケット圧縮方法について説明す る。 ルータ Cは、 例えば図 7に示す様に、 ホス ト A, Bからそれぞれ受信された パケット I, I I と、 圧縮用テーブル 1 8 a (図 6参照) から取得されたビット パターン 1, 2 , 3 · · ·とを照合し、 パケット I , I Iに所定のビットパターンが 含まれるか否かを判定する。
なお、 パケットは 8 bit ( 1 byte) 単位のビット列により構成されているので、 処理効率の観点から、 ビットパターンは l byteずつずらして照合されることが望 ましい。 そして、 照合の結果バケツト I , I Iに含まれると判定されたビットパ ターンを、 対応するコードに変換する。
図 8は、 第 1のバケツト圧縮方法によって圧縮されたバケツ 卜の構成を概念的 に示す図である。 図 8に示す様に、 圧縮された集約パケット Vのデータ部分は、 圧縮情報 V 1と圧縮データ V 2とから構成される。 更に、 圧縮情報 V Iは、 フィ 一ルド F 1〜F 9により構成される。
フィールド F 1は、 集約及び復元機能をもつ全てのルータに共通の固定長 aを 有し、 集約パケット Vのデータ部分内に存在する圧縮個所の数 (例えば 4) を格 納する。 フィールド F 2は、 集約及び復元機能をもつ全てのルータに共通の固定 長 bを有するが、 次フィールドのビット数が可変長であることに鑑みて、 フィー ノレド F 3のビット数を宣言する為の次フィールドビット数 c 1を格納する。 フィ 一ルド F 3は可変長 c 1 (例えば lbyte、 500byte) を有し、 圧縮データ V2の先 頭から第 1圧縮個所である code 1までのバイ ト数 d 1を格納する。
同様に、 フィーノレド F 4, F 6, F 8は、 フィールド F 2と同様に、 次フィー ノレド F 5, F 7 , F 9のビット数を宣言する為の次フィールドビット数 c 2, c 3, c 4をそれぞれ格納する。 フィールド F 5, F 7, F 9は、 フィールド F 3 と同様に可変長 c 2, c 3, c 4を有し、 圧縮個所 (例えば code 1) の終端から 次の圧縮個所 (例えば code 2) までのバイ ト数 d 2, d 3, d 4をそれぞれ格納 する。
なお、 フィールド F 5, F 7, F 9は、 フィーノレド F 3と同様に、 圧縮データ V 2の先頭から各圧縮個所 (例えば code 2, 3, 4 ) までのバイ ト数を格納する ものとしてもよレ、。
これら何れの態様においても、 フィールド F 5, F 7, F 9は、 例えば 1 2bit の固定長とすることができ、 固定長とした場合には、 ビット数を宣言する為のフ ィーノレド F 2, F 4, F 6, F 8は必ずしも必要ではなくなる。
圧縮データ V2は、 バイ ト数 d 1, d 2, d 3, d 4の非圧縮部分と、 所与の
3 bitデータである圧縮部分 code 1, code 2, code 3 , code 4とが交互に配列さ れ構成されている。 F 1〜F 9に格納されている各データは、 集約パケット Vの データ部分を解凍してバケツト I, I Iを復元する際に、 ビットパターンへの変 換対象となるビット列を圧縮データ V 2の中から特定する為に使用される。
続いて、 図 9A, 図 9 B, 図 10を参照して、 第 2の圧縮方法について説明す る。 ルータ Cは、 ホスト A, Bからそれぞれ受信されたパケット Iとパケット I I との間に共通するデータ部分 (以下、 「共通個所」 と記す。) をパケット I Iか ら検出する。 すなわち、 図 9 Aに示す様に、 パケット Iの先端部分とパケッ ト I Iの終端部分とがー致する位置から、 バケツト Iの終端部分とバケツト I Iの先 端部分とがー致する位置まで、 バケツト I Iを 1バイ トずつ移動させて共通個所 を探索する。 探索効率の観点から、 移動させるバケツ トは、 相対的にビット数が 短いバケツトであることが望ましい。
探索は、 バケツト I とパケット I I との間でビット毎に排他的論理和を算出す ることにより行う。 探索の結果、 図 9 Bに示す様に、 バケツト Iとバケツト I I との間で同一のビットが "0" として、異なるビットが "1" として表現される。 本実施形態では、 バケツト I Iの先端部分から f バイ 卜の位置に、 gバイ トのビ ット数を有する共通個所が探索される。
具体的には、 バケツト I とバケツト I Iの共通ビット列を探索する処理は以下 のように行われる。 ここで、 集約される両パケットの内、 長い方をパケット I と し、 短い方をバケツト I I とし、 かつバケツト Iのバケツト長を L 1バイ ト、 ノヽ。 ケット Iの先頭から kビット目の値を B 1 (k_ 1) (すなわち、先頭ビットは B 1 (0)、 最後尾ビットは B 1 (L 1 * 8— 1)) とする。 また、 パケット I Iの パケット長を L 2バイ ト、 パケット I Iの先頭から hビット目の値を B 2 (h - 1) とする。 更に、 パケット I Iの先頭が探索対象とならない場合にパケット I とバケツト I Iの重複部分のバイト数を e ' とし、 先頭が探索対象となる場合に パケット Iの先頭から数えてパケット I Iの先頭までのバイ ト数を eとする。
0以上、 L 2未満の整数 e ' について、 ビット列 B 1 (0) 〜: B 1 (8 * e ' — 1) とビッ ト列 B 2 (8 *L 2— 8 * e ' ) 〜B 2 (8 *L 2— 1) との排他 的論理和をとる。 排他的論理和をとつた結果得られたビット列において、 先頭か ら f バイ ト置いて、 gバイ ト分連続して 0が並んでいる場合、 パケット I中のビ ット列 B 1 (8 * f ) 〜B 1 (8 * f + 8 * g— 1) と、 パケット I I中のビッ ト列 B 2 (8 * L 2-8 * e ' + 8 * f ) 〜B 2 (8 * L 2— 8 * e, + 8 * f
+ 8 * g- 1) とは共通部分である。
0以上、 L 1—L 2未満の整数 eについて、 ビット列 B 1 (8 * e) 〜B 1 (8 * e + 8 * L 2- l) とビット列 B 2 (0) 〜B 2 (8 * L 2 - 1 ) との排他的 論理和をとる。 排他的論理和をとつた結果得られたビット列において、 先頭から f バイ ト置いて、 gバイ ト分連続して 0が並んでいる場合、 パケット I中のビッ ト列 B 1 (8 * e + 8 * f ) 〜: Β (8 * e + 8 * f + 8 * g— 1) と、 ノヽ0ケッ ト I I中のビット列 B 2 (8 * f ) 〜B 2 (8 * f + 8 * g- l) とは共通部分 である。
L 1— L 2以上、 L 1未満の整数 eについて、 ビット列 B 1 (8 * e ) 〜; B 1 (8 * L 1 - 1) とビット列 B 2 (0) 〜: B 2 (8 * L 1— 8 * e— 1) との排 他的論理和をとる。 排他的論理和をとつた結果得られたビッ ト列において、 先頭 から f バイ ト置いて、 gバイ ト分連続して 0が並んでいる場合、 パケット I中の ビット列 B 1 (8 * e + 8 * f ) 〜: B l (8 * e + 8 * f + 8 * g— 1) と、 ノヽ。 ケット I I中のビット列 B 2 (8 * f ) 〜B 2 (8 * f + 8 * g- l) とは共通 部分である。
図 10は、 第 2のバケツト圧縮方法によって圧縮されたバケツトの構成を概念 的に示す図である。 図 10に示す様に、 圧縮された集約パケット Vのデータ部分 は、 圧縮情報 V 3と圧縮データ V4とから構成される。 更に、 圧縮情報 V3は、 フィ一ルド F l 1〜F 23により構成される。
フィールド F 1 1は、 集約及び復元機能をもつ全てのルータに共通の固定長 h を有し、 集約パケット Vのデータ部分内に存在する圧縮個所の数 (例えば 4) を 格納する。 フィールド F l 2は集約及び復元機能をもつ全てのルータに共通の固 定長 iを有し、 パケット Iにおける先頭から第 1の共通個所までのバイ ト数 j 1 を格納する。 同様に、 フィールド F 1 3は固定長 iを有し、 バケツト I Iにおけ る先頭から第 1の共通個所までのバイ ト数 k 1を格納する。 フィールド F 1 4は 集約及び復元機能をもつ全てのルータに共通の固定長 mを有し、 第 1の共通個所 のビット数を表すバイ ト数 n 1を格納する。
すなわち、 バイ ト数 gの共通個所は、 圧縮処理の結果、 バイ ト数 ( i X 2 +m) の圧縮情報に変更される。 このため、 g〉 i X 2 +mの関係が成り立つバイ ト数 gを少なくとも有するビッ 卜列が圧縮対象の共通個所として選定されることが、 第 2のパケット圧縮方法による圧縮効果を奏する為の条件となる。 すなわち、 こ の共通個所のバイ ト数から i X 2+mバイ ト分差し引いたバイ ト数が大きい程、 圧縮処理の効果は高くなる。
同様に、 フィールド F 1 5, F 1 8, F 2 1は、 集約及び復元機能をもつ全て のルータに共通の固定長 iを有し、 パケット Iにおける先頭から第 2、 第 3、 第 4の共通個所までのバイ ト数 j 2, j 3, j 4をそれぞれ格納する。 同様に、 フ ィーノレド F 1 6, F 1 9, F 2 2は固定長 iを有し、 パケット I Iにおける先頭 から第 2、 第 3、 第 4の共通個所までのバイ ト数 k 2, k 3, k 4をそれぞれ格 納する。 フィールド F 1 7, F 20, F 2 3は集約及び復元機能をもつ全てのル ータに共通の固定長 mを有し、 第 2、 第 3、 第 4の共通個所のビット数を表すバ イ ト数 n 2, n 3 , η 4を格納する。
圧縮データ V 4は、 図 1 0に示す様に、 非圧縮部分 V 4 1と圧縮部分 V4 2と により構成される。 非圧縮部分 V4 1は、 圧縮前と同一の一方のパケット (パケ ット I ) に相当し、 圧縮部分 V 42は、 第 1〜第 4の共通個所が抜き出された他 方のパケット (パケット I I ) に相当する。 つまり、 圧縮部分 V42は、 バケツ ト I とパケット I Iとの差分に該当するデータとなる。 F 1 1〜F 2 3に格納さ れている各データは、 集約バケツト Vのデータ部分を解凍してバケツト I , I I を復元する際に、 各共通個所を挿入する位置を圧縮データ V 4の中から特定する 為に使用される。 なお、 第 1及び第 2の圧縮方法を、 同一のパケットに対して重 畳的に適用することも可能である。 また、 集約されるパケットは 3つ以上であつ ても勿論よい。
上記第 1及び第 2の何れの圧縮方法を採った場合であっても、 圧縮の結果、 集 約バケツト Vのデータ部分のビット数は、 凡そ圧縮前の圧縮部分のビット数の合 計値から圧縮情報を差し引いたビッ ト数分短縮される。 しかし、 集約されるパケ ットの圧縮により短縮されたビット数が小さい場合には、集約及び圧縮した結果、 反対にビット数が増加する可能性がある。 そこで、 バケツト I, I Iの総ビット 数と集約バケツト Vの総ビット数との大小を比較すべく以下に示す処理が実行さ れる。
すなわち、 I Pバケツト①、 ②、 ③ (それぞれ上記バケツト I, I I, Vに相 当)のビット数をカウントし、カウン卜結果をそれぞれ L 1、 L 2、 L 3として、 (L 1 + L 2) と L 3との大小を比較する (ステップ S 5、 S 6)。 比較の結果、 L 3≤ (L 1 + L 2) とならない場合は、 I Pパケット③を廃棄して (ステップ
S 7)、 ステップ S Iに移行する。 一方、 L 3≤ (L 1 + L 2) となった場合は、 I Pバケツト①及び②を廃棄して、 I Pバケツト③を代わりに共通経路上の隣接 ルータへノレ一チングする (ステップ s 8)。
次に、図 4に示す復元フローについて説明する。 I Pバケツトを受信すると (ス テツプ T 1)、受信した I Pパケットに集約フラグが付いているか否かを判断する (ステップ T 2 )。集約フラグが付いていなレ、場合は、通常のルーチングを行う(ス テツプ T 3)。 一方、 集約フラグが付いていた場合は、 デカプセル (分解) し元の I Ρパケットを一旦復元する (ステップ Τ4)。
第 1のバケツト圧縮方法により圧縮されたパケットの復元に際しては、 事前処 理として解凍処理が必要になるが、 解凍する際には、 ルータ Dは、 圧縮データ内 の圧縮部分 (図 8の codel〜4) を圧縮用テーブル 18 aを参照して、 元のビッ トパターンに変換する。 また、 第 2のパケット圧縮方法により圧縮されたバケツ トの復元に先立って実行される解凍処理に際しては、 ルータ Dは、 圧縮時に抜き 出された共通個所のデータを圧縮データに挿入する。
そして、 元の各パケットの宛先を参照する。 参照の結果、 経路に共通部分があ るか否かを判断し (ステップ T 5 )、共通部分がない場合は、復元された各バケツ トを通常ルーチングすると共に、集約パケットを廃棄する(ステップ T 6 )。一方、 経路に共通部分がある場合は、 集約パケットのヘッダのみを作り変え、 宛先を共 通経路上の隣接ノード (ルータ) にする (ステップ Τ 7 )。 ここで、 データ部は、 コピーする。 ステップ Τ 7で作成された集約バケツトを通常ルーチングすると共 に、 復元された各パケットを廃棄する (ステップ Τ 8 )。
集約フラグがあることにより、 パケットが集約バケツトであるか否かを簡易迅 速に判断することが可能となる。
次に、 第 1の実施の形態の具体的なルーチングについて、 図 1及び図 5を参照 して説明する。 図 5に示すように、 I Ρパケットフォーマットは、 先頭に送信元 I Pアドレスが、 次に宛先 I Pアドレスが付加される。 次に、 必要に応じて集約 フラグが設定され、 最後にデータ部が設けられている。 図 1において、 ホス ト A はホス ト Eに向けて I Pパケット Iを送信する。 I Pパケット Iは、 図 5に示す ように、 送信元がホス ト A、 宛先がホス ト Eとなっている。 また、 ホス ト Bはホ スト Fに向けて I Pバケツト I Iを送信する。 I Pバケツト I Iは、 送信元がホ スト B、 宛先がホスト Fとなっている。
バケツト I、及びバケツト I Iを受け取ったルータ Cは、その集約機能により、 図 3に示す集約フローを実行し、 集約バケツト I I Iを作成する。 I Pバケツト I I Iは、図 5に示すように、送信元がルータ C、宛先がルータ Gとなっており、 集約フラグが設定されている。 データ部では、 動画像におけるフレーム間相関符 号化を取り入れた差分圧縮技術を用い、 バケツト I、 及びバケツト Iと I I との 差分が格納されている。 バケツト I I Iのビット数は、 バケツト I、 I Iのビッ ト数よりも小さいのでパケット I I Iがルーチングされる。
中継点のルータ Gは、 集約パケット I I Iを受け取ると、 図 4に示す復元フロ 一を実行する。 復元された元のパケットは、 この先も共通経路を有すると判定さ れて、 復元されたパケットは破棄される。 集約パケットは共通経路上の隣接ルー タ Hヘルーチングされる。 この集約パケットは、 図 5に示す構造を有する。 すな わち、送信元がルータ G、宛先がルータ Hであり、集約フラグが設定されている。 また、 データ部には、 バケツト I、 及びバケツト Iと I I との差分が格納されて いる。
中継点のルータ Hは、 ルータ Gと同様に動き、 集約パケット Vをルータ Dへ送 信する。 集約パケット Vは、 図 5に示すように、 送信元がルータ H、 宛先がルー タ D、 集約フラグが設定されており、 データ部には、 バケツト I、 及びバケツト I と I I との差分が格納されている。
ルータ Dは、集約パケット Vを受け取ると、図 4に示す復元フローを実行する。 図 4に示すように、 例えば、 集約パケット Vには集約フラグが設定されているの で、 復元を行い、 バケツト V I (バケツト I と同一のデータ構成) とバケツト V I I (バケツト I Iと同一のデータ構成) を復元する。 バケツト V I とバケツト V I Iはもはやこの先、 共通経路が存在しないので、 集約パケットが破棄されて 復元されたパケットがルーチングされる。 なお、 復元されたパケットが、 集約フ ローの実行により、 送信キュー上で再び別のバケツトに集約されることもあり得 る。 そして、 I Pパケット V I、 V I Iは、 それぞれホス ト E、 ホス ト F宛に送 信される。
以上のように、 第 1の実施の形態におけるパケット通信システムによれば、 複 数のバケツトについて、 各終点アドレスまでの経路の少なくとも一部が共通して いる場合は、 複数のバケツトの情報を集約して一つの集約バケツトに作り変える ことができるため、 ネットワーク上で通信されるパケットの総数を減少させるこ とができる。 また、 パケット総数が減少することにより、 ルーチングテーブルの 参照回数を減少させ、処理負担が軽減され、処理速度の向上を図ることができる。 その結果、 ネッ トワーク資源の効率的な利用を図ることが可能となる。 さらに、 集約バケツ 卜の状態で次リンクへ中継すべきか、 それとも元となる複数のバケツ トを集約バケツトから復元してそれぞれのバケツトを中継すべきかを判定する。 この判定の結果、 経路の少なくとも一部が共通している場合は、 集約バケツ 卜の 宛先アドレスが共通経路上の隣接ルータとなるように集約バケツトの宛先ァドレ スを書き換えてルーチングするので、 ネットワーク上で通信されるバケツト総数 を減少させることが可能となる。
以上、 図 1〜図 1 0を参照して、 集約パケッ ト Vの送信先がルータである場合 について説明したが、 集約パケット Vの送信先が移動端末である場合にも本発明 を適用可能である。 以下、 図 1、 図 1 1 A、 図 1 1 B、 図 1 2 A、 及び図 1 2 B を参照し、 Mobile I P v 6 (Internet Protocol Version 6) を使用してバケツ ト I , I Iから集約バケツト Vを生成する過程について説明する。 本説明におい ては、 パケット I , I Iの集約パケット Vが、 ホスト A , Bからルータ Cを経由 してモパイルホスト M (図示せず) 宛に送信される場合を想定する。
前提として、バケツト Iは、図 1 1 Aに示す様に、基本 I P V 6ヘッダ P 1 1、 経路制御ヘッダ P 1 2、 及びデータ領域 P 1 3を含んで構成される。 基本 I P V 6ヘッダ P 1 1には、 移動端末が移動先で一時的に使用する I Pアドレス (Care of address) が経由ァドレス 1として格納されている。 経路制御ヘッダ P 1 2に は、 バケツト Iが到達するモパイルホスト] VI固有のァドレス (Home address) 終点アドレス 2として格納されている。 ここで、 終点とは、 必ずしもパケットの 最終的な到達点である必要はなく、 任意のノード又はホスト間における共通経路 の終端点を含む。 なお、 データ領域 P 1 3には、 実データであるデータ 1が格納 されている。
バケツト I Iは、 図 1 2 Aに示す様に、 基本 I P V 6ヘッダ P 2 1、 及びデー タ領域 P 2 2を含んで構成される。 基本 I P V 6ヘッダ P 2 1には、 パケット I Iが到達するモパイルホス ト Mの固有ァドレスが終点ァドレス 2として格納され ている。 なお、 データ領域 P 2 2には、 実データであるデータ 2が格納されてい る。
バケツト Iとバケツト I I とが共にルータ Cに到達すると、 ルータ Cは、 パケ ット I, I Iを集約すると共に、 モパイルホスト Mの現在位置を示す終点ァドレ ス 1を付加して集約バケツト Vを生成する。 集約バケツト Vは、 図 1 2 Bに示す 様に、 ルーチング先として終点ァドレス 1を基本 I P V 6ヘッダ P 5 1に格納す る。 また、 データ領域 P 5 2には、 バケツト I及びバケツト I Iが同報される。 集約パケット Vが、 終点アドレス 1の示すノード (モパイルホスト M) に到達 すると、 モパイルホスト Mは、 集約バケツ ト Vからバケツト I , I Iを生成 (復 元) する。 このとき、 終点アドレス 1 と終点アドレス 2とは、 共にモパイルホス ト Mのアドレスである。 したがって、 モパイルホス ト Mは、 終点アドレス 1を先 頭に有する集約バケツト Vは元より、終点アドレス 2を先頭に有するバケツト I, I Iをも受信できる。 これにより、 バケツト I Iを他のノード (Home Agent) で 一旦カプセル化してモパイルホスト Mに転送する場合と比較して、 冗長経路を回 避したより効率的なバケツト送信が可能となる。
(第 2の実施の形態)
図 1 3は、 本発明の第 2の実施の形態に係るバケツト通信システムの概略を示 す図である。 第 2の実施の形態では、 複数の I Pパケットをまとめて一つの I P ヘッダによりカプセリングすることで集約パケットを作る。 なお、 前提として、 ネットワーク上では、 O S P Fなどの経路制御プロ トコルが働いており、 集約機 能を有するルータはネットワーク トポロジと、 どのノードが復元機能を有するか を知っているものとする。 なお、 集約機能を有するルータに対して、 ネットヮー ク トポロジ、及び復元機能を有するノ一ドの設定を手動で行うことも可能である。 ネットワーク中のルータ Gは、復元機能も集約機能も備えていなレ、。ルータ Hは、 デカプセルによる復元機能のみを備えている。 ルータ C及びルータ Dは、 カプセ ル化による集約機能とデカプセルによる復元機能との両方を備えている。ここで、 集約機能とは、 図 1 5のフローチャートに示す処理を実行する機能であり、 復元 機能とは、 図 1 6のフローチャートに示す処理を実行する機能である。 この両機 能を有するルータ C及びルータ Dは、 受信されたバケツトそれぞれについて復元 フローを実行しつつ、 送信キュー上で集約フローを並行して実行している。
図 1 4は、 第 2の実施の形態に係る集約機能及び復元機能を有するルータの概 略構成を示すブロック図である。 第 1の実施の形態と異なるのは、 復元機能部 1 における判定手段 6の代わりに、 抽出された宛先アドレスが、 自ルータのァドレ スと一致するか否かを判断するァドレス判断手段 7 0が設けられていることであ る。 また、 宛先アドレス付与手段 1 0は、 集約パケットの宛先アドレスが、 集約 バケツトから元の複数のバケツトを復元する機能を有する所定のノードのァドレ スとなるように集約パケットに宛先アドレスを付与する。 これにより、 復元ノー ドを指定することが可能となる。 その他の構成要素は、 第 1の実施の形態と同様 であるため、 説明を省略する。
なお、 図 1 3に示すルータ C及びルータ Dは、 集約機能及び復元機能を備えて いるため、 図 1 4に示す復元機能部 1と集約機能部 2を備える。 また、 ルータ H は復元機能のみを備えているため、 復元機能部 1のみを備える。
次に、 図 1 5に示す集約フローについて説明する。 まず、 ルータ Cは、 送信キ ユーに I Pパケットが複数存在するか否かを判断する (ステップ R 1 )。送信キュ 一に I Pパケットが複数存在しない場合は、 ステップ R 1の判断を繰り返す。 一 方、 送信キューに I Pバケツトが複数存在する場合は、 キュー中の任意の 2つの I Pバケツトのヘッダを参照する (ステップ R 2 )。 この任意の 2つの I Pバケツ トをそれぞれ I Pバケツト①及び②とする。
次に、 経路に共通部分があるか否かを判断する (ステップ R 3 )。 経路に共通部 分がない場合は、 ステップ R 1に移行し、 経路に共通部分がある場合は、 共通経 路上に存在する復元ノードのうち、 最も遠いノードを検索する (ステップ R 4 )。 以下、 この共通経路上に存在する復元ノー ドの内、 最も遠いルータを F C (Farthest Common) ゾレータと記す。 ノレータ Cは、 F Cルータであるルータ Dを宛 先として I Pパケットを送信することにより、 ルータ G, Hにおけるフラグ参照 処理や復元処理を省略して処理効率を向上する。
ステップ R 4における検索後、 F Cルータがあるか否かを判断し (ステップ R
5)、 FCルータがない場合は、 ステップ R 1に移行する。 FCルータがある場合 は、 I Pバケツト①及び②を圧縮してカプセル化した集約バケツトを作成する(ス テツプ R 6)。この集約バケツトを I Pバケツト③とし、宛先は F Cルータとする。 集約バケツ 卜の圧縮には、 図 6〜図 10を参照して説明した第 1若しくは第 2の パケット圧縮方法、 又はその双方が適用される。
次に、 I Pパケット①、 ②、 及び③のビット数をそれぞれ L 1、 L 2、 L 3と して (L 1 +L 2) と L 3との大小を比較する (ステップ R 7)。 比較の結果、 L 3≤ (L 1 + L 2) とならない場合は、 I Pパケット③を廃棄して (ステップ R 9)、 ステップ R 1に移行する。 一方、 L 3≤ (L 1 + L 2) となった場合は、 I Pパケット①及び②を廃棄して、 I Pパケット③を代わりに F Cルータへルーチ ングする (ステップ R 8)。
次に、 図 16に示す復元フローについて説明する。 I Pパケットを受信すると (ステップ ST 1)、受信した I Pバケツ 卜に集約フラグが付いているか否かを判 断する (ステップ ST 2)。 集約フラグが付いていない場合は、 通常のルーチング を行う (ステップ ST6)。 一方、 集約フラグが付いていた場合は、 その I Pパケ ットの宛先は自ルータであるか否かを判断する (ステップ S T 3)。その I Pパケ ットの宛先は自ルータでなレ、場合は、通常のルーチングを行い(ステップ S T 6 )、 その I Pパケットの宛先は自ルータである場合は、 デカプセル (分解) し元の I Pバケツトを復元する (ステップ ST4)。 次に、復元した I Pバケツトが集約フ ラグ付きであるか否かを判断し(ステップ ST 5)、集約フラグが付いていない場 合は、 通常のルーチングを行う (ステップ ST 6)。 一方、 集約フラグが付いてい た場合は、 ステップ S T 3へ移行する。
次に、 第 2の実施の形態の具体的なルーチングについて、 図 1 3及び図 1 7を 参照して説明する。 図 1 7に示すように、 I Pパケットフォーマットは、 先頭に 送信元 I Pアドレスが、 次に宛先 I Pアドレスが付加される。 次に、 必要に応じ て集約フラグが設定され、 最後にデータ部が設けられている。 図 1 3において、 ホスト Aはホスト Eに向けて I Pバケツト Iを送信する。 I Pバケツト Iは、 図 1 7に示すように、 送信元がホスト A、 宛先がホス ト Eとなっている。 また、 ホ スト Bはホスト Fに向けて I Pバケツ 卜 I Iを送信する。 I Pバケツト I Iは、 送信元がホス ト B、 宛先がホス ト Fとなっている。
バケツト I、及びバケツ ト I Iを受け取ったルータ Cは、その集約機能により、 図 1 5に示す集約フローを実行し、 集約バケツト I I Iを作成する。 図 1 7に示 すように、 データ部では、 動画像におけるフレーム間相関符号化を取り入れた差 分圧縮技術を用い、 バケツト I、 及びバケツト I と I I との差分が格納されてい る。 ヘッダ部には集約フラグを設定し、 集約パケットの宛先ノードとして F Cル ータとなるルータ Dを指定する。 パケット I I Iのビッ ト数は、 パケッ ト I、 I
Iのビット数よりも小さいので、 バケツト I I Iがルーチングされる。
これにより、 指定されたノードのみが集約パケットを復元する。 すなわち、 指 定されていないノードでは、 通常のルーチングが行われるので、 不必要な復元処 理が回避され、 中継処理を効率化させることができる。
中継点のルータ Gは、 復元機能を持たず、 このバケツト I I Iを通常ルーチン グする。 復元機能を持たないこのルータ Gが、 ルータ Cによりカプセル化された バケツ卜の終点になることはない。
中継点のルータ Hは、 集約バケツト I I Iを受け取ると、 復元フローを実行す る。 図 1 6に従えば、 バケツト I I Iには集約フラグが設定されているが、 宛先 アドレスがルータ Gでないため、 結局、 通常ルーチングが行われる。
ルータ Dは、 集約パケット I I Iを受け取ると、 図 1 6に示す復元フローを実 行する。図 1 6に示すように、パケット I I Iには集約フラグが設定されており、 宛先アドレスがルータ D (自ノレータ) であるため、復元を行い、バケツト V I (パ ケット Iと同一のデータ構成) とバケツト V I I (バケツト I I と同一のデータ 構成) を復元する。 ここで、 パケット V Iや集約パケット Vは、 別のパケットに 再度集約されることもあり得る。 そして、 I Pパケット V I、 Vは、 それぞれホ ス ト E、 ホス ト F宛に送信される。
以上のように、 第 2の実施の形態におけるパケット通信システムによれば、 複 数のパケットを集約して単一の集約バケツトに置き換え、 さらに集約バケツトに 圧縮をかけるので、 バケツトの総数とネットワーク上で通信される総情報量を低 減させ、 ネットワーク資源を効率的に利用することが可能となる。
(第 3の実施の形態)
図 1 8は、 本発明の第 3の実施の形態に係るバケツト通信システムの概略を示 す図である。 上記第 1の実施の形態及び第 2の実施の形態では、 2つの I Pパケ ットからカプセリングを用いて集約 I Pバケツトが作成されるものとしたが、 力 プセリング技術を用いずに 2つの I Pバケツトから集約 Ethernet (登録商標) フ レームを作ることが可能である。 第 3の実施の形態では、 2つの I Pパケットか ら集約 Ethernetフレームを作成する。前提として、ネットワーク上では従来のィ ンターネットと同様に、 経路制御プロ トコルが使用されている。
ここでは、 ルータ A及び Bは、 Ethernet レベルの集約機能を有し、 ネットヮー ク上のすべてのルータは復元機能を有する。 ここで、 Ethernet レベルの集約機能 とは、図 1 9のフローチヤ一トに示す処理を実行する機能である。また、 Ethernet レベルの復元機能とは、集約された Ethernetフレームの集約フラグを認識し、フ レームから 2つの I Pバケツトを取り出す機能である。 これらの両機能を有する ノードは、受信された Ethernetフレームそれぞれについて復元機能を実行し、送 信キュー上で集約フローを並行して実施している。
次に、図 1 9に示す集約フローについて説明する。まず、送信キューに Ethernet フレームが複数存在するか否かを判断する (ステップ W l )。 送信キューに Ethernetフレームが複数存在しない場合は、 ステップ W 1の判断を繰り返す。 一 方、送信キューに Ethernetフレームが複数存在する場合は、キュー中の任意の 2 つの Ethernet フレーム①及び②の宛先 MA Cアドレスを比較する (ステップ W 2)。 MACアドレスが共通であるか否かを判断し (ステップ W3)、 共通でなけ ればステップ W 1へ移行する。 一方、 MACアドレスが共通である場合は、 Ethernet フレーム①及び②のデータ部にあった上位層バケツトを 2つともデー タ部に格納し、共通の次ホップ MACァドレスを宛先にした Ethernetフレーム③ を作成する (ステップ W 4)。 次に、 Ethernet フレーム③は、 MTU (Maximum Transmission Unit) 以内であるか否かを判断し (ステップ W5)、 MTU以内で ない場合は、 Ethernet フレーム③を破棄し (ステップ W6)、 ステップ W1へ移 行する。 一方、 ステップ W5において、 Ethernetフレーム③が MTU以内である 場合は、 Ethernetフレーム①及び②を破棄し、 Ethernetフレーム③を代わりに次 ホップへルーチングする (ステップ W 7)。
次に、 第 3の実施の形態の具体的なルーチングについて、 図 18及び図 20を 参照して説明する。 図 20に示すように、 Ethernet フレームのフォーマットは、 先頭に宛先 MACアドレスが、 次に送信元 MACアドレスが付加される。 次に、 必要に応じて集約フラグが設定され、 最後にデータ部が設けられる。 データ部に は、 送信元 I Pアドレス、 宛先の I Pアドレスが順に格納される。
Ethernet リンク A上のホス ト A 1から Ethernet リンク B上のホス ト B 1宛に 送出された I Pバケツト Iをデータ部に有する Ethernetフレーム Iが送信され、 また、 リンク A上のホスト A 2からリンク B上のホスト B 2宛に送出された I P パケッ ト I Iデータ部に有する Ethernet フレーム I Iが送信される。 2つの Ethernetフレームを受信したノレータ Aは、 一度は、 I Pバケツト Iを/レータ Bに 送るための Ethernetフレーム I I I と、 I Pパケット Iをルータ Bに送るための
Ethernetフレーム I Vを作成する。 これら 2つのフレームがキューに作成されると、 ルータ Aの集約フローが実行 される。すなわち レータ Aは、共通の宛先であるルータ Bを宛先とした Ethernet ヘッダを作成し、データ部には I Pバケツト I及び I Pバケツ 卜 I Iを格納する。 作成された Ethernet フレーム Vを図 2 0に示す。 Ethernet フレーム Vは、 Ethernet リンク Cを通してルータ Bへ中継される。 この際、 Ethernetフレームフ ォーマツトでは、 Ethernetヘッダに集約バケツトであるときに設定されるフラグ が存在し、 Ethernetフレーム Vは 「集約バケツト」 であるため、 集約フラグが立 てられている。
Ethernetフレーム Vを受信したルータ Bは、 復元フラグを確認して、 データ部 から 2つの I Pバケツト I及び I Pバケツ ト I Iを取り出す。 続いて、 ルータ B は、 ホス ト B 1を宛先 MA Cァドレスとした Ethernetフレーム V I、及びホスト
B 2を宛先 MA Cァドレスとした Ethernetフレーム V I Iをキューに収納する。 このキューでも集約フローは実行され得るが、 Ethernetフレームの宛先は共通で ないため、 実際には集約は行われない。
I Pバケツト I , I Iは、 それぞれ Ethernetフレーム V I , V I Iに運ばれ、 ホスト B 1 , B 2へ届く。
以上のように、 第 3の実施の形態におけるバケツ ト通信システムによれば、
Ethernet フレームで集約を行うことにより、 オーバーヘッドが軽減され、 また、 各リンクの M T Uを最大限利用することが可能となる。
最後に、 本発明に係るルーチング技術を実現するためのプログラム、 及び当該 プログラムを記録したコンピュータ読取り可能な記録媒体 (以下、 単に 「記録媒 体」 と記す。) について説明する。 記録媒体とは、 汎用コンピュータ等のハードウ エア資源に備えられている読取り装置に対して、プログラムの記述内容に応じて、 磁気、 光、 電気等のエネルギーの変化状態を引き起こし、 それに対応する信号の 形式で、 読取り装置にプログラムの記述内容を伝達できるものである。 かかる記 録媒体としては、 例えば、 I Cカード、 磁気ディスク、 光ディスク、 光磁気ディ スクの様にコンピュータ(携帯端末を含む)に着脱可能に装着されるものの他に、 コンピュータに固定的に内蔵される H D (Hard Disk) や一体に固着されたファー ムゥエア等の不揮発性半導体メモリなどが該当する。
また、 上記プログラムは、 その一部若しくは全部を他の機器から通信回線等の 伝送媒体を介して、 本発明に係るルータあるいはノードにより受信され、 記録さ れる構成にしてもよい。 反対に、 上記プログラムは、 本発明に係るルータあるい はノードから伝送媒体を介して他の機器に伝送され、 インストールされる構成と してもよい。
産業上の利用可能性
以上説明したように、 本発明によれば、 複数のパケットについて、 各終点アド レスまでの経路の少なくとも一部が共通している場合は、 複数のバケツトの情報 を集約して一つの集約パケットに作り変える。 このため、 ネットワーク上で通信 されるパケットの総数を減少させることができる。 また、 パケット総数が減少す ることにより レーチングテーブルの参照回数を減少させ、処理負担が軽減させ、 処理速度の向上を図ることができる。 その結果、 ネットワーク資源の効率的な利 用を図ることが可能となる。

Claims

請求の範囲
1 . バケツトに付された宛先ァドレスに基づいて、 前記バケツトのルーチ ングをするルーチング方法であって、
バケツトの宛先ァドレスを抽出するステップと、
複数のパケットについて、 前記抽出された宛先アドレスに基づき、 それぞれの 終点までの経路の少なくとも一部が共通している複数のバケツトを抽出するステ ップと、
前記経路の少なくとも一部が共通している複数のバケツトを集約して、 各パケ ットの情報を含む集約バケツ 卜を作成するステップと、
前記集約バケツトの宛先ァドレスが、 前記共通経路上の隣接ノードのァドレス となるように前記集約バケツトに宛先ァドレスを付与するステップと、
前記宛先ァドレスに基づいて前記集約バケツトをルーチングするステップとを 含むことを特徴とするルーチング方法。
2 . パケッ トに付された宛先アドレスに基づいて、 前記パケットのルーチ ングをするルーチング方法であって、
バケツトの宛先ァドレスを抽出するステップと、
複数のバケツトが集約された集約バケツトから元の複数のバケツトを復元する ステップと、
前記復元された各バケツトの宛先ァドレスからそれぞれの終点までの経路の少 なくとも一部が共通しているか否かを判定するステップと、
前記判定の結果、 前記経路の少なくとも一部が共通している場合は、 前記集約 バケツ 卜の宛先ァドレスが前記共通経路上の隣接ノードのァドレスとなるように 前記集約バケツトの宛先アドレスを書き換えてルーチングする一方、 共通する経 路がない場合は、 前記復元された各パケッ トを、 それぞれの宛先アドレスに基づ いてノレ一チングするステップと
を含むことを特徴とするルーチング方法。
3 . パケットに付された宛先アドレスに基づいて、 前記パケットのルーチ ングをするルーチング方法であって、
バケツ卜の宛先ァドレスを抽出するステップと、
複数のパケッ トについて、 前記抽出された宛先アドレスに基づき、 それぞれの 終点までの経路の少なくとも一部が共通している複数のバケツ トを抽出するステ ップと、
前記経路の少なくとも一部が共通している複数のバケツトを集約して、 各パケ ットの情報を含む集約バケツトを作成するステップと、
前記集約バケツトの宛先アドレスが、 前記集約バケツトから元の複数のバケツ トを復元する機能を有する所定のノードのァドレスとなるように前記集約バケツ トに宛先ァドレスを付与するステップと、
前記決定された宛先ァドレスに基づいて前記集約バケツトをルーチングするス テツプと
を含むことを特徴とするルーチング方法。
4 . パケットに付された宛先アドレスに基づいて、 前記パケッ トのルーチ ングをするルーチング方法であって、
バケツ トの宛先ァドレスを抽出するステップと、
前記抽出された宛先ァドレスが、 自分のァドレスと一致するか否かを判断する ステップと、
前記判断の結果、 前記抽出された宛先アドレスが、 自分のアドレスと一致する 場合は、 複数のバケツトが集約された集約バケツトから元の複数のバケツトを復 元するステップと、
前記復元された各バケツト、 又は自分のァドレスと一致しなかった宛先ァドレ スを有する前記集約バケツトを、 宛先アドレスに基づいてルーチングするステツ プと
を含むことを特徴とするルーチング方法。
5 . 前記集約バケツトのヘッダ情報に集約バケツトであることを示す集約 フラグを設定するステツプを含むことを特徴とする請求項 1又は請求項 3記載の ルーチング方法。
6 . 前記経路の少なくとも一部が共通している複数のバケツトの総ビット 数と、 前記集約パケットのビット数とを比較するステップと、
前記比較の結果、 前記複数のバケツトの総ビット数よりも前記集約バケツトの ビット数の方が小さい場合に限り、 前記集約バケツトを、 その宛先ァドレスに基 づ!/、てルーチングするステップと
を含むことを特徴とする請求項 1又は請求項 3記載のルーチング方法。
7 . 送信キュー上にバッファされているパケッ トのみを集約の対象とする ことを特徴とする請求項 1又は請求項 3記載のルーチング方法。
8 . バケツトに付された宛先ァドレスに基づいて、 前記バケツトのルーチ ングをするノードであって、
バケツトの宛先ァドレスを抽出する宛先ァドレス抽出手段と、
複数のパケットについて、 前記抽出された宛先アドレスに基づき、 それぞれの 終点までの経路の少なくとも一部が共通している複数のバケツトを抽出する経路 共通バケツト抽出手段と、
前記経路の少なくとも一部が共通している複数のバケツトを集約して、 各パケ ットの情報を含む集約バケツトを作成する集約バケツト作成手段と、
前記集約バケツ トの宛先ァドレスが、 前記共通経路上の隣接ノードのァドレス となるように前記集約バケツトに宛先ァドレスを付与する宛先ァドレス付与手段 と、
前記宛先ァドレスに基づいて前記集約バケツトをル一チングする集約バケツト ルーチング手段と
を備えることを特徴とするノード。
9 . バケツトに付された宛先ァドレスに基づいて、 前記バケツトのルーチ -ドであって、
バケツトの宛先ァドレスを抽出する宛先ァドレス抽出手段と、
複数のバケツトが集約された集約バケツトから元の複数のバケツトを復元する 復元手段と、
前記復元された各バケツトの宛先アドレスからそれぞれの終点までの経路の少 なくとも一部が共通しているか否かを判定する判定手段と、
前記判定の結果、 前記経路の少なくとも一部が共通している場合は、 前記集約 バケツトの宛先ァドレスが前記共通経路上の隣接ノードのァドレスとなるように 前記集約バケツトの宛先アドレスを書き換えてルーチングする一方、 共通する経 路がない場合は、 前記復元された各パケットを、 それぞれの宛先アドレスに基づ いてルーチングするパケットルーチング手段と
を備えることを特徴とするノード。
1 0 . バケツトに付された宛先ァドレスに基づいて、 前記バケツトのルーチ ングをするノードであって、
バケツトの宛先ァドレスを抽出する宛先ァドレス抽出手段と、
複数のパケットについて、 前記抽出された宛先アドレスに基づき、 それぞれの 終点までの経路の少なくとも一部が共通している複数のバケツトを抽出する経路 共通バケツト抽出手段と、
前記経路の少なくとも一部が共通している複数のバケツトを集約して、 各パケ ッ 卜の情報を含む集約バケツトを作成する集約バケツト作成手段と、
前記集約バケツトの宛先ァドレス力 前記集約バケツトから元の複数のバケツ トを復元する機能を有する所定のノードのアドレスとなるように前記集約パケッ トに宛先ァドレスを付与する宛先ァドレス付与手段と、
前記決定された宛先ァドレスに基づいて前記集約バケツトをルーチングする集 約パケットルーチング手段と
を備えることを特徴とするノード。
1 1 . バケツトに付された宛先アドレスに基づいて、 前記バケツトのルーチ ングをするノードであって、
バケツトの宛先ァドレスを抽出する宛先ァドレス抽出手段と、
前記抽出された宛先ァドレスが、 自分のァドレスと一致するか否かを判断する アドレス判断手段と、
前記判断の結果、 前記抽出された宛先アドレスが、 自分のアドレスと一致する 場合は、 複数のバケツトが集約された集約バケツトから元の複数のバケツトを復 元する復元手段と、
前記復元された各バケツト、 又は自分のアドレスと一致しなかった宛先アドレ スを有する前記集約パケットを、 宛先アドレスに基づいてルーチングするバケツ トルーチング手段と
を備えることを特徴とするノード。
1 2 . 前記集約バケツトのヘッダ情報に集約バケツトであることを示す集約 フラグを設定する集約フラグ設定手段を備えることを特徴とする請求項 8又は請 求項 1 0記載のノード。
1 3 . 前記経路の少なくとも一部が共通している複数のバケツトの総ビット 数と、 前記集約パケットのビッ ト数とを比較するビット数比較手段を備え、 前記集約パケットルーチング手段は、 前記比較の結果、 前記複数のパケットの 総ビット数よりも前記集約バケツトのビット数の方が小さい場合に限り、 前記集 約パケットを、 その宛先アドレスに基づいてルーチングすることを特徴とする請 求項 8又は請求項 1 0記載のノ一ド。
1 4 . 送信キュー上にバッファされているバケツ 卜のみを集約の対象とする ことを特徴とする請求項 8又は請求項 1 0記載のノード。
1 5 . バケツトを送信するホス卜と、 前記バケツトを中継する請求項 8から 請求項 1 4のいずれかに記載のノードと、 前記バケツトを受信するホストとを備 えたバケツト通信システム。
1 6 . バケツトに付された宛先ァドレスに基づいて、 前記バケツトのルーチ ングをするプログラムであって、
バケツトの宛先ァドレスを抽出する処理と、
複数のパケットについて、 前記抽出された宛先アドレスに基づき、 それぞれの 終点までの経路の少なくとも一部が共通している複数のバケツトを抽出する処理 と、
前記経路の少なくとも一部が共通している複数のバケツトを集約して、 各パケ ットの情報を含む集約バケツトを作成する処理と、
前記集約バケツ トの宛先ァドレスが、 前記共通経路上の隣接ノードのァドレス となるように前記集約バケツトに宛先アドレスを付与する処理と、
前記宛先ァドレスに基づいて前記集約バケツトをルーチングする処理と を通信装置に実行させるプログラム。
1 7 . バケツトに付された宛先ァドレスに基づいて、 前記バケツトのルーチ ングをするプログラムであって、
パケットの宛先アドレスを抽出する処理と、
複数のバケツトが集約された集約バケツトから元の複数のバケツトを復元する 処理と、
前記復元された各バケツトの宛先ァドレスからそれぞれの終点までの経路の少 なくとも一部が共通しているか否かを判定する処理と、
前記判定の結果、 前記経路の少なくとも一部が共通している場合は、 前記集約 バケツトの宛先ァドレスが前記共通経路上の隣接ノードのァドレスとなるように 前記集約バケツトの宛先ァドレスを書き換えてルーチングする一方、 共通する経 路がない場合は、 前記復元された各パケットを、 それぞれの宛先アドレスに基づ レ、てルーチングする処理と
を通信装置に実行させるプログラム。
1 8 . バケツトに付された宛先ァドレスに基づいて、 前記バケツトのルーチ ングをするプログラムであって、
バケツトの宛先ァドレスを抽出する処理と、
複数のパケットについて、 前記抽出された宛先アドレスに基づき、 それぞれの 終点までの経路の少なくとも一部が共通している複数のバケツトを抽出する処理 と、
前記経路の少なくとも一部が共通している複数のバケツトを集約して、 各パケ ットの情報を含む集約バケツトを作成する処理と、
前記集約バケツトの宛先ァドレスが、 前記集約バケツトから元の複数のバケツ トを復元する機能を有する所定のノードのアドレスとなるように前記集約パケッ トに宛先アドレスを付与する処理と、
前記決定された宛先ァドレスに基づいて前記集約バケツトをルーチングする処 理と
を通信装置に実行させるプログラム。
1 9 . パケットに付された宛先アドレスに基づいて、 前記パケットのルーチ ングをするプログラムであって、
バケツトの宛先ァドレスを抽出する処理と、
前記抽出された宛先ァドレスが、 自分のァドレスと一致するか否かを判断する 処理と、
前記判断の結果、 前記抽出された宛先アドレスが、 自分のアドレスと一致する 場合は、 複数のバケツ 卜が集約された集約バケツトから元の複数のバケツトを復 元する処理と、
前記復元された各バケツト、 又は自分のァドレスと一致しなかった宛先ァドレ スを有する前記集約バケツトを、 宛先アドレスに基づいてルーチングする処理と を通信装置に実行させるプログラム。
2 0 . 請求項 1 6から請求項 1 9のいずれかに記載のプログラムが記録され たコンピュータ読み取り可能な記録媒体。
2 1 . 前記集約バケツ卜に含まれるビットパターンを所定のコードに変換す ることにより前記集約パケッ 卜を圧縮するステップを更に含むことを特徴とする 請求項 5に記載のルーチング方法。
2 2 . 前記複数のバケツトに共通して含まれるビット列を、 前記複数のパケ ットの内の少なくとも 1つのバケツトから抜き出すことにより前記集約バケツト を圧縮するステップを更に含むことを特徴とする請求項 5に記載のルーチング方 法。
2 3 . 前記集約バケツトに含まれるビットパターンを所定のコードに変換す ることにより前記集約バケツトを圧縮する集約バケツト圧縮手段を更に備えるこ とを特徴とする請求項 1 2に記載のノード。
2 4 . 前記複数のパケットに共通して含まれるビット列を、 前記複数のパケ ットの内の少なくとも 1つのバケツトから抜き出すことにより前記集約バケツト を圧縮する集約バケツト圧縮手段を更に備えることを特徴とする請求項 1 2に記 載のノード。
PCT/JP2002/006616 2001-06-28 2002-06-28 Routing method, node, packet communication system, program, and recording medium WO2003003673A1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR10-2003-7002866A KR100496217B1 (ko) 2001-06-28 2002-06-28 라우팅 방법, 노드, 패킷 통신 시스템, 프로그램 및 기록매체
JP2003509724A JP3778912B2 (ja) 2001-06-28 2002-06-28 ルーチング方法、ノード、パケット通信システム、プログラム、及び記録媒体
US10/362,366 US7301948B2 (en) 2001-06-28 2002-06-28 Routing method, node, packet communication system, program, and recording medium
EP02738885A EP1326387A4 (en) 2001-06-28 2002-06-28 FLIGHT PROCEDURE, KNOTS, PACKAGE COMMUNICATION SYSTEM, PROGRAM AND RECORDING MEDIUM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2001197216 2001-06-28
JP2001-197216 2001-06-28

Publications (1)

Publication Number Publication Date
WO2003003673A1 true WO2003003673A1 (en) 2003-01-09

Family

ID=19034860

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2002/006616 WO2003003673A1 (en) 2001-06-28 2002-06-28 Routing method, node, packet communication system, program, and recording medium

Country Status (6)

Country Link
US (1) US7301948B2 (ja)
EP (1) EP1326387A4 (ja)
JP (1) JP3778912B2 (ja)
KR (1) KR100496217B1 (ja)
CN (1) CN100418326C (ja)
WO (1) WO2003003673A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007251811A (ja) * 2006-03-17 2007-09-27 Toyota Infotechnology Center Co Ltd 無線通信装置、無線通信方法および経路情報テーブルの作成方法
US7561573B2 (en) 2005-03-23 2009-07-14 Fujitsu Limited Network adaptor, communication system and communication method
JP2020017118A (ja) * 2018-07-26 2020-01-30 株式会社東芝 ブローカ装置、クライアント装置、通信システム、通信方法、およびプログラム

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7983239B1 (en) 2003-01-07 2011-07-19 Raytheon Bbn Technologies Corp. Systems and methods for constructing a virtual model of a multi-hop, multi-access network
US7525994B2 (en) * 2003-01-30 2009-04-28 Avaya Inc. Packet data flow identification for multiplexing
US7881229B2 (en) 2003-08-08 2011-02-01 Raytheon Bbn Technologies Corp. Systems and methods for forming an adjacency graph for exchanging network routing data
US7545813B2 (en) * 2003-08-26 2009-06-09 Teknovus, Inc. Method and apparatus for registering multiple remote nodes in an ethernet passive optical network
US7606927B2 (en) * 2003-08-27 2009-10-20 Bbn Technologies Corp Systems and methods for forwarding data units in a communications network
US8166204B2 (en) * 2003-08-29 2012-04-24 Raytheon Bbn Technologies Corp. Systems and methods for automatically placing nodes in an ad hoc network
US8718089B2 (en) * 2003-09-08 2014-05-06 Toshiba America Research Inc. Aggregation and fragmentation of multiplexed downlink packets
US7680100B1 (en) 2004-09-30 2010-03-16 Avaya Inc. Internet protocol appliance manager
JP4532352B2 (ja) * 2005-06-10 2010-08-25 株式会社ネクストマジック 通信装置
US20070201440A1 (en) * 2006-02-28 2007-08-30 Nec Laboratories America, Inc. Improved voic-over-internet-protocol method
US20070242676A1 (en) * 2006-04-13 2007-10-18 Corrigent Systems Ltd. Interface between a synchronous network and high-speed ethernet
US7986697B2 (en) * 2006-06-13 2011-07-26 Freescale Semiconductor, Inc. Method for processing information fragments and a device having information fragment processing capabilities
JP4899664B2 (ja) * 2006-06-28 2012-03-21 富士通株式会社 通信装置、アドレス学習方法およびアドレス学習プログラム
TWI382718B (zh) * 2007-08-30 2013-01-11 無線傳輸移動語音資料之方法及其系統
US7760629B2 (en) * 2007-09-04 2010-07-20 Cisco Technology, Inc. Aggregate data frame generation
EP2073459A1 (en) * 2007-12-17 2009-06-24 Alcatel-Lucent Deutschland AG Transmission via a burst or frame switched network with timing preservation of the transmitted client packets
US9065726B2 (en) 2010-10-19 2015-06-23 At&T Intellectual Property I, L.P. Methods and apparatus to utilize route parameter sets for exchanging routes in a communication network
US8634316B2 (en) * 2010-10-19 2014-01-21 At&T Intellectual Property I, L.P. Methods and apparatus to utilize route aggregation for exchanging routes in a communication network
KR101188922B1 (ko) 2010-12-23 2012-10-08 숭실대학교산학협력단 무선 네트워크에 포함되는 노드 및 이의 주소 생성 방법
US9401853B2 (en) 2013-09-24 2016-07-26 International Business Machines Corporation Determining sampling rate from randomly sampled events
US9203711B2 (en) * 2013-09-24 2015-12-01 International Business Machines Corporation Port mirroring for sampling measurement of network flows

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62279400A (ja) * 1986-05-29 1987-12-04 沖電気工業株式会社 音声認識方法
JPS63197148A (ja) * 1987-02-12 1988-08-16 Mitsubishi Electric Corp パケツト交換装置
WO1997033406A1 (fr) * 1996-03-08 1997-09-12 Ntt Mobile Communications Network Inc. Systeme et procede de transmission atm multiplex a cellules courtes
JP2000209228A (ja) * 1999-01-19 2000-07-28 Nippon Telegr & Teleph Corp <Ntt> Ipパケット転送方法
JP2000349828A (ja) * 1999-06-01 2000-12-15 Nec Corp パケット転送方法および装置ならびにパケット通信システム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1032165A1 (en) 1999-02-26 2000-08-30 International Business Machines Corporation Method of assembling segmented frames of data transmitted over a backbone
JP3391291B2 (ja) * 1999-03-30 2003-03-31 日本電気株式会社 光波ネットワークデータ通信方式
WO2000072532A1 (en) 1999-05-24 2000-11-30 Rutgers, The State University Of New Jersey System and method for network packet reduction
US6385757B1 (en) * 1999-08-20 2002-05-07 Hewlett-Packard Company Auto design of VLIW processors
US6614808B1 (en) * 1999-09-02 2003-09-02 International Business Machines Corporation Network packet aggregation
US6359574B1 (en) * 2001-01-22 2002-03-19 Proxell Systems Ltd. Method for identifying longest common substrings

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62279400A (ja) * 1986-05-29 1987-12-04 沖電気工業株式会社 音声認識方法
JPS63197148A (ja) * 1987-02-12 1988-08-16 Mitsubishi Electric Corp パケツト交換装置
WO1997033406A1 (fr) * 1996-03-08 1997-09-12 Ntt Mobile Communications Network Inc. Systeme et procede de transmission atm multiplex a cellules courtes
JP2000209228A (ja) * 1999-01-19 2000-07-28 Nippon Telegr & Teleph Corp <Ntt> Ipパケット転送方法
JP2000349828A (ja) * 1999-06-01 2000-12-15 Nec Corp パケット転送方法および装置ならびにパケット通信システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1326387A4 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7561573B2 (en) 2005-03-23 2009-07-14 Fujitsu Limited Network adaptor, communication system and communication method
JP2007251811A (ja) * 2006-03-17 2007-09-27 Toyota Infotechnology Center Co Ltd 無線通信装置、無線通信方法および経路情報テーブルの作成方法
JP4572173B2 (ja) * 2006-03-17 2010-10-27 株式会社トヨタIt開発センター 無線通信装置、無線通信方法および経路情報テーブルの作成方法
JP2020017118A (ja) * 2018-07-26 2020-01-30 株式会社東芝 ブローカ装置、クライアント装置、通信システム、通信方法、およびプログラム
JP7163093B2 (ja) 2018-07-26 2022-10-31 株式会社東芝 ブローカ装置、通信システム、通信方法、およびプログラム

Also Published As

Publication number Publication date
US20030179751A1 (en) 2003-09-25
KR20040014965A (ko) 2004-02-18
CN1463523A (zh) 2003-12-24
JPWO2003003673A1 (ja) 2004-10-21
EP1326387A4 (en) 2006-06-07
CN100418326C (zh) 2008-09-10
KR100496217B1 (ko) 2005-06-21
US7301948B2 (en) 2007-11-27
EP1326387A1 (en) 2003-07-09
JP3778912B2 (ja) 2006-05-24

Similar Documents

Publication Publication Date Title
WO2003003673A1 (en) Routing method, node, packet communication system, program, and recording medium
CN100558072C (zh) 三层虚拟专用网转发报文的方法、系统和设备
JP3880404B2 (ja) Mplsネットワークシステム
CN101848171B (zh) 一种基于gre隧道的数据传输方法、设备和系统
US9444642B2 (en) LAN multiplexing apparatus
JP6275751B2 (ja) 改善された確認応答および再送機構
WO2004112326A1 (ja) パケット転送方法及び装置
JP2004140776A (ja) ネットワークにおけるフレーム転送方法及びノード、フレーム転送プログラム
US10701188B2 (en) Transfer device, communication system and communication method
JP2000115243A (ja) パケット中継装置およびマルチキャスト高速化方式
WO2004075482A1 (ja) ネットワークシステム、ラーニングブリッジノード、ラーニング方法及びそのプログラム
WO2005069551A1 (ja) ユーザmacフレーム転送方法、エッジ転送装置、およびプログラム
US20060007917A1 (en) Frame transfer method and edge switch
JP4120356B2 (ja) 拡張vlanタグswap方式
WO2021164245A1 (zh) 负载分担的方法、第一网络设备
CN114745318B (zh) 一种面向IPv6动态物联网的路径恢复方法
WO2020147784A1 (zh) 报文解封装方法及装置、报文封装方法及装置、电子装置和存储介质
CN105009542B (zh) 一种处理报文的方法和装置
CN115499366A (zh) 报文传输方法以及装置
CN104871497A (zh) 流表处理方法和装置
JP3584853B2 (ja) パケット交換機、パケット交換方法
JP2004266874A (ja) ネットワークにおけるフレーム転送方法及びノード、フレーム転送プログラム
CN112543142A (zh) 基于fpga实现rstp环网协议的方法和装置
WO2023125767A1 (zh) 一种报文传输方法、网络设备及系统
CN116032440A (zh) 一种数据处理方法、设备、系统以及介质

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CN JP KR SG US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR

ENP Entry into the national phase

Ref country code: JP

Ref document number: 2003 509724

Kind code of ref document: A

Format of ref document f/p: F

WWE Wipo information: entry into national phase

Ref document number: 2003509724

Country of ref document: JP

Ref document number: 028021347

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 1020037002866

Country of ref document: KR

Ref document number: 10362366

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2002738885

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2002738885

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020037002866

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 1020037002866

Country of ref document: KR