WO2007110986A1 - Network computing system and multi-processor computer - Google Patents

Network computing system and multi-processor computer Download PDF

Info

Publication number
WO2007110986A1
WO2007110986A1 PCT/JP2006/319677 JP2006319677W WO2007110986A1 WO 2007110986 A1 WO2007110986 A1 WO 2007110986A1 JP 2006319677 W JP2006319677 W JP 2006319677W WO 2007110986 A1 WO2007110986 A1 WO 2007110986A1
Authority
WO
WIPO (PCT)
Prior art keywords
resource
computer
network
hardware
processor
Prior art date
Application number
PCT/JP2006/319677
Other languages
French (fr)
Japanese (ja)
Inventor
Chisato Numaoka
Ken Kutaragi
Masayuki Chatani
Original Assignee
Sony Computer Entertainment Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc. filed Critical Sony Computer Entertainment Inc.
Publication of WO2007110986A1 publication Critical patent/WO2007110986A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5072Grid computing

Definitions

  • the present invention relates to a multiprocessor computer and a network computing system.
  • the present invention particularly relates to a technique of distributed processing by a plurality of computers on a network.
  • Grid computing is a method of constructing a virtual high-performance multiprocessing system by combining multiple computers with limited performance on a single unit via a network.
  • Grid computing users can achieve efficient computing using resources such as processors and memory provided by this virtual multiprocessing system.
  • the present inventor has made the present invention on the basis of the above problems, and an object thereof is to construct a mechanism for efficiently using hardware resources on the network. .
  • a network computing system includes a plurality of computers connected to each other via a network, and each of the plurality of computers includes a local memory.
  • Hardware resource information that can be provided via a network from a computer on the network by any processor in the multiprocessor including a plurality of processors that operate independently.
  • a computer that operates a resource manager that processes the provision of hardware resources to be managed while being loaded into local memory, and each has local memory Includes multiple processors that operate independently
  • a resource scheduler that receives hardware resource usage requests from computers on the network and allocates hardware resources provided by mediation of resource managers to the node resource usage requests by any processor in the multiprocessor.
  • the computer that operates in the state loaded in the memory, the hardware resource information is transmitted to the resource manager when the hardware resource can be provided to the other computer, and the hardware resource of the other computer is also transmitted.
  • a client computer that runs a resource management client that sends a request to use the hardware resource to the resource scheduler, and a computer on the network
  • the computer provides and uses the hardware resources with other computers, information on the amount of resources provided or used and the information necessary to identify the provider and users are displayed. Talia ring that is received from the resource management client and processes the payment of the usage fee A computer.
  • the “multiprocessor” may be a multiprocessor made into one chip.
  • the “processor” may operate independently without interrupt processing, and the “plurality of processors” may execute processing asynchronously with each other.
  • “Hardware resource” is the power that various hardware can conceive, such as V of multiple processors! /, And for computers with multiple multiprocessors, It may refer to any multiprocessor. Or it may be a part of a storage medium such as a memory or hard disk, a communication device such as wireless communication, or an external peripheral device.
  • the resource information indicating that the idle resource can be provided is transmitted to the resource manager, and conversely, the idle resource of another computer is used.
  • a resource usage request is sent to the resource scheduler.
  • the resource manager and the resource scheduler are distributed to different processors and operate independently, so that resources can be provided and used quickly and efficiently. Since the payment of the usage fee is processed for the provision and use of these idle resources and the profit is secured for both the resource provider and the user, the provision and use of the resource can be promoted.
  • This multiprocessor computer is provided by mediation of a resource manager that receives a hardware resource use request from a computer on a network and a multiprocessor including a plurality of processors each having a local memory and operating independently. Allocate hardware resources in response to requests to use hardware resources. Send and receive data to and from other multiprocessor computers running resource schedulers, and provide and use hardware resources of computers on the network. And a network communication unit for transmitting and receiving data to and from a clearing computer that processes the payment of the usage fee.
  • Multiprocessor other multiprocessor computer
  • a request to use hardware resources is sent to the resource scheduler that runs on any multiprocessor computer on the network, and when other computer hardware resources are used It includes a processor that runs a resource management client that sends information about the content of the request and the amount of resources used to the Clearing Now computer.
  • the provision of the resource can be received by transmitting a use request.
  • the contents of the usage request and the usage amount or the source amount are transmitted to the clearing-nose computer, so that the clearing-nose computer is used to settle the usage fee. Since the payment of the usage fee is processed for the provision and use of such idle resources and the profit is secured for both the resource provider and the user, the provision and use of the resource can be promoted.
  • FIG. 1 is a diagram illustrating an example of a basic configuration of a network computer using a one-chip multiprocessor.
  • FIG. 2 is a diagram showing an example of a network computing system in the present embodiment.
  • FIG. 3 is a diagram showing an example in which a resource manager and a resource scheduler operate on a server including two multiprocessors.
  • FIG. 4 is a diagram showing an example in which a resource manager and a resource scheduler operate in a server including two multiprocessors connected by a high-speed network or a high-speed bus.
  • FIG. 5 is a diagram showing an example in which a resource manager and a resource scheduler operate on sub-processors in each of two servers distributed on a network.
  • FIG. 6 A diagram showing a processing procedure in three processes of a resource scheduler, a resource manager, and a resource management client.
  • FIG. 7 is a diagram for explaining a mechanism by which a resource management client selects a resource manager according to a resource allocation record through an operation monitoring server.
  • FIG. 8 is a diagram for explaining a mechanism in which a resource management client selects a resource manager according to the scheduling efficiency performance through the operation monitoring server.
  • FIG. 9 is a diagram showing processing procedures in three processes of a resource scheduler, a resource manager, and a resource management client in the second embodiment.
  • FIG. 10 is a diagram showing a configuration of a one-chip multiprocessor in a first modified example.
  • FIG. 11 is a diagram showing a configuration of a one-chip multiprocessor in a second modified example. Explanation of symbols
  • the network computing system in the present embodiment is configured by connecting a plurality of computers incorporating a plurality of processors to a network.
  • Real-time resource management in this embodiment is realized by cooperation of each computer. First, the basic configuration of each computer incorporating a plurality of processors is described, and then the entire system is described.
  • FIG. 1 shows an example of a basic configuration of a network computer using a one-chip multiprocessor.
  • Network computer 10 includes multiprocessor 20, RF processor 29, AD converter 28, bridge 19, network interface 18, non-volatile memory 21, DVD player 22, USB23, graphics card 25, main memory 17, antenna 31, Conto mouth Equipped with a controller 24 and a monitor 27.
  • the multiprocessor 20 includes one main processor 100, a plurality of sub-processors 102, an I / O interface 104, and a memory controller 106, which are connected to the ring bus 108 so that each operates in parallel. Composed. Multiprocessor 20 in the present embodiment includes six processors as sub-processors 102. Each sub processor 102 is uniquely recognized on the ring bus 108 by an ID such as ⁇ SPU0 '' or ⁇ SPU1 '', for example, which processor sends a request to which processor via the ring bus 108! / To be able to identify!
  • the memory controller 106 is connected to the main memory 17 and mediates access to the main memory 17 by each sub-processor 102.
  • a power variation for explaining an example in which the main memory 17 is provided outside the multiprocessor 20 may be a configuration in which the main memory 17 is included in the multiprocessor 20.
  • the O interface 104 is connected to a bridge 19 for connection with various IZO devices, a graph status card 25, an RF processing unit 29 for processing wireless communication, and the like, and the main processor 100 and sub processor 102 control external devices. And mediate communication with external devices.
  • a network interface 18, a non-volatile memory 21, a DVD driver 22, and a USB 23 are connected to the bridge 19.
  • the network interface 18 mediates communication with a network such as a home LAN or the Internet.
  • the USB 23 mediates connection with a peripheral device such as a keyboard via the controller 24.
  • the graphics card 25 includes a frame memory 26 and outputs an image signal to the monitor 27.
  • the RF processing unit 29 includes a down converter 30 and is connected to the IZO interface 104 via the AD conversion 28. The RF processing unit 29 establishes wireless communication with the outside via the antenna 31.
  • the main processor 100 includes a processor core 110, an L1 cache 112, an L2 cache 114, and a sub memory controller 116.
  • the sub memory controller 116 includes a DMAC (Direct Memory Access Controller) 118.
  • an operating system hereinafter referred to as “OS”
  • OS operates, and a plurality of sub processors 102 operate based on the basic processing of the OS.
  • Each of the plurality of sub-processors 102 includes a processor core 120, a local memory 122, and a sub-memory controller 126.
  • the sub memory controller 126 includes a DMAC 128.
  • each of the sub-processors 102 has its own local memory 122, once the target program is loaded into the local memory 122, the target memory can be accessed without accessing the main memory 17 unless necessary. Can be continued.
  • the sub processor 102 is designed not to interrupt processing due to interrupts, so it is suitable for executing various processes described later at high speed and distributing and using resources in real time over the network. ing.
  • the sub processor 102 may execute a program that forms part of the OS, such as a device driver or a part of a system program, or a dedicated OS that controls the entire sub processor 102 operates. Also good.
  • the main processor 100 and the sub processor 102 are configured by an instruction set architecture (ISA) having different instruction sets.
  • ISA instruction set architecture
  • the main processor 100 operates a program that manages only the use of resources included in the computer, whereas the sub processor 102 manages the use and provision of resources included in other computers on the network. The program works.
  • FIG. 2 shows an example of a network computing system in the present embodiment.
  • the network computing system 50 includes a server 41 and a sano 54 each including a multiprocessor 20, a high performance computer 52 including a plurality of multiprocessors 20 connected by a switching network 42, a personal computer 53 including a multiprocessor 20, a multiprocessor Home appliances 55 including 20 and personal computers 56 including processors other than the multiprocessor 20 are included in the form of being connected to the network 51.
  • the network 51 may be the Internet or a LAN such as a home network. Note that the configuration of the network combining system 50 in this figure is merely an example, and the hardware configuration and the number of units connected to the network 51 are arbitrary.
  • the multiprocessor 20 of the server 41 includes a plurality of sub-processors 102 and one main processor 100.
  • Each component included in the power processor is basically the same as each component included in the network computer 10 in FIG. The same.
  • Server 41 has 102 Then, the process for executing the real-time resource management of this embodiment operates.
  • a resource manager program runs on the first sub-processor 102
  • a resource scheduler program runs on the second sub-processor 102
  • a resource management client program runs on the third sub-processor 102.
  • the resource manager program operates on one of the plurality of sub-processors 102 included in the server 41
  • the resource scheduler program operates on one of the sub-processors 102 included in the server 54. May be.
  • the resource management client may run on any computer included in the network computing system 50.
  • Clearing Knows 77 records the use and provision status of resources by each computer, and processes the charge for the use.
  • the operation monitoring server 98 manages the performance and efficiency of allocation for resource usage requests. The operations of the resource manager, resource scheduler, and resource management client will be described in detail below, and then the operations of the tallying house 77 and the operation monitoring server 98 will be described in detail.
  • the resource manager in the present embodiment determines whether or not computing resources such as the multiprocessor 20 and the subprocessor 102 included in the multiprocessor 20 in any of the computers connected to the network 51 can be provided to other computers. It is a process operating on one sub-processor 102 for management. When any of the computing resources becomes available to other computers, the resource manager receives the computer power resource information having the available resources via the network 51.
  • the resource manager operates in cooperation with a resource scheduler described later.
  • the resource manager receives a resource use request from the resource scheduler, executes a process for allocating the resources specified in the request, and returns a response to the resource scheduler.
  • the resource manager divides the usage requests according to the specs of each computer and returns them to the resource scheduler.
  • the resource manager has a resource management table that classifies resources that can be provided by resource type. For example, the resource manager subtracts the value of the resource counter, which is the number of resources that can be allocated for each resource type, every time resource allocation is performed. This avoids allocating multiple resources on a specific computer at the same time or allocating resource resources on the same computer over and over, and places a heavy burden on a specific computer. Can be suppressed.
  • the resource manager If the resource manager cannot allocate a resource usage request, it returns a response indicating that allocation is impossible to the resource scheduler.
  • the resource manager maintains a manager management table that manages at least some resource managers that operate on sub-processors on the same or different servers.
  • the resource manager generates resource amount information indicating the amount of resources managed by the resource management table, and periodically exchanges resource amount information with other resource managers managed by the manager management table.
  • the resource manager refers to the manager management table, selects the resource manager that manages more available resources, and returns the identification information of the selected resource manager to the corresponding resource scheduler.
  • the resource scheduler in the present embodiment is a process that is executed while occupying one sub-processor.
  • the resource scheduler receives a resource use request from any of the computers connected to the network 51, it sends the use request to the resource manager asynchronously.
  • the resource scheduler waits for a resource to be allocated to the transmitted usage request, and after the resource is allocated by the resource manager, transfers the usage request to the computer that holds the allocated resource. If the computer that owns the resource is divided into multiple, the resource manager divides the usage request into multiple, and the resource scheduler transfers these divided usage requests to the corresponding computers.
  • the scheduling queue is preferably held in the local memory 122 in the sub processor 102 in which the resource scheduler operates! /, But may be held in the main memory 17.
  • any scheduling method known to those skilled in the art can be employed.
  • FIFO-type scheduling that processes use requests in the order of arrival may be employed.
  • information indicating that the usage request can be identified is sent to the computer that issued the usage request.
  • the resource manager receives the identification information of another resource manager from the corresponding resource manager, the resource manager asynchronously sends a use request to the resource manager and returns a response to the use request. If there is, the usage request may be sent to the computer that owns the resource according to the allocation.
  • a method of processing a usage request based on priority may be adopted.
  • usage requests that include more resource constraints are processed preferentially.
  • usage requests with fewer resource constraints may be processed preferentially.
  • priority may be added to the usage request, and the processing order may be determined according to the priority. In this case, you may want to have a scheduling mailing queue according to the priority.
  • the resource management client in the present embodiment is a process that operates as a client on each computer included in the network computing system in the present embodiment.
  • Resource management clients have at least three roles, for example:
  • the resource management client shifts provided resource information indicating the content of the resource that can be provided. To the resource manager.
  • the resource management client manages multiple multiprocessors. For example, in the high performance computer 52 of FIG. 2, even if the resource management client is operated only by the multiprocessor connected to the network interface NIC, the resources of all the multiprocessors connected to the switching network 42 are managed. Yo! / (2) When a resource shortage occurs on the computer on which the resource management client operates, the resource management client transmits a use request to one of the resource schedulers on the network 51.
  • the resource management client When the resource management client receives a usage request from another computer, the resource management client allocates a resource included in the multiprocessor 20 managed by itself to the computer that has transmitted the usage request.
  • the simplified resource management client in which the roles (1) and (3) are omitted is operated, and the multiprocessor 20 By issuing a use request on the network 51 to which a plurality of computers with a built-in computer are connected, the computer with the built-in multi-processor 20 performs the processing.
  • FIGS. 3 to 5 show examples in which three processes of a resource manager, a resource scheduler, and a resource management client are arranged on one or more multiprocessor servers.
  • FIG. 3 shows an example in which the resource manager and the resource scheduler operate in the server 60 including one multiprocessor 20.
  • the resource manager 202 operates on the sub-processor 102 to which the ID of “SPU1” is assigned, and the ID of “SPU2” is assigned.
  • a resource scheduler 206 operates in the sub processor 102.
  • FIG. 4 shows an example in which a resource manager and a resource scheduler operate in a server 62 including two multiprocessors 20 connected by a high-speed network or a high-speed bus.
  • two sub-processors 102 are selected so as to span two multiprocessors 20, and a resource manager 202 and a resource scheduler 206 operate in each.
  • the resource manager 202 operates in the sub processor 102 to which the ID of “SPU1” included in one multiprocessor 20 is assigned, and the subprocessor to which the ID of “SPU2” included in the other multiprocessor 20 is assigned.
  • the resource scheduler 206 operates.
  • the two multiprocessors 20 are connected by a high-speed bus or a high-speed network.
  • FIG. 5 shows an example in which the resource manager and the resource scheduler operate on the sub-processor 102 in each of the two servers 64 and 66 distributed on the network 51.
  • two sub-processors 102 are selected so as to span two servers 64 and 66, and a resource manager 202 and a resource scheduler 206 operate in each. That is, the resource manager 202 operates in the sub processor 102 to which the ID “SPU2” included in the multiprocessor 20 of one Sano 64 is assigned, and the “SPU3” included in the multiprocessor 20 of the other server 66.
  • the resource scheduler 206 operates in the sub processor 102 to which the ID is assigned.
  • FIG. 6 shows a processing procedure in the three processes of the resource scheduler, the resource manager, and the resource management client.
  • a plurality of clearing nodes 77 may be included in the network 51.
  • the authentication of the resource management client 200 is executed when the resource management client 200 first accesses a predetermined clearing nose 77. In this authentication process, the resource management client 200 sends a certificate or resource management client ID for certifying that the software is properly created to the clearing node 77. If this certificate is successfully authenticated by Clearinghouse 77, an electronic signature is sent to the resource management client 200. When the authenticated resource management client 200 communicates with the clearinghouse 77, it sends a message with an electronic signature attached thereto.
  • the resource provider sets whether or not to provide part or all of the computer's resources to other computers through the provision setting interface 220.
  • the provided setting interface 220 may be configured integrally with the resource management client 200, or may be configured as software separated from the resource management client 200.
  • the offer setting interface 220 calculates an evaluation value of dividends to be paid when the provided resource is used by another computer, and displays it on the computer screen. After confirming the displayed evaluation amount, the resource provider sets the resource provision amount such as the number of sub processors, the number of multiprocessors, the memory capacity, and the provision time through the provision setting interface 220.
  • the provision setting interface 220 of the resource management client 200a operating on the resource provider's computer network provides the provided resource information including the set resource provision contents, the computer identification information, and the provider's personal information. Transfer to Clearing Now 77 via (S2).
  • the computer identification information is, for example, an IP address assigned to the computer in the network 51.
  • the provider's personal information includes, for example, the provider's name, contact information such as a telephone number and email address, information necessary to identify the provider, such as an account number and credit card number, and payment of usage fees to the provider. This is necessary information. Communication between the computer and Clearing Now 77 should be kept secure.
  • the clearing node and the mouse 77 write the information received from the provision setting interface 220 to the provider list 222 indicating the provider of the resource to be managed.
  • the user who wishes to use the resource inputs the setting for concluding the use contract with Clearing Now 77 through the use setting interface 224.
  • the usage setting interface 224 may be configured integrally with the resource management client 200 or may be configured as software separated from the resource management client 200. Those who wish to use the resource conclude the use contract with Clearing Knows 77 through the use setting interface 224 via the resource management client 200b operating on the computer.
  • As a usage contract it is necessary to specify the user name, contact information such as phone number and e-mail address, account number and credit card number.
  • the information and the information necessary for charging the user's usage fee are registered in Clearinghouse 77 (S4). When such information is registered in the clearing node 77, the clearing node 77 sends an electronic signature for uniquely identifying and authenticating the resource user to the resource user's computer.
  • the resource management client 200a of a computer in which an available idle resource has been generated transmits provided resource information for registering the idle resource to the selected resource manager 202 (S10).
  • the resource management client 200b of the computer that has detected a resource shortage such as a shortage of sub-processors issues a use request to the selected resource scheduler 206 to request the use of an idle resource in another computer (S 12)
  • the usage request is put in the request queue 208 of the resource scheduler 206.
  • the resource management client 200b reads out the electronic signature of the storage area where the electronic signature of the resource user is stored, and transmits it to the resource scheduler 206 together with the usage request.
  • the request queue 208 is implemented in the form of a FIFO queue. Note that the resource scheduler 206 occupies the sub-processor 102 and can execute processing.
  • the request queue 208 may be in the local memory 122 in the sub-processor 102! Yo!
  • the resource scheduler 206 extracts a usage request from the head of the request queue 208, and asynchronously transmits the usage request to the corresponding resource manager 202 (S14). That is, the resource scheduler 206 does not wait for the response of the resource manager 202 to this usage request, and if the allocation resource queue 210 is empty at this time, the next usage request is taken out from the request queue 208 and processed, and the allocation resource queue If 210 is not empty, go to S16. Note that the resource scheduler 206 occupies the sub-processor 102 and executes its processing.
  • the resource allocation resource queue 210 may be in the local memory 122 in the sub-processor 102 or in the main memory 17. Good.
  • the resource manager 202 adds the usage request received from the resource scheduler 206 to the request queue 212.
  • the resource manager 202 retrieves the usage request from the head force of the request queue 212, and manages and allocates the idle resource power to the appropriate resource, and uses resource allocation information indicating the result of the allocation. It returns a response to the resource scheduler 206 that is the source of the request (S16).
  • This resource allocation information is a plurality of usage request packets formed by dividing the original usage request, and each computer is assigned to the allocated resource. These plurality of usage request packets enter the allocation resource queue 210.
  • the resource manager 202 occupies the sub processor 102 and the processing is executed.
  • the request queue 212 may be in the local memory 122 in the sub processor 102 or may be in the main memory 17. .
  • the resource scheduler 206 extracts the usage request packet from its head, and forwards the usage request packet to the resource management client 200a of the computer holding the allocated idle resource. (S 18). In the computer that provides the resource that has received the use request packet, the resource management client 200a allocates the resource corresponding to the use request and executes the requested process.
  • the resource management client 200b transmits to the clearing nose 77 information that can identify the use request and the destination computer of the use request. To do.
  • Talia Ring House 77 executes a process of charging the usage fee to the user specified from the electronic signature of the resource user included in the usage request according to the amount of resources allocated in the usage request.
  • the personal information ability account number or credit card number of the resource provider specified by the identification information of the computer to which the use request is transmitted is taken out and assigned to the account specified by these information by the use request.
  • An instruction to pay a usage fee determined according to the amount of resources allocated is issued.
  • the amount of the usage fee paid to the provider of the resource used does not exceed the amount of the usage fee charged to the resource user! Set as / ⁇ .
  • FIG. 7 shows that the resource management client 200 is reset by the operation monitoring server 98. It is a figure explaining the mechanism which selects the resource manager 202 according to a source allocation track record.
  • the operation monitoring server 98 receives the resource allocation record 230 at regular intervals from one or more resource managers 202 operating on a sub processor of the server connected to the network 51 (S50), and manages the resource allocation record 230. .
  • the resource allocation performance 230 at regular intervals includes, for example, the number of usage requests received at regular intervals and the amount of resources successfully allocated at regular intervals.
  • resource allocation record 230 is sent from computer A indicating that the number of usage requests within a certain period of time is 60, and computer B power is also used with 150 requests within a certain period of time.
  • a resource allocation record 230 indicating that the request has been made is sent, and a resource allocation record 230 indicating that the number of usage requests was 80 times within a certain time is sent from the computer C.
  • the resource management client 200 receives the resource allocation record 230 of each computer from the operation monitoring server 98 (S52), and refers to the resource allocation record to select a resource manager with higher resource operation efficiency.
  • the resource provider receives a dividend for the usage fee according to the amount of the resource used, and receives a higher dividend if the idle resource provided for use by others is used more. be able to. Therefore, select one of the resource managers 202 with a higher resource allocation record so that more dividends can be provided to the resource provider, and select the resource manager 202 according to the change in resource allocation record. Change over (S54).
  • the resource management client 200 may automatically change the resource manager 202 according to the resource allocation result, or may change the resource manager 202 based on an explicit instruction from the resource provider.
  • the resource management client 200 presents the resource provider with a list containing the IDs of available resource managers and their resource allocation performance 230, Receive explicit selection instructions from resource providers.
  • FIG. 8 is a diagram illustrating a mechanism in which the resource management client 200 selects the resource scheduler 206 according to the scheduling efficiency performance through the operation monitoring server 98.
  • the operation monitoring server 98 is a sub-server of the server connected to the network 51.
  • the schedule efficiency record 240 is received at regular intervals from one or more resource schedulers 206 that operate in the mouth set (S60), and the schedule efficiency record 240 is managed.
  • the schedule efficiency record 240 may be an average waiting time until a resource is allocated for a request for use in scheduling, or may be a request allocation success rate.
  • the resource management client 200 receives the schedule efficiency record 240 of each computer from the operation monitoring server 98 (S62), and refers to the schedule efficiency record 240 in order to select the resource scheduler 206 with higher schedule efficiency.
  • a resource user desires that resources be allocated more continuously.
  • the resource management client 200 may automatically change the resource scheduler 206 according to the schedule efficiency record, or may change it based on an explicit instruction from the resource user.
  • the resource management client 200 presents the resource user with a list including the IDs of available resource schedulers and their schedule efficiency results 240, and then performs resource allocation. Receive explicit selection instructions from the service user.
  • This embodiment is different from the first embodiment in that the consideration for use is settled between the resource user and the provider by exchanging predetermined points with the resource.
  • points can be given to the resource provider, and other points can be used using the points.
  • Resource exchange can be realized.
  • “Points” here serve as a virtual currency when paying for the use of resources and can be converted into resource amounts.
  • the “resource amount” here refers not only to the amount of hardware resources such as the number of sub processors, memory capacity, peripheral devices' devices such as WiFi device drivers, but also to resource usage time such as WiFi device driver occupation time. A concept is also included.
  • FIG. 9 shows processing procedures in three processes of the resource scheduler, the resource manager, and the resource management client in the second embodiment. In the following, differences from the first embodiment will be mainly described, and description of common points will be omitted.
  • the resource provider and the owner of the computer who will be the user, can use it with Clearing Knows 77 by opening a point account for resource exchange through the account setting interface 226. Sign a contract.
  • the account setting interface 226 transfers the computer identification information and the owner's personal information as information necessary for the use contract to the thalia ring house 77 via the network 51.
  • the owner's personal information includes, for example, the name of the owner, contact information such as phone number and email address, identification information of the point account, etc., information necessary to identify the owner, and resource exchange points to the owner Information necessary for granting. Communication between the computer and Clearing Now 77 should be kept secure.
  • Talia Ring House 77 sends an electronic signature to the computer that opened the point account to uniquely identify and authenticate the owner.
  • the clearinghouse 77 identifies the owner's personal information including the point account by electronic signature.
  • the point account may be placed in the clearinghouse 77 or may be placed on another server in the network 51. However, if it is located on a separate server from Clearing Now 77, it must be possible for Taliaring House 77 to have direct access to that server.
  • the resource provider sets whether or not to provide part or all of the computer's resources to other computers through the provision setting interface 220.
  • the provision setting interface 220 calculates the evaluation value of the resource exchange point that can be used later when the computer uses the resource of the other computer when the resource to be provided is used by another computer. Displayed on the computer screen.
  • the provided resource information in this embodiment is transferred from the provision setting interface 220 to the clearing nose 77 together with an electronic signature, and the clearing noun 77 Then, it is written in the provider list 222.
  • the resource management client 200b operating on a computer that detects a shortage of resources such as a shortage of sub-processors confirms whether or not it has sufficient points to exchange for the shortage resources with a point account.
  • a use request is transmitted to the resource scheduler 206.
  • the resource management client 200b reads out the electronic signature with a predetermined storage area capability, and transmits it to the resource scheduler 206 together with the usage request.
  • the resource management client 200b sends a usage request and information that can identify the destination computer of the usage request to the clearing node 77. To do. Upon receiving the use request, Talia Ring House 77 identifies the user from the electronic signature included in the use request according to the amount of resources allocated in the use request, and calculates the points from the user's point account. Pull. On the other hand, the personal information ability of the resource provider identified by the identification information of the destination computer of the usage request is extracted, and the identification information of the point account is taken out and determined for the point account according to the amount of resources allocated by the usage request. Give instructions to add the amount of points. Here, it is preferable that the resource exchange point added to the provider of the used resource is set so as not to exceed the resource exchange point from which the resource user power is also subtracted.
  • the multiprocessor configured as an asymmetric type is exemplified as the multiprocessor 20 installed in the network computer 10.
  • a symmetric multiprocessor is installed in the network computer 10.
  • a configuration may be adopted.
  • FIG. 10 shows a configuration of the one-chip multiprocessor in the first modification.
  • the multiprocessor 300 shown in this figure is mounted on the network computer 10 instead of the multiprocessor 20 in FIG.
  • the multiprocessor 300 includes a first processor 302, a second processor 304, a first L1 cache 306, a second L1 cache 308, a first L2 cache 310, a second L2 cache 312, and a memory controller 314.
  • the first processor 302, the first L1 cache 306, the first L2 cache 310, and the memory controller 314 are connected to each other and operate as a processor unit that replaces the main processor 100 or the sub processor 102 of FIG.
  • the second processor 304, the second L1 cache 308, the second L2 cache 312 and the memory controller 314 are also connected to each other and operate as a processor unit in place of the main processor 100 or the sub processor 102 in FIG.
  • only one memory controller 314 is mounted on the multiprocessor 300 and is shared by the first processor 302 unit and the second processor 304 unit.
  • the first processor 302 and the second processor 304 are connected to each other!
  • the first processor 302, the first L1 cache 306, the first L2 cache 310, the second processor 304, the second L1 cache 308, and the second L2 cache 312 are connected via the memory controller 314. It is constructed symmetrically. Of the first processor 302 and the second processor 304, one processor may operate in a main and sub relationship in which a task is assigned to the other processor.
  • FIG. 11 shows a configuration of a one-chip multiprocessor in the second modification.
  • the multiprocessor 320 shown in this figure is also installed in the network computer 10 instead of the multiprocessor 20 in FIG.
  • the multiprocessor 320 includes a first processor 322, a second processor 324, a first L1 cache 326, a second L1 cache 328, an L2 cache 330, and a memory controller 332.
  • the first processor 322, the first L1 cache 326, the L2 cache 330, and the memory controller 332 are connected to each other and operate as a processor unit that replaces the main processor 100 or the sub processor 102 in FIG.
  • the second processor 324, the second L1 cache 328, the L2 cache 330, and the memory controller 332 are also connected to a processor that replaces the main processor 100 or the sub processor 102 in FIG. Operates as a unit.
  • only one L2 cache 330 and one memory controller 332 are installed in the multiprocessor 320, and the L2 cache 330 and the memory controller 332 are shared by the first processor 322 unit and the second processor 324 unit.
  • the first processor 322 and the second processor 324 are connected to each other.
  • the first processor 322, the first L1 cache 326, the second processor 324, the second L1 cache 328, the force L2 cache 330, and the memory controller 332 are configured symmetrically.
  • one processor may operate in a main and sub relationship in which a task is assigned to the other processor.
  • a power exemplifying a configuration having two processors as a symmetric multiprocessor may be a configuration having a larger number of processors, for example, four or more processors. ,.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multi Processors (AREA)

Abstract

The need for improving the resource management and task scheduling efficiency in decentralized processing on a network is unavoidably increasing. In a multi-processor computer, one sub-processor (102) included in a multi-processor (20) receives and manages information of resources, which can be provided via a network from computers thereon, and, when receiving a resource use request, causes a resource manager for processing the provisions of managed resources to be loaded on a local memory (122) for operation. The other sub-processors (102) each receive and manage a resource use request from a computer on the network, and cause a resource scheduler for assigning a resource provided by an intervention of the resource manager to the resource use request to be loaded on the local memory (122) for operation.

Description

技術分野  Technical field
[0001] この発明は、マルチプロセッサコンピュータおよびネットワークコンピューティングシ ステムに関する。この発明は特に、ネットワーク上の複数のコンピュータによる分散処 理の技術に関する。  [0001] The present invention relates to a multiprocessor computer and a network computing system. The present invention particularly relates to a technique of distributed processing by a plurality of computers on a network.
背景技術  Background art
[0002] 分散コンピューティングの一形態として、グリッドコンピューティングと呼ばれる手法 が近年よく利用される。グリッドコンピューティングは、 1台では性能の限られたコンビ ユータを、ネットワークを介して複数結合することにより、仮想的な高性能マルチプロ セッシングシステムを構築する方法である。グリッドコンピューティングの利用者は、こ の仮想的なマルチプロセッシングシステムの提供するプロセッサやメモリといったリソ ースを使って効率的なコンピューティングを実現できる。  As a form of distributed computing, a technique called grid computing has been frequently used in recent years. Grid computing is a method of constructing a virtual high-performance multiprocessing system by combining multiple computers with limited performance on a single unit via a network. Grid computing users can achieve efficient computing using resources such as processors and memory provided by this virtual multiprocessing system.
[0003] グリッドコンピューティングにおいては、基本的に異機種 PCを結合することが頻繁 に行われる。このため、一般的には、それぞれのコンピュータに対してタスク(「ジョブ」 または「プロセス」とも ヽぅ)を割り当てるためのインタフェースを用意し、このインタフエ ースを介して、各コンピュータのリソースを割り当てることになる。  [0003] In grid computing, basically, heterogeneous PCs are frequently combined. For this reason, in general, an interface is provided for assigning tasks (also called “jobs” or “processes”) to each computer, and the resources of each computer are assigned via this interface. It will be.
発明の開示  Disclosure of the invention
発明が解決しょうとする課題  Problems to be solved by the invention
[0004] ここで、リソースに対するタスクの割り当て頻度が比較的低い場合にはタスクスケジ ユーリングの問題は少ない。この場合、複数のコンピュータに対していつたんタスクが 割り当てられると、各タスクが終了するまでプロセッサをほぼ占有できるからである。  [0004] Here, when the frequency of task assignment to resources is relatively low, there are few problems with task scheduling. In this case, once a task is assigned to multiple computers, the processor can be almost occupied until each task is completed.
[0005] しかしながら、各プロセッサの性能が比較的高ぐ一つのプロセッサで一つのタスク の実行に要する時間が比較的短いような場合、ネットワーク中に分散されたリソース の管理やタスクスケジューリングの効率がシステムの全体性能に与える影響は大きい 。実際、近年のワンチップマルチプロセッサは従来の汎用プロセッサに比較して飛躍 的に性能が向上して 、るため、リソース管理の向上やタスクスケジューリングの高効 率ィ匕は避けて通れない課題となりつつある。また、複数のコンピュータによる分散処 理をより多くのコンピュータユーザへ広められるようなシステムの枠組みが構築されな ければ、タスクスケジューリングの高効率化も望めない。 [0005] However, when the time required to execute one task is relatively short with one processor having a relatively high performance of each processor, the efficiency of management of resources distributed in the network and task scheduling is improved. The impact on the overall performance of is large. In fact, recent one-chip multiprocessors have made a leap forward compared to conventional general-purpose processors. As performance is improved, improving resource management and high efficiency of task scheduling are becoming issues that cannot be avoided. In addition, if a system framework that can spread distributed processing by multiple computers to more computer users is not established, it will not be possible to increase the efficiency of task scheduling.
[0006] 本発明者は以上の課題に基づき本発明をなしたもので、その目的は、ネットワーク 上のハードウェアリソースを効率よく利用できるようにするための仕^ aみを構築する点 にある。  [0006] The present inventor has made the present invention on the basis of the above problems, and an object thereof is to construct a mechanism for efficiently using hardware resources on the network. .
課題を解決するための手段  Means for solving the problem
[0007] 上記課題を解決するために、本発明のある態様のネットワークコンピューティングシ ステムは、相互にネットワークで接続された複数のコンピュータを含むシステムであつ て、複数のコンピュータは、それぞれがローカルメモリを有して独立に動作する複数 のプロセッサを含んだマルチプロセッサにおけるいずれかのプロセッサにより、ネット ワーク上のコンピュータからネットワークを介して提供されることが可能となっているハ 一ドウエアリソースの情報を受信してハードウェアリソース利用要求を受けたときは管 理するハードウェアリソースの提供を処理するリソースマネージャをローカルメモリに口 ードされた状態で動作させるコンピュータと、それぞれがローカルメモリを有して独立 に動作する複数のプロセッサを含んだマルチプロセッサにおけるいずれかのプロセッ サにより、ネットワーク上のコンピュータからハードウェアリソース利用要求を受信して リソースマネージャの仲介によって提供されるハードウェアリソースをノヽードゥエァリソ ース利用要求に対して割り当てるリソーススケジューラをローカルメモリにロードされた 状態で動作させるコンピュータと、他のコンピュータへハードウェアリソースの提供が 可能となったときにハードウェアリソースの情報をリソースマネージャに送信するととも に、他のコンピュータのハードウェアリソースを利用する場合にはハードウェアリソース の利用要求をリソーススケジューラに送信するリソースマネージメントクライアントを動 作させるクライアントコンピュータと、ネットワーク上のコンピュータが他のコンピュータ との間でノヽードウエアリソースの提供および利用が実行されたときに、提供または利 用されたリソース量の情報と提供者および利用者を特定するために必要な情報とをリ ソースマネージメントクライアントから受信し、利用料の精算を処理するタリアリングハ ウスコンピュータと、を含む。 [0007] In order to solve the above problems, a network computing system according to an aspect of the present invention includes a plurality of computers connected to each other via a network, and each of the plurality of computers includes a local memory. Hardware resource information that can be provided via a network from a computer on the network by any processor in the multiprocessor including a plurality of processors that operate independently. When a hardware resource use request is received and received, a computer that operates a resource manager that processes the provision of hardware resources to be managed while being loaded into local memory, and each has local memory Includes multiple processors that operate independently A resource scheduler that receives hardware resource usage requests from computers on the network and allocates hardware resources provided by mediation of resource managers to the node resource usage requests by any processor in the multiprocessor. The computer that operates in the state loaded in the memory, the hardware resource information is transmitted to the resource manager when the hardware resource can be provided to the other computer, and the hardware resource of the other computer is also transmitted. When using it, a client computer that runs a resource management client that sends a request to use the hardware resource to the resource scheduler, and a computer on the network When the computer provides and uses the hardware resources with other computers, information on the amount of resources provided or used and the information necessary to identify the provider and users are displayed. Talia ring that is received from the resource management client and processes the payment of the usage fee A computer.
[0008] ここで「マルチプロセッサ」は、ワンチップ化されたマルチプロセッサであってもよ 、。  Here, the “multiprocessor” may be a multiprocessor made into one chip.
「プロセッサ」は、割り込み処理なしに独立して動作するものであってもよぐ「複数の プロセッサ」は互いに非同期で処理を実行するものであってもよい。「ハードウェアリソ ース」としては様々なハードウェアが考え得る力 たとえば複数のプロセッサのうちの V、ずれかであってもよ!/、し、複数のマルチプロセッサを備えるコンピュータにお 、ては そのいずれかのマルチプロセッサを指してもよい。あるいは、メモリやハードディスクな どの記憶媒体の一部や、無線通信などの通信デバイス、外部周辺機器などであって ちょい。  The “processor” may operate independently without interrupt processing, and the “plurality of processors” may execute processing asynchronously with each other. “Hardware resource” is the power that various hardware can conceive, such as V of multiple processors! /, And for computers with multiple multiprocessors, It may refer to any multiprocessor. Or it may be a part of a storage medium such as a memory or hard disk, a communication device such as wireless communication, or an external peripheral device.
[0009] この態様によれば、マルチプロセッサコンピュータにおいて遊休リソースが生じたと きにはリソースマネージャへ遊休リソースの提供が可能であることを示すリソース情報 を送信し、逆に他のコンピュータの遊休リソースを利用すべき場面ではリソーススケジ ユーラへリソースの利用要求を送信する。これにより、クライアントとなるマルチプロセ ッサコンピュータにおいて、リソースの利用状況に応じてリソースの提供と利用を適宜 切り替えることができる。ネットワーク上の他のコンピュータにおいてリソースマネージ ャとリソーススケジューラとがそれぞれ異なるプロセッサに分散されて独立して動作す るので、迅速に効率よくリソースを提供し、利用することができる。こうした遊休リソース の提供と利用に対して利用料の精算が処理され、リソースの提供者と利用者の双方 に利益が担保されるので、リソースの提供と利用を促進させることができる。  [0009] According to this aspect, when an idle resource occurs in the multiprocessor computer, the resource information indicating that the idle resource can be provided is transmitted to the resource manager, and conversely, the idle resource of another computer is used. When it should be used, a resource usage request is sent to the resource scheduler. As a result, in the multiprocessor computer serving as the client, the provision and use of resources can be switched as appropriate according to the resource utilization status. In other computers on the network, the resource manager and the resource scheduler are distributed to different processors and operate independently, so that resources can be provided and used quickly and efficiently. Since the payment of the usage fee is processed for the provision and use of these idle resources and the profit is secured for both the resource provider and the user, the provision and use of the resource can be promoted.
[0010] 本発明の別の態様は、マルチプロセッサコンピュータである。このマルチプロセッサ コンピュータは、それぞれがローカルメモリを有して独立に動作する複数のプロセッサ を含んだマルチプロセッサと、ネットワーク上のコンピュータからハードウェアリソース 利用要求を受信してリソースマネージャの仲介によって提供されるハードウェアリソー スをノヽードウエアリソース利用要求に対して割り当てるリソーススケジューラが動作す る他のマルチプロセッサコンピュータとの間でデータを送受信するとともに、ネットヮー ク上のコンピュータのハードウェアリソースの提供および利用があつたときにその利用 料の精算を処理するクリアリングノヽウスコンピュータとの間でデータを送受信するネッ トワーク通信部と、を備える。マルチプロセッサは、他のマルチプロセッサコンピュータ のハードウェアリソースを利用する場合にハードウェアリソースの利用要求をネットヮ ーク上のいずれかのマルチプロセッサコンピュータで動作するリソーススケジューラに 送信するとともに他のコンピュータのハードウェアリソースを利用したときはその利用 要求の内容および利用したリソース量の情報をクリアリングノヽウスコンピュータへ送信 するリソースマネージメントクライアントが動作するプロセッサを含む。 Another aspect of the present invention is a multiprocessor computer. This multiprocessor computer is provided by mediation of a resource manager that receives a hardware resource use request from a computer on a network and a multiprocessor including a plurality of processors each having a local memory and operating independently. Allocate hardware resources in response to requests to use hardware resources. Send and receive data to and from other multiprocessor computers running resource schedulers, and provide and use hardware resources of computers on the network. And a network communication unit for transmitting and receiving data to and from a clearing computer that processes the payment of the usage fee. Multiprocessor, other multiprocessor computer When using other hardware resources, a request to use hardware resources is sent to the resource scheduler that runs on any multiprocessor computer on the network, and when other computer hardware resources are used It includes a processor that runs a resource management client that sends information about the content of the request and the amount of resources used to the Clearing Now computer.
[0011] この態様においても、マルチプロセッサコンピュータにおいて他のコンピュータの遊 休リソースを利用すべき場面では利用要求を送信することによりリソースの提供を受 けることができる。このとき、利用要求の内容と利用したりソース量をクリアリングノヽウス コンピュータへ送信するので、クリアリングノヽウスコンピュータによる利用料の精算処 理がなされる。こうした遊休リソースの提供と利用に対して利用料の精算が処理され、 リソースの提供者と利用者の双方に利益が担保されるので、リソースの提供と利用を 促進させることができる。  [0011] Also in this aspect, in a scene in which an idle resource of another computer is to be used in a multiprocessor computer, the provision of the resource can be received by transmitting a use request. At this time, the contents of the usage request and the usage amount or the source amount are transmitted to the clearing-nose computer, so that the clearing-nose computer is used to settle the usage fee. Since the payment of the usage fee is processed for the provision and use of such idle resources and the profit is secured for both the resource provider and the user, the provision and use of the resource can be promoted.
[0012] なお、以上の構成要素の任意の組合せや、本発明の構成要素や表現を方法、装 置、システム、コンピュータプログラム、コンピュータプログラムを格納した記録媒体、 データ構造などの間で相互に置換したものもまた、本発明の態様として有効である。 発明の効果  [0012] It should be noted that any combination of the above-described constituent elements, and the constituent elements and expressions of the present invention are mutually replaced between a method, an apparatus, a system, a computer program, a recording medium storing the computer program, a data structure, and the like. These are also effective as an embodiment of the present invention. The invention's effect
[0013] 本発明によれば、ネットワーク上のハードウェアリソースの提供と利用の促進を図る システムを構築することができる。  [0013] According to the present invention, it is possible to construct a system that promotes the provision and use of hardware resources on a network.
図面の簡単な説明  Brief Description of Drawings
[0014] [図 1]ワンチップマルチプロセッサを利用したネットワークコンピュータの基本構成の 一例を示す図である。  FIG. 1 is a diagram illustrating an example of a basic configuration of a network computer using a one-chip multiprocessor.
[図 2]本実施の形態におけるネットワークコンピューティングシステムの一例を示す図 である。  FIG. 2 is a diagram showing an example of a network computing system in the present embodiment.
[図 3]—つのマルチプロセッサを含むサーバにぉ 、て、リソースマネージャとリソース スケジューラがそれぞれ動作する例を示す図である。  FIG. 3 is a diagram showing an example in which a resource manager and a resource scheduler operate on a server including two multiprocessors.
[図 4]高速ネットワークまたは高速バスで結合された二つのマルチプロセッサを含む サーバにおいて、リソースマネージャとリソーススケジューラがそれぞれ動作する例を 示す図である。 [図 5]ネットワーク上に分散された二つのサーバのそれぞれにおけるサブプロセッサ 上で、リソースマネージャとリソーススケジューラが動作する例を示す図である。 FIG. 4 is a diagram showing an example in which a resource manager and a resource scheduler operate in a server including two multiprocessors connected by a high-speed network or a high-speed bus. FIG. 5 is a diagram showing an example in which a resource manager and a resource scheduler operate on sub-processors in each of two servers distributed on a network.
[図 6]リソーススケジューラ、リソースマネージャ、リソースマネージメントクライアントの 3 つのプロセスにおける処理手順を示す図である。  [FIG. 6] A diagram showing a processing procedure in three processes of a resource scheduler, a resource manager, and a resource management client.
[図 7]運用監視サーバの仲介によりリソースマネージメントクライアントがリソース割当 実績に応じてリソースマネージャを選択する仕組みを説明する図である。  FIG. 7 is a diagram for explaining a mechanism by which a resource management client selects a resource manager according to a resource allocation record through an operation monitoring server.
[図 8]運用監視サーバの仲介によりリソースマネージメントクライアントがスケジユーリン グ効率実績に応じてリソースマネージャを選択する仕組みを説明する図である。  FIG. 8 is a diagram for explaining a mechanism in which a resource management client selects a resource manager according to the scheduling efficiency performance through the operation monitoring server.
[図 9]第 2の実施の形態におけるリソーススケジューラ、リソースマネージャ、リソースマ ネージメントクライアントの 3つのプロセスにおける処理手順を示す図である。  FIG. 9 is a diagram showing processing procedures in three processes of a resource scheduler, a resource manager, and a resource management client in the second embodiment.
[図 10]第 1の変形例におけるワンチップマルチプロセッサの構成を示す図である。  FIG. 10 is a diagram showing a configuration of a one-chip multiprocessor in a first modified example.
[図 11]第 2の変形例におけるワンチップマルチプロセッサの構成を示す図である。 符号の説明  FIG. 11 is a diagram showing a configuration of a one-chip multiprocessor in a second modified example. Explanation of symbols
[0015] 20 マルチプロセッサ、 41 サーバ、 50 ネットワークコンピューティングシステ ム、 51 ネットワーク、 54 サーバ、 60 サーバ、 62 サーバ、 64 サーバ、 66 サーバ、 102 サブプロセッサ、 122 ロー力ノレメモリ、 202 リソースマネー ジャ、 206 リソーススケジューラ。  [0015] 20 multiprocessors, 41 servers, 50 network computing systems, 51 networks, 54 servers, 60 servers, 62 servers, 64 servers, 66 servers, 102 subprocessors, 122 low power memories, 202 resource managers, 206 Resource scheduler.
発明を実施するための最良の形態  BEST MODE FOR CARRYING OUT THE INVENTION
[0016] (第 1の実施の形態)  [0016] (First embodiment)
本実施の形態におけるネットワークコンピューティングシステムは、複数のプロセッ サを内蔵した複数のコンピュータがネットワークに接続されて構成される。各コンビュ ータによる協働により本実施の形態におけるリアルタイムリソースマネージメントが実 現される。まず、複数のプロセッサを内蔵した各コンピュータの基本構成を説明して から、システム全体を説明する。  The network computing system in the present embodiment is configured by connecting a plurality of computers incorporating a plurality of processors to a network. Real-time resource management in this embodiment is realized by cooperation of each computer. First, the basic configuration of each computer incorporating a plurality of processors is described, and then the entire system is described.
[0017] 図 1は、ワンチップマルチプロセッサを利用したネットワークコンピュータの基本構成 の一例を示す。ネットワークコンピュータ 10は、マルチプロセッサ 20、 RF処理部 29、 AD変^^ 28、ブリッジ 19、ネットワークインタフェース 18、不揮発性メモリ 21、 DVD ドライノく 22、 USB23、グラフィックスカード 25、メインメモリ 17、アンテナ 31、コント口 ーラ 24、モニタ 27を備える。 FIG. 1 shows an example of a basic configuration of a network computer using a one-chip multiprocessor. Network computer 10 includes multiprocessor 20, RF processor 29, AD converter 28, bridge 19, network interface 18, non-volatile memory 21, DVD player 22, USB23, graphics card 25, main memory 17, antenna 31, Conto mouth Equipped with a controller 24 and a monitor 27.
[0018] マルチプロセッサ 20は、一つのメインプロセッサ 100、複数のサブプロセッサ 102、 I/Oインタフェース 104、メモリコントローラ 106を備え、これらがリングバス 108に接 続されてそれぞれが並列的に動作するよう構成される。本実施の形態におけるマル チプロセッサ 20は、サブプロセッサ 102として 6個のプロセッサを含む。各サブプロセ ッサ 102は、たとえば「SPU0」や「SPU1」といった IDによってリングバス 108上で一 意に認識され、どのプロセッサがどのプロセッサにリングバス 108を経由してリクエスト を出して!/、るかを特定できるようにされて!、る。  [0018] The multiprocessor 20 includes one main processor 100, a plurality of sub-processors 102, an I / O interface 104, and a memory controller 106, which are connected to the ring bus 108 so that each operates in parallel. Composed. Multiprocessor 20 in the present embodiment includes six processors as sub-processors 102. Each sub processor 102 is uniquely recognized on the ring bus 108 by an ID such as `` SPU0 '' or `` SPU1 '', for example, which processor sends a request to which processor via the ring bus 108! / To be able to identify!
[0019] メモリコントローラ 106は、メインメモリ 17に接続されるとともに、各サブプロセッサ 10 2によるメインメモリ 17へのアクセスを仲介する。なお、本実施の形態においては、メ インメモリ 17がマルチプロセッサ 20の外部に設けられる例を説明する力 変形例とし てはメインメモリ 17がマルチプロセッサ 20の内部に含まれる構成であってもよ 、。 \/ Oインタフェース 104は、各種 IZOデバイスと接続するためのブリッジ 19、グラフイツ タスカード 25、ワイヤレス通信を処理する RF処理部 29などが接続され、メインプロセ ッサ 100やサブプロセッサ 102による外部装置の制御や外部装置との通信を仲介す る。  The memory controller 106 is connected to the main memory 17 and mediates access to the main memory 17 by each sub-processor 102. In the present embodiment, a power variation for explaining an example in which the main memory 17 is provided outside the multiprocessor 20 may be a configuration in which the main memory 17 is included in the multiprocessor 20. ,. \ / The O interface 104 is connected to a bridge 19 for connection with various IZO devices, a graph status card 25, an RF processing unit 29 for processing wireless communication, and the like, and the main processor 100 and sub processor 102 control external devices. And mediate communication with external devices.
[0020] ブリッジ 19には、ネットワークインタフェース 18、不揮発性メモリ 21、 DVDドライバ 2 2、 USB23が接続される。ネットワークインタフェース 18は、家庭内 LANやインター ネットなどのネットワークとの通信を仲介する。 USB23は、コントローラ 24を介してキ 一ボードなどの周辺機器との接続を仲介する。グラフィックスカード 25は、フレームメ モリ 26を含み、モニタ 27へ画像信号を出力する。 RF処理部 29は、ダウンコンバータ 30を含むとともに、 AD変翻 28を介して IZOインタフェース 104に接続される。 RF 処理部 29は、アンテナ 31を介して外部とのワイヤレス通信を確立する。  A network interface 18, a non-volatile memory 21, a DVD driver 22, and a USB 23 are connected to the bridge 19. The network interface 18 mediates communication with a network such as a home LAN or the Internet. The USB 23 mediates connection with a peripheral device such as a keyboard via the controller 24. The graphics card 25 includes a frame memory 26 and outputs an image signal to the monitor 27. The RF processing unit 29 includes a down converter 30 and is connected to the IZO interface 104 via the AD conversion 28. The RF processing unit 29 establishes wireless communication with the outside via the antenna 31.
[0021] メインプロセッサ 100は、プロセッサコア 110、 L1キャッシュ 112、 L2キャッシュ 114 、サブメモリコントローラ 116を含む。サブメモリコントローラ 116は、 DMAC (Direct M emory Access Controller) 118を内蔵する。メインプロセッサ 100においてはォペレ 一ティングシステム(以下、「OS」という。)が動作し、その OSの基本処理に基づいて 複数のサブプロセッサ 102が動作する。 [0022] 複数のサブプロセッサ 102は、それぞれプロセッサコア 120、ローカルメモリ 122、 サブメモリコントローラ 126を含む。サブメモリコントローラ 126は、 DMAC128を内蔵 する。複数のサブプロセッサ 102は、それぞれ固有のローカルメモリ 122を有するた め、 目的のプログラムがローカルメモリ 122にいつたんロードされれば、それ以降は必 要のない限りメインメモリ 17にアクセスしなくとも目的の処理を継続することができる。 また、サブプロセッサ 102は、割り込みによる処理の中断が発生しない設計となって いるため、後述する各種プロセスを高速で実行し、リソースの利用と提供をネットヮー ク上でリアルタイムに分散処理するのに適している。 The main processor 100 includes a processor core 110, an L1 cache 112, an L2 cache 114, and a sub memory controller 116. The sub memory controller 116 includes a DMAC (Direct Memory Access Controller) 118. In the main processor 100, an operating system (hereinafter referred to as “OS”) operates, and a plurality of sub processors 102 operate based on the basic processing of the OS. [0022] Each of the plurality of sub-processors 102 includes a processor core 120, a local memory 122, and a sub-memory controller 126. The sub memory controller 126 includes a DMAC 128. Since each of the sub-processors 102 has its own local memory 122, once the target program is loaded into the local memory 122, the target memory can be accessed without accessing the main memory 17 unless necessary. Can be continued. In addition, the sub processor 102 is designed not to interrupt processing due to interrupts, so it is suitable for executing various processes described later at high speed and distributing and using resources in real time over the network. ing.
[0023] サブプロセッサ 102では、たとえばデバイスドライバやシステムプログラムの一部な ど、 OSの一部をなすプログラムが実行されてもよいし、サブプロセッサ 102全体を制 御する専用の OSが動作してもよい。メインプロセッサ 100とサブプロセッサ 102は、そ れぞれ異なる命令セットを有する命令セットアーキテクチャ (ISA)にて構成される。メ インプロセッサ 100では、そのコンピュータに含まれるリソースの使用のみを管理する プログラムが動作するのに対し、サブプロセッサ 102では、ネットワーク上の他のコン ピュータに含まれるリソースの利用や提供を管理する後述のプログラムが動作する。  [0023] The sub processor 102 may execute a program that forms part of the OS, such as a device driver or a part of a system program, or a dedicated OS that controls the entire sub processor 102 operates. Also good. The main processor 100 and the sub processor 102 are configured by an instruction set architecture (ISA) having different instruction sets. The main processor 100 operates a program that manages only the use of resources included in the computer, whereas the sub processor 102 manages the use and provision of resources included in other computers on the network. The program works.
[0024] 図 2は、本実施の形態におけるネットワークコンピューティングシステムの一例を示 す。ネットワークコンピューティングシステム 50には、マルチプロセッサ 20をそれぞれ 含むサーバ 41およびサーノ 54、スイッチングネットワーク 42で接続された複数のマ ルチプロセッサ 20を含むハイパフォーマンスコンピュータ 52、マルチプロセッサ 20を 含むパーソナルコンピュータ 53、マルチプロセッサ 20を含む家電品 55、マルチプロ セッサ 20以外のプロセッサを含むパーソナルコンピュータ 56がネットワーク 51に接続 されるかたちで含まれる。ネットワーク 51は、インターネットであってもよいし、家庭内 ネットワークなどの LANであってもよい。なお、本図におけるネットワークコンビユーテ イングシステム 50の構成は例示にすぎず、そのハードウェア構成およびネットワーク 5 1への接続台数は任意である。  FIG. 2 shows an example of a network computing system in the present embodiment. The network computing system 50 includes a server 41 and a sano 54 each including a multiprocessor 20, a high performance computer 52 including a plurality of multiprocessors 20 connected by a switching network 42, a personal computer 53 including a multiprocessor 20, a multiprocessor Home appliances 55 including 20 and personal computers 56 including processors other than the multiprocessor 20 are included in the form of being connected to the network 51. The network 51 may be the Internet or a LAN such as a home network. Note that the configuration of the network combining system 50 in this figure is merely an example, and the hardware configuration and the number of units connected to the network 51 are arbitrary.
[0025] サーバ 41のマルチプロセッサ 20は、複数のサブプロセッサ 102と一つのメインプロ セッサ 100を含む力 サーノ lに含まれる各構成は図 1のネットワークコンピュータ 1 0に含まれる各構成と基本的に同じである。サーバ 41では、各サブプロセッサ 102〖こ ぉ 、て、本実施の形態のリアルタイムリソースマネージメントを実行するためのプロセ スが動作する。たとえば、リソースマネージャのプログラムが 1番目のサブプロセッサ 1 02で動作し、リソーススケジューラのプログラムが 2番目のサブプロセッサ 102で動作 し、リソースマネージメントクライアントのプログラムが 3番目のサブプロセッサ 102で動 作する。変形例としては、リソースマネージャのプログラムがサーバ 41に含まれる複 数のサブプロセッサ 102の一つで動作し、リソーススケジューラのプログラムがサーバ 54に含まれるサブプロセッサ 102の一つで動作するように構成してもよい。リソースマ ネージメントクライアントは、ネットワークコンピューティングシステム 50に含まれるすべ てのコンピュータで動作してもよい。 [0025] The multiprocessor 20 of the server 41 includes a plurality of sub-processors 102 and one main processor 100. Each component included in the power processor is basically the same as each component included in the network computer 10 in FIG. The same. Server 41 has 102 Then, the process for executing the real-time resource management of this embodiment operates. For example, a resource manager program runs on the first sub-processor 102, a resource scheduler program runs on the second sub-processor 102, and a resource management client program runs on the third sub-processor 102. As a modification, the resource manager program operates on one of the plurality of sub-processors 102 included in the server 41, and the resource scheduler program operates on one of the sub-processors 102 included in the server 54. May be. The resource management client may run on any computer included in the network computing system 50.
[0026] クリアリングノヽウス 77は、各コンピュータによるリソースの利用と提供の状況を記録し 、その利用に対する料金の課金を処理する。運用監視サーバ 98は、リソースの利用 要求に対する割当の実績や効率を管理する。以下、リソースマネージャ、リソーススケ ジユーラ、リソースマネージメントクライアントの動作について詳述した後で、タリアリン グハウス 77と運用監視サーバ 98の動作を詳述する。  [0026] Clearing Knows 77 records the use and provision status of resources by each computer, and processes the charge for the use. The operation monitoring server 98 manages the performance and efficiency of allocation for resource usage requests. The operations of the resource manager, resource scheduler, and resource management client will be described in detail below, and then the operations of the tallying house 77 and the operation monitoring server 98 will be described in detail.
[0027] (リソースマネージャ)  [0027] (Resource Manager)
本実施の形態におけるリソースマネージャは、ネットワーク 51に接続されたいずれ かのコンピュータにおけるマルチプロセッサ 20やマルチプロセッサ 20に含まれるサ ブプロセッサ 102などのコンピューティングリソースが他のコンピュータへ提供可能か 否かを管理するために一つのサブプロセッサ 102で動作するプロセスである。いずれ かのコンピューティングリソースが他のコンピュータへ提供可能な状況になったとき、リ ソースマネージャはその提供可能なリソースを有するコンピュータ力 リソース情報を ネットワーク 51経由で受信する。  The resource manager in the present embodiment determines whether or not computing resources such as the multiprocessor 20 and the subprocessor 102 included in the multiprocessor 20 in any of the computers connected to the network 51 can be provided to other computers. It is a process operating on one sub-processor 102 for management. When any of the computing resources becomes available to other computers, the resource manager receives the computer power resource information having the available resources via the network 51.
[0028] リソースマネージャは、後述するリソーススケジューラと連携して動作する。本実施の 形態のリソースマネージャは、リソーススケジューラからリソースの利用要求を受け取り 、その要求において指定された分のリソースを割り当てる処理を実行してリソーススケ ジユーラへ返答する。ここで、リソースの利用要求に対して複数のコンピュータに分散 したリソースを割り当てる場合、リソースマネージャはそれぞれのコンピュータのスぺッ クに応じて利用要求を分割し、リソーススケジューラに返答する。 [0029] リソースマネージャは、提供可能なリソースをリソースタイプで分類するリソース管理 テーブルを有する。リソースマネージャは、たとえばリソースタイプごとの割当可能リソ ース数であるリソースカウンタの値を、リソース割当を実行するたびに減算する。これ により、特定のコンピュータ上の複数のリソースが同時に割り当てられたり、同じコンビ ユータ上のリソースば力りが何度も割り当てられたりすることを回避でき、特定のコンビ ユータへの集中的な負担を抑制することができる。 [0028] The resource manager operates in cooperation with a resource scheduler described later. The resource manager according to the present embodiment receives a resource use request from the resource scheduler, executes a process for allocating the resources specified in the request, and returns a response to the resource scheduler. Here, when allocating resources distributed to multiple computers in response to resource usage requests, the resource manager divides the usage requests according to the specs of each computer and returns them to the resource scheduler. [0029] The resource manager has a resource management table that classifies resources that can be provided by resource type. For example, the resource manager subtracts the value of the resource counter, which is the number of resources that can be allocated for each resource type, every time resource allocation is performed. This avoids allocating multiple resources on a specific computer at the same time or allocating resource resources on the same computer over and over, and places a heavy burden on a specific computer. Can be suppressed.
[0030] リソースマネージャは、リソースの利用要求に対してリソースを割り当てることができ ない場合、割当不可を示す応答をリソーススケジューラに返す。変形例においては、 リソースマネージャは、同一または異なるサーバ上のサブプロセッサで動作する少な くとも一部のリソースマネージャを管理するマネージャ管理テーブルを保持する。リソ ースマネージャは、リソース管理テーブルで管理するリソースの量を示すリソース量情 報を生成し、マネージャ管理テーブルで管理する他のリソースマネージャとの間で互 いのリソース量情報を定期的に交換する。リソースマネージャは、マネージャ管理テ 一ブルを参照し、より多くの利用可能リソースを管理しているリソースマネージャを選 択し、選択したリソースマネージャの識別情報を、対応するリソーススケジューラに返 す。  [0030] If the resource manager cannot allocate a resource usage request, it returns a response indicating that allocation is impossible to the resource scheduler. In a variation, the resource manager maintains a manager management table that manages at least some resource managers that operate on sub-processors on the same or different servers. The resource manager generates resource amount information indicating the amount of resources managed by the resource management table, and periodically exchanges resource amount information with other resource managers managed by the manager management table. The resource manager refers to the manager management table, selects the resource manager that manages more available resources, and returns the identification information of the selected resource manager to the corresponding resource scheduler.
[0031] (リソーススケジューラ)  [0031] (Resource Scheduler)
本実施の形態におけるリソーススケジューラは、一つのサブプロセッサを占有して 実行されるプロセスである。リソーススケジューラは、ネットワーク 51に接続されたいず れかのコンピュータからリソースの利用要求を受信すると、その利用要求をリソースマ ネージャに非同期で送信する。リソーススケジューラは、送信した利用要求に対してリ ソースが割り当てられるのを待つとともに、リソースマネージャによってリソースが割り 当てられた後、その割り当てられたリソースを保有するコンピュータに対して利用要求 を転送する。リソースを保有するコンピュータが複数に分かれる場合、リソースマネー ジャが利用要求を複数に分割し、これら分割された利用要求をそれぞれ該当するコ ンピュータに対してリソーススケジューラが転送する。スケジューリングキューは、リソ ーススケジューラの動作するサブプロセッサ 102内のローカルメモリ 122に保持され ることが望まし!/、が、メインメモリ 17に保持されてもょ 、。 [0032] リソーススケジューラのスケジューリングアルゴリズムとしては、当業者が知りうるあら ゆるスケジューリング方法を採用可能であり、たとえば利用要求を到着順に処理する FIFO型のスケジューリングを採用してもよい。 FIFO型のスケジューリングにおいて は、リソースの利用要求に対してリソースマネージャがリソースを割り当てられなかつ た場合に、利用要求を発したコンピュータにその利用要求が特定できるようなかたち で割当不可を示す情報を送信する。また、別のスケジューリング方法としては、リソー スマネージャが、対応するリソースマネージャから別のリソースマネージャの識別情報 を受信していればそのリソースマネージャに利用要求を非同期で送信し、その利用 要求に対する返答があった場合にはその割り当てにしたがってリソースを保有するコ ンピュータに利用要求を送信してもよい。さらに別のスケジューリング方法としては、 優先度に基づいて利用要求を処理する方法を採用してもよい。この場合、リソース制 約がより多く含まれる利用要求を優先的に処理する。逆に、リソース制約がより少ない 利用要求を優先的に処理してもよい。あるいは、利用要求に優先度を付加し、その 優先度に高さに応じて処理順序を決定してもよい。この場合、優先度に応じたスケジ ユーリングキューを持つようにしてもょ ヽ。 The resource scheduler in the present embodiment is a process that is executed while occupying one sub-processor. When the resource scheduler receives a resource use request from any of the computers connected to the network 51, it sends the use request to the resource manager asynchronously. The resource scheduler waits for a resource to be allocated to the transmitted usage request, and after the resource is allocated by the resource manager, transfers the usage request to the computer that holds the allocated resource. If the computer that owns the resource is divided into multiple, the resource manager divides the usage request into multiple, and the resource scheduler transfers these divided usage requests to the corresponding computers. The scheduling queue is preferably held in the local memory 122 in the sub processor 102 in which the resource scheduler operates! /, But may be held in the main memory 17. [0032] As a scheduling algorithm of the resource scheduler, any scheduling method known to those skilled in the art can be employed. For example, FIFO-type scheduling that processes use requests in the order of arrival may be employed. In FIFO type scheduling, when a resource manager cannot allocate a resource in response to a resource usage request, information indicating that the usage request can be identified is sent to the computer that issued the usage request. To do. As another scheduling method, if the resource manager receives the identification information of another resource manager from the corresponding resource manager, the resource manager asynchronously sends a use request to the resource manager and returns a response to the use request. If there is, the usage request may be sent to the computer that owns the resource according to the allocation. As another scheduling method, a method of processing a usage request based on priority may be adopted. In this case, usage requests that include more resource constraints are processed preferentially. Conversely, usage requests with fewer resource constraints may be processed preferentially. Alternatively, priority may be added to the usage request, and the processing order may be determined according to the priority. In this case, you may want to have a scheduling mailing queue according to the priority.
[0033] (リソースマネージメントクライアント)  [0033] (Resource management client)
本実施の形態におけるリソースマネージメントクライアントは、本実施の形態におけ るネットワークコンピューティングシステムに含まれる各コンピュータ上でクライアントと して動作するプロセスである。リソースマネージメントクライアントは、たとえば以下の 少なくとも 3つの役割を持つ。  The resource management client in the present embodiment is a process that operates as a client on each computer included in the network computing system in the present embodiment. Resource management clients have at least three roles, for example:
[0034] (1)リソースマネージメントクライアントは、自己が管理するマルチプロセッサ 20にお いて外部提供が可能なリソースが発生したときに、提供が可能であるリソースの内容 を示す提供リソース情報を 、ずれかのリソースマネージャに対して送信する。リソース マネージメントクライアントが複数のマルチプロセッサを管理して 、る場合も同様であ る。たとえば、図 2のハイパフォーマンスコンピュータ 52においては、ネットワークイン タフエース NICにつながったマルチプロセッサでのみリソースマネージメントクライア ントを動作させ、スイッチングネットワーク 42に接続されたすベてのマルチプロセッサ のリソースを管理してもよ!/、。 [0035] (2)リソースマネージメントクライアントの動作するコンピュータ上でリソース不足が生 じた場合、リソースマネージメントクライアントはネットワーク 51上のいずれかのリソー ススケジューラに対して利用要求を送信する。 [0034] (1) When a resource that can be provided externally occurs in the multiprocessor 20 that is managed by the resource management client, the resource management client shifts provided resource information indicating the content of the resource that can be provided. To the resource manager. The same applies when the resource management client manages multiple multiprocessors. For example, in the high performance computer 52 of FIG. 2, even if the resource management client is operated only by the multiprocessor connected to the network interface NIC, the resources of all the multiprocessors connected to the switching network 42 are managed. Yo! / (2) When a resource shortage occurs on the computer on which the resource management client operates, the resource management client transmits a use request to one of the resource schedulers on the network 51.
[0036] (3)リソースマネージメントクライアントは、他のコンピュータからの利用要求を受信し たとき、その利用要求を送信したコンピュータに対して自己が管理するマルチプロセ ッサ 20に含まれるリソースを割り当てる。 (3) When the resource management client receives a usage request from another computer, the resource management client allocates a resource included in the multiprocessor 20 managed by itself to the computer that has transmitted the usage request.
[0037] 図 2のパーソナルコンピュータ 56のようにマルチプロセッサ 20以外のプロセッサを 内蔵するコンピュータにおいては、上記(1)と(3)の役割を省略した簡易版リソースマ ネージメントクライアントを動作させ、マルチプロセッサ 20を内蔵したコンピュータが複 数接続されたネットワーク 51上で利用要求を出すことによって、マルチプロセッサ 20 を内蔵したコンピュータに処理を代行させる。 [0037] In a computer having a processor other than the multiprocessor 20 such as the personal computer 56 in FIG. 2, the simplified resource management client in which the roles (1) and (3) are omitted is operated, and the multiprocessor 20 By issuing a use request on the network 51 to which a plurality of computers with a built-in computer are connected, the computer with the built-in multi-processor 20 performs the processing.
[0038] 図 3〜5には、リソースマネージャ、リソーススケジューラ、リソースマネージメントクラ イアントの 3つのプロセスが 1以上のマルチプロセッササーバ上に配置される例がそ れぞれ示される。 [0038] FIGS. 3 to 5 show examples in which three processes of a resource manager, a resource scheduler, and a resource management client are arranged on one or more multiprocessor servers.
[0039] 図 3は、一つのマルチプロセッサ 20を含むサーバ 60において、リソースマネージャ とリソーススケジューラがそれぞれ動作する例を示す。本図の例では、マルチプロセッ サ 20に含まれる二つのサブプロセッサ 102のうち、「SPU1」の IDが付与されたサブ プロセッサ 102においてリソースマネージャ 202が動作し、「SPU2」の IDが付与され たサブプロセッサ 102においてリソーススケジューラ 206が動作する。  FIG. 3 shows an example in which the resource manager and the resource scheduler operate in the server 60 including one multiprocessor 20. In the example of this figure, among the two sub-processors 102 included in the multiprocessor 20, the resource manager 202 operates on the sub-processor 102 to which the ID of “SPU1” is assigned, and the ID of “SPU2” is assigned. A resource scheduler 206 operates in the sub processor 102.
[0040] 図 4は、高速ネットワークまたは高速バスで結合された二つのマルチプロセッサ 20 を含むサーバ 62において、リソースマネージャとリソーススケジューラがそれぞれ動 作する例を示す。本図の例では、二つのマルチプロセッサ 20にまたがるように二つ のサブプロセッサ 102が選択され、それぞれでリソースマネージャ 202とリソーススケ ジユーラ 206が動作する。すなわち、一方のマルチプロセッサ 20に含まれる「SPU1」 の IDが付与されたサブプロセッサ 102においてリソースマネージャ 202が動作し、他 方のマルチプロセッサ 20に含まれる「SPU2」の IDが付与されたサブプロセッサ 102 においてリソーススケジューラ 206が動作する。二つのマルチプロセッサ 20は、高速 バスまたは高速ネットワークで結合される。 [0041] 図 5は、ネットワーク 51上に分散された二つのサーバ 64, 66のそれぞれにおける サブプロセッサ 102上で、リソースマネージャとリソーススケジューラが動作する例を 示す。本図の例では、二つのサーバ 64, 66にまたがるように二つのサブプロセッサ 1 02が選択され、それぞれでリソースマネージャ 202とリソーススケジューラ 206が動作 する。すなわち、一方のサーノ 64のマルチプロセッサ 20に含まれる「SPU2」の IDが 付与されたサブプロセッサ 102においてリソースマネージャ 202が動作し、他方のサ ーバ 66のマルチプロセッサ 20に含まれる「SPU3」の IDが付与されたサブプロセッ サ 102においてリソーススケジューラ 206が動作する。 FIG. 4 shows an example in which a resource manager and a resource scheduler operate in a server 62 including two multiprocessors 20 connected by a high-speed network or a high-speed bus. In the example of this figure, two sub-processors 102 are selected so as to span two multiprocessors 20, and a resource manager 202 and a resource scheduler 206 operate in each. In other words, the resource manager 202 operates in the sub processor 102 to which the ID of “SPU1” included in one multiprocessor 20 is assigned, and the subprocessor to which the ID of “SPU2” included in the other multiprocessor 20 is assigned. In 102, the resource scheduler 206 operates. The two multiprocessors 20 are connected by a high-speed bus or a high-speed network. FIG. 5 shows an example in which the resource manager and the resource scheduler operate on the sub-processor 102 in each of the two servers 64 and 66 distributed on the network 51. In the example of this figure, two sub-processors 102 are selected so as to span two servers 64 and 66, and a resource manager 202 and a resource scheduler 206 operate in each. That is, the resource manager 202 operates in the sub processor 102 to which the ID “SPU2” included in the multiprocessor 20 of one Sano 64 is assigned, and the “SPU3” included in the multiprocessor 20 of the other server 66. The resource scheduler 206 operates in the sub processor 102 to which the ID is assigned.
[0042] 以上説明した図 3〜5の各例を比較すると、通信効率の高さは図 3、図 4、図 5の順 に高くなる。本実施の形態では、リソースマネージャ 202とリソーススケジューラ 206が 本質的に非同期で独立して動作するため、図 3〜図 5のいずれの形態でも基本原理 を変免ることなく動作させることができる。  [0042] When the examples of FIGS. 3 to 5 described above are compared, the communication efficiency increases in the order of FIGS. 3, 4, and 5. In the present embodiment, since the resource manager 202 and the resource scheduler 206 operate asynchronously and independently, any of the forms shown in FIGS. 3 to 5 can be operated without changing the basic principle.
[0043] 図 6は、リソーススケジューラ、リソースマネージャ、リソースマネージメントクライアン トの 3つのプロセスにおける処理手順を示す。本図ではクリアリングハウス 77がーつ だけ示される力 変形例としてネットワーク 51内に複数のクリアリングノヽウス 77が含ま れてもよい。  [0043] FIG. 6 shows a processing procedure in the three processes of the resource scheduler, the resource manager, and the resource management client. In the figure, as a modification of the force in which only one clearing house 77 is shown, a plurality of clearing nodes 77 may be included in the network 51.
[0044] (リソースマネージメントクライアントの認証)  [0044] (Resource management client authentication)
クリアリングノヽウス 77は、認証したリソースマネージメントクライアント 200からの情報 のみ受理し、虚偽の情報の受理を拒否する。リソースマネージメントクライアント 200 の認証は、リソースマネージメントクライアント 200が所定のクリアリングノヽウス 77へ最 初にアクセスしたときに実行される。この認証処理では、リソースマネージメントクライ アント 200が、正規に作られたソフトウェアであることを証明するための証明書またはリ ソースマネージメントクライアント IDをクリアリングノヽウス 77に送信する。この証明書が クリアリングハウス 77によって正しく認証された場合、そのリソースマネージメントクライ アント 200に対して電子署名が送られる。その認証されたリソースマネージメントクライ アント 200は、クリアリングハウス 77と通信する場合に電子署名が添付されたメッセ一 ジを送信する。  Clearing Knows 77 only accepts information from the authenticated resource management client 200 and refuses to accept false information. The authentication of the resource management client 200 is executed when the resource management client 200 first accesses a predetermined clearing nose 77. In this authentication process, the resource management client 200 sends a certificate or resource management client ID for certifying that the software is properly created to the clearing node 77. If this certificate is successfully authenticated by Clearinghouse 77, an electronic signature is sent to the resource management client 200. When the authenticated resource management client 200 communicates with the clearinghouse 77, it sends a message with an electronic signature attached thereto.
[0045] (リソース提供者の登録) リソースの提供者は、提供設定インタフェース 220を通じて、そのコンピュータのリソ ースの一部または全部を他のコンピュータに対して提供するかどうかを設定する。提 供設定インタフェース 220は、リソースマネージメントクライアント 200と一体的に構成 されてもょ 、し、リソースマネージメントクライアント 200と分離したソフトウェアとして構 成されてもよい。提供設定インタフェース 220は、提供するリソースが他のコンビユー タによって利用された場合に支払われる配当金の評価額を計算し、コンピュータの画 面に表示する。リソース提供者は、表示された評価額を確認した上で、サブプロセッ サ数、マルチプロセッサ数、メモリ容量、提供時間などのリソース提供量を提供設定ィ ンタフェース 220を通じて設定する。リソース提供者のコンピュータで動作するリソー スマネージメントクライアント 200aの提供設定インタフェース 220は、設定されたリソ ース提供内容、コンピュータの識別情報、および提供者の個人情報を含んだ提供リ ソース情報をネットワーク 51経由でクリアリングノヽウス 77に転送する(S2)。コンビユー タの識別情報は、たとえばネットワーク 51においてそのコンピュータに付与された IP アドレスである。提供者の個人情報は、たとえば提供者の氏名、電話番号や電子メー ルアドレスなどの連絡先情報、口座番号やクレジットカード番号など、提供者の特定 に必要な情報やその提供者への利用料金支払いに必要な情報である。コンピュータ とクリアリングノヽウス 77の間の通信はセキュアに保たれることが望ましい。クリアリング ノ、ウス 77は、提供設定インタフェース 220から受け取った情報を、管理するリソース の提供元を示す提供元リスト 222に書き込む。 [0045] (Registration of resource provider) The resource provider sets whether or not to provide part or all of the computer's resources to other computers through the provision setting interface 220. The provided setting interface 220 may be configured integrally with the resource management client 200, or may be configured as software separated from the resource management client 200. The offer setting interface 220 calculates an evaluation value of dividends to be paid when the provided resource is used by another computer, and displays it on the computer screen. After confirming the displayed evaluation amount, the resource provider sets the resource provision amount such as the number of sub processors, the number of multiprocessors, the memory capacity, and the provision time through the provision setting interface 220. The provision setting interface 220 of the resource management client 200a operating on the resource provider's computer network provides the provided resource information including the set resource provision contents, the computer identification information, and the provider's personal information. Transfer to Clearing Now 77 via (S2). The computer identification information is, for example, an IP address assigned to the computer in the network 51. The provider's personal information includes, for example, the provider's name, contact information such as a telephone number and email address, information necessary to identify the provider, such as an account number and credit card number, and payment of usage fees to the provider. This is necessary information. Communication between the computer and Clearing Now 77 should be kept secure. The clearing node and the mouse 77 write the information received from the provision setting interface 220 to the provider list 222 indicating the provider of the resource to be managed.
(リソース利用者の登録) (Registration of resource users)
リソースの利用希望者は、クリアリングノヽウス 77との間であら力じめ利用契約を結ぶ 設定を利用設定インタフェース 224を通じて入力する。利用設定インタフェース 224 は、リソースマネージメントクライアント 200と一体的に構成されてもよいし、リソースマ ネージメントクライアント 200と分離したソフトウェアとして構成されてもょ 、。リソースの 利用希望者は、そのコンピュータで動作するリソースマネージメントクライアント 200b を介してあら力じめ利用設定インタフェース 224を通じてクリアリングノヽウス 77との間 で利用契約を結ぶ。利用契約として、利用者の氏名、電話番号や電子メールァドレ スなどの連絡先情報、口座番号やクレジットカード番号など、利用者の特定に必要な 情報やその利用者への利用料金の課金に必要な情報をクリアリングハウス 77に登録 する(S4)。これらの情報がクリアリングノヽウス 77に登録されると、クリアリングノヽウス 77 は、リソース利用者を一意に特定して認証するための電子署名をリソース利用者のコ ンピュータに送る。 The user who wishes to use the resource inputs the setting for concluding the use contract with Clearing Now 77 through the use setting interface 224. The usage setting interface 224 may be configured integrally with the resource management client 200 or may be configured as software separated from the resource management client 200. Those who wish to use the resource conclude the use contract with Clearing Knows 77 through the use setting interface 224 via the resource management client 200b operating on the computer. As a usage contract, it is necessary to specify the user name, contact information such as phone number and e-mail address, account number and credit card number. The information and the information necessary for charging the user's usage fee are registered in Clearinghouse 77 (S4). When such information is registered in the clearing node 77, the clearing node 77 sends an electronic signature for uniquely identifying and authenticating the resource user to the resource user's computer.
[0047] (リソースの提供と利用の手順)  [0047] (Procedure for using and providing resources)
まず、提供可能な遊休リソースが発生したコンピュータのリソースマネージメントクラ イアント 200aは、選択したリソースマネージャ 202に対して遊休リソースを登録するた めの提供リソース情報を送信する(S 10)。  First, the resource management client 200a of a computer in which an available idle resource has been generated transmits provided resource information for registering the idle resource to the selected resource manager 202 (S10).
[0048] サブプロセッサの個数不足などのリソース不足を検出したコンピュータのリソースマ ネージメントクライアント 200bは、他のコンピュータにおける遊休リソースの利用を要 求するために、選択するリソーススケジューラ 206に利用要求を出し (S 12)、その利 用要求がリソーススケジューラ 206のリクエストキュー 208に入れられる。この利用要 求を送信する際、リソースマネージメントクライアント 200bは、リソース利用者の電子 署名が格納されているストレージエリア力も電子署名を読み出し、利用要求とともにリ ソーススケジューラ 206へ送信する。本図の例では、 FIFOキューのかたちでリクエス トキユー 208が実装される。なお、リソーススケジューラ 206はサブプロセッサ 102を 占有して処理が実行される力 リクエストキュー 208は、サブプロセッサ 102内のロー カルメモリ 122にあってもよ!/ヽし、またはメインメモリ 17にあってもよ!/ヽ。  [0048] The resource management client 200b of the computer that has detected a resource shortage such as a shortage of sub-processors issues a use request to the selected resource scheduler 206 to request the use of an idle resource in another computer (S 12) The usage request is put in the request queue 208 of the resource scheduler 206. When transmitting this usage request, the resource management client 200b reads out the electronic signature of the storage area where the electronic signature of the resource user is stored, and transmits it to the resource scheduler 206 together with the usage request. In the example of this figure, the request queue 208 is implemented in the form of a FIFO queue. Note that the resource scheduler 206 occupies the sub-processor 102 and can execute processing. The request queue 208 may be in the local memory 122 in the sub-processor 102! Yo!
[0049] リソーススケジューラ 206は、リクエストキュー 208の先頭から利用要求を取り出し、 対応するリソースマネージャ 202に対して利用要求を非同期で送信する(S14)。す なわち、リソーススケジューラ 206は、この利用要求に対するリソースマネージャ 202 の返答を待たず、このとき割当リソースキュー 210が空であれば次の利用要求をリク エストキユー 208から取り出して処理し、割当リソースキュー 210が空でなければ S16 へ進む。なお、リソーススケジューラ 206は、サブプロセッサ 102を占有してその処理 が実行される力 割当リソースキュー 210は、サブプロセッサ 102内のローカルメモリ 122にあってもよいし、またはメインメモリ 17にあってもよい。リソースマネージャ 202 は、リソーススケジューラ 206から受信した利用要求をリクエストキュー 212に追加す る。 [0050] リソースマネージャ 202は、リクエストキュー 212の先頭力も利用要求を取り出し、管 理されて!/、る遊休リソース力も適切なリソースを選択して割り当て、その割当の結果を 示すリソース割当情報を利用要求の送信元であるリソーススケジューラ 206へ返信す る(S16)。このリソース割当情報は、元の利用要求が分割されて形成される複数の利 用要求パケットであり、割り当てられたリソースのコンピュータをそれぞれの宛先とする 。これら複数の利用要求パケットは割当リソースキュー 210に入る。なお、リソースマ ネージャ 202は、サブプロセッサ 102を占有して処理が実行される力 リクエストキュ 一 212は、サブプロセッサ 102内のローカルメモリ 122にあってもよいし、またはメイン メモリ 17にあってもよい。 [0049] The resource scheduler 206 extracts a usage request from the head of the request queue 208, and asynchronously transmits the usage request to the corresponding resource manager 202 (S14). That is, the resource scheduler 206 does not wait for the response of the resource manager 202 to this usage request, and if the allocation resource queue 210 is empty at this time, the next usage request is taken out from the request queue 208 and processed, and the allocation resource queue If 210 is not empty, go to S16. Note that the resource scheduler 206 occupies the sub-processor 102 and executes its processing. The resource allocation resource queue 210 may be in the local memory 122 in the sub-processor 102 or in the main memory 17. Good. The resource manager 202 adds the usage request received from the resource scheduler 206 to the request queue 212. [0050] The resource manager 202 retrieves the usage request from the head force of the request queue 212, and manages and allocates the idle resource power to the appropriate resource, and uses resource allocation information indicating the result of the allocation. It returns a response to the resource scheduler 206 that is the source of the request (S16). This resource allocation information is a plurality of usage request packets formed by dividing the original usage request, and each computer is assigned to the allocated resource. These plurality of usage request packets enter the allocation resource queue 210. The resource manager 202 occupies the sub processor 102 and the processing is executed. The request queue 212 may be in the local memory 122 in the sub processor 102 or may be in the main memory 17. .
[0051] リソーススケジューラ 206は、割当リソースキュー 210が空でなければその先頭から 利用要求パケットを取り出し、割り当てがなされた遊休リソースを保有するコンビユー タのリソースマネージメントクライアント 200aに対して利用要求パケットを転送する(S 18)。利用要求パケットを受信したリソースを提供するコンピュータにおいては、そのリ ソースマネージメントクライアント 200aが利用要求に対応するリソースを割り当て、要 求された処理を実行する。  [0051] If the allocated resource queue 210 is not empty, the resource scheduler 206 extracts the usage request packet from its head, and forwards the usage request packet to the resource management client 200a of the computer holding the allocated idle resource. (S 18). In the computer that provides the resource that has received the use request packet, the resource management client 200a allocates the resource corresponding to the use request and executes the requested process.
[0052] リソースマネージメントクライアント 200bは、リソーススケジューラ 206によって要求さ れた処理が成功裏に完了した場合、クリアリングノヽウス 77に対して、利用要求および 利用要求の送信先コンピュータを識別できる情報を送信する。利用要求を受信した タリアリングハウス 77は、利用要求で割り当てられたリソース量に応じて、利用要求に 含まれるリソース利用者の電子署名から特定されるユーザに対して利用料金を課金 する処理を実行する。一方、利用要求が送信されたコンピュータの識別情報によって 特定されるリソース提供者の個人情報力 口座番号またはクレジットカード番号を取り 出し、これらの情報によって特定される口座に対して、利用要求によって割り当てら れたリソース量に応じて決められた利用料金を支払う指示を出す。ここで、利用され たリソースの提供者に支払われる利用料金の額は、リソースの利用者に対して課金さ れた利用料金の額を超えな!/ヽように設定される。  [0052] When the processing requested by the resource scheduler 206 is successfully completed, the resource management client 200b transmits to the clearing nose 77 information that can identify the use request and the destination computer of the use request. To do. Upon receiving the usage request, Talia Ring House 77 executes a process of charging the usage fee to the user specified from the electronic signature of the resource user included in the usage request according to the amount of resources allocated in the usage request. To do. On the other hand, the personal information ability account number or credit card number of the resource provider specified by the identification information of the computer to which the use request is transmitted is taken out and assigned to the account specified by these information by the use request. An instruction to pay a usage fee determined according to the amount of resources allocated is issued. Here, the amount of the usage fee paid to the provider of the resource used does not exceed the amount of the usage fee charged to the resource user! Set as / ヽ.
[0053] (リソース割当実績に応じたリソースマネージャの選択)  [0053] (Select resource manager according to actual resource allocation)
図 7は、運用監視サーバ 98の仲介によりリソースマネージメントクライアント 200がリ ソース割当実績に応じてリソースマネージャ 202を選択する仕組みを説明する図であ る。運用監視サーバ 98は、ネットワーク 51に接続されたサーバのサブプロセッサで動 作する 1以上のリソースマネージャ 202から一定時間ごとにリソース割当実績 230を 受信し (S50)、そのリソース割当実績 230を管理する。一定時間ごとのリソース割当 実績 230は、たとえば一定時間ごとに受信した利用要求数や、一定時間ごとに割当 が成功したリソース量を含む。本図の例では、コンピュータ Aからは一定時間内の利 用要求数が 60回であったことを示すリソース割当実績 230が送られ、コンピュータ B 力もは一定時間内の利用要求数が 150回であったことを示すリソース割当実績 230 が送られ、コンピュータ Cからは利用要求数が一定時間内の 80回であったことを示す リソース割当実績 230が送られる。リソースマネージメントクライアント 200は、運用監 視サーバ 98から各コンピュータのリソース割当実績 230を受信し (S52)、リソース運 用効率がより高いリソースマネージャを選択するためにリソース割当実績を参照する FIG. 7 shows that the resource management client 200 is reset by the operation monitoring server 98. It is a figure explaining the mechanism which selects the resource manager 202 according to a source allocation track record. The operation monitoring server 98 receives the resource allocation record 230 at regular intervals from one or more resource managers 202 operating on a sub processor of the server connected to the network 51 (S50), and manages the resource allocation record 230. . The resource allocation performance 230 at regular intervals includes, for example, the number of usage requests received at regular intervals and the amount of resources successfully allocated at regular intervals. In the example in this figure, resource allocation record 230 is sent from computer A indicating that the number of usage requests within a certain period of time is 60, and computer B power is also used with 150 requests within a certain period of time. A resource allocation record 230 indicating that the request has been made is sent, and a resource allocation record 230 indicating that the number of usage requests was 80 times within a certain time is sent from the computer C. The resource management client 200 receives the resource allocation record 230 of each computer from the operation monitoring server 98 (S52), and refers to the resource allocation record to select a resource manager with higher resource operation efficiency.
[0054] リソースの提供者は、リソースの被使用量に応じて使用料金の配当を受け、他者の 利用のために提供した遊休リソースがより多く使用されれば、より多くの配当を受け取 ることができる。よって、リソース提供者により多くの配当金をもたらすことができるよう に、より高いリソース割当実績を持つリソースマネージャ 202のいずれかを選択し、リ ソース割当実績の変化に応じてリソースマネージャ 202の選択を切り換える(S54)。 [0054] The resource provider receives a dividend for the usage fee according to the amount of the resource used, and receives a higher dividend if the idle resource provided for use by others is used more. be able to. Therefore, select one of the resource managers 202 with a higher resource allocation record so that more dividends can be provided to the resource provider, and select the resource manager 202 according to the change in resource allocation record. Change over (S54).
[0055] リソースマネージメントクライアント 200は、リソースマネージャ 202をリソース割当実 績に応じて自動的に変更してもよいし、リソース提供者による明示的な指示に基づい て変更してもよい。リソース提供者による明示的な指示に基づいて変更する場合、リ ソースマネージメントクライアント 200は、利用可能なリソースマネージャの IDとそのリ ソース割当実績 230とを含むリストをリソース提供者に提示した上で、リソース提供者 による明示的な選択指示を受け取る。  [0055] The resource management client 200 may automatically change the resource manager 202 according to the resource allocation result, or may change the resource manager 202 based on an explicit instruction from the resource provider. When changing based on explicit instructions from the resource provider, the resource management client 200 presents the resource provider with a list containing the IDs of available resource managers and their resource allocation performance 230, Receive explicit selection instructions from resource providers.
[0056] (スケジューリング効率実績に応じたリソーススケジューラの選択)  [0056] (Selection of resource scheduler according to scheduling efficiency performance)
図 8は、運用監視サーバ 98の仲介によりリソースマネージメントクライアント 200がス ケジユーリング効率実績に応じてリソーススケジューラ 206を選択する仕組みを説明 する図である。運用監視サーバ 98は、ネットワーク 51に接続されたサーバのサブプ 口セッサで動作する 1以上のリソーススケジューラ 206から一定時間ごとにスケジユー ル効率実績 240を受信し (S60)、そのスケジュール効率実績 240を管理する。スケ ジュール効率実績 240は、スケジューリングにおいて利用要求を出して力もリソース が割り当てられるまでの平均待ち時間であってもよいし、リクエスト割当成功率であつ てもよい。リソースマネージメントクライアント 200は、運用監視サーバ 98から各コンビ ユータのスケジュール効率実績 240を受信し (S62)、スケジュール効率がより高いリ ソーススケジューラ 206を選択するためにスケジュール効率実績 240を参照する。 FIG. 8 is a diagram illustrating a mechanism in which the resource management client 200 selects the resource scheduler 206 according to the scheduling efficiency performance through the operation monitoring server 98. The operation monitoring server 98 is a sub-server of the server connected to the network 51. The schedule efficiency record 240 is received at regular intervals from one or more resource schedulers 206 that operate in the mouth set (S60), and the schedule efficiency record 240 is managed. The schedule efficiency record 240 may be an average waiting time until a resource is allocated for a request for use in scheduling, or may be a request allocation success rate. The resource management client 200 receives the schedule efficiency record 240 of each computer from the operation monitoring server 98 (S62), and refers to the schedule efficiency record 240 in order to select the resource scheduler 206 with higher schedule efficiency.
[0057] リソースの利用者は、より継続的にリソースが割り当てられることを望むものである。 [0057] A resource user desires that resources be allocated more continuously.
よって、リソース利用者により効率よくリソースが割り当てられるようにするため、より高 V、スケジュール効率実績を持つリソーススケジューラ 206の 、ずれかを選択し、スケ ジュール効率実績の変化に応じてリソーススケジューラ 206の選択を切り換える(S6 4)。  Therefore, in order to allocate resources more efficiently to resource users, select one of the resource schedulers 206 with higher V and schedule efficiency results, and change the resource scheduler 206 according to changes in the schedule efficiency results. Switch the selection (S6 4).
[0058] リソースマネージメントクライアント 200は、リソーススケジューラ 206をスケジュール 効率実績に応じて自動的に変更してもよいし、リソース利用者による明示的な指示に 基づいて変更してもよい。リソース利用者による明示的な指示に基づいて変更する場 合、リソースマネージメントクライアント 200は、利用可能なリソーススケジューラの IDと そのスケジュール効率実績 240とを含むリストをリソース利用者に提示した上で、リソ ース利用者による明示的な選択指示を受け取る。  [0058] The resource management client 200 may automatically change the resource scheduler 206 according to the schedule efficiency record, or may change it based on an explicit instruction from the resource user. When changing based on an explicit instruction from the resource user, the resource management client 200 presents the resource user with a list including the IDs of available resource schedulers and their schedule efficiency results 240, and then performs resource allocation. Receive explicit selection instructions from the service user.
[0059] (第 2の実施の形態) [0059] (Second Embodiment)
本実施の形態においては、リソースと所定のポイントを交換することによりリソースの 利用者と提供者の間で利用の対価を精算する点で第 1の実施の形態と異なる。すな わち、本実施の形態においては、リソースの提供者に対してポイントを付与し、そのポ イントを使用して他のリソースを利用することができ、こうしたポイントを用いることによ つて実質的にリソースの交換を実現することができる。ここでいう「ポイント」は、リソー ス利用の対価を支払うときの仮想的な通貨としての役割を果たし、リソース量に換算 することができる。また、ここでいう「リソース量」は、サブプロセッサ数、メモリ容量、周 辺機器 'WiFiデバイスドライバなどのデバイスといったハードウェア資源の量のみな らず、 WiFiデバイスドライバ占有時間などのリソース使用時間の概念も含まれる。 [0060] 図 9は、第 2の実施の形態におけるリソーススケジューラ、リソースマネージャ、リソー スマネージメントクライアントの 3つのプロセスにおける処理手順を示す。以下、第 1の 実施の形態との相違点を中心に説明し、共通点については説明を省略する。 This embodiment is different from the first embodiment in that the consideration for use is settled between the resource user and the provider by exchanging predetermined points with the resource. In other words, in the present embodiment, points can be given to the resource provider, and other points can be used using the points. Resource exchange can be realized. “Points” here serve as a virtual currency when paying for the use of resources and can be converted into resource amounts. In addition, the “resource amount” here refers not only to the amount of hardware resources such as the number of sub processors, memory capacity, peripheral devices' devices such as WiFi device drivers, but also to resource usage time such as WiFi device driver occupation time. A concept is also included. FIG. 9 shows processing procedures in three processes of the resource scheduler, the resource manager, and the resource management client in the second embodiment. In the following, differences from the first embodiment will be mainly described, and description of common points will be omitted.
[0061] (ポイント口座の登録)  [0061] (Register point account)
リソースの提供者および利用者となるコンピュータの所有者は、 口座設定インタフエ ース 226を通じて、リソース交換用のポイント口座をあら力じめ開設することにより、ク リアリングノヽウス 77との間で利用契約を結ぶ。 口座設定インタフェース 226は、利用 契約に必要な情報として、コンピュータの識別情報と、所有者の個人情報とをネットヮ ーク 51経由でタリアリングハウス 77に転送する。所有者の個人情報は、たとえば所有 者の氏名、電話番号や電子メールアドレスなどの連絡先情報、ポイント口座の識別 情報など、その所有者の特定に必要な情報やその所有者へのリソース交換ポイント 付与に必要な情報である。コンピュータとクリアリングノヽウス 77の間の通信はセキュア に保たれることが望ましい。クリアリングノ、ウス 77は、リソース設定インタフェースから 受け取った情報を、管理するリソースの提供元を示す提供元リスト 222に書き込む。 タリアリングハウス 77は、ポイント口座を開設したコンピュータに対し、その所有者を一 意に特定して認証するための電子署名を送信する。クリアリングハウス 77は、ポイント 口座をはじめとする所有者の個人情報を電子署名によって特定する。ポイント口座は 、クリアリングハウス 77内に置かれてもよいし、ネットワーク 51内の別のサーバに置か れてもよい。ただし、クリアリングノヽウス 77とは別のサーバに置かれる場合、タリアリン グハウス 77がそのサーバに直接アクセスできるようにする必要がある。  The resource provider and the owner of the computer, who will be the user, can use it with Clearing Knows 77 by opening a point account for resource exchange through the account setting interface 226. Sign a contract. The account setting interface 226 transfers the computer identification information and the owner's personal information as information necessary for the use contract to the thalia ring house 77 via the network 51. The owner's personal information includes, for example, the name of the owner, contact information such as phone number and email address, identification information of the point account, etc., information necessary to identify the owner, and resource exchange points to the owner Information necessary for granting. Communication between the computer and Clearing Now 77 should be kept secure. The clearing node and the user 77 write the information received from the resource setting interface to the provider list 222 indicating the provider of the resource to be managed. Talia Ring House 77 sends an electronic signature to the computer that opened the point account to uniquely identify and authenticate the owner. The clearinghouse 77 identifies the owner's personal information including the point account by electronic signature. The point account may be placed in the clearinghouse 77 or may be placed on another server in the network 51. However, if it is located on a separate server from Clearing Now 77, it must be possible for Taliaring House 77 to have direct access to that server.
[0062] (リソース提供者の登録)  [0062] (Registration of resource provider)
リソースの提供者は、提供設定インタフェース 220を通じて、そのコンピュータのリソ ースの一部または全部を他のコンピュータに対して提供するかどうかを設定する。本 実施の形態における提供設定インタフェース 220は、提供するリソースが他のコンビ ユータによって利用された場合、後にそのコンピュータが他のコンピュータのリソース を利用する際に使用できるリソース交換ポイントの評価額を計算し、コンピュータ画面 に表示する。また、本実施の形態における提供リソース情報は、提供設定インタフエ ース 220からクリアリングノヽウス 77へ電子署名とともに転送され、クリアリングノヽウス 77 にお 、て提供元リスト 222に書き込まれる。 The resource provider sets whether or not to provide part or all of the computer's resources to other computers through the provision setting interface 220. In the present embodiment, the provision setting interface 220 calculates the evaluation value of the resource exchange point that can be used later when the computer uses the resource of the other computer when the resource to be provided is used by another computer. Displayed on the computer screen. Also, the provided resource information in this embodiment is transferred from the provision setting interface 220 to the clearing nose 77 together with an electronic signature, and the clearing noun 77 Then, it is written in the provider list 222.
[0063] (リソース利用者の登録)  [0063] (Registration of resource users)
リソースの利用希望者は、リソースと交換できるポイントを自己のポイント口座にあら 力じめ保有する必要がある。  Those who wish to use the resource need to store in their points account points that can be exchanged for the resource.
[0064] サブプロセッサの個数不足などのリソース不足を検出したコンピュータで動作するリ ソースマネージメントクライアント 200bは、不足リソースとの交換に十分なポイントを有 している力否かをポイント口座で確認する。その上で、十分なポイントを有していた場 合には、リソーススケジューラ 206に利用要求を送信する。利用要求を送信する際、 リソースマネージメントクライアント 200bは、所定のストレージエリア力も電子署名を読 み出し、これを利用要求とともにリソーススケジューラ 206へ送信する。  [0064] The resource management client 200b operating on a computer that detects a shortage of resources such as a shortage of sub-processors confirms whether or not it has sufficient points to exchange for the shortage resources with a point account. In addition, when there are enough points, a use request is transmitted to the resource scheduler 206. When transmitting the usage request, the resource management client 200b reads out the electronic signature with a predetermined storage area capability, and transmits it to the resource scheduler 206 together with the usage request.
[0065] リソースマネージメントクライアント 200bは、リソーススケジューラ 206によって要求さ れた処理が成功裏に完了した場合、クリアリングノヽウス 77に対して、利用要求および 利用要求の送信先コンピュータを識別できる情報を送信する。利用要求を受信した タリアリングハウス 77は、利用要求で割り当てられたリソース量に応じて、利用要求に 含まれる電子署名から利用者を特定し、その利用者のポイント口座カゝらポイントを差 し引く。一方、利用要求の送信先コンピュータの識別情報によって特定されるリソース 提供者の個人情報力 ポイント口座の識別情報を取り出し、このポイント口座に対し て、利用要求によって割り当てられたリソース量に応じて決められた額のポイントを加 算する指示を出す。ここで、利用されたリソースの提供者に対して加算されるリソース 交換ポイントは、リソースの利用者力も減算されたリソース交換ポイントを超えな 、よう に設定するのが好ましい。  [0065] When the processing requested by the resource scheduler 206 has been successfully completed, the resource management client 200b sends a usage request and information that can identify the destination computer of the usage request to the clearing node 77. To do. Upon receiving the use request, Talia Ring House 77 identifies the user from the electronic signature included in the use request according to the amount of resources allocated in the use request, and calculates the points from the user's point account. Pull. On the other hand, the personal information ability of the resource provider identified by the identification information of the destination computer of the usage request is extracted, and the identification information of the point account is taken out and determined for the point account according to the amount of resources allocated by the usage request. Give instructions to add the amount of points. Here, it is preferable that the resource exchange point added to the provider of the used resource is set so as not to exceed the resource exchange point from which the resource user power is also subtracted.
[0066] 以上、本発明を実施の形態をもとに説明した。この実施の形態は例示であり、その 各構成要素や各処理プロセスの組合せに 、ろ 、ろな変形が可能なこと、またそうした 変形例も本発明の範囲にあることは当業者に理解されるところである。以下、そうした 変形例を挙げる。  [0066] The present invention has been described based on the embodiments. This embodiment is an exemplification, and it is understood by those skilled in the art that various modifications can be made to the combination of each component and each treatment process, and such modifications are also within the scope of the present invention. By the way. Examples of such modifications are given below.
[0067] 第 1および第 2の実施の形態においては、ネットワークコンピュータ 10が搭載するマ ルチプロセッサ 20として非対称型に構成されたマルチプロセッサを例示した。変形例 においては、対称型のマルチプロセッサをネットワークコンピュータ 10に搭載させた 構成を採用してもよい。 In the first and second embodiments, the multiprocessor configured as an asymmetric type is exemplified as the multiprocessor 20 installed in the network computer 10. In the modification, a symmetric multiprocessor is installed in the network computer 10. A configuration may be adopted.
[0068] 図 10は、第 1の変形例におけるワンチップマルチプロセッサの構成を示す。本図に 示すマルチプロセッサ 300は、図 1におけるマルチプロセッサ 20の代わりにネットヮ ークコンピュータ 10へ搭載される。マルチプロセッサ 300は、第 1プロセッサ 302、第 2プロセッサ 304、第 1L1キャッシュ 306、第 2L1キャッシュ 308、第 1L2キャッシュ 31 0、第 2L2キャッシュ 312、メモリコントローラ 314を有する。第 1プロセッサ 302、第 1L 1キャッシュ 306、第 1L2キャッシュ 310、メモリコントローラ 314は、互いに接続されて 図 1のメインプロセッサ 100またはサブプロセッサ 102に代わるプロセッサユニットとし て動作する。同様に、第 2プロセッサ 304、第 2L1キャッシュ 308、第 2L2キャッシュ 3 12、メモリコントローラ 314もまた、互いに接続されて図 1のメインプロセッサ 100また はサブプロセッサ 102に代わるプロセッサユニットとして動作する。ただし、メモリコント ローラ 314はマルチプロセッサ 300に一つだけ搭載され、第 1プロセッサ 302のュ- ットと第 2プロセッサ 304のユニットで共用される。第 1プロセッサ 302と第 2プロセッサ 304ίま互 、に接続されて!、る。  FIG. 10 shows a configuration of the one-chip multiprocessor in the first modification. The multiprocessor 300 shown in this figure is mounted on the network computer 10 instead of the multiprocessor 20 in FIG. The multiprocessor 300 includes a first processor 302, a second processor 304, a first L1 cache 306, a second L1 cache 308, a first L2 cache 310, a second L2 cache 312, and a memory controller 314. The first processor 302, the first L1 cache 306, the first L2 cache 310, and the memory controller 314 are connected to each other and operate as a processor unit that replaces the main processor 100 or the sub processor 102 of FIG. Similarly, the second processor 304, the second L1 cache 308, the second L2 cache 312 and the memory controller 314 are also connected to each other and operate as a processor unit in place of the main processor 100 or the sub processor 102 in FIG. However, only one memory controller 314 is mounted on the multiprocessor 300 and is shared by the first processor 302 unit and the second processor 304 unit. The first processor 302 and the second processor 304 are connected to each other!
[0069] 本図のとおり、第 1プロセッサ 302、第 1L1キャッシュ 306、第 1L2キャッシュ 310と、 第 2プロセッサ 304、第 2L1キャッシュ 308、第 2L2キャッシュ 312とが、メモリコント口 ーラ 314を介して対称的に構成されている。第 1プロセッサ 302および第 2プロセッサ 304のうち、一方のプロセッサが他方のプロセッサにタスクを割り当てるようなメインと サブの関係で動作してもよ 、。  [0069] As shown in the figure, the first processor 302, the first L1 cache 306, the first L2 cache 310, the second processor 304, the second L1 cache 308, and the second L2 cache 312 are connected via the memory controller 314. It is constructed symmetrically. Of the first processor 302 and the second processor 304, one processor may operate in a main and sub relationship in which a task is assigned to the other processor.
[0070] 図 11は、第 2の変形例におけるワンチップマルチプロセッサの構成を示す。本図に 示すマルチプロセッサ 320もまた、図 1におけるマルチプロセッサ 20の代わりにネット ワークコンピュータ 10へ搭載される。マルチプロセッサ 320は、第 1プロセッサ 322、 第 2プロセッサ 324、第 1L1キャッシュ 326、第 2L1キャッシュ 328、 L2キャッシュ 330 、メモリコントローラ 332を有する。第 1プロセッサ 322、第 1L1キャッシュ 326、 L2キヤ ッシュ 330、メモリコントローラ 332は、互いに接続されて図 1のメインプロセッサ 100ま たはサブプロセッサ 102に代わるプロセッサユニットとして動作する。同様に、第 2プ 口セッサ 324、第 2L1キャッシュ 328、 L2キャッシュ 330、メモリコントローラ 332もまた 、接続されて図 1のメインプロセッサ 100またはサブプロセッサ 102に代わるプロセッ サユニットとして動作する。ただし、 L2キャッシュ 330とメモリコントローラ 332は、それ ぞれマルチプロセッサ 320に一つずつだけ搭載され、第 1プロセッサ 322のユニットと 第 2プロセッサ 324のユニットで共用される。第 1プロセッサ 322、第 2プロセッサ 324 は互いに接続されている。 FIG. 11 shows a configuration of a one-chip multiprocessor in the second modification. The multiprocessor 320 shown in this figure is also installed in the network computer 10 instead of the multiprocessor 20 in FIG. The multiprocessor 320 includes a first processor 322, a second processor 324, a first L1 cache 326, a second L1 cache 328, an L2 cache 330, and a memory controller 332. The first processor 322, the first L1 cache 326, the L2 cache 330, and the memory controller 332 are connected to each other and operate as a processor unit that replaces the main processor 100 or the sub processor 102 in FIG. Similarly, the second processor 324, the second L1 cache 328, the L2 cache 330, and the memory controller 332 are also connected to a processor that replaces the main processor 100 or the sub processor 102 in FIG. Operates as a unit. However, only one L2 cache 330 and one memory controller 332 are installed in the multiprocessor 320, and the L2 cache 330 and the memory controller 332 are shared by the first processor 322 unit and the second processor 324 unit. The first processor 322 and the second processor 324 are connected to each other.
[0071] 本図のとおり、第 1プロセッサ 322、第 1L1キャッシュ 326と、第 2プロセッサ 324、第 2L1キャッシュ 328と力 L2キャッシュ 330とメモリコントローラ 332を介して対称的に 構成されている。第 1プロセッサ 322と第 2プロセッサ 324のうち、一方のプロセッサが 他方のプロセッサにタスクを割り当てるようなメインとサブの関係で動作してもよい。 As shown in the figure, the first processor 322, the first L1 cache 326, the second processor 324, the second L1 cache 328, the force L2 cache 330, and the memory controller 332 are configured symmetrically. Of the first processor 322 and the second processor 324, one processor may operate in a main and sub relationship in which a task is assigned to the other processor.
[0072] なお、図 10および図 11では、対称型のマルチプロセッサとして二つのプロセッサを 有する構成を例示した力 それ以上の数のプロセッサ、たとえば 4個以上のプロセッ サを有する構成であってもよ 、。  [0072] In FIG. 10 and FIG. 11, a power exemplifying a configuration having two processors as a symmetric multiprocessor may be a configuration having a larger number of processors, for example, four or more processors. ,.
産業上の利用可能性  Industrial applicability
[0073] ネットワーク上のハードウェアリソースの提供と利用の促進を図るシステムを構築す ることがでさる。 [0073] It is possible to construct a system that promotes the provision and use of hardware resources on the network.

Claims

請求の範囲 The scope of the claims
[1] 相互にネットワークで接続された複数のコンピュータを含むシステムであって、 前記複数のコンピュータは、  [1] A system including a plurality of computers connected to each other via a network, wherein the plurality of computers are:
それぞれがローカルメモリを有して独立に動作する複数のプロセッサを含んだマル チプロセッサにおけるいずれかのプロセッサにより、ネットワーク上のコンピュータから ネットワークを介して提供されることが可能となっているハードウェアリソースの情報を 受信してハードウェアリソース利用要求を受けたときは前記管理するハードウェアリソ ースの提供を処理するリソースマネージャを前記ローカルメモリにロードされた状態で 動作させるコンピュータと、  Hardware resources that can be provided via a network from a computer on the network by any processor in the multiprocessor that includes multiple processors that each have local memory and operate independently A computer that operates a resource manager that processes provision of hardware resources to be managed when loaded into the local memory when receiving a hardware resource use request.
それぞれがローカルメモリを有して独立に動作する複数のプロセッサを含んだマル チプロセッサにおけるいずれかのプロセッサにより、ネットワーク上のコンピュータから ハードウェアリソース利用要求を受信して前記リソースマネージャの仲介によって提 供されるハードウェアリソースを前記ハードウェアリソース利用要求に対して割り当て るリソーススケジューラを前記ローカルメモリにロードされた状態で動作させるコンビュ ータと、  Each processor in a multiprocessor including a plurality of processors each having a local memory and operating independently receives a hardware resource use request from a computer on the network and provides it by mediation of the resource manager. A computer for operating a resource scheduler for allocating a hardware resource to be used for the hardware resource use request in a state loaded in the local memory;
他のコンピュータへハードウェアリソースの提供が可能となったときに前記ハードウ エアリソースの情報を前記リソースマネージャに送信するとともに、他のコンピュータの ハードウェアリソースを利用する場合にはハードウェアリソースの利用要求を前記リソ ーススケジューラに送信するリソースマネージメントクライアントを動作させるクライアン トコンピュータと、  When the hardware resource can be provided to another computer, the hardware resource information is transmitted to the resource manager, and when the hardware resource of another computer is used, a request for using the hardware resource A client computer for operating a resource management client that transmits the resource scheduler to the resource scheduler;
ネットワーク上のコンピュータが他のコンピュータとの間でハードウェアリソースの提 供および利用が実行されたときに、提供または利用されたリソース量の情報と提供者 および利用者を特定するために必要な情報とを前記リソースマネージメントクライアン トから受信し、利用料の精算を処理するクリアリングハウスコンピュータと、  Information on the amount of resources provided or used and information necessary to identify the provider and user when a computer on the network provides and uses hardware resources with other computers A clearinghouse computer that receives payment from the resource management client and processes the payment of the usage fee;
を含むことを特徴とするネットワークコンピューティングシステム。  A network computing system comprising:
[2] 前記タリアリングハウスコンピュータは、前記ハードウェアリソース利用要求に対する 前記リソーススケジューラによる割当が成功した場合に、割り当てられたノヽードウエア リソースを利用するクライアントコンピュータにおける前記リソースマネージメントクライ アントから前記利用要求の内容および割り当てられたリソース量の情報を受信し、そ のリソース量に応じた利用料の精算を前記クライアントコンピュータの利用者へ課金 する処理をするとともに、前記課金した利用料の少なくとも一部を前記利用要求から 特定される前記ハードウェアリソースの所有者への支払を処理することを特徴とする 請求項 1に記載のネットワークコンピューティングシステム。 [2] When the allocation by the resource scheduler for the hardware resource use request is successful, the resourceing house computer uses the resource management client in the client computer that uses the assigned node resource. The information on the usage request and the allocated resource amount is received from the ant, and the user is charged for payment of the usage fee according to the resource amount. The network computing system according to claim 1, wherein a payment to an owner of the hardware resource identified from the usage request is processed at least in part.
[3] 前記クリアリングノヽウスコンピュータは、ハードウェアリソースを提供する可能性のあ るコンピュータとハードウェアリソースを利用する可能性のあるコンピュータに対して設 定された利用料の口座を管理し、ハードウェアリソースの利用者の口座から前記利用 料を減算するとともにハードウェアリソースの提供者の口座に前記利用料の少なくとも 一部を加算することを特徴とする請求項 1または 2に記載のネットワークコンビユーティ ングシステム。 [3] The Clearing Knows computer manages accounts of usage fees set for computers that may provide hardware resources and computers that may use hardware resources. 3. The network combination according to claim 1, wherein the usage fee is subtracted from a hardware resource user account and at least a part of the usage fee is added to a hardware resource provider account. Utilizing system.
[4] 前記タリアリングハウスコンピュータは、前記利用料を仮想的な通貨を用いて前記 口座から加算または減算することによって、前記仮想的な通貨とリソースとの実質的 な交換を実現することを特徴とする請求項 3に記載のネットワークコンピューティング システム。  [4] The talia ring house computer realizes a substantial exchange between the virtual currency and the resource by adding or subtracting the usage fee from the account using the virtual currency. The network computing system according to claim 3.
[5] それぞれがローカルメモリを有して独立に動作する複数のプロセッサを含んだマル チプロセッサと、  [5] a multiprocessor including a plurality of processors each having a local memory and operating independently;
ネットワーク上のコンピュータ力 ハードウェアリソース利用要求を受信して前記リソ ースマネージャの仲介によって提供されるハードウェアリソースを前記ハードウェアリ ソース利用要求に対して割り当てるリソーススケジューラが動作する他のマルチプロ セッサコンピュータとの間でデータを送受信するとともに、ネットワーク上のコンビユー タのハードウェアリソースの提供および利用があつたときにその利用料の精算を処理 するクリアリングノヽウスコンピュータとの間でデータを送受信するネットワーク通信部と 、を備え、  Computer power on the network Receiving a hardware resource use request and assigning a hardware resource provided by mediation of the resource manager to the hardware resource use request with another multiprocessor computer running a resource scheduler A network communication unit that sends and receives data to and from a Clearing-Neous computer that handles the settlement of usage fees when hardware resources are provided and used by computers on the network. And
前記マルチプロセッサは、他のマルチプロセッサコンピュータのハードウェアリソー スを利用する場合にハードウェアリソースの利用要求をネットワーク上のいずれかの マルチプロセッサコンピュータで動作する前記リソーススケジューラに送信するととも に他のコンピュータのハードウェアリソースを利用したときはその利用要求の内容およ び利用したリソース量の情報を前記クリアリングノヽウスコンピュータへ送信するリソース マネージメントクライアントが動作するプロセッサを含むことを特徴とするマルチプロセ ッサコンピュータ。 When the multiprocessor uses a hardware resource of another multiprocessor computer, the multiprocessor sends a request for using a hardware resource to the resource scheduler operating on any multiprocessor computer on the network, and the other computer. When using hardware resources, the contents of the usage request and And a processor that operates a resource management client that transmits information on the amount of used resources to the clearing computer.
PCT/JP2006/319677 2006-03-28 2006-10-02 Network computing system and multi-processor computer WO2007110986A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006087146A JP4963855B2 (en) 2006-03-28 2006-03-28 Network computing system and multiprocessor computer
JP2006-087146 2006-03-28

Publications (1)

Publication Number Publication Date
WO2007110986A1 true WO2007110986A1 (en) 2007-10-04

Family

ID=38540924

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/319677 WO2007110986A1 (en) 2006-03-28 2006-10-02 Network computing system and multi-processor computer

Country Status (2)

Country Link
JP (1) JP4963855B2 (en)
WO (1) WO2007110986A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107015940A (en) * 2015-11-12 2017-08-04 三星电子株式会社 Multicomputer system and its method comprising the memory shared by multiprocessor

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013043900A2 (en) * 2011-09-20 2013-03-28 Robert Gelfond Service based certificate
US10715463B1 (en) 2020-02-20 2020-07-14 Robert Gelfond System and method for controlling access to resources in a multicomputer network

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000076211A (en) * 1998-08-24 2000-03-14 Lucent Technol Inc Simulation executing device and simulation executing method
JP2003006171A (en) * 2001-06-21 2003-01-10 National Agricultural Research Organization System for entrusting parallel processing calculation via the internet
JP2005339401A (en) * 2004-05-28 2005-12-08 Sony Corp Information processor and control method thereof, information processing controller, information processing unit and control method thereof, and computer program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6842857B2 (en) * 2001-04-12 2005-01-11 International Business Machines Corporation Method and apparatus to concurrently boot multiple processors in a non-uniform-memory-access machine

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000076211A (en) * 1998-08-24 2000-03-14 Lucent Technol Inc Simulation executing device and simulation executing method
JP2003006171A (en) * 2001-06-21 2003-01-10 National Agricultural Research Organization System for entrusting parallel processing calculation via the internet
JP2005339401A (en) * 2004-05-28 2005-12-08 Sony Corp Information processor and control method thereof, information processing controller, information processing unit and control method thereof, and computer program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
NAZARENO ANDRADE ET AL.: "OurGrid: An Approach to Easily Assemble Grids with Equitable Resource Sharing", PROCEEDINGS OF 9TH INTERNATIONAL WORKSHOP ON JOB SCHEDULING STRATEGIES FOR PARALLEL PROCESSING, LNCS2862, 24 June 2003 (2003-06-24), pages 61 - 86, XP019049433 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107015940A (en) * 2015-11-12 2017-08-04 三星电子株式会社 Multicomputer system and its method comprising the memory shared by multiprocessor
CN107015940B (en) * 2015-11-12 2021-12-21 三星电子株式会社 Multiprocessor system including memory shared by multiple processors and method thereof

Also Published As

Publication number Publication date
JP2007264886A (en) 2007-10-11
JP4963855B2 (en) 2012-06-27

Similar Documents

Publication Publication Date Title
US11630704B2 (en) System and method for a workload management and scheduling module to manage access to a compute environment according to local and non-local user identity information
CN1128406C (en) Interrupt architecture for non-uniform memory access (NUMA) data processing system
US10915491B2 (en) Managing use of program execution capacity
US10114668B2 (en) Managing private use of program execution capacity
JP4214682B2 (en) Computer and its input / output means
JP3555846B2 (en) Thread server performance enhancement method and apparatus
CN109324900B (en) Bidding-based resource sharing for message queues in an on-demand service environment
US9658881B1 (en) Application hosting in a distributed application execution system
JP4567125B2 (en) Method and apparatus for transferring write cache data in data storage and data processing system
JP2015537307A (en) Component-oriented hybrid cloud operating system architecture and communication method thereof
JP2006236351A (en) Resource management method and system
CN102298539A (en) Method and system for scheduling shared resources subjected to distributed parallel treatment
CN102541803A (en) Data sending method and computer
JP4963854B2 (en) Multiprocessor computer and network computing system
WO2005116832A1 (en) Computer system, method, and program for controlling execution of job in distributed processing environment
Begam et al. Timer-cloud: Time-sensitive vm provisioning in resource-constrained clouds
JP5961402B2 (en) Computer system
JP4963855B2 (en) Network computing system and multiprocessor computer
López García et al. Resource provisioning in Science Clouds: Requirements and challenges
Assudani et al. Cost efficient resource scheduling in cloud computing: a survey
JP2013041361A (en) Resource arbitration system and resource arbitration method
CN113176950B (en) Message processing method, device, equipment and computer readable storage medium
Shih et al. Imprecise computation over the cloud
CN113467932A (en) Load balancing method, system and storage medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 06811025

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 06811025

Country of ref document: EP

Kind code of ref document: A1