WO2017051474A1 - 計算機システムの管理方法及び計算機システム - Google Patents

計算機システムの管理方法及び計算機システム Download PDF

Info

Publication number
WO2017051474A1
WO2017051474A1 PCT/JP2015/077140 JP2015077140W WO2017051474A1 WO 2017051474 A1 WO2017051474 A1 WO 2017051474A1 JP 2015077140 W JP2015077140 W JP 2015077140W WO 2017051474 A1 WO2017051474 A1 WO 2017051474A1
Authority
WO
WIPO (PCT)
Prior art keywords
computer
virtual
plan
management
resources
Prior art date
Application number
PCT/JP2015/077140
Other languages
English (en)
French (fr)
Inventor
裕太 江野
哲 西本
俊雄 大谷
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to US15/754,478 priority Critical patent/US20180246763A1/en
Priority to CN201580081643.6A priority patent/CN107836010A/zh
Priority to PCT/JP2015/077140 priority patent/WO2017051474A1/ja
Publication of WO2017051474A1 publication Critical patent/WO2017051474A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5011Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0283Price estimation or determination

Definitions

  • the present invention relates to a resource management method.
  • Patent Document 1 As a background technology of this technology, there is International Publication No. 2014/122743 (Patent Document 1).
  • Patent Document 1 the use resource history of the migration target virtual guest is added to the use resource history of the migration destination candidate virtual host, and it is assumed that the migration target virtual guest has migrated.
  • a management system is disclosed that estimates the used resource history and determines the migration destination virtual host from the migration destination candidate virtual hosts based on the estimation result.
  • a typical example of the invention disclosed in the present application is as follows. That is, a management method of a computer system that provides a virtual computer used by a customer, wherein a management computer that manages resources allocated to the virtual computer is connected to the virtual computer, and the method includes the management computer Monitors the usage status of resources allocated to the virtual machine, and the management computer determines the allocation amount of resources to the virtual machine based on the monitoring result of the usage status of resources allocated to the virtual machine.
  • a new reduced allocation plan is created, and the management computer creates a migration plan for virtual machines including virtual machines based on the new allocation plan based on the selection of the allocation plan by the customer.
  • a new virtual machine can be allocated without increasing resources. Problems, configurations, and effects other than those described above will become apparent from the description of the following embodiments.
  • program is used as the subject.
  • the program performs processing determined by being executed by the processor using the memory and the communication port (communication control device)
  • the processor is used as the subject.
  • the explanation may be as follows. Further, the processing disclosed with the program as the subject may be processing performed by a computer such as a management server or an information processing apparatus. Further, part or all of the program may be realized by dedicated hardware.
  • Various programs may be installed in each computer by a program distribution server or a storage medium that can be read by the computer.
  • the program distribution server includes a CPU and storage resources, and the storage resources further store a distribution program and a program to be distributed.
  • the distribution program is executed by the CPU, the CPU of the program distribution server distributes the distribution target program to other computers.
  • FIG. 1 is a diagram showing a configuration of a resource management system according to an embodiment of the present invention.
  • the resource management system includes a data center 100 installed by a managed service provider, a cloud service provider terminal 200, and a network switch 300, and provides the customer terminal 600 with the cloud service 500.
  • the data center 100 includes a management computer 110, a storage system 120, a physical computer 130, and a connection device 140.
  • the storage system 120 has a large capacity storage device such as a magnetic disk drive or an SSD, and provides a logical virtual volume 121 from a part of the storage device.
  • the virtual volume 121 is provided to a cloud service customer and stores user data.
  • the physical computer 130 has a processor and a memory resource, and provides a virtual machine 131 to which the processor and a part of the memory resource are allocated.
  • the virtual machine 131 is provided to a customer of the cloud service, and executes a desired calculation process by an operation from the customer terminal 600 and an operation from the cloud service provider terminal 200.
  • the connection device 140 is an interface that connects resources in the data center 100 to the network switch 300.
  • the connection device 140 is provided to a cloud service customer and controls communication between the network switch 300 and the virtual machine 131 or virtual volume 121 to which a part of the resource is allocated.
  • the management computer 110 is a computer for managing these resources, and includes a processor that executes a program and a storage device (memory and nonvolatile storage device) that stores the program.
  • the resources of the management computer 110 may be provided from the storage system 120 and the physical computer 130. The logical configuration of the management computer 110 will be described later with reference to FIG.
  • the management computer 110 has an input / output device.
  • input / output devices include a display, a keyboard, and a pointer device, but other devices may be used.
  • a serial interface or an Ethernet interface is used as the input / output device, and a display computer having a display or keyboard or pointer device is connected to the interface, and the display information is transmitted to the display computer.
  • the display computer may perform the display, or the input may be replaced by the input / output device by receiving the input.
  • a set of one or more computers that manage the information processing system and display the display information of the present invention may be referred to as a management system.
  • the management computer 110 displays the display information
  • the management computer 110 is a management system
  • the combination of the management computer 110 and the display computer is also a management system.
  • a plurality of computers may realize processing equivalent to that of the management computer 110.
  • the plurality of computers in the case where the display computer performs display, display is performed).
  • Management computer is the management system.
  • a plurality of management computers 110, storage systems 120, physical computers 130, and connection devices 140 may be provided.
  • the network switch 300 connects the data center 100, the cloud service provider terminal 200, and the network 400.
  • the cloud service provider provides a service that lends the resources provided by the data center 100 to the customer by the managed service provider.
  • the cloud service provider terminal 200 operates the management computer 110 to control lending of resources to customers.
  • the management computer 110 is operated by a plurality of cloud service provider terminals 200, and its resources are provided from the data center 100.
  • the network switch 300 is connected to the customer terminal 600 via the network 400.
  • the customer terminal 600 is a computer operated by a customer who receives the provision of resources (that is, the cloud service 500), and communicates with a processor that executes a program, a storage device (memory and nonvolatile storage device) that stores the program, and a network.
  • a communication interface ; an input interface that receives an input from the operator; and an output interface that outputs an execution result of the program to the operator.
  • the resource provided by the data center 100 appears as a cloud service 500.
  • FIG. 1 one customer terminal 600 is illustrated, but a plurality of customer terminals 600 may be provided.
  • FIG. 2 is a diagram showing a logical configuration of the management computer 110 according to the embodiment of this invention.
  • the management computer 110 has a virtual machine allocation processing program 111.
  • the virtual machine allocation processing program 111 is stored in the memory and is executed by the processor.
  • the virtual machine allocation processing program 111 includes a resource allocation status collection program 112 and a resource usage status collection program 113 as subprograms.
  • the virtual machine allocation processing program 111 manages allocation of resources to customers.
  • the resource allocation status collection program 112 collects information on resources allocated to customers.
  • the resource usage status collection program 113 collects the usage status of resources allocated to customers.
  • the management computer 110 has a customer information table 114, a virtual machine allocation plan table 115, a resource management table 116, and a charge fluctuation program usage group management table 117, and these tables are stored in the virtual volume 121.
  • the customer information table 114 is a table for managing customers who receive cloud services from managed service providers, and details thereof will be described later with reference to FIG.
  • the virtual machine allocation plan table 115 is a table for managing a plan that defines the contents of the cloud service received by the customer, and details thereof will be described later with reference to FIG.
  • the resource management table 116 is a table for managing resources allocated to the virtual machine 131, and details thereof will be described later with reference to FIG.
  • the charge fluctuation program usage group management table 117 is a table for managing the usage rate and the charge of the virtual machine 131, and details thereof will be described later with reference to FIG.
  • FIG. 3 is a diagram illustrating a configuration example of the customer information table 114 according to the embodiment of this invention.
  • the customer information table 114 is a table for managing customers who receive cloud services from managed service providers, and includes a serial number 1141, a customer name 1142, a virtual machine allocation plan name 1143, and a virtual machine ID 1144.
  • the serial number 1141 is identification information for uniquely identifying data stored in the customer information table 114.
  • the customer name 1142 is the name of the customer who receives the cloud service.
  • the virtual machine allocation plan name 1143 is a name of a plan that defines the contents of the cloud service received by the customer.
  • the virtual machine ID 1144 indicates identification information of a virtual machine assigned to the customer and a period during which the virtual machine is assigned.
  • FIG. 4 is a diagram showing the virtual machine allocation plan table 115 according to the embodiment of this invention.
  • the virtual machine allocation plan table 115 is a table for managing a plan that defines the contents of the cloud service received by the customer.
  • the serial number 1151 is identification information for uniquely identifying data stored in the virtual machine allocation plan table 115.
  • the virtual machine allocation plan name 1152 is the name of the plan.
  • the usage period 1153 is a period during which the customer can use the virtual machine 131 in the plan.
  • the price 1154 is the price of the plan.
  • the price 1154 includes a fixed fee defined by a numerical value, a pay-as-you-go fee that varies depending on the resource usage rate, and a fee discounted at a predetermined rate from a fixed charge or a pay-as-you-go fee.
  • the virtual machine allocation program 1155 indicates the characteristics of the plan, and records, for example, “fixed charge program”, “charge change program” and the like.
  • the “fixed fee program” is a plan in which the fee does not change depending on the number of virtual machine users.
  • the “fee change program” is a plan in which the charge changes depending on the number of virtual machine users, that is, if the number of virtual machine users is large, the charge decreases even if the amount of allocated resources does not change.
  • the migration plan 1156 indicates switching of the virtual machine 131 by migration in the plan. Specifically, the migration plan 1156 indicates the amount of resources that the customer can use and the period during which the resources can be used.
  • FIG. 5 is a diagram showing the resource management table 116 according to the embodiment of this invention.
  • the resource management table 116 is a table for managing resources allocated to the virtual machine 131, and includes a virtual machine number 1161, a processor allocation amount 1162, a memory allocation amount 1163, and an allocation status 1164.
  • the virtual machine number 1161 is identification information for uniquely identifying the virtual machine 131.
  • the processor allocation amount 1162 is the amount of processor resources (that is, the number of CPUs) allocated to the virtual machine.
  • the memory allocation amount 1163 is the amount of memory resources (that is, the capacity of RAM) allocated to the virtual machine.
  • the allocation status 1164 indicates whether the virtual machine is provided to the customer. In the allocation status 1164, “allocated” in which all time zones are allocated, “free” in which all time zones are not allocated, a set of periods and customers in which virtual machines are allocated are recorded.
  • FIG. 6 is a diagram showing the charge fluctuation program usage group management table 117 according to the embodiment of this invention.
  • the fee fluctuation program usage group management table 117 is a table for managing the usage rate and fee of the virtual machine 131, and includes a serial number 1171, a group ID 1172, a usage status 1173, and a fee 1174.
  • the serial number 1171 is identification information for uniquely identifying data stored in the management table 117 of the charge fluctuation program usage group.
  • the group ID 1172 is identification information for uniquely identifying the charge fluctuation program usage group.
  • the group may be configured by one physical computer 130, but the group may be configured by a plurality of physical computers 130.
  • the usage status 1173 is a value obtained by dividing the number of customers using the computer by the maximum number of customers.
  • a charge 1174 is a charge per customer of the computer.
  • the charge 1174 is set so that the charge is reduced as the number of virtual machines used in one physical computer 130 increases. Yes. Note that the charge may be constant regardless of the number of virtual machines used by one physical computer 130.
  • FIG. 7 is a flowchart of resource utilization status collection processing according to the embodiment of this invention.
  • the resource usage status collection process is executed by the management computer 110 to check whether resources can be aggregated.
  • the virtual machine allocation processing program 111 selects one customer.
  • the resource allocation status collection program 112 refers to the customer information table 114 and the resource management table 116, and collects information on resources allocated to the selected customer (S1001).
  • the customer A is assigned a virtual machine 2 (two CPUs and 128 GB of memory) and a virtual machine 9 (eight CPUs and 128 GB of memory).
  • the resource usage status collection program 113 selects one resource allocated to the customer from the baseboard management controller (BMC) installed in the physical computer 130, and uses the selected resource for a predetermined period.
  • the situation for example, weekly or monthly CPU usage rate
  • S1002 weekly or monthly CPU usage rate
  • the virtual machine allocation processing program 111 determines whether or not a resource for which usage status is not collected is allocated to the selected customer (S1003). As a result, if there is a resource for which the usage status is not collected among the resources assigned to the selected customer, the usage status of the next resource is collected (S1005, S1002). For example, when three virtual machines are allocated, the resource usage statuses of the allocated three virtual machines are collected in order.
  • FIG. 8 is a flowchart of the resource aggregation / assignment process according to the embodiment of this invention.
  • the resource utilization status collection process is executed by the management computer 110, proposes a plan change to the customer, and aggregates and allocates resources.
  • the virtual machine allocation processing program 111 creates a plan in which resources for each customer are aggregated based on the usage status of resources of all customers (S1011).
  • a resource amount (for example, the required number of CPUs) allocated in the created plan is acquired (S1012), and free resources allocated to the customer are searched from the resource management table 116 (S1013).
  • the virtual machine allocation processing program 111 sends the created customer plans to the cloud service provider terminal 200 (S1014).
  • the person in charge of the cloud service provider operates the terminal 200 to send an instruction to send the created plan to each customer to the virtual machine allocation processing program 111.
  • the virtual machine allocation processing program 111 transmits the created plan to each customer and proposes a plan (S1015).
  • the customer can confirm the proposed plan using the plan proposal screen 1100 (FIG. 9A) and the plan details screen 1300 (FIG. 9B).
  • the proposed plan can be confirmed by transmitting an address (URL) for displaying the plan to the customer and accessing the URL by the customer using a web browser.
  • a plan may be proposed using a management screen for each customer.
  • FIG. 9A is a diagram illustrating a configuration example of a plan proposal screen 1100 for a customer according to the embodiment of this invention.
  • the plan proposal screen 1100 displays a customer name 1101 for which a plan is proposed and a list 1102 of plans proposed for the customer.
  • the plan list 1102 includes information on a plan name, a contract period of the plan, a price of the plan, and a difference from the plan currently contracted.
  • the customer can display the plan details screen 1300 (FIG. 9C) and see details of the proposed plan. Further, the customer can select the proposed plan by operating the “change” button 1104 and proceed with the contract procedure.
  • FIG. 9B is a diagram illustrating a configuration example of the group selection screen 1200 according to the embodiment of this invention.
  • the group selection screen 1200 is displayed after the “change” button 1104 is operated on the plan proposal screen 1100. On the group selection screen 1200, the customer selects a group (physical computer) that provides resources to virtual machines of a new plan.
  • the group selection screen 1200 displays a selectable group usage status 1201, a radio button 1202 selected by the customer, and a “select” button 1203.
  • the customer selects a group (physical computer) on the group selection screen 1200 by selecting a group with the radio button 1202 and operating the “select” button 1203.
  • FIG. 9C is a diagram illustrating a configuration example of a plan detail screen 1300 for a customer according to the embodiment of this invention.
  • the plan details screen 1300 is displayed in a separate window when the “details” button 1203 is operated on the plan proposal screen 1100.
  • the plan details screen 1300 displays an outline 1301 of a proposed plan, a feature 1302 of the plan, a usage status 1303 of groups that can be selected in the plan, and a usage rate graph 1304.
  • the utilization rate graph 1304 shows the utilization rate of the CPU by month, but the utilization rate of other resources for each other period may be displayed.
  • a period switching button or a resource switching button may be provided to display the usage rate by switching the period or resource.
  • the virtual machine ID assigned in the new plan selected by the customer and the time when the virtual machine is assigned (Migration plan) is recorded in the customer information table 114 (S1016).
  • the information recorded in the customer information table 114 is also recorded in the virtual machine allocation plan table 115 at a predetermined timing (for example, every night).
  • FIG. 10 is a flowchart of the aggregation execution process according to the embodiment of this invention.
  • the aggregation execution processing is executed by the virtual machine allocation processing program 111 of the management computer 110 at a predetermined timing (for example, nightly batch processing such as 0:00 every Sunday), and reallocates resources according to the customer plan. To do.
  • the virtual machine allocation processing program 111 reads the first record from the customer information table 114 (S1021), and refers to the virtual machine ID 1144 to determine whether there is a virtual machine that needs to be migrated at the current date and time (S1022). .
  • step S1024 If there is no virtual machine that needs to be migrated at the current date and time, the process proceeds to step S1024. On the other hand, if there is a virtual machine that needs to be migrated at the current date and time, migration is performed on the virtual machine corresponding to the current date and time (S1023), and the process proceeds to step S1024.
  • step S1024 it is determined whether all records in the virtual machine allocation plan table 115 have been processed (S1024). If all the records in the virtual machine allocation plan table 115 have been processed, the aggregation execution process ends. On the other hand, if the processing of a part of the records in the virtual machine allocation plan table 115 is not completed, processing is performed for the next record (S1025, S1021).
  • the management computer 110 that manages the resources allocated to the virtual machine 131 used by the customer monitors the usage status of the resources allocated to the virtual machine 131, and the virtual machine 131 Based on the monitoring result of the usage status of the resources allocated to 131, a new allocation plan in which the amount of resources allocated to the virtual machine 131 is reduced is created, and a new allocation plan is created based on the selection of the allocation plan by the customer. Since the migration plan of the virtual machine 131 including the virtual machine 131 is created, the virtual machine 131 can be allocated without adding new resources. In addition, other customers can be prompted to accept resource changes, create free resources, and allocate virtual machines 131.
  • the allocation plan depends on at least a fixed plan whose fee does not vary depending on the usage status of the virtual machine 131 to which the resource of one physical computer is allocated and the usage status of the virtual machine 131 to which the resource of one physical computer is allocated. Since it includes a variable plan with variable prices, customers can be offered various options. In particular, since the customer's fee increases when the usage status decreases in the variable plan, the risk of increasing the fee can be reduced by a certain plan.
  • virtual machines are grouped by physical computers that provide resources, and the fluctuation plan is determined so that the charge is reduced when the number of virtual machines 131 used in one group is large.
  • the management computer 110 searches for a group including physical computers having free resources to which the virtual machine 131 can be allocated according to the new allocation plan, and is based on the number of virtual machines 131 used in one group. Because it calculates the charges for variable plans, it can provide customers with various options. In addition, as the types of plans increase, it is possible to meet the diverse needs of customers. For example, when customers gather in a variable plan for a certain physical computer, resources are excessively divided, so that there are customers who want to use the variable plan but cannot secure the necessary resources. On the other hand, there are enough customers at the current low price. Therefore, the cloud service can be provided to the customer at an appropriate fee by grouping the computers and the customer selecting the computer group.
  • the physical computer 130 and the management computer 110 that provide resources to the virtual machine 131 are managed by a managed service provider.
  • the virtual machine 131 is provided to the customer by the cloud service provider. Since it is executed under the direction of the managed service provider, a better allocation plan can be provided. That is, the managed service provider can accumulate know-how for creating an allocation plan that is easy for a customer to accept, and the cloud service provider can perform environmental operation with higher cost performance by using the easy-to-accept allocation plan.
  • the present invention is not limited to the above-described embodiments, and includes various modifications and equivalent configurations within the scope of the appended claims.
  • the above-described embodiments have been described in detail for easy understanding of the present invention, and the present invention is not necessarily limited to those having all the configurations described.
  • a part of the configuration of one embodiment may be replaced with the configuration of another embodiment.
  • another configuration may be added, deleted, or replaced.
  • each of the above-described configurations, functions, processing units, processing means, etc. may be realized in hardware by designing a part or all of them, for example, with an integrated circuit, and the processor realizes each function. It may be realized by software by interpreting and executing the program to be executed.
  • Information such as programs, tables, and files that realize each function can be stored in a storage device such as a memory, a hard disk, or an SSD (SoliD State Drive), or a recording medium such as an IC card, an SD card, or a DVD.
  • a storage device such as a memory, a hard disk, or an SSD (SoliD State Drive), or a recording medium such as an IC card, an SD card, or a DVD.
  • control lines and information lines indicate what is considered necessary for the explanation, and do not necessarily indicate all control lines and information lines necessary for mounting. In practice, it can be considered that almost all the components are connected to each other.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Development Economics (AREA)
  • General Engineering & Computer Science (AREA)
  • Strategic Management (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Tourism & Hospitality (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Computer And Data Communications (AREA)

Abstract

顧客が使用する仮想計算機を提供する計算機システムの管理方法であって、前記仮想計算機には、前記仮想計算機に割り当てるリソースを管理する管理計算機が接続されており、前記方法は、前記管理計算機が、前記仮想計算機に割り当てられたリソースの利用状況を監視し、前記管理計算機が、前記仮想計算機に割り当てられたリソースの利用状況の監視結果に基づいて、前記仮想計算機へのリソースの割当量を低減した新たな割当プランを作成し、前記管理計算機が、顧客による前記割当プランの選択に基づいて、前記新たな割当プランによる仮想計算機を含めた仮想計算機のマイグレーションプランを作成する。

Description

計算機システムの管理方法及び計算機システム
 本発明は、リソース管理方法に関する。
 従来、クラウドシステムにおいて、顧客に仮想計算機を割り当てるためには、新しいリソースが必要であった。新しい顧客をシステムに収容するためには、新しいハードウェアをシステムに増設する必要があった。
 本技術の背景技術として、国際公開2014/122743号公報(特許文献1)がある。特許文献1には、移動先候補の仮想ホストの使用リソース履歴に移動対象の仮想ゲストの使用リソース履歴を加算して、移動対象の仮想ゲストが移動したと仮定した場合の移動先候補の仮想ホストの使用リソース履歴を推定し、推定結果に基づいて、移動先候補の仮想ホストのなかから前記移動先の仮想ホストを決定する管理システムが開示されている。
国際公開2014/122743号公報
 しかし、前述したリソースの使用履歴を考慮してリソースの割当量を変更し、該リソース割当の変更によって生じた空きリソースを有効に活用することは考慮されていない。すなわち、既存の顧客のリソースの割り当ての変更によって生じた空きリソースに、新しい顧客をシステムに収容することは考慮されていない。
 このように、既設のリソースを有効に活用することは、システムのコスト削減の観点から重要である。近年、データセンタの省電力化が望まれており、既設のリソースの有効活用は、電力消費の削減の観点からも重要である。
 本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、顧客が使用する仮想計算機を提供する計算機システムの管理方法であって、前記仮想計算機には、前記仮想計算機に割り当てるリソースを管理する管理計算機が接続されており、前記方法は、前記管理計算機が、前記仮想計算機に割り当てられたリソースの利用状況を監視し、前記管理計算機が、前記仮想計算機に割り当てられたリソースの利用状況の監視結果に基づいて、前記仮想計算機へのリソースの割当量を低減した新たな割当プランを作成し、前記管理計算機が、顧客による前記割当プランの選択に基づいて、前記新たな割当プランによる仮想計算機を含めた仮想計算機のマイグレーションプランを作成する。
 本発明の一形態によれば、リソースを増設することなく新たな仮想マシンを割り当てることができる。前述した以外の課題、構成及び効果は、以下の実施例の説明により明らかにされる。
本発明の実施例のリソース管理システムの構成を示す図である。 本発明の実施例の管理計算機の構成を示す図である。 本発明の実施例の顧客情報テーブルの構成例を示す図である。 本発明の実施例の仮想マシン割当プランテーブルを示す図である。 本発明の実施例のリソース管理テーブルを示す図である。 本発明の実施例の料金変動プログラム利用グループの管理テーブルを示す図である。 本発明の実施例のリソース利用状況収集処理のフローチャートである。 本発明の実施例のリソース集約割当処理のフローチャートである。 本発明の実施例のプラン提案画面の構成例を示す図である。 本発明の実施例のグループ選択画面の構成例を示す図である。 本発明の実施例のプラン詳細画面の構成例を示す図である。 本発明の実施例の集約実行処理のフローチャートである。
 なお、以後の説明では「aaaテーブル」、「aaaリスト」、「aaaDB」、「aaaキュー」等の表現にて本発明の情報を説明するが、これら情報は必ずしもテーブル、リスト、DB、キュー、等のデータ構造以外で表現されていてもよい。そのため、データ構造に依存しないことを示すために「aaaテーブル」、「aaaリスト」、「aaaDB」、「aaaキュー」等について「aaa情報」と呼ぶことがある。
 さらに、各情報の内容を説明する際に、「識別情報」、「識別子」、「名」、「名前」、「ID」という表現を用いるが、これらについてはお互いに置換が可能である。
 以後の説明では「プログラム」を主語として説明を行う場合があるが、プログラムはプロセッサによって実行されることで定められた処理をメモリ及び通信ポート(通信制御デバイス)を用いながら行うため、プロセッサを主語とした説明としてもよい。また、プログラムを主語として開示された処理は管理サーバ等の計算機、情報処理装置が行う処理としてもよい。また、プログラムの一部または全ては専用ハードウェアによって実現されてもよい。
 また、各種プログラムはプログラム配布サーバや、計算機が読み取り可能な記憶メディアによって各計算機にインストールされてもよい。この場合、プログラム配布サーバはCPUと記憶資源を含み、記憶資源はさらに配布プログラムと配布対象であるプログラムを記憶している。そして、配布プログラムをCPUが実行することで、プログラム配布サーバのCPUは配布対象のプログラムを他の計算機に配布する。
 図1は、本発明の実施例のリソース管理システムの構成を示す図である。
 本実施例のリソース管理システムは、マネージドサービスプロバイダが設置するデータセンタ100、クラウドサービスプロバイダ端末200及びネットワークスイッチ300を有し、顧客端末600にクラウドサービス500を提供する。
 データセンタ100は、管理計算機110、ストレージシステム120、物理計算機130及び接続装置140を有する。
 ストレージシステム120は、磁気ディスクドライブやSSDなどの大容量の記憶デバイスを有し、該記憶デバイスの一部から論理的な仮想ボリューム121を提供する。仮想ボリューム121は、クラウドサービスの顧客に提供され、ユーザデータを格納する。
 物理計算機130は、プロセッサ及びメモリのリソースを有し、該プロセッサ及び該メモリの一部のリソースを割り当てた仮想マシン131を提供する。仮想マシン131は、クラウドサービスの顧客に提供され、顧客端末600からの操作及びクラウドサービスプロバイダ端末200からの操作によって、所望の演算処理を実行する。
 接続装置140は、データセンタ100内のリソースをネットワークスイッチ300に接続するインターフェースである。接続装置140は、クラウドサービスの顧客に提供され、その一部のリソースが割り当てられた仮想マシン131又は仮想ボリューム121とネットワークスイッチ300との通信を制御する。
 管理計算機110は、これらのリソースを管理するための計算機であり、プログラムを実行するプロセッサ及び該プログラムを格納する記憶デバイス(メモリ及び不揮発記憶デバイス)を有する。管理計算機110のリソースは、ストレージシステム120及び物理計算機130から提供されてもよい。管理計算機110の論理的な構成は、図2を用いて後述する。
 なお、管理計算機110は入出力デバイスを有する。入出力デバイスの例としてはディスプレイとキーボードとポインタデバイスが考えられるが、これ以外のデバイスであってもよい。また、入出力デバイスの代替としてシリアルインターフェースやイーサーネットインターフェースを入出力デバイスとし、当該インターフェースにディスプレイ又はキーボード又はポインタデバイスを有する表示用計算機を接続し、表示用情報を表示用計算機に送信したり、入力用情報を表示用計算機から受信することで、表示用計算機で表示を行ったり、入力を受け付けることで入出力デバイスでの入力及び表示を代替してもよい。
 以後、情報処理システムを管理し、本願発明の表示用情報を表示する一つ以上の計算機の集合を管理システムと呼ぶことがある。管理計算機110が表示用情報を表示する場合は管理計算機110が管理システムである、また、管理計算機110と表示用計算機の組み合わせも管理システムである。また、管理処理の高速化や高信頼化のために複数の計算機で管理計算機110と同等の処理を実現してもよく、この場合は当該複数の計算機(表示を表示用計算機が行う場合は表示用計算機も含め)が管理システムである。
 管理計算機110、ストレージシステム120、物理計算機130及び接続装置140は、複数台設けられてもよい。
 ネットワークスイッチ300は、データセンタ100とクラウドサービスプロバイダ端末200とネットワーク400とを接続する。
 クラウドサービスプロバイダは、マネージドサービスプロバイダがデータセンタ100によって提供するリソースを顧客に貸し出すサービスを行う。クラウドサービスプロバイダ端末200は、管理計算機110を操作し、顧客へのリソースの貸し出しを制御する。管理計算機110は、複数のクラウドサービスプロバイダ端末200によって操作され、そのリソースはデータセンタ100から提供される。
 ネットワークスイッチ300は、ネットワーク400を介して顧客端末600に接続される。
 顧客端末600は、リソースの提供(すなわち、クラウドサービス500)を受ける顧客が操作する計算機であり、プログラムを実行するプロセッサ、該プログラムを格納する記憶デバイス(メモリ及び不揮発記憶デバイス)、ネットワークと通信する通信インターフェース、操作者の入力を受ける入力インターフェース及びプログラムの実行結果を操作者に出力する出力インターフェースを有する。
 顧客端末600からは、データセンタ100が提供するリソースは、クラウドサービス500に見える。
 図1には、1台の顧客端末600を図示したが、複数台の顧客端末600が設けられてもよい。
 図2は、本発明の実施例の管理計算機110の論理的な構成を示す図である。
 管理計算機110は、仮想マシン割当処理プログラム111を有する。仮想マシン割当処理プログラム111は、メモリに格納されており、プロセッサによって実行される。仮想マシン割当処理プログラム111は、リソース割当状況収集プログラム112及びリソース利用状況収集プログラム113をサブプログラムとして含む。
 仮想マシン割当処理プログラム111は、リソースの顧客への割り当てを管理する。リソース割当状況収集プログラム112は、顧客に割り当てられているリソースの情報を収集する。リソース利用状況収集プログラム113は、顧客に割り当てられているリソースの利用状況を収集する。
 管理計算機110は、顧客情報テーブル114、仮想マシン割当プランテーブル115、リソース管理テーブル116及び料金変動プログラム利用グループの管理テーブル117を有し、これらのテーブルは仮想ボリューム121に格納される。
 顧客情報テーブル114は、マネージドサービスプロバイダからクラウドサービスを受ける顧客を管理するためのテーブルであり、その詳細は図3を用いて後述する。仮想マシン割当プランテーブル115は、顧客が受けるクラウドサービスの内容を定義するプランを管理するためのテーブルであり、その詳細は図4を用いて後述する。リソース管理テーブル116は、仮想マシン131に割り当てられるリソースを管理するためのテーブルであり、その詳細は図5を用いて後述する。料金変動プログラム利用グループの管理テーブル117は、仮想マシン131の利用率と料金とを管理するためのテーブルであり、その詳細は図6を用いて後述する。
 図3は、本発明の実施例の顧客情報テーブル114の構成例を示す図である。
 顧客情報テーブル114は、マネージドサービスプロバイダからクラウドサービスを受ける顧客を管理するためのテーブルであり、シリアル番号1141、顧客名1142、仮想マシン割当プラン名1143及び仮想マシンID1144を含む。
 シリアル番号1141は、顧客情報テーブル114に格納されるデータを一意に識別するための識別情報である。顧客名1142は、クラウドサービスを受けている顧客の名称である。仮想マシン割当プラン名1143は、当該顧客が受けるクラウドサービスの内容を定義するプランの名称である。仮想マシンID1144は、当該顧客に割り当てられる仮想マシンの識別情報と、当該仮想マシンが割り当てられる期間を示す。
 図4は、本発明の実施例の仮想マシン割当プランテーブル115を示す図である。
 仮想マシン割当プランテーブル115は、顧客が受けるクラウドサービスの内容を定義するプランを管理するためのテーブルであり、シリアル番号1151、仮想マシン割当プラン名1152、利用期間1153、価格1154、仮想マシン割当プログラム1155及びマイグレーションプラン1156を含む。
 シリアル番号1151は、仮想マシン割当プランテーブル115に格納されるデータを一意に識別するための識別情報である。仮想マシン割当プラン名1152は、プランの名称である。利用期間1153は、当該プランで顧客が仮想マシン131を利用できる期間である。価格1154は、当該プランの価格である。価格1154には、数値によって定義される固定料金や、リソースの利用率によって変化する従量制料金や、固定料金又は従量制料金から所定の割合で割り引かれた料金などがある。
 仮想マシン割当プログラム1155は、当該プランの特徴を示し、例えば「料金一定プログラム」「料金変動プログラム」などが記録される。「料金一定プログラム」は、仮想マシンの利用者数によって料金が変わらないプランである。「料金変動プログラム」は、仮想マシンの利用者数によって料金が変わる、すなわち、仮想マシンの利用者数が多ければ、割り当てられるリソースの量が変わらなくても、料金が低下するプランである。
 マイグレーションプラン1156は、当該プランにおいてマイグレーションによる仮想マシン131の切り替えを示す。具体的には、マイグレーションプラン1156は、顧客が使用できるリソースの量及び当該リソースを利用できる期間を示す。
 図5は、本発明の実施例のリソース管理テーブル116を示す図である。
 リソース管理テーブル116は、仮想マシン131に割り当てられるリソースを管理するためのテーブルであり、仮想マシン番号1161、プロセッサの割当量1162、メモリの割当量1163及び割当状況1164を含む。
 仮想マシン番号1161は、仮想マシン131を一意に識別するための識別情報である。プロセッサの割当量1162は、当該仮想マシンに割り当てられるプロセッサ資源の量(すなわち、CPUの数)である。メモリの割当量1163は、当該仮想マシンに割り当てられるメモリ資源の量(すなわち、RAMの容量)である。割当状況1164は、当該仮想マシンが顧客に提供されているかを示す。割当状況1164には、全時間帯が割り当てられている「割当済」、全時間帯が割り当てられていない「空き」、仮想マシンが割り当てられている期間と顧客の組が記録される。
 図6は、本発明の実施例の料金変動プログラム利用グループの管理テーブル117を示す図である。
 料金変動プログラム利用グループの管理テーブル117は、仮想マシン131の利用率と料金とを管理するためのテーブルであり、シリアル番号1171、グループID1172、利用状況1173及び料金1174を含む。
 シリアル番号1171は、料金変動プログラム利用グループの管理テーブル117に格納されるデータを一意に識別するための識別情報である。グループID1172は、料金変動プログラム利用グループを一意に識別するための識別情報である。グループは一つの物理計算機130によって構成するとよいが、複数の物理計算機130によってグループを構成してもよい。利用状況1173は、当該計算機の利用顧客数を最大顧客数で除算した値である。料金1174は、当該計算機の1顧客あたりの料金である。
 料金変動プログラム利用グループの管理テーブル117から分かるように、グループID=1では、一つの物理計算機130で利用されている仮想計算機の数が増えると、料金が安くなるように料金1174が設定されている。なお、一つの物理計算機130で利用されている仮想計算機の数によらず、料金が一定でもよい。
 図7は、本発明の実施例のリソース利用状況収集処理のフローチャートである。
 リソース利用状況収集処理は、管理計算機110が実行し、リソースが集約可能かを調査する。
 まず、仮想マシン割当処理プログラム111は、一人の顧客を選択する。リソース割当状況収集プログラム112は、顧客情報テーブル114及びリソース管理テーブル116を参照し、選択された顧客に割り当てられているリソースの情報を収集する(S1001)。例えば、顧客Aは、仮想マシン2(CPUが2個、メモリが128GB)及び仮想マシン9(CPUが8個、メモリが128GB)が割り当てられている。
 その後、リソース利用状況収集プログラム113は、物理計算機130に実装されたベースボードマネジメントコントローラ(BMC)から、当該顧客に割り当てられているリソースを一つ選択し、選択されたリソースの所定期間毎の利用状況(例えば、週毎又は月毎のCPU利用率)を収集する(S1002)。
 その後、仮想マシン割当処理プログラム111は、当該選択された顧客に、利用状況を収集していないリソースが割り当てられているかを判定する(S1003)。その結果、当該選択された顧客に割り当てられたリソースのうち利用状況を収集していないリソースがあれば、次のリソースの利用状況を収集する(S1005、S1002)。例えば、3台の仮想マシンが割り当てられている場合、割り当てられた3台の仮想マシンのリソースの利用状況を順に収集する。
 一方、当該選択された顧客に割り当てられた全てのリソースの利用状況の収集が完了していれば、全ての顧客のリソース利用状況の収集が完了しているかを判定する(S1004)。その結果、リソースの利用状況を収集していない顧客があれば、次の顧客の利用状況を収集する(S1006、S1001)。
 一方、全ての顧客のリソースの利用状況の収集が完了していれば、リソース利用状況収集処理を終了する。
 図8は、本発明の実施例のリソース集約割当処理のフローチャートである。
 リソース利用状況収集処理は、管理計算機110が実行し、プランの変更を顧客に提案し、リソースを集約して割り当てる。
 まず、仮想マシン割当処理プログラム111は、全ての顧客のリソースの利用状況に基づいて、各顧客向けのリソースを集約したプランを作成する(S1011)。
 次に、作成されたプランで割り当てられるリソース量(例えば、必要となるCPU数)を取得し(S1012)、当該顧客に割り当てる空きリソースをリソース管理テーブル116から探す(S1013)。
 その後、仮想マシン割当処理プログラム111は、作成した各顧客のプランをクラウドサービスプロバイダ端末200に送る(S1014)。
 クラウドサービスプロバイダの担当者は、端末200を操作して、作成されたプランを各顧客へ送信する指示を仮想マシン割当処理プログラム111に送る。仮想マシン割当処理プログラム111は、作成されたプランを各顧客へ送信し、プランを提案する(S1015)。顧客は、プラン提案画面1100(図9A)及びプラン詳細画面1300(図9B)を用いて、提案されたプランを確認することができる。例えば、プランを表示するためのアドレス(URL)を顧客宛に送信し、顧客がウェブブラウザを用いて該URLにアクセスすることによって、提案されたプランを確認することができる。顧客毎の管理画面を用いてプランを提案してもよい。
 図9Aは、本発明の実施例の顧客へのプラン提案画面1100の構成例を示す図である。
 プラン提案画面1100は、プランが提案される顧客名1101と、当該顧客に提案されるプランの一覧1102とを表示する。プランの一覧1102は、プラン名、該プランの契約期間、該プランの価格、及び現在契約中のプランとの差額の情報を含む。顧客は、「詳細」ボタン1103を操作することによって、プラン詳細画面1300(図9C)を表示して、提案されたプランの詳細を見ることができる。また、顧客は、「変更」ボタン1104を操作することによって、提案されたプランを選択し、契約手続を進めることができる。
 図9Bは、本発明の実施例のグループ選択画面1200の構成例を示す図である。
 グループ選択画面1200は、プラン提案画面1100で「変更」ボタン1104を操作した後に表示される。顧客は、グループ選択画面1200において、新たなプランの仮想マシンにリソースを提供するグループ(物理計算機)を選択する。
 グループ選択画面1200は、選択可能なグループの利用状況1201と、顧客が選択するラジオボタン1202と、「選択」ボタン1203とを表示する。
 顧客は、グループ選択画面1200において、顧客は、ラジオボタン1202によってグループを選択し、「選択」ボタン1203を操作することによって、グループ(物理計算機)を選択する。
 図9Cは、本発明の実施例の顧客へのプラン詳細画面1300の構成例を示す図である。プラン詳細画面1300は、プラン提案画面1100で「詳細」ボタン1203が操作されることによって、別ウィンドウに表示される。
 プラン詳細画面1300は、提案されるプランの概要1301と、該プランの特徴1302と、該プランで選択可能なグループの利用状況1303と、利用率グラフ1304とを表示する。利用率グラフ1304は、月別のCPUの利用率を示すが、他の期間毎の他のリソースの利用率を表示してもよい。また、期間切替ボタンや、リソース切替ボタンを設けて、期間やリソースを切り替えて利用率を表示してもよい。
 図8に戻り、説明を続ける。プラン提案画面1100において「変更」ボタン1204の操作の後、グループ選択画面1200において「選択」ボタン1203の操作を検出すると、顧客が選択した新しいプランにおいて割り当てる仮想マシンID及び当該仮想マシンを割り当てる時期(マイグレーションプラン)を顧客情報テーブル114に記録する(S1016)。顧客情報テーブル114に記録された情報は、所定のタイミング(例えば、毎日夜間)に仮想マシン割当プランテーブル115にも記録される。
 図10は、本発明の実施例の集約実行処理のフローチャートである。
 集約実行処理は、管理計算機110の仮想マシン割当処理プログラム111が所定のタイミング(例えば、毎週日曜日の0時などの夜間バッチ処理)に実行し、顧客のプランに応じて、リソースの再割当を実行する。
 まず、仮想マシン割当処理プログラム111は、顧客情報テーブル114から最初のレコードを読み込み(S1021)、仮想マシンID1144を参照して、現在日時においてマイグレーションが必要な仮想マシンがあるかを判定する(S1022)。
 現在日時においてマイグレーションが必要な仮想マシンがない場合、ステップS1024に進む。一方、現在日時においてマイグレーションが必要な仮想マシンがある場合、現在日時に対応する仮想マシンにマイグレーションを実行し(S1023)、ステップS1024に進む。
 ステップS1024では、仮想マシン割当プランテーブル115の全てのレコードの処理が完了したかを判定する(S1024)。仮想マシン割当プランテーブル115の全てのレコードの処理が完了していれば、集約実行処理を終了する。一方、仮想マシン割当プランテーブル115の一部のレコードの処理が完了していなければ、次のレコードにつちえ処理をする(S1025、S1021)。
 以上に説明したように、本発明の実施例によると、顧客が使用する仮想マシン131に割り当てるリソースを管理する管理計算機110は、仮想マシン131に割り当てられたリソースの利用状況を監視し、仮想マシン131に割り当てられたリソースの利用状況の監視結果に基づいて、仮想マシン131へのリソースの割当量を低減した新たな割当プランを作成し、顧客による割当プランの選択に基づいて、新たな割当プランによる仮想マシン131を含めた仮想マシン131のマイグレーションプランを作成するので、新たなリソースを増設することなく、仮想マシン131を割り当てることができる。また、他の顧客がリソースの変更の受諾を促し、空きリソースを作成し、仮想マシン131を割り当てることができる。
 また、割当プランは、少なくとも、一つの物理的計算機のリソースが割り当てられる仮想マシン131の利用状況によって料金が変動しない一定プランと、一つの物理的計算機のリソースが割り当てられる仮想マシン131の利用状況によって料金が変動する変動プランとを含むので、顧客に様々な選択肢を提供できる。特に、変動プランにおいて利用状況が低下した場合に顧客の料金が上がるので、一定プランによって料金値上げのリスクを軽減することができる。
 また、仮想計算機は、リソースを提供する物理計算機によってグループ化されており、変動プランは、一つのグループ内で利用されている仮想マシン131の数が多い場合に、料金が安くなるように決められており、管理計算機110は、新たな割当プランによる仮想マシン131を割り当てることができる空きリソースを有する物理計算機を含むグループを探し、一つのグループ内で利用されている仮想マシン131の数に基づいて、変動プランの料金を計算するので、顧客に様々な選択肢を提供できる。また、プランの種類が増えることによって、顧客の多様なニーズに応えることができる。例えば、ある物理計算機についての変動プランに顧客が集まるとリソースが過度に分割されるため、変動プランを利用したいが必要なリソースが確保できない顧客が生じる。一方、今のままの低価格で十分な顧客もいる。よって、計算機をグループ化して、顧客が計算機グループを選択することによって、顧客に適切な料金でクラウドサービスを提供できる。
 また、仮想マシン131にリソースを提供する物理計算機130及び管理計算機110は、マネージドサービスプロバイダが管理しており、仮想マシン131は、クラウドサービスプロバイダによって顧客に提供されており、管理計算機110による処理はマネージドサービスプロバイダの指示によって実行されるので、より良い割当プランを提供できる。すなわち、マネージドサービスプロバイダは、顧客が受け入れやすい割当プランを立案するノウハウを蓄積でき、クラウドサービスプロバイダは、受け入れやすい割り当てプランによって、よりコストパフォーマンスの高い環境運用ができる。
 なお、本発明は前述した実施例に限定されるものではなく、添付した特許請求の範囲の趣旨内における様々な変形例及び同等の構成が含まれる。例えば、前述した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに本発明は限定されない。また、ある実施例の構成の一部を他の実施例の構成に置き換えてもよい。また、ある実施例の構成に他の実施例の構成を加えてもよい。また、各実施例の構成の一部について、他の構成の追加・削除・置換をしてもよい。
 また、前述した各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等により、ハードウェアで実現してもよく、プロセッサがそれぞれの機能を実現するプログラムを解釈し実行することにより、ソフトウェアで実現してもよい。
 各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスク、SSD(SoliD StAte Drive)等の記憶デバイス、又は、ICカード、SDカード、DVD等の記録媒体に格納することができる。
 また、制御線や情報線は説明上必要と考えられるものを示しており、実装上必要な全ての制御線や情報線を示しているとは限らない。実際には、ほとんど全ての構成が相互に接続されていると考えてよい。

Claims (8)

  1.  顧客が使用する仮想計算機を提供する計算機システムの管理方法であって、
     前記仮想計算機には、前記仮想計算機に割り当てるリソースを管理する管理計算機が接続されており、
     前記方法は、
     前記管理計算機が、前記仮想計算機に割り当てられたリソースの利用状況を監視し、
     前記管理計算機が、前記仮想計算機に割り当てられたリソースの利用状況の監視結果に基づいて、前記仮想計算機へのリソースの割当量を低減した新たな割当プランを作成し、
     前記管理計算機が、顧客による前記割当プランの選択に基づいて、前記新たな割当プランによる仮想計算機を含めた仮想計算機のマイグレーションプランを作成する管理方法。
  2.  請求項1に記載の管理方法であって、
     前記管理計算機は、一つの物理的計算機のリソースが割り当てられる仮想計算機の利用状況によって料金が変動しない一定プランと、一つの物理的計算機のリソースが割り当てられる仮想計算機の利用状況によって料金が変動する変動プランと、の少なくとも一つを、前記新たな割当プランとして作成する管理方法。
  3.  請求項2に記載の管理方法であって、
     前記仮想計算機は、リソースを提供する物理計算機によってグループ化されており、
     前記変動プランは、一つのグループ内で利用されている仮想計算機の数が多い場合に、料金が安くなるように定められており、
     前記方法は、
     前記管理計算機が、新たな割当プランによる仮想計算機を割り当てることができる空きリソースを有する物理計算機を含むグループを探し、
     前記管理計算機が、一つのグループ内で利用されている仮想計算機の数に基づいて、前記変動プランの料金を計算する管理方法。
  4.  請求項3に記載の管理方法であって、
     前記仮想計算機にリソースを提供する物理計算機及び前記管理計算機は、マネージドサービスプロバイダが管理しており、
     前記仮想計算機は、クラウドサービスプロバイダによって顧客に提供されており、
     前記管理計算機による処理はマネージドサービスプロバイダの指示によって実行される管理方法。
  5.  顧客が使用する仮想計算機と、
     前記仮想計算機に割り当てるリソースを管理する管理計算機とを含む計算機システムであって、
     前記管理計算機は、
     前記仮想計算機に割り当てられたリソースの利用状況を監視し、
     前記仮想計算機に割り当てられたリソースの利用状況の監視結果に基づいて、前記仮想計算機へのリソースの割当量を低減した新たな割当プランを作成し、
     顧客による前記割当プランの選択に基づいて、前記新たな割当プランによる仮想計算機を含めた仮想計算機のマイグレーションプランを作成する計算機システム。
  6.  請求項5に記載の計算機システムであって、
     前記管理計算機は、一つの物理的計算機のリソースが割り当てられる仮想計算機の利用状況によって料金が変動しない一定プランと、一つの物理的計算機のリソースが割り当てられる仮想計算機の利用状況によって料金が変動する変動プランと、の少なくとも一つを、前記新たな割当プランとして作成する計算機システム。
  7.  請求項6に記載の計算機システムであって、
     前記仮想計算機は、リソースを提供する物理計算機によってグループ化されており、
     前記変動プランは、一つのグループ内で利用されている仮想計算機の数が多い場合に、料金が安くなるように定められており、
     前記管理計算機は、
     新たな割当プランによる仮想計算機を割り当てることができる空きリソースを有する物理計算機を含むグループを探し、
     一つのグループ内で利用されている仮想計算機の数に基づいて、前記変動プランの料金を計算する計算機システム。
  8.  請求項7に記載の計算機システムであって、
     前記仮想計算機にリソースを提供する物理計算機及び前記管理計算機は、マネージドサービスプロバイダが管理しており、
     前記仮想計算機は、クラウドサービスプロバイダによって顧客に提供されており、
     前記管理計算機による処理はマネージドサービスプロバイダの指示によって実行される計算機システム。
PCT/JP2015/077140 2015-09-25 2015-09-25 計算機システムの管理方法及び計算機システム WO2017051474A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US15/754,478 US20180246763A1 (en) 2015-09-25 2015-09-25 Computer system management method and computer system
CN201580081643.6A CN107836010A (zh) 2015-09-25 2015-09-25 计算机系统的管理方法和计算机系统
PCT/JP2015/077140 WO2017051474A1 (ja) 2015-09-25 2015-09-25 計算機システムの管理方法及び計算機システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/077140 WO2017051474A1 (ja) 2015-09-25 2015-09-25 計算機システムの管理方法及び計算機システム

Publications (1)

Publication Number Publication Date
WO2017051474A1 true WO2017051474A1 (ja) 2017-03-30

Family

ID=58386445

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/077140 WO2017051474A1 (ja) 2015-09-25 2015-09-25 計算機システムの管理方法及び計算機システム

Country Status (3)

Country Link
US (1) US20180246763A1 (ja)
CN (1) CN107836010A (ja)
WO (1) WO2017051474A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019101949A (ja) * 2017-12-07 2019-06-24 富士通株式会社 情報処理装置、情報処理システムおよびプログラム
JP2021060745A (ja) * 2019-10-04 2021-04-15 株式会社日立製作所 支援装置及び方法
US11507987B2 (en) * 2020-03-16 2022-11-22 Fujitsu Limited Non-transitory computer-readable recording medium and charge calculation method

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11983277B2 (en) * 2019-07-16 2024-05-14 Hewlett Packard Enterprise Development Lp Identifying a security vulnerability in a computer system
EP3832464A1 (en) * 2019-12-06 2021-06-09 Tata Consultancy Services Limited System and method for selection of cloud service providers in a multi-cloud

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012190109A (ja) * 2011-03-09 2012-10-04 Fujitsu Ltd 情報処理装置、仮想マシン管理方法および仮想マシン管理プログラム
JP2014032674A (ja) * 2012-08-06 2014-02-20 Hon Hai Precision Industry Co Ltd 仮想マシンのリソース配置システム及びその方法
WO2015063826A1 (ja) * 2013-10-28 2015-05-07 株式会社日立製作所 管理計算機、管理方法、及び計算機読み取り可能な非一時的な記憶媒体

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4292693B2 (ja) * 2000-07-07 2009-07-08 株式会社日立製作所 計算機資源分割装置および資源分割方法
US9762506B2 (en) * 2013-02-06 2017-09-12 Hitachi, Ltd. Virtual guest management system and virtual guest management method
JP2015011569A (ja) * 2013-06-28 2015-01-19 株式会社東芝 仮想マシン管理装置、仮想マシン管理方法、及び仮想マシン管理プログラム
CN104683388B (zh) * 2013-11-27 2019-02-12 宁波复博信息技术有限公司 云资源管理系统及其管理方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012190109A (ja) * 2011-03-09 2012-10-04 Fujitsu Ltd 情報処理装置、仮想マシン管理方法および仮想マシン管理プログラム
JP2014032674A (ja) * 2012-08-06 2014-02-20 Hon Hai Precision Industry Co Ltd 仮想マシンのリソース配置システム及びその方法
WO2015063826A1 (ja) * 2013-10-28 2015-05-07 株式会社日立製作所 管理計算機、管理方法、及び計算機読み取り可能な非一時的な記憶媒体

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019101949A (ja) * 2017-12-07 2019-06-24 富士通株式会社 情報処理装置、情報処理システムおよびプログラム
JP2021060745A (ja) * 2019-10-04 2021-04-15 株式会社日立製作所 支援装置及び方法
US11507987B2 (en) * 2020-03-16 2022-11-22 Fujitsu Limited Non-transitory computer-readable recording medium and charge calculation method

Also Published As

Publication number Publication date
CN107836010A (zh) 2018-03-23
US20180246763A1 (en) 2018-08-30

Similar Documents

Publication Publication Date Title
AU2019213340B2 (en) Dynamic configuration of data volumes
JP6878512B2 (ja) 仮想コンピュータリソースのスケジューリングのためのローリングリソースクレジット
US10659318B2 (en) Methods and apparatus related to management of unit-based virtual resources within a data center environment
CN107430528B (zh) 机会性资源迁移以优化资源放置
JP5400482B2 (ja) 管理計算機、リソース管理方法、リソース管理プログラム、記録媒体および情報処理システム
US8713147B2 (en) Matching a usage history to a new cloud
WO2017051474A1 (ja) 計算機システムの管理方法及び計算機システム
US8788658B2 (en) Allocation and balancing of storage resources
CN106326002B (zh) 资源调度方法、装置及设备
US10333859B2 (en) Multi-tenant resource coordination method
CN109684071B (zh) 任意工作负载在超融合节点之间的分配
US10616134B1 (en) Prioritizing resource hosts for resource placement
US9141288B2 (en) Chargeback based storage recommendations for datacenters
TW201407476A (zh) 虛擬機資源配置系統及方法
US20210089226A1 (en) Adaptive wear leveling for drive arrays
CN112948279A (zh) 管理存储系统中的访问请求的方法、设备和程序产品
US10230664B1 (en) Strategic resource allocation in a web-based computing system
US11336519B1 (en) Evaluating placement configurations for distributed resource placement
US20190339903A1 (en) Drive utilization in multi-tiered systems with read-intensive flash
US10489198B2 (en) Scheduling workload service operations using value increase scheme
WO2020022018A1 (ja) リソース割当装置、リソース管理システム、および、リソース割当プログラム
JP2020190867A (ja) 構成変更型集積回路の割当システム、構成変更型集積回路の割当方法およびコンピュータプログラム
US11381468B1 (en) Identifying correlated resource behaviors for resource allocation
CN104598239A (zh) 软件发布和使用系统,基于该系统使用和发布软件的方法
JP2016143239A (ja) 仮想マシン管理システム及び仮想マシンの管理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15904731

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15754478

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15904731

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP