CN102549970B - 计算机系统和计算机系统的维护方法 - Google Patents
计算机系统和计算机系统的维护方法 Download PDFInfo
- Publication number
- CN102549970B CN102549970B CN201080045600.XA CN201080045600A CN102549970B CN 102549970 B CN102549970 B CN 102549970B CN 201080045600 A CN201080045600 A CN 201080045600A CN 102549970 B CN102549970 B CN 102549970B
- Authority
- CN
- China
- Prior art keywords
- server
- stream
- switch
- route
- object unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 376
- 238000012423 maintenance Methods 0.000 claims abstract description 224
- 230000008569 process Effects 0.000 claims description 326
- 238000004891 communication Methods 0.000 claims description 187
- 230000005012 migration Effects 0.000 claims description 91
- 238000013508 migration Methods 0.000 claims description 90
- 230000008859 change Effects 0.000 claims description 75
- 230000005540 biological transmission Effects 0.000 claims description 65
- 230000004044 response Effects 0.000 claims description 56
- 230000009471 action Effects 0.000 claims description 39
- 238000009826 distribution Methods 0.000 claims description 18
- 230000007246 mechanism Effects 0.000 claims description 14
- 238000000926 separation method Methods 0.000 claims description 13
- 238000012217 deletion Methods 0.000 claims description 9
- 230000037430 deletion Effects 0.000 claims description 9
- 238000012795 verification Methods 0.000 claims description 4
- 208000036829 Device dislocation Diseases 0.000 claims 1
- 239000011800 void material Substances 0.000 claims 1
- 238000007726 management method Methods 0.000 description 196
- 238000013507 mapping Methods 0.000 description 70
- 238000002360 preparation method Methods 0.000 description 31
- 238000003860 storage Methods 0.000 description 24
- 238000012545 processing Methods 0.000 description 18
- 230000006399 behavior Effects 0.000 description 15
- 238000011084 recovery Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 10
- 239000000284 extract Substances 0.000 description 10
- 238000012790 confirmation Methods 0.000 description 7
- 239000000203 mixture Substances 0.000 description 7
- 238000011112 process operation Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 4
- 238000010168 coupling process Methods 0.000 description 4
- 238000005859 coupling reaction Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 108010028984 3-isopropylmalate dehydratase Proteins 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000013011 mating Effects 0.000 description 3
- 230000008439 repair process Effects 0.000 description 3
- RTZKZFJDLAIYFH-UHFFFAOYSA-N Diethyl ether Chemical compound CCOCC RTZKZFJDLAIYFH-UHFFFAOYSA-N 0.000 description 2
- 238000000151 deposition Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000002955 isolation Methods 0.000 description 2
- 208000010553 multiple abscesses Diseases 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000013316 zoning Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/14—Error detection or correction of the data by redundancy in operation
- G06F11/1402—Saving, restoring, recovering or retrying
- G06F11/1415—Saving, restoring, recovering or retrying at system level
- G06F11/1433—Saving, restoring, recovering or retrying at system level during software upgrading
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/14—Error detection or correction of the data by redundancy in operation
- G06F11/1402—Saving, restoring, recovering or retrying
- G06F11/1415—Saving, restoring, recovering or retrying at system level
- G06F11/1438—Restarting or rejuvenating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/14—Error detection or correction of the data by redundancy in operation
- G06F11/1479—Generic software techniques for error detection or fault masking
- G06F11/1482—Generic software techniques for error detection or fault masking by means of middleware or OS functionality
- G06F11/1484—Generic software techniques for error detection or fault masking by means of middleware or OS functionality involving virtual machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/16—Error detection or correction of the data by redundancy in hardware
- G06F11/20—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/16—Error detection or correction of the data by redundancy in hardware
- G06F11/20—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
- G06F11/202—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
- G06F11/2023—Failover techniques
- G06F11/203—Failover techniques using migration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
- G06F9/485—Task life-cycle, e.g. stopping, restarting, resuming execution
- G06F9/4856—Task life-cycle, e.g. stopping, restarting, resuming execution resumption being on a different machine, e.g. task migration, virtual machine migration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/28—Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
- H04L12/46—Interconnection of networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/54—Store-and-forward switching systems
- H04L12/56—Packet switching systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L45/00—Routing or path finding of packets in data switching networks
- H04L45/42—Centralised routing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L47/00—Traffic control in data switching networks
- H04L47/10—Flow control; Congestion control
- H04L47/12—Avoiding congestion; Recovering from congestion
- H04L47/125—Avoiding congestion; Recovering from congestion by balancing the load, e.g. traffic engineering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L47/00—Traffic control in data switching networks
- H04L47/10—Flow control; Congestion control
- H04L47/18—End to end
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L49/00—Packet switching elements
- H04L49/25—Routing or path finding in a switch fabric
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2201/00—Indexing scheme relating to error detection, to error correction, and to monitoring
- G06F2201/815—Virtual
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L61/00—Network arrangements, protocols or services for addressing or naming
- H04L61/09—Mapping addresses
- H04L61/10—Mapping addresses of different types
- H04L61/103—Mapping addresses of different types across network layers, e.g. resolution of network layer into physical layer addresses or address resolution protocol [ARP]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Quality & Reliability (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Software Systems (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
- Hardware Redundancy (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Computer And Data Communications (AREA)
Abstract
公开了一种计算机系统,该计算机系统具有:交换机,用于根据针对该计算机系统的流设置而将接收的分组数据传送到目的地;集成管理设备,用于指定要维护的设备;以及控制器。控制器通过控制针对交换机的流的设置或删除将要维护的设备与计算机系统断开。由此,通过以集成方式控制网络侧和计算机侧,可以执行对计算机系统的维护而不中断其功能。
Description
技术领域
本发明涉及计算机系统和计算机系统的维护方法,并且更具体地涉及可以不停止系统操作而执行维护处理的计算机系统并且维护方法。
背景技术
在对计算机系统的组件执行维护处理的情况下,只有作为维护对象的单元装置必须与系统分开以防止系统的功能或操作停止。例如,通过将作为维护对象的服务器的功能迁移到另一服务器(例如,备用的系统服务器),可以在不停止功能的情况下维护服务器(例如,更新和修复文件)。
在对单元执行维护的情况下,从系统分离维护对象的方法并且在维护系统之后恢复分离的单元的方法公开在JP2007-304845(专利文献1)、JP2009-146106A(专利文献2)、JP2006-285597A(专利文献3)并且JP2008-118236A(专利文献4)中。
专利文献1公开了一种计算机系统,其更新备用系统虚拟硬件上的软件并且此后,在更新软件时,通过将操作中系统的处理转移到备用系统,减少服务停止时间。
专利文献2公开了一种存储系统,其将作为虚拟端口的增加目的地的物理端口切换到另一物理端口,基于增加目的地的物理端口标识符数据更新切换单元的路由表,并且对同一存储单元改变访问路径。因此,不停止计算机而改变访问路径成为可能。
专利文献3公开了一种存储系统,其对基于预先设置到交换机的地址转换数据增加或交换的存储设置地址。
专利文献4公开了一种维护方法,其通过切换与该虚拟地址对应的地址,将用于虚拟地址的分组的接收目的地从旧版本的软件切换到新版本的软件。
引用列表
[专利文献1]JP2007-304845A
[专利文献2]JP2009-146106A
[专利文献3]JP2006-285597A
[专利文献4]JP2008-118236A
发明内容
在专利文献描述的计算机系统中,管理在网络侧和IT侧独立执行。因此,当在系统中维护组件(服务器和交换机)时,维护对象单元的分离和恢复并且用于维护的设置分别在网络侧和IT侧执行。但是,因为这些处理对系统的操作有影响,需要集成地在网络侧和IT侧管理以执行维护。
有鉴于此,本发明的目的是提供集成地控制网络侧和计算机侧的计算机系统,使得可以不停止功能而进行维护。
为了解决上述问题,本发明使用下述配置。
本发明的计算机系统具有:交换机,其根据设置给其自身的流而向目的地传送接收到的分组数据;集成管理装置,其指定维护对象单元并且控制器。控制器通过控制设置或删除到交换机的流而将维护对象单元与计算机系统分离。
本发明的维护方法由计算机系统执行,该计算机系统具有通过交换机连接的物理服务器,交换机根据设置给其自身的流向目的地传送收到的分组数据。在本发明的维护方法中,集成管理装置指定维护对象单元并且控制器通过控制设置或删除到交换机的流将维护对象单元与计算机系统分离。
根据本发明,通过集成地控制网络侧和计算机侧,可以执行计算机系统的维护而不停止功能。
附图说明
结合附图,通过下列示范实施方式的说明,以上发明的目的、效果和特征将变得更清楚。
图1所示为根据本发明的示范实施方式的计算机系统的配置图;
图2所示为本发明的VM管理设备的配置图;
图3所示为本发明的开放流控制器的配置图;
图4所示为本发明的开放流控制器保持的流表的配置的示例的图;
图5所示为本发明的开放流控制器保持的拓扑数据的示例的图;
图6所示为本发明的开放流控制器保持的通信路由数据的示例的图;
图7所示为根据本发明的开放流交换机的配置图;
图8所示为本发明的交换机保持的流表的示例的图;
图9所示为根据本发明的开放流控制的图;
图10所示为第一示范实施方式中维护处理操作(维护操作中系统服务器)的序列图;
图11所示为第一示范实施方式的维护处理操作(在维护操作中系统服务器之后系统切换)的序列图;
图12所示为根据本发明在服务器进行维护处理之后启动处理操作(系统切换)的序列图;
图13所示为根据本发明在服务器进行维护处理之后启动处理操作(切换的系统)的序列图;
图14所示为第一示范实施方式的维护处理操作(维护备用系统服务器)的序列图;
图15所示为第一示范实施方式的维护处理操作(维护负载分配系统服务器)的序列图;
图16所示为根据本发明在负载分配系统服务器进行维护处理之后启动处理操作的序列图;
图17所示为第一示范实施方式的对独立服务器的关机处理操作(无VMM操作)的序列图;
图18A所示为第一示范实施方式的对独立服务器的维护处理的准备处理操作(VMM操作)的序列图;
图18B所示为第一示范实施方式的对独立服务器的维护处理的准备处理操作(VMM操作)的序列图;
图19所示为第一示范实施方式中虚拟机迁移之后维护处理操作的序列图;
图20所示为第二示范实施方式的交换机的维护处理操作的序列图;
图21所示为第二示范实施方式中在维护处理的情况下绕行(detour)验证处理操作的流程图;
图22所示为第二示范实施方式中在维护处理的情况下交换机的启动处理操作的序列图;
图23A所示为第三示范实施方式的交换机的维护处理操作的序列图;
图23B所示为第三示范实施方式的交换机的维护处理操作的序列图;
图24A所示为在对交换机维护处理的情况下用于绕行路由生成的端点改变处理操作的流程图;
图24B所示为在对交换机维护处理的情况下用于绕行路由生成的端点改变处理操作的流程图;
图25A所示为在对交换机维护处理之后端点恢复处理操作的流程图;
图25B所示为在对交换机维护处理之后端点恢复处理操作的流程图;
图26A所示为第四示范实施方式的维护处理操作(维护操作中系统服务器)的序列图;
图26B所示为第四示范实施方式的维护处理操作(维护操作中系统服务器)的序列图;
图27A所示为第四示范实施方式在服务器进行维护处理之后启动处理操作的序列图;
图27B所示为第四示范实施方式在服务器进行维护处理之后启动处理操作的序列图;
图28所示为在虚拟机进行迁移处理的情况下第一示范实施方式中迁移准备处理操作的序列图;
图29所示为在虚拟机进行迁移处理的情况下第一和第二实施例中存储器映像传送处理的序列图;
图30所示为在虚拟机进行迁移处理的情况下第一实施例中访问目的地切换处理的序列图;
图31所示为在虚拟机进行迁移处理的情况下第二实施例中迁移准备处理的序列图;并且
图32所示为在虚拟机进行迁移处理的情况下第二实施例中访问目的地切换处理的序列图。
具体实施方式
下面,将参考附图说明本发明的示范实施方式。在图中,相同标号被分配给相同组件。(计算机系统的配置)
参见图1到图9,将说明本发明的计算机系统的配置。图1所示为本发明的计算机系统的配置图。本发明的计算机系统具有集成管理装置1、虚拟机管理装置2(此后,称为VM管理装置2)、开放流控制器3(此后,称为OFC 3)、服务器管理装置4、交换机41到44(此后,称为开放流交换机(OFS)41到44)、物理服务器5和6,并且存储单元7(例如,共享盘)。本发明的计算机系统还可以具有负载均衡器9。OFS 41到44的数目不限于图1的4个。当OFS 41到44相互不同时,OFS 41到44统称为OFS 4i。
物理服务器5和6通过OFS 4i互相连接。而且,物理服务器5和6通过OFS 4i与例如因特网的外部网络8连接。应注意,在本示范实施方式中,两个物理服务器5和6是举例,但是物理服务器的数目不限于此。
物理服务器5和6中每一个是具有CPU和RAM的计算机单元。通过执行共同或单独存储在存储单元7中的程序,实现了至少一个虚拟机。具体而言,物理服务器5具有虚拟机101到10n(n是自然数),这些虚拟机通过将CPU(未示出)和存储单元7的使用区划分为逻辑分区和物理分区而实现的。或者,虚拟机101到10n可以实现于仿真在宿主操作系统(HOS)上的访客操作系统(GOS)中,或者实现于操作在GOS上的软件程序中。虚拟机101到10n由通过执行存储在存储单元7中被CPU(未示出)执行的程序实现的虚拟机监视器10(此后,称为VMM 10)管理。虚拟机201到20m(m是自然数)中的至少一个实现在物理服务器6上,并且由VMM 20管理,类似于物理服务器5。
虚拟机101到10n和201到20m使用的盘映像(存储器映像)最好存储在共享盘中。例如,共享盘的例子是由FC(光纤信道)或以太(注册商标)等连接的盘阵列、NAS(附接有网络的存储)、数据库服务器等等。
VMM 10管理虚拟机101到10n的方法和VMM 20管理虚拟机201到20m的方法与传统示例中的相同。例如,VMM 10管理虚拟机101到10n使用的存储器映像,并且VMM 20管理虚拟机201到20m使用的存储器映像。
虚拟机101到10n通过VMM 10管理的虚拟交换机11和物理NIC(未示出)向另一单元(例如,外部网络8上的计算机单元或另一物理服务器6中的虚拟机)发送和接收。在本示范实施方式中,作为示例,实现基于TCP/IP(传输控制协议/因特网协议)的分组传输。同样,虚拟机201到20m通过虚拟交换机21向另一单元发送和接收。而且,同一物理服务器中的虚拟机之间的通信通过虚拟交换机11或21实现。
假设:在根据本发明的虚拟机101到10n和201到20m中,MAC地址不改变,即使虚拟机本身迁移到与该虚拟机所属的VMM不同的另一VMM或者物理服务器。而且,虚拟交换机11和21可以基于稍后将说明的开放流技术来控制,并且可以像在传统2层交换机(L2交换机)中一样执行切换操作。在下面将说明的示范实施方式中虚拟交换机11和21将被描述为对应于开放流的虚拟交换机。而且,在虚拟机101到10n和201到20m并且物理服务器之间具有桥连接。即,可以通过使用虚拟机101到10n和201到20m的MAC地址和IP地址来实现来自外部的直接通信。
期望的是,集群机制100(图1中未示出)安装在物理服务器5和6之一中。集群机制100可操作以作为物理服务器5和6上的公共虚拟机。集群机制100对HA(高可用性)集群、负载分配集群或独立服务器中的任何一个设置为计算机系统提供的物理服务器5和6中的每一个的集群(使用状况)。而且,设置为HA集群的物理服务器被设置给操作中系统和备用系统中的一个。设置为HA集群(操作中系统)的物理服务器用作操作在计算机系统中的物理服务器,并且设置为HA集群(备用系统)的物理服务器变成备用状态。而且,当被设置为负载分配集群时,负载被负载均衡器9分配给物理服务器。
VM管理装置2管理操作在物理服务器5和6上的虚拟机101到10n和201到20m。图2所示为本发明的VM管理装置2的配置框图。期望的是,VM管理装置2由具有CPU和存储单元的计算机实现。在VM管理装置2中,通过CPU(未示出)执行存储在存储单元中的程序,实现了图2所示的VM迁移控制部分321、VMM管理部分322和维护控制单元326的功能。
VM迁移控制部分321控制虚拟机的迁移。具体而言,VM迁移控制部分321基于存储在存储单元中的VMM管理数据323指定迁移对象虚拟机和迁移目的地虚拟机监视器,并且命令迁移源和迁移目的地的虚拟机监视器执行虚拟机的迁移。这样,虚拟机的迁移在被命令的虚拟机监视器之间执行。
VMM管理部分322管理处于管理之下的虚拟机监视器和虚拟交换机的数据(VMM管理数据323)。VMM管理数据323具有虚拟机监视器管理的虚拟机的数据(VMM数据324)和虚拟机监视器的标识符,并且虚拟交换机的标识符的数据(VSW数据325),并且与虚拟交换机连接的虚拟机。期望的是,VMM数据324和VSW数据325是有关的,并且被存储于管理虚拟交换机的每个虚拟机监视器。
VMM管理数据323可预先存储在存储单元中,并且可被随时或定期从VMM 10和20中获得。当从VMM 10或20中获得VMM管理数据323时,响应于来自VMM管理部分322的指令从VMM 10或20中获得VMM管理数据323,并且基于获得的数据更新存储单元中的VMM管理数据323。这样,可以监视在虚拟机迁移之后改变的虚拟机的迁移目的地并且虚拟交换机的连接目的地。
维护控制部分326响应于来自服务器管理装置4的维护指令控制对物理服务器5和6的维护处理。具体而言,维护控制部分326响应于来自服务器管理装置4的维护指令而控制物理服务器5和6的启动和停止(关机),并且向维护对象的物理服务器传送更新文件和软件补丁(例如,客OS)并且从服务器管理装置4传输的OS。物理服务器5和6基于从维护控制部分326发送的更新文件更新(版本升级和修补)虚拟机(访客OS)和宿主OS。
OFC 3用开放流技术控制系统中的通信。开放流技术是这样的技术:控制器(此例中的OFC 3)基于路由策略以流为单位设置路由数据(流:规则+动作)并且去往交换机的多层数据,并且执行路由控制和节点控制。这样,路由控制功能与路由器和交换机分离,并且通过控制器的集中控制可以选择最优路由和流量管理。应用开放流技术的交换机(OFS 4i)不是以分组或帧为单位来处理通信,而是将通信作为端到端的流来处理,这不同于传统路由器和交换机。
具体而言,OFC 3通过每个交换机或节点设置流(规则+动作)控制交换机或节点的操作(例如,分组数据的中继操作)。在这个例子中,OFC 3控制的交换机的例子是OFS 4i、虚拟交换机11和21等等。OFC 3控制的节点的例子是虚拟机101到10n和201到20m、VMM 10和20、物理服务器5和6、存储单元7等等。
图3所示为本发明的OFC 3的配置图。期望的是OFC 3通过具有CPU和存储单元的计算机实现。通过OFC 3中的CPU(未示出)执行存储在存储单元中的程序,图3中所示的交换机控制部分331、流管理部分332、流生成部分333的每一功能被实现。
因此,交换机控制部分331根据流表334对每个计算机和节点执行流(规则+动作)的设置或删除。根据本发明的交换机和节点涉及设置流和执行对应于根据接收分组的头部数据的规则的动作(例如,中继或丢弃分组数据)。稍后将详细说明规则和动作。
图4所示为本发明的OFC 3保持的流表334的配置的示例的图。参见图4,用于指定流的流标识符441、标识符(对象单元442)、路由数据443、规则444、动作数据445,并且用于标识流的设置对象(交换机和节点)的设置数据446彼此相关并且设置在流表334中。去往变成OFC 3的控制对象的所有交换机和节点的流(规则444+动作数据445)被设置到流表334。处理通信(比如每个流的QoS和编码的数据)的方法可以由流表334定义。
在规则444中,例如,规定了包含在TCP/IP分组数据的头部数据中的用于1层到4层的地址和OSI(开放系统互连)参考模型中的标识符的组合。例如,图9所示的1层的物理端口、2层的MAC地址、3层的IP地址、4层的端口号、VLAN标签的组合被设置为规则444。可以设置标识符和地址比如设置到规则444的端口号的预定范围。而且,期望的是,区分目的地和源的地址,并且将其设置为规则444。例如,MAC目的地地址的范围、指定连接目的地的应用的地址端口号的范围、指定连接源的应用的源端口号的范围被设置为规则444。此外,指定数据传输协议的标识符可以被设置为规则444。
例如,动作数据445中规定了处理TCP/IP分组数据的方法。例如,设置了表示是否中继接收分组数据的数据并且当被中继时的发送目的地被设置。而且,分组数据的复制品并且命令丢弃的数据可以设置到动作数据445。
路由数据443是指定应用流(规则444+动作数据445)的路由的数据。这是与稍后要说明的通信路由数据336有关的标识符。
设置数据446是表示流(规则444+动作数据445)是否当前已被设置的数据。因为设置数据446与对象单元442和路由数据443有关,可以确认流是否已被设置到通信路由,并且可以确认流是否已被设置到通信路由上的每个交换机和节点。而且,设置数据446包含表示生成的流是处于可用(有效)的状况或处于不可用(无效)状态的数据。OFC 3参考设置数据446,仅将有效的流设置到OFS并且不设置无效的流。
流管理部分332参考流表334提取对应于交换机和节点通知的第一分组的头部数据的流(规则444+动作数据445),并且通知交换机控制部分331。而且,流管理部分332向由流生成部分333生成的且存储在存储单元中的流(规则444+动作数据445)添加流标识符441。这时,应用流的通信路由的标识符(路由数据443),并且应用流的交换机和节点的标识符(对象单元442)被指派和添加到流(规则444+动作数据445)并被存储。
流生成部分333通过使用拓扑数据335计算通信路由,将存储计算结果作为通信路由数据336存储在存储单元中。这里,作为通信路由的端点的节点(分组的发送源和目的地),并且通信路由上的交换机和节点被设置。例如,流生成部分333指定节点作为拓扑中的端点,通过Dijkstra方法提取端点之间的最短路由并且将它输出作为通信路由。而且,流生成部分333基于通信路由数据336设置流(规则444+动作数据445)以设置去往通信路由上的交换机和节点。
拓扑数据335包含交换机(例如,OFS 4i、虚拟交换机11和21等等)、节点(例如,虚拟机101到10n和201到20m,VMM 10和20、物理服务器5和6、存储单元7等等),并且外部网络8(例如因特网)的连接情况的数据。特别地,单元的端口计数452和端口连接数据453与指定交换机和节点(单元)的单元标识符451相关,并且被存储在存储单元中作为拓扑数据335。端口连接数据453包含指定连接端(交换机、节点/外部网络)的连接类型并且指定连接目的地(如果是交换机则是交换机ID,如果是节点则是MAC地址,如果是外部网络则是外部网络ID)的数据。
通信路由数据336是用于指定通信路由的数据。具体而言,作为通信路由数据336,节点组(例如,虚拟机101到10n,并且201到20m,VMM 10和20,物理服务器5和6,存储单元7等等)、指定外部网络接口作为端点的端点数据461、指定一对通路交换机组(例如,OFS 4i、虚拟交换机11和21等等)和端口的通路交换机数据462,并且随附数据463彼此相关,并且被存储在存储单元中。例如,当通信路由是连接外部网络与节点的路由时,外部网络ID和节点的MAC地址被存储为端点数据461。或者,当通信路由是节点之间连接的路由时,作为两个端点的一对节点的MAC地址被存储为端点数据461。通路交换机数据462包含提供在端点数据461所示的端点之间的通信路由上的交换机(开放流交换机和虚拟交换机)的标识符。而且,通路交换机数据462可以包含用于关联设置到交换机的流(规则444+动作数据445)和交换机的数据。随同数据463包含在端点改变之后路由上的交换机(通路交换机)的数据。
本发明的流管理部分332响应于虚拟机的迁移指令(迁移准备指令)而控制流生成部分333生成用于传送存储器映像的流(存储器映像传送流),并且控制交换机控制部分331以将存储器映像传送流设置到存储器映像传送路由上的OFS和节点。而且,本发明的流管理部分332响应于虚拟机的迁移指令(迁移准备指令)而控制流生成部分333在迁移之后生成对虚拟机的访问流(用于迁移目的地VM的通信流),并且控制交换机控制部分331为迁移目的地VM设置通信流到用于迁移目的地VM的通信路由上的OFS和节点。
图7所示为根据本发明的OFS 4i的配置图。OFS 4i确定根据OFC3设置的流表343处理接收分组的方法(动作)。OFS 4i具有传送部分341和流管理部分342。传送部分341和流管理部分342可以配置为硬件并且可以实现为由CPU执行的软件。
图8所示的流表343被设置在OFS 4i的存储单元中。流管理部分342将从OFC 3获得的流(规则444+动作数据445)设置到流表343。而且,当传送部分341接收的接收分组的头部数据与存储在流表343中的规则444相匹配(一致)时,流管理部分342将对应于规则444的动作数据445通知到传送部分341。另一方面,当传送部分341接收的接收分组的头部数据与存储在流表343中的规则444不匹配(一致)时,流管理部分342将第一分组的接收通知到OFC 3并将头部数据发送到OFC 3。
传送部分341根据接收分组的头部数据执行传送处理。具体而言,传送部分341从接收分组数据中提取头部数据并通知流管理部分342。当从流管理部分342接收动作数据445时,传送部分341根据动作数据445执行处理。例如,传送部分341向动作数据445所示的目的地节点传送接收分组数据。而且,当收到与流表343中规定的规则444不匹配的分组数据时,传送部分341将分组数据保持预定时段并等待直到流从OFC 3被设置(流表343被更新)。
特别地,将描述流被设置于其中的OFS 4i的操作,其中规则444与动作数据445彼此相关,规则444为:MAC源地址(L2)是“A1到A3”,IP目的地地址(L3)是“B1到B3”,协议是“TCP”,并且目的地端口号(L4)是“C1到C3”;动作数据445为:“中继去往物理服务器5的虚拟机101”。当接收MAC源地址(L2)“A1”、IP目的地地址(L3)“B2”、协议“TCP”并且目的地端口号(L4)“C3”的分组数据时,OFS 4i确定头部数据与规则444匹配,并且向虚拟机101传送接收分组数据。另一方面,当接收MAC源地址(L2)“A5”、IP目的地地址(L3)“B2”、协议“TCP”并且目的地端口号(L4)“C4”的分组数据时,OFS 4i确定头部数据与规则444不匹配,通知OFC 3接收第一分组,并且向OFC 3发送头部数据。OFC 3提取对应于从流表334接收的头部数据的流(规则444+动作数据445),并且向OFS 4i发送它。应注意,当在流表334中没有适当的流时,可以新生成流。OFS 4i将发送的流设置到其自身的流表343,并且据此执行接收分组的中继处理。
一般地,当接收不对应于设置到其自身的流表343的规则444的分组数据(第一分组)时,使用开放流技术的OFS 4i向OFC 3发出流设置请求。OFC 3因此向OFS 4i设置新的流。当接收符合规则444的分组数据时,OFS 4i根据设置的流执行处理。
如上所述,开放流技术(也称为可编程流技术)被应用于本发明的计算机系统。应注意,除了OFS 4i,虚拟机11和21可具有流表,其中流被OFC 3设置,类似于OFS 4i。在这种情况下,OFC 3可以控制虚拟机11和21的操作,类似于OFS 4i。
服务器管理装置4通过控制集群机制100控制物理服务器5和6的集群。期待的是,服务器管理装置4由具有CPU和存储单元的计算机实现。服务器管理装置4具有对物理服务器5和6执行维护处理的功能。具体而言,服务器管理装置4具有控制物理服务器5和6启动和关机的功能,并且具有更新文件并且操作在物理服务器5和6上的OS和软件的补丁。通过更新服务器管理装置4发送的文件,物理服务器5和6更新(版本升级和修补)OS和软件。
负载均衡器9设在外部网络8和OFS 4i之间,并且向VM 101到10n和201到20m并且物理服务器5和6执行负载分配。而且,响应于来自服务器管理装置4的指令,负载均衡器9向设置到每个虚拟机(客OS)的物理服务器(主OS)执行负载分配或者负载分配集群。这时,对每个物理服务器执行处理(负载)的指派等等。
本发明的计算机系统具有集成地控制VM管理装置2、OFC 3和服务器管理装置4的集成管理装置1。期望的是,集成管理装置1由具有CPU和存储单元的计算机系统实现。期望的是,集成管理装置1具有输入单元(例如,键盘、鼠标)并且显示器(例如,监视器、打印机),其可视地显示VM管理装置2、OFC 3或服务器管理装置4发送的各种数据。用户(管理员)使用集成管理装置1控制VM管理装置2、OFC 3和服务器管理装置4,并且执行计算机系统的维护处理。
集成管理装置1、VM管理装置2、OFC 3和服务器管理装置4可从相同的计算机系统或不同的计算机系统配置。
下面,将说明以上计算机系统执行的维护处理的操作细节。将说明在第一示范实施方式中对物理服务器或虚拟服务器的维护处理并且在第二到第四示范实施方式中对交换机(OFS)的维护处理。而且,作为维护处理,文件更新和操作停止(维护处理,比如关机之后更换硬件)将作为示例说明。
[第一示范实施方式]
参见图10到图19,将说明对本发明的物理服务器或虚拟服务器的维护处理操作。在本发明中,在将作为维护对象的服务器和虚拟机从系统隔离(分离)之后,对服务器执行维护处理。这时,根据集群和设置到服务器的维护对象是物理服务器还是虚拟服务器,从系统中隔离的方法,并且在维护处理之后恢复的方法是不同的。将用下列4种情况说明维护处理:当维护对象服务器是(1)HA集群(操作中系统),(2)HA集群(备用系统),(3)负载分配集群的一部分并且(4)独立的服务器。应注意,因为对虚拟服务器(客OS)执行维护处理的方法与(4)独立服务器中的相同,将省略详细说明。
(1)对HA集群(操作中系统)的服务器的维护处理
参见图10到图13,将说明设置到HA集群(操作中系统)的对服务器的维护处理。将说明物理服务器5作为维护对象被设置为HA集群(操作中系统)的情况。
图10所示为第一示范实施方式中维护处理(对操作中系统服务器的维护处理)的序列图。参见图10,将说明对HA集群(操作中系统)的物理服务器5的文件更新(例如,升级OS)。首先,管理员操作集成管理装置1,指定服务器作为维护对象(这个示例中的文件更新对象)并且命令维护对象服务器的分离。集成管理装置1指定服务器作为维护对象,并且向服务器管理装置4请求管理员指定的服务器的情况数据(集群配置)(步骤S601)。这里,假设物理服务器5被指定为维护对象。此后,指定的服务器被称为维护对象服务器5。
服务器管理装置4搜索包含集群和服务器的操作情况并且哪一个被它自身保持的配置数据(未示出),提取指定已被设置到维护对象服务器5的集群的数据(集群数据),并且向集成管理装置1发送提取的数据(步骤S602和S603)。这样,表示维护对象服务器5已被设置到HA集群(操作中系统)的集群数据被发送。
当检测到维护对象服务器5是HA集群(操作中系统)时,集成管理装置1转换到系统交换处理。具体而言,当检测到维护对象服务器5是HA集群(操作中系统)时,集成管理装置1命令服务器管理装置4切换HA集群的系统(步骤S604)。服务器管理装置4命令将操作中系统切换到维护对象服务器5的集群机制100(步骤S605)。维护对象服务器5的集群机制100将备用系统的服务器升级到操作中系统并且操作中系统的服务器(这个示例中的维护对象服务器5)被降级为备用系统(步骤S606)。集群机制100通过服务器管理装置4向集成管理装置1发送系统切换完成报告(步骤S607和S608)。
当系统切换完成时,控制过程转换到维护处理(这个示例中的文件更新)。集成管理装置1指定物理服务器5作为维护对象服务器并且命令服务器管理装置4执行维护处理(这个示例中的文件更新)(步骤S609)。服务器管理装置4向维护对象服务器5发送更新文件并且发出文件更新指令(步骤S610)。基于响应于文件更新指令接收的更新文件,物理服务器5更新其自身的软件(步骤S611)。当确认在物理服务器5中文件更新完成时,服务器管理装置4向集成管理装置1发送物理服务器5的软件更新完成报告。集成管理装置1向维护对象服务器5显示文件更新完成。因此,管理员可以向指定的服务器确认文件更新正常结束。应注意,在步骤S611在文件更新处理完成之后,在步骤S606被切换的系统可以自动返回到初始状况(集群配置)。
当从服务器管理装置4接收维护完成报告时或在维护处理指令发出之后,集成管理装置1存储每个物理服务器的维护状况(步骤S612)。这里,作为维护状况,存储表示物理服务器5处在文件更新期间的数据、文件更新完成的数据(例如,软件和OS的版本数据)并且更新的文件被存储。应注意,当维护处理是文件更新时,可以省略步骤S612的处理。
图11所示为第一示范实施方式中维护处理操作(在对操作中系统服务器维护处理之后系统切换)的序列图。参见图11,当确认物理服务器5的文件更新时,服务器管理装置4命令操作中系统切换到维护对象服务器5的集群机制100(步骤S621)。维护对象服务器5的集群机制100将备用系统服务器(这个示例中的维护对象服务器5)升级为操作中系统,并且将操作中系统服务器降级为备用系统(步骤S622)。集群机制100通过服务器管理装置4向集成管理装置1通知系统切换完成(步骤S623和S624)。
接下来,参见图10,将说明物理服务器5的关机处理,其被执行以维护HA集群(操作中系统)的物理服务器5的硬件或软件。因为维护对象服务器5是HA集群(操作中系统),图10所示的步骤S601到S608的处理被执行,并且操作中系统与备用系统之间的切换被执行,类似于上述文件更新处理。
当系统切换完成时,控制流转换到维护处理(这个示例中的操作关机处理)。集成管理装置1指定物理服务器5作为维护对象服务器并且命令维护处理(这个示例中的操作关机处理)(步骤S609)。服务器管理装置4向维护对象服务器5发出操作关机指令(步骤S610)。物理服务器5响应于操作关机指令而停止操作(执行操作关机)(步骤S611)。当确认物理服务器5的操作关机时,服务器管理装置4向集成管理装置1发送操作关机完成报告。集成管理装置1显示维护对象服务器5执行操作关机。这样,管理员可以确认指定的服务器操作关机。
在发出维护处理指令之后或当从服务器管理装置4接收维护处理完成报告时,集成管理装置1存储每个物理服务器的状况(步骤S612)。在这种情况下,期望的是,表示维护对象服务器5的操作状况的数据(例如,操作关机)、表示维护对象服务器5是否处于维护处理期间的数据以及设置到维护对象服务器5的集群的数据被存储。例如,作为物理服务器5维护的HA集群(备用系统)(操作关机)被存储。而且,集群的数据可以包含表示在步骤S606中被切换之后当前状况(备用系统)和在切换之前的状况(操作中系统)的数据。
维护人员执行物理服务器5的执行操作关机的维护处理(例如,更换和添加硬件、替换软件等等)。当对物理服务器5的维护处理完成时,管理员向集成管理装置1输入维护完成指令。这时,完成维护处理的服务器被集成管理装置1指定。集成管理装置1启动响应于维护完成指令执行用于维护处理的操作关机的物理服务器5。
图12所示为根据本发明在服务器的维护处理之后启动处理操作(系统切换)的序列图。参见图12,将说明在维护处理之后服务器的启动处理的细节。响应于管理员的维护完成指令(服务器说明书),集成管理装置1从维护服务器列表获得管理员指定的服务器的状况(步骤S631)。这里,表示物理服务器在操作关机期间(维护)是HA集群(备用系统)的状况被获得。集成管理装置1命令启动指定的服务器(完成维护处理的物理服务器5)(步骤S632)。服务器管理装置4启动指定的物理服务器5(步骤S633和S634)。例如,这里,通过使用IPMI(智能平台管理接口)等等执行服务器的启动。完成启动处理的物理服务器5通过服务器管理装置4向集成管理装置1发送启动完成报告(步骤S635和S636)。集成管理装置1存储表示物理服务器5的维护处理完成并且服务器5启动的数据。这个数据可以向管理员可视地显示。
当启动服务器时,服务器的状况可以返回到维护处理之前的状况(HA集群(操作中系统))。图13所示为根据本发明在服务器进行维护处理之后启动处理操作(切换的系统)的序列图。参见图13,集成管理装置1通过上述步骤S631到S634的处理控制指定的物理服务器5启动。但是,在步骤S632的启动指令的情况下,集成管理装置1发出系统切换指令。当从物理服务器5检测到启动完成时,服务器管理装置4命令将操作中系统切换到物理服务器5的集群机制100(步骤S636)。维护对象服务器5的集群机制100将备用系统的服务器(这个示例中的维护处理完成的物理服务器5)升级为操作中系统,并且将操作中系统的服务器降级为备用系统(步骤S637)。集群机制100通过服务器管理装置4向集成管理装置1通知系统切换完成(步骤S638和S639)。
如上所述,通过集成管理装置1的集成控制,HA集群(操作中系统)的服务器被分离,并且对服务器的维护处理(文件更新,操作关机,并且启动处理)被执行。可以通过系统切换恢复初始状况。
(2)对HA集群(备用系统)的服务器的维护处理
参见图12和图14,将说明对设置为HA集群(备用系统)的服务器的维护处理。将进行描述,假设作为维护对象的物理服务器5被设置为HA集群(备用系统)。
图14所示为第一示范实施方式的维护处理操作(对备用系统服务器的维护处理)的序列图。参见图14,将说明对HA集群(备用系统)的物理服务器5的文件更新(例如,升级OS)。类似于对HA集群(操作中系统)的服务器的维护处理,通过步骤S601到S603的处理,集成管理装置1检测到维护对象服务器5是HA集群(备用系绕)。
当检测到维护对象服务器5是HA集群(备用系统)时,集成管理装置1不执行系统切换并且执行维护处理(在这个示例中的文件更新)。集成管理装置1指定物理服务器5作为维护对象服务器并且命令服务器管理装置4执行维护处理(在这个示例中的文件更新)(步骤S609)。服务器管理装置4向维护对象服务器5发送更新文件并且发出文件更新指令(步骤S610)。物理服务器5响应于文件更新指令用接收的更新文件更新其自身的软件(步骤S611)。当确认对物理服务器5的文件更新完成时,服务器管理装置4向集成管理装置1发送物理服务器5的软件更新完成报告。集成管理装置1显示在维护对象服务器5中文件更新完成。这样,管理员可以确认指定的服务器的文件更新正常结束。
当从服务器管理装置4接收到维护完成报告时或在维护处理指令之后,集成管理装置1存储每个物理服务器的维护状况(步骤S612)。这里,表示物理服务器5处于文件更新期间的数据,作为维护状况和文件更新完成的数据(例如,软件和OS的版本数据)并且更新文件被存储。应注意,当维护处理是文件更新时,步骤S612的处理将被省略。
接下来,参见图14,将说明为了维护HA集群(备用系统)的物理服务器5的硬件或软件,停止物理服务器5的操作(执行操作关机)的处理。当检测到维护对象服务器5是HA集群(备用系统)时,集成管理装置1不执行系统切换并且执行维护处理(在这个示例中的操作停止)。
具体而言,集成管理装置1指定物理服务器5作为维护对象服务器,并且命令维护处理(在这个示例中的操作关机处理)(步骤S609)。服务器管理装置4向维护对象服务器5发出操作关机指令(步骤S610)。物理服务器5响应于操作关机指令而停止操作(执行操作关机)(步骤S611)。当确认物理服务器5的操作关机时,服务器管理装置4向集成管理装置1发送操作关机完成报告。集成管理装置1显示维护对象服务器5执行操作关机。因此,维护人员可以确认指定的服务器的操作关机。
当从服务器管理装置4接收到维护完成报告时或在维护处理指令之后,集成管理装置1存储每个物理服务器的维护状况(步骤S612)。在这种情况下,期望的是,表示维护对象服务器5的操作状况的数据(例如,操作关机)、表示维护对象服务器5是否处于维护处理期间的数据以及设置到维护对象服务器5的集群的数据被存储。例如存储:物理服务器在维护处理期间(操作关机)是HA集群(备用系统)。而且,集群的数据可以包含表示在步骤S606中被切换之后当前状况(备用系统)和在切换之前的状况(操作中系统)的数据。
维护人员执行物理服务器5的执行操作关机的维护处理(例如,更换和添加硬件、替换软件等等)。当对物理服务器5的维护处理完成时,管理员向集成管理装置1输入维护完成指令。这时,完成维护处理的服务器由集成管理装置1指定。集成管理装置1启动响应于维护完成指令而执行用于维护处理的操作关机的物理服务器5。启动的方法与图12所示的方法相同,因此省略其说明。
如上所述,通过集成管理装置1的集成控制,分离HA集群(备用系统)的服务器之后,可以执行对服务器的维护处理(文件更新,操作关机,并且启动处理)。
(3)对被设置为负载分配集群的一部分的服务器的维护处理
参见图15到图16,将说明对设置为负载分配集群的一部分的服务器(此后,称为负载分配系统服务器)的维护处理。将说明作为维护对象的物理服务器5被设置为负载分配集群的一部分的情况。
图15所示为第一示范实施方式的维护处理操作(对负载分配系统服务器的维护处理)的序列图。参见图15,将说明对设置为负载分配集群的一部分的物理服务器5的文件更新(例如,更新OS)。类似于对HA集群(操作中系统)的服务器的维护处理,通过步骤S601到S603的处理,集成管理装置1检测到维护对象服务器5将被设置为负载分配集群的一部分。在步骤S603从服务器管理装置4发送的集群数据包含指定负载均衡器9的数据并且表示维护对象服务器5是负载分配系统服务器的数据。
当检测到维护对象服务器5是负载分配系统服务器时,集成管理装置1向指定的负载均衡器9发出对维护对象服务器5的负载指派(处理)改变指令(步骤S641)。响应于负载指派改变指令,负载均衡器9停止对集成管理装置1指定的维护对象服务器5的处理的指派(步骤S642)。改变处理的指派的负载均衡器9指派负载并且向集成管理装置1发送改变完成报告(步骤S643)。
而且,集成管理装置1等待,直到根据传送到维护对象服务器5的数据的流变成非设置状况(对所有OFS的非设置状况),并且在确认非设置状况之后命令维护处理。具体而言,当检测到维护对象服务器5是负载分配系统服务器时,集成管理装置1指定维护对象服务器5的MAC地址,并且向OFC 3发出对根据传送到维护对象服务器5的数据的流是否被设置的确认请求(步骤S644)。这时,物理服务器5的MAC地址被指定用于指定维护对象服务器。OFC 3基于指定的MAC地址将流指定为确认对象,并且参考流表334的设置数据446来确认根据去往维护对象服务器5的数据传送的流是否被设置到去往物理服务器5的通信路由上的交换机(OFS)(步骤S645)。当流已被设置时,OFC 3等待预定时间并再次确认。在这种情况下,当经过了预定时间(直到删除被OFC 3设置到OFS和流的时刻),设置到OFS 4i的流被设置为待删除。因此,当经过了预定的时间,确认对象的流变成非设置状况。在OFS 4i中,期望的是,在没有接收到通过使用流控制处理的分组的时段中删除流。通常,直到流被删除的时间被设置为足够长的时间,直到根据流的通信不被执行。
OFC 3在步骤S645重复确认处理和等待处理直到根据传送到物理服务器5的数据的流对所有OFS变成非设置状况,并且当确认非设置状况时,向集成管理装置1发送表示非设置状况的确认结果数据(步骤S646)。应注意,负载指派改变处理和流设置的确认处理的顺序可以与图15所示的顺序相反,并且这些可以并行执行。
通过确认去往维护对象服务器5的流是未设置的,集成管理装置1可以确认对维护对象服务器5的数据传送停止。
当去往维护对象服务器5的流非设置被确认时,控制过程转换到维护处理(这个示例中的文件更新)。集成管理装置1指定物理服务器5作为维护对象服务器并且命令服务器管理装置4执行维护处理(这个示例中的文件更新)(步骤S647)。服务器管理装置4向维护对象服务器5发送更新文件并且发出文件更新指令(步骤S648)。物理服务器5利用响应于文件更新指令而接收的更新文件来更新其自身的软件(步骤S649)。当确认物理服务器5的文件更新完成时,服务器管理装置4向集成管理装置1发送物理服务器5的软件更新完成报告(步骤S652和S653)。集成管理装置1显示在维护对象服务器5中文件更新完成。因此,管理员可以确认指定的服务器的文件更新正常结束。
当从服务器管理装置4接收维护完成报告时或在维护处理指令之后,集成管理装置1存储每个物理服务器的维护状况(步骤S651)。在这种情况下,作为维护状况,表示物理服务器5处在文件更新期间的数据、文件更新完成的数据并且更新文件(例如,软件和OS的版本数据)被存储。应注意,当维护处理是文件更新时,可以省略步骤S651的处理。
当维护处理(文件更新)完成时,在步骤S642改变的负载指派(处理)返回到初始状况。具体而言,当确认物理服务器5的文件更新时,集成管理装置1向负载均衡器9发出对维护对象服务器5的负载指派(处理)改变指令(步骤S654)。响应于改变指令,负载均衡器9开始对集成管理装置1指定的维护对象服务器5的处理的指派(步骤S655)。改变处理的指派之后,负载均衡器9向集成管理装置1发送负载指派改变完成报告(步骤S656)。集成管理装置1显示负载指派改变完成。这样,管理员可以根据指定的服务器的文件更新确认整个处理正常结束。
接下来,参见图15,将说明为了维护负载分配系统服务器(这个示例中的物理服务器5)的硬件或软件,停止物理服务器5的操作的处理(执行操作关机)。因为维护对象服务器5是负载分配系统服务器,图15所示的步骤S601到S646的处理的执行类似于上述文件更新处理,并且对维护对象服务器5的处理的指派停止,确认根据去往维护对象服务器5的数据传送的流是未设置的。
当完成负载指派的改变和非设置流确认时,控制过程转换到维护处理(这个示例中的操作关机处理)。集成管理装置1指定物理服务器5作为维护对象服务器并且命令维护处理(这个示例中的操作关机处理)(步骤S647)。服务器管理装置4向维护对象服务器5发出操作关机指令(步骤S648)。物理服务器5响应于操作关机指令而停止操作(执行操作关机)(步骤S649)。当确认物理服务器5的操作关机时,服务器管理装置4向集成管理装置1发送操作关机完成报告(步骤S652和S653)。集成管理装置1显示维护对象服务器5执行操作关机。这样,管理员可以确认指定的服务器操作关机。
当从服务器管理装置4接收维护完成报告时或在维护处理指令之后,集成管理装置1存储每个物理服务器的维护状况(步骤S612)。在这种情况下,期望的是,表示维护对象服务器5的操作状况的数据(例如,操作关机)、表示维护对象服务器5是否处于维护处理期间的数据以及被设置到维护对象服务器5的集群的数据被存储。例如,存储:物理服务器5在维护处理中(操作关机)是负载分配系统服务器。
维护人员执行物理服务器5的执行操作关机的维护处理(例如,更换和添加硬件、替换软件等等)。当对物理服务器5的维护处理完成时,管理员向集成管理装置1输入维护完成指令。这时,完成维护处理的服务器被集成管理装置1指定。集成管理装置1启动响应于维护完成指令执行用于维护处理的操作关机的物理服务器5。
图16所示为根据本发明在负载分配系统服务器进行维护处理之后启动处理操作的序列图。参见图16,将说明在负载分配系统服务器维护处理之后启动服务器的处理操作的细节。响应于来自维护人员的维护完成指令(服务器说明书),集成管理装置1从维护处理中的服务器列表获得维护人员指定的服务器的状况(步骤S631)。这里,表示物理服务器在操作关机期间(维护)是负载分配系统服务器的状况被获得。集成管理装置1命令启动指定的服务器(完成维护处理的物理服务器5)(步骤S632)。服务器管理装置4启动指定的物理服务器5(步骤S633和S634)。例如,这里,通过使用IPMI等执行服务器的启动。
已被启动的物理服务器5通过服务器管理装置4向集成管理装置1发送启动完成报告(步骤S635和S636)。当维护对象服务器5完成启动时,在步骤S642改变的负载指派(处理)返回到初始状况。具体而言,当确认物理服务器5的文件更新时,集成管理装置1向负载均衡器9发出对维护对象服务器5的负载指派(处理)改变指令(步骤S661)。响应于改变指令,负载均衡器9开始对集成管理装置1指定的维护对象服务器5的处理的指派(步骤S662)。当改变处理的指派时,负载均衡器9指派负载并且向集成管理装置1发送改变完成报告(步骤S663)。集成管理装置1显示负载指派改变完成。这样,管理员可以根据指定的服务器的文件更新确认整个处理正常结束。
如上所述,通过集成管理装置1的集成控制,负载指派被控制以分离负载分配系统服务器,并且对负载分配系统服务器执行维护处理(文件更新,操作关机和启动处理)可被执行。这时,通过OFC3的流监视功能,可以等待维护处理直到向维护对象服务器传送数据的流变成非设置。
(4)对独立服务器的维护处理
参见图17到图19,将说明对独立操作的服务器(此后,称为独立服务器)的维护处理。说明将假设作为维护对象的物理服务器5是独立服务器。
当维护独立服务器时,根据VMM(虚拟机监视器)是否在服务器上操作,处理方法是不同的。在停止操作之后,执行更新和更换硬件和软件。图17所示为第一示范实施方式的对独立服务器的关机处理操作(VMM不操作)的序列图。参见图17,类似于对HA集群(操作中系统)的服务器的维护处理,通过步骤S601到S603的处理,集成管理装置1检测到维护对象服务器5是独立服务器。
当检测到维护对象服务器5是独立服务器时,集成管理装置1向VM管理装置2指定维护对象服务器,并且发出VMM的操作确认请求(步骤S671)。VM管理装置2向集成管理装置1发送表示VMM是否操作在被指定为维护对象服务器的物理服务器5上的操作情况数据(步骤S672)。集成管理装置1显示在维护对象服务器5中VMM的操作情况(步骤S673)。维护人员可以通过确认操作情况设置维护对象服务器5是否应该停止。通常,当VMM不在维护对象服务器5上操作时,维护人员通过使用集成管理装置1发出指令以停止维护对象服务器5。
集成管理装置1指定物理服务器5作为维护对象服务器并且命令操作关机处理(步骤S674)。服务器管理装置4向维护对象服务器5发出操作关机指令(步骤S675)。物理服务器5响应于操作关机指令执行操作关机(步骤S676)。服务器管理装置4等待预定的时间,并且当确认物理服务器5的操作关机时,向集成管理装置1发送操作关机完成报告(步骤S677和S678)。集成管理装置1显示维护对象服务器5在操作中停止。这样,维护人员可以确认指定的服务器操作关机。
另一方面,当VMM在维护对象服务器5上操作时,虚拟机(VM)的迁移处理由图18A和图18B所示的操作执行。例如,当维护对象单元是物理服务器5的主OS和硬件,VM 101到VM 10n被迁移到其他物理服务器。
图18A和图18B所示为第一示范实施方式的对独立服务器的维护处理的准备处理操作(VMM操作)的序列图。参见图18A,类似于对HA集群(操作中系统)的服务器的维护处理,通过步骤S601到S603的处理,集成管理装置1检测到维护对象服务器5是独立服务器。
当检测到维护对象服务器5是独立服务器时,集成管理装置1向VM管理装置2指定维护对象服务器并且发出VMM的操作确认请求(步骤S671)。VM管理装置2向集成管理装置1发送表示VMM是否操作在被指定为维护对象服务器的物理服务器5上的操作情况数据(步骤S672)。集成管理装置1显示在维护对象服务器5中VMM的操作情况(步骤S673)。维护人员可以通过确认操作情况设置维护对象服务器5是否停止。这里,示出了VMM正在操作。
当检测到VMM的操作时,集成管理装置1指定VMM并且需要用于VM管理装置2的操作在维护对象服务器5上的VM的数据(VMM数据324)(步骤S681)。VM管理装置2向集成管理装置1发送操作在指定的VMM上的VM的列表(VMM数据324)(步骤S682)。集成管理装置1设置所获得的VMM数据324中显示的每个VM的迁移目的地(步骤S683)。
期望的是,VM的迁移目的地是与迁移对象VM的相同存储单元可访问的VMM。这是因为在虚拟机迁移时对存储单元的访问限制被改变的处理有时被添加。而且,当虚拟交换机不是被OFC 3设置的流控制的交换机时(在不应用开放流技术的2层交换机的情况下),VM的迁移目的地必须属于与迁移之前相同的子网。当虚拟交换机用作OFS时,属于不同子网的VMM可以被设置为VM的迁移目的地。
而且,当有多个VMM满足上述条件时,期望的是满足下列条件(a)到(c)的VMM首先被设置为迁移目的地。即,最好首先设置:
(a)其自身直接连接到被直接连接到迁移源VMM的最后一级交换机(OFS 4i)的VMM,
(b)OFS 4i的数目少于用于在随同迁移的存储器映像传送中与迁移源VMM通信的VMM,并且
(c)与迁移源VMM使用的通信路由上的OFS连接的VMM。
通过首先将满足上述条件(a)的VMM设置为迁移目的地,利用路由改变重置流的交换机变成仅最后一级交换机。而且,受到随同VM迁移的传送存储器映像影响的交换机变成仅最后一级交换机。
通过首先将满足上述条件(b)的VMM设置为迁移目的地,用路由改变重置流的交换机变成仅最后一级交换机。而且,受到随同VM迁移的传送存储器映像影响的交换机的数目可以最少。而且,可以选择使用的资源和负载最小的VMM。
通过首先设置满足上述条件(c)的VMM作为迁移目的地,用路由改变重置流的交换机的数目可以很小。
此外,当有多个VMM满足上述条件(a)到(c)中任一时,期望的是,根据较低的规则(例如,基于随机数选择)确定VMM变成迁移目的地。
当VM的迁移目的地被确定时,控制过程转换到VM的迁移过程。首先,集成管理装置1向OFC 3发出VM迁移准备指令(步骤S684)。OFC 3响应于迁移准备指令执行VM迁移的准备处理(步骤S685)。下面将详细说明VM迁移准备过程。但是,OFC 3计算去往迁移目的地VM的数据传送路由以及用于VM迁移的存储器影像的传送路由的设置,并且执行使用该路由的流的生成和设置。当VM迁移准备处理完成时,OFC 3向VM管理装置2通知每个VM设置的迁移目的地,并且集成管理装置1命令VM迁移(步骤S686)。集成管理装置1等待所有被命令的VM的迁移完成。
VM管理装置2响应于来自集成管理装置1的迁移指令执行操作在维护对象服务器5上的VM的迁移处理(步骤S687)。通过对OFS 4i并且虚拟交换机11和21的流设置,可以实现VM的迁移处理。下面将说明VM的迁移处理的细节。
参见图19,当从VM管理装置2接收到VM迁移完成报告时,集成管理装置1指定物理服务器5作为维护对象服务器并且命令服务器管理装置4执行维护处理(这个示例中的文件更新)(步骤S691和S692)。服务器管理装置4向维护对象服务器5发送更新文件并且发出文件更新指令(步骤S693)。物理服务器5利用响应于文件更新指令而接收的更新文件来更新其自身的软件(例如主OS)(步骤S694)。当确认在物理服务器5中文件更新完成时,服务器管理装置4向集成管理装置1发送物理服务器5的软件更新完成报告。集成管理装置1显示在维护对象服务器5中文件更新完成。这样,管理员可以确认指定的服务器的文件更新正常结束。
当从服务器管理装置4接收维护完成报告时或在维护处理指令之后,集成管理装置1存储每个物理服务器的维护状况(步骤S695)。在这种情况下,作为维护状况,表示物理服务器5处在文件更新状态的数据、文件更新完成的数据以及更新的文件(例如,软件和OS的版本数据)被存储。应注意,当维护处理是文件更新时,可以省略步骤S695的处理。
当维护是独立服务器的维护对象服务器的硬件或软件时,执行维护对象服务器的操作关机处理如图19的维护处理所示。具体而言,参见图19,在VM完成迁移之后,物理服务器5被指定为维护对象服务器并且命令维护处理(这个示例中的操作关机处理)(步骤S692)。服务器管理装置4向维护对象服务器5发出操作关机指令(步骤S693)。物理服务器5响应于操作关机指令而执行操作关机(步骤S694)。当确认物理服务器5的操作关机时,服务器管理装置4向集成管理装置1发送操作关机完成报告。集成管理装置1显示维护对象服务器5执行操作关机。这样,管理员可以确认指定的服务器操作关机。
当从服务器管理装置4接收维护完成报告时或在维护处理指令之后,集成管理装置1存储每个物理服务器的状况(步骤S695)。在这种情况下,期望的是,表示维护对象服务器5的操作状况的数据(例如,操作关机)、表示维护对象服务器5是否处于维护状态的数据以及被设置到维护对象服务器5的集群的数据被存储。例如,存储:物理服务器5是处于维护状态的独立服务器(操作关机)。
维护人员执行物理服务器5的执行操作关机的维护处理(例如,更换和添加硬件、替换软件等等)。当对物理服务器5的维护处理完成时,管理员向集成管理装置1输入维护完成指令。这时,完成维护处理的服务器被集成管理装置1指定。集成管理装置1启动响应于维护完成指令执行用于维护处理的操作关机的物理服务器5。启动的方法与图12所示的方法相同,因此省略说明。
如上所述,通过集成管理装置1的集成控制,操作有VMM的独立服务器被从系统中分离,并且对服务器的维护处理(文件更新,操作关机,并且启动处理)被执行。根据本发明,在对操作有VMM的独立服务器执行维护处理时,通过OFC 3的流设置改变,操作在维护对象服务器上的VM迁移到另一服务器(VMM)。这样,可以在不停止VM操作的情况下执行对物理服务器的硬件和主OS(例如,更新和更换文件,并且修复)的维护处理。而且,因为迁移VM可以仅通过设置到OFS 4i的流,所以在IT侧设置变得不必要。
第二示范实施方式
参见图20到图25B,将说明对本发明的交换机(OFS 4i)的维护处理。在本发明中,在从系统(通信路由)中通过OFC 3的流设置改变分离OFS 4i作为维护对象之后,执行对OFS 4i的维护处理。
图20所示为第二示范实施方式中的交换机的维护处理操作的序列图。首先,参见图20和图21,将说明对OFS 4i的文件更新处理。管理员操作集成管理装置1并且指定OFS 4i作为维护对象(这个示例中的文件更新对象)并且命令文件更新。集成管理装置1对OFC 3指定OFS 4i作为维护对象并且命令路由绕行(步骤S701)。这里,假设OFS 42被指定为维护对象,并且被称为维护对象交换机42。
响应于来自统计管理装置1的路由绕行指令,OFC 3通过使用指定的交换机来验证绕行是否可能(步骤S702)。图21所示为在步骤S702的绕行验证处理的细节的流程图。参见图21,OFC 3生成在路由绕行指令不存在的情况下所指定的维护对象交换机42的拓扑(步骤S721)。接下来,OFC 3验证是否可以根据步骤S721生成的拓扑计算去往所有端点的通信路由。具体而言,根据在步骤S721生成的去往作为外部网络8的端点和节点(物理服务器5和6)的所有组合的拓扑来计算通信路由(步骤S722)。
当可以根据步骤S721生成的去往端点的所有组合的拓扑而计算出通信路由时,OFC 3验证替代路由是否对有效通信路由具有影响。具体而言,OFC通过使用有效通信路由的每个端点从步骤S721生成的拓扑计算通信路由(步骤S723No并且S725)。这时,通过使用例如Dijkstra方法,可以计算对有效通信路由无影响的端点之间的通信路由。这里,有效通信路由是对应于可能设置到被设置到流表334的流的OFS 4i的流的通信路由,并且表示当前可用的通信路由。当在步骤S725没有不能计算通信路由的端点的组合时,控制过程转换到图20所示的维护对象交换机42的无效处理(步骤S703)。
另一方面,当在步骤S722和步骤S725不能计算通信路由的端点的组合存在时,OFC 3向集成管理装置1通知不能计算通信路由的端点的组合(集合)(步骤S723“是”、S726“是”和S724)。在这种情况下,集成管理装置1显示通信路由不存在的端点存在,以及这种端点的集合。当存在在步骤S725不能计算通信路由的端点的组合时,OFC 3通知集成管理装置1:通过设置绕行无法保持当前会话。这样,集成管理装置1显示:存在通过设置绕行不能保持用于通信的会话,并且显示该会话的端点。
管理员确认由于显示在集成管理装置1中的绕行设置而对当前通信的影响以及对绕行设置的许可或者不许可,并且确定用于对OFS 42的维护处理的方法。下面将说明当不能设置绕行路由时用于维护处理的方法。
参见图20,在步骤S702的绕行验证处理中,可以计算维护对象交换机42的绕行路由。当确定绕行路由对当前通信路由没有影响时,OFC 3在拓扑数据335中删除或使维护对象交换机42无效(步骤S703)。在拓扑数据335中无效的交换机从此不用于通信路由的计算。
OFC 3生成对应于使维护对象交换机绕行的新通信路由(绕行路由)的流(步骤S704)。具体而言,通过使用有效通信路由(此后,称为绕行前路由)的端点,OFC 3根据步骤S702生成的拓扑数据计算通信路由(此后,称为绕行路由)。接下来,OFC 3生成设置到计算的绕行路由上的每个交换机的流。对所有绕行前路由的端点的组合计算绕行路由,并且生成设置到每个绕行路由上的每个交换机的流。这些流都设置为可以设置到交换机的流(有效流)。根据这里生成的流,OFS 4i被控制以通过绕行路由传送接收分组。
OFC 3将在步骤S704生成的流设置到绕行路由上的每个OFS(步骤S705和S706)。而且,OFC 3从绕行前路由上的每个OFS删除对应于绕行前路由的流(步骤S707和S708)。在图20所示的示例中,流的设置和删除处理被显示为针对OFS 41,它既在通信路由上也在绕行前路由上。
OFC 3删除(或无效)对应于设置到流表334的绕行前路由的流,并且将在步骤S704生成的流组注册(有效)为可用流。如上所述,通过设置对应于绕行路由的流,改变通信路由,并且建立围绕维护对象交换机42的通信路由。当流注册完成时,OFC 3向集成管理装置1发送绕行完成报告(步骤S710)。
当通信路由的绕行处理完成时,控制过程转换到维护处理(这个示例中的文件更新)。集成管理装置1指定OFS 42作为维护对象交换机并且命令OFC 3执行维护处理(这个示例中的文件更新)(步骤S711)。OFC 3向维护对象交换机42发送更新文件并且发出文件更新指令(步骤S712)。基于响应于文件更新指令而接收的更新文件,OFS 42更新其自身的软件(步骤S713)。当确认在OFS 42中文件更新完成时,OFC 3向集成管理装置1发送维护对象交换机42的软件更新完成报告。在文件更新指令之后或收到文件更新完成之后,OFC 3在拓扑数据335中添加完成文件更新的维护对象交换机或使其有效。集成管理装置1显示在维护对象交换机42中文件更新完成。因此,管理员可以确认指定的服务器的文件更新正常结束。
在这种情况下,在维护对象交换机42的文件更新之后,改变的通信路由通过设置流可返回初始状况。但是,通过考虑重设置流所需的处理负载以及重设置对另一通信的影响,期望的是不要执行通信路由的再次改变。
接下来,参见图20,将说明为了维护交换机(OFS)的硬件或软件停止OFS的操作的处理(执行操作关机)。因为维护对象交换机42被旁路或绕行,执行图20所示的步骤S701到S710的处理类似于执行上述文件更新处理和将通信路由改变为绕行路由。
当通信路由的绕行路由的设置完成时,控制过程转换到维护处理(这个示例中的操作关机处理)。集成管理装置1指定OFS 42作为维护对象交换机并且命令维护处理(这个示例中的操作关机处理)(步骤S711)。OFC 3向维护对象交换机42发出操作关机指令(步骤S712)。OFS 42响应于操作关机指令而执行操作关机处理(步骤S713)。当确认OFS 42的操作关机时,OFC 3向集成管理装置1发送操作关机完成报告。集成管理装置1显示维护对象交换机42在操作中停止。这样,管理员可以确认指定的交换机操作关机。
维护人员执行停止了操作的OFS 42的维护处理(例如,更换和添加硬件、替换软件等等)。当对OFS 42的维护处理完成时,管理员向集成管理装置1输入维护完成指令。这时,完成维护处理的交换机被集成管理装置1指定。集成管理装置1启动响应于维护完成指令而启动为了维护处理而停止操作的交换机。
图22所示为根据本发明在服务器的维护处理之后交换机的启动处理操作的序列图。参见图22,将说明在维护处理之后交换机的启动处理操作的细节。响应于管理员的维护完成指令(交换机说明书),集成管理装置1命令OFC 3启动指定的交换机(完成维护处理的OFS 42)(步骤S731)。OFC 3启动指定的OFS 42(步骤S732和S733)。完成启动处理的OFS 42向OFC 3发送启动完成报告(S734)。当确认OFS 42被启动时,OFC 3执行添加拓扑数据335中的维护对象交换机(这个示例中的OFS 42)或使其有效(步骤S735)。这样,在此后的通信路由生成处理中可以生成经过OFS 42的通信路由。虽然未示出,OFC 3可以向集成管理装置1发送OFS 42的启动完成报告。集成管理装置1存储表示OFS 42在维护处理之后被启动的数据。这个数据可以向管理员可视地显示。
如上所述,通过集成管理装置1的集成控制,交换机被从系统中分离,并且对交换机的维护处理(文件更新和操作关机并且启动处理)被执行。而且,由于系统切换对初始状况的恢复处理可以被集成管理装置1集成地控制。
当在服务器的文件更新时执行操作关机处理时,通过在维护对象交换机42重启动之后设置流,改变的通信路由可以返回初始状况。但是,通过考虑重设置流所需的处理负载并且由于重设置对另一通信的影响,期望的是不执行通信路由的再次改变。
第三示范实施方式(对第二实施方式的修改)
当在交换机的维护处理中改变通信路由时,需要降低分组损失。在第三示范实施方式的维护处理中,通过使用绕行路由和绕行前路由,在改变通信路由之前的预定时段中执行数据传送。这样,可以使随同流改变的分组损失很小。此后,参见图23A和图23B,将说明第三示范实施方式的维护处理操作的细节。说明将假设维护对象交换机是OFS 42,不同于绕行路由上的端点的交换机是OFS41,并且端点的交换机是OFS 43。
图23A和图23B所示为第三示范实施方式中对交换机的维护处理操作的序列图。参见图23A,通过第三示范实施方式中的维护处理方法,通过步骤S701到S703的处理,执行绕行验证和在拓扑数据335中维护对象交换机42的无效,类似于第二示范实施方式。
OFC 3生成对应于围绕维护对象交换机的新通信路由(绕行路由)的流(步骤S741)。这时,OFC 3生成仅向绕行路由传送数据的流,这类似于第二示范实施方式,并且还通过拷贝分组数据来生成向绕行路由和绕行前路由发送分组数据的流。
OFC 3将在步骤S741生成的、仅通过绕行路由来传送数据的流设置到不同于绕行路由上的端点的对应OFS(OFS 41)(步骤S742和S743)。接下来,OFC 3将用于拷贝分组数据以及用于将其传输到绕行路由和绕行前路由二者的流设置到绕行路由上的端点的交换机(OFS 43)(步骤S744和S745)。在等待预定的时间之后,将流设置到绕行路由上OFS的OFC 3命令绕行路由上的端点的交换机(OFS 43)将步骤S745设置的流改变为仅向步骤S741生成的绕行路由传送数据的流(步骤S746和S747)。随后,OFC 3从绕行前路由上的每个OFS删除对应于绕行前路由的流(步骤S748和S749)。
此后,类似于第二示范实施方式,通过步骤S709到S713的处理执行在OFC中的流注册(有效)处理和维护处理(更新文件或操作关机处理)。
根据本示范实施方式中的维护方法,因为在预定时间端点的交换机(OFS 4i)通过绕行路由和绕行前路由的两个路由执行数据传送,可以降低在改变通信路由中的分组损失。
在第二或第三示范实施方式中,如果存在不能计算绕行路由的端点的集合,则通过在集成管理装置1的控制下改变端点(服务器)的状况(系统配置),计算绕行路由成为可能。根据端点是HA集群(操作中系统)服务器、HA集群(备用系统)服务器、负载分配系统服务器并且其上操作VMM的单个服务器,改变端点(服务器)的方法是不同的。
图24A和图24B所示为在对交换机维护处理的情况下用于绕行路由生成的端点改变处理操作的流程图。参见图24A,将说明在对交换机维护处理的情况下,当不能计算绕行路由时端点改变处理的细节。在上述步骤S702的绕行路由验证处理中,当存在不能计算绕行路由的端点时(步骤S726),OFC 3向集成管理装置1通知不能计算通信路由的端点的集合。集成管理装置1确认从OFC 3通知的外部网络8之外的端点(服务器)的情况(集群配置)(步骤S801)。具体而言,类似于上述步骤S601到S603,集成管理装置1指定被从OFC 3通知的端点(服务器)并且从服务器管理装置4获得每个集群数据。获得的集群数据被存储在存储单元中。
当从OFC 3通知的端点(服务器)中存在单个服务器时,集成管理装置1向VM管理装置2确认VMM是否操作在该单个服务器上,类似于上述步骤S671到S672(步骤S802和S803)。这时,当未操作有VMM的单个服务器被包含在被通知的端点(服务器)中时,集成管理装置1显示通信不能持续的会话并且包含该会话的端点(单独服务器)的集合,并且结束绕行路由生成处理(步骤S803“是”和S804)。
另一方面,当单个服务器不包含在被从OFC 3通知的端点(服务器)中时(步骤S802“否”),或者未操作有VMM的单个服务器不被包含时(步骤S803No),集成管理装置1通过根据设置到端点(服务器)的状况(集群配置)的方法执行端点改变处理。
首先,集成管理装置1从被OFC通知的端点中提取端点(服务器)作为改变对象(步骤S805和S806)。当提取的改变对象端点是HA集群(操作中系统)服务器时,集成管理装置1向服务器管理装置4发出指令以将HA集群(备用系统)的服务器升级为HA集群(操作中系统)(步骤S807“是”和S808)。接下来,集成管理装置1向服务器管理装置4发出降级指令以将HA集群(操作中系统)的服务器降级为HA集群(备用系统)(步骤S809)。然后,集成管理装置1向服务器管理装置4发出指令以停止被降级的HA集群(备用系统)的服务器(步骤S810)。响应于来自集成管理装置1的每个指令,服务器管理装置4在操作中系统和备用系统之间执行切换处理,并且HA集群(备用系统)的操作关机处理。当在操作中系统和备用系统之间的切换处理,并且端点(服务器)的操作关机完成时,控制过程转换到步骤S805。
当在步骤S806提取的改变对象端点是HA集群(备用系统)服务器时,集成管理装置1向服务器管理装置4发出指令以停止端点(HA集群(备用系统)服务器)(步骤S811“是”和S810)。服务器管理装置4响应于来自集成管理装置1的指令执行HA集群(备用系统)的操作关机处理。当端点(服务器)的操作关机完成时,控制过程转换到步骤S805。
当在步骤S806提取的改变对象端点是负载分配系统服务器时,集成管理装置1向负载均衡器9发出指令以停止对端点(服务器)的负载指派(步骤S812“是”和S813)。负载均衡器9响应于来自集成管理装置1的指令而停止对改变对象端点(服务器)的负载指派,类似于上述步骤S642。接下来,集成管理装置1向OFC 3发出对改变对象端点的流停止确认请求(步骤S814)。OFC 3确认用于控制数据传送到改变对象端点的流被从每个交换机删除,类似于上述步骤S645,并且将其报告给集成管理装置1。当确认停止向改变对象端点的数据传送时,集成管理装置1向服务器管理设备发出指令以停止端点(步骤S815)。服务器管理装置4响应于来自集成管理装置1的指令而执行端点(服务器)的操作关机处理。当端点(服务器)的操作关机完成时,控制过程转换到步骤S805。
当在步骤S806提取的改变对象端点是单个服务器时,集成管理装置1向VM管理装置2请求操作在端点(VMM)中的VM的数据(VMM数据324)(步骤S816“是”和S817)。VM管理装置2向集成管理装置1返回指定的端点的VM列表(VMM数据324),类似于上述步骤S681。接下来,集成管理装置1确定如上述步骤S683获得的VM列表(VMM数据324)中所示每个VM的迁移目的地,并且向VM管理装置2发出VM的迁移指令(步骤S818)。VM管理装置2通过使用OFC 3迁移VM,如步骤S687。当确认VM迁移时,集成管理装置1向服务器管理装置4发出指令以停止端点(步骤S819)。服务器管理装置4响应于来自集成管理装置1的指令执行端点(服务器)的操作关机处理。当端点(服务器)的操作关机完成时,控制过程转换到步骤S805。
重复上述步骤S805到S819的处理,直到对从OFC 3通知的所有端点执行它。当所有端点被改变时,控制过程转换到上述步骤S703,执行维护对象的无效、绕行路由的计算、流的设置并且维护处理(文件更新、更换硬件等等),如第一和第二示范实施方式中所示。这时,要绕行的维护对象交换机可以在操作中停止。而且,被改变的端点的状况(集群配置、操作情况等等)可以被存储在存储单元中。
接下来,将说明维护处理之后的操作。当通过来自OFC 3的报告或管理员的输入知道维护处理完成时,集成管理装置1根据在上述改变端点处理中存储的每个端点(服务器)的状况恢复改变的端点的状况(步骤S801)。图25A和图25B所示为在对交换机维护处理之后端点恢复处理操作的流程图。在确认存储的端点和存在未恢复的端点(服务器)的情况下,集成管理装置1提取恢复对象端点并且执行服务器状况的恢复处理(步骤S831和S832“是”和S833)。
首先,当提取的恢复对象端点(服务器)是HA集群(操作中系统)服务器时,集成管理装置1命令服务器管理装置4启动HA集群(备用系统)的服务器(步骤S834和S835)。接下来,集成管理装置1向服务器管理装置4发出指令以将HA集群(备用系统)的服务器升级为HA集群(操作中系统)(步骤S836)。然后,集成管理装置1向服务器管理装置4发出指令以将HA集群(备用系统)的服务器降级为HA集群(备用系统)(步骤S809)。服务器管理装置4响应于来自集成管理装置1的每个指令而执行HA集群(备用系统)的启动处理以及操作中系统和备用系统之间的切换处理。当启动端点(服务器)和对操作中系统的恢复完成时,控制过程转换到步骤S832。
当在步骤S833提取的恢复对象端点是HA集群(备用系统)服务器时,集成管理装置1向服务器管理装置4发出指令以启动端点(HA集群(备用系统)服务器)(步骤S838“是”和S839)。服务器管理装置4响应于来自集成管理装置1的指令而执行HA集群(备用系统)的启动处理。当端点(服务器)的启动完成时,控制过程转换到步骤S832。
当在步骤S833提取的恢复对象端点是负载分配系统服务器时,集成管理装置1向服务器管理装置4发出恢复对象端点的启动指令(步骤S840Yes和S841)。服务器管理装置4响应于来自集成管理装置1的指令执行对端点(服务器)的启动处理。接下来,集成管理装置1向负载均衡器9发出指令以停止对端点(服务器)的负载指派(步骤S842)。负载均衡器9响应于来自集成管理装置1的指令而恢复对改变对象端点(服务器)的负载指派,如上述步骤S662。当端点(服务器)的启动和负载指派被恢复时,控制过程转换到步骤S832。
当在步骤S833提取的恢复对象端点是单个服务器时,集成管理装置1向服务器管理装置4发出恢复对象端点的启动指令(步骤S843Yes和S844)。服务器管理装置4响应于来自集成管理装置1的指令而执行端点(服务器)的启动处理。接下来,集成管理装置1向VM管理装置2发出VM的迁移指令(恢复指令)(步骤S845)。当端点(服务器)的启动处理和VM的迁移处理完成时,控制过程转换到步骤S832。
重复上述步骤S832到S845的处理,直到对所有存储的恢复对象端点执行它。当所有端点被恢复时,集成管理装置1显示维护处理完成的影响。
如上所述,通过集成管理装置1的集成控制,没有任何绕行路由的交换机被从系统中分离,并且对交换机执行维护处理(文件更新,操作关机处理,并且启动处理)被执行。可以通过系统切换恢复初始状况。第四示范实施方式(对第一示范实施方式的修改)
在第四示范实施方式中,当在对HA集群(操作中系统)的服务器的维护处理的情况下在操作中系统和备用系统之间切换时,通信路由基于开放流技术而改变。因此,可以在通信路由在操作中系统和备用系统之间切换时缩短设置时间,并且降低分组损失。此后,参见图26A到图27B,将说明在第四示范实施方式中HA集群(操作中系统)服务器的维护处理的细节。
图26A和图26B所示为第四示范实施方式的维护处理操作(对操作中系统服务器的维护处理)的序列图。在本示范实施方式中,在第一示范实施方式中在操作中系统和备用系统之间切换(步骤S604到S608)之前,系统切换之后使用的对应于通信路由的流的设置被执行。
此后,将说明流的设置处理的细节。类似于第一示范实施方式,集成管理装置1检测到维护对象服务器5是集群(操作中系统),通过步骤S601和S603的处理,向OFC 3指定维护对象服务器5,并且命令流的设置(步骤S901)。响应于流设置指令,OFC 3生成与具有HA集群(备用系统)作为端点的通信路由相对应的流(步骤S902)。具体而言,通过使用拓扑数据335,具有端点的通信路由、具有作为HA集群(操作中系统)维护对象的服务器5作为端点的通信路由的另一端点以及HA集群(备用系统)的服务器被新计算。OFC 3生成设置到通信路由上的OFS 4i的流。OFC 3将步骤S902生成的流设置到新通信路由上的每个OFS 4i(步骤S903和S904)。
新流被设置到的OFS 4i执行分组数据向HA集群(操作中系统)服务器和HA集群(备用系统)服务器二者的传送处理。这样,可以防止发生在系统切换处理期间的分组损失,这将在下文说明。
当设置流时,OFC 3向集成管理装置1发出流设置完成报告(步骤S905)。据此,集成管理装置1命令服务器管理装置4切换操作中系统的维护对象服务器的系统以及备用系统的服务器(步骤S604)。类似于第一示范实施方式,服务器管理装置4控制集群机制100将操作中系统的维护对象服务器5降级为备用系统,并且将指定的备用系统的服务器升级为操作中系统(步骤S605和S607)。
当接收系统切换完成报告时,集成管理装置1向OFC发出流的删除指令(步骤S608和S906)。OFC 3命令OFS 4i从通信路由上的OFS 4i删除与具有维护对象服务器5作为端点的通信路由相对应的流(步骤S907)。当接收删除指令时,OFS 4i删除流(步骤S908)。这样,仅通过使用具有在步骤S606被切换到操作中系统的服务器作为端点的通信路由,用于维护对象服务器5的分组数据被发送到服务器。
当删除与去往维护对象服务器5的通信路由对应的流完成时,流删除完成报告被从服务器管理装置4被通知给集成管理装置1。这样,集成管理装置1命令服务器管理装置4执行维护处理并转换到维护处理,类似于第一示范实施方式(步骤S609到S612)。
如上所述,因为在系统切换之前执行在系统切换之后使用的流设置,系统切换之后的通信路由的改变时间减少。
图27A和图27B所示为第四示范实施方式在服务器的维护处理之后启动处理操作的序列图。在第四示范实施方式中,当启动为了维护处理而停止操作的物理服务器5时,系统切换和通信路由的切换被执行。在本示范实施方式中,与系统切换之后使用的通信路由相对应的流的设置在第一示范实施方式中在操作中系统与备用系统之间的系统切换(步骤S636到S639)之前被执行。
具体而言,类似于第一示范实施方式,维护处理之后的物理服务器5由集成管理装置1启动(步骤S631到S635)。基于来自服务器管理装置4的报告,当确认物理服务器5的启动完成时,集成管理装置1指定服务器操纵以作为操作中系统,并且命令流的设置(步骤S911和S912)。这样,指定了在其中完成维护处理的HA集群(备用系统)的物理服务器5。响应于流设置指令,OFC 3生成与具有HA集群(备用系统)的物理服务器5作为端点的流通信路由对应的流(步骤S913)。具体而言,通过使用拓扑数据335来计算具有以HA集群(操作中系统)服务器作为端点的通信路由的另一端点以及作为HA集群(备用系统)的物理服务器5的端点的通信路由。OFC 3生成要设置到通信路由上的OFS 4i的流。OFC 3把在步骤S913生成的流设置到新通信路由上的每个OFS 4i(步骤S914和S915)。应注意,在图26A和图26B所示的流的删除处理中,当到维护对象服务器5的流未被删除并且保持在OFC 3的流表334中。步骤S913的流生成处理被省略。
新流被设置到的OFS 4i向HA集群(操作中系统)服务器和HA集群(备用系统)服务器执行分组数据的传送处理。这样,可以防止下面要说明的在系统切换处理期间的分组损失出现。
当设置流时,OFC 3向集成管理装置1发出流设置完成报告(步骤S916)。集成管理装置1命令服务器管理装置4执行对操作中系统的维护对象服务器并且备用系统的服务器的系统切换(步骤S917)。类似于第一示范实施方式,服务器管理装置4控制集群机制100将操作中系统的维护对象服务器降级为备用系统,并且将完成维护处理的备用系统的物理服务器5升级为操作中系统(步骤S636到S639)。
当收到系统切换完成报告时,集成管理装置1向OFC 3发出流的删除指令(步骤S939和S918)。OFC 3命令OFS 4i从通信路由上的OFS 4i删除与具有从操作中系统切换到备用系统的服务器作为端点的通信路由对应的流(步骤S919)。当接收到删除命令时,OFS4i删除流(步骤S920)。这样,通过仅使用具有在步骤S606切换到操作中系统的物理服务器5作为端点的通信路由,用于维护对象服务器5的分组数据被传送到服务器。
如上所述,在维护处理之后在物理服务器的启动处理中,因为系统切换之后使用的流设置在系统切换之前被执行,在系统切换之后通信路由的改变时间减少。应注意,维护处理之后的系统切换并且通信路由的改变可以被省略。
(虚拟机迁移操作)
接下来,将说明图18B所示的步骤S684到S687的虚拟机迁移操作。
(1)第一实现示例
参见图28到图30,将说明虚拟机迁移操作的第一实现示例。图28所示为在虚拟机的迁移处理中迁移准备处理的第一实现示例的序列图。首先,参见图28,将说明图18B所示在步骤S685的迁移准备处理的第一实现示例。
当在步骤S683确定VM的迁移目的地时,集成管理装置1向OFC 3发出VM迁移准备指令(步骤S684)。这时,集成管理装置1基于VMM管理数据323向OFC 3指定迁移源VMM、迁移对象VM、迁移目的地VMM以及迁移目的地VSW。
当收到迁移准备指令时,OFC 3首先设置通信路由和用于传送存储器映像的流。基于拓扑数据335,OFC 3计算用于在迁移源VMM和迁移目的地VMM之间传送迁移对象VM的存储器映像的通信路由(存储器映像传送路由)(步骤S104)。这里,其中存储有迁移之前的迁移对象VM的存储器映像的区域以及其中存储有迁移之后的迁移对象VM的存储器映像的区域被设置为两个端点,并且被计算为存储器映像传送路由。计算的存储器映像传送路由的数据被存储为通信路由数据336。
OFC 3生成将要被设置到在步骤S104中计算出的存储器映像传送路由上的每个OFS 4i的流(存储器映像传送流)(步骤S105)。每个OFS 4i生成的用于存储器映像传送处理的流(规则444+动作数据445)与每个OFS 4i相关,并且被注册在流表334上。这时,存储器映像传送流的设置数据446被设置为“非设置”或“无效”状态。
OFC 3将存储器映像传送流设置到每个OFS 4i和节点(步骤S106到S108)。具体而言,OFC 3命令通信路由上的OFS 4i设置存储器映像传送流(步骤S106)。被命令设置流的OFS 4i将设置流(规则444+动作数据445)设置到其自身的流表343(步骤S107)。当完成流设置时,OFS 4i向OFC 3发送流设置完成报告(步骤S108)。这里,存储器映像传送流被设置到存储器映像传送路由上除OFS 4i之外的节点。而且,当虚拟交换机具有对应于开放流技术的配置时,存储器映像传送流被设置到存储器映像传送路由上的虚拟交换机。被设置到OFS 4i和虚拟交换机的存储器映像传送流的设置数据446被设置为“已设置”或“有效”状态。
接下来,OFC 3设置用于访问VM迁移之后的迁移对象VM(此后称为迁移目的地VM)的通信路由和流。首先,OFC 3计算去往迁移目的地VM的通信路由(用于迁移目的地VM的通信路由)(步骤S109)。具体而言,OFC 3从预先保持的有效通信路由数据336中选择迁移对象VM的通信路由中的通信路由数据336。这里,有效的通信路由(有效通信路由数据336)表示可以设置到OFS 4i的流存在的通信路由。OFC 3使用拓扑数据335,通过改变选择的从迁移对象VM到与迁移目的地VM连接的虚拟交换机的通信路由的一个端点来修正通信路由,并且计算作为针对迁移目的地VM的通信路由。计算出的针对迁移目的地VM的通信路由的数据被存储为通信路由数据336。
OFC 3生成要设置到用于在步骤S109计算的迁移目的地VM的通信路由上的每个OFS 4i的流(用于迁移目的地VM的通信流)(步骤S110)。每个OFS 4i生成的用于迁移目的地VM的通信流(规则444+动作数据445)与每个OFS 4i相关,并且被注册在流表334上。这时,用于迁移目的地VM的通信流的设置数据446被设置为“非设置”或“无效”状态。
当生成用于迁移目的地VM的通信流时,OFC 3向集成管理装置1报告迁移准备完成(步骤S111)。
如上所述,在第一实现示例的迁移准备处理中,执行迁移对象VM和迁移的存储器映像的传送路由的计算和控制该迁移的流的设置,并且执行用于访问迁移目的地VM的通信路由的计算和控制通信的流的生成。在第一实现示例中,在去往OFS 4i的存储器映像传送流的设置而后用于迁移目的地VM的通信流的生成的步骤被完成后,迁移准备结束。
图18B所示的步骤S687的迁移处理包含图29所示的存储器映像传送处理并且图30所示的访问目的地切换处理。
图29所示为在虚拟机进行迁移处理的情况下第一实现示例中存储器映像传送处理的序列图。参见图29,当收到迁移就绪报告时,集成管理装置1向VM管理装置2发出迁移指令(步骤S686)。VM管理装置2向迁移源VMM(VMM 10在这里作为示例)和在迁移准备处理中指定的迁移目的地VMM(VMM 20在这里作为示例)发出迁移指令(步骤S202和S203)。这时,VM管理装置2向VMM 10和20通知迁移对象VM。应注意,在步骤S201的迁移指令的情况下,迁移源VMM和迁移目的地VMM可以被指定。
响应于来自VM管理装置2的迁移指令,虚拟机的存储器映像传送处理在VMM 10和20之间执行(步骤S204到S212)。具体而言,在迁移目的地VMM(此后,称为迁移目的地VMM 20)中由VM管理装置2指定的VM生成(步骤S204)。迁移源VMM(此后称为迁移源VMM 10)响应于从迁移目的地VMM 20通知的VM生成完成报告传送迁移对象VM的存储器映像(步骤S205到S207)。针对在步骤S204生成的VM,传送存储器映像。存储器映像通过在步骤S104到S107设置的存储器映像传送路由被传送。这时,根据在步骤S107设置的用于存储器映像的流传送,存储器映像传送路由上的OFS 4i传送存储器映像。
在传送存储器映像期间,当发生对除迁移对象VM之外的另一虚拟机的访问(例如,数据传送)时,根据设置到其自身的流表343的流,OFS 4i根据访问执行对应于接收分组的头部数据的动作(例如,数据的中继处理)。在这种情况下,通过将存储器映像传送路由设置为不妨碍访问与迁移无关的另一虚拟机的路由,迁移对象VM可以被迁移而不妨碍与另一虚拟机的通信。
另一方面,在传送存储器映像期间(例如,当传送用于迁移对象VM的数据时),当用于迁移对象VM的访问发生时,到迁移对象VM的通信路由上的OFS 4i根据设置到其自身的流表343的流执行对应于接收分组的头部数据的动作(例如,数据的中继处理)。这里,因为流被设置,假设迁移对象VM操作在VMM 10上,用于迁移对象VM的数据被传送到物理服务器5上的迁移对象VM。迁移源VMM 10将传送的迁移对象VM的数据存储在迁移对象VM的存储器页面中。
在传送存储器映像期间,存在这样的情况:迁移对象VM的过程处理以及基于为迁移对象VM传送的数据的存储器页面被改变的情况。改变的存储器页面被存储在存储单元的改变的页面记录区域以作为拷贝对象(步骤S208)。改变的页面的记录处理最好到迁移目的地VM启动操作时才被执行。
当与迁移对象VM有关的所有存储器映像传送结束时,迁移源VMM 10通过在步骤S104到S107设置的存储器映像传送路由,向迁移目的地VMM 20传送改变的页面(步骤S209)。但是,期望的是,当与迁移对象VM有关的所有存储器映像传送结束时已存储的改变的页面数目等于或小于预定的数目,步骤S209的改变的页面的传送处理被省略。而且,在步骤S209的改变的页面的传送处理期间,存储器页面有时被改变。因此,在步骤S209,迁移源VMM 10将改变页面记录区域中进一步改变的页面存储到另一区域,并且在清除改变页面记录区域之后将进一步改变的页面传送到迁移目的地VMM 20。
当与迁移对象VM有关的所有存储器映像传送(包含传送改变的页面)结束时,操作在迁移源VMM 10上的迁移对象VM(此后,称为迁移源VM)的操作停止(步骤S210)。这时,虚拟迁移源VM的网络接口也停止。应注意,期望的是,迁移源VMM 10在步骤S209重复传送改变的页面以及改变页面的记录,并且当改变的页面的数目变得等于或小于预定的数目时停止迁移源VM。在迁移源VM停止之后,迁移源VMM 10通过在步骤S104到S107设置的存储器映像传送路由,向迁移目的地VMM 20传送改变的页面(步骤S211)。这样,从迁移源VMM 10向迁移目的地VMM传送存储器映像完成。这里,迁移目的地VMM 20上生成的VM(此后,称为迁移目的地VM)可以开始操作,但是,期望的是,执行在迁移源VM和迁移目的地VM之间匹配确定存储器映像。具体而言,迁移源VMM 10确认迁移源VM停止,并且向迁移目的地VMM 20发出传送确认指令(步骤S212)。响应于传送确认指令,迁移目的地VMM 20通过在步骤S104到S107设置的存储器映像传送路由向迁移源VMM 10传送迁移目的地VM的存储器映像(步骤S213)。迁移源VMM 10确定从迁移目的地VMM 20传送的存储器映像与迁移源VM的存储器映像是否彼此一致(步骤S214)。
在步骤S214,当确认迁移目的地VM与迁移源VM的存储器映像匹配时,匹配确认完成报告从迁移源VMM 10发送迁移目的地VMM 20(步骤S215)。当收到匹配确认完成报告时,迁移目的地VMM 20操作迁移目的地VM(步骤S216)。这时,迁移目的地VM中的虚拟网络接口变成操作状况。
另一方面,当迁移目的地VM与迁移源VM的存储器映像与步骤S216不一致时,不一致的存储器页面的传送处理被执行(未示出)。
如上所述,通过使用由集成管理装置1指定的路由(存储器映像传送路由)执行VM的存储器映像的传送。这时,根据在迁移处理之前设置到OFS组4的流执行对迁移源VM的访问。因此,可以传送VM的存储器映像而不停止对迁移源VM的通信。而且,因为存储器映像传送路由可以被可选地被集成管理装置1设置,可以选择不妨碍对其他虚拟机通信的路由。这样,传送存储器映像变得可以不影响对其他虚拟机通信。
通常,当物理服务器属于相同的子网时,物理服务器之间的数据传送通过2层交换机执行。但是,当物理服务器属于不同的子网时,物理服务器之间必须提供3层交换机。另一方面,在本发明中,通过使用开放流技术执行存储器映像的传送,其中根据1层到4层的地址和标识符的组合确定动作(例如,中继操作)。因此,即使当物理服务器5和6属于不同的子网时,仅通过改变流的设置,物理服务器之间的数据传送成为可能。
图30所示为第一实现示例中在虚拟机的迁移处理中访问目的地切换处理的序列图。这里,假设在步骤S218启动的迁移目的地VM是VM 20m,将说明从迁移源VM到迁移目的地VM 20m的访问目的地切换处理。参见图30,迁移目的地VMM 20上生成的VM 20m当变成操作状况时,首先发送RARP(逆向地址解析协议)(步骤S301)。RARP被虚拟交换机21检测并且被传送到OFS 4i。当检测到RARP时,OFS 4i向OFC 3通知检测的RARP(步骤S302)。具体而言,OFS 4i从迁移目的地VM在操作状况中接收RARP传输中的分组数据,并且向OFC 3通知接收第一分组,因为适合分组数据的流(规则)是未设置的。这时,OFS4i向OFC 3通知分组数据或包含在分组数据中的MAC地址。OFC 3选择对应于通知的MAC地址的通信路由作为用于迁移目的地VM的通信路由,并且生成用于迁移目的地VM的通信流。这里,RARP通信中的分组数据是从OFS4i传送的并且OFC 3在RARP传输中获得VM 20m的MAC地址。
OFC 3选择对应于在步骤S302通知有效通信路由数据336的RARP(MAC地址)的通信路由(通信路由数据336)(步骤S303)。这里,传递RARP(MAC地址)的通信路由是从用于在步骤S109计算的迁移目的地VM的通信路由中选择的。接下来,OFC 3将在步骤S110生成的用于迁移目的地VM的通信流设置到OFS 4i和所选通信路由上的节点(步骤S304到S307)。具体而言,OFC 3从通信路由数据336以及拓扑数据335中提取用于迁移目的地VM的OFS4i和所选通信路由上的节点,并且选择对应于每个提取的OFS 4i和节点的用于迁移目的地VM的通信流(步骤S304)。OFC 3发出为每个OFS 4i选择的用于迁移目的地VM的通信流的设置指令(步骤S305)。响应于用于迁移目的地VM的通信流的设置指令,OFS 4i将所传输的用于迁移目的地VM的通信流设置到其自身的流表343(步骤S306)。当流的设置完成时,OFS 4i向OFC 3通知流设置完成报告(步骤S307)。设置到OFS 4i的用于迁移目的地VM的通信流的设置数据446被设置为“已设置”和“有效”状态。
当确认设置完成时,OFC 3将用于迁移目的地VM的通信流设置到用于迁移目的地VM的通信路由上的OFS 4i和节点,并且通过使用拓扑数据335生成流以在迁移目的地VM和虚拟交换机21之间连接(步骤S308)。OFC 3将生成的流设置到虚拟交换机21(步骤S309和S310)。具体而言,OFC 3向虚拟交换机21发出在步骤S308生成的流的设置指令(步骤S309)。虚拟交换机21将从OFC 3发送的流设置到其自身的流表343响应于流的设置指令(步骤S310)。当流的设置完成时,虚拟交换机21向OFC 3通知流设置完成报告(步骤S311)。被设置到虚拟交换机21的用于迁移目的地VM的通信流的设置数据446被设置为“已设置”或“有效”状态。
当确认连接迁移目的地VM 20m和虚拟交换机21的流的设置完成时,OFC 3选择用于迁移源VM的流,并且发出流的删除指令(步骤S312和S313)。OFS 4i和节点将用于迁移源VM的流设置为删除或不可能使用状态(步骤S314)。流删除结束的OFS 4i和节点向OFC 3通知流删除完成报告(步骤S315)。当确认删除用于迁移源VM的通信路由上的OFS 4i和节点中用于迁移源VM的流时,OFC 3将用于迁移目的地VM的通信流设置为当前使用流,并且将用于迁移源VM的通信流设置为非使用流(步骤S316)。这里,表示使用或非使用(有效或无效)的数据被设置在对应于每个流(规则444+动作数据445)的设置数据446中。这时,未使用的用于迁移源VM的通信流可以从流表334删除。但是,通过改变设置数据446来设置流的使用或非使用(有效或无效)而不删除未使用的流,当迁移的虚拟机返回到初始物理服务器或VMM时,设置流而不再次生成流成为可能。
此后,根据设置到每个OFS 4i的用于迁移目的地VM的通信流,用于迁移目的地VM 20m的通信被执行到操作在物理服务器6(VMM 20)上的VMM 20。
如上所述,根据本发明的迁移方法,迁移虚拟机而不停止与虚拟机的通信成为可能。在本示范实施方式中,不同的物理服务器之间的迁移已作为示例说明,但是同一物理服务器中的迁移可通过类似方法实现。
而且,根据本发明,用于传送存储器映像的设置和用于与迁移目的地VM通信的设置可由集成管理装置1集成地执行。即,虚拟机的迁移可以被一个管理装置控制。因此,根据本发明,被网络管理器单独传统管理的计算机系统和IT管理器可以被一个管理装置管理。
应注意,当虚拟交换机21是执行一般的交换操作(2层)的虚拟交换机时,步骤S308到S311的处理被省略。
(2)第二实现示例
接下来,参见图29、图31和图32,将说明根据本发明的第二实现示例的计算机系统中的虚拟机的迁移方法。
在第二实现示例的虚拟机的迁移方法中,在迁移准备处理的步骤中,用于迁移目的地VM的通信流被设置到OFS 4i。这样,用于迁移对象VM的分组数据被复制并且被传送到迁移源VM和迁移目的地VM。在第一实现示例中,因为用于迁移目的地VM的通信流是在迁移对象VM的存储器映像传送处理之后设置的,分组损失有时会发生在从迁移目的地VM停止到设置用于迁移对象VM的通信流(访问目的地切换到迁移对象VM)这一时段中。但是,在第二实现示例中,因为用于迁移源VM的流和用于迁移目的地VM的流在迁移准备步骤中被设置,可以防止当访问目的地切换到迁移目的地VM时发生分组损失。
图31所示为在第二实现示例中在图18B所示步骤S685虚拟机进行迁移处理中迁移准备处理的序列图。参见图31,在第二实现示例的迁移准备处理中,步骤S684和S104到S110的处理被首先执行,类似于第一实现示例。在第二实现示例中,OFC 3在迁移准备处理中将用于迁移目的地VM的通信流设置到每个OFS 4i(步骤S401到S403)。具体而言,OFC 3提取用于基于通信路由数据336以及拓扑数据335而被选择的迁移目的地VM的通信路由上的OFS4i和节点,并且选择对应于每个通信流的用于迁移目的地VM的通信流。继而,OFC 3发出针对每个OFS 4i而选择的用于迁移目的地VM的通信流的设置指令(步骤S401)。响应于用于迁移目的地VM的通信流的设置指令,OFS 4i将发送的用于迁移目的地VM的通信流设置到其自身的流表343(步骤S402)。当流的设置完成时,OFS4i向OFC 3通知流设置完成报告(步骤S403)。被设置到OFS 4i的用于迁移目的地VM的通信流的设置数据446被设置为“已设置”和“有效”状态。
当用于迁移目的地VM的通信流的设置完成时,OFC 3向集成管理装置1报告迁移准备处理完成(步骤S405)。
如上所述,在第二示范实施方式的迁移准备处理中,执行迁移对象VM的存储器映像的传送路由以及用于控制迁移的流的设置,并且执行用于访问迁移目的地VM的通信路由的设置和用于控制通信的流的设置。在第二示范实施方式,当存储器映像传送流和用于迁移目的地VM到OFS 4i的通信流的设置完成时,迁移准备处理完成。
参见图29,在第二实现示例的映像传送处理中,步骤S686和步骤S202到S207的处理(存储器映像传送处理)被首先执行,类似于第一示范实施方式。在存储器映像传送处理期间,当对除迁移对象VM之外的另一虚拟机的访问(例如,数据传送)发生时,OFS4i根据访问执行对应于根据设置到其自身的流表343的流的接收分组的头部数据的动作(例如,数据的中继处理)。在这种情况下,通过设置存储器映像传送路由以便不妨碍对与迁移无关的其他虚拟机的访问,迁移对象VM可以被迁移而不妨碍与其他虚拟机的通信。
另一方面,在存储器映像传送处理期间发生对迁移对象VM的访问时(例如,当传送用于迁移对象VM的数据时),去往迁移对象VM的通信路由上的OFS 4i执行对应于根据设置到其自身的流表343的流的接收分组的头部数据的动作(例如,数据的中继处理)。在本示范实施方式中,因为流被设置,假设迁移对象VM操作在VMM 10和VMM 20上,用于迁移对象VM的数据被拷贝并且被传送到物理服务器5上的迁移对象VM(迁移源VM)和物理服务器6上生成的迁移目的地VM。迁移源VMM 10将迁移对象VM的存储器页面存储在用于传送的迁移对象VM的数据中。这时,用于迁移对象VM的传送的数据被存储在迁移目的地VM的存储器页面中,也存储在迁移目的地VMM 20中。
在存储器映像传送处理期间,存储器页面有时由于迁移对象VM的过程处理并且为迁移对象VM传送的数据而被改变。改变的存储器页面被存储在存储单元的改变页面记录区域中作为拷贝对象(步骤S208)。最好直到迁移目的地VM开始操作时执行改变的页面的记录处理。
此后,从改变的页面的记录(步骤S208)到迁移目的地VM的操作(步骤S216),与第一实现示例中相同的处理被执行。
如上所述,在第二实现示例的迁移方法中,通过使用集成管理装置1指定的路由(存储器映像传送路由),VM的存储器映像的传送被执行,类似于第一实现示例。这时,因为在迁移处理之前根据设置到OFS组4的流执行对迁移源VM的访问,VM的存储器映像可以被传送而不停止与迁移源VM的通信。而且,因为存储器映像传送路由可以被集成管理装置1可选地设置,可以选择路由以便不阻碍与其他虚拟机的通信。这样,不影响与其他虚拟机的通信的存储器映像传送成为可能。
图32所示为在虚拟机的迁移处理的情况下第二实现示例中访问目的地切换处理的序列图。参见图32,在第二实现示例中的访问目的地切换处理中,步骤S301到S301的通道选择处理被首先执行,类似于第一实现示例。接下来,因为在第一实现示例中执行的到OFS4i的用于迁移目的地VM的通信流的设置处理(步骤S304到S307)在迁移准备处理的情况下被执行,在第二实现示例中省略了说明。
此后,在迁移目的地VM和虚拟交换机21之间连接的流的生成处理(步骤S308)到流设置处理(步骤S316)被执行,类似于第一实现示例。
如上所述,在第二示范实施方式中,当在迁移准备处理中时,用于迁移源VM的流和用于迁移目的地VM的流二者都被设置。因此,针对迁移对象VM而传送的数据到达迁移目的地VM,而不会在从迁移源VM在步骤S213停止到在步骤S316的流设置这一时段中被丢弃。这样,在本示范示例的计算机系统中,可以防止虚拟机迁移中的分组损失。而且,虚拟机迁移不是刻意来自外部网络8。
此外,在第二实现示例中,在VM迁移之后,对应于新通信路由(用于迁移目的地VM的通信路由)的流(用于迁移目的地VM的通信流)在迁移准备处理中被设置。因此,与在检测VM迁移之后建立新通信路由的第一实现示例相比,第二实现示例中建立新通信路由的时间可以缩短。
负载均衡器9可以改变负载指派使得在迁移处理期间不生成对迁移源VM的处理(访问)。这样,记录的处理量和改变页面的传送减少,VM迁移的时间减少。而且,在传送迁移对象VM的存储器页面期间,对迁移源VM的负载减少。
在以上,详细说明了本发明的示范实施方式。具体配置不限于以上示范实施方式。即使有不背离本发明的要点的范围的改变,配置被包含在本发明中。第一到第四示范实施方式中维护处理的方法并且第一到第二实现示例中用于VM迁移处理的方法可以通过将它们技术地组合在没有冲突的范围中来应用。
在VM迁移处理的情况下,通过使用在RARP传输中通知的MAC地址,OFC 3执行“选择用于迁移目的地VM的通信路由”并且“确认VM的迁移目的地改变”。但是,本发明不限于此。在迁移处理之后当收到处于操作状况的迁移目的地VM发送的分组数据时,例如,OFS 4i向OFC 3通知接收第一分组因为与分组数据匹配的流(规则)未设置。这时,OFS 4i向OFC 3通知分组数据的MAC地址。OFC 3选择对应于通知的MAC地址的通信路由作为用于迁移目的地VM的通信路由并且生成用于迁移目的地VM的通信流。或者,同样,OFC 3可以提取具有从第一分组报告获得的MAC地址作为端点的通信路由,并且通过检测作为通信路由上的端点的VM的连接目的地和接收分组数据的交换机是不同的,确认接收的连接目的地改变。
而且,可以根据来自OFS 4i的第一分组接收报告(RARP检测报告)执行VM迁移处理的迁移准备处理。在这种情况下,步骤S684和S685的准备指令和迁移准备处理被省略。
应注意,这个专利申请要求基于日本专利申请No.2009-233095的优先权,并且其公开通过引用结合于此。
Claims (19)
1.一种包括通过交换机连接的物理服务器的计算机系统,包括:
交换机,配置用于基于设置到所述交换机自身的流来传送接收的针对目的地节点的分组数据;
集成管理装置,配置用于指定维护对象单元;以及
控制器,配置用于通过控制去往所述交换机的所述流的设置或者删除被设置到所述交换机的流,来将所述维护对象单元关机以便与所述计算机系统分离,
其中所述目的地节点和所述维护对象单元中的每一个由IP(网际协议)地址或者MAC(媒体访问控制)地址定义,
其中所述流由规则和动作定义,用于向与所述规则匹配的分组处理所述动作,
其中当所述维护对象单元包括交换机时,所述集成管理装置向所述控制器发出路由绕行指令,
其中所述控制器响应于所述路由绕行指令而计算所述维护对象单元周围的绕行路由,将与所述绕行路由相对应的流设置到所述绕行路由上的交换机,并且删除与绕行被设置到所述绕行路由上的交换机之前的通信路由相对应的流,
其中当所述维护对象单元包括所述交换机时,所述控制器验证是否可以计算所述绕行路由,以及
其中所述集成管理装置命令VM(虚拟机)管理装置通过使用排除所述维护对象单元的拓扑数据,来迁移被设置到无法针对其计算所述绕行路由的端点的虚拟机,
其中所述VM管理装置将所述虚拟机迁移到所述集成管理装置所指定的迁移目的地,以及
其中所述控制器将用于向迁移目的地的所述虚拟机传送针对所述虚拟机的分组数据的流设置到所述交换机。
2.根据权利要求1所述的计算机系统,还包括:
服务器管理装置,配置用于向所述集成管理装置通知由所述集成管理装置指定的服务器的集群的数据,
其中所述集成管理装置基于在所述集群中被指定为所述维护对象单元的所述服务器的状况,来改变被指定为所述维护对象单元的所述服务器的分离方法。
3.根据权利要求2所述的计算机系统,其中所述计算机系统中的集群机制被配置用于将被设置到所述集群的所述服务器的状况切换为操作中系统或备用系统,
其中所述控制器在所述服务器的状况被从操作中系统切换到备用系统之前,将与具有将要切换到操作中系统的备用系统的服务器作为所述端点的所述通信路由相对应的流设置到所述通信路由上的交换机。
4.根据权利要求3所述的计算机系统,其中当指定的维护对象单元是所述操作中系统的所述服务器时,所述控制器在所述维护对象单元的状况被从操作中系统切换到备用系统之前,将与具有将要切换到操作中系统的备用系统的所述服务器作为所述端点的第一通信路由相对应的流设置到所述第一通信路由上的交换机。
5.根据权利要求3或4所述的计算机系统,其中在所述维护对象单元的状况从操作中系统切换到备用系统之后,所述控制器将与具有所述维护对象单元作为端点的第二通信路由相对应的流设置到所述第二通信路由上的交换机。
6.根据权利要求2所述的计算机系统,其中所述VM管理装置被配置用于管理操作在所述物理服务器上的虚拟机监视器,
其中当指定的维护对象单元是所述虚拟机监视器操作于其上的单个服务器时,所述集成管理装置命令所述VM管理装置迁移操作于所述单个服务器上的所述虚拟机。
7.根据权利要求2所述的计算机系统,还包括:
负载均衡器,配置用于对设置到负载分配集群的所述服务器执行负载分配,
其中当指定的维护对象单元是设置到所述负载分配集群的服务器时,所述集成管理装置命令所述负载均衡器停止向所述维护对象单元的负载指派,
其中所述负载均衡器停止向所述维护对象单元的负载指派,以及
其中当由所述控制器确认与向所述维护对象单元的数据传送相关的流未被设置到所述交换机时,所述集成管理装置命令所述服务器管理装置对所述维护对象单元执行维护处理。
8.根据权利要求7所述的计算机系统,其中被设置到所述交换机的流在经过预定时间段之后从所述交换机删除,使得流不被设置到所述交换机,以及
其中所述控制器在将流设置到所述交换机时向所述交换机设置所述时间段,并且将去往所述交换机的流的设置情况存储在所述控制器自身的流表中。
9.一种包括通过交换机连接的物理服务器的计算机系统,包括:
交换机,配置用于基于设置到所述交换机自身的流来传送接收的针对目的地节点的分组数据;
集成管理装置,配置用于指定维护对象单元;以及
控制器,配置用于通过控制去往所述交换机的所述流的设置或者删除被设置到所述交换机的流,来将所述维护对象单元关机以便与所述计算机系统分离,
其中所述目的地节点和所述维护对象单元中的每一个由IP(网际协议)地址或者MAC(媒体访问控制)地址定义,
其中所述流由规则和动作定义,用于向与所述规则匹配的分组处理所述动作,
其中当所述维护对象单元包括交换机时,所述集成管理装置向所述控制器发出路由绕行指令,
其中所述控制器响应于所述路由绕行指令而计算所述维护对象单元周围的绕行路由,将与所述绕行路由相对应的流设置到所述绕行路由上的交换机,并且删除与绕行被设置到所述绕行路由上的交换机之前的通信路由相对应的流,
服务器管理装置,配置用于控制设置到所述服务器的集群的改变,
其中当所述维护对象单元是交换机时,所述控制器响应于所述路由绕行指令而验证是否可以计算所述绕行路由,以及
其中所述集成管理装置命令所述服务器管理装置通过使用排除所述维护对象单元的拓扑数据来改变被设置到无法针对其计算所述绕行路由的端点的所述集群。
10.一种在根据权利要求1至9任一所述的计算机系统中使用的控制器。
11.一种由计算机系统执行的维护方法,所述计算机系统包括通过交换机连接的物理服务器,所述交换机用于基于设置到所述交换机自身的流将接收的分组数据传送给目的地节点,所述维护方法包括:
集成管理装置指定维护对象单元;
控制器通过控制去往所述交换机的流的设置或删除被设置到所述交换机的流而将所述维护对象单元关机以便与所述计算机系统分离,
其中所述从所述计算机系统分离所述维护对象单元包括:当所述维护对象单元包括交换机时,所述集成管理装置向所述控制器发出路由绕行指令,
其中所述控制器响应于所述路由绕行指令而计算所述维护对象单元周围的绕行路由,
其中所述控制器将与所述绕行路由相对应的流设置到所述绕行路由上的交换机,
其中所述控制器删除与绕行被设置到所述绕行路由上的交换机之前的通信路由相对应的流,以及
其中所述从所述计算机系统分离所述维护对象单元包括:
当所述维护对象单元包括所述交换机时,所述控制器响应于路由绕行指令而验证是否可以计算所述绕行路由;
所述集成管理装置命令VM(虚拟机)管理装置通过使用排除所述维护对象单元的拓扑数据来迁移操作于无法计算所述绕行路由的端点的虚拟机;
所述VM管理装置将所述虚拟机迁移到由所述集成管理装置指定的迁移目的地;以及
所述控制器将用于向迁移目的地的所述虚拟机传送针对所述虚拟机的分组数据的流设置到所述交换机。
12.根据权利要求11所述的维护方法,还包括:
服务器管理装置向所述集成管理装置通知由所述集成管理装置指定的服务器的集群的数据;以及
所述集成管理装置基于所述集群中被指定为所述维护对象单元的所述服务器的状况,改变被指定为所述维护对象单元的所述服务器的分离方法。
13.根据权利要求12所述的维护方法,还包括:
将设置到集群的所述服务器的状况从操作中系统切换到备用系统;以及
所述控制器在所述服务器的状况从操作中系统切换到备用系统之前,将与具有要切换到操作中系统的备用系统的服务器作为所述端点的通信路由相对应的流设置到所述通信路由上的交换机。
14.根据权利要求13所述的维护方法,其中所述设置流包括:
当指定的维护对象单元是操作中系统的所述服务器时,在所述维护对象单元的状况从操作中系统切换到备用系统之前,将与具有被切换到操作中系统的备用系统的所述服务器作为所述端点的第一通信路由相对应的流设置到所述第一通信路由上的交换机。
15.根据权利要求13或14所述的维护方法,其中所述设置所述流包括:
在所述维护对象单元的状况从操作中系统切换到备用系统之后,所述控制器将与具有所述维护对象单元作为所述端点的第二通信路由相对应的流设置到所述第二通信路由上的所述交换机。
16.根据权利要求12所述的维护方法,其中所述从所述计算机系统分离所述维护对象单元包括:
当指定的维护对象单元是其上操作有虚拟机监视器的单个服务器时,所述集成管理装置命令所述VM管理装置迁移所述维护对象单元以迁移操作于所述单个服务器上的虚拟机。
17.根据权利要求12所述的维护方法,其中所述从所述计算机系统分离所述维护对象单元包括:
当指定的维护对象单元包括被设置到负载分配集群的服务器时,所述集成管理装置命令负载均衡器停止向所述维护对象单元的负载指派,
所述负载均衡器停止向所述维护对象单元的负载指派,以及
其中当由所述控制器确认与去往所述维护对象单元的数据传送相关的流未被设置到所述交换机时,所述集成管理装置命令所述服务器管理装置对所述维护对象单元执行维护处理。
18.根据权利要求17所述的维护方法,其中在经过了将被设置为非设置状况的预定时间之后,被设置到所述交换机的流从所述交换机被删除,以及
其中所述维护方法还包括:
所述控制器在将流设置到所述交换机时向所述交换机设置对于所述非设置状况的时间;以及
所述控制器将去往所述交换机的流的设置情况存储在所述控制器自身的流表中。
19.一种由计算机系统执行的维护方法,所述计算机系统包括通过交换机连接的物理服务器,所述交换机用于基于设置到所述交换机自身的流将接收的分组数据传送给目的地节点,所述维护方法包括:
集成管理装置指定维护对象单元;
控制器通过控制去往所述交换机的流的设置或删除被设置到所述交换机的流而将所述维护对象单元关机以便与所述计算机系统分离,
其中所述从所述计算机系统分离所述维护对象单元包括:当所述维护对象单元包括交换机时,所述集成管理装置向所述控制器发出路由绕行指令,
其中所述控制器响应于所述路由绕行指令而计算所述维护对象单元周围的绕行路由,
其中所述控制器将与所述绕行路由相对应的流设置到所述绕行路由上的交换机,
其中所述控制器删除与绕行被设置到所述绕行路由上的交换机之前的通信路由相对应的流,以及
其中所述从所述计算机系统分离所述维护对象单元包括:
当所述维护对象单元包括所述交换机时,所述控制器响应于路由绕行指令而验证是否可以计算所述绕行路由,以及
所述集成管理装置命令服务器管理装置通过使用排除所述维护对象单元的拓扑数据来改变被设置到无法计算所述绕行路由的端点的集群;以及
所述服务器管理装置控制被设置到与所述端点对应的所述服务器的集群的改变。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009233095A JP5717164B2 (ja) | 2009-10-07 | 2009-10-07 | コンピュータシステム、及びコンピュータシステムのメンテナンス方法 |
JP2009-233095 | 2009-10-07 | ||
PCT/JP2010/067277 WO2011043270A1 (ja) | 2009-10-07 | 2010-10-01 | コンピュータシステム、及びコンピュータシステムのメンテナンス方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102549970A CN102549970A (zh) | 2012-07-04 |
CN102549970B true CN102549970B (zh) | 2016-11-09 |
Family
ID=43856728
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201080045600.XA Active CN102549970B (zh) | 2009-10-07 | 2010-10-01 | 计算机系统和计算机系统的维护方法 |
Country Status (5)
Country | Link |
---|---|
US (3) | US9361149B2 (zh) |
EP (1) | EP2487591B1 (zh) |
JP (1) | JP5717164B2 (zh) |
CN (1) | CN102549970B (zh) |
WO (1) | WO2011043270A1 (zh) |
Families Citing this family (64)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5717164B2 (ja) * | 2009-10-07 | 2015-05-13 | 日本電気株式会社 | コンピュータシステム、及びコンピュータシステムのメンテナンス方法 |
US8837499B2 (en) | 2011-05-14 | 2014-09-16 | International Business Machines Corporation | Distributed fabric protocol (DFP) switching network architecture |
WO2012164716A1 (ja) * | 2011-06-02 | 2012-12-06 | 株式会社日立製作所 | 仮想計算機の制御方法及び仮想計算機システム |
EP3605969B1 (en) * | 2011-08-17 | 2021-05-26 | Nicira Inc. | Distributed logical l3 routing |
US20140233392A1 (en) * | 2011-09-21 | 2014-08-21 | Nec Corporation | Communication apparatus, communication system, communication control method, and program |
US9178833B2 (en) | 2011-10-25 | 2015-11-03 | Nicira, Inc. | Chassis controller |
JP6010906B2 (ja) * | 2011-12-27 | 2016-10-19 | 富士通株式会社 | コンピュータネットワークシステム、構成管理方法、構成管理プログラム、記録媒体 |
US10091138B2 (en) * | 2012-02-21 | 2018-10-02 | F5 Networks, Inc. | In service upgrades for a hypervisor or hardware manager hosting virtual traffic managers |
JP5881465B2 (ja) * | 2012-02-27 | 2016-03-09 | 株式会社日立製作所 | 管理計算機、転送経路管理方法及び計算機システム |
EP2833582A4 (en) * | 2012-03-28 | 2015-12-02 | Nec Corp | COMPUTER SYSTEM AND COMMUNICATION PATIENT MODIFIERS |
JP6090423B2 (ja) * | 2012-03-30 | 2017-03-08 | 日本電気株式会社 | 通信システム、制御装置、通信装置、通信制御方法およびプログラム |
US9225635B2 (en) * | 2012-04-10 | 2015-12-29 | International Business Machines Corporation | Switch routing table utilizing software defined network (SDN) controller programmed route segregation and prioritization |
EP2748706B1 (en) | 2012-04-18 | 2020-01-22 | Nicira Inc. | Exchange of network state information between forwarding elements |
WO2013157094A1 (ja) * | 2012-04-18 | 2013-10-24 | 株式会社日立製作所 | 管理システム及び管理方法 |
JP5878077B2 (ja) * | 2012-05-23 | 2016-03-08 | 株式会社Nttドコモ | ネットワーク管理装置、通信システムおよびネットワーク管理方法 |
JP5492253B2 (ja) * | 2012-06-11 | 2014-05-14 | 日本電信電話株式会社 | 制御装置、制御方法および制御プログラム |
JP6304493B2 (ja) * | 2012-06-22 | 2018-04-04 | 日本電気株式会社 | 仮想マシンのマイグレーション方法、マイグレーション装置及びプログラム |
JP2015525981A (ja) * | 2012-06-26 | 2015-09-07 | 日本電気株式会社 | 通信方法、情報処理装置、通信システム、プログラム、ノードおよび通信端末 |
WO2014002481A1 (en) * | 2012-06-26 | 2014-01-03 | Nec Corporation | Communication method, information processing apparatus, communication system, communication terminal, and program |
JP5782641B2 (ja) * | 2012-08-31 | 2015-09-24 | 株式会社日立製作所 | 計算機システム及びパケット転送方法 |
US9178715B2 (en) | 2012-10-01 | 2015-11-03 | International Business Machines Corporation | Providing services to virtual overlay network traffic |
WO2014065315A1 (ja) * | 2012-10-24 | 2014-05-01 | 日本電気株式会社 | 通信システム、仮想マシンサーバ、仮想ネットワーク管理装置、ネットワーク制御方法及びプログラム |
US9110762B2 (en) * | 2012-12-04 | 2015-08-18 | Microsoft Technology Licensing, Llc | Virtual machine-preserving host updates |
KR102020046B1 (ko) * | 2012-12-06 | 2019-09-10 | 한국전자통신연구원 | 서버 가상화 환경에서의 플로우 관리 장치 및 방법, 서비스품질 정책 적용 방법 |
US8891516B2 (en) * | 2013-01-15 | 2014-11-18 | International Business Machines Corporation | Extended link aggregation (LAG) for use in multiple switches |
WO2014132954A1 (ja) * | 2013-02-26 | 2014-09-04 | 日本電気株式会社 | 通信システム、制御装置、通信方法及びプログラム |
US10230794B2 (en) * | 2013-03-15 | 2019-03-12 | Oracle International Corporation | System and method for efficient virtualization in lossless interconnection networks |
CN104079492B (zh) * | 2013-03-28 | 2017-10-10 | 华为技术有限公司 | 一种OpenFlow网络中流表配置的方法、装置和系统 |
WO2014157512A1 (ja) * | 2013-03-29 | 2014-10-02 | 日本電気株式会社 | 仮想マシン提供システム、経路決定装置、経路制御方法及びプログラム |
US10218622B2 (en) * | 2013-05-13 | 2019-02-26 | Vmware, Inc. | Placing a network device into a maintenance mode in a virtualized computing environment |
CN104426813A (zh) * | 2013-09-02 | 2015-03-18 | 中兴通讯股份有限公司 | 一种流表更新的控制方法、装置及控制器 |
US10348628B2 (en) * | 2013-09-12 | 2019-07-09 | Vmware, Inc. | Placement of virtual machines in a virtualized computing environment |
JP6311265B2 (ja) * | 2013-10-17 | 2018-04-18 | 日本電気株式会社 | 通信中継装置、通信中継システム、中継定義情報の更新方法及び更新プログラム |
JP6237102B2 (ja) * | 2013-10-17 | 2017-11-29 | 日本電気株式会社 | 管理装置、管理装置の制御方法及びプログラム |
CN104734988B (zh) * | 2013-12-23 | 2018-10-30 | 杭州华为数字技术有限公司 | 软件定义网络中路由控制的方法和开放流控制器 |
JP6075882B2 (ja) * | 2014-01-22 | 2017-02-08 | 日本電信電話株式会社 | 分散処理システム、および、分散処理方法 |
US20170171050A1 (en) * | 2014-02-16 | 2017-06-15 | B.G. Negev Technologies and Application Ltd., at Ben-Gurion University | A system and method for integrating legacy flow-monitoring systems with sdn networks |
US10455041B2 (en) * | 2014-02-20 | 2019-10-22 | Rovio Entertainment | Stateful service with partial replication |
JP5880608B2 (ja) | 2014-03-24 | 2016-03-09 | 日本電気株式会社 | フォールトトレラントサーバ |
JP6269238B2 (ja) * | 2014-03-27 | 2018-01-31 | 富士通株式会社 | ネットワーク管理方法、ネットワーク管理システム、およびネットワーク管理装置 |
US10324743B2 (en) | 2014-08-27 | 2019-06-18 | Red Hat Israel, Ltd. | Announcing virtual machine migration |
JP2016052080A (ja) * | 2014-09-02 | 2016-04-11 | 日本電信電話株式会社 | 通信システムおよびその方法 |
JP6548540B2 (ja) * | 2014-12-16 | 2019-07-24 | キヤノン株式会社 | 管理システムおよび管理システムの制御方法 |
EP3046028B1 (en) * | 2015-01-15 | 2020-02-19 | Alcatel Lucent | Load-balancing and scaling of cloud resources by migrating a data session |
JP6371715B2 (ja) * | 2015-02-13 | 2018-08-08 | 日本電信電話株式会社 | 処理システム、および、処理装置切り替え方法 |
CN104735071A (zh) * | 2015-03-27 | 2015-06-24 | 浪潮集团有限公司 | 一种虚拟机之间的网络访问控制实现方法 |
US10204122B2 (en) | 2015-09-30 | 2019-02-12 | Nicira, Inc. | Implementing an interface between tuple and message-driven control entities |
CN105426243A (zh) * | 2015-11-19 | 2016-03-23 | 国云科技股份有限公司 | 一种基于Openstack的物理机远程维护的方法 |
CN105681313B (zh) * | 2016-01-29 | 2018-11-09 | 博雅网信(北京)科技有限公司 | 一种针对虚拟化环境的流量检测系统及方法 |
JP2017169044A (ja) * | 2016-03-16 | 2017-09-21 | 日本電気株式会社 | 設定装置、通信システム、通信装置の設定更新方法及びプログラム |
US10116630B2 (en) * | 2016-04-04 | 2018-10-30 | Bitdefender IPR Management Ltd. | Systems and methods for decrypting network traffic in a virtualized environment |
US11019167B2 (en) | 2016-04-29 | 2021-05-25 | Nicira, Inc. | Management of update queues for network controller |
US10860436B2 (en) * | 2016-05-02 | 2020-12-08 | Nokia Solutions And Networks Oy | Snapshot creation in virtual network environment |
JP6740911B2 (ja) * | 2017-01-16 | 2020-08-19 | 富士通株式会社 | ポート切替プログラム、ポート切替方法、および情報処理装置 |
US11144341B2 (en) | 2017-07-13 | 2021-10-12 | Hitachi, Ltd. | Management apparatus and management method |
JP6885264B2 (ja) | 2017-08-25 | 2021-06-09 | 富士通株式会社 | 情報処理装置、情報処理システム、及びプログラム |
JP2020027530A (ja) * | 2018-08-16 | 2020-02-20 | 富士通株式会社 | 管理装置、管理プログラムおよび情報処理システム |
US11347541B2 (en) * | 2019-01-31 | 2022-05-31 | Walmart Apollo, Llc | Methods and apparatus for virtual machine rebalancing |
TWI698101B (zh) * | 2019-06-04 | 2020-07-01 | 鴻齡科技股份有限公司 | 伺服器管理方法及伺服器管理裝置 |
CN110378103B (zh) * | 2019-07-22 | 2022-11-25 | 电子科技大学 | 一种基于OpenFlow协议的微隔离防护方法及系统 |
US11593137B2 (en) | 2019-08-30 | 2023-02-28 | Nutanix, Inc. | Hypervisor hibernation |
WO2022009410A1 (ja) * | 2020-07-10 | 2022-01-13 | 日本電信電話株式会社 | サーバメンテナンス制御装置、制御方法、及び、プログラム |
JP2022022059A (ja) | 2020-07-22 | 2022-02-03 | 富士通株式会社 | 情報処理装置、情報処理プログラム、及び情報処理方法 |
US11972266B2 (en) * | 2020-10-02 | 2024-04-30 | Nutanix, Inc. | Hibernating and resuming nodes of a computing cluster |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1725182A (zh) * | 2004-07-22 | 2006-01-25 | 国际商业机器公司 | 更新逻辑分区计算机系统的输入输出能力的装置和方法 |
US7107329B1 (en) * | 1999-05-21 | 2006-09-12 | Lucent Technologies Inc. | In networks of interconnected router nodes for routing data traffic, a method of and system for imperceptibly upgrading router node software and the like without traffic interruption |
JP2008217201A (ja) * | 2007-03-01 | 2008-09-18 | Nec Corp | 自動アップデート方法 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7577722B1 (en) * | 2002-04-05 | 2009-08-18 | Vmware, Inc. | Provisioning of computer systems using virtual machines |
US20040062195A1 (en) * | 2002-09-30 | 2004-04-01 | Intel Corporation | Algorithm for dynamic provisioning of fail-over support in generalized multi-protocol label switching enabled networks |
US7484208B1 (en) | 2002-12-12 | 2009-01-27 | Michael Nelson | Virtual machine migration |
JP4025674B2 (ja) * | 2003-04-01 | 2007-12-26 | 富士通株式会社 | 迂回通信経路設計方法 |
WO2006040810A1 (ja) * | 2004-10-12 | 2006-04-20 | Fujitsu Limited | ソフトウェア更新プログラム、ソフトウェア更新装置およびソフトウェア更新方法 |
KR20070095374A (ko) | 2004-12-31 | 2007-09-28 | 브리티쉬 텔리커뮤니케이션즈 파블릭 리미티드 캄퍼니 | 비연결형 통신 트래픽을 위한 연결형 통신 방법 |
JP2006285597A (ja) | 2005-03-31 | 2006-10-19 | Nec Corp | 統合ストレージシステム、システム起動方法、およびそのプログラム |
JP2007304845A (ja) | 2006-05-11 | 2007-11-22 | Nec Corp | 仮想計算機システムおよびソフトウェア更新方法 |
JP4860434B2 (ja) | 2006-11-01 | 2012-01-25 | Necインフロンティア株式会社 | VoIPサーバ装置におけるソフトウェアメンテナンス方法、及び、ソフトウェアメンテナンス方式 |
JP5393686B2 (ja) * | 2007-09-26 | 2014-01-22 | ニシラ, インコーポレイテッド | ネットワークを管理する及び安全にするためのネットワークオペレーティングシステム |
JP2009146106A (ja) * | 2007-12-13 | 2009-07-02 | Hitachi Ltd | 物理的な通信ポートに付加される仮想的な通信ポートを移行する機能を有したストレージシステム |
JP5164628B2 (ja) * | 2008-03-24 | 2013-03-21 | 株式会社日立製作所 | ネットワークスイッチ装置、サーバシステム及びサーバシステムにおけるサーバ移送方法 |
JP5131692B2 (ja) | 2008-03-27 | 2013-01-30 | シーアイエンジニアリング有限会社 | 介護用排泄物処理装置 |
US8385202B2 (en) * | 2008-08-27 | 2013-02-26 | Cisco Technology, Inc. | Virtual switch quality of service for virtual machines |
US8054832B1 (en) * | 2008-12-30 | 2011-11-08 | Juniper Networks, Inc. | Methods and apparatus for routing between virtual resources based on a routing location policy |
JP5717164B2 (ja) * | 2009-10-07 | 2015-05-13 | 日本電気株式会社 | コンピュータシステム、及びコンピュータシステムのメンテナンス方法 |
-
2009
- 2009-10-07 JP JP2009233095A patent/JP5717164B2/ja active Active
-
2010
- 2010-10-01 EP EP10821941.1A patent/EP2487591B1/en active Active
- 2010-10-01 CN CN201080045600.XA patent/CN102549970B/zh active Active
- 2010-10-01 US US13/500,577 patent/US9361149B2/en active Active
- 2010-10-01 WO PCT/JP2010/067277 patent/WO2011043270A1/ja active Application Filing
-
2015
- 2015-06-29 US US14/754,081 patent/US9804884B2/en active Active
-
2017
- 2017-09-27 US US15/717,501 patent/US10534632B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7107329B1 (en) * | 1999-05-21 | 2006-09-12 | Lucent Technologies Inc. | In networks of interconnected router nodes for routing data traffic, a method of and system for imperceptibly upgrading router node software and the like without traffic interruption |
CN1725182A (zh) * | 2004-07-22 | 2006-01-25 | 国际商业机器公司 | 更新逻辑分区计算机系统的输入输出能力的装置和方法 |
JP2008217201A (ja) * | 2007-03-01 | 2008-09-18 | Nec Corp | 自動アップデート方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2011081588A (ja) | 2011-04-21 |
US9361149B2 (en) | 2016-06-07 |
US20120195187A1 (en) | 2012-08-02 |
US20150304213A1 (en) | 2015-10-22 |
EP2487591A1 (en) | 2012-08-15 |
EP2487591B1 (en) | 2016-12-21 |
CN102549970A (zh) | 2012-07-04 |
US10534632B2 (en) | 2020-01-14 |
EP2487591A4 (en) | 2015-07-29 |
US9804884B2 (en) | 2017-10-31 |
US20180032367A1 (en) | 2018-02-01 |
WO2011043270A1 (ja) | 2011-04-14 |
JP5717164B2 (ja) | 2015-05-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102549970B (zh) | 计算机系统和计算机系统的维护方法 | |
CN104734878B (zh) | 软件定义联网灾难恢复的方法和系统 | |
CN114902182B (zh) | 通信服务提供商网络中的云计算 | |
JP5446040B2 (ja) | コンピュータシステム、及び仮想マシンのマイグレーション方法 | |
EP3216194B1 (en) | Network function virtualization service chaining | |
CN101129032B (zh) | 硬件抽象层 | |
JP4515314B2 (ja) | 計算機システムの構成再現方法 | |
JP5744023B2 (ja) | 信頼性保証のある仮想化インフラストラクチャのためのリソース割振りプロトコル | |
CN101390336B (zh) | 灾难恢复体系结构 | |
CN106528327B (zh) | 一种数据处理方法以及备份服务器 | |
JP4715920B2 (ja) | 設定方法および管理装置 | |
CN108475251A (zh) | 针对容器的虚拟网络、热交换、热缩放与灾难恢复 | |
CN107925633A (zh) | 数据中心资源跟踪 | |
CN114902183A (zh) | 云计算实例在通信服务提供商网络中的基于延时的布局 | |
JP5869133B2 (ja) | ライブマイグレーションされた仮想計算機のネットワーク接続を復元する仮想計算機システム | |
JP5929908B2 (ja) | 通信制御装置、通信制御システム、通信制御方法、および、プログラム | |
US11349718B2 (en) | Capacity bursting using a remote control plane | |
JP6273916B2 (ja) | 冗長処理方法、冗長処理システム及び情報処理装置 | |
JP2012203625A (ja) | 論理サーバ運用システム、及び論理サーバ運用方法 | |
JP2017215872A (ja) | バックアップ制御サーバ、およびサービス制御サーバのアプリケーションデータバックアップ方法 | |
CN116918311A (zh) | 用于多区域sdwan的分布式路由控制器 | |
CN118733331A (zh) | 一种自指容灾管理方法及设备 | |
JP2010122843A (ja) | システム切替方法、計算機切替システムおよびプログラム | |
JPH08137778A (ja) | サーバクライアントシステム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |