WO2012023183A1 - 計算機管理装置、計算機管理システム及び計算機システム - Google Patents

計算機管理装置、計算機管理システム及び計算機システム Download PDF

Info

Publication number
WO2012023183A1
WO2012023183A1 PCT/JP2010/063913 JP2010063913W WO2012023183A1 WO 2012023183 A1 WO2012023183 A1 WO 2012023183A1 JP 2010063913 W JP2010063913 W JP 2010063913W WO 2012023183 A1 WO2012023183 A1 WO 2012023183A1
Authority
WO
WIPO (PCT)
Prior art keywords
computer
hardware
management
network
electronic
Prior art date
Application number
PCT/JP2010/063913
Other languages
English (en)
French (fr)
Inventor
岡野憲司
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to JP2012529430A priority Critical patent/JP5549733B2/ja
Priority to EP10856140.8A priority patent/EP2608046A1/en
Priority to PCT/JP2010/063913 priority patent/WO2012023183A1/ja
Publication of WO2012023183A1 publication Critical patent/WO2012023183A1/ja
Priority to US13/764,410 priority patent/US20130151885A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/06Management of faults, events, alarms or notifications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2038Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant with a single idle spare processing component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/3003Monitoring arrangements specially adapted to the computing system or computing system component being monitored
    • G06F11/3031Monitoring arrangements specially adapted to the computing system or computing system component being monitored where the computing system component is a motherboard or an expansion card
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/3055Monitoring arrangements for monitoring the status of the computing system or of the computing system component, e.g. monitoring if the computing system is on, off, available, not available
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/3089Monitoring arrangements determined by the means or processing involved in sensing the monitored data, e.g. interfaces, connectors, sensors, probes, agents
    • G06F11/3093Configuration details thereof, e.g. installation, enabling, spatial arrangement of the probes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2023Failover techniques

Definitions

  • the present invention relates to a computer management apparatus, a computer management system, and a computer system.
  • FIG. 13 is a block diagram of a conventional computer system. As illustrated in FIG. 13, the computer system 200 includes hardware 210 that performs business processing, and a pair of service processors 220 and 230 that control the hardware 210.
  • the pair of service processors 220 and 230 form a redundant system, and when one service processor 220 is in an operating state, the other service processor is in a standby state.
  • Each of the service processors 220 and 230 includes an arithmetic processing unit (CPU: Central Processing Unit) 240, a memory 250, and a nonvolatile memory (Flash Memory) 260.
  • Each of the service processors 220 and 230 executes functions such as access control of the hardware 210, monitoring of the hardware 210, power-on of the hardware 210, log collection, user interface control (user I / F), and the like. .
  • the service processor 220 performs access control of the hardware 210 via the control lines 212 and 214. Further, the service processor 230 performs access control of the hardware 210 via the control lines 216 and 218.
  • This access control uses, for example, a JTAG (Joint Test Action Group) standard signal interface or an I2C (Inter-Integrated Circuit) standard signal interface.
  • JTAG Joint Test Action Group
  • I2C Inter-Integrated Circuit
  • User interface control performs CLI (Command Line Interface), BUI (Browser User Interface), and the like with the user terminal device.
  • CLI Common Line Interface
  • BUI Bit User Interface
  • one service processor 220, 230 has all functions and enables many operations by itself.
  • the hardware of the service processors 220 and 230 requires a high-performance CPU, a large-capacity memory, and a nonvolatile memory.
  • software for realizing functions also increases in size and becomes complicated as functions become higher. For this reason, the service processor is required to be equipped with complicated and expensive hardware.
  • An object of the present invention is to provide a computer management apparatus, a computer management system, and a computer system that improve the reliability of functions at low cost.
  • the disclosed computer management apparatus is a computer management apparatus that manages a plurality of electronic computer systems, and is provided in each of the electronic computer systems and has a function of accessing the hardware of the electronic computer And a network communication circuit unit connected via a network to a plurality of first management units having a network communication function, and a virtual machine, and for each of the first management units via the network communication circuit unit And a second management unit that instructs hardware and monitors and controls hardware of the electronic computer as a service processor.
  • the disclosed computer management system is a computer management system for managing a plurality of electronic computer systems, and is provided in each of the electronic computer systems and accesses the hardware of the electronic computer.
  • a plurality of first management units having a function to perform network communication and a network communication function; a network communication circuit unit connected to the plurality of first management units via a network; and
  • a computer management device configured by a virtual computer having a second management unit that instructs the hardware to each of them and monitors and controls the hardware of the electronic computer as a service processor;
  • the disclosed computer system includes a plurality of electronic computer systems, a plurality of first management units that are provided in each of the electronic computer systems and have a function of accessing hardware of the electronic computer and a network communication function, A network communication circuit unit connected to a plurality of first management units via a network, and the hardware instruction to each of the first management units via the network communication circuit unit, as the service processor A virtual computer having a second management unit that monitors and controls hardware of the electronic computer.
  • the service processor is separated into a first management device that performs primitive processing such as hardware access, and a computer management device that performs complex processing such as hardware monitoring. Since a virtual machine that performs hardware control of hardware is implemented, a plurality of service processors can be realized with a small number of hardware. For this reason, the cost of the CPU, memory, storage, etc. required for the service processor can be reduced.
  • the first management apparatus is provided in each system, it is possible to prevent a delay in the exchange of control signals with hardware, and to prevent a decrease in the processing speed of the service processor.
  • the computer management apparatus is composed of virtual machines, it is not necessary to be aware of the hardware of the computer management apparatus, and service processor software on the same architecture can be used over a long period of time.
  • FIG. 8 is a hardware control processing flowchart of FIGS. 1 to 7. It is a block diagram of 2nd Embodiment of a computer system. It is a block diagram of 3rd Embodiment of a computer system. It is a block diagram of 4th Embodiment of a computer system. It is a block diagram of 5th Embodiment of a computer system. It is a block diagram of the conventional computer management apparatus.
  • FIG. 1 is a block diagram of a computer system according to an embodiment.
  • FIG. 2 is a block diagram of the hardware of FIG.
  • the computer system of FIG. 1 shows an example in which one computer management apparatus 7 manages three computer systems 6A, 6B, and 6C.
  • the computer system includes a plurality of computer systems 6A, 6B, 6C and a computer management apparatus (denoted as an external server in the figure) 7.
  • Each of the computer systems 6A, 6B, and 6C includes hardware 1A, 1B, and 1C, which will be described later with reference to FIG. 2, and a first management device (in the figure, indicated as Primitive Access SP) 8A, 8B, and 8C.
  • the first management devices 8A, 8B, and 8C are connected to the hardware 1A, 1B, and 1C through an I2C (Inter Integrated Circuit) signal line 9C and a JTAG (Joint Test Action Group) signal line 9B.
  • I2C Inter Integrated Circuit
  • JTAG Joint Test Action Group
  • the first management devices 8A, 8B, and 8C are connected to the computer management device 7 via a network 9A using TCP (Transmission Control Protocol) / IP (Internet Protocol).
  • the first management devices 8A, 8B, 8C process primitive Primitive row commands that are I2C and JTAG control signals via hardware 1A, 1B, 1C and signal lines 9B, 9C, and Network processing with the computer management apparatus 7 is performed.
  • the computer management apparatus 7 performs network communication with the first management apparatuses 8A, 8B, and 8C, and performs hardware 1A, 1B, and 1C monitoring processing, hardware control, log information processing, and user interface processing.
  • the service processor is separated into the first management devices 8A, 8B, and 8C that perform primitive processing such as hardware access, and the computer management device 7 that performs complex processing such as hardware monitoring.
  • the first management devices 8A, 8B, 8C and the computer management device 7 are connected via a TCP / IP network 9A and communicate with each other.
  • the first management device that performs hardware access and the computer management device 7 that performs complicated processing such as monitoring, hardware control, log information processing, and user interface are configured by different hardware.
  • the computer management device 7 is composed of virtual computers. That is, the computer management apparatus 7 includes a virtual switch hub 73 and virtual control SPs (Virtual Control Service Processors) 70, 71, 72 that control each hardware.
  • the first virtual control SP 70 performs hardware control of the first hardware 1A
  • the second virtual control SP 71 performs hardware control of the second hardware 1B
  • the third virtual control SP 72 Performs hardware control of the third hardware 1C.
  • the hardware 1A includes CPU / memory boards 2A and 2B, a crossbar switch 3, I / O boards 4A to 4N, a power supply circuit 5A, and a cooling fan unit 5B.
  • the CPU / memory boards (hereinafter referred to as system boards) 2A, 2B include a plurality of arithmetic processing units (CPUs) 22A, 22B, 22C, 22D, a system controller 24, a memory access controller 26, and a host memory 28. Have.
  • CPUs arithmetic processing units
  • the number of CPUs mounted on the system boards 2A and 2B may be singular or may be other plural.
  • the CPUs 22A to 22D are connected to the system controller 24.
  • the system controller 24 is connected to a memory access controller 26 connected to the host memory 28.
  • the system controller 24 is connected to a plurality of I / O (Input / Output) boards 4A to 4N via the crossbar switch 3.
  • the I / O boards 4A to 4N each include an I / O controller 40 and a plurality of PCI (Peripheral Component Interconnect) Express slots 42.
  • An external memory large capacity memory and / or storage device
  • a network interface card NIC
  • the system controller 24 performs transfer control between the CPUs 22A to 22D and the memory access controller 26 and between the crossbar switch 3 and the CPUs 22A to 22D and the memory access controller 26.
  • Crossbar switch 3 is system boards 2A and 2B.
  • the system boards 2A and 2B and the I / O boards 4A to 4N are directly connected on a one-to-one basis.
  • This crossbar switch 3 can speed up data transfer between the system boards 2A and 2B and between the system boards 2A and 2B and the I / O boards 4A to 4N.
  • the information processing system is equipped with two system boards, but it is desirable that several tens of system boards are installed.
  • the hardware 1B and 1C have the same configuration.
  • the first management devices 8A, 8B, and 8C are provided in the hardware 1A, 1B, and 1C, respectively.
  • the computer management apparatus 7 is connected to each of the first management apparatuses 8A, 8B, and 8C via the network 9A.
  • the network 9A for example, a LAN (Local Area Network) is preferably used.
  • the terminal device connects to the computer management device 7, instructs the computer management device 7 on the hardware control sequence, and acquires the state by user operation.
  • the terminal device is constituted by a personal computer.
  • the service processor is separated into the first management devices 8A, 8B, and 8C that perform primitive processing such as hardware access, and the computer management device 7 that performs complex processing such as hardware monitoring.
  • the computer management device 7 that performs complex processing such as hardware monitoring.
  • a virtual machine that performs hardware control of a plurality of hardware is mounted in the computer management apparatus 7, a plurality of service processors can be realized with a small number of hardware. For this reason, the cost of the CPU, memory, storage, etc. required for the service processor can be reduced.
  • the first management device since the first management device is provided in each system, it is possible to prevent a delay in the exchange of control signals with hardware, and to prevent a decrease in processing speed of the service processor. Furthermore, since the computer management apparatus is composed of virtual machines, it is not necessary to be aware of the hardware of the computer management apparatus, and service processor software on the same architecture can be used over a long period of time.
  • FIG. 3 is a block diagram of the computer management system of FIG.
  • FIG. 4 is a block diagram of the computer management apparatus of FIG. 3 and 4, the same components as those shown in FIG. 1 are denoted by the same symbols.
  • FIG. 3 for simplicity of explanation, one hardware 1 ⁇ / b> A and one first management device 8 ⁇ / b> A will be described as an example.
  • the first management device 8A includes a CPU 16, a memory 18A, and a non-volatile memory (Flash Memory) 18B.
  • the computer management apparatus 7 includes a CPU 16, a memory 18A, and a non-volatile memory (Flash Memory) 18B.
  • the first management device 8A can be configured with relatively small hardware for simple processing. For example, in the first management apparatus 8A, a 120 MHz CPU 16, a 32 MB memory 18A, and a 16 MB nonvolatile memory 18B can be used. Further, the computer management device 7 requires relatively large hardware due to complicated processing. In the computer management apparatus 7, for example, a CPU 533 MHz, a 512 MB memory 12A, and a 512 MB nonvolatile memory 12B can be used.
  • the computer management apparatus 7 is composed of virtual computers. Between the first service processor program 70, the second service processor program 71, the third service processor program 72, and the physical memory 12 (12A, 12B) and the physical CPU 10 described in FIG. , Virtual SP board) layer (program) 14 is provided.
  • the VM 14 is a program that virtualizes hardware. That is, the service processor program is constructed on a virtual machine (VM) in which the hardware of the computer management apparatus 7 is virtualized. For this reason, the first, second, and third service processor programs 70 to 72 control the physical memory 12 (12A, 12B) and the hardware such as the physical CPU 10 via the VM 14. Therefore, in the virtual machine, a plurality of service processor programs can be operated independently on one hardware.
  • VM virtual machine
  • FIG. 5 is a functional block diagram of the computer management system of FIG.
  • FIG. 6 is a diagram for explaining the operation of the computer management apparatus of FIG.
  • FIG. 7 is an explanatory diagram of the priority processing of the computer management apparatus of FIG.
  • the first management apparatus 8A has a hardware (H / W) access function 60 and a network (NW) access function 62, and performs only primitive processing such as hardware access. .
  • the service processor programs 70 to 72 of the computer management apparatus 7 have a network (NW) access function 50, a hardware control function 51, a hardware monitoring function 52, and a user interface function 53. That is, the service processor programs 70 to 72 perform complicated processing such as monitoring of the hardware 1A.
  • NW network
  • the first management device 8A and the computer management device 7 are connected by a TCP / IP network 9A.
  • the first management device 8A and the computer management device 7 communicate with each other via the network 9A by the two network functions 62 and 50.
  • the hardware access function 60 of the first management apparatus 8A is a simple read / write interface function.
  • This interface function includes a JTAG or I2C bus type (bus_type), a read / write access type (access_type), a device address (target_address), and a read / write buffer (buffer). specify.
  • the network function 62 has a TCP / IP setting function.
  • the hardware cost of the service processor can be reduced.
  • an interrupt input is processed at the privilege level of the interrupt handler.
  • the computer management device 7 is at the TCP / IP communication level, and the priority is lowered to the same level as the external communication. End up.
  • the computer management device 7 has a heavy access load from the outside, the performance is degraded if the computer management device 7 has a delay in interrupt processing from the first management device 8A.
  • the service processor processors 70 to 72 have two ports (Ethernet (registered trademark) port) 73A for each of the first management device 7A and the user interface 73A, It has 73B.
  • the physical computer management apparatus 7 physically has two Ethernet (registered trademark) ports, and the computer management apparatus 7 constructed by a virtual machine prepares two virtual Ethernet (registered trademark) ports.
  • the service processor programs 70 to 72 have an interrupt request queue (IRQ: Interrupt Request Que) assigned to the first port 73A (eth0) having a higher priority than the IRQ assigned to the second port 73B (eth1). To handle. For this reason, even when interrupts frequently occur from the user interface to the second port 73B (eth1), the interrupt handler of the first port 73A (eth0) can be reliably moved. Thereby, even when the load from the external network (eth1) increases, the service processor programs 70 to 72 can preferentially process the request processing from the first management apparatus 8A.
  • IRQ Interrupt Request Que
  • the service processor programs 70 to 72 perform the first management.
  • the interrupt notification from the device 8A can be processed with high priority. That is, communication processing with the first management apparatus 8A is set to high priority.
  • the computer management device 7 since the computer management device 7 is outside the system, the hardware and software on the system side can be reduced in size and simplified. For this reason, the probability of occurrence of a hardware failure in the computer management apparatus 7 can be greatly reduced. Furthermore, since the first management device 8A and the computer management device 7 are connected by TCP / IP, both configurations can be easily exchanged.
  • FIG. 8 is a hardware control processing flow diagram of the computer management apparatus 7 of the present embodiment.
  • FIG. 8 shows an example in which the hardware monitoring function 52 of the service processor program 70 of the computer management device 7 (in FIG. 8, referred to as Control SP, hereinafter referred to as Control SP) controls the cooling fan 5B of the hardware 1A. .
  • Control SP the hardware monitoring function 52 of the service processor program 70 of the computer management device 7
  • Control SP controls the cooling fan 5B of the hardware 1A.
  • Control SP70 waits for a timer and determines whether or not a timeout has been notified.
  • the Control SP 70 instructs the first management device (referred to as Primitive SP in FIG. 8 and hereinafter referred to as Primitive SP) 8A to read the temperature sensor via the network 9A.
  • Primitive SP the first management device
  • the Primitive SP8A reads the measured value of the instructed temperature sensor in the hardware 1A and transfers it to the Control SP70 via the network 9A.
  • the temperature sensor detects the temperature of the hardware shown in FIG. 2, and is provided in the hardware 1A shown in FIG.
  • the Control SP 70 confirms whether or not the measured value received via the network 9A is within the threshold range. If the received measurement value is within the threshold range, the control SP 70 returns to step S10.
  • Control SP 70 transmits a hardware control instruction to Primitive SP 8A via network 9A, and Primitive SP 8A controls the hardware according to the instruction.
  • FIG. 9 is a block diagram of the second embodiment of the computer system. 9, the same components as those shown in FIGS. 1 and 2 are indicated by the same symbols.
  • the computer management apparatus 7 has the same configuration as that described in FIG.
  • the computer management device 7 is configured by an external server and is used in an active state.
  • a computer management device 7-1 for standby system is provided.
  • the standby computer management device 7-1 is connected to the first management device (referred to as Primitive Access SP in the figure) 8A, 8B, 8C provided in each system 6A, 6B, 6C via the network 9A.
  • the standby computer management apparatus 7-1 is composed of virtual computers. That is, the standby computer management apparatus 7-1 includes a first service processor program 70, a second service processor program 71, a third service processor program 72, a physical memory (not shown), and a physical CPU 10. -1. 4, in the standby computer management apparatus 7-1, the VM (virtual machine, virtual SP board) layer (program) 14 includes each program 70, 71, 72 and physical memory (not shown). 2) and the physical CPU 10-1.
  • This configuration shows a redundant configuration of the computer management device.
  • standby side service processors are prepared physically one-to-one with respect to operation side service processors.
  • the standby service processor is usually hardly running and hardware resources are hardly used.
  • a plurality of hardware rarely require a standby service processor at the same time. Therefore, the standby computer management apparatus 7-1 has a configuration in which a plurality of standby service processors are aggregated on a virtual machine (VM) prepared on a small hardware resource.
  • VM virtual machine
  • the computer management apparatus 7 on the operation side needs to operate the service processor programs 70, 71, 72 of the three active systems, and therefore requires the CPU 10 having a capacity of about 533 MHz ⁇ 3.
  • the standby computer management apparatus 7-1 may be a CPU 10-1 having a capacity of about 533 MHz ⁇ 1 because it is sufficient to operate one service processor program in an emergency.
  • the standby computer management apparatus 7-1 can also reduce the memory.
  • the 533 MHz CPU 10-1 executes the three service processor programs 70, 71, and 72. Normally, all three service processor programs are in an idle state. There is no performance problem. Further, since a plurality of hardware units do not enter an emergency state at the same time, the standby computer management device 7-1 has the ability to execute one service processor program even in an emergency, so that there is no problem in performance. Further, the standby computer management device 7-1 can reduce the hardware resources for two computer management devices.
  • FIG. 10 is a block diagram of the third embodiment of the computer system. 10, the same components as those shown in FIGS. 1, 2, and 9 are indicated by the same symbols.
  • the first system 6A includes hardware 1A, a first management device 8A, and a computer management device 7-2.
  • the hardware 1A is connected to the first management apparatus 8A via the control lines 9B and 9C.
  • the first management device 8A is connected to the computer management device 7-2 via the network 9A.
  • the computer management apparatus 7-2 is composed of an external server and is used in an active state.
  • the computer management apparatus 7-2 is not composed of a virtual machine, and monitors and controls the hardware 1A.
  • the second system 6B includes hardware 1B, a first management device 8B, and a computer management device 7-3.
  • the hardware 1B is connected to the first management device 8B via the control lines 9B and 9C.
  • the first management device 8B is connected to the computer management device 7-3 via the network 9A.
  • the computer management apparatus 7-3 is composed of an external server and is used in an active state.
  • the computer management apparatus 7-3 is not composed of a virtual machine, and monitors and controls the hardware 1A.
  • a computer management device 7-1 for standby system is provided.
  • the standby computer management device 7-1 is connected to first management devices (indicated as Primitive Access SP in the figure) 8A and 8B provided in the systems 6A and 6B via the network 9A.
  • the standby computer management apparatus 7-1 is composed of virtual computers. That is, the standby computer management apparatus 7-1 includes a first service processor program 70, a second service processor program 71, a physical memory (not shown), and a physical CPU (not shown).
  • the VM (virtual machine, virtual SP board) layer (program) 14 includes programs 70 and 71 and physical memory (not shown). And a physical CPU.
  • the interface (TCP / IP) between the first management devices 8A and 8B and the computer management devices 7-1 and 7-2 is independent of hardware, as shown in FIG.
  • the management devices 7-2 and 7-3 are mounted in the system casing as in the conventional case, and the redundant standby computer management apparatus 7-1 is connected to the network outside the casing. This form is referred to as a hybrid configuration.
  • the standby computer management device 7-1 can be shared by a plurality of systems, and the cost can be reduced.
  • the Low END model with a small number of CPUs has a problem that the service processor cannot be made redundant due to a cost problem.
  • the cost of the standby computer management device 7-1 can be reduced, and the cost can be reduced to a level that is not a problem.
  • the standby computer management device 7-1 is rarely required, so there are almost no problems in actual operation.
  • FIG. 11 is a block diagram of the fourth embodiment of the computer system. 11, the same components as those shown in FIGS. 1, 2, and 9 are indicated by the same symbols.
  • the computer management apparatus 7 has the same configuration as that described in FIG. In FIG. 11, the computer management apparatus 7 is composed of an external server, and is used for an active state.
  • the first system 6A connects the hardware 1A and the first management device 8A via control lines 9B and 9C.
  • the hardware 1A is composed of a large-scale computer system. This is called a high-end system.
  • the first management apparatus 8A is connected to the computer management apparatus 7 via the network 9A.
  • the computer management apparatus 7 is composed of an external server and is used in an active state.
  • the computer management apparatus 7 is composed of a virtual machine, and executes a service processor program SP1 for high-end control to monitor and control the hardware 1A.
  • the second and third systems 6B and 6C connect the hardware 1B and 1C to the first management devices 8B and 8C via control lines 9B and 9C.
  • the hardware 1B and 1C are configured by a medium-scale computer system. This is called a mid-range system.
  • the first management devices 8B and 8C are connected to the computer management device 7 via the network 9A.
  • the computer management device 7 executes service processor programs SP2 and SP3 for mid-range control, and monitors and controls the hardware 1B and 1C.
  • the fourth system 6D connects the hardware 1D and the first management device 8D via control lines 9B and 9C.
  • the hardware 1D is composed of a small computer system. This is called a low-end system.
  • the first management device 8D is connected to the computer management device 7 via the network 9A.
  • the computer management apparatus 7 executes the service processor program SP4 for low-end control, and monitors and controls the hardware 1D.
  • the standby computer management device 7-1 is a first management device (indicated as Primitive Access SP in the figure) 8A, 8B, 8C, 8D provided in each system 6A, 6B, 6C, 6D via the network 9A. Connect with.
  • the standby computer management apparatus 7-1 is composed of virtual computers. That is, the standby computer management apparatus 7-1 has service processor programs SP1 to SP4, a physical memory (not shown), and a physical CPU.
  • the VM (virtual machine, virtual SP board) layer (program) 14 includes the programs SP1 to SP4 and physical memory (not shown). And a physical CPU.
  • the standby computer management device 7- 1 can be integrated into one external server.
  • FIG. 12 is a block diagram of the fifth embodiment of the computer system.
  • the same components as those shown in FIGS. 1, 2, and 9 are indicated by the same symbols.
  • the remote center 100 connects to N (N> 1 and integer) systems 6A to 6N via a network.
  • the first system 6A includes hardware 1A, a first management device 8A, and a computer management device 7A.
  • the hardware 1A is connected to the first management apparatus 8A via the control lines 9B and 9C.
  • the first management device 8A is connected to the computer management device 7A via the network 9A.
  • the computer management apparatus 7A is used for an active state.
  • the computer management apparatus 7A is not composed of a virtual machine, and monitors and controls the hardware 1A.
  • the Nth system 6N includes hardware 1N, a first management device 8N, and a computer management device 7N.
  • the hardware 1N is connected to the first management device 8N via the control lines 9B and 9C.
  • the first management device 8N is connected to the computer management device 7N via the network 9A.
  • the computer management apparatus 7N is used for an active state.
  • the computer management apparatus 7N is not composed of a virtual machine, and monitors and controls the hardware 1N.
  • the remote center 100 is provided with a computer management device function for a standby system (Standby).
  • the remote center 100 is connected to first management devices (referred to as Primitive Access SP in the figure) 8A and 8N provided in the systems 6A and 6N via the network 9A.
  • the remote center 100 is composed of virtual machines. That is, the remote center 100 includes service processor programs 7A-1 to 7A-N, a physical memory (not shown), and a physical CPU (not shown).
  • the VM (virtual machine, virtual SP board) layer (program) 14 is placed between each program 7A-1 to 7A-N, physical memory, and physical CPU. Provided.
  • the interface (TCP / IP) between the first management device 8A, 8B and the computer management device 7A, 7N is independent of hardware, as shown in FIG. 12, the active computer management device 7A, 7N is mounted in the system casing as in the conventional case.
  • the redundant standby computer management function is installed in the remote center 100 and connected to the system via a network. This form is a modification of the hybrid type configuration.
  • the standby computer management function can be consolidated in the remote center 100, and the cost can be further reduced. Further, as described above, since it is rarely necessary to use a standby computer management device, there are almost no problems in actual operation. As more standby computer management devices are consolidated, the cost advantage increases, and a service that ensures reliability at low cost can be provided.
  • the standby computer management apparatus 7-1 is shared by two systems, but the standby computer management apparatus 7-1 may be shared by three or more systems.
  • the hardware configuration is not limited to the configuration shown in FIG. 2 and can be applied to hardware including other CPUs and memories.
  • the service processor is separated into a first management device that performs primitive processing such as hardware access, and a computer management device that performs complex processing such as hardware monitoring. Since a virtual machine that performs hardware control of hardware is implemented, a plurality of service processors can be realized with a small number of hardware. For this reason, the cost of the CPU, memory, storage, etc. required for the service processor can be reduced.
  • the first management apparatus is provided in each system, it is possible to prevent a delay in the exchange of control signals with hardware, and to prevent a decrease in the processing speed of the service processor.
  • the computer management apparatus is composed of virtual machines, it is not necessary to be aware of the hardware of the computer management apparatus, and service processor software on the same architecture can be used over a long period of time.

Abstract

サービスプロセッサを、ハードウェアのアクセス等の原始的な処理を行う第1の管理装置(8A)と、ハードウェアの監視等の複雑な処理を行う計算機管理装置(7)とに分離し、且つ計算機管理装置(7)に、複数のハードウェアのハードウェア制御を行う仮想計算機を実装した。複数のサービスプロセッサを少数のハードウェアで実現でき、サービスプロセッサに要するCPUやメモリ、ストレージ等のコストを削減することができる。又、第1の管理装置は、各システムに設けるため、ハードウェアとの制御信号のやり取りの遅延を防止でき、サービスプロセッサの処理速度の低下を防止できる。更に、計算機管理装置を仮想計算機で構成したので、計算機管理装置のハードウェアを意識しなくてよくなり、長期間にわたって同じアーキテクチャ上のサービスプロセッサのソフトウェアを使用できる。

Description

計算機管理装置、計算機管理システム及び計算機システム
 本発明は、計算機管理装置、計算機管理システム及び計算機システムに関する。
 計算機システムでは、ハードウェアである単数又は複数の計算機とは別に、計算機を監視、制御する計算機管理装置(以下、サービスプロセッサという)を設けている。図13は従来の計算機システムのブロック図である。図13に示すように、計算機システム200は、業務処理を行うハードウェア210と、ハードウェア210を制御する一対のサービスプロセッサ(Service Processor)220、230とを有する。
 一対のサービスプロセッサ220、230は冗長系を構成し、一方のサービスプロセッサ220が運用状態である時に、他方のサービスプロセッサは待機状態にある。各サービスプロセッサ220、230は、演算処理ユニット(CPU:Central Procesing Unit)240とメモリ250と不揮発性メモリ(Flash Memory)260とを有する。
 そして、サービスプロセッサ220、230の各々は、ハードウェア210のアクセス制御、ハードウェア210の監視、ハードウェア210の電源投入、ログの採取、ユーザインターフェース制御(ユーザI/F)等の機能を実行する。
 サービスプロセッサ220は、制御線212、214を介しハードウェア210のアクセス制御を行う。又、サービスプロセッサ230は、制御線216、218を介しハードウェア210のアクセス制御を行う。このアクセス制御は、例えば、JTAG(Joint Test Action Group)規格の信号インターフェースやI2C(Inter-Integrated Circuit)規格の信号インターフェースを利用する。
 ユーザインターフェース制御は、ユーザーの端末装置との間で、CLI(Command Line Interface)やBUI(Browser User Interface)などの制御をおこなう。このように、種々の機能を実現するため、従来は、1つのサービスプロセッサ220、230が、すべての機能を持ち、単体で多くの操作を可能にしている。
日本特許公開2009-239374号公報 日本特許公開2004-086522号公報 日本特許公開2004-318878号公報
 サービスプロセッサ220、230の高機能化に伴い、サービスプロセッサ220、230のハードウェアは高性能なCPU、大容量のメモリ、不揮発性メモリを要する。又、機能実現のためのソフトウェアも、高機能化に伴いサイズの大きいものになり、複雑になる。このため、サービスプロセッサは、複雑で高価なハードウェアを搭載することが要求される。又、サービスプロセッサの信頼性を確保するためには、サービスプロセッサを二重化することも必要となる。
 このように、サービスプロセッサの高機能化に伴い、サービスプロセッサのハードウェアの物量が大きくなり、コストが増大するともに、ハードウェアの故障率が上がる。また、待機系のサービスプロセッサは、実際には、ほとんど動作しないにも拘わらず、運用系のサービスプロセッサと同じハードウェアを用意しなければならなかった。そのため、サービスプロセッサの二重化は、サービスプロセッサのコストを二倍にすることとなる。
 サービスプロセッサを二重化すれば、コストが上がるが、大規模な計算機で構成されるハイエンド機では、信頼性重視のためサービスプロセッサを多重化して、信頼性を確保している。一方、中規模な計算機で構成されるミッドレンジ機や、小規模な計算機で構成されるローエンド機では、コスト重視のためサービスプロセッサの二重化をあきらめ、信頼性を低く抑えている。サービスプロセッサを2重化しない場合には、サービスプロセッサの障害時にサービスプロセッサの交換による業務停止影響が問題となる。
 本発明の目的は、安価に機能の信頼性を向上する計算機管理装置、計算機管理システム及び計算機システムを提供することにある。
 この目的の達成のため、開示の計算機管理装置は、複数の電子計算機システムの管理を行う計算機管理装置であって、前記電子計算機システムの各々に設けられ、前記電子計算機のハードウェアにアクセスする機能及びネットワーク通信機能を有する複数の第1管理部とネットワークを介して接続するネットワーク通信回路部と、仮想計算機で構成され、前記ネットワーク通信回路部を介し、前記第1管理部の各々に対して前記ハードウェアの指示を行い、サービスプロセッサとして前記電子計算機のハードウェアの監視及び制御を行う第2管理部とを有する。
 又、この目的の達成のため、開示の計算機管理システムは、複数の電子計算機システムの管理を行う計算機管理システムであって、前記電子計算機システムの各々に設けられ、前記電子計算機のハードウェアにアクセスする機能及びネットワーク通信機能を有する複数の第1管理部と、前記複数第1の管理部とネットワークを介して接続するネットワーク通信回路部と、前記ネットワーク通信回路部を介し、前記第1管理部の各々に対して前記ハードウェアの指示を行い、サービスプロセッサとして前記電子計算機のハードウェアの監視及び制御を行う第2管理部とを有する仮想計算機で構成された計算機管理装置とを有する。
 更に、開示の計算機システムは、複数の電子計算機システムと、前記電子計算機システムの各々に設けられ、前記電子計算機のハードウェアにアクセスする機能及びネットワーク通信機能を有する複数の第1管理部と、前記複数の第1の管理部とネットワークを介して接続するネットワーク通信回路部と、前記ネットワーク通信回路部を介し、前記第1管理部の各々に対して前記ハードウェアの指示を行い、サービスプロセッサとして前記電子計算機のハードウェアの監視及び制御を行う第2管理部とを有する仮想計算機とを有する。
 サービスプロセッサを、ハードウェアのアクセス等の原始的な処理を行う第1の管理装置と、ハードウェアの監視等の複雑な処理を行う計算機管理装置とに分離し、且つ計算機管理装置に、複数のハードウェアのハードウェア制御を行う仮想計算機を実装したので、複数のサービスプロセッサを少数のハードウェアで実現できる。このため、サービスプロセッサに要するCPUやメモリ、ストレージ等のコストを削減することができる。又、第1の管理装置は、各システムに設けるため、ハードウェアとの制御信号のやり取りの遅延を防止でき、サービスプロセッサの処理速度の低下を防止できる。更に、計算機管理装置を仮想計算機で構成したので、計算機管理装置のハードウェアを意識しなくてよくなり、長期間にわたって同じアーキテクチャ上のサービスプロセッサのソフトウェアを使用できる。
実施の形態の計算機システムのブロック図である。 図1のハードウェアのブロック図である。 図1の計算機管理システムのブロック図である。 図3の計算機管理装置の仮想計算機のブロック図である。 図3の計算機管理システムの機能ブロック図である。 図5の第1の管理装置の動作説明図である。 図5の計算機管理装置の動作説明図である。 図1乃至図7のハードウェア制御処理フロー図である。 計算機システムの第2の実施の形態のブロック図である。 計算機システムの第3の実施の形態のブロック図である。 計算機システムの第4の実施の形態のブロック図である。 計算機システムの第5の実施の形態のブロック図である。 従来の計算機管理装置のブロック図である。
 以下、実施の形態の例を、計算機システムの第1の実施の形態、計算機管理システムの第1の実施の形態、計算機管理装置、計算機システムの第2の実施の形態、計算機システムの第3の実施の形態、計算機システムの第4の実施の形態、計算機システムの第5の実施の形態、他の実施の形態の順で説明するが、開示の計算機システム、計算機管理システム、計算機管理装置は、この実施の形態に限られない。
 (計算機システムの第1の実施の形態)
 図1は、実施の形態の計算機システムのブロック図である。図2は、図1のハードウェアのブロック図である。図1の計算機システムは、1台の計算機管理装置7が、3つの計算機システム6A、6B、6Cを管理する例を示す。図1に示すように、計算機システムは、複数の計算機システム6A、6B、6Cと計算機管理装置(図では、外部サーバと記す)7とを有する。
 計算機システム6A、6B、6Cの各々は、図2で後述するハードウェア1A、1B、1Cと第1の管理装置(図では、Primitive Access SPと記す)8A、8B、8Cとを有する。第1の管理装置8A、8B、8Cは、I2C(Inter Integraed Circuit)信号線9CとJTAG(Joint Test Action Group)信号線9Bとでハードウェア1A、1B、1Cに接続する。
 又、第1の管理装置8A、8B、8Cは、TCP(Transmission Control Protocol)/IP(Internet Protocol)を用いたネットワーク9Aにより計算機管理装置7に接続する。第1の管理装置8A、8B、8Cは、ハードウェア1A、1B、1Cと信号線9B、9Cを介しI2C及びJTAGの制御信号である原始的Primitiveなrow(生)のコマンドを処理し、且つ計算機管理装置7とのネットワーク処理とを行う。
 一方、計算機管理装置7は、第1の管理装置8A、8B、8Cとネットワーク通信し、ハードウェア1A、1B、1Cの監視処理、ハードウェア制御、ログ情報の処理、ユーザインターフェース処理を行う。
 即ち、サービスプロセッサを、ハードウェアのアクセス等の原始的な処理を行う第1の管理装置8A、8B、8Cと、ハードウェアの監視等の複雑な処理を行う計算機管理装置7とに分離する。第1の管理装置8A、8B、8Cと計算機管理装置7とは、TCP/IPのネットワーク9Aで接続し、互いに通信する。ハードウェアのアクセスを行う第1の管理装置と、監視やハードウェア制御、ログ情報の処理、ユーザインターフェース等の複雑な処理を行う計算機管理装置7とは、それぞれ異なるハードウェアで構成される。
 更に、計算機管理装置7は、仮想計算機で構成される。即ち、計算機管理装置7は、仮想スイッチハブ73と、各ハードウェアの制御を行う仮想制御SP(Virtual Control Service Processor)70、71、72とを有する。第1の仮想制御SP70は、第1のハードウェア1Aのハードウェア制御を行い、第2の仮想制御SP71は、第2のハードウェア1Bのハードウェア制御を行い、第3の仮想制御SP72は、第3のハードウェア1Cのハードウェア制御を行う。
 図2により図1のハードウェアを説明する。図2において、図1で示したものと同一のものは同一の記号で示してある。図2に示すように、ハードウェア1AはCPU/メモリボード2A、2B、クロスバースイッチ3、I/Oボード4A~4N、電源回路5A、冷却ファンユニット5Bとを有する。CPU/メモリボード(以下、システムボードという)2A、2Bは、複数の演算処理装置(CPU:Central Processing Unit)22A、22B、22C、22Dとシステムコントローラ24とメモリアクセスコントローラ26とホストメモリ28とを有する。この例では、4つの演算処理装置(以下、CPUという)がシステムボード2A、2Bに設けられている。システムボード2A、2BにおけるCPUの搭載数は、単数であっても、他の複数であっても良い。
 各CPU22A~22Dはシステムコントローラ24に接続する。システムコントローラ24は、ホストメモリ28に接続されたメモリアクセスコントローラ26に接続する。システムコントローラ24は、クロスバースイッチ3を介し複数のI/O(Input/Output)ボード4A~4Nに接続する。
 I/Oボード4A~4Nは、I/Oコントローラ40と複数のPCI(Peripheral Component Interconnect) Expressスロット42とを有する。PCI Expressスロット42に、外部メモリ(大容量メモリ及び/又はストレージ装置)やネットワークインタフェースカード(NIC)が接続される。システムコントローラ24は、CPU22A~22Dとメモリアクセスコントローラ26との間、及びクロスバースイッチ3とCPU22A~22D、メモリアクセスコントローラ26との間の転送制御を行う。クロスバースイッチ3は、システムボード2Aと2B。及びシステムボード2A、2BとI/Oボード4A~4Nとを1対1で直接接続する。
 このクロスバースイッチ3により、システムボード2Aと2Bの間、及びシステムボード2A、2BとI/Oボード4A~4Nとの間のデータ転送を高速化できる。図2の例では、情報処理システムはシステムボードを2台搭載されているが、数十台のシステムボードを搭載されることが望ましい。
 又、ハードウェア1B、1Cも同様の構成である。図1に示したように、第1の管理装置8A、8B、8Cがこのハードウェア1A、1B、1Cの各々に設けられる。そして、計算機管理装置7が第1の管理装置8A、8B、8Cの各々にネットワーク9Aを介し接続する。ネットワーク9Aは例えばLAN(Local Area Network)を用いることが望ましい。又、図1で図示しないが、端末装置が、計算機管理装置7に接続し、ユーザーの操作により計算機管理装置7にハードウェア制御シーケンスを指示し、且つ状態を取得する。望ましくは、端末装置はパーソナルコンピュータで構成される。
 このように、サービスプロセッサを、ハードウェアのアクセス等の原始的な処理を行う第1の管理装置8A、8B、8Cと、ハードウェアの監視等の複雑な処理を行う計算機管理装置7とに分離し、且つ計算機管理装置7に、複数のハードウェアのハードウェア制御を行う仮想計算機を実装したので、複数のサービスプロセッサを少数のハードウェアで実現できる。このため、サービスプロセッサに要するCPUやメモリ、ストレージ等のコストを削減することができる。
 又、第1の管理装置は、各システムに設けるため、ハードウェアとの制御信号のやり取りの遅延を防止でき、サービスプロセッサの処理速度の低下を防止できる。更に、計算機管理装置を仮想計算機で構成したので、計算機管理装置のハードウェアを意識しなくてよくなり、長期間にわたって同じアーキテクチャ上のサービスプロセッサのソフトウェアを使用できる。
 (計算機管理システム)
 図3は図1の計算機管理システムのブロック図である。図4は図3の計算機管理装置の構成図である。図3及び図4において、図1で示したものと同一のものは、同一の記号で示してある。尚、図3では、説明の簡略化のため、1台のハードウェア1A、1台の第1の管理装置8Aを例に説明する。
 図3に示すように、第1の管理装置8AはCPU16とメモリ18Aと不揮発性メモリ(Flash Memory)18Bとを有する。又、計算機管理装置7はCPU16とメモリ18Aと不揮発性メモリ(Flash Memory)18Bとを有する。第1の管理装置8Aは、簡易な処理のため、比較的小さなハードウェアで構成できる。例えば、第1の管理装置8Aでは、120MHzのCPU16と、32MBのメモリ18Aと、16MBの不揮発性メモリ18Bとを用いることができる。又、計算機管理装置7は、複雑な処理のため、比較的大きなハードウェアを要する。計算機管理装置7では、例えば、533MHzのCPU10と、512MBのメモリ12Aと、512MBの不揮発性メモリ12Bとを用いることができる。
 図4に示すように、計算機管理装置7は、仮想計算機で構成される。第1のサービスプロセッサプログラム70、第2のサービスプロセッサプログラム71、第3のサービスプロセッサプログラム72と、図3で説明した物理メモリ12(12A、12B)と物理CPU10との間に、VM(仮想マシン、仮想SPボード)層(プログラム)14を設ける。
 VM14は、ハードウェアを仮想化するプログラムである。即ち、サービスプロセッサプログラムは、計算機管理装置7のハードウェアを仮想化した仮想マシン(VM)上に構築される。このため、第1、第2、第3のサービスプロセッサプログラム70~72が、VM14を介し物理メモリ12(12A、12B)と物理CPU10などのハードウェアを制御する。このため、仮想マシンでは、1つのハードウェアの上で、複数のサービスプロセッサプログラムを独立して動作させることが可能になる。
 このように、システム外部の計算機管理装置(サーバ)7上に仮想マシンを構築し、仮想マシン上にサービスプロセッサソフトウェアを搭載することにより、1台のハードウェアで複数台のシステムの処理を実行できる。このため、計算機管理装置のコストを低減できる。特に、メモリやディスク装置はある程度大容量になれば、容量あたりの単価が下がるために、大幅なハードウェアコストの削減が可能である。例えば512MBのフラッシュメモリを8個使用して4GBの領域を確保するよりも、4GBのフラッシュメモリを1個用意すると、コスト的なメリットを得られる。
 図5は図3の計算機管理システムの機能ブロック図である。図6は図5の計算機管理装置の動作説明図である。図7は図5の計算機管理装置の優先度処理の説明図である。図5に示すように、第1の管理装置8Aはハードウェア(H/W)アクセス機能60とネットワーク(NW)アクセス機能62とを有し、且つハードウェアアクセス等の原始的な処理のみを行う。
 計算機管理装置7のサービスプロセッサプログラム70~72は、ネットワーク(NW)アクセス機能50とハードウェア制御機能51とハードウェア監視機能52とユーザインターフェース機能53とを有する。即ちサービスプロセッサプログラム70~72は、ハードウェア1Aの監視等の複雑な処理を行う。
 第1の管理装置8Aと計算機管理装置7とは、TCP/IPのネットワーク9Aで接続される。そして、第1の管理装置8Aと計算機管理装置7は2つのネットワーク機能62、50により、ネットワーク9Aを介し通信する。
 図6に示すように、第1の管理装置8Aのハードウェアアクセス機能60は、簡単なリード/ライトのインターフェース機能である。このインターフェース機能は、JTAGであるかI2Cであるかのバス種別(bus_type)、 リードであるかライトであるかのアクセス種別(access_type)、デバイスのアドレス(target_address)、読み書き用のバッファ(buffer)を指定する。又、ネットワーク機能62は、TCP/IPの設定機能を持つ。
 このように、サービスプロセッサを分割することにより、サービスプロセッサのハードウェアのコストを削減できる。一方、サービスプロセッサを1台で構成する従来例では、割り込みで入ってきたものを、割り込みハンドラの特権レベルで処理していた。本実施の形態では、第1の管理装置8Aが、割り込みハンドラレベルで受けたとしても、計算機管理装置7ではTCP/IP通信のレベルになり、外部からの通信と同レベルの優先度に落とされてしまう。しかし、計算機管理装置7が外部からのアクセスの負荷が高くなった場合に、計算機管理装置7が第1の管理装置8Aからの割り込み処理に遅延があると、性能が低下する。
 この性能低下を防止するため、図7に示すように、サービスプロセッサプロセッサ70~72は、第1の管理装置7Aとユーザインターフェースの各々に対し、2つのポート(Ethernet(登録商標)ポート)73A、73Bを持つ。物理的な計算機管理装置7は、物理的に2つのEthernet(登録商標)ポートを持ち、仮想マシンで構築された計算機管理装置7は仮想的な2つのEthernet(登録商標)ポートを用意する。
 そして、サービスプロセッサプログラム70~72は、第1のポート73A(eth0)に割り当てる割り込み要求キュー(IRQ:Interrupt Request Que)を、第2のポート73B(eth1)に割り当てるIRQよりも優先度の高い物に取り扱う。このため、ユーザインターフェースから第2のポート73B(eth1)に割り込みが多発した場合でも、第1のポート73A(eth0)の割り込みハンドラが確実に動ける状態にできる。これにより、外部ネットワーク(eth1)からの負荷が高くなった場合でも、サービスプロセッサプログラム70~72は、第1の管理装置8Aからの要求処理を優先的に処理できる。
 このように、第1の管理装置8Aがハードウェア1Aから上がってきた割り込みを、計算機管理装置7にTCP/IP通信で伝達するのみであっても、サービスプロセッサプログラム70~72が第1の管理装置8Aからの割り込み通知を高優先度で処理できる。即ち、第1の管理装置8Aとの間の通信処理を高優先度に設定する。
 又、計算機管理装置7がシステムの外にあるため、システム側のハードウェアおよびソフトウェアが小規模化し、簡素化できる。このため、計算機管理装置7のハードウェアの障害の発生確率を大幅に軽減できる。更に、第1の管理装置8Aと計算機管理装置7の間をTCP/IPで接続するため、容易にどちらの構成も交換可能である。
 図8は本実施の形態の計算機管理装置7のハードウェア制御処理フロー図である。図8は計算機管理装置7のサービスプロセッサプログラム(図8では、Control SPと記し、以下、Control SPと称す)70のハードウェア監視機能52がハードウェア1Aの冷却ファン5Bの制御を行う例を示す。
 (S10)計算機管理装置7のControl SP70は、タイマを起動する。
 (S12)Control SP70はタイマ待ちとなり、タイムアウトを通知されたか否かを判定する。
 (S14)Control SP70は第1の管理装置(図8では、Primitive SPと記し、以下、Primitive SPと称す)8Aに対し、ネットワーク9Aを介し温度センサの読み込みを指示する。
 (S16)Primitive SP8Aはハードウェア1A内の指示された温度センサの計測値を読み込み、ネットワーク9Aを介しControl SP70に転送する。尚、温度センサは図2のハードウェアの温度を検出するものであり、図2のハードウェア1A内に設けられる。
 (S18)Control SP70はネットワーク9Aを介し受け取った計測値が閾値の範囲内であるか否かを確認する。Control SP70は受け取った計測値が閾値の範囲内である場合には、ステップS10に戻る。
 (S20)Control SP70は受け取った計測値が閾値の範囲内でない場合には、Control SP70はネットワーク9Aを介しPrimitive SP8Aに対し、ファン速度の変更を指示する。
 (S22)Primitive SP8Aは指示された冷却ファン5Bの速度を変更する。
 このようにして、Control SP70はネットワーク9Aを介しPrimitive SP8Aにハードウェア制御指示を送信し、Primitive SP8Aは指示に従い、ハードウェアを制御する。
 (計算機システムの第2の実施の形態)
 図9は、計算機システムの第2の実施の形態のブロック図である。図9において、図1、図2で示したものと同一のものは、同一の記号で示してある。図9に示すように、計算機管理装置7は、図1で説明した構成と同一のものである。計算機管理装置7は、図9では、外部サーバで構成され、運用(Active)状態に使用される。
 更に、待機系(Stanby)用の計算機管理装置7-1を設ける。待機系の計算機管理装置7-1は、ネットワーク9Aを介し各システム6A、6B、6Cに設けられた第1の管理装置(図では、Primitive Access SPと記す)8A、8B、8Cと接続する。待機系の計算機管理装置7-1は、仮想計算機で構成される。即ち、待機系の計算機管理装置7-1は、第1のサービスプロセッサプログラム70と、第2のサービスプロセッサプログラム71と、第3のサービスプロセッサプログラム72と、物理メモリ(図示せず)と物理CPU10-1とを有する。そして、図4で説明したように、待機系の計算機管理装置7-1では、VM(仮想マシン、仮想SPボード)層(プログラム)14が、各プログラム70、71、72と物理メモリ(図示せず)と物理CPU10-1との間に設けられる。
 この構成は、計算機管理装置の冗長構成を示す。従来は、運用側サービスプロセッサに対して物理的に1対1に、待機側サービスプロセッサを用意していた。しかし、実際には待機側サービスプロセッサは通常ほとんど動いておらず、ハードウェア資源はほとんど使われていない。また、複数のハードウェアが同時に待機側のサービスプロセッサを必要とすることはほとんどない。このため、待機用計算機管理装置7-1は、複数の待機用のサービスプロセッサを小規模なハードウェア資源上に用意された仮想マシン(VM)上に集約して構成を持つ。これにより、待機系計算機管理装置7-1は、緊急時に備えることができる。
 図9の例では、運用側の計算機管理装置7は、アクテイブな3つのシステムのサービスプロセッサプログラム70、71、72を動作する必要があるので、533MHz×3程度の能力のCPU10が必要である。一方、待機用の計算機管理装置7-1は、緊急時にサービスプロセッサプログラムを1つ動作すればよいので、533MHz×1程度の能力のCPU10-1でよい。同様に、待機用の計算機管理装置7-1は、メモリも削減することができる。
 待機用の計算機管理装置7-1では、533MHzのCPU10-1が、3つのサービスプロセッサプログラム70、71、72を実行することになるが、通常、3つのサービスプロセッサプログラムともアイドル状態であるため、性能的な問題はない。また、複数のハードウェアが同時に緊急状態にならないことから、待機用計算機管理装置7-1は、緊急時も1つのサービスプロセッサプログラムを実行する能力があるため、性能面での問題は発生しない。又、この待機用計算機管理装置7-1は、計算機管理装置2台分のハードウェアリソースを削減することができる。
 (計算機システムの第3の実施の形態)
 図10は、計算機システムの第3の実施の形態のブロック図である。図10において、図1、図2、図9で示したものと同一のものは、同一の記号で示してある。図10に示すように、第1のシステム6Aは、ハードウェア1Aと第1の管理装置8Aと計算機管理装置7-2を有する。ハードウェア1Aは、制御線9B、9Cを介し第1の管理装置8Aに接続する。第1の管理装置8Aはネットワーク9Aを介し計算機管理装置7-2に接続する。計算機管理装置7-2は、外部サーバで構成され、運用(Active)状態に使用される。計算機管理装置7-2は、仮想マシンで構成されておらず、ハードウェア1Aの監視、制御を行う。
 第2のシステム6Bは、ハードウェア1Bと第1の管理装置8Bと計算機管理装置7-3を有する。ハードウェア1Bは、制御線9B、9Cを介し第1の管理装置8Bに接続する。第1の管理装置8Bはネットワーク9Aを介し計算機管理装置7-3に接続する。計算機管理装置7-3は、外部サーバで構成され、運用(Active)状態に使用される。計算機管理装置7-3は、仮想マシンで構成されておらず、ハードウェア1Aの監視、制御を行う。
 更に、待機系(Stanby)用の計算機管理装置7-1を設ける。待機系の計算機管理装置7-1は、ネットワーク9Aを介し各システム6A、6Bに設けられた第1の管理装置(図では、Primitive Access SPと記す)8A、8Bと接続する。待機系の計算機管理装置7-1は、仮想計算機で構成される。即ち、待機系の計算機管理装置7-1は、第1のサービスプロセッサプログラム70と、第2のサービスプロセッサプログラム71と、物理メモリ(図示せず)と物理CPU(図示せず)とを有する。そして、図4で説明したように、待機系の計算機管理装置7-1では、VM(仮想マシン、仮想SPボード)層(プログラム)14が、各プログラム70、71と物理メモリ(図示せず)と物理CPUとの間に設けられる。
 第1の管理装置8A、8Bと計算機管理装置7-1、7-2との間のインタフェース(TCP/IP)はハードウェアに非依存であるため、図10に示すように、運用系の計算機管理装置7-2、7-3は従来と同様に、システムの筐体の中に実装し、冗長系の待機用計算機管理装置7-1は筐体の外で、ネットワーク接続する。この形態をハイブリッド型の構成と称す。
 このように、ハイブリッド型の構成では、待機用計算機管理装置7-1を複数のシステムで共有することができ、コストを削減することができる。従来は、CPU数の少ないLow ENDモデル等では、コスト面の問題からサービスプロセッサを冗長化できない問題があった。このハイブリッド型構成により、待機用計算機管理装置7-1のコストを削減でき、コストを問題ないレベルにすることが可能である。又、前述したとおり、待機用計算機管理装置7-1が必要となることは現実的には少ないので、実際の運用面での問題もほとんどない。
 (計算機システムの第4の実施の形態)
 図11は、計算機システムの第4の実施の形態のブロック図である。図11において、図1、図2、図9で示したものと同一のものは、同一の記号で示してある。図11に示すように、計算機管理装置7は、図1で説明した構成と同一のものである。図11では、計算機管理装置7は外部サーバで構成され、運用(Active)状態に使用される。
 第1のシステム6Aは、ハードウェア1Aと第1の管理装置8Aとを制御線9B、9Cを介し接続する。ハードウェア1Aは大規模な計算機システムで構成される。これをハイエンドシステムと称す。第1の管理装置8Aはネットワーク9Aを介し計算機管理装置7に接続する。計算機管理装置7は、外部サーバで構成され、運用(Active)状態に使用される。計算機管理装置7は、仮想マシンで構成されており、ハイエンド制御用のサービスプロセッサプログラムSP1を実行して、ハードウェア1Aの監視、制御を行う。
 第2、第3のシステム6B、6Cは、ハードウェア1B、1Cと第1の管理装置8B、8Cとを制御線9B、9Cを介し接続する。ハードウェア1B、1Cは中規模な計算機システムで構成される。これをミッドレンジシステムと称す。第1の管理装置8B、8Cはネットワーク9Aを介し計算機管理装置7に接続する。計算機管理装置7は、ミッドレンジ制御用のサービスプロセッサプログラムSP2、SP3を実行して、ハードウェア1B、1Cの監視、制御を行う。
 第4のシステム6Dは、ハードウェア1Dと第1の管理装置8Dとを制御線9B、9Cを介し接続する。ハードウェア1Dは小規模な計算機システムで構成される。これをローエンドシステムと称す。第1の管理装置8Dはネットワーク9Aを介し計算機管理装置7に接続する。計算機管理装置7は、ローエンド制御用のサービスプロセッサプログラムSP4を実行して、ハードウェア1Dの監視、制御を行う。
 このように、システム側が異なるハードウェア構成であっても、計算機管理装置7を仮想マシン(VM)で実現するため、異なる機種間のサービスプロセッサ機能を、1台の外部サーバ7に統合することが可能となる。
 更に、待機系(Stanby)用の計算機管理装置7-1を設ける。待機系の計算機管理装置7-1は、ネットワーク9Aを介し各システム6A、6B、6C、6Dに設けられた第1の管理装置(図では、Primitive Access SPと記す)8A、8B、8C、8Dと接続する。待機系の計算機管理装置7-1は、仮想計算機で構成される。即ち、待機系の計算機管理装置7-1は、サービスプロセッサプログラムSP1~SP4と、物理メモリ(図示せず)と物理CPUとを有する。そして、図4で説明したように、待機系の計算機管理装置7-1では、VM(仮想マシン、仮想SPボード)層(プログラム)14が、各プログラムSP1~SP4と物理メモリ(図示せず)と物理CPUとの間に設けられる。
 このように、大規模な計算機で構成されるハイエンド機、中規模な計算機で構成されるミッドレンジ機、小規模な計算機で構成されるローエンド機を混在しても、待機用計算機管理装置7-1を、1台の外部サーバに統合することが可能となる。
 (計算機システムの第5の実施の形態)
 図12は、計算機システムの第5の実施の形態のブロック図である。図15において、図1、図2、図9で示したものと同一のものは、同一の記号で示してある。図11に示すように、リモートセンター100が、N(N>1で整数)台のシステム6A~6Nにネットワークを介し接続する。
 第1のシステム6Aは、ハードウェア1Aと第1の管理装置8Aと計算機管理装置7Aを有する。ハードウェア1Aは、制御線9B、9Cを介し第1の管理装置8Aに接続する。第1の管理装置8Aはネットワーク9Aを介し計算機管理装置7Aに接続する。計算機管理装置7Aは、運用(Active)状態に使用される。計算機管理装置7Aは、仮想マシンで構成されておらず、ハードウェア1Aの監視、制御を行う。
 第Nのシステム6Nは、ハードウェア1Nと第1の管理装置8Nと計算機管理装置7Nを有する。ハードウェア1Nは、制御線9B、9Cを介し第1の管理装置8Nに接続する。第1の管理装置8Nはネットワーク9Aを介し計算機管理装置7Nに接続する。計算機管理装置7Nは、運用(Active)状態に使用される。計算機管理装置7Nは、仮想マシンで構成されておらず、ハードウェア1Nの監視、制御を行う。
 更に、リモートセンター100に待機系(Stanby)用の計算機管理装置の機能を設ける。リモートセンター100は、ネットワーク9Aを介し各システム6A、6Nに設けられた第1の管理装置(図では、Primitive Access SPと記す)8A、8Nと接続する。リモートセンター100は、仮想計算機で構成される。即ち、リモートセンター100は、各サービスプロセッサプログラム7A-1~7A-Nと、物理メモリ(図示せず)と物理CPU(図示せず)とを有する。そして、図4で説明したように、リモートセンター100では、VM(仮想マシン、仮想SPボード)層(プログラム)14が、各プログラム7A-1~7A-Nと物理メモリと物理CPUとの間に設けられる。
 第1の管理装置8A、8Bと計算機管理装置7A、7Nとの間のインタフェース(TCP/IP)はハードウェアに非依存であるため、図12に示すように、運用系の計算機管理装置7A、7Nは従来と同様に、システムの筐体の中に実装する。一方、冗長系の待機用計算機管理機能は、リモートセンター100に搭載し、システムとネットワーク接続する。この形態は、ハイブリッド型の構成の変形例である。
 このように、待機用計算機管理機能をリモートセンター100に集約することができ、よりコストを削減することができる。又、前述したとおり、待機用計算機管理装置が必要となることは現実的には少ないので、実際の運用面での問題もほとんどない。多くの待機用計算機管理装置を集約すればするほど、コスト的なメリットも増大し、安価に信頼性を確保するサービスを提供することができる。
 (他の実施の形態)
 前述の図10の実施の形態では、2つのシステムで待機用計算機管理装置7-1を共用しているが、3台以上のシステムで待機用計算機管理装置7-1を共用してもよい。又、ハードウェアの構成は、図2の構成に限らず、他のCPU、メモリを含むハードウェアに適用できる。
 以上、本発明を実施の形態により説明したが、本発明の趣旨の範囲内において、本発明は、種々の変形が可能であり、本発明の範囲からこれらを排除するものではない。
 サービスプロセッサを、ハードウェアのアクセス等の原始的な処理を行う第1の管理装置と、ハードウェアの監視等の複雑な処理を行う計算機管理装置とに分離し、且つ計算機管理装置に、複数のハードウェアのハードウェア制御を行う仮想計算機を実装したので、複数のサービスプロセッサを少数のハードウェアで実現できる。このため、サービスプロセッサに要するCPUやメモリ、ストレージ等のコストを削減することができる。又、第1の管理装置は、各システムに設けるため、ハードウェアとの制御信号のやり取りの遅延を防止でき、サービスプロセッサの処理速度の低下を防止できる。更に、計算機管理装置を仮想計算機で構成したので、計算機管理装置のハードウェアを意識しなくてよくなり、長期間にわたって同じアーキテクチャ上のサービスプロセッサのソフトウェアを使用できる。
1A、1B、1C 電子計算機システムのハードウェア
7、7-1、7-2、7A、7B、7N 計算機管理装置
6A、6B、6C、6N 電子計算機システム
8A、8B、8C 第1の管理装置
9A ネットワーク
9B、9C 制御線
10 物理CPU
12 物理メモリ
14 仮想マシン
70~72 サービスプロセッサプログラム

Claims (15)

  1.  複数の電子計算機システムの管理を行う計算機管理装置であって、
     前記電子計算機システムの各々に設けられ、前記電子計算機のハードウェアにアクセスする機能及びネットワーク通信機能を有する複数の第1管理部とネットワークを介して接続するネットワーク通信回路部と、
     仮想計算機で構成され、前記ネットワーク通信回路部を介し、前記第1管理部の各々に対して前記ハードウェアへのアクセス指示を行い、サービスプロセッサとして前記電子計算機のハードウェアの監視及び制御を行う第2管理部とを有する、
     ことを特徴とする計算機管理装置。
  2.  請求項1に記載の計算機管理装置であって、
     前記第2管理部は、
     前記電子計算機のハードウェアへアクセスして所定の情報の読み出しを行うための読み出し指示情報を、前記ネットワークを介して前記第1管理部に対して送信し、
     前記読み出し指示情報に基づいて前記第1管理部が読み出した読出情報を前記ネットワークを介して受信し、
     受信した読出情報に基づいて前記電子計算機のハードウェアの制御を行うための情報を前記電子計算機のハードウェアに書き込むための書き込み指示情報を前記ネットワークを介して前記第1管理部に対して送信する
     ことを特徴とする計算機管理装置。
  3.  請求項1乃至2のいずれか一つに記載の計算機管理装置であって、
     運用中の前記電子計算機のハードウェアの監視及び制御を行う前記第2管理部を備える第1の仮想計算機と、
     前記第1の仮想計算機が故障した場合に、前記第1の仮想計算機の代わりに前記第2管理部を実現する第2の仮想計算機と
     を備えることを特徴とする計算機管理装置。
  4.  請求項1乃至3のいずれか一つに記載の計算機管理装置であって、
     前記仮想計算機により実現される前記第2管理部は、複数のネットワーク・インターフェースを有し、前記複数のネットワーク・インターフェースのうちの一つを、前記ネットワーク通信回路を介した前記電子計算機の第1管理部との接続に用いる
     ことを特徴とする計算機管理装置。
  5.  請求項4に記載の計算機管理装置であって、
     前記電子計算機の第1管理部との接続に用いるネットワーク・インターフェースからの割り込み優先度を、他のネットワーク・インターフェースからの割り込み優先度よりも高くした
     ことを特徴とする計算機管理装置。
  6.  請求項1乃至5のいずれか一つに記載の計算機管理装置であって、
     前記電子計算機のハードウェアを監視及び制御を行うための前記電子計算機内の第1管理部とネットワークを介して接続された前記電子計算機システム内に設けられた第2管理部を更に有し、
     前記電子計算機システム内に設けられた第2管理部が故障した場合に、前記仮想計算機により実現された第2管理部は、前記電子計算機内の該故障した第2管理部に代えて、前記電子計算機内の第1管理部と接続し、前記電子計算機のハードウェアの監視及び制御を行う
     ことを特徴とする計算機管理装置。
  7.  請求項3に記載の計算機管理装置であって、
     前記仮想計算機は、複数の異なる電子計算機を管理するための、各電子計算機に対応した複数の第2管理部の機能を実現する
     ことを特徴とする計算機管理装置。
  8.  複数の電子計算機システムの管理を行う計算機管理システムであって、
     前記電子計算機システムの各々に設けられ、前記電子計算機のハードウェアにアクセスする機能及びネットワーク通信機能を有する複数の第1管理部と、
     前記複数第1の管理部とネットワークを介して接続するネットワーク通信回路部と、前記ネットワーク通信回路部を介し、前記第1管理部の各々に対して前記ハードウェアへのアクセス指示を行い、サービスプロセッサとして前記電子計算機のハードウェアの監視及び制御を行う第2管理部とを有する仮想計算機で構成された計算機管理装置とを有する、
     ことを特徴とする計算機管理システム。
  9.  請求項8に記載の計算機管理システムであって、
     前記第2管理部は、
     前記電子計算機のハードウェアへアクセスして所定の情報の読み出しを行うための読み出し指示情報を、前記ネットワークを介して前記第1管理部に対して送信し、
     前記読み出し指示情報に基づいて前記第1管理部が読み出した読出情報を前記ネットワークを介して受信し、
     受信した読出情報に基づいて前記電子計算機のハードウェアの制御を行うための情報を前記電子計算機のハードウェアに書き込むための書き込み指示情報を前記ネットワークを介して前記第1管理部に対して送信する
     ことを特徴とする計算機管理システム。
  10.  請求項8乃至9のいずれか一つに記載の計算機管理システムであって、
     運用中の前記電子計算機のハードウェアの監視及び制御を行う前記第2管理部を備える第1の仮想計算機と、
     前記第1の仮想計算機が故障した場合に、前記第1の仮想計算機の代わりに前記第2管理部を実現する第2の仮想計算機とを備える
     ことを特徴とする計算機管理システム。
  11.  請求項8乃至10のいずれか一つに記載の計算機管理システムであって、
     前記仮想計算機により実現される前記第2管理部は、複数のネットワーク・インターフェースを有し、前記複数のネットワーク・インターフェースのうちの一つを、前記ネットワーク通信回路を介した前記電子計算機の第1管理部との接続に用いる
     ことを特徴とする計算機管理システム。
  12.  請求項11に記載の計算機管理システムであって、
     前記電子計算機の第1管理部との接続に用いるネットワーク・インターフェースからの割り込み優先度を、他のネットワーク・インターフェースからの割り込み優先度よりも高くした
     ことを特徴とする計算機管理システム。
  13.  請求項8乃至12のいずれか一つに記載の計算機管理システムであって、
     前記電子計算機のハードウェアを監視及び制御を行うための前記電子計算機内の第1管理部とネットワークを介して接続された前記電子計算機システム内に設けられた第2管理部を更に有し、
     前記電子計算機システム内に設けられた第2管理部が故障した場合に、前記仮想計算機により実現された第2管理部は、前記電子計算機内の該故障した第2管理部に代えて、前記電子計算機内の第1管理部と接続し、前記電子計算機のハードウェアの監視及び制御を行う
     ことを特徴とする計算機管理システム。
  14.  請求項10に記載の計算機管理システムであって、
     前記仮想計算機は、複数の異なる電子計算機を管理するための、各電子計算機に対応した複数の第2管理部の機能を実現する
     ことを特徴とする計算機管理システム。
  15.  複数の電子計算機システムと、
     前記電子計算機システムの各々に設けられ、前記電子計算機のハードウェアにアクセスする機能及びネットワーク通信機能を有する複数の第1管理部と、
     前記複数の第1の管理部とネットワークを介して接続するネットワーク通信回路部と、前記ネットワーク通信回路部を介し、前記第1管理部の各々に対して前記ハードウェアへのアクセス指示を行い、サービスプロセッサとして前記電子計算機のハードウェアの監視及び制御を行う第2管理部とを有する仮想計算機とを有する、
     ことを特徴とする計算機システム。
PCT/JP2010/063913 2010-08-18 2010-08-18 計算機管理装置、計算機管理システム及び計算機システム WO2012023183A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012529430A JP5549733B2 (ja) 2010-08-18 2010-08-18 計算機管理装置、計算機管理システム及び計算機システム
EP10856140.8A EP2608046A1 (en) 2010-08-18 2010-08-18 Computer management device, computer management system, and computer system
PCT/JP2010/063913 WO2012023183A1 (ja) 2010-08-18 2010-08-18 計算機管理装置、計算機管理システム及び計算機システム
US13/764,410 US20130151885A1 (en) 2010-08-18 2013-02-11 Computer management apparatus, computer management system and computer system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2010/063913 WO2012023183A1 (ja) 2010-08-18 2010-08-18 計算機管理装置、計算機管理システム及び計算機システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/764,410 Continuation US20130151885A1 (en) 2010-08-18 2013-02-11 Computer management apparatus, computer management system and computer system

Publications (1)

Publication Number Publication Date
WO2012023183A1 true WO2012023183A1 (ja) 2012-02-23

Family

ID=45604857

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/063913 WO2012023183A1 (ja) 2010-08-18 2010-08-18 計算機管理装置、計算機管理システム及び計算機システム

Country Status (4)

Country Link
US (1) US20130151885A1 (ja)
EP (1) EP2608046A1 (ja)
JP (1) JP5549733B2 (ja)
WO (1) WO2012023183A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014203181A (ja) * 2013-04-03 2014-10-27 三菱電機株式会社 障害診断装置およびプログラム
JP2017224274A (ja) * 2016-04-11 2017-12-21 廣達電腦股▲ふん▼有限公司 仮想ラック管理モジュール

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106452846A (zh) * 2016-09-22 2017-02-22 华为技术有限公司 故障处理方法、虚拟架构管理系统和业务管理系统
DE102017119379A1 (de) * 2017-08-24 2019-02-28 Fujitsu Technology Solutions Intellectual Property Gmbh Systemboard für ein Computersystem, Computersystem mit einem solchen Systemboard sowie Verfahren zur Out-of-Band-Überwachung eines Computersystems
JP2019149053A (ja) * 2018-02-27 2019-09-05 富士通株式会社 情報処理装置、情報処理装置の制御方法及び情報処理装置の制御プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004086522A (ja) 2002-08-27 2004-03-18 Fujitsu Access Ltd 通信ネットワーク監視システム
JP2004318878A (ja) 2003-04-10 2004-11-11 Internatl Business Mach Corp <Ibm> 論理的に区分されたコンピュータ・システムにおける仮想リアルタイム・クロックの維持
JP2009239374A (ja) 2008-03-26 2009-10-15 Nec Corp 仮想計算機システム及びパケット送信制御方法並びにそれに用いるネットワークインターフェースカード
WO2010056743A1 (en) * 2008-11-13 2010-05-20 Netapp, Inc. System and method for aggregating management of devices connected to a server

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002229806A (ja) * 2001-02-02 2002-08-16 Hitachi Ltd 計算機システム
KR100619960B1 (ko) * 2004-11-22 2006-09-08 엘지전자 주식회사 인터넷을 통한 디버깅 장치의 원격 제어 장치 및 방법
US20070094659A1 (en) * 2005-07-18 2007-04-26 Dell Products L.P. System and method for recovering from a failure of a virtual machine
US7383478B1 (en) * 2005-07-20 2008-06-03 Xilinx, Inc. Wireless dynamic boundary-scan topologies for field
US8924524B2 (en) * 2009-07-27 2014-12-30 Vmware, Inc. Automated network configuration of virtual machines in a virtual lab data environment
US7962553B2 (en) * 2006-07-31 2011-06-14 Hewlett-Packard Development Company, L.P. Method and system for distribution of maintenance tasks in a multiprocessor computer system
US7707185B1 (en) * 2006-10-19 2010-04-27 Vmware, Inc. Accessing virtual data storage units to offload operations from a computer system hosting a virtual machine to an offload server
JP4939271B2 (ja) * 2007-03-29 2012-05-23 株式会社日立製作所 ストレージ保守・管理装置の冗長化方法、及びその方法を使用する装置
JP5074274B2 (ja) * 2008-04-16 2012-11-14 株式会社日立製作所 計算機システム及び通信経路の監視方法
MX2011004929A (es) * 2008-11-11 2011-06-21 Molycorp Minerals Llc Remocion de material objetivo usando metales de tierra rara.
US9116724B2 (en) * 2009-05-15 2015-08-25 Red Hat, Inc. Stateless virtual machine

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004086522A (ja) 2002-08-27 2004-03-18 Fujitsu Access Ltd 通信ネットワーク監視システム
JP2004318878A (ja) 2003-04-10 2004-11-11 Internatl Business Mach Corp <Ibm> 論理的に区分されたコンピュータ・システムにおける仮想リアルタイム・クロックの維持
JP2009239374A (ja) 2008-03-26 2009-10-15 Nec Corp 仮想計算機システム及びパケット送信制御方法並びにそれに用いるネットワークインターフェースカード
WO2010056743A1 (en) * 2008-11-13 2010-05-20 Netapp, Inc. System and method for aggregating management of devices connected to a server

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014203181A (ja) * 2013-04-03 2014-10-27 三菱電機株式会社 障害診断装置およびプログラム
JP2017224274A (ja) * 2016-04-11 2017-12-21 廣達電腦股▲ふん▼有限公司 仮想ラック管理モジュール
US10728084B2 (en) 2016-04-11 2020-07-28 Quanta Computer Inc. Virtualized rack management modules

Also Published As

Publication number Publication date
JPWO2012023183A1 (ja) 2013-10-28
EP2608046A1 (en) 2013-06-26
US20130151885A1 (en) 2013-06-13
JP5549733B2 (ja) 2014-07-16

Similar Documents

Publication Publication Date Title
JP4477365B2 (ja) 複数インタフェースを有する記憶装置、および、その記憶装置の制御方法
EP3158455B1 (en) Modular switched fabric for data storage systems
US20200142752A1 (en) Physical partitioning of computing resources for server virtualization
US9684575B2 (en) Failover handling in modular switched fabric for data storage systems
US8176501B2 (en) Enabling efficient input/output (I/O) virtualization
US8037364B2 (en) Forced management module failover by BMC impeachment consensus
JP5561622B2 (ja) 多重化システム、データ通信カード、状態異常検出方法、及びプログラム
US20240012777A1 (en) Computer system and a computer device
US20140006676A1 (en) Systems and methods for dynamic allocation of information handling resources
US11157204B2 (en) Method of NVMe over fabric RAID implementation for read command execution
JP5549733B2 (ja) 計算機管理装置、計算機管理システム及び計算機システム
US7562111B2 (en) Multi-processor architecture with high capacity I/O
US20160267041A1 (en) Systems and methods for power optimization at input/output nodes of an information handling system
WO2010077813A2 (en) Composite device emulation
US11436182B2 (en) System and method for handling in-band interrupts on inactive I3C channels
US20070294600A1 (en) Method of detecting heartbeats and device thereof
WO2013027297A1 (ja) 半導体装置、管理装置、及びデータ処理装置
US20240028201A1 (en) Optimal memory tiering of large memory systems using a minimal number of processors
US20240020174A1 (en) Memory disaggregation in a multi-node environment
US20220317910A1 (en) Array-based copy mechanism for migration, replication, and backup
KR20230053496A (ko) 인터커넥트를 통해 장치 운영 체제에 액세스하기 위한 시스템, 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10856140

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2012529430

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2010856140

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE