JPWO2012023183A1 - 計算機管理装置、計算機管理システム及び計算機システム - Google Patents

計算機管理装置、計算機管理システム及び計算機システム Download PDF

Info

Publication number
JPWO2012023183A1
JPWO2012023183A1 JP2012529430A JP2012529430A JPWO2012023183A1 JP WO2012023183 A1 JPWO2012023183 A1 JP WO2012023183A1 JP 2012529430 A JP2012529430 A JP 2012529430A JP 2012529430 A JP2012529430 A JP 2012529430A JP WO2012023183 A1 JPWO2012023183 A1 JP WO2012023183A1
Authority
JP
Japan
Prior art keywords
computer
hardware
management
network
electronic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012529430A
Other languages
English (en)
Other versions
JP5549733B2 (ja
Inventor
憲司 岡野
憲司 岡野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2012023183A1 publication Critical patent/JPWO2012023183A1/ja
Application granted granted Critical
Publication of JP5549733B2 publication Critical patent/JP5549733B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/06Management of faults, events, alarms or notifications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2038Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant with a single idle spare processing component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/3003Monitoring arrangements specially adapted to the computing system or computing system component being monitored
    • G06F11/3031Monitoring arrangements specially adapted to the computing system or computing system component being monitored where the computing system component is a motherboard or an expansion card
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/3055Monitoring arrangements for monitoring the status of the computing system or of the computing system component, e.g. monitoring if the computing system is on, off, available, not available
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/3089Monitoring arrangements determined by the means or processing involved in sensing the monitored data, e.g. interfaces, connectors, sensors, probes, agents
    • G06F11/3093Configuration details thereof, e.g. installation, enabling, spatial arrangement of the probes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2023Failover techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Hardware Redundancy (AREA)
  • Debugging And Monitoring (AREA)
  • Computer And Data Communications (AREA)

Abstract

サービスプロセッサを、ハードウェアのアクセス等の原始的な処理を行う第1の管理装置(8A)と、ハードウェアの監視等の複雑な処理を行う計算機管理装置(7)とに分離し、且つ計算機管理装置(7)に、複数のハードウェアのハードウェア制御を行う仮想計算機を実装した。複数のサービスプロセッサを少数のハードウェアで実現でき、サービスプロセッサに要するCPUやメモリ、ストレージ等のコストを削減することができる。又、第1の管理装置は、各システムに設けるため、ハードウェアとの制御信号のやり取りの遅延を防止でき、サービスプロセッサの処理速度の低下を防止できる。更に、計算機管理装置を仮想計算機で構成したので、計算機管理装置のハードウェアを意識しなくてよくなり、長期間にわたって同じアーキテクチャ上のサービスプロセッサのソフトウェアを使用できる。

Description

本発明は、計算機管理装置、計算機管理システム及び計算機システムに関する。
計算機システムでは、ハードウェアである単数又は複数の計算機とは別に、計算機を監視、制御する計算機管理装置(以下、サービスプロセッサという)を設けている。図13は従来の計算機システムのブロック図である。図13に示すように、計算機システム200は、業務処理を行うハードウェア210と、ハードウェア210を制御する一対のサービスプロセッサ(Service Processor)220、230とを有する。
一対のサービスプロセッサ220、230は冗長系を構成し、一方のサービスプロセッサ220が運用状態である時に、他方のサービスプロセッサは待機状態にある。各サービスプロセッサ220、230は、演算処理ユニット(CPU:Central Procesing Unit)240とメモリ250と不揮発性メモリ(Flash Memory)260とを有する。
そして、サービスプロセッサ220、230の各々は、ハードウェア210のアクセス制御、ハードウェア210の監視、ハードウェア210の電源投入、ログの採取、ユーザインターフェース制御(ユーザI/F)等の機能を実行する。
サービスプロセッサ220は、制御線212、214を介しハードウェア210のアクセス制御を行う。又、サービスプロセッサ230は、制御線216、218を介しハードウェア210のアクセス制御を行う。このアクセス制御は、例えば、JTAG(Joint Test Action Group)規格の信号インターフェースやI2C(Inter−Integrated Circuit)規格の信号インターフェースを利用する。
ユーザインターフェース制御は、ユーザーの端末装置との間で、CLI(Command Line Interface)やBUI(Browser User Interface)などの制御をおこなう。このように、種々の機能を実現するため、従来は、1つのサービスプロセッサ220、230が、すべての機能を持ち、単体で多くの操作を可能にしている。
日本特許公開2009−239374号公報 日本特許公開2004−086522号公報 日本特許公開2004−318878号公報
サービスプロセッサ220、230の高機能化に伴い、サービスプロセッサ220、230のハードウェアは高性能なCPU、大容量のメモリ、不揮発性メモリを要する。又、機能実現のためのソフトウェアも、高機能化に伴いサイズの大きいものになり、複雑になる。このため、サービスプロセッサは、複雑で高価なハードウェアを搭載することが要求される。又、サービスプロセッサの信頼性を確保するためには、サービスプロセッサを二重化することも必要となる。
このように、サービスプロセッサの高機能化に伴い、サービスプロセッサのハードウェアの物量が大きくなり、コストが増大するともに、ハードウェアの故障率が上がる。また、待機系のサービスプロセッサは、実際には、ほとんど動作しないにも拘わらず、運用系のサービスプロセッサと同じハードウェアを用意しなければならなかった。そのため、サービスプロセッサの二重化は、サービスプロセッサのコストを二倍にすることとなる。
サービスプロセッサを二重化すれば、コストが上がるが、大規模な計算機で構成されるハイエンド機では、信頼性重視のためサービスプロセッサを多重化して、信頼性を確保している。一方、中規模な計算機で構成されるミッドレンジ機や、小規模な計算機で構成されるローエンド機では、コスト重視のためサービスプロセッサの二重化をあきらめ、信頼性を低く抑えている。サービスプロセッサを2重化しない場合には、サービスプロセッサの障害時にサービスプロセッサの交換による業務停止影響が問題となる。
本発明の目的は、安価に機能の信頼性を向上する計算機管理装置、計算機管理システム及び計算機システムを提供することにある。
この目的の達成のため、開示の計算機管理装置は、複数の電子計算機システムの管理を行う計算機管理装置であって、前記電子計算機システムの各々に設けられ、前記電子計算機のハードウェアにアクセスする機能及びネットワーク通信機能を有する複数の第1管理部とネットワークを介して接続するネットワーク通信回路部と、仮想計算機で構成され、前記ネットワーク通信回路部を介し、前記第1管理部の各々に対して前記ハードウェアの指示を行い、サービスプロセッサとして前記電子計算機のハードウェアの監視及び制御を行う第2管理部とを有する。
又、この目的の達成のため、開示の計算機管理システムは、複数の電子計算機システムの管理を行う計算機管理システムであって、前記電子計算機システムの各々に設けられ、前記電子計算機のハードウェアにアクセスする機能及びネットワーク通信機能を有する複数の第1管理部と、前記複数第1の管理部とネットワークを介して接続するネットワーク通信回路部と、前記ネットワーク通信回路部を介し、前記第1管理部の各々に対して前記ハードウェアの指示を行い、サービスプロセッサとして前記電子計算機のハードウェアの監視及び制御を行う第2管理部とを有する仮想計算機で構成された計算機管理装置とを有する。
更に、開示の計算機システムは、複数の電子計算機システムと、前記電子計算機システムの各々に設けられ、前記電子計算機のハードウェアにアクセスする機能及びネットワーク通信機能を有する複数の第1管理部と、前記複数の第1の管理部とネットワークを介して接続するネットワーク通信回路部と、前記ネットワーク通信回路部を介し、前記第1管理部の各々に対して前記ハードウェアの指示を行い、サービスプロセッサとして前記電子計算機のハードウェアの監視及び制御を行う第2管理部とを有する仮想計算機とを有する。
サービスプロセッサを、ハードウェアのアクセス等の原始的な処理を行う第1の管理装置と、ハードウェアの監視等の複雑な処理を行う計算機管理装置とに分離し、且つ計算機管理装置に、複数のハードウェアのハードウェア制御を行う仮想計算機を実装したので、複数のサービスプロセッサを少数のハードウェアで実現できる。このため、サービスプロセッサに要するCPUやメモリ、ストレージ等のコストを削減することができる。又、第1の管理装置は、各システムに設けるため、ハードウェアとの制御信号のやり取りの遅延を防止でき、サービスプロセッサの処理速度の低下を防止できる。更に、計算機管理装置を仮想計算機で構成したので、計算機管理装置のハードウェアを意識しなくてよくなり、長期間にわたって同じアーキテクチャ上のサービスプロセッサのソフトウェアを使用できる。
実施の形態の計算機システムのブロック図である。 図1のハードウェアのブロック図である。 図1の計算機管理システムのブロック図である。 図3の計算機管理装置の仮想計算機のブロック図である。 図3の計算機管理システムの機能ブロック図である。 図5の第1の管理装置の動作説明図である。 図5の計算機管理装置の動作説明図である。 図1乃至図7のハードウェア制御処理フロー図である。 計算機システムの第2の実施の形態のブロック図である。 計算機システムの第3の実施の形態のブロック図である。 計算機システムの第4の実施の形態のブロック図である。 計算機システムの第5の実施の形態のブロック図である。 従来の計算機管理装置のブロック図である。
以下、実施の形態の例を、計算機システムの第1の実施の形態、計算機管理システムの第1の実施の形態、計算機管理装置、計算機システムの第2の実施の形態、計算機システムの第3の実施の形態、計算機システムの第4の実施の形態、計算機システムの第5の実施の形態、他の実施の形態の順で説明するが、開示の計算機システム、計算機管理システム、計算機管理装置は、この実施の形態に限られない。
(計算機システムの第1の実施の形態)
図1は、実施の形態の計算機システムのブロック図である。図2は、図1のハードウェアのブロック図である。図1の計算機システムは、1台の計算機管理装置7が、3つの計算機システム6A、6B、6Cを管理する例を示す。図1に示すように、計算機システムは、複数の計算機システム6A、6B、6Cと計算機管理装置(図では、外部サーバと記す)7とを有する。
計算機システム6A、6B、6Cの各々は、図2で後述するハードウェア1A、1B、1Cと第1の管理装置(図では、Primitive Access SPと記す)8A、8B、8Cとを有する。第1の管理装置8A、8B、8Cは、I2C(Inter Integraed Circuit)信号線9CとJTAG(Joint Test Action Group)信号線9Bとでハードウェア1A、1B、1Cに接続する。
又、第1の管理装置8A、8B、8Cは、TCP(Transmission Control Protocol)/IP(Internet Protocol)を用いたネットワーク9Aにより計算機管理装置7に接続する。第1の管理装置8A、8B、8Cは、ハードウェア1A、1B、1Cと信号線9B、9Cを介しI2C及びJTAGの制御信号である原始的Primitiveなrow(生)のコマンドを処理し、且つ計算機管理装置7とのネットワーク処理とを行う。
一方、計算機管理装置7は、第1の管理装置8A、8B、8Cとネットワーク通信し、ハードウェア1A、1B、1Cの監視処理、ハードウェア制御、ログ情報の処理、ユーザインターフェース処理を行う。
即ち、サービスプロセッサを、ハードウェアのアクセス等の原始的な処理を行う第1の管理装置8A、8B、8Cと、ハードウェアの監視等の複雑な処理を行う計算機管理装置7とに分離する。第1の管理装置8A、8B、8Cと計算機管理装置7とは、TCP/IPのネットワーク9Aで接続し、互いに通信する。ハードウェアのアクセスを行う第1の管理装置と、監視やハードウェア制御、ログ情報の処理、ユーザインターフェース等の複雑な処理を行う計算機管理装置7とは、それぞれ異なるハードウェアで構成される。
更に、計算機管理装置7は、仮想計算機で構成される。即ち、計算機管理装置7は、仮想スイッチハブ73と、各ハードウェアの制御を行う仮想制御SP(Virtual Control Service Processor)70、71、72とを有する。第1の仮想制御SP70は、第1のハードウェア1Aのハードウェア制御を行い、第2の仮想制御SP71は、第2のハードウェア1Bのハードウェア制御を行い、第3の仮想制御SP72は、第3のハードウェア1Cのハードウェア制御を行う。
図2により図1のハードウェアを説明する。図2において、図1で示したものと同一のものは同一の記号で示してある。図2に示すように、ハードウェア1AはCPU/メモリボード2A、2B、クロスバースイッチ3、I/Oボード4A〜4N、電源回路5A、冷却ファンユニット5Bとを有する。CPU/メモリボード(以下、システムボードという)2A、2Bは、複数の演算処理装置(CPU:Central Processing Unit)22A、22B、22C、22Dとシステムコントローラ24とメモリアクセスコントローラ26とホストメモリ28とを有する。この例では、4つの演算処理装置(以下、CPUという)がシステムボード2A、2Bに設けられている。システムボード2A、2BにおけるCPUの搭載数は、単数であっても、他の複数であっても良い。
各CPU22A〜22Dはシステムコントローラ24に接続する。システムコントローラ24は、ホストメモリ28に接続されたメモリアクセスコントローラ26に接続する。システムコントローラ24は、クロスバースイッチ3を介し複数のI/O(Input/Output)ボード4A〜4Nに接続する。
I/Oボード4A〜4Nは、I/Oコントローラ40と複数のPCI(Peripheral Component Interconnect) Expressスロット42とを有する。PCI Expressスロット42に、外部メモリ(大容量メモリ及び/又はストレージ装置)やネットワークインタフェースカード(NIC)が接続される。システムコントローラ24は、CPU22A〜22Dとメモリアクセスコントローラ26との間、及びクロスバースイッチ3とCPU22A〜22D、メモリアクセスコントローラ26との間の転送制御を行う。クロスバースイッチ3は、システムボード2Aと2B。及びシステムボード2A、2BとI/Oボード4A〜4Nとを1対1で直接接続する。
このクロスバースイッチ3により、システムボード2Aと2Bの間、及びシステムボード2A、2BとI/Oボード4A〜4Nとの間のデータ転送を高速化できる。図2の例では、情報処理システムはシステムボードを2台搭載されているが、数十台のシステムボードを搭載されることが望ましい。
又、ハードウェア1B、1Cも同様の構成である。図1に示したように、第1の管理装置8A、8B、8Cがこのハードウェア1A、1B、1Cの各々に設けられる。そして、計算機管理装置7が第1の管理装置8A、8B、8Cの各々にネットワーク9Aを介し接続する。ネットワーク9Aは例えばLAN(Local Area Network)を用いることが望ましい。又、図1で図示しないが、端末装置が、計算機管理装置7に接続し、ユーザーの操作により計算機管理装置7にハードウェア制御シーケンスを指示し、且つ状態を取得する。望ましくは、端末装置はパーソナルコンピュータで構成される。
このように、サービスプロセッサを、ハードウェアのアクセス等の原始的な処理を行う第1の管理装置8A、8B、8Cと、ハードウェアの監視等の複雑な処理を行う計算機管理装置7とに分離し、且つ計算機管理装置7に、複数のハードウェアのハードウェア制御を行う仮想計算機を実装したので、複数のサービスプロセッサを少数のハードウェアで実現できる。このため、サービスプロセッサに要するCPUやメモリ、ストレージ等のコストを削減することができる。
又、第1の管理装置は、各システムに設けるため、ハードウェアとの制御信号のやり取りの遅延を防止でき、サービスプロセッサの処理速度の低下を防止できる。更に、計算機管理装置を仮想計算機で構成したので、計算機管理装置のハードウェアを意識しなくてよくなり、長期間にわたって同じアーキテクチャ上のサービスプロセッサのソフトウェアを使用できる。
(計算機管理システム)
図3は図1の計算機管理システムのブロック図である。図4は図3の計算機管理装置の構成図である。図3及び図4において、図1で示したものと同一のものは、同一の記号で示してある。尚、図3では、説明の簡略化のため、1台のハードウェア1A、1台の第1の管理装置8Aを例に説明する。
図3に示すように、第1の管理装置8AはCPU16とメモリ18Aと不揮発性メモリ(Flash Memory)18Bとを有する。又、計算機管理装置7はCPU16とメモリ18Aと不揮発性メモリ(Flash Memory)18Bとを有する。第1の管理装置8Aは、簡易な処理のため、比較的小さなハードウェアで構成できる。例えば、第1の管理装置8Aでは、120MHzのCPU16と、32MBのメモリ18Aと、16MBの不揮発性メモリ18Bとを用いることができる。又、計算機管理装置7は、複雑な処理のため、比較的大きなハードウェアを要する。計算機管理装置7では、例えば、533MHzのCPU10と、512MBのメモリ12Aと、512MBの不揮発性メモリ12Bとを用いることができる。
図4に示すように、計算機管理装置7は、仮想計算機で構成される。第1のサービスプロセッサプログラム70、第2のサービスプロセッサプログラム71、第3のサービスプロセッサプログラム72と、図3で説明した物理メモリ12(12A、12B)と物理CPU10との間に、VM(仮想マシン、仮想SPボード)層(プログラム)14を設ける。
VM14は、ハードウェアを仮想化するプログラムである。即ち、サービスプロセッサプログラムは、計算機管理装置7のハードウェアを仮想化した仮想マシン(VM)上に構築される。このため、第1、第2、第3のサービスプロセッサプログラム70〜72が、VM14を介し物理メモリ12(12A、12B)と物理CPU10などのハードウェアを制御する。このため、仮想マシンでは、1つのハードウェアの上で、複数のサービスプロセッサプログラムを独立して動作させることが可能になる。
このように、システム外部の計算機管理装置(サーバ)7上に仮想マシンを構築し、仮想マシン上にサービスプロセッサソフトウェアを搭載することにより、1台のハードウェアで複数台のシステムの処理を実行できる。このため、計算機管理装置のコストを低減できる。特に、メモリやディスク装置はある程度大容量になれば、容量あたりの単価が下がるために、大幅なハードウェアコストの削減が可能である。例えば512MBのフラッシュメモリを8個使用して4GBの領域を確保するよりも、4GBのフラッシュメモリを1個用意すると、コスト的なメリットを得られる。
図5は図3の計算機管理システムの機能ブロック図である。図6は図5の計算機管理装置の動作説明図である。図7は図5の計算機管理装置の優先度処理の説明図である。図5に示すように、第1の管理装置8Aはハードウェア(H/W)アクセス機能60とネットワーク(NW)アクセス機能62とを有し、且つハードウェアアクセス等の原始的な処理のみを行う。
計算機管理装置7のサービスプロセッサプログラム70〜72は、ネットワーク(NW)アクセス機能50とハードウェア制御機能51とハードウェア監視機能52とユーザインターフェース機能53とを有する。即ちサービスプロセッサプログラム70〜72は、ハードウェア1Aの監視等の複雑な処理を行う。
第1の管理装置8Aと計算機管理装置7とは、TCP/IPのネットワーク9Aで接続される。そして、第1の管理装置8Aと計算機管理装置7は2つのネットワーク機能62、50により、ネットワーク9Aを介し通信する。
図6に示すように、第1の管理装置8Aのハードウェアアクセス機能60は、簡単なリード/ライトのインターフェース機能である。このインターフェース機能は、JTAGであるかI2Cであるかのバス種別(bus_type)、 リードであるかライトであるかのアクセス種別(access_type)、デバイスのアドレス(target_address)、読み書き用のバッファ(buffer)を指定する。又、ネットワーク機能62は、TCP/IPの設定機能を持つ。
このように、サービスプロセッサを分割することにより、サービスプロセッサのハードウェアのコストを削減できる。一方、サービスプロセッサを1台で構成する従来例では、割り込みで入ってきたものを、割り込みハンドラの特権レベルで処理していた。本実施の形態では、第1の管理装置8Aが、割り込みハンドラレベルで受けたとしても、計算機管理装置7ではTCP/IP通信のレベルになり、外部からの通信と同レベルの優先度に落とされてしまう。しかし、計算機管理装置7が外部からのアクセスの負荷が高くなった場合に、計算機管理装置7が第1の管理装置8Aからの割り込み処理に遅延があると、性能が低下する。
この性能低下を防止するため、図7に示すように、サービスプロセッサプロセッサ70〜72は、第1の管理装置7Aとユーザインターフェースの各々に対し、2つのポート(Ethernet(登録商標)ポート)73A、73Bを持つ。物理的な計算機管理装置7は、物理的に2つのEthernet(登録商標)ポートを持ち、仮想マシンで構築された計算機管理装置7は仮想的な2つのEthernet(登録商標)ポートを用意する。
そして、サービスプロセッサプログラム70〜72は、第1のポート73A(eth0)に割り当てる割り込み要求キュー(IRQ:Interrupt Request Que)を、第2のポート73B(eth1)に割り当てるIRQよりも優先度の高い物に取り扱う。このため、ユーザインターフェースから第2のポート73B(eth1)に割り込みが多発した場合でも、第1のポート73A(eth0)の割り込みハンドラが確実に動ける状態にできる。これにより、外部ネットワーク(eth1)からの負荷が高くなった場合でも、サービスプロセッサプログラム70〜72は、第1の管理装置8Aからの要求処理を優先的に処理できる。
このように、第1の管理装置8Aがハードウェア1Aから上がってきた割り込みを、計算機管理装置7にTCP/IP通信で伝達するのみであっても、サービスプロセッサプログラム70〜72が第1の管理装置8Aからの割り込み通知を高優先度で処理できる。即ち、第1の管理装置8Aとの間の通信処理を高優先度に設定する。
又、計算機管理装置7がシステムの外にあるため、システム側のハードウェアおよびソフトウェアが小規模化し、簡素化できる。このため、計算機管理装置7のハードウェアの障害の発生確率を大幅に軽減できる。更に、第1の管理装置8Aと計算機管理装置7の間をTCP/IPで接続するため、容易にどちらの構成も交換可能である。
図8は本実施の形態の計算機管理装置7のハードウェア制御処理フロー図である。図8は計算機管理装置7のサービスプロセッサプログラム(図8では、Control SPと記し、以下、Control SPと称す)70のハードウェア監視機能52がハードウェア1Aの冷却ファン5Bの制御を行う例を示す。
(S10)計算機管理装置7のControl SP70は、タイマを起動する。
(S12)Control SP70はタイマ待ちとなり、タイムアウトを通知されたか否かを判定する。
(S14)Control SP70は第1の管理装置(図8では、Primitive SPと記し、以下、Primitive SPと称す)8Aに対し、ネットワーク9Aを介し温度センサの読み込みを指示する。
(S16)Primitive SP8Aはハードウェア1A内の指示された温度センサの計測値を読み込み、ネットワーク9Aを介しControl SP70に転送する。尚、温度センサは図2のハードウェアの温度を検出するものであり、図2のハードウェア1A内に設けられる。
(S18)Control SP70はネットワーク9Aを介し受け取った計測値が閾値の範囲内であるか否かを確認する。Control SP70は受け取った計測値が閾値の範囲内である場合には、ステップS10に戻る。
(S20)Control SP70は受け取った計測値が閾値の範囲内でない場合には、Control SP70はネットワーク9Aを介しPrimitive SP8Aに対し、ファン速度の変更を指示する。
(S22)Primitive SP8Aは指示された冷却ファン5Bの速度を変更する。
このようにして、Control SP70はネットワーク9Aを介しPrimitive SP8Aにハードウェア制御指示を送信し、Primitive SP8Aは指示に従い、ハードウェアを制御する。
(計算機システムの第2の実施の形態)
図9は、計算機システムの第2の実施の形態のブロック図である。図9において、図1、図2で示したものと同一のものは、同一の記号で示してある。図9に示すように、計算機管理装置7は、図1で説明した構成と同一のものである。計算機管理装置7は、図9では、外部サーバで構成され、運用(Active)状態に使用される。
更に、待機系(Stanby)用の計算機管理装置7−1を設ける。待機系の計算機管理装置7−1は、ネットワーク9Aを介し各システム6A、6B、6Cに設けられた第1の管理装置(図では、Primitive Access SPと記す)8A、8B、8Cと接続する。待機系の計算機管理装置7−1は、仮想計算機で構成される。即ち、待機系の計算機管理装置7−1は、第1のサービスプロセッサプログラム70と、第2のサービスプロセッサプログラム71と、第3のサービスプロセッサプログラム72と、物理メモリ(図示せず)と物理CPU10−1とを有する。そして、図4で説明したように、待機系の計算機管理装置7−1では、VM(仮想マシン、仮想SPボード)層(プログラム)14が、各プログラム70、71、72と物理メモリ(図示せず)と物理CPU10−1との間に設けられる。
この構成は、計算機管理装置の冗長構成を示す。従来は、運用側サービスプロセッサに対して物理的に1対1に、待機側サービスプロセッサを用意していた。しかし、実際には待機側サービスプロセッサは通常ほとんど動いておらず、ハードウェア資源はほとんど使われていない。また、複数のハードウェアが同時に待機側のサービスプロセッサを必要とすることはほとんどない。このため、待機用計算機管理装置7−1は、複数の待機用のサービスプロセッサを小規模なハードウェア資源上に用意された仮想マシン(VM)上に集約して構成を持つ。これにより、待機系計算機管理装置7−1は、緊急時に備えることができる。
図9の例では、運用側の計算機管理装置7は、アクテイブな3つのシステムのサービスプロセッサプログラム70、71、72を動作する必要があるので、533MHz×3程度の能力のCPU10が必要である。一方、待機用の計算機管理装置7−1は、緊急時にサービスプロセッサプログラムを1つ動作すればよいので、533MHz×1程度の能力のCPU10−1でよい。同様に、待機用の計算機管理装置7−1は、メモリも削減することができる。
待機用の計算機管理装置7−1では、533MHzのCPU10−1が、3つのサービスプロセッサプログラム70、71、72を実行することになるが、通常、3つのサービスプロセッサプログラムともアイドル状態であるため、性能的な問題はない。また、複数のハードウェアが同時に緊急状態にならないことから、待機用計算機管理装置7−1は、緊急時も1つのサービスプロセッサプログラムを実行する能力があるため、性能面での問題は発生しない。又、この待機用計算機管理装置7−1は、計算機管理装置2台分のハードウェアリソースを削減することができる。
(計算機システムの第3の実施の形態)
図10は、計算機システムの第3の実施の形態のブロック図である。図10において、図1、図2、図9で示したものと同一のものは、同一の記号で示してある。図10に示すように、第1のシステム6Aは、ハードウェア1Aと第1の管理装置8Aと計算機管理装置7−2を有する。ハードウェア1Aは、制御線9B、9Cを介し第1の管理装置8Aに接続する。第1の管理装置8Aはネットワーク9Aを介し計算機管理装置7−2に接続する。計算機管理装置7−2は、外部サーバで構成され、運用(Active)状態に使用される。計算機管理装置7−2は、仮想マシンで構成されておらず、ハードウェア1Aの監視、制御を行う。
第2のシステム6Bは、ハードウェア1Bと第1の管理装置8Bと計算機管理装置7−3を有する。ハードウェア1Bは、制御線9B、9Cを介し第1の管理装置8Bに接続する。第1の管理装置8Bはネットワーク9Aを介し計算機管理装置7−3に接続する。計算機管理装置7−3は、外部サーバで構成され、運用(Active)状態に使用される。計算機管理装置7−3は、仮想マシンで構成されておらず、ハードウェア1Aの監視、制御を行う。
更に、待機系(Stanby)用の計算機管理装置7−1を設ける。待機系の計算機管理装置7−1は、ネットワーク9Aを介し各システム6A、6Bに設けられた第1の管理装置(図では、Primitive Access SPと記す)8A、8Bと接続する。待機系の計算機管理装置7−1は、仮想計算機で構成される。即ち、待機系の計算機管理装置7−1は、第1のサービスプロセッサプログラム70と、第2のサービスプロセッサプログラム71と、物理メモリ(図示せず)と物理CPU(図示せず)とを有する。そして、図4で説明したように、待機系の計算機管理装置7−1では、VM(仮想マシン、仮想SPボード)層(プログラム)14が、各プログラム70、71と物理メモリ(図示せず)と物理CPUとの間に設けられる。
第1の管理装置8A、8Bと計算機管理装置7−1、7−2との間のインタフェース(TCP/IP)はハードウェアに非依存であるため、図10に示すように、運用系の計算機管理装置7−2、7−3は従来と同様に、システムの筐体の中に実装し、冗長系の待機用計算機管理装置7−1は筐体の外で、ネットワーク接続する。この形態をハイブリッド型の構成と称す。
このように、ハイブリッド型の構成では、待機用計算機管理装置7−1を複数のシステムで共有することができ、コストを削減することができる。従来は、CPU数の少ないLow ENDモデル等では、コスト面の問題からサービスプロセッサを冗長化できない問題があった。このハイブリッド型構成により、待機用計算機管理装置7−1のコストを削減でき、コストを問題ないレベルにすることが可能である。又、前述したとおり、待機用計算機管理装置7−1が必要となることは現実的には少ないので、実際の運用面での問題もほとんどない。
(計算機システムの第4の実施の形態)
図11は、計算機システムの第4の実施の形態のブロック図である。図11において、図1、図2、図9で示したものと同一のものは、同一の記号で示してある。図11に示すように、計算機管理装置7は、図1で説明した構成と同一のものである。図11では、計算機管理装置7は外部サーバで構成され、運用(Active)状態に使用される。
第1のシステム6Aは、ハードウェア1Aと第1の管理装置8Aとを制御線9B、9Cを介し接続する。ハードウェア1Aは大規模な計算機システムで構成される。これをハイエンドシステムと称す。第1の管理装置8Aはネットワーク9Aを介し計算機管理装置7に接続する。計算機管理装置7は、外部サーバで構成され、運用(Active)状態に使用される。計算機管理装置7は、仮想マシンで構成されており、ハイエンド制御用のサービスプロセッサプログラムSP1を実行して、ハードウェア1Aの監視、制御を行う。
第2、第3のシステム6B、6Cは、ハードウェア1B、1Cと第1の管理装置8B、8Cとを制御線9B、9Cを介し接続する。ハードウェア1B、1Cは中規模な計算機システムで構成される。これをミッドレンジシステムと称す。第1の管理装置8B、8Cはネットワーク9Aを介し計算機管理装置7に接続する。計算機管理装置7は、ミッドレンジ制御用のサービスプロセッサプログラムSP2、SP3を実行して、ハードウェア1B、1Cの監視、制御を行う。
第4のシステム6Dは、ハードウェア1Dと第1の管理装置8Dとを制御線9B、9Cを介し接続する。ハードウェア1Dは小規模な計算機システムで構成される。これをローエンドシステムと称す。第1の管理装置8Dはネットワーク9Aを介し計算機管理装置7に接続する。計算機管理装置7は、ローエンド制御用のサービスプロセッサプログラムSP4を実行して、ハードウェア1Dの監視、制御を行う。
このように、システム側が異なるハードウェア構成であっても、計算機管理装置7を仮想マシン(VM)で実現するため、異なる機種間のサービスプロセッサ機能を、1台の外部サーバ7に統合することが可能となる。
更に、待機系(Stanby)用の計算機管理装置7−1を設ける。待機系の計算機管理装置7−1は、ネットワーク9Aを介し各システム6A、6B、6C、6Dに設けられた第1の管理装置(図では、Primitive Access SPと記す)8A、8B、8C、8Dと接続する。待機系の計算機管理装置7−1は、仮想計算機で構成される。即ち、待機系の計算機管理装置7−1は、サービスプロセッサプログラムSP1〜SP4と、物理メモリ(図示せず)と物理CPUとを有する。そして、図4で説明したように、待機系の計算機管理装置7−1では、VM(仮想マシン、仮想SPボード)層(プログラム)14が、各プログラムSP1〜SP4と物理メモリ(図示せず)と物理CPUとの間に設けられる。
このように、大規模な計算機で構成されるハイエンド機、中規模な計算機で構成されるミッドレンジ機、小規模な計算機で構成されるローエンド機を混在しても、待機用計算機管理装置7−1を、1台の外部サーバに統合することが可能となる。
(計算機システムの第5の実施の形態)
図12は、計算機システムの第5の実施の形態のブロック図である。図15において、図1、図2、図9で示したものと同一のものは、同一の記号で示してある。図11に示すように、リモートセンター100が、N(N>1で整数)台のシステム6A〜6Nにネットワークを介し接続する。
第1のシステム6Aは、ハードウェア1Aと第1の管理装置8Aと計算機管理装置7Aを有する。ハードウェア1Aは、制御線9B、9Cを介し第1の管理装置8Aに接続する。第1の管理装置8Aはネットワーク9Aを介し計算機管理装置7Aに接続する。計算機管理装置7Aは、運用(Active)状態に使用される。計算機管理装置7Aは、仮想マシンで構成されておらず、ハードウェア1Aの監視、制御を行う。
第Nのシステム6Nは、ハードウェア1Nと第1の管理装置8Nと計算機管理装置7Nを有する。ハードウェア1Nは、制御線9B、9Cを介し第1の管理装置8Nに接続する。第1の管理装置8Nはネットワーク9Aを介し計算機管理装置7Nに接続する。計算機管理装置7Nは、運用(Active)状態に使用される。計算機管理装置7Nは、仮想マシンで構成されておらず、ハードウェア1Nの監視、制御を行う。
更に、リモートセンター100に待機系(Stanby)用の計算機管理装置の機能を設ける。リモートセンター100は、ネットワーク9Aを介し各システム6A、6Nに設けられた第1の管理装置(図では、Primitive Access SPと記す)8A、8Nと接続する。リモートセンター100は、仮想計算機で構成される。即ち、リモートセンター100は、各サービスプロセッサプログラム7A−1〜7A−Nと、物理メモリ(図示せず)と物理CPU(図示せず)とを有する。そして、図4で説明したように、リモートセンター100では、VM(仮想マシン、仮想SPボード)層(プログラム)14が、各プログラム7A−1〜7A−Nと物理メモリと物理CPUとの間に設けられる。
第1の管理装置8A、8Bと計算機管理装置7A、7Nとの間のインタフェース(TCP/IP)はハードウェアに非依存であるため、図12に示すように、運用系の計算機管理装置7A、7Nは従来と同様に、システムの筐体の中に実装する。一方、冗長系の待機用計算機管理機能は、リモートセンター100に搭載し、システムとネットワーク接続する。この形態は、ハイブリッド型の構成の変形例である。
このように、待機用計算機管理機能をリモートセンター100に集約することができ、よりコストを削減することができる。又、前述したとおり、待機用計算機管理装置が必要となることは現実的には少ないので、実際の運用面での問題もほとんどない。多くの待機用計算機管理装置を集約すればするほど、コスト的なメリットも増大し、安価に信頼性を確保するサービスを提供することができる。
(他の実施の形態)
前述の図10の実施の形態では、2つのシステムで待機用計算機管理装置7−1を共用しているが、3台以上のシステムで待機用計算機管理装置7−1を共用してもよい。又、ハードウェアの構成は、図2の構成に限らず、他のCPU、メモリを含むハードウェアに適用できる。
以上、本発明を実施の形態により説明したが、本発明の趣旨の範囲内において、本発明は、種々の変形が可能であり、本発明の範囲からこれらを排除するものではない。
サービスプロセッサを、ハードウェアのアクセス等の原始的な処理を行う第1の管理装置と、ハードウェアの監視等の複雑な処理を行う計算機管理装置とに分離し、且つ計算機管理装置に、複数のハードウェアのハードウェア制御を行う仮想計算機を実装したので、複数のサービスプロセッサを少数のハードウェアで実現できる。このため、サービスプロセッサに要するCPUやメモリ、ストレージ等のコストを削減することができる。又、第1の管理装置は、各システムに設けるため、ハードウェアとの制御信号のやり取りの遅延を防止でき、サービスプロセッサの処理速度の低下を防止できる。更に、計算機管理装置を仮想計算機で構成したので、計算機管理装置のハードウェアを意識しなくてよくなり、長期間にわたって同じアーキテクチャ上のサービスプロセッサのソフトウェアを使用できる。
1A、1B、1C 電子計算機システムのハードウェア
7、7−1、7−2、7A、7B、7N 計算機管理装置
6A、6B、6C、6N 電子計算機システム
8A、8B、8C 第1の管理装置
9A ネットワーク
9B、9C 制御線
10 物理CPU
12 物理メモリ
14 仮想マシン
70〜72 サービスプロセッサプログラム

Claims (15)

  1. 複数の電子計算機システムの管理を行う計算機管理装置であって、
    前記電子計算機システムの各々に設けられ、前記電子計算機のハードウェアにアクセスする機能及びネットワーク通信機能を有する複数の第1管理部とネットワークを介して接続するネットワーク通信回路部と、
    仮想計算機で構成され、前記ネットワーク通信回路部を介し、前記第1管理部の各々に対して前記ハードウェアへのアクセス指示を行い、サービスプロセッサとして前記電子計算機のハードウェアの監視及び制御を行う第2管理部とを有する、
    ことを特徴とする計算機管理装置。
  2. 請求項1に記載の計算機管理装置であって、
    前記第2管理部は、
    前記電子計算機のハードウェアへアクセスして所定の情報の読み出しを行うための読み出し指示情報を、前記ネットワークを介して前記第1管理部に対して送信し、
    前記読み出し指示情報に基づいて前記第1管理部が読み出した読出情報を前記ネットワークを介して受信し、
    受信した読出情報に基づいて前記電子計算機のハードウェアの制御を行うための情報を前記電子計算機のハードウェアに書き込むための書き込み指示情報を前記ネットワークを介して前記第1管理部に対して送信する
    ことを特徴とする計算機管理装置。
  3. 請求項1乃至2のいずれか一つに記載の計算機管理装置であって、
    運用中の前記電子計算機のハードウェアの監視及び制御を行う前記第2管理部を備える第1の仮想計算機と、
    前記第1の仮想計算機が故障した場合に、前記第1の仮想計算機の代わりに前記第2管理部を実現する第2の仮想計算機と
    を備えることを特徴とする計算機管理装置。
  4. 請求項1乃至3のいずれか一つに記載の計算機管理装置であって、
    前記仮想計算機により実現される前記第2管理部は、複数のネットワーク・インターフェースを有し、前記複数のネットワーク・インターフェースのうちの一つを、前記ネットワーク通信回路を介した前記電子計算機の第1管理部との接続に用いる
    ことを特徴とする計算機管理装置。
  5. 請求項4に記載の計算機管理装置であって、
    前記電子計算機の第1管理部との接続に用いるネットワーク・インターフェースからの割り込み優先度を、他のネットワーク・インターフェースからの割り込み優先度よりも高くした
    ことを特徴とする計算機管理装置。
  6. 請求項1乃至5のいずれか一つに記載の計算機管理装置であって、
    前記電子計算機のハードウェアを監視及び制御を行うための前記電子計算機内の第1管理部とネットワークを介して接続された前記電子計算機システム内に設けられた第2管理部を更に有し、
    前記電子計算機システム内に設けられた第2管理部が故障した場合に、前記仮想計算機により実現された第2管理部は、前記電子計算機内の該故障した第2管理部に代えて、前記電子計算機内の第1管理部と接続し、前記電子計算機のハードウェアの監視及び制御を行う
    ことを特徴とする計算機管理装置。
  7. 請求項3に記載の計算機管理装置であって、
    前記仮想計算機は、複数の異なる電子計算機を管理するための、各電子計算機に対応した複数の第2管理部の機能を実現する
    ことを特徴とする計算機管理装置。
  8. 複数の電子計算機システムの管理を行う計算機管理システムであって、
    前記電子計算機システムの各々に設けられ、前記電子計算機のハードウェアにアクセスする機能及びネットワーク通信機能を有する複数の第1管理部と、
    前記複数第1の管理部とネットワークを介して接続するネットワーク通信回路部と、前記ネットワーク通信回路部を介し、前記第1管理部の各々に対して前記ハードウェアへのアクセス指示を行い、サービスプロセッサとして前記電子計算機のハードウェアの監視及び制御を行う第2管理部とを有する仮想計算機で構成された計算機管理装置とを有する、
    ことを特徴とする計算機管理システム。
  9. 請求項8に記載の計算機管理システムであって、
    前記第2管理部は、
    前記電子計算機のハードウェアへアクセスして所定の情報の読み出しを行うための読み出し指示情報を、前記ネットワークを介して前記第1管理部に対して送信し、
    前記読み出し指示情報に基づいて前記第1管理部が読み出した読出情報を前記ネットワークを介して受信し、
    受信した読出情報に基づいて前記電子計算機のハードウェアの制御を行うための情報を前記電子計算機のハードウェアに書き込むための書き込み指示情報を前記ネットワークを介して前記第1管理部に対して送信する
    ことを特徴とする計算機管理システム。
  10. 請求項8乃至9のいずれか一つに記載の計算機管理システムであって、
    運用中の前記電子計算機のハードウェアの監視及び制御を行う前記第2管理部を備える第1の仮想計算機と、
    前記第1の仮想計算機が故障した場合に、前記第1の仮想計算機の代わりに前記第2管理部を実現する第2の仮想計算機とを備える
    ことを特徴とする計算機管理システム。
  11. 請求項8乃至10のいずれか一つに記載の計算機管理システムであって、
    前記仮想計算機により実現される前記第2管理部は、複数のネットワーク・インターフェースを有し、前記複数のネットワーク・インターフェースのうちの一つを、前記ネットワーク通信回路を介した前記電子計算機の第1管理部との接続に用いる
    ことを特徴とする計算機管理システム。
  12. 請求項11に記載の計算機管理システムであって、
    前記電子計算機の第1管理部との接続に用いるネットワーク・インターフェースからの割り込み優先度を、他のネットワーク・インターフェースからの割り込み優先度よりも高くした
    ことを特徴とする計算機管理システム。
  13. 請求項8乃至12のいずれか一つに記載の計算機管理システムであって、
    前記電子計算機のハードウェアを監視及び制御を行うための前記電子計算機内の第1管理部とネットワークを介して接続された前記電子計算機システム内に設けられた第2管理部を更に有し、
    前記電子計算機システム内に設けられた第2管理部が故障した場合に、前記仮想計算機により実現された第2管理部は、前記電子計算機内の該故障した第2管理部に代えて、前記電子計算機内の第1管理部と接続し、前記電子計算機のハードウェアの監視及び制御を行う
    ことを特徴とする計算機管理システム。
  14. 請求項10に記載の計算機管理システムであって、
    前記仮想計算機は、複数の異なる電子計算機を管理するための、各電子計算機に対応した複数の第2管理部の機能を実現する
    ことを特徴とする計算機管理システム。
  15. 複数の電子計算機システムと、
    前記電子計算機システムの各々に設けられ、前記電子計算機のハードウェアにアクセスする機能及びネットワーク通信機能を有する複数の第1管理部と、
    前記複数の第1の管理部とネットワークを介して接続するネットワーク通信回路部と、前記ネットワーク通信回路部を介し、前記第1管理部の各々に対して前記ハードウェアへのアクセス指示を行い、サービスプロセッサとして前記電子計算機のハードウェアの監視及び制御を行う第2管理部とを有する仮想計算機とを有する、
    ことを特徴とする計算機システム。
JP2012529430A 2010-08-18 2010-08-18 計算機管理装置、計算機管理システム及び計算機システム Active JP5549733B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2010/063913 WO2012023183A1 (ja) 2010-08-18 2010-08-18 計算機管理装置、計算機管理システム及び計算機システム

Publications (2)

Publication Number Publication Date
JPWO2012023183A1 true JPWO2012023183A1 (ja) 2013-10-28
JP5549733B2 JP5549733B2 (ja) 2014-07-16

Family

ID=45604857

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012529430A Active JP5549733B2 (ja) 2010-08-18 2010-08-18 計算機管理装置、計算機管理システム及び計算機システム

Country Status (4)

Country Link
US (1) US20130151885A1 (ja)
EP (1) EP2608046A1 (ja)
JP (1) JP5549733B2 (ja)
WO (1) WO2012023183A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6060781B2 (ja) * 2013-04-03 2017-01-18 三菱電機株式会社 障害診断装置およびプログラム
US10728084B2 (en) * 2016-04-11 2020-07-28 Quanta Computer Inc. Virtualized rack management modules
CN106452846A (zh) * 2016-09-22 2017-02-22 华为技术有限公司 故障处理方法、虚拟架构管理系统和业务管理系统
DE102017119379A1 (de) 2017-08-24 2019-02-28 Fujitsu Technology Solutions Intellectual Property Gmbh Systemboard für ein Computersystem, Computersystem mit einem solchen Systemboard sowie Verfahren zur Out-of-Band-Überwachung eines Computersystems
JP2019149053A (ja) * 2018-02-27 2019-09-05 富士通株式会社 情報処理装置、情報処理装置の制御方法及び情報処理装置の制御プログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002229806A (ja) * 2001-02-02 2002-08-16 Hitachi Ltd 計算機システム
JP2004086522A (ja) * 2002-08-27 2004-03-18 Fujitsu Access Ltd 通信ネットワーク監視システム
JP2004318878A (ja) * 2003-04-10 2004-11-11 Internatl Business Mach Corp <Ibm> 論理的に区分されたコンピュータ・システムにおける仮想リアルタイム・クロックの維持
JP2008250421A (ja) * 2007-03-29 2008-10-16 Hitachi Ltd ストレージ保守・管理装置の冗長化方法、及びその方法を使用する装置
JP2009239374A (ja) * 2008-03-26 2009-10-15 Nec Corp 仮想計算機システム及びパケット送信制御方法並びにそれに用いるネットワークインターフェースカード
JP2009258978A (ja) * 2008-04-16 2009-11-05 Hitachi Ltd 計算機システム及び通信経路の監視方法
WO2010056742A1 (en) * 2008-11-11 2010-05-20 Molycorp Minerals Llc Target material removal using rare earth metals

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100619960B1 (ko) * 2004-11-22 2006-09-08 엘지전자 주식회사 인터넷을 통한 디버깅 장치의 원격 제어 장치 및 방법
US20070094659A1 (en) * 2005-07-18 2007-04-26 Dell Products L.P. System and method for recovering from a failure of a virtual machine
US7383478B1 (en) * 2005-07-20 2008-06-03 Xilinx, Inc. Wireless dynamic boundary-scan topologies for field
US8924524B2 (en) * 2009-07-27 2014-12-30 Vmware, Inc. Automated network configuration of virtual machines in a virtual lab data environment
US7962553B2 (en) * 2006-07-31 2011-06-14 Hewlett-Packard Development Company, L.P. Method and system for distribution of maintenance tasks in a multiprocessor computer system
US7707185B1 (en) * 2006-10-19 2010-04-27 Vmware, Inc. Accessing virtual data storage units to offload operations from a computer system hosting a virtual machine to an offload server
US7873712B2 (en) * 2008-11-13 2011-01-18 Netapp, Inc. System and method for aggregating management of devices connected to a server
US9116724B2 (en) * 2009-05-15 2015-08-25 Red Hat, Inc. Stateless virtual machine

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002229806A (ja) * 2001-02-02 2002-08-16 Hitachi Ltd 計算機システム
JP2004086522A (ja) * 2002-08-27 2004-03-18 Fujitsu Access Ltd 通信ネットワーク監視システム
JP2004318878A (ja) * 2003-04-10 2004-11-11 Internatl Business Mach Corp <Ibm> 論理的に区分されたコンピュータ・システムにおける仮想リアルタイム・クロックの維持
JP2008250421A (ja) * 2007-03-29 2008-10-16 Hitachi Ltd ストレージ保守・管理装置の冗長化方法、及びその方法を使用する装置
JP2009239374A (ja) * 2008-03-26 2009-10-15 Nec Corp 仮想計算機システム及びパケット送信制御方法並びにそれに用いるネットワークインターフェースカード
JP2009258978A (ja) * 2008-04-16 2009-11-05 Hitachi Ltd 計算機システム及び通信経路の監視方法
WO2010056742A1 (en) * 2008-11-11 2010-05-20 Molycorp Minerals Llc Target material removal using rare earth metals

Also Published As

Publication number Publication date
WO2012023183A1 (ja) 2012-02-23
US20130151885A1 (en) 2013-06-13
JP5549733B2 (ja) 2014-07-16
EP2608046A1 (en) 2013-06-26

Similar Documents

Publication Publication Date Title
US10503618B2 (en) Modular switched fabric for data storage systems
JP4477365B2 (ja) 複数インタフェースを有する記憶装置、および、その記憶装置の制御方法
EP3158455B1 (en) Modular switched fabric for data storage systems
US20200142752A1 (en) Physical partitioning of computing resources for server virtualization
US8037364B2 (en) Forced management module failover by BMC impeachment consensus
US8176501B2 (en) Enabling efficient input/output (I/O) virtualization
JP5959733B2 (ja) ストレージシステムおよびストレージシステムの障害管理方法
JP5561622B2 (ja) 多重化システム、データ通信カード、状態異常検出方法、及びプログラム
US20240012777A1 (en) Computer system and a computer device
US20140006676A1 (en) Systems and methods for dynamic allocation of information handling resources
US11218543B2 (en) System and method to configure, manage, and monitor stacking of Ethernet devices in a software defined network
US11157204B2 (en) Method of NVMe over fabric RAID implementation for read command execution
JP5549733B2 (ja) 計算機管理装置、計算機管理システム及び計算機システム
US7562111B2 (en) Multi-processor architecture with high capacity I/O
EP2370897A2 (en) Composite device emulation
US11436182B2 (en) System and method for handling in-band interrupts on inactive I3C channels
US20070294600A1 (en) Method of detecting heartbeats and device thereof
CN216352292U (zh) 服务器主板及服务器
WO2013027297A1 (ja) 半導体装置、管理装置、及びデータ処理装置
US20240028201A1 (en) Optimal memory tiering of large memory systems using a minimal number of processors
US11740838B2 (en) Array-based copy utilizing one or more unique data blocks
US20240020174A1 (en) Memory disaggregation in a multi-node environment
KR20230053496A (ko) 인터커넥트를 통해 장치 운영 체제에 액세스하기 위한 시스템, 방법 및 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140422

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140505

R150 Certificate of patent or registration of utility model

Ref document number: 5549733

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150