JP2005056392A - Method and device for validity inspection of resource regarding geographical mirroring and for ranking - Google Patents

Method and device for validity inspection of resource regarding geographical mirroring and for ranking Download PDF

Info

Publication number
JP2005056392A
JP2005056392A JP2004173796A JP2004173796A JP2005056392A JP 2005056392 A JP2005056392 A JP 2005056392A JP 2004173796 A JP2004173796 A JP 2004173796A JP 2004173796 A JP2004173796 A JP 2004173796A JP 2005056392 A JP2005056392 A JP 2005056392A
Authority
JP
Japan
Prior art keywords
resource
node
resource pool
switchable
pool
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004173796A
Other languages
Japanese (ja)
Inventor
Michael James Mcdermott
マイケル・ジェイムス・マクダーモット
Amartey Scott Pearson
アマーティ・スコット・ペアーソン
Kiswanto Thayib
キスワント・タイブ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JP2005056392A publication Critical patent/JP2005056392A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • G06F3/0605Improving or facilitating administration, e.g. storage management by facilitating the interaction with a user or administrator
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0631Configuration or reconfiguration of storage systems by allocating resources to storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0634Configuration or reconfiguration of storage systems by changing the state or mode of one or more devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Hardware Redundancy (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve the availability of an entire group, in a computing system group for maintaining a redundant resource at a geographically dispersed location. <P>SOLUTION: For managing a resource in a node operating as one portion of the computing system group that is dispersed geographically, the resource is configured regarding the usage, the availability of the resource is inspected regarding a resource pool, and one of them is selected. The resource includes at least one disk unit which is configured as a disk pool for switching the resource pool. Additionally, the availability of each disk unit is ranked regarding the resource pool, and at least one valid disk unit is selected. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、概してコンピュータ・リソースのマネジメントに関する。より詳細に述べると、本発明は、物理的に分散されているリソース・プールに関するリソースのコンフィギュレーションならびにアクセス可能性に関する。   The present invention generally relates to the management of computer resources. More particularly, the present invention relates to resource configuration and accessibility for physically distributed resource pools.

最近の、大企業の販売もしくは製造オペレーションといったエンタープライズ・オペレーションの用に供するコンピュータ・システムは、長期間にわたって使用不能となることが許されない。伝統的に障害リカバリは、たとえば電源遮断、自然災害、サイトの災害、システム・ハードウエアまたはソフトウエアのエラー、アプリケーションの誤動作、および破壊行為による故意の動作に起因するスケジュールされていないダウンタイムに焦点が当てられてきた。スケジュールされていないダウンタイムは、通常、コンピュータ・リソースの使用不能を招き、その結果、リモート・リカバリ・サイトからのバックアップ・システムが使用されてオペレーションが復帰される。ビジネスの中断は、長時間に渡り、場合によっては数日に及ぶこともある。   Recent computer systems that serve enterprise operations, such as large corporate sales or manufacturing operations, are not allowed to be unavailable for extended periods of time. Traditionally, disaster recovery focuses on unscheduled downtime due to, for example, power outages, natural disasters, site disasters, system hardware or software errors, application malfunctions, and deliberate behavior due to vandalism Has been hit. Unscheduled downtime usually results in the loss of computer resources, so that the backup system from the remote recovery site is used and operations are restored. Business interruptions can be long and in some cases days.

近年の電子商取引では、連続的なシステム可用性およびスケジュールされたダウンタイムからの保護が求められる。スケジュールされたシステム(たとえばサーバ)のダウンタイムもしくは遮断の間は、ユーザ(たとえばクライアント)に対してシステムが意図的な使用不能状態に設定される。これらのスケジュールされたダウンタイムは、システムのオペレーションに分断をもたらし、適応も困難である。スケジュールされたダウンタイム/遮断の例としては、新しいオペレーティング・システムおよびアプリケーション・ソフトウエアのリリースのインストール、システムのハードウエア・アップグレード、追加、削除、ならびにメンテナンス、システムのバックアップ、サイトのメンテナンス、およびプログラムの一時的な修正(PTF)の適用が挙げられる。『連続的可用性(continuous availability)』を有するシステムは、スケジュールされた遮断ならびにスケジュールされていない遮断のいずれも有することのないシステムとして定義される。   Modern electronic commerce requires continuous system availability and protection from scheduled downtime. During scheduled system (eg, server) downtime or shutdown, the system is intentionally disabled for users (eg, clients). These scheduled downtimes can disrupt system operation and are difficult to adapt. Examples of scheduled downtime / shutdown include installation of new operating system and application software releases, system hardware upgrades, additions, deletions and maintenance, system backup, site maintenance, and programs Application of temporary correction (PTF). A system with “continuous availability” is defined as a system that has neither scheduled interruptions nor unscheduled interruptions.

システムの可用性を向上させ、かつ強化するための1つの方法は、クラスタ化されたシステムを使用する。クラスタは、単一サイトにおいてローカライズされているか、複数サイトに分散され、単一の統合されたコンピューティング・ケイパビリティを提供するべくすべてが協働して共通動作を行うコンピュータ・システム・ノードの集合である。クラスタ化されたシステムは、データベース・サーバまたはアプリケーション・サーバ等のコンピューティング・システムにフェイルオーバおよびスイッチオーバ・ケイパビリティを提供する。システムの遮断もしくはサイトのロスが生じた場合には、クラスタ化されたプライマリ・サーバ・システム上に提供されている機能を、リソースの現在のコピー(レプリカ)を含む1ないし複数の専用バックアップ・システムへ、スイッチオーバ(またはフェイルオーバ)することができる。フェイルオーバは、スケジュールされていない遮断のために自動化することができる。スケジュールされた遮断の場合には、スイッチオーバを、スケジュールされた遮断手続きの一部として自動的に、あるいはマニュアルで起動することができる。   One way to improve and enhance system availability uses a clustered system. A cluster is a collection of computer system nodes that are either localized at a single site or distributed across multiple sites and all work together to provide a single integrated computing capability. is there. Clustered systems provide failover and switchover capabilities for computing systems such as database servers or application servers. One or more dedicated backup systems, including current copies (replicas) of resources, that provide the functionality provided on the clustered primary server system in the event of system interruption or site loss Switchover (or failover). Failover can be automated for unscheduled interruptions. In the case of a scheduled shutdown, the switchover can be triggered automatically as part of the scheduled shutdown procedure or manually.

クラスタ・リソース・グループは、クラスタのサブセットであり、多数のメンバを有するが、通常、それらのメンバの1つをそのクラスタ・リソース・グループに関するプライマリ・メンバとして定義する。プライマリ・メンバは、そのグループに関するプライマリ・アクセス・ポイントであり、そのグループによって現在使用されているリソースをホストする。グループ内のそのほかの、プライマリ・メンバの機能を肩代わりできるべく適切にコンフィギュレーションがなされたメンバ、すなわちプライマリ・メンバの機能を肩代わりするべく適切にリソースのコンフィギュレーションがなされているノードは、バックアップ・メンバと呼ばれる。一例においては、バックアップ・メンバが冗長リソースをホストする。別の例においては、バックアップ・メンバが、通常はプライマリ・メンバによってホストされているプライマリ・リソースに対するアクセスを有することができる。プライマリ・メンバがフェイルした場合には、バックアップ・メンバがそのプライマリ・メンバの役割を肩代わりする。バックアップ・メンバは、プライマリ・メンバの機能を肩代わりするとき、以前のプライマリ・メンバのリソースを引き継ぐか、あるいはその冗長リソースをプライマリ・リソースとする変更を行う。   A cluster resource group is a subset of a cluster and has a large number of members, but typically defines one of those members as the primary member for that cluster resource group. A primary member is a primary access point for the group and hosts resources currently used by the group. Any other member of the group that is appropriately configured to take over the function of the primary member, that is, a node that is appropriately configured to take over the function of the primary member, is a backup member. Called. In one example, a backup member hosts redundant resources. In another example, a backup member can have access to primary resources that are normally hosted by the primary member. If the primary member fails, the backup member assumes the role of the primary member. When the backup member takes over the function of the primary member, the backup member takes over the resource of the previous primary member or changes the redundant resource to be the primary resource.

フェイルオーバまたはスイッチオーバを生じる場合には、サーバ・オペレーティング・システムの一部とすることが可能であり、かつすべてのシステム上において実行することのできるクラスタ・リソース・サービス(CRS)が、プライマリ・システムからバックアップ・システムへのスイッチオーバを提供する。このスイッチオーバは、エンド・ユーザもしくはサーバ・システム上において実行中のアプリケーションへ最小限の影響を与える。データ要求は、バックアップ・システム(つまり新しいプライマリ・システム)へ自動的に再ルーティングされる。またクラスタ・リソース・サービスは、クラスタへのシステムの自動的な再導入または再結合のための手段を提供し、再結合されたシステムのオペレーション・ケイパビリティを復元する。   In the event of a failover or switchover, a cluster resource service (CRS) that can be part of the server operating system and can run on all systems is the primary system. Provides a switchover from to backup system. This switchover has minimal impact on the application running on the end user or server system. Data requests are automatically rerouted to the backup system (ie, the new primary system). The cluster resource service also provides a means for automatic reintroduction or rejoining of the system to the cluster and restores the operational capabilities of the rejoined system.

システムの可用性をさらに向上させ、強化するための別の方法は、コンピューティング・システムならびにコンピュータ・リソース、たとえばデータ・ストレージ・ユニット等を地理的に分散させることを伴う。その種の地理的に分散されたコンピュータ・システムにおいては、異なる地理的サイトが1ないしは複数のコンピュータ・サブシステム、またはノードを有し、それらが、同じくそのサイトに配置されるコンピュータ・リソースをコントロールし、あるいはホストすることができる。コンピューティング・システムのノードならびにリソースを有する複数の地理的ロケーションのそれぞれは、『サイト』と呼ばれる。地理的に分散されたコンピューティング・システムの部分を含む複数のサイトは、概して、すべてのサイトおよびそれらのサイトに配置されたコンピュータ・ノードの間におけるデータ交換をサポートするデータ通信システムを用いて相互接続される。物理的に分散されたコンピュータ・システムの一部となる個々のコンピューティング・ノードは、概して、そのノードと同じ場所に配置されたデータ・ストレージ・デバイス、プリンタ、およびそのほかの共有周辺デバイスといったリソースへの直接アクセスを有している。これらのシステムは、冗長な、データ・ストレージ・ユニット等のリソースを一般に維持しており、それらは、プライマリ・リソースの複製を含んでいる。通常、これらの冗長リソースは、必要であれば、コンフィギュレーションを迅速に行ってプライマリ・リソースにすることが可能である。地理的に分散されたコンピューティング・システムは、リソースのミラーリング・データをプライマリ・サイトから別のサイトへ伝達することによって、冗長リソースを維持している。グループ内における冗長リソースの維持は、そのグループのオペレーションに関するシングル・ポイント故障を回避する。   Another way to further improve and enhance system availability involves geographically distributing computing systems as well as computer resources such as data storage units. In such geographically distributed computer systems, different geographic sites have one or more computer subsystems, or nodes, that also control computer resources located at that site. Or can be hosted. Each of a plurality of geographical locations having nodes and resources of a computing system is called a “site”. Multiple sites, including parts of a geographically distributed computing system, generally interact with each other using a data communication system that supports data exchange between all sites and computer nodes located at those sites. Connected. Individual computing nodes that are part of a physically distributed computer system are generally to resources such as data storage devices, printers, and other shared peripheral devices that are co-located with the node. Have direct access. These systems typically maintain redundant resources such as data storage units, which include a copy of the primary resource. Typically, these redundant resources can be quickly configured to become primary resources if needed. Geographically distributed computing systems maintain redundant resources by communicating resource mirroring data from the primary site to another site. Maintaining redundant resources within a group avoids a single point of failure for the operation of that group.

データは、1ないしは複数のサーバ・システムに接続されたディスク・プール内へストアすることができる。ディスク・プールは、ディスク・ユニットのタワーおよび独立ディスクの冗長アレイ(RAID)等のディスク・ユニットのセットである。ディスク・プールは、そのディスク・プールのディスク・ユニットを包含するハードウエア・エンティティの所有権をプライマリ・システムからバックアップ・システムへ切り替えることによって、プライマリ・システムからバックアップ・システムへ切り替えられる。しかしながら、ディスク・プール内のディスク・ユニットは、適正なハードウエア・エンティティ(たとえば、プライマリ・システムならびにバックアップ・システムがアクセスできるタワー)内に物理的に配置されていなければならず、また多くのコンフィギュレーションならびにハードウエア配置規則に従っていなければならない。ユーザもまた、ディスク・プールに関してディスク・ユニットを選択するとき、およびそのディスク・プールへアクセスするためのプライマリ・システムならびにバックアップ・システムを選択するとき、それらのコンフィギュレーションならびにハードウエア置換規則に従わなければならない。それを怠ると、スイッチオーバが試みられたとき、もしくはフェイルオーバが生じたときに、そのディスク・プールをプライマリ・システムおよび/またはバックアップ・システムが利用できなくなることがある。さらにユーザは、ハードウエア・コンフィギュレーションを変更するときにもこれらの規則に従わなければならない。ユーザは、ディスク・ユニットならびにクラスタ・システムのコンフィギュレーションを適正に行うために、このコンフィギュレーションならびにハードウエア置換規則を理解し、それに従う責任がある。しかしながら、コンフィギュレーションならびにハードウエア置換規則の複雑性に起因して、ユーザには試行錯誤状態が余儀なくされ、スイッチオーバが生じたときに使用不能なディスク・ユニットがもたらされることもあり得る。   Data can be stored in a disk pool connected to one or more server systems. A disk pool is a set of disk units, such as a tower of disk units and a redundant array of independent disks (RAID). A disk pool is switched from the primary system to the backup system by switching ownership of the hardware entity containing the disk unit of the disk pool from the primary system to the backup system. However, the disk units in the disk pool must be physically located in the appropriate hardware entity (eg, a tower accessible to the primary system as well as the backup system), and many configurations And hardware placement rules. Users must also follow their configuration and hardware replacement rules when selecting disk units for a disk pool and when selecting primary and backup systems to access the disk pool. I must. Failure to do so may make the disk pool unavailable to the primary and / or backup system when a switchover is attempted or when a failover occurs. In addition, the user must follow these rules when changing the hardware configuration. The user is responsible for understanding and following this configuration and hardware replacement rules in order to properly configure the disk unit and cluster system. However, due to the complexity of the configuration as well as the hardware replacement rules, users may be forced to try and error, resulting in a disk unit that is unusable when a switchover occurs.

地理的に分散されたコンピューティング・システムは、サーバ・システムに対するディスク・プール等のリソースの割り当てに、追加の条件を導入する。ディスク・プール等のリソースは、一般に同一の物理サイトに配置されたコンピュータ・システムに対して割り当てられる。1つのサイトに配置されたコンピュータ・システムは、別のサイトに配置されている、たとえばディスク・プールをホストすることが一般にできない。従来のコンピュータ・リソース・グループは、概して、そのコンピュータ・リソース・グループ内のすべてのノードが、そのコンピュータ・リソース・グループに割り付けられているすべてのリソースへのアクセスを有するように、すべてのノードならびにリソースが同じ場所に配置されることを要求し、そのため、コンピュータ・リソース・グループの柔軟性が制限される。   Geographically distributed computing systems introduce additional conditions in the allocation of resources such as disk pools to server systems. Resources such as disk pools are generally assigned to computer systems located at the same physical site. A computer system located at one site is generally unable to host a disk pool, eg, located at another site. A traditional computer resource group generally has all nodes as well as all nodes in that computer resource group have access to all resources assigned to that computer resource group, and Requires resources to be co-located, which limits the flexibility of computer resource groups.

したがって、ディスク・プールのコンフィギュレーションを行うとき、同一サイトのシステムに対してディスクのセット(つまり、ディスク・プール、ASPとしても知られる)がアクセス可能となることを保証するためのシステムおよび方法が必要とされている。さらに、ディスク・プール内におけるコンフィギュレーションのための有効なディスク・ユニットの選択を保証することが求められている。   Thus, when configuring a disk pool, a system and method for ensuring that a set of disks (ie, a disk pool, also known as an ASP) is accessible to a system at the same site. is necessary. Furthermore, there is a need to ensure the selection of valid disk units for configuration within a disk pool.

概して言えば、本発明の実施態様は、たとえばコンピューティング・システム・グループ全体の可用性を向上させるために、地理的に分散された場所に冗長なリソースを維持していたコンピューティング・システム・グループにおいて使用するためのシステムおよび方法を提供する。各サイトに維持されているディスク・プール内のディスク・ユニット等のリソースは、1つのサイトのプライマリ・システムと1ないしは複数のバックアップ・ノードの間において切り替えが可能である。それぞれの地理的に離れた場所が『サイト』と呼ばれる。所定のサイトに配置されているプライマリ・システム、バックアップ・システム(数は任意)、および1ないしは複数のリソースは、クラスタとしてコンフィギュレーションが行われ、そのサイトの可用性を向上させることができる。クラスタは、1つのサイトに配置されているか、複数のサイトに分散されているシステムまたはノードのグループとして定義され、それにおいてノードは、ともに単一システムとして働く。そのクラスタ内の各コンピュータ・システムは、クラスタ・ノードと呼ばれる。コンピューティング・システム・グループ内の各サイトは、1ないしは複数のコンピューティング・システムまたはノードを有することが可能であり、例示の実施態様のオペレーションは、ノードを1つだけ伴ってサイトが動作することを許容する。コンピュータ・システム・グループ内の各サイトは、現在のオペレーションのために使用されるプライマリ・リソースを含むプロダクション・サイトとして、あるいはプロダクション・サイトに配置されているプライマリ・リソースをミラーリングする冗長ソースを含むミラー・サイトとしてコンフィギュレーションを行うことができる。本発明の例として示す実施態様は、サイトのリソースの、そのサイトのクラスタまたはコンピュータ・ノードによる使用に関する適正な妥当性検査ならびにランキングを容易にする。サイトのクラスタ内におけるノードの作成、追加、変更、および削除のために、インターフェースのセットが提供されている。   Generally speaking, embodiments of the present invention are useful in computing system groups that maintain redundant resources in geographically distributed locations, for example, to improve the availability of the entire computing system group. Systems and methods for use are provided. Resources such as disk units in a disk pool maintained at each site can be switched between a primary system at one site and one or a plurality of backup nodes. Each geographically distant place is called a “site”. A primary system, a backup system (any number), and one or more resources arranged at a given site are configured as a cluster, and the availability of the site can be improved. A cluster is defined as a group of systems or nodes that are located at one site or distributed across multiple sites, where the nodes work together as a single system. Each computer system in the cluster is called a cluster node. Each site in a computing system group can have one or more computing systems or nodes, and the operations of the illustrated embodiment are for a site to operate with only one node. Is acceptable. Each site in the computer system group is a production site that contains primary resources that are used for current operations, or a mirror that contains redundant sources that mirror primary resources located at the production site.・ You can configure as a site. The illustrated embodiment of the present invention facilitates proper validation and ranking of site resources for use by the site cluster or computer node. A set of interfaces is provided for creating, adding, modifying, and deleting nodes in the site's cluster.

一実施態様においては、同一サイト内に配置されている1ないしは複数のディスク・ユニットの妥当性検査およびランキングを、指定されたディスク・プールに関して行うためのメカニズムが提供される。別の実施態様においては、ディスク・プールへアクセスするプライマリ・ノードとして、あるいはバックアップ・ノードとしてノードのコンフィギュレーションを行う前に、そのディスク・プール内のディスク・ユニットのアクセス可能性を、そのノードに関して検査するためのメカニズムが提供される。さらに別の実施態様では、あるサイトに配置されたプライマリ・システムとバックアップ・システムの間のスイッチオーバを起動するための準備において、そのサイトの複数のノードのクラスタリングを開始するときに、切り替え可能なディスク・プール内のディスク・ユニットの妥当性検査を行うためのメカニズムが提供される。   In one embodiment, a mechanism is provided for validating and ranking one or more disk units located within the same site with respect to a specified disk pool. In another embodiment, before configuring a node as a primary node to access a disk pool or as a backup node, the accessibility of the disk units in that disk pool is determined with respect to that node. A mechanism is provided for inspection. In yet another embodiment, in preparation for initiating a switchover between a primary system and a backup system located at a site, the switchable when initiating clustering of multiple nodes at that site A mechanism is provided for validating the disk units in the disk pool.

簡潔に述べれば、本発明によると、システム内のリソースのマネジメントを行うためのシステム、方法、および信号担持メディアは、システムによる使用のための少なくとも1つのリソースのコンフィギュレーションを含む。システムは、そのリソースを含むサイトに関連付けされる。またこの方法は、その少なくとも1つのリソースの可用性を、リソース・プールに関して検査することも含む。この検査には、システムによるアクセス可能性の決定、およびリソースがそのサイトに配置されていることの検証が含まれる。またこの方法は、この検査(ランキングを含めてもよい)に基づいて、上記の少なくとも1つのリソースのうちの少なくとも1つを、リソース・プールに関して選択することも含む。同一サイトのシステムだけがチェックされて、それらがそのサイトのリソースへのアクセスを有することが保証され、システムは、ほかのサイトのリソースへのアクセスを求めない。   Briefly stated, according to the present invention, a system, method, and signal bearing media for managing resources in a system includes a configuration of at least one resource for use by the system. The system is associated with the site that contains the resource. The method also includes checking the availability of the at least one resource with respect to the resource pool. This check includes determining accessibility by the system and verifying that resources are located at the site. The method also includes selecting at least one of the at least one resource for the resource pool based on this check (which may include ranking). Only systems at the same site are checked to ensure that they have access to resources at that site, and the system does not seek access to resources at other sites.

本発明の別の側面においては、システムがサイトに関連付けされるプライマリ・システムおよびプライマリ・システムに接続されるリソース・プールを有する。さらにこのシステムは、そのリソース・プールに関して、少なくとも1つのリソースの可用性を検査し、かつそのリソース・プールに関して、少なくとも1つの有効なリソースを選択するべくコンフィギュレーションが行われたプロセッサを有する。この可用性の検査は、そのサイトに配置されている少なくとも1つのリソースを、少なくとも部分的に基礎として行われる。   In another aspect of the invention, the system has a primary system associated with the site and a resource pool connected to the primary system. The system further includes a processor configured to check the availability of at least one resource with respect to the resource pool and to select at least one valid resource with respect to the resource pool. This availability check is performed based at least in part on at least one resource located at the site.

以上の、およびこのほかの本発明の特徴ならびに利点は、添付図面に例示されているとおり、以下の本発明の好ましい実施態様のより詳細な説明から明らかなものとなるであろう。   The foregoing and other features and advantages of the present invention will become apparent from the following more detailed description of the preferred embodiments of the invention, as illustrated in the accompanying drawings.

本発明に関する発明の内容は、この明細書を総括する特許請求の範囲において詳細に、かつ明確に示されている。以上の、およびそのほかの本発明の特徴ならびに利点は、これに続く添付図面を参照した詳細な説明から明らかになるであろう。なお、参照番号の最左翼の数字は、その参照番号が最初に現れる図面を識別している。   The content of the invention relating to the invention is set forth in detail and clearly in the claims which summarize this specification. The above and other features and advantages of the present invention will become apparent from the following detailed description with reference to the accompanying drawings. It should be noted that the leftmost digit of the reference number identifies the drawing in which the reference number first appears.

(コンピューティング・システム・グループ)
図面においては、類似の部分の参照に類似の番号を用いており、以下、それらの図面を参照してより詳細な説明を行うが、まず図1を参照すると、本発明の実施態様の一例の全体的なシステム・アーキテクチャを例証するコンピューティング・システム・グループ100が示されている。この例のコンピューティング・システム・グループ100は、2つのサイト、すなわちサイトA 102、およびサイトB 104を示している。本発明の実施態様は、1つ以上、可能最大数までの間の任意数のサイトを有するコンピューティング・システム・グループを用いて実施できる。この例において使用されるサイトは、そのサイトの物理ロケーション内に配置されるリソースへのアクセスを有するコンピュータ・ノードのグループとして定義される。たとえば、サイトA 102内のノード、すなわちノードA 110およびノードB 108は、リソース・プールA 130内のリソース、すなわちリソースA 116、リソースB 118、およびリソースZ 120へのアクセスを有する。同様にサイトB 104内のノード、すなわちノードC 112およびノードD 114は、リソース・プールB 132内のリソース、すなわちリソースC 121、リソースD 122、およびリソースY 124へのアクセスを有する。関連するサイトにおける複数のノードによってアクセス可能なこれらのリソースに加えて、サイトA 102は、そのサイトのノードA 110によるアクセスだけが可能なリソースを含むリソース・プールE 140を包含している。この例のリソース・プールE 140は、ノードB 108によるアクセス、あるいはサイトB 104に配置されているノードによるアクセスが可能でない。サイト内の複数のノードによってアクセス可能なリソース・プールは、切り替え可能リソース・プールとしてコンフィギュレーションを行うことが可能であり、その結果、そのリソースのオペレーションをホストしているノードは、同じサイトの別のノードへの切り替えが可能になる。
(Computing System Group)
In the drawings, like numerals are used to refer to like parts, and will be described in more detail below with reference to those drawings. First, referring to FIG. 1, an example of an embodiment of the present invention will be described. A computing system group 100 is illustrated that illustrates the overall system architecture. The computing system group 100 in this example shows two sites, site A 102 and site B 104. Embodiments of the present invention can be implemented using computing system groups having any number of sites between one or more and up to the maximum possible number. The site used in this example is defined as a group of computer nodes that have access to resources located within the physical location of the site. For example, the nodes in site A 102, namely node A 110 and node B 108, have access to the resources in resource pool A 130, ie, resource A 116, resource B 118, and resource Z 120. Similarly, nodes in site B 104, ie, node C 112 and node D 114, have access to resources in resource pool B 132, ie, resource C 121, resource D 122, and resource Y 124. In addition to these resources accessible by multiple nodes at the associated site, site A 102 includes a resource pool E 140 that includes resources that can only be accessed by node A 110 at that site. Resource pool E 140 in this example is not accessible by node B 108 or by nodes located at site B 104. A resource pool that can be accessed by multiple nodes in a site can be configured as a switchable resource pool, so that the node hosting the operation of that resource is different from the same site. It becomes possible to switch to the node.

例示の実施態様におけるそれぞれのサイトは、多数のノードを有する。サイトA 102は、ノードA 110およびノードB 108を有することが示されている。これらのノードは、同一サイトの部分であるノードならびに異なるサイトの部分であるノードの間におけるデータ通信をサポートするデータ通信ネットワーク106を介して接続されている。   Each site in the illustrated embodiment has a number of nodes. Site A 102 is shown having Node A 110 and Node B 108. These nodes are connected via a data communication network 106 that supports data communication between nodes that are part of the same site as well as nodes that are part of different sites.

この例においては、これらのサイトが地理的に互いに隔てられており、サイト間通信システム126によって相互接続されている。サイト間通信システム126は、通常は、より高速なそれぞれのサイト内に含まれるデータ通信ネットワーク106を接続する。例示の実施態様のサイト間通信システム126は高速接続を使用している。本発明の実施態様は、通常のWANアーキテクチャ、陸上通信線、地上波ならびに衛星無線リンク、およびそのほかの通信テクニック等の各種のサイト間通信システム126を使用する。また本発明の実施態様は、類似の相互接続を有する任意数のサイトを伴って動作し、それらのサイトのすべてのノード間における連続的な通信ネットワークを構成する。さらに本発明の実施態様は、物理的に互いに近いが、同一リソース・プール内のリソースに対するアクセスを持たないコンピュータ・ノードを有する『サイト』も含む。物理的に近いサイトは、単一のデータ通信ネットワーク106の共有が可能であり、独立したサイト間通信システム126を含んでいない。   In this example, these sites are geographically separated from each other and interconnected by an inter-site communication system 126. The inter-site communication system 126 typically connects the data communication networks 106 included in each faster site. The inter-site communication system 126 of the exemplary embodiment uses a high speed connection. Embodiments of the present invention use various inter-site communication systems 126 such as conventional WAN architecture, landline, terrestrial and satellite radio links, and other communication techniques. Embodiments of the present invention also operate with any number of sites having similar interconnections and constitute a continuous communication network between all nodes at those sites. Furthermore, embodiments of the present invention also include “sites” having computer nodes that are physically close to each other but do not have access to resources in the same resource pool. Sites that are physically close can share a single data communication network 106 and do not include a separate inter-site communication system 126.

リソース・プールA 130およびリソース・プールB 132等のリソース・プール内に包含されているリソースには、データ・ストレージ・デバイス、プリンタ、およびそのほかの、グループ内の1つのノードによってコントロールされる周辺装置が含まれる。コンピューティング・システム・グループ100内においては、1つのノードまたはメンバが、そのグループに関するプライマリ・メンバとして指定される。グループのプライマリ・メンバは、そのコンピューティング・グループに関するプライマリ・リソースをホストし、アクセス・ポイントとして動作し、さらにそのグループによってマネージされるリソースをホストする。   Resources contained within resource pools, such as resource pool A 130 and resource pool B 132, include data storage devices, printers, and other peripheral devices controlled by one node in the group Is included. Within computing system group 100, one node or member is designated as the primary member for that group. A primary member of a group hosts primary resources for the computing group, acts as an access point, and hosts resources managed by the group.

本発明に従った一例の実施態様におけるサイトA 102に関するノードおよびリソースのコンフィギュレーション800を図8に示す。サイトA 102に関する一例のノードおよびリソースのコンフィギュレーション800は、ノードA 110、ノードB 108、ディスク・ユニットの第1のタワーであるリソース・プールA 130、およびディスク・ユニットの第2のタワーであるリソース・プールE 140を含む。ノードA 110またはノードB 108内のオペレーティング・システムを使用して、クラスタ・マネジメント・オペレーションを実行することができる。オプションとして、ノードおよびリソースのコンフィギュレーション800は、ノードおよびリソースのコンフィギュレーション820に関するコンフィギュレーション、変更、メンテナンス、およびそのほかのタスクに関係するオペレーションの実行に特化することのできるクラスタ・マネジメント・コンピュータ・システム820を含むこともできる。クラスタ・マネジメント・コンピュータ・システム820は、ネットワークを介してノードおよびリソースのコンフィギュレーション800のそのほかのコンポーネントと接続されることもあり、また図2を参照して以下に説明するコンピュータ・システム200等のコンピュータ・システムを含むこともできる。   A node and resource configuration 800 for Site A 102 in an example embodiment in accordance with the present invention is shown in FIG. An example node and resource configuration 800 for Site A 102 is Node A 110, Node B 108, Resource Pool A 130, the first tower of disk units, and the second tower of disk units. Resource pool E 140 is included. The operating system in Node A 110 or Node B 108 can be used to perform cluster management operations. Optionally, the node and resource configuration 800 is a cluster management computer that can be specialized for performing operations related to configuration, modification, maintenance, and other tasks related to the node and resource configuration 820. A system 820 can also be included. The cluster management computer system 820 may be connected to other components of the node and resource configuration 800 via a network, such as the computer system 200 described below with reference to FIG. A computer system can also be included.

この例示の実施態様のリソース・プールA 130ならびにリソース・プールE 140は、それぞれ複数のディスク・ユニット、たとえば複数のダイレクト・アクセス・ストレージ・ディスク(DASD)等を含んでいる。この例示の実施態様のリソース・プールA 130は、DASD 11 802、DASD 12 804、DASD 13 806、およびDASD 14 808を含んでおり、それらは、ともに独立補助ストレージ・プール(IASP)として定義されるべく企図されているとすることができる。リソース・プールE 140は、DASD 21 810およびDASD 22 812を含み、それらは、ともに補助ストレージ・プール(ASP)として定義されるべく企図されているとすることができる。リソース・プールA 130は、ノードA 110ならびにノードB 108と接続されており、したがって、それらによるアクセスが可能である。リソースEは、ノードA 110とだけ接続されており、したがってそれだけがアクセスできる。この例示の実施態様においてノードA 110は、リソース・プールA 130に関するプライマリ・ノードとしてコンフィギュレーションが行われており、ノードB 108は、サイトA 102におけるリソース・プールA 130のためのバックアップ・ノードとしてコンフィギュレーションが行われている(つまり、ノードB 108は、スケジュールされた遮断もしくはスケジュールされていない遮断に起因してノードA 110が使用不可となったときに、リソース・プールA 130に関する新しいプライマリ・ノードになる)。   Resource pool A 130 and resource pool E 140 in this exemplary embodiment each include a plurality of disk units, such as a plurality of direct access storage disks (DASD). Resource pool A 130 in this exemplary embodiment includes DASD 11 802, DASD 12 804, DASD 13 806, and DASD 14 808, which are both defined as independent auxiliary storage pools (IASPs). It can be assumed that it is intended. Resource pool E 140 includes DASD 21 810 and DASD 22 812, which may both be intended to be defined as an auxiliary storage pool (ASP). Resource pool A 130 is connected to and can be accessed by Node A 110 and Node B 108. Resource E is only connected to Node A 110 and is therefore only accessible. In this exemplary embodiment, node A 110 is configured as the primary node for resource pool A 130 and node B 108 is the backup node for resource pool A 130 at site A 102. Configuration has been done (i.e., node B 108 has a new primary pool for resource pool A 130 when node A 110 becomes unavailable due to a scheduled or unscheduled shutdown. Become a node).

(コンピュータ・ノードおよびグループ・メンバ)
本発明の一実施態様に従ったグループ100の、一例の実施態様においてはコンピュータ・システムとなるグループ・メンバ200のブロック図を図2に示す。この例示の実施態様のグループ・メンバ200は、IBMのeServer iSeries(eサーバ・iシリーズ)サーバ・システム(eServerおよびiSeriesはIBM Corporationの米国およびその他の国における商標)である。任意の適切にコンフィギュレーションの行われたプロセッシング・システムは、同様に本発明の実施態様による使用が可能である。コンピュータ・システム200は、プロセッサ202を有し、それがメイン・メモリ204、大容量ストレージ・インターフェース206、端末インターフェース208、およびネットワーク・インターフェース210と接続されている。これらのシステム・コンポーネントは、システム・バス212によって相互接続される。大容量ストレージ・インターフェース206は、DASDデバイス214等の大容量ストレージ・デバイスをコンピュータ・システム200へ接続するために使用される。DASDデバイスの1つの具体的なタイプはフレキシブル・ディスク・ドライブであり、データをフレキシブル・ディスク216へストアするとき、およびそこからデータを読み出すときに使用することができる。
(Computer nodes and group members)
A block diagram of group member 200, which in one example embodiment is a computer system in accordance with one embodiment of the present invention, is shown in FIG. Group member 200 in this exemplary embodiment is IBM's eServer iSeries server system (eServer and iSeries are trademarks of IBM Corporation in the United States and other countries). Any suitably configured processing system can be used in accordance with embodiments of the invention as well. The computer system 200 has a processor 202 that is connected to a main memory 204, a mass storage interface 206, a terminal interface 208, and a network interface 210. These system components are interconnected by a system bus 212. Mass storage interface 206 is used to connect a mass storage device, such as DASD device 214, to computer system 200. One specific type of DASD device is a flexible disk drive, which can be used when storing data to and reading data from the flexible disk 216.

メイン・メモリ204は、アプリケーション・プログラム220、オブジェクト222、データ226、およびオペレーティング・システムのイメージ228を含んでいる。ここではメイン・メモリ204内にこれらが同時に常駐する形で示されているが、アプリケーション・プログラム220、オブジェクト222、データ226、およびオペレーティング・システム228は、メイン・メモリ204内に常時完全に常駐している必要はなく、同時に常駐する必要さえもないことは明らかである。コンピュータ・システム200は、従来の仮想アドレッシング・メカニズムを使用してプログラムが、メイン・メモリ204およびDASDデバイス214といった複数のより小さいストレージ・エンティティではなく、ここでコンピュータ・システム・メモリと呼ぶ、大きな単一ストレージ・エンティティへアクセスしているかのように振る舞うことを可能にする。ここで注意する必要があるが、これに使用している『コンピュータ・システム・メモリ』という用語は、コンピュータ・システム200の全仮想メモリを包括的に指す。   Main memory 204 includes application programs 220, objects 222, data 226, and operating system images 228. Although shown here as being resident simultaneously in main memory 204, application program 220, object 222, data 226, and operating system 228 are always fully resident in main memory 204. Obviously, you don't have to be at all, and you don't even have to reside at the same time. The computer system 200 uses a conventional virtual addressing mechanism to allow a program to be a large unit, referred to herein as computer system memory, rather than multiple smaller storage entities such as main memory 204 and DASD device 214. Allows you to behave as if you are accessing a single storage entity. It should be noted here that the term “computer system memory” as used herein refers generically to the entire virtual memory of computer system 200.

オペレーティング・システム228は、IBMのOS/400(OS/400はIBM Corporationの米国およびその他の国における商標)オペレーティング・システム等のような適切なマルチタスキング・オペレーティング・システムである。本発明の実施態様は、任意のそのほかの適切なオペレーティング・システムを使用することができる。オペレーティング・システム228は、DASDマネジメント・ユーザ・インターフェース・プログラム230、DASDストレージ・マネジメント・プログラム232、およびグループ・ユーザ・インターフェース・プログラム234を含んでいる。本発明の実施態様は、オペレーティング・システム228のコンポーネントのインストラクションをコンピュータ・システム200内の任意のプロセッサ上において実行すること可能にするオブジェクト指向フレームワーク・メカニズム等のアーキテクチャを使用する。   The operating system 228 is a suitable multitasking operating system such as IBM OS / 400 (OS / 400 is a trademark of IBM Corporation in the United States and other countries) operating system and the like. Embodiments of the present invention can use any other suitable operating system. Operating system 228 includes a DASD management user interface program 230, a DASD storage management program 232, and a group user interface program 234. Embodiments of the present invention use an architecture such as an object-oriented framework mechanism that allows instructions for operating system 228 components to execute on any processor in computer system 200.

コンピュータ202に関して1つのCPU 202だけを示したが、複数のCPUを伴うコンピュータ・システムを、同様に効果的に使用することができる。本発明の実施態様は、それぞれが個別の完全にプログラムされた、CPU 202のプロセッシング負荷の軽減に使用されるマイクロプロセッサを含むインターフェースを組み込んでいる。端末インターフェース208は、1ないしは複数の端末218をコンピュータ・システム200へ直接接続するために使用される。これらの端末218は、非インテリジェントあるいは完全なプログラマブル・ワークステーションとすることが可能であり、それらを使用してシステム管理者およびユーザは、コンピュータ・システム200と通信することができる。   Although only one CPU 202 is shown for the computer 202, computer systems with multiple CPUs can be used effectively as well. Embodiments of the present invention incorporate an interface that includes a microprocessor that is used to reduce the processing load on CPU 202, each individually programmed. Terminal interface 208 is used to connect one or more terminals 218 directly to computer system 200. These terminals 218 can be non-intelligent or fully programmable workstations that allow system administrators and users to communicate with computer system 200.

ネットワーク・インターフェース210は、ほかのコンピュータ・システムまたはクラスタ・リソース・グループのメンバ、たとえばステーションA 240およびステーションB 242をコンピュータ・システム200へ接続するために使用される。本発明は、現存するアナログおよび/またはディジタルテクニックを含む任意のデータ通信接続、あるいは将来のネットワーク・メカニズムを介したデータ通信接続を取り扱う。   Network interface 210 is used to connect other computer systems or members of a cluster resource group, such as station A 240 and station B 242 to computer system 200. The present invention handles any data communication connection, including existing analog and / or digital techniques, or data communication connections through future network mechanisms.

例示した本発明の実施態様は、完全に機能するコンピュータ・システムの観点から説明されているが、当業者にあっては、これらの実施態様が、プログラム・プロダクトとして、フレキシブル・ディスク、たとえばフレキシブル・ディスク216、CD‐ROM、もしくはそのほかの形式の記録可能メディアを介して、あるいは任意のタイプの電気送信メカニズムを介して配信できることを認識されるであろう。   Although the illustrated embodiments of the present invention have been described in terms of a fully functional computer system, those skilled in the art will recognize these embodiments as a flexible disk, such as a flexible disk, as a program product. It will be appreciated that delivery can be via disk 216, CD-ROM, or other form of recordable media, or via any type of electrical transmission mechanism.

本発明の実施態様は、コンフィギュレーション、オペレーション、およびそのほかのマネジメント機能に関連した機能を実行するDASDマネジメント・ユーザ・インターフェース・プログラム230を含むオペレーティング・システム228を包含し、それには、補助ストレージ・プール(ASP)用に1ないしは複数のDASDを選択する機能も含まれる。ASPは、ディスク・ユニットのセットとして定義され、独立補助ストレージ・プール(IASP)は、システムに依存しないディスク・ユニットのセットである。IASPは、そのディスク・ユニットが切り替え可能であり、コンフィギュレーションならびに配置規則に従っている場合には、システム間において切り替えが可能である。DASDマネジメント・ユーザ・インターフェース・プログラム230は、ディスク・ユニットのマネージのための内部サポートを提供するオペレーティング・システム228のコンポーネントであるDASDストレージ・マネジメント(DSM)プログラム232と通信することができる。   Embodiments of the present invention include an operating system 228 that includes a DASD management user interface program 230 that performs functions related to configuration, operation, and other management functions, including an auxiliary storage pool. A function for selecting one or more DASDs for (ASP) is also included. An ASP is defined as a set of disk units, and an independent auxiliary storage pool (IASP) is a system-independent set of disk units. An IASP can be switched between systems if its disk unit is switchable and conforms to configuration and placement rules. The DASD management user interface program 230 can communicate with the DASD storage management (DSM) program 232, which is a component of the operating system 228 that provides internal support for disk unit management.

(プロセッシング・フローおよびソフトウエア設計の例)
図3に、一例とする本発明の実施態様に従った、ASPに関して1ないしは複数のDASDを選択するプロセスのフローチャート300を示す。例示の実施態様においては、方法300を、サイトに配置されるノードに接続されるASPに関する1ないしは複数のDASDの選択に関連するDASDマネジメント・ユーザ・インターフェース・プログラム230の部分を例証しているものと理解することができる。方法300は、ステップ310において開始し、ステップ320においてはASPのユーザ選択を待機するが、それに関して1ないしは複数のDASDのコンフィギュレーションが行われることになる。ユーザは、現存するASPもしくは新しいASPを選択することができる。一実施態様においては、複数のDASDならびにASPが選択され、並列に処理される。ユーザがASPの選択を行うと妥当性インスペクタが起動され、ステップ330において、このノードのサイトにあるコンフィギュレーション未済の全DASDの妥当性ならびにランキング結果が提供される。一例の妥当性インスペクタの詳細については後述する。妥当性インスペクタの結果は、選択されたASPに関するコンフィギュレーション未済の各DASDの妥当性ならびにランキングも含めて、ステップ340においてユーザに表示される。
(Example of processing flow and software design)
FIG. 3 shows a flowchart 300 of a process for selecting one or more DASDs for an ASP according to an exemplary embodiment of the present invention. In the illustrated embodiment, method 300 illustrates a portion of DASD management user interface program 230 related to the selection of one or more DASDs for an ASP connected to a node located at a site. Can be understood. The method 300 begins at step 310 and waits for an ASP user selection at step 320, for which one or more DASDs will be configured. The user can select an existing ASP or a new ASP. In one embodiment, multiple DASDs and ASPs are selected and processed in parallel. When the user makes an ASP selection, the validity inspector is activated and, at step 330, the validity of all unconfigured DASDs at this node's site and ranking results are provided. Details of an example validity inspector will be described later. The results of the validity inspector are displayed to the user at step 340, including the validity and ranking of each unconfigured DASD for the selected ASP.

一実施態様においては、ディスク・プールに関するディスク・ユニットの選択時に、妥当性インスペクタが、次に述べる規則をチェックして妥当性を決定する。ここでは、次に述べる規則が例示であり、別のシステムに関しては別の規則のセットに従ってもよいことを理解されたい。最初の規則は、選択されたDASDがすべて関連付けされ、かつ、この方法300を実行しているノードを含むサイトに配置されていることを決定し、保証することである。もう1つの規則は、別々に切り替え可能な異なるディスク・プール内のディスク・ユニットは、同一の切り替え可能なエンティティ内とし得ないということである。たとえば、別々に切り替え可能なディスク・プールは、同一のタワー内に配置されたディスク・ユニットを有することができない。さらに別の規則は、切り替えられる予定のないディスク・ユニットは、切り替えられる予定のあるディスク・プールのためのディスク・ユニットを含む切り替え可能なハードウエア・エンティティ内に存在できないということである。たとえば、システムとともにとどまるディスク・ユニット(たとえば、システムASP、リソース・プールE 140のASP 32)は、切り替え可能なディスク・プール内のディスク・ユニット(たとえば、リソース・プールA 130のIASP 33)を伴う同じタワー内に存在することができない。さらに別の規則は、特定のシステムとの間において切り替えられることになる切り替え可能なディスク・プール内のディスク・ユニットは、それらの特定のシステムがアクセスすることのできるハードウエア・エンティティ内に存在しなければならないことを指定する。たとえば、バックアップ・システムへの切り替えが意図されているディスク・ユニットは、そのバックアップ・システムがアクセスできないタワー内に存在することができない。さらに別の規則は、同一ディスク・プール内のディスク・ユニットは、同一パワー・ドメイン内のハードウエア・エンティティの下になければならないことである(つまり、電源オン/オフがともになされる)。このほかの規則、たとえばシステムの制約に関係する規則等をDASD選択の妥当性の決定に使用することもできる。   In one embodiment, when selecting a disk unit for a disk pool, the validity inspector checks the rules described below to determine validity. It should be understood that the following rules are exemplary here and that different sets of rules may be followed for other systems. The first rule is to determine and ensure that all selected DASDs are associated and located at the site containing the node performing this method 300. Another rule is that disk units in different disk pools that can be switched separately cannot be in the same switchable entity. For example, separately switchable disk pools cannot have disk units located in the same tower. Yet another rule is that a disk unit that is not to be switched cannot exist in a switchable hardware entity that contains a disk unit for a disk pool that is to be switched. For example, a disk unit that stays with the system (eg, system ASP, ASP 32 of resource pool E 140) involves a disk unit in a switchable disk pool (eg, IASP 33 of resource pool A 130). Cannot exist in the same tower. Yet another rule is that the disk units in a switchable disk pool that will be switched to or from a particular system reside in a hardware entity that those particular systems can access. Specify what must be done. For example, a disk unit that is intended to be switched to a backup system cannot be in a tower that is not accessible to that backup system. Yet another rule is that disk units in the same disk pool must be under a hardware entity in the same power domain (ie, both powered on and off). Other rules, such as those related to system constraints, can also be used to determine the validity of DASD selection.

一実施態様においては、そのサイトにおける有効なDASDが、ランク付けされた順序で表示される。妥当性インスペクタの出力は、次のうちの1つになる:すなわち、完全、有効、警告、および無効である。出力『完全』は、選択されたDASDが指定されたASPに関して最良のDASDであることを示す。出力『有効』は、そのDASDは最良のランキングを有していないが、そのDASDを指定されたASP内に入れることが可能であることを示す。出力『警告』は、指定されたASPに関して、そのDASDが無効のおそれがあるか、疑わしいことを示す。出力『無効』は、そのDASDを指定されたASP内に入れることができないことを示す。選択されたDASDならびにそのほかのコンフィギュレーション未済のDASDに関する詳細は、LdValidityForAspオブジェクト(つまり、後述するLdValidityForAspオブジェクト502)から獲得することができる。   In one embodiment, valid DASDs at that site are displayed in a ranked order. The output of the validity inspector will be one of the following: full, valid, warning, and invalid. The output “complete” indicates that the selected DASD is the best DASD for the specified ASP. The output “valid” indicates that the DASD does not have the best ranking, but the DASD can be placed in the specified ASP. The output “warning” indicates that the DASD may be invalid or suspicious for the specified ASP. The output “invalid” indicates that the DASD cannot be placed in the specified ASP. Details regarding the selected DASD as well as other unconfigured DASDs can be obtained from the LdValidityForAsp object (ie, the LdValidityForAsp object 502 described below).

一実施態様においては、有効なDASD選択のランク付けのために以下に示すファクタが使用される。第1に、1つのディスク・プールに関するディスク・ユニットが、好ましくは同一の切り替え可能なハードウエア・エンティティの下に維持される。第2に、プライマリおよび/またはバックアップ・システムが、好ましくは切り替え可能なハードウエア・エンティティへの直接アクセスを有する(つまり、ほかのエンティティを間に介さない)。第3に、1つのディスク・プールに関するディスク・ユニットが、好ましくは1つの切り替え可能なハードウエア・エンティティ内に包含される(つまり、切り替え可能なハードウエア・エンティティは、1を超える数のIASPを含まない)。なお、ここで理解されるように、上記のファクタが例示であり、別のファクタのセットを別のシステムに使用することができる。   In one embodiment, the following factors are used for ranking effective DASD selections: First, the disk units for one disk pool are preferably maintained under the same switchable hardware entity. Second, the primary and / or backup system preferably has direct access to the switchable hardware entity (ie, no other entity in between). Third, the disk units for one disk pool are preferably contained within one switchable hardware entity (ie, a switchable hardware entity has more than one IASP). Not included). It should be understood that the above factors are exemplary and other sets of factors can be used for different systems, as will be understood herein.

別の実施態様においては、有効なDASDに加えて、無効なDASDを表示することができる。しかしながら、例の実施態様の方法300は、選択されたASPに関して、ユーザが無効なDASDを選択してコンフィギュレーションを行うことはできない。さらに別の実施態様においては、それぞれの無効なDASDが、選択されたASPに関してその無効なDASDが不適切な選択となる1ないしは複数の理由を伴って表示される。たとえば、切り替え可能性の理由とは別に、容量、保護、あるいはそのほかのシステム規則違反に起因して無効なDASDが無効とされることがある。ユーザは、この無効理由に従って無効なDASDを変更し、有効なDASDにすることができる(たとえば、DASDを適切な場所へ、物理的に移動する)。   In another embodiment, invalid DASD can be displayed in addition to valid DASD. However, the example embodiment method 300 does not allow the user to select and configure an invalid DASD for the selected ASP. In yet another embodiment, each invalid DASD is displayed with one or more reasons that the invalid DASD is an inappropriate choice for the selected ASP. For example, apart from reasons for switchability, invalid DASDs may be invalidated due to capacity, protection, or other system rule violations. The user can change the invalid DASD to a valid DASD according to this invalid reason (eg, physically move the DASD to the appropriate location).

ステップ350においては、この方法300が、ユーザによる、このASPに関する、ランキング順序内の1ないしは複数のコンフィギュレーション未済の有効なDASDの選択があるまでを待機する。ステップ360においては、方法300が、DSMサンドボックス、すなわちDASDストレージ・マネジメント・プログラム234に関するパラメータを保持するためのオブジェクトへこのDASD選択を渡す。このASP(またはIASP)に関する、選択された有効なDASDのコンフィギュレーションは、ステップ370において、この分野で周知のように完成されるものとしてもよく、その後、ステップ380においてこの方法300が終了する。   In step 350, the method 300 waits until the user has selected one or more unconfigured valid DASDs in the ranking order for this ASP. In step 360, the method 300 passes this DASD selection to the DSM sandbox, an object for holding parameters relating to the DASD storage management program 234. The selected valid DASD configuration for this ASP (or IASP) may be completed as is well known in the art at step 370, after which the method 300 ends at step 380.

一実施態様においては、オブジェクト指向プログラミングを使用して方法300を具体化することができる。本発明の一実施態様に従ったソフトウエア・クラスの設計400および各ソフトウエア・クラスの役割の一例を図4に示す。関連するオブジェクトならびにクラスのメソッドについては、図5および7を参照してさらに詳しい説明を後述する。例示した設計400のソフトウエア・クラスは、DASD Management(DM:DASDマネジメント)クラス405、LdValidityForAspクラス410、ToyAspクラス415、ToyLdクラス420、HdwSwitchingCapabilitiesクラス430、SwitchableEntityクラス435、CRGM(Cluster Resource Group Management:クラスタ・リソース・グループ・マネジメント)クラス440、およびCRG(Cluster Resource Group:クラスタ・リソース・グループ)クラス445を含んでいる。   In one implementation, method 300 can be implemented using object-oriented programming. An example of a software class design 400 and the role of each software class according to one embodiment of the present invention is shown in FIG. The related object and class methods will be described in more detail later with reference to FIGS. The software classes of the illustrated design 400 are: DASD Management (DM: DASD management) class 405, LdValidityForAsp class 410, ToyAsp class 415, ToyLd class 420, HdwSwitchingCapabilities class 430, SwitchableEntity cluster 435M Resource group management (CRG) class 440 and CRG (Cluster Resource Group) class 445 are included.

DASD Management(DM:DASDマネジメント)クラス405は、IASPのコンフィギュレーションのためのユーザ・インターフェースを提供する。一実施態様においては、DASD Management(DM:DASDマネジメント)クラス405が、LdValidityForAspオブジェクトおよびLdAdderサンドボックス・オブジェクトを作成することによってIASPコンフィギュレーションを具体化し、その後、そのサンドボックス内の各オブジェクト(ここでは、『ToyLd』と呼ぶ)のクエリ(query(ing))を行う。LdValidityForAsp(つまり、Logical DASD Validity For ASP:ASPに関する論理DASDの妥当性)クラス410は、LdValidityForAspオブジェクト内に、コンフィギュレーション未済のDASDに関する妥当性ならびにランキングの結果を保持する。   The DASD Management (DM) class 405 provides a user interface for IASP configuration. In one implementation, the DASD Management (DM) class 405 instantiates the IASP configuration by creating an LdValidityForAsp object and an LdAdder sandbox object, and then each object in the sandbox (here: , Called “ToyLd”) (query (ing)). The LdValidityForAsp (ie, Logical DASD Validity For ASP: Logical DASD Validity for ASP) class 410 holds the validity and ranking results for unconfigured DASD in the LdValidityForAsp object.

LdAdder(つまり、Logical DASD Adder:論理DASDアダー)クラス425は提案されたDASDならびにASPの選択を提供する。例示として、LdAdderクラス425は、選択されたASPを表すToyAsp(つまり、Toy ASP:トイASP)クラス415およびコンフィギュレーション未済のDASDを表すToyLd(つまり、Toy Logical DASD:トイ論理DASD)クラス420を含む。   The LdAdder (ie, Logical DASD Adder) class 425 provides a selection of proposed DASD as well as ASP. Illustratively, the LdAdder class 425 includes a ToyAsp (ie, Toy ASP: Toy ASP) class 415 that represents the selected ASP and a ToyLd (ie, Toy Logical DASD) class 420 that represents unconfigured DASD. .

HdwSwitchingCapabilities(つまり、Hardware Switching Capabilities:ハードウエア切り替えケイパビリティ)クラス430は、DASDが物理的に配置されているタワーの切り替え可能性を決定するための関数/メソッドを提供する。一実施態様においては、HdwSwitchingCapabilitiesクラス430が、isParentSwitchableメソッドを提供し、SwitchableEntityクラス435をサポートする。isParentSwitchableメソッドは、そのディスク・ユニットを含むエンティティが切り替え可能か否かを決定する。   The HdwSwitchingCapabilities (ie, Hardware Switching Capabilities) class 430 provides functions / methods for determining the switchability of the tower where the DASD is physically located. In one embodiment, the HdwSwitchingCapabilities class 430 provides the isParentSwitchable method and supports the SwitchableEntity class 435. The isParentSwitchable method determines whether the entity containing the disk unit can be switched.

SwitchableEntityクラス435は、切り替え可能性を評価するための関数/メソッド提供し、isResourceSwitchable関数、isResourceAccessible関数、およびevaluateEntities関数を含む。isResourceSwitchable関数は、そのIASPがクラスタ・リソース・グループ(CRG)内に定義されているかを決定する。isResourceAccessible関数は、CRGリカバリ・ドメイン(つまり、そのリソースを含むサイトのプライマリならびにバックアップ・システム)内のノードが、そのリソースへアクセスできるか否かを決定する。evaluateEntities関数は、そのエンティティが同一のCRG内にあるか否かを決定する。   The SwitchableEntity class 435 provides functions / methods for evaluating switchability and includes an isResourceSwitchable function, an isResourceAccessible function, and an evaluateEntity function. The isResourceSwitchable function determines whether the IASP is defined in a cluster resource group (CRG). The isResourceAccessible function determines whether a node in the CRG recovery domain (ie, the primary and backup system at the site containing the resource) can access the resource. The evaluateEntity function determines whether the entity is in the same CRG.

CRGM(つまり、Cluster Resource Group Management:クラスタ・リソース・グループ・マネジメント)クラス440は、クラスタ・リソース・グループのマネジメントに関連する作成、追加、変更、削除、およびそのほかのオペレーションのための関数/サポートを含む。CRG(つまり、Cluster Resource Group:クラスタ・リソース・グループ)クラス445は、リソース(たとえば、IASP)のスイッチオーバおよびフェイルオーバをコントロールし、かつCRG内のノードおよびリソースのコンフィギュレーションを行うためのユーザ・インターフェースを提供する。一実施態様においては、CRGクラス445のオペレーションの具体化が、SwitchableEntityクラス435内に提供される関数を使用するクエリを含む。   The CRGM (ie, Cluster Resource Group Management) class 440 provides functions / support for creation, addition, modification, deletion, and other operations related to cluster resource group management. Including. CRG (ie, Cluster Resource Group) class 445 is a user interface for controlling switchover and failover of resources (eg, IASPs) and for configuring nodes and resources in a CRG I will provide a. In one embodiment, the operation instantiation of CRG class 445 includes a query that uses the functions provided in SwitchableEntity class 435.

本発明の一実施態様に従ってノードに作用を及ぼす一例の妥当性インスペクタ330に関する妥当性インスペクタのオブジェクト指向設計500を図5に示す。また、本発明の一実施態様に従ってノードに作用を及ぼす、選択されたASPに関する一例のコンフィギュレーション未済DASDの妥当性検査およびランキングのプロセッシング・フロー600を図6に示す。プロセッシング・フロー600は、ステップ330における妥当性インスペクタの具体化として理解することができる。   A validity inspector object-oriented design 500 for an example validity inspector 330 that operates on nodes according to one embodiment of the present invention is shown in FIG. Also shown in FIG. 6 is an example unconfigured DASD validation and ranking processing flow 600 for a selected ASP that affects a node in accordance with one embodiment of the present invention. Processing flow 600 can be understood as a validation inspector instantiation at step 330.

方法600は、ステップ602において開始し、ステップ605に進んで、LdValidityForAspオブジェクト502ならびにLdAdderサンドボックス510を作成する。LdValidityForAspオブジェクト502は、切り替え可能性の結果を保持しており、それには、このノードを含んでいるサイトに配置されたコンフィギュレーション未済のDASDの妥当性およびランキングが含まれる。LdAdderサンドボックス510は、提案されたASPオブジェクト545(たとえば、コンフィギュレーションが行われたときに、ノードおよびリソースのコンフィギュレーション800のリソース・プールE 140およびリソース・プールA 130にそれぞれ対応することになるToyAsp 32 545およびToyAsp 33 545)およびハードウエアDASDのソフトウエア等価オブジェクト(たとえば、ToyLd 505、すなわち図示されているように、DASD 11 802、DASD 12 804、DASD 13 806、DASD 14 808、DASD 21 810、DASD 22 812を含む、DASDごとに1つのToyLd)を保持する。   The method 600 begins at step 602 and proceeds to step 605 to create an LdValidityForAsp object 502 as well as an LdAdder sandbox 510. The LdValidityForAsp object 502 holds the switchability result, which includes the validity and ranking of the unconfigured DASD located at the site containing this node. The LdAdder sandbox 510 will correspond to the proposed ASP object 545 (eg, resource pool E 140 and resource pool A 130, respectively, of the node and resource configuration 800 when the configuration is performed). ToyAsp 32 545 and ToyAsp 33 545) and software equivalent objects of hardware DASD (eg, ToyLd 505, ie, as shown, DASD 11 802, DASD 12 804, DASD 13 806, DASD 14 808, DASD 21 810 1 ToyLd) per DASD, including DASD 22 812.

ステップ610においては、方法600が、指定されたASPへのコンフィギュレーションに関して、LdAdderサンドボックス510内の各ToyLd 505(つまり、各コンフィギュレーション未済のDASD)のクエリを行う。このクエリは、DASD Management 515により、validToBeInAsp関数520を介して各ToyLdオブジェクト505上において起動される。ステップ615においては、続いて各ToyLd 505が、そのToyLd 505に対応するDASDを物理的に包含するハードウエア・エンティティ(たとえば、親エンティティ)の切り替えケイパビリティを提供する、それぞれの対応するHdwSwitchingCapabilitiesオブジェクト525のクエリを行う。ハードウエア・エンティティの切り替えケイパビリティは、isParentSwitchable関数530を介して提供される。   In step 610, the method 600 queries each ToyLd 505 (ie, each unconfigured DASD) in the LdAdder sandbox 510 for configuration to the specified ASP. This query is activated by DASD Management 515 on each ToyLd object 505 via the validToBeInAsp function 520. In step 615, each ToyLd 505 then provides the switching capability of the hardware entity (eg, the parent entity) that physically contains the DASD corresponding to that ToyLd 505, for each corresponding HdwSwitchingCapabilities object 525. Make a query. Hardware entity switching capabilities are provided via the isParentSwitchable function 530.

その後この方法600は、ステップ620において、SwitchabilityEntityオブジェクト535のクエリを行って、そのリソース(つまり、処理中のToyLdに対応するDASDを含むディスク・プール)が切り替え可能か否かを決定する。SwitchableEntityオブジェクト535が、CRGオブジェクト540のクエリを行って、そのリソース(たとえばToyAsp 33)がCRG内において定義されているか否かを決定する。たとえば、ToyLd DASD 11について、SwitchableEntityオブジェクト535は、リソースToyAsp 33が切り替え可能IASPとしてCRG内に定義されているか否か(たとえば、リソース550)を決定する。   The method 600 then queries the SwitchabilityEntity object 535 at step 620 to determine if the resource (ie, the disk pool containing the DASD corresponding to the ToyLd being processed) can be switched. A SwitchableEntity object 535 queries the CRG object 540 to determine whether the resource (eg, ToyAsp 33) is defined in the CRG. For example, for ToyLd DASD 11, the SwitchableEntity object 535 determines whether the resource ToyAsp 33 is defined in the CRG as a switchable IASP (eg, resource 550).

次に、ステップ625において、そのリソースが切り替え可能である場合に(つまり、そのリソースがCRG内において定義されたIASPである場合に)この方法は、ステップ630および635に進んで追加のクエリを行う。ステップ630においてこの方法600は、クエリを行ってCRGリカバリ・ドメイン555(つまり、そのリソースを含んでいるサイトに配置されたプライマリ・システムおよびバックアップ・システム)内のノードが、そのリソースへアクセス可能か否かを決定し、さらにステップ635においては、方法600が、そのエンティティ(たとえば、リソースおよびノード・システム)が同じCRG内において定義されているか否かの評価を行う。たとえば、リソースと異なるサイトに配置されているノードは、そのリソースへアクセスする必要がない。続いてステップ640において、コンフィギュレーション未済のDASDの切り替え可能性の結果がLdValidityForAspオブジェクト502へ返される。ステップ625に戻って参照するが、リソースが切り替え可能でない場合には、方法600がステップ640へ進み、コンフィギュレーション未済のDASDの切り替え可能性の結果をLdValidityForAspオブジェクト502へ返す。その後ステップ650において、この方法600が終了する。   Next, in step 625, if the resource is switchable (ie, if the resource is an IASP defined in the CRG), the method proceeds to steps 630 and 635 for additional queries. . In step 630, the method 600 queries to see if nodes in the CRG recovery domain 555 (ie, primary and backup systems located at the site containing the resource) can access the resource. And in step 635, method 600 evaluates whether the entity (eg, resource and node system) is defined in the same CRG. For example, a node located at a different site from the resource does not need to access the resource. Subsequently, in step 640, the result of the possibility of switching the unconfigured DASD is returned to the LdValidityForAsp object 502. Returning to step 625 for reference, if the resource is not switchable, method 600 proceeds to step 640 and returns the result of the switchability of unconfigured DASD to LdValidityForAsp object 502. Thereafter, in step 650, the method 600 ends.

別の実施態様においては、コンピュータ・システム200のオペレーティング・システム228はまた、クラスタ内の2もしくはそれを超える数のコンピュータ・システムのクラスタリングを行うためにクラスタ・ユーザ・インターフェース・プログラム234を含んでいる。その場合においても妥当性インスペクタを起動して、クラスタ・ユーザ・インターフェース・プログラム234の特定のオペレーションを実行することができる。本発明の一実施態様に従ったオペレーションのクラスタリングのためのIASPの切り替え可能性のチェックに使用される一例のソフトウエア・オブジェクトのセットを図7に示す。概して言えば、以下の実施態様のそれぞれにおいては、CRGMオブジェクト710が、SwitchableEntityオブジェクト720内の1ないしは複数の関数を起動し、それが、CRGオブジェクト730を介してオペレーションのクラスタリングの妥当性を検査する。   In another embodiment, the operating system 228 of the computer system 200 also includes a cluster user interface program 234 for clustering two or more computer systems in the cluster. . Even in that case, the validity inspector can be activated to perform certain operations of the cluster user interface program 234. An example set of software objects used to check IASP switchability for clustering operations according to one embodiment of the invention is shown in FIG. In general, in each of the following embodiments, a CRGM object 710 invokes one or more functions in a SwitchableEntity object 720 that validates the clustering of operations via the CRG object 730. .

一実施態様においては、CRGのリカバリ・ドメインへノードを追加するとき、提案された新しいノードがそのIASP(1ないしは複数)内のDASDに対するアクセスを有しているか否かについてCRGMがチェックする。CRGMのadd_node_to_recovery_domain関数712は、isResourceAccessible関数722を起動し、提案された新しいノードならびに現存するIASP(1ないしは複数)を含むパラメータを渡す。isResourceAccessible関数722は、Resourceオブジェクト732内のIASPおよびRecoveryDomainオブジェクト734内のノードをチェックし、提案された新しいノードが、そのノードが属するサイトのIASP内のDASDへのアクセスを有するか否かを決定する。提案された新しいノードがそのIASP内のDASDへアクセスできる場合に、ユーザは、このCRGMオペレーションを完成することが可能になる。提案された新しいノードがそのIASP内のDASDへのアクセスを有していない場合には、提案された新しいノードのコンフィギュレーションを行っているユーザに警告が表示される。   In one embodiment, when adding a node to the CRG's recovery domain, the CRGM checks whether the proposed new node has access to the DASD in its IASP (s). The CRGM add_node_to_recovery_domain function 712 invokes the isResourceAccessible function 722, passing the parameters including the proposed new node as well as the existing IASP (s). The isResourceAccessible function 722 checks the IASP in the Resource object 732 and the node in the RecoveryDomain object 734 to determine whether the proposed new node has access to DASD in the IASP of the site to which the node belongs. . If the proposed new node has access to the DASD in that IASP, the user will be able to complete this CRGM operation. If the proposed new node does not have access to DASD in the IASP, a warning is displayed to the user configuring the proposed new node.

別の実施態様においては、CRGへIASPを追加するとき、CRGMが、指定されたリカバリ・ドメイン内のすべてのノードが、追加されることになるIASP内のDASDに対するアクセスを有するか否かについてチェックする。CRGMのadd_iasp関数714がisResourceAccessible関数722を起動し、提案された新しいIASPならびに指定のリカバリ・ドメイン内の現存するノードを含むパラメータを渡す。isResourceAccessible関数722は、Resourceオブジェクト732内のIASPおよびRecoveryDomainオブジェクト734内のノードをチェックし、そのリソースのサイトにある指定されたリカバリ・ドメイン内のすべてのノードが、追加されることになるIASP内のDASDに対するアクセスを有するか否かについてチェックする。それを有している場合に、ユーザは、このCRGMオペレーションを完成することが可能になる。それを有していない場合には、提案された新しいIASPのコンフィギュレーションを行っているユーザに警告が表示される。   In another embodiment, when adding an IASP to a CRG, the CRGM checks to see if all nodes in the specified recovery domain have access to the DASD in the IASP that will be added. To do. The CRGM add_iasp function 714 invokes the isResourceAccessible function 722, passing the parameters including the proposed new IASP as well as existing nodes in the specified recovery domain. The isResourceAccessible function 722 checks the IASP in the Resource object 732 and the nodes in the RecoveryDomain object 734, and all nodes in the specified recovery domain at the resource's site will be added in the IASP Check if you have access to DASD. If so, the user will be able to complete this CRGM operation. If not, a warning is displayed to the user who is configuring the proposed new IASP.

CRGへIASPを追加するとき、CRGMは、ほかのいずれかのCRGが、そのIASPを含む同一の切り替え可能なエンティティ(たとえば,切り替え可能なタワー)を有しているか否かについてチェックすることもできる。CRGMのadd_iasp関数714が、getEntities関数724を起動して、提案された新しいIASPに関するSwitchableEntity(1ないしは複数)を検索する。続いてCRGMは、ほかの現存するCRGをサーチし、ほかのいずれかのCRGが同一の切り替え可能なエンティティを有しているか否かを決定する。ほかのいずれのCRGも同一の切り替え可能なエンティティを有していない場合に、ユーザは、このCRGMオペレーションを完成することが可能になる。ほかのCRGが同一の切り替え可能なエンティティを有している場合には、CRGへの提案されたIASPの追加を行っているユーザに対して警告が表示される。   When adding an IASP to a CRG, the CRGM can also check if any other CRG has the same switchable entity (eg, switchable tower) that contains the IASP. . The CRGM add_iasp function 714 invokes the getEntityes function 724 to retrieve the SwitchableEntity (s) for the proposed new IASP. The CRGM then searches other existing CRGs to determine if any other CRG has the same switchable entity. If no other CRG has the same switchable entity, the user will be able to complete this CRGM operation. If other CRGs have the same switchable entity, a warning is displayed to the user making the proposed IASP addition to the CRG.

別の実施態様においては、IASPのCRGを開始するとき(つまり、クラスタリングを開始するとき)、CRGMが、そのIASPの切り替え可能性について検査する。この追加の妥当性検査は、ハードウエアの再配置(たとえば、ケーブルおよびディスク・ユニットの移動)に起因する潜在的な切り替え可能性のエラー検出を提供する。また、この追加の妥当性検査は、不適切なDASDコンフィギュレーション(たとえば、クラスタリングがアクティブになってなく、ユーザが、コンフィギュレーション警告を無視してDASDのコンフィギュレーションを行ったとき)に起因するエラーも検出する。CRGMのstart_clustering関数716は、isResourceAccessible関数722を起動し、Resourceオブジェクト732内の現存するIASP(1ないしは複数)を含むパラメータを渡す。isResourceAccessible関数722は、Resourceオブジェクト732内のIASPおよびRecoveryDomainオブジェクト734内のノードをチェックし、そのリカバリ・ドメイン内の同一サイトのすべてのノードが、そのIASP内のDASDに対するアクセスを有するか否かを決定する。それを有している場合に、ユーザは、CRGMのstart_clustering関数を完成することが可能になる。それを有していない場合には、クラスタリング・オペレーションを試みているユーザに対して警告が表示される。   In another embodiment, when starting an IASP CRG (ie, when starting clustering), the CRGM checks for the switchability of that IASP. This additional validation provides potential switchability error detection due to hardware relocation (eg, cable and disk unit movement). This additional validation is also useful for errors caused by improper DASD configuration (for example, when clustering is not activated and the user ignores the configuration warning and configured DASD). Also detect. The CRGM start_clustering function 716 invokes the isResourceAccessible function 722 and passes a parameter containing the existing IASP (s) in the Resource object 732. The isResourceAccessible function 722 checks the nodes in the IASP and RecoveryDomain object 734 in the Resource object 732 and determines whether all nodes at the same site in the recovery domain have access to the DASD in the IASP. To do. If so, the user can complete the CRGM start_clustering function. If not, a warning is displayed to the user attempting a clustering operation.

本発明の実施態様は、複数の地理的ロケーションの間に分散されるコンピュータ・システム・グループ100内に組み込まれる。全体のコンピュータ・システム・グループ100を構成するノードは、任意の組み合わせに従って複数の地理的ロケーションの間に分散され得る。2もしくはそれを超えるノードが配置された地理的ロケーション、またはサイトは、これに述べているように、クラスタ・リソース・グループ内においてコンフィギュレーションが可能であり、それらのサイトに配置されるリソースを含むリカバリ・ドメインの一部として動作することができる。それに代えて、サイトは、そのサイトにおけるリソースをコントロールする唯一のノードを持つことができる。これは、そのサイトにおけるその1つのノードの故障が、別のサイトのノードへのフェイルオーバをもたらすことができるため、全体のコンピューティング・システム・グループの可用性を維持しつつ、それぞれのサイトに複数のノードを要求しないことによって、コストの削減を可能にする。単一のコンピューティング・システムのノードを伴うサイトの別の利点は、そのサイトが切り替え可能ハードウエアを必要としないことである。   Embodiments of the present invention are incorporated within a computer system group 100 that is distributed among multiple geographic locations. The nodes that make up the overall computer system group 100 may be distributed among multiple geographic locations according to any combination. A geographic location, or site, where two or more nodes are located, as described herein, can be configured within a cluster resource group and includes resources located at those sites Can act as part of a recovery domain. Alternatively, a site can have a single node that controls resources at that site. This is because failure of that one node at that site can result in failover to a node at another site, thus maintaining multiple computing system group availability, By not requiring nodes, it is possible to reduce costs. Another advantage of a site with a single computing system node is that the site does not require switchable hardware.

本発明の一実施態様に従った初期コンフィギュレーションのプロセッシング・フロー900の例を図9に示す。例示した初期コンフィギュレーションのプロセッシング・フロー900は、単一ノードを有するサイト・コンフィギュレーションに適合しており、しかもより可用性の高い複数のノードを有するサイトのコンフィギュレーションを保証する。例示した初期コンフィギュレーションのプロセッシング・フロー900は、ステップ902において開始し、ステップ904へ進んで、現在のサイトが1を超える数のノードを有するか否かを決定する。このサイトが1を超える数のノードしている場合には、プロセッシングがステップ908へ進み、このサイトに配置されるリソースに関するリカバリ・ドメインを伴うサイトにおいてノードのコンフィギュレーションを行う。このサイトが1つのノードだけを有している場合には、プロセッシングがステップ906へ進み、このサイトのリソースをホストするべくそのノードのコンフィギュレーションを行う。このサイトのノードのコンフィギュレーションの後は、ステップ910へ進み、コンピューティング・システム・グループ100のメンバとしてサイトのノードのオペレーションを行うことによってプロセッシングが継続される。   An example of an initial configuration processing flow 900 according to one embodiment of the present invention is shown in FIG. The illustrated initial configuration processing flow 900 is compatible with a site configuration having a single node and ensures the configuration of a site having multiple nodes with higher availability. The illustrated initial configuration processing flow 900 begins at step 902 and proceeds to step 904 to determine whether the current site has more than one node. If this site has more than one node, processing proceeds to step 908 to configure the node at the site with a recovery domain for resources located at this site. If the site has only one node, processing proceeds to step 906 to configure that node to host the site's resources. After configuration of the site node, processing proceeds to step 910 where processing continues by performing operation of the site node as a member of the computing system group 100.

(限定を意図しないソフトウエアおよびハードウエアの例)
本発明の実施態様は、たとえば図1に示し、ここで説明したクラスタ・コンピューティング環境等のコンピュータ・システムとともに使用するためのプログラム・プロダクトとして具体化することができる。プログラム・プロダクトのプログラム(1ないしは複数)は、これらの実施態様(ここで述べた方法を含む)の関数を定義し、各種の信号担持メディア上に包含させることができる。信号担持メディアの例としては、限定を意図するわけではないが;(i)情報を永久的にストアする書き込み禁止ストレージ・メディア(たとえば、CD‐ROMドライブによって読み出すことが可能なCD‐ROMディスク等のコンピュータ内の読み出し専用メモリ・デバイス);(ii)情報を変更可能にストアする書き込み可能なストレージ・メディア(たとえばフレキシブル・ディスク・ドライブ内のフレキシブル・ディスクまたはハードディスク・ドライブ);または(iii)コンピュータへ情報を伝達する、たとえば、ワイヤレス通信を含むコンピュータ・ネットワークまたは電話ネットワークを介した通信メディアが挙げられる。最後の実施態様は、特に、インターネットもしくはそのほかのネットワークからの情報のダウンロードを含む。この種の信号担持メディアが、本発明の機能を伝えるコンピュータ可読インストラクションを運ぶとき、本発明の実施態様を表すことになる。
(Examples of software and hardware not intended to be limited)
Embodiments of the present invention may be embodied as a program product for use with a computer system, such as the cluster computing environment shown in FIG. 1 and described herein, for example. The program product program (s) may define functions of these embodiments (including the methods described herein) and be included on various signal-bearing media. Examples of signal bearing media are not intended to be limiting; (i) write-protected storage media that permanently stores information (eg, a CD-ROM disc readable by a CD-ROM drive, etc.) A read-only memory device in a computer); (ii) a writable storage medium that stores information variably (eg, a flexible disk or hard disk drive in a flexible disk drive); or (iii) a computer Communication media over a computer network or telephone network, including, for example, wireless communication. The last embodiment specifically includes the downloading of information from the Internet or other networks. When this type of signal bearing media carries computer readable instructions carrying the functionality of the present invention, it represents an embodiment of the present invention.

概して、本発明の実施態様を具体化するために実行されるルーチンは、オペレーティング・システムの一部として具体化されるか、あるいは特定のアプリケーション、コンポーネント、プログラム、モジュール、オブジェクト、またはインストラクションのシーケンスとして具体化されるかによらず、ここで『プログラム』と呼ぶことができる。コンピュータ・プログラムは、通常、ネイティブ・コンピュータによって機械可読フォーマットに、したがって、実行可能インストラクションに翻訳されることになる複数のインストラクションからなる。またプログラムは、プログラムに対してローカルに常駐するか、あるいはメモリ内もしくはストレージ・デバイス上に見つかる変数およびデータ構造を包含している。それに加えて、ここに述べた各種のプログラムは、本発明の特定の実施態様においてそれらが具体化される対称となる応用に基づいて識別することができる。しかしながら、いかなる特定のプログラムの名前も便宜上使用されているだけであり、したがって、本発明が、その種の名前によって識別および/または含意される特定の応用における使用にのみ限定されないことを認識する必要がある。   In general, the routines executed to embody the embodiments of the invention may be embodied as part of an operating system or as a particular application, component, program, module, object, or sequence of instructions. Regardless of whether it is embodied, it can be called a “program” here. A computer program typically consists of a plurality of instructions that are to be translated by a native computer into a machine-readable format and thus into executable instructions. A program also includes variables and data structures that either reside locally to the program or are found in memory or on a storage device. In addition, the various programs described herein can be identified based on the symmetrical application in which they are embodied in a particular embodiment of the invention. However, it is necessary to recognize that the name of any particular program is used for convenience only, and therefore the present invention is not limited to use only in a particular application identified and / or implied by such name. There is.

さらに、通常はコンピュータ・プログラムをルーチン、プロシージャ、メソッド、モジュール、オブジェクト等々に系統化し得る方法が無数にあることはもとより、一般のコンピュータ内に常駐する各種のソフトウエア・レイヤ間にプログラムの機能を割り付ける各種の方法があることを考えれば(たとえば、オペレーティング・システム、ライブラリ、API、アプリケーション、アプレット等)、次のことも明らかである。本発明が、ここに述べられている特定の系統化および割り付け、またはプログラムの機能に限定されないことを認識される必要がある。   In addition, there are innumerable ways to organize a computer program into routines, procedures, methods, modules, objects, etc., as well as program functions between various software layers resident in a general computer. Given the various ways of allocating (eg, operating system, library, API, application, applet, etc.), the following is also apparent. It should be recognized that the present invention is not limited to the specific organization and assignment or program functionality described herein.

本発明は、ハードウエア、ソフトウエア、もしくはハードウエアとソフトウエアの組み合わせにおいて実現することができる。本発明の好ましい実施態様に従ったシステムは、1つのコンピュータ・システム内に集約された態様で、あるいは分散された態様で、すなわち各種のエレメントがいくつかの相互接続されたコンピュータ・システムにわたって分散される態様で実現することが可能である。任意の種類のコンピュータ・システム、もしくはそのほかの、ここに述べられている方法を実施するために適合された装置が適している。代表的なハードウエアとソフトウエアの組み合わせを、ロードされて実行されたときに、ここに述べられている方法をコンピュータが実施するようにコンピュータ・システムをコントロールするコンピュータ・プログラムを伴った汎用コンピュータ・システムとすることができる。   The present invention can be realized in hardware, software, or a combination of hardware and software. A system according to a preferred embodiment of the present invention can be distributed in a centralized or distributed manner within a single computer system, i.e., various elements are distributed across several interconnected computer systems. It is possible to realize in a manner. Any type of computer system or other apparatus adapted for performing the methods described herein is suitable. A general-purpose computer with a computer program that controls the computer system so that when the typical hardware and software combination is loaded and executed, the computer performs the methods described herein. It can be a system.

各コンピュータ・システムは、特に、1ないしは複数のコンピュータおよび少なくとも1つの信号担持メディア(signal bearing media)、すなわちコンピュータがデータ、インストラクション、メッセージもしくはメッセージ・パケット、およびそのほかの情報を担持する信号をそこから読み取ることのできる信号担持メディアを含むものとすることができる。信号担持メディアには、ROM、フラッシュ・メモリ、ディスク・ドライブ・メモリ、CD‐ROM、およびそのほかの永久ストレージ等の不揮発性メモリを含めることができる。それに加えて、コンピュータ・メディアに、たとえば、RAM、バッファ、キャッシュ・メモリ、およびネットワーク回路等の揮発性ストレージを含めてもよい。さらに、信号担持メディアは、有線ネットワークもしくはワイヤレス・ネットワークを含めたネットワーク・リンクおよび/またはネットワーク・インターフェース等の一時的状態メディア内に情報を担持する信号であって、コンピュータがその種の情報を担持する信号を読み取ることが可能な信号を包含することができる。   Each computer system specifically includes one or more computers and at least one signal bearing media, ie, signals from which the computer carries data, instructions, messages or message packets, and other information. It may include a signal carrier medium that can be read. The signal bearing media can include non-volatile memory such as ROM, flash memory, disk drive memory, CD-ROM, and other permanent storage. In addition, computer media may include volatile storage such as RAM, buffers, cache memory, and network circuitry, for example. In addition, signal bearing media are signals that carry information in temporary state media such as network links and / or network interfaces, including wired or wireless networks, where the computer carries such information. It is possible to include a signal capable of reading a signal to be read.

以上のとおり、本発明の特定の実施態様を開示してきたが、当業者であれば理解されるように、本発明の精神ならびに範囲から逸脱することなしに、特定の実施態様に対して変更を行うことは可能である。したがって、本発明の範囲は、これらの特定の実施態様に限定されない。さらに、付随する特許請求の範囲には、その種の応用、修正、および本発明の範囲内に含まれる実施態様をすべて保護することが意図されている。   While specific embodiments of the invention have been disclosed above, as will be appreciated by those skilled in the art, changes may be made to the specific embodiments without departing from the spirit and scope of the invention. It is possible to do. Accordingly, the scope of the invention is not limited to these specific embodiments. Furthermore, the appended claims are intended to protect all such applications, modifications, and embodiments that fall within the scope of the invention.

まとめとして、本発明の構成に関して以下の事項を開示する。   In summary, the following matters are disclosed regarding the configuration of the present invention.

(1)ノード内のリソースのマネジメントを行うための方法において:ノードによる使用に関して少なくとも1つのリソースのコンフィギュレーションを行うことであって、前記ノードは、前記リソースを含むサイトに関連付けされているものとすること;リソース・プールに関して、前記少なくとも1つのリソースの可用性の検査を行うことであって、前記ノードによるアクセス可能性の決定および前記リソースが前記サイトに配置されていることの検証を含む前記検査を行うこと;および、前記検査に基づいて、前記リソース・プールに関して、前記少なくとも1つのリソースのうちの少なくとも1つを選択すること;を含む方法。
(2)前記少なくとも1つのリソースは、少なくとも1つのディスク・ユニットを包含するものとし、かつ前記方法は、さらに:前記リソース・プールを切り替え可能なディスク・プールとしてコンフィギュレーションを行うこと;を含むものとする、上記(1)に記載の方法。
(3)前記ノードは、前記サイトに配置される単一のノードであり、前記ノードは、地理的に分散されたコンピューティング・システム・グループの一部として動作するものとする、上記(1)に記載の方法。
(4)前記少なくとも1つのリソースは、少なくとも1つのディスク・ユニットを包含するものとし、かつ前記方法は、さらに:前記リソース・プールに関して、各ディスク・ユニットの可用性のランキングを行うこと;および、前記可用性のランキングに従って前記リソース・プールに関して少なくとも1つの有効なディスク・ユニットを選択すること;を含むものとする、上記(1)に記載の方法。
(5)さらに:少なくとも1つの理由をユーザへ提供し、各ディスク・ユニットの妥当性およびランキングを説明すること;を含むものとする、上記(4)に記載の方法。
(6)前記ノードは、クラスタ・リソース・グループの一部であるとする、上記(1)に記載の方法。
(7)前記クラスタ・リソース・グループは、プライマリ・ノードおよび少なくとも1つのバックアップ・ノードを包含するものとする、上記(6)に記載の方法。
(8)さらに:クラスタ・リソース・グループのリカバリ・ドメインへノードを追加するときに、前記リソース・プール内のリソースの可用性の検査を行うことを含み、それにおいて前記検査は、前記ノードが前記リソース・プールを含むサイトに関連付けされていることの決定を含むものとする、上記(6)に記載の方法。
(9)さらに:切り替え可能なリソース・プールを前記クラスタ・リソース・グループへ追加するとき、前記切り替え可能なリソース・プール内の各リソースの、前記サイトに配置された前記クラスタ・リソース・グループのリカバリ・ドメイン内の各ノードによるアクセス可能性の検証を行うこと;を含むものとする、上記(6)に記載の方法。
(10)前記切り替え可能なリソース・プールを包含する切り替え可能なエンティティは、別のクラスタ・リソース・グループ内に含まれないものとする、上記(9)に記載の方法。
(11)さらに:クラスタリングの開始時に、前記切り替え可能なリソース・プールの切り替え可能性の検査を行うこと;を含むものとする、上記(6)に記載の方法。
(12)プロセッサによって実行されたときに、ノード内のリソースのマネジメントに関するオペレーションを行うプログラムを包含する信号担持メディアにおいて、前記オペレーションが:ノードによる使用に関して少なくとも1つのリソースのコンフィギュレーションを行うことであって、前記ノードは、前記リソースを含むサイトに関連付けされているものとすること;リソース・プールに関して、前記少なくとも1つのリソースの可用性の検査を行うことであって、前記ノードによるアクセス可能性の決定および前記リソースが前記サイトに配置されていることの検証を含む前記検査を行うこと;および、前記検査に基づいて、前記リソース・プールに関して、前記少なくとも1つのリソースのうちの少なくとも1つを選択すること;を含むものとする、信号担持メディア。
(13)さらに前記ステップが:前記リソース・プールを切り替え可能なディスク・プールとしてコンフィギュレーションを行うこと;を含むものとする、上記(12)に記載の信号担持メディア。
(14)前記ノードは、前記サイトに配置される単一のノードであり、前記ノードは、地理的に分散されたコンピューティング・システム・グループの一部として動作するものとする、上記(12)に記載の信号担持メディア。
(15)さらに前記ステップが:前記リソース・プールに関して、各リソースのランクキングを行うこと;および、前記ランキングの結果に従って前記リソース・プールに関して少なくとも1つの有効なリソースを選択すること;を含むものとする、上記(12)に記載の信号担持メディア。
(16)さらに前記ステップが:少なくとも1つの理由をユーザへ提供し、各リソースの妥当性およびランキングを説明すること;を含むものとする、上記(15)に記載の信号担持メディア。
(17)前記ノードは、クラスタ・リソース・グループの一部であるとする、上記(12)に記載の信号担持メディア。
(18)さらに前記ステップが:前記クラスタ・リソース・グループのリカバリ・ドメインへノードを追加するときに、前記リソース・プール内のリソースの可用性の検査を行うこと;を含むものとする、上記(17)に記載の信号担持メディア。
(19)さらに前記ステップが:切り替え可能なリソース・プールを前記クラスタ・リソース・グループへ追加するとき、前記切り替え可能なリソース・プール内の各リソースの、前記クラスタ・リソース・グループのリカバリ・ドメイン内の各ノードによるアクセス可能性の検証を行うこと;を含むものとする、上記(17)に記載の信号担持メディア。
(20)さらに前記ステップが:前記切り替え可能なリソース・プールを包含する切り替え可能なエンティティが、別のクラスタ・リソース・グループ内に含まれないことを検証すること;を含むものとする、上記(17)に記載の信号担持メディア。
(21)さらに前記ステップが:クラスタリングの開始時に、前記切り替え可能なリソース・プールの切り替え可能性の検査を行うこと;を含むものとする、上記(17)に記載の信号担持メディア。
(22)サイトに関連付けされたプライマリ・ノード;前記プライマリ・ノードに接続されたリソース・プール;および、前記リソース・プールに関して、少なくとも1つのリソースの可用性の検査を行い、かつ前記リソース・プールに関して、少なくとも1つの有効なリソースを選択するべくコンフィギュレーションが行われたプロセッサを備え、前記可用性は、前記サイトに配置されている前記少なくとも1つのリソースを、少なくとも部分的に基礎として検査されるものとするシステム。
(23)前記プロセッサは、さらに、前記リソース・プールに関して各リソースのランキングを行い、かつランキングに従って前記リソース・プールに関して少なくとも1つの有効なリソースを選択するべくコンフィギュレーションが行われているものとする、上記(22)に記載のシステム。
(24)前記プロセッサは、さらに、少なくとも1つの理由をユーザへ提供し、各リソースの妥当性およびランキングを説明するべくコンフィギュレーションが行われているものとする、上記(23)に記載のシステム。
(25)前記リソース・プールは、切り替え可能なリソース・プールとしてコンフィギュレーションが行われるものとする、上記(22)に記載のシステム。
(26)さらに、前記切り替え可能なリソース・プールに接続された少なくとも1つのバックアップ・ノードを備えるものとする、上記(25)に記載のシステム。
(27)前記プロセッサは、さらに、前記クラスタ・リソース・グループのリカバリ・ドメインへノードを追加するときに、前記切り替え可能なリソース・プール内の各リソースのアクセス可能性を検査するべくコンフィギュレーションが行われているものとする、上記(25)に記載のシステム。
(28)前記プロセッサは、さらに、前記切り替え可能なリソース・プールを前記クラスタ・リソース・グループへ追加するとき、前記切り替え可能なリソース・プール内の各リソースの、前記クラスタ・リソース・グループのリカバリ・ドメイン内の各ノードによるアクセス可能性を検証するべくコンフィギュレーションが行われているものとする、上記(25)に記載のシステム。
(29)前記プロセッサは、さらに、前記切り替え可能なリソース・プールを包含する切り替え可能なエンティティが、別のクラスタ・リソース・グループ内に含まれないことを検証するべくコンフィギュレーションが行われているものとする、上記(25)に記載のシステム。
(30)前記プロセッサは、さらに、クラスタリングの開始時に、前記切り替え可能なリソース・プールの切り替え可能性を検査するべくコンフィギュレーションが行われているものとする、上記(25)に記載のシステム。
(1) In a method for managing resources in a node: configuring at least one resource for use by a node, wherein the node is associated with a site containing the resource; Performing an availability check of the at least one resource with respect to a resource pool, comprising determining accessibility by the node and verifying that the resource is located at the site And selecting at least one of the at least one resource for the resource pool based on the examination.
(2) the at least one resource includes at least one disk unit, and the method further includes: configuring the resource pool as a switchable disk pool; The method according to (1) above.
(3) The node is a single node located at the site, and the node operates as part of a geographically distributed computing system group. The method described in 1.
(4) the at least one resource includes at least one disk unit, and the method further includes: ranking availability of each disk unit with respect to the resource pool; and Selecting the at least one valid disk unit for the resource pool according to an availability ranking.
(5) The method according to (4), further comprising: providing at least one reason to the user and explaining the validity and ranking of each disk unit.
(6) The method according to (1), wherein the node is a part of a cluster resource group.
(7) The method according to (6), wherein the cluster resource group includes a primary node and at least one backup node.
(8) Further: when adding a node to the recovery domain of a cluster resource group, includes checking for availability of resources in the resource pool, wherein the check includes the node The method according to (6) above, including the determination of being associated with a site including a pool.
(9) Further: when adding a switchable resource pool to the cluster resource group, recovery of the cluster resource group located at the site for each resource in the switchable resource pool The method according to (6) above, including: verifying accessibility by each node in the domain.
(10) The method according to (9), wherein the switchable entity that includes the switchable resource pool is not included in another cluster resource group.
(11) The method according to (6), further including: checking the switchability of the switchable resource pool at the start of clustering.
(12) In a signal bearing medium containing a program that, when executed by a processor, performs an operation relating to the management of resources within a node, said operation is: configuring at least one resource for use by the node. The node is associated with a site containing the resource; checking availability of the at least one resource with respect to a resource pool, wherein the determination of accessibility by the node And performing the check including verification that the resource is located at the site; and selecting at least one of the at least one resource for the resource pool based on the check about It is intended to include, signal-bearing media.
(13) The signal bearing medium according to (12), further including: configuring the resource pool as a switchable disk pool.
(14) The node is a single node located at the site, and the node operates as part of a geographically distributed computing system group. The signal carrier medium described in 1.
(15) The step further includes: ranking each resource with respect to the resource pool; and selecting at least one valid resource with respect to the resource pool according to the ranking result; The signal carrying medium according to (12) above.
(16) The signal bearing medium according to (15), wherein the step further includes: providing at least one reason to the user and explaining the validity and ranking of each resource.
(17) The signal bearing medium according to (12), wherein the node is part of a cluster resource group.
(18) In the above (17), the step further includes: checking the availability of resources in the resource pool when adding a node to the recovery domain of the cluster resource group The signal carrier medium described.
(19) The step further includes: when adding a switchable resource pool to the cluster resource group, for each resource in the switchable resource pool, in the recovery domain of the cluster resource group The signal carrying medium according to (17), including verifying accessibility by each of the nodes.
(20) The step (17) further comprising: verifying that the switchable entity that includes the switchable resource pool is not included in another cluster resource group. The signal carrier medium described in 1.
(21) The signal-carrying medium according to (17), wherein the step further includes: checking the switchability of the switchable resource pool at the start of clustering.
(22) a primary node associated with a site; a resource pool connected to the primary node; and for the resource pool, check availability of at least one resource, and for the resource pool, A processor configured to select at least one valid resource, wherein the availability is checked at least in part on the basis of the at least one resource located at the site; system.
(23) The processor is further configured to rank each resource with respect to the resource pool and to select at least one valid resource with respect to the resource pool according to the ranking. The system according to (22) above.
(24) The system according to (23), wherein the processor is further configured to provide at least one reason to the user and explain the validity and ranking of each resource.
(25) The system according to (22), wherein the resource pool is configured as a switchable resource pool.
(26) The system according to (25), further including at least one backup node connected to the switchable resource pool.
(27) The processor is further configured to check the accessibility of each resource in the switchable resource pool when adding a node to the recovery domain of the cluster resource group. The system according to (25) above, wherein
(28) When the processor further adds the switchable resource pool to the cluster resource group, the recovery of the cluster resource group for each resource in the switchable resource pool The system according to (25), wherein the system is configured to verify accessibility by each node in the domain.
(29) The processor is further configured to verify that a switchable entity that includes the switchable resource pool is not included in another cluster resource group. The system according to (25) above.
(30) The system according to (25), wherein the processor is further configured to check the switchability of the switchable resource pool at the start of clustering.

本発明の一例の実施態様の全体的なシステム・アーキテクチャを例示したコンピューティング・システム・グループのブロック図である。1 is a block diagram of a computing system group illustrating the overall system architecture of an example embodiment of the invention. FIG. 本発明の一例の実施態様に従った、図1に示されているグループのグループ・メンバを図示したブロック図である。FIG. 2 is a block diagram illustrating group members of the group shown in FIG. 1 in accordance with an example embodiment of the present invention. 本発明の一例の実施態様に従った、ASPに関して1ないしは複数のDASDを選択するプロセスを示したフローチャートである。6 is a flowchart illustrating a process for selecting one or more DASDs for an ASP, according to an example embodiment of the present invention. 本発明の一例の実施態様に従った、ソフトウエア・クラスの設計および各ソフトウエア・クラスの役割の一例を示した説明図である。FIG. 6 is an explanatory diagram illustrating an example of software class design and the role of each software class, according to an example embodiment of the present invention. 本発明の一例の実施態様に従った、一例の妥当性インスペクタに関する妥当性インスペクタのオブジェクト指向設計を示した説明図である。FIG. 6 is an illustration showing an object-oriented design of a validity inspector for an example validity inspector, according to an example embodiment of the present invention. 本発明の一例の実施態様に従った、選択されたASPに関する一例のコンフィギュレーション未済DASDの妥当性検査およびランキングのプロセスを示したフローチャートである。6 is a flowchart illustrating an example unconfigured DASD validation and ranking process for a selected ASP, in accordance with an example embodiment of the present invention. 本発明の一例の実施態様に従った、オペレーションのクラスタリングのためのIASPの切り替え可能性のチェックに使用される一例のソフトウエア・オブジェクトのセットを示した説明図である。FIG. 6 is an illustration showing an example set of software objects used to check IASP switchability for clustering operations according to an example embodiment of the present invention. 本発明の一例の実施態様に従った、図1のサイトに関するノードおよびリソースのコンフィギュレーションを示したブロック図である。FIG. 2 is a block diagram illustrating node and resource configurations for the site of FIG. 1 in accordance with an example embodiment of the present invention. 本発明の一例の実施態様に従った、初期コンフィギュレーションのプロセスを示したフローチャートである。6 is a flowchart illustrating a process of initial configuration according to an example embodiment of the present invention.

符号の説明Explanation of symbols

100 コンピュータ・システム・グループ/コンピューティング・システム・グループ
102 サイトA
104 サイトB
106 データ通信ネットワーク
108 ノードB
110 ノードA
112 ノードC
114 ノードD
116 リソースA
118 リソースB
120 リソースZ
121 リソースC
122 リソースD
124 リソースY
126 サイト間通信システム
130 リソース・プールA
132 リソース・プールB
140 リソース・プールE
200 グループ・メンバ/コンピュータ・システム
202 CPU/プロセッサ
204 メイン・メモリ
206 大容量ストレージ・インターフェース
208 端末インターフェース
210 ネットワーク・インターフェース
212 システム・バス
214 DASDデバイス
216 フレキシブル・ディスク
218 端末
220 アプリケーション・プログラム
222 オブジェクト
226 データ
228 オペレーティング・システム/オペレーティング・システムのイメージ
230 DASDマネジメント・ユーザ・インターフェース・プログラム
232 DASDストレージ・マネジメント・プログラム/DSMプログラム
234 クラスタ・ユーザ・インターフェース・プログラム/グループ・ユーザ・インターフェース・プログラム
240 ステーションA
242 ステーションB
300 フローチャート/方法
330 妥当性インスペクタ
400 設計
405 DASD Management(DM)クラス
410 LdValidityForAspクラス
415 ToyAspクラス
420 ToyLdクラス
425 LdAdderクラス
430 HdwSwitchingCapabilitiesクラス
435 SwitchableEntityクラス
440 CRGMクラス
445 CRGクラス
500 設計
502 LdValidityForAspオブジェクト
505 ToyLdオブジェクト
510 LdAdderサンドボックス
515 DASD Management
520 validToBeInAsp関数
525 HdwSwitchingCapabilitiesオブジェクト
530 isParentSwitchable関数
535 SwitchabilityEntityオブジェクト/SwitchableEntityオブジェクト
540 CRGオブジェクト
545 ASPオブジェクト/ToyAsp 32/ToyAsp 33
550 リソース
555 CRGリカバリ・ドメイン
600 プロセッシング・フロー/方法
710 CRGMオブジェクト
712 add_node_to_recovery_domain関数
714 add_iasp関数
716 start_clustering関数
720 SwitchableEntityオブジェクト
722 isResourceAccessible関数
724 getEntities関数
730 CRGオブジェクト
732 Resourceオブジェクト
734 RecoveryDomainオブジェクト
800 ノードおよびリソースのコンフィギュレーション
802 DASD 11
804 DASD 12
806 DASD 13
808 DASD 14
810 DASD 21
812 DASD 22
820 クラスタ・マネジメント・コンピュータ・システム
900 プロセッシング・フロー
100 Computer System Group / Computing System Group 102 Site A
104 Site B
106 Data communication network 108 Node B
110 Node A
112 Node C
114 Node D
116 Resource A
118 Resource B
120 Resource Z
121 Resource C
122 Resource D
124 Resource Y
126 Communication system between sites 130 Resource pool A
132 Resource pool B
140 Resource pool E
200 Group Member / Computer System 202 CPU / Processor 204 Main Memory 206 Mass Storage Interface 208 Terminal Interface 210 Network Interface 212 System Bus 214 DASD Device 216 Flexible Disk 218 Terminal 220 Application Program 222 Object 226 Data 228 Operating System / Operating System Image 230 DASD Management User Interface Program 232 DASD Storage Management Program / DSM Program 234 Cluster User Interface Program / Group User Interface Program 240 Station A
242 Station B
300 flow / method 330 validity inspector 400 design 405 DASD Management (DM) class 410 LdValidityForAsp Class 415 ToyAsp Class 420 ToyLd Class 425 LdAdder Class 430 HdwSwitchingCapabilities Class 435 SwitchableEntity Class 440 CRGM Class 445 CRG Class 500 design 502 LdValidityForAsp object 505 ToyLd object 510 LdAdder Sandbox 515 DASD Management
520 validToBeInAsp function 525 HdwSwitchingCapabilities object 530 isParentSwitchable function 535 SwitchabilityEntity object / SwitchableEntity object 540 CRG object 545 ASP object / 545 ASP object / 545 ASP
550 resource 555 CRG recovery domain 600 Processing Flow / method 710 CRGM object 712 Add_node_to_recovery_domain function 714 Add_iasp function 716 Start_clustering function 720 SwitchableEntity object 722 IsResourceAccessible function 724 getEntities function 730 CRG object 732 Resource Object 734 RecoveryDomain objects 800 nodes and resource configuration 802 DASD 11
804 DASD 12
806 DASD 13
808 DASD 14
810 DASD 21
812 DASD 22
820 Cluster Management Computer System 900 Processing Flow

Claims (30)

ノード内のリソースのマネジメントを行うための方法において:
ノードによる使用に関して少なくとも1つのリソースのコンフィギュレーションを行うことであって、前記ノードは、前記リソースを含むサイトに関連付けされているものとすること;
リソース・プールに関して、前記少なくとも1つのリソースの可用性の検査を行うことであって、前記ノードによるアクセス可能性の決定および前記リソースが前記サイトに配置されていることの検証を含む前記検査を行うこと;および、
前記検査に基づいて、前記リソース・プールに関して、前記少なくとも1つのリソースのうちの少なくとも1つを選択すること;
を含む方法。
In a method for managing resources in a node:
Configuring at least one resource for use by a node, said node being associated with a site containing said resource;
Checking the availability of the at least one resource with respect to a resource pool, the checking including determining accessibility by the node and verifying that the resource is located at the site ;and,
Selecting at least one of the at least one resource for the resource pool based on the check;
Including methods.
前記少なくとも1つのリソースは、少なくとも1つのディスク・ユニットを包含するものとし、かつ前記方法は、さらに:
前記リソース・プールを切り替え可能なディスク・プールとしてコンフィギュレーションを行うこと;
を含むものとする、請求項1に記載の方法。
The at least one resource shall include at least one disk unit, and the method further includes:
Configuring the resource pool as a switchable disk pool;
The method of claim 1, comprising:
前記ノードは、前記サイトに配置される単一のノードであり、前記ノードは、地理的に分散されたコンピューティング・システム・グループの一部として動作するものとする、請求項1に記載の方法。   The method of claim 1, wherein the node is a single node located at the site, the node operating as part of a geographically distributed computing system group. . 前記少なくとも1つのリソースは、少なくとも1つのディスク・ユニットを包含するものとし、かつ前記方法は、さらに:
前記リソース・プールに関して、各ディスク・ユニットの可用性のランキングを行うこと;および、
前記可用性のランキングに従って前記リソース・プールに関して少なくとも1つの有効なディスク・ユニットを選択すること;
を含むものとする、請求項1に記載の方法。
The at least one resource shall include at least one disk unit, and the method further includes:
Ranking the availability of each disk unit with respect to the resource pool; and
Selecting at least one valid disk unit for the resource pool according to the availability ranking;
The method of claim 1, comprising:
さらに:
少なくとも1つの理由をユーザへ提供し、各ディスク・ユニットの妥当性およびランキングを説明すること;
を含むものとする、請求項4に記載の方法。
further:
Provide at least one reason to the user and explain the validity and ranking of each disk unit;
The method of claim 4, comprising:
前記ノードは、クラスタ・リソース・グループの一部であるとする、請求項1に記載の方法。   The method of claim 1, wherein the node is part of a cluster resource group. 前記クラスタ・リソース・グループは、プライマリ・ノードおよび少なくとも1つのバックアップ・ノードを包含するものとする、請求項6に記載の方法。   The method of claim 6, wherein the cluster resource group comprises a primary node and at least one backup node. さらに:
クラスタ・リソース・グループのリカバリ・ドメインへノードを追加するときに、前記リソース・プール内のリソースの可用性の検査を行うことを含み、それにおいて前記検査は、前記ノードが前記リソース・プールを含むサイトに関連付けされていることの決定を含むものとする、請求項6に記載の方法。
further:
When adding a node to the recovery domain of a cluster resource group, includes checking availability of resources in the resource pool, wherein the checking includes a site where the node includes the resource pool The method of claim 6, comprising determining that it is associated with.
さらに:
切り替え可能なリソース・プールを前記クラスタ・リソース・グループへ追加するとき、前記切り替え可能なリソース・プール内の各リソースの、前記サイトに配置された前記クラスタ・リソース・グループのリカバリ・ドメイン内の各ノードによるアクセス可能性の検証を行うこと;
を含むものとする、請求項6に記載の方法。
further:
When adding a switchable resource pool to the cluster resource group, each resource in the switchable resource pool in the recovery domain of the cluster resource group located at the site Verifying accessibility by nodes;
The method of claim 6, comprising:
前記切り替え可能なリソース・プールを包含する切り替え可能なエンティティは、別のクラスタ・リソース・グループ内に含まれないものとする、請求項9に記載の方法。   The method of claim 9, wherein a switchable entity that includes the switchable resource pool is not included in another cluster resource group. さらに:
クラスタリングの開始時に、前記切り替え可能なリソース・プールの切り替え可能性の検査を行うこと;
を含むものとする、請求項6に記載の方法。
further:
Checking the switchability of the switchable resource pool at the start of clustering;
The method of claim 6, comprising:
プロセッサによって実行されたときに、ノード内のリソースのマネジメントに関するオペレーションを行うプログラムを包含する信号担持メディアにおいて、前記オペレーションが:
ノードによる使用に関して少なくとも1つのリソースのコンフィギュレーションを行うことであって、前記ノードは、前記リソースを含むサイトに関連付けされているものとすること;
リソース・プールに関して、前記少なくとも1つのリソースの可用性の検査を行うことであって、前記ノードによるアクセス可能性の決定および前記リソースが前記サイトに配置されていることの検証を含む前記検査を行うこと;および、
前記検査に基づいて、前記リソース・プールに関して、前記少なくとも1つのリソースのうちの少なくとも1つを選択すること;
を含むものとする、信号担持メディア。
In a signal-bearing medium that includes a program that, when executed by a processor, performs operations related to management of resources within a node, the operations include:
Configuring at least one resource for use by a node, said node being associated with a site containing said resource;
Checking the availability of the at least one resource with respect to a resource pool, the checking including determining accessibility by the node and verifying that the resource is located at the site ;and,
Selecting at least one of the at least one resource for the resource pool based on the check;
A signal-bearing medium.
さらに前記ステップが:
前記リソース・プールを切り替え可能なディスク・プールとしてコンフィギュレーションを行うこと;
を含むものとする、請求項12に記載の信号担持メディア。
Further the steps are:
Configuring the resource pool as a switchable disk pool;
The signal carrying medium according to claim 12, comprising:
前記ノードは、前記サイトに配置される単一のノードであり、前記ノードは、地理的に分散されたコンピューティング・システム・グループの一部として動作するものとする、請求項12に記載の信号担持メディア。   The signal of claim 12, wherein the node is a single node located at the site, the node operating as part of a geographically distributed computing system group. Carrier media. さらに前記ステップが:
前記リソース・プールに関して、各リソースのランクキングを行うこと;および、
前記ランキングの結果に従って前記リソース・プールに関して少なくとも1つの有効なリソースを選択すること;
を含むものとする、請求項12に記載の信号担持メディア。
Further the steps are:
Ranking each resource with respect to the resource pool; and
Selecting at least one valid resource for the resource pool according to the ranking result;
The signal carrying medium according to claim 12, comprising:
さらに前記ステップが:
少なくとも1つの理由をユーザへ提供し、各リソースの妥当性およびランキングを説明すること;
を含むものとする、請求項15に記載の信号担持メディア。
Further the steps are:
Provide the user with at least one reason and explain the relevance and ranking of each resource;
The signal carrying medium according to claim 15, comprising:
前記ノードは、クラスタ・リソース・グループの一部であるとする、請求項12に記載の信号担持メディア。   The signal bearing media of claim 12, wherein the node is part of a cluster resource group. さらに前記ステップが:
前記クラスタ・リソース・グループのリカバリ・ドメインへノードを追加するときに、前記リソース・プール内のリソースの可用性の検査を行うこと;
を含むものとする、請求項17に記載の信号担持メディア。
Further the steps are:
Checking availability of resources in the resource pool when adding a node to the recovery domain of the cluster resource group;
The signal carrying medium according to claim 17, comprising:
さらに前記ステップが:
切り替え可能なリソース・プールを前記クラスタ・リソース・グループへ追加するとき、前記切り替え可能なリソース・プール内の各リソースの、前記クラスタ・リソース・グループのリカバリ・ドメイン内の各ノードによるアクセス可能性の検証を行うこと;
を含むものとする、請求項17に記載の信号担持メディア。
Further the steps are:
When adding a switchable resource pool to the cluster resource group, the accessibility of each resource in the switchable resource pool by each node in the recovery domain of the cluster resource group Verifying;
The signal carrying medium according to claim 17, comprising:
さらに前記ステップが:
前記切り替え可能なリソース・プールを包含する切り替え可能なエンティティが、別のクラスタ・リソース・グループ内に含まれないことを検証すること;
を含むものとする、請求項17に記載の信号担持メディア。
Further the steps are:
Verifying that the switchable entity that encompasses the switchable resource pool is not contained within another cluster resource group;
The signal carrying medium according to claim 17, comprising:
さらに前記ステップが:
クラスタリングの開始時に、前記切り替え可能なリソース・プールの切り替え可能性の検査を行うこと;
を含むものとする、請求項17に記載の信号担持メディア。
Further the steps are:
Checking the switchability of the switchable resource pool at the start of clustering;
The signal carrying medium according to claim 17, comprising:
サイトに関連付けされたプライマリ・ノード;
前記プライマリ・ノードに接続されたリソース・プール;および、
前記リソース・プールに関して、少なくとも1つのリソースの可用性の検査を行い、かつ前記リソース・プールに関して、少なくとも1つの有効なリソースを選択するべくコンフィギュレーションが行われたプロセッサを備え、前記可用性は、前記サイトに配置されている前記少なくとも1つのリソースを、少なくとも部分的に基礎として検査されるものとするシステム。
Primary node associated with the site;
A resource pool connected to the primary node; and
A processor configured to check availability of at least one resource with respect to the resource pool and to select at least one valid resource with respect to the resource pool, the availability comprising the site A system in which the at least one resource located in a network is to be examined at least in part on a basis.
前記プロセッサは、さらに、前記リソース・プールに関して各リソースのランキングを行い、かつランキングに従って前記リソース・プールに関して少なくとも1つの有効なリソースを選択するべくコンフィギュレーションが行われているものとする、請求項22に記載のシステム。   23. The processor is further configured to rank each resource with respect to the resource pool and to select at least one valid resource with respect to the resource pool according to the ranking. The system described in. 前記プロセッサは、さらに、少なくとも1つの理由をユーザへ提供し、各リソースの妥当性およびランキングを説明するべくコンフィギュレーションが行われているものとする、請求項23に記載のシステム。   24. The system of claim 23, wherein the processor is further configured to provide at least one reason to a user to account for the validity and ranking of each resource. 前記リソース・プールは、切り替え可能なリソース・プールとしてコンフィギュレーションが行われるものとする、請求項22に記載のシステム。   23. The system of claim 22, wherein the resource pool is configured as a switchable resource pool. さらに、前記切り替え可能なリソース・プールに接続された少なくとも1つのバックアップ・ノードを備えるものとする、請求項25に記載のシステム。   26. The system of claim 25, further comprising at least one backup node connected to the switchable resource pool. 前記プロセッサは、さらに、前記クラスタ・リソース・グループのリカバリ・ドメインへノードを追加するときに、前記切り替え可能なリソース・プール内の各リソースのアクセス可能性を検査するべくコンフィギュレーションが行われているものとする、請求項25に記載のシステム。   The processor is further configured to check the accessibility of each resource in the switchable resource pool when adding a node to the recovery domain of the cluster resource group. 26. The system of claim 25. 前記プロセッサは、さらに、前記切り替え可能なリソース・プールを前記クラスタ・リソース・グループへ追加するとき、前記切り替え可能なリソース・プール内の各リソースの、前記クラスタ・リソース・グループのリカバリ・ドメイン内の各ノードによるアクセス可能性を検証するべくコンフィギュレーションが行われているものとする、請求項25に記載のシステム。   The processor further adds, when adding the switchable resource pool to the cluster resource group, each resource in the switchable resource pool in the recovery domain of the cluster resource group. 26. The system of claim 25, wherein the system is configured to verify accessibility by each node. 前記プロセッサは、さらに、前記切り替え可能なリソース・プールを包含する切り替え可能なエンティティが、別のクラスタ・リソース・グループ内に含まれないことを検証するべくコンフィギュレーションが行われているものとする、請求項25に記載のシステム。   The processor is further configured to verify that a switchable entity that includes the switchable resource pool is not included in another cluster resource group. 26. The system of claim 25. 前記プロセッサは、さらに、クラスタリングの開始時に、前記切り替え可能なリソース・プールの切り替え可能性を検査するべくコンフィギュレーションが行われているものとする、請求項25に記載のシステム。   26. The system of claim 25, wherein the processor is further configured to check for switchability of the switchable resource pool at the start of clustering.
JP2004173796A 2003-07-31 2004-06-11 Method and device for validity inspection of resource regarding geographical mirroring and for ranking Pending JP2005056392A (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US10/631,936 US20050044226A1 (en) 2003-07-31 2003-07-31 Method and apparatus for validating and ranking resources for geographic mirroring

Publications (1)

Publication Number Publication Date
JP2005056392A true JP2005056392A (en) 2005-03-03

Family

ID=34193513

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004173796A Pending JP2005056392A (en) 2003-07-31 2004-06-11 Method and device for validity inspection of resource regarding geographical mirroring and for ranking

Country Status (4)

Country Link
US (1) US20050044226A1 (en)
JP (1) JP2005056392A (en)
CN (1) CN1313929C (en)
TW (1) TW200513871A (en)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8332483B2 (en) * 2003-12-15 2012-12-11 International Business Machines Corporation Apparatus, system, and method for autonomic control of grid system resources
US7680933B2 (en) * 2003-12-15 2010-03-16 International Business Machines Corporation Apparatus, system, and method for on-demand control of grid system resources
WO2005089236A2 (en) 2004-03-13 2005-09-29 Cluster Resources, Inc. System and method for providing intelligent pre-staging of data in a compute environment
US8782654B2 (en) 2004-03-13 2014-07-15 Adaptive Computing Enterprises, Inc. Co-allocating a reservation spanning different compute resources types
US20070266388A1 (en) 2004-06-18 2007-11-15 Cluster Resources, Inc. System and method for providing advanced reservations in a compute environment
US7383430B1 (en) * 2004-07-29 2008-06-03 Emc Corporation System and method for validating resource groups
US8176490B1 (en) 2004-08-20 2012-05-08 Adaptive Computing Enterprises, Inc. System and method of interfacing a workload manager and scheduler with an identity manager
WO2006053084A2 (en) 2004-11-05 2006-05-18 Commvault Systems, Inc. Method and system of pooling storage devices
US8271980B2 (en) 2004-11-08 2012-09-18 Adaptive Computing Enterprises, Inc. System and method of providing system jobs within a compute environment
US8863143B2 (en) 2006-03-16 2014-10-14 Adaptive Computing Enterprises, Inc. System and method for managing a hybrid compute environment
US9231886B2 (en) 2005-03-16 2016-01-05 Adaptive Computing Enterprises, Inc. Simple integration of an on-demand compute environment
WO2006107531A2 (en) 2005-03-16 2006-10-12 Cluster Resources, Inc. Simple integration of an on-demand compute environment
US9015324B2 (en) * 2005-03-16 2015-04-21 Adaptive Computing Enterprises, Inc. System and method of brokering cloud computing resources
ES2614751T3 (en) 2005-04-07 2017-06-01 Iii Holdings 12, Llc Access on demand to computer resources
US8041773B2 (en) 2007-09-24 2011-10-18 The Research Foundation Of State University Of New York Automatic clustering for self-organizing grids
US11720290B2 (en) 2009-10-30 2023-08-08 Iii Holdings 2, Llc Memcached server functionality in a cluster of data processing nodes
US10877695B2 (en) 2009-10-30 2020-12-29 Iii Holdings 2, Llc Memcached server functionality in a cluster of data processing nodes
US9466036B1 (en) * 2012-05-10 2016-10-11 Amazon Technologies, Inc. Automated reconfiguration of shared network resources
US9672264B2 (en) * 2015-01-26 2017-06-06 Netapp, Inc. Method and system for backup verification
US9917740B2 (en) 2015-09-09 2018-03-13 International Business Machines Corporation Reducing internodal communications in a clustered system
US11593223B1 (en) 2021-09-02 2023-02-28 Commvault Systems, Inc. Using resource pool administrative entities in a data storage management system to provide shared infrastructure to tenants

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE511848C2 (en) * 1994-09-12 1999-12-06 Ericsson Telefon Ab L M Resource separation in a service and connection separated network
US5937189A (en) * 1996-11-12 1999-08-10 International Business Machines Corporation Object oriented framework mechanism for determining configuration relations
US6151688A (en) * 1997-02-21 2000-11-21 Novell, Inc. Resource management in a clustered computer system
US5983316A (en) * 1997-05-29 1999-11-09 Hewlett-Parkard Company Computing system having a system node that utilizes both a logical volume manager and a resource monitor for managing a storage pool
US6493804B1 (en) * 1997-10-01 2002-12-10 Regents Of The University Of Minnesota Global file system and data storage device locks
US6317815B1 (en) * 1997-12-30 2001-11-13 Emc Corporation Method and apparatus for formatting data in a storage device
FI981028A (en) * 1998-05-08 1999-11-09 Ericsson Telefon Ab L M Procedure and apparatus for access to service providers
US6389459B1 (en) * 1998-12-09 2002-05-14 Ncr Corporation Virtualized storage devices for network disk mirroring applications
US6260125B1 (en) * 1998-12-09 2001-07-10 Ncr Corporation Asynchronous write queues, reconstruction and check-pointing in disk-mirroring applications
US7203732B2 (en) * 1999-11-11 2007-04-10 Miralink Corporation Flexible remote data mirroring
US6745305B2 (en) * 2000-12-13 2004-06-01 Ncr Corporation Zeroed block optimization in disk mirroring applications
US6728818B2 (en) * 2001-06-27 2004-04-27 International Business Machines Corporation Dual storage adapters utilizing clustered adapters supporting fast write caches
US6675259B2 (en) * 2001-07-26 2004-01-06 International Business Machines Corporation Method and apparatus for validating and ranking disk units for switching
US20030135609A1 (en) * 2002-01-16 2003-07-17 Sun Microsystems, Inc. Method, system, and program for determining a modification of a system resource configuration
US6944788B2 (en) * 2002-03-12 2005-09-13 Sun Microsystems, Inc. System and method for enabling failover for an application server cluster

Also Published As

Publication number Publication date
US20050044226A1 (en) 2005-02-24
TW200513871A (en) 2005-04-16
CN1313929C (en) 2007-05-02
CN1581086A (en) 2005-02-16

Similar Documents

Publication Publication Date Title
JP2005056392A (en) Method and device for validity inspection of resource regarding geographical mirroring and for ranking
US7849221B2 (en) Online instance deletion in a multi-instance computer system
US7155462B1 (en) Method and apparatus enabling migration of clients to a specific version of a server-hosted application, where multiple software versions of the server-hosted application are installed on a network
US20170249203A1 (en) Optimizing and scheduling maintenance tasks in a dispersed storage network
US6249883B1 (en) System and method for monitoring domain controllers
CN109690494B (en) Hierarchical fault tolerance in system storage
US20030074426A1 (en) Dynamic cluster versioning for a group
US8984108B2 (en) Dynamic CLI mapping for clustered software entities
JP2006114040A (en) Failover scope for node of computer cluster
US20070234351A1 (en) Method, apparatus, and computer product for managing operation
US20070237162A1 (en) Method, apparatus, and computer product for processing resource change
US7246261B2 (en) Join protocol for a primary-backup group with backup resources in clustered computer system
US8031637B2 (en) Ineligible group member status
JP2007018407A (en) Data replication system
CN1278254C (en) Method and system for determining activity of high availability mass
US6675259B2 (en) Method and apparatus for validating and ranking disk units for switching
CN111752892B (en) Distributed file system and implementation method, management system, equipment and medium thereof
US7590811B1 (en) Methods and system for improving data and application availability in clusters
WO2016046951A1 (en) Computer system and file management method therefor
US10360107B2 (en) Modifying allocation of storage resources in a dispersed storage network
US10678639B2 (en) Quasi-error notifications in a dispersed storage network
CN117714476A (en) Cloud coil control method, cloud coil control system, electronic equipment and storage medium
CN115878269A (en) Cluster migration method, related device and storage medium
US20030158941A1 (en) Apparatus, method and computer software for real-time network configuration
Austin et al. Oracle Clusterware and RAC Administration and Deployment Guide, 10g Release 2 (10.2) B14197-02

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071120

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20080213

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080213

RD12 Notification of acceptance of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7432

Effective date: 20080213

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20080214

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080411

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20080416

RD14 Notification of resignation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7434

Effective date: 20080416