JP2003099384A - Load-sharing system, host computer for the load-sharing system, and load-sharing program - Google Patents

Load-sharing system, host computer for the load-sharing system, and load-sharing program

Info

Publication number
JP2003099384A
JP2003099384A JP2001286952A JP2001286952A JP2003099384A JP 2003099384 A JP2003099384 A JP 2003099384A JP 2001286952 A JP2001286952 A JP 2001286952A JP 2001286952 A JP2001286952 A JP 2001286952A JP 2003099384 A JP2003099384 A JP 2003099384A
Authority
JP
Japan
Prior art keywords
mapping
information
path group
data storage
storage device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001286952A
Other languages
Japanese (ja)
Inventor
Ko Katsurajima
航 桂島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2001286952A priority Critical patent/JP2003099384A/en
Publication of JP2003099384A publication Critical patent/JP2003099384A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a multi-path load-sharing system in a host computer, which accesses a data storage device with unshared cache method. SOLUTION: In the load-sharing system, connecting a host computer 100 and a data storage device 200 with the unshared cache method via a network 300, a host computer 100 is constituted with a load-sharing control part 130 which groups plural physical paths with the data storage device 200 for each of caches which are to be used by a host control part, for executing prefetch within the data storage device 200 and manage them as a path group, map a sequential readout request into a single path group and properly distributing input output requests into the plural physical paths.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明はホストコンピュータ
とデータ記憶装置の間に複数本の物理的アクセスパスが
存在する場合のホストコンピュータのマルチパス負荷分
散に関し、特に、データ記憶装置が非共有キャッシュ方
式の場合の負荷分散システム、負荷分散システムのホス
トコンピュータ、及び負荷分散プログラムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to multipath load balancing of a host computer when there are a plurality of physical access paths between the host computer and the data storage device, and more particularly, the data storage device is a non-shared cache system. In this case, the present invention relates to a load balancing system, a host computer of the load balancing system, and a load balancing program.

【0002】[0002]

【従来の技術】高可用性を求められるシステムの場合、
ホストコンピュータとデータ記憶装置のアクセスのため
に、複数本の物理的パスが設けられる。その理由は、或
るパスで障害が発生した際に、異なるパスをその代替パ
スとして用いるためである。
2. Description of the Related Art In the case of a system that requires high availability,
Multiple physical paths are provided for accessing the host computer and the data storage device. The reason is that when a failure occurs in a certain path, a different path is used as its alternative path.

【0003】これらの複数本の物理的パスを効率的に利
用するために、ホストコンピュータ側でのマルチパス負
荷分散が広く行なわれている。データ記憶装置に対する
アクセスの負荷を複数本の物理的パスに適切に分散する
ことで、ホストコンピュータとデータ記憶装置の間のス
ループットを向上させるのが狙いである。
In order to efficiently use these plural physical paths, multipath load distribution is widely performed on the host computer side. The purpose is to improve the throughput between the host computer and the data storage device by appropriately distributing the load of access to the data storage device among a plurality of physical paths.

【0004】マルチパス負荷分散の制御を行なう手段
は、ファイルシステムレイヤとデバイスドライバレイヤ
の間に位置しており、ホストコンピュータのファイルシ
ステムからデータ記憶装置に対するI/O要求(入出力
要求)を受け取ると、負荷分散アルゴリズムに基づき使
用するパスを決定し、適切なデバイスドライバへI/O
要求を渡す仕組みになっている。
The means for controlling the multi-path load balancing is located between the file system layer and the device driver layer and receives an I / O request (input / output request) to the data storage device from the file system of the host computer. And the path to be used based on the load balancing algorithm, and I / O to the appropriate device driver.
It is a mechanism to pass the request.

【0005】次に、図面を参照して従来の負荷分散シス
テムの動作を説明する。図12は、従来の負荷分散シス
テムの構成を示すブロック図である。
Next, the operation of the conventional load balancing system will be described with reference to the drawings. FIG. 12 is a block diagram showing the configuration of a conventional load balancing system.

【0006】ホストコンピュータ100e内のファイル
システム120は、アプリケーション110からI/O
要求を受け取ると、それらをブロック単位のI/O要求
に変換し、負荷分散制御部130eに送付する。負荷分
散制御部130eは、ファイルシステム120からI/
O要求を受け取ると、負荷分散アルゴリズムに基づき使
用するパスを決定する。最後に、デバイスドライバ16
0〜165の中で適切なものに対し、I/O要求を送付
する。
The file system 120 in the host computer 100e receives I / O from the application 110.
When the request is received, it is converted into a block unit I / O request and sent to the load distribution control unit 130e. The load distribution control unit 130e receives the I / O from the file system 120.
When the O request is received, the path to be used is determined based on the load balancing algorithm. Finally, the device driver 16
Send an I / O request to the appropriate one of 0-165.

【0007】負荷分散のアルゴリズムとしては、発生す
るI/O要求を、複数本のパスに対しラウンドロビンに
て送付する方法、ペンディングされているI/O要求の
数が最も少ないパスに送付する方法、ペンディングされ
ているI/O要求のブロック数の総和が最も少ないパス
に送付する方法等が使われている(ここでペンディング
されているI/O要求とは、確認応答が返ってきていな
いI/O要求のことを指している)。
As the load balancing algorithm, the generated I / O request is sent in a round-robin manner to a plurality of paths, or is sent to the path with the smallest number of pending I / O requests. , The method of sending to the path with the smallest total number of blocks of the pending I / O requests is used (the pending I / O request is an I for which an acknowledgment has not been returned). / O request).

【0008】また、従来技術の一例として、特開平07
−334449号公報に開示された技術が挙げられる。
この方式は、物理的パスを識別する入出力経路識別部
と、各物理的パスの負荷を測定する負荷測定部と、負荷
情報を蓄積する負荷統計情報蓄積部と、蓄積された負荷
情報に基づきパスを決定する入出力経路決定部を備え
る。
Further, as an example of the prior art, Japanese Patent Laid-Open No. Hei 07
The technique disclosed in Japanese Patent Publication No. 334449 is cited.
This method is based on the input / output path identification unit that identifies physical paths, the load measurement unit that measures the load of each physical path, the load statistical information storage unit that stores load information, and the load information that is stored. An input / output route determination unit that determines a path is provided.

【0009】入出力経路決定部は、周辺装置に対する入
出力要求時に指定される閾値と、前記負荷統計情報蓄積
部によって蓄積された前記統計情報によって示される入
出力制御装置の負荷状況とを比較した結果に基づいて、
入出力経路の変更が必要か否かを判別する情報提供部
と、前記情報提供部によって、負荷状況が閾値を越えて
入出力経路の変更が必要と判別された場合に、複数の入
出力経路から低負荷の経路を選択する低負荷経路選択部
とを具備し、前記低負荷経路選択部によって選択された
入出力経路を経由して入出力要求が行なわれることを特
徴とする。
The input / output path determination unit compares the threshold value designated at the time of an input / output request to the peripheral device with the load status of the input / output control device indicated by the statistical information accumulated by the load statistical information accumulation unit. Based on the results
An information providing unit that determines whether or not the I / O route needs to be changed, and a plurality of I / O routes when the information providing unit determines that the load condition exceeds a threshold value and the I / O route needs to be changed. And a low load route selecting unit for selecting a route with a low load, and an input / output request is made via the input / output route selected by the low load route selecting unit.

【0010】[0010]

【発明が解決しようとする課題】しかし、上述した従来
の負荷分散システムでは、非共有キャッシュ方式のデー
タ記憶装置に対してマルチパス負荷分散を用いると、デ
ータ記憶装置のプリフェッチ性能が低下するという問題
点があった。以下、この問題点について詳細に説明す
る。
However, in the above-described conventional load balancing system, when multipath load balancing is used for a non-shared cache type data storage device, the prefetch performance of the data storage device deteriorates. There was a point. Hereinafter, this problem will be described in detail.

【0011】高機能なデータ記憶装置は、ホストコンピ
ュータからのI/O要求をRAID(Redundant Array
of Inexpensive Disks)によるディスクアレイで実行す
る前に、プロセッサ等を用いて処理を行なうことでいく
つかの機能を実現している。以下、この処理を行なう部
分をホスト制御部と呼ぶことにする。
A high-performance data storage device uses a RAID (Redundant Array) to receive I / O requests from a host computer.
Before executing in a disk array by Inexpensive Disks), some functions are realized by processing using a processor or the like. Hereinafter, the part that performs this processing will be referred to as the host control unit.

【0012】ホスト制御部の機能としては、ホストコン
ピュータ側に提示するボリュームを柔軟に構成すること
を可能にする仮想ボリューム機能、スループットやレス
ポンスタイム向上のためにRAM(Random Access Memo
ry)等を使って行なわれるキャッシング機能、等が挙げ
られる。
As a function of the host control unit, a virtual volume function that enables the volume presented to the host computer side to be flexibly configured, and a RAM (Random Access Memory) for improving throughput and response time are provided.
ry) etc. and the caching function, etc.

【0013】キャッシングは、ホストコンピュータに対
して磁気ディスクへのアクセス時間を隠蔽することでス
ループットやレスポンスタイムを向上させる機能であ
る。すなわち、リード要求はキャッシュヒットすれば磁
気ディスクにアクセスする必要が無くなるし、ライト要
求はとりあえずキャッシングしてその時点でホストコン
ピュータへ確認応答を返すようにすれば、ホストコンピ
ュータ側からは磁気ディスクへのアクセスはまるで起こ
っていないかの様に見える。
The caching is a function of hiding the access time to the magnetic disk from the host computer to improve the throughput and the response time. In other words, if a read request causes a cache hit, it is not necessary to access the magnetic disk, and if a write request is cached for the time being and a confirmation response is returned to the host computer at that time, the host computer sends a magnetic disk to the magnetic disk. Access seems to be not happening.

【0014】ホスト制御部は、並列に複数個備えられる
ことが多い。その理由は2つある。
In many cases, a plurality of host control units are provided in parallel. There are two reasons.

【0015】1つ目は高可用性である。すなわち、或る
ホスト制御部で障害が発生した際に、異なるホスト制御
部をその代替として用いるためである。
The first is high availability. That is, when a failure occurs in a certain host control unit, a different host control unit is used as its substitute.

【0016】2つ目は、ボトルネック防止である。すな
わち、ホスト制御部の処理能力がシステムの他の能力と
比べて低くならないように、同様の処理が行えるホスト
制御部を並列に複数配置して処理能力の向上を図るわけ
である。
The second is prevention of bottlenecks. That is, in order to prevent the processing power of the host control unit from becoming lower than the other capabilities of the system, a plurality of host control units that can perform the same processing are arranged in parallel to improve the processing power.

【0017】このように複数のホスト制御部を持つデー
タ記憶装置の場合、キャッシュの構成方式によって共有
キャッシュ方式と非共有キャッシュ方式の2つに分類で
きる。図13は、従来の共有キャッシュ方式のデータ記
憶装置200fと、非共有キャッシュ方式のデータ記憶
装置200gの構成を示すブロック図である。
As described above, in the case of the data storage device having a plurality of host control units, it can be classified into a shared cache system and a non-shared cache system depending on the cache configuration system. FIG. 13 is a block diagram showing configurations of a conventional shared cache data storage device 200f and a non-shared cache data storage device 200g.

【0018】全てのホスト制御部から単一のキャッシ
ュ、単一のキャッシュ制御情報を参照する方式が共有キ
ャッシュ方式であり、いくつかのホスト制御部毎に異な
るキャッシュ、異なるキャッシュ制御情報を参照する方
式が非共有キャッシュ方式である。
A shared cache system is a system in which all host control units refer to a single cache and a single cache control information, and a system in which several host control units refer to different caches or different cache control information. Is a non-shared cache method.

【0019】ここでキャッシュ制御情報とは、キャッシ
ュしたデータのアドレス情報やキャッシングの順序関係
を整理して記した情報のことであり、どのデータをキャ
ッシングするか、又はどのデータを掃き出すかを決定す
るための情報として使われる。
Here, the cache control information is information in which address information of cached data and order relation of caching are arranged and described, and which data is cached or which data is swept out is determined. It is used as information for.

【0020】共有キャッシュ方式では、同じアドレス領
域のデータを二重にキャッシュすることがないためにキ
ャッシュ容量を有効に使うことができ、またキャッシュ
は1つだけ用意すればよいから容量を比較的大きくする
ことができるという利点がある。結果として、キャッシ
ュヒット率が非共有キャッシュ方式に比べて高くなる。
欠点は、複数のプロセッサによる競合が発生するため遅
延が若干発生することと、複雑な制御を行なうためコス
トが高くなりがちなことである。
In the shared cache method, since the data in the same address area is not cached twice, the cache capacity can be effectively used, and since only one cache needs to be prepared, the capacity is relatively large. There is an advantage that can be done. As a result, the cache hit rate becomes higher than that of the non-shared cache method.
Disadvantages are that there is a slight delay due to competition among a plurality of processors and that the cost tends to increase due to complicated control.

【0021】一方非共有キャッシュ方式は、複数のプロ
セッサによる競合が発生しにくい、構造が簡単になりコ
ストを低くできる等の利点がある反面、キャッシュの一
貫性の維持という問題がある。
On the other hand, the non-shared cache method has the advantages that the competition between a plurality of processors is unlikely to occur, the structure is simple and the cost can be reduced, but the cache coherency is maintained.

【0022】この問題の対応策としては、キャッシュ間
でダーティデータのみコピーを行なう方法が一般的であ
る。ここでダーティデータとは、後に磁気ディスクにラ
イトされる目的でキャッシングされているデータのこと
を指している。どこかのキャッシュにデータが書き込ま
れダーティデータとなった場合、他のキャッシュにコピ
ーを行なうのである。この方法によって、キャッシュの
一貫性を保つことができる。
As a countermeasure for this problem, a method of copying only dirty data between caches is generally used. Here, the dirty data refers to data that is cached for the purpose of being written to the magnetic disk later. When data is written to some cache and becomes dirty, it is copied to another cache. This method keeps the cache coherent.

【0023】また、非共有キャッシュ方式では、キャッ
シュ制御情報がキャッシュ毎に別々に扱われているため
に、プリフェッチ等の機能がキャッシュを共有するホス
ト制御部群を単位として働く。
Further, in the non-shared cache system, since cache control information is handled separately for each cache, a function such as prefetch works in units of host control units sharing the cache.

【0024】プリフェッチ機能とは、ホストコンピュー
タからのI/O要求の中からシーケンシャルなリードI
/O(読み出し要求)を選り分け、それらに関しては先
回りして磁気ディスクからデータを読み出してキャッシ
ュに蓄えておくという機能である。具体的には、近接す
るアドレスのリードI/Oが或る程度連続してデータ記
憶装置に到着した場合、キャッシュ制御情報からそれら
のI/OがシーケンシャルなリードI/Oであると判断
し、以降のアドレスのデータを適当な分だけ読み出して
キャッシュに蓄える。
The prefetch function is a sequential read I from the I / O request from the host computer.
/ O (read request) is selected, and the function is to read data from the magnetic disk and store it in the cache in advance. Specifically, when read I / Os of adjacent addresses arrive at the data storage device continuously to some extent, it is determined from the cache control information that the I / Os are sequential read I / Os. An appropriate amount of data at the subsequent addresses is read and stored in the cache.

【0025】例えば、ホストコンピュータがシーケンシ
ャルなリードI/Oをデータ記憶装置に送った場合、ホ
スト制御部は初めの3、4個程度の近接するアドレスの
リードI/Oを受け取った時点でそれ以降のアドレスに
対するリードI/Oを磁気ディスクに送付する。順次ホ
ストコンピュータから到着するリードI/Oは、キャッ
シュヒットしレスポンスタイムが大幅に削減されるとい
う仕組みである。
For example, when the host computer sends sequential read I / Os to the data storage device, the host controller receives the read I / Os of the first three or four adjacent addresses and thereafter. The read I / O corresponding to the address is sent to the magnetic disk. The read I / O that sequentially arrives from the host computer has a mechanism in which a cache hit occurs and the response time is significantly reduced.

【0026】本発明が解決する課題は、非共有キャッシ
ュ方式のデータ記憶装置に対してマルチパス負荷分散を
用いると、データ記憶装置のプリフェッチ性能が著しく
低下するという問題である。
The problem to be solved by the present invention is the problem that the prefetch performance of the data storage device is significantly deteriorated when the multipath load balancing is used for the non-shared cache type data storage device.

【0027】例えば、マルチパス負荷分散の負荷分散ア
ルゴリズムにラウンドロビンを用いている場合、ホスト
コンピュータで発生したシーケンシャルなリードI/O
は各パスに対して順番に振り分けられるから、複数のキ
ャッシュ制御情報にそれぞれ断続的なアドレスへのリー
ドI/Oが記録されることになる。この場合、性能低下
を招く要因が2点存在する。
For example, when the round-robin is used for the load balancing algorithm of the multipath load balancing, the sequential read I / O generated in the host computer
Are sequentially distributed to each path, so that read I / O to intermittent addresses is recorded in each of the plurality of cache control information. In this case, there are two factors that cause performance degradation.

【0028】1点目は、キャッシュ制御情報に連続的な
アドレスのリードI/Oが記録されにくいために、シー
ケンシャルなリードI/Oを選り分ける精度が低下する
ということである。この点は、シーケンシャルなリード
I/Oのキャッシュヒット率を低下させることになる。
The first point is that the read I / O of consecutive addresses is hard to be recorded in the cache control information, so that the accuracy of selecting the sequential read I / O is lowered. This point reduces the cache hit rate of sequential read I / O.

【0029】2点目は、複数のキャッシュ制御情報に共
に断続的なアドレスのリードI/Oが記録されるため、
複数のホスト制御部にてシーケンシャルなリードI/O
だと判断してしまい、同一のアドレス領域へのプリフェ
ッチを多重に行なってしまう可能性があることである。
この点は、そのアドレス領域に属する磁気ディスクの混
雑を招くことになる。すなわち、シーケンシャルなリー
ドI/Oのレスポンスタイムを大幅に悪化させてしま
う。
The second point is that read I / Os of intermittent addresses are recorded in a plurality of cache control information.
Sequential read I / O by multiple host control units
Therefore, there is a possibility that prefetching to the same address area will be performed multiple times.
This point causes congestion of the magnetic disks belonging to the address area. That is, the response time of sequential read I / O is significantly deteriorated.

【0030】上記した例は、負荷分散アルゴリズムに、
ラウンドロビン以外の特開平07−334449号公報
に開示されたような方法を用いた場合でも同様である。
これは、非共有キャッシュ方式のデータ記憶装置に対し
てマルチパス負荷分散を用いると、複数のキャッシュ制
御情報にそれぞれ断続的なアドレスへのリードI/Oが
記録されることになるからである。
The above example is based on the load balancing algorithm.
The same applies when a method other than round robin, such as that disclosed in Japanese Patent Laid-Open No. 07-334449, is used.
This is because when multi-path load balancing is used for a non-shared cache type data storage device, read I / O to intermittent addresses is recorded in each of a plurality of cache control information.

【0031】本発明の目的は、上記従来技術の欠点を解
決し、非共有キャッシュ方式のデータ記憶装置にアクセ
スするホストコンピュータが、データ記憶装置のホスト
制御部によって行なわれるプリフェッチの性能を低下さ
せることなくマルチパス負荷分散を行なうことができる
負荷分散システム、負荷分散システムのホストコンピュ
ータ、及び負荷分散プログラムを提供することにある。
An object of the present invention is to solve the above-mentioned drawbacks of the prior art and to reduce the performance of prefetch performed by the host controller of the data storage device by the host computer accessing the data storage device of the non-shared cache system. An object of the present invention is to provide a load balancing system, a host computer of the load balancing system, and a load balancing program that can perform multipath load balancing without the need.

【0032】特に、ホスト制御部がシーケンシャルなリ
ードI/Oを選り分ける精度が低下する問題、複数のホ
スト制御部から同一のアドレス領域へのプリフェッチを
多重に行なってしまう問題を発生させずにマルチパス負
荷分散を行なうことができる負荷分散システム、負荷分
散システムのホストコンピュータ、及び負荷分散プログ
ラムを提供することにある。
In particular, the problem that the accuracy of the host controller selecting the sequential read I / O is reduced, and the problem that multiple prefetches from a plurality of host controllers to the same address area are performed in a multiple manner does not occur. It is to provide a load balancing system capable of performing path load balancing, a host computer of the load balancing system, and a load balancing program.

【0033】[0033]

【課題を解決するための手段】上記目的を達成するため
本発明の負荷分散システムは、ホストコンピュータと、
非共有キャッシュ方式のデータ記憶装置をネットワーク
を介して接続する負荷分散システムにおいて、入出力要
求のアドレス情報と、前記データ記憶装置との間におけ
る複数の物理的パスとのマッピングを行ない、シーケン
シャルな読み出し要求を単一の前記パスにマッピング
し、前記マッピングの内容を示すマッピング情報を生成
し、前記マッピング情報を参照して、前記入出力要求を
複数本の物理的パスに適切に分散することを特徴とす
る。
To achieve the above object, a load balancing system of the present invention comprises a host computer,
In a load balancing system in which a non-shared cache type data storage device is connected via a network, address information of an input / output request is mapped to a plurality of physical paths between the data storage device and sequential reading is performed. A request is mapped to the single path, mapping information indicating the contents of the mapping is generated, and the input / output request is appropriately distributed to a plurality of physical paths by referring to the mapping information. And

【0034】請求項2の本発明の負荷分散システムは、
ホストコンピュータと、非共有キャッシュ方式のデータ
記憶装置をネットワークを介して接続する負荷分散シス
テムにおいて、前記データ記憶装置との間における複数
の物理的パスを、前記データ記憶装置内のキャッシュ毎
にグループ化してパスグループとして管理し、前記パス
グループの情報を示すパスグループ情報を生成し、入出
力要求のアドレス情報と前記パスグループとのマッピン
グを行ない、シーケンシャルな読み出し要求を単一の前
記パスグループにマッピングし、前記マッピングの内容
を示すマッピング情報を生成し、前記パスグループ情報
と前記マッピング情報を参照して、前記入出力要求を複
数本の物理的パスに適切に分散することを特徴とする。
According to a second aspect of the load balancing system of the present invention,
In a load balancing system in which a host computer and a non-shared cache type data storage device are connected via a network, a plurality of physical paths between the host computer and the data storage device are grouped for each cache in the data storage device. Managed as a path group, generating path group information indicating the information of the path group, mapping the address information of the input / output request and the path group, and mapping a sequential read request to a single path group. However, it is characterized in that mapping information indicating the contents of the mapping is generated, and the input / output requests are appropriately distributed to a plurality of physical paths by referring to the path group information and the mapping information.

【0035】請求項3の本発明の負荷分散システムは、
ホストコンピュータと、非共有キャッシュ方式のデータ
記憶装置をネットワークを介して接続する負荷分散シス
テムにおいて、前記データ記憶装置と前記ホストコンピ
ュータとの間の通信を中継し、前記データ記憶装置のキ
ャッシングを実行するホスト制御装置を備え、入出力要
求のアドレス情報と、前記ホストコンピュータと前記ホ
スト制御装置との間における複数の物理的パスとのマッ
ピングを行ない、シーケンシャルな読み出し要求を単一
の前記パスにマッピングし、前記マッピングの内容を示
すマッピング情報を生成し、前記マッピング情報を参照
して、前記入出力要求を複数本の物理的パスに適切に分
散することを特徴とする。
According to a third aspect of the load balancing system of the present invention,
In a load balancing system in which a host computer and a non-shared cache type data storage device are connected via a network, communication between the data storage device and the host computer is relayed, and caching of the data storage device is executed. A host controller is provided, and the address information of the input / output request is mapped to a plurality of physical paths between the host computer and the host controller, and sequential read requests are mapped to the single path. , Generating mapping information indicating the contents of the mapping, referring to the mapping information, and appropriately distributing the input / output requests to a plurality of physical paths.

【0036】請求項4の本発明の負荷分散システムは、
ホストコンピュータと、非共有キャッシュ方式のデータ
記憶装置をネットワークを介して接続する負荷分散シス
テムにおいて、前記データ記憶装置と前記ホストコンピ
ュータとの間の通信を中継し、前記データ記憶装置のキ
ャッシングを実行するホスト制御装置を備え、前記ホス
トコンピュータと前記ホスト制御装置との間における複
数の物理的パスを、前記ホスト制御装置内のキャッシュ
毎にグループ化してパスグループとして管理し、前記パ
スグループの情報を示すパスグループ情報を生成し、入
出力要求のアドレス情報と前記パスグループとのマッピ
ングを行ない、シーケンシャルな読み出し要求を単一の
前記パスグループにマッピングし、前記マッピングの内
容を示すマッピング情報を生成し、前記マッピング情報
を参照して、前記入出力要求を複数本の物理的パスに適
切に分散することを特徴とする。
According to a fourth aspect of the load balancing system of the present invention,
In a load balancing system in which a host computer and a non-shared cache type data storage device are connected via a network, communication between the data storage device and the host computer is relayed, and caching of the data storage device is executed. A host controller is provided, and a plurality of physical paths between the host computer and the host controller are grouped for each cache in the host controller and managed as a path group, and information of the path group is indicated. Generates path group information, performs mapping between the address information of the input / output request and the path group, maps a sequential read request to the single path group, and generates mapping information indicating the contents of the mapping, Referring to the mapping information, Characterized in that it suitably distribute output requests to a plurality of physical paths.

【0037】請求項5の本発明の負荷分散システムは、
前記マッピング情報の生成において、前記入出力要求の
アドレス情報として、当該入出力要求の論理ボリューム
番号を用いることを特徴とする。
According to a fifth aspect of the load balancing system of the present invention,
In the generation of the mapping information, the logical volume number of the input / output request is used as the address information of the input / output request.

【0038】請求項6の本発明の負荷分散システムは、
前記入出力要求の論理アドレス番号を適当な幅毎に区画
化し、前記マッピング情報の生成において、前記入出力
要求のアドレス情報として、当該入出力要求の論理アド
レス番号が該当する前記区画を用いることを特徴とす
る。
According to a sixth aspect of the load balancing system of the present invention,
Partitioning the logical address number of the input / output request into appropriate widths, and using the partition to which the logical address number of the input / output request corresponds as the address information of the input / output request in the generation of the mapping information. Characterize.

【0039】請求項7の本発明の負荷分散システムは、
前記ネットワークを介して、前記入出力要求の論理アド
レス番号の区画化に用いる最適な区画幅の情報を得る手
段を備えることを特徴とする。
According to a seventh aspect of the load balancing system of the present invention,
It is characterized by comprising means for obtaining information on an optimum partition width used for partitioning the logical address number of the input / output request via the network.

【0040】請求項8の本発明の負荷分散システムは、
ホストコンピュータと、非共有キャッシュ方式のデータ
記憶装置をネットワークを介して接続する負荷分散シス
テムにおいて、前記ホストコンピュータが、前記データ
記憶装置との間における複数の物理的パスを、前記デー
タ記憶装置内のキャッシュ毎にグループ化してパスグル
ープとして管理するパスグループ情報を記録するパスグ
ループテーブルと、シーケンシャルな読み出し要求を単
一の前記パスグループにマッピングした、入出力要求の
アドレス情報と前記パスグループとのマッピングを示す
マッピング情報を記録するマッピングテーブルを備え、
前記パスグループ情報と前記マッピング情報を参照し
て、前記入出力要求を複数本の物理的パスに適切に分散
することを特徴とする。
According to the load balancing system of the present invention of claim 8,
In a load balancing system in which a host computer and a non-shared cache type data storage device are connected via a network, the host computer sets a plurality of physical paths between the host computer and the data storage device in the data storage device. A path group table that records path group information that is grouped for each cache and managed as a path group, and mapping of sequential read requests to a single path group, address information of input / output requests, and the path group Is provided with a mapping table that records mapping information indicating
The I / O request is appropriately distributed to a plurality of physical paths by referring to the path group information and the mapping information.

【0041】請求項9の本発明のホストコンピュータ
は、非共有キャッシュ方式のデータ記憶装置とネットワ
ークを介して接続する負荷分散システムのホストコンピ
ュータにおいて、入出力要求のアドレス情報と、前記デ
ータ記憶装置との間における複数の物理的パスとのマッ
ピングを行ない、シーケンシャルな読み出し要求を単一
の前記パスにマッピングし、前記マッピングの内容を示
すマッピング情報を生成するマッピング管理手段と、前
記マッピング情報を参照して、前記入出力要求を複数本
の物理的パスに適切に分散する負荷分散制御手段を備え
ることを特徴とする。
According to a ninth aspect of the present invention, in a host computer of a load balancing system, which is connected to a non-shared cache type data storage device via a network, the input / output request address information and the data storage device are provided. Mapping with a plurality of physical paths between them, mapping a sequential read request to a single path, and mapping management means for generating mapping information indicating the contents of the mapping, and referring to the mapping information. In addition, a load distribution control means for appropriately distributing the input / output requests to a plurality of physical paths is provided.

【0042】請求項10の本発明のホストコンピュータ
は、非共有キャッシュ方式のデータ記憶装置とネットワ
ークを介して接続する負荷分散システムのホストコンピ
ュータにおいて、前記データ記憶装置との間における複
数の物理的パスを、前記データ記憶装置内のキャッシュ
毎にグループ化してパスグループとして管理し、前記パ
スグループの情報を示すパスグループ情報を生成するパ
スグループ管理手段と、入出力要求のアドレス情報と前
記パスグループとのマッピングを行ない、シーケンシャ
ルな読み出し要求を単一の前記パスグループにマッピン
グし、前記マッピングの内容を示すマッピング情報を生
成するマッピング管理手段と、前記パスグループ情報と
前記マッピング情報を参照して、前記入出力要求を複数
本の物理的パスに適切に分散する負荷分散制御手段を備
えることを特徴とする。
According to a tenth aspect of the present invention, in a host computer of a load balancing system in which a data storage device of a non-shared cache system is connected via a network, a plurality of physical paths with the data storage device are provided. Is grouped for each cache in the data storage device and managed as a path group, and path group management means for generating path group information indicating information of the path group, address information of an input / output request, and the path group. Mapping management means for mapping sequential read requests to the single path group and generating mapping information indicating the contents of the mapping, and referring to the path group information and the mapping information, Fill-out request to multiple physical paths Characterized in that it comprises a load distribution control means for earnestly dispersed.

【0043】請求項11の本発明のホストコンピュータ
は、前記パスグループ管理手段は、前記データ記憶装置
から、当該データ記憶装置が記憶するデータの構成情報
を取得する手段を備えることを特徴とする。
In the host computer according to the present invention of claim 11, the path group management means comprises means for acquiring, from the data storage device, configuration information of data stored in the data storage device.

【0044】請求項12の本発明のホストコンピュータ
は、前記パスグループ管理手段は、指定された外部の情
報機器から、前記データ記憶装置が記憶するデータの構
成情報を取得する手段を備えることを特徴とする。
According to a twelfth aspect of the present invention, in the host computer according to the present invention, the path group management means comprises means for acquiring configuration information of data stored in the data storage device from a designated external information device. And

【0045】請求項13の本発明のホストコンピュータ
は、前記マッピング管理手段は、前記入出力要求のアド
レス情報として、当該入出力要求の論理ボリューム番号
を用いてマッピングを行なうことを特徴とする。
In the host computer of the thirteenth aspect of the present invention, the mapping management means performs the mapping by using the logical volume number of the input / output request as the address information of the input / output request.

【0046】請求項14の本発明のホストコンピュータ
は、前記マッピング管理手段は、前記入出力要求の論理
アドレス番号を適当な幅毎に区画化し、前記入出力要求
のアドレス情報として、当該入出力要求の論理アドレス
番号が該当する前記区画を用いてマッピングを行なうこ
とを特徴とする。
In the host computer of the fourteenth aspect of the present invention, the mapping management means partitions the logical address number of the input / output request into appropriate widths, and the input / output request is used as address information of the input / output request. The mapping is performed by using the partition to which the logical address number of.

【0047】請求項15の本発明のホストコンピュータ
は、前記マッピング管理手段は、前記データ記憶装置か
ら、前記入出力要求の論理アドレス番号の区画化に用い
る最適な区画幅の情報を得る手段を備えることを特徴と
する。
In the host computer of the fifteenth aspect of the present invention, the mapping management means comprises means for obtaining, from the data storage device, information on an optimum partition width used for partitioning the logical address number of the input / output request. It is characterized by

【0048】請求項16の本発明のホストコンピュータ
は、前記マッピング管理手段は、指定された外部の情報
機器から、前記入出力要求の論理アドレス番号の区画化
に用いる最適な区画幅の情報を得る手段を備えることを
特徴とする。
In the host computer of the sixteenth aspect of the present invention, the mapping management means obtains information on an optimum partition width used for partitioning the logical address number of the input / output request from a designated external information device. It is characterized by comprising means.

【0049】請求項17の本発明のホストコンピュータ
は、前記外部の情報機器を、ネームサーバとすることを
特徴とする。
According to a seventeenth aspect of the present invention, the host computer of the present invention uses the external information device as a name server.

【0050】請求項18の本発明のホストコンピュータ
は、前記マッピング管理手段は、定期的に各前記パスの
負荷情報を参照して前記マッピング情報を更新すること
を特徴とする。
In the host computer of the eighteenth aspect of the present invention, the mapping management means periodically updates the mapping information by referring to the load information of each path.

【0051】請求項19の本発明のホストコンピュータ
は、非共有キャッシュ方式のデータ記憶装置とネットワ
ークを介して接続する負荷分散システムのホストコンピ
ュータにおいて、前記データ記憶装置との間における複
数の物理的パスを、前記データ記憶装置内のキャッシュ
毎にグループ化してパスグループとして管理するパスグ
ループ情報を記録するパスグループテーブルと、シーケ
ンシャルな読み出し要求を単一の前記パスグループにマ
ッピングした、入出力要求のアドレス情報と前記パスグ
ループとのマッピングを示すマッピング情報を記録する
マッピングテーブルと、前記パスグループ情報と前記マ
ッピング情報を参照して、前記入出力要求を複数本の物
理的パスに適切に分散する負荷分散制御手段を備えるこ
とを特徴とする。
According to a nineteenth aspect of the present invention, in a host computer of a load balancing system in which a non-shared cache type data storage device is connected via a network, a plurality of physical paths are provided between the host computer and the data storage device. , A path group table for recording path group information for managing each cache in the data storage device as a path group, and an address of an input / output request in which a sequential read request is mapped to a single path group. A mapping table that records mapping information indicating mapping between information and the path group, and load distribution that appropriately distributes the I / O request to a plurality of physical paths by referring to the path group information and the mapping information. A control means is provided.

【0052】請求項20の本発明の負荷分散プログラム
は、非共有キャッシュ方式のデータ記憶装置とネットワ
ークを介して接続するホストコンピュータを制御するこ
とにより、負荷分散を実行する負荷分散プログラムにお
いて、入出力要求のアドレス情報と、前記データ記憶装
置との間における複数の物理的パスとのマッピングを行
ない、シーケンシャルな読み出し要求を単一の前記パス
にマッピングし、前記マッピングの内容を示すマッピン
グ情報を生成するマッピング管理機能と、前記マッピン
グ情報を参照して、前記入出力要求を複数本の物理的パ
スに適切に分散する負荷分散制御機能を備えることを特
徴とする。
A load balancing program according to a twentieth aspect of the present invention is a load balancing program for executing load balancing by controlling a host computer connected to a non-shared cache type data storage device via a network. Mapping the address information of the request and a plurality of physical paths between the data storage device, mapping a sequential read request to the single path, and generating mapping information indicating the contents of the mapping. A mapping management function and a load distribution control function for appropriately distributing the input / output request to a plurality of physical paths by referring to the mapping information are provided.

【0053】請求項21の本発明の負荷分散プログラム
は、非共有キャッシュ方式のデータ記憶装置とネットワ
ークを介して接続するホストコンピュータを制御するこ
とにより、負荷分散を実行する負荷分散プログラムにお
いて、前記データ記憶装置との間における複数の物理的
パスを、前記データ記憶装置内のキャッシュ毎にグルー
プ化してパスグループとして管理し、前記パスグループ
の情報を示すパスグループ情報を生成するパスグループ
管理機能と、入出力要求のアドレス情報と前記パスグル
ープとのマッピングを行ない、シーケンシャルな読み出
し要求を単一の前記パスグループにマッピングし、前記
マッピングの内容を示すマッピング情報を生成するマッ
ピング管理機能と、前記パスグループ情報と前記マッピ
ング情報を参照して、前記入出力要求を複数本の物理的
パスに適切に分散する負荷分散制御機能を備えることを
特徴とする。
According to a twenty-first aspect of the present invention, there is provided a load balancing program for executing load balancing by controlling a host computer connected to a non-shared cache type data storage device via a network. A plurality of physical paths to and from the storage device are grouped for each cache in the data storage device and managed as a path group, and a path group management function that generates path group information indicating information of the path group, A mapping management function that performs mapping between the address information of the input / output request and the path group, maps a sequential read request to a single path group, and generates mapping information indicating the contents of the mapping, and the path group. Refer to the information and the mapping information , Characterized in that it comprises a load distribution control function to properly distribute the output request into a plurality of physical paths.

【0054】請求項22の本発明の負荷分散プログラム
は、非共有キャッシュ方式のデータ記憶装置とネットワ
ークを介して接続するホストコンピュータを制御するこ
とにより、負荷分散を実行する負荷分散プログラムにお
いて、前記ホストコンピュータが、前記データ記憶装置
との間における複数の物理的パスを、前記データ記憶装
置内のキャッシュ毎にグループ化してパスグループとし
て管理するパスグループ情報を記録するパスグループテ
ーブルと、シーケンシャルな読み出し要求を単一の前記
パスグループにマッピングした、入出力要求のアドレス
情報と前記パスグループとのマッピングを示すマッピン
グ情報を記録するマッピングテーブルを備え、前記パス
グループ情報と前記マッピング情報を参照して、前記入
出力要求を複数本の物理的パスに適切に分散する負荷分
散制御機能を備えることを特徴とする。
According to a twenty-second aspect of the present invention, there is provided a load balancing program for executing load balancing by controlling a host computer connected to a non-shared cache type data storage device via a network. A path group table in which a computer records path group information for managing a plurality of physical paths to and from the data storage device as a path group by grouping for each cache in the data storage device, and a sequential read request A mapping table that records mapping information indicating the mapping between the address information of the input / output request and the path group, which is mapped to the single path group, and refers to the path group information and the mapping information. Multiple entry output requests Characterized in that it comprises a load distribution control function to appropriately disperse the physical path.

【0055】本発明では、パスグループ管理部とマッピ
ング管理部とにより、シーケンシャルな読み出し要求を
単一のキャッシュに送付する制限を加える。このような
制限を加えることで、シーケンシャルな読み出し要求
は、キャッシュを共有しているホスト制御部群によって
処理されるようになる。すなわち、その上で負荷分散を
行なうことにより、ホスト制御部がシーケンシャルな読
み出し要求を選り分ける精度が低下する問題、複数のホ
スト制御部から同一のアドレス領域へのプリフェッチを
多重に行なってしまう問題を解消することができる。
In the present invention, the path group management unit and the mapping management unit impose a restriction on sending a sequential read request to a single cache. By adding such a restriction, a sequential read request can be processed by the host control unit group sharing the cache. That is, by performing load distribution on that, the problem that the host control unit reduces the accuracy of selecting sequential read requests, and the problem that multiple prefetches from the multiple host control units to the same address area are performed It can be resolved.

【0056】また、本発明の第2の実施の形態では、パ
スグループの情報と、入出力要求のアドレス情報とパス
グループとのマッピング情報を、管理者が前もってパス
グループテーブル、マッピングテーブルとしてホストコ
ンピュータに与えておくことにより、負荷分散制御部が
これらのテーブルを参照し、負荷分散アルゴリズムに基
づき使用するパスを決定する。
Further, in the second embodiment of the present invention, the administrator previously sets the path group information, the address information of the input / output request, and the mapping information of the path group as a path group table and a mapping table as a host computer. The load balancing control unit refers to these tables and determines the path to be used based on the load balancing algorithm.

【0057】[0057]

【発明の実施の形態】以下、本発明の実施の形態につい
て図面を参照して詳細に説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

【0058】図1は、本発明の第1の実施の形態による
負荷分散システムの構成を示すブロック図である。図1
を参照すると、本発明の第1の実施の形態は、プログラ
ム制御により動作するホストコンピュータ100と、非
共有キャッシュ方式のデータ記憶装置200、ネットワ
ーク300から構成される。
FIG. 1 is a block diagram showing the configuration of a load balancing system according to the first embodiment of the present invention. Figure 1
Referring to, the first embodiment of the present invention comprises a host computer 100 that operates under program control, a non-shared cache data storage device 200, and a network 300.

【0059】ホストコンピュータ100は、アプリケー
ション110と、ファイルシステム120と、負荷分散
制御部130と、負荷分散情報テーブル131と、パス
グループ管理部140と、パスグループテーブル141
と、マッピング管理部150と、マッピングテーブル1
51と、デバイスドライバ160〜165と、通信ポー
ト170〜175を含む。
The host computer 100 has an application 110, a file system 120, a load distribution control unit 130, a load distribution information table 131, a path group management unit 140, and a path group table 141.
, Mapping management unit 150, and mapping table 1
51, device drivers 160 to 165, and communication ports 170 to 175.

【0060】データ記憶装置200は、ホスト制御部2
10、211と、キャッシュ220、221と、通信ポ
ート230〜235と、ディスクアレイ240を含む。
The data storage device 200 includes a host controller 2
10, 211, caches 220 and 221, communication ports 230 to 235, and a disk array 240.

【0061】なお、本形態ではアプリケーション11
0、ファイルシステム120は、簡便のため1つのみ示
したが、複数のアプリケーション、複数のファイルシス
テムが単一のホストコンピュータ上で動作している場合
も考えられる。
In this embodiment, the application 11
For simplicity, only one file system 120 is shown, but a plurality of applications and a plurality of file systems may be operating on a single host computer.

【0062】またデバイスドライバ160〜165、通
信ポート170〜175、230〜235(ホストコン
ピュータ側、データ記憶装置側双方)は、簡便のため6
つずつ示したが、それぞれ2〜50程度備えている場合
も考えられる。
The device drivers 160 to 165, the communication ports 170 to 175, and 230 to 235 (both the host computer side and the data storage device side) are 6 for simplicity.
Although they are shown one by one, the case where each is provided with about 2 to 50 is also conceivable.

【0063】データ記憶装置200は、簡便のため1つ
のみ示したが、複数のデータ記憶装置と接続されている
場合も考えられる。
Although only one data storage device 200 is shown for the sake of simplicity, it may be connected to a plurality of data storage devices.

【0064】ホスト制御部210、211は、簡便のた
め2つのみ示したが、2〜20程度備えている場合も考
えられる。また、各ホスト制御部210、211は3つ
ずつ通信ポートを持っているが、1〜10程度備えてい
る場合も考えられるし、ホスト制御部間210、211
で異なる数の通信ポートを持つ場合や、異なる性能の通
信ポートが混在する場合も考えられる。また、この図1
では、1つのホスト制御部が1つのキャッシュを持つ構
成になっているが、複数のホスト制御部が1つのキャッ
シュを共有する場合も考えられる。
Only two host control units 210 and 211 are shown for the sake of simplicity, but there may be a case where the host control units 210 and 211 are provided with about 2 to 20. Although each host control unit 210, 211 has three communication ports, it may be possible to have about 1 to 10 communication ports.
There may be cases in which there are different numbers of communication ports, or there are mixed communication ports with different performance. Also, this figure 1
In this case, one host control unit has one cache, but a plurality of host control units may share one cache.

【0065】また、ネットワーク300は、いろいろな
形態が考慮できる。具体的な例としてはFiber Channel
Arbitrated Loop、Fiber Channel Fabric、Ethernet、P
arallel SCSI(Small Computer System Interface)、
ATM(Asynchronous Transfer Mode)、FDDI(Fi
ber Distributed Data Interface)等のデータリンクか
ら構成されることが考えられる。また、途中経路にリピ
ーター、ブリッジ、ルーター、ゲートウェイ等の相互接
続機器が設けられていることも考えられる。
Various forms of the network 300 can be considered. As a concrete example, Fiber Channel
Arbitrated Loop, Fiber Channel Fabric, Ethernet, P
arallel SCSI (Small Computer System Interface),
ATM (Asynchronous Transfer Mode), FDDI (Fi
ber Distributed Data Interface) and other data links. It is also conceivable that interconnection devices such as repeaters, bridges, routers, gateways, etc. are provided along the way route.

【0066】これらの各部は、それぞれ概略つぎのよう
に動作する。
Each of these parts operates roughly as follows.

【0067】ファイルシステム120は、アプリケーシ
ョン110からI/O要求(入出力要求)を受け取る
と、それらをブロック単位のI/O要求に変換し、負荷
分散制御部130に送付する。各I/O要求には、LU
N、LBA等のアドレス情報が付加される。
When the file system 120 receives an I / O request (input / output request) from the application 110, the file system 120 converts the I / O request into a block unit I / O request and sends it to the load distribution control unit 130. LU for each I / O request
Address information such as N and LBA is added.

【0068】負荷分散制御部130は、ファイルシステ
ム120からI/O要求を受け取ると、まずI/O要求
のアドレス情報とマッピングテーブル151を参照して
使用するパスグループを決定する。
Upon receiving the I / O request from the file system 120, the load distribution control unit 130 first refers to the address information of the I / O request and the mapping table 151 to determine the path group to be used.

【0069】そして、パスグループテーブル141を参
照してパスグループに属するパスを確認し、その中から
負荷分散アルゴリズムに基づき使用するパスを決定す
る。最後に、デバイスドライバ160〜165の中の適
切なものに対して、I/O要求を送付する。
Then, the paths belonging to the path group are confirmed by referring to the path group table 141, and the path to be used is determined from among them based on the load balancing algorithm. Finally, the I / O request is sent to the appropriate one of the device drivers 160 to 165.

【0070】パスグループ管理部140は、まず各デー
タ記憶装置に対するパスを列挙し、そして各パスが接続
されているホスト制御部がデータ記憶装置のどのキャッ
シュを使用しているかを確認する。そして、使用してい
るキャッシュ毎にパスをグループ化し、その情報をパス
グループテーブル141に記述する。
The path group management unit 140 first enumerates the paths to each data storage device, and confirms which cache of the data storage device is used by the host control unit to which each path is connected. Then, the paths are grouped for each cache used, and the information is described in the path group table 141.

【0071】マッピング管理部150は、まずファイル
システム120が担当するI/O要求のアドレス情報の
範囲を特定し、アドレス情報とパスグループのマッピン
グを行なう。そして、その情報をマッピングテーブル1
51に記述する。
The mapping management unit 150 first specifies the range of the address information of the I / O request handled by the file system 120, and maps the address information and the path group. Then, the information is stored in the mapping table 1
51.

【0072】データ記憶装置200は、複数のキャッシ
ュ220、221を備えており、非共有キャッシュ方式
を採用している。ダーティデータに関しては、分散され
たキャッシュ220、221間でコピーを行なうこと
で、キャッシュ間でのキャッシュの一貫性を維持してい
る。それ以外のキャッシングデータに関してはコピーを
行なわないので、キャッシングデータの内容はキャッシ
ュ間によって異なる。
The data storage device 200 is provided with a plurality of caches 220 and 221 and employs a non-shared cache system. Regarding dirty data, by copying between the distributed caches 220 and 221, the cache consistency between the caches is maintained. Since the other cached data is not copied, the content of the cached data differs between caches.

【0073】ホスト制御部210、211は、通信ポー
ト230〜235からI/O要求を受け取ると、そのア
ドレス情報を参照して、ディスクアレイ240に対して
I/O要求を送付する。またキャッシュ220、221
を用いてリードキャッシング、ライトキャッシング、プ
リフェッチを行なう。
Upon receiving the I / O request from the communication ports 230 to 235, the host control units 210 and 211 refer to the address information and send the I / O request to the disk array 240. Also, the cache 220, 221
Read caching, write caching, and prefetching are performed using.

【0074】ディスクアレイ240は、複数の磁気ディ
スク装置を備え、ホスト制御部210、211からI/
O要求を受け取ると、そのアドレス情報を参照して適切
な磁気ディスクへI/O要求を送付する。また、内部に
複数のRAIDコントローラを備え、RAID装置とし
て動作することも考えられる。
The disk array 240 includes a plurality of magnetic disk devices, and I / O from the host control units 210 and 211.
When the O request is received, the I / O request is sent to an appropriate magnetic disk by referring to the address information. Further, it may be possible to provide a plurality of RAID controllers inside and operate as a RAID device.

【0075】次に、図2〜図4のフローチャートを参照
して本実施の形態の全体の動作について詳細に説明す
る。
Next, the overall operation of this embodiment will be described in detail with reference to the flow charts of FIGS.

【0076】図2は、本実施の形態の負荷分散制御部1
30の動作を説明するためのフローチャートである。負
荷分散制御部130は、まずホストコンピュータのブー
ト時にスクリプト等により立ち上げられる。そして、フ
ァイルシステム120よりI/O要求が来るまでは待機
している(ステップ201)。
FIG. 2 shows the load distribution control unit 1 of this embodiment.
30 is a flowchart for explaining the operation of 30. The load distribution control unit 130 is first started up by a script or the like when the host computer boots. Then, it waits until an I / O request comes from the file system 120 (step 201).

【0077】ファイルシステム120よりI/O要求が
来ると、そのI/O要求のアドレス情報とマッピングテ
ーブル151を参照して使用するパスグループを選択す
る(ステップ202)。マッピングテーブル151に
は、I/O要求のアドレス情報であるLUNやLBAか
らパスグループが一意に選択できるようなマッピング情
報が記述されている。
When an I / O request comes from the file system 120, the path information to be used is selected by referring to the address information of the I / O request and the mapping table 151 (step 202). The mapping table 151 describes mapping information such that a path group can be uniquely selected from the LUN or LBA that is the address information of the I / O request.

【0078】次に、パスグループテーブル141、負荷
分散情報テーブル131を参照して使用するパスを選択
する(ステップ203)。パスグループテーブル141
には、各パスグループにはどのパスが属するかが記述さ
れており、これを参照することでパスグループに属する
パスを確認できる。
Next, the path to be used is selected by referring to the path group table 141 and the load distribution information table 131 (step 203). Path group table 141
Describes which path belongs to each path group, and by referring to this, the paths belonging to the path group can be confirmed.

【0079】負荷分散情報テーブル131には、各パス
の利用状況と、各パスグループにおいてどの負荷分散ア
ルゴリズムを用いるかということが記述されており、パ
スグループテーブル141の情報と組み合わせて使用す
るパスを選択することができる。
The load distribution information table 131 describes the usage status of each path and which load distribution algorithm is used in each path group, and the paths used in combination with the information in the path group table 141 are described. You can choose.

【0080】ここでいうパスの利用状況とは、各パスグ
ループの中で直前にI/O要求を送付したパス、各パス
にてペンディングされているI/O要求の数、各パスに
てペンディングされているI/O要求のブロック数の総
和等を指す。
The path utilization status here means the path to which the I / O request was sent immediately before in each path group, the number of I / O requests pending in each path, and the pending status in each path. It refers to the total number of blocks of I / O requests that have been made.

【0081】また、ここでいうパスグループの負荷分散
アルゴリズムとは、ラウンドロビンにて送付する方法、
ペンディングされているI/O要求の数が最も少ないパ
スに送付する方法、ペンディングされているI/O要求
のブロック数の総和が最も少ないパスに送付する方法等
を指す。
The load balancing algorithm of the path group mentioned here is a method of sending by a round robin,
It refers to a method of sending to the path with the smallest number of pending I / O requests, a method of sending to the path with the smallest total number of blocks of pending I / O requests, and the like.

【0082】例えば、負荷分散にラウンドロビン方式を
用いている場合の具体的な動作手順を以下に示す。ま
ず、ステップ202で選択したパスグループにて用いら
れる負荷分散アルゴリズムを、負荷分散情報テーブル1
31を参照して調べる(この例ではラウンドロビン方式
だという結果が出る)。次に、パスグループテーブル1
41を参照して選択したパスグループに属するパスを調
べる。最後に、負荷分散情報テーブル131内のパスの
利用状況を参照し使用するパスが決定する(この例では
直前にI/O要求を送付したパスの情報を参照すること
で、次のパスを決定できる)。
For example, a specific operation procedure when the round robin method is used for load distribution will be shown below. First, the load balancing information table 1 is used as the load balancing algorithm used in the path group selected in step 202.
31 (see the result of the round robin method in this example). Next, path group table 1
The path belonging to the selected path group is checked with reference to 41. Finally, the path to be used is determined by referring to the usage status of the path in the load balancing information table 131 (in this example, the next path is determined by referring to the information of the path that sent the I / O request immediately before). it can).

【0083】この手順は、異なる負荷分散アルゴリズム
を用いている場合でもほぼ同様である。ただ異なる利用
状況に関する情報を参照するだけである。
This procedure is almost the same even when different load balancing algorithms are used. It just refers to information about different usage situations.

【0084】使用するパスが決定されると、適切なデバ
イスドライバへI/O要求を送付する(ステップ20
4)。最後に、新しくI/O要求を送付したことで変化
したパスの利用状況を、負荷分散情報テーブル131に
記述する(ステップ205)。この後は、再びファイル
システム120よりI/O要求が来るまでは、待機する
ことになる。
When the path to be used is determined, the I / O request is sent to the appropriate device driver (step 20).
4). Finally, the usage status of the path changed by sending the new I / O request is described in the load balancing information table 131 (step 205). After this, it waits until an I / O request comes from the file system 120 again.

【0085】図3は、本実施の形態のパスグループ管理
部140の動作を説明するためのフローチャートであ
る。パスグループ管理部140は、まずホストコンピュ
ータのブート時にスクリプト等により立ち上げられる。
そして、各データ記憶装置に対するパスを列挙する(ス
テップ301)。
FIG. 3 is a flow chart for explaining the operation of the path group management unit 140 of this embodiment. The path group management unit 140 is first started by a script or the like when the host computer boots.
Then, the paths to the respective data storage devices are listed (step 301).

【0086】パスを列挙する分解能は、エンドツーエン
ドの通信ポートの組合せ、すなわちホストコンピュータ
側の各通信ポートと、そこからアクセス可能なデータ記
憶装置側の通信ポートの組合せになる。例えば、ホスト
コンピュータ側の6個の通信ポートがそれぞれ2個のデ
ータ記憶装置側の通信ポートにアクセス可能ならば、全
部で12個のパスが列挙される。
The resolution for enumerating paths is a combination of end-to-end communication ports, that is, a combination of each communication port on the host computer side and a communication port on the data storage device side accessible from the host computer side. For example, if each of the six communication ports on the host computer side can access the two communication ports on the data storage device side, a total of 12 paths are listed.

【0087】アクセス可能であるという意味は、物理的
に可能であるという意味だけでなく、ゾーニング等のア
クセスコントロールによる制約も受けていないという意
味も含んでいる。つまり、このステップ301では、ア
クセス可能なエンドツーエンドのパスを全て列挙すると
いうことである。
The meaning of being accessible includes not only the meaning that it is physically possible, but also that it is not restricted by access control such as zoning. That is, in this step 301, all accessible end-to-end paths are listed.

【0088】パスが列挙されたなら、各パスが接続され
ているホスト制御部がデータ記憶装置のどのキャッシュ
を使用しているかを確認する(ステップ302)。この
ステップ302では、まず各パスがデータ記憶装置側の
どの通信ポートを用いているか特定する。そして、その
通信ポートを使っているホスト制御部がどのキャッシュ
を使っているか調べる。
When the paths are listed, it is confirmed which cache of the data storage device is used by the host control unit to which each path is connected (step 302). In this step 302, first, it is specified which communication port on the data storage device side each path uses. Then, the cache used by the host control unit using the communication port is checked.

【0089】例えば、本実施の形態では、通信ポート2
30〜232を用いている場合はキャッシュ220を使
用し、通信ポート233〜235を用いている場合はキ
ャッシュ221を使用しているといったように判別す
る。
For example, in this embodiment, the communication port 2
The cache 220 is used when 30 to 232 are used, and the cache 221 is used when the communication ports 233 to 235 are used.

【0090】ステップ302では、データ記憶装置の構
成情報、すなわち、通信ポートと使用しているキャッシ
ュの対応関係の情報をどうやって知るかで2つの方法に
分かれる。つまり、データ記憶装置に教えてもらう方法
と、ネームサーバ等の第三者に教えてもらう方法とがあ
る。
At step 302, the method is divided into two methods depending on how the configuration information of the data storage device, that is, the information on the correspondence between the communication port and the cache used is known. That is, there are a method of having a data storage device teach it and a method of having a third party such as a name server teach it.

【0091】1つ目の方法は、例えば各パスがデータ記
憶装置のどの通信ポートを用いているか特定する際に、
ホストコンピュータとデータ記憶装置間で通信が発生す
るから、その際にデータ記憶装置側からホストコンピュ
ータへデータ記憶装置の構成情報を渡すというものであ
る。
The first method is to specify, for example, which communication port of the data storage device each path uses.
Since communication occurs between the host computer and the data storage device, the configuration information of the data storage device is passed from the data storage device side to the host computer at that time.

【0092】2つ目は、アクセスしたいデータ記憶装置
側の通信ポートを特定する際にネームサーバに問い合せ
る場合、ネームサーバに対応情報を与えておくことで、
ホストコンピュータは、通信ポートと使用するキャッシ
ュとの対応関係を、ネームサーバを通して知るというも
のである。
Second, when inquiring to the name server when specifying the communication port on the data storage device side to be accessed, the corresponding information is given to the name server.
The host computer knows the correspondence between the communication port and the cache used through the name server.

【0093】各パスがどのキャッシュを使用しているか
を確認したら、使用しているキャッシュ毎にパスをグル
ープ化する(ステップ303)。このグループ化したパ
ス群はパスグループとして扱われることになる。最後
に、パスグループの情報をパスグループテーブル141
に記述する(ステップ304)。
After confirming which cache each path uses, the paths are grouped for each cache used (step 303). The grouped paths are treated as a path group. Finally, information on the path group is stored in the path group table 141.
(Step 304).

【0094】図4は、本実施の形態のマッピング管理部
150の動作を説明するためのフローチャートである。
マッピング管理部150は、まずホストコンピュータの
ブート時にスクリプト等により立ち上げられる。そし
て、まずファイルシステム120が担当するI/O要求
のアドレス情報の範囲を特定する(ステップ401)。
具体的には、LUNやLBAが使用されている範囲が何
番から何番までかを特定するということである。
FIG. 4 is a flow chart for explaining the operation of mapping management section 150 of this embodiment.
The mapping management unit 150 is first started up by a script or the like when the host computer boots. Then, first, the range of the address information of the I / O request handled by the file system 120 is specified (step 401).
Specifically, it is to specify what range the LUN or LBA is used in.

【0095】次に、アドレス情報とパスグループのマッ
ピングを行なう(ステップ402)。ステップ402の
マッピングの目的は、シーケンシャルなリードI/Oを
単一のパスグループに導きつつ、ランダムなI/Oはな
るべくそのような制限を設けずに、従来と同様な負荷分
散アルゴリズムを用いてマルチパス負荷分散を行なうこ
とができるようにすることにある。具体的にはI/O要
求のアドレス情報であるLUNとLBAから、一意のパ
スグループが導かれるように行なう。以下に例を2つ示
す。
Next, the address information and the path group are mapped (step 402). The purpose of the mapping in step 402 is to introduce a sequential read I / O to a single path group, and to use a load balancing algorithm similar to the conventional one, with random I / O not having such a restriction as much as possible. It is to enable multipath load balancing. Specifically, the unique path group is derived from the LUN and LBA that are the address information of the I / O request. Two examples are given below.

【0096】1つ目は論理ボリューム番号(以下LU
N)を用いる方法である。この場合は、各LUNを適当
に(例えば昇順に)パスグループに対してマッピングす
る。この方法は、シーケンシャルなI/OはほとんどL
UNが同じであるという特性を利用している。すなわ
ち、シーケンシャルなI/Oはほとんど同じパスグルー
プにマッピングされることになる。
The first is the logical volume number (hereinafter LU
N) is used. In this case, each LUN is appropriately mapped (for example, in ascending order) to the path group. With this method, the sequential I / O is almost L
It utilizes the property that UN is the same. That is, sequential I / Os are mapped to almost the same path group.

【0097】2つ目は論理アドレス(以下LBA)の区
画を用いる方法である。この場合は、LBAを或る適当
な幅毎に区画化し、各区画を適当に(例えば昇順に)パ
スグループに対してマッピングしていく。この方法は、
シーケンシャルなI/OはLBAがかなり接近している
という特性を利用している。すなわち、シーケンシャル
なI/Oはほとんど同じパスグループにマッピングされ
ることになる。
The second method is to use logical address (hereinafter referred to as LBA) partitions. In this case, the LBA is partitioned into certain appropriate widths, and each partition is mapped to the path group appropriately (for example, in ascending order). This method
Sequential I / O takes advantage of the close proximity of LBAs. That is, sequential I / Os are mapped to almost the same path group.

【0098】また、ここではいずれか1つを用いる方法
について説明したが、LUNとLBAを組み合わせてパ
スグループを導く方法も考えられる。
Although the method using one of them has been described here, a method of combining the LUN and LBA to derive the path group is also conceivable.

【0099】ステップ402においてLBAの区画を用
いる場合は、その区画幅の決め方として2つ方法が考え
られる。つまり、データ記憶装置に教えてもらう方法
と、ネームサーバ等の第三者に教えてもらう方法とがあ
る。
When the LBA partition is used in step 402, two methods can be considered for determining the partition width. That is, there are a method of having a data storage device teach it and a method of having a third party such as a name server teach it.

【0100】1つ目の方法は、例えば各パスがデータ記
憶装置のどの通信ポートを用いているか特定する際に、
ホストコンピュータとデータ記憶装置間で通信が発生す
るから、その際にデータ記憶装置側からホストコンピュ
ータへ最適な区画幅を渡すというものである。
The first method is to specify, for example, which communication port of the data storage device each path uses.
Since communication occurs between the host computer and the data storage device, the optimum partition width is passed from the data storage device side to the host computer at that time.

【0101】2つ目は、ホストコンピュータはネームサ
ーバを通して最適な区画幅の情報を知るというものであ
る。
The second is that the host computer knows the optimum partition width information through the name server.

【0102】アドレス情報とパスグループのマッピング
を行なったら、その情報をマッピングテーブル151に
記述する(ステップ403)。
After mapping the address information and the path group, the information is described in the mapping table 151 (step 403).

【0103】次に、本実施の形態の効果について説明す
る。以上説明したように、本実施の形態によれば、パス
グループ管理部140、マッピング管理部150は合わ
せて、シーケンシャルなリードI/Oを単一のキャッシ
ュに送付する制限を加えるための情報を提供している。
このような制限を加えることで、シーケンシャルなリー
ドI/Oは、キャッシュを共有しているホスト制御部群
(210、211)によって処理されるようになる。そ
して、その上で負荷分散制御部130が負荷分散を行な
っているので、ホスト制御部210、211がシーケン
シャルなリードI/Oを選り分ける精度が低下する問
題、複数のホスト制御部210、211から同一のアド
レス領域へのプリフェッチを多重に行なってしまう問題
は発生しない。
Next, the effect of this embodiment will be described. As described above, according to this embodiment, the path group management unit 140 and the mapping management unit 150 together provide information for restricting sending sequential read I / O to a single cache. is doing.
By applying such a restriction, sequential read I / O will be processed by the host control unit group (210, 211) sharing the cache. Then, since the load distribution control unit 130 performs the load distribution on that, the problem that the host control units 210 and 211 reduce the accuracy of selecting the sequential read I / O, There is no problem of prefetching multiple times in the same address area.

【0104】次に、本発明の第2の実施の形態について
図面を参照して詳細に説明する。図5は、本発明の第2
の実施の形態による負荷分散システムの構成を示すブロ
ック図である。
Next, a second embodiment of the present invention will be described in detail with reference to the drawings. FIG. 5 shows the second aspect of the present invention.
3 is a block diagram showing a configuration of a load balancing system according to the embodiment of FIG.

【0105】図5を参照すると、本発実施の形態の負荷
分散システムの構成の第1の実施の形態との相違点は、
ホストコンピュータ100aにおいて、第1の実施の形
態におけるパスグループ管理部140とマッピング管理
部150を備えない点である。
Referring to FIG. 5, the difference between the configuration of the load balancing system of the present embodiment and that of the first embodiment is as follows.
The host computer 100a does not include the path group management unit 140 and the mapping management unit 150 according to the first embodiment.

【0106】すなわち、接続されているホスト制御部2
10、211が使用するデータ記憶装置200のキャッ
シュ毎にパスをグループ化したパスグループの情報と、
I/O要求のアドレス情報とパスグループのマッピング
情報を、管理者が前もってパスグループテーブル141
a、マッピングテーブル151aとしてホストコンピュ
ータ100aに与えておく。
That is, the connected host controller 2
Path group information in which paths are grouped for each cache of the data storage device 200 used by
The administrator previously registers the address information of the I / O request and the mapping information of the path group in the path group table 141.
The mapping table 151a is provided to the host computer 100a.

【0107】負荷分散制御部130aは、これらのテー
ブルを参照し、負荷分散アルゴリズムに基づき使用する
パスを決定する。
The load distribution control unit 130a refers to these tables and determines the path to be used based on the load distribution algorithm.

【0108】以上説明したように本実施の形態によれ
ば、第1の実施の形態の効果に加えて、情報を人間が設
定するために非常に細やかな設定が可能となる点や、シ
ステムを非常にシンプルに構成することができるという
点がある。
As described above, according to the present embodiment, in addition to the effects of the first embodiment, it is possible to perform very detailed setting because information is set by a person, and a system is provided. The point is that it can be configured very simply.

【0109】次に、本発明の第3の実施の形態について
詳細に説明する。図6は、本発明の第3の実施の形態に
よる負荷分散システムの構成を示すブロック図である。
Next, the third embodiment of the present invention will be described in detail. FIG. 6 is a block diagram showing the configuration of the load balancing system according to the third embodiment of the present invention.

【0110】本発明の第3の実施の形態の負荷分散シス
テムの構成は、第1の実施の形態と同様であるが、ホス
トコンピュータ100bのマッピング管理部150bに
おいて、定期的にマッピングテーブル151を更新する
機能を備えるようにした点を特徴とする。
The configuration of the load balancing system of the third embodiment of the present invention is the same as that of the first embodiment, but the mapping table 151 is periodically updated in the mapping management unit 150b of the host computer 100b. The feature is that it has a function to do.

【0111】図7は、本実施の形態のマッピング管理部
150bの動作を説明するためのフローチャートであ
る。図7を参照すると本実施の形態のマッピング管理部
150bは、まずホストコンピュータのブート時にスク
リプト等により立ち上げられる。そして、まずファイル
システム120が担当するI/O要求のアドレス情報の
範囲を特定する(ステップ701)。
FIG. 7 is a flow chart for explaining the operation of the mapping management unit 150b of this embodiment. Referring to FIG. 7, the mapping management unit 150b of this embodiment is first started up by a script or the like when the host computer boots. Then, first, the range of the address information of the I / O request handled by the file system 120 is specified (step 701).

【0112】次に、管理者に定められた時刻が来るまで
待つ(ステップ702)。定められた時刻に達すると、
アドレス情報とパスグループのマッピングを行なう(ス
テップ703)。アドレス情報とパスグループのマッピ
ングを行なったら、その情報をマッピングテーブル15
1に記述する(ステップ704)。この後は、再び管理
者に定められた時刻が来るまでは、待機することにな
る。
Next, the process waits until the time set by the administrator arrives (step 702). When the set time is reached,
The address information and the path group are mapped (step 703). After mapping the address information and the path group, the information is stored in the mapping table 15.
1 (step 704). After this, it will wait until the time set by the administrator comes again.

【0113】第1の実施の形態と異なる点は、マッピン
グ管理部150bが、定期的にマッピングテーブル15
1を、負荷分散情報テーブル131を参照して更新する
点である。例えば、本実施の形態のマッピング管理部1
50bは、毎日午前12時にその日一日のパスの利用状
況を参照してマッピングテーブルを更新するような形に
なる。
The difference from the first embodiment is that the mapping management unit 150b periodically sets the mapping table 15
1 is the point of updating with reference to the load balancing information table 131. For example, the mapping management unit 1 of this embodiment
50b has a form in which the mapping table is updated at 12:00 am every day by referring to the usage status of the pass of the day.

【0114】定期的にマッピングテーブル151を、負
荷情報を参照して更新することで、パスの負荷状況に沿
ってパスグループとI/Oのアドレス情報をマッピング
することが可能になる。引いては、より適切なマルチパ
ス負荷分散が可能になる。
By periodically updating the mapping table 151 by referring to the load information, it becomes possible to map the path group and I / O address information in accordance with the load status of the path. After all, more appropriate multipath load balancing becomes possible.

【0115】以上説明したように本実施の形態によれ
ば、第1の実施の形態の効果に加えて、定期的に負荷情
報を参照してマッピングテーブル151を更新すること
で、パスの負荷状況に沿ってパスグループとI/Oのア
ドレス情報をマッピングすることが可能になる。パスの
負荷状況に沿ったマッピングは、より適切なマルチパス
負荷分散を実現する。
As described above, according to the present embodiment, in addition to the effect of the first embodiment, the load status of the path is updated by periodically referring to the load information and updating the mapping table 151. It becomes possible to map the address information of the path group and the I / O along. Mapping according to the load status of the paths realizes more appropriate multipath load distribution.

【0116】次に、本発明の第4の実施の形態について
詳細に説明する。
Next, the fourth embodiment of the present invention will be described in detail.

【0117】図8は、本発明の第4の実施の形態による
負荷分散システムの構成を示すブロック図である。図8
を参照すると、本実施の形態の負荷分散システムの構成
の第1の実施の形態との相違点は、ホストコンピュータ
100cにおいて、パスグループ管理部140とパスグ
ループテーブル141を備えない点であり、また、マッ
ピング管理部150cの機能を変更することにより、パ
スグループという概念を本実施の形態においては取り扱
わないことを特徴とする。
FIG. 8 is a block diagram showing the configuration of the load balancing system according to the fourth embodiment of the present invention. Figure 8
Referring to FIG. 3, the difference between the configuration of the load balancing system of this embodiment and that of the first embodiment is that the host computer 100c does not include the path group management unit 140 and the path group table 141. The feature of the present embodiment is that the concept of a path group is not handled by changing the function of the mapping management unit 150c.

【0118】本実施の形態のマッピング管理部150c
は、I/Oのアドレス情報とパスを直接マッピングす
る。そして、負荷分散制御部130cは、そのマッピン
グ情報を用いることで、シーケンシャルなリードI/O
を単一のパスに導きつつ、ランダムなI/Oはなるべく
そのような制限を設けずにマルチパス負荷分散を行な
う。
Mapping management unit 150c of the present embodiment
Directly maps the I / O address information and the path. Then, the load distribution control unit 130c uses the mapping information to perform sequential read I / O.
, And the random I / O performs multi-path load balancing with no such limitation as much as possible.

【0119】図9は、本発明の第4の実施の形態の負荷
分散制御部130cの動作を示すフローチャートであ
る。負荷分散制御部130cは、まずホストコンピュー
タのブート時にスクリプト等により立ち上げられる。そ
して、ファイルシステム120よりI/O要求が来るま
では待機している(ステップ901)。
FIG. 9 is a flow chart showing the operation of the load distribution control unit 130c according to the fourth embodiment of this invention. The load distribution control unit 130c is first started up by a script or the like when the host computer boots. Then, it waits until an I / O request comes from the file system 120 (step 901).

【0120】ファイルシステム120よりI/O要求が
来ると、そのI/O要求のアドレス情報とマッピングテ
ーブル151と負荷分散情報テーブル131を参照して
使用するパスを選択する(ステップ902)。マッピン
グテーブル151には、I/O要求のアドレス情報であ
るLUNやLBAからパスが一意に選択できるようなマ
ッピング情報が記述されている。負荷分散情報テーブル
131には、各パスの利用状況と、各パスグループにお
いてどの負荷分散アルゴリズムを用いるかということが
記述されている。
When an I / O request comes from the file system 120, the path information to be used is selected by referring to the address information of the I / O request, the mapping table 151 and the load balancing information table 131 (step 902). Mapping information is described in the mapping table 151 so that a path can be uniquely selected from the LUN or LBA that is the address information of the I / O request. The load distribution information table 131 describes the usage status of each path and which load distribution algorithm is used in each path group.

【0121】使用するパスが決定されると、適切なデバ
イスドライバへI/O要求を送付する(ステップ90
3)。最後に、新しくI/O要求を送付したことで変化
したパスの利用状況を負荷分散情報テーブル131に記
述する(ステップ904)。この後は再びファイルシス
テム120よりI/O要求が来るまでは待機することに
なる。
When the path to be used is determined, the I / O request is sent to the appropriate device driver (step 90).
3). Finally, the usage status of the path that has changed due to the transmission of the new I / O request is described in the load balancing information table 131 (step 904). After this, it waits until an I / O request comes from the file system 120 again.

【0122】図10は、本発明の第4の実施の形態のマ
ッピング管理部150cの動作を表すフローチャートで
ある。マッピング管理部150cは、まずホストコンピ
ュータのブート時にスクリプト等により立ち上げられ
る。
FIG. 10 is a flowchart showing the operation of the mapping management unit 150c according to the fourth embodiment of this invention. The mapping management unit 150c is first started up by a script or the like when the host computer boots.

【0123】そして、まずファイルシステム120が担
当するI/O要求のアドレス情報の範囲を特定する(ス
テップ1001)。具体的には、LUNやLBAが使用
されている範囲が何番から何番までかを特定するという
ことである。
First, the range of the address information of the I / O request which the file system 120 is in charge of is specified (step 1001). Specifically, it is to specify what range the LUN or LBA is used in.

【0124】次に、アドレス情報とパスのマッピングを
行なう(ステップ1002)。ステップ1002のマッ
ピングの目的は、シーケンシャルなリードI/Oを単一
のパスに導きつつ、ランダムなI/Oはなるべくそのよ
うな制限を設けずに、従来と同様な負荷分散アルゴリズ
ムを用いてマルチパス負荷分散を行なうことができるよ
うにすることにある。具体的には、I/O要求のアドレ
ス情報であるLUNとLBAから、一意のパスが導かれ
るように行なう。
Next, the address information and the path are mapped (step 1002). The purpose of the mapping in step 1002 is to guide sequential read I / O to a single path, while avoiding random I / O with such restrictions as much as possible, using a load balancing algorithm similar to the conventional one. It is to be able to perform path load distribution. Specifically, the unique path is derived from the LUN and LBA that are the address information of the I / O request.

【0125】アドレス情報とパスのマッピングを行なっ
たら、その情報をマッピングテーブル151に記述する
(ステップ1003)。
After mapping the address information and the path, the information is described in the mapping table 151 (step 1003).

【0126】以上説明したように本実施の形態によれ
ば、第1の実施の形態の効果に加えて、パスグループと
いう概念を必要としないことから、システムをシンプル
に構成できる。
As described above, according to the present embodiment, in addition to the effects of the first embodiment, the concept of a path group is not required, so that the system can be simply constructed.

【0127】次に、本発明の第5の実施の形態について
詳細に説明する。
Next, the fifth embodiment of the present invention will be described in detail.

【0128】図11は、本発明の第5の実施の形態によ
る負荷分散システムの構成を示すブロック図である。図
11を参照すると、本発明の第5の実施の形態は、ホス
トコンピュータ100と、非共有キャッシュ方式のホス
ト制御装置400、データ記憶装置200d、ネットワ
ーク300を備える。
FIG. 11 is a block diagram showing the configuration of the load balancing system according to the fifth embodiment of the present invention. Referring to FIG. 11, the fifth embodiment of the present invention includes a host computer 100, a non-shared cache type host control device 400, a data storage device 200d, and a network 300.

【0129】図11を参照すると、本実施の形態の負荷
分散システムの構成の第1の実施の形態との相違点は、
仮想ボリューム機能やキャッシング機能を行なうホスト
制御部410、411を擁するホスト制御装置400
を、ディスクアレイ240を備えるデータ記憶装置20
0dと独立させた点である。本実施の形態において、ホ
スト制御装置400において、データ記憶装置200d
の仮想ボリューム機能やキャッシング機能を提供する。
このため、データ記憶装置200d自身には、ホスト制
御部を備える必要はない。
Referring to FIG. 11, the difference between the configuration of the load balancing system of this embodiment and that of the first embodiment is as follows.
Host controller 400 having host controllers 410 and 411 for performing virtual volume function and caching function
The data storage device 20 including the disk array 240
It is independent from 0d. In the present embodiment, in the host controller 400, the data storage device 200d
It provides virtual volume function and caching function.
Therefore, the data storage device 200d itself does not need to have a host controller.

【0130】本実施の形態のホストコンピュータ100
の処理は、第1の実施の形態と同様である。ただし、本
実施の形態においてマッピングを行なう物理的パスは、
ホストコンピュータ100とホスト制御装置400との
間における物理的パスである。
Host computer 100 of the present embodiment
The process of is similar to that of the first embodiment. However, the physical path to be mapped in this embodiment is
It is a physical path between the host computer 100 and the host control device 400.

【0131】つまり、ホストコンピュータ100とホス
ト制御装置400との間における複数の物理的パスを、
ホスト制御装置400内のキャッシュ毎にグループ化し
てパスグループとして管理し、パスグループの情報を示
すパスグループ情報を生成する。そして、入出力要求の
アドレス情報とパスグループとのマッピングを行ない、
シーケンシャルな読み出し要求を単一のパスグループに
マッピングし、マッピングの内容を示すマッピング情報
を生成する。そして、生成されたマッピング情報を参照
して、第1の実施の形態において説明されたように、入
出力要求を複数本の物理的パスに適切に分散する。
That is, a plurality of physical paths between the host computer 100 and the host control device 400 are
The caches in the host control device 400 are grouped and managed as a path group, and path group information indicating the information of the path group is generated. Then, the address information of the input / output request and the path group are mapped,
Sequential read requests are mapped to a single path group, and mapping information indicating the contents of mapping is generated. Then, referring to the generated mapping information, as described in the first embodiment, the input / output request is appropriately distributed to the plurality of physical paths.

【0132】なお、図11の例においては、ホスト制御
装置400は簡便のため1つのみ示したが、複数のホス
ト制御装置が連携して動作している場合も考えられる。
In the example of FIG. 11, only one host control device 400 is shown for the sake of simplicity, but it is also conceivable that a plurality of host control devices operate in cooperation.

【0133】ホスト制御部410、411は、簡便のた
め2つのみ示したが、2〜20程度備えている場合も考
えられる。また、各ホスト制御部410、411は3つ
ずつ通信ポートを持っているが、1〜10程度備えてい
る場合も考えられるし、ホスト制御部間410、411
で異なる数の通信ポートを持つ場合や、異なる性能の通
信ポートが混在する場合も考えられる。また、この図1
1では、1つのホスト制御部が1つのキャッシュを持つ
構成になっているが、複数のホスト制御部が1つのキャ
ッシュを共有する場合も考えられる。
Only two host control units 410 and 411 are shown for the sake of simplicity, but there may be a case in which about 2 to 20 are provided. Further, each host control unit 410, 411 has three communication ports, but it may be provided with about 1 to 10 communication ports.
There may be cases in which there are different numbers of communication ports, or there are mixed communication ports with different performance. Also, this figure 1
In No. 1, one host control unit has one cache, but a plurality of host control units may share one cache.

【0134】またホスト制御装置400は、ディスクア
レイ、ハードディスク、半導体メモリ等のデータ記憶装
置を持つ場合も考えられる。
The host controller 400 may also have a data storage device such as a disk array, hard disk, semiconductor memory or the like.

【0135】またデータ記憶装置200dは、簡便のた
めディスクアレイのみ示したが、ホスト制御部、キャッ
シュを持つ場合も考えられる。また、データ記憶装置2
00dは、簡便のため通信ポートを1つのみ示したが、
2〜50程度備えている場合も考えられる。
Further, for the data storage device 200d, only the disk array is shown for the sake of simplicity. In addition, the data storage device 2
00d shows only one communication port for simplicity.
It may be possible to provide about 2 to 50.

【0136】本実施の形態によれば、第1の実施の形態
の効果に加えて、スト制御部を擁するホスト制御装置と
ディスクアレイを備えるデータ記憶装置とを独立の装置
することができ、データ記憶装置の構成には手を加えず
に、ホスト制御装置を加えたり削除したりする等の変更
が容易になるため、ホスト制御部が実現する仮想ボリュ
ーム機能、キャッシング機能の性能をより柔軟に調整す
ることが可能になる。
According to the present embodiment, in addition to the effects of the first embodiment, the host controller having the strike controller and the data storage device having the disk array can be independent devices, and Since it is easy to change the host controller, such as adding or deleting the host controller without changing the configuration of the storage device, the performance of the virtual volume function and caching function realized by the host controller can be adjusted more flexibly. It becomes possible to do.

【0137】また、上記各実施の形態の負荷分散システ
ムは、互いに自由に組み合わせて実施することができ
る。例えば、第5の実施の形態において、第2、3、4
の実施の形態のホストコンピュータを用いて実施するこ
と等が可能である。
Further, the load balancing systems of the above-mentioned respective embodiments can be freely combined and implemented. For example, in the fifth embodiment, the second, third, fourth
It is possible to implement by using the host computer of the embodiment.

【0138】例えば、第5の実施の形態において、第4
の実施の形態のホストコンピュータ100cを用いる場
合には、入出力要求のアドレス情報と、ホストコンピュ
ータ100cとホスト制御装置400との間における複
数の物理的パスとのマッピングを行ない、シーケンシャ
ルな読み出し要求を単一のパスにマッピングし、マッピ
ングの内容を示すマッピング情報を生成する。そして、
生成されたマッピング情報を参照して、入出力要求を複
数本の物理的パスに適切に分散する。
For example, in the fifth embodiment, the fourth
When the host computer 100c according to the embodiment is used, the address information of the input / output request is mapped to a plurality of physical paths between the host computer 100c and the host control device 400, and sequential read requests are made. Mapping is performed for a single path and mapping information indicating the contents of mapping is generated. And
By referring to the generated mapping information, I / O requests are distributed appropriately among a plurality of physical paths.

【0139】なお、上記各実施の形態の負荷分散システ
ムは、ホストコンピュータ100、100a、100
b、100cにおける負荷分散制御部130、130
a、130c、パスグループ管理部140、マッピング
管理部150、150b、150cや、その他の機能を
ハードウェア的に実現することは勿論として、各機能を
備えるコンピュータプログラムである負荷分散プログラ
ム90、90a、90b、90c、90dを、コンピュ
ータ処理装置のメモリにロードされることで実現するこ
とができる。この負荷分散プログラム90、90a、9
0b、90c、90dは、磁気ディスク、半導体メモリ
その他の記録媒体に格納される。そして、その記録媒体
からコンピュータ処理装置にロードされ、コンピュータ
処理装置の動作を制御することにより、上述した各機能
を実現する。
The load balancing system of each of the above-described embodiments is implemented by the host computers 100, 100a, 100.
b, 100c load balancing control units 130, 130
a, 130c, the path group management unit 140, the mapping management units 150, 150b, 150c, and other functions as well as hardware, of course, the load balancing programs 90, 90a, which are computer programs having the respective functions, 90b, 90c, 90d can be realized by being loaded in the memory of the computer processing device. This load balancing program 90, 90a, 9
0b, 90c, and 90d are stored in a magnetic disk, a semiconductor memory, or another recording medium. Then, it is loaded from the recording medium to the computer processing device and controls the operation of the computer processing device to realize the above-described functions.

【0140】以上好ましい実施の形態及び実施例をあげ
て本発明を説明したが、本発明は必ずしも上記実施の形
態及び実施例に限定されるものではなく、その技術的思
想の範囲内において様々に変形して実施することができ
る。
Although the present invention has been described with reference to the preferred embodiments and examples, the present invention is not necessarily limited to the above-described embodiments and examples, and various modifications can be made within the scope of the technical idea thereof. It can be modified and implemented.

【0141】[0141]

【発明の効果】以上説明したように本発明の負荷分散シ
ステム、負荷分散システムのホストコンピュータ、及び
負荷分散プログラムによれば、以下のような効果が達成
される。
As described above, according to the load balancing system, the host computer of the load balancing system, and the load balancing program of the present invention, the following effects are achieved.

【0142】第1に、本発明によれば、各パスが接続さ
れているホスト制御部がデータ記憶装置のどのキャッシ
ュを使用しているかを確認し、使用しているキャッシュ
毎にパスをグループ化するパスグループ管理部と、I/
O要求(入出力要求)のアドレス情報とパスグループの
マッピングを行なうマッピング管理部により、シーケン
シャルなリードI/Oを単一のキャッシュに送付する制
限を加えた上でマルチパス負荷分散を行なうことができ
る。すなわち、ホスト制御部がシーケンシャルなリード
I/Oを選り分ける精度が低下する問題、複数のホスト
制御部から同一のアドレス領域へのプリフェッチを多重
に行なってしまう問題は発生しない。
First, according to the present invention, the host control unit to which each path is connected confirms which cache of the data storage device is used, and groups the paths for each cache used. I / O
By the mapping management unit that maps the address information of the O request (input / output request) and the path group, it is possible to perform multipath load balancing after limiting the sending of sequential read I / O to a single cache. it can. That is, there is no problem that the accuracy of the host control unit selecting the sequential read I / O is reduced, or that multiple prefetches from a plurality of host control units to the same address area are performed in a multiple manner.

【0143】第2に、本発明の第2の実施の形態によれ
ば、パスグループの情報と、I/O要求のアドレス情報
とパスグループのマッピング情報を、管理者が前もって
パスグループテーブル、マッピングテーブルとしてホス
トコンピュータに与えておくことで、システムをシンプ
ルに構成することができる。
Secondly, according to the second embodiment of the present invention, the administrator previously sets the path group information, the address information of the I / O request, and the mapping information of the path group in the path group table and the mapping information. By giving it to the host computer as a table, the system can be configured simply.

【0144】第3に、本発明の第3の実施の形態によれ
ば、定期的に負荷情報を参照してI/O要求のアドレス
情報とパスグループのマッピングを更新することで、パ
スの負荷状況に沿ってパスグループとI/Oのアドレス
情報をマッピングすることができる。パスの負荷状況に
沿ったマッピングは、より適切なマルチパス負荷分散を
実現する。
Thirdly, according to the third embodiment of the present invention, the load information of the path is updated by periodically referring to the load information and updating the mapping between the address information of the I / O request and the path group. Address information of the path group and I / O can be mapped according to the situation. Mapping according to the load status of the paths realizes more appropriate multipath load distribution.

【0145】第4に、本発明の第4の実施の形態によれ
ば、パスグループという概念を用いずに、I/O要求の
アドレス情報とパスを直接マッピングすることで、シス
テムをシンプルに構成することができる。
Fourthly, according to the fourth embodiment of the present invention, the system is simplified by directly mapping the address information of the I / O request and the path without using the concept of the path group. can do.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の第1の実施の形態による負荷分散シ
ステムの構成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of a load distribution system according to a first embodiment of the present invention.

【図2】 本発明の第1の実施の形態の負荷分散制御部
の動作を説明するためのフローチャートである。
FIG. 2 is a flowchart illustrating an operation of the load distribution control unit according to the first embodiment of this invention.

【図3】 本発明の第1の実施の形態のパスグループ管
理部の動作を説明するためのフローチャートである。
FIG. 3 is a flowchart illustrating an operation of a path group management unit according to the first embodiment of this invention.

【図4】 本発明の第1の実施の形態のマッピング管理
部の動作を説明するためのフローチャートである。
FIG. 4 is a flowchart illustrating an operation of a mapping management unit according to the first embodiment of this invention.

【図5】 本発明の第2の実施の形態による負荷分散シ
ステムの構成を示すブロック図である。
FIG. 5 is a block diagram showing a configuration of a load balancing system according to a second embodiment of the present invention.

【図6】 本発明の第3の実施の形態による負荷分散シ
ステムの構成を示すブロック図である。
FIG. 6 is a block diagram showing a configuration of a load distribution system according to a third embodiment of the present invention.

【図7】 本発明の第3の実施の形態のマッピング管理
部の動作を説明するためのフローチャートである。
FIG. 7 is a flowchart illustrating an operation of a mapping management unit according to the third embodiment of this invention.

【図8】 本発明の第4の実施の形態による負荷分散シ
ステムの構成を示すブロック図である。
FIG. 8 is a block diagram showing a configuration of a load distribution system according to a fourth embodiment of the present invention.

【図9】 本発明の第4の実施の形態の負荷分散制御部
の動作を説明するためのフローチャートである。
FIG. 9 is a flowchart illustrating an operation of a load distribution control unit according to the fourth embodiment of this invention.

【図10】 本発明の第4の実施の形態のマッピング管
理部の動作を説明するためのフローチャートである。
FIG. 10 is a flowchart illustrating an operation of a mapping management unit according to the fourth embodiment of this invention.

【図11】 本発明の第5の実施の形態による負荷分散
システムの構成を示すブロック図である。
FIG. 11 is a block diagram showing a configuration of a load distribution system according to a fifth embodiment of the present invention.

【図12】 従来の負荷分散システムの構成を示すブロ
ック図である。
FIG. 12 is a block diagram showing a configuration of a conventional load balancing system.

【図13】 従来の共有キャッシュ方式と非共有キャッ
シュ方式のそれぞれのデータ記憶装置の構成を示すブロ
ック図である。
FIG. 13 is a block diagram showing a configuration of a conventional shared cache type and non-shared cache type data storage device, respectively.

【符号の説明】[Explanation of symbols]

90、90a、90b、90c、90d 負荷分散プロ
グラム 100、100a、100b、100c ホストコンピ
ュータ 110 アプリケーション 120 ファイルシステム 130、130a、130c 負荷分散制御部 131 負荷分散情報テーブル 140 パスグループ管理部 141、141a パスグループテーブル 150、150b、150c マッピング管理部 151、151a マッピングテーブル 160〜165 デバイスドライバ 170〜175 通信ポート 200、200d データ記憶装置 210、211、410、411 ホスト制御部 220、221、220、221 キャッシュ 230〜235、430〜435 通信ポート 240 ディスクアレイ 300 ネットワーク 400 ホスト制御装置
90, 90a, 90b, 90c, 90d Load balancing program 100, 100a, 100b, 100c Host computer 110 Application 120 File system 130, 130a, 130c Load balancing control unit 131 Load balancing information table 140 Path group management unit 141, 141a Path group Tables 150, 150b, 150c Mapping management units 151, 151a Mapping tables 160-165 Device drivers 170-175 Communication ports 200, 200d Data storage devices 210, 211, 410, 411 Host control units 220, 221, 220, 221 Cache 230- 235, 430-435 Communication port 240 Disk array 300 Network 400 Host controller

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06F 12/08 551 G06F 12/08 551Z 557 557 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) G06F 12/08 551 G06F 12/08 551Z 557 557

Claims (22)

【特許請求の範囲】[Claims] 【請求項1】 ホストコンピュータと、非共有キャッシ
ュ方式のデータ記憶装置をネットワークを介して接続す
る負荷分散システムにおいて、 入出力要求のアドレス情報と、前記データ記憶装置との
間における複数の物理的パスとのマッピングを行ない、
シーケンシャルな読み出し要求を単一の前記パスにマッ
ピングし、前記マッピングの内容を示すマッピング情報
を生成し、 前記マッピング情報を参照して、前記入出力要求を複数
本の物理的パスに適切に分散することを特徴とする負荷
分散システム。
1. A load balancing system in which a host computer and a non-shared cache type data storage device are connected via a network, address information of an input / output request, and a plurality of physical paths between the data storage device. Mapping with
Mapping sequential read requests to a single path, generating mapping information indicating the contents of the mapping, referring to the mapping information, and appropriately distributing the input / output requests to a plurality of physical paths. A load balancing system characterized in that
【請求項2】 ホストコンピュータと、非共有キャッシ
ュ方式のデータ記憶装置をネットワークを介して接続す
る負荷分散システムにおいて、 前記データ記憶装置との間における複数の物理的パス
を、前記データ記憶装置内のキャッシュ毎にグループ化
してパスグループとして管理し、前記パスグループの情
報を示すパスグループ情報を生成し、 入出力要求のアドレス情報と前記パスグループとのマッ
ピングを行ない、シーケンシャルな読み出し要求を単一
の前記パスグループにマッピングし、前記マッピングの
内容を示すマッピング情報を生成し、 前記パスグループ情報と前記マッピング情報を参照し
て、前記入出力要求を複数本の物理的パスに適切に分散
することを特徴とする負荷分散システム。
2. In a load balancing system in which a host computer and a non-shared cache type data storage device are connected via a network, a plurality of physical paths between the data storage device and the data storage device are provided in the data storage device. Each cache is grouped and managed as a path group, path group information indicating the information of the path group is generated, the address information of the input / output request and the path group are mapped, and a sequential read request is made into a single Mapping to the path group, generating mapping information indicating the contents of the mapping, referring to the path group information and the mapping information, and appropriately distributing the input / output requests to a plurality of physical paths. A characteristic load balancing system.
【請求項3】 ホストコンピュータと、非共有キャッシ
ュ方式のデータ記憶装置をネットワークを介して接続す
る負荷分散システムにおいて、 前記データ記憶装置と前記ホストコンピュータとの間の
通信を中継し、前記データ記憶装置のキャッシングを実
行するホスト制御装置を備え、 入出力要求のアドレス情報と、前記ホストコンピュータ
と前記ホスト制御装置との間における複数の物理的パス
とのマッピングを行ない、シーケンシャルな読み出し要
求を単一の前記パスにマッピングし、前記マッピングの
内容を示すマッピング情報を生成し、 前記マッピング情報を参照して、前記入出力要求を複数
本の物理的パスに適切に分散することを特徴とする負荷
分散システム。
3. A load balancing system in which a host computer and a non-shared cache data storage device are connected via a network, wherein the data storage device relays communication between the host computer and the data storage device. The host controller that performs the caching of the I / O request is performed, and the address information of the I / O request is mapped to a plurality of physical paths between the host computer and the host controller to issue a sequential read request as a single A load distribution system characterized by performing mapping on the path, generating mapping information indicating the contents of the mapping, and referring to the mapping information to appropriately distribute the input / output requests to a plurality of physical paths. .
【請求項4】 ホストコンピュータと、非共有キャッシ
ュ方式のデータ記憶装置をネットワークを介して接続す
る負荷分散システムにおいて、 前記データ記憶装置と前記ホストコンピュータとの間の
通信を中継し、前記データ記憶装置のキャッシングを実
行するホスト制御装置を備え、 前記ホストコンピュータと前記ホスト制御装置との間に
おける複数の物理的パスを、前記ホスト制御装置内のキ
ャッシュ毎にグループ化してパスグループとして管理
し、前記パスグループの情報を示すパスグループ情報を
生成し、 入出力要求のアドレス情報と前記パスグループとのマッ
ピングを行ない、シーケンシャルな読み出し要求を単一
の前記パスグループにマッピングし、前記マッピングの
内容を示すマッピング情報を生成し、 前記マッピング情報を参照して、前記入出力要求を複数
本の物理的パスに適切に分散することを特徴とする負荷
分散システム。
4. A load balancing system in which a host computer and a non-shared cache data storage device are connected via a network, wherein the data storage device relays communication between the data storage device and the host computer. A plurality of physical paths between the host computer and the host control device are grouped for each cache in the host control device and managed as a path group. The path group information indicating the group information is generated, the address information of the input / output request is mapped to the path group, the sequential read request is mapped to a single path group, and the mapping indicating the contents of the mapping is performed. Generate information, the mapping information Referring to, load distribution system characterized in that to properly distribute the output request into a plurality of physical paths.
【請求項5】 前記マッピング情報の生成において、前
記入出力要求のアドレス情報として、当該入出力要求の
論理ボリューム番号を用いることを特徴とする請求項1
から請求項4のいずれか1つに記載の負荷分散システ
ム。
5. The logical volume number of the input / output request is used as the address information of the input / output request in the generation of the mapping information.
To the load balancing system according to claim 4.
【請求項6】 前記入出力要求の論理アドレス番号を適
当な幅毎に区画化し、 前記マッピング情報の生成において、前記入出力要求の
アドレス情報として、当該入出力要求の論理アドレス番
号が該当する前記区画を用いることを特徴とする請求項
1から請求項4のいずれか1つに記載の負荷分散システ
ム。
6. The logical address number of the input / output request is partitioned into appropriate widths, and in the generation of the mapping information, the logical address number of the input / output request corresponds to the address information of the input / output request. The load balancing system according to claim 1, wherein a partition is used.
【請求項7】 前記ネットワークを介して、前記入出力
要求の論理アドレス番号の区画化に用いる最適な区画幅
の情報を得る手段を備えることを特徴とする請求項6記
載の負荷分散システム。
7. The load balancing system according to claim 6, further comprising means for obtaining information on an optimum partition width used for partitioning a logical address number of the input / output request via the network.
【請求項8】 ホストコンピュータと、非共有キャッシ
ュ方式のデータ記憶装置をネットワークを介して接続す
る負荷分散システムにおいて、 前記ホストコンピュータが、前記データ記憶装置との間
における複数の物理的パスを、前記データ記憶装置内の
キャッシュ毎にグループ化してパスグループとして管理
するパスグループ情報を記録するパスグループテーブル
と、シーケンシャルな読み出し要求を単一の前記パスグ
ループにマッピングした、入出力要求のアドレス情報と
前記パスグループとのマッピングを示すマッピング情報
を記録するマッピングテーブルを備え、 前記パスグループ情報と前記マッピング情報を参照し
て、前記入出力要求を複数本の物理的パスに適切に分散
することを特徴とする負荷分散システム。
8. A load balancing system in which a host computer and a non-shared cache type data storage device are connected via a network, wherein the host computer has a plurality of physical paths to and from the data storage device. A path group table that records path group information that is grouped for each cache in the data storage device and managed as a path group; address information of an input / output request that maps sequential read requests to a single path group; and A mapping table for recording mapping information indicating mapping with a path group, wherein the input / output request is appropriately distributed to a plurality of physical paths by referring to the path group information and the mapping information. Load balancing system.
【請求項9】 非共有キャッシュ方式のデータ記憶装置
とネットワークを介して接続する負荷分散システムのホ
ストコンピュータにおいて、 入出力要求のアドレス情報と、前記データ記憶装置との
間における複数の物理的パスとのマッピングを行ない、
シーケンシャルな読み出し要求を単一の前記パスにマッ
ピングし、前記マッピングの内容を示すマッピング情報
を生成するマッピング管理手段と、 前記マッピング情報を参照して、前記入出力要求を複数
本の物理的パスに適切に分散する負荷分散制御手段を備
えることを特徴とするホストコンピュータ。
9. A host computer of a load balancing system connected to a non-shared cache type data storage device via a network, wherein address information of an input / output request, and a plurality of physical paths to and from the data storage device. Mapping
Mapping a sequential read request to a single path and mapping management means for generating mapping information indicating the contents of the mapping, and referring to the mapping information, the input / output request to a plurality of physical paths. A host computer comprising a load balancing control means for appropriately balancing.
【請求項10】 非共有キャッシュ方式のデータ記憶装
置とネットワークを介して接続する負荷分散システムの
ホストコンピュータにおいて、 前記データ記憶装置との間における複数の物理的パス
を、前記データ記憶装置内のキャッシュ毎にグループ化
してパスグループとして管理し、前記パスグループの情
報を示すパスグループ情報を生成するパスグループ管理
手段と、 入出力要求のアドレス情報と前記パスグループとのマッ
ピングを行ない、シーケンシャルな読み出し要求を単一
の前記パスグループにマッピングし、前記マッピングの
内容を示すマッピング情報を生成するマッピング管理手
段と、 前記パスグループ情報と前記マッピング情報を参照し
て、前記入出力要求を複数本の物理的パスに適切に分散
する負荷分散制御手段を備えることを特徴とするホスト
コンピュータ。
10. A host computer of a load balancing system, which is connected to a non-shared cache type data storage device via a network, wherein a plurality of physical paths to and from the data storage device are cached in the data storage device. A path group management unit that manages each path group as a path group and generates path group information indicating the information of the path group, and performs sequential read requests by mapping the address information of the input / output request and the path group. Mapping to a single path group, and mapping management means for generating mapping information indicating the contents of the mapping; and referring to the path group information and the mapping information, the input / output request is made into a plurality of physical Equipped with load balancing control means to properly distribute to the paths A host computer characterized in that.
【請求項11】 前記パスグループ管理手段は、 前記データ記憶装置から、当該データ記憶装置が記憶す
るデータの構成情報を取得する手段を備えることを特徴
とする請求項10に記載のホストコンピュータ。
11. The host computer according to claim 10, wherein the path group management means includes means for acquiring configuration information of data stored in the data storage device from the data storage device.
【請求項12】 前記パスグループ管理手段は、 指定された外部の情報機器から、前記データ記憶装置が
記憶するデータの構成情報を取得する手段を備えること
を特徴とする請求項10に記載のホストコンピュータ。
12. The host according to claim 10, wherein the path group management means includes means for acquiring configuration information of data stored in the data storage device from a designated external information device. Computer.
【請求項13】 前記マッピング管理手段は、 前記入出力要求のアドレス情報として、当該入出力要求
の論理ボリューム番号を用いてマッピングを行なうこと
を特徴とする請求項9から請求項12のいずれか1つに
記載のホストコンピュータ。
13. The mapping management means performs the mapping by using the logical volume number of the input / output request as the address information of the input / output request. One of the host computers.
【請求項14】 前記マッピング管理手段は、 前記入出力要求の論理アドレス番号を適当な幅毎に区画
化し、 前記入出力要求のアドレス情報として、当該入出力要求
の論理アドレス番号が該当する前記区画を用いてマッピ
ングを行なうことを特徴とする請求項9から請求項12
のいずれか1つに記載のホストコンピュータ。
14. The mapping management means partitions the logical address number of the input / output request into appropriate widths, and the partition to which the logical address number of the input / output request corresponds as the address information of the input / output request. 13. The mapping is performed by using.
The host computer according to any one of 1.
【請求項15】 前記マッピング管理手段は、 前記データ記憶装置から、前記入出力要求の論理アドレ
ス番号の区画化に用いる最適な区画幅の情報を得る手段
を備えることを特徴とする請求項14記載のホストコン
ピュータ。
15. The mapping management means comprises means for obtaining, from the data storage device, information on an optimum partition width used for partitioning a logical address number of the input / output request. Host computer.
【請求項16】 前記マッピング管理手段は、 指定された外部の情報機器から、前記入出力要求の論理
アドレス番号の区画化に用いる最適な区画幅の情報を得
る手段を備えることを特徴とする請求項14記載のホス
トコンピュータ。
16. The mapping management means comprises means for obtaining, from a designated external information device, information on an optimum partition width used for partitioning a logical address number of the input / output request. Item 14. The host computer according to Item 14.
【請求項17】 前記外部の情報機器を、ネームサーバ
とすることを特徴とする請求項12又は請求項16に記
載のホストコンピュータ。
17. The host computer according to claim 12, wherein the external information device is a name server.
【請求項18】 前記マッピング管理手段は、 定期的に各前記パスの負荷情報を参照して前記マッピン
グ情報を更新することを特徴とする請求項9から請求項
17のいずれか1つに記載のホストコンピュータ。
18. The mapping management means updates the mapping information by periodically referencing the load information of each path. Host computer.
【請求項19】 非共有キャッシュ方式のデータ記憶装
置とネットワークを介して接続する負荷分散システムの
ホストコンピュータにおいて、 前記データ記憶装置との間における複数の物理的パス
を、前記データ記憶装置内のキャッシュ毎にグループ化
してパスグループとして管理するパスグループ情報を記
録するパスグループテーブルと、 シーケンシャルな読み出し要求を単一の前記パスグルー
プにマッピングした、入出力要求のアドレス情報と前記
パスグループとのマッピングを示すマッピング情報を記
録するマッピングテーブルと、 前記パスグループ情報と前記マッピング情報を参照し
て、前記入出力要求を複数本の物理的パスに適切に分散
する負荷分散制御手段を備えることを特徴とするホスト
コンピュータ。
19. In a host computer of a load balancing system, which is connected to a non-shared cache type data storage device via a network, a plurality of physical paths to and from the data storage device are cached in the data storage device. A path group table that records path group information that is grouped for each and managed as a path group, and a sequential read request is mapped to a single path group. It is characterized by further comprising: a mapping table that records the mapping information shown; and a load distribution control unit that appropriately distributes the input / output requests to a plurality of physical paths by referring to the path group information and the mapping information. Host computer.
【請求項20】 非共有キャッシュ方式のデータ記憶装
置とネットワークを介して接続するホストコンピュータ
を制御することにより、負荷分散を実行する負荷分散プ
ログラムにおいて、 入出力要求のアドレス情報と、前記データ記憶装置との
間における複数の物理的パスとのマッピングを行ない、
シーケンシャルな読み出し要求を単一の前記パスにマッ
ピングし、前記マッピングの内容を示すマッピング情報
を生成するマッピング管理機能と、 前記マッピング情報を参照して、前記入出力要求を複数
本の物理的パスに適切に分散する負荷分散制御機能を備
えることを特徴とする負荷分散プログラム。
20. A load balancing program for performing load balancing by controlling a host computer connected to a non-shared cache type data storage device via a network, the address information of an input / output request, and the data storage device. Mapping with multiple physical paths between
A mapping management function for mapping a sequential read request to a single path and generating mapping information indicating the contents of the mapping, and referring to the mapping information, the input / output request to a plurality of physical paths. A load balancing program having a load balancing control function for appropriately balancing.
【請求項21】 非共有キャッシュ方式のデータ記憶装
置とネットワークを介して接続するホストコンピュータ
を制御することにより、負荷分散を実行する負荷分散プ
ログラムにおいて、 前記データ記憶装置との間における複数の物理的パス
を、前記データ記憶装置内のキャッシュ毎にグループ化
してパスグループとして管理し、前記パスグループの情
報を示すパスグループ情報を生成するパスグループ管理
機能と、 入出力要求のアドレス情報と前記パスグループとのマッ
ピングを行ない、シーケンシャルな読み出し要求を単一
の前記パスグループにマッピングし、前記マッピングの
内容を示すマッピング情報を生成するマッピング管理機
能と、 前記パスグループ情報と前記マッピング情報を参照し
て、前記入出力要求を複数本の物理的パスに適切に分散
する負荷分散制御機能を備えることを特徴とする負荷分
散プログラム。
21. A load balancing program for performing load balancing by controlling a host computer connected to a non-shared cache data storage device via a network, comprising: A path group management function that groups paths for each cache in the data storage device and manages them as a path group, and generates path group information indicating the information of the path group; address information of input / output requests and the path group A mapping management function for performing mapping with, mapping a sequential read request to the single path group, and generating mapping information indicating the contents of the mapping, referring to the path group information and the mapping information, The I / O requests are sent to multiple physical paths. A load balancing program having a load balancing control function for appropriately balancing the above.
【請求項22】 非共有キャッシュ方式のデータ記憶装
置とネットワークを介して接続するホストコンピュータ
を制御することにより、負荷分散を実行する負荷分散プ
ログラムにおいて、 前記ホストコンピュータが、前記データ記憶装置との間
における複数の物理的パスを、前記データ記憶装置内の
キャッシュ毎にグループ化してパスグループとして管理
するパスグループ情報を記録するパスグループテーブル
と、シーケンシャルな読み出し要求を単一の前記パスグ
ループにマッピングした、入出力要求のアドレス情報と
前記パスグループとのマッピングを示すマッピング情報
を記録するマッピングテーブルを備え、 前記パスグループ情報と前記マッピング情報を参照し
て、前記入出力要求を複数本の物理的パスに適切に分散
する負荷分散制御機能を備えることを特徴とする負荷分
散プログラム。
22. A load balancing program for performing load balancing by controlling a host computer connected to a non-shared cache type data storage device via a network, wherein the host computer communicates with the data storage device. A plurality of physical paths are grouped for each cache in the data storage device, and a path group table for recording path group information for managing as a path group, and a sequential read request is mapped to the single path group. A mapping table that records mapping information indicating a mapping between the address information of the input / output request and the path group, and refers to the path group information and the mapping information to output the input / output request to a plurality of physical paths. Load balancing system to properly distribute Load distribution program characterized by a function.
JP2001286952A 2001-09-20 2001-09-20 Load-sharing system, host computer for the load-sharing system, and load-sharing program Withdrawn JP2003099384A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001286952A JP2003099384A (en) 2001-09-20 2001-09-20 Load-sharing system, host computer for the load-sharing system, and load-sharing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001286952A JP2003099384A (en) 2001-09-20 2001-09-20 Load-sharing system, host computer for the load-sharing system, and load-sharing program

Publications (1)

Publication Number Publication Date
JP2003099384A true JP2003099384A (en) 2003-04-04

Family

ID=19109844

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001286952A Withdrawn JP2003099384A (en) 2001-09-20 2001-09-20 Load-sharing system, host computer for the load-sharing system, and load-sharing program

Country Status (1)

Country Link
JP (1) JP2003099384A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1533689A1 (en) * 2003-11-18 2005-05-25 Hitachi, Ltd. Improved prefetch cache performance for sequential I/O requests in a multipathed storage system
JP2005228288A (en) * 2004-01-16 2005-08-25 Hitachi Ltd Disk array apparatus and disk array apparatus control method
JP2005242574A (en) * 2004-02-25 2005-09-08 Hitachi Ltd Information processing system and method
JP2005301802A (en) * 2004-04-14 2005-10-27 Hitachi Ltd Storage system
EP1621992A2 (en) * 2004-07-28 2006-02-01 Hitachi Ltd. Computer system for load balance, program and method for setting paths
JP2006178811A (en) * 2004-12-24 2006-07-06 Hitachi Ltd Storage system, and path control method for the system
JP2006259824A (en) * 2005-03-15 2006-09-28 Hitachi Ltd Storage system and information processing system
US7127545B1 (en) 2003-11-19 2006-10-24 Veritas Operating Corporation System and method for dynamically loadable storage device I/O policy modules
JP2008027316A (en) * 2006-07-24 2008-02-07 Nec Corp Disk array device, and data reading method and data reading program for disk array device
JP2009048544A (en) * 2007-08-22 2009-03-05 Hitachi Ltd Storage system provided with function of backing up data on cache memory
US7725623B2 (en) 2005-06-14 2010-05-25 Sony Computer Entertainment Inc. Command transfer controlling apparatus and command transfer controlling method
JP2013501272A (en) * 2009-07-31 2013-01-10 イーエムシー コーポレイション Data processing system using cache-aware multipath distribution of storage commands between caching storage controllers
JP2015088107A (en) * 2013-11-01 2015-05-07 日本電気株式会社 Storage device, controller, storage system, data access method, and program

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1533689A1 (en) * 2003-11-18 2005-05-25 Hitachi, Ltd. Improved prefetch cache performance for sequential I/O requests in a multipathed storage system
US7032041B2 (en) 2003-11-18 2006-04-18 Hitachi, Ltd. Information processing performing prefetch with load balancing
US7127545B1 (en) 2003-11-19 2006-10-24 Veritas Operating Corporation System and method for dynamically loadable storage device I/O policy modules
US7694063B1 (en) 2003-11-19 2010-04-06 Symantec Operating Corporation System and method for dynamically loadable storage device I/O policy modules
JP2005228288A (en) * 2004-01-16 2005-08-25 Hitachi Ltd Disk array apparatus and disk array apparatus control method
JP4518541B2 (en) * 2004-01-16 2010-08-04 株式会社日立製作所 Disk array device and disk array device control method
JP4497953B2 (en) * 2004-02-25 2010-07-07 株式会社日立製作所 Information processing system and information processing method
JP2005242574A (en) * 2004-02-25 2005-09-08 Hitachi Ltd Information processing system and method
JP2005301802A (en) * 2004-04-14 2005-10-27 Hitachi Ltd Storage system
JP4528551B2 (en) * 2004-04-14 2010-08-18 株式会社日立製作所 Storage system
EP1621992A2 (en) * 2004-07-28 2006-02-01 Hitachi Ltd. Computer system for load balance, program and method for setting paths
EP1621992A3 (en) * 2004-07-28 2008-12-03 Hitachi Ltd. Computer system for load balance, program and method for setting paths
US7120912B2 (en) 2004-07-28 2006-10-10 Hitachi, Ltd. Computer system for load balance, program and method for setting paths
JP2006178811A (en) * 2004-12-24 2006-07-06 Hitachi Ltd Storage system, and path control method for the system
JP2006259824A (en) * 2005-03-15 2006-09-28 Hitachi Ltd Storage system and information processing system
JP4721734B2 (en) * 2005-03-15 2011-07-13 株式会社日立製作所 Storage system and information processing system
US7725623B2 (en) 2005-06-14 2010-05-25 Sony Computer Entertainment Inc. Command transfer controlling apparatus and command transfer controlling method
JP2008027316A (en) * 2006-07-24 2008-02-07 Nec Corp Disk array device, and data reading method and data reading program for disk array device
JP2009048544A (en) * 2007-08-22 2009-03-05 Hitachi Ltd Storage system provided with function of backing up data on cache memory
JP2013501272A (en) * 2009-07-31 2013-01-10 イーエムシー コーポレイション Data processing system using cache-aware multipath distribution of storage commands between caching storage controllers
US8627015B2 (en) 2009-07-31 2014-01-07 Emc Corporation Data processing system using cache-aware multipath distribution of storage commands among caching storage controllers
JP2015088107A (en) * 2013-11-01 2015-05-07 日本電気株式会社 Storage device, controller, storage system, data access method, and program

Similar Documents

Publication Publication Date Title
US10082972B2 (en) Method and system for pooling, partitioning, and sharing network storage resources
JP5373199B2 (en) Data processing system using cache-aware multipath distribution of storage commands between caching storage controllers
US20220091739A1 (en) Write type based crediting for block level write throttling to control impact to read input/output operations
US6728832B2 (en) Distribution of I/O requests across multiple disk units
US9405783B2 (en) Extent hashing technique for distributed storage architecture
US6219693B1 (en) File array storage architecture having file system distributed across a data processing platform
US7519745B2 (en) Computer system, control apparatus, storage system and computer device
US8566550B2 (en) Application and tier configuration management in dynamic page reallocation storage system
WO2013175529A1 (en) Storage system and storage control method for using storage area based on secondary storage as cache area
US11169927B2 (en) Efficient cache management
US20120290786A1 (en) Selective caching in a storage system
US20090285098A1 (en) Systems and methods for load balancing storage system requests in a multi-path environment based on transfer speed of the multiple paths
JP2003099384A (en) Load-sharing system, host computer for the load-sharing system, and load-sharing program
CN112527492A (en) Data storage method and device in distributed storage system
US7725654B2 (en) Affecting a caching algorithm used by a cache of storage system
US7441009B2 (en) Computer system and storage virtualizer
US11513849B2 (en) Weighted resource cost matrix scheduler
US9811380B1 (en) Dynamic allocation of CPU resources based on system load trends
US10242053B2 (en) Computer and data read method
US11151048B2 (en) Host-based read performance optimization of a content addressable storage system
CN115543187A (en) Data processing method and equipment
JP2021099560A (en) Storage system
US7836271B1 (en) Using a single allocator to coordinate volume transformations across virtualization layers
US20240094908A1 (en) Systems and methods for performing data compression in memory
MEHIS et al. Dell/EMC SAN Configurations Part

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050422

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071127

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080128

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080219

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20080321

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20080321

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080418

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20080424

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20080604

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20080711

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20090508

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20100419