JP2006059260A - 情報処理システム、管理計算機及びリモートコピー方法 - Google Patents

情報処理システム、管理計算機及びリモートコピー方法 Download PDF

Info

Publication number
JP2006059260A
JP2006059260A JP2004242543A JP2004242543A JP2006059260A JP 2006059260 A JP2006059260 A JP 2006059260A JP 2004242543 A JP2004242543 A JP 2004242543A JP 2004242543 A JP2004242543 A JP 2004242543A JP 2006059260 A JP2006059260 A JP 2006059260A
Authority
JP
Japan
Prior art keywords
storage system
data
storage
area
copy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004242543A
Other languages
English (en)
Other versions
JP4494905B2 (ja
Inventor
Ryoji Furuhashi
亮慈 古橋
Yuichi Taguchi
雄一 田口
Naoko Maruyama
直子 丸山
Taisuke Kaneda
泰典 兼田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2004242543A priority Critical patent/JP4494905B2/ja
Priority to US10/975,821 priority patent/US7545746B2/en
Publication of JP2006059260A publication Critical patent/JP2006059260A/ja
Application granted granted Critical
Publication of JP4494905B2 publication Critical patent/JP4494905B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • G06F3/0659Command handling arrangements, e.g. command buffers, queues, command scheduling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2056Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring
    • G06F11/2066Optimisation of the communication load
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2056Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring
    • G06F11/2071Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring using a plurality of controllers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • G06F3/0611Improving I/O performance in relation to response time
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • G06F3/0656Data buffering arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]

Abstract

【課題】記憶システムのキャッシュが溢れないように制御する。
【解決手段】業務計算機と、第一記憶システムと、第二記憶システムと、を備える情報処理システムにおいて、回線と、回線中継装置と、管理計算機と、を備え、前記第一記憶システムは、第一記憶領域と、前記更新データを前記第二記憶システムに転送するまで記憶する第二記憶領域と、前記第一記憶領域及び前記第二記憶領域へのデータの入出力を制御するCPUとを有し、前記業務計算機から更新データを受けると、当該更新データを前記第一記憶領域に記憶し、当該更新データを前記第二記憶システムに転送するまで前記第二記憶領域に記憶し、前記管理計算機は、前記各第一記憶システムの前記第二記憶領域の使用量を取得し、前記取得した使用量に基づいて、前記回線中継装置によるデータの中継を制御する。
【選択図】図1

Description

本発明は、記憶システムにおけるリモートコピー技術に関し、特に、リモートコピーのために使用する回線を複数の記憶システムで共用する技術に関する。
近年、企業によるコンピュータシステムのビジネス利用が拡大しており、記憶システムに記憶するデータの重要性が増大している。記憶システムには、記憶するデータを保護するため、記憶領域を冗長化するRAIDなどの技術が採用されている。
しかし、記憶システム内の記憶領域を冗長化しても、大規模災害が起きると、記憶システム自体が損失してしまうこともある。そこで、記憶システムには、大規模災害が起きてもデータを保護するため、リモートコピー技術がある。リモートコピー技術とは、記憶システム自体を冗長化して遠隔地に配置し、遠隔地の記憶システム(コピー先の記憶システム)にデータを複製する。つまり、コピー元の記憶システムは、ホストコンピュータからデータの書き込みの要求があると、自身に記憶し、更に回線を介してコピー先の記憶システムにそのデータを複製する。
このリモートコピー技術には、同期方式と非同期方式とがある。同期方式とは、コピー元の記憶システムが、コピー先の記憶システムへデータの複製が完了すると、ホストコンピュータへデータの書き込みの完了を通知する。非同期方式とは、コピー元の記憶システムが、コピー先の記憶システムへデータの複製の完了を待たずに、ホストコンピュータへデータの書き込みの完了を通知する。
ここで、非同期方式のコピー元の記憶システムの動作を説明する。コピー元の記憶システムは、ホストコンピュータからデータの書き込みの要求を受け取ると、そのデータを一時的に自身のキャッシュに記憶する。次に、ホストコンピュータへデータ書き込み完了を通知する。そして、回線を介してコピー先の記憶システムにキャッシュされたデータを送信する。
なお、非同期方式のリモートコピーにおいて、コピー元の記憶システムは、リモートコピーで利用する回線の転送量を上回る量のデータの書き込みの要求を受けると、自身のキャッシュが溢れて(オーバーフローして)データが失われてしまう。このようなデータの損失を防ぐため、コピー元の記憶システムは、キャッシュが溢れそうになると、ホストコンピュータからのデータの書き込みの要求を拒否する。
ここで、複数のホストコンピュータがコピー元の記憶システムを共用している場合を考える。この場合に、コピー元の記憶システムは、あるホストコンピュータからデータの書き込みの要求を大量に受けると、すべてのホストコンピュータからのデータの書き込みの要求を拒否する。これによって、システムの可用性が低下してしまう。
このような問題を防ぐために、コピー元の記憶システムに書き込むホストコンピュータごとに使用可能なキャッシュの量の閾値を設定する技術が知られている(例えば、特許文献1参照)。コピー元の記憶システムは、それぞれのホストコンピュータごとのキャッシュの使用量を監視して、閾値に基づいてホストコンピュータからのデータの書き込みの要求を制限する。これによって、コピー元の記憶システムはキャッシュが溢れないようにするので、システムの可用性の低下を防ぐことができる。
特開2002−334049号公報
前述した従来技術によれば、複数のホストコンピュータがコピー元の記憶システムを共有している場合に、記憶システムは、ホストコンピュータからのデータの書き込みを制限し、キャッシュが溢れないようにする。しかし、複数のコピー元の記憶システムがリモートコピーで利用する回線を共有する場合については考慮されていない。
この場合に、あるコピー元の記憶システムのキャッシュが、その他のコピー元の記憶システムのキャッシュの残量に余裕があるにもかかわらず、溢れないようにする。このようにして、すべてのシステムの可用性を向上させることを目的とする。
また、複数の記憶システムがリモートコピーで利用する回線を共有し、そのコピー元の記憶システムを使用するシステムの重要度が異なる場合も考えられる。この場合に、重要度の高いシステムが使用する記憶システムに優先的に回線を利用させて、キャッシュが溢れないようにする。このようにして、重要度の高いシステムの可用性を向上させることを目的とする。
本発明は、業務計算機と、前記業務計算機が使用するデータを記憶する複数の第一記憶システムと、前記第一記憶システムに記憶されたデータの複製が記憶される複数の第二記憶システムと、を備える情報処理システムにおいて、前記第一記憶システムから前記第二記憶システムへのデータ転送に用いられる回線と、前記回線と前記第一記憶システムとの間及び前記回線と前記第二記憶システムとの間のデータを中継する回線中継装置と、前記第一記憶システムと前記回線中継装置に接続され、前記回線中継装置及び/又は前記第一記憶システムを制御する管理計算機と、を備え、前記第一記憶システムは、前記業務計算機から送信される更新データが記憶される第一記憶領域と、前記更新データを前記第二記憶システムに転送するまで記憶する第二記憶領域と、前記第一記憶領域及び前記第二記憶領域へのデータの入出力を制御するCPUとを有し、前記業務計算機から更新データを受けると、当該更新データを前記第一記憶領域に記憶し、当該更新データを前記第二記憶システムに転送するまで前記第二記憶領域に記憶し、前記管理計算機は、前記各第一記憶システムの前記第二記憶領域の使用量を取得し、前記取得した使用量に基づいて、前記回線中継装置によるデータの中継を制御する。
本発明によると、複数のコピー元の記憶システムがリモートコピーで利用する回線を共有する場合に、他のコピー元の記憶システムのキャッシュの残量に余裕があるにもかかわらず、ある特定のコピー元の記憶システムのキャッシュが溢れないようにすることができる。
以下、本発明の実施の形態を図面を参照して説明する。
(第1の実施の形態)
図1は、本発明の第1の実施の形態の計算機システムのブロック図である。
計算機システムは、管理サーバ1000、アプリケーションサーバ2000、2500、スイッチ3000、コピー元ストレージシステム4000、4500、コピー先ストレージシステム5000、5500、ルータ6000、6500、広域IPネットワーク7000から構成される。
管理サーバ1000は、ネットワークI/F1010及びストレージI/F1020を備える。ネットワークI/F1010は、コピー元ストレージシステム4000、4500の管理I/F4030と接続する。ストレージI/F1020は、スイッチ3000を介して、コピー元ストレージシステム4000、4500のストレージI/F4010と接続する。さらに、ネットワークI/F1010は、ルータ6000の管理I/F6010と接続する。
アプリケーションサーバ2000は、使用するデータをコピー元ストレージシステム4000に記憶し、アプリケーションを実行する計算機である。また、アプリケーションサーバ2500は、使用するデータをコピー元ストレージシステム4500に記憶し、アプリケーションプログラムを実行する計算機である。アプリケーションサーバ2000、2500は、ストレージI/F2010を備える。ストレージI/F2010は、スイッチ3000を介して、コピー元ストレージシステム4000、4500のストレージI/F4010と接続する。
コピー元ストレージシステム4000は、アプリケーションサーバ2000が使用するデータを記憶する外部記憶装置である。また、コピー元ストレージシステム4500は、アプリケーションサーバ2500が使用するデータを記憶する外部記憶装置である。
コピー元ストレージシステム4000、4500は、ストレージI/F4010、リモートコピーI/F4020及び管理I/F4030を備える。リモートコピーI/F4020は、ルータ6000のポート6020と接続する。
コピー先ストレージシステム5000は、コピー元ストレージシステム4000に記憶されたデータと同一のデータを記憶し、冗長性を維持するための外部記憶装置である。コピー先ストレージシステム5500は、コピー元ストレージシステム4500に記憶されたデータと同一のデータを記憶し、冗長性を維持するための外部記憶装置である。
コピー先ストレージシステム5000、5500は、ストレージI/F5010、リモートコピーI/F5020及び管理I/F5030を備える。リモートコピーI/F5020は、ルータ6500のポート6020と接続する。
コピー元ストレージシステム4000は、ルータ6000、広域IPネットワーク7000、ルータ6500を経由して、コピー先ストレージシステム5000にリモートコピーする。同様に、コピー元ストレージシステム4500は、ルータ6000、広域IPネットワーク7000、ルータ6500を経由して、コピー先ストレージシステム5500にリモートコピーする。
ルータ6000、6500は、コピー元ストレージシステム4000、4500からコピー先ストレージシステム5000、5500へのリモートコピーを中継するネットワーク装置である。
なお、アプリケーションサーバ2000、2500、コピー元ストレージシステム4000、4500及びコピー先ストレージシステム5000、5500は、各々2台を図示するが、3台以上設けてもよい。
図2は、本発明の第1の実施の形態のコピー元ストレージシステム4000のブロック図である。
コピー元ストレージシステム4000は、コントローラ4090及びボリューム4070で構成される。
コントローラ4090は、ボリューム4070に対するデータの入出力を制御する。コントローラ4090は、ストレージストレージI/F4010、リモートコピーI/F4020、管理I/F4030、CPU4040、メモリ4050、キャッシュ4060、ディスクI/F4080を備える。コントローラ4090の各々の構成は、接続され、互いに通信可能である。
メモリ4050には、リモートコピープログラム4051及び制御プログラム(図示省略)が記憶されている。CPU4040は、リモートコピープログラム4051を呼び出して実行することによってリモートコピーを実行する。また、CPU4040は、制御プログラムを呼び出して実行することによって、コピー元ストレージシステム4000の全体を制御する。
キャッシュ4060は、リードデータやライトデータを格納する高速なメモリである。コピー元ストレージシステム4000は、キャッシュ4060にデータを一時的に格納することによって、高いI/O処理性能を実現することができる。キャッシュ4060には、差分データ領域4061を設けられる。差分データ領域4061には、ストレージI/F4010とリモートコピーI/F4020との間で送受信されるデータが一時的に記憶される。キャッシュ4060の差分データ領域4061以外の領域には、ストレージI/F4010とディスクI/F4080との間で送受信されるデータが一時的に記憶される。
ストレージI/F4010は、管理サーバ1000及びアプリケーションサーバ2000と接続するインターフェイスであって、例えばファイバチャネルプロトコルによって、データや制御信号を送受信する。
リモートコピーI/F4020は、ルータ6000と接続するインターフェイスであって、例えばファイバチャネルプロトコルによって、データや制御信号を送受信する。
管理I/F4030は、管理サーバ1000と接続するインターフェースであって、例えば、TCP/IPプロトコルによって、データや制御信号を送受信する。
ディスクI/F4080は、ボリューム4070に対するインターフェースであって、例えば、ファイバチャネルプロトコルによって、データや制御信号を送受信する。
ボリューム4070は、アプリケーションサーバ2000が使用するデータを記憶する。ボリューム4070は、一つのディスクドライブの一部の領域でもよい。また、ボリューム4070は、物理的に一つの装置によって構成されている必要はなく、例えば複数のディスクドライブに分散した記憶領域の集合でもよい。さらに、ボリュームは4070、例えばミラー構成や、パリティデータを付加したRAID構成などの冗長性を持たせた構成でもよい。
なお、コピー元ストレージシステム4500も、コピー元ストレージシステム4000と同様の構成である。
図3は、本発明の第1の実施の形態のコピー先ストレージシステム5000のブロック図である。
コピー先ストレージシステム5000は、コントローラ5090及びボリューム5070で構成される。
コントローラ5090は、ボリューム5070に対するデータの入出力を制御する。コントローラ5090は、ストレージストレージI/F5010、リモートコピーI/F5020、管理I/F5030、CPU5040、メモリ5050、キャッシュ5060、ディスクI/F5080を備える。コントローラ5090の各々の構成は、互いに接続され、通信可能である。
メモリ5050には、リモートコピープログラム5051及び制御プログラム(図示省略)が記憶されている。CPU5040は、リモートコピープログラム5051を呼び出して実行することによってリモートコピーを実行する。また、CPU5040は、制御プログラムを呼び出して実行することによって、コピー先ストレージシステム5000の全体を制御する。
キャッシュ5060には、リモートコピーI/F5020とディスクI/F5080との間で送受信されるデータが一時的に記憶される。
ストレージI/F5010は、管理サーバ1000と同様のサーバ(図示省略)及びアプリケーションサーバ2000、2500と同様のサーバ(図示省略)と接続するインターフェイスであって、例えばファイバチャネルプロトコルによって、データや制御信号を送受信する。
リモートコピーI/F5020は、ルータ6500と接続するインターフェイスであって、例えばファイバチャネルプロトコルによって、データや制御信号を送受信する。
管理I/F5030は、管理サーバ1000と同様のサーバ(図示省略)と接続するインターフェースであって、例えば、TCP/IPプロトコルによって、データや制御信号を送受信する。
ディスクI/F5080は、ボリューム5070に対するインターフェースであって、例えば、ファイバチャネルプロトコルによって、データや制御信号を送受信する。
ボリューム5070は、コピー元ストレージシステム4000のボリューム4070と同一のデータを記憶する。ボリューム5070も、一つのディスクドライブの一部の領域でも、複数のディスクドライブに分散した記憶領域の集合でもよい。さらに、ボリュームは5070、例えばミラー構成や、パリティデータを付加したRAID構成などの冗長性を持たせた構成でもよい。
なお、コピー先ストレージシステム5500も、コピー元ストレージシステム5000と同様の構成である。
図4は、本発明の第1の実施の形態のルータ6000のブロック図である。
ルータ6000は、管理I/F6010、複数のポート6020、CPU6050、メモリ6060、バッファ6070で構成される。ルータ6000の各々の構成は、互いに接続され、通信可能である。
メモリ6060には、帯域テーブル6061及びデータ中継プログラム6062が記憶されている。帯域テーブル6061は、図8で後述するように、コピー元ストレージシステム4000ごとの帯域量を示す。CPU6050は、データ中継プログラム6062を呼び出して実行することによって、コピー元ストレージシステム4000から送信されたデータをコピー先ストレージシステム5000へ中継する。
管理I/F6010は、管理サーバ1000と接続するインターフェースであって、例えば、TCP/IPプロトコルによって、データや制御信号を送受信する。ポート6020は、コピー元ストレージシステム4000、4500及び広域IPネットワーク7000と接続するインターフェイスであって、例えばファイバチャネルプロトコルによって、データや制御信号を送受信する。
バッファ6070は、コピー元ストレージシステム4000、4500から受信したデータを、広域IPネットワーク7000に送信するまで一時的に記憶する。
なお、ルータ6500も、ルータ6000と同様の構成である。
図5は、本発明の第1の実施の形態のルータ6000内のバッファ6070の構成図である。
バッファ6070は、キューA6071及びキューB6072で構成される。キューAは、コピー元ストレージシステム4000から受信したデータを記憶する領域である。また、キューBは、コピー元ストレージシステム4500から受信したデータを記憶する領域である。バッファ6070には、キュー6071、6072を2つ図示するが、多数のキューを備えてもよい。
図6は、本発明の第1の実施の形態の管理サーバ1000のブロック図である。
管理サーバ1000は、ネットワークI/F1010、ストレージI/F1020、CPU1030及びメモリ1040で構成されている。管理サーバ1000の各々の構成は、互いに接続されており、通信可能である。
メモリ1040には、差分データ量取得プログラム1041、差分データ量テーブル1042、帯域計算プログラム1043、帯域テーブル1044及び帯域情報送信プログラム1045が記憶されている。
差分データ量テーブル1042は、図7Aで後述するように、コピー元ストレージシステム4000、4500の差分データ領域4061の状態を示す。CPU1030は、メモリ1040から差分データ量取得プログラム1041を読み出し、図9で後述するように、差分データ量テーブル1042を更新する。
帯域テーブル1044は、図7Bで後述するように、コピー元ストレージシステム4000ごとの帯域量を示す。なお、帯域量とは、ルータの全体の転送量に対する当該ストレージシステムのデータ量の占める割合である。CPU1030は、メモリ1040から帯域計算プログラム1043を読み出して、図10で後述するように、コピー元ストレージシステム4000、4500ごとの帯域量を計算する。
CPU1030は、メモリ1040から帯域情報送信プログラム1045を読み出して、図11で後述するように、ルータ6000に帯域情報を送信する。
図7Aは、本発明の第1の実施の形態の管理サーバ1000に記憶される差分データ量テーブル1042の構成図である。
差分データ量テーブル1042は、装置ID10421、差分データ領域量10422、使用量10423及び増減量10424から構成される。
装置ID10421は、コピー元ストレージシステム4000、4500を特定する識別子である。差分データ領域量10422は、当該コピー元ストレージシステム4000、4500のキャッシュ4060内の差分データ領域4061の容量である。使用量10423は、当該コピー元ストレージシステム4000、45000のキャッシュ4060内の差分データ領域4061の使用量である。増減量10424は、当該コピー元ストレージシステム4000、4500のキャッシュ4060内の差分データ領域4061の使用量が、前回の使用量取得タイミングから増減した量である。
図7Bは、本発明の第1の実施の形態の管理サーバ1000に記憶される帯域テーブル1044の構成図である。
帯域管理テーブル1044は、装置ID10441及び帯域量10442から構成される。装置ID10441は、コピー元ストレージシステム4000、4500を特定する識別子である。帯域量10442は、当該コピー元ストレージシステム4000、4500がリモートコピーにおいて使用可能な帯域量である。
図8は、本発明の第1の実施の形態のルータ6000に記憶される帯域テーブル6061の構成図である。
帯域テーブル6061は、装置ID60611、帯域量60612及びキューID60613から構成される。
装置ID60611は、コピー元ストレージシステム4000、4500を特定する識別子である。帯域量60612は、当該コピー元ストレージシステム4000、4500がリモートコピーにおいて使用可能な帯域量である。キューID60613は、ルター6000のバッファ6070内にある記憶領域の識別子である。
以下、アプリケーションサーバ2000がコピー元ストレージシステム4000へデータを書き込み、そのデータをコピー元ストレージシステム4000からコピー先ストレージシステム5000へリモートコピーする処理について、図1〜4を参照して説明する。
アプリケーションサーバ2000は、スイッチ3000を介してコピー元ストレージシステム4000にデータ書き込み要求を送信する。すると、コピー元ストレージシステム4000は、そのデータ書き込み要求に係るデータを、ボリューム4070及びキャッシュ4060内の差分データ領域4061に記憶する。そしてコピー元ストレージシステム4000は、スイッチ3000を介して、アプリケーションサーバ2000にデータ書き込み完了応答を送信する。
ここで、コピー元ストレージシステム4000は、リモートコピープログラム4051を実行する。リモートコピープログラム4051を実行するコピー元ストレージシステム4000は、キャッシュ4060内の差分データ領域4061からデータ書き込み要求を読み出す。そして、コピー元ストレージシステム4000は、ルータ6000、広域IPネットワーク7000、ルータ6500を経由して、コピー先ストレージシステム5000へ読み出したデータ書き込み要求を送信する。
データ書き込み要求を受信したコピー先ストレージシステム5000は、リモートコピープログラム5051を実行する。そして、コピー先ストレージシステム5000は、受信したデータ書き込み要求のデータをボリューム5070に記憶する。
コピー先ストレージシステム5000は、ボリューム5070にデータを記憶すると、ルータ6500、広域IPネットワーク7000、ルータ6000を経由して、コピー元ストレージシステム4000に対してデータ書き込み完了応答を送信する。
同様に、アプリケーションサーバ2500がコピー元ストレージシステム4500へデータを書き込むと、コピー先ストレージシステム4500は、そのデータをコピー先ストレージシステム5500へリモートコピーする。
以下、管理サーバ1000が、コピー元ストレージシステム4000、4500から差分データ領域4061の使用量を取得し(図9参照)、リモートコピーで使用する帯域量を求め(図10参照)、ルータ6000に求めた帯域量を送信する処理(図11参照)について説明する。本発明の第1の実施の形態では、この処理を周期的に繰り返す。
図9は、本発明の第1の実施の形態の管理サーバ1000が差分データ量取得プログラム1041による処理のフローチャートである。
管理サーバ1000は、メモリ1040から差分データ量取得プログラム1041を読み出して実行する。
管理サーバ1000は、スイッチ3000を介して、まだキャッシュ4060内の差分データ領域4061の使用量を取得していない1つのコピー元ストレージシステム4000、4500にアクセスする。そして、管理サーバ1000は、キャッシュ4060内の差分データ領域4061の使用量を取得する(S110)。
具体的に、管理サーバ1000は、コピー元ストレージシステム4000、4500内のキャッシュカウンタの値から差分データ領域4061の使用量を取得する。なお、差分データ領域4061の使用量は、管理サーバ1000がネットワークI/F1010を用いて取得してもよい。
管理サーバ1000は、差分データ量テーブル1042から、当該コピー元ストレージシステム4000のレコードの使用量10423を抽出する(S120)。
管理サーバ1000は、S110で取得した使用量からS120で抽出した使用量を減算し、増減量を求める。管理サーバ1000は、求めた増減量を、差分データ量テーブル1042の当該コピー元ストレージシステムのレコードの増減量10424に記憶する(S130)。
次に、管理サーバ1000は、S110で取得した使用量を、差分データ量テーブル1042の当該コピー元ストレージシステムのレコードの使用量10423に記憶する(S140)。
管理サーバ1000は、接続する全てのコピー元ストレージシステム4000、4500から差分データ領域4061の使用量を取得したか否かを判断する(S150)。なお、実施の形態によっては、ある特定の(入力により指定された)1以上のコピー元ストレージシステムから差分データ領域4061の使用量を取得したか否かを判断してもよい。
全てのコピー元ストレージシステム4000、4500から使用量の取得が完了していない場合は、S110に戻り、取得していないコピー元ストレージシステム4000、4500から使用量を取得する。
一方、全てのコピー元ストレージシステム4000、4500から差分データ領域4061の使用量の取得が完了している場合には、差分データ量取得プログラム1041を終了する(S160)。
図10は、本発明の第1の実施の形態の管理サーバ1000が帯域計算プログラム1043による処理のフローチャートである。
管理サーバ1000は、メモリ1040から帯域計算プログラム1043を読み出して実行する。
管理サーバ1000は、差分データ量テーブル1042から全てのレコードの使用量10423を抽出する(S210)。
管理サーバ1000は、差分データ量テーブル1042から全てのレコードの増減量10424を抽出する(S220)。
管理サーバ1000は、抽出した増減量10424が、全て負であるか否かを判断する(S230)。
管理サーバ1000は、増減量10424の全てが負であるとステップS250に進む。一方、増減量10424の全てが負でないとステップS240に進む。
増減量10424の全てが負でないとき、管理サーバ1000は、差分データ量テーブル1042の全てのレコードの差分データ領域量10422を抽出する(S240)。
次に、管理サーバ1000は、増減量10424が正の全てのレコードに対して、差分データ領域4061が一杯になるまでの時間を求める。なお、差分データ領域4061が一杯になるまでの時間は以下の式(1)で求める。
差分データ領域が一杯になるまでの時間=(差分データ領域量10422−使用量10423)/増減量10424…(1)
管理サーバ1000は、正の全てのレコードに対して、差分データ領域4061が一杯になるまでの時間を求めると、その時間の総和を求める(S241)。
次に、管理サーバ1000は、差分データ量テーブル1042に格納されたレコードを上から順に、増減量10424が正のレコードを選択し、以下の処理を行う。
管理サーバ1000は、選択したレコードを除いた増減量が正の全てのレコードの差分データ領域4061が一杯になるまでの時間を求め、その時間の総和を求める(S242)。
次に、管理サーバ1000は、選択したレコードの帯域量を求める。帯域量は、以下の式(2)で求める。
帯域量=S242で求めた値/(S241で求めた値×(増減量が正のレコードの数−1))…(2)
帯域量を求めた管理サーバ1000は、帯域テーブル1044から、ステップS242で選択したレコードの装置ID10421と装置ID10441とが一致するレコードを選択する。管理サーバ1000は、帯域テーブル1044の選択されたレコードの帯域量10442に、求めた帯域量を記憶する。(S243)
管理サーバ1000は、ステップS242で、増減量10424が正の全てのレコードを選択したか否かを判断する(S244)。
管理サーバ1000は、増減量10424が正の全てのレコードの選択が完了していないと、ステップS242に戻り、未処理のレコードの帯域量を求める。
一方、増減量10424が正の全てのレコードを選択したら、増減量10424が負の全てのレコードの装置ID10421を抽出する。そして、管理サーバ1000は、帯域テーブル1044から抽出した装置ID10421と装置ID10441とが一致するレコードをすべて選択する。管理サーバ1000は、帯域テーブル1044の選択されたレコードの帯域量10442に「0」を記憶する(S245)。
そして、管理サーバ1000は、帯域計算プログラム1043を終了する(S260)。
一方、ステップS230で増減量10424の全てが負であると、管理サーバ1000は、全てのレコードに対して、差分データ領域4061が空になるまでの時間を求める。なお、差分データ領域4061が空になるまでの時間は、以下の式(3)で求める。
差分データ領域が空になるまでの時間=使用量10423/増減量10424×(−1)…(3)
管理サーバ1000は、全てのレコードに対して差分データ領域4061が空になるまでの時間を求めると、その時間の総和を求める(S250)。
次に、管理サーバ1000は、差分データ量テーブル1042の上のレコードから順に、レコードを選択し、以下の処理を行う。
管理サーバ1000は、選択したレコードに対して、式(3)の差分データ領域4061が空になるまでの時間を求める(S251)。
そして、管理サーバ1000は、選択したレコードの帯域量を求める。帯域量は、以下の式(4)で求める。
帯域量=S251で求めた値/S250で求めた値…(4)
帯域量を求めた管理サーバ1000は、帯域テーブル1044から、ステップS251で選択したレコードの装置ID10421と装置ID10441とが一致するレコードを選択する。管理サーバ1000は、帯域テーブル1044の選択されたレコードの帯域量10442に、求めた帯域量を記憶する(S252)。
管理サーバ1000は、差分データ量テーブル1042の全てのレコードを選択したか否かを判断する(S253)。管理サーバ1000は、全てのレコードを選択したら、帯域計算プログラムを終了する(S260)。一方、全てのレコードの選択が完了していないと、ステップS251に戻り、未処理のレコードの帯域量を求める。
図11は、本発明の第1の実施の形態の管理サーバ1000が帯域情報送信プログラム1045による処理のフローチャートである。
管理サーバ1000は、メモリ1040から帯域情報送信プログラム1045を読み出して実行する。
管理サーバ1000は、帯域テーブル1044の上のレコードから順に選択し、以下の処理を行う。
管理サーバ1000は、選択したレコードの装置ID10441を帯域テーブル1044から抽出する(S310)。
次に、管理サーバ1000は、選択したレコードの帯域量10442を帯域テーブル1044から抽出する(S320)。
管理サーバ1000は、抽出した装置ID10441及び帯域量10422をルータ6000に送信する(S330)。ルータ6000は、管理サーバ1000から装置ID10441及び帯域量10442を受信する。受信したルータ1000は、帯域テーブル6061から、受信した装置ID10441と装置ID60611とが一致するレコードを判定する。ルータは、判定したレコードの帯域量60612に、管理サーバ1000から受信した帯域量10442を記憶する。
ルータ6000に送信した管理サーバ1000は、帯域テーブル1044の全てのレコードを選択したか否かを判断する(S340)。管理サーバ1000は、全てのレコードを選択したら、帯域計算プログラムを終了する(S350)。一方、全てのレコードの選択が完了していないと、ステップS310に戻り、選択していないレコードの装置ID10441及び帯域量10442をルータ6000に送信する。
次に、管理サーバ1000から帯域量を受信したルータ6000が、コピー元ストレージシステム4000、4500からコピー先ストレージシステム5000、5500へデータを中継する処理について、前述した図4及び5を参照して説明する。
ルータ6000は、コピー元ストレージシステム4000、4500からデータ書き込み要求を受信する。すると、ルータ6000は、帯域テーブル6061から、データ書き込み要求を送信したストレージシステムのID装置とID60611が一致するレコードを選択する。そして、ルータ6000は、選択されたレコードのキューID60613を取得する。
ルータ6000は、取得したキューID60613であるバッファ6070内のキュー6071、6072に、受信したデータ書き込み要求を記憶する。
ルータ6000は、バッファ6070にデータ書き込み要求が記憶されていると、メモリ6060からデータ中継プログラム6062を読み出して、実行する。
データ中継プログラム6062を実行するルータ6000は、帯域テーブル6061から、キューID60613及び帯域量60612を抽出する。そして、ルータ6000は、データ中継プログラム6062が中継可能な最大のデータ量に、抽出した帯域量60612を乗じ、転送するデータ量を求める。ルータ6000は、転送するデータ量だけバッファ6070内の当該キュー6071、6072からデータ書き込み要求を抽出し、広域IPネットワーク7000を介して、ルータ6500に送信する。
以上、本発明の第1の実施の形態によれば、複数のコピー元ストレージシステムがリモートコピーで使用する回線を共用する場合において、その他のコピー元ストレージシステムのキャッシュに余裕があるにもかかわらず、あるコピー元ストレージシステムのキャッシュが溢れることがなくなる。そして、キャッシュのオーバーフローによって、ホストコンピュータからのデータの書き込みの要求を拒否することがなくなる。そして、計算機システムの可用性を向上することができる。
なお、以上説明した第1の実施の形態は、ストレージシステム群を構成する複数のストレージシステムが別個にキャッシュを有している構成について説明した。しかし、本発明は、一つのストレージシステムに対しても適用することができる。
例えば、一つのストレージシステム内に複数の論理ボリュームと複数のコントローラ4090が設けられており、第1論理ボリュームと第2論理ボリュームとが異なるコントローラ4090によってアクセスされる場合には、各論理ボリュームは異なるキャッシュ4060を使用する。また、該第1論理ボリュームと第2論理ボリュームとが異なるコピーグループを構成している場合には、それぞれのコントローラ4090が独立したタイミングでリモートコピーする。
このような構成のストレージシステムに本実施例を適用して、第1論理ボリュームのリモートコピーと、第2論理ボリュームのリモートコピーとで使用される帯域量を制御することによって、各論理ボリュームに対応するキャッシュが溢れることを防止することができる。そして、ストレージシステムの可用性を向上することができる。
(第2の実施の形態)
本発明の第2の実施の形態は、管理サーバ1000が、コピー元ストレージシステム4000、4500の差分データ領域4061を使用している割合で帯域量を求める。すなわち第2の実施の形態では、管理サーバ1000が記憶する帯域計算プログラム1043が前述した第1の実施例と異なる。第2の実施の形態のそれ以外の構成は、第1の実施の形態と同様であるので、説明は省略する。
図12は、本発明の第2の実施の形態の管理サーバ1000が帯域計算プログラム1043による処理のフローチャートである。
管理サーバ1000は、メモリ1040から帯域計算1043プログラムを読み出して実行する。
管理サーバ1000は、差分データ量テーブル1042から全てのレコードの使用量10423を抽出する(S410)。
次に、管理サーバ1000は、差分データ量テーブル1042から全てのレコードの差分データ領域量を抽出する(S420)。
管理サーバ1000は、全てのレコードに対して、差分データ領域4061の使用割合を求める。なお、差分データ領域4061の使用割合は、以下の式(5)で求める。
差分データ領域の使用割合=使用量10423/差分データ領域量10422…(5)
管理サーバ1000は、全てのレコードに対して差分データ領域4061の使用割合を求めると、その使用割合の総和を求める(S430)。
次に、管理サーバ1000は、差分データ量テーブル1042の上から順にレコードを選択し、以下の処理を行う。管理サーバ1000は、式(5)を使って、選択したレコードの差分データ領域4061の使用割合を求める(S440)。
そして、管理サーバ1000は、選択したレコードの帯域量を求める。帯域量は、以下の式(6)で求める。
帯域量=S440で求めた値/S430で求めた値…(6)
帯域量を求めた管理サーバ1000は、帯域テーブル1044から、ステップS440で選択したレコードの装置ID10421と装置ID10441とが一致するレコードを判定する。管理サーバ1000は、帯域テーブル1044の判定したレコードの帯域量10442に、求めた帯域量を記憶する(S450)。
管理サーバ1000は、ステップS440で、全てのレコードを選択したか否かを判断する(S460)。管理サーバ1000は、全てのレコードを選択したら、帯域計算プログラム1043を終了する(S470)。一方、全てのレコードの選択が完了していないと、ステップS440に戻り、選択していないレコードの帯域量を求める。
(第3の実施の形態)
本発明の第3の実施の形態は、ストレージシステム間のリモートコピーを、コピー先ストレージシステム5000、5500が主体的に行うものである。よって、前述した第1の実施の形態と異なり管理サーバ1100が広域IPネットワーク7000を挟んでコピー先ストレージシステム5000、5500側に配置され、コピー元ストレージシステム4000、4500に差分データ用ボリュームを備える点で前述した第1の実施例と異なる。第3の実施の形態のそれ以外の構成は、第1から第2の実施の形態と同様であるので、説明は省略する。
図13は、本発明の第3の実施の形態の計算機システムのブロック図である。
管理サーバ1100は、ネットワークI/F1010及びストレージI/F1020を備える。ネットワークI/F1010は、ルータ6500の管理I/F6010及びポート6020と接続する。ストレージI/F6020は、ルータ6500のポート6020と接続する。
管理サーバ1100は、ストレージI/F1020を使う場合、ルータ6500、広域IPネットワーク7000、ルータ6000、スイッチ3000を経由して、コピー元ストレージシステム4000、4500のストレージI/F4010と通信する。また、管理サーバ1100は、ネットワークI/F1010を使う場合、ルータ6500、広域IPネットワーク7000、ルータ6000を経由して、コピー元ストレージシステム4000、4500の管理I/F4030と通信する。
図14は、本発明の第3の実施の形態のコピー元ストレージシステム4000のブロック図である。
第3の実施の形態のコピー元ストレージシステム4000は、差分データ用ボリューム4075を備える。そのため、キャッシュ4060内の差分データ領域4061は不要となる。
差分データボリューム4075は、差分データ領域4061と同様に、ストレージI/F4010とリモートコピーI/F4020との間で送受信されるデータが一時的に記憶される。
以下、アプリケーションサーバ2000がコピー元ストレージシステム4000へデータを書き込み、そのデータをコピー元ストレージシステム4000からコピー先ストレージシステム5000へリモートコピーする処理について、図13及び14を参照して説明する。
アプリケーションサーバ2000は、スイッチ3000を介してコピー元ストレージシステム4000にデータ書き込み要求を送信する。すると、コピー元ストレージシステム4000は、そのデータ書き込み要求のデータを、ボリューム4070及び差分データ用ボリューム4075の双方に記憶する。そしてコピー元ストレージシステム4000は、スイッチ3000を介して、アプリケーションサーバ2000にデータ書き込み完了応答を送信する。
一方、コピー先ストレージシステム5000は、リモートコピープログラム5051を実行する。コピー先ストレージシステム5000は、リモートコピープログラム5051によって、ルータ6500、広域IPネットワーク7000、ルータ6000を経由して、差分データ用ボリューム4075のデータ読み出し要求をコピー元ストレージシステム4000に送信する。
コピー元ストレージシステム4000は、データ読み出し要求を受け取ると、差分データ用ボリューム4075からデータを読み出す。そして、コピー元ストレージシステム4000は、読み出したデータをコピー先ストレージシステム5000に送信する。コピー先ストレージシステム5000は、受信したデータをボリューム5070に記憶する。
これよって、アプリケーションサーバ2000がコピー元ストレージシステム4000へ書き込んだデータが、コピー元ストレージシステム4000からコピー先ストレージシステム5000へリモートコピーされる。
第3の実施の形態の管理サーバ1000は、第1の実施の形態と同様の方法で、ルータ6500の帯域を制御する。
具体的には、管理サーバ1000は、コピー元ストレージシステム4000、4500から、差分データ用ボリューム4075の使用量を取得する。そして、管理サーバ1000は、帯域計算プログラム1043を実行して、差分データ用ボリューム4075の使用量に基づいて、それぞれのコピー元ストレージシステム4000、4500の帯域量を求める。帯域量は、第1または第2の実施の形態の帯域量計算プログラム(図10、図12)を実行することによって求める。管理サーバ1000は、求めた帯域量をルータ6500に送信する。
そして、ルータ6500は、コピー先ストレージシステム5000、5500のデータ読み出し要求を、受信した帯域量に応じた量だけ、ルータ6000に送信する。具体的には、差分データ用ボリューム4075の使用量から求めた帯域量の逆数に基づいて、データ読み出し要求の送信量を決定する。よって、差分データ用ボリューム4075の使用量が多ければデータ読み出し要求の送信量は多くなり、差分データ用ボリューム4075の使用量が少なければデータ読み出し要求の送信量は少なくなる。
本発明の第3の実施形態では、ルータ6500の帯域制御に加えて、コピー先ストレージシステム5000、5500のデータ取得間隔を制御する。
図15は、本発明の第3の実施の形態の管理サーバ1000のブロック図である。
第3の実施の形態の管理サーバ1000のメモリ1040には、データ取得間隔制御プログラム1046が記憶されている。第3の実施の形態の管理サーバ1000のそれ以外の構成は、第1の実施の形態の管理サーバ1000と同一であり、説明は省略する。
管理サーバ1000は、データ取得間隔制御プログラム1046を読み出して実行することによって、コピー先ストレージシステム5000、5500のデータ取得間隔を制御する。
具体的に、データ取得間隔制御プログラム1046を実行する管理サーバ1000は、帯域量を求める(図10、図12参照)のと同様の方法で、コピー元ストレージシステム4000、4500の差分データ用ボリューム4075が一杯にならないようなデータ取得間隔を求める。例えば、管理サーバ1000は、それぞれのコピー元ストレージシステム4000、4500の帯域量の逆数の比に応じて、データ取得間隔を定める。
管理サーバ1000は、求めたデータ取得間隔でデータを取得するように、コピー先ストレージシステム5000、5500を制御する。なお、コピー先ストレージシステムの5000、5500のデータ取得間隔は、コピー元ストレージシステム4000、4500にデータ読み出し要求を送信するタイミングによって制御する。
すなわち、第3の実施の形態では、管理サーバ1000は、差分データ用ボリューム4075の使用量に基づいて、データ取得間隔を決定する。具体的には、差分データ用ボリューム4075の使用量から求めた帯域量の逆数に基づいて、データ取得間隔を決定する。よって、差分データ用ボリューム4075の使用量が多ければ、データ取得間隔は短くなる。一方、差分データ用ボリューム4075の使用量が少なければ、データ取得間隔は長くなる。
なお、管理サーバ1000は、データ取得間隔は、ルータ6500の帯域の制御と共に制御してもよいし、独立に制御してもよい。
(第4の実施の形態)
本発明の第4の実施形態は、コピー元ストレージシステム4000、4500を使用するシステムの重要度が異なる場合である。
本発明の第4の実施の形態は、前述した第1〜3の実施の形態に適用することができ、管理サーバ1000の動作が異なる。第4の実施の形態のそれ以外の構成は、第1から第3の実施の形態と同様であるので、説明は省略する。
図16は、本発明の第4の実施の形態の管理サーバ1000のブロック図である。
第4の実施の形態の管理サーバ1000のメモリ1040には、差分データ量取得プログラム1041及び差分データ量テーブル1042の代わりに、優先度テーブル1047が記憶されている。
図17は、本発明の第4の実施の形態の管理サーバ1000に記憶される優先度テーブル1047の構成図である。
優先度テーブル1047は、装置ID10471及び優先度10472から構成される。装置ID10471は、コピー元ストレージシステム4000、4500を特定する識別子である。優先度10472は、当該コピー元ストレージシステム4000、4500が実行するリモートコピーにおける優先度である。なお、優先度10472は、予め決めておく。
なお、第3の実施の形態のように、コピー先ストレージシステム5000、5500が、主体的リモートコピーを実行する場合には、コピー先ストレージシステム5000、5500に対応して優先度を定める。さらに、リモートコピーペアに対応して優先度を定めてもよい。
次に、本発明の第4の実施の形態の管理サーバ1000が帯域量を求める処理について説明する。
管理サーバ1000は、優先度テーブル1047に格納されたレコードを上から順に選択する。管理サーバ1000は、選択したレコードの優先度を用いて、帯域量を求める。帯域量は、以下の式(7)で求める。
帯域量=選択したレコードの優先度10427/全てのレコードの優先度10427の総和…(7)
帯域量を求めた管理サーバ1000は、帯域テーブル1044から、選択したレコードの装置ID10426と装置ID10441とが一致するレコードを判定する。管理サーバ1000は、帯域テーブル1044の判定したレコードの帯域量10442に、求めた帯域量を記憶する。
以後の処理は、第4の形態が適用される第1〜3の実施の形態と同一であり、説明は省略する。
すなわち、第4の実施の形態では、管理サーバ1000は、前記コピー元ストレージシステム4000、4500に対応して定められた優先度に基づいて、ルータ6000によるデータの中継を制御する。具体的には、優先度が高ければ、回線を多く割り当てる。一方、優先度が低ければ、回線を少なく割り当てる。
なお、管理サーバ1000は、優先度だけでなく、差分データ領域4061または差分データ用ボリューム4075の使用量等も考慮して帯域量を求めるとより効果的である。
以上、本発明の第4の実施の形態によれば、ストレージシステムを使用するシステムの重要度を考慮して、複数のストレージシステムが共有する回線の帯域を割り当てることができる。
(第5の実施の形態)
本発明の第5の実施の形態は、リモートコピーで通常利用される第1広域IPネットワークの他に、常用されない第2広域IPネットワークを備える点で前述した第1の実施例と異なる。第2の実施の形態のそれ以外の構成は、第1から第4の実施の形態と同様であるので、説明は省略する。
図18は、本発明の第5の実施の形態の計算機システムのブロック図である。
第5の実施の形態の計算機システムは、ルータ6000とルータ6500との間に、第1広域IPネットワーク7000と、第2広域IPネットワーク7500とを備える。
例えば、第1広域IPネットワーク7000は専用回線であり、通常のリモートコピーに使用される。一方、第2広域IPネットワーク7500はWANであり、通常のリモートコピーには使用されない。第2広域IPネットワーク7500は、コピー元ストレージシステム4000、4500の差分データ領域が溢れそうなときに、使用する。
図19は、本発明の第5の実施の形態の管理サーバ1000のブロック図である。
第5の実施の形態の管理サーバ1000のメモリ1040には、オンデマンド回線追加プログラム1048が記憶されている。オンデマンド回線追加プログラム1048は、差分データ領域4061の使用量に基づいて、広域IPネットワーク7500を使用するか否かを判断する。
図20は、本発明の第5の実施の形態の管理サーバ1000がオンデマンド回線追加プログラム1048による処理のフローチャートである。
管理サーバ1000は、メモリ1040からオンデマンド回線追加プログラム1048を読み出して実行する。
管理サーバ1000は、差分データ量テーブル1042から、全てのレコードの使用量10423を抽出する(S510)。
管理サーバ1000は、差分データ量テーブル1042から、全てのレコードの増減量10424を抽出する(S520)。
管理サーバ1000は、差分データ量テーブル1042から、全てのレコードの差分データ領域量10422を抽出する(S540)。
そして、管理サーバ1000は、増減量が正の全てのレコードに対して、前述した式(1)を使って、差分データ領域4061が一杯になるまでの時間を求める。管理サーバ1000は、増減量が正の全てのレコードに対して差分データ領域4061が一杯になるまでの時間を求めると、その時間の総和を求める(S550)。
管理サーバ1000は、ステップ550で求めた時間の総和が閾値以下であるか否かを判断する(S560)。
管理サーバ1000は、時間の総和が閾値以下であると、短時間のうちにキャッシュがあふれる可能性が高いので、第2広域IPネットワーク7500を追加するために、ステップS570に進む。一方、閾値以下でないと、キャッシュがあふれる可能性は低いので、第2広域IPネットワーク7500によるリモートコピーを停止するために、ステップS580に進む。
時間の総和が閾値以下であると、管理サーバ1000は、回線追加フラグがfalseであるか否かを判定する(S570)。なお、回線追加フラグは、第2広域IPネットワーク7500の使用状況を示すフラグであり、trueまたはfalseがある。trueの場合には、第2広域IPネットワーク7500がリモートコピーに使用されており、falseの場合には、第2広域IPネットワーク7500はリモートコピーに使用されていない。
管理サーバ1000は、回線追加フラグがfalseでない場合には、既に第2広域IPネットワーク7500がリモートコピーに使用されているので、オンデマンド回線追加プログラム1048を終了する(S590)。一方、回線追加フラグがfalseの場合には、回線追加コマンドをルータ6000に送信する(S571)。回線追加コマンドを受信したルータ6000は、第2広域IPネットワーク7500をリモートコピーに使用する。
回線追加コマンドを送信した管理サーバ1000は、回線追加フラグを、falseからtrueに変更する(S572)。
そして管理サーバ1000は、オンデマンド回線追加プログラム1048を終了する(S590)。
一方、ステップS560で時間の総和が閾値以下でないときには、管理サーバ1000は、回線追加フラグがtrueであるか否かを判定する(S580)。
管理サーバ1000は、回線追加フラグがtrueでない場合には、第2広域IPネットワーク7500はリモートコピーに使用されていないので、オンデマンド回線追加プログラム1048を終了する(S590)。
一方、回線追加フラグがtrueの場合には、第2広域IPネットワーク7500がリモートコピーに使用されているので、管理サーバ1000は、回線削除コマンドをルータ6000に送信する(S581)。そして、管理サーバ1000は、回線追加フラグをfalseに変更して(S582)、オンデマンド回線追加プログラム1048を終了する(S590)。
すなわち、第5の実施の形態では、管理サーバ1000は、差分データ領域4061の使用量に基づいて、第2広域IPネットワーク7500をリモートコピーに使用するか否かを決定する。具体的には、差分データ領域4061が一杯になるまでの時間に基づいて、第2広域IPネットワーク7500をリモートコピーに使用するかが決定される。よって、差分データ領域4061の使用量が多ければ、第2広域IPネットワーク7500はリモートコピーに使用される。一方、差分データ領域4061の使用量が少なければ、第2広域IPネットワーク7500はリモートコピーに使用されない。
以上、本発明の第5の実施の形態によれば、コピー元ストレージシステム4000、4500の差分データ領域4061からデータが溢れそうになると、非常用の広域IPネットワーク7500を使用し、データが溢れなくなる
本発明の第1の実施の形態の計算機システムのブロック図である。 本発明の第1の実施の形態のコピー元ストレージシステムのブロック図である。 本発明の第1の実施の形態のコピー先ストレージシステムのブロック図である。 本発明の第1の実施の形態のルータのブロック図である。 本発明の第1の実施の形態のルータ内のバッファの構成図である。 本発明の第1の実施の形態の管理サーバのブロック図である。 本発明の第1の実施の形態の管理サーバに記憶される差分データ量テーブルの構成図である。 本発明の第1の実施の形態の管理サーバに記憶される帯域テーブルの構成図である。 本発明の第1の実施の形態のルータに記憶される帯域テーブルの構成図である。 本発明の第1の実施の形態の管理サーバが差分データ量取得プログラムによる処理のフローチャートである。 本発明の第1の実施の形態の管理サーバが帯域計算プログラムによる処理のフローチャートである。 本発明の第1の実施の形態の管理サーバが帯域情報送信プログラムによる処理のフローチャートである。 本発明の第2の実施の形態の管理サーバが帯域計算プログラムによる処理のフローチャートである。 本発明の第3の実施の形態の計算機システムのブロック図である 本発明の第3の実施の形態のコピー元ストレージシステムのブロック図である。 本発明の第3の実施の形態の管理サーバのブロック図である。 本発明の第4の実施の形態の管理サーバのブロック図である。 本発明の第4の実施の形態の管理サーバに記憶される優先度テーブルの構成図である。 本発明の第5の実施の形態の計算機システムのブロック図である。 本発明の第5の実施の形態の管理サーバのブロック図である。 本発明の第5の実施の形態の管理サーバがオンデマンド回線追加プログラムによる処理のフローチャートである。
符号の説明
1000 管理サーバ
1010 ネットワークI/F
1020 ストレージI/F
1030 CPU
1040 メモリ
2000 アプリケーションサーバ
2010 ストレージI/F
2500 アプリケーションサーバ
3000 スイッチ
4000 コピー元ストレージシステム
4010 ストレージI/F
4020 リモートコピーI/F
4030 管理I/F
4040 CPU
4050 メモリ
4060 キャッシュ
4070 ボリューム
4080 ディスクI/F
4090 コントローラ
4500 コピー元ストレージシステム
5000 コピー先ストレージシステム
5010 ストレージI/F
5020 リモートコピーI/F
5030 管理I/F
5040 CPU
5050 メモリ
5060 キャッシュ
5070 ボリューム
5080 ディスクI/F
5090 コントローラ
5500 コピー先ストレージシステム
6000 ルータ
6010 管理I/F
6020 ポート
6050 CPU
6060 メモリ
6070 バッファ
6500 ルータ
7000 広域IPネットワーク

Claims (20)

  1. 業務計算機と、
    前記業務計算機が使用するデータを記憶する複数の第一記憶システムと、
    前記第一記憶システムに記憶されたデータの複製が記憶される複数の第二記憶システムと、を備える情報処理システムにおいて;
    前記第一記憶システムから前記第二記憶システムへのデータ転送に用いられる回線と、
    前記回線と前記第一記憶システムとの間及び前記回線と前記第二記憶システムとの間のデータを中継する回線中継装置と、
    前記第一記憶システムと前記回線中継装置に接続され、前記回線中継装置及び/又は前記第一記憶システムを制御する管理計算機と、を備え;
    前記第一記憶システムは、
    前記業務計算機から送信される更新データが記憶される第一記憶領域と、
    前記更新データを前記第二記憶システムに転送するまで記憶する第二記憶領域と、
    前記第一記憶領域及び前記第二記憶領域へのデータの入出力を制御するCPUとを有し、
    前記業務計算機から更新データを受けると、当該更新データを前記第一記憶領域に記憶し、当該更新データを前記第二記憶システムに転送するまで前記第二記憶領域に記憶し;
    前記管理計算機は、
    前記各第一記憶システムの前記第二記憶領域の使用量を取得し、
    前記取得した使用量に基づいて、前記回線中継装置によるデータの中継を制御することを特徴とする情報処理システム。
  2. 前記管理計算機は、
    前記取得した使用量から、前記各第一記憶システムの前記第二記憶領域が一杯になるまでの時間を求め、
    前記第二記憶領域が一杯になるまでの時間が長い前記第一記憶システムには前記回線を少なく割り当て、前記第二記憶領域が一杯になるまでの時間が短い前記第一記憶システムには前記回線を多く割り当てる指示を前記回線中継装置に送信することを特徴とする請求項1に記載の情報処理システム。
  3. 前記管理計算機は、
    前記取得した使用量から、前記各第一記憶システムの前記第二記憶領域が空になるまでの時間を求め、
    前記第二記憶領域が空になるまでの時間が長い前記第一記憶システムには前記回線を多く割り当て、前記第二記憶領域が空になるまでの時間が短い前記第一記憶システムには前記回線を少なく割り当てる指示を前記回線中継装置に送信することを特徴とする請求項1に記載の情報処理システム。
  4. 前記管理計算機は、
    前記各第一記憶システムの前記第二記憶領域の使用割合を求め、
    前記使用割合が大きい第一記憶システムには回線を多く割り当て、前記使用割合が小さい第一記憶システムには回線を少なく割り当てる指示を前記回線中継装置に送信することを特徴とする請求項1に記載の情報処理システム。
  5. 前記第一記憶システムは、
    所定のタイミングで、前記第二記憶領域から前記更新データを読み出し、
    当該読み出した更新データを前記第二記憶システムに送信することを特徴とする請求項1に記載の情報処理システム。
  6. 前記第二記憶システムは、所定のタイミングで、前記第一記憶システムに対して、前記第二記憶領域に記憶された更新データを要求し、
    前記第一記憶システムは、前記第二記憶システムから当該要求を受けると、前記第二記憶領域から前記更新データを読み出し、当該読み出した更新データを前記第二記憶システムに送信することを特徴とする請求項1に記載の情報処理システム。
  7. 前記管理計算機は、前記取得した使用量に基づいて、前記所定のタイミングを決定することを特徴とする請求項6に記載の情報処理システム。
  8. 前記管理計算機は、前記取得した使用量に基づいて、前記回線中継装置が中継する前記更新データの要求の送信量を制御することを特徴とする請求項6に記載の情報処理システム。
  9. 前記管理計算機は、
    前記第一記憶システムに対応して定められた優先度を取得し、
    前記使用量及び前記優先度に基づいて、前記回線中継装置によるデータの中継を制御することを特徴とする請求項1に記載の情報処理システム。
  10. 前記回線は、前記第一記憶システムから前記第二記憶システムへのデータ転送に常用される第一回線と、前記第一記憶システムから前記第二記憶システムへのデータ転送に常用されない第二回線とを含み、
    前記管理計算機は、前記取得した使用量に基づいて、前記第一記憶システムから前記第二記憶システムへのデータ転送に前記第二の回線を使用するか否かを決定することを特徴とする請求項1に記載の情報処理システム。
  11. 前記第一記憶システムは、
    複数の前記第一領域と、
    前記第一記憶領域と関連付けられた前記第二記憶領域を複数有し、
    前記管理計算機は、
    前記各第二記憶領域の使用量を取得し、
    前記取得した前記各第二記憶領域の使用量に基づいて、前記回線中継装置による前記第二記憶領域ごとのデータの中継を制御することを特徴とする請求項1に記載の情報処理システム。
  12. 業務計算機と、
    前記業務計算機が使用するデータを記憶する複数の第一記憶システムと、
    前記第一記憶システムに記憶されたデータの複製が記憶される第二記憶システムと、
    前記第一記憶システムから前記第二記憶システムへのデータ転送に用いられる回線と、
    前記回線と前記第一記憶システムとの間及び前記回線と前記第二記憶システムとの間のデータを中継する回線中継装置と、を備える情報処理システムに接続され、前記回線中継装置及び/又は前記第一記憶システムを制御する管理計算機において、
    前記業務計算機から送信される更新データを前記第二記憶システムに転送するまで記憶する差分データ領域の使用量を取得し、
    前記取得した使用量に基づいて、前記回線中継装置によるデータの中継を制御することを特徴とする管理計算機。
  13. 前記取得した使用量から、前記各第一記憶システムの前記差分データ領域が一杯になるまでの時間を求め、
    前記差分データ領域が一杯になるまでの時間が長い前記第一記憶システムには前記回線を少なく割り当て、前記差分データ領域が一杯になるまでの時間が短い前記第一記憶システムには前記回線を多く割り当てる指示を前記回線中継装置に送信することを特徴とする請求項12に記載の管理計算機。
  14. 前記取得した使用量から、前記各第一記憶システムの前記差分データ領域が空になるまでの時間を求め、
    前記差分データ領域が空になるまでの時間が長い前記第一記憶システムには前記回線を多く割り当て、前記差分データ領域が空になるまでの時間が短い前記第一記憶システムには前記回線を少なく割り当てる指示を前記回線中継装置に送信することを特徴とする請求項12に記載の管理計算機。
  15. 前記各第一記憶システムの前記差分データ領域の使用割合を求め、
    前記使用割合が大きい第一記憶システムには回線を多く割り当て、前記使用割合が小さい第一記憶システムには回線を少なく割り当てる指示を中継装置に送信することを特徴とする請求項12に記載の管理計算機。
  16. 前記第二記憶システムは、所定のタイミングで、前記第一記憶システムに対して、前記差分データ領域に記憶された更新データを要求し、
    前記第一記憶システムは、前記第二記憶システムから当該要求を受けると、前記差分データ領域から前記更新データを読み出し、当該読み出した更新データを前記第二記憶システムに送信し、
    前記管理計算機は、前記取得した使用量に基づいて、前記所定のタイミングを決定することを特徴とする請求項12に記載の管理計算機。
  17. 前記第二記憶システムは、所定のタイミングで、前記第一記憶システムに対して、前記差分データ領域に記憶された更新データを要求し、
    前記第一記憶システムは、前記第二記憶システムから当該要求を受けると、前記差分データ領域から前記更新データを読み出し、当該読み出した更新データを前記第二記憶システムに送信し、
    前記管理計算機は、前記取得した使用量に基づいて、前記回線中継装置が中継する前記更新データの要求の送信量を制御することを特徴とする請求項12に記載の管理計算機。
  18. 前記回線は、前記第一記憶システムから前記第二記憶システムへのデータ転送に常用される第一回線と、前記第一記憶システムから前記第二記憶システムへのデータ転送に常用されない第二回線と、を含み、
    前記管理計算機は、前記取得した使用量に基づいて、前記第一記憶システムから前記第二記憶システムへのデータ転送に前記第二の回線を使用するか否かを決定することを特徴とする請求項12に記載の管理計算機。
  19. 業務計算機と、
    前記業務計算機が使用するデータを記憶する複数の第一記憶システムと、
    前記第一記憶システムに記憶されたデータの複製が記憶される第二記憶システムと、
    前記第一記憶システムから前記第二記憶システムへのデータ転送に用いられる回線と、
    前記回線と前記第一記憶システムとの間及び前記回線と前記第二記憶システムとの間のデータを中継する回線中継装置と、を備える情報管理システムにおけるリモートコピー方法であって;
    前記第一記憶システムは、前記業務計算機から更新データを受けると、当該更新データ情報を前記第二記憶システムに転送するまで前記差分データ領域に記憶し;
    前記管理計算機は、
    前記各第一記憶システムの前記差分データ領域の使用量を取得し、
    前記取得した使用量から、前記各差分データ領域が一杯になるまでの時間を求め、
    前記差分データ領域が一杯になるまでの時間が長い前記第一記憶システムには前記回線を少なく割り当て、前記差分データ領域が一杯になるまでの時間が短い前記第一記憶システムには前記回線を多く割り当てる指示を前記回線中継装置に送信することを特徴とするリモートコピー方法。
  20. アプリケーションサーバと、
    キャッシュ、ストレージI/F、リモートコピーI/F、ネットワークI/F及びボリュームを有し、前記アプリケーションサーバが使用するデータをボリュームに記憶する複数のコピー元ストレージシステムから構成されるコピー元ストレージシステム群と、
    ストレージI/F、リモートコピーI/F、ネットワークI/F及びボリュームを有し、前記コピー元ストレージシステム群に記憶されたデータの複製が記憶される複数のコピー先ストレージシステムから構成されるコピー先ストレージシステム群と、を備える情報処理システムにおいて;
    前記コピー元ストレージシステム群から前記コピー先ストレージシステム群へのデータ転送に用いられる広域IPネットワークと、
    前記ストレージシステムが接続されるポート及び管理I/Fを有し、前記広域IPネットワークと前記コピー元ストレージシステムとの間及び前記広域IPネットワークと前記コピー先ストレージシステムとの間のデータを中継するルータと、
    ネットワークI/Fを介して前記コピー元ストレージシステム群及び前記ルータに接続され、前記ルータを制御する管理サーバと、を備え、
    前記コピー元ストレージシステムは、
    前記アプリケーションサーバから転送される更新データを、前記コピー先ストレージシステムに転送するまで記憶する差分データ領域を、前記キャッシュに設け、
    前記アプリケーションサーバから、前記ボリュームに記憶される更新データを受けると、当該更新データを前記ボリュームに記憶し、当該更新データを前記コピー先ストレージシステムに転送するまで前記差分データ領域に記憶し;
    前記管理サーバは、
    前記各コピー元ストレージシステムの前記差分データ領域の使用量を取得し、
    前記取得した使用量から、前記各コピー元ストレージシステムの前記差分データ領域が一杯になるまでの時間を求め、
    前記差分データ領域が一杯になるまでの時間が長い前記コピー元ストレージシステムには前記広域IPネットワークの帯域量を少なく割り当て、
    前記差分データ領域が一杯になるまでの時間が短い前記コピー元ストレージシステムには前記広域IPネットワークの帯域量を多く割り当てる指示を前記ルータに送信することを特徴とする情報処理システム。
JP2004242543A 2004-08-23 2004-08-23 情報処理システム、管理計算機及びリモートコピー方法 Expired - Fee Related JP4494905B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004242543A JP4494905B2 (ja) 2004-08-23 2004-08-23 情報処理システム、管理計算機及びリモートコピー方法
US10/975,821 US7545746B2 (en) 2004-08-23 2004-10-29 Computer system for controlling routed data amount

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004242543A JP4494905B2 (ja) 2004-08-23 2004-08-23 情報処理システム、管理計算機及びリモートコピー方法

Publications (2)

Publication Number Publication Date
JP2006059260A true JP2006059260A (ja) 2006-03-02
JP4494905B2 JP4494905B2 (ja) 2010-06-30

Family

ID=35909527

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004242543A Expired - Fee Related JP4494905B2 (ja) 2004-08-23 2004-08-23 情報処理システム、管理計算機及びリモートコピー方法

Country Status (2)

Country Link
US (1) US7545746B2 (ja)
JP (1) JP4494905B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007287152A (ja) * 2006-04-18 2007-11-01 Internatl Business Mach Corp <Ibm> シーケンシャル・アクセス・データ・ストレージ・デバイスのセカンダリ通信ポートを使用して入出力操作を移送する方法、装置、およびプログラム
JP2009151389A (ja) * 2007-12-18 2009-07-09 Hitachi Ltd 計算機システム及びデータ消失回避方法
WO2010109767A1 (ja) * 2009-03-26 2010-09-30 株式会社日立製作所 データ同期システム、データ同期方法、及び同期管理サーバ
JP2011210105A (ja) * 2010-03-30 2011-10-20 Hitachi Ltd 計算機システム及びその制御方法
US8078814B2 (en) 2006-09-05 2011-12-13 Hitachi, Ltd. Method of improving efficiency of replication monitoring
JP2013054570A (ja) * 2011-09-05 2013-03-21 Fujitsu Ltd ストレージ装置,データ転送方法及びプログラム

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7230944B1 (en) * 1999-12-30 2007-06-12 Geologic Solutions, Inc. System and method of host routing when host computer is within a home network and/or a complementary network
US7822891B2 (en) * 2006-06-13 2010-10-26 Broadcom Corporation System and method for transferring a multidimensional array of data to a non-contiguous buffer
JP2008186142A (ja) * 2007-01-29 2008-08-14 Hitachi Ltd リモートバックアップ方法及びストレージシステム
US10447474B2 (en) 2009-04-20 2019-10-15 Pure Storage, Inc. Dispersed data storage system data decoding and decryption
US9483656B2 (en) * 2009-04-20 2016-11-01 International Business Machines Corporation Efficient and secure data storage utilizing a dispersed data storage system
CN103338135B (zh) * 2013-07-05 2016-03-02 山东大学 一种集群存储容量的实时监控方法
JP6229684B2 (ja) * 2015-03-19 2017-11-15 日本電気株式会社 ストレージ装置、ストレージ制御方法、及びストレージ制御プログラム
CN105094698B (zh) * 2015-07-08 2018-09-11 浪潮(北京)电子信息产业有限公司 一种基于历史监测数据的磁盘容量预测方法
US11169731B2 (en) * 2016-10-31 2021-11-09 International Business Machines Corporation Managing storage resources in a dispersed storage network

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11252035A (ja) * 1998-03-02 1999-09-17 Nec Corp 帯域割当て方法、及び伝送システム
JP2003167683A (ja) * 2001-11-30 2003-06-13 Hitachi Ltd 情報記憶システム及びその制御方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6064671A (en) * 1995-12-08 2000-05-16 Killian; Michael G. Multi-homed end system for increasing computers network bandwidth
JP2001251331A (ja) * 2000-03-06 2001-09-14 Fujitsu Ltd ダイナミック帯域を割り当てる加入者終端装置
JP3997061B2 (ja) * 2001-05-11 2007-10-24 株式会社日立製作所 記憶サブシステムおよび記憶サブシステムの制御方法
JP4315021B2 (ja) * 2003-05-20 2009-08-19 株式会社日立製作所 管理項目管理システム及び方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11252035A (ja) * 1998-03-02 1999-09-17 Nec Corp 帯域割当て方法、及び伝送システム
JP2003167683A (ja) * 2001-11-30 2003-06-13 Hitachi Ltd 情報記憶システム及びその制御方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007287152A (ja) * 2006-04-18 2007-11-01 Internatl Business Mach Corp <Ibm> シーケンシャル・アクセス・データ・ストレージ・デバイスのセカンダリ通信ポートを使用して入出力操作を移送する方法、装置、およびプログラム
US9383938B2 (en) 2006-04-18 2016-07-05 International Business Machines Corporation Method, system, and apparatus for re-conveying input/output operations utilizing a sequential-access data storage device secondary communication port
US8078814B2 (en) 2006-09-05 2011-12-13 Hitachi, Ltd. Method of improving efficiency of replication monitoring
US8195902B2 (en) 2006-09-05 2012-06-05 Hitachi, Ltd. Method of improving efficiency of replication monitoring
US8307179B2 (en) 2006-09-05 2012-11-06 Hitachi, Ltd. Method of improving efficiency of replication monitoring
JP2009151389A (ja) * 2007-12-18 2009-07-09 Hitachi Ltd 計算機システム及びデータ消失回避方法
JP4598817B2 (ja) * 2007-12-18 2010-12-15 株式会社日立製作所 計算機システム及びデータ消失回避方法
WO2010109767A1 (ja) * 2009-03-26 2010-09-30 株式会社日立製作所 データ同期システム、データ同期方法、及び同期管理サーバ
JP4815547B2 (ja) * 2009-03-26 2011-11-16 株式会社日立製作所 データ同期システム、データ同期方法、及び同期管理サーバ
JP2011210105A (ja) * 2010-03-30 2011-10-20 Hitachi Ltd 計算機システム及びその制御方法
JP2013054570A (ja) * 2011-09-05 2013-03-21 Fujitsu Ltd ストレージ装置,データ転送方法及びプログラム

Also Published As

Publication number Publication date
US20060039351A1 (en) 2006-02-23
US7545746B2 (en) 2009-06-09
JP4494905B2 (ja) 2010-06-30

Similar Documents

Publication Publication Date Title
JP4494905B2 (ja) 情報処理システム、管理計算機及びリモートコピー方法
JP4728031B2 (ja) リモートコピーペアの移行を行うシステム
JP4412989B2 (ja) 複数の記憶システムを有するデータ処理システム
JP5036158B2 (ja) 情報処理システム及び情報処理システムの制御方法
JP4790372B2 (ja) ストレージのアクセス負荷を分散する計算機システム及びその制御方法
CN101571822B (zh) 存储控制装置及其数据管理方法
JP3997061B2 (ja) 記憶サブシステムおよび記憶サブシステムの制御方法
CN107533438B (zh) 存储器系统中的数据复制
US8307170B2 (en) Information processing method and system
US7817626B2 (en) Storage subsystem
US8751716B2 (en) Adaptive data throttling for storage controllers
US7590809B2 (en) Remote copy system
JP4794194B2 (ja) ストレージシステム及び記憶制御方法
JP2004302713A (ja) 記憶システム及びその制御方法
WO2014162586A1 (ja) ストレージシステムおよびストレージシステム制御方法
JP4813872B2 (ja) 計算機システム及び計算機システムのデータ複製方法
JPH10198607A (ja) データ多重化システム
JP2015520425A (ja) 計算機システム及びその制御方法
JP2007065751A (ja) ストレージシステム及び記憶制御方法
JP2009122873A (ja) ストレージシステム間でのリモートコピーを管理する装置
JP2015052844A (ja) コピー制御装置,コピー制御方法及びコピー制御プログラム
JP4719801B2 (ja) デバイス管理装置、デバイス初期化方法、デバイス初期化プログラムおよびデバイスシステム
JP6035934B2 (ja) データストア管理装置、データ提供システム及びデータ提供方法
CN110362426B (zh) 一种面向突发性负载的选择性副本实现方法及系统
CN108459821A (zh) 一种数据缓存的方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061211

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091110

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100406

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100408

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130416

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140416

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees