JP2005301880A - 計算機システムにおけるデータ入出力処理方法、ストレージ装置、ホスト計算機、および計算機システム、 - Google Patents

計算機システムにおけるデータ入出力処理方法、ストレージ装置、ホスト計算機、および計算機システム、 Download PDF

Info

Publication number
JP2005301880A
JP2005301880A JP2004120201A JP2004120201A JP2005301880A JP 2005301880 A JP2005301880 A JP 2005301880A JP 2004120201 A JP2004120201 A JP 2004120201A JP 2004120201 A JP2004120201 A JP 2004120201A JP 2005301880 A JP2005301880 A JP 2005301880A
Authority
JP
Japan
Prior art keywords
path
data input
processing
logical volume
host computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004120201A
Other languages
English (en)
Inventor
Hajime Serizawa
一 芹沢
Yasutomo Yamamoto
康友 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2004120201A priority Critical patent/JP2005301880A/ja
Priority to US10/855,589 priority patent/US7191278B2/en
Publication of JP2005301880A publication Critical patent/JP2005301880A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0635Configuration or reconfiguration of storage systems by changing the path, e.g. traffic rerouting, path reconfiguration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2056Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring
    • G06F11/2069Management of state, configuration or failover
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/065Replication mechanisms

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】計算機システムの入出力処理の高性能化を図ることにある。
【解決手段】ホスト計算機12とネットワーク17を介して接続されているストレージ装置13に、少なくとも1個の論理ボリュームを設け、その論理ボリュームに論理ボリューム固有のパスであって、かつ第1および第2の2つの異なるパスが割り当てる。そして、ストレージ装置12に、ホスト計算機12からの第1のパスによるデータ入出力処理の要求を受け付けた場合、第1のパスにより特定される論理ボリュームに対するデータの入出力処理を行う手段と、ホスト計算機12からの前記第2のパスによるデータ入出力処理の要求を受け付けた場合、受け付けた入出力処理に先立って所定の処理を行い、その後、第2のパスにより特定される論理ボリュームに対するデータの入出力処理を行う手段とを設ける。
【選択図】図1


Description

本発明は、ホスト計算機およびストレージ装置を有する計算機システムにおいて、ホスト計算機とストレージ装置との間で行うデータ入出力処理の技術に関する。
大量の電子データを管理するシステムに、ディスクアレイ装置に代表されるストレージ装置とホスト計算機とを有する計算機システムがある。計算機システムでは、データ損失等に備え、ストレージ装置内の論理ボリューム(正ボリューム)に対して副ボリュームを定義し、正ボリュームと副ボリュームとをペアで管理する処理が行われている。
従来から、ホスト計算機およびストレージ装置を有する計算機システムにおいて、任意の時点において、定義した正ボリュームおよび副ボリュームのペアを分割するペア分割の技術が知られている(例えば、特許文献1)。このようにペア分割することにより、分割の時点での正ボリュームのコピーを副ボリュームとして得ることができる。また、分割した副ボリュームを使用することで、正ボリュームを利用しているアプリケーションプログラムを動作させたままでのバックアップ(オンラインバックアップ)を行うことができる。
特開2003−316522号公報
ところで、計算機システムでは、ホスト計算機とストレージ装置との間で行うデータ入出力処理と、ストレージ装置内で行われる他の処理との間で処理の同期を取る(タイミングを合わせる)必要が生じる場合がある。例えば、同期を取る必要がある処理の代表的なものとして、上記のペア分割処理およびデータ入出力処理がある。ペア分割処理およびデータ入出力処理を、同期を取らずに行った場合、例えば、ペア分割の指示からペア分割の完了までの間に正ボリュームへのデータの書き込みを行った場合、正ボリュームに書き込んだデータが副ボリュームに反映されたか否かが不明となる。すなわち、ペア分割を要求した際の副ボリュームのデータをスナップショットとして取得したい場合であっても、副ボリュームのデータがペア分割を要求した際のデータから更新される場合がある。その結果、ペア分割処理により、スナップショットとして得られた副ボリュームをバックアップデータとして利用できなくなる。
上記特許文献1では、ペア分割の指示からペア分割の完了までの間は、ホスト計算機からの正ボリュームへの書き込みを抑止することで、分割処理およびデータ入出力処理の同期を取るようにしている。また、上記特許文献1に示された別の態様では、ペア分割の指示からペア分割の完了までの間において、正ボリュームにデータを書き込む処理を行う場合、書き込んだ内容を別のボリュームへ全て記憶するようにしている。
しかしながら、上記のホスト計算機からの正ボリュームへの書き込みを抑止する方法では、利用者は、ペア分割処理が終了するまでデータ入出力処理を待たされることとなる。利用者は、ストレージ装置からのペア分割処理完了の通知を受けてから、データ入出力処理を行うため、結果的に事務処理の生産性を低下させてしまう。また、上記書き込んだ内容を別のボリュームへ全て記憶する方法では、計算機システムのデータ入出力能力の低下を招いてしまう。
そこで、本発明の目的は、計算機システムのデータ入出力処理の高性能化を図ることにある。すなわち、データ入出力処理と同期を取る必要がある処理が発生した場合に、その同期を取る必要がある処理と入出力処理との同期を自動的に図ることにある。
上記課題を解決するため、本発明の一態様は、少なくとも1台のホスト計算機と、前記ホスト計算機にネットワークを介して接続されている、少なくとも1台のストレージ装置とを有する計算機システムに適用される。
ここで、前記ストレージ装置は、少なくとも1個の論理ボリュームを有し、該論理ボリュームには、該論理ボリュームに対する固有のパスであって、かつ第1および第2の2つの異なるパスが割り当てられている。そして、前記ホスト計算機は、ストレージ装置に対して、前記第1および第2のパスのいずれか一方を用いて、前記論理ボリュームに対するデータ入出力処理を要求するステップを実行し、前記ストレージ装置は、前記第1のパスによるデータ入出力処理の要求を受け付けた場合、該第1のパスにより特定される論理ボリュームに対するデータ入出力処理を行うステップと、前記第2のパスによるデータ入出力処理の要求を受け付けた場合、該受け付けたデータ入出力処理に先立って所定の処理を行い、その後、該第2のパスにより特定される論理ボリュームに対するデータ入出力処理を行うステップと、を実行する。ここで所定の処理とは、データ入出力処理と同期を取る必要がある処理のことをいう。
このように本発明によれば、論理ボリュームに、第1および第2の2つの異なるパスが割り当てられている。そして、ストレージ装置は、第2のパスによるデータ入出力処理の要求を受け付けた場合、該受け付けたデータ入出力処理に先立って所定の処理を行い、その後、第2のパスにより特定される論理ボリュームに対するデータ入出力処理を行うようにしている。すなわち、本発明では、第2のパスを用いることで、データ入出力処理および所定処理(例えばペア分割処理)を同じタイミングでストレージ装置に要求できる。そのため、本発明では、利用者にデータ入出力処理を待たせることなく、データ入出力処理および所定の処理(例えばペア分割処理)を行うことができる。また、上記特許文献1のように、ペア分割の指示からペア分割の完了までの間において、正ボリュームにデータを書き込み、その書き込んだ内容を別のボリュームへ全て記憶する必要がない。そのため、本発明によれは、計算機システムのデータ入出力能力の低下を招くことがない。
以下、本発明の実施の形態が適用された計算機システムを説明する。
〈第1実施形態〉
先ず、本発明の第1実施形態について説明する。
図1は、本発明の第1実施形態の計算機システムの全体構成を示す図である。
図示するように、第1実施形態の計算機システムは、少なくとも1台のホスト計算機12、少なくとも1台のストレージ装置13、LAN(Local Area Network)15、SAN(Storage Area Network)リンク17、管理サーバ16、および管理コンソール14を有する。ホスト計算機12、ストレージ装置13、管理コンソール14、および管理サーバ16は、LAN15を介して相互接続されている。また、ホスト計算機12およびストレージ装置13は、SANリンク17を介して相互接続されている。なお、SANリンク17は単一のリンクである必要は無く、例えば、FibreChannel(FC)スイッチを介したSANであってもよい。
最初にホスト計算機12の構成を説明する。ホスト計算機12は、ストレージ装置13に格納されたデータを使用する計算機である。ホスト計算機12は、CPU(中央演算装置)121、メモリ122、LANインタフェース(LANI/F)151、およびSANインタフェース(SANI/F)171を有する。
メモリ122には、アプリケーションプログラム(以下「AP」という)124、制御プログラム125、パス管理プログラム126、オペレーティングシステム(以下「OS」という)127、およびパス管理テーブル128が格納されている。なお、これらのプログラム(AP124、制御プログラム125、およびOS127)およびパス管理テーブル128については、後段で詳細に説明する。
CPU121は、メモリ122に格納されている各プログラム(AP24、制御プログラム、およびOS127)を実行して、パス管理処理、ストレージ装置13との間で行うデータ入出力処理等の各種処理を行う。LANI/F151は、これを内蔵する機器がLAN15に接続されているその他の機器と互いに通信するためのアダプタである。
SANI/F171は、ホスト計算機12がSANリンク17を介してストレージ装置13とデータを入出力するためのアダプタである。本実施形態では、SANI/F171に、FibreChannel(FC)のHBA(ホストバスアダプタ)を用いる場合を例に説明するが特にこれに限定するものではない。ホスト計算機12とストレージ装置13との間の接続には、SCSI、iSCSI、InfiniBandなど、他のプロトコルを使用しても良い。SANI/F171は、それぞれのプロトコルに対応したアダプタであればよい。
続いて、ストレージ装置13の構成を説明する。ストレージ装置13は、制御装置132及びハードディスクドライブ等のディスク装置133を有するストレージサブシステムである。
ストレージ装置13は、少なくとも1つの論理ボリューム131を有する。論理ボリューム131は、ストレージ装置13が有するディスク装置133の物理的な記憶領域から構成されている論理的な記憶領域であり、計算機システム内で固有の識別子(パス識別子)を持つ。論理ボリューム131は、ホスト計算機12などストレージ装置13に接続される装置からは、論理的に独立した1つのストレージ装置として認識される。そして、ホスト計算機12は、パス識別子により特定する論理ボリューム131をアクセス対象としてデータ入出力処理の要求を発行する。
なお、本実施形態では、論理ボリューム131を特定するパス識別子に、FCの「WWN(World Wide Name)」または「PortID」と、「論理ユニット番号(LUN(Logical Unit Number))」との組を用いることとする。但し、パス識別子の具体的な構成については、これに限定されるものではない。ところで、後述する様に、本実施形態では1つの論理ボリュームに複数のパス識別子が対応付けられる。1つの論理ボリュームに対応付けられる複数のパス識別子は、「WWW」または「PortID」が共通で、「LUN」が異なるように構成されていてもよい。また、「LUN」が共通で、「WWW」または「PortID」が異なるように構成されていてもよい。
制御装置132は、SANリンク17を介してホスト計算機12と行うデータ入出力処理を制御する。また、制御装置132は、LAN15を介して管理サーバ等のストレージ装置13に接続されている装置との間でデータの授受を行う。制御装置132は、CPU(中央演算装置)134、メモリ135、LANI/F151、およびSANI/F172を有する。なお、制御装置132が有するLANI/F151は、上述したホスト計算機12が有するものと同じである。
メモリ135には、IO処理プログラム136、構成制御プログラム137、パス識別子管理テーブル138、および論理ボリューム管理テーブル139が格納されている。なお、各プログラム(IO処理プログラム136および構成制御プログラム137)および各テーブル(パス識別子管理テーブル138および論理ボリューム管理テーブル139)については、後段で詳細に説明する。
CPU134は、メモリ135に格納されている各プログラム(IO処理プログラム136および構成制御プログラム137)を実行して、ホスト計算機12との間で行うデータ入出力処理等の各種処理を行う。
SANI/F172は、SANリンク17を介してホスト計算機12との間で行うデータ入出力処理を実行するためのアダプタである。SANI/F172は、少なくとも1個のパス識別子に対する入出力要求を受付ける。また、1個のSANI/F172を経由して複数のパス識別子を1個の論理ボリュームに対して関連付けられる場合、SANI/F172は、最少1個で良い。しかし、1個のSANI/F172が1個の論理ボリュームに対して1個のパス識別子しか関連付けられない場合は、複数のSANI/F172が必要になる。
続いて、管理サーバ16の構成を説明する。管理サーバ16は、ストレージ装置13の設定変更など管理を行うための計算機である。管理サーバ16は、CPU(中央演算装置)161、メモリ162、およびLANI/F151を有している。なお、管理サーバ16が有するLANI/F151は、上述したホスト計算機12が有するものと同じである。
メモリ162には、管理プログラム163が格納されている。そして、CPU161は、管理プログラム163を実行することで、ストレージ装置13に各種の設定処理を実行させる。なお、ここでいう各種の設定処理には、論理ボリューム131を作成/削除する処理、論理ボリューム131とパス識別子との対応付ける処理、スナップショット作成における論理ボリュームのペアを定義/解除する処理、分割処理した論理ボリューム131のペアを再同期する処理等が含まれる。但し、本実施形態では、ペア定義されている論理ボリューム131のペア分割処理は、管理サーバ16からの指示では行わない(ペア分割処理については後段で詳細に説明する)。なお、管理サーバ16の機能は、ホスト計算機12で実現しても良い。
続いて、管理コンソール14の機能について説明する。管理コンソール14は、システム管理者が管理サーバ16およびホスト計算機12を操作するための計算機であり、表示装置および入力装置が接続されている。管理コンソール14は、管理サーバ16とLAN15を介して互いに通信することができる。また、管理コンソール14は、ホスト計算機12とLAN15を介して通信することができる。また、管理コンソール14は、ストレージ装置13とLAN15を介して互いに通信することができる。なお、管理コンソール14の機能は管理サーバ16やホスト計算機12で実現しても良い。
次に、本実施形態の各プログラムの動作原理について説明する。
図2は、本実施形態の各プログラムの動作原理を示す概念図である。なお、図2は、ホスト計算機12からストレージ装置13への入出力処理要求およびペア分割処理の同期の契機、すなわちペア分割処理を受け付ける準備ができた状態を示していることとする。
また、ストレージ装置13は、管理サーバ16からの指示を受けて、論理ボリューム131aおよび論理ボリューム131bを、それぞれ正ボリューム、副ボリュームとするスナップショットのペア定義がされているものとする。また、正ボリュームである論理ボリューム131aには、2個のパス識別子176a、bが割り当てられているものとする。なお、図示する各テーブルのデータ構造は例示に過ぎない。
最初にホスト計算機12が有する各プログラムおよびパス管理テーブル128について説明する。
AP124は、論理ボリューム131を使用してホスト計算機12本来の機能を提供するためのプログラムである。AP125には、DBMS(DataBase Management System)やファイルサーバプログラムを用いることができる。
OS127は、CPU121がAP124を実行するために必要な環境を提供するためのプログラムである。例えば、OS127は、CPU121がAP124を実行する際に必用な論理ボリューム131に対応するデバイス名175aを提供する。CPU121は、AP124実行して、論理ボリューム131に対応づけられたOSが提供するデバイス名175aを指定する。CPUは、後述するパス管理プログラムを実行して、デバイス名175aを対応するパス識別子176に変換する。その後、CPU121は、OS127を実行して、SANI/F171を制御して、変換した識別子176が特定するストレージ装置13の論理ボリューム131にアクセスしてデータ入出力処理を行う。
制御プログラム125は、AP124、OS127、およびパス管理プログラム126の実行を制御するためのプログラムである。
パス管理プログラム126は、一部OS127に組み込まれ、パス管理テーブル128に格納されたデータにしたがい、OS127が提供するデバイス名175aからパス識別子176への変換処理を行うためのプログラムである。
パス管理テーブル128は、1個以上のエントリ128(a〜n)を有し、1個のエントリ128(a〜n)は、4個のデータ格納部を有する。例えば、エントリ128aは、4個のデータ格納部128a1〜a4を有する。各エントリ128(a〜n)は、同様のデータ構造を有する。なお、以下の説明ではエントリ128aを例にして説明する。
エントリ128aの最初のデータ格納部128a1には、1個の「デバイス名175a」が格納される。エントリ128aの2番目のデータ格納部128a2には、データ格納部128a1に格納されたデバイス名に関連づけられた1個の「パス識別子176」が格納される。なお、この2番目のデータ格納部128a2には、データ格納部128a1に格納されたデバイス名175aに現在対応させるための「パス識別子176」が格納される。
エントリ128aの3番名のデータ格納部128a3には、データ格納部128a1に関連づけられた1個の「パス識別子176」或いは空を示す「NULL値」が格納される。このデータ格納部128a3には、データ入出力処理に先立って、ペア分割処理をストレージ装置13に実行させるためのパス識別子176が格納される。また、データ入出力処理に先立って、ペア分割処理をストレージ装置13に実行させるためのパス識別子が設定されていない場合には、データ格納部128a3には、「NULL値」が格納される。4番目のデータ格納部128a4には、データ格納部128a1に関連づけられた1個以上のパス識別子176を含むパス識別子リストが格納される。
ところで、1個のデバイス名175aには、複数のパス識別子176a、176bを対応付けることができる。そして、1個のデバイス名175aに複数のパス識別子176a、176bを対応付けておけば、ホスト計算機12は、SANリンク17等の負荷の状況や他のプログラムの実行結果によって利用するパス識別子176を切り替えることができる。ここで、本実施形態のホスト計算機12が行うパス管理テーブル128の設定処理および変更処理について説明する。
ホスト計算機12は、管理者からの指示を受け付けて、エントリ128aの4番目のデータ格納部128a4に、データ格納部a1に格納されたデバイス名175aに対応させることが可能なパス識別子(図示する例では、176aおよび176b)を格納する。続いて、ホスト計算機12は、管理者からの指示を受け付けて、デバイス名175aに対応させるパス識別子176をエントリ128aのデータ格納部128a2に格納する。図示する例では、データ格納部128a2には、「パス識別子176a」が格納されている。この場合、ホスト計算機12は、ストレージ装置13の論理ボリューム131にアクセスする際、OSが提供するデバイス名175aをパス識別子176aに変換して、パス識別子176a宛のデータ入出力要求を行う。
次に、ホスト計算機12が行う、「デバイス名175a」から変換する「パス識別子176」を変更する処理を説明する。ホスト計算機12は、管理者からの指示を受け付けて、データ格納部128a4に格納されたパス識別子176の中から、データ格納部128a2に格納されているパス識別子176aと別のパス識別子176を選択する(図示する例では「パス識別子176b」)。ホスト計算機12は、データ格納部128a2に格納されたデータを、上記選択したパス識別子に変更する。例えば、ホスト計算機12が、エントリ128aのデータ格納部128a2のデータを「パス識別子176a」から「パス識別子176b」に変更したとする。その場合、ホスト計算機12は、デバイス名175aからパス識別子176bを特定することとなる。
なお、ホスト計算機12が行う「デバイス名175a」から変換する「パス識別子176」を変更する処理は、CPU121が制御プログラム125を実行することにより行われる(制御プログラム125により行われるパス識別子を変更する処理は後述する)。
また、パス管理テーブル128のデータ格納部128a2に、データ格納部128a3に格納されているパス識別子と同じパス識別子が格納されているとする。この場合、ホスト計算機12は、デバイス名175aから入出力処理に先立ってペア分割処理をストレージ装置13に実行させるためのパス識別子を特定することとなる。
このように本実施形態では、ホスト計算機12は、パス識別子176b宛の入出力要求を発行することにより、データ入出力処所定およびペア分割処理を同じタイミングでストレージ装置13に要求できる。
続いて、ストレージ装置13が有する各プログラムおよび各テーブルについて説明する。
最初にパス識別子管理テーブル138および論理ボリューム管理テーブル139のデータ構造について説明する。なお、パス識別子管理テーブル138および論理ボリューム管理テーブル139へのデータの初期設定は、管理サーバ16からの指示を受け付けて、CPU134が構成制御プログラム137を実行することで行われる。
パス識別子管理テーブル138は、1個以上のエントリ138(a〜n)を有し、さらに、1個のエントリ138(a〜n)は、3個のデータ格納部を有する。図示する例では、エントリ138aは、3個のデータ格納部138a1〜a3を有する。同様に、エントリ138bは、3個のデータ格納部138b1〜b3を有する。
そして、エントリ138(a〜n)の1番目のデータ格納部には、1個のパス識別子176が格納される。エントリ138(a〜n)の2番目のデータ格納部には、1番目のデータ格納部に格納されたパス識別子宛のデータ入出力要求を監視する必要があるか否かを判定するための監視フラグ(「0」または「1」のフラグ)が格納される。なお、本実施形態では、2番目のデータ格納部に監視フラグとして「0」が格納されている場合には、監視が不要であることを示し、「1」が格納されている場合には、監視が必要であることを示すものとする。エントリ138(a〜n)の3番目のデータ格納部には、1番目のデータ格納部に格納されたパス識別子により特定される論理ボリューム131が格納される。
図示する例では、エントリ138aの最初のデータ格納部138a1に「パス識別子176a」が格納されている。エントリ138aの2番目のデータ格納部138a2に監視フラグ「0」が格納されている。また、エントリ138aの3番目のデータ格納部138a3に「論理ボリューム131a」が格納されている。これは、「パス識別子176a」により特定される論理ボリュームは、「論理ボリューム131a」であることを示している。また、「パス識別子176a」宛のデータ入出力要求に対する監視が不要であることを示している。
また、図示するエントリ138bのデータ格納部138b1〜138b3には、それぞれ、「パス識別子176b」、「1」、「論理ボリューム131a」が格納されている。これは、「パス識別子176b」により特定される論理ボリュームは、「論理ボリューム131a」であることを示している。また、「パス識別子176b」宛のデータ入出力要求に対する監視が必要であることを示している。
このように、パス識別子管理テーブル138を構成することで、CPU134は、IO処理プログラム136を実行中に、エントリ138nの1番目のデータ格納部138n1および3番目のデータ格納部138n3を参照して、あるパス識別子176宛のデータ入出力要求がどの論理ボリューム131に対する入出力要求であるかを判別することができる。また、CPU134は、前記エントリ138nの1番目のデータ格納部138n1および2番目のデータ格納部138n2を参照することにより、該パス識別子176宛のデータ入出力要求を監視する必要があるかどうかを判定することができる。
次に、論理ボリューム管理テーブル139のデータ構造を説明する。図示するように、論理ボリューム管理テーブル139は、1個以上のエントリ139aを有し、さらに、1個のエントリ139aは、4個のデータ格納部を有する。
エントリ139nの最初のデータ格納部139n1には、1個の論理ボリューム131を示すデータが格納される。エントリ139nの2番目のデータ格納部139n2は、データ格納部139n1に格納された論理ボリューム宛ての入出力処理を保留させるか否かを示すフラグ(「0」または「1」のフラグ)が格納される。なお、本実施形態の説明では、データ格納部139n2に「0」が格納されている場合、入出力処理の保留が不要であることを示し、「1」が格納されている場合、入出力処理を保留する必要があることを示すものとする。エントリ139nの3番目のデータ格納部139n3には、データ格納部139n1に格納された論理ボリュームのペア状態を示すフラグが格納される。のデータ格納部139n3には、「0」、「1」、「2」の3種類のフラグのいずれかが格納される。そして、上記「0」、「1」、および「2」は、それぞれ「論理ボリューム131のペアが未定義の状態」、「論理ボリューム131のペアが定義されて分割されていない状態」、および「ペアが定義されて分割されている状態」を示すものとする。エントリ139nの4番目のデータ格納部139n4には、副ボリュームを示すデータが格納される(ペアが定義されて無い場合には、「NULL値」が格納される)。
図示する例では、エントリ139aのデータ格納部139a1〜a4には、各々、「論理ボリューム131a」、「0」、「1」、および「論理ボリューム131b」が格納されている。これは、論理ボリューム131a宛ての入出力要求を保留する必要が無いことを示している。また、論理ボリューム131aには、論理ボリューム131bがペア定義されていて、ペア分割されていないことを示している。
CPU134は、パス識別子管理テーブル139の該当するエントリ139nの2番目のデータ格納部139n2を参照することで、論理ボリューム131宛の入出力要求を保留する必要があるかどうかを判定する。また、CPU134は、パス識別子管理テーブル139の該当するエントリ139nの3番目のデータ格納部139n3を参照することで、論理ボリュームのペア状態を判定する。
続いて、ストレージ装置13が有する各プログラムを説明する。
IO処理プログラム136は、ホスト計算機12からの入出力要求に従い、論理ボリューム131のデータを読み書きするためのプログラムである。CPU134は、IO処理プログラムを実行することで、ホスト計算機12からの入出力要求に従い、論理ボリューム131へのデータ入出力処理を行う。
また、IO処理プログラム136は、論理ボリューム131にペア定義がされている場合における副ボリュームへのコピー処理もCPU134に実行させる。具体的には、ホスト計算機12からの書き込みの対象が正ボリューム131aであった場合(論理ボリューム管理テーブル139中の該当するエントリ139nにおいて、4番目のデータ格納部139n4に副ボリューム131bが定義されている場合)、副ボリューム131bへのコピー処理139もIO処理プログラム136を実行することによりCPU134が行う。
構成制御プログラム137は、IO処理プログラム136の動作を制御するためのプログラムである。CPU134は、構成制御プログラム137を実行することにより、前記管理サーバ16からの指示を受けて、ストレージ装置13に対する各種設定を行う。
例えば、CPU134が、前記管理サーバ16から、「論理ボリューム131aおよび論理ボリューム131bの作成」、「論理ボリューム131aへのパス識別子176aの割り当て」、および「論理ボリューム131aおよび論理ボリューム131bを、それぞれ正ボリューム、副ボリュームとするスナップショットのペア定義」の指示を受け取ったとする。この場合、CPU134は、構成制御プログラム137を実行することで、受け付けた指示に従いペア定義処理を行う。
その後、CPU134は、ペアを定義した後、正ボリューム131aの交替パスとして別のパス識別子176bを割り当て、管理サーバ16に返す。すなわち、CPU134はパス識別子管理テーブル138に新しいエントリ(例えばエントリ138b)を作成し、該当するエントリ(例えばエントリ138b)の3個のデータ格納部(例えば、データ格納部138b1〜138b3)に、それぞれ、「パス識別子176b」、「1」、および「論理ボリューム131a」を格納する。そして、CPU134は、正ボリューム131aの交替パスとして割り当てたパス識別子176bを、LAN15を介して管理サーバ16に送信する。
管理サーバ16は、ストレージ装置13が送信したパス識別子176bをパス識別子176aとともにホスト計算機12に送信する。そして、ホスト計算機12は、上記送信されたパス識別子176bおよびパス識別子176aを受信し、パス管理テーブル128のデータを更新する。具体的には、ホスト計算機12は、パス管理テーブル128のエントリ128aの4番目のデータ格納部128a4に「パス識別子176b」を追加して、3番目のデータ格納部128a3に「パス識別子176b」を格納する。
続いて、ホスト計算機12がストレージ装置13に対して行う、データ入出力処理およびスナップショットのペア分割要求を行う際の処理について図2および図3を用いて説明する。
図3は、本実施形態のホスト計算機12が行うデータ入出力処理およびスナップショットのペア分割要求を行う際の処理のフローチャートである。
なお、ここでは、ストレージ装置12の論理ボリューム131aにOS127が提供するデバイス名175aが対応していることとする。また、ストレージ装置13では、論理ボリューム131a(正ボリューム)の副ボリュームとして論理ボリューム131bが定義されているものとする。
また、ホスト計算機12が有するパス管理テーブル128は、図2に示す内容に設定されているものとする。すなわち、「デバイス名175a」に対して「パス識別子176a」が対応づけられている。また、データ入出力処理に先立って、ペア分割処理をストレージ装置13に実行させるためのパス識別子176に「パス識別子176b」が設定されている。
最初に、ホスト計算機12がストレージ装置13に対して行う、データ入出力処理について説明する。
さて、ホスト計算機12の起動後、CPU121は制御プログラム125により、デバイス名175a宛ての入出力要求の受付を行うようにOS127を設定する(S100)。
続いて、CPU121は、AP124により、ユーザからのストレージ装置13に対するデータの入出力処理の要求を受け付ける。CPU121は、AP124により、OS127から提供されるデバイス名175aを指定したデータ入出力処理の要求を稼働中のOS127に対して要求する(S101)。
続いて、CPU121は、OS127によりデバイス名175aに対応するパス識別子176を取得するためにパス管理プログラム126を呼び出す(S102)。
CPU121は、パス管理プログラム126により、デバイス名175aを対応するパス識別子176に変換する。具体的には、CPU121は、パス管理プログラムにより、パス管理テーブル128を検索して、デバイス名175aが格納されているエントリ128aを選択する。CPU121は、パス管理プログラム126により、上記選択したエントリ128aの2番目のデータ格納部128a2からパス識別子176aを特定して、メモリ122の所定の領域に書き込んでOS127の処理に移行する(103)。
CPU121は、OS127により、メモリ122の所定の領域に書き込まれたパス識別子176aを読み出し、パス識別子176a宛てのデータ入出力処理要求をSANI/F171を介して、ストレージ装置13に出力する(S104)。なお、パス識別子176aは、ストレージ装置13に対してデータ入出力処理を要求する際に用いられるパス識別子である。パス識別子176a宛てのデータの入出力処理要求を受け付けたストレージ装置13は、パス識別子176aにより特定される論理ボリューム131aに対するデータ入出力処理を行う。
例えば、受け付けたデータ入出力処理の要求がデータのリード処理の場合、ストレージ装置13は、論理ボリューム131aから読み出してリードデータをホスト計算機12に送信する。また、例えば、受け付けたIO処理要求がデータのライト処理の場合、ストレージ装置13は、論理ボリューム131aの所定領域にライトデータを格納する。また、ストレージ装置13は、ライドデータを受け付けた場合(図示しないキャッシュにライトデータを格納した場合)、ライト処理の終了をホスト計算機12に送信する。
ホスト計算機12のCPU121は、OS127により、ストレージ装置13から送信されるデータ入出力処理のデータを受け付け、受け付けたデータをAP124に渡し、処理を終了する。
続いて、パス識別子176を変更する処理について説明する。
本実施形態のホスト計算機12は、所定のタイミングでパス識別子176を変更する処理を開始する。なお、以下の説明では、パス識別子176を変更する処理を開始する所定のタイミングについて、定義した正ボリューム131aに対する副ボリュームのデータをバックアップデータとして利用したい際、つまり、ペア分割を行いたいタイミングで、ぺア分割処理を行う代わりにパス識別子176変更処理を開始することとする。なお、ペア分割を行いたいタイミングについて、特に限定しないが、例えば、ホスト計算機12が管理者からのペア分割指示を受け付けた場合をいう。また、例えば、ホスト計算機12に、ペア分割処理を行いたいタイミングを予め定めておくようにしてもよい(例えば、所定時点の副ボリュームのデータをバックアップデータとして利用するように定めておく)。
まず、CPU121は、ペア分割を行うタイミングで制御プログラム125を実行し、デバイス名175aを指定していた入出力要求を行わないようにOS127の設定を変更する(ステップ200)。
続いて、CPU121は、OS127により、OS上で管理するバッファ(図示しない)に論理ボリューム131a宛ての入出力処理のデータが格納されているか否かを判定する。CPU121は、OS127により、バッファに論理ボリューム131aへの入出力処理のためのデータが格納されている場合には、そのデータをバッファからフラッシュ(論理ボリューム131aに書き出す)する(ステップ201)。
続いて、CPU121は、制御プログラム125の処理へ戻り、パス管理プログラム126を呼び出す(ステップ202)。CPU121は、パス管理プログラムを実行して、パス管理テーブル128のデバイス名175aが格納されたエントリ128aの2番目のデータ格納部128a2のパス識別子176を変更する。具体的には、CPU121は、エントリ128aの4番目のデータ格納部128a4のパス識別子郡176から、エントリ128aの3番目のデータ格納部128a3に格納されているパス識別子176bと同じパス識別子176を選択する。CPU121は、エントリ128aの2番目のデータ格納部128a2に選択したパス識別子176bを格納する(ステップ203)。
その後、CPU121は、制御プログラム125の処理へ戻り、AP124が論理ボリューム131aへの入出力を再開するようにOS127に対する設定を変更する(S204)。これ以降、AP124の処理に伴うデバイス名175aへのデータ入出力処理は、パス識別子176b宛に発行されることになる。
続いて、パス識別子176が変更された後のホスト計算機12が実行する処理について説明する。
CPU121は、上述したS101〜102と同様の処理を行い(S110〜111)、S112の処理に進む。
S112では、CPU121は、S103と同様の処理を行う。但し、上記のS203において、CPU121は、パス管理テーブル128の「デバイス名175a」が格納されているエントリ128aのデータを変更している。すなわち、パス管理テーブル128の2番目のデータ格納部128a2に格納されているデータは、「パス識別子176a」から「パス識別子176b」に変更されている。したがって、S112では、CPU121は、「デバイス名175a」を「パス識別子176b」に変換して、OS127の処理に移行することとなる。
S113では、CPU121は、稼働中のOS127により、「パス識別子176b」宛てのIO処理要求をSANI/F171を介して、ストレージ装置13に出力する(S113)。なお、「パス識別子176b」は、IO処理に先立って、論理ボリューム136のペア分割処理を行う要求に用いるためのパス識別子である。
そのため、「パス識別子176b」宛てのIO処理要求を受け付けたストレージ装置13は、入出力処理に先立って、ペア分割処理を行い、その後、論理ボリューム134a宛てのIO処理を行う。
このように、本実施形態によれば、ストレージ装置13の1つの論理ボリューム131に対して、論理ボリューム131を特定するためのパス識別子を複数設けるようにしている。また、複数のパス識別子176の中の所定のパス識別子176を用いたデータ入出力要求については、データ入出力処理に先立って、ペア分割処理を行うように定めている。そして、本実施形態では、論理ボリューム131のペア分割を行いたい場合に、パス識別子を「データ入出力処理に先立って、ペア分割処理を行う」要求に用いるためのパス識別子に設定するようにしている。
したがって、本実施形態では、データ入出力処理およびペア分割処理を実行するタイミングを調整する手間を無くすことができる。
続いて、ストレージ装置13が行う入出力処理およびペア分割処理を図2および図4を用いて説明する。
図4は、ストレージ装置13が行う入出力処理およびペア分割処理のフローチャートである。なお、本フローの説明では、ストレージ装置13が有する、パス識別子管理テーブル138および論理ボリューム管理テーブル139には、図2で例示したデータが設定されているものとする。
CPU134は、IO処理プログラム136を実行して、まずSANI/F172介して、ホスト計算機12からのデータ入出力処理の要求を受信する(S300)。
つぎに、CPU134は、IO処理プログラム136により、受信したデータ入出力処理の要求が、監視中のパス識別子176宛か否かの判定を行う(S301)。
具体的には、S301では、CPU134は、IO処理プログラム136により、パス管理テーブル138を読み出して、受信したデータ入出力処理要求の宛先のパス識別子176が格納されているエントリ138(a〜n)を特定する。CPU134は、IO処理プログラム136により、特定したエントリ138(a〜n)の2番目のデータ格納部のデータを参照する。そして、CPU134は、特定したエントリ138(a〜n)の2番目のデータ格納部に「1」が格納されている場合、受信したデータの入出力処理要求の宛先のパス識別子176が監視中のパス識別子であると判定してS302の処理に進む。一方、CPU134は、特定したエントリ138(a〜n)の2番目のデータ格納部に「0」が格納されている場合、受信したデータ入出力処理要求の宛先のパス識別子176を監視する必要がないと判定してS306の処理に進む。なお、本例では、CPU134は、「パス識別子176b」宛てのデータ入出力処理の要求を受け付けた場合に、S302の処理に進む。また、CPU134は、「パス識別子176a」宛てのデータ入出力処理の要求を受け付けた場合に、S306の処理に進む。
S302では、CPU134は、IO処理プログラム136により、パス識別子176bに対応する論理ボリューム131aへの入出力要求を一時保留する処理を行う。具体的には、CPU134は、IO処理プログラム136により、論理ボリューム管理テーブル139の対応するエントリ139aの2番目のデータ格納部139a2に「1」を格納する。
その後、CPU134は、構成制御プログラム125へ処理を移し、ペア分割処理を行い、論理ボリューム管理テーブル139の対応するエントリ139aの3番目のデータ格納部139a3に「2」を格納する(S303)。
CPU134は、ペア分割処理の完了後、IO処理プログラム136へ処理を移し、パス識別子176bの監視を解除する(S304)。すなわち、CPU134は、IO処理プログラムにより、パス識別子管理テーブル138のパス識別子176bを格納しているエントリ138bのデータ格納部138b2に「0」を格納する。
続いて、CPU134は、IO処理プログラム136により、論理ボリューム131aへのデータ入出力処理要求の一時保留を解除する(S305)。具体的には、CPU134は、論理ボリューム管理テーブル139の対応するエントリ139aの2番目のデータ格納部139a2に「0」を格納する。
その後、CPU134は、稼働中のIO処理プログラム136により、受け付けた入出力処理を行う(S306)。具体的には、CPU134は、IO処理プログラム136により、入出力先のディスク装置133の特定とデータの読み書きを行う。
続いて、CPU134は、稼働中のIO処理プログラム136により、受け付けた入出力処理要求がデータの書込み要求であって、かつ該論理ボリューム131aに副ボリューム131bがスナップショットのペアとして定義されているか否かを判定する。そして、CPU134は、上記データ入出力処理の要求がデータの書込み要求であって、かつ該論理ボリューム131aに副ボリューム131bがスナップショットのペアとして定義されている場合にS308に進み、それ以外は処理を終了する。
S308では、CPU134は、稼働中のIO処理プログラム136により、定義されたペアがペア分割されているか否かを判定する。CPU134は、上記の判定によりペア分割されていると判定した場合にS309に進み、ペア分割されていないと判定した場合にS310に進む。具体的には、CPU134は、論理ボリューム管理テーブル139の対応するエントリ139aの3番目のデータ格納部139a3に「2」が格納されている場合に、定義されたペアが分割されていると判定する。一方、CPU134は、上記対応するエントリ139aの3番目のデータ格納部139a3に「1」が格納されている場合に、定義されたペアが分割されていないと判定する。
S309では、CPU134は、稼働中のIO処理プログラム136により、差分蓄積を行い、処理を完了する。一方、S310では、CPU134は、IO処理プログラム136により、副ボリューム131bへのコピーを行い、処理を完了する。
なお、ステップ301において監視中のパス識別子176b宛でない場合、上述したステップ306以降の処理を実行し、処理を完了する。
以上に述べたように、本実施形態でホスト計算機12は、論理ボリューム131aへのパス切り替え、すなわちデータ入出力処理要求の宛先をパス識別子176aからパス識別子176bに変更することで、ストレージ装置13にペア分割の指示を出す。ストレージ装置13では、パス識別子176b宛のデータ入出力処理の要求を受け付けた場合、その入出力処理前にペア分割処理を行い、ペア分割処理の完了後に入出力処理を行う。このため、ペア分割処理前に、ペア分割指示後のデータ入出力処理の要求が正ボリューム131aに対して処理されることが無い。すなわち、本実施形態では、ペア分割を行いたい際の副ボリュームのデータをバックアップデータとして取得することができる。したがって、本実施形態では、ホスト計算機12は、ペア分割処理自体の完了待ち合わせを行う必要をなくすことができる。
なお、ペア分割を戻して正ボリュームに蓄積された差分を副ボリュームに反映する操作(これをペア再同期化と呼ぶ)は、待ち合わせの必要がないため、従来通りの方法で良く、その処理内容はここでは特に説明しない。
さらに、再同期化後のペア分割処理は、以下の処理を行うことで実現することができる。再同期化後のペア分割処理について図2を用いて説明する。
具体的には、CPU121は、パス管理プログラム126(CPU121が制御プログラム125を実行して呼び出す)を実行して、パス管理テーブル128のデータを更新する。すなわち、CPU121は、デバイス名175aが格納されたエントリ128aのデータ格納部128a4に格納されているパス識別子176群から、エントリ128aのデータ格納部128a3に格納されているパス識別子176b以外のパス識別子176を選択する(図2では、パス識別子176a)。CPU121は、選択したパス識別子176をエントリ128aの2番目データ格納部128a2に格納する。
その後、CPU121は、パス識別子176b宛の入出力の完了を待ち(例えば、十分に長い時間待つ)、ストレージ装置13の制御装置132に対し、パス識別子176bを監視対象にするよう依頼する。依頼を受けた制御装置132では、CPU134が構成制御プログラム137を呼び出し、パス識別子管理テーブル138において該パス識別子176bに対応するエントリ138bの2番目のデータ格納部138b2に「1」を格納する。
<第2実施形態>
次に、本発明の第2実施形態について説明する。
第2実施形態は、第1実施形態と以下の処理が異なる以外は、同じである。具体的には、第2実施形態では、パス識別子172bはシステム管理者が指定し、管理サーバ16のCPU161が管理プログラム163を実行する際に、ストレージ装置13に対して指定する。
CPU134は、構成制御プログラム137を実行して、管理サーバ16からパス識別子172bを受け取り、ペア定義をした後にパス識別子172bを論理ボリューム131aに割当てる。
このように、パス識別子172bをシステム管理者が指定することで、OS127の種類によってパス識別子172bを扱えない場合、例えばLUNの上限値を超えてしまう場合などに対応することができる。
なお、本発明は以上で説明した実施形態に限定されるものではなく、本発明の要旨の範囲内において種々の変形が可能である。例えば、本実施形態の説明では、ホスト計算機12がパス識別子176b宛てのデータ入出力要求をストレージ装置13に行った場合に、ストレージ装置13は、データ入出力処理に先立って、ペア分割処理を行うこととしているが、特にこれに限定されるものではない。データ入出力処理に先立って行う処理は、ストレージ装置13内で行われる他の処理でもかまわない。
また、本実施形態の説明では、データ入出力処理に先立って、ペア分割処理を行わせるためのパス識別子として1種類の「パス識別子176b」を設定する場合を説明したが特にこれに限定するものではない。例えば、データ入出力処理と同期を取る必要があるストレージ装置内の処理が複数ある場合、データ入出力処理と同期を取る必要がある処理毎にパス識別子176を論理ボリューム131に割り当てるようにしてもよい。
また、本実施形態の説明では、パス識別子176を変更するタイミングについて、分割処理を行いたいタイミングを例にしたが、特にこれに限定するものではない。例えば、管理者からの指示により、ホスト計算機12のパス識別子176を変更するようにしてもよい。
本発明の実施形態の計算機システムの全体構成を示す図である。 本実施形態の各プログラムの動作原理を示す概念図である。 本実施形態のホスト計算機が行う入出力処理要求処理およびスナップショットのペア分割要求を行う際の処理のフローチャートである。 本実施形態のストレージ装置が行う入出力処理およびペア分割処理のフローチャートである。
符号の説明
12…ホスト計算機、13…ストレージ装置、14…管理コンソール、15…LAN、16…管理サーバ、17…SANリンク、121…CPU、122…メモリ、124…AP、125…制御プログラム、126…パス管理プログラム、127…OS、131…論理デバイス、133…ディスク装置、134…CPU、135…メモリ、136…IO処理プログラム、137…構成制御プログラム、151…LANI/F、161…CPU、162…メモリ、163…管理プログラム、171…SANI/F、172…SANI/F、176…パス識別子

Claims (14)

  1. 少なくとも1台のホスト計算機と、前記ホスト計算機にネットワークを介して接続されている、少なくとも1台のストレージ装置とを有する計算機システムにおけるデータ入出力処理方法であって、
    前記ストレージ装置は、少なくとも1個の論理ボリュームを有し、該論理ボリュームには、該論理ボリュームに対する固有のパスであって、かつ第1および第2の2つの異なるパスが割り当てられていて、
    前記ホスト計算機は、
    ストレージ装置に対して、前記第1および第2のパスのいずれか一方を用いて、前記論理ボリュームに対するデータ入出力処理を要求するステップを実行し、
    前記ストレージ装置は、
    前記第1のパスによるデータ入出力処理の要求を受け付けた場合、該第1のパスにより特定される論理ボリュームに対するデータ入出力処理を行うステップと、
    前記第2のパスによるデータ入出力処理の要求を受け付けた場合、該受け付けたデータ入出力処理に先立って所定の処理を行い、その後、該第2のパスにより特定される論理ボリュームに対するデータ入出力処理を行うステップと、を実行すること
    を特徴とする計算機システムにおけるデータ入出力処理方法。
  2. 請求項1に記載の計算機システムにおけるデータ入出力方法であって、
    前記ストレージ装置は、
    前記論理ボリュームを正ボリュームとして、該正ボリュームに対する副ボリュームを生成し、該正ボリュームおよび副ボリュームをペアで管理するステップを有し、
    前記所定の処理とは、前記正ボリュームおよび副ボリュームのペアを分割するペア分割処理であること
    を特徴とする計算機システムにおけるデータ入出力方法。
  3. 請求項2に記載の計算機システムにおけるデータ入出力方法であって、
    前記ホスト計算機は、
    ペア分割処理の要求を受け付けた場合、該ペア分割処理の要求を行う代わりに前記論理ボリュームに対するデータ入出力処理を要求する際に用いるパスを前記第2のパスに設定するステップを実行すること
    を特徴とする計算機システムにおけるデータ入出力方法。
  4. 請求項1〜3のいずれか一項に記載の計算機システムにおけるデータ入出力方法であって、
    前記第1のパスおよび第2のパスは、少なくともSCSIのLUN(Logical Unit Number)を含む識別子であって、
    前記第1のパスと第2のパスとは、前記LUNが異なること
    を特徴とする計算機システムにおけるデータ入出力方法。
  5. 請求項1〜3のいずれか一項に記載の計算機システムにおけるデータ入出力方法であって、
    前記ホスト計算機は、インタフェースを有し、該インタフェースを介して前記ネットワークに接続されていて、
    前記1のパスおよび第2のパスは、少なくとも、前記ホスト計算機が有するインタフェースに割り当てられたPortIDを含み、
    前記第1のパスと第2のパスとは、前記PortIDが異なること
    を特徴とする計算機システムにおけるデータ入出力方法。
  6. 請求項1〜3のいずれか一項に記載の計算機システムにおけるデータ入出力方法であって、
    前記ストレージ装置は、インタフェースを有し、該インタフェースを介してネットワークに接続されていて、
    前記1のパスおよび第2のパスは、少なくとも、前記ストレージ装置が有するインタフェースに割り当てられたPortIDを含み、
    前記第1のパスと第2のパスとは、前記PortIDが異なること
    を特徴とする計算機システムにおけるデータ入出力方法。
  7. 少なくとも1台のホスト計算機にネットワークを介して接続されているストレージ装置であって、
    少なくとも1個の論理ボリュームを有し、該論理ボリュームには、該論理ボリュームに対する固有のパスであって、かつ第1および第2の2つの異なるパスが割り当てられていて、
    前記ホスト計算機からの前記第1のパスによるデータ入出力処理の要求を受け付けた場合、第1のパスにより特定される論理ボリュームに対するデータ入出力処理を行う手段と、
    前記ホスト計算機からの前記第2のパスによるデータ入出力処理の要求を受け付けた場合、該受け付けたデータ入出力処理に先立って所定の処理を行い、その後、該第2のパスにより特定される論理ボリュームに対するデータ入出力処理を行う手段とを有すること
    を特徴とするストレージ装置。
  8. 請求項7に記載のストレージ装置であって、
    前記論理ボリュームを正ボリュームとして、該正ボリュームに対する副ボリュームを生成し、該正ボリュームおよび副ボリュームをペアで管理する手段を有し、
    前記所定の処理とは、前記正ボリュームおよび副ボリュームのペアのペア分割処理であること
    を特徴とするストレージ装置。
  9. 少なくとも1台のストレージ装置にネットワークを介して接続されているホスト計算機であって、
    前記ストレージ装置は、少なくとも1個の論理ボリュームを有し、該論理ボリュームには、該論理ボリュームに対する固有のパスであって、かつ第1および第2の2つの異なるパスが割り当てられていて、
    前記ホスト計算機は、
    前記ストレージ装置にデータ入出力処理を行わせる場合、前記第1のパスを用いてデータ入出力処理の要求を行い、前記ストレージ装置にデータ入出力処理に先立って所定の処理を行わせ、その後、データ入出力処理を行わせる場合、前記第2のパスを用いてデータ入出力処理の要求を行う手段を有すること
    を特徴とするホスト計算機。
  10. 請求項9に記載のホスト計算機であって、
    前記所定の処理とは、スナップショットのペア分割処理であること
    を特徴とするホスト計算機。
  11. 請求項10に記載のホスト計算機であって、
    ペア分割処理の要求を受け付けた場合、該ペア分割処理の要求を行う代わりに前記論理ボリュームに対するデータ入出力処理を要求する際に用いるパスを前記第2のパスに設定する手段を有すること
    を特徴とするホスト計算機。
  12. 少なくとも1台のホスト計算機と、前記ホスト計算機にネットワークを介して接続されている、少なくとも1台のストレージ装置とを有する計算機システムであって、
    前記ストレージ装置は、少なくとも1個の論理ボリュームを有し、該論理ボリュームには、該論理ボリュームに対する固有のパスであって、かつ第1および第2の2つの異なるパスが割り当てられていて、
    前記ホスト計算機は、
    ストレージ装置に対して、前記第1および第2のパスのいずれか一方を用いて、前記論理ボリュームに対するデータ入出力処理を要求する手段を有し、
    前記ストレージ装置は、
    前記第1のパスによるデータ入出力処理の要求を受け付けた場合、該第1のパスにより特定される論理ボリュームに対するデータ入出力処理を行う手段と、
    前記第2のパスによるデータ入出力処理の要求を受け付けた場合、該受け付けた入出力処理に先立って所定の処理を行い、その後、該第2のパスにより特定される論理ボリュームに対するデータ入出力処理を行う手段とを有すること
    を特徴とする計算機システム。
  13. 請求項12に記載の計算機システムであって、
    前記ストレージ装置は、
    前記論理ボリュームを正ボリュームとして、該正ボリュームに対する副ボリュームを生成し、正ボリュームおよび副ボリュームのペアで管理する手段を有し、
    前記所定の処理とは、前記正ボリュームおよび副ボリュームのペアのペア分割処理であること
    を特徴とする計算機システム。
  14. 請求項13に記載の計算機システムであって、
    前記ホスト計算機は、
    ペア分割処理の要求を受け付けた場合、該ペア分割処理の要求を行う代わりに前記論理ボリュームに対するデータ入出力処理を要求する際に用いるパスを前記第2のパスに設定する手段を有すること
    を特徴とする計算機システム。
JP2004120201A 2004-04-15 2004-04-15 計算機システムにおけるデータ入出力処理方法、ストレージ装置、ホスト計算機、および計算機システム、 Pending JP2005301880A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004120201A JP2005301880A (ja) 2004-04-15 2004-04-15 計算機システムにおけるデータ入出力処理方法、ストレージ装置、ホスト計算機、および計算機システム、
US10/855,589 US7191278B2 (en) 2004-04-15 2004-05-28 Method for data accessing in a computer system including a storage system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004120201A JP2005301880A (ja) 2004-04-15 2004-04-15 計算機システムにおけるデータ入出力処理方法、ストレージ装置、ホスト計算機、および計算機システム、

Publications (1)

Publication Number Publication Date
JP2005301880A true JP2005301880A (ja) 2005-10-27

Family

ID=35097636

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004120201A Pending JP2005301880A (ja) 2004-04-15 2004-04-15 計算機システムにおけるデータ入出力処理方法、ストレージ装置、ホスト計算機、および計算機システム、

Country Status (2)

Country Link
US (1) US7191278B2 (ja)
JP (1) JP2005301880A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007293422A (ja) * 2006-04-21 2007-11-08 Hitachi Ltd ネットワークブート計算機システムの高信頼化方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7761412B2 (en) * 2005-04-22 2010-07-20 Microsoft Corporation Synchronization move support systems and methods
JP2007072571A (ja) * 2005-09-05 2007-03-22 Hitachi Ltd 計算機システム及び管理計算機ならびにアクセスパス管理方法
WO2007097036A1 (ja) * 2006-02-27 2007-08-30 Fujitsu Limited 中央処理装置、中央処理装置の制御方法、情報処理システム
US7904681B1 (en) * 2006-06-30 2011-03-08 Emc Corporation Methods and systems for migrating data with minimal disruption
US20090106319A1 (en) * 2007-10-22 2009-04-23 Kabushiki Kaisha Toshiba Data management apparatus and data management method
JP5199464B2 (ja) * 2009-01-20 2013-05-15 株式会社日立製作所 ストレージシステム及びストレージシステムの制御方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5555371A (en) * 1992-12-17 1996-09-10 International Business Machines Corporation Data backup copying with delayed directory updating and reduced numbers of DASD accesses at a back up site using a log structured array data storage
US6631477B1 (en) 1998-03-13 2003-10-07 Emc Corporation Host system for mass storage business continuance volumes
US6513097B1 (en) * 1999-03-03 2003-01-28 International Business Machines Corporation Method and system for maintaining information about modified data in cache in a storage system for use during a system failure
EP1058190B1 (en) 1999-06-01 2010-02-24 Hitachi, Ltd. Data backup method
JP2003316522A (ja) 2002-04-26 2003-11-07 Hitachi Ltd 計算機システムおよび計算機システムの制御方法
JP2004164318A (ja) 2002-11-13 2004-06-10 Hitachi Ltd バックアップデータの世代管理方法およびこの方法に用いる記憶制御装置
JP4704660B2 (ja) 2002-12-18 2011-06-15 株式会社日立製作所 記憶デバイス制御装置の制御方法、記憶デバイス制御装置、及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007293422A (ja) * 2006-04-21 2007-11-08 Hitachi Ltd ネットワークブート計算機システムの高信頼化方法

Also Published As

Publication number Publication date
US7191278B2 (en) 2007-03-13
US20050235074A1 (en) 2005-10-20

Similar Documents

Publication Publication Date Title
JP4728031B2 (ja) リモートコピーペアの移行を行うシステム
JP4703959B2 (ja) 記憶装置システムおよびそのレプリケーション作成方法
US8001351B2 (en) Data migration method and information processing system
US7707186B2 (en) Method and apparatus for data set migration
JP4282464B2 (ja) リモートコピーシステム
EP1814035B1 (en) Storage controller and data management method
US8667241B2 (en) System for data migration from a storage tier allocated to a virtual logical volume
JP4341897B2 (ja) 記憶装置システム及びデータ複製方法
JP4382602B2 (ja) リモートコピーシステム
JP2007058728A (ja) データ移行方式
US8589642B2 (en) Computer system duplicating writes by synchronous remote copy with multiple host computers using heterogeneous operating systems
JP4741304B2 (ja) データマイグレーション方法又はデータマイグレーションシステム
JP4920979B2 (ja) ストレージ装置及びその制御方法
US20100036896A1 (en) Computer System and Method of Managing Backup of Data
JP2006113895A (ja) ストレージ装置の導入方法、プログラム並びに管理計算機
JP2004227558A (ja) 仮想化制御装置およびデータ移行制御方法
US7685129B1 (en) Dynamic data set migration
JP2010079626A (ja) 計算機システムの負荷分散方法及びシステム
JP2004295465A (ja) 計算機システム
JP5409799B2 (ja) リモートコピーシステム及びリモートコピー制御方法
JP4818843B2 (ja) リモートコピーを行うストレージシステム
JP2004302556A (ja) 複数の計算機システム間でのデータ共有方法およびディスク制御装置
JP2007048323A (ja) 仮想化制御装置およびデータ移行制御方法
JP2005018509A (ja) 記憶システム、バックアップシステム及びバックアップ方法
JP2005301880A (ja) 計算機システムにおけるデータ入出力処理方法、ストレージ装置、ホスト計算機、および計算機システム、