JP2014049116A - 仮想ストレージシステムの管理方法およびリモートコピーシステム - Google Patents

仮想ストレージシステムの管理方法およびリモートコピーシステム Download PDF

Info

Publication number
JP2014049116A
JP2014049116A JP2013009839A JP2013009839A JP2014049116A JP 2014049116 A JP2014049116 A JP 2014049116A JP 2013009839 A JP2013009839 A JP 2013009839A JP 2013009839 A JP2013009839 A JP 2013009839A JP 2014049116 A JP2014049116 A JP 2014049116A
Authority
JP
Japan
Prior art keywords
logical volume
volume
primary
virtual
remote copy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013009839A
Other languages
English (en)
Other versions
JP2014049116A5 (ja
JP6141644B2 (ja
Inventor
Akira Deguchi
彰 出口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of JP2014049116A publication Critical patent/JP2014049116A/ja
Publication of JP2014049116A5 publication Critical patent/JP2014049116A5/ja
Application granted granted Critical
Publication of JP6141644B2 publication Critical patent/JP6141644B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0614Improving the reliability of storage systems
    • G06F3/0619Improving the reliability of storage systems in relation to data integrity, e.g. data losses, bit errors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1446Point-in-time backing up or restoration of persistent data
    • G06F11/1456Hardware arrangements for backup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2056Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring
    • G06F11/2058Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring using more than 2 mirrored copies
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0662Virtualisation aspects
    • G06F3/0665Virtualisation aspects at area level, e.g. provisioning of virtual or logical volumes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • G06F3/0689Disk arrays, e.g. RAID, JBOD
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2056Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2056Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring
    • G06F11/2071Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring using a plurality of controllers
    • G06F11/2074Asynchronous techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2056Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring
    • G06F11/2071Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring using a plurality of controllers
    • G06F11/2076Synchronous techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/815Virtual
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/855Details of asynchronous mirroring using a journal to transfer not-yet-mirrored changes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Computer Security & Cryptography (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】
リモートコピーシステムを有するストレージシステムを管理する技術であって、複雑な作業を自動化することで管理の容易性を向上する。
【解決手段】
本発明のコンピュータは、メモリとコントローラからなる。コントローラは、サーバに提供される仮想ボリュームを管理し、複数のストレージシステムから提供される複数の論理ボリュームを管理し、前記仮想ボリュームに必要な条件を管理し、条件は仮想ボリュームに送られるデータの保管される位置に関するものであり、複数の論理ボリュームの各々の位置情報を管理し、各論理ボリュームの位置情報は論理ボリュームの位置に基づいて規定され、仮想ボリュームの条件および複数の論理ボリュームの位置情報に基づいて、仮想ボリュームを複数の論理ボリュームのうちの一つの論理ボリュームにマッピングするよう制御される。
【選択図】図1

Description

0001 本発明はストレージシステムに関し、特に、ストレージシステムのリモートコピーシステムおよびリモートコピーシステム技術の適用を容易とする技術に関する。
0002 特許文献1(米国特許公開第2007/0079088号公報)は、一つ以上の物理ストレージシステムを相互に接続した仮想ストレージを有するサーバを提供する技術を開示している。特に、ここに開示される技術は、複数のストレージシステムを相互に接続することにより、他の物理ストレージシステムの資源を利用可能とする。さらに、仮想ストレージシステム(一つ以上の物理ストレージシステム)において、記憶領域(ボリューム)の固有IDが提供される。固有IDはグローバルボリュームIDと呼ばれる。ボリュームが物理ストレージシステム間で移動された場合でも、サーバに供されるボリュームIDは変わらない。
0003 特許文献2(米国特許公開第2008/0034005号公報)は、仮想ストレージシステムを開示している。ストレージシステムの多くの製品は、災害復旧のためのリモートコピー機能を有する。リモートコピー機能では、正ストレージシステムに保存されたデータを副ストレージシステムにコピーする。オペレータは、リモートコピーを初期化する前に、コピー先ボリュームの作成やリモートコピーパスの構成などといった、副物理ストレージシステムの準備を行わねばならない。
0004 特許文献3(米国特許第7、680、919号公報)は、仮想サーバに関する技術を開示している。この技術によると、一つの物理マシンに一つ以上の仮想サーバを作成する。さらに、特許文献3は仮想サーバを物理サーバ間で移動する技術を開示する。
米国特許公開第2007/0079088号公報 米国特許公開第2008/0034005号公報 米国特許第7、680、919号公報
0005 従来の仮想ストレージシステムにおけるボリューム作成は、ローカルボリュームIDを有する物理ストレージシステムにおけるボリュームの作成、グローバルボリュームIDの設定、およびサーバへのボリュームの提供の順に行われる。オペレータは上記構成のために、物理ストレージシステムを認識していなければならない。特定されたグローバルボリュームIDに基づいて自動的に物理記憶領域を決定する技術は提供されていない。そのため、高い作業コストが必要となる。さらに、データセンター(DC)を超えた仮想ストレージシステムについては想定されていないため、最適なデータセンターに設置された物理ストレージシステム(例えば、サーバが設置されているのと同じデータセンターに設置された物理ストレージシステム)を選択する技術はない。従来の仮想ストレージシステムを複数のデータセンターを有する環境に適用した場合、DCを超えた処理が発生する。これにより、パフォーマンスが低下し、DC間のネットワーク資源が消費される。
0006 従来のリモートコピーは、二組のストレージシステムから構成される。そのため、単に従来のリモートコピーを仮想ストレージシステム環境に適用する場合、リモートコピーは二組の仮想ストレージシステムから構成される。その場合、二組の仮想ストレージシステムのそれぞれにリモートコピー設定が必要となる。前記設定は、物理ストレージシステム間の接続、データ転送のためのI/F(インタフェース)設定、コピー先ボリュームの作成、コピー先のボリュームIDの認識等を含む。データセンターを超えた仮想ストレージシステム環境が実現した場合、リモートコピー機能はその環境において、ローカルコピー機能としての役割を果たす。さらに、仮想ストレージシステムの接続がある場合、リモートコピーのための接続およびI/Fの設定は不要である。加えて、もしストレージシステムが仮想ボリューム技術を利用して自動的にボリュームを作成する場合、コピー先ボリュームの作成は不要である。さらに、コピー元とコピー先ボリュームのIDを同じIDとした場合、コピー先ボリュームIDの認識は必要なくなる。
0007 本発明の実施例として、リモートコピーシステムを含むストレージシステムを管理する技術および複雑な作業を自動化することにより該システムの管理容易性を向上する技術を提供する。
0008 本発明の第一実施例は、仮想ストレージシステムにボリュームを作成する方法に関する。特に、サーバが設置されているのと同じデータセンターに設置される物理ストレージシステムから物理ストレージ容量を割り当てる技術に関する。
0009 本発明の第二実施例は、自動リモートコピー環境の構成方法に関する。一旦サーバの利用するボリュームについてリモートコピー属性が設定されると、ストレージシステムはリモートコピー処理に必要とされる、コピー先ボリューム(副ボリューム、SVOL)やストレージシステム間の帯域といった資源を自動的に取得する。さらに、サーバに提供されるコピー元ボリューム(正ボリューム、PVOL)のボリュームIDとSVOLのボリュームIDは同じである。PVOL障害が発生したとき、単にPVOLからSVOLへのI/Oパスを変更することにより、I/O処理を再開することができる。従来の技術のように異なるIDを有するSVOLにI/O処理を変更する必要がないため、アプリケーションに対する影響がない。加えて、一つのストレージ構成における障害回復処理と複数のストレージ構成における障害回復処理は同じでよい。
0010 本発明の第三実施例は、リモートコピーの自動回復方法、および上記技術を3つのデータセンター間のリモートコピー構成に適用する方法に関する。
0011 本発明の一つ目の特徴によると、コンピュータはメモリおよびコントローラを有する。前記コントローラは、サーバに提供される仮想ボリュームを管理し、複数のストレージシステムから提供される複数の論理ボリュームを管理し、前記仮想ボリュームに必要な条件を管理し、該条件は前記仮想ボリュームに送られるデータの保管される位置に関するものであり、前記複数の論理ボリュームの各々の位置情報を管理し、各論理ボリュームの位置情報は前記論理ボリュームの位置に基づいて規定され、前記仮想ボリュームの条件および複数の論理ボリュームの位置情報に基づいて、前記仮想ボリュームを前記複数の論理ボリュームのうちの一つの論理ボリュームにマッピングするよう制御される。
0012 いくつかの実施例によると、前記条件は、前記仮想ボリュームに送られるべきデータの位置する場所が、仮想ボリュームの提供されるサーバの位置する場所と同じであることを必要とし、仮想ボリュームに送られるべきデータの格納される位置が、前記仮想ボリュームにマッピングされた論理ボリュームの位置である。前記仮想ボリュームは正論理ボリュームにマッピングされ、正論理ボリュームは副論理ボリュームにマッピングされ、前記正論理ボリュームと前記副論理ボリュームはリモートコピーペアを構成し、異なる位置にマッピングされる。前記コントローラは、前記各論理ボリュームの位置情報と、前記副論理ボリュームに要求される条件と、前記複数の論理ボリュームの位置する場所の間の距離に関する距離情報とに基づいて、自動的に正論理ボリュームを副論理ボリュームにマッピングするよう制御し、前記副論理ボリュームに要求される条件は、少なくとも空き容量か、正論理ボリュームとの接続性を含む。前記コントローラは、自動的に正論理ボリュームのジャーナルを格納するための正ジャーナルボリュームと副ジャーナルボリュームを作成し、前記正ジャーナルボリュームから前記副ジャーナルボリュームへジャーナルをコピーし、前記副ジャーナルボリュームから副論理ボリュームへジャーナルをコピーするよう制御することにより、非同期リモートコピーを達成する。
0013 ある実施例において、前記正論理ボリュームは前記副論理ボリュームおよび第三の論理ボリュームにマッピングされ、前記正論理ボリューム、前記副論理ボリュームおよび第三の論理ボリュームはリモートコピー関係にあり、3つの異なる位置にマッピングされる。前記コントローラは、前記各論理ボリュームの位置情報と、前記副論理ボリュームに要求される条件と、前記第三の論理ボリュームに要求される条件と、前記複数の論理ボリュームの位置する場所の間の距離に関する距離情報に基づいて、自動的に前記正論理ボリュームを前記副論理ボリュームおよび前記第三の論理ボリュームにマッピングするよう制御され、前記副論理ボリュームに要求される条件は、少なくとも空き容量か、正論理ボリュームとの接続性のうちの一つを含み、前記第三の論理ボリュームに要求される条件は、少なくとも空き容量か、リモートコピーがカスケードリモートコピーの場合は副論理ボリュームとの接続性、およびリモートコピーがカスケードリモートコピーではない場合は正論理ボリュームとの接続性のうちの一つを含む。
0014 いくつかの実施例において、前記コントローラは、前記正論理ボリュームとの間のI/O(入力/出力)障害の際に、前記サーバと前記正論理ボリューム間のI/Oパスから前記サーバと前記副論理ボリューム間の別のI/Oパスに自動的にI/Oを変更し、前記副論理ボリュームの状態が、I/O受け取り不能状態からI/O受け取り可能状態へ変更するよう制御する。
0015 特定の実施例において、前記コントローラは、前記正論理ボリュームとの間のI/O(入力/出力)障害の際に、自動的に前記サーバからのデータを使用するアプリケーションを実行するためのバーチャルマシンを移行先サーバに移行し、前記サーバと前記正論理ボリューム間のI/Oパスから前記サーバと前記副論理ボリューム間の別のI/Oパスに自動的にI/Oを変更し、前記副論理ボリュームの状態が、I/O受け取り不能状態からI/O受け取り可能状態へ変更される。
0016 いくつかの実施例において、前記コントローラは、前記正論理ボリュームとの間のI/O(入力/出力)障害の際に、前記各論理ボリュームの位置情報と、自動回復副論理ボリュームに要求される条件と、前記複数の論理ボリュームの位置する場所の間の距離に関する距離情報に基づいて、自動的に自動回復リモートコピーペアとして、前記副論理ボリュームを自動回復副論理ボリュームへマッピングし、前記自動回復副論理ボリュームに要求される条件は、少なくとも空き容量か、副論理ボリュームとの接続性のうちの一つを含む。
0017 特定の実施例において、前記仮想ボリュームは一つ以上の正論理ボリュームを有する正コンシステンシグループの中の一つの正論理ボリュームにマッピングされ、前記正コンシステンシグループは一つ以上の副論理ボリュームを有する副コンシステンシグループにマッピングされ、前記正コンシステンシグループと前記副コンシステンシグループは一つ以上のリモートコピーペアを提供し、異なる位置にマッピングされる。前記コントローラは、前記各論理ボリュームの位置情報と、前記副論理ボリュームに要求される条件と、前記複数の論理ボリュームの位置する場所の間の距離に関する距離情報に基づいて、前記正コンシステンシグループの正論理ボリュームを前記副コンシステンシグループの副論理ボリュームに自動的にマッピングし、前記副論理ボリュームに要求される条件は、少なくとも空き容量か、正論理ボリュームとの接続性のうちの一つを含む。
0018 本発明の別の特徴によると、システムはコンピュータおよび複数のストレージシステムを有し、前記コンピュータはメモリおよびコントローラを有する。前記コントローラは、サーバに提供される仮想ボリュームを管理し、前記複数のストレージシステムから提供される複数の論理ボリュームを管理し、前記仮想ボリュームに必要な条件を管理し、該条件は前記仮想ボリュームに送られるデータの保管される位置に関するものであり、前記複数の論理ボリュームの各々の位置情報を管理し、各論理ボリュームの位置情報は前記論理ボリュームの位置に基づいて規定され、前記仮想ボリュームの条件および複数の論理ボリュームの位置情報に基づいて、前記仮想ボリュームを前記複数の論理ボリュームのうちの一つの論理ボリュームにマッピングするよう制御される。
0019 いくつかの実施例において、前記仮想ボリュームは正論理ボリュームにマッピングされ、正論理ボリュームは副論理ボリュームにマッピングされ、前記正論理ボリュームと前記副論理ボリュームはリモートコピーペアを構成し、異なる位置にマッピングされる。前記コントローラは、前記正論理ボリュームとの間のI/O(入力/出力)障害の際に、自動的に前記サーバからのデータを使用するアプリケーションを実行するためのバーチャルマシンを移行先サーバに移行し、前記サーバと前記正論理ボリューム間のI/Oパスから前記移行先サーバと前記副論理ボリューム間の別のI/Oパスに自動的にI/Oを変更する。前記副論理ボリュームを提供するストレージシステムは、前記副論理ボリュームの状態を、I/O受け取り不能状態からI/O受け取り可能状態へ変更するよう構成される。
0020 本発明のさらに別の特徴によると、データストレージを管理するようデータプロセッサを制御するための複数の指示を格納するコンピュータで読み取り可能なストレージ媒体に関する。前記複数の指示は、データプロセッサに対し、サーバに提供される仮想ボリュームを管理させるための指示と、データプロセッサに対し、複数のストレージシステムから提供される複数の論理ボリュームを管理させる指示と、データプロセッサに対し、前記仮想ボリュームに必要な条件を管理させる指示と、ここで該条件は前記仮想ボリュームに送られるデータの保管される位置に関するものであり、データプロセッサに対し、前記複数の論理ボリュームの各々の位置情報を管理させる指示と、ここで各論理ボリュームの位置情報は前記論理ボリュームの位置に基づいて規定され、データプロセッサに対し、前記仮想ボリュームの条件および複数の論理ボリュームの位置情報に基づいて、前記仮想ボリュームを前記複数の論理ボリュームのうちの一つの論理ボリュームにマッピングするよう制御する指示からなる。
0073 本発明では、最適な物理記憶領域は、上述した処理においてサーバがグローバルボリュームIDを特定したときに決定される。仮想ストレージシステムが複数のデータセンターにある物理ストレージシステムを含む場合も、I/O待ち時間を遅延させる物理ストレージシステムは選択されない。つまり、構成を実現させる設計にかかるコストや処理コストを削減できる。
0102 また、ユーザの作業は、グローバルボリュームIDの特定とリモートコピー機能の適用である。そのため、SVOLの準備やリモートコピーパスの構築等が不要となる。
0021 上述した本発明の特徴および効果、およびその他の特徴および効果は、後に述べる本発明の実施形態の詳細な説明から、当業者にとって明らかとなろう。
0022 本発明の方法および装置を適用可能なシステムのハードウェア構造の例を示す図である。 0023 第一実施例にかかる管理サーバ内のメモリ(M)の例を示す詳細なブロック図である。 0024 管理サーバ内で管理されるサーバサイト管理テーブルの例を示す図である。 0025 管理サーバ内で管理されるストレージサイト管理テーブルの例を示す図である。 0026 第一実施例にかかる物理ストレージシステム内のメモリ(S)の例を示す詳細なブロック図である。 0027 物理ストレージシステム内で管理されるグローバルID管理テーブルの例を示す図である。 0028 ボリューム作成処理のフローを示すフロー図の例である。 0029 同期リモートコピー処理のリモートコピー構成の例を示す図である。 0030 非同期リモートコピー処理のリモートコピー構成の例を示す図である。 0031 第二実施例にかかる物理ストレージシステム内のメモリ(S)の例を示す詳細なブロック図である。 0032 第二実施例にかかる管理サーバ内のメモリ(M)の詳細なブロック図である。 0033 物理ストレージシステムのメモリ(S)内の正ストレージペアテーブルの例を示す図である。 0034 物理ストレージシステムのメモリ(S)内の副ストレージペアテーブルの例を示す図である。 0035 物理ストレージシステム内で管理されるインフローテーブルの例を示す図である。 0036 管理サーバで管理されるサイト距離テーブルの例を示す図である。 0037 データ複製のための設定画面の例を示す図である。 0038 ペア作成処理フローを示すフロー図の例である。 0039 図17のペア作成プログラムから呼び出された副選択プログラムの処理フローを示すフロー図の例である。 0040 非同期リモートコピーのペア作成処理フローを示すフロー図の別の例を示す図である。 0041 JVOLの必要容量を算出するJVOL容量プログラムの処理フローを示すフロー図の例である。 0042 副選択プログラムの処理フローを示すフロー図の別の例である。 0043 I/O障害後の処理を示す概念図である。 0044 PVOL障害後にSVOLへ発行された書き込み処理のフロー図の例を示す図である。 0045 PVOL障害後のサーバ変更およびそれに続くSVOLにかかる処理の変更を示す概念図である。 0046 PVOL障害後のバーチャルマシンの移行処理および移行先決定処理を示すフロー図例である。 0047 リモートコピーペアのコンシステンシグループを示す概念図である。 0048 コンシステンシグループを考慮に入れた副選択プログラムの処理フローの別の例を示す図である。 0049 リモートコピー構造の自動回復方法を示す概念図である。 0050 構造回復プログラムの処理フローの例を示すフロー図である。 0051 3つのデータセンター間リモートコピーのカスケード構造を示す概念図である。 0052 3つのデータセンター間リモートコピーのマルチターゲット構造を示す概念図である。 0053 3つのデータセンター間リモートコピーの設定画面の別の例を示す図である。 0054 3つのデータセンター間リモートコピーを考慮に入れたコピー先決定のための3データセンターコピー先選択プログラムの処理フローの例を示す図である。
0055 以下の本発明についての詳細な説明では、開示の一部を成すとともに本発明を実施する例示的な実施形態として示される添付図面を参照するが、本発明は図面の内容に限定されるものではない。図面において、類似する数字は複数の図面においてほぼ同様の構成要素を示すものである。また、留意すべき点として、詳細な説明では、以下の説明および図面に示される通り様々な実施の形態を示すが、本発明は本明細書において説明されかつ示される実施形態に限定されず、当業者が知っているであろう又は知るようになり得るその他の実施形態をも含む。本明細書における「一実施形態」、「本実施形態」、又は「上述の実施形態」の文言は、ある実施形態に関連して説明される特定の特性、構造又は特徴が、本発明の少なくとも一実施形態に含まれることを意味し、本明細書の様々な箇所において上記文言が使用されていても、必ずしもすべてが同一の実施形態を言及するものではない。さらに、以下の詳細な説明において、本発明の理解を深めるために、多くの具体的かつ詳細な記載がなされている。ただし、本発明を実施するためにこれらの具体的かつ詳細な内容すべてが必要なわけではないことは、当業者にとって明らかであろう。状況によっては、曖昧な記載を避けるために、周知の構造、材料、回路、プロセス及びインタフェースの詳細については説明しておらず、かつ/又はブロック図において図示していない場合もある。
0056 さらに、以下の詳細な説明の一部は、コンピュータ内のオペレーションのアルゴリズムおよび記号表現で示されている。これらのアルゴリズム記述及び記号表現は、データ処理分野の当業者がその新しいアイディアの本質を最も効果的に他の当業者に伝えるために使用する手段である。アルゴリズムとは、望ましい最終状態又は結果へと導く一連の定義されたステップである。本発明において、実施されるステップは、具体的な結果を達成するための相応量の物理的操作を必要とする。必ずしもそうとは限らないが、通常はかかる数量は、格納、転送、組み合わせ、比較その他の操作が可能な電気もしくは磁気信号又は命令の形態を取る。主に一般的な使用のために、上記の信号をビット、値、記号、文字、用語、数字、命令等として言及することが便利なことがある。但し、上記の及び類似の用語すべてが、適切な物理数量に関連付けられるものであり、かつ当該数量に適用される単に便利なラベルであることに留意すべきである。別段の記載がない限り、以下の解説から明らかなように、説明全体を通して、「処理」、「演算」、「計算」、「判断」、「表示」等の用語を用いた説明は、コンピュータシステムのレジスタ及びメモリもしくはレジスタ又はその他の情報記憶、送信もしくは表示装置の中の物理的数量として同等にあらわされるその他のデータに操作しかつ変換する、コンピュータシステム又はその他の情報処理装置の動作またはプロセスを含み得る。
0057 本発明は、本明細書における操作を実施する装置にも関する。この装置は、必要とされる目的のために特別に構築してもよく、又は一つ以上のコンピュータプログラムによって選択的に起動又は再構築された一つ以上の汎用コンピュータを含み得る。当該コンピュータプログラムは、光ディスク、磁気ディスク、読取専用記憶措置(ROM)、ランダムアクセスメモリ(RAM)、ソリッドステート装置及びドライブ、又は電子情報の格納に適したその他の種類の媒体等(但し、これらに限定されない)のコンピュータ読取可能記憶媒体に格納され得る。本明細書において提示するアルゴリズム及び態様は、特定のコンピュータ又はその他の装置とは本質的に関係していない。様々な汎用システムを、本明細書の教示に従ってプログラム及びモジュールと共に使用してもよく、又は望ましい方法を実施するためにより特化した装置を構築した方がよい場合も有り得る。さらに本発明は、特定のプログラミング言語を参照して説明されてはいない。当然のことながら、本明細書に記載されている通りに本発明の教示内容を実施するために、様々なプログラミング言語を使用してもよい。プログラミング言語の命令は、一つ以上の処理装置、例えば中央処理装置(CPU)、プロセッサ、又はコントローラによって実行され得る。
0058 下記に詳細に説明する本発明の実施例は、リモートコピーシステムを含むストレージシステムを管理する装置、方法およびコンピュータプログラムであって、複雑な作業を自動化することにより管理容易性を向上したものを提供する。
0059 下記の実施例では処理について説明をするが、いくつかの場合では「プログラム」が主語となっている。プログラムがプロセッサによって実行されている場合、所定の処理がプロセッサによって実行される。そのため、処理の主語はプロセッサであってもよい。プログラムを主語として説明する処理は、プログラムを実行するプロセッサによって実行される処理であってもよいし、プロセッサとともに提供される装置(たとえば制御装置、コントローラまたはストレージシステム)によって実行されてもよい。さらに、プロセッサがプログラムを実行するときに実行される一部またはすべての処理は、プロセッサに代わって、またはプロセッサとともに、ハードウェア回路によって実行されてもよい。
0061 図1は、本発明の方法および装置を適用可能なシステムのハードウェア構造の例を示す図である。本システムは、サーバ100と、管理サーバ300と、仮想ストレージシステム200を形成する一つ以上の物理ストレージシステム210(PDKC)とを有する。
0062 サーバは、CPU,メモリ、I/O(入力/出力)I/F等を有する。サーバは、オペレーティングシステムおよびソフトウェア、例えばデータベース管理システムを実行することによりサービスを提供する。データ管理システムによって処理されるデータは、ストレージシステム200に保存される。サーバ100は、ネットワーク110を介してストレージシステム200に接続される。
0063 ストレージシステム200を管理するよう構成された管理サーバ300は、ネットワーク310を介してストレージシステム200に接続される。管理サーバ300は、CPU、メモリ(M)301、入力/出力部、および管理I/Fを有する。メモリ(M)301は、管理用のプログラムを格納する。CPUは、管理プログラムを実行し、管理処理を行う。入力/出力部は、例えばマウス、キーボード、ディスプレイ等によって構成される。入力/出力部は、管理を実行するオペレータによって入力されるさまざまな種類の指示を受け取り、ディスプレイにさまざまな情報を表示する。管理ポートは、ストレージシステム200との通信を仲介する。管理サーバ300は、サーバ100に接続可能であり、サーバ100を管理することができる。
0064 物理ストレージシステム210において、I/O_I/F211はネットワーク110を介してサーバ100に接続され、サーバ100との通信を行う。管理I/F212はネットワーク310を介して管理サーバ300に接続され、管理サーバ300との通信を行う。プロセッサ213はメモリ(S)214のプログラムユニット2143に格納された各種プログラムを実行することによりさまざまな処理を行う。さらに、プロセッサ213は、メモリ(S)214の制御情報ユニット2141に格納された各種情報を利用してさまざまな処理を行う。メモリユニット(S)214は例えば、少なくとも1つのメモリデバイスからなり、制御情報を格納するための制御情報ユニット2141と、プログラムを格納するためのプログラムユニット2143と、キャッシュデータを格納するためのキャッシュメモリとしてのキャッシュユニット2145を有する。キャッシュユニット2145の容量は、一般的にボリューム217の容量より小さい。ディスクI/F215はバスを介して、物理ストレージ装置の例としての少なくとも一つのHDD216に接続される。データを管理するためのボリューム217は、例えば、HDD216の少なくとも一つの記憶領域からなる。物理ストレージ装置はHDDに限定されるわけではなく、例えば、SSD(Solid State Drive)やDVDであってもよい。さらに、少なくとも一つのHDD216はパリティグループの単位として集められ、RAID(Redundant Arrays of Independent Disks)などの高い信頼性を有する技術も利用することができる。物理ストレージシステム210は上記資源の一つ以上を有する。これらの資源は内部バス218を介して相互に接続される。
0065 仮想ストレージシステム200において、各物理ストレージシステム210はネットワーク219を介して相互に接続される。冗長化のため、ネットワーク219は多重化することができる。相互に接続された二つ以上の物理ストレージシステム210は、サーバ100に対して単一のストレージシステム(仮想ストレージシステム)として提供される。物理ストレージシステム210の仮想化を達成するために、固有ボリュームID割り当て方法および二つ以上の物理ストレージシステム210間で資源を共有する技術が必要となる。そのような技術は公知である。
0066 図2は、第一実施例にかかる管理サーバ300内のメモリ(M)301の例を示す詳細なブロック図である。制御情報ユニット302は、サーバサイト管理テーブル303とストレージサイト管理テーブル304を含む。これらのテーブルは、後述する処理に使用される情報を格納する。これらのテーブルの詳細を図3および図4に示す。同じデータセンターにあるサーバとストレージは、これらのテーブルを利用して検出できる。プログラムユニット305は、ストレージシステム200にボリューム作成を指示するためのボリューム作成プログラム(管理)306を有する。
0067 図3は、管理サーバ300内で管理されるサーバサイト管理テーブル303の例を示す図である。サーバIDは、コンピュータシステム内のサーバを固有に識別するためのIDである。サイトIDは、コンピュータシステム内のサイト(データセンター)を固有に識別するためのIDである。
0068 図4は、管理サーバ300で管理されるストレージサイト管理テーブル304の例を示す図である。PDKC_IDは、コンピュータシステム内の物理ストレージを固有に識別するためのIDである。サイトIDはコンピュータシステム内のサイト(データセンター)を固有に識別するためのIDである。
0069 図5は、第一実施例にかかる物理ストレージシステム210内のメモリ(S)214の例を示す詳細なブロック図である。制御情報ユニット2141は、グローバルID管理テーブル2142を含む。このテーブルは、後述する処理に使用される情報を格納する。このテーブルの詳細を図6に示す。プログラムユニット2143は、新しいボリュームを作成するためのボリューム作成プログラム(ストレージ)2144を含む。キャッシュユニット2145は、キャッシングのために用意される。
0070 図6は、物理ストレージシステム210によって管理されるグローバルID管理テーブル2142の例を示す図である。グローバルボリュームIDは、仮想ストレージシステム200内で固有にボリュームを識別するためのボリュームIDである。PDKC_IDは、コンピュータシステム内で物理ストレージシステム210を固有に識別するためのIDである。ローカルボリュームIDは物理ストレージシステム210内でボリュームを固有に識別するボリュームIDである。ボリュームサイズは、グローバルボリュームIDによって特定されるボリュームのサイズを示す。
0071 図7は、ボリューム作成処理フローを示すフロー図の例である。この処理は、ボリューム作成プログラム(管理)306およびボリューム作成プログラム(ストレージ)2144によって達成される。ステップS100において、ボリューム作成プログラム(管理)306は、管理サーバ300の入力/出力部を介してオペレータからのボリューム作成要求を受け取る。このとき、ボリューム作成プログラムは、サーバID、グローバルボリュームIDおよびボリュームサイズをパラメータとして受け取る。ステップS101において、ボリューム作成プログラム(管理)306は、サーバサイト管理テーブル303およびストレージサイト管理テーブル304を使って同一のサイトにある複数のPDKCを検出する。ステップS102において、ボリューム作成プログラム(管理)306は、特定のサイズのフリースペースを有する一つ以上のストレージシステムを検索する。ステップS103において、ボリューム作成プログラム(管理)306は、ボリューム作成をPDKCに指示する。二つ以上のPDKCがステップS102において検出された場合、最大のフリースペースを有するPDKCが選択されるか、またはもっとも負担の低いPDKCが選択される。あるいは、プログラムは条件を満足する最初のPDKCを見つけ次第、ステップS102が終了したと判断し、ステップS103に進む。
0072 指示を受け取ったボリューム作成プログラム(ストレージ)2144は、ボリュームを作成し、サーバIDによって特定されたサーバに接続されるI/O_I/Fにボリュームをマッピングする(ステップS200)。ここで作成されるボリュームは、仮想ボリュームであってもよい。仮想ボリューム技術により、サーバ100からデータが書き込まれた際に物理記憶領域を割り当てる。この技術は、多くのストレージ製品に実装されている。ボリューム作成後、ボリューム作成プログラム(ストレージ)2144は指示者に対し完了メッセージを送る(ステップS201)。ステップS104において、ボリューム作成プログラム(管理)306はPDKCから完了メッセージを受け取り、処理を終了する。
0073 最適な物理記憶領域は、上述した処理においてサーバがグローバルボリュームIDを特定したときに決定される。仮想ストレージシステムが複数のデータセンターにあるPDKCを含む場合も、I/O待ち時間を遅延させるPDKCは選択されない。つまり、構成を実現させる設計にかかるコストや処理コストを削減できる。
0075 第二の実施例は、仮想ストレージシステムを構成する物理ストレージシステムからリモートコピーのための資源を自動的に選択する方法に関する。この方法はまたリモートコピーのための自動構造、たとえばリモートコピーパスの構成や、転送データ記憶領域の作成を行う。リモートコピー機能は図8および図9を参照して説明する。リモートコピーは、二つのタイプ、すなわち同期リモートコピーと非同期リモートコピーに分類される。
0076 図8は、同期リモートコピー処理のリモートコピー構成の例を示す。正ストレージシステム600はリモートコピーのコピー元ストレージシステムであって、サーバの使用するデータを格納する正ボリューム(PVOL)601を含む。副ストレージシステム700はリモートコピーのコピー先ストレージシステムであり、PVOL601のコピーデータを格納する副ボリューム(SVOL)701を含む。PVOL601とSVOL701間の関係を、リモートコピーペアと呼ぶ。正ストレージシステム600と副ストレージシステム700はそれぞれデータ転送のための一つ以上のI/O_I/F602および702を有する。同期リモートコピー処理の際には、正ストレージシステム600はサーバ100から書き込み要求を受け取る。その後、正ストレージシステム600はPVOL601に書き込みデータを書き込み、書き込みデータを副ストレージシステム700に転送する。正ストレージシステム600は、副ストレージシステム700からの完了メッセージを受け取るまで、サーバに完了メッセージを送信しない。コピー要求を受け取った副ストレージシステム700は転送データをSVOL701に書き込み、完了メッセージを正ストレージシステム600に送る。最後に、正ストレージシステム600はサーバ100に完了メッセージを送る。このような同期リモートコピーにおいては、PVOL601とSVOL701の間で高いデータ同一性を達成できる。つまり、正ストレージシステム600に障害が生じた場合でも、それによってデータ損失が生じる可能性を最小限にすることができる。しかしながら、この方法の問題点は、正ストレージシステムと副ストレージシステム間の距離が長くなればなるほど、書き込み応答時間も長くなることである。
0077 図9は、非同期リモートコピー処理のリモートコピー構成を示す図である。正ストレージシステム600はサーバ100からの書き込み要求を受け取る。その後、正ストレージシステム600は書き込みデータをジャーナル(JNL)としてPVOL601およびJVOL608に格納する。JNLは転送データであり、JVOL608はJNLを一時的に保存する記憶領域である。JVOLはボリュームである必要はない。JNLはキャッシュユニット2145に格納されてもよい。その後、正ストレージシステム600はサーバに完了メッセージを送る。JNLは副ストレージシステム700のJVOL703に非同期的に転送される。最後に、JVOL703に格納されるJNLはSVOL701にコピーされる。この場合、書き込み応答時間は同期リモートコピーと比較して短い。しかしこの方式の問題点は、同期リモートコピーに比べて、正ストレージシステム600に障害が発生したときに、データ損失が簡単にかつ大量に起こりうることである。既存のリモートコピーシステムにおいては、副ストレージシステム、SVOL、JVOL、リモートコピー用のI/O_I/F、サーバ(副)、リモートコピーペアなどを構成する作業が必要である。このような作業はとても複雑である。
0078 図10は、第二実施例にかかる物理ストレージシステム210内のメモリ(S)214の例を示す詳細なブロック図である。正ストレージペアテーブル2146、副ストレージペアテーブル2147、正ペア作成プログラム2149、副ペア作成プログラム2150、書き込みプログラム(ストレージ)2151、およびインフローテーブル2148が、図5に示される第一実施例に比べて加えられている。正ストレージペアテーブル2146および副ストレージペアテーブル2147は、PVOL601とSVOL701の間の関係を管理するテーブルである。これらテーブルの詳細は図12および図13に示される。正ペア作成プログラム2149と副ペア作成プログラム2150は、正ストレージシステムおよび副ストレージシステムにリモートコピーペアを作成するプログラムである。これらのプログラムの処理フローは図17に示される。書き込みプログラム(ストレージ)2151は、書き込みデータを対象ボリュームに格納するためのプログラムである。この実施例において、PVOL障害が発生した後に受け取られた2つのSVOL701への書き込みが、図22および図24に表されている。インフローテーブル2148は、PVOL601に書き込まれた書き込みデータの量を管理するためのテーブルである。この情報は、正ストレージシステムと副ストレージシステム間の必要な帯域を考慮に入れるために必要である。
0079 図11は、第二実施例にかかる管理サーバ300内のメモリ(M)301の詳細ブロック図である。図2に示す第一実施例に比べて、サイト距離テーブル307、ペア作成プログラム308、
副選択プログラム309、JVOL容量プログラム311および移行サイトプログラム312が加わっている。サイト距離テーブル307は、データセンター間の距離を管理するテーブルである。このテーブルの詳細を図15に示す。ペア作成プログラム308および副選択プログラム309は、コピー先を選択し、リモートコピーペアの作成をストレージシステムに指示するプログラムである。これらのプログラムの処理フローを図17から図19に示す。JVOL容量プログラム311は、必要なJVOL容量を推定するためのプログラムである。プログラムの処理フローを図20に示す。移行サイトプログラム312は、サーバ処理のための移行先を決定するためのプログラムである。プログラムの概念および処理を図24および図25に示す。
0080 図12は、物理ストレージシステム210のメモリ(S)214内の正ストレージペアテーブル2146の例を示す図である。図13は、物理ストレージシステム210のメモリ(S)214内の副ストレージペアテーブル2147の例を示す図である。正ストレージペアテーブル2146は、物理ストレージシステム210がリモートコピーの正コピーを構成する場合に使用される。副ストレージペアテーブル2147は、物理ストレージシステム210がリモートコピーの副コピーを構成する場合に使用される。正ボリュームIDは、コピー元ボリュームであるボリュームのIDである。副PDKC_IDは、SVOL701を有する副物理PDKC700のIDである。副ボリュームIDは、PVOL601のコピー先ボリュームのローカルボリュームIDである。正PDKC_IDは、PVOL601を有する正物理PDKC600のIDである。
0081 図14は、物理ストレージシステム210内で管理されるインフローテーブル2148の例を示す図である。このテーブルは書き込みデータの各ボリュームへのインフローを管理する。ローカルボリュームIDは各ボリュームのIDを格納し、インフローは各副ボリュームへの書き込みデータの量を格納する。
0082 図15は、管理サーバ300において管理されるサイト距離テーブル307の例を示す図である。サイトIDの意味は、図3におけるサイトIDの意味と同じである。距離欄には、サイトIDによって特定されたデータセンター間の距離を格納する。
0083 自動リモートコピー構造処理を、図16から図21までを参照して説明する。
0084 図16は、データ複製のための設定画面800の例を示す図である。HA(High Availability:高可用性)はローカル複製を意味する。RC(Sync)は同期タイプのリモートコピーを意味する。RC(async)は、非同期タイプのリモートコピーを意味する。設定画面800は、チェックボックスを有する。リモートコピーなどの機能は、ボックスにチェックを入れることにより適用される。図示の例においては、ボリュームID1を有するボリュームに非同期リモートコピーを適用する。
0085 図17は、ペア作成処理フローを示すフロー図の例である。ステップS300において、ペア作成プログラム308は副選択プログラム309を呼び出し、副PDKCを選択する。副選択プログラム309の処理フローを図18に示す。ステップS301において、副選択プログラム309から副情報を受け取ったペア作成プログラム308は、選択されたストレージシステムに対しボリューム作成を指示する。選択されたストレージシステムにおけるボリューム作成プログラム(ストレージ)2144の処理は、図7のステップS200およびS201と同じである。ステップS302において、ペア作成プログラム308は正PDKCに対してペア作成を指示し、完了メッセージを待つ。このとき、オペレータによって特定されたグローバルボリュームIDと、ステップS301において選択されるローカルボリュームIDと、ステップS300において選択される副PDKC700のIDがパラメータとして送られる。
0086 ペア作成要求を受領した正PDKC600は、正ペア作成プログラム2149を実行する。正ペア作成プログラム2149は、ペアが作成可能かどうか確認する(ステップS400)。具体的には例えば、正ストレージペアテーブル2146がフリーエントリーを有するかどうかや、正PDKC600が副PDKC700に接続されているかどうかなどを確認する。確認後、正ペア作成プログラム2149は、ステップS300で選択された副PDKCにペア作成を指示する。グローバルボリュームID、PVOLおよびSVOLのローカルボリュームID、および正PDKCのIDがパラメータとして送られる。
0087 ペア作成要求を受け取った副PDKC700は、副ペア作成プログラム2150を実行する。副ペア作成プログラム2150は、ペアが作成可能かどうか確認し、副ストレージペアテーブル2147を更新する(ステップS500およびS501)。ステップS502において、副ペア作成プログラム2150はグローバルID管理テーブル2142を更新し、完了メッセージを正PDKC600に送る。受信されたグローバルボリュームIDはグローバルボリューム欄に保存され、受信されたローカルボリュームIDはローカルボリュームID欄に保存される。自身のIDはPDKC_ID欄に保存される。ローカルIDによって特定されるボリュームのサイズはボリュームサイズ欄に保存される。
0088 ステップS401において、副PDKC700から完了メッセージを受け取った正ペア作成プログラム2149は、正PDKC600の正ストレージペアテーブル2146を更新する。ステップS402において、正ペア作成プログラム2149は発信側(ペア作成プログラム308)に完了メッセージを送る。ステップS303において、ペア作成プログラム308は処理を終了する。
0089 図18は、図17のペア作成プログラム308から呼び出された副選択プログラム309の処理フローを示すフロー図の例である。このプログラムは最適なコピー先ストレージを選択するために使用される。ステップS600において、副選択プログラム309は要求がリモートコピー要求かどうかを確認する。要求がリモートコピー要求でない場合、プログラムはステップS601に進み、自身のPDKCをコピー先PDKC(ステップS601)として選択し、その後ステップS607において発信側にPDKC_IDを報告する。これは、要求がローカル複製要求であるためである。要求がリモートコピー要求の場合、副選択プログラム309はPVOLを有する正PDKCに直接接続されるストレージシステムを認識する(ステップS602)。その後、副選択プログラム309は、要求が同期リモートコピー要求か否かを確認する(ステップS603)。要求が同期リモートコピー要求である場合、プログラムはステップS604に進み、特定された正PDKCから100kmほどしか離れていないストレージシステムを検索する(ステップS604)。100kmというのは一般的に、同期リモートコピーに許容されるI/O応答時間を供することのできる距離である。許容可能なI/O応答時間を供することができる距離であれば、他の距離であってもかまわない。もし要求が同期リモートコピーでない場合、副選択プログラム309は特定された正PDKCから1000kmかそれ以上離れたストレージシステムを検索する(ステップS605)。1000kmというのは、正データセンターの災害の際に余波を避けることのできる距離である。余波を避けることのできる距離であれば、他の距離であってもかまわない。ステップS604かS605の後、副選択プログラム309はステップS606において、条件(例えば、SVOLの空き容量、接続性等)を満たすPDKCを選択する。最後に、副選択プログラム309は、決定されたPDKC_IDを発信側に報告する(ステップS607)。
0090 非同期リモートコピー構造について、図19と図20を参照して説明する。
0091 図19は、非同期リモートコピーのペア作成処理フローを示すフロー図の別の例である。ステップS700において、ペア作成プログラム308はJVOL容量プログラム311を呼び出し、JVOL608および703の必要容量を計算する。ペア作成プログラム308は副選択プログラム309を呼び出し、ボリューム作成を指示する(ステップS701およびS702)。ステップS701およびS702は図17のステップS300およびS301と同じである。ボリューム作成プログラム(ストレージ)2144の処理は、図7のステップS200とS201と同じである。その後、ペア作成プログラム308は正および副PDKCに対してJVOL作成を指示する(ステップS703)。ステップS701において計算されるJVOLサイズがパラメータとして送られる。JVOL作成要求を受け取った各PDKCは、特定されたサイズを有するボリュームを作成し、この作成されたボリュームは仮想ボリュームであってよい(ステップS800)。各PDKCは発信側に対して完了メッセージを送る(ステップS801)。最後に、ペア作成プログラム308はステップS704において正PDKCに対してペア作成を指示する。ステップS704に続く各ステップは、図17のステップS302に続く各ステップと同じである。
0093 図20は、JVOL608および703の必要容量を計算するためのJVOL容量プログラム311の処理フローを示すフロー図の例である。JVOL608および703の容量を以下に説明する。たとえば、正PDKC600と副PDKC700の間にパス障害が発生した場合、JNLがJVOL608に残り始める。その後パス障害が解消した場合、JVOL608に格納されたJNLはJVOL703へ送られる。その結果、発生されたJNLを格納するのに十分な容量をJVOL608が有している場合、リモートコピーペアの停止や再同期なしにリモートコピーを継続することができる。JVOL608の容量は、ユーザがパス障害を持ちこたえたい必要時間に応じて決定される。つまり、JVOL容量は、必要時間と、サーバ100からの書き込みデータの容量から計算することができる。JVOL容量プログラム311は正PDKC600(ステップS900)からPVOL601の書き込みデータ量/分を得る(ステップS900)。その後、JVOL容量プログラム311は、パス障害が起こった場合の必要継続時間を得る(ステップS901)。必要継続時間は、入力/出力部を利用することにより管理サーバ300へ入力される。最後に、JVOL容量プログラム311はJVOL容量を計算する(ステップS902)。JVOL容量は、書き込みデータ量と継続時間をかけることによって計算される。
0094 図21は、副選択プログラム309の処理フローを示すフロー図のさらに別の例である。この例では、正PDKCと副PDKC間の帯域を考慮に入れる。図18と相違するステップのみについて説明する。ステップS602の後に、S1000とS1001の追加ステップが実行され、ステップS605またはステップS604の後に、ステップS606の代わりにステップS1002が実行される。ステップS1000において、副選択プログラム309は正PDKC600からの正VOLの書き込みデータ量/秒(MB/s)を得る。ステップS1001において、副選択プログラム309は正および副PDKC間の必要帯域を計算する。副PDKC選択ステップにおいて(S1002)、副選択プログラム309は計算された帯域を考慮に入れる。
0095 図22は、I/O障害後の処理を示す概念図である。サーバ100はボリュームIDが0であるボリュームを使用する。サーバ100は代替パスソフトウェアを有する。図22の例において、代替パスソフトウェアはボリューム0に対して二つのパスを有する。仮想ストレージシステム200がサーバ100に提供される。ストレージシステム層において、サーバ100からのI/Oが物理ストレージシステム600に対して発行され、(物理ストレージシステム600の)ボリューム810に格納されたデータは(物理ストレージシステム700の)ボリューム820にコピーされる。正PDKCに障害が発生した場合、代替パスソフトウェアはI/Oパスを変更し、I/Oを再度発行する。ストレージシステム層において、サーバ100からのI/Oが物理ストレージシステム700に発行される。書き込みデータは物理ストレージシステム700のボリューム820に格納される。サーバ100に提供されるボリュームIDが同じであるため、サーバ100は物理ストレージシステムの変更を意識することはない。一般的に、リモートコピーのSVOLは、整合性のためにサーバI/Oを拒否する。PVOL障害が起こった後、SVOLの状態を、サーバI/Oを受信し処理することのできる状態に変える必要がある。この処理を図23に示す。
0096 図23は、PVOL障害後にSVOLに対して発行された書き込み処理のフロー図の例を示す。書き込みプログラム(ストレージ)2151はSVOLへのI/Oを受け取り(ステップS1100)、PVOL障害が発生したか否かを確認する(ステップS1101)。PVOL障害が発生していない場合、書き込みプログラム(ストレージ)2151はサーバ100にエラーを報告する(ステップS1102)。PVOL障害が発生している場合、書き込みプログラム(ストレージ)2151はSVOLの状態をI/O受け取り可能状態に変更する(ステップS1103)。その後、書き込みプログラム(ストレージ)はI/Oを実行し、処理を終了する(ステップS1104およびS1105)。
0097 サーバ100が変更されない場合を図22に示す。本発明の構成によると、異なるデータセンターに設置された物理ストレージシステム210によって仮想ストレージシステム200を構成することができるため、I/O先物理ストレージシステムは、サーバの設置されたデータセンターとは異なるデータセンターに変更することもできる。その結果、データセンターを超えたI/Oが必要となり、パフォーマンスが低下する。このような事態をさけるために、サーバも変更することができる。
0098 図24は、PVOL障害後のサーバ変更およびそれに続くSVOLに関わる処理の変更を示す概念図である。図22との相違点についてのみ説明する。サーバ400は移行元として設置され、サーバ500は移行先として設置される。サーバ400は、サーバ500に接続される。バーチャルマシン410がそれぞれの物理サーバ400と500の中に形成される。アプリケーションは、バーチャルマシンから供される。バーチャルマシンは、一つの物理サーバから別の物理サーバに移行することができる。この移行は、既存の技術によって実行される。ボリューム810かPDKC600の障害の後、I/O先がPDKC700のボリューム820に変更されると、バーチャルマシン410はサーバ400からPDKC700と同じデータセンターにあるサーバ500に移行される。その結果、データセンターを超えるI/Oを避けることができる。
0099 図25は、PVOL障害後のバーチャルマシン410の移行処理および移行先の決定処理に関するフロー図の例を示す。ステップS1200において、書き込みプログラム(サーバ)はI/O障害を検出する。所定値より長い応答時間も、検出の条件となりうる。書き込みプログラム(サーバ)は移行先を管理サーバ300に問い合わせる。問い合わせを受けた管理サーバ300は、移行サイトプログラム312を呼び出す。移行サイトプログラム312は、SVOLを有するPDKCの情報を、PVOLを有するPDKCに問い合わせる(ステップS1300)。PDKCは正ストレージペアテーブル2146を利用して上記を確認できる。その後、移行サイトプログラム312はPDKCに関して得た情報をサーバに報告する(ステップS1301)。最後に、書き込みプログラム(サーバ)はバーチャルマシン410を報告されたPDKCに移動する。
0100 一般的に、リモートコピー機能は、一つ以上のリモートコピーペアからなるコンシステンシグループ609を有する。図26は、リモートコピーペアのコンシステンシグループ609の概念図を示す。一つのアプリケーションに使用される一つ以上のリモートコピーペアは同じコンシステンシグループ609に属するのがよい。オペレータはコンシステンシグループ609のリモートコピー処理を実行できる。オペレータは各リモートコピーペアを処理する必要はない。さらに、非同期タイプのリモートコピーの場合、同じコンシステンシグループ609に属する複数のPVOL601への書き込み指示は、SVOL701のリストア処理において保証される。リモートコピーペア作成処理において、同じコンシステンシグループ609に属する複数のPVOLのコピー先は同じデータセンターから選択されるべきである。そうでない場合、障害後のI/Oはデータセンターを超えて発生する。
0101 図27は、コンシステンシグループ609を考慮に入れた副選択プログラム309の処理フローの別の例を示す図である。図21との相違点についてのみ説明する。追加されたステップS1400、S1401およびS1402がステップS1001の後に実行される。最初に、チェックボックスによってリモートコピーが適用されたとき、オペレータは設定画面800でコンシステンシグループIDを入力する。ステップS1400において、副選択プログラム309は正PDKCからの特定されたコンシステンシグループ情報を得る。ステップS1401において、副選択プログラム309は、指示されたリモートコピーペアがコンシステンシグループにおける最初のペアであるかどうかを判断する。そうである場合、副選択プログラム309はステップS603からS607を実行し、副PDKCを決定する。指示されたリモートコピーペアがコンシステンシグループにおける最初のペアでない場合、副選択プログラム309はステップS1402に進み、特定されたコンシステンシグループにすでに属するSVOLを有する副PDKCを選択する(ステップS1402)。副選択プログラム309はステップS607に進み、発信側にPDKC_IDを報告する。
0102 上述の技術によれば、ユーザの作業は、グローバルボリュームIDの特定とリモートコピー機能の適用である。そのため、SVOLの準備やリモートコピーパスの構築等が不要となる。
0103 図28は、リモートコピー構造の自動回復方法を示す概念図である。図24との相違点についてのみ説明する。図24に示す技術によると、バーチャルマシン410を移動してI/O先をPDKC700のボリューム820に変更した後、コンピュータシステムはリモートコピーが適用されていない状態にある。そのため、信頼性は低い。自動回復方法によると、初期設定時に入力された内容に基づいて自動的にコピー先を決定し、リモートコピー処理を再開する。図28に示す通り、構造回復のために必要な第三の物理ストレージ900が加えられている。第三の物理ストレージ900内のボリューム830はPDKC700内のボリューム820のコピー先であり、同じグローバルボリュームID0を有する。
0104 上述した処理は、図29に示す管理サーバ300内の構造回復プログラムによって達成される。構造回復プログラムは、図25の移行サイトプログラム312のステップS1301の後に呼び出される。最初に、構造回復プログラムはPVOLまたは正PDKC600障害の報告を受け取る(ステップS1500)。構造回復プログラムは、対象ボリューム820のための初期設定の内容を得る(ステップS1501)。図28の例において、対象ボリュームは、グローバルボリュームIDが0であるボリュームである。例えば、内容は「RC(sync)」、「RC(async)」等である。その後、構造回復プログラムは得られた内容に基づいてペア作成プログラム308を呼び出し(ステップS1502)、処理を終了する(ステップS1503)。
0105 PDKC600の障害ではなく、サーバ400の障害である場合、リモートコピーのコピー先はPDKC600であり得る。その場合、ボリューム820はコピー元ボリュームであり、ボリューム810はコピー先ボリュームとなる。一般的なリモートコピー機能の場合、差分データのみがボリューム820からボリューム810にコピーされる。
0107 実施例3は、リモートコピー構造の自動回復方法に関し、また上述の技術を3つのデータセンター間のリモートコピー構造に適用する方法に関する。リモートコピー機能はリモートコピーの同期タイプおよび非同期タイプの組み合わせをサポートする。二つの例を図30および図31に示す。
0108 図30は、3つのデータセンター間リモートコピーのカスケード構造を示す概念図である。カスケードリモートコピーにおいては、PVOLに格納されたデータをSVOLに同期的にコピーし、SVOLに格納されたデータをTVOL(第三ボリューム)に非同期的にコピーする。
0109 図31は、3データセンター間リモートコピーのマルチターゲット構造を示す概念図である。マルチターゲットリモートコピーでは、PVOLに格納されたデータをSVOLに同期的にコピーし、PVOLに格納されたデータをTVOLに非同期的にコピーする。
0110 カスケードおよびマルチターゲットリモートコピーは、単に三データセンター間リモートコピー(3DCリモートコピー)と呼ぶ。これらの機能は、同期タイプのメリットであるデータ損失なし、および非同期タイプのメリットである応答時間短縮の両方を満足することができる。
0111 図32は、3データセンター間リモートコピーのための設定画面の別の例を示す。カスケード構造およびマルチターゲット構造のチェックボックスが加えられている。
0112 図33は、3データセンター間リモートコピーを考慮してコピー先を決定する3DCコピー先選択プログラムの処理フローの例を示す図である。3DCコピー先選択プログラムは、図32の設定画面800に対する入力の結果、ペア作成プログラム308から呼び出される。
0113 ステップS1600において、3DCコピー先選択プログラムは正PDKCに直接接続されたストレージシステムを認識する。このステップは図18のステップS602と同じである。その後、3DCコピー先選択プログラムは、リモートコピーの非同期タイプのコピー先を決定する。3DCコピー先選択プログラムは特定された正PDKCから100kmほどしか離れていないストレージシステムを探し(ステップ1601)、同期リモートコピーの条件を満足する副PDKCを選択する(ステップS1602)。3DCコピー先選択プログラムは、特定タイプがカスケードか否かを判断する(ステップS1603)。特定タイプがカスケードでない場合、3DCコピー先選択プログラムはステップS1600で得た情報に基づいて正および副PDKCから100kmかそれ以上離れているストレージシステムを探し、ステップS1607に進む。特定されたタイプがカスケードである場合、3DCコピー先選択プログラムは選択された副PDKCに直接接続されたストレージシステムを特定し(ステップS1605)、前ステップS1605で得た情報に基づいて正および副PDKCから1000kmかそれ以上離れたストレージシステムを検索する(ステップS1606)。ステップS1607において(ステップS1604かステップS1606の後)、3DCコピー先選択プログラムは非同期リモートコピーの条件を満たすPDKCを選択する。最後に、3DCコピー先選択プログラムは副および第三PDKCのIDを発信側に報告する(ステップS1608)。
0114 カスケードの場合、最適なPDKCを検出することができない。そのため、次の最適な副PDKCを選択した後、3DCコピー先選択プログラムはステップS1602に戻って、ステップS1605とS1607を実行する。
0115 図33の各ステップは副選択プログラム309の一部として実行することができる(図21か図27)。たとえば、これらのステップは図27のステップS1001の後に実行することができる。その場合、PDKC間の帯域等を3データセンター間構造のために考慮に入れる。
0116 当然のことながら、図1、図8、図9、図24、図26、図28、図30および図31に示すシステム構造は、本発明が実施され得る情報システムの単なる例示であり、本発明は特定のハードウェア構成に限定されない。本発明を実施するコンピュータ及びストレージシステムは、上述の発明を実施するために用いられるモジュール、プログラム及びデータ構造を格納しかつ読み出すことができる公知のI/O装置(例えば、CD及びDVDドライブ、フロッピー(登録商標)ディスクドライブ、ハードドライブ等)を有し得る。これらのモジュール、プログラム及びデータ構造は、当該コンピュータ読取可能媒体上で符号化することができる。例えば、本発明の前記データ構造は、本発明で使用されるプログラムが存在する一つ以上のコンピュータ読取可能媒体から独立したコンピュータ読取可能媒体に格納することができる。システムの構成要素は、あらゆる形態又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によって相互接続することができる。通信ネットワークの例としては、ローカルエリアネットワーク、ワイドエリアネットワーク(例えば、インターネット)、無線ネットワーク、ストレージエリアネットワーク等を含む。
0117 説明では、本発明の理解を深めるために、多くの具体的かつ詳細な記載がなされている。しかし当業者にとっては、本発明を実施するためにこれら具体的な詳細のすべてが必要なわけではないことは明らかであるだろう。また、留意すべき点として、本発明は、通常はフローチャート、フロー図又はブロック図として記載されるプロセスとして説明されてもよい。フローチャートでは動作を逐次プロセスとして説明するが、動作の多くは並行して又は同時に実行することができる。さらに、動作の順番は並び替えてもよい。
0118 当技術分野では周知であるように、上述の動作は、ハードウェア、ソフトウェア、又はソフトウェアとハードウェアの組み合わせによって実行することができる。本発明の実施形態の様々な態様は、回路や論理装置(ハードウェア)を用いて実施してよく、その一方で、その他の態様は、機械読取可能媒体(ソフトウェア)上に記憶された命令を用いて実施してもよく、当該発明は、プロセッサによって実行された場合には、プロセッサに本発明の実施形態を実行させる方法を実施させるものである。さらに、本発明のいくつかの実施形態は、ハードウェアのみにおいて実施されてもよく、その他の実施形態は、ソフトウェアのみで実施されてもよい。さらに、説明された様々な機能は一つのユニットで実施することができ、又はあらゆる方法によって多くの構成要素に広めることができる。ソフトウェアによって実施された場合、本発明の方法は、コンピュータ読取可能媒体に記憶された命令に基づいて、汎用コンピュータなどのプロセッサによって実行され得る。望ましい場合には、圧縮およびまたは暗号化形式で命令を媒体に記憶することができる。
0119 上記により、本発明がリモートコピーシステムを含むストレージシステムを管理し、複雑な作業を自動化することにより管理容易性を向上するための方法、装置及びコンピュータ読取可能媒体に記憶されたプログラムを提供するものであることが明らかであろう。さらに、本明細書において特定の実施形態が示され説明されているが、当業者にとって明白なように、開示された特定の実施形態の代わりに、同じ目的を達成するために創出された構成を用いてもよい。本開示は、本発明のあらゆる適応例や変形例を対象とすることを意図したものであり、また以下の請求項で用いられる用語は、本発明を本明細書で開示した特定の実施形態に限定するよう解釈されるべきではない。むしろ本発明の範囲は、以下の請求項によって判断されるべきものであり、以下の請求項は、当該請求項が権利を有する同等物の範囲全体と共に、請求項の解釈について確立された原則に従って解釈されるものである。
200 ストレージシステム(仮想)
212 管理I/F
213 プロセッサ
214 メモリ(S)
215 ディスクI/F
217 ボリューム
210 物理ストレージシステム
300 管理サーバ
301 メモリ(M)
302 制御情報ユニット
303 サーバサイト管理テーブル
304 ストレージサイト管理テーブル
305 プログラムユニット
306 ボリューム作成プログラム(管理)

Claims (20)

  1. メモリおよびコントローラを有するコンピュータであって、前記コントローラは、
    サーバに提供される仮想ボリュームを管理し、
    複数のストレージシステムから提供される複数の論理ボリュームを管理し、
    前記仮想ボリュームに必要な条件を管理し、該条件は前記仮想ボリュームに送られるデータの保管される位置に関するものであり、
    前記複数の論理ボリュームの各々の位置情報を管理し、各論理ボリュームの位置情報は前記論理ボリュームの位置に基づいて規定され、
    前記仮想ボリュームの条件および複数の論理ボリュームの位置情報に基づいて、前記仮想ボリュームを前記複数の論理ボリュームのうちの一つの論理ボリュームにマッピングするよう制御される
    ことを特徴とするコンピュータ。
  2. 前記条件は、前記仮想ボリュームに送られるべきデータの位置する場所が、仮想ボリュームの提供されるサーバの位置する場所と同じであることを要求し、
    前記仮想ボリュームに送られるべきデータの格納される位置が、前記仮想ボリュームにマッピングされた論理ボリュームの位置である
    ことを特徴とする、請求項1に記載のコンピュータ。
  3. 前記仮想ボリュームは正論理ボリュームにマッピングされ、正論理ボリュームは副論理ボリュームにマッピングされ、前記正論理ボリュームと前記副論理ボリュームはリモートコピーペアを構成し、異なる位置にマッピングされる
    ことを特徴とする、請求項1に記載のコンピュータ。
  4. 前記コントローラは、前記各論理ボリュームの位置情報と、前記副論理ボリュームに要求される条件と、前記複数の論理ボリュームの位置する場所の間の距離に関する距離情報とに基づいて、自動的に正論理ボリュームを副論理ボリュームにマッピングするよう制御し、前記副論理ボリュームに要求される条件は、少なくとも空き容量か、正論理ボリュームとの接続性のうちの一つを含む
    ことを特徴とする、請求項3に記載のコンピュータ。
  5. 前記コントローラは、自動的に正論理ボリュームのジャーナルを格納するための正ジャーナルボリュームと副ジャーナルボリュームを作成し、前記正ジャーナルボリュームから前記副ジャーナルボリュームへジャーナルをコピーし、前記副ジャーナルボリュームから前記副論理ボリュームへジャーナルをコピーするよう制御することにより、非同期リモートコピーを達成する
    ことを特徴とする、請求項4に記載のコンピュータ。
  6. 前記正論理ボリュームは前記副論理ボリュームおよび第三の論理ボリュームにマッピングされ、前記正論理ボリューム、前記副論理ボリュームおよび第三の論理ボリュームはリモートコピーの関係にあり、三つの異なる位置にマッピングされ、
    前記コントローラは、前記各論理ボリュームの位置情報と、前記副論理ボリュームに要求される条件と、前記第三の論理ボリュームに要求される条件と、前記複数の論理ボリュームの位置する場所の間の距離に関する距離情報に基づいて、自動的に前記正論理ボリュームを前記副論理ボリュームおよび前記第三の論理ボリュームにマッピングするよう制御され、前記副論理ボリュームに要求される条件は、少なくとも空き容量か、正論理ボリュームとの接続性のうちの一つを含み、前記第三の論理ボリュームに要求される条件は、少なくとも空き容量か、リモートコピーがカスケードリモートコピーの場合は副論理ボリュームとの接続性、およびリモートコピーがカスケードリモートコピーではない場合は正論理ボリュームとの接続性のうちの一つを含む
    ことを特徴とする、請求項3に記載のコンピュータ。
  7. 前記コントローラは、前記正論理ボリュームとの間のI/O(入力/出力)障害の際に、前記サーバと前記正論理ボリューム間のI/Oパスから前記サーバと前記副論理ボリューム間の別のI/Oパスに自動的にI/Oを変更し、
    前記副論理ボリュームの状態を、I/O受け取り不能状態からI/O受け取り可能状態へ変更するよう制御する
    ことを特徴とする、請求項3に記載のコンピュータ。
  8. 前記コントローラは、前記正論理ボリュームとの間のI/O(入力/出力)障害の際に、自動的に前記サーバからのデータを使用するアプリケーションを実行するためのバーチャルマシンを移行先サーバに移行し、前記サーバと前記正論理ボリューム間のI/Oパスから前記サーバと前記副論理ボリューム間の別のI/Oパスに自動的にI/Oを変更し、
    前記副論理ボリュームの状態が、I/O受け取り不能状態からI/O受け取り可能状態へ変更される
    ことを特徴とする、請求項3に記載のコンピュータ。
  9. 前記コントローラは、前記正論理ボリュームとの間のI/O(入力/出力)障害の際に、前記各論理ボリュームの位置情報と、自動回復副論理ボリュームに要求される条件と、前記複数の論理ボリュームの位置する場所の間の距離に関する距離情報に基づいて、自動回復リモートコピーペアとして、自動的に前記副論理ボリュームを自動回復副論理ボリュームへマッピングし、前記自動回復副論理ボリュームに要求される条件は、少なくとも空き容量か、前記副論理ボリュームとの接続性のうちの一つを含む
    ことを特徴とする、請求項3に記載のコンピュータ。
  10. 前記仮想ボリュームは一つ以上の正論理ボリュームを有する正コンシステンシグループの中の一つの正論理ボリュームにマッピングされ、前記正コンシステンシグループは一つ以上の副論理ボリュームを有する副コンシステンシグループにマッピングされ、前記正コンシステンシグループと前記副コンシステンシグループは一つ以上のリモートコピーペアを提供し、異なる位置にマッピングされ、
    前記コントローラは、前記各論理ボリュームの位置情報と、前記副論理ボリュームに要求される条件と、前記複数の論理ボリュームの位置する場所の間の距離に関する距離情報に基づいて、前記正コンシステンシグループの正論理ボリュームを前記副コンシステンシグループの副論理ボリュームに自動的にマッピングし、前記副論理ボリュームに要求される条件は、少なくとも空き容量か、前記正論理ボリュームとの接続性のうちの一つを含む
    ことを特徴とする、請求項1に記載のコンピュータ。
  11. コンピュータおよび複数のストレージシステムを有するシステムであって、前記コンピュータはメモリおよびコントローラを有し、前記コントローラは、
    サーバに提供される仮想ボリュームを管理し、
    前記複数のストレージシステムから提供される複数の論理ボリュームを管理し、
    前記仮想ボリュームに必要な条件を管理し、該条件は前記仮想ボリュームに送られるデータの保管される位置に関するものであり、
    前記複数の論理ボリュームの各々の位置情報を管理し、各論理ボリュームの位置情報は前記論理ボリュームの位置に基づいて規定され、
    前記仮想ボリュームの条件および複数の論理ボリュームの位置情報に基づいて、前記仮想ボリュームを前記複数の論理ボリュームのうちの一つの論理ボリュームにマッピングするよう制御される
    ことを特徴とするシステム。
  12. 前記条件は、前記仮想ボリュームに送られるべきデータの位置する場所が、仮想ボリュームの提供されるサーバの位置する場所と同じであることを要求し、
    前記仮想ボリュームに送られるべきデータの格納される位置が、前記仮想ボリュームにマッピングされた論理ボリュームの位置である
    ことを特徴とする、請求項11に記載のシステム。
  13. 前記仮想ボリュームは正論理ボリュームにマッピングされ、正論理ボリュームは副論理ボリュームにマッピングされ、前記正論理ボリュームと前記副論理ボリュームはリモートコピーペアを構成し、異なる位置にマッピングされ、
    前記コントローラは、前記各論理ボリュームの位置情報と、前記副論理ボリュームに要求される条件と、前記複数の論理ボリュームの位置する場所の間の距離に関する距離情報とに基づいて、自動的に正論理ボリュームを副論理ボリュームにマッピングするよう制御し、前記副論理ボリュームに要求される条件は、少なくとも空き容量か、正論理ボリュームとの接続性のうちの一つを含む
    ことを特徴とする、請求項11に記載のシステム。
  14. 前記仮想ボリュームは正論理ボリュームにマッピングされ、正論理ボリュームは副論理ボリュームにマッピングされ、前記正論理ボリュームと前記副論理ボリュームはリモートコピーペアを構成し、異なる位置にマッピングされ、
    前記コントローラは、前記正論理ボリュームとの間のI/O(入力/出力)障害の際に、自動的に前記サーバからのデータを使用するアプリケーションを実行するためのバーチャルマシンを移行先サーバに移行し、前記サーバと前記正論理ボリューム間のI/Oパスから前記移行先サーバと前記副論理ボリューム間の別のI/Oパスに自動的にI/Oを変更し、
    前記副論理ボリュームを提供するストレージシステムは、前記副論理ボリュームの状態を、I/O受け取り不能状態からI/O受け取り可能状態へ変更するよう構成される
    ことを特徴とする、請求項11に記載のシステム。
  15. データストレージを管理するようデータプロセッサを制御するための複数の指示を格納するコンピュータで読み取り可能なストレージ媒体であって、前記複数の指示は、
    データプロセッサに対し、サーバに提供される仮想ボリュームを管理させる指示と、
    データプロセッサに対し、複数のストレージシステムから提供される複数の論理ボリュームを管理させる指示と、
    データプロセッサに対し、前記仮想ボリュームに必要な条件を管理させる指示と、ここで該条件は前記仮想ボリュームに送られるデータの保管される位置に関するものであり、
    データプロセッサに対し、前記複数の論理ボリュームの各々の位置情報を管理させる指示と、ここで各論理ボリュームの位置情報は前記論理ボリュームの位置に基づいて規定され、
    データプロセッサに対し、前記仮想ボリュームの条件および複数の論理ボリュームの位置情報に基づいて、前記仮想ボリュームを前記複数の論理ボリュームのうちの一つの論理ボリュームにマッピングするよう制御する指示と
    を有することを特徴とする、コンピュータ読み取り可能なストレージ媒体。
  16. 前記条件は、前記仮想ボリュームに送られるべきデータの位置する場所が、仮想ボリュームの提供されるサーバの位置する場所と同じであることを要求し、
    前記仮想ボリュームに送られるべきデータの格納される位置が、前記仮想ボリュームにマッピングされた論理ボリュームの位置である
    ことを特徴とする、請求項15に記載のコンピュータ読み取り可能なストレージ媒体。
  17. 前記複数の指示はさらに、
    前記データプロセッサに対し、前記仮想ボリュームを正論理ボリュームにマッピングし、正論理ボリュームを副論理ボリュームにマッピングし、前記正論理ボリュームと前記副論理ボリュームでリモートコピーペアを構成し、異なる位置にマッピングさせる指示と、
    前記データプロセッサに対し、前記各論理ボリュームの位置情報と、前記副論理ボリュームに要求される条件と、前記複数の論理ボリュームの位置する場所の間の距離に関する距離情報とに基づいて、自動的に正論理ボリュームを副論理ボリュームにマッピングするよう制御させる指示と、ここで前記副論理ボリュームに要求される条件は、少なくとも空き容量か、正論理ボリュームとの接続性のうちの一つを含む
    ことを特徴とする、請求項15に記載のコンピュータ読み取り可能なストレージ媒体。
  18. 前記複数の指示はさらに、
    前記データプロセッサに対し、前記正論理ボリュームを前記副論理ボリュームおよび第三の論理ボリュームにマッピングさせる指示と、ここで前記正論理ボリューム、前記副論理ボリュームおよび第三の論理ボリュームはリモートコピーの関係にあり、三つの異なる位置にマッピングされ、
    前記データプロセッサに対し、前記各論理ボリュームの位置情報と、前記副論理ボリュームに要求される条件と、前記第三の論理ボリュームに要求される条件と、前記複数の論理ボリュームの位置する場所の間の距離に関する距離情報に基づいて、自動的に前記正論理ボリュームを前記副論理ボリュームおよび前記第三の論理ボリュームにマッピングさせる指示と、ここで前記副論理ボリュームに要求される条件は、少なくとも空き容量か、正論理ボリュームとの接続性のうちの一つを含み、前記第三の論理ボリュームに要求される条件は、少なくとも空き容量か、リモートコピーがカスケードリモートコピーの場合は副論理ボリュームとの接続性、およびリモートコピーがカスケードリモートコピーではない場合は正論理ボリュームとの接続性のうちの一つを含む
    ことを特徴とする、請求項15に記載のコンピュータ読み取り可能なストレージ媒体。
  19. 前記複数の指示はさらに、
    前記データプロセッサに対し、前記仮想ボリュームを正論理ボリュームにマッピングし、正論理ボリュームを副論理ボリュームにマッピングし、前記正論理ボリュームと前記副論理ボリュームでリモートコピーペアを構成させ、異なる位置にマッピングさせる指示と、
    前記データプロセッサに対し、前記正論理ボリュームとの間のI/O(入力/出力)障害の際に、自動的に前記サーバからのデータを使用するアプリケーションを実行するためのバーチャルマシンを移行先サーバに移行し、前記サーバと前記正論理ボリューム間のI/Oパスから前記移行先サーバと前記副論理ボリューム間の別のI/Oパスに自動的にI/Oを変更させる指示とを含む
    ことを特徴とする、請求項15に記載のコンピュータ読み取り可能なストレージ媒体。
  20. 前記複数の指示はさらに、
    前記データプロセッサに対し、前記仮想ボリュームを正論理ボリュームにマッピングし、正論理ボリュームを副論理ボリュームにマッピングし、前記正論理ボリュームと前記副論理ボリュームでリモートコピーペアを構成し、異なる位置にマッピングさせる指示と、
    前記データプロセッサに対し、前記正論理ボリュームとの間のI/O(入力/出力)障害の際に、前記各論理ボリュームの位置情報と、自動回復副論理ボリュームに要求される条件と、前記複数の論理ボリュームの位置する場所の間の距離に関する距離情報に基づいて、自動回復リモートコピーペアとして、自動的に前記副論理ボリュームを自動回復副論理ボリュームへマッピングさせる指示と、ここで前記自動回復副論理ボリュームに要求される条件は、少なくとも空き容量か、前記副論理ボリュームとの接続性のうちの一つを含む
    ことを有することを特徴とする、請求項15に記載のコンピュータ読み取り可能なストレージ媒体。
JP2013009839A 2012-08-31 2013-01-23 仮想ストレージシステムの管理方法およびリモートコピーシステム Expired - Fee Related JP6141644B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/600,644 2012-08-31
US13/600,644 US8935496B2 (en) 2012-08-31 2012-08-31 Management method of virtual storage system and remote copy system

Publications (3)

Publication Number Publication Date
JP2014049116A true JP2014049116A (ja) 2014-03-17
JP2014049116A5 JP2014049116A5 (ja) 2015-11-19
JP6141644B2 JP6141644B2 (ja) 2017-06-07

Family

ID=47739064

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013009839A Expired - Fee Related JP6141644B2 (ja) 2012-08-31 2013-01-23 仮想ストレージシステムの管理方法およびリモートコピーシステム

Country Status (4)

Country Link
US (2) US8935496B2 (ja)
EP (1) EP2704011A1 (ja)
JP (1) JP6141644B2 (ja)
CN (1) CN103677656B (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015198441A1 (ja) * 2014-06-26 2015-12-30 株式会社日立製作所 計算機システム、管理計算機、および管理方法
WO2016121005A1 (ja) * 2015-01-27 2016-08-04 株式会社日立製作所 管理計算機および計算機システムの管理方法
WO2017081785A1 (ja) * 2015-11-12 2017-05-18 株式会社日立製作所 計算機システム
JPWO2017145272A1 (ja) * 2016-02-24 2018-08-30 株式会社日立製作所 データ移行方法及び計算機システム
JP2019125075A (ja) * 2018-01-15 2019-07-25 富士通株式会社 ストレージ装置、ストレージシステムおよびプログラム
JP2020173498A (ja) * 2019-04-08 2020-10-22 富士通株式会社 管理装置、情報処理システムおよび管理プログラム

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130073600A1 (en) * 2011-09-21 2013-03-21 Jonathan A. Jenkins Remote process execution management
US20130073601A1 (en) * 2011-09-21 2013-03-21 Jonathan A. Jenkins Remote process execution management
US9213497B2 (en) * 2012-12-13 2015-12-15 Hitachi, Ltd. Storage apparatus and storage apparatus migration method
US9069708B2 (en) 2012-12-27 2015-06-30 Nutanix, Inc. Method and system for implementing consistency groups with virtual machines
CN104838367A (zh) * 2013-03-14 2015-08-12 株式会社日立制作所 灾难恢复虚拟化的方法和装置
US9075530B2 (en) * 2013-08-27 2015-07-07 Hitachi, Ltd. Storage system and the storage system management method
WO2015072026A1 (ja) * 2013-11-18 2015-05-21 株式会社日立製作所 計算機システム
JP6227776B2 (ja) * 2014-06-25 2017-11-08 株式会社日立製作所 ストレージシステム
US10185636B2 (en) 2014-08-15 2019-01-22 Hitachi, Ltd. Method and apparatus to virtualize remote copy pair in three data center configuration
US9552248B2 (en) 2014-12-11 2017-01-24 Pure Storage, Inc. Cloud alert to replica
EP3230876B1 (en) * 2015-04-30 2020-01-15 Hewlett-Packard Development Company, L.P. Storage systems
JP6720357B2 (ja) * 2016-06-29 2020-07-08 アマゾン テクノロジーズ インコーポレイテッド ネットワークアクセス可能なデータボリューム変更
US20180143766A1 (en) * 2016-11-18 2018-05-24 International Business Machines Corporation Failure protection copy management
CN108334401B (zh) * 2018-01-31 2020-07-28 武汉噢易云计算股份有限公司 实现逻辑卷动态分配并支持虚拟机动态迁移的系统及方法
US10592155B2 (en) * 2018-04-10 2020-03-17 International Business Machines Corporation Live partition migration of virtual machines across storage ports
CN108762988B (zh) * 2018-05-31 2022-04-22 郑州云海信息技术有限公司 一种数据处理的方法以及相关设备
US10769042B2 (en) * 2018-06-25 2020-09-08 Seagate Technology Llc Single port data storage device with multi-port virtualization
CN109240857A (zh) * 2018-09-25 2019-01-18 郑州云海信息技术有限公司 远程复制关系创建方法、备份方法、装置、设备及介质
US11445017B2 (en) 2019-02-21 2022-09-13 International Business Machines Corporation Maintaining user data and metadata consistency in an asynchronous replication environment
US11392400B2 (en) * 2019-07-17 2022-07-19 Hewlett Packard Enterprise Development Lp Enhanced migration of clusters based on data accessibility
US11386118B2 (en) * 2019-10-17 2022-07-12 EMC IP Holding Company LLC Physical to virtual journal cascading
CN110825712B (zh) * 2019-10-31 2023-08-01 四川效率源科技有限责任公司 一种逻辑卷管理的磁盘簇数据的恢复方法
CN111159024B (zh) * 2019-12-22 2022-04-22 北京浪潮数据技术有限公司 一种远程复制一致性组的测试方法、测试装置及测试设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004259079A (ja) * 2003-02-27 2004-09-16 Hitachi Ltd データ処理システム
JP2005275526A (ja) * 2004-03-23 2005-10-06 Hitachi Ltd ストレージ領域割当て方法
JP2005332354A (ja) * 2004-04-23 2005-12-02 Hitachi Ltd リモートコピーシステム
JP2007140601A (ja) * 2005-11-14 2007-06-07 Hitachi Ltd 記憶制御システム
JP2007188267A (ja) * 2006-01-12 2007-07-26 Hitachi Ltd 記憶制御装置及びその制御方法
JP2009048607A (ja) * 2007-08-20 2009-03-05 Hitachi Ltd 視覚化および地理的分散データセンタ用記憶装置およびサーバプロビジョニング
JP2011076286A (ja) * 2009-09-30 2011-04-14 Hitachi Ltd ボリューム割り当てを管理する計算機システム及びボリューム割り当て管理方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6526419B1 (en) * 2000-06-09 2003-02-25 International Business Machines Corporation Method, system, and program for remote copy in an open systems environment
US7484208B1 (en) 2002-12-12 2009-01-27 Michael Nelson Virtual machine migration
JP4376750B2 (ja) * 2004-10-14 2009-12-02 株式会社日立製作所 計算機システム
US7941602B2 (en) 2005-02-10 2011-05-10 Xiotech Corporation Method, apparatus and program storage device for providing geographically isolated failover using instant RAID swapping in mirrored virtual disks
JP5036158B2 (ja) 2005-10-05 2012-09-26 株式会社日立製作所 情報処理システム及び情報処理システムの制御方法
JP4963892B2 (ja) 2006-08-02 2012-06-27 株式会社日立製作所 仮想ストレージシステムの構成要素となることが可能なストレージシステムの制御装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004259079A (ja) * 2003-02-27 2004-09-16 Hitachi Ltd データ処理システム
JP2005275526A (ja) * 2004-03-23 2005-10-06 Hitachi Ltd ストレージ領域割当て方法
JP2005332354A (ja) * 2004-04-23 2005-12-02 Hitachi Ltd リモートコピーシステム
JP2007140601A (ja) * 2005-11-14 2007-06-07 Hitachi Ltd 記憶制御システム
JP2007188267A (ja) * 2006-01-12 2007-07-26 Hitachi Ltd 記憶制御装置及びその制御方法
JP2009048607A (ja) * 2007-08-20 2009-03-05 Hitachi Ltd 視覚化および地理的分散データセンタ用記憶装置およびサーバプロビジョニング
JP2011076286A (ja) * 2009-09-30 2011-04-14 Hitachi Ltd ボリューム割り当てを管理する計算機システム及びボリューム割り当て管理方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015198441A1 (ja) * 2014-06-26 2015-12-30 株式会社日立製作所 計算機システム、管理計算機、および管理方法
JPWO2015198441A1 (ja) * 2014-06-26 2017-04-20 株式会社日立製作所 計算機システム、管理計算機、および管理方法
WO2016121005A1 (ja) * 2015-01-27 2016-08-04 株式会社日立製作所 管理計算機および計算機システムの管理方法
US10359938B2 (en) 2015-01-27 2019-07-23 Hitachi, Ltd. Management computer and computer system management method
WO2017081785A1 (ja) * 2015-11-12 2017-05-18 株式会社日立製作所 計算機システム
JPWO2017145272A1 (ja) * 2016-02-24 2018-08-30 株式会社日立製作所 データ移行方法及び計算機システム
JP2019125075A (ja) * 2018-01-15 2019-07-25 富士通株式会社 ストレージ装置、ストレージシステムおよびプログラム
JP2020173498A (ja) * 2019-04-08 2020-10-22 富士通株式会社 管理装置、情報処理システムおよび管理プログラム
JP7193732B2 (ja) 2019-04-08 2022-12-21 富士通株式会社 管理装置、情報処理システムおよび管理プログラム

Also Published As

Publication number Publication date
US9170743B2 (en) 2015-10-27
CN103677656A (zh) 2014-03-26
EP2704011A1 (en) 2014-03-05
US20150121005A1 (en) 2015-04-30
CN103677656B (zh) 2016-07-06
JP6141644B2 (ja) 2017-06-07
US20140068210A1 (en) 2014-03-06
US8935496B2 (en) 2015-01-13

Similar Documents

Publication Publication Date Title
JP6141644B2 (ja) 仮想ストレージシステムの管理方法およびリモートコピーシステム
US9971709B1 (en) Data migration techniques
JP5968554B2 (ja) ディザスタリカバリ仮想化の方法及び装置
JP4700459B2 (ja) データ処理システム及びデータ管理方法並びにストレージシステム
JP5718533B1 (ja) ストレージシステムのデータ移行方法
US7558916B2 (en) Storage system, data processing method and storage apparatus
EP2120148B1 (en) Remote storage disk control device and method for controlling the same
US10152281B2 (en) Systems, devices, apparatus, and methods for transparently inserting a virtual storage layer in a fibre channel based storage area network while maintaining continuous input/output operations
JP4800059B2 (ja) 仮想ストレージシステム及びその制御方法
US9733989B1 (en) Non-disruptive load-balancing of virtual machines between data centers
US10241712B1 (en) Method and apparatus for automated orchestration of long distance protection of virtualized storage
US20120278553A1 (en) System and method for migration of data clones
US9661078B1 (en) Federated namespace management
US20100036896A1 (en) Computer System and Method of Managing Backup of Data
US9535629B1 (en) Storage provisioning in a data storage environment
JP7012010B2 (ja) 情報処理システム、及び、情報処理システムの制御方法
US8832325B1 (en) Transfer between storage devices
US8880821B1 (en) Determining whether to migrate from a source storage device to a target storage device
JP2024027156A (ja) 情報処理システム及び方法
JP6000391B2 (ja) ストレージシステムのデータ移行方法
US20210342366A1 (en) Embedded container-based control plane for clustered environment
WO2016153497A1 (en) Method and apparatus for remote copy between enterprise storage and commodity hardware based software storage

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151005

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151005

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170508

R150 Certificate of patent or registration of utility model

Ref document number: 6141644

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees