JP2005202495A - データ移行方法 - Google Patents

データ移行方法 Download PDF

Info

Publication number
JP2005202495A
JP2005202495A JP2004005635A JP2004005635A JP2005202495A JP 2005202495 A JP2005202495 A JP 2005202495A JP 2004005635 A JP2004005635 A JP 2004005635A JP 2004005635 A JP2004005635 A JP 2004005635A JP 2005202495 A JP2005202495 A JP 2005202495A
Authority
JP
Japan
Prior art keywords
migration
storage subsystem
data
host computer
path
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004005635A
Other languages
English (en)
Other versions
JP4500057B2 (ja
Inventor
Chiyokuki Watanabe
直企 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2004005635A priority Critical patent/JP4500057B2/ja
Priority to US10/791,734 priority patent/US7127581B2/en
Priority to EP04009723A priority patent/EP1555604A3/en
Publication of JP2005202495A publication Critical patent/JP2005202495A/ja
Priority to US11/517,386 priority patent/US7269703B2/en
Priority to US11/826,561 priority patent/US7536527B2/en
Application granted granted Critical
Publication of JP4500057B2 publication Critical patent/JP4500057B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • G06F3/0607Improving or facilitating administration, e.g. storage management by facilitating the process of upgrading existing storage systems, e.g. for improving compatibility between host and storage device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/0706Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment
    • G06F11/0727Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment in a storage system, e.g. in a DASD or network based storage system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0614Improving the reliability of storage systems
    • G06F3/0617Improving the reliability of storage systems in relation to availability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0635Configuration or reconfiguration of storage systems by changing the path, e.g. traffic rerouting, path reconfiguration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/0647Migration mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0662Virtualisation aspects
    • G06F3/0665Virtualisation aspects at area level, e.g. provisioning of virtual or logical volumes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/0751Error or fault detection not based on redundancy
    • G06F11/0754Error or fault detection not based on redundancy by exceeding limits
    • G06F11/076Error or fault detection not based on redundancy by exceeding limits by exceeding a count or rate limit, e.g. word- or bit count limit
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/1666Error detection or correction of the data by redundancy in hardware where the redundant component is memory or memory area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Quality & Reliability (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Hardware Redundancy (AREA)

Abstract

【課題】大規模、複雑なシステムにおいても可用性を低下させることのないデータ移行システムを提供する。
【解決手段】移行元記憶サブシステムに記憶されているデータを、移行先記憶サブシステムへ移行するデータ移行方法であって、前記移行元記憶サブシステムから前記移行先記憶サブシステムへデータを移行する前に、経路移行状態が設けられており、前記経路移行状態では、前記ホストコンピュータから前記移行元記憶サブシステム及び前記移行先記憶サブシステムへのアクセスを可能とするように経路を設定し、前記移行先記憶サブシステムは、前記ホストコンピュータからの書き込み要求に対し前記移行元記憶サブシステムにデータを書き込み、前記ホストコンピュータからの読み出し要求に対し前記移行元記憶サブシステムからデータを読み出して前記ホストコンピュータに送信する。
【選択図】 図1

Description

本発明は、コンピュータシステムで用いられる記憶サブシステムに格納されたデータを移行する方法に関し、特に、記憶サブシステム群間を接続し、上位装置たる複数のホストコンピュータ群に影響を与えることなく旧記憶サブシステムのデータを新記憶サブシステムに移行する、データ移行方法に関する。
記憶システムに格納されたデータの移行には、上位装置(ホスト)からのアクセス中のデータ移行には、拡張リモートコピー機能(XRC:Extended Remote Copy)、又は対等リモートコピー機能(PPRC:Peer-to-Peer Remote Copy)がIBM社から提案されている(例えば、非特許文献1参照。)。
また、SymmetrixData Migration Service(SDMS)がEMC社から提案されている(例えば、非特許文献2参照。)。
「Implementing ESS Copy Services on S/390」,IBM P.502.8.5 DASD migration 「Symmetrix Data Migration Services」,EMC Corporation,インターネットURL <http://japan.emc.com/pdf/products/sdms/sdms_ds.pdf>
しかし、これらの従来技術においては、ホストから記憶サブシステムに対するアクセス経路を、旧記憶サブシステムから新記憶サブシステムに切り替える経路切り替え時にはデータ移行にかかわる全てのホストコンピュータを同時に停止し、経路切り替えを行う必要がある。このときデータ移行対象システムが大規模、複雑となると移行時間も増加しシステム全体の可用性が低下する。
本発明は、大規模、複雑なシステムにおいても可用性を低下させることのないデータ移行方法を提供することを目的とする。
本発明では、ホストコンピュータと、前記ホストコンピュータに接続されている記憶サブシステムと、を備えた情報処理システムにおいて用いられ、移行元記憶サブシステムに記憶されているデータを、移行先記憶サブシステムへ移行するデータ移行方法であって、前記移行元記憶サブシステムから前記移行先記憶サブシステムへデータを移行する前に、経路移行状態が設けられており、前記経路移行状態では、前記ホストコンピュータから前記移行元記憶サブシステム及び前記移行先記憶サブシステムへのアクセスを可能とするように経路を設定し、前記移行先記憶サブシステムは、前記ホストコンピュータからの書き込み要求に対し前記移行元記憶サブシステムにデータを書き込み、前記ホストコンピュータからの読み出し要求に対し前記移行元記憶サブシステムからデータを読み出して前記ホストコンピュータに送信する。
本発明によると、大規模、複雑なシステムにおいても可用性の低下を抑制することができる。
以下、本発明の実施の形態を図面を参照して説明する。
図1は、本発明の実施の形態の情報処理システムの構成を表すブロック図である。
この情報処理システムは、ホストコンピュータ101a、101b、旧記憶サブシステム103a、及び、新記憶サブシステム103bから構成される。ここで、記憶サブシステムとは、上位装置(ホストコンピュータ)に対し情報を授受する制御部(コントローラ201)と、情報を格納するディスク装置210を内蔵する記憶サブシステムである。本実施の形態では、記憶サブシステム103の例としてディスクアレイ装置について説明するが、本発明が適用される記憶サブシステムはディスクアレイ装置に限られず、他の記憶サブシステムを用いるものであってもよい。
また、ホスト101、旧記憶サブシステム103a、新記憶サブシステム103bは1以上であれば単数でも複数でもよい。
さらに、旧記憶サブシステム103aはデータの移行元であり、新記憶サブシステム103bはデータの移行先である。なお、以下の説明では、新記憶サブシステム103aと旧記憶サブシステム103bとを、符号a、bによって区別するが、新/旧を区別する必要がないときには符号のa、bを省いて記載する。
各ホスト101は、ワークステーション、マイクロコンピュータ又はメインフレームコンピュータ等であり、アプリケーションプログラムやデータベースシステムが稼働している。
記憶サブシステム103は、一つ以上のインタフェース104を有し、ストレージエリアネットワーク(SAN)102を経由してホスト101と接続されている。本実施の形態は、ホスト101と記憶サブシステム103とがSAN102によって接続されているが、SAN102によらずホスト101と記憶サブシステム103を直接接続してもよい。インタフェース104は、SCSI(Small Computer System Interface)、ファイバチャネル(Fibre channel)、iSCSI(Internet SCSI)やFICON、ESCON等の記憶サブシステム向けインタフェースである。本発明においてはSAN102の構成及びインタフェース104の種類に特に制限はない。以下、本実施の形態の説明においては、インタフェース104の例としてファイバチャネルインタフェースについて説明する。
記憶サブシステム103は、一つ以上の論理ボリューム105を有する。ホスト101からはインタフェース104を介して論理ボリューム105への読み出し・書き込み等のアクセスが可能である。このとき各インタフェース104が提供する記憶サブシステム用のプロトコルを使用する。ファイバチャネルではFCP(Fibre Channel Protocol for SCSI)、FICONではFC−SB(Single Byte Protocol)を用いる。本発明において用いられるプロトコルの種別は特に制限はない。
新記憶サブシステム103bは、移行処理に必要な移行プログラム106、構成情報107、制御情報108、更新情報109及びデータ110を保持する。
移行プログラム106は、移行処理を実行するためのプログラムである。構成情報107及び制御情報108は記憶サブシステム103の構成と制御に関する情報であり、移行プログラム106が該情報を参照し移行処理を実行する。移行プログラム106が使用する制御情報としてはデータ移行処理の進捗を示す進捗ポインタがある。
更新情報109は、データ移行処理時にホスト101から受け付けた書き込み要求に関する更新情報を保持し、後述するビットマップ等の形態をとることができる。記憶サブシステム103には、ホスト101からのデータの読み出し・書き込み要求に関するデータ110を一時的に記憶するキャッシュメモリが設けられており、通常動作時のデータ入出力処理の高速化、データ移行処理のデータ処理を実施する(図9の905、図11の1105等)。
移行プログラム106は、論理ボリューム105毎に設けられた進捗ポインタとビットマップを用い、ボリューム105毎にデータ移行処理を行う。
なお、ここまでに説明した各プログラム106は、コンパクトディスクや光磁気ディスクといった可搬記憶媒体を用いて、あるいは、管理ネットワーク111を介して、他の装置から各記憶サブシステム103に設けられる記憶媒体にインストールされる。
移行管理ホスト112は、ワークステーション、パーソナルコンピュータ又はメインフレーム等のコンピュータであり、CPU、メモリ及び記憶装置を備えている。CPUでは移行管理プログラム113が動作しており、旧記憶サブシステム103aから、新記憶サブシステム103bへの、データ移行処理を管理する。また、メモリ(又は、記憶装置)には、移行管理テーブル114が保持されている。
移行管理プログラム113は、データ移行処理を監視・管理するものである。移行管理プログラム113は、該移行管理テーブル114を使用してデータ移行処理の監視、制御を行う。具体的には、移行管理プログラム113は、管理用ネットワーク111を介して接続された各記憶サブシステム103の状態の監視と、構成変更、データ移行処理等を実施する。一般に管理ネットワーク111はIPプロトコルを用いたイーサネット(登録商標、以下同じ)等にて構成されているが、どのようなネットワークでもよい。
また、移行管理プログラム113は、移行管理テーブル114の全体又は一部を新記憶サブシステム103bの移行プログラム106に送付する。移行プログラム106は、送付された移行管理テーブル114に基づいて、構成情報107及び制御情報108を作成する。
本実施の形態では、ホスト101、記憶サブシステム102とは別に移行管理ホスト112を設けているが、移行管理プログラム113、移行管理テーブル114は移行処理を行うシステム内のどの装置に実装することができる。
図2に、本発明の実施の形態の記憶サブシステム103の構成図である。
各記憶サブシステム104は、コントローラ201、一つ以上のディスク装置210を有する。コントローラ201は、ホストアダプタ203、メモリ205、ディスクアダプタ207、プロセッサ(CPU)202及びネットワークコントローラ204を有する。各々の構成の数は、本発明の本質とは関係ないが性能及び信頼性の観点から多重化することが好ましい。
ホストアダプタ203は、ファイバチャネル等のインタフェース104に関するプロトコルを制御する。
ネットワークコントローラ204は、監視系ネットワークのプロトコル制御を行い、移行管理ホスト112との通信を実行する。
メモリ205には、データ移行処理に関するプログラム及びデータが格納されている。具体的には、データ移行処理を実現するための移行プログラム106、データ移行処理の構成情報107、制御情報108、更新情報109及びデータ110が格納される。メモリ205には、これらのプログラム及びデータの他に、記憶サブシステム103を制御するために必要な制御プログラムや制御情報、ホスト101に対する入出力処理に関するキャッシュデータ110が格納される。高信頼化のために、メモリ205を二重化したり、メモリ205への電源を二重化することが好ましい。
ディスクアダプタ207は、ホストアダプタ203と同様に、ファイバチャネル等のディスクインタフェース209に関するプロトコル処理を行う。
ディスク装置210は、ディスクインタフェース209を介してコントローラ201からの読み出し、書き込み等のコマンドを受け付け、コマンドによって規定される処理を行う。高信頼化のため、ディスクインタフェース209を二重化することが好ましい。
記憶サブシステム103は、ディスク装置210を複数組み合わせ冗長構成とし、この中に論理的なデバイス(論理ボリューム)105を作成する。プロセッサ(CPU)202は、記憶サブシステム103に関する処理を実行する。プロセッサ202は内部バス208を介しコントローラ201内のホストアダプタ203、ディスクアダプタ207及びネットワークコントローラ204と接続され、プロセッサ202がこれらを制御する。また、プロセッサ202は、メモリ205とも内部バス208を介し接続されており、メモリ205に格納されたプログラム106や制御情報108をロードして実行する。旧記憶サブシステム103aは新記憶サブシステム103bと同様に図2に示す構成を有する。なお、旧記憶サブシステム103aはデータ移行処理に対応する必要はなく、ホスト101に対するデータ入出力を提供する機能のみを有すれば足りる。
また、本実施の形態においては簡素な内部構成を用い説明したが、同等機能を実現可能な場合は内部構成に関しては特に制約はない。例えば、特開平10−333836号公報に示すように、内部バス208の代わりにスイッチを使用してコントローラの各構成間で通信するように構成してもよい。
図3は、本発明の実施の形態の移行処理のフローチャートであり、図4は、図3に示す移行処理における情報処理システムの動作の説明図である。
図4において、データ移行処理は、移行先記憶サブシステム103bの移行プログラム106によって行われ、移行元記憶サブシステム(旧記憶サブシステム)103aに格納されたデータが移行先記憶サブシステム(新記憶サブシステム)103bへ移行される。
まず移行前の状態(図4(a))において、移行管理プログラム113はデータ移行のための初期設定をする。具体的には、移行元記憶サブシステム103aの論理ボリューム105aと移行先記憶サブシステム103bの論理ボリューム105bのペアを設定する。移行のためのペアは論理ボリューム105単位で設定する。この際関連するホスト101(ホスト101で稼動するアプリケーション、ファイルシステム等の情報)も設定する(301)。
初期設定の後、移行先記憶サブシステム103bをSAN102に接続し、情報処理システムに追加する(302)。このとき、移行先記憶サブシステム103bは物理的にSAN102に接続されているものの、ホスト101からのアクセスを受け付けないように、移行管理プログラム113が移行先記憶サブシステム103bに対して指示をする(図4(b))。
次に経路移行処理(303)を開始する。経路移行処理では移行先記憶サブシステム103bを経路移行状態とする。移行管理プログラム113は移行管理テーブル113によって管理される全ての移行先記憶サブシステム103bに対し、以下の動作を行うための指示をする。
経路移行中は、経路移行を終えたホスト101aは移行先記憶サブシステム103bへアクセスする。このとき、ホスト101aからの読み出し要求を受信すると、移行先記憶サブシステム103bは当該リード要求に対応するデータを移行元記憶サブシステム103aから読み出し、ホスト101aへ返送する。また、ホスト101aからの書き込み要求を受信すると、更新すべきデータを移行元記憶サブシステム103aへ書き込む(図4(c))。
一方、経路移行を行っていないホスト101bは移行元記憶サブシステムへアクセスする(図4(c))。ホスト101の経路移行はアクセス先記憶サブシステム103を移行元記憶サブシステム103aから移行先記憶サブシステム103bへ切り替える処理である。例えば、ファイバチャネルプロトコルであれば、ホスト101に設定されている記憶サブシステムの情報(WWN:World Wide Name)を移行元記憶サブシステム103aから移行先記憶サブシステム103bへ変更する。iSCSIであればiSCSI Nameを移行元記憶サブシステム103aから移行先記憶サブシステム103bへ変更する。上記経路移行処理は管理者が手動で構成ファイルを変更してもよいが、ホスト101上の経路管理プログラム(例えば、HDLM:Hitachi Dynamic Link Manager等)と移行管理プログラム112が連携することによって実現することもできる。
これらの経路移行処理が全て終了すると、全てのホスト101は移行先記憶サブシステム103bにアクセスし、移行元記憶サブシステム103aは、ホストからアクセスされなくなる(図4(d))。
経路移行処理が終了するとデータ移行処理を実行する(304)。移行管理プログラム113は移行先記憶サブシステム103bが移行元記憶サブシステム103aのデータを転送するよう移行先記憶サブシステム103bに指示する。
全てのデータの転送が終了すると、移行元記憶サブシステム103aをSAN102から切り離し、情報処理システムから削除する(図4(f))。これで、移行元記憶サブシステム103aにフォーマット処理等を施して、格納されていたデータを消去した後に、他のシステムに組み込み、別の目的に使用することができる。
上記の処理では、移行元記憶サブシステム103a、移行先記憶サブシステム103bは、それぞれの状態において動作が異なる。各状態の管理と各記憶サブシステム103に対する動作の指示は移行管理プログラム113が行う。
図5に、本発明の実施の形態の移行処理の各状態における移行元記憶サブシステム103a、移行先記憶サブシステム103bの動作を示す。
本実施の形態においては、移行処理状態(移行ステータス)は「移行処理前」(505)、「経路移行状態」(506)、「データ移行状態」(507)、「移行処理後」(508)の4種類がある。前述した移行処理フローチャート(図3)において、処理301、302の実行中が「移行処理前」505で、処理303の実行中が「経路移行状態」506で、処理304の実行中が「データ移行状態」507で、処理304の実行終了後が「移行処理後」508となる。
図5において、カラム501には各状態に対する番号を示し、カラム502には移行元記憶サブシステム103aの各読み出し・書き込み処理に対する動作を示し、カラム504には移行先記憶サブシステム103bの各読み出し・書き込み処理に対する動作を示す。
移行元記憶サブシステム103aは、データ移行処理実行前(移行処理前(505)、経路移行状態(506))は、記憶サブシステム103の通常状態における動作と同じ動作をする。すなわち、ホスト101は、移行元記憶サブシステム103aに対する読み出し・書き込み処理を行う。また、移行元記憶サブシステム103aは、データ移行処理実行後(データ移行状態(507)、移行処理後(508)には、ホスト101から移行元記憶サブシステム103aに対する読み出し・書き込み処理等によるアクセスができない状態にする。
移行先記憶サブシステム103bは、移行処理前(505)には、ホスト101からデータの読み出し、書き込み処理等によるアクセスができない状態にする。
移行先記憶サブシステム103bは、経路移行状態(506)に書き込み要求を受信すると、移行先記憶サブシステム103bで書き込みデータを一旦受け取った後に、移行元記憶サブシステム103aに該データを書き込む。また、読み出し要求を受信すると、最新のデータが移行元記憶サブシステム103aに格納されているため、移行先記憶サブシステム103bは移行元記憶サブシステム103aの該当するアドレスからデータを読み出し、ホスト101へ要求データを送信する。すなわち、ホスト101から移行先記憶サブシステム103bに対する読み出し・書き込み要求に応じて移行元記憶サブシステム103aが最新の状態となるように、他方の記憶サブシステム103が動作する。
データ移行状態(507)では、移行先記憶サブシステム103bは、移行元記憶サブシステム103aから移行先記憶サブシステム103bへのデータ移行処理を行う。よって、データ移行が済んでいない領域に対する読み出し要求は、移行元記憶サブシステム103aからデータを読み出す。しかし、データ移行が済んでいる領域に対する読み出し要求や、書き込み要求は、移行先記憶サブシステム103aに対して処理される。
移行処理後(508)では、移行先記憶サブシステム103bに最新のデータが格納されるため、ホスト101から移行先記憶サブシステム103bに対する読み出し、書き込み要求は移行先記憶サブシステム103bに対して行われる。
図6は、本発明の実施の形態の移行管理テーブル114の説明図である。
移行管理テーブル114は、移行管理プログラム113によって作成され、移行管理ホスト112に格納される。移行管理プログラム113は移行管理テーブル114によって移行処理を管理し遂行する。移行処理においては、「移行グループ」と呼ばれる管理単位が設けられている。移行グループとしては論理ボリューム105を最小単位としホスト101やファイルシステム、アプリケーション、ユーザ、部門、フロア、建物等の最適な単位を、管理単位として用いる。
各移行グループには特有の識別子であるグループID601が付される。移行プログラム113は、管理テーブル(図6)の移行状態欄602によって、各移行グループ毎に移行の状態を管理する。各移行グループは移行を行うボリューム毎に、移行元記憶サブシステムを移行元記憶サブシステムID603によって管理し、移行先記憶サブシステムを移行先記憶サブシステムID604によって管理する。移行元記憶サブシステムID603及び移行先記憶サブシステムID604に基づいて、移行グループが属する記憶サブシステム103と記憶サブシステム103内の論理ボリューム105を特定することができる。
さらに、移行管理テーブル114には、各移行グループに関する詳細情報605として、例えばディレクトリの情報が格納されている。この詳細情報605によって移行処理を管理する管理者が移行グループの内容を容易に認識することができ、移行処理全体のスケジュール、手続き等を決定することができる。
移行管理プログラム113は、移行管理テーブル114に基づいてボリューム単位で移行処理の進行を指定する。また、移行管理プログラム113は、図5で示した動作状態を移行元記憶サブシステム103a及び移行先記憶サブシステム103bに対して指定する。
[経路移行処理]
図7は、本発明の実施の形態の経路移行処理(図3のステップ303)の詳細な動作を示すフローチャートである。
経路移行処理は移行グループ毎に実行される。図7は任意の移行グループにおける移行処理の詳細を示す。各移行グループには一つ以上の移行される論理ボリューム106のペアが存在する。
まず、移行処理プログラム113は、移行グループに属しているホスト101のうち、経路を移行していないホスト101が存在するかを確認する(701)。
全てのホスト101の経路移行が終了している場合には、経路移行処理を終了し、データ移行処理(図3のステップ304)を実行する。移行グループ内の移行元記憶サブシステム103aのボリューム105aに対するホスト101からの読み出し、書き込み等のアクセスを制限する。アクセス制限には複数の方法があり、その詳細は後述する。この際データ移行のため移行元記憶サブシステム103aと移行先記憶サブシステム103bの間の通信経路は確保した状態で保持しておく(702)。その後、移行管理テーブル114の該当する移行グループについて移行状態を「経路移行状態」から「データ移行状態」に変更する。
経路移行が行われていないホスト101が存在する場合には、該ホスト101について経路移行の処理(706〜708)を実行する。
まず、経路移行が行われていないホスト101の中から、次に経路移行処理を行うホスト101を選択する(703)。
その後、移行処理が完了していない記憶サブシステム103があるか否かを判定する(704)。そして、該ホスト101に関し、経路移行処理をすべき移行グループ内の記憶サブシステム103を選択する(705)。この際、該ホスト101に関連する記憶サブシステム103内のボリューム105全てについて以下の経路移行の処理(706〜708)を実施する。ホスト101は経路の変更を行うために、経路切り替えに関する記憶サブシステム103との接続を切断する(706)。通常、この記憶サブシステム103との接続の切断は、ホスト101のオペレーティングシステムで提供されているアンマウント処理によって実現可能であり、前述したHDLM等の経路管理プログラムを使用しても実現可能である。
移行先記憶サブシステム103bは移行元記憶サブシステム103aと別の記憶サブシステム103の識別子を有するので、ホスト101は記憶サブシステム103に関する設定情報を変更し、経路を変更する(707)。記憶サブシステム103の識別子としてはファイバチャネル SCSI(FCP)ではWWN、iSCSIではiSCSI Name、FICONではファイバチャネルのWWN又はポートIDを使用する。
記憶サブシステム103は一つ以上の識別子を有し、ホスト101は一つの記憶サブシステム103に対して複数の識別子を有する場合がある。この場合、移行管理テーブル114において指定された移行処理に関連する識別子に関してのみ経路移行処理を行う。
ホスト101は経路の変更を終えた後に、経路切り替えに関する記憶サブシステム103と接続する(708)。通常はホスト101のオペレーティングシステムで提供されているマウント処理によって実現可能である。
以後、全ての記憶サブシステムについて経路移行処理が終了するまで、該当する全ての記憶サブシステム103に対して704〜708の処理を繰り返し実行する。全ての記憶サブシステム103に関する経路切り替え処理が終了すると、再度、経路移行が終了していないホスト101の有無を検索し、移行グループ内の全てのホスト101に関する経路移行処理が終わるまで703〜708の処理を繰り返し実行する。
以上説明した経路移行処理では、記憶サブシステム103を一つずつ変更しているが、複数の記憶サブシステムの経路変更処理(704〜708)を同時に実行してもよい。
また、移行管理テーブルに基づいてホスト101を選択した後に、該ホストが関連する記憶サブシステム103に関する経路移行処理を実行したが、先に記憶サブシステム103を選択し、該記憶サブシステム103に関連するホスト101に関して経路移行処理を実行してもよい。
[データ移行処理]
図8は、本発明の実施の形態のデータ移行処理(図3のステップ304)の詳細な動作を示すフローチャートである。
データ移行処理は、各移行先記憶サブシステム103bの移行プログラム106によって実行され、各ボリューム105に対する処理を示している。
まず、データ移行処理のための各種変数を初期化して、初期設定を行う(801)。代表的な変数としては、移行進捗を示す進捗ポインタや移行状態を示す移行ステータス等の制御情報108、及び更新状態を示すビットマップ等の更新情報109を初期化する。なお、本実施の形態のデータ移行処理では、移行領域の管理にビットマップを用いる例を説明する。
移行プログラム106は、任意の管理単位に1ビットのフラグを割り当て、移行の要否を示すビットマップを構成する。管理単位はSCSI等でよく使用される1ブロック(512Byte)や、任意の大きさ(例えば、1MByte等)でもよい。ビットがONになっている(値が1である)場合には、最新状態になっているため移行が不要とし、ビットがOFFになっている(値が0である)場合には、最新状態ではないので移行が必要とする。移行プログラム106はデータ移行処理時の初期化時に全ビットをOFFに設定し、データ移行処理を開始する。
移行ステータスはボリュームに関する状態を示し、移行処理の4状態(図5に示す「移行処理前」(505)、「経路移行状態」(506)、「データ移行状態」(507)、「移行処理後」(508))のいずれかとなる。進捗ポインタはデータ移行の進捗を示し、初期化時に移行プログラム106によってボリューム105の先頭を示すよう初期化される。データ移行処理を実行する毎に移行プログラム106は進捗ポインタを更新する。通常、進捗ポインタはボリューム105のアドレスを示す。例えば、進捗ポインタにデータ移行が進行したバイト数を加算して、アドレスをインクリメントする。
移行先記憶サブシステム103bの移行プログラム106は、データ移行中のボリューム105の進捗ポインタを調査し、データ移行処理の状態を確認する(802)。進捗ポインタがボリューム105の末尾を示しているときには該ボリューム105のデータ移行が終了しており、以後、移行プログラム106は該ボリューム105に対するデータ移行処理を行わない。
移行プログラム106は、進捗ポインタが示す領域のデータを移行するために、該領域の状態を確認する(803)。該領域が読み出し、書き込み処理等によって使用されていない場合、該領域を確保し次の処理に進む(805)。一方、該領域が読み出し、書き込み処理等によって使用中の場合、移行プログラム106は該領域が使用可能になるまで待機し(804)、該領域が確保(805)できた後に次の処理に進む。
移行プログラム106は、移行元記憶サブシステム103aより該領域に記憶されたデータを読み出し(806)、キャッシュメモリ110に格納し、移行先記憶サブシステム103bのディスク装置210に書き込む(807)。
移行プログラム106は、移行元記憶サブシステム103aから移行先記憶サブシステム103bへ移行されたデータに関する制御情報を更新する。ビットマップに関しては移行済み領域に対応するビットをONにし(808)、移行済み領域の大きさだけ進捗ポインタを進める(809)。
通常キャッシュメモリ110は二重化、不揮発化されているため、必ずしも上記タイミングで移行先記憶サブシステム103bのディスク装置210へ書き込む必要はない。移行データをキャッシュメモリ110に格納した直後にビットマップや進捗ポインタを更新し、次の移行データの処理を実行してもよい。
[書き込み処理]
図9は、本発明の実施の形態の経路移行状態とデータ移行状態における書き込み処理の概要を示し、図10は、この書き込み処理の詳細な動作を示すフローチャートである。
経路移行状態(図9(a))では、ホスト101から移行先記憶サブシステム103bへ書き込まれるデータ901は、移行先記憶サブシステム103bではなく、移行元記憶サブシステム103aに格納される。すなわち、経路移行状態では、全ての書き込みは移行先記憶サブシステム103bには残さず移行元記憶サブシステム103aに反映される。
具体的には、まず、移行先記憶サブシステム103bは、ホスト101から受け取ったデータ901を移行先記憶サブシステム103bのキャッシュメモリ110へ格納する。そして、移行先記憶サブシステム103bは、キャッシュメモリ110に格納したデータを移行元記憶サブシステム103aのディスク装置210の記憶領域に書き込む。そして、移行元記憶サブシステム103aに書き込んだ後に、ホスト101に対し当該書き込み処理の結果904を返送する。経路移行状態においてはデータ移行処理を伴わないので、ビットマップ109は更新されない(903)。
データ移行状態(図9(b))では、ホスト101から移行先記憶サブシステム103bへ書き込まれるデータ901は、移行先記憶サブシステム103bに格納される。
具体的には、まず、移行先記憶サブシステム103bは、ホスト101から受け取ったデータ901を移行先記憶サブシステム103bのキャッシュメモリ110へ格納する。そして、データが未移行の場合、書き込みの対象となる領域のデータをこの読み出しタイミングで移行する。
データ移行処理における管理単位は、ホスト101からのアクセス単位と異なる(通常は、データ移行処理における管理単位はホスト101のアクセス単位よりも大きい)。データ901の書き込み対象となる領域がデータ移行処理の管理単位よりも小さい場合には、移行先記憶サブシステム103bは移行元記憶サブシステム103aから該領域に関する管理単位の分のデータを読み込んで(905)、キャッシュ110に書き込む。
そして、キャッシュ110において、移行元記憶サブシステム103aから読み出されたデータと、ホスト101から受け取ったデータ901を合わせて、移行先記憶サブシステム103bのディスク装置210へ書き込む。このディスク装置210への書き込みと共に、データ移行を管理するビットマップ109の該当するビットをONにする(906)。
次に、図10を用いて書き込み処理の詳細な動作を説明する。
移行先記憶サブシステム103bの移行プログラム106は、ホスト101から要求を受け付けると移行処理の状態を確認する(1001)。移行処理前は、移行先記憶サブシステム103bに対してアクセスすることができないので(図5参照)、移行処理前にアクセス要求を受け付けた場合には、異常であると判定し、ホストにエラーを送信する(1002)。状態が「移行処理前」でなければ、移行先記憶サブシステム103bにアクセス可能なので、正常であると判定し、処理を継続する。
移行先記憶サブシステム103bの移行プログラム106は、書き込み要求の内容を解析する(1003)。そして、該書き込み要求によって指示されたアドレスに対応する領域を選択し、キャッシュメモリ110にデータ格納用領域を確保する(1004)。この際、要求に係るデータが使用可能なキャッシュメモリ110よりも大きい場合は、全データが受け取り済みになるまで、1004〜1014の処理を繰り返す(1015)。
移行プログラム106は、ホスト101から書き込みデータを受け取り、該受け取ったデータをキャッシュメモリ110に確保された領域に格納する(1005)。
そして、状態が「経路移行中」であるか否かを判定し(1006)、「経路移行中」である場合は、そのまま移行元記憶サブシステム103aへデータを書き込む(1007)。そして、全てのデータの書き込みが終了すると(1015)、ホスト101へ当該処理の結果を返送し(1016)、書き込み処理が終了する。
一方、「経路移行中」でない場合は、「データ移行中」であるか否かを判定し(1008)、「データ移行中」である場合は、進捗ポインタ及びビットマップを参照し、書き込みに係る領域が移行済みか否かを判定する(1009)。
移行済み領域である場合は、移行先記憶サブシステム103bへデータを書き込む(1014)。すなわち、通常の記憶サブシステム103のデータ書き込み動作と同様の処理を実行する。なお、データ移行処理が終了した場合、全ての領域について移行済みであるため、移行先記憶サブシステム103bへデータが書き込まれる。
一方、移行済み領域ではない場合は、移行元記憶サブシステム103aからデータを読み出し(1010)、該移行元記憶サブシステム103aから読み出されたデータと、ホスト101から受け取ったデータ901とを、キャッシュメモリ110において合わせ、新領域データを生成する(1011)。具体的には移行元記憶サブシステム103aから読み出したデータに対し、書き込みデータ901を該当する箇所に上書きする。
そして、移行プログラム106は、生成された新領域データを移行先記憶サブシステム103bのディスク装置210に書き込み(1012)、該領域に対する移行済みビットをONにして、該領域が移行済みであることを示す(1013)。
書き込み要求に関する全てのデータに対して、上記処理が実行された後に、移行プログラム106はホスト101に対して当該処理の結果を送信する(1016)。
本実施の形態の書き込み処理において行われるデータ書き込み(1007、1012、1014)はデータの一貫性を保証するためホストへの処理結果返送処理1016より先に実行されなければならない。しかし、処理1012及び処理1014においては移行先記憶サブシステム103bにデータが書き込まれ、移行先記憶サブシステム103bのキャッシュ110においてデータの一貫性を保証するため、ホストへのステータス返送処理1016と同期しないタイミングで実施してもよい。
本実施の形態の書き込み処理では、移行元記憶サブシステム103aから読み出し、書き込みデータ901とキャッシュ110で合わせて、ディスク装置210に書き込むデータ移行方法について説明したが、他にもビットマップを使用することなく、進捗ポインタのみによって管理することもできる。この場合、全ての書き込みデータ901は移行先記憶サブシステム103bのディスク装置210に書き込まれるが、進捗ポインタより大きいアドレスの未移行領域への書き込みデータ901は、移行元記憶サブシステム103aにも書き込む。その後、図8で示したデータ移行処理によって移行元サブシステム103aから移行先記憶サブシステム103bへデータが移行される。
[読み出し処理]
図11は、本発明の実施の形態の経路移行状態とデータ移行状態における読み出し処理の概要を示し、図12は、この読み出し処理の詳細な動作を示すフローチャートである。
経路移行状態(図11(a))では、ホスト101から移行先記憶サブシステム103bには最新データが格納されていないので、必ず移行元記憶サブシステム103aからデータ1201を読み出す(1102)。
具体的には、移行先記憶サブシステム103bは、ホスト101から要求されたデータ1101を移行元記憶サブシステム103aのディスク装置210の記憶領域から読み出して、移行先記憶サブシステム103bのキャッシュメモリ110へ格納する。移行先記憶サブシステム103bは、ホスト101から要求されたデータ1101をホスト101に送信する。そして、データ1101の送信が終了するとステータス1104をホスト101へ送信する。経路移行状態においては、データの読み出し処理ではデータ移行処理が発生しないので、ビットマップ109は更新されない。
データ移行状態(図11(b))では、データ移行状態で、かつ、ホスト101から要求されたデータが未移行の場合、読み出しが行われた領域のデータをこの読み出しタイミングで移行する。
具体的には、データ移行処理における管理単位は、ホスト101からのアクセス単位と異なる(通常は、データ移行処理における管理単位はホスト101のアクセス単位よりも大きい)。データ1101の読み出し対象となる領域がデータ移行処理の管理単位よりも小さい場合には、移行先記憶サブシステム103bは移行元記憶サブシステム103aから該領域に関する管理単位の分のデータを読み出し(1105)、キャッシュ110に書き込む。
そして、キャッシュ110に格納された要求データ1101をホスト101へ送信する。その後、移行先記憶サブシステム103bは、移行元記憶サブシステム103aから読み出されキャッシュ110に格納されたデータをディスク装置210へ移行データとして書き込む。このディスク装置210への書き込みと共に、データ移行を管理するビットマップ109の該当するビットをONにする(1103)。
次に、図12を用いて読み出し処理の詳細な動作を説明する。
移行先記憶サブシステム103bの移行プログラム106は、ホスト101から要求を受け付けると移行処理の状態を確認する(1201)。移行処理前は、移行先記憶サブシステム103bに対してアクセスすることができないので(図5参照)、移行処理前にアクセス要求を受け付けた場合には、異常であると判定し、ホストにエラーを送信する(1202)。状態が「移行処理前」でなければ、移行先記憶サブシステム103bにアクセス可能なので、正常であると判定し、処理を継続する。
移行先記憶サブシステム103bの移行プログラム106は、読み出し要求の内容を解析する(1203)。そして、該書き込み要求によって指示されたアドレスに対応する領域を選択し、キャッシュメモリ110にデータ格納用領域を確保する(1204)。この際、要求に係るデータが使用可能なキャッシュメモリ110よりも大きい場合は、全データが送信済みになるまで、1204〜1013の処理を繰り返す(1214)。
移行プログラム106は、状態が「経路移行中」であるか否かを判定し(1205)、「経路移行中」である場合は、そのまま移行元記憶サブシステム103aからデータを読み出し(1206)、全てのデータの読み出しが終了すると(1215)、ホスト101へステータスを返送し(1215)、読み出し処理が終了する。
一方、「経路移行中」でない場合は、「データ移行中」であるか否かを判定し(1207)、「データ移行中」である場合は、進捗ポインタ及びビットマップを参照し、読み出しに係る領域が移行済みか否かを判定する(1208)。
移行済み領域である場合は、移行先記憶サブシステム103bからデータを読み出す(1014)。すなわち、通常の記憶サブシステム103のデータ読み出し動作と同様の処理を実行する。なお、データ移行処理が終了した場合、全ての領域について移行済みであるため、移行先記憶サブシステム103bからデータが読み出される。
一方、移行済み領域ではない場合は、移行元記憶サブシステム103aからデータを読み出し(1209)、キャッシュメモリ110に格納し新領域データとする。そして、新領域データを、移行先記憶サブシステム103bのディスク装置210に書き込み(1210)、該領域に対する移行済みビットをONとし、該領域が移行済みであることを示す(1211)。
移行先記憶サブシステム103bは、新領域データのうちホスト101から要求されたデータをホスト101に送信する(1213)。
読み出し要求に関する全てのデータに対して、上記処理を実行した後に、移行プログラム106はホスト101に対してステータスを送信する(1215)。
本実施の形態の読み出し処理において行われるデータ書き込み(1210)は、データの一貫性を保証するためホストへのステータス返送処理1215より先に実行されなければならないが、移行先記憶サブシステム103bのキャッシュ110においてデータの一貫性を保証するため、ホストへのステータス返送処理1215と同期しないタイミングで実施してもよい。
本実施の形態の読み出し処理では、未移行領域へのホスト101からの読み出し要求のタイミングで該領域を移行し、ディスク装置210に書き込むデータ移行方法について説明したが、他にもビットマップを使用することなく、進捗ポインタのみによって管理することもできる。この場合、未移行領域への読み出し要求があると、移行先記憶サブシステム103bはデータ1101のみを移行元記憶サブシステム103aから読み出し、ホスト101へ送信し、移行処理は行わない。その後、図8で示したデータ移行処理によって移行元記憶サブシステム103aから移行先記憶サブシステム103bへデータが移行される。
[アクセス制限]
図13〜図17は、記憶サブシステム103に対するアクセス制限の例を示している。物理的な接続によってアクセスの可否を制御する場合と、論理的に(アクセス管理によって)制御する場合とが考えられる。さらに、論理的に制御する場合も、ネットワーク上でアクセス制限を行う場合と、記憶サブシステム側でアクセス制限を行う場合とが考えられる。以下これらの3種類の例について実施の形態を示す。
[結線による例]
図13は、本発明の実施の形態の情報処理システムの、物理的な接続によってアクセス制御を行う動作の説明図である。
図13に示す実施の形態では、移行元記憶サブシステムのSAN102aと、移行先記憶サブシステムのSAN102bと存在する。移行処理は図5に示すとおり、「移行処理前」(505)、「経路移行状態」(506)、「データ移行状態」(507)、「移行処理後」(508)の4状態がありそれぞれ図13(a)、図13(b)、図13(c)、図13(d)に対応する。
「移行処理前」(505)では、移行先記憶サブシステム103bは、移行元記憶サブシステム103aに接続されているSAN102aと接続されておらず、移行元記憶サブシステム103aと移行先記憶サブシステム103bとは物理的に切り離されている。また、ホスト101は、移行先記憶サブシステム103bのSAN102bと接続されていないので、ホスト101は移行先記憶サブシステム103bにアクセスすることができない(図13(a))。
「経路移行状態」(506)では、移行先記憶サブシステム103bは、移行元記憶サブシステム103aに接続されているSAN102aと接続され、ホスト101から移行先記憶サブシステム103bにアクセスでき、ホスト101の経路移行が可能な状態とする。また、移行元記憶サブシステム103aは移行先記憶サブシステム103bとSAN102aを介して接続されているので、移行先記憶サブシステム103bから移行元記憶サブシステム103aに対して経路移行処理のためのアクセスをすることができる(図13(b))。
ホスト101の経路移行が終了すると「データ移行状態」(507)となり、ホスト101から移行元記憶サブシステム103aへのアクセスを禁止しなければならない。このため、「データ移行状態」(507)では、ホスト101をSAN102bに接続し、ホスト101からSAN102を介して移行先記憶サブシステム103bへアクセスができるようにする。また、データを移行するためにSAN102aには移行元記憶サブシステム103aと移行先記憶サブシステム103bとが接続された状態を維持する(図13(c))。
データの移行終了後の「移行処理後」(508)では、移行先記憶サブシステム103bから移行元記憶サブシステム103aへのアクセスは不要となるため、移行元記憶サブシステム103a及びSAN102aを移行先記憶サブシステム103bから切り離す。ホスト101は、SAN102bに接続されているので、ホスト101からSAN102を介して移行先記憶サブシステム103bへアクセスすることができる(図13(d))。
なお、SAN102を使用せずに、直接ホスト101から移行先記憶サブシステム103bへ接続してもよい。この場合「経路移行状態」(506)ではSAN102aの代わりにホスト101と移行元記憶サブシステム103aの間、ホスト101と移行先記憶サブシステム103bの間、移行元記憶サブシステム103aと移行先記憶サブシステム103bの間の各々を接続するため3本の経路が必要である。「データ移行状態」(507)においては移行元103aと移行先記憶サブシステム103bの間、ホスト101と移行先記憶サブシステム103bの間の各々を接続する2本の経路が必要である。
SAN102を使用しない場合、移行先記憶サブシステム103bの接続性が低下するため、多くのホスト101や記憶サブシステム103が接続される大規模な情報処理システムを構成するときは、SAN102を使用するのが好ましい。
[ゾーニングによる例]
図14は、本発明の実施の形態のゾーニングによってアクセス制限をする情報処理システムの構成を表すブロック図である。
図14に示す実施の形態では、ネットワーク管理のために移行管理ホスト112にSAN管理API(Application Program Interface)1401を設ける。移行管理プログラム113は、データ移行処理の各状態に対するSAN102におけるアクセス経路の制限を、SAN管理API1401によって設定する。なお、他の構成は前述した実施の形態(図1)と同じなので詳細な説明は省略する。
図15は、本発明の実施の形態の情報処理システムの、ゾーニングによってアクセス制御を行う動作の説明図である。
ゾーニングは、ファイバチャネルにおけるポート固有の識別番号(WWN:World Wide Name)を用いて、複数のポートをグループ(ゾーン)に分ける。そして、SANを構成するファイバチャネルスイッチによって、アクセス元及びアクセス先を特定し、他のゾーンに対する又は他のゾーンからのアクセスを許可しないようにスイッチの切り替えを制御をするアクセス制限方法であり、ネットワーク(SAN)に備わったアクセス制限方法である。
移行処理は、図5に示すとおり、「移行処理前」(505)、「経路移行状態」(506)、「データ移行状態」(507)、「移行処理後」(508)の4状態がありそれぞれ図15(a)、図15(b)、図15(c)、図15(d)に対応する。
ホスト101、移行元記憶サブシステム103a及び移行先記憶サブシステム103bがSAN102に接続されている。
「移行処理前」(505)では、ホスト101と移行元記憶サブシステム103aとを含み、移行先記憶サブシステム103bを含まないゾーン1501が設定されているので、ホスト101からは移行先記憶サブシステム103bにはアクセスすることができない(図15(a))。
「経路移行状態」(506)では、ゾーン1501に移行先記憶サブシステム103bを加えたゾーン1502を設定する。これによって、ホスト101からは移行元記憶サブシステム103a及び移行先記憶サブシステム103bの双方にアクセス可能となり、ホスト101の経路移行が可能な状態となる(図15(b))。
ホスト101の経路移行が終了すると「データ移行状態」(507)となり、ホスト101から移行元記憶サブシステム103aへのアクセスを禁止しなければならない。このため、「データ移行状態」(507)では、ゾーン1502から移行元記憶サブシステム103aを除いたゾーン1503を設定する。また、移行元記憶サブシステム103aと移行先記憶サブシステム103bを含むゾーン1504を設定する。ゾーン1503はホスト101から移行先記憶サブシステム103bへのアクセスに使用され、ゾーン1504は移行元記憶サブシステム103aから移行先記憶サブシステム103bへのデータ移行に使用される(図15(c))。
データの移行終了後の「移行処理後」(508)では、移行先記憶サブシステム103bから移行元記憶サブシステム103aへのアクセスは不要となるため、ゾーン1504を削除し、ホスト101から移行先記憶サブシステム103bへのアクセスのためゾーン1503のみが残り、ゾーン1503が継続して使用される(図15(d))。
以上、ゾーニングによるアクセス制限の例を説明したが、同様にイーサネット(登録商標、以下同じ)におけるVLANによっても、アクセス可能なホストを制限することができる。
[記憶サブシステムによって実現する例]
通常記憶サブシステム103は、LUセキュリティと呼ばれるボリューム105に対するアクセス制限の機能(以下、ストレージセキュリティ機能)を備えている。以下に説明する実施の形態では、記憶サブシステム103に備わるアクセス制限を使用してデータ移行処理のアクセス制御を実現する。
図16は、本発明の実施の形態のストレージセキュリティ機能によってアクセス制限をする情報処理システムの構成を表すブロック図である。
図16に示す実施の形態では、ネットワーク管理のために移行管理ホスト112に記憶サブシステム管理API(Application Program Interface)1601を設ける。移行管理プログラム113は、データ移行処理の各状態に対するSAN102におけるアクセスの制限を、記憶サブシステムAPI1601によって設定する。このアクセスの制限には、ホストに論理的に割り当てられた識別子(例えば、IPアドレス等のネットワーク上の識別子)や、ネットワークインタフェースに物理的に割り当てられた識別子(例えば、イーサネットにおけるMACアドレス、ファイバチャネルにおけるWWN)や、ネットワークインタフェースに論理的に割り当てられた識別子(例えば、iSCSI Name)を使用することができる。なお、他の構成は、前述した実施の形態(図1)と同じなので詳細な説明は省略する。
図17は、本発明の実施の形態のストレージセキュリティ機能によってアクセス制御を行う動作の説明図である。
移行処理は、図5に示すとおり、「移行処理前」(505)、「経路移行状態」(506)、「データ移行状態」(507)、「移行処理後」(508)の4状態がありそれぞれ図17(a)、図17(b)、図17(c)、図17(d)に対応する。
ホスト101、移行元記憶サブシステム103a及び移行先記憶サブシステム103bがSAN102に接続されている。
「移行処理前」(505)では、移行管理プログラム113は、移行元記憶サブシステム103aにはホスト101からのアクセスを許可し、移行先記憶サブシステム103bには外部からのアクセスを禁止するように設定する(図17(a))。
「経路移行状態」(506)では、移行管理プログラム113は、移行元記憶サブシステム103aにはホスト101からのアクセスを許可し、移行先記憶サブシステム103bにもホスト101からのアクセスを許可するように設定する。また、経路移行中は、移行先記憶サブシステム103bから移行元記憶サブシステム103aへのアクセスが必要となるため、移行管理プログラム113は、移行元記憶サブシステム103aには移行先記憶サブシステム103bからのアクセスも許可するように設定する(図17(b))。
ホスト101の経路移行が終了すると「データ移行状態」(507)となり、ホスト101から移行元記憶サブシステム103aへのアクセスを禁止しなければならない。このため、「データ移行状態」(507)では、移行管理プログラム113は、移行元記憶サブシステム103aにはホスト101からのアクセスを禁止し、移行先記憶サブシステム103bからのアクセスを許可するように設定する。移行先記憶サブシステム103bから移行元記憶サブシステム103aへのアクセスによってデータ移行が行われる。移行先記憶サブシステム103bには、「経路移行状態」(506)と同様に、ホスト101からのアクセスが許可される状態が設定される(図17(c))。
データの移行終了後の「移行処理後」(508)では、移行先記憶サブシステム103bから移行元記憶サブシステム103aへのアクセスは不要となるため、移行管理プログラム113は、移行元記憶サブシステム103aに対する全てのアクセスを禁止する。また移行管理プログラム113は移行先記憶サブシステム103bに対してはホスト101からのアクセスを許可した状態を継続する(図17(d))。
[組み合わせ]
図13〜図17において、ネットワーク102、記憶サブシステム103におけるアクセス制限を実現する実施の形態を説明したが、ネットワーク102でのアクセス制限と、記憶サブシステム103でのアクセス制限とを組み合わせることによって、より堅牢なアクセス制限を実現することもできる。
[デバッグ状態付データ移行]
経路移行処理においては、新経路の設定を確認する必要がある。そこで図3における経路移行処理(図3の303)においてデバッグモードを設けることがある。この場合は全ホスト101に対する経路変更を同時に実施する必要がある。
図18は、本発明の実施の形態のデバッグモード付のデータ移行処理のフローチャートである。
まず、移行前の状態において、前述した図3の初期設定(301)と同様に、移行管理プログラム113はデータ移行のための初期設定をする(1801)。
初期設定の後、前述した図3の移行先記憶サブシステム追加処理(302)と同様に、移行先記憶サブシステム103bを情報処理システムに追加する(1802)。
その後、データ移行に関係する全ホスト101に対して新経路を設定する(1803)。同時に、移行先記憶サブシステム103bを「デバッグモード」へと切り替える。
「デバッグモード」では、移行元記憶サブシステム103aに対するアクセスを禁止する。移行先記憶サブシステム103bは、ホスト101からの書き込みデータを移行先記憶サブシステム103bへ格納する。書き込みデータに関してはビットマップに更新データの情報を記憶しておく。
さらに、移行先記憶サブシステム103bは、ホスト101からの読み出し要求に関しては、ビットマップにおいて更新情報を検査し、移行先記憶サブシステム103bに書き込まれている場合には、移行先記憶サブシステム103bからデータを読み出す。一方、移行先記憶サブシステム103bに書き込みデータがない場合には、移行元記憶サブシステム103aからデータを読み出す。そして読み出したデータをホスト101へ送信する。
その後、ホスト101にてテストプログラムを実行することによって経路確認を行って、新しく設定された経路が正しいか否かを判定する(1804)。
経路が正しく設定されていなければ、ホスト101においてテストプログラムが実行されている間に、テストプログラムが移行元記憶サブシステム103aへアクセスを行おうとした場合、移行元記憶サブシステム103aはアクセス不可能となっているためエラーとなる(1805)。そして、エラー回数が規定回数内であるか否かを判定する(1806)。エラー回数に上限値を設けておき、規定回数内であれば再度設定を見直し(1807)、データを回復し(1808)、ステップ1803に戻って、テストプログラムを再度実行する。
一方、エラー回数が規定回数を超えた場合、移行先記憶サブシステム103bは書き込みデータを破棄し、データを移行先装置追加時の状態(経路移行の前の状態)に戻すデータ回復処理を実行する(1809)。データ回復処理は、移行先記憶サブシステム103bへの書き込みデータを消去してもよいが、ビットマップに記録された更新情報を全て消去しても実現可能である。その後、この移行処理を処理を終了する。
また、テストプログラムが正常に終了し、経路が正しく設定されていると判定されると、データを経路移行前の状態に戻すデータ回復処理を実行する(1810)。そして、データ移行処理を実行する(1811)。データ移行処理(1811)は、図3のデータ移行(304)処理と同様の処理を実行する。
この移行処理の間(ステップ1803〜1811)、移行先記憶サブシステム103bは移行元記憶サブシステム103aをアクセスすることができ、ホスト101は移行先記憶サブシステム103bをアクセスすることができる。
図19は、デバッグモード付のデータ移行処理(図18)の各状態における移行元記憶サブシステム103a、移行先記憶サブシステム103bの動作を示す。
「デバック状態」(1906)では、ホスト101から移行元記憶サブシステム103aへはアクセス不可とし、移行先記憶サブシステム103bからの読み出しに関しては、未更新のデータは移行元記憶サブシステム103aから読み出し、更新済みのデータは移行先103bから読み出しホスト101へ送信する。ホスト101からの書き込み処理については、全てのデータを移行先記憶サブシステム103bへ格納する。
なお、「移行処理前」「データ移行状態」及び「移行処理後」の各状態は、図5で前述したものと同じなので、その説明は省略する。
以上説明したように、本発明の実施の形態では、データを移行する前に経路移行状態を設け、経路移行状態中でもホストコンピュータからのアクセスを可能としたので、データ移行時の可用性が向上する。
具体的には、ボリューム単位でデータ移行処理をし、経路移行状態を設け、経路移行中のボリュームに係わるホストの経路を順次切り替える。そして、経路移行中のボリュームに複数のホストコンピュータがアクセスしている場合は、経路移行前のホストコンピュータは旧記憶サブシステムにアクセスし、経路移行後のホストコンピュータは新記憶サブシステムにアクセスする。このとき旧記憶サブシステムと新記憶サブシステムのデータ一貫性を保つために、旧記憶サブシステムに全ての更新情報が反映されるようにする。経路移行前のホストコンピュータは旧記憶サブシステムに書き込み/読み出し処理を実行し、読み出し処理時のデータは旧記憶サブシステムから読み出し、書き込み処理時のデータは旧記憶サブシステムに書き込む。また、経路移行後のホストコンピュータからの新記憶サブシステムに対するアクセスは、読み出し処理時は、新記憶サブシステムが旧記憶サブシステムから読み出したデータをホストへ送信する。書き込み処理時は新記憶サブシステムにデータが書き込まれる。
このようにすることで、経路移行状態においても、経路未移行ホストから旧記憶サブシステムへのアクセス、及び、経路移行済ホストから新記憶サブシステムへのアクセスが同時に可能となる。また、経路移行状態において、旧記憶サブシステムに最新のデータが格納され、旧記憶サブシステムと新記憶サブシステムとのデータの一貫性が保証され、データ移行処理においてシステムの可用性を向上することができる。
また、本発明に係る機能は、新記憶サブシステムのみによって実現可能であり、旧記憶サブシステムに新規の機能を追加する必要がない。
本発明の実施の形態の情報処理システムの構成を表すブロック図である。 本発明の実施の形態の記憶サブシステムの構成図である。 本発明の実施の形態の移行処理のフローチャートである。 本発明の実施の形態の情報処理システムの動作の説明図である。 本発明の実施の形態の移行処理の動作の説明図である。 本発明の実施の形態の移行管理テーブルの説明図である。 本発明の実施の形態の経路移行処理の動作を示すフローチャートである。 本発明の実施の形態のデータ移行処理の動作を示すフローチャートである。 本発明の実施の形態の経路移行状態とデータ移行状態における書き込み処理の概要の説明図である。 本発明の実施の形態の書き込み処理の動作を示すフローチャートである。 本発明の実施の形態の経路移行状態とデータ移行状態における読み出し処理の概要の説明図である。 本発明の実施の形態の読み出し処理の動作を示すフローチャートである。 本発明の実施の形態の情報処理システムの、物理的な接続によってアクセス制御を行う動作の説明図である。 本発明の実施の形態のゾーニングによってアクセス制限をする情報処理システムの構成を表すブロック図である。 本発明の実施の形態の情報処理システムの、ゾーニングによってアクセス制御を行う動作の説明図である。 本発明の実施の形態のストレージセキュリティ機能によってアクセス制限をする情報処理システムの構成を表すブロック図である。 本発明の実施の形態の情報処理システムの、ストレージセキュリティ機能によってアクセス制御を行う動作の説明図である。 本発明の実施の形態の情報処理システムのデバッグモード付データ移行処理のフローチャートである。 本発明の実施の形態の情報処理システムのデバッグモード付データ移行処理の動作の説明図である。
符号の説明
101 ホスト
102 SAN
103 記憶サブシステム
104 インタフェース
105 論理ボリューム
106 プログラム
107 構成情報
108 制御情報
109 更新情報
110 データ
111 管理用ネットワーク
112 移行管理ホスト
113 移行管理プログラム
114 移行管理テーブル
201 コントローラ
202 CPU
203 ホストアダプタ
204 ネットワークコントローラ
205 メモリ
207 ディスクアダプタ
208 内部バス
209 ディスクインタフェース
210 ディスク装置

Claims (13)

  1. ホストコンピュータと、前記ホストコンピュータに接続されている記憶サブシステムと、を備えた情報処理システムにおいて用いられ、移行元記憶サブシステムに記憶されているデータを、移行先記憶サブシステムへ移行するデータ移行方法であって、
    前記移行元記憶サブシステムから前記移行先記憶サブシステムへデータを移行する前に、経路移行状態が設けられており、
    前記経路移行状態では、
    前記ホストコンピュータから前記移行元記憶サブシステム及び前記移行先記憶サブシステムへのアクセスを可能とするように経路を設定し、
    前記移行先記憶サブシステムは、前記ホストコンピュータからの読み出し要求に対し前記移行元記憶サブシステムからデータを読み出して前記ホストコンピュータに送信し、前記ホストコンピュータからの書き込み要求に対し前記移行元記憶サブシステムにデータを書き込むことを特徴とするデータ移行方法。
  2. 前記経路移行状態において、前記移行先記憶サブシステムは、
    前記ホストコンピュータからの書き込み要求に対し前記移行元記憶サブシステムにデータを書き込み、
    当該書き込みの確認後、前記ホストコンピュータに対し終了報告を送信することを特徴とする請求項1に記載のデータ移行方法。
  3. 前記経路移行状態において、前記移行先記憶サブシステムは、
    前記ホストコンピュータからの読み出し要求に対し、前記移行元記憶サブシステムからデータを読み出して、前記ホストコンピュータに送信することを特徴とする請求項1に記載のデータ移行方法。
  4. 前記ホストコンピュータから前記移行先記憶サブシステムへのアクセスを禁止し、前記ホストコンピュータから前記移行元記憶サブシステムへのアクセスを可能とするように経路を設定する移行処理前状態が、前記経路移行状態の前に設けられていることを特徴とする請求項1に記載のデータ移行方法。
  5. 前記ホストコンピュータから前記移行元記憶サブシステムへのアクセスを禁止し、前記移行先記憶サブシステムへのアクセスを可能とする経路を設定しデータ移行状態が、前記経路移行状態の後に設けられていることを特徴とする請求項1に記載のデータ移行方法。
  6. 前記データ移行状態においては、前記移行先記憶サブシステムは、
    前記ホストコンピュータからの読み出し要求がデータ移行済み領域に対するものであれば、前記移行先記憶サブシステムからデータ読み出して前記ホストコンピュータへ送信し、
    前記ホストコンピュータからの読み出し要求がデータが移行済みでない領域に対するものであれば、前記移行元記憶サブシステムからデータを読み出して前記ホストコンピュータへ送信することを特徴とする請求項5に記載のデータ移行方法。
  7. 前記データ移行状態の終了後においても、前記ホストコンピュータから前記移行元記憶サブシステムへのアクセスを禁止し、前記移行先記憶サブシステムへのアクセスを可能とするように経路を設定することを特徴とする請求項5に記載のデータ移行方式。
  8. 前記ホストコンピュータ、前記移行元記憶サブシステム及び前記移行先記憶サブシステム間の接続形態を変更すること;
    前記ホストコンピュータ、前記移行元記憶サブシステム及び前記移行先記憶サブシステム間を接続するネットワークによるアクセス制限を用いること;
    又は、
    前記記憶サブシステムによるアクセス制限を用いること;の少なくとも一つによって、前記記憶サブシステムへのアクセスの経路を設定することを特徴とする請求項1に記載のデータ移行方法。
  9. 前記移行元記憶サブシステムから前記移行先記憶サブシステムへデータを移行する前に、前記経路移行状態において設定された経路が正しいか否かを検証する経路検証処理を行うことを特徴とする請求項1に記載のデータ移行方法。
  10. 前記経路検証処理中は、前記ホストコンピュータから前記移行元記憶サブシステムへのアクセスを禁止し、前記移行先記憶サブシステムへのアクセスを可能とするように経路を設定し、
    前記移行先記憶サブシステムは、
    前記ホストコンピュータからの書き込み要求を前記移行先記憶サブシステムに書き込み、前記移行先記憶サブシステムは該書き込まれたデータを記憶し、
    前記ホストコンピュータからの読み出し要求に対し、前記書き込まれたデータを参照して、前記経路検証処理中における前記移行先記憶サブシステムに記憶されているデータの更新の有無を判定し、
    前記経路検証処理中に前記移行先記憶サブシステムに記憶されているデータが更新されている場合は、前記移行先記憶サブシステムからデータを読み出して前記ホストコンピュータにデータを送信し、
    前記経路検証中に前記移行先記憶サブシステムに記憶されているデータが更新されていない場合は、前記移行元記憶サブシステムからデータを読み出して前記ホストコンピュータにデータを送信することを特徴とする請求項9に記載のデータ移行方法。
  11. 前記経路検証処理において、設定された経路の誤りが発見された場合、前記経路検証中に更新されたデータを破棄し、経路移行前の状態に戻すことを特徴とする請求項9に記載のデータ移行方法。
  12. 前記経路検証処理において、設定された経路の誤りが発見されなかった場合、前記経路検証中に更新されたデータを破棄し、経路移行前の状態に戻してから、データ移行処理を実行することを特徴とする請求項9に記載のデータ移行方法。
  13. 複数のホストコンピュータと、前記複数のホストコンピュータに接続されている記憶サブシステムと、を備えた情報処理システムにおいて用いられ、移行元記憶サブシステムに記憶されているデータを、移行先記憶サブシステムへ移行するデータ移行方法であって、
    前記移行元記憶サブシステムから前記移行先記憶サブシステムへデータを移行する前に、経路移行状態が設けられており、
    前記経路移行状態では、
    前記複数のホストコンピュータは、前記移行先記憶サブシステムへアクセスする移行済ホストコンピュータと、前記移行元記憶サブシステムへアクセスする未移行ホストコンピュータと、が設定され、
    前記移行先記憶サブシステムは、
    前記移行済ホストコンピュータからの読み出し要求に対応して前記移行元記憶サブシステムからデータを読み出して当該ホストコンピュータに送信し、
    前記移行済ホストコンピュータからの書き込み要求に対応して前記移行元記憶サブシステムにデータを書き込み、当該書き込みの確認後、当該ホストコンピュータに対し終了報告を送信し、
    前記移行元記憶サブシステムは、
    前記未移行ホストコンピュータからの読み出し要求に対応してデータを読み出して当該ホストコンピュータに送信し、
    前記未移行ホストコンピュータからの書き込み要求に対応してデータを書き込み、当該書き込みの確認後、当該ホストコンピュータに対し終了報告を送信することを特徴とするデータ移行方法。
JP2004005635A 2004-01-13 2004-01-13 データ移行方法 Expired - Fee Related JP4500057B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2004005635A JP4500057B2 (ja) 2004-01-13 2004-01-13 データ移行方法
US10/791,734 US7127581B2 (en) 2004-01-13 2004-03-04 Data-migration method
EP04009723A EP1555604A3 (en) 2004-01-13 2004-04-23 Data-migration method
US11/517,386 US7269703B2 (en) 2004-01-13 2006-09-08 Data-migration method
US11/826,561 US7536527B2 (en) 2004-01-13 2007-07-17 Data-migration method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004005635A JP4500057B2 (ja) 2004-01-13 2004-01-13 データ移行方法

Publications (2)

Publication Number Publication Date
JP2005202495A true JP2005202495A (ja) 2005-07-28
JP4500057B2 JP4500057B2 (ja) 2010-07-14

Family

ID=34616842

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004005635A Expired - Fee Related JP4500057B2 (ja) 2004-01-13 2004-01-13 データ移行方法

Country Status (3)

Country Link
US (3) US7127581B2 (ja)
EP (1) EP1555604A3 (ja)
JP (1) JP4500057B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007018455A (ja) * 2005-07-11 2007-01-25 Hitachi Ltd データマイグレーション方法又はデータマイグレーションシステム
JP2007286709A (ja) * 2006-04-13 2007-11-01 Hitachi Ltd ストレージシステム及びストレージシステムのデータ移行方法
US8078690B2 (en) 2007-12-13 2011-12-13 Hitachi, Ltd. Storage system comprising function for migrating virtual communication port added to physical communication port
JP2013045218A (ja) * 2011-08-23 2013-03-04 Fujitsu Ltd データコピー処理システム、ストレージ装置、及びデータコピー処理方法
WO2013190590A1 (en) 2012-06-18 2013-12-27 Hitachi, Ltd. Computer system and data migration method
JP2014519061A (ja) * 2011-07-22 2014-08-07 株式会社日立製作所 計算機システム及びそのデータ移行方法
JP2015014937A (ja) * 2013-07-05 2015-01-22 富士通株式会社 ストレージ制御装置、ストレージ制御プログラム、及びストレージ制御方法

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7260739B2 (en) * 2003-05-09 2007-08-21 International Business Machines Corporation Method, apparatus and program storage device for allowing continuous availability of data during volume set failures in a mirrored environment
JP4500057B2 (ja) * 2004-01-13 2010-07-14 株式会社日立製作所 データ移行方法
DE102005013502A1 (de) * 2005-03-23 2006-09-28 Fujitsu Siemens Computers Gmbh Verfahren zum Entfernen eines Massenspeichersystems aus einem Rechnerverbund sowie Computerprogramm-Produkt und Rechnerverbund zur Durchführung des Verfahrens
JP4852298B2 (ja) * 2005-10-28 2012-01-11 株式会社日立製作所 仮想ボリュームを識別する情報を引き継ぐ方法及びその方法を用いたストレージシステム
US9348530B2 (en) * 2005-12-27 2016-05-24 Emc Corporation Presentation of virtual arrays using n-port ID virtualization
US7603581B2 (en) * 2006-03-17 2009-10-13 International Business Machines Corporation Remote copying of updates to primary and secondary storage locations subject to a copy relationship
US8583861B1 (en) 2006-06-29 2013-11-12 Emc Corporation Presentation of management functionality of virtual arrays
US8452928B1 (en) 2006-06-29 2013-05-28 Emc Corporation Virtual array non-disruptive migration of extended storage functionality
US8533408B1 (en) 2006-06-29 2013-09-10 Emc Corporation Consolidating N-storage arrays into one storage array using virtual array non-disruptive data migration
US8539177B1 (en) 2006-06-29 2013-09-17 Emc Corporation Partitioning of a storage array into N-storage arrays using virtual array non-disruptive data migration
JP4783751B2 (ja) * 2007-03-20 2011-09-28 富士通株式会社 中継装置、中継方法および中継プログラム
US9063896B1 (en) * 2007-06-29 2015-06-23 Emc Corporation System and method of non-disruptive data migration between virtual arrays of heterogeneous storage arrays
JP5149556B2 (ja) * 2007-07-30 2013-02-20 株式会社日立製作所 システム情報要素を移行するストレージシステム
US7941628B2 (en) * 2007-09-04 2011-05-10 International Business Machines Corporation Allocation of heterogeneous storage devices to spares and storage arrays
US8139502B2 (en) * 2007-12-31 2012-03-20 At & T Intellectual Property I, Lp Method and system for network migration scheduling
US20110030037A1 (en) 2009-07-07 2011-02-03 Vadim Olshansky Zone migration in network access
JP5427533B2 (ja) * 2009-09-30 2014-02-26 株式会社日立製作所 階層ストレージ管理システムにおける重複ファイルの転送方法及びシステム
US8407516B2 (en) 2009-12-23 2013-03-26 Intel Corporation Controlling memory redundancy in a system
JP5244831B2 (ja) * 2010-01-25 2013-07-24 株式会社日立製作所 計算機システム及びストレージ統合管理方法
EP2378435B1 (en) * 2010-04-14 2019-08-28 Spotify AB Method of setting up a redistribution scheme of a digital storage system
WO2012143965A1 (en) * 2011-04-18 2012-10-26 Hitachi, Ltd. Plurality of coupled storage subsystems and method for setting port access limitation in a storage subsystem when migrating a logical volume
US9606747B2 (en) * 2011-05-04 2017-03-28 International Business Machines Corporation Importing pre-existing data of a prior storage solution into a storage pool for use with a new storage solution
JP2013239926A (ja) * 2012-05-15 2013-11-28 Canon Inc 撮像装置、その制御方法、プログラム
GB2504719A (en) 2012-08-07 2014-02-12 Ibm Grid based data mobility
US8983908B2 (en) * 2013-02-15 2015-03-17 Red Hat, Inc. File link migration for decommisioning a storage server
US20150234618A1 (en) * 2013-04-22 2015-08-20 Hitachi, Ltd. Storage management computer, storage management method, and storage system
EP2827286A3 (en) * 2013-07-19 2015-03-25 Sears Brands, LLC Method and system for migrating data between systems without downtime
WO2015072026A1 (ja) * 2013-11-18 2015-05-21 株式会社日立製作所 計算機システム
US20150355862A1 (en) * 2014-06-04 2015-12-10 Pure Storage, Inc. Transparent array migration
US9087012B1 (en) 2014-06-04 2015-07-21 Pure Storage, Inc. Disaster recovery at high reliability in a storage cluster
US10440105B2 (en) 2014-06-30 2019-10-08 Pure Storage, Inc. Using a decentralized agreement protocol to rank storage locations for target width
US10042564B2 (en) * 2014-06-30 2018-08-07 International Business Machines Corporation Accessing data while migrating storage of the data
US11099763B1 (en) 2014-06-30 2021-08-24 Pure Storage, Inc. Migrating generational storage to a decentralized agreement protocol paradigm
US10459797B2 (en) 2014-06-30 2019-10-29 Pure Storage, Inc. Making trade-offs between rebuild scanning and failing memory device flexibility
US9811677B2 (en) 2014-07-03 2017-11-07 Pure Storage, Inc. Secure data replication in a storage grid
US10002072B2 (en) * 2015-05-18 2018-06-19 Mediatek Inc. Method and apparatus for controlling data migration in multi-channel memory device
CN105204961B (zh) * 2015-09-21 2018-10-26 重庆大学 一种云数据中心主机检查点设置的方法、装置和系统
WO2017184168A1 (en) 2016-04-22 2017-10-26 Hewlett Packard Enterprise Development Lp Configuration of a memory controller for copy-on-write with a resource controller
GB2557366B (en) 2016-12-02 2020-10-28 Advanced Risc Mach Ltd An apparatus and method for transferring data between address ranges in memory
JP6606235B1 (ja) * 2018-07-13 2019-11-13 株式会社日立製作所 ストレージシステム
CN111078121A (zh) * 2018-10-18 2020-04-28 深信服科技股份有限公司 一种分布式存储系统数据迁移方法、系统、及相关组件
JP7193732B2 (ja) * 2019-04-08 2022-12-21 富士通株式会社 管理装置、情報処理システムおよび管理プログラム
US11269802B2 (en) * 2019-06-24 2022-03-08 Western Digital Technologies, Inc. Lightweight proxy for handling SCSI commands in an active array-standby array configuration
US11734236B1 (en) * 2020-06-15 2023-08-22 Wells Fargo Bank, N.A. Managing relational databases
CN112612417B (zh) * 2020-12-24 2023-08-08 深圳市科力锐科技有限公司 数据迁移方法、装置、设备及存储介质
JP7437428B2 (ja) * 2022-01-31 2024-02-22 株式会社日立製作所 ストレージシステム、ドライブ移動方法、及びプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002259172A (ja) * 2001-02-28 2002-09-13 Hitachi Ltd 情報処理システム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US158652A (en) * 1875-01-12 Improvement in voting apparatus
US182525A (en) * 1876-09-26 Improvement in journal-boxes
US11324A (en) * 1854-07-18 Windmill
US110237A (en) * 1870-12-20 Stances
US68629A (en) * 1867-09-10 Thomas lewis
US143832A (en) * 1873-10-21 Improvement in seed-planters and fertilizer-distributers
US145169A (en) * 1873-12-02 Improvement in brick-machines
US5544347A (en) * 1990-09-24 1996-08-06 Emc Corporation Data storage system controlled remote data mirroring with respectively maintained data indices
US5680640A (en) 1995-09-01 1997-10-21 Emc Corporation System for migrating data by selecting a first or second transfer means based on the status of a data element map initialized to a predetermined state
US5901327A (en) * 1996-05-28 1999-05-04 Emc Corporation Bundling of write data from channel commands in a command chain for transmission over a data link between data storage systems for remote data mirroring
JP3193880B2 (ja) 1996-12-11 2001-07-30 株式会社日立製作所 データ移行方法
JP3410010B2 (ja) 1997-12-24 2003-05-26 株式会社日立製作所 サブシステムの移行方法および情報処理システム
US6598174B1 (en) 2000-04-26 2003-07-22 Dell Products L.P. Method and apparatus for storage unit replacement in non-redundant array
JP2002014777A (ja) 2000-06-29 2002-01-18 Hitachi Ltd データ移行方法並びにプロトコル変換装置及びそれを用いたスイッチング装置
US6640291B2 (en) 2001-08-10 2003-10-28 Hitachi, Ltd. Apparatus and method for online data migration with remote copy
JP4168626B2 (ja) 2001-12-06 2008-10-22 株式会社日立製作所 記憶装置間のファイル移行方法
US6922761B2 (en) 2002-03-25 2005-07-26 Emc Corporation Method and system for migrating data
JP2004220450A (ja) 2003-01-16 2004-08-05 Hitachi Ltd ストレージ装置、その導入方法、及びその導入プログラム
JP4500057B2 (ja) * 2004-01-13 2010-07-14 株式会社日立製作所 データ移行方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002259172A (ja) * 2001-02-28 2002-09-13 Hitachi Ltd 情報処理システム

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007018455A (ja) * 2005-07-11 2007-01-25 Hitachi Ltd データマイグレーション方法又はデータマイグレーションシステム
JP2007286709A (ja) * 2006-04-13 2007-11-01 Hitachi Ltd ストレージシステム及びストレージシステムのデータ移行方法
US8078690B2 (en) 2007-12-13 2011-12-13 Hitachi, Ltd. Storage system comprising function for migrating virtual communication port added to physical communication port
US8937965B2 (en) 2007-12-13 2015-01-20 Hitachi, Ltd. Storage system comprising function for migrating virtual communication port added to physical communication port
JP2014519061A (ja) * 2011-07-22 2014-08-07 株式会社日立製作所 計算機システム及びそのデータ移行方法
JP2013045218A (ja) * 2011-08-23 2013-03-04 Fujitsu Ltd データコピー処理システム、ストレージ装置、及びデータコピー処理方法
WO2013190590A1 (en) 2012-06-18 2013-12-27 Hitachi, Ltd. Computer system and data migration method
US9213490B2 (en) 2012-06-18 2015-12-15 Hitachi, Ltd. Computer system and data migration method
JP2015014937A (ja) * 2013-07-05 2015-01-22 富士通株式会社 ストレージ制御装置、ストレージ制御プログラム、及びストレージ制御方法
US9841930B2 (en) 2013-07-05 2017-12-12 Fujitsu Limited Storage control apparatus and storage control method

Also Published As

Publication number Publication date
US20070101084A1 (en) 2007-05-03
EP1555604A3 (en) 2008-10-22
US20050154849A1 (en) 2005-07-14
US7269703B2 (en) 2007-09-11
JP4500057B2 (ja) 2010-07-14
US20070260840A1 (en) 2007-11-08
EP1555604A2 (en) 2005-07-20
US7536527B2 (en) 2009-05-19
US7127581B2 (en) 2006-10-24

Similar Documents

Publication Publication Date Title
JP4500057B2 (ja) データ移行方法
JP4859471B2 (ja) ストレージシステム及びストレージコントローラ
JP4252301B2 (ja) 記憶システム及びそのデータバックアップ方法
US7209986B2 (en) Method for controlling storage system, and storage control apparatus
US6073209A (en) Data storage controller providing multiple hosts with access to multiple storage subsystems
JP5132720B2 (ja) 記憶装置システム
US6968425B2 (en) Computer systems, disk systems, and method for controlling disk cache
JP4438582B2 (ja) データ移行方法
US7680953B2 (en) Computer system, storage device, management server and communication control method
US8285824B2 (en) Storage system and data replication method that refuses one or more requests for changing the first logical configuration information until the first storage apparatus and second storage apparatus are synchronized
JP4297747B2 (ja) ストレージ装置
JP4568574B2 (ja) ストレージ装置の導入方法、プログラム並びに管理計算機
JP4382602B2 (ja) リモートコピーシステム
JP4606711B2 (ja) 仮想化制御装置およびデータ移行制御方法
US20060236054A1 (en) Highly available external storage system
US20020178328A1 (en) Storage subsystem
JP2004192105A (ja) 記憶装置の接続装置およびそれを含むコンピュータシステム
JP2005267327A (ja) ストレージシステム
US8949562B2 (en) Storage system and method of controlling storage system
JP4509089B2 (ja) 仮想化制御装置及びデータ移行制御方法
JP4484597B2 (ja) ストレージ装置及びストレージ装置の排他制御方法
JP4874515B2 (ja) 記憶装置システム
JP2007141264A (ja) 記憶装置システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091027

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100413

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100416

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130423

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130423

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140423

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees