JP2007199756A - 計算機システム及びデータ複製方法 - Google Patents

計算機システム及びデータ複製方法 Download PDF

Info

Publication number
JP2007199756A
JP2007199756A JP2006013952A JP2006013952A JP2007199756A JP 2007199756 A JP2007199756 A JP 2007199756A JP 2006013952 A JP2006013952 A JP 2006013952A JP 2006013952 A JP2006013952 A JP 2006013952A JP 2007199756 A JP2007199756 A JP 2007199756A
Authority
JP
Japan
Prior art keywords
storage area
backup
computer
data
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006013952A
Other languages
English (en)
Inventor
Taisuke Kaneda
泰典 兼田
Yuichi Taguchi
雄一 田口
Naoko Maruyama
直子 丸山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2006013952A priority Critical patent/JP2007199756A/ja
Priority to US11/372,122 priority patent/US20070174566A1/en
Publication of JP2007199756A publication Critical patent/JP2007199756A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1446Point-in-time backing up or restoration of persistent data
    • G06F11/1456Hardware arrangements for backup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/0647Migration mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • G06F3/0658Controller construction arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0662Virtualisation aspects
    • G06F3/0665Virtualisation aspects at area level, e.g. provisioning of virtual or logical volumes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1446Point-in-time backing up or restoration of persistent data
    • G06F11/1458Management of the backup or restore process
    • G06F11/1464Management of the backup or restore process for networked environments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1446Point-in-time backing up or restoration of persistent data
    • G06F11/1458Management of the backup or restore process
    • G06F11/1469Backup restoration techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/815Virtual

Abstract

【課題】バックアップ処理における仮想化装置の負荷を低減する。
【解決手段】第1記憶装置と、第2記憶装置と、仮想化装置と、ホスト計算機と、バックアップ部と、アクセス可能なデータ転送部と、を備える計算機システムであって、前記バックアップ部は、前記仮想化装置によって提供される仮想記憶領域のバックアップを要求されると、前記仮想記憶領域と当該仮想記憶領域に書き込み要求されたデータが格納される第1記憶領域との対応を示すマップ情報を取得し、前記取得されたマップ情報に基づいて、前記バックアップを要求された仮想記憶領域に対応する前記第1記憶装置の第1記憶領域を特定し、前記データ転送部は、前記バックアップ部によって特定された第1記憶領域に格納されているデータの複製を、前記第2記憶装置に備わる記憶部に転送することを特徴とする。
【選択図】図18

Description

本発明は、第1記憶装置、第2記憶装置、仮想化装置及びホスト計算機を備える計算機システムに関し、特に、第1記憶装置に記憶されているデータを第2記憶装置にバックアップする技術に関する。
近年、仮想化機能を備える仮想化装置が実用化されている。仮想化装置は、計算機と記憶装置との間に接続され、仮想的な記憶領域(仮想記憶領域)を計算機に提供する。仮想化機能には、様々な方法が提案されている。例えば、記憶装置で仮想化機能を実現する方法、ファイバチャネルスイッチで仮想化機能を実現する方法及び計算機で仮想化機能を実現する方法などが提案されている。なお、記憶装置で仮想化機能を実現する方法については、特許文献1に開示されている。
一方、計算機システムは、データを保護するために、バックアップを行っている。例えば、計算機システムは、記憶装置に記憶されているデータの複製を、他の記憶装置に記憶することによって、バックアップを行う。複数の記憶装置を備える計算機システムにおけるバックアップの技術が、特許文献2及び特許文献3に開示されている。
特開2004−5370号公報 米国特許6269431号明細書 米国特許US6353878号明細書
計算機システムに備わるバックアップ計算機が、前述したバックアップ技術を用いて、仮想化装置によって提供される仮想記憶領域に格納されたデータをバックアップする一例を示す。なお、バックアップ計算機は、仮想化環境においてバックアップ処理を行う計算機である。
まず、当該バックアップ計算機は、仮想記憶領域に格納されたデータの複製を、仮想化装置を経由して取得する。そして、当該バックアップ計算機は、取得したバックアップデータを、他の記憶装置に格納する。このようにして、当該バックアップ装置は、仮想記憶領域に格納されたデータをバックアップする。
このような仮想化環境においてバックアップ処理を行う計算機システムでは、バックアップデータが仮想化装置を経由する。そのため、仮想化装置にバックアップ処理の負荷がかかってしまうという問題がある。
本発明の代表的な態様は、前述した問題点に鑑みてなされたものであり、バックアップ処理における仮想化装置の負荷を低減する計算機システムを提供することを目的とする。
本発明の代表的な態様は、一つ以上の第1記憶装置と、一つ以上の第2記憶装置と、前記第1記憶装置に接続される仮想化装置と、前記仮想化装置に接続される一つ以上のホスト計算機と、前記仮想化装置にアクセス可能なバックアップ部と、前記第1記憶装置、前記第2記憶装置及び前記バックアップ部にアクセス可能なデータ転送部と、を備える計算機システムであって、前記第1記憶装置は、前記仮想化装置に接続される第1インタフェースと、前記第1インタフェースに接続される第1プロセッサと、前記第1プロセッサに接続される第1メモリと、前記ホスト計算機から書き込み要求されるデータが格納される第1ディスクドライブと、を備え、前記第2記憶装置は、外部に接続される第2インタフェースと、前記第2インタフェースに接続される第2プロセッサと、前記第2プロセッサに接続される第2メモリと、前記第1ディスクドライブに格納されるデータの複製が格納される記憶部と、を備え、前記仮想化装置は、前記第1記憶装置及び前記ホスト計算機に接続される第3インタフェースと、前記第3インタフェースに接続される第3プロセッサと、前記第3プロセッサに接続される第3メモリと、を備え、前記第3プロセッサは、前記ホスト計算機からデータの書き込みを要求される仮想記憶領域を前記ホスト計算機に提供し、前記第1プロセッサは、前記第1ディスクドライブの記憶領域を、一つ以上の第1記憶領域として前記仮想化装置に提供し、前記仮想記憶領域に書き込み要求されたデータを、前記第1記憶領域に格納し、前記バックアップ部は、前記仮想記憶領域のバックアップを要求されると、前記仮想記憶領域と当該仮想記憶領域に書き込み要求されたデータが格納される第1記憶領域との対応を示すマップ情報を取得し、前記取得されたマップ情報に基づいて、前記バックアップを要求された仮想記憶領域に対応する第1記憶領域を特定し、前記データ転送部は、前記バックアップ部によって特定された第1記憶領域に格納されているデータの複製を、前記第2記憶装置に備わる記憶部に転送することを特徴とする。
本発明の代表的な態様によれば、バックアップ処理における仮想化装置の負荷を低減できる。
以下、本発明の実施の形態を図面を参照して説明する。
(第1の実施の形態)
図1は、本発明の第1の実施の形態の計算機システムの構成のブロック図である。
計算機システムは、計算機10、仮想化装置100、記憶装置200、テープライブラリ装置300、バックアップ計算機500及び管理計算機600を備える。
計算機10は、ファイバチャネルプロトコルが適用されているネットワークを介して、仮想化装置100に接続されている。また、計算機10は、管理ネットワーク90を介してバックアップ計算機500及び管理計算機600に接続されている。計算機10は、仮想化装置100の仮想記憶領域に対して、データのリード要求及びライト要求を発行する。なお、計算機10については、図2で詳細を説明する。
仮想化装置100は、ファイバチャネルプロトコルが適用されているネットワークを介して、計算機10及び記憶装置200に接続されている。また、仮想化装置100は、管理ネットワーク90を介してバックアップ計算機500及び管理計算機600に接続されている。仮想化装置100は、記憶装置200の実記憶領域を、当該仮想化装置100の仮想記憶領域として計算機10に提供する。なお、仮想化装置100については、図3A及び図3Bで詳細を説明する。
記憶装置200は、ファイバチャネルプロトコルが適用されているネットワークを介して、仮想化装置100及びバックアップ計算機500に接続されている。また、記憶装置200は、管理ネットワーク90を介して管理計算機600に接続されている。記憶装置200は、計算機10から仮想記憶装置100の仮想記憶領域に書き込みを要求されたデータを、実記憶領域に格納する。なお、記憶装置200については、図4で詳細を説明する。
テープライブラリ装置300は、ファイバチャネルプロトコルが適用されているネットワークを介して、バックアップ計算機500に接続されている。また、テープライブラリ装置300は、管理ネットワーク90を介して管理計算機600に接続されている。テープライブラリ装置300は、記憶装置200の実記憶領域に格納されているデータの複製を記憶する。なお、テープライブラリ装置300については、図5で詳細を説明する。
また、本実施の形態の計算機システムは、テープライブラリ装置300の代わりに、バックアップ用の記憶装置を備えていてもよい。なお、バックアップ用の記憶装置は、図4で説明する記憶装置200と同様のものであってもよい。つまり、バックアップ用の記憶装置は、記憶装置200の実記憶領域に格納されているデータをバックアップできれば、いなかるものであってもよい。
バックアップ計算機500は、ファイバチャネルプロトコルが適用されているネットワークを介して、記憶装置200及びテープライブラリ装置300に接続されている。つまり、バックアップ計算機500は、仮想化装置100を介さずに、記憶装置200及びテープライブラリ装置300に接続されている。これによって、バックアップ計算機500は、仮想化装置100を介さずに、記憶装置200に記憶されているデータをテープライブラリ装置300にコピーできる。
また、バックアップ計算機500は、管理ネットワーク90を介して計算機10、仮想化装置100及び管理計算機600に接続されている。バックアップ計算機500は、記憶装置200の実記憶領域に格納されているデータをバックアップする処理を制御する。なお、バックアップ計算機500については、図6で詳細を説明する。
管理計算機600は、管理ネットワーク90を介して、計算機10、仮想化装置100、記憶装置200、テープライブラリ装置300及びバックアップ計算機500に接続されている。管理計算機600は、計算機システムの全体を制御する。なお、管理計算機600については、図7で詳細を説明する。
本説明図の計算機システムでは、計算機10、仮想化装置100及び記憶装置200が、一つずつ図示されているが、いくつ備えられていてもよい。また、本実施の形態の計算機システムでは、ファイバチャネルプロトコルが適用されているネットワークの代わりに、インターネットプロトコルが適用されているネットワークが用いられてもよい。
図2は、本発明の第1の実施の形態の計算機10の構成のブロック図である。
計算機10は、CPU11、メモリ12、FCインタフェース13及び管理インタフェース19を備える。
FCインタフェース13は、ファイバチャネルプロトコルが適用されているネットワークを介して、仮想化装置100と接続する。また、管理インタフェース19は、管理ネットワーク90を介して、バックアップ計算機500及び管理計算機600と接続する。
CPU11は、メモリ12に記憶されているプログラムを実行することによって、各種処理を行う。メモリ12は、CPU11によって実行されるプログラム等を含む情報を記憶する。具体的には、メモリ12には、アプリケーションプログラム15、バックアップ要求発行プログラム16及び記憶領域識別情報テーブル17が記憶されている。
アプリケーションプログラム15は、リード要求又はライト要求を仮想化装置100に発行することによって、データを処理する。
バックアップ要求発行プログラム16は、記憶装置200の実記憶領域に格納されているデータのバックアップ要求を、バックアップ計算機500に発行する。なお、計算機10のCPU11は、当該計算機10が使用している記憶領域をバックアップする必要がある場合、バックアップ要求発行プログラム16を実行する。
記憶領域識別情報テーブル17は、仮想化装置100によって提供される仮想記憶領域に関する情報である。なお、記憶領域識別情報テーブル17については、図8で詳細を説明する。
図3Aは、本発明の第1の実施の形態の仮想化装置100の構成のブロック図である。
仮想化装置100は、FCインタフェース110、FCインタフェース115、データ転送制御モジュール120、CPU140、メモリ150及び管理インタフェース190を備える。
FCインタフェース110は、ファイバチャネルプロトコルが適用されているネットワークを介して、計算機10と接続する。また、FCインタフェース115は、ファイバチャネルプロトコルが適用されているネットワークを介して、記憶装置200と接続する。また、管理インタフェース190は、管理ネットワーク90を介して、バックアップ計算機500及び管理計算機600と接続する。
データ転送制御モジュール120は、FCインタフェース110、FCインタフェース115及びCPU140の間のデータの転送を制御する。
CPU140は、メモリ150に記憶されているプログラムを実行することによって各種処理を行う。具体的には、CPU140は、計算機10によって発行されたリード要求及びライト要求を処理する。また、CPU140は、計算機10に提供する仮想記憶領域を制御する。
メモリ150は、CPU140によって実行されるプログラム等を含む情報を記憶する。具体的には、メモリ150には、Inquiry応答プログラム151、リードライト要求変換プログラム152、仮想記憶領域構築プログラム153及びマップ情報155が記憶されている。
Inquiry応答プログラム151は、Inquiryコマンドを計算機10から受信する。そして、Inquiry応答プログラム151は、受信したInquiryコマンドに応答する。なお、Inquiryコマンドは、記憶領域の存在を確認するコマンドである。
リードライト要求変換プログラム200は、計算機10によって発行されたリード要求又はライト要求を解析する。そして、リードライト要求変換プログラム200は、解析したリード要求を、記憶装置200に対するリード要求へ変換する。また、リードライト要求変換プログラム200は、解析したライト要求を、記憶装置200に対するライト要求へ変換する。
仮想記憶領域構築プログラム153は、仮想記憶領域を構築し、構築した仮想記憶領域を計算機10に提供する。
マップ情報155は、仮想化装置100の仮想記憶領域と記憶装置200の実記憶領域との対応を示す。なお、マップ情報155については、図9A、図9B及び図9Cで詳細を説明する。
次に、仮想化装置100の変形例を説明する。
図3Bは、本発明の第1の実施の形態の仮想化装置100の変形例の構成のブロック図である。
本説明図の仮想化装置100は、ディスクドライブを備える。そして、当該仮想化装置100は、ディスクドライブの記憶領域を、実記憶領域181、182として計算機10に提供する。つまり、計算機10は、仮想化装置100の仮想記憶領域だけでなく、仮想化装置100の実記憶領域181、182に対しても、データのリード要求及びライト要求を発行できる。
本説明図の仮想化装置100のそれ以外の構成は、図3Aの仮想化装置と同一である。同一の構成には同一の番号を付すことによって、説明を省略する。
図4は、本発明の第1の実施の形態の記憶装置200の構成のブロック図である。
記憶装置200は、FCインタフェース210、データ転送制御モジュール220、CPU240、メモリ250、管理インタフェース290及びディスクドライブを備える。
FCインタフェース210は、ファイバチャネルプロトコルが適用されているネットワークを介して、仮想化装置100及びバックアップ計算機500と接続する。管理インタフェース290は、管理ネットワーク90を介して、管理計算機600と接続する。
データ転送制御モジュール220は、FCインタフェース210、CPU240及びディスクドライブの間のデータ転送を制御する。
CPU240は、メモリ250に記憶されているプログラムを実行することによって各種処理を行う。
メモリ250は、CPU240によって実行されるプログラム等を含む情報を記憶する。具体的には、メモリ250には、記憶領域制御プログラム251が記憶されている。
記憶領域制御プログラム251は、仮想化装置100から受信したリード要求及びライト要求を処理する。また、記憶領域制御プログラム251は、ディスクドライブの記憶領域を、実記憶領域201〜203として仮想化装置100に提供する。
なお、記憶領域制御プログラム251は、複数のディスクドライブから、RAIDグループを構成してもよい。この場合、記憶領域制御プログラム251は、RAIDグループを一つ以上の実記憶領域201〜203として仮想化装置100に提供する。
図5は、本発明の第1の実施の形態のテープライブラリ装置300の構成のブロック図である。
テープライブラリ装置300は、テープメディア301〜303、格納庫309、FCインタフェース310、テープドライブ320、テープメディア搬送機構330、CPU340及びメモリ350を備える。
FCインタフェース310は、ファイバチャネルプロトコルが適用されているネットワークを介して、バックアップ計算機500と接続する。管理インタフェース390は、管理ネットワーク90を介して、管理計算機600と接続する。
テープメディア301〜303は、記憶装置200の実記憶領域201〜203に記憶されているデータの複製を記憶する。また、テープメディア301〜303は、格納庫309に格納されている。本説明図では、テープメディア301〜303は、三つ図示されているが、いくつ備えられていてもよい。
テープドライブ320は、当該テープドライブ320に装填されているテープメディア301〜303に対して、データを読み書きする。テープメディア搬送機構330は、テープドライブ320によってデータを読み書きされるテープメディア301〜303を、テープドライブ320に装填する。
CPU340は、メモリ350に記憶されているプログラムを実行することによって各種処理を行う。具体的には、CPU340は、テープメディア搬送機構330を制御する。
メモリ350は、CPU340によって実行されるプログラム等を含む情報を記憶する。具体的には、メモリ350には、テープメディア搬送プログラム351が記憶されている。
テープメディア搬送プログラム351は、テープメディア301〜303の識別情報を含むテープメディアマウント要求を受ける。すると、テープメディア搬送プログラム351は、当該テープメディアマウント要求に含まれる識別子に対応するテープメディア301〜303をテープドライブ320に装填するように、テープメディア搬送機構330を制御する。
また、テープメディア搬送プログラム351は、テープメディアアンマウント要求を受ける。すると、テープメディア搬送プログラム351は、テープドライブ320からテープメディア301〜303を取り出すように、テープメディア搬送機構330を制御する。更に、テープメディア搬送プログラム351は、取り出されたテープメディア301〜303を格納庫309に格納するように、テープメディア搬送機構330を制御する。
図6は、本発明の第1の実施の形態のバックアップ計算機500の構成のブロック図である。
バックアップ計算機500は、FCインタフェース510、CPU540、メモリ550及び管理インタフェース590を備える。
FCインタフェース510は、ファイバチャネルプロトコルが適用されているネットワークを介して、記憶装置200及びテープライブラリ装置300と接続する。管理インタフェース590は、管理ネットワーク90を介して、計算機10、仮想化装置100及び管理計算機600と接続する。
CPU540は、メモリ550に記憶されているプログラムを実行することによって各種処理を行う。
メモリ550は、CPU540によって実行されるプログラム等を含む情報を記憶する。具体的には、メモリ550には、バックアッププログラム551、データ転送プログラム552が記憶されている。また、メモリ550は、マップ情報保持領域555を含む。
バックアップ制御プログラム551は、記憶装置200の実記憶領域201〜203に記憶されているデータをバックアップする処理を制御する。データ転送プログラム552は、記憶装置200とテープライブラリ装置300との間のデータの転送を制御する。
マップ情報保持領域555には、仮想化装置100のメモリ150に記憶されているマップ情報155の複製が格納される。
図7は、本発明の第1の実施の形態の管理計算機600の構成のブロック図である。
管理計算機600は、CPU610、メモリ650、管理インタフェース690、ディスプレイ680、キーボード681及びマウス682を備える。
管理インタフェース690は、管理ネットワーク90を介して、計算機10、仮想化装置100、記憶装置200、テープライブラリ装置300及びデータ転送計算機500と接続する。
CPU610は、メモリ650に記憶されているプログラムを実行することによって各種処理を行う。
メモリ650は、CPU610によって実行されるプログラム等を含む情報を記憶する。具体的には、メモリ650には、表示入力プログラム651及びバックアップ要求発行プログラム655が記憶されている。
表示入力プログラム651は、各種情報をディスプレイ680に表示する。また、表示入力プログラム651は、キーボード681及びマウス682から入力された情報を取得する。
バックアップ要求発行プログラム655は、計算機10のメモリ12に記憶されているバックアップ要求発行プログラム16と同一である。具体的には、バックアップ要求発行プログラム655は、記憶装置200の実記憶領域に格納されているデータのバックアップ要求を、バックアップ計算機500に発行する。なお、バックアップ発行要求プログラム16、655は、計算機10及び管理計算機600の少なくとも一方に備えられていればよい。
ディスプレイ680は、各種情報を表示する。キーボード681及びマウス682には、管理者から各種情報が入力される。
図8は、本発明の第1の実施の形態の計算機10に記憶されている記憶領域識別情報テーブル17の構成図である。
記憶領域識別情報テーブル17は、LU(Logical Unit)番号171、記憶領域識別子172及びブロック数173を含む。
LU番号171は、計算機10が仮想化装置100の仮想記憶領域を識別するための識別子である。
記憶領域識別番号172は、当該仮想記憶領域の一意な識別子である。ファイバチャネルプロトコルが適用されたストレージシステムにおける記憶領域識別番号172は、WWN(World Wide Name)、LU(Logical Unit)番号、ベンダ名称及び装置型式情報等を含む。なお、本実施の形態では、記憶領域識別番号172は、図面において仮想記憶領域に付された番号とする。
ブロック数173は、当該仮想記憶領域に含まれるブロックの数である。
図9A、図9B及び図9Cは、本発明の第1の実施の形態の仮想化装置100に記憶されているマップ情報155の構成図である。
マップ情報155は、LU番号1551、仮想記憶領域の識別子1552、実記憶領域の識別子1553、実記憶領域のブロック番号の範囲1554及び実記憶領域のブロック数1555を含む。
LU番号1551は、計算機10が仮想化装置100の仮想記憶領域を識別するための識別子である。
仮想記憶領域の識別子1552は、当該仮想記憶領域の一意な識別子である。ファイバチャネルプロトコルが適用されたストレージシステムにおいて、仮想記憶領域の記憶領域識別番号1552は、WWN(World Wide Name)、LU(Logical Unit)番号、ベンダ名称及び装置型式情報等を含む。なお、本実施の形態では、仮想記憶領域の記憶領域識別番号1552は、図面において仮想記憶領域に付された番号とする。
実記憶領域の識別子1553は、当該仮想記憶領域に書き込み要求されたデータを実際に記憶する実記憶領域201〜203の一意な識別子である。ファイバチャネルプロトコルが適用されたストレージシステムにおいて、実想記憶領域の記憶領域識別番号1553は、WWN(World Wide Name)、LU(Logical Unit)番号、ベンダ名称及び装置型式情報等を含む。なお、本実施の形態では、実想記憶領域の記憶領域識別番号1553は、図面において実記憶領域201〜203に付された番号とする。
実記憶領域のブロック番号の範囲1554は、当該実記憶領域201〜203に含まれるブロックのうち、当該仮想記憶領域に書き込み要求されたデータを記憶するブロックの範囲である。
実記憶領域のブロック番号数1555は、当該実記憶領域201〜203に含まれるブロックのうち、当該仮想記憶領域に書き込み要求されたデータを記憶するブロックの数である。
次に、仮想化装置100が、仮想記憶領域を構築する処理について説明する。
まず、仮想化装置100のCPU140は、メモリ150に記憶される仮想記憶領域構築プログラム153を実行することによって、仮想記憶領域を構築する。
仮想化装置100のCPU140は、記憶装置200の実記憶領域201〜203をFCインタフェース115から認識する。そして、仮想化装置100のCPU140は、FCインタフェース115から認識可能な実記憶領域201〜203に関する情報を、マップ情報155に格納しておく。
この時点でのマップ情報155は、図9Aである。図9Aのマップ情報155では、仮想化装置100によって認識可能な実記憶領域201、202及び203の識別子が、実記憶領域の識別子1553に格納されている。
ここで、管理者が、仮想記憶領域を構築させるための要求を管理計算機600に入力する。すると、仮想化装置100のCPU140は、メモリ150に記憶されているマップ情報155を更新することによって、仮想記憶領域を構築する。
具体的には、管理計算機600のCPU610は、表示入力プログラム651を実行することによって、処理を行う。まず、管理計算機600のCPU610は、マップ情報155の転送を仮想化装置100に要求する。これによって、管理計算機600のCPU610は、マップ情報155を仮想化装置100から受信する。
次に、管理計算機600のCPU610は、受信したマップ情報155に基づいて、仮想記憶領域構築画面700を作成する。そして、管理計算機600のCPU610は、作成した仮想記憶領域構築画面700を、ディスプレイ680に表示する。
図10Aは、本発明の第1の実施の形態の管理計算機600が表示する仮想記憶領域構築画面700の説明図である。
仮想記憶領域構築画面700では、マップ情報155の実記憶領域の識別子1553に格納されている識別子が表示されている。本実施の形態の仮想記憶領域構築画面700では、仮想化装置100が実記憶領域201、202及び203が認識可能であることを示している。
また、仮想記憶領域構築画面700は、作成ボタン701、分割ボタン709及び送信ボタン705を含む。
ここでは、管理者が、実記憶領域201及び実記憶領域202を選択してから、作成ボタン700を操作したとする。すると、管理計算機600のCPU610は、仮想記憶領域構築画面710を作成する。そして、管理計算機600のCPU610は、作成した仮想記憶領域構築画面710をディスプレイ680に表示する。
なお、分割ボタン709については、図10Bで説明する。また、送信ボタン705については、図10Dで説明する。
図10Bは、本発明の第1の実施の形態の管理計算機600が表示する仮想記憶領域構築画面710の説明図である。
仮想記憶領域構築画面710では、仮想記憶領域101が作成されることを示している。更に、仮想記憶領域101が、実記憶領域201及び実記憶領域202に対応することを示す。なお、本実施の形態では、仮想記憶領域101は、実際にデータを記憶しないので、点線で表されている。
また、仮想記憶領域構築画面710は、作成ボタン701、分割ボタン709及び送信ボタン705を含む。作成ボタン701及び送信ボタン705は、仮想記憶領域構築画面700(図10A)に含まれるものと同一であるので、説明を省略する。
ここでは、管理者が、実記憶領域203を選択してから、分割ボタン709を操作したとする。すると、管理計算機600のCPU610は、仮想記憶領域構築画面720を作成する。そして、管理計算機600のCPU610は、作成した仮想記憶領域構築画面720をディスプレイ680に表示する。
図10Cは、本発明の第1の実施の形態の管理計算機600が表示する仮想記憶領域構築画面720の説明図である。
仮想記憶領域構築画面720は、分割数入力欄722及びOKボタン721を含む。分割数入力欄722には、仮想記憶領域を生成するために、仮想記憶領域構築画面710で選択された実記憶領域203を分割する個数が入力される。
ここでは、管理者が、分割数入力欄722に「2」を入力してから、OKボタン721を操作したとする。すると、管理計算機600のCPU610は、仮想記憶領域構築画面730を作成する。そして、管理計算機600のCPU610は、作成した仮想記憶領域構築画面730をディスプレイ680に表示する。
なお、管理計算機600のCPU610は、仮想記憶領域構築画面720の分割数入力欄722に入力された数で、実記憶領域203を等分割する。しかし、管理計算機600のCPU610は、実記憶領域203を、等分割しなくてもよい。この場合、仮想記憶領域構築画面720には、実記憶領域203を分割した後の記憶容量が入力される欄が含まれる。
図10Dは、本発明の第1の実施の形態の管理計算機600が表示する仮想記憶領域構築画面730の説明図である。
仮想記憶領域構築画面730では、仮想記憶領域101、102及び103が作成されることを示している。また、仮想記憶領域101が、実記憶領域201及び実記憶領域202に対応することを示す。また、仮想記憶領域102が、実記憶領域203に含まれる一部の記憶領域203Aに対応することを示す。また、仮想記憶領域103が、実記憶領域203に含まれる一部の記憶領域203Bに対応することを示す。なお、本実施の形態では、仮想記憶領域101、102及び103は、実際にデータを記憶しないので、点線で表されている。
また、仮想記憶領域構築画面730は、作成ボタン701、分割ボタン709及び送信ボタン705を含む。作成ボタン701及び分割ボタン709は、仮想記憶領域構築画面700(図10A)に含まれるものと同一であるので、説明を省略する。
ここでは、管理者が、送信ボタン705を操作したとする。すると、管理計算機600のCPU610は、仮想記憶領域構築画面730の表示内容に基づいて、仮想化装置100から受信したマップ情報155を更新する。
具体的には、管理計算機600のCPU610は、実記憶領域201の識別子とマップ情報155の実記憶領域の識別子1553とが一致するレコードを、マップ情報155から選択する。次に、管理計算機600のCPU610は、選択したレコードの仮想記憶領域の識別子1552に、実記憶領域201に対応する仮想記憶領域101の識別子を格納する。次に、管理計算機600のCPU610は、選択したレコードのブロック番号の範囲1554に、実記憶領域201に含まれるすべてのブロックに対応する範囲を格納する。更に、管理計算機600のCPU610は、選択したレコードのLU番号1551に、当該仮想記憶領域101に割り当てるLU番号の「1」を格納する。
次に、管理計算機600のCPU610は、実記憶領域202の識別子とマップ情報155の実記憶領域の識別子1553とが一致するレコードを、マップ情報155から選択する。次に、管理計算機600のCPU610は、選択したレコードの仮想記憶領域の識別子1552に、仮想記憶領域101の識別子を格納する。次に、管理計算機600のCPU610は、選択したレコードのブロック番号の範囲1554に、実記憶領域202に含まれるすべてのブロックに対応する範囲を格納する。更に、管理計算機600のCPU610は、選択したレコードのLU番号1551に、当該仮想記憶領域101に割り当てるLU番号の「1」を格納する。
次に、管理計算機600のCPU610は、実記憶領域203の識別子とマップ情報155の実記憶領域の識別子1553とが一致するレコードを、マップ情報から選択する。次に、管理計算機600のCPU610は、選択したレコードを、上下二つのレコードに分割する。
次に、管理計算機600のCPU610は、分割後の上のレコードの仮想記憶領域の識別子1552に、仮想記憶領域102の識別子を格納する。次に、管理計算機600のCPU610は、分割後の上のレコードのブロック番号の範囲1554に、実記憶領域203に含まれるブロックの前半に対応する範囲を格納する。更に、管理計算機600のCPU610は、分割後の上のレコードのLU番号1551に、当該仮想記憶領域102に割り当てるLU番号の「2」を格納する。
次に、管理計算機600のCPU610は、分割後の下のレコードの仮想記憶領域の識別子1552に、仮想記憶領域103の識別子を格納する。次に、管理計算機600のCPU610は、分割後の下のレコードのブロック番号の範囲1554に、実記憶領域203に含まれるブロックの後半に対応する範囲を格納する。更に、管理計算機600のCPU610は、分割後の下のレコードのLU番号1551に、当該仮想記憶領域103に割り当てるLU番号の「3」を格納する。
このようにして、管理計算機600のCPU610は、図9Aで示すマップ情報155を、図9Bで示すマップ情報155に更新する。次に、管理計算機600のCPU610は、更新したマップ情報155(図9B)を仮想化装置100に送信する。
すると、仮想化装置100のCPU140は、メモリ150に記憶されているマップ情報(図9A)を、管理計算機600から受信したマップ情報(図9B)に更新する。これによって、仮想化装置100のCPU140は、仮想記憶領域を構築する。
図11は、本発明の第1の実施の形態の仮想化装置100が提供する仮想記憶領域101〜103の説明図である。
仮想化装置100は、計算機10に仮想記憶領域101〜103を提供する。仮想記憶領域101は、記憶装置200の実記憶領域201及び202から構成されている。また、実記憶領域201は、10000個のブロックから構成されている。同様に、実記憶領域202は、10000個のブロックで構成されている。なお、1個のブロックは、例えば、512バイトである。
更に、仮想記憶領域101の前半(ブロック番号「0〜9999」)のブロックは、実記憶領域201に対応する。また、仮想記憶領域101の後半(ブロック番号「10000〜19999」)のブロックは、実記憶領域202に対応する。
また、仮想記憶領域102及び103は、記憶装置200の実記憶領域203から構成されている。また、実記憶領域203は、20000個のブロックから構成されている。
更に、仮想記憶領域102は、実想記憶領域203の前半(ブロック番号「0〜9999」)のブロック203Aに対応する。また、仮想記憶領域103は、実想記憶領域203の後半(ブロック番号「10000〜19999」)のブロック203Bに対応する。
次に、計算機10が実行する記憶領域認識処理を説明する。
まず、計算機10のCPU11は、LU番号の「1」を含むInquiryコマンドを、仮想化装置100に送信する。つまり、計算機10のCPU11は、LU番号の「1」によって識別されるLUに対するInquiryコマンドを、仮想化装置100に送信する。なお、Inquiryコマンドは、記憶領域の存在を認識するためのコマンドである。
仮想化装置100のCPU140は、Inquiryコマンドを受信する。すると、仮想化装置100のCPU140は、Inquiry応答プログラム151を実行することによって、受信したInquiryコマンドを処理する。
具体的には、仮想化装置100のCPU140は、Inquiryコマンドに含まれるLU番号の「1」とマップ情報155のLU番号1551とが一致するレコードを、マップ情報155から選択する。次に、仮想化装置100のCPU140は、選択したレコードの仮想記憶領域の識別子1552に、値が格納されているか否かを判定する。
仮想記憶領域の識別子1552に値が格納されていない場合、LU番号の「1」に対応する仮想記憶領域が定義されていない。そこで、仮想化装置100のCPU140は、「記憶領域なし」を含む応答を、計算機10に送信する。
一方、仮想記憶領域の識別子1552に値が格納されている場合、LU番号の「1」に対応する仮想記憶領域101が定義されている。そこで、仮想化装置100のCPU140は、選択したレコードから、仮想記憶領域の識別子1552を抽出する。次に、仮想化装置100のCPU140は、抽出した仮想記憶領域の識別子1552を含む応答を、計算機10に送信する。
計算機10のCPU11は、仮想記憶領域の識別子1552を含む応答を受信する。次に、計算機10のCPU11は、送信したInquiryコマンドに含まれるLU番号の「1」と記憶領域識別情報テーブル17のLU番号171とが一致するレコードを、記憶領域識別情報テーブル17から選択する。次に、計算機10のCPU11は、選択したレコードの記憶領域識別情報172に、受信した応答に含まれる仮想記憶領域の識別子1552を格納する。
次に、計算機10のCPU11は、LU番号の「1」を含むReadCapacityコマンドを、仮想化装置100に送信する。なお、ReadCapcityコマンドは、記憶領域の容量を認識するためのコマンドである。
仮想化装置100のCPU140は、ReadCapcityコマンドを受信する。すると、仮想化装置100のCPU140は、ReadCapcityコマンドに含まれるLU番号の「1」とマップ情報155のLU番号1551とが一致するレコードを、マップ情報155から選択する。
次に、仮想化装置100のCPU140は、選択したレコードから実記憶領域のブロック数1555を抽出する。
そして、仮想化装置100のCPU140は、抽出した実記憶領域のブロック数1555を含む応答を、計算機10に送信する。
計算機10のCPU11は、実記憶領域のブロック数1555を含む応答を受信する。次に、計算機10のCPU11は、送信したReadCapacityコマンドに含まれるLU番号の「1」と記憶領域識別情報テーブル17のLU番号171とが一致するレコードを、記憶領域識別情報テーブル17から選択する。次に、計算機10のCPU11は、選択したレコードのブロック数173に、受信した応答に含まれる実記憶領域のブロック数1555を格納する。
同様に、計算機10のCPU11は、LU番号の「2」を含むInquiryコマンド及びLU番号の「3」を含むInquiryコマンドを、順番に管理計算機14に送信する。そして、計算機10のCPU11は、記憶領域識別情報17を更新する。
次に、計算機10のCPU11は、LU番号の「4」を含むInquiryコマンドを管理計算機14に送信する。
仮想化装置100のCPU140は、Inquiryコマンドを受信する。すると、仮想化装置100のCPU140は、受信したInquiryコマンドに含まれるLU番号の「4」とマップ情報155のLU番号1551とが一致するレコードを、マップ情報155から選択する。次に、仮想化装置100のCPU140は、選択したレコードの仮想記憶領域の識別子1552に、値が格納されているか否かを判定する。
ここでは、仮想記憶領域の識別子1552に値が格納されていないので、LU番号の「4」に対応する仮想記憶領域が定義されていない。そこで、仮想化装置100のCPU140は、「記憶領域なし」を含む応答を、計算機10に送信する。
計算機10のCPU11は、「記憶領域なし」の応答を受信する。すると、計算機10のCPU11は、LU番号が「5」以上で識別されるLUに対して、Inquiryコマンドを発行しない。そして、計算機10のCPU11は、記憶領域の認識処理を終了する。
なお、計算機10のCPU11は、特定の範囲内のLU番号によって識別されるLUのすべてに対して、Inquiryコマンドを発行してもよい。そして、計算機10のCPU11は、特定の範囲内のLU番号によって識別されるLUのすべてに対して、Inquiryコマンドを発行すると、記憶領域の認識処理を終了する。
次に、仮想化装置100のメモリ150に記憶されているリードライト要求変換プログラム152の処理を説明する。
計算機10のCPU11は、仮想化装置100の仮想記憶領域に格納されているデータを取得したい場合、リード要求を仮想化装置に送信する。
仮想化装置100のCPU140は、リード要求を計算機10から受信すると、リードライト要求変換プログラム152を実行する。すると、仮想化装置100のCPU140は、マップ情報155に基づいて、リード要求に含まれる記憶領域情報及びブロック位置情報を変換する。そして、仮想化装置100のCPU140は、変換したリード要求を、記憶装置200に送信する。
図12Aは、本発明の第1の実施の形態の計算機10が発行するリード要求930の説明図である。
リード要求930は、処理内容931、記憶領域識別子932及びブロック位置933を含む。
処理内容931には、当該要求の内容が格納される。本説明図はリード要求なので、処理内容931には「リード」が格納される。
記憶領域識別子932は、読み出しを要求されるデータが記憶されている記憶領域の識別子である。ブロック位置933は、読み出しを要求されるデータが記憶されているブロックのアドレスである。
つまり、本説明図のリード要求930は、仮想記憶領域101内のブロック番号が「15000」に対応するブロックに記憶されているデータの読み出しを要求する。
仮想化装置100のCPU140は、リード要求930を受信すると、リードライト要求変換プログラム152を実行する。すると、仮想化装置100のCPU140は、マップ情報155を参照して、受信したリード要求930に含まれる記憶領域識別子932及びブロック位置933を変換する。
具体的には、仮想化装置100のCPU140は、リード要求930の記憶領域識別子932の「101」とマップ情報155の仮想記憶領域の識別子1552とが一致するレコードを、マップ情報155から選択する。
次に、仮想化装置100のCPU140は、選択したレコードから、ブロック数1555を上から順番に抽出する。つまり、仮想化装置100のCPU140は、ブロック数1555の「10000」及びブロック数1555の「10000」を抽出する。
次に、仮想化装置100のCPU140は、負の値になる直前まで、リード要求930のブロック位置933の「15000」から、抽出したブロック数1555を減算する。これによって、仮想化装置100のCPU140は、変換後のブロック位置933の「5000」を求める。
次に、仮想化装置100のCPU140は、最後に減算したブロック数1555のレコードを、マップ情報155から特定する。次に、仮想化装置100のCPU140は、特定したレコードの次のレコードから、実記憶領域の識別子1553の「202」を抽出する。そして、仮想化装置100のCPU140は、抽出した実記憶領域の識別子1553の「202」を、変換後の記憶領域識別子932とする。
このようにして、仮想化装置100のCPU140は、図12Aで示すリード要求930を、図12Bで示すリード要求に変換する。
図12Bは、本発明の第1の実施の形態の仮想化装置100が変換したリード要求930の説明図である。
本説明図のリード要求930は、実記憶領域202内のブロック番号が「5000」に対応するブロックに記憶されているデータの読み出しを要求する。
仮想化装置100のCPU140は、変換したリード要求930を記憶装置200に送信する。その後、仮想化装置100のCPU140は、実記憶領域202内のブロック番号が「5000」に対応するブロックに記憶されているデータを、当該リード要求930の応答として記憶装置200から受信する。
次に、仮想化装置100のCPU140は、受信したデータを計算機10に転送する。このようにして、計算機10のCPU11は、仮想記憶領域101に対応する実記憶領域201及び202を意識することなく、仮想化装置100の仮想記憶領域101からデータを読み出すことができる。
また、計算機10のCPU11は、仮想化装置100の仮想記憶領域にデータを格納したい場合、ライト要求を仮想化装置100に送信する。
仮想化装置100のCPU140は、ライト要求を計算機10から受信すると、リードライト要求変換プログラム152を実行する。すると、仮想化装置100のCPU140は、マップ情報155に基づいて、ライト要求に含まれる記憶領域情報及びブロック位置情報を変換する。そして、仮想化装置100のCPU140は、変換したライト要求を、記憶装置200に送信する。
図13Aは、本発明の第1の実施の形態の計算機10が発行するライト要求910の説明図である。
ライト要求910は、処理内容911、記憶領域識別子912、ブロック位置913及びデータ列914を含む。
処理内容911には、当該要求の内容が格納される。本説明図はライト要求なので、処理内容911には「ライト」が格納される。
記憶領域識別子912は、データが書き込まれる記憶領域の識別子である。ブロック位置913は、データが書き込まれるブロックのアドレスである。また、データ列914は、書き込みを要求されるデータである。
つまり、本説明図のライト要求910は、仮想記憶領域103内のブロック番号が「5000」に対応するブロックに、データの「YY〜ZZ」を書き込むことを要求する。
仮想化装置100のCPU140は、ライト要求910を受信すると、リードライト要求変換プログラム152を実行する。すると、仮想化装置100のCPU140は、マップ情報155を参照して、受信したライト要求910に含まれる記憶領域識別子912及びブロック位置913を変換する。
具体的には、仮想化装置100のCPU140は、ライト要求910の記憶領域識別子912の「103」とマップ情報155の仮想記憶領域の識別子1552とが一致するレコードを、マップ情報155から選択する。
次に、仮想化装置100のCPU140は、選択したレコードから、実記憶領域の識別子1553の「203」及び実記憶領域のブロック番号の範囲1554の「10000〜19999」を抽出する。
仮想化装置100のCPU140は、抽出した実記憶領域の識別子1553の「203」を、変換後の記憶領域識別子912とする。
次に、仮想化装置100のCPU140は、抽出したブロック番号の範囲1554の先頭の値の「10000」に、ライト要求910のブロック位置913の「5000」を加算する。これによって、仮想化装置100のCPU140は、変換後のブロック位置913の「15000」を求める。
このようにして、仮想化装置100のCPU140は、図13Aで示すライト要求910を、図13Bで示すライト要求に変換する。
図13Bは、本発明の第1の実施の形態の仮想化装置100が変換したライト要求910の説明図である。
本説明図のライト要求910は、実記憶領域203内のブロック番号が「15000」に対応するブロックに、データの「YY〜ZZ」を書き込むことを要求する。
仮想化装置100のCPU140は、変換したライト要求910を記憶装置200に送信する。その後、仮想化装置100のCPU140は、「書き込み完了」を含む応答を、記憶装置200から受信する。
次に、仮想化装置100のCPU140は、受信した応答を計算機10に転送する。このようにして、計算機10のCPU11は、仮想記憶領域103に対応する実記憶領域203を意識することなく、仮想化装置100の仮想記憶領域103にデータを書き込むことができる。
次に、バックアップ計算機500のバックアップ処理を説明する。
バックアップ計算機500のCPU540は、計算機10のバックアップ要求発行プログラム16又は管理計算機600のバックアップ要求発行プログラム651からバックアップ要求を受けると、バックアッププログラム551を実行する。
まずは、バックアップ計算機500のCPU540が、図14で示すバックアップ要求を受信した場合のバックアップ処理を説明する。
図14は、本発明の第1の実施の形態のバックアップ要求920の説明図である。
バックアップ要求920は、バックアップ元記憶領域識別子921及びバックアップ先テープメディア番号922を含む。
バックアップ元記憶領域識別子921は、バックアップを要求されるデータが記憶されている仮想記憶領域の一意な識別子である。つまり、バックアップ元記憶領域識別子921は、バックアップ元となる仮想記憶領域の一意な識別子である。バックアップ先メディア番号922は、バックアップ元記憶領域識別子921に対応する仮想記憶領域のバックアップデータを格納するテープメディア301〜303の一意な識別子である。つまり、バックアップ先メディア番号922は、バックアップデータの転送先となるテープメディア301〜303の一意な識別子である。
本説明図のバックアップ要求920は、仮想記憶領域101のデータを、テープライブラリ装置300のテープメディア301にバックアップすることを要求する。なお、テープライブラリ装置300のテープメディア301〜303は、仮想記憶領域101のバックアップデータを記憶するための十分な記憶容量を有する。
図15は、本発明の第1の実施の形態のバックアップ計算機500のバックアップ処理のフローチャートである。
まず、バックアップ計算機500のCPU540は、計算機10のバックアップ要求発行プログラム16又は管理計算機600のバックアップ要求発行プログラム651からバックアップ要求920を受信する(1701)。
すると、バックアップ計算機500のCPU540は、マップ情報転送要求を仮想化装置100に送信する(1702)。
仮想化装置100のCPU140は、マップ情報転送要求を受信する。すると、仮想化装置100のCPU140は、メモリ150に記憶されているマップ情報155をバックアップ計算機500に送信する。
バックアップ計算機500のCPU540は、マップ情報155を受信する(1703)。次に、バックアップ計算機500のCPU540は、受信したマップ情報155を、メモリ550のマップ情報保持領域555に格納する。
次に、バックアップ計算機500のCPU540は、マップ情報保持領域555に格納されているマップ情報155を参照しながら、ステップ1701で受信したバックアップ要求に基づいて、コピー要求を生成する(1704)。
具体的には、バックアップ計算機500のCPU540は、バックアップ要求920のバックアップ元記憶領域識別子921の「101」とマップ情報155の仮想記憶領域識別子1552とが一致するレコードを、マップ情報155から選択する。次に、バックアップ計算機500のCPU540は、選択したレコードから、実記憶領域の識別子1553及び実記憶領域のブロック番号の範囲1554を抽出する。ここでは、バックアップ計算機500のCPU540は、実記憶領域の識別子1553の「201」と実記憶領域のブロック番号の範囲1554の「0〜9999」との組み合わせ及び実記憶領域の識別子1553の「202」と実記憶領域のブロック番号の範囲1554の「0〜9999」との組み合わせを抽出する。
そして、バックアップ計算機500のCPU540は、抽出した実記憶領域の識別子1553及び実記憶領域のブロック番号の範囲1554に基づいて、コピー要求を生成する。ここでは、バックアップ計算機500のCPU540は、第一のコピー要求及び第二のコピー要求を生成する。具体的には、バックアップ計算機500のCPU540は、実記憶領域の識別子1553の「201」と実記憶領域のブロック番号の範囲1554の「0〜9999」との組み合わせに基づいて、第一のコピー要求を生成する。また、バックアップ計算機500のCPU540は、実記憶領域の識別子1553の「202」と実記憶領域のブロック番号の範囲1554の「0〜9999」との組み合わせに基づいて、第二のコピー要求を生成する。
第一のコピー要求は、実記憶領域201内のブロック番号が「0〜9999」に対応するブロックのデータをテープメディア301にコピーすることを要求する。また、第二のコピー要求は、実記憶領域202内のブロック番号が「0〜9999」に対応するブロックのデータをテープメディア301にコピーすることを要求する。
次に、バックアップ計算機500のCPU540は、ステップ1701で受信したバックアップ要求920から、バックアップ先テープメディア番号922の「301」を抽出する。次に、バックアップ計算機500のCPU540は、抽出したバックアップ先テープメディア番号922の「301」に対応するテープメディア301のマウントを、テープライブラリ装置300に指示する(1705)。
テープライブラリ装置300のCPU340は、テープメディア301のマウント指示を受ける。すると、テープライブラリ装置300のCPU340は、テープライブラリ搬送機構330を制御することによって、テープメディア301をテープドライブ320にマウントする。そして、テープライブラリ装置300のCPU340は、「マウント完了」の応答をバックアップ計算機500に送信する。
バックアップ計算機500のCPU540は、「マウント完了」の応答を受信すると、ステップ1704で生成したコピー要求を実行する。なお、バックアップ計算機500のCPU540は、データ転送プログラム552を実行することによって、コピー要求を実行する。また、バックアップ計算機500のCPU540は、ステップ1704で複数のコピー要求を生成した場合、順番にコピー要求を実行する。
具体的には、バックアップ計算機500のCPU540は、生成した第一のコピー要求を実行する(1706)。これによって、バックアップ計算機500のCPU540は、実記憶領域201内のブロック番号が「0〜9999」に対応するブロックのデータを、テープメディア301の前半の記憶領域にコピーする。
次に、バックアップ計算機500のCPU540は、生成した第二のコピー要求を実行する。これによって、バックアップ計算機500のCPU540は、実記憶領域202内のブロック番号が「0〜9999」に対応するブロックのデータをテープメディア301の後半の記憶領域にコピーする。
バックアップ計算機500のCPU540は、ステップ1704で生成したすべてのコピー要求を実行すると、テープメディア301のアンマウントを、テープライブラリ装置300に指示する(1707)。
テープライブラリ装置300のCPU340は、テープメディア301のアンマウント指示を受ける。すると、テープライブラリ装置300のCPU340は、テープライブラリ搬送機構330を制御することによって、テープメディア301をテープドライブ320からアンマウントする。そして、テープライブラリ装置300のCPU340は、「アンマウント完了」の応答をバックアップ計算機500に送信する。
バックアップ計算機500のCPU540は、「アンマウント完了」の応答を受信すると、計算機10又は管理計算機600に「バックアップ完了」の応答を送信する(1708)。そして、バックアップ計算機500のCPU540は、バックアップ処理を終了する。
以上のように、バックアップ計算機500のCPU540は、バックアップ要求に基づいて、コピー要求を生成する。そして、バックアップ計算機500のCPU540は、生成したコピー要求を実行する。これによって、本実施の形態の計算機システムは、仮想化装置100にバックアップのデータを流すことなく、仮想化装置100によって提供される仮想記憶領域101のデータを、テープライブラリ装置300に備わるテープメディア301にバックアップできる。このため、本実施の形態の計算機システムは、バックアップ処理中における仮想化装置100の負荷を低減できる。
次に、バックアップ計算機500のCPU540が、図16で示すバックアップ要求を受信した場合のバックアップ処理を説明する。
図16は、本発明の第1の実施の形態のバックアップ要求920の説明図である。
バックアップ要求920は、バックアップ元記憶領域識別子921及びバックアップ先テープメディア番号922を含む。
バックアップ元記憶領域識別子921及びバックアップ先テープメディア番号922は、図14で説明したバックアップ要求に含まれるものと同一であるので、説明を省略する。
本説明図のバックアップ要求920は、仮想記憶領域103のデータを、テープライブラリ装置300のテープメディア303にバックアップすることを要求する。
次に、当該バックアップ要求920を受信した場合のバックアップ計算機500の処理を図15を参照して説明する。
まず、バックアップ計算機500のCPU540は、計算機10のバックアップ要求発行プログラム16又は管理計算機600のバックアップ要求発行プログラム651からバックアップ要求920を受信する(1701)。
すると、バックアップ計算機500のCPU540は、マップ情報転送要求を仮想化装置100に送信する(1702)。
仮想化装置100のCPU140は、マップ情報転送要求を受信する。すると、仮想化装置100のCPU140は、メモリ150に記憶されているマップ情報155をバックアップ計算機500に送信する。
バックアップ計算機500のCPU540は、マップ情報155を受信する(1703)。次に、バックアップ計算機500のCPU540は、受信したマップ情報155を、メモリ550のマップ情報保持領域555に格納する。
次に、バックアップ計算機500のCPU540は、マップ情報保持領域555に格納されているマップ情報155を参照しながら、ステップ1701で受信したバックアップ要求に基づいて、コピー要求を生成する(1704)。
具体的には、バックアップ計算機500のCPU540は、バックアップ要求920のバックアップ元記憶領域識別子921の「103」とマップ情報155の仮想記憶領域識別子1552とが一致するレコードを、マップ情報155から選択する。次に、バックアップ計算機500のCPU540は、選択したレコードから、実記憶領域の識別子1553及び実記憶領域のブロック番号の範囲1554を抽出する。ここでは、バックアップ計算機500のCPU540は、実記憶領域の識別子1553の「203」及び実記憶領域のブロック番号の範囲1554の「10000〜19999」を抽出する。
そして、バックアップ計算機500のCPU540は、抽出した実記憶領域の識別子1553の「203」及び実記憶領域のブロック番号の範囲1554の「10000〜19999」に基づいて、コピー要求を生成する。当該コピー要求は、実記憶領域203内のブロック番号が「10000〜19999」に対応するブロックのデータをテープメディア303にコピーすることを要求する。
次に、バックアップ計算機500のCPU540は、ステップ1701で受信したバックアップ要求920から、バックアップ先テープメディア番号922の「303」を抽出する。次に、バックアップ計算機500のCPU540は、抽出したバックアップ先テープメディア番号922の「303」に対応するテープメディア303のマウントを、テープライブラリ装置300に指示する(1705)。
テープライブラリ装置300のCPU340は、テープメディア303のマウント指示を受ける。すると、テープライブラリ装置300のCPU340は、テープライブラリ搬送機構330を制御することによって、テープメディア303をテープドライブ320にマウントする。そして、テープライブラリ装置300のCPU340は、「マウント完了」の応答をバックアップ計算機500に送信する。
バックアップ計算機500のCPU540は、「マウント完了」の応答を受信すると、ステップ1704で生成したコピー要求を実行する(1706)。なお、バックアップ計算機500のCPU540は、データ転送プログラム552を実行することによって、コピー要求を実行する。これによって、バックアップ計算機500のCPU540は、実記憶領域203内のブロック番号が「10000〜19999」に対応するブロックのデータを、テープメディア303にコピーする。
次に、バックアップ計算機500のCPU540は、テープメディア303のアンマウントを、テープライブラリ装置300に指示する(1707)。
テープライブラリ装置300のCPU340は、テープメディア303のアンマウント指示を受ける。すると、テープライブラリ装置300のCPU340は、テープライブラリ搬送機構330を制御することによって、テープメディア303をテープドライブ320からアンマウントする。すると、テープライブラリ装置300のCPU340は、「アンマウント完了」の応答をバックアップ計算機500に送信する。
バックアップ計算機500のCPU540は、「アンマウント完了」の応答を受信すると、計算機10又は管理計算機600に「バックアップ完了」の応答を送信する(1708)。そして、バックアップ計算機500のCPU540は、バックアップ処理を終了する。
ここで、本発明の第1の実施の形態の効果を説明する。
図17は、仮想化環境でバックアップ処理を行う計算機システムにおけるバックアップデータの流れの説明図である。
本説明図は、本発明の第1の実施の形態の計算機システムと異なる方法で、仮想化環境においてバックアップ処理を行う計算機システムの一形態を示す。
仮想化環境においてバックアップ処理を行う計算機システムに備わるバックアップ計算機は、仮想化装置の仮想記憶領域と記憶装置の実記憶領域との対応を把握できない。そのため、当該バックアップ計算機は、仮想化装置の仮想記憶領域のデータをバックアップする際に、当該仮想記憶領域のバックアップデータを仮想化装置から受信する。つまり、仮想化環境においてバックアップ処理を行う計算機システムでは、バックアップデータが仮想化装置を経由する。そのため、仮想化装置にバックアップ処理の負荷をかけてしまう。
図18は、本発明の第1の実施の形態の計算機システムにおけるバックアップデータの流れの説明図である。
本実施の形態のバックアップ計算機500は、仮想化装置100の仮想記憶領域と記憶装置200の実記憶領域201〜203との対応を参照して、コピー要求を生成する。そして、当該バックアップ計算機500は、作成したコピー要求を実行することによって、バックアップデータを記憶装置200から直接取得する。これによって、本実施の形態の計算機システムでは、バックアップデータが仮想化装置100を経由しない。そのため、本実施の計算機システムは、バックアップ処理中における仮想化装置100の負荷を軽減できる。
次に、バックアップ計算機500のリストア処理を説明する。
バックアップ計算機500のCPU540は、計算機10のバックアップ要求発行プログラム16又は管理計算機600のバックアップ要求発行プログラム651からリストア要求を受けると、バックアッププログラム551を実行する。
ここでは、バックアップ計算機500のCPU540が、図19で示すリストア要求を受信した場合のリストア処理を説明する。
図19は、本発明の第1の実施の形態のリストア要求940の説明図である。
リストア要求940は、リストア元テープメディア番号941及びリストア先記憶領域識別子942を含む。
リストア元テープメディア番号941は、リストアデータを記憶するテープメディア301〜303の一意な識別子である。リストア先記憶領域942は、リストアを要求される仮想記憶領域の一意な識別子である。
本説明図のリストア要求940は、テープライブラリ装置300のテープメディア303に記憶されているデータによって、仮想化装置100の仮想記憶領域103をリストアすることを要求する。
図20は、本発明の第1の実施の形態のバックアップ計算機500のリストア処理のフローチャートである。
まず、バックアップ計算機500のCPU540は、計算機10のバックアップ要求発行プログラム16又は管理計算機600のバックアップ要求発行プログラム651からリストア要求940を受信する(1801)。
すると、バックアップ計算機500のCPU540は、マップ情報転送要求を仮想化装置100に送信する(1802)。
仮想化装置100のCPU140は、マップ情報転送要求を受信する。すると、仮想化装置100のCPU140は、メモリ150に記憶されているマップ情報155をバックアップ計算機500に送信する。
バックアップ計算機500のCPU540は、マップ情報155を受信する(1803)。次に、バックアップ計算機500のCPU540は、受信したマップ情報155を、メモリ550のマップ情報保持領域555に格納する。
次に、バックアップ計算機500のCPU540は、マップ情報保持領域555に格納されているマップ情報155を参照しながら、ステップ1801で受信したリストア要求に基づいて、コピー要求を生成する(1804)。
具体的には、バックアップ計算機500のCPU540は、リストア要求940のリストア先記憶領域識別子942の「103」とマップ情報155の仮想記憶領域識別子1552とが一致するレコードを、マップ情報155から選択する。次に、バックアップ計算機500のCPU540は、選択したレコードから、実記憶領域の識別子1553及び実記憶領域のブロック番号の範囲1554を抽出する。ここでは、バックアップ計算機500のCPU540は、実記憶領域の識別子1553の「203」及び実記憶領域のブロック番号の範囲1554の「10000〜19999」を抽出する。
そして、バックアップ計算機500のCPU540は、抽出した実記憶領域の識別子1553及び実記憶領域のブロック番号の範囲1554に基づいて、コピー要求を生成する。具体的には、バックアップ計算機500のCPU540は、実記憶領域の識別子1553の「203」及び実記憶領域のブロック番号の範囲1554の「10000〜19999」に基づいて、コピー要求を生成する。当該コピー要求は、テープメディア303に記憶されているデータを、実記憶領域203内のブロック番号が「10000〜19999」に対応するブロックにコピーすることを要求する。
次に、バックアップ計算機500のCPU540は、ステップ1801で受信したリストア要求940から、リストア元テープメディア番号941の「303」を抽出する。次に、バックアップ計算機500のCPU540は、抽出したリストア元テープメディア番号941の「303」に対応するテープメディア303のマウントを、テープライブラリ装置300に指示する(1805)。
テープライブラリ装置300のCPU340は、テープメディア303のマウント指示を受ける。すると、テープライブラリ装置300のCPU340は、テープライブラリ搬送機構330を制御することによって、テープメディア303をテープドライブ320にマウントする。そして、テープライブラリ装置300のCPU340は、「マウント完了」の応答をバックアップ計算機500に送信する。
バックアップ計算機500のCPU540は、「マウント完了」の応答を受信すると、ステップ1804で生成したコピー要求を実行する(1806)。これによって、バックアップ計算機500のCPU540は、テープメディア303のデータを、実記憶領域203内のブロック番号が「10000〜19999」に対応するブロックにコピーする。なお、バックアップ計算機500のCPU540は、データ転送プログラム552を実行することによって、コピー要求を実行する。また、バックアップ計算機500のCPU540は、ステップ1804で複数のコピー要求を生成した場合、順番にコピー要求を実行する。
バックアップ計算機500のCPU540は、ステップ1804で生成したすべてのコピー要求を実行すると、テープメディア303のアンマウントを、テープライブラリ装置300に指示する(1807)。
テープライブラリ装置300のCPU340は、テープメディア303のアンマウント指示を受ける。すると、テープライブラリ装置300のCPU340は、テープライブラリ搬送機構330を制御することによって、テープメディア303をテープドライブ320からアンマウントする。そして、テープライブラリ装置300のCPU340は、「アンマウント完了」の応答をバックアップ計算機500に送信する。
バックアップ計算機500のCPU540は、「アンマウント完了」の応答を受信すると、計算機10又は管理計算機600に「バックアップ完了」の応答を送信する(1808)。そして、バックアップ計算機500のCPU540は、リストア処理を終了する。
次に、本発明の第1の実施の形態の計算機システムの第1の変形例を説明する。
図21は、第1の変形例の計算機システムの構成のブロック図である。
第1の変形例の計算機システムは、計算機10、仮想化装置100、記憶装置200、テープライブラリ装置300及び管理計算機600を備える。
つまり、第1の変形例の計算機システムの構成は、バックアップ計算機500を備えない。また、記憶装置200とテープライブラリ装置300とは、ファイバチャネルプロトコルが適用されているネットワークを介して接続される。第1の変形例の計算機システムのそれ以外の構成は、図1で説明した計算機システムと同一であるので、説明を省略する。
また、計算機10、仮想化装置100、記憶装置200及び管理計算機600は、図1で説明した計算機システムに備わるものと同一のであるので、説明を省略する。
図22は、第1の変形例の計算機システムに備わるテープライブラリ装置300の構成のブロック図である。
第1の変形例のテープライブラリ装置300のメモリ350には、バックアッププログラム551及びデータ転送プログラム552が記憶されている。また、第1の変形例のテープライブラリ装置300のメモリ350は、マップ情報保持領域555を含む。第1の変形例のテープライブラリ装置300のそれ以外の構成は、図5で説明したテープライブラリ装置と同一である。同一の構成には同一の番号を付すことによって、説明を省略する。
バックアッププログラム551、データ転送プログラム552及びマップ情報保持領域555は、図6で説明したバックアップ計算機500のメモリ550に記憶されているものと同一であるので、説明を省略する。
第1の変形例の計算機システムは、バックアップ計算機500を備えていない。しかし、テープライブラリ装置300が、バックアップ計算機500と同一の機能を備えている。そのため、第1の変形例の計算機システムでは、テープライブラリ装置300が、バックアップ計算機500に代わって、バックアップ及びデータの転送を制御する。これによって、第1の変形例の計算機システムは、仮想化装置100に負荷をかけずに、バックアップ処理及びリストア処理を実行できる。
次に、本発明の第1の実施の形態の計算機システムの第2の変形例を説明する。
図23は、第2の変形例の計算機システムの構成のブロック図である。
第2の変形例の計算機システムは、計算機10、仮想化装置100、記憶装置200、テープライブラリ装置300、データ転送計算機800及び管理計算機600を備える。つまり、第2の変形例の計算機システムの構成は、バックアップ計算機500の代わりにデータ転送計算機800を備える点を除き、図1で説明した計算機システムと同一である。
データ転送計算機800は、仮想化装置100から受信した要求に基づいて、記憶装置間200とテープライブラリ装置300との間のデータ転送を制御する。但し、第2の変形例の計算機システムは、データ転送計算機800の代わりに、データ転送機能を有するファイバチャネルスイッチを備えていてもよい。また、インターネットプロトコルが適用された第2の変形例の計算機システムは、データ転送計算機800の代わりに、データ転送機能を有するIPスイッチを備えていてもよい。
なお、計算機10、記憶装置200、テープライブラリ装置300及び管理計算機600は、図1で説明した計算機システムに備わるものと同一であるので、説明を省略する。
図24は、第2の変形例の計算機システムに備わる仮想化装置100の構成のブロック図である。
第2の変形例の仮想化装置100のメモリ150には、バックアッププログラム551が記憶されている。第2の変形例の仮想化装置100のそれ以外の構成は、図3Aで説明した仮想化装置と同一である。同一の構成には同一の番号を付すことによって、説明を省略する。
バックアッププログラム551は、図6で説明したバックアップ計算機500のメモリ550に記憶されているものと同一であるので、説明を省略する。
図25は、第2の変形例の計算機システムに備わるデータ転送計算機800の構成のブロック図である。
データ転送計算機800は、FCインタフェース810、CPU840、メモリ850及び管理インタフェース890を備える。
FCインタフェース810は、ファイバチャネルプロトコルが適用されているネットワークを介して、記憶装置200及びテープライブラリ装置300と接続する。管理インタフェース890は、管理ネットワーク90を介して、計算機10、仮想化装置100及び管理計算機600と接続する。
CPU840は、メモリ850に記憶されているプログラムを実行することによって各種処理を行う。
メモリ850は、CPU840によって実行されるプログラム等を含む情報を記憶する。具体的には、メモリ850には、データ転送プログラム552が記憶されている。データ転送プログラム552は、図6で説明したバックアップ計算機500のメモリ550に記憶されているものと同一であるので、説明を省略する。
第2の変形例の計算機システムでは、仮想化装置100が、バックアップ計算機500に代わって、バックアップを制御する。また、データ転送計算機800が、バックアップ計算機500に代わって、データの転送を制御する。これによって、第2の変形例の計算機システムは、バックアップデータを仮想化装置100に流さずに、バックアップ処理及びリストア処理を実行できる。
(第2の実施の形態)
本発明の第2の実施の形態の計算機システムは、バックアップ元の実記憶領域と異なる実記憶領域にデータをコピーすることによって、仮想化装置の仮想記憶領域をリストアする。
第2の実施の形態の計算機システムの構成は、第1の実施の形態の計算機システム(1)と同一である。また、第2の実施の形態の計算機システムの処理は、リストア処理(図20)を除き、第1の実施の計算機システムと同一である。同一の構成及び処理は、説明を省略する。
図26は、本発明の第2の実施の形態の計算機システムのリストア処理のフローチャートである。
管理計算機600のCPU610は、管理者からリストアの指示が入力されると、バックアップ要求発行プログラム652を実行する。
具体的には、管理計算機600のCPU610は、計算機10から予め取得しておいた記憶領域識別情報テーブル17を参照して、リストア要求940を生成する(1901)。ここでは、管理計算機600のCPU610は、図19に示すリストア要求940を生成したとする。当該リストア要求940は、テープライブラリ装置300のテープメディア303に記憶されているデータによって、仮想化装置100の仮想記憶領域103をリストアすることを要求する。
次に、管理計算機600のCPU610は、リストアを要求された仮想記憶領域103と同一の容量の実記憶領域の生成を、記憶装置200に指示する(1902)。
すると、記憶装置200のCPU240は、記憶領域制御プログラム251を実行することによって、仮想記憶領域103と同一の容量の実記憶領域を生成する。ここでは、記憶装置200のCPU240は、二つの実記憶領域204及び205を生成したとする。なお、実記憶領域204、205のそれぞれは、5000個のブロックを有する。
次に、管理計算機600のCPU610は、記憶装置200に備わる実記憶領域を再認識させる処理の実行を、計算機10に指示する(1903)。
すると、計算機10のCPU11は、仮想記憶領域構築プログラム153を実行することによって、実記憶領域204及び205を認識する。
次に、管理計算機600のCPU610は、マップ情報155の更新を仮想化装置100に指示する(1904)。
すると、仮想化装置100のCPU140は、仮想記憶領域構築プログラム153を実行することによって、マップ情報155を更新する。
具体的には、仮想化装置100のCPU140は、生成されたリストア要求940のリストア先記憶領域識別子941とマップ情報155の仮想記憶領域の識別子1552とが一致するレコードを、マップ情報155から選択する。次に、仮想化装置100のCPU140は、選択したレコードの実記憶領域の識別子1553に、新たに生成された実記憶領域204及び205の識別子を格納する。次に、仮想化装置100のCPU140は、選択したレコードのブロック番号の範囲1554に、新たに生成された実記憶領域204及び205に含まれるブロック番号の範囲を格納する。次に、仮想化装置100のCPU140は、選択したレコードのブロック数1555に、新たに生成された実記憶領域204及び205に含まれるブロックの数を格納する。
これによって、仮想化装置100のCPU140は、図9Bに示すマップ情報155を、図9Cに示すマップ情報155に更新する。
次に、管理計算機600のCPU610は、ステップ1901で生成したリストア要求940をバックアップサーバ500に送信する(1905)。
バックアップ計算機500のCPU540は、管理計算機600からリストア要求940を受信する(1911)。
すると、バックアップ計算機500のCPU540は、マップ情報転送要求を仮想化装置100に送信する(1912)。
仮想化装置100のCPU140は、マップ情報転送要求を受信する。すると、仮想化装置100のCPU140は、メモリ150に記憶されているマップ情報155(図9C)をバックアップ計算機500に送信する。
バックアップ計算機500のCPU540は、マップ情報155を受信する(1913)。次に、バックアップ計算機500のCPU540は、受信したマップ情報155を、メモリ550のマップ情報保持領域555に格納する。
次に、バックアップ計算機500のCPU540は、マップ情報保持領域555に格納されているマップ情報155を参照しながら、ステップ1911で受信したリストア要求に基づいて、コピー要求を生成する(1914)。
具体的には、バックアップ計算機500のCPU540は、リストア要求940のリストア先記憶領域識別子942の「103」とマップ情報155の仮想記憶領域識別子1552とが一致するレコードを、マップ情報155から選択する。次に、バックアップ計算機500のCPU540は、選択したレコードから、実記憶領域の識別子1553及び実記憶領域のブロック番号の範囲1554を抽出する。ここでは、バックアップ計算機500のCPU540は、実記憶領域の識別子1553の「204」と実記憶領域のブロック番号の範囲1554の「0〜4999」との組み合わせ及び実記憶領域の識別子1553の「205」と実記憶領域のブロック番号の範囲1554の「0〜4999」との組み合わせを抽出する。
そして、バックアップ計算機500のCPU540は、抽出した実記憶領域の識別子1553及び実記憶領域のブロック番号の範囲1554に基づいて、コピー要求を生成する。ここでは、バックアップ計算機500のCPU540は、第一のコピー要求及び第二のコピー要求を生成する。具体的には、バックアップ計算機500のCPU540は、実記憶領域の識別子1553の「204」と実記憶領域のブロック番号の範囲1554の「0〜4999」との組み合わせに基づいて、第一のコピー要求を生成する。また、バックアップ計算機500のCPU540は、実記憶領域の識別子1553の「205」と実記憶領域のブロック番号の範囲1554の「0〜4999」との組み合わせに基づいて、第二のコピー要求を生成する。
第一のコピー要求は、テープメディア303の前半の記憶領域に記憶されているデータを、実記憶領域204内のブロック番号が「0〜4999」に対応するブロックにコピーすることを要求する。また、第二のコピー要求は、テープメディア303の後半の記憶領域に記憶されているデータを、実記憶領域205内のブロック番号が「0〜4999」に対応するブロックにコピーすることを要求する。
次に、バックアップ計算機500のCPU540は、ステップ1911で受信したリストア要求940から、リストア元テープメディア番号941の「303」を抽出する。次に、バックアップ計算機500のCPU540は、抽出したリストア元テープメディア番号941の「303」に対応するテープメディア303のマウントを、テープライブラリ装置300に指示する(1915)。
テープライブラリ装置300のCPU340は、テープメディア303のマウント指示を受ける。すると、テープライブラリ装置300のCPU340は、テープライブラリ搬送機構330を制御することによって、テープメディア303をテープドライブ320にマウントする。そして、テープライブラリ装置300のCPU340は、「マウント完了」の応答をバックアップ計算機500に送信する。
バックアップ計算機500のCPU540は、「マウント完了」の応答を受信すると、ステップ1914で生成したコピー要求を実行する(1916)。なお、バックアップ計算機500のCPU540は、データ転送プログラム552を実行することによって、コピー要求を実行する。また、バックアップ計算機500のCPU540は、ステップ1914で複数のコピー要求を生成した場合、順番にコピー要求を実行する。
具体的には、バックアップ計算機500のCPU540は、生成した第一のコピー要求を実行する。これによって、バックアップ計算機500のCPU540は、テープメディア303の前半の記憶領域に記憶されているデータを、記憶領域実記憶領域204内のブロック番号が「0〜4999」に対応するブロックにコピーする。
次に、バックアップ計算機500のCPU540は、生成した第二のコピー要求を実行する。これによって、バックアップ計算機500のCPU540は、テープメディア303の後半の記憶領域に記憶されているデータを、記憶領域実記憶領域205内のブロック番号が「0〜4999」に対応するブロックにコピーする。
バックアップ計算機500のCPU540は、ステップ1914で生成したすべてのコピー要求を実行すると、テープメディア303のアンマウントを、テープライブラリ装置300に指示する(1917)。
テープライブラリ装置300のCPU340は、テープメディア303のアンマウント指示を受ける。すると、テープライブラリ装置300のCPU340は、テープライブラリ搬送機構330を制御することによって、テープメディア303をテープドライブ320からアンマウントする。そして、テープライブラリ装置300のCPU340は、「アンマウント完了」の応答をバックアップ計算機500に送信する。
バックアップ計算機500のCPU540は、「アンマウント完了」の応答を受信すると、計算機10又は管理計算機600に「バックアップ完了」の応答を送信する(1918)。そして、バックアップ計算機500のCPU540は、リストア処理を終了する。
本発明の第2の実施の形態によると、計算機システムは、バックアップ元の実記憶領域と異なる実記憶領域にデータをコピーすることによって、仮想化装置の仮想記憶領域をリストアできる。
(第3の実施の形態)
本発明の第3の実施の形態の仮想化装置は、バックアップデータが記憶される記憶装置の実記憶領域も仮想化する。
図27は、本発明の第3の実施の形態の計算機システムの構成のブロック図である。
第3の実施の形態の計算機システムは、テープライブラリ装置300の代わりに、記憶装置900を備える。また、第3の計算機システムでは、仮想化装置100は、ファイバチャネルプロトコルが適用されているネットワークを介して、記憶装置900に接続されている。
第3の実施の形態の計算機システムのそれ以外の構成は、第1の実施の形態の計算機システムと同一であるので、説明を省略する。
図28は、本発明の第3の実施の形態の計算機システムに備わる記憶装置900の構成のブロック図である。
記憶装置900は、FCインタフェース904、データ転送制御モジュール905、CPU906、メモリ907、管理インタフェース909及びディスクドライブを備える。
FCインタフェース904は、ファイバチャネルプロトコルが適用されているネットワークを介して、仮想化装置100及びバックアップ計算機500と接続する。管理インタフェース909は、管理ネットワーク90を介して、管理計算機600と接続する。
データ転送制御モジュール905は、FCインタフェース904、CPU906及びディスクドライブの間のデータ転送を制御する。
CPU906は、メモリ907に記憶されているプログラムを実行することによって各種処理を行う。
メモリ907は、CPU906によって実行されるプログラム等を含む情報を記憶する。具体的には、メモリ907には、記憶領域制御プログラム908が記憶されている。
記憶領域制御プログラム908は、仮想化装置100から受信したリード要求及びライト要求を処理する。また、記憶領域制御プログラム908は、ディスクドライブの記憶領域を、実記憶領域901〜903として仮想化装置100に提供する。
図29は、本発明の第3の実施の形態の仮想化装置100に記憶されているマップ情報155の構成図である。
マップ情報155は、LU番号1551、仮想記憶領域の識別子1552、実記憶領域の識別子1553、実記憶領域のブロック番号の範囲1554及び実記憶領域のブロック数1555を含む。
LU番号1551は、計算機10が仮想化装置100の仮想記憶領域を識別するための識別子である。
仮想記憶領域の識別子1552は、当該仮想記憶領域の一意な識別子である。
実記憶領域の識別子1553は、当該仮想記憶領域に書き込み要求されたデータを実際に記憶する実記憶領域201〜203、901〜903の一意な識別子である。
実記憶領域のブロック番号の範囲1554は、当該実記憶領域201〜203、901〜903に含まれるブロックのうち、当該仮想記憶領域に書き込み要求されたデータを記憶するブロックの範囲である。
実記憶領域のブロック番号数1555は、当該実記憶領域201〜203、901〜903に含まれるブロックのうち、当該仮想記憶領域に書き込み要求されたデータを記憶するブロックの数である。
図30は、本発明の第3の実施の形態の仮想化装置100が提供する仮想記憶領域101〜103、111〜113の説明図である。
仮想化装置100は、計算機10に仮想記憶領域101〜103を提供する。仮想記憶領域101は、記憶装置200の実記憶領域201及び202から構成されている。また、実記憶領域201は、10000個のブロックから構成されている。同様に、実記憶領域202は、10000個のブロックで構成されている。1個のブロックは、例えば、512バイトである。
更に、仮想記憶領域101の前半(ブロック番号「0〜9999」)のブロックは、実記憶領域201に対応する。また、仮想記憶領域101の後半(ブロック番号「10000〜19999」)のブロックは、実記憶領域202に対応する。
また、仮想記憶領域102及び103は、記憶装置200の実記憶領域203から構成されている。また、実記憶領域203は、20000個のブロックから構成されている。
更に、仮想記憶領域102は、実想記憶領域203の前半(ブロック番号「0〜9999」)のブロック203Aに対応する。また、仮想記憶領域103は、実想記憶領域203の後半(ブロック番号「10000〜19999」)のブロック203Bに対応する。
また、仮想化装置100は、仮想記憶領域111〜113を提供する。仮想記憶領域111は、記憶装置900の実記憶領域901及び902から構成されている。また、実記憶領域901は、10000個のブロックから構成されている。同様に、実記憶領域902は、10000個のブロックで構成されている。
更に、仮想記憶領域111の前半(ブロック番号「0〜9999」)のブロックは、実記憶領域901に対応する。また、仮想記憶領域111の後半(ブロック番号「10000〜19999」)のブロックは、実記憶領域902に対応する。
また、仮想記憶領域112及び113は、記憶装置900の実記憶領域903から構成されている。また、実記憶領域903は、40000個のブロックから構成されている。
更に、仮想記憶領域112は、実想記憶領域903の前半(ブロック番号「0〜19999」)のブロック903Aに対応する。また、仮想記憶領域113は、実想記憶領域903の後半(ブロック番号「20000〜39999」)のブロック903Bに対応する。
次に、本発明の第3の実施の形態の計算機システムのバックアップ処理を説明する。
図31は、本発明の第3の実施の形態のバックアップ要求950の説明図である。
バックアップ要求950は、バックアップ元記憶領域識別子951及びバックアップ先記憶領域識別子952を含む。
バックアップ元記憶領域識別子951は、バックアップを要求されるデータが記憶されている仮想記憶領域の一意な識別子である。バックアップ先記憶領域番号952は、バックアップ元記憶領域識別子951に対応する仮想記憶領域のバックアップデータを格納する仮想記憶領域の一意な識別子である。
本説明図のバックアップ要求950は、仮想記憶領域101のデータを、仮想記憶領域113にバックアップすることを要求する。
ここでは、バックアップ計算機500のCPU540が、図31で示すバックアップ要求を受信した場合のバックアップ処理を説明する。
図32は、本発明の第3の実施の形態のバックアップ計算機500のバックアップ処理のフローチャートである。
まず、バックアップ計算機500のCPU540は、計算機10のバックアップ要求発行プログラム16又は管理計算機600のバックアップ要求発行プログラム651からバックアップ要求950を受信する(1751)。
すると、バックアップ計算機500のCPU540は、マップ情報転送要求を仮想化装置100に送信する(1752)。
仮想化装置100のCPU140は、マップ情報転送要求を受信する。すると、仮想化装置100のCPU140は、メモリ150に記憶されているマップ情報155をバックアップ計算機500に送信する。
バックアップ計算機500のCPU540は、マップ情報155を受信する(1753)。次に、バックアップ計算機500のCPU540は、受信したマップ情報155を、メモリ550のマップ情報保持領域555に格納する。
次に、バックアップ計算機500のCPU540は、マップ情報保持領域555に格納されているマップ情報155を参照しながら、ステップ1751で受信したバックアップ要求に基づいて、コピー要求を生成する(1754)。
具体的には、バックアップ計算機500のCPU540は、バックアップ要求950のバックアップ元記憶領域識別子951の「101」とマップ情報155の仮想記憶領域識別子1552とが一致するレコードを、マップ情報155から選択する。次に、バックアップ計算機500のCPU540は、選択したレコードから、実記憶領域の識別子1553及び実記憶領域のブロック番号の範囲1554を抽出する。ここでは、バックアップ計算機500のCPU540は、実記憶領域の識別子1553の「201」と実記憶領域のブロック番号の範囲1554の「0〜9999」との組み合わせ及び実記憶領域の識別子1553の「202」と実記憶領域のブロック番号の範囲1554の「0〜9999」との組み合わせを抽出する。
次に、バックアップ計算機500のCPU540は、バックアップ要求950のバックアップ先記憶領域識別子952の「113」とマップ情報155の仮想記憶領域識別子1552とが一致するレコードを、マップ情報155から選択する。次に、バックアップ計算機500のCPU540は、選択したレコードから、実記憶領域の識別子1553の「903」及び実記憶領域のブロック番号の範囲1554の「20000〜39999」を抽出する。
そして、バックアップ計算機500のCPU540は、抽出した実記憶領域の識別子1553及び実記憶領域のブロック番号の範囲1554に基づいて、コピー要求を生成する。ここでは、バックアップ計算機500のCPU540は、第一のコピー要求及び第二のコピー要求を生成する。具体的には、バックアップ計算機500のCPU540は、実記憶領域の識別子1553の「201」と実記憶領域のブロック番号の範囲1554の「0〜9999」との組み合わせに基づいて、第一のコピー要求を生成する。また、バックアップ計算機500のCPU540は、実記憶領域の識別子1553の「202」と実記憶領域のブロック番号の範囲1554の「0〜9999」との組み合わせに基づいて、第二のコピー要求を生成する。
第一のコピー要求は、実記憶領域201内のブロック番号が「0〜9999」に対応するブロックのデータを、実記憶領域903内のブロック番号が「20000〜29999」に対応するブロックにコピーすることを要求する。また、第二のコピー要求は、実記憶領域202内のブロック番号が「0〜9999」に対応するブロックのデータを、実記憶領域903内のブロック番号が「30000〜39999」に対応するブロックにコピーすることを要求する。
次に、バックアップ計算機500のCPU540は、データ転送プログラム552を実行することによって、生成したコピー要求を実行する(1755)。なお、バックアップ計算機500のCPU540は、複数のコピー要求を生成した場合、順番にコピー要求を実行する。
具体的には、バックアップ計算機500のCPU540は、生成した第一のコピー要求を実行する。これによって、バックアップ計算機500のCPU540は、実記憶領域201内のブロック番号が「0〜9999」に対応するブロックのデータを、実記憶領域903内のブロック番号が「20000〜29999」に対応するブロックにコピーする。
次に、バックアップ計算機500のCPU540は、生成した第二のコピー要求を実行する。これによって、バックアップ計算機500のCPU540は、実記憶領域202内のブロック番号が「0〜9999」に対応するブロックのデータを、実記憶領域903内のブロック番号が「30000〜39999」に対応するブロックにコピーする。
バックアップ計算機500のCPU540は、ステップ1754で生成したすべてのコピー要求を実行すると、計算機10又は管理計算機600に「バックアップ完了」の応答を送信する(1756)。そして、バックアップ計算機500のCPU540は、バックアッププログラム551の処理を終了する。
以上のように、バックアップ計算機500のCPU540は、マップ情報155を参照しながら、バックアップ要求に基づいて、コピー要求を生成する。そして、バックアップ計算機500のCPU540は、生成したコピー要求を実行する。これによって、本実施の形態の計算機システムは、仮想化装置100にバックアップのデータを流すことなく、仮想化装置100によって提供される仮想記憶領域101のデータを、当該仮想化装置100によって提供される他の仮想記憶領域113にバックアップできる。このため、本実施の形態の計算機システムは、バックアップ処理中における仮想化装置100の負荷を低減できる。
本発明の第1の実施の形態の計算機システムの構成のブロック図である。 本発明の第1の実施の形態の計算機の構成のブロック図である。 本発明の第1の実施の形態の仮想化装置の構成のブロック図である。 本発明の第1の実施の形態の仮想化装置の変形例の構成のブロック図である。 本発明の第1の実施の形態の記憶装置の構成のブロック図である。 本発明の第1の実施の形態のテープライブラリ装置の構成のブロック図である。 本発明の第1の実施の形態のバックアップ計算機の構成のブロック図である。 本発明の第1の実施の形態の管理計算機の構成のブロック図である。 本発明の第1の実施の形態の計算機に記憶されている記憶領域識別情報テーブルの構成図である。 本発明の第1の実施の形態の仮想化装置に記憶されているマップ情報の構成図である。 本発明の第1の実施の形態の仮想化装置に記憶されているマップ情報の構成図である。 本発明の第1の実施の形態の仮想化装置に記憶されているマップ情報の構成図である。 本発明の第1の実施の形態の管理計算機が表示する仮想記憶領域構築画面の説明図である。 本発明の第1の実施の形態の管理計算機が表示する仮想記憶領域構築画面の説明図である。 本発明の第1の実施の形態の管理計算機が表示する仮想記憶領域構築画面の説明図である。 本発明の第1の実施の形態の管理計算機が表示する仮想記憶領域構築画面の説明図である。 本発明の第1の実施の形態の仮想化装置が提供する仮想記憶領域の説明図である。 本発明の第1の実施の形態の計算機が発行するリード要求の説明図である。 本発明の第1の実施の形態の仮想化装置が変換したリード要求の説明図である。 本発明の第1の実施の形態の計算機が発行するライト要求の説明図である。 本発明の第1の実施の形態の仮想化装置が変換したライト要求の説明図である。 本発明の第1の実施の形態のバックアップ要求の説明図である。 本発明の第1の実施の形態のバックアップ計算機のバックアップ処理のフローチャートである。 本発明の第1の実施の形態のバックアップ要求の説明図である。 仮想化環境でバックアップ処理を行う計算機システムにおけるバックアップデータの流れの説明図である。 本発明の第1の実施の形態の計算機システムにおけるバックアップデータの流れの説明図である。 本発明の第1の実施の形態のリストア要求の説明図である。 本発明の第1の実施の形態のバックアップ計算機のリストア処理のフローチャートである。 第1の変形例の計算機システムの構成のブロック図である。 第1の変形例の計算機システムに備わるテープライブラリ装置の構成のブロック図である。 第2の変形例の計算機システムの構成のブロック図である。 第2の変形例の計算機システムに備わる仮想化装置の構成のブロック図である。 第2の変形例の計算機システムに備わるデータ転送計算機の構成のブロック図である。 本発明の第2の実施の形態の計算機システムのリストア処理のフローチャートである。 本発明の第3の実施の形態の計算機システムの構成のブロック図である。 本発明の第3の実施の形態の計算機システムに備わる記憶装置の構成のブロック図である。 本発明の第3の実施の形態の仮想化装置に記憶されているマップ情報の構成図である。 本発明の第3の実施の形態の仮想化装置が提供する仮想記憶領域の説明図である。 本発明の第3の実施の形態のバックアップ要求の説明図である。 本発明の第3の実施の形態のバックアップ計算機のバックアップ処理のフローチャートである。
符号の説明
10 計算機
11 CPU
12 メモリ
13 FCインタフェース
15 アプリケーションプログラム
16 バックアップ要求発行プログラム
17 記憶領域識別情報テーブル
19 管理インタフェース
90 管理ネットワーク
100 仮想化装置
101〜103 仮想記憶領域
110 FCインタフェース
111〜113 仮想記憶領域
115 FCインタフェース
116 FCインタフェース
120 データ転送制御モジュール
140 CPU
150 メモリ
151 Inquiry応答プログラム
152 リードライト要求変換プログラム
153 仮想記憶領域構築プログラム
155 マップ情報
190 管理インタフェース
200 記憶装置
201〜205 実記憶領域
210 FCインタフェース
220 データ転送制御モジュール
240 CPU
250 メモリ
251 記憶領域制御プログラム
290 管理インタフェース
300 テープライブラリ装置
301〜303 テープメディア
309 格納庫
310 FCインタフェース
320 テープドライブ
330 テープメディア搬送機構
340 CPU
350 メモリ
351 テープメディア搬送プログラム
390 管理インタフェース
500 バックアップ計算機
510 FCインタフェース
540 CPU
550 メモリ
551 バックアッププログラム
552 データ転送プログラム
555 マップ情報保持領域
600 管理計算機
610 CPU
650 メモリ
651 表示入力プログラム
652 バックアップ要求発行プログラム
680 ディスプレイ
681 キーボード
682 マウス

Claims (20)

  1. 一つ以上の第1記憶装置と、一つ以上の第2記憶装置と、前記第1記憶装置に接続される仮想化装置と、前記仮想化装置に接続される一つ以上のホスト計算機と、前記仮想化装置にアクセス可能なバックアップ部と、前記第1記憶装置、前記第2記憶装置及び前記バックアップ部にアクセス可能なデータ転送部と、を備える計算機システムであって、
    前記第1記憶装置は、前記仮想化装置に接続される第1インタフェースと、前記第1インタフェースに接続される第1プロセッサと、前記第1プロセッサに接続される第1メモリと、前記ホスト計算機から書き込み要求されるデータが格納される第1ディスクドライブと、を備え、
    前記第2記憶装置は、外部に接続される第2インタフェースと、前記第2インタフェースに接続される第2プロセッサと、前記第2プロセッサに接続される第2メモリと、前記第1ディスクドライブに格納されるデータの複製が格納される記憶部と、を備え、
    前記仮想化装置は、前記第1記憶装置及び前記ホスト計算機に接続される第3インタフェースと、前記第3インタフェースに接続される第3プロセッサと、前記第3プロセッサに接続される第3メモリと、を備え、
    前記第3プロセッサは、前記ホスト計算機からデータの書き込みを要求される仮想記憶領域を前記ホスト計算機に提供し、
    前記第1プロセッサは、
    前記第1ディスクドライブの記憶領域を、一つ以上の第1記憶領域として前記仮想化装置に提供し、
    前記仮想記憶領域に書き込み要求されたデータを、前記第1記憶領域に格納し、
    前記バックアップ部は、
    前記仮想記憶領域のバックアップを要求されると、前記仮想記憶領域と当該仮想記憶領域に書き込み要求されたデータが格納される第1記憶領域との対応を示すマップ情報を取得し、
    前記取得されたマップ情報に基づいて、前記バックアップを要求された仮想記憶領域に対応する第1記憶領域を特定し、
    前記データ転送部は、前記バックアップ部によって特定された第1記憶領域に格納されているデータの複製を、前記第2記憶装置に備わる記憶部に転送することを特徴とする計算機システム。
  2. 前記バックアップ部及び前記データ転送部は、前記第2メモリに記憶されているプログラムが前記第2プロセッサによって実行されることによって実現され、前記第2記憶装置に備わることを特徴とする請求項1に記載の計算機システム。
  3. 更に、前記第1記憶装置、前記第2記憶装置及び前記仮想化装置に接続されるバックアップ計算機を備え、
    前記バックアップ計算機は、前記第1記憶装置、前記第2記憶装置及び前記仮想化装置に接続される第4インタフェースと、前記第4インタフェースに接続される第4プロセッサと、前記第4プロセッサに接続される第4メモリと、を備え、
    前記バックアップ部及び前記データ転送部は、前記第4メモリに記憶されているプログラムが前記第4プロセッサによって実行されることによって実現され、前記バックアップ計算機に備わることを特徴とする請求項1に記載の計算機システム。
  4. 更に、前記第1記憶装置、前記第2記憶装置及び前記仮想化装置に接続されるデータ転送計算機を備え、
    前記データ転送計算機は、前記第1記憶装置、前記第2記憶装置及び前記仮想化装置に接続される第4インタフェースと、前記第4インタフェースに接続される第4プロセッサと、前記第4プロセッサに接続される第4メモリと、を備え、
    前記データ転送部は、前記第4メモリに記憶されているプログラムが前記第4プロセッサによって実行されることによって実現され、前記データ転送計算機に備わり、
    前記バックアップ部は、前記第3メモリに記憶されているプログラムが前記第3プロセッサによって実行されることによって実現され、前記仮想化装置に備わることを特徴とする請求項1に記載の計算機システム。
  5. 前記仮想化装置は、前記ホスト計算機から書き込み要求されるデータを格納する第2ディスクドライブを備えることを特徴とする請求項1に記載の計算機システム。
  6. 前記第3メモリは、前記マップ情報を記憶し、
    前記バックアップ部は、前記仮想記憶領域のバックアップを要求されると、前記第3メモリから前記マップ情報を取得することを特徴とする請求項1に記載の計算機システム。
  7. 前記マップ情報は、前記仮想記憶領域と当該仮想記憶領域に書き込み要求されたデータが格納されるブロックとの対応を含み、
    前記バックアップ部は、前記取得されたマップ情報に基づいて、前記バックアップを要求された仮想記憶領域に対応するブロックを特定し、
    前記データ転送部は、前記バックアップ部によって特定された第1記憶領域内の、前記バックアップ部によって特定されたブロックに格納されているデータの複製を、前記第2記憶装置に備わる記憶部に転送することを特徴とする請求項1に記載の計算機システム。
  8. 前記バックアップ部は、
    前記仮想記憶領域のリストアを要求されると、前記マップ情報を取得し、
    前記取得されたマップ情報に基づいて、前記リストアを要求された仮想記憶領域に対応する第1記憶領域を特定し、
    前記データ転送部は、前記第2記憶装置に備わる記憶部に格納されているデータの複製を、前記バックアップ部によって特定された第1記憶領域に転送することを特徴とする請求項1に記載の計算機システム。
  9. 前記第2記憶装置に備わる記憶部は、第2ディスクドライブであり、
    前記第2プロセッサは、
    前記第2ディスクドライブの記憶領域を、一つ以上の第2記憶領域として前記仮想化装置に提供することを特徴とする請求項1に記載の計算機システム。
  10. 前記バックアップ部は、
    前記取得されたマップ情報に基づいて、バックアップ要求でバックアップ先として指定される仮想記憶領域に対応する第2記憶領域を特定し、
    前記データ転送部は、前記バックアップ部によって特定された第1記憶領域に格納されているデータの複製を、前記バックアップ部によって特定された第2記憶領域に転送することを特徴とする請求項9に記載の計算機システム
  11. 一つ以上の第1記憶装置と、一つ以上の第2記憶装置と、前記第1記憶装置に接続される仮想化装置と、前記仮想化装置に接続される一つ以上のホスト計算機と、前記仮想化装置にアクセス可能なバックアップ部と、前記第1記憶装置、前記第2記憶装置及び前記バックアップ部にアクセス可能なデータ転送部と、を備える計算機システムにおけるデータ複製方法であって、
    前記第1記憶装置は、前記仮想化装置に接続される第1インタフェースと、前記第1インタフェースに接続される第1プロセッサと、前記第1プロセッサに接続される第1メモリと、前記ホスト計算機から書き込み要求されるデータが格納される第1ディスクドライブと、を備え、
    前記第2記憶装置は、外部に接続される第2インタフェースと、前記第2インタフェースに接続される第2プロセッサと、前記第2プロセッサに接続される第2メモリと、前記第1ディスクドライブに格納されるデータの複製が格納される記憶部と、を備え、
    前記仮想化装置は、前記第1記憶装置及び前記ホスト計算機に接続される第3インタフェースと、前記第3インタフェースに接続される第3プロセッサと、前記第3プロセッサに接続される第3メモリと、を備え、
    前記第3プロセッサは、前記ホスト計算機からデータの書き込みを要求される仮想記憶領域を前記ホスト計算機に提供し、
    前記第1プロセッサは、
    前記第1ディスクドライブの記憶領域を、一つ以上の第1記憶領域として前記仮想化装置に提供し、
    前記仮想記憶領域に書き込み要求されたデータを、前記第1記憶領域に格納し、
    前記データ複製方法は、
    前記仮想記憶領域のバックアップを要求されると、前記仮想記憶領域と当該仮想記憶領域に書き込み要求されたデータが格納される第1記憶領域との対応を示すマップ情報を取得する第1ステップと、
    前記取得されたマップ情報に基づいて、前記バックアップを要求された仮想記憶領域に対応する第1記憶領域を特定する第2ステップと、
    前記特定された第1記憶領域に格納されているデータの複製を、前記第2記憶装置に備わる記憶部に転送する第3ステップと、を含むことを特徴とするデータ複製方法。
  12. 前記第2プロセッサが、前記第1ステップ、前記第2ステップ及び前記第3ステップを実行することを特徴とする請求項11に記載のデータ複製方法。
  13. 前記計算機システムは、前記第1記憶装置、前記第2記憶装置及び前記仮想化装置に接続されるバックアップ計算機を備え、
    前記バックアップ計算機は、前記第1記憶装置、前記第2記憶装置及び前記仮想化装置に接続される第4インタフェースと、前記第4インタフェースに接続される第4プロセッサと、前記第4プロセッサに接続される第4メモリと、を備え、
    前記第4プロセッサが、前記第1ステップ、前記第2ステップ及び前記第3ステップを実行することを特徴とする請求項11に記載のデータ複製方法。
  14. 前記計算機システムは、前記第1記憶装置、前記第2記憶装置及び前記仮想化装置に接続されるデータ転送計算機を備え、
    前記データ転送計算機は、前記第1記憶装置、前記第2記憶装置及び前記仮想化装置に接続される第4インタフェースと、前記第4インタフェースに接続される第4プロセッサと、前記第4プロセッサに接続される第4メモリと、を備え、
    前記第3プロセッサが、前記第1ステップ及び前記第2ステップを実行し、
    前記第4プロセッサが、前記第3ステップを実行することを特徴とする請求項11に記載のデータ複製方法。
  15. 前記マップ情報は、前記仮想記憶領域と当該仮想記憶領域に書き込み要求されたデータが格納されるブロックとの対応を含み、
    前記データ複製方法は、更に、前記取得されたマップ情報に基づいて、前記バックアップを要求された仮想記憶領域に対応するブロックを特定する第4ステップを含み、
    前記第3ステップは、前記特定された第1記憶領域内の前記特定されたブロックに格納されているデータの複製を、前記第2記憶装置に備わる記憶部に転送することを特徴とする請求項11に記載のデータ複製方法。
  16. 更に、前記仮想記憶領域のリストアを要求されると、前記マップ情報を取得する第4ステップと、
    前記取得されたマップ情報に基づいて、前記リストアを要求された仮想記憶領域に対応する第1記憶領域を特定する第5ステップと、
    前記第2記憶装置に備わる記憶部に格納されているデータの複製を、前記特定された第1記憶領域に転送する第6ステップと、を含むことを特徴とする請求項11に記載のデータ複製方法。
  17. 前記第2記憶装置に備わる記憶部は、第2ディスクドライブであり、
    前記第2プロセッサは、複数の前記第2ディスクドライブの記憶領域を、一つ以上の第2記憶領域として前記仮想化装置に提供し、
    前記データ複製方法は、更に、前記取得されたマップ情報に基づいて、前記バックアップ要求でバックアップ先として指定される仮想記憶領域に対応する第2記憶領域を特定する第4ステップを含み、
    前記第3ステップは、前記特定された第1記憶領域に格納されているデータの複製を、前記特定された第2記憶領域に転送することを特徴とする請求項11に記載のデータ複製方法。
  18. 一つ以上の第1記憶装置と、一つ以上の第2記憶装置と、仮想化装置と、に接続されるバックアップ計算機であって、
    前記仮想化装置は、
    前記第1記憶装置及びホスト計算機に接続され、
    前記ホスト計算機からデータの書き込みを要求される仮想記憶領域を前記ホスト計算機に提供し、
    前記第1記憶装置は、
    前記ホスト計算機から書き込み要求されるデータが格納される第1ディスクドライブを備え、
    前記第1ディスクドライブの記憶領域を、一つ以上の第1記憶領域として前記仮想化装置に提供し、
    前記仮想記憶領域に書き込み要求されたデータを、前記第1記憶領域に格納し、
    前記第2記憶装置は、前記第1ディスクドライブに格納されるデータの複製が格納される記憶部を備え、
    前記バックアップ計算機は、
    前記仮想記憶領域のバックアップを要求されると、前記仮想記憶領域と当該仮想記憶領域に書き込み要求されたデータが格納される第1記憶領域との対応を示すマップ情報を取得し、
    前記取得されたマップ情報に基づいて、前記バックアップを要求された仮想記憶領域に対応する第1記憶領域を特定し、
    前記特定された第1記憶領域に格納されているデータの複製を、前記第2記憶装置に備わる記憶部に転送することを特徴とするバックアップ計算機。
  19. 前記マップ情報は、前記仮想記憶領域と当該仮想記憶領域に書き込み要求されたデータが格納されるブロックとの対応を含み、
    前記バックアップ計算機は、
    前記取得されたマップ情報に基づいて、前記バックアップを要求された仮想記憶領域に対応するブロックを特定し、
    前記特定された第1記憶領域内の、前記特定されたブロックに格納されているデータの複製を、前記第2記憶装置に備わる記憶部に転送することを特徴とする請求項18に記載のバックアップ計算機。
  20. 前記仮想記憶領域のリストアを要求されると、前記マップ情報を取得し、
    前記取得されたマップ情報に基づいて、前記リストアを要求された仮想記憶領域に対応する第1記憶領域を特定し、
    前記第2記憶装置に備わる記憶部に格納されているデータの複製を、前記特定された第1記憶領域に転送することを特徴とする請求項18に記載のバックアップ計算機。
JP2006013952A 2006-01-23 2006-01-23 計算機システム及びデータ複製方法 Pending JP2007199756A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006013952A JP2007199756A (ja) 2006-01-23 2006-01-23 計算機システム及びデータ複製方法
US11/372,122 US20070174566A1 (en) 2006-01-23 2006-03-10 Method of replicating data in a computer system containing a virtualized data storage area

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006013952A JP2007199756A (ja) 2006-01-23 2006-01-23 計算機システム及びデータ複製方法

Publications (1)

Publication Number Publication Date
JP2007199756A true JP2007199756A (ja) 2007-08-09

Family

ID=38286950

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006013952A Pending JP2007199756A (ja) 2006-01-23 2006-01-23 計算機システム及びデータ複製方法

Country Status (2)

Country Link
US (1) US20070174566A1 (ja)
JP (1) JP2007199756A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009048514A (ja) * 2007-08-22 2009-03-05 Hitachi Ltd 仮想ボリュームのバックアップを行うストレージシステム及び方法
JP2010152781A (ja) * 2008-12-26 2010-07-08 Fujitsu Ltd バックアップサーバ装置、バックアップ/リストアプログラム、およびバックアップ/リストア方法
JP5315460B1 (ja) * 2011-09-07 2013-10-16 株式会社オレガ ファイル管理システム及びファイル管理方法

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060271663A1 (en) * 2005-05-31 2006-11-30 Fabio Barillari A Fault-tolerant Distributed Data Processing System
US7747831B2 (en) * 2006-03-20 2010-06-29 Emc Corporation High efficiency portable archive and data protection using a virtualization layer
US7831787B1 (en) 2006-03-20 2010-11-09 Emc Corporation High efficiency portable archive with virtualization
US9317222B1 (en) * 2006-04-24 2016-04-19 Emc Corporation Centralized content addressed storage
US9235477B1 (en) * 2006-04-24 2016-01-12 Emc Corporation Virtualized backup solution
US8065273B2 (en) * 2006-05-10 2011-11-22 Emc Corporation Automated priority restores
US9684739B1 (en) 2006-05-11 2017-06-20 EMC IP Holding Company LLC View generator for managing data storage
US7941621B1 (en) * 2007-03-30 2011-05-10 Symantec Corporation Automatically mounting and unmounting a volume during a backup or restore operation
WO2010064328A1 (en) * 2008-12-03 2010-06-10 Hitachi, Ltd. Information processing system and method of acquiring backup in an information processing system
JP6209880B2 (ja) * 2013-07-04 2017-10-11 富士通株式会社 データ管理装置、及びデータ管理装置の制御方法
US11567883B2 (en) * 2021-06-04 2023-01-31 Western Digital Technologies, Inc. Connection virtualization for data storage device arrays
US11507321B1 (en) 2021-06-04 2022-11-22 Western Digital Technologies, Inc. Managing queue limit overflow for data storage device arrays

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003296037A (ja) * 2002-04-05 2003-10-17 Hitachi Ltd 計算機システム
JP2004227558A (ja) * 2002-11-25 2004-08-12 Hitachi Ltd 仮想化制御装置およびデータ移行制御方法
JP2005196641A (ja) * 2004-01-09 2005-07-21 Nec Corp ディスクアレイ装置、バックアップシステムおよびバックアップ方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6081875A (en) * 1997-05-19 2000-06-27 Emc Corporation Apparatus and method for backup of a disk storage system
US6269431B1 (en) * 1998-08-13 2001-07-31 Emc Corporation Virtual storage and block level direct access of secondary storage for recovery of backup data
US6353878B1 (en) * 1998-08-13 2002-03-05 Emc Corporation Remote control of backup media in a secondary storage subsystem through access to a primary storage subsystem
JP2003316616A (ja) * 2002-04-24 2003-11-07 Hitachi Ltd 計算機システム
JP4704659B2 (ja) * 2002-04-26 2011-06-15 株式会社日立製作所 記憶装置システムの制御方法および記憶制御装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003296037A (ja) * 2002-04-05 2003-10-17 Hitachi Ltd 計算機システム
JP2004227558A (ja) * 2002-11-25 2004-08-12 Hitachi Ltd 仮想化制御装置およびデータ移行制御方法
JP2005196641A (ja) * 2004-01-09 2005-07-21 Nec Corp ディスクアレイ装置、バックアップシステムおよびバックアップ方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009048514A (ja) * 2007-08-22 2009-03-05 Hitachi Ltd 仮想ボリュームのバックアップを行うストレージシステム及び方法
JP2010152781A (ja) * 2008-12-26 2010-07-08 Fujitsu Ltd バックアップサーバ装置、バックアップ/リストアプログラム、およびバックアップ/リストア方法
JP5315460B1 (ja) * 2011-09-07 2013-10-16 株式会社オレガ ファイル管理システム及びファイル管理方法
US9323624B2 (en) 2011-09-07 2016-04-26 Orega Inc. File management system and file management method

Also Published As

Publication number Publication date
US20070174566A1 (en) 2007-07-26

Similar Documents

Publication Publication Date Title
JP2007199756A (ja) 計算機システム及びデータ複製方法
US11347408B2 (en) Shared network-available storage that permits concurrent data access
CN103365743B (zh) 用于在计算环境中处理快照的方法和系统
US9124611B2 (en) Systems and methods for writing data and storage system specific metadata to network attached storage device
JP4456909B2 (ja) バックアップ方法、ストレージシステム及びそのプログラム
US8448167B2 (en) Storage system, and remote copy control method therefor
JP5284905B2 (ja) データ移行方法、及びプログラム
JP4920979B2 (ja) ストレージ装置及びその制御方法
US20070136519A1 (en) Offsite management using disk based tape library and vault system
US20060168415A1 (en) Storage system, controlling method thereof, and virtualizing apparatus
JP2007079774A (ja) ファイルシステムの構築方法
JP2007265403A (ja) 階層型ストレージシステム間でのリモートミラー方式
JP6604115B2 (ja) ストレージ装置およびストレージ制御プログラム
JP2007183703A (ja) データの改竄を防止する記憶装置
JP2009230624A (ja) ストレージシステム
CN107111531A (zh) 使用分配图的数据恢复
JP2007219611A (ja) バックアップ装置及びバックアップ方法
JP2009064160A (ja) 計算機システム、管理計算機及びデータ管理方法
JP4713951B2 (ja) 仮想テープライブラリシステムおよび仮想テープ書き込み方法
WO2007099636A1 (ja) ファイルシステム移行方法、ファイルシステム移行プログラム及びファイルシステム移行装置
JP2005321913A (ja) ファイル共有装置を有する計算機システム、および、ファイル共有装置の移行方法
US20060059188A1 (en) Operation environment associating data migration method
JP2005234860A (ja) バージョン管理システム、バージョン管理サーバ装置、及び記憶デバイス制御装置
JP4394467B2 (ja) ストレージシステム、サーバ装置及び先行コピーデータ生成方法
JP4667225B2 (ja) 制御装置およびコピー制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081017

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110607

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111011