JP4862006B2 - 計算機システム - Google Patents

計算機システム Download PDF

Info

Publication number
JP4862006B2
JP4862006B2 JP2008063185A JP2008063185A JP4862006B2 JP 4862006 B2 JP4862006 B2 JP 4862006B2 JP 2008063185 A JP2008063185 A JP 2008063185A JP 2008063185 A JP2008063185 A JP 2008063185A JP 4862006 B2 JP4862006 B2 JP 4862006B2
Authority
JP
Japan
Prior art keywords
logical
data
disk array
logical unit
host
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008063185A
Other languages
English (en)
Other versions
JP2008152807A (ja
JP2008152807A5 (ja
Inventor
敬史 荒川
和彦 茂木
賢哲 江口
弘治 荒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2008063185A priority Critical patent/JP4862006B2/ja
Publication of JP2008152807A publication Critical patent/JP2008152807A/ja
Publication of JP2008152807A5 publication Critical patent/JP2008152807A5/ja
Application granted granted Critical
Publication of JP4862006B2 publication Critical patent/JP4862006B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • G06F3/0613Improving I/O performance in relation to throughput
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/08Error detection or correction by redundancy in data representation, e.g. by using checking codes
    • G06F11/10Adding special bits or symbols to the coded information, e.g. parity check, casting out 9's or 11's
    • G06F11/1076Parity data used in redundant arrays of independent storages, e.g. in RAID systems
    • G06F11/1096Parity calculation or recalculation after configuration or reconfiguration of the system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • G06F3/0605Improving or facilitating administration, e.g. storage management by facilitating the interaction with a user or administrator
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0608Saving storage space on storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0631Configuration or reconfiguration of storage systems by allocating resources to storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0635Configuration or reconfiguration of storage systems by changing the path, e.g. traffic rerouting, path reconfiguration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/0647Migration mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • G06F3/0659Command handling arrangements, e.g. command buffers, queues, command scheduling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2056Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring
    • G06F11/2087Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring with a common controller
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0866Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches for peripheral storage systems, e.g. disk cache
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L61/00Network arrangements, protocols or services for addressing or naming
    • H04L61/45Network directories; Name-to-address mapping
    • H04L61/457Network directories; Name-to-address mapping containing identifiers of data entities on a computer, e.g. file names
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99951File or database maintenance
    • Y10S707/99952Coherency, e.g. same view to multiple users
    • Y10S707/99953Recoverability
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99951File or database maintenance
    • Y10S707/99952Coherency, e.g. same view to multiple users
    • Y10S707/99955Archiving or backup

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、記憶装置に記憶されたデータを再配置する技術に関し、特に、複数の記憶装置を有する計算機システムでのデータの再配置に好適な技術に関する。
計算機システムにおける、ストレージサブシステム内に記憶されたデータを再配置する技術として、特開平9-274544号公報記載のディスクアレイシステムがある。ここで、ストレージサブシステムとは、複数の記憶装置から構成される記憶装置システムのことを言う。
ディスクアレイシステムとは、複数のディスク装置をアレイ状に配置し、各ディスク装置を並列に動作させることで、各ディスク装置に分割格納されるデータのリード/ライトを高速に行うシステムのことである。D.A.Patterson, G.Gibson, and R.H.Kats,”A Case for Redundant Arrays of Inexpensive Disks (RAID)”(in Proc. ACM SIGMOD, pp.109-116, June 1988)に記載されているように、冗長性を付加したディスクアレイシステムには、その冗長構成に応じてレベル1からレベル5の種別が与えられている。これらの種別に加えて、冗長性無しのディスクアレイシステムをレベル0と呼ぶこともある。
ディスクアレイシステムを構成するためのコスト、ディスクアレイシステムの性能や特性等は、ディスクアレイシステムのレベルによって異なる。そこで、システムの使用目的に応じて、ディスクアレイシステムの構築の際にレベルの異なる複数のアレイ(ディスク装置の組)を混在させることも多い。このようにレベルの異なるアレイを混在させたディスクアレイシステムにおいて、各レベルのアレイは、パリティグループと呼ばれる。また、ディスク装置についても性能や容量等によりコストが異なるので、最適のコストパフォーマンスを実現するシステムを構築するために、性能や容量の異なる複数種のディスク装置を用いることがある。
ディスクアレイシステムでは、データが複数のディスク装置に分散して配置されるため、ディスクアレイシステムに接続されるホストコンピュータが、論理記憶領域とディスク装置の記憶領域を示す物理記憶領域との対応付け(アドレス変換)を行っている。
特開平9-274544号公報には、ディスクアレイシステム内において、物理記憶領域間におけるデータの再配置を実行し、データの論理記憶領域に対する物理記憶領域への対応付けを、再配置前の物理記憶領域から再配置後の物理記憶領域に変更する技術が開示されている。また、ディスクアレイシステムがホストコンピュータからの各論理記憶領域に対するアクセスによる負荷状況を管理し、その実績に応じて再配置後にデータが適正配置となるように、再配置の内容を決定するという技術も開示されている。
ホストコンピュータおよびディスクアレイシステム等のストレージサブシステム間におけるデータ転送の技術としては、M.T.O’Keefe,”Shared File Systems and Fibre Channel”(in Proc. Sixth Goddard Conference on Mass Storage Systems and Technologies, pp.1-16, March 1998)に開示された技術がある。
この技術は、高速のネットワークであるFibre Channel(以下「FC」と称する。)で複数のホストコンピュータと複数のストレージサブシステムとを接続し、FC経由でデータ共有を実現するストレージ環境、いわゆるStorage Area Network(SAN)を実現するための技術である。このように、FC経由でデータ転送を行うことにより、一般的なネットワーク経由に比べ、ホストコンピュータおよびネットワークの負荷が削減される。
高速なFCを使用しない、一般的なネットワークに接続されたストレージサブシステムに保持されているファイル等のデータを、複数のコンピュータで共有する技術としては、NFS(Network File System)が広く知られている。
NFSを用いてネットワーク間でデータ共有を行う場合には、FCを使用する場合に比べ、ファイルを共有しているコンピュータや、コンピュータとストレージサブシステムをつなぐネットワークに対する負荷が大きくなる。しかし、NFSを用いると、既存のネットワークを使用できることから、新たにFCのネットワークを敷設することと比較すると、新規設備コストを抑えられ、またファイル共有等の管理が容易である等の利点がある。
上述したように、特開平9-274544号公報に開示された技術では、1つのストレージサブシステム内におけるデータの再配置が可能となる。しかしながら、複数のストレージサブシステムを有する計算機システムにおいて、異なるストレージサブシステム間でのデータの再配置を行うことはできない。また、ディスクアレイシステムはファイルを認識できないため、ファイル単位でデータの再配置を行うことができない。
一方、SANの技術を用いれば、異なるストレージサブシステムにおける高速なデータ転送が可能となる。しかしながら、従来技術においては、SANの技術を利用してストレージサブシステム間でデータの再配置を行うことは出来なかった。
つまり、従来技術においては、SANを構成する各ストレージサブシステムの各
記憶領域の負荷状況等、データの適正な配置を決定するために必要な情報を、ホストコンピュータやシステムを使用するユーザが得ることについて、何ら考えられていない。このため、ホストコンピュータや、そのユーザが、どのようにしてデータの再配置を行えば、データの適正な配置を実現することができるのかを判断できない。
さらに、仮にユーザが自らストレージサブシステム間におけるデータの再配置を行おうとしても、データを再配置するための未使用領域の管理等を、全てユーザが詳細に検討して行わなければならず、ユーザに対する負担は大きいものがあった。
また、異なるストレージサブシステム間でデータを転送すると、アプリケーションが認識するデータの位置、すなわち、アプリケーションが同じデータにアクセスするために指定すべきアクセス先が再配置の前後で変化してしまうが、この変化についても従来技術では何ら考慮されていない。
さらに、一般的なネットワークで接続されているコンピュータ同士で、NFSを使用してデータ共有を行う場合にも、以下の問題がある。
すなわち、従来、NFSによるデータ共有を実現するために使用されるホストコンピュータ(NFSサーバ)が、複数のストレージサブシステムを管理している場合、NFSサーバ自身は、その複数のストレージサブシステム間でのデータの物理的再配置等を行うことはできなかった。このため、NFSサーバを用いてデータ共有を行うコンピュータ毎に、共有されるデータの物理的位置を変更するといった、ストレージサブシステムの有する記憶領域についてのより細かい区別および管理を行うことができなかった。
本発明は上記事情に鑑みてなされたものであり、本発明の目的は、NFSサーバを含めたホストコンピュータがデータの適正配置の決定に必要な情報をストレージサブシステムから取得できるようにし、SAN環境において、データの再配置を実現することにある。また、異なる目的としては、ユーザのストレージサブシステムの管理負担を軽減することにある。また、異なるストレージサブシステム間におけるデータの再配置を、アプリケーションが認識するデータの位置が、再配置の前後で変化しないようにして、行えるようにすることにある。さらにまた、ファイルを対象とするデータの再配置を可能とすることにある。
前記の課題を解決するため、本発明は以下の構成とする。すなわち、複数の第1ディスク装置及び該複数の第1ディスク装置を用いて第1論理ユニットを形成する第1制御部を含む第1ディスクアレイと、複数の第2ディスク装置及び該複数の第2ディスク装置を用いて第2論理ユニットを形成する第2制御部を含む第2ディスクアレイと、前記第1ディスクアレイ及び前記第2ディスクアレイと接続され、第1論理位置名と前記第1論理ユニットとの間の対応関係を示すマッピング情報を格納するローカルディスクと、前記第1論理位置名に対する第1アクセス要求を前記マッピング情報を参照して前記第1論理ユニットに対する第2アクセス要求に変換し、前記第2アクセス要求を前記第1ディスクアレイに発行する発行手段と、前記第1論理位置名を含む論理位置名に対して前記第1アクセス要求又は第3アクセス要求を発行するアプリケーションが格納されたメモリとを含む計算機と、を備え、前記計算機は、前記第2ディスクアレイに対して、前記第1論理ユニットに格納されているデータを前記第2論理ユニットにコピーするようコピー指示を発行し、前記第2制御部は、前記コピー指示を受領した場合、前記コピー指示の受領報告を前記計算機に発行するとともに、前記第1論理ユニットに格納されたデータを前記第2論理ユニットにコピーし、前記計算機は、前記受領報告を受信した場合、前記マッピング情報に含まれる前記第1論理位置名と前記第1論理ユニットとの間の対応関係を前記第1論理位置名と前記第2論理ユニットとの間の対応関係に変更し、前記第1論理ユニットから前記第2論理ユニットにコピー中のデータにかかる前記第1論理位置名に対する前記第3アクセス要求を、変更された後の前記マッピング情報を参照して前記第2論理ユニットに対する第4アクセス要求に変換して、前記第4アクセス要求を前記第2ディスクアレイに発行し、前記第2制御部は、前記第4アクセス要求がリード要求であり、かつ、該リード要求にかかるリード対象領域のデータの全てを前記第1論理ユニットから前記第2論理ユニットにコピーし終えていない場合、前記リード対象領域のデータの全てを前記第1論理ユニットから前記第2論理ユニットに優先的にコピーし終えてから該コピーした前記リード対象領域のデータを前記計算機に送信し、前記第4アクセス要求がライト要求である場合には、該ライト要求にかかるライト対象領域にデータを書き込む。
ここで、各記憶領域の使用状況とは、例えば、その記憶領域の物理的な記憶空間の使用状況やその記憶空間へのアクセス処理に消費された処理時間等である。
また、ストレージサブシステムで移動されるデータの単位及び計算機で管理されるデータの単位がファイル単位であることも考えられる。
さらに、全てのストレージサブシステムが有する論理的な記憶領域全体を管理する手段と、記憶装置の特徴と論理的な記憶領域との対応関係を管理する手段とを計算機に付加した構成も考えられる。
また、計算機に、ストレージサブシステムに格納されているデータをネットワーク間で共有する手段を付加した構成も考えられる。
図1は、本発明が適用された計算機システムの第1実施形態の構成を示す図である。
本実施形態の計算機システムは、ホストコンピュータ(ホスト)100、ディスクアレイ200、スイッチ500、クライアント800及びローカルディスク190を有する。
ホスト100は、ネットワークインタフェース170により、ネットワーク700を介して、クライアント800及びディスクアレイ200に接続される。ホスト100は、また、FCインタフェース160、スイッチ500及びFC600を介して、ディスクアレイ200及びローカルディスク190に接続される。
ホスト100は、ファイルシステム110、オペレーティングシステム(以下「OS」と称する。)120、マネージャ130及びアプリケーション140をホスト100自身が有する記憶領域に有する。
アプリケーションプログラム(以下、単にアプリケーションと呼ぶ)140は、OS120およびファイルシステム110を介してディスクアレイ200に対してリードやライトの要求を出す。
ホスト100及びクライアント800としては、一般的な電子計算機が用いられる。ファイルシステム110等のプログラムは、ホスト100の外部にあるローカルディスク190に記憶され、必要に応じてホスト100に読み込まれて実行される。
ホスト100がその内部に記憶装置を有する場合には、当該記憶装置をローカルディスク190として使用することも考えられる。
ローカルディスク190には、OS120及びファイルシステム110が使用する論理ユニット(以下、「LU」と称する)論理位置名テーブル191及びLU内アドレス論理位置名テーブル195等の各種管理情報が格納されている。LU論理位置名テーブル191は、アプリケーション140がディスクアレイシステム200のデータにアクセスするときに指定する論理位置名と、論理位置名により特定されるデータを格納するLUとの対応を示す情報を保持したテーブルである。
LU内アドレス論理位置名テーブル195は、アプリケーション140がディスクアレイシステム200のデータにアクセスするときに指定する論理位置名と、論理位置名により特定されるデータのLU内アドレスとの対応を示す情報を保持したテーブルである。
ディスクアレイ200は、制御部300、複数のディスク装置210、ネットワークインタフェース270及びFCインタフェース260を有する。
制御部300は、処理を実行するためのCPU310、メモリ320及びキャッシュメモリ330を有する。
メモリ320には、論理/物理対応情報321、論理ボリューム使用状況322及びコピー領域管理テーブル323が格納される。これらの情報の詳細については後述する。
本実施形態では、n台(nは2以上の整数)のディスク装置210でアレイ(以下「RAID」と称する。)が構成されており、このn台のディスク装置210によるRAIDをパリティグループ220と呼ぶ。
RAIDとしては、1つのパリティグループ220に含まれるn台のディスク装置210のうち、n−1台のディスク装置210の格納内容から生成される冗長データ(以下「パリティ」と称する。)を残りの1台に格納する構成や、n/2台に格納されている内容を残りのn/2台がコピーしたミラーディスク(RAIDレベル1)構成が考えられる。また、各パリティグループ220を、ホスト100からのアクセス対象の1単位とみなすことができる。
本実施形態においては、ディスクアレイ200を構築する各パリティグループ220の性能、信頼性、特性などの属性は、同一であってもよいし、あるいは、異なっていてもかまわない。
制御部300は、ホスト100がリード/ライトする論理ボリュームとディスク装置210の記憶領域を示す物理アドレスとの対応付け(アドレス変換)を行い、ホスト100に論理ボリュームを提供する。ディスクアレイ200は、アドレス変換において、複数の論理ボリュームを結合して1つのLUとしてホスト100に提供することもできる。すなわち、ディスクアレイ200は、少なくとも1つの論理ボリュームからなるLUをホスト100に提供する。ホスト100は、LUに対してリード/ライトを行う。
本実施形態では、複数のディスクアレイ200間における、ディスクアレイ200の使用状況を考慮したデータの物理的再配置を可能とする。具体的には、ディスクアレイ200は、ホスト100からのリード/ライトに対するディスク装
置210の使用状況を取得する。ホスト100は、複数のディスクアレイ200各々が取得した使用状況を収集し、ユーザに提示する。さらに、ホスト100は、ディスクアレイ200の使用状況の提示を受けたユーザからの指示等に応じ、ローカルディスク190内のLU論理位置名テーブル191を変更すると共に、ディスクアレイ200がLUに格納しているデータをコピーする。これにより、複数のディスクアレイ200間におけるLUの再配置が行われる。そして、ディスクアレイ200の使用状況を考慮したデータの再配置を可能とすることにより、データの適正配置が可能となる。
図2は、ディスクアレイ200が、ホスト100からのリード/ライト要求に応答して行うリード/ライト処理、及びディスクアレイ200が、ディスク装置210の使用状況を取得する使用状況取得の処理の手順を示すフロー図である。使用状況取得の処理は、随時、又はホスト100からのリード/ライト要求時に行われる。
ホスト100のアプリケーション140は、ファイル論理位置名によってファイルを指定し、ファイルに対するリード/ライトをOS120に要求する。OS120は、ファイルシステム110にファイルのリード/ライトを要求する。
ファイルシステム110は、FCインタフェース160を介してローカルディスク190にアクセスし、指定されたファイルが格納されているLU番号をLU論理位置名テーブル191から求める。ファイルシステム110は、指定されたファイルが格納されているLU内アドレス等を、LU内アドレス論理位置名テーブル195から求める。
ホスト100は、FCインタフェース160を介して、求めたLU番号のLUを提供するディスクアレイ200に対し、LU番号やLU内アドレスを伴うSmall Computer System Interface(SCSI)規格のリードコマンド、あるいはライトコマンドを発行する。
アプリケーション140が、論理ドライブ名、ディレクトリ名及びファイル名によるファイルの論理位置までのパスの記述によりファイルを指定するシステムでは、論理位置(論理ドライブやディレクトリやファイル)へのパスの記述が、ファイルの論理位置の論理位置名となる。一般的には、論理位置名とは、アプリケーションがアクセス対象の指定に使用する論理位置の情報である。
ファイルシステム110は、各論理位置を管理するため、ディレクトリ構造などの各論理位置間の階層的な論理構造を管理する他、各論理位置の論理位置名とLU番号との対応をLU論理位置名テーブル191に記述し管理する。また、各論理位置の論理位置名とLU内アドレスとの対応をLU内アドレス論理位置名テーブル195に記述し管理する。なお、LU番号は、そのLU番号のLUを提供するディスクアレイ200も表す(ステップ1000)。
ホスト100からリード/ライトのコマンドを受領した制御部300は、メモリ320内の論理/物理対応情報321を用いて、コマンドで指定されているLU番号により特定されるLUを構成する論理ボリュームを特定する。制御部300は、論理ボリュームに対応するディスク装置210の領域を求め、コマンドで指定されているLU内アドレスの物理アドレスへの変換を行う。
論理/物理対応情報321は、図3に示すように、LUとディスク装置210の物理アドレスとの対応関係についての情報を保持するテーブルである。
図中、LU番号5001およびLU内アドレス5002は、ホスト100のファイルシステム110がリード/ライト処理で指定するLU番号及びLU内アドレスを示す。論理ボリューム番号5003は、LU番号5001で特定されるLUに対応する論理ボリュームの番号である。論理ボリュームアドレス5004は、LU内アドレス5002に対応する論理ボリューム内のアドレスである。
物理アドレスは、データとパリティが格納されるディスク装置210上の領域を示すアドレスである。物理アドレスは、パリティグループ番号5005、データおよびパリティ各々に対するディスク装置番号5006及びディスク装置内アドレス5007を有する。パリティグループ番号5005は、個々のパリティグループ220を示す。ディスク装置番号5006は、個々のディスク装置210を示す。ディスク装置内アドレス5007は、ディスク装置210内での領域を示すアドレスである(ステップ1010)。
データのリードの場合、制御部300は、アドレス変換で得た物理アドレスに基づいて、ディスク装置210のデータを読み出し、ホスト100に転送する。データのライトの場合、制御部300は、ホスト100から転送されたデータ及びデータに関連して生成したパリティを、アドレス変換で得たディスク装置210の物理アドレスの位置に格納する(ステップ1020)。
リード/ライト処理を終了した制御部300は、使用状況取得処理を実行する。この処理では、制御部300は、リード/ライト処理でのリード/ライト種別やシーケンシャル/ランダムアクセス種別を判別し、メモリ320のリード/ライト対象となった論理ボリュームの論理ボリューム使用状況322を更新する。論理ボリューム使用状況322は、ディスクアレイ200に含まれるLUの使用状況についての情報を保持したテーブルである。論理ボリューム使用状況322の一例を、図4に示す。
論理ボリューム使用状況322には、論理ボリューム毎に、論理ボリューム番号5101及びリード/ライト種別およびシーケンシャル/ランダムアクセス種別毎のディスク使用時間(マイクロ秒単位)5102が記述される。ここでは、リード/ライト対象となった論理ボリュームの論理ボリューム番号5101に対応する、ディスク使用時間5102に、リード/ライトに要した時間が加算される(ステップ1030)。
図5は、ホスト100が、各ディスクアレイ200からディスク装置210の使用状況を収集する使用状況収集処理の手順を示すフロー図である。この処理は、随時行われる。
ホスト100のマネージャ130は、FCインタフェース160を介し、コマンドボリュームに対して、情報収集用のパラメータをライトデータとするSCSI規格のライトコマンドを発行する。コマンドボリュームは、ディスクアレイ200が有する情報転送用のLUであって、対応する物理領域が指定されない論理ボリュームである。(ステップ1100)。
制御部300は、発行されたコマンドがコマンドボリュームに対するライトコマンドであることを確認すると、ホスト100から転送された情報収集用のパラメータに含まれるオペレーションコードから、要求された情報を判別する。制御部300は、要求された情報をメモリ320上に用意する(ステップ1110)。制御部300は、FCインタフェース260を介して、ホスト100にライトの完了を報告する(ステップ1120)。
完了報告を受けたホスト100のマネージャ130は、FCインタフェース160を介して、ディスクアレイ200のコマンドボリュームに、SCSI規格のリードコマンドを発行する(ステップ1130)。
制御部300は、コマンドボリュームに対するリードコマンドを受領すると、メモリ320上に用意した情報を、FCインタフェース260を介してホスト100に転送する(ステップ1140)。制御部300は、FCインタフェース260を介してホスト100にリードの完了を報告する(ステップ1150)。
ステップ1100でライトされる情報収集用のパラメータ及びステップ1110で用意される情報には、論理ボリューム情報、パリティグループ情報及び使用状況情報の3種類の情報が含まれる。
ステップ1100でライトされる情報収集用のパラメータが、図6に示すような論理ボリューム情報のパラメータである場合、制御部300は、その0〜1バイト目で指定された論理ボリューム番号5201で特定される論理ボリュームについて、図7に示すような論理ボリューム情報(ディスクアレイ200内のその論理ボリュームの構成を示す情報)を用意する。
図7に示す論理ボリューム情報において、8〜47バイト目には、その0〜1バイト目に記述されている論理ボリューム番号5201で特定される論理ボリュームの各種情報5202が記述される。49〜121バイト目には、その論理ボリュームが属するLUを構成する各論理ボリュームの情報5203が記述される。
情報収集用のパラメータが、パリティグループ情報のパラメータの場合、制御部300は、パラメータで指定された論理ボリュームが属するパリティグループ220のパリティグループ情報(RAIDの構成、ディスク装置210の型名等、ディスクアレイ200内のそのパリティグループ220の構成を示す情報)を用意する。
情報収集用のパラメータが、ディスク装置210の使用状況を確認するためのパラメータの場合、制御部300は、パラメータで指定された論理ボリュームの使用状況情報(ディスクアレイ200内のリソースの使用状況、例えば論理ボリュームが占有される時間、論理ボリュームの各種コマンド受領回数やキャッシュメモリ330のヒット回数等の情報、プロセッサ310の占有時間及び内部バスの占有時間等の情報等)を用意する。
制御部300は、あらかじめ、論理ボリューム毎に、各種コマンド受領回数やキャッシュメモリ330のヒット回数やプロセッサ310の占有時間や内部バスの占有時間等を取得している。マネージャ130は、例えば複数回取得した占有時間の平均を取得間隔で割ることにより、単位時間あたりの占有時間率を求めることができる。
制御部300は、論理ボリューム情報やパリティグループ情報を生成する際に、論理/物理対応情報321の一部あるいは全部を使用する。マネージャ130は、各型のディスク装置210の性能に関する情報を保持しており、ディスク装置210の型名を基に、パリティグループ220を構成するディスク装置210の性能を得ることができる。
また、ホスト100のマネージャ130は、LUに対しSCSI規格のINQUIRYコマンドを発行して応答データを得ることで、この応答データからLUに属する論理ボリューム番号を得ることもできる。
図8は、ホスト100が再配置すべきデータを決定する再配置対象決定処理の手順を示すフロー図である。本処理は、ユーザが再配置すべきデータを検索する際に使用するアプリケーションが実行された時に実行される。
ホスト100のマネージャ130は、OS120が使用しているLU及び使用していないLU(空きLU)を、例えばローカルディスク190に格納されているLU論理位置名テーブル191から判定する。マネージャ130は、OS120が使用している各LUについて、LUが属するディスクアレイ200における各論理ボリュームの使用状況や、LUに対応する論理ボリュームの使用状況等を計算する。この計算には、INQUIRYコマンドを発行して得られるLUに属する論理ボリューム番号、使用状況収集処理で得られる各ディスクアレイ200における論理ボリューム情報、パリティグループ情報および論理ボリュームの使用状況等が使用される(ステップ1200)。
マネージャ130は、使用状況等の計算結果を、各論理ボリュームが属するパリティグループ220の属性(RAID構成、ディスク装置210の型名又はディスク装置210の性能等)等と共にユーザに提示する(ステップ1210)。
マネージャ130は、各LUについて、INQUIRYコマンドを発行して得られた各LUに属する論理ボリューム番号、使用状況収集処理で得られた各ディスクアレイ200における論理ボリューム情報、パリティグループ情報及び論理ボリュームの使用状況等とから、各空きLUが対応する各論理ボリュームの使用状況等を計算する(ステップ1220)。この計算結果が、各空きLUに関連するパリティグループ220の属性等と共にユーザに分類されて提示される(ステップ1230)。
使用状況等の情報は、ホスト100あるいはホスト100にネットワーク接続された他の計算機で表示することもできる。
ユーザは、各ディスクアレイ200の各LUについての情報を参照し、データを再配置すべきLU(再配置元LU)及びデータの再配置先のLUを決定する。ただし、ユーザではなく、ホスト100のマネージャ130が、各LUについての情報から自動的にデータ再配置元又は再配置先を決定してもよい。再配置の決定は、たとえば、再配置後に、ディスクアレイ200間での負荷分散、パリティグループ220間での負荷分散、高性能を要求するファイルが存在するLUの高性能パリティグループ220への配置等が実現されるように行なわれる。再配置先LUのサイズは、再配置元LUのサイズ以上でなければならない。各LUのサイズは、SCSI規格のREAD CAPACITYコマンドで取得することができる(ステップ1240)。
図9は、ホスト100が行う、データの再配置処理の手順を示すフロー図である。ホスト100は、再配置を決定したユーザの指示、例えば再配置を指示する実行コマンドの入力等があった場合に本処理を実行する。
ユーザからの指示が入力されたホスト100のマネージャ130は、ファイルシステム110に再配置元LUのロックを指示する(ステップ1300)。ファイルシステム110は、ロック指示に応じて、再配置元LUへのリード/ライト要求の受付を禁止する(ステップ1310)。
次に、マネージャ130は、ファイルシステム110に、再配置元LUについてのキャッシュメモリのフラッシュを指示する(ステップ1320)。ファイルシステム110は、再配置元LUに格納されるデータであって、ホスト100上のメモリにキャッシュされていて且つディスクアレイ200に未だライトされていないデータを、ディスクアレイ200の再配置元LUにライトする(ステップ1330)。
マネージャ130は、ファイルシステム110に、再配置元LUについてのキャッシュの無効化を指示する(ステップ1340)。ファイルシステム110は、再配置元LUに格納されるデータであってホスト100上のメモリにキャッシュされているデータを無効にする(ステップ1350)。
LUのロック、キャッシュメモリのフラッシュ及び無効化の処理は、LUのアンマウントの処理に相当する。
マネージャ130は、再配置先LUが存在するディスクアレイ200に、再配置元LUから再配置先LUへのデータのコピーを指示する。この指示は、使用状況収集処理と同様、再配置先LUが存在するディスクアレイ200のコマンドボリュームに、コピー指示オペレーションコードや再配置元LUや再配置先LU等のコピー指示のパラメータを含んだライトコマンドを発行することで行われる(ステップ1360)。ディスクアレイ200は、後述のコピー処理を開始し、コピー指示の受領をマネージャ130に通知する(ステップ1370)。
マネージャ130は、ローカルディスク190に格納されているファイルシステム110が使用するLU論理位置名テーブル191を書き換え、再配置元LUと再配置先LUとの論理位置名を入れ替える。入れ替えられるLU論理位置名テーブル191の例を、図10及び図11に示す。
図中、ディスクアレイ番号、IDおよびLUNは、LU番号6001を特定するために必要な情報である。図10は、論理位置名をディレクトリ形式で示したものであり、図11は、論理位置名をドライブ形式で示したものである。いずれも、アプリケーション140が使用する記憶領域としてのLUの論理位置を示している(ステップ1380)。マネージャ130は、ファイルシステム110に、LU論理位置名テーブル191の更新(再読み込み)及びステップ1300で指示したロックの解除を指示する(ステップ1390)。
ファイルシステム110は、LU論理位置名テーブル191を再度読み込んで情報を更新する(ステップ1400)。ファイルシステム110は、ロックを解除してリード/ライト要求の受け付けを再開する(ステップ1410)。
ステップ1400及び1410の処理は、LUのマウント処理に相当する。
ステップ1410の処理が実行された後は、ファイルシステム110のリード/ライトの対象となるLUが再配置の対象であるLUであれば、ファイルシステム110のリード/ライト処理は、ステップ1380において情報が入れ替えられた再配置先LUに対して行われる。
図12は、再配置処理において、ディスクアレイ200が、ホスト100からコピー指示を受けた際に行うコピー処理の手順を示すフロー図である。
再配置先LUが存在するディスクアレイ200が、FCインタフェース260を介してホスト100からコピー指示を受け取ると、制御部300は、コピー指示で指定された再配置先LUについてのコピー領域管理テーブル323をメモリ320上に用意する。
図13は、コピー領域管理テーブル323の内容を示す図である。コピー領域管理テーブル323は、コピーされるデータの範囲、大きさ等の情報が登録されているテーブルである。
図中、コピー先LU番号6101及びコピー元LU番号6102は、FC600のネットワーク内において再配置先LUと再配置元LUを一義的に示す番号を格納する領域である。具体的には、ホスト100からコピー指示のパラメータとして指定された8バイトの番号(WORLD WIDE NAME)、3バイトの番号(N_PORT ID)、SCSI規格のターゲットIDもしくはLUNが格納される。コピーブロック数6103には、コピーする領域のブロック(最小リード/ライト単位)の数であり、コピー領域の大きさを示すデータが格納される。ビットマップ6104のビットには、LUのコピー対象領域の各ブロックが割り当てられる。ビットが「1」である場合は未コピーを示し、「0」である場合はコピー済を示す。初期時は、コピー対象領域に対応するすべてのビットが1に設定される(ステップ1500)。
制御部300は、コピー指示の受領をホスト100に通知する。この通知は、コピー指示を実際に受領してから、コピー領域管理テーブル323の設定後、実際にコピーを行う前の時点で行われる。このため、コピー指示の受領から当該通知までの時間は短い(ステップ1510)。
制御部300は、FCインタフェース260を介して再配置元LUから格納すべきデータをリードし、再配置先LUに格納するコピーを行う(ステップ1520)。
制御部300は、LUのコピー対象領域について、コピー済の領域に対応するビットマップ6104のビットを順次0に変更する(ステップ1530)。制御部300は、対象となるLU全体のコピーが終了したら、コピー処理を終了する(ステップ1540)。
再配置元LUが存在するディスクアレイ200と再配置先LUが存在するディスクアレイ200とが同一の場合には、ディスクアレイ200内でLUのコピーが行われる。
ホスト100からの再配置対象LUへのリード/ライトは、再配置対象LUのデータがコピー中であっても、再配置先LU、すなわち再配置先LUの存在するディスクアレイ200に対して行われる。
図14は、再配置先LUの存在するディスクアレイ200が、データの再配置におけるコピー処理の最中に、再配置の対象となるLUに対するリード/ライトコマンドを受けた場合における処理の手順について示すフロー図である。
ディスクアレイ200が、FCインタフェース260を介してリードコマンドを受け取ると、制御部300は、リード対象範囲とテーブル323のビットマップ6104とを比較する(ステップ1610)。リード対象領域に未コピーの領域が含まれている場合には、制御部300は、リード対象領域のデータを優先して読み出してコピーを済ませる(ステップ1630)。制御部300は、ビットマップ6104のリード対象領域に対応するビットをコピー済みに更新する(ステップ1640)。制御部300は、ディスクアレイ200内のコピーしたデータをホスト100に転送する(ステップ1650)。リード対象領域がすべてコピー済であれば、制御部300は、ディスクアレイ200内のコピー済みのデータをホスト100に転送する(ステップ1650)。
制御部300は、FCインタフェース260を介してライトコマンドを受け取ると、ホスト100から転送されたデータについて、ライト対象領域にライトを行う(ステップ1670)。制御部300は、コピー領域管理テーブル323のビットマップ6104のライト対象領域に対応するビットをコピー済に更新する(ステップ1680)。制御部300は、残りの未コピー領域のコピーを継続する(ステップ1690)。
以上の処理により、再配置先LUが存在するディスクアレイ200は、データ再配置におけるコピー処理中であっても、ホスト100からのリード/ライトを処理することができる。
なお、このリード/ライトの処理の際、制御部300は、同時に、先に説明した使用状況取得処理も行う。
また、ホスト100のマネージャ130は、データ再配置におけるコピー処理中に、ディスクアレイ200のコマンドボリュームにコピー進捗取得のためのパラメータを含むデータのライトコマンドを発行し、ディスクアレイ200が用意したデータをリードすることで、コピーの進捗情報等をディスクアレイ200に問い合わせることができる。
具体的には、コマンドボリュームに対するライトコマンドを受け付けた制御部300は、コマンドボリュームにライトされたパラメータを確認する。制御部300は、コピー領域管理テーブル323を参照してパラメータに対応するコピーの進捗率などの情報をメモリ320上に用意し、ライト完了をホスト100に通知する。マネージャ130は、コマンドボリュームに対するリードを行う。制御部300は、ホスト100のリードに対して、メモリ320上に用意したデータを転送することによって、コピーの進捗等の問い合わせに答える。
本実施形態によれば、複数のディスクアレイ200間におけるLUの再配置によるデータの適正配置を、アプリケーション140にとって再配置前後で論理的に等価となるように、すなわち、アクセス対象のアクセスにアプリケーションが使用すべき論理位置名が変化しないようにしつつ実現できる。
また、本態様によれば、計算機は、ディスクアレイから取得した、各記憶領域の物理的な記憶装置資源の使用状況を、例えば記憶装置資源の負荷分散等の観点による、データの適正配置の決定に用いることができる。したがって、この情報を用いて、例えば異なるストレージサブシステム間でデータを再配置することにより、データの適正配置を行うことができる。
なお、本実施形態では、複数のディスクアレイ200間におけるデータの再配置について説明した。しかし、再配置対象データを格納するストレージサブシステムは、ディスクアレイサブシステムでなくてもよい。磁気ディスク装置、光磁気ディスク装置、磁気テープ装置又は半導体ディスク装置などを用いた他の種類のストレージサブシステムであってもよい。
尚、マネージャ130は、FC600経由ではなく、ネットワーク700経由で、例えばSimple Network Management Protocol(SNMP)で規定されているプロトコルを用いて情報の収集や指示を行ってもよい。
本実施形態では、ディスクアレイ200の制御部300が取得する論理ボリューム使用状況322が使用時間の累積値である場合について説明した。しかし、制御部300が単位時間毎の使用時間を使用率の形式にしてメモリ320に蓄積し、これを論理ボリューム使用状況322として、ホスト100のマネージャ130が収集するようにしてもよい。
図15は、本発明が適用された計算機システムの第2実施形態の構成を示す図である。
図示するように、本実施形態の計算機システムは、ローカルディスク190にLU領域範囲テーブル192を格納し、スイッチ500にコピー制御部510を設けた構成を有している点が、第1実施形態の計算機システムと異なる。
本実施形態では、ディスクアレイ200がディスク装置210の使用状況を取得し、ホスト100が複数のディスクアレイ200から使用状況を収集し、使用状況を計算機システムのファイルに基づく分析も含めてユーザに提示する。ホスト100は、ファイル管理のためのデータ(以下「メタデータ」と称する)を変更する。スイッチ500は、ホスト100の指示に基づいて、ディスクアレイ200に格納されているデータをコピーする。これにより、複数のディスクアレイ200間におけるファイルの再配置を可能とし、データの適正配置を行えるようにする。
第1実施形態においては、ホスト100のファイルシステム110は、各LUを、使用中のものと使用していないものとに区別して管理した。本実施形態では、ファイルシステム110は、全てのLUを使用し、全てのLUの領域の集合を単一領域(以下、「統合領域」と称する。)として管理する。また、統合領域上のファ
イルを、後述するメタデータで管理する。メタデータは、統合領域の既定の位置に格納される。
図16は、本実施形態において、ファイルシステム110が統合領域を管理するために用いるLU領域範囲テーブル192の例を示した図である。LU領域範囲テーブル192は、統合領域の範囲と各LU内領域の範囲との対応を示す情報を保持している。
図中、領域内アドレス6301には、統合領域内でのアドレスが格納される。LU番号6302は、ディスクアレイ番号、ID及びLUNを含み、領域内アドレス6301に格納されるLUを示す。LU内アドレス6303は、対応するLU番号6302で特定されるLU内でのアドレスが格納される
図17は、ホスト100がリード/ライトを行う場合の処理の手順を示すフロー図である。
前提として、ホスト100のアプリケーション140は、ファイルシステム110が管理するファイルの論理位置を指定して、ディスクアレイ200が格納するデータにリードやライトを行うものとする。また、ファイルシステム110は、データをファイルとして管理するために、メタデータをディスクアレイ200に格納している。
なお、メタデータはディスクアレイ200に格納されているが、ファイルシステム110の管理に基づき、ホスト100上のメモリにキャッシュされている場合もある。以下、メタデータがホスト100上のメモリにキャッシュされている場合で説明する。
図18は、メタデータの内容を示す図である。
図示するように、メタデータには、各ファイルの作成日時、更新日時、アクセス日時、属性、ファイル論理位置名、セキュリティ情報、及びファイル位置等が含まれる。各ファイルに対応する統合領域内の範囲は、ファイル位置6407に格納された情報で示される。
ホスト100のアプリケーション140は、ファイル論理位置名によってファイルを指定し、ファイルに対するリード/ライトをOS120に要求する(ステップ1700)。OS120は、ファイルシステム110に、ファイルのリード/ライトを要求する(ステップ1710)。ファイルシステム110は、キャッシュされているメタデータを参照し、メタデータ及びLU領域範囲テーブル192の情報から、指定されたファイルの位置(LUおよびLU内アドレス)を得る(ステップ1720)。
要求がライト要求である場合、ファイルシステム110は、さらにメタデータの更新を行う(ステップ1740)。ファイルシステム110は、ステップ1720で得たファイルの位置が示す領域内のリード/ライトをディスクアレイ200に対して行い(ステップ1750)、キャッシュされたメタデータ及びディスクアレイ200のメタデータを更新する(ステップ1760)。
ステップ1740及び1760でのメタデータの更新は、アクセスされたファイルについて、作成日時6401、更新日時6402、アクセス日時6403、属性6404、ファイル論理位置名6405、セキュリティ情報64060、及びファイル位置6407等に格納された情報を、アクセス内容に応じて更新することで行われる。例えば、ライトによりファイルサイズが増減する場合は、これに合わせて、メタデータのファイル位置6407が示す領域内の範囲が増減される。また、ファイルが新規に作成される場合は、メタデータに新規ファイルのエントリが追加され、ファイルが削除される場合は対応するエントリが削除される。
本実施形態において、制御部300は、第1実施形態と同様の使用状況取得処理を行う。また、ホスト100のマネージャ130は、第1実施形態と同様の使用状況収集処理を行う。
図19は、ホスト100が行うファイル単位の再配置対象決定処理の手順を示すフロー図である。
ホスト100のマネージャ130は、統合領域に存在する各ファイルについて、ファイルとLUとの対応を、ファイルシステム110に問い合わせる(ステップ1800)。ファイルシステム110は、キャッシュされたメタデータ及びLU領域範囲テーブル192を用いて、問い合わせに答える(ステップ1810)。
マネージャ130は、ディスクアレイ200毎の各論理ボリュームの使用状況、各LUの各論理ボリュームの使用状況及びファイル毎の各論理ボリュームの使用状況等を計算する。この計算には、INQUIRYコマンドによって得られた各ディスクアレイ200における各LUに属する論理ボリューム番号、使用状況収集処理で得られた各ディスクアレイ200における論理ボリューム情報及びパリティグループ情報及び論理ボリュームの使用状況等が使用される(ステップ1820)。マネージャ130は、計算結果を、各論理ボリュームが属するパリティグループ220の属性等と共にユーザに提示する。すなわち、ホスト100は、使用状況に関する情報を、ディスクアレイ200、論理ボリューム、LU、ファイルといった各種の視点でユーザに提供する(ステップ1830)。
マネージャ130は、各ディスクアレイ200が提供するLUや論理ボリュームについて利用可能な空き領域を計算し、ユーザに提示する(ステップ1840)。マネージャ130は、各ディスクアレイ200が提供するLUや論理ボリュームについて利用可能な空き領域を、ファイルシステム110に問い合わせる(ステップ1850)。ファイルシステム110は、キャッシュされたメタデータ及びLU領域範囲テーブル192を参照して、ファイルが存在しない空き領域を特定し、マネージャ130に答える(ステップ1860)。マネージャ130は、使用状況収集処理で得た各種使用状況等から、空き領域の論理ボリュームの使用状況等を、論理ボリュームやパリティグループ220の属性等と共にユーザに分類して提示する(ステップ1870)。
使用状況や空き領域の情報は、ホスト100またはホスト100にネットワークで接続された他の計算機で表示することができる。ユーザは、これらの情報より再配置すべきファイルと再配置先の空き領域とを決定する。マネージャ130は、これらの情報から、自動的に同様の再配置対象や空き領域を決定してもよい(ステップ1880)。
ホスト100のファイルシステム110が、OS120やアプリケーション140からの各ファイルへのリード/ライト要求頻度(アクセス頻度)を監視して統計情報を生成し、ステップ1830でユーザに提示するようにしてもよい。
これにより、ユーザは、ホスト100での各ファイルのアクセス頻度を勘案して再配置すべきファイルを決定することができる。
図20は、ホスト100が、再配置対象決定処理の結果を受けて行う再配置処理の手順を示すフロー図である。本処理は、基本的には、図9に示すLU単位の再配置決定処理の手順において、LUをファイルに、ディスクアレイ200をスイッチ500に読み替えた処理と同じである。以下、図9とは異なる部分についてのみ説明する。
マネージャ130は、ファイルシステム110に、再配置先の空き領域についての領域の使用予約を指示する(ステップ1940)。ファイルシステム110は、指定された再配置先領域が確保されるよう、キャッシュされたメタデータを更新する(ステップ1950)。マネージャ130は、ファイルシステム110に、メタデータのキャッシュメモリのフラッシュを指示する(ステップ1960)。ファイルシステム110は、ホスト100上のメモリにキャッシュメモリしてあるメタデータを、ディスクアレイ200にライトする(ステップ1970)。
マネージャ130は、メタデータを書き換え、指定されたファイルの位置を、再配置元領域から再配置先領域へ入れ替える。これにより、再配置元の領域を空き領域とする(ステップ2010)。マネージャ130は、ファイルシステム110に、メタデータについて、キャッシュの無効化を指示する(ステップ2020)。ファイルシステム110は、ホスト100上のメモリにキャッシュしてあるメタデータを無効にする(ステップ2030)。
以降、ファイルシステム110が、ファイルにリード/ライトする場合には、再配置先領域にコピーされたデータに対して正常にリード/ライトを行うことができる。
本実施形態によれば、複数のディスクアレイ200間でのファイルの適正配置を、アプリケーション140にとって再配置前後で論理的に等価となるように行うことが可能となる。
図21は、本発明が適用された計算機システムの第3実施形態の構成を示す図である。
本実施形態の計算機システムは、クライアント800が、FCインタフェース860及びネットワークインタフェース870を有する。そして、クライアント800がFCインタフェース860を介してFC600経由でホスト100、ディスクアレイ200及びスイッチ500に接続され、かつネットワークインタフェース870を介してネットワーク700経由でホスト100およびディスクアレイ200に接続される点が、第2実施形態の計算機システムと異なる。本実施形態では、複数のクライアント800とホスト100とが、ディスクアレイ200上のファイルを共有する。クライアント800は、OS820とアプリケーション840を有する。クライアント800は一般的な電子計算機である。
第2実施形態と同様に、本実施形態のファイルシステム110は、全てのLUを使用し、全てのLUの領域を集合して単一の統合領域として管理する。そして、統合領域上のファイルを、第2実施形態と同様にメタデータにより管理する。
クライアント800が、ディスクアレイ200に格納されているファイルへアクセスする処理について説明する。
図22は、クライアント800がディスクアレイ200に格納されているファイルのリードを行う場合の処理の手順を示すフロー図である。
クライアント800のアプリケーション840は、OS820にファイルのリードを要求する(ステップ2100)。OS820は、ネットワークインタフェース870あるいはFCインタフェース860を介して、ホスト100のファイルシステム110にファイルのリードを通知する(ステップ2110)。
ファイルのリードの通知を受けたファイルシステム110は、ファイルが格納されているLUおよびLU内アドレスを、メタデータとLU領域範囲テーブル192とを参照して求める(ステップ2120)。ファイルシステム110は、ファイルが格納されているLUのLU内アドレスを他のクライアント800からのライトに対してロックする(ステップ2130)。ファイルシステム110は、ホスト100のキャッシュメモリにあるメタデータをフラッシュする(ステップ2140)。ファイルシステム110は、クライアント800のOS820に、ファイルが格納されているLUおよびLU内アドレスと、メタデータの格納されているLUおよびLU内アドレスとを返答する(ステップ2150)。
返答を受けたクライアント800のOS820は、リードの対象となるファイルが格納されているLUが存在するディスクアレイ200に対し、FCインタフェース860を介して、ファイルが格納されているLU内アドレスに対するリードを行って、アプリケーション840からの要求を処理する(ステップ2160)。
クライアント800から要求されたデータのリード処理が終了したら、OS820は、ホスト100のファイルシステム110から通知されたLUおよびLU内アドレスにあるメタデータ上のファイルのアクセス日時を更新する(ステップ2170)。OS820は、ファイルシステム110に、ネットワークインタフェース870またはFCインタフェース860を介して、処理の完了を通知する(ステップ2180)。
完了通知を受けたファイルシステム110は、ホスト100上のメタデータのキャッシュメモリを無効化し(ステップ2190)、ステップ2130で行ったロックを解除する(ステップ2200)。
図23は、ライトを行う場合の処理の手順を示すフロー図である。
ライト処理は、図22のリード処理において、リードをライトに置き換えた処理とほぼ同一である。以下、異なる部分について説明する。
ファイルシステム110は、ライトで増加する可能性のあるファイル使用領域のための領域の予約をメタデータに記述する(ステップ2340)。ファイルシステム110は、クライアント800のOS820に、ファイルが格納されているLUおよびLU内アドレス(ライトで増加する可能性のあるファイル使用領域のために予約した領域を含める)と、メタデータが格納されているLU及びLU内アドレスとを返答する。なお、ライトで増加する可能性のあるファイル使用領域の増加量は、クライアント800のOS820からのライトの通知に含まれているものとする(ステップ2360)。
返答を受けたOS820は、ライトの対象となるファイルが格納されているLUが存在するディスクアレイ200に対し、FCインタフェース860を介して、ファイルが格納されているLU内アドレスに対するライトを行い、アプリケーション840からの要求を処理する(ステップ2370)。
このようにして、クライアント800のアクセスを処理することにより、クライアント800およびホスト100は、ディスクアレイ200に格納されているファイルを矛盾なく共有して使用することができる。なお、ホスト100自身のファイルアクセスも、クライアント800によるファイルアクセスと同様に処理される。
次に、本実施形態でのファイルの再配置について説明する。
本実施形態でのファイルの再配置に関する処理(使用状況取得処理、使用状況収集処理、再配置対象決定処理および再配置処理)は、第2実施形態と同様である。ただし、アプリケーション840が要求するデータのリード/ライト処理でファイルがロックされている間、再配置処理は実行されない。また、図20に示す再配置処理のステップ1920及び1930におけるファイルのキャッシュメモリのフラッシュと、ディスクアレイへ200への書き戻しは、ファイルシステム110がそのファイルをキャッシュメモリしているクラインアント800に対して指示し、これを行わせる。
本実施形態によれば、ディスクアレイ200に格納されているデータを共有して使用する環境においても、複数のディスクアレイ200間におけるファイルの物理的な再配置を、アプリケーション140、840に対して、再配置前後で論理的に等価となるように行うことができる。
本実施形態においても、ホスト100のファイルシステム110が、OS120、820やアプリケーション140、840からの各ファイルへのリード/ライト要求頻度を監視し、統計情報を生成して、再配置対象決定処理においてユーザに提示するようにしてもよい。
本実施形態において、クライアント800上にマネージャ130のプログラムが格納され、そのマネージャ130が、FCインタフェース860あるいはネットワークインタフェース870を用いて、使用状況等の情報の収集や指示などの処理を、ホスト100のファイルシステム110やディスクアレイ200に要求するようにしてもよい。
図24は、本発明が適用された計算機システムの第4実施形態の構成を示す図である。
本実施形態の計算機システムは、ホスト100がLUプールマネージャ900及びLU管理テーブル910を有する点で、第1実施形態の計算機システムと異なる。
本実施形態によれば、LUの再配置先の選択を容易にすることができる。
図25は、LU管理テーブル910を示す図である。
LU管理テーブル910は、システム全体のLUの状態に関する情報が登録されているテーブルである。
LU番号3310には、各LUに一意に割り当てられた番号が登録される。この番号は、LUプールマネージャ900が各LUを管理するために使用される。サイズ3320には、対応するLUの容量が登録される。構成3330には、RAID構成の種別が格納される。構成3330には、LUがキャッシュメモリ330や単体ディスクで構成されている場合には、その情報も格納される。
状態3340には、LUの状態を示す情報が格納される。その種別として、「オンライン」、「オフライン」、「未実装」及び「障害オフライン」が設けられている。「オンライン」は、LUが正常な状態であり、ホスト100からアクセス可能であることを示す。「オフライン」は空きLU、すなわちLUは正常に存在するが、ホスト100からはアクセス不能の状態におかれていることを示す。「未実装」は、このLUは定義されておらず、ホスト100からアクセス不能であることを示す。「障害オフライン」は、LUに障害が発生してホスト100からのアクセスができないことを示す。
ディスクアレイ番号3350には、対応するLUが存在するディスクアレイ200を示す情報が格納される。
パス3360には、各ディスクアレイ200に複数接続するFC600のどれにLUが割り当てられているかを示す番号が格納される。ID3370及びLUN3380には、LUを示す番号が格納される。
ディスク性能3390には、対応するLUが現在配置されているディスク装置210の性能を示す指標が格納される。具体的には、図25に示すとおり、ディスク装置210の平均シーク時間、平均回転待ち時間及び構成から、ディスク装置210の性能が高性能、中性能、低性能の指標に分類されて格納されている。キャッシュメモリ上のLUは、超高性能に分類される。
エミュレーションタイプ3400には、ディスクアレイ200がホスト100に提供する各LUのディスク装置としての型を示す情報が格納される。
再配置可能フラグ3410には、LUの再配置を行う際に、LUの再配置先として使用できるか否かを指定するためのフラグが格納される。ユーザは、このフラグを用いて再配置用のLUとその他のLUを区別することができる。ユーザはフラグのオン/オフを変更することができる。
図25は、ディスクアレイ番号0についてのLU管理テーブルを示す図である。マネージャ130は、すべてのディスクアレイ200についてのLU管理テーブルを保持している。
本実施形態における再配置対象の決定は、以下のようにして行われる。
ユーザは、マネージャ130に対して、再配置元LUの指定及び再配置先LUとして必要とされる条件を指定する。具体的な条件としては、性能条件や信頼性レベル等がある。
例えば、あるLUが過度に使用され、そのLUを含むディスク装置の能力を超えて負荷がかかっている場合、そのLUの再配置先としてより高性能のディスク装置を指定すれば、LUの処理能力が増大し、計算機システムの性能向上が期待できる。
又、重要なデータを格納しているLUが単体ディスクや冗長なしRAID(RAID0)上に存在する場合、再配置先としてRAID5やRAID1を指定すれば、冗長性による耐障害性を確保できる。
マネージャ130は、LU管理テーブル910に登録された情報を用いて再配置先のLUを決定し、ユーザに通知した上で、LUの再配置を行う。
図26は、本実施形態における再配置対象決定処理の手順を示すフロー図である。本処理は、ユーザの指示に対応して実行される。
ユーザは、マネージャ130に対して再配置元LUのディスクアレイ番号、パス、ID及びLUNを指定する。この場合、パス及びID等の代わりに、ディスクアレイ番号及びLU番号を指定してもよい(ステップ2500)。
ユーザは、マネージャ130に対して、再配置先についての要求条件として性能条件や信頼性レベルを指定する(ステップ2510)。
マネージャ130は、再配置元LU、および再配置先についての要求条件をLUプールマネージャ900に通知する(ステップ2520)。LUプールマネージャ900は、LU管理テーブル910内を検索して、要求された条件を満たすLUの有無を確認する(ステップ2530)。
この場合、検索条件は、「状態がオフライン」かつ「サイズが再配置元LU以上」かつ「エミュレーションタイプが再配置元LUと同じ」かつ「再配置可能フラグがオン(真)すなわち可能」かつ「性能条件が要求を満たす」かつ「信頼性レベルが要求を満たす」でなければならない。
ステップ2540において条件を満たすLUが存在した場合、LUプールマネージャは、該当するLUをマネージャ130に通知する(ステップ2550)。マネージャ130は、通知されたLUを再配置先LUとして決定する(ステップ2560)。
ステップ2540で条件を満たすLUが存在しなかった場合、LUプールマネージャ900は、LU管理テーブル910内を検索して「状態が未実装」のLU番号3310を探す(ステップ2570)。
未実装のLU番号3310が存在しなかった場合は、LUプールマネージャ900は、マネージャ130に条件を満たすLUの利用不可を通知する(ステップ2580)。通知を受けたマネージャ130は、ユーザに再配置先LU決定不可を通知する(ステップ2590)。
ステップ2570で未実装のLUが存在した場合は、LUプールマネージャ900は、未実装のLU番号と再配置先LUについての条件を指定して、該当するディスクアレイ200に再配置先LUの構築を指示する(ステップ2600)。
この場合の再配置先LUについての条件は、「サイズが再配置元LU以上」かつ「エミュレーションタイプが再配置元LUと同じ」かつ「性能条件が要求を満たす」かつ「信頼性レベルが要求を満たす」である。
LUの構築を指示されたディスクアレイ200は、LU構築処理を行う(ステップ2610)。構築が成功した場合は、ディスクアレイ200は、LUプールマネージャ900に、構築したLUについてのディスクアレイ番号、パス、ID及びLUNなどを含む一連の情報を通知する(ステップ2620)。構築が失敗した場合には、ディスクアレイ200は、LUプールマネージャ900に構築不可の通知を行う(ステップ2610)。
LUプールマネージャ900は、通知されたLUの情報をLU管理テーブル910に登録し(ステップ2630)、マネージャ130に通知する(ステップ2550)。マネージャ130は、このLUを再配置先LUとして決定する(ステップ2560)。
構築不可の通知を受けたLUプールマネージャ900は、マネージャ130に条件を満たすLUの利用不可を通知する(ステップ2580)。通知を受けたマネージャ130は、ユーザに再配置先LU決定不可を通知する(ステップ2590)。
図27は、ディスクアレイ200が行うLU構築処理の手順を示すフロー図である。この処理は、LUプールマネージャ900の指示を受けた時に行われる ディスクアレイ200は、LUプールマネージャ900からの指示により、未実装のLU番号と再配置先LUについての条件を受け取る(ステップ2700)。
ディスクアレイ200は、ディスク装置210やキャッシュメモリ330などの内部資源割り当て状況等と受け取った条件を比較して、要求された条件のLUが構築可能かどうかを判断する(ステップ2710)。LUが構築可能な場合は、ディスクアレイ200は、内部資源を割り当て、フォーマット/初期化処理を行ってLUを構築する。ディスクアレイ200は、構築したLUに、LUプールマネージャ900から受けとった未実装のLUに対応するLU番号を割り当てる(ステップ2720)。
ディスクアレイ200は、FCインタフェース260を設定し、LUにパス、ID、LUNを割り当てる(ステップ2730)。ディスクアレイ200は、構築したLUについての、ディスクアレイ番号、パス、ID及びLUN等を含む一連の情報をLUプールマネージャ900に通知する(ステップ2740)。
ステップ2710においてLUが構築不可能だった場合は、ディスクアレイ200は、構築不可をLUプールマネージャ900に通知する(ステップ2750)。
再配置先LUが決定されたら、マネージャ130は、第一の実施の形態と同様に再配置元LUと再配置先LUについての再配置処理を行う。
図28は、再配置元LUのオフライン化処理の手順を示すフロー図である。
マネージャ130は、第一の実施の形態で説明した方法でコピーの進捗を取得し、コピーが終了した場合は、LUプールマネージャ900に再配置元LUのオフライン化を指示する(ステップ2800)。
オフライン化の指示を受けたLUプールマネージャ900は、再配置元LUのディスクアレイ200に、再配置元LUのオフライン化を指示する(ステップ2810)。オフライン化の指示をうけたディスクアレイ200は、FCインタフェース260を設定してLUにロックをかけることで、LUをオフラインにする(ステップ2820)。ディスクアレイ200は、オフライン化したことをLUプールマネージャ900に通知する(ステップ2830)。
オフライン化の通知を受けたLUプールマネージャは、LU管理テーブル910のLUの状態3340の内容をオフラインに更新する(2840)。
ここでは、マネージャ130がコピーの進捗情報を取得する例を説明したが、ディスクアレイ200がコピー終了をマネージャ130に通知してもよい。
また、マネージャ130がオフライン化を指示する代わりにディスクアレイ200がコピー終了時点で再配置元LUをオフライン化し、オフライン化したことをLUプールマネージャ900に通知してもよい。
本実施形態においては、マネージャ130が、SCSI規格のEXTENDED COPYコマンドを用いてスイッチ500のコピー制御部510へのコピー指示を行う場合について説明したが、他のコマンドを用いてもよい。他のコマンドとは、例えば、コマンドボリュームへのライトコマンド等である。また、図15に示すように、ディスクアレイ200がコピー制御部510を有し、マネージャ130がディスクアレイ200のコピー制御部510に、コピー指示を行って、ディスクアレイ200がコピー処理を行うようにしてもよい。
本実施形態では、再配置先LUとして要求する条件などの情報はユーザが指定しているとしたが、マネージャ130が自動的に判断して指定してもよい。
本実施形態では、LUプールマネージャ900とマネージャ130が同じホスト100に存在するとしたが、LUプールマネージャ900がリモートコンピュータ400といった、マネージャ130とは異なるコンピュータに存在してもよい。この場合、LUプールマネージャ900とマネージャ130は、FC600やネットワーク700を介してSCSIやSNMPや他のプロトコルやコマンド体系で指示や通知を行う。
本実施形態によれば、LUの再配置の処理において、再配置先のLUの管理や選択を容易にしてユーザの負荷を削減し、計算機システムの管理を容易にすることができる。
図29は、本発明を適用した計算機システムの第5実施形態を示す図である。本実施形態の計算機システムは、LU領域範囲テーブル192に新たな項目を付加したLU領域範囲テーブル193を用いて、クライアント800からのリード/ライト要求に基づき、ホスト100がファイルをリード/ライトする。そして、クライアント800との間でネットワーク700を介してデータを転送する処理を行う点が、第3実施形態の計算機システムと異なる。
ネットワーク700を経由したファイル共有のためのプロトコルとしては、Network File System(NFS)やCommon Internet File System(CIFS)が広く用いられている。これらのプロトコルや広く普及しているネットワーク700を用いることにより、容易にファイル共有環境を実現することができる。本実施形態においても、NFS又はCIFSを使用することを考える。
図30は、LU領域範囲テーブル193を示す図である。LU領域範囲テーブル193には、LU領域に対するアクセスがネットワークを使用するか否かに関する情報が格納される。
使用種別3510には、LU領域が、リード/ライトの処理が第3実施形態のようにFC600を介して行われるLU領域であるか、本実施形態で説明するようにネットワーク700を介してリード/ライトの処理が行われるLU領域であるかを示す情報が格納される。
使用種別3510には、LU領域が、第1実施形態のようにLUを再配置する構成および方法に用いる領域(この場合のリード/ライト要求はFC600を経由する)であるか、LUへのリード/ライトの処理が、ネットワーク700を介して行う領域であるかの情報を格納することができる。使用種別3510には、未使用領域の情報を格納することもできる。その他、領域内アドレス、ディスクアレイ番号、ID、LUN、LU内アドレスは、第3実施形態で説明したものと同様なので、説明を省略する。
LU領域範囲テーブル193を用いてLUを集中して管理することで、ファイルシステム110は、LUを少なくとも使用種別毎に区別された、複数の領域として管理することができる。
LU領域範囲テーブル193が設定されることによって、ホスト100は、クライアント800からの要求が、第3実施形態で説明した方法でのアクセスか、ネットワークを介した形でのアクセスかを、要求で用いられるプロトコルなどで区別する。ホスト100は、この種別に応じて、LU領域を使用種別3510毎に区別して扱う。
ホスト100は、第3実施形態の方法でアクセスされるファイルおよび領域と、本実施形態の方法でアクセスされるファイルおよび領域を区別して処理する。したがって、同一のファイルおよび領域へアクセスする方法が混在することはない。
ホスト100は、アクセス可能なファイルの検索においても、同様の区別を行う。つまり、同一のディスクアレイ200に存在する各ファイルに、クライアント800からのアクセス要求があった場合、クライアント800からの使用種別を識別することにより、クライアント800の使用種別とは異なる他の使用種別のファイルをクライアント800に対して返答しない。したがって、クライアント800には、自己が使用するアクセス方法でのみアクセス可能なファイルだけが通知される。このことにより、本システムにおいては、共有ファイルの管理を容易に行うことができる。
さらに、第1実施形態のように、LUを再配置する構成および方法に用いる領域(リード/ライトはFC600経由)と、LUへのリード/ライトをホスト100およびネットワーク700を介して行う領域との区別を行うことによって、上述したような効果をこれら全ての使用種別に対して得ることができる。又、ユーザは、ホスト100またはリモートコンピュータ400を介して、LU領域範囲テーブル193を自由に設定することができる。
本実施形態では、NFSやCIFSのようなファイル共有プロトコルをネットワーク700経由で使用し、ホスト100とクライアント800間のデータ転送をネットワーク700経由で行うとしたが、ネットワーク700の代わりに、FC800経由で行う処理も考えられる。更に、クライアント800が行う各LUへのリード/ライト要求を、ホスト100およびネットワーク700を介して行う処理も考えられる。この場合、ホスト100は、クライアント800が要求するリード/ライト対象領域を、LU領域範囲テーブル192を用いて求める。ホスト100は、対象となるデータをリードしてクライアント800にネットワーク700経由で転送する。あるいは、ホスト100は、クライアント800からデータをネットワーク700経由で受領してライトする。
図31は、クライアント800のアプリケーション840が、ディスクアレイ200に格納されているファイルに対してリードを行う場合における、ホスト100の処理の手順を示すフロー図である。
第3実施形態と同様に、リード通知をうけたホスト100のファイルシステム110は、LU領域範囲テーブル193とメタデータを参照することで、ファイルの格納されているLU及びLU内領域を求める(ステップ2900)。ファイルシステム110は、他のライト要求に対してリード対象となるファイルをロックする(ステップ2910)。ファイルシステム110は、ファイル内のデータをリードして(ステップ2920)、クライアント800にネットワーク700を介してリードした内容を転送する(ステップ2930)。ファイルシステム110は、メタデータ上のファイルアクセス日時を更新する(ステップ2940)。ファイルシステム110は、ファイルのロックを解除し(ステップ2950)、リード処理の完了をクライアント800に通知する(ステップ2960)。
図32は、アプリケーション840が、ライトを行う場合の処理の手順を示すフロー図である。
ライト通知を受けたホスト100は、ネットワーク700経由でクライアント800からライトデータを受け取る(ステップ3000)。ホスト100は、LU領域範囲テーブル193とメタデータを参照することで、ファイルの格納されているLUとLU内領域を求める(ステップ3010)。ホスト100は、ファイルをロックし(ステップ3020)、ファイルにデータをライトする。このとき、必要ならばメタデータを更新してファイル使用領域の追加を行う(ステップ3030)。
ホスト100は、メタデータ上のファイル更新日時とアクセス日時を更新する(ステップ3040)。ホスト100は、ロックを解除し(ステップ3050)、ライト完了をクライアント800に通知する(ステップ3060)。
図33は、クライアント800のアプリケーション840またはOS820が、アクセス可能なファイルの存在についてホスト100に問い合わせた場合の処理の手順を示すフロー図である。
アプリケーション840またはOS820自身の要求があった時、OS820は、ネットワーク700を介してホスト100にアクセス可能なファイルの存在を問い合わせる(ステップ3100)。
通知をうけたホスト100のファイルシステム110は、アクセス可能なファイルを、LU領域範囲テーブル193とメタデータを参照して求める(ステップ3110)。ファイルシステム110は、各ファイルのファイル名などの情報をクライアント800に通知する(ステップ3120)。
本実施形態では、クライアント800およびホスト100は、ディスクアレイ200に格納されているファイルをホスト100経由で共有して使用することができる。データの再配置の方法等は第3実施形態と同様である。ただし、再配置処理は各使用種別の領域内で行われる。
本実施形態では、ディスクアレイ200に格納されているデータを共有して使用する環境においても、アプリケーション140およびアプリケーション840が関与することなく、複数のディスクアレイ200間でのファイルの物理的再配置を行うことができる。
本発明は、各実施形態に限定されるものではなく、その要旨の範囲内で数々の変形が可能である。
たとえば、図1、図15および図21に示すように、マネージャ130を、ネットワークインタフェース470とFCインタフェース460とを有するリモートコンピュータ400上のプログラムとして、ホスト100の外部に配置してもよい。ホスト100外部のマネージャ130がFC600あるいはネットワーク700経由で情報の収集や指示を行い、各実施形態と同様の処理を行って、複数のディスクアレイ200間におけるLUの再配置によるデータの適正配置を、アプリケーション140に対して透過的に行うことができる。
また、第1実施形態において、第3実施形態と同様に、ファイルの共有等を行うようにしてもよい。この場合も、記第1実施形態と同様に、複数のディスクアレイ200間でのデータの物理的再配置を、アプリケーション140、840に対し、再配置前後で論理的に等価となるように透過的に行うことができる。
以上説明したように、本発明によれば、ストレージサブシステム間におけるデータの再配置を容易に行うことが出来る。また、本発明によれば、ホストコンピュータが適正配置の決定に必要な情報を複数のストレージサブシステムから取得することができる。また、異なるストレージサブシステム間におけるデータの再配置を、アプリケーションにとってのデータ位置が、再配置の前後で変化しないように行うことができる。さらに、異なるストレージサブシステム間におけるファイルを対象とするデータの再配置を行うことができる。
本発明の第1実施形態が適用された計算機システムの構成を示す図である。 本発明の第1実施形態でのリード/ライト処理および使用状況取得処理の手順を示すフロー図である。 本発明の第1実施形態で用いる論理/物理対応情報を示す図である。 本発明の第1実施形態で用いる論理ボリューム使用状況を示す図である。 本発明の第1実施形態での使用状況収集処理の手順を示すフロー図である。 本発明の第1実施形態で用いる論理ボリューム情報のパラメータを示す図である。 本発明の第1実施形態で用いる論理ボリューム情報を示す図である。 本発明の第1実施形態での再配置対象決定処理の手順を示すフロー図である。 本発明の第1実施形態での再配置処理の手順を示すフロー図である。 本発明の第1実施形態で用いるLU論理位置名テーブルを示す図である。 本発明の第1実施形態で用いるLU論理位置名テーブルを示す図である。 本発明の第1実施形態でのコピー処理の手順を示すフロー図である。 本発明の第1実施形態で用いるコピー領域管理テーブルを示す図である。 本発明の第1実施形態での、図16に示す処理によるコピー中における、再配置先LUへのリード/ライトコマンドに対する処理の手順を示すフロー図である。 本発明の第2実施形態が適用された計算機システムの構成を示す図である。 本発明の第2実施形態で用いるLU領域範囲テーブルを示す図である。 本発明の第2実施形態でのリード/ライト処理の手順を示すフロー図である。 本発明の第2実施形態で用いるメタデータを示す図である。 本発明の第2実施形態での再配置対象決定処理の手順を示すフロー図である。 本発明の第2実施形態での再配置処理の手順を示すフロー図である。 本発明の第3実施形態が適用された計算機システムの構成を示す図である。 本発明の第3実施形態において、クライアントのアプリケーションがファイルのリードを行う際の処理の手順を示すフロー図である。 本発明の第3実施形態において、クライアントのアプリケーションがファイルのライトを行う際の処理の手順を示すフロー図である。 本発明の第4実施形態が適用された計算機システムの構成を示す図である。 本発明の第4実施形態でのLU管理テーブル910を示す図である。 本発明の第4実施形態での再配置対象決定処理の手順を示すフロー図である。 本発明の第4実施形態でのLU構築処理の手順を示すフロー図である。 本発明の第4実施形態での再配置元LUオフライン化処理の手順を示すフロー図である。 本発明の第5実施形態が適用された計算機システムの構成を示す図である。 本発明の第5実施形態でのLU領域範囲テーブル193を示す図である。 本発明の第5実施形態でのクライアント800のアプリケーション840がファイルのリードを行う際の処理の手順を示したフロー図である。 本発明の第5実施形態でのクライアント800のアプリケーション840がファイルのライトを行う際の処理の手順を示すフロー図である。 本発明の第5実施形態でのアクセス可能ファイル応答処理の手順を示すフロー図である。
符号の説明
100…ホスト、110…ファイルシステム、120、820…OS、130…マネージャ、140、840…アプリケーション、160、260、460、860…FCインタフェース、170、270、470、870…ネットワークインタフェース、190…ローカルディスク、191…LU論理位置名テーブル、192…LU領域範囲テーブル、200…ディスクアレイ、210…ディスク装置、220…パリティグループ、300…制御部、310…CPU、320…メモリ、321…論理/物理対応情報、322…論理ボリューム使用状況、323…コピー領域管理テーブル、330…キャッシュメモリ、400…リモートコンピュータ、500…スイッチ、510…コピー制御部、600…Fibre Channel(FC)、700…ネットワーク、800…クライアント。

Claims (5)

  1. 複数の第1ディスク装置及び該複数の第1ディスク装置を用いて第1論理ユニットを形成する第1制御部を含む第1ディスクアレイと、
    複数の第2ディスク装置及び該複数の第2ディスク装置を用いて第2論理ユニットを形成する第2制御部を含む第2ディスクアレイと、
    前記第1ディスクアレイ及び前記第2ディスクアレイと接続され、第1論理位置名と前記第1論理ユニットとの間の対応関係を示すマッピング情報を格納するローカルディスクと、前記第1論理位置名に対する第1アクセス要求を前記マッピング情報を参照して前記第1論理ユニットに対する第2アクセス要求に変換し、前記第2アクセス要求を前記第1ディスクアレイに発行する発行手段と、前記第1論理位置名を含む論理位置名に対して前記第1アクセス要求又は第3アクセス要求を発行するアプリケーションが格納されたメモリと、を含む計算機と
    を備え、
    前記計算機は、
    前記第2ディスクアレイに対して、前記第1論理ユニットに格納されているデータを前記第2論理ユニットにコピーするようコピー指示を発行し、
    前記第2制御部は、
    前記コピー指示を受領した場合、前記コピー指示の受領報告を前記計算機に発行するとともに、前記第1論理ユニットに格納されたデータを前記第2論理ユニットにコピーし、
    前記計算機は、
    前記受領報告を受信した場合、前記マッピング情報に含まれる前記第1論理位置名と前記第1論理ユニットとの間の対応関係を前記第1論理位置名と前記第2論理ユニットとの間の対応関係に変更し、前記第1論理ユニットから前記第2論理ユニットにコピー中のデータにかかる前記第1論理位置名に対する前記第3アクセス要求を、変更された後の前記マッピング情報を参照して前記第2論理ユニットに対する第4アクセス要求に変換して、前記第4アクセス要求を前記第2ディスクアレイに発行し、
    前記第2制御部は、
    前記第4アクセス要求がリード要求であり、かつ、該リード要求にかかるリード対象領域のデータの全てを前記第1論理ユニットから前記第2論理ユニットにコピーし終えていない場合、前記リード対象領域のデータの全てを前記第1論理ユニットから前記第2論理ユニットに優先的にコピーし終えてから該コピーした前記リード対象領域のデータを前記計算機に送信し、前記第4アクセス要求がライト要求である場合には、該ライト要求にかかるライト対象領域にデータを書き込む
    ことを特徴とする計算機システム。
  2. 前記第2制御部は、
    前記コピー指示を受領した場合、前記第2論理ユニットに含まれる複数の領域ごとに、
    コピー済み又は未コピーであることを示す情報を格納するコピー領域管理テーブルを作成するとともに、前記第1論理ユニットから前記第2論理ユニットにデータをコピーした前記領域の前記情報をコピー済みであることを示す情報に更新し、
    前記第4アクセス要求がリード要求である場合に、当該コピー領域管理テーブルに基づいて、該リード要求にかかるリード対象領域のデータの全てを前記第1論理ユニットから前記第2論理ユニットにコピーし終えたか否かを判定する
    ことを特徴とする請求項1に記載の計算機システム。
  3. 前記第2制御部は、
    前記第4アクセス要求がライト要求である場合、該ライト要求にかかるライト対象領域にデータを書き込むとともに、前記コピー領域管理テーブルにおいて未コピーであることを示す情報をコピー済みであることを示す情報に更新する
    ことを特徴とする請求項2に記載の計算機システム。
  4. 前記第1論理位置名は、ファイルシステムのディレクトリである
    ことを特徴とする請求項1に記載の計算機システム。
  5. 前記マッピング情報は、前記論理ユニット論理位置名テーブル及び論理ユニット内アドレス論理位置名テーブルを含む
    ことを特徴とする請求項1に記載の計算機システム。
JP2008063185A 2000-07-06 2008-03-12 計算機システム Expired - Fee Related JP4862006B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008063185A JP4862006B2 (ja) 2000-07-06 2008-03-12 計算機システム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000205510 2000-07-06
JP2000205510 2000-07-06
JP2008063185A JP4862006B2 (ja) 2000-07-06 2008-03-12 計算機システム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2001053458A Division JP4115093B2 (ja) 2000-07-06 2001-02-28 計算機システム

Publications (3)

Publication Number Publication Date
JP2008152807A JP2008152807A (ja) 2008-07-03
JP2008152807A5 JP2008152807A5 (ja) 2008-08-14
JP4862006B2 true JP4862006B2 (ja) 2012-01-25

Family

ID=18702583

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008063185A Expired - Fee Related JP4862006B2 (ja) 2000-07-06 2008-03-12 計算機システム

Country Status (3)

Country Link
US (4) US6766430B2 (ja)
EP (1) EP1170657A3 (ja)
JP (1) JP4862006B2 (ja)

Families Citing this family (136)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7640582B2 (en) 2003-04-16 2009-12-29 Silicon Graphics International Clustered filesystem for mix of trusted and untrusted nodes
US7617292B2 (en) 2001-06-05 2009-11-10 Silicon Graphics International Multi-class heterogeneous clients in a clustered filesystem
US20040139125A1 (en) 2001-06-05 2004-07-15 Roger Strassburg Snapshot copy of data volume during data access
US8010558B2 (en) * 2001-06-05 2011-08-30 Silicon Graphics International Relocation of metadata server with outstanding DMAPI requests
JP2003108412A (ja) * 2001-10-02 2003-04-11 Hitachi Ltd ストレージ管理方式
JP4087097B2 (ja) * 2001-11-12 2008-05-14 株式会社日立製作所 データベース管理システム情報を考慮したデータ再配置方法およびデータ再配置を行う計算機システム
KR100359423B1 (en) * 2002-01-04 2002-11-07 Ncerti Co Ltd Very high speed high capacity backup system and backup method thereof
JP2003202964A (ja) * 2002-01-09 2003-07-18 Hitachi Ltd 計算機システムの制御方法、計算機システム、記憶装置の制御方法及び記憶装置
US20030159012A1 (en) * 2002-02-18 2003-08-21 Yec Co., Ltd. Back-up system
JP4080227B2 (ja) * 2002-03-28 2008-04-23 株式会社日立製作所 データ検証方法およびディスクアレイ装置
JP2003316522A (ja) * 2002-04-26 2003-11-07 Hitachi Ltd 計算機システムおよび計算機システムの制御方法
JP4704659B2 (ja) 2002-04-26 2011-06-15 株式会社日立製作所 記憶装置システムの制御方法および記憶制御装置
JP2003330762A (ja) * 2002-05-09 2003-11-21 Hitachi Ltd ストレージシステムの制御方法、ストレージシステム、スイッチ、及びプログラム
US7448077B2 (en) * 2002-05-23 2008-11-04 International Business Machines Corporation File level security for a metadata controller in a storage area network
JP4183443B2 (ja) * 2002-05-27 2008-11-19 株式会社日立製作所 データ再配置方法及び装置
EP1367481A3 (en) * 2002-05-29 2008-04-09 Hitachi, Ltd. Centralized storage management method
JP2004013215A (ja) * 2002-06-03 2004-01-15 Hitachi Ltd ストレージシステム、ストレージサブシステム、および、それらを含む情報処理システム
JP4100968B2 (ja) * 2002-06-06 2008-06-11 株式会社日立製作所 データマッピング管理装置
US6925541B2 (en) * 2002-06-12 2005-08-02 Hitachi, Ltd. Method and apparatus for managing replication volumes
US7376713B2 (en) * 2002-06-27 2008-05-20 International Business Machines Corporation Apparatus, system and method of distributing block data on a private network without using TCP/IP
US7069465B2 (en) * 2002-07-26 2006-06-27 International Business Machines Corporation Method and apparatus for reliable failover involving incomplete raid disk writes in a clustering system
JP2004070403A (ja) 2002-08-01 2004-03-04 Hitachi Ltd ファイル格納先ボリューム制御方法
US7711539B1 (en) * 2002-08-12 2010-05-04 Netapp, Inc. System and method for emulating SCSI reservations using network file access protocols
US7418562B2 (en) * 2002-08-29 2008-08-26 International Business Machines Corporation Apparatus and method to assign one or more storage construct names to a logical volume
JP2004102374A (ja) * 2002-09-05 2004-04-02 Hitachi Ltd データ移行装置を有する情報処理システム
JP2004110367A (ja) * 2002-09-18 2004-04-08 Hitachi Ltd 記憶装置システムの制御方法、記憶制御装置、および記憶装置システム
US20040078521A1 (en) * 2002-10-17 2004-04-22 International Business Machines Corporation Method, apparatus and computer program product for emulating an iSCSI device on a logical volume manager
US7457822B1 (en) 2002-11-01 2008-11-25 Bluearc Uk Limited Apparatus and method for hardware-based file system
US7263593B2 (en) 2002-11-25 2007-08-28 Hitachi, Ltd. Virtualization controller and data transfer control method
JP4116413B2 (ja) * 2002-12-11 2008-07-09 株式会社日立製作所 プリフェッチアプライアンスサーバ
US6985996B1 (en) * 2002-12-13 2006-01-10 Adaptec, Inc. Method and apparatus for relocating RAID meta data
JP2004220450A (ja) * 2003-01-16 2004-08-05 Hitachi Ltd ストレージ装置、その導入方法、及びその導入プログラム
US6981117B2 (en) * 2003-01-29 2005-12-27 International Business Machines Corporation Method, system, and program for transferring data
US7461131B2 (en) 2003-03-07 2008-12-02 International Business Machines Corporation Use of virtual targets for preparing and servicing requests for server-free data transfer operations
US20040181707A1 (en) 2003-03-11 2004-09-16 Hitachi, Ltd. Method and apparatus for seamless management for disaster recovery
JP4294353B2 (ja) * 2003-03-28 2009-07-08 株式会社日立製作所 ジョブ管理機能を有するストレージ系障害管理方法及び装置
JP4278445B2 (ja) * 2003-06-18 2009-06-17 株式会社日立製作所 ネットワークシステム及びスイッチ
JP2005018193A (ja) 2003-06-24 2005-01-20 Hitachi Ltd ディスク装置のインタフェースコマンド制御方法ならびに計算機システム
JP2005018185A (ja) * 2003-06-24 2005-01-20 Hitachi Ltd 記憶装置システム
JP2005056200A (ja) * 2003-08-05 2005-03-03 Hitachi Ltd データ管理方法、ディスク記憶装置およびディスク記憶システム
US7552294B1 (en) 2003-08-07 2009-06-23 Crossroads Systems, Inc. System and method for processing multiple concurrent extended copy commands to a single destination device
US7447852B1 (en) 2003-08-07 2008-11-04 Crossroads Systems, Inc. System and method for message and error reporting for multiple concurrent extended copy commands to a single destination device
US7251708B1 (en) 2003-08-07 2007-07-31 Crossroads Systems, Inc. System and method for maintaining and reporting a log of multi-threaded backups
JP4386694B2 (ja) * 2003-09-16 2009-12-16 株式会社日立製作所 記憶システム及び記憶制御装置
JP4598387B2 (ja) * 2003-09-17 2010-12-15 株式会社日立製作所 記憶システム
US7219201B2 (en) 2003-09-17 2007-05-15 Hitachi, Ltd. Remote storage disk control device and method for controlling the same
JP4307202B2 (ja) 2003-09-29 2009-08-05 株式会社日立製作所 記憶システム及び記憶制御装置
JP2005115506A (ja) * 2003-10-06 2005-04-28 Hitachi Ltd ストレージシステム
JP4307964B2 (ja) 2003-11-26 2009-08-05 株式会社日立製作所 アクセス制限情報設定方法および装置
JP4117656B2 (ja) * 2003-11-26 2008-07-16 株式会社日立製作所 アクセスパターンを学習する記憶装置
JP4412989B2 (ja) * 2003-12-15 2010-02-10 株式会社日立製作所 複数の記憶システムを有するデータ処理システム
JP4282464B2 (ja) * 2003-12-17 2009-06-24 株式会社日立製作所 リモートコピーシステム
JP4568502B2 (ja) 2004-01-09 2010-10-27 株式会社日立製作所 情報処理システムおよび管理装置
JP2005228278A (ja) * 2004-01-14 2005-08-25 Hitachi Ltd 記憶領域の管理方法、管理装置及び管理プログラム
JP2005202893A (ja) * 2004-01-19 2005-07-28 Hitachi Ltd 記憶デバイス制御装置、ストレージシステム、プログラムを記録した記録媒体、情報処理装置、及びストレージシステムの制御方法
US8463748B1 (en) * 2004-02-05 2013-06-11 Emc Corporation File system quiescing
JP2005234834A (ja) * 2004-02-19 2005-09-02 Hitachi Ltd 論理ボリュームの再配置方法
US7133988B2 (en) * 2004-02-25 2006-11-07 Hitachi, Ltd. Method and apparatus for managing direct I/O to storage systems in virtualization
JP4520755B2 (ja) * 2004-02-26 2010-08-11 株式会社日立製作所 データ移行方法およびデータ移行装置
JP4391265B2 (ja) * 2004-02-26 2009-12-24 株式会社日立製作所 ストレージサブシステムおよび性能チューニング方法
JP4521206B2 (ja) * 2004-03-01 2010-08-11 株式会社日立製作所 ネットワークストレージシステム、コマンドコントローラ、及びネットワークストレージシステムにおけるコマンド制御方法
JP2005267038A (ja) * 2004-03-17 2005-09-29 Hitachi Ltd ストレージシステムの運用方法
EP1742488B1 (en) 2004-04-26 2014-10-15 Olympus Corporation Image file reproducing apparatus and method
US7617303B2 (en) * 2004-04-27 2009-11-10 At&T Intellectual Property Ii, L.P. Systems and method for optimizing access provisioning and capacity planning in IP networks
US7340652B2 (en) * 2004-04-30 2008-03-04 International Business Machines Corporation Invalidation of storage control unit cache metadata
JP4715286B2 (ja) * 2004-05-11 2011-07-06 株式会社日立製作所 計算機システムおよび計算機システムの制御方法
US20050257014A1 (en) * 2004-05-11 2005-11-17 Nobuhiro Maki Computer system and a management method of a computer system
US20060080507A1 (en) * 2004-05-18 2006-04-13 Tyndall John F System and method for unit attention handling
JP4452557B2 (ja) * 2004-05-27 2010-04-21 株式会社日立製作所 Worm保証付きリモートコピー
JP2006011803A (ja) * 2004-06-25 2006-01-12 Hitachi Ltd 情報処理システムおよびその制御方法
US7065611B2 (en) * 2004-06-29 2006-06-20 Hitachi, Ltd. Method for controlling storage policy according to volume activity
EP1626339B1 (en) * 2004-08-13 2016-02-24 Sap Se Data processing system and method for assigning objects to processing units
US7617256B2 (en) * 2004-07-19 2009-11-10 Microsoft Corporation Remote file updates through remote protocol
JP4646574B2 (ja) * 2004-08-30 2011-03-09 株式会社日立製作所 データ処理システム
US7171532B2 (en) * 2004-08-30 2007-01-30 Hitachi, Ltd. Method and system for data lifecycle management in an external storage linkage environment
US7096338B2 (en) 2004-08-30 2006-08-22 Hitachi, Ltd. Storage system and data relocation control device
US7395396B2 (en) * 2004-08-30 2008-07-01 Hitachi, Ltd. Storage system and data relocation control device
JP4549787B2 (ja) * 2004-09-10 2010-09-22 株式会社日立製作所 ストレージ装置
JP4555036B2 (ja) * 2004-09-16 2010-09-29 株式会社日立製作所 ストレージ装置及びストレージ装置のデバイス切替制御方法
US7503040B2 (en) 2004-09-30 2009-03-10 International Business Machines Corporation Configuring a shared library to accommodate relocatable data in a pervasive device
JP2006119829A (ja) * 2004-10-20 2006-05-11 Hitachi Ltd 記憶制御装置及び記憶制御方法
JP2006127028A (ja) * 2004-10-27 2006-05-18 Hitachi Ltd 記憶システム及び記憶制御装置
JP4514578B2 (ja) * 2004-10-27 2010-07-28 株式会社日立製作所 データの移行先を選択する方法及び装置
US7383406B2 (en) 2004-11-19 2008-06-03 International Business Machines Corporation Application transparent autonomic availability on a storage area network aware file system
US7457930B2 (en) * 2004-11-19 2008-11-25 International Business Machines Corporation Method for application transparent autonomic data replication improving access performance for a storage area network aware file system
US7464124B2 (en) 2004-11-19 2008-12-09 International Business Machines Corporation Method for autonomic data caching and copying on a storage area network aware file system using copy services
US7484038B1 (en) * 2005-01-26 2009-01-27 Network Appliance, Inc. Method and apparatus to manage storage devices
JP5057656B2 (ja) 2005-05-24 2012-10-24 株式会社日立製作所 ストレージシステム及びストレージシステムの運用方法
JP4706342B2 (ja) * 2005-06-09 2011-06-22 株式会社日立製作所 データ管理方法および装置
US8282476B2 (en) * 2005-06-24 2012-10-09 At&T Intellectual Property I, L.P. Multimedia-based video game distribution
JP4842593B2 (ja) 2005-09-05 2011-12-21 株式会社日立製作所 ストレージ仮想化装置のデバイス制御引継ぎ方法
JP4933861B2 (ja) * 2005-09-22 2012-05-16 株式会社日立製作所 ストレージ制御装置、データ管理システムおよびデータ管理方法
JP4896500B2 (ja) 2005-11-14 2012-03-14 株式会社日立製作所 機器停止を伴う仮想ボリューム制御方法
JP2007164650A (ja) 2005-12-16 2007-06-28 Hitachi Ltd 記憶制御装置及び記憶制御装置の制御方法
JP4927408B2 (ja) * 2006-01-25 2012-05-09 株式会社日立製作所 記憶システム及びそのデータ復元方法
JP4890048B2 (ja) * 2006-02-24 2012-03-07 株式会社日立製作所 記憶制御装置及び記憶制御装置を用いたデータマイグレーション方法
EP1835728A1 (en) * 2006-03-15 2007-09-19 Dibcom Method for data transfer and data recovery
US7886111B2 (en) * 2006-05-24 2011-02-08 Compellent Technologies System and method for raid management, reallocation, and restriping
US20080033902A1 (en) * 2006-08-04 2008-02-07 Platespin Ltd A Method for Providing Live File Transfer Between Machines
JP4331742B2 (ja) * 2006-10-25 2009-09-16 株式会社日立製作所 I/oの割り振り比率に基づいて性能を管理する計算機システム、計算機及び方法
JP2008117094A (ja) * 2006-11-02 2008-05-22 Hitachi Ltd ストレージシステム、ストレージ装置及びストレージ管理方法
JP4949804B2 (ja) * 2006-11-07 2012-06-13 株式会社日立製作所 統合管理計算機と記憶装置管理方法および計算機システム
US7769972B2 (en) * 2007-01-18 2010-08-03 Lsi Corporation Storage system management based on a backup and recovery solution embedded in the storage system
US8185715B1 (en) * 2007-03-30 2012-05-22 Qlogic, Corporation Method and system for managing metadata in storage virtualization environment
JP2008310685A (ja) * 2007-06-15 2008-12-25 Hitachi Ltd 冗長性を維持した性能最適化を行うストレージシステム
US20090063794A1 (en) * 2007-08-30 2009-03-05 International Business Machines Corporation Method and system for enhanced data storage management
JP5000457B2 (ja) * 2007-10-31 2012-08-15 株式会社日立製作所 ファイル共有システム及びファイル共有方法
JP2009124505A (ja) * 2007-11-15 2009-06-04 Ntt Docomo Inc 移動通信端末、データ送信方法、通信装置及びデータ受信方法
US9110791B2 (en) * 2008-03-03 2015-08-18 Microsoft Technology Licensing, Llc Optimistic object relocation
JP5052376B2 (ja) 2008-03-21 2012-10-17 株式会社日立製作所 ストレージシステム及びストレージシステムにおける論理ユニットの引継方法
JP5284685B2 (ja) * 2008-05-16 2013-09-11 インターナショナル・ビジネス・マシーンズ・コーポレーション ファイルの再配置装置、再配置方法、及び再配置プログラム
US20100049931A1 (en) * 2008-08-20 2010-02-25 Jacobson Michael B Copying Logical Disk Mappings Between Arrays
JP5250869B2 (ja) * 2008-08-28 2013-07-31 株式会社日立製作所 ストレージシステム、論理記憶領域割り当て方法及び計算機システム
US8291404B1 (en) * 2009-03-25 2012-10-16 Emc Corporation Updating system status
US20100274966A1 (en) * 2009-04-24 2010-10-28 Hitachi, Ltd. High availabilty large scale it systems with self recovery functions
JP5381336B2 (ja) * 2009-05-28 2014-01-08 富士通株式会社 管理プログラム、管理装置および管理方法
US20110078343A1 (en) * 2009-09-29 2011-03-31 Cleversafe, Inc. Distributed storage network including memory diversity
US8688838B2 (en) * 2009-12-14 2014-04-01 Hewlett-Packard Development Company, L.P. Profile management systems
US9104517B2 (en) 2010-01-27 2015-08-11 Code Systems Corporation System for downloading and executing a virtual application
US9229748B2 (en) 2010-01-29 2016-01-05 Code Systems Corporation Method and system for improving startup performance and interoperability of a virtual application
US8627000B2 (en) * 2010-02-08 2014-01-07 Microsoft Corporation Virtual disk manipulation operations
US8763009B2 (en) 2010-04-17 2014-06-24 Code Systems Corporation Method of hosting a first application in a second application
US8782106B2 (en) * 2010-07-02 2014-07-15 Code Systems Corporation Method and system for managing execution of virtual applications
WO2012017493A1 (ja) 2010-08-06 2012-02-09 株式会社日立製作所 計算機システム及びデータ移行方法
US9021015B2 (en) 2010-10-18 2015-04-28 Code Systems Corporation Method and system for publishing virtual applications to a web server
US9292211B2 (en) 2011-03-02 2016-03-22 Hitachi, Ltd. Computer system and data migration method
US8966191B2 (en) * 2011-03-18 2015-02-24 Fusion-Io, Inc. Logical interface for contextual storage
JP2012198627A (ja) * 2011-03-18 2012-10-18 Fujitsu Ltd ストレージ装置,データ移動方法及びストレージシステム
US9285992B2 (en) * 2011-12-16 2016-03-15 Netapp, Inc. System and method for optimally creating storage objects in a storage system
WO2014091600A1 (ja) * 2012-12-13 2014-06-19 株式会社日立製作所 ストレージ装置及びストレージ装置移行方法
JP6065695B2 (ja) * 2013-03-26 2017-01-25 富士通株式会社 ストレージ制御方法、ストレージシステム、およびストレージ制御プログラム
US10235053B1 (en) * 2014-03-31 2019-03-19 Emc Corporation Method and system for using host driver for flexible allocation fast-sideways data movements
US9256373B1 (en) * 2014-05-19 2016-02-09 Emc Corporation Invulnerable data movement for file system upgrade
US10423549B2 (en) * 2015-12-04 2019-09-24 Hitachi, Ltd. Computer system and apparatus management method
CN112714910B (zh) * 2018-12-22 2022-12-27 华为云计算技术有限公司 分布式存储系统及计算机程序产品
US11238107B2 (en) * 2020-01-06 2022-02-01 International Business Machines Corporation Migrating data files to magnetic tape according to a query having one or more predefined criterion and one or more query expansion profiles

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0267621A (ja) * 1988-09-01 1990-03-07 Kansai Nippon Denki Software Kk ファイル再配置方式
JPH02122361A (ja) * 1988-11-01 1990-05-10 Fuji Xerox Co Ltd 計算機システムのデータベース管理方法
JPH02272648A (ja) 1989-04-13 1990-11-07 Nec Corp ファイル再配置方式
JPH03294938A (ja) * 1990-04-12 1991-12-26 Nec Corp 分散型通信システム
US5544347A (en) * 1990-09-24 1996-08-06 Emc Corporation Data storage system controlled remote data mirroring with respectively maintained data indices
JPH04151745A (ja) 1990-10-16 1992-05-25 Nec Software Kansai Ltd 統合磁気ディスクボリュームシステム
JPH04151746A (ja) 1990-10-16 1992-05-25 Nec Software Kansai Ltd 磁気ディスク装置の有効利用方式
US5426747A (en) * 1991-03-22 1995-06-20 Object Design, Inc. Method and apparatus for virtual memory mapping and transaction management in an object-oriented database system
JPH06332782A (ja) * 1993-03-22 1994-12-02 Hitachi Ltd ファイルサーバシステム及びそのファイルアクセス制御方法
JPH0756691A (ja) 1993-08-12 1995-03-03 Toshiba Corp ストライピングディスクのデータブロック自動再配置機能を持つ情報処理装置
US5544345A (en) * 1993-11-08 1996-08-06 International Business Machines Corporation Coherence controls for store-multiple shared data coordinated by cache directory entries in a shared electronic storage
JPH0973411A (ja) * 1995-09-06 1997-03-18 Hitachi Ltd アクセス負荷の分散制御システム
JPH09198195A (ja) * 1996-01-19 1997-07-31 Nec Corp データ再配置可能なディスク装置
JPH09218858A (ja) * 1996-02-14 1997-08-19 Hitachi Ltd 分散型データベース管理システム
JP3641872B2 (ja) 1996-04-08 2005-04-27 株式会社日立製作所 記憶装置システム
US5889935A (en) * 1996-05-28 1999-03-30 Emc Corporation Disaster control features for remote data mirroring
US6185601B1 (en) * 1996-08-02 2001-02-06 Hewlett-Packard Company Dynamic load balancing of a network of client and server computers
US5835954A (en) * 1996-09-12 1998-11-10 International Business Machines Corporation Target DASD controlled data migration move
US5987506A (en) * 1996-11-22 1999-11-16 Mangosoft Corporation Remote access and geographically distributed computers in a globally addressable storage environment
JPH10171065A (ja) * 1996-12-10 1998-06-26 Konica Corp ホログラム感光材料の生産方法及び生産装置
JP3403920B2 (ja) 1997-06-18 2003-05-06 株式会社日立製作所 記憶システムおよび記憶制御装置
US6578120B1 (en) * 1997-06-24 2003-06-10 International Business Machines Corporation Synchronization and resynchronization of loosely-coupled copy operations between a primary and a remote secondary DASD volume under concurrent updating
JPH1145203A (ja) * 1997-07-28 1999-02-16 Matsushita Electric Ind Co Ltd ファイル管理装置
JPH1185604A (ja) * 1997-09-12 1999-03-30 Nippon Telegr & Teleph Corp <Ntt> コンテンツ配置変更方法及びシステム及びコンテンツ配置変更プログラムを格納した記憶媒体
US6145066A (en) 1997-11-14 2000-11-07 Amdahl Corporation Computer system with transparent data migration between storage volumes
US6078990A (en) * 1998-02-06 2000-06-20 Ncr Corporation Volume set configuration using a single operational view
US6199146B1 (en) * 1998-03-12 2001-03-06 International Business Machines Corporation Storage management system and method for increasing capacity utilization of nonvolatile storage devices using partially filled substitute storage devices for continuing write operations
JP3726484B2 (ja) 1998-04-10 2005-12-14 株式会社日立製作所 記憶サブシステム
EP0992913B1 (en) * 1998-04-27 2004-09-22 Sony Corporation Data recording/reproducing apparatus and method therefor
JP2000132343A (ja) * 1998-08-20 2000-05-12 Hitachi Ltd 記憶装置システム
DE69938378T2 (de) 1998-08-20 2009-04-30 Hitachi, Ltd. Kopieren von Daten in Speichersystemen
JP3613052B2 (ja) 1999-02-09 2005-01-26 日本電気株式会社 オペレーティングシステムを記録したコンピュータ読み取り可能な記録媒体
US6553408B1 (en) * 1999-03-25 2003-04-22 Dell Products L.P. Virtual device architecture having memory for storing lists of driver modules
US6389432B1 (en) * 1999-04-05 2002-05-14 Auspex Systems, Inc. Intelligent virtual volume access
US6539462B1 (en) * 1999-07-12 2003-03-25 Hitachi Data Systems Corporation Remote data copy using a prospective suspend command
JP2001051890A (ja) * 1999-08-10 2001-02-23 Toshiba Corp 仮想分散ファイルサーバシステム
US6598174B1 (en) * 2000-04-26 2003-07-22 Dell Products L.P. Method and apparatus for storage unit replacement in non-redundant array

Also Published As

Publication number Publication date
US7260696B2 (en) 2007-08-21
US20020004857A1 (en) 2002-01-10
EP1170657A2 (en) 2002-01-09
US20040236772A1 (en) 2004-11-25
JP2008152807A (ja) 2008-07-03
US20020184463A1 (en) 2002-12-05
US7953949B2 (en) 2011-05-31
US6766430B2 (en) 2004-07-20
EP1170657A3 (en) 2007-04-18
US6763442B2 (en) 2004-07-13
US20070266216A1 (en) 2007-11-15

Similar Documents

Publication Publication Date Title
JP4862006B2 (ja) 計算機システム
JP4115093B2 (ja) 計算機システム
US9946460B2 (en) Storage subsystem and storage system architecture performing storage virtualization and method thereof
US6895483B2 (en) Method and apparatus for data relocation between storage subsystems
JP4147198B2 (ja) ストレージシステム
US7441096B2 (en) Hierarchical storage management system
US6973556B2 (en) Data element including metadata that includes data management information for managing the data element
US7069380B2 (en) File access method in storage-device system, and programs for the file access
US8204858B2 (en) Snapshot reset method and apparatus
US7624230B2 (en) Information processing apparatus, information processing method and storage system using cache to reduce dynamic switching of mapping between logical units and logical devices
JP2004110218A (ja) Dbms向け仮想ボリューム作成・管理方法
JP2009043030A (ja) ストレージシステム
JP2004295457A (ja) 記憶装置
US11409454B1 (en) Container ownership protocol for independent node flushing
JP2008152695A (ja) 電子的な保護対象に要求される保護能力で該保護対象を保護する記憶制御装置
US7493458B1 (en) Two-phase snap copy
US11853574B1 (en) Container flush ownership assignment
US20230325324A1 (en) Caching techniques

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080626

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20090209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111101

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111107

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141111

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees