JP2012517045A - ストレージシステム、及びストレージシステムの制御方法 - Google Patents

ストレージシステム、及びストレージシステムの制御方法 Download PDF

Info

Publication number
JP2012517045A
JP2012517045A JP2011547070A JP2011547070A JP2012517045A JP 2012517045 A JP2012517045 A JP 2012517045A JP 2011547070 A JP2011547070 A JP 2011547070A JP 2011547070 A JP2011547070 A JP 2011547070A JP 2012517045 A JP2012517045 A JP 2012517045A
Authority
JP
Japan
Prior art keywords
storage
cluster
storage device
protocol
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011547070A
Other languages
English (en)
Other versions
JP5255127B2 (ja
Inventor
秀久 蔀
卓哉 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of JP2012517045A publication Critical patent/JP2012517045A/ja
Application granted granted Critical
Publication of JP5255127B2 publication Critical patent/JP5255127B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0638Organizing or formatting or addressing of data
    • G06F3/0644Management of space entities, e.g. partitions, extents, pools
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0614Improving the reliability of storage systems
    • G06F3/0617Improving the reliability of storage systems in relation to availability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0635Configuration or reconfiguration of storage systems by changing the path, e.g. traffic rerouting, path reconfiguration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/0647Migration mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1097Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • H04L67/125Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks involving control of end-device applications over a network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/18Multiprotocol handlers, e.g. single devices capable of handling multiple protocols

Abstract

ストレージシステムにおいて、プロトコルの使用状況に応じた性能分離やストレージシステムの性能を最適化する。クライアント装置1000からのデータ入出力要求に応じて、記憶ドライブ2200へのデータの書き込み、又はデータの読み出しを行うストレージ制御部2410と、データ入出力要求に対する処理の結果をクライアント装置1000に応答し、外部装置1000から送信される、少なくとも二つ以上のプロトコルに従ったデータ入出力要求に応答可能なプロトコル処理部2514とを備えた複数のストレージ装置2400を含み、ストレージ装置2400の夫々は、他のストレージ装置2400とともにクライアント装置1000に対してクラスタ2811を構成する、クラスタ処理部2516を備えるストレージシステム1において、クラスタ処理部2516がプロトコルごとのクラスタ群2812を構成するようにする。
【選択図】図8

Description

本発明は、ストレージシステム、及びストレージシステムの制御方法に関し、とくにプロトコルの使用状況に応じた性能分離やストレージシステムの性能を最適化する技術に関する。
ストレージシステムの効率的な運用を実現すべく、ストレージシステムを複数の論理区画(Logical Partition : LPAR)に分割してクラスタを構成し、ユーザから各クラスタを個別の複数のストレージシステムとして提供する技術が存在する。
例えば特許文献1には、複数台の比較的小規模なストレージシステム(クラスタ)を相互結合網により接続して1つのシステムとして運用するクラスタ型ストレージシステムにおいて、相互結合網の帯域制限下で論理分割を行うと、論理区画に割り当てた資源に見合う性能を保証できないという課題を解決すべく、1つの論理区画に対して同一のクラスタ内の資源を割り当てることが記載されている。
また特許文献2には、ストレージシステムで使用されない資源を有効に活用すべく、制御プロセッサが、ホストIF、ドライブIF、ディスクドライブ、データ転送エンジン、キャッシュメモリ、及び制御プロセッサを含む資源を分割対象の資源として論理的に分割して複数の論理区画を構成し、各論理区画に分割する割合を、ホスト計算機からのアクセス量に応じて動的に変化させることが開示されている。
特許文献3には、ストレージコンソリデーションがなされたサブシステムの論理分割の管理に際し、RAIDの構成変更に際し管理者等による操作誤りを回避すべく、RAIDの構成変更機能を所定範囲において開放可能とすることが記載されている。
特開2006−285808号公報 特開2008−257572号公報 特開2005−71103号公報
低TCO(Total Cost of Ownership)を実現すべく、初期投資が少なく小規模で運用を開始することができ、急速な成長にも対応(スケールアウト(Scale Out):既存のストレージシステムの構成を維持したまま、新たなストレージ装置を導入)可能で、柔軟な構成変更可能なクラウドサービス向けのストレージ(COS: Cloud Optimized Storage)の需要増大が見込まれている。
また、単体でiSCSI(Internet Small Computer System Interface)、NFS/CIFS(NFS: Network File System,CIFS: Common Internet File System)、FC(Fibre Channel)といった複数のプロトコルに対応可能なストレージ装置(以下、ユニファイドストレージ(Unified Storage)と称する。)が普及し始めている。
スケールアウト構成のユニファイドストレージを用いたクラウドサービス向けストレージシステムの運用では、性能を最適化するために、ユニファイドストレージが備える資源(CPU,キャッシュメモリ等)を有効に活用(パーティショニング)するニーズが顕在化することが予想される。
しかしユニファイドストレージは、複数のプロトコルを共通のCPUで処理し、キャッシュメモリも各プロトコルが共有するので、各プロトコルの使用状況に応じた性能分離やストレージシステムの性能を最適化することは困難である。
本発明は、このような背景に鑑みてなされたもので、プロトコルの使用状況に応じた性能分離やストレージシステムの性能を最適化することが可能な、ストレージシステム、及びストレージシステムの制御方法を提供することを目的とする。
上記のおよび他の課題を解決するための本発明の一態様は、
外部装置から送られてくるデータ入出力要求に応じて、記憶装置へのデータの書き込み、又は前記記憶装置からのデータの読み出しを行うストレージ制御部と、
前記データ入出力要求に対する処理の結果を前記外部装置に応答し、前記外部装置から送信される、少なくとも二つ以上のプロトコルに従った前記データ入出力要求に応答可能なプロトコル処理部と
を備えた複数のストレージ装置を含み、
前記ストレージ装置の夫々は、他の前記ストレージ装置とともに前記外部装置に対してクラスタを構成する、クラスタ処理部を備え、
前記クラスタ処理部は、前記プロトコルごとのクラスタ群を構成可能な
ストレージシステムである。
このように外部装置から送信されてくる少なくとも二つ以上のプロトコルに従ったデータ入出力要求に応答可能なプロトコル処理部を備えるストレージ装置(ユニファイドストレージ)を用いたストレージシステムを用いて、プロトコルごとのクラスタ群を構成することで、プロトコルの使用状況に応じた性能分離や、ストレージシステム全体の性能の最適化を図ることが可能となる。
本発明の他の一態様は、上記ストレージシステムであって、
前記ストレージ装置は、前記ストレージ装置の夫々が所属している前記クラスタ群が担当する前記プロトコルが管理されたクラスタ管理テーブルを記憶しており、
前記クラスタ処理部は、前記クラスタ管理テーブルに従って、前記外部装置から受信した前記データ入出力要求を、他の前記ストレージ装置に、フォワーディング又はリダイレクションすることにより、前記プロトコルごとのクラスタ群を構成する。
本発明によれば、ストレージ装置の夫々が所属しているクラスタ群が担当するプロトコルが管理されたクラスタ管理テーブルと、クラスタ処理部が備えるフォワーディング又はリダイレクションの機能により、プロトコルごとのクラスタ群を容易に構成することができる。
本発明の他の一態様は、上記ストレージシステムであって、
前記クラスタ処理部は、前記プロトコルごとのクラスタ群を構成した場合に、
前記ストレージ装置における前記プロトコルを処理するための資源のうち、前記ストレージ装置が所属している前記クラスタ群が担当する前記プロトコル以外の前記プロトコルを実現するための資源を不活性にする。
ストレージ装置が所属している前記クラスタ群が担当するプロトコル以外のプロトコルを実現するための資源は活性(active)させておく必要が無いので、そのような資源を不活性(Inactive)にすることで、ストレージ装置の処理負荷が低減され、ストレージ装置を効率よく機能させることができる。
本発明の他の一態様は、上記ストレージシステムであって、
前記ストレージ装置は、前記ストレージ装置の夫々が所属している前記クラスタ群が担当する前記プロトコルが管理されたクラスタ管理テーブルを記憶しており、
前記ストレージ装置は、論理的に設定された記憶領域である論理ボリュームを単位として前記記憶装置の記憶領域を前記外部装置に提供し、
前記クラスタ処理部は、前記プロトコルごとのクラスタ群が既に構成されている状態で前記クラスタ管理テーブルの内容が変更された場合に、前記論理ボリュームが対応していた前記プロトコルが、当該論理ボリュームが所属している前記ストレージ装置が前記変更後に担当することとなる前記プロトコルに合致していない場合に、前記論理ボリュームのデータを、前記変更後に当該論理ボリュームが対応していた前記プロトコルを担当することとなる他の前記ストレージ装置の前記論理ボリュームに移行させる。
このように、クラスタ管理テーブルの内容が変更された場合には、クラスタ処理部が、論理ボリュームが対応しているプロトコルに合致する他のストレージ装置の論理ボリュームに自動的にデータを移行する。このため、例えば管理装置からクラスタ管理テーブルを変更することで、クラスタ群の構成を容易かつ柔軟に変更することができる。
本発明の他の一態様は、上記ストレージシステムであって、
前記ストレージ装置は、前記ストレージ装置の夫々が所属している前記クラスタ群が担当する前記プロトコルが管理されたクラスタ管理テーブルを記憶しており、
前記ストレージ装置は、論理的に設定された記憶領域である論理ボリュームを単位として前記記憶装置の記憶領域を前記外部装置に提供し、
前記クラスタ処理部は、前記プロトコルごとのクラスタ群が既に構成されている状態で、既に構成されている前記クラスタ群に新たに前記ストレージ装置を追加する内容に前記クラスタ管理テーブルの内容が変更された場合に、前記論理ボリュームの負荷情報に応じてデータの再配置が必要か否かを判定し、再配置が必要な場合は前記論理ボリューム間でデータを移行させる。
このように、プロトコルごとのクラスタ群が既に構成されている状態で既に構成されているクラスタ群に新たにストレージ装置を追加する内容にクラスタ管理テーブルが変更された場合には、クラスタ処理部が論理ボリュームの負荷情報に応じてデータの再配置が必要か否かを判定し、再配置が必要な場合は自動的に論理ボリューム間でデータを移行する。このように本発明によれば、クラスタ管理テーブルの内容を変更することで、既に構成されているクラスタ群に容易に新たなストレージ装置を追加することができる。また再配置に際して負荷分散を図ることによりストレージシステムの性能を最適化することができる。
本発明の他の一態様は、上記ストレージシステムであって、
前記ストレージ装置は、前記ストレージ装置の夫々が所属している前記クラスタ群が担当する前記プロトコルが管理されたクラスタ管理テーブルを記憶しており、
前記ストレージ装置は、論理的に設定された記憶領域である論理ボリュームを単位として前記記憶装置の記憶領域を前記外部装置に提供し、
前記クラスタ処理部は、前記プロトコルごとのクラスタ群が既に構成されている状態で、既に構成されている前記クラスタ群から前記ストレージ装置を削除する内容に前記クラスタ管理テーブルの内容が変更された場合に、削除される前記ストレージ装置の前記論理ボリュームのデータを、当該ストレージ装置が担当していた前記プロトコルを担当している他のストレージ装置の前記論理ボリュームに移行させる。
このように、プロトコルごとのクラスタ群が既に構成されている状態で既に構成されているクラスタ群からストレージ装置を削除する内容にクラスタ管理テーブルが変更された場合には、クラスタ処理部が、当該ストレージ装置が担当していたプロトコルを担当している他のストレージ装置の論理ボリュームにデータを移行させる。このように、本発明によれば、クラスタ管理テーブルの内容を変更することで、既に構成されているクラスタ群から容易にストレージ装置を削除することができる。
本発明の他の一態様は、上記ストレージシステムであって、
前記ストレージ装置は、前記ストレージ装置の夫々が所属している前記クラスタ群が担当する前記プロトコルが管理されたクラスタ管理テーブルを記憶しており、
前記ストレージ装置は、論理的に設定された記憶領域である論理ボリュームを単位として前記記憶装置の記憶領域を前記外部装置に提供し、
前記クラスタ処理部は、前記プロトコルごとのクラスタ群が既に構成されている状態で、ある前記クラスタ群を構成している前記ストレージ装置が、他の前記クラスタ群に移行する内容に前記クラスタ管理テーブルの内容が変更された場合に、前記論理ボリュームの負荷情報に応じてデータの再配置が必要か否かを判定し、再配置が必要な場合は前記論理ボリューム間でデータを移行させる。
このように、プロトコルごとのクラスタ群が既に構成されている状態で、あるクラスタ群を構成しているストレージ装置が、他のクラスタ群に移行する内容にクラスタ管理テーブルの内容が変更された場合には、クラスタ処理部が論理ボリュームの負荷情報に応じてデータの再配置が必要か否かを判定し、再配置が必要な場合は自動的に論理ボリューム間でデータを移行する。このように本発明によれば、クラスタ管理テーブルの内容を変更することで、あるクラスタ群を構成しているストレージ装置を、他のクラスタ群に容易に移行させることができる。また再配置に際して負荷分散を図ることによりストレージシステムの性能を最適化することができる。
尚、前記プロトコルは、iSCSI(Internet Small Computer System Interface)、NFS/CIFS(NFS: Network File System,CIFS: Common Internet File System)、FC(Fibre Channel)のうちの少なくともいずれかである。
その他本願が開示する課題やその解決方法については、発明の実施形態の欄、及び図面により明らかにされる。
本発明によれば、プロトコルの使用状況に応じた性能分離やストレージシステムの性能を最適化することができる。
ストレージシステム1の概略的な構成を説明する図である。 クライアント装置1000、管理装置1100、及びストレージ装置2400の機能を説明する図である。 ストレージ装置2400の動作を説明する図である。 ユニファイドストレージを新たに導入する場合における、LU2420へのアクセスの仕組みを説明する図である。 フォワーディングによりクラスタを実現する場合を説明する図である。 クラスタ管理テーブル2517の一例を示す図である。 リダイレクションによりクラスタを実現する場合を説明する図である。 プロトコル単位でクラスタグループ2812を設定する場合を説明する図である。 クラスタ管理テーブル2517の一例である。 クラスタ設定処理S1000を説明するフローチャートである。 クラスタグループ2812の設定を変更する場合を説明する図である。 設定変更処理S1200を説明するフローチャートである。 ボリューム管理テーブル1300の一例である。 移行処理S1234を説明するフローチャートである。 クラスタグループ2812に新たなノードを追加する場合を説明する図である。 ノード追加処理S1600を説明するフローチャートである。 クラスタグループ2812からノードを削除する場合を説明する図である。 ノード削除処理S1800を説明するフローチャートである。 クラスタグループ2812間でノードを移動する場合を説明する図である。 ノード移動処理S2000を説明するフローチャートである。
以下、実施形態について説明する。図1に実施形態として説明するストレージシステム1の概略的な構成を示している。同図に示すように、このストレージシステム1は、データセンタやシステム運用センタなどの第1サイト6000に設置された、複数のストレージ装置2400、一つ以上のクライアント装置1000(外部装置)、及び管理装置1100を備えている。
クライアント装置1000とストレージ装置2400とは、データネットワーク5000を介して通信可能に接続している。データネットワーク5000は、例えば、LAN(Local Area Network)、WAN(Wide Area Network)、SAN(Storage Area Network)である。ストレージ装置2400は、管理ネットワーク5001を介して、管理装置1100と通信可能に接続している。管理ネットワーク5001は、例えば、LAN、WANである。ストレージ装置2400は、内部ネットワーク5002及び外部ネットワーク5003を介して、他のサイト(第2サイト7000、第3サイト8000)に設けられている他のストレージシステムと通信可能に接続している。内部ネットワーク5002は、例えばLAN、WAN、SANである。外部ネットワーク5003は、LAN、WAN、SAN、インターネット、公衆通信網、専用線である。尚、データネットワーク5000、管理ネットワーク5001、内部ネットワーク5002、及び外部ネットワーク5003は、VLAN(Virtual LAN)等の通信帯域を論理的に分割する方法により、同一の物理的な通信媒体を共有する方式で実現されていてもよい。
クライアント装置1000は、ストレージ装置2400にアクセスする装置であり、ストレージ装置2400にデータ入出力要求(データ書き込み要求、データ読み出し要求)を送信する。クライアント装置1000は、ストレージ装置2400に対して、ブロック単位又はファイル単位のデータ入出力要求を送信する。
クライアント装置1000は、例えばパーソナルコンピュータやオフィスコンピュータ、メインフレーム等の情報処理装置(コンピュータ)である。クライアント装置1000は、少なくともプロセッサ1001(例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit))、メモリ1002(例えば揮発性または不揮発性のRAM(Random Access Memory)又はROM(Read Only Memory))、及び通信インタフェース1003(例えばNIC(Network Interface Card)やHBA(Host Bus Adaptor))を備えている。クライアント装置1000は、更に記憶装置(例えばハードディスク、半導体記憶装置(SSD(Solid State Drive)))、キーボードやマウス等の入力装置、液晶モニタやプリンタ等の出力装置を備えていてもよい。
クライアント装置1000とストレージ装置2400との間の通信は、例えばTCP/IP、FICON(Fibre Connection)(登録商標)やESCON(Enterprise System Connection) (登録商標)、ACONARC(Advanced Connection Architecture)(登録商標)、FIBARC(Fibre Connection Architecture)(登録商標)等のプロトコルに従って行われる。
管理装置1100は、例えばパーソナルコンピュータやオフィスコンピュータ等の情報処理装置(コンピュータ)である。管理装置1100は、少なくともプロセッサ1101(例えばCPU、MPU)、メモリ1102(揮発性または不揮発性のRAM又はROM)、及び通信インタフェース1003(例えばNICやHBA)を備えている。
管理装置1100は、更に記憶装置(例えばハードディスク、半導体記憶装置(SSD)、キーボードやマウス等の入力装置、液晶モニタやプリンタ等の出力装置を備えていてもよい。管理装置1100は、管理ネットワーク5001を介してストレージ装置2400と通信可能に接続する。管理装置1100は、GUI(Graphical User Interface)、CLI(Command Line Interface)等によるユーザインタフェースを備えており、ユーザ又はオペレータがストレージ装置2400の制御や監視を行うための機能を提供する。管理装置1100は、ストレージ装置2400の一部であってもよい。
ストレージ装置2400は、ヘッダ装置2500、ドライブ制御装置2100、及び記憶ドライブ2200(記憶装置)を備える。ヘッダ装置2500、ドライブ制御装置2100、及び記憶ドライブ2200は、これらの全てが独立した筐体に収容されていてもよいし、これらのうちの少なくともいずれかの組み合わせが同一筐体に収容されていてもよい。またヘッダ装置2500及びドライブ制御装置2100の機能は、共通のハードウエアによって実現するようにしてもよい。
ストレージ装置2400は、複数のプロトコル(iSCSI(Internet Small Computer System Interface)、NFS/CIFS(NFS: Network File System,CIFS: Common Internet File System)、FC(Fibre Channel)等)に対応した(複数のプロトコルに従ったデータ入出力要求に応答可能な)、ユニファイドストレージ(Unified Storage)である。
ヘッダ装置2500は、データネットワーク5000、管理ネットワーク5001、及び内部ネットワーク5002に接続するための外部通信インタフェース2504,2505,2507(例えばNIC、HBA)、プロセッサ2501(例えばCPU、MPU、DMA(Direct Memory Access)、カスタムLSI(Large Scale Integration))、メモリ2502(揮発性または不揮発性のRAM又はROM)、キャッシュメモリ2503(揮発性または不揮発性のRAM)、及びドライブ制御装置2100と通信するための内部通信インタフェース2506(例えばNIC、HBA、PCI(Peripheral Component Interconnect)、PCI−Express(登録商標))を備えている。
ヘッダ装置2500は、クライアント装置1000との間の通信に必要なプロトコル(例えばNAS、iSCSI、NFS/CIFS、FC)に関する制御を行う機能、ファイルの制御に関する機能(ファイルシステム)、クライアント装置1000との間で送受信するデータやデータ入出力要求のキャッシング機能等を備える。ヘッダ装置2500が備える機能の詳細については後述する。
ドライブ制御装置2100は、ヘッダ装置2500及び管理ネットワーク5001に接続するための外部通信インタフェース2104,2105(例えばNIC、HBA、PCI、PCI−Express)、プロセッサ2101(例えばCPU、MPU、DMA、カスタムLSI)、メモリ2102(揮発性または不揮発性のRAM又はROM)、キャッシュメモリ2103(揮発性または不揮発性のRAM)、及び記憶ドライブと通信するためのドライブ通信インタフェース2106(例えばSAS(Serial Attached SCSI)、SATA(Serial ATA)、PATA(Parallel ATA)、FC、SCSI)を備えている。
ドライブ制御装置2100は、ヘッダ装置2500から送られてくるデータ入出力要求(以下、ドライブアクセス要求と称する。)に応じて記憶ドライブ2200に対するデータの書き込みや記憶ドライブ2200からのデータの読み出しを行う。ドライブ制御装置2100は、記憶ドライブ2200をRAID(RAID: Redundant Arrays of Inexpensive (or Independent) Disks)によって制御する機能、ヘッダ装置2500やクライアント装置に論理的な記憶装置(LDEV(Logical DEVice))を提供する機能、データの健全性を検証する機能、スナップショット取得機能等の、記憶ドライブ2200を安全にもしくは効率的に利用できるようにするための様々な機能を備える。ドライブ制御装置2100が備える機能の詳細については後述する。
記憶ドライブ2200は、例えば、所定の規格(SAS、SATA、FC、PATA、SCSI)に準拠したハードディスクドライブ、複数のハードディスクドライブを用いて構成したJBOD(Just a Bunch Of Disks)、半導体記憶装置(SSD(Solid State Drive))である。
図2にクライアント装置1000、管理装置1100、及びストレージ装置2400の機能を示している。クライアント装置1000では、アプリケーションソフトウエア(以下、アプリケーション1011と称する。)、及び通信クライアント1012が実行されている。アプリケーション1011は、例えば、ファイル共有、Email、データベース、などを提供するソフトウエアである。
通信クライアント1012(Protocol Client)は、ストレージ装置2400と通信する(例えば、データ入出力要求の送信及びその応答の受信)。通信クライアント1012は、上記通信に際し、プロトコル(例えばiSCSI、NFS/CIFS、FC)に関する処理(例えばフォーマット変換、通信制御)を行う。尚、これらの機能は、クライアント装置1000のプロセッサ1001が、メモリ1002に格納されているプログラムを読み出して実行することにより実現される。
管理装置1100は、管理部1111を備えている。管理部1111は、ストレージ装置2400の動作に関する設定、制御、及び監視を行う。尚、管理部1111は、管理装置1100のプロセッサ1101が、メモリ1102に格納されているプログラムを読み出して実行することにより実現される。管理部1111の機能は、ストレージ装置2400とは異なる装置で実現されていてもよいし、ストレージ装置2400で実現するようにしてもよい。
ストレージ装置2400のヘッダ装置2500は、オペレーティングシステム2511(ドライバソフトウエアを含む)、ボリューム管理部2512、ファイルシステム2513、1つ以上の通信サーバ2514(Protocol Server)(プロトコル処理部)、及びクラスタ処理部2516を備えている。尚、これらの機能は、ヘッダ装置2500のハードウエアによって、もしくは、プロセッサ2501がメモリ2502に格納されているプログラムを読み出して実行することにより実現される。
ボリューム管理部2512は、記憶ドライブ2200によって提供される論理的な記憶領域に基づく仮想的な記憶領域(以下、仮想ボリュームと称する。)を、クライアント装置1000に提供する。
ファイルシステム2513は、クライアント装置1000からファイル指定方式によるデータ入出力要求を受け付ける。ヘッダ装置2500は、データネットワーク5000上でNASサーバ(NAS: Network Attached Storage)として機能する。尚、本実施形態では、ヘッダ装置2500はファイルシステム2513を備えるものとして説明するが、ヘッダ装置2500は、必ずしもファイルシステム2513を備えていなくてもよい。ヘッダ装置2500は、例えばブロックアドレス(LBA: Logical Block Address)指定方式によるデータ入出力要求を受け付けてもよい。
通信サーバ2514は、クライアント装置1000の通信クライアント1012、及び管理装置1100の管理部1111と通信する。通信サーバ2514は、上記通信に際し、プロトコル(例えばiSCSI、NFS/CIFS、FC)に関する処理(例えばフォーマット変換、通信制御)を行う。
クラスタ処理部2516は、クライアント装置1000からのデータ入出力要求を、予め設定されたクラスタの定義に従って処理する。例えばクラスタ処理部2516は、クライアント装置1000から受信したデータ入出力要求が自らを宛先としている場合には、自らそのデータ入出力要求を処理する。また受信したデータ入出力要求が、他のストレージ装置2400を対象としている場合には、そのデータ入出力要求の処理を担当である他のストレージ装置2400に、当該データ入出力要求を転送する。クラスタ処理部2516は、上記クラスタの定義を、クラスタ管理テーブル2517に管理している。
ストレージ装置2400のドライブ装置2000は、ストレージ制御部2410を備えている。ストレージ制御部2410は、記憶ドライブ2200に基づく論理的な記憶領域である論理ボリューム(以下、LU2420(LU: Logical Unit)と称する。)をヘッダ装置2500に提供する。ヘッダ装置2500は、LU2420の識別子(LUN(Logical Unit Number))を指定することにより、LU2420を指定することができる。ストレージ制御部2410の機能は、例えばLVM(Logical Volume Manager)によって実現されている。
<ユニファイドストレージ>
図3はストレージ装置2400の動作を説明する図である。前述したように、ストレージ装置2400は、複数のプロトコル(iSCSI、NFS/CIFS、FC)に対応可能な(複数のプロトコルに従ったデータ入出力要求に応答可能な)ユニファイドストレージである。同図に示したストレージ装置2400は、NFSとiSCSIの双方のプロトコルに対応しており、ストレージ装置2400は、NFSサーバとして機能する通信サーバ2514と、iSCSIターゲットとして機能する通信サーバ2514とを備える。このうちNFSサーバとして機能する上記通信サーバ2514は、クライアント装置1000のNFSクライアントとして機能する通信クライアント1012から送信されてくるデータ入出力要求を受け付ける。一方、iSCSIターゲットとして機能する上記通信サーバ2514は、クライアント装置1000のiSCSIイニシエータとして機能する通信クライアント1012から送信されてくるデータ入出力要求を受け付ける。
<資源の割り当て>
図4はユニファイドストレージである第1ストレージ装置2400を用いて構成されているストレージシステム1に、資源(性能、容量等)の増強等を目的として、ユニファイドストレージである第2ストレージ装置2400を新たに導入する場合における、LU2420へのアクセスの仕組みを説明する図である。ユーザ又はオペレータは、管理装置1100の管理部1111が提供するユーザインタフェースを利用して、各クライアント装置1000にマウントするLU2420の設定やクライアント装置1000からLU2420へのアクセスパスの設定等を行うことにより、第2のストレージ装置2400を追加する。尚、この方法では、クライアント装置1000から、各ストレージ装置2400(第1ストレージ装置2400及び第2ストレージ装置2400)が独立した2つの装置として認識される。
<クラスタ>
図5は、図4と同様、第2ストレージ装置2400を新たに導入する場合を説明している。但し、第1ストレージ装置2400及び第2ストレージ装置2400の2つのストレージ装置2400を用いてクラスタ2811を構成している点が図4とは異なる。このようにクラスタ2811を構成した場合には、クライアント装置1000からは第1ストレージ装置2400及び第2ストレージ装置2400が1つの仮想的なストレージシステムとして認識される。このようなクラスタ2811は、クライアント装置1000から送信されてくるデータ入出力要求を、例えばストレージ装置2400において、フォワーディング(Forwarding)又はリダイレクション(Redirection)することで実現することができる。
図5はフォワードディングによりクラスタ2811を実現した場合を説明する図であり、図7はリダイレクションによりクラスタ2811を実現した場合を説明する図である。
図5に示すように、フォワーディングの場合には、クラスタ処理部2516は、まずクライアント装置1000から受信したデータ入出力要求を処理すべきストレージ装置2400を特定する。そしてクラスタ処理部2516は、自身が処理すべきデータ入出力要求であれば自身で処理し、他のストレージ装置2400が処理すべきデータ入出力要求であれば、受信したデータ入出力要求を他のストレージ装置2400に転送する。
図6はデータ入出力要求を処理すべきストレージ装置2400を特定する際にクラスタ処理部2516が参照する情報(以下、クラスタ管理テーブル2517と称する。)である。同図に示すように、クラスタ管理テーブル2517は、クラスタ名611、及びノード612の各項目からなる、一つ以上のレコードからなる。クラスタ名611には、構成されたクラスタごとに付与される識別子(以下、クラスタIDと称する。)が設定される。ノード612には、各クラスタの構成要素であるストレージ装置2400の識別子(以下、装置IDと称する。)が設定される。
図7に示すように、リダイレクションでは、クラスタ処理部2516は、まずクライアント装置1000から受信したデータ入出力要求を処理すべきストレージ装置2400を、クラスタ管理テーブル2517を参照して特定する。そしてクラスタ処理部2516は、自身が処理すべきデータ入出力要求であれば自身で処理し、他のストレージ装置2400が処理すべきデータ入出力要求であれば、受信したデータ入出力要求を送信してきたクライアント装置1000に、リダイレクト先(特定した他のストレージ装置2400(例えばネットワークアドレス))を通知する。通知を受けたクライアント装置1000は、通知されたリダイレクト先にデータ入出力要求を再送信する。
<プロトコルごとのクラスタグループ>
以上、プロトコルに依存しないクラスタ2811の実現方法について説明したが、ユニファイドストレージの特徴(複数のプロトコルに対応可能)を利用すれば、プロトコル単位でクラスタ群(以下、クラスタグループ2812と称する。)を設定することができる。
図8はプロトコル(同図ではNFSサーバ、iSCSIターゲット)単位でクラスタグループ2812を設定する場合を説明する図である。プロトコル単位でのクラスタグループ2812も、前述したクラスタ管理テーブル2517を用意し、フォワーディング又はリダイレクションを行うことで実現することができる。
図9はクラスタグループ2812の管理に用いる、クラスタ管理テーブル2517の一例である。同図に示すように、クラスタ管理テーブル2517は、クラスタ名911、ノード912、役割913、及びノード914の各項目からなる一つ以上のレコードが含まれる。クラスタ名911には、構成されたクラスタごとに付与される識別子(以下、クラスタIDと称する。)が設定される。ノード912には、各クラスタの構成要素であるストレージ装置2400の識別子(以下、装置IDと称する。)が設定される。役割913には、各クラスタグループ2812によってサポートされるプロトコルを特定する識別子(以下、プロトコルIDと称する。)が設定される。ノード914には、各役割に割り当てられているストレージ装置2400の識別子が設定される。
図9に示すクラスタ管理テーブル2517では、クラスタ名911が「クラスタ1」のノード914が「10.1.1.1-10.1.1.5」のストレージ装置2400群によって、役割913が「NAS−1」というNFSサーバのクラスタグループ2812が構成されている。またクラスタ名911が「クラスタ1」のノード914が「10.1.1.6-10.1.1.10」のストレージ装置2400群によって、役割913が「iSCSI−1」というiSCSIサーバのクラスタグループ2812が構成されている。またクラスタ名911が「クラスタ2」のノード914が「10.1.1.11-10.1.1.15」のストレージ装置2400群によって、役割913が「FC−1」というFC(Fibre Channel)サーバのクラスタグループ2812が構成されている。またクラスタ名911が「クラスタ2」のノード914が「10.1.1.15-10.1.1.20」のストレージ装置2400群によって、役割913が「NAS−2」というNFSサーバのクラスタグループ2812が構成されている。
尚、プロトコル単位のクラスタグループ2812を設定する場合には、個々のストレージ装置2400において使用されないプロトコルを実現するための資源(ハードウエア資源、ソフトウエア資源)を不活性(inactive)にすることが考えられる。図8では活性(active)している資源を実線で、不活性の資源を破線で示している。このように、不使用プロトコルの資源を不活性化することで、ストレージ装置2400の処理負荷が低減され、ストレージ装置2400を効率よく機能させることができる。
<初期設定>
図10は、ユーザ又はオペレータが、管理装置1100を操作してクラスタ2811及びクラスタグループ2812を初期設定する際に行われる処理(以下、クラスタ設定処理S1000と称する。)を説明するフローチャートである。尚、以下の説明において、符号の前に付した「S」の文字はステップを意味する。
まず管理装置1100の管理部1111が、ユーザ又はオペレータからクラスタ2811の設定情報、及びクラスタグループ2812の設定情報を受け付ける(S1011〜S1012)。このとき、管理部1111は、例えば図9に示したクラスタ管理テーブル2517の設定画面を表示して設定情報を受け付ける。
次に管理部1111は、受け付けた設定情報を管理ネットワーク5001を介してストレージ装置2400に送信する(S1013)。各ストレージ装置2400のクラスタ処理部2516は、管理装置1100から送られてきた設定情報を受信し(S1021)、受信した設定情報をクラスタ管理テーブル2517に反映する(S1022)。クラスタ管理テーブル2517に設定情報を反映した後、各ストレージ装置2400のクラスタ処理部2516は、管理装置1100に登録完了通知を送信する(S1023)。
管理部1111は、登録完了通知を受信すると(S1031)、各ストレージ装置2400のクラスタ処理部2516に資源の設定指示(活性又は不活性の設定指示)を送信する(S1032)。各ストレージ装置2400のクラスタ処理部2516は、資源設定指示を受信すると(S1041)、自身が担当するプロトコルに関する資源を活性に、自身が担当しないプロトコルに関する資源を不活性にする(S1042)。
これらの処理(S1031、S1032、S1041、S1042)は必須の処理ではなく、オプションの処理としてもよい。以下も同様である。
なお、ソフトウェア資源の活性化(activation)の操作とは、ソフトウェアのプロセスを起動することを意味する。また、ソフトウェア資源の非活性化(inactivation)の操作とは、ソフトウェアのプロセスを停止又は削除することを意味する。
クラスタ処理部は、ノードに割り当てられたインタフェースプロトコルに応じて、インタフェース処理プロセス(nfsdやiSCSI target software)に対し、起動・停止・削除の各操作を行う。
<クラスタグループの設定を変更する場合>
次に、図11に示すように、ストレージシステム1に既にクラスタ2811及びクラスタグループ2812が設定されている場合に、クラスタグループ2812の設定を変更する場合について説明する。図12は、ストレージシステム1に既にクラスタ2811及びクラスタグループ2812が設定されている場合に、クラスタグループ2812の設定を変更する場合に行われる処理(以下、設定変更処理S1200と称する。)を説明するフローチャートである。
まず管理装置1100の管理部1111は、ユーザ又はオペレータから、クラスタグループ2812の設定情報を受け付ける(S1211)。管理部1111は、例えば図9に示したクラスタ管理テーブル2517の設定画面を表示して、設定情報を受け付ける。
次に管理部1111は、受け付けた設定情報を、管理ネットワーク5001を介して各ストレージ装置2400に送信する(S1212)。各ストレージ装置2400のクラスタ処理部2516は、管理装置1100から送られてきた設定情報を受信し(S1221)、受信した設定情報をクラスタ管理テーブル2517に反映する(S1222)。クラスタ管理テーブル2517に設定情報を反映すると、各ストレージ装置2400のクラスタ処理部2516は、管理装置1100に登録完了通知を送信する(S1223)。
管理装置1100の管理部1111は、登録完了通知を受信すると(S1231)、次に新たに設定された(設定変更後の)クラスタグループ2812の設定内容に合致していないLU2420(設定変更後のクラスタグループ2812の用途に適合していないLU)を特定する(S1232)。ここでそのようなLU2420の特定は、各ストレージ装置2400において管理されているLU2420に関する情報を参照して行う。図13は、そのような情報の一例として示すテーブル(以下、ボリューム管理テーブル1300と称する。)である。同図に示すボリューム管理テーブル1300には、各LU2420の(LUN1311)の現在の用途1312(プロトコル)が管理されている。
次に管理部1111は、S1232で特定したLU2420の移行先のストレージ装置2400(以下、移行先ストレージ装置2400と称する。)を決定する(S1233)。この決定は、管理部1111が、上記設定変更後において、S1232で特定したLU2420の用途に適合するプロトコルをサポートするストレージ装置2400のうちの一つを、クラスタ管理テーブル2517から選択することにより行われる。尚、このときに複数の移行先ストレージ装置2400を選択できる場合には、管理部1111は、例えばラウンドロビン方式、負荷分散又は記憶領域の残容量の観点等から、最適なものを一つ選択する。
次に管理部1111は、特定したLU2420のデータを、決定した移行先に移行(Migration)させる処理(以下、移行処理S1234と称する。)を開始する(S1234)。図14は移行処理S1234の詳細を説明するフローチャートである。
まず管理装置1100の管理部1111は、特定したLU2420(以下、移行元LU2420と称する。)のうちの一つを選択する(S1411)。次に管理部1111は、選択した移行元LU2420が存在するストレージ装置2400(以下、移行元ストレージ装置2400と称する。)に、移行元LU2420のスナップショットを取得させる指示を送信する(S1412)。移行元ストレージ装置2400は、スナップショット取得指示を受信すると(S1413)、移行元LU2420のスナップショットを取得する(S1414)。
次に管理部1111は、S1233で決定した移行先ストレージ装置2400に、移行元LU2420の移行先のLU(以下、移行先LU2420と称する。)の生成指示を送信する(S1421)。移行先ストレージ装置2400は、上記生成指示を受信すると(S1422)、移行先LU2420を生成する(S1423)。
次に管理部1111は、移行元LU2420に記憶されているデータの移行先LU2420への複製指示を、移行元ストレージ装置2400及び移行先ストレージ装置2400に送信する(S1431)。移行元ストレージ装置2400及び移行先ストレージ装置2400は、上記複製指示を受信すると(S1432、S1433)、S1414で取得したスナップショットを、移行元LU2420から移行先LU2420に転送する(S1434、S1435)。複製完了後は、移行先ストレージ装置2400から(移行元ストレージ装置2400からでもよい)、スナップショットの複製完了報告が、管理装置1100に送信される(S1436)。管理装置1100は、送られてきた複製完了報告を受信する(S1437)。
尚、移行元ストレージ装置2400が、クライアント装置1000へのサービスを停止させずに上記複製を行う機能(以下、無停止マイグレーション機能と称する。)を備えている場合には、上記複製が行われている間の更新差分のデータが、キャッシュメモリ2503(キャッシュメモリ2103でもよい)や記憶ドライブ2200に管理され、複製完了後は移行先LU2420に管理していた更新差分が反映される。
次に管理部1111は、移行元LU2420が接続しているポートを、移行先LU2420が接続しているポートに引き継ぐための処理を実行する(S1461)。この処理は、例えば移行先LU2420が接続していたiSCSIポートのIPアドレスを、移行元LU2420が接続されるiSCSIポートのIPアドレスに設定することにより行う。尚、この引き継ぎは、例えば移行前後でサービス名等の変更はせず、DNS(Domain Name Server(System))によってIPアドレスを変換するようにするなど、クライアント装置1000側の設定を変更させない方法で行うことが好ましい。
S1462では、管理部1111がS1411で未選択のLU2420が存在するか否かを判定する。存在すれば(S1462:YES)S1411に戻る。存在しなければ(S1462:NO)、移行処理S1234が終了し、図12のS1235に戻る。
尚、以上における移行処理S1234の説明は、ストレージ装置2400が備える、ストレージ装置2400間のデータ複製機能を利用することを前提としているが、移行元LU2420から移行先LU2420へのデータの複製は、データネットワーク5000を構成しているネットワークスイッチが備える複製機能、クライアント装置1000が有する複製機能等を利用して行うようにしてもよい。
再び図12に戻って説明する。S1235では、管理部1111が、各ストレージ装置2400のクラスタ処理部2516に、資源設定指示を送信する(S1235)。各ストレージ装置2400のクラスタ処理部2516は、送られてきた資源設定指示を受信すると(S1241)、変更後における自身のクラスタグループ2812の設定に従い、資源の設定(活性又は不活性の設定)を行う(S1242)。
以上に説明したように、クラスタ管理テーブル2517の内容が変更された場合には、クラスタ処理部2516が、LU2420が対応しているプロトコルに合致する他のストレージ装置2400のLU2420に自動的にデータを移行する。このため、例えば管理装置1100からクラスタ管理テーブル2517を変更することで、クラスタグループ2812の構成を容易かつ柔軟に変更することができる。
<既存のクラスタグループに新たにノードを追加する場合>
次に、図15に示すように、既存のクラスタグループ2812に新たなノード(ストレージ装置2400)を追加する場合について説明する。図16は、この際に行われる処理(ノード追加処理S1600)を説明するフローチャートである。以下、同図とともにノード追加処理S1600について説明する。
まず管理装置1100の管理部1111が、ユーザ又はオペレータから、クラスタグループ2812に、新たなノード(同図では第5ストレージ装置2400)を追加する内容の設定情報を受け付ける(S1611)。このとき、管理部1111は、例えば図9に示したクラスタ管理テーブル2517の設定画面を表示して設定情報を受け付ける。
次に管理部1111は、受け付けた上記設定情報を、管理ネットワーク5001を介して各ストレージ装置2400に送信する(S1612)。各ストレージ装置2400のクラスタ処理部2516は、管理装置1100から送られてきた設定情報を受信し(S1621)、受信した設定情報をクラスタ管理テーブル2517に反映する(S1622)。クラスタ管理テーブル2517に設定情報を反映すると、各ストレージ装置2400のクラスタ処理部2516は、管理装置1100に登録完了通知を送信する(S1623)。
管理部1111は、登録完了通知を受信すると(S1631)、ノードを追加したことにより、データの移行(データの再配置)が必要になるか否かを判定する(S1632)。この判定は、例えば各ストレージ装置2400の各LU2420の利用状況や各LU2420が接続しているポートの性能情報などの、LU2420の負荷情報に基づいて行われる。データ移行が必要と判定した場合(S1632:YES)、管理部1111は、データの移行処理を開始する(S1633)。この移行処理S1633は前述した図14に示した移行処理S1234と同様である。
次に管理部1111は、各ストレージ装置2400のクラスタ処理部2516に、資源設定指示を送信する(S1635)。各ストレージ装置2400のクラスタ処理部2516は、送られてきた資源設定指示を受信すると(S1641)、変更後における自身のクラスタグループ2812の設定に従い資源の設定(活性又は不活性の設定)を行う(S1642)。
このように、既存のクラスタグループ2812に新たにストレージ装置2400を追加するようにクラスタ管理テーブル2517の内容が変更された場合には、クラスタ処理部2516がLU2420の負荷情報に応じてデータの再配置が必要か否かを判定し、再配置が必要な場合は自動的にLU2420間でデータを移行する。このように、以上の方法によれば、既に構成されているクラスタグループ2812に容易に新たなストレージ装置2400を追加することができる。また再配置に際して負荷分散を図ることでストレージシステム1の性能を最適化することができる。
<クラスタグループからノードを削除する場合>
次に、図17に示すように、既存のクラスタグループ2812からノードを削除する場合について説明する。図18は、この際に行われる処理(ノード削除処理S1800)を説明するフローチャートである。以下、同図とともにノード削除処理S1800について説明する。
まず管理装置1100の管理部1111が、ユーザ又はオペレータから、クラスタグループ2812からノード(同図では第1ストレージ装置2400)を削除する内容の設定情報を受け付ける(S1811)。このとき、管理部1111は、例えば図9に示したクラスタ管理テーブル2517の設定画面を表示して設定情報を受け付ける。
次に管理部1111は、受け付けた設定情報を、管理ネットワーク5001を介して各ストレージ装置2400に送信する(S1812)。各ストレージ装置2400のクラスタ処理部2516は、管理装置1100から送られてきた設定情報を受信し(S1821)、受信した設定情報をクラスタ管理テーブル2517に反映する(S1822)。クラスタ管理テーブル2517に設定情報を反映すると、各ストレージ装置2400のクラスタ処理部2516は、管理装置1100に登録完了通知を送信する(S1823)。
登録完了通知を受信すると(S1831)、管理部1111は、削除されるストレージ装置2400のLU2420(削除されるLU2420)に格納されていたデータの移行先となるストレージ装置2400(以下、移行先ストレージ装置2400と称する。)を決定する(S1832)。この決定は、管理部1111が、上記設定変更後において、削除されるLU2420の用途に適合するプロトコルをサポートしているストレージ装置2400のうちの一つを、クラスタ管理テーブル2517から選択することにより行われる。尚、このときに複数の移行先ストレージ装置2400を選択できる場合には、管理部1111は、例えばラウンドロビン方式、負荷分散又は記憶領域の残容量の観点等から、最適なものを一つ選択する。
次に管理部1111が、削除される第1ストレージ装置2400のLU2420に格納されていたデータの、S1832で決定した他のストレージ装置2400のLU2420への移行を開始する(S1833)。この処理は前述した図14に示した移行処理S1234と同様である。
以上のように、プロトコルごとのクラスタグループ2812が既に構成されている状態で既に構成されているクラスタグループ2812からストレージ装置2400を削除する内容にクラスタ管理テーブル2517が変更された場合には、クラスタ処理部2516が、当該ストレージ装置2400が担当していたプロトコルを担当している他のストレージ装置2400のLU2420にデータを移行させる。これによれば、既に構成されているクラスタグループ2812から容易にストレージ装置2400を削除することができる。
<クラスタグループ間でノードを移動させる場合>
次に図19に示すように、既存のあるクラスタグループ2812に所属しているノード(ストレージ装置2400)を、既存の他のクラスタグループ2812に移動させる場合について説明する。図20は、この際に行われる処理(ノード移動処理S2000)を説明するフローチャートである。以下、同図とともにノード移動処理S2000について説明する。
まず管理装置1100の管理部1111は、ユーザ又はオペレータから、クラスタグループ2812に、ノードを移動(図19は、NASクラスタのクラスタグループ2812に所属する第2ストレージ装置2400を、クラスタグループ2812(iSCSIクラスタ)に移動する場合)する内容の設定情報を受け付ける(S2011)。このとき、管理部1111は、例えば図9に示したクラスタ管理テーブル2517の設定画面を表示して、設定情報を受け付ける。
次に管理部1111は、受け付けた設定情報を、管理ネットワーク5001を介して各ストレージ装置2400に送信する(S2012)。各ストレージ装置2400のクラスタ処理部2516は、管理装置1100から送られてきた設定情報を受信し(S2021)、受信した設定情報をクラスタ管理テーブル2517に反映する(S2022)。クラスタ管理テーブル2517に設定情報を反映すると、各ストレージ装置2400のクラスタ処理部2516は、管理装置1100に登録完了通知を送信する(S2023)。
管理部1111は、登録完了通知を受信すると(S2031)、データの移行(データの再配置)が必要か否かを判定する(S2032)。この判定は、例えば各ストレージ装置2400の各LU2420の利用状況や各LU2420が接続しているポートの性能情報などの、LU2420の負荷情報に基づいて行われる。データ移行が必要と判定した場合(S2032:YES)、管理部1111は、データの移行処理を開始する(S2033)。この処理は図14に示した移行処理S1234と同様である。
次に管理部1111は、各ストレージ装置2400のクラスタ処理部2516に、資源設定指示を送信する(S2035)。各ストレージ装置2400のクラスタ処理部2516は、資源設定指示を受信すると(S2041)、変更後における自身のクラスタグループ2812の設定に従い、資源の設定(活性又は不活性の設定)を行う(S2042)。
以上のように、プロトコルごとのクラスタグループ2812が既に構成されている状態で、あるクラスタグループ2812を構成しているストレージ装置2400が、他のクラスタグループ2812に移行する内容にクラスタ管理テーブル2517の内容が変更された場合には、クラスタ処理部2516がLU2420の負荷情報に応じてデータの再配置が必要か否かを判定し、再配置が必要な場合は自動的にLU2420間でデータを移行する。このようにクラスタ管理テーブル2517の内容を変更することで、あるクラスタグループ2812を構成しているストレージ装置2400を、他のクラスタ群に容易に移行させることができる。また再配置に際して負荷分散を図ることにより、ストレージシステム1の性能を最適化することができる。
以上に説明したように、本実施形態のストレージシステム1によれば、クライアント装置1000から送信されてくる少なくとも二つ以上のプロトコルに従ったデータ入出力要求に応答可能な通信サーバ2514(プロトコル処理部)を備えるストレージ装置2400(ユニファイドストレージ)を用いてプロトコルごとのクラスタグループ2812(クラスタ群)を容易に構成することができる。そしてこれによりプロトコルの使用状況に応じた性能分離や、ストレージシステム1全体の性能の最適化を図ることができる。
以上、本実施形態について説明したが、上記実施形態は本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物も含まれる。

Claims (14)

  1. 外部装置から送られてくるデータ入出力要求に応じて、記憶装置へのデータの書き込み、又は前記記憶装置からのデータの読み出しを行うストレージ制御部と、
    前記データ入出力要求に対する処理の結果を前記外部装置に応答し、前記外部装置から送信される、少なくとも二つ以上のプロトコルに従った前記データ入出力要求に応答可能なプロトコル処理部と
    を備えた複数のストレージ装置を含み、
    前記ストレージ装置の夫々は、他の前記ストレージ装置とともに前記外部装置に対してクラスタを構成する、クラスタ処理部を備え、
    前記クラスタ処理部は、前記プロトコルごとのクラスタ群を構成可能な
    ストレージシステム。
  2. 請求項1に記載のストレージシステムであって、
    前記ストレージ装置は、前記ストレージ装置の夫々が所属している前記クラスタ群が担当する前記プロトコルが管理されたクラスタ管理テーブルを記憶しており、
    前記クラスタ処理部は、前記クラスタ管理テーブルに従って、前記外部装置から受信した前記データ入出力要求を、他の前記ストレージ装置に、フォワーディング又はリダイレクションすることにより、前記プロトコルごとのクラスタ群を構成する
    ストレージシステム。
  3. 請求項1に記載のストレージシステムであって、
    前記クラスタ処理部は、前記プロトコルごとのクラスタ群を構成した場合に、
    前記ストレージ装置における前記プロトコルを処理するための資源のうち、前記ストレージ装置が所属している前記クラスタ群が担当する前記プロトコル以外の前記プロトコルを実現するための資源を不活性にする
    ストレージシステム。
  4. 請求項1に記載のストレージシステムであって、
    前記ストレージ装置は、前記ストレージ装置の夫々が所属している前記クラスタ群が担当する前記プロトコルが管理されたクラスタ管理テーブルを記憶しており、
    前記ストレージ装置は、論理的に設定された記憶領域である論理ボリュームを単位として前記記憶装置の記憶領域を前記外部装置に提供し、
    前記クラスタ処理部は、前記プロトコルごとのクラスタ群が既に構成されている状態で前記クラスタ管理テーブルの内容が変更された場合に、前記論理ボリュームが対応していた前記プロトコルが、当該論理ボリュームが所属している前記ストレージ装置が前記変更後に担当することとなる前記プロトコルに合致していない場合に、前記論理ボリュームのデータを、前記変更後に当該論理ボリュームが対応していた前記プロトコルを担当することとなる他の前記ストレージ装置の前記論理ボリュームに移行させる
    ストレージシステム。
  5. 請求項1に記載のストレージシステムであって、
    前記ストレージ装置は、前記ストレージ装置の夫々が所属している前記クラスタ群が担当する前記プロトコルが管理されたクラスタ管理テーブルを記憶しており、
    前記ストレージ装置は、論理的に設定された記憶領域である論理ボリュームを単位として前記記憶装置の記憶領域を前記外部装置に提供し、
    前記クラスタ処理部は、前記プロトコルごとのクラスタ群が既に構成されている状態で、既に構成されている前記クラスタ群に新たに前記ストレージ装置を追加する内容に前記クラスタ管理テーブルの内容が変更された場合に、前記論理ボリュームの負荷情報に応じてデータの再配置が必要か否かを判定し、再配置が必要な場合は前記論理ボリューム間でデータを移行させる
    ストレージシステム。
  6. 請求項1に記載のストレージシステムであって、
    前記ストレージ装置は、前記ストレージ装置の夫々が所属している前記クラスタ群が担当する前記プロトコルが管理されたクラスタ管理テーブルを記憶しており、
    前記ストレージ装置は、論理的に設定された記憶領域である論理ボリュームを単位として前記記憶装置の記憶領域を前記外部装置に提供し、
    前記クラスタ処理部は、前記プロトコルごとのクラスタ群が既に構成されている状態で、既に構成されている前記クラスタ群から前記ストレージ装置を削除する内容に前記クラスタ管理テーブルの内容が変更された場合に、削除される前記ストレージ装置の前記論理ボリュームのデータを、当該ストレージ装置が担当していた前記プロトコルを担当している他のストレージ装置の前記論理ボリュームに移行させる
    ストレージシステム。
  7. 請求項1に記載のストレージシステムであって、
    前記ストレージ装置は、前記ストレージ装置の夫々が所属している前記クラスタ群が担当する前記プロトコルが管理されたクラスタ管理テーブルを記憶しており、
    前記ストレージ装置は、論理的に設定された記憶領域である論理ボリュームを単位として前記記憶装置の記憶領域を前記外部装置に提供し、
    前記クラスタ処理部は、前記プロトコルごとのクラスタ群が既に構成されている状態で、ある前記クラスタ群を構成している前記ストレージ装置が、他の前記クラスタ群に移行する内容に前記クラスタ管理テーブルの内容が変更された場合に、前記論理ボリュームの負荷情報に応じてデータの再配置が必要か否かを判定し、再配置が必要な場合は前記論理ボリューム間でデータを移行させる
    ストレージシステム。
  8. 請求項1に記載のストレージシステムであって、
    前記プロトコルは、iSCSI(Internet Small Computer System Interface)、NFS/CIFS(NFS: Network File System,CIFS: Common Internet File System)、FC(Fibre Channel)のうちの少なくともいずれかである
    ストレージシステム。
  9. 外部装置から送られてくるデータ入出力要求に応じて、記憶装置へのデータの書き込み、又は前記記憶装置からのデータの読み出しを行うストレージ制御部と、
    前記データ入出力要求に対する処理の結果を前記外部装置に応答し、前記外部装置から送信される、少なくとも二つ以上のプロトコルに従った前記データ入出力要求に応答可能なプロトコル処理部と
    を備えた複数のストレージ装置を含み、
    前記ストレージ装置の夫々は、他の前記ストレージ装置とともに前記外部装置に対してクラスタを構成する、クラスタ処理部を備え、
    前記クラスタ処理部は、前記プロトコルごとのクラスタ群を構成可能な
    ストレージシステムの制御方法であって、
    前記ストレージ装置が、前記ストレージ装置の夫々が所属している前記クラスタ群が担当する前記プロトコルが管理されたクラスタ管理テーブルを記憶し、
    前記クラスタ処理部は、前記クラスタ管理テーブルに従って、前記外部装置から受信した前記データ入出力要求を、他の前記ストレージ装置に、フォワーディング又はリダイレクションすることにより、前記プロトコルごとのクラスタ群を構成する
    ストレージシステムの制御方法。
  10. 請求項9に記載のストレージシステムの制御方法であって、
    前記クラスタ処理部は、前記プロトコルごとのクラスタ群を構成した場合に、
    前記ストレージ装置における前記プロトコルを処理するための資源のうち、前記ストレージ装置が所属している前記クラスタ群が担当する前記プロトコル以外の前記プロトコルを実現するための資源を不活性にする
    ストレージシステムの制御方法。
  11. 請求項9に記載のストレージシステムの制御方法であって、
    前記ストレージ装置は、論理的に設定された記憶領域である論理ボリュームを単位として前記記憶装置の記憶領域を前記外部装置に提供し、
    前記クラスタ処理部は、前記プロトコルごとのクラスタ群が既に構成されている状態で前記クラスタ管理テーブルの内容が変更された場合に、前記論理ボリュームが対応していた前記プロトコルが、当該論理ボリュームが所属している前記ストレージ装置が前記変更後に担当することとなる前記プロトコルに合致していない場合に、前記論理ボリュームのデータを、前記変更後に当該論理ボリュームが対応していた前記プロトコルを担当することとなる他の前記ストレージ装置の前記論理ボリュームに移行させる
    ストレージシステムの制御方法。
  12. 請求項9に記載のストレージシステムの制御方法であって、
    前記ストレージ装置は、論理的に設定された記憶領域である論理ボリュームを単位として前記記憶装置の記憶領域を前記外部装置に提供し、
    前記クラスタ処理部は、前記プロトコルごとのクラスタ群が既に構成されている状態で、既に構成されている前記クラスタ群に新たに前記ストレージ装置を追加する内容に前記クラスタ管理テーブルの内容が変更された場合に、前記論理ボリュームの負荷情報に応じてデータの再配置が必要か否かを判定し、再配置が必要な場合は前記論理ボリューム間でデータを移行させる
    ストレージシステムの制御方法。
  13. 請求項9に記載のストレージシステムの制御方法であって、
    前記ストレージ装置は、論理的に設定された記憶領域である論理ボリュームを単位として前記記憶装置の記憶領域を前記外部装置に提供し、
    前記クラスタ処理部は、前記プロトコルごとのクラスタ群が既に構成されている状態で、既に構成されている前記クラスタ群から前記ストレージ装置を削除する内容に前記クラスタ管理テーブルの内容が変更された場合に、削除される前記ストレージ装置の前記論理ボリュームのデータを、当該ストレージ装置が担当していた前記プロトコルを担当している他のストレージ装置の前記論理ボリュームに移行させる
    ストレージシステムの制御方法。
  14. 請求項9に記載のストレージシステムの制御方法であって、
    前記ストレージ装置は、論理的に設定された記憶領域である論理ボリュームを単位として前記記憶装置の記憶領域を前記外部装置に提供し、
    前記クラスタ処理部は、前記プロトコルごとのクラスタ群が既に構成されている状態で、ある前記クラスタ群を構成している前記ストレージ装置が、他の前記クラスタ群に移行する内容に前記クラスタ管理テーブルの内容が変更された場合に、前記論理ボリュームの負荷情報に応じてデータの再配置が必要か否かを判定し、再配置が必要な場合は前記論理ボリューム間でデータを移行させる
    ストレージシステムの制御方法。
JP2011547070A 2009-06-26 2009-06-26 ストレージシステム、及びストレージシステムの制御方法 Expired - Fee Related JP5255127B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/002947 WO2010150321A1 (en) 2009-06-26 2009-06-26 Storage system and controlling methods for the same

Publications (2)

Publication Number Publication Date
JP2012517045A true JP2012517045A (ja) 2012-07-26
JP5255127B2 JP5255127B2 (ja) 2013-08-07

Family

ID=41559684

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011547070A Expired - Fee Related JP5255127B2 (ja) 2009-06-26 2009-06-26 ストレージシステム、及びストレージシステムの制御方法

Country Status (5)

Country Link
US (2) US8347028B2 (ja)
EP (1) EP2446345A1 (ja)
JP (1) JP5255127B2 (ja)
CN (1) CN102341777B (ja)
WO (1) WO2010150321A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9851925B2 (en) 2014-09-25 2017-12-26 Fujitsu Limited Data allocation control apparatus and data allocation control method

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8904226B2 (en) * 2010-08-26 2014-12-02 Cleversafe, Inc. Migrating stored copies of a file to stored encoded data slices
US9253016B2 (en) 2010-11-02 2016-02-02 International Business Machines Corporation Management of a data network of a computing environment
US8959220B2 (en) 2010-11-02 2015-02-17 International Business Machines Corporation Managing a workload of a plurality of virtual servers of a computing environment
US9081613B2 (en) 2010-11-02 2015-07-14 International Business Machines Corporation Unified resource manager providing a single point of control
US8984109B2 (en) 2010-11-02 2015-03-17 International Business Machines Corporation Ensemble having one or more computing systems and a controller thereof
US8966020B2 (en) 2010-11-02 2015-02-24 International Business Machines Corporation Integration of heterogeneous computing systems into a hybrid computing system
TWI467365B (zh) * 2011-04-20 2015-01-01 Taejin Infotech Co Ltd 受RAID控制的半導體儲存裝置及其形成方法以及PCI-Express類型的受RAID控制的半導體儲存裝置
US9253275B2 (en) * 2012-01-30 2016-02-02 International Business Machines Corporation Cognitive dynamic allocation in caching appliances
JP2013171305A (ja) * 2012-02-17 2013-09-02 Fujitsu Ltd ストレージ装置、ストレージシステム、ストレージ管理方法及びストレージ管理プログラム
US9063892B1 (en) * 2012-03-31 2015-06-23 Emc Corporation Managing restore operations using data less writes
US8791980B2 (en) * 2012-06-05 2014-07-29 Tangome, Inc. Controlling CPU usage to balance fast and slow devices
US8799746B2 (en) 2012-06-13 2014-08-05 Caringo, Inc. Erasure coding and replication in storage clusters
US8762353B2 (en) 2012-06-13 2014-06-24 Caringo, Inc. Elimination of duplicate objects in storage clusters
US9104560B2 (en) 2012-06-13 2015-08-11 Caringo, Inc. Two level addressing in storage clusters
US9330003B1 (en) 2012-06-15 2016-05-03 Qlogic, Corporation Intelligent adapter for maintaining cache coherency
US9043575B2 (en) * 2013-03-15 2015-05-26 International Business Machines Corporation Managing CPU resources for high availability micro-partitions
US9430412B2 (en) * 2013-06-26 2016-08-30 Cnex Labs, Inc. NVM express controller for remote access of memory and I/O over Ethernet-type networks
US10063638B2 (en) 2013-06-26 2018-08-28 Cnex Labs, Inc. NVM express controller for remote access of memory and I/O over ethernet-type networks
US9785355B2 (en) 2013-06-26 2017-10-10 Cnex Labs, Inc. NVM express controller for remote access of memory and I/O over ethernet-type networks
US9785356B2 (en) 2013-06-26 2017-10-10 Cnex Labs, Inc. NVM express controller for remote access of memory and I/O over ethernet-type networks
CN103428290A (zh) * 2013-08-19 2013-12-04 北京网秦天下科技有限公司 数据推送方法和设备
KR101547317B1 (ko) * 2013-09-30 2015-08-26 주식회사 유니테스트 스토리지 테스트 장치에서 로직 블록 어드레스와 데이터 버퍼 주소를 이용한 불량 블록 검출 시스템
CN103546572B (zh) * 2013-10-30 2017-04-05 北京荣之联科技股份有限公司 一种多云存储联网系统和方法
US9454305B1 (en) 2014-01-27 2016-09-27 Qlogic, Corporation Method and system for managing storage reservation
US9716618B2 (en) * 2014-04-22 2017-07-25 International Business Machines Corporation Script termination
US9423980B1 (en) 2014-06-12 2016-08-23 Qlogic, Corporation Methods and systems for automatically adding intelligent storage adapters to a cluster
US9436654B1 (en) 2014-06-23 2016-09-06 Qlogic, Corporation Methods and systems for processing task management functions in a cluster having an intelligent storage adapter
US9477424B1 (en) 2014-07-23 2016-10-25 Qlogic, Corporation Methods and systems for using an intelligent storage adapter for replication in a clustered environment
US9460017B1 (en) 2014-09-26 2016-10-04 Qlogic, Corporation Methods and systems for efficient cache mirroring
US10554749B2 (en) 2014-12-12 2020-02-04 International Business Machines Corporation Clientless software defined grid
US10469580B2 (en) * 2014-12-12 2019-11-05 International Business Machines Corporation Clientless software defined grid
US9483207B1 (en) 2015-01-09 2016-11-01 Qlogic, Corporation Methods and systems for efficient caching using an intelligent storage adapter
US10372329B1 (en) * 2015-11-09 2019-08-06 Delphix Corp. Managing storage devices in a distributed storage system
US9596135B1 (en) 2016-08-31 2017-03-14 Red Hat, Inc. Configuring new nodes for using a storage system managed by a unified storage manager
CN108228079B (zh) * 2016-12-21 2021-01-22 伊姆西Ip控股有限责任公司 存储管理方法和设备
CN109308163A (zh) * 2017-07-26 2019-02-05 英业达科技有限公司 非挥发性记忆体磁区规划方法
US10700711B1 (en) 2017-11-03 2020-06-30 Caringo Inc. Multi-part upload and editing of erasure-coded objects
CN109936611B (zh) * 2017-12-19 2021-08-24 中标软件有限公司 邮件的数据迁移方法
KR20200014991A (ko) * 2018-08-02 2020-02-12 사단법인 엑시콘산학공동연구소 스토리지 프로토콜 매칭 장치 및 그 방법
US11323552B2 (en) * 2019-04-19 2022-05-03 EMC IP Holding Company LLC Automatic security configurations in disaster recovery
US11204886B2 (en) * 2019-06-25 2021-12-21 Western Digital Technologies, Inc. Management of zoned storage drives
CN112783959B (zh) * 2020-12-24 2023-06-02 杭州海康威视系统技术有限公司 一种基于多类异构存储系统的数据传输方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000148651A (ja) * 1998-11-10 2000-05-30 Hitachi Ltd 共有ディスク装置
JP2004348324A (ja) * 2003-05-21 2004-12-09 Nec System Technologies Ltd ストレージ装置及びその制御方法
JP2006011932A (ja) * 2004-06-28 2006-01-12 Hitachi Ltd ストレージ装置及びストレージ装置の排他制御方法
WO2008137047A2 (en) * 2007-04-30 2008-11-13 Netapp, Inc. Method and apparatus for offloading network processes in a computer storage system

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040078542A1 (en) * 2002-10-14 2004-04-22 Fuller William Tracy Systems and methods for transparent expansion and management of online electronic storage
JP4437650B2 (ja) 2003-08-25 2010-03-24 株式会社日立製作所 ストレージシステム
US7209967B2 (en) * 2004-06-01 2007-04-24 Hitachi, Ltd. Dynamic load balancing of a storage system
US7886299B2 (en) * 2004-06-01 2011-02-08 Hitachi, Ltd. Method of dynamically balancing workload of a storage system
JP2006285808A (ja) 2005-04-04 2006-10-19 Hitachi Ltd ストレージシステム
US8073899B2 (en) 2005-04-29 2011-12-06 Netapp, Inc. System and method for proxying data access commands in a storage system cluster
JP2008257572A (ja) 2007-04-06 2008-10-23 Hitachi Ltd 論理区画に動的に資源割り当てを行うストレージシステム及びストレージシステムの論理分割方法
US20100011368A1 (en) * 2008-07-09 2010-01-14 Hiroshi Arakawa Methods, systems and programs for partitioned storage resources and services in dynamically reorganized storage platforms

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000148651A (ja) * 1998-11-10 2000-05-30 Hitachi Ltd 共有ディスク装置
JP2004348324A (ja) * 2003-05-21 2004-12-09 Nec System Technologies Ltd ストレージ装置及びその制御方法
JP2006011932A (ja) * 2004-06-28 2006-01-12 Hitachi Ltd ストレージ装置及びストレージ装置の排他制御方法
WO2008137047A2 (en) * 2007-04-30 2008-11-13 Netapp, Inc. Method and apparatus for offloading network processes in a computer storage system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9851925B2 (en) 2014-09-25 2017-12-26 Fujitsu Limited Data allocation control apparatus and data allocation control method

Also Published As

Publication number Publication date
US20130097400A1 (en) 2013-04-18
US20110138136A1 (en) 2011-06-09
JP5255127B2 (ja) 2013-08-07
EP2446345A1 (en) 2012-05-02
WO2010150321A1 (en) 2010-12-29
CN102341777A (zh) 2012-02-01
CN102341777B (zh) 2014-09-10
US8347028B2 (en) 2013-01-01

Similar Documents

Publication Publication Date Title
JP5255127B2 (ja) ストレージシステム、及びストレージシステムの制御方法
US11314543B2 (en) Architecture for implementing a virtualization environment and appliance
US8572164B2 (en) Server system and method for controlling information system
US8566550B2 (en) Application and tier configuration management in dynamic page reallocation storage system
US9262087B2 (en) Non-disruptive configuration of a virtualization controller in a data storage system
JP2007188341A (ja) 記憶デバイス制御装置
US20130218847A1 (en) File server apparatus, information system, and method for controlling file server apparatus
US10855556B2 (en) Methods for facilitating adaptive quality of service in storage networks and devices thereof
US9158637B2 (en) Storage control grid and method of operating thereof
US8423713B2 (en) Cluster type storage system and method of controlling the same
US20140325146A1 (en) Creating and managing logical volumes from unused space in raid disk groups
US20120271996A1 (en) Memory resource provisioning using sas zoning
US20180107409A1 (en) Storage area network having fabric-attached storage drives, san agent-executing client devices, and san manager
WO2019053565A1 (en) STORAGE SYSTEM USING CLOUD STORAGE AS A ROW
WO2019053533A1 (en) FINE AND DYNAMIC ALLOCATION USING CLOUD RANKS
US20110258406A1 (en) Storage apparatus and control method of storage apparatus
US10635332B2 (en) Managing data storage arrays on behalf of host computers via specialized LUN-related queries
US9304951B1 (en) Policy based input/output dispatcher
US10242053B2 (en) Computer and data read method
US20180173721A1 (en) Storage system and storage control method
JP4258768B2 (ja) ファイル配置システム
KR102227189B1 (ko) 서버에 장착되어 블록레벨 스토리지 및 리소스를 공유하는 모듈
US11481147B1 (en) Buffer allocation techniques
US20230221890A1 (en) Concurrent handling of multiple asynchronous events in a storage system
JP2009258825A (ja) ストレージシステム、仮想化装置、及び計算機システム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130418

R150 Certificate of patent or registration of utility model

Ref document number: 5255127

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160426

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees