JP4871546B2 - ストレージシステム - Google Patents

ストレージシステム Download PDF

Info

Publication number
JP4871546B2
JP4871546B2 JP2005240353A JP2005240353A JP4871546B2 JP 4871546 B2 JP4871546 B2 JP 4871546B2 JP 2005240353 A JP2005240353 A JP 2005240353A JP 2005240353 A JP2005240353 A JP 2005240353A JP 4871546 B2 JP4871546 B2 JP 4871546B2
Authority
JP
Japan
Prior art keywords
file management
load
storage system
logical unit
file
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005240353A
Other languages
English (en)
Other versions
JP2007058346A (ja
Inventor
和重 永松
廣二 渋谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2005240353A priority Critical patent/JP4871546B2/ja
Priority to US11/266,343 priority patent/US7987466B2/en
Priority to EP06250921A priority patent/EP1758017A1/en
Priority to CNB2006100586329A priority patent/CN100440125C/zh
Publication of JP2007058346A publication Critical patent/JP2007058346A/ja
Priority to US13/174,919 priority patent/US8220000B2/en
Application granted granted Critical
Publication of JP4871546B2 publication Critical patent/JP4871546B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0653Monitoring storage devices or systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明はストレージシステムに関し、特に、ファイル管理に好適なストレージシステムに関する。
特開2003−208362号広報には、ブロックI/OインターフェースとファイルI/Oインターフェースとを備えたSAN/NAS統合ストレージシステムが開示されている。ブロックI/Oインターフェースは、ディスクブロック単位のI/Oリクエスト(ブロックアクセス要求)を処理する。FC(Fibre Channel)、SCSI(Small Computer System Interface)、iSCSI(internet SCSI)、ESCON(Enterprise System Connection:登録商標)等は、ブロックI/Oインターフェースに属する。複数のホストシステムと複数のストレージシステムがファイバチャネル等のブロックI/Oインターフェースを介して相互に接続されたシステムは、SAN(Storage Area Network)と呼ばれる。
一方、ファイルI/Oインターフェースは、ファイル転送プロトコルに基づくファイル単位のI/Oリクエスト(ファイルアクセス要求)を処理する。ファイルサーバとクライアントとの間のファイル転送プロトコルとして、NFS(Network File System)、CIFS(Common Interface File System)等が知られている。ファイルI/Oインターフェースを介して、IP(Internet Protocol)ネットワーク等のネットワークに接続できるストレージシステムは、NAS(Network Attached Storage)と呼ばれる。
SAN/NAS統合ストレージシステムは、SANやIPネットワーク等を介して複数のホストシステムからI/Oリクエストを受け付ける。
従来では、ストレージシステム内のディスクドライブのウェイルスチェックやデータバックアップ等のフィル単位でのバッチ処理をホストシステムが行っていた。
特開2003−208362号広報
しかし、ホストシステムがこのようなフィル単位のバッチ処理を行うには、ディスクドライブ内のファイルを全て読み出す必要があるので、ホストシステムの負荷は非常に重くなる。ホストシステムがこのような負荷の重い処理をしながらメール等のアプリケーションサービスを提供すると、アプリケーションサービスの処理性能が低下する。
また、SANやIPネットワーク等を介して複数のホストシステムに接続するSAN/NAS統合ストレージシステムでは、上述したファイル単位のバッチ処理が複数のホストシステムによって、同じ時間帯に行われる場合があり、ストレージシステムへの負荷が集中する。ストレージシステムに負荷が集中すると、ストレージシステム自身の処理性能も低下する。
そこで、本発明は、このような問題を解決し、ホストシステムに高負荷を掛けることなく、ファイル単位でのバッチ処理を行うことができ、しかも、ストレージシステムの負荷を分散させることのできるストレージシステムを提案することを課題とする。
上記の課題を解決するため、本発明のストレージシステムは、複数の論理ユニットと、各々の論理ユニットに格納されている複数のファイルをファイル単位でファイル管理するファイル管理アプリケーションソフトウェアと、ストレージシステムのリソースの負荷を監視する負荷監視モジュールと、負荷監視モジュールが監視する負荷に応じてファイル管理アプリケーションソフトウェアを制御するファイル管理制御モジュールと、を備える。ファイル管理制御モジュールは、ストレージシステムのリソースの負荷に応じてファイル管理アプリケーションソフトウェアを制御するので、ストレージシステムの負荷を分散させることができる。
ファイル管理アプリケーションソフトウェアとして、ストレージシステムのリソースの負荷が重くなる処理、例えば、複数のファイルを一括してファイル管理するものが好適である。このような負荷の重い処理をホストシステムに替わってストレージシステムが実行することで、ホストシステムの負荷を低減できる。
リソースの負荷として、例えば、各々の論理ユニットのI/O負荷を用いることができる。
本発明の好適な形態として、ストレージシステムは、各々の論理ユニットのファイル管理の優先順位と、各々の論理ユニットのI/O負荷と、各々の論理ユニットのファイル管理の実行順番とを管理するファイル管理テーブルを更に備える。ファイル管理制御モジュールは、I/O負荷が所定の閾値以下の論理ユニットのファイル管理の優先順位を繰り上げて、実行順番を決定する。ファイル管理の優先順位は、例えば、管理者が予め設定しておくことができる。ファイル管理の優先順位と論理ユニットのI/O負荷に応じて、ファイル管理の実行順番を決定することで、リソースの負荷を分散させることができる。
ファイル管理制御モジュールは、ファイル管理アプリケーションソフトウェアの起動/停止制御、ファイル管理の対象となる論理ユニットのマウント/アンマウント制御、及びファイル管理のレジューム制御を行う。
ファイル管理制御モジュールは、プロセッサ使用率が所定の閾値以上になると、論理ユニットをアンマウントし、論理ユニットのファイル管理を一時中断する。これにより、高負荷の論理ユニットのファイル管理を後回しにすることで、リソースの負荷を分散させることができる。
ファイル管理制御モジュールは、プロセッサ使用率が所定の閾値未満になると、アンマウントされた論理ユニットを再びマウントし、論理ユニットのファイル管理を再開する。
ファイル管理制御モジュールは、論理ユニットのファイル管理を中断した回数が所定の閾値以上になると、論理ユニットのファイル管理を中止し、他の論理ユニットのファイル管理を行うようにしてもよい。ファイル管理を中断した回数が所定の閾値以上になるということは、その論理ユニットは恒常的に高負荷状態と考えられるので、他の論理ユニットのファイル管理を優先するのが好ましい。
本発明の好適な形態として、ストレージシステムは、単一又は複数のブロックI/Oインターフェースと、単一又は複数のファイルI/Oインターフェースとを更に備える。複数の論理ユニットのうち何れかの論理ユニットは、ブロックI/Oインターフェースを介して、FC−SANクライアントやiSCSIクライアント等のSANクライアントに提供され、複数の論理ユニットのうち他の論理ユニットは、ファイルI/Oインターフェースを介してNASクライアントに提供される。
ファイル管理アプリケーションソフトウェア、負荷監視モジュール、ファイル管理制御モジュールは、例えば、ファイルI/Oインターフェースに実装されるのが好ましい。
ファイルI/Oインターフェースは、ファイルI/Oインターフェースの負荷が所定の閾値以上になると、他のファイルI/Oインターフェース又はブロックI/Oインターフェースを介して論理ユニットをマウントし、ファイル管理を制御する。これにより、ストレージシステムの負荷を分散させることができる。
ストレージシステムは、SANクライアント又はNASクライアントからの要求に応答してI/O処理を行い、そのバックグランドでファイル管理を行う。上述の如く、ストレージシステムのリソースの負荷を分散させておくことで、ホストシステムからの通常業務に基づくI/Oリクエストに応答しつつ、ファイル管理も同時に無理なく行うことができる。
ファイル管理制御モジュールは、ファイル管理の処理結果を管理者にメール通知するのが好ましい。例えば、論理ユニットが高負荷のためファイル管理を中断した旨の報告や、ウィルスチェックの結果、ウィルスを発見した旨の報告等である。
ファイル管理アプリケーションソフトウェアとして、例えば、ウィルスチェックソフトウェア、又はバックアップソフトウェア等を用いることができる。
本発明によれば、ホストシステムに高負荷を掛けることなく、ファイル単位でのバッチ処理を行うことができ、しかも、ストレージシステムの負荷を分散させることができる。
以下、各図を参照しながら本発明の実施形態について説明する。
図1は本実施形態に係るストレージシステム10のシステム構成を示す。ストレージシステム10は、FC−SAN(Fibre Channel Storage Area Network)500を介してホストシステム700に接続するとともに、IPネットワーク600を介してホストシステム800及びメールサーバ900に接続するSAN/NAS統合ストレージシステムである。
ホストシステム700は、ファイバチャネルプロトコル等に基づいて、ストレージシステム10にブロックアクセス要求を行うSANクライアントである。ホストシステム800は、NFS又はCIFS等のファイル転送プロトコルに基づいて、ストレージシステム10にファイルアクセス要求を行うNASクライアントである。ホストシステム700,800には、例えば、Webアプリケーションソフトウェア、ストリーミングアプリケーションソフトウェア、Eビジネスアプリケーションソフトウェア等が実装されている。ホストシステム700,800は、パーソナルコンピュータ、ワークステーション、メインフレームコンピュータ等である。ホストシステム700,800には、Windows(登録商標)系のシステムとUNIX(登録商標)系のシステムとが混在していてもよい。メールサーバ900は、ストレージシステム10のファイル管理の処理結果を管理者に知らせる。
ストレージシステム10は、記憶制御装置70と記憶装置80とを備える。記憶制御装置70は、複数のチャネルアダプタ20,30,40、相互結合網50、キャッシュメモリ51、共有メモリ52、及び複数のディスクアダプタ60を備える。記憶装置80は、複数の記憶デバイス81を備える。
チャネルアダプタ(CHA)20は、FC−SAN500に接続する複数のポート21を備えており、ファイバチャネルプロトコルに基づくブロックI/Oインターフェース(SANインターフェース)をホストシステム700に提供する。チャネルアダプタ(CHI)30は、IPネットワーク600に接続する複数のポート31を備えており、iSCSI(internet Small Computer System Interface)プロトコルに基づくブロックI/Oインターフェース(iSCSIインターフェース)をホストシステム800に提供する。チャネルアダプタ(CHN)40は、FC−SAN500又はIPネットワーク600に接続する複数のポート41を備えており、ファイル転送プロトコルに基づくファイルI/Oインターフェース(NASインターフェース)をホストシステム700,800に提供する。
チャネルアダプタ40は、更にNASプロセッサ42と、ストレージコントローラ43とを備える。NASプロセッサ42は、ホストシステム700,800からのファイルアクセス要求に応答して、ファイルアクセス処理を行うための専用プロセッサである。NASプロセッサ42によるファイルアクセス処理により、チャネルアダプタ40は、ファイルサーバとして機能する。ストレージコントローラ43は、ファイルアクセス要求に対する応答として、記憶デバイス81にI/O要求を行う。ストレージコントローラ43は、キャッシュメモリ51、共有メモリ52、及びディスクアダプタ60との間でデータやコマンドの送受信を行う。
チャネルアダプタ20,30,40は、CPUやメモリを搭載した一枚又は複数の回路基板を一体化したコンピュータシステム(アダプタボード)として構成されている。
本明細書において、説明の便宜上、チャネルアダプタ20,30,40をそれぞれCHA,CHI,CHNと別称する場合がある。
ディスクアダプタ(DKA)60は、記憶デバイス81へのデータの読み書きを制御する。ディスクアダプタ60は、ホストシステム700,800からのライトコマンドに応答してライトデータを所定の記憶デバイス81の所定のアドレスに書き込む。また、ディスクアダプタ60は、ホストシステム700,800からのリードコマンドに応答して所定の記憶デバイス81からデータを読み取る。ディスクアダプタ60は、記憶デバイス81へデータを読み書きする際に、論理アドレスを物理アドレスに変換する。記憶デバイス81がRAID構成に従って管理されている場合には、ディスクアダプタ60は、RAIDレベルに対応したデータアクセスを行う。
ディスクアダプタ60は、CPUやメモリを搭載した一枚又は複数の回路基板を一体化したコンピュータシステム(アダプタボード)として構成されている。
キャッシュメモリ51は、ホストシステム700,800から受信したデータを一時的に格納したり、或いは記憶デバイス81から読み出されたデータを一時的に格納したりする。
共有メモリ52は、ストレージシステム10の構成情報や負荷情報を格納したり、或いはチャネルアダプタ20,30,40とディスクアダプタ60との間で送受信される各種のコマンドを格納したりする。
例えば、チャネルアダプタ20,30,40は、ホストシステム700,800からライトコマンドを受信すると、そのライトコマンドを共有メモリ52に書き込むと共に、ホストシステム700,800から受信したライトデータをキャッシュメモリ51に書き込む。一方、ディスクアダプタ60は、共有メモリ52を常時監視しており、共有メモリ52にライトコマンドが書き込まれたことを検出すると、そのライトコマンドに従って、キャッシュメモリ51からダーティデータを読み出して、これを記憶デバイス81にデステージする。
また、チャネルアダプタ20,30,40は、ホストシステム700,800からリードコマンドを受信すると、リードデータがキャッシュメモリ51に存在するか否かをチェックする。ここで、リードデータがキャッシュメモリ51に存在すれば、チャネルアダプタ20,30,40は、そのリードデータをキャッシュメモリ51から読み取って、ホストシステム700,800に送信する。一方、リードデータがキャッシュメモリ51に存在しない場合には、チャネルアダプタ20,30,40は、リードコマンドを共有メモリ52に書き込む。ディスクアダプタ60は、共有メモリ52を常時監視しており、リードコマンドが共有メモリ52に書き込まれたことを検出すると、ディスクアダプタ60は、リードデータを記憶デバイス81から読み出して、これをキャッシュメモリ51に書き込むと共に、リードデータをキャッシュメモリ51に書き込んだ旨を共有メモリ52に書き込む。すると、チャネルアダプタ20,30,40は、読みだし対象となるデータがキャッシュメモリ51に書き込まれたことを検出し、そのリードデータをキャッシュメモリ51から読み出して、ホストシステム700,800に送信する。
相互結合網50は、チャネルアダプタ20,30,40、キャッシュメモリ51、共有メモリ52、及びディスクアダプタ60を相互に接続する。相互結合網160は、例えば、高速スイッチング動作によってデータ伝送を行う超高速クロスバスイッチ等のような高速バスである。
記憶デバイス81は、例えば、ハードディスクドライブ、フレキシブルディスクドライブ、磁気テープドライブ、半導体メモリドライブ、光ディスクドライブ等のような物理デバイスである。記憶装置80には、FCディスクやSATA(Serial AT Attachment)ディスク等のように、異種類のディスクを混在させてもよい。
図2はストレージシステム10の記憶階層を示している。図1に示した符号と同一符号のデバイス等は同一のデバイス等を示すものとして、その詳細な説明を省略する。
パリティグループ100は、例えば、4つの記憶デバイス81を一組としてグループ化することにより(3D+1P)、或いは8つの記憶デバイス81を一組としてグループ化することにより(7D+1P)、構成される。即ち、複数の記憶デバイス81のそれぞれが提供する記憶領域が集合して一つのパリティグループ100が構成される。パリティグループ100は、RAIDグループ或いはECCグループと別称することもできる。
一つのパリティグループ100を複数に分割することにより、複数の論理デバイス(LDEV)110を形成することもできるし、或いは複数のパリティグループ100を集めて一つの論理デバイス110を形成することもできる。
各々のポート21,31,41には、それぞれ論理ユニット(LU)120,130,140がマッピングされる。論理ユニット120,130,140は、ホストシステム700,800が認識する論理的な記憶単位である。例えば、ホストシステム700,800がUNIX(登録商標)系のシステムである場合には、論理ユニット120,130,140は、デバイスファイル(Device File)に対応付けられる。或いは、ホストシステム700,800がWindows(登録商標)系のシステムである場合には、論理ユニット120,130,140は、ドライブレター(ドライブ名)に対応付けられる。各々の論理ユニット120,130,140には、固有のLUN(Logical Unit Number)がアサインされる。
各々の論理ユニット120,130,140には、単一又は複数の論理デバイス110がマッピングされる。ホストシステム700,800がオープン系システムの場合、ホストシステム700,800は、論理デバイス110を一つの物理的なデバイスとして認識し、LUNや論理ブロックアドレスを指定することにより、所望の論理デバイス110にアクセスする。ホストシステム700,800がメインフレーム系システムの場合、ホストシステム700,800は、論理デバイス110を直接認識する。
図3はストレージシステム10のファイル管理機能を中心とする機能ブロックを示している。図1に示した符号と同一符号のデバイス等は同一のデバイス等を示すものとして、その詳細な説明を省略する。
NASプロセッサ42は、NASオペレーティングシステム320上でファイル管理制御モジュール300と負荷監視モジュール310とを動作させて、ファイル管理アプリケーションソフトウェア200を制御する。ファイル管理アプリケーションソフトウェア200は、各々の論理ユニット120,130,140に格納される複数のファイルをファイル単位でファイル管理する。ファイル管理アプリケーションソフトウェアとして、例えば、ファイル単位でウィルスチェックを行うウィルスチェックソフトウェア210、或いはファイル単位でデータバックアップを行うバックアップソフトウェア220等がある。
負荷監視モジュール310は、ストレージシステム10のリソースの負荷を監視する。リソース負荷情報として、例えば、NASプロセッサ42のプロセッサ使用率、ストレージコントローラ43のプロセッサ使用率、チャネルアダプタ20,30,40のプロセッサ使用率、ディスクアダプタ60のプロセッサ使用率、パリティグループ100のI/O負荷、論理デバイス110のI/O負荷、論理ユニット120,130,140のI/O負荷、ポート21,31,41のI/O負荷、キャッシュメモリ51の利用率又はキャッシュヒット率、相互結合網50の使用率などがある。I/O負荷として、例えば、I/Oレート(単位時間あたりのI/O数)又は入出力データのデータサイズ等を挙げることができる。これらのリソース負荷情報は、共有メモリ52に格納される。負荷監視モジュール310は、共有メモリ52からリソース負荷情報を取得することができる。
ファイル管理制御モジュール300は、ファイル管理テーブル400、閾値管理テーブル410、LU管理テーブル420、ルール管理テーブル430、及びウィルス検出リスト440を参照して、ファイル管理アプリケーションソフトウェア200を制御する。ファイル管理制御モジュール300は、負荷監視モジュール310からリソース負荷情報を取得し、ストレージシステム10の各リソースの負荷が均等に分散されるように、ファイル管理アプリケーションソフトウェア200の起動/停止を制御したり、或いはNASプロセッサ42にマウントされる論理ユニットを変更したりする。ファイル管理制御モジュール300は、ファイル管理の対象となる論理ユニットのI/O負荷が高くなったり、或いはNASプロセッサ42の負荷が高くなったりすると、ファイル管理の途中経過をファイル管理テーブル400に記録しておき、ファイル管理を一時的に停止する。その後、論理ユニットのI/O負荷が低くなったり、或いはNASプロセッサ42の負荷が低くなったりした時点で、ファイル管理を再開する(レジューム機能)。
尚、ストレージシステム10は、ホストシステム700,800からの通常業務のI/Oリクエストに応答しつつ、そのバックグランドでファイル管理制御モジュール300を動作させ、各論理ユニット120,130,140のファイル管理を制御する。
図4はファイル管理テーブル400を示す。ファイル管理テーブル400は、論理ユニット毎にファイル管理の実行順番を管理するとともに、レジューム機能によりファイル管理を再開するためのマーカー情報などを管理するためのテーブルである。ファイル管理テーブル400の各レコードには、管理番号401、LUN402、優先順位403、負荷状態404、実行順番405、実行結果406、再開マーク407、スキップ数408、及びLU種別409を格納する欄が設けられている。
管理番号401は、ファイル管理テーブル400の各レコードを管理するための番号である。LUN402は、ファイル管理の対象となる論理ユニットのLUNを示す。優先順位403は、ユーザが指定するファイル管理の優先順位である。ユーザは、論理ユニット単位でファイル管理の優先順位を指定することができる。負荷状態404は、論理ユニットの負荷状態を示し、この欄には、論理ユニットのI/O負荷が閾値以上のときに「1」が記録され、論理ユニットのI/O負荷が閾値未満のときに「0」が記録される。論理ユニットの負荷状態を判定する閾値は、閾値管理テーブル410の閾値414又は415が用いられる。
実行順番405は、ファイル管理の実行順番を示す。実行順番405はユーザが指定した優先順位403に論理ユニットの負荷状態404を加味した上で決定される。例えば、負荷状態が「0」と「1」の論理ユニットが混在する場合には、負荷状態が「1」の論理ユニットよりも負荷状態が「0」の論理ユニットの順位が優先的に繰り上げられる。これにより、負荷の軽い論理ユニットを優先して、ファイル管理を行い、リソースの負荷を適度に分散させることができる。実行結果406は、ファイル管理の完了割合を示す。この欄には、論理ユニット内の全てのファイル管理が完了すると、100%の値が記録され、ファイル管理が未完了の場合に0%の値が記録される。初期値は0%である。再開マーク407は、レジューム機能によりファイル管理を再開するためのマーカー情報である。スキップ数408は、ファイル管理を途中で中断した回数を示す。ファイル管理の実行途中で論理ユニットのI/O負荷が高くなると、ファイル管理は一時中断される。LU種別409は、論理ユニットに接続するインターフェースの種別(CHA,CHI,CHN)を示す。
図5は閾値管理テーブル410を示す。閾値管理テーブル410は、各リソースの負荷状態を判定する閾値411〜415を格納する。閾値411は、NASプロセッサ42の負荷状態が高負荷であるか否かを判断する基準となるCPU使用率の閾値である。閾値412は、ストレージコントローラ43の負荷状態が高負荷であるか否かを判断する基準となるプロセッサ使用率の閾値である。閾値413は、CHA,CHIの負荷状態が高負荷であるか否かを判断する基準となるプロセッサ使用率の閾値である。閾値414は、各パリティグループ100の負荷状態が高負荷であるか否かを判断する基準となるI/Oレートの閾値である。閾値415は、各論理ユニット120,130,140の負荷状態が高負荷であるか否かを判断する基準となるI/Oレートの閾値である。
図6はLU管理テーブル420を示す。LU管理テーブル420は、各論理ユニットを管理するためのテーブルである。LU管理テーブル420の各レコードには、LUN421、接続ホスト名422、管理者メールアドレス423、接続I/F424、パリティグループ425,426,427を格納する欄が設けられている。LUN421は、ファイル管理の対象となる論理ユニットのLUNを示す。接続ホスト名422は、管理対象の論理ユニットに接続しているホストシステム700,800の名称を示す。管理者メールアドレス423は、論理ユニットを管理する管理者のメールアドレスである。接続I/F424は、論理ユニットに接続するインターフェースの種別(CHA,CHI,CHN)を示す。パリティグループ425,426,427は、管理対象の論理ユニットにマッピングされているパリティグループを示す。
図7はルール管理テーブル430を示す。ルール管理テーブル430は、ファイル管理のルールを定めるためのテーブルである。ファイル管理テーブル430には、待ち時間431、待ち時間432、閾値433、及びファイル数434を格納する欄が設けられている。待ち時間431,432は、NASプロセッサ42の負荷チェックサブルーチン(図13、図14)を実行する上で、NASプロセッサ42の負荷を再チェックするためのインターバルを規定する。NASプロセッサ42の負荷チェックサブルーチンについては、後述する。閾値433は、ファイル管理を中断した回数の閾値を示す。ファイル管理を中断した回数がこの閾値433を超えると、例えば、ファイル管理が未完了である旨が管理者にメール通知される。ファイル数434は、一度にファイル管理するファイル数を示す。
図8はウィルス検出リスト440を示す。ウィルス検出リスト440は、ウィルス情報を管理するためのリストである。ウィルス検出リスト440には、フィルパス441、及びウィルス名442を格納する欄が設けられている。ファイルパス441は、ウィルスに感染しているファイルのファイルパスを示す。ウィルス名442は、検出したウィルスの名称を示す。
次に、図9乃至図15を参照しながら、ファイル管理制御モジュール300によって実行されるファイル管理方法について説明する。ここでは、ファイル管理の一例として、ウィルスチェックを例示するが、本発明はこれに限られるものではなく、複数のファイルをファイル単位でバッチ処理するファイル管理(例えば、ファイル単位のデータバックアップ)に適用できる。図9乃至図12はウィルスチェックのメインルーチンを示し、図13乃至図15はウィルスチェックのサブルーチンを示す。
まず、図9を参照する。ファイル管理制御モジュール300は、ウィルスチェックのメインルーチンを呼び出し、NASプロセッサ42の負荷チェックを行う(S101)。この負荷チェックでは、図13のサブルーチンが呼び出され、NASプロセッサのCPU使用率がチェックされる(S201)。次に、このCPU使用率と閾値テーブル410の閾値411とが比較される(S202)。CPU使用率が閾値411以上の場合には(S202;YES)、ルール管理テーブル430の待ち時間431が経過するのを待ち(S203)、S201に戻る。一方、CPU使用率が閾値未満の場合には(S202;NO)、このサブルーチンを抜ける。
次に、ファイル管理制御モジュール300は、ファイル管理テーブル400を読み込む(S102)。ここで読み込まれるファイル管理テーブル400は、図16(A)に示すように初期状態のテーブルであり、ファイル管理の優先順位403は確定しているものの、負荷状態404や実行順番405が未確定の状態にある。
次に、ファイル管理制御モジュール300は、全ての論理ユニットのI/O負荷をチェックし、ファイル管理テーブル400の負荷状態404の欄に「0」又は「1」を記録する(S103)。論理ユニットのI/O負荷として、パリティグループ100のI/Oレートを用いる場合は、ファイル管理制御モジュール300は、パリティグループ100のI/Oレートと閾値管理テーブル410の閾値414とを比較して、前者が後者より小さい場合に、負荷状態404の欄に「0」を記録し、前者が後者と同じか或いはそれ以上の場合に、負荷状態404の欄に「1」を記録する。論理ユニットのI/O負荷として、各論理ユニット120、130、140のI/Oレートを用いる場合は、ファイル管理制御モジュール300は、各論理ユニット120、130、140のI/Oレートと閾値管理テーブル410の閾値415とを比較して、前者が後者より小さい場合に、負荷状態404の欄に「0」を記録し、前者が後者と同じか或いはそれ以上の場合に、負荷状態404の欄に「1」を記録する。
尚、複数のパリティグループ100を集めて単一の論理ユニット120、130、140が形成される場合には、パリティグループ100のI/O負荷をチェックすることにより、より精度の高い負荷チェックを行うことができる。
次に、ファイル管理制御モジュール300は、ファイル管理の実行順番を決定する(S104)。ファイル管理の実行順番は、ユーザが指定した優先順位403と論理ユニット120、130、140の負荷状態404とを基に決定することができる。原則として、優先順位403通りに実行順番406が決定されるが、負荷状態が「0」の論理ユニットと負荷状態が「1」の論理ユニットが混在する場合には、負荷状態が「0」の論理ユニットの順位が優先的に繰り上げられる。図16(B)は、実行順番405が確定した後のファイル管理テーブル400を示している。
次に、ファイル管理制御モジュール300は、ファイル管理テーブル400の中から実行順番405が「1」のレコードを読み込み(S105)、実行結果406が100%未満であるか否かをチェックする(S106)。
そして、実行結果406が100%未満である場合には(S106;YES)、ファイル管理制御モジュール300は、接続パスチェックを行う(S107)。この接続パスチェックでは、図14のサブルーチンが呼び出され、ストレージコントローラ43のプロセッサ使用率がチェックされる(S301)。次に、このプロセッサ使用率と閾値テーブル410の閾値412とが比較される(S302)。プロセッサ使用率が閾値412以上の場合には(S302;YES)、ファイル管理制御モジュール300は、他のインターフェースCHA又はCHIのプロセッサ使用率をチェックする(S304)。
そして、他のインターフェースCHA又はCHIのプロセッサ使用率と閾値テーブル410の閾値413とが比較される(S305)。他のインターフェースCHA又はCHIのプロセッサ使用率が閾値413以上の場合には(S305;YES)、ファイル管理制御モジュール300は、ルール管理テーブル430の待ち時間432が経過するのを待ち(S307)、S301に戻る。
一方、ストレージコントローラ43のプロセッサ使用率が閾値412未満の場合には(S302;NO)、NASプロセッサ42は、ストレージコントローラ43経由で論理ユニット120、130、140をマウントし(S303)、このサブルーチンを抜ける。或いは、他のインターフェースCHA又はCHIのプロセッサ使用率が閾値413未満の場合には(S305;NO)、NASプロセッサ42は、当該他のインターフェースCHA又はCHI経由で論理ユニット120、130、140をマウントし(S306)、このサブルーチンを抜ける。
このように、NASプロセッサ42の負荷が高い場合であっても、他のインターフェースCHA又はCHIの負荷が軽い場合には、NASプロセッサ42が他のインターフェースCHA又はCHIを経由して論理ユニット120、130、140をマウントすることにより、リソースの負荷を適度に分散させることができる。
次に、ファイル管理制御モジュール300は、ファイル管理の対象となる論理ユニットの負荷チェックを行う(S108)。この負荷チェックでは、図15のサブルーチンが呼び出され、ファイル管理の対象となる論理ユニットのI/O負荷がチェックされる(S401)。次に、この論理ユニットのI/O負荷と閾値テーブル410の閾値415とが比較される(S402)。論理ユニットのI/O負荷が閾値415以上の場合には(S402;YES)、ファイル管理テーブル400の負荷状態404の欄に「1」を記録する(S406)。そして、スキップ数408を1だけインクリメントし(S407)、このサブルーチンを抜ける。
一方、論理ユニットのI/O負荷が閾値415未満の場合には(S402;NO)、ファイル管理制御モジュール300は、ファイル管理の対象となる論理ユニットがマッピングされているパリティグループのI/O負荷をチェックする(S403)。次に、パリティグループのI/O負荷と閾値テーブル410の閾値414とが比較される(S404)。パリティグループのI/O負荷が閾値414以上の場合には(S402;YES)、ファイル管理制御モジュール300は、ファイル管理テーブル400の負荷状態404の欄に「1」を記録する(S406)。
一方、パリティグループのI/O負荷が閾値414未満の場合には(S404;NO)、ファイル管理制御モジュール300は、ファイル管理テーブル400の負荷状態404の欄に「0」を記録し(S405)、サブルーチンを抜ける。
次に、ファイル管理制御モジュール300は、ファイル管理の対象となる論理ユニットの負荷状態404が「0」であるか否かをチェックする(S109)。負荷状態が「0」であるならば(S109;YES)、ファイル管理制御モジュール300は、ファイル管理の対象となるファイルパスをリストアップし(S110)、実行結果406がどの程度であるかをチェックする(S111)。実行結果406が0%であるならば、ファイル管理制御モジュール300は、ファイルパスの最初から所定数のファイルを抽出し(S112)、S116に進む。ここで抽出するファイル数は、ルール管理テーブル430のファイル数434と同一である。
一方、実行結果406が0%より多く100%未満であるならば、ファイル管理制御モジュール300は、ファイル管理テーブル400の再開マーク407を参照して、所定数のファイルを抽出し(S112)、S116に進む。
一方、実行結果406が100%未満の場合(S106;NO)、或いは負荷状態404が「1」の場合には(S109;NO)、ファイル管理制御モジュール300は、ファイル管理テーブル400のレコードが最後のレコードであるか否かをチェックする(S113)。最後のレコードでない場合には(S113;NO)、ファイル管理制御モジュール300は、次の実行順番405のレコードを読み込み(S114)、S106に進む。一方、最後のレコードである場合には(S113;YES)、S133に進む。
次に、図10を参照する。ファイル管理制御モジュール300は、論理ユニットから抽出した所定数のファイルを一括してウィルスチェックし、ウィルスを検出した場合には、ウィルス検出リスト440のファイルパス441の欄に感染ファイルのファイルパスを記録するとともに、ウィルス名442の欄にウィルス名称を記録する(S116)。
次に、ファイル管理制御モジュール300は、NASプロセッサ42の負荷チェックを行う(S117)。この負荷チェックでは、図13のサブルーチンが呼び出されて、S201〜S203の処理が実行される。
次に、ファイル管理制御モジュール300は、ファイル管理の対象となる論理ユニットの負荷チェックを行う(S118)。この負荷チェックでは、図15のサブルーチンが呼び出されて、S401〜S407の処理が実行される。
次に、ファイル管理制御モジュール300は、ファイル管理の対象となる論理ユニットの負荷状態404が「0」であるか否かをチェックする(S119)。負荷状態が「0」であるならば(S119;YES)、ファイル管理制御モジュール300は、論理ユニット内の全てのファイル管理が完了したか否かをチェックする(S120)。
ファイル管理制御モジュール300は、論理ユニット内の一部のファイル管理が完了している場合には(S120;NO)、ファイル管理が行われているファイルパスの残り先頭から所定数のファイルを抽出し(S127)、S116に進む。
ファイル管理制御モジュール300は、論理ユニット内のファイル管理が全て完了した場合には(S120;YES)、ウィルスを検出したか否かをチェックする(S121)。ファイル管理制御モジュール300は、ウィルスを検出しない場合には(S121;NO)、S129に進む。
ファイル管理制御モジュール300は、ウィルスを検出した場合には(S121;YES)、LU管理テーブル420の管理者メールアドレス423に登録されているメールアドレスに処理結果(例えば、ウィルスを検出した旨のアラーム)を通知し(S128)、S129に進む。
一方、負荷状態が「1」であるならば(S119;YES)、ファイル管理制御モジュール300は、ファイル管理テーブル400の再開マーク407の欄にマーカー情報を記録するとともに実行結果406の欄に完了割合を記録する(S122)。
次に、ファイル管理制御モジュール300は、ウィルスを検出したか否かをチェックする(S123)。ファイル管理制御モジュール300は、ウィルスを検出すると、LU管理テーブル420の管理者メールアドレス423に登録されているメールアドレスに処理結果(例えば、ウィルスを検出した旨のアラーム)を通知する(S126)。
ファイル管理制御モジュール300は、ウィルスを検出しない場合(S123;NO)、又はウィルス発見のメール通知を行った場合には(S126)、ファイル管理テーブル400のレコードが最後のレコードであるか否かをチェックする(S124)。
最後のレコードである場合には(S124;YES)、S133に進む。最後のレコードでない場合には(S124;NO)、ファイル管理制御モジュール300は、次の実行順番のレコードを読み込み(S125)、S106に進む。
次に、図11を参照する。ファイル管理制御モジュール300は、ファイル管理が行われている論理ユニットをアンマウントし(S129)、ファイル管理テーブル400の実行結果406に完了割合100%を記録する(S130)。
次に、ファイル管理制御モジュール300は、ファイル管理テーブル400のレコードが最後のレコードであるか否かをチェックする(S131)。最後のレコードである場合には(S131;YES)、メインルーチンを終了する。最後のレコードでない場合には(S131;NO)、次の実行順番のレコードを読み込み(S132)、S106に進む。
次に、図12を参照する。ファイル管理制御モジュール300は、所定時間経過するのを待ち(S133)、NASプロセッサ42の負荷チェックを行う(S134)。この負荷チェックでは、図13のサブルーチンが呼び出されて、S201〜S203の処理が実行される。
次に、ファイル管理制御モジュール300は、ファイル管理テーブル400の中から実行順番405が「1」のレコードを読み込み(S135)、ファイル管理テーブル400のスキップ数408がルール管理テーブル430の閾値433より少ないか否かをチェックする(S136)。スキップ数408が閾値433より少ない場合には(S136;YES)、S106に進む。
一方、スキップ数408が閾値433と同じか或いはそれ以上の場合には(S136;NO)、ファイル管理制御モジュール300は、LU管理テーブル420の管理者メールアドレス423に登録されているメールアドレスに処理結果(例えば、論理ユニットが高負荷のためウィルスチェックできなかった旨のアラーム)を通知する(S137)。
次に、ファイル管理制御モジュール300は、ファイル管理テーブル400の実行結果406に完了割合100%を記録し(S138)、次の実行順番のレコードを読み込んで(S139)、S106に進む。
以上の処理を経て、ファイル単位のウィルスチェックが行われる。図16(C)は、ウィルスチェックの途中経過を示す。ここに示す例は、LUN「01.00」の論理ユニットの実行結果が50%のまま途中終了し、LUN「01.03」,「01.04」の論理ユニットのウィルスチェックが未完了の状態を示す。
本実施形態によれば、負荷の軽い論理ユニットを優先してファイル管理を行うので、ストレージシステム10のリソースが局所的に高負荷にならないように負荷を分散させることができる。
また、論理ユニットの負荷が高負荷になった場合にはファイル管理を一時的に中断し、論理ユニットの負荷が軽くなった時点でファイル管理を再開するレジューム機能を搭載することにより、ストレージシステム10の負荷を適度に分散させることができ、処理性能の低下を抑制できる。
また、CHNの負荷が高い場合には、NASプロセッサ42がCHA又はCHIを経由して論理ユニットをマウントし、ファイル管理を行うので、ストレージシステム10の負荷を適度に分散させることができる。
本実施形態に係るストレージシステムのシステム構成図である。 本実施形態に係るストレージシステムの記憶階層の説明図である。 本実施形態に係るストレージシステムのファイル管理機能を中心とする機能ブロック図である。 ファイル管理テーブルの説明図である。 閾値管理テーブルの説明図である。 LU管理テーブルの説明図である。 ルール管理テーブルの説明図である。 ウィルス検出リストの説明図である。 ウィルスチェックのメインルーチンを示すフローチャートである。 ウィルスチェックのメインルーチンを示すフローチャートである。 ウィルスチェックのメインルーチンを示すフローチャートである。 ウィルスチェックのメインルーチンを示すフローチャートである。 NASプロセッサの負荷チェックを行うサブルーチンのフローチャートである。 接続パスチェックを行うサブルーチンのフローチャートである。 LU負荷チェックを行うサブルーチンのフローチャートである。 ファイル管理テーブルの状態遷移を示す説明図である。
符号の説明
10…ストレージシステム 20,30,40…チャネルアダプタ 21,31,41…ポート 42…NASプロセッサ 43…ストレージコントローラ 50…相互結合網 51…キャッシュメモリ 52…共有メモリ 60…ディスクアダプタ 70…記憶制御装置 80…記憶装置 81…記憶デバイス 100…パリティグループ 110…論理デバイス 120,130,140…論理ユニット 300…ファイル管理制御モジュール 310…負荷監視モジュール 320…NASオペレーティングシステム 400…ファイル管理テーブル

Claims (9)

  1. 複数の論理ユニットと、
    前記複数の論理ユニットの各々の論理ユニットに格納されている複数のファイルをファイル単位でファイル管理するファイル管理アプリケーションソフトウェアと、
    ストレージシステムのリソースの負荷を監視する負荷監視モジュールと、
    前記負荷監視モジュールが監視する負荷に応じて前記ファイル管理アプリケーションソフトウェアを制御するファイル管理制御モジュールと、
    前記複数の論理ユニットの各々の論理ユニットのファイル管理の優先順位と、前記各々の論理ユニットのI/O負荷と、前記各々の論理ユニットのファイル管理の実行順番とを管理するファイル管理テーブルと
    を備え、
    前記リソースの負荷は、前記各々の論理ユニットのI/O負荷及び前記ストレージシステム内のプロセッサのプロセッサ使用率を含み、
    前記ファイル管理制御モジュールは、前記I/O負荷が所定の閾値以下の論理ユニットのファイル管理の優先順位を繰り上げて、前記実行順番を決定する制御及び前記プロセッサ使用率が所定の閾値以上になると、前記論理ユニットをアンマウントして前記論理ユニットのファイル管理を一時中断し、一方で前記プロセッサ使用率が所定の閾値未満になると、前記アンマウントした前記論理ユニットを再びマウントして前記論理ユニットのファイル管理を再開する制御を行う
    ことを特徴とするストレージシステム。
  2. 請求項1に記載のストレージシステムであって、
    前記ファイル管理制御モジュールは、前記ファイル管理アプリケーションソフトウェアの起動/停止制御、ファイル管理の対象となる論理ユニットのマウント/アンマウント制御、及び前記ファイル管理のレジューム制御を行う、ストレージシステム。
  3. 請求項1に記載のストレージシステムであって、
    前記ファイル管理制御モジュールは、前記論理ユニットのファイル管理を中断した回数が所定の閾値以上になると、前記論理ユニットのファイル管理を中止し、他の論理ユニットのファイル管理を行う、ストレージシステム。
  4. 請求項1に記載のストレージシステムであって、
    単一又は複数のブロックI/Oインターフェースと、単一又は複数のファイルI/Oインターフェースとを更に備え、
    前記複数の論理ユニットのうち何れかの論理ユニットは、前記ブロックI/Oインターフェースを介してSANクライアントに提供され、前記複数の論理ユニットのうち他の論理ユニットは、前記ファイルI/Oインターフェースを介してNASクライアントに提供される、ストレージシステム。
  5. 請求項に記載のストレージシステムであって、
    前記ファイル管理アプリケーションソフトウェア、前記負荷監視モジュール、前記ファイル管理制御モジュールは、前記ファイルI/Oインターフェースに実装されている、ストレージシステム。
  6. 請求項に記載のストレージシステムであって、
    前記ファイルI/Oインターフェースは、前記ファイルI/Oインターフェースの負荷が所定の閾値以上になると、他のファイルI/Oインターフェース又はブロックI/Oインターフェースを介して前記論理ユニットをマウントし、ファイル管理を制御する、ストレージシステム。
  7. 請求項に記載のストレージシステムであって、
    前記ストレージシステムは、前記SANクライアント又は前記NASクライアントからの要求に応答してI/O処理を行い、そのバックグランドで前記ファイル管理を行う、ストレージシステム。
  8. 請求項1に記載のストレージシステムであって、
    前記ファイル管理制御モジュールは、ファイル管理の処理結果を管理者にメール通知する、ストレージシステム。
  9. 請求項1に記載のストレージシステムであって、
    前記ファイル管理アプリケーションソフトウェアは、ウィルスチェックソフトウェア、又はバックアップソフトウェアである、ストレージシステム。
JP2005240353A 2005-08-22 2005-08-22 ストレージシステム Expired - Fee Related JP4871546B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2005240353A JP4871546B2 (ja) 2005-08-22 2005-08-22 ストレージシステム
US11/266,343 US7987466B2 (en) 2005-08-22 2005-11-04 Storage system
EP06250921A EP1758017A1 (en) 2005-08-22 2006-02-21 Storage system
CNB2006100586329A CN100440125C (zh) 2005-08-22 2006-03-02 存储系统
US13/174,919 US8220000B2 (en) 2005-08-22 2011-07-01 System and method for executing files stored in logical units based on priority and input/output load of the logical units

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005240353A JP4871546B2 (ja) 2005-08-22 2005-08-22 ストレージシステム

Publications (2)

Publication Number Publication Date
JP2007058346A JP2007058346A (ja) 2007-03-08
JP4871546B2 true JP4871546B2 (ja) 2012-02-08

Family

ID=36940417

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005240353A Expired - Fee Related JP4871546B2 (ja) 2005-08-22 2005-08-22 ストレージシステム

Country Status (4)

Country Link
US (2) US7987466B2 (ja)
EP (1) EP1758017A1 (ja)
JP (1) JP4871546B2 (ja)
CN (1) CN100440125C (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007310772A (ja) * 2006-05-22 2007-11-29 Hitachi Ltd ストレージシステム及び通信制御方法
US8239869B2 (en) 2006-06-19 2012-08-07 Condusiv Technologies Corporation Method, system and apparatus for scheduling computer micro-jobs to execute at non-disruptive times and modifying a minimum wait time between the utilization windows for monitoring the resources
US8056083B2 (en) 2006-10-10 2011-11-08 Diskeeper Corporation Dividing a computer job into micro-jobs for execution
US9588809B2 (en) * 2006-10-10 2017-03-07 Invistasking LLC Resource-based scheduler
US8423731B1 (en) 2006-10-31 2013-04-16 Netapp, Inc. System and method for automatic scheduling and policy provisioning for information lifecycle management
JP5057792B2 (ja) 2007-01-29 2012-10-24 株式会社日立製作所 性能ボトルネックを緩和する機能を備えたストレージシステム
US8032725B1 (en) * 2007-01-30 2011-10-04 Netapp, Inc. Backup data management on a fractionally reserved storage system
US8301772B2 (en) * 2007-03-27 2012-10-30 Symantec Corporation Method and apparatus for allocating resources among backup tasks in a data backup system
JP5213359B2 (ja) * 2007-06-06 2013-06-19 キヤノン株式会社 情報処理装置および制御方法、制御プログラム
JP5028218B2 (ja) * 2007-10-30 2012-09-19 株式会社日立製作所 記憶制御装置、ストレージシステム及び記憶制御装置の制御方法
CN101540777B (zh) * 2008-03-18 2013-07-31 环达电脑(上海)有限公司 网络存储设备的分布式数据备份系统及方法
JP5159421B2 (ja) 2008-05-14 2013-03-06 株式会社日立製作所 ストレージシステム及び管理装置を用いたストレージシステムの管理方法
US20100150131A1 (en) * 2008-12-12 2010-06-17 Qualcomm Incorporated Signaling parameters channel processing
US8463989B2 (en) * 2009-06-16 2013-06-11 Hitachi, Ltd. Storage device and method utilizing both block I/O and file I/O access
WO2011055406A1 (en) * 2009-11-04 2011-05-12 Hitachi, Ltd. Data storage system and method therefor
US8473704B2 (en) 2010-04-28 2013-06-25 Hitachi, Ltd. Storage device and method of controlling storage system
JP5658778B2 (ja) * 2013-02-25 2015-01-28 キヤノン株式会社 情報処理装置および制御方法、制御プログラム
US8984190B2 (en) 2013-05-23 2015-03-17 Western Digital Technologies, Inc. Methods and devices for booting a network attached storage with two logical units
US9235450B2 (en) 2013-06-26 2016-01-12 Emc Corporation Method and apparatus for reducing slow or stuck SCSI commands in a multi-service environment at a SCSI target
US8838840B1 (en) * 2013-06-26 2014-09-16 Emc Corporation Method and apparatus for recovering from slow or stuck SCSI commands at a SCSI target
JP2015143945A (ja) * 2014-01-31 2015-08-06 富士通株式会社 ストレージ制御装置、ストレージ装置および制御プログラム
US9864705B2 (en) 2015-11-01 2018-01-09 International Business Machines Corporation Dynamic access method switching for open data sets
JPWO2022168449A1 (ja) * 2021-02-08 2022-08-11
CN113535094A (zh) * 2021-08-06 2021-10-22 上海德拓信息技术股份有限公司 基于分布式存储的跨平台客户端实现方法

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US260875A (en) * 1882-07-11 Wagon-axle bearing
US135782A (en) * 1873-02-11 John i
US193827A (en) * 1877-08-07 Improvement in pipes for street gas and water stop-cock boxes
US5276867A (en) * 1989-12-19 1994-01-04 Epoch Systems, Inc. Digital data storage system with improved data migration
JPH06309200A (ja) * 1991-04-10 1994-11-04 Internatl Business Mach Corp <Ibm> ボリュームからオブジェクトを読取る方法、並びに階層式記憶システム及び情報処理システム
JP3658420B2 (ja) * 1994-04-14 2005-06-08 株式会社日立製作所 分散処理システム
US6173306B1 (en) * 1995-07-21 2001-01-09 Emc Corporation Dynamic load balancing
US5905866A (en) * 1996-04-30 1999-05-18 A.I. Soft Corporation Data-update monitoring in communications network
JPH1011344A (ja) * 1996-06-24 1998-01-16 Mitsubishi Electric Corp データ・バックアップ方法
US6031978A (en) 1996-06-28 2000-02-29 International Business Machines Corporation System, method and program for enabling a client to reconnect to a same server in a network of computer systems after the server has moved to a different network address
US6801943B1 (en) * 1999-04-30 2004-10-05 Honeywell International Inc. Network scheduler for real time applications
JP2001337790A (ja) 2000-05-24 2001-12-07 Hitachi Ltd 記憶システム及びその階層管理制御方法
EP1168753A1 (de) * 2000-06-26 2002-01-02 Alcatel Verfahren und Mittel zur Übertragung von Daten unterschiedlicher Dienstqualität in Internet-Protokoll Datagrammen
US7165096B2 (en) * 2000-12-22 2007-01-16 Data Plow, Inc. Storage area network file system
JP4334231B2 (ja) 2001-04-16 2009-09-30 ザクソン・アールアンドディ株式会社 コンピュータウイルス検査装置及び半導体集積回路
JP4009434B2 (ja) * 2001-04-18 2007-11-14 株式会社日立製作所 磁気ディスク装置間結合装置
JP4156817B2 (ja) 2001-07-27 2008-09-24 株式会社日立製作所 記憶装置システム
JP2003162439A (ja) 2001-11-22 2003-06-06 Hitachi Ltd ストレージシステム及びその制御方法
JP3964212B2 (ja) 2002-01-16 2007-08-22 株式会社日立製作所 記憶装置システム
US6895413B2 (en) * 2002-03-22 2005-05-17 Network Appliance, Inc. System and method for performing an on-line check of a file system
JP2004151825A (ja) * 2002-10-29 2004-05-27 Vistapoint Technology Inc ネットワークシステム
JP2004227098A (ja) * 2003-01-20 2004-08-12 Hitachi Ltd 記憶デバイス制御装置の制御方法、及び記憶デバイス制御装置
JP2004259045A (ja) * 2003-02-26 2004-09-16 Hitachi Ltd ストレージ装置
JP2004302751A (ja) 2003-03-31 2004-10-28 Hitachi Ltd 計算機システムの性能管理方法、および、記憶装置の性能を管理する計算機システム
JP4349871B2 (ja) * 2003-09-09 2009-10-21 株式会社日立製作所 ファイル共有装置及びファイル共有装置間のデータ移行方法
JP2005240353A (ja) 2004-02-25 2005-09-08 Ohbayashi Corp 橋梁の架設工法
US7209967B2 (en) * 2004-06-01 2007-04-24 Hitachi, Ltd. Dynamic load balancing of a storage system

Also Published As

Publication number Publication date
CN1920763A (zh) 2007-02-28
JP2007058346A (ja) 2007-03-08
US20070043737A1 (en) 2007-02-22
US8220000B2 (en) 2012-07-10
CN100440125C (zh) 2008-12-03
US20110264619A1 (en) 2011-10-27
EP1758017A1 (en) 2007-02-28
US7987466B2 (en) 2011-07-26

Similar Documents

Publication Publication Date Title
JP4871546B2 (ja) ストレージシステム
US7360037B2 (en) Storage controller, storage control system, and storage control method
US8402189B2 (en) Information processing apparatus and data transfer method
US8024603B2 (en) Data migration satisfying migration-destination requirements
US20100082900A1 (en) Management device for storage device
JP5451874B2 (ja) 記憶制御装置及び記憶制御装置の制御方法
US20070266218A1 (en) Storage system and storage control method for the same
JP4566874B2 (ja) Ipネットワークにおけるストレージアクセス管理機能及びシステム
JP5638744B2 (ja) コマンド・キュー・ローディング
WO2011135636A1 (ja) 計算機システム及びその制御方法
US20090300283A1 (en) Method and apparatus for dissolving hot spots in storage systems
US8099547B2 (en) Load sharing method and system for computer system
US20110225117A1 (en) Management system and data allocation control method for controlling allocation of data in storage system
JP2007179156A (ja) 記憶制御装置及び方法
US9047247B2 (en) Storage system and data processing method
US7886186B2 (en) Storage system and management method for the same
US11829803B2 (en) Methods for dynamic throttling to satisfy minimum throughput service level objectives and devices thereof
US8214587B2 (en) Storage apparatus and method for controlling storage apparatus
JP2009295045A (ja) ストレージシステム、ストレージサブシステム、及び記憶制御方法
JP4616899B2 (ja) 管理サーバ、プール増設方法および計算機システム
JP2009015845A (ja) 好適なゾーン・スケジューリング
US8886843B2 (en) Storage apparatus and method of controlling the same
US11693800B2 (en) Managing IO path bandwidth
WO2010038258A1 (en) Storage system having function of performing formatting or shredding

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080701

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20090213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111108

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111121

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141125

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees