JP2007310772A - ストレージシステム及び通信制御方法 - Google Patents
ストレージシステム及び通信制御方法 Download PDFInfo
- Publication number
- JP2007310772A JP2007310772A JP2006141138A JP2006141138A JP2007310772A JP 2007310772 A JP2007310772 A JP 2007310772A JP 2006141138 A JP2006141138 A JP 2006141138A JP 2006141138 A JP2006141138 A JP 2006141138A JP 2007310772 A JP2007310772 A JP 2007310772A
- Authority
- JP
- Japan
- Prior art keywords
- priority
- storage system
- failure
- client
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L47/00—Traffic control in data switching networks
- H04L47/10—Flow control; Congestion control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L47/00—Traffic control in data switching networks
- H04L47/10—Flow control; Congestion control
- H04L47/24—Traffic characterised by specific attributes, e.g. priority or QoS
- H04L47/2425—Traffic characterised by specific attributes, e.g. priority or QoS for supporting services specification, e.g. SLA
- H04L47/2433—Allocation of priorities to traffic types
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L47/00—Traffic control in data switching networks
- H04L47/10—Flow control; Congestion control
- H04L47/24—Traffic characterised by specific attributes, e.g. priority or QoS
- H04L47/2458—Modification of priorities while in transit
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1097—Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【課題】同一プロトコルを用いた異なるファイルアクセスのそれぞれに対する返信パケットのQoSを独立に制御する。
【解決手段】ストレージシステム10は、NASクライアント80からのファイルアクセス要求を処理するプロトコル制御部27と、NASクライアント80からのファイルアクセス要求に対する応答としてNASクライアント80に返信される返信パケットに設定される優先度を、NASクライアント80がアクセスしたアクセス領域に予め設定されている優先度に基づいて計算する優先度計算部23を備える。
【選択図】図1
【解決手段】ストレージシステム10は、NASクライアント80からのファイルアクセス要求を処理するプロトコル制御部27と、NASクライアント80からのファイルアクセス要求に対する応答としてNASクライアント80に返信される返信パケットに設定される優先度を、NASクライアント80がアクセスしたアクセス領域に予め設定されている優先度に基づいて計算する優先度計算部23を備える。
【選択図】図1
Description
本発明はストレージシステム及び通信制御方法に関し、特に、ストレージシステムからクライアントに送信されるパケットの送信優先制御に関する。
大量のデータを管理するためのストレージシステムとして、ディスアレイシステムが用いられている。ディスクアレイシステムは、複数のディスクドライブをアレイ状に配設して構成されるもので、RAID(Redundant Arrays of Independent Inexpensive Disks)構成された記憶資源をホスト計算機に提供する。ホスト計算機とディスクアレイシステムとの間のインタフェースとして、FC(Fibre Channel)プロトコル、SCSI(Small Computer System Interface)プロトコル、iSCSI(internet SCSI)プロトコル、ESCON(Enterprise System Connection:登録商標)などのブロック単位でI/Oリクエストを処理するブロックI/Oインタフェースの他、NFS(Network File System)プロトコル、CIFS(Common Interface File System)プロトコルなどのファイル単位でI/Oリクエストを処理するファイルI/Oインタフェースが用いられている。
近年、企業で取り扱うデータ容量の増加に伴い、ストレージシステムの利用形態も多様化しつつある。例えば、IPネットワーク経由でNASクライアントからのファイルアクセスを受信し、NASクライアントにファイルサービスを提供するNAS機能を搭載したストレージシステムが開発されている。ファイルサービス向上の観点から、IPネットワークを流れるIPパケットの通信品質の向上が検討されている。例えば、特開2002−244899号公報、及び特開2005−323245号公報には、QoS(Quality of Service)制御について言及されている。
特開2002−244899号公報
特開2005−323245号公報
ところで、従来では、プロトコル単位でのQoS制御が中心であった。例えば、NFSプロトコル、CIFSプロトコル、NFSプロトコルのそれぞれに予め優先準位を設定しておいて、QoS制御をしていた。このようなQoS制御では、例えば、NFSプロトコルに基づくファイルアクセスに対する返信パケットの優先度は、CIFSプロトコルに基づくファイルアクセスに対する返信パケットの優先度よりも高く設定するということが可能である。
しかし、NASサーバを用いたファイルサービスが提供されるようになると、同一プロトコルを用いた異なるファイルアクセスのそれぞれに対する返信パケットのQoSを独立に制御する必要性が生じてきた。例えば、あるNASクライアントから重要度の高いフォルダへのアクセス要求に対する返信パケットに設定される優先度は、他のNASクライアントから重要度の低いフォルダへのアクセス要求に対する返信パケットに設定される優先度よりも高い方が望ましい。
そこで、本発明は同一プロトコルを用いた異なるアクセスのそれぞれに対する返信パケットのQoSを独立に制御するストレージシステム及び通信制御方法を提案することを課題とする。
上記の課題を解決するため、本発明のストレージシステムは、クライアントからのアクセス要求を処理するストレージシステムであって、クライアントからのアクセス要求に対する応答としてクライアントに返信される返信パケットに設定される優先度を、クライアントがアクセスしたアクセス領域に予め設定されている優先度に基づいて計算する優先度計算部を備える。
本発明の他の観点によるストレージシステムは、クライアントからのアクセス要求を処理するストレージシステムであって、クライアントからのアクセス要求に対する応答としてクライアントに返信される返信パケットに設定される優先度を、ストレージシステムの状態情報に基づいて計算する優先度計算部を備える。
ここで、状態情報は、アクセス領域を提供するストレージデバイスの構成情報、ストレージシステムの負荷情報、ストレージシステムの障害情報のうち何れかの情報を含む。
優先度計算部は、ストレージシステムに障害が生じているときには、ストレージシステムに障害が生じてないときよりも、返信パケットの優先度を低く設定してもよい。この計算方法は、ストレージシステムに障害が生じているときには、アクセスが遅延することを想定し、返信パケットの優先度を高くしても、その遅延分を補うことができないという運用方法に好適である。
優先度計算部は、ストレージシステムに障害が生じているときには、ストレージシステムに障害が生じてないときよりも、返信パケットの優先度を高く設定してもよい。この計算方法は、ストレージシステムに障害が生じているときには、返信パケットの優先度を高くしてアクセスの遅延を補うという運用方法に好適である。
本発明の通信制御方法は、クライアントからのアクセス要求を受信するステップと、クライアントからのアクセス要求に対する応答としてクライアントに返信される返信パケットに設定される優先度を、クライアントがアクセスしたアクセス領域に予め設定されている優先度に基づいて計算するステップと、返信パケットをクライアントに返信するステップと、を備える。
本発明によれば、同一プロトコルを用いた異なるアクセスのそれぞれに対する返信パケットのQoSを独立に制御することができる。
以下、各図を参照しながら本発明の実施形態について説明する。
図1は本実施形態に係るストレージシステム10の機能ブロックを示す。ストレージシステム10は、主に、NASサーバ20、及び記憶装置40を備える。NASサーバ20は、TCP/IP(Transmission Control Protocol/Internet Protocol)に基づいてデータ通信を行うLAN(Local Area Network)又はその他のIP(Internet Protocol)ネットワーク上に配置されたLANスイッチ70を介して一つ以上のNASクライアント80に接続している。LANスイッチ70は、NASクライアント80とNASサーバ20との間で送受信されるIPパケットをレイヤ3レベルでルーティング制御するL3スイッチである。L3スイッチに替えてL2スイッチを配置してもよい。
図1は本実施形態に係るストレージシステム10の機能ブロックを示す。ストレージシステム10は、主に、NASサーバ20、及び記憶装置40を備える。NASサーバ20は、TCP/IP(Transmission Control Protocol/Internet Protocol)に基づいてデータ通信を行うLAN(Local Area Network)又はその他のIP(Internet Protocol)ネットワーク上に配置されたLANスイッチ70を介して一つ以上のNASクライアント80に接続している。LANスイッチ70は、NASクライアント80とNASサーバ20との間で送受信されるIPパケットをレイヤ3レベルでルーティング制御するL3スイッチである。L3スイッチに替えてL2スイッチを配置してもよい。
NASクライアント80は、NFS、CIFS、FTP等のファイル転送プロトコルに基づいて、ストレージシステム10にファイルアクセス要求を行う。NASクライアント80は、パーソナルコンピュータ、ワークステーション、メインフレームコンピュータ等である。
NASサーバ20は、NASクライアント80と記憶装置40との間のデータ入出力を制御するアダプタとして機能する。NASサーバ20は、NASクライアント80から送信されるファイルアクセス要求を受信し、このファイルアクセス要求に応じたI/O要求を記憶装置40に送信する。I/O要求には、ライトアクセス又はリードアクセス等を区別するアクセス種別が含まれる。例えば、NASクライアント80からライトアクセスが送信されると、NASサーバ20は、NASクライアント80から送信されたライトデータと、ライトアクセス種別とを含むI/O要求を記憶装置40に送信する。また、NASクライアント80からリードアクセスが送信されると、NASサーバ20は、リードアクセス種別を含むI/O要求を記憶装置40に送信し、記憶装置40から取得したリードデータをファイル単位でNASクライアント80に送信する。
NASサーバ20は、LANポート21、パケット処理部22、優先度計算部23、テーブル作成部24、クライアント管理部25、記憶装置管理部26、プロトコル制御部27、ファイルシステム制御部28、インタフェース部29、管理テーブル30、及び優先度計算テーブル31を備える。
LANポート21は、NASクライアント80とNASサーバ20とを接続するための通信インタフェースとして機能する。
パケット処理部22は、NASクライアント80からNASサーバ20へ送信されるIPパケットを受信する処理と、NASサーバ20からNASクライアント80へIPパケットを送信する処理とを実行する。
優先度計算部23は、NASサーバ20からNASクライアント80へ送信されるIPパケットの優先度を計算する。優先度計算処理(図16参照)の詳細については、後述する。
テーブル作成部24は、優先度計算テーブル31を作成する。優先度計算テーブル31(図9参照)及びその作成処理(図10乃至図15参照)の詳細については後述する。
クライアント管理部25は、どのNASクライアント80からファイルアクセスの要求を受けたかを管理する。
記憶装置管理部26は、記憶装置40の負荷情報及び障害情報等の情報を管理する。
プロトコル管理部27は、NFS、CIFS、FTP等のファイル転送プロトコルの処理を行う。
ファイルシステム制御部28は、フォルダと論理ユニットとの対応付けを管理する。
インタフェース部29は、NASサーバ20と記憶装置40との間のデータ通信を制御する。
管理テーブル30(図8参照)の詳細については、後述する。
記憶装置40は、主に、記憶制御装置50、及び複数のストレージデバイス60を備える。記憶制御装置50は、ストレージデバイス60をいわゆるRAID方式に規定されるRAIDレベル(例えば、0,1,4,5)で制御することができる。
記憶制御装置50は、インタフェース部51、状態監視部52、リード/ライト処理部53、ディスクキャッシュ54、及びボリューム複製制御部55を備える。
インタフェース部51は、記憶装置40とNASサーバ20とを接続するための通信インタフェースとして機能する。
状態監視部52は、記憶装置40の障害情報及び負荷情報を管理する。障害情報として、ストレージデバイス60の障害の有無、記憶制御装置50の障害の有無、ディスクキャッシュ54の障害の有無、クラスタフェールオーバの有無がある。負荷情報として、I/O処理に要するレスポンスタイム、コピー処理実行の有無、バックアップ処理実行の有無、CPU使用率などがある。
リード/ライト処理部53は、ストレージデバイス60へのリード/ライト処理を制御する。
ディスクキャッシュ54は、ストレージデバイス60に読み書きされるデータを一時的に格納するためのキャッシュメモリである。
ボリューム複製制御部55は、ボリュームの複製処理、及びバックアップ処理を制御する。
ストレージデバイス60は、例えば、ハードディスクドライブ、フレキシブルディスクドライブ、磁気テープドライブ、半導体メモリドライブ、フラッシュメモリ、光ディスクドライブ等の物理デバイスである。ハードディスクドライブとして、FC(Fibre Channel)ディスクドライブ、SATA(Serial Advanced Technology Attachment)ディスクドライブ、PATA(Parallel Advanced Technology Attachment)ディスクドライブ、FATA(Fibre Attached Technology Adapted)ディスクドライブ、SCSI(Small Computer System Interface)ディスクドライブなどを用いることができる。
尚、ストレージシステム10がiSCSIサーバを備えている場合には、NASクライアント80に替えて、ストレージシステム10は、iSCSIクライアントからのブロックアクセス要求を受け付けることも可能である。
図2はストレージシステム10の記憶階層を示している。図1に示した符号と同一符号のデバイス等は同一のデバイス等を示すものとして、その詳細な説明を省略する。
RAIDグループ61は、例えば、4つのストレージデバイス60を一組としてグループ化することにより(3D+1P)、或いは8つのストレージデバイス60を一組としてグループ化することにより(7D+1P)、構成される。即ち、複数のストレージデバイス60のそれぞれが提供する記憶領域が集合して一つのRAIDグループ61が構成される。RAIDグループ61は、パリティグループ或いはECCグループと別称することもできる。
一つのRAIDグループ61を複数に分割することにより、複数の論理デバイス62を形成することもできるし、或いは複数のRAIDグループ61を集めて一つの論理デバイス62を形成することもできる。
各々のLANポート21には、一つ以上の論理ユニット63がアサインされる。論理ユニット63は、NASクライアント80が認識する論理的な記憶単位である。例えば、NASクライアント80がUNIX(登録商標)系のシステムである場合には、論理ユニット63は、デバイスファイル(Device File)に対応付けられる。NASクライアント80がWindows(登録商標)系のシステムである場合には、論理ユニット63は、ドライブレター(ドライブ名)に対応付けられる。各々の論理ユニット63には、LUN(Logical Unit Number)がアサインされる。
各々の論理ユニット63には、単一又は複数の論理デバイス62がマッピングされる。NASクライアント80がオープン系システムの場合、NASクライアント80は、論理デバイス62を一つの物理的なデバイスとして認識し、LUNや論理ブロックアドレスを指定することにより、所望の論理デバイス62にアクセスする。NASクライアント80がメインフレーム系システムの場合、NASクライアント80は、論理デバイス62を直接認識する。
図3はNASクライアント80とNASサーバ20との間で送受信されるIPv4パケットフォーマットを示す。IPv4パケットは、バージョン番号フィールド(4ビット)、ヘッダ長フィールド(4ビット)、ToS(Time of Service)フィールド(8ビット)、パケット長フィールド(16ビット)、識別子フィールド(16ビット)、フラグフィールド(3ビット)、フラグメントオフセットフィールド(13ビット)、TTL(Time to live)フィールド(8ビット)、プロトコル番号フィールド(8ビット)、ヘッダチェックサムフィールド(16ビット)、送信元IPアドレス(32ビット)、宛先IPアドレス(32ビット)、オプションフィールド(32×nビット)、パディング(可変長ビット)、及びデータ本体を含む。
IPv4パケット内のデータ本体には、アクセス領域を特定する情報及びアクセスコマンド(リードコマンド又はライトコマンド)が格納されている。ToSフィールドには、IPパケットをレイヤ3レベルで優先制御するために用いられるToS値として、例えば、図4に示すような3ビットの値を有するPrecedence値、又は図5に示すような6ビットの値を有するDSCP(Differentiated Services Codepoint)値が格納されている。
尚、NASクライアント80とNASサーバ20との間で送受信されるIPパケットのプロトコルバージョンは、バージョン4に限られるものではなく、IPパケットをQoS制御できるものであればよい。例えば、バージョン6であってもよい。
図6はNASクライアント80とNASサーバ20との間で送受信されるMAC(Media Access Control)フレームフォーマットを示す。MACフレームは、宛先MACアドレス(6バイト)、送信元MACアドレス(6バイト)、VLAN(Virtual Local Area Network)タグフィールド(4バイト)、タイプ/長さフィールド(2バイト)、データ(46〜1500バイト)、FCS(Frame Check Sequence)フィールド(4バイト)を含む。
データフィールドには、上述したIPv4パケットが含まれる。VLANタグフィールドは、NASクライアント80とNASサーバ20とを接続するIPネットワークにVLANが適用される場合に、MACフレームに付加されるオプションフィールドである。VLANとは、一つのスイッチングハブの各ポート(又はMACアドレス)をグループ分けし、それぞれのグループを独立したLAN(ブロードキャスト・ドメイン)として機能させるネットワークである。
VLANタグフィールドには、TPID(Tag Protocol Identifier)フィールド、及びタグ制御情報フィールドが格納される。タグ制御情報フィールドには、CoS(Class of Service)値、CFI(Canonical Format Indicator)、VLAN IDが格納される。CoS値は、MACフレームをレイヤ2レベルで優先制御するために用いられる情報であり、図7に示すような3ビットの値を有する。
図8は管理テーブル30のテーブル構造を示す。管理テーブル30は、NASクライアント80からアクセスされるそれぞれの記憶領域(以下、アクセス領域と称する。)に対応付けられる一つ以上のエントリを保持する。アクセス領域は、NASクライアント80が認識する論理的な記憶領域の単位であり、例えば、フォルダ又は論理ボリュームである。各エントリは、“#”、“アクセス領域”、“LU”、“RAIDグループ”、“優先度”、“プロトコル”、“QoS制御”、“構成情報”、“監視パラメータ”、“障害情報”、及び“負荷情報”を対応付けている。
“#”の欄には、各エントリを識別する番号が格納される。“アクセス領域”の欄には、アクセス領域に対応するフォルダ名又はボリューム名が格納される。“LU”の欄には、アクセス領域を提供する論理ユニットの番号(LUN)が格納される。“RAIDグループ”の欄には、アクセス領域が属するRAIDグループの番号が格納される。“優先度”の欄には、アクセス領域に設定されている優先度が格納される。アクセス領域に優先度が設定されていない場合には、“無し”のステータスが格納される。“プロトコル”の欄には、QoS制御を実行する通信プロトコルの名称が格納されている。同図に示す例では、NASクライアント80がNFS又はCIFSのプロトコルでフォルダ1にアクセスするときにQoS制御を実行することを示す。
“QoS制御”の欄には、ToS値(Precedence値又はDSCP値)又はCoS値のうち何れの情報を用いてQoS制御をするかを示す情報が格納される。同図に示す例では、NASクライアント80がボリューム2にアクセスするときには、Precedence値を用いてQoS制御を実行することを示す。“構成情報”の欄には、“RAIDレベル”、“デバイスタイプ”が格納される。“RAIDレベル”の欄には、アクセス領域が属するRAIDグループのRAIDレベルが格納される。“デバイスタイプ”の欄には、ストレージデバイス60の種別が格納される。例えば、ストレージデバイス60がハードディスクである場合、“デバイスタイプ”の欄には、ストレージデバイス60がFCディスクであるのか又はSATAディスクであるのかを示す情報が格納される。
“監視パラメータ”の欄には、後述する負荷情報(レスポンスタイム、レプリケーション実行の有無、CPU使用率、バックアップ実行の有無)のうちどの情報を用いてQoS制御を実行するのかを示す情報が格納される。同図に示す例では、NASクライアント80がボリューム3にアクセスするときには、レプリケーションの実行の有無を負荷情報としてQoS制御を実行することを示す。
“障害情報”の欄には、“デバイス障害”、“コントローラ障害”、“キャッシュ障害”、“クラスタフェールオーバ”が格納される。“デバイス障害”の欄には、ストレージデバイス60に障害が生じているか否かを示す情報が格納される。“コントローラ障害”の欄には、記憶制御装置50に障害が生じているか否かを示す情報が格納される。“キャッシュ障害”の欄には、ディスクキャッシュ54に障害が生じているか否かを示す情報が格納される。“クラスタフェールオーバ”の欄には、クラスタフェールオーバが生じているか否かを示す情報が格納される。
“負荷情報”の欄には、“レスポンス”、“レプリケーション実行”、“CPU使用率”、“バックアップ実行”が格納される。“レスポンス”の欄には、NASクライアント80からのファイルアクセス要求に対するストレージシステム10のレスポンスタイムが格納される。“レプリケーション実行”の欄には、記憶装置40がボリュームのレプリケーション処理を実行しているか否かを示す情報が格納される。“CPU使用率”には、記憶制御装置50のCPU使用率が格納される。“バックアップ実行”の欄には、記憶装置40がボリュームのバックアップ処理を実行しているか否かを示す情報が格納される。
図9は優先度計算テーブル31のテーブル構造を示す。優先度計算テーブル31は、NASクライアント80からのファイルアクセス要求に対してNASサーバ20がNASクライアント80に返信するIPパケットに設定される優先度を計算するための情報を格納する。優先度計算テーブル31は、NASクライアント80からアクセスされるそれぞれのアクセス領域に対応付けられる一つ以上のエントリを保持する。各エントリは、“送信元アドレス”、“ToS値/CoS値”、“優先度”、“構成情報”、“障害情報”、“負荷情報”を対応付ける。
“送信元アドレス”の欄には、NASクライアント80からのファイルアクセス要求に対する応答として、IPパケットを返送する宛先(要求元のNASクライアント80のIPアドレス又はMACアドレス)が格納される。
NASサーバ20からNASクライアント80に送信されるIPパケットに設定される優先度を、ToS値を用いて計算する場合には、“ToS値/CoS値”の欄には、NASクライアント80からNASサーバ20にファイルアクセス要求として送信されるIPパケットに設定されているToS値が格納される。一方、NASサーバ20からNASクライアント80に送信されるMACフレームに設定される優先度を、CoS値を用いて計算する場合には、“ToS値/CoS値”の欄には、NASクライアント80からNASサーバ20にファイルアクセス要求として送信されるMACフレームに設定されているCoS値が格納される。
“優先度”の欄には、NASクライアント80からファイルアクセス要求されるアクセス領域に設定されている優先度が格納される。“構成情報”の欄、“障害情報”の欄、“負荷情報”の欄にそれぞれ格納される情報は、上述した構成情報、障害情報、負荷情報と同じなので、詳細な説明は省略する。
次に、図10乃至図15を参照しながら優先度計算テーブル31の作成処理について説明する。
図10はToS値記録処理ルーチンを示す。テーブル作成部24は、NASクライアント80からIPパケットを受信すると(ステップ1001)、パケットヘッダを解析し(ステップ1002)、パケットヘッダにToS値が設定されているか否かを判定する(ステップ1003)。
パケットヘッダにToS値が設定されているならば(ステップ1003;YES)、テーブル作成部24は、ToS値と送信元アドレス(NASクライアント80のネットワークアドレス)とを優先度計算テーブル31に記録する(ステップ1004)。
一方、パケットヘッダにToS値が設定されてないならば(ステップ1003;NO)、テーブル作成部24は、ToS値が設定されていないことを示すステータスを優先度計算テーブル31に記録する(ステップ1005)。
図11はCoS値記録処理ルーチンを示す。テーブル作成部24は、NASクライアント80からMACフレームを受信すると(ステップ1101)、フレームヘッダを解析し(ステップ1102)、フレームヘッダにCoS値が設定されているか否かを判定する(ステップ1103)。
フレームヘッダにCoS値が設定されているならば(ステップ1103;YES)、テーブル作成部24は、CoS値と送信元アドレス(NASクライアント80のネットワークアドレス)とを優先度計算テーブル31に記録する(ステップ1104)。
一方、フレームヘッダにCoS値が設定されてないならば(ステップ1103;NO)、テーブル作成部24は、CoS値が設定されていないことを示すステータスを優先度計算テーブル31に記録する(ステップ1105)
図12は優先度記録処理ルーチンを示す。テーブル作成部24は、NASクライアント80からファイルアクセスが要求されているアクセス領域を特定し(ステップ1201)、管理テーブル30を参照して、そのアクセス領域に優先度が設定されているか否かを判定する(ステップ1202)。
アクセス領域に優先度が設定されているならば(ステップ1202;YES)、テーブル作成部24は、アクセス領域に設定されている優先度を記録する(ステップ1203)。
一方、アクセス領域に優先度が設定されてないならば(ステップ1202;NO)、テーブル作成部24は、アクセス領域に優先度が設定されてないことを示すステータスを優先度計算テーブル31に記録する(ステップ1204)。
図13は構成情報記録処理ルーチンを示す。テーブル作成部24は、NASクライアント80からファイルアクセスが要求されているアクセス領域を特定し(ステップ1301)、管理テーブル30を参照して、そのアクセス領域が属するRAIDグループのRAIDレベルを優先度計算テーブル31に記録し(ステップ1302)、そのアクセス領域を提供するストレージデバイス60のデバイスタイプを優先度計算テーブル31に記録する(ステップ1303)。
図14は障害情報記録処理ルーチンを示す。テーブル作成部24は、NASクライアント80からファイルアクセスが要求されているアクセス領域を特定し(ステップ1401)、管理テーブル30を参照して、そのアクセス領域に関する障害(デバイス障害、コントローラ障害、キャッシュ障害及びクラスタフェールオーバ)が生じているか否かを判定する(ステップ1402)。
アクセス領域に関する障害が生じていれば(ステップ1402;YES)、テーブル作成部24は障害が生じていることを示すステータスを優先度計算テーブル31に記録する(ステップ1403)。
一方、アクセス領域に関する障害が生じてないならば(ステップ1402;NO)、テーブル作成部24は、障害が生じてないことを示すステータスを優先度計算テーブル31に記録する(ステップ1404)。
図15は負荷情報記録処理ルーチンを示す。テーブル作成部24は、NASクライアント80からファイルアクセスが要求されているアクセス領域を特定し(ステップ1501)、管理テーブル30を参照して、そのアクセス領域に関するレプリケーション実行の有無又はバックアップ実行の有無を優先度計算テーブル31に記録する(ステップ1502)。
そして、テーブル作成部24は、アクセス領域に関するレスポンスタイムを優先度計算テーブル31に記録し(ステップ1503)、アクセス領域に関するCPU使用率を優先度計算テーブル31に記録する(ステップ1504)。
次に、図16を参照しながら優先度計算処理について説明する。優先度計算部23は、NASクライアント80からのファイルアクセス要求に対する応答として、NASサーバ20からNASクライアント80に返送されるIPパケット(以下、返信パケットと称する。)に設定されるToS値(又はMACフレームに設定されるCoS値)を、優先度計算テーブル31に記録された情報を用いて計算する。
優先度計算部23は、優先度計算テーブル31を参照し(ステップ1601)、アクセス領域に設定されている優先度、及び記憶装置40の状態情報の両方ともステータスなしが記録されているか否かを判定する(ステップ1602)。記憶装置40の状態情報は、構成情報(RAIDレベル、デバイスタイプ)、障害情報(デバイス障害、コントローラ障害、キャッシュ障害、クラスタフェールオーバ)、及び負荷情報(レスポンスタイム、レプリケーション実行、CPU使用率、バックアップ実行)を総称するものである。
優先度及び状態情報のうち何れかにステータスありが記録されている場合には(ステップ1602;NO)、優先度計算部23は、NASクライアント80から受信したIPパケットに設定されているToS値(又はMACフレームに設定されているCoS値)と、アクセス領域に設定されている優先度と、記憶装置40の状態情報とを基に返信パケットに設定されるToS値(又はCoS値)を計算する(ステップ1603)。返信パケットに設定される優先度の計算方法については、後述する。
一方、優先度及び状態情報の両方ともステータスなしが記録されている場合には(ステップ1602;YES)、優先度計算部23は、NASクライアント80から受信したIPパケットに設定されているToS値(又はMACフレームに設定されているCoS値)と同じ値を返信パケットの優先度として設定する(ステップ1604)。
次に、返信パケットに設定される優先度の計算方法について説明する。
説明の便宜上、優先度を以下のように定義する。
(1)優先度は、その値が小さい程、優先度が高いものとする。
(2)優先度の値は、1以上の自然数とする。
上記の定義によれば、優先度「1」が最優先となる。但し、上記の定義は、あくまでも便宜上のものであって、本実施形態は上記の定義に限られるものではない。
説明の便宜上、優先度を以下のように定義する。
(1)優先度は、その値が小さい程、優先度が高いものとする。
(2)優先度の値は、1以上の自然数とする。
上記の定義によれば、優先度「1」が最優先となる。但し、上記の定義は、あくまでも便宜上のものであって、本実施形態は上記の定義に限られるものではない。
ここで、NASサーバ20からNASクライアント80に送信される返信パケットの優先度(ToS値又はCoS値)をP1、NASサーバ20がNASクライアント80から受信するIPパケットの優先度(優先度計算テーブル31に記録されているToS値又はCoS値)をP2、ファイルアクセスが要求されているアクセス領域に設定されている優先度(優先度計算テーブル31に記録されている優先度)をP3、記憶装置40の状態情報(優先度計算テーブル31に記録されている構成情報、障害情報、及び負荷情報)をP4とすると、P1は以下の計算式に基づいて計算される。
P1=K1×P2×L1×P3×M1×P4
ここで、K1,L1,M1は、重み係数であり、1以上の自然数の値をとる。例えば、P1を計算する上で、アクセス領域に設定されている優先度P3を重視する場合には、L1の値をK1,M1の値よりも大きく設定すればよい。また、P1の値として、ToS値とCoS値のうち何れの情報を採用するのかは、管理テーブル30の“QoS制御”の欄に格納されている情報に基づいて決定される。
P1=K1×P2×L1×P3×M1×P4
ここで、K1,L1,M1は、重み係数であり、1以上の自然数の値をとる。例えば、P1を計算する上で、アクセス領域に設定されている優先度P3を重視する場合には、L1の値をK1,M1の値よりも大きく設定すればよい。また、P1の値として、ToS値とCoS値のうち何れの情報を採用するのかは、管理テーブル30の“QoS制御”の欄に格納されている情報に基づいて決定される。
また、構成情報をP5、障害情報をP6、負荷情報をP7とすると、P4は以下の計算式に基づいて計算される。
P4=K2×P5×L2×P6×M2×P7
ここで、K2,L2,M2は、重み係数であり、1以上の自然数の値をとる。例えば、P4を計算する上で、障害情報P6を重視する場合には、L2の値をK2,M2の値よりも大きく設定すればよい。
P4=K2×P5×L2×P6×M2×P7
ここで、K2,L2,M2は、重み係数であり、1以上の自然数の値をとる。例えば、P4を計算する上で、障害情報P6を重視する場合には、L2の値をK2,M2の値よりも大きく設定すればよい。
構成情報P5の値は、以下のようにして計算する。
P5=[RAIDレベル]×[デバイスタイプ]
[RAIDレベル]=1 :RAID0
[RAIDレベル]=2 :RAID0/1
[RAIDレベル]=3 :RAID1
[RAIDレベル]=4 :RAID5
[RAIDレベル]=5 :RAID6
[デバイスタイプ]=1 :FCディスク
[デバイスタイプ]=3 :SATAディスク
P5=[RAIDレベル]×[デバイスタイプ]
[RAIDレベル]=1 :RAID0
[RAIDレベル]=2 :RAID0/1
[RAIDレベル]=3 :RAID1
[RAIDレベル]=4 :RAID5
[RAIDレベル]=5 :RAID6
[デバイスタイプ]=1 :FCディスク
[デバイスタイプ]=3 :SATAディスク
障害情報P6の値は、以下のようにして計算する。
P6=[デバイス障害]×[コントローラ障害]×[キャッシュ障害]×[クラスタフェールオーバ]
[デバイス障害]=1 :デバイス障害無し
[デバイス障害]=5 :デバイス障害有り
[コントローラ障害]=1 :コントローラ障害無し
[コントローラ障害]=5 :コントローラ障害有り
[キャッシュ障害]=1 :キャッシュ障害無し
[キャッシュ障害]=5 :キャッシュ障害有り
[クラスタフェールオーバ]=1 :クラスタフェールオーバ無し
[クラスタフェールオーバ]=5 :クラスタフェールオーバ有り
P6=[デバイス障害]×[コントローラ障害]×[キャッシュ障害]×[クラスタフェールオーバ]
[デバイス障害]=1 :デバイス障害無し
[デバイス障害]=5 :デバイス障害有り
[コントローラ障害]=1 :コントローラ障害無し
[コントローラ障害]=5 :コントローラ障害有り
[キャッシュ障害]=1 :キャッシュ障害無し
[キャッシュ障害]=5 :キャッシュ障害有り
[クラスタフェールオーバ]=1 :クラスタフェールオーバ無し
[クラスタフェールオーバ]=5 :クラスタフェールオーバ有り
負荷情報P7の値は、管理テーブル30に格納されている監視パラメータで指定されているものを選択し、以下のようにして求める。
P7=1 :レプリケーション実行無し
P7=2 :レプリケーション実行有り
P7=1 :バックアップ実行無し
P7=2 :バックアップ実行有り
P7=1 :レスポンスタイム7mS以上
P7=2 :レスポンスタイム7mS未満
P7=1 :CPU使用率50%以上
P7=2 :CPU使用率50%未満
例えば、ボリューム2に設定されている監視パラメータは、レスポンスタイムなので、P7=1となる。
P7=1 :レプリケーション実行無し
P7=2 :レプリケーション実行有り
P7=1 :バックアップ実行無し
P7=2 :バックアップ実行有り
P7=1 :レスポンスタイム7mS以上
P7=2 :レスポンスタイム7mS未満
P7=1 :CPU使用率50%以上
P7=2 :CPU使用率50%未満
例えば、ボリューム2に設定されている監視パラメータは、レスポンスタイムなので、P7=1となる。
尚、上記の計算方法は、記憶装置40に障害が生じているときには、ファイルアクセスが遅延することを想定し、返信パケットの優先度を高くしても、その遅延分を補うことができないことに着目して、返信パケットの優先度を低くするという運用方法に立脚している。但し、記憶装置40に障害が生じているときには、返信パケットの優先度を高くしてファイルアクセスの遅延を補うという運用方法も考えられる。かかる運用方法では、障害情報P6の値は、以下のようにして計算する。
P6=[デバイス障害]×[コントローラ障害]×[キャッシュ障害]×[クラスタフェールオーバ]
[デバイス障害]=5 :デバイス障害無し
[デバイス障害]=1 :デバイス障害有り
[コントローラ障害]=5 :コントローラ障害無し
[コントローラ障害]=1 :コントローラ障害有り
[キャッシュ障害]=5 :キャッシュ障害無し
[キャッシュ障害]=1 :キャッシュ障害有り
[クラスタフェールオーバ]=5 :クラスタフェールオーバ無し
[クラスタフェールオーバ]=1 :クラスタフェールオーバ有り
P6=[デバイス障害]×[コントローラ障害]×[キャッシュ障害]×[クラスタフェールオーバ]
[デバイス障害]=5 :デバイス障害無し
[デバイス障害]=1 :デバイス障害有り
[コントローラ障害]=5 :コントローラ障害無し
[コントローラ障害]=1 :コントローラ障害有り
[キャッシュ障害]=5 :キャッシュ障害無し
[キャッシュ障害]=1 :キャッシュ障害有り
[クラスタフェールオーバ]=5 :クラスタフェールオーバ無し
[クラスタフェールオーバ]=1 :クラスタフェールオーバ有り
尚、上記の計算式に基づいて、返信パケットの優先度の値を設定し直すタイミングとしては、1パケット単位であってもよく、或いは1ファイル単位(又は1セッション単位)であってもよい。1パケット単位でQoS制御すると、その時々の状況に応じた適切なQoS制御が可能になる。1ファイル単位でQoS制御すると、QoS制御が簡易になり、NASサーバ20の負荷を低減できる。
10…ストレージシステム 20…NASサーバ 23…優先度計算部 24…テーブル作成部 30…管理テーブル 31…優先度計算テーブル 40…記憶装置 50…記憶制御装置 60…ストレージデバイス 70…LANスイッチ 80…NASクライアント
Claims (10)
- クライアントからのアクセス要求を処理するストレージシステムであって、
前記クライアントからのアクセス要求に対する応答として前記クライアントに返信される返信パケットに設定される優先度を、前記クライアントがアクセスしたアクセス領域に予め設定されている優先度に基づいて計算する優先度計算部を備える、ストレージシステム。 - クライアントからのアクセス要求を処理するストレージシステムであって、
前記クライアントからのアクセス要求に対する応答として前記クライアントに返信される返信パケットに設定される優先度を、前記ストレージシステムの状態情報に基づいて計算する優先度計算部を備える、ストレージシステム。 - 請求項2に記載のストレージシステムであって、
前記状態情報は、前記アクセス領域を提供するストレージデバイスの構成情報、前記ストレージシステムの負荷情報、前記ストレージシステムの障害情報のうち何れかの情報を含む、ストレージシステム。 - 請求項3に記載のストレージシステムであって、
前記優先度計算部は、前記ストレージシステムに障害が生じているときには、前記ストレージシステムに障害が生じてないときよりも、前記返信パケットの優先度を高く設定する、ストレージシステム。 - 請求項3に記載のストレージシステムであって、
前記優先度計算部は、前記ストレージシステムに障害が生じているときには、前記ストレージシステムに障害が生じてないときよりも、前記返信パケットの優先度を低く設定する、ストレージシステム。 - クライアントからのアクセス要求を受信するステップと、
前記クライアントからのアクセス要求に対する応答として前記クライアントに返信される返信パケットに設定される優先度を、前記クライアントがアクセスしたアクセス領域に予め設定されている優先度に基づいて計算するステップと、
前記返信パケットを前記クライアントに返信するステップと、
を備える通信制御方法。 - 請求項6に記載の通信制御方法であって、
前記返信パケットに設定される優先度を、前記ストレージシステムの状態情報に基づいて計算するステップを更に備える、通信制御方法。 - 請求項7に記載の通信制御方法であって、
前記状態情報は、前記アクセス領域を提供するストレージデバイスの構成情報、前記ストレージシステムの負荷情報、前記ストレージシステムの障害情報のうち何れかの情報を含む、通信制御方法。 - 請求項8に記載の通信制御方法であって、
前記ストレージシステムに障害が生じているときには、前記ストレージシステムに障害が生じてないときよりも、前記返信パケットの優先度を高く設定するステップを更に備える、通信制御方法。 - 請求項8に記載の通信制御方法であって、
前記ストレージシステムに障害が生じているときには、前記ストレージシステムに障害が生じてないときよりも、前記返信パケットの優先度を低く設定するステップを更に備える、通信制御方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006141138A JP2007310772A (ja) | 2006-05-22 | 2006-05-22 | ストレージシステム及び通信制御方法 |
US11/486,913 US7529830B2 (en) | 2006-05-22 | 2006-07-13 | Storage system and communication control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006141138A JP2007310772A (ja) | 2006-05-22 | 2006-05-22 | ストレージシステム及び通信制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007310772A true JP2007310772A (ja) | 2007-11-29 |
Family
ID=38713248
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006141138A Pending JP2007310772A (ja) | 2006-05-22 | 2006-05-22 | ストレージシステム及び通信制御方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US7529830B2 (ja) |
JP (1) | JP2007310772A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012527046A (ja) * | 2009-05-12 | 2012-11-01 | マイクロソフト コーポレーション | リアルタイムでlunをファイルに、またはファイルをlunに変換すること |
WO2013014695A1 (en) | 2011-07-22 | 2013-01-31 | Hitachi, Ltd. | File storage system for transferring file to remote archive system |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8463798B1 (en) | 2007-03-31 | 2013-06-11 | Emc Corporation | Prioritized restore |
US8924352B1 (en) | 2007-03-31 | 2014-12-30 | Emc Corporation | Automated priority backup and archive |
US8375005B1 (en) * | 2007-03-31 | 2013-02-12 | Emc Corporation | Rapid restore |
US8341121B1 (en) | 2007-09-28 | 2012-12-25 | Emc Corporation | Imminent failure prioritized backup |
US8583601B1 (en) | 2007-09-28 | 2013-11-12 | Emc Corporation | Imminent failure backup |
WO2010002407A1 (en) | 2008-07-02 | 2010-01-07 | Hewlett-Packard Development Company, L.P. | Performing administrative tasks associated with a network-attached storage system at a client |
EP2141860B1 (en) * | 2008-07-04 | 2016-02-24 | Alcatel Lucent | Method for monitoring events in a communication network |
US20100169570A1 (en) * | 2008-12-31 | 2010-07-01 | Michael Mesnier | Providing differentiated I/O services within a hardware storage controller |
KR101743772B1 (ko) * | 2009-06-25 | 2017-06-05 | 코닌클리케 필립스 엔.브이. | 데이터 패킷들을 처리하기 위한 방법 및 디바이스 |
US8819208B2 (en) | 2010-03-05 | 2014-08-26 | Solidfire, Inc. | Data deletion in a distributed data storage system |
US8473643B2 (en) * | 2011-05-05 | 2013-06-25 | Hitachi, Ltd. | Method and apparatus of tier storage management awareness networking |
US9054992B2 (en) | 2011-12-27 | 2015-06-09 | Solidfire, Inc. | Quality of service policy sets |
US9003021B2 (en) | 2011-12-27 | 2015-04-07 | Solidfire, Inc. | Management of storage system access based on client performance and cluser health |
US9838269B2 (en) | 2011-12-27 | 2017-12-05 | Netapp, Inc. | Proportional quality of service based on client usage and system metrics |
US20150244795A1 (en) | 2014-02-21 | 2015-08-27 | Solidfire, Inc. | Data syncing in a distributed system |
US9798728B2 (en) | 2014-07-24 | 2017-10-24 | Netapp, Inc. | System performing data deduplication using a dense tree data structure |
US9671960B2 (en) | 2014-09-12 | 2017-06-06 | Netapp, Inc. | Rate matching technique for balancing segment cleaning and I/O workload |
US10133511B2 (en) | 2014-09-12 | 2018-11-20 | Netapp, Inc | Optimized segment cleaning technique |
US9836229B2 (en) | 2014-11-18 | 2017-12-05 | Netapp, Inc. | N-way merge technique for updating volume metadata in a storage I/O stack |
US9720601B2 (en) | 2015-02-11 | 2017-08-01 | Netapp, Inc. | Load balancing technique for a storage array |
US9762460B2 (en) | 2015-03-24 | 2017-09-12 | Netapp, Inc. | Providing continuous context for operational information of a storage system |
US9710317B2 (en) | 2015-03-30 | 2017-07-18 | Netapp, Inc. | Methods to identify, handle and recover from suspect SSDS in a clustered flash array |
US9740566B2 (en) | 2015-07-31 | 2017-08-22 | Netapp, Inc. | Snapshot creation workflow |
US10929022B2 (en) | 2016-04-25 | 2021-02-23 | Netapp. Inc. | Space savings reporting for storage system supporting snapshot and clones |
US10503654B2 (en) | 2016-09-01 | 2019-12-10 | Intel Corporation | Selective caching of erasure coded fragments in a distributed storage system |
US10642763B2 (en) | 2016-09-20 | 2020-05-05 | Netapp, Inc. | Quality of service policy sets |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6834326B1 (en) * | 2000-02-04 | 2004-12-21 | 3Com Corporation | RAID method and device with network protocol between controller and storage devices |
US20020112030A1 (en) | 2000-12-19 | 2002-08-15 | Naoko Iwami | Guaranteed data access speed of a storage system |
JP4426280B2 (ja) * | 2003-12-25 | 2010-03-03 | 株式会社日立製作所 | バックアップ/リストアシステム及び方法 |
JP4230410B2 (ja) | 2004-05-11 | 2009-02-25 | 株式会社日立製作所 | 仮想ストレージの通信品質制御装置 |
JP4516458B2 (ja) * | 2005-03-18 | 2010-08-04 | 株式会社日立製作所 | フェイルオーバークラスタシステム及びフェイルオーバー方法 |
JP2006285811A (ja) * | 2005-04-04 | 2006-10-19 | Hitachi Ltd | ストレージシステム及びデータ処理方法 |
JP4871546B2 (ja) * | 2005-08-22 | 2012-02-08 | 株式会社日立製作所 | ストレージシステム |
-
2006
- 2006-05-22 JP JP2006141138A patent/JP2007310772A/ja active Pending
- 2006-07-13 US US11/486,913 patent/US7529830B2/en not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012527046A (ja) * | 2009-05-12 | 2012-11-01 | マイクロソフト コーポレーション | リアルタイムでlunをファイルに、またはファイルをlunに変換すること |
WO2013014695A1 (en) | 2011-07-22 | 2013-01-31 | Hitachi, Ltd. | File storage system for transferring file to remote archive system |
Also Published As
Publication number | Publication date |
---|---|
US20070271391A1 (en) | 2007-11-22 |
US7529830B2 (en) | 2009-05-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007310772A (ja) | ストレージシステム及び通信制御方法 | |
JP5026283B2 (ja) | 協調的共用ストレージアーキテクチャ | |
US7302541B2 (en) | System and method for switching access paths during data migration | |
CN100428185C (zh) | 存储服务器的自底向上高速缓存结构 | |
US9049242B2 (en) | Atomic cache transactions in a distributed storage system | |
US9747034B2 (en) | Orchestrating management operations among a plurality of intelligent storage elements | |
US20050138184A1 (en) | Efficient method for sharing data between independent clusters of virtualization switches | |
US20060095705A1 (en) | Systems and methods for data storage management | |
US8745326B2 (en) | Request priority seek manager | |
JP2007141216A (ja) | 複数のプロトコルアクセス可能なosdストレージサブシステムのためのシステム、方法および装置 | |
US7958302B2 (en) | System and method for communicating data in a storage network | |
JP2007207007A (ja) | ストレージシステム、ストレージコントローラ及び計算機システム | |
US10855556B2 (en) | Methods for facilitating adaptive quality of service in storage networks and devices thereof | |
US7191437B1 (en) | System and method for reliable disk firmware update within a networked storage fabric | |
US7761649B2 (en) | Storage system with synchronized processing elements | |
US7761650B2 (en) | Processing wrong side I/O commands | |
US20240054023A1 (en) | Methods for dynamic throttling to satisfy minimum throughput service level objectives and devices thereof | |
US7882271B2 (en) | Processor partnering in a storage system | |
US7073092B2 (en) | Channel adapter and disk array device | |
US20090113143A1 (en) | Systems and methods for managing local and remote memory access | |
US8966173B1 (en) | Managing accesses to storage objects | |
JP5487482B2 (ja) | 記憶システムにおけるプロセッサ・パートナリング | |
US7644229B2 (en) | Rapid search system and method in high capacity hard disk drive cluster | |
Ortenberg et al. | Overview of Storage Networking and Storage Networks | |
WO2013075516A1 (zh) | 虚拟磁带库设备及数据恢复方法 |