JP2005339215A - ディスクアレイ装置およびその制御方法 - Google Patents

ディスクアレイ装置およびその制御方法 Download PDF

Info

Publication number
JP2005339215A
JP2005339215A JP2004157348A JP2004157348A JP2005339215A JP 2005339215 A JP2005339215 A JP 2005339215A JP 2004157348 A JP2004157348 A JP 2004157348A JP 2004157348 A JP2004157348 A JP 2004157348A JP 2005339215 A JP2005339215 A JP 2005339215A
Authority
JP
Japan
Prior art keywords
backup
lun
disk array
array device
storage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004157348A
Other languages
English (en)
Other versions
JP4575028B2 (ja
Inventor
Yutaka Ogasawara
裕 小笠原
Yoshinori Igarashi
良典 五十嵐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2004157348A priority Critical patent/JP4575028B2/ja
Priority to US10/911,604 priority patent/US7149861B2/en
Priority to EP05253107A priority patent/EP1600850A3/en
Publication of JP2005339215A publication Critical patent/JP2005339215A/ja
Priority to US11/634,090 priority patent/US7574575B2/en
Application granted granted Critical
Publication of JP4575028B2 publication Critical patent/JP4575028B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/065Replication mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1415Saving, restoring, recovering or retrying at system level
    • G06F11/1435Saving, restoring, recovering or retrying at system level using file system or storage system metadata
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • G06F3/0607Improving or facilitating administration, e.g. storage management by facilitating the process of upgrading existing storage systems, e.g. for improving compatibility between host and storage device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0635Configuration or reconfiguration of storage systems by changing the path, e.g. traffic rerouting, path reconfiguration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0637Permissions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Library & Information Science (AREA)
  • Quality & Reliability (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】 複数の異種ネットワークに接続可能な記憶装置システム、およびかかる記憶装置システムに必要とされる記憶デバイス制御装置のシステムLUの複製を制御する方法を提供する。
【解決手段】 記憶装置システムにおいて、記憶デバイス300のLDEVには、自記憶装置システム内の制御情報を格納するためのシステムLUと、上位装置から送られるライトデータを書き込むためのユーザLUとが設定可能であり、管理端末は、LDEVに対してパス定義を設定するためにシステムLUまたはユーザLUを指定し、CHN110は、管理端末により指定された区別に従いシステムLUに対する上位装置からのアクセスを禁止する。さらに、バックアップ用LUに対してシステムLUのパスを自動的に定義し、バックアップ用LUに対してシステムLUに格納された制御情報をバックアップする。
【選択図】 図11

Description

本発明は、ディスクアレイ装置およびその制御技術に関し、特に、複数の異種ネットワークに接続可能な記憶装置システムの複製を制御する方法に適用して有効な技術に関する。
本発明者が検討したところによれば、従来のディスクアレイ装置およびその制御技術に関しては、以下のような技術が考えられる。
近年、コンピュータシステムで取り扱われるデータ量が急激に増加している。かかる膨大なデータを効率良く利用して管理するために、複数のディスクアレイ装置(以下、記憶装置システムと称する)と情報処理装置とを専用のネットワーク(Storage Area Network、以下SANと記す)で接続し、記憶装置システムへの高速かつ大量なアクセスを実現する技術が開発されている。記憶装置システムと情報処理装置とをSANで接続して高速なデータ転送を実現するためには、ファイバチャネルプロトコルに従った通信機器を用いてネットワークを構築するのが一般的である。
一方、複数の記憶装置システムと情報処理装置とをTCP/IP(Transmisson Control Protocol/Internet Protocol)プロトコルを用いたネットワークで相互に接続し、記憶装置システムへのファイルレベルでのアクセスを実現する、NAS(Network Attached Storage)と呼ばれるネットワークシステムが開発されている。NASにおいては、記憶装置システムに対してファイルシステム機能を有する装置が接続されているため、情報処理装置からのファイルレベルでのアクセスが可能となっている。
特開2002−351703号公報
ところで、前記のような本発明者が検討した従来のディスクアレイ装置の制御技術に関して、本発明者が検討した結果、以下のようなことが明らかとなった。
たとえば、従来のNASは、TCP/IP通信機能およびファイルシステム機能を持たない記憶装置システムに、TCP/IP通信機能およびファイルシステム機能を持った情報処理装置を接続させることにより実現されていた。そのため、上記接続される情報処理装置の設置スペースが必要であった。また、上記情報処理装置と記憶装置システムとの間は、高速に通信を行う必要性からSANで接続されていることが多く、そのための通信制御機器や通信制御機能を備える必要もあった。
そこで、本発明は、上記課題に鑑みてなされたものであり、複数の異種ネットワークに接続可能な記憶装置システム、およびかかる記憶装置システムに必要とされる記憶デバイス制御装置のシステム領域の複製を制御する方法を提供することを主たる目的とする。
本発明の前記ならびにその他の目的と新規な特徴は、本明細書の記述および添付図面から明らかになるであろう。
本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、次のとおりである。
本発明は、データを格納する複数の記憶デバイスと、複数の記憶デバイスに対するデータの書き込みまたは読み出しを制御する記憶デバイス制御部と、記憶デバイス制御部に接続される接続部と、自ディスクアレイ装置の外部の上位装置から書き込み要求または読み出し要求を受け、上位装置から送られるファイルレベルのデータをブロックレベルのデータに変換して複数の記憶デバイスへ転送し、複数のクラスタグループに分類される複数のチャネル制御部と、複数のチャネル制御部および記憶デバイス制御部によってやり取りされる制御情報が格納される共有メモリと、複数のチャネル制御部と記憶デバイス制御部との間でやり取りされるデータを一時的に保存するキャッシュメモリと、複数の記憶デバイスの論理的な構成を設定する管理端末とを有する記憶装置システムおよびその制御方法に適用され、以下のような特徴を有するものである。
すなわち、本発明においては、複数の記憶デバイスの論理的な記憶領域である複数のLDEVには、自ディスクアレイ装置内の制御情報を格納するための記憶領域であるシステムLUと、上位装置から送られるライトデータを書き込むための記憶領域であるユーザLUとが設定可能であり、管理端末は、複数のLDEVに対してパス定義を設定するために、システムLUまたはユーザLUを指定し、複数のチャネル制御部は、管理端末により指定されたシステムLUまたはユーザLUの区別に従い、システムLUに対する上位装置からのアクセスを禁止するものである。
さらに、本発明において、複数の記憶デバイスの複数のLDEVには、システムLUに格納された制御情報をバックアップするための記憶領域であるバックアップ用LUが設定可能であり、バックアップ用LUに対してシステムLUのパスを自動的に定義し、バックアップ用LUに対して前記システムLUに格納された制御情報をバックアップするものである。
具体的に、システムLUのパスを自動的に定義する機能は、管理端末と複数のチャネル制御部とで実現し、管理端末は、複数のLDEVのうち、設定可能なLDEVに対して、パス定義を行いたいシステムLUを割り付け、複数のチャネル制御部は、管理端末により割り付けられた設定可能なLDEVのバックアップ用LUに対してシステムLUのパスを自動的に定義するものである。
または、システムLUのパスを自動的に定義する機能は、複数のチャネル制御部で実現し、複数のチャネル制御部は、複数のLDEVのうち、設定可能なLDEVに対して、パス定義を行いたいシステムLUを割り付け、割り付けられた設定可能なLDEVのバックアップ用LUに対してシステムLUのパスを自動的に定義するものである。
あるいは、システムLUのパスを自動的に定義する機能は、管理端末で実現し、管理端末は、複数のLDEVのうち、設定可能なLDEVに対して、パス定義を行いたいシステムLUを割り付け、割り付けられた設定可能なLDEVのバックアップ用LUに対してシステムLUのパスを自動的に定義するものである。
たとえば、システムLUに格納された制御情報は、OS情報、ダンプ情報、コマンドデバイス情報、障害情報、クラスタ共有情報であり、バックアップ用LUに対してOS情報、ダンプ情報、コマンドデバイス情報、障害情報、クラスタ共有情報をバックアップするものである。
本願において開示される発明のうち、代表的なものによって得られる効果を簡単に説明すれば以下のとおりである。
本発明によれば、複数の異種ネットワークに接続可能な記憶装置システムを提供することができ、さらに、かかる記憶装置システムに必要とされる記憶デバイス制御装置のシステム領域の複製を制御する方法をも提供することができる。特に、保守員またはユーザによる設定によって、システムLUとユーザLUを明示的に分離することができ、またシステムLUについてのみ、バックアップ用LUを指定することができ、かつ各パッケージから一定のポリシーに従ってアクセスが可能となるように、自動的にパス定義およびパス減設の設定を行うことができる。
以下、本発明の実施の形態を図面に基づいて詳細に説明する。なお、実施の形態を説明するための全図において、同一の機能を有する部材には原則として同一の符号を付し、その繰り返しの説明は省略する。
<記憶装置システムを含むシステムの全体構成例>
図1により、本実施の形態に係る記憶装置システムを含むシステムの全体構成の一例を説明する。図1は記憶装置システムを含むシステムの全体構成を示すブロック図である。
本実施の形態に係る記憶装置システム600は、記憶デバイス制御装置100と記憶デバイス300とを備える。記憶デバイス制御装置100は、情報処理装置200から受信したコマンドに従って記憶デバイス300に対する制御を行う。たとえば、情報処理装置200からデータ入出力要求を受信して、記憶デバイス300に記憶されているデータの入出力のための処理を行う。データは、記憶デバイス300が備えるディスクドライブにより提供される物理的な記憶領域上の論理的に設定される記憶領域である論理ボリューム(Logical Unit、以下LUとも記す)に記憶されている。また、記憶デバイス制御装置100は、情報処理装置200との間、記憶装置システム600を管理するための各種コマンドの授受も行う。
情報処理装置200は、CPU(Central Processing Unit)やメモリを備えたコンピュータである。情報処理装置200が備えるCPUにより各種プログラムが実行されることにより、様々な機能が実現される。情報処理装置200は、たとえばパーソナルコンピュータやワークステーションであることもあるし、メインフレームコンピュータであることもある。
図1において、情報処理装置(1)〜(3)200は、LAN(Local Area Network)400を介して記憶デバイス制御装置100と接続されている。LAN400は、インターネットとすることもできるし、専用のネットワークとすることもできる。LAN400を介して行われる情報処理装置(1)〜(3)200と記憶デバイス制御装置10との間の通信は、たとえばTCP/IPプロトコルに従って行われる。情報処理装置(1)〜(3)200からは、記憶装置システム600に対して、ファイル名指定によるデータアクセス要求(ファイル単位でのデータ入出力要求、以下、ファイルアクセス要求とも記す)が送信される。
LAN400には、バックアップデバイス910が接続されている。バックアップデバイス910は具体的には、MOやCD−R、DVD−RAMなどのディスク系デバイス、DATテープ、カセットテープ、オープンテープ、カートリッジテープなどのテープ系デバイスである。バックアップデバイス910は、LAN400を介して記憶デバイス制御装置100との間で通信を行うことにより、記憶デバイス300に記憶されているデータのバックアップデータを記憶する。また、バックアップデバイス910は、情報処理装置(1)200と接続されるようにすることもできる。この場合は、情報処理装置(1)200を介して記憶デバイス300に記憶されているデータのバックアップデータを取得するようにする。
記憶デバイス制御装置100は、チャネル制御部(1)〜(4)110を備える。記憶デバイス制御装置100は、チャネル制御部(1)〜(4)110よりLAN400を介して情報処理装置(1)〜(3)200からのファイルアクセス要求を個々に受け付ける。すなわち、チャネル制御部(1)〜(4)110は、個々にLAN400上のネットワークアドレス(たとえばIPアドレス)が割り当てられていて、それぞれが個別にNASとして振る舞い、個々のNASがあたかも独立したNASが存在するかのように、NASとしてのサービスを情報処理装置(1)〜(3)200に提供することができる。以下、チャネル制御部(1)〜(4)110をCHNとも記す。このように1台の記憶装置システム600に個別にNASとしてのサービスを提供するチャネル制御部(1)〜(4)110を備えるように構成したことで、従来、独立したコンピュータで個々に運用されていたNASサーバが1台の記憶装置システム600に集約される。そして、これにより記憶装置システム600の統括的な管理が可能となり、各種設定・制御や障害管理、バージョン管理といった保守業務の効率化が図られる。
なお、本実施の形態に係る記憶デバイス制御装置100のチャネル制御部(1)〜(4)110は、後述するように、一体的にユニット化された回路基板上に形成されたハードウェアおよびこのハードウェアにより実行されるオペレーティングシステム(以下、OSとも記す)やこのOS上で動作するアプリケーションプログラム、あるいはこのハードウェアにより実行される実行可能オブジェクトコードなどのソフトウェアにより実現される。このように、本実施の形態の記憶装置システム600では、従来、ハードウェアの一部として実装されてきた機能がソフトウェアにより実現されている。このため、本実施の形態の記憶装置システム600では、柔軟性に富んだシステム運用が可能となり、多様で変化の激しいユーザニーズによりきめ細かなサービスを提供することが可能となる。
情報処理装置(3),(4)200は、SAN(Storage Area Network)500を介して記憶デバイス制御装置100と接続されている。SAN500は、記憶デバイス300が提供する記憶領域におけるデータの管理単位であるブロックを単位として情報処理装置(3),(4)200との間でデータの授受を行うためのネットワークである。SAN500を介して行われる情報処理装置(3),(4)200と記憶デバイス制御装置100との間の通信は、一般にファイバチャネルプロトコルに従って行われる。情報処理装置(3),(4)200からは、記憶装置システム600に対して、ファイバチャネルプロトコルに従ってブロック単位のデータアクセス要求(以下、ブロックアクセス要求とも記す)が送信される。
記憶デバイス制御装置100は、チャネル制御部(5),(6)110により情報処理装置(3),(4)200との間で通信を行う。以下、チャネル制御部(5),(6)110をCHFとも記す。
SAN500には、SAN対応のバックアップデバイス900が接続されている。SAN対応バックアップデバイス900は、SAN500を介して記憶デバイス制御装置100との間で通信を行うことにより、記憶デバイス300に記憶されているデータのバックアップデータを記憶する。
情報処理装置(5)200は、LAN400やSAN500などのネットワークを介さずに記憶デバイス制御装置100と接続されている。情報処理装置(5)200としては、たとえばメインフレームコンピュータとすることができる。情報処理装置(5)200と記憶デバイス制御装置100との間の通信は、たとえばFICON(Fibre Connection)(登録商標)やESCON(Enterprise System Connection)(登録商標)、ACONARC(Advanced Connection Architecture)(登録商標)、FIBARC(Fibre Connection Architecture)(登録商標)などの通信プロトコルに従って行われる。情報処理装置(5)200からは、記憶装置システム600に対して、これらの通信プロトコルに従ってブロックアクセス要求が送信される。
記憶デバイス制御装置100は、チャネル制御部(7),(8)110により情報処理装置(5)200との間で通信を行う。以下、チャネル制御部(7),(8)110をCHAとも記す。
SAN500には、記憶装置システム600の設置場所(プライマリサイト)とは遠隔した場所(セカンダリサイト)に設置される他の記憶装置システム610が接続している。記憶装置システム610は、後述するレプリケーションまたはリモートコピーの機能におけるデータの複製先の装置として利用される。なお、記憶装置システム610は、SAN500以外にもATMなどの通信回線により記憶装置システム600に接続していることもある。この場合には、たとえばチャネル制御部110として上記通信回線を利用するためのインタフェース(チャネルエクステンダ)を備えるチャネル制御部110に採用される。
<記憶デバイス>
記憶デバイス300は、多数のディスクドライブ(物理ディスク)を備えており、情報処理装置200に対して記憶領域を提供する。データは、ディスクドライブにより提供される物理的な記憶領域上に論理的に設定される記憶領域であるLUに記憶されている。ディスクドライブとしては、たとえばハードディスク装置やフレキシブルディスク装置、半導体記憶装置などの様々なものを用いることができる。なお、記憶デバイス300は、たとえば複数のディスクドライブによりディスクアレイを構成するようにすることもできる。この場合、情報処理装置200に対して提供される記憶領域は、RAID(Redundant Arrays of Inexpensive Disks)により管理された複数のディスクドライブにより提供されるようにすることもできる。
記憶デバイス制御装置100と記憶デバイス300との間は、図1のように直接に接続される形態とすることもできるし、ネットワークを介して接続するようにすることもできる。さらに、記憶デバイス300は、記憶デバイス制御装置100と一体として構成されることもできる。
記憶デバイス300に設定されるLUには、情報処理装置200からアクセス可能なユーザLU、チャネル制御部110の制御のために使用されるシステムLUなどがある。システムLUには、CHN110で実行されるOSも格納される。また、各LUには、チャネル制御部110が対応付けられている。これにより、チャネル制御部110毎にアクセス可能なLUが割り当てられている。また、上記対応付けは、複数のチャネル制御部110で一つのLUを共有するようにすることもできる。なお、以下において、ユーザLUやシステムLUをそれぞれユーザディスク、システムディスクなどとも記す。
<記憶デバイス制御装置>
記憶デバイス制御装置100は、チャネル制御部110、共有メモリ120、キャッシュメモリ130、ディスク制御部140、管理端末160、および接続部150を備える。
チャネル制御部110は、情報処理装置200との間で通信を行うための通信インタフェースを備え、情報処理装置200との間でデータ入出力コマンドなどを授受する機能を備える。たとえば、CHN110は、情報処理装置(1)〜(3)200からのファイルアクセス要求を受け付ける。これにより、記憶装置システム600はNASとしてのサービスを情報処理装置(1)〜(3)200に提供することができる。また、CHF110は、情報処理装置(3),(4)200からのファイバチャネルプロトコルに従ったブロックアクセス要求を受け付ける。これにより、記憶装置システム600は高速アクセス可能なデータ記憶サービスを情報処理装置(3),(4)200に対して提供することができる。また、CHA110は、情報処理装置(5)200からのFICONやESCON、ACONARC、FIBERCなどのプロトコルに従ったブロックアクセス要求を受け付ける。これにより、記憶装置システム600は情報処理装置(5)200のようなメインフレームコンピュータに対してもデータ記憶サービスを提供することができる。
各チャネル制御部110は、管理端末160とともに内部LAN151などの通信網で接続されている。これにより、チャネル制御部110に実行させるマイクロプログラムなどを管理端末160から送信し、インストールすることが可能となっている。チャネル制御部110の構成については後述する。
接続部150は、チャネル制御部110、共有メモリ120、キャッシュメモリ130、およびディスク制御部140と接続されている。チャネル制御部110、共有メモリ120、キャッシュメモリ130、およびディスク制御部140の間でのデータやコマンドの授受は、接続部150を介することにより行われる。接続部150は、たとえば高速スイッチングによりデータ転送を行う超高速クロスバスイッチなどのスイッチ、またはバスなどで構成される。チャネル制御部110同士がスイッチで接続されていることで、個々のコンピュータ上で動作するNASサーバがLANを通じて接続する従来の構成に比べてチャネル制御部11間の通信パフォーマンスが大幅に向上している。また、これにより高速なファイル共有機能や高速ファイルオーバなどが可能となる。
共有メモリ120およびキャッシュメモリ130は、チャネル制御部110、ディスク制御部140により共有される記憶メモリである。共有メモリ120は、主に制御情報やコマンドなどを記憶するために利用されるのに対して、キャッシュメモリ130は、主にデータを記憶するために利用される。
たとえば、あるチャネル制御部110が情報処理装置200から受信したデータ入出力コマンドが書き込みコマンドであった場合には、当該チャネル制御部110は書き込みコマンドを共有メモリ120に書き込むとともに、情報処理装置200から受信した書き込みデータをキャッシュメモリ130に書き込む。一方、ディスク制御部140は、共有メモリ120を監視しており、共有メモリ120に書き込みコマンドが書き込まれたことを検出すると、当該コマンドに従ってキャッシュメモリ130から書き込みデータを読み出して記憶デバイス300に書き込む。
また、たとえば、あるチャネル制御部110が情報処理装置200から受信したデータ入出力コマンドが読み出しコマンドであった場合には、当該チャネル制御部110は、読み出しコマンドを共有メモリ120に書き込むとともに、情報処理装置200から読み出しコマンドによって要求されたデータをキャッシュメモリ130から読み出す。仮に、読み出しコマンドによって要求されたデータがキャッシュメモリ130に書き込まれていなかった場合、チャネル制御部110またはディスク制御部140は、読み出しコマンドによって要求されたデータを記憶デバイス300から読み出して、キャッシュメモリ130に書き込む。
なお、上記の本実施の形態においては、共有メモリ120およびキャッシュメモリ130がチャネル制御部110およびディスク制御部140に対して独立に設けられていることについて記載されているが、この場合に限られるものではなく、共有メモリ120またはキャッシュメモリ130がチャネル制御部110およびディスク制御部140の各々に分散されて設けられることも好ましい。この場合、接続部150は、分散された共有メモリ120またはキャッシュメモリ130を有するチャネル制御部110およびディスク制御部140を相互に接続させることになる。
ディスク制御部140は、記憶デバイス300の制御を行う。たとえば、上述のように、チャネル制御部110が情報処理装置200から受信したデータ書き込みコマンドに従って記憶デバイス300へのデータの書き込みを行う。また、チャネル制御部110により送信された論理アドレス指定によるLUへのデータアクセス要求を、物理アドレス指定による物理ディスクへのデータアクセス要求に変換する。記憶デバイス300における物理ディスクがRAIDにより管理されている場合には、RAID構成に従ったデータのアクセスを行う。また、ディスク制御部140は、記憶デバイス300に記憶されたデータの複製管理の制御やバックアップ制御を行う。さらに、ディスク制御部140は、災害発生時のデータ消失防止(ディザスタリカバリ)などを目的として、プライマリサイトの記憶装置システム600のデータの複製をセカンダリサイトに設置された他の記憶装置システム610にも記憶する制御(レプリケーション機能、またはリモートコピー機能)なども行う。
各ディスク制御部140は、管理端末160とともに内部LAN151などの通信網で接続されており、相互に通信を行うことが可能である。これにより、ディスク制御部140に実行させるマイクロプログラムなどを管理端末160から送信し、インストールすることが可能となっている。ディスク制御部140の構成については後述する。
<管理端末>
管理端末160は、記憶装置システム600を保守・管理するためのコンピュータである。管理端末160を操作することにより、たとえば記憶デバイス300内の物理ディスク構成の設定や、LUの設定、チャネル制御部110やディスク制御部140において実行されるマイクロプログラムのインストールなどを行うことができる。ここで、記憶デバイス300内の物理ディスク構成の設定としては、たとえば物理ディスクの増設や減設、RAID構成の変更(RAID1からRAID5への変更など)などを行うことができる。
さらに、管理端末160からは、記憶装置システム600の動作状態の確認や故障部位の特定、チャネル制御部110で実行されるOSのインストールなどの作業を行うこともできる。また、管理端末160はLANや電話回線などで外部保守センタと接続されており、管理端末160を利用して記憶装置システム600の障害監視を行ったり、障害が発生した場合に迅速に対応することが可能である。障害の発生は、たとえばOSやアプリケーションプログラム、ドライバソフトウェアなどから通知される。この通知は、HTTPプロトコルやSNMP(Simple Network Management Protocol)、電子メールなどにより行われる。これらの設定や制御は、管理端末160で動作するWebサーバが提供するWebページをユーザインタフェースとしてオペレータなどにより行われる。オペレータなどは、管理端末160を操作して障害監視する対象や内容の設定、障害通知先の設定などを行うこともできる。
管理端末160は、記憶デバイス制御装置100に内蔵されている形態とすることもできるし、外付けされている形態とすることもできる。また、管理端末160は、記憶デバイス制御装置100および記憶デバイス300の保守・管理を専用に行うコンピュータとすることもできるし、汎用のコンピュータに保守・管理機能を持たせたものとすることもできる。
<管理端末の構成例>
図2〜図4により、本実施の形態に係る記憶装置システムにおいて、管理端末の構成の一例を説明する。それぞれ、図2は管理端末の構成を示す図、図3は物理ディスク管理テーブルを示す図、図4はLU管理テーブルを示す図、である。
管理端末160は、図2に示すように、CPU161、メモリ162、ポート163、記録媒体読取装置164、入力装置165、出力装置166、および記憶装置168を備える。
CPU161は、管理端末160の全体の制御を司るもので、メモリ162に格納されたプログラム162cを実行することにより、Webサーバとしての機能などを実現する。メモリ162には、物理ディスク管理テーブル162aとLU管理テーブル162bとプログラム162cとが記憶されている。
物理ディスク管理テーブル162aは、記憶デバイス300に備えられる物理ディスク(ディスクドライブ)を管理するためのテーブルである。この物理ディスク管理テーブル162aは、たとえば図3に示す通りである。図3においては、記憶デバイス300が備える多数の物理ディスクのうち、ディスク番号#001〜#006が示されている。それぞれの物理ディスクに対して、容量、RAID構成、使用状況が示されている。
LU管理テーブル162bは、上記物理ディスク上に論理的に設定されるLUを管理するためのテーブルである。このLU管理テーブル162bは、たとえば図4に示す通りである。図4においては、記憶デバイス300上に設定される多数のLUのうち、LU番号#1〜#3が示されている。それぞれのLUに対して、物理ディスク番号、容量、RAID構成が示されている。
記録媒体読取装置164は、記録媒体167に記録されているプログラムやデータを読み取るための装置である。読み取られたプログラムやデータは、メモリ162や記憶装置168に格納される。従って、たとえば記録媒体167に記録されたプログラム162cを、記録媒体読取装置164を用いて記録媒体167から読み取って、メモリ162や記憶装置168に格納するようにすることができる。記録媒体167としては、たとえばフレキシブルディスクやCD−ROM、半導体メモリなどを用いることができる。記録媒体読取装置164は、管理端末160に内蔵されている形態とすることもできる。
記憶装置168は、たとえばハードディスク装置やフレキシブルディスク装置、半導体記憶装置などである。入力装置165は、オペレータなどによる管理端末160へのデータ入力などのために用いられる。入力装置165としては、たとえばキーボードやマウスなどが用いられる。出力装置166は、情報を外部に出力するための装置である。出力装置166としては、たとえばディスプレイやプリンタなどが用いられる。ポート163は、内部LAN151に接続されており、これにより管理端末160はチャネル制御部110やディスク制御部140などと通信を行うことができる。また、ポート163は、LAN400に接続するようにすることもできるし、電話回線に接続するようにすることもできる。
<チャネル制御部の構成例>
図5〜図8により、本実施の形態に係る記憶装置システムにおいて、チャネル制御部の構成の一例を説明する。それぞれ、図5はチャネル制御部のハードウェア構成を示す図、図6はメモリに記憶されるデータの内容を説明するための図、図7はメタデータを示す図、図8(a),(b)はロックデータを示す図、である。
本実施の形態に係る記憶装置システム600は、上述の通り、CHN110により情報処理装置(1)〜(3)200からのファイルアクセス要求を受け付け、NASとしてのサービスを情報処理装置(1)〜(3)200に提供する。
図5に示すように、CHN110のハードウェアは一つのユニットで構成される。以下、このユニットのことをNASボードと記す。NASボードは、一枚もしくは複数枚の回路基板を含んで構成される。より具体的には、NASボードは、ネットワークインタフェース部111、入出力制御部114、ボード接続用コネクタ116、通信コネクタ117、およびファイルサーバ部800を備え、これらが同一のユニットに形成されて構成されている。さらに、入出力制御部114は、NVRAM(Non Volatile RAM)115、およびI/O(Input/Output)プロセッサ119を有する。
ネットワークインタフェース部111は、情報処理装置200との間で通信を行うための通信インタフェースを備えている。CHN110の場合は、たとえばTCP/IPプロトコルに従って情報処理装置200から送信されたファイルアクセス要求を受信する。通信コネクタ117は、情報処理装置200との間で通信を行うためのコネクタである。CHN110の場合は、LAN400に接続可能なコネクタであり、たとえばイーサネット(登録商標)に対応している。
ファイルサーバ部800は、CPU112、メモリ113、BIOS(Basic Input/Output System)801、およびNVRAM804を有する。CPU112は、CHN110をNASボードとして機能させるための制御を司る。
CPU112は、NFSまたはCIFSなどのファイル共有プロトコルおよびTCP/IPの制御、ファイル指定されたファイルアクセス要求の解析、メモリ113内の制御情報へのファイル単位のデータと記憶デバイス300内のLUとの交換テーブル(図示せず)を用いた相互互換、記憶デバイス300内のLUに対するデータ書き込みまたは読み出し要求の生成、データ書き込みまたは読み出し要求のI/Oプロセッサ119への送信などを処理する。BIOS801は、たとえばCHN110に電源が投入された際に、CPU112を起動する過程で最初にメモリ113にロードされて実行されるソフトウェアであり、たとえばフラッシュメモリなどの不揮発性の媒体に保存されてCHN110上に実装されている。
CPU112は、BIOS801からメモリ113上に読み込まれたソフトウェアを実行することにより、CHN110上のCPU112が関係する部分の初期化、診断などを行うことができる。さらに、CPU112は、BIOS801からI/Oプロセッサ119にコマンドなどの指示を発行することにより、記憶デバイス300から所定のプログラム、たとえばOSのブート部などをメモリ113に読み込むことができる。読み込まれたOSのブート部は、さらに記憶デバイス300に格納されているOSの主要部分をメモリ113に読み込む動作をし、これによりCPU112上でOSが起動され、たとえばファイルサーバとしての処理が実行できるようになる。また、ファイルサーバ部800は、PXE(Preboot Execution Environment)などの規約に従うネットワークブートローダを格納するNVRAM804を実装し、後述するネットワークブートを行わせることも可能である。
メモリ113には、様々なプログラムやデータが記憶される。たとえば、図6に示すメタデータ730やロックテーブル720、また図10に示されるNASマネージャ706などの各種プログラムが記憶される。メタデータ730は、ファイルシステムが管理しているファイルに対応させて生成される情報である。メタデータ730には、たとえばファイルのデータが記憶されているLU上のアドレスやデータサイズなど、ファイルの保管場所を特定するための情報が含まれる。メタデータ730には、ファイルの容量、所有者、更新時刻などの情報が含まれることもある。また、メタデータ730は、ファイルだけではなく、ディレクトリに対応させて生成されることもある。メタデータ730の例は図7に示す通りである。メタデータ730は、記憶デバイス300上の各LUにも記憶されている。
ロックテーブル720は、情報処理装置(1)〜(3)200からのファイルアクセスに対して排他制御を行うためのテーブルである。排他制御を行うことにより、情報処理装置(1)〜(3)200でファイルを共用することができる。ロックテーブル720は、たとえば図8に示す通りである。図8に示すように、ロックテーブル720には、(a)のようなファイルロックテーブル721と、(b)のようなLUロックテーブル722がある。ファイルロックテーブル721は、ファイル毎にロックが掛けられているか否かを示すテーブルである。いずれかの情報処理装置200により、あるファイルがオープンされている場合に、当該ファイルにロックが掛けられる。ロックが掛けられたファイルに対する他の情報処理装置200によるアクセスは禁止される。LUロックテーブル722は、LU毎にロックが掛けられているか否かを示すテーブルである。いずれかの情報処理装置200により、あるLUに対するアクセスが行われている場合に、当該LUにロックが掛けられる。ロックが掛けられたLUに対する他の情報処理装置200によるアクセスは禁止される。
入出力制御部114は、ディスク制御部140、キャッシュメモリ130、共有メモリ120、および管理端末160との間でデータやコマンドの授受を行う。入出力制御部114は、I/Oプロセッサ119およびNVRAM115を備えている。I/Oプロセッサ119は、たとえば1チップのマイコンで構成される。I/Oプロセッサ119は、記憶デバイス300内のLUに対するデータ書き込みまたは読み出し要求やデータの授受を制御し、CPU112とディスク制御部140との間の通信を中継する。NVRAM115は、I/Oプロセッサ119の制御を司るプログラムを格納する不揮発性メモリである。NVRAM115に記憶されるプログラムの内容は、管理端末160や、後述するNASマネージャ706からの指示により書き込みや書き換えを行うことができる。
<ディスク制御部の構成例>
図9により、本実施の形態に係る記憶装置システムにおいて、ディスク制御部の構成の一例を説明する。図9はディスク制御部のハードウェア構成を示す図である。
既に述べた通り、ディスク制御部140は、記憶デバイス300に接続されるとともに接続部150を介してCHN110に接続され、ディスク制御部140独自で、またはCHN110によって制御されることにより、記憶デバイス300に対してデータの読み書きを行う。
ディスク制御部140は、インタフェース部141、CPU142、メモリ143、NVRAM144、およびボード接続用コネクタ145を備え、これらが一体的なユニットとして形成されている。
インタフェース部141は、接続部150を介してチャネル制御部110などと通信を行うための通信インタフェース、記憶デバイス300と通信を行うための通信インタフェース、内部LAN151を介して管理端末160と通信を行うための通信インタフェースを備えている。
CPU142は、ディスク制御部140全体の制御を司るとともに、チャネル制御部110や記憶デバイス300、管理端末160との通信を行う。メモリ143やNVRAM144に格納された各種プログラムを実行することにより、本実施の形態に係るディスク制御部140の機能が実現される。ディスク制御部140により実現される機能としては、記憶デバイス300の制御やRAID制御、記憶デバイス300に記憶されたデータの複製管理やバックアップ制御、リモートコピー制御などである。
NVRAM144は、CPU142の制御を司るプログラムを格納する不揮発性メモリである。NVRAM144に記憶されるプログラムの内容は、管理端末160や、NASマネージャ706からの指示により書き込みや書き換えを行うことができる。
また、ディスク制御部140は、ボード接続用コネクタ145を備えている。ボード接続用コネクタ145が記憶デバイス制御装置100側のコネクタと接続することにより、ディスク制御部140は、記憶デバイス制御装置100と電気的に接続される。
<ソフトウェア構成例>
図10により、本実施の形態に係る記憶装置システムにおけるソフトウェア構成例を説明する。図10は記憶装置システムにおけるソフトウェア構成を示す図である。
既に述べたように、CHN110上には、CPU112およびI/Oプロセッサ119が存在する。CPU112およびI/Oプロセッサ119は、それぞれ1つずつであってもよいし、それぞれ複数存在してもよい。CPU112上では、OS701とNASマネージャ706などの多様なアプリケーションとが実行されることにより、CPU112はNASサーバとして動作する。I/Oプロセッサ119上では、コントローラとしてのマイクロプログラムが動作している。ディスク制御部140では、RAID制御部740がCPU142上で動作している。
管理端末160の上では、CPU161がネットブートサーバ703として動作する。ネットブートサーバ703は、記録媒体167または記憶装置168などから内部LAN151を介して、ミニカーネル704、OSイメージ705などをCHN110上のCPU112に転送する。ネットブートサーバ703は、たとえば、DHCP(Dynamic Host Configuration Protocol)サーバなどを有し、CPU112、CPU161およびI/Oプロセッサ119にIPアドレスまたはMACアドレスを割り当てるなどして、管理端末160とCPU112、CPU161およびI/Oプロセッサ119との間の転送を行う。ネットブートを行うとき、たとえば、CPU112は、クライアントとして、ネットブートサーバ703に対してDHCP要求およびファイル転送要求などを要求する。CPU112は、ネットブートの手順を経て、CPU112上でミニカーネル704を動作させることになる。最終的に、CPU112は、I/Oプロセッサ119を経由してOSイメージ705を記憶デバイス300にインストールさせる。
なお、図10は、情報処理装置200のソフトウェア構成についても明示している。情報処理装置200は、NFS(Network File System)711を有するもの、またはCIFS(Common Internet File System)713を有するものが存在する。NFS711は、主にUNIX(登録商標)系のオペレーティングシステム714によって用いられるファイル共有プロトコルであり、CIFS713は、主にWindows(登録商標)系のOS715によって用いられるファイル共有プロトコルである。
<システムLUおよびユーザLUの定義方式>
本実施の形態に係る記憶装置システムは、前述したように、データを格納する複数の記憶デバイス300と、複数の記憶デバイス300に対するデータの書き込みまたは読み出しを制御する複数のディスク制御部(記憶デバイス制御部)140と、ディスク制御部140に接続される接続部150と、自記憶装置システムの外部の情報処理装置(上位装置)200から書き込み要求または読み出し要求を受け、情報処理装置200から送られるファイルレベルのデータをブロックレベルのデータに変換して複数の記憶デバイス300へ転送し、複数のクラスタグループに分類される複数のCHN(チャネル制御部)110と、複数のCHN110および複数のディスク制御部140によってやり取りされる制御情報が格納される共有メモリ120と、複数のCHN110と複数のディスク制御部140との間でやり取りされるデータを一時的に保存するキャッシュメモリ130と、複数の記憶デバイス300の論理的な構成を設定する管理端末160とを有して構成される。
このような構成において、詳細は後述するが、複数の記憶デバイス300の論理的な記憶領域である複数のLDEVには、自記憶装置システム内の制御情報を格納するための記憶領域であるシステムLUと、情報処理装置200から送られるライトデータを書き込むための記憶領域であるユーザLUとが設定可能であり、管理端末160は、複数のLDEVに対してパス定義を設定するために、システムLUまたはユーザLUを指定し、複数のCHN110は、管理端末160により指定されたシステムLUまたはユーザLUの区別に従い、システムLUに対する情報処理装置200からのアクセスを禁止するものである。
さらに、複数の記憶デバイス300の複数のLDEVには、システムLUに格納された制御情報をバックアップするための記憶領域であるバックアップ用LUが設定可能であり、バックアップ用LUに対してシステムLUのパスを自動的に定義し、バックアップ用LUに対してシステムLUに格納された制御情報をバックアップするものである。具体的に、システムLUのパスを自動的に定義する機能は、管理端末160とCHN110とで実現したり、またはCHN110で実現したり、あるいは管理端末160で実現することができる。
特に、本実施の形態の記憶装置システムにおいては、内部LANで接続され、記憶装置システム上あるいは筐体の外側に設置された管理端末上のLUN管理ソフトウェア(LUN Management)から見たシステムLUおよびユーザLUの定義および機能を、以下に示すように実現することができる。
ホストグループは、ホストグループ#00とホストグループ#01のみを管理端末160よりデフォルトとして定義し、そのグループの変更・削除は不可とする。また、新たにホストグループの追加も不可とする。ホストグループ#00は、NAS−Sysを名称として固定し、システムLUを意味する。ホストグループ#01は、Userを名称として固定し、ユーザLUを意味する。
<LUN定義の概要>
図11により、本実施の形態に係る記憶装置システムにおけるLUN定義の概要の一例を説明する。図11は記憶装置システムにおけるLUN定義の概要を示す図である。
たとえば、図11に示すように、複数のNASパッケージのCHN110、SANパッケージのCHF110、記憶デバイス300などを有する記憶装置システムにおいて、記憶デバイス300に設定されるLUには、CHN110の制御のために使用されるシステムLU、情報処理装置200からアクセス可能なユーザLUなどがあり、各LUには、CHN110が対応付けられている。これにより、CHN110毎にアクセス可能なLUが割り当てられている。
ホストグループ#00には、システムLUへのアクセスパスを定義する。このホストグループ#00のLUNは、システムLUの設定となり、ユーザまたは保守員は、LUN#00,01,05,06,08,09,0A,4B,4C,4Dを設定し、他にNASパッケージのシステムLUとして、LUN#0B,0C,0D,0E,0F,10,12,1B,1C,1D,1E,1F,20,22,2B,2C,2D,2E,2F,30,32,3B,3C,3D,3E,3F,40,42が自動的に設定される。ホストグループ#00のLUN#05にコマンドデバイスの設定を許可する。ホストグループ#00では、それ以外のLUN#にコマンドデバイスを設定することは無効とする。このシステムLUについての詳細は後述する。
また、ホストグループ#01には、ユーザLUへのアクセスパスを設定する。このホストグループ#01のLUNは、ユーザLUの設定となる。ホストグループ#01のLUNは、どのLUNに対してもコマンドデバイスの設定を許可する。このユーザLUについての詳細は後述する。
本実施の形態の記憶装置システムにおいては、高い可用性を保証するために、複数のCHNが1つの組となって、互いに補完し合いながら動作することが可能である。これら複数のCHNによって作られる動作の単位をクラスタと呼ぶ。あるクラスタに属するCHNは、ユーザデータの格納されているLUへのパスを共有し、ユーザがクライアントからどのCHNに対して要求を発行しても、適切なLUへのアクセスができる状態になっている。ただし、パスの定義は、記憶装置システム内のI/Oプロセッサのコントローラマイクロプログラムが認識する情報であるため、OSが当該LUへアクセスするためには、通常はファイルシステムを使用してマウントを行う必要がある。パスが定義されていないと、コントローラマイクロプログラムからOSに対して当該LUの存在が伝達されないため、マウントも行えないが、パスが定義されていることによって、OSがコントローラマイクロプログラムに対して問い合わせを行った際に、コントローラマイクロプログラムが当該LUの存在をOSに伝達することができる。
すなわち、OSが当該LUにアクセスするためには、まずコントローラマイクロプログラムから当該LUへのアクセスパスを定義し、OSがコントローラマイクロプログラムに対して使用可能なデバイスの問い合わせを行った際に当該LUの存在がコントローラマイクロプログラムから報告される必要があり、さらに、使用可能として報告されているデバイスの中から、OSは最小で1つ、最大で報告されているデバイス全てについて、ファイルシステムの作成を行い、さらに、そのファイルシステムをマウントすることによって実現される。
ここで、ファイルシステムの作成とは、OSが、当該デバイスに対して、ファイル名やディレクトリ名を指定してデータアクセスを行うことができるように、ファイルやディレクトリの構造を定義し、その構造に対するアクセスのルールを定義し、これらの情報をシステム領域とデータ領域の双方に記憶することを言う。また、ファイルシステムのマウントとは、このファイルシステムを登録することを言う。ファイルシステムは、任意のタイミングで、OSからの指示によりマウントを行ったり、マウントを取り消したりできる。このマウントの取消は、アンマウントという。本システムの場合、システム領域はシステムLU内に存在し、データ領域はユーザLU内に存在する。OSは、このルールに従ってファイルやディレクトリ構造を操作することによって、データにアクセスする。このアクセス方法をファイルシステムアクセスという。
<各種LUの役割>
図12〜図18により、各種LUの役割の一例を説明する。それぞれ、図12はシステムLUの役割を示す図、図13はOS格納用LUとそのバックアップ用LUとの関係を示す図、図14はダンプ格納用LUとそのバックアップ用LUとの関係を示す図、図15はコマンドデバイス用LUとそのバックアップ用LUとの関係を示す図、図16は障害情報格納用LUとそのバックアップ用LUとの関係を示す図、図17はクラスタ情報格納用LUとそのバックアップ用LUとの関係を示す図、図18はユーザLUの役割を示す図、である。
図12に示すように、ホストグループ#00のシステムLUには、LUN#00のOS格納用LU、LUN#01のダンプ格納用LU、LUN#05のコマンドデバイス用LU、LUN#06の障害情報格納用LU、LUN#08のクラスタ共有情報格納用LU、LUN#09のOS格納用LUのバックアップ用LU、LUN#0Aのクラスタ共有情報格納用LUのバックアップ用LU、LUN#4Bのダンプ格納用LUのバックアップ用LU、LUN#4Cのコマンドデバイス用LUのバックアップ用LU、LUN#4Dの障害情報格納用LUのバックアップ用LUがある。
(1)LUN#00(OS格納用LU)およびLUN#09(OS格納用LUのバックアップ用LU)…図13
記憶デバイス300のLUN#00(OS格納用LU)には、まず内部LAN経由で管理端末160からOSをネットワークインストールする。CHN110の電源ON(増設、リプレース、管理端末160からのソフトウェア的指示など)の契機で、OS動作によるCPU112のBIOS801により、LUN#00に格納されたOSがブートし、OS動作によるCPU112上で動作し、ファイルサーバなどの機能を提供する。管理端末160からの指示により、OS動作によるCPU112上で動作しているOSは、格納されているOSファイルや設定をLUN#09(OS格納用LUのバックアップ用LU)にバックアップする。
(2)LUN#01(ダンプ格納用LU)およびLUN#4B(ダンプ格納用LUのバックアップ用LU)…図14
OSがソフトウェア障害などによって動作続行不能になった場合などに、OSの使用しているメモリ全域あるいは一部分のデータを、BIOS801がLUN#01(ダンプ格納用LU)に書き出し、次いでBIOS801はOSを停止させる。その後、サービス再開のためには、OSの再立ち上げなどの操作が必要である。OSが動作しているとき(平時、または再立ち上げ後)に、OSはLUN#01の内容をLUN#4B(ダンプ格納用LUのバックアップ用LU)にバックアップする。また、OSが障害などで停止しているときは、別のCHNからLUN#01の内容をLUN#4Bにバックアップする。バックアップの契機は、管理端末160からの指示があった場合、あるいは定期的に採取するものとする。
(3)LUN#05(コマンドデバイス用LU)およびLUN#4C(コマンドデバイス用LUのバックアップ用LU)…図15
LUN#05(コマンドデバイス用LU)とは、OS上で動作する特殊アプリケーションに対する指示を、この特殊アプリケーション使用のクライアントから出すために必要なダミーのLUのことである。これは、コマンドを発行するためには必ずLUを指定しなければならないことに由来する。従って、コマンドデバイス自体の中には、データは存在しない。OSがI/Oプロセッサ119に、コマンドデバイスに対してのコマンドを発行すると、I/Oプロセッサ119はOSと連携をとりながら、たとえばリモートコピーなどのDKC独自の機能を実行する。OSは、管理端末160からの指示などを契機として、コマンドデバイスとして使用可能な他のLUNを割り当てる。この場合、LUN#4C(コマンドデバイス用LUのバックアップ用LU)として、データのコピーなどは行われず、予備のコマンドデバイスを準備するイメージになるが、これも一種のバックアップと呼ぶことができる。
(4)LUN#06(障害情報格納用LU)およびLUN#4D(障害情報格納用LUのバックアップ用LU)…図16
LUN#06(障害情報格納用LU)とは、前述のダンプ格納用LUに書き込まれたダンプデータに対し、主に他のCHNにより(障害時には障害発生CHNは停止していることが想定されるため)、圧縮などの加工処置を加え、その成果物を格納する目的で準備されるLUである。加工後のデータについて、主に他のCHNから、別のLUのLUN#4D(障害情報格納用LUのバックアップ用LU)に対してバックアップを作成する。
(5)LUN#08(クラスタ情報格納用LU)およびLUN#0A(クラスタ情報格納用LUのバックアップ用LU)…図17
NASにおいては、1枚のCHNパッケージが1つのファイルサーバの役割を果たすが、複数枚のCHNを同一クラスタ内に属すると論理的に定義することによって、あるCHNが障害で処理続行不能になった場合に、別のCHNが処理を引き継ぎ、クライアントに対するファイルサーバなどのサービスを継続するフェイルオーバ動作を行う。このときに、処理を引き継ぐための情報として、LUN#08(クラスタ情報格納用LU)を定義する。このとき、記憶装置システムに対しては、たとえば8枚までのCHNパッケージがインストールできるとしたとき、記憶装置システム内には複数のクラスタが混在できることになるが、クラスタ情報格納用LUが障害で使用不能になった場合、全てのクラスタでフェイルオーバ動作ができない(この状態でCHNが障害で使用不能になっても、全てのクラスタで処理引継ができない)ことになる。これを避けるために、平時に任意のCHNからクラスタ情報格納用LUのバックアップを特定LUのLUN#0A(クラスタ情報格納用LUのバックアップ用LU)に対して採取しておく。
図18に示すように、ホストグループ#01のユーザLUとは、ファイルサーバとして動作するCHN110が、ユーザLAN上のクライアント(情報処理装置200)に対して公開し、ファイルサービスを提供するためのLUである。ユーザはその権限に従って、ファイルの作成や閲覧、削除、複製などを当該LU上で行うことができる。LUNについては、最大値(この例ではFF、すなわち全部で256個)までのどの値をとっても構わない。
<システムLUの定義>
図19〜図24により、システムLUの定義の一例を説明する。それぞれ、図19はホストグループ#00のLUN定義を示す図、図20はOS格納用LUのLUN定義を示す図、図21はダンプ採取用LUのLUN定義を示す図、図22はOS格納用LUのバックアップ用LUのLUN定義を示す図、図23はクラスタ共有情報格納用LUのバックアップ用LUのLUN定義を示す図、図24はその他のシステムLUのLUN定義を示す図、である。
図19に示すように、ホストグループ#00にシステムLUの定義を行う。なお、システムLUには、たとえば一例として、図19に示すLUN定義しか許可しない。また、LUNが定義できるLDEVの最低容量を図19で示す通りであるが、個々のLUNによって設定できるLDEVの容量に違いがある。なお、CHNは図19の例では最大8枚インストールできるものである。
具体的に、LUN#00は、たとえば一例として、内容がOS格納用LUで、LDEV最低容量が200MBである。同様に、LUN#01はダンプ採取用LUで100MB、LUN#05はコマンドデバイス用LUで50MB、LUN#06は障害情報格納用LUで70MB、LUN#08はクラスタ共有情報格納用LUで60MB、LUN#09はOS格納用LUのバックアップ用LUで200MB、LUN#0Aはクラスタ共有情報格納用LUのバックアップ用LUで60MB、LUN#4Bはダンプ採取用LUのバックアップ用LUで100MB、LUN#4Cはコマンドデバイス用LUのバックアップ用LUで50MB、LUN#4Dは障害情報格納用LUのバックアップ用LUで70MB、である。
また、LUN#0B〜12はOS格納用でCHN1〜8のLUN#00有り無しで追加・削除を自動で行うもので200MB、LUN#1B〜22はダンプ採取用でCHN1〜8のLUN#01有り無しで追加・削除を自動で行うもので100MB、LUN#2B〜32はOSバックアップ用でCHN1〜8のLUN#09有り無しで追加・削除を自動で行うもので200MB、LUN#3B〜42はクラスタ共有情報バックアップ用でCHN1〜8のLUN#0A有り無しで追加・削除を自動で行うもので60MB、である。
図19において、「内容」の中で、例えば「CHN1のLUN#00有り無しで追加・削除を自動で行う」とは、ユーザまたは保守員が、管理端末から当該パッケージ(この例ではCHN1)にパス定義を行う指示を発行する契機で、管理端末およびパッケージが、CHN1にLUN#00が既にパス定義されているかどうかを判定し、パス定義されていれば当該LU(上記の例ではLUN#0B)を自動的に設定し、パス定義されていなければ当該LUを設定しない。また、パス定義されていないと判定した時点で、当該LU(LUN#0B)が既に定義されていた場合は、自動的に当該LUをパス定義から削除するという意味である。パス定義自体は、記憶装置システム内に存在するLUNとLDEVとの関連付けテーブルの形で管理端末内の不揮発記憶領域(メモリまたはハードディスク内)、各パッケージ内のメモリ、および記憶装置システム内の共有メモリ上に保持される。
LUN#00,01,05,06,08,09,0A,4B,4C,4Dの設定を許可する。また、アクセスパスが既に定義されているデバイス(LDEV)への設定は不可である。
LUN#0B〜12、LUN#1B〜22、LUN#2B〜32、LUN#3B〜42は自動設定されるものとする。
LUN#00を削除する時は、他のCHNの関連LUN(#0B〜12)も削除する(LUN#0B〜12は関連しているOS格納用LUが削除されたときに削除される。)。
LUN#01を削除する時は、他のCHNの関連LUN(#1B〜22)も削除する(LUN#1B〜22は関連しているダンプ採取用が削除されたときに削除される。)。
LUN#09を削除する時は、他のCHNの関連LUN(#2B〜32)も削除する(LUN#2B〜32は関連しているOS格納用LUのバックアップ用LUが削除されたときに削除される。)。
LUN#0Aを削除する時は、他のCHNの関連LUN(#3B〜42)も削除する(LUN#3B〜42は関連しているクラスタ共有情報格納用LUのバックアップ用LUが削除されたときに削除される。)。
LUN#05,06,08,4B,4C,4Dは他のCHNの05,06,08,4B,4C,4Dと同じLDEVを割り当てる。具体的には、一度いずれかのCHN上のネットワークI/Fに対して、LUN#05,06,08,4B,4C,4DをLDEVに割り当てた後は、他のCHN上での割り当てを行う際に、当該LDEVしか選択できないように表示させる。
LUN#05には、コマンドデバイスの設定を行う。未設定の場合は、コマンドデバイスの設定を行う。
システムLUを削除する場合は、ユーザLUが存在してはならず、存在する場合は管理端末からのシステムLUの削除は失敗しエラーとなる。これは、ユーザデータが存在するのに、OSなどユーザデータにアクセスするために必須のシステムがアンインストールされるのを防ぐ目的である。ただし、システムLUのバックアップについては、ユーザLUが存在しても削除を許可するようにしてもよい。
(1)OS格納用LU
図20に示すように、記憶デバイス300におけるグループ#00のLUN#0B〜12はそれぞれのCHN110のLUN#00が決まれば自動に設定させる。また、LUN#00(図ではCHN1のLUN#00)を削除する場合は、他のCHN110に設定されているLUN(図ではCHN2〜8のLUN#0Bを指す)も削除する。ただし、LUN#00を削除するには、ユーザLUの存在を許さないものとする(ユーザLUが存在する場合は、LUN#00の削除はできない)。なお、各CHN内で、2つのネットワークI/Fのグループ#00は全く同じLUN定義を行う。また、CHN1のLUN#0Bは未定義となる。
(2)ダンプ採取用LU
図21に示すように、記憶デバイス300におけるグループ#00のLUN#1B〜22はそれぞれのCHN110のLUN#01が決まれば自動に設定させる。また、LUN#10(図ではCHN1のLUN#01)を削除する場合は、他のCHN110に設定されているLUN(図ではCHN2〜8のLUN#1Bを指す)も削除する。ただし、LUN#10を削除するには、ユーザLUの存在を許さないものとする(ユーザLUが存在する場合は、LUN#01の削除はできない)。なお、各CHN内で、2つのネットワークI/Fのグループ#00は全く同じLUN定義を行う。また、CHN1のLUN#1Bは未定義となる。
(3)OS格納用LUのバックアップ用LU
図22に示すように、記憶デバイス300におけるグループ#00のLUN#2B〜32はそれぞれのCHN110のLUN#09が決まれば自動に設定させる。また、LUN#09(図ではCHN1のLUN#09)を削除する場合は、他のCHN110に設定されているLUN(図ではCHN2〜8のLUN#2Bを指す)も削除する。ただし、LUN#09を削除するには、ユーザLUの存在を許さない(ユーザLUが存在する場合は、LUN#09の削除ができない)よう設定することもできるし、許すよう設定することもできる。なお、各CHN内で、2つのネットワークI/Fのグループ#00は全く同じLUN定義を行う。また、CHN1のLUN#2Bは未定義となる。
(4)クラスタ共有情報格納用LUのバックアップ用LU
図23に示すように、記憶デバイス300におけるグループ#00のLUN#3B〜42はそれぞれのCHN110のLUN#0Aが決まれば自動に設定させる。また、LUN#0A(図ではCHN1のLUN#0A)を削除する場合は、他のCHN110に設定されているLUN(図ではCHN2〜8のLUN#3Bを指す)も削除する。ただし、LUN#0Aを削除するには、ユーザLUの存在を許さない(ユーザLUが存在する場合は、LUN#0Aの削除ができない)よう設定することもできるし、許すよう設定することもできる。なお、各CHN内で、2つのネットワークI/Fのグループ#00は全く同じLUN定義を行う。また、CHN1のLUN#3Bは未定義となる。
(5)その他のシステムLU(コマンドデバイス用LU、障害情報格納用LU、クラスタ共有情報格納用LU、ダンプ格納用LUのバックアップ用LU、コマンドデバイス用LUのバックアップ用LU、障害情報格納用LUのバックアップ用LU)
図24に示すように、記憶デバイス300におけるグループ#00のLUN#05,06,08,4B,4C,4D(図ではLUN#05,06,08のみを示しているが、LUN#,4B,4C,4Dも同様)は1つのCHN110で決まれば、他のCHN110のLUN#05,06,08,4B,4C,4Dは同じLDEVに割り当てるようにする。なお、LUN#05,06,08,4B,4C,4Dを削除するには、ユーザLUの存在を許さないものとする(ユーザLUが存在する場合は、LUN#05,06,08,4B,4C,4Dの削除ができない)。また、削除する場合は、選択したパッケージのLUNのみとする。注意として、LUN#05に割り当てたLDEVには、コマンドデバイスの設定が必要となる。コマンドデバイスが設定されていない場合は、コマンドデバイスの設定を行い、コマンドデバイスの設定がされているLDEVを選んだ場合は、そのままとする。なお、LUN#05に割り当てられたLDEVに対しては、コマンドデバイスの設定・解除を許可する。
<バックアップ用LUのパス定義のための処理>
図25により、バックアップ用LUのパス定義のための処理の一例を説明する。図25はバックアップ用LUのパス定義のための処理を示すフロー図である。
ここでは、管理端末(SVPとも記す)160の画面から、ユーザが入力することを想定している。LDEVとは、記憶デバイス300において、RAID内で論理的に持つディスクドライブイメージのことである。これに対し、LUとは、NASエンジンおよびクライアントから認識できる論理的なディスクドライブイメージのことであり、LUNはLUの番号を示す。SVP上などからLUNにLDEVを割り付けるように指定することにより、RAID内部の論理ドライブをNASエンジンおよびクライアントに認識させることができるようになる。
まず、開始後に、ユーザは、パス定義を行いたいポートを選択する(S1)。これにより、LUNにまだ割り付けられていないLDEVがすべてSVPに表示される(S2)。そして、ユーザは、固定LUNを選択する(S3)。この固定LUNは、バックアップ用LUの意味合いを持ち、仕様として決められている。これにより、当該LUNとして必要な容量が決定される(S4)。たとえば、OS格納用LUのバックアップならば、200MB必要である。この必要な容量を満たすLDEVがすべてSVPに表示される(S5)。この際に、容量チェックが行われる。
さらに、ユーザは、表示されたLDEVから1つを選び、LUNに関連付ける(S6)。これにより、当該LUNは、他のポートからも参照要かが判定される(S7)。この判定の結果、参照要の場合(Yes)は、他のすべてのポートに対し、当該LDEVに固定LUNが設定されて終了となる(S8)。この固定LUNは、「他ポートのバックアップ用LUへのパス」であるという意味を持ち、あらかじめ仕様で決定している。また、判定の結果が参照不要の場合(No)は終了となる。
<SVPとNASブレード主導方法による、各種LU+バックアップ用LUのパス定義のための処理>
図26〜図28により、SVPとNASブレード主導方法による、各種LU+バックアップ用LUのパス定義のための処理の一例を説明する。それぞれ、図26はSVPとNASブレード主導方法による、各種LU+バックアップ用LUのパス定義のための処理を示すフロー図、図27は管理端末の基本画面を示す図、図28は管理端末のLUN追加画面を示す図、である。なお、ここでは、管理端末160をSVPと記し、NASパッケージをNASブレードと記す。
この処理におけるSVP160への表示項目は、たとえば図27の基本画面、図28のLUN追加画面に示すように、(1)CHNのスロット位置、(2)CHNのポート、(3)システムLUか、ユーザLUかを示すフラグ(例:LU種別)、(4)設定可能LUN一覧、(5)設定可能LUNそれぞれの意味(例:OS格納用LU、OSバックアップ用LUなど)、(6)使用可能LDEV一覧(LDEVのサイズを含む)、などがある。
また、SVP160からの入力項目は、(1)CHNのスロット位置を選択、(2)CHNのポートを選択、(3)システムLUか、ユーザLUかを選択、(4)設定可能なLUNのうち1つを選択、(5)それによって表示された設定可能なLDEVのうち1つを選択、などがある。
具体的に、図27の基本画面の例では、記憶装置システム(DKC)内の装置を階層的に表示する領域と、ホストグループを表示する領域と、LUNを表示する領域などが設けられている。ホストグループの表示領域には、ホストグループ#00(NAS−Sys)、ホストグループ#01(User)が表示される。すなわち、システムLU/ユーザLUの種別が表示される。LUNの表示領域には、LUN、CU:LDEV、Emulation、CVS、Size、Cmd.Dev.、Cmd.Sec.、Contentなどの各領域が設けられ、保守員による設定・解除が可能である。
図28のLUN追加画面の例では、ホストグループを表示する領域と、LUNを表示する領域と、LDEVを表示する領域などが設けられている。LUNの表示領域には、各LUN#が表示され、LUNは単一選択とし、また設定すべきLUNのみ表示する。LUNが既に別のCHNで設定されている場合は、そのLDEVのみをLDEVリストに表示する。LDEVの表示領域には、LDEV、Emulation、CVS、Size、Cmd.Dev.などの各領域が設けられている。各LUNが設定可能なLDEVのみ容量、コマンドデバイスを表示する。
以上のようなSVP160への表示項目、SVP160からの入力項目に基づいて、以下において、実際の処理手順を、図26に基づいて説明する。
まず、ユーザは、パス定義を行いたいポートを選択する(#1)。これにより、SVPには、当該ポートに対して設定可能なLUNの一覧が表示される(#2)。そして、ユーザは、パス定義を行いたいLUN(システムLU)を選択する(#3)。これにより、SVPには、当該LUNに対して設定可能なLDEVの一覧が表示される(#4)。この際に、容量チェックを行い、RAID内のLDEVのうち条件に適合したもののみが表示される。
さらに、ユーザは、LUNに対して、設定可能なLDEVの中から1つを選択する(#5)。これにより、SVPは、当該LUNに対して、選択されたLDEVを割り付ける(#6)。以上で、システムLUに対し、1つのLUについての設定が完了する。なお、他にもLUがある場合には、この必要なLUについても以上の処理を繰り返して行う(#7)。
続いて、ユーザは、パス定義を行いたいLUN(システムLUのバックアップ用LU)を選択する(#8)。これにより、SVPには、当該LUNに対して設定可能なLDEVの一覧が表示される(#9)。この際に、容量チェックを行い、RAID内のLDEVのうち条件に適合したもののみが表示される。
さらに、ユーザは、LUNに対して、設定可能なLDEVの中から1つを選択する(#10)。これにより、SVPは、当該LUNに対して、選択されたLDEVを割り付ける(#11)。以上で、システムLUのバックアップ用LUに対し、1つのLUについての設定が完了する。なお、他にもLUがある場合には、この必要なLUについても以上の処理を繰り返して行う(#12)。
そして、SVPは、設定されたLUNとLDEVの組を、テーブル形式ですべてのNASブレードに通知する(#13)。この際に、設定されたLUNがシステムLUであることを合わせて通知する。これにより、NASブレードにおいて、I/Oプロセッサ(IOPと記す)は設定されたLUNのうち、他のNASブレード配下のシステムLUのバックアップ用LUについて、自分が所有するテーブルの「他NASブレード/ポート配下のバックアップ用LU」という意味合いを持つLUNに割り付ける(#14)。この際に、他のNASブレードから参照する必要のある性格を持つLUに限る。この段階でパス定義が完了する。
続いて、NASブレードにおいて、IOPは、SVPに対し、完成されたLUN−LDEV関係のテーブルを通知する(#15)。さらに、ユーザは、パス定義を確認する(#16)。そして、SVPは、完成されたLUN−LDEV関係のテーブルをユーザに応答する(#17)。
<NASブレード(NASOS)主導方法による、各種LU+バックアップ用LUのパス定義のための処理>
図29により、NASブレード(NASOS)主導方法による、各種LU+バックアップ用LUのパス定義のための処理の一例を説明する。図29はNASブレード(NASOS)主導方法による、各種LU+バックアップ用LUのパス定義のための処理を示すフロー図である。
この処理におけるSVPへの表示項目は、前述したSVPとNASブレード主導方法における図27(基本画面)、図28(LUN追加画面)と同様であり、またSVPからの入力項目も、前述したSVPとNASブレード主導方法と同様である。以下において、実際の処理手順を、図29に基づいて説明する。
この処理手順では、(#21)〜(#27)の処理は前述した(#1)〜(#7)の処理と同様であり、また(#37)〜(#39)の処理は前述した(#15)〜(#17)の処理と同様であるので、ここでの説明は省略し、(#28)〜(#36)の処理の内容を以下において説明する。
(#27)の終了後、SVPは、設定されたLUNとLDEVの組を、テーブル形式ですべてのNASブレードに通知する(#28)。この際に、設定されたLUNがシステムLUであることを合わせて通知する。これにより、NASブレードにおいて、IOPは設定されたLUNのうち、バックアップが必要なLUNを抽出して、RAID内のLDEVに必要な容量を持つLDEVがあるかどうかを検索する(#29)。
続いて、SVPは、RAID内のLDEVの一覧テーブルから、条件にあったLDEVの番号を応答する(#30)。これにより、NASブレードにおいて、条件にあったLDEVから1つを選択し、バックアップ用LUとしてLUN−LDEV関係付けテーブルを更新する(#31)。さらに、更新されたLUN−LDEV関係付けテーブルを共有メモリ内に格納する(#32)。その後、共有メモリ内に、LUN−LDEV関係付けテーブルが更新されたことをフラグとして設定する(#33)。そして、LUN−LDEV関係付けテーブルをSVPに通知する(#34)。
続いて、他NASブレードにおいては、LUN−LDEV関係付けテーブルが更新されたことを検知する(#35)。この際に、ポーリングを使用する。その後、IOPは更新されたLUNのうち、自分が参照するべきLUについて、「他NASブレード/ポート配下のバックアップ用LU」という意味合いを持つLUNに割り付ける(#36)。この段階でパス定義が完了する。以降、(#37)からの処理が行われる。
<SVP主導方法による、各種LU+バックアップ用LUのパス定義のための処理>
図30により、SVP主導方法による、各種LU+バックアップ用LUのパス定義のための処理の一例を説明する。図30はSVP主導方法による、各種LU+バックアップ用LUのパス定義のための処理を示すフロー図である。
この処理におけるSVPへの表示項目は、前述したSVPとNASブレード主導方法における図27(基本画面)、図28(LUN追加画面)と同様であり、またSVPからの入力項目も、前述したSVPとNASブレード主導の方法と同様である。以下において、実際の処理手順を、図30に基づいて説明する。
この処理手順では、(#41)〜(#51)の処理は前述した(#1)〜(#11)の処理と同様であり、また(#56)〜(#57)の処理は前述した(#16)〜(#17)の処理と同様であるので、ここでの説明は省略し、(#52)〜(#55)の処理の内容を以下において説明する。
(#51)の終了後、SVPは、設定されたLUNについて、他のNASブレードから参照する必要のあるLUNかどうかを判定する(#52)。そして、他のNASブレードから参照する必要のあるLUNの場合、割り付けられたLDEVについて、他のNASブレード(ポート)配下のLUN−LDEV関連付けテーブルに、「他NASブレード/ポート配下のバックアップ用LU」という意味合いを持つLUNに割り付ける(#53)。この際に、LUN毎、またNASブレードの挿入されているスロット毎に、それぞれLUNが固定値として定義される。この段階でパス定義が完了する。
以上で、システムLUのバックアップ用LUに対し、1つのLUについての設定が完了する。なお、他にもLUがある場合には、この必要なLUについても以上の処理を繰り返して行う(#54)。
続いて、SVPは、設定されたLUNとLDEVの組を、テーブル形式ですべてのNASブレードに通知する(#55)。この際に、設定されたLUNがシステムLUであることも合わせて通知する。以降、(#56)からの処理が行われる。
<ユーザLUの定義>
図31,図32により、ユーザLUの定義の一例を説明する。それぞれ、図31はホストグループ#01のLUN定義を示す図、図32はユーザLUのLUN定義を示す図、である。
図31に示すように、ホストグループ#01のLUN定義は通常の0〜255まで許可するが、システムLUが定義されたLDEVにLUNの定義はできない。また、図31で示したLUNがホストグループ#00で定義されていないと、ホストグループ#01へのLUN定義はできない。具体的に、LUN#00〜FFはそれぞれ、内容がユーザデータ用LUで、LDEV最低容量が制限なしである。
図32に示すように、ユーザLUのLUN定義においては、ホストグループ#00と同様に、各CHN110内で、2つのネットワークI/Fのグループ#01は全く同じLUN定義を行う。すなわち、同一CHN上に存在するネットワークI/Fには、同一のLUNを定義することを意味している。注意として、ユーザLUを設定するには、そのCHNのシステムLU(LUN#00,01,05,06,08)の設定が必須となる(システムLU(LUN#00,01,05,06,08)全て存在しない場合は、ユーザLUの追加処理はできない)。ユーザデータ用に用意されるホストグループ#01のLUNは、LUN#0から256個分、SAN環境と同様に自由に設定できるものとする。
<管理端末のモジュール構成と機能概要>
図33,図34により、管理端末のモジュール構成と機能概要の一例を説明する。それぞれ、図33は管理端末のモジュール構成を示す図、図34は各モジュールの機能概要を示す図、である。
図33に示すように、管理端末160上で動作するモジュール構成には、LUN割り当て機能画面部(以下、単に画面部とも記す)751、LUN割り当て機能実行部(以下、単に実行部とも記す)752、通信インタフェース部753などが備えられている。この管理端末160は、管理端末160上の通信インタフェース部753を介してパッケージCPUに接続される。この管理端末160において、画面部751と実行部752で提供する処理は、図34の通りである。
たとえば、ホストグループについて、グループ#00をデフォルト(名称:NAS−Sys)として定義する処理、グループ#01をデフォルト(名称:User)として定義する処理は、実行部で作成する。また、ホストモードの処理は、画面部で表示無しと変更抑止を行い、実行部で抑止する。
さらに、LUNについて、グループ#00におけるパス追加の処理は、画面部で可能とし、LUN#00,01,05,06,08,09,0A,4B,4C,4Dについて行う。また、パス削除の処理は、画面部で可能とし、実行部からのエラーコードより振る舞い、実行部ではユーザLU有りでは禁止する。さらに、従来のコマンドデバイス設定の処理は、画面部でLUN#05の設定を可能とし、他のLDEVは実行部からのエラーコードより振る舞い、実行部で抑止する。
また、グループ#01におけるパス追加の処理は、画面部で可能とし、実行部からのエラーコードより振る舞い、実行部でシステムLUが未の場合は禁止する。また、パス削除の処理、従来のコマンドデバイス設定の処理は、画面部、実行部でそれぞれ可能とする。
<LUN定義の詳細>
図35により、LUN定義の詳細を説明する。図35はLUN定義における設定の可否を示す図である。
(1)設定の可否
LUN定義には、ホストグループの各状態に対する設定について、図35に示すような制約を設ける。
たとえば、グループ#00(LUN#00,01,05,06,08,09,0A,4B,4C,4D)、グループ#01がともにLUN無しの状態では、グループ#00へのLUN定義の設定は追加・削除が可能であり、グループ#01は不可能である。また、グループ#00がLU有りで,グループ#01がLUN無しの状態では、グループ#00、グループ#01へのLUN定義の設定はともに追加・削除が可能である。さらに、グループ#00,グループ#01がともにLUN有りの状態では、グループ#00へのLUN定義の設定は追加・削除が不可能であり、グループ#01は可能である。また、グループ#00がLU無しで,グループ#01がLUN有りの状態では、グループ#00、グループ#01へのLUN定義の設定は存在しない。
また、システムLUの自動に定義されたLUN(#0B〜12、#1B〜22、#2B〜32、#3B〜42)はグループ#01のパス定義に関係なく、追加、削除が可能である。さらに、パッケージ減設などで、当該CHNのグループ#00(システムLU)のLUNを削除する場合は、当該パッケージの全てのLUN(自動設定されたLUNを含む)を選択して削除する。なお、システムLUを削除する時は、当該CHNのユーザLUが有ってはいけない。
(2)システムLUの追加
システムLUの追加において、各LUN#の処理内容およびチェック個所は、以下の通りである。
たとえば、LUN#00の処理は、まず、画面部および実行部において、LUN#00の追加要求を行う。このとき、2ポートのうち最初のポートに対して要求する。さらに、画面部および実行部において、パス無しLDEVを選択させ、そして容量チェックを行う。続いて、実行部において、他のCHNへの関連するLU(LUN#0B〜12)の自動生成を行った後、他のCHNから関連するLU(LUN#0B〜12、1B〜22)を自動生成し、そして同一CHNの別ポートへのパス定義を行う。LUN#01の処理は、LUN#00とほぼ同様であるが、実行部において、他のCHNへの関連するLU(LUN#1B〜22)の自動生成を行った後に、同一CHNの別ポートへのパス定義を行う。
また、LUN#05の処理は、画面部および実行部において、まず、他のCHNで既に設定済みの場合は、そのLDEVのみを選択可能とした後に、同様に、追加要求から容量チェックまでを行う。続いて、画面部において、コマンドデバイスの設定がない場合はコマンドデバイスの設定も行い、その後、実行部において、同一CHNの別ポートへのパス定義を行う。LUN#06、LUN#08,LUN#4B、LUN#4C、LUN#4Dの処理は、LUN#05におけるコマンドデバイスの設定を行うことが不要となる以外は同様である。
また、LUN#09、LUN#0Aの処理は、LUN#00における、他のCHNへの関連するLUの自動生成を行った後、他のCHNから関連するLUを自動生成する際のLUが異なる以外は同様である。LUN#09の処理では、他のCHNへの関連するLUN#2B〜32の自動生成を行った後、他のCHNから関連するLUN#0B〜12、1B〜22、2B〜32、3B〜42を自動生成する。LUN#0Aの処理では、他のCHNへの関連するLUN#3B〜42の自動生成を行った後、他のCHNから関連するLUN#0B〜12、1B〜22、2B〜32、3B〜42を自動生成する。
このシステムLUの追加においては、コマンドデバイスの設定はLUN#05のみ行う。LUN#05へのコマンドデバイス設定は、既に設定されているものを選択した場合は、そのままの状態とする。設定されていないコマンドデバイスを選択した場合は、画面部から実行部にてコマンドデバイスの設定要求を行う。なお、LUN#05のコマンドデバイスの設定・解除は従来のLDEVと同様に行えるものとする。
(3)システムLUの削除
システムLUの削除において、各LUN#の処理内容およびチェック個所は、以下の通りである。
たとえば、LUN#00の処理は、まず、画面部および実行部において、LUN#00の削除要求を行う。このとき、2ポートのうち最初のポートに対して要求する。続いて、実行部において、同一CHNの別ポートへのパス削除を行い、そして他のCHNに関連するLU(LUN#0B〜12)も削除する。LUN#01の処理は、LUN#00における他のCHNに関連するLUとして、LUN#1B〜22を削除する以外は同様である。
また、LUN#05、LUN#06、LUN#08、LUN#4B、LUN#4C、LUN#4Dの処理は、LUN#01における他のCHNに関連するLUも削除することが不要となる以外は同様である。
また、LUN#09、LUN#0Aの処理は、LUN#01における他のCHNに関連するLUも削除する際のLUが異なる以外は同様である。LUN#09の処理では、他のCHNの関連するLUN#2B〜32を削除する。LUN#0Aの処理では、他のCHNの関連するLUN#3B〜42を削除する。
また、その他のLUNの処理は、画面部において、当該パッケージの自動生成されたパスの削除を許す。
このシステムLUの削除においては、当該パッケージのLUNを削除する場合は、全てのシステムLUを選択したときのみ可能である。システムLUを削除可能にするには、当該パッケージにユーザLUが存在しないことが条件である。
(4)ユーザLUの追加
ユーザLUの追加において、各処理内容およびチェック個所は、以下の通りである。
まず、画面部および実行部において、パス定義を行う。このとき、2ポートのうち最初のポートに対して要求する。そして、実行部において、同一CHNの別ポートへのパス定義を行う。なお、画面部および実行部におけて、中間ボリュームへの定義は不可能であり、また実行部において、システムLUなしにパス定義も定義は不可能である。
(5)ユーザLUの削除
ユーザLUの削除において、各処理内容およびチェック個所は、以下の通りである。
まず、画面部および実行部において、パス削除を行う。このとき、2ポートのうち最初のポートに対して要求する。そして、実行部において、同一CHNの別ポートへのパスも削除する。
<本実施の形態の効果>
(1)LAN400を介して接続される情報処理装置(1)〜(3)200、SAN500を介して接続される情報処理装置(3),(4)200、LAN400やSAN500などのネットワークを介さずに接続される情報処理装置(5)200などのように、複数の異種ネットワークに接続可能な記憶装置システムを提供することができ、さらに、かかる記憶装置システムに必要とされる記憶デバイス制御装置のシステム領域の複製を制御する方法をも提供することができる。
(2)保守員またはユーザによる管理端末160などからの設定によって、システムLUとユーザLUを明示的に分離することができる。すなわち、システムLUをクライアントから隠蔽するためには、管理端末160などから当該LUに対してシステムLU、ユーザLUを明示的に指定してパス定義を行うインタフェースを設ける。これを通じて設定されたシステムLU、ユーザLUの区別に従い、マイクロプログラムはNASOSからの管理目的のアクセスと、ユーザからのデータアクセスとを分離して管理することが可能となる。
(3)システムLUについてのみ、バックアップ用LUを指定することができ、かつ各パッケージから一定のポリシーに従ってアクセスが可能となるように、自動的にパス定義およびパス減設の設定を行うことができる。すなわち、システムLUの障害によって、全クラスタでのフェイルオーバ動作が不可能となる事態を回避するために、システムLUのバックアップを同一筐体内に作成する。このとき、バックアップされたデータを有効に活用するために、各パッケージからのLUパス定義を一定のポリシーに従い半自動で行う機能を設けることで実現可能となる。
また、システムが存在するにも関わらずにパス減設を行うというミスを、システムLU、ユーザLUの双方についてガードすることができる。
以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は前記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。
本発明の一実施の形態に係る記憶装置システムを含むシステムの全体構成を示すブロック図である。 本発明の一実施の形態に係る記憶装置システムにおいて、管理端末の構成を示す図である。 本発明の一実施の形態に係る記憶装置システムにおいて、物理ディスク管理テーブルを示す図である。 本発明の一実施の形態に係る記憶装置システムにおいて、LU管理テーブルを示す図である。 本発明の一実施の形態に係る記憶装置システムにおいて、チャネル制御部のハードウェア構成を示す図である。 本発明の一実施の形態に係る記憶装置システムにおいて、メモリに記憶されるデータの内容を説明するための図である。 本発明の一実施の形態に係る記憶装置システムにおいて、メタデータを示す図である。 (a),(b)は本発明の一実施の形態に係る記憶装置システムにおいて、ロックデータを示す図である。 本発明の一実施の形態に係る記憶装置システムにおいて、ディスク制御部のハードウェア構成を示す図である。 本発明の一実施の形態に係る記憶装置システムにおけるソフトウェア構成を示す図である。 本発明の一実施の形態に係る記憶装置システムにおけるLUN定義の概要を示す図である。 本発明の一実施の形態に係る記憶装置システムにおいて、システムLUの役割を示す図である。 本発明の一実施の形態に係る記憶装置システムにおいて、OS格納用LUとそのバックアップ用LUとの関係を示す図である。 本発明の一実施の形態に係る記憶装置システムにおいて、ダンプ格納用LUとそのバックアップ用LUとの関係を示す図である。 本発明の一実施の形態に係る記憶装置システムにおいて、コマンドデバイス用LUとそのバックアップ用LUとの関係を示す図である。 本発明の一実施の形態に係る記憶装置システムにおいて、障害情報格納用LUとそのバックアップ用LUとの関係を示す図である。 本発明の一実施の形態に係る記憶装置システムにおいて、クラスタ情報格納用LUとそのバックアップ用LUとの関係を示す図である。 本発明の一実施の形態に係る記憶装置システムにおいて、ユーザLUの役割を示す図である。 本発明の一実施の形態に係る記憶装置システムにおいて、ホストグループ#00のLUN定義を示す図である。 本発明の一実施の形態に係る記憶装置システムにおいて、OS格納用LUのLUN定義を示す図である。 本発明の一実施の形態に係る記憶装置システムにおいて、ダンプ採取用LUのLUN定義を示す図である。 本発明の一実施の形態に係る記憶装置システムにおいて、OS格納用LUのバックアップ用LUのLUN定義を示す図である。 本発明の一実施の形態に係る記憶装置システムにおいて、クラスタ共有情報格納用LUのバックアップ用LUのLUN定義を示す図である。 本発明の一実施の形態に係る記憶装置システムにおいて、その他のシステムLUのLUN定義を示す図である。 本発明の一実施の形態に係る記憶装置システムにおいて、バックアップ用LUのパス定義のための処理を示すフロー図である。 本発明の一実施の形態に係る記憶装置システムにおいて、SVPとNASブレード主導方法による、各種LU+バックアップ用LUのパス定義のための処理を示すフロー図である。 本発明の一実施の形態に係る記憶装置システムにおいて、管理端末の基本画面を示す図である。 本発明の一実施の形態に係る記憶装置システムにおいて、管理端末のLUN追加画面を示す図である。 本発明の一実施の形態に係る記憶装置システムにおいて、NASブレード(NASOS)主導方法による、各種LU+バックアップ用LUのパス定義のための処理を示すフロー図である。 本発明の一実施の形態に係る記憶装置システムにおいて、SVP主導方法による、各種LU+バックアップ用LUのパス定義のための処理を示すフロー図である。 本発明の一実施の形態に係る記憶装置システムにおいて、ホストグループ#01のLUN定義を示す図である。 本発明の一実施の形態に係る記憶装置システムにおいて、ユーザLUのLUN定義を示す図である。 本発明の一実施の形態に係る記憶装置システムにおいて、管理端末のモジュール構成を示す図である。 本発明の一実施の形態に係る記憶装置システムにおいて、各モジュールの機能概要を示す図である。 本発明の一実施の形態に係る記憶装置システムにおいて、LUN定義における設定の可否を示す図である。
符号の説明
100…記憶デバイス制御装置、110…チャネル制御部、111…ネットワークインタフェース部、112…CPU、113…メモリ、114…入出力制御部、115…NVRAM、116…ボード接続用コネクタ、117…通信コネクタ、119…I/Oプロセッサ、120…共有メモリ、130…キャッシュメモリ、140…ディスク制御部、141…インタフェース部、142…CPU、143…メモリ、144…NVRAM、145…ボード接続用コネクタ、150…接続部、151…内部LAN、160…管理端末、161…CPU、162…メモリ、162a…物理ディスク管理テーブル、162b…LU管理テーブル、162c…プログラム、163…ポート、164…記録媒体読取装置、165…入力装置、166…出力装置、167…記録媒体、168…記憶装置、200…情報処理装置、300…記憶デバイス、400…LAN、500…SAN、600,610…記憶装置システム、701…OS、703…ネットブートサーバ、704…ミニカーネル、705…OSイメージ、706…NASマネージャ、711…NFS、713…CIFS、714…UNIX(登録商標)系のOS、715…Windows(登録商標)系のOS、720…ロックテーブル、721…ファイルロックテーブル、722…LUロックテーブル、730…メタデータ、740…RAID制御部、751…LUN割り当て機能画面部、752…LUN割り当て機能実行部、753…通信インタフェース部、800…ファイルサーバ部、801…BIOS、804…NVRAM、900,910…バックアップデバイス。

Claims (20)

  1. データを格納する複数の記憶デバイスと、
    前記複数の記憶デバイスに対するデータの書き込みまたは読み出しを制御する記憶デバイス制御部と、
    前記記憶デバイス制御部に接続される接続部と、
    自ディスクアレイ装置の外部の上位装置から書き込み要求または読み出し要求を受け、前記上位装置から送られるファイルレベルのデータをブロックレベルのデータに変換して前記複数の記憶デバイスへ転送し、複数のクラスタグループに分類される複数のチャネル制御部と、
    前記複数のチャネル制御部および前記記憶デバイス制御部によってやり取りされる制御情報が格納される共有メモリと、
    前記複数のチャネル制御部と前記記憶デバイス制御部との間でやり取りされるデータを一時的に保存するキャッシュメモリと、
    前記複数の記憶デバイスの論理的な構成を設定する管理端末とを有し、
    前記複数の記憶デバイスの論理的な記憶領域である複数のLDEVには、自ディスクアレイ装置内の制御情報を格納するための記憶領域であるシステムLUと、前記上位装置から送られるライトデータを書き込むための記憶領域であるユーザLUとが設定可能であり、
    前記管理端末は、前記複数のLDEVに対してパス定義を設定するために、前記システムLUまたは前記ユーザLUを指定する機能を有し、
    前記複数のチャネル制御部は、前記管理端末により指定された前記システムLUまたは前記ユーザLUの区別に従い、前記システムLUに対する前記上位装置からのアクセスを禁止する機能を有することを特徴とするディスクアレイ装置。
  2. 請求項1記載のディスクアレイ装置において、
    前記複数の記憶デバイスの前記複数のLDEVには、前記システムLUに格納された制御情報をバックアップするための記憶領域であるバックアップ用LUが設定可能であり、
    前記バックアップ用LUに対して前記システムLUのパスを自動的に定義し、前記バックアップ用LUに対して前記システムLUに格納された制御情報をバックアップする機能を有することを特徴とするディスクアレイ装置。
  3. 請求項2記載のディスクアレイ装置において、
    前記システムLUのパスを自動的に定義する機能は、前記管理端末と前記複数のチャネル制御部とで実現し、
    前記管理端末は、前記複数のLDEVのうち、設定可能なLDEVに対して、パス定義を行いたい前記システムLUを割り付ける機能を有し、
    前記複数のチャネル制御部は、前記管理端末により割り付けられた前記設定可能なLDEVの前記バックアップ用LUに対して前記システムLUのパスを自動的に定義する機能を有することを特徴とするディスクアレイ装置。
  4. 請求項2記載のディスクアレイ装置において、
    前記システムLUのパスを自動的に定義する機能は、前記複数のチャネル制御部で実現し、
    前記複数のチャネル制御部は、前記複数のLDEVのうち、設定可能なLDEVに対して、パス定義を行いたい前記システムLUを割り付け、前記割り付けられた前記設定可能なLDEVの前記バックアップ用LUに対して前記システムLUのパスを自動的に定義する機能を有することを特徴とするディスクアレイ装置。
  5. 請求項2記載のディスクアレイ装置において、
    前記システムLUのパスを自動的に定義する機能は、前記管理端末で実現し、
    前記管理端末は、前記複数のLDEVのうち、設定可能なLDEVに対して、パス定義を行いたい前記システムLUを割り付け、前記割り付けられた前記設定可能なLDEVの前記バックアップ用LUに対して前記システムLUのパスを自動的に定義する機能を有することを特徴とするディスクアレイ装置。
  6. 請求項2記載のディスクアレイ装置において、
    前記システムLUに格納された制御情報は、OS情報であり、
    前記バックアップ用LUに対して前記OS情報をバックアップするものであることを特徴とするディスクアレイ装置。
  7. 請求項2記載のディスクアレイ装置において、
    前記システムLUに格納された制御情報は、ダンプ情報であり、
    前記バックアップ用LUに対して前記ダンプ情報をバックアップするものであることを特徴とするディスクアレイ装置。
  8. 請求項2記載のディスクアレイ装置において、
    前記システムLUに格納された制御情報は、コマンドデバイス情報であり、
    前記バックアップ用LUに対して前記コマンドデバイス情報をバックアップするものであることを特徴とするディスクアレイ装置。
  9. 請求項2記載のディスクアレイ装置において、
    前記システムLUに格納された制御情報は、障害情報であり、
    前記バックアップ用LUに対して前記障害情報をバックアップするものであることを特徴とするディスクアレイ装置。
  10. 請求項2記載のディスクアレイ装置において、
    前記システムLUに格納された制御情報は、クラスタ共有情報であり、
    前記バックアップ用LUに対して前記クラスタ共有情報をバックアップするものであることを特徴とするディスクアレイ装置。
  11. データを格納する複数の記憶デバイスと、
    前記複数の記憶デバイスに対するデータの書き込みまたは読み出しを制御する記憶デバイス制御部と、
    前記記憶デバイス制御部に接続される接続部と、
    自ディスクアレイ装置の外部の上位装置から書き込み要求または読み出し要求を受け、前記上位装置から送られるファイルレベルのデータをブロックレベルのデータに変換して前記複数の記憶デバイスへ転送し、複数のクラスタグループに分類される複数のチャネル制御部と、
    前記複数のチャネル制御部および前記記憶デバイス制御部によってやり取りされる制御情報が格納される共有メモリと、
    前記複数のチャネル制御部と前記記憶デバイス制御部との間でやり取りされるデータを一時的に保存するキャッシュメモリと、
    前記複数の記憶デバイスの論理的な構成を設定する管理端末とを有するディスクアレイ装置の制御方法であって、
    前記複数の記憶デバイスの論理的な記憶領域である複数のLDEVには、自ディスクアレイ装置内の制御情報を格納するための記憶領域であるシステムLUと、前記上位装置から送られるライトデータを書き込むための記憶領域であるユーザLUとが設定可能であり、
    前記管理端末は、前記複数のLDEVに対してパス定義を設定するために、前記システムLUまたは前記ユーザLUを指定し、
    前記複数のチャネル制御部は、前記管理端末により指定された前記システムLUまたは前記ユーザLUの区別に従い、前記システムLUに対する前記上位装置からのアクセスを禁止することを特徴とするディスクアレイ装置の制御方法。
  12. 請求項11記載のディスクアレイ装置の制御方法において、
    前記複数の記憶デバイスの前記複数のLDEVには、前記システムLUに格納された制御情報をバックアップするための記憶領域であるバックアップ用LUが設定可能であり、
    前記バックアップ用LUに対して前記システムLUのパスを自動的に定義し、前記バックアップ用LUに対して前記システムLUに格納された制御情報をバックアップすることを特徴とするディスクアレイ装置の制御方法。
  13. 請求項12記載のディスクアレイ装置の制御方法において、
    前記システムLUのパスを自動的に定義する機能は、前記管理端末と前記複数のチャネル制御部とで実現し、
    前記管理端末は、前記複数のLDEVのうち、設定可能なLDEVに対して、パス定義を行いたい前記システムLUを割り付け、
    前記複数のチャネル制御部は、前記管理端末により割り付けられた前記設定可能なLDEVの前記バックアップ用LUに対して前記システムLUのパスを自動的に定義することを特徴とするディスクアレイ装置の制御方法。
  14. 請求項12記載のディスクアレイ装置の制御方法において、
    前記システムLUのパスを自動的に定義する機能は、前記複数のチャネル制御部で実現し、
    前記複数のチャネル制御部は、前記複数のLDEVのうち、設定可能なLDEVに対して、パス定義を行いたい前記システムLUを割り付け、前記割り付けられた前記設定可能なLDEVの前記バックアップ用LUに対して前記システムLUのパスを自動的に定義することを特徴とするディスクアレイ装置の制御方法。
  15. 請求項12記載のディスクアレイ装置の制御方法において、
    前記システムLUのパスを自動的に定義する機能は、前記管理端末で実現し、
    前記管理端末は、前記複数のLDEVのうち、設定可能なLDEVに対して、パス定義を行いたい前記システムLUを割り付け、前記割り付けられた前記設定可能なLDEVの前記バックアップ用LUに対して前記システムLUのパスを自動的に定義することを特徴とするディスクアレイ装置の制御方法。
  16. 請求項12記載のディスクアレイ装置の制御方法において、
    前記システムLUに格納された制御情報は、OS情報であり、
    前記バックアップ用LUに対して前記OS情報をバックアップするものであることを特徴とするディスクアレイ装置の制御方法。
  17. 請求項12記載のディスクアレイ装置の制御方法において、
    前記システムLUに格納された制御情報は、ダンプ情報であり、
    前記バックアップ用LUに対して前記ダンプ情報をバックアップするものであることを特徴とするディスクアレイ装置の制御方法。
  18. 請求項12記載のディスクアレイ装置の制御方法において、
    前記システムLUに格納された制御情報は、コマンドデバイス情報であり、
    前記バックアップ用LUに対して前記コマンドデバイス情報をバックアップするものであることを特徴とするディスクアレイ装置の制御方法。
  19. 請求項12記載のディスクアレイ装置の制御方法において、
    前記システムLUに格納された制御情報は、障害情報であり、
    前記バックアップ用LUに対して前記障害情報をバックアップするものであることを特徴とするディスクアレイ装置の制御方法。
  20. 請求項12記載のディスクアレイ装置の制御方法において、
    前記システムLUに格納された制御情報は、クラスタ共有情報であり、
    前記バックアップ用LUに対して前記クラスタ共有情報をバックアップするものであることを特徴とするディスクアレイ装置の制御方法。
JP2004157348A 2004-05-27 2004-05-27 ディスクアレイ装置およびその制御方法 Expired - Fee Related JP4575028B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2004157348A JP4575028B2 (ja) 2004-05-27 2004-05-27 ディスクアレイ装置およびその制御方法
US10/911,604 US7149861B2 (en) 2004-05-27 2004-08-05 Disk array device capable of backing up and limiting access to a system logical unit
EP05253107A EP1600850A3 (en) 2004-05-27 2005-05-19 Disk array device and controlling method thereof
US11/634,090 US7574575B2 (en) 2004-05-27 2006-12-06 Disk array device including a system LU for storing control information in the disk array and backup LU for backing up the control information and controlling method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004157348A JP4575028B2 (ja) 2004-05-27 2004-05-27 ディスクアレイ装置およびその制御方法

Publications (2)

Publication Number Publication Date
JP2005339215A true JP2005339215A (ja) 2005-12-08
JP4575028B2 JP4575028B2 (ja) 2010-11-04

Family

ID=34941387

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004157348A Expired - Fee Related JP4575028B2 (ja) 2004-05-27 2004-05-27 ディスクアレイ装置およびその制御方法

Country Status (3)

Country Link
US (2) US7149861B2 (ja)
EP (1) EP1600850A3 (ja)
JP (1) JP4575028B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008134682A (ja) * 2006-11-27 2008-06-12 Fujitsu Ltd 仮想ライブラリ装置
JP2013242779A (ja) * 2012-05-22 2013-12-05 Hitachi Information & Telecommunication Engineering Ltd Os切り替えシステム及びos切り替え方法
CN104657690A (zh) * 2013-11-20 2015-05-27 中兴通讯股份有限公司 外部设备控制方法及装置

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1303097A3 (en) * 2001-10-16 2005-11-30 Microsoft Corporation Virtual distributed security system
US8015204B2 (en) * 2001-10-16 2011-09-06 Microsoft Corporation Scoped access control metadata element
US8065713B1 (en) 2001-12-12 2011-11-22 Klimenty Vainstein System and method for providing multi-location access management to secured items
US10033700B2 (en) 2001-12-12 2018-07-24 Intellectual Ventures I Llc Dynamic evaluation of access rights
US7921450B1 (en) 2001-12-12 2011-04-05 Klimenty Vainstein Security system using indirect key generation from access rules and methods therefor
US8006280B1 (en) 2001-12-12 2011-08-23 Hildebrand Hal S Security system for generating keys from access rules in a decentralized manner and methods therefor
US7178033B1 (en) 2001-12-12 2007-02-13 Pss Systems, Inc. Method and apparatus for securing digital assets
US7930756B1 (en) 2001-12-12 2011-04-19 Crocker Steven Toye Multi-level cryptographic transformations for securing digital assets
US7565683B1 (en) 2001-12-12 2009-07-21 Weiqing Huang Method and system for implementing changes to security policies in a distributed security system
US10360545B2 (en) 2001-12-12 2019-07-23 Guardian Data Storage, Llc Method and apparatus for accessing secured electronic data off-line
US7921288B1 (en) 2001-12-12 2011-04-05 Hildebrand Hal S System and method for providing different levels of key security for controlling access to secured items
US7380120B1 (en) 2001-12-12 2008-05-27 Guardian Data Storage, Llc Secured data format for access control
US7260555B2 (en) 2001-12-12 2007-08-21 Guardian Data Storage, Llc Method and architecture for providing pervasive security to digital assets
US7921284B1 (en) 2001-12-12 2011-04-05 Gary Mark Kinghorn Method and system for protecting electronic data in enterprise environment
US7950066B1 (en) 2001-12-21 2011-05-24 Guardian Data Storage, Llc Method and system for restricting use of a clipboard application
US8176334B2 (en) 2002-09-30 2012-05-08 Guardian Data Storage, Llc Document security system that permits external users to gain access to secured files
US8707034B1 (en) 2003-05-30 2014-04-22 Intellectual Ventures I Llc Method and system for using remote headers to secure electronic files
US7703140B2 (en) 2003-09-30 2010-04-20 Guardian Data Storage, Llc Method and system for securing digital assets using process-driven security policies
US8127366B2 (en) 2003-09-30 2012-02-28 Guardian Data Storage, Llc Method and apparatus for transitioning between states of security policies used to secure electronic documents
JP4575028B2 (ja) * 2004-05-27 2010-11-04 株式会社日立製作所 ディスクアレイ装置およびその制御方法
JP4475079B2 (ja) * 2004-09-29 2010-06-09 株式会社日立製作所 計算機システムの構成管理方法
JP2007065788A (ja) * 2005-08-29 2007-03-15 Hitachi Ltd ディスクアレイ装置及びその制御方法並びにプログラム
JP4710518B2 (ja) * 2005-09-28 2011-06-29 株式会社日立製作所 計算機システムとそのブート制御方法
US9122397B2 (en) * 2007-10-26 2015-09-01 Emc Corporation Exposing storage resources with differing capabilities
US8055734B2 (en) * 2008-08-15 2011-11-08 International Business Machines Corporation Mapping of logical volumes to host clusters
US20120151265A1 (en) * 2010-12-09 2012-06-14 Ibm Corporation Supporting cluster level system dumps in a cluster environment
US9152550B1 (en) * 2012-03-30 2015-10-06 Emc Corporation Storage system with dynamic transfer of block file system ownership for load balancing
US8966190B1 (en) 2012-03-31 2015-02-24 Emc Corporation System and method for assigning control of a logical unit number
US8909886B1 (en) 2012-03-31 2014-12-09 Emc Corporation System and method for improving cache performance upon detecting a migration event
US8914583B1 (en) 2012-03-31 2014-12-16 Emc Corporation System and method for improving cache performance
US11360829B2 (en) * 2018-10-16 2022-06-14 Ngd Systems, Inc. System and method for communicating between computational storage devices
CN110989926B (zh) * 2019-11-11 2024-02-13 北京字节跳动网络技术有限公司 故障磁盘槽位定位方法、装置及电子设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61221950A (ja) * 1985-03-28 1986-10-02 Hitachi Ltd アドレス変換方法
JPS62202628A (ja) * 1986-02-07 1987-09-07 Fujitsu Ltd デ−タ伝送システムに於けるバツクアツプ方式
JPS6364146A (ja) * 1986-09-04 1988-03-22 Fujitsu Ltd 論理空間管理方式
JPH07105065A (ja) * 1993-10-04 1995-04-21 Fujitsu Ltd データのバックアップ方法
JP2003316713A (ja) * 2002-04-26 2003-11-07 Hitachi Ltd 記憶装置システム
JP2004021557A (ja) * 2002-06-14 2004-01-22 Hitachi Ltd プログラム、情報処理方法、情報処理装置、及び記憶装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6604532B1 (en) 1999-08-27 2003-08-12 Deborah A. McClendon Marcel curling iron having insulated rotatable handles
US6343324B1 (en) * 1999-09-13 2002-01-29 International Business Machines Corporation Method and system for controlling access share storage devices in a network environment by configuring host-to-volume mapping data structures in the controller memory for granting and denying access to the devices
JP4651230B2 (ja) 2001-07-13 2011-03-16 株式会社日立製作所 記憶システム及び論理ユニットへのアクセス制御方法
US6633962B1 (en) * 2000-03-21 2003-10-14 International Business Machines Corporation Method, system, program, and data structures for restricting host access to a storage space
US6859888B2 (en) * 2000-09-19 2005-02-22 Matsushita Electric Industrial Co., Ltd. Data storage array apparatus storing error information without delay in data access, and method, program recording medium, and program for the same
GB2371886B (en) 2001-01-31 2005-06-22 Hewlett Packard Co Storage apparatus
US6662284B2 (en) 2001-02-20 2003-12-09 Hewlett-Packard Development Company, L.C. Computer apparatus, method and memory including license key
US6728849B2 (en) * 2001-12-14 2004-04-27 Hitachi, Ltd. Remote storage system and method
JP4632574B2 (ja) 2001-05-25 2011-02-16 株式会社日立製作所 記憶装置およびファイルデータのバックアップ方法およびファイルデータのコピー方法
US7007042B2 (en) * 2002-03-28 2006-02-28 Hewlett-Packard Development Company, L.P. System and method for automatic site failover in a storage area network
GB2396034B (en) * 2002-11-18 2006-03-08 Advanced Risc Mach Ltd Technique for accessing memory in a data processing apparatus
JP2004220216A (ja) 2003-01-14 2004-08-05 Hitachi Ltd San/nas統合型ストレージ装置
WO2004090722A1 (en) * 2003-04-11 2004-10-21 Star Softcomm Pte Ltd Data isolation system and method
JP2005267111A (ja) * 2004-03-17 2005-09-29 Hitachi Ltd 記憶制御システム及び記憶制御システムの制御方法
JP4575028B2 (ja) * 2004-05-27 2010-11-04 株式会社日立製作所 ディスクアレイ装置およびその制御方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61221950A (ja) * 1985-03-28 1986-10-02 Hitachi Ltd アドレス変換方法
JPS62202628A (ja) * 1986-02-07 1987-09-07 Fujitsu Ltd デ−タ伝送システムに於けるバツクアツプ方式
JPS6364146A (ja) * 1986-09-04 1988-03-22 Fujitsu Ltd 論理空間管理方式
JPH07105065A (ja) * 1993-10-04 1995-04-21 Fujitsu Ltd データのバックアップ方法
JP2003316713A (ja) * 2002-04-26 2003-11-07 Hitachi Ltd 記憶装置システム
JP2004021557A (ja) * 2002-06-14 2004-01-22 Hitachi Ltd プログラム、情報処理方法、情報処理装置、及び記憶装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008134682A (ja) * 2006-11-27 2008-06-12 Fujitsu Ltd 仮想ライブラリ装置
JP2013242779A (ja) * 2012-05-22 2013-12-05 Hitachi Information & Telecommunication Engineering Ltd Os切り替えシステム及びos切り替え方法
CN104657690A (zh) * 2013-11-20 2015-05-27 中兴通讯股份有限公司 外部设备控制方法及装置

Also Published As

Publication number Publication date
JP4575028B2 (ja) 2010-11-04
EP1600850A2 (en) 2005-11-30
US20070079069A1 (en) 2007-04-05
US7149861B2 (en) 2006-12-12
US20050268033A1 (en) 2005-12-01
EP1600850A3 (en) 2006-04-19
US7574575B2 (en) 2009-08-11

Similar Documents

Publication Publication Date Title
JP4575028B2 (ja) ディスクアレイ装置およびその制御方法
US7043604B2 (en) Disk array system
US7263584B2 (en) Method of controlling storage device controlling apparatus, and storage device controlling apparatus
US7788457B2 (en) Method of controlling storage device controlling apparatus, and storage device controlling apparatus
US7908513B2 (en) Method for controlling failover processing for a first channel controller and a second channel controller
US8204858B2 (en) Snapshot reset method and apparatus
US7366838B2 (en) Storage system and control method thereof for uniformly managing the operation authority of a disk array system
JP4274523B2 (ja) 記憶装置システム、及び記憶装置システムの起動方法
JP4342804B2 (ja) ストレージシステムの制御方法、ストレージシステム、及びプログラム
US20050198433A1 (en) Storage device controlling apparatus and method of controlling the same
JP2005222404A (ja) 仮想記憶ユニットを備えた記憶制御サブシステム
US7840755B2 (en) Methods and systems for automatically identifying a modification to a storage array

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070507

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100727

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100819

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130827

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees