JP3547411B2 - Storage system - Google Patents

Storage system Download PDF

Info

Publication number
JP3547411B2
JP3547411B2 JP2001220441A JP2001220441A JP3547411B2 JP 3547411 B2 JP3547411 B2 JP 3547411B2 JP 2001220441 A JP2001220441 A JP 2001220441A JP 2001220441 A JP2001220441 A JP 2001220441A JP 3547411 B2 JP3547411 B2 JP 3547411B2
Authority
JP
Japan
Prior art keywords
disk
cache memory
data
storage
adapter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2001220441A
Other languages
Japanese (ja)
Other versions
JP2002073286A (en
Inventor
龍也 二宮
秀文 増崎
弘幸 黒沢
直也 高橋
靖雄 井上
秀彦 岩崎
政行 星野
聡一 磯野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2001220441A priority Critical patent/JP3547411B2/en
Publication of JP2002073286A publication Critical patent/JP2002073286A/en
Application granted granted Critical
Publication of JP3547411B2 publication Critical patent/JP3547411B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、大形計算機システムやネットワークシステム等に接続される磁気ディスク装置,磁気テープ装置,半導体記憶装置,または光ディスク装置等の記憶装置を制御する記憶制御装置を含む記憶システムに係り、特に、システムの拡張性が高く縮退運転や活線挿抜対応の可能な記憶システムに関する。
【0002】
【従来の技術】
従来、大形計算機に接続される記憶システムとして、例えば特開昭61−43742号公報に記載されているように、上位装置(CPU)に対するインタフェース(ホストアダプタ),キャッシュメモリ,及び磁気ディスク装置等の記憶装置に対するインタフェース(ディスクアダプタ)の相互間をホットライン(専用線)で接続しているものが知られている。
【0003】
図20は、従来の記憶システムの構成の概要を示す図である。同図において、201−1〜201nはそれぞれ複数の上位ホスト(CPU)に接続されるホストアダプタ(対上位論理モジュール)、202−1〜202−nは、共有の大形ディスク装置205に接続されるディスクアダプタ(記憶媒体接続用論理モジュール)、203は、複数のホストアダプタに共有のキャッシュメモリ、206は同様に共有の管理メモリである。従来装置では、各ホストアダプタ201−1〜201−nとキャッシュメモリ203の間、キャッシュメモリ203と各ディスクアダプタ202−1〜202−nの間、各ホストアダプタ201−1〜201−nと管理メモリ206の間、並びに管理メモリ206と各ディスクアダプタ201−2〜201−nの間は、それぞれ別々のホットライン207−1〜207−n及び208−1〜208−nによって接続されている。また、これらのホストアダプタ及びディスクアダプタの監視及び保守を行なう保守用プロセッサ(SVP,図示せず)も各々のホストアダプタ及びディスクアダプタにそれぞれ専用線を介して接続されている。
【0004】
【発明が解決しようとする課題】
上記従来技術では、上位装置に対するホストアダプタ(対上位接続論理モジュール)と、記憶装置に対するディスクアダプタ(対記憶媒体接続論理モジュール)と、キャッシュメモリ(キャッシュメモリモジュール)との各間がホットラインで接続されているため、装置構成が複雑になると共に、ホストアダプタ、キャッシュメモリ、ディスクアダプタ、ディスク装置等、装置としての拡張性に乏しくいわゆるスケーラブル(拡張及び縮小自在)なシステム構成が得られなかった。また、システムを多重化することにより障害発生時等に縮退運転(2台のうち1台を停止し他の1台だけで運転するなど)や活線挿抜対応(システムを動作したままで基板や回路の部品等を挿しかえるなど)を可能とすることがなにも配慮されておらず、このため、障害発生時の部品交換やシステムの制御プログラムをグレードアップするときには、システムを一時停止し対応しなければならない等の問題があった。
【0005】
従って、本発明の目的は、上記従来技術の問題点を解決し、コモンバス方式を採用することにより、システム構成(規模)に応じてホストアダプタ,記憶装置アダプタ等の各論理モジュールやキャッシュメモリ及び記憶媒体を接続することでスケーラブルなシステムを実現することができるようにすると共に、各論理モジュール,記憶媒体及びコモンバスの多重化により、縮退運転と各論理モジュール及び記憶媒体の活線挿抜対応とを可能とし、無停止で保守することができる記憶システムを提供することにある。
【0006】
【課題を解決するための手段】
前記課題を解決するために、本発明は主として次のような構成を採用する。
上位装置に接続され、前記上位装置に対するインタフェースを構成する上位側接続論理装置と、
前記上位装置から転送される情報を記憶する記憶装置と、
前記記憶装置に接続され、前記記憶装置に対するインタフェースを構成する記憶装置側接続論理装置と、
前記上位側接続論理装置と前記記憶装置側接続論理装置との間で転送されるデータを一時的に記憶するキャッシュメモリ、前記上位側接続論理装置及び前記記憶装置側接続論理装置及び前記キャッシュメモリのために制御情報を記憶する共有メモリ、を有するキャッシュメモリ装置と、
前記上位側接続論理装置と前記記憶装置側接続論理装置と前記共有メモリとに接続され、制御情報の転送を行う1系統のマルチプロセッサバスと、前記上位側接続論理装置と前記記憶装置側接続論理装置と前記キャッシュメモリと前記共有メモリとに接続され、前記上位側接続論理装置と前記記憶装置側接続論理装置と前記キャッシュメモリ装置との間のデータ転送を行う2系統のI/0バスと、を含むコモンバスと、
を有する記憶システムであって、
前記マルチプロセッサバスに障害が発生した場合、前記2系統のI/Oバスのうちの一方のI/Oバスで制御情報の転送を行い、他方のI/Oバスでデータ転送を行い、
前記2系統のI/Oバスのうち1系統のI/Oバスに障害が発生した場合、残りのI/Oバスでデータ転送を行い、
前記制御情報を記憶する共有メモリには、前記障害発生時の縮退運転状況を示す情報が書き込まれる構成とする。
【0007】
そして、本発明によれば、上位装置に対するインタフェースを構成する複数の上位側接続論理装置と、記憶装置と、前記記憶装置に対するインタフェースを構成する複数の記憶装置側接続論理装置と、これらの装置間で転送されるデータを一時記憶するキャッシュメモリ装置(複数の上位側接続論理装置及び複数の記憶装置側接続論理装置に共有されるキャッシュメモリ装置)とを有する記憶システムにおいて、前記複数の上位装置側接続論理装置,複数の記憶側接続論理装置,及びキャッシュメモリ装置は、これらの装置に共有されるコモンバスにより相互に接続されるように構成したので、上位側接続論理装置と記憶装置側接続論理装置とキャッシュメモリの増設または変更は、単にこれらをコモンバス上に追加しまたは変更して行くだけでよく、増設によるアップグレードが容易に達成できスケーラブルなシステム構成を得ることができる。
【0008】
また、これらの上位側接続論理装置,記憶装置側接続論理装置及びキャッシュメモリ装置は、モジュール化されて、コモンバスの配設されたプラッタに挿抜(着脱)自在に取り付けるようにしたので、これらの装置の必要な数量の増設作業も簡単である。
【0009】
また、上位側接続論理装置,記憶装置側接続論理装置、キャッシュメモリ装置,及びこれらの間を接続するコモンバスは、二重化され、2系統に分けて配線されているので。これらの装置の一方に障害が発生したときでも、他方の装置を用いて縮退運転が可能である。なお、障害発生時に縮退運転状況を示す情報は、共有メモリに書き込まれる。
【0010】
この場合、上位側接続論理装置,記憶装置側接続論理装置,及びキャッシュメモリ装置は、いずれも活線挿抜対応のコネクタ部を具備しているので、システムを停止することなく保守点検を行なって故障部品の交換を行なったり、増設用の部品を追加したりすることが可能である。
【0011】
キャッシュメモリ装置は、コモンバスに直接取り付けられるキャッシュメモリモジュール(キャッシュメモリパッケージ)と、増設用のキャッシュユニットとで構成され、増設用のキャッシュユニットは、コモンバスに直接挿抜自在に取り付けられる増設用のキャッシュポートパッケージを介して必要数接続されるようになっているので、簡単に増減することができる。
【0012】
【発明の実施の形態】
以下に、本発明の実施例を図面の図1から図18により説明する。
【0013】
図1は本発明の概念図を示す。図1により、本実施例の概要を説明する。
【0014】
1は、対上位CPU(ホスト)接続用論理モジュールであるホストアダプタ部、2は、対記憶媒体接続用論理モジュールであるディスクアダプタ部、3は、両モジュール間で転送されるデータを一時記憶するキャッシュメモリパッケージ(キャッシュメモリモジュール)、4はホストアダプタ1、ディスクアダプタ2、キャッシュメモリパッケージ3の間のデータ転送制御を司るコモンバス、5は、縦横にアレイ状に配置した記憶媒体である磁気ディスク群(以下「アレイディスク」という)である。ホストアダプタ1は、上位インタフェース側のデータ形式及びアドレス形式を記憶媒体インタフェース用のデータ形式及びアドレス形式に変換する手段と、これらを制御管理する二重化したマイクロプロセッサとを有している。ディスクアダプタ2は、記憶媒体へデータを格納するためのアドレス演算機能と、記憶データ保証用冗長データの生成機能と、記憶媒体構成情報を認識する機能と、これらを制御管理するマイクロプロセッサとを有している。
【0015】
図1において、上位装置(CPU)から送られてきた書き込みデータは、ホストアダプタ1からコモンバス4を介して一度キャッシュメモリパッケージ3に書き込むことにより上位に終了報告を行い、その後の空き時間でキャッシュメモリパッケージ3からディスクアダプタ2を経由してアレイディスク5に書き込む。
【0016】
また、上位装置からのデータ読み出し命令に対しては、キャッシュメモリパッケージ3上にデータが存在する場合はアレイディスク5からは読み出さず、キャッシュメモリパッケージ3上のデータを上位装置に転送する。一方キャッシュメモリパッケージ3上にデータが存在しない場合は、アレイディスク5からディスクアダプタ2によりコモンバス4を経由して一度キャッシュメモリパッケージ3に書き込まれた後同様にホストアダプタ1を経由して上位装置へ転送する。
【0017】
コモンバス4上のホストアダプタ1、ディスクアダプタ2、キャッシュメモリパッケージ3各々はその接続数を任意に変えることができる。ホストアダプタ1の実装数を変えれば対上位接続パス数が変化し、上位ホストに対するデータ転送能力を高めることができる。ディスクアダプタ2の実装数を変えれば記憶媒体に対する接続パス数が変化し、記憶媒体に対するデータの書き込み/読み出しの転送能力を高めることができる。また、同時に記憶媒体の数も増加することができる。キャッシュメモリパッケージ3の実装数を変えればデータの一時格納場所であるキャッシュメモリの容量が変化し、記憶媒体の総容量に対するキャッシュメモリの容量の比率を高めることができるので、対上位装置からアクセスするデータがキャッシュメモリ上に存在する確率(以下「キャッシュヒット率」という)を高める等スケーラブルな装置構成を実現できる。
【0018】
図2は、図1の概念図の詳細な構成図を示したものである。図2は、図1の複数台のホストアダプタ及び複数台のディスクアダプタのうち、それぞれ1台だけを示し、他は図示を省略している。
【0019】
ホストアダプタ1において、6はホストインターフェイスの光信号を電気信号に変換する信号変換部、7は上位データフォーマットをアレイディスク5用フォーマットに変換するフォーマット変換部である。8はコモンバス4とのデータの授受を司るデータ転送制御部で、内部にパケット転送単位のデータを格納する記憶バッファを内蔵している。9は活線挿抜対応可能な小振幅電流駆動形バスドライバ(以下「BTL」という)である。
【0020】
ホストからのデータ転送要求は10のマイクロプロセッサ(以下「MP」という)に引継がれ、ホストアダプタ1内のデータ転送制御は当MP10の管理下で行われる。
【0021】
MP10はMP内の障害発生を検出するなど高信頼性を確保するために2重化されており、11のチェッカ部で同じ動作をする2重化されたMP10とMP10’を比較チェックしている。
【0022】
12はMP10の制御プログラムを格納するブートデバイスで、このブートデバイス12には書き替え可能な大容量フラッシュメモリを採用しており、またMP10は必要に応じて13のローカルメモリに制御プログラムをコピーして使用することにより、MP10のメモリアクセス時間の高速化を実現しており、図中破線で囲まれた部分29がチャネルアダプタモジュールであり、ホストアダプタ1には当モジュール29が2回路搭載してある。
【0023】
ディスクアダプタ2において、14はアレイディスクに書き込むデータをセクタ単位に格納するバッファメモリ、15はバッファメモリ14の制御及びデータ転送制御を行なうデータ制御バッファ部、16はアレイディスク5に書き込むデータを保証するための冗長データを生成する冗長データ生成部、17はアレイディスク5(ターゲット)に対するイニシエータ(SCSIのマスタ側インタフェース)である。
【0024】
またディスクアダプタ2内のデータ転送制御は、ホストアダプタ1と同じ構成をとるMP周辺部(MP10,MP10’,チェッカ11、ブートデバイス12、ローカルメモリ13からなりディスクアダプタ用の制御プログラムを搭載する)の管理下で行なわれる。
【0025】
アレイディスク5は、図2では4つのディスク(ターゲット)しか示してないが、実際には1台のディスクアダプタ2に対し例えば4(横)×4(縦)〜4(横)×7(縦)つのディスクで構成される。横列はECCグループ(ErrorCorrection Group)を構成し、各ECCグループは例えば3つのデータディスクと1つのパリティディスクで構成される。更に、後述のように、このようなアレイディスク5の1組に対し、二重化されたホストアダプタト二重化されたホストアダプタと二重化されたディスクアダプタを通じて、あるCPUからアクセスできるようになっている。そして、ホストアダプタの一方に障害が発生したときには、ホストアダプタの他方もしくはディスクアダプタの他方を通じて、同じCPUから同じアレイディスクにアクセスすることができる。
【0026】
キャッシュメモリパッケージ3において、18は各アダプタのMP10が共通にアクセス可能で種々の管理情報を記憶する共有メモリ部、19は共有メモリ制御部、20はキャッシュメモリ部、21はキャッシュメモリ制御部であり、両メモリ制御部19、21は共にメモリ書き込みデータ保証の為のECC生成回路、読み出しデータの検査及び訂正回路を内蔵し、キャッシュメモリパッケージ3全体で最大1GBのキャッシュ容量を実現しており、装置構成上は2面化して実装している。
【0027】
キャッシュメモリ容量を更に増設する場合は、キャッシュメモリパッケージ3の代わりに(または、キャッシュメモリパッケージ3に加えて)22で示すキャッシュポートパッケージを実装し、23で示すプラッタ(基板差し込み板)間接続ケーブルを介して24で示すキャッシュユニットに接続し、(すなわち、増設ユニット24内のキャッシュメモリには、キャッシュポートパッケージ22及びケーブル23を介してアクセスできるように構成され)、これによって、最大8GB2面までキャッシュ容量を増設することができる。図2では、キャッシュメモリパッケージ2を2面設けたのに加えて、キャッシュポートパッケージ22を実装し、これにケーブル24を介していくつかのキャッシュユニット24を接続した場合を示している。
【0028】
以上述べたホストアダプタ1、ディスクアダプタ2、キャッシュメモリパッケージ3はコモンバス4を介してつながっているが、このコモンバス中、25は各アダプタのMP10が共有メモリをアクセスするためのマルチプロセッサバス(以下「Mバス」という)、26は高速データ転送を行う高速I/Oバス(以下「Fバス」という)である。
【0029】
高速I/Oバス26は通常は64ビット幅で2系統同時に動作しているが、障害発生時はどちらか1系統のみでの縮退動作が可能であり、またMバス25に障害が発生した場合はFバス26のどちらか1系統を使用して動作可能である。
【0030】
更に活線挿抜対応(挿抜の際、挿抜部品の負荷を小さくして挿抜を行なうことで、システムを稼動状態のまま挿抜を可能とする)のBTL9をコモンバス4のインターフェイスにすることで、ホストアダプタ1に障害が発生した場合、システムは自動的に本障害パスを閉塞し他のホストアダプタのパスを用いてアレイディスク5に対し対上位(同じCPU)からのアクセスを継続する。保守員は、システム稼働状態において障害の発生したホストアダプタ1を取り除き、正常なホストアダプタ1をシステムに挿入し、27の保守用プロセッサ(以下「SVP」という)から28のLANを介して復旧の指示を与え、システムは交換されたホストアダプタ1の動作をチェックし正常であれば閉塞パスを復旧させることにより、無停止運転を実現している。なお、図中LANCは、LAN Controller(SVPインタフェースコントローラ)である。SVP27は、他のホストアダプタ及びディスクアダプタにも同様に接続され、監視及び保守が行なわれるようになっている。
【0031】
また、各アダプタの制御プログラムに変更がある場合は、SVP27からLAN28を介してブートデバイス12内にある制御プログラムの内容を書き替えることにより無停止のアップグレードが可能である。
【0032】
即ち、システムの制御プログラムをアップグレードを実施する場合は、まずホストアダプタ/ディスクアダプタの各モジュールを1モジュールずつ閉塞し、制御プログラムのアップグレードを行い再接続する。以上のように1モジュールずつの制御プログラムの入れ換え操作を繰り返すことにより、系全体の制御プログラム入れ換えが実施される。
【0033】
図3は、図2に示した構成図に沿ってデータの流れとデータの保証を示した図である。
【0034】
上位からアレイディスクにデータを書き込む場合、例えばESCON(光チャネルの商標名、IBM社)から、先ず書き込み先の記憶空間上の物理アドレス情報(以下「PA」という)が送られて来た後、データ(CKD(Count Key Data)フォーマット)+CRCコードが送られてくる。これらの光信号は信号変換部6で電気信号に変換すると共にパリティを生成し、フォーマット変換部7ではデータフォーマットをFBA(Fired Blocked Architecture)フォーマットに変換すると共にLRC(Longitudinal Redundancy Check,長手方向冗長度チェック)コードを付加し、更にPAをデータの一部として取り込んでアレイディスク上の論理アドレス(以下「LA」という)を生成した後これら総ての情報に対してパリティを付加してFバス26に送られる。
【0035】
キャッシュパッケージ3では、Fバス26からのデータに対して誤り訂正可能なECCを付加してキャッシュメモリ20に書き込む。
【0036】
ディスクアダプタ2では、Fバスからのデータに対して更にCRCコードが付加され、該データSCSIインターフェースを介してアレイディスク5に送られ、磁気ディスク装置個々にECCを付加して書き込みデータを保証している。
【0037】
アレイディスク5からのデータ読み出しにおいても同様に、各チェックコードを元に読み出しデータの検査/訂正を行い信頼性を高めている。
【0038】
以上のように、チェックコードはデータの長さ方向に対してはある長さ毎の水平チェック、データの垂直(幅)方向に対しては(例えばバイト単位の)垂直チェックで2重化されており、また転送が行われる領域間(図中一点鎖線)では当該2重化チェックコードのうち1つを必ずデータとして受け渡すことによりデータ保証に万全を期している。
【0039】
図4は図1で述べたスケーラビリティを実現するための装置外観図であり、41はアレイディスクを制御する制御ユニット部、42はアレイディスクを実装するアレイユニット部で、本装置はこの2つのユニットで構成される。
【0040】
図5は制御ユニット41の実装図で(a)は正面図、(b)は側面図を表わす。51はホストアダプタ1、ディスクアダプタ2、キャッシュメモリパッケージ3を実装する論理架部、52は停電時に揮発メモリであるキャッシュメモリ部に電源を供給するバッテリ部、53はキャッシュメモリ増設時にキャッシュユニット24及び増設メモリ用の追加バッテリを実装するキャッシュメモリ増設部、54はSVP実装部、55は論理架に電源を供給する論理架用スイッチング電源、56はアレイディスクの構成(容量)が小規模の場合のアレイディスク実装部、57はアレイディスク部に電源を供給するアレイディスク用スイッチング電源、58は両スイッチング電源55、57に電源を供給する商用電源制御部である。
【0041】
図6は大容量アレイディスクを構成するときのアレイユニット部の実装図で(a)は正面図、(b)は側面図を表わす。
【0042】
アレイディスク実装部56は、磁気ディスク装置を最大112台(8行x7列x2)実装可能であり、各磁気ディスク装置に障害が発生した場合の装置の入れ替えを容易にするために、装置の正面と背面の両面から挿抜可能となるような実装方式をとっている。
【0043】
61はユニット全体の発熱を逃がすための冷却ファンで、冷却効果を高めると共に、騒音抑止の観点から小さな冷却ファンを使って小区分化し、床面より天井へ送風する構造をとっている。
【0044】
図7は図5で説明した論理架部の接続方式図である。
【0045】
71はコモンバス4をプリント配線したプラッタ(基板の挿し込み用の板)であり、72は各アダプタ、パッケージとプラッタ71を接続するためのコネクタである。
【0046】
ホストアダプタ1、ディスクアダプタ2、キャッシュメモリパッケージ3の間のデータ転送はコモンバス4を介して行うため、各アダプタ、パッケージはコネクタ72上の任意のどの位置でも接続可能となり、ホストアダプタ1の実装数、ディスクアダプタ2の実装数を自由に変えることができる。
【0047】
一方、キャッシュ容量を増設する場合はキャッシュメモリパッケージ3をキャッシュポートパッケージ22に変えて実装するか、または図7に示すように、キャッシュメモリパッケージ3に加えてキャッシュポートパッケージ21を実装し、これに、接続ケーブル23を介してキャッシュユニット43(図2の24に相当)に接続することにより、もとの2GBの容量に加えて更に最大8GB2面分のキャッシュメモリ容量を拡張できる。
【0048】
図8は図5で示した論理架部の実装イメージ図である。
【0049】
図8で、コモンバス4は、プラッタ71上を左右方向にプリント配線されており、このプラッタ71に対して、キャッシュポートパッケージ22の基板(CP)の取付部、キャッシュメモリパッケージ3の基板(C)の取付部、ホストアダプタモジュールの基板(H)の取付部、及びディスクアダプタモジュールの基板(D)の取付部が設けられ、図の矢印84で示すように、各基板は、挿抜操作面側から着脱されるようになっていて、プラッタ71に差し込まれるとコモンバス4と電気接続されるものである。
【0050】
81は、ホストアダプタ1の基板上の下方部に実装されて、対上位インターフェイスを司る光コネクタ部、82はディスクアダプタ2の基板上の下方部に実装されて、アレイディスク5と接続するSCSIコネクタ部、83はキャッシュポートパッケージ22を実装したときの接続ケーブル23用の接続コネクタ部である。85は、キャシュメモリパッケージ3の基板(C)の下方部に取付けたキャッシュメモリ本体(図2のキャッシュメモリ20)である。
【0051】
各コネクタ部は、障害発生等で各アダプタ、パッケージを挿抜する際の操作性を向上させるため、接続コネクタ83を除き、操作面84側へは実装せず、プラッタ71の接続側に集中実装している。
【0052】
図9は本発明のソフトウエア構成を示した図である。
【0053】
91はホストアダプタ1のブートデバイス12に書き込まれるチャネルアダプタ制御プログラム(以下「CHP」という),である。また、ディスクアダプタ2のブートデバイス12に書き込まれるディスクアダプタ制御プログラムのうち、92はアレイディスク固有の処理およびキャッシュメモリとアレイディスク間のデータ転送制御を受け持つディスクアダプタマスタ制御プログラム(以下「DMP」という),93はDMP92の制御管理下でキャッシュメモリ20とアレイディスク5の間のデータ転送制御を受け持つディスクアダプタスレーブ制御プログラム(以下「DSP」という)である。
【0054】
ディスクアダプタ2のブートデバイス12には、DMP92とDSP93の2種類が書き込まれているが、装置構成上nセットのディスクアダプタでアレイディスクにアクセスする場合、そのうちの2セットがDMP92として動作(2重化)し、残るn−2のディスクアダプタがDSP93として動作する。
【0055】
94はSVP27に搭載するSVP制御プログラムで、CHP91,DMP92,DSP93を監視及び保守するとともに、各制御プログラムの更新時はSVP27から更新したいMPの制御プログラムを直接、または他のMPから当該MPの制御プログラムを更新することができる。
【0056】
図10はデータの流れに基づいた図9で示したソフトウエア構成の機能分担を示した図である。
【0057】
CHP91は、上位からのアドレス形式及びデータ形式を下位アドレス形式及びデータ形式に変換し、キャッシュメモリに書き込む。101はセグメント、102はブロック、103はアレイディスク5上の磁気ディスク1台当りに書き込むデータ量を表すストライプである。DMP92は、キャッシュメモリ上からストライプ単位にデータを読み出し、下位アドレスをアレイディスクの行NO,列NO,FBA,ブロック数に変換し、DSP93でアレイディスクにデータを書き込む。
【0058】
また、DMP92はアレイディスク5の構成情報も管理している。
【0059】
以上のように、各制御プログラムを機能分担することにより、上位インタフェースをSCSIやファイバーチャネル等に変更する場合はCHP91のみ、またアレイディスク構成を変更(ディスクの行数/列数、RAID(Redundant Array Inexpensive Disk)方式等)する場合はDMP92のみの変更で対応可能であり、ホストアダプタ1、ディスクアダプタ2の接続変更に合わせて各制御プログラムを書き替えることで、スケーラビリティを実現するとともに、ソフトウエア開発の負荷も軽減している。
【0060】
図11はコモンバス4の2重化の考え方と縮退動作を説明した図である。
【0061】
111はコモンバス4の使用権を獲得することのできるバスマスタ(MP10を搭載しているホストアダプタ1又はディスクアダプタ2)、112はバスマスタ111からのアクセス要求を受けるバススレーブ(キャッシュメモリパッケージ)である。
【0062】
Fバス26は通常動作状態では64ビットバス(200MB/S)2系統を同時に動作させ400MB/Sを実現しており、各バス系統はパリティチェック又はタイムアウトで障害を検出可能である。障害発生時はバスマスタ111は各自縮退状態に入り、残る1系統を使ってバススレーブをアクセスすると共に、この時の縮退情報は共有メモリ18上の管理エリアに登録される。
【0063】
またコモンバス内のシステム制御信号(バスリセット等)は信号線を3重化しており、通常動作時は3線一致、縮退動作時は2線一致(多数決)方式を採用することにより信頼性を高めている。
【0064】
図12は装置各部位における多重化と縮退運転を示した図である。
【0065】
121は2ポート化されたチャネルパスであり、ホストアダプタ1にはチャネルアダプタ29が2モジュール、対上位用のチャネルパスが4パス実装しており、障害発生時は交替チャネルアダプタ(CHP)、交替チャネルパスを使用して縮退運転に入る。
【0066】
122はディスクアダプタ2とアレイディスク5の間のインタフェースを司るSCSIパスで、1行の磁気ディスク群に対して別のディスクアダプタ2からもアクセス可能なように2重化しており、当パスに障害が発生した場合は交替SCSIパスを使用して縮退運転に入る。また、アレイディスクマスタ制御を行うDMP92も2重化しており、障害発生時は交替DMP92を使用して縮退運転に入る。
【0067】
共有メモリ18、キャッシュメモリ20も2重化しており、共有メモリに障害が発生した場合は残るもう一方の使用して縮退運転に入り、キャッシュメモリに障害が発生した場合はライトペンディングデータ(キャッシュメモリ上に残っているデータ)をディスクにデステージし障害発生メモリ部位を除いたメモリで縮退運転を行う。
【0068】
アレイディスク5上の磁気ディスクに障害が発生した場合は、当該磁気ディスクを切り離し予備の磁気ディスクに修復しながら読み出し書き込み動作を行う。
図13は装置の電源系の多重化と縮退運転を示した図である。
【0069】
商用電源制御部58は各々独立したAC入力で2重化して、論理架用スイッチング電源55及びアレイディスク用スイッチング電源57にそれぞれ供給しているため、障害発生時はもう片方の商用電源制御部58で縮退運転に入る。
【0070】
131は上位ホストからの電源ON/OFFの遠隔制御や商用電源制御部58、両スイッチング電源等の電源回路を制御する電源制御回路(以下「PCI」という)である。
【0071】
論理架用スイッチング電源55は冗長運転用として必要数より2回路多く実装し電源コモンバスを介して論理架51及びバッテリ52に供給することにより、当スイッチング電源55が2回路故障しても動作可能である。
【0072】
同様に列単位の磁気ディスク群に供給するにアレイディスク用スイッチング電源57も、冗長運転用として2回路多く実装し電源コモンバスを介して供給することにより、当スイッチング電源57が2回路故障しても動作可能であり、さらに両スイッチング電源55、57を2重化するよりも安価な構成に仕上げることができる。
【0073】
また停電時においては、2重化されたバッテリ52から電源コモンバスを介して論理架内の揮発メモリであるキャッシュメモリ及びPCI131に供給され、片方のバッテリが故障しても動作可能である。
【0074】
図14及び図15はアレイディスクに使用する磁気ディスク装置単体の記憶容量別にアレイディスクを構成したときのシステム性能を比較した図である。
【0075】
図14はそれぞれ異なる磁気ディスク装置を使用して同一容量のアレイディスクを実現した場合の構成を示しており、項番141が3GBの磁気ディスク装置(3.5インチ径のディスクを使用)、項番142が4.0GBの磁気ディスク装置(5インチ径のディスクを使用)、項番143が8.4GBの磁気ディスク装置(6.4インチ径のディスクを使用)を使用している。アレイ構成は、ディスク装置141が14枚のデータディスクの2枚のパリティディスク、ディスク装置142が14枚のデータディスクと4枚のパリティディスク、ディスク装置143が14枚のデータディスクと2枚のパリティディスクで構成した場合である。
【0076】
図15は各磁気ディスク装置141、142、143についての毎秒当りのI/O命令発行件数と平均応答時間の関係を示しており、アレイディスクシステムとしてのトランザクション性能を向上させるためには、小容量(小径)の磁気ディスク装置を使用してアレイ構成を大きくすることが最も性能を引き出せることから、本発明に於ては3.5インチ磁気ディスク装置141を採用してアレイディスクシステムを実現している。従って、同じ記憶容量の磁気ディスク装置を、従来のように大形磁気ディスク装置1台で構成するのと、複数台の小形磁気ディスク装置のアレイで構成するのとでは、後者の小形磁気ディスク装置を多数用いたアレイ構成のものの方が、平均アクセスタイムを短縮できる点で有利である。
【0077】
以上説明してきたスケーラブルなアーキテクチャを使用して実現できる装置モデル構成例を図16〜図19にしめす。
【0078】
図16は、コモンバス4上のディスクアダプタ2の実装数を減らし、更にキャッシュポートパッケージ22を実装し、接続ケーブル23を介してキャッシュユニット24に接続することにより、キャッシュヒット率の高める高性能大容量キャッシュメモリ付小形ディスクアレイを実現した時の構成図である。
【0079】
またディスクアダプタ2を実装しないで、ホストアダプタ1とキャッシュメモリのみで構成した場合(図中の破線内の構成)は、記憶媒体が磁気ディスクから半導体メモリに代わり、更に高速データ転送可能な高性能の半導体ディスク装置を実現する。
【0080】
図17はディスクアダプタ2を最大構成とし、キャッシュパッケージ3を実装し又はキャッシュポート22を実装し接続ケーブル23を介してキャッシュユニットを接続することにより、高性能大容量キャッシュメモリ付大形ディスクアレイを実現した時の構成図である。
【0081】
図18はホストアダプタ1の対上位インターフェースをSCSI/ファイバーチャネル等のインターフェースに変えて、ディスクアダプタ2の実装数を減らし、更にFバス26のビット幅を半分に縮小した2系統で構成することにより、オープン市場をターゲットにした無停止運転の高性能フォールトトレラント(高信頼性)サーバシステムを実現した時の構成図である。
【0082】
図19は図18の構成を元に2重化、活線挿抜を考慮せずに、最もシンプルな構成をとることによって安価なオープン市場向けのサーバシステムを実現した時の構成図である。なお、図中、4D+1Pは、データディスク4枚とパリティディスク1枚の趣旨である。
【0083】
以上の実施例において、コモンバス4上に、更に光ディスクアダプタ(光ディスク用接続論理モジュール)を介して光ディスク装置を接続し、磁気テープ制御装置(磁気ディスク接続論理モジュール)を介して磁気テープ装置を接続し、あるいは半導体記憶装置接続論理モジュールを介して半導体記憶装置を接続することができる。また、コモンバス4上に別の形式のホストアダプタを介してワークステーションを接続することもできる。このように、コモンバス上に、種々の形式の記憶装置に対する記憶媒体アダプタを接続することができる。
【0084】
【発明の効果】
以上詳しく説明したように、本発明によれば、上位装置に対するインタフェースを構成する複数の上位側接続論理装置と、記憶装置と、前記記憶装置に対するインタフェースを構成する複数の記憶装置側接続論理装置と、これらの装置間で転送されるデータを一時記憶するキャッシュメモリ装置(複数の上位側接続論理装置及び複数の記憶装置側接続論理装置に共有されるキャッシュメモリ装置)とを有する記憶システムにおいて、前記複数の上位装置側接続論理装置,複数の記憶装置側接続論理装置,及びキャッシュメモリ装置は、これらの装置に共有されるコモンバスにより相互に接続されるように構成したので、上位側接続論理装置と記憶装置側接続論理装置とキャッシュメモリの増設または変更は、単にコモンバス上にこれらの装置等を追加しまたは変更して行くだけでよく、増設によるアップグレードが容易に達成できスケーラブルなシステム構成を得ることができる。また、これらの上位側接続論理装置,記憶装置側接続論理装置及びキャッシュメモリ装置は、モジュール化されて、コモンバスの配設されたプラッタに挿抜(着脱)自在に取り付けるようにしたので、これらの装置の必要な数量の増設作業も簡単であるという効果がある。
【0085】
また、上位側接続論理装置,記憶装置側接続論理装置、キャッシュメモリ装置,及びこれらの間を接続するコモンバスは、二重化され、2系統に分けて配線されているので、これらの装置の一方に障害が発生したときでも、他方の装置を用いて縮退運転が可能である。この場合、上位側接続論理装置,記憶装置側接続論理装置,及びキャッシュメモリ装置は、いずれも活線挿抜対応のコネクタ部を具備しているので、システムを停止することなく保守点検を行なって故障部品の交換を行なったり、増設用の部品を追加したりすることが可能であるという効果がある。
【0086】
更に、記憶装置は、複数の小形記憶装置を組み合わせたアレイ形とされ、これにより従来の大形ディスク装置1台を用いたものに比べてアクセスタイムを短縮できるという効果がある。
【0087】
また、キャッシュメモリ装置は、コモンバスに直接取り付けられるキャッシュメモリモジュール(キャッシュメモリパッケージ)と、増設用のキャッシュユニットとで構成され、増設用のキャッシュユニットは、コモンバスに直接挿抜自在に取り付けられる増設用のキャッシュポートパッケージを介して必要数接続されるようになっているので、簡単に増減することができるという効果も得られる。
【0088】
以上により、高信頼性の記憶システムを得ることができる。
【図面の簡単な説明】
【図1】本発明の実施例の概要を示す概念図である。
【図2】本発明の一実施例の記憶システムの詳細な構成図である。
【図3】図2の構成図に沿ったデータの流れとデータ形式を示した図である。
【図4】本発明の一実施例の装置外観図である。
【図5】本発明の一実施例の装置における制御ユニット部の実装方式図である。
【図6】本発明の一実施例の装置におけるアレイディスクユニット部の実装方式図である。
【図7】本発明の一実施例の装置における論理架部の接続方式図である。
【図8】本発明の一実施例の装置における論理架部の実装方式図である。
【図9】本発明の実施例に適用されるソフトウエア構成図である。
【図10】本発明の実施例によるデータの流れとソフトウエアの機能分担を示した図である。
【図11】本発明の実施例によるコモンバスの2重化と縮退動作を示した図である。
【図12】本発明の実施例による装置各部位の2重化と縮退運転を示した図である。
【図13】本発明の実施例による装置の電源系の多重化と縮退運転を示した図である。
【図14】アレイディスクに使用する磁気ディスク装置単体のディスク構成を示す図である。
【図15】磁気ディスク装置の記憶容量とアレイディスクのシステム性能を示した図である。
【図16】高性能大容量キャッシュメモリ付小形ディスクアレイの構成図である。
【図17】高性能大容量キャッシュメモリ付大形ディスクアレイの構成図である。
【図18】高性能フォールトトレラントサーバシステムの構成図である。
【図19】低価格サーバシステムの構成図である。
【図20】従来の記憶システムの概略構成図である。
【符号の説明】
1 ホストアダプタ
2 ディスクアダプタ
3 キャッシュメモリパッケージ
4 コモンバス
5 アレイディスク
18 共有メモリ
20 キャッシュメモリ
22 キャッシュポートパッケージ
24 増設キャッシュユニット
25 マルチプロセッサバス
26 高速I/Oバス
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a storage system including a storage control device that controls a storage device such as a magnetic disk device, a magnetic tape device, a semiconductor storage device, or an optical disk device connected to a large-scale computer system or a network system. The present invention relates to a storage system that has high expandability of the system and is capable of performing degraded operation and hot-swap.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, as a storage system connected to a large-sized computer, for example, an interface (host adapter) for a higher-level device (CPU), a cache memory, a magnetic disk device, etc. There is known a device in which interfaces (disk adapters) to the storage devices are connected by a hot line (dedicated line).
[0003]
FIG. 20 is a diagram showing an outline of a configuration of a conventional storage system. In the figure, reference numerals 201-1 to 201n denote host adapters (upper logical modules) connected to a plurality of higher-level hosts (CPUs), respectively, and reference numerals 202-1 to 202-n connect to a shared large disk device 205. A disk adapter (storage medium connection logical module) 203 is a cache memory shared by a plurality of host adapters, and 206 is a shared management memory similarly. In the conventional device, management is performed between each host adapter 201-1 to 201-n and the cache memory 203, between the cache memory 203 and each disk adapter 202-1 to 202-n, and between each host adapter 201-1 to 201-n. The hot lines 207-1 to 207-n and 208-1 to 208-n are connected to each other between the memories 206 and between the management memory 206 and each of the disk adapters 201-2 to 201-n. A maintenance processor (SVP, not shown) for monitoring and maintaining these host adapters and disk adapters is also connected to each host adapter and disk adapter via a dedicated line.
[0004]
[Problems to be solved by the invention]
In the above prior art, a hot line is connected between a host adapter (upstream connection logical module) for a host device, a disk adapter (storage medium connection logic module) for a storage device, and a cache memory (cache memory module). As a result, the device configuration becomes complicated, and a so-called scalable (expandable and contractible) system configuration such as a host adapter, a cache memory, a disk adapter, a disk device, and the like, having poor expandability as a device, cannot be obtained. In addition, by multiplexing the system, degraded operation (such as stopping one of the two units and operating with only one other unit) or hot-swapping (for example, when the system is running) No consideration has been given to making it possible to replace circuit components, etc.). Therefore, when replacing a component in the event of a failure or upgrading the system control program, the system must be temporarily stopped to respond. There was a problem that had to be done.
[0005]
Accordingly, an object of the present invention is to solve the above-mentioned problems of the prior art and adopt a common bus system, so that each logical module such as a host adapter and a storage device adapter, a cache memory, and a storage device according to the system configuration (scale). A scalable system can be realized by connecting media, and multiplexing of each logical module, storage medium and common bus enables degeneration operation and hot swapping of each logical module and storage medium. Another object of the present invention is to provide a storage system that can be maintained without interruption.
[0006]
[Means for Solving the Problems]
In order to solve the above problems, the present invention mainly employs the following configuration.
An upper connection logic device connected to a higher device and constituting an interface to the higher device;
A storage device for storing information transferred from the higher-level device,
A storage device-side connection logic device connected to the storage device and constituting an interface to the storage device;
A cache memory for temporarily storing data transferred between the upper connection logic and the storage connection logic, a cache memory for temporarily storing data transferred between the upper connection logic and the storage connection logic and the cache memory; A cache memory device having a shared memory for storing control information for
A multiprocessor bus connected to the upper connection logic device, the storage device connection logic device, and the shared memory for transferring control information, the upper connection logic device and the storage device connection logic; Two I / O buses connected to the device, the cache memory, and the shared memory, for performing data transfer between the upper connection logic device, the storage device connection logic device, and the cache memory device; And a common bus,
A storage system having
When a failure occurs in the multiprocessor bus, control information is transferred on one of the two I / O buses, and data is transferred on the other I / O bus.
If a failure occurs in one of the two I / O buses, data transfer is performed on the remaining I / O buses,
Information indicating the degraded operation status at the time of occurrence of the failure is written in the shared memory that stores the control information.
[0007]
According to the present invention, a plurality of upper connection logic devices constituting an interface to an upper device, a storage device, a plurality of storage device connection logic devices constituting an interface to the storage device, and A cache memory device (a cache memory device shared by a plurality of upper connection logic devices and a plurality of storage device connection logic devices) for temporarily storing data transferred by The connection logic device, the plurality of storage connection logic devices, and the cache memory device are configured to be connected to each other by a common bus shared by these devices, so that the upper connection logic device and the storage device connection logic device are connected. And adding or changing cache memory simply add or change these on the common bus In good, it can be upgraded by adding get easily achieved can scalable system configuration.
[0008]
Further, since these upper connection logic device, storage device connection logic device, and cache memory device are modularized and attached to a platter provided with a common bus so as to be freely inserted and removed (detachable), these devices are provided. It is easy to increase the required number of units.
[0009]
In addition, the upper connection logic device, the storage device connection logic device, the cache memory device, and the common bus connecting these devices are duplicated and wired in two systems. Even when a failure occurs in one of these devices, degenerate operation can be performed using the other device. Note that information indicating the degraded operation status at the time of occurrence of a failure is written to the shared memory.
[0010]
In this case, the upper-level connection logical device, the storage-device-side logical device, and the cache memory device all have connectors for hot-swapping, so that maintenance and inspection can be performed without stopping the system for failure. It is possible to replace parts or add additional parts.
[0011]
The cache memory device is composed of a cache memory module (cache memory package) directly attached to a common bus and an additional cache unit, and the additional cache unit is an additional cache port directly attachable to and removable from the common bus. Since the required number of connections are made via the package, the number can be easily increased or decreased.
[0012]
BEST MODE FOR CARRYING OUT THE INVENTION
An embodiment of the present invention will be described below with reference to FIGS.
[0013]
FIG. 1 shows a conceptual diagram of the present invention. An outline of the present embodiment will be described with reference to FIG.
[0014]
1 is a host adapter unit which is a logic module for connection to a host CPU (host), 2 is a disk adapter unit which is a logic module for connection to a storage medium, and 3 is a memory for temporarily storing data transferred between both modules. A cache memory package (cache memory module), 4 is a common bus for controlling data transfer between the host adapter 1, disk adapter 2, and cache memory package 3, and 5 is a group of magnetic disks as storage media arranged vertically and horizontally in an array. (Hereinafter referred to as “array disk”). The host adapter 1 has means for converting the data format and address format on the upper interface side into the data format and address format for the storage medium interface, and a duplicated microprocessor for controlling and managing these. The disk adapter 2 has an address calculation function for storing data in a storage medium, a function for generating redundant data for guaranteeing storage data, a function for recognizing storage medium configuration information, and a microprocessor for controlling and managing these. are doing.
[0015]
In FIG. 1, write data sent from a higher-level device (CPU) is written once to a cache memory package 3 from a host adapter 1 via a common bus 4 to report an end to a higher-level device. Data is written from the package 3 to the array disk 5 via the disk adapter 2.
[0016]
Also, in response to a data read command from the host device, if data exists on the cache memory package 3, the data on the cache memory package 3 is not read from the array disk 5, but is transferred to the host device. On the other hand, if there is no data on the cache memory package 3, the data is once written into the cache memory package 3 from the array disk 5 by the disk adapter 2 via the common bus 4 and then similarly to the host device via the host adapter 1. Forward.
[0017]
The number of host adapters 1, disk adapters 2, and cache memory packages 3 on the common bus 4 can be arbitrarily changed. If the number of mounted host adapters 1 is changed, the number of paths connected to the host changes, and the data transfer capability to the host can be increased. If the number of mounted disk adapters 2 is changed, the number of paths connected to the storage medium changes, and the transfer capability of writing / reading data to / from the storage medium can be increased. At the same time, the number of storage media can be increased. If the number of mounted cache memory packages 3 is changed, the capacity of the cache memory, which is a temporary data storage location, changes, and the ratio of the capacity of the cache memory to the total capacity of the storage medium can be increased. It is possible to realize a scalable device configuration such as increasing the probability that data exists in the cache memory (hereinafter referred to as “cache hit ratio”).
[0018]
FIG. 2 shows a detailed configuration diagram of the conceptual diagram of FIG. FIG. 2 shows only one of each of the plurality of host adapters and the plurality of disk adapters in FIG. 1 and omits the others.
[0019]
In the host adapter 1, reference numeral 6 denotes a signal conversion unit for converting an optical signal of the host interface into an electric signal, and reference numeral 7 denotes a format conversion unit for converting an upper data format into a format for the array disk 5. Reference numeral 8 denotes a data transfer control unit which controls the transfer of data to and from the common bus 4, and has a built-in storage buffer for storing data in packet transfer units. Reference numeral 9 denotes a small-amplitude current-driven bus driver (hereinafter, referred to as "BTL") capable of hot-swapping.
[0020]
The data transfer request from the host is taken over by ten microprocessors (hereinafter, referred to as “MP”), and data transfer control in the host adapter 1 is performed under the management of the MP10.
[0021]
The MP10 is duplicated to ensure high reliability, for example, by detecting a fault occurrence in the MP. The 11 checker units compare and check the duplicated MP10 and MP10 'that perform the same operation. .
[0022]
Reference numeral 12 denotes a boot device for storing a control program of the MP 10. The boot device 12 employs a rewritable large-capacity flash memory, and the MP 10 copies the control program to a local memory 13 as needed. The memory access time of the MP10 can be shortened by using the channel adapter module 29 in a portion surrounded by a broken line in the figure. The host adapter 1 has two modules 29 mounted thereon. is there.
[0023]
In the disk adapter 2, 14 is a buffer memory for storing data to be written to the array disk in sector units, 15 is a data control buffer unit for controlling the buffer memory 14 and controlling data transfer, and 16 is assuring data to be written to the array disk 5. And a redundant data generation unit 17 for generating redundant data for use as an initiator (SCSI master side interface) for the array disk 5 (target).
[0024]
The data transfer control in the disk adapter 2 is performed in the MP peripheral section having the same configuration as that of the host adapter 1 (including the MP 10, MP 10 ', the checker 11, the boot device 12, and the local memory 13 and mounting a control program for the disk adapter). It is performed under the control of.
[0025]
Although only four disks (targets) are shown in FIG. 2 for the array disk 5, actually, for example, 4 (horizontal) × 4 (vertical) to 4 (horizontal) × 7 (vertical) for one disk adapter 2. ) Consists of two disks. The rows form an ECC group (Error Correction Group), and each ECC group includes, for example, three data disks and one parity disk. Further, as will be described later, a set of such array disks 5 can be accessed by a certain CPU through a duplicated host adapter and a duplicated disk adapter. When a failure occurs in one of the host adapters, the same CPU can access the same array disk through the other host adapter or the other disk adapter.
[0026]
In the cache memory package 3, reference numeral 18 denotes a shared memory unit that can be commonly accessed by the MPs 10 of the respective adapters and stores various management information; 19, a shared memory control unit; 20, a cache memory unit; and 21, a cache memory control unit. Each of the memory control units 19 and 21 has a built-in ECC generation circuit for guaranteeing memory write data, a read data inspection and correction circuit, and realizes a maximum cache capacity of 1 GB in the entire cache memory package 3. In terms of configuration, it is mounted in two planes.
[0027]
In order to further increase the cache memory capacity, a cache port package indicated by 22 is mounted instead of (or in addition to) the cache memory package 3 and a connection cable 23 between platters (substrate insertion plate) (That is, the cache memory in the extension unit 24 is configured to be accessible via the cache port package 22 and the cable 23), whereby up to a maximum of 8 GB2 The cache capacity can be increased. FIG. 2 shows a case where, in addition to the two cache memory packages 2 provided, a cache port package 22 is mounted, and several cache units 24 are connected thereto via cables 24.
[0028]
The host adapter 1, disk adapter 2, and cache memory package 3 described above are connected via a common bus 4. In this common bus, reference numeral 25 denotes a multiprocessor bus (hereinafter referred to as "multiprocessor bus") for the MP 10 of each adapter to access the shared memory. Reference numeral 26 denotes a high-speed I / O bus (hereinafter, referred to as an "F bus") for performing high-speed data transfer.
[0029]
The high-speed I / O bus 26 normally operates simultaneously in two systems with a width of 64 bits. However, when a failure occurs, the degeneration operation can be performed by only one of the two systems, and when a failure occurs in the M bus 25. Can operate using either one of the F buses 26.
[0030]
In addition, the BTL 9 that is compatible with hot-swapping (by inserting / extracting while inserting / extracting components with a reduced load on the components to be inserted / extracted while the system is operating) is used as the interface of the common bus 4 so that the host adapter can be used. If a failure occurs in the system disk 1, the system automatically closes the failed path and continues to access the array disk 5 from the host (the same CPU) using the path of another host adapter. The maintenance staff removes the failed host adapter 1 in the system operation state, inserts the normal host adapter 1 into the system, and recovers the data from the 27 maintenance processor (hereinafter referred to as “SVP”) via the 28 LAN. By giving an instruction, the system checks the operation of the replaced host adapter 1 and, if normal, restores the closed path, thereby realizing non-stop operation. Note that LANC in the figure is a LAN Controller (SVP interface controller). The SVP 27 is similarly connected to other host adapters and disk adapters so that monitoring and maintenance are performed.
[0031]
If there is a change in the control program of each adapter, a non-stop upgrade is possible by rewriting the contents of the control program in the boot device 12 from the SVP 27 via the LAN 28.
[0032]
That is, when upgrading the control program of the system, first, each module of the host adapter / disk adapter is closed one by one, and the control program is upgraded and reconnected. By repeating the control program switching operation for each module as described above, the control program of the entire system is switched.
[0033]
FIG. 3 is a diagram showing a data flow and data guarantee along the configuration diagram shown in FIG.
[0034]
When data is written to the array disk from the upper level, for example, first, physical address information (hereinafter, referred to as “PA”) on the write destination storage space is sent from ESCON (trade name of an optical channel, IBM Corporation), Data (CKD (Count Key Data) format) + CRC code is sent. These optical signals are converted into an electrical signal by the signal conversion unit 6 and a parity is generated. The format conversion unit 7 converts the data format into an FBA (Fired Blocked Architecture) format and an LRC (Longitudinal Redundancy Check, longitudinal redundancy). Check) code is added, PA is taken in as a part of data, and a logical address (hereinafter, referred to as “LA”) on the array disk is generated. Sent to
[0035]
In the cache package 3, an error-correctable ECC is added to the data from the F bus 26 and the data is written to the cache memory 20.
[0036]
In the disk adapter 2, a CRC code is further added to the data from the F bus, sent to the array disk 5 via the data SCSI interface, and ECC is added to each magnetic disk device to guarantee the write data. I have.
[0037]
Similarly, when reading data from the array disk 5, the read data is inspected / corrected based on each check code to improve reliability.
[0038]
As described above, the check code is duplicated by a horizontal check for each length in the data length direction and a vertical check (for example, in byte units) for the vertical (width) direction of the data. In addition, between the areas where transfer is performed (indicated by a dashed line in the figure), one of the duplicated check codes is always transferred as data to ensure data security.
[0039]
FIG. 4 is an external view of an apparatus for realizing the scalability described in FIG. 1. Reference numeral 41 denotes a control unit for controlling an array disk. Reference numeral 42 denotes an array unit for mounting an array disk. It consists of.
[0040]
5A and 5B are mounting diagrams of the control unit 41, wherein FIG. 5A is a front view and FIG. 5B is a side view. 51 is a logical frame for mounting the host adapter 1, disk adapter 2, and cache memory package 3, 52 is a battery for supplying power to the cache memory which is a volatile memory at the time of power failure, 53 is the cache unit 24 and A cache memory expansion unit for mounting an additional battery for an additional memory, 54 is an SVP mounting unit, 55 is a switching power supply for a logical rack that supplies power to a logical rack, and 56 is a switch when the configuration (capacity) of the array disk is small. An array disk mounting unit, 57 is an array disk switching power supply for supplying power to the array disk unit, and 58 is a commercial power supply control unit for supplying power to both switching power supplies 55, 57.
[0041]
FIGS. 6A and 6B are mounting views of an array unit portion when a large-capacity array disk is configured. FIG. 6A is a front view, and FIG. 6B is a side view.
[0042]
The array disk mounting section 56 can mount a maximum of 112 magnetic disk devices (8 rows × 7 columns × 2). In order to facilitate replacement of devices when a failure occurs in each magnetic disk device, the array disk mounting section 56 has a front surface. And a mounting method that allows insertion and removal from both sides of the back.
[0043]
Reference numeral 61 denotes a cooling fan for releasing heat generated by the entire unit. The cooling fan 61 has a structure in which the cooling effect is enhanced, and a small cooling fan is used to reduce the noise from the viewpoint of noise suppression, and the air is sent from the floor to the ceiling.
[0044]
FIG. 7 is a connection system diagram of the logical frame unit described in FIG.
[0045]
Reference numeral 71 denotes a platter (a board for inserting a board) on which the common bus 4 is printed and wired, and reference numeral 72 denotes a connector for connecting each of the adapters and packages to the platter 71.
[0046]
Since data transfer between the host adapter 1, the disk adapter 2 and the cache memory package 3 is performed via the common bus 4, each adapter and package can be connected at any arbitrary position on the connector 72. , The number of mounted disk adapters 2 can be changed freely.
[0047]
On the other hand, when increasing the cache capacity, the cache memory package 3 is replaced with the cache port package 22 and mounted, or as shown in FIG. By connecting the cache unit 43 to the cache unit 43 (corresponding to 24 in FIG. 2) via the connection cable 23, the cache memory capacity for a maximum of 8GB2 planes can be further expanded in addition to the original 2GB capacity.
[0048]
FIG. 8 is a mounting image diagram of the logical frame shown in FIG.
[0049]
In FIG. 8, the common bus 4 is printed on the platter 71 in the left-right direction. The mounting portion of the board (CP) of the cache port package 22 and the board (C) of the cache memory package 3 are attached to the platter 71. , A host adapter module board (H) mounting section, and a disk adapter module board (D) mounting section. As shown by arrows 84 in FIG. It is designed to be attached and detached, and is electrically connected to the common bus 4 when inserted into the platter 71.
[0050]
Reference numeral 81 denotes an optical connector unit mounted on the lower part of the host adapter 1 on the board and controls the upper interface, and reference numeral 82 denotes a SCSI connector mounted on the lower part of the disk adapter 2 on the board and connected to the array disk 5. Reference numeral 83 denotes a connection connector for the connection cable 23 when the cache port package 22 is mounted. Reference numeral 85 denotes a cache memory body (the cache memory 20 in FIG. 2) attached to a lower portion of the substrate (C) of the cache memory package 3.
[0051]
In order to improve the operability when inserting and removing each adapter and package in the event of a failure or the like, each connector is mounted on the connection side of the platter 71 without being mounted on the operation surface 84, except for the connector 83. ing.
[0052]
FIG. 9 is a diagram showing a software configuration of the present invention.
[0053]
Reference numeral 91 denotes a channel adapter control program (hereinafter referred to as “CHP”) written to the boot device 12 of the host adapter 1. Among the disk adapter control programs written in the boot device 12 of the disk adapter 2, 92 is a disk adapter master control program (hereinafter, referred to as "DMP") that performs processing unique to the array disk and data transfer control between the cache memory and the array disk. ) And 93 are disk adapter slave control programs (hereinafter, referred to as “DSP”) which are responsible for controlling data transfer between the cache memory 20 and the array disk 5 under the control management of the DMP 92.
[0054]
Although two types of DMP 92 and DSP 93 are written in the boot device 12 of the disk adapter 2, when n sets of disk adapters are used to access an array disk, two sets of them operate as the DMP 92 (duplicate). Then, the remaining n-2 disk adapters operate as the DSP 93.
[0055]
Reference numeral 94 denotes an SVP control program mounted on the SVP 27. The SVP control program monitors and maintains the CHP 91, the DMP 92, and the DSP 93. When each control program is updated, the control program of the MP to be updated is controlled from the SVP 27 directly or from another MP. The program can be updated.
[0056]
FIG. 10 is a diagram showing the function allocation of the software configuration shown in FIG. 9 based on the data flow.
[0057]
The CHP 91 converts the address format and the data format from the upper order into the lower address format and the data format, and writes them into the cache memory. 101 is a segment, 102 is a block, and 103 is a stripe representing the amount of data to be written per magnetic disk on the array disk 5. The DMP 92 reads data from the cache memory in stripe units, converts the lower address into row NO, column NO, FBA, block number of the array disk, and writes the data to the array disk by the DSP 93.
[0058]
The DMP 92 also manages the configuration information of the array disk 5.
[0059]
As described above, by sharing the functions of the respective control programs, when the upper interface is changed to SCSI, Fiber Channel, or the like, only the CHP 91 or the array disk configuration is changed (the number of rows / columns of the disk, RAID (Redundant Array). Inexpensive Disk) method, etc., can be dealt with only by changing the DMP92. Rewriting each control program according to the connection change of the host adapter 1 and the disk adapter 2 realizes scalability and software development. The load of is also reduced.
[0060]
FIG. 11 is a diagram for explaining the concept of duplication of the common bus 4 and the degeneration operation.
[0061]
Reference numeral 111 denotes a bus master (host adapter 1 or disk adapter 2 equipped with the MP 10) that can acquire the right to use the common bus 4, and 112 denotes a bus slave (cache memory package) that receives an access request from the bus master 111.
[0062]
In the normal operation state, the F bus 26 operates two 64-bit buses (200 MB / S) simultaneously to realize 400 MB / S, and each bus system can detect a failure by parity check or timeout. When a failure occurs, the bus master 111 enters a self-degenerate state, accesses the bus slave using the remaining one system, and the degeneration information at this time is registered in the management area on the shared memory 18.
[0063]
In addition, system control signals (bus reset, etc.) in the common bus have tripled signal lines, and three lines match during normal operation and two lines match (decision majority) during degenerate operation to improve reliability. ing.
[0064]
FIG. 12 is a diagram showing multiplexing and degenerate operation in each part of the apparatus.
[0065]
Reference numeral 121 denotes a two-port channel path. The host adapter 1 includes two channel adapters 29 and four upper-level channel paths. When a failure occurs, an alternate channel adapter (CHP) is used. Enter degenerate operation using the channel path.
[0066]
Reference numeral 122 denotes a SCSI path for controlling an interface between the disk adapter 2 and the array disk 5, which is duplicated so that a group of magnetic disks in one row can be accessed from another disk adapter 2; Occurs, a degenerate operation is started using the alternate SCSI path. Further, the DMP 92 for performing the array disk master control is also duplicated, and when a failure occurs, the switching operation is started by using the replacement DMP 92.
[0067]
The shared memory 18 and the cache memory 20 are also duplicated, and if a failure occurs in the shared memory, the remaining memory is used to start the degenerate operation. If a failure occurs in the cache memory, the write pending data (cache memory) is used. The remaining data is destaged to a disk, and a degenerate operation is performed in the memory excluding the memory area where the failure occurred.
[0068]
When a failure occurs in the magnetic disk on the array disk 5, the read / write operation is performed while disconnecting the magnetic disk and restoring the spare magnetic disk.
FIG. 13 is a diagram showing multiplexing and degenerate operation of the power supply system of the apparatus.
[0069]
The commercial power control unit 58 is duplexed with independent AC inputs and supplied to the switching power supply 55 for the logical frame and the switching power supply 57 for the array disk. Therefore, when a failure occurs, the other commercial power control unit 58 is used. To enter degenerate operation.
[0070]
Reference numeral 131 denotes a power supply control circuit (hereinafter, referred to as “PCI”) that controls power supply ON / OFF from a higher-level host, a commercial power supply control unit 58, and a power supply circuit such as both switching power supplies.
[0071]
The switching power supply 55 for a logical frame is mounted for redundant operation by mounting two more circuits than necessary and supplied to the logical frame 51 and the battery 52 via a power supply common bus, so that the switching power supply 55 can operate even if two circuits fail. is there.
[0072]
Similarly, the array disk switching power supply 57 is also provided with two circuits for redundant operation and supplied via the power supply common bus to supply to the magnetic disk group in a column unit. It is operable, and it is possible to finish the switching power supply 55 and 57 in a configuration that is less expensive than duplicating.
[0073]
In the event of a power outage, the redundant battery 52 is supplied to the cache memory, which is a volatile memory in the logical rack, and the PCI 131 via the power supply common bus, and can operate even if one of the batteries fails.
[0074]
FIGS. 14 and 15 are diagrams comparing the system performance when an array disk is configured according to the storage capacity of a single magnetic disk device used for the array disk.
[0075]
FIG. 14 shows a configuration in which array disks of the same capacity are realized by using different magnetic disk devices, respectively, where item 141 is a 3 GB magnetic disk device (using a disk with a 3.5 inch diameter). Item 142 uses a 4.0 GB magnetic disk device (using a 5-inch diameter disk), and item 143 uses a 8.4 GB magnetic disk device (using a 6.4 inch diameter disk). The array configuration is such that the disk device 141 has two parity disks of 14 data disks, the disk device 142 has 14 data disks and 4 parity disks, and the disk device 143 has 14 data disks and 2 parity disks. This is a case where the disk is configured.
[0076]
FIG. 15 shows the relationship between the number of I / O commands issued per second and the average response time for each of the magnetic disk devices 141, 142, and 143. In order to improve transaction performance as an array disk system, a small capacity is required. The use of a (small-diameter) magnetic disk drive to increase the array configuration can bring out the best performance. Therefore, in the present invention, a 3.5-inch magnetic disk drive 141 is used to realize an array disk system. I have. Therefore, when the magnetic disk drive having the same storage capacity is formed by one large magnetic disk drive as in the related art, or by an array of a plurality of small magnetic disk drives, the latter small magnetic disk drive is required. Are more advantageous in that the average access time can be reduced.
[0077]
FIGS. 16 to 19 show examples of device model configurations that can be realized using the scalable architecture described above.
[0078]
FIG. 16 shows a high-performance, large-capacity storage system in which the number of disk adapters 2 mounted on the common bus 4 is reduced, the cache port package 22 is mounted, and the cache unit 24 is connected to the cache unit 24 via the connection cable 23. FIG. 2 is a configuration diagram when a small disk array with a cache memory is realized.
[0079]
When the disk adapter 2 is not mounted and the host adapter 1 and the cache memory alone are used (the configuration in the broken line in the figure), the storage medium is changed from a magnetic disk to a semiconductor memory, and high-speed data transfer is possible. Is realized.
[0080]
FIG. 17 shows a large disk array with a high-performance large-capacity cache memory by maximizing the disk adapter 2 and mounting the cache package 3 or mounting the cache port 22 and connecting the cache unit via the connection cable 23. It is a block diagram at the time of realization.
[0081]
FIG. 18 shows an example in which the host adapter 1 is replaced by an interface such as SCSI / fiber channel, etc., the number of disk adapters 2 is reduced, and the bit width of the F bus 26 is reduced by half to constitute two systems. FIG. 1 is a configuration diagram of a non-stop operation high-performance fault-tolerant (high reliability) server system targeted at an open market.
[0082]
FIG. 19 is a block diagram showing a case where a server system for an inexpensive open market is realized by adopting the simplest configuration based on the configuration of FIG. 18 without considering redundancy and hot swapping. In the drawing, 4D + 1P means that four data disks and one parity disk are used.
[0083]
In the above embodiment, an optical disk device is further connected to the common bus 4 via an optical disk adapter (optical disk connection logic module), and a magnetic tape device is connected via a magnetic tape control device (magnetic disk connection logic module). Alternatively, a semiconductor memory device can be connected via a semiconductor memory device connection logic module. In addition, a workstation can be connected to the common bus 4 via another type of host adapter. Thus, storage media adapters for various types of storage devices can be connected on the common bus.
[0084]
【The invention's effect】
As described in detail above, according to the present invention, a plurality of upper connection logic devices constituting an interface to a higher device, a storage device, and a plurality of storage device connection logic devices constituting an interface to the storage device And a cache memory device for temporarily storing data transferred between these devices (a cache memory device shared by a plurality of upper connection logic devices and a plurality of storage device connection logic devices). The plurality of host-side connection logic devices, the plurality of storage-device-side connection logic devices, and the cache memory device are configured to be mutually connected by a common bus shared by these devices. Expansion or change of the storage side connection logical device and the cache memory is only required for these devices on the common bus. Need only go add or change the can upgrade by adding get easily achieved can scalable system configuration. Further, since these upper connection logic device, storage device connection logic device, and cache memory device are modularized and attached to a platter provided with a common bus so as to be freely inserted and removed (detachable), these devices are provided. This has the effect that the work of increasing the required number of units is easy.
[0085]
Further, since the upper connection logic device, the storage device connection logic device, the cache memory device, and the common bus connecting these devices are duplicated and wired in two systems, one of these devices has a failure. Even when the error occurs, the degenerate operation can be performed using the other device. In this case, the upper-level connection logical device, the storage-device-side logical device, and the cache memory device all have connectors for hot-swapping, so that maintenance and inspection can be performed without stopping the system for failure. There is an effect that it is possible to replace parts or add additional parts.
[0086]
Further, the storage device is an array type in which a plurality of small storage devices are combined, which has the effect that the access time can be reduced as compared with a conventional storage device using one large disk device.
[0087]
The cache memory device includes a cache memory module (cache memory package) directly attached to the common bus and an additional cache unit. The additional cache unit is directly attached to and removable from the common bus. Since the required number of connections are made via the cache port package, the effect of being able to easily increase or decrease is obtained.
[0088]
As described above, a highly reliable storage system can be obtained.
[Brief description of the drawings]
FIG. 1 is a conceptual diagram showing an outline of an embodiment of the present invention.
FIG. 2 is a detailed configuration diagram of a storage system according to an embodiment of the present invention.
FIG. 3 is a diagram showing a data flow and a data format along the configuration diagram of FIG. 2;
FIG. 4 is an external view of an apparatus according to an embodiment of the present invention.
FIG. 5 is a mounting scheme diagram of a control unit in the apparatus according to the embodiment of the present invention.
FIG. 6 is a mounting system diagram of an array disk unit in the apparatus according to the embodiment of the present invention.
FIG. 7 is a connection system diagram of a logical frame unit in the apparatus according to one embodiment of the present invention.
FIG. 8 is a diagram illustrating a mounting method of a logical frame in the apparatus according to the embodiment of the present invention.
FIG. 9 is a software configuration diagram applied to the embodiment of the present invention.
FIG. 10 is a diagram showing a data flow and software function allocation according to an embodiment of the present invention.
FIG. 11 is a diagram illustrating duplexing and degeneration operations of a common bus according to an embodiment of the present invention.
FIG. 12 is a diagram showing a duplex operation and a degenerate operation of each part of the apparatus according to the embodiment of the present invention.
FIG. 13 is a diagram showing multiplexing and degenerate operation of the power supply system of the device according to the embodiment of the present invention.
FIG. 14 is a diagram showing a disk configuration of a single magnetic disk device used for an array disk.
FIG. 15 is a diagram showing the storage capacity of a magnetic disk device and the system performance of an array disk.
FIG. 16 is a configuration diagram of a small disk array with a high-performance large-capacity cache memory.
FIG. 17 is a configuration diagram of a large disk array with a high-performance large-capacity cache memory.
FIG. 18 is a configuration diagram of a high-performance fault-tolerant server system.
FIG. 19 is a configuration diagram of a low-cost server system.
FIG. 20 is a schematic configuration diagram of a conventional storage system.
[Explanation of symbols]
1 Host adapter
2 disk adapter
3 Cache memory package
4 Common bus
5 Array disk
18 Shared memory
20 cache memory
22 Cache Port Package
24 Additional cache unit
25 Multiprocessor bus
26 High-speed I / O bus

Claims (2)

上位装置に接続され、前記上位装置に対するインタフェースを構成する上位側接続論理装置と、
前記上位装置から転送される情報を記憶する記憶装置と、
前記記憶装置に接続され、前記記憶装置に対するインタフェースを構成する記憶装置側接続論理装置と、
前記上位側接続論理装置と前記記憶装置側接続論理装置との間で転送されるデータを一時的に記憶するキャッシュメモリ、前記上位側接続論理装置及び前記記憶装置側接続論理装置及び前記キャッシュメモリのために制御情報を記憶する共有メモリ、を有するキャッシュメモリ装置と、
前記上位側接続論理装置と前記記憶装置側接続論理装置と前記共有メモリとに接続され、制御情報の転送を行う1系統のマルチプロセッサバスと、前記上位側接続論理装置と前記記憶装置側接続論理装置と前記キャッシュメモリと前記共有メモリとに接続され、前記上位側接続論理装置と前記記憶装置側接続論理装置と前記キャッシュメモリ装置との間のデータ転送を行う2系統のI/0バスと、を含むコモンバスと、
を有する記憶システムであって、
前記マルチプロセッサバスに障害が発生した場合、前記2系統のI/Oバスのうちの一方のI/Oバスで制御情報の転送を行い、他方のI/Oバスでデータ転送を行い、
前記2系統のI/Oバスのうち1系統のI/Oバスに障害が発生した場合、残りのI/Oバスでデータ転送を行い、
前記制御情報を記憶する共有メモリには、前記障害発生時の縮退運転状況を示す情報が書き込まれる
ことを特徴とする記憶システム。
An upper connection logic device connected to a higher device and constituting an interface to the higher device;
A storage device for storing information transferred from the higher-level device,
A storage device-side connection logic device connected to the storage device and constituting an interface to the storage device;
A cache memory for temporarily storing data transferred between the upper connection logical device and the storage device connection logical device ; a cache memory for temporarily storing data transferred between the upper connection logical device and the storage device side connection logical device; A cache memory device having a shared memory for storing control information for
One multiprocessor bus connected to the upper connection logic, the storage connection logic, and the shared memory for transferring control information; and the upper connection logic and the storage connection logic. Two I / O buses connected to the device, the cache memory, and the shared memory, for performing data transfer between the upper connection logic device, the storage device connection logic device, and the cache memory device ; And a common bus,
A storage system having
When a failure occurs in the multiprocessor bus, control information is transferred on one of the two I / O buses, and data is transferred on the other I / O bus.
If a failure occurs in one of the two I / O buses, data transfer is performed on the remaining I / O buses,
A storage system , wherein information indicating a degraded operation state at the time of occurrence of the failure is written in a shared memory for storing the control information .
前記I/Oバスは通常は64ビットバス(200MB/S)2系統を同時に動作させ400MB/Sでデータ転送を行い、前記I/Oバスに障害が発生した場合は、1系統を使い200MB/Sでデータ転送を行うことを特徴とする請求項1又は請求項2記載の記憶システム。The I / O bus normally operates two systems of a 64-bit bus (200 MB / S) simultaneously to transfer data at 400 MB / S. 3. The storage system according to claim 1, wherein data transfer is performed in S.
JP2001220441A 2001-07-19 2001-07-19 Storage system Expired - Lifetime JP3547411B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001220441A JP3547411B2 (en) 2001-07-19 2001-07-19 Storage system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001220441A JP3547411B2 (en) 2001-07-19 2001-07-19 Storage system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP16202193A Division JP3264465B2 (en) 1993-06-30 1993-06-30 Storage system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2003176520A Division JP3742405B2 (en) 2003-06-20 2003-06-20 Storage system

Publications (2)

Publication Number Publication Date
JP2002073286A JP2002073286A (en) 2002-03-12
JP3547411B2 true JP3547411B2 (en) 2004-07-28

Family

ID=19054260

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001220441A Expired - Lifetime JP3547411B2 (en) 2001-07-19 2001-07-19 Storage system

Country Status (1)

Country Link
JP (1) JP3547411B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040103220A1 (en) * 2002-10-21 2004-05-27 Bill Bostick Remote management system
WO2004088522A1 (en) * 2003-03-31 2004-10-14 Fujitsu Limited Bus bridge device, bus bridge method, and i/o control device
JP2009009194A (en) * 2007-06-26 2009-01-15 Hitachi Ltd Storage system having function to reduce power consumption

Also Published As

Publication number Publication date
JP2002073286A (en) 2002-03-12

Similar Documents

Publication Publication Date Title
JP3264465B2 (en) Storage system
US7600152B2 (en) Configuring cache memory from a storage controller
US8117376B2 (en) Storage system and control method thereof
US6061750A (en) Failover system for a DASD storage controller reconfiguring a first processor, a bridge, a second host adaptor, and a second device adaptor upon a second processor failure
US6006342A (en) Failover and failback system for a direct access storage device
JP5511960B2 (en) Information processing apparatus and data transfer method
US8032785B1 (en) Architecture for managing disk drives
US8392756B2 (en) Storage apparatus and method of detecting power failure in storage apparatus
US6604171B1 (en) Managing a cache memory
US8677181B2 (en) Storage apparatus and method of detecting power failure in storage apparatus
US6591335B1 (en) Fault tolerant dual cache system
JPH07230362A (en) Disk array device
US7487293B2 (en) Data storage system and log data output method upon abnormality of storage control apparatus
JP3742405B2 (en) Storage system
JP3547411B2 (en) Storage system
JP3653197B2 (en) Disk controller
JP2004303256A (en) Storage system
JP2006268403A (en) Data storage system and equivalence control method for log data of storage control unit
JP2005004791A (en) Disk controller
JP3793544B2 (en) Disk array device and control method thereof
JP3597086B2 (en) Disk array controller
JP3234211B2 (en) Disk array system
JPH11353776A (en) Disk array controller
JP2007200357A (en) Disk control device

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040413

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090423

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090423

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100423

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110423

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120423

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120423

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130423

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140423

Year of fee payment: 10

EXPY Cancellation because of completion of term