JP6228793B2 - 計算機システム、計算機システムの制御方法及び接続モジュール - Google Patents

計算機システム、計算機システムの制御方法及び接続モジュール Download PDF

Info

Publication number
JP6228793B2
JP6228793B2 JP2013196829A JP2013196829A JP6228793B2 JP 6228793 B2 JP6228793 B2 JP 6228793B2 JP 2013196829 A JP2013196829 A JP 2013196829A JP 2013196829 A JP2013196829 A JP 2013196829A JP 6228793 B2 JP6228793 B2 JP 6228793B2
Authority
JP
Japan
Prior art keywords
module
interface
failure
server
computer system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013196829A
Other languages
English (en)
Other versions
JP2015064648A (ja
Inventor
雄樹 近藤
雄樹 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2013196829A priority Critical patent/JP6228793B2/ja
Priority to EP14167247.7A priority patent/EP2851801B1/en
Priority to US14/288,667 priority patent/US9304842B2/en
Publication of JP2015064648A publication Critical patent/JP2015064648A/ja
Application granted granted Critical
Publication of JP6228793B2 publication Critical patent/JP6228793B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/0706Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment
    • G06F11/0727Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment in a storage system, e.g. in a DASD or network based storage system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/0751Error or fault detection not based on redundancy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/22Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing
    • G06F11/2205Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing using arrangements specific to the hardware being tested
    • G06F11/221Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing using arrangements specific to the hardware being tested to test buses, lines or interfaces, e.g. stuck-at or open line faults
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/0706Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment
    • G06F11/0709Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment in a distributed system consisting of a plurality of standalone computer nodes, e.g. clusters, client-server systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Hardware Redundancy (AREA)
  • Debugging And Monitoring (AREA)

Description

本発明は、サーバモジュールとストレージモジュールとの間で高速なデータ転送を実現する技術に関する。
サーバ及び当該サーバがアクセスするストレージ装置を接続する計算機システムとしては、以下のようなシステムが知られている。
一つの計算機システムとしては、SAN等のネットワークを介してサーバ及びストレージが接続された計算機システムが知られている(例えば、特許文献1参照)。
特許文献1には、「アプリケーションをローカルに実行するための少なくとも一つのアプリケーション・サーバ、およびI/O伝送のため少なくとも一つのアプリケーション・サーバと通信している、一つ以上のストレージ・サーバを包含可能なストレージ・アプライアンス・システム」が記載されている。
前述した計算機システムは、大規模な計算機システムに用いられる利用形態である。当該計算機システムは、システム構成の柔軟性が高いという利点があるが、SAN等のネットワークを構成する装置のコスト、及び運用コストが高いという問題がある。
高速なインターフェースとしてはPCI Express(登録商標)が知られており、2つの装置をPCI Expressで接続する技術が知られている(例えば、特許文献2)。特許文献2では、ノントランスペアレントポートを有するスイッチを用いて2つの装置をPCI Expressでブリッジ接続することにより、2つの装置間での通信を行う技術が開示されている。
また、PCI Expressを用いた計算機システムで、エンドポイントで障害が発生したときに、エラーの情報をPCI Expressのプロトコルで送信する技術が知られている(例えば、特許文献3)。
特開2012−118973号公報 特開2012−128717号公報 特開2010−238150号公報
上記従来例1のサーバとストレージ装置を、上記従来例2のPCI Expressを用いて接続する場合、サーバとノントランスペアレントポートのリンクAと、ストレージ装置とノントランスペアレントポートのリンクBをブリッジ接続する。そして、サーバと接続したリンクAで障害が発生した場合、リンクBのストレージ装置に障害の発生を通知すると、サーバとストレージ装置の双方で、PCI Expressの障害回復処理を行う必要が生じる。
このため、ひとつのストレージ装置に複数のサーバをノントランスペアレントポートを介して接続した場合では、ひとつのサーバ側のリンクで障害が発生すると、ストレージ装置でも障害回復処理を行うため、正常な他のサーバのストレージ装置へのアクセスが停止するという問題があった。換言すれば、サーバ側のリンク(I/Oインターフェース)のうちのひとつで障害が発生すると、ストレージ装置を介して全体のサーバに障害の影響が波及するという問題があった。
また、上記従来例3を利用して障害が発生した通知を伝達する場合、PCI Expressのプロトコルを拡張する必要があるため、既存のチップセットやデバイスでは利用できないという問題があった。
そこで本発明は、上記問題点に鑑みてなされたもので、ストレージ装置と複数のサーバをI/Oインターフェースで接続した計算機システムにおいて、プロトコルを拡張することなく、何れかのI/Oインターフェースで障害が発生したときに全体に障害の影響が波及するのを抑制することを目的とする。
本発明は、複数のサーバモジュールと、ストレージモジュール及び接続モジュールを備える計算機システムであって、前記サーバモジュールは、第1のプロセッサと、第1のメモリと、他の装置と接続する第1のインターフェースと、前記第1のインターフェースを介して前記ストレージモジュールにアクセスを要求するストレージアクセス部と、前記第1のインターフェースの障害を検出する障害検出部と、前記障害検出部が前記第1のインターフェースの障害を検出したときに、所定の回復処理を実行する障害処理部と、を有し、前記接続モジュールは、前記第1のインターフェースに接続されて、前記第1のインターフェースの障害の発生を検出すると、障害の発生通知を出力する第1のエンドポイントと、前記第2のインターフェースに接続される第2のエンドポイントと、前記第1のエンドポイントと第2のエンドポイントの間でデータの転送を行うデータ転送部と、前記第1のエンドポイントが、前記障害の発生通知を出力すると、前記障害の発生通知を第2のインターフェースの切断を示す通知に変換し、当該変換されたリンクダウン通知を前記第2のエンドポイントから前記ストレージモジュールに送信するイベント模擬部と、を有し、前記ストレージモジュールは、第2のプロセッサと、第2のメモリと、記憶装置と、他の装置と接続する第2のインターフェースと、前記第2のインターフェースからアクセス要求を受信して、前記記憶装置にアクセスするストレージ制御部と、前記接続モジュールから前記を受信したときに、前記サーバモジュールとの接続を解除する切断処理部と、を有する。
したがって、本発明は、ストレージモジュールに複数のサーバモジュールを接続し、何れかのサーバモジュールの第1のインターフェースで障害が発生すると、ストレージモジュールに対しては障害の発生通知に代わってリンクダウンが通知され、ストレージモジュールは第1のインターフェースに障害が発生したサーバモジュールとの接続を解除する。これにより、計算機システム全体に第1のインターフェースの障害の影響が波及するのを防止できる。また、I/Oインターフェースのプロトコルの拡張は不要であるため、既存のチップやデバイスを用いることで、計算機システムのコストが上昇するのを抑制できる。
本発明の実施例を示し、計算機システムの一例を示すブロック図である。 本発明の実施例を示し、サーバモジュールの構成の一例を示すブロック図である。 本発明の実施例を示し、ストレージモジュールの構成の一例を示すブロック図である。 本発明の実施例を示し、接続モジュールの構成の一例を示すブロック図である。 本発明の実施例を示し、サーバモジュール側で障害が発生したときの処理の概要を示すブロック図である。 本発明の実施例を示し、サーバモジュール側で障害が発生したときの処理の一例を示すシーケンス図である。
以下、本発明の実施形態を添付図面に基づいて説明する。
図1は、本発明の実施例を示し、計算機システムの一例を示すブロック図である。
本実施例の計算機システムは、サーバ装置100が、複数のサーバモジュール200−1〜200−nとストレージモジュール300及び複数のサーバモジュール200−1〜200−nとストレージモジュール300を接続するバックプレーン400から構成される。
サーバ装置100は、複数のサーバモジュール200−1〜200−nと、ひとつのストレージモジュール300と、バックプレーン400を備える。なお、以下では、サーバモジュール200−1〜200−nの総称を符号200で表す。
サーバモジュール200は、所定の業務を提供する計算機である。ストレージモジュール300は、サーバモジュール200が利用するデータを格納する計算機である。本実施例では、ストレージモジュール300は、各サーバモジュール200にLU(Logical Unit)を提供する。
サーバモジュール200−1は、プロセッサ210−1、メモリ220−1を含む。なお、他のサーバモジュール200−2〜200−nも同様の構成であるので、重複する説明は省略する。また、プロセッサ210−1〜210−2の総称を、符号210を表す。符号の表記については他の構成要素についても、以下同様とする。
プロセッサ210−1には、I/OインターフェースとしてPCI Expressのインターフェース230−1が含まれており、以下、PCIe I/F230−1とする。そして、PCIe I/F230−1は、PCI Expressのツリー構造のデバイスの最上位に位置するルートコンプレックス240−1を含む。
プロセッサ210は、メモリ220に格納されるプログラムを実行する。プロセッサ210がメモリ220に格納されるプログラムを実行することによって、サーバモジュール200は業務を提供する。
メモリ220は、プロセッサ210によって実行されるプログラム及び当該プログラムの実行に必要なデータを格納する。メモリ220に格納されるプログラム及び情報については、図2を用いて後述する。
なお、メモリ220に格納されるプログラム及び情報は、ストレージモジュール300によって提供されるLU等に格納されてもよい。この場合、プロセッサ210が、LU等のプログラムが格納される記憶領域からプログラム及び情報を取得し、取得されたプログラム及び情報をメモリ220にロードする。
ストレージモジュール300は、ディスクコントローラ310及び記憶装置360−1〜360−nを含む。ストレージモジュール300が有する各構成は、I/Oインターフェースを介して互いに接続される。
ディスクコントローラ310は、記憶装置360記憶領域の管理、及びサーバモジュール200と記憶領域との対応関係等を制御する。ディスクコントローラ310は、プロセッサ320、メモリ330及びI/OインターフェースとしてPCI Expressのインターフェース340(以下、PCIe I/F340とする)を含む。
また、プロセッサ320はPCIe I/F340に接続され、PCIe I/F340を介して各サーバモジュール200とデータの転送を行う。そして、PCIe I/F340は、PCI Expressのツリー構造のデバイスの最上位に位置するルートコンプレックス350を含む。
PCIe I/F340は、PCI Expressのリンク510−1を介して接続モジュール410−1に接続され、サーバモジュール200−1とデータの転送を行う。同様にPCIe I/F340は、PCI Expressのリンク510−2を介して接続モジュール410−2に接続され、サーバモジュール200−2とデータの転送を行う。
なお、本実施例では、PCIe I/F340はチップセットなどで構成することができる。しかし、これに限定されるものではなく、サーバモジュール200と同様に、プロセッサがPCIe I/Fを包含する構成であってもよい。
また、本実施例では、ストレージモジュール300は、ひとつのディスクコントローラ310で構成される例を示したが、ひとつのストレージモジュール300に複数のディスクコントローラ310を配置して冗長構成としてもよい。
プロセッサ320は、メモリ330に格納されるプログラムを実行する。プロセッサ320がメモリ330に格納されるプログラムを実行することによって、ストレージモジュール300が有する機能を実現できる。
メモリ330は、プロセッサ320によって実行されるプログラム及び当該プログラムの実行に必要な情報を格納する。メモリ330に格納されるプログラム及び情報については、図3を用いて後述する。
なお、メモリ330に格納されるプログラム及び情報は、記憶装置360−1〜360−n等に格納されてもよい。この場合、プロセッサ320が、記憶装置360−1〜360−n等からプログラム及び情報を取得し、取得されたプログラム及び情報をメモリ330にロードする。
記憶装置360−1〜360−nは、データを格納するための装置であり、例えば、HDD(Hard Disk Drive)及びSSD(Solid State Drive)等が考えられる。
本実施例では、ストレージモジュール300は、複数の記憶装置を用いてRAIDを構成し、RAIDボリュームからLUを生成し、さらに、サーバモジュール200にLUを提供する。なお、LUには、OS221(図2参照)及びアプリケーション225(図2参照)等のプログラム及びプログラムの実行に必要な情報が格納される。
サーバモジュール200とストレージモジュール300とを接続するバックプレーン400には、サーバモジュール200−1〜200−n毎に接続モジュール410−1〜410−nが配置される。なお、接続モジュール410−1〜410〜nは、同様の構成であるので重複した説明は省略する。
接続モジュール410−1は、PCI Expressのエンドポイントを2つ備え、2つのエンドポイント間でデータを転送する。接続モジュール410−1は、サーバモジュール200のPCIe I/F230−1と接続するエンドポイント420−1と、ストレージモジュール300のPCIe I/F340と接続するエンドポイント430−1とを備える。
エンドポイント420−1とサーバモジュール200−1は、PCI Expressのリンク500−1で接続される。エンドポイント430−1とストレージモジュール300は、PCI Expressのリンク510−1で接続される。
ここで、サーバモジュール200と接続するエンドポイント420−1は、HBA(Host Bus Adapter)として機能し、ストレージモジュール300と接続するエンドポイント430は、TBA(Target Bus Adapter)として機能する例を示す。なお、本実施例では、エンドポイント420−1及び340がFC(Fibre Channel)のプロトコルでデータを転送する例を示すが、これに限定されるものではなく、SCSI、SAS、SATAなどのプロトコルを採用しても良い。接続モジュール410の詳細な構成については、図4を用いて後述する。
なお、接続モジュール410の実装方法としては、バックプレーン400の基板上のチップ(LSI)として搭載することができる。ただし、本発明は、接続モジュール410の実装方法に限定されない。
また、リンク500、510は、信号を伝達する物理的な経路と、通信の階層などを示す論理的な接続を含む。サーバモジュール200及びストレージモジュール300は、例えば、バックプレーン400に設けた挿抜自在のスロットに装着される。
図2は、本実施例のサーバモジュール200−1の構成の一例を示すブロック図である。
メモリ220−1は、OS221及びアプリケーション225を実現するためのプログラムを格納する。また、メモリ220−1に格納されるOS221は、ストレージモジュール300にアクセスするストレージアクセス部224と、バックプレーン400に接続されたPCI Expressのリンク500−1またはPCIe I/F230−1に障害が発生したときに回復処理を行うPCIe障害処理部222と、ストレージモジュール300との接続を解除する処理を行うHBAリンクダウン処理部223とを含む。
本実施例では、PCIe I/F230−1が接続されるエンドポイント420−1がHBAで構成されるため、ストレージアクセス部224はHBAドライバを介してエンドポイント420−1にアクセスする。
なお、本実施例では、OS221がPCIe障害処理部222とHBAリンクダウン処理部223を含む例を示したが、これに限定されるものではなく、OS221上でPCIe障害処理部222とHBAリンクダウン処理部223が稼働する構成であっても良い。
OS221は、サーバモジュール200を管理する。OS221は、サーバモジュール200とストレージモジュール300との間のアクセスを制御するストレージアクセス部224を有する。ストレージアクセス部224は、例えば、接続モジュール410を操作するデバイスドライバを用いて実現する方法が考えられる。
なお、OS221は、図示しないファイルシステム等の機能を有しているが、公知のものであるため省略している。アプリケーション225は、所定の業務を提供する。本発明はアプリケーションの種別に限定されない。
プロセッサ210−1は、各機能部のプログラムに従って処理することによって、所定の機能を提供する機能部として稼働する。例えば、プロセッサ210−1は、PCIe障害処理プログラムに従って処理することでPCIe障害処理部222として機能する。他のプログラムについても同様である。さらに、プロセッサ210−1は、各プログラムが実行する複数の処理のそれぞれの機能を提供する機能部としても稼働する。計算機及び計算機システムは、これらの機能部を含む装置及びシステムである。
また、機能を実現するプログラム、テーブル等の情報は、ストレージモジュール300や不揮発性半導体メモリ、ハードディスクドライブ、SSD(Solid State Drive)等の記憶デバイス、または、ICカード、SDカード、DVD等の計算機読み取り可能な非一時的データ記憶媒体に格納することができる。
図3は、本実施例のストレージモジュール300の構成の一例を示すブロック図である。
メモリ330は、ストレージ制御部333と、TBAリンクダウン処理部332と、PCIe障害処理部331とを実現するプログラムを格納する。
ストレージ制御部333は、サーバモジュール200とストレージモジュール300との間のI/O処理を制御する。本実施例では、PCIe I/F340の接続先のエンドポイント430がTBAで構成されるため、ストレージ制御部333は、TBAドライバを介してエンドポイント430にアクセスする。そして、ストレージ制御部333は、エンドポイント430を介してサーバモジュール200と記憶装置360との間でデータの転送を行う。
TBAリンクダウン処理部332は、後述するように、リンク500で接続されたサーバモジュール200との接続を解除する処理を行う。ディスクコントローラ310では、接続モジュール410からサーバモジュール200との接続を解除した通知(リンクダウンまたは切断通知)を受信すると、TBAリンクダウン処理部(切断処理部)332を起動して、該当するリンク500のサーバモジュール200との接続を解除し、リンク500を切断したサーバモジュール200の処理待ちI/O(データやコマンド)を破棄する。
PCIe障害処理部331は、バックプレーン400に接続されたPCI Expressのリンク510−1〜510−nまたはPCIe I/F340に障害が発生したときに所定の回復処理を行う。ディスクコントローラ310は、PCIe I/F340またはリンク510に障害が発生すると、PCIe I/F340をリセットして障害の回復処理を行う。
図4は、本実施例の接続モジュール410−1の構成の一例を示すブロック図である。なお、接続モジュール410−2〜420−nの同一の構成であるので、重複した説明は省略する。
接続モジュール410−1は、データ転送部440、プロトコルエンジン460、ブリッジ450、HBAとして機能するエンドポイント420−1及びTBAとして機能するエンドポイント430−1と、イベント模擬処理部470を備える。
データ転送部440は、サーバモジュール200のメモリ220とストレージモジュール300のメモリ330との間のデータ転送を制御する。本実施例のデータ転送部440は、DMAコントローラ441を含む。
DMAコントローラ441は、サーバモジュール200のメモリ220とストレージモジュール300のメモリ330との間のDMA転送を制御する。
プロトコルエンジン460は、サーバモジュール200が使用するコマンド及びストレージモジュール300が使用するコマンドを変換する。すなわち、プロトコルエンジン460は、エンドポイント420−1側のプロトコルと、エンドポイント430−1側のプロトコルを相互に変換する。
ブリッジ450は、エンドポイント420−1、430−1を介して接続されるデバイス間の通信を制御する。例えば、ブリッジ450は、レーン数が異なるPCI Expressの信号を変換する。ブリッジ450は、前述したDMA転送が不要な場合に用いられる。
エンドポイント420−1、430−1は、例えば、デバイスと接続するためのポートで構成することができる。本実施例では、エンドポイント420−1は、プロセッサ210−1のPCIe I/F230と接続され、エンドポイント430−1は、ディスクコントローラ310のPCIe I/F340と接続される。
また、エンドポイント420−1は、リンク500−1がリセットまたは遮断されると障害の発生を検出して、プロトコルエンジン460に障害の発生を通知する。換言すれば、エンドポイント420−1は、サーバモジュール200−1のPCIe I/F230−1またはリンク500−1に障害が発生すると障害の発生通知を出力する。
プロトコルエンジン460は、障害の発生通知を受信すると、イベント模擬処理部470を起動する。イベント模擬処理部470は、サーバモジュール200−1側のリンク500−1で障害の発生通知を、リンク500−1が切断したことを示す切断通知(リンクダウンまたはホットリムーブ)に変換する。そして、イベント模擬処理部470は、異常の発生通知に代わって、変換された切断通知(リンクダウン)をエンドポイント430−1からストレージモジュール300に送信する。
なお、接続モジュール410−1をバックプレーン400上のチップとして構成する場合、プロセッサとメモリを含むASIC(Application Specific Integrated Circuit)等で構成することができる。
また、上記ではエンドポイント420−1がリンク500−1側の障害を検出すると、プロトコルエンジン460に障害の発生通知を出力する例を示したが、エンドポイント420−1が障害の発生通知を出力すると、イベント模擬処理部470を起動するようにしても良い。
また、データ転送部440、プロトコルエンジン460、イベント模擬処理部470は、ひとつの制御部として実現しても良い。
図5は、サーバモジュール側で障害が発生したときの処理の概要を示すブロック図である。
図5の例では、サーバモジュール200−1が接続モジュール410−1を介してストレージモジュール300に接続され、サーバモジュール200−1側のリンク500−1で障害が発生した例を示す。また、サーバモジュール200−2が接続モジュール410−1を介してストレージモジュール300に接続され、正常にデータの転送を行う例を示す。
まず、正常なデータの転送について、サーバモジュール200−2が接続モジュール410−2を介してストレージモジュール300からデータを読み出す例について説明する。
サーバモジュール200−2のOS221は、アプリケーション225からストレージモジュール300に格納されるデータの読出要求を受け付けた場合、ストレージアクセス部224を呼び出す。
ストレージアクセス部224は、リンク500−2を介してディスクコントローラ310のストレージ制御部333に対して読出要求を送信する。当該読出要求は、サーバモジュール200−2において使用されるコマンドである。したがって、ストレージモジュール300において使用されるコマンドとは異なる形式のコマンドである。すなわち、サーバモジュール200−2及びストレージモジュール300が扱うプロトコルが異なる。
以下の説明では、サーバモジュール200が使用するコマンドをサーバコマンドと記載し、ストレージモジュール300が使用するコマンドをストレージコマンドと記載する。
接続モジュール410−2は、ストレージアクセス部224から読出要求(サーバコマンド)を受信すると、当該読出要求をストレージコマンドに変換し、変換された読出要求(ストレージコマンド)をストレージ制御部333に送信する。具体的には、以下のような処理が実行される。
データ転送部440は、受信した読出要求(サーバコマンド)を解析する。データ転送部440は、受信した読出要求(サーバコマンド)がストレージモジュール300に送信されるサーバコマンドであるため、プロトコルエンジン460にコマンドの変換を指示する。
プロトコルエンジン460は、受信した読出要求(サーバコマンド)をサーバコマンドからストレージコマンドに変換し、変換された読出要求(ストレージコマンド)をデータ転送部440に出力する。
データ転送部440は、入力された読出要求(ストレージコマンド)をストレージモジュール300のストレージ制御部333に送信する。
ストレージ制御部333は、読出要求(ストレージコマンド)を受信すると、読出対象のデータを記憶装置360−1〜360−nから読み出してメモリ330に格納し、接続モジュール410−2に、DMA転送要求を送信する。
接続モジュール410−2は、DMA転送要求を受信すると、サーバモジュール200−2のメモリ220の宛先アドレスと、ストレージモジュール300のメモリ330から送信元アドレスを取得する。なお、DMA転送は、周知又は公知の技術を適用すれば良い。例えば、データ転送部440のDMAコントローラ441が、宛先アドレスと送信元アドレスを取得し、DMAコントローラ441が、ストレージモジュール300のメモリ330のデータをサーバモジュール200−2のメモリ220−2へ転送する。
以上の処理によって、接続モジュール410−2がデータの転送を実現する。
次に、サーバモジュール200−1と接続モジュール410−1の間のリンク500−1またはPCIeI/F230−1で障害が発生した場合について説明する。
サーバモジュール200−1のプロセッサ210−1が、PCIe I/F230−1またはリンク500−1に障害が発生したことを検出する。検出される障害としては、例えば、PCI Expressのバスエラーである。この障害検出は、例えば、プロセッサ210−1が実行するOS221が、PCIe I/F230−1やエンドポイント420−1をポーリングなどで監視することで実現してもよい。あるいは、ストレージアクセス部224が、PCIe I/F230−1やエンドポイント420−1をポーリングなどで監視することで実現してもよい。あるいは、OS221に提供されたHBAドライバが、PCIe I/F230−1やエンドポイント420−1をポーリングなどで監視することで実現してもよい。なお、上記サーバモジュール200−1と接続モジュール410−1の間のリンク500−1で障害を検出するソフトウェアが、障害検出部として機能する。
プロセッサ210−1は、リンク500−1またはPCIe I/F230−1の障害を検出すると、PCIe障害処理部222を起動して、PCIe I/F230−1のリセットなどの所定の障害回復処理を実行する。
なお、本実施例では、I/OインターフェースがPCI Expressの場合、物理層、データリンク層、トランザクション層のエラーのうち、PCIe I/F230−1のリセットが必要なエラーを障害発生として検出すればよい。
次に、接続モジュール410−1では、エンドポイント420−1が、リンク500−1のリセットまたは障害の発生をプロトコルエンジン460に通知する。プロトコルエンジン460は、リンク500−1またはPCIe I/F230−1で障害が検出されたことから、イベント模擬処理部470を起動する。
イベント模擬処理部470は、エンドポイント420−1(HBA)側で障害が発生すると、エンドポイント430−1(TBA)側からストレージモジュール300のディスクコントローラ310に対してFCの切断(またはリンクダウン)を通知する。換言すれば、接続モジュール410−1のイベント模擬処理部470は、検出したPCI Expressの障害を、上位のプロトコルであるFCのリンクダウンに変換してストレージモジュール300に通知する。なお、イベント模擬処理部470は、接続モジュール410−1内のサーバモジュール200−1とストレージモジュール300間の処理待ちI/Oを破棄しておく。
ディスクコントローラ310のプロセッサ320は、FCの切断の通知を受信すると、TBAリンクダウン処理部332を起動する。TBAリンクダウン処理部332は、サーバモジュール200−1と接続モジュール410−1間でFCが切断されたので、サーバモジュール200−1に対する処理待ちのデータやコマンド(処理待ちのI/O)を破棄し、サーバモジュール200−1との切断処理を正常に終了させる。
一方、サーバモジュール200−1では、リセットによりPCIe I/F230−1が回復する。接続モジュール410−1のエンドポイント420−1は、再度サーバモジュール200−1と接続されたことをプロトコルエンジン460に通知する。プロトコルエンジン460は、サーバモジュール200−1に対してリンク500−1またはPCIe I/F230−1に障害が発生したことを通知する。
障害が発生した通知を受信したサーバモジュール200−1のストレージアクセス部224では、ストレージモジュール300との間で処理待ちとなっていたデータやコマンド(処理待ちI/O)を破棄して、障害から回復する。接続モジュール410−1のエンドポイント420−1は、PCIeI/F230−1及びリンク500−1の復旧を検出すると、プロトコルエンジン460を介してストレージモジュール300に対して、サーバモジュール200−1との間のリンクアップを通知する。リンクアップの通知を受信したストレージモジュール300は、サーバモジュール200−1との間のデータ転送の環境を再構築し、データの転送を再開する。
以上のように、サーバモジュール200−1と接続モジュール410−1の間でPCI Expressに障害が発生すると、サーバモジュール200−1ではPCIe I/F230−1のリセットを行うが、ストレージモジュール300に対しては、PCI Expressの障害発生ではなく、PCIe I/Fの上位のプロトコルで切断が発生したことを接続モジュール410−1が通知する。このため、ストレージモジュール300では、PCIe I/F340の稼働状態を維持したまま、サーバモジュール200−1との間のリンクダウンの処理が正常に行われる。
したがって、ストレージモジュール300のPCIe I/F340に接続された他のサーバモジュール200−2は、サーバモジュール200−1のPCIe I/F230−1の障害発生の影響を受けることなく、ストレージモジュール300に対するアクセスを継続することが可能となるのである。
図6は、サーバモジュール側で障害が発生したときの処理の一例を示すシーケンス図である。
ステップS101で、サーバモジュール200−1のプロセッサ210−1は、PCIe I/F230−1を介してリンク500−1に障害が発生したことを検出する。ステップS102で、プロセッサ210−1は、PCIe障害処理部222を起動し、ステップS103でPCIe障害処理部222が、PCIe I/F230−1のリセットなどの所定の障害回復処理を実行する。
接続モジュール410−1のエンドポイント420−1は、リンク500−1のリセットまたは障害の発生をプロトコルエンジン460に通知する。ステップS104で、プロトコルエンジン460は、リンク500−1で障害が検出されたことから、イベント模擬処理部470を起動する。
イベント模擬処理部470は、サーバモジュール200−1に接続されたエンドポイント420−1(HBA)側で障害が発生すると、エンドポイント430−1(TBA)側からストレージモジュール300のディスクコントローラ310に対してFCの切断(またはリンクダウン)を通知する(S106)。換言すれば、接続モジュール410−1のイベント模擬処理部470は、検出したPCI Expressの障害を、上位のプロトコルであるFCのリンクダウンに変換してストレージモジュール300に通知する。なお、リンクダウンの通知の前に、イベント模擬処理部470は、サーバモジュール200−1とストレージモジュール300の間の、処理待ちI/Oを破棄しておく(S105)。
ステップS107で、ディスクコントローラ310のプロセッサ320は、FCの切断(リンクダウン)の通知を受信すると、ステップS108で、TBAリンクダウン処理部332を起動する。
ステップS109で、TBAリンクダウン処理部332は、サーバモジュール200−1と接続モジュール410−1間でFCが切断されたので、サーバモジュール200−1に対する処理待ちのデータやコマンド(処理待ちのI/O)を破棄し、サーバモジュール200−1との切断処理を正常に終了させる。
一方、サーバモジュール200−1では、リセットによりPCIe I/F230−1が回復する(S110)。接続モジュール410−1のエンドポイント420−1は、再度サーバモジュール200−1と接続されたことをプロトコルエンジン460に通知する。プロトコルエンジン460は、サーバモジュール200−1に対してリンク500−1に障害が発生したことを通知する(S111)。
ステップS111では、障害が発生した通知を受信したサーバモジュール200−1のストレージアクセス部224が、ストレージモジュール300との間で処理待ちとなっていたデータやコマンド(処理待ちI/O)を破棄して(S112)、障害から回復する(S113)。その後、接続モジュール410−1のエンドポイント420−1がリンク500−1の復旧を検出して、プロトコルエンジン460がストレージモジュール300に対して、サーバモジュール200−1との間のリンクアップを通知する(S114)。
ステップS115で、接続モジュール410−1からリンクアップの通知を受信したストレージモジュール300は、サーバモジュール200−1とのデータ転送の環境を再構築し、データの転送を再開する。
以上のように、サーバモジュール200−1と接続モジュール410−1の間でPCI Expressに障害が発生すると、サーバモジュール200−1ではPCIe I/F230−1のリセットを行うが、接続モジュール410−1は、ストレージモジュール300に対してPCI Expressの障害発生ではなく、PCI Expressの上位のプロトコルであるFCのプロトコルでリンクダウン(切断)が発生したことを通知する。このため、ストレージモジュール300では、PCIe I/F340の稼働状態を維持したまま、サーバモジュール200−1との間のリンクダウンの処理が正常に行われる。
したがって、ストレージモジュール300のPCIe I/F340に接続された他のサーバモジュール200−2は、サーバモジュール200−1のPCIe I/F230−1の障害発生の影響を受けることなく、ストレージモジュール300に対するアクセスを継続することが可能となるのである。接続モジュール410−1が、サーバモジュール200−1側で発生した障害を、リンク500−1の切断に変換してストレージモジュール300へ通知する。これにより、ストレージモジュール300側のPCIe I/F340がリセットされるのを防いで、サーバモジュール200−1のPCIe I/F230−1の障害発生の影響が、他のサーバモジュール200に波及するのを防止することが可能となる。
つまり、前記従来例のように、サーバモジュール200−1のPCIe I/F230−1の障害発生(PCIバスエラー)を、そのままストレージモジュール300に通知すると、ディスクコントローラ310がPCIe I/F340をリセットするPCIe障害処理部331を起動することになる。この場合、PCIe I/F340に接続されたリンク500−2の正常なサーバモジュール200−2とストレージモジュール300との間のデータ転送が中断されてしまう。
これに対して本発明では、接続モジュール410−1が、サーバモジュール200−1側で発生したPCIe I/F230−1の障害を、リンク500−1の切断に変換してストレージモジュール300へ通知することにより、ストレージモジュール300ではサーバモジュール200−1との接続解除(例えば、リンクダウンまたはホットリムーブ)の処理を実行することができる。
さらに、本発明によれば、前記従来例のようにPCI Expressのプロトコルを拡張する必要が無いので、既存のチップやデバイス及びソフトウェアを利用することができ、サーバモジュール200及びストレージモジュール300をPCI Expressで接続するサーバ装置100のコストが上昇するのを抑制できる。
なお、上記ではプロトコルエンジン460が、イベント模擬処理部470を起動する例を示したが、これに限定されるものではなく、接続モジュール410−1の制御部で処理を実現すれば良い。
また、上記実施例においては、接続モジュール410をバックプレーン400に配置した例を示したが、これに限定されるものではない。例えば、接続モジュール410−1〜410−nを、サーバモジュール200−1〜200−nのそれぞれに配置しても良い。この場合、バックプレーン400に代わって、PCIeスイッチでサーバモジュール200とストレージモジュール300を接続してもよい。
また、上記実施例においては、サーバモジュール200とストレージモジュール300を接続するI/Oインターフェースとして、PCI Expressを採用した例を示したが、これに限定されるものではない。
また、上記実施例においては、I/Oインターフェース上での上位プロトコルとして、FCを適用した例を示したが、SAS(SCSI)やSATA等のプロトコルを採用しても良い。また、上記実施例においては、I/Oインターフェースでの障害を、上位プロトコルのリンクダウンとする例を示したが、ホットリムーブで代用するようにしても良い。
本願発明は、接続モジュール410を介してサーバモジュール200−1とストレージモジュール300を接続するI/Oインターフェースにおいて、サーバモジュール200−1がI/Oインターフェースのリセットが必要な障害を検出し、サーバモジュール200がI/Oインターフェースをリセットする。接続モジュール410はサーバモジュール200−1によるリセットから障害の発生を検出し、I/Oインターフェース上の通信プロトコルで障害の発生通知を、リンクの切断を示す通知に変換してストレージモジュール300に送信する。ストレージモジュール300では、サーバモジュール200とのリンクを切断する処理を行って、I/Oインターフェースをリセットすることなく稼働を継続することができる。
なお、本発明において説明した計算機等の構成、処理部及び処理手段等は、それらの一部又は全部を、専用のハードウェアによって実現してもよい。
また、本実施例で例示した種々のソフトウェアは、電磁的、電子的及び光学式等の種々の記録媒体(例えば、非一時的な記憶媒体)に格納可能であり、インターネット等の通信網を通じて、コンピュータにダウンロード可能である。
また、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明をわかりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。
100 サーバ装置
200−1〜200−n サーバモジュール
222 PCIe障害処理部
230−1〜230−n PCIe I/F
300 ストレージモジュール
332 TBAリンクダウン処理部
410−1〜410−n 接続モジュール
440 データ転送部
460 プロトコルエンジン
470 イベント模擬処理部

Claims (10)

  1. 複数のサーバモジュールと、ストレージモジュール及び接続モジュールを備える計算機システムであって、
    前記サーバモジュールは、
    第1のプロセッサと、
    第1のメモリと、
    他の装置と接続する第1のインターフェースと、
    前記第1のインターフェースを介して前記ストレージモジュールにアクセスを要求するストレージアクセス部と、
    前記第1のインターフェースの障害を検出する障害検出部と、
    前記障害検出部が前記第1のインターフェースの障害を検出したときに、所定の回復処理を実行する障害処理部と、を有し、
    前記接続モジュールは、
    前記第1のインターフェースに接続されて、前記第1のインターフェースの障害の発生を検出すると、障害の発生通知を出力する第1のエンドポイントと、
    前記ストレージモジュールの第2のインターフェースに接続される第2のエンドポイントと、
    前記第1のエンドポイントと第2のエンドポイントの間でデータの転送を行うデータ転送部と、
    前記第1のエンドポイントが、前記障害の発生通知を出力すると、前記障害の発生通知を第2のインターフェースのリンクダウン通知に変換し、当該変換されたリンクダウン通知を前記第2のエンドポイントから前記ストレージモジュールに送信するイベント模擬部と、を有し、
    前記ストレージモジュールは、
    第2のプロセッサと、
    第2のメモリと、
    記憶装置と、
    他の装置と接続する第2のインターフェースと、
    前記第2のインターフェースからアクセス要求を受信して、前記記憶装置にアクセスするストレージ制御部と、
    前記接続モジュールから前記リンクダウン通知を受信したときに、前記サーバモジュールとの接続を解除する切断処理部と、
    を有することを特徴とする計算機システム。
  2. 請求項1に記載の計算機システムであって、
    前記接続モジュールは、
    前記第1のエンドポイントと第2のエンドポイントの間でプロトコルの変換を行うプロトコル変換部を有し、前記リンクダウン通知を前記第2のエンドポイントのプロトコルで送信することを特徴とする計算機システム。
  3. 請求項1に記載の計算機システムであって、
    前記サーバモジュールの障害処理部が行う所定の回復処理は、前記第1のインターフェースのリセットであることを特徴とする計算機システム。
  4. 請求項1に記載の計算機システムであって、
    前記計算機システムは、
    前記複数のサーバモジュールにそれぞれ接続された前記接続モジュールと、を有し、
    複数の前記接続モジュールの前記第2のエンドポイントは、前記ストレージモジュールの前記第2のインターフェースに接続されたことを特徴とする計算機システム。
  5. 複数のサーバモジュールと、ストレージモジュール及び接続モジュールを備えた計算機システムの制御方法であって、
    前記サーバモジュールは、
    第1のプロセッサと、第1のメモリと、他の装置と接続する第1のインターフェースと、を有し、
    前記ストレージモジュールは、
    第2のプロセッサと、第2のメモリと、記憶装置と、他の装置と接続する第2のインターフェースと、を有し、
    前記接続モジュールは、
    前記第1のインターフェースと接続する第1のエンドポイントと、前記第2のインターフェースと接続する第2のエンドポイントと、を有し、
    前記方法は、
    前記サーバモジュールが、前記第1のインターフェースの障害を検出する第1のステップと、
    前記サーバモジュールが、前記第1のインターフェースの障害を検出すると、所定の回復処理を実行する第2のステップと、
    前記接続モジュールが、前記第1のエンドポイントで前記第1のインターフェースの障害の発生を検出し、障害の発生通知を出力する第3のステップと、
    前記接続モジュールが、前記障害の発生通知を前記第2のインターフェースのリンクダウン通知に変換し、当該変換されたリンクダウン通知を前記第2のエンドポイントから前記ストレージモジュールに送信する第4のステップと、
    前記ストレージモジュールが、前記接続モジュールから前記リンクダウン通知を受信したときに、前記サーバモジュールとの接続を解除する第5のステップと、
    を含むことを特徴とする計算機システムの制御方法。
  6. 請求項5に記載の計算機システムの制御方法であって、
    前記第4のステップは、
    前記接続モジュールが、前記リンクダウン通知を前記第2のエンドポイントのプロトコルで送信することを特徴とする計算機システムの制御方法。
  7. 請求項5に記載の計算機システムの制御方法であって、
    前記第2のステップは、
    前記サーバモジュールが行う所定の回復処理は、前記第1のインターフェースのリセットであることを特徴とする計算機システムの制御方法。
  8. 請求項5に記載の計算機システムの制御方法であって、
    前記計算機システムは、
    前記複数のサーバモジュールにそれぞれ接続された前記接続モジュールと、を有し、
    複数の前記接続モジュールの前記第2のエンドポイントは、前記ストレージモジュールの前記第2のインターフェースに接続されたことを特徴とする計算機システムの制御方法。
  9. 複数のサーバ装置と、ストレージ装置を接続する接続モジュールであって、
    前記サーバ装置の第1のインターフェースに接続されて、前記第1のインターフェースの障害の発生を検出すると、障害の発生通知を出力するホストバスアダプタと、
    前記ストレージ装置の第2のインターフェースに接続されるターゲットバスアダプタと、
    前記ホストバスアダプタターゲットバスアダプタの間でデータの転送を行うデータ転送部と、
    前記ホストバスアダプタが、前記障害の発生通知を出力すると、前記障害の発生通知を前記第2のインターフェースで使用するプロトコルのリンクダウン通知に変換し、当該変換されたリンクダウン通知を前記ターゲットバスアダプタから前記ストレージ装置に送信するイベント模擬部と、
    を有することを特徴とする接続モジュール。
  10. 請求項9に記載の接続モジュールであって、
    前記ホストバスアダプタターゲットバスアダプタの間でプロトコルの変換を行うプロトコル変換部を有し、前記リンクダウン通知を前記ターゲットバスアダプタのプロトコルで送信することを特徴とする接続モジュール。
JP2013196829A 2013-09-24 2013-09-24 計算機システム、計算機システムの制御方法及び接続モジュール Expired - Fee Related JP6228793B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013196829A JP6228793B2 (ja) 2013-09-24 2013-09-24 計算機システム、計算機システムの制御方法及び接続モジュール
EP14167247.7A EP2851801B1 (en) 2013-09-24 2014-05-06 Computer system, control method for computer system and coupling module
US14/288,667 US9304842B2 (en) 2013-09-24 2014-05-28 Computer system, control method for computer system and coupling module

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013196829A JP6228793B2 (ja) 2013-09-24 2013-09-24 計算機システム、計算機システムの制御方法及び接続モジュール

Publications (2)

Publication Number Publication Date
JP2015064648A JP2015064648A (ja) 2015-04-09
JP6228793B2 true JP6228793B2 (ja) 2017-11-08

Family

ID=50721574

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013196829A Expired - Fee Related JP6228793B2 (ja) 2013-09-24 2013-09-24 計算機システム、計算機システムの制御方法及び接続モジュール

Country Status (3)

Country Link
US (1) US9304842B2 (ja)
EP (1) EP2851801B1 (ja)
JP (1) JP6228793B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016203565A1 (ja) * 2015-06-17 2016-12-22 株式会社日立製作所 計算機システムおよび制御方法
JP7179810B2 (ja) * 2020-10-27 2022-11-29 株式会社日立製作所 クラスタシステム、クラスタシステムのフェイルオーバー制御方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6859896B2 (en) * 2002-04-02 2005-02-22 International Business Machines Corporation Adapter and method for handling errors in a data storage device converted to be accessible to multiple hosts
JP4317436B2 (ja) * 2003-12-16 2009-08-19 株式会社日立製作所 ディスクアレイシステム及びインターフェイス変換装置
JP2007188428A (ja) 2006-01-16 2007-07-26 Fuji Xerox Co Ltd 半導体ストレージ装置およびストレージシステム
US8305879B2 (en) * 2007-03-30 2012-11-06 International Business Machines Corporation Peripheral component switch having automatic link failover
US7783818B1 (en) * 2007-12-28 2010-08-24 Emc Corporation Modularized interconnect between root complexes and I/O modules
JP2009187269A (ja) * 2008-02-06 2009-08-20 Nec Corp データベースシステム及びデータベース接続制御方法
JP5182771B2 (ja) * 2008-04-02 2013-04-17 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. 共有i/oにおけるリセットの変換
JP2010238150A (ja) 2009-03-31 2010-10-21 Toshiba Corp PCIExpress通信システム、及びその通信方法
JP2010250665A (ja) 2009-04-17 2010-11-04 Toshiba Corp PCIExpressのTLP処理回路、及びこれを備える中継デバイス
EP2365445B1 (en) 2010-03-11 2013-10-23 Ricoh Company, Ltd. Adapter and communication method
JP5764919B2 (ja) 2010-12-16 2015-08-19 株式会社リコー 通信機器および通信システム
WO2011132234A1 (en) * 2010-04-23 2011-10-27 Hitachi, Ltd. Storage device and method for managing size of storage device
US9571576B2 (en) 2010-11-30 2017-02-14 International Business Machines Corporation Storage appliance, application server and method thereof
JP5422611B2 (ja) * 2011-06-24 2014-02-19 株式会社日立製作所 計算機システム、ホストバスアダプタ制御方法及びそのプログラム
JP2013117930A (ja) * 2011-12-05 2013-06-13 Hitachi Ltd 計算機及び計算機の制御方法

Also Published As

Publication number Publication date
JP2015064648A (ja) 2015-04-09
US20150089273A1 (en) 2015-03-26
EP2851801A1 (en) 2015-03-25
EP2851801B1 (en) 2015-12-09
US9304842B2 (en) 2016-04-05

Similar Documents

Publication Publication Date Title
US8402189B2 (en) Information processing apparatus and data transfer method
KR102384328B1 (ko) 플렉시블 스토리지 플랫폼을 위한 다중 프로토콜 io 인프라스트럭쳐
US9189418B2 (en) Computer system, server module, and storage module
CN100583066C (zh) 存储控制系统及其控制方法,端口选择器,以及控制器
US10027532B2 (en) Storage control apparatus and storage control method
US8074105B2 (en) High data availability SAS-based RAID system
US20170024151A1 (en) Redundant sas storage virtualization subsystem and system using the same, and method therefor
CN112306388B (zh) 存储装置
US11157204B2 (en) Method of NVMe over fabric RAID implementation for read command execution
US10114688B2 (en) System and method for peripheral bus device failure management
EP2140353A1 (en) In-band problem log data collection between a host and a storage system
JP2014071576A (ja) ストレージ制御装置,プログラマブル論理回路の復旧処理方法及び制御プログラム
CN104333586A (zh) 一种基于光纤链路的san存储设计方法
US20110282963A1 (en) Storage device and method of controlling storage device
US9798604B2 (en) Firmware dump collection from primary system dump device adapter
JP6228793B2 (ja) 計算機システム、計算機システムの制御方法及び接続モジュール
US10579275B2 (en) Storage system and storage control method
KR20110030002A (ko) 활성-활성 멀티플렉싱 유닛 또는 포트 선택자 유닛을 가지는 네트워크 직접 연결 저장 장치
JP7315753B2 (ja) ストレージ装置
JP2005301350A (ja) フォールトトレラントサーバ

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170104

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170711

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170904

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170919

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171016

R150 Certificate of patent or registration of utility model

Ref document number: 6228793

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees