JP3897049B2 - 計算機システム - Google Patents

計算機システム Download PDF

Info

Publication number
JP3897049B2
JP3897049B2 JP2005124417A JP2005124417A JP3897049B2 JP 3897049 B2 JP3897049 B2 JP 3897049B2 JP 2005124417 A JP2005124417 A JP 2005124417A JP 2005124417 A JP2005124417 A JP 2005124417A JP 3897049 B2 JP3897049 B2 JP 3897049B2
Authority
JP
Japan
Prior art keywords
logical unit
computer
unit number
virtual
logical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005124417A
Other languages
English (en)
Other versions
JP2005276233A5 (ja
JP2005276233A (ja
Inventor
直人 松並
彰 山本
秀樹 神牧
正敏 市川
純 松本
康行 味松
育哉 八木沢
山本  政行
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2005124417A priority Critical patent/JP3897049B2/ja
Publication of JP2005276233A publication Critical patent/JP2005276233A/ja
Publication of JP2005276233A5 publication Critical patent/JP2005276233A5/ja
Application granted granted Critical
Publication of JP3897049B2 publication Critical patent/JP3897049B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

本発明は、複数のクライアント計算機により構成するクライアント計算機システムの実現方法に関し、特に、クライアント計算機用の記憶装置のメンテナンスに要する運用コストの低減と、記憶装置のアクセス性能の向上の両立を実現する方法に関する。
複数のユーザが複数のPC等のクライアント計算機を用いて業務処理等を行う計算機システムをクライアント計算機システムと呼ぶ。従来は単独ですべての計算処理を実行できる機能を備えたPC等を用いてクライアント計算機システムを構築していた。このようなクライアント計算機には高性能なCPUや大容量のメモリや大容量なハードディスク装置や、高速なグラフィック装置等を搭載した”太った”計算機であるので、通称して「Fatクライアント」と称する。また、このFatクライアント計算機を用いたクライアント計算機システムのことをFatクライアントシステム(Fat Client System:FCS)と称する。 FCSでは複数のFatクライアントをLANで相互接続し、必要に応じファイル転送や、メール送受信等の通信を行う。Fatクライアントは、OSやアプリケーションやユーザデータ等を格納するためのストレージとしてディスク装置を備える。OSやアプリケーションのインストールは通常ユーザ自身が実施する。また、作成したユーザデータはハードディスクの障害で消失してしまわないように、LAN上のいずれかの場所に存在するテープ装置等のバックアップ装置でバックアップを行う。
また、このようなクライアント計算機システムの別の例としてNetwork Computerシステムが知られている。このシステムを構築する計算機はNetwork Computer(NC)と呼ばれ、OSやアプリケーションを格納するハードディスク装置を備えない等、低価格、低機能化した”痩せた”計算機を用いる。このような計算機のことをFatクライアントに対比し、「Thinクライアント」と称する。また、このThinクライアントを用いたクライアント計算機システムのことをThinクライアントシステム(Thin Client System:TCS)と称する。
以下、TCSの一例としてNCシステムシステムを図11を用い説明する。
1000(a〜c)は複数台のNetwork Computer(以下NCと略記する)、7はサーバ、1はサーバ7用のストレージ、6はNC1000とサーバを相互に接続するLANである。
NC1000は、OSやアプリケーションやユーザデータを格納するためのストレージを備えない。LAN6を介してサーバ7のストレージ1の一部をNC1000用のリモートストレージとしてマウントし、ここにすべてのOS、アプリケーション、ユーザデータを格納する。起動時にはサーバ7のストレージ1からOSをLAN6経由でロードし実行する。アプリケーションの起動も同様である。
特開平6−168198号公報
従来技術のFCSは、容易にシステムを構築でき、初期導入コストが低いという長所がある反面、上記の通り、OS/アプリケーションのインストール、バージョンアップ等をユーザ自身が実施する必要があり、これらの運用管理コストが上昇し、その結果、システムを保持するために発生する総コスト(TCO:Total Cost of Ownership)が非常に高価になるという課題がある。
また、従来の技術のNCシステムを代表とするTCSは、運用管理をサーバに集約することで管理者が集中管理できるようにし、個別のユーザによる運用管理を排除し、TCOを削減することを狙ったものである。一方、すべてのユーザのディスクアクセスがLANおよびサーバ経由で発行されるため、LAN処理のオーバヘッドや、NCとサーバの両方で発生するリモートディスク制御処理のオーバヘッドにより各クライアントの内蔵ディスクへのアクセス性能に比べ大幅に低下するという課題がある。また、すべてのディスクアクセスがサーバに集中するため、サーバには非常に高いCPU性能とI/O処理性能が要求され、クライアント計算機システムの運用のために高価なサーバが必要になるという課題がある。
本発明の目的は、運用管理コストを低減することでTCOを低減したクライアント計算機システムを提供することである。
また、本発明の目的は、低オーバヘッドで高速なディスクアクセスを実現するクライアント計算機システムを提供することである。
また、本発明の目的は、LANやサーバに負荷をかけないクライアント計算機システムを提供することである。
また、本発明の目的は従来のFCSの内蔵ディスクアクセス性能を上回る高速ディスクアクセスを実現するクライアント計算機システムを提供することである。
本発明は、複数のディスクレスクライアント計算機と、すべてのクライアント計算機の共用ストレージと、共用ストレージを管理するための管理コンソールと、すべてのディスクレス計算機システムと共用ストレージと管理コンソールを相互に接続するI/Oチャネル結合回路により構成するクライアント計算機システムである。
ここで、ディスクレスクライアント計算機は、ファイバチャネル等のI/Oチャネルへの接続、制御を行うI/OチャネルI/F制御回路と、I/Oチャネルに接続したストレージからOSのブートアップを行うためのブートアップ制御回路とを備えたものである。なお、ディスクレスクライアント計算機には内蔵するディスク装置は備えない。
また、共用ストレージは、ファイバチャネル等のI/Oチャネルへの接続、制御を行うI/OチャネルI/F制御回路と、それぞれのクライアント計算機の専用の論理ユニット(LU:Logical Unit)や、各クライアントによる共用の論理ユニットを作成したり、削除したりするLU定義部と、各クライアント計算機に対する作成したLUのアクセス禁止/許可や、LUの属性や、クライアント計算機に見せる仮想的なLU番号(LUN:Logical UnitNumber)と共用ストレージ内部制御用のLU番号を管理するためのLUN管理テーブルと、LUN管理テーブルの格納情報に従い各クライアントからの各LUへのアクセスを制限し、また、許可した場合には当該LUに対するリード・ライトアクセス制御を行うアクセス制御部と、LUを構築する少なくとも1台以上のディスク装置のデータをキャッシュし、キャッシュヒット時にはディスク装置からリード・ライトを行うことなく高速にデータ転送を実現するためのキャッシュと、指定したLUをキャッシュに常駐するよう制御するキャッシュ常駐制御部と、共用ストレージを設定・制御するための管理コンソールとの通信を制御する通信制御回路とを備えたものである。
また、管理コンソールは、共用ストレージのLU作成を指示し、クライアント計算機ごとの各 LUとのアクセス制限を設定し、各LUに仮想LUNを設定する制御を行うLU管理部と、共用ストレージとの通信を制御する通信制御回路と、ファイバチャネル等のI/Oチャネルへの接続、制御を行うI/OチャネルI/F制御回路とを備えたものである。
本発明によれば、アプリケーションやOSなどのインストールやバージョンアップや、データのバックアップを一元管理することができるので、運用管理コストを低減しTCOの低いクライアント計算機システムを実現できるという効果がある。
また、本発明によれば、複数のクライアントでストレージを共用するためにLANやサーバを使用しないので、低オーバヘッドで高速なディスクアクセスを実現するクライアント計算機システムを実現できるという効果がある。
また、本発明によれば、複数のクライアントでストレージを共用するためにLANやサーバを使用しないので、LANやサーバからストレージ共用のための負荷を解放することで高速なサーバ処理やネットワーク処理を実現できるという効果がある。
また、本発明によれば、複数のクライアントでアプリケーションやOSを共用することができるので、これらのインストールやバージョンアップにより発生する運用管理コストを最小減に低減できるとともに、キャッシュ常駐をすることで、高速アクセス性能を実現できるという効果がある。
以下、本発明の実施例について、図面を参照して説明する。尚、本発明は、本実施例に限られるものではない。
(A)第一実施形態
○構成
第一実施形態を説明する。図1は第一実施形態のクライアント計算機システムの構成図である。なお、本実施形態ではクライアント計算機がPC(Personal Computer)であるとし、特にこのPCは内部にハードディスク装置を備えない「ディスクレスPC」であるとして説明する。なお、もちろんPC以外のクライアント計算機システムであっても同様に実施できる。
同図において、2(2a〜2c)は複数のディスクレスPC、1はすべてのクライアントPC2が共用するストレージ、4はストレージを管理するための管理コンソール、3はすべてのディスクレスPC2とストレージ1と管理コンソール4を相互に接続するファイバチャネル接続回路、5a〜5iはファイバチャネルである。
図2はディスクレスPC2の構成図である。21はディスクレスPCの全体制御を行い各種計算処理のプログラムを実行する中央制御装置、22はファイバチャネルの接続、制御を行うファイバチャネルI/F制御回路、23はこのPC2の操作者が操作するための入出力装置、221はファイバチャネルに接続したストレージからOSのブートアップを行うためのブートアップ制御回路である。なお、前述の通り、ディスクレスPCは内蔵するディスク装置を備えない。
図3はストレージ1の構成図である。11はストレージの全体制御を司る中央制御装置である。本実施形態では、中央制御装置11はプログラムで動作する装置であるとし、次の各プログラム部位を備える。12はそれぞれのディスクレスPC2(2a〜2c)の専用の論理ユニット(LU:Logical Unit)や、複数のディスクレスPC2の共用の論理ユニットを作成したり、削除したりするLU定義部、14は各ディスクレスPCに対する各LUのアクセス禁止/許可や、LUの属性や、ディスクレスPCに見せる仮想的なLU番号(LUN:Logical Unit Number)とストレージ内部管理用の内部LUNの対応を管理するためのLUN管理テーブル、16はLUN管理テーブル14の情報に従い各ディスクレスPC2からの各LUへのアクセスを制限/許可する制御を行い、許可した場合には当該LUに対するリード・ライトアクセス制御を行うアクセス制御部である。
また、13はストレージにLUを定義する等の制御を行う管理コンソールとの間の通信を制御する通信制御回路、15はファイバチャネル5dへの接続、制御を行うファイバチャネルI/F制御回路、17(170〜176)は少なくとも1台の物理的なディスク装置の一定の記憶領域により構成し上位装置から見える論理的なボリュームである論理ユニット(LU)である。
図4は管理コンソール4の構成図である。41は管理コンソール4全体の制御を司る中央制御装置である。本実施形態では、中央制御装置41はプログラムで動作する装置であるとし、次のプログラム部位を備える。44はストレージ1のLU作成を指示し、また、ディスクレスPCごとに各LUのアクセス制限を設定し、また、各内部LUNと仮想LUNの対応付けを設定する制御を行うLU管理部である。
また42は操作者が管理コンソール4を操作するための入出力装置、43はストレージの各種設定のための通信を行う通信経路6を制御する通信制御回路、45ははファイバチャネル5eへの接続、制御を行うファイバチャネルI/F制御回路、46は管理コンソール4のOSやプログラムを格納する内蔵ディスクであるローカルディスクである。
○動作
次に本実施形態の動作を説明する。
(1) 内部LUNと仮想LUN
LU(Logical Unit)について説明する。LUはディスクレスPC等の上位計算機から見たときの論理的なボリュームである。上位計算機は1つのLUを1台の論理的なディスク装置として認識する。
ストレージ1は内部に複数のLUを構築できる。これを内部LUと呼ぶことにする。ストレージ1では内部LUを管理するため0から始まる整数でシリアル番号付けする。この番号を内部LUN(Logical Unit Number)と呼ぶ。
一方、本発明のクライアント計算機システムでは複数のディスクレスPCが1台のストレージを共用するため、ディスクレスPCそれぞれに専用のLUを割り当てる。一般にPC等の上位計算機はOSブート時に接続するストレージをサーチしてLUを検出するが、サーチ方法にいくつかの制約がある場合がある。それは、
(a) LUNは0から順にサーチする
(b) LUNは連続番号で存在することを仮定し、ある番号が存在しない場合以降のサーチは行わない
の2点である。これはサーチ時間を短縮するための工夫である。本発明のディスクレスPCもこのような特性をもつ上位計算機であると仮定すると、内部LUN=0以外をLU割り当てられたディスクレスPCはこのLUを検出できない。そこで、すべてのディスクレスPCに対し、1つ以上のLUを割り当てる際には、0から始まり、かつ連続番号でLUNを割り当てる必要がある。このディスクレスPCから見えるLUを仮想LU、その番号を仮想LUNと呼び、内部LUおよび内部LUNと区別する。これらの内部LUN、仮想LUNとの対応関係はストレージ1の中央制御装置11が備えるLUN管理テーブル14で管理する。
(2)LUN管理テーブル
LUN管理テーブル14の一例を図5に示す。LUN管理テーブル14には所有上位計算機識別子と、ポート番号と、Target IDと仮想LUNと、内部LUNと、属性を格納する。
所有上位計算機識別子は、あるLUを所有する上位計算機を特定する情報を格納する。より具体的には、本実施形態のようにファイバチャネルでストレージと上位計算機を接続する場合には、ディスクレスPC2のファイバチャネルI/F接続回路22のWorld Wide Nameに基づくPort Nameと、ファイバチャネルの初期化により決定されたS - ID(Source-ID)の組み合わせで表現する。また、本実施形態では示さないが、SCSI(Small Computer Systems Interface)を上位計算機との接続I/Fとして用いた場合には、SCSI IDを格納する。
ポート番号は、ストレージ1が備えるファイバチャネル接続ポートの番号を格納する。本実施形態ではポート数は2個であるので、それぞれのディスクレスPC2が接続しているポートの番号を格納する。
TargetIDは、上位計算機との接続I/Fにおけるストレージ1の識別 IDを格納する。本実施形態のように接続I/Fがファイバチャネルの場合には、各ポート毎に唯一のD-ID(Destination-ID)しか備えないと決められているためポート番号により識別可能なので、本項は省略してもよいし、またはファイバチャネルの初期化時に決定したD-IDを格納しても良い。接続I/FがSCSIの場合には同一ポートに複数のIDを備えることができるので、そのときの各IDを格納する。
仮想LUNと内部LUNは、上位計算機に割り当てた内部LUNと各上位計算機から見える仮想LUNとの対応関係を示す。たとえば、ディスクレスPC0には内部LUN=0、1の2つのLUを割り当てており、その仮想LUNはそれぞれ1、0である。
属性は、上位計算機による各LUの所有属性を示す。「専用」は1台の上位計算機が専有するLUであることを示す。「共用」は複数の上位計算機が共有するLUであることを示す。「特権」は「専用」と同義であるが、特別な管理状態にあり、この実施形態の場合、管理コンソール4によってのみ操作可能な状態であることを示す。「専用」との相違は、管理コンソール4がプログラム等を格納して使用するために作成したLUではない点である。
(3)LUの作成
次に、管理コンソール4からストレージ1を制御してLU17を作成する手順について説明する。
管理者は管理コンソール4の入出力装置42によりLU管理部44を操作する。管理者はLU管理部44によりLUを作成する物理ディスク装置を選択する。ストレージ1が複数のディスク装置を備えているならば、そのうちの1つを選択する。また、RAID(Redundant Arrays of Inexpensive Disks)を構成するならば、複数のディスク装置を選択し、これらをグループ化して仮想的な1台の物理ディスク装置と扱う。
次に、選択した物理ディスク装置に作成するLUの容量を決定する。以上の設定情報を用い、管理者はLU管理部44を制御してストレージ1にLU作成命令を発行する。LU管理部44の命令に基づき、中央制御装置41は通信制御回路43を制御し通信経路6を介しストレージ1に設定情報を転送する。
ストレージ1の通信制御回路13はこれを受信し中央制御装置11に通知し、該装置11はLU定義部12により指定の物理ディスク装置に指定の容量のLUを作成する。LU定義部12はLUN管理テーブル14の内部LUNにこのLUを登録する。この時点では、属性は特権、その他の設定は未設定である。
LUの作成が成功すると、LU定義部12は通信制御回路13の制御の下、通信経路6により管理コンソール4にLU作成成功の報告を行う。
次にLUを所有する上位計算機の識別子を設定する。作成した内部LUN=1であったとする。管理者はこのLUをディスクレスPC0のLUN=0で登録するものとする。管理者はLU管理部44を操作し当該LUの所有上位計算機識別子=ディスクレスPC0の World Wide Name、仮想LUN=0、ポート番号=0、属性=専用を設定する。以降上記同様通信経路6を経由しこれらの設定値がストレージ1に転送され、LU定義部12はLUN管理テーブル14に設定する。これにより、以降クライアントPC0のみがこのLUを使用でき、他のディスクレスPCからは認識できないLUに設定できた。
なお、本実施形態ではファイバチャネルを用いているのでTargetIDは未使用であるとし、LUN管理テーブルの同項には便宜上0を格納してある。
以下、その他のLUも上記同様に作成、所有設定を行い、各ディスクレスPC用の専用LUを作成できる。1台のディスクレスPCが複数の専用LUを備えることも可能であり、図5に示すディスクレスPC2は2台の専用LUを備える例である。
(4) 共用LUの作成
上記では各ディスクレスPC専用のLUの作成について説明したが、同様に各ディスクレスPCによる共用LUを作成することもできる。上記専用LUの作成とはLUの属性を「共用」に設定することが異なる。また、各ディスクレスPCから1つのLUNとして認識できるように同じ内部LUが各ディスクレスPC毎に仮想LUNの定義がなされる。図5の例では、内部LUN=0は共用LUとしてディスクレスPC0用の仮想LUN=1、ディスクレスPC1用の仮想LUN=1、ディスクレスPC2用の仮想LUN=2として3回定義される。なお、ある上位計算機に共有を許さないことも可能である。LUN管理テーブル14で当該上位計算機に対し仮想LUNを定義しないだけで実現できる。
(5) アクセス制御
次にLUのアクセス制御について説明する。ディスクレスPC2が起動すると、次の2つのステップの初期化処理を行う。
第一のステップは、ファイバチャネルの初期化時に実施するポートログイン処理である。これはファイバチャネル上での接続を確立するために行う処理である。この処理により、ストレージ1のファイバチャネルI/F制御回路15は接続可能な各ディスクレスPCのPortNameとしてのWorld Wide NameとそのS-IDを獲得する。LUN定義部12は、LUN管理テーブルの所有上位計算機識別子として格納してある各クライアントPCのWorld Wide Nameと比較し、その対応するS-IDを登録する。以降はS- IDのみ上位計算機の識別に使用する。
第二のステップは、SCSIの初期化時に実施するLUサーチ処理である。ブートアップ制御回路221を備えるファイバチャネルI/F制御回路22は、ブートアップ可能なLUを検出するため、全てのストレージに対しLU有無の検査を行う。また、ブートアップ制御回路221を備えていない場合でも、OSがファイバチャネルI/Fの初期化処理の際に同様のサーチを行う。いずれの検査においてもSCSIの仕様で定められたInquiryコマンドを用い順番にLUNを変化させて検査を実施する。検出したLUは、ブートアップ制御回路221においてはブート可能なLUの1つとして、また、OSにおいては使用可能なLUの1つとして認識する。
ストレージ1のファイバチャネルI/F制御回路15は、1台のディスクレスPC2からInquiryコマンドを受信すると、その発行元S-IDと検査対象の仮想LUNをアクセス制御部16に通知する。アクセス制御部16は、LUN管理テーブル14を参照し、当該仮想LUNと当該上位計算機の関係を検査する。もしテーブル14に存在する組み合わせならばこの検査は有効であり、ディスクレスPC2にはInquiryコマンドの結果としてLUが存在することを示す情報が送信される。一方、この組み合わせがテーブル14に存在しないならば、このLUは当該ディスクレスPCからはアクセスが禁止されたLUであるから、No Device応答等、LUが存在しないことを示す情報が送信される。このような動作により、ディスクレスPC2のLU検査により、アクセスが許された内部LUのみが仮想LUNとして認識されることになり、その他の内部LUは認識されないので、アクセスのディスクレスPC毎の排他制御を実現できる。
以降、原則として同テーブル14で定義された関係によってのみアクセスが行われるが、例外的に上位計算機から範囲外のアクセスが発生する恐れがある。これを抑止するためには、全アクセス毎にS-IDと仮想LUNの関係を検査する必要があるが、上記の応用で実現可能である。
定義された正しい関係の元でのディスクレスPCからのLUアクセスが発行された場合には、アクセス制御部16は、指定されたRead、Write等のコマンド処理を実行する。
(6) 専用LUにOS、APPを格納
次に本発明の最も基本的な使用方法を説明する。図5のLUN管理テーブル14の例に示したとおり、各ディスクレスPC2用にストレージ1に専用LUを作成し、それぞれのOSやアプリケーションやデータをすべて格納する方法である。なお、共用LUの使用方法については第二実施形態以降で説明する。
はじめにOSについて説明する。各ディスクレスPC2に割り当てた仮想LUN=0にそれぞれのOSを格納する。ディスクレスPC2に電源を投入すると、上記(5)の通りファイバチャネルの初期化が実施され、そしてファイバチャネルI/F制御回路22は接続するLUを検査する。これにより専用LUが検出される。ついでブートアップ制御回路221はこの検出したLUを「ブートディスク」としてOSのブートアップを実行する。なお、検出したすべてのLUのうち、どのLUをブートディスクにするかは事前に指定が必要である。図5のLUN管理テーブル14の例では、ディスクレスPC0,1,2ともに仮想LUN=0をブートディスクとして設定したとする。
ブートアップ制御回路221は、このLUをあたかも内蔵ディスク装置であるかのようにエミュレーションを行う。これにより、このLUにOSをインストールすることができ、かつ、ここからブートアップすることが可能になる。この制御のことをブートエミュレーションと呼ぶ。
また、それぞれのアプリケーションや、データをこのLUに格納し動作させることは、すでにこのLUが内蔵ディスク装置としてエミュレーションされているので実施できる。
(7)特権の利用
図5に示したとおり、作成した内部LUには「特権」の属性を与えることができる。特権の属性を設定すると一時的に上位計算機からのアクセスを抑止し管理コンソール4から操作を行うことができる。これを利用しLUの各種メンテナンスを行うことができる。
たとえば、バックアップ処理に利用することができる。バックアップ対象LUを一時ディスクレスPCからアクセス禁止し、このLUを管理コンソール4の配下に置く。管理コンソール4はこのLUを外部ディスク装置としてファイバチャネルI/F制御回路45を用い接続し、システム内に備えたバックアップ装置(図示せず)を用いバックアップ処理を行うことができる。
また、OSやアプリケーションのインストールにも用いることができる。たとえば、OSを新規にインストールし直す際には、管理コンソール4からプレインストール作業を実施できる。この処理により、各ディスクレスPCは次回起動した際に、各ディスクレスPCに固有なハードウェア情報や使用者の登録等の最低限の設定により新規の環境を使用可能になる。
また、OS、アプリケーションのバージョンアップにも用いることができる。管理コンソール4からこのLUに対しバージョンアップ処理を実行すれば、ディスクの内容は更新され、次回ディスクレスPC2から新バージョンのOS、アプリケーションをただちに使用可能になる。
(8)効果
以上のように、複数のディスクレスPC2が1台のストレージ1を共用し、その内部にそれぞれ専用のLUを作成することでそれぞれ固有のOS、アプリケーションを格納でき、そしてこれらプログラムを直接I/Oロードできる。また、それぞれのデータも同一ストレージに格納できる。
これにより、1台のストレージ1にOS、アプリケーション、データをすべて集約できるので、1人の管理者のもと、集中的にストレージのメンテナンスを実行することができ、運用管理コストを低減できるという効果がある。
また、共用ストレージにはディスクアレイ等、従来の内蔵ディスク装置に対し高速、大容量、高信頼なストレージを使用でき、性能、容量拡張性、信頼性のいずれをも向上させることができる。
特にプログラムを直接I/Oロードできるので、従来のNCシステムのような LAN、サーバのオーバヘッドが発生せず高速なプログラム起動を実現できるという効果がある。
また、各ディスクレスPCの処理を肩代わりするサーバは不要であり、クライアント計算機システム全体のコストを低減できるという効果がある。
(B)実施形態2
○構成
第二実施形態を説明する。本実施形態の構成は第一実施形態と同一である。ただし、本実施形態では第一実施形態で説明しなかった共用LUについて説明する。図5に従い、内部LU=0が共用LUであるとして以下説明する。
○動作
(1) アプリケーションの共用
第一実施形態では、各ディスクレスPC2がそれぞれ専用のLUを確保し、OS、アプリケーション、データのすべてを格納するとして説明した。本実施形態では、アプリケーションを共用LUに格納する例を説明する。
(2) 共用アプリケーション設定情報
図7にディスクレスPC2と内部LUの関係を表す模式図を示す。共用LU170はディスクレスPC#0(2a)、ディスクレスPC#1(2b)から仮想LUN=1として、ディスクレスPC#2(2c)から仮想LUN=2として見える。
アプリケーションプログラムはディスクレスPC2のメモリにロードして実行し、また、プログラム自体を変更することがないので、複数ディスクレスPC2間での排他制御は不要であり、各ディスクレスPC2 # 0〜2(2a〜2c)は内部LU0を共用していることも認識しない。このような共用するアプリケーションのことを共用アプリケーションと呼ぶ。
共用アプリケーションを使用する際にも、各クライアントPC2毎の固有の設定情報が必要になる。この設定情報としては、使用ライセンス情報、個人情報、各種環境情報等がある。これらの情報は、各ディスクレスPC2用の専用LUに格納する。このように共用アプリケーションを構成することで、複数ユーザで共用しながらも各ユーザ毎に異なるアプリケーション環境を構築でき、また、不正使用の防止等にも配慮できる。
(3) 効果
第一実施形態のようにアプリケーションをそれぞれの専用LUに格納すると、インストールやバージョンアップ等のメンテナンスをすべてのLUに対して実施しなくてはならず、管理コストが上昇するが、本実施形態の共用アプリケーションを共用LUに格納する方法によれば、メンテナンスを一カ所に集約でき、メンテナンスに要する運用管理コストを低減できるという効果がある。
(C)実施形態3
○構成
第三実施形態を説明する。本実施形態も第二実施形態と同様、構成は第一実施形態と同じである。
第二実施例との相違点は、各ディスクレスPC用のOSも共用し、共用LUに格納する
ことである。第二実施形態と同様、図5に従い、内部LU=0が共用LUであるとし
て以下説明する。
○動作
(1) OSの共用
一般にクライアント計算機システムでは、同一のOSを用いることが多い。そこで、このOSも共用LU170に格納し、複数のディスクレスPC2で共用することを考える。このようなOSを共用OSと呼ぶ。
(2)ブートアップ用仮想LUNの設定
図8に本実施形態のディスクレスPC2と内部LUの関係を表す模式図を示す。共用LU170はディスクレスPC#0(2a)、ディスクレスPC#1(2b)から仮想LUN=0として、ディスクレスPC#2(2c)から仮想LUN=0として見える。
共用OSは共用LU170に共用アプリケーションと同様に格納する。第二実施形態と異なるのは、ディスクレスPC2のブートアップ制御回路221に設定したブートLUがディスクレスPC #0(2a)、ディスクレスPC#1(2b)では仮想LUN=0に、ディスクレスPC#2(2c)では仮想LUN=0に設定することである。これにより、各ディスクレスPC2のブートアップ制御回路221は共用LU170を仮想ブートディスクとして制御し、OSを起動する。
(3)共用OS用設定情報
第二実施形態の共用アプリケーション用設定情報と同様、各ディスクレスPC2それぞれの設定情報が必要になる。設定情報としては、使用ライセンス情報、個人情報、各種環境情報等がある。これらは、共用アプリケーションと同様、各ディスクレスPC2毎に、対応する専用LUに共用OS設定情報として格納する。このように共用OSを構成することで、複数ユーザで共用しながらも各ユーザ毎に異なるOS環境を構築でき、また、不正使用の防止等にも配慮できる。
(4) 効果
第一、第二実施形態のようにOSをそれぞれの専用LUに格納すると、インストールやバージョンアップ等のメンテナンスをすべてのLUに対して実施しなくてはならず、管理コストが上昇するが、本実施形態の共用OSを共用LUに格納する方法によれば、メンテナンスを一カ所に集約でき、メンテナンスに要する運用管理コストをさらに低減できるという効果がある。
(D)第四実施形態
○構成
次に第四実施形態を説明する。本発明は図9に示すとおり第一実施形態のストレージ1の構成にキャッシュ18とLUキャッシュ常駐制御部19を設けたものである。
○動作
(1)共用LUの課題
動作を説明する。上記第二、第三実施形態で説明したとおり、共用LUに共用アプリケーションや共用OSを格納することで、管理コストを低減することができる。一方、ディスクレスPC2からのアクセスが同一LUに集中することになり、性能低下が発生するという新たな課題が発生する。そこで、この性能低下を解決する方法を提供する。
(2)キャッシュ
キャッシュ18は一般にDRAMで構成した回路であり、中央制御装置11の制御によりLUと上位計算機の中間に位置してアクセス高速化を実現する。リードアクセス要求発生した場合には、LUのデータのコピーがキャッシュ18に存在する場合(キャッシュヒット)にはディスクアクセスを行うことなくキャッシュ18から上位計算機にデータを転送することができる。また、ライトアクセス要求が発生した場合には、ディスクアクセスを行うことなくライトデータを一時保存しアクセスを終了することができる。このライトデータはいずれLUに書き戻す必要がある。この書き戻し処理のことを遅延ライトと呼ぶ。
(3)キャッシュ常駐制御部
キャッシュ常駐制御部19は、第二、第三実施形態の共用LUの全部もしくは一部のデータをキャッシュに格納するとともに、ひとたびキャッシュ18に格納したならば、常時キャッシュ上に当該データを保持し続けるようキャッシュ18を制御する。また、アクセス制御部16からアクセスのヒットミス判定要求があった際には、キャッシュを検査し、ヒット、ミスを判定する。
図10は LUN管理テーブル14の構成図である。第一から第三実施形態のLUN管理テーブル14との相違点は、「キャッシュ属性」のフィールドを備えていることである。
第一実施形態と同様に、管理者は管理コンソール4からLUの定義・作成作業を行う際に、キャッシュ属性も指定する。同図においては共用アプリケーションや共用OSを格納する共用LU170(内部LUN=0)に「常駐」属性を設定している。一方、その他の専用LUに対しては「通常」属性を設定している。
通常、キャッシュ制御にはLRU(Least Recent Use)方式が使用される。これはキャッシュ18上に存在するデータのうち、最も最近に使われなかったデータから順番に廃棄し、新しいデータを格納する方法である。これにより、少ないキャッシュ容量で効果的にキャッシュヒット率を向上させることができる。
一方、本実施形態のLUキャッシュ常駐は、LRUによらずに指定LUのデータに関しては、ひとたびキャッシュ18にデータを格納したならば、これを廃棄せずに保持し続ける方法である。このような制御を行うことで、たとえばディスクレスPC#0(2a)がある共用アプリケーションを使用した際に、キャッシュ18がこのアプリケーションを格納すると、次に他のディスクレスPC#1(2b)が同一の共用アプリケーションを使用する際に、かならずキャッシュヒットによる高速アクセスを実現できる。もし、LRU方式による制御を行うと、キャッシュ18にはディスクレスPC #0(2a)が使用したデータや、その他のアプリケーションが格納され、上記の共用アプリケーションはキャッシュ18上から廃棄されてしまう可能性がある。この場合、ディスクレスPC#1(2b)が同共用アプリケーションを使用するときに、再びキャッシュ18が格納し直すことになり、キャッシュが効果的に作用しないことになる。
上記の説明では、キャッシュ18には共用LUのデータのみを常駐指定するとして説明したが、キャッシュ容量が十分に確保できるときや、意図をもって特定のディスクレスPC2の高速化を特に図りたい際などには専用LUをキャッシュ指定することももちろん可能である。
(4)効果
本実施形態によれば、共用LUに格納する一部または全部の内容をキャッシュ常駐することができ、その結果、共用アプリケーションや共用OSをアクセス性能の高速なキャッシュ上に常駐することができるので、1台のディスクレスPC2がひとたび共用アプリケーションや共用OSを使用すると、それ以降には他のディスクレスPCが同一アプリケーションや同一OSを使用した際に非常に速いアクセス性能を得ることができるという効果がある。これにより、アプリケーション、OSの運用管理コストの低減に加え、高性能化をも実現することができるという効果がある。また、ディスク装置に比べ遥かに高速なキャッシュを活用するので、各PCが内蔵ディスク装置にOSやアプリケーションを格納するときのアクセス速度に比べ高速化できるという効果がある。
第一実施形態のクライアント計算機システムの構成図。 第一実施形態のディスクレスPCの構成図。 第一実施形態のストレージの構成図。 第一実施形態の管理コンソールの構成図。 第一実施形態のLUN管理テーブルの構成図。 第一実施形態のディスクレスPCとLUの関係を示す図。 第二実施形態のディスクレスPCとLUの関係を示す図。 第三実施形態のディスクレスPCとLUの関係を示す図。 第四実施形態のストレージの構成図。 第四実施形態のLUN管理テーブルの構成図。 従来の技術のNCシステムの構成図。
符号の説明
1…ストレージ
11…中央制御装置
12…LU定義部
13…通信制御回路
14…LUN管理テーブル
15…ファイバチャネルI/F制御回路
16…アクセス制御部
17...LU
18…キャッシュ
19…LUキャッシュ常駐制御部
2…ディスクレスPC
21…中央制御装置
22…ファイバチャネルI/F制御回路
23…入出力装置
221…ブートアップ制御回路
3…ファイバチャネル接続回路
4…管理コンソール
41…中央制御装置
42…入出力装置
43…通信制御回路
44…LU管理部
45…ファイバチャネルI/F制御回路
46…ローカルディスク
5…ファイバチャネル
6…通信経路

Claims (12)

  1. 複数の計算機と、
    前記複数の計算機に接続されるストレージシステムとを有し、
    前記ストレージシステムは、複数の論理ユニットを有しており、
    複数の計算機に対して、前記複数の論理ユニットのうち共有となる論理ユニットが設定されており、
    各論理ユニットには内部論理ユニット番号及び仮想論理ユニット番号が割り当てられており、
    内部論理ユニット番号は、前記ストレージシステム内で論理ユニットを管理するために用いられる番号であり、前記複数の論理ユニットには各々異なる内部論理ユニット番号が割り当てられており、
    仮想論理ユニット番号は、計算機からアクセスする論理ユニットを確認するために当該計算機によって使用される番号であり、
    各計算機からアクセスされる各計算機ごとの一以上の論理ユニットには、各計算機ごとに0から始まる仮想論理ユニット番号が割り当てられており、仮想論理ユニット番号0は各計算機ごとに複数の計算機に共有となる論理ユニットに割り当てられていることを特徴とするシステム。
  2. 請求項1記載のシステムであって、
    前記ストレージシステムは、内部論理ユニット番号と、仮想論理ユニット番号と、当該仮想論理ユニット番号を使用する計算機との対応関係を記憶していることを特徴とするシステム。
  3. 請求項2記載のシステムであって、
    前記複数の計算機は各々、当該計算機からアクセス可能な論理ユニットをサーチする際に、仮想論理ユニット番号が0である論理ユニットからサーチを始めて、連続する仮想論理ユニット番号の論理ユニットのサーチを行なうことを特徴とするシステム。
  4. 請求項1記載のシステムであって、
    前記複数の計算機は各々、当該計算機からアクセスする論理ユニットをサーチし、検出した論理ユニットに格納されているオペレーティングシステムのブートアップ処理を実行することを特徴とするシステム。
  5. 請求項1記載のシステムであって、
    各計算機は、仮想論理ユニット番号が0である複数の計算機に共有の論理ユニットに格納されているオペレーティングシステムのブートアップ処理を行うことを特徴とするシステム。
  6. 複数の計算機に接続されるストレージシステムであって、
    制御装置と、
    複数の論理ユニットとを有しており、
    複数の計算機に対し、前記複数の論理ユニットのうち、共有となる論理ユニットが設定されており、
    各論理ユニットには内部論理ユニット番号及び仮想論理ユニット番号が割り当てられており、
    内部論理ユニット番号は、前記ストレージシステム内で論理ユニットを管理するために用いられる番号であり、
    仮想論理ユニット番号は、各計算機が当該計算機からアクセスする論理ユニットを確認する際に用いられる番号であり、
    各計算機からアクセスされる各計算機ごとの一以上の論理ユニットには、各計算機ごとに0から始まる仮想論理ユニット番号が割り当てられており、仮想論理ユニット番号0は各計算機ごとに複数の計算機に共有となる論理ユニットに割り当てられていることを特徴とするストレージシステム。
  7. 請求項6記載のストレージシステムであって、
    前記制御装置は、内部論理ユニット番号と、仮想論理ユニット番号と、当該仮想論理ユニット番号を用いる計算機との対応関係を記憶していることを特徴とするストレージシステム。
  8. 請求項6記載のストレージシステムであって、
    複数の計算機に共有となる論理ユニットには、複数の計算機によって使用されるオペレーティングシステムが格納されていることを特徴とするストレージシステム。
  9. 複数の計算機による、複数の論理ユニットを有するストレージシステムの使用方法であって、
    前記ストレージシステム内で論理ユニットを管理するために用いられる内部論理ユニット番号を、前記複数の論理ユニットの各々に付与する内部論理ユニット番号付与ステップと、
    前記複数の論理ユニット各々について、当該論理ユニットにアクセスする計算機を設定するステップと、
    前記複数の計算機各々が当該計算機からアクセスする論理ユニットを検出する際に用いられる仮想論理ユニット番号を、前記複数の論理ユニットのうち当該計算機からアクセスする論理ユニットに対して付与する仮想論理ユニット番号付与ステップと、
    前記複数の計算機のそれぞれについて、当該計算機からアクセスする論理ユニットを、前記仮想論理ユニット番号を用いて検出する論理ユニット検出ステップとを有し、
    前記仮想論理ユニット番号付与ステップは、各計算機からアクセスする各計算機ごとの一以上の論理ユニットに、各計算機ごとに0から始まる仮想論理ユニット番号を付与するステップと、及び、仮想論理ユニット番号0は複数の計算機に共有となる論理ユニットに付与されるステップを含むことを特徴とする、ストレージシステムの使用方法。
  10. 請求項9記載のストレージシステムの使用方法であって、
    更に、前記ストレージシステムに、内部論理ユニット番号と、仮想論理ユニット番号と、当該仮想論理ユニット番号を使用する計算機との対応関係を記憶させるステップを有することを特徴とするストレージシステムの使用方法。
  11. 請求項10記載のストレージシステムの使用方法であって、
    前記論理ユニット検出ステップは、各計算機が、仮想論理ユニット番号が0の論理ユニットからサーチを始めて、連続する仮想論理ユニット番号の論理ユニットのサーチを行い、ある仮想論理ユニット番号の論理ユニットについて当該論理ユニットが存在しない旨の応答を受信した場合に、論理ユニットのサーチを停止するステップを含むことを特徴とするストレージシステムの使用方法。
  12. 請求項9記載のストレージシステムの使用方法であって、
    更に、前記複数の計算機が各々、当該計算機によって検出された仮想論理ユニット番号が0の論理ユニットに格納されているオペレーティングシステムのブートアップ処理を実行するステップを有することを特徴とするストレージシステムの使用方法。
JP2005124417A 2005-04-22 2005-04-22 計算機システム Expired - Fee Related JP3897049B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005124417A JP3897049B2 (ja) 2005-04-22 2005-04-22 計算機システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005124417A JP3897049B2 (ja) 2005-04-22 2005-04-22 計算機システム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP06601999A Division JP3837953B2 (ja) 1999-03-12 1999-03-12 計算機システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2006242264A Division JP4438785B2 (ja) 2006-09-07 2006-09-07 計算機システム

Publications (3)

Publication Number Publication Date
JP2005276233A JP2005276233A (ja) 2005-10-06
JP2005276233A5 JP2005276233A5 (ja) 2006-04-27
JP3897049B2 true JP3897049B2 (ja) 2007-03-22

Family

ID=35175753

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005124417A Expired - Fee Related JP3897049B2 (ja) 2005-04-22 2005-04-22 計算機システム

Country Status (1)

Country Link
JP (1) JP3897049B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9003000B2 (en) * 2006-07-25 2015-04-07 Nvidia Corporation System and method for operating system installation on a diskless computing platform
US8909746B2 (en) 2006-07-25 2014-12-09 Nvidia Corporation System and method for operating system installation on a diskless computing platform
JP4871758B2 (ja) * 2007-02-26 2012-02-08 株式会社日立製作所 ボリューム割当方式

Also Published As

Publication number Publication date
JP2005276233A (ja) 2005-10-06

Similar Documents

Publication Publication Date Title
JP3837953B2 (ja) 計算機システム
EP1837751B1 (en) Storage system, storage extent release method and storage apparatus
US6810462B2 (en) Storage system and method using interface control devices of different types
US7185169B2 (en) Virtual physical drives
US8510517B2 (en) Storage device and control method for managing resources of a storage system
US20040088513A1 (en) Controller for partition-level security and backup
US9262087B2 (en) Non-disruptive configuration of a virtualization controller in a data storage system
US20090307444A1 (en) Systems and Methods For Virtualizing Storage For WPAR Clients Using Node Port ID Virtualization
JP2004220450A (ja) ストレージ装置、その導入方法、及びその導入プログラム
US8286163B2 (en) Coupling between server and storage apparatus using detected I/O adaptor and allowing application execution based on access group and port connection group in virtualized environment
JP4175083B2 (ja) 記憶装置の管理用計算機、およびプログラム
US7082462B1 (en) Method and system of managing an access to a private logical unit of a storage system
JP3897049B2 (ja) 計算機システム
US6842810B1 (en) Restricted access devices
JP4438785B2 (ja) 計算機システム
US11100027B1 (en) Storage device protocol dual personality
JP2005322254A (ja) 計算機システム、及び該計算機システムに用いられる計算機並びに記憶装置
JP4564035B2 (ja) 計算機システム、及び該計算機システムに用いられる計算機並びに記憶装置
JP4723532B2 (ja) 計算機システム、及び該計算機システムに用いられる計算機並びに記憶装置

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060309

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060309

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060711

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061211

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110105

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120105

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130105

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees