JP2015069524A - 情報処理装置、ストレージ制御装置、及びプログラム - Google Patents

情報処理装置、ストレージ制御装置、及びプログラム Download PDF

Info

Publication number
JP2015069524A
JP2015069524A JP2013204657A JP2013204657A JP2015069524A JP 2015069524 A JP2015069524 A JP 2015069524A JP 2013204657 A JP2013204657 A JP 2013204657A JP 2013204657 A JP2013204657 A JP 2013204657A JP 2015069524 A JP2015069524 A JP 2015069524A
Authority
JP
Japan
Prior art keywords
maintenance
operating system
control
devices
storage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013204657A
Other languages
English (en)
Other versions
JP6244786B2 (ja
Inventor
伸幸 七野
Nobuyuki Nanano
伸幸 七野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013204657A priority Critical patent/JP6244786B2/ja
Priority to EP20140181382 priority patent/EP2854016A1/en
Priority to US14/477,926 priority patent/US9547501B2/en
Publication of JP2015069524A publication Critical patent/JP2015069524A/ja
Application granted granted Critical
Publication of JP6244786B2 publication Critical patent/JP6244786B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/4401Bootstrapping
    • G06F9/4411Configuring for operating with peripheral devices; Loading of device drivers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/10Program control for peripheral devices
    • G06F13/102Program control for peripheral devices where the programme performs an interfacing function, e.g. device driver
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • G06F3/0605Improving or facilitating administration, e.g. storage management by facilitating the interaction with a user or administrator
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0634Configuration or reconfiguration of storage systems by changing the state or mode of one or more devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1097Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45579I/O management, e.g. providing access to device drivers or storage

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Stored Programmes (AREA)
  • Hardware Redundancy (AREA)

Abstract

【課題】複数のオペレーティングシステムによって管理されるそれぞれのデバイスに対応するデバイスの保守制御の効率化を図る。【解決手段】本情報処理装置は、第1OS12によって管理される第1デバイス20a,20bと、第2OS13によって管理される第2デバイス30a,30bと、処理部とを備える。前記処理部は、第1OS12と第2OS13とを動作させ、第1OS12に対して、第1デバイス20a,20bに対応する第1保守ドライバ21a,21bをロードさせ、第1保守ドライバ21a,21bに第1デバイス20a,20bの保守制御を実行させ、第1OS12に対して、第2デバイス30a,30bに対応する第2保守ドライバ32a,32bをロードさせ、第2保守ドライバ32a,32bに第2デバイス30a,30bの保守制御を実行させる。【選択図】図3

Description

本発明は、情報処理装置、ストレージ制御装置、及びプログラムに関する。
ネットワークストレージシステムとして、NAS(Network Attached Storage)やSAN(Storage Area Network)が知られている
既存のイーサネット(登録商標)ネットワークに接続するNASは、SANに比べて管理は簡単だが、性能面で劣り、又、容量不足に陥ることが多い。一方、SANは、一般にNASに比べて高速で、より多くのデータ保存が可能だが高価である。
これらのNASとSANとのそれぞれの長所をうまく組み合わせ、データ保存の効率向上およびコスト削減を図るために、SANとNASとの統合が実現されつつある。
このとき、SAN用デバイスは、SAN用オペレーティングシステム(Operating System;OS)の制御下に置かれ、NAS用デバイスは、NAS用OSの制御下に置かれる。しかし、両OS制御下のデバイスは、統合ストレージ装置のハードウェアとして実装されているので、各デバイスに対する保守は、共通の保守手順で行ないたい。なぜならば、OS毎に保守ガイド画面の構成や保守手順が異なると、ユーザにとって使用し難いためである。
特開2011−65551号公報 特開2012−9029号公報 特開2000−207232号公報
したがって、複数のOSに対して保守制御機能を二重に実装しなければならず非効率的であるという課題がある。
一つの側面で、本発明は、複数のオペレーティングシステムによって管理されるそれぞれのデバイスに対応するデバイスの保守制御の効率化を図ることを目的とする。
なお、前記目的に限らず、後述する発明を実施するための最良の形態に示す各構成により導かれる作用効果であって、従来の技術によっては得られない作用効果を奏することも本件の他の目的の一つとして位置付けることができる。
本件の情報処理装置は、第1オペレーティングシステムによって管理される第1デバイスと、第2オペレーティングシステムによって管理される第2デバイスと、処理部とを備える。前記処理部は、前記第1オペレーティングシステムと前記第2オペレーティングシステムとを動作させ、前記第1オペレーティングシステムに対して、前記第1デバイスに対応する第1保守ドライバをロードさせ、前記第1保守ドライバに前記第1デバイスの保守制御を実行させ、前記第1オペレーティングシステムに対して、前記第2デバイスに対応する第2保守ドライバをロードさせ、前記第2保守ドライバに前記第2デバイスの保守制御を実行させる。
一実施形態によれば、複数のオペレーティングシステムによって管理されるそれぞれのデバイスに対応するデバイスの保守制御の効率化を図ることができる。
本実施形態のストレージ制御装置(情報処理装置)を含むストレージ装置のハードウェア構成を模式的に示す図である。 シングルOSのストレージ制御装置(情報処理装置)におけるOSを模式的に示す図である。 本実施形態のストレージ制御装置(情報処理装置)におけるハイパバイザ上の複数のOSを模式的に示す図である。 図1に示すストレージ制御装置(情報処理装置)における保守ドライバ(第2保守ドライバ)の動作を説明するフローチャートである。 図1に示すストレージ制御装置(情報処理装置)による起動シーケンスを説明する図である。 図1に示すストレージ制御装置(情報処理装置)による活性増設シーケンスを説明する図である。 図1に示すストレージ制御装置(情報処理装置)によるLinux稼動中の活性交換シーケンスを説明する図である。 図1に示すストレージ制御装置(情報処理装置)によるLinux停止中の活性交換シーケンスを説明する図である。
以下に、図面を参照し、本願の開示する情報処理装置、ストレージ制御装置、及びプログラムの実施形態について、詳細に説明する。ただし、以下に示す実施形態は、あくまでも例示に過ぎず、実施形態で明示しない種々の変形例や技術の適用を排除する意図はない。すなわち、本実施形態を、その趣旨を逸脱しない範囲で種々変形して実施することができる。また、各図は、図中に示す構成要素のみを備えるという趣旨ではなく、他の機能を含むことができる。そして、各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
〔1〕本実施形態のストレージ制御装置(情報処理装置)の構成
まず、図2を参照しながら、シングルOSのストレージ制御装置(情報処理装置)におけるOSについて説明する。なお、図2は、当該ストレージ制御装置におけるOSを模式的に示す図である。
図2では、例えば、ストレージ制御装置のCPU(Central Processing Unit)においてVxWorks(登録商標)のシングルOS112が動作する場合が示されている。VxWorksは、SAN制御を行なうSAN用OSの一例である。また、図2では、OS112には、VxWorks用のデバイス120a〜120cが接続されている。VxWorks用のデバイス120a〜120cは、例えばNIC(Network Interface Card),FC(Fibre Channel)カードであり、OS112によって管理される。
このとき、OS112は、デバイス120a〜120c用のデバイスドライバ121a〜121cを有している。ここで用いられるデバイスドライバ121a〜121cは、フル機能ドライバである。フル機能ドライバは、起動時や保守時のデバイスの制御に使用される保守機能と、運用時のデバイス120a〜120cの制御に使用されるデバイスドライバ機能とを有する。ここで、保守機能は、各デバイス120a〜120cの状態を通知するなどの保守制御に有用な機能を実現する。また、デバイスドライバ機能とは、デバイス120a〜120cが例えばNICであれば、通信制御がデバイス120a〜120cをデバイスとして使用する機能にあたる。
こようなSAN用OS112を備えたSAN装置にNAS(Network Attached Storage)機能を追加するには、以下の手法が用いられる。その手法では、仮想化OS(ハイパバイザシステム)を導入し、一つのシステムハードウェア上にVxWorksとLinux(登録商標)との二つのOSを搭載し、一方のOS(Linux)にNAS機能(例えばNFS(Network File System),Samba)を実装することである。これにより、SAN機能とNAS機能との両方をもつ統合ストレージ装置(Unified Storage)が実現される。
NAS機能のソフトウェアは、Linux上に安定したものがあるので、上記手法は合理的な手法である。ただし、NAS機能によって使用されるディスクは、VxWroks側にあるので、Linuxで受け取ったデータは、SAN機能によってVxWorks側のディスクに書き込まれる。
このとき、NAS用に新たにデバイス(例えばNIC)を追加すると、当該デバイスは、Linuxの制御下に置かれる。しかし、当該デバイスは統合ストレージ装置のハードウェアとして実装されているので、当該デバイスに対する保守は、当該デバイスを追加する前のVxWorksによる保守手順で行ないたい。なぜならば、OS毎に保守ガイド画面の構成や保守手順が異なると、ユーザにとって使用し難いためである。
つまり、NAS用に追加したデバイスについても、VxWorks上に実装されている保守制御機能と同じものが必要になる。そのため、
(1)保守に関する制御は、全てVxWorksで行なうか、もしくは、
(2)Linux側に、VxWorksに実装された保守制御機能と同じ保守制御機能を実装する、
必要がある。
しかしながら、上記(1)のように保守に関する制御を全てVxWorksで行なう場合、VxWorks側で必要とする情報の全てをLinuxが採取してVxWorksに通知しなければならない。また、例えばLinuxが停止している場合、VxWorksが望む情報を、VxWorksが望むタイミングで採取することができない。
また、上記(2)のように、Linux側に、VxWorksに実装された保守制御機能と同じ保守制御機能を実装する場合、VxWorksとLinuxとの両方でしたがって、複数のOSに対して共通の保守制御機能を二重に開発実装しなければならず非効率的である。
さらに、上記(1)および(2)に共通する課題として、以下のような課題がある。上述した統合ストレージ装置のようなシステム構成では、ディスクはVxWorks側で管理されており、二つのOSのうちLinuxだけが生き残ってもディスクがなくLinuxは機能できないため、Linuxだけが生き残ることはない。しかし、ディスクはVxWorks側で管理されているので、VxWorksだけが生き残る場合はある。その場合、Linuxが停止しているときでも、Linux側のデバイスの保守を可能にすることが望ましい。
以上の点から、上述した統合ストレージ装置のようなシステム構成において、Linux側に追加されるデバイスについての保守機能を、Linux側にもたせることは非合理であるといえる。
以下、図1を参照しながら、本実施形態のストレージ制御装置(情報処理装置)100を含むストレージ装置1について説明する。なお、図1は、本実施形態のストレージ制御装置100を含むストレージ装置1のハードウェア構成を模式的に示す図である。
本ストレージ装置1は、ドライブエンクロージャ(DE:Drive Enclosure;ストレージユニット)300に格納された記憶装置310を仮想化して、仮想ストレージ環境を形成する。そしてストレージ装置1は、仮想ボリュームを上位装置である図示しないホスト装置に提供する。
本ストレージ装置1は、1以上のホスト装置(図示略)に対して通信可能に接続されている。ホスト装置とストレージ装置1とは、後述するCA(Communication Adapter)101,102により接続されている。
ホスト装置は、例えば、サーバ機能をそなえた情報処理装置であり、本ストレージ装置1との間において、NASやSANのコマンドを送受信する。このホスト装置は、例えば、ストレージ装置1に対してNASにおけるリード/ライト等のディスクアクセスコマンドを送信することにより、ストレージ装置1が提供するボリュームにデータの書き込みや読み出しを行なう。
そして、本ストレージ装置1は、ホスト装置からボリュームに対して行なわれる入出力要求(例えば、リードコマンドやライトコマンド)に応じて、このボリュームに対応する実ストレージに対して、データの読み出しや書き込み等の処理を行なう。なお、ホスト装置からの入出力要求のことをI/OコマンドもしくはI/O要求という場合がある。
本ストレージ装置1は、図1に示すように、複数(本実施形態では2つ)のCM(Controller Module)100を含むコントローラエンクロージャ400と、1つ以上(図1に示す例では1つ)のドライブエンクロージャ300とをそなえる。
ドライブエンクロージャ(ストレージユニット)300は、1以上(図1に示す例では4つ)の記憶装置(物理ディスク;ストレージユニット)310を搭載可能であり、これらの記憶装置310の記憶領域(実ボリューム,実ストレージ)を、本ストレージ装置1に対して提供する。
例えば、ドライブエンクロージャ300は、複数段のスロット(図示略)をそなえ、これらのスロットに、HDD(Hard Disk Drive)やSSD(Solid State Drive)等の記憶装置310を挿入することにより、実ボリューム容量を随時変更することができる。又、複数の記憶装置310を用いてRAID(Redundant Arrays of Inexpensive Disks)を構成することができる。
ドライブエンクロージャ300は、各CM100における複数(本実施形態では2つ)のデバイスアダプタ(Device Adapter:DA)103のそれぞれに接続されている。そして、ドライブエンクロージャ300には、各CM100からアクセスして、データの書き込みや読み出しを行なうことができる。すなわち、ドライブエンクロージャ300の記憶装置310に対して、各CM100を接続することにより、記憶装置310へのアクセス経路が冗長化される。
コントローラエンクロージャ400は、1以上(図1に示す例では2つ)のCM100を備える。
各CM100は、ストレージ装置1内の動作を制御するコントローラ(ストレージ制御装置)であり、ホスト装置から送信されるI/Oコマンドに従って、ドライブエンクロージャ300の記憶装置310へのアクセス制御等、各種制御を行なう。また、各CM100は互いにほぼ同様の構成を有している。
なお、図中、同一の符号は同一もしくは略同一の部分を示しているので、その詳細な説明は省略する。
各CM100は二重化されており、通常は、一方のCM100がプライマリとして各種制御を行なう。しかし、このプライマリCM100の故障時には、セカンダリのCM100がプライマリとして動作を引き継ぐ。
各CM100はCA101,102を介して、それぞれホスト装置に接続される。そして、各CM100は、ホスト装置から送信されるリード/ライト等のコマンドを受信し、DA103等を介して記憶装置310の制御を行なう。また、各CM100は、PCI (Peripheral Component Interconnect) Express 等の図示しないインタフェースを介して相互に接続されている。
CM100は、図1に示すように、CA101,102と複数(図1に示す例では2つ)のDA103,103とをそなえるとともに、CPU(Central Processing Unit)110,メモリ106,SSD107,IOC108およびスロット109をそなえる。
CA101,102は、ホスト装置等から送信されたデータを受信したり、CM100から出力するデータをホスト装置等に送信する。すなわち、CA101,102は、ホスト装置等の外部装置との間でのデータの入出力(I/O)を制御する。
CA101は、NASを介してホスト装置と通信可能に接続するネットワークアダプタであり、例えば、LAN(Local Area Network)インタフェース等である。
各CM100は、このCA101により図示しない通信回線を介してホスト装置等とNASにより接続され、I/Oコマンドの受信やデータの送受信等を行なう。図1に示す例においては、各CM100に2つのCA101,101がそなえられている。
CA102は、SANを介してホスト装置と通信可能に接続するネットワークアダプタであり、例えば、iSCSIインタフェースやFCインタフェースである。
CM100は、CA102により図示しない通信回線を介してホスト装置等とSANにより接続され、I/Oコマンドの受信やデータの送受信等を行なう。図1に示す例においては、各CM100に1つのCA102がそなえられている。
DA103は、ドライブエンクロージャ300や記憶装置310等と通信可能に接続するためのインタフェースである。DA103は、ドライブエンクロージャ300の記憶装置310が接続され、各CM100は、ホスト装置から受信したI/Oコマンドに基づき、記憶装置310に対するアクセス制御を行なう。
各CM100は、DA103を介して、記憶装置310に対するデータの書き込みや読み出しを行なう。また、図1に示す例においては、各CM100に2つのDA103,103がそなえられている。そして、各CM100において、各DA103にドライブエンクロージャ300が接続されている。
これにより、ドライブエンクロージャ300の記憶装置310には、各CM100からデータの書き込みや読み出しを行なうことができる。
SSD107は、CPU110が実行するプログラムや種々のデータ等を格納する記憶装置である。
メモリ106は、種々のデータやプログラムを一時的に格納する記憶装置であり、図示しないメモリ領域とキャッシュ領域とをそなえる。キャッシュ領域は、ホスト装置から受信したデータや、ホスト装置に対して送信するデータを一時的に格納する。メモリ領域には、CPU110がプログラムを実行する際に、データやプログラムを一時的に格納・展開して用いる。なお、プログラムは、CPU110を、図3を参照しながら後述する処理部として機能させるアプリケーションプログラムを含む。
IOC(Input Output Controller)108は、CM100内におけるデータ転送を制御する制御装置であり、例えば、メモリ106に格納されたデータをCPU110を介することなく転送させるDMA転送(Direct Memory Access)を実現する。
スロット109は、NIC等のデバイス20a,20b,30a,30bを挿入接続されるもので、必要に応じて、デバイス20a,20b,30a,30bを挿抜可能に構成されている。図1では、スロット109には一つだけ図示されているが、実際には、2以上のスロット109がそなえられ、各スロット109に対し、一つのカード状デバイスが挿抜される。
CPU110は、種々の制御や演算を行なう処理装置であり、マルチコアプロセッサ(マルチCPU)である。CPU110は、SSD107等に格納されたOSやプログラムを実行することにより、図3を参照しながら後述する処理部としての機能を含む種々の機能を実現する。
CPU110は、仮想化OSであるハイパバイザ(Hypervisor)11(図3参照)を実行し、このハイパバイザ11上で複数の仮想マシン(Virtual Machine;VM)を実行することで複数のOS12,13(図3参照)を実行させることができる。複数のゲストOS12,13はCPU110やメモリ106,SSD107,スロット109等のハードウェア資源を共有することができる。
なお、各CM100において複数のCPU110を備え、これらの複数のCPU110上でハイパバイザ11を実行してもよい。
次に、図3を参照しながら、本実施形態の各CM100におけるハイパバイザ11上の複数(本実施形態では2つ)のOS12,13について説明する。図3は、本実施形態の各CM100におけるハイパバイザ11上の複数のOS12,13を模式的に示す図である。本実施形態においては、図3に示すように、ハイパバイザ11上で、SAN用OS(第1OS)12とNAS用OS(第2OS)13とを実行する。
SAN用OS12は、SAN制御を行なうもので、NIC,FCカード等の第1デバイス20a,20bを管理する。なお、図3では、2つの第1デバイス20a,20bが図示されているが、本発明はこれに限定されるものではなく、第1デバイスは、1つだけそなえられてもよいし、3以上そなえられてもよい。
NAS用OS13は、NAS制御を行なうもので、NIC等の第2デバイス30a,30bを管理する。なお、図3では、2つの第2デバイス30a,30bが図示されているが、本発明はこれに限定されるものではなく、第2デバイスは、1つだけそなえられてもよいし、3以上そなえられてもよい。
そして、本実施形態の各CM100におけるCPU110は、以下のような処理部として機能する。
つまり、当該処理部は、SAN用OS12とNAS用OS13とを動作させる。また、当該処理部は、SAN用OS12に対して、第1デバイス20a,20bにそれぞれ対応する第1保守ドライバ21a,21bをロードさせ、当該第1保守ドライバ21a,21bにそれぞれ第1デバイス20a,20bの保守制御を実行させる。さらに、当該処理部は、SAN用OS12に対して、第2デバイス30a,30bにそれぞれ対応する第2保守ドライバ32a,32bをロードさせ、当該第2保守ドライバ32a,32bにそれぞれ第2デバイス30a,30bの保守制御を実行させる。
また、当該処理部は、NAS用OS13の動作の停止中に、SAN用OS12に対して、第2保守ドライバ32a,32bを用いて、それぞれ、第2デバイス30a,30bに係る情報を取得し、第2デバイス30a,30bの保守制御を実行させる。さらに、当該処理部は、NAS用OS13の動作の停止中に、SAN用OS12に対して、第2保守ドライバ32a,32bを用いて、それぞれ、第2デバイス30a,30bの設定制御を実行させる。
また、第1保守ドライバ21a,21bは、SAN用OS12が行なう第1デバイス20a,20bの運用時の制御に使用される制御機能(デバイスドライバ機能)を含んでいる。つまり、第1保守ドライバ21a,21bは、フル機能ドライバであり、起動時や保守時のデバイスの制御に使用される保守機能と、運用時の第1デバイス20a,20bの制御に使用されるデバイスドライバ機能(制御ドライバ)とを有する。ここで、保守機能は、第1デバイス20a,20bの状態を通知するなどの保守制御に有用な機能を実現する。また、デバイスドライバ機能とは、第1デバイス20a,20bが例えばNICであれば、通信制御が第1デバイス20a,20bをデバイスとして使用する機能にあたる。
さらに、上記処理部は、NAS用OS13に対して、第2デバイス30a,30bにそれぞれ対応する制御ドライバ31a,31bをロードさせる。ここで、制御ドライバ31a,31bは、NAS用OS13が行なう第2デバイス30a,30bの運用時の制御に使用されるものである。したがって、SAN用OS12に対してロードされた第2保守ドライバ32a,32bは、それぞれ、第1デバイス20a,20bの状態を通知するなどの保守制御に有用な機能を実現する保守機能のみを有する。また、NAS用OS13に対してロードされた制御ドライバ31a,31bは、それぞれ、運用時の第2デバイス30a,30bの制御に使用されるデバイスドライバ機能を有する。
なお、図3に示すように、本実施形態の各CM(ストレージ制御装置)100のCPU110においては、ハイパバイザ11上に第1仮想マシンおよび第2仮想マシンが構築される。そして、第1仮想マシンには、SAN制御を行なうSAN用OS(例えばVxWorks;第1OS)12が搭載され、第2仮想マシンには、NAS制御を行なうNAS用OS(例えばLinux;第2OS)13が搭載される。
また、図3では、SAN用OS12には、VxWorks用のデバイス(第1デバイス)20a,20bが接続されている。VxWorks用のデバイス20a,20bは、例えばNIC,FCカードであり、SAN用OS12によって管理される。同様に、図1では、NAS用OS13には、Linux用のデバイス(第2デバイス)30a,30bが接続されている。Linux用のデバイス30a,30bは、例えばNICであり、NAS用OS13によって管理される。
上述の構成により、SAN用OS12は、第2保守ドライバ32a,32bの保守機能を用いて、それぞれ、第2デバイス30a,30bに係る情報を取得し、第2デバイス30a,30bの保守制御を行なう。
また、SAN用OS12は、第2保守ドライバ32a,32bを用いて、第2デバイス30a,30bの設定制御、例えばPCI Configuration(PCI構成)設定/リソース配置設定を行なう。
つまり、SAN用OS(VxWorks)12は、SAN用OS12上の制御ドライバ31a,31bを通して、NAS用OS(Linux)13の管理下における第2デバイス30a,30bの情報を取得する。
これにより、SAN用OS(VxWorks)12は、取得した情報を用い、SAN用OS(VxWorks)12の管理下における第1デバイス20a,20bに対する保守制御等の手順と同様にして、NAS用OS(Linux)13の管理下における第2デバイス30a,30bに対する保守制御等を行なう。このとき、保守制御等の仲立ちはハイパバイザ11によって行なわれる。
また、本実施形態では、NAS用OS13であるLinux側の第2デバイス30a,30bの設定を、SAN用OS12であるVxWorks側から制御することができる。ここで、第2デバイス30a,30bとしてはPCI-Expressデバイスを想定している。PCI-ExpressのリソースはLinuxとVxWorksとで共用されており、リソースを自由に設定するとリソースの衝突が生じるため、Linuxは、PCI-Expressのリソースを自由に設定することはできないようになっている。しかし、本実施形態では、Linuxの起動前にPCI構成設定を済ませることで、リソースの衝突を発生させることなく、Linux側のリソース使用を制御することができる。
〔2〕本実施形態のストレージ制御装置(情報処理装置)の動作
次に、上述のごとく構成された本実施形態のストレージ制御装置(情報処理装置)であるCM100の動作について、図4〜図8を参照しながら説明する。
まず、図4に示すフローチャート(ステップS1〜S5)に従って、本実施形態のCM100における第2保守ドライバ32a,32bの動作について説明する。
第2保守ドライバ32a,32bは、SAN用OS12において情報採取の要求の有無を判断する(ステップS1)。第2保守ドライバ32a,32bは、SAN用OS12において情報採取の要求を受けると(ステップS1のYESルート)、それぞれ第2デバイス30a,30bに係る情報を取得する(ステップS2)。そして、保守ドライバ32a,32bは、採取した情報を要求元に受け渡したり、保守用の情報としてメモリ40等に記憶する(ステップS3)。この後、第2保守ドライバ32a,32bは、ステップS1の処理に戻る。
また、情報採取の要求が無い場合(ステップS1のNOルート)、第2保守ドライバ32a,32bは、SAN用OS12において設定要求の有無を判断する(ステップS4)。第2保守ドライバ32a,32bは、SAN用OS12において情報採取の要求を受けると(ステップS4のYESルート)、要求元からの要求内容に従って、それぞれ第2デバイス30a,30bの設定制御、例えばPCI構成設定、あるいは、リソース配置設定を行なう(ステップS5)。この後、第2保守ドライバ32a,32bは、ステップS1の処理に戻る。なお、設定要求が無い場合(ステップS4のNOルート)、第2保守ドライバ32a,32bは、ステップS1の処理に戻る。
次に、図5を参照しながら、図1に示すストレージ制御装置(情報処理装置)であるCM100による起動シーケンス(ステップA1〜A10,A1′,A2′,A6′,A10′)について説明する。
起動時には、第1OS(以下VxWorksという)12Aおよび第2OS(以下Linuxという)13の電源をオンする(ステップA1,A1′)。これにより、VxWorksの起動を開始するとともに(ステップA2)、Linuxも起動するが、Linuxについては、一旦起動した後、一時的に停止する(ステップA2′)。
この後、VxWorksにおいてPCIスキャンが開始される(ステップA3)。そして、PCIスキャンの結果に従って、第1保守ドライバ(フル機能ドライバ)21a,21bや第2保守ドライバ(保守機能)32a,32bがロードされる。また、Linux管理下の第2デバイス30a,30bについて、PCI構成の設定およびデバイス情報の採取が、第2保守ドライバ32a,32bを用いて行なわれ、採取された情報が、保守用の情報としてメモリ106等に記憶される(ステップA4)。
以上で、VxWorks側のPCIデバイスの初期設定を終了し(ステップA5)、Linuxの停止状態(suspend状態)を解除することで(ステップA6)、Linuxの起動が再開される(ステップA6′)。
これに伴い、LinuxにおいてPCIスキャンが開始される(ステップA7)。そして、PCIスキャンの結果に従って、制御ドライバ(デバイスドライバ機能)31a,31bがロードされる。このとき、PCI構成は設定済みであるので、それ以外の制御に必要な設定が実行されるとともに、デバイス情報が採取される(ステップA8)。
以上で、Linux側のPCIデバイスの初期設定を終了し(ステップA9)、VxWorksおよびLinuxは、運用を開始する(ステップA10,A10′)。
次に、図6を参照しながら、図1に示すストレージ制御装置(情報処理装置)であるCM100による活性増設シーケンス(ステップB1〜B10,B1′,B10′)について説明する。
活性増設時には、VxWorksが、PCI-Expressデバイス(第2デバイス)のマウントを検出する(ステップB1)。このとき、Linuxは、デバイスのマウントに気付かずマウントを検出しない(ステップB1′)。
VxWorksは、PCI-Expressデバイスの電源をオンし(ステップB2)、PCIスキャンを開始する(ステップB3)。
そして、PCIスキャンの結果に従って、マウントされたデバイス用の第2保守ドライバ(保守機能のみ)がロードされる。また、Linux側でマウントされた第2デバイスについて、PCI構成の設定およびデバイス情報の採取が、第2保守ドライバを用いて行なわれ、採取された情報が、保守用の情報としてメモリ106等に記憶される(ステップB4)。
以上で、VxWorks側のPCIデバイスの初期設定を終了し(ステップB5)、Linuxに対し、マウントされたデバイスの組込みの開始通知が行なわれる(ステップB6)。
これに伴い、LinuxにおいてPCIスキャンが開始される(ステップB7)。そして、PCIスキャンの結果に従って、マウントされた第2デバイス用の制御ドライバ(デバイスドライバ機能)がロードされる。このとき、PCI構成は設定済みであるので、それ以外の制御に必要な設定が実行されるとともに、デバイス情報が採取される(ステップB8)。
以上で、Linux側のPCIデバイスの初期設定を終了し(ステップB9)、VxWorksおよびLinuxは、新たなデバイスを活性増設した状態で運用を開始する(ステップB10,B10′)。
次に、図7を参照しながら、図1に示すストレージ制御装置(情報処理装置)であるCM100によるLinux稼動中の活性交換シーケンス(ステップC1〜C8)について説明する。
Linux稼動中にデバイス(第2デバイス)の活性交換を行なう場合、VxWorksからLinuxへPCI-Expressデバイスのデグレード通知が行なわれる(ステップC1)。デグレード通知を受けたLinuxは、交換対象のデバイスのドライバ(第2ドライバ)をアンロードし(ステップC2)、デグレード完了通知をVxWorksへ行なう(ステップC3)。
Linuxからデグレード完了通知を受けたVxWorksは、交換対象のデバイスのドライバ(第2保守ドライバ)をアンロードし(ステップC4)、交換対象のPCI-Expressデバイスの電源をオフにする(ステップC5)。
これにより、PCI-Expressデバイスの保守準備が完了し(ステップC6)、交換対象のPCI-Expressデバイスの挿抜が実行される(ステップC7)。つまり、交換対象のデバイスが抜き取られ、新たなデバイスが挿し込まれる。新たなデバイスの挿し込みに応じて、図6の活性増設と同じ処理(ステップB1〜B10,B1′,B10′)が行なわれ(ステップC8)、Linux稼動中の活性交換が完了する。
次に、図8を参照しながら、図1に示すストレージ制御装置(情報処理装置)であるCM100によるLinux停止中の活性交換シーケンス(ステップD1〜D10)について説明する。
Linux停止中にデバイス(第2デバイス)の活性交換を行なう場合、VxWorksは、交換対象のデバイスのドライバ(第2保守ドライバ)をアンロードし(ステップD1)、交換対象のPCI-Expressデバイスの電源をオフにする(ステップD2)。
これにより、PCI-Expressデバイスの保守準備が完了し(ステップD3)、交換対象のPCI-Expressデバイスの挿抜が実行される(ステップD4)。つまり、交換対象のデバイスが抜き取られ、新たなデバイスが挿し込まれる。
新たなデバイスの挿し込みに応じて、VxWorksが、新たなPCI-Expressデバイス(第2デバイス)のマウントを検出する(ステップD5)。これに伴い、VxWorksは、PCI-Expressデバイスの電源をオンし(ステップD6)、PCIスキャンを開始する(ステップD7)。
そして、PCIスキャンの結果に従って、マウントされた第2デバイス用の第2保守ドライバがロードされる。また、マウントされた第2デバイスについて、PCI構成の設定およびデバイス情報の採取が、第2保守ドライバを用いて行なわれ、採取された情報が、保守用の情報としてメモリ106等に記憶される(ステップD8)。
以上で、VxWorks側のPCIデバイスの初期設定を終了し(ステップD9)、VxWorksは、Linuxの復旧待ちとなり(ステップD10)、Linux停止中の活性交換が完了する。
〔3〕本実施形態の効果
本実施形態によれば、ハイパバイザ11上の第1OS(VxWorks)12に、第2OS(Linux)13に接続された第2デバイス30a,30b用の第2保守ドライバ31a,31bを備えることで、第1OS12に接続された第1デバイス20a,20bの保守制御手順と同様の手順で、第1OS12から、第2OS13管理下の第2デバイス30a,30bの保守制御等を行なうことが可能になる。
これにより、ストレージ制御装置(情報処理装置)であるCM100においてハイパバイザ11を使用して新しいOSを搭載し当該OSに新機能を追加して機能強化を図った際、追加した新機能の保守インタフェースを効率的に実装することができる。また、追加した新機能の保守インタフェースとして、従来と同じ保守ガイド画面の構成や保守手順を用いることでき、ユーザは、追加した新機能に対しても違和感なく保守等の操作を行なうことができる。つまり、複数のOSに対して保守制御機能を二重に実装する必要がなく、複数のOSによって管理されるそれぞれのデバイスに対応する保守制御が効率化される。
また、第1OS(VxWorks)12は、第2保守ドライバ32a,32bを用いて第2OS(Linux)13管理下の第2デバイス30a,30bの情報を採取することができる。したがって、第2OS(Linux)13が停止している場合でも、第1OS(VxWorks)12が望む情報を、第1OS(VxWorks)12が望むタイミングで採取することができる。さらに、図7を参照しながら上述したように、第2OS(Linux)13が停止しているときでも、第2OS(Linux)13側のデバイス30a,30bの保守制御等を行なうことが可能になる。
〔4〕その他
以上、本発明の好ましい実施形態について詳述したが、本発明は、係る特定の実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲内において、種々の変形、変更して実施することができる。
上述した実施形態では、情報処理装置が、統合ストレージ装置用のストレージ制御装置である場合について説明したが、本発明は、これに限定されるものではない。本発明は、ハイパバイザ上に複数のOSを実装し各OSにデバイスを接続するよう構成された情報処理装置であれば、上述した実施形態と同様に適用され、上述した実施形態と同様の作用効果を得ることができる。
また、上述した実施形態では、第1OAがVxWorksであり、第2OAがLinuxである場合について説明したが、本発明は、これに限定されるものではない。さらに、上述した実施形態では、第1デバイスおよび第2デバイスが2個ずつ備えられる場合について説明したが、本発明は、これに限定されるものではない。
上述したCPU110による処理部としての機能の全部もしくは一部は、コンピュータ(MPU(Micro-Processing Unit),CPU,各種端末を含む)が所定のプログラムを実行することによって実現されてもよい。そのプログラムは、例えばフレキシブルディスク,CD(CD−ROM,CD−R,CD−RWなど),DVD(DVD−ROM,DVD−RAM,DVD−R,DVD−RW,DVD+R,DVD+RWなど),ブルーレイディスク等のコンピュータ読取可能な記録媒体に記録された形態で提供される。この場合、コンピュータはその記録媒体からプログラムを読み取って内部記憶装置または外部記憶装置に転送し格納して用いる。
〔5〕付記
以上の実施形態に関し、更に以下の付記を開示する。
(付記1)
第1オペレーティングシステムによって管理される第1デバイスと、
第2オペレーティングシステムによって管理される第2デバイスと、
前記第1オペレーティングシステムと前記第2オペレーティングシステムとを動作させ、前記第1オペレーティングシステムに対して、前記第1デバイスに対応する第1保守ドライバをロードさせ、前記第1保守ドライバに前記第1デバイスの保守制御を実行させ、前記第1オペレーティングシステムに対して、前記第2デバイスに対応する第2保守ドライバをロードさせ、前記第2保守ドライバに前記第2デバイスの保守制御を実行させる処理部と 、
を備えることを特徴とする情報処理装置。
(付記2)
前記処理部は、前記第2オペレーティングシステムの動作の停止中に、前記第1オペレーティングシステムに対して、前記第2保守ドライバを用いて、前記第2デバイスに係る情報を取得し、前記第2デバイスの保守制御を実行させる、付記1記載の情報処理装置。
(付記3)
前記処理部は、前記第2オペレーティングシステムの動作の停止中に、前記第1オペレーティングシステムに対して、前記第2保守ドライバを用いて、前記第2デバイスの設定制御を実行させる、付記1または付記2に記載の情報処理装置。
(付記4)
前記第1オペレーティングシステムは、SAN(Storage Area Network)制御を行なうSAN用オペレーティングシステムであり、
前記第2オペレーティングシステムは、NAS(Network Attached Storage)制御を行なうNAS用オペレーティングシステムである、付記1〜付記3のいずれか一項に記載の情報処理装置。
(付記5)
前記第1保守ドライバは、前記第1オペレーティングシステムが行なう前記第1デバイスの運用時の制御に使用される制御機能を含む、付記1〜付記4のいずれか一項に記載の情報処理装置。
(付記6)
前記第2オペレーティングシステムが行なう前記第2デバイスの運用時の制御に使用される制御ドライバを備える、付記1〜付記5のいずれか一項に記載の情報処理装置。
(付記7)
ストレージユニットを制御するストレージ制御装置であって、
SAN(Storage Area Network)制御を行なう第1オペレーティングシステムによって管理される第1デバイスと、
NAS(Network Attached Storage)制御を行なう第2オペレーティングシステムによって管理される第2デバイスと、
前記第1オペレーティングシステムと前記第2オペレーティングシステムとを動作させ、前記第1オペレーティングシステムに対して、前記第1デバイスに対応する第1保守ドライバをロードさせ、前記第1保守ドライバに前記第1デバイスの保守制御を実行させ、前記第1オペレーティングシステムに対して、前記第2デバイスに対応する第2保守ドライバをロードさせ、前記第2保守ドライバに前記第2デバイスの保守制御を実行させる処理部と 、
を備えることを特徴とするストレージ制御装置。
(付記8)
前記処理部は、前記第2オペレーティングシステムの動作の停止中に、前記第1オペレーティングシステムに対して、前記第2保守ドライバを用いて、前記第2デバイスに係る情報を取得し、前記第2デバイスの保守制御を実行させる、付記7記載のストレージ制御装置。
(付記9)
前記処理部は、前記第2オペレーティングシステムの動作の停止中に、前記第1オペレーティングシステムに対して、前記第2保守ドライバを用いて、前記第2デバイスの設定制御を実行させる、付記7または付記8に記載のストレージ制御装置。
(付記10)
前記第1保守ドライバは、前記第1オペレーティングシステムが行なう前記第1デバイスの運用時の制御に使用される制御機能を含む、付記7〜付記9のいずれか一項に記載のストレージ制御装置。
(付記11)
前記第2オペレーティングシステムが行なう前記第2デバイスの運用時の制御に使用される制御ドライバを備える、付記7〜付記10のいずれか一項に記載のストレージ制御装置。
(付記12)
コンピュータに、
第1デバイスを管理する第1オペレーティングシステムと第2デバイスを管理する第2オペレーティングシステムとを動作させ、
前記第1オペレーティングシステムに対して、前記第1デバイスに対応する第1保守ドライバをロードさせ、前記第1保守ドライバに前記第1デバイスの保守制御を実行させ、
前記第1オペレーティングシステムに対して、前記第2デバイスに対応する第2保守ドライバをロードさせ、前記第2保守ドライバに前記第2デバイスの保守制御を実行させる、プログラム。
(付記13)
前記コンピュータに、
前記第2オペレーティングシステムの動作の停止中に、前記第1オペレーティングシステムに対して、前記第2保守ドライバを用いて、前記第2デバイスに係る情報を取得し、前記第2デバイスの保守制御を実行させる、付記12記載のプログラム。
(付記14)
前記コンピュータに、
前記第2オペレーティングシステムの動作の停止中に、前記第1オペレーティングシステムに対して、前記第2保守ドライバを用いて、前記第2デバイスの設定制御を実行させる、付記12または付記13に記載のプログラム。
(付記15)
前記第1オペレーティングシステムは、SAN(Storage Area Network)制御を行なうSAN用オペレーティングシステムであり、
前記第2オペレーティングシステムは、NAS(Network Attached Storage)制御を行なうNAS用オペレーティングシステムである、付記12〜付記14のいずれか一項に記載のプログラム。
(付記16)
前記第1保守ドライバは、前記第1オペレーティングシステムが行なう前記第1デバイスの運用時の制御に使用される制御機能を含む、付記12〜付記15のいずれか一項に記載のプログラム。
1 ストレージ装置
11 ハイパバイザ(仮想化OS)
12 第1オペレーティングシステム(SAN用OS;VxWorks)
13 第2オペレーティングシステム(NAS用OS;Linux)
20a,20b 第1デバイス
21a,21b 第1保守ドライバ(フル機能ドライバ)
30a,30b 第2デバイス
31a,31b 制御ドライバ(デバイスドライバ機能)
32a,32b 第2保守ドライバ(保守機能)
100 CM(ストレージ制御装置,情報処理装置)
101,102 CA
103 DA
106 メモリ
107 SSD
108 IOC
109 スロット
110 CPU(処理部)
300 ドライブエンクロージャ(ストレージユニット)
310 記憶装置(ストレージユニット)
400 コントローラエンクロージャ

Claims (6)

  1. 第1オペレーティングシステムによって管理される第1デバイスと、
    第2オペレーティングシステムによって管理される第2デバイスと、
    前記第1オペレーティングシステムと前記第2オペレーティングシステムとを動作させ、前記第1オペレーティングシステムに対して、前記第1デバイスに対応する第1保守ドライバをロードさせ、前記第1保守ドライバに前記第1デバイスの保守制御を実行させ、前記第1オペレーティングシステムに対して、前記第2デバイスに対応する第2保守ドライバをロードさせ、前記第2保守ドライバに前記第2デバイスの保守制御を実行させる処理部と 、
    を備えることを特徴とする情報処理装置。
  2. 前記処理部は、前記第2オペレーティングシステムの動作の停止中に、前記第1オペレーティングシステムに対して、前記第2保守ドライバを用いて、前記第2デバイスに係る情報を取得し、前記第2デバイスの保守制御を実行させる、請求項1記載の情報処理装置。
  3. 前記処理部は、前記第2オペレーティングシステムの動作の停止中に、前記第1オペレーティングシステムに対して、前記第2保守ドライバを用いて、前記第2デバイスの設定制御を実行させる、請求項1または請求項2に記載の情報処理装置。
  4. 前記第1オペレーティングシステムは、SAN(Storage Area Network)制御を行なうSAN用オペレーティングシステムであり、
    前記第2オペレーティングシステムは、NAS(Network Attached Storage)制御を行なうNAS用オペレーティングシステムである、請求項1〜請求項3のいずれか一項に記載の情報処理装置。
  5. ストレージユニットを制御するストレージ制御装置であって、
    SAN(Storage Area Network)制御を行なう第1オペレーティングシステムによって管理される第1デバイスと、
    NAS(Network Attached Storage)制御を行なう第2オペレーティングシステムによって管理される第2デバイスと、
    前記第1オペレーティングシステムと前記第2オペレーティングシステムとを動作させ、前記第1オペレーティングシステムに対して、前記第1デバイスに対応する第1保守ドライバをロードさせ、前記第1保守ドライバに前記第1デバイスの保守制御を実行させ、前記第1オペレーティングシステムに対して、前記第2デバイスに対応する第2保守ドライバをロードさせ、前記第2保守ドライバに前記第2デバイスの保守制御を実行させる処理部と 、
    を備えることを特徴とするストレージ制御装置。
  6. コンピュータに、
    第1デバイスを管理する第1オペレーティングシステムと第2デバイスを管理する第2オペレーティングシステムとを動作させ、
    前記第1オペレーティングシステムに対して、前記第1デバイスに対応する第1保守ドライバをロードさせ、前記第1保守ドライバに前記第1デバイスの保守制御を実行させ、
    前記第1オペレーティングシステムに対して、前記第2デバイスに対応する第2保守ドライバをロードさせ、前記第2保守ドライバに前記第2デバイスの保守制御を実行させる、プログラム。
JP2013204657A 2013-09-30 2013-09-30 情報処理装置、ストレージ制御装置、及びプログラム Active JP6244786B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013204657A JP6244786B2 (ja) 2013-09-30 2013-09-30 情報処理装置、ストレージ制御装置、及びプログラム
EP20140181382 EP2854016A1 (en) 2013-09-30 2014-08-19 Information processing apparatus, storage control apparatus, and program
US14/477,926 US9547501B2 (en) 2013-09-30 2014-09-05 Information processing apparatus, storage control apparatus, and computer-readable recording medium having stored program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013204657A JP6244786B2 (ja) 2013-09-30 2013-09-30 情報処理装置、ストレージ制御装置、及びプログラム

Publications (2)

Publication Number Publication Date
JP2015069524A true JP2015069524A (ja) 2015-04-13
JP6244786B2 JP6244786B2 (ja) 2017-12-13

Family

ID=51392077

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013204657A Active JP6244786B2 (ja) 2013-09-30 2013-09-30 情報処理装置、ストレージ制御装置、及びプログラム

Country Status (3)

Country Link
US (1) US9547501B2 (ja)
EP (1) EP2854016A1 (ja)
JP (1) JP6244786B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001022598A (ja) * 1999-07-07 2001-01-26 Hitachi Ltd 計算機システム
JP2008305034A (ja) * 2007-06-06 2008-12-18 Hitachi Ltd デバイス割り当て変更方法
JP2009258798A (ja) * 2008-04-11 2009-11-05 Nec Corp 仮想マシンシステム、ホスト計算機、i/oカード、仮想マシン構築方法およびプログラム
US20100058335A1 (en) * 2008-08-28 2010-03-04 Weber Bret S Methods and systems for integrated storage and data management using a hypervisor
JP2012009029A (ja) * 2010-06-25 2012-01-12 Intel Corp 複数のバーチャルマシーンが物理リソースを個別に設定及びアクセスすることを可能にする方法及びシステム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000207232A (ja) 1999-01-18 2000-07-28 Fujitsu Ltd マルチオペレ―ティングシステム制御装置および記録媒体
US8307359B1 (en) * 2006-06-23 2012-11-06 Emc Corporation Embedded virtual storage area network using a virtual block network fabric
JP5266590B2 (ja) 2009-09-18 2013-08-21 株式会社日立製作所 計算機システムの管理方法、計算機システム及びプログラム
US20120054740A1 (en) * 2010-08-31 2012-03-01 Microsoft Corporation Techniques For Selectively Enabling Or Disabling Virtual Devices In Virtual Environments
GB2483300A (en) * 2010-09-06 2012-03-07 Fonleap Ltd Transferring virtual machine state between host systems with common portions using a portable device
US9262363B2 (en) * 2012-11-30 2016-02-16 Ciena Corporation PCI and PCI express virtual hot plug systems and methods

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001022598A (ja) * 1999-07-07 2001-01-26 Hitachi Ltd 計算機システム
JP2008305034A (ja) * 2007-06-06 2008-12-18 Hitachi Ltd デバイス割り当て変更方法
JP2009258798A (ja) * 2008-04-11 2009-11-05 Nec Corp 仮想マシンシステム、ホスト計算機、i/oカード、仮想マシン構築方法およびプログラム
US20100058335A1 (en) * 2008-08-28 2010-03-04 Weber Bret S Methods and systems for integrated storage and data management using a hypervisor
JP2012009029A (ja) * 2010-06-25 2012-01-12 Intel Corp 複数のバーチャルマシーンが物理リソースを個別に設定及びアクセスすることを可能にする方法及びシステム

Also Published As

Publication number Publication date
US9547501B2 (en) 2017-01-17
US20150095922A1 (en) 2015-04-02
EP2854016A1 (en) 2015-04-01
JP6244786B2 (ja) 2017-12-13

Similar Documents

Publication Publication Date Title
US9317314B2 (en) Techniques for migrating a virtual machine using shared storage
US8429651B2 (en) Enablement and acceleration of live and near-live migration of virtual machines and their associated storage across networks
JP4921384B2 (ja) メモリを1台のバーチャル・マシンからもう一方へダイナミックに再割り当てする方法、装置及びシステム
US7581229B2 (en) Systems and methods for supporting device access from multiple operating systems
US9146766B2 (en) Consistent unmapping of application data in presence of concurrent, unquiesced writers and readers
US9110702B2 (en) Virtual machine migration techniques
US20170269867A1 (en) Virtual machine trigger
US20130174151A1 (en) Information processing apparatus and method of controlling virtual machine
US10289564B2 (en) Computer and memory region management method
US20140215482A1 (en) Unified storage system with a block micro controller and a hypervisor
US11520674B2 (en) Managing containers on a data storage system
US9495172B2 (en) Method of controlling computer system and computer system
US20070255865A1 (en) System for controlling I/O devices in a multi-partition computer system
JP6241178B2 (ja) ストレージ制御装置,ストレージ制御方法及びストレージ制御プログラム
US20230051825A1 (en) System supporting virtualization of sr-iov capable devices
WO2013024510A2 (en) Storage control apparatus
Kumar et al. Netchannel: a VMM-level mechanism for continuous, transparentdevice access during VM migration
US20190004845A1 (en) Virtual machine placement based on device profiles
JP6244786B2 (ja) 情報処理装置、ストレージ制御装置、及びプログラム
JP2018181305A (ja) プールされた物理リソースのローカルディスク消去メカニズム
US9436488B2 (en) Program redundancy among virtual machines and global management information and local resource information arrangement
CN114327741A (zh) 服务器系统、容器设置方法及装置
Tran et al. Virtualizing Microsoft SQL Server 2008 R2 Using VMware vSphere 5 on Hitachi Compute Rack 220 and Hitachi Unified Storage 150 Reference Architecture Guide
Opsahl A Comparison of Management of Virtual Machines with z/VM and ESX Server
Kokosielis et al. Virtualization–The Catalyst for Change: Best Practices for Virtualizing IBM DB2 with Technologies from VMware, Intel, and NetApp

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160606

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170221

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170822

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171030

R150 Certificate of patent or registration of utility model

Ref document number: 6244786

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150