JP6458146B2 - 計算機及びメモリ領域管理方法 - Google Patents

計算機及びメモリ領域管理方法 Download PDF

Info

Publication number
JP6458146B2
JP6458146B2 JP2017527033A JP2017527033A JP6458146B2 JP 6458146 B2 JP6458146 B2 JP 6458146B2 JP 2017527033 A JP2017527033 A JP 2017527033A JP 2017527033 A JP2017527033 A JP 2017527033A JP 6458146 B2 JP6458146 B2 JP 6458146B2
Authority
JP
Japan
Prior art keywords
operating system
shared area
application
area
address
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017527033A
Other languages
English (en)
Other versions
JPWO2017006458A1 (ja
Inventor
ゆかり 八田
ゆかり 八田
典充 早川
典充 早川
崇夫 戸塚
崇夫 戸塚
俊臣 森木
俊臣 森木
聡 衣川
聡 衣川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of JPWO2017006458A1 publication Critical patent/JPWO2017006458A1/ja
Application granted granted Critical
Publication of JP6458146B2 publication Critical patent/JP6458146B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/10Address translation
    • G06F12/109Address translation for multiple virtual address spaces, e.g. segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/08Error detection or correction by redundancy in data representation, e.g. by using checking codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/14Protection against unauthorised use of memory or access to memory
    • G06F12/1416Protection against unauthorised use of memory or access to memory by checking the object accessibility, e.g. type of access defined by the memory independently of subject rights
    • G06F12/1425Protection against unauthorised use of memory or access to memory by checking the object accessibility, e.g. type of access defined by the memory independently of subject rights the protection being physical, e.g. cell, word, block
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5011Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
    • G06F9/5016Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals the resource being the memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/54Interprogram communication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/54Interprogram communication
    • G06F9/541Interprogram communication via adapters, e.g. between incompatible applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/54Interprogram communication
    • G06F9/544Buffers; Shared memory; Pipes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45583Memory management, e.g. access or allocation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/10Providing a specific technical effect
    • G06F2212/1041Resource optimization
    • G06F2212/1044Space efficiency improvement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/10Providing a specific technical effect
    • G06F2212/1052Security improvement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/15Use in a specific computing environment
    • G06F2212/151Emulated environment, e.g. virtual machine
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/15Use in a specific computing environment
    • G06F2212/152Virtualized environment, e.g. logically partitioned system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/65Details of virtual memory and virtual address translation
    • G06F2212/657Virtual address space management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45545Guest-host, i.e. hypervisor is an application program itself, e.g. VirtualBox

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Quality & Reliability (AREA)
  • Memory System Of A Hierarchy Structure (AREA)
  • Stored Programmes (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、複数のホストOSが稼働する計算機システムにおいて、ホストOSと、当該ホストOS又は他のホストOSが管理するゲストOSとが共有するメモリ領域の制御技術に関する。
近年、物理計算機上のハードウェアリソースを有効に活用するために、一台の物理計算機上で二つ以上のOS(オペレーティングシステム)を起動する技術が注目されている(例えば、特許文献1及び特許文献2参照)。
特許文献1には、「マルチオペレーティングシステム計算機は、優先度が設定された複数のタスクを優先度順に実行する第1のOS(オペレーティングシステム)と、前記第1のOSと異なる第2のOSとを動作OSとして交互に動作させるマルチオペレーティングシステム計算機であって、前記第1のOSが動作OSとして動作しているときに前記複数のタスクのうち所定の優先度が設定された所定のタスクであって動作OSの切替え契機を特定するための切替え契機タスクとして用いられるタスクが実行された場合に、動作OSを前記第1のOSから前記第2のOSに切り替えるOS切替え部」を備えることが記載されている。
また、特許文献2には、「第1のOSと第2のOSとの少なくとも2つのOSを起動するマルチOS起動装置において、(1)メモリ領域を有し、前記メモリ領域に対してメモリ空間が定義される1次記憶部と、(2)セカンドブートローダと、前記第2のOSとを記憶する2次記憶部と、(3)CPUに対する制御情報を示すコンテキストであって前記第1のOS用のコンテキストである第1のコンテキストで動作する前記第1のOSのもとで動作するファーストブートローダを前記第1のコンテキストで動作中の前記第1のOSのもとで動作させることにより、前記第1のOSが管理する第1のメモリ空間として前記第1のコンテキストにより前記1次記憶装置に対して定義された前記1次記憶部のメモリ領域に前記2次記憶部から前記セカンドブートローダと前記第2のOSとを前記ファーストブートローダにロードさせるOS実行部と、(4)前記第1のメモリ空間として定義されたメモリ領域にロードされた前記セカンドブートローダを前記第1のコンテキストで動作中の前記第1のOSのもとで実行することにより前記第2のOSが管理する第2のメモリ空間として定義されるメモリ領域と前記セカンドブートローダ及び前記第2のOSがロードされたメモリ領域とを含む第3のメモリ空間を前記1次記憶部に対して定義する前記セカンドブートローダ用のコンテキストを前記セカンドブートローダに生成させると共に生成された前記セカンドブートローダ用のコンテキストへ前記第1のコンテキストから切り替えさせ、前記セカンドブートローダ用のコンテキストのもとで前記セカンドブートローダを実行することにより前記第3のメモリ空間に含まれる前記第2のメモリ空間として定義された前記1次記憶部のメモリ領域に前記ファーストブートローダによって前記1次記憶部のメモリ領域にロードされた前記第2のOSを前記セカンドブートローダにロードさせると共に前記第2のOS用のコンテキストを生成させ、生成された前記第2のOS用のコンテキストへ前記セカンドブートローダ用のコンテキストから切り替えさせ、前記第2のOS用のコンテキストのもとで前記セカンドブートローダに前記第2のOSの起動を実行させるローダ実行部と」を備えることが記載されている。
このマルチOS技術を利用し、例えば、第1のOS(ホストOS1)としてホストOS1を搭載し、第2のOS(ホストOS2)としてハイパバイザを搭載し、さらにハイパバイザ上の複数の論理計算機上のOS(ゲストOS1〜ゲストOSn)としてサーバ制御OSを搭載することによって、省スペース化・低価格化が期待できる。
特開平11−149385号公報 国際公開第2009/113394号
一つの物理計算機と不揮発性の記憶媒体とが接続され、物理計算機に不揮発性の記憶媒体へのアクセスを制御するホストOS1及び複数のゲストOSを管理するホストOS2を搭載する計算機システムを一例にして考える。
各ゲストOSはI/O処理の応答性能を高めるために、データをキャッシングするためのメモリを設けている。メモリは揮発性であるため、不意の電源遮断が発生した場合にデータが失われないように、ホストOS1又はホストOS2は、不揮発性の記憶媒体にデータを退避する。電源が復旧し、ゲストOSが再起動する場合、退避されたデータをメモリに戻すためには、ゲストOS上のアプリケーションは、不揮発性の記憶媒体にアクセス可能なホストOS1との間で通信を行いホストOS1が出力したデータをメモリ上に戻す必要がある。
前述したような障害復旧を実現するためには、ホストOS1とゲストOS上のアプリケーションとが通信するためのメモリ領域(共有領域)を確保する必要がある。
独立した計算機リソースを有する複数のホストOSが稼働する計算機において、一つのホストOSが管理する仮想計算機と、当該ホストOS又は他のホストOSとの間の通信制御に用いるメモリ領域を確保する計算機、及びメモリ領域の管理方法を提供する。
本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、複数のオペレーティングシステムが稼働する計算機であって、前記計算機は、計算機リソースとして、プロセッサ、前記プロセッサに接続されるメモリ、及び前記プロセッサに接続されるI/Oデバイスを備え、前記計算機は、複数の記憶媒体を有するストレージ装置と接続し、前記複数のオペレーティングシステムは、前記ストレージ装置に対するアクセスを制御する第1のオペレーティングシステム、及び少なくとも一つの仮想計算機を生成する第2のオペレーティングシステムを含み、前記第1のオペレーティングシステム及び前記第2のオペレーティングシステムの各々には、占有的に使用できるように分割された前記計算機リソースが割り当てられ、前記少なくとも一つの仮想計算機上では、アプリケーションを実行する第3のオペレーティングシステムが稼動し、前記第2のオペレーティングシステムは、前記アプリケーションと前記第1のオペレーティングシステムとの間で通信するために用いられるメモリ領域である共有領域を管理する共有領域管理部と、前記アプリケーションに割り当てられる仮想的なメモリの位置を示すゲスト仮想アドレス空間に、前記共有領域をマッピングするためのアドレスを通知する処理部と、を有し、前記第3のオペレーティングシステムは、前記アプリケーションからの要求に応じて前記第2のオペレーティングシステムに対して前記共有領域の確保を要求し、前記ゲスト仮想アドレス空間に確保された前記共有領域をマッピングするエージェントを有し、前記共有領域管理部は、前記エージェントから前記共有領域の確保要求を受け付けた場合、所定のサイズの前記共有領域を確保し、前記仮想計算機に含まれる論理メモリの物理的な位置を示すゲスト物理アドレス空間における、前記確保された共有領域にアクセスするための第1のアドレスを前記エージェントに通知し、前記エージェントは、前記第1のアドレスを用いて、前記ゲスト仮想アドレス空間に前記確保された共有領域をマッピングし、前記ゲスト仮想アドレス空間にマッピングされた前記共有領域にアクセスするための第2のアドレスを前記アプリケーションに通知し、前記アプリケーションは、前記第2のアドレスを受け付けた後、前記エージェントを介して前記処理部に前記共有領域を用いた処理の開始要求を送信し、前記処理部は、前記共有領域管理部から、前記第2のオペレーティングシステムが管理するホスト物理アドレス空間における、前記確保された共有領域にアクセスするための第3のアドレスを取得し、前記第1のオペレーティングシステムに前記第3のアドレスを通知し、前記第1のオペレーティングシステムは、前記第3のアドレスを用いて前記アプリケーションと通信することによって、前記共有領域を用いた処理を実行することを特徴とする。
複数のオペレーティングシステム間でメモリ領域を共有し、当該メモリ領域を介してデータの送受信が可能となる。前述した以外の課題、構成及び効果は、以下の実施形態の説明によって明らかにされる。
実施例1の計算機システムのハードウェア構成の一例を示す図である。 実施例1の計算機システムの論理構成の一例を示す図である。 実施例1の管理情報の一例を示す図である。 実施例1の共有領域のマッピング関係及び構造を示す図である。 実施例1の計算機システムの共有領域を用いた処理の流れを示すシーケンス図である。 実施例1の計算機システムの共有領域を用いた処理の流れを示すシーケンス図である。 実施例1のエージェントが実行するマッピング処理の一例を説明するフローチャートである。
以下、図面を用いて実施例を説明する。
図1は、実施例1の計算機システムのハードウェア構成の一例を示す図である。
計算機システムは、物理計算機10及び外部ストレージ装置20から構成される。物理計算機10は、外部ストレージ装置20と直接、又は、ネットワークを介して接続される。ネットワークとしては、FC(Fibre Channel)で構成されたSAN等が考えられる。
物理計算機10は、プロセッサ110、RAM120、チップセット130、FPGA140、内部ストレージデバイス150、電源部160、及びI/Oデバイス170を備える。
プロセッサ110は、RAM120に格納されるプログラム(命令)を読み出し、読み出されたプログラム(命令)を実行する。プロセッサ110は、複数のCPUコア111を有する。プロセッサ110がプログラムを実行することによって、OS等の機能が実現される。以下、プログラムを主体に処理を説明する場合、当該プログラムがプロセッサ110によって実行されていることを示す。
RAM120は、プロセッサ110によって実行されるプログラム及び当該プログラムの実行に必要な情報を格納する。また、RAM120は、各プログラムのワークエリアを含む。
チップセット130は、プロセッサ110、RAM120、及びI/Oデバイス170間のデータの入出力を管理する。FPGA140は、所定の演算を行う回路である。本実施例では、FPGA140は、データ転送等を行う。なお、FPGA140は、RAM141を含む。
内部ストレージデバイス150は、不揮発性の記憶媒体であり、例えば、HDD(Hard Disk Drive)又はSSD(Solid State Drive)等が考えられる。本実施例では、不意に電源が遮断した時に、RAM141に格納されるデータが内部ストレージデバイス150に格納される。なお、RAM1120に格納されるデータが内部ストレージデバイス150に格納されてもよい。
電源部160は、物理計算機10の電源を制御する。I/Oデバイス170は、外部装置と接続することによって、外部から情報を入力し、外部に情報を出力するためのデバイスである。I/Oデバイス170は、例えば、NIC、FC HBA等が考えられる。
外部ストレージ装置20は、OSのプログラム、OS上で動作する各種アプリケーションのプログラムコード、及びアプリケーションが扱うデータ等を格納する。外部ストレージ装置20は、複数の記憶媒体を備える。本実施例では、外部ストレージ装置20は、記憶媒体として四つのHDD190を備える。なお、物理計算機10は、複数の記憶媒体、及びコントローラを備えるストレージシステムと接続されてもよい。
図2は、実施例1の計算機システムの論理構成の一例を示す図である。
本実施例の計算機システムでは、物理計算機10の計算機リソースが分割され、ホストOS1(200)及びホストOS2(210)のそれぞれに分割された計算機リソースが割り当てられる。計算機リソースには、RAM120が含まれる。本実施例では、RAM120のメモリ領域(記憶領域)が二つに分割され、ホストOS1(200)及びホストOS2(210)のそれぞれに分割されたメモリ領域が割り当てられる。以下の説明では、分割されたメモリ領域を分割RAMとも記載する。
ホストOS1(200)に割り当てられた計算機リソースは、ホストOS1(200)によって占有的に使用され、ホストOS2(210)に割り当てられた計算機リソースは、ホストOS2(210)によって占有的に使用される。
本実施例のホストOS1(200)は、ストレージ制御OSに対応する。ストレージ制御OSは、外部ストレージ装置20に対する読出処理及び書込処理を制御する。ホストOS1(200)は、ゲストOS230と内部ストレージデバイス150との間のバックアップ処理及びリストア処理を実行する。
本実施例のホストOS2(210)は、ハイパバイザ等のVMM(Virtual Machine Monitor)に対応する。VMMは、仮想マシン技術を用いて、ホストOS2(210)に割り当てられた計算機リソースの一部を用いて一つ以上の仮想計算機(LPAR220)を生成し、生成されたLPAR220上でゲストOS230を起動させる。ゲストOS230では、さらに、所定の処理を行うアプリケーション232が稼働する。
ホストOS2(210)は、ホストOS2(210)に割り当てられた分割RAMのホスト物理アドレス空間と、LPAR220に割り当てられた論理RAMのゲスト物理アドレス空間との間のマッピングを管理する。
分割RAMのホスト物理アドレス空間は、分割RAMの物理的な位置を示すアドレス空間である。論理RAMのゲスト物理アドレス空間は、論理RAMの物理的な位置を示すアドレス空間である。なお、ホストOS1(200)も、自身に割り当てられた分割RAMのホスト物理アドレスを管理する。
ゲストOS230は、論理RAMのゲスト物理アドレス空間とゲスト仮想アドレス空間との間のマッピングを管理する。ここで、ゲスト仮想アドレス空間は、ゲストOS230がアプリケーション232に割り当てられる仮想的なRAMの位置を示すアドレス空間である。
LPAR220は、論理プロセッサ、論理RAM(論理メモリ)、及び論理I/Oデバイスを有する。本実施例のホストOS2(210)は、LPAR220に対して共有領域221を割り当てる。共有領域221は、アプリケーション232とホストOS1(200)との間の通信等に用いられるメモリ領域である。
本実施例のホストOS2(210)は、共有領域管理部211及び処理部212を有し、また、管理情報213を保持する。
共有領域管理部211は、LPAR220に対して共有領域221を割り当て、当該共有領域221を管理する。共有領域管理部211は、共有領域221を複数のブロックに分割し、ブロック単位に共有領域221の状態を管理する。以下の説明ではブロック単位の共有領域221を単にブロックとも記載する。処理部212は、共有領域221を用いたホストOS1(200)とゲストOS230との間の通信を制御する。管理情報213は、共有領域221を管理するための情報であり、共有領域管理部211によって管理される。管理情報213の詳細については図3を用いて説明する。
本実施例のゲストOS230は、エージェント231を含む。エージェント231は、アプリケーション232が発行した共有領域221に関する要求をホストOS2(210)に渡し、また、ホストOS2(210)に対して共有領域221の確保を依頼する。また、エージェント231は、仮想アドレス空間に確保された共有領域221をマッピングし、共有領域221がマッピングされた仮想アドレスをアプリケーション232に返す。これによって、アプリケーション232は、共有領域221を使用することができる。
図3は、実施例1の管理情報213の一例を示す図である。
管理情報213は、ブロックID301、ゲスト物理アドレス302、ホスト物理アドレス303、サイズ304、及び割当状態305を含む。
ブロックID301は、ブロックの識別番号である。ゲスト物理アドレス302は、ゲスト物理アドレス空間上におけるブロックの開始アドレスである。ホスト物理アドレス303は、ホスト物理アドレス空間上におけるブロックの開始アドレスである。サイズ304は、ブロックのサイズである。本実施例では、全てのブロックのサイズが同一であるものとする。なお、各ブロックのサイズは異なっていてもよい。
割当状態305は、ブロックがアプリケーション232に対して割り当てられているか否かを示す情報である。本実施例の割当状態305には「ON」又は「OFF」のいずれかが格納される。割当状態305が「ON」の場合、ブロックがアプリケーション232に割り当てられていることを示す。割当状態305が「OFF」の場合、ブロックがアプリケーション232に割り当てられていないことを示す。
本実施例では、一つのLPAR220に対して一つの共有領域221が割り当てられる。そのため、ホストOS2(210)は、LPAR220の数と同数の管理情報213を保持する。
図4は、実施例1の共有領域のマッピング関係及び構造を示す図である。
物理計算機10のRAM120のメモリ領域は、二つに分割され、ホストOS1及びホストOS2のそれぞれに分割されたメモリ領域が割り当てられる。ホストOS1(200)及びホストOS2(210)のそれぞれは、割り当てられたメモリ領域を独立したホスト物理アドレス空間として管理する。
ホストOS2(210)は、割り当てられたメモリ領域の一部をホストOS2(210)の制御用の領域として確保する。また、ホストOS2(210)は、割り当てられたメモリ領域の一部をLPAR220の領域として確保し、LPAR220に当該領域を割り当てる。
LPAR220は、LPAR220の領域を、ゲストOS230の領域と、LPAR220の制御用の領域とに分割する。なお、ゲストOS230の領域には、MMIO用の領域、F/W用の領域、RAM用の領域、及びゲストOS230の制御用の領域が含まれる。
ホストOS2(210)は、LPAR220を起動時に、制御用の領域に、共有領域221を割り当てる。すなわち、制御用の領域の一部が共有領域221として使用される。共有領域221のデータ構造は、データ領域及び通信用領域から構成される。データ領域は、ホストOS1(200)によってバックアップされたデータを用いたリストアを行うために、ホストOS1(200)から送信されたデータを格納するメモリ領域である。通信用領域は、アプリケーション232とホストOS1(200)との間で通信に用いるメモリ領域である。
なお、図4に示す共有領域221のデータ構造は論理的な構造を示すものである。したがって、データ領域及び通信用領域は連続的なメモリ領域でなくてもよい。なお、通常起動時にも共有領域221を割り当てることによって、例えば、ホストOS2(210)及びアプリケーション232がメモリを共有すること等ができる。
図4に示すように、共有領域221は、ゲストOS230の領域とは異なるため、ゲストOS230からは論理RAMとして認識されないメモリ領域である。また、共有領域221は、ホストOS2に割り当てられたメモリ領域に含まれるため、アプリケーション232との間の通信以外にはホストOS1(200)からアクセスされることはない。
図5A及び図5Bは、実施例1の計算機システムの共有領域221を用いた処理の流れを示すシーケンス図である。本実施例では、共有領域を用いた処理の一例として、共有領域を用いたリストア処理について説明する。
ホストOS1(200)は、物理計算機10の電源部160の障害等の電源遮断時にキャッシング用にRAM120に格納されるデータを外部ストレージ装置20にバックアップする(ステップS101)。その後、物理計算機10は再起動を行う。
ホストOS2(210)の共有領域管理部211は、LPAR220の起動時に、LPAR220に共有領域221を割り当てる(ステップS102)。
例えば、共有領域管理部211は、LPAR220の起動時に、LPAR220に割り当てられたメモリ領域のうち、制御用のメモリ領域から共有領域221用の領域を確保する。
また、共有領域管理部211は、ホスト物理アドレス空間のアドレスが連続するメモリ領域を共有領域221として確保する。このとき、共有領域管理部211は、確保されたメモリ領域をブロック単位に分割し、各ブロックに識別番号を付与する。
共有領域管理部211は、管理情報213にブロックの数だけエントリを生成し、ブロックID301に付与された識別番号を設定する。また、共有領域管理部211は、各エントリのホスト物理アドレス303に各ブロックの開始アドレスを設定し、また、サイズ304に各ブロックのサイズを設定する。さらに、共有領域管理部211は、各エントリの割当状態305に「OFF」を設定する。
共有領域管理部211は、LPAR220の起動時、確保されたメモリ領域のアドレスに基づいて各ブロックのゲスト物理アドレス及びホスト物理アドレスを取得し、各エントリのゲスト物理アドレス302及びホスト物理アドレス303に取得されたゲスト物理アドレス及びホスト物理アドレスを設定する。以上がステップS102の処理の説明である。
LPAR220が起動し、さらに、LPAR220上でゲストOS230が起動した後、アプリケーション232の処理が開始される。このとき、アプリケーション232は、バックアップ処理が実行されたか否かを判定する。例えば、ホストOS2(210)を介して、ホストOS1(200)に対して問い合わせることによって、前述した判定をすることができる。ここでは、バックアップ処理が実行されたと判定するものとする。
この場合、アプリケーション232は、エージェント231に対して共有領域221の確保要求を発行する(ステップS103)。なお、当該確保要求には、確保するメモリ領域のサイズが含まれる。
エージェント231は、共有領域管理部211にアプリケーション232から受け取った共有領域221の確保要求を出す(ステップS104)。
共有領域管理部211は、エージェント231から共有領域221の確保要求を受信した場合、管理情報213を参照して、アプリケーション232のゲスト仮想アドレス空間に割り当てる共有領域221(ブロック)を確保する(ステップS105)。すなわち、アプリケーション232に提供するブロックが選択される。さらに、共有領域管理部211は、マッピングするゲスト物理アドレスをエージェント231に通知する(ステップS106)。
具体的には、共有領域管理部211は、管理情報213の各エントリの割当状態305を参照し、管理情報213が「OFF」であるエントリが要求サイズ分連続している箇所を検索する。共有領域管理部211は、検索されたエントリ群を選択し、選択されたエントリ群の割当状態305に「ON」を設定する。共有領域管理部211は、選択されたエントリ群の先頭のブロックID301及びゲスト物理アドレス302に格納される値をエージェント231に通知する。このとき、共有領域管理部211がエージェントに渡すアドレスは、マッピングするアドレスであるため、アプリケーション232に使用させる領域までのオフセットも合わせて通知する。
エージェント231は、共有領域管理部211からゲスト物理アドレスを受け取った場合、当該ゲスト物理アドレスをゲスト仮想アドレス空間にマッピングする(ステップS107)。本実施例では、OSの機能を用いてゲスト物理アドレスがゲスト仮想アドレスにマッピングされる。具体的な処理については図6を用いて説明する。
エージェント231は、マッピングしたゲスト仮想アドレスをアプリケーション232に通知する(ステップS108)。
具体的には、エージェント231は、マッピング結果及びオフセットに基づいて、アプリケーション232が使用する先頭ブロックのゲスト仮想アドレス、ゲスト物理アドレス、ファイルディスクリプタ、ブロックの識別番号、サイズ等の確保された共有領域の解放に必要な情報をアプリケーション232に通知する。
アプリケーション232は、エージェント231からゲスト物理アドレスを受け取った場合、ホストOS1(200)との通信を開始するために、ホストOS2(210)に対して共有領域221を用いて処理の開始要求を発行する(ステップS109)。なお、当該開始要求には、ステップS103において発行された共有領域221の確保要求に含まれるサイズ、及び、エージェント231から受け取ったブロックの識別番号が含まれる。
エージェント231は、処理部212にアプリケーション232から受け取った処理の開始要求を発行する(ステップS110)。
処理部212は、エージェント231から処理の開始要求を受け取った場合、共有領域管理部211に確保されたブロックのホスト物理アドレスを要求する(ステップS111)。当該ホスト物理アドレスの要求には、ステップS108において発行され、ステップS109の開始要求で入力されたブロックの識別番号が含まれる。
共有領域管理部211は、ホスト物理アドレスの要求を受け取った場合、管理情報213に基づいて、確保されたブロックのホスト物理アドレスを処理部212に通知する(ステップS112)。
具体的には、共有領域管理部211は、管理情報213を参照し、ブロックID301がホスト物理アドレスの要求に含まれるブロックの識別番号と一致するエントリを検索する。共有領域管理部211は、検索されたエントリのホスト物理アドレス303に格納されるアドレスを処理部212に通知する。
処理部212は、共有領域管理部211からホスト物理アドレスを受け取った場合、ホストOS1(200)にホスト物理アドレスを通知する(ステップS113)。このとき、処理部212は、ステップS109の開始要求の入力に含まれるサイズもホスト物理アドレスと合わせて通知する。これによって、ホストOS1(200)は、アプリケーション232に割り当てられた共有領域221にアクセスが可能となる。
ホストOS1(200)は、ホスト物理アドレスの通知を受け取った場合、共有領域221を用いた処理を実行する(ステップS114)。本実施例では、共有領域221を用いたリストア処理が実行される。リストア処理は公知のものであるため詳細な説明は省略する。
アプリケーション232は、リストア処理が完了した後、エージェント231に完了通知を発行する(ステップS115)。エージェント231は、処理部212にアプリケーション232から受け取った完了通知を発行する(ステップS116)。
処理部212は、エージェント231から完了通知を受け取った場合、ホストOS1(200)に完了通知を発行する(ステップS117)。
ホストOS1(200)は、処理部212から完了通知を受け取った場合、これ以降、共有領域221へアクセスすることがないように、完了処理を実行する(ステップS118)。完了処理は公知のものであるため詳細な説明は省略する。
アプリケーション232は、エージェント231に解放要求を発行する(ステップS119)。当該解放要求には、ステップS108において、エージェント231から受け取った各種情報が含まれる。エージェント231は、共有領域管理部211にアプリケーション232から受け取った解放要求を発行する(ステップS120)。
共有領域管理部211は、エージェント231から解放要求を受け取った場合、アプリケーション232に対して割り当てられたブロックを全て解放する(ステップS121)。このとき、共有領域管理部211は、管理情報213を参照し、解放されたブロックに対応するエントリの割当状態305を全て「OFF」に更新する。
共有領域管理部211は、アンマップ用のアドレスを算出するためのオフセットをエージェント231に通知する(ステップS122)。
エージェント231は、共有領域管理部211からオフセットを受け付けた場合、当該オフセットを用いて、ゲスト仮想アドレス空間からブロックをアンマップする(ステップS123)。
図6は、実施例1のエージェント231が実行するマッピング処理の一例を説明するフローチャートである。
エージェント231は、スペシャルファイルをopenする(ステップS201)。エージェント231は、スペシャルファイルのopenに成功したか否かを判定する(ステップS202)。
スペシャルファイルのopenに失敗したと判定された場合、エージェント231は、エラーと判定して処理を終了する。スペシャルファイルのopenに成功したと判定された場合、エージェント231は、ブロックのゲスト物理アドレスをゲスト仮想アドレスにマッピングするためにmmapを実行する(ステップS203)。エージェント231は、mmapが成功したか否かを判定する(ステップS204)。
mmapが失敗したと判定された場合、エージェント231は、エラーと判定して処理を終了する。mmapが成功したと判定された場合、エージェント231は、mmapの実行結果として、アプリケーション232に対してゲスト仮想アドレスを返す(ステップS205)。
なお、共有領域221をアンマップする場合、エージェント231は、munmapを実行する。
以上で説明したように、本実施例によれば、それぞれ独立した計算機リソースを有するホストOS1(200)及びホストOS2(210)が稼働する計算機において、ホストOS2が管理するLPAR220上のアプリケーションと、ホストOS1(200)とが通信するための共有領域を確保することができる。
したがって、独立した計算機リソースを使用するホストOS1(200)とホストOS2上のアプリケーション232との間で通信等の処理が可能となる。
なお、共有領域の使用方法は、ホストOS1(200)とホストOS2上のアプリケーション232との間の通信に限定されるものではない。本発明を応用して、例えば、ホストOS2とアプリケーション232との間の通信、又はホストOS2とエージェント231との間の通信にも共有領域を使用することが可能である。
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。また、例えば、上記した実施例は本発明を分かりやすく説明するために構成を詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、各実施例の構成の一部について、他の構成に追加、削除、置換することが可能である。
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、本発明は、実施例の機能を実現するソフトウェアのプログラムコードによっても実現できる。この場合、プログラムコードを記録した記憶媒体をコンピュータに提供し、そのコンピュータが備えるプロセッサが記憶媒体に格納されたプログラムコードを読み出す。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコード自体、及びそれを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、CD−ROM、DVD−ROM、ハードディスク、SSD(Solid State Drive)、光ディスク、光磁気ディスク、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどが用いられる。
また、本実施例に記載の機能を実現するプログラムコードは、例えば、アセンブラ、C/C++、perl、Shell、PHP、Java等の広範囲のプログラム又はスクリプト言語で実装できる。
さらに、実施例の機能を実現するソフトウェアのプログラムコードを、ネットワークを介して配信することによって、それをコンピュータのハードディスクやメモリ等の記憶手段又はCD−RW、CD−R等の記憶媒体に格納し、コンピュータが備えるプロセッサが当該記憶手段や当該記憶媒体に格納されたプログラムコードを読み出して実行するようにしてもよい。
上述の実施例において、制御線や情報線は、説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。全ての構成が相互に接続されていてもよい。

Claims (6)

  1. 複数のオペレーティングシステムが稼働する計算機であって、
    前記計算機は、計算機リソースとして、プロセッサ、前記プロセッサに接続されるメモリ、及び前記プロセッサに接続されるI/Oデバイスを備え、
    前記計算機は、複数の記憶媒体を有するストレージ装置と接続し、
    前記複数のオペレーティングシステムは、前記ストレージ装置に対するアクセスを制御する第1のオペレーティングシステム、及び少なくとも一つの仮想計算機を生成する第2のオペレーティングシステムを含み、
    前記第1のオペレーティングシステム及び前記第2のオペレーティングシステムの各々には、占有的に使用できるように分割された前記計算機リソースが割り当てられ、
    前記少なくとも一つの仮想計算機上では、アプリケーションを実行する第3のオペレーティングシステムが稼動し、
    前記第2のオペレーティングシステムは、前記アプリケーションと前記第1のオペレーティングシステムとの間で通信するために用いられるメモリ領域である共有領域を管理する共有領域管理部と、前記アプリケーションに割り当てられる仮想的なメモリの位置を示すゲスト仮想アドレス空間に、前記共有領域をマッピングするためのアドレスを通知する処理部と、を有し、
    前記第3のオペレーティングシステムは、前記アプリケーションからの要求に応じて前記第2のオペレーティングシステムに対して前記共有領域の確保を要求し、前記ゲスト仮想アドレス空間に確保された前記共有領域をマッピングするエージェントを有し、
    前記共有領域管理部は、
    前記エージェントから前記共有領域の確保要求を受け付けた場合、所定のサイズの前記共有領域を確保し、
    前記仮想計算機に含まれる論理メモリの物理的な位置を示すゲスト物理アドレス空間における、前記確保された共有領域にアクセスするための第1のアドレスを前記エージェントに通知し、
    前記エージェントは、
    前記第1のアドレスを用いて、前記ゲスト仮想アドレス空間に前記確保された共有領域をマッピングし、
    前記ゲスト仮想アドレス空間にマッピングされた前記共有領域にアクセスするための第2のアドレスを前記アプリケーションに通知し、
    前記アプリケーションは、前記第2のアドレスを受け付けた後、前記エージェントを介して前記処理部に前記共有領域を用いた処理の開始要求を送信し、
    前記処理部は、
    前記共有領域管理部から、前記第2のオペレーティングシステムが管理するホスト物理アドレス空間における、前記確保された共有領域にアクセスするための第3のアドレスを取得し、
    前記第1のオペレーティングシステムに前記第3のアドレスを通知し、
    前記第1のオペレーティングシステムは、前記第3のアドレスを用いて前記アプリケーションと通信することによって、前記共有領域を用いた処理を実行することを特徴とする計算機。
  2. 請求項1に記載の計算機であって、
    前記第2のオペレーティングシステムは、前記仮想計算機の起動時に、当該仮想計算機に割り当てられるメモリ領域の一部を前記共有領域として割り当てることを特徴とする計算機。
  3. 請求項2に記載の計算機であって、
    前記共有領域管理部は、
    前記共有領域を複数のブロックに分割して管理し、
    前記エージェントから前記共有領域の確保要求を受け付けた場合、少なくとも一つのブロックを前記アプリケーションに提供する共有領域として確保することを特徴とする計算機。
  4. 複数のオペレーティングシステムが稼働する計算機におけるメモリ領域管理方法であって、
    前記計算機は、計算機リソースとして、プロセッサ、前記プロセッサに接続されるメモリ、及び前記プロセッサに接続されるI/Oデバイスを備え、
    前記計算機は、複数の記憶媒体を有するストレージ装置と接続し、
    前記複数のオペレーティングシステムは、前記ストレージ装置に対するアクセスを制御する第1のオペレーティングシステム、及び少なくとも一つの仮想計算機を生成する第2のオペレーティングシステムを含み、
    前記第1のオペレーティングシステム及び前記第2のオペレーティングシステムの各々には、占有的に使用できるように分割された前記計算機リソースが割り当てられ、
    前記少なくとも一つの仮想計算機上では、アプリケーションを実行する第3のオペレーティングシステムが稼動し、
    前記メモリ領域管理方法は、
    前記アプリケーションが、前記第3のオペレーティングシステムを介して前記アプリケーションと前記第1のオペレーティングシステムとの間で通信するために用いるメモリ領域である共有領域の確保要求を発行するステップと、
    前記第2のオペレーティングシステムが、前記共有領域の確保要求を受け付けた場合、所定サイズの前記共有領域を確保するステップと、
    前記第2のオペレーティングシステムが、前記仮想計算機に含まれる論理メモリの物理的な位置を示すゲスト物理アドレス空間における、前記確保された共有領域にアクセスするための第1のアドレスを前記第3のオペレーティングシステムに通知するステップと、
    前記第3のオペレーティングシステムが、前記第1のアドレスを用いて、前記アプリケーションに割り当てられる仮想的なメモリの位置を示すゲスト仮想アドレス空間に前記確保された共有領域をマッピングするステップと、
    前記第3のオペレーティングシステムが、前記ゲスト仮想アドレス空間にマッピングされた前記共有領域にアクセスするための第2のアドレスを前記アプリケーションに通知するステップと、
    前記アプリケーションが、前記第2のアドレスを受け付けた後、前記第3のオペレーティングシステムを介して前記第2のオペレーティングシステムに前記共有領域を用いた処理の開始要求を送信するステップと、
    前記第2のオペレーティングシステムが、前記処理の開始要求を受け付けた場合、前記第2のオペレーティングシステムが管理するホスト物理アドレス空間における、前記確保された共有領域にアクセスするための第3のアドレスを取得するステップと、
    前記第2のオペレーティングシステムが、前記第1のオペレーティングシステムに前記第3のアドレスを通知するステップと、
    前記第1のオペレーティングシステムが、前記第3のアドレスを用いて前記アプリケーションと通信することによって、前記共有領域を用いた処理を実行するステップと、を含むことを特徴とするメモリ領域管理方法。
  5. 請求項4に記載のメモリ領域管理方法であって、
    前記第2のオペレーティングシステムが、前記仮想計算機の起動時に、当該仮想計算機に割り当てられるメモリ領域の一部を前記共有領域として割り当てるステップを含むことを特徴とするメモリ領域管理方法。
  6. 請求項5に記載のメモリ領域管理方法であって、
    前記第2のオペレーティングシステムが、前記共有領域を複数のブロックに分割して管理するステップを含み、
    前記所定サイズの前記共有領域を確保するステップでは、前記第2のオペレーティングシステムが、少なくとも一つのブロックを前記アプリケーションに提供する共有領域として確保することを特徴とするメモリ領域管理方法。
JP2017527033A 2015-07-08 2015-07-08 計算機及びメモリ領域管理方法 Active JP6458146B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/069628 WO2017006458A1 (ja) 2015-07-08 2015-07-08 計算機及びメモリ領域管理方法

Publications (2)

Publication Number Publication Date
JPWO2017006458A1 JPWO2017006458A1 (ja) 2018-05-10
JP6458146B2 true JP6458146B2 (ja) 2019-01-23

Family

ID=57685160

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017527033A Active JP6458146B2 (ja) 2015-07-08 2015-07-08 計算機及びメモリ領域管理方法

Country Status (4)

Country Link
US (1) US10289564B2 (ja)
JP (1) JP6458146B2 (ja)
CN (1) CN107710160B (ja)
WO (1) WO2017006458A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10528749B2 (en) * 2017-03-20 2020-01-07 Huawei Technologies Co., Ltd. Methods and apparatus for containerized secure computing resources
US10387681B2 (en) * 2017-03-20 2019-08-20 Huawei Technologies Co., Ltd. Methods and apparatus for controlling access to secure computing resources
JP6737471B2 (ja) * 2017-03-30 2020-08-12 日本電気株式会社 制御装置、制御システム、制御方法及びプログラム
JP7083717B2 (ja) * 2018-07-23 2022-06-13 ルネサスエレクトロニクス株式会社 半導体装置
US11487674B2 (en) 2019-04-17 2022-11-01 Rankin Labs, Llc Virtual memory pool within a network which is accessible from multiple platforms
US11061819B2 (en) 2019-05-28 2021-07-13 Micron Technology, Inc. Distributed computing based on memory as a service
US11429390B2 (en) * 2019-12-06 2022-08-30 Rankin Labs, Llc High-level programming language which utilizes virtual memory
CN115669022A (zh) * 2020-05-21 2023-01-31 三星电子株式会社 电子设备提供基于测距的服务的方法和电子设备
CN112596642B (zh) * 2020-12-16 2022-06-07 维沃移动通信有限公司 数据共享方法、装置、设备和可读存储介质
CN113934509A (zh) * 2021-09-02 2022-01-14 三星(中国)半导体有限公司 支持混合虚拟机管理器的系统和运行方法
JPWO2023047436A1 (ja) * 2021-09-21 2023-03-30

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3546678B2 (ja) 1997-09-12 2004-07-28 株式会社日立製作所 マルチos構成方法
JP4402797B2 (ja) 2000-03-02 2010-01-20 株式会社日立製作所 情報処理装置
JP2004258698A (ja) * 2003-02-24 2004-09-16 Hitachi Ltd マルチos計算機システムの制御方法
US20050114595A1 (en) * 2003-11-26 2005-05-26 Veritas Operating Corporation System and method for emulating operating system metadata to provide cross-platform access to storage volumes
US20090113111A1 (en) * 2007-10-30 2009-04-30 Vmware, Inc. Secure identification of execution contexts
US8484452B2 (en) 2008-03-14 2013-07-09 Mitsubishi Electric Corporation Multi-operating system (OS) booting apparatus, multi-OS booting program, recording medium, and multi-OS booting method
CN101477511B (zh) * 2008-12-31 2010-08-25 杭州华三通信技术有限公司 一种实现多操作系统共享存储介质的方法和装置
CN101847105B (zh) * 2009-03-26 2013-09-04 联想(北京)有限公司 一种计算机及多操作系统共享内存的方法
CN103034616B (zh) * 2012-12-07 2015-09-09 中国科学院声学研究所 一种多个操作系统访问存储介质的方法、计算机
GB2554553B (en) * 2015-04-10 2021-12-01 Google Llc Binary translation on shared object level
US10146572B1 (en) * 2016-06-15 2018-12-04 Rockwell Collins, Inc. Resource management in hypervised computer systems

Also Published As

Publication number Publication date
CN107710160A (zh) 2018-02-16
US10289564B2 (en) 2019-05-14
WO2017006458A1 (ja) 2017-01-12
JPWO2017006458A1 (ja) 2018-05-10
CN107710160B (zh) 2021-06-22
US20180203805A1 (en) 2018-07-19

Similar Documents

Publication Publication Date Title
JP6458146B2 (ja) 計算機及びメモリ領域管理方法
US9606745B2 (en) Storage system and method for allocating resource
JP6122078B2 (ja) 空間最適化ブロックデバイスのためのシステムソフトウェアインタフェース
JP4487920B2 (ja) ブート制御方法および計算機システム並びにその処理プログラム
US8365167B2 (en) Provisioning storage-optimized virtual machines within a virtual desktop environment
US8166475B1 (en) Storage area network access for virtual machines
EP3992805A1 (en) Live migration method for virtual machine and communication device
JP6165964B2 (ja) 計算機
JP5770284B2 (ja) I/oスイッチの制御方法、仮想計算機の制御方法及び計算機システム
JP6316895B2 (ja) ホスト側フラッシュストレージデバイスの容量を仮想マシンに利用可能にする技術
JP5149732B2 (ja) 仮想計算機システム
JP2010257274A (ja) 仮想化環境におけるストレージ管理システム及びストレージ管理方法
WO2015052836A1 (ja) ストレージ装置及びフェールオーバ方法
JP2022034455A (ja) 計算機システムおよび管理方法
JP5966466B2 (ja) バックアップ制御方法、および情報処理装置
JP5078592B2 (ja) フェイルオーバーを行わせる方法
WO2015122007A1 (ja) 計算機、及び、ハイパバイザによる資源スケジューリング方法
JP6035993B2 (ja) 情報処理装置、装置管理方法および装置管理プログラム
WO2016110951A1 (ja) 計算機システム、ライセンス管理方法、及び、管理計算機

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181221

R150 Certificate of patent or registration of utility model

Ref document number: 6458146

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111