JP7196439B2 - 仮想化環境におけるデバイスへのアクセス方法 - Google Patents

仮想化環境におけるデバイスへのアクセス方法 Download PDF

Info

Publication number
JP7196439B2
JP7196439B2 JP2018126799A JP2018126799A JP7196439B2 JP 7196439 B2 JP7196439 B2 JP 7196439B2 JP 2018126799 A JP2018126799 A JP 2018126799A JP 2018126799 A JP2018126799 A JP 2018126799A JP 7196439 B2 JP7196439 B2 JP 7196439B2
Authority
JP
Japan
Prior art keywords
virtual
cpu
access
resident
physical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018126799A
Other languages
English (en)
Other versions
JP2020008933A (ja
Inventor
修一 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2018126799A priority Critical patent/JP7196439B2/ja
Priority to PCT/JP2019/021077 priority patent/WO2020008757A1/ja
Publication of JP2020008933A publication Critical patent/JP2020008933A/ja
Priority to US17/129,762 priority patent/US12032983B2/en
Application granted granted Critical
Publication of JP7196439B2 publication Critical patent/JP7196439B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/10Program control for peripheral devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • G06F9/4806Task transfer initiation or dispatching
    • G06F9/4812Task transfer initiation or dispatching by interrupt, e.g. masked
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • G06F9/4806Task transfer initiation or dispatching
    • G06F9/4843Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
    • G06F9/4881Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5066Algorithms for mapping a plurality of inter-dependent sub-tasks onto a plurality of physical CPUs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/52Program synchronisation; Mutual exclusion, e.g. by means of semaphores
    • G06F9/526Mutual exclusion algorithms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/4557Distribution of virtual machine instances; Migration and load balancing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45579I/O management, e.g. providing access to device drivers or storage

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Debugging And Monitoring (AREA)
  • Stored Programmes (AREA)
  • Hardware Redundancy (AREA)

Description

本発明は、仮想的なコンピュータシステムを構築した仮想化環境においてデバイスにアクセスするためのアクセス方法に関する。
近年、ハードウェア上に仮想的なコンピュータシステムを構築した仮想化環境の採用が進んでいる。このような仮想化環境では、一般的に、1つのハードウェア上でハイパーバイザを動作させ、そのハイパーバイザ上で複数の仮想的なコンピュータシステムを動作させている。これにより、例えば複数の処理を並列して実行することが可能になる等、システムの高集積化や高性能化を実現することができる。以下、仮想的なコンピュータシステムを仮想マシンと称し、ハードウェアが備えるCPUを物理CPU、デバイスを物理デバイス、仮想マシン上に仮想化されたCPUを仮想CPU、デバイスを仮想デバイスと称する。
さて、仮想マシンは、ハードウェアが備えるストレージやネットワークインターフェース等の物理デバイスにアクセスしながら動作する。このとき、仮想マシン上では、仮想CPUが仮想デバイスにアクセスすることによって、物理デバイスにアクセスしている。そのため、複数の仮想マシンが構築されている場合であっても、各仮想マシンは、他の仮想マシンの存在を特段考慮することなく独自に動作することができる。
ただし、1つの物理デバイスに対して複数の仮想マシンから同時にアクセスすることはできないため、複数の仮想マシンが構築されている場合には、各仮想マシンは、物理デバイスを排他的に利用することになる。その場合、アクセスするタイミングによっては他の仮想マシンからのアクセスの完了を待機する排他待ちが発生することから、排他待ちを効率的よく実現するためにvirtioと呼ばれる仮想化技術が存在している。
virtioは、ハイパーバイザ上のデバイスドライバが各仮想マシンからのアクセスの要求をキューイングし、物理デバイスへのアクセスが完了するとその要求に対して応答を返す構成となっている。このため、物理デバイスへのアクセスの要求とその要求に対する応答とが切り分けられ、アクセスを要求してから応答が返ってくるまでの期間がいわゆるI/O待ちの状態となることから、アクセス元となった仮想CPUではI/O待ちの期間に他のタスクを実行することが可能になる。そして、このようなvirtioに対しては、例えば特許文献1のように割り込みのオーバーヘッドを改善する等、仮想化環境を効率化するための提案がなされている。
特表2017-518589号公報
ところで、物理デバイスの中には、アクセスの要求と応答とを切り分けることが困難なデバイスが存在する。例えば、GPU(Graphics Processing Unit)は、独自のレジスタをアクセスして複雑な構造を持つ描画要求メモリを伝達する必要があることから、アクセスの要求と応答とを切り分けることが一般的に困難である。そのため、従来では、GPUにアクセスする場合には、描画要求メモリへのread/write命令をトリガーとする描画の開始から描画が完了するまでの処理を一括で実行するようにしていた。
しかしながら、アクセスの終了までの処理を一括で実行する場合、アクセス元となる仮想CPUは、描画が完了するまでGPUのレジスタへのread/write命令を実行中になる。その場合、描画を処理するタスクをI/O待ちの状態にすることができないことから、アクセス元の仮想CPUは、GPUからの応答を待っているだけの状態であったとしても、その待ち時間に他のタスクを実行することができなかった。
このように仮想CPUが占有された状態になると、他のタスクに切り替えることができなくなり、仮想マシンの処理能力が低下することになるとともに、割り当てた物理CPUの利用効率も低下してしまう等、仮想化環境全体のパフォーマンスの低下を招いていた。
本発明の目的は、ハードウェア上に仮想的なコンピュータシステムを構築した仮想化環境において、アクセス元のCPUを占有するタイプのデバイスにアクセスする際のパフォーマンスの低下を抑制することができるアクセス方法を提供することにある。
上記目的を達成するために、本発明は、仮想マシン上に、常には物理CPUに割り当てられている常駐型の仮想CPUと、常には物理CPUが割り当てられていない非常駐型の仮想CPUとを実装し、常駐型の仮想CPUから占有型の物理デバイスに対応する仮想デバイスにアクセスする際、当該仮想デバイスにアクセスする処理を非常駐型の仮想CPUに代行させるアクセス方法を採用している。
この場合、当初のアクセス元である常駐型の仮想CPUは、仮想デバイスにアクセスする処理から開放されることから、他の処理を実行することが可能になる。一方、仮想デバイスにアクセスする処理を代行する非常駐型の仮想CPUは、仮想マシン上においては仮想デバイスに占有された状態になるものの、その状態は、ハイパーバイザから見れば物理デバイスからの応答を待ち合わせて何も動作していないものとして認識される。
そのため、ハイパーバイザ上では、何も動作していない非常駐型の仮想CPUへの物理CPUの割り当てを解除でき、割り当てが解除された物理CPUを、他の処理を実行することが可能な状態となっている常駐型の仮想CPUに割り当てることができる。
これにより、仮想化環境において占有型の物理デバイスにアクセスする際、仮想マシン上では、非常駐型の仮想CPUによってアクセスする処理を継続したまま、常駐型の仮想CPUによって他の処理を実行することができる。したがって、アクセス元のCPUを占有する占有型の物理デバイスにアクセスする場合であっても、仮想化環境のパフォーマンスが低下することを抑制できる。
第1実施形態による仮想化環境の一例を模式的に示す図 アクセス時の作動と物理CPUの割り当て状態との一例を模式的に示す図 第2実施形態による仮想化環境の一例を模式的に示す図
以下、複数の実施形態について図面を参照しながら説明する。また、各実施形態において実質的に共通する構成には同一の符号を付して説明する。
(第1実施形態)
以下、第1実施形態について、図1および図2を参照しながら説明する。
図1に示すように、本実施形態の仮想化環境1は、ハードウェア100、ハードウェア100上で動作するハイパーバイザ200、ハイパーバイザ200上で動作する複数の仮想マシン300を含んで構成されている。以下、ハードウェア100が備えるCPUを物理CPU、デバイスを物理デバイス、仮想マシン300上に仮想化されたCPUを仮想CPU、デバイスを仮想デバイスと称して説明する。
ハードウェア100は、物理CPUに相当する例えば4つのpCPU101~pCPU104、物理デバイスに相当するGPU105(Graphics Processing Unit)、PIC106(Programmable Interrupt Controller)、およびTIMER107等を備えている。本実施形態の場合、ハードウェア100上には4つのCPUコアを単一パッケージに収容したCPUが設けられており、これら4つのCPUコアをそれぞれ個別の物理CPUとして扱っている。また、各物理CPUは、pCPU101およびpCPU102がVM0の仮想マシン300に割り当てられ、pCPU103およびpCPU104がVM1の仮想マシン300に割り当てられている。
GPU105は、周知のようにディスプレイ2への描画を処理する機能を有しており、本実施形態では、独自のレジスタに複雑な構造を持つ描画要求メモリを伝達することで描画を処理する。このGPU105は、詳細は後述するが、GPU105へのアクセスの要求と応答とを切り分けることが困難であり、レジスタへのアクセス中にはアクセス元のCPUを占有するタイプのインターフェースを備えた占有型の物理デバイスに相当する。また、このGPU105は、それぞれの仮想マシン300によって共有される共有デバイスでもある。
PIC106は、GPU105等の物理デバイスからの割り込みの設定や割り込みの有効化/無効化あるいは割り込みの通知先となるCPUの設定等、ハイパーバイザ200上で発生する割り込みを制御するための周知の機能を有している。TIMER107は、ハイパーバイザ200上で必要となる各種の時間を計時する機能を有しており、例えばタイマ割り込み等の周知の処理に利用される。なお、図示は省略するが、ハードウェア100上には、例えばeMMC(embedded Multi Media Card)等のストレージデバイスやNIC(Network Interface Card)のような通信デバイス等の物理デバイス等も設けられている。
ハイパーバイザ200は、周知のようにハードウェア100を仮想化することによって例えば複数の仮想マシン300を動作させるソフトウェアである。本実施形態では、ハードウェア100上でハイパーバイザ200が直接動作し、そのハイパーバイザ200上で仮想マシン300が動作するベアメタル型あるいはネイティブ型と称されるものを想定している。このハイパーバイザ200には、ハイパーバイザスケジューラ201、vGPUドライバ202等が設けられている。
ハイパーバイザスケジューラ201は、各仮想マシン300のスケジューリング等を行うソフトウェアである。vGPUドライバ202は、仮想マシン300上に仮想デバイスを実現するためのドライバソフトウェアであり、本実施形態ではGPU105を仮想化した仮想デバイスであるvGPU305を仮想マシン300上に実現している。
vGPUドライバ202は、各仮想マシン300からのアクセスを排他的に処理する排他ロック機能203を有している。なお、図1では、排他ロック機能203をlockとして示している。vGPUドライバ202は、各仮想マシン300から物理デバイスへのアクセスが要求された場合、排他ロック機能203により各仮想マシン300からのアクセスを排他的に処理することで、それぞれの仮想マシン300からのアクセスの要求に対して正しく物理デバイスを利用できるように制御する。なお、図1では図示を省略しているが、ハイパーバイザ200には他のアプリケーションや他の物理デバイス用のドライバソフトウェア等も実装されている。
仮想マシン300は、周知のようにハイパーバイザ200上で動作する仮想的なコンピュータシステムであり、仮想CPU上で仮想OS(Operating System)を動作させ、仮想デバイスにアクセスしながら各種の処理を実行するように構成されている。本実施形態では、ハイパーバイザ200上に構築されているVM0およびVM1の2つの仮想マシン300は同一構成となっている。そのため、以下では主としてVM0の仮想マシン300を例にして説明する。なお、異なる構成の仮想マシン300を構築することも可能である。
仮想マシン300は、仮想CPUに相当するvCPU301、vCPU302およびvCPU303、仮想デバイスに相当するvGPU305、vPIC306、vTIMER307等を備えている。このうち、vCPU301およびvCPU302は、常には物理CPUに割り当てられて動作可能になっている常駐型の仮想CPUに相当し、vCPU303は、常には物理CPUに割り当てられておらず、必要に応じて物理CPUが割り当てられて動作可能になる非常駐型の仮想CPUに相当する。つまり、仮想マシン300は、常には動作可能な仮想CPUが、割り当てられる物理CPUの数だけ実装されている。
各仮想CPUには、割り当て可能な物理CPUを示すcpumaskがそれぞれ設定されている。このcpumaskには、割り当てが可能な物理CPUの識別情報が例えばビット列として設定されている。例えばVM0の場合、vCPU301、vCPU302およびvCPU303の3つの仮想CPUには、それぞれpCPU101およびpCPU102の2つの物理CPUが割り当て可能であることを示す値が設定されている。なお、VM1の場合、3つの仮想CPUのcpumaskには、pCPU103とpCPU104の2つの物理CPUが割り当て可能であることを示す値が設定される。つまり、各仮想マシン300上の各仮想CPUには、それぞれ物理CPUが重複しないように割り当てられている。
これにより、各仮想マシン300の仮想CPUに対して物理CPUが個別に配分され、互いの仮想マシン300の動作が他方の仮想マシン300のパフォーマンスに影響を与えるおそれを無くすことができる。なお、cpumaskは割り当て可能な物理CPUを識別する値であって、実際にどの物理CPUが割り当てられるかは、ハイパーバイザスケジューラ201によって管理される。
仮想マシン300上には、周知のように、各種のタスクT0~TNを起動するタスク起動処理308、起動されたタスクのスケジューリング等を行うOSスケジューラ309が実装されている。また、仮想マシン300上には、仮想デバイスにアクセスするためのドライバソフトウェアである仮想ドライバが実装されている。本実施形態では、vGPU305にアクセスするためのグラフィックドライバ310を想定している。なお、図1では図示を省略しているが、他の仮想デバイス用のドライバソフトウェアも実装されている。
各タスクには、タスク起動処理308によってcpumaskvが設定される。このcpumaskvは、そのタスクを実行可能な仮想CPUの番号等の識別情報が設定されている。本実施形態の場合、各タスクのcpumaskvには、常駐型の仮想CPUであるvCPU301およびvCPU302での実行を許可する一方、非常駐型の仮想CPUであるvCPU303での実行を許可しない値が設定される。そのため、起動したタスクは、cpumaskvを参照したOSスケジューラ309によって、vCPU301またはvCPU302のいずれかに割り振られる。このとき、OSスケジューラ309は、各仮想CPUが均等に使用されるようにタスクを割り振る。
グラフィックドライバ310は、占有型の仮想デバイスであるvGPU305にアクセスするためのものであり、仮想デバイスにアクセスするアクセス部分(s)を有するシステムコール部311と、アクセス部分(i)を有する割り込みハンドラ部312とを含んでいる。なお、システムコール部311および割り込みハンドラ部312の動作は周知であるので、説明を省略する。
また、グラフィックドライバ310は、cpumask変更処理313、および、IRQmask設定処理314を有している。詳細は後述するが、cpumask変更処理313は、詳細は後述するがタスクに設定されているcpumaskを変更する処理であり、IRQmask設定処理314は、割り込みハンドラ部312を動作させる仮想CPUを示すIRQmask315を設定する処理である。vGPU305の場合、仮想マシン300の起動時に、IRQmask設定処理314によって割り込みハンドラ部312がvCPU303でのみ動作するように設定されている。
次に、上記した構成の作用について説明する。
まず、ハイパーバイザ200を採用した仮想化環境1の動作について簡単に説明する。ハイパーバイザ200は、ハイパーバイザスケジューラ201、物理CPU、PIC106やTIMER107等を利用しつつ仮想マシン300を並列動作させている。このとき、各仮想マシン300のリアルタイム性能を最大限に活かすため、cpumaskを設定して物理CPUをそれぞれの仮想マシン300に対して個別に配分し、他の仮想マシン300の影響を受けないように、また、他の仮想マシン300に影響を与えないようにしている。
具体的には、例えばvCPU301とvCPU302が稼動状態となっており、vCPU303が待機状態となっている場合には、ハイパーバイザスケジューラ201は、vCPU301とvCPU302のcpumaskを参照して、例えばpCPU101をvCPU301に割り当て、pCPU102をvCPU302に割り当てる。なお、ここで言う稼動状態とは、仮想CPUに何らかの処理が割り振られた状態を意味しており、稼動状態の仮想CPUに物理CPUが割り当てられると、その仮想CPUは動作可能な状態になる。
一方、ハイパーバイザ200は、vCPU303が稼動状態になると、pCPU101またはpCPU102をvCPU303に割り当て、その期間はvCPU301かvCPU302のいずれかは物理CPU待ちの状態になる。このように、ハイパーバイザ200は、仮想CPUに対して極力均等に物理CPUが割り当てることで、仮想化環境1が効率的に動作するようにしている。これにより、各仮想マシン300は、2つの物理CPUを備えたOSと同等の性能で動作することができ、複数のタスクの同時実行がハイパーバイザ200を使わない通常のOSと同様に実現されている。
さて、このような仮想化環境1では、各仮想マシン300は、ハードウェア100上のGPU105や上記したeMMCあるいはNIC等の物理デバイスを共有してアクセスすることがある。そのため、仮想化環境1では、例えばvGPUドライバ202をハイパーバイザ200上で動作させ、仮想マシン300上に仮想デバイスを実現することにより、各仮想マシン300では独立したデバイスのようにアクセスすることを可能としている。
ただし、ハードウェア100が備える物理デバイスが1つの場合には、複数の仮想マシン300からのアクセスの要求は時分割で排他的に処理されることになる。その場合、他の仮想マシン300がアクセスしている場合には排他待ち状態となることから、前述したvirtioのような仮想化技術が存在している。
ただし、物理デバイスの中には、本実施形態のGPU105のようにアクセスの要求と応答とを切り分けることが困難であり、また、アクセス時にレジスタ命令の実行中となってタスクをI/O待ちの状態にすることができないような占有型のデバイスが存在する。このような占有型のデバイスにアクセスする場合には、例えばGPU105からの応答を待っているだけの状態であったとしても、その待ち時間に他のタスクを実行することができないことから、仮想化環境1のパフォーマンスが低下することになる。
具体的には、GPU105で言えば描画実行中には描画以外のタスクを実行できず、CPUの有効活用ができないことから、他処理の遅延を招いてしまうことになる。特に、描画処理では大量の仮想マシン300上のメモリにアクセスすることから、その待ち時間が例えば数十ミリ秒かかってしまうようなケースも想定される。その場合、他のタスクが実行できなくなると、画像とともに音声再生のタスクを同時実行している場合には、音切れを発生させてしまう。また、リアルタイム性を求める処理が実行されない場合や遅延する場合も想定される。
そこで、本実施形態では、占有型のデバイスへのアクセス中には仮想CPUが占有されて他のタスクへの切り替えはできないものの、物理CPUは何も処理をしていない状態になっていることに着目し、仮想化環境1のパフォーマンスが低下することを抑制している。
以下、仮想マシン300上で起動されたタスクT0からGPU105に対するアクセスの要求が発行される場合を例にして、本実施形態のアクセス方法について説明する。なお、一般的なOSの場合にはアプリケーションはプロセス空間を有するものでありスレッドと称されることもあるが、本明細書では、アプリケーションであってもOS内部で実行されるものであっても、同時に実行可能なプログラム単位をタスクと称している。
さて、仮想マシン300上でタスクT0が起動されると、タスクT0は、cpumaskvの設定によりvCPU301またはvCPU302に割り当てられる。ここでは、図2に示すように、例えば時刻t0においてタスクT0が起動され、タスクT0がvCPU301に割り当てられたとする。なお、図2の物理CPUの割り当て状態として示すように、タスクT0を実行するvCPU301には物理CPUとしてpCPU101が割り当てられているものとする。また、図2において各タスクに対応して設けた太線は、物理CPUが割り当てられていることを示している。
タスクT0が実行されてグラフィックドライバ310を呼び出されると、タスクT0ではシステムコール部311が動作する。システムコール部311では、まず、タスクT0のcpumaskv0をvCPU303でのみ実行可能となるように変更するcpumask変更処理313が実行される。また、このcpumask変更処理313では、cpumaskv0がvCPU301およびvCPU302を含まない値に変更されたことを確認すると、タスクT0を実行可能になったvCPU303にタスクT0を再割り当てするようにOSスケジューラ309に指示が出される。
OSスケジューラ309に指示が出されると、vCPU303が他のタスクに使用されている場合には一旦待ち状態となるが、vCPU303が使われていなかった場合あるいは待ち状態が終了した場合には、vCPU303にタスクT0が割り当られてvCPU303が稼動状態になる。仮想CPUの稼動状態はハイパーバイザ200上のハイパーバイザスケジューラ201によってチェックされていることから、vCPU303が稼動状態になったこともハイパーバイザスケジューラ201に検知されることになる。
vCPU303が稼動状態になったことを検知したハイパーバイザスケジューラ201は、vCPU301およびvCPU302に加えて、vCPU303を物理CPUの割り当て対象とする。この状態では一時的には3つの仮想CPUが2つの物理CPU上で動作することになるため、例えば図2の時刻t1においてvCPU303にpCPU101が割り当てられたとすると、それまでpCPU101が割り当てられていたvCPU301は一時的に物理CPU待ちの状態になる。つまり、時刻t1において、タスクT0を実行する仮想CPUが、vCPU301からvCPU303に切り替えられる。
この時点でシステムコール部311がvCPU303で動作可能な状態になることから、システムコール部311の処理をvCPU303上で継続することができる。そのため、システムコール部311は、アクセス部分(s)を呼び出し、アクセス部分(s)はvGPU305のレジスタにアクセスする。vGPU305へのアクセスはハイパーバイザ200上のvGPUドライバ202に伝達されるものの、他の仮想マシン300の実行の待ち合わせやGPU105へアクセスする準備のために排他ロック機能203によって一旦待機する。このとき、vCPU303は、ロック解除待ちで待機状態になる。
例えば図2の時刻t2においてvCPU303が待機状態になったとすると、処理が仮想マシン300からハイパーバイザ200に移管されるVMホスト切り替えが行われる。このとき、ハイパーバイザスケジューラ201は、待機状態になって何も処理を行っていないvCPU303へのpCPU101の割り当てを解除するとともに、物理CPU待ちの状態となっているvCPU301にpCPU101を再び割り当ててvCPU301を動作可能な状態とする。vCPU301が動作可能な状態になると、仮想マシン300上では例えばタスクT1をvCPU301で実行することが可能になる。
そのため、3つの仮想CPUに2つの物理CPUを割り当てている状態であっても、vCPU303は待機状態となっていることから物理CPUの割り当てを解除でき、その結果、実質的にvCPU301とvCPU302の2つの仮想CPUで2つの物理CPUを占有的に使用することが可能になる。このため、仮にアクセス部分(s)のレジスタへのアクセスが遅延したりアクセスに時間を要したりする場合であっても、仮想化環境1全体としての性能は実質的に2つの仮想CPUに2つの物理CPUを割り当てた状態と同等となり、仮想化環境1のパフォーマンスを維持することが可能になる。
さて、vGPUドライバ202にて排他待ちのロックが解除されてGPU105へのアクセスが終了すると、その結果がアクセス部分(s)に返されることから、タスクT0が動作可能な状態、より具体的に言えば、中断していたアクセス部分(s)が動作を再開可能な状態になる。この場合、vCPU303に物理CPUを割り当てる必要があるが、タスクT0が動作可能な状態になったことを検知したハイパーバイザスケジューラ201により所定のスケジューリング時間後に物理CPUの割り当てが見直され、vCPU303に例えばpCPU101が割り当てられる。これにより、アクセス部分(s)は動作を再開する。
そして、アクセス部分(s)の処理が終わると、cpumask変更処理313によって、cpumaskv0を、vCPU301およびvCPU302での実行を許可する一方、vCPU303での実行を許可しない値に変更する。つまり、cpumaskv0は元の値に戻される。その結果、タスクT0がvCPU301またはvCPU302の動作待ちになるとともに、vCPU303が何も処理をしていない状態になる。
そのため、ハイパーバイザスケジューラ201は、何も処理をしていないvCPU303を物理CPUの割り当てを解除し、vCPU301とvCPU302に物理CPUを割り当てるように動作する。これにより、vCPU301とvCPU302は、それぞれpCPU101とpCPU102をフルタイムで利用可能な状態に復帰する。
ここで注目すべきは、レジスタへのアクセス中は、タスクT0としては待機状態ではなくvCPU303上で動作状態であったことである。OSスケジューラ309は、動作状態にあるタスクから他のタスクに切り替えることができないため、従来であれば、タスクT0を実行していたvCPU301に他のタスクを実行させることができなかった。
これに対して、本実施形態では、cpumask変更処理313によってタスクT0の実行主体をvCPU301からvCPU303に切り替えている。つまり、vGPU305にアクセスする処理をvCPU303に代行させている。この状態では3つの仮想CPUが動作することになるものの、実質的にはvGPUドライバ202は排他待ちの状態になっていることから、ハイパーバイザスケジューラ201は、vCPU303には物理CPUを割り当てず、vCPU301とvCPU302に物理CPUが割り当てている。
つまり、非常駐型の仮想CPUであるvCPU303を設けて、vCPU303がvGPU305の動作完了を待ち合わせて待機状態となるように構成したことにより、vCPU301をタスクT0から開放することが可能となり、vCPU301に他のタスクを実行させることができ、仮想化環境1全体として効率的な動作が可能になったのである。
ところで、グラフィックドライバ301のシステムコール部311は、vGPU305のレジスタへのアクセスだけでシステムコールの目的を果たすものもあれば、vGPU305の状態の変化を待ち合わせてからレジスタアクセスをする場合もある。この場合、システムコール部311は要求内容をメモリ上に記録し、vGPU305の状態変化があったときに動作するように設定して終了する。
vGPU305の状態変化は、割り込みによって通知される。このとき、PIC106によってハイパーバイザスケジューラ201に割り込みが通知される。通知された割り込みは、vPIC306のIRQmask315によってvCPU303が設定されていることから、vCPU303で処理されることになる。そのため、ハイパーバイザスケジューラ201は、vCPU303の割込みハンドラ部を動作させるために、vCPU303に物理CPUを割り当てる。
割り込みハンドラ部312が動作してアクセス部分(i)がvGPU305のレジスタにアクセスすると、vGPU305へのアクセスはハイパーバイザ200上のvGPUドライバ202に伝達されるものの、他の仮想マシン300の実行の待ち合わせやGPU105へアクセスする準備のために排他ロック機能203によって一旦待機する。このとき、vCPU303は、ロック解除待ちで待機状態になる。このとき、ハイパーバイザスケジューラ201は、アクセス部分(s)と同様に、排他待ち状態となったvCPU303への物理CPUの割り当てを解除するとともに、vCPU301とvCPU302に物理CPUを割り当てて動作させる。これにより、アクセス部(i)のレジスタへのアクセス待ちの間も仮想マシン300上の他のタスクを動作可能にすることができるようになる。
そして、vGPUドライバ202の排他待ちが完了すると、アクセス部分(i)が動作を再開し、vGPUドライバ202を経由してGPU105のアクセスが可能となる。また、割込みハンドラ部312の動作が終了すると、vCPU303が空きとなり、ハイパーバイザスケジューラ201は、vCPU301とvCPU302の処理だけを行うようになる。
このように、本実施形態では、グラフィックドライバ310において、アクセス部分(s)およびアクセス部分(i)の処理を非常駐型のvCPU303で行うことにより、レジスタへのアクセスを待ち合わせてアクセス元のCPUが占有されるような場合であっても、他のタスクが常駐型の仮想CPUで動作できるアクセス方法を採用している。
以上説明したアクセス方法によれば、次のような効果を得ることができる。
アクセス方法は、仮想化環境1において、仮想マシン300上に、常には物理CPUが割り当てられている常駐型の仮想CPU(vCPU301、vCPU302)と、常には物理CPUが割り当てられていない非常駐型の仮想CPU(vCPU303)とを実装し、常駐型の仮想CPUから占有型の物理デバイスに対応する仮想デバイスにアクセスする際、当該仮想デバイスにアクセスする処理を非常駐型の仮想CPUに代行させる。
これにより、アクセス元となる常駐型の仮想CPUから非常駐型の仮想CPUに処理が移管され、非常駐型の仮想CPUがアクセス中に占有状態になったとしても、常駐型の仮想CPUにおいて他のタスクを実行することが可能になる。この場合、アクセス中に占有状態になった非常駐型の仮想CPUが実質的に何も処理をしていない待機状態になれば物理CPUの割り当てを解除できるため、占有型のデバイスへのタスクを継続したまま、常駐型の仮想CPUに物理CPUを割り当てて他のタスクを実行させることができる。
したがって、占有型の物理デバイスにアクセスする場合であっても物理CPUを有効的に利用することができ、ハードウェア100上に仮想的なコンピュータシステムを構築した仮想化環境1において、占有型のデバイスにアクセスする際のパフォーマンスの低下を抑制することができる。
また、システムコール要求におけるレジスタアクセスは、システムコール呼び出しの延長時に行うものと、割り込みの延長時に行うものとの2つが想定されるものの、いずれの場合にも上記したアクセス方法を適用でき、占有型のデバイスへのアクセス時に物理CPUを有効活用することができる。
この場合、非常駐型の仮想CPUは稼動状態でなければ物理CPUの割り当て対象とはならないため、単純に3つの常駐型の仮想CPUを設けて時系列で3つの仮想CPUをスケジューリングする構成とは異なり、仮想化環境1のパフォーマンスに影響を与えることもない。したがって、仮想化環境1にリアルタイム性が求められる場合において、特に有意となる。
この場合、本実施形態のように、占有型の仮想デバイスにアクセスするためのドライバソフトウェアであって、システムコール部311と割り込みハンドラ部312とを含み、前記システムコール部311と前記割り込みハンドラ部312のそれぞれに仮想デバイスにアクセスするアクセス部分が設けられている仮想ドライバを実装し、常駐型の仮想CPUから占有型の仮想デバイスにアクセスする際、少なくともアクセス部分(s、i)を非常駐型の仮想CPUで代行するアクセス方法を採用することができる。
このような構成によっても、アクセス部分(s)を切り分けて処理することが難しいデバイスであっても占有型のデバイスへのアクセスを非常駐型の仮想CPUに容易に代行させることが可能となり、上記したように占有型のデバイスにアクセスする際のパフォーマンスの低下を抑制することができる。
また、本実施形態のように、ハイパーバイザ200上で2つ以上の仮想マシン300を動作させる場合であっても、それぞれの仮想マシン300において上記したアクセス方法を採用することにより、各仮想マシン300の性能を維持することができる。つまり、ハイパーバイザ200上で2つ以上の仮想マシン300を動作させ、複数の仮想マシン300に物理CPUを重複しないように割り当てる構成とすることで、より厳密には、各仮想マシン300上の各仮想CPUにそれぞれ物理CPUを重複しないように割り当てることで、仮想化環境1の性能が最も高くなると期待できる。
また、本実施形態ではハードウェア100が1つの占有型の物理デバイスを備える構成を例示したが、ハードウェア100が複数の占有型の物理デバイスを備えている場合には、ハードウェア100が備える占有型の物理デバイスと同じ数の非常駐型の仮想CPUを実装することにより、上記したアクセス方法を採用することができる。
換言すると、仮想マシン300に割り当てられる物理CPUの数に等しい常駐型の仮想CPUと、仮想マシン300においてアクセス対象となる占有型の物理デバイスの数に等しい非常駐型の仮想CPUとを設けることにより、占有型の物理デバイスにアクセスするとき以外の期間においては従来と同等の性能を確保することができるとともに、占有型の物理デバイスにアクセスする期間においては従来では不可能であった別のタスクの実行が可能となり、仮想化環境1の性能を向上させることができる。
ただし、常駐型の仮想CPUは、必要とされる場合には、仮想マシン300に割り当てられる物理CPUの数よりも多くすることもできる。そのような構成であっても、非常駐型の仮想CPUを別途設けることにより、占有型のデバイスにアクセスする際のパフォーマンスの低下を抑制することができる。
(第2実施形態)
以下、第2実施形態について、図3を参照しながら説明する。第2実施形態では、システムコール部311で動作するアクセス部分(s)を専用タスクとしている点において第1実施形態と異なっている。
図3に示すように、本実施形態の仮想化環境1は、ハードウェア100、ハードウェア100上で動作するハイパーバイザ200、ハイパーバイザ200上で動作する複数の仮想マシン300を含んで構成されており、そのハードウェア100上でハイパーバイザ200が動作するとともに、そのハイパーバイザ200上でVM0およびVM1の2つの仮想マシン300が動作している。
ハードウェア100は、第1実施形態と同様に、物理CPUに相当する4つのpCPU101~pCPU104、物理デバイスに相当するGPU105、PIC106、およびTIMER107等を備えている。このうち、pCPU101およびpCPU102は、VM0の仮想マシン300に割り当てられ、pCPU103およびpCPU104は、VM1の仮想マシン300に割り当てられている。
GPU105は、第1実施形態と同様に、GPU105へのアクセスの要求と応答とを切り分けることが困難であり、レジスタへのアクセス中にはアクセス元のCPUを占有するタイプのインターフェースを備えた占有型の物理デバイスを想定している。
ハイパーバイザ200は、第1実施形態と同様に、ハイパーバイザスケジューラ201、vGPUドライバ202等が設けられている。仮想マシン300は、第1実施形態と同様に、常駐型の仮想CPUに相当するvCPU301およびvCPU302、非常駐型の仮想CPUに相当するvCPU303、仮想デバイスに相当するvGPU305、vPIC306、vTIMER307等を備えているとともに、各種のタスクを起動するタスク起動処理308、起動されたタスクのスケジューリング等を行うOSスケジューラ309が実装されている。
また、仮想マシン300上には、仮想ドライバとしてのグラフィックドライバ410が実装されている。本実施形態のグラフィックドライバ410は、専用タスク要求処理411により、システムコール部311から行われるvGPU305へのアクセスを処理するアクセス部分(s)を専用タスクTSとして呼び出し可能に構成されている。この専用タスクTSは、vCPU303でのみ動作が可能となるようにcpumaskvSが設定されている。
さて、仮想マシン300上で起動したタスクT0からvGPU305へのアクセスが発生すると、グラフィックドライバ410が呼び出されてシステムコール部311が動作する。すると、システムコール部311は、専用タスク要求処理411によって専用タスクTSのアクセス部分(s)に処理の開始を要求するとともに、アクセス部分(s)の処理の完了を待ち合わせる。この時点でvCPU301は待ち状態となることから、他のタスクをvCPU301上で動作させることが可能になる。つまり、専用タスクTSの実行中にvCPU303が待ち状態になれば、vCPU301を動作させることができる。
この専用タスクTSは、cpumaskvSの設定によってvCPU303で処理を開始する。この状態では物理CPUを割り当てる仮想CPUが3つになるため、ハイパーバイザスケジューラ201は、pCPU101とpCPU102を3つの仮想CPUに均等に配分しようとする。そして、vCPU303に物理CPUが割り当てられると、専用タスクTSのアクセス部分(s)は、処理を開始してvGPUドライバ202をアクセスし、他の仮想マシン300の排他待ちであれば一時的に処理を待機し、排他待ちが解除されると処理を再開する。
アクセス部分(s)の処理が完了すると、vCPU303は、処理がなくなって待機状態となるとともに、完了が通知された専用タスク要求処理411が動作を再開し、システムコール部311は、第1実施形態と同様に割り込みハンドラ部312が動作するまでvGPU305の動作完了待ちの状態となる。
このように、本実施形態では、アクセス部分(s)を専用タスクとしてグラフィックドライバ410から呼び出す構成としたことにより、アクセスの要求つまりはアクセス部分(s)への処理の開始と、その要求に対する応答つまりはアクセス部分(s)の処理の完了とを切り離すことが可能になる。これにより、vGPU305へのアクセスを言わば擬似的なI/Oとして行うことが可能となり、そのI/O待ちの期間に他のタスクを実行することが可能になる。
したがって、占有型の物理デバイスにアクセスする場合であっても物理CPUを有効的に利用することができ、ハードウェア100上に仮想的なコンピュータシステムを構築した仮想化環境1において、占有型のデバイスにアクセスする際のパフォーマンスの低下を抑制することができる。
この場合、第1実施形態と同様に、仮想化環境1のリソースを無駄に減らすことがなく、また、仮想化環境1のパフォーマンスに影響を与えることもないことから、仮想化環境1にリアルタイム性が求められる場合において特に有意となる。また、タスク起動処理308やOSスケジューラ309等の基本的な部分に手を加える必要もない。
また。本実施形態のように、占有型の仮想デバイスにアクセスするためのドライバソフトウェアであって、システムコール部311と割り込みハンドラ部312とを含み、システムコール部311から行われる仮想デバイスへのアクセスを処理するアクセス部分を、専用タスクTSとして呼び出し可能に構成した仮想ドライバを実装し、常駐型の仮想CPUから占有型の仮想デバイスにアクセスする際、専用タスクTSを非常駐型の仮想CPUで実行することにより、仮想デバイスへのアクセスを擬似的なI/Oとして行うことが可能となる。
これにより、仮想CPUの動作が第1実施形態よりもシンプルなものになるため、アクセス部分(s)を明確に分離できるデバイスを対象とする場合に容易に上記したアクセス方法を実現することができる。
ただし、アクセス部分(s)が明確に分離できないデバイスを対象とする場合には第1実施形態のアクセス方法の方がよい場合もあるため、例えば対象となる占有型の物理デバイスが複数存在する場合には、物理デバイスによって第1実施形態のアクセス方法と第2実施形態のアクセス方法とを使い分けできるように、占有型の物理デバイスと同じ数の非常駐型の仮想CPUを実装するとともに、それぞれに適した複数の仮想ドライバを実装する構成とすることもできる。
(その他の実施形態)
第2実施形態では、仮想マシン300上に専用タスクTSを設ける構成を例示したが、ハイパーバイザ200上で類似の処理は行う構成とすることもできる。具体的には、ハイパーバイザ200上のハイパーバイザスケジューラ201に、仮想マシン300に加えて、占有型の物理デバイスに直接的にアクセス可能に構成したタスクをスケジューリング対象として配置し、非常駐型の仮想CPUからアクセスの要求があった際、ハイパーバイザ200上に配置したタスクを用いて占有型の物理デバイスにアクセスする構成とすることができる。
このような構成の場合、ハイパーバイザ200上のvGPUドライバ202は、タスクが物理デバイスへのアクセスを処理しているとき、第2実施形態のように、物理デバイスの動作が完了するまで仮想マシン300側からの処理を待ち合わせることが可能になる。そのため、非常駐型の仮想CPUからのアクセスの要求を擬似的なI/Oとして扱うことができ、I/O待ちの期間には非常駐型の仮想CPUへの物理CPUの割り当てを解除できることから、常駐型の仮想CPUにおいて他のタスクを実行することができる。
これにより、デバイスにアクセスする際のパフォーマンスの低下を抑制することができる、ハイパーバイザ200上で2つ以上の仮想マシン300を動作させる場合であっても各仮想マシン300の性能を維持することができる等、各実施形態と同様の効果を得ることができる。また、タスクをハイパーバイザスケジューラ201上に配置していることから、仮想マシン300上のOSスケジューラ309を介さずにその動作をスケジューリングすることができるため、例えばリアルタイム性が求められるアプリケーションに適用する等、優先度が高い処理に好適なものとなる。
各実施形態では占有型の物理デバイスへのアクセスを非常駐型の仮想CPUに代行させる例を示したが、アクセスに要する時間に基づいて非常駐型の仮想CPUに代行させるか否かを選択する構成とすることができる。具体的には、事前テスト等により計測した占有型の物理デバイスへのアクセスに要する最大待ち時間を予め設定し、最大待ち時間が予め設定した規定時間よりも長い場合にはアクセスする処理を非常駐型の仮想CPUに代行させる一方、最大待ち時間が規定時間よりも短い場合にはアクセスする処理を常駐型の仮想CPUで実行する構成とすることができる。
これにより、例えばアクセスを代行させる処理に要する時間がアクセスを代行させることで得られる物理CPUの利用時間よりも長くなる場合等にはアクセスを代行させないことが可能となり、仮想化環境のパフォーマンスを意図せずに低下させてしまうことを抑制できる。
各実施形態では占有型の物理デバイスとしてGPU105を例示したが、本実施形態のアクセス方法は、GPU105に限定されず、例えばGPU105を画像処理以外の処理に応用するGPGPU(General-purpose computing on graphics processing units)や画像処理専用のIPU(Image processing unit)、あるいはベンダー独自のインターフェースを有するようなデバイスへのアクセスにも適用することができる。
各実施形態では、4つの物理CPUを2つの仮想マシン300に割り当てた例を示したが、仮想マシン300の数は、これに限定されない。構築する仮想マシン300の数をMとすると、ハードウェア100が備える物理CPUの数がM以上であれば、各仮想マシン300に重複無く物理CPUを割り当てることができる。つまり、ハイパーバイザ200上で2つ以上の仮想マシン300を動作させ、複数の仮想マシン300に物理CPUを重複しないように割り当てる構成とすることができる。このとき、各仮想マシン300には割り当てられた物理CPUの数と同じ常駐型の仮想CPUを設け、対象となる占有型の物理デバイスの数と同じ非常駐型の仮想CPUを設け、上記したアクセス方法を適用することで、仮想化環境1のパフォーマンスが低下することを抑制することができる。
本開示は、実施例に準拠して記述されたが、本開示は当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に含まれるものである。
図面中、1は仮想化環境、100はハードウェア、101~104はpCPU(物理CPU)、105はGPU(占有型の物理デバイス)、200はハイパーバイザ、201はハイパーバイザスケジューラ、300は仮想マシン、301~302はvCPU(常駐型の仮想CPU)、303はvCPU(非常駐型の仮想CPU)、305はvGPU(仮想デバイス)、310はグラフィックドライバ(仮想ドライバ)、311はシステムコール部、312は込みハンドラ部、410はグラフィックドライバ(仮想ドライバ)、T0~TNはタスク、TSは専用タスクを示す。

Claims (7)

  1. 仮想化環境(1)においてデバイスにアクセスするためのアクセス方法であって、
    理CPU(101、102、103、104)および物理デバイス(105)を備えたハードウェア(100)と、前記ハードウェア上で動作するハイパーバイザ(200)と、前記ハイパーバイザ上で動作し、前記物理CPUを仮想化した仮想CPU(301、302、303)および前記物理デバイスを仮想化した仮想デバイス(305)を備える仮想マシン(300)とを含み、
    前記ハードウェアは、アクセスが要求されてからその要求に対する応答を返すまでアクセス元のCPUを占有する占有型の前記物理デバイス(105)を備えており、
    前記仮想マシン上に予め前記物理CPUが割り当てられている常駐型の前記仮想CPU(301、302)と、処理が必要になった際に前記物理CPUが割り当てられ非常駐型の前記仮想CPU(303)と実装されている仮想化環境において、
    常駐型の前記仮想CPUで実行されるタスクが占有型の前記物理デバイスに対応する前記仮想デバイスにアクセスする際
    常駐型の前記仮想CPUへの前記物理CPUの割り当てを解除して非常駐型の前記仮想CPUに前記物理CPUを割り当てて、前記仮想デバイスへのアクセスを非常駐型の前記仮想CPUに代行させる処理と、
    前記物理CPUが割り当てられた非常駐型の前記仮想CPUがアクセスする処理のために待機状態となっている間、当該非常駐型の前記仮想CPUに割り当てられている前記物理CPUを、前記物理CPUが割り当てられていない常駐型の前記仮想CPUに割り当てて、アクセスする処理以外の他の処理を当該常駐型の前記仮想CPUで実行可能にする処理と、を実行することにより占有型の前記物理デバイスにアクセスするアクセス方法。
  2. 前記仮想化環境は、前記仮想マシン上に、占有型の前記仮想デバイスにアクセスするためのドライバソフトウェアであって、システムコール部(311)と割り込みハンドラ部(312)とを含み、前記システムコール部と前記割り込みハンドラ部とのそれぞれに前記仮想デバイスにアクセスするアクセス部分(s、i)が設けられている仮想ドライバ(310)実装されており、
    非常駐型の前記仮想CPUにアクセスを代行させる処理では、前記アクセス部分を非常駐型の前記仮想CPUで実行する請求項1に記載のアクセス方法。
  3. 前記仮想化環境は、前記仮想マシン上に、占有型の前記仮想デバイスにアクセスするためのドライバソフトウェアであって、システムコール部と割り込みハンドラ部とを含み、前記システムコール部から行われる前記仮想デバイスへのアクセスを処理するアクセス部分(s)を、アクセスの要求に対する処理と当該要求に対して応答する処理とを切り離して実行可能な専用タスク(TS)として呼び出し可能に構成した仮想ドライバ(410)実装されており、
    非常駐型の前記仮想CPUにアクセスを代行させる処理では、前記専用タスクを非常駐型の前記仮想CPUで実行する請求項1に記載のアクセス方法。
  4. 前記仮想化環境は、前記ハイパーバイザ上のハイパーバイザスケジューラ(201)に、前記仮想マシンに加えて、占有型の前記物理デバイスに直接的にアクセス可能に構成したタスクスケジューリング対象として配置されており
    非常駐型の前記仮想CPUにアクセスを代行させる処理では、アクセスの要求に対する処理と当該要求に対して応答する処理とを切り離して実行可能な専用タスクを非常駐型の前記仮想CPUで実行し、
    前記ハイパーバイザ上に配置されているタスクは、前記専用タスクが実行されている非常駐型の前記仮想CPUからアクセスの要求があった際、占有型の前記物理デバイスにアクセスする請求項1に記載のアクセス方法。
  5. 前記仮想化環境は、占有型の前記物理デバイスへのアクセスに要する最大待ち時間が予め設定されており
    非常駐型の前記仮想CPUにアクセスを代行させる処理では、前記最大待ち時間が予め設定した規定時間よりも長い場合にはアクセスする処理を非常駐型の前記仮想CPUに代行させる一方、前記最大待ち時間が前記規定時間よりも短い場合にはアクセスする処理を常駐型の前記仮想CPUで実行する請求項1から4のいずれか一項に記載のアクセス方法。
  6. 前記仮想化環境は、前記ハイパーバイザ上で2つ以上の前記仮想マシン動作しており、複数の前記仮想マシンに対して前記物理CPU重複しないように割り当てられている請求項1から5のいずれか一項に記載のアクセス方法。
  7. 前記仮想化環境は、前記仮想マシンに、前記ハードウェアが備える占有型の前記物理デバイスと同じ数の非常駐型の前記仮想CPU実装されている請求項1から6のいずれか一項に記載のアクセス方法。
JP2018126799A 2018-07-03 2018-07-03 仮想化環境におけるデバイスへのアクセス方法 Active JP7196439B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018126799A JP7196439B2 (ja) 2018-07-03 2018-07-03 仮想化環境におけるデバイスへのアクセス方法
PCT/JP2019/021077 WO2020008757A1 (ja) 2018-07-03 2019-05-28 仮想化環境におけるデバイスへのアクセス方法
US17/129,762 US12032983B2 (en) 2018-07-03 2020-12-21 Method of accessing device in virtual environment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018126799A JP7196439B2 (ja) 2018-07-03 2018-07-03 仮想化環境におけるデバイスへのアクセス方法

Publications (2)

Publication Number Publication Date
JP2020008933A JP2020008933A (ja) 2020-01-16
JP7196439B2 true JP7196439B2 (ja) 2022-12-27

Family

ID=69059578

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018126799A Active JP7196439B2 (ja) 2018-07-03 2018-07-03 仮想化環境におけるデバイスへのアクセス方法

Country Status (2)

Country Link
JP (1) JP7196439B2 (ja)
WO (1) WO2020008757A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2024085626A (ja) 2022-12-15 2024-06-27 株式会社デンソー コンピュータシステム、異常対処方法
JP2024085627A (ja) 2022-12-15 2024-06-27 株式会社デンソー コンピュータシステム、異常対処方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006209386A (ja) 2005-01-27 2006-08-10 Hitachi Ltd 仮想計算機システム及びその外部割込み制御方法
WO2017094132A1 (ja) 2015-12-02 2017-06-08 株式会社日立製作所 計算機および計算機の制御方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05250263A (ja) * 1992-03-05 1993-09-28 Hitachi Ltd 仮想プロセッサ方式及び不揮発化記憶方式

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006209386A (ja) 2005-01-27 2006-08-10 Hitachi Ltd 仮想計算機システム及びその外部割込み制御方法
WO2017094132A1 (ja) 2015-12-02 2017-06-08 株式会社日立製作所 計算機および計算機の制御方法

Also Published As

Publication number Publication date
US20210149705A1 (en) 2021-05-20
WO2020008757A1 (ja) 2020-01-09
JP2020008933A (ja) 2020-01-16

Similar Documents

Publication Publication Date Title
US11797327B2 (en) Dynamic virtual machine sizing
US9058183B2 (en) Hypervisor isolation of processor cores to enable computing accelerator cores
JP4056471B2 (ja) プロセッサに譲渡するためのシステム
JP4322232B2 (ja) 情報処理装置、プロセス制御方法、並びにコンピュータ・プログラム
TWI273495B (en) Information processing device, process control method, and computer program
JP5458998B2 (ja) 仮想マシンシステムおよび仮想マシン管理方法
GB2525003A (en) Data Processing Systems
US10649914B1 (en) Scratchpad-based operating system for multi-core embedded systems
US9229765B2 (en) Guarantee real time processing of soft real-time operating system by instructing core to enter a waiting period prior to transferring a high priority task
US20090241112A1 (en) Recording medium recording virtual machine control program and virtual machine system
JP7196439B2 (ja) 仮想化環境におけるデバイスへのアクセス方法
US20060212840A1 (en) Method and system for efficient use of secondary threads in a multiple execution path processor
JP5131269B2 (ja) マルチプロセッシングシステム
US12032983B2 (en) Method of accessing device in virtual environment
EP3502887B1 (en) Interrupt handling for multiple virtual machines
JP5859472B2 (ja) プロセスの待ち行列を共有する複数のプロセッサを有する計算機、及び、プロセスディスパッチ処理方法
JP4730386B2 (ja) 仮想計算機装置、計算資源活用方法、および、プログラム
JP2009266050A (ja) 情報処理装置
Wang et al. GCAPS: GPU Context-Aware Preemptive Priority-based Scheduling for Real-Time Tasks
CN115599508A (zh) Cpu及任务调度方法
JP2932547B2 (ja) 通信レジスタ仮想化方式
Mac Operating Systems
Lin et al. Global Scheduling for the Embedded Virtualization System in the Multi-core Platform.
JPH02184925A (ja) 仮想計算機システム
JPS63197239A (ja) 仮想プロセツサ制御情報退避格納方式

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210506

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221128

R151 Written notification of patent or utility model registration

Ref document number: 7196439

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151