WO2018092287A1 - 計算機及び計算機の再起動方法 - Google Patents

計算機及び計算機の再起動方法 Download PDF

Info

Publication number
WO2018092287A1
WO2018092287A1 PCT/JP2016/084370 JP2016084370W WO2018092287A1 WO 2018092287 A1 WO2018092287 A1 WO 2018092287A1 JP 2016084370 W JP2016084370 W JP 2016084370W WO 2018092287 A1 WO2018092287 A1 WO 2018092287A1
Authority
WO
WIPO (PCT)
Prior art keywords
management
virtual
hypervisor
port
computer
Prior art date
Application number
PCT/JP2016/084370
Other languages
English (en)
French (fr)
Inventor
幸太郎 横山
良太 野口
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to PCT/JP2016/084370 priority Critical patent/WO2018092287A1/ja
Publication of WO2018092287A1 publication Critical patent/WO2018092287A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/10Program control for peripheral devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/14Handling requests for interconnection or transfer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements

Definitions

  • the present invention relates to a computer and a computer restart method, and is particularly suitable for application to a computer having a virtual computer using a virtual port.
  • SR-IOV Single Root I / O Virtualization
  • PF Physical Function
  • VF Virtual Function
  • the driver When the driver is updated, the driver is reinitialized.
  • the PF When the PF is reset, all the VFs generated from the reset PF are lost, and the virtual machine to which the lost VF is assigned is also affected. Therefore, conventionally, when resetting a PF, the virtual machine is stopped, and then the PF is reset and the VF is regenerated and reassigned.
  • JP 2012-203636 A In order to respond to such a request, as a technology for restoring a VF without stopping the guest OS running on the virtual machine when an I / O failure occurs, there is a publicity of JP 2012-203636 A (see Patent Document 1). .
  • a hot-plugging (hot-removing) device is removed by using HotPlug (a technology for inserting / removing a device while the server is operating), and the operating guest is installed (hotadd) after the device is restored.
  • HotPlug a technology for inserting / removing a device while the server is operating
  • the operating guest is installed (hotadd) after the device is restored.
  • the VF can be restored without stopping the OS (see Patent Document 1).
  • VF parameters include a MAC address, VLAN ID, TxRate, and the like.
  • the present invention can be used in the same way when the driver is updated. Since the value of the VF parameter is set according to the system to be configured, if the setting is changed before and after the recovery, there is a possibility of causing a communication disabled state and a performance problem.
  • the present invention has been made in view of the above points, and proposes a computer that can be restarted in the same operating state using the same parameters before and after the reset, and a computer restart method. It is what.
  • an I / O adapter that includes a physical port and that generates at least one virtual port that corresponds to the physical port and operates according to a set parameter value; At least one virtual machine that operates a guest operating system that communicates with the outside using the I / O adapter by accessing at least one virtual port; the at least one virtual machine; and the I / O A management virtual machine that manages the O adapter, and a hypervisor that holds the parameter information including the parameter value set in the at least one virtual port in a non-volatile manner. The parameter based on the parameter information acquired from the hypervisor. Set again the meter value to the at least one virtual port, characterized in that to re-recognize the assignment the guest operating system of the at least one virtual port to said at least one virtual machine.
  • an I / O adapter that includes a physical port, and that generates at least one virtual port that corresponds to the physical port and operates according to a set parameter value, and the at least one virtual port And managing at least one virtual machine on which a guest operating system that exchanges with the outside using the I / O adapter operates, and the at least one virtual machine and the I / O adapter.
  • a restart method in a computer comprising: a management virtual machine; and a hypervisor that nonvolatilely stores parameter information including parameter values set in the at least one virtual port, wherein the management virtual machine is Obtain the parameter information from the hypervisor A parameter information obtaining step, a resetting step in which the management virtual machine resets the parameter value based on the parameter information in the at least one virtual port, and the management virtual machine has the at least one virtual port. Is assigned to the at least one virtual machine, and the guest operating system recognizes again.
  • FIG. 1 shows a configuration example of the physical computer 10 according to the present embodiment.
  • the physical computer 10 is connected to the user terminal 600 via the third bridge 83.
  • the user terminal 600 passes through the first CPU 70-1 and the like and the third bridge 83 in the physical computer 10 and the physical computer via the fourth I / O adapter 93. 10 is connected.
  • the physical computer 10 includes a first CPU 70-1, a second CPU 70-2,..., And an Nth CPU 70-N as a plurality of central processing units.
  • N is a natural number.
  • the first bridge 80 is connected to the first I / O adapter 90 and the second I / O adapter 91.
  • the second bridge 81 is connected to the third I / O adapter 92.
  • the first virtual machine 30-1 to the Nth virtual machine 30-N, the management virtual machine 50, and the management virtual machine 50 are controlled.
  • the hypervisor 20 is operating.
  • the hypervisor 20 is loaded into the memory 100.
  • the first virtual machine 30-1 to the Nth virtual machine 30-N are controlled by the hypervisor 20.
  • the first guest OS 40-1 is executed, and in the Nth virtual machine 30-N, the second guest OS 40-N is executed.
  • the hypervisor 20 manages the management guest OS 60 executed in the management virtual machine 50.
  • the management guest OS 60 manages the first virtual machine 30-1 to the Nth virtual machine 30-N and the first I / O adapter 90 to the third I / O adapter 92. Details of the hypervisor 20 will be described later.
  • FIG. 2 shows an example of functions in the virtual machine system according to this embodiment.
  • the virtual machine system according to the present embodiment includes a first guest OS 40-1 to an Nth guest OS 40-N, a first virtual machine 30-1 to an Nth virtual machine 30-N, a hypervisor 20, and a management guest. It has an OS 60, a management virtual machine 50, a first I / O adapter 90, a second I / O adapter 91,..., A third I / O adapter 92.
  • the first to third I / O adapters 90 to 92 have a so-called SR-IOV function.
  • VFs 210 and 211 are generated from the PF 200 (corresponding to PF 1 shown in the figure).
  • VFs 212 and 213 are generated from the PF 201 (corresponding to the PF 2 shown in the figure).
  • VFs 214 and 215 are generated from the PF 202 (corresponding to the PF 3 shown in the figure).
  • two VFs are generated from each PF, but this embodiment can be applied regardless of the number of VFs generated.
  • the management virtual machine 50 includes assigned PFs 200 (corresponding to PF1 shown) to PF202 (corresponding to PF3 shown).
  • the management guest OS 60 includes a PF driver 240 corresponding to the type of PF 200 to PF 202.
  • the PF driver 240 of the management guest OS 60 has a function of generating the VF 210 and the like.
  • the first virtual machine 30-1 to the Nth virtual machine 30-N include the assigned VF 210 and the like.
  • the first guest OS 40-1 to the Nth guest OS 40-N include a VF driver 250 corresponding to the type of the VF 210 of the first virtual machine 30-1 to the Nth virtual machine 30-N.
  • the virtual machine emulation data 220-1 to 220-N holds management information indicating the bus number, device number, function number, and blocking status of the PF 200, such as the VF 210.
  • Blocking refers to blocking access from a virtual machine to a blocked device when a failure occurs.
  • the time when a failure occurs is mainly exemplified, but it goes without saying that it may be applied at the time of updating.
  • the first virtual machine emulation data 220-1 to the Nth virtual machine emulation data 220-N of the first virtual machine 30-1 to the Nth virtual machine 30-N, and The first VF parameter information 230-1 to the Kth VF parameter information 230-K are held in a nonvolatile manner. Details of the emulation data 220-1 of the first virtual machine to the emulation data 220-N of the Nth virtual machine will be described later. On the other hand, the first VF parameter information 230-1 to the Kth VF parameter information 230-K include parameters such as each VF210.
  • FIG. 3 is a block diagram showing a configuration example of the PF and VF in the first to third I / O adapters 90 to 92.
  • a PF 200 and a PF 201 are connected to the first bridge 80 under the control. From PF200, VF210 (corresponding to “VF0” in the figure) and VF211 (corresponding to “VF1” in the figure) are generated. VF201 to VF212 (corresponding to “VF0” in the figure) and VF213 (corresponding to “VF1” in the figure) are generated.
  • a PF 202 is connected to the second bridge 81. From this PF 202, a VF 214 (corresponding to “VF0” shown) and a VF 215 (corresponding to “VF1” shown) are generated.
  • the PFs including the VFs under the PF to be closed are closed.
  • the PFs 210 and 211 under the PF 200 are simultaneously blocked.
  • the device under the PF is blocked, but the bridge may be blocked or the VF alone may be blocked.
  • FIG. 4 shows an example of emulation data 220-1 to 220-N of virtual machines created by the hypervisor 20 in the configuration shown in FIG. Note that the emulation data 220-1 to 220-N is a part of a large list, and it is possible to specify a block target by specifying a bus. These emulation data 220-1 to 220-N of the virtual machines indicate device management information held by the hypervisor 20. Each row corresponds to management information of each device.
  • the device type 400 represents the type of each device.
  • Bus # 410, Dev # 420, and Func # 430 are unique values defined in the PCI specification within a total 16-bit system, and are used to uniquely identify a device within the physical computer 10.
  • PF # 440 is a PF number to which the device belongs. When the device type 400 is “PF”, it holds its own PF number, while when the device type 400 is “VF”, it holds the generation source PF number.
  • VF # 450 indicates the serial number of the VF in the generation source PF.
  • the device type 400 is “PF”, it does not have VF # 450.
  • Blocked state # 460 is management information indicating whether or not the device is blocked.
  • blocking means blocking access to a device from a virtual machine. For example, when a failure occurs in the device, the device is blocked because there is a possibility that a different failure is induced by continuing to use the device in which the failure has occurred.
  • FIG. 5 is a configuration example of the VF parameter information 230-1 to 230-K.
  • LPAR # 500 indicates the number of the virtual machine to which the VF is assigned.
  • PBus # 510, PFDev # 520, and PFFunc # 530 indicate the Bus number, Device number, and Function number of the PF generation source PF.
  • the hypervisor 20 can uniquely identify a VF using a combination of PFBus # 510, PFDev # 520, PFFunc # 530, and VF # 450.
  • the MAC address 540, VLAN ID 550, and TxRate 560 are parameters that each VF has individually.
  • the hypervisor 20 manages parameters for all VFs using the VF parameter information 230-1 to 230-K.
  • FIG. 6 is a sequence chart showing a flow from the occurrence of a failure to VF recovery in this embodiment. Steps S611 to S615 correspond to removal during operation (HotRemove), and Step S625 corresponds to attachment during operation (HotAdd).
  • the failure notification in step S610 is notified from the management guest OS 60 to the hypervisor 20; however, the recovery processing is performed when the hypervisor 20 itself detects the failure due to the cause of the failure.
  • this embodiment can be used not only when a failure occurs but also for restoration of PF and VF by online update of a driver or the like. When the driver is updated, the driver needs to be re-initialized. Therefore, as in the case of a failure, it is necessary to perform processing for once closing the device and re-recognizing it.
  • step S610 the management guest OS 60 notifies the hypervisor 20 of a failure.
  • step S611 the hypervisor 20 that has received the failure notification shifts to a blocking process.
  • step S612 the hypervisor 20 sends a PF blocking process request to the management guest OS 60.
  • step S613 the hypervisor 20 sends a VF blocking process request to each of the first guest OS 40-1 to the Nth guest OS 40-N.
  • step S614 the first guest OS 40-1 to the Nth guest OS 40-N change the blocked state 460 managed in the virtual machine emulation data 220-1 to 220-N (see FIG. 2) to the blocked state.
  • step S615 the hypervisor 20 sends a device re-recognition processing request to the first guest OS 40-1 to the Nth guest OS 40-N, and the first guest OS 40-1 to the Nth guest OS 40-N By re-searching the device recognized by itself, the recognition of the VF 210 (corresponding to the illustrated VF 10) is canceled.
  • step S616 the hypervisor 20 performs a termination process on the VF 210, whereby the VF 210 is reset.
  • step S617 the hypervisor 20 waits until the PF 200 is released from the management guest OS 60, and then performs an end process to reset the PF 200.
  • step S618 the hypervisor 20 notifies the user terminal 600 that the device has been blocked.
  • the user terminal 600 instructs the hypervisor 20 to request recovery processing at an arbitrary timing (step S619).
  • the hypervisor 20 sends a restart command to the management guest OS 60 of the management virtual machine 50 in response to the request for the recovery process (step S620).
  • step S621 after the management guest OS 60 is restarted in the management virtual machine 50, the loading of the PF driver 240 is started. Thereafter, it is determined whether or not the SR-IOV function is valid.
  • the management guest OS 60 confirms the settings of the first to third I / O adapters 90, 91, and 92 while the PF driver 240 is being loaded, and is a so-called SR-IOV compatible I / O adapter. That is, when the SR-IOV function is valid, the PF driver is incorporated using the activation option. Thereby, the PF driver is loaded and the VF is actually generated. On the other hand, when the SR-IOV function is not valid, only the PF driver is incorporated without using the validation option.
  • step S623 the hypervisor 20 sends a VF setting request to the effect that a parameter value should be set for each VF 210 and the like to the management guest OS 60.
  • the management guest OS 60 acquires the VF parameter information 230-1 to 230-K from the hypervisor 20 upon receipt of this VF setting request, and sets various parameters for each VF 210 and the like (step S624).
  • the hypervisor 20 sends a device re-recognition processing request to the first guest OS 40-1 to the Nth guest OS 40-N, so that the first guest OS 40-1 to the Nth guest OS 40-N are VF210. Is re-recognized to restore the VF 210 and the like (step S625).
  • the VF 210 and the like can operate using the various parameter values.
  • FIG. 7 shows an example of the blocking process executed in steps S611 to S617 shown in FIG.
  • step S700 an off-line request is sent to all VFs under the PF to which the faulted PF and VF belong.
  • This offline request is a request for stopping access from the guest OS 40-1.
  • the hypervisor 20 does not return a response to the device even if access is made from any of the first guest OS 40-1 to the Nth guest OS 40-N. That is, the hypervisor 20 performs control so as not to receive the access.
  • the hypervisor 20 gives a predetermined interrupt to any of the first guest OS 40-1 to the Nth guest OS 40-N, when the guest OS searches for a device that can be used by the guest OS, The stopped device cannot be recognized, and the device does not return a response to access (hot plug process). Such processing may be performed at startup.
  • step S701 the hypervisor 20 sets the blocking state 460 of the blocking target PF and VF in the emulation data 220-1 to 220-N shown in FIG. 4 to “blocking”.
  • the blocked state 460 is set to “blocked” in this way, the hypervisor 20 returns that it cannot respond to the PCIConfig access by the first guest OS 40-1 to the Nth guest OS 40-N.
  • the first guest OS 40-1 to the Nth guest OS 40-N are in a state where they can recognize that the device has disappeared in the device re-recognition processing step S615 described above.
  • step S702 the hypervisor 20 sends a device re-recognition processing request to the guest OS 40-1, and the guest OS 40-1 re-searches the logical device, whereby the recognition of the VF 210 is released.
  • step S703 the hypervisor 20 waits until processing for the offline request sent in step S700 is completed.
  • step S704 the hypervisor 20 requests termination processing for all the VFs under the bridge to be blocked, thereby resetting the VF 210 and the like.
  • the device is stopped by stopping DMA transfer, interrupting, and suppressing ErrorReport.
  • step S705 the hypervisor 20 requests termination processing for all the PFs under the bridge to be blocked, thereby resetting the PF 200 and the like.
  • the operation of the end process is the same as that in step S704 described above.
  • FIG. 8 is a flowchart of the VF generation process performed in steps S619 to S622 shown in FIG.
  • step S800 the hypervisor 20 issues a restart command to the management guest OS 60.
  • step S801 the management guest OS 60 is restarted.
  • step S802 when the hypervisor 20 restarts the management guest OS 60, the hypervisor 20 determines whether SR-IOV is set to be valid in the first to third I / O adapters 90, 91, and 92.
  • step S803 if it is determined in step S802 that SR-IOV is a valid I / O adapter in first to third I / O adapters 90, 91, 92, hypervisor 20 enables SR-IOV.
  • a PF driver 240 is incorporated using an option, and a VF 210 and the like are generated. Note that the processing in step S803 differs depending on the type of device, and a VF may be generated by performing settings after loading of the PF driver is completed.
  • step S804 if it is determined in step S802 that the SR-IOV is not valid, the hypervisor 20 incorporates the PF driver 240 without using the SR-IOV activation option.
  • FIG. 9 shows an example of the VF resetting process executed in steps S618 to S624 shown in FIG.
  • the management guest OS 60 acquires the VF parameter information 230-1 and the like from the hypervisor 20.
  • the management guest OS 60 uses the PF driver 240 to set VF parameters.
  • step S902 the management guest OS 60 determines whether or not a timeout has occurred regarding the setting of the VF parameter in step S901. When the timeout does not occur, the management guest OS 60 performs VF parameter result confirmation processing. On the other hand, when a timeout occurs, the management guest OS 60 determines that the setting of the VF parameter has failed, and notifies the hypervisor 20 that the setting has failed.
  • step S903 the management guest OS 60 compares the settings of the VF parameter information 230-1 and the VF 210, and notifies the hypervisor 20 of the completion of setting if there is no error in the parameters.
  • step S904 the management guest OS 60 notifies the hypervisor 20 of the result of the VF parameter setting. Further, the management guest OS 60 performs device reconfirmation processing on the first guest OS 40-1. As a result, the guest OS 40-1 can recognize the device. For this reason, the guest OS 40-1 can recognize and use each VF.
  • the management virtual computer 50 has at least one parameter value based on the parameter information acquired from the hypervisor 20 at the time of restart.
  • the virtual ports 210 and 211 are set again, the at least one virtual port 210 and 211 is assigned to at least one virtual machine 30-1 to 30-N, and the guest operating systems 40-1 to 40-N recognize again. I am letting you.
  • the virtual port can be used using the same VF parameter value before and after the reset, and can be operated in the same operating state.
  • the present invention can be widely applied to a computer having a virtual computer using a virtual port and a computer restart method.
  • 10 Physical computer
  • 20 Hypervisor, 30-1 to 30-N: Virtual computer
  • 40-1 to 40-N First to Nth guest OS
  • 50 Management virtual computer
  • 60 guest OS for management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Debugging And Monitoring (AREA)

Abstract

【課題】I/Oアダプタに障害が起きた場合やドライバ等のアップデートを行う際に、ゲストOSを停止させずにI/Oアダプタを復旧させる必要がある場合でも、I/Oアダプタのリセット前とリセット後とで同一のVFパラメータを利用して同一の作動状態でゲストOSが再起動できるようにすること。 【解決手段】復旧処理時にVFの管理を行う管理用仮想計算機が、ハイパバイザが持つVFパラメータの値を取得する。管理用仮想計算機は、受け取ったVFパラメータ情報を用いてVFを設定する。その後、管理用仮想計算機はVFパラメータ設定の結果確認を行い、ハイパバイザに対して結果の通知を行う。そして、再設定したVFを仮想計算機に対して動的に割り当て、ゲストOSに再認識させることでゲストOSを停止することなくVFを復旧することができる。

Description

計算機及び計算機の再起動方法
 本発明は、計算機及び計算機の再起動方法に関し、特に、仮想ポートを利用する仮想計算機を有する計算機に適用して好適なものである。
 近年、物理計算機が有するハイパバイザなどの仮想化機構により、物理計算機上に1つまたは複数の仮想計算機を構築する仮想計算機システムが広く使われている。その一方、仮想化環境でのPCIデバイスのパフォーマンス向上のため、ハードウェア側で仮想化を支援する規格であるSR-IOV(Single Root I/O Virtualization)も広く使われている。SR-IOVは、1つの物理ポート(以下、PF:Physical Function)をハードウェア的に仮想化し、仮想計算機に対して仮想ポート(以下、VF:Virtual Function)を提供する。SR-IOV対応I/Oアダプタに障害が発生した時は、I/Oアダプタにハードウェアリセットを実施する。また、ドライバ更新時はドライバの再初期化を実施する。PFのリセットを行った場合、リセットしたPFから生成されていたVFが全て消失してしまい、当該消失したVFが割り当てられていた仮想計算機にも影響が生ずる。そのため、従来はPFのリセットを行う場合は仮想計算機を停止してから、PFのリセットおよびVFの再生成、再割り当てを行っていた。
 しかしながら、システムの特性から停止させることが難しい仮想計算機も存在するため、VFが割り当てられた仮想計算機を停止せずにI/Oアダプタを安全に復旧したいという要求がある。
 このような要求に対応するため、I/O障害発生時に仮想計算機上で稼動するゲストOSを停止させずにVFを復旧させる技術として、特開2012-203636号広報がある(特許文献1参照)。この従来技術では、HotPlug(サーバ稼働中にデバイスを抜き差しする技術)を用いて、障害発生デバイスを稼働時抜去(HotRemove)し、デバイス復旧後に稼働時取り付け(HotAdd)することで、稼働中のゲストOSを停止させずにVFを復旧させることができる(特許文献1参照)。
特開2012-203636号公報
 しかしながら、上述した従来技術では、I/Oアダプタの復旧時のVFパラメータの再設定の方法について想定されていない。VFは、物理I/Oアダプタと同様にパラメータが設定されており、各VFが異なるパラメータを保持している。VFのパラメータとしては、MACアドレス、VLAN ID、TxRateなどが存在する。PFのリセットに伴いVFが消失した場合、VFに割り当てていた設定も消失してしまう。そのため、再設定を行わずに割り当てを行うと、障害発生前または更新前で異なる設定によってVFを仮想計算機に割り当てる可能性がある。以降は、障害時の場合のみ記述するが、ドライバ更新時も同様に本発明を用いることができる。VFのパラメータは構成するシステムに応じて値が設定されるため、復旧前後で設定が変わると通信不可状態及び性能問題を引き起こす可能性がある。
 本発明は以上の点を考慮してなされたもので、リセット前とリセット後とで同一のパラメータを利用して同一の作動状態で再稼働することができる計算機及び計算機の再起動方法を提案しようとするものである。
 かかる課題を解決するため、本発明においては、物理ポートを備える一方、前記物理ポートに対応しており設定済みのパラメータ値に従って動作する少なくとも1つの仮想ポートが生成されるI/Oアダプタと、前記少なくとも1つの仮想ポートに対してアクセスすることによって前記I/Oアダプタを用いて外部とのやり取りを行うゲストオペレーティングシステムが動作する少なくとも1つの仮想計算機と、前記少なくとも1台の仮想計算機及び前記I/Oアダプタを管理する管理用仮想計算機と、前記少なくとも1つの仮想ポートに設定済みのパラメータ値を含むパラメータ情報を不揮発的に保持するハイパバイザと、を備え、前記管理用仮想計算機は、再起動時に前記ハイパバイザから取得した前記パラメータ情報に基づく前記パラメータ値を前記少なくとも1つの仮想ポートに再度設定し、前記少なくとも1つの仮想ポートを前記少なくとも1台の仮想計算機に対して割り当て前記ゲストオペレーティングシステムに再度認識させることを特徴とする。
 また、本発明においては、物理ポートを備える一方、前記物理ポートに対応しており設定済みのパラメータ値に従って動作する少なくとも1つの仮想ポートが生成されるI/Oアダプタと、前記少なくとも1つの仮想ポートに対してアクセスすることによって前記I/Oアダプタを用いて外部とのやり取りを行うゲストオペレーティングシステムが動作する少なくとも1つの仮想計算機と、前記少なくとも1台の仮想計算機及び前記I/Oアダプタを管理する管理用仮想計算機と、前記少なくとも1つの仮想ポートに設定済みのパラメータ値を含むパラメータ情報を不揮発的に保持するハイパバイザと、を備える計算機における再起動方法において、前記管理用仮想計算機が、再起動時に前記ハイパバイザから前記パラメータ情報を取得するパラメータ情報取得ステップと、前記管理用仮想計算機が、前記パラメータ情報に基づく前記パラメータ値を前記少なくとも1つの仮想ポートに再度設定する再設定ステップと、前記管理用仮想計算機が、前記少なくとも1つの仮想ポートを前記少なくとも1台の仮想計算機に対して割り当て前記ゲストオペレーティングシステムに再度認識させる再認識ステップと、を有することを特徴とする。
 本発明によれば、リセット前とリセット後とで同一のパラメータを利用して同一の作動状態で再稼働することができる。
本実施の形態による物理計算機の構成例を示すブロック図である。 本実施の形態による仮想計算機システムの一例を示す機能ブロック図である。 本実施の形態におけるPFとVFの構成を示すブロック図である。 本実施の形態におけるPFとVFのバス番号、デバイス番号、ファンクション番号、および、閉塞状態を表す管理情報の一例を示す図である。 VFパラメータ情報の一例を示す図である。 障害発生からVF復旧までの手順の一例を示すシーケンスチャートである。 ハイパバイザによる閉塞処理を示すフローチャートである。 管理用計算機による再起動処理を示すフローチャートである。 管理用計算機によるVFパラメータ再設定処理を示すフローチャートである。
 以下、図面について、本発明の一実施の形態について詳述する。
 (1)本実施の形態による仮想計算機システムの構成
 図1は、本実施の形態の物理計算機10などの構成例を示す。物理計算機10は、第3のブリッジ83を介してユーザ端末600に接続されている。このユーザ端末600は、詳細な処理は後述するが、物理計算機10内において第1のCPU70-1など並びに第3のブリッジ83を経由して、第4のI/Oアダプタ93を介して物理計算機10に接続されている。
 物理計算機10は、複数の中央演算処理装置として第1のCPU70-1、第2のCPU70-2、・・・、及び第NのCPU70―Nが搭載されている。なお、本実施の形態においてNは自然数である。第1のCPU70-1、第2のCPU70-2、・・・、及び第NのCPU70-Nは、PCIexpress等のバス110を介して、メモリ100の他にも、第1のブリッジ80及び第2のブリッジ81に接続されている。
 第1のブリッジ80は、第1のI/Oアダプタ90及び第2のI/Oアダプタ91に接続されている。第2のブリッジ81は第3のI/Oアダプタ92に接続されている。
 物理計算機10上では、1台以上の仮想計算機の一例として第1の仮想計算機30-1~第Nの仮想計算機30-Nと、管理用仮想計算機50と、この管理用仮想計算機50を制御するハイパバイザ20と、が稼働している。
 メモリ100にはハイパバイザ20がロードされる。第1の仮想計算機30-1~第Nの仮想計算機30-Nはハイパバイザ20によって制御されている。第1の仮想計算機30-1では第1のゲストOS40-1が実行されており、第Nの仮想計算機30-Nでは第2のゲストOS40-Nが実行されている。
 ハイパバイザ20は、管理用仮想計算機50において実行される管理用ゲストOS60を管理する。この管理用ゲストOS60は、第1の仮想計算機30-1~第Nの仮想計算機30-N及び第1のI/Oアダプタ90~第3のI/Oアダプタ92を管理する。このハイパバイザ20の詳細については後述する。
 図2は、本実施の形態による仮想計算機システムにおける機能の一例を示す。本実施の形態による仮想計算機システムは、第1のゲストOS40-1~第NのゲストOS40-N、第1の仮想計算機30-1~第Nの仮想計算機30-N、ハイパバイザ20、管理用ゲストOS60、管理用仮想計算機50、及び第1のI/Oアダプタ90、第2のI/Oアダプタ91、・・・、第3のI/Oアダプタ92を有する。
 第1~第3のI/Oアダプタ90~92は、いわゆるSR-IOV機能を搭載している。PF200(図示のPF1に相当)からVF210,211が生成されている。PF201(図示のPF2に相当)からVF212,213が生成されている。PF202(図示のPF3に相当)からVF214,215が生成されている。ここでは各PFから2個のVFを生成しているが、本実施の形態はVFの生成数に関わらず適用することができる。
 管理用仮想計算機50は、割り当てられたPF200(図示のPF1に相当)~PF202(図示のPF3に相当)を含む。管理用ゲストOS60は、PF200~PF202の種類に対応するPFドライバ240を含む。管理用ゲストOS60のPFドライバ240は、VF210などを生成する機能を有する。第1の仮想計算機30-1~第Nの仮想計算機30-Nは、割り当てられたVF210などを含む。
 第1のゲストOS40-1~第NのゲストOS40-Nは、第1の仮想計算機30-1~第Nの仮想計算機30-NのVF210などの種類に対応するVFドライバ250を含む。仮想計算機のエミュレーションデータ220-1~220-Nは、VF210など、PF200などのバス番号、デバイス番号、ファンクション番号及び閉塞状態を表す管理情報を保持する。閉塞とは、障害発生時などに仮想計算機から閉塞されたデバイスへのアクセスを遮断させることをいう。なお、本実施の形態では、主として障害発生時を例示するが、更新時に適用しても良いことは云うまでもない。
 一方、ハイパバイザ20においては、第1の仮想計算機30-1~第Nの仮想計算機30-Nの第1の仮想計算機エミュレーションデータ220-1~第Nの仮想計算機のエミュレーションデータ220-N、及び、第1のVFパラメータ情報230-1~第KのVFパラメータ情報230-Kが不揮発的に保持されている。このうち第1の仮想計算機のエミュレーションデータ220-1~第Nの仮想計算機のエミュレーションデータ220-Nの詳細については後述する。一方、第1のVFパラメータ情報230-1~第KのVFパラメータ情報230-Kは、各VF210などのパラメータを含んでいる。
 図3は、第1~第3のI/Oアダプタ90~92内のPF及びVFの構成例を示すブロック図である。第1のブリッジ80には、その配下にPF200及びPF201が接続されている。PF200からVF210(図示の「VF0」に対応)及びVF211(図示の「VF1」に対応)が生成されている。VF201からVF212(図示の「VF0」に対応)及びVF213(図示の「VF1」に対応)が生成されている。
 一方、第2のブリッジ81にはその配下にPF202が接続されている。このPF202からVF214(図示の「VF0」に対応)及びVF215(図示の「VF1」に対応)が生成されている。
 PF200,201,202の閉塞時には、当該閉塞するPFの配下にあるVFも含めて閉塞する。例えば、第1のI/Oアダプタ90のPF200で障害が発生してPF200を閉塞する場合、このPF200の配下にあるVF210,211も同時に閉塞される。本実施の形態では、PF配下のデバイスを閉塞しているが、ブリッジ配下を閉塞したりVF単体を閉塞するようにしても良い。
 図4は、図3に示す構成においてハイパバイザ20によって作成される仮想計算機のエミュレーションデータ220-1~220-Nの一例を示す。なお、エミュレーションデータ220-1~220-Nは大きなリストの一部であり、バスを指定して閉塞対象を指定可能となっている。これら仮想計算機のエミュレーションデータ220-1~220-Nは、ハイパバイザ20によって保有されているデバイスの管理情報を示している。各行は、各デバイスの管理情報に対応している。
 デバイス種400は、各デバイスの種別を表している。Bus#410、Dev#420及びFunc#430は、PCI仕様で策定されている、合計16Bitのシステム内でユニークな値であり、物理計算機10内でデバイスを一意に特定するために用いる。
 PF#440は、デバイスが所属するPF番号である。デバイス種400が「PF」である場合は自身のPF番号を保持する一方、デバイス種400が「VF」である場合は生成元PF番号を保持する。
 VF#450は、生成元PF内におけるVFの通し番号を示している。デバイス種400が「PF」である場合はVF#450を持たない。
 閉塞状態#460は、デバイスが閉塞しているか否かを表す管理情報である。既述のように閉塞とは、仮想計算機からデバイスへのアクセスを遮断させることである。例えば、デバイスに障害が発生した際など、障害が発生しているデバイスを使用し続けることで異なる障害を誘発する可能性があるため、デバイスを閉塞させる。
 図5は、VFパラメータ情報230-1~230-Kの構成例である。LPAR#500は、VFが割り当てられている仮想計算機の番号を示している。PFBus#510、PFDev#520及びPFFunc#530は、VFの生成元PFのBus番号、Device番号及びFunction番号を示している。
 ハイパバイザ20は、PFBus#510、PFDev#520、PFFunc#530及びVF#450の組み合わせを用いてVFを一意に特定できる。MACアドレス540、VLAN ID550、及びTxRate560は、各VFが個別に持つパラメータである。ハイパバイザ20は、VFパラメータ情報230-1~230-Kを利用して全てのVF分のパラメータを管理している。
 (2)仮想計算機システムの再起動方法
 図6は、本実施の形態における障害発生からVF復旧までの流れを示したシーケンスチャートである。ステップS611~ステップS615が稼働時抜去(HotRemove)に該当し、ステップS625が稼働時取り付け(HotAdd)に該当する。
 なお、ステップS610における障害通知は、本実施の形態では管理用ゲストOS60からハイパバイザ20に対して障害通知を行ったが、障害原因によってハイパバイザ20自身が障害を検出したことを契機に復旧処理を行う場合がある。また、障害発生時に限らずドライバ等のオンラインアップデートによるPF、VFの復旧にも本実施の形態を同様に利用できる。ドライバ更新時は、ドライバの再初期化が必要となるため、障害時と同様に一度デバイスを閉塞させ、再認識させるという処理が必要になる。
 まず、ステップS610では、管理用ゲストOS60がハイパバイザ20に対して障害通知を行う。ステップS611では、障害通知を受けたハイパバイザ20は閉塞処理に移行する。ステップS612では、ハイパバイザ20が管理用ゲストOS60に対してPF閉塞処理要求を送出する。ステップS613では、ハイパバイザ20が第1のゲストOS40-1~第NのゲストOS40-Nに対してそれぞれVF閉塞処理要求を送出する。
 ステップS614では、第1のゲストOS40-1~第NのゲストOS40-Nが仮想計算機のエミュレーションデータ220-1~220-N(図2参照)において管理されている閉塞状態460を閉塞状態に変更する。ステップS615では、ハイパバイザ20が第1のゲストOS40-1~第NのゲストOS40-Nに対してデバイス再認識処理要求を送出し、第1のゲストOS40-1~第NのゲストOS40-Nが自身の認識しているデバイスを再サーチすることによりVF210(図示のVF10に相当)の認識が解除される。
 ステップS616では、ハイパバイザ20がVF210に対して終了処理を行うことにより、VF210がリセットされる。次にステップS617では、ハイパバイザ20が、PF200が管理用ゲストOS60から解除されるまで待った後に終了処理を行うことにより、PF200がリセットされる。ステップS618では、ハイパバイザ20が、ユーザ端末600に対し、デバイスが閉塞したことを通知する。
 ユーザ端末600は、任意のタイミングで、復旧処理の要求をハイパバイザ20に対して指示する(ステップS619)。ハイパバイザ20は、この復旧処理の要求に応じて、管理用仮想計算機50の管理用ゲストOS60に対して再起動命令を送出する(ステップS620)。
 次にステップS621では、管理用仮想計算機50において管理用ゲストOS60が再起動された後、PFドライバ240のロードを開始する。その後、SR-IOV機能が有効であるか否かが判定される。ステップS622では、管理用ゲストOS60が、PFドライバ240のロード中に第1~第3のI/Oアダプタ90,91,92の設定を確認し、いわゆるSR-IOV対応I/Oアダプタである場合、即ち、SR-IOV機能が有効である場合には有効化オプションを用いてPFドライバの組み込みが行われる。これにより、PFドライバをロードして、実際にVFを生成する。一方、SR-IOV機能が有効でない場合には有効化オプションを用いずにPFドライバのみ組み込みが行われる。
 ステップS623では、ハイパバイザ20が、管理用ゲストOS60に対して、それぞれのVF210などについてパラメータ値を設定すべき旨のVF設定要求を送出する。管理用ゲストOS60は、このVF設定要求の受け取りを契機としてハイパバイザ20からVFパラメータ情報230-1~230-Kを取得し、それぞれのVF210などに対して各種パラメータを設定する(ステップS624)。
 ハイパバイザ20は、第1のゲストOS40-1~第NのゲストOS40-Nに対してデバイス再認識処理要求を送出することにより、第1のゲストOS40-1~第NのゲストOS40-NがVF210を再認識してVF210などが復旧する(ステップS625)。VF210などは上記各種パラメータ値を用いて動作することができるようになる。
 以上のシーケンスについてより詳しくフローチャートを用いて説明する。図7は、図6に示したステップS611~ステップS617において実行される閉塞処理の一例を示す。
 ステップS700では、障害が発生したPF、VFが所属するPF配下の全VFに対してオフライン要求が送出される。このオフライン要求は、ゲストOS40-1からのアクセスを停止するための要求である。
 このようなオフライン要求がなされると、その後、第1のゲストOS40-1~第NのゲストOS40-Nのいずれかからアクセスがあった場合でも、ハイパバイザ20は、デバイスに応答を返さない。即ち、ハイパバイザ20は当該アクセスを受けないように制御する。
 ハイパバイザ20が所定の割り込みを第1のゲストOS40-1~第NのゲストOS40-NのいずれかのゲストOSに対して与えると、その後このゲストOSが自らが使用できるデバイスを検索した際に、上記停止したデバイスを認識することができなくなり、当該デバイスはアクセスに対する応答を返さないようになる(HotPlugの処理)。このような処理は起動時に行っても良い。
 ステップS701では、ハイパバイザ20が、図4に示すエミュレーションデータ220-1~220-Nにおいて閉塞対象のPF及びVFの閉塞状態460を「閉塞」に設定する。このように閉塞状態460が「閉塞」に設定されると、ハイパバイザ20は、第1のゲストOS40-1~第NのゲストOS40-NによるPCIConfigアクセスに対して応答不能である旨を返す。これにより、第1のゲストOS40-1~第NのゲストOS40-Nは、それぞれ、既述のデバイス再認識処理ステップS615において、当該デバイスが消失していることを認識できる状態になる。
 ステップS702では、ハイパバイザ20が、ゲストOS40-1に対してデバイス再認識処理要求を送出し、ゲストOS40-1が論理デバイスを再サーチすることで、VF210の認識が解除される。ステップS703では、ハイパバイザ20がステップS700において送出したオフライン要求に対する処理が完了するまで待ち状態となる。
 ステップS704では、ハイパバイザ20が閉塞対象となるブリッジ配下の全VFに対して終了処理を要求し、これによりVF210などがリセットされる。終了処理では、DMA転送停止、割り込み停止、ErrorReportの抑止が行われることによりデバイスを停止する。
 ステップS705では、ハイパバイザ20が、閉塞対象となるブリッジ配下の全PFに対して終了処理を要求し、これによりPF200などがリセットされる。終了処理の動作は既述のステップS704と同様である。
 図8は、図6に示したステップS619~ステップS622で行うVF生成処理のフローチャートである。ステップS800では、ハイパバイザ20が管理用ゲストOS60に対して、再起動命令を発行する。
 ステップS801では、管理用ゲストOS60が再起動される。ステップS802では、ハイパバイザ20が、管理用ゲストOS60を再起動する際、第1~第3のI/Oアダプタ90,91,92においてSR-IOVが有効な設定となっているか否か判定する。
 ステップS803では、ステップS802において第1~第3のI/Oアダプタ90,91,92においてSR-IOVが有効なI/Oアダプタであると判定された場合、ハイパバイザ20が、SR-IOV有効化オプションを用いてPFドライバ240を組込み、VF210などを生成する。なお、ステップS803は、デバイスの種類によって処理が異なり、PFドライバのロードが完了した後に設定を行うことでVFを生成する場合がある。
 ステップS804では、ステップS802においてSR-IOV有効でないと判定された場合、ハイパバイザ20が、SR-IOV有効化オプションを用いずにPFドライバ240を組み込む。
 図9は、図6に示したステップS618~ステップS624において実行するVF再設定処理の一例を示す。ステップS900では、管理用ゲストOS60が、VFパラメータ情報230-1などをハイパバイザ20から取得する。ステップS901では、管理用ゲストOS60がPFドライバ240を用いてVFパラメータの設定を行う。
 ステップS902では、管理用ゲストOS60がステップS901におけるVFパラメータの設定に関してタイムアウトが発生したか否かを判定する。タイムアウトが発生しなかった場合、管理用ゲストOS60がVFパラメータ結果確認処理を行う。一方、タイムアウトが発生した場合は、管理用ゲストOS60が、VFパラメータの設定に失敗したと判定し、ハイパバイザ20に対して当該設定が失敗した旨を通知する。
 ステップS903では、管理用ゲストOS60がVFパラメータ情報230-1とVF210との設定同士を比較し、パラメータに誤りが無ければハイパバイザ20に対して設定完了を通知する。
 ステップS904では、管理用ゲストOS60がハイパバイザ20に対して、VFパラメータ設定の結果を通知する。さらに管理用ゲストOS60は、第1のゲストOS40-1に対してデバイスの再確認処理を実施する。これにより、ゲストOS40-1がデバイスを認識することができるようになっている。このため、ゲストOS40-1は各VFを認識することができるようになり使用することができる。
 (3)本実施の形態の効果等
 以上説明したように、上記実施の形態における計算機10では、管理用仮想計算機50が、再起動時にハイパバイザ20から取得したパラメータ情報に基づくパラメータ値を少なくとも1つの仮想ポート210,211に再度設定し、当該少なくとも1つの仮想ポート210,211を少なくとも1台の仮想計算機30-1~30-Nに対して割り当てゲストオペレーティングシステム40-1~40-Nに再度認識させるている。
 このような構成によれば、リセット前とリセット後とで、同一のVFパラメータの値を利用して仮想ポートを使用することができるようにし、同一の作動状態で動作させることができる。
 (4)その他の実施形態
 上記実施形態は、本発明を説明するための例示であり、本発明をこれらの実施形態にのみ限定する趣旨ではない。本発明は、その趣旨を逸脱しない限り、様々な形態で実施することができる。例えば、上記実施形態では、各種プログラムの処理をシーケンシャルに説明したが、特にこれにこだわるものではない。従って、処理結果に矛盾が生じない限り、処理の順序を入れ替え又は並行動作するように構成しても良い。
 本発明は、仮想ポートを利用する仮想計算機を有する計算機及び計算機の再起動方法に広く適用することができる。
 10……物理計算機、20……ハイパバイザ、30-1~30-N……仮想計算機、40-1~40-N……第1~第NのゲストOS、50……管理用仮想計算機、60……管理用ゲストOS、70……CPU、80……ブリッジ、90……I/Oアダプタ、100……バス、200……PF、210……VF、220-1~220-N……仮想計算機のエミュレーションデータ、230-1~230-K……VFパラメータ情報、240……PFドライバ、250……VFドライバ。

Claims (10)

  1.  物理ポートを備える一方、前記物理ポートに対応しており設定済みのパラメータ値に従って動作する少なくとも1つの仮想ポートが生成されるI/Oアダプタと、
     前記少なくとも1つの仮想ポートに対してアクセスすることによって前記I/Oアダプタを用いて外部とのやり取りを行うゲストオペレーティングシステムが動作する少なくとも1つの仮想計算機と、
     前記少なくとも1台の仮想計算機及び前記I/Oアダプタを管理する管理用仮想計算機と、
     前記少なくとも1つの仮想ポートに設定済みのパラメータ値を含むパラメータ情報を不揮発的に保持するハイパバイザと、
     を備え、
     前記管理用仮想計算機は、
     再起動時に前記ハイパバイザから取得した前記パラメータ情報に基づく前記パラメータ値を前記少なくとも1つの仮想ポートに再度設定し、前記少なくとも1つの仮想ポートを前記少なくとも1台の仮想計算機に対して割り当て前記ゲストオペレーティングシステムに再度認識させる
     ことを特徴とする計算機。
  2.  前記ハイパバイザは、
     前記I/Oアダプタにおける前記物理ポートと前記少なくと1つの仮想ポートとの対応関係及び閉塞されているか否かの状態を管理するエミュレーションデータを保持していることを特徴とする請求項1に記載の計算機。
  3.  前記管理用仮想計算機は、
     前記パラメータ情報に基づく前記パラメータ値を前記少なくとも1つの仮想ポートに再度設定した後、前記ハイパバイザに対して結果の通知を実施することを特徴とする請求項1に記載の計算機。
  4.  前記管理用仮想計算機は、
     管理用ゲストオペレーティングシステムと、
     前記物理ポートに対応した前記少なくとも1つの仮想ポートを生成する物理ポートドライバと、を有し、
     前記ハイパバイザは、
     外部から復旧要求を受け取ると、前記管理用ゲストオペレーティングシステムに対して再起動命令を行うことにより、前記管理用ゲストオペレーティングシステムに前記物理ポートドライバに対して前記少なくとも1つの仮想ポートを生成させることを特徴とする請求項3に記載の計算機。
  5.  前記ハイパバイザは、
     前記前記管理用ゲストオペレーティングシステムに対して前記少なくとも1つの仮想ポートについて前記パラメータ値を設定すべき旨の要求を行い、前記管理用ゲストオペレーティングシステムに前記パラメータ情報を提供して前記物理ポートドライバに前記少なくとも1つの仮想ポートについて前記パラメータ情報に基づく前記パラメータ値を再設定させることを特徴とする請求項4に記載の計算機。
  6.  物理ポートを備える一方、前記物理ポートに対応しており設定済みのパラメータ値に従って動作する少なくとも1つの仮想ポートが生成されるI/Oアダプタと、
     前記少なくとも1つの仮想ポートに対してアクセスすることによって前記I/Oアダプタを用いて外部とのやり取りを行うゲストオペレーティングシステムが動作する少なくとも1つの仮想計算機と、
     前記少なくとも1台の仮想計算機及び前記I/Oアダプタを管理する管理用仮想計算機と、
     前記少なくとも1つの仮想ポートに設定済みのパラメータ値を含むパラメータ情報を不揮発的に保持するハイパバイザと、
     を備える計算機における再起動方法において、
     前記管理用仮想計算機が、再起動時に前記ハイパバイザから前記パラメータ情報を取得するパラメータ情報取得ステップと、
     前記管理用仮想計算機が、前記パラメータ情報に基づく前記パラメータ値を前記少なくとも1つの仮想ポートに再度設定する再設定ステップと、
     前記管理用仮想計算機が、前記少なくとも1つの仮想ポートを前記少なくとも1台の仮想計算機に対して割り当て前記ゲストオペレーティングシステムに再度認識させる再認識ステップと、
     を有することを特徴とする計算機の再起動方法。
  7.  前記ハイパバイザは、
     前記I/Oアダプタにおける前記物理ポートと前記少なくと1つの仮想ポートとの対応関係及び閉塞されているか否かの状態を管理するエミュレーションデータを保持していることを特徴とする請求項6に記載の計算機の再起動方法。
  8.  前記管理用仮想計算機は、
     前記再設定ステップを実行した後、前記ハイパバイザに対して結果の通知を実施することを特徴とする請求項6に記載の計算機の再起動方法。
  9.  前記管理用仮想計算機は、
     管理用ゲストオペレーティングシステムと、
     前記物理ポートに対応した前記少なくとも1つの仮想ポートを生成する物理ポートドライバと、を有し、
     前記ハイパバイザは、
     外部から復旧要求を受け取ると、前記管理用ゲストオペレーティングシステムに対して再起動命令を行うことにより、前記管理用ゲストオペレーティングシステムに前記物理ポートドライバに対して前記少なくとも1つの仮想ポートを生成させることを特徴とする請求項8に記載の計算機の再起動方法。
  10.  前記ハイパバイザは、前記再設定ステップにおいて、
     前記前記管理用ゲストオペレーティングシステムに対して前記少なくとも1つの仮想ポートについて前記パラメータ値を設定すべき旨の要求を行い、前記管理用ゲストオペレーティングシステムに前記パラメータ情報を提供して前記物理ポートドライバに前記少なくとも1つの仮想ポートについて前記パラメータ情報に基づく前記パラメータ値を再設定させることを特徴とする請求項9に記載の計算機の再起動方法。
PCT/JP2016/084370 2016-11-18 2016-11-18 計算機及び計算機の再起動方法 WO2018092287A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/084370 WO2018092287A1 (ja) 2016-11-18 2016-11-18 計算機及び計算機の再起動方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/084370 WO2018092287A1 (ja) 2016-11-18 2016-11-18 計算機及び計算機の再起動方法

Publications (1)

Publication Number Publication Date
WO2018092287A1 true WO2018092287A1 (ja) 2018-05-24

Family

ID=62145348

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/084370 WO2018092287A1 (ja) 2016-11-18 2016-11-18 計算機及び計算機の再起動方法

Country Status (1)

Country Link
WO (1) WO2018092287A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006085543A (ja) * 2004-09-17 2006-03-30 Hitachi Ltd 仮想計算機システム
JP2012203636A (ja) * 2011-03-25 2012-10-22 Hitachi Ltd 仮想計算機の制御方法及び計算機
JP2013120552A (ja) * 2011-12-08 2013-06-17 Hitachi Ltd 仮想計算機システム、仮想計算機管理プログラム、及びmacアドレス管理方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006085543A (ja) * 2004-09-17 2006-03-30 Hitachi Ltd 仮想計算機システム
JP2012203636A (ja) * 2011-03-25 2012-10-22 Hitachi Ltd 仮想計算機の制御方法及び計算機
JP2013120552A (ja) * 2011-12-08 2013-06-17 Hitachi Ltd 仮想計算機システム、仮想計算機管理プログラム、及びmacアドレス管理方法

Similar Documents

Publication Publication Date Title
US8954963B2 (en) Method and apparatus for resetting a physical I/O adapter without stopping a guest OS running on a virtual machine
US10333865B2 (en) Transformation of peripheral component interconnect express compliant virtual devices in a network environment
US8386654B2 (en) System and method for transforming PCIe SR-IOV functions to appear as legacy functions
US11106622B2 (en) Firmware update architecture with OS-BIOS communication
US9262363B2 (en) PCI and PCI express virtual hot plug systems and methods
JP6029550B2 (ja) 計算機の制御方法及び計算機
TWI684864B (zh) 管理輸入輸出可虛擬化儲存裝置中之功能級重置
US9684530B2 (en) System and method for assigning virtual functions and management host thereof
WO2017209854A1 (en) Hot-plug hardware and software implementation
US8271707B2 (en) Method and system for PCI hybrid function
JP5667552B2 (ja) 仮想計算機システム、仮想計算機管理プログラム、及びmacアドレス管理方法
WO2017006458A1 (ja) 計算機及びメモリ領域管理方法
CN109656675B (zh) 总线设备、计算机设备及实现物理主机云存储的方法
US11144326B2 (en) System and method of initiating multiple adaptors in parallel
US9304779B2 (en) Optimizing boot time of a storage system
JP5876149B2 (ja) サーバー・コンピュータを開始させるためのコンピュータ・システム、方法、サーバー・コンピュータ、管理ステーションおよび使用
WO2018092287A1 (ja) 計算機及び計算機の再起動方法
CN113467850A (zh) 管理程序移除
US10509746B2 (en) Information processing apparatus, storage medium and information processing method
JP6745405B2 (ja) ストレージシステム及びマッピング方法
JP5998482B2 (ja) 監視システム
JP6682897B2 (ja) 通信設定方法、通信設定プログラム、情報処理装置および情報処理システム
US20120284711A1 (en) Method and Arrangement for Configuring a Resource for a Virtual Runtime Environment
US11822948B2 (en) Peripheral component interconnect (PCI) device removal for virtual machines
WO2021181537A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16921624

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16921624

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP