CN109656675A - 总线设备、计算机设备及实现物理主机云存储的方法 - Google Patents
总线设备、计算机设备及实现物理主机云存储的方法 Download PDFInfo
- Publication number
- CN109656675A CN109656675A CN201710943656.0A CN201710943656A CN109656675A CN 109656675 A CN109656675 A CN 109656675A CN 201710943656 A CN201710943656 A CN 201710943656A CN 109656675 A CN109656675 A CN 109656675A
- Authority
- CN
- China
- Prior art keywords
- bus apparatus
- bus
- physical host
- block device
- device driver
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/455—Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
- G06F9/45533—Hypervisors; Virtual machine monitors
- G06F9/45558—Hypervisor-specific management and integration aspects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1097—Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L69/00—Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
- H04L69/30—Definitions, standards or architectural aspects of layered protocol stacks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/455—Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
- G06F9/45533—Hypervisors; Virtual machine monitors
- G06F9/45558—Hypervisor-specific management and integration aspects
- G06F2009/45579—I/O management, e.g. providing access to device drivers or storage
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Bus Control (AREA)
- Stored Programmes (AREA)
Abstract
本申请实施例提供了一种总线设备、计算机设备及实现物理主机云存储的方法。在一种实施例中,一种应用于物理主机的总线设备,该总线设备通过物理主机总线连接到物理机上,所述总线设备包括:请求接收模块,用于接收由在物理主机的操作系统内安装的块设备驱动程序发送的I/O请求信息;协议栈实现模块,用于实现存储协议栈并利用该存储协议栈建立所述总线设备与云存储系统之间的通信,并将所述请求接收模块获得的所述I/O请求信息按照通信协议向所述云存储系统发送。
Description
技术领域
本说明书一个或多个实施例涉及计算机技术领域,尤其涉及一种总线设备、计算机设备及实现物理主机云存储的方法。
背景技术
弹性计算云(Elastic Computing Cloud)是一种云计算服务,即基于虚拟化技术,将本地的物理机虚拟化成多个虚拟机(Virtual Machine,VM)来使用,以此来提高资源的使用率,压缩成本。其中,基于弹性计算云技术虚拟出来的虚拟机的存储服务一般都是基于块设备(Block Device)的存储服务,业界称之为弹性块存储服务(Elastic Block Storage)。块存储服务,是基于块设备驱动(Block Device Driver)提供的一种块级别的存储服务。当今,虚拟化技术因其弹性网络、弹性存储、快速交付等特点,已成为主流云主机服务的实现基础。
然而,虚拟机通常存在性能损失、特性损失、资源争抢、软硬件较难耦合等方面的弊端,而传统物理机由于先天技术缺陷而不具备虚拟机的弹性(如:弹性存储)。为此,有必要提出一种新的物理机,以将传统物理机的优势和传统虚拟机的优势进行融合。
发明内容
有鉴于此,本说明书一个或多个实施例提供一种总线设备、计算机设备及实现物理主机云存储的方法。
为实现上述目的,本说明书一个或多个实施例提供的技术方案如下:
在一个方面,提出的一种应用于物理主机的总线设备,该总线设备通过物理主机总线连接到物理机上,所述总线设备包括:
请求接收模块,用于接收由在物理主机的操作系统内安装的块设备驱动程序发送的I/O请求信息;
协议栈实现模块,用于实现存储协议栈并利用该存储协议栈建立所述总线设备与云存储系统之间的通信,并将所述请求接收模块获得的所述I/O请求信息按照通信协议向所述云存储系统发送。
在另一个方面,提出的一种计算机设备,包括:
物理主机,安装有操作系统,在所述操作系统内安装有块设备驱动程序;
用于通过物理机总线与所述物理主机连接的总线设备,所述总线设备包括请求接收模块和协议栈实现模块,所述请求接收模块用于接收由在物理主机的操作系统内安装的块设备驱动程序发送的I/O请求信息,所述协议栈实现模块用于实现存储协议栈并利用该存储协议栈建立所述总线设备与云存储系统之间的通信,并将所述请求接收模块获得的所述I/O请求信息按照通信协议向所述云存储系统发送。
在又一个方面,提出的一种实现物理主机云存储的方法,应用于通过物理机总线与所述物理主机连接的总线设备,所述方法包括:
接收由在物理主机的操作系统内安装的块设备驱动程序发送的I/O请求信息;
通过所述总线设备内实现的存储协议栈建立所述总线设备与云存储系统之间的通信;
将所述I/O请求信息按照通信协议向所述云存储系统发送,以使所述云存储系统执行相应的I/O操作。
通过以上技术方案可见,通过可以通过物理机总线连接到物理机上的总线设备,可以实现将物理机的I/O请求传递给后端的云存储系统,从而实现了物理主机的弹性存储,将传统物理机的优势(如:裸金属高性能、硬件高隔离、支持硬件虚拟化)和传统虚拟机的优势(如:弹性存储、快速交付)相互融合。
附图说明
图1示出了示例性实施例提供的一种计算机设备的架构;
图2示出了一示例性实施例提供的一种实现物理主机云存储的方法的流程图。
具体实施方式
当今,虚拟机因其具备诸如弹性网络、弹性存储、快速交付等弹性优势,而被应用到各种云部署场景中。然而,由于物理机本身具备诸如裸机高性能、硬件高隔离、支持硬件虚拟化等优势,在很多场景中依然需要基于物理机进行部署实现。因而出现了将物理机的优势和虚拟机的优势进行相互融合的需求。列举如下几种典型的需求场景:
1、在诸如公有云部署场景下,物理机普遍需要具备虚拟私有云(Virtual PrivateCloud,VPC)的网络接入、弹性存储、快速交付等弹性特点。另外,在高性能计算(HighPerformance Computing,HPC)和异构计算等场景下,普遍需要支持远程直接数据存取(Remote Direct Memory Access,RDMA)网络,而RDMA虚拟化技术目前并不成熟,RDMA典型场景需要基于物理机进行部署。
2、在混合云场景中,需要公有云厂商提供具备弹性能力的裸机服务。
3、在互联网数据中心(IDC)搬站场景下,要求裸机大规模部署Docker(开源的应用容器引擎)。
4、诸如ARM和Power等非x86指令集CPU,其虚拟化适配的工作量巨大,需要快速高效地满足非x86指令集CPU的IaaS(Infrastructure as a Service,基础设施即服务)云部署。
5、传统虚拟化技术(如:intel VT-x和KVM等)在性能损失、特性损失、资源争抢、软硬件耦合等方面的问题亟待解决。
为了将虚拟机的弹性和物理机的裸机高性能、硬件高隔离、支持硬件虚拟化等优势相互融合,本申请实施例提出了一种具备虚拟机的弹性的物理机,该物理机可以保留传统物理机的优势。
如图1所示,为本申请实施例提出的一种计算机设备的架构,该计算机设备包括:物理主机、与物理主机通过总线(Bus)相连接的总线设备(“总线设备”是一种通过接口电路连接到物理机的总线上的硬件,该硬件通常可即插即用)、云存储系统以及用于实现总线设备和云存储系统间的通信的网卡(Network Interface Card,NIC)。其中,物理主机的系统盘和数据盘都可以存在于该云存储系统上,由该云存储系统根据需求来分配,云存储是相对于本地存储,在数据健壮性上提供了更高的可用性和容错性。所述物理主机可包括处理器(CPU)、主板、内存、总线等硬件。该物理主机上可以安装有操作系统(Operating system,OS),并且在该操作系统内安装块设备驱动程序(Block Device Driver)。块设备(BlockDevice)是I/O设备中的一类,其用于将信息存储在固定大小的块中,每个块都有自己的地址,还可以在设备的任意位置读取一定长度的数据。在虚拟机中,为了提高虚拟机内外的I/O性能,通常需要通过半虚拟化技术来虚拟出一个虚拟磁盘(通常被虚拟为一个PCI设备),该虚拟出的PCI设备通过安装在虚拟机内部的块设备驱动程序进行驱动。本申请实施例中,为了能够实现物理机的弹性存储,上述块设备驱动程序(Block Device Driver)可以选用在虚拟机中使用的用于驱动虚拟块设备的虚拟块设备驱动程序,也就是说,将传统在虚拟机中使用的虚拟块设备驱动程序复用到物理机中。
作为一种示例,所述虚拟块设备驱动程序可以为virtio-blk驱动,通常,virtio可视为半虚拟化hypervisor中位于设备之上的抽象层。在相关技术中,virtio-blk作为一种半虚拟化驱动,可应用于在XEN或KVM等虚拟化平台。以qemu-kvm架构的虚拟化平台为例,在虚拟机中安装的virtio-blk驱动也被称为前端(virtio-blk frontend),而用于虚拟PCI设备的qemu程序被称为后端(virtio-blk backend),需要前后端配合来完成虚拟机内外的数据传输。在本申请实施例中,可以将前端程序复用到物理主机中,但是并不需要通过虚拟化技术虚拟出来一个PCI设备,而是通过硬件方式实现一个后端来与前端程序配合。本实施例通过将在虚拟机中的virtio-blk驱动程序复用到物理主机上,从而可以降低开发新驱动程序所带来的成本,同时,通过硬件方式来实现一个后端,也可以保留物理机本身所具备的特点。关于所述块设备驱动程序,并不局限于传统应用于虚拟机中的虚拟块设备驱动,也可以是开发者根据自身需求自主开发出的驱动程序。
上述总线设备通过所述物理主机的总线与所述物理主机相连接。在本申请一实施例中,所述总线可为PCIe(Peripheral Component Interconnect Express)总线,所述总线设备可为通过PCIe总线连接到物理主机的主板上的PCIe设备。通常,PCIe总线上可存在若干PCIe设备插槽,每个PCIe设备插槽可以插入一个PCIe设备。本申请实施例中,该PCIe设备可以通过诸如:现场可编程门阵列(Field-Programmable Gate Array,FPGA)、特定用途集成电路(ASIC)、系统级芯片(System on Chip,SoC)等硬件来实现。当然,其中提及的系统级芯片包括多核或单核SoC。
在本申请实施例中,上述总线设备(如:PCIe设备)可包括一个请求接收模块和一个用于实现存储协议栈(Storage Stack)的协议栈实现模块。其中,请求接收模块用于接收由在物理主机的操作系统内安装的块设备驱动程序发送的I/O请求信息。协议栈实现模块用于实现存储协议栈并利用该存储协议栈建立所述总线设备与云存储系统之间的通信,并将所述请求接收模块获得的所述I/O请求信息按照通信协议向所述云存储系统发送。在网络中,为了完成通信,通常需要使用多种协议(Protocol),这些协议按照层次顺序组合在一起,就构成了存储协议栈(Protocol Stack)。存储协议栈形象的反映了一个网络中数据传输的过程:由上层协议到底层协议,再由底层协议到上层协议。上述存储协议栈可以由所述总线设备中的一个指定的处理单元(如:CPU、ASIC、FPGA等)来实现。上述存储协议栈将来自于物理机上的块设备驱动程序的I/O请求按照一定的通信协议进行处理并发送给后端云存储系统。其中,假设物理机需要向云盘中写入特定的数据,则可以通过块设备驱动程序发送一个存储请求,一般地,存储请求可携带如下信息:待写入数据的内容、长度,用于存放该待写入数据的地址(如:扇区ID等)等,存储协议栈可以根据物理机端传来的各种信息,按照一定的协议要求对这些信息进行处理,并将处理后得到的信息通过网络发送给后端的云存储系统,以使得云存储系统执行相应的处理动作。当然,文中提及的“I/O请求”包括将物理主机的数据存放到云存储空间的存储请求或从云存储空间读取物理主机所需数据的读取请求。
在一实施例中,为了能够在物理机中复用原本在虚拟机上使用的virtio-blk驱动,需要所述总线设备符合virtio的规范。其中,不同的virtio版本(如:virtio v0.95、virtio v1.0)对应于不同的virtio规范。
以PCIe设备为例,可通过对PCIe设备进行相应的配置以使PCIe设备符合virtio规范。本申请一实施例中,通常,具体需要如下几个条件被满足:
1)PCIe设备的PCI配置空间(config space)满足virtio-blk驱动的要求。
一般地,PCIe设备有三个相互独立的物理地址空间:设备存储器地址空间、I/O地址空间和配置空间。其中,配置空间是PCIe设备所特有的一个物理空间。由于PCIe设备支持即插即用,所以PCIe设备不占用固定的内存地址空间或I/O地址空间,而是由操作系统决定其映射的基址。通常,配置空间可以包括但不限于:
Vendor ID(即厂商ID):可用于判断PCIe设备是否存在。
Device ID(即设备ID):某厂商生产的设备的ID。
Class Code:类代码。
IRQ Line:IRQ编号。
IRQ Pin:中断引脚。
其中,因为物理主机的操作系统可以根据Vendor ID和Device ID来找到与该PCIe设备对应的驱动程序,为此,需要按照virtio-blk驱动的要求对上述Vendor ID和DeviceID进行配置。例如:vendorID为0x1AF4,Device ID的范围为0x1000~0x103F。
2)PCIe设备的BAR(Base Address Register)实现所述虚拟块设备驱动程序要求的寄存器定义以及中断机制所需的MSI(Message Signaled Interrupt)或MSIX配置表项。
PCIe设备因其地址空间的可动态分配的特性,而具备较佳的可配置型和易操作性。而动态分配地址空间就是依赖于BAR(base address register)实现的。在一个PCIe设备中,其PCI配置空间中从0x10到0x24包括6个BAR(BAR0~BAR5)寄存器,用来定义PCIe设备需要的配置空间大小以及配置PCIe设备占用的地址空间。以virtio-0.95版本为例,需要在PCIe设备的BAR0中实现virtio规范要求的寄存器定义,以及在BAR1~BAR5中实现virtio中断机制所需的INTx、或MSI或MSIX配置表项。
3)PCIe设备通过PCIe总线具备访问所述物理主机的物理内存的能力。关于这一点,一般的PCIe设备都具备访问上述物理内存的能力。
4)PCIe设备具备根据物理主机配置的MSIX或MSI或INTX信息对物理主机发起指定中断的能力。
当上述4个条件被满足后,原本应用于虚拟机上的virtio-blk驱动便可以无需修改,便可以复用到物理主机上,从而,PCIe设备便可以与该virtio-blk驱动进行配合,来实现物理主机的云盘存储。
本文中,总线设备与云存储系统进行通信的网络接口包括但不限于:以太网(Ethernet),光纤信道(Fibre Channel,FC),Infiniband(IB)等。
通过以上技术方案可见,通过可以通过物理机总线连接到物理机上的总线设备(如通过CPU、ASIC、FPGA等硬件实现的PCIe设备),可以实现将物理机的I/O请求传递给后端的云存储系统,从而实现了物理主机的弹性存储,将传统物理机的优势(如:裸金属高性能、硬件高隔离、支持硬件虚拟化)和传统虚拟机的优势(如:弹性存储、快速交付)相互融合。另外,传统的物理机由于数据都是本地化存储,一旦物理机出现故障或宕机,则通常需要较长时间才能恢复使用。而本申请提出的弹性物理机,如果物理主机出现故障,则由于物理主机的数据(包括系统盘和数据盘)并没有存放到本地,而是云端存储,因此便可以在较短时间内切换到另一个可用的物理主机,并将原本存放到云盘的数据交给该可用的物理主机进行使用,从而提升用户体验。另外,弹性物理机相较于传统物理机,可以实现快速交付。
在相关技术中,传统的物理机还存在无法支持云盘启动的弊端。所谓云盘启动,指的是物理机在开机时通过从云盘读取启动所需要的数据(如系统盘)。为此,传统的物理机需要将数据存放到本地,以利用本地数据进行启动。本申请实施例为了实现弹性物理机(文中提及的弹性物理机是指包括上述总线设备的物理机)的云盘启动,可以通过如下方式来实现:
在PCIe设备的扩展只读存储器(expansion ROM)或所述物理主机的基本输入输出系统(BIOS)中存放有云盘启动驱动程序,其中,所述云盘启动驱动程序用于从云存储系统(即云盘)读取所述物理主机开机所需的数据。
在相关技术中,某些物理机可以通过用户在物理机中显式地运行iSCSI initator命令行来实现数据云盘,但是,这一方式需要用户输入一定的命令,操作繁琐。本申请实施例通过PCIe设备实现数据云盘和/或系统云盘,可以确保物理机始终可以访问云盘,提升了用户体验。
图2示出了一示例性实施例提供的一种实现物理主机云存储的方法的流程,应用于通过物理机总线与所述物理主机连接的总线设备,所述方法可包括如下步骤101~103,其中:
在步骤101中,总线设备接收由在物理主机的操作系统内安装的块设备驱动程序发送的I/O请求信息。
在步骤102中,总线设备通过所述总线设备内实现的存储协议栈建立所述总线设备与云存储系统之间的通信。
在步骤103中,总线设备将所述I/O请求信息按照通信协议向所述云存储系统发送,以使所述云存储系统执行相应的I/O操作。
其中,存储协议栈的本质目的是实现物理主机的计算和存储的分离,通过将计算和存储分离,可以使得云端存储的高可用性等优势得以发挥。
在一实施例中,当所述所述总线设备为通过PCIe总线连接到物理主机的PCIe设备,所述块设备驱动程序为在虚拟机中使用的用于驱动虚拟块设备的虚拟块设备驱动程序时,所述方法还包括:
基于所述虚拟块设备驱动程序的要求,对所述PCIe设备的配置空间内的配置信息进行配置;及,
基于所述虚拟块设备驱动程序的要求,在所述PCIe设备的BAR寄存器实现所述虚拟块设备驱动程序要求的寄存器定义以及中断机制所需的INTx、或MSI或MSIX配置表项。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书一个或多个实施例时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flashRAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitorymedia),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书一个或多个实施例的实施例可提供为方法、系统或计算机程序产品。因此,本说明书一个或多个实施例可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书一个或多个实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书一个或多个实施例可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书一个或多个实施例,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
以上所述仅为本说明书一个或多个实施例的实施例而已,并不用于限制本说明书一个或多个实施例。对于本领域技术人员来说,本说明书一个或多个实施例可以有各种更改和变化。凡在本说明书一个或多个实施例的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书一个或多个实施例的权利要求范围之内。
Claims (18)
1.一种应用于物理主机的总线设备,该总线设备通过物理主机总线连接到物理机上,其特征在于,所述总线设备包括:
请求接收模块,用于接收由在物理主机的操作系统内安装的块设备驱动程序发送的I/O请求信息;
协议栈实现模块,用于实现存储协议栈并利用该存储协议栈建立所述总线设备与云存储系统之间的通信,并将所述请求接收模块获得的所述I/O请求信息按照通信协议向所述云存储系统发送。
2.根据权利要求1所述的总线设备,其特征在于,所述块设备驱动程序为在虚拟机中使用的用于驱动虚拟块设备的虚拟块设备驱动程序。
3.根据权利要求2所述的总线设备,其特征在于,所述虚拟块设备驱动程序为virtio-blk驱动。
4.根据权利要求2所述的总线设备,其特征在于,所述总线设备为通过PCIe总线连接到物理主机的PCIe设备。
5.根据权利要求4所述的总线设备,其特征在于,所述PCIe设备满足如下条件:
所述PCIe设备的配置空间内的配置信息满足所述虚拟块设备驱动程序的要求;
所述PCIe设备的BAR寄存器实现所述虚拟块设备驱动程序要求的寄存器定义以及中断机制所需的INTx、或MSI或MSIX配置表项。
6.根据权利要求4所述的总线设备,其特征在于,所述PCIe设备的扩展只读存储器中存放有云盘启动驱动程序,所述云盘启动驱动程序用于从云存储系统读取所述物理主机开机所需的数据。
7.根据权利要求1所述的总线设备,其特征在于,所述请求接收模块/协议栈实现模块包括:现场可编程门阵列FPGA、和/或特定用途集成电路ASIC、和/或系统级芯片SoC。
8.一种计算机设备,其特征在于,包括:
物理主机,安装有操作系统,在所述操作系统内安装有块设备驱动程序;
用于通过物理机总线与所述物理主机连接的总线设备,所述总线设备包括请求接收模块和协议栈实现模块,所述请求接收模块用于接收由在物理主机的操作系统内安装的块设备驱动程序发送的I/O请求信息,所述协议栈实现模块用于实现存储协议栈并利用该存储协议栈建立所述总线设备与云存储系统之间的通信,并将所述请求接收模块获得的所述I/O请求信息按照通信协议向所述云存储系统发送。
9.根据权利要求8所述的计算机设备,其特征在于,所述块设备驱动程序为在虚拟机中使用的用于驱动虚拟块设备的虚拟块设备驱动程序。
10.根据权利要求9所述的计算机设备,其特征在于,所述虚拟块设备驱动程序为virtio-blk驱动。
11.根据权利要求9所述的计算机设备,其特征在于,所述总线设备为通过PCIe总线连接到物理主机的PCIe设备。
12.根据权利要求11所述的计算机设备,其特征在于,所述PCIe设备满足如下条件:
所述PCIe设备的配置空间内的配置信息满足所述虚拟块设备驱动程序的要求;
所述PCIe设备的BAR寄存器实现所述虚拟块设备驱动程序要求的寄存器定义以及中断机制所需的MSI配置表项。
13.根据权利要求11所述的计算机设备,其特征在于,所述PCIe设备的扩展只读存储器或所述物理主机的基本输入输出系统BIOS中存放有云盘启动驱动程序,所述云盘启动驱动程序用于从云存储系统读取所述物理主机开机所需的数据。
14.根据权利要求8所述的计算机设备,其特征在于,所述请求接收模块/协议栈实现模块包括:现场可编程门阵列FPGA、和/或特定用途集成电路ASIC、和/或系统级芯片SoC。
15.一种实现物理主机云存储的方法,其特征在于,所述方法包括:
总线设备接收由在物理主机的操作系统内安装的块设备驱动程序发送的I/O请求信息,所述总线设备通过物理机总线与所述物理主机连接;
所述总线设备通过该总线设备内实现的存储协议栈建立所述总线设备与云存储系统之间的通信;
所述总线设备将所述I/O请求信息按照通信协议向所述云存储系统发送,以使所述云存储系统执行相应的I/O操作。
16.根据权利要求15所述的方法,其特征在于,所述块设备驱动程序为在虚拟机中使用的用于驱动虚拟块设备的虚拟块设备驱动程序。
17.根据权利要求16所述的方法,其特征在于,所述总线设备为通过PCIe总线连接到物理主机的PCIe设备。
18.根据权利要求17所述的方法,其特征在于,所述方法还包括:
基于所述虚拟块设备驱动程序的要求,对所述PCIe设备的配置空间内的配置信息进行配置;
基于所述虚拟块设备驱动程序的要求,在所述PCIe设备的BAR寄存器实现所述虚拟块设备驱动程序要求的寄存器定义以及中断机制所需的INTx、或MSI或MSIX配置表项。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710943656.0A CN109656675B (zh) | 2017-10-11 | 2017-10-11 | 总线设备、计算机设备及实现物理主机云存储的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710943656.0A CN109656675B (zh) | 2017-10-11 | 2017-10-11 | 总线设备、计算机设备及实现物理主机云存储的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109656675A true CN109656675A (zh) | 2019-04-19 |
CN109656675B CN109656675B (zh) | 2023-03-21 |
Family
ID=66109666
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710943656.0A Active CN109656675B (zh) | 2017-10-11 | 2017-10-11 | 总线设备、计算机设备及实现物理主机云存储的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109656675B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112230865A (zh) * | 2020-12-15 | 2021-01-15 | 广东睿江云计算股份有限公司 | 一种数据缓冲方法及其系统 |
CN112015352B (zh) * | 2020-10-21 | 2021-01-22 | 北京首都在线科技股份有限公司 | 存储块设备识别装置、系统和存储块设备读写方法 |
CN113467970A (zh) * | 2021-06-25 | 2021-10-01 | 阿里巴巴新加坡控股有限公司 | 云计算系统中的跨安全区域的资源访问方法及电子设备 |
WO2022057439A1 (zh) * | 2020-09-18 | 2022-03-24 | 北京金山云网络技术有限公司 | 裸金属服务器与弹性块存储的通信装置、智能网卡和系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130290957A1 (en) * | 2012-04-26 | 2013-10-31 | International Business Machines Corporation | Efficient execution of jobs in a shared pool of resources |
CN203951497U (zh) * | 2014-05-16 | 2014-11-19 | 刘平 | 以缓存为中心的多功能、高性能云存储平台 |
CN104636077A (zh) * | 2013-11-15 | 2015-05-20 | 中国电信股份有限公司 | 用于虚拟机的网络块设备存储系统与方法 |
CN104636076A (zh) * | 2013-11-15 | 2015-05-20 | 中国电信股份有限公司 | 一种用于云存储的分布式块设备驱动方法和系统 |
US20160352830A1 (en) * | 2015-05-26 | 2016-12-01 | Pure Storage, Inc. | Locally providing cloud storage array services |
CN106610789A (zh) * | 2015-10-26 | 2017-05-03 | 华为技术有限公司 | 一种数据处理方法、装置及系统 |
-
2017
- 2017-10-11 CN CN201710943656.0A patent/CN109656675B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130290957A1 (en) * | 2012-04-26 | 2013-10-31 | International Business Machines Corporation | Efficient execution of jobs in a shared pool of resources |
CN104636077A (zh) * | 2013-11-15 | 2015-05-20 | 中国电信股份有限公司 | 用于虚拟机的网络块设备存储系统与方法 |
CN104636076A (zh) * | 2013-11-15 | 2015-05-20 | 中国电信股份有限公司 | 一种用于云存储的分布式块设备驱动方法和系统 |
CN203951497U (zh) * | 2014-05-16 | 2014-11-19 | 刘平 | 以缓存为中心的多功能、高性能云存储平台 |
US20160352830A1 (en) * | 2015-05-26 | 2016-12-01 | Pure Storage, Inc. | Locally providing cloud storage array services |
CN106610789A (zh) * | 2015-10-26 | 2017-05-03 | 华为技术有限公司 | 一种数据处理方法、装置及系统 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022057439A1 (zh) * | 2020-09-18 | 2022-03-24 | 北京金山云网络技术有限公司 | 裸金属服务器与弹性块存储的通信装置、智能网卡和系统 |
CN112015352B (zh) * | 2020-10-21 | 2021-01-22 | 北京首都在线科技股份有限公司 | 存储块设备识别装置、系统和存储块设备读写方法 |
CN112230865A (zh) * | 2020-12-15 | 2021-01-15 | 广东睿江云计算股份有限公司 | 一种数据缓冲方法及其系统 |
CN112230865B (zh) * | 2020-12-15 | 2021-03-30 | 广东睿江云计算股份有限公司 | 一种数据缓冲方法及其系统 |
CN113467970A (zh) * | 2021-06-25 | 2021-10-01 | 阿里巴巴新加坡控股有限公司 | 云计算系统中的跨安全区域的资源访问方法及电子设备 |
CN113467970B (zh) * | 2021-06-25 | 2023-09-26 | 阿里巴巴新加坡控股有限公司 | 云计算系统中的跨安全区域的资源访问方法及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN109656675B (zh) | 2023-03-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110063051B (zh) | 用于重新配置服务器的系统和方法以及服务器 | |
US10095645B2 (en) | Presenting multiple endpoints from an enhanced PCI express endpoint device | |
US20210232528A1 (en) | Configurable device interface | |
CN103282881B (zh) | 通过虚拟化直接共享智能设备 | |
CN107209681B (zh) | 一种存储设备访问方法、装置和系统 | |
CN109791471B (zh) | 虚拟化外围装置处的非易失性存储装置 | |
CN102819447B (zh) | 一种用于多根共享系统的直接i/o虚拟化方法和装置 | |
US9940123B1 (en) | Updating device code through a bus | |
US8832688B2 (en) | Kernel bus system with a hyberbus and method therefor | |
RU2532708C2 (ru) | Способ и устройство для осуществления операции ввода/вывода в среде виртуализации | |
US20120297382A1 (en) | Virtual server and virtual machine management method for supporting zero client | |
EP3992790B1 (en) | Information processing method, physical machine and pcie device | |
CN109656675A (zh) | 总线设备、计算机设备及实现物理主机云存储的方法 | |
US9495172B2 (en) | Method of controlling computer system and computer system | |
CN103034524A (zh) | 半虚拟化的虚拟gpu | |
US8607231B1 (en) | Method and system for processing isochronous data packets using virtual USB controller and placing the isochronous data packets into a look-ahead queue having a plurality of blank packets | |
CN109656646B (zh) | 一种远程桌面控制方法、装置、设备及虚拟化芯片 | |
US11392512B2 (en) | USB method and apparatus in a virtualization environment with multi-VM | |
CN105556473A (zh) | 一种i/o任务处理的方法、设备和系统 | |
CN114417373A (zh) | 一种NVMe-oF用户态客户端的数据访问方法和装置 | |
CN115221089A (zh) | 使用主机本地的存储设备进行高效软件定义的网络加速处理的装置、方法和计算机程序产品 | |
WO2017045272A1 (zh) | 虚拟机迁移方法和装置 | |
CN111651269A (zh) | 实现设备虚拟化的方法、装置及计算机可读存储介质 | |
CN110968392A (zh) | 一种升级虚拟化模拟器的方法和装置 | |
Baun et al. | Building a private cloud with Eucalyptus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |