CN110597465B - 一种提升gpu服务器的性能的方法、设备及可读介质 - Google Patents

一种提升gpu服务器的性能的方法、设备及可读介质 Download PDF

Info

Publication number
CN110597465B
CN110597465B CN201910812215.6A CN201910812215A CN110597465B CN 110597465 B CN110597465 B CN 110597465B CN 201910812215 A CN201910812215 A CN 201910812215A CN 110597465 B CN110597465 B CN 110597465B
Authority
CN
China
Prior art keywords
raid0
nvme
groups
gpu server
hard disk
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910812215.6A
Other languages
English (en)
Other versions
CN110597465A (zh
Inventor
秦璞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Inspur Intelligent Technology Co Ltd
Original Assignee
Suzhou Inspur Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Inspur Intelligent Technology Co Ltd filed Critical Suzhou Inspur Intelligent Technology Co Ltd
Priority to CN201910812215.6A priority Critical patent/CN110597465B/zh
Publication of CN110597465A publication Critical patent/CN110597465A/zh
Application granted granted Critical
Publication of CN110597465B publication Critical patent/CN110597465B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0631Configuration or reconfiguration of storage systems by allocating resources to storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0662Virtualisation aspects
    • G06F3/0664Virtualisation aspects at device level, e.g. emulation of a storage device or system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • G06F3/0689Disk arrays, e.g. RAID, JBOD

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种提升GPU服务器的性能的方法,包括以下步骤:在NVME目标节点上部署存储性能开发工具;基于NVME目标节点中的NVME硬盘创建两组RAID0(没有奇偶校验的条带),将两组RAID0映射到GPU服务器上,并通过存储性能开发工具将NVME硬盘映射到GPU服务器上;以及在GPU服务器上部署并行文件系统,将映射的NVME硬盘和映射的两组RAID0组合成统一的目录。本发明还公开了一种计算机设备和可读存储介质。本发明提出的提升GPU服务器的性能的方法及装置将NVME硬件映射到GPU服务器上面,可以极大的降低成本跟提升GPU服务器的读写性能。

Description

一种提升GPU服务器的性能的方法、设备及可读介质
技术领域
本发明涉及服务器领域,更具体地,特别是指一种提升GPU服务器的性能的方法、设备及可读介质。
背景技术
目前在AI(Artificial Intelligence,人工智能)场景中,当训练集规模达到PB(存储单位,1PB=1024TB,1TB=1024GB)级别以上时,不得不把训练集数据存储在本地的机械硬盘或者远端存储上,在训练过程中影响训练的性能。当需要多台GPU(GraphicsProcessing Unit,图形处理器)服务器共同完成同一个训练任务时,为了得到较高的存储性能和提供统一的目录,目前主流的方案都需要NVME(Non-Volatile Memory Express,非易失性高速传输总线)全闪存磁盘阵列来实现。如果采用基于NVME技术的全闪存阵列,成本高昂,当NVME协议更新后,全闪存阵列无法及时应用新技术来提升性能,改善功能及稳定性,造成硬件资源的极大浪费。
另外,SPDK(Storage performance development kit,存储性能开发工具)配合现有的Linux的multipath(多路径)技术,无法充分发挥底层NVME的性能。基于SPDK的存储硬件假设有200GB/s带宽,配置两块100GB/s的EDR网卡,通过现有的multipath技术,最多只能发挥到150GB/s,性能浪费了1/4。
发明内容
有鉴于此,本发明实施例的目的在于提出一种提升GPU服务器的性能的方法及装置,主要是通过存储性能开发工具将NVME硬盘映射到GPU服务器上,并将NVME硬盘创建的两组RAID0也映射到GPU服务器上,将映射的NVME硬盘和映射的两组RAID0组合成统一的目录,从而大大降低成本并且提升GPU服务器的读写性能。
基于上述目的,本发明实施例的一方面提供了一种提升GPU服务器的性能的方法,包括如下步骤:在NVME目标节点上部署存储性能开发工具;基于所述NVME目标节点中的NVME硬盘创建两组RAID0,将所述两组RAID0映射到所述GPU服务器上,并通过所述存储性能开发工具将所述NVME硬盘映射到GPU服务器上;以及在所述GPU服务器上部署并行文件系统,并将映射的NVME硬盘和映射的两组RAID0组合成统一的目录。
在一些实施方式中,基于所述NVME目标节点中的NVME硬盘创建两组RAID0,将所述两组RAID0映射到所述GPU服务器上进一步包括:将所述两组RAID0虚拟成多组RAID0,并将虚拟后的多组RAID0分配到多个所述GPU服务器上。
在一些实施方式中,基于所述NVME目标节点中的NVME硬盘创建两组RAID0包括:将所述两组RAID0分别绑定到两个独立的网卡上。
在一些实施方式中,在GPU服务器上部署并行文件系统包括:将所述两组RAID0分别设置为并行文件系统中的元数据目标设备和对象存储目标设备。
在一些实施方式中,还包括:在所述GPU服务器上挂载NVME RAID硬盘。
本发明实施例的另一方面,还提供了一种计算机设备,包括:至少一个处理器;以及存储器,存储器存储有可在处理器上运行的计算机指令,指令由处理器执行以实现如下步骤:在NVME目标节点上部署存储性能开发工具;基于所述NVME目标节点中的NVME硬盘创建两组RAID0,将所述两组RAID0映射到所述GPU服务器上,并通过所述存储性能开发工具将所述NVME硬盘映射到GPU服务器上;以及在所述GPU服务器上部署并行文件系统,并将映射的NVME硬盘和映射的两组RAID0组合成统一的目录。
在一些实施方式中,基于所述NVME目标节点中的NVME硬盘创建两组RAID0,将所述两组RAID0映射到所述GPU服务器上进一步包括:将所述两组RAID0虚拟成多组RAID0,并将虚拟后的多组RAID0分配到多个所述GPU服务器上。
在一些实施方式中,基于所述NVME目标节点中的NVME硬盘创建两组RAID0包括:将所述两组RAID0分别绑定到两个独立的网卡上。
在一些实施方式中,在GPU服务器上部署并行文件系统包括:将所述两组RAID0分别设置为并行文件系统中的元数据目标设备和对象存储目标设备。
本发明实施例的再一方面,还提供了一种计算机可读存储介质,计算机可读存储介质存储有被处理器执行时执行如上方法的计算机程序。
本发明具有以下有益技术效果:通过SPDK实现NVME硬盘映射到GPU服务器;在通过SPDK映射时,多块NVME硬盘组成RAID0提高存储的性能;每组RAID0通过单路径的RDMA方法映射到服务器上面;在GPU服务器节点创建并行文件系统将映射过来的NVME硬盘和RAID0组合成统一的目录,节省了成本并大大提高了GPU服务器的读写性能。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的实施例。
图1为本发明提供的提升GPU服务器的性能的方法的实施例的示意图;
图2为本发明提供的提升GPU服务器的性能的方法的实施例的流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明实施例进一步详细说明。
需要说明的是,本发明实施例中所有使用“第一”和“第二”的表述均是为了区分两个相同名称非相同的实体或者非相同的参量,可见“第一”“第二”仅为了表述的方便,不应理解为对本发明实施例的限定,后续实施例对此不再一一说明。
基于上述目的,本发明实施例的第一个方面,提出了一种提升GPU服务器的性能的方法的实施例。图1示出的是本发明提供的提升GPU服务器的性能的方法的实施例的示意图。如图1所示,本发明实施例包括如下步骤:
S1、在NVME目标节点上部署存储性能开发工具;
S2、基于所述NVME目标节点中的NVME硬盘创建两组RAID0(没有奇偶校验的条带),将所述两组RAID0映射到所述GPU服务器上,并通过所述存储性能开发工具将所述NVME硬盘映射到GPU服务器上;以及
S3、在所述GPU服务器上部署并行文件系统,将映射的NVME硬盘和映射的两组RAID0组合成统一的目录。
本发明实施例以SPDK(Storage performance development kit,存储性能开发工具)进行说明,在其他实施例中,可以在NVME目标节点上部署其他工具。SPDK是用于加速使用NVMe SSD(Solid State Drives,固态硬盘)作为后端存储的应用软件加速库。该软件库的核心是用户态、异步、轮询方式的NVMe驱动,较之内核(诸如Linux Kernel)的NVMe驱动,它可以大幅度降低NVMe命令的延迟,同时提高单CPU核的IOPS(Input/Output OperationsPer Second,每秒进行读写操作的次数)。
在NVME目标节点上部署存储性能开发工具。也即是在NVME Target节点部署SPDK开发包,步骤可以如下:
git clone https://github.com/spdk/spdk
git submodule update–init
scripts/pkgdep.sh
用所述NVME目标节点中的NVME硬盘创建两组RAID0(没有奇偶校验的条带)。由于每块NVME硬盘读写性能预估为3GB/s左右,可以用NVME目标节点中的四块NVME硬盘创建两组RAID0,一组为RAID0_1,另一组为RAID0_2。RAID0又称为Stripe或Striping,它代表了所有RAID(Redundant Array of Independent Disks,独立磁盘冗余阵列)级别中最高的存储性能。RAID0提高存储性能的原理是把连续的数据分散到多个磁盘上存取,这样,系统有数据请求就可以被多个磁盘并行的执行,每个磁盘执行属于它自己的那部分数据请求。这种数据上的并行操作可以充分利用总线的带宽,显著提高磁盘整体存取性能。RAID0并不是真正的RAID结构,没有数据冗余,没有数据校验的磁盘陈列。RAID0将至少两块硬盘合并在一块,数据连续分割在每块盘上,因为带宽加倍,所以读写速度加倍。
在某些实施例中,基于所述NVME目标节点中的NVME硬盘创建两组RAID0,将两组RAID0映射到GPU服务器上进一步包括:将所述两组RAID0虚拟成多组RAID0,并将虚拟后的多组RAID0分配到多个所述GPU服务器上。
在某些实施例中,基于所述NVME目标节点中的NVME硬盘创建两组RAID0包括:将所述两组RAID0分别绑定到两个独立的网卡上。在本实施例中,可以采用RDMA(Remote DirectMemory Access,远端直接内存访问)技术将上述两组RAID0绑定到两块独立的EDR网卡上。RDMA是一种内存访问技术,RDMA让计算机可以直接存取其他计算机的内存,而不需要经过处理器耗时的处理。RDMA将数据从一个系统快速移动到远程系统存储器中,而不对操作系统造成任何影响。应用程序不需要参与数据传输过程,只需要指定内存读写地址,开启传输并等待传输完成即可。RDMA的主要优势总结如下:(1)数据不需要在网络协议栈的各个层之间来回拷贝,缩短了数据流路径;(2)应用直接操作设备接口,不再经过系统调用切换到内核态,没有内核切换开销;(3)数据传输无须CPU参与,完全由网卡搞定,无需再做发包收包中断处理,不耗费CPU资源。基于SPDK的存储硬件假设有200GB/s带宽,配置两块100GB/s的EDR网卡,通过本方法就可以完全实现200GB/s带宽的性能。
将所述两组RAID0映射到所述GPU服务器上,并通过所述存储性能开发工具将所述NVME硬盘映射到GPU服务器上。
在所述GPU服务器上部署并行文件系统,将映射的NVME硬盘和映射的两组RAID0组合成统一的目录。
在某些实施例中,在GPU服务器上部署并行文件系统包括:将所述两组RAID0分别设置为并行文件系统中的元数据目标设备(MDT,Meta Data Target)和对象存储目标设备(OST,Object storage Target)。在本实施例中,并行文件系统为BeeOND并行文件系统,其中MDT和OST分别指定RAID0_1和RAID0_2,可以根据实际需要进行修改。在本实施例中,可以假设有两个GPU服务器,每个GPU服务器有一个额外的NVME RAID组硬盘用于部署BeeOND功能。
可以在GPU服务器上安装BeeOND软件包。在某些实施例中,上述方法还包括:在所述GPU服务器上挂载NVME RAID硬盘。具体操作可以如下:mount/dev/nvme0n1/data/beeond/。其中,/dev/nvme0n1可以是整个分区或者部分分区。该硬盘提前格式化为ext4,格式化完成后将该分区挂载到/data/beeond目录上面。然后编写BeeOND节点列表nodelist,在GPU服务器上运行如下命令启动BeeOND功能:beeond start-n nodelist-d/data/beeond-c/mnt/beeond。
图2示出的是本发明提供的提升GPU服务器的性能的方法的实施例的流程图。如图2所示,从框101开始,接着前进到框102,在NVME目标节点上部署存储性能开发工具;接着前进到框103,基于所述NVME目标节点中的NVME硬盘创建两组RAID0;接着前进到框104,将所述两组RAID0映射到所述GPU服务器上;接着前进到框105,通过所述存储性能开发工具将所述NVME硬盘映射到GPU服务器上;接着前级到框106,在所述GPU服务器上部署并行文件系统,将映射的NVME硬盘和映射的两组RAID0组合成统一的目录;接着前进到框107结束。
需要特别指出的是,上述提升GPU服务器的性能的方法的各个实施例中的各个步骤均可以相互交叉、替换、增加、删减,因此,这些合理的排列组合变换之于提升GPU服务器的性能的方法也应当属于本发明的保护范围,并且不应将本发明的保护范围局限在实施例之上。
基于上述目的,本发明实施例的第二个方面,提出了一种计算机设备,包括:至少一个处理器;以及存储器,存储器存储有可在处理器上运行的计算机指令,指令由处理器执行以实现如下步骤:S1、在NVME目标节点上部署存储性能开发工具;S2、基于所述NVME目标节点中的NVME硬盘创建两组RAID0(没有奇偶校验的条带),将所述两组RAID0映射到所述GPU服务器上,并通过所述存储性能开发工具将所述NVME硬盘映射到GPU服务器上;以及S3、在所述GPU服务器上部署并行文件系统,将映射的NVME硬盘和映射的两组RAID0组合成统一的目录。
在一些实施方式中,基于所述NVME目标节点中的NVME硬盘创建两组RAID0,将两组RAID0映射到GPU服务器上进一步包括:将所述两组RAID0虚拟成多组RAID0,并将虚拟后的多组RAID0分配到多个所述GPU服务器上。
在一些实施方式中,基于所述NVME目标节点中的NVME硬盘创建两组RAID0包括:将所述两组RAID0分别绑定到两个独立的网卡上。
在一些实施方式中,在GPU服务器上部署并行文件系统包括:将所述两组RAID0分别设置为并行文件系统中的元数据目标设备和对象存储目标设备。
在一些实施方式中,还包括:在所述GPU服务器上挂载NVME RAID硬盘。
本发明还提供了一种计算机可读存储介质,计算机可读存储介质存储有被处理器执行时执行如上方法的计算机程序。
最后需要说明的是,本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关硬件来完成,提升GPU服务器的性能的方法的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,程序的存储介质可为磁碟、光盘、只读存储记忆体(ROM)或随机存储记忆体(RAM)等。上述计算机程序的实施例,可以达到与之对应的前述任意方法实施例相同或者相类似的效果。
此外,根据本发明实施例公开的方法还可以被实现为由处理器执行的计算机程序,该计算机程序可以存储在计算机可读存储介质中。在该计算机程序被处理器执行时,执行本发明实施例公开的方法中限定的上述功能。
此外,上述方法步骤以及系统单元也可以利用控制器以及用于存储使得控制器实现上述步骤或单元功能的计算机程序的计算机可读存储介质实现。
此外,应该明白的是,本文的计算机可读存储介质(例如,存储器)可以是易失性存储器或非易失性存储器,或者可以包括易失性存储器和非易失性存储器两者。作为例子而非限制性的,非易失性存储器可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦写可编程ROM(EEPROM)或快闪存储器。易失性存储器可以包括随机存取存储器(RAM),该RAM可以充当外部高速缓存存储器。作为例子而非限制性的,RAM可以以多种形式获得,比如同步RAM(DRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据速率SDRAM(DDRSDRAM)、增强SDRAM(ESDRAM)、同步链路DRAM(SLDRAM)、以及直接Rambus RAM(DRRAM)。所公开的方面的存储设备意在包括但不限于这些和其它合适类型的存储器。
本领域技术人员还将明白的是,结合这里的公开所描述的各种示例性逻辑块、模块、电路和算法步骤可以被实现为电子硬件、计算机软件或两者的组合。为了清楚地说明硬件和软件的这种可互换性,已经就各种示意性组件、方块、模块、电路和步骤的功能对其进行了一般性的描述。这种功能是被实现为软件还是被实现为硬件取决于具体应用以及施加给整个系统的设计约束。本领域技术人员可以针对每种具体应用以各种方式来实现的功能,但是这种实现决定不应被解释为导致脱离本发明实施例公开的范围。
结合这里的公开所描述的各种示例性逻辑块、模块和电路可以利用被设计成用于执行这里功能的下列部件来实现或执行:通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其它可编程逻辑器件、分立门或晶体管逻辑、分立的硬件组件或者这些部件的任何组合。通用处理器可以是微处理器,但是可替换地,处理器可以是任何传统处理器、控制器、微控制器或状态机。处理器也可以被实现为计算设备的组合,例如,DSP和微处理器的组合、多个微处理器、一个或多个微处理器结合DSP和/或任何其它这种配置。
结合这里的公开所描述的方法或算法的步骤可以直接包含在硬件中、由处理器执行的软件模块中或这两者的组合中。软件模块可以驻留在RAM存储器、快闪存储器、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、可移动盘、CD-ROM、或本领域已知的任何其它形式的存储介质中。示例性的存储介质被耦合到处理器,使得处理器能够从该存储介质中读取信息或向该存储介质写入信息。在一个替换方案中,存储介质可以与处理器集成在一起。处理器和存储介质可以驻留在ASIC中。ASIC可以驻留在用户终端中。在一个替换方案中,处理器和存储介质可以作为分立组件驻留在用户终端中。
在一个或多个示例性设计中,功能可以在硬件、软件、固件或其任意组合中实现。如果在软件中实现,则可以将功能作为一个或多个指令或代码存储在计算机可读介质上或通过计算机可读介质来传送。计算机可读介质包括计算机存储介质和通信介质,该通信介质包括有助于将计算机程序从一个位置传送到另一个位置的任何介质。存储介质可以是能够被通用或专用计算机访问的任何可用介质。作为例子而非限制性的,该计算机可读介质可以包括RAM、ROM、EEPROM、CD-ROM或其它光盘存储设备、磁盘存储设备或其它磁性存储设备,或者是可以用于携带或存储形式为指令或数据结构的所需程序代码并且能够被通用或专用计算机或者通用或专用处理器访问的任何其它介质。此外,任何连接都可以适当地称为计算机可读介质。例如,如果使用同轴线缆、光纤线缆、双绞线、数字用户线路(DSL)或诸如红外线、无线电和微波的无线技术来从网站、服务器或其它远程源发送软件,则上述同轴线缆、光纤线缆、双绞线、DSL或诸如红外线、无线电和微波的无线技术均包括在介质的定义。如这里所使用的,磁盘和光盘包括压缩盘(CD)、激光盘、光盘、数字多功能盘(DVD)、软盘、蓝光盘,其中磁盘通常磁性地再现数据,而光盘利用激光光学地再现数据。上述内容的组合也应当包括在计算机可读介质的范围内。
以上是本发明公开的示例性实施例,但是应当注意,在不背离权利要求限定的本发明实施例公开的范围的前提下,可以进行多种改变和修改。根据这里描述的公开实施例的方法权利要求的功能、步骤和/或动作不需以任何特定顺序执行。此外,尽管本发明实施例公开的元素可以以个体形式描述或要求,但除非明确限制为单数,也可以理解为多个。
应当理解的是,在本文中使用的,除非上下文清楚地支持例外情况,单数形式“一个”旨在也包括复数形式。还应当理解的是,在本文中使用的“和/或”是指包括一个或者一个以上相关联地列出的项目的任意和所有可能组合。
上述本发明实施例公开实施例序号仅仅为了描述,不代表实施例的优劣。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本发明实施例公开的范围(包括权利要求)被限于这些例子;在本发明实施例的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,并存在如上的本发明实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。因此,凡在本发明实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明实施例的保护范围之内。

Claims (8)

1.一种提升GPU服务器的性能的方法,其特征在于,包括:
在NVME目标节点上部署存储性能开发工具;
基于所述NVME目标节点中的NVME硬盘创建两组RAID0,将所述两组RAID0映射到所述GPU服务器上,并通过所述存储性能开发工具将所述NVME硬盘映射到GPU服务器上;以及
在所述GPU服务器上部署并行文件系统,并将映射的NVME硬盘和映射的两组RAID0组合成统一的目录,
所述基于所述NVME目标节点中的NVME硬盘创建两组RAID0包括:将所述两组RAID0分别绑定到两个独立的网卡上。
2.根据权利要求1所述的方法,其特征在于,所述基于所述NVME目标节点中的NVME硬盘创建两组RAID0,将所述两组RAID0映射到所述GPU服务器上进一步包括:
将所述两组RAID0虚拟成多组RAID0,并将虚拟后的多组RAID0分配到多个所述GPU服务器上。
3.根据权利要求1所述的方法,其特征在于,所述在GPU服务器上部署并行文件系统包括:
将所述两组RAID0分别设置为并行文件系统中的元数据目标设备和对象存储目标设备。
4.根据权利要求1所述的方法,其特征在于,还包括:
在所述GPU服务器上挂载NVME RAID硬盘。
5.一种计算机设备,其特征在于,包括:
至少一个处理器;以及
存储器,所述存储器存储有可在所述处理器上运行的计算机指令,所述指令由所述处理器执行时实现如下步骤:
在NVME目标节点上部署存储性能开发工具;
基于所述NVME目标节点中的NVME硬盘创建两组RAID0,将所述两组RAID0映射到GPU服务器上,并通过所述存储性能开发工具将所述NVME硬盘映射到GPU服务器上;以及
在所述GPU服务器上部署并行文件系统,并将映射的NVME硬盘和映射的两组RAID0组合成统一的目录,
所述基于所述NVME目标节点中的NVME硬盘创建两组RAID0包括:将所述两组RAID0分别绑定到两个独立的网卡上。
6.根据权利要求5所述的计算机设备,其特征在于,所述基于所述NVME目标节点中的NVME硬盘创建两组RAID0,将所述两组RAID0映射到所述GPU服务器上进一步包括:
将所述两组RAID0虚拟成多组RAID0,并将虚拟后的多组RAID0分配到多个所述GPU服务器上。
7.根据权利要求5所述的计算机设备,其特征在于,所述在GPU服务器上部署并行文件系统包括:
将所述两组RAID0分别设置为并行文件系统中的元数据目标设备和对象存储目标设备。
8.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时执行权利要求1-4任意一项所述的方法。
CN201910812215.6A 2019-08-30 2019-08-30 一种提升gpu服务器的性能的方法、设备及可读介质 Active CN110597465B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910812215.6A CN110597465B (zh) 2019-08-30 2019-08-30 一种提升gpu服务器的性能的方法、设备及可读介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910812215.6A CN110597465B (zh) 2019-08-30 2019-08-30 一种提升gpu服务器的性能的方法、设备及可读介质

Publications (2)

Publication Number Publication Date
CN110597465A CN110597465A (zh) 2019-12-20
CN110597465B true CN110597465B (zh) 2023-01-06

Family

ID=68856558

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910812215.6A Active CN110597465B (zh) 2019-08-30 2019-08-30 一种提升gpu服务器的性能的方法、设备及可读介质

Country Status (1)

Country Link
CN (1) CN110597465B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111603765B (zh) * 2020-04-07 2023-03-28 广州多益网络股份有限公司 服务器的分配方法、系统及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109739823A (zh) * 2018-12-27 2019-05-10 郑州云海信息技术有限公司 一种搭建并行文件系统的方法及装置
CN109933554A (zh) * 2019-03-20 2019-06-25 浪潮商用机器有限公司 一种基于GPU服务器的NVMe硬盘扩展装置
CN110032449A (zh) * 2019-04-16 2019-07-19 苏州浪潮智能科技有限公司 一种优化gpu服务器的性能的方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109739823A (zh) * 2018-12-27 2019-05-10 郑州云海信息技术有限公司 一种搭建并行文件系统的方法及装置
CN109933554A (zh) * 2019-03-20 2019-06-25 浪潮商用机器有限公司 一种基于GPU服务器的NVMe硬盘扩展装置
CN110032449A (zh) * 2019-04-16 2019-07-19 苏州浪潮智能科技有限公司 一种优化gpu服务器的性能的方法及装置

Also Published As

Publication number Publication date
CN110597465A (zh) 2019-12-20

Similar Documents

Publication Publication Date Title
US11042311B2 (en) Cluster system with calculation and storage converged
US11687446B2 (en) Namespace change propagation in non-volatile memory devices
US11994984B2 (en) Namespace mapping optimization in non-volatile memory devices
CA2644997C (en) Providing an address format compatible with different addressing formats used for addressing different sized address spaces
US20170364266A1 (en) Method and device for managing input/output (i/o) of storage device
CN109995813A (zh) 一种分区扩展方法、数据存储方法及装置
CN110018878B (zh) 一种分布式系统数据加载方法以及装置
US10084860B2 (en) Distributed file system using torus network and method for configuring and operating distributed file system using torus network
WO2017050064A1 (zh) 共享内存数据库的内存管理方法及装置
WO2021213281A1 (zh) 数据读取方法和系统
CN115686385B (zh) 一种数据存储方法、装置、计算机设备及存储介质
CN108132760A (zh) 一种提升ssd读性能的方法及系统
CN112783449A (zh) 数据迁移方法及装置
CN110597465B (zh) 一种提升gpu服务器的性能的方法、设备及可读介质
US11379128B2 (en) Application-based storage device configuration settings
CN110781164B (zh) 一种数据库一体机的设计方法、设备及介质
CN117591009A (zh) 一种数据管理方法、存储装置及服务器
JP2005202942A (ja) 情報記録媒体、データ処理装置及びデータ処理方法
US11132138B2 (en) Converting large extent storage pools into small extent storage pools in place
CN114785662B (zh) 一种存储管理方法、装置、设备及机器可读存储介质
WO2024021470A1 (zh) 一种跨区域的数据调度方法、装置、设备及存储介质
US11693577B2 (en) Storage operation processing during data migration using migrated indicator from source storage
US11385822B2 (en) Moving data from a first group of slices to a second group of slices
CN111913664B (zh) 一种数据写入方法及装置
CN111309255B (zh) 一种卷类型转换的方法、系统、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant