CN109558210B - 一种虚拟机应用主机gpu设备的方法及系统 - Google Patents

一种虚拟机应用主机gpu设备的方法及系统 Download PDF

Info

Publication number
CN109558210B
CN109558210B CN201811390039.3A CN201811390039A CN109558210B CN 109558210 B CN109558210 B CN 109558210B CN 201811390039 A CN201811390039 A CN 201811390039A CN 109558210 B CN109558210 B CN 109558210B
Authority
CN
China
Prior art keywords
gpu
virtual machine
equipment
pci address
iommu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811390039.3A
Other languages
English (en)
Other versions
CN109558210A (zh
Inventor
解琰
曾鹏
庞慷宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Inspur Intelligent Technology Co Ltd
Original Assignee
Suzhou Inspur Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Inspur Intelligent Technology Co Ltd filed Critical Suzhou Inspur Intelligent Technology Co Ltd
Priority to CN201811390039.3A priority Critical patent/CN109558210B/zh
Publication of CN109558210A publication Critical patent/CN109558210A/zh
Application granted granted Critical
Publication of CN109558210B publication Critical patent/CN109558210B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45579I/O management, e.g. providing access to device drivers or storage

Abstract

本发明公开了一种虚拟机应用主机GPU设备的方法及系统,涉及虚拟机技术。本发明公开的一种虚拟机应用主机GPU设备的方法,包括:获取所述虚拟机所在的主机中的GPU设备的PCI地址;若根据所获取的GPU设备的PCI地址确定所述GPU设备为显卡类GPU设备,查询所获取的GPU设备的PCI地址所在的IOMMU组号,根据所查询到的IOMMU组号查询IOMMU组上与所述GPU设备对应的显示设备对应的PCI地址;将查询到的IOMMU上与所述GPU设备对应的显示设备对应的PCI地址以及所述GPU设备的PCI地址添加到虚拟机中。本申请技术方案将GPU设备成功直通给虚拟机使用。

Description

一种虚拟机应用主机GPU设备的方法及系统
技术领域
本发明涉及虚拟机技术,特别涉及一种虚拟机应用主机GPU(GraphicsProcessing Unit,图形处理器)设备的方法及系统。
背景技术
随着虚拟化技术日趋成熟,虚拟化技术和GPU计算的结合越来越受到高性能计算的青睐,因此将GPU设备提供给虚拟机使用便成为一个越来越热门的需求。
GPU一般用于执行复杂的数学和几何计算,包括浮点运算、并行计算等,GPU可以提供数十倍乃至于上百倍于CPU的性能。
发明内容
本发明公开了一种虚拟机应用主机GPU设备的方法及系统,可以解决GPU设备直通虚拟机的问题。
本发明公开了一种虚拟机应用主机GPU设备的方法,包括:
获取所述虚拟机所在的主机中的GPU设备的外设互联标准(PCI)地址;
若根据所获取的GPU设备的PCI地址确定所述GPU设备为显卡类GPU设备,查询所获取的GPU设备的PCI地址所在的输入/输出内存管理单元(IOMMU)组(group)号,根据所查询到的IOMMU group查询IOMMU group上与所述GPU设备对应的显示设备对应的PCI地址;
将查询到的IOMMU上与所述GPU设备对应的显示设备对应的PCI地址以及所述GPU设备的PCI地址添加到虚拟机中。
可选地,上述方法还包括:
对直通虚拟机的显卡类的GPU设备进行CPU预留配置;
在直通虚拟机的GPU设备的利用率达到或超过第一设定阈值时,按照所述CPU预留配置将除预定计算任务以外的其他任务分派给CPU处理。
可选地,上述方法中,所述预定计算任务包括:
任务进程占用GPU设备的使用率达到或超过第二设定阈值的任务。
可选地,上述方法中,所述将查询到的IOMMU上与所述GPU设备对应的显示设备对应的PCI地址添加到虚拟机中,包括:
按照虚拟机xml中的配置方式将查询到的IOMMU上与所述GPU设备对应的显示设备对应的PCI地址添加到虚拟机中。
可选地,上述方法还包括:
若根据所获取的GPU设备的PCI地址确定所述GPU设备为计算卡类GPU设备;
将所获取的GPU设备的PCI地址添加到虚拟机中。
本文还公开了一种虚拟机应用主机GPU设备的系统,包括存储器和处理器,其中:
所述存储器,用于保存虚拟机应用主机GPU的程序;
所述处理器,用于读取执行所述虚拟机应用主机GPU的程序,执行如下操作:
获取所述虚拟机所在的主机中的GPU设备的PCI地址;
若根据所获取的GPU设备的PCI地址确定所述GPU设备为显卡类GPU设备,查询所获取的GPU设备的PCI地址所在的IOMMU组号,根据所查询到的IOMMU组号查询IOMMU组上与所述GPU设备对应的显示设备对应的PCI地址;
将查询到的IOMMU上与所述GPU设备对应的显示设备对应的PCI地址以及所述GPU设备的PCI地址全部添加到虚拟机中。
可选地,上述系统中,所述处理器还执行如下操作:
对直通虚拟机的显卡类的GPU设备进行CPU预留配置;
在直通虚拟机的GPU设备的利用率达到或超过第一设定阈值时,按照所述CPU预留配置,将除预定计算任务以外的其他任务分派给CPU处理。
可选地,上述系统中,所述预定计算任务包括:
任务进程占用GPU设备的使用率达到或超过第二设定阈值的任务。
可选地,上述系统中,所述将查询到的IOMMU上与所述GPU设备对应的显示设备对应的PCI地址添加到虚拟机中,包括:
按照虚拟机xml中的配置方式将查询到的IOMMU上与所述GPU设备对应的显示设备对应的PCI地址添加到虚拟机中。
可选地,上述系统中,所述处理器还执行如下操作:
若根据所获取的GPU设备的PCI地址确定所述GPU设备为计算卡类GPU设备;
将所获取的GPU设备的PCI地址添加到虚拟机中。
本申请技术方案提供虚拟机应用主机GPU设备的方案,将GPU设备成功直通给虚拟机使用。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,下文将结合具体实施方式对本发明技术方案作进一步详细说明。需要说明的是,在不冲突的情况下,本申请的实施例和实施例中的特征可以任意相互组合。
实施例1
本申请发明人提出,可以通过主机中GPU的类型来将对应的GPU设备直通给虚拟机使用。还可以给虚拟机预留一定的CPU资源,以保证在虚拟机内部计算任务压力较大时,用户能通过任务调度来将不同的任务分配给CPU或是GPU,以提高系统利用率。
基于上述思想,本实施例提供一种虚拟机应用主机GPU设备的方法,主要包括如下操作:
获取主机的GPU设备的PCI地址,根据获取的主机的GPU设备的PCI地址确定GPU设备的类型,
若根据所获取的GPU设备的PCI地址确定所述GPU设备为显卡类GPU设备,查询该PCI地址所在的IOMMU组号,根据所查询到的IOMMU组号查询IOMMU组上GPU设备对应的显示设备对应的PCI地址;
将查询到的IOMMU上GPU设备对应的显示设备对应的PCI地址和GPU设备的PCI地址全部添加到虚拟机中。
其中,可以按照虚拟机xml中的配置方式将查询到的IOMMU上其他设备对应的PCI地址全部添加到虚拟机中。
另外,对于直通虚拟机的显卡类的GPU设备,还可以进行CPU预留配置。例如,在虚拟机配置文件中写入一个虚拟机CPU资源预留的字段,给虚拟机设定一个至少可用的CPU资源值,即无论主机CPU资源如何紧张,虚拟机都至少会有预留的那部分CPU资源可以利用,防止与其他进程互相竞争CPU资源导致内部进程无法正常运行的情况。这样,当虚拟机内部的计算任务的负载达到设定阈值(即可认为虚拟机内部的计算任务压力过大)时,可以将计算任务分派给虚拟机直通的GPU,将其他任务分派给CPU。例如,可以根据GPU的利用率判断计算任务压力是否比较大,如果GPU利用率已经达到第一设定阈值(例如100%)说明GPU在满负荷运行,此时就可以通过CPU-GPU作业调度来减缓GPU的使用率,使比较重要的计算任务能更好的使用GPU资源。其中,可以根据进程占用GPU的使用率判断出哪此是比较重要的计算任务(也可以称为是预定计算任务),例如进程占用GPU的使用率达到或超过第二设定阈值(如,10%)就可以认定为预定计算任务即比较重要的计算任务,需要分派给GPU处理。
还有,根据所查询到的IOMMU组号查询IOMMU组上与显卡类的GPU设备对应的显示设备对应的PCI地址。这是由于主机内部GPU设备是显卡类的GPU设备时,需要查询此GPU设备的PCI地址所在IOMMU group,再确定IOMMU group上GPU设备对应的的显示设备对应的PCI地址,需要将主机上的GPU的PCI地址和确定的显示设备对应的PCI地址全部添加到虚拟机中,才可以实现普通显卡直通到虚拟机上。
下面以一种示例性实例,介绍上述方法的一种实施方式。
虚拟机应用主机GPU设备的方法包括如下三个步骤:
第一步,查询主机内部GPU设备的PCI(Peripheral Component Interconnect,外设互联标准)地址,根据查询的GPU设备的PCI地址,确定GPU设备的类型是显卡类GPU还是计算卡类GPU。若是显卡类GPU,以此地址查询该PCI地址所在的IOMMU(input/output memorymanagement unit,输入/输出内存管理单元)group号,根据该group号查询上面与GPU设备对应的显示设备对应的PCI地址。
其中,主机内部GPU设备的PCI地址为单一独立地址,可以确定GPU设备是计算卡类GPU。若主机内部GPU设备的PCI地址为两个连续的PCI地址中的一个,则可以确定GPU类型是显卡类GPU。例如:若GPU为单纯的计算类型的,则通过PCI地址查询的地址类似:0000:3b:00.0;若GPU带有显示模式,则会有两个PCI地址,类似于:0000:3b:00.0;0000:3b:00.1,其中第一个PCI地址指向的是GPU的计算模块,第二个PCI地址指向的是GPU的显示模块,且两个地址会在同一个IOMMU组里面,需要将两个PCI设备同时直通给虚拟机才可以正常使用该GPU。
若根据所获取的GPU设备的PCI地址确定所述GPU设备为计算卡类GPU设备,将所获取的GPU设备的PCI地址添加到虚拟机中即可。
第二步,将上述步骤中查询出的所有PCI地址按照虚拟机xml中的配置方式添加到虚拟机中。该步骤是为了防止普通显卡GPU(非计算卡GPU)直通虚拟机失败的问题,因为普通显卡会占用主机两个PCI地址,一个是计算设备GPU一个是显示设备,且位于同一个IOMMUgroup里面,需要同时直通给虚拟机才能正常使用。
第三步,对直通显卡GPU的虚拟机进行CPU预留配置的操作,当虚拟机内部的计算任务压力较大(例如,虚拟机内部的计算任务负载达到设定阈值)时,将不同类型的任务分配给CPU或是GPU设备。例如,可以将一些需要强劲计算能力的作业留给GPU,而其他一些作业则分配给CPU来处理,从而减少GPU上作业的等待时间,发挥出GPU应有的效果。
本实施例中,对于直通虚拟机的显卡类的GPU设备,进行的CPU预留配置可以包括,在虚拟机配置文件中写入一个虚拟机CPU资源预留的字段,给虚拟机设定一个至少可用的CPU资源值,即无论主机CPU资源如何紧张,虚拟机都至少会有预留的那部分CPU资源可以利用,防止与其他进程互相竞争CPU资源导致内部进程无法正常运行的情况。例如,可以根据GPU的利用率判断计算任务压力是否比较大,如果GPU利用率已经达到第一设定阈值(例如100%)说明GPU在满负荷运行,此时就可以通过CPU-GPU作业调度来减缓GPU的使用率,即按照CPU预留配置,将比较重要的计算任务分派给GPU设备(即保证比较重要的计算任务能更好的使用GPU资源),而除比较重要的计算任务以外的其他任务分派给CPU即可。其中,可以根据进程占用GPU的使用率判断出哪此是比较重要的计算任务(也可称为预定计算任务),例如进程占用GPU的使用率达到或超过第二设定阈值(如,10%)就可以认定为比较重要的计算任务,需要分派给GPU处理。
实施例2
本实施例提供一种虚拟机应用主机GPU设备的系统,包括存储器和处理器。
存储器,用于保存虚拟机应用主机GPU的程序;
处理器,用于读取执行存储器中的虚拟机应用主机GPU的程序,执行如下操作:
获取所述虚拟机所在的主机中的GPU设备的外设互联标准PCI地址;
若根据所获取的GPU设备的PCI地址确定所述GPU设备为显卡类GPU设备,查询所获取的GPU设备的PCI地址所在的输入/输出内存管理单元IOMMU组号,根据所查询到的IOMMU组号查询IOMMU组上与所述GPU设备对应的显示设备对应的PCI地址;
将查询到的IOMMU上与所述GPU设备对应的显示设备对应的PCI地址以及所述GPU设备的PCI地址全部添加到虚拟机中。
其中,若根据所获取的GPU设备的PCI地址确定所述GPU设备为计算卡类GPU设备时,处理器将所获取的GPU设备的PCI地址添加到虚拟机中即可。
上述处理器将查询到的IOMMU上与GPU设备对应的显示设备对应的PCI地址添加到虚拟机中的一种实施方式可以是按照虚拟机xml中的配置方式将查询到的IOMMU上与所述GPU设备对应的显示设备对应的PCI地址添加到虚拟机中。
另外,为了发挥出GPU应有的效果,以减小CPU的负载,在一种示例性实例中,处理器还可以对直通虚拟机的显卡类的GPU设备进行CPU预留配置。这样,当虚拟机内部的计算任务的负载达到设定阈值时,处理器将计算任务分派给虚拟机直通的GPU,将其他任务分派给CPU。本实施例中,对于直通虚拟机的显卡类的GPU设备,进行的CPU预留配置可以包括,在虚拟机配置文件中写入一个虚拟机CPU资源预留的字段,给虚拟机设定一个至少可用的CPU资源值,即无论主机CPU资源如何紧张,虚拟机都至少会有预留的那部分CPU资源可以利用,防止与其他进程互相竞争CPU资源导致内部进程无法正常运行的情况。例如,可以根据GPU的利用率判断计算任务压力是否比较大,如果GPU利用率已经达到第一设定阈值(例如100%)说明GPU在满负荷运行,此时就可以通过CPU-GPU作业调度来减缓GPU的使用率,使比较重要的计算任务能更好的使用GPU资源。其中,可以根据进程占用GPU的使用率判断出哪此是比较重要的计算任务(也可以称为预定计算任务),例如进程占用GPU的使用率达到或超过第二设定阈值(如,10%)就可以认定为比较重要的计算任务,需要分派给GPU处理。此时,按照CPU预留配置,将除了所确定的预定计算任务以外的其他任务分派给CPU,将所确定的预定计算任务(也就是比较重要的计算任务)分派给GPU设备即可。
从上述实施例可以看出,本申请技术方案通过查询主机IOMMU group设备中的PCI地址,区分GPU中的计算卡和普通显卡,来解决相应直通给虚拟机的问题,并且对虚拟机进行CPU预留,有利于用户通过CPU-GPU作业调度来最大化利用GPU设备。
本领域普通技术人员可以理解上述方法中的全部或部分步骤可通过程序来指令相关硬件完成,所述程序可以存储于计算机可读存储介质中,如只读存储器、磁盘或光盘等。可选地,上述实施例的全部或部分步骤也可以使用一个或多个集成电路来实现。相应地,上述实施例中的各模块/单元可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。本申请不限制于任何特定形式的硬件和软件的结合。
以上所述,仅为本发明的较佳实例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种虚拟机应用主机图形处理器GPU设备的方法,其特征在于,包括:
获取所述虚拟机所在的主机中的GPU设备的外设互联标准PCI地址;
若根据所获取的GPU设备的PCI地址确定所述GPU设备为显卡类GPU设备,查询所获取的GPU设备的PCI地址所在的输入/输出内存管理单元IOMMU组号,根据所查询到的IOMMU组号查询IOMMU组上与所述GPU设备对应的显示设备对应的PCI地址;
将查询到的IOMMU上与所述GPU设备对应的显示设备对应的PCI地址以及所述GPU设备的PCI地址添加到虚拟机中;
对直通虚拟机的显卡类的GPU设备进行CPU预留配置;
在直通虚拟机的GPU设备的利用率达到或超过第一设定阈值时,按照所述CPU预留配置将除预定计算任务以外的其他任务分派给CPU处理。
2.如权利要求1所述的方法,其特征在于,所述预定计算任务包括:
任务进程占用GPU设备的使用率达到或超过第二设定阈值的任务。
3.如权利要求1或2所述的方法,其特征在于,所述将查询到的IOMMU上与所述GPU设备对应的显示设备对应的PCI地址添加到虚拟机中,包括:
按照虚拟机xml中的配置方式将查询到的IOMMU上与所述GPU设备对应的显示设备对应的PCI地址添加到虚拟机中。
4.如权利要求1所述的方法,其特征在于,该方法还包括:
若根据所获取的GPU设备的PCI地址确定所述GPU设备为计算卡类GPU设备;
将所获取的GPU设备的PCI地址添加到虚拟机中。
5.一种虚拟机应用主机图形处理器GPU设备的系统,包括存储器和处理器,其中:
所述存储器,用于保存虚拟机应用主机GPU的程序;
所述处理器,用于读取执行所述虚拟机应用主机GPU的程序,执行如下操作:
获取所述虚拟机所在的主机中的GPU设备的外设互联标准PCI地址;
若根据所获取的GPU设备的PCI地址确定所述GPU设备为显卡类GPU设备,查询所获取的GPU设备的PCI地址所在的输入/输出内存管理单元IOMMU组号,根据所查询到的IOMMU组号查询IOMMU组上与所述GPU设备对应的显示设备对应的PCI地址;
将查询到的IOMMU上与所述GPU设备对应的显示设备对应的PCI地址以及所述GPU设备的PCI地址全部添加到虚拟机中;
对直通虚拟机的显卡类的GPU设备进行CPU预留配置;
在直通虚拟机的GPU设备的利用率达到或超过第一设定阈值时,按照所述CPU预留配置,将除预定计算任务以外的其他任务分派给CPU处理。
6.如权利要求5所述的系统,其特征在于,所述预定计算任务包括:
任务进程占用GPU设备的使用率达到或超过第二设定阈值的任务。
7.如权利要求5或6所述的系统,其特征在于,所述将查询到的IOMMU上与所述GPU设备对应的显示设备对应的PCI地址添加到虚拟机中,包括:
按照虚拟机xml中的配置方式将查询到的IOMMU上与所述GPU设备对应的显示设备对应的PCI地址添加到虚拟机中。
8.如权利要求5所述的系统,其特征在于,所述处理器还执行如下操作:
若根据所获取的GPU设备的PCI地址确定所述GPU设备为计算卡类GPU设备;
将所获取的GPU设备的PCI地址添加到虚拟机中。
CN201811390039.3A 2018-11-21 2018-11-21 一种虚拟机应用主机gpu设备的方法及系统 Active CN109558210B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811390039.3A CN109558210B (zh) 2018-11-21 2018-11-21 一种虚拟机应用主机gpu设备的方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811390039.3A CN109558210B (zh) 2018-11-21 2018-11-21 一种虚拟机应用主机gpu设备的方法及系统

Publications (2)

Publication Number Publication Date
CN109558210A CN109558210A (zh) 2019-04-02
CN109558210B true CN109558210B (zh) 2021-01-15

Family

ID=65866736

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811390039.3A Active CN109558210B (zh) 2018-11-21 2018-11-21 一种虚拟机应用主机gpu设备的方法及系统

Country Status (1)

Country Link
CN (1) CN109558210B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110196754A (zh) * 2019-04-24 2019-09-03 苏州浪潮智能科技有限公司 一种GPU设备在Linux KVM下的直通方法及装置
CN111506419A (zh) * 2020-03-11 2020-08-07 北京联创信安科技股份有限公司 一种gpu资源共享方法及装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103577250A (zh) * 2013-11-15 2014-02-12 浪潮(北京)电子信息产业有限公司 一种应用于虚拟机的设备直通方法
CN106803794B (zh) * 2017-01-22 2020-02-07 郑州云海信息技术有限公司 一种用于主机的kvm虚拟机网卡直通方法及其装置
CN106909443A (zh) * 2017-02-28 2017-06-30 郑州云海信息技术有限公司 一种虚拟机的配置方法及装置

Also Published As

Publication number Publication date
CN109558210A (zh) 2019-04-02

Similar Documents

Publication Publication Date Title
US10191759B2 (en) Apparatus and method for scheduling graphics processing unit workloads from virtual machines
US9501318B2 (en) Scheduling and execution of tasks based on resource availability
CN109144710B (zh) 资源调度方法、装置及计算机可读存储介质
US20180067674A1 (en) Memory management in virtualized computing
US20160232640A1 (en) Resource management
US20120317331A1 (en) Using cooperative greedy ballooning to reduce second level paging activity
EP2375324A2 (en) Virtualization apparatus for providing a transactional input/output interface
US20110219373A1 (en) Virtual machine management apparatus and virtualization method for virtualization-supporting terminal platform
US20210357258A1 (en) Method, device and medium for allocating resource based on type of pci device
US8352702B2 (en) Data processing system memory allocation
CN103049328A (zh) 计算机系统中内存资源分配方法
US20190377612A1 (en) VCPU Thread Scheduling Method and Apparatus
CN109712060B (zh) 一种基于gpu容器技术的云桌面显卡共享方法及系统
CN109558210B (zh) 一种虚拟机应用主机gpu设备的方法及系统
US8214837B2 (en) Method, apparatus and system for dynamically allocating sequestered computing resources
US20150339145A1 (en) Virtual machine service system and virtual machine service providing method thereof
CN105677481A (zh) 一种数据处理方法、系统及电子设备
CN113268356B (zh) 基于LINUX系统的多GPU板卡bounding的系统、方法及介质
CN113703913B (zh) 设备测试方法及装置
CN115098272A (zh) Gpu资源调度方法、调度器、电子设备和存储介质
CN111352710B (zh) 进程管理方法及装置、计算设备、存储介质
CN109408407B (zh) 显示内存的分配方法和装置
CN107153578B (zh) 一种提高cpu利用率的方法及装置
EP3343370A1 (en) Method of processing opencl kernel and computing device therefor
CN114662162B (zh) 实现动态分配vf的多算法核高性能sr-iov加解密系统及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20201203

Address after: 215100 No. 1 Guanpu Road, Guoxiang Street, Wuzhong Economic Development Zone, Suzhou City, Jiangsu Province

Applicant after: SUZHOU LANGCHAO INTELLIGENT TECHNOLOGY Co.,Ltd.

Address before: 450018 Henan province Zheng Dong New District of Zhengzhou City Xinyi Road No. 278 16 floor room 1601

Applicant before: ZHENGZHOU YUNHAI INFORMATION TECHNOLOGY Co.,Ltd.

GR01 Patent grant
GR01 Patent grant