CN107688495B - 调度处理器的方法及设备 - Google Patents
调度处理器的方法及设备 Download PDFInfo
- Publication number
- CN107688495B CN107688495B CN201710481998.5A CN201710481998A CN107688495B CN 107688495 B CN107688495 B CN 107688495B CN 201710481998 A CN201710481998 A CN 201710481998A CN 107688495 B CN107688495 B CN 107688495B
- Authority
- CN
- China
- Prior art keywords
- resource request
- processor
- server
- resource
- processing unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
- G06F9/505—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multi Processors (AREA)
- Stored Programmes (AREA)
Abstract
本发明提供了一种调度处理器的方法和设备,该方法包括:接收资源请求,资源请求用于请求运算资源,运算资源由中央处理器和图形处理器提供;获取运算资源的使用率,利用预设的资源分配器,根据使用率满足的条件,分配中央处理和/或图像处理器处理资源请求。本发明灵活地通过CPU和GPU的使用率进行资源请求的分配,相比于现有技术中各自的固定分工,可以更充分地利用已有的运算资源,提高处理速度,进一步地,通过GPU分担CPU的运算压力,保证了系统的稳定运转。
Description
技术领域
本发明涉及软件领域,特别是涉及一种调度处理器的方法及设备。
背景技术
显卡的处理器称为图形处理器(Graphics Processing Unit,简称为GPU),其与中央处理器(Central Processing Unit,简称为CPU)类似,只不过GPU最初是专为执行复杂的数学和几何计算而设计的。
随着计算机技术的发展,图形处理器得到了越来越充分的利用,通过GPU完成部分CPU的工作,可以减少计算机对CPU的依赖。例如,在以前的很多应用中,CPU是负责所有运算的,而GPU则只是负责最后的显示工作,因此一旦出现处理复杂图形数据的时候,很多使用性能较弱的CPU的电脑系统就开始缓慢无比,而使用性能较强的CPU的电脑系统也会出现CPU资源被大量占用的情况。而在GPU开始参与运算之后,原本会消耗CPU大量宝贵资源的图形数据处理部分就全部交给GPU进行处理,从而降低了CPU的负担,并且利用自身的特长,使得图形数据处理的效率更快,从而提升系统性能。
现有技术对CPU和GPU进行了越来越精细的分工,即依照预设规则,将特定的任务分配给GPU处理,以分担CPU的压力。但是上述预设规则往往滞后于实际使用场景,因此当出现新的使用场景时,GPU往往无法及时分担CPU的压力。
针对现有技术中GPU无法灵活地分担CPU压力的问题,目前业界没有理想的解决方式。
发明内容
有鉴于此,本发明实施例提供了一种调度处理器的方法及设备,以解决现有技术中GPU无法灵活地分担CPU压力的问题。
本发明实施例的第一方面提供了一种调度处理器的方法,包括:接收资源请求,资源请求用于请求运算资源,运算资源由中央处理器和图形处理器提供;获取运算资源的使用率,利用预设的资源分配器,根据使用率满足的条件,分配中央处理和/或图像处理器处理资源请求。
本发明实施例的第二方面提供了一种调度处理器的装置,包括:获取子模块,用于获取中央处理器使用率和图形处理器使用率;分配子模块,用于在图形处理器使用率低于预设值时,优先分配图形处理器处理资源请求。
本发明实施例的第三方面提供了一种调度处理器的设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如下步骤:
接收资源请求,资源请求用于请求运算资源,运算资源由中央处理器和图形处理器提供;获取运算资源的使用率,利用预设的资源分配器,根据使用率满足的条件,分配中央处理和/或图像处理器处理资源请求。
本发明实施例的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如下步骤:
接收资源请求,资源请求用于请求运算资源,运算资源由中央处理器和图形处理器提供;获取运算资源的使用率,利用预设的资源分配器,根据使用率满足的条件,分配中央处理和/或图像处理器处理资源请求。
本发明实施例灵活地通过CPU和GPU的使用率进行资源请求的分配,相比于现有技术中各自的固定分工,可以更充分地利用已有的运算资源,提高处理速度,进一步地,通过GPU分担CPU的运算压力,保证了系统的稳定运转。
附图说明
图1是本发明实施例提供的调度处理器的方法的流程图;
图2是本发明实施例提供的分配资源请求方法的流程图;
图3是本发明优选实施例提供的一种分配资源请求方法的流程图;
图4是图3所示优选实施例的示意图;
图5是本发明优选实施例提供的另一种分配资源请求方法的流程图;
图6是图5所示优选实施例的示意图;
图7是本发明实施例提供的调度处理器的装置的结构框图;
图8是本发明实施例提供的调度处理器的设备的示意图。
具体实施方式
为了使本发明要解决的技术问题、技术方案及有益效果更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
图1是本发明实施例提供的调度处理器的方法的流程图,如图1所示,该方法包括步骤S110和步骤S120。
步骤S110,接收资源请求,资源请求用于请求运算资源,运算资源由中央处理器和图形处理器提供。
资源请求可以是HTTP请求(超文本传输协议HyperText Transfer Protocol简称为HTTP),即是从客户端到服务器端的请求消息,本发明实施例中HTTP请求可以指客户端需要运算资源时向服务器发出的请求。
运算资源是具有运算能力的硬件资源,在本实施例中,运算资源可以是算术逻辑单元(Arithmetic Logic Unit,简称为ALU)。CPU和GPU通过ALU完成各种运算操作。
步骤S120,获取运算资源的使用率,利用预设的资源分配器,根据使用率满足的条件,分配中央处理和/或图像处理器处理资源请求。
运算资源的使用率也就是运算资源的使用比例,一般用百分数表示,例如当前运算资源的使用率为50%。
一般而言,在一台设备中,由于硬件的空间和成本的限制,所以CPU和GPU中的ALU数量也是有限的,因此在资源请求数量过多时,CPU和GPU将承受较大的运算压力。
具体地,CPU数量是远小于GPU数量的,CPU一般结构较复杂,可以用来进行复杂运算,因此既可以处理简单运算,也可以负责维持整个系统的运转;GPU结构简单,一般只能用于进行简单运算,多个GPU可以并行使用。
CPU和GPU之所以大不相同,是由于其设计目标的不同,它们分别针对了两种不同的应用场景。CPU需要很强的通用性来处理各种不同的数据类型,同时又要逻辑判断,会引入大量的分支跳转和中断的处理。这些都使得CPU的内部结构异常复杂。而GPU面对的则是类型高度统一的、相互无依赖的大规模数据和不需要被打断的纯净的计算环境。
资源请求一般请求的是简单运算,如果资源请求数量过多,且没有对资源请求进行合理分配,导致占用较大CPU的运算资源时,整个系统的运转都会相应地受到影响。
GPU采用了数量众多的计算单元和超长的流水线,但只有非常简单的控制逻辑并省去了Cache。与CPU擅长逻辑控制和通用类型数据运算不同,GPU擅长的是大规模并发计算,因此对于例如声纹特征提取的需求,GPU的计算速度远优于CPU。
在一种优选实现方式中,为了避免CPU压力过大,同时为了更充分地利用GPU的运算资源,当GPU使用率不高时,可以优先使用GPU处理资源请求。图2是本发明实施例提供的分配资源请求方法的流程图,该方法是步骤S110的一种优选实现方式,如图2所示,该方法包括步骤S210和步骤S220。
步骤S210,获取图形处理器使用率。
通过java、C语言和Linux等均有对应的获取CPU和GPU使用率的方式,例如调用对应的应用程序编程接口(Application Programming Interface,简称为API)等。
步骤S220,若图形处理器使用率低于预设值,则优先分配图形处理器处理资源请求。
由于GPU的数量更多,且CPU在系统整体运转中起到的作用比GPU更大,因此,为了分担CPU的压力,让CPU更多地投入到系统整体运转中,可以在分配资源请求时优先考虑分配给GPU处理。例如,当GPU的使用率低于预设值的时候,将资源请求分配给GPU,预设值可以根据不同的情况来进行相应设置,例如设为70%-90%。
分配资源请求这一操作可以通过负载均衡策略完成,作为一种优选的实现方式,可以利用Nginx负载均衡服务器分配中央处理器和/或图像处理器处理资源请求。
Nginx既可以在内部直接支持Rails框架和PHP程序对外进行服务,也可以支持作为HTTP代理服务器对外进行服务。Nginx可以采用C语言进行编写,系统资源开销比Perlbal要好很多。
本发明实施例根据GPU的使用率进行资源请求的分配,相比于现有技术中各自的固定分工,可以更充分地利用已有的运算资源,提高处理速度,进一步地,通过GPU分担CPU的运算压力,保证了系统的稳定运转。
图3是本发明优选实施例提供的一种分配资源请求方法的流程图,如图3所示,该方法包括步骤S310至步骤S330。
步骤S310,部署第一服务器和第二服务器,第一服务器用于接收分配给图形处理器的资源请求,第二服务器用于接收分配给中央处理器的资源请求。
本发明实施例中,可以在硬件设备上部署多个服务器,在一个服务器的资源被用完之后,再运行下一个服务器,这样可以更加合理地使用运算资源。本步骤中部署的第一服务器和第二服务器可以是2个虚拟服务器(server)。
虚拟服务器是节省服务器硬件成本的一种技术,可以将一台服务器硬件的某项或者全部服务内容逻辑划分为多个服务单位,对外表现为多个服务器,从而可以充分利用服务器硬件资源。
当单个服务器无法满足使用需求,或者单个服务器能够达到这个要求的成本太高时,可以使用虚拟服务器来达到运用需求。
多个虚拟服务器,可以通过软件架设在同一个服务器硬件上,而每个虚拟服务器又可以提供服务器的所有功能,因此降低了运行成本。
具体地,虚拟服务器可以是tomcat、jboss或weblogic等服务器程序。第一服务器对应GPU,第二服务器对应CPU,用Nginx作为负载均衡服务器为每个server按配置分配请求。
步骤S320,设置第一服务器的权重高于第二服务器。
即GPU版本的server设置较高的权重,从而可以优先给该server分配资源请求。
步骤S330,在接收到资源请求之后,根据权重和使用率进行资源请求分配。
本发明实施例可以用各服务器的权重乘以对应处理器的剩余资源的占比,将资源请求分配给数值较大的服务器。例如第一服务器的权重是0.7,GPU的使用率30%,第二服务器的权重是0.3,CPU的使用率是25%,那么第一服务器中权重与剩余资源的乘积为0.7*(1-30%)=0.49,第二服务器中权重与剩余资源的乘积为0.3*(1-25%)=0.225,由于第一服务器中权重与剩余资源的乘积更大,因此此时将资源请求分配给第一服务器,即分配给GPU。
进一步地,在分配资源请求时,除了考虑处理器使用率之外,还可以考虑线程池使用率,通过上述这两个使用率最终决定调度方案。
在分配资源请求之后,如果分配给CPU,则采用切片轮询的方式进行任务执行方式,使CPU的利用率达到最大;如果分配给GPU,则采用了单颗独占的会话保持方式,即,在任务结束之前,GPU会被当前用户独占。这是因为GPU核心线程需要由CPU线程进行调度,若不采用独占方式,就会造成任务冲突,降低系统效率。
图4是图3所示优选实施例的示意图,如图4所示,在收到HTTP请求以后,Nginx进行事件分发,将HTTP请求分配给GPU对应的server或CPU对应的server,server通过init.py进行初始化模块,其中CPU对应的server可以直接初始化统一业务模型(UBM模型);而GPU对应的server需要先启动spring容器,加载指定GPU之后,再初始化UBM模型。完成初始化后,GPU对应的server通过get/set使用GPU的UBM池(线程池)中的资源;CPU通过get使用CPU的UBM池中的资源。每个server同一时间只能处理一定数量maxprocess(最大连接请求数)的请求,分别等于GPU和CPU的个数,资源请求如果超出maxprocess,则会放入Nginx请求队列重新分配。
本优选实施例把分配权交给Nginx,核心负载较小。
图5是本发明优选实施例提供的另一种分配资源请求的流程图,如图5所示,该方法包括步骤S510和步骤S520。
步骤S510,部署多个服务器,服务器对应预设数量的图形处理器和中央处理器,若图形处理器使用率低于预设值,则优先分配图形处理器处理资源请求,设置每个服务器的最大运算资源值,最大运算资源值等于该服务器中中央处理器的运算资源与图形处理器的运算资源之和。
本优选实施例中,不是对GPU和CPU分开管理,而是每个server都包括一定的CPU和GPU运算资源,在一个server达到一定负荷之后,再使用下一个server。
步骤S520,按预设顺序使用服务器,在给当前服务器分配的资源请求大于最大运算资源值时,将超出最大运算资源值的资源请求分配至下一个服务器。
预设顺序可以是对多个server进行编号,例如server1,server2,server3…当资源请求大于最大运算资源值,即maxprocess时,将资源请求分配给下一个server。
图6是图5所示优选实施例的示意图,如图5所示,在收到HTTP请求以后,nginx进行事件分发,将HTTP请求分配server,server通过init.py进行初始化模块,具体地,先启动spring容器,加载指定GPU之后,再初始化UBM模型,然后初始化CPU的UBM,并放入spring容器中。在每个server中,通过get/set使用GPU的UBM池中的资源,判断是否获取到GPU的运算资源,如果获取到GPU的运算资源,则返回该资源;如果没有获取到GPU的运算资源,在获取CPU运算资源。如果资源请求大于maxprocess,则将资源请求放入nginx的请求队列,在下一个server中进行分配。
本优选实施例将GPU/CPU的选择权交给了Server,GPU利用充分,并且代码维护简单,部署时不同的server只需要简单的配置GPU参数即可。
本发明实施例还提供了一种调度处理器的装置,图7是本发明实施例提供的调度处理器的装置的结构框图,如图7所示,该装置包括接收模块710和获取模块720。
接收模块710用于接收资源请求,资源请求用于请求运算资源,运算资源由中央处理器和图形处理器提供。
获取模块720用于获取运算资源的使用率,利用预设的资源分配器,根据使用率满足的条件,分配中央处理和/或图像处理器处理资源请求。
优选地,获取模块包括:获取子模块,用于获取图形处理器使用率;分配子模块,用于在图形处理器使用率低于预设值时,优先分配图形处理器处理资源请求。
优选地,获取模块还用于:利用Nginx负载均衡服务器分配中央处理器和/或图像处理器处理资源请求。
优选地,获取模块包括:第一部署子模块,用于部署第一服务器和第二服务器,第一服务器用于接收分配给图形处理器的资源请求,第二服务器用于接收分配给中央处理器的资源请求;第一设置子模块,用于设置第一服务器的权重高于第二服务器;发送子模块,用于在接收到资源请求之后,根据权重和使用率进行资源请求分配。
优选地,获取模块包括:第二部署子模块,用于部署多个服务器,服务器对应预设数量的图形处理器和中央处理器,若图形处理器使用率低于预设值,则优先分配图形处理器处理资源请求,第二设置子模块,用于设置每个服务器的最大运算资源值,最大运算资源值等于该服务器中中央处理器的运算资源与图形处理器的运算资源之和;使用子模块,用于按预设顺序使用多个服务器,在给当前服务器分配的资源请求大于该服务器的最大运算资源值时,将超出最大运算资源值的资源请求分配至下一个服务器。
本发明实施例灵活地通过CPU和GPU的使用率进行资源请求的分配,相比于现有技术中各自的固定分工,可以更充分地利用已有的运算资源,提高处理速度,进一步地,通过GPU分担CPU的运算压力,保证了系统的稳定运转。
图8是本发明一实施例提供的调度处理器的设备的示意图。如图8所示,该实施例的调度处理器的设备8包括:处理器80、存储器81以及存储在所述存储器81中并可在所述处理器80上运行的计算机程序82,例如调度处理器的程序。所述处理器80执行所述计算机程序82时实现上述各个调度处理器的方法实施例中的步骤,例如图1所示的步骤101至102。或者,所述处理器80执行所述计算机程序82时实现上述各装置实施例中各模块/单元的功能,例如图5所示模块710至720的功能。
示例性的,所述计算机程序82可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器81中,并由所述处理器80执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序82在所述调度处理器的设备8中的执行过程。
所述调度处理器的设备8可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述调度处理器的设备可包括,但不仅限于,处理器80、存储器81。本领域技术人员可以理解,图8仅仅是调度处理器的设备8的示例,并不构成对调度处理器的设备8的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述调度处理器的设备还可以包括输入输出设备、网络接入设备、总线等。
所称处理器80可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器81可以是所述调度处理器的设备8的内部存储单元,例如调度处理器的设备8的硬盘或内存。所述存储器81也可以是所述调度处理器的设备8的外部存储设备,例如所述调度处理器的设备8上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器81还可以既包括所述调度处理器的设备8的内部存储单元也包括外部存储设备。所述存储器81用于存储所述计算机程序以及所述调度处理器的设备所需的其他程序和数据。所述存储器81还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的实施例中,应该理解到,所揭露的装置/终端设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/终端设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (5)
1.一种调度处理器的方法,其特征在于,包括:
接收资源请求,所述资源请求用于请求运算资源,所述运算资源由中央处理器和图形处理器提供,所述资源请求为从客户端到服务器端的超文本传输协议请求;
获取所述运算资源的使用率,利用预设的资源分配器,根据所述使用率满足的条件,分配所述中央处理和/或所述图形 处理器处理所述资源请求;
所述获取所述运算资源的使用率,利用预设的资源分配器,根据所述使用率满足的条件,分配所述中央处理和/或所述图形 处理器处理所述资源请求,包括:
部署第一服务器和第二服务器,所述第一服务器用于接收分配给所述图形处理器的所述资源请求,所述第二服务器用于接收分配给所述中央处理器的所述资源请求;若所述资源请求分配给所述中央处理器,则采用切片轮询的方式进行任务执行,若所述资源请求分配给所述图形处理器,则采用单颗独占的会话保持方式进行任务执行;
设置所述第一服务器的权重高于所述第二服务器;
在接收到所述资源请求之后,根据所述权重和所述使用率进行资源请求分配。
2.如权利要求1所述的方法,其特征在于,所述利用预设的资源分配器,根据所述使用率满足的条件,分配所述中央处理和/或所述图形 处理器处理所述资源请求,包括:
利用Nginx负载均衡服务器分配所述中央处理器和/或所述图形 处理器处理所述资源请求。
3.一种调度处理器的设备,其特征在于,所述调度处理器的设备包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如下步骤:
接收资源请求,所述资源请求用于请求运算资源,所述运算资源由中央处理器和图形处理器提供,所述资源请求为从客户端到服务器端的超文本传输协议请求;
获取所述运算资源的使用率,利用预设的资源分配器,根据所述使用率满足的条件,分配所述中央处理和/或所述图形 处理器处理所述资源请求;
所述获取所述运算资源的使用率,利用预设的资源分配器,根据所述使用率满足的条件,分配所述中央处理和/或所述图形 处理器处理所述资源请求,包括:
部署第一服务器和第二服务器,所述第一服务器用于接收分配给所述图形处理器的所述资源请求,所述第二服务器用于接收分配给所述中央处理器的所述资源请求;若所述资源请求分配给所述中央处理器,则采用切片轮询的方式进行任务执行,若所述资源请求分配给所述图形处理器,则采用单颗独占的会话保持方式进行任务执行;
设置所述第一服务器的权重高于所述第二服务器;
在接收到所述资源请求之后,根据所述权重和所述使用率进行资源请求分配。
4.如权利要求3所述的设备,其特征在于,所述利用预设的资源分配器,根据所述使用率满足的条件,分配所述中央处理和/或所述图形 处理器处理所述资源请求的步骤,具体包括:
利用Nginx负载均衡服务器分配所述中央处理器和/或所述图形 处理器处理所述资源请求。
5.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1或2所述方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710481998.5A CN107688495B (zh) | 2017-06-22 | 2017-06-22 | 调度处理器的方法及设备 |
PCT/CN2018/076009 WO2018233299A1 (zh) | 2017-06-22 | 2018-02-09 | 调度处理器的方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710481998.5A CN107688495B (zh) | 2017-06-22 | 2017-06-22 | 调度处理器的方法及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107688495A CN107688495A (zh) | 2018-02-13 |
CN107688495B true CN107688495B (zh) | 2020-11-03 |
Family
ID=61152632
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710481998.5A Active CN107688495B (zh) | 2017-06-22 | 2017-06-22 | 调度处理器的方法及设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN107688495B (zh) |
WO (1) | WO2018233299A1 (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110389763B (zh) * | 2018-04-20 | 2023-06-16 | 伊姆西Ip控股有限责任公司 | 用于调度专用处理资源的方法、设备和计算机可读介质 |
CN110858161B (zh) * | 2018-08-24 | 2023-05-12 | 阿里巴巴集团控股有限公司 | 资源分配方法、装置、系统、设备和介质 |
CN109561134B (zh) * | 2018-10-26 | 2022-06-10 | 平安科技(深圳)有限公司 | 电子装置、分布式集群服务分配方法及存储介质 |
TWI739235B (zh) * | 2019-12-12 | 2021-09-11 | 中華電信股份有限公司 | 一種gpu運算資源指配系統及其方法 |
CN111897639B (zh) * | 2020-07-29 | 2022-12-27 | 平安科技(深圳)有限公司 | 图像增广方法、装置、计算机设备及存储介质 |
CN112035247A (zh) * | 2020-08-12 | 2020-12-04 | 博泰车联网(南京)有限公司 | 一种资源调度方法、车机及计算机存储介质 |
CN112162864B (zh) * | 2020-10-26 | 2023-06-09 | 新华三大数据技术有限公司 | 一种云资源分配方法、装置及存储介质 |
CN112506637A (zh) * | 2020-12-17 | 2021-03-16 | 广东省科技基础条件平台中心 | 图像数据处理方法、装置、计算机设备和存储介质 |
CN114640681B (zh) * | 2022-03-10 | 2024-05-17 | 京东科技信息技术有限公司 | 一种数据处理方法和系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101354780A (zh) * | 2007-07-26 | 2009-01-28 | Lg电子株式会社 | 图形数据处理设备和方法 |
CN104102546A (zh) * | 2014-07-23 | 2014-10-15 | 浪潮(北京)电子信息产业有限公司 | 一种实现cpu和gpu负载均衡的方法及系统 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101447939B (zh) * | 2008-12-16 | 2011-09-28 | 中国移动通信集团北京有限公司 | 一种业务分配方法和负载均衡器 |
CN102958166B (zh) * | 2011-08-29 | 2017-07-21 | 华为技术有限公司 | 一种资源分配方法及资源管理平台 |
US9479449B2 (en) * | 2013-06-03 | 2016-10-25 | Advanced Micro Devices, Inc. | Workload partitioning among heterogeneous processing nodes |
CN104778080A (zh) * | 2014-01-14 | 2015-07-15 | 中兴通讯股份有限公司 | 基于协处理器的作业调度处理方法及装置 |
US9576332B1 (en) * | 2014-06-02 | 2017-02-21 | VCE IP Holding Company LLC | Systems and methods for remote graphics processing unit service |
CN105988874B (zh) * | 2015-02-10 | 2020-08-28 | 阿里巴巴集团控股有限公司 | 资源处理方法及装置 |
CN106155811B (zh) * | 2015-04-28 | 2020-01-07 | 阿里巴巴集团控股有限公司 | 资源服务装置、资源调度方法和装置 |
-
2017
- 2017-06-22 CN CN201710481998.5A patent/CN107688495B/zh active Active
-
2018
- 2018-02-09 WO PCT/CN2018/076009 patent/WO2018233299A1/zh active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101354780A (zh) * | 2007-07-26 | 2009-01-28 | Lg电子株式会社 | 图形数据处理设备和方法 |
CN104102546A (zh) * | 2014-07-23 | 2014-10-15 | 浪潮(北京)电子信息产业有限公司 | 一种实现cpu和gpu负载均衡的方法及系统 |
Non-Patent Citations (1)
Title |
---|
"一种CPU+GPU资源调度系统的研究";沈莉 等;《高性能计算发展与应用》;20111231(第1期);第28-31页 * |
Also Published As
Publication number | Publication date |
---|---|
CN107688495A (zh) | 2018-02-13 |
WO2018233299A1 (zh) | 2018-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107688495B (zh) | 调度处理器的方法及设备 | |
US11416307B2 (en) | System and method for processing task resources | |
CN109726005B (zh) | 用于管理资源的方法、服务器系统和计算机可读介质 | |
CN112035238A (zh) | 任务调度处理方法、装置、集群系统及可读存储介质 | |
US11645123B1 (en) | Dynamic distribution of a workload processing pipeline on a computing infrastructure | |
CN113849312B (zh) | 数据处理任务的分配方法、装置、电子设备及存储介质 | |
US20200174821A1 (en) | System, method and computer program for virtual machine resource allocation | |
CN112825042A (zh) | 资源管理方法和装置、电子设备及存储介质 | |
US20240160474A1 (en) | Multi-core processor task scheduling method, and device and storage medium | |
US10733022B2 (en) | Method of managing dedicated processing resources, server system and computer program product | |
US20200145300A1 (en) | Service-aware serverless cloud computing system | |
CN114637536A (zh) | 任务处理方法、计算协处理器、芯片及计算机设备 | |
CN111078516A (zh) | 分布式性能测试方法、装置、电子设备 | |
CN114625533A (zh) | 分布式任务调度方法、装置、电子设备及存储介质 | |
CN115640113A (zh) | 多平面弹性调度方法 | |
US20150212859A1 (en) | Graphics processing unit controller, host system, and methods | |
CN111813541B (zh) | 一种任务调度方法、装置、介质和设备 | |
CN112395062A (zh) | 任务处理方法、装置、设备及计算机可读存储介质 | |
CN114816777A (zh) | 命令处理装置、方法、电子设备以及计算机可读存储介质 | |
CN109842665B (zh) | 用于任务分配服务器的任务处理方法和装置 | |
CN109189581B (zh) | 一种作业调度方法和装置 | |
CN112882826A (zh) | 一种资源协同调度方法以及装置 | |
CN115775199A (zh) | 数据处理方法和装置、电子设备和计算机可读存储介质 | |
CN111124655A (zh) | 一种网络请求调度方法、终端装置及存储介质 | |
CN114448909A (zh) | 基于ovs的网卡队列轮询方法、装置、计算机设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |