CN111523670A - 一种提高深度学习推理设备利用率的批量推理方法、装置和介质 - Google Patents
一种提高深度学习推理设备利用率的批量推理方法、装置和介质 Download PDFInfo
- Publication number
- CN111523670A CN111523670A CN202010307773.XA CN202010307773A CN111523670A CN 111523670 A CN111523670 A CN 111523670A CN 202010307773 A CN202010307773 A CN 202010307773A CN 111523670 A CN111523670 A CN 111523670A
- Authority
- CN
- China
- Prior art keywords
- data
- user request
- inference
- data structure
- request data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 238000013135 deep learning Methods 0.000 title claims abstract description 24
- 230000005540 biological transmission Effects 0.000 claims abstract description 28
- 230000004044 response Effects 0.000 claims abstract description 5
- 230000006870 function Effects 0.000 description 7
- 238000004590 computer program Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 238000010923 batch production Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/54—Interprogram communication
- G06F9/546—Message passing systems or structures, e.g. queues
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Debugging And Monitoring (AREA)
Abstract
本发明提供一种提高深度学习推理设备利用率的批量推理方法、装置和介质,该方法包括以下步骤:接收并解析用户请求,将所述解析的用户请求数据和当前线程ID发送到传输队列中;依次从所述传输队列中读取用户请求数据及其对应的线程ID并将其存入数据结构中;响应于所述数据结构中的用户请求数据量达到预定要求,将所述数据结构中的所有用户请求数据一同发送到推理设备进行推理;获取推理结果并将所述推理结果依次分发给相应的用户。本发明可以合并大量的用户请求,减少推理次数,从而提高系统吞吐率、减少单请求平均返回时间、提升用户体验。
Description
技术领域
本发明涉及计算机领域,并且更具体地,涉及一种提高深度学习推理设备利用率的批量推理方法、装置和介质。
背景技术
在AI项目中,大多时候开发者的关注点都集中在如何进行训练、如何调优模型、如何达到满意的识别率上面。但对于一个完整项目来说,通常是需求推动项目,同时,项目也最终要落到实际业务中来满足需求。
对于AI训练和机器学习工具如TensorFlow,它本身也提供了AI Serving工具TensorFlow Serving。利用此工具,可以将训练好的模型简单保存为模型文件,然后通过脚本在TensorFlow Serving加载模型,输入待推理数据,得到推理结果。与拥有较固定计算周期和运行时长的AI训练不同,AI推理的调用会随着业务的涨落而涨落,经常出现类似白天高、夜间低的现象。且在大规模高并发的节点需求情况下,常规的部署方案,明显无法满足此类需求,此时需要使用自适应的调度算法完成预测推理。
发明内容
鉴于此,本发明实施例的目的在于提出一种提高深度学习推理设备利用率的批量推理方法和装置,以根据并发情况自动合并一些请求进行批量推理,以提高推理设备利用率和系统吞吐率。
基于上述目的,本发明实施例的一方面提供了一种提高深度学习推理设备利用率的批量推理方法,包括以下步骤:
接收并解析用户请求,将所述解析的用户请求数据和当前线程ID发送到传输队列中;
依次从所述传输队列中读取用户请求数据及其对应的线程ID并将其存入数据结构中;
响应于所述数据结构中的用户请求数据量达到预定要求,将所述数据结构中的所有用户请求数据一同发送到推理设备进行推理;
获取推理结果并将所述推理结果依次分发给相应的用户。
在一些实施方式中,所述数据结构中的用户请求数据量达到预定要求包括:
所述数据结构中的用户请求数据量达到预定的数量。
在一些实施方式中,所述数据结构中的用户请求数据量达到预定要求还包括:
从所述数据结构获取到第一个用户请求数据的时间开始已达到预定时间段的时延。
在一些实施方式中,从所述数据结构获取到第一个用户请求数据的时间开始已经过预定的时间段包括:
每次从所述传输队列中读取到相应数据并将所述数据存入所述数据结构中后获取当前时间,以用于计算从所述传输队列中读取第一个用户请求数据以存入所述数据结构中开始是否已达到预定时间段的时延。
在一些实施方式中,依次从所述传输队列中读取用户请求数据及其对应的线程ID并将其存入数据结构中包括:
将所述用户请求数据及其对应的线程ID顺序存入所述数据结构中并依次赋予相应的索引值。
在一些实施方式中,获取推理结果并将所述推理结果依次分发给相应的用户包括:
根据所述索引值和所述线程ID将所述推理结果依次分发给相应的用户。
在一些实施方式中,依次从所述传输队列中读取用户请求数据及其对应的线程ID并将其存入数据结构中包括:
响应于没有从所述传输队列中读取到用户请求数据,等待预定时间后再次进行读取。
在一些实施方式中,接收并解析用户请求,将所述解析的用户请求数据和当前线程ID发送到传输队列中包括:
创建所述当前线程的本地套接字并将其与用户请求数据、当前线程ID一同发送到传输队列中,以通过所述本地套接字返回推理结果。
本发明实施例的另一方面提供了一种提高深度学习推理设备利用率的批量推理装置,包括:
至少一个处理器;和
存储器,所述存储器存储有处理器可运行的程序代码,所述程序代码在被处理器运行时实施上述任一项所述的方法。
本发明实施例的又一方面提供了一种计算机介质,所述计算机介质在被处理器执行时实施上述任一项所述的方法。
本发明具有以下有益技术效果:本发明实施例提供的一种提高深度学习推理设备利用率的批量推理方法和装置提高了推理设备的利用率以及平均返回时间和吞吐率,同时能够对不同的推理框架和推理模型具有通用性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的实施例。
图1是根据本发明的一种提高深度学习推理设备利用率的批量推理方法的流程图;
图2是根据本发明的深度学习推理设备进行批量推理的示意图。
图3是根据本发明的一种提高深度学习推理设备利用率的批量推理装置的硬件结构示意图。
具体实施方式
以下描述了本发明的实施例。然而,应该理解,所公开的实施例仅仅是示例,并且其他实施例可以采取各种替代形式。附图不一定按比例绘制;某些功能可能被夸大或最小化以显示特定部件的细节。因此,本文公开的具体结构和功能细节不应被解释为限制性的,而仅仅是作为用于教导本领域技术人员以各种方式使用本发明的代表性基础。如本领域普通技术人员将理解的,参考任何一个附图所示出和描述的各种特征可以与一个或多个其他附图中所示的特征组合以产生没有明确示出或描述的实施例。所示特征的组合为典型应用提供了代表性实施例。然而,与本发明的教导相一致的特征的各种组合和修改对于某些特定应用或实施方式可能是期望的。
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明实施例进一步详细说明。
基于上述目的,本发明的实施例一方面提出了一种提高深度学习推理设备利用率的批量推理方法,如图1所示,包括以下步骤:
步骤S101:接收并解析用户请求,将所述解析的用户请求数据和当前线程ID发送到传输队列中;
步骤S102:依次从所述传输队列中读取用户请求数据及其对应的线程ID并将其存入数据结构中;
步骤S103:响应于所述数据结构中的用户请求数据量达到预定要求,将所述数据结构中的所有用户请求数据一同发送到推理设备进行推理;
步骤S104:获取推理结果并将所述推理结果依次分发给相应的用户。
在一些实施例中,所述数据结构中的用户请求数据量达到预定要求包括:所述数据结构中的用户请求数据量达到预定的数量。
在一些实施例中,所述数据结构中的用户请求数据量达到预定要求还包括:从所述数据结构获取到第一个用户请求数据的时间开始已达到预定时间段的时延。
在一些实施例中,从所述数据结构获取到第一个用户请求数据的时间开始已经过预定的时间段包括:每次从所述传输队列中读取到相应数据并将所述数据存入所述数据结构中后获取当前时间,以用于计算从所述传输队列中读取第一个用户请求数据以存入所述数据结构中开始是否已达到预定时间段的时延。
在一些实施例中,依次从所述传输队列中读取用户请求数据及其对应的线程ID并将其存入数据结构中包括:将所述用户请求数据及其对应的线程ID顺序存入所述数据结构中并依次赋予相应的索引值。
在一些实施例中,获取推理结果并将所述推理结果依次分发给相应的用户包括:根据所述索引值和所述线程ID将所述推理结果依次分发给相应的用户。
在一些实施例中,依次从所述传输队列中读取用户请求数据及其对应的线程ID并将其存入数据结构中包括:响应于没有从所述传输队列中读取到用户请求数据,等待预定时间后再次进行读取。
在一些实施例中,接收并解析用户请求,将所述解析的用户请求数据和当前线程ID发送到传输队列中包括:创建所述当前线程的本地套接字并将其与用户请求数据、当前线程ID一同发送到传输队列中,以通过所述本地套接字返回推理结果。
在根据本发明的一个实施例中,KFServing是比较新的一个推理平台,它是基于Kubernetes(Kubernetes是一个开源的Linux容器自动化运维平台,它消除了容器化应用程序在部署、伸缩时涉及到的许多手动操作)实现的分布式推理服务平台,它采用Istio(Istio是一种开放式技术,能够为开发人员提供一种无缝连接、管理及保护不同微服务网络的方法)来实现推理平台流量的负载均衡、采用Knative来实现支持Serverless的扩容缩容。KFServing可以兼容多个主流推理后端,比如TensorFlow、PyTorch等,但是作为一个不是特别成熟的产品,它的推理性能是不乐观的,尤其是在大量用户同时发送推理请求的时候,每个推理请求的返回时间比较糟糕。因此,可通过本发明方法解决KFServing推理性能的问题,尤其是在大量用户同时发送推理请求的时候,通过根据本发明方法的AutoBatching服务,可以合并大量的用户请求,减少推理次数,从而提高系统吞吐率、减少单请求平均返回时间、提升用户体验。
在一些实施例中,启动多线程来接收用户请求。如图2所示,通过例如Flask服务器(Flask Server)启动多线程来接收用户请求(Requests),每个请求通过队列将数据传递给Auto Batching进程并保存在内存中。Auto Batching根据两个指标来进行合并多个用户请求,第一个指标是max_batchsize,也就是推理实例个数(比如输入图片张数),第二个指标是max_latency,其计时的起始时间是从队列取到的第一个实例的时间;只要是两个指标中的一个得到满足,就会触发一次批量推理(Predict),以将批量请求数据发送到初始化(Init)后的模型(Inference Module)中进行推理,同时这个批量推理包含的请求线程处于等待状态,当推理结果返回后,再将推理结果分发给每个用户(Responses)。
在一些实施例中,启动多线程来接收用户请求。接收用户请求,获取当前线程的线程ID(thread_id),并解析用户请求参数,包括模块名称module_name、输入实例input_instances等。如果对应模型没有对应的Auto Batching进程,则创建对应的Auto Batching进程以及传输队列queue;创建当前线程的本地套接字local_socket。组装用户数据输入数据以将其发送到队列中,包含thread_id、input_instances、local_socket等,在local_socket上等待推理结果以将推理结果返回给用户。
在一些实施例中,从队列中获取用户数据以存入数据结构中,该数据结构相关变量说明如表1所示。
表1:数据结构相关变量说明
在一些实施例中,如果没有在队列中获取到相应的用户数据,等待一定时间后再去队列中读取。如果在队列中获取到了一组用户数据而且数据结构中instances为空,说明本次获取到的用户数据将成为instances中的第一条数据,获取当前时间赋给start,以作为数据结构接收用户数据的初始时间。解析获取的用户数据中的thread_id、input_instances、local_socket、并且将其存入tid_result_map中,将input_instances添加到instances末尾,并在tid_result_map中保存对应索引值(index)和local_socket,比如在添加本次获取的用户数据之前,instances有2个实例(例如2张图片),那么这2个实例的索引值index分别为0和1,如果本次从队列中拿到的input_instances中有2个实例,那么input_instances在instances中的索引值index就是2和3。然后,获取当前时间now,判断now与start的差值是否大于等于max_latency或者instances中的数量大于等于max_batchsize。如果满足上述两个指标中的任意一个,则进行一次推理,保存推理结果predict_results。
在一些实施例中,遍历tid_result_map中的每个thread_id,将对应索引值index的结果利用local_socket发送给Flask线程,比如对于thread_id为1001的线程,如果它在tid_result_map中的索引值index是3和4,那么,它对应的推理结果就是predict_results中的第3和4个推理结果。
在技术上可行的情况下,以上针对不同实施例所列举的技术特征可以相互组合,或者改变、添加以及省略等等,从而形成本发明范围内的另外实施例。
从上述实施例可以看出,本发明实施例提供的一种提高深度学习推理设备利用率的批量推理方法可以合并大量的用户请求,减少推理次数,从而提高例如CPU、GPU、TPU等推理设备的利用率以及平均返回时间和吞吐率,提升用户体验,同时能够对不同的推理框架和推理模型具有通用性。
基于上述目的,本发明实施例的另一个方面,提出了一种提高深度学习推理设备利用率的批量推理装置,包括:至少一个处理器和存储器,所述存储器存储有处理器可运行的程序代码,所述程序代码在被处理器运行时实施上述任一项所述的方法。
本发明实施例的又一个方面,提出了一种计算机介质,所述计算机介质在被处理器执行时实施上述任一项所述的方法。
如图3所示,为本发明提供的提高深度学习推理设备利用率的批量推理装置的一个实施例的硬件结构示意图。
以如图3所示的计算机设备为例,在该计算机设备中包括处理器301以及存储器302,并还可以包括:输入装置303和输出装置304。
处理器301、存储器302、输入装置303和输出装置304可以通过总线或者其他方式连接,图3中以通过总线连接为例。
存储器302作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本申请实施例中的所述提高深度学习推理设备利用率的批量推理方法对应的程序指令/模块。处理器301通过运行存储在存储器302中的非易失性软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例的提高深度学习推理设备利用率的批量推理方法。
存储器302可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据提高深度学习推理设备利用率的批量推理方法所创建的数据等。此外,存储器302可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,存储器302可选包括相对于处理器301远程设置的存储器,这些远程存储器可以通过网络连接至本地模块。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置303可接收输入的数字或字符信息,以及产生与提高深度学习推理设备利用率的批量推理方法的计算机设备的用户设置以及功能控制有关的键信号输入。输出装置304可包括显示屏等显示设备。
所述一个或者多个提高深度学习推理设备利用率的批量推理方法对应的程序指令/模块存储在所述存储器302中,当被所述处理器301执行时,执行上述任意方法实施例中的提高深度学习推理设备利用率的批量推理方法。
所述执行所述提高深度学习推理设备利用率的批量推理方法的计算机设备的任何一个实施例,可以达到与之对应的前述任意方法实施例相同或者相类似的效果。
最后需要说明的是,本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关硬件来完成,所述的程序可存储于计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(ROM)或随机存储记忆体(RAM)等。
此外,典型地,本发明实施例公开所述的装置、设备等可为各种电子终端设备,例如手机、个人数字助理(PDA)、平板电脑(PAD)、智能电视等,也可以是大型终端设备,如服务器等,因此本发明实施例公开的保护范围不应限定为某种特定类型的装置、设备。本发明实施例公开所述的客户端可以是以电子硬件、计算机软件或两者的组合形式应用于上述任意一种电子终端设备中。
此外,根据本发明实施例公开的方法还可以被实现为由CPU执行的计算机程序,该计算机程序可以存储在计算机可读存储介质中。在该计算机程序被CPU执行时,执行本发明实施例公开的方法中限定的上述功能。
此外,上述方法步骤以及系统单元也可以利用控制器以及用于存储使得控制器实现上述步骤或单元功能的计算机程序的计算机可读存储介质实现。
此外,应该明白的是,本文所述的计算机可读存储介质(例如,存储器)可以是易失性存储器或非易失性存储器,或者可以包括易失性存储器和非易失性存储器两者。作为例子而非限制性的,非易失性存储器可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦写可编程ROM(EEPROM)或快闪存储器。易失性存储器可以包括随机存取存储器(RAM),该RAM可以充当外部高速缓存存储器。作为例子而非限制性的,RAM可以以多种形式获得,比如同步RAM(DRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据速率SDRAM(DDR SDRAM)、增强SDRAM(ESDRAM)、同步链路DRAM(SLDRAM)、以及直接Rambus RAM(DRRAM)。所公开的方面的存储设备意在包括但不限于这些和其它合适类型的存储器。
本领域技术人员还将明白的是,结合这里的公开所描述的各种示例性逻辑块、模块、电路和算法步骤可以被实现为电子硬件、计算机软件或两者的组合。为了清楚地说明硬件和软件的这种可互换性,已经就各种示意性组件、方块、模块、电路和步骤的功能对其进行了一般性的描述。这种功能是被实现为软件还是被实现为硬件取决于具体应用以及施加给整个系统的设计约束。本领域技术人员可以针对每种具体应用以各种方式来实现所述的功能,但是这种实现决定不应被解释为导致脱离本发明实施例公开的范围。
结合这里的公开所描述的各种示例性逻辑块、模块和电路可以利用被设计成用于执行这里所述功能的下列部件来实现或执行:通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其它可编程逻辑器件、分立门或晶体管逻辑、分立的硬件组件或者这些部件的任何组合。通用处理器可以是微处理器,但是可替换地,处理器可以是任何传统处理器、控制器、微控制器或状态机。处理器也可以被实现为计算设备的组合,例如,DSP和微处理器的组合、多个微处理器、一个或多个微处理器结合DSP和/或任何其它这种配置。
结合这里的公开所描述的方法或算法的步骤可以直接包含在硬件中、由处理器执行的软件模块中或这两者的组合中。软件模块可以驻留在RAM存储器、快闪存储器、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、可移动盘、CD-ROM、或本领域已知的任何其它形式的存储介质中。示例性的存储介质被耦合到处理器,使得处理器能够从该存储介质中读取信息或向该存储介质写入信息。在一个替换方案中,所述存储介质可以与处理器集成在一起。处理器和存储介质可以驻留在ASIC中。ASIC可以驻留在用户终端中。在一个替换方案中,处理器和存储介质可以作为分立组件驻留在用户终端中。
在一个或多个示例性设计中,所述功能可以在硬件、软件、固件或其任意组合中实现。如果在软件中实现,则可以将所述功能作为一个或多个指令或代码存储在计算机可读介质上或通过计算机可读介质来传送。计算机可读介质包括计算机存储介质和通信介质,该通信介质包括有助于将计算机程序从一个位置传送到另一个位置的任何介质。存储介质可以是能够被通用或专用计算机访问的任何可用介质。作为例子而非限制性的,该计算机可读介质可以包括RAM、ROM、EEPROM、CD-ROM或其它光盘存储设备、磁盘存储设备或其它磁性存储设备,或者是可以用于携带或存储形式为指令或数据结构的所需程序代码并且能够被通用或专用计算机或者通用或专用处理器访问的任何其它介质。此外,任何连接都可以适当地称为计算机可读介质。例如,如果使用同轴线缆、光纤线缆、双绞线、数字用户线路(DSL)或诸如红外线、无线电和微波的无线技术来从网站、服务器或其它远程源发送软件,则上述同轴线缆、光纤线缆、双绞线、DSL或诸如红外线、无线电和微波的无线技术均包括在介质的定义。如这里所使用的,磁盘和光盘包括压缩盘(CD)、激光盘、光盘、数字多功能盘(DVD)、软盘、蓝光盘,其中磁盘通常磁性地再现数据,而光盘利用激光光学地再现数据。上述内容的组合也应当包括在计算机可读介质的范围内。
应当理解的是,在本文中使用的,除非上下文清楚地支持例外情况,单数形式“一个”旨在也包括复数形式。还应当理解的是,在本文中使用的“和/或”是指包括一个或者一个以上相关联地列出的项目的任意和所有可能组合。
上述本发明实施例公开实施例序号仅仅为了描述,不代表实施例的优劣。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器、磁盘或光盘等。
上述实施例是实施方式的可能示例,并且仅仅为了清楚理解本发明的原理而提出。所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本发明实施例公开的范围(包括权利要求)被限于这些例子;在本发明实施例的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,并存在如上所述的本发明实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。因此,凡在本发明实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明实施例的保护范围之内。
Claims (10)
1.一种提高深度学习推理设备利用率的批量推理方法,其特征在于,包括以下步骤:
接收并解析用户请求,将所述解析的用户请求数据和当前线程ID发送到传输队列中;
依次从所述传输队列中读取用户请求数据及其对应的线程ID并将其存入数据结构中;
响应于所述数据结构中的用户请求数据量达到预定要求,将所述数据结构中的所有用户请求数据一同发送到推理设备进行推理;
获取推理结果并将所述推理结果依次分发给相应的用户。
2.根据权利要求1所述的方法,其特征在于,所述数据结构中的用户请求数据量达到预定要求包括:
所述数据结构中的用户请求数据量达到预定的数量。
3.根据权利要求1所述的方法,其特征在于,所述数据结构中的用户请求数据量达到预定要求还包括:
从所述数据结构获取到第一个用户请求数据的时间开始已达到预定时间段的时延。
4.根据权利要求3所述的方法,其特征在于,从所述数据结构获取到第一个用户请求数据的时间开始已经过预定的时间段包括:
每次从所述传输队列中读取到相应数据并将所述数据存入所述数据结构中后获取当前时间,以用于计算从所述传输队列中读取第一个用户请求数据以存入所述数据结构中开始是否已达到预定时间段的时延。
5.根据权利要求1所述的方法,其特征在于,依次从所述传输队列中读取用户请求数据及其对应的线程ID并将其存入数据结构中包括:
将所述用户请求数据及其对应的线程ID顺序存入所述数据结构中并依次赋予相应的索引值。
6.根据权利要求5所述的方法,其特征在于,获取推理结果并将所述推理结果依次分发给相应的用户包括:
根据所述索引值和所述线程ID将所述推理结果依次分发给相应的用户。
7.根据权利要求1所述的方法,其特征在于,依次从所述传输队列中读取用户请求数据及其对应的线程ID并将其存入数据结构中包括:
响应于没有从所述传输队列中读取到用户请求数据,等待预定时间后再次进行读取。
8.根据权利要求1所述的方法,其特征在于,接收并解析用户请求,将所述解析的用户请求数据和当前线程ID发送到传输队列中包括:
创建所述当前线程的本地套接字并将其与用户请求数据、当前线程ID一同发送到传输队列中,以通过所述本地套接字返回推理结果。
9.一种提高深度学习推理设备利用率的批量推理装置,其特征在于,包括:
至少一个处理器;和
存储器,所述存储器存储有处理器可运行的程序代码,所述程序代码在被处理器运行时实施如权利要求1-8中任一项所述的方法。
10.一种计算机介质,其特征在于,所述计算机介质在被处理器执行时实施如权利要求1-8中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010307773.XA CN111523670A (zh) | 2020-04-17 | 2020-04-17 | 一种提高深度学习推理设备利用率的批量推理方法、装置和介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010307773.XA CN111523670A (zh) | 2020-04-17 | 2020-04-17 | 一种提高深度学习推理设备利用率的批量推理方法、装置和介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111523670A true CN111523670A (zh) | 2020-08-11 |
Family
ID=71903127
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010307773.XA Withdrawn CN111523670A (zh) | 2020-04-17 | 2020-04-17 | 一种提高深度学习推理设备利用率的批量推理方法、装置和介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111523670A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112035123A (zh) * | 2020-08-28 | 2020-12-04 | 北京浪潮数据技术有限公司 | 一种基于kubernetes平台实现无服务器的方法 |
CN112966825A (zh) * | 2021-04-13 | 2021-06-15 | 杭州欣禾圣世科技有限公司 | 基于python实现的多模型融合并行推理方法、装置及系统 |
CN117349032A (zh) * | 2023-12-05 | 2024-01-05 | 城云科技(中国)有限公司 | 一种提高大语言模型吞吐量的方法及装置 |
-
2020
- 2020-04-17 CN CN202010307773.XA patent/CN111523670A/zh not_active Withdrawn
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112035123A (zh) * | 2020-08-28 | 2020-12-04 | 北京浪潮数据技术有限公司 | 一种基于kubernetes平台实现无服务器的方法 |
CN112966825A (zh) * | 2021-04-13 | 2021-06-15 | 杭州欣禾圣世科技有限公司 | 基于python实现的多模型融合并行推理方法、装置及系统 |
CN117349032A (zh) * | 2023-12-05 | 2024-01-05 | 城云科技(中国)有限公司 | 一种提高大语言模型吞吐量的方法及装置 |
CN117349032B (zh) * | 2023-12-05 | 2024-02-20 | 城云科技(中国)有限公司 | 一种提高大语言模型吞吐量的方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111523670A (zh) | 一种提高深度学习推理设备利用率的批量推理方法、装置和介质 | |
CN111782692B (zh) | 一种频率控制方法及装置 | |
CN103368986A (zh) | 一种信息推荐方法及信息推荐装置 | |
US9614925B2 (en) | Intelligent file pre-fetch based on access patterns | |
CN113590576A (zh) | 数据库参数调整方法、装置、存储介质以及电子设备 | |
CN104731645A (zh) | 一种任务调度方法和装置及数据下载方法和装置 | |
CN104639426A (zh) | 群组成员添加方法及装置 | |
CN112256772A (zh) | 数据服务方法、装置以及可读存储介质 | |
CN110781373A (zh) | 榜单更新方法、装置、可读介质和电子设备 | |
US20230275976A1 (en) | Data processing method and apparatus, and computer-readable storage medium | |
CN104753922A (zh) | 用于预加载的方法、服务端、客户端及系统 | |
CN114116827B (zh) | 一种用户画像数据的查询系统及方法 | |
CN115509754A (zh) | 一种业务数据处理方法、装置、电子设备及存储介质 | |
KR101991609B1 (ko) | 사용자 모바일 네트워크 및 데이터 플랜에 기초한 콘텐츠의 필터링 | |
CN112506887B (zh) | 车辆终端can总线数据处理方法及装置 | |
CN111783000B (zh) | 门户网站的静态化处理方法及装置 | |
CN110069533B (zh) | 一种基于区块链的事件订阅方法及装置 | |
CN112231106A (zh) | Redis集群的访问数据处理方法及装置 | |
CN108108400B (zh) | 一种api基于本地数据增量的方法 | |
WO2013059887A1 (en) | Data interchange system | |
CN114968917A (zh) | 一种文件数据快速导入方法及装置 | |
CN104219277A (zh) | 重排服务器响应 | |
CN105718291B (zh) | 一种混合桌面应用的多级缓存加速方法 | |
WO2014206063A1 (zh) | 一种数据交互方法及装置 | |
CN112688980B (zh) | 资源分发方法、装置、计算机设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20200811 |
|
WW01 | Invention patent application withdrawn after publication |