CN114860410A - 批量任务处理的方法、装置及电子设备 - Google Patents
批量任务处理的方法、装置及电子设备 Download PDFInfo
- Publication number
- CN114860410A CN114860410A CN202210547456.4A CN202210547456A CN114860410A CN 114860410 A CN114860410 A CN 114860410A CN 202210547456 A CN202210547456 A CN 202210547456A CN 114860410 A CN114860410 A CN 114860410A
- Authority
- CN
- China
- Prior art keywords
- task
- completed
- tasks
- batch
- sub
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/0802—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
- G06F12/0877—Cache access modes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本公开提供了一种批量任务处理的方法、装置及电子设备,涉及人工智能领域,尤其涉及云计算领域。具体实现方案为:根据待完成任务生成批量任务;执行所述批量任务中的待完成任务;根据所述批量任务中待完成任务的完成进度调度所述待完成任务。本公开实施例可以根据任务完成进度调度待完成任务,将已经完成的任务退出批量任务队列。本公开实施例可以动态调度批量任务中的待完成任务,降低完成所述待完成任务的总体时延,提高计算资源的利用效率。
Description
技术领域
本公开涉及人工智能技术领域,尤其涉及云计算领域,具体涉及一种批量任务处理的方法、装置及电子设备。
背景技术
近年来,随着大模型在自然语言处理等领域的卓越表现,使得它们在越来越多的实际场景中发挥作用,在实际场景中,通常会对训练好的模型进行推理部署,在接收到任务请求后,通过模型进行计算,并将最终计算得到的结果返回到请求方。
但是目前的任务处理技术对任务的计算效率较低,导致计算资源的浪费。
发明内容
本公开提供了一种用于批量任务处理的方法、装置及电子设备。
根据本公开的第一方面,提供了一种批量任务处理的方法,其中,包括:
根据待完成任务生成批量任务;
执行所述批量任务中的待完成任务;
根据所述批量任务中待完成任务的完成进度调度所述待完成任务。
可选的,所述根据待完成任务生成批量任务后,还包括:
将所述批量任务输入第一缓冲区。
可选的,所述根据所述批量任务中待完成任务的完成进度调度所述待完成任务,包括:
获取所述第一缓冲区中的已完成任务并输入第二缓冲区,所述已完成任务为执行完毕的待完成任务;
输出所述已完成任务的任务结果并删除第二缓冲区中的已完成任务。
可选的,所述执行所述批量任务中的待完成任务,包括:
根据所述待完成任务进行推理运算,以生成子结果。
可选的,所述获取所述第一缓冲区中的已完成任务并输入第二缓冲区,包括:
获取所述待完成任务的子结果数量阈值;
根据子结果数量和所述子结果数量阈值确定已完成任务。
可选的,所述根据子结果数量和所述子结果数量阈值确定已完成任务,包括:
如果所述子结果数量与所述子结果数量阈值相等,则确定所述待完成任务为所述已完成任务。
可选的,所述方法还包括:
响应于所述待完成任务中包括完成标识,确定所述待完成任务为已完成任务。
可选的,所述方法还包括:
将所述已完成任务对应的子结果按生成顺序排列以生成所述任务结果。
可选的,所述方法还包括:
响应于新增任务请求,将新增待完成任务加入所述批量任务中。
根据本公开的第二方面,提供了一种批量任务处理的装置,包括:
批量任务生成模块,用于根据待完成任务生成批量任务;
任务执行模块,用于执行所述批量任务中的待完成任务;
任务调度模块,用于根据所述批量任务中待完成任务的完成进度调度所述待完成任务。
可选的,所述装置还包括:
输入模块,用于将所述批量任务输入第一缓冲区。
可选的,所述任务调度模块包括:
调度子模块,用于获取所述第一缓冲区中的已完成任务并输入第二缓冲区,所述已完成任务为执行完毕的待完成任务;
输出子模块,用于输出所述已完成任务的任务结果并删除第二缓冲区中的已完成任务。
可选的,所述任务执行模块包括:
运算子模块,用于根据所述待完成任务进行推理运算,以生成子结果。
可选的,所述调度子模块包括:
阈值获取模块,用于获取所述待完成任务的子结果数量阈值;
第一任务识别单元,用于根据子结果数量和所述子结果数量阈值确定已完成任务。
可选的,所述任务识别单元,包括:
任务识别子单元,如果所述子结果数量与所述子结果数量阈值相等,则确定所述待完成任务为所述已完成任务。
可选的,所述装置还包括:
第二任务识别单元,用于响应于所述待完成任务中包括完成标识,确定所述待完成任务为已完成任务。
可选的,所述装置还包括:
结果获取子单元,用于将所述已完成任务对应的子结果按生成顺序排列以生成所述任务结果。
可选的,所述装置还包括:
任务添加模块,用于响应于新增任务请求,将新增待完成任务加入所述批量任务中。
根据本公开的第三方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上述第一方面中任一项所述的方法。
根据本公开的第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行如上述第一方面中任一项所述的方法。
根据本公开的第五方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现如上述第一方面中任一项所述的方法。
本发明至少具备以下有益效果:
根据所述待完成任务的完成进度进行调度,结束对已完成任务的处理,避免计算资源浪费在已经完成的待完成任务上,降低任务完成的时延,提升任务处理效率。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开实施例提供的一种批量任务处理方法的示意图;
图2是根据本公开实施例提供的一种批量任务处理方法的示意图;
图3是根据本公开实施例提供的一种批量任务处理方法的示意图;
图4是根据本公开实施例提供的一种批量任务处理装置的结构示意图;
图5是根据本公开实施例提供的一种批量任务处理装置的结构示意图;
图6是用来实现本公开实施例的批量任务处理的方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
随着计算机硬件的提升与深度学习领域的快速发展,各种神经网络模型被应用与生命健康,零售,工业等各个领域。深度学习模型的成功应用于商业领域依赖于多个环节,除了模型训练之外,通常还需要将训练好的模型针对使用场景进行优化和部署。用户向部署好的模型传入数据,在输入数据经过模型推理运算后,用户得到对应的输出结果。
在模型训练中的主要目标是提升训练任务性能追求的高吞吐,在使用模型进行推理任务时更多的关注的是时延性,即尽可能的缩短用户从发出请求到收到回复的时间。在真实场景中,为了充分利用计算资源,上层调度机制会根据当前时刻用户请求的数量,将所述请求组合成一个大的批量(Batch),再统一输入训练好的模型进行运算。
在自然语言领域常见的推理任务为生成任务,所述生成任务指机器翻译、文章生成这类任务。例如,用户发出请求要求生成一篇文章,将用户请求输入训练好的模型进行推理运算以生成文章。例如,用户输入一段文本并指示将文本翻译为指定语言,那就把这段文本输入模型进行循环运算,由于模型的特性为每次循环运算中模型只会生成一个词,每次循环运算中模型生成一个词对应的翻译词,如果需要生成的翻译文本中有n个词,则需要在模型中进行n次循环运算才能将文本翻译完毕,得到对应翻译的文本。
相关技术中,把有不同生成词数需求的任务组装成一个Batch,生成词数少的任务会比生成词数多的任务需要的计算轮次少,在完成后需要等待生成词数多的任务完成后统一返回生成结果给用户,但是在等待期间模型仍然在运算,即生成词数少的任务模型空转了多次,Batch中所有任务的平均时延和生成词数最多的任务相等,一定程度上增加了生成字数较少任务的时延。例如,需要生成的词数与循环通过模型的计算量成正比,比如将生成20个词的任务和生成100个词的任务放入同一个Batch,会导致生成20个词的任务在后80轮生成过程中处于空转的状态,这样不仅在一定程度上浪费了计算资源外,还导致整个Batch中任务的时延增加,降低了任务处理效率。
为了解决相关技术中的问题,本公开提出了一种批量任务处理方法,图1是根据本公开实施例提供的一种批量任务处理方法的示意图,如图1所示,所述方法包括以下步骤:
步骤101:根据待完成任务生成批量任务。
本公开实施例中,所述方法针对深度学习中的推理任务,所述方法主要由具备上层调度模块执行。用户根据需求发送请求,所述请求中包含所述待完成任务,将所述待完成任务组合成为一个批量任务,即Batch。通过批量任务,每次将多个任务同时执行,提高了任务执行的效率。
步骤102:执行所述批量任务中的待完成任务。
本公开实施例中,将所述批量任务输入预先训练好的模型,所述模型根据待完成任务的目标进行运算以完成所述待完成任务。
在一种可能的实施例中,所述模型为循环神经网络模型。
在一种可能的实施例中,所述待完成任务为文本翻译任务或文本生成任务,所述文本翻译任务为将待翻译文本翻译为指定语言的文本的任务,所述文本生成任务为根据输入的初始文本生成后续文本的任务。
步骤103:根据所述批量任务中待完成任务的完成进度调度所述待完成任务。
本公开实施例中,所述批量任务中待完成任务在执行时,由模型经过至少一次推理运算获取任务结果,每次循环中进行一次推理运算,所述批量任务中的所有待完成任务为并行进行推理运算。由于完成不同的待完成任务所需要的推理运算次数不同,为了高效地输出任务结果,在每个循环结束后根据待完成任务的完成进度调度所述待完成任务,将已经完成的待完成任务移出所述批量任务,降低了待完成任务的时延。
本公开实施例根据所述待完成任务的完成进度进行调度,结束对已完成任务的处理,避免计算资源浪费在已经完成的待完成任务上,降低任务完成的时延,提升任务处理效率。
可选的,所述根据待完成任务生成批量任务后,还包括:
将所述批量任务输入第一缓冲区。
本公开实施例中,在缓存空间中设置第一缓存区以存储所述批量任务中的待完成任务,所述第一缓存区中的待完成任务为还未完成的任务,即需要输入模型进行推理运算的任务,在生成所述批量任务后将所述批量任务输入所述第一缓存区。
图2是根据本公开实施例提供的一种批量任务处理方法的示意图,如图2所示,图1中的步骤103中包括以下步骤:
步骤201:获取所述第一缓冲区中的已完成任务并输入第二缓冲区,所述已完成任务为执行完毕的待完成任务;
本公开实施例中,在缓存空间中设置第二缓存区以存储已完成任务,当上层调度模块在每次循环后扫描所述第一缓冲区,识别到所述第一缓冲区中存在已完成任务后,将所述已完成任务转入所述第二缓存区。
步骤201:输出所述已完成任务的任务结果并删除所述第二缓冲区中的已完成任务。
本公开实施例中,上层调度模块在每次循环后扫描所述第二缓冲区,如果识别到存在所述已完成任务,则立即生成所述已完成任务对应的任务结果,输出所述任务结果后清空所述第二缓冲区,之后再进行下一轮循环。
本公开实施例通过所述第二缓冲区将已经完成的待完成任务在完成后及时从批量任务中转移出来,避免计算资源浪费,提高了获取任务结果的效率。
可选的,所述执行所述批量任务中的待完成任务,包括:
根据所述待完成任务进行推理运算,以生成子结果。
本公开实施例中,通过所述模型对所述待完成任务进行推理运算,每次循环进行的一次推理运算可以并生成所述待完成任务对应的一个子结果。
在一种可能的实施例中,所述待完成任务为文本翻译任务。每次循环中,将所述待完成任务输入模型后,模型根据待完成任务的文本进行推理运算,以获取对应的一个翻译词,也即所述子结果。
可选的,所述获取所述第一缓冲区中的已完成任务并输入第二缓冲区,包括:
获取所述待完成任务的子结果数量阈值;
根据子结果数量和所述子结果数量阈值确定已完成任务。
本公开实施例中,所述模型可以预先得到所述待完成结果中子结果的最大数量,即所述子结果数量阈值。上层调度模块从模型中获取所述子结果数量阈值以判断第一缓冲区中是否存在已完成任务。
可选的,所述根据子结果数量和所述子结果数量阈值确定已完成任务,包括:
如果所述子结果数量与所述子结果数量阈值相等,则确定所述待完成任务为所述已完成任务。
本公开实施例中,在每次循环结束后,上层调度模块检测第一缓冲区,以获取待完成任务所述子结果的数量。对于一个待完成任务,如果子结果数量与所述子结果数量阈值相等,说明该待完成任务中已经完全执行了对应的推理运算,可以确定为已完成任务。如果所述子结果数量小于所述子结果数量阈值,说明该待完成任务还未完全执行对应的推理运算,需要在下一次循环中继续输入模型进行推理运算。
可选的,所述方法还包括:
将所述已完成任务对应的子结果按生成顺序排列以生成所述任务结果。
本公开实施例中,所述模型在执行推理运算时,按照词的语法逻辑顺序进行运算以生成各个子结果,所以将所述已完成任务输入第二缓冲区后,需要根据所述子结果的生成顺序将对应的子结果排列,生成所述任务结果。
在一种可能的实施例中,所述待完成任务为翻译任务,所述子结果数量阈值为4,说明翻译后句子的最大长度为4个词,即需要生成4个子结果。在第4次循环后所述子结果数量等于所述子结果数量阈值,所述模型即可完成所述待完成任务的推理运算,则上层调度模块确定其为已完成任务,并输入第二缓冲区中。将4个子结果(4个翻译结果)按照生成的顺序排列后即可生成所述任务结果,即翻译结果。
所述方法还包括:
响应于所述待完成任务中包括完成标识,确定所述待完成任务为已完成任务。
本公开实施例中,可以根据完成标识确定已完成任务,模型对所述待完全执行对应的推理运算后,会生成完成标识,上层调度模块在每次循环后对待完成任务进行检测,如果包含所述完成标识,则确定所述待完成任务为已完成任务。
在一种可能的实施例中,所述完成标识为句子结束符。
可选的,所述方法还包括:
响应于新增任务请求,将新增待完成任务加入所述批量任务中。
本公开实施例中,由于不同待完成任务完成所需要的循环次数不同,子结果数量较少的任务在完成后被转出所述第一缓冲区,系统中就空缺出足够的计算资源支持模型进行推理运算,为了有效地利用计算资源。用户在发出初始的请求后,可以发送所述新增任务请求,上层调度模块可以在所述待完成任务完成后,根据新增任务请求将新增待完成任务加入所述批量任务中,即输入所述第一缓冲区以根据所述模型对所述新增待完成任务进行推理运算。
图3是根据本公开实施例提供的一种批量任务处理方法的示意图,如图3所示,所述方法包括以下步骤:
首先,上层调度模块根据当前时刻用户请求的数量,将待完成任务组合成一个大小为N的Batch,并将该Batch输入训练好的词生成模型中。在一种可能的实施例中,这N个待完成任务分别需要生成1~N个词,即子结果,在待完成任务中,生成词的数量和通过模型循环进行推理运算的次数相同。
其次,分配“计算”缓冲区和“完成”缓冲区,所述“计算”缓冲区即第一缓冲区,所述“完成”缓冲区即第二缓冲区。系统开始运行时,“计算”缓冲区中有当前Batch中所有的待完成任务,“完成”缓冲区为空。
每一轮循环开始时,调度模块会将“计算”缓冲区中的待完成任务一起输入模型中进行推理运算,并在模型进行一次推理运算后,检查“计算”缓冲区中的待完成任务是否完成,若完成生成,则确定该待完成任务为已完成任务并将已完成任务从“计算”缓冲区转入“完成”缓冲区。一旦上层调度模块发现“完成”缓冲区中有任务,则会立即将生成结果返回给用户,并清空“完成”缓冲区,循环结束。
以上面生成1~N个词的Batch为例,在第一次循环时,整个大小为N的Batch都要输入模型进行推理运算,在第一个循环结束后,上层调度模块发现生成1个词的任务结束了,于是将它放入“完成”缓冲区,在第二次循环时,“计算”缓冲区中剩下的N-1个待完成任务继续计算,同时将“完成”缓冲区中生成的任务结果返回给用户,在当前循环结束后,生成2个词的任务也可以放入“完成”缓冲区了,以此类推,直到第N次循环时,只会有生成N个词的任务在计算。
若每生成一个词的时延为t,之前整个Batch中所有任务的推理时延为Nt,使用本申请提出的提前退出的调度方法,最低能将平均时延降低50%,此时平均时延为(1+N)t/2。并且因为还包括Batch中的任务减少,内核Kernel层执行时间也会减少,后面推理会越来越快。
图4是根据本公开实施例提供的一种批量任务处理装置的结构示意图,如图4所示,所述装置包括以下模块:
批量任务生成模块410,用于根据待完成任务生成批量任务。
任务执行模块420,用于执行所述批量任务中的待完成任务。
任务调度模块430,用于根据所述批量任务中待完成任务的完成进度调度所述待完成任务。
可选的,所述装置还包括:
输入模块,用于将所述批量任务输入第一缓冲区。
图5是根据本公开实施例提供的一种批量任务处理装置的结构示意图,如图5所示,所述任务调度模块包括以下模块:
调度子模块510,用于获取所述第一缓冲区中的已完成任务并输入第二缓冲区,所述已完成任务为执行完毕的待完成任务;
输出子模块520,用于输出所述已完成任务的任务结果并删除所述第二缓冲区中的已完成任务。
可选的,所述任务执行模块包括:
运算子模块,用于根据所述待完成任务进行推理运算,以生成子结果。
可选的,所述调度子模块包括:
阈值获取模块,用于获取所述待完成任务的子结果数量阈值;
第一任务识别单元,用于根据子结果数量和所述子结果数量阈值确定已完成任务。
可选的,所述任务识别单元,包括:
任务识别子单元,如果所述子结果数量与所述子结果数量阈值相等,则确定所述待完成任务为所述已完成任务。
可选的,所述装置还包括:
第二任务识别单元,用于响应于所述待完成任务中包括完成标识,确定所述待完成任务为已完成任务。
可选的,所述装置还包括:
结果获取子单元,用于将所述已完成任务对应的子结果按生成顺序排列以生成所述任务结果。
可选的,所述装置还包括:
任务添加模块,用于响应于新增任务请求,将新增待完成任务加入所述批量任务中。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图6示出了可以用来实施本公开的实施例的示例电子设备600的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图6所示,设备600包括计算单元601,其可以根据存储在只读存储器(ROM)602中的计算机程序或者从存储单元608加载到随机访问存储器(RAM)603中的计算机程序,来执行各种适当的动作和处理。在RAM 603中,还可存储设备600操作所需的各种程序和数据。计算单元601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
设备600中的多个部件连接至I/O接口605,包括:输入单元606,例如键盘、鼠标等;输出单元607,例如各种类型的显示器、扬声器等;存储单元608,例如磁盘、光盘等;以及通信单元609,例如网卡、调制解调器、无线通信收发机等。通信单元609允许设备600通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元601可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元601的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元601执行上文所描述的各个方法和处理,例如所述批量任务处理方法。例如,在一些实施例中,所述批量任务处理方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元608。在一些实施例中,计算机程序的部分或者全部可以经由ROM 602和/或通信单元609而被载入和/或安装到设备600上。当计算机程序加载到RAM 603并由计算单元601执行时,可以执行上文描述的所述批量任务处理方法的一个或多个步骤。备选地,在其他实施例中,计算单元601可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行所述批量任务处理方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、互联网和区块链网络。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (21)
1.一种批量任务处理的方法,其中,包括:
根据待完成任务生成批量任务;
执行所述批量任务中的待完成任务;
根据所述批量任务中待完成任务的完成进度调度所述待完成任务。
2.根据权利要求1所述的方法,其中,所述根据待完成任务生成批量任务后,还包括:
将所述批量任务输入第一缓冲区。
3.根据权利要求2所述的方法,其中,所述根据所述批量任务中待完成任务的完成进度调度所述待完成任务,包括:
获取所述第一缓冲区中的已完成任务并输入第二缓冲区,所述已完成任务为执行完毕的待完成任务;
输出所述已完成任务的任务结果并删除第二缓冲区中的已完成任务。
4.根据权利要求3所述的方法,其中,所述执行所述批量任务中的待完成任务,包括:
根据所述待完成任务进行推理运算,以生成子结果。
5.根据权利要求4所述的方法,其中,所述获取所述第一缓冲区中的已完成任务并输入第二缓冲区,包括:
获取所述待完成任务的子结果数量阈值;
根据子结果数量和所述子结果数量阈值确定已完成任务。
6.根据权利要求5所述的方法,其中,所述根据子结果数量和所述子结果数量阈值确定已完成任务,包括:
如果所述子结果数量与所述子结果数量阈值相等,则确定所述待完成任务为所述已完成任务。
7.根据权利要求5所述的方法,其中,所述方法还包括:
响应于所述待完成任务中包括完成标识,确定所述待完成任务为已完成任务。
8.根据权利要求6或7所述的方法,其中,所述方法还包括:
将所述已完成任务对应的子结果按生成顺序排列以生成所述任务结果。
9.根据权利要求1所述的方法,其中,所述方法还包括:
响应于新增任务请求,将新增待完成任务加入所述批量任务中。
10.一种批量任务处理的装置,包括:
批量任务生成模块,用于根据待完成任务生成批量任务;
任务执行模块,用于执行所述批量任务中的待完成任务;
任务调度模块,用于根据所述批量任务中待完成任务的完成进度调度所述待完成任务。
11.根据权利要求10所述的装置,其中,所述装置还包括:
输入模块,用于将所述批量任务输入第一缓冲区。
12.根据权利要求11所述的装置,其中,所述任务调度模块包括:
调度子模块,用于获取所述第一缓冲区中的已完成任务并输入第二缓冲区,所述已完成任务为执行完毕的待完成任务;
输出子模块,用于输出所述已完成任务的任务结果并删除第二缓冲区中的已完成任务。
13.根据权利要求12所述的装置,其中,所述任务执行模块包括:
运算子模块,用于根据所述待完成任务进行推理运算,以生成子结果。
14.根据权利要求13所述的装置,其中,所述调度子模块包括:
阈值获取模块,用于获取所述待完成任务的子结果数量阈值;
第一任务识别单元,用于根据子结果数量和所述子结果数量阈值确定已完成任务。
15.根据权利要求14所述的装置,其中,所述任务识别单元,包括:
任务识别子单元,如果所述子结果数量与所述子结果数量阈值相等,则确定所述待完成任务为所述已完成任务。
16.根据权利要求14所述的装置,其中,所述装置还包括:
第二任务识别单元,用于响应于所述待完成任务中包括完成标识,确定所述待完成任务为已完成任务。
17.根据权利要求15或16所述的装置,其中,所述装置还包括:
结果获取子单元,用于将所述已完成任务对应的子结果按生成顺序排列以生成所述任务结果。
18.根据权利要求10所述的装置,其中,所述装置还包括:
任务添加模块,用于响应于新增任务请求,将新增待完成任务加入所述批量任务中。
19.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-9中任一项所述的方法。
20.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-9中任一项所述的方法。
21.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-9中任一项所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210547456.4A CN114860410A (zh) | 2022-05-19 | 2022-05-19 | 批量任务处理的方法、装置及电子设备 |
PCT/CN2022/123597 WO2023221370A1 (zh) | 2022-05-19 | 2022-09-30 | 批量任务处理的方法、装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210547456.4A CN114860410A (zh) | 2022-05-19 | 2022-05-19 | 批量任务处理的方法、装置及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114860410A true CN114860410A (zh) | 2022-08-05 |
Family
ID=82638927
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210547456.4A Pending CN114860410A (zh) | 2022-05-19 | 2022-05-19 | 批量任务处理的方法、装置及电子设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN114860410A (zh) |
WO (1) | WO2023221370A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023221370A1 (zh) * | 2022-05-19 | 2023-11-23 | 北京百度网讯科技有限公司 | 批量任务处理的方法、装置及电子设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102831012A (zh) * | 2011-06-16 | 2012-12-19 | 日立(中国)研究开发有限公司 | 多节点分布式系统中的任务调度装置和任务调度方法 |
CN113986488A (zh) * | 2021-10-20 | 2022-01-28 | 北京爱芯科技有限公司 | 计算任务的调度方法、装置、计算机设备及存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9983901B2 (en) * | 2014-07-09 | 2018-05-29 | Google Llc | Dynamic shard allocation adjustment |
CN110968420A (zh) * | 2018-09-30 | 2020-04-07 | 北京国双科技有限公司 | 一种多爬虫平台的调度方法、装置、存储介质及处理器 |
US11380306B2 (en) * | 2019-10-31 | 2022-07-05 | International Business Machines Corporation | Iterative intent building utilizing dynamic scheduling of batch utterance expansion methods |
CN112948079B (zh) * | 2021-02-18 | 2022-06-28 | 北京百度网讯科技有限公司 | 任务调度方法、装置、设备和计算机存储介质 |
CN114138447A (zh) * | 2021-12-08 | 2022-03-04 | 北京百度网讯科技有限公司 | 任务处理方法、装置、设备以及存储介质 |
CN114860410A (zh) * | 2022-05-19 | 2022-08-05 | 北京百度网讯科技有限公司 | 批量任务处理的方法、装置及电子设备 |
-
2022
- 2022-05-19 CN CN202210547456.4A patent/CN114860410A/zh active Pending
- 2022-09-30 WO PCT/CN2022/123597 patent/WO2023221370A1/zh unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102831012A (zh) * | 2011-06-16 | 2012-12-19 | 日立(中国)研究开发有限公司 | 多节点分布式系统中的任务调度装置和任务调度方法 |
CN113986488A (zh) * | 2021-10-20 | 2022-01-28 | 北京爱芯科技有限公司 | 计算任务的调度方法、装置、计算机设备及存储介质 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023221370A1 (zh) * | 2022-05-19 | 2023-11-23 | 北京百度网讯科技有限公司 | 批量任务处理的方法、装置及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
WO2023221370A1 (zh) | 2023-11-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113656179B (zh) | 云计算资源的调度方法及装置、电子设备和存储介质 | |
CN111866085B (zh) | 基于区块链的数据存储方法、系统和装置 | |
CN114298322B (zh) | 联邦学习方法和装置、系统、电子设备、计算机可读介质 | |
CN111400000A (zh) | 网络请求处理方法、装置、设备和存储介质 | |
CN112925587A (zh) | 用于初始化应用的方法和装置 | |
CN115203126B (zh) | 一种算子融合处理方法、装置、设备及存储介质 | |
CN112507102A (zh) | 基于预训练范式模型的预测部署系统、方法、装置及介质 | |
CN114860410A (zh) | 批量任务处理的方法、装置及电子设备 | |
CN114547492A (zh) | 生成模型的训练方法、文案生成方法、装置、设备和介质 | |
CN112329919B (zh) | 模型训练方法及装置 | |
CN114579187B (zh) | 一种指令分配方法、装置、电子设备及可读存储介质 | |
CN117055851A (zh) | 一种软件架构恢复方法、装置、电子设备及存储介质 | |
CN116932147A (zh) | 流式作业处理方法、装置、电子设备及介质 | |
CN111598571A (zh) | 区块链的事务处理方法、装置、设备和存储介质 | |
CN114327802B (zh) | 区块链访问链外数据的方法、装置、设备和介质 | |
CN114742035B (zh) | 基于注意力机制优化的文本处理方法、网络模型训练方法 | |
CN113656689B (zh) | 模型生成方法和网络信息的推送方法 | |
CN113408304B (zh) | 文本翻译方法、装置、电子设备及存储介质 | |
CN115934550A (zh) | 一种测试方法、装置、电子设备及存储介质 | |
CN113239054A (zh) | 信息生成方法、相关装置及计算机程序产品 | |
WO2020236360A1 (en) | Remote operations application programming interface | |
CN115759260B (zh) | 深度学习模型的推理方法、装置、电子设备和存储介质 | |
CN114067483B (zh) | 智能排队叫号方法、装置、电子设备及介质 | |
CN114331379B (zh) | 用于输出待办任务的方法、模型训练方法和装置 | |
CN117632431A (zh) | 云计算任务的调度方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |