CN108920274A - 用于图像处理服务器端的性能优化及装置 - Google Patents

用于图像处理服务器端的性能优化及装置 Download PDF

Info

Publication number
CN108920274A
CN108920274A CN201810645941.9A CN201810645941A CN108920274A CN 108920274 A CN108920274 A CN 108920274A CN 201810645941 A CN201810645941 A CN 201810645941A CN 108920274 A CN108920274 A CN 108920274A
Authority
CN
China
Prior art keywords
deep learning
reasoning
image processing
programming interface
graphics processors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810645941.9A
Other languages
English (en)
Other versions
CN108920274B (zh
Inventor
赵昊
张默
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Moshanghua Technology Co ltd
Original Assignee
Beijing Moshanghua Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Moshanghua Technology Co ltd filed Critical Beijing Moshanghua Technology Co ltd
Priority to CN201810645941.9A priority Critical patent/CN108920274B/zh
Publication of CN108920274A publication Critical patent/CN108920274A/zh
Application granted granted Critical
Publication of CN108920274B publication Critical patent/CN108920274B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/96Management of image or video recognition tasks

Abstract

本申请公开了一种用于图像处理服务器端的性能优化及装置。该方法包括接收图像处理请求;以及通过预设应用程序编程接口在深度学习推理框架中分配多个图形处理器的负载均衡。本申请解决了服务器端的性能较差的技术问题。本申请可提高服务器端的性能。

Description

用于图像处理服务器端的性能优化及装置
技术领域
本申请涉及计算机视觉技术领域,具体而言,涉及一种用于图像处理服务器端的性能优化及装置。
背景技术
深度学习的发展和深层次网络的出现大大增加了计算机视觉领域的图片分类和物体识别的准确率,并加速了计算机视觉领域的发展。
应用到现实场景中时,不管是服务器端还是移动端,在准确率达到一定标准的同时,模型的处理效率和资源利用率也是一个同样重要的标准。
针对相关技术中服务器端的性能较差的问题,目前尚未提出有效的解决方案。
发明内容
本申请的主要目的在于提供一种用于图像处理服务器端的性能优化方法,以解决服务器端的性能较差的问题。
为了实现上述目的,根据本申请的一个方面,提供了一种用于图像处理服务器端的性能优化方法。
根据本申请的用于图像处理服务器端的性能优化方法包括:接收图像处理请求;以及通过预设应用程序编程接口在深度学习推理框架中分配多个图形处理器的负载均衡。
进一步地,方法还包括:通过预设应用程序编程接口在深度学习推理框架中同时使用多个图形处理器。
进一步地,通过预设应用程序编程接口在深度学习推理框架中同时使用多个图形处理器包括:通过深度学习推理框架在可用的多个所述图形处理器中加载统一的深度学习网络模型。
进一步地,通过预设应用程序编程接口在深度学习推理框架中同时使用多个图形处理器之后还包括:建立服务器端的网络接口,并将通过预设应用程序编程接口在深度学习推理框架中同时使用多个图形处理器的功能加入到所述网络接口。
进一步地,接收图像处理请求包括:在服务器中接收用户请求并通过运行深度学习网络模型处理所述用户请求,所述深度学习网络模型包括:caffe的模型或者tensorflow的模型。
进一步地,接收图像处理请求中至少包括:图像的统一资源定位符。
进一步地,通过预设应用程序编程接口在深度学习推理框架中分配多个图形处理器的负载均衡包括:在多个可用图形处理器中,根据图形处理器预设分配策略选择图形处理器。
为了实现上述目的,根据本申请的另一方面,提供了一种用于图像处理服务器端的性能优化装置。
根据本申请的用于图像处理服务器端的性能优化装置包括:接收模块,用于接收图像处理请求;以及第一执行处理模块,用于通过预设应用程序编程接口在深度学习推理框架中分配多个图形处理器的负载均衡。
进一步地,装置还包括:第二执行处理模块,
所述第二执行处理模块,用于通过预设应用程序编程接口在深度学习推理框架中同时使用多个图形处理器。
进一步地,装置还包括网络接口模块,用于在服务器端网络接口加入通过深度学习推理框架在可用的多个所述图形处理器中加载统一的深度学习网络模型的功能。
在本申请实施例中,采用接收图像处理请求的方式,通过通过预设应用程序编程接口在深度学习推理框架中分配多个图形处理器的负载均衡,达到了图形处理器资源优化配置的目的,从而实现了服务器性能优化的技术效果,进而解决了服务器端的性能较差的技术问题。
附图说明
构成本申请的一部分的附图用来提供对本申请的进一步理解,使得本申请的其它特征、目的和优点变得更明显。本申请的示意性实施例附图及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请第一实施例的用于图像处理服务器端的性能优化方法示意图;
图2是根据本申请第二实施例的用于图像处理服务器端的性能优化方法示意图;
图3是根据本申请第三实施例的用于图像处理服务器端的性能优化方法示意图
图4是根据本申请第四实施例的用于图像处理服务器端的性能优化方法示意图
图5是根据本申请第五实施例的用于图像处理服务器端的性能优化方法示意图;
图6是根据本申请第一实施例的用于图像处理服务器端的性能优化装置示意图;
图7是根据本申请第二实施例的用于图像处理服务器端的性能优化装置示意图;以及
图8是根据本申请第三实施例的用于图像处理服务器端的性能优化装置示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
在本申请中,术语“上”、“下”、“左”、“右”、“前”、“后”、“顶”、“底”、“内”、“外”、“中”、“竖直”、“水平”、“横向”、“纵向”等指示的方位或位置关系为基于附图所示的方位或位置关系。这些术语主要是为了更好地描述本申请及其实施例,并非用于限定所指示的装置、元件或组成部分必须具有特定方位,或以特定方位进行构造和操作。
并且,上述部分术语除了可以用于表示方位或位置关系以外,还可能用于表示其他含义,例如术语“上”在某些情况下也可能用于表示某种依附关系或连接关系。对于本领域普通技术人员而言,可以根据具体情况理解这些术语在本申请中的具体含义。
此外,术语“安装”、“设置”、“设有”、“连接”、“相连”、“套接”应做广义理解。例如,可以是固定连接,可拆卸连接,或整体式构造;可以是机械连接,或电连接;可以是直接相连,或者是通过中间媒介间接相连,又或者是两个装置、元件或组成部分之间内部的连通。对于本领域普通技术人员而言,可以根据具体情况理解上述术语在本申请中的具体含义。
本申请中的性能优化方法,通过预设应用程序编程接口在深度学习推理框架中分配多个图形处理器的负载均衡,具体提出的深度学习推理框架多GPU分配策略和功能可以提高用户请求的处理效率到原来单个GPU效率的n倍,n为GPU的个数,解决了服务器端应用大型深度学习网络模型处理用户请求效率慢的问题,同时更大限度上利用了所有可分配的GPU资源。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
如图1所示,该方法包括如下的步骤S102至步骤S104:
步骤S102,接收图像处理请求;以及
步骤S104,通过预设应用程序编程接口在深度学习推理框架中分配多个图形处理器的负载均衡。
需要注意的是,深度学习推理框架本身目前只支持在单个GPU上运行网络模型,并不支持多GPU上同时运行同一个网络模型比如GPU集群。故,因此当服务器有多个GPU时,深度学习推理框架并不能将全部GPU资源都利用到,资源利用比例较低。但通过服务器通过预设应用程序编程接口在深度学习推理框架中使用多个所述图形处理器时执行负载均衡操作,能够提高GPU的资源利用率。进一步可实现GPU上同时运行同一个网络模型。
作为本实施例中的优选,所述预设应用程序编程接口包括:PyCUDA。PyCUDA为提供了使用Nvidia CUDA并行计算的接口即应用程序编程接口API。需要注意的是,本领域技术人员能够根据需要对应用程序编程接口API进行调用。
作为本实施例中的优选,所述深度学习推理框架包括:TensorRT。通过PyCUDA在深度学习推理框架中使用多个所述图形处理器时执行负载均衡操作。
还需要注意的是,现有的在服务器端接收请求时,TensorRT只能使用到默认的gpu0用来处理请求,通过本申请实施例中的图像信息处理方法通过新增的TensorRT指定GPU和使用多个GPU的功能,TensorRT既可以同时使用多个GPU增加请求处理效率,又可以通过GPU分配策略实现GPU的负载均衡,使GPU智能的被分配。
从以上的描述中,可以看出,本申请实现了如下技术效果:
在本申请实施例中,采用接收图像处理请求的方式,通过通过预设应用程序编程接口在深度学习推理框架中分配多个图形处理器的负载均衡,达到了图形处理器资源优化配置的目的,从而实现了服务器性能优化的技术效果,进而解决了服务器端的性能较差的技术问题。
优选地,本申请实施例中提出的TensorRT多GPU分配策略和功能可以提高用户请求的处理效率到原来单个GPU效率的n倍,n为GPU的个数,解决了服务器端应用大型深度学习网络模型处理用户请求效率慢的问题,同时更大限度上利用了所有可分配的GPU资源。
根据本申请实施例,优选地,如图2所示,该方法包括:
步骤S102,接收图像处理请求;
步骤S104,通过预设应用程序编程接口在深度学习推理框架中分配多个图形处理器的负载均衡;
步骤S202,通过预设应用程序编程接口在深度学习推理框架中同时使用多个图形处理器。
在TensorRT现有的功能之上,拓展了TensorRT从可用的多GPU上选择指定的GPU加载深度学习网络模型的功能。
根据本申请实施例,优选地,如图3所示,该方法包括:通过预设应用程序编程接口在深度学习推理框架中同时使用多个图形处理器包括:
步骤S102,接收图像处理请求;
步骤S104,通过预设应用程序编程接口在深度学习推理框架中分配多个图形处理器的负载均衡;
步骤S202,通过预设应用程序编程接口在深度学习推理框架中同时使用多个图形处理器,
步骤S2021,通过深度学习推理框架在可用的多个所述图形处理器中加载统一的深度学习网络模型;
通过深度学习推理框架在可用的多个所述图形处理器中加载统一的深度学习网络模型,增加了在多个GPU上一起加载同一模型的功能。
根据本申请实施例,优选地,如图4所示,该方法包括:通过预设应用程序编程接口在深度学习推理框架中同时使用多个图形处理器之后还包括:
步骤S2022,建立服务器端的网络接口,并将通过预设应用程序编程接口在深度学习推理框架中同时使用多个图形处理器的功能加入到所述网络接口。
优选地,所述图形处理器用于在服务器中接收用户请求至少包括:网络接口调用请求。通过结合使用比如Web Service包和TensorRT,可以实现在服务器端起一个网络函数接口。本申请的实施例的方法,将多GPU同时运行TensorRT功能加入到服务器端的网络接口中。这样,在服务器端当接收用户请求和在服务器端运行深度学习网络模型来处理请求时,实现网络接口的调用。
需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
根据本申请实施例,还提供了一种用于实施上述用于图像处理服务器端的性能优化方法的装置,如图6所示,该装置包括:接收模块100,用于接收图像处理请求;以及第一执行处理模块200,用于通过预设应用程序编程接口在深度学习推理框架中分配多个图形处理器的负载均衡。
需要注意的是,深度学习推理框架本身目前只支持在单个GPU上运行网络模型,并不支持多GPU上同时运行同一个网络模型比如GPU集群。故,因此当服务器有多个GPU时,深度学习推理框架并不能将全部GPU资源都利用到,资源利用比例较低。但通过服务器通过预设应用程序编程接口在深度学习推理框架中使用多个所述图形处理器时执行负载均衡操作,能够提高GPU的资源利用率。进一步可实现GPU上同时运行同一个网络模型。
作为本实施例中的优选,所述预设应用程序编程接口包括:PyCUDA。PyCUDA为提供了使用Nvidia CUDA并行计算的接口即应用程序编程接口API。需要注意的是,本领域技术人员能够根据需要对应用程序编程接口API进行调用。
作为本实施例中的优选,所述深度学习推理框架包括:TensorRT。通过PyCUDA在深度学习推理框架中使用多个所述图形处理器时执行负载均衡操作。
还需要注意的是,现有的在服务器端接收请求时,TensorRT只能使用到默认的gpu0用来处理请求,通过本申请实施例中的图像信息处理方法通过新增的TensorRT指定GPU和使用多个GPU的功能,TensorRT既可以同时使用多个GPU增加请求处理效率,又可以通过GPU分配策略实现GPU的负载均衡,使GPU智能的被分配。
根据本申请实施例,优选地,如图7所示,装置还包括:第二执行处理模块,所述第二执行处理模块,用于通过预设应用程序编程接口在深度学习推理框架中同时使用多个图形处理器。
在TensorRT现有的功能之上,拓展了TensorRT从可用的多GPU上选择指定的GPU加载深度学习网络模型的功能。
根据本申请实施例,优选地,如图8所示,装置还包括网络接口模块,用于在服务器端网络接口加入通过深度学习推理框架在可用的多个所述图形处理器中加载统一的深度学习网络模型的功能。
通过深度学习推理框架在可用的多个所述图形处理器中加载统一的深度学习网络模型,增加了在多个GPU上一起加载同一模型的功能。
具体地,本申请的实现原理如下:
以预设应用程序编程接口PyCUDA和深度学习推理框架TensorRT为例进行解释说明。
步骤一,通过使用Pycuda实现TensorRT在指定的一个GPU上加载来自其他框架已经训练好的深度学习网络模型(caffe的模型或者tensorflow的模型)并运行加载好的模型,比如有gpu0,gpu1,gpu2,gpu3,指定TensorRT在gpu2上加载和运行caffe的ResNet分类模型。
步骤二,在第一个功能的基础上,使用Pycuda实现TensorRT在指定的多个gpu上同时加载同一个深度学习网络模型,比如让TensorRT在gpu0,gpu1,gpu2上加载同一个caffe的ResNet分类模型。
步骤三,通过结合使用Web Service包和TensorRT,实现在服务器端起一个网络函数接口,可以用来接收用户传送的图片url并通过图片链接下载用户想要分析的图片,并输入给加载到TensorRT里(此时使用的是TensorRT默认的gpu0)已经训练好的深度学习网络模型里,运行TensorRT来分析和提取图片信息,将网络模型的输出结果可以使图片分类的类别,也可以是图片中物体的类别和位置信息返回给用户。
需要注意的是,第三步骤中的Web Service包是个统称,用来实现网络接口服务。本领域技术人员能够明了,也可以使用包括flask。
步骤四,结合第二步和第三步的功能,将多gpu同时运行TensorRT功能加入到服务器端的网络接口中。
需要注意的是,第四步骤的gpu智能分配策略可以替换成为其它分配方式,比如按顺序分配:a,b,c之后继续a,b,c。记录gpu分配到的请求个数的方式也可以变成选择使用全局变量计数而不是本地数据库。
步骤五,通过使用数据库记录每一个gpu已经被分配到的请求个数实现智能选择gpu运行TensorRT的策略.假设有a,b,c三个gpu,最开始接收到的请求个数都为0,这时随机从三个中分配一个处理请求,当a的请求个数为1,b和c都为0时,随机从b和c中分配一个gpu来处理请求,也就是说总是要让请求个数少的gpu上的TensorRT模型优先被分配。
步骤六,通过上述策略实现服务器端接收请求时,多gpu上的TensorRT并行计算,还有gpu的负载均衡。增加了服务器上的所有gpu资源使用率,提高了用户请求的处理效率。
显然,本领域的技术人员应该明白,上述的本申请的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本申请不限制于任何特定的硬件和软件结合。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (10)

1.一种用于图像处理服务器端的性能优化方法,其特征在于,包括:
接收图像处理请求;以及
通过预设应用程序编程接口在深度学习推理框架中分配多个图形处理器的负载均衡。
2.根据权利要求1所述的性能优化方法,其特征在于,还包括:通过预设应用程序编程接口在深度学习推理框架中同时使用多个图形处理器。
3.根据权利要求2所述的性能优化方法,其特征在于,通过预设应用程序编程接口在深度学习推理框架中同时使用多个图形处理器包括:
通过深度学习推理框架在可用的多个所述图形处理器中加载统一的深度学习网络模型。
4.根据权利要求2所述的性能优化方法,其特征在于,通过预设应用程序编程接口在深度学习推理框架中同时使用多个图形处理器之后还包括:建立服务器端的网络接口,并将通过预设应用程序编程接口在深度学习推理框架中同时使用多个图形处理器的功能加入到所述网络接口。
5.根据权利要求1所述的性能优化方法,其特征在于,接收图像处理请求包括:在服务器中接收用户请求并通过运行深度学习网络模型处理所述用户请求,所述深度学习网络模型包括:caffe的模型或者tensorflow的模型。
6.根据权利要求1所述的性能优化方法,其特征在于,接收图像处理请求中至少包括:图像的统一资源定位符。
7.根据权利要求1所述的性能优化方法,其特征在于,通过预设应用程序编程接口在深度学习推理框架中分配多个图形处理器的负载均衡包括:在多个可用图形处理器中,根据图形处理器预设分配策略选择图形处理器。
8.一种用于图像处理服务器端的性能优化装置,其特征在于,包括:
接收模块,用于接收图像处理请求;以及
第一执行处理模块,用于通过预设应用程序编程接口在深度学习推理框架中分配多个图形处理器的负载均衡。
9.根据权利要求8所述的性能优化装置,其特征在于,还包括:第二执行处理模块,
所述第二执行处理模块,用于通过预设应用程序编程接口在深度学习推理框架中同时使用多个图形处理器。
10.根据权利要求9所述的性能优化装置,其特征在于,还包括网络接口模块,用于在服务器端网络接口加入通过深度学习推理框架在可用的多个所述图形处理器中加载统一的深度学习网络模型的功能。
CN201810645941.9A 2018-06-21 2018-06-21 用于图像处理服务器端的性能优化及装置 Active CN108920274B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810645941.9A CN108920274B (zh) 2018-06-21 2018-06-21 用于图像处理服务器端的性能优化及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810645941.9A CN108920274B (zh) 2018-06-21 2018-06-21 用于图像处理服务器端的性能优化及装置

Publications (2)

Publication Number Publication Date
CN108920274A true CN108920274A (zh) 2018-11-30
CN108920274B CN108920274B (zh) 2021-05-28

Family

ID=64419875

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810645941.9A Active CN108920274B (zh) 2018-06-21 2018-06-21 用于图像处理服务器端的性能优化及装置

Country Status (1)

Country Link
CN (1) CN108920274B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110796242A (zh) * 2019-11-01 2020-02-14 广东三维家信息科技有限公司 神经网络模型推理方法、装置、电子设备及可读介质
CN112351113A (zh) * 2021-01-08 2021-02-09 恒信东方文化股份有限公司 一种负载均衡系统及其方法
CN112905814A (zh) * 2021-03-31 2021-06-04 北京大米科技有限公司 图片处理方法、装置、存储介质及电子设备
CN113038279A (zh) * 2021-03-29 2021-06-25 京东方科技集团股份有限公司 视频转码方法、系统及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160379115A1 (en) * 2015-06-29 2016-12-29 Microsoft Technology Licensing, Llc Deep neural network processing on hardware accelerators with stacked memory
CN106293942A (zh) * 2016-08-10 2017-01-04 中国科学技术大学苏州研究院 基于多机多卡的神经网络负载均衡优化方法和系统
CN107067365A (zh) * 2017-04-25 2017-08-18 中国石油大学(华东) 基于深度学习的分布嵌入式实时视频流处理系统及方法
CN107135257A (zh) * 2017-04-28 2017-09-05 东方网力科技股份有限公司 一种节点集群中任务分配的方法、节点和系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160379115A1 (en) * 2015-06-29 2016-12-29 Microsoft Technology Licensing, Llc Deep neural network processing on hardware accelerators with stacked memory
CN106293942A (zh) * 2016-08-10 2017-01-04 中国科学技术大学苏州研究院 基于多机多卡的神经网络负载均衡优化方法和系统
CN107067365A (zh) * 2017-04-25 2017-08-18 中国石油大学(华东) 基于深度学习的分布嵌入式实时视频流处理系统及方法
CN107135257A (zh) * 2017-04-28 2017-09-05 东方网力科技股份有限公司 一种节点集群中任务分配的方法、节点和系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CSDN: "【Ubuntu-Tensorflow】GPU设置及显存资源分配", 《HTTPS://BLOG.CSDN.NET/LGH0824/ARTICLE/DETAILS/77160440》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110796242A (zh) * 2019-11-01 2020-02-14 广东三维家信息科技有限公司 神经网络模型推理方法、装置、电子设备及可读介质
CN112351113A (zh) * 2021-01-08 2021-02-09 恒信东方文化股份有限公司 一种负载均衡系统及其方法
CN112351113B (zh) * 2021-01-08 2021-04-06 恒信东方文化股份有限公司 一种负载均衡系统及其方法
CN113038279A (zh) * 2021-03-29 2021-06-25 京东方科技集团股份有限公司 视频转码方法、系统及电子设备
WO2022206960A1 (zh) * 2021-03-29 2022-10-06 京东方科技集团股份有限公司 视频转码方法、系统及电子设备
CN113038279B (zh) * 2021-03-29 2023-04-18 京东方科技集团股份有限公司 视频转码方法、系统及电子设备
CN112905814A (zh) * 2021-03-31 2021-06-04 北京大米科技有限公司 图片处理方法、装置、存储介质及电子设备

Also Published As

Publication number Publication date
CN108920274B (zh) 2021-05-28

Similar Documents

Publication Publication Date Title
CN108920274A (zh) 用于图像处理服务器端的性能优化及装置
US11876856B2 (en) Method for computational-power sharing and related device
CN106453536B (zh) 一种网络请求处理方法、服务器和系统
CN107948578B (zh) 视频会议系统传送带宽及分辨率的调整方法及调整装置
CN103297395B (zh) 一种互联网业务的实现方法、系统以及装置
CN106446049A (zh) 一种页面数据交互装置及方法
CN109033001A (zh) 用于分配gpu的方法和装置
CN110308987B (zh) 一种更新容器云上分布式训练任务连接参数的方法
CN105959090A (zh) 电力无线专网的业务处理方法及装置
CN110308986A (zh) 基于优化调度的容器云上分布式训练数据通信的方法
CN107807935B (zh) 应用推荐方法及装置
CN113259415B (zh) 一种网络报文处理方法、装置及网络服务器
CN112488907A (zh) 数据处理方法及系统
CN109064382A (zh) 图像信息处理方法及服务器
CN106959886A (zh) 一种基于云计算的虚拟机部署管控平台及使用方法
CN117149665B (zh) 持续集成方法、控制设备、持续集成系统及存储介质
CN109361693A (zh) 虚拟设备通信方法和装置
CN109889406A (zh) 用于管理网络连接的方法、装置、设备和存储介质
CN106686635A (zh) 基于无线接入点的控制和配置协议的数据传输方法和装置
CN103299298A (zh) 处理业务的方法和系统
CN105637904A (zh) 针对涉及无线终端和服务器设备的通信会话的业务协调
CN113032113A (zh) 任务调度方法及相关产品
CN106844467A (zh) 数据展示方法和装置
CN116204302A (zh) 一种基于k8s安卓云手机的设备调度方法
CN114125024B (zh) 音频传输方法、电子设备及可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20181130

Assignee: Apple R&D (Beijing) Co., Ltd.

Assignor: BEIJING MOSHANGHUA TECHNOLOGY CO., LTD.

Contract record no.: 2019990000054

Denomination of invention: Method and device for optimizing performance of image processing server end

License type: Exclusive License

Record date: 20190211

EE01 Entry into force of recordation of patent licensing contract
GR01 Patent grant
GR01 Patent grant