CN109064382A - 图像信息处理方法及服务器 - Google Patents
图像信息处理方法及服务器 Download PDFInfo
- Publication number
- CN109064382A CN109064382A CN201810645137.0A CN201810645137A CN109064382A CN 109064382 A CN109064382 A CN 109064382A CN 201810645137 A CN201810645137 A CN 201810645137A CN 109064382 A CN109064382 A CN 109064382A
- Authority
- CN
- China
- Prior art keywords
- deep learning
- server
- reasoning
- image information
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5083—Techniques for rebalancing the load in a distributed system
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种图像信息处理方法及服务器。该方法包括所述服务器通过预设应用程序编程接口在深度学习推理框架中使用多个所述图形处理器时执行负载均衡操作,其中,所述图形处理器用于在服务器中接收用户请求,以及在服务器中通过运行深度学习网络模型处理所述用户请求。本申请解决了模型运行效率较低的技术问题。本申请可提高资源利用率。
Description
技术领域
本申请涉及计算机视觉技术领域,具体而言,涉及一种图像信息处理方法及服务器。
背景技术
深度学习的发展和深层次网络的出现大大增加了计算机视觉领域的图片分类和物体识别的准确率,并加速了计算机视觉领域的发展。
应用到现实场景中时,不管是服务器端还是移动端,在准确率达到一定标准的同时,模型的处理效率和资源利用率也是一个同样重要的标准。
针对相关技术中模型运行效率较低的问题,目前尚未提出有效的解决方案。
发明内容
本申请的主要目的在于提供一种图像信息处理方法及服务器,以解决模型运行效率较低的问题。
为了实现上述目的,根据本申请的一个方面,提供了一种图像信息处理方法。
根据本申请的图像信息处理方法,在服务器部署多个图形处理器,所述方法包括:所述服务器通过预设应用程序编程接口在深度学习推理框架中使用多个所述图形处理器时执行负载均衡操作,其中,所述图形处理器用于在服务器中接收用户请求,以及在服务器中通过运行深度学习网络模型处理所述用户请求。
进一步地,所述预设应用程序编程接口包括:PyCUDA。
进一步地,所述深度学习推理框架包括:TensorRT。
进一步地,所述在服务器中通过运行深度学习网络模型处理所述用户请求包括:经过训练的模型。
进一步地,所述服务器通过预设应用程序编程接口在深度学习推理框架中使用多个所述图形处理器时执行负载均衡操作包括:判断图形处理器是否可用;如果判断图形处理器为可用,则通过深度学习推理框架从可用的多个所述图形处理器中选择出用于加载深度学习网络模型的预设图形处理器。
进一步地,所述服务器通过预设应用程序编程接口在深度学习推理框架中使用多个所述图形处理器时执行负载均衡操作包括:判断图形处理器是否可用以及可用的个数;如果判断图形处理器为可用,则通过深度学习推理框架在可用的多个所述图形处理器中加载统一的深度学习网络模型。
进一步地,所述图形处理器用于在服务器中接收用户请求至少包括:网络接口调用请求。
为了实现上述目的,根据本申请的另一方面,提供了一种图像信息处理服务器。
根据本申请的图像信息处理服务器,部署多个图形处理器,包括:
执行模块,用于通过预设应用程序编程接口在深度学习推理框架中使用多个所述图形处理器时执行负载均衡操作,
其中,所述图形处理器用于在服务器中接收用户请求,以及在服务器中通过运行深度学习网络模型处理所述用户请求。
进一步地,服务器还包括:第一判断单元,用于判断图形处理器是否可用;第一执行单元,用于判断图形处理器为可用时,通过深度学习推理框架从可用的多个所述图形处理器中选择出用于加载深度学习网络模型的预设图形处理器。
进一步地,服务器还包括:第二判断单元,用于判断图形处理器是否可用以及可用的个数;第二执行单元,用于判断图形处理器为可用时,通过深度学习推理框架在多个所述图形处理器中加载统一的深度学习网络模型。
在本申请实施例中,采用在服务器端执行的方式,通过预设应用程序编程接口在深度学习推理框架中使用多个所述图形处理器时执行负载均衡操作,达到了提高图形处理器资源利用率的目的,从而实现了提高图形处理器处理效率的技术效果,进而解决了模型运行效率较低的技术问题。
附图说明
构成本申请的一部分的附图用来提供对本申请的进一步理解,使得本申请的其它特征、目的和优点变得更明显。本申请的示意性实施例附图及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请第一实施例的图像信息处理方法示意图;
图2是根据本申请第二实施例的图像信息处理方法示意图;
图3是根据本申请第三实施例的图像信息处理方法示意图;
图4是根据本申请第一实施例的图像信息处理装置示意图;
图5是根据本申请第二实施例的图像信息处理装置示意图;以及
图6是根据本申请第三施例的图像信息处理装置示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
在本申请中,术语“上”、“下”、“左”、“右”、“前”、“后”、“顶”、“底”、“内”、“外”、“中”、“竖直”、“水平”、“横向”、“纵向”等指示的方位或位置关系为基于附图所示的方位或位置关系。这些术语主要是为了更好地描述本申请及其实施例,并非用于限定所指示的装置、元件或组成部分必须具有特定方位,或以特定方位进行构造和操作。
并且,上述部分术语除了可以用于表示方位或位置关系以外,还可能用于表示其他含义,例如术语“上”在某些情况下也可能用于表示某种依附关系或连接关系。对于本领域普通技术人员而言,可以根据具体情况理解这些术语在本申请中的具体含义。
此外,术语“安装”、“设置”、“设有”、“连接”、“相连”、“套接”应做广义理解。例如,可以是固定连接,可拆卸连接,或整体式构造;可以是机械连接,或电连接;可以是直接相连,或者是通过中间媒介间接相连,又或者是两个装置、元件或组成部分之间内部的连通。对于本领域普通技术人员而言,可以根据具体情况理解上述术语在本申请中的具体含义。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
如图1所示,本申请提供了的图像信息处理方法,在服务器部署多个图形处理器,该方法包括如下的步骤S102至步骤S106:
步骤S102,所述图形处理器用于在服务器中接收用户请求,
步骤S104,在服务器中通过运行深度学习网络模型处理所述用户请求,
步骤S106,所述服务器通过预设应用程序编程接口在深度学习推理框架中使用多个所述图形处理器时执行负载均衡操作。
具体地,本申请通过使用预设应用程序编程接口和深度学习推理框架实现在应用计算机视觉技术去提取图片信息的现实场景中。当使用服务器接收用户请求和运行深度学习网络模型来处理请求时,GPU使用的负载均衡。当使用服务器接收图像信息和服务器中运行深度学习网络模型来提取图片信息时,GPU使用负载均衡。
需要注意的是,深度学习推理框架本身目前只支持在单个GPU上运行网络模型,并不支持多GPU上同时运行同一个网络模型比如GPU集群。故,因此当服务器有多个GPU时,深度学习推理框架并不能将全部GPU资源都利用到,资源利用比例较低。但通过服务器通过预设应用程序编程接口在深度学习推理框架中使用多个所述图形处理器时执行负载均衡操作,能够提高GPU的资源利用率。进一步可实现GPU上同时运行同一个网络模型。
作为本实施例中的优选,所述预设应用程序编程接口包括:PyCUDA。PyCUDA为提供了使用Nvidia CUDA并行计算的接口即应用程序编程接口API。需要注意的是,本领域技术人员能够根据需要对应用程序编程接口API进行调用。
作为本实施例中的优选,所述深度学习推理框架包括:TensorRT。通过PyCUDA在深度学习推理框架中使用多个所述图形处理器时执行负载均衡操作。
TensorRT可将FP32位权值数据优化为FP16或者INT8,而推理精度不发生明显的降低。需要注意的是,TensorRT是NVIDIA开发的深度学习推理工具,只支持推理不支持训练。
优选地,在TensorRT现有的功能之上,本实施例拓展了TensorRT从可用的多GPU上选择指定的GPU加载深度学习网络模型的功能。
上述所述在服务器中通过运行深度学习网络模型处理所述用户请求包括:经过训练的模型。经过训练的模型可以是,caffe的模型或者tensorflow的模型。需要注意的是,经过训练的模型可以根据实际需要进行选择。在本申请中不进行限定。
从以上的描述中,可以看出,本申请实现了如下技术效果:
在本申请实施例中,采用在服务器端执行的方式,通过预设应用程序编程接口在深度学习推理框架中使用多个所述图形处理器时执行负载均衡操作,达到了提高图形处理器资源利用率的目的,从而实现了提高图形处理器处理效率的技术效果,进而解决了模型运行效率较低的技术问题。
现有的在服务器端接收请求时,TensorRT只能使用到默认的gpu0用来处理请求,通过本申请实施例中的图像信息处理方法通过新增的TensorRT指定GPU和使用多个GPU的功能,TensorRT既可以同时使用多个GPU增加请求处理效率,又可以通过GPU分配策略实现GPU的负载均衡,使GPU智能的被分配。
根据本申请实施例,作为本实施例中的优选,如图2所示,所述服务器通过预设应用程序编程接口在深度学习推理框架中使用多个所述图形处理器时执行负载均衡操作包括:
步骤S202,判断图形处理器是否可用;
步骤S204,如果判断图形处理器为可用,则通过深度学习推理框架从可用的多个所述图形处理器中选择出用于加载深度学习网络模型的预设图形处理器。
在TensorRT现有的功能之上,拓展了TensorRT从可用的多GPU上选择指定的GPU加载深度学习网络模型的功能。
根据本申请实施例,作为本实施例中的优选,如图3所示,所述服务器通过预设应用程序编程接口在深度学习推理框架中使用多个所述图形处理器时执行负载均衡操作包括:
步骤S302,判断图形处理器是否可用以及可用的个数;
步骤S304,如果判断图形处理器为可用,则通过深度学习推理框架在可用的多个所述图形处理器中加载统一的深度学习网络模型。
如果判断图形处理器为可用,则通过深度学习推理框架在可用的多个所述图形处理器中加载统一的深度学习网络模型,增加了在多个GPU上一起加载同一模型的功能。
优选地,所述图形处理器用于在服务器中接收用户请求至少包括:网络接口调用请求。通过结合使用比如Web Service包和TensorRT,可以实现在服务器端起一个网络函数接口。本申请的实施例的方法,将多GPU同时运行TensorRT功能加入到服务器端的网络接口中。这样,在服务器端当接收用户请求和在服务器端运行深度学习网络模型来处理请求时,实现网络接口的调用。
需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
根据本申请实施例,还提供了一种用于实施上述图像信息处理方法的服务器,如图4所示,该服务器中部署多个图形处理器,包括:执行模块100,用于通过预设应用程序编程接口在深度学习推理框架中使用多个所述图形处理器时执行负载均衡操作,其中,所述图形处理器用于在服务器中接收用户请求,以及在服务器中通过运行深度学习网络模型处理所述用户请求。
具体地,本申请执行模块100通过使用预设应用程序编程接口和深度学习推理框架实现在应用计算机视觉技术去提取图片信息的现实场景中。当使用服务器接收用户请求和运行深度学习网络模型来处理请求时,GPU使用的负载均衡。当使用服务器接收图像信息和服务器中运行深度学习网络模型来提取图片信息时,GPU使用负载均衡。
需要注意的是,执行模块100的深度学习推理框架本身目前只支持在单个GPU上运行网络模型,并不支持多GPU上同时运行同一个网络模型比如GPU集群。故,因此当服务器有多个GPU时,深度学习推理框架并不能将全部GPU资源都利用到,资源利用比例较低。但通过服务器通过预设应用程序编程接口在深度学习推理框架中使用多个所述图形处理器时执行负载均衡操作,能够提高GPU的资源利用率。进一步可实现GPU上同时运行同一个网络模型。
作为本实施例中的优选,所述预设应用程序编程接口包括:PyCUDA。PyCUDA为提供了使用Nvidia CUDA并行计算的接口即应用程序编程接口API。需要注意的是,本领域技术人员能够根据需要对应用程序编程接口API进行调用。
作为本实施例中的优选,所述深度学习推理框架包括:TensorRT。通过PyCUDA在深度学习推理框架中使用多个所述图形处理器时执行负载均衡操作。
TensorRT可将FP32位权值数据优化为FP16或者INT8,而推理精度不发生明显的降低。需要注意的是,TensorRT是NVIDIA开发的深度学习推理工具,只支持推理不支持训练。
优选地,在TensorRT现有的功能之上,本实施例拓展了TensorRT从可用的多GPU上选择指定的GPU加载深度学习网络模型的功能。
上述所述在服务器中通过运行深度学习网络模型处理所述用户请求包括:经过训练的模型。经过训练的模型可以是,caffe的模型或者tensorflow的模型。需要注意的是,经过训练的模型可以根据实际需要进行选择。在本申请中不进行限定。
根据本申请实施例,作为本实施例中的优选,如图5所示,所述执行模块100还包括:第一判断单元1001,用于判断图形处理器是否可用;第一执行单元1002,用于判断图形处理器为可用时,通过深度学习推理框架从可用的多个所述图形处理器中选择出用于加载深度学习网络模型的预设图形处理器。
在TensorRT现有的功能之上,拓展了TensorRT从可用的多GPU上选择指定的GPU加载深度学习网络模型的功能。
根据本申请实施例,作为本实施例中的优选,如图5所示,所述执行模块100还包括:第二判断单元1003,用于判断图形处理器是否可用以及可用的个数;第二执行单元1004,用于判断图形处理器为可用时,通过深度学习推理框架在多个所述图形处理器中加载统一的深度学习网络模型。
如果判断图形处理器为可用,则通过深度学习推理框架在可用的多个所述图形处理器中加载统一的深度学习网络模型,增加了在多个GPU上一起加载同一模型的功能。
优选地,所述图形处理器用于在服务器中接收用户请求至少包括:网络接口调用请求。通过结合使用比如Web Service包和TensorRT,可以实现在服务器端起一个网络函数接口。本申请的实施例的方法,将多GPU同时运行TensorRT功能加入到服务器端的网络接口中。这样,在服务器端当接收用户请求和在服务器端运行深度学习网络模型来处理请求时,实现网络接口的调用。
具体地,本申请的实现原理如下:
以预设应用程序编程接口PyCUDA和深度学习推理框架TensorRT为例进行解释说明。
步骤一,通过使用Pycuda实现TensorRT在指定的一个GPU上加载来自其他框架已经训练好的深度学习网络模型(caffe的模型或者tensorflow的模型)并运行加载好的模型,比如有gpu0,gpu1,gpu2,gpu3,指定TensorRT在gpu2上加载和运行caffe的ResNet分类模型。
步骤二,在第一个功能的基础上,使用Pycuda实现TensorRT在指定的多个gpu上同时加载同一个深度学习网络模型,比如让TensorRT在gpu0,gpu1,gpu2上加载同一个caffe的ResNet分类模型。
步骤三,通过结合使用Web Service包和TensorRT,实现在服务器端起一个网络函数接口,可以用来接收用户传送的图片url并通过图片链接下载用户想要分析的图片,并输入给加载到TensorRT里(此时使用的是TensorRT默认的gpu0)已经训练好的深度学习网络模型里,运行TensorRT来分析和提取图片信息,将网络模型的输出结果可以使图片分类的类别,也可以是图片中物体的类别和位置信息返回给用户。
需要注意的是,第三步骤中的Web Service包是个统称,用来实现网络接口服务。本领域技术人员能够明了,也可以使用包括flask。
步骤四,结合第二步和第三步的功能,将多gpu同时运行TensorRT功能加入到服务器端的网络接口中。
需要注意的是,第四步骤的gpu智能分配策略可以替换成为其它分配方式,比如按顺序分配:a,b,c之后继续a,b,c。记录gpu分配到的请求个数的方式也可以变成选择使用全局变量计数而不是本地数据库。
步骤五,通过使用数据库记录每一个gpu已经被分配到的请求个数实现智能选择gpu运行TensorRT的策略.假设有a,b,c三个gpu,最开始接收到的请求个数都为0,这时随机从三个中分配一个处理请求,当a的请求个数为1,b和c都为0时,随机从b和c中分配一个gpu来处理请求,也就是说总是要让请求个数少的gpu上的TensorRT模型优先被分配。
步骤六,通过上述策略实现服务器端接收请求时,多gpu上的TensorRT并行计算,还有gpu的负载均衡。增加了服务器上的所有gpu资源使用率,提高了用户请求的处理效率。
显然,本领域的技术人员应该明白,上述的本申请的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本申请不限制于任何特定的硬件和软件结合。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (10)
1.一种图像信息处理方法,在服务器部署多个图形处理器,其特征在于,所述方法包括:
所述服务器通过预设应用程序编程接口在深度学习推理框架中使用多个所述图形处理器时执行负载均衡操作,
其中,所述图形处理器用于在服务器中接收用户请求,以及在服务器中通过运行深度学习网络模型处理所述用户请求。
2.根据权利要求1所述的图像信息处理方法,其特征在于,所述预设应用程序编程接口包括:PyCUDA。
3.根据权利要求1所述的图像信息处理方法,其特征在于,所述深度学习推理框架包括:TensorRT。
4.根据权利要求1所述的图像信息处理方法,其特征在于,所述在服务器中通过运行深度学习网络模型处理所述用户请求包括:经过训练的模型。
5.根据权利要求1所述的图像信息处理方法,其特征在于,所述服务器通过预设应用程序编程接口在深度学习推理框架中使用多个所述图形处理器时执行负载均衡操作包括:
判断图形处理器是否可用;
如果判断图形处理器为可用,则通过深度学习推理框架从可用的多个所述图形处理器中选择出用于加载深度学习网络模型的预设图形处理器。
6.根据权利要求1所述的图像信息处理方法,其特征在于,所述服务器通过预设应用程序编程接口在深度学习推理框架中使用多个所述图形处理器时执行负载均衡操作包括:
判断图形处理器是否可用以及可用的个数;
如果判断图形处理器为可用,则通过深度学习推理框架在可用的多个所述图形处理器中加载统一的深度学习网络模型。
7.根据权利要求1所述的图像信息处理方法,其特征在于,所述图形处理器用于在服务器中接收用户请求至少包括:网络接口调用请求。
8.一种图像信息处理服务器,部署多个图形处理器,其特征在于,包括:
执行模块,用于通过预设应用程序编程接口在深度学习推理框架中使用多个所述图形处理器时执行负载均衡操作,
其中,所述图形处理器用于在服务器中接收用户请求,以及在服务器中通过运行深度学习网络模型处理所述用户请求。
9.根据权利要求8所述的图像信息处理服务器,其特征在于,所述执行模块还包括:
第一判断单元,用于判断图形处理器是否可用;
第一执行单元,用于判断图形处理器为可用时,通过深度学习推理框架从可用的多个所述图形处理器中选择出用于加载深度学习网络模型的预设图形处理器。
10.根据权利要求8所述的图像信息处理服务器,其特征在于,所述执行模块还包括:
第二判断单元,用于判断图形处理器是否可用以及可用的个数;
第二执行单元,用于判断图形处理器为可用时,通过深度学习推理框架在多个所述图形处理器中加载统一的深度学习网络模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810645137.0A CN109064382B (zh) | 2018-06-21 | 2018-06-21 | 图像信息处理方法及服务器 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810645137.0A CN109064382B (zh) | 2018-06-21 | 2018-06-21 | 图像信息处理方法及服务器 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109064382A true CN109064382A (zh) | 2018-12-21 |
CN109064382B CN109064382B (zh) | 2023-06-23 |
Family
ID=64821356
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810645137.0A Active CN109064382B (zh) | 2018-06-21 | 2018-06-21 | 图像信息处理方法及服务器 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109064382B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109948428A (zh) * | 2019-01-28 | 2019-06-28 | 上海理工大学 | 面向传感信息处理的gpu集群深度学习边缘计算系统 |
CN110796242A (zh) * | 2019-11-01 | 2020-02-14 | 广东三维家信息科技有限公司 | 神经网络模型推理方法、装置、电子设备及可读介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106951926A (zh) * | 2017-03-29 | 2017-07-14 | 山东英特力数据技术有限公司 | 一种混合架构的深度学习系统方法及装置 |
CN107135257A (zh) * | 2017-04-28 | 2017-09-05 | 东方网力科技股份有限公司 | 一种节点集群中任务分配的方法、节点和系统 |
-
2018
- 2018-06-21 CN CN201810645137.0A patent/CN109064382B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106951926A (zh) * | 2017-03-29 | 2017-07-14 | 山东英特力数据技术有限公司 | 一种混合架构的深度学习系统方法及装置 |
CN107135257A (zh) * | 2017-04-28 | 2017-09-05 | 东方网力科技股份有限公司 | 一种节点集群中任务分配的方法、节点和系统 |
Non-Patent Citations (1)
Title |
---|
CSDN: "【Ubuntu-Tensorflow】GPU设置及显存资源分配", 《HTTPS://BLOG.CSDN.NET/LGH0824/ARTICLE/DETAILS/77160440》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109948428A (zh) * | 2019-01-28 | 2019-06-28 | 上海理工大学 | 面向传感信息处理的gpu集群深度学习边缘计算系统 |
CN109948428B (zh) * | 2019-01-28 | 2022-12-09 | 上海理工大学 | 面向传感信息处理的gpu集群深度学习边缘计算系统 |
CN110796242A (zh) * | 2019-11-01 | 2020-02-14 | 广东三维家信息科技有限公司 | 神经网络模型推理方法、装置、电子设备及可读介质 |
Also Published As
Publication number | Publication date |
---|---|
CN109064382B (zh) | 2023-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110046818A (zh) | 一种多机器人任务分配方法 | |
CN109634748A (zh) | 集群资源调度方法、装置、设备及计算机可读存储介质 | |
CN108920274A (zh) | 用于图像处理服务器端的性能优化及装置 | |
CN109995877A (zh) | 信息推送方法和装置 | |
CN109327540A (zh) | 电子装置、服务器负载均衡方法及存储介质 | |
CN109033001A (zh) | 用于分配gpu的方法和装置 | |
CN110427256A (zh) | 基于优先级的作业调度优化方法、设备、存储介质及装置 | |
CN109634738A (zh) | 基于微服务的异步处理方法、服务器、存储介质及装置 | |
CN107809383A (zh) | 一种基于mvc的路径映射方法及装置 | |
CN111552550A (zh) | 一种基于图形处理器gpu资源的任务调度方法、设备及介质 | |
CN108810123A (zh) | 开通移动蜂窝网络服务的方法和设备 | |
CN110213265A (zh) | 图像获取方法、装置、服务器及存储介质 | |
CN109064382A (zh) | 图像信息处理方法及服务器 | |
CN111797173A (zh) | 联盟链共享系统、方法、装置、电子设备及存储介质 | |
CN107852422A (zh) | 与具有不同api的服务器接口连接来获取广告数据 | |
CN101895531B (zh) | 一种客户端设备、多媒体数据卸载系统及卸载方法 | |
CN103442415B (zh) | 一种发送数据的方法及一种移动终端 | |
CN111489279A (zh) | Gpu加速优化方法、装置及计算机存储介质 | |
CN107968848B (zh) | 一种获取ip地址的方法、终端设备及存储介质 | |
CN106844467A (zh) | 数据展示方法和装置 | |
CN116456496B (zh) | 资源调度的方法、存储介质及电子设备 | |
CN102760155B (zh) | 一种基于数据库的事务控制方法及装置 | |
CN117149665A (zh) | 持续集成方法、控制设备、持续集成系统及存储介质 | |
CN109933735A (zh) | 调度方法、网页渲染方法、网页显示方法及其设备 | |
CN109684115A (zh) | 一种应用于插件间的通信方法及相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
EE01 | Entry into force of recordation of patent licensing contract | ||
EE01 | Entry into force of recordation of patent licensing contract |
Application publication date: 20181221 Assignee: Apple R&D (Beijing) Co.,Ltd. Assignor: BEIJING MOSHANGHUA TECHNOLOGY Co.,Ltd. Contract record no.: 2019990000054 Denomination of invention: Image information processing method and server License type: Exclusive License Record date: 20190211 |
|
GR01 | Patent grant | ||
GR01 | Patent grant |