CN109064382B - 图像信息处理方法及服务器 - Google Patents

图像信息处理方法及服务器 Download PDF

Info

Publication number
CN109064382B
CN109064382B CN201810645137.0A CN201810645137A CN109064382B CN 109064382 B CN109064382 B CN 109064382B CN 201810645137 A CN201810645137 A CN 201810645137A CN 109064382 B CN109064382 B CN 109064382B
Authority
CN
China
Prior art keywords
deep learning
server
available
graphic
processors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810645137.0A
Other languages
English (en)
Other versions
CN109064382A (zh
Inventor
赵昊
张默
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Moshanghua Technology Co ltd
Original Assignee
Beijing Moshanghua Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Moshanghua Technology Co ltd filed Critical Beijing Moshanghua Technology Co ltd
Priority to CN201810645137.0A priority Critical patent/CN109064382B/zh
Publication of CN109064382A publication Critical patent/CN109064382A/zh
Application granted granted Critical
Publication of CN109064382B publication Critical patent/CN109064382B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5083Techniques for rebalancing the load in a distributed system
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了一种图像信息处理方法及服务器。该方法包括所述服务器通过预设应用程序编程接口在深度学习推理框架中使用多个所述图形处理器时执行负载均衡操作,其中,所述图形处理器用于在服务器中接收用户请求,以及在服务器中通过运行深度学习网络模型处理所述用户请求。本申请解决了模型运行效率较低的技术问题。本申请可提高资源利用率。

Description

图像信息处理方法及服务器
技术领域
本申请涉及计算机视觉技术领域,具体而言,涉及一种图像信息处理方法及服务器。
背景技术
深度学习的发展和深层次网络的出现大大增加了计算机视觉领域的图片分类和物体识别的准确率,并加速了计算机视觉领域的发展。
应用到现实场景中时,不管是服务器端还是移动端,在准确率达到一定标准的同时,模型的处理效率和资源利用率也是一个同样重要的标准。
针对相关技术中模型运行效率较低的问题,目前尚未提出有效的解决方案。
发明内容
本申请的主要目的在于提供一种图像信息处理方法及服务器,以解决模型运行效率较低的问题。
为了实现上述目的,根据本申请的一个方面,提供了一种图像信息处理方法。
根据本申请的图像信息处理方法,在服务器部署多个图形处理器,所述方法包括:所述服务器通过预设应用程序编程接口在深度学习推理框架中使用多个所述图形处理器时执行负载均衡操作,其中,所述图形处理器用于在服务器中接收用户请求,以及在服务器中通过运行深度学习网络模型处理所述用户请求。
进一步地,所述预设应用程序编程接口包括:PyCUDA。
进一步地,所述深度学习推理框架包括:TensorRT。
进一步地,所述在服务器中通过运行深度学习网络模型处理所述用户请求包括:经过训练的模型。
进一步地,所述服务器通过预设应用程序编程接口在深度学习推理框架中使用多个所述图形处理器时执行负载均衡操作包括:判断图形处理器是否可用;如果判断图形处理器为可用,则通过深度学习推理框架从可用的多个所述图形处理器中选择出用于加载深度学习网络模型的预设图形处理器。
进一步地,所述服务器通过预设应用程序编程接口在深度学习推理框架中使用多个所述图形处理器时执行负载均衡操作包括:判断图形处理器是否可用以及可用的个数;如果判断图形处理器为可用,则通过深度学习推理框架在可用的多个所述图形处理器中加载统一的深度学习网络模型。
进一步地,所述图形处理器用于在服务器中接收用户请求至少包括:网络接口调用请求。
为了实现上述目的,根据本申请的另一方面,提供了一种图像信息处理服务器。
根据本申请的图像信息处理服务器,部署多个图形处理器,包括:
执行模块,用于通过预设应用程序编程接口在深度学习推理框架中使用多个所述图形处理器时执行负载均衡操作,
其中,所述图形处理器用于在服务器中接收用户请求,以及在服务器中通过运行深度学习网络模型处理所述用户请求。
进一步地,服务器还包括:第一判断单元,用于判断图形处理器是否可用;第一执行单元,用于判断图形处理器为可用时,通过深度学习推理框架从可用的多个所述图形处理器中选择出用于加载深度学习网络模型的预设图形处理器。
进一步地,服务器还包括:第二判断单元,用于判断图形处理器是否可用以及可用的个数;第二执行单元,用于判断图形处理器为可用时,通过深度学习推理框架在多个所述图形处理器中加载统一的深度学习网络模型。
在本申请实施例中,采用在服务器端执行的方式,通过预设应用程序编程接口在深度学习推理框架中使用多个所述图形处理器时执行负载均衡操作,达到了提高图形处理器资源利用率的目的,从而实现了提高图形处理器处理效率的技术效果,进而解决了模型运行效率较低的技术问题。
附图说明
构成本申请的一部分的附图用来提供对本申请的进一步理解,使得本申请的其它特征、目的和优点变得更明显。本申请的示意性实施例附图及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请第一实施例的图像信息处理方法示意图;
图2是根据本申请第二实施例的图像信息处理方法示意图;
图3是根据本申请第三实施例的图像信息处理方法示意图;
图4是根据本申请第一实施例的图像信息处理装置示意图;
图5是根据本申请第二实施例的图像信息处理装置示意图;以及
图6是根据本申请第三施例的图像信息处理装置示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
在本申请中,术语“上”、“下”、“左”、“右”、“前”、“后”、“顶”、“底”、“内”、“外”、“中”、“竖直”、“水平”、“横向”、“纵向”等指示的方位或位置关系为基于附图所示的方位或位置关系。这些术语主要是为了更好地描述本申请及其实施例,并非用于限定所指示的装置、元件或组成部分必须具有特定方位,或以特定方位进行构造和操作。
并且,上述部分术语除了可以用于表示方位或位置关系以外,还可能用于表示其他含义,例如术语“上”在某些情况下也可能用于表示某种依附关系或连接关系。对于本领域普通技术人员而言,可以根据具体情况理解这些术语在本申请中的具体含义。
此外,术语“安装”、“设置”、“设有”、“连接”、“相连”、“套接”应做广义理解。例如,可以是固定连接,可拆卸连接,或整体式构造;可以是机械连接,或电连接;可以是直接相连,或者是通过中间媒介间接相连,又或者是两个装置、元件或组成部分之间内部的连通。对于本领域普通技术人员而言,可以根据具体情况理解上述术语在本申请中的具体含义。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
如图1所示,本申请提供了的图像信息处理方法,在服务器部署多个图形处理器,该方法包括如下的步骤S102至步骤S106:
步骤S102,所述图形处理器用于在服务器中接收用户请求,
步骤S104,在服务器中通过运行深度学习网络模型处理所述用户请求,
步骤S106,所述服务器通过预设应用程序编程接口在深度学习推理框架中使用多个所述图形处理器时执行负载均衡操作。
具体地,本申请通过使用预设应用程序编程接口和深度学习推理框架实现在应用计算机视觉技术去提取图片信息的现实场景中。当使用服务器接收用户请求和运行深度学习网络模型来处理请求时,GPU使用的负载均衡。当使用服务器接收图像信息和服务器中运行深度学习网络模型来提取图片信息时,GPU使用负载均衡。
需要注意的是,深度学习推理框架本身目前只支持在单个GPU上运行网络模型,并不支持多GPU上同时运行同一个网络模型比如GPU集群。故,因此当服务器有多个GPU时,深度学习推理框架并不能将全部GPU资源都利用到,资源利用比例较低。但通过服务器通过预设应用程序编程接口在深度学习推理框架中使用多个所述图形处理器时执行负载均衡操作,能够提高GPU的资源利用率。进一步可实现GPU上同时运行同一个网络模型。
作为本实施例中的优选,所述预设应用程序编程接口包括:PyCUDA。PyCUDA为提供了使用Nvidia CUDA并行计算的接口即应用程序编程接口API。需要注意的是,本领域技术人员能够根据需要对应用程序编程接口API进行调用。
作为本实施例中的优选,所述深度学习推理框架包括:TensorRT。通过PyCUDA在深度学习推理框架中使用多个所述图形处理器时执行负载均衡操作。
TensorRT可将FP32位权值数据优化为FP16或者INT8,而推理精度不发生明显的降低。需要注意的是,TensorRT是NVIDIA开发的深度学习推理工具,只支持推理不支持训练。
优选地,在TensorRT现有的功能之上,本实施例拓展了TensorRT从可用的多GPU上选择指定的GPU加载深度学习网络模型的功能。
上述所述在服务器中通过运行深度学习网络模型处理所述用户请求包括:经过训练的模型。经过训练的模型可以是,caffe的模型或者tensorflow的模型。需要注意的是,经过训练的模型可以根据实际需要进行选择。在本申请中不进行限定。
从以上的描述中,可以看出,本申请实现了如下技术效果:
在本申请实施例中,采用在服务器端执行的方式,通过预设应用程序编程接口在深度学习推理框架中使用多个所述图形处理器时执行负载均衡操作,达到了提高图形处理器资源利用率的目的,从而实现了提高图形处理器处理效率的技术效果,进而解决了模型运行效率较低的技术问题。
现有的在服务器端接收请求时,TensorRT只能使用到默认的gpu0用来处理请求,通过本申请实施例中的图像信息处理方法通过新增的TensorRT指定GPU和使用多个GPU的功能,TensorRT既可以同时使用多个GPU增加请求处理效率,又可以通过GPU分配策略实现GPU的负载均衡,使GPU智能的被分配。
根据本申请实施例,作为本实施例中的优选,如图2所示,所述服务器通过预设应用程序编程接口在深度学习推理框架中使用多个所述图形处理器时执行负载均衡操作包括:
步骤S202,判断图形处理器是否可用;
步骤S204,如果判断图形处理器为可用,则通过深度学习推理框架从可用的多个所述图形处理器中选择出用于加载深度学习网络模型的预设图形处理器。
在TensorRT现有的功能之上,拓展了TensorRT从可用的多GPU上选择指定的GPU加载深度学习网络模型的功能。
根据本申请实施例,作为本实施例中的优选,如图3所示,所述服务器通过预设应用程序编程接口在深度学习推理框架中使用多个所述图形处理器时执行负载均衡操作包括:
步骤S302,判断图形处理器是否可用以及可用的个数;
步骤S304,如果判断图形处理器为可用,则通过深度学习推理框架在可用的多个所述图形处理器中加载统一的深度学习网络模型。
如果判断图形处理器为可用,则通过深度学习推理框架在可用的多个所述图形处理器中加载统一的深度学习网络模型,增加了在多个GPU上一起加载同一模型的功能。
优选地,所述图形处理器用于在服务器中接收用户请求至少包括:网络接口调用请求。通过结合使用比如Web Service包和TensorRT,可以实现在服务器端起一个网络函数接口。本申请的实施例的方法,将多GPU同时运行TensorRT功能加入到服务器端的网络接口中。这样,在服务器端当接收用户请求和在服务器端运行深度学习网络模型来处理请求时,实现网络接口的调用。
需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
根据本申请实施例,还提供了一种用于实施上述图像信息处理方法的服务器,如图4所示,该服务器中部署多个图形处理器,包括:执行模块100,用于通过预设应用程序编程接口在深度学习推理框架中使用多个所述图形处理器时执行负载均衡操作,其中,所述图形处理器用于在服务器中接收用户请求,以及在服务器中通过运行深度学习网络模型处理所述用户请求。
具体地,本申请执行模块100通过使用预设应用程序编程接口和深度学习推理框架实现在应用计算机视觉技术去提取图片信息的现实场景中。当使用服务器接收用户请求和运行深度学习网络模型来处理请求时,GPU使用的负载均衡。当使用服务器接收图像信息和服务器中运行深度学习网络模型来提取图片信息时,GPU使用负载均衡。
需要注意的是,执行模块100的深度学习推理框架本身目前只支持在单个GPU上运行网络模型,并不支持多GPU上同时运行同一个网络模型比如GPU集群。故,因此当服务器有多个GPU时,深度学习推理框架并不能将全部GPU资源都利用到,资源利用比例较低。但通过服务器通过预设应用程序编程接口在深度学习推理框架中使用多个所述图形处理器时执行负载均衡操作,能够提高GPU的资源利用率。进一步可实现GPU上同时运行同一个网络模型。
作为本实施例中的优选,所述预设应用程序编程接口包括:PyCUDA。PyCUDA为提供了使用Nvidia CUDA并行计算的接口即应用程序编程接口API。需要注意的是,本领域技术人员能够根据需要对应用程序编程接口API进行调用。
作为本实施例中的优选,所述深度学习推理框架包括:TensorRT。通过PyCUDA在深度学习推理框架中使用多个所述图形处理器时执行负载均衡操作。
TensorRT可将FP32位权值数据优化为FP16或者INT8,而推理精度不发生明显的降低。需要注意的是,TensorRT是NVIDIA开发的深度学习推理工具,只支持推理不支持训练。
优选地,在TensorRT现有的功能之上,本实施例拓展了TensorRT从可用的多GPU上选择指定的GPU加载深度学习网络模型的功能。
上述所述在服务器中通过运行深度学习网络模型处理所述用户请求包括:经过训练的模型。经过训练的模型可以是,caffe的模型或者tensorflow的模型。需要注意的是,经过训练的模型可以根据实际需要进行选择。在本申请中不进行限定。
根据本申请实施例,作为本实施例中的优选,如图5所示,所述执行模块100还包括:第一判断单元1001,用于判断图形处理器是否可用;第一执行单元1002,用于判断图形处理器为可用时,通过深度学习推理框架从可用的多个所述图形处理器中选择出用于加载深度学习网络模型的预设图形处理器。
在TensorRT现有的功能之上,拓展了TensorRT从可用的多GPU上选择指定的GPU加载深度学习网络模型的功能。
根据本申请实施例,作为本实施例中的优选,如图5所示,所述执行模块100还包括:第二判断单元1003,用于判断图形处理器是否可用以及可用的个数;第二执行单元1004,用于判断图形处理器为可用时,通过深度学习推理框架在多个所述图形处理器中加载统一的深度学习网络模型。
如果判断图形处理器为可用,则通过深度学习推理框架在可用的多个所述图形处理器中加载统一的深度学习网络模型,增加了在多个GPU上一起加载同一模型的功能。
优选地,所述图形处理器用于在服务器中接收用户请求至少包括:网络接口调用请求。通过结合使用比如Web Service包和TensorRT,可以实现在服务器端起一个网络函数接口。本申请的实施例的方法,将多GPU同时运行TensorRT功能加入到服务器端的网络接口中。这样,在服务器端当接收用户请求和在服务器端运行深度学习网络模型来处理请求时,实现网络接口的调用。
具体地,本申请的实现原理如下:
以预设应用程序编程接口PyCUDA和深度学习推理框架TensorRT为例进行解释说明。
步骤一,通过使用Pycuda实现TensorRT在指定的一个GPU上加载来自其他框架已经训练好的深度学习网络模型(caffe的模型或者tensorflow的模型)并运行加载好的模型,比如有gpu0,gpu1,gpu2,gpu3,指定TensorRT在gpu2上加载和运行caffe的ResNet分类模型。
步骤二,在第一个功能的基础上,使用Pycuda实现TensorRT在指定的多个gpu上同时加载同一个深度学习网络模型,比如让TensorRT在gpu0,gpu1,gpu2上加载同一个caffe的ResNet分类模型。
步骤三,通过结合使用Web Service包和TensorRT,实现在服务器端起一个网络函数接口,可以用来接收用户传送的图片url并通过图片链接下载用户想要分析的图片,并输入给加载到TensorRT里(此时使用的是TensorRT默认的gpu0)已经训练好的深度学习网络模型里,运行TensorRT来分析和提取图片信息,将网络模型的输出结果可以使图片分类的类别,也可以是图片中物体的类别和位置信息返回给用户。
需要注意的是,第三步骤中的Web Service包是个统称,用来实现网络接口服务。本领域技术人员能够明了,也可以使用包括flask。
步骤四,结合第二步和第三步的功能,将多gpu同时运行TensorRT功能加入到服务器端的网络接口中。
需要注意的是,第四步骤的gpu智能分配策略可以替换成为其它分配方式,比如按顺序分配:a,b,c之后继续a,b,c。记录gpu分配到的请求个数的方式也可以变成选择使用全局变量计数而不是本地数据库。
步骤五,通过使用数据库记录每一个gpu已经被分配到的请求个数实现智能选择gpu运行TensorRT的策略.假设有a,b,c三个gpu,最开始接收到的请求个数都为0,这时随机从三个中分配一个处理请求,当a的请求个数为1,b和c都为0时,随机从b和c中分配一个gpu来处理请求,也就是说总是要让请求个数少的gpu上的TensorRT模型优先被分配。
步骤六,通过上述策略实现服务器端接收请求时,多gpu上的TensorRT并行计算,还有gpu的负载均衡。增加了服务器上的所有gpu资源使用率,提高了用户请求的处理效率。
显然,本领域的技术人员应该明白,上述的本申请的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本申请不限制于任何特定的硬件和软件结合。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (6)

1.一种图像信息处理方法,在服务器部署多个图形处理器,其特征在于,所述方法包括:
所述服务器通过预设应用程序编程接口在深度学习推理框架中使用多个所述图形处理器时执行负载均衡操作,
其中,所述图形处理器用于在服务器中接收用户请求,以及在服务器中通过运行深度学习网络模型处理所述用户请求;
所述预设应用程序编程接口包括:PyCUDA;
所述深度学习推理框架包括:TensorRT;
其中,利用网络接口调用请求接收用户传送的图片url并通过图片链接下载用户想要分析的图片,输入给加载到TensorRT里已经训练好的深度学习网络模型里,运行TensorRT分析和提取图片信息。
2.根据权利要求1所述的图像信息处理方法,其特征在于,所述服务器通过预设应用程序编程接口在深度学习推理框架中使用多个所述图形处理器时执行负载均衡操作包括:
判断图形处理器是否可用;
如果判断图形处理器为可用,则通过深度学习推理框架从可用的多个所述图形处理器中选择出用于加载深度学习网络模型的预设图形处理器。
3.根据权利要求1所述的图像信息处理方法,其特征在于,所述服务器通过预设应用程序编程接口在深度学习推理框架中使用多个所述图形处理器时执行负载均衡操作包括:
判断图形处理器是否可用以及可用的个数;
如果判断图形处理器为可用,则通过深度学习推理框架在可用的多个所述图形处理器中加载统一的深度学习网络模型。
4.一种图像信息处理服务器,部署多个图形处理器,其特征在于,包括:
执行模块,用于通过预设应用程序编程接口在深度学习推理框架中使用多个所述图形处理器时执行负载均衡操作,
其中,所述图形处理器用于在服务器中接收用户请求,以及在服务器中通过运行深度学习网络模型处理所述用户请求;
所述预设应用程序编程接口包括:PyCUDA;
所述深度学习推理框架包括:TensorRT;
其中,利用网络接口调用请求接收用户传送的图片url并通过图片链接下载用户想要分析的图片,输入给加载到TensorRT里已经训练好的深度学习网络模型里,运行TensorRT分析和提取图片信息。
5.根据权利要求4所述的图像信息处理服务器,其特征在于,所述执行模块还包括:
第一判断单元,用于判断图形处理器是否可用;
第一执行单元,用于判断图形处理器为可用时,通过深度学习推理框架从可用的多个所述图形处理器中选择出用于加载深度学习网络模型的预设图形处理器。
6.根据权利要求4所述的图像信息处理服务器,其特征在于,所述执行模块还包括:
第二判断单元,用于判断图形处理器是否可用以及可用的个数;
第二执行单元,用于判断图形处理器为可用时,通过深度学习推理框架在多个所述图形处理器中加载统一的深度学习网络模型。
CN201810645137.0A 2018-06-21 2018-06-21 图像信息处理方法及服务器 Active CN109064382B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810645137.0A CN109064382B (zh) 2018-06-21 2018-06-21 图像信息处理方法及服务器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810645137.0A CN109064382B (zh) 2018-06-21 2018-06-21 图像信息处理方法及服务器

Publications (2)

Publication Number Publication Date
CN109064382A CN109064382A (zh) 2018-12-21
CN109064382B true CN109064382B (zh) 2023-06-23

Family

ID=64821356

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810645137.0A Active CN109064382B (zh) 2018-06-21 2018-06-21 图像信息处理方法及服务器

Country Status (1)

Country Link
CN (1) CN109064382B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109948428B (zh) * 2019-01-28 2022-12-09 上海理工大学 面向传感信息处理的gpu集群深度学习边缘计算系统
CN110796242A (zh) * 2019-11-01 2020-02-14 广东三维家信息科技有限公司 神经网络模型推理方法、装置、电子设备及可读介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106951926A (zh) * 2017-03-29 2017-07-14 山东英特力数据技术有限公司 一种混合架构的深度学习系统方法及装置
CN107135257A (zh) * 2017-04-28 2017-09-05 东方网力科技股份有限公司 一种节点集群中任务分配的方法、节点和系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106951926A (zh) * 2017-03-29 2017-07-14 山东英特力数据技术有限公司 一种混合架构的深度学习系统方法及装置
CN107135257A (zh) * 2017-04-28 2017-09-05 东方网力科技股份有限公司 一种节点集群中任务分配的方法、节点和系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
【Ubuntu-Tensorflow】GPU设置及显存资源分配;CSDN;《https://blog.csdn.net/lgh0824/article/details/77160440》;20170814;第1-3页 *

Also Published As

Publication number Publication date
CN109064382A (zh) 2018-12-21

Similar Documents

Publication Publication Date Title
US11593644B2 (en) Method and apparatus for determining memory requirement in a network
CN108614726B (zh) 虚拟机创建方法及装置
CN108920274B (zh) 用于图像处理服务器端的性能优化及装置
CN106453536B (zh) 一种网络请求处理方法、服务器和系统
CN108683720A (zh) 一种容器集群服务配置方法及装置
CN103067468B (zh) 云调度方法及其系统
CN109672709B (zh) 一种混合云业务调度系统及方法
CN105979009A (zh) 一种针对云应用容器的增加负载自动均衡方法
CN110311948B (zh) 容器/容器组间的通信方法及基于此的容器云网络系统
CN107769976B (zh) 一种基于传输带宽优化的服务功能链映射方法
CN111552550A (zh) 一种基于图形处理器gpu资源的任务调度方法、设备及介质
CN109064382B (zh) 图像信息处理方法及服务器
CN115134371A (zh) 包含边缘网络算力资源的调度方法、系统、设备及介质
CN110308986A (zh) 基于优化调度的容器云上分布式训练数据通信的方法
Hao et al. iTaskOffloading: Intelligent task offloading for a cloud-edge collaborative system
CN105553882A (zh) 用于sdn数据平面资源调度的方法
CN110990154A (zh) 一种大数据应用优化方法、装置及存储介质
CN112202829A (zh) 基于微服务的社交机器人调度系统和调度方法
CN111381957A (zh) 面向分布式平台的服务实例精细化调度方法及系统
CN111061511B (zh) 一种服务处理方法、装置及存储介质和服务器
CN111953503B (zh) Nfv资源部署编排方法和网络功能虚拟化编排器
CN106959886A (zh) 一种基于云计算的虚拟机部署管控平台及使用方法
CN106844467A (zh) 数据展示方法和装置
CN114785693B (zh) 基于分层强化学习的虚拟网络功能迁移方法及装置
CN115114022A (zh) 对gpu资源进行使用的方法、系统、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20181221

Assignee: Apple R&D (Beijing) Co.,Ltd.

Assignor: BEIJING MOSHANGHUA TECHNOLOGY Co.,Ltd.

Contract record no.: 2019990000054

Denomination of invention: Image information processing method and server

License type: Exclusive License

Record date: 20190211

EE01 Entry into force of recordation of patent licensing contract
GR01 Patent grant
GR01 Patent grant