CN110058936A - 用于确定专用处理资源的资源量的方法、设备和计算机程序产品 - Google Patents

用于确定专用处理资源的资源量的方法、设备和计算机程序产品 Download PDF

Info

Publication number
CN110058936A
CN110058936A CN201810048693.XA CN201810048693A CN110058936A CN 110058936 A CN110058936 A CN 110058936A CN 201810048693 A CN201810048693 A CN 201810048693A CN 110058936 A CN110058936 A CN 110058936A
Authority
CN
China
Prior art keywords
layer
representation
amount
deep learning
neural net
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810048693.XA
Other languages
English (en)
Other versions
CN110058936B (zh
Inventor
赵军平
李三平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
EMC Corp
Original Assignee
EMC IP Holding Co LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by EMC IP Holding Co LLC filed Critical EMC IP Holding Co LLC
Priority to CN201810048693.XA priority Critical patent/CN110058936B/zh
Priority to US16/239,803 priority patent/US11442779B2/en
Publication of CN110058936A publication Critical patent/CN110058936A/zh
Application granted granted Critical
Publication of CN110058936B publication Critical patent/CN110058936B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5011Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
    • G06F9/5016Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals the resource being the memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/10Interfaces, programming languages or software development kits, e.g. for simulating neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Neurology (AREA)
  • Information Transfer Between Computers (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本公开的实施例涉及用于确定专用处理资源的资源量的方法、设备和计算机程序产品。该方法包括获取用于深度学习处理的神经网络的结构表示,该结构表示与可用于该深度学习处理的该专用处理资源相关联;以及基于该结构表示,确定该深度学习处理所需的该专用处理资源的该资源量。以此方式,可以更好地估计深度学习处理所需的专用处理资源的资源量,以提高专用处理资源调度的性能和资源利用率。

Description

用于确定专用处理资源的资源量的方法、设备和计算机程序 产品
技术领域
本公开的实施例总体涉及资源量确定,具体涉及确定专用处理资源的资源量的方法、设备和计算机程序产品。
背景技术
近年来,高性能计算、机器学习、深度学习和人工智能等新兴技术快速发展。在当前的数据中心或云中,除了为这些新兴技术的工作负载提供中央处理单元(CPU)、存储装置等资源,还提供了诸如图形处理单元(GPU)、现场可编程门阵列(FPGA)等的专用处理资源,以满足这些新兴技术对于专用处理的需求。然而,为了更好地服务于这些新兴技术,还需要更好地估计执行这些新兴技术时所需的专用处理资源的资源量,从而改进用于调度专用处理资源的技术。
发明内容
本公开的实施例提供了用于确定专用处理资源的资源量的方法、设备和计算机程序产品。
在本公开的第一方面,提供了一种用于确定专用处理资源的资源量的方法。该方法包括:获取用于深度学习处理的神经网络的结构表示,该结构表示指示该神经网络中的与专用处理资源相关联的层属性;以及基于该结构表示,确定该深度学习处理所需的该专用处理资源的该资源量。
在本公开的第二方面,提供了一种用于确定专用处理资源的资源量的设备。该设备包括至少一个处理单元和至少一个存储器。至少一个存储器被耦合到至少一个处理单元并且存储用于由至少一个处理单元执行的指令。该指令当由至少一个处理单元执行时使得设备执行动作,该动作包括:获取用于深度学习处理的神经网络的结构表示,该结构表示指示该神经网络中的与专用处理资源相关联的层属性;以及基于该结构表示,确定该深度学习处理所需的该专用处理资源的该资源量。
在本公开的第三方面,提供了一种计算机程序产品。计算机程序产品被有形地存储在非瞬态计算机可读介质上并且包括机器可执行指令,机器可执行指令在被执行时使机器实现根据本公开的第一方面所描述的方法的任意步骤。
提供发明内容部分是为了以简化的形式来介绍对概念的选择,它们在下文的具体实施方式中将被进一步描述。发明内容部分无意标识本公开的关键特征或必要特征,也无意限制本公开的范围。
附图说明
通过结合附图对本公开示例性实施例进行更详细的描述,本公开的上述以及其它目的、特征和优势将变得更加明显,其中,在本公开示例性实施例中,相同的参考标号通常代表相同部件。
图1示出了根据本公开的实施例的专用处理资源调度系统的示意图;
图2示出了根据本公开的实施例的用于确定专用处理资源的资源量的方法的流程图;
图3示出了根据本公开的实施例的用于深度学习处理的神经网络的特定结构表示的示例的示意图;
图4示出了根据本公开的实施例的用于深度学习处理的神经网络的规范化结构表示的示例的示意图;以及
图5示出了可以用来实施本公开内容的实施例的示例设备的示意性框图。
在各个附图中,相同或对应的标号表示相同或对应的部分。
具体实施方式
下面将参照附图更详细地描述本公开的优选实施例。虽然附图中显示了本公开的优选实施例,然而应该理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了使本公开更加透彻和完整,并且能够将本公开的范围完整地传达给本领域的技术人员。
在本文中使用的术语“包括”及其变形表示开放性包括,即“包括但不限于”。除非特别申明,术语“或”表示“和/或”。术语“基于”表示“至少部分地基于”。术语“一个示例实施例”和“一个实施例”表示“至少一个示例实施例”。术语“另一实施例”表示“至少一个另外的实施例”。术语“第一”、“第二”等等可以指代不同的或相同的对象。下文还可能包括其他明确的和隐含的定义。
使用高性能计算、机器学习、深度学习和人工智能等新兴技术的处理在较长时间段上需要大量专用处理资源。例如使用这些新兴技术的处理在数小时、数天、甚至数周的时间段上对于专用处理资源的计算能力(通常以每秒浮点运算(Floating Point OperationsPer Second,FLOPS)表示)和存储能力(专用处理资源上的存储器)具有极大需求。因此在执行使用这些新兴技术的处理之前,正确地估计这些处理所需的专用处理资源的资源量,对于提高专用处理资源的利用率和降低成本非常重要。
然而,传统上,为了估计在针对这些新兴技术的应用/框架中执行这些处理所需的专用处理资源的资源量,要么需要大量先验知识,要么依赖于针对这些新兴技术的应用/框架本身。然而,一方面,由于执行这些处理的用户通常并非这些应用/框架的构建者,因此缺乏关于这些应用/框架的知识。或者,即使用户构建了这些应用,用户也很可能缺乏关于这些应用/框架的底层架构的知识。因此,在实践上,要求用户具有大量先验知识来手动估计执行使用这些新兴技术的处理所需的专用处理资源的资源量是不可行的。
另一方面,在依赖针对这些新兴技术的应用/框架本身来估计执行这些处理所需的专用处理资源的资源量的情况下,这些应用/框架通常将过度估计其所需的资源量以预留大量专用处理资源。在极端情况下,这些应用/框架甚至将占用全部可用专用处理资源,而不管实际所需的资源量为何。这将显著降低专用处理资源的利用率。
为了至少部分地解决上述问题以及其他潜在问题中的一个或者多个问题,本公开的示例实施例提出了一种用于确定专用处理资源的资源量的方案。该方案通过在执行深度学习处理之前,获取用于深度学习处理的神经网络的结构表示,以及基于该结构表示来确定深度学习处理所需的专用处理资源的资源量。以此方式,可以在不依赖于大量先验知识和应用/框架的情况下,利用用于深度学习处理的神经网络的结构来快速、准确和有效地预测所需的专用处理资源的资源量。由此,可以根据准确的所需资源量调度专用处理资源,从而提高专用处理资源调度系统的性能和资源利用率。
注意,虽然在本文中仅以深度学习作为示例进行了讨论,然而应当理解,本发明的实施例可以同样适用于高性能计算、机器学习和人工智能等新兴技术。
图1示出了根据本公开的实施例的专用处理资源调度系统100的示意图。应当理解,如图1所示的专用处理资源调度系统100仅用于示例的目的,而不暗示对于本公开的范围的任何限制。本公开的实施例可以被体现在不同的结构中。
如图1所示,专用处理资源调度系统100包括一组专用处理资源服务器1101-110N(在下文中统称为专用处理资源服务器110),其中N为大于1的自然数。专用处理资源服务器1101-110N可以分别包括专用处理资源1151-115N(在下文中统称为专用处理资源115)。为了简化的目的,图中仅示出了一个专用处理资源服务器110包括一个专用处理资源115,然而应当理解,一个专用处理资源服务器110可以包括多个专用处理资源115。
注意,虽然在图1中示出了单独的专用处理资源服务器1101-110N及其上的专用处理资源1151-115N,然而专用处理资源服务器1101-110N和专用处理资源1151-115N可以被视为池化的和虚拟的可管理资源(如图1中的虚线框所示)。此外,专用处理资源服务器1101-110N可以具有不同配置。因此,与传统技术相比,包括多个专用处理资源服务器1101-110N的这样的专用处理资源集群是动态和共享的。
在某些实施例中,专用处理资源服务器1101-110N分别还可以包括服务器控制模块1171-117N(在下文中统称为服务器控制模块117)。服务器控制模块117可以管理针对专用处理资源服务器110中的专用处理资源115的调度请求。
专用处理资源调度系统100还包括客户端120。例如,客户端120可以是执行深度学习处理的深度学习应用/框架。在某些实施例中,客户端120可以包括客户端控制模块125。例如,该客户端控制模块125可以以插件的形式存在于客户端120中。
由于在已知用于深度学习处理的神经网络的结构的情况下,深度学习处理所需的专用处理资源的资源量是可预测的,因此该客户端控制模块125可以在客户端120执行深度学习处理之前,获取用于深度学习处理的神经网络的结构表示,并且基于该结构表示确定深度学习处理所需的专用处理资源115的资源量,从而根据所确定的资源量请求专用处理资源115。此外,专用处理资源调度系统100还包括调度模块130。调度模块130可以基于客户端130所请求的专用处理资源115的资源量和系统中的可用专用处理资源来为客户端130分配专用处理资源115。然后,客户端130可以向专用处理资源服务器110请求所分配的专用处理资源115。
以此方式,专用处理资源调度系统100可以在执行深度学习处理之前,通过借助于用于深度学习处理的神经网络的结构,来快速、准确和有效地估计深度学习处理所需的专用处理资源的资源量。由此,专用处理资源调度系统100可以根据准确的所需资源量调度专用处理资源,从而提高专用处理资源调度系统100的性能和资源利用率。
在下文中将结合图2-4来描述客户端控制模块135确定深度学习处理所需的专用处理资源115的资源量的示例操作。
图2示出了根据本公开的实施例的用于确定专用处理资源115的资源量的方法200的流程图。例如,方法200可以由如图1所示的客户端控制模块125来执行。应当理解的是,该方法还可以包括未示出的附加步骤和/或可以省略所示出的步骤,本公开的范围在此方面不受限制。
在210,客户端控制模块125获取用于深度学习处理的神经网络的结构表示。。结构表示可以包括与用于深度学习处理的神经网络有关的各种数据。例如,结构表示可以包括与神经网络的神经网络层有关的层属性、所有输入数据通过神经网络的轮数(epochnumber)、迭代次数(iteration number)、一次迭代所使用的数据量(batch size)、梯度优化方法等。
在某些实施例中,客户端控制模块125可以在执行深度学习处理之前,获取用于该深度学习处理的神经网络的结构表示。备选地,客户端控制模块125可以在已经开始执行深度学习处理之后,但是尚未执行深度学习处理中使用专用处理资源115的任务之前,获取用于该深度学习处理的与专用处理资源115有关的神经网络的结构表示。以此方式,可以更为动态地确定深度学习处理所需的专用处理资源115的资源量,从而进一步提高资源量确定的准确性。
客户端控制模块125可以从执行深度学习处理的深度学习应用获取该结构表示。在某些实施例中,深度学习应用具有存储该结构表示的单独的文件。在此情况下,客户端控制模块125可以获取包含该结构表示的文件,并且解析该文件以获取结构表示。
备选地,客户端控制模块125可以向深度学习应用请求该结构表示,并且响应于接收到来自深度学习应用的响应,从该响应获取结构表示。例如,客户端控制模块125可以通过深度学习应用提供的应用编程接口(API)来向深度学习应用请求结构表示。
图3示出了根据本公开的实施例的用于深度学习处理的神经网络的特定结构表示300的示例的示意图。由于执行深度学习处理的深度学习应用不同,从该深度学习应用获取的神经网络的结构表示通常也不同。因此,结构表示300仅是用于深度学习处理的神经网络的结构表示的一种具体实现方式,并且用于深度学习处理的神经网络的结构表示不限于此。例如,用于深度学习处理的神经网络的结构表示还可以具有计算机程序代码的表示形式。
结构表示300包括多个框310-330。框310-330分别对应于神经网络的多个神经网络层,并且包含于相应神经网络层有关的数据。如图3所示,框310指示与其对应的神经网络层的名称为CONV2D_1_INPUT,类型为输入层,输入数据为1通道×宽28像素×高28像素的黑白图像,并且输出数据为1通道×宽28像素×高28像素的黑白图像。框320-330具有类似含义,在此省略其描述。
此外,结构表示300根据框之间的连接顺序,还可以指示神经网络层之间的关系。例如,框310所对应的输入层为框320所对应的卷积层的上游神经网络层,并且框330所对应的输入层为框320所对应的卷积层的下游神经网络层。上游神经网络层表示从其获取输入数据的层,而下游神经网络层表示向其输出数据的层。
另外,结构表示300还可以包含关于神经网络的结构的隐含数据。客户端控制模块125通过分析该结构表示300,可以获得这些隐含数据。例如,由于框320对应的卷积层的输入为(1,28,28),而其输出为(32,26,26),从1通道变为32通道,因此客户端控制模块125通过分析结构表示300,可以确定该卷积层的数目为32。
虽然客户端控制模块125可以直接从诸如结构表示300的特定结构表示直接获取与用于深度学习的神经网络的结构有关的数据,然而如上所述,由于执行深度学习处理的深度学习应用不同,从该深度学习应用获取的神经网络的结构表示通常也不同。因此,为了进一步改进确定专用处理资源的资源量的过程,客户端控制模块125可以将针对深度学习应用具有特定表示形式的诸如结构表示300的结构表示规范化为经规范化的结构表示。客户端控制模块125还可以通过比较和分析针对不同深度学习应用的经规范化的结构表示,以用于模式提取、变化跟踪、应用分类等。
在某些实施例中,为了将特定结构表示规范化,客户端控制模块125可以基于特定结构表示,确定与神经网络的神经网络层有关的层属性。层属性可以包括神经网络层的标识符、神经网络层的类型、神经网络层的上游神经网络层、以及神经网络层的下游神经网络层。
例如,神经网络层的标识符可以指示神经网络层的名称或可以标识神经网络层的其他标识数据。神经网络层的类型可以指示神经网络层为数据类型层(例如输入层等)、计算类型层(例如卷积层、全连接层等)还是控制层(例如采样层等)。此外,神经网络层的上游神经网络层和下游神经网络层可以指示针对该神经网络层的一个或多个输入神经网络层和输出神经网络层。
可选地,层属性还可以包括神经网络层的可配置属性。例如,可配置属性可以指示神经网络层的输入数据形状、输入数据大小、步长(stride)、填充(padding)、卷积核大小等。
例如,客户端控制模块125可以通过分析结构表示300确定层属性。以框310为例,客户端控制模块125可以确定框310的标识符为CONV2D_1_INPUT,类型为输入层,不存在上游神经网络层,下游神经网络层为与框320对应的CONV2D_1层,可配置属性为输入数据为1通道×宽28像素×高28像素的黑白图像并且输出数据为1通道×宽28像素×高28像素的黑白图像。
客户端控制模块125可以基于所确定的层属性,将特定结构表示转换为规范化结构表示。图4示出了根据本公开的实施例的用于深度学习处理的神经网络的规范化结构表示400的示例的示意图。结构表示400仅是用于深度学习处理的神经网络的规范化结构表示的一种具体实现方式,并且规范化结构表示可以具有任何适当的表示形式。
具体地,图4示出了与特定结构表示300中的框310对应的规范化结构表示。框320-340具有类似规范化结构表示,在此省略其描述。
如图4所示,结构表示400可以被组织为键值对的形式,其中键410指示神经网络的神经网络层的层属性,并且值420指示层属性的值。例如,键410可以包括标识符、类型、上游神经网络层、下游神经网络层和可配置属性。相应地,与这些键对应的值420分别指示标识符为CONV2D_1_INPUT,类型为输入层,不存在上游神经网络层,下游神经网络层为CONV2D_1层,可配置属性为输入数据为1通道×宽28像素×高28像素的黑白图像以及输出数据为1通道×宽28像素×高28像素的黑白图像。
在某些实施例中,这些键值对可以被组织为图的形式。图中的节点可以表示神经网络层,并且图形的边可以标识该神经网络层的输入和输出数据。
返回参考图2,在220,客户端控制模块125可以基于所获取的结构表示(诸如结构表示300和结构表示400),确定深度学习处理所需的专用处理资源的资源量。在确定所需的专用处理资源的资源量时,最值得关注的两种资源量是存储器资源量和计算资源量。
深度学习处理所需的存储器资源量取决于神经网络的每个神经网络层的层存储器资源量。在某些实施例中,客户端控制模块125可以基于结构表示,确定针对神经网络的每个神经网络层的层存储器资源量。在此,层存储器资源量指示相应神经网络层所需的专用处理资源的存储器的资源量。
以下将描述确定常见类型的神经网络层的存储器资源量的方式。例如,针对输入层,客户端控制模块125可以基于诸如浮点数大小、一次迭代所使用的数据量、通道数、高度和宽度等参数来确定输入层的层存储器资源量。例如,客户端控制模块125可以基于以下等式来计算输入层的层存储器资源量:输入层的层存储器资源量=浮点数大小×一次迭代所使用的数据量×通道数×高度×宽度。
针对卷积层,客户端控制模块125可以基于诸如浮点数大小、一次迭代所使用的数据量、卷积输出通道数、卷积输出高度和卷积输出宽度等参数来确定卷积层的层存储器资源量。例如,客户端控制模块125可以基于以下等式来计算卷积层的层存储器资源量:卷积层的层存储器资源量=浮点数大小×一次迭代所使用的数据量×卷积输出通道数×卷积输出高度×卷积输出宽度。
针对采样层,客户端控制模块125可以基于诸如浮点数大小、一次迭代所使用的数据量、卷积输出通道数、卷积输出高度、卷积输出宽度和采样步长等参数来确定输入层的层存储器资源量。例如,客户端控制模块125可以基于以下等式来计算采样层的层存储器资源量:采样层的层存储器资源量=浮点数大小×一次迭代所使用的数据量×卷积输出通道数×(卷积输出高度/采样步长)×(卷积输出宽度/采样步长)。
针对全连接层,客户端控制模块125可以基于诸如浮点数大小、一次迭代所使用的数据量、全连接输出等参数来确定全连接层的层存储器资源量。例如,客户端控制模块125可以基于以下等式来计算全连接层的层存储器资源量:全连接层的层存储器资源量=浮点数大小×一次迭代所使用的数据量×全连接输出。然后,客户端控制模块125可以基于层存储器资源量,来确定所需的存储器资源量。在某些实施例中,深度学习处理所需的存储器资源量可以由神经网络的每个神经网络层的层存储器资源量累加获得。在此情况下,客户端控制模块125可以基于层存储器资源量之和,确定存储器资源量。
以上描述了确定在前向传播中神经网络所需的存储器资源量的过程。应理解,所需的存储器资源量还取决于其他因素,例如在后向传播中神经网络的数据和参数(诸如梯度)所需的存储器资源量,以及在使用快速傅里叶变换(FFT)时所需的存储器资源量。因此,在某些实施例中,客户端控制模块125可以基于所有所需的存储器资源量之和来确定最终的存储器资源量。
此外,深度学习处理所需的计算资源量取决于神经网络的每个神经网络层的层计算资源量。在某些实施例中,客户端控制模块125可以基于结构表示,确定针对神经网络的每个神经网络层的层计算资源量。在此,层计算资源量指示相应神经网络层所需的专用处理资源的计算能力。
针对常见类型的神经网络层,确定层计算资源量的方式可以参照上文所述的确定层存储器资源量的方式,而不考虑浮点数大小。例如,客户端控制模块125可以基于诸如一次迭代所使用的数据量、卷积输出通道数、卷积输出高度和卷积输出宽度等参数来确定卷积层的层计算资源量。例如,客户端控制模块125可以基于以下等式来计算卷积层的层计算资源量:卷积层的层存储器资源量=一次迭代所使用的数据量×卷积输出通道数×卷积输出高度×卷积输出宽度。确定其他常见类型的神经网络层的层计算资源量的方式与输入层类似,并且在此省略其描述。
然后,客户端控制模块125可以基于层计算资源量,来确定所需的计算资源量。在某些实施例中,客户端控制模块125可以从层计算资源量中选择所需的计算能力大于预定阈值的目标层计算资源量,以及基于目标层计算资源量,确定所需的计算资源量。例如,由于在给定时间内,仅一个神经网络层能够在专用处理资源中运行,因此深度学习处理所需的计算资源量取决于神经网络的每个神经网络层的最大层存计算资源量。通常,卷积层和全连接层所需的存计算资源量最大。
然后,客户端控制模块125可以根据所确定的资源量请求专用处理资源115。在某些实施例中,客户端控制模块125可以根据所确定的资源量向调度模块130发送调度请求以请求专用处理资源115。例如,调度请求可以指示请求的客户端120、所需的总存储器资源量和所需的最大计算资源量。
调度模块130在接收到来自客户端控制模块125的调度请求时,可以基于客户端130所请求的专用处理资源115的资源量和系统中的可用专用处理资源来为客户端130分配专用处理资源115。然后,客户端130可以向专用处理资源服务器110请求所分配的专用处理资源115。
以此方式,客户端控制模块125可以快速、准确和有效地估计所需的专用处理资源的资源量。由此,客户端控制模块125可以根据所确定的、相对准确的资源量请求专用处理资源,从而提高专用处理资源调度系统100的性能和资源利用率。
图5示出了可以用来实施本公开内容的实施例的示例设备500的示意性框图。例如,如图1所示的调度模块130可以由设备500来实施。如图所示,设备500包括中央处理单元(CPU)510,其可以根据存储在只读存储器(ROM)520中的计算机程序指令或者从存储单元580加载到随机访问存储器(RAM)530中的计算机程序指令,来执行各种适当的动作和处理。在RAM 530中,还可存储设备500操作所需的各种程序和数据。CPU 510、ROM 520以及RAM530通过总线540彼此相连。输入/输出(I/O)接口550也连接至总线540。
设备500中的多个部件连接至I/O接口550,包括:输入单元560,例如键盘、鼠标等;输出单元570,例如各种类型的显示器、扬声器等;存储单元580,例如磁盘、光盘等;以及通信单元590,例如网卡、调制解调器、无线通信收发机等。通信单元590允许设备500通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
上文所描述的各个过程和处理,例如方法200,可由处理单元510执行。例如,在一些实施例中,方法200可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元580。在一些实施例中,计算机程序的部分或者全部可以经由ROM 520和/或通信单元590而被载入和/或安装到设备500上。当计算机程序被加载到RAM 530并由CPU 510执行时,可以执行上文描述的方法200的一个或多个动作。
本公开可以是方法、装置、系统和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于执行本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理单元,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理单元执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。

Claims (19)

1.一种用于确定专用处理资源的资源量的方法,包括:
获取用于深度学习处理的神经网络的结构表示,所述结构表示指示所述神经网络中的与专用处理资源相关联的层属性;以及
基于所述结构表示,确定所述深度学习处理所需的所述专用处理资源的所述资源量。
2.根据权利要求1所述的方法,其中获取所述结构表示包括:
获取所述神经网络的特定结构表示,所述特定结构表示针对执行所述深度学习处理的深度学习应用具有特定表示形式;以及
将所述特定结构表示规范化为所述结构表示。
3.根据权利要求2所述的方法,其中将所述特定结构表示规范化为所述结构表示包括:
基于所述特定结构表示,确定与所述神经网络的神经网络层有关的层属性;以及
基于所述层属性,将所述特定结构表示规范化为所述结构表示。
4.根据权利要求3所述的方法,其中确定所述层属性包括:
确定以下中的至少一项:
所述神经网络层的标识符;
所述神经网络层的类型;
所述神经网络层的上游神经网络层;
所述神经网络层的下游神经网络层;以及
所述神经网络层的可配置属性。
5.根据权利要求1所述的方法,其中获取所述结构表示包括:
获取包含所述结构表示的文件;以及
解析所述文件以获取所述结构表示。
6.根据权利要求1所述的方法,其中获取所述结构表示包括:
向执行所述深度学习处理的深度学习应用请求所述结构表示;以及
响应于接收到来自所述深度学习应用的响应,从所述响应获取所述结构表示。
7.根据权利要求1所述的方法,其中确定所述资源量包括:
确定所述深度学习处理所需的所述专用处理资源的存储器资源量和计算资源量中的至少一个。
8.根据权利要求7所述的方法,其中确定所述存储器资源量包括:
基于所述结构表示,确定针对所述神经网络的每个神经网络层的层存储器资源量,所述层存储器资源量指示相应神经网络层所需的所述专用处理资源的存储器;以及
基于所述层存储器资源量之和,确定所述存储器资源量。
9.根据权利要求7所述的方法,其中确定所述计算资源量包括:
基于所述结构表示,确定针对所述神经网络的每个神经网络层的层计算资源量,所述层计算资源量指示相应神经网络层所需的所述专用处理资源的计算能力;
从所述层计算资源量中选择所需的计算能力大于预定阈值的目标层计算资源量;以及
基于所述目标层计算资源量,确定所述计算资源量。
10.一种用于确定专用处理资源的资源量的设备,包括:
至少一个处理单元;
至少一个存储器,所述至少一个存储器被耦合到所述至少一个处理单元并且存储用于由所述至少一个处理单元执行的指令,所述指令当由所述至少一个处理单元执行时,使得所述设备执行动作,所述动作包括:
获取用于深度学习处理的神经网络的结构表示,所述结构表示指示所述神经网络中的与专用处理资源相关联的层属性;以及
基于所述结构表示,确定所述深度学习处理所需的所述专用处理资源的所述资源量。
11.根据权利要求10所述的设备,其中获取所述结构表示包括:
获取所述神经网络的特定结构表示,所述特定结构表示针对执行所述深度学习处理的深度学习应用具有特定表示形式;以及
将所述特定结构表示规范化为所述结构表示。
12.根据权利要求11所述的设备,其中将所述特定结构表示规范化为所述结构表示包括:
基于所述特定结构表示,确定与所述神经网络的神经网络层有关的层属性;以及
基于所述层属性,将所述特定结构表示规范化为所述结构表示。
13.根据权利要求12所述的设备,其中确定所述层属性包括:
确定以下中的至少一项:
所述神经网络层的标识符;
所述神经网络层的类型;
所述神经网络层的上游神经网络层;
所述神经网络层的下游神经网络层;以及
所述神经网络层的可配置属性。
14.根据权利要求10所述的设备,其中获取所述结构表示包括:
获取包含所述结构表示的文件;以及
解析所述文件以获取所述结构表示。
15.根据权利要求10所述的设备,其中获取所述结构表示包括:
向执行所述深度学习处理的深度学习应用请求所述结构表示;以及
响应于接收到来自所述深度学习应用的响应,从所述响应获取所述结构表示。
16.根据权利要求10所述的设备,其中确定所述资源量包括:
确定所述深度学习处理所需的所述专用处理资源的存储器资源量和计算资源量中的至少一个。
17.根据权利要求16所述的设备,其中确定所述存储器资源量包括:
基于所述结构表示,确定针对所述神经网络的每个神经网络层的层存储器资源量,所述层存储器资源量指示相应神经网络层所需的所述专用处理资源的存储器;以及
基于所述层存储器资源量之和,确定所述存储器资源量。
18.根据权利要求16所述的设备,其中确定所述计算资源量包括:
基于所述结构表示,确定针对所述神经网络的每个神经网络层的层计算资源量,所述层计算资源量指示相应神经网络层所需的所述专用处理资源的计算能力;
从所述层计算资源量中选择所需的计算能力大于预定阈值的目标层计算资源量;以及
基于所述目标层计算资源量,确定所述计算资源量。
19.一种计算机程序产品,所述计算机程序产品被有形地存储在非瞬态计算机可读介质上并且包括机器可执行指令,所述机器可执行指令在被执行时使机器执行根据权利要求1至9任一项所述的方法的步骤。
CN201810048693.XA 2018-01-18 2018-01-18 用于确定专用处理资源的资源量的方法、设备和计算机程序产品 Active CN110058936B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201810048693.XA CN110058936B (zh) 2018-01-18 2018-01-18 用于确定专用处理资源的资源量的方法、设备和计算机程序产品
US16/239,803 US11442779B2 (en) 2018-01-18 2019-01-04 Method, device and computer program product for determining resource amount for dedicated processing resources

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810048693.XA CN110058936B (zh) 2018-01-18 2018-01-18 用于确定专用处理资源的资源量的方法、设备和计算机程序产品

Publications (2)

Publication Number Publication Date
CN110058936A true CN110058936A (zh) 2019-07-26
CN110058936B CN110058936B (zh) 2023-04-18

Family

ID=67213958

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810048693.XA Active CN110058936B (zh) 2018-01-18 2018-01-18 用于确定专用处理资源的资源量的方法、设备和计算机程序产品

Country Status (2)

Country Link
US (1) US11442779B2 (zh)
CN (1) CN110058936B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110554923A (zh) * 2019-09-09 2019-12-10 吕春燕 一种用于云计算的分布链式计算资源的优化方法及系统
CN113590275A (zh) * 2020-04-30 2021-11-02 伊姆西Ip控股有限责任公司 用于处理数据的方法、电子设备和计算机程序产品
WO2023273502A1 (zh) * 2021-06-30 2023-01-05 华为技术有限公司 作业处理的方法、装置、计算机设备以及存储介质

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200029510A (ko) * 2017-08-08 2020-03-18 삼성전자주식회사 네트워크에서 메모리 요구 사항을 결정하는 방법 및 장치
CN110390387B (zh) * 2018-04-20 2023-07-18 伊姆西Ip控股有限责任公司 对深度学习应用所用资源进行评估
US11880762B2 (en) * 2018-06-26 2024-01-23 International Business Machines Corporation Choosing execution mode of a neural network based on total memory usage
CN112052083A (zh) * 2020-09-15 2020-12-08 浙江智慧视频安防创新中心有限公司 云端gpu的显存调度方法、装置、电子设备及存储介质
CN113900734B (zh) * 2021-10-11 2023-09-22 北京百度网讯科技有限公司 一种应用程序文件配置方法、装置、设备及存储介质

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008067676A1 (en) * 2006-12-08 2008-06-12 Medhat Moussa Architecture, system and method for artificial neural network implementation
CN101841862A (zh) * 2009-03-18 2010-09-22 大唐移动通信设备有限公司 一种资源分配方法及装置
CN102594927A (zh) * 2012-04-05 2012-07-18 高汉中 基于神经网络的云端服务器结构
WO2013037299A1 (zh) * 2011-09-13 2013-03-21 华为技术有限公司 传输数据的方法、物联网设备和网络侧设备
CN104732274A (zh) * 2015-03-10 2015-06-24 华南理工大学 一种智能计算机
US9378044B1 (en) * 2015-03-28 2016-06-28 Vmware, Inc. Method and system that anticipates deleterious virtual-machine state changes within a virtualization layer
CN106846071A (zh) * 2017-02-23 2017-06-13 北京小度信息科技有限公司 数据处理方法及装置
US20170286861A1 (en) * 2016-04-01 2017-10-05 Damian Kelly Structured machine learning framework
US20170316312A1 (en) * 2016-05-02 2017-11-02 Cavium, Inc. Systems and methods for deep learning processor
CN107343023A (zh) * 2017-05-25 2017-11-10 北京奇艺世纪科技有限公司 一种Mesos管理集群中的资源分配方法、装置及电子设备
CN107368372A (zh) * 2017-07-25 2017-11-21 郑州云海信息技术有限公司 一种基于云海os平台的资源展示方法与装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2554711B (en) * 2016-10-06 2020-11-25 Imagination Tech Ltd Buffer addressing for a convolutional neural network
US11321604B2 (en) * 2017-06-21 2022-05-03 Arm Ltd. Systems and devices for compressing neural network parameters
CN109976903B (zh) * 2019-02-22 2021-06-29 华中科技大学 一种基于层宽内存分配的深度学习异构计算方法和系统
US20240005157A1 (en) * 2020-09-17 2024-01-04 Lightmetrics Technologies Pvt. Ltd. Methods and systems for unstructured pruning of a neural network

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008067676A1 (en) * 2006-12-08 2008-06-12 Medhat Moussa Architecture, system and method for artificial neural network implementation
CN101841862A (zh) * 2009-03-18 2010-09-22 大唐移动通信设备有限公司 一种资源分配方法及装置
WO2013037299A1 (zh) * 2011-09-13 2013-03-21 华为技术有限公司 传输数据的方法、物联网设备和网络侧设备
CN102594927A (zh) * 2012-04-05 2012-07-18 高汉中 基于神经网络的云端服务器结构
CN104732274A (zh) * 2015-03-10 2015-06-24 华南理工大学 一种智能计算机
US9378044B1 (en) * 2015-03-28 2016-06-28 Vmware, Inc. Method and system that anticipates deleterious virtual-machine state changes within a virtualization layer
US20170286861A1 (en) * 2016-04-01 2017-10-05 Damian Kelly Structured machine learning framework
US20170316312A1 (en) * 2016-05-02 2017-11-02 Cavium, Inc. Systems and methods for deep learning processor
CN106846071A (zh) * 2017-02-23 2017-06-13 北京小度信息科技有限公司 数据处理方法及装置
CN107343023A (zh) * 2017-05-25 2017-11-10 北京奇艺世纪科技有限公司 一种Mesos管理集群中的资源分配方法、装置及电子设备
CN107368372A (zh) * 2017-07-25 2017-11-21 郑州云海信息技术有限公司 一种基于云海os平台的资源展示方法与装置

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
DANIELE RAVI 等: "Deep learning for human activity recognition: A resource efficient implementation on low-power devices", 《2016 IEEE 13TH INTERNATIONAL CONFERENCE ON WEARABLE AND IMPLANTABLE BODY SENSOR NETWORKS (BSN)》 *
HAORAN SUN 等: "Learning to optimize: Training deep neural networks for wireless resource management", 《2017 IEEE 18TH INTERNATIONAL WORKSHOP ON SIGNAL PROCESSING ADVANCES IN WIRELESS COMMUNICATIONS (SPAWC)》 *
廖湘科 等: "新型高性能计算系统与技术", 《中国科学:信息科学》 *
陈先昌: "基于卷积神经网络的深度学习算法与应用研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
陈鹏: "动态资源分配神经网络及其应用研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110554923A (zh) * 2019-09-09 2019-12-10 吕春燕 一种用于云计算的分布链式计算资源的优化方法及系统
CN110554923B (zh) * 2019-09-09 2020-05-22 北京人民在线网络有限公司 一种用于云计算的分布链式计算资源的优化方法及系统
CN113590275A (zh) * 2020-04-30 2021-11-02 伊姆西Ip控股有限责任公司 用于处理数据的方法、电子设备和计算机程序产品
WO2023273502A1 (zh) * 2021-06-30 2023-01-05 华为技术有限公司 作业处理的方法、装置、计算机设备以及存储介质

Also Published As

Publication number Publication date
US20190220316A1 (en) 2019-07-18
CN110058936B (zh) 2023-04-18
US11442779B2 (en) 2022-09-13

Similar Documents

Publication Publication Date Title
CN110058936A (zh) 用于确定专用处理资源的资源量的方法、设备和计算机程序产品
US10699043B2 (en) Generating integrated circuit floorplans using neural networks
EP3446260B1 (en) Memory-efficient backpropagation through time
CN104731574B (zh) 用于识别多级工作流处理中的资源瓶颈的方法和系统
CN110503192A (zh) 资源有效的神经架构
US11694109B2 (en) Data processing apparatus for accessing shared memory in processing structured data for modifying a parameter vector data structure
US20210374542A1 (en) Method and apparatus for updating parameter of multi-task model, and storage medium
US20210042628A1 (en) Building a federated learning framework
CN105446988B (zh) 预测类别的方法和装置
CN115131566A (zh) 基于超像素和改进模糊c均值聚类的自动图像分割方法
US20200034776A1 (en) Managing skills as clusters using machine learning and domain knowledge expert
AU2016328959A1 (en) Updating attribute data structures to indicate trends in attribute data provided to automated modeling systems
CN107615275A (zh) 估计用于运行数据挖掘服务的计算资源
CN108235116A (zh) 特征传播方法和装置、电子设备、程序和介质
CN106844781A (zh) 数据处理的方法及装置
US20230024680A1 (en) Method of determining regional land usage property, electronic device, and storage medium
CN112163601A (zh) 图像分类方法、系统、计算机设备及存储介质
JP7078799B2 (ja) 当事者間の戦略的対話における戦略探索のためのサンプリング方式
US20220391253A1 (en) Method of resource management of virtualized system, electronic device and computer program product
CN110389812A (zh) 用于管理虚拟机的方法、设备和计算机可读存储介质
CN108287928A (zh) 一种基于局部加权线性回归的空间属性预测方法
CN109416688A (zh) 用于灵活的高性能结构化数据处理的方法和系统
CN109325655A (zh) 人群绩效特征预测中的缺失特征处理方法及装置
CN110413210A (zh) 用于处理数据的方法、设备和计算机程序产品
CN109711555B (zh) 一种预测深度学习模型单轮迭代时间的方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant