CN114330668A - 模型处理方法、装置、电子设备和计算机存储介质 - Google Patents

模型处理方法、装置、电子设备和计算机存储介质 Download PDF

Info

Publication number
CN114330668A
CN114330668A CN202111672855.5A CN202111672855A CN114330668A CN 114330668 A CN114330668 A CN 114330668A CN 202111672855 A CN202111672855 A CN 202111672855A CN 114330668 A CN114330668 A CN 114330668A
Authority
CN
China
Prior art keywords
deep learning
learning model
hash value
speed measurement
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111672855.5A
Other languages
English (en)
Inventor
刘亮
龚睿昊
王裕淞
王燕飞
余锋伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Sensetime Technology Co Ltd
Original Assignee
Chengdu Sensetime Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Sensetime Technology Co Ltd filed Critical Chengdu Sensetime Technology Co Ltd
Priority to CN202111672855.5A priority Critical patent/CN114330668A/zh
Publication of CN114330668A publication Critical patent/CN114330668A/zh
Priority to PCT/CN2022/093836 priority patent/WO2023123828A1/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Stored Programmes (AREA)
  • Feedback Control In General (AREA)
  • Debugging And Monitoring (AREA)

Abstract

本公开实施例提出了一种模型处理方法、装置、电子设备和计算机存储介质,该方法包括:获取深度学习模型集合和运行平台集合,其中,采用哈希值作为表征所述深度学习模型集合中每一深度学习模型的标识,所述每一深度学习模型包括网络拓扑结构以及各算子节点的属性信息;所述运行平台集合中的各运行平台是加速库中的每一部署工具部署在硬件集合中每一硬件上形成的;确定所述每一深度学习模型在所述各运行平台上的测速结果;基于每一所述测速结果与对应的深度学习模型和运行平台之间的映射关系,构建数据库。

Description

模型处理方法、装置、电子设备和计算机存储介质
技术领域
本公开涉及深度学习技术领域,涉及但不限于一种模型处理方法、装置、电子设备和计算机存储介质。
背景技术
速度测试是深度神经网络模型在部署阶段的必要过程,由于不同硬件平台的设计各不相同,因而同一模型在不同硬件平台上的性能也不尽相同,运行速度会有较大差异。
目前,模型的速度性能关系着该模型地落地与应用;在使用深度学习框架训练得到对应的模型后,若想得到部署环境中的模型的速度性能,往往需要通过转换模型、申请对应硬件平台权限、配置硬件运行环境等步骤,才能正确部署模型并进行速度性能的测试,而这一过程是十分冗长复杂的,并且对于不同的模型、不同的硬件平台,由于硬件平台厂商开发套件的不同,往往需要尝试不同的部署流程。在一些方案中,在通过手动部署的方式得到模型的性能结果之后,需要进行手动记录,并且部署经验在不同模型、不同硬件平台间不可复用;可见,该方式不仅测速过程繁琐容易出错,还会降低获取模型的速度信息的效率。
发明内容
本公开实施例期望提供模型处理方法、装置、电子设备和计算机存储介质,通过构建数据库,能够较为快速地获取神经网络模型的速度信息。
本公开实施例提供了一种模型处理方法,所述方法包括:
获取深度学习模型集合和运行平台集合,其中,采用哈希值作为表征所述深度学习模型集合中每一深度学习模型的标识,所述每一深度学习模型包括网络拓扑结构以及各算子节点的属性信息;所述运行平台集合中的各运行平台是加速库中的每一部署工具部署在硬件集合中每一硬件上形成的;
确定所述每一深度学习模型在所述各运行平台上的测速结果;
基于每一所述测速结果与对应的深度学习模型和运行平台之间的映射关系,构建数据库。
本公开实施例还提供了一种模型处理装置,所述装置包括:
获取模块,用于获取深度学习模型集合和运行平台集合,其中,采用哈希值作为表征所述深度学习模型集合中每一深度学习模型的标识,所述每一深度学习模型包括网络拓扑结构以及各算子节点的属性信息;所述运行平台集合中的各运行平台是加速库中的每一部署工具部署在硬件集合中每一硬件上形成的;确定模块,用于确定所述每一深度学习模型在所述各运行平台上的测速结果;构建模块,用于基于每一所述测速结果与对应的深度学习模型和运行平台之间的映射关系,构建数据库。
本公开实施例还提供了一种电子设备,包括处理器和用于存储能够在处理器上运行的计算机程序的存储器;其中,
所述处理器用于运行所述计算机程序以执行上述任意一种模型处理方法。
本公开实施例还提供了一种计算机存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述任意一种模型处理方法。
本公开实施例提出的模型处理方法、装置、电子设备和计算机存储介质中,所述方法包括:获取深度学习模型集合和运行平台集合,其中,采用哈希值作为表征所述深度学习模型集合中每一深度学习模型的标识,所述每一深度学习模型包括网络拓扑结构以及各算子节点的属性信息;所述运行平台集合中的各运行平台是加速库中的每一部署工具部署在硬件集合中每一硬件上形成的;确定所述每一深度学习模型在所述各运行平台上的测速结果;基于每一所述测速结果与对应的深度学习模型和运行平台之间的映射关系,构建数据库。
可以看出,在本公开实施例中,在构建数据库后,数据库中存储着每一深度学习模型在各运行平台上的测速结果;由于每一深度学习模型均可以采用哈希值进行表征,因而,在后续接收到用户针对某一深度学习模型的测速请求时,可以通过对比该深度学习模型的哈希值与数据库中存储的每一深度学习模型的哈希值,快速得到与第一深度学习模型匹配的深度学习模型,进而,可以将在数据库中查找到的该匹配的深度学习模型的测速结果作为第一深度学习模型的测速结果,如此,可以加快模型的速度信息的获取。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,而非限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,这些附图示出了符合本公开的实施例,并与说明书一起用于说明本公开的技术方案。
图1A为本公开实施例的一种模型处理方法的流程图;
图1B为本公开实施例的一种确定每一深度学习模型的哈希值的流程图;
图1C为本公开实施例的确定每一深度学习模型中各算子节点的哈希值以及各算子节点的属性信息的哈希值的流程图;
图1D为本公开实施例的另一种确定每一深度学习模型的哈希值的流程图;
图1E为本公开实施例的又一种确定每一深度学习模型的哈希值的流程图;
图1F为本公开实施例中的一种构建数据库的流程图;
图1G为本公开实施例中的一种确定第一深度学习模型的测速结果的流程图;
图1H为本公开实施例中的另一种确定第一深度学习模型的测速结果的流程图;
图1I为本公开实施例中的一种确定各深度学习模型在第一运行平台的测速结果的流程图;
图1J为本公开实施例中的一种将第一深度学习模型在各运行平台上的测速结果添加到数据库的流程图;
图2为本公开实施例的另一种模型处理方法的流程示意图;
图3为本公开实施例的模型处理装置的组成结构示意图;
图4为本公开实施例的一种电子设备的结构示意图。
具体实施方式
以下结合附图及实施例,对本公开进行进一步详细说明。应当理解,此处所提供的实施例仅仅用以解释本公开,并不用于限定本公开。另外,以下所提供的实施例是用于实施本公开的部分实施例,而非提供实施本公开的全部实施例,在不冲突的情况下,本公开实施例记载的技术方案可以任意组合的方式实施。
需要说明的是,在本公开实施例中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的方法或者装置不仅包括所明确记载的要素,而且还包括没有明确列出的其他要素,或者是还包括为实施方法或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个......”限定的要素,并不排除在包括该要素的方法或者装置中还存在另外的相关要素(例如方法中的步骤或者装置中的单元,例如的单元可以是部分电路、部分处理器、部分程序或软件等等)。
例如,本公开实施例提供的模型处理方法包含了一系列的步骤,但是本公开实施例提供的模型处理方法不限于所记载的步骤,同样地,本公开实施例提供的模型处理装置包括了一系列模块,但是本公开实施例提供的装置不限于包括所明确记载的模块,还可以包括为获取相关信息、或基于信息进行处理时所需要设置的模块。
本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中术语“至少一种”表示多种中的任意一种或多种中的至少两种的任意组合,例如,包括A、B、C中的至少一种,可以表示包括从A、B和C构成的集合中选择的任意一个或多个元素。
本公开可以基于电子设备实现,这里,电子设备可以是瘦客户机、厚客户机、手持或膝上设备、基于微处理器的系统、机顶盒、可编程消费电子产品、网络个人电脑、小型计算机系统,等等。
电子设备可以通过程序模块的执行实现相应的功能。通常,程序模块可以包括例程、程序、目标程序、组件、逻辑、数据结构等等。它们执行特定的任务或者实现特定的抽象数据类型。计算机系统可以在分布式云计算环境中实施,在分布式云计算环境中,任务是由通过通信网络链接的远程处理设备执行的。在分布式云计算环境中,程序模块可以位于包括存储设备的本地或远程计算系统存储介质上。
在相关技术中,一些测速平台可以辅助用户方便的进行模型部署及测试,这些平台省去了人工进行模型部署的繁琐流程,转而利用多平台的实际部署经验,将模型解析接口和后端运行库接口统一起来,用相对自动的方式进行模型部署与评测。但每一次模型速度信息的获取,均需要经历自动的模型转换、模型编译、远端执行这样一个完整的部署流程,因而对于相同模型的速度信息的获取往往需要重复地在硬件平台上进行实际测试。由于模型的速度信息关系着模型地落地与应用,因而,如何提高快速获取模型的速度信息,是亟待解决的技术问题。
针对上述技术问题,在本公开的一些实施例中,提出了一种模型查询的技术方案。
在本公开的一些实施例中,模型处理方法可以利用模型处理装置中的处理器实现,上述处理器可以为特定用途集成电路(Application Specific Integrated Circuit,ASIC)、数字信号处理器(Digital Signal Processor,DSP)、数字信号处理装置(DigitalSignal Processing Device,DSPD)、可编程逻辑装置(Programmable Logic Device,PLD)、现场可编程逻辑门阵列(Field Programmable Gate Array,FPGA)、中央处理器(CentralProcessing Unit,CPU)、控制器、微控制器、微处理器中的至少一种。
图1A为本公开实施例的一种模型处理方法的流程图,如图1A所示,该流程可以包括:
步骤100:获取深度学习模型集合和运行平台集合,其中,采用哈希值作为表征深度学习模型集合中每一深度学习模型的标识,每一深度学习模型包括网络拓扑结构以及各算子节点的属性信息;运行平台集合中的各运行平台是加速库中的每一部署工具部署在硬件集合中每一硬件上形成的。
这里,对于深度学习模型集合中每一深度学习模型的类型不作限定,例如,可以是深度神经网络(Deep Neural Networks,DNN)模型、循环神经网络(Recurrent NeuralNetworks,RNN)模型等;其中,深度学习模型集合中两两深度学习模型的类型可以相同,也可以不同。
在一些实施例中,在获取深度学习模型集合后,需要确定每一深度学习模型的哈希值;图1B为本公开实施例的一种确定每一深度学习模型的哈希值的流程图,如图1B所示,该流程可以包括以下步骤:
步骤1000:获取每一深度学习模型的网络拓扑结构以及各算子节点的属性信息;
步骤1001:确定每一深度学习模型中各算子节点的哈希值以及各算子节点的属性信息的哈希值;
步骤1002:对各算子节点的哈希值以及各算子节点的属性信息的哈希值进行哈希处理,得到每一深度学习模型的哈希值。
本公开实施例中,每一深度学习模型可以表示包括多个神经网络层的网络模型,其中,每个神经网络层可以包括至少一个神经元;示例性地,每一深度学习模型中各算子节点对应每种深度学习模型中包括的各个神经元;根据每个神经网络层包括的各个神经元的连接关系,可以确定每一深度学习模型的网络拓扑结构。
示例性地,假设深度学习模型包括输入层,隐藏层和输出层这三个神经网络层,且输入层包括三个神经元,隐藏层包括四个神经元,输出层包括三个神经元,则深度学习模型中包括的十个神经元对应该模型中的十个算子节点;这十个算子节点的连接关系构成了该深度学习模型的网络拓扑结构。
在一些实施例中,各算子节点的属性信息可以包括节点对应的权重、节点对应的数据的类型、以及节点对应的函数计算方式(例如,可以是求和函数)等信息。
示例性地,可以通过图遍历方法获取深度学习模型集合中每一深度学习模型的网络拓扑结构以及各算子节点的属性信息。
在一些实施例中,可以通过如图1C所示的步骤确定每一深度学习模型中各算子节点的哈希值以及各算子节点的属性信息的哈希值:
步骤1003:基于每一深度学习模型的网络拓扑结构以及各算子节点的属性信息,构建每一深度学习模型的有向无环图;
步骤1004:确定每一有向无环图中各算子节点的哈希值以及各算子节点的属性信息的哈希值。
本公开实施例中,在获取深度学习模型集合中每一深度学习模型的网络拓扑结构以及各算子节点的属性信息后,可以基于每一深度学习模型的网络拓扑结构以及各算子节点的属性信息构建对应的有向无环图;在得到每一深度学习模型的有向无环图后,确定每一有向无环图中各算子节点的哈希值以及各算子节点的属性信息的哈希值。
在一些实施例中,在得到每一有向无环图中各算子节点的哈希值以及各算子节点的属性信息的哈希值后,可以通过如图1D所示的步骤确定每一深度学习模型的哈希值:
步骤1005:对每一有向无环图中各算子节点的哈希值以及各算子节点的属性信息的哈希值进行哈希处理,得到每一有向无环图中各算子节点的唯一表示值;
步骤1006:对每一有向无环图中各算子节点的唯一表示值进行排序;
步骤1007:对排序后的各算子节点的唯一表示值进行哈希处理,得到每一深度学习模型的哈希值。
示例性地,在确定每一有向无环图中各算子节点的哈希值以及各算子节点的属性信息的哈希值后,通过逆拓扑排序方法将各算子节点的哈希值和属性信息的哈希值结合起来,并做进一步哈希处理,得到每一有向无环图种各算子节点的唯一表示值;这里,具有相同哈希值的算子节点之间不仅具有相同的算子类型、相同的属性信息,还具有相同的子节点拓扑关系。
进一步地,在得到每一有向无环图中各算子节点的唯一表示值后,对各算子节点的唯一表示值进行排序并进行进一步哈希处理,得到每一深度神经网络模型的哈希值。
示例性地,下面结合图1E说明确定每一深度学习模型的哈希值的流程,如图1E所示,该流程可以包括:
步骤1008:删除每一深度学习模型的参数信息;
步骤1009:提取每一深度学习模型的网络拓扑结构以及各个算子节点的属性信息;
步骤1010:基于网络拓扑结构以及各算子节点的属性信息,构建有向无环图;
步骤1011:确定每一有向无环图中各算子节点的唯一表示值;
步骤1012:确定每一深度学习模型的哈希值。
这里,步骤1009与上述步骤1000的实现方式相同,步骤1010与上述步骤1003的实现方式相同,步骤1011与上述步骤1005的实现方式相同。
示例性地,根据上述处理流程可以确定每一深度学习模型的哈希值;深度学习模型集合中每一深度学习模型均对应一个哈希值,不同深度学习模型的哈希值不相同,即,每种深度学习模型都有一个唯一的哈希值与其对应,该哈希值唯一标识了深度学习模型的网络拓扑结构以及各个算子节点的属性信息。
示例性地,根据图1E所示的流程可知,在获取每一深度学习模型的网络拓扑结构以及各算子节点的属性信息之前,删除每一深度学习模型的参数信息。
本公开实施例中,在获取每一深度学习模型的网络拓扑结构以及各算子节点的属性信息之前,可以先将每种深度学习模型的格式转换成可以进行哈希表示的特定格式;这里,对于特定格式的类型不作限定;例如,可以是开放式神经网络交换格式(Open NeuralNetwork Exchange,ONNX),也可以是其它类型的转换格式。
进一步地,在得到特定格式的深度学习模型后,可以先删除每种深度学习模型的参数信息,如此,可以减少模型数据的内存占用。
在一些实施例中,运行平台集合中的各运行平台反映了硬件集合中每一硬件与加速库中每一部署工具之间的联系;其表示运行模型时硬件和加速库的组合,是多对多的联系;即,通过硬件和加速库的不同组合方式,可以得到多种不同类型的运行平台;这里,硬件可以表示硬件平台。
步骤101:确定每一深度学习模型在各运行平台上的测速结果。
本公开实施例中,在获取到深度学习模型集合和运行平台集合后,会确定深度学习模型集合中每一深度学习模型在运行平台集合中的各运行平台上的测速结果。
这里,测速结果反映了各运行平台和每一深度学习模型的网络拓扑结构之间的联系;由于运行平台集合中不同运行平台对应的硬件配置、加速库的部署工具和运行环境等方面存在区别;因而,同一深度学习模型在不同运行平台上的性能也不尽相同,运行速度也会有较大差异。
示例性地,对于确定每一深度学习模型在各运行平台上的测速结果的实现方式,可以为:通过手动部署的方式将每一深度学习模型部署到各运行平台上,得到每一深度学习模型的测速结果;还可以为:将模型解析接口和后端运行库接口统一起来,用相对自动的方式进行模型部署与评测,通过模型转换、模型编译、远程执行等操作在各各运行平台上进行测速操作,得到每一深度学习模型的测速结果。
可以理解地,在确定每一深度学习模型在各运行平台上的测速结果的过程中,可以根据上述步骤确定的每一深度学习模型的哈希值确定深度学习模型集合中是否存在相同的深度学习模型;如果确定深度学习模型集合中存在相同的深度学习模型,则对于这些相同的深度学习模型,仅需要确定其中一个深度学习模型在各运行平台上的测速结果即可;如此,可以减少一定的操作数。
步骤102:基于每一测速结果与对应的深度学习模型和运行平台之间的映射关系,构建数据库。
本公开实施例中,在根据上述过程得到每一深度学习模型在各运行平台上的测速结果后,可以根据每一测速结果与对应的深度学习模型和运行平台之间的映射关系,构建数据库;同时,将每一深度学习模型的模型信息、运行平台信息、速度信息等存储至数据库中。
这里,模型信息除了包括哈希值外,还可以包括模型的网络拓扑结构等信息;运行平台信息可以包括硬件信息和加速库信息等;速度信息即表示上述每一测速结果。
本公开实施例中,通过构建数据库,可以将每一深度学习模型、以及每一深度学习模型的哈希值和测速结果等相关信息持久化地存储在数据库中,如此,在后续接收到用户针对某一深度学习模型的测速请求时,可以通过对比该深度学习模型的哈希值与数据库中存储的每一深度学习模型的哈希值,快速得到与第一深度学习模型匹配的深度学习模型,进而,可以将在数据库中查找到的该匹配的深度学习模型的测速结果作为第一深度学习模型的测速结果,如此,可以加快模型的速度信息的获取。
示例性地,对于构建数据库的实现方式,还可以为:首先根据每一深度学习模型的待存储信息提取实体和联系的属性信息,根据实体和联系的属性信息设计实体联系图;实体联系图中主要的实体可以包括网络拓扑结构、硬件等,其中,网络拓扑结构的属性信息可以包括序号、名称、哈希值、输入形状、输出形状、属性拓扑图等属性,其中哈希值、输入形状、输出形状可以唯一索引一个网络拓扑结构;硬件的属性信息可以包括序号、名称、架构等属性,其中硬件的名称可以唯一索引硬件。
示例性地,实体联系图中主要的联系可以包括运行平台、速度等,运行平台是硬件与加速库之间的联系,表示运行模型时硬件和加速库的组合,是多对多的联系,速度是运行平台和网络拓扑结构之间的联系,表示模型在具体运行平台上的运行速度,同时包含创建时间、占用内存、测试次数等属性信息,是多对多的联系。根据上述实体和联系的属性信息可以进行数据库的构建,具体的实现方式可以参照图1F;图1F为本公开实施例中的一种构建数据库的流程图,如图1F所示,该流程可以包括:
步骤1013:提取实体、联系的属性信息构建实体联系图;
步骤1014:确定存取字段及其数据表示;
步骤1015:构建数据库表格以及增、删、改、查接口。
可以看出,在本公开实施例中,首先可以根据提取到的各实体及联系的属性信息可以构建实体联系图;接着,利用实体联系图确定数据库表格的字段及其数据表示,实现对各实体及联系的属性信息的结构化存储;最后,可以通过相应编码实现数据的连接、构建数据库表格、增、删、改、查等操作接口,为模型性能信息存储、查询服务提供一定的支持。
本公开实施例提出了一种模型处理方法、装置、电子设备和计算机存储介质,该方法包括:获取深度学习模型集合和运行平台集合,其中,采用哈希值作为表征深度学习模型集合中每一深度学习模型的标识,每一深度学习模型包括网络拓扑结构以及各算子节点的属性信息;运行平台集合中的各运行平台是加速库中的每一部署工具部署在硬件集合中每一硬件上形成的;确定每一深度学习模型在各运行平台上的测速结果;基于每一测速结果与对应的深度学习模型和运行平台之间的映射关系,构建数据库。
可以看出,在本公开实施例中,在构建数据库后,数据库中存储着每一深度学习模型在各运行平台上的测速结果;由于每一深度学习模型均可以采用哈希值进行表征,因而,在后续在接收到用户针对某一深度学习模型的测速请求时,可以通过对比第一深度学习模型的哈希值以及每种深度学习模型的哈希值,可以快速得到与第一深度学习模型匹配的深度学习模型,进而,可以将该匹配的深度学习模型的测速结果作为第一深度学习模型的测速结果,如此,可以加快模型的速度信息的获取。
在一些实施例中,可以通过如图1G所示的步骤确定第一深度学习模型的测速结果:
步骤1016:响应于用户的第一测速请求,基于第一测速请求包括的第一深度学习模型的标识,确定第一深度学习模型的哈希值;
步骤1017:基于第一深度学习模型的哈希值,在数据库中进行查找,得到第一深度学习模型的测速结果。
示例性地,若用户想要查询自己指定的第一深度学习模型的测速结果,则可以向运行平台发送包括第一深度学习模型的标识的第一测速请求;在运行平台接收到用户的第一测速请求后,运行平台对应的系统服务后端会根据第一测速请求中的第一深度学习模型的标识,获取第一深度学习模型的网络拓扑结构以及各个算子节点的属性信息,如此,可以基于第一深度学习模型的网络拓扑结构以及各个算子节点的属性信息确定该模型的哈希值;这里,通过各个节点的属性信息和拓扑结构确定深度学习模型的哈希值的实现方式,已经在前述记载的内容中进行相应说明,这里不再赘述。
示例性地,在得到第一深度学习模型的哈希值后,将第一深度学习模型的哈希值分别与数据库中存储的每一深度学习模型的哈希值进行对比,得到对比结果;这里,对于两者的哈希值进行对比的方式不作限定,例如,可以采用逐一对比的方式,也可以采用同时对比的方式。
进一步地,若根据对比结果确定数据库中存储着与第一深度学习模型的哈希值相同的深度学习模型时,则说明查找到与第一深度学习模型的哈希值相同的深度学习模型,即,第一深度学习模型的网络拓扑结构与查找到的深度学习模型相同,此时,可以将查找到的深度学习模型在各运行平台的测速结果,作为第一深度学习模型的测速结果。
相关技术中,在需要判断两个深度学习模型的网络拓扑结构是否相同时,由于深度学习模型是相互连接的算子图结构,因此一般基于图同构算法判定深度模型的同一性,但是该算法基于深度优先搜索策略,对于包含多个节点的深度学习模型,该方法速度过慢,难以满足实际要求。然而,与相关技术相比,本公开实施例中通过对比两个深度学习模型的哈希值,可以快速确定这两个深度学习模型是否具有相同的网络拓扑结构;有效提高判断两个模型的同一性的效率。进一步地,由于可以直接从数据库中查找到与第一深度学习模型的哈希值相同的深度学习模型,因而,可以将查找到的深度学习模型的测速结果作为第一深度学习模型的测速结果;可见,本公开实施例无需在运行平台上对第一深度学习模型进行重复部署以获取测速结果,有效提高获取测速结果的效率。
在一些实施例中,第一测速请求还包括目标运行平台的标识;对于基于第一深度学习模型的哈希值,在数据库中进行查找,得到第一深度学习模型的测速结果的流程,可以参照如图1H所示的步骤:
步骤1018:在数据库中查找到与第一深度学习模型的哈希值以及目标运行平台的标识相同的第二深度学习模型;
步骤1019:将第二深度学习模型在目标运行平台的测速结果,确定为第一深度学习模型在目标运行平台上的测速结果。
在一些实施例中,第一测速请求还可以包括第一深度学习模型对应的硬件和加速库中的部署工具,这样,可以基于第一深度学习模型对应的硬件和加速库中的部署工具,确定第一深度学习模型对应的目标运行平台。
示例性地,在根据第一测速请求确定第一深度学习模型的哈希值以及目标运行平台后,如果在数据库中查找到与第一深度学习模型的哈希值以及目标运行平台的标识相同的第二深度学习模型,则可以将第二深度学习模型在目标运行平台的测速结果,确定为第一深度学习模型在目标运行平台上的测速结果。
示例性地,假设第一深度学习模型的哈希值为111,且第一深度学习模型的目标运行平台的标识为3;若数据库存储的深度学习模型中包括深度学习模型1至深度学习模型3,且对应的哈希值依次为101、110和111,若深度学习模型1的运行平台的标识为1、深度学习模型2的运行平台的标识为3,深度学习模型3的运行平台的标识为1和3;此时,可以确定第一深度学习模型的哈希值与深度学习模型3的哈希值相同,且第一深度学习模型对应的运行平台的标识与深度学习模型3对应的运行平台的标识也相同;即,可以将深度学习模型3在标识3对应的运行平台的测速结果,作为第一深度学习模型在目标运行平台上的测速结果。
示例性地,在确定第一深度学习模型的哈希值后,可以基于数据库的操作接口,对该哈希值进行查询操作,以从数据库中获取到与该哈希值相同的深度学习模型。可见,利用数据库技术可以实现深度学习模型的结构及其性能等相关信息的存储与检索。
在一些实施例中,对于确定各深度学习模型在第一运行平台上的测速结果的流程,可以参照如图1I所示的步骤:
步骤1020:响应于用户的第三测速请求,基于第三测速请求包括的第一运行平台的标识,在数据库中查找到与第一运行平台的标识相同的第二运行平台;
步骤1021:基于数据库中各深度学习模型在第二运行平台上的测速结果,确定各深度学习模型在第一运行平台上的测速结果。
示例性地,若用户想要查询数据库中各深度学习模型在第一运行平台上的测速结果,则可以向运行平台发送包括第一运行平台的标识的第三测速请求;在运行平台接收到用户的第三测速请求后,运行平台对应的系统服务后端会根据第一测速请求中的第一运行平台的标识,从数据库中查找与第一运行平台的标识相同的第二运行平台;如果查找到第二运行平台,则将数据库中各深度学习模型在第二运行平台上的测速结果,确定各深度学习模型在第一运行平台上的测速结果。
在一些实施例中,对于将第一深度学习模型在各运行平台上的测速结果添加到数据库中的流程,可以参照如图1J所示的步骤:
步骤1022:响应于在数据库中查找不到第一深度学习模型的哈希值,在第一线程中对第一深度学习模型在各运行平台上进行测速,得到第一深度学习模型在各运行平台上的测速结果;
步骤1023:将第一深度学习模型在各运行平台上的测速结果,添加到数据库中。
示例性地,如果在数据库中查找不到第一深度学习模型的哈希值,则说明第一深度学习模型的哈希值与数据库中存储的每一深度学习模型的哈希值均不相同,此时,从数据库中获取不到第一深度学习模型的测速结果。这种情况下,则需要运行平台对应的系统服务后端发起实际的针对第一深度学习模型的测速任务;即,需要通过模型转换、模型编译、远程执行等操作在实际的各个运行平台上进行测速操作,得到第一深度学习模型在各运行平台上的测速结果。
这里,在针对第一深度学习模型的测速任务完成后,检查返回的测速结果,若根据测速结果确定测速成功,则将模型结构信息、运行平台信息、速度信息等性能记录存储到数据库中,即,将第一深度学习模型在各运行平台上的测速结果,添加到数据库中;反之,若根据测速结果确定测速失败,则返回错误信息。
在一些实施例中,上述方法还可以包括:在第一线程中对第一深度学习模型进行测速的同时,在第二线程中响应用户的第二测速请求。
示例性地,由于实际测速流程比较缓慢,因此,系统服务后端可以在单独的线程(即第一线程)中发起测速任务并等待测速结果,该方式不会阻塞服务后端在第二线程中接收用户针对其他深度学习模型的第二测速请求,从而增加了系统服务的并行性;这里,第一线程和第二线程表示两个执行不同任务的线程。
可见,在本公开实施例中,对于网络拓扑结构不相同的深度学习模型的性能查询任务,才需要在实际的硬件平台上进行部署评测;对于网络结构相同的深度学习模型的性能查询任务,不需要每次在实际的硬件平台上进行重复的部署评测,从而,可以加速模型性能数据的获取。
本领域技术人员可以理解,在具体实施方式的上述方法中,各步骤的撰写顺序并不意味着严格的执行顺序而对实施过程构成任何限定,各步骤的具体执行顺序应当以其功能和可能的内在逻辑确定。
为了能够更加体现本公开的目的,在本公开上述实施例的基础上,进行进一步的说明。
图2为本公开实施例的另一种模型处理方法的流程示意图,如图2所示,该流程可以包括:
步骤200:接收第一深度学习模型的测速请求。
示例性地,接收用户指定的第一深度学习模型的测速请求;这里,该测速请求中可以包括第一深度学习模型信息、硬件平台信息以及加速度信息等。
步骤201:查询数据库。
示例性地,在接收到用户指定的第一深度学习模型的测速请求后,根据该测速请求中包括第一深度学习模型信息确定第一深度学习模型的哈希值,并在数据库中与该哈希值对应的性能记录,这里,性能记录包括模型的速度信息。
步骤202:判断是否查询到性能记录。
示例性地,由于数据库中预先存储着多种深度学习模型中的每种深度学习模型的哈希值以及在各运行平台上的测速结果等相关信息;此时,可以根据第一深度学习模型的哈希值,查询数据库中是否存在与第一深度学习模型的哈希值相同的深度学习模型对应的性能记录;如果是,执行步骤208,反之,执行步骤203。
步骤203:判断是否已经提交相同的测速任务。
示例性地,判断运行平台对应的系统服务后端是否已经提交了与第一深度学习模型的哈希值相同的模型测速任务;如果是,执行步骤207,反之,执行步骤204。
步骤204:在运行平台对第一深度学习模型进行测速。
示例性地,若系统服务后端并未提交与第一深度学习模型的哈希值相同的模型测速任务,则系统服务后端发起实际的针对第一深度学习模型的测速任务;即,在实际的运行平台上对第一深度学习模型进行测速操作,得到测速结果。
步骤205:判断测速是否成功。
示例性地,在根据步骤204的测速结果确定测速成功,则执行步骤206,反之,执行步骤208。
步骤206:将相关性能记录插入数据库。
示例性地,在根据步骤205确定测速成功时,将第一深度学习模型的相关性能记录,例如,模型结构信息、运行平台信息、速度信息等性能记录存储到数据库中,执行步骤208。
步骤207:等待测速任务完成并返回测速结果。
示例性地,在根据步骤203确定已经提交了与第一深度学习模型的哈希值相同的模型测速任务后,则等待该模型测速任务执行完成,并返回该模型测速任务对应的测速结果。
步骤208:返回相关性能记录或错误信息。
示例性地,在根据步骤205确定测速失败时,返回错误信息;若根据步骤206确定将相关性能记录存储至数据库时,则在查询数据库时,返回存储在该数据库中的相关性能记录。
可见,本公开实施例中利用数据库对深度学习模型的网络结构、平台信息、速度信息等相关性能记录进行持久化存储,可以减少相同网络结构的模型的重复部署评测,加速模型性能查询过程。
在前述实施例提出的模型处理方法的基础上,本公开实施例提出了一种模型处理装置。
图3为本公开实施例的模型处理装置的组成结构示意图,如图3所示,该装置可以包括:
获取模块300,用于获取深度学习模型集合和运行平台集合,其中,采用哈希值作为表征所述深度学习模型集合中每一深度学习模型的标识,所述每一深度学习模型包括网络拓扑结构以及各算子节点的属性信息;所述运行平台集合中的各运行平台是加速库中的每一部署工具部署在硬件集合中每一硬件上形成的;确定模块301,用于确定所述每一深度学习模型在所述各运行平台上的测速结果;构建模块302,用于基于每一所述测速结果与对应的深度学习模型和运行平台之间的映射关系,构建数据库。
在一些实施例中,在所述获取深度学习模型集合后,所述获取模块300,还用于:获取所述每一深度学习模型的网络拓扑结构以及各算子节点的属性信息;
所述确定模块301,用于:确定所述每一深度学习模型中各算子节点的哈希值以及所述各算子节点的属性信息的哈希值;对所述各算子节点的哈希值以及所述各算子节点的属性信息的哈希值进行哈希处理,得到所述每一所述深度学习模型的哈希值。
在一些实施例中,所述确定模块301,用于确定所述每一深度学习模型中各算子节点的哈希值以及所述各算子节点的属性信息的哈希值,包括:基于所述每一深度学习模型的网络拓扑结构以及各算子节点的属性信息,构建所述每一深度学习模型的有向无环图;确定每一所述有向无环图中各算子节点的哈希值以及所述各算子节点的属性信息的哈希值。
在一些实施例中,所述确定模块301,用于对所述各算子节点的哈希值以及所述各算子节点的属性信息的哈希值进行哈希处理,得到所述每一所述深度学习模型的哈希值,包括:对每一所述有向无环图中各算子节点的哈希值以及所述各算子节点的属性信息的哈希值进行哈希处理,得到每一所述有向无环图中各算子节点的唯一表示值;对每一所述有向无环图中各算子节点的唯一表示值进行排序;对排序后的各算子节点的唯一表示值进行哈希处理,得到所述每一所述深度学习模型的哈希值。
在一些实施例中,所述获取模块300,还用于:获取所述每一深度学习模型的网络拓扑结构以及各算子节点的属性信息之前,删除所述每一深度学习模型的参数信息。
在一些实施例中,所述装置还包括查询模块,所述查询模块,用于:响应于用户的第一测速请求,基于所述第一测速请求包括的第一深度学习模型的标识,确定所述第一深度学习模型的哈希值;基于所述第一深度学习模型的哈希值,在所述数据库中进行查找,得到所述第一深度学习模型的测速结果。
在一些实施例中,所述第一测速请求还包括目标运行平台的标识,所述查询模块,用于基于所述第一深度学习模型的哈希值,在所述数据库中进行查找,得到所述第一深度学习模型的测速结果,包括:在所述数据库中查找到与所述第一深度学习模型的哈希值以及所述目标运行平台的标识相同的第二深度学习模型;将所述第二深度学习模型在所述目标运行平台的测速结果,确定为所述第一深度学习模型在所述目标运行平台上的测速结果。
在一些实施例中,所述第一测速请求还包括所述第一深度学习模型对应的硬件和加速库中的部署工具,所述查询模块,还用于:基于所述第一深度学习模型对应的硬件和加速库中的部署工具,确定所述第一深度学习模型对应的目标运行平台。
在一些实施例中,所述查询模块,还用于:响应于在所述数据库中查找不到所述第一深度学习模型的哈希值,在第一线程中对所述第一深度学习模型在各运行平台上进行测速,得到所述第一深度学习模型在所述各运行平台上的测速结果;将所述第一深度学习模型在所述各运行平台上的测速结果,添加到所述数据库中。
在一些实施例中,所述查询模块,还用于:在所述第一线程中对所述第一深度学习模型进行测速的同时,在第二线程中响应所述用户的第二测速请求。
在一些实施例中,所述查询模块,还用于:响应于用户的第三测速请求,基于所述第三测速请求包括的第一运行平台的标识,在所述数据库中查找到与所述第一运行平台的标识相同的第二运行平台;基于所述数据库中各深度学习模型在所述第二运行平台上的测速结果,确定所述各深度学习模型在所述第一运行平台上的测速结果。
实际应用中,获取模块300、确定模块301、构建模块302和查询模块均可以利用电子设备中的处理器实现,上述处理器可以为ASIC、DSP、DSPD、PLD、FPGA、CPU、控制器、微控制器、微处理器中的至少一种。
另外,在本实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
所述集成的单元如果以软件功能模块的形式实现并非作为独立的产品进行销售或使用时,可以存储在一个计算机可读取存储介质中,基于这样的理解,本实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或processor(处理器)执行本实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
具体来讲,本实施例中的一种模型处理方法对应的计算机程序指令可以被存储在光盘,硬盘,U盘等存储介质上,当存储介质中的与一种模型处理方法对应的计算机程序指令被一电子设备读取或被执行时,实现前述实施例的任意一种模型处理方法。
基于前述实施例相同的技术构思,参见图4,其示出了本公开实施例提供的一种电子设备4,可以包括:存储器401和处理器402;其中,
所述存储器401,用于存储计算机程序和数据;
所述处理器402,用于执行所述存储器中存储的计算机程序,以实现前述实施例的任意一种模型处理方法。
在实际应用中,上述存储器401可以是易失性存储器(volatile memory),例如RAM;或者非易失性存储器(non-volatile memory),例如ROM,快闪存储器(flash memory),硬盘(Hard Disk Drive,HDD)或固态硬盘(Solid-State Drive,SSD);或者上述种类的存储器的组合,并向处理器402提供指令和数据。
上述处理器402可以为ASIC、DSP、DSPD、PLD、FPGA、CPU、控制器、微控制器、微处理器中的至少一种。可以理解地,对于不同的设备,用于实现上述处理器功能的电子器件还可以为其它,本公开实施例不作具体限定。
在一些实施例中,本公开实施例提供的装置具有的功能或包含的模块可以用于执行上文方法实施例描述的方法,其具体实现可以参照上文方法实施例的描述,为了简洁,这里不再赘述。
上文对各个实施例的描述倾向于强调各个实施例之间的不同之处,其相同或相似之处可以互相参考,为了简洁,本文不再赘述
本公开所提供的各方法实施例中所揭露的方法,在不冲突的情况下可以任意组合,得到新的方法实施例。
本公开所提供的各产品实施例中所揭露的特征,在不冲突的情况下可以任意组合,得到新的产品实施例。
本公开所提供的各方法或设备实施例中所揭露的特征,在不冲突的情况下可以任意组合,得到新的方法实施例或设备实施例。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本公开的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本公开各个实施例所述的方法。
上面结合附图对本公开的实施例进行了描述,但是本公开并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本公开的启示下,在不脱离本公开宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本公开的保护之内。

Claims (14)

1.一种模型处理方法,其特征在于,所述方法包括:
获取深度学习模型集合和运行平台集合,其中,采用哈希值作为表征所述深度学习模型集合中每一深度学习模型的标识,所述每一深度学习模型包括网络拓扑结构以及各算子节点的属性信息;所述运行平台集合中的各运行平台是加速库中的每一部署工具部署在硬件集合中每一硬件上形成的;
确定所述每一深度学习模型在所述各运行平台上的测速结果;
基于每一所述测速结果与对应的深度学习模型和运行平台之间的映射关系,构建数据库。
2.根据权利要求1所述的方法,其特征在于,在所述获取深度学习模型集合后,所述方法还包括:
获取所述每一深度学习模型的网络拓扑结构以及各算子节点的属性信息;
确定所述每一深度学习模型中各算子节点的哈希值以及所述各算子节点的属性信息的哈希值;
对所述各算子节点的哈希值以及所述各算子节点的属性信息的哈希值进行哈希处理,得到所述每一所述深度学习模型的哈希值。
3.根据权利要求2所述的方法,其特征在于,所述确定所述每一深度学习模型中各算子节点的哈希值以及所述各算子节点的属性信息的哈希值,包括:
基于所述每一深度学习模型的网络拓扑结构以及各算子节点的属性信息,构建所述每一深度学习模型的有向无环图;
确定每一所述有向无环图中各算子节点的哈希值以及所述各算子节点的属性信息的哈希值。
4.根据权利要求3所述的方法,其特征在于,所述对所述各算子节点的哈希值以及所述各算子节点的属性信息的哈希值进行哈希处理,得到所述每一所述深度学习模型的哈希值,包括:
对每一所述有向无环图中各算子节点的哈希值以及所述各算子节点的属性信息的哈希值进行哈希处理,得到每一所述有向无环图中各算子节点的唯一表示值;
对每一所述有向无环图中各算子节点的唯一表示值进行排序;
对排序后的各算子节点的唯一表示值进行哈希处理,得到所述每一所述深度学习模型的哈希值。
5.根据权利要求1至4任一项所述的方法,其特征在于,所述方法还包括:
获取所述每一深度学习模型的网络拓扑结构以及各算子节点的属性信息之前,删除所述每一深度学习模型的参数信息。
6.根据权利要求1至5任一项所述的方法,其特征在于,所述方法还包括:
响应于用户的第一测速请求,基于所述第一测速请求包括的第一深度学习模型的标识,确定所述第一深度学习模型的哈希值;
基于所述第一深度学习模型的哈希值,在所述数据库中进行查找,得到所述第一深度学习模型的测速结果。
7.根据权利要求6所述的方法,其特征在于,所述第一测速请求还包括目标运行平台的标识,所述基于所述第一深度学习模型的哈希值,在所述数据库中进行查找,得到所述第一深度学习模型的测速结果,包括:
在所述数据库中查找到与所述第一深度学习模型的哈希值以及所述目标运行平台的标识相同的第二深度学习模型;
将所述第二深度学习模型在所述目标运行平台的测速结果,确定为所述第一深度学习模型在所述目标运行平台上的测速结果。
8.根据权利要求6所述的方法,其特征在于,所述第一测速请求还包括所述第一深度学习模型对应的硬件和加速库中的部署工具,所述方法还包括:
基于所述第一深度学习模型对应的硬件和加速库中的部署工具,确定所述第一深度学习模型对应的目标运行平台。
9.根据权利要求6至8任一项所述的方法,其特征在于,所述方法还包括:
响应于在所述数据库中查找不到所述第一深度学习模型的哈希值,在第一线程中对所述第一深度学习模型在各运行平台上进行测速,得到所述第一深度学习模型在所述各运行平台上的测速结果;
将所述第一深度学习模型在所述各运行平台上的测速结果,添加到所述数据库中。
10.根据权利要求9所述的方法,其特征在于,所述方法还包括:
在所述第一线程中对所述第一深度学习模型进行测速的同时,在第二线程中响应所述用户的第二测速请求。
11.根据权利要求1至5任一项所述的方法,其特征在于,所述方法还包括:
响应于用户的第三测速请求,基于所述第三测速请求包括的第一运行平台的标识,在所述数据库中查找到与所述第一运行平台的标识相同的第二运行平台;
基于所述数据库中各深度学习模型在所述第二运行平台上的测速结果,确定所述各深度学习模型在所述第一运行平台上的测速结果。
12.一种模型处理装置,其特征在于,所述装置包括:
获取模块,用于获取深度学习模型集合和运行平台集合,其中,采用哈希值作为表征所述深度学习模型集合中每一深度学习模型的标识,所述每一深度学习模型包括网络拓扑结构以及各算子节点的属性信息;所述运行平台集合中的各运行平台是加速库中的每一部署工具部署在硬件集合中每一硬件上形成的;
确定模块,用于确定所述每一深度学习模型在所述各运行平台上的测速结果;
构建模块,用于基于每一所述测速结果与对应的深度学习模型和运行平台之间的映射关系,构建数据库。
13.一种电子设备,其特征在于,包括处理器和用于存储能够在处理器上运行的计算机程序的存储器;其中,
所述处理器用于运行所述计算机程序以执行权利要求1至11任一项所述的模型处理方法。
14.一种计算机存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现权利要求1至11任一项所述的模型处理方法。
CN202111672855.5A 2021-12-31 2021-12-31 模型处理方法、装置、电子设备和计算机存储介质 Pending CN114330668A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202111672855.5A CN114330668A (zh) 2021-12-31 2021-12-31 模型处理方法、装置、电子设备和计算机存储介质
PCT/CN2022/093836 WO2023123828A1 (zh) 2021-12-31 2022-05-19 模型处理方法、装置、电子设备、计算机存储介质和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111672855.5A CN114330668A (zh) 2021-12-31 2021-12-31 模型处理方法、装置、电子设备和计算机存储介质

Publications (1)

Publication Number Publication Date
CN114330668A true CN114330668A (zh) 2022-04-12

Family

ID=81020392

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111672855.5A Pending CN114330668A (zh) 2021-12-31 2021-12-31 模型处理方法、装置、电子设备和计算机存储介质

Country Status (2)

Country Link
CN (1) CN114330668A (zh)
WO (1) WO2023123828A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023123828A1 (zh) * 2021-12-31 2023-07-06 上海商汤智能科技有限公司 模型处理方法、装置、电子设备、计算机存储介质和程序

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117311998B (zh) * 2023-11-30 2024-03-05 卓世未来(天津)科技有限公司 一种大模型部署方法及系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111222637A (zh) * 2020-01-17 2020-06-02 上海商汤智能科技有限公司 神经网络模型部署方法及装置、电子设备和存储介质
CN111340237A (zh) * 2020-03-05 2020-06-26 腾讯科技(深圳)有限公司 数据处理和模型运行方法、装置和计算机设备
CN111353608A (zh) * 2020-02-26 2020-06-30 Oppo广东移动通信有限公司 模型移植方法及相关设备
CN111447108A (zh) * 2020-03-23 2020-07-24 中电福富信息科技有限公司 基于深度学习的渐进式时延带宽测速分析方法及其系统
CN112561081A (zh) * 2020-12-18 2021-03-26 北京百度网讯科技有限公司 深度学习模型的转换方法、装置、电子设备和存储介质
US20210103930A1 (en) * 2019-10-04 2021-04-08 Visa International Service Association Method for dynamically reconfiguring machine learning models
CN113282941A (zh) * 2021-06-15 2021-08-20 深圳市商汤科技有限公司 获取对象标识的方法、装置、电子设备及存储介质
US20210382699A1 (en) * 2020-12-21 2021-12-09 Beijing Baidu Netcom Science And Technology Co., Ltd. Data processing method, electronic device, and storage medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109358944A (zh) * 2018-09-17 2019-02-19 深算科技(重庆)有限公司 深度学习分布式运算方法、装置、计算机设备及存储介质
CN114330668A (zh) * 2021-12-31 2022-04-12 成都商汤科技有限公司 模型处理方法、装置、电子设备和计算机存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210103930A1 (en) * 2019-10-04 2021-04-08 Visa International Service Association Method for dynamically reconfiguring machine learning models
CN111222637A (zh) * 2020-01-17 2020-06-02 上海商汤智能科技有限公司 神经网络模型部署方法及装置、电子设备和存储介质
CN111353608A (zh) * 2020-02-26 2020-06-30 Oppo广东移动通信有限公司 模型移植方法及相关设备
CN111340237A (zh) * 2020-03-05 2020-06-26 腾讯科技(深圳)有限公司 数据处理和模型运行方法、装置和计算机设备
CN111447108A (zh) * 2020-03-23 2020-07-24 中电福富信息科技有限公司 基于深度学习的渐进式时延带宽测速分析方法及其系统
CN112561081A (zh) * 2020-12-18 2021-03-26 北京百度网讯科技有限公司 深度学习模型的转换方法、装置、电子设备和存储介质
US20210382699A1 (en) * 2020-12-21 2021-12-09 Beijing Baidu Netcom Science And Technology Co., Ltd. Data processing method, electronic device, and storage medium
CN113282941A (zh) * 2021-06-15 2021-08-20 深圳市商汤科技有限公司 获取对象标识的方法、装置、电子设备及存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
亓海凤,王永: "深度学习在哈希算法的应用", 《科技资讯》, 31 October 2018 (2018-10-31), pages 139 - 142 *
机器之心PRO: "机器学习时代的哈希算法,将如何更高效地索引数据", Retrieved from the Internet <URL:https://baijiahao.baidu.com/s?id=1599725929036453174&wfr=spider&for=pc> *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023123828A1 (zh) * 2021-12-31 2023-07-06 上海商汤智能科技有限公司 模型处理方法、装置、电子设备、计算机存储介质和程序

Also Published As

Publication number Publication date
WO2023123828A1 (zh) 2023-07-06

Similar Documents

Publication Publication Date Title
JP5749279B2 (ja) アイテム関連付けのための結合埋込
CN114330668A (zh) 模型处理方法、装置、电子设备和计算机存储介质
CN110554958B (zh) 图数据库测试方法、系统、设备和存储介质
CN102693266B (zh) 搜索数据库的方法、生成索引结构的导航设备和方法
CN110109681B (zh) 不同平台间代码的转换方法及系统
CN112416369B (zh) 一种面向异构混合环境的智能化部署方法
CN114730618A (zh) 用于设计期望有机分子的有机合成途径的系统和方法
CN114564852B (zh) 一种fmea数据节点的操作方法及电子设备
CN116450486B (zh) 多元异构计算系统内节点的建模方法、装置、设备及介质
CN111581479B (zh) 一站式数据处理的方法、装置、存储介质及电子设备
US20170141945A1 (en) Repeat Execution of Root Cause Analysis Logic Through Run-Time Discovered Topology Pattern Maps
CN112269883A (zh) 人员信息的查询方法、装置、电子设备及存储介质
US10599614B1 (en) Intersection-based dynamic blocking
CN116069577A (zh) 一种rpc服务的接口测试方法、设备及介质
JPWO2010064317A1 (ja) 運用管理支援プログラム、該プログラムを記録した記録媒体、運用管理支援装置、および運用管理支援方法
CN112783513A (zh) 一种代码风险检查方法、装置及设备
CN111949514A (zh) 一种模型预测方法、装置及存储介质
CN115222221A (zh) 智能化集成平台的构建方法、装置、设备及存储介质
CN112463896A (zh) 档案编目数据处理方法、装置、计算设备及存储介质
US6745374B2 (en) Algorithms for determining path coverages and activity
CN117389958B (zh) 一种mo文件的查找和处理方法
CN114860729B (zh) 基于图结构索引的关系型数据连接方法及系统
Yeo et al. Dataflow oriented similarity matching for scientific workflows
CN113110979B (zh) 应用程序优化评估方法、装置、计算设备及存储介质
US20230185653A1 (en) Fault diagnosis in complex systems

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40068042

Country of ref document: HK

CB03 Change of inventor or designer information

Inventor after: Liu Liang

Inventor after: Gong Ruihao

Inventor after: Wang Yusong

Inventor after: Wang Yanfei

Inventor after: Yu Fengwei

Inventor after: Liu Xianglong

Inventor before: Liu Liang

Inventor before: Gong Ruihao

Inventor before: Wang Yusong

Inventor before: Wang Yanfei

Inventor before: Yu Fengwei

CB03 Change of inventor or designer information