CN112297014A - 一种面向机器人的云边端架构下的深度学习模型分割方法 - Google Patents
一种面向机器人的云边端架构下的深度学习模型分割方法 Download PDFInfo
- Publication number
- CN112297014A CN112297014A CN202011633386.1A CN202011633386A CN112297014A CN 112297014 A CN112297014 A CN 112297014A CN 202011633386 A CN202011633386 A CN 202011633386A CN 112297014 A CN112297014 A CN 112297014A
- Authority
- CN
- China
- Prior art keywords
- node
- deep learning
- learning model
- layer
- nodes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/1605—Simulation of manipulator lay-out, design, modelling of manipulator
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Feedback Control In General (AREA)
Abstract
本发明提供了面向机器人的云边端架构下的深度学习模型分割方法,属于深度学习以及分布式计算领域。该方法首先将深度学习模型建模为一个有向无环图,有向无环图的节点代表深度学习模型层,节点之间的边代表深度学习模型层间的数据传输。其次,根据模型层分别在云边端上的处理时间为节点赋值,根据模型层间数据分别在云边、边端、云端之间的传输时间为节点之间的边赋值。进而,采用一个有向无环图最长距离算法对图中的节点进行分层,并逐层处理节点。对于一层中的每个节点,根据节点的输入边权重和节点权重,采用启发式策略,进行动态分割,并将分割后的深度学习模型分配给云边端计算设备,从而实现无精度损失的云边端分布式协同推理。
Description
技术领域
本发明涉及深度学习以及分布式计算领域,具体涉及一种面向机器人的云边端架构下的深度学习模型分割方法。
背景技术
在现代计算机应用中,深度学习模型被广泛应用于机器视觉、自然语言处理、数据挖掘等多个领域。但深度学习模型需要大量的算力,单个机器很难在规定时间内完成深度学习模型的推理过程以满足服务级别协议;此外,随着大数据时代,5G时代相继到来,计算机应用的数据量成几何级数增长,由云计算主导的云端协同框架也难以满足数据处理的需求,以致数据在终端积累,在传输过程中阻塞,在云端处理后慢回传等问题。由于边缘计算中的云边端协同计算范式使得终端算力上移,云端算力下沉,因此云边端协同计算范式逐渐被业界普遍采用。自边缘计算概念被提出以降,现代计算架构逐渐由云计算向边缘计算云边端架构迁移。
深度学习模型的云边端协同处理也逐渐成为焦点,现有的深度学习模型云边端协同处理方法主要思想是将深度学习模型分割为两个部分,并将这两部分分别放置在云边端架构中的边侧和云侧。在计算机应用接收数据后,深度学习模型的第一部分处理该数据,将处理结果发送至深度学习模型的第二部分,并由第二部分处理后生成最终结果。然而现有技术存在如下问题:
1.当前技术没有充分利用端侧的算力,仅将深度学习模型分割为两个部分,当端侧生成数据后,数据被直接上传至边侧处理,并在边侧处理后将中间结果上传给云侧处理,产生最终结果。
2.现有方法无法做到根据深度学习模型层的处理时间和数据的传输时间将深度学习模型分割为三个部分。
3.当云边端设备出现算力改变,或当网络环境发生改变,进而影响深度学习模型处理时间,云边端之间数据传输时间时,当前技术需要对整个深度学习模型进行重新分割,耗时较长。
发明内容
本发明的目的在于针对现有技术的不足,提供一种面向机器人的云边端架构下的深度学习模型分割方法。
本发明的目的是通过以下技术方案来实现的:一种面向机器人的云边端架构下的深度学习模型分割方法,包括以下步骤:
步骤一,在面向机器人的云边端架构场景下,将所述深度学习模型建模为有向无环图,其中所述有向无环图的节点表示深度学习模型层,所述有向无环图的边表示深度学习模型层之间的数据传输;获取深度学习模型层分别在云服务器、边缘设备以及机器人终端的处理时间,获取深度学习模型层之间的数据分别在云服务器和边缘设备之间、边缘设备和机器人终端之间以及云服务器和机器人终端之间的传输时间;
步骤二,将所述深度学习模型层分别在云服务器、边缘设备以及机器人终端的处理时间作为有向无环图中表示深度学习模型层的节点权重;将所述深度学习模型层之间的数据分别在云服务器和边缘设备之间、边缘设备和机器人终端之间以及云服务器和机器人终端之间的传输时间作为有向无环图中表示数据传输的边权重;
步骤三,在所述深度学习模型的数据输入端添加一个输入数据层,并在有向无环图中用一个输入节点表示;通过动态规划算法求解有向无环图中各节点到输入节点的最长距离,并根据所述最长距离将有向无环图中的节点分层;
步骤四,从输入节点开始,对于节点分层的每一层依据节点权重和边权重,求解节点所属的计算位置;当求解完一层的所有节点所属的计算位置之后,对当前层的所有节点进行节点计算位置更新,获得节点的最佳计算位置;
步骤五,根据所述节点的最佳计算位置,获得所述深度学习的模型层的最佳计算位置,并根据所述深度学习的模型层的最佳计算位置将深度学习模型分割为运行在云、边、端的3部分,将上述3部分分别分发到云服务器、边缘设备、机器人终端上。
进一步地,步骤一中获取深度学习模型层分别在云服务器、边缘设备、机器人终端的处理时间是通过实际测量获得或是通过回归模型预测获得。
进一步地,步骤一中的传输时间是通过实际测量获得或是通过检测云服务器和边缘设备之间、边缘设备和机器人终端之间以及云服务器和机器人终端之间的网络带宽,并计算数据大小和网络带宽之间的比值获得。
进一步地,步骤四所述计算位置通过以下方法获得:
其中,代表节点的计算位置;表示节点的处理位置;表示节点可以选择的处理位置;表示节点在处理位置的处理时间;表示节点的父节点组成的集合;表示当节点的父节点处在、节点处在时,从节点的父节点到节点的数据的传输时间,通过对比深度学习模型层分别在可选择的处理位置上的处理时间,选择所述处理时间最小的处理位置,作为该模型层的计算位置。
进一步地,步骤四所述节点的最佳计算位置的方法为:对于每一层的所有节点所属的计算位置,其顺序按照端-边-云,若所述层的一个节点的子集输入同级节点的计算位置在该节点的计算位置之前,则更新该节点的子集输入同级节点的计算位置为该节点的计算位置;当该层所有节点都进行了所述更新操作之后,每个节点的计算位置即为最佳计算位置。
与现有技术相比,本发明具有如下有益效果:该方法对于机器人场景下的云边端算架构下,提供一种深度学习模型分割方法以利用云边端资源进行协同推理,提高了深度学习模型的推理速度;整个过程仅是对深度学习模型做分割操作,没有精度损失;由于本算法局部求解模型层的最佳计算位置,对于算力改变或网络环境变化导致的模型层处理时间或层间数据传输时间发生变化,本方法可以局部地调整模型层的最佳计算位置;对于当前技术在分割深度学习模型时计算冗余多、计算复杂度过高的问题,相较于最新的方法计算复杂度为,本发明提供一种计算复杂度为的方法。因此,本发明的分割方法具有显著提高深度学习模型推理速度,没有推理精度损失,能够局部调整模型层最佳计算位置以适应动态变化的特点。
附图说明
图1为本发明面向机器人的云边端架构下的深度学习模型分割方法流程图;
图2为有向无环图构建过程的说明图;图2(a)为Inception-v4网络的一个计算模块图,图2(b)为根据图2(a)的计算模块所建立的有向无环图模型图;
图3为子集输入同级节点的说明图。
具体实施方式
为了使本发明的目的、技术方案及优点更加明白清楚,结合附图和实施例,对本发明进一步的详细说明,应当理解,此处所描述的具体实施例仅仅用以解释本发明,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,均在本发明保护范围。
如图1所示,本发明提供了一种面向机器人的云边端架构下的深度学习模型分割方法的流程图,具体步骤如下:
步骤一,在机器人云边端架构场景下,一个监控服务器拥有深度学习模型,将所述深度学习模型建模为有向无环图,其中所述有向无环图的节点表示深度学习模型层,获取深度学习模型层分别在云服务器、边缘设备、机器人终端的处理时间,本领域技术人员可以通过实际测量获得处理时间,此时需将深度学习模型层分别部署在云服务器、边缘设备和端机器人终端,分别测量深度学习模型层的推理时间;或是通过回归模型预测获得处理时间,此时,所述回归模型需要的输入为深度学习模型层所在计算单元的CPU、GPU、内存等计算资源的描述(例如:CPU型号、计算速度等,GPU型号、计算速度等,内存型号、内存速度等),以及模型层的种类(例如:卷积层,池化层,线性整流层等)和超参数(例如:步幅、输入特征图大小、填充大小等)。所述模型层在云侧、边侧、端侧的处理时间分别用来表示。所述有向无环图的边表示深度学习模型层之间的数据传输,获取深度学习模型层之间的数据分别在云服务器和边缘设备之间、边缘设备和机器人终端之间以及云服务器和机器人终端之间的传输时间,本领域技术人员可以通过实际测量获得传输时间,需把两个深度学习模型层分别放在云服务器和边缘设备之间、边缘设备和机器人终端之间以及云服务器和机器人终端之间,然后测量推理过程中数据的传输时间;或是通过检测云服务器和边缘设备之间、边缘设备和机器人终端之间以及云服务器和机器人终端之间的网络带宽,并计算数据大小和网络带宽之间的比值获得传输时间,所述深度学习模型层与深度学习模型层之间的数据分别在云服务器和边缘设备之间、边缘设备和机器人终端之间以及云服务器和机器人终端之间的传输时间分别用表示。具体地,机器人连接的监控服务器拥有整个深度学习模型,该深度学习模型中的一个或几个连续的计算单元被归纳为一个深度学习模型层。监控服务器根据所述深度学习模型层和模型层之间的数据传输流向,构建一个有向无环图,有向无环图的节点代表深度学习模型层,有向无环图的边代表深度学习模型层之间的数据传输。其中有向无环图中的有向边 代表着深度学习模型层需在深度学习模型层之前计算,且深度学习模型层的输出为深度学习模型层的输入;如图2(a)所示,为Inception-v4网络的一个计算模块,其中包含10个卷积层和1个池化层,所述Inception-v4网络的计算模块中,模块的Filter Concat1层连接了Conv1,Conv2,Conv3,和池化层;其中Conv1、Conv4、Conv8按顺序连接,Conv8连接两个卷积层,分别为Conv9和Conv10;Conv2连接了两个卷积层,分别为Conv5和Conv6;池化层连接了Conv7;最后Conv9、Conv10、Conv3、Conv7汇合,共同连接了Filter Concat2层。图2(b)是根据图2(a)所述计算模块所建立的有向无环图模型,其中对应了输入Filter Concat1层,对应了Conv1,对应了Conv2,对应了Conv3,对应了池化层,对应了Conv4,对应了Conv5,对应了Conv6,对应了Conv7,对应了Conv8,对应了Conv9,对应了Conv10,对应了Filter Concat2;所述有向无环图中节点的连接关系也与所述Inception-v4网络的计算模块中的模型层连接关系对应。
步骤二,将所述深度学习模型层分别在云服务器、边缘设备、机器人终端的处理时间作为有向无环图中表示深度学习模型层的节点权重;将所述深度学习模型层之间的数据分别在云服务器和边缘设备之间、边缘设备和机器人终端之间以及云服务器和机器人终端之间的传输时间作为有向无环图中表示数据传输的边权重。
步骤三,在所述深度学习模型的数据输入端添加一个输入数据层,并在有向无环图中用一个输入节点表示;通过动态规划算法求解有向无环图中各节点到输入节点的最长距离,并根据所述最长距离将有向无环图中的节点分层;包括如下子步骤:
(3.1)监控服务器在所述深度学习模型的数据输入端添加一个数据输入层代表深度学习模型所处理的数据,并在有向无环图中添加一个代表所述数据输入层的输入节点,用表示,根据输入数据在深度学习模型中的流向添加输入节点到模型节点之间的边,生成一个含有输入节点的有向无环图,用表示。
(3.2)监控服务器从输入节点开始,使用深度优先搜索算法以任意顺序循环遍历所述有向无环图中的每个节点,在搜索进行中碰到之前遇到的节点或碰到叶节点,则终止深度优先搜索算法,以此求解所述有向无环图的拓扑排序;根据所述拓扑排序的顺序,监控服务器遍历所述有向无环图中的所有节点,并通过以下方法计算所述有向无环图中的某一节点到输入节点的最长距离:
(3.3)监控服务器根据所求解的所述有向无环图中的节点的最长距离,将所述节点分层,具有相同最长距离的节点处在同一层,且该层编号为所述最长距离。
步骤四,从输入节点开始,对于节点分层的每一层依据节点权重和边权重,求解节点所属的计算位置,当求解完一层的所有节点所属的计算位置之后,对当前层的所有节点进行节点位置更新,获得节点的计算处理位置;包括如下子步骤:
(4.1)一般地,数据输入集中在端侧,因此,输入节点被分配到端侧;监控服务器从所述层中的第一层开始逐层为有向无环图中的节点分配最佳计算位置;对于所述有向无环图中的一个节点,根据该节点权重和该节点的父节点们与该节点之间的边的权重,获得节点所述的计算位置:
其中,代表节点的计算位置;表示节点的处理位置;表示节点可以选择的处理位置;表示节点在处理位置的处理时间;表示节点的父节点组成的集合;表示当节点的父节点处在、节点处在时,从节点的父节点到节点的数据的传输时间。节点可以选择的位置,取决于节点的父节点们所处的最佳计算位置,对于位置顺序端-边-云,节点可以选择的处理位置应和其父节点所处的最佳计算位置相同或在其父节点所处的最佳计算位置之后,值得注意的是,对于的情况,由于在同一位置,不失一般性,因而认为传输时间为0。
(4.2)当计算过一层的所有节点的计算位置之后,监控服务器对本层所有节点的计算位置采取一个更新策略。对于处在同一层的节点z和节点b,若节点b的父节点所构成的集合是节点的父节点所构成的集合的子集(即),则节点b是节点z的子集输入同级节点,如图3所示的父节点组成了集合,的父节点组成了集合,的父节点组成了集合;且,因此是的子集输入同级节点,而不是的子集输入同级节点。针对处在同一层的节点所述更新策略描述如下,对于一层中的每一个节点,获取其计算位置。对于位置顺序端侧-边侧-云侧,若该节点的子集输入同级节点的计算位置在该节点的计算位置之前,则将该节点的子集输入同级节点的计算位置更新为该节点的计算位置。遍历所述层中所有的节点,并对每个节点都采取所述更新策略,此时所述层中的节点的计算位置即为最佳计算位置。如图3所示,假设计算位置处在边缘设备、计算位置处在机器人终端,即的计算位置在边侧、的计算位置在端侧,又根据是的子集输入同级节点,因此我们将的计算位置更新为边缘设备。
(4.3)监控服务器对所述有向无环图中的每一层按层编号从小到大逐层采取所述计算位置求解和更新策略操作,直至最后一层处理完毕,并输出所述有向无环图中的所有节点的最佳位置。
步骤五,根据所述节点的最佳计算位置,获得所述深度学习的模型层的最佳计算位置,并根据所述深度学习的模型层的最佳位置将深度学习模型分割为运行在云服务器、边缘设备、机器人终端的3部分,该三部分是串联关系,即端侧的深度学习模型输出为边侧的深度学习模型输入,边侧的深度学习模型输出是云侧深度学习模型的输入。将上述3部分分别分发到云服务器、边缘设备、机器人终端上,从机器人终端侧接收数据并按端、边、云顺序进行协同推理。
通过本发明的面向机器人的云边端架构下的深度学习模型分割方法,提高了深度学习模型的推理速度且没有精度损失。
Claims (5)
1.一种面向机器人的云边端架构下的深度学习模型分割方法,其特征在于,包括以下步骤:
步骤一,在面向机器人的云边端架构场景下,将所述深度学习模型建模为有向无环图,其中所述有向无环图的节点表示深度学习模型层,所述有向无环图的边表示深度学习模型层之间的数据传输;获取深度学习模型层分别在云服务器、边缘设备以及机器人终端的处理时间,获取深度学习模型层之间的数据分别在云服务器和边缘设备之间、边缘设备和机器人终端之间以及云服务器和机器人终端之间的传输时间;
步骤二,将所述深度学习模型层分别在云服务器、边缘设备以及机器人终端的处理时间作为有向无环图中表示深度学习模型层的节点权重;将所述深度学习模型层之间的数据分别在云服务器和边缘设备之间、边缘设备和机器人终端之间以及云服务器和机器人终端之间的传输时间作为有向无环图中表示数据传输的边权重;
步骤三,在所述深度学习模型的数据输入端添加一个输入数据层,并在有向无环图中用一个输入节点表示;通过动态规划算法求解有向无环图中各节点到输入节点的最长距离,并根据所述最长距离将有向无环图中的节点分层;
步骤四,从输入节点开始,对于节点分层的每一层依据节点权重和边权重,求解节点所属的计算位置;当求解完一层的所有节点所属的计算位置之后,对当前层的所有节点进行节点计算位置更新,获得节点的最佳计算位置;
步骤五,根据所述节点的最佳计算位置,获得所述深度学习的模型层的最佳计算位置,并根据所述深度学习的模型层的最佳计算位置将深度学习模型分割为运行在云、边、端的3部分,将上述3部分分别分发到云服务器、边缘设备、机器人终端上。
2.根据权利要求1所述面向机器人的云边端架构下的深度学习模型分割方法,其特征在于,步骤一中获取深度学习模型层分别在云服务器、边缘设备、机器人终端的处理时间是通过实际测量获得或是通过回归模型预测获得。
3.根据权利要求1所述面向机器人的云边端架构下的深度学习模型分割方法,其特征在于,步骤一中的传输时间是通过实际测量获得或是通过检测云服务器和边缘设备之间、边缘设备和机器人终端之间以及云服务器和机器人终端之间的网络带宽,并计算数据大小和网络带宽之间的比值获得。
5.根据权利要求1所述面向机器人的云边端架构下的深度学习模型分割方法,其特征在于,步骤四所述节点的最佳计算位置的方法为:对于每一层的所有节点所属的计算位置,其顺序按照端-边-云,若所述层的一个节点的子集输入同级节点的计算位置在该节点的计算位置之前,则更新该节点的子集输入同级节点的计算位置为该节点的计算位置;当该层所有节点都进行了所述更新操作之后,每个节点的计算位置即为最佳计算位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011633386.1A CN112297014B (zh) | 2020-12-31 | 2020-12-31 | 一种面向机器人的云边端架构下的深度学习模型分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011633386.1A CN112297014B (zh) | 2020-12-31 | 2020-12-31 | 一种面向机器人的云边端架构下的深度学习模型分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112297014A true CN112297014A (zh) | 2021-02-02 |
CN112297014B CN112297014B (zh) | 2021-04-27 |
Family
ID=74487596
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011633386.1A Active CN112297014B (zh) | 2020-12-31 | 2020-12-31 | 一种面向机器人的云边端架构下的深度学习模型分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112297014B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115249315A (zh) * | 2022-09-21 | 2022-10-28 | 之江实验室 | 面向异构计算设备的深度学习图像分类方法及装置 |
US11887353B1 (en) | 2022-09-21 | 2024-01-30 | Zhejiang Lab | Deep learning image classification oriented to heterogeneous computing device |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108353090A (zh) * | 2015-08-27 | 2018-07-31 | 雾角系统公司 | 边缘智能平台和物联网传感器流系统 |
CN110347500A (zh) * | 2019-06-18 | 2019-10-18 | 东南大学 | 用于边缘计算环境中面向深度学习应用的任务卸载方法 |
CN111242282A (zh) * | 2020-01-09 | 2020-06-05 | 中山大学 | 基于端边云协同的深度学习模型训练加速方法 |
CN111273892A (zh) * | 2020-02-13 | 2020-06-12 | 济南浪潮高新科技投资发展有限公司 | 一种基于云端技术和边缘计算实现智能机器人的方法 |
CN111445026A (zh) * | 2020-03-16 | 2020-07-24 | 东南大学 | 面向边缘智能应用的深度神经网络多路径推理加速方法 |
-
2020
- 2020-12-31 CN CN202011633386.1A patent/CN112297014B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108353090A (zh) * | 2015-08-27 | 2018-07-31 | 雾角系统公司 | 边缘智能平台和物联网传感器流系统 |
CN110347500A (zh) * | 2019-06-18 | 2019-10-18 | 东南大学 | 用于边缘计算环境中面向深度学习应用的任务卸载方法 |
CN111242282A (zh) * | 2020-01-09 | 2020-06-05 | 中山大学 | 基于端边云协同的深度学习模型训练加速方法 |
CN111273892A (zh) * | 2020-02-13 | 2020-06-12 | 济南浪潮高新科技投资发展有限公司 | 一种基于云端技术和边缘计算实现智能机器人的方法 |
CN111445026A (zh) * | 2020-03-16 | 2020-07-24 | 东南大学 | 面向边缘智能应用的深度神经网络多路径推理加速方法 |
Non-Patent Citations (1)
Title |
---|
SHENGHUI LI等: ""Makespan-minimized computation offloading for smart toys in edge-cloud computing"", 《ELECTRONIC COMMERCE RESEARCH AND APPLICATIONS》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115249315A (zh) * | 2022-09-21 | 2022-10-28 | 之江实验室 | 面向异构计算设备的深度学习图像分类方法及装置 |
CN115249315B (zh) * | 2022-09-21 | 2023-02-03 | 之江实验室 | 面向异构计算设备的深度学习图像分类方法及装置 |
US11887353B1 (en) | 2022-09-21 | 2024-01-30 | Zhejiang Lab | Deep learning image classification oriented to heterogeneous computing device |
WO2024060810A1 (zh) * | 2022-09-21 | 2024-03-28 | 之江实验室 | 面向异构计算设备的深度学习图像分类 |
Also Published As
Publication number | Publication date |
---|---|
CN112297014B (zh) | 2021-04-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111242282B (zh) | 基于端边云协同的深度学习模型训练加速方法 | |
CN111462137B (zh) | 一种基于知识蒸馏和语义融合的点云场景分割方法 | |
CN106919769B (zh) | 一种基于多层次方法和赋权超图的层次式fpga布局布线方法 | |
CN112297014B (zh) | 一种面向机器人的云边端架构下的深度学习模型分割方法 | |
Hu et al. | Distributed inference with deep learning models across heterogeneous edge devices | |
CN112132287A (zh) | 一种分布式的量子计算仿真方法和装置 | |
CN109005398B (zh) | 一种基于卷积神经网络的立体图像视差匹配方法 | |
CN112101525A (zh) | 一种通过nas设计神经网络的方法、装置和系统 | |
CN114997337A (zh) | 信息融合、数据通信方法、装置及电子设备和存储介质 | |
CN111967271A (zh) | 分析结果的生成方法、装置、设备及可读存储介质 | |
CN114611675A (zh) | 数据处理方法、装置、电子装置和存储介质 | |
CN113595993A (zh) | 边缘计算下模型结构优化的车载感知设备联合学习方法 | |
CN110992432A (zh) | 基于深度神经网络最小方差梯度量化压缩及图像处理方法 | |
CN112785611A (zh) | 一种3d点云弱监督语义分割方法及系统 | |
CN110263917B (zh) | 一种神经网络压缩方法及装置 | |
Ulanov et al. | Modeling scalability of distributed machine learning | |
Singh et al. | Implementation of K-shortest path algorithm in GPU using CUDA | |
CN114153640A (zh) | 一种基于深度强化学习的系统容错策略方法 | |
CN106445960A (zh) | 一种数据聚类方法和装置 | |
CN112363844B (zh) | 一种面向图像处理的卷积神经网络垂直分割方法 | |
CN111564035B (zh) | 动态路况融合表达方法、装置及存储介质 | |
CN114254735A (zh) | 一种基于分布式的僵尸网络模型构建方法和装置 | |
CN114070438A (zh) | 一种5g基站电磁信号的检测方法及系统 | |
CN112580743A (zh) | 一种众包数据道路片段中车道边线数据的分类方法与装置 | |
CN114329853A (zh) | 一种量子拓扑图优化方法、装置、终端及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |