CN110738309B - Ddnn的训练方法和基于ddnn的多视角目标识别方法和系统 - Google Patents
Ddnn的训练方法和基于ddnn的多视角目标识别方法和系统 Download PDFInfo
- Publication number
- CN110738309B CN110738309B CN201910931384.1A CN201910931384A CN110738309B CN 110738309 B CN110738309 B CN 110738309B CN 201910931384 A CN201910931384 A CN 201910931384A CN 110738309 B CN110738309 B CN 110738309B
- Authority
- CN
- China
- Prior art keywords
- ddnn
- model
- cloud
- edge
- sample image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种DDNN的训练方法和基于DDNN的多视角目标识别方法和系统,属于云计算领域。包括:获取分布式深度神经网络云侧模型对样本图像的信息熵;基于样本图像的信息熵,构建DDNN目标函数;根据DDNN目标函数,联合训练DDNN的边缘侧模型和云侧模型。本发明聚焦于“教师‑学生”网络的知识迁移方法,在DDNN层级多出口的背景下,提出了基于样本加权的自适应训练方法,从DDNN的深层出口获取样本的得分,通过得分对样本进行加权区分简单和复杂样本,将加权样本用于同时训练云侧和边缘侧模型,在保证不错的分类精度的同时,通信量最少。本发明云侧模型指导边缘模型的整个训练过程,边缘模型可以同时学习真实标签和云侧的迁移知识。
Description
技术领域
本发明属于云计算领域,更具体地,涉及DDNN的训练方法和基于DDNN的多视角目标识别方法和系统。
背景技术
深度神经网络(Deep Neural Network,DNN)具有多层结构,其表达学习也是层级分布的,对输入向量而言,逐层传输会给DNN后面层带来延迟,而且随着运算参数不断累积,计算耗能也逐层增多,是不利于下一代移动网络无线电资源的实时控制的。在此基础上,提出分布式深度神经网络(Distributed Deep Neural Network,DDNN)模型,其具有分布式计算层次结构,面向边缘计算的DDNN是指将单个DNN的部分映射到分布式异构设备上,包括云、边缘和地理分布的终端设备。
考虑到摄像头内存有限的情况下,利用人工智能深度学习的方法在多视角数据源附近进行目标识别的任务,就转化为分布式边缘智能化的问题。DDNN具有多个出口,样本图像在每个出口具有不同层级的特征表达。如果DDNN的浅层对图像的目标能够正确识别,就可以在边缘侧输出分类结果,而不用在云侧专门对样本图像进行中间层甚至高层的特征提取。因为对云侧模型而言,它往往将计算开销花费在被云侧模型认为很复杂的样本图像上,而将被边缘侧模型认为复杂的样本图像看做是简单样本图像。所以希望云侧模型可以忽略这些简单样本图像,更多地用于处理相对复杂的样本图像,以便边缘侧和云侧都能很好地训练,提高DDNN整体性能。该训练过程类似于教师(云模型)告诉学生(边缘模型)应该关注哪些考点,并告诉他哪些知识远远高出了当前水平,然后把这些方面忽略掉。
然而,不同的样本图像其复杂度也不同,很难定义一个与之直接相对应的模型来选择合适样本图像。
发明内容
针对现有技术用于多视角目标识别的DDNN的训练方法整体精度有限的问题,本发明提供了一种DDNN的训练方法和基于DDNN的多视角目标识别方法和系统,其目的在于提升边缘侧和云侧的分类精度,同时减少边缘侧向云侧传输的通信量。
为实现上述目的,按照本发明的第一方面,提供了一种DDNN的训练方法,该方法包括以下步骤:
S1.获取分布式深度神经网络DDNN云侧模型对样本图像的信息熵;
S2.基于样本图像的信息熵,构建DDNN目标函数;
S3.根据该DDNN目标函数,联合训练DDNN的边缘侧模型和云侧模型。
具体地,云侧模型对样本分类的信息熵计算公式如下:
其中,pi表示云侧模型softmax分类器对第i个样本图像输出的概率向量,C表示标签集合。
具体地,构建的DDNN目标函数如下:
其中,N表示云侧和端侧训练的所有样本图像数目,L(i,edge)和L(i,cloud)分别表示第i个样本图像的边缘侧和云侧的损失函数。
为实现上述目的,按照本发明的第二方面,提供了一种DDNN的训练方法,该方法包括以下步骤:
S1.计算分布式深度神经网络云侧模型判别样本图像属于每个类的概率;
S2.基于样本图像属于每个类的概率,确定云侧模型对样本图像的置信度;
S3.基于样本图像的置信度,构建DDNN目标函数;
S4.根据该DDNN目标函数,联合训练DDNN的边缘侧模型和云侧模型。
具体地,云侧模型对样本图像分类结果的计算公式如下:
其中,pi表示云侧模型softmax分类器对第i个样本图像输出的概率向量,pik表示表示云侧模型判断第i个样本图像属于第k类的概率,zi表示云侧模型的softmax分类器第i个样本图像输入向量,z(i,c)表示zi的第c个值。
具体地,云侧模型对第i个样本图像的置信度wi计算公式如下:
wi=yipi T
具体地,构造的DDNN目标函数如下:
其中,N表示云侧和端侧训练的所有样本图像数目,L(i,edge)和L(i,cloud)分别表示第i个样本图像的边缘侧和云侧的损失函数。
为实现上述目的,按照本发明的第三方面,提供了一种基于DDNN的多视角目标识别方法,该多视角目标识别方法的DDNN采用如第一方面或第二方面所述的DDNN的训练方法。
为实现上述目的,按照本发明的第四方面,提供了一种基于DDNN的多视角目标识别系统,该多视角目标识别系统的DDNN采用如第一方面或第二方面所述的DDNN的训练方法。
为实现上述目的,按照本发明的第五方面,提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如第一方面或第二方面所述的DDNN的训练方法。
总体而言,通过本发明所构思的以上技术方案,能够取得以下有益效果:
(1)本发明聚焦于“教师-学生”网络的知识迁移方法,在DDNN层级多出口的背景下,提出了基于样本加权的自适应训练方法,该方法利用一些简单的规则从DDNN的深层出口获取样本的得分,然后通过得分对样本进行加权,区分简单和复杂样本,最后将加权样本用于同时训练云侧和边缘侧模型。可以在保证不错的分类精度的同时,通信量最少,从而进一步提高多视角目标识别精度。
(2)本发明云侧模型(教师网络)指导边缘模型(学生网络)的整个训练过程,边缘模型可以同时学习真实标签和云侧的迁移知识。而且,DDNN边缘侧每个分支权重互不共享,边缘出口得到各视角融合的低层语义表示,云侧分类器得到各视角融合的高层语义表示,还可以保持多视角的多样性。
附图说明
图1为本发明实施例提供的DDNN的训练框架示意图;
图2为本发明实施例提供的多视角图片示例;
图3为本发明实施例提供的数据集样本示例。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
本发明将DDNN模型类比于“教师-学生”网络,DDNN的训练即教师网络(云侧模型)指导学生网络(边缘侧模型)进行学习。云侧模型对样本图像进行预测,得到一个评估分数;然后,将这一分数用于评价训练样本图像相对模型而言的难易程度,如果云侧模型评估是简单样本图像,则增加这一样本图像在边缘侧的权重,并减少它在云侧的权重,反之亦然;最后,同时训练加权后的边缘侧和云侧模型。让边缘侧模型对简单样本图像的训练结果更加接近真实标签,并且对简单样本图像所学的知识更加近似云侧模型所学的知识,能提高DDNN表示能力,减轻无线通信负担,提高DDNN分类精度。
DDNN是基于BranchyNet的一种可用于“云-边-端”协同计算的深度神经网络模型,在设备侧、边缘侧和云侧分别有一个分类器,构成多出口的级联分类器。DDNN的训练框架如图1所示,它由两部分组成:云模型和边缘模型。将DDNN的边缘侧分类器出口和云侧分类器出口看做两个级联的分类器,让简单样本图像的推理结果尽可能从边缘侧模型输出,而复杂样本图像的推理结果尽可能从云侧模型输出。
该结构类似于“教师-学生”网络。教师网络和学生网络共享了DDNN较低的层,即左边蓝色框中的卷积层、池化和归一化。DDNN各个视角有独立的卷积特征提取模块和全连接层,将各个全连接层的输出向量进行融合,然后送给边缘侧的softmax激活函数,得到学生网络的分类结果。记学生网络的softmax激活向量为p(x),p(x)=softm(s(x)),其中,s(x)表示学生网络的softmax前一层的加权和的logits值。与学生网络类似,将教师网络softmax激活向量记为q(x),q(x)=softmax(z(x)),其中,z(x)表示教师网络的softmax前一层加权和的logits值。
本发明提出一种DDNN的训练方法,该方法包括以下步骤:
步骤S1.获取分布式深度神经网络云侧模型对样本图像的信息熵。
“云-边”协同的分布式深度神经网络的云侧模型对样本分类的信息熵计算公式如下:
其中,pi表示云侧模型softmax分类器对第i个样本图像输出的概率向量,C表示标签集合。
步骤S2.基于样本图像的信息熵,构建DDNN目标函数。
云侧模型对样本图像的信息熵可以看做是第i个样本图像的置信度,如果云侧对样本图像的得分scorei的值越小,则第i个样本图像越简单,应该尽量让它在边缘侧得到处理,所以用该信息熵对目标损失函数中的边缘侧和云侧损失进行加权。
构建的DDNN目标函数如下:
其中,N表示云侧和端侧训练的所有样本图像数目,L(i,edge)和L(i,cloud)分别表示第i个样本图像的边缘侧和云侧的损失函数。
本发明使用的是交叉熵损失。云侧模型就类似于教师网络,边缘侧模型类似于学生网络,通过教师网络的反馈,让学生网络关注更加需要注意的知识,并加强对这一类知识的学习。
步骤S3.根据该DDNN目标函数,联合训练DDNN的边缘侧模型和云侧模型。
使用梯度下降算法训练DDNN。
基于信息熵的自适应策略的训练方法让学生网络对简单样本的训练结果更加接近真实标签,并且对简单样本所学的知识更加近似教师网络所学的知识,能提高表示能力,减轻无线通信负担。
本发明还提出一种DDNN的训练方法,该方法包括以下步骤:
步骤S1.计算分布式深度神经网络云侧模型判别样本图像属于每个类的概率。
云侧模型对样本图像分类结果的计算方式为:
其中,pik表示表示云侧模型判断第i个样本图像属于第k类的概率,zi表示云侧模型的softmax函数第i个样本图像输入向量。
步骤S2.基于样本图像属于每个类的概率,确定云侧模型对样本图像的置信度。
云侧模型对第i个样本图像的置信度wi计算公式如下:
wi=yipi T
其中,yi表示第i个样本图像的真实标签,由one-hot编码得到。
步骤S3.基于样本图像的置信度,构建DDNN目标函数。
DDNN目标函数如下:
其中,L(i,edge)和L(i,cloud)分别表示边缘侧和云侧的损失函数。
步骤S4.根据该DDNN目标函数,联合训练DDNN的边缘侧模型和云侧模型。
使用梯度下降算法训练DDNN。
基于概率的自适应策略的训练方法采用加权反向传播,传输到云侧模型的样本图像几乎都是不容易分类的样本图像,这一类样本图像在云侧模型的交叉熵损失很大,进而可以让云侧模型有针对性的对复杂样本图像进行训练。
一种基于DDNN的多视角目标识别方法,该方法包括以下步骤:
S1.采用上述方法训练DDNN。
S2.将待识别样本图像输入至训练好的DDNN,得到多视角目标识别结果。
本实施实例的数据集是训练DDNN的多视角数据集,该数据集是EPFL大学校园的多摄像机同步拍摄的视频序列,一共有六台摄像机,其中一台安装在离地面2米高的位置,另外两台位于一楼,剩下的三台相机安装在二楼,可以覆盖长、宽各为22米的区域,覆盖有公共汽车站、停车位和人行横道。同一时刻六个摄像机拍摄的帧如图2所示。以视角2为例,其中,点的区域表示目标标注的范围,小车、公交车和人分别由边界框包围。在IoT网络中,边缘层通常由IoT设备、Iot网关和局域网接入点组成,云层包括互联网和云服务器。为了进行实验评估,假设每个摄像头都连接到一个IoT设备,该边缘设备可以通过无线网络将捕获的图像传输到云端。
视频时长23分57秒,每个视频有242帧,人、小车和公交车的数量分别是1297、3553和56。单个图像中可能存在多个边界框,每个边界框标注出不同类别的对象。在准备数据集时,首先从一个摄像机视频中选取一帧图像,提取边界框中的对象,然后提取其他摄像机相应帧中的对象,调整为32*32RGB的像素大小,最后手动同步每一帧的对象,并整理成数据集。对于给定对象没有出现在像机拍摄范围内的情况,用一个同样大小的黑色图片替代该视角的图像,如图3所示。训练集一共4080张图片,测试集一共1026张图片。为了模拟多视角IoT设备协同计算的场景,训练阶段各分支数据集互不共享,允许训练集中出现全黑的图像,进而体现DDNN多视角融合的优越性。
首先是DDNN模型的结构。实验测试的边缘模型包含卷积层、池化层、BN层和Dropout。云侧模型比边缘模型更深,其卷积层、池化层、BN及Dropout数量均是边缘模型的两倍,且都使用Relu激活函数。云侧模型的全连接层神经元个数是256,其激活函数为Sigmoid。边缘侧模型卷积通道数设置为4,云侧模型的两个卷积层通道数分别设为32和64。然后是模型训练时的超参数设置。训练DDNN选用的优化算法是Adam,超参数betal设置为0.9,其余超参数使用TensorFlow默认的设置。每组实验重复十次,并将十组实验的平均值和方差作为最终实验结果。实验迭代次数设为100次,前50次学习率设为0.02,后50次学习率设为0.005。Batch大小设为32,Dropoutrate设为0.8。
云侧分类器单独推理的精度97.08%,边缘侧分类器单独推理的精度97.02%,“云-边”协同推理的整体精度(98.42%)远远高于前两者,通信量传输也有所改善。因此,可以得出结论,多出口协同推理确实可以提升性能。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (4)
1.一种基于DDNN模型的多视角目标识别方法,其特征在于,该方法包括:
训练阶段:
S1.获取多视角图像数据集,所述多视角图像数据集是多台摄像机同步拍摄的视频序列,所述多台摄像机中的每个摄像机都连接到一个IoT设备;
S2.从每个摄像机拍摄的视频中选取一帧图像,提取目标对象,所述目标对象为人、小车和公交车,提取其他摄像机相应帧中的目标对象,从而同步每一帧的目标对象,得到多视角图像训练集,输入至DDNN模型,其中,所述DDNN模型包括云侧模型和边缘模型;各个视角有独立的卷积特征提取模块和全连接层,将各个全连接层的输出向量进行融合,送给softmax激活函数,得到分类结果;所述云侧模型的卷积层、池化层、BN层和Dropout数量均是所述边缘模型的两倍;
S3.获取DDNN云侧模型对多视角图像训练集中的样本图像的信息熵:
其中,pi表示云侧模型softmax分类器对第i个样本图像输出的概率向量,C表示标签集合;
S4.基于样本图像的信息熵,构建DDNN目标函数:
其中,N表示云侧和端侧训练的所有样本图像数目,L(i,edge)和L(i,cloud)分别表示第i个样本图像的边缘侧和云侧的损失函数;
S5.根据该DDNN目标函数,联合训练DDNN的边缘侧模型和云侧模型,得到训练好的DDNN模型;
识别阶段:
将待识别样本图像输入至训练好的DDNN模型,得到多视角目标识别结果。
2.一种基于DDNN模型的多视角目标识别方法,其特征在于,该方法包括:
训练阶段:
S1.获取多视角图像数据集,所述多视角图像数据集是多台摄像机同步拍摄的视频序列,所述多台摄像机中的每个摄像机都连接到一个IoT设备;
S2.从每个摄像机拍摄的视频中选取一帧图像,提取目标对象,所述目标对象为人、小车和公交车,提取其他摄像机相应帧中的目标对象,从而同步每一帧的目标对象,得到多视角图像训练集,输入至DDNN模型,其中,所述DDNN模型包括云侧模型和边缘模型;各个视角有独立的卷积特征提取模块和全连接层,将各个全连接层的输出向量进行融合,送给softmax激活函数,得到分类结果;所述云侧模型的卷积层、池化层、BN层和Dropout数量均是所述边缘模型的两倍;
S3.计算DDNN云侧模型判别多视角图像训练集中的样本图像属于每个类的概率;
S4.基于多视角图像训练集中的样本图像属于每个类的概率,确定云侧模型对样本图像的置信度wi:
wi=yipi T
其中,yi表示第i个样本图像的真实标签,pi表示云侧模型softmax分类器对第i个样本图像输出的概率向量;
S5.基于多视角图像训练集中的样本图像的置信度,构建DDNN目标函数:
其中,N表示云侧和端侧训练的所有样本图像数目,L(i,edge)和L(i,cloud)分别表示第i个样本图像的边缘侧和云侧的损失函数;
S6.根据该DDNN目标函数,联合训练DDNN的边缘侧模型和云侧模型,得到训练好的DDNN模型;
识别阶段:
将待识别样本图像输入至训练好的DDNN模型,得到多视角目标识别结果。
4.一种基于DDNN的多视角目标识别系统,其特征在于,包括:计算机可读存储介质和处理器;
所述计算机可读存储介质用于存储可执行指令;
所述处理器用于读取所述计算机可读存储介质中存储的可执行指令,执行权利要求1至3任一项所述的基于DDNN模型的多视角目标识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910931384.1A CN110738309B (zh) | 2019-09-27 | 2019-09-27 | Ddnn的训练方法和基于ddnn的多视角目标识别方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910931384.1A CN110738309B (zh) | 2019-09-27 | 2019-09-27 | Ddnn的训练方法和基于ddnn的多视角目标识别方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110738309A CN110738309A (zh) | 2020-01-31 |
CN110738309B true CN110738309B (zh) | 2022-07-12 |
Family
ID=69269807
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910931384.1A Active CN110738309B (zh) | 2019-09-27 | 2019-09-27 | Ddnn的训练方法和基于ddnn的多视角目标识别方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110738309B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111382782B (zh) * | 2020-02-23 | 2024-04-26 | 华为技术有限公司 | 训练分类器的方法和装置 |
CN111639744B (zh) * | 2020-04-15 | 2023-09-22 | 北京迈格威科技有限公司 | 学生模型的训练方法、装置及电子设备 |
CN111985562B (zh) * | 2020-08-20 | 2022-07-26 | 复旦大学 | 一种保护端侧隐私的端云协同训练系统 |
CN112685176A (zh) * | 2020-12-25 | 2021-04-20 | 国网河北省电力有限公司信息通信分公司 | 一种改进ddnn的资源受限边缘计算方法 |
CN112735198A (zh) * | 2020-12-31 | 2021-04-30 | 深兰科技(上海)有限公司 | 实验教学系统及方法 |
CN112910806B (zh) * | 2021-01-19 | 2022-04-08 | 北京理工大学 | 基于深度神经网络的联合信道估计及用户激活检测方法 |
CN113657747B (zh) * | 2021-08-12 | 2023-06-16 | 中国安全生产科学研究院 | 一种企业安全生产标准化级别智能评定系统 |
CN113807349B (zh) * | 2021-09-06 | 2023-06-20 | 海南大学 | 基于物联网的多视角目标识别方法及系统 |
CN116049347B (zh) * | 2022-06-24 | 2023-10-31 | 荣耀终端有限公司 | 一种基于词融合的序列标注方法及相关设备 |
CN115545198B (zh) * | 2022-11-25 | 2023-05-26 | 成都信息工程大学 | 一种基于深度学习模型的边缘智能协同推断方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108012121A (zh) * | 2017-12-14 | 2018-05-08 | 安徽大学 | 一种边缘计算和云计算融合的实时视频监控方法及系统 |
CN109543829A (zh) * | 2018-10-15 | 2019-03-29 | 华东计算技术研究所(中国电子科技集团公司第三十二研究所) | 在终端和云端上混合部署深度学习神经网络的方法和系统 |
CN109977094A (zh) * | 2019-01-30 | 2019-07-05 | 中南大学 | 一种用于结构化数据的半监督学习的方法 |
CN110009045A (zh) * | 2019-04-09 | 2019-07-12 | 中国联合网络通信集团有限公司 | 物联网终端的识别方法和装置 |
CN110111214A (zh) * | 2019-04-24 | 2019-08-09 | 北京邮电大学 | 一种基于优先级的用户用能管理方法及系统 |
CN110147709A (zh) * | 2018-11-02 | 2019-08-20 | 腾讯科技(深圳)有限公司 | 车辆属性模型的训练方法、装置、终端及存储介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102000416B1 (ko) * | 2016-05-09 | 2019-07-15 | 스트롱 포스 아이오티 포트폴리오 2016, 엘엘씨 | 산업용 사물 인터넷을 위한 방법들 및 시스템들 |
US10797863B2 (en) * | 2017-12-28 | 2020-10-06 | Intel Corporation | Multi-domain cascade convolutional neural network |
-
2019
- 2019-09-27 CN CN201910931384.1A patent/CN110738309B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108012121A (zh) * | 2017-12-14 | 2018-05-08 | 安徽大学 | 一种边缘计算和云计算融合的实时视频监控方法及系统 |
CN109543829A (zh) * | 2018-10-15 | 2019-03-29 | 华东计算技术研究所(中国电子科技集团公司第三十二研究所) | 在终端和云端上混合部署深度学习神经网络的方法和系统 |
CN110147709A (zh) * | 2018-11-02 | 2019-08-20 | 腾讯科技(深圳)有限公司 | 车辆属性模型的训练方法、装置、终端及存储介质 |
CN109977094A (zh) * | 2019-01-30 | 2019-07-05 | 中南大学 | 一种用于结构化数据的半监督学习的方法 |
CN110009045A (zh) * | 2019-04-09 | 2019-07-12 | 中国联合网络通信集团有限公司 | 物联网终端的识别方法和装置 |
CN110111214A (zh) * | 2019-04-24 | 2019-08-09 | 北京邮电大学 | 一种基于优先级的用户用能管理方法及系统 |
Non-Patent Citations (1)
Title |
---|
"Distributed Deep Neural Networks over the Cloud, the Edge and End Devices";Surat Teerapittayanon et al.;《arXiv》;20170906;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110738309A (zh) | 2020-01-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110738309B (zh) | Ddnn的训练方法和基于ddnn的多视角目标识别方法和系统 | |
Cheng et al. | Cspn++: Learning context and resource aware convolutional spatial propagation networks for depth completion | |
WO2020192736A1 (zh) | 物体识别方法及装置 | |
Mendes et al. | Exploiting fully convolutional neural networks for fast road detection | |
Budiharto et al. | Fast object detection for quadcopter drone using deep learning | |
CN112990211B (zh) | 一种神经网络的训练方法、图像处理方法以及装置 | |
WO2021043112A1 (zh) | 图像分类方法以及装置 | |
CN111797983A (zh) | 一种神经网络构建方法以及装置 | |
CN113065645B (zh) | 孪生注意力网络、图像处理方法和装置 | |
WO2021073311A1 (zh) | 图像识别方法、装置、计算机可读存储介质及芯片 | |
CN107351080B (zh) | 一种基于相机单元阵列的混合智能研究系统及控制方法 | |
CN111368972A (zh) | 一种卷积层量化方法及其装置 | |
CN110136162B (zh) | 无人机视角遥感目标跟踪方法及装置 | |
CN113807399A (zh) | 一种神经网络训练方法、检测方法以及装置 | |
CN113297972B (zh) | 一种基于数据融合深度学习的变电站设备缺陷智能分析方法 | |
CN112489072B (zh) | 一种车载视频感知信息传输负载优化方法及装置 | |
CN115167442A (zh) | 一种输电线路巡检路径规划方法及系统 | |
CN111104831B (zh) | 一种视觉追踪方法、装置、计算机设备以及介质 | |
CN113359820A (zh) | 一种基于dqn的无人机路径规划方法 | |
CN115661246A (zh) | 一种基于自监督学习的姿态估计方法 | |
CN110705564B (zh) | 图像识别的方法和装置 | |
CN115018039A (zh) | 一种神经网络蒸馏方法、目标检测方法以及装置 | |
Shariff et al. | Artificial (or) fake human face generator using generative adversarial network (GAN) machine learning model | |
Koo et al. | A jellyfish distribution management system using an unmanned aerial vehicle and unmanned surface vehicles | |
CN113065506B (zh) | 一种人体姿态识别方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |