CN108846420B - 网络结构以及客户端 - Google Patents

网络结构以及客户端 Download PDF

Info

Publication number
CN108846420B
CN108846420B CN201810523513.9A CN201810523513A CN108846420B CN 108846420 B CN108846420 B CN 108846420B CN 201810523513 A CN201810523513 A CN 201810523513A CN 108846420 B CN108846420 B CN 108846420B
Authority
CN
China
Prior art keywords
convolution
layer
feature map
packet
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810523513.9A
Other languages
English (en)
Other versions
CN108846420A (zh
Inventor
张默
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Moshanghua Technology Co ltd
Original Assignee
Beijing Moshanghua Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Moshanghua Technology Co ltd filed Critical Beijing Moshanghua Technology Co ltd
Priority to CN201810523513.9A priority Critical patent/CN108846420B/zh
Publication of CN108846420A publication Critical patent/CN108846420A/zh
Application granted granted Critical
Publication of CN108846420B publication Critical patent/CN108846420B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24147Distances to closest patterns, e.g. nearest neighbour classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了一种网络结构以及客户端。该网络结构包括一分组卷积层,所述分组卷积层包括:多个分组卷积模块,每个所述分组卷积模块包括:一深度可分离卷积单元,以及一预设卷积核大小的卷积单元。本申请解决了网络模型计算速度较慢的技术问题。通过本申请中的网络结构解决了在多种平台运行速度慢的问题,可以用于无人车,安防等对实时性要求高的领域。

Description

网络结构以及客户端
技术领域
本申请涉及图像识别领域,具体而言,涉及一种网络结构以及客户端。
背景技术
随着计算机视觉的快速发展,人脸识别,物体检测等领域已经有了很大的进展,尤其在准确率上有了很大的提升,很多深层次网络的出现更是加快了人脸识别,物体检测等领域的进展,在很多计算机视觉的公开数据集上,都有了很大的飞跃。
比如,人脸识别LFW数据集,准确率已经达到99.83%,远超人眼准确度,如PascalVOC数据集,物体检测也将近90%的准确率,再如COCO数据集,物体检测达到50%以上的准确率,由此可见很多准确率高的方法都是基于很大的网络。然而上述方法中也有着运行速度慢的弊端,同时训练时间长。
发明人发现,目前的网络模型计算速度较慢,同时网络模型大小较大。
针对相关技术中网络模型大小较大的问题,目前尚未提出有效的解决方案。
发明内容
本申请的主要目的在于提供一种网络结构,以解决网络模型大小较大的问题。
为了实现上述目的,根据本申请的一个方面,提供了一种网络结构,用于卷积神经网络。
根据本申请的网络结构包括:一分组卷积层,所述分组卷积层包括:多个分组卷积模块,每个所述分组卷积模块包括:一深度可分离卷积单元,以及一预设卷积核大小的卷积单元。
进一步地,所述预设卷积核大小的卷积单元为:卷积核大小为1*1的卷积单元。
进一步地,网络结构还包括:批归一化层,在所述批归一化层包括:对任一层输入的特征图(B x H x W x C);其中,B为图片的数目,C为通道数目,H为特征图的长,W为特征图的宽;按照通道维度为单位分成G组;在每组中计算平局值和方差;其中,G为组的个数。
进一步地,网络结构还包括:激活函数层,在所述激活函数层采用:smooth_L1_Loss损失函数或A-Softmax损失函数。
进一步地,所述分组卷积层中卷积核与对应通道的输入特征图进行卷积后输出特征图。
为了实现上述目的,根据本申请的另一方面,提供了一种客户端,部署有用于识别图像的网络结构。
根据本申请的客户端包括:用于获得输入图片特征图的分组卷积模块,所述分组卷积模块至少包括:一深度可分离卷积单元和一预设卷积核大小的卷积单元。
进一步地,客户端还包括:批归一化模块,用于对任一层输入的特征图(B x H x Wx C),其中,B为图片的数目,C为通道数目,H为特征图的长,W为特征图的宽;按照通道维度为单位分成G组;在每组中计算平局值和方差;其中,G为组的个数。
进一步地,客户端还包括:激活函模块,用于在所述激活函数层采用:smooth_L1_Loss损失函数或A-Softmax损失函数。
进一步地,在所述激活函数层之后还包括:池化层模块、全连接层模块。
为了实现上述目的,根据本申请的另一方面,提供了一种客户端,用于安装在无人车、无人机或者嵌入式设备中实时地检测识别出图像。
在本申请实施例中,采用多个分组卷积模块作为分组卷积层的方式,通过每个所述分组卷积模块配置深度可分离卷积单元和预设卷积核大小的卷积单元,达到了减少模型大小的目的,从而实现了提高卷积申请网络的计算速度的技术效果,进而解决了网络模型大小较大的技术问题。区别于现有很多深度学习的技术方案运行速度慢,通过本申请中的网络结构解决了在多种平台运行速度慢的问题,可以用于无人车,安防等对实时性要求高的领域。
附图说明
构成本申请的一部分的附图用来提供对本申请的进一步理解,使得本申请的其它特征、目的和优点变得更明显。本申请的示意性实施例附图及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请一实施例的网络结构示意图;
图2是根据本申请另一实施例的网络结构示意图;以及
图3是根据本申请实施例的客户端示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
如图1所示,本申请实施例中公开了一种网络结构,用于卷积神经网络,所述结构中至少还包括:一分组卷积层,所述分组卷积层包括:多个分组卷积模块,每个所述分组卷积模块包括:一深度可分离卷积单元,以及一预设卷积核大小的卷积单元。每个分组卷积层中至少包括:一深度可分离卷积单元和一预设卷积核大小的卷积单元。由于在一个标准的CNN网络中按顺序可包括:卷积层、批归一化层(Group Batch Normalization),激活函数层(Sigmoid),在本实施例中提出的分组卷积模块可以替换现有CNN网络中的卷积层。
优选地,每个所述分组卷积层中至少包括:一深度可分离卷积单元和一卷积核大小为1*1的卷积单元。可以理解,上述的深度可分离卷积单元为本领域技术人员公知的一种卷积单元结构,由于能够有效利用参数,因此深度可分离卷积单元也可以用于移动设备中。此外,采用卷积核大小为1*1的卷积单元,可减少模型参数。
每个组模块指的是深度分离卷积单元+1*1的卷积单元,1*1的卷积单元接在深度分离单元之后,可建立通道间的相关性。
如图2所示,作为本实施例中的优选,网络结构中还包括:批归一化层,在所述批归一化层包括:对任一层输入的特征图(B x H x W x C);其中,B为图片的数目,C为通道数目,H为特征图的长,W为特征图的宽;按照通道维度为单位分成G组;在每组中计算平局值和方差;其中,G为组的个数。
结合了组归一化(Group Normalization)和批归一化(Batch Normalization)的优点,针对第n次迭代,任一层输入的特征图(B x H x W x C),B代表Batch Size,指的是图片的数目;G代表组的个数,C代表通道数目,H,W代表特征图的尺寸(长宽)。
对于G组中的每组计算平局值和方差。
Figure BDA0001675355160000041
Figure BDA0001675355160000051
Figure BDA0001675355160000052
其中,公式一中μi是计算的平均值,i的取值范围是[0,C/G],公式二中σi是计算的方差,Si是用来计算均值和方差的像素集合,m指的是集合Si的大小,e是一个很小的常量(本申请实施例中取值为1e-6),iC指的是通道方向的下标,kC指的是像素的下标,所以公式三是指所有在一个组内的像素的下标的集合。
具体地,针对第n次迭代,任一层输入的特征图(B x H x W x C),在本申请中以通道维度为单位,分成G组,每组计算平局值和方差。优选地,作为本实施例中的优选,结合批量的信息,将每个批量内的均值和方差相加并取均值作为最后的均值和方差,对于批量大小Batch Size为1的情况,则本申请中退化成组归一化。
优选地,作为本实施例中的优选,本申请中结合前后批量的信息,将多次迭代的信息结合在一起,对于第n-1次迭代的结果,本申请通过加权平均法将其结合,权重参数为wn-1和wn,所以最终的平均值mean等于wn-1x meann-1+wn x meann,其中wn-1+wn=1,通常设置wn-1为0.99,wn为0.01。
在本申请中提出的组批归一化方法,结合了组归一化和批归一化的优点,一方面减少了训练网络时所需要的批量大小Batch Size的大小,另一方面,结合了批量维度和时间维度的信息,保证了在小批量的情况下,准确率相比大批量的同样网络不会下降。
如图2所示,作为本实施例中的优选,网络结果中还包括:激活函数层,在所述激活函数层采用:smooth_L1_Loss损失函数或A-Softmax损失函数。针对不同问题,损失函数有所不同,目前可以分为分类问题和回归问题,对于回归问题,在本申请中使用的是Smooth_L1_Loss。
对于分类问题,本申请中并没有使用传统的Softmax,而是使用A-Softmax方法,提高了分类的准确率。通过使用A-Softmax作为损失函数,保证了网络参数大量减少的情况下,准确率不会下降太多。
作为本实施例中的优选,所述分组卷积层中卷积核与对应通道的输入特征图进行卷积后输出特征图。
本申请中的分组卷积模块与传统的卷积层相比,具有如下的特点:
假设输入特征图大小为Sf x Sf x IN,经过一次卷积,输出的特征图大小为Sf xSf x OUT,
按照传统的卷积操作,卷积核K的大小为:Sk x Sk x IN x OUT,
其中,Sf是特征图的尺寸,Sk是卷积核的尺寸,IN是输入特征图的通道数,OUT是输出特征图的通道数,一次卷积操作的过程如下:
IN个Sk x Sk个卷积核与IN个输入特征图做卷积,得到的结果相加,得到一张输出特征图,同理,一共OUT次操作,得到OUT个输出特征图,用公式表示这个过程如下:
Figure BDA0001675355160000061
根据公式,可以计算出传统卷积层的计算量为:
Sk x Sk x IN x OUT x Sf x Sf
参数量为:
Sk x Sk x IN x OUT。
对应一次传统卷积的是个分组卷积模块(即深度可分离卷积单元+卷积核大小为1*1的卷积单元)。其中,深度可分离卷积单元的具体实现如下:其卷积核K的大小为:Sk xSk x IN,卷积核只跟对应通道的输入特征图做卷积,得到输出特征图,所以输出的特征图大小为Sf x Sf x IN,用公式表示这个过程如下:
Figure BDA0001675355160000062
根据公式,可以计算出深度分离卷积的计算量为:
Sk x Sk x IN x Sf x Sf
参数量为:
Sk x Sk x IN。
深度分离卷积之后,进入一层传统的批归一化层和激活层,然后是1x1卷积层,1x1卷积层的卷积核大小为1x 1x IN x OUT,操作跟传统卷积一致,计算量为1x 1x IN x OUTx Sf x Sf,参数量为1x 1x IN x OUT。
优选地,通过多个所述分组卷积模块输出所述待识别图片的特征图之后还依次通过:批归一化层和激活函数层。
具体地,分组卷积模块总的计算量为:
Sk x Sk x IN x Sf x Sf+1x 1x IN x OUT x Sf x Sf=(Sk x Sk+OUT)x IN xSf x Sf,
参数量:Sk x Sk x IN+1x 1x IN x OUT=(Sk x Sk+OUT)x IN,
相比传统卷积,
计算量:(Sk x Sk+OUT)/Sk x Sk x OUT=1/OUT+1/(Sk x Sk),
参数量:(Sk x Sk+OUT)/Sk x Sk x OUT=1/OUT+1/(Sk x Sk),
可知,根据特征图在输出层输出图像识别结果时采用分组卷积模块,每个分组卷积模块中至少包括:一深度可分离卷积单元和一预设卷积核大小的卷积单元,可以将计算量和参数量减少。
从以上的描述中,可以看出,本申请实现了如下技术效果:
在本申请实施例中,采用多个分组卷积模块作为分组卷积层的方式,通过每个所述分组卷积模块配置深度可分离卷积单元和预设卷积核大小的卷积单元,达到了减少模型大小的目的,从而实现了提高卷积申请网络的计算速度的技术效果,进而解决了网络模型大小较大的技术问题。
需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
根据本申请实施例,还提供了一种用于实施上述网络结构的客户端,如图3所示,所述客户端包括:用于获得输入图片特征图的分组卷积模块10,所述分组卷积模块10至少包括:一深度可分离卷积单元12和一预设卷积核大小的卷积单元11。
本申请实施例的分组卷积模块10包括:多个分组卷积模块,每个所述分组卷积模块包括:一深度可分离卷积单元12,以及一预设卷积核大小的卷积单元11。每个分组卷积层中至少包括:一深度可分离卷积单元12和一预设卷积核大小的卷积单元11。由于在一个标准的CNN网络中按顺序可包括:卷积层、批归一化层(Group Batch Normalization),激活函数层(Sigmoid),在本实施例中提出的分组卷积模块可以替换现有CNN网络中的卷积层。
优选地,每个所述分组卷积层中至少包括:一深度可分离卷积单元和一卷积核大小为1*1的卷积单元。可以理解,上述的深度可分离卷积单元为本领域技术人员公知的一种卷积单元结构,由于能够有效利用参数,因此深度可分离卷积单元也可以用于移动设备中。此外,采用卷积核大小为1*1的卷积单元,可减少模型参数。
每个组模块指的是深度分离卷积单元+1*1的卷积单元,1*1的卷积单元接在深度分离单元之后,可建立通道间的相关性。
优选地,客户端还包括:批归一化模块20,用于对任一层输入的特征图(B x H x Wx C),其中,B为图片的数目,C为通道数目,H为特征图的长,W为特征图的宽;按照通道维度为单位分成G组;在每组中计算平局值和方差;其中,G为组的个数。
结合了组归一化(Group Normalization)和批归一化(Batch Normalization)的优点,针对第n次迭代,任一层输入的特征图(B x H x W x C),B代表Batch SIze,指的是图片的数目;G代表组的个数,C代表通道数目,H,W代表特征图的尺寸(长宽)。
对于G组中的每组计算平局值和方差。
Figure BDA0001675355160000091
Figure BDA0001675355160000092
Figure BDA0001675355160000093
其中,公式一中μi是计算的平均值,i的取值范围是[0,C/G],公式二中σi是计算的方差,Si是用来计算均值和方差的像素集合,m指的是集合Si的大小,e是一个很小的常量(本申请实施例中取值为1e-6),iC指的是通道方向的下标,kC指的是像素的下标,所以公式三是指所有在一个组内的像素的下标的集合。
具体地,针对第n次迭代,任一层输入的特征图(B x H x W x C),在本申请中以通道维度为单位,分成G组,每组计算平局值和方差。优选地,作为本实施例中的优选,结合批量的信息,将每个批量内的均值和方差相加并取均值作为最后的均值和方差,对于批量大小Batch Size为1的情况,则本申请中退化成组归一化。
优选地,作为本实施例中的优选,本申请中结合前后批量的信息,将多次迭代的信息结合在一起,对于第n-1次迭代的结果,本申请通过加权平均法将其结合,权重参数为wn-1和wn,所以最终的平均值mean等于wn-1x meann-1+wn x meann,其中wn-1+wn=1,通常设置wn-1为0.99,wn为0.01。
在本申请中提出的组批归一化方法,结合了组归一化和批归一化的优点,一方面减少了训练网络时所需要的批量大小Batch Size的大小,另一方面,结合了批量维度和时间维度的信息,保证了在小批量的情况下,准确率相比大批量的同样网络不会下降。
优选地,客户端还包括:激活函模块30,用于在所述激活函数层采用:smooth_L1_Loss损失函数或A-Softmax损失函数。
在所述激活函数层采用:smooth_L1_Loss损失函数或A-Softmax损失函数。针对不同问题,损失函数有所不同,目前可以分为分类问题和回归问题,对于回归问题,在本申请中使用的是Smooth_L1_Loss。
对于分类问题,本申请中并没有使用传统的Softmax,而是使用A-Softmax方法,提高了分类的准确率。通过使用A-Softmax作为损失函数,保证了网络参数大量减少的情况下,准确率不会下降太多。
优选地,在所述激活函数层之后还包括:池化层模块、全连接层模块。
根据本申请实施例,还提供了客户端,用于安装在无人车、无人机或者嵌入式设备中实时地检测识别出图像。使用分组卷积层结构替代主干网络传统的卷积层,模型大小减少原来的1/10,同时在CPU上运行速度有10倍提高。
显然,本领域的技术人员应该明白,上述的本申请的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本申请不限制于任何特定的硬件和软件结合。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (9)

1.一种网络结构,其特征在于,用于卷积神经网络,所述结构中至少还包括:
一分组卷积层,所述分组卷积层包括:多个分组卷积模块,
每个所述分组卷积模块包括:
一深度可分离卷积单元,以及
一预设卷积核大小的卷积单元;
还包括:批归一化层,在所述批归一化层包括:
对任一层输入的特征图(BxHxWxC);
其中,B为图片的数目,C为通道数目,H为特征图的长,W为特征图的宽;
按照通道维度为单位分成G组;
在每组中计算平局值和方差;
其中,G为组的个数;
对于G组中的每组计算平局值和方差;
Figure FDA0002980696430000011
Figure FDA0002980696430000012
Figure FDA0002980696430000013
其中,公式一中μi是计算的平均值,i的取值范围是[0,C/G],公式二中σi是计算的方差,Si是用来计算均值和方差的像素集合,m指的是集合Si的大小,e为常量且取值为1e-6,iC指的是通道方向的下标,kC指的是像素的下标,所以公式三是指所有在一个组内的像素的下标的集合。
2.根据权利要求1所述的网络结构,其特征在于,所述预设卷积核大小的卷积单元为:卷积核大小为1*1的卷积单元。
3.根据权利要求1所述的网络结构,其特征在于,还包括:激活函数层,在所述激活函数层采用:smooth_L1_Loss损失函数或A-Softmax损失函数。
4.根据权利要求1所述的网络结构,其特征在于,所述分组卷积层中卷积核与对应通道的输入特征图进行卷积后输出特征图。
5.一种客户端,其特征在于,部署有用于识别图像的权利要求1-4中任一项所述的网络结构,所述客户端包括:用于获得输入图片特征图的分组卷积模块,
所述分组卷积模块至少包括:一深度可分离卷积单元和一预设卷积核大小的卷积单元。
6.根据权利要求5所述的客户端,其特征在于,还包括:批归一化模块,用于对任一层输入的特征图(BxHxWxC),其中,B为图片的数目,C为通道数目,H为特征图的长,W为特征图的宽;
按照通道维度为单位分成G组;
在每组中计算平局值和方差;
其中,G为组的个数。
7.根据权利要求5所述的客户端,其特征在于,还包括:激活函数模块,用于在所述激活函数模块采用:smooth_L1_Loss损失函数或A-Softmax损失函数。
8.根据权利要求7所述的客户端,其特征在于,在所述激活函数模块之后还包括:池化层模块、全连接层模块。
9.一种客户端,其特征在于,用于安装在无人车、无人机或者嵌入式设备中实时地检测识别出图像,使用执行权利要求1-4中任一项所述的网络结构中的分组卷积层。
CN201810523513.9A 2018-05-28 2018-05-28 网络结构以及客户端 Active CN108846420B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810523513.9A CN108846420B (zh) 2018-05-28 2018-05-28 网络结构以及客户端

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810523513.9A CN108846420B (zh) 2018-05-28 2018-05-28 网络结构以及客户端

Publications (2)

Publication Number Publication Date
CN108846420A CN108846420A (zh) 2018-11-20
CN108846420B true CN108846420B (zh) 2021-04-30

Family

ID=64207893

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810523513.9A Active CN108846420B (zh) 2018-05-28 2018-05-28 网络结构以及客户端

Country Status (1)

Country Link
CN (1) CN108846420B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110211069B (zh) * 2019-06-03 2021-09-03 广东工业大学 一种图像去噪模型训练方法、系统、设备、计算机介质
CN110543900A (zh) * 2019-08-21 2019-12-06 北京市商汤科技开发有限公司 图像处理方法及装置、电子设备和存储介质
CN111152921A (zh) * 2020-01-08 2020-05-15 北京建筑大学 一种可垂直起降的无人机的控制系统

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4314178B2 (ja) * 2004-09-27 2009-08-12 株式会社リコー 画像形成装置、サービス機能分割統治方法およびサービス機能分割統治プログラム
CN105681628B (zh) * 2016-01-05 2018-12-07 西安交通大学 一种卷积网络运算单元及可重构卷积神经网络处理器和实现图像去噪处理的方法
CN106529442B (zh) * 2016-10-26 2019-10-18 清华大学 一种行人识别方法和装置

Also Published As

Publication number Publication date
CN108846420A (zh) 2018-11-20

Similar Documents

Publication Publication Date Title
CN107529650B (zh) 闭环检测方法、装置及计算机设备
CN109886225B (zh) 一种基于深度学习的图像手势动作在线检测与识别方法
CN107408211B (zh) 用于物体的再识别的方法
US11270441B2 (en) Depth-aware object counting
CN108764336A (zh) 用于图像识别的深度学习方法及装置、客户端、服务器
CN111368943B (zh) 图像中对象的识别方法和装置、存储介质及电子装置
CN108846420B (zh) 网络结构以及客户端
CN108960053A (zh) 归一化处理方法及装置、客户端
CN109492596B (zh) 一种基于K-means聚类和区域推荐网络的行人检测方法及系统
CN111612024B (zh) 特征提取方法、装置、电子设备及计算机可读存储介质
CN111861925A (zh) 一种基于注意力机制与门控循环单元的图像去雨方法
CN108197669B (zh) 卷积神经网络的特征训练方法及装置
CN109766828A (zh) 一种车辆目标分割方法、装置及通信设备
CN109614933A (zh) 一种基于确定性拟合的运动分割方法
CN115082966B (zh) 行人重识别模型训练方法、行人重识别方法、装置和设备
CN112489072B (zh) 一种车载视频感知信息传输负载优化方法及装置
CN116052218B (zh) 一种行人重识别方法
CN112232292B (zh) 应用于移动端的人脸检测方法及装置
CN111626212B (zh) 图片中对象的识别方法和装置、存储介质及电子装置
CN113763420A (zh) 一种目标跟踪方法、系统及存储介质和终端设备
CN110532890B (zh) 一种基于云端、边缘端和设备端的分布式孪生卷积神经网络行人重识别方法
CN110309790B (zh) 一种用于道路目标检测的场景建模方法和装置
CN114782980A (zh) 一种基于注意力机制的轻量级行人检测方法
CN115170803A (zh) 一种基于e-solo的城市街景实例分割方法
CN111539420B (zh) 基于注意力感知特征的全景图像显著性预测方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20181120

Assignee: Apple R&D (Beijing) Co., Ltd.

Assignor: BEIJING MOSHANGHUA TECHNOLOGY CO., LTD.

Contract record no.: 2019990000054

Denomination of invention: Network structure and client

License type: Exclusive License

Record date: 20190211

EE01 Entry into force of recordation of patent licensing contract
GR01 Patent grant
GR01 Patent grant