CN108022257A - 适用于硬件的高速卷积神经网络目标跟踪方法和装置 - Google Patents
适用于硬件的高速卷积神经网络目标跟踪方法和装置 Download PDFInfo
- Publication number
- CN108022257A CN108022257A CN201711470430.XA CN201711470430A CN108022257A CN 108022257 A CN108022257 A CN 108022257A CN 201711470430 A CN201711470430 A CN 201711470430A CN 108022257 A CN108022257 A CN 108022257A
- Authority
- CN
- China
- Prior art keywords
- target
- high speed
- convolution
- tracking
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
一种适用于硬件的高速卷积神经网络目标跟踪方法和装置,其中该目标跟踪方法包括以下步骤:在目标跟踪过程中,采用预先训练得到的高速卷积神经网络处理高速输入的图像,通过高速计算实现指定目标的高速跟踪;其中,所述高速卷积神经网络计算检测目标位置的速度大于等于500帧/秒。本发明设计合理,通过精简卷积神经网络架构和处理模型参数减少了卷积计算量,提高了处理速度,用卷积神经网络提取了目标和背景的深度特征,能够很好的识别目标,在高速输入图像的情况下能够取得很好的跟踪效果。
Description
技术领域
本发明涉及图像处理和计算机视觉领域,更具体地,涉及到一种适用于硬件的高速卷积神经网络目标跟踪方法和装置。
背景技术
随着计算机视觉理论以及深度学习的发展,对图像内容的识别成为重要的研究方向,目标跟踪作为计算机视觉领域的一个重要研究方向,受到了社会的广泛的关注,拥有广阔的市场,尤其在安全监控、智能交通、无人驾驶和军事防御等领域对目标跟踪的需求日渐增强。同时,目标追踪作为复杂计算机视觉应用的基层技术,该技术的发展也会对计算机视觉的其他技术产生极大的促进作用。目前已经存在很多目标追踪方法,但是这些方法往往在目标高速运动情况下追踪不稳定甚至失效。因此提出一种有效的高速目标跟踪算法具有重要的应用价值。
当前传统目标跟踪算法主要分为四个部分:特征提取、模型建立、目标定位和模型更新。提取目标的特征是准确跟踪目标的最为重要的环节,采用合适的特征提取方法可以提取目标的有效特征,例如:目标的形状特征、目标的纹理特征和目标的边缘特征等。根据提取的特征信息来建立目标模型是准确跟踪目标的关键,传统的目标跟踪算法很难建立一个鲁棒化的目标模型。
近些年,随着计算机计算能力的提高,深度学习重新得到了重视并且在各个领域得到了广泛的应用,基于深度学习的图片检测和目标识别的跟踪方法也随之出现。基于深度学习的目标跟踪将目标跟踪转化成目标分类问题,不同于传统跟踪算法的先提取特征,再用特征建立模型,而是将特征溶于模型之中,构建卷积神经网络直接生成合适的目标模型,采用端到端的目标跟踪,跟踪效果优于传统的跟踪算法。但是一个复杂的深度卷积神经网络需要庞大的计算量难以满足高速物体的跟踪需求。
发明内容
有鉴于此,本发明的主要目的在于提供一种适用于硬件的高速卷积神经网络目标跟踪方法及装置,以期至少部分地解决跟踪高速目标物体的问题,提高跟踪的准确性。
为了实现上述目的,作为本发明的一个方面,提出了一种适用于硬件的高速卷积神经网络目标跟踪方法,其特征在于,包括以下步骤:
在目标跟踪过程中,采用预先训练得到的高速卷积神经网络处理高速输入的图像,通过高速计算实现指定目标的高速跟踪;其中,所述高速卷积神经网络计算检测目标位置的速度大于等于500帧/秒;
其中,所述预先训练得到的高速卷积神经网络包含三层卷积层和一层全连接层,所述三层卷积层依次分别包含4、16、64个卷积核,全连接层2个卷积核;三层卷积层的卷积核大小都是5×5,卷积核步长都为1;每层卷积层后设置了池化层,采用最大池化法,池化核为2×2,步长为2;每层池化层后设置激活层,采用ReLU函数作为激活函数。
作为本发明的另一个方面,还提出了一种适用于硬件的高速卷积神经网络目标跟踪装置,其特征在于,包括:
处理器,用于执行存储在存储器中的程序;
存储器,存储有用于运行如上所述的适用于硬件的高速卷积神经网络目标跟踪方法的程序。
基于上述技术方案可知,本发明的跟踪方法和装置具有如下有益效果:
本发明的用于硬件的高速卷积神经网络目标跟踪方法构建指定目标的数据库,建立一种适用于硬件的高速卷积神经网络模型,高速输入的图像可用高速卷积神经网络模型在硬件上进行高速识别,可以实现指定目标的高速跟踪;本发明的识别速率可以高达500帧/秒;
本发明设计合理,通过精简卷积神经网络架构和处理模型参数减少了卷积计算量,提高了处理速度,用卷积神经网络提取了目标和背景的深度特征,能够很好的识别目标,在高速输入图像的情况下能够取得很好的跟踪效果。
附图说明
图1为本发明的方法中高速卷积神经网络训练框架的示意图;
图2为本发明的方法中高速卷积神经网络结构及训练过程的示意图;
图3为本发明的方法中硬件计算核心存储数据对应位置的示意图;
图4为本发明的方法中高速卷积神经网络跟踪算法的整体实现过程的示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明作进一步的详细说明。
本发明公开了一种适用于硬件的高速卷积神经网络目标跟踪方法,包括以下步骤:
在目标跟踪过程中,采用预先训练得到的高速卷积神经网络处理高速输入的图像,通过高速计算实现指定目标的高速跟踪;其中,所述高速卷积神经网络计算检测目标位置的速度大于等于500帧/秒;
其中,所述预先训练得到的高速卷积神经网络包含三层卷积层和一层全连接层,所述三层卷积层依次分别包含4、16、64个卷积核,全连接层2个卷积核;三层卷积层的卷积核大小都是5×5,卷积核步长都为1;每层卷积层后设置了池化层,采用最大池化法,池化核为2×2,步长为2;每层池化层后设置激活层,采用ReLU函数作为激活函数。
其中,所述高速卷积神经网络通过如下步骤预先训练得到:
步骤1:构建用于训练的目标和背景环境数据库,使用图像采集设备采集含有目标的图片,采集到的图片用切割框切割成若干图像块,并将切割后的图像块分为目标和背景环境两部分;
步骤2:构建高速卷积神经网络;
步骤3:将所述用于训练的目标和背景环境数据库中的图片输入到所述高速卷积神经网络中进行端到端的迭代训练,并对其参数进行优化处理,得到所述预先训练得到的高速卷积神经网络。
其中,步骤1中,使用LBP特征的Adaboost分类器半自动切割含有目标的图片,切割框采用N×N大小的正方形切割框,将切割后的N×N的图像块分为目标数据集和背景环境数据集两部分,上述两部分分别包含大于等于10000张,例如15000张N×N的图片;其中N可以选自16、32、64、128、256、512、1024、2048等2的幂,以方便处理器的二进制运算。
其中,步骤2中构建的高速卷积神经网络采用最大池化法保留更多的纹理信息,采用的激活函数ReLU的定义为最后一层全连接层为分类层。
其中,步骤3中进行端到端的迭代训练,并对其参数进行优化处理的步骤具体包括:
把一个训练样本输入给所述高速卷积神经网络,计算输出与目标输出的差的模平方,再把全部n个样本的差的模平方求平均,得到损失函数e,公式如下:
将损失函数e作为全部权值和全部偏置值的函数在自变量空间内找到e的全局极小点以实现所述迭代训练。
其中,步骤3中优化处理的参数包括:每层卷积核的参数和每层卷积计算后的偏置项、置零偏置项,优化结果使得在matlab仿真中取得很好的分类效果,目标召回率为99.8%。
其中,将预先训练得到的高速卷积神经网络应用于高速计算的硬件中时,需使用定点运算,将每层卷积核的参数定点化,控制信号控制数据进行运算实现硬件计算,控制信号需要根据数据的预定存放位置进行修改,优化后的高速卷积神经网络及其参数存放于硬件固定的存储位置。
其中,所述处理高速输入的图像,通过高速计算实现指定目标的高速跟踪的步骤具体包括:
标定图像采集设备采集到的第一帧图片的目标位置坐标,输入第二帧图片,在前一位置坐标周围标定若干候选目标框,将若干候选目标框输入所述高速卷积神经网络,计算响应最高的目标特征的候选框,得到第二帧目标坐标,再输入第三帧图片,同上,依次得到每一帧图片目标位置,实现目标跟踪;
作为优选,所述图像采集设备采集传输图片速度优选大于等于500帧/秒也可以根据技术进步选取更快的传输速率,通过光纤接口以大于等于10Gbps的串行通信方式传输到数据处理单元中。
其中,所述若干候选目标框的中心分别为横坐标X-1、X、X+1,纵坐标Y-1、Y、Y+1相互对应的9个坐标,在计算得到响应最高的目标特征的候选框时,在显示器上实时显示跟踪状态。
本发明还公开了一种适用于硬件的高速卷积神经网络目标跟踪装置,其特征在于,包括:
处理器,用于执行存储在存储器中的程序;
存储器,存储有用于运行如上所述的适用于硬件的高速卷积神经网络目标跟踪方法的程序。
下面结合附图和具体实施例对本发明做进一步的阐述说明,但本发明的实施方式并不限于此。
本发明的一个优选实施方式的建立数据库的方法如图1所示,具体包括如下步骤:
1.构建用于训练网络的目标和背景环境数据库,使用高速相机在实验室和日常生活环境中采集含有目标的图片。
2.使用LBP特征的Adaboost分类器半自动切割上述含有目标的图片,切割框采用32×32大小的正方形切割框,将切割后的32×32的图像块分为目标数据集和背景环境数据集两部分,上述两部分各包含15000张32×32的图片。
本发明的用于硬件高速计算的高速卷积神经网络模型训练过程如图2所示,具体包括如下步骤:
1.构建高速卷积神经网络,所述高速卷积神经网络包含三层卷积层和一层全连接层,所述的三层卷积层依次分别包含4、16、64个卷积核,全连接层2个卷积核,三层卷积层的卷积核大小都是5*5,卷积核步长都为1;
2.每层卷积层后都设置了亚采样层,池化核为2*2,步长为2,所有亚采样层采用最大池化法,可以保留更多的纹理信息;
3.每层亚采样层后都设置了激活层,激活层采用ReLU函数作为激活函数,激活层ReLU函数的定义为
4.构建极简的三层高速卷积神经网络,所述最后一层全连接层为分类层;
5.将所述目标和背景数据库图片输入到所述高速卷积神经网络中进行训练,进行迭代训练,不停的用正确的标签来更正神经网络参数,过程如下,把一个训练样本输入给神经网络,计算输出与目标输出的差的模平方,再把全部n个样本的差的模平方求平均,得到损失函数e,公式如下:
e称为均方误差MSE,将损失函数e作为全部权值和全部偏置值的函数在自变量空间内找到e的全局极小点就实现了迭代训练;
6.训练得到目标卷积神经模型包含两部分参数,每层卷积核的参数和每层卷积计算后的偏置项,将偏置项置零,在matlab仿真中能够取得很好的分类效果,目标召回率为99.8%。
7.处理后的目标卷积神经模型应用于高速计算的硬件,需使用处理效率较高的定点运算,将每层卷积核的参数定点化,控制信号控制数据进行运算实现硬件计算,控制信号需要根据数据的预定存放位置进行修改,优化后的目标模型存放于硬件固定的存储位置。
8.编写控制卷积计算过程的汇编语言,控制计算核心读取数据位置进行卷积计算,第一步:先生成指令地址;第二步:根据指令地址取指令;第三步:根据数据指令解码生成控制信号准备数据;第四步:根据控制信号和数据进行运算;第五步:根据控制信号选择结果;第六步:把结果写回寄存器。计算核心存储数据对应位置如图3,在VCS上得到仿真结果,经过对比与matlab仿真结果一致,频率50MHz,识别一张图使用90000周期,识别速度为每秒500帧以上,确认上述高速卷积神经网络模型可以在硬件上高速实现。
本发明的高速卷积神经网络跟踪算法的整体实现如图4所示,具体包括如下步骤:
1.标定高速相机采集到的第一帧图片的目标位置坐标;
2.输入第二帧图片,在前一位置坐标周围标定9个候选目标框,目标中心坐标(X,Y)周围标定9个候选目标框中心分别为横坐标X-1、X、X+1纵坐标Y-1、Y、Y+1相互对应的9个坐标;
3.将9个候选目标框输入高速卷积神经网络检测模型;
4.进行卷积计算,得到目标类别或是背景类别及对应的得分,选取分数最高的目标特征的候选框,得到第二帧目标坐标;
5.再输入第三帧图片,循环前三步,依次得到每一帧图片目标位置;
6.高速相机采集传输图片速度为每秒500帧,通过光纤接口以10Gbps(速度)串行通信的方式传输到数据处理单元中,所述高速卷积神经网络计算检测目标位置的速度为每秒500帧。
7.得到每一帧目标的坐标,将坐标输出,在显示器上实时显示跟踪状态。
本发明的适用于硬件的高速卷积神经网络目标跟踪方法构建指定目标的数据库,建立一种适用于硬件的高速卷积神经网络模型,高速输入的图像可用所述高速卷积神经网络模型在硬件上进行高速识别,实现指定目标的高速跟踪。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种适用于硬件的高速卷积神经网络目标跟踪方法,其特征在于,包括以下步骤:
在目标跟踪过程中,采用预先训练得到的高速卷积神经网络处理高速输入的图像,通过高速计算实现指定目标的高速跟踪;其中,所述高速卷积神经网络计算检测目标位置的速度大于等于500帧/秒;
其中,所述预先训练得到的高速卷积神经网络包含三层卷积层和一层全连接层,所述三层卷积层依次分别包含4、16、64个卷积核,全连接层2个卷积核;三层卷积层的卷积核大小都是5×5,卷积核步长都为1;每层卷积层后设置了池化层,采用最大池化法,池化核为2×2,步长为2;每层池化层后设置激活层,采用ReLU函数作为激活函数。
2.根据权利要求1所述的目标跟踪方法,其特征在于,所述高速卷积神经网络通过如下步骤预先训练得到:
步骤1:构建用于训练的目标和背景环境数据库,使用图像采集设备采集含有目标的图片,采集到的图片用切割框切割成若干图像块,并将切割后的图像块分为目标和背景环境两部分;
步骤2:构建高速卷积神经网络;
步骤3:将所述用于训练的目标和背景环境数据库中的图片输入到所述高速卷积神经网络中进行端到端的迭代训练,并对其参数进行优化处理,得到所述预先训练得到的高速卷积神经网络。
3.根据权利要求2所述的目标跟踪方法,其特征在于,步骤1中,使用LBP特征的Adaboost分类器半自动切割含有目标的图片,切割框采用N×N大小的正方形切割框,将切割后的N×N的图像块分为目标数据集和背景环境数据集两部分,上述两部分分别包含大于等于10000张N×N的图片;其中N选自16、32、64、128、256、512、1024、2048。
4.根据权利要求2所述的目标跟踪方法,其特征在于,步骤2中构建的高速卷积神经网络采用最大池化法保留更多的纹理信息,采用的激活函数ReLU的定义为最后一层全连接层为分类层。
5.根据权利要求2所述的目标跟踪方法,其特征在于,步骤3中进行端到端的迭代训练,并对其参数进行优化处理的步骤具体包括:
把一个训练样本输入给所述高速卷积神经网络,计算输出与目标输出的差的模平方,再把全部n个样本的差的模平方求平均,得到损失函数e,公式如下:
<mrow>
<mi>e</mi>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mrow>
<mn>2</mn>
<mi>n</mi>
</mrow>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>n</mi>
</munderover>
<mo>|</mo>
<mo>|</mo>
<msubsup>
<mi>o</mi>
<mi>i</mi>
<mrow>
<mi>r</mi>
<mi>e</mi>
<mi>a</mi>
<mi>l</mi>
</mrow>
</msubsup>
<mo>-</mo>
<msubsup>
<mi>o</mi>
<mi>i</mi>
<mrow>
<mi>o</mi>
<mi>u</mi>
<mi>t</mi>
<mi>p</mi>
<mi>u</mi>
<mi>t</mi>
</mrow>
</msubsup>
<mo>|</mo>
<msup>
<mo>|</mo>
<mn>2</mn>
</msup>
<mo>;</mo>
</mrow>
将损失函数e作为全部权值和全部偏置值的函数在自变量空间内找到e的全局极小点以实现所述迭代训练。
6.根据权利要求2所述的目标跟踪方法,其特征在于,步骤3中优化处理的参数包括:每层卷积核的参数和每层卷积计算后的偏置项、置零偏置项,优化结果使得在matlab仿真中取得很好的分类效果,目标召回率为99.8%。
7.根据权利要求1所述的目标跟踪方法,其特征在于,将预先训练得到的高速卷积神经网络应用于高速计算的硬件中时,需使用定点运算,将每层卷积核的参数定点化,控制信号控制数据进行运算实现硬件计算,控制信号需要根据数据的预定存放位置进行修改,优化后的高速卷积神经网络及其参数存放于硬件固定的存储位置。
8.根据权利要求1所述的目标跟踪方法,其特征在于,所述处理高速输入的图像,通过高速计算实现指定目标的高速跟踪的步骤具体包括:
标定图像采集设备采集到的第一帧图片的目标位置坐标,输入第二帧图片,在前一位置坐标周围标定若干候选目标框,将若干候选目标框输入所述高速卷积神经网络,计算响应最高的目标特征的候选框,得到第二帧目标坐标,再输入第三帧图片,同上,依次得到每一帧图片目标位置,实现目标跟踪;
作为优选,所述图像采集设备采集传输图片速度大于等于500帧/秒,通过光纤接口以大于等于10Gbps的串行通信方式传输到数据处理单元中。
9.根据权利要求8所述的目标跟踪方法,其特征在于,所述若干候选目标框的中心分别为横坐标X-1、X、X+1,纵坐标Y-1、Y、Y+1相互对应的9个坐标,在计算得到响应最高的目标特征的候选框时,在显示器上实时显示跟踪状态。
10.一种适用于硬件的高速卷积神经网络目标跟踪装置,其特征在于,包括:
处理器,用于执行存储在存储器中的程序;
存储器,存储有用于运行如权利要求1至9任意一项所述的适用于硬件的高速卷积神经网络目标跟踪方法的程序。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711470430.XA CN108022257A (zh) | 2017-12-28 | 2017-12-28 | 适用于硬件的高速卷积神经网络目标跟踪方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711470430.XA CN108022257A (zh) | 2017-12-28 | 2017-12-28 | 适用于硬件的高速卷积神经网络目标跟踪方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108022257A true CN108022257A (zh) | 2018-05-11 |
Family
ID=62072145
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711470430.XA Pending CN108022257A (zh) | 2017-12-28 | 2017-12-28 | 适用于硬件的高速卷积神经网络目标跟踪方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108022257A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109190635A (zh) * | 2018-07-25 | 2019-01-11 | 北京飞搜科技有限公司 | 基于分类cnn的目标追踪方法、装置及电子设备 |
CN109472771A (zh) * | 2018-09-28 | 2019-03-15 | 江苏省无线电科学研究所有限公司 | 玉米雄穗的检测方法、装置及检测设备 |
CN111406263A (zh) * | 2018-11-28 | 2020-07-10 | 深圳市大疆创新科技有限公司 | 神经网络架构搜索的方法与装置 |
CN115439871A (zh) * | 2022-09-13 | 2022-12-06 | 北京航星永志科技有限公司 | 档案自动化采集方法、装置和电子设备 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102184021A (zh) * | 2011-05-27 | 2011-09-14 | 华南理工大学 | 一种基于手写输入和指尖鼠标的电视人机交互方法 |
CN104915322A (zh) * | 2015-06-09 | 2015-09-16 | 中国人民解放军国防科学技术大学 | 一种卷积神经网络硬件加速方法及其axi总线ip核 |
CN105760933A (zh) * | 2016-02-18 | 2016-07-13 | 清华大学 | 卷积神经网络的逐层变精度定点化方法及装置 |
CN106127815A (zh) * | 2016-07-21 | 2016-11-16 | 广东工业大学 | 一种融合卷积神经网络的跟踪方法及系统 |
CN106295707A (zh) * | 2016-08-17 | 2017-01-04 | 北京小米移动软件有限公司 | 图像识别方法和装置 |
CN107240087A (zh) * | 2016-11-01 | 2017-10-10 | 北京深鉴智能科技有限公司 | 目标检测系统和方法 |
CN107403117A (zh) * | 2017-07-28 | 2017-11-28 | 西安电子科技大学 | 基于fpga的三维卷积器 |
CN107452023A (zh) * | 2017-07-21 | 2017-12-08 | 上海交通大学 | 一种基于卷积神经网络在线学习的单目标跟踪方法和系统 |
-
2017
- 2017-12-28 CN CN201711470430.XA patent/CN108022257A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102184021A (zh) * | 2011-05-27 | 2011-09-14 | 华南理工大学 | 一种基于手写输入和指尖鼠标的电视人机交互方法 |
CN104915322A (zh) * | 2015-06-09 | 2015-09-16 | 中国人民解放军国防科学技术大学 | 一种卷积神经网络硬件加速方法及其axi总线ip核 |
CN105760933A (zh) * | 2016-02-18 | 2016-07-13 | 清华大学 | 卷积神经网络的逐层变精度定点化方法及装置 |
CN106127815A (zh) * | 2016-07-21 | 2016-11-16 | 广东工业大学 | 一种融合卷积神经网络的跟踪方法及系统 |
CN106295707A (zh) * | 2016-08-17 | 2017-01-04 | 北京小米移动软件有限公司 | 图像识别方法和装置 |
CN107240087A (zh) * | 2016-11-01 | 2017-10-10 | 北京深鉴智能科技有限公司 | 目标检测系统和方法 |
CN107452023A (zh) * | 2017-07-21 | 2017-12-08 | 上海交通大学 | 一种基于卷积神经网络在线学习的单目标跟踪方法和系统 |
CN107403117A (zh) * | 2017-07-28 | 2017-11-28 | 西安电子科技大学 | 基于fpga的三维卷积器 |
Non-Patent Citations (1)
Title |
---|
YONGXING YANG ET AL.: "high-speed target tracking system based on a hierarchical parallel vision processor and gray-level LBP algorithm", 《IEEE TRANSACTIONS ON SYSTEMS, MAN, AND CYBERNETICS: SYSTEMS》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109190635A (zh) * | 2018-07-25 | 2019-01-11 | 北京飞搜科技有限公司 | 基于分类cnn的目标追踪方法、装置及电子设备 |
CN109472771A (zh) * | 2018-09-28 | 2019-03-15 | 江苏省无线电科学研究所有限公司 | 玉米雄穗的检测方法、装置及检测设备 |
CN111406263A (zh) * | 2018-11-28 | 2020-07-10 | 深圳市大疆创新科技有限公司 | 神经网络架构搜索的方法与装置 |
CN115439871A (zh) * | 2022-09-13 | 2022-12-06 | 北京航星永志科技有限公司 | 档案自动化采集方法、装置和电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhang et al. | C2FDA: Coarse-to-fine domain adaptation for traffic object detection | |
CN108022257A (zh) | 适用于硬件的高速卷积神经网络目标跟踪方法和装置 | |
CN109544598A (zh) | 目标跟踪方法、装置及可读存储介质 | |
CN109741318B (zh) | 基于有效感受野的单阶段多尺度特定目标的实时检测方法 | |
CN110210320A (zh) | 基于深度卷积神经网络的多目标无标记姿态估计方法 | |
CN110084165A (zh) | 基于边缘计算的电力领域开放场景下异常事件的智能识别与预警方法 | |
CN112150493A (zh) | 一种基于语义指导的自然场景下屏幕区域检测方法 | |
Huang et al. | SiamATL: online update of siamese tracking network via attentional transfer learning | |
CN110222760A (zh) | 一种基于winograd算法的快速图像处理方法 | |
CN113592896B (zh) | 基于图像处理的鱼类投喂方法、系统、设备及存储介质 | |
CN110309854A (zh) | 一种信号调制方式识别方法及装置 | |
CN112258557B (zh) | 一种基于空间注意力特征聚合的视觉跟踪方法 | |
CN110222607A (zh) | 人脸关键点检测的方法、装置及系统 | |
CN115375737A (zh) | 基于自适应时间与序列化时空特征的目标跟踪方法与系统 | |
Dong et al. | Lightweight and efficient neural network with SPSA attention for wheat ear detection | |
CN113936019A (zh) | 一种基于卷积神经网络技术的大田作物产量估算方法 | |
CN106934339A (zh) | 一种目标跟踪、跟踪目标识别特征的提取方法和装置 | |
CN116612386A (zh) | 基于分级检测双任务模型的辣椒病虫害识别方法及系统 | |
CN103473562B (zh) | 特定人体动作的自动训练和识别系统 | |
CN112053386B (zh) | 基于深度卷积特征自适应集成的目标跟踪方法 | |
CN106033550B (zh) | 目标跟踪方法及装置 | |
CN112053384A (zh) | 基于边界框回归模型的目标跟踪方法 | |
CN115311573B (zh) | 一种场地线检测和目标定位方法、电子设备及存储介质 | |
Liang et al. | Mask Wearing Detection System Based On YOLO And Raspberry Pi | |
Xia et al. | CMNet: Cross-Aggregation Multi-branch Network for Salient Object Detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20180605 Address after: 100083 No. 35, Qinghua East Road, Beijing, Haidian District Applicant after: INSTITUTE OF SEMICONDUCTORS, CHINESE ACADEMY OF SCIENCES Applicant after: University OF CHINESE ACADEMY OF SCIENCES Address before: 100083 No. 35, Qinghua East Road, Beijing, Haidian District Applicant before: INSTITUTE OF SEMICONDUCTORS, CHINESE ACADEMY OF SCIENCES |
|
TA01 | Transfer of patent application right | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180511 |
|
RJ01 | Rejection of invention patent application after publication |