CN107123131B - 一种基于深度学习的运动目标检测方法 - Google Patents
一种基于深度学习的运动目标检测方法 Download PDFInfo
- Publication number
- CN107123131B CN107123131B CN201710226749.1A CN201710226749A CN107123131B CN 107123131 B CN107123131 B CN 107123131B CN 201710226749 A CN201710226749 A CN 201710226749A CN 107123131 B CN107123131 B CN 107123131B
- Authority
- CN
- China
- Prior art keywords
- image
- pair
- sub
- neural network
- network model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Abstract
本发明公开了一种基于深度学习的运动目标检测方法,属于视频图像处理技术领域,方法包括:对构建的深度神经网络模型进行训练,得到具有分辨有意义运动目标能力的目标神经网络模型;利用目标神经网络模型,从当前采集的场景图像中检测运动目标。本发明利用深度学习技术和帧间相关性信息,使得方法消耗较小的内存空间,以较小的运算代价准确的检测出运动目标。
Description
技术领域
本发明涉及视频图像处理技术领域,特别涉及一种基于深度学习的运动目标检测方法。
背景技术
随着社会的发展进步,智能视频监控设备越来越多的进入到人们的生活中,其中运动目标检测是智能视频分析算法中最重要的技术,同时也是进行目标跟踪和目标识别的基础技术。
目前,常用的运动目标检测方法是基于背景建模的基础上完成的,其检测运动目标的效果很大程度上取决于背景模型获得的好坏。而构建一个好的背景模型是当前的一个技术难题,其原因是由于实际环境中存在着光线变化、相机抖动、复杂背景以及目标运动速度等干扰,目前已有的背景建模算法无法进行有效及时的背景模型更新,导致运动目标检测结果经常出现错误,准确率较低。
近年来,深度学习技术凭借着可以模拟人类大脑神经网络,能够进行精确的非线性预测,在各个领域都得到了广泛的关注和应用。但是深度学习技术却无法在视频环境中做到实时检测,其原因是深度学习技术存在着模型消耗内存大、运算量大的缺点。比如当前在目标检测领域公知的检测效果和速度都较好的SSD算法,该算法在论文“SSD:SingleShot MultiBox Detector,Wei Liu,Dragomir Anguelov,Dumitru Erhan,ComputerVision and Pattern Recognition(CVPR2016)”中提出。以SSD300模型为例,进行目标检测时需要消耗1.2GB左右的内存,同时在Intel i7CPU环境下的检测时间至少1秒以上。究其原因,是因为SSD算法没有充分利用帧间相关性信息,因此需要消耗大量的内存和运算能力。
因此,如何在保证较少的漏检和误检的前提下,能够以较小的运算代价实时检测运动目标,是技术人员需要攻克的一个难题。
发明内容
本发明的目的在于提供一种基于深度学习的运动目标检测方法,以在保证较少的漏检和误检的前提下,能够以较小的运算代价实时检测运动目标。
为实现以上目的,本发明提供一种基于深度学习的运动目标检测方法,该方法包括:
对构建的深度神经网络模型进行训练,得到具有分辨有意义运动目标能力的目标神经网络模型,具体包括如下步骤:
基于LeNet-5卷积神经网络模型进行改进,构建深度神经网络模型;
根据不同摄像机应用场景下的邻近两帧图像中对应位置的子区域图像对,收集训练样本数据;
基于caffe深度学习框架,利用训练样本数据对深度神经网络模型进行训练,得到目标神经网络模型;
利用目标神经网络模型,从当前采集的当前场景图像中检测运动目标,具体包括如下步骤:
加载目标神经网络模型,以及获取当前摄像机场景下的初始背景图像;
采集当前摄像机场景下的实时帧图像;
检测当前摄像机场景下的实时帧图像是否存在可疑运动目标
如果存在可疑运动目标,获取可疑运动目标的位置矩形作为候选运动目标;
利用目标神经网络模型,在所有候选运动目标内筛选真实的运动目标。
如果不存在可疑运动目标,将采集的摄像机场景下的当前帧图像作为新的背景图像。
进一步地,根据不同摄像机应用场景下的邻近两帧图像中对应位置的子区域图像对,收集训练样本数据,具体包括:
在每个摄像机应用场景下,获取间隔时间间隔为t秒的邻近两帧图像,形成图像对,其中t为常数;
在每个图像对中,根据随机产生的图像位置和子区域图像裁剪尺寸,在两帧图像的对应位置,分别裁剪出尺寸相同的子区域图像,形成子区域图像对;
利用相似度计算公式,计算每个子区域图像对的相似度,其中相似度计算公式如下:
其中,simi表示相似度,H1[i]表示子区域图像对中第一幅图像的特征向量的第i维分量,H2[i]表示子区域图像对中第二幅图像的特征向量的第i维分量,n表示特征向量的维数,H1是子区域图像对中第一幅子区域图像的全局特征直方图和局部特征直方图串联得到的合成向量,H2是子区域图像对中第二幅子区域图像的全局特征直方图和局部特征直方图串联得到的合成向量;
如果子区域图像对的相似度小于预设阈值T1,则将该子区域图像对作为训练正样本;
如果子区域图像对的相似度大于预设阈值T2,则将该子区域图像对作为训练负样本,其中T1、T2均为常数,且T2>T1。
进一步地,基于caffe深度学习框架,利用训练样本数据对深度神经网络模型进行训练,得到目标神经网络模型,具体包括:
基于caffe深度学习框架,将训练样本数据中的每一对子区域图像对融合为一个2通道的输入图像;
对2通道的输入图像的尺寸进行归一化处理,得到归一化后的输入图像;
利用归一化后的输入图像,对所述构建的深度神经网络模型进行训练,得到目标神经网络模型。
进一步地,所述的局部特征直方图的计算过程,包括:
将每个子区域图像对中的每个子区域图像均匀分割成9个局部子区域;
利用特征向量直方图计算公式,计算每个局部子区域对应的特征向量直方图,其中,特征向量直方图计算公式如下:
其中,hist[i]表示特征向量直方图的第i维分量,Mag(x,y)表示像素(x,y)处的梯度幅值,ang(x,y)表示像素(x,y)处的梯度方向角,β表示直方图每一维覆盖的角度范围,其中,Mag(x,y)和ang(x,y)的计算公式如下:
其中,g(x,y)表示像素(x,y)处的灰度值,atan()表示反正切三角函数。
进一步地,检测当前摄像机场景下的实时帧图像是否存在可疑运动目标,如果存在,获取可疑运动目标的位置矩形作为候选运动目标,具体包括:
获取所述当前摄像机场景下的当前帧图像和当前帧图像之前的m帧图像之间的像素灰度差异二值图像;
基于形态学原理,去除像素灰度差异二值图像中孤立的点,得到处理后的像素灰度差异二值图像;
去除处理后的像素灰度差异二值图像中的干扰连通区域,得到目标像素灰度差异二值图像;
在目标像素灰度差异二值图像中,将所有连通区域作为可疑运动目标,并将连通区域的外接矩形作为可疑运动目标的位置矩形。
进一步地,利用目标神经网络模型,在所有候选运动目标内筛选真实的运动目标,具体包括:
在同一摄像机场景下的背景图像和当前帧图像中,在相同的所述候选运动目标区域处分别获取检测子区域图像,形成待检测子区域图像对;
将待检测子区域图像对融合为一个2通道的待检测输入图像;
对所述2通道的待检测输入图像的尺寸进行归一化处理,得到归一化后的待检测输入图像;
将归一化后的待检测输入图像送入所述的目标卷积神经网络模型,判断是否存在真实运动目标;
如果是,则保留可疑运动目标的位置矩形;
如果否,则删除可疑运动目标位置矩形。
与现有技术相比,本发明存在以下技术效果:本发明综合考虑运动目标的多样性和卷积神经网络模型的计算复杂性,对LeNet-5卷积神经网络模型进行改进,使得到的背景模型更加适用于视频环境中的应用,不受光线、树枝树叶等环境因素的干扰,提高了运动目标检测的准确性,避免漏检和误检现象。另外,充分利用帧间相关性信息,使得卷积神经网络模型消耗较小的内存空间,能以较小的运算代价实时检测出运动目标。
附图说明
下面结合附图,对本发明的具体实施方式进行详细描述:
图1是本发明一实施例中一种基于深度学习的运动目标检测方法的流程示意图;
图2是本发明一实施例中对深度神经网络模型进行训练的流程示意图;
图3是本发明一实施例中利用目标神经网络模型,对运动目标进行检测的流程示意图;
图4是本发明一实施例中构建的卷积神经网络模型的结构示意图。
具体实施方式
下面结合图1至图4所示,对本发明做进一步详细叙述。
如图1至图3所示,本实施例公开了一种基于深度学习的运动目标检测方法,该方法包括如下步骤S1至S2:
S1、对构建的深度神经网络模型进行训练,得到具有分辨有意义运动目标能力的目标神经网络模型;
S2、利用目标神经网络模型,从当前采集的场景图像中检测运动目标。
其中,如图2所示,步骤S1具体包括如下步骤S11至S13:
S11、基于LeNet-5卷积神经网络模型进行改进,构建深度神经网络模型;
本实施例中是综合考虑运动目标的多样性和卷积神经网络模型的计算复杂性,基于LeNet-5卷积神经网络模型进行改进,改进后的卷积神经网络模型作为目标深度神经网络模型,模型结构图如图4所示。经改进后的卷积神经网络模型更加符合视频环境的特性,能够判断同一个摄像场景下的两幅图像之间某一个局部子区域图像对是否存在有意义的运动目标,该任务属于目标识别的二分类范畴。
其中,图4中,每个模块图形代表卷积神经网络模型中的一个特征层(layers),图形下方的标识含义:第一行表示当前特征层的名称,第二行表示当前特征层的特征图尺寸,即:特征图高度×特征图宽度×特征图通道数,其中,FC层和Label层的图形下方标识表示单通道q维特征;每个箭头上方的标识表示相应运算的核尺寸,即核宽度×核高度,其中,标识K表示卷积核,P表示最大值池化操作的采样核尺寸。
S12、根据不同摄像机应用场景下的邻近两帧图像中对应位置的子区域图像对,收集训练样本数据;
该步骤主要是获取不同的摄像机应用场景下,邻近两帧图像中对应位置的局部子区域图像对,并判断每一对子区域图像是否存在有意义的运动目标,如果存在,则将该子区域图像对作为训练正样本,如果不存在,则将该子区域图像对作为训练负样本,详细的过程如下:
(1)获取邻近图像对:在每一个摄像机应用场景下,获取间隔时间间隔为t秒的邻近两帧图像,形成图像对,其中t为常数,可以根据实际情况的需要进行设定;
(2)获取局部子区域图像对:在每一个邻近图像对中,随机产生一个图像位置和子区域图像裁剪尺寸,然后在图像对的两幅图像的对应位置,分别裁剪出一个尺寸相同的子区域图像,形成子区域图像对;
(3)划分正负训练样本:利用相似度计算公式,计算每个子区域图像对的相似度simi,如果子区域图像对的相似度simi小于预设阈值T1,则将该子区域图像对作为训练正样本,如果子区域图像对的相似度simi大于预设阈值T2,则将该子区域图像对作为训练负样本,其中T1、T2均为常数,且T2>T1。
需要说明的是,本实施例中的T1、T2是本领域技术人员通过大量实验得出的一个用来与子区域图像对的相似度进行比较的经验值。
其中,相似度计算公式如下:
其中,simi表示相似度,H1[i]表示子区域图像对中第一幅图像的特征向量的第i维分量,H2[i]表示子区域图像对中第二幅图像的特征向量的第i维分量,n表示特征向量的维数,H1是子区域图像对中第一幅子区域图像的全局特征直方图和局部特征直方图串联得到的合成向量,H2是子区域图像对中第二幅子区域图像的全局特征直方图和局部特征直方图串联得到的合成向量;
其中,局部特征直方图的计算过程,包括:
将子区域图像对中的每个子区域图像均匀分割成9个局部子区域,分别计算每个局部子区域对应的特征向量直方图;
利用特征向量直方图计算公式,计算每个区域对应的特征向量直方图,其中,特征向量直方图计算公式如下:
其中,hist[i]表示特征向量直方图的第i维分量,Mag(x,y)表示像素(x,y)处的梯度幅值,ang(x,y)表示像素(x,y)处的梯度方向角,β表示直方图每一维覆盖的角度范围,其中,Mag(x,y)和ang(x,y)的计算公式如下:
其中,g(x,y)表示像素(x,y)处的灰度值,atan()表示反正切三角函数。
S13、基于caffe深度学习框架,利用训练样本数据对深度神经网络模型进行训练,得到目标神经网络模型;
具体地,训练的具体过程为:基于caffe深度学习框架,将训练样本数据中的每一个子区域图像对融合为一个2通道的输入图像;对2通道的输入图像的尺寸进行归一化处理,得到归一化后的输入图像;利用归一化后的输入图像,对所述构建的深度神经网络模型进行训练,得到目标神经网络模型。
如此,便完成了对构建的深度神经网络模型进行训练的过程,训练得到的目标神经网络模型能够检测出有意义的运动目标,并且不受光线、树枝树叶等环境因素的干扰,利用该模型可使得检测结果更加准确,减少误检和漏检现象的发生。
进一步地,如图3所示,步骤S2的作用是在任意一个摄像机应用场景下,进行实时监控,当出现有意义的运动目标时,能够及时发现目标,并用矩形框标出运动目标的位置,具体的细分步骤如下:
S21、加载目标神经网络模型,以及获取当前摄像机场景下的初始背景图像;
具体地,当前摄像机场景下的初始背景图像指的是无任何典型运动目标出现的一帧图像。
S22、采集当前摄像机场景下的实时帧图像;
S23、检测当前摄像机场景下的实时帧图像是否存在可疑运动目标;
S24、如果存在可疑运动目标,获取可疑运动目标的位置矩形作为候选运动目标;
具体地,该步骤主要是检测当前帧图像中是否存在可疑运动目标,详细过程如下:
(1)获取差异图像:基于如下公式,获取当前帧和当前帧之前的m帧之间的像素灰度差异二值图像E(x,y),公式具体为:
其中,g(x,y)表示当前帧图像中像素(x,y)处的灰度值,p(x,y)表示当前帧之前m帧图像中像素(x,y)处的灰度值,T表示像素灰度差异强度阈值,其取值为最大类间方差法获取的阈值的倍数,m的值可根据实际应用环境进行设定。
(2)图像预处理:在帧差异图像中,通过形态学处理,去除孤立的点,同时,增加区域的连通性;
(3)去除干扰连通区域:在帧差异图像中,去除面积较小和长宽比异常的连通区域;
(4)获取候选运动目标的位置矩形:在帧差异图像中,把保留下来的所有连通区域作为候选运动目标,并提取连通区域的最小外接矩形作为候选运动目标位置矩形。
S25、利用目标神经网络模型,在所有候选运动目标内筛选真实的运动目标;
S26、如果不存在可疑运动目标,将采集的摄像机场景下的当前帧图像作为新的背景图像。
具体地,该步骤主要是判断所有的候选运动目标是否是真正有意义的运动目标,判断的详细过程如下:
(1)获取候选运动目标的子区域图像对:主要过程是在当前帧图像和背景图像中,在相同的候选运动目标位置矩形处分别获取子区域图像;
(2)筛选真实的运动目标:主要过程是把获取候选运动目标子区域图像对融合为一个2通道的输入图像,归一化图像尺寸,送入目标神经网络模型,判断当前子区域图像对是否是真正有意义的运动目标,如果是,保留该运动目标位置矩形,如果不是,删除该候选运动目标位置矩形。
至此,完成了运动目标的检测过程,由于本实施例充分利用了深度学习技术和帧间相关性信息,极大的提高了运动目标的实时检测速度和准确性,在实际检测运动目标时需要消耗内存100MB左右,Intel i7CPU环境下的1秒能处理30帧以上。
需要说明的是,本实施例中在检测真实运动目标的过程中,采用快速运动目标粗检与深度学习精检测相结合的级联结构,使得运动目标的检测速度更快,检测结果会更加准确。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、修正等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种基于深度学习的运动目标检测方法,其特征在于,包括:
S1、对构建的深度神经网络模型进行训练,得到具有分辨有意义运动目标能力的目标神经网络模型,具体包括如下步骤:
S11、基于LeNet-5卷积神经网络模型进行改进,构建深度神经网络模型;
S12、根据不同摄像机应用场景下的邻近两帧图像中对应位置的子区域图像对,收集训练样本数据;具体包括:
在每个摄像机应用场景下,获取间隔时间间隔为t秒的邻近两帧图像,形成图像对,其中t为常数;
在每个图像对中,根据随机产生的图像位置和子区域图像裁剪尺寸,在两帧图像的对应位置,分别裁剪出尺寸相同的子区域图像,形成子区域图像对;
每个子区域图像对的相似度,如果子区域图像对的相似度小于预设阈值T1,则将该子区域图像对作为训练正样本;
如果子区域图像对的相似度大于预设阈值T2,则将该子区域图像对作为训练负样本,其中T1、T2均为常数,且T2>T1;
S13、基于caffe深度学习框架,利用训练样本数据对深度神经网络模型进行训练,得到目标神经网络模型;
S2、利用目标神经网络模型,从采集的当前场景图像中检测运动目标,具体包括如下步骤:
S21、加载目标神经网络模型,以及获取当前摄像机场景下的初始背景图像;
S22、采集当前摄像机场景下的实时帧图像;
S23、检测当前摄像机场景下的实时帧图像是否存在可疑运动目标;
S24、如果存在可疑运动目标,获取可疑运动目标的位置矩形作为候选运动目标;
S25、利用目标神经网络模型,在所有候选运动目标内筛选真实的运动目标;
S26、如果不存在可疑运动目标,将采集的摄像机场景下的当前帧图像作为新的背景图像。
3.如权利要求1或2所述的方法,其特征在于,所述的步骤S13,具体包括:
基于caffe深度学习框架,将训练样本数据中的每一对子区域图像对融合为一个2通道的输入图像;
对2通道的输入图像的尺寸进行归一化处理,得到归一化后的输入图像;
利用归一化后的输入图像,对所述构建的深度神经网络模型进行训练,得到目标神经网络模型。
5.如权利要求1所述的方法,其特征在于,所述的步骤S23,具体包括:
获取所述当前摄像机场景下的当前帧图像和当前帧图像之前的m帧图像之间的像素灰度差异二值图像;
基于形态学原理,去除像素灰度差异二值图像中孤立的点,得到处理后的像素灰度差异二值图像;
去除处理后的像素灰度差异二值图像中的干扰连通区域,得到目标像素灰度差异二值图像;
在目标像素灰度差异二值图像中,将所有连通区域作为可疑运动目标,并将连通区域的最小外接矩形作为可疑运动目标的位置矩形。
6.如权利要求1所述的方法,其特征在于,所述的步骤S24,具体包括:
在同一摄像机场景下的初始化背景图像和当前帧图像中,在相同的所述候选运动目标区域处分别获取检测子区域图像,形成待检测子区域图像对;
将待检测子区域图像对融合为一个2通道的待检测输入图像;
对所述2通道的待检测输入图像的尺寸进行归一化处理,得到归一化后的待检测输入图像;
将归一化后的待检测输入图像送入所述的目标卷积神经网络模型,判断是否存在真实运动目标;
如果是,则保留可疑运动目标的位置矩形;
如果否,则删除可疑运动目标位置矩形。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710226749.1A CN107123131B (zh) | 2017-04-10 | 2017-04-10 | 一种基于深度学习的运动目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710226749.1A CN107123131B (zh) | 2017-04-10 | 2017-04-10 | 一种基于深度学习的运动目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107123131A CN107123131A (zh) | 2017-09-01 |
CN107123131B true CN107123131B (zh) | 2020-04-17 |
Family
ID=59724733
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710226749.1A Active CN107123131B (zh) | 2017-04-10 | 2017-04-10 | 一种基于深度学习的运动目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107123131B (zh) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107909602A (zh) * | 2017-12-08 | 2018-04-13 | 长沙全度影像科技有限公司 | 一种基于深度学习的运动边界估计方法 |
CN108288075B (zh) * | 2018-02-02 | 2019-06-14 | 沈阳工业大学 | 一种改进ssd的轻量化小目标检测方法 |
CN108389220B (zh) * | 2018-02-05 | 2019-02-26 | 湖南航升卫星科技有限公司 | 遥感视频图像运动目标实时智能感知方法及其装置 |
CN108345860A (zh) * | 2018-02-24 | 2018-07-31 | 江苏测联空间大数据应用研究中心有限公司 | 基于深度学习和距离度量学习的人员再识别方法 |
CN110879951B (zh) * | 2018-09-06 | 2022-10-25 | 华为技术有限公司 | 一种运动前景检测方法及装置 |
JP7132044B2 (ja) * | 2018-09-11 | 2022-09-06 | 東芝ライフスタイル株式会社 | 冷蔵庫の入出庫管理システム、および冷蔵庫 |
CN109685834A (zh) * | 2018-12-29 | 2019-04-26 | 深圳市公安局刑事警察支队(深圳市公安局刑事侦查局) | 警犬训练监控方法、装置、计算机设备及存储介质 |
CN110313894A (zh) * | 2019-04-15 | 2019-10-11 | 四川大学 | 基于卷积神经网络的心率失常分类算法 |
CN111091048B (zh) * | 2019-10-31 | 2022-10-14 | 中科智云科技有限公司 | 密封失效监测方法、装置、服务器及存储介质 |
CN111815656B (zh) * | 2020-07-22 | 2023-08-11 | 抖音视界有限公司 | 视频处理方法、装置、电子设备和计算机可读介质 |
CN112330597A (zh) * | 2020-10-14 | 2021-02-05 | 浙江大华技术股份有限公司 | 一种图像差异检测方法、装置及计算机设备 |
CN112669344A (zh) * | 2020-12-24 | 2021-04-16 | 北京灵汐科技有限公司 | 一种运动物体的定位方法、装置、电子设备及存储介质 |
CN112767444A (zh) * | 2021-01-19 | 2021-05-07 | 杭州萤石软件有限公司 | 运动目标检测方法、可读存储介质和电子设备 |
CN113055654A (zh) * | 2021-03-26 | 2021-06-29 | 太原师范学院 | 边缘设备中的视频流有损压缩方法 |
CN117236566B (zh) * | 2023-11-10 | 2024-02-06 | 山东顺发重工有限公司 | 一种全程可视的法兰盘包装管理系统 |
CN117237418B (zh) * | 2023-11-15 | 2024-01-23 | 成都航空职业技术学院 | 一种基于深度学习的运动目标检测方法和系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101236656A (zh) * | 2008-02-29 | 2008-08-06 | 上海华平信息技术股份有限公司 | 基于块划分的图像中运动目标的检测方法 |
CN103020577A (zh) * | 2011-09-20 | 2013-04-03 | 佳都新太科技股份有限公司 | 一种基于hog特征的运动目标识别方法及系统 |
CN104166861A (zh) * | 2014-08-11 | 2014-11-26 | 叶茂 | 一种行人检测方法 |
-
2017
- 2017-04-10 CN CN201710226749.1A patent/CN107123131B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101236656A (zh) * | 2008-02-29 | 2008-08-06 | 上海华平信息技术股份有限公司 | 基于块划分的图像中运动目标的检测方法 |
CN103020577A (zh) * | 2011-09-20 | 2013-04-03 | 佳都新太科技股份有限公司 | 一种基于hog特征的运动目标识别方法及系统 |
CN104166861A (zh) * | 2014-08-11 | 2014-11-26 | 叶茂 | 一种行人检测方法 |
Non-Patent Citations (1)
Title |
---|
基于后视摄像头的车门开启安全预警系统研究;王明亮;《中国优秀硕士学位论文全文数据库 信息科技辑》;20160215(第2期);I138-1721 * |
Also Published As
Publication number | Publication date |
---|---|
CN107123131A (zh) | 2017-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107123131B (zh) | 一种基于深度学习的运动目标检测方法 | |
Bertini et al. | Multi-scale and real-time non-parametric approach for anomaly detection and localization | |
CN107153817B (zh) | 行人重识别数据标注方法和装置 | |
CN111178183B (zh) | 人脸检测方法及相关装置 | |
CN107609512A (zh) | 一种基于神经网络的视频人脸捕捉方法 | |
CN110298297A (zh) | 火焰识别方法和装置 | |
CN104966304A (zh) | 基于卡尔曼滤波与非参数背景模型的多目标检测跟踪方法 | |
CN111896540B (zh) | 一种基于区块链的水质在线监测系统 | |
CN103246896A (zh) | 一种鲁棒性车辆实时检测与跟踪方法 | |
Javad Shafiee et al. | Embedded motion detection via neural response mixture background modeling | |
Tiwari et al. | A survey on shadow detection and removal in images and video sequences | |
Malhi et al. | Vision based intelligent traffic management system | |
Su et al. | A new local-main-gradient-orientation HOG and contour differences based algorithm for object classification | |
CN112417955A (zh) | 巡检视频流处理方法及装置 | |
Tao et al. | Smoky vehicle detection based on range filtering on three orthogonal planes and motion orientation histogram | |
CN110991245A (zh) | 一种基于深度学习与光流法的实时烟雾检测方法 | |
Wang et al. | Video-based vehicle detection approach with data-driven adaptive neuro-fuzzy networks | |
CN112581495A (zh) | 图像处理方法、装置、设备及存储介质 | |
CN111191575B (zh) | 一种基于火苗跳动建模的明火检测方法及系统 | |
CN111402185A (zh) | 一种图像检测方法及装置 | |
CN110334703B (zh) | 一种昼夜图像中的船舶检测和识别方法 | |
Jia et al. | Moving object detection based on blob analysis | |
CN113837001A (zh) | 监控场景下的异常闯入物实时检测方法及装置 | |
CN113627383A (zh) | 一种用于全景智能安防的行人徘徊重识别方法 | |
Dai et al. | Retracted: efficient object analysis by leveraging deeply-trained object proposals prediction model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
PE01 | Entry into force of the registration of the contract for pledge of patent right | ||
PE01 | Entry into force of the registration of the contract for pledge of patent right |
Denomination of invention: A Moving Object Detection Method Based on Deep Learning Effective date of registration: 20230811 Granted publication date: 20200417 Pledgee: Anhui pilot Free Trade Zone Hefei area sub branch of Huishang Bank Co.,Ltd. Pledgor: ANHUI QINGXIN INTERNET INFORMATION TECHNOLOGY Co.,Ltd. Registration number: Y2023980051775 |