CN108038872B - 一种基于动静态目标检测与实时压缩感知追踪研究方法 - Google Patents
一种基于动静态目标检测与实时压缩感知追踪研究方法 Download PDFInfo
- Publication number
- CN108038872B CN108038872B CN201711406268.5A CN201711406268A CN108038872B CN 108038872 B CN108038872 B CN 108038872B CN 201711406268 A CN201711406268 A CN 201711406268A CN 108038872 B CN108038872 B CN 108038872B
- Authority
- CN
- China
- Prior art keywords
- target
- tracking
- training
- classifier
- component
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
- G06F18/24155—Bayesian classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/467—Encoded features or binary features, e.g. local binary patterns [LBP]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于动静态目标检测与实时压缩感知追踪研究方法,利用自适应混合高斯前景提取从当前背景中提取出前景信息,再利用形态学处理的膨胀腐蚀使得原本处于噪声的区域删除,最后区块分析工具从背景中分离出目标,并计算出目标的数量、位置、形状、方向和大小;对长期静止不动的目标采取静态检测,将图像提取局部二值模型纹理特征并送入级联分类器中对其进行训练学习得到静态目标的位置;最后通过基于相关滤波的实时压缩感知追踪最终实时追踪当前目标,利用相关滤波的解最优性及较低的时间复杂度,并最终确定鱼类的运动轨迹。本发明降低了复杂环境的干扰对目标检测追踪结果的消极影响,达到了实时的检测追踪效果,增强了算法的鲁棒性。
Description
技术领域
本发明涉及基于动静态目标检测与实时压缩感知目标追踪方法,属于智能信息处理和目标检测与追踪技术领域。
背景技术
目标检测与跟踪是绝大多数视觉系统中不可或缺的环节。在特定的场景应用中(如视频监控等领域),自动化、快速、高鲁棒性的目标追踪受到关注。视频监控、交通检测,智能机器人,海底目标探测追踪等方面具有广阔的应用前景。
目标检测与追踪是计算机视觉领域中极其重要的一部分,运动目标检测的目的是从序列图像中分割出感兴趣的前景目标,并尽可能地抑制背景噪声和前景噪声,以准确地得到视频中感兴趣的目标区域。通过检测视频中的变化发现场景中的目标行为、目标的出现以及消失是运动目标检测的基本手段。然而,在复杂的场景下,种种干扰使得视频的变化并不一定是由于视频中运动目标所引起的,它只是反映了视频图像序列各个像素随时间的变化。因此,在复杂场景下,视频目标检测的关键在于能够准确区分出由于背景变化和目标运动所导致的视频中像素值的变化。运动目标检测的主要方法有光流法、背景差分法以及时间差分法。这些方法对于画面的画质及纯净度要求比较高,一旦有较大的噪声干扰,就会造成目标检测的丢失。
视频中运动物体跟踪算法是通过分析待追踪视频图像序列中每一帧的视频图像的信息,在视频中进行数据挖掘,学习目标行为并进行大量的动作捕捉,对信息进行一系列的处理,得到并标记出所追踪到目标在视频图像中相应的位置。物体之间的遮挡形变、背景的复杂性,光照明暗变化,实时性和健壮性差等是追踪过程亟待解决的问题。经典的追踪方法如Meanshift、粒子滤波等依赖于视频中所含目标信息的丰富程度,在实际的视频图像序列中,目标所能提供的信息相当有限,导致不能稳定的追踪目标,如场景中有形变遮挡,这些经典算法更是无能为力。
即现有技术中存在的主要问题:(1)待检测目标有诸如光照变化,形变产生的变化,以及待检测目标运动状态复杂,有动有静,导致目标漏检情况严重。(2)待追踪视频场景中追踪的过程中实时性和健壮性差,目标时空位置信息匮乏,目标特征不明显问题;(2)当场景有遮挡物和待追踪目标发生形变的情况下,尤其是会出现整个目标被遮挡和待追踪目标发生巨大的形变的状况,会导致追踪的目标丢失的问题。
发明内容
本发明的目的是提出一种基于动静态目标检测与实时压缩感知目标追踪方法,以弥补现有技术的不足。
为达到上述目的,本发明通过如下技术方案实现:
一种基于动静态目标检测与实时压缩感知目标追踪方法,包括以下步骤:
步骤一、在特定待追踪监控场景中采集n帧待追踪目标视频I={I1,…,Ii,…In},其中Ii表示第i帧待追踪视频图像序列,利用图像滤波去噪、对比度增强预处理待追踪视频序列降低噪声且突出感兴趣待追踪区域;
步骤二、在第t帧待追踪视频图像序列It时刻自适应高斯混合模型初始高斯混合数K,允许EM训练次数H,以及阈值αt1,αt2,Dt,σt;
步骤三、运用EM算法进行参数估计训练模型,每次训练后次数加1;若是最后一次训练,则跳到步骤五,否则顺序执行;
步骤四、对于训练得出的模型,若某一高斯分量(wi,μi,∑i)权重小于阈值αt1,说明这个分量没有实际价值,需要消除,消减一个高斯核,若某一高斯分量(wi,μi,∑i)权重大于阈值αt2,说明这个高斯分量包含了太多的信息,可以将此分量分裂,形成两个新的高斯分布和
步骤五、训练终止,得到自适应高斯混合模型,并由自适应高斯混合模型提取s个前景目标(B1(x,y),...,Bi(x,y),...,Bs(x,y));
步骤六、在It+1中,根据得到的自适应高斯混合模型得到s个前景目标(B1(x,y),...,Bi(x,y),...,Bs(x,y),其中(x,y)代表目标中心位置,计算图像局部二值模式的特征样本F,经过T次的循环以后得到T个不同的弱分类器和他们对应的权重,然后对他们加权组合就得到一个强分类器;
步骤七、强分类器对输入图像以滑动窗形式检测,检测到k个前景目标(B1(x,y),...,Bk(x,y));
步骤八、合并步骤六和步骤七的检测结果,得到S=s+k个检测前景目标:(B1(x,y),...,Bi(x,y),...,Bs(x,y),...,Bs+k(x,y));
步骤九、在快速压缩感知追踪中采取由粗到细的两步搜索机制,找到具有最大分类器响应的跟踪位置(x,y)t,也就是最终的追踪位置。
进一步的,所述步骤三中EM算法的具体求解步骤:
M步:
进一步的,所述步骤四具体包括以下步骤:
4.1对于训练得出的模型,若某一高斯分量(wi,μi,∑i)权重小于阈值αt1,说明这个分量没有实际价值,需要消除;最近分量(wj,μj,∑j)对这个分量进行吸收,吸收按照以下方式处理:
权重处理:wk=wi+wj
方差处理:∑k=∑i
高斯混合数K=K-1,并返回步骤三进行新一轮EM训练;
4.2.若某一高斯分量(wi,μi,∑i)权重大于阈值αt2,说明这个高斯分量包含了太多的信息,可以将此分量分裂,
分裂处理如下;
进一步的,所述步骤六包括以下具体步骤:
6.1、在It+1中,根据得到的自适应高斯混合模型得到s个前景目标(B1(x,y),...,Bi(x,y),...,Bs(x,y),其中(x,y)代表目标中心位置;
6.2、在静态检测阶段,首先,计算图像局部二值模式(LBP)的特征样本F;
6.3、假设有N个训练样本,{F1,y1},...{Fn,yn},...,{FN,yN},其中yn的取值为1或-1,分别对应于鱼特征样本和非鱼特征样本,其中人脸样本的个数为m1,非人脸样本的个数为m2;其中样本的权重初始化为:对于yn=1的样本是w1,n=1/2m1,对于yn=-1的样本是w-1,n=1/2m2;
6.4、经过T次的循环以后得到T个不同的弱分类器和他们对应的权重,然后对他们加权组合就得到一个强分类器;
(3)选出错误率最小的一个弱分类器作为h1,其错误率即为ε1,
(4)最后就得到了一个由T个弱分类组成的强分类器H(x),
进一步的,所述步骤九具体包括以下步骤;
9.2对每个特征向量v(Z)使用分类器HC,并找到具有最大分类器响应的跟踪位置(x,y)'t;
9.4、在
中对每个特征向量v(Z)使用分类器HC,并找到具有最大分类器响应的跟踪位置(x,y)t;
9.6、根据
更新分类器参数。
本发明提出了自使用混合高斯模型动态检测与局部二值模型结合级联分类器静态检测联合检测的思路解决目标追踪的问题。在线追踪算法在开始学习的阶段存在用于在线算法数据学习数量不足的问题;其次,在线跟踪算法也经常遇到漂移问题。作为自学习的结果,算法可能因此添加不好的样本并导致外观模型的退化。本发明构造非常稀疏的测量矩阵以快速有效地提取外观模型的特征。
本发明使用相同的稀疏测量矩阵来压缩前景目标和背景的样本图像,通过在压缩域中在线更新的朴素贝叶斯分类器将跟踪任务表达为二分类任务;采用由粗到细的搜索策略以进一步降低检测过程中的计算复杂度。针对形变以及遮挡问题,增加时间关系信息,使用相关滤波思想充分利用当前帧与之前帧的联系,所提出的基于相关滤波的压缩跟踪算法相比原压缩追踪算法在效率,准确性和鲁棒性方面都有了很大的进步,实现了一种健壮性佳、高鲁棒性的追踪效果。
本发明的有益效果:本发明融合了检测与追踪算法,针对复杂环境设计动静态联合检测的思想,比较好地从视频图像中找到目标并定位目标的位置。因检测并不能很好解决目标遮挡问题,接下来利用压缩感知追踪算法实时定位目标的位置,解决了追踪过程中实时性和健壮性差、目标时空位置信息匮乏、目标特征不明显以及形变遮挡以导致追踪目标丢失的问题。本发明极大地提高了追踪的精度,实现了一种健壮性佳、高鲁棒性的追踪过程。
附图说明
图1是本发明的整体流程图。
图2是实施例1中海洋环境待检测与追踪图像。
图3是图2分离前景与背景得到前景目标图像。
图4是图2寻找静态目标并消除与图3重复目标后的图像。
图5是压缩感知追踪的基本框架图。
图6是实施例1中存在遮挡及光照变化情况下的检测追踪效果图。
具体实施方式
为使本发明的目的、实施方案和优点更为清晰,下面结合附图并通过具体实施例来进一步说明本发明。
实施例1:
由于海洋水下环境中鱼类的动态较为复杂,难以捕捉,现有的追踪方法难以对其进行较为准确追踪,为验证本发明所提供追踪方法的极佳的健壮性和高鲁棒性,因此选择海洋水下环境的鱼类动态为追踪对象,极具代表性。
本实施例的具体流程图如图1所示。
本实施例中具体采用一段如图2所示,从山东省海洋牧场拍摄得到的海洋环境下夜间鱼类活动视频(1920*1080像素,每秒25帧)作为待检测和追踪视频。
一种基于动静态目标检测与实时压缩感知目标追踪方法,包括以下步骤:
步骤一、在特定待追踪监控场景中采集n帧待追踪目标视频A={I1,…,Ii,…In},其中Ii表示第i帧待追踪视频图像序列,利用图像滤波去噪、对比度增强预处理待追踪视频序列降低噪声且突出感兴趣待追踪区域;
步骤二、在第t帧待追踪视频图像序列It时刻自适应高斯混合模型初始高斯混合数K,允许EM训练次数H,以及阈值αt1,αt2,Dt,σt;
步骤三、运用EM算法进行参数估计训练模型,每次训练后次数加1;若是最后一次训练,则跳到步骤六,否则顺序执行;
步骤四、
4.1对于训练得出的模型,若某一高斯分量(wi,μi,∑i)权重小于阈值αt1,说明这个分量没有实际价值,需要消除;最近分量(wj,μj,∑j)对这个分量进行吸收,吸收按照以下方式处理:
权重处理:wk=wi+wj
方差处理:∑k=∑i
高斯混合数K=K-1,并返回步骤三进行新一轮EM训练;
4.2.若某一高斯分量(wi,μi,∑i)权重大于阈值αt2,说明这个高斯分量包含了太多的信息,可以将此分量分裂,
分裂处理如下;
步骤五、训练终止,得到自适应高斯混合模型,并由自适应高斯混合模型提取s个前景目标(B1(x,y),...,Bi(x,y),...,Bs(x,y)),经过这一步骤最终得到图3所示效果;
步骤六、
6.1、在It+1中,根据得到的自适应高斯混合模型得到s个前景目标(B1(x,y),...,Bi(x,y),...,Bs(x,y),其中(x,y)代表目标中心位置;
6.2、在静态检测阶段,首先,计算图像局部二值模式(LBP)的特征样本F;
6.3、假设有N个训练样本,{F1,y1},...{Fn,yn},...,{FN,yN},其中yn的取值为1或-1,分别对应于鱼特征样本和非鱼特征样本,其中人脸样本的个数为m1,非人脸样本的个数为m2;其中样本的权重初始化为:对于yn=1的样本是w1,n=1/2m1,对于yn=-1的样本是w-1,n=1/2m2;
6.4、经过T次的循环以后得到T个不同的弱分类器和他们对应的权重,然后对他们加权组合就得到一个强分类器;
(7)选出错误率最小的一个弱分类器作为h1,其错误率即为ε1,
(8)最后就得到了一个由T个弱分类组成的强分类器H(x),
步骤七、强分类器对输入图像以滑动窗形式检测,检测到k个前景目标(B1(x,y),...,Bk(x,y));
步骤八、合并前两步的检测结果,得到S=s+k个检测前景目标:(B1(x,y),...,Bi(x,y),...,Bs(x,y),...,Bs+k(x,y)),也就是图4所示的结果;
步骤九、检测到目标后接下来是对目标的持续追踪,图5是压缩感知追踪的基本框架图,在快速压缩感知追踪中采取由粗到细的两步搜索机制;
9.2对每个特征向量v(Z)使用分类器HC,并找到具有最大分类器响应的跟踪位置(x,y)'t;
9.4、在
中对每个特征向量v(Z)使用分类器HC,并找到具有最大分类器响应的跟踪位置(x,y)t;
9.6、根据
更新分类器参数。
循环重复上述步骤,直至检测追踪完成整个视频序列,图6是最终的检测追踪标定目标的结果图。
本实施例考虑到海洋环境的复杂性,海洋中水下成像后向散射、浑浊水体、泥沙、海流、浮游植物、摆动的水草导致光学图像成像质量下降或干扰,以及鱼体本身的快速游动以及大幅度的形态改变对鱼类的检测造成的困难,对于活跃鱼类频繁活动造成的背景差异,利用自适应的高斯混合模型从当前背景中提取出前景信息;利用鱼类本身具有的问题丰富,与背景纹理差异较大的特点,将图像提取局部二值模型纹理特征并送入级联分类器中对其进行训练学习得到静态鱼类的位置。
以上所述是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (5)
1.一种基于动静态目标检测与实时压缩感知目标追踪方法,其特征在于,包括以下步骤:
步骤一、在特定待追踪监控场景中采集n帧待追踪目标视频I={I1,…,Ii,…In},其中Ii表示第i帧待追踪视频图像序列,利用图像滤波去噪、对比度增强预处理待追踪视频序列降低噪声且突出感兴趣待追踪区域;
步骤二、在第t帧待追踪视频图像序列It时刻自适应高斯混合模型初始高斯混合数K,允许EM训练次数H,以及阈值αt1,αt2,Dt,σt;
步骤三、运用EM算法进行参数估计训练模型,每次训练后次数加1;若是最后一次训练,则跳到步骤五,否则顺序执行;
步骤四、对于训练得出的模型,若某一高斯分量(wi,μi,∑i)权重小于阈值αt1,说明这个分量没有实际价值,需要消除,消减一个高斯核,若某一高斯分量(wi,μi,∑i)权重大于阈值αt2,说明这个高斯分量包含了太多的信息,可以将此分量分裂,形成两个新的高斯分布和
步骤五、训练终止,得到自适应高斯混合模型,并由自适应高斯混合模型提取s个前景目标(B1(x,y),…,Bi(x,y),…,Bs(x,y));
步骤六、在It+1中,根据得到的自适应高斯混合模型得到s个前景目标(B1(x,y),...,Bi(x,y),...,Bs(x,y)),其中(x,y)代表目标中心位置,计算图像局部二值模式的特征样本F,经过T次的循环以后得到T个不同的弱分类器和他们对应的权重,然后对他们加权组合就得到一个强分类器;
步骤七、强分类器对输入图像以滑动窗形式检测,检测到k个前景目标(B1(x,y),…,Bk(x,y));
步骤八、合并步骤六和步骤七的检测结果,得到S=s+k个检测前景目标:(B1(x,y),…,Bi(x,y),…,Bs(x,y),…,Bs+k(x,y));
步骤九、在快速压缩感知追踪中采取由粗到细的两步搜索机制,找到具有最大分类器响应的跟踪位置(x,y)t,也就是最终的追踪位置。
3.如权利要求1所述的追踪方法,其特征在于,所述步骤四具体包括以下步骤:
4.1对于训练得出的模型,若某一高斯分量(wi,μi,∑i)权重小于阈值αt1,说明这个分量没有实际价值,需要消除;最近分量(wj,μj,∑j)对这个分量进行吸收,吸收按照以下方式处理:
权重处理:wk=wi+wj
μk=di·μi+dj·μj
方差处理:∑k=∑i
高斯混合数K=K-1,并返回步骤三进行新一轮EM训练;
4.2.若某一高斯分量(wi,μi,∑i)权重大于阈值αt2,说明这个高斯分量包含了太多的信息,可以将此分量分裂,
分裂处理如下;
4.如权利要求1所述的追踪方法,其特征在于,所述步骤六包括以下具体步骤:
6.1、在It+1中,根据得到的自适应高斯混合模型得到s个前景目标(B1(x,y),...,Bi(x,y),...,Bs(x,y)) ,其中(x,y)代表目标中心位置;
6.2、在静态检测阶段,首先,计算图像局部二值模式(LBP)的特征样本F;
6.3、假设有N个训练样本,{F1,y1},...{Fn,yn},...,{FN,yN},其中yn的取值为1或-1,分别对应于鱼特征样本和非鱼特征样本,其中人脸样本的个数为m1,非人脸样本的个数为m2;其中样本的权重初始化为:对于yn=1的样本是w1,n=1/2m1,对于yn=-1的样本是w-1,n=1/2m2;
6.4、经过T次的循环以后得到T个不同的弱分类器和他们对应的权重,然后对他们加权组合就得到一个强分类器;
(3)选出错误率最小的一个弱分类器作为h1,其错误率即为ε1,
(4)最后就得到了一个由T个弱分类组成的强分类器H(x),
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711406268.5A CN108038872B (zh) | 2017-12-22 | 2017-12-22 | 一种基于动静态目标检测与实时压缩感知追踪研究方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711406268.5A CN108038872B (zh) | 2017-12-22 | 2017-12-22 | 一种基于动静态目标检测与实时压缩感知追踪研究方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108038872A CN108038872A (zh) | 2018-05-15 |
CN108038872B true CN108038872B (zh) | 2021-08-31 |
Family
ID=62100774
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711406268.5A Active CN108038872B (zh) | 2017-12-22 | 2017-12-22 | 一种基于动静态目标检测与实时压缩感知追踪研究方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108038872B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109376576A (zh) * | 2018-08-21 | 2019-02-22 | 中国海洋大学 | 基于交替更新密集连通从零训练网络的目标检测方法 |
CN116363494B (zh) * | 2023-05-31 | 2023-08-04 | 睿克环境科技(中国)有限公司 | 一种鱼类数量监测、洄游跟踪的方法和系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103077530A (zh) * | 2012-09-27 | 2013-05-01 | 北京工业大学 | 一种基于改进混合高斯和图像剪切的运动目标检测方法 |
CN103324955A (zh) * | 2013-06-14 | 2013-09-25 | 浙江智尔信息技术有限公司 | 一种基于视频处理的行人检测方法 |
CN103593672A (zh) * | 2013-05-27 | 2014-02-19 | 深圳市智美达科技有限公司 | Adaboost分类器在线学习方法及系统 |
CN104599290A (zh) * | 2015-01-19 | 2015-05-06 | 苏州经贸职业技术学院 | 一种面向视频感知节点的目标检测方法 |
CN105631896A (zh) * | 2015-12-18 | 2016-06-01 | 武汉大学 | 一种基于混合分类器决策的压缩感知跟踪方法 |
CN107068165A (zh) * | 2016-12-31 | 2017-08-18 | 南京邮电大学 | 一种语音转换方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102855634B (zh) * | 2011-06-28 | 2017-03-22 | 中兴通讯股份有限公司 | 一种图像检测方法及装置 |
CN105279898A (zh) * | 2015-10-28 | 2016-01-27 | 小米科技有限责任公司 | 报警方法及装置 |
-
2017
- 2017-12-22 CN CN201711406268.5A patent/CN108038872B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103077530A (zh) * | 2012-09-27 | 2013-05-01 | 北京工业大学 | 一种基于改进混合高斯和图像剪切的运动目标检测方法 |
CN103593672A (zh) * | 2013-05-27 | 2014-02-19 | 深圳市智美达科技有限公司 | Adaboost分类器在线学习方法及系统 |
CN103324955A (zh) * | 2013-06-14 | 2013-09-25 | 浙江智尔信息技术有限公司 | 一种基于视频处理的行人检测方法 |
CN104599290A (zh) * | 2015-01-19 | 2015-05-06 | 苏州经贸职业技术学院 | 一种面向视频感知节点的目标检测方法 |
CN105631896A (zh) * | 2015-12-18 | 2016-06-01 | 武汉大学 | 一种基于混合分类器决策的压缩感知跟踪方法 |
CN107068165A (zh) * | 2016-12-31 | 2017-08-18 | 南京邮电大学 | 一种语音转换方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108038872A (zh) | 2018-05-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110728697B (zh) | 基于卷积神经网络的红外弱小目标检测跟踪方法 | |
Han et al. | Density-based multifeature background subtraction with support vector machine | |
CN101339655B (zh) | 基于目标特征和贝叶斯滤波的视觉跟踪方法 | |
CN111260738A (zh) | 基于相关滤波和自适应特征融合的多尺度目标跟踪方法 | |
CN112598713A (zh) | 一种基于深度学习的近岸海底鱼类检测、跟踪统计方法 | |
Patil et al. | MsEDNet: Multi-scale deep saliency learning for moving object detection | |
CN110135500A (zh) | 一种基于自适应深度特征滤波器的多场景下目标跟踪方法 | |
CN110555868A (zh) | 一种复杂地面背景下运动小目标检测方法 | |
Manikandan et al. | Video object extraction by using background subtraction techniques for sports applications | |
CN110827262B (zh) | 一种基于连续有限帧红外图像的弱小目标检测方法 | |
CN113763424B (zh) | 基于嵌入式平台的实时智能目标检测方法及系统 | |
CN111968159A (zh) | 一种简单通用的鱼群视频图像轨迹追踪方法 | |
CN111091583A (zh) | 长期目标跟踪方法 | |
CN113822352A (zh) | 基于多特征融合的红外弱小目标检测方法 | |
CN112418149A (zh) | 一种基于深卷积神经网络的异常行为检测方法 | |
Xia et al. | In situ sea cucumber detection based on deep learning approach | |
CN108038872B (zh) | 一种基于动静态目标检测与实时压缩感知追踪研究方法 | |
Zhang et al. | Investigation of image processing based real-time flood monitoring | |
CN116051970A (zh) | 一种基于改进的yolov5模型的针对重叠鱼类目标的辨识方法 | |
Stamoulakatos et al. | A comparison of the performance of 2D and 3D convolutional neural networks for subsea survey video classification | |
CN107123132A (zh) | 一种统计背景模型的运动目标检测方法 | |
Najafzadeh et al. | Object tracking using Kalman filter with adaptive sampled histogram | |
CN108288283A (zh) | 一种基于相关滤波的视频跟踪方法 | |
CN110751671A (zh) | 一种基于核相关滤波与运动估计的目标跟踪方法 | |
CN104616323A (zh) | 一种基于慢特征分析的时空显著性检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |