CN109242019A - 一种水面光学小目标快速检测与跟踪方法 - Google Patents

一种水面光学小目标快速检测与跟踪方法 Download PDF

Info

Publication number
CN109242019A
CN109242019A CN201811017357.5A CN201811017357A CN109242019A CN 109242019 A CN109242019 A CN 109242019A CN 201811017357 A CN201811017357 A CN 201811017357A CN 109242019 A CN109242019 A CN 109242019A
Authority
CN
China
Prior art keywords
target
layer
network
water surface
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811017357.5A
Other languages
English (en)
Other versions
CN109242019B (zh
Inventor
盛明伟
金巧园
万磊
王卓
秦洪德
唐松奇
佟鑫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Engineering University
Original Assignee
Harbin Engineering University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Engineering University filed Critical Harbin Engineering University
Priority to CN201811017357.5A priority Critical patent/CN109242019B/zh
Publication of CN109242019A publication Critical patent/CN109242019A/zh
Application granted granted Critical
Publication of CN109242019B publication Critical patent/CN109242019B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于计算机视觉技术领域,公开了一种水面光学小目标快速检测与跟踪方法,解决了目前基于深度学习的检测算法实时性差和对小目标敏感度低、带宽自适应目标跟踪不够准确的问题,包含如下步骤:步骤(1):水面小目标快速检测;步骤(2):关键帧目标模型生成;步骤(3):关键帧间各向异性带宽自适应目标快速跟踪。本发明实现了自主作业,不需要人为干预;训练中只含正样本,降低了背景误检率;网络结构简单,检测速度快;提高了小目标的检测准确率;减少了迭代次数,提高了准确率和跟踪速度。

Description

一种水面光学小目标快速检测与跟踪方法
技术领域
本发明属于计算机视觉技术领域,尤其涉及一种水面光学小目标快速检测与跟踪方法。
背景技术
计算机视觉应用多种传感器代替视觉感官作为输入,而计算机作为对大脑的模拟处理输入。随着计算机计算能力的飞速发展,人类愈加依赖于通过计算机视觉分析视频内容,获取视频中有用的信息。其中,目标检测和跟踪是计算机视觉中极其重要的部分。目前,港口安全防御、无人艇障碍物检测、海上交通监控等领域都需要通过计算机视觉完成水面目标的检测与跟踪。在光照变化大、视野中存在多个水面目标时,如何对多个不同尺度的目标进行准确且快速的检测与跟踪是当前研究热点和难点问题。
目前,目标检测的主流算法大多基于深度学习算法,其大体分为两类。第一类基于RegionProposal,包括SPP-net、FastR-CNN、FasterR-CNN等多类算法,其中FasterR-CNN的mAP高达78.8%,处理速度是三种算法中最快的,大约为5FPS,但仍然无法满足实时性要求;第二类是基于回归的预测,包括YOLO、SSD等多类算法,该类算法具有受背景干扰小、检测速度快等优点,适合开放环境下目标的实时检测,但mAP略低于第一类算法。
检测不同尺度的目标是计算机视觉的一个挑战。早期解决方法是利用建立在图像金字塔上的特征金字塔,即特征图像金字塔。具体方法为将图像缩放成不同尺度,再生成对应的特征映射来预测目标信息。但该方法的耗时随着图像尺度的增加成倍增长,在训练时吃显存,只能在测试时使用,导致训练和测试结果不一致。随着深度卷积神经网络的发展,SPP-net、FasterR-CNN和YOLO等检测系统更趋向于仅利用最后一个单一尺度的特征映射层做预测。这种方式对尺度变化更加鲁棒,但由于未利用包含高分辨率的低层特征,导致达到的结果不是最准确的。SSD首次尝试基于ConvNets的金字塔特征层。从不同网络层抽取不同尺度的特征做预测,再将各预测结果做融合。但SSD从最高层构建金字塔,而避免使用已经计算好的低层特征的方式导致错过了对小目标很重要的高分辨率映射的机会。
目标跟踪根据有无检测过程的参与,分为生成式跟踪与判别式跟踪。生成式跟踪在第一帧进行目标检测,在后续帧用选定的算法寻找当前帧目标的最优位置。判别式跟踪在每一帧对目标进行检测。
目前水面光学小目标快速检测与跟踪面临的问题主要体现在:在实现港口安全防御等任务时,固定在岸边的摄像机距离目标相对较远,拍摄到的目标中包含较多小目标,如何在不增加计算量的前提下结合低层特征和高层特征来检测目标,尤其是小目标是水面小目标面临的问题;目前存在的核函数带宽自适应目标跟踪算法的带宽更新几乎都是各向同性的,对于刚出现和慢慢消失或旋转的目标跟踪缺少准确性和稳定性,在长时间的目标跟踪时容易造成误差不断累积,导致目标漂移甚至丢失。
发明内容
本发明的目的在于公开跟踪速度快,准确率高的一种水面光学小目标快速检测与跟踪方法。
本发明的目的是这样实现的:
一种水面光学小目标快速检测与跟踪方法,包含如下步骤:
步骤(1):水面小目标快速检测;
步骤(1.1):根据水面目标检测任务制作水面目标数据集,并添加标签,然后用水面目标数据集训练神经网络;
步骤(1.2):设计包含自底向上路径、自顶向下路径和横向连接、独立预测三个过程的特征金字塔网络,再设计基于特征金字塔网络的水面目标检测系统,用梯度下降法训练特征金字塔网络参数,直到损失函数达到收敛;
步骤(1.2.1):设计特征金字塔网络的自底向上路径:
将去掉最后一个卷积层的Darknet19作为自底向上的基础网络,将自底向上的基础网络中产生的网络输出尺度相同的许多层视为同一个网络阶段,共有{C1,C2,C3,C4,C5}五个网络阶段;用每个网络阶段的最后一层的输出创建特征金字塔层;且在特征金字塔层中剔除C1网络阶段的输出;
步骤(1.2.2):设计特征金字塔网络的自顶向下路径和横向连接:
自顶向下模块Tj,i用放大倍数为2的最近邻插值法采样在空间上更粗糙、语义上更强的高金字塔层得到横向连接模块Li是一个1×1的卷积层,处理后得到然后将对应的融合得到后加入3×3的卷积层;加入1×1×256的卷积层将特征金字塔层的深度固定为256;生成最终的特征映射层{P2,P3,P4};
步骤(1.2.3):设计特征金字塔网络的独立预测:
在P2、P3、P4三种尺度不同的特征映射层后分别添加卷积层,并共享添加的卷积层的参数;每个特征映射层定义三种尺度的锚点,并在大尺度特征映射层使用小尺度特征映射层的锚点;每个锚点在原图上的宽高固定,并按比例缩小到特征映射层;
步骤(1.2.4):对于每个金字塔层,根据训练中得到的目标信息与真实目标信息计算损失函数:
上式中,当标注目标的中心点落在金字塔层的第i个格子上,且格子i上的第j个锚点与目标IOU最大,则该锚点负责预测目标,此时取1,否则取0;l代表金字塔层的序列号;l.w,l.h代表金字塔层的宽度和高度,l.n代表每个格子的锚点个数;(x,y)是目标实际中心点坐标,w是目标实际宽,h是目标实际高;Ci是置信度;pi(c)是类条件概率;
然后用梯度下降法调整神经网络中参数的取值,直至损失函数达到收敛。
步骤(1.3):进行水面小目标快速检测,每隔n帧,将视频中的关键帧输入基于特征金字塔网络的水面目标检测系统中检测水面目标,保留结果中置信度大于阈值的目标,并用非极大抑制剔除重叠目标,得到关键帧目标,并记录关键帧目标的位置和类别信息。
步骤(2):关键帧目标模型生成;
步骤(2.1):设矩形框的宽度为2a、高度为2b;设核函数作用区域为椭圆形,且是与矩形框内切的最大椭圆;将核函数作用区域的颜色空间从RGB转换到Luv,转换公式为:
上式中,cons=X+15×Y+3×Z;
步骤(2.2):将Luv量化为m个等级,计算水面目标区域中每个等级对应的特征子模型概率密度:
上式中,u是量化等级,取值范围为1至m之间的整数包括1和m;k()是核剖面函数;b()是计算位置x对应的颜色等级的函数;δ(x)是Kroneckerdelta函数;
C是归一化常数,
步骤(3):关键帧间各向异性带宽自适应目标快速跟踪。
步骤(3.1):设n1为目标区域的像素数,nh是目标候选区域的像素数,且每一帧图像的初始尺度参数都为(1,1)T,然后用前一次迭代的尺度参数和归一化常数当前迭代的尺度参数(h1,h2)T表示当前迭代的归一化常数,则nh=πabn1,用黎曼积分可得出:
则当前迭代的归一化常数Ch
步骤(3.2):将当前迭代的归一化常数代入目标模型和目标候选模型之间的相似度函数,并泰勒展开后得:
引入梯度上升法使相似度函数值达到最大,泰勒展开后的第二项是用核剖面函数k(x)估计当前帧y处的核密度;
计算MeanShift向量得到核密度,MeanShift向量表示将窗口中心移动到窗口重心的大小和方向;窗口中心移动后,重心又重新移动,迭代计算新的MeanShift向量;
MeanShift向量的迭代计算式:
上式中,
取学习率为用梯度上升法迭代更新后:
步骤(3.3):引入正则化参数rs和rb修正尺度参数,并更新最终的尺度参数;
惩罚变化过大的尺度参数:
引入正则化参数rb强制核函数作用区域包含背景像素:
上式中,ρ是核函数作用区域中应该包含的背景像素的比例;B(y,h)是目标模型中的像素点在目标候选模型中的和与目标模型中所有像素点的的和之比;
更新最终的尺度参数:
步骤(3.4):利用步骤(3.2)搜索当前帧目标所在的位置:当漂移距离小于阈值或迭代次数超过阈值时,输出该帧目标位置,尺度参数、核函数带宽;
步骤(3.5):当达到迭代次数阈值时,若目标候选模型与目标模型的相似度仍然低于阈值,则判定目标在关键帧间因丢失或消失在视野内,提取结束该目标的跟踪,若所有水面目标均提前结束时返回步骤(1.1)重新检测目标;当迭代次数小于阈值时,视目标跟踪在帧间顺利进行,重复步骤(3.1)至步骤(3.4),未出现所有目标均提前结束时,跟踪在下一个关键帧结束。
本发明的有益效果为:
本发明实现了自主作业,不需要人为干预;本发明检测速度快,且训练中只含正样本,降低了背景误检率;本发明网络结构简单,检测速度快;本发明对小目标检测准确度高;本发明融合了高语义的高层特征金字塔层和特征信息丰富的低层特征金字塔层,且每个特征映射层都加入独立预测,提高了小目标的检测准确率;本发明减少了迭代次数,准确率高且跟踪速度快。
附图说明
图1是一种水面光学小目标快速检测与跟踪方法的整体流程图;
图2是实施例目标检测的特征金字塔网络;
图3是水面小目标检测阶段效果图;
图4是水面小目标跟踪阶段效果图。
具体实施方式
下面结合附图来进一步描述本发明:
实施例1:
如图1,一种水面光学小目标快速检测与跟踪方法,包含如下步骤:
步骤(1):水面小目标快速检测:
对输入的视频进行关键帧水面小目标检测,在网络中加入由顶至下金字塔层和横向连接,且与其他方法不同的是,在YOLOv2的每一个网络阶段本发明都加入了独立预测,充分结合低分辨率、高语义的高层特征和高分辨率、低语义的低层特征,增强了YOLOv2对小目标的检测能力
步骤(1.1):根据水面目标检测任务制作水面目标数据集,并添加标签,然后用水面目标数据集训练神经网络;
步骤(1.2):如图2,设计包含自底向上路径、自顶向下路径和横向连接、独立预测三个过程的特征金字塔网络,再设计基于特征金字塔网络的水面目标检测系统,用梯度下降法训练特征金字塔网络参数,直到损失函数达到收敛;
步骤(1.2.1):设计特征金字塔网络的自底向上路径:
将去掉最后一个卷积层的Darknet19作为自底向上的基础网络,该网络中存在许多层产生的网络输出尺度相同,本发明将多层视为同一个网络阶段,共有{C1,C2,C3,C4,C5}五个网络阶段。用每个阶段最后一层的输出创建特征金字塔层。为了减少内存占用,特征金字塔层将不包含C1的输出;
步骤(1.2.2):设计特征金字塔网络的自顶向下路径和横向连接:
自顶向下模块Tj,i用放大倍数为2的最近邻插值法采样在空间上更粗糙、语义上更强的高金字塔层得到横向连接模块Li是一个1×1的卷积层,用于降低的深度,处理后得到然后将对应的融合得到后加入3×3的卷积层;加入1×1×256的卷积层将特征金字塔层的深度固定为256;生成最终的特征映射层{P2,P3,P4};
步骤(1.2.3):设计特征金字塔网络的独立预测:
在P2、P3、P4三种尺度不同的特征映射层后分别添加卷积层,并共享添加的卷积层的参数,卷积层的输出用于目标的位置、置信度和类别预测;每个特征映射层定义三种尺度的锚点,为了提高小尺度目标的检测能力,在大尺度特征映射层使用小尺度特征映射层的锚点;每个锚点在原图上的宽高固定,并按比例缩小到特征映射层:
以P4为例说明以上信息。在P4特征映射层中,当输入图像为416×416时,P4的尺度为13×13×256,定义P4有13×13个格子,每个格子预测相对于三个锚点的目标位置,设其中一个锚点的高度和宽度同比例缩小到ph和pw,则:
bx=σ(tx)+cx
by=σ(ty)+cy
Pr(object)*IOU(b,object)=σ(to);
上式中,(bx,by)是目标中心点的坐标,(cx,cy)是格子左上角点的坐标,bw是宽度,bh是高度;σ(x)是sigmoid函数,tx,ty,tw,th和to是网络预测的每个格子的五个坐标;假设水面目标数据集中包含N类目标,则P4预测出13×13×[3*(5+N)]个量;
步骤(1.2.4):对于每个金字塔层,根据训练中得到的目标信息与真实目标信息计算损失函数:
上式中,当标注目标的中心点落在金字塔层的第i个格子上,且格子i上的第j个锚点与目标IOU最大,则该锚点负责预测目标,此时取1,否则取0;l代表金字塔层的序列号;l.w,l.h代表金字塔层的宽度和高度,l.n代表每个格子的锚点个数,l.n=3;(x,y)是目标实际中心点坐标,w是目标实际宽,h是目标实际高;Ci是置信度;pi(c)是类条件概率;
然后用梯度下降法调整神经网络中参数的取值,直至损失函数达到收敛。
步骤(1.3):进行水面小目标快速检测,每隔n帧,将视频中的关键帧输入基于特征金字塔网络的水面目标检测系统中检测水面目标,保留结果中置信度大于阈值的目标,找出pi(c)×Ci大于阈值的边界框,并用非极大抑制剔除重叠目标,得到关键帧目标,并记录关键帧目标的位置和类别信息。
水面小目标快速检测效果如图3所示,可见检测结果较为准确清晰。
步骤(2):关键帧目标模型生成;
步骤(2.1):设矩形框的宽度为2a、高度为2b;设核函数作用区域为椭圆形,且是与矩形框内切的最大椭圆;将核函数作用区域的颜色空间从RGB转换到Luv,Luv色彩空间与视觉的一致性更强,转换公式为:
上式中,cons=X+15×Y+3×Z;
步骤(2.2):将Luv量化为m个等级,计算水面目标区域中每个等级对应的特征子模型概率密度:
上式中,u是量化等级,取值范围为1至m之间的整数包括1和m;k()是核剖面函数;b()是计算位置x对应的颜色等级的函数;δ(x)是Kroneckerdelta函数;
C是归一化常数,
步骤(3):关键帧间各向异性带宽自适应目标快速跟踪。
步骤(3.1):为了得出同一帧两次迭代之间归一化常数的关系,设n1为目标区域的像素数,nh是目标候选区域的像素数,且每一帧图像的初始尺度参数都为(1,1)T,然后用前一次迭代的尺度参数和归一化常数当前迭代的尺度参数(h1,h2)T表示当前迭代的归一化常数,则nh=πabn1,用黎曼积分可得出:
则当前迭代的归一化常数Ch
步骤(3.2):将当前迭代的归一化常数代入目标模型和目标候选模型之间的相似度函数,并泰勒展开后得:
引入梯度上升法使相似度函数值达到最大,泰勒展开后的第二项是用核剖面函数k(x)估计当前帧y处的核密度;
计算MeanShift向量得到核密度,MeanShift向量表示将窗口中心移动到窗口重心的大小和方向;窗口中心移动后,重心又重新移动,迭代计算新的MeanShift向量;
MeanShift向量的迭代计算式:
上式中,
取学习率为用梯度上升法迭代更新后:
步骤(3.3):引入正则化参数rs和rb修正尺度参数,并更新最终的尺度参数;
目前的摄像机帧率都足够大,目标物在帧间不会产生巨大的变化;
惩罚变化过大的尺度参数:
因偏小的尺度参数会使目标模型和目标候选模型之间的相似度更高,所以引入正则化参数rb强制核函数作用区域包含背景像素,强制核函数作用区域包含背景像素:
上式中,ρ是核函数作用区域中应该包含的背景像素的比例;B(y,h)是目标模型中的像素点在目标候选模型中的和与目标模型中所有像素点的的和之比,也就是实际包含的背景像素百分比;
更新最终的尺度参数:
步骤(3.4):利用步骤(3.2)搜索当前帧目标所在的位置:当漂移距离小于阈值或迭代次数超过阈值时,输出该帧目标位置,尺度参数、核函数带宽;
步骤(3.5):当达到迭代次数阈值时,若目标候选模型与目标模型的相似度仍然低于阈值,则判定目标在关键帧间因丢失或消失在视野内,提取结束该目标的跟踪,若所有水面目标均提前结束时返回步骤(1.1)重新检测目标;当迭代次数小于阈值时,视目标跟踪在帧间顺利进行,重复步骤(3.1)至步骤(3.4),未出现所有目标均提前结束时,跟踪在下一个关键帧结束。水面小目标跟踪效果如图4所示,由近到远的多帧图像中,目标跟踪清晰准确。
与现有技术相比,本发明实现了自主作业,不需要人为干预;本发明检测速度快,且训练中只含正样本,降低了背景误检率;本发明网络结构简单,检测速度快;本发明对小目标检测准确度高;本发明融合了高语义的高层特征金字塔层和特征信息丰富的低层特征金字塔层,且每个特征映射层都加入独立预测,提高了小目标的检测准确率;本发明减少了迭代次数,准确率高且跟踪速度快。
以上所述并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (5)

1.一种水面光学小目标快速检测与跟踪方法,其特征在于:包含如下步骤:
步骤(1):水面小目标快速检测;
步骤(2):关键帧目标模型生成;
步骤(3):关键帧间各向异性带宽自适应目标快速跟踪。
2.根据权利要求1所述的一种水面光学小目标快速检测与跟踪方法,其特征在于:所述的步骤(1)具体为:
步骤(1.1):根据水面目标检测任务制作水面目标数据集,并添加标签,然后用水面目标数据集训练神经网络;
步骤(1.2):设计包含自底向上路径、自顶向下路径和横向连接、独立预测三个过程的特征金字塔网络,再设计基于特征金字塔网络的水面目标检测系统,用梯度下降法训练特征金字塔网络参数,直到损失函数达到收敛;
步骤(1.3):进行水面小目标快速检测,每隔n帧,将视频中的关键帧输入基于特征金字塔网络的水面目标检测系统中检测水面目标,保留结果中置信度大于阈值的目标,并用非极大抑制剔除重叠目标,得到关键帧目标,并记录关键帧目标的位置和类别信息。
3.根据权利要求2所述的一种水面光学小目标快速检测与跟踪方法,其特征在于:所述的步骤(1.2)具体为:
步骤(1.2.1):设计特征金字塔网络的自底向上路径:
将去掉最后一个卷积层的Darknet19作为自底向上的基础网络,将自底向上的基础网络中产生的网络输出尺度相同的许多层视为同一个网络阶段,共有{C1,C2,C3,C4,C5}五个网络阶段;用每个网络阶段的最后一层的输出创建特征金字塔层;且在特征金字塔层中剔除C1网络阶段的输出;
步骤(1.2.2):设计特征金字塔网络的自顶向下路径和横向连接:
自顶向下模块Tj,i用放大倍数为2的最近邻插值法采样在空间上更粗糙、语义上更强的高金字塔层得到横向连接模块Li是一个1×1的卷积层,处理后得到然后将对应的融合得到后加入3×3的卷积层;加入1×1×256的卷积层将特征金字塔层的深度固定为256;生成最终的特征映射层{P2,P3,P4};
步骤(1.2.3):设计特征金字塔网络的独立预测:
在P2、P3、P4三种尺度不同的特征映射层后分别添加卷积层,并共享添加的卷积层的参数;每个特征映射层定义三种尺度的锚点,并在大尺度特征映射层使用小尺度特征映射层的锚点;每个锚点在原图上的宽高固定,并按比例缩小到特征映射层;
步骤(1.2.4):对于每个金字塔层,根据训练中得到的目标信息与真实目标信息计算损失函数:
上式中,当标注目标的中心点落在金字塔层的第i个格子上,且格子i上的第j个锚点与目标IOU最大,则该锚点负责预测目标,此时取1,否则取0;l代表金字塔层的序列号;l.w,l.h代表金字塔层的宽度和高度,l.n代表每个格子的锚点个数;(x,y)是目标实际中心点坐标,w是目标实际宽,h是目标实际高;Ci是置信度;pi(c)是类条件概率;
然后用梯度下降法调整神经网络中参数的取值,直至损失函数达到收敛。
4.根据权利要求1所述的一种水面光学小目标快速检测与跟踪方法,其特征在于:所述的步骤(2)具体为:
步骤(2.1):设矩形框的宽度为2a、高度为2b;设核函数作用区域为椭圆形,且是与矩形框内切的最大椭圆;将核函数作用区域的颜色空间从RGB转换到Luv,转换公式为:
上式中,cons=X+15×Y+3×Z;
步骤(2.2):将Luv量化为m个等级,计算水面目标区域中每个等级对应的特征子模型概率密度:
上式中,u是量化等级,取值范围为1至m之间的整数包括1和m;k()是核剖面函数;b()是计算位置x对应的颜色等级的函数;δ(x)是Kroneckerdelta函数;
C是归一化常数,
5.根据权利要求1所述的一种水面光学小目标快速检测与跟踪方法,其特征在于:所述的步骤(3)具体为:
步骤(3.1):设n1为目标区域的像素数,nh是目标候选区域的像素数,且每一帧图像的初始尺度参数都为(1,1)T,然后用前一次迭代的尺度参数和归一化常数当前迭代的尺度参数(h1,h2)T表示当前迭代的归一化常数,则nh=πabn1,用黎曼积分可得出:
则当前迭代的归一化常数Ch
步骤(3.2):将当前迭代的归一化常数代入目标模型和目标候选模型之间的相似度函数,并泰勒展开后得:
引入梯度上升法使相似度函数值达到最大,泰勒展开后的第二项是用核剖面函数k(x)估计当前帧y处的核密度;
计算MeanShift向量得到核密度,MeanShift向量表示将窗口中心移动到窗口重心的大小和方向;窗口中心移动后,重心又重新移动,迭代计算新的MeanShift向量;
MeanShift向量的迭代计算式:
上式中,
取学习率为用梯度上升法迭代更新后:
步骤(3.3):引入正则化参数rs和rb修正尺度参数,并更新最终的尺度参数;
惩罚变化过大的尺度参数:
引入正则化参数rb强制核函数作用区域包含背景像素:
上式中,ρ是核函数作用区域中应该包含的背景像素的比例;B(y,h)是目标模型中的像素点在目标候选模型中的和与目标模型中所有像素点的的和之比;
更新最终的尺度参数:
步骤(3.4):利用步骤(3.2)搜索当前帧目标所在的位置:当漂移距离小于阈值或迭代次数超过阈值时,输出该帧目标位置,尺度参数、核函数带宽;
步骤(3.5):当达到迭代次数阈值时,若目标候选模型与目标模型的相似度仍然低于阈值,则判定目标在关键帧间因丢失或消失在视野内,提取结束该目标的跟踪,若所有水面目标均提前结束时返回步骤(1.1)重新检测目标;当迭代次数小于阈值时,视目标跟踪在帧间顺利进行,重复步骤(3.1)至步骤(3.4),未出现所有目标均提前结束时,跟踪在下一个关键帧结束。
CN201811017357.5A 2018-09-01 2018-09-01 一种水面光学小目标快速检测与跟踪方法 Active CN109242019B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811017357.5A CN109242019B (zh) 2018-09-01 2018-09-01 一种水面光学小目标快速检测与跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811017357.5A CN109242019B (zh) 2018-09-01 2018-09-01 一种水面光学小目标快速检测与跟踪方法

Publications (2)

Publication Number Publication Date
CN109242019A true CN109242019A (zh) 2019-01-18
CN109242019B CN109242019B (zh) 2022-05-17

Family

ID=65060340

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811017357.5A Active CN109242019B (zh) 2018-09-01 2018-09-01 一种水面光学小目标快速检测与跟踪方法

Country Status (1)

Country Link
CN (1) CN109242019B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109859202A (zh) * 2019-02-18 2019-06-07 哈尔滨工程大学 一种基于usv水面光学目标跟踪的深度学习检测方法
CN110544269A (zh) * 2019-08-06 2019-12-06 西安电子科技大学 基于特征金字塔的孪生网络红外目标跟踪方法
CN111915558A (zh) * 2020-06-30 2020-11-10 成都思晗科技股份有限公司 一种高压输电线销钉状态检测方法
CN112817755A (zh) * 2021-01-22 2021-05-18 西安交通大学 基于目标追踪加速的边云协同深度学习目标检测方法
CN115953430A (zh) * 2022-12-21 2023-04-11 贵州财经大学 基于改进的批量样本损失函数的视频单目标跟踪方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101098465A (zh) * 2007-07-20 2008-01-02 哈尔滨工程大学 一种视频监控中运动目标检测与跟踪方法
US7391925B2 (en) * 2003-12-04 2008-06-24 Lockheed Martin Missiles & Fire Control System and method for estimating noise using measurement based parametric fitting non-uniformity correction
CN105427342A (zh) * 2015-11-17 2016-03-23 中国电子科技集团公司第三研究所 一种水下小目标声呐图像目标检测跟踪方法和系统
CN108108657A (zh) * 2017-11-16 2018-06-01 浙江工业大学 一种基于多任务深度学习的修正局部敏感哈希车辆检索方法
CN108171752A (zh) * 2017-12-28 2018-06-15 成都阿普奇科技股份有限公司 一种基于深度学习的海面船只视频检测与跟踪方法
CN108346159A (zh) * 2018-01-28 2018-07-31 北京工业大学 一种基于跟踪-学习-检测的视觉目标跟踪方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7391925B2 (en) * 2003-12-04 2008-06-24 Lockheed Martin Missiles & Fire Control System and method for estimating noise using measurement based parametric fitting non-uniformity correction
CN101098465A (zh) * 2007-07-20 2008-01-02 哈尔滨工程大学 一种视频监控中运动目标检测与跟踪方法
CN105427342A (zh) * 2015-11-17 2016-03-23 中国电子科技集团公司第三研究所 一种水下小目标声呐图像目标检测跟踪方法和系统
CN108108657A (zh) * 2017-11-16 2018-06-01 浙江工业大学 一种基于多任务深度学习的修正局部敏感哈希车辆检索方法
CN108171752A (zh) * 2017-12-28 2018-06-15 成都阿普奇科技股份有限公司 一种基于深度学习的海面船只视频检测与跟踪方法
CN108346159A (zh) * 2018-01-28 2018-07-31 北京工业大学 一种基于跟踪-学习-检测的视觉目标跟踪方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
LIN-PENG WANG ET AL: "Detecting and tracking of small moving target under the background of sea level", 《2008 9TH INTERNATIONAL CONFERENCE ON SIGNAL PROCESSING》 *
王林鹏: "海平面背景下小目标的运动检测与跟踪", 《中国优秀硕士学位论文全文数据库电子期刊 信息科技辑》 *
齐素敏 等: "基于各向异性核函数的均值漂移跟踪算法", 《电子与信息学报》 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109859202A (zh) * 2019-02-18 2019-06-07 哈尔滨工程大学 一种基于usv水面光学目标跟踪的深度学习检测方法
CN109859202B (zh) * 2019-02-18 2022-04-12 哈尔滨工程大学 一种基于usv水面光学目标跟踪的深度学习检测方法
CN110544269A (zh) * 2019-08-06 2019-12-06 西安电子科技大学 基于特征金字塔的孪生网络红外目标跟踪方法
CN111915558A (zh) * 2020-06-30 2020-11-10 成都思晗科技股份有限公司 一种高压输电线销钉状态检测方法
CN111915558B (zh) * 2020-06-30 2023-12-01 成都思晗科技股份有限公司 一种高压输电线销钉状态检测方法
CN112817755A (zh) * 2021-01-22 2021-05-18 西安交通大学 基于目标追踪加速的边云协同深度学习目标检测方法
CN112817755B (zh) * 2021-01-22 2023-12-19 西安交通大学 基于目标追踪加速的边云协同深度学习目标检测方法
CN115953430A (zh) * 2022-12-21 2023-04-11 贵州财经大学 基于改进的批量样本损失函数的视频单目标跟踪方法及系统
CN115953430B (zh) * 2022-12-21 2023-07-25 贵州财经大学 基于改进的批量样本损失函数的视频单目标跟踪方法及系统

Also Published As

Publication number Publication date
CN109242019B (zh) 2022-05-17

Similar Documents

Publication Publication Date Title
CN106875424B (zh) 一种基于机器视觉的城市环境行驶车辆行为识别方法
Chen et al. Distribution line pole detection and counting based on YOLO using UAV inspection line video
CN108710875B (zh) 一种基于深度学习的航拍公路车辆计数方法及装置
CN109242019A (zh) 一种水面光学小目标快速检测与跟踪方法
He et al. Obstacle detection of rail transit based on deep learning
CN109977782B (zh) 基于目标位置信息推理的跨店经营行为检测方法
CN110175576A (zh) 一种结合激光点云数据的行驶车辆视觉检测方法
CN110223302A (zh) 一种基于旋转区域提取的舰船多目标检测方法
CN110533695A (zh) 一种基于ds证据理论的轨迹预测装置及方法
CN111626128A (zh) 一种基于改进YOLOv3的果园环境下行人检测方法
CN107729799A (zh) 基于深度卷积神经网络的人群异常行为视觉检测及分析预警系统
CN107016357A (zh) 一种基于时间域卷积神经网络的视频行人检测方法
CN107730903A (zh) 基于深度卷积神经网络的违章停车和抛锚车视觉检测系统
CN103886325B (zh) 一种分块的循环矩阵视频跟踪方法
CN112766184B (zh) 基于多层级特征选择卷积神经网络的遥感目标检测方法
CN105279769A (zh) 一种联合多特征的层次粒子滤波跟踪方法
CN104320617A (zh) 一种基于深度学习的全天候视频监控方法
CN106204484A (zh) 一种基于光流和局部不变特征的交通目标跟踪方法
CN116258608B (zh) 融合gis和bim三维技术的水利实时监测信息管理系统
Shen et al. Manhattan-distance IOU loss for fast and accurate bounding box regression and object detection
CN101877134B (zh) 一种机场监视视频目标鲁棒跟踪方法
CN111027586A (zh) 一种基于新型响应图融合的目标跟踪方法
CN115115672B (zh) 基于目标检测和特征点速度约束的动态视觉slam方法
Li et al. An aerial image segmentation approach based on enhanced multi-scale convolutional neural network
Zhang et al. Adaptive anchor networks for multi-scale object detection in remote sensing images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant