CN113470063B - 一种基于特征集的多目标追踪方法、装置及介质 - Google Patents

一种基于特征集的多目标追踪方法、装置及介质 Download PDF

Info

Publication number
CN113470063B
CN113470063B CN202110740129.6A CN202110740129A CN113470063B CN 113470063 B CN113470063 B CN 113470063B CN 202110740129 A CN202110740129 A CN 202110740129A CN 113470063 B CN113470063 B CN 113470063B
Authority
CN
China
Prior art keywords
target
image
points
point
taking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110740129.6A
Other languages
English (en)
Other versions
CN113470063A (zh
Inventor
邓宏贵
张泽宇
刘阳
徐齐国
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Central South University
Original Assignee
Central South University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Central South University filed Critical Central South University
Priority to CN202110740129.6A priority Critical patent/CN113470063B/zh
Publication of CN113470063A publication Critical patent/CN113470063A/zh
Application granted granted Critical
Publication of CN113470063B publication Critical patent/CN113470063B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于特征集的多目标追踪方法、装置及介质,该方法包括如下步骤:步骤1,对目标图像灰度化处理;步骤2,以灰度化图像为目标,进行改进的Moravec角点检测;步骤3,筛选检测到的角点,基于筛选的角点,对稳像后的图像做区域分割,把一副多目标图像分割成多副单目标图像;步骤4,对分割后的区域依次做边缘提取;步骤5,以提取到的边缘为目标,采取C‑HOG算子描述特征;步骤6,预测目标可能出现的区域并根据特征跟踪。采用本发明所述的基于特征集的多目标追踪方法,无需预训练模型也能实现对实时图像中的多目标追踪,降低了方法的时间复杂度,减小了由动态滞后引起的目标追踪误差。

Description

一种基于特征集的多目标追踪方法、装置及介质
技术领域
本发明涉及机器视觉领域,尤其涉及一种基于特征集的多目标追踪方法、装置及介质。
背景技术
目标跟踪是机器视觉应用领域的一个热点,被广泛地应用于智能交通、军事监控、医疗诊断、智能家居、人机交互等领域。目标追踪的本质是确定目标在图像帧中的位置,然后将前帧和后帧相关联,得到目标轨迹。
根据追踪目标的种类可分为单目标追踪和多目标追踪;根据传感器的位移特性可分为静态目标追踪和动态目标追踪。常见的多目标追踪算法多针对具有特定特征集的静态或动态目标且算法时间复杂度高,动态滞后效果明显,目标追踪误差较大;针对上述问题,有必要提供一种基于特征集针对静态多目标的追踪算法,利用目标特征集的唯一性作为跟踪依据,实现对多目标的锁定和追踪。
发明内容
本发明的目的是公开一种基于特征集的多目标追踪方法、装置及介质,通过把多目标图像分割成单目标图像后,利用C-HOG算子描述目标特征集,完成对多目标的锁定,再通过对目标空间偏移量的预测,实现多目标追踪。
本发明提供的技术方案如下:
一方面,一种基于特征集的多目标追踪方法,包括如下步骤:
步骤1:获取包含目标的图像并对图像做灰度化处理;
步骤2:对灰度化图像,基于改进的Moravec角点检测方法进行角点检测;
步骤3:基于方向特征进行角点筛选,并利用筛选后的角点对灰度图像进行区域分割;
当角点在目标内时或者角点的位置影响后续分割时,需要对角点做筛选,基于筛选的角点对目标灰度化图像做区域分割,把多目标追踪问题简化成单目标追踪问题,且不破坏目标的独立完整性,获得若干个分割后图像;
步骤4:对分割后的区域做Sobel边缘提取;
步骤5:以提取到的边缘为目标,采用C-HOG算子描述目标特征,对所有分割图像描述,获得每帧图像的目标特征集;
步骤6:根据传感器得到目标的位移变化,计算目标在帧间的像素偏移量,结合前一帧图像目标特征集中目标所在区域的边界坐标,得到当前帧目标预测位置并进行分割,重复步骤1、步骤4、步骤5,预测当前帧图像的目标特征集;
步骤7:将当前帧预测得到的目标特征集与前一帧目标特征集进行比较,若两者比值大于设定跟踪阈值上限或小于设定跟踪阈值下限,则返回步骤1重新追踪,反之,选下一帧图像重复步骤6,持续预测。
若对每一帧图像都去做目标检测而后跟踪,算法的时间成本提高,从而导致跟踪滞后,增大跟踪误差。为此提出了跟踪预测。进一步地,灰度化处理按以下公式进行:
Gary(i,j)=0.299*R(i,j)+0.587*G(i,j)+0.113*B(i,j)
期中,R(i,j),G(i,j),B(i,j)分别代表原始图像中像素点(i,j)处的RGB色彩分量。
进一步地,所述改进的Moravec角点检测方法是指,以灰度图像边缘任意点为起点,遍历灰度图像中与所述起点纵坐标相同的点和横坐标相同的点并记录,分别得到水平边界像素集与垂直边界像素集;
将水平边界像素集和垂直边界像素内点的灰度值均与灰度阈值Garythreshold比较,再将水平边界像素集和垂直边界像素中灰度值大于Garythreshold的的像素点数目Num_Va和Num_Hb与角点数量判断值Nset比较,保留数目大于Nset的水平边界像素集和垂直边界像素,以及对应的边缘点:
依次以保留的边缘点为起点,分别将对应的水平边界像素集和垂直边界像素集中的所有像素点连成一条水平直线和垂直直线,将所有水平直线与垂直直线的交点作为角点。
将检测的角点特征方向从八个(纵横以及斜对角)简化为两个(纵横),降低误检率,提升效率。
以灰度图像为目标,取图像图幅边缘任意处为起点,沿顺时针方向依次遍历图像边缘像素点,得像素集Edge{Edge1,Edge2,…,Edgen}。后以Edge中各点为起点(im,jn),做竖直方向像素集合Point_Vm和水平方向像素集合Point_Hn
Figure BDA0003141125270000021
Figure BDA0003141125270000022
其中,imax和jmax表示图像的水平和竖直图幅,Num_Va表示竖直方向像素集合Point_Vn中灰度大于阈值Garythreshold的数目,Num_Hb表示水平方向像素集合Point_Hn中灰度大于阈值Garythreshold的数目。则角点集Corner{Corner1,Corner2,…,Cornern}有:
Figure BDA0003141125270000031
Point_Vm表示点(im,1)竖直方向的像素集,Num_Va为像素集中灰度大于设定阈值Garythreshold的数目;Point_Hn表示点(1,jn)水平方向的像素集,Num_Hb为像素集中灰度大于设定阈值Garythreshold的数目。Cornern为角点集合。Nset为设定的角点判断阈值。检测后对Cornern中的点按坐标顺序排列。
即在记录的像素集中,按水平像素集与竖直像素集分类,并以对应的边缘像素点为起点,做记录方向的直线,这些水平和竖直方向的交点,就是角点集合。
改进的Moravec角点检测方法,不需要做图像窗口的移动,简化运算方法,同时尽可能地保存了只有一个方向特征的角点。
进一步地,基于角点对多帧连续灰度图像做角点匹配的电子稳像,具体过程如下:
基于相邻帧中各角点位置,计算前一帧图像映射到当前帧图像的仿射变换矩阵;
累计相邻帧图像之间运动,得到仿射变换矩阵随时间变化的曲线,将曲线进行平滑滤波,得到平滑滤波后的仿射变换矩阵,并利用平滑滤波后的仿射变换矩阵对多帧连续图像进行变换,实现电子稳像。
稳相的目的是便于之后的分割和特征描述。
进一步地,为对稳相后的灰度图做基于角点的分割,要对角点筛选。依次判断相邻角点在同一方向的距离,若大于距离设定值,则两点都属于保留角点,并利用排序靠后的角点继续判断,否则,将排序靠后的角点剔除,继续选取下一个角点进行判断,遍历角点内所有的点,得到筛选后的角点集。
为减少分割次数,对角点筛选,得到筛选后的角点集MarkM。即:
Figure BDA0003141125270000032
(im,jn),(im,jn-1)表示两个水平相邻的角点,(im,jn),(im-1,jn)表示两个竖直相邻的角点。Lset为距离设定值。
将角点Corner{}中的点分为垂直角点CornerV{}和水平角点CornerH{}。若CornerV中相邻两点的水平距离为1像素,则判断两点相接,若相邻两点的水平距离大于3像素,则认定两点为垂直标记角点MarkV{}并记录;若CornerH中相邻两点的竖直距离为1像素,则判断两点相接,若相邻两点的竖直距离大于3像素,则认定两点为水平标记角点MarkH{}并记录。在得到MarkV{}和MarkH{}后,取MarkV中的横坐标和MarkH中的纵坐标组合得到角点集MarkM:
Figure BDA0003141125270000041
将原灰度图像按照MarkM(im,jn),MarkM(im+1,jn),MarkM(im+1,jn+1),MarkM(im,jn+1)的顺序区域分割,共分割为MarkVm*MarkHn份。
进一步地,在筛选后的角点集中,以四个相邻角点做顶点对目标做区域分割,确保分割最大化。
进一步地,所述以提取到的边缘为目标,采用C-HOG算子描述目标特征是指:
对分割后的区域做Sobel边缘检测,依次以边缘像素为中心,取3*3的像素矩阵,用C-HOG算子描述各像素矩阵的梯度幅值g和角度θ,以各像素矩阵的角度区间为横轴,区间内平均幅值为纵轴做方向梯度直方图,将所有的梯度分布直方图累加并归一化,得到目标的C-HOG特征向量,并以C-HOG特征向量的模作为归一化后的特征向量,表示目标特征。
得到所有二值化图像中G=255点的梯度直方图(C-HOG),数目为Gedge,将这些直方图拼接成长度为6*Gedge的向量
Figure BDA0003141125270000042
后为降低噪声、抖动对C-HOG的影响,对C-HOG归一化得到
Figure BDA0003141125270000043
Figure BDA0003141125270000044
Figure BDA0003141125270000045
就是区域目标中的特征描述符,长度为6*Gedge
为降低噪声等干扰对预测效果判断的影响;
进一步地,用ω判断跟踪效果,
Figure BDA0003141125270000046
当ω小于设定跟踪阈值下限或大于设定跟踪阈值上限,则表示跟踪效果不好;
λ’表示预测得到的目标特征向量的模,预测得到的目标的像素偏移量按以下公式计算:
Figure BDA0003141125270000047
其中,Δx,Δy为预测的像素偏移量;X,Y为传感器获得的位移变化量,S为传感器到被测目标的平均距离,P为每个像素的实际距离。
另一方面,一种基于特征集的多目标追踪装置,包括:
图像采集与预处理单元:获取包含目标的图像并对图像做灰度化处理;
角点检测单元:对灰度化图像,基于改进的Moravec角点检测方法进行角点检测;
区域分割单元:基于方向特征进行角点筛选,并利用筛选后的角点对灰度图像进行区域分割;
边缘提取单元:对分割后的区域进行边缘提取;
目标特征描述单元:以提取到的边缘为目标,采用C-HOG算子描述目标特征,获得每帧图像的目标特征集;
目标特征预测单元:根据传感器得到目标的位移变化,计算目标在帧间的像素偏移量,结合前一帧图像目标特征集中目标所在区域的边界坐标,得到当前帧目标预测位置并进行分割,重复调用边缘提取单元和目标特征描述单元,预测当前帧图像的目标特征集;
目标跟踪单元:将当前帧预测得到的目标特征集与前一帧目标特征集进行比较,若两者比值大于设定跟踪阈值,则重新采集图像进行追踪,否则,表示当前目标追踪准确。
再一方面,一种可读存储介质,包括计算机程序指令,所述计算机程序指令被处理终端执行时使所述处理终端执行上述一种基于特征集的多目标追踪方法。
有益效果
本发明技术方案提供一种基于特征集的多目标追踪方法、装置及介质,该方法包括如下步骤:步骤1、对目标图像灰度化处理;步骤2、以灰度化图像为目标,进行改进的Moravec角点检测;步骤3、筛选检测到的角点,基于筛选的角点,对稳像后的图像做区域分割,把一副多目标图像分割成多副单目标图像;步骤4、对分割后的区域依次做边缘提取;步骤5、对所有存在边缘的区域以边缘为目标,采取C-HOG算子描述特征;步骤6、预测目标可能出现的区域并根据特征跟踪。采用本发明所述的基于特征集的多目标追踪方法,无需预训练模型也能实现对实时图像中的多目标追踪,降低了方法的时间复杂度,减小了由动态滞后引起的目标追踪误差。
附图说明
图1为本发明的基于特征集的多目标追踪方法的流程图;
图2为灰度化示意图;
图3为改进的Moravec检测到的角点图;
图4为图像区域分割示意图;
图5为C-HOG算子描述目标特征图;
图6为目标追踪效果示意图。
具体实施方式
以下结合附图对本发明的实施例进行详细说明,但是本发明可以由权利要求限定和覆盖的多种不同方式实施。
参见图1,本实施例提供的一种基于特征集的多目标追踪方法,包括如下步骤:
步骤1:获目标图像,对其进行灰度化处理,如图2所示;
Gary(i,j)=0.299*R(i,j)+0.587*G(i,j)+0.113*B(i,j)
Gary(i,j)为灰度值,R(i,j)、G(i,j)、B(i,j)为该点RGB值,如图2。
步骤2:角点检测,如图3所示,取灰度图最左上角点为起点,坐标设(1,1),灰度图图幅X*Y,取图像中横坐标为1的点集和纵坐标为1的点集,得到点(1,1)的水平像素集和垂直像素集。对水平像素集预设灰度阈值100,角点数目判断值X/3,垂直像素集预设灰度阈值100,角点数目判断值Y/3,分别判断两个像素集内灰度大于100的数目,将此数目与角点数目判断值比较,数目大于判断值的保留对应像素集,并记录点(1,1)。如此按顺时针遍历灰度图像中的所有边缘点,得到像素集和边缘点集。
步骤3:依次以保留的边缘点为起点,分别将对应的水平边界像素集和垂直边界像素集中的所有像素点连成一条水平直线和垂直直线,将所有水平直线与垂直直线的交点作为角点。
步骤3.1:为了便于目标的分割和特征描述,要将连续的图像做基于角点的电子稳像,此过程需要5帧图像。基于图像中的角点,取当前图像与前一帧图像,计算仿射映射矩阵,累计前五帧图像间的运动,得到仿射映射矩阵随时间变换的离散曲线,将曲线平滑滤波,得到平滑滤波后的仿射变化矩阵,利用平滑滤波后的仿射变化矩阵对选出的五帧图像进行变换,得到稳像后的当前帧。
步骤4:对稳相后的灰度图像做基于角点的分割,如图4所示。为减少分割次数,要对角点筛选。设定水平距离判断值X/10,垂直距离判断值Y/10,从左至右、从上至下,依次判断相邻角点在同一方向的距离,与该方向的距离判断值比较,大于设定值则两点属于保留角点,并利用排序靠后的点继续做判断,反之,则将排序靠后的角点剔除,继续选下一个角点做判断,对所有的角点都作此判断,得到筛选后的角点集。在筛选的角点集中,以四个相邻角点做顶点对稳相后的灰度图做区域分割。
为减少分割次数,对角点筛选,得到筛选后的角点集MarkM。即:
Figure BDA0003141125270000071
(im,jn),(im,jn-1)表示两个水平相邻的角点,(im,jn),(im-1,jn)表示两个竖直相邻的角点。Lset为距离设定值。
将角点Corner{}中的点分为垂直角点CornerV{}和水平角点CornerH{}。若CornerV中相邻两点的水平距离为1像素,则判断两点相接,若相邻两点的水平距离大于3像素,则认定两点为垂直标记角点MarkV{}并记录;若CornerH中相邻两点的竖直距离为1像素,则判断两点相接,若相邻两点的竖直距离大于3像素,则认定两点为水平标记角点MarkH{}并记录。在得到MarkV{}和MarkH{}后,取MarkV中的横坐标和MarkH中的纵坐标组合得到角点集MarkM:
Figure BDA0003141125270000072
将原灰度图像按照MarkM(im,jn),MarkM(im+1,jn),MarkM(im+1,jn+1),MarkM(im,jn+1)的顺序区域分割,共分割为MarkVm*MarkHn份。
步骤5:对分割后的灰度图做Sobel边缘检测,得到目标边缘。选边缘一点为中心,取3*3的像素矩阵,对边缘处的每一个点执行此操作,用C-HOG算子对每个3*3矩阵的梯度幅值和角度做描述,如图5所示。以角度区间做横轴,幅值做纵轴构建矩阵的方向梯度直方图,并将所有矩阵的方向梯度直方图累加、归一化,得到目标的C-HOG特征向量,并将C-HOG特征向量的模作为归一化后的特征向量,表示目标特征。计算所有分割灰度图的特征向量与对应的分割范围,得到目标特征集。
步骤6:对要预测的目标,选择其目标特征λ,利用传感器得到目标的位移变化X、Y,计算目标在帧间的像素偏移量Δx、Δy
Figure BDA0003141125270000073
S为传感器到被测目标的平均距离,P为每个像素的实际距离。得到目标的像素偏移量,并以此偏移量预测新的分割范围,在下一帧图像上,重复步骤1、步骤5,计算新分割范围内的目标特征λ’,设定跟踪阈值下限0.8,上限1.2,当
Figure BDA0003141125270000074
小于0.8或大于1.2时,追踪效果不理想,返回步骤1重新追踪,若满足条件,读取下一帧图像重复步骤6。跟踪效果如图6所示。
本发明实施例还提供一种基于特征集的多目标追踪装置,包括:
图像采集与预处理单元:获取包含目标的图像并对图像做灰度化处理;
角点检测单元:对灰度化图像,基于改进的Moravec角点检测方法进行角点检测;
区域分割单元:基于方向特征进行角点筛选,并利用筛选后的角点对灰度图像进行区域分割;
边缘提取单元:对分割后的区域进行边缘提取;
目标特征描述单元:以提取到的边缘为目标,采用C-HOG算子描述目标特征,获得每帧图像的目标特征集;
目标特征预测单元:根据传感器得到目标的位移变化,计算目标在帧间的像素偏移量,结合前一帧图像目标特征集中目标所在区域的边界坐标,得到当前帧目标预测位置并进行分割,重复调用边缘提取单元和目标特征描述单元,预测当前帧图像的目标特征集;
目标跟踪单元:将当前帧预测得到的目标特征集与前一帧目标特征集进行比较,若两者比值大于设定跟踪阈值上限或小于设定阈值下限,则重新采集图像进行追踪,否则,表示当前目标追踪准确。
本发明实施例还提供一种可读存储介质,包括计算机程序指令,所述计算机程序指令被处理终端执行时使所述处理终端执行上述的一种基于特征集的多目标追踪方法。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
最后应当说明的是:以上实施例仅用以说明本发明的技术方案而非对其限制,尽管参照上述实施例对本发明进行了详细的说明,所属领域的普通技术人员应当理解:依然可以对本发明的具体实施方式进行修改或者等同替换,而未脱离本发明精神和范围的任何修改或者等同替换,其均应涵盖在本发明的权利要求保护范围之内。

Claims (8)

1.一种基于特征集的多目标追踪方法,其特征在于,包括如下步骤:
步骤1:获取包含目标的图像并对图像做灰度化处理;
步骤2:对灰度化图像,基于改进的Moravec角点检测方法进行角点检测;
所述改进的Moravec角点检测方法是指,以灰度图像边缘任意点为起点,遍历灰度图像中与起点纵坐标相同的点和横坐标相同的点并记录,分别得到水平边界像素集与垂直边界像素集;
将水平边界像素集和垂直边界像素内点的灰度值均与灰度阈值Garythreshold比较,再将水平边界像素集和垂直边界像素中灰度值大于Garythreshold的像素点数目Num_Va和Num_Hb与角点数量判断值Nset比较,保留数目大于Nset的水平边界像素集和垂直边界像素,以及对应的边缘点:
依次以保留的边缘点为起点,分别将对应的水平边界像素集和垂直边界像素集中的所有像素点连成一条水平直线和垂直直线,将所有水平直线与垂直直线的交点作为角点;
步骤3:基于方向特征进行角点筛选,并利用筛选后的角点对灰度图像进行区域分割;
步骤4:对分割后的区域进行边缘提取;
步骤5:以提取到的边缘为目标,采用C-HOG算子描述目标特征,获得每帧图像的目标特征集;
所述以提取到的边缘为目标,采用C-HOG算子描述目标特征是指:
对分割后的区域做Sobel边缘检测,依次以边缘像素为中心,取3*3的像素矩阵,用C-HOG算子描述各像素矩阵的梯度幅值g和角度θ,以各像素矩阵的角度区间为横轴,区间内平均幅值为纵轴做方向梯度直方图,将所有的梯度分布直方图累加并归一化,得到目标的C-HOG特征向量,并以C-HOG特征向量的模作为归一化后的特征向量,表示目标特征;
步骤6:根据传感器得到目标的位移变化,计算目标在帧间的像素偏移量,结合前一帧图像目标特征集中目标所在区域的边界坐标,得到当前帧目标预测位置并进行分割,重复步骤1、步骤4、步骤5,预测当前帧图像的目标特征集;
步骤7:将当前帧预测得到的目标特征集与前一帧目标特征集进行比较,若两者比值大于设定跟踪阈值,则返回步骤1重新追踪,反之,选下一帧图像重复步骤6,持续预测。
2.根据权利要求1所述的方法,其特征在于,灰度化处理按以下公式进行:
Gary(i,j)=0.299*R(i,j)+0.587*G(i,j)+0.113*B(i,j)
其中,R(i,j),G(i,j),B(i,j)分别代表原始图像中像素点(i,j)处的RGB色彩分量。
3.根据权利要求1所述的方法,其特征在于,基于角点对多帧连续灰度图像做角点匹配的电子稳像,具体过程如下:
基于相邻帧中各角点位置,计算前一帧图像映射到当前帧图像的仿射变换矩阵;
累计相邻帧图像之间运动,得到仿射变换矩阵随时间变化的曲线,将曲线平滑滤波,得到平滑滤波后的仿射变换矩阵,并利用平滑滤波后的仿射变换矩阵对多帧连续图像进行逆变换,从而实现电子稳像。
4.根据权利要求1所述的方法,其特征在于,为对稳相后的灰度图做基于角点的分割,要对角点筛选:依次判断相邻角点在同一方向的距离,若大于距离设定值,则两点都属于保留角点,并利用排序靠后的角点继续判断,否则,将排序靠后的角点剔除,继续选取下一个角点进行判断,遍历角点内所有的点,得到筛选后的角点集。
5.根据权利要求4所述的方法,其特征在于,在筛选后的角点集中,以四个相邻角点做顶点对目标做分割。
6.根据权利要求1所述的方法,其特征在于,用ω判断跟踪效果,
Figure FDA0003496889240000021
当ω小于设定跟踪阈值下限或大于设定跟踪阈值上限,则表示跟踪效果不好;
λ′表示预测得到的目标特征向量的模,λ表示要预测的目标特征,预测得到的目标的像素偏移量按以下公式计算:
Figure FDA0003496889240000022
其中,Δx,Δy为预测的像素偏移量;X,Y为传感器获得的位移变化量,S为传感器到被测目标的平均距离,P为每个像素的实际距离。
7.一种基于特征集的多目标追踪装置,其特征在于,包括:
图像采集与预处理单元:获取包含目标的图像并对图像做灰度化处理;
角点检测单元:对灰度化图像,基于改进的Moravec角点检测方法进行角点检测;
所述改进的Moravec角点检测方法是指,以灰度图像边缘任意点为起点,遍历灰度图像中与起点纵坐标相同的点和横坐标相同的点并记录,分别得到水平边界像素集与垂直边界像素集;
将水平边界像素集和垂直边界像素内点的灰度值均与灰度阈值Garythreshold比较,再将水平边界像素集和垂直边界像素中灰度值大于Garythreshold的像素点数目Num_Va和Num_Hb与角点数量判断值Nset比较,保留数目大于Nset的水平边界像素集和垂直边界像素,以及对应的边缘点:
依次以保留的边缘点为起点,分别将对应的水平边界像素集和垂直边界像素集中的所有像素点连成一条水平直线和垂直直线,将所有水平直线与垂直直线的交点作为角点;
区域分割单元:基于方向特征进行角点筛选,并利用筛选后的角点对灰度图像进行区域分割;
边缘提取单元:对分割后的区域进行边缘提取;
目标特征描述单元:以提取到的边缘为目标,采用C-HOG算子描述目标特征,获得每帧图像的目标特征集;
所述以提取到的边缘为目标,采用C-HOG算子描述目标特征是指:
对分割后的区域做Sobel边缘检测,依次以边缘像素为中心,取3*3的像素矩阵,用C-HOG算子描述各像素矩阵的梯度幅值g和角度θ,以各像素矩阵的角度区间为横轴,区间内平均幅值为纵轴做方向梯度直方图,将所有的梯度分布直方图累加并归一化,得到目标的C-HOG特征向量,并以C-HOG特征向量的模作为归一化后的特征向量,表示目标特征;
目标特征预测单元:根据传感器得到目标的位移变化,计算目标在帧间的像素偏移量,结合前一帧图像目标特征集中目标所在区域的边界坐标,得到当前帧目标预测位置并进行分割,重复调用边缘提取单元和目标特征描述单元,预测当前帧图像的目标特征集;
目标跟踪单元:将当前帧预测得到的目标特征集与前一帧目标特征集进行比较,若两者比值大于设定跟踪阈值上限或小于设定跟踪阈值下限,则重新采集图像进行追踪,反之,选下一帧图像重复目标特征预测单元。
8.一种可读存储介质,包括计算机程序指令,其特征在于:所述计算机程序指令被处理终端执行时使所述处理终端执行权利要求1至6任一项所述的方法。
CN202110740129.6A 2021-06-30 2021-06-30 一种基于特征集的多目标追踪方法、装置及介质 Active CN113470063B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110740129.6A CN113470063B (zh) 2021-06-30 2021-06-30 一种基于特征集的多目标追踪方法、装置及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110740129.6A CN113470063B (zh) 2021-06-30 2021-06-30 一种基于特征集的多目标追踪方法、装置及介质

Publications (2)

Publication Number Publication Date
CN113470063A CN113470063A (zh) 2021-10-01
CN113470063B true CN113470063B (zh) 2022-05-10

Family

ID=77876797

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110740129.6A Active CN113470063B (zh) 2021-06-30 2021-06-30 一种基于特征集的多目标追踪方法、装置及介质

Country Status (1)

Country Link
CN (1) CN113470063B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115082509B (zh) * 2022-08-22 2022-11-04 成都大公博创信息技术有限公司 一种对无特征目标的追踪方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7801330B2 (en) * 2005-06-24 2010-09-21 Objectvideo, Inc. Target detection and tracking from video streams
CN106204643A (zh) * 2016-07-01 2016-12-07 湖南源信光电科技有限公司 基于多特征联合与Mean Shift算法的多目标跟踪方法
CN107798272B (zh) * 2016-08-30 2021-11-02 佳能株式会社 快速多目标检测与跟踪系统
CN113012192A (zh) * 2021-03-22 2021-06-22 河海大学 基于全景分割多目标追踪的视频全量分割计数方法

Also Published As

Publication number Publication date
CN113470063A (zh) 2021-10-01

Similar Documents

Publication Publication Date Title
CN104282020B (zh) 一种基于目标运动轨迹的车辆速度检测方法
CN110033431B (zh) 钢桥表面锈蚀区域检测的非接触式检测装置及检测方法
CN108229475B (zh) 车辆跟踪方法、系统、计算机设备及可读存储介质
CN107452015B (zh) 一种具有重检测机制的目标跟踪系统
CN111681259B (zh) 基于无Anchor机制检测网络的车辆跟踪模型建立方法
CN114627052A (zh) 一种基于深度学习的红外图像漏气漏液检测方法及系统
CN113449606B (zh) 一种目标对象识别方法、装置、计算机设备及存储介质
CN111178193A (zh) 一种车道线的检测方法、检测装置及计算机可读存储介质
CN113470063B (zh) 一种基于特征集的多目标追踪方法、装置及介质
CN109255799B (zh) 一种基于空间自适应相关滤波器的目标跟踪方法及系统
CN112364865A (zh) 一种复杂场景中运动小目标的检测方法
CN116416268A (zh) 基于递归二分法的锂电池极片边缘位置检测方法及装置
CN111028263A (zh) 一种基于光流颜色聚类的运动物体分割方法及其系统
CN114862913A (zh) 基于人工智能网络的机器视觉目标定位方法
CN113205494B (zh) 基于自适应尺度图像块加权差测量的红外小目标检测方法和系统
CN116777956A (zh) 基于多尺度航迹管理的运动目标筛选方法
CN110310303B (zh) 图像分析多目标跟踪方法
CN115760695A (zh) 基于深度视觉模型的图像异常识别方法
CN112784828B (zh) 基于方向梯度直方图的图像检测方法、装置、计算机设备
CN112348853B (zh) 基于红外显著性特征融合的粒子滤波跟踪的方法
CN105930813B (zh) 一种在任意自然场景下检测行文本的方法
CN111583341B (zh) 云台像机移位检测方法
CN111161304A (zh) 一种快速背景估计的遥感视频目标轨迹跟踪方法
CN112819820B (zh) 一种基于机器视觉的路面沥青修补检测方法
CN111476821B (zh) 基于在线学习的目标跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant