CN108509861B - 一种基于样本学习和目标检测结合的目标跟踪方法和装置 - Google Patents

一种基于样本学习和目标检测结合的目标跟踪方法和装置 Download PDF

Info

Publication number
CN108509861B
CN108509861B CN201810193833.2A CN201810193833A CN108509861B CN 108509861 B CN108509861 B CN 108509861B CN 201810193833 A CN201810193833 A CN 201810193833A CN 108509861 B CN108509861 B CN 108509861B
Authority
CN
China
Prior art keywords
sample
center
target
classifier
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201810193833.2A
Other languages
English (en)
Other versions
CN108509861A (zh
Inventor
许化强
万洪林
白成杰
李奇林
高鉴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Normal University
Original Assignee
Shandong Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong Normal University filed Critical Shandong Normal University
Priority to CN201810193833.2A priority Critical patent/CN108509861B/zh
Publication of CN108509861A publication Critical patent/CN108509861A/zh
Application granted granted Critical
Publication of CN108509861B publication Critical patent/CN108509861B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24147Distances to closest patterns, e.g. nearest neighbour classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于样本学习和目标检测结合的目标跟踪方法和装置,读取视频序列,将视频序列中当前视频帧转化为灰度图像;采用Lucas‑Kanade光流法跟踪灰度图像中的目标;检测当前视频帧中目标,获取正确的样本区域中心集合;对正确的样本区域中心集合进行一致性检查,得到小于设定距离阈值的样本区域集合,并进行正负样本学习;计算正负样本学习得到的样本区域集合中每个样本区域与目标跟踪获得的跟踪结果的面积重叠百分比,并计算重叠百分比超过50%的样本区域所在中心的均值,得到跟踪结果。本发明以目标跟踪算法作为基础框架,引入HOG特征和SVM分类器,解决了行人跟踪中的诸多问题,达到更好的跟踪效果。

Description

一种基于样本学习和目标检测结合的目标跟踪方法和装置
技术领域
本发明涉及视频图像处理技术领域,具体涉及一种基于样本学习和目标检测结合的适合对视频行人进行长时间稳定的目标跟踪方法和装置。
背景技术
行人跟踪作为视频图像处理的一个重要研究方向,对后期的人体运动信息提取、处理、理解,环境信息三维立体重建等,具有先导作用,也被用作行人识别的辅助方法,其用途广泛。目前比较成熟的行人跟踪算法从技术角度主要分为两类:第一类是传统的经典跟踪算法,包括基于点的跟踪、基于统计的跟踪、基于轮廓的跟踪等,这类方法所建立的数学模型相对简单,运用单纯的目标跟踪理论,技术已经比较成熟,实际应用已经非常广泛;第二类是综合跟踪算法,包括基于机器学习的跟踪算法和目标检测与跟踪综合算法等,这一类算法综合运用了机器学习、检测、识别等多种手段,已经不再是单纯的目标跟踪,在提高跟踪效果的同时,对运算速度较为敏感,算法复杂度方面也有待进一步改进。
目前,在国内外有众多机构都在进行行人跟踪方向的研究。Kalal等提出了多种视频跟踪算法,包括TLD方法、在线检测方法、错误目标自动检测方法和boosting方法;AlbertoBroggi在其主导的ARGO项目中采用了一种基于外形的行人跟踪方法,该算法首先根据人体左右对称的特点,收集目标行人在垂直方向上边缘对称、外貌和尺寸比例等特征,在图像中找到感兴趣的候选区域,然后提取出垂直边缘,选取具有较高对称性的区域。美国麻省理工大学的M.Oren与C.Papageorgiou合作创建了Haar小波模板,并将其引入到行人跟踪领域中。Haar小波模板比较适合用于表示结构较为简单的物体,效果较好而且速度快,目前已经被广泛应用于行人跟踪过程中。Haar小波模板行人跟踪算法依靠其优异的特性,成为了行人跟踪的经典算法之一。Navneet Dalal和Bill Triggs使用梯度方向直方图(HOG)来表示人体特征,通过在INRIAPerson数据集中的测试,该方法成功率高,在行人方面有着很强的鲁棒性,特别是在道路行人跟踪的应用场景中,效果非常好。伊利诺伊大学的Niebles.J.C等人,采用将AdaBoost分类器级联的方法进行人体的识别,并将该算法引入到了行人跟踪的领域,使得行人跟踪的效果有了进一步提高。中国科学院自动化所谭铁牛等人对人体运动进行了图像分析,该方法的思路是利用机器视觉技术在视频流中检测、跟踪、识别行人,然后对目标行人的动作、行为等进行理解和描述,该方法主要应用在监控领域和基于姿态的身份识别中。通过实验,该算法不仅在对行人的跟踪和识别方面具有良好的特性,而且,更难能可贵的是其算法的时间复杂度也比其他类似算法要低。但是,当行人停止运动时,该算法会失效。西安交通大学郑南宁等通过稀疏Gabor滤波器提取目标行人的特征,然后使用这些特征来对SVM分类器进行训练。这种方法时间复杂度较高,难以达到实时处理的要求。上海交通大学的田广等人提出了一种coarse-to-fine的行人跟踪方法,先用一个训练好的形体整体分类器在图像中搜索和判别是否有行人,产生候选区域后,再使用各人体部位的局部分类器进一步确定候选区域中的行人。结果显示该方法能够在较为复杂的背景环境中跟踪行人,但是该算法的模型比较难构建,而且求解也比较复杂。
综上所述,现有技术中对于行人停止运动时,如何进行行人的跟踪和识别,算法时间复杂度较高,难以达到实时处理,在较为复杂的背景环境中跟踪行人,难构建算法模型,求解比较复杂的问题,尚缺乏有效的解决方案
发明内容
为了克服上述现有技术的不足,本发明提供了一种基于样本学习和目标检测结合的适合对视频行人进行长时间稳定的目标跟踪方法和装置,以TLD目标跟踪算法作为基础框架,引入HOG特征和SVM分类器,解决了现有跟踪算法求解复杂,难以达到实时处理的问题,实现了对视频目标的实时准确跟踪。
本发明所采用的技术方案是:
一种基于样本学习和目标检测结合的目标跟踪方法,该方法包括以下步骤:
步骤1:读取视频序列,将视频序列中当前视频帧转化为灰度图像;
步骤2:采用Lucas-Kanade光流法跟踪灰度图像中的目标;
步骤3:检测当前视频帧中目标,获取正确的样本区域中心集合;
步骤4:对正确的样本区域中心集合进行一致性检查,得到小于设定距离阈值的样本区域集合,并进行正负样本学习;
步骤5:计算步骤4得到的样本区域集合中每个样本区域与步骤2获得的跟踪结果的面积重叠百分比,并计算重叠百分比超过50%的样本区域所在中心的均值,得到跟踪结果。
进一步的,所述检测当前视频帧的采样区域,包括:
初始化采样网格、方差分类器和SVM分类器;
训练方差分类器、集合分类器、最近分类器和SVM分类器。
进一步的,所述初始化采样网格、方差分类器和SVM分类器,包括:
初始化采样网格,确定在当前视频帧中采样区域的中心点坐标及采样区域的宽和高;
初始化方差分类器,得到方差分类器阈值;
初始化SVM分类器,将SVM分类器的核函数设定为SVM分类器的径向基函数。
进一步的,所述训练方差分类器、集合分类器、最近分类器和SVM分类器的方法为:
比较采样区域集合中每个采样区域中心点和上一视频帧的目标的欧氏距离与设定的欧式距离阈值的大小,获取正样本中心集合和负样本中心集合;
将正样本中心集合和负样本中心集合分别输入SVM分类器的径向基函数,计算分类超平面;
计算正样本中心集合中每个正样本对应区域的方差,将方差大于方差分类器阈值的区域的中心作为第一正样本中心;
利用随机四叉树模型对第一正样本中心对应的区域进行分类,将分类后的正样本对应的区域中心作为第二正样本中心;
将第二正样本中心对应的区域进行近邻聚类,将聚类结果中与上一帧检测到的跟踪目标相似程度最高的区域的中心为第三样本中心;
提取第三样本中心对应区域的梯度直方图特征,计算最优超平面作为决策函数,对SVM分类器进行训练;
通过训练后的SVM分类器对第三样本中心进行分类,得到正确的样本区域中心集合。
进一步的,所述获取正样本中心集合和负样本中心集合的方法为:
比较当前视频帧的采样区域集合中每个采样区域中心点与上一视频帧中的目标所在区域的欧氏距离与距离阈值的大小;
若采样区域中心点与上一视频帧中的目标所在区域的欧氏距离小于或等于距离阈值,则该采样距离中心为正样本,建立正样本中心集合;
若采样区域中心点与上一视频帧中的目标所在区域的欧氏距离大于距离阈值,则该采样距离中心为负样本,建立负样本中心集合。
进一步的,所述对正确的样本区域中心集合进行一致性检查,得到小于设定距离阈值的样本区域集合,并进行正负样本学习,包括:
比较正确的样本区域中心集合中每个样本区域和当前视频帧中的目标所在区域的距离与设定的距离阈值的大小,从正确的样本区域中心集合中搜索距离小于设定的距离阈值的样本区域;
将搜索到的样本区域加入正样本集合;
将负样本中心集合加入负样本集合;
利用正样本集合和负样本集合重新计算随机四叉树模型;
利用正样本集合和负样本集合重新训练SVM分类器的径向基函数。
进一步的,若正确的样本区域中心集合中每个样本区域和当前视频帧中的目标所在区域的距离均不小于设定的距离阈值,则返回步骤1,重新读取当前视频帧。
一种基于学习和检测结合的视频行人跟踪装置,该装置包括:
视频序列输入模块,用于读取视频序列,将视频序列中当前视频帧转化为灰度图像;
目标跟踪模块,用于采用Lucas-Kanade光流法跟踪灰度图像中的目标
目标检测模块,检测当前视频帧中目标,获取正确的样本区域中心集合;
正负样本学习模块,用于对正确的样本区域中心集合进行一致性检查,得到小于设定距离阈值的样本区域集合,并进行正负样本学习;
综合处理模块,用于计算正负样本学习模块得到的样本区域集合中每个样本区域与目标跟踪模块获得的跟踪结果的面积重叠百分比,并计算重叠百分比超过50%的样本区域所在中心的均值,得到跟踪结果。
跟踪结果输出模块,用于输出跟踪结果。
与现有技术相比,本发明的有益效果是:
(1)本发明以目标跟踪算法给基础框架,采用Lucas-Kanade光流法对目标进行跟踪,引入梯度直方图特征和SVM分类器,解决了现有跟踪算法求解复杂,难以达到实时处理的问题,实现了对视频目标的实时准确跟踪;
(2)本发明采用方差分类器、集合分类器、最近邻分类器和SVM分类器进行目标检测,并分别对集合分类器、最近邻分类器和SVM分类器进行训练,时间复杂度较低,能够达到实时处理的要求;
(3)本发明对目标检测结果进行一致性检查,并进行正样本学习和负样本学习,能够改善目标跟踪算法求解的复杂度,将视频目标检测、跟踪和学习相结合,实现对视频行人进行长时间稳定的目标跟踪。
附图说明
构成本申请的一部分的说明书附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。
图1是本发明实施例公开的基于样本学习和目标检测结合的目标跟踪方法流程图;
图2是基于样本学习和目标检测结合的目标跟踪方法的使用效果。
具体实施方式
下面结合附图与实施例对本发明作进一步说明。
应该指出,以下详细说明都是例示性的,旨在对本申请提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
正如背景技术所介绍的,现有技术中存在对于行人停止运动时,无法进行行人的跟踪和识别,算法时间复杂度较高,难以达到实时处理,在较为复杂的背景环境中跟踪行人,难构建算法模型,求解比较复杂的不足,为了解决如上的技术问题,本申请提出了一种基于学习和检测结合的目标跟踪方法和装置。
本申请的一种典型的实施方式中,如图1所示,提供了一种基于学习和检测结合的目标跟踪方法,该方法包括以下步骤:
步骤1:视频序列输入
读取当前视频帧f(n),f(n)表示当前视频帧,n表示当前视频帧序号,即第n帧即为当前帧。将当前视频帧f(n)转化为灰度图像fg(n),fg(n)表示当前视频帧f(n)的灰度图像。令f(n-1)表示第n-1视频帧,fg(n-1)表示将f(n-1)转化为灰度图像后得到的结果。
步骤2:目标跟踪
本发明采用Lucas-Kanade光流法实现目标跟踪。令fg(n-1)中的目标表示为[xn-1,yn-1,wn-1,hn-1],通过Lucas-Kanade光流法确定的目标表示为[xn,yn,wn,hn],其中(xn-1,yn-1)表示第n-1视频帧中目标所在区域的左上角坐标,wn-1和hn-1分别表示第n-1视频帧中目标所在区域的宽和高;(xn,yn)表示第n视频帧中目标所在区域的左上角坐标,wn和hn分别表示第n视频帧中目标所在区域的宽和高。
步骤3:目标检测
步骤3.1:初始化采样网格、方差分类器和SVM分类器
初始化采样网格。首先确定在当前视频帧中采样区域的中心点坐标及采样区域的宽和高。令sample_Step表示采样步长,sample_w和sample_h分别表示采样区域的宽和高,则采样区域的中心点坐标是
Figure BDA0001592484570000061
其中
kx={1,2,…,sample_w/sample_Step},
ky={1,2,…,sample_h/sample_Step},
sample_Point表示采样区域的集合,
Figure BDA0001592484570000062
Figure BDA0001592484570000063
分别表示采样区域;sample_Point(kx,ky)表示中心点的横坐标和纵坐标,kx,ky分别表示水平和垂直方向的采样序号。
初始化方差分类器。令方差分类器阈值用var_Thres表示。
初始化SVM分类器。将该SVM分类器的核函数设定为径向基函数,即
Figure BDA0001592484570000064
其中K(fx,fy)表示径向基函数,fx和fy表示两个特征矢量,d表示参数。
步骤3.2:检测器训练
步骤3.2.1:获取正负样本
对于采样区域集合sample_Point中的每个采样区域,按照每个区域中心点与(xn -1,yn-1)距离的远近,分为正样本和负样本。令距离阈值用dist_Thres表示,那么
sample_PositivePoint=sample_Point(kx,ky),
if dis(sample_Point(kx,ky),(xn-1,yn-1))≤dist_Thres (3)
其中sample_PositivePoint表示正样本所在区域中心的集合,dis(sample_Point((kx,ky),(xn-1,yn-1))表示sample_Point(kx,ky)与(xn-1,yn-1)之间的欧氏距离。同样,对于负样本,有
sample_NegtivePoint=sample_Point(kx,ky),
if dis(sample_Point(kx,ky),(xn-1,yn-1))>dist_Thres (4)
其中sample_NegtivePoint表示负样本所在区域中心的集合。
步骤3.2.2:训练径向基函数
将正样本中心集合sample_PositivePoint和负样本中心集合sample_NegtivePoint分别输入SVM分类器的径向基函数,计算分类超平面,并令该分类超平面用class_Plane表示。
步骤3.2.3:正样本通过方差分类器
计算sample_PositivePoint中每个正样本对应区域的方差,将其中方差大于var_Thres的区域的中心表示为sample_PositivePoint_1。
步骤3.2.4:正样本通过集合分类器
利用随机四叉树模型对正样本中心sample_PositivePoint_1对应的区域进行分类,得到的被分类为正样本的对应的区域中心被表示为sample_PositivePoint_2。
步骤3.2.5:正样本通过近邻分类器
将正样本sample_PositivePoint_2对应的区域进行近邻聚类,聚类结果中与上一帧检测到的跟踪目标Objn-1相似程度高的区域被表示为sample_PositivePoint_3,其中Objn-1表示n-1帧的输出结果。
步骤3.2.6:训练SVM分类器
提取sample_PositivePoint_3对应区域的HOG(histogram of gradient,即梯度直方图)特征,计算最优超平面作为决策函数,对SVM分类器进行训练。
步骤3.2.7:正样本通过SVM分类器
将sample_PositivePoint_3通过在步骤3.2.6中训练的SVM分类器,被分类为正确的样本区域的中心用sample_PositivePoint_out表示。
步骤4:正负样本学习
步骤4.1:一致性检查
在sample_PositivePoint_out中搜索与(xn,yn)对应区域距离小于near_Thres的样本区域,并将这些样本区域表示为sample_out_1,near_Thres表示设置的距离阈值。若满足上述条件的样本区域不存在,则执行步骤1。
步骤4.2:正样本学习(P专家)
将sample_out_1加入正样本集合sample_PositiveSet,sample_PositiveSet表示存储的正样本集合。
步骤4.3:负样本学习(N专家)
将sample_NegtivePoint加入负样本集合sample_NegtiveSet,sample_NegtiveSet表示存储的负样本集合。
步骤4.4:更新集合分类器
利用sample_PositiveSet和sample_NegtiveSet重新计算随机四叉树模型。
步骤4.5:更新SVM分类器
利用sample_PositiveSet和sample_NegtiveSet重新训练如(2)式所示的径向基函数。
步骤5:综合
步骤5.1:计算sample_out_1对应区域中每个区域与步骤2获得的跟踪结果[xn,yn,wn,hn]的面积重叠百分比,超过50%的区域所在中心用sample_Conf_1表示
步骤5.2:计算sample_Conf_1的均值,用(xout,yout)表示,其中xout表示均值的横坐标,yout表示均值的纵坐标。
步骤6:跟踪结果输出
输出[xout,yout,w,h]作为跟踪结果,同时返回步骤1。
本发明将视频目标检测、跟踪和学习相结合,实现了一种适合对视频行人进行长时间稳定的目标跟踪方法。
本发明的使用效果如图2所示,视频帧按时间先后从左到右、从上到下顺序排列。在该实验中,将视频序列输入,通过计算机交互设备,人工设定跟踪目标区域;然后装置自动实现对目标的跟踪,跟踪结果通过矩形框标识。实验结果可以看出,通过本发明得到的目标区域(白色矩形框)能够准确捕捉目标位置,并能够适应目标所处背景及景深的变化。
本申请的另一典型实施方式中,提供了一种基于学习和检测结合的目标跟踪装置,该装置包括:
视频序列输入模块,用于读取视频序列,将视频序列中当前视频帧转化为灰度图像;
目标跟踪模块,用于采用Lucas-Kanade光流法跟踪灰度图像中的目标
目标检测模块,检测当前视频帧中目标,获取正确的样本区域中心集合;
正负样本学习模块,用于对正确的样本区域中心集合进行一致性检查,得到小于设定距离阈值的样本区域集合,并进行正负样本学习;
综合处理模块,用于计算正负样本学习模块得到的样本区域集合中每个样本区域与目标跟踪模块获得的跟踪结果的面积重叠百分比,并计算重叠百分比超过50%的样本区域所在中心的均值,得到跟踪结果。
跟踪结果输出模块,用于输出跟踪结果。
上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制,所属领域技术人员应该明白,在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。

Claims (6)

1.一种基于样本学习和目标检测结合的目标跟踪方法,其特征是,包括以下步骤:
步骤1:读取视频序列,将视频序列中当前视频帧转化为灰度图像;
步骤2:采用Lucas-Kanade光流法跟踪灰度图像中的目标;
步骤3:检测当前视频帧中目标,获取正确的样本区域中心集合;
步骤4:对正确的样本区域中心集合进行一致性检查,得到小于设定距离阈值的样本区域集合,并进行正负样本学习;
步骤5:计算步骤4得到的样本区域集合中每个样本区域与步骤2获得的跟踪结果的面积重叠百分比,并计算重叠百分比超过50%的样本区域所在中心的均值,得到跟踪结果;
所述检测当前视频帧中目标,获取正确的样本区域中心集合,包括:
初始化采样网格、方差分类器和SVM分类器;
训练方差分类器、集合分类器、最近分类器和SVM分类器;
所述训练方差分类器、集合分类器、最近分类器和SVM分类器的方法为:
比较采样区域集合中每个采样区域中心点和上一视频帧的目标的欧氏距离与设定的欧式距离阈值的大小,获取正样本中心集合和负样本中心集合;
将正样本中心集合和负样本中心集合分别输入SVM分类器的径向基函数,计算分类超平面;
计算正样本中心集合中每个正样本对应区域的方差,将方差大于方差分类器阈值的区域的中心作为第一正样本中心;
利用随机四叉树模型对第一正样本中心对应的区域进行分类,将分类后的正样本对应的区域中心作为第二正样本中心;
将第二正样本中心对应的区域进行近邻聚类,将聚类结果中与上一帧检测到的跟踪目标相似程度最高的区域的中心为第三样本中心;
提取第三样本中心对应区域的梯度直方图特征,计算最优超平面作为决策函数,对SVM分类器进行训练;
通过训练后的SVM分类器对第三样本中心进行分类,得到正确的样本区域中心集合。
2.根据权利要求1所述的基于样本学习和目标检测结合的目标跟踪方法,其特征是,所述初始化采样网格、方差分类器和SVM分类器,包括:
初始化采样网格,确定在当前视频帧中采样区域的中心点坐标及采样区域的宽和高;
初始化方差分类器,得到方差分类器阈值;
初始化SVM分类器,将SVM分类器的核函数设定为SVM分类器的径向基函数。
3.根据权利要求1所述的基于样本学习和目标检测结合的目标跟踪方法,其特征是,所述获取正样本中心集合和负样本中心集合的方法为:
比较当前视频帧的采样区域集合中每个采样区域中心点与上一视频帧中的目标所在区域的欧氏距离与距离阈值的大小;
若采样区域中心点与上一视频帧中的目标所在区域的欧氏距离小于或等于距离阈值,则该采样区域中心为正样本,建立正样本中心集合;
若采样区域中心点与上一视频帧中的目标所在区域的欧氏距离大于距离阈值,则该采样区域中心为负样本,建立负样本中心集合。
4.根据权利要求1所述的基于样本学习和目标检测结合的目标跟踪方法,其特征是,所述对正确的样本区域中心集合进行一致性检查,得到小于设定距离阈值的样本区域集合,并进行正负样本学习,包括:
比较正确的样本区域中心集合中每个样本区域和当前视频帧中的目标所在区域的距离与设定的距离阈值的大小,从正确的样本区域中心集合中搜索距离小于设定的距离阈值的样本区域;
将搜索到的样本区域加入正样本集合;
将负样本中心集合加入负样本集合;
利用正样本集合和负样本集合重新计算随机四叉树模型;
利用正样本集合和负样本集合重新训练SVM分类器的径向基函数。
5.根据权利要求4所述的基于样本学习和目标检测结合的目标跟踪方法,其特征是,若正确的样本区域中心集合中每个样本区域和当前视频帧中的目标所在区域的距离均不小于设定的距离阈值,则返回步骤1,重新读取当前视频帧。
6.一种基于样本学习和目标检测结合的目标跟踪装置,其特征是,包括:
视频序列输入模块,用于读取视频序列,将视频序列中当前视频帧转化为灰度图像;
目标跟踪模块,用于采用Lucas-Kanade光流法跟踪灰度图像中的目标
目标检测模块,检测当前视频帧中目标,获取正确的样本区域中心集合;
正负样本学习模块,用于对正确的样本区域中心集合进行一致性检查,得到小于设定距离阈值的样本区域集合,并进行正负样本学习;
综合处理模块,用于计算正负样本学习模块得到的样本区域集合中每个样本区域与目标跟踪模块获得的跟踪结果的面积重叠百分比,并计算重叠百分比超过50%的样本区域所在中心的均值,得到跟踪结果;
跟踪结果输出模块,用于输出跟踪结果;
所述检测当前视频帧中目标,获取正确的样本区域中心集合,包括:
初始化采样网格、方差分类器和SVM分类器;
训练方差分类器、集合分类器、最近分类器和SVM分类器;
所述训练方差分类器、集合分类器、最近分类器和SVM分类器的方法为:
比较采样区域集合中每个采样区域中心点和上一视频帧的目标的欧氏距离与设定的欧式距离阈值的大小,获取正样本中心集合和负样本中心集合;
将正样本中心集合和负样本中心集合分别输入SVM分类器的径向基函数,计算分类超平面;
计算正样本中心集合中每个正样本对应区域的方差,将方差大于方差分类器阈值的区域的中心作为第一正样本中心;
利用随机四叉树模型对第一正样本中心对应的区域进行分类,将分类后的正样本对应的区域中心作为第二正样本中心;
将第二正样本中心对应的区域进行近邻聚类,将聚类结果中与上一帧检测到的跟踪目标相似程度最高的区域的中心为第三样本中心;
提取第三样本中心对应区域的梯度直方图特征,计算最优超平面作为决策函数,对SVM分类器进行训练;
通过训练后的SVM分类器对第三样本中心进行分类,得到正确的样本区域中心集合。
CN201810193833.2A 2018-03-09 2018-03-09 一种基于样本学习和目标检测结合的目标跟踪方法和装置 Expired - Fee Related CN108509861B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810193833.2A CN108509861B (zh) 2018-03-09 2018-03-09 一种基于样本学习和目标检测结合的目标跟踪方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810193833.2A CN108509861B (zh) 2018-03-09 2018-03-09 一种基于样本学习和目标检测结合的目标跟踪方法和装置

Publications (2)

Publication Number Publication Date
CN108509861A CN108509861A (zh) 2018-09-07
CN108509861B true CN108509861B (zh) 2020-06-30

Family

ID=63377129

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810193833.2A Expired - Fee Related CN108509861B (zh) 2018-03-09 2018-03-09 一种基于样本学习和目标检测结合的目标跟踪方法和装置

Country Status (1)

Country Link
CN (1) CN108509861B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109389048B (zh) * 2018-09-13 2022-03-25 华南理工大学 一种监控视频中的行人检测与跟踪方法
CN109670532B (zh) * 2018-11-23 2022-12-09 腾讯医疗健康(深圳)有限公司 生物体器官组织图像的异常识别方法、装置及系统
CN111401229B (zh) * 2020-03-13 2023-09-19 中科创达软件股份有限公司 视觉小目标自动标注方法、装置及电子设备
CN111914653B (zh) * 2020-07-02 2023-11-07 泰康保险集团股份有限公司 一种人员标记方法和装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105825168A (zh) * 2016-02-02 2016-08-03 西北大学 一种基于s-tld的川金丝猴面部检测和追踪算法
CN107392210A (zh) * 2017-07-12 2017-11-24 中国科学院光电技术研究所 一种基于tld算法的目标检测跟踪方法
CN107423702A (zh) * 2017-07-20 2017-12-01 西安电子科技大学 基于tld跟踪系统的视频目标跟踪方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105825168A (zh) * 2016-02-02 2016-08-03 西北大学 一种基于s-tld的川金丝猴面部检测和追踪算法
CN107392210A (zh) * 2017-07-12 2017-11-24 中国科学院光电技术研究所 一种基于tld算法的目标检测跟踪方法
CN107423702A (zh) * 2017-07-20 2017-12-01 西安电子科技大学 基于tld跟踪系统的视频目标跟踪方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Application of design of image tracking by combining SURF and TLD and SVM-based posture recognition system in robbery pre-alert system;Pai, Neng-Sheng et al.;《MULTIMEDIA TOOLS AND APPLICATIONS》;20171231;第76卷(第23期);第25321-25342页 *
基于支持向量机优化的行人跟踪学习检测方法;孙炜 等;《湖南大学学报(自然科学版)》;20161025;第43卷(第10期);第109页 *
基于改进的TLD目标跟踪算法研究;王明晓;《中国优秀硕士学位论文全文数据库 信息科技辑》;20170515;第2017年卷(第5期);正文第30-37页 *
运动目标跟踪系统的设计与实现;陈晨;《中国优秀硕士学位论文全文数据库 信息科技辑》;20140915;第2014年卷(第9期);正文第27-30页 *

Also Published As

Publication number Publication date
CN108509861A (zh) 2018-09-07

Similar Documents

Publication Publication Date Title
Chen et al. Fast human detection using a novel boosted cascading structure with meta stages
Dollár et al. Integral channel features.
US8948454B2 (en) Boosting object detection performance in videos
Mahadevan et al. Saliency-based discriminant tracking
CN108509861B (zh) 一种基于样本学习和目标检测结合的目标跟踪方法和装置
Enzweiler et al. Monocular pedestrian detection: Survey and experiments
Liu et al. Robust and fast pedestrian detection method for far-infrared automotive driving assistance systems
Molina-Moreno et al. Efficient scale-adaptive license plate detection system
Redondo-Cabrera et al. All together now: Simultaneous object detection and continuous pose estimation using a hough forest with probabilistic locally enhanced voting
Fraz et al. Mid-level-representation based lexicon for vehicle make and model recognition
He et al. Scale space histogram of oriented gradients for human detection
Zhao et al. Real-time moving pedestrian detection using contour features
Li et al. Learning cascaded shared-boost classifiers for part-based object detection
Htike et al. Adapting pedestrian detectors to new domains: a comprehensive review
Najibi et al. Towards the success rate of one: Real-time unconstrained salient object detection
Wang et al. Action recognition based on object tracking and dense trajectories
CN110555406B (zh) 一种基于Haar-like特征及CNN匹配的视频运动目标识别方法
CN103984965A (zh) 基于多分辨率特征关联的行人检测方法
Vural et al. Multi-view fast object detection by using extended haar filters in uncontrolled environments
Feris et al. Boosting object detection performance in crowded surveillance videos
Wali et al. Incremental learning approach for events detection from large video dataset
Cosma et al. Part-based pedestrian detection using HoG features and vertical symmetry
CN111898473B (zh) 一种基于深度学习的司机状态实时监测方法
Xu et al. Car detection using deformable part models with composite features
Zanwar et al. A comprehensive survey on soft computing based optical character recognition techniques

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20200630