CN112507859A - 一种用于移动机器人的视觉跟踪方法 - Google Patents

一种用于移动机器人的视觉跟踪方法 Download PDF

Info

Publication number
CN112507859A
CN112507859A CN202011409527.1A CN202011409527A CN112507859A CN 112507859 A CN112507859 A CN 112507859A CN 202011409527 A CN202011409527 A CN 202011409527A CN 112507859 A CN112507859 A CN 112507859A
Authority
CN
China
Prior art keywords
target
image
bbox
tracking
initial template
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011409527.1A
Other languages
English (en)
Other versions
CN112507859B (zh
Inventor
黄攀峰
李沅澔
马志强
董刚奇
余航
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN202011409527.1A priority Critical patent/CN112507859B/zh
Publication of CN112507859A publication Critical patent/CN112507859A/zh
Application granted granted Critical
Publication of CN112507859B publication Critical patent/CN112507859B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/48Matching video sequences

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明公开了一种用于移动机器人的视觉跟踪方法。该方法使用一种基于HOG特征相似性计算和卡尔曼滤波反馈的全连接孪生网络跟踪算法,利用基于颜色统计的HOG特征作为外观模型,进一步区分场景中的多个相似目标,减少目标的身份跳跃。同时采用卡尔曼滤波运动模型,实现了对目标运动轨迹的准确预测,在细化边界框的同时,减少了搜索区域,解决了目标跟踪过程中的目标遮挡问题,减少了计算量。最后将跟踪目标的边界框位置信息传输给视觉伺服系统用于控制机器人。本发明有效地减少了因搜索无用区域而产生的计算资源浪费。

Description

一种用于移动机器人的视觉跟踪方法
技术领域
本发明属于计算机视觉技术领域,具体涉及一种视觉跟踪方法。
背景技术
随着人工智能技术的快速发展,各种各样的机器人逐渐走进人们的日常生活,人们已将其视为能与环境、人类和其他机器人进行自然交互、自主适应复杂动态环境并协同作业的智能伙伴。相比于传统机器人,跟随移动机器人是未来的发展趋势,它作为服务机器人的一种,其功能主要体现在以特定的移动目标作为跟踪对象,自主完成连续的跟随动作,广泛应用于特殊人群辅助(老人、残疾人)、家庭服务以及无人化物流搬运等领域。同样,跟随移动机器人越来越多的应用于军事领域和警务巡逻等任务中。自1990以来,移动机器人自动巡逻任务一直是人工智能(AI)和机器人学研究的一个热门领域,例如军方或者警方通过移动机器人对可疑目标进行持续监视和跟随任务,以防止一些犯罪行为的发生,这极大的保障了社会的安全性。
视觉信息作为最丰富的目标信息来源,它如同人体的视觉系统一样,能够直观、真实地感知机器人周围的环境状况。因而目前大多数跟随移动机器人的研究都是基于视觉传感器来实现。一个可靠的机器人监视跟踪系统的前提是基于强大的目标视觉跟踪方法。依据网络结构差异将现有的跟踪算法分为基于相关滤波的跟踪算法和基于深度学习的跟踪算法。基于相关滤波算法的引进使得目标跟踪算法产生了巨大的改善,因其具有速度快、实时性好的优点,一直受到人们的关注。然而它的缺点在于边界效应问题,会限制训练得到的滤波器的判别能力,并且在跟踪过程中当目标被遮挡时的处理问题没有进行很好的解决。基于深度学习的目标跟踪算法将每一帧图像分为目标和背景两类,利用深度卷积网络对目标进行特征提取、分类,该算法的特点是精准度高,针对复杂场景表现优越。然而在实际任务中通常只提供了视频序列的初始帧作为训练数据,因此如何在只有少量数据的前提下进行训练是首要问题。
发明内容
为了克服现有技术的不足,本发明提供了一种用于移动机器人的视觉跟踪方法。该方法使用一种基于HOG特征相似性计算和卡尔曼滤波反馈的全连接孪生网络跟踪算法,利用基于颜色统计的HOG特征作为外观模型,进一步区分场景中的多个相似目标,减少目标的身份跳跃。同时采用卡尔曼滤波运动模型,实现了对目标运动轨迹的准确预测,在细化边界框的同时,减少了搜索区域,解决了目标跟踪过程中的目标遮挡问题,减少了计算量。最后将跟踪目标的边界框位置信息传输给视觉伺服系统用于控制机器人。本发明有效地减少了因搜索无用区域而产生的计算资源浪费。
本发明解决其技术问题所采用的技术方案包括以下步骤:
步骤1:构建基于HOG特征的相似性计算方法;
将基于颜色统计的HOG特征作为外观模型加入到SiamFC跟踪框架中,具体如下:
设定x为目标人物的初始模板图像,z为下一时间段帧摄像头实时拍摄的一组图像,z≥2;
采用SiamFC跟踪框架判断初始模板图像x和图像组z之间的相似性,保留SiamFC跟踪框架输出响应图中大于设定阈值的高分区域图像,记为y;
对初始模板图像和高分区域图像提取HOG特征向量,利用Pearson相关系数建立初始模板图像与高分区域图像之间的相似性对比:
Figure BDA0002818575830000021
其中
Figure BDA0002818575830000022
Figure BDA0002818575830000023
是初始模板图像x和高分区域图像y的期望值,xj和yj分别表示初始模板图像与高分区域图像的HOG特征向量,N为高分区域图像数量;
Pearsonx,y值在区间[-1,1]内,当Pearsonx,y大于高阈值H时表示初始模板图像与高分区域图像为高相似性;在某一时刻t,如果Pearsonx,y小于低阈值L,则将t-1时刻的实时目标图像作为新的初始模板图像;
步骤2:将连续N幅高分区域图像中的目标边界框信息输入卡尔曼滤波器,输入表示为Tt=[bboxt-(N-1),bboxt-(N-2),...,bboxt],卡尔曼滤波器的输出为bbox*,将bbox*作为t+1时刻目标的位置估计,并更新bbox位置;bboxt-(N-1),bboxt-(N-2),...,bboxt表示连续N幅高分区域图像中目标边界框信息;
根据目标位置和尺度分布原理,在当前帧中以更新后bbox的中心位置作为搜索区域的中心,提取出图像中目标矩形框大小的α倍作为新的待搜索区域;
步骤3:将步骤2获得的待搜索区域的坐标位置输入到移动机器人的视觉伺服系统中,完成基于图像的视觉伺服控制的目标跟踪。
优选地,所述H=0.7,L=0.3。
由于采用了本发明提出的一种用于移动机器人的视觉跟踪方法,带来了如下有益效果:
1.跟踪算法的本质是一个模板匹配的过程,当场景内存在多个相似目标时,响应图中会产生多个高分区域。本发明将HOG特征集成到SiamFC中,作为对SiamFC中多个相似区域进一步判别的依据,有效的解决了响应图中产生多个高分区域的误导。
2.本发明使用衰减记忆卡尔曼滤波器对目标运动信息进行建模,当目标被遮挡时保持跟踪器的稳定性,同时利用运动信息对待搜索区域进行裁剪,减少因搜索无用区域而产生的计算资源浪费。
附图说明
图1为本发明方法的移动机器人跟踪方案的整体架构图。
图2为本发明方法的网络整体架构图。
图3为本发明方法与改进前的方法在公开数据集上的性能对比。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
如图1和图2所示,本发明提供一种用于移动机器人的视觉跟踪方法,包括以下步骤:
步骤1:构建基于HOG特征的相似性计算方法;
将基于颜色统计的HOG特征作为外观模型加入到SiamFC跟踪框架中,具体如下:
设定x为目标人物的初始模板图像,z为下一时间段帧摄像头实时拍摄的一组图像,z≥2;
采用SiamFC跟踪框架判断初始模板图像x和图像组z之间的相似性,保留SiamFC跟踪框架输出响应图中大于设定阈值的高分区域图像,记为y;
对初始模板图像和高分区域图像提取HOG特征向量,利用Pearson相关系数建立初始模板图像与高分区域图像之间的相似性对比:
Figure BDA0002818575830000041
其中
Figure BDA0002818575830000042
Figure BDA0002818575830000043
是初始模板图像x和高分区域图像y的期望值,xj和yj分别表示初始模板图像与高分区域图像的HOG特征向量,N为高分区域图像数量;
Pearsonx,y值在区间[-1,1]内,当Pearsonx,y大于高阈值0.7时表示初始模板图像与高分区域图像为高相似性;在某一时刻t,如果Pearsonx,y小于低阈值0.3,则将t-1时刻的实时目标图像作为新的初始模板图像;
步骤2:将连续N幅高分区域图像中的目标边界框信息输入卡尔曼滤波器,输入表示为Tt=[bboxt-(N-1),bboxt-(N-2),...,bboxt],卡尔曼滤波器的输出为bbox*,将bbox*作为t+1时刻目标的位置估计,并更新bbox位置;bboxt-(N-1),bboxt-(N-2),...,bboxt表示连续N幅高分区域图像中目标边界框信息;
根据目标位置和尺度分布原理,在当前帧中以更新后bbox的中心位置作为搜索区域的中心,提取出图像中目标矩形框大小的α倍作为新的待搜索区域;
步骤3:将步骤2获得的待搜索区域的坐标位置输入到移动机器人的视觉伺服系统中,完成基于图像的视觉伺服控制的目标跟踪。
具体实施例:
1、设计一种基于HOG特征相似性计算的算法(HM-Siam),沿用通用的SiamFC的跟踪框架,即把跟踪任意目标的问题看成是相似性问题。使用一个函数f(x,y)来比较样本图像x和搜索图像y的相似性。如果两个图像描述的是同一个目标,则返回高分,否则返回低分。其中x为目标人物的初始模板图像,z为下一时刻帧摄像头实时拍摄的一组图像(z≥2)。但是SiamFC仅使用最后一层中的特征来生成最终的Score Map,这些特征对噪声具有鲁棒性,但缺乏目标的详细信息,因此它们的区分度还不够高。
目标的外观信息始终是表征一个目标的强有力的先验知识。因此,基于颜色统计的模型可以为视觉跟踪问题提供强大的信息,该模型提供的信息可以看作是先验信息,而该信息正是SiamFC所缺乏的。HOG特征作为一种强有力的外观信息可以有效区分不同的目标,将其集成到算法中,作为对SiamFC产生的多个相似区域进一步判别的依据,即对网路输出的响应图中的多个高分区域,分别提取HOG特征,然后将实时目标轨迹与初始目标进行匹配,从而提高跟踪方法的鲁棒性。利用该特征,可以跟踪长期遮挡的目标,有效地减少目标的身份跳变,提高目标跟踪的精度。在线目标跟踪时,在外观空间中,利用Pearson相关系数建立目标与轨迹之间的相似性对比。给定目标人物的RGB图像Ii,外观表示被表述为fi=HHOG(I)。直接利用HOG特征向量之间的Pearson相关系数来测量两幅图像Ii和Ij的距离。
Figure BDA0002818575830000051
其中
Figure BDA0002818575830000052
Figure BDA0002818575830000053
是图像x和y的期望值,xj和yj表示模板帧与当前帧的HOG特征序列。Pearsonx,y值在区间[-1,1]上,当值越接近1的时候,其评价结果越接近主观评价。设置阈值为0.7,当大于0.7时为高相似性。当相似性较低的时候,则认为目标进入了遮挡区域,当相似性较高的时候,则认为目标是正常运行过程中。当某一个时刻t,若HOG相似性指标突然变小至0.3以下时,则记录t-1时刻的目标作为模板对原有的模板进行更新。
2、当场景中出现与目标外观非常相似的干扰物时,再加上目标自身的旋转、形变、运动模糊等都会导致跟踪失败。本方法引入卡尔曼滤波方法,以对目标的运动轨迹进行稳定的预测,并且跟踪过程中的目标搜索区域可以根据卡尔曼滤波获得的目标位置进行裁剪。同时,还使用获取的运动信息来指导跟踪过程,以应对目标被遮挡的情况。卡尔曼滤波器将接受目标轨迹的边界框信息(长度为N帧)作为输入,表示为Tt=[bboxt-(N-1),bboxt -(N-2),...,bboxt]并输出bbox*,作为t+1时刻目标轨迹的位置估计,并更新bbox位置。然后根据视频中目标位置和尺度的分布原理,在当前帧中以更新后bbox的中心位置作为搜索区域的中心,提取出图像中目标矩形框大小的α倍作为的待搜索区域。
3、将新获得的待搜索区域,也就是目标的边界框的坐标位置输入到移动机器人的视觉伺服系统中,完成基于图像的视觉伺服控制的目标跟踪。
如图3所示,为本发明方法与改进前的方法在公开数据集上的性能对比,能够看出,本方法取得了较好的效果。

Claims (2)

1.一种用于移动机器人的视觉跟踪方法,其特征在于,包括以下步骤:
步骤1:构建基于HOG特征的相似性计算方法;
将基于颜色统计的HOG特征作为外观模型加入到SiamFC跟踪框架中,具体如下:
设定x为目标人物的初始模板图像,z为下一时间段帧摄像头实时拍摄的一组图像,z≥2;
采用SiamFC跟踪框架判断初始模板图像x和图像组z之间的相似性,保留SiamFC跟踪框架输出响应图中大于设定阈值的高分区域图像,记为y;
对初始模板图像和高分区域图像提取HOG特征向量,利用Pearson相关系数建立初始模板图像与高分区域图像之间的相似性对比:
Figure FDA0002818575820000011
其中
Figure FDA0002818575820000012
Figure FDA0002818575820000013
是初始模板图像x和高分区域图像y的期望值,xj和yj分别表示初始模板图像与高分区域图像的HOG特征向量,N为高分区域图像数量;
Pearsonx,y值在区间[-1,1]内,当Pearsonx,y大于高阈值H时表示初始模板图像与高分区域图像为高相似性;在某一时刻t,如果Pearsonx,y小于低阈值L,则将t-1时刻的实时目标图像作为新的初始模板图像;
步骤2:将连续N幅高分区域图像中的目标边界框信息输入卡尔曼滤波器,输入表示为Tt=[bboxt-(N-1),bboxt-(N-2),...,bboxt],卡尔曼滤波器的输出为bbox*,将bbox*作为t+1时刻目标的位置估计,并更新bbox位置;bboxt-(N-1),bboxt-(N-2),...,bboxt表示连续N幅高分区域图像中目标边界框信息;
根据目标位置和尺度分布原理,在当前帧中以更新后bbox的中心位置作为搜索区域的中心,提取出图像中目标矩形框大小的α倍作为新的待搜索区域;
步骤3:将步骤2获得的待搜索区域的坐标位置输入到移动机器人的视觉伺服系统中,完成基于图像的视觉伺服控制的目标跟踪。
2.根据权利要求1所述的一种用于移动机器人的视觉跟踪方法,其特征在于,所述H=0.7,L=0.3。
CN202011409527.1A 2020-12-05 2020-12-05 一种用于移动机器人的视觉跟踪方法 Active CN112507859B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011409527.1A CN112507859B (zh) 2020-12-05 2020-12-05 一种用于移动机器人的视觉跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011409527.1A CN112507859B (zh) 2020-12-05 2020-12-05 一种用于移动机器人的视觉跟踪方法

Publications (2)

Publication Number Publication Date
CN112507859A true CN112507859A (zh) 2021-03-16
CN112507859B CN112507859B (zh) 2024-01-12

Family

ID=74971781

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011409527.1A Active CN112507859B (zh) 2020-12-05 2020-12-05 一种用于移动机器人的视觉跟踪方法

Country Status (1)

Country Link
CN (1) CN112507859B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113033384A (zh) * 2021-03-23 2021-06-25 清华大学 一种轮椅冰壶运动状态检测和目标跟踪系统
CN114022520A (zh) * 2021-10-12 2022-02-08 山西大学 一种基于卡尔曼滤波与孪生网络的机器人目标跟踪方法
CN114353818A (zh) * 2021-12-31 2022-04-15 上海洛轲智能科技有限公司 目标对象跟随方法、装置、设备、介质和计算机程序产品
CN114353818B (zh) * 2021-12-31 2024-05-14 上海洛轲智能科技有限公司 目标对象跟随方法、装置、设备、介质和计算机程序产品

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103150737A (zh) * 2013-01-18 2013-06-12 西北工业大学 一种适用于空间绳系机器人的实时空间目标特征点跟踪方法
CN107507229A (zh) * 2017-07-13 2017-12-22 西北工业大学 一种基于均值飘移的机械臂实时跟踪方法
CN108734151A (zh) * 2018-06-14 2018-11-02 厦门大学 基于相关滤波以及深度孪生网络的鲁棒长程目标跟踪方法
US20190156123A1 (en) * 2017-11-23 2019-05-23 Institute For Information Industry Method, electronic device and non-transitory computer readable storage medium for image annotation
CN111951297A (zh) * 2020-08-31 2020-11-17 郑州轻工业大学 一种基于结构化逐像素目标注意机制的目标跟踪方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103150737A (zh) * 2013-01-18 2013-06-12 西北工业大学 一种适用于空间绳系机器人的实时空间目标特征点跟踪方法
CN107507229A (zh) * 2017-07-13 2017-12-22 西北工业大学 一种基于均值飘移的机械臂实时跟踪方法
US20190156123A1 (en) * 2017-11-23 2019-05-23 Institute For Information Industry Method, electronic device and non-transitory computer readable storage medium for image annotation
CN108734151A (zh) * 2018-06-14 2018-11-02 厦门大学 基于相关滤波以及深度孪生网络的鲁棒长程目标跟踪方法
CN111951297A (zh) * 2020-08-31 2020-11-17 郑州轻工业大学 一种基于结构化逐像素目标注意机制的目标跟踪方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
周经纬 等: "基于多模态数据的目标跟踪算法", 基于多模态数据的目标跟踪算法, no. 303 *
张子龙;王永雄;: "基于卡尔曼滤波的SiamRPN目标跟踪方法", 智能计算机与应用, no. 3 *
王通 等: "启发式多无人机协同路网持续监视轨迹规划", 《航空学报》, vol. 41, no. 1 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113033384A (zh) * 2021-03-23 2021-06-25 清华大学 一种轮椅冰壶运动状态检测和目标跟踪系统
CN114022520A (zh) * 2021-10-12 2022-02-08 山西大学 一种基于卡尔曼滤波与孪生网络的机器人目标跟踪方法
CN114353818A (zh) * 2021-12-31 2022-04-15 上海洛轲智能科技有限公司 目标对象跟随方法、装置、设备、介质和计算机程序产品
CN114353818B (zh) * 2021-12-31 2024-05-14 上海洛轲智能科技有限公司 目标对象跟随方法、装置、设备、介质和计算机程序产品

Also Published As

Publication number Publication date
CN112507859B (zh) 2024-01-12

Similar Documents

Publication Publication Date Title
CN110660082B (zh) 一种基于图卷积与轨迹卷积网络学习的目标跟踪方法
Kelley et al. Understanding human intentions via hidden markov models in autonomous mobile robots
Xu et al. Deepmot: A differentiable framework for training multiple object trackers
CN111161315B (zh) 一种基于图神经网络的多目标跟踪方法和系统
Krebs et al. A survey on leveraging deep neural networks for object tracking
CN112507859B (zh) 一种用于移动机器人的视觉跟踪方法
Zhou et al. A survey of multi-object video tracking algorithms
He et al. Fast online multi-pedestrian tracking via integrating motion model and deep appearance model
CN113869274B (zh) 基于城市管理的无人机智能跟踪监控方法及系统
Roy et al. A comprehensive survey on computer vision based approaches for moving object detection
CN113379795B (zh) 一种基于条件卷积和光流特征的多目标跟踪与分割方法
Qureshi et al. Vehicle detection and tracking using kalman filter over aerial images
Zhang et al. Multi-domain collaborative feature representation for robust visual object tracking
CN110111358B (zh) 一种基于多层时序滤波的目标跟踪方法
Wang et al. Improving target detection by coupling it with tracking
CN111815682A (zh) 一种基于多轨迹融合的多目标跟踪方法
Susarla et al. Human weapon-activity recognition in surveillance videos using structural-RNN
Khan et al. Foreground detection using motion histogram threshold algorithm in high-resolution large datasets
Perez-Cutino et al. Event-based human intrusion detection in UAS using deep learning
CN112487927B (zh) 一种基于物体关联注意力的室内场景识别实现方法及系统
Shen et al. Comparative study of color feature for particle filter based object tracking
CN117011335B (zh) 一种基于自适应双解码器的多目标跟踪方法及系统
Rai et al. Pearson's correlation and background subtraction (BGS) based approach for object's motion detection in infrared video frame sequences
Zhao et al. Adaptive visual tracking based on key frame selection and reinforcement learning
CN114170561B (zh) 一种应用于智能建筑的机器视觉行为意图预测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant