CN115205339A - 基于改进yolox的移动机器人目标跟随方法 - Google Patents

基于改进yolox的移动机器人目标跟随方法 Download PDF

Info

Publication number
CN115205339A
CN115205339A CN202210966893.XA CN202210966893A CN115205339A CN 115205339 A CN115205339 A CN 115205339A CN 202210966893 A CN202210966893 A CN 202210966893A CN 115205339 A CN115205339 A CN 115205339A
Authority
CN
China
Prior art keywords
target
frame
branch
tracking
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210966893.XA
Other languages
English (en)
Inventor
万琴
李智
葛柱
刘波
沈学军
吴迪
吕锐沣
李伊康
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan Institute of Engineering
Original Assignee
Hunan Institute of Engineering
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan Institute of Engineering filed Critical Hunan Institute of Engineering
Priority to CN202210966893.XA priority Critical patent/CN115205339A/zh
Publication of CN115205339A publication Critical patent/CN115205339A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/766Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Abstract

本发明公开了基于改进YOLOX的移动机器人目标跟随方法,主要包括目标检测、目标跟踪以及目标跟随三个部分。首先,以YOLOX网络为基础,在其框架下将主干网络采用改进后的YOLOX网络,提高复杂场景中目标检测的实时性。然后,通过改进的卡尔曼滤波器获取目标跟踪状态并采用数据关联进行目标匹配,通过深度直方图判定目标发生遮挡时,采用深度概率信息约束及最大后验概率进行匹配跟踪,确保机器人在遮挡情况下稳定跟踪目标,再采用基于视觉伺服控制的目标跟随算法,当跟踪目标丢失时,引入重识别特征主动搜寻目标实现目标跟随。有效提高目标检测精度和速度、提高目标预测与更新速率且保证移动机器人稳定跟随目标。

Description

基于改进YOLOX的移动机器人目标跟随方法
技术领域
本发明属于移动机器人领域,特别是涉及基于改进YOLOX的移动机器人目标跟随方法。
背景技术
机器人目标跟随算法分为生成式模型方法和检测跟踪方法两大类。生成式模型主要通过构建目标模型实现跟随,比如有研究人员利用视觉传感器获取行人颜色和纹理特征,机器人在视野范围内寻找与之相匹配的区域,融合行人与位置速度信息构建模型,采用基于生成式的目标跟踪算法跟随行人。然而,此类算法关注目标本身,忽略背景信息,经常出现跟踪丢失的情况。
为同时考虑目标与背景信息,检测跟踪方法得到了越来越多的关注,此方法通过构建分类器区分目标及背景,其跟踪效果普遍优于生成式模型方法。有研究人员通过快速判别尺度空间切换相关滤波算法与卡尔曼滤波算法实现稳定跟踪。另外,移动机器人在跟随控制过程中常受到背景杂斑、光照变化、目标遮挡、尺度变化等干扰,导致跟随目标丢失,因此传统的检测跟踪方法不适用于移动机器人在复杂多变场景中的目标跟随。
基于深度学习的移动机器人目标跟随算法具有鲁棒性强等优,有研究人员通过基于TCB采样策略来提高移动机器人跟踪性能,但未对遮挡、行人消失等情况进行处理。有研究人员提出一种基于深度学习的目标检测器、引入卡尔曼滤波来预测目标位置,加入重识别模块处理遮挡问题,但此类算法需先获取精度较高的目标检测结果。鉴于上述问题,JDE(Jointly learns the Detector and Embedding model)检测模型可用来融合重识别与检测分支,提高目标检测精度。YOLO系列算法则是一类基于JDE检测模型的一阶段框下的目标检测算法,具有高效、灵活和泛化性能好的优点。
YOLO算法包括了YOLOV1-7系列算法以及一系列基于改进YOLO的目标检测算法,有研究人员提出YOLO算法进行目标检测,直接采用回归(regression)的方法进行坐标框的检测以及分类,使用一个端到端的简单网络实现坐标回归与分类,能够极大的提升目标的检测速度。此后,YOLO的网络结构不断优化,已经成为目标检测领域主流的算法。有研究人员引入比率感知机制,动态调整YOLOV3的输入层长度和宽度超参数,从而解决了长宽比差异较大的问题,能够有效地提高平均跟踪精度。有研究人员引入改进的YOLOV3模型,此模型把预测尺度从3个增加到4个,并使用额外的特征图来提取更多的细节。YOLOV3的目标位置识别精度较差,在目标分布密集、尺寸差异较大的复杂场景中,检测效果较差。YOLOV4开发了Darknet53目标检测模型,此模型拥有更高的网络输入分辨率,网络层参数多,计算复杂度高,对小目标检测效果较差。对此,YOLO-Z提出了一系列不同尺度的模型,提高YOLOV5检测小目标的性能。有研究人员提出一种单阶段(SSD)微小目标检测方法,此方法可提高微小目标检测的实时性,但其使用的两阶段式目标检测器,使目标定位精度有所下降。YOLOV6设计了更高效的主干网络和网络层,YOLOV7扩展了高效长程注意力网络,加入了基于级联的模型缩放方法,均可一定程度提高检测精度和推理效率,但由于未引入重识别分支,无法提取浅层特征用于后续跟踪。YOLOX在YOLO系列的基础上做出了一系列改进,相比与YOLO系列目标检测算法,其最大的不同是采用了无锚框检测器。而YOLOV1-YOLOV5采用有锚框的检测器由于可能会被多个锚框同时检测且与检测框中心存在误差,并不适用于JDE检测模型。因此,采用无锚框的YOLOX目标检测算法更加适合于JDE检测模型。
移动机器人检测与跟踪跟随目标的核心问题是其在运动过程中,复杂场景干扰影响其检测精度以及跟随性能。YOLOX是以Darknet53网络结构为主干,有较高的检测精度,但模型较大,推理速度较慢,不适用于移动机器人实时跟随,在YOLOV5的网络模型中,虽然网络的特征提取能力随着深度的增加而增强,但下采样次数的增加会导致梯度的消失,这极大影响了移动机器人的检测精度。为了提升移动机器人的检测精度,有研究人员提出DeepSORT目标跟踪算法,采用卡尔曼滤波更新目标位置,并与当前检测目标关联匹配,但未解决因遮挡跟踪造成的目标丢失问题。有研究人员提出PSR目标跟踪算法,引入深度信息来评估跟踪可信度,并可主动检测跟踪丢失目标。但其采用相关滤波法实现目标跟踪,在复杂场景下的跟踪鲁棒性低。可见,改进网络结构的同时引入深度信息,是提升移动机器人检测跟随性能的一种亟待探索的方法。
发明内容
针对以上技术问题,本发明提供一种能有效提升机器人检测跟随性能的基于改进YOLOX的移动机器人目标跟随方法。
本发明解决其技术问题采用的技术方案是:
基于改进YOLOX的移动机器人目标跟随方法,方法包括以下步骤:
步骤S100:获取视频序列,从视频序列中得到RGB图像和深度图像;
步骤S200:将RGB图像输入至目标检测神经网络的得到目标检测结果;目标检测神经网络包括改进YOLOX主干网络、网络层、目标检测分支层和目标重识别分支层,改进YOLOX主干网络用于对RGB图像进行特征提取,得到浅层特征和深层特征;网络层对浅层特征和深层特征均进行卷积处理得到重识别分支特征图和检测分支特征图;目标检测分支层用于根据检测分支特征图进行目标、分类和回归预测得到目标检测分支结果,目标重识别分支层用于根据重识别分支特征图进行目标重识别得到目标重识别结果,根据目标检测分支结果和目标目标重识别结果得到目标检测结果;
步骤S300:基于目标检测结果和改进的卡尔曼滤波器预测跟踪目标的状态,根据跟踪目标的状态和重识别分支特征图得到当前检测帧的预测更新后的跟踪框的重识别特征图,计算当前检测帧的重识别特征特征与预测更新后的跟踪框的重识别特征的余弦距离,采用余弦距离和预设的距离阈值判别当前检测帧的重识别特征和预测更新后的跟踪框的重识别特征是否关联;
步骤S400:若未关联成功,根据深度图像获取跟踪目标以及所有其他目标在上一帧与当前帧之间的深度值,根据跟踪目标以及所有其他目标在上一帧与当前帧之间的深度值判断跟踪目标是否发生遮挡,若发生遮挡,则获取当前帧检测目标的深度图对应的边界框以及跟踪目标的深度图对应的边界框以得到目标框的重叠率,根据目标框的重叠率以及与预设的关联遮挡目标的目标函数进行遮挡匹配跟踪,预测得到当前帧的遮挡目标作为目标跟踪结果;
步骤S500:从目标跟踪结果中选定一个目标作为跟随目标,采用基于视觉伺服控制的目标跟随算法,使跟随目标框的中心点保持为视野范围中心点,当目标消失时,则移动机器人按照目标运动轨迹进行主动搜索,重新识别目标并使移动机器人继续跟随目标。
优选地,改进YOLOX主干网络包括七个阶段,每个阶段的核心为MobileNetV2S网络,MobileNetV2S网络包括第一1×1卷积层、3×3卷积层、3×3深度卷积层、1×1投影卷积层和ReLU层,
第一1×1卷积层使用1×1卷积核将RGB特征图扩展为特征图F1×1∈RH×W×C′
3×3卷积层对特征图F1×1∈RH×W×C′进行深度可分离卷积得到特征图F3×3∈RH ′×W′×C′
将特征图F3×3∈RH′×W′×C一分为二,将特征映射减少到原始通道数的一半,得到特征图F(3×3)/2∈RH′×W′×(C′/2)和F′(3×3)/2∈RH′×W′×(C′/2),3×3深度可分离卷积层将特征图F′(3×3)/2∈RH′×W′×(C′/2)进行深度可分离卷积得到
Figure BDA0003793946900000041
Figure BDA0003793946900000042
与F′(3×3)/2∈RH′×W′×(C′/2)两者结合在一起得到新的特征图F′3×3∈RH″′×W″′×C′,1×1投影卷积层将新特征图F′3×3∈RH″′×W″′×C′进行卷积得到特征图为F′∈RH″′×W″′×C′,通过ReLU层得到每个瓶颈层的输出特征图,其中,第一阶段对应的输出特征图F1为浅层特征图,第七阶段对应的输出特征图F7为深层特征图。
优选地,目标检测分支层包括解耦头和均连接解耦头的目标分支、分类分支和回归分支,网络层对深层特征均进行卷积处理得到检测分支特征图,目标检测分支层用于根据检测分支特征图进行目标、分类和回归预测得到目标检测分支结果,包括:
网络层对深层特征图F7∈R15×15×320进行卷积处理得到检测分支特征图
Figure BDA0003793946900000043
检测分支特征图经过解耦头后得到第一特征图
Figure BDA0003793946900000044
第二特征图
Figure BDA0003793946900000045
和第三特征图
Figure BDA0003793946900000046
将第一特征图
Figure BDA0003793946900000047
发送至目标分支,目标分支中每个特征点代表对应预测框内被检测目标属于前景的概率,进而判断目标是前景还是背景,得到目标分支结果;
将第二特征图
Figure BDA0003793946900000048
发送至回归分支对目标框的中心坐标点及高度宽度(x,y,w,h)进行预测,得到回归分支结果;
将第三特征图
Figure BDA0003793946900000049
发送至分类分支对目标所属类别进行预测评分,得到分类分支结果;
根据目标分支结果、回归分支结果和分类分支结果合并相加得到特征图
Figure BDA00037939469000000410
作为目标检测分支结果。
优选地,网络层对浅层特征进行卷积处理得到重识别分支特征图,目标重识别分支层用于根据重识别分支特征图进行目标重识别得到目标重识别结果,包括:
网络层对重识别分支特征图F1∈R240×240×16进行卷积处理得到重识别分支特征图
Figure BDA0003793946900000051
使用3×3卷积核依次与重识别分支特征图
Figure BDA0003793946900000052
卷积,得到特征图
Figure BDA0003793946900000053
通过128组1×1的卷积,得到具有128个通道的特征图
Figure BDA0003793946900000054
在特征图中提取对应的目标框中心点(x,y)处的浅层外观特征作为目标重识别结果。
优选地,步骤S200还包括:
根据预设的目标检测损失函数计算目标检测分支层的损失值,根据目标检测分支层的损失值对目标检测分支层进行反向更新,得到更新后的目标检测分支层,
根据预设的重识别损失函数计算目标重识别分支层的损失值,根据目标重识别分支层的损失值对目标重识别分支层进行反向更新,得到更新后的目标重识别分支层。
优选地,预设的目标检测损失函数,具体为:
Ldetection=λ1Lcls2Lobj3Lreg
Figure BDA0003793946900000055
Figure BDA0003793946900000056
Lreg=1-IoU
其中,λ1、λ2和λ3是平衡系数,Lcls、Lobj和Lreg分别为分类损失、目标损失和回归损失,Nobj代表用于计算Lobj损失函数的视频帧目标总个数,ys表示测试样本s的标签,前景标为1,背景标为0,ps表示测试样本s预测为前景的概率,IoU表示当前帧目标预测框和目标真实框的面积重叠率,Ncls代表用于计算Lcls损失函数的视频帧目标总个数,M表示类别的数量,ydc符号函数,如果当前视频帧目标d的真实类别等于c,ydc则为1,否则取0,pdc为当前帧目标d属于类别c的预测概率。
预设的重识别损失函数具体为:
Figure BDA0003793946900000061
其中,
Figure BDA0003793946900000062
为目标真实框的标签编码,特征分布向量C={c(b),b∈[1,B]},Nre-id表示当前目标所属类别的总数,B是训练数据中所有身份(ID)的编号。
优选地,步骤S300中基于目标检测结果和改进的卡尔曼滤波器预测跟踪目标的状态,具体为:
xt,i=f(xt-1,i)+wt-1
zt,j=h(xt,i)+vt
其中,xt,i为检测目标的状态,
Figure BDA0003793946900000069
β=(u,v,γ,h),其中β表示目标的观测值,(u,v)表示边界框中心位置、高宽比为γ、高度为h,zt,j为跟踪目标的状态,wt-1和vt分别是过程噪声序列和测量噪声序列;
步骤S300中采用余弦距离和预设的距离阈值判别当前检测帧的重识别特征和预测更新后的跟踪框的重识别特征是否关联,具体为:
当余弦特征小于或等于预设的距离阈值时,则当前检测帧的重识别特征和预测更新后的跟踪框的重识别特征关联成功;当余弦特征大于预设的距离阈值时,则当前检测帧的重识别特征和预测更新后的跟踪框的重识别特征未关联成功。
优选地,步骤S400中根据深度图像获取跟踪目标以及所有其他目标在上一帧与当前帧之间的深度值,根据跟踪目标以及所有其他目标在上一帧与当前帧之间的深度值判断跟踪目标是否发生遮挡,具体为:
Figure BDA0003793946900000063
其中,
Figure BDA0003793946900000064
为第t帧跟踪目标j遮挡变化情况,
Figure BDA0003793946900000065
是第t帧中跟踪目标j的深度值,
Figure BDA0003793946900000066
表示第t-1与第t帧之间所有目标深度差之和,
Figure BDA0003793946900000067
表示第t帧与第t-1帧之间深度值变化率,
Figure BDA0003793946900000068
代表小于wtt的所有跟踪目标深度值差之和;
其遮挡判断准则如下:
Figure BDA0003793946900000071
其中,Tj为遮挡判断准则。
优选地,步骤S400中获取当前帧检测目标的深度图对应的边界框以及跟踪目标的深度图对应的边界框以得到目标框的重叠率,具体为:
C=b(xt,i)∩b(zt-1,j)>σ
其中,C为目标框的重叠率,σ为预设的重叠率阈值,b(xt,i)为当前帧检测目标xt,i的深度图对应的边界框,b(zt-1,j)为跟踪目标zt-1,j的深度图对应的边界框,若C大于σ表示xt,i与zt-1,j关联匹配;
步骤S400中根据目标框的重叠率以及与预设的关联遮挡目标的目标函数进行遮挡匹配跟踪,预测得到当前帧的遮挡目标作为目标跟踪结果,具体为:
Figure BDA0003793946900000072
其中,S*为目标跟踪结果,P(zt-1,j)为所有跟踪目标的先验概率,P(xt,i|zt-1,j)表示当前检测目标属于跟踪目标的条件概率,该条件概率是通过检测目标与上一帧跟踪目标框的重叠率计算得到;
优选地,步骤S500中的所述若目标消失,则移动机器人按照目标运动轨迹进行主动搜索,重新识别目标并使移动机器人继续跟随目标,包括:
在跟随过程中如果目标超出移动机器人视野范围,移动机器人会保留消失前最后一帧跟踪目标的重识别特征和位置信息,并朝着目标消失的方向继续运动,若跟踪目标再次出现在视野内,进行目标检测并提取该目标的重识别特征与所述消失前最后一帧跟踪目标的重识别特征关联匹配,实现跟踪目标重识别并使移动机器人继续跟随目标。
上述基于改进YOLOX的移动机器人目标跟随方法,主要包括目标检测、目标跟踪以及目标跟随三个部分。首先,以YOLOX网络为基础,在其框架下将主干网络采用改进后的YOLOX网络,提高复杂场景中目标检测的实时性。然后,通过改进的卡尔曼滤波器获取目标跟踪状态并采用数据关联进行目标匹配,通过深度直方图判定目标发生遮挡时,采用深度概率信息约束及最大后验概率进行匹配跟踪,确保机器人在遮挡情况下稳定跟踪目标,再采用基于视觉伺服控制的目标跟随算法,当跟踪目标丢失时,引入重识别特征主动搜寻目标实现目标跟随。有效提高目标检测精度和速度、提高目标预测与更新速率且保证移动机器人稳定跟随目标。
附图说明
图1为本发明提供的基于改进YOLOX的移动机器人目标跟随方法的流程图;
图2为本发明提供的基于改进YOLOX的移动机器人目标跟随方法的整体流程框图;
图3为本发明一实施例中遮挡前后深度直方图;
图4为本发明一实施例中ZED相机成像图;
图5为本发明一实施例中基于ZED相机的两轮差速驱动模型图;
图6为本发明一实施例中目标跟随器移动控制部分示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明的技术方案,下面结合附图对本发明作进一步的详细说明。
在一个实施例中,如图1所示,基于改进YOLOX的移动机器人目标跟随方法,方法包括以下步骤:
步骤S100:获取视频序列,从视频序列中得到RGB图像和深度图像。
步骤S200:将RGB图像输入至目标检测神经网络的得到目标检测结果;目标检测神经网络包括改进YOLOX主干网络、网络层、目标检测分支层和目标重识别分支层,改进YOLOX主干网络用于对RGB图像进行特征提取,得到浅层特征和深层特征;网络层对浅层特征和深层特征均进行卷积处理得到重识别分支特征图和检测分支特征图;目标检测分支层用于根据检测分支特征图进行目标、分类和回归预测得到目标检测分支结果,目标重识别分支层用于根据重识别分支特征图进行目标重识别得到目标重识别结果,根据目标检测分支结果和目标目标重识别结果得到目标检测结果。
具体地,目标检测是移动机器人目标跟随的关键问题,目标检测精度很大程度上决定了移动机器人跟随的稳定性。本发明以YOLOX体系架构为基础进行改进,优化网络结构与损失函数,提高检测实时性。主干网络使用MobileNetV2S网络,再通过网络层、目标检测分支层与目标重识别分支层得到检测结果。
在一个实施例中,改进YOLOX主干网络包括七个阶段,每个阶段的核心为MobileNetV2S网络,MobileNetV2S网络包括第一1×1卷积层、3×3卷积层、3×3深度卷积层、1×1投影卷积层和ReLU层,
第一1×1卷积层使用1×1卷积核将RGB特征图扩展为特征图F1×1∈RH×W×C′
3×3卷积层对特征图F1×1∈RH×W×C′进行深度可分离卷积得到特征图F3×3∈RH ′×W′×C′
将特征图F3×3∈RH′×W′×C′一分为二,将特征映射减少到原始通道数的一半,得到特征图F(3x3)/2∈RH′×W′×(C′/2)和F′(3x3)/2∈RH′×W′(C′/2),3×3深度可分离卷积层将特征图F′(3×3)/2∈RH′×W′×(C′/2)进行深度可分离卷积得到
Figure BDA0003793946900000091
Figure BDA0003793946900000092
与F′(3×3)/2∈RH′×W′×(C′/2)两者结合在一起得到新的特征图F′3×3∈RH″′×W″′×C′,1×1投影卷积层将新特征图F′3×3∈RH″′×W″′×C′进行卷积得到特征图为F′∈RH″′×W″′×C″′,通过ReLU层得到每个瓶颈层的输出特征图,其中,第一阶段对应的输出特征图F1为浅层特征图,第七阶段对应的输出特征图F7为深层特征图。
具体地,本发明提出YOLOX-MobileNetV2S网络(YOLOX-M2S),将YOLOX主干网络采用轻量级的特征提取网络MobileNetV2S,该网络的卷积核心层是深度可分离卷积层,可将输出的特征图的通道数缩减至一半,并再与原卷积层提取的特征图合并,与仅使用一组深度可分离卷积的MobileNetV2相比,该网络可获得更多特征图的语义信息。
在YOLOX-M2S网络上,先采用COCO2017训练集训练得到网络参数,再移植到移动机器人平台进行实时检测。COCO数据集是一个可用于图像检测的大规模数据集,包含超过330K张图片(其中220K是有标注的图像),其中涵盖150万个目标及80个目标类别(objectcategories:行人、汽车、大象等)、91种材料类别(stuff categoris:草、墙、天空等),每张图片包含五句语句描述,且有250000个带关键点标注的行人。
如图2所示,MobileNetV2S网络将目标检测时的分类分为7个阶段,输入图片分辨率为H×W(H为图片高度,W为图片宽度)。假设输入特征图表示为F∈RH×W×C,其中H为高度、W为宽度、C为通道数,每个阶段的核心层为瓶颈层。
每个阶段的瓶颈层中包括以下步骤:使用1×1卷积核扩展特征图为F1×1∈RH×W×C′,大幅减少计算量;特征图F1×1∈RH×W×C′进行3×3深度可分离卷积得到特征图F3×3∈RH′×W′×C′;为进一步获得更多的语义信息,将特征图F3×3∈RH′×W′×C′一分为二,将特征映射减少到原始通道数的一半,得到特征图F(3×3)/2∈RH′×W′×(C′/2)和F′(3×3)/2∈RH′×W′×(C′/2),再将特征图F′(3×3)/2∈RH′×W′×(C′/2)进行深度可分离卷积得到
Figure BDA0003793946900000101
然后将
Figure BDA0003793946900000102
与F′(3×3)/2∈RH′×W′×(C′/2)两者结合在一起得到新的特征图F′3×3∈RH ″′×W″′×C′;最后,将新特征图F′3×3∈RH″′×W″′×C′使用卷积核为1×1的投影卷积层再次卷积,得到特征图为F′∈RH″′×W″′×C′,即得到每个瓶颈层的输出特征图。
在MobileNetV2S网络中的第7个阶段得到深层特征图F7∈R15×15×320,在第1个阶段得到浅层特征图F1∈R240×240×15,经网络层后得到目标检测分支层和目标重识别分支层的输入特征图。
在一个实施例中,目标检测分支层包括解耦头和均连接解耦头的目标分支、分类分支和回归分支,网络层对深层特征均进行卷积处理得到检测分支特征图,目标检测分支层用于根据检测分支特征图进行目标、分类和回归预测得到目标检测分支结果,包括:
网络层对深层特征图F7∈R15×15×320进行卷积处理得到检测分支特征图
Figure BDA0003793946900000103
检测分支特征图经过解耦头后得到第一特征图
Figure BDA0003793946900000104
第二特征图
Figure BDA0003793946900000105
和第三特征图
Figure BDA0003793946900000106
将第一特征图
Figure BDA0003793946900000107
发送至目标分支,目标分支中每个特征点代表对应预测框内被检测目标属于前景的概率,进而判断目标是前景还是背景,得到目标分支结果;
将第二特征图
Figure BDA0003793946900000108
发送至回归分支对目标框的中心坐标点及高度宽度(x,y,w,h)进行预测,得到回归分支结果;
将第三特征图
Figure BDA0003793946900000111
发送至分类分支对目标所属类别进行预测评分,得到分类分支结果;
根据目标分支结果、回归分支结果和分类分支结果合并相加得到特征图
Figure BDA0003793946900000112
作为目标检测分支结果。
具体地,MobileNetV2S网络输出的检测分支特征图F7∈R15×15×320经网络层后得到特征图
Figure BDA0003793946900000113
再经过解耦头后得到检测分支,包括目标、分类和回归三个分支。输入目标分支的特征图为
Figure BDA0003793946900000114
分支中每个特征点代表对应预测框内被检测目标属于前景的概率,据此判断目标是前景还是背景;为稳定训练过程并加快收敛速度、精确定位目标,该分支估计每个像素相对于目标中心的连续漂移,以减少下采样的影响。锚框大小用于估计每个位置的目标锚框的高度和宽度。输入回归分支的特征图为
Figure BDA0003793946900000115
该分支对目标框的中心坐标点及高度宽度(x,y,w,h)进行预测;输入分类分支的特征图为
Figure BDA0003793946900000116
该分支得到对目标所属类别的预测评分,如目标属于行人、车辆、动物等不同类别的评分,其代表目标属于各个类别的概率值。最后将三个分支的输出结果合并相加得到特征图
Figure BDA0003793946900000117
即为目标检测分支的信息。
在一个实施例中,网络层对浅层特征进行卷积处理得到重识别分支特征图,目标重识别分支层用于根据重识别分支特征图进行目标重识别得到目标重识别结果,包括:
网络层对重识别分支特征图F1∈R240×240×16进行卷积处理得到重识别分支特征图
Figure BDA0003793946900000118
使用3×3卷积核依次与重识别分支特征图
Figure BDA0003793946900000119
卷积,得到特征图
Figure BDA00037939469000001110
通过128组1×1的卷积,得到具有128个通道的特征图
Figure BDA00037939469000001111
在特征图中提取对应的目标框中心点(x,y)处的浅层外观特征作为目标重识别结果。
具体地,为在目标消失再出现时完成视频连续帧间的目标匹配识别(即目标重识别),在YOLOX-M2S网络中加入重识别分支提取目标的颜色、纹理等浅层外观特征作为重识别特征。
在一个实施例中,步骤S200还包括:
根据预设的目标检测损失函数计算目标检测分支层的损失值,根据目标检测分支层的损失值对目标检测分支层进行反向更新,得到更新后的目标检测分支层,
根据预设的重识别损失函数计算目标重识别分支层的损失值,根据目标重识别分支层的损失值对目标重识别分支层进行反向更新,得到更新后的目标重识别分支层。
在一个实施例中,预设的目标检测损失函数,具体为:
Ldetection=λ1Lcls2Lobj3Lreg
Figure BDA0003793946900000121
Figure BDA0003793946900000122
Lreg=1-IoU
其中,λ1、λ2和λ3是平衡系数,Lcls、Lobj和Lreg分别为分类损失、目标损失和回归损失,Nobj代表用于计算Lobj损失函数的视频帧目标总个数,ys表示测试样本s的标签,前景标为1,背景标为0,ps表示测试样本s预测为前景的概率,IoU表示当前帧目标预测框和目标真实框的面积重叠率,Ncls代表用于计算Lcls损失函数的视频帧目标总个数,M表示类别的数量,ydc符号函数,如果当前视频帧目标d的真实类别等于c,ydc则为1,否则取0,pdc为当前帧目标d属于类别c的预测概率。
预设的重识别损失函数具体为:
Figure BDA0003793946900000123
其中,
Figure BDA0003793946900000124
为目标真实框的标签编码,特征分布向量C={c(b),b∈[1,B]},Nre-id表示当前目标所属类别的总数,B是训练数据中所有身份(ID)的编号。
具体地,为度量目标检测信息和真实目标信息之间的差值,进一步定义损失函数,损失函数值越小、则差值越小、训练模型准确度越高。由于MobilNetV2S网络中的目标检测分支包括目标分支、回归分支和分类分支,其对应损失函数由目标损失函数Lobj、回归损失函数Lreg和分类损失函数Lcls三部分组成。
在目标检测中,需首先判定预测的目标属于前景或者背景,目标损失函数Lobj采用二分类的交叉熵损失函数度量其与真实值的差值;Lreg回归损失函数使用IoU损失函数来度量预测检测框与真实目标框的交并比(面积重叠度)。IoU指标范围为[0,1],当面积重叠率越大时,IoU指标数值越大。为评判当前视频帧目标所属的类别与真实值的差值,分类损失函数采用多分类交叉熵损失函数对目标所属类别的预测进行评分。
为评判重识别特征图准确度定义重识别损失函数,其值越小,表示重识别特征图越准确。最后将检测和重识别损失函数相加,同时使用不确定性损失函来自动平衡检测和重识别损失函数,与单独使用Lid训练模型相比,训练效果得到提升,同时减少了计算复杂度,可达到实时性要求。
步骤S300:基于目标检测结果和改进的卡尔曼滤波器预测跟踪目标的状态,根据跟踪目标的状态和重识别分支特征图得到当前检测帧的预测更新后的跟踪框的重识别特征图,采用余弦距离和预设的距离阈值判别当前检测帧的重识别特征和预测更新后的跟踪框的重识别特征是否关联。
具体地,首先使用第一帧检测的目标框初始化目标轨迹及跟踪状态,然后通过改进的卡尔曼滤波器预测下一帧目标位置,再采用连续帧间的数据关联确定目标跟踪状态。
在当前视频帧下,设t时刻检测到M个目标i=1,…,M,t时刻跟踪N个目标j=1,…,N,每一帧检测及跟踪结果实时更新,则当前t时刻的第i个检测目标状态为xt,i,第j个跟踪目标状态为zt,j
在一个实施例中,步骤S300中基于目标检测结果和改进的卡尔曼滤波器预测跟踪目标的状态,具体为:
xt,i=f(xt-1,i)+wt-1
zt,j=h(xt,i)+vt
其中,xt,i为检测目标的状态,
Figure BDA0003793946900000131
β={u,v,γ,h},其中β表示目标的观测值,(u,v)表示边界框中心位置、高宽比为γ、高度为h,zt,j为跟踪目标的状态,wt-1和vt分别是过程噪声序列和测量噪声序列。
具体地,假设wt-1和vt是均值为0的高斯白噪声,其方差分别为Qt和Rt,即wt-1~(0,Qt),Vt~(0,Rt)。
为详细说明改进卡尔曼滤波器预测与更新的过程,下文给出此部分的伪代码Algorithm 1。
Figure BDA0003793946900000141
在一个实施例中,步骤S300中采用余弦距离和预设的距离阈值判别当前检测帧的重识别特征和预测更新后的跟踪框的重识别特征是否关联,具体为:
当余弦特征小于或等于预设的距离阈值时,则当前检测帧的重识别特征和预测更新后的跟踪框的重识别特征关联成功;当余弦特征大于预设的距离阈值时,则当前检测帧的重识别特征和预测更新后的跟踪框的重识别特征未关联成功。
具体地,采用改进卡尔曼滤波器获取上一帧目标i的中心点在当前帧的预测位置zt,j,同时通过重识别特征图
Figure BDA0003793946900000142
中对应该预测中心位置,得到上一帧目标在当前帧的预测外观特征
Figure BDA0003793946900000143
移动机器人在跟随过程中,会出现遮挡、快速移动等情况,余弦距离具有快速度量的优点。采用余弦距离q(i,j)判别当前帧中心点对应的外观特征向量
Figure BDA0003793946900000151
与上一帧在当前帧的预测外观特征向量
Figure BDA0003793946900000152
是否关联:
Figure BDA0003793946900000153
其中,bi,j为正确关联轨迹集合。在训练数据集上训练网络参数得到余弦距离,并与训练集基准之间的余弦距离进行比较,得到阈值λ。则上式中,当bi,j小于阈值λ,表示当前帧检测目标i与上一帧跟踪目标j关联,则跟踪正常;当bi,j大于阈值λ表示未成功关联,则继续判断目标是否遮挡或消失。
步骤S400:若未关联成功,根据深度图像获取跟踪目标以及所有其他目标在上一帧与当前帧之间的深度值,根据跟踪目标以及所有其他目标在上一帧与当前帧之间的深度值判断跟踪目标是否发生遮挡,若发生遮挡,则获取当前帧检测目标的深度图对应的边界框以及跟踪目标的深度图对应的边界框以得到目标框的重叠率,根据目标框的重叠率以及与预设的关联遮挡目标的目标函数进行遮挡匹配跟踪,预测得到当前帧的遮挡目标作为目标跟踪结果。
具体地,跟踪目标由于被遮挡,目标外观会发生显著变化,导致目标特征减少,移动机器人跟踪目标丢失。本发明提出一种有效的遮挡处理机制,当判断遮挡发生时,采用深度概率对目标周围区域进行空间约束,并通过最大后验概率关联匹配实现遮挡跟踪。
(1)遮挡判断
由于多个目标相互遮挡时,RGB外观被遮挡,只可从深度信息区分不同遮挡目标,而ZED相机获取的深度信息为多个遮挡目标中离该相机最近的目标深度信息,因此将目标框在RGB图中的位置区域映射到深度图中并设定为深度遮挡区域,若判定其它目标进入此区域表示发生遮挡,具体判定如图3所示。
目标1遮挡前深度直方图最大峰值为4000,目标2遮挡前深度直方图的最大峰值为2500,发生遮挡后遮挡区域深度直方图最大峰值为2500,深度直方图的峰值从4000下降到2500。显然此时目标1的深度遮挡区域的深度直方图出现新的上升峰值2500,且小于遮挡前的峰值4000,则可见目标被遮挡后的深度直方图峰值明显减少。因此可根据深度变化大小判定是否发生遮挡。设跟踪目标j在t-1帧和t帧之间的深度变化均值可以近似为高斯分布
Figure BDA0003793946900000154
在此基础上判定是否发生遮挡。
在一个实施例中,步骤S400中根据深度图像获取跟踪目标以及所有其他目标在上一帧与当前帧之间的深度值,根据跟踪目标以及所有其他目标在上一帧与当前帧之间的深度值判断跟踪目标是否发生遮挡,具体为:
Figure BDA0003793946900000161
其中,
Figure BDA0003793946900000162
为第t帧跟踪目标j遮挡变化情况,
Figure BDA0003793946900000163
是第t帧中跟踪目标j的深度值,
Figure BDA0003793946900000164
表示第t-1与第t帧之间所有目标深度差之和,
Figure BDA0003793946900000165
表示第t帧与第t-1帧之间深度值变化率,
Figure BDA0003793946900000166
代表小于wtt的所有跟踪目标深度值差之和;
其遮挡判断准则如下:
Figure BDA0003793946900000167
其中,Tj为遮挡判断准则。
具体地,
Figure BDA0003793946900000168
反映第t帧跟踪目标j遮挡变化情况,其值越大,表示发生遮挡可能性越大。当目标未被遮挡时,
Figure BDA0003793946900000169
接近
Figure BDA00037939469000001610
Tj接近于1;当目标被遮挡时,则Tj接近于0,通过Tj的值来判断目标是否被遮挡。
在一个实施例中,步骤S400中获取当前帧检测目标的深度图对应的边界框以及跟踪目标的深度图对应的边界框以得到目标框的重叠率,具体为:
C=b(xt,i)∩b(zt-1,j)>σ
其中,C为目标框的重叠率,σ为预设的重叠率阈值,b(xt,i)为当前帧检测目标xt,i的深度图对应的边界框,b(zt-1,j)为跟踪目标zt-1,j的深度图对应的边界框,若C大于σ表示xt,i与zt-1,j关联匹配;
步骤S400中根据目标框的重叠率以及与预设的关联遮挡目标的目标函数进行遮挡匹配跟踪,预测得到当前帧的遮挡目标作为目标跟踪结果,具体为:
Figure BDA0003793946900000171
其中,S*为目标跟踪结果,P(zt-1,j)为所有跟踪目标的先验概率,P(xt,i|zt-1,j)表示当前检测目标属于跟踪目标的条件概率,该条件概率是通过检测目标与上一帧跟踪目标框的重叠率计算得到。
步骤S500:从目标跟踪结果中选定一个目标作为跟随目标,采用基于视觉伺服控制的目标跟随算法,使跟随目标框的中心点保持为视野范围中心点,若目标消失,则移动机器人按照目标运动轨迹进行主动搜索,重新识别目标并使移动机器人继续跟随目标。
具体地,由于ZED相机具有成像分辨率高、可获取远距离深度图像等优点,本发明采用ZED相机作为移动机器人视觉传感器,其内参已标定。假设ZED相机的镜头畸变小到可以忽略,相机固有参数用针孔模型表示,ZED相机成像原理图如附图4所示。在图像坐标系Y的跟踪目标坐标为P=(xcn,ycn,xcn),zn是从图像坐标和ZED相机的固有参数中获得。
zn=f×b/(xl-xr)=f×b/d
其中,f为相机焦距,b为左右相机基线,f和b是通过先验信息或相机标定得到。其中由极线约束关系,视差d可由左相机的像素点xl与右相机中像素点xr对应关系计算得到。
本发明算法将移动机器人平台简化为基于ZED相机的两轮差速模型,如图5所示。图5中包括世界坐标系G、机器人坐标系PR、ZED相机坐标系Z和图像坐标系Y。图中C(x,y)为移动机器人运动中心点,D为两轮之间的距离,θ为方向角。
在世界坐标系G中,跟踪目标位置OT与机器人位置OM之间的距离则可表示为
Figure BDA0003793946900000172
在ZED相机坐标系中,目标到机器人的距离
Figure BDA0003793946900000173
是由跟踪目标位置OT和机器人位置OM通过如下式得到:
Figure BDA0003793946900000174
其中R(θQ,θC)表示从世界坐标系Q到ZED相机坐标系Z旋转矩阵,δd表示在世界坐标系G中,移动机器人与摄像机的距离。
前述跟踪算法完成目标跟踪,并获取目标跟踪框的深度信息,但直接使用跟踪目标框的深度信息来计算机器人与跟随目标的距离,会引入大量的背景信息,因此需要对目标中心进行重定位,为跟踪区域找到合适的位置,提高机器人跟随精度。
目标跟踪框中心设为
Figure BDA0003793946900000181
Figure BDA0003793946900000182
表示目标跟踪框区域内所有像素坐标,区域的精确位置在
Figure BDA0003793946900000183
内重定位,利用循环矩阵
Figure BDA0003793946900000184
得到精确位置
Figure BDA0003793946900000185
计算公式为:
Figure BDA0003793946900000186
Figure BDA0003793946900000187
中最大值
Figure BDA0003793946900000188
的位置(Δx,Δy)即为精确目标跟踪中心(x*,y*)与(xl,yl)之间的位置偏差。跟踪区域的精确位置(x*,y*)计算如下:
(x*,y*)=(xl,yl)+(Δx,Δy)
得到精确位置(x*,y*)后,并获取以(x*,y*)为中心区域框的四个顶点坐标,计算中心点和顶点对应深度信息平均值f(t),其值表示为移动机器人与目标的距离,设移动机器人期望到达位置为f*(t),误差e(t)可定义为:
e(t)=f(t)-f*(t)
机器人控制变量为Xcontrol=[U(t)=vt,W(t)=wt],vt代表移动机器人的线速度,wt代表移动机器人的角速度,PID控制器设计为:
Figure BDA0003793946900000189
其中kP、kI和kD为PID系数,λ是调整因子。
在一个实施例中,步骤S500中的所述若目标消失,则移动机器人按照目标运动轨迹进行主动搜索,重新识别目标并使移动机器人继续跟随目标,包括:
在跟随过程中如果目标超出移动机器人视野范围,移动机器人会保留消失前最后一帧跟踪目标的重识别特征和位置信息,并朝着目标消失的方向继续运动,若跟踪目标再次出现在视野内,进行目标检测并提取该目标的重识别特征与所述消失前最后一帧跟踪目标的重识别特征关联匹配,实现跟踪目标重识别并使移动机器人继续跟随目标。
目标跟随控制部分的结构框图如图6所示,误差e(t)为PID控制器的输入端,实时控制移动机器人角速度和线速度,移动机器人与目标保持一定距离并稳定跟随目标。在跟随过程中如果目标超出移动机器人视野范围,移动机器人会保留消失前最后一帧跟踪目标的重识别特征和位置信息,并朝着目标消失的方向继续运动,若跟踪目标再次出现在视野内,进行目标检测并提取该目标的重识别特征与消失前最后一帧跟踪目标的重识别特征关联匹配,实现跟踪目标重识别即为重检成功,则可实现目标消失后再重识别并稳定跟随目标。
上述基于改进YOLOX的移动机器人目标跟随方法,主要由目标检测、目标跟踪及目标跟随控制三部分组成。首先,将YOLOX的主干网络Darknet-53替换为MobileNetV2S,通过获取的RGB视频序列输入训练完成的MobileNetV2S网络得到特征图,再将重识别损失函数和检测损失函数分别训练重识别分支及检测分支,从而得到目标检测结果。然后采用改进的卡尔曼滤波器获取跟踪状态,通过轨迹关联实现目标匹配,同时引入遮挡判别机制,如判断目标被遮挡则加入深度概率约束进行遮挡目标跟踪匹配。最后采用基于视觉伺服控制的主动搜寻策略完成移动机器人目标跟随。
综上,基于YOLO系列的移动机器人目标跟随算法的鲁棒性强且精度高,但对于变化环境迁移和泛化能力弱,且运行速率低。而传统移动机器人目标跟随算法速度快,但是当目标发生形变、尺度变化和严重遮挡等情况时,跟踪过程容易出现目标跟踪丢失。因此,为实现复杂场景下移动机器人稳定跟随目标,本发明提出改进YOLOX的移动机器人目标跟随方法。主要工作如下:
(1)为提高目标检测精度和速度,提出基于YOLOX-MobileNetV2S网络(YOLOX-M2S)的目标检测算法,使用交叉熵损失、回归损失以及重识别损失函数,共同训练检测与重识别分支;
(2)为提高目标预测与更新速率,采用改进的卡尔曼滤波器获取目标跟踪状态。同时加入基于深度直方图的遮挡检测机制,并通过深度概率约束帧间目标匹配,提高遮挡跟踪准确率;
(3)在目标跟随过程中,提出基于视觉伺服控制的主动搜寻策略,并在目标消失时引入重识别特征进行跟踪跟随,保证移动机器人稳定跟随目标。
以上对本发明所提供的基于改进YOLOX的移动机器人目标跟随方法进行了详细介绍。本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。

Claims (10)

1.基于改进YOLOX的移动机器人目标跟随方法,其特征在于,所述方法包括以下步骤:
步骤S100:获取视频序列,从所述视频序列中得到RGB图像和深度图像;
步骤S200:将所述RGB图像输入至目标检测神经网络的得到目标检测结果;所述目标检测神经网络包括改进YOLOX主干网络、网络层、目标检测分支层和目标重识别分支层,所述改进YOLOX主干网络用于对所述RGB图像进行特征提取,得到浅层特征和深层特征;所述网络层对所述浅层特征和所述深层特征均进行卷积处理得到重识别分支特征图和检测分支特征图;所述目标检测分支层用于根据所述检测分支特征图进行目标、分类和回归预测得到目标检测分支结果,所述目标重识别分支层用于根据所述重识别分支特征图进行目标重识别得到目标重识别结果,根据所述目标检测分支结果和所述目标目标重识别结果得到目标检测结果;
步骤S300:基于所述目标检测结果和改进的卡尔曼滤波器预测跟踪目标的状态,根据所述跟踪目标的状态和所述重识别分支特征图得到当前检测帧的预测更新后的跟踪框的重识别特征图,计算当前检测帧的重识别特征特征与所述预测更新后的跟踪框的重识别特征的余弦距离,采用所述余弦距离和预设的距离阈值判别当前检测帧的重识别特征和预测更新后的跟踪框的重识别特征是否关联;
步骤S400:若未关联成功,根据所述深度图像获取跟踪目标以及所有其他目标在上一帧与当前帧之间的深度值,根据所述跟踪目标以及所有其他目标在上一帧与当前帧之间的深度值判断所述跟踪目标是否发生遮挡,若发生遮挡,则获取当前帧检测目标的深度图对应的边界框以及跟踪目标的深度图对应的边界框以得到目标框的重叠率,根据所述目标框的重叠率以及与预设的关联遮挡目标的目标函数进行遮挡匹配跟踪,预测得到当前帧的遮挡目标作为目标跟踪结果;
步骤S500:从所述目标跟踪结果中选定一个目标作为跟随目标,采用基于视觉伺服控制的目标跟随算法,使跟随目标框的中心点保持为视野范围中心点,若目标消失,则移动机器人按照目标运动轨迹进行主动搜索,重新识别目标并使移动机器人继续跟随目标。
2.根据权利要求1所述的方法,其特征在于,所述改进YOLOX主干网络包括七个阶段,每个阶段的核心为MobileNetV2S网络,所述MobileNetV2S网络包括1×1卷积层、3×3卷积层、3×3深度卷积层、1×1投影卷积层和ReLU层,
所述第一1×1卷积层使用1×1卷积核将RGB特征图扩展为特征图F1×1∈RH×W×C′
所述3×3卷积层对特征图F1×1∈RH×W×C′进行深度可分离卷积得到特征图F3×3∈RH ′×W′×C′
将所述特征图F3×3∈RH′×W′×C′一分为二,将特征映射减少到原始通道数的一半,得到特征图F(3×3)/2∈RH′×W′×(C′/2)和F′(3×3)/2∈RH′×W′×(C′/2),所述3×3深度可分离卷积层将特征图F′(3×3)/2∈RH×W′×(C′/2)进行深度可分离卷积得到F″(3×3)/2∈RH″×W″×(C′/2)
将F″(3×3)/2∈RH″×W″×(C′/2)与F′(3×3)/2∈RH′×W′×(C′/2)两者结合在一起得到新的特征图F′3×3∈RH″′×W″′×C′,所述1×1投影卷积层将新特征图F′3×3∈RH″′×W″′×C′进行卷积得到特征图为F′∈RH″′×W″′×C″,通过ReLU层得到每个瓶颈层的输出特征图,其中,第一阶段对应的输出特征图F1为浅层特征图,第七阶段对应的输出特征图F7为深层特征图。
3.根据权利要求2所述的方法,其特征在于,所述目标检测分支层包括解耦头和均连接所述解耦头的目标分支、分类分支和回归分支,所述网络层对所述深层特征均进行卷积处理得到检测分支特征图,所述目标检测分支层用于根据所述检测分支特征图进行目标、分类和回归预测得到目标检测分支结果,包括:
所述网络层对所述深层特征图F7∈R15×15×320进行卷积处理得到检测分支特征图
Figure FDA0003793946890000021
所述检测分支特征图经过所述解耦头后得到第一特征图
Figure FDA0003793946890000022
第二特征图
Figure FDA0003793946890000023
和第三特征图
Figure FDA0003793946890000024
将所述第一特征图
Figure FDA0003793946890000025
发送至所述目标分支,所述目标分支中每个特征点代表对应预测框内被检测目标属于前景的概率,进而判断目标是前景还是背景,得到目标分支结果;
将所述第二特征图
Figure FDA0003793946890000026
发送至所述回归分支对目标框的中心坐标点及高度宽度(x,y,w,h)进行预测,得到回归分支结果;
将所述第三特征图
Figure FDA0003793946890000027
发送至所述分类分支对目标所属类别进行预测评分,得到分类分支结果;
根据所述目标分支结果、所述回归分支结果和所述分类分支结果合并相加得到特征图
Figure FDA0003793946890000031
作为目标检测分支结果。
4.根据权利要求3所述的方法,其特征在于,所述网络层对所述浅层特征进行卷积处理得到重识别分支特征图,所述目标重识别分支层用于根据所述重识别分支特征图进行目标重识别得到目标重识别结果,包括:
所述网络层对重识别分支特征图F1∈R240×240×16进行卷积处理得到重识别分支特征图
Figure FDA0003793946890000032
使用3×3卷积核依次与所述重识别分支特征图
Figure FDA0003793946890000033
卷积,得到特征图
Figure FDA0003793946890000034
通过128组1×1的卷积,得到具有128个通道的特征图
Figure FDA0003793946890000035
在特征图中提取对应的目标框中心点(x,y)处的浅层外观特征作为目标重识别结果。
5.根据权利要求4所述的方法,其特征在于,步骤S200还包括:
根据预设的目标检测损失函数计算所述目标检测分支层的损失值,根据所述目标检测分支层的损失值对所述目标检测分支层进行反向更新,得到更新后的目标检测分支层,
根据预设的重识别损失函数计算所述目标重识别分支层的损失值,根据所述目标重识别分支层的损失值对所述目标重识别分支层进行反向更新,得到更新后的目标重识别分支层。
6.根据权利要求5所述的方法,其特征在于,预设的目标检测损失函数,具体为:
Ldetection=λ1Lcls2Lobj3Lreg
Figure FDA0003793946890000036
Figure FDA0003793946890000037
Lreg=1-IoU
其中,λ1、λ2和λ3是平衡系数,Lcls、Lobj和Lreg分别为分类损失、目标损失和回归损失,Nobj代表用于计算Lobj损失函数的视频帧目标总个数,ys表示测试样本s的标签,前景标为1,背景标为0,ps表示测试样本s预测为前景的概率,IoU表示当前帧目标预测框和目标真实框的面积重叠率,Ncls代表用于计算Lcls损失函数的视频帧目标总个数,M表示类别的数量,ydc符号函数,如果当前视频帧目标d的真实类别等于c,ydc则为1,否则取0,pdc为当前帧目标d属于类别c的预测概率。
预设的重识别损失函数具体为:
Figure FDA0003793946890000041
其中,
Figure FDA0003793946890000042
为目标真实框的标签编码,特征分布向量C={c(b),b∈[1,B]},Nre-id表示当前目标所属类别的总数,B是训练数据中所有身份(ID)的编号。
7.根据权利要求6所述的方法,其特征在于,步骤S300中基于所述目标检测结果和改进的卡尔曼滤波器预测跟踪目标的状态,具体为:
xt,i=f(xt-1,i)+wt-1
zt,j=h(xt,i)+vt
其中,xt,i为检测目标的状态,
Figure FDA0003793946890000043
β=(u,v,γ,h),其中β表示目标的观测值,(u,v)表示边界框中心位置、高宽比为γ、高度为h,zt,j为跟踪目标的状态,wt-1和vt分别是过程噪声序列和测量噪声序列;
步骤S300中采用余弦距离和预设的距离阈值判别当前检测帧的重识别特征和预测更新后的跟踪框的重识别特征是否关联,具体为:
当余弦特征小于或等于预设的距离阈值时,则当前检测帧的重识别特征和预测更新后的跟踪框的重识别特征关联成功;当余弦特征大于预设的距离阈值时,则当前检测帧的重识别特征和预测更新后的跟踪框的重识别特征未关联成功。
8.根据权利要求7所述的方法,其特征在于,步骤S400中根据所述深度图像获取跟踪目标以及所有其他目标在上一帧与当前帧之间的深度值,根据所述跟踪目标以及所有其他目标在上一帧与当前帧之间的深度值判断所述跟踪目标是否发生遮挡,具体为:
Figure FDA0003793946890000044
其中,
Figure FDA0003793946890000045
为第t帧跟踪目标j遮挡变化情况,
Figure FDA0003793946890000046
是第t帧中跟踪目标j的深度值,
Figure FDA0003793946890000051
表示第t-1与第t帧之间所有目标深度差之和,
Figure FDA0003793946890000052
表示第t帧与第t-1帧之间深度值变化率,
Figure FDA0003793946890000053
代表小于wtt的所有跟踪目标深度值差之和;
其遮挡判断准则如下:
Figure FDA0003793946890000054
其中,Tj为遮挡判断准则。
9.根据权利要求8所述的方法,其特征在于,步骤S400中获取当前帧检测目标的深度图对应的边界框以及跟踪目标的深度图对应的边界框以得到目标框的重叠率,具体为:
C=b(xt,i)∩b(zt-1,j)>σ
其中,C为目标框的重叠率,σ为预设的重叠率阈值,b(xt,i)为当前帧检测目标xt,i的深度图对应的边界框,b(zt-1,j)为跟踪目标zt-1,j的深度图对应的边界框,若C大于σ表示xt,i与zt-1,j关联匹配;
步骤S400中根据所述目标框的重叠率以及与预设的关联遮挡目标的目标函数进行遮挡匹配跟踪,预测得到当前帧的遮挡目标作为目标跟踪结果,具体为:
Figure FDA0003793946890000055
其中,S*为目标跟踪结果,P(zt-1,j)为所有跟踪目标的先验概率,P(xt,i∣zt-1,j)表示当前检测目标属于跟踪目标的条件概率,该条件概率是通过检测目标与上一帧跟踪目标框的重叠率计算得到。
10.根据权利要求9所述的方法,其特征在于,步骤S500中的所述若目标消失,则移动机器人按照目标运动轨迹进行主动搜索,重新识别目标并使移动机器人继续跟随目标,包括:
在跟随过程中如果目标超出移动机器人视野范围,移动机器人会保留消失前最后一帧跟踪目标的重识别特征和位置信息,并朝着目标消失的方向继续运动,若跟踪目标再次出现在视野内,进行目标检测并提取该目标的重识别特征与所述消失前最后一帧跟踪目标的重识别特征关联匹配,实现跟踪目标重识别并使移动机器人继续跟随目标。
CN202210966893.XA 2022-08-11 2022-08-11 基于改进yolox的移动机器人目标跟随方法 Pending CN115205339A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210966893.XA CN115205339A (zh) 2022-08-11 2022-08-11 基于改进yolox的移动机器人目标跟随方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210966893.XA CN115205339A (zh) 2022-08-11 2022-08-11 基于改进yolox的移动机器人目标跟随方法

Publications (1)

Publication Number Publication Date
CN115205339A true CN115205339A (zh) 2022-10-18

Family

ID=83585127

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210966893.XA Pending CN115205339A (zh) 2022-08-11 2022-08-11 基于改进yolox的移动机器人目标跟随方法

Country Status (1)

Country Link
CN (1) CN115205339A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115761646A (zh) * 2022-12-06 2023-03-07 武汉纺织大学 一种面向工业园区的行人跟踪方法、设备及存储介质
CN116189229A (zh) * 2022-11-30 2023-05-30 中信重工开诚智能装备有限公司 一种基于煤矿辅助运输机器人的人员跟踪方法
CN116659487A (zh) * 2022-11-02 2023-08-29 丰疆智能(深圳)有限公司 位姿调整方法、位姿调整装置、电子设备及可读存储介质
CN117197695A (zh) * 2023-09-14 2023-12-08 思翼科技(深圳)有限公司 基于人工智能的无人机云台相机目标识别跟踪方法及系统

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116659487A (zh) * 2022-11-02 2023-08-29 丰疆智能(深圳)有限公司 位姿调整方法、位姿调整装置、电子设备及可读存储介质
CN116189229A (zh) * 2022-11-30 2023-05-30 中信重工开诚智能装备有限公司 一种基于煤矿辅助运输机器人的人员跟踪方法
CN116189229B (zh) * 2022-11-30 2024-04-05 中信重工开诚智能装备有限公司 一种基于煤矿辅助运输机器人的人员跟踪方法
CN115761646A (zh) * 2022-12-06 2023-03-07 武汉纺织大学 一种面向工业园区的行人跟踪方法、设备及存储介质
CN115761646B (zh) * 2022-12-06 2023-08-01 武汉纺织大学 一种面向工业园区的行人跟踪方法、设备及存储介质
CN117197695A (zh) * 2023-09-14 2023-12-08 思翼科技(深圳)有限公司 基于人工智能的无人机云台相机目标识别跟踪方法及系统

Similar Documents

Publication Publication Date Title
CN111488795B (zh) 应用于无人驾驶车辆的实时行人跟踪方法
CN115205339A (zh) 基于改进yolox的移动机器人目标跟随方法
CN109059895B (zh) 一种基于手机摄像头和传感器的多模态室内测距及定位方法
Bremond et al. Tracking multiple nonrigid objects in video sequences
Berrio et al. Camera-LIDAR integration: Probabilistic sensor fusion for semantic mapping
Yang et al. A RGB-D based real-time multiple object detection and ranging system for autonomous driving
Ai et al. Visual SLAM in dynamic environments based on object detection
CN110765906A (zh) 一种基于关键点的行人检测算法
Wang et al. A unified framework for mutual improvement of SLAM and semantic segmentation
CN108961342B (zh) 一种光流传感器的校准方法及系统
CN110427797B (zh) 一种基于几何条件限制的三维车辆检测方法
Smith ASSET-2: Real-time motion segmentation and object tracking
Budvytis et al. Large scale joint semantic re-localisation and scene understanding via globally unique instance coordinate regression
CN113223045A (zh) 基于动态物体语义分割的视觉与imu传感器融合定位系统
CN111612823A (zh) 一种基于视觉的机器人自主跟踪方法
CN110517291A (zh) 一种基于多特征空间融合的道路车辆跟踪方法
CN113516664A (zh) 一种基于语义分割动态点的视觉slam方法
CN112581543A (zh) 运动机器人视觉导航方法
CN115565130A (zh) 一种无人值守系统及其基于光流的监控方法
Guzel et al. Vision based obstacle avoidance techniques
CN114689038A (zh) 基于机器视觉的果实检测定位与果园地图构建方法
CN117519168A (zh) 一种基于视觉图像和激光雷达的机器人导航避障方法
Li et al. High-precision motion detection and tracking based on point cloud registration and radius search
Kim et al. Pedestrian detection with simplified depth prediction
CN111160231A (zh) 一种基于Mask R-CNN的自动驾驶环境道路提取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination