CN115205339A - 基于改进yolox的移动机器人目标跟随方法 - Google Patents
基于改进yolox的移动机器人目标跟随方法 Download PDFInfo
- Publication number
- CN115205339A CN115205339A CN202210966893.XA CN202210966893A CN115205339A CN 115205339 A CN115205339 A CN 115205339A CN 202210966893 A CN202210966893 A CN 202210966893A CN 115205339 A CN115205339 A CN 115205339A
- Authority
- CN
- China
- Prior art keywords
- target
- frame
- branch
- tracking
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/766—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Abstract
本发明公开了基于改进YOLOX的移动机器人目标跟随方法,主要包括目标检测、目标跟踪以及目标跟随三个部分。首先,以YOLOX网络为基础,在其框架下将主干网络采用改进后的YOLOX网络,提高复杂场景中目标检测的实时性。然后,通过改进的卡尔曼滤波器获取目标跟踪状态并采用数据关联进行目标匹配,通过深度直方图判定目标发生遮挡时,采用深度概率信息约束及最大后验概率进行匹配跟踪,确保机器人在遮挡情况下稳定跟踪目标,再采用基于视觉伺服控制的目标跟随算法,当跟踪目标丢失时,引入重识别特征主动搜寻目标实现目标跟随。有效提高目标检测精度和速度、提高目标预测与更新速率且保证移动机器人稳定跟随目标。
Description
技术领域
本发明属于移动机器人领域,特别是涉及基于改进YOLOX的移动机器人目标跟随方法。
背景技术
机器人目标跟随算法分为生成式模型方法和检测跟踪方法两大类。生成式模型主要通过构建目标模型实现跟随,比如有研究人员利用视觉传感器获取行人颜色和纹理特征,机器人在视野范围内寻找与之相匹配的区域,融合行人与位置速度信息构建模型,采用基于生成式的目标跟踪算法跟随行人。然而,此类算法关注目标本身,忽略背景信息,经常出现跟踪丢失的情况。
为同时考虑目标与背景信息,检测跟踪方法得到了越来越多的关注,此方法通过构建分类器区分目标及背景,其跟踪效果普遍优于生成式模型方法。有研究人员通过快速判别尺度空间切换相关滤波算法与卡尔曼滤波算法实现稳定跟踪。另外,移动机器人在跟随控制过程中常受到背景杂斑、光照变化、目标遮挡、尺度变化等干扰,导致跟随目标丢失,因此传统的检测跟踪方法不适用于移动机器人在复杂多变场景中的目标跟随。
基于深度学习的移动机器人目标跟随算法具有鲁棒性强等优,有研究人员通过基于TCB采样策略来提高移动机器人跟踪性能,但未对遮挡、行人消失等情况进行处理。有研究人员提出一种基于深度学习的目标检测器、引入卡尔曼滤波来预测目标位置,加入重识别模块处理遮挡问题,但此类算法需先获取精度较高的目标检测结果。鉴于上述问题,JDE(Jointly learns the Detector and Embedding model)检测模型可用来融合重识别与检测分支,提高目标检测精度。YOLO系列算法则是一类基于JDE检测模型的一阶段框下的目标检测算法,具有高效、灵活和泛化性能好的优点。
YOLO算法包括了YOLOV1-7系列算法以及一系列基于改进YOLO的目标检测算法,有研究人员提出YOLO算法进行目标检测,直接采用回归(regression)的方法进行坐标框的检测以及分类,使用一个端到端的简单网络实现坐标回归与分类,能够极大的提升目标的检测速度。此后,YOLO的网络结构不断优化,已经成为目标检测领域主流的算法。有研究人员引入比率感知机制,动态调整YOLOV3的输入层长度和宽度超参数,从而解决了长宽比差异较大的问题,能够有效地提高平均跟踪精度。有研究人员引入改进的YOLOV3模型,此模型把预测尺度从3个增加到4个,并使用额外的特征图来提取更多的细节。YOLOV3的目标位置识别精度较差,在目标分布密集、尺寸差异较大的复杂场景中,检测效果较差。YOLOV4开发了Darknet53目标检测模型,此模型拥有更高的网络输入分辨率,网络层参数多,计算复杂度高,对小目标检测效果较差。对此,YOLO-Z提出了一系列不同尺度的模型,提高YOLOV5检测小目标的性能。有研究人员提出一种单阶段(SSD)微小目标检测方法,此方法可提高微小目标检测的实时性,但其使用的两阶段式目标检测器,使目标定位精度有所下降。YOLOV6设计了更高效的主干网络和网络层,YOLOV7扩展了高效长程注意力网络,加入了基于级联的模型缩放方法,均可一定程度提高检测精度和推理效率,但由于未引入重识别分支,无法提取浅层特征用于后续跟踪。YOLOX在YOLO系列的基础上做出了一系列改进,相比与YOLO系列目标检测算法,其最大的不同是采用了无锚框检测器。而YOLOV1-YOLOV5采用有锚框的检测器由于可能会被多个锚框同时检测且与检测框中心存在误差,并不适用于JDE检测模型。因此,采用无锚框的YOLOX目标检测算法更加适合于JDE检测模型。
移动机器人检测与跟踪跟随目标的核心问题是其在运动过程中,复杂场景干扰影响其检测精度以及跟随性能。YOLOX是以Darknet53网络结构为主干,有较高的检测精度,但模型较大,推理速度较慢,不适用于移动机器人实时跟随,在YOLOV5的网络模型中,虽然网络的特征提取能力随着深度的增加而增强,但下采样次数的增加会导致梯度的消失,这极大影响了移动机器人的检测精度。为了提升移动机器人的检测精度,有研究人员提出DeepSORT目标跟踪算法,采用卡尔曼滤波更新目标位置,并与当前检测目标关联匹配,但未解决因遮挡跟踪造成的目标丢失问题。有研究人员提出PSR目标跟踪算法,引入深度信息来评估跟踪可信度,并可主动检测跟踪丢失目标。但其采用相关滤波法实现目标跟踪,在复杂场景下的跟踪鲁棒性低。可见,改进网络结构的同时引入深度信息,是提升移动机器人检测跟随性能的一种亟待探索的方法。
发明内容
针对以上技术问题,本发明提供一种能有效提升机器人检测跟随性能的基于改进YOLOX的移动机器人目标跟随方法。
本发明解决其技术问题采用的技术方案是:
基于改进YOLOX的移动机器人目标跟随方法,方法包括以下步骤:
步骤S100:获取视频序列,从视频序列中得到RGB图像和深度图像;
步骤S200:将RGB图像输入至目标检测神经网络的得到目标检测结果;目标检测神经网络包括改进YOLOX主干网络、网络层、目标检测分支层和目标重识别分支层,改进YOLOX主干网络用于对RGB图像进行特征提取,得到浅层特征和深层特征;网络层对浅层特征和深层特征均进行卷积处理得到重识别分支特征图和检测分支特征图;目标检测分支层用于根据检测分支特征图进行目标、分类和回归预测得到目标检测分支结果,目标重识别分支层用于根据重识别分支特征图进行目标重识别得到目标重识别结果,根据目标检测分支结果和目标目标重识别结果得到目标检测结果;
步骤S300:基于目标检测结果和改进的卡尔曼滤波器预测跟踪目标的状态,根据跟踪目标的状态和重识别分支特征图得到当前检测帧的预测更新后的跟踪框的重识别特征图,计算当前检测帧的重识别特征特征与预测更新后的跟踪框的重识别特征的余弦距离,采用余弦距离和预设的距离阈值判别当前检测帧的重识别特征和预测更新后的跟踪框的重识别特征是否关联;
步骤S400:若未关联成功,根据深度图像获取跟踪目标以及所有其他目标在上一帧与当前帧之间的深度值,根据跟踪目标以及所有其他目标在上一帧与当前帧之间的深度值判断跟踪目标是否发生遮挡,若发生遮挡,则获取当前帧检测目标的深度图对应的边界框以及跟踪目标的深度图对应的边界框以得到目标框的重叠率,根据目标框的重叠率以及与预设的关联遮挡目标的目标函数进行遮挡匹配跟踪,预测得到当前帧的遮挡目标作为目标跟踪结果;
步骤S500:从目标跟踪结果中选定一个目标作为跟随目标,采用基于视觉伺服控制的目标跟随算法,使跟随目标框的中心点保持为视野范围中心点,当目标消失时,则移动机器人按照目标运动轨迹进行主动搜索,重新识别目标并使移动机器人继续跟随目标。
优选地,改进YOLOX主干网络包括七个阶段,每个阶段的核心为MobileNetV2S网络,MobileNetV2S网络包括第一1×1卷积层、3×3卷积层、3×3深度卷积层、1×1投影卷积层和ReLU层,
第一1×1卷积层使用1×1卷积核将RGB特征图扩展为特征图F1×1∈RH×W×C′;
3×3卷积层对特征图F1×1∈RH×W×C′进行深度可分离卷积得到特征图F3×3∈RH ′×W′×C′;
将特征图F3×3∈RH′×W′×C一分为二,将特征映射减少到原始通道数的一半,得到特征图F(3×3)/2∈RH′×W′×(C′/2)和F′(3×3)/2∈RH′×W′×(C′/2),3×3深度可分离卷积层将特征图F′(3×3)/2∈RH′×W′×(C′/2)进行深度可分离卷积得到
将与F′(3×3)/2∈RH′×W′×(C′/2)两者结合在一起得到新的特征图F′3×3∈RH″′×W″′×C′,1×1投影卷积层将新特征图F′3×3∈RH″′×W″′×C′进行卷积得到特征图为F′∈RH″′×W″′×C′,通过ReLU层得到每个瓶颈层的输出特征图,其中,第一阶段对应的输出特征图F1为浅层特征图,第七阶段对应的输出特征图F7为深层特征图。
优选地,目标检测分支层包括解耦头和均连接解耦头的目标分支、分类分支和回归分支,网络层对深层特征均进行卷积处理得到检测分支特征图,目标检测分支层用于根据检测分支特征图进行目标、分类和回归预测得到目标检测分支结果,包括:
优选地,网络层对浅层特征进行卷积处理得到重识别分支特征图,目标重识别分支层用于根据重识别分支特征图进行目标重识别得到目标重识别结果,包括:
优选地,步骤S200还包括:
根据预设的目标检测损失函数计算目标检测分支层的损失值,根据目标检测分支层的损失值对目标检测分支层进行反向更新,得到更新后的目标检测分支层,
根据预设的重识别损失函数计算目标重识别分支层的损失值,根据目标重识别分支层的损失值对目标重识别分支层进行反向更新,得到更新后的目标重识别分支层。
优选地,预设的目标检测损失函数,具体为:
Ldetection=λ1Lcls+λ2Lobj+λ3Lreg
Lreg=1-IoU
其中,λ1、λ2和λ3是平衡系数,Lcls、Lobj和Lreg分别为分类损失、目标损失和回归损失,Nobj代表用于计算Lobj损失函数的视频帧目标总个数,ys表示测试样本s的标签,前景标为1,背景标为0,ps表示测试样本s预测为前景的概率,IoU表示当前帧目标预测框和目标真实框的面积重叠率,Ncls代表用于计算Lcls损失函数的视频帧目标总个数,M表示类别的数量,ydc符号函数,如果当前视频帧目标d的真实类别等于c,ydc则为1,否则取0,pdc为当前帧目标d属于类别c的预测概率。
预设的重识别损失函数具体为:
优选地,步骤S300中基于目标检测结果和改进的卡尔曼滤波器预测跟踪目标的状态,具体为:
xt,i=f(xt-1,i)+wt-1
zt,j=h(xt,i)+vt
其中,xt,i为检测目标的状态,β=(u,v,γ,h),其中β表示目标的观测值,(u,v)表示边界框中心位置、高宽比为γ、高度为h,zt,j为跟踪目标的状态,wt-1和vt分别是过程噪声序列和测量噪声序列;
步骤S300中采用余弦距离和预设的距离阈值判别当前检测帧的重识别特征和预测更新后的跟踪框的重识别特征是否关联,具体为:
当余弦特征小于或等于预设的距离阈值时,则当前检测帧的重识别特征和预测更新后的跟踪框的重识别特征关联成功;当余弦特征大于预设的距离阈值时,则当前检测帧的重识别特征和预测更新后的跟踪框的重识别特征未关联成功。
优选地,步骤S400中根据深度图像获取跟踪目标以及所有其他目标在上一帧与当前帧之间的深度值,根据跟踪目标以及所有其他目标在上一帧与当前帧之间的深度值判断跟踪目标是否发生遮挡,具体为:
其遮挡判断准则如下:
其中,Tj为遮挡判断准则。
优选地,步骤S400中获取当前帧检测目标的深度图对应的边界框以及跟踪目标的深度图对应的边界框以得到目标框的重叠率,具体为:
C=b(xt,i)∩b(zt-1,j)>σ
其中,C为目标框的重叠率,σ为预设的重叠率阈值,b(xt,i)为当前帧检测目标xt,i的深度图对应的边界框,b(zt-1,j)为跟踪目标zt-1,j的深度图对应的边界框,若C大于σ表示xt,i与zt-1,j关联匹配;
步骤S400中根据目标框的重叠率以及与预设的关联遮挡目标的目标函数进行遮挡匹配跟踪,预测得到当前帧的遮挡目标作为目标跟踪结果,具体为:
其中,S*为目标跟踪结果,P(zt-1,j)为所有跟踪目标的先验概率,P(xt,i|zt-1,j)表示当前检测目标属于跟踪目标的条件概率,该条件概率是通过检测目标与上一帧跟踪目标框的重叠率计算得到;
优选地,步骤S500中的所述若目标消失,则移动机器人按照目标运动轨迹进行主动搜索,重新识别目标并使移动机器人继续跟随目标,包括:
在跟随过程中如果目标超出移动机器人视野范围,移动机器人会保留消失前最后一帧跟踪目标的重识别特征和位置信息,并朝着目标消失的方向继续运动,若跟踪目标再次出现在视野内,进行目标检测并提取该目标的重识别特征与所述消失前最后一帧跟踪目标的重识别特征关联匹配,实现跟踪目标重识别并使移动机器人继续跟随目标。
上述基于改进YOLOX的移动机器人目标跟随方法,主要包括目标检测、目标跟踪以及目标跟随三个部分。首先,以YOLOX网络为基础,在其框架下将主干网络采用改进后的YOLOX网络,提高复杂场景中目标检测的实时性。然后,通过改进的卡尔曼滤波器获取目标跟踪状态并采用数据关联进行目标匹配,通过深度直方图判定目标发生遮挡时,采用深度概率信息约束及最大后验概率进行匹配跟踪,确保机器人在遮挡情况下稳定跟踪目标,再采用基于视觉伺服控制的目标跟随算法,当跟踪目标丢失时,引入重识别特征主动搜寻目标实现目标跟随。有效提高目标检测精度和速度、提高目标预测与更新速率且保证移动机器人稳定跟随目标。
附图说明
图1为本发明提供的基于改进YOLOX的移动机器人目标跟随方法的流程图;
图2为本发明提供的基于改进YOLOX的移动机器人目标跟随方法的整体流程框图;
图3为本发明一实施例中遮挡前后深度直方图;
图4为本发明一实施例中ZED相机成像图;
图5为本发明一实施例中基于ZED相机的两轮差速驱动模型图;
图6为本发明一实施例中目标跟随器移动控制部分示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明的技术方案,下面结合附图对本发明作进一步的详细说明。
在一个实施例中,如图1所示,基于改进YOLOX的移动机器人目标跟随方法,方法包括以下步骤:
步骤S100:获取视频序列,从视频序列中得到RGB图像和深度图像。
步骤S200:将RGB图像输入至目标检测神经网络的得到目标检测结果;目标检测神经网络包括改进YOLOX主干网络、网络层、目标检测分支层和目标重识别分支层,改进YOLOX主干网络用于对RGB图像进行特征提取,得到浅层特征和深层特征;网络层对浅层特征和深层特征均进行卷积处理得到重识别分支特征图和检测分支特征图;目标检测分支层用于根据检测分支特征图进行目标、分类和回归预测得到目标检测分支结果,目标重识别分支层用于根据重识别分支特征图进行目标重识别得到目标重识别结果,根据目标检测分支结果和目标目标重识别结果得到目标检测结果。
具体地,目标检测是移动机器人目标跟随的关键问题,目标检测精度很大程度上决定了移动机器人跟随的稳定性。本发明以YOLOX体系架构为基础进行改进,优化网络结构与损失函数,提高检测实时性。主干网络使用MobileNetV2S网络,再通过网络层、目标检测分支层与目标重识别分支层得到检测结果。
在一个实施例中,改进YOLOX主干网络包括七个阶段,每个阶段的核心为MobileNetV2S网络,MobileNetV2S网络包括第一1×1卷积层、3×3卷积层、3×3深度卷积层、1×1投影卷积层和ReLU层,
第一1×1卷积层使用1×1卷积核将RGB特征图扩展为特征图F1×1∈RH×W×C′;
3×3卷积层对特征图F1×1∈RH×W×C′进行深度可分离卷积得到特征图F3×3∈RH ′×W′×C′;
将特征图F3×3∈RH′×W′×C′一分为二,将特征映射减少到原始通道数的一半,得到特征图F(3x3)/2∈RH′×W′×(C′/2)和F′(3x3)/2∈RH′×W′(C′/2),3×3深度可分离卷积层将特征图F′(3×3)/2∈RH′×W′×(C′/2)进行深度可分离卷积得到
将与F′(3×3)/2∈RH′×W′×(C′/2)两者结合在一起得到新的特征图F′3×3∈RH″′×W″′×C′,1×1投影卷积层将新特征图F′3×3∈RH″′×W″′×C′进行卷积得到特征图为F′∈RH″′×W″′×C″′,通过ReLU层得到每个瓶颈层的输出特征图,其中,第一阶段对应的输出特征图F1为浅层特征图,第七阶段对应的输出特征图F7为深层特征图。
具体地,本发明提出YOLOX-MobileNetV2S网络(YOLOX-M2S),将YOLOX主干网络采用轻量级的特征提取网络MobileNetV2S,该网络的卷积核心层是深度可分离卷积层,可将输出的特征图的通道数缩减至一半,并再与原卷积层提取的特征图合并,与仅使用一组深度可分离卷积的MobileNetV2相比,该网络可获得更多特征图的语义信息。
在YOLOX-M2S网络上,先采用COCO2017训练集训练得到网络参数,再移植到移动机器人平台进行实时检测。COCO数据集是一个可用于图像检测的大规模数据集,包含超过330K张图片(其中220K是有标注的图像),其中涵盖150万个目标及80个目标类别(objectcategories:行人、汽车、大象等)、91种材料类别(stuff categoris:草、墙、天空等),每张图片包含五句语句描述,且有250000个带关键点标注的行人。
如图2所示,MobileNetV2S网络将目标检测时的分类分为7个阶段,输入图片分辨率为H×W(H为图片高度,W为图片宽度)。假设输入特征图表示为F∈RH×W×C,其中H为高度、W为宽度、C为通道数,每个阶段的核心层为瓶颈层。
每个阶段的瓶颈层中包括以下步骤:使用1×1卷积核扩展特征图为F1×1∈RH×W×C′,大幅减少计算量;特征图F1×1∈RH×W×C′进行3×3深度可分离卷积得到特征图F3×3∈RH′×W′×C′;为进一步获得更多的语义信息,将特征图F3×3∈RH′×W′×C′一分为二,将特征映射减少到原始通道数的一半,得到特征图F(3×3)/2∈RH′×W′×(C′/2)和F′(3×3)/2∈RH′×W′×(C′/2),再将特征图F′(3×3)/2∈RH′×W′×(C′/2)进行深度可分离卷积得到然后将与F′(3×3)/2∈RH′×W′×(C′/2)两者结合在一起得到新的特征图F′3×3∈RH ″′×W″′×C′;最后,将新特征图F′3×3∈RH″′×W″′×C′使用卷积核为1×1的投影卷积层再次卷积,得到特征图为F′∈RH″′×W″′×C′,即得到每个瓶颈层的输出特征图。
在MobileNetV2S网络中的第7个阶段得到深层特征图F7∈R15×15×320,在第1个阶段得到浅层特征图F1∈R240×240×15,经网络层后得到目标检测分支层和目标重识别分支层的输入特征图。
在一个实施例中,目标检测分支层包括解耦头和均连接解耦头的目标分支、分类分支和回归分支,网络层对深层特征均进行卷积处理得到检测分支特征图,目标检测分支层用于根据检测分支特征图进行目标、分类和回归预测得到目标检测分支结果,包括:
具体地,MobileNetV2S网络输出的检测分支特征图F7∈R15×15×320经网络层后得到特征图再经过解耦头后得到检测分支,包括目标、分类和回归三个分支。输入目标分支的特征图为分支中每个特征点代表对应预测框内被检测目标属于前景的概率,据此判断目标是前景还是背景;为稳定训练过程并加快收敛速度、精确定位目标,该分支估计每个像素相对于目标中心的连续漂移,以减少下采样的影响。锚框大小用于估计每个位置的目标锚框的高度和宽度。输入回归分支的特征图为该分支对目标框的中心坐标点及高度宽度(x,y,w,h)进行预测;输入分类分支的特征图为该分支得到对目标所属类别的预测评分,如目标属于行人、车辆、动物等不同类别的评分,其代表目标属于各个类别的概率值。最后将三个分支的输出结果合并相加得到特征图即为目标检测分支的信息。
在一个实施例中,网络层对浅层特征进行卷积处理得到重识别分支特征图,目标重识别分支层用于根据重识别分支特征图进行目标重识别得到目标重识别结果,包括:
具体地,为在目标消失再出现时完成视频连续帧间的目标匹配识别(即目标重识别),在YOLOX-M2S网络中加入重识别分支提取目标的颜色、纹理等浅层外观特征作为重识别特征。
在一个实施例中,步骤S200还包括:
根据预设的目标检测损失函数计算目标检测分支层的损失值,根据目标检测分支层的损失值对目标检测分支层进行反向更新,得到更新后的目标检测分支层,
根据预设的重识别损失函数计算目标重识别分支层的损失值,根据目标重识别分支层的损失值对目标重识别分支层进行反向更新,得到更新后的目标重识别分支层。
在一个实施例中,预设的目标检测损失函数,具体为:
Ldetection=λ1Lcls+λ2Lobj+λ3Lreg
Lreg=1-IoU
其中,λ1、λ2和λ3是平衡系数,Lcls、Lobj和Lreg分别为分类损失、目标损失和回归损失,Nobj代表用于计算Lobj损失函数的视频帧目标总个数,ys表示测试样本s的标签,前景标为1,背景标为0,ps表示测试样本s预测为前景的概率,IoU表示当前帧目标预测框和目标真实框的面积重叠率,Ncls代表用于计算Lcls损失函数的视频帧目标总个数,M表示类别的数量,ydc符号函数,如果当前视频帧目标d的真实类别等于c,ydc则为1,否则取0,pdc为当前帧目标d属于类别c的预测概率。
预设的重识别损失函数具体为:
具体地,为度量目标检测信息和真实目标信息之间的差值,进一步定义损失函数,损失函数值越小、则差值越小、训练模型准确度越高。由于MobilNetV2S网络中的目标检测分支包括目标分支、回归分支和分类分支,其对应损失函数由目标损失函数Lobj、回归损失函数Lreg和分类损失函数Lcls三部分组成。
在目标检测中,需首先判定预测的目标属于前景或者背景,目标损失函数Lobj采用二分类的交叉熵损失函数度量其与真实值的差值;Lreg回归损失函数使用IoU损失函数来度量预测检测框与真实目标框的交并比(面积重叠度)。IoU指标范围为[0,1],当面积重叠率越大时,IoU指标数值越大。为评判当前视频帧目标所属的类别与真实值的差值,分类损失函数采用多分类交叉熵损失函数对目标所属类别的预测进行评分。
为评判重识别特征图准确度定义重识别损失函数,其值越小,表示重识别特征图越准确。最后将检测和重识别损失函数相加,同时使用不确定性损失函来自动平衡检测和重识别损失函数,与单独使用Lid训练模型相比,训练效果得到提升,同时减少了计算复杂度,可达到实时性要求。
步骤S300:基于目标检测结果和改进的卡尔曼滤波器预测跟踪目标的状态,根据跟踪目标的状态和重识别分支特征图得到当前检测帧的预测更新后的跟踪框的重识别特征图,采用余弦距离和预设的距离阈值判别当前检测帧的重识别特征和预测更新后的跟踪框的重识别特征是否关联。
具体地,首先使用第一帧检测的目标框初始化目标轨迹及跟踪状态,然后通过改进的卡尔曼滤波器预测下一帧目标位置,再采用连续帧间的数据关联确定目标跟踪状态。
在当前视频帧下,设t时刻检测到M个目标i=1,…,M,t时刻跟踪N个目标j=1,…,N,每一帧检测及跟踪结果实时更新,则当前t时刻的第i个检测目标状态为xt,i,第j个跟踪目标状态为zt,j。
在一个实施例中,步骤S300中基于目标检测结果和改进的卡尔曼滤波器预测跟踪目标的状态,具体为:
xt,i=f(xt-1,i)+wt-1
zt,j=h(xt,i)+vt
其中,xt,i为检测目标的状态,β={u,v,γ,h},其中β表示目标的观测值,(u,v)表示边界框中心位置、高宽比为γ、高度为h,zt,j为跟踪目标的状态,wt-1和vt分别是过程噪声序列和测量噪声序列。
具体地,假设wt-1和vt是均值为0的高斯白噪声,其方差分别为Qt和Rt,即wt-1~(0,Qt),Vt~(0,Rt)。
为详细说明改进卡尔曼滤波器预测与更新的过程,下文给出此部分的伪代码Algorithm 1。
在一个实施例中,步骤S300中采用余弦距离和预设的距离阈值判别当前检测帧的重识别特征和预测更新后的跟踪框的重识别特征是否关联,具体为:
当余弦特征小于或等于预设的距离阈值时,则当前检测帧的重识别特征和预测更新后的跟踪框的重识别特征关联成功;当余弦特征大于预设的距离阈值时,则当前检测帧的重识别特征和预测更新后的跟踪框的重识别特征未关联成功。
具体地,采用改进卡尔曼滤波器获取上一帧目标i的中心点在当前帧的预测位置zt,j,同时通过重识别特征图中对应该预测中心位置,得到上一帧目标在当前帧的预测外观特征移动机器人在跟随过程中,会出现遮挡、快速移动等情况,余弦距离具有快速度量的优点。采用余弦距离q(i,j)判别当前帧中心点对应的外观特征向量与上一帧在当前帧的预测外观特征向量是否关联:
其中,bi,j为正确关联轨迹集合。在训练数据集上训练网络参数得到余弦距离,并与训练集基准之间的余弦距离进行比较,得到阈值λ。则上式中,当bi,j小于阈值λ,表示当前帧检测目标i与上一帧跟踪目标j关联,则跟踪正常;当bi,j大于阈值λ表示未成功关联,则继续判断目标是否遮挡或消失。
步骤S400:若未关联成功,根据深度图像获取跟踪目标以及所有其他目标在上一帧与当前帧之间的深度值,根据跟踪目标以及所有其他目标在上一帧与当前帧之间的深度值判断跟踪目标是否发生遮挡,若发生遮挡,则获取当前帧检测目标的深度图对应的边界框以及跟踪目标的深度图对应的边界框以得到目标框的重叠率,根据目标框的重叠率以及与预设的关联遮挡目标的目标函数进行遮挡匹配跟踪,预测得到当前帧的遮挡目标作为目标跟踪结果。
具体地,跟踪目标由于被遮挡,目标外观会发生显著变化,导致目标特征减少,移动机器人跟踪目标丢失。本发明提出一种有效的遮挡处理机制,当判断遮挡发生时,采用深度概率对目标周围区域进行空间约束,并通过最大后验概率关联匹配实现遮挡跟踪。
(1)遮挡判断
由于多个目标相互遮挡时,RGB外观被遮挡,只可从深度信息区分不同遮挡目标,而ZED相机获取的深度信息为多个遮挡目标中离该相机最近的目标深度信息,因此将目标框在RGB图中的位置区域映射到深度图中并设定为深度遮挡区域,若判定其它目标进入此区域表示发生遮挡,具体判定如图3所示。
目标1遮挡前深度直方图最大峰值为4000,目标2遮挡前深度直方图的最大峰值为2500,发生遮挡后遮挡区域深度直方图最大峰值为2500,深度直方图的峰值从4000下降到2500。显然此时目标1的深度遮挡区域的深度直方图出现新的上升峰值2500,且小于遮挡前的峰值4000,则可见目标被遮挡后的深度直方图峰值明显减少。因此可根据深度变化大小判定是否发生遮挡。设跟踪目标j在t-1帧和t帧之间的深度变化均值可以近似为高斯分布在此基础上判定是否发生遮挡。
在一个实施例中,步骤S400中根据深度图像获取跟踪目标以及所有其他目标在上一帧与当前帧之间的深度值,根据跟踪目标以及所有其他目标在上一帧与当前帧之间的深度值判断跟踪目标是否发生遮挡,具体为:
其遮挡判断准则如下:
其中,Tj为遮挡判断准则。
在一个实施例中,步骤S400中获取当前帧检测目标的深度图对应的边界框以及跟踪目标的深度图对应的边界框以得到目标框的重叠率,具体为:
C=b(xt,i)∩b(zt-1,j)>σ
其中,C为目标框的重叠率,σ为预设的重叠率阈值,b(xt,i)为当前帧检测目标xt,i的深度图对应的边界框,b(zt-1,j)为跟踪目标zt-1,j的深度图对应的边界框,若C大于σ表示xt,i与zt-1,j关联匹配;
步骤S400中根据目标框的重叠率以及与预设的关联遮挡目标的目标函数进行遮挡匹配跟踪,预测得到当前帧的遮挡目标作为目标跟踪结果,具体为:
其中,S*为目标跟踪结果,P(zt-1,j)为所有跟踪目标的先验概率,P(xt,i|zt-1,j)表示当前检测目标属于跟踪目标的条件概率,该条件概率是通过检测目标与上一帧跟踪目标框的重叠率计算得到。
步骤S500:从目标跟踪结果中选定一个目标作为跟随目标,采用基于视觉伺服控制的目标跟随算法,使跟随目标框的中心点保持为视野范围中心点,若目标消失,则移动机器人按照目标运动轨迹进行主动搜索,重新识别目标并使移动机器人继续跟随目标。
具体地,由于ZED相机具有成像分辨率高、可获取远距离深度图像等优点,本发明采用ZED相机作为移动机器人视觉传感器,其内参已标定。假设ZED相机的镜头畸变小到可以忽略,相机固有参数用针孔模型表示,ZED相机成像原理图如附图4所示。在图像坐标系Y的跟踪目标坐标为P=(xcn,ycn,xcn),zn是从图像坐标和ZED相机的固有参数中获得。
zn=f×b/(xl-xr)=f×b/d
其中,f为相机焦距,b为左右相机基线,f和b是通过先验信息或相机标定得到。其中由极线约束关系,视差d可由左相机的像素点xl与右相机中像素点xr对应关系计算得到。
本发明算法将移动机器人平台简化为基于ZED相机的两轮差速模型,如图5所示。图5中包括世界坐标系G、机器人坐标系PR、ZED相机坐标系Z和图像坐标系Y。图中C(x,y)为移动机器人运动中心点,D为两轮之间的距离,θ为方向角。
其中R(θQ,θC)表示从世界坐标系Q到ZED相机坐标系Z旋转矩阵,δd表示在世界坐标系G中,移动机器人与摄像机的距离。
前述跟踪算法完成目标跟踪,并获取目标跟踪框的深度信息,但直接使用跟踪目标框的深度信息来计算机器人与跟随目标的距离,会引入大量的背景信息,因此需要对目标中心进行重定位,为跟踪区域找到合适的位置,提高机器人跟随精度。
(x*,y*)=(xl,yl)+(Δx,Δy)
得到精确位置(x*,y*)后,并获取以(x*,y*)为中心区域框的四个顶点坐标,计算中心点和顶点对应深度信息平均值f(t),其值表示为移动机器人与目标的距离,设移动机器人期望到达位置为f*(t),误差e(t)可定义为:
e(t)=f(t)-f*(t)
机器人控制变量为Xcontrol=[U(t)=vt,W(t)=wt],vt代表移动机器人的线速度,wt代表移动机器人的角速度,PID控制器设计为:
其中kP、kI和kD为PID系数,λ是调整因子。
在一个实施例中,步骤S500中的所述若目标消失,则移动机器人按照目标运动轨迹进行主动搜索,重新识别目标并使移动机器人继续跟随目标,包括:
在跟随过程中如果目标超出移动机器人视野范围,移动机器人会保留消失前最后一帧跟踪目标的重识别特征和位置信息,并朝着目标消失的方向继续运动,若跟踪目标再次出现在视野内,进行目标检测并提取该目标的重识别特征与所述消失前最后一帧跟踪目标的重识别特征关联匹配,实现跟踪目标重识别并使移动机器人继续跟随目标。
目标跟随控制部分的结构框图如图6所示,误差e(t)为PID控制器的输入端,实时控制移动机器人角速度和线速度,移动机器人与目标保持一定距离并稳定跟随目标。在跟随过程中如果目标超出移动机器人视野范围,移动机器人会保留消失前最后一帧跟踪目标的重识别特征和位置信息,并朝着目标消失的方向继续运动,若跟踪目标再次出现在视野内,进行目标检测并提取该目标的重识别特征与消失前最后一帧跟踪目标的重识别特征关联匹配,实现跟踪目标重识别即为重检成功,则可实现目标消失后再重识别并稳定跟随目标。
上述基于改进YOLOX的移动机器人目标跟随方法,主要由目标检测、目标跟踪及目标跟随控制三部分组成。首先,将YOLOX的主干网络Darknet-53替换为MobileNetV2S,通过获取的RGB视频序列输入训练完成的MobileNetV2S网络得到特征图,再将重识别损失函数和检测损失函数分别训练重识别分支及检测分支,从而得到目标检测结果。然后采用改进的卡尔曼滤波器获取跟踪状态,通过轨迹关联实现目标匹配,同时引入遮挡判别机制,如判断目标被遮挡则加入深度概率约束进行遮挡目标跟踪匹配。最后采用基于视觉伺服控制的主动搜寻策略完成移动机器人目标跟随。
综上,基于YOLO系列的移动机器人目标跟随算法的鲁棒性强且精度高,但对于变化环境迁移和泛化能力弱,且运行速率低。而传统移动机器人目标跟随算法速度快,但是当目标发生形变、尺度变化和严重遮挡等情况时,跟踪过程容易出现目标跟踪丢失。因此,为实现复杂场景下移动机器人稳定跟随目标,本发明提出改进YOLOX的移动机器人目标跟随方法。主要工作如下:
(1)为提高目标检测精度和速度,提出基于YOLOX-MobileNetV2S网络(YOLOX-M2S)的目标检测算法,使用交叉熵损失、回归损失以及重识别损失函数,共同训练检测与重识别分支;
(2)为提高目标预测与更新速率,采用改进的卡尔曼滤波器获取目标跟踪状态。同时加入基于深度直方图的遮挡检测机制,并通过深度概率约束帧间目标匹配,提高遮挡跟踪准确率;
(3)在目标跟随过程中,提出基于视觉伺服控制的主动搜寻策略,并在目标消失时引入重识别特征进行跟踪跟随,保证移动机器人稳定跟随目标。
以上对本发明所提供的基于改进YOLOX的移动机器人目标跟随方法进行了详细介绍。本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。
Claims (10)
1.基于改进YOLOX的移动机器人目标跟随方法,其特征在于,所述方法包括以下步骤:
步骤S100:获取视频序列,从所述视频序列中得到RGB图像和深度图像;
步骤S200:将所述RGB图像输入至目标检测神经网络的得到目标检测结果;所述目标检测神经网络包括改进YOLOX主干网络、网络层、目标检测分支层和目标重识别分支层,所述改进YOLOX主干网络用于对所述RGB图像进行特征提取,得到浅层特征和深层特征;所述网络层对所述浅层特征和所述深层特征均进行卷积处理得到重识别分支特征图和检测分支特征图;所述目标检测分支层用于根据所述检测分支特征图进行目标、分类和回归预测得到目标检测分支结果,所述目标重识别分支层用于根据所述重识别分支特征图进行目标重识别得到目标重识别结果,根据所述目标检测分支结果和所述目标目标重识别结果得到目标检测结果;
步骤S300:基于所述目标检测结果和改进的卡尔曼滤波器预测跟踪目标的状态,根据所述跟踪目标的状态和所述重识别分支特征图得到当前检测帧的预测更新后的跟踪框的重识别特征图,计算当前检测帧的重识别特征特征与所述预测更新后的跟踪框的重识别特征的余弦距离,采用所述余弦距离和预设的距离阈值判别当前检测帧的重识别特征和预测更新后的跟踪框的重识别特征是否关联;
步骤S400:若未关联成功,根据所述深度图像获取跟踪目标以及所有其他目标在上一帧与当前帧之间的深度值,根据所述跟踪目标以及所有其他目标在上一帧与当前帧之间的深度值判断所述跟踪目标是否发生遮挡,若发生遮挡,则获取当前帧检测目标的深度图对应的边界框以及跟踪目标的深度图对应的边界框以得到目标框的重叠率,根据所述目标框的重叠率以及与预设的关联遮挡目标的目标函数进行遮挡匹配跟踪,预测得到当前帧的遮挡目标作为目标跟踪结果;
步骤S500:从所述目标跟踪结果中选定一个目标作为跟随目标,采用基于视觉伺服控制的目标跟随算法,使跟随目标框的中心点保持为视野范围中心点,若目标消失,则移动机器人按照目标运动轨迹进行主动搜索,重新识别目标并使移动机器人继续跟随目标。
2.根据权利要求1所述的方法,其特征在于,所述改进YOLOX主干网络包括七个阶段,每个阶段的核心为MobileNetV2S网络,所述MobileNetV2S网络包括1×1卷积层、3×3卷积层、3×3深度卷积层、1×1投影卷积层和ReLU层,
所述第一1×1卷积层使用1×1卷积核将RGB特征图扩展为特征图F1×1∈RH×W×C′;
所述3×3卷积层对特征图F1×1∈RH×W×C′进行深度可分离卷积得到特征图F3×3∈RH ′×W′×C′;
将所述特征图F3×3∈RH′×W′×C′一分为二,将特征映射减少到原始通道数的一半,得到特征图F(3×3)/2∈RH′×W′×(C′/2)和F′(3×3)/2∈RH′×W′×(C′/2),所述3×3深度可分离卷积层将特征图F′(3×3)/2∈RH×W′×(C′/2)进行深度可分离卷积得到F″(3×3)/2∈RH″×W″×(C′/2);
将F″(3×3)/2∈RH″×W″×(C′/2)与F′(3×3)/2∈RH′×W′×(C′/2)两者结合在一起得到新的特征图F′3×3∈RH″′×W″′×C′,所述1×1投影卷积层将新特征图F′3×3∈RH″′×W″′×C′进行卷积得到特征图为F′∈RH″′×W″′×C″,通过ReLU层得到每个瓶颈层的输出特征图,其中,第一阶段对应的输出特征图F1为浅层特征图,第七阶段对应的输出特征图F7为深层特征图。
3.根据权利要求2所述的方法,其特征在于,所述目标检测分支层包括解耦头和均连接所述解耦头的目标分支、分类分支和回归分支,所述网络层对所述深层特征均进行卷积处理得到检测分支特征图,所述目标检测分支层用于根据所述检测分支特征图进行目标、分类和回归预测得到目标检测分支结果,包括:
5.根据权利要求4所述的方法,其特征在于,步骤S200还包括:
根据预设的目标检测损失函数计算所述目标检测分支层的损失值,根据所述目标检测分支层的损失值对所述目标检测分支层进行反向更新,得到更新后的目标检测分支层,
根据预设的重识别损失函数计算所述目标重识别分支层的损失值,根据所述目标重识别分支层的损失值对所述目标重识别分支层进行反向更新,得到更新后的目标重识别分支层。
6.根据权利要求5所述的方法,其特征在于,预设的目标检测损失函数,具体为:
Ldetection=λ1Lcls+λ2Lobj+λ3Lreg
Lreg=1-IoU
其中,λ1、λ2和λ3是平衡系数,Lcls、Lobj和Lreg分别为分类损失、目标损失和回归损失,Nobj代表用于计算Lobj损失函数的视频帧目标总个数,ys表示测试样本s的标签,前景标为1,背景标为0,ps表示测试样本s预测为前景的概率,IoU表示当前帧目标预测框和目标真实框的面积重叠率,Ncls代表用于计算Lcls损失函数的视频帧目标总个数,M表示类别的数量,ydc符号函数,如果当前视频帧目标d的真实类别等于c,ydc则为1,否则取0,pdc为当前帧目标d属于类别c的预测概率。
预设的重识别损失函数具体为:
7.根据权利要求6所述的方法,其特征在于,步骤S300中基于所述目标检测结果和改进的卡尔曼滤波器预测跟踪目标的状态,具体为:
xt,i=f(xt-1,i)+wt-1
zt,j=h(xt,i)+vt
其中,xt,i为检测目标的状态,β=(u,v,γ,h),其中β表示目标的观测值,(u,v)表示边界框中心位置、高宽比为γ、高度为h,zt,j为跟踪目标的状态,wt-1和vt分别是过程噪声序列和测量噪声序列;
步骤S300中采用余弦距离和预设的距离阈值判别当前检测帧的重识别特征和预测更新后的跟踪框的重识别特征是否关联,具体为:
当余弦特征小于或等于预设的距离阈值时,则当前检测帧的重识别特征和预测更新后的跟踪框的重识别特征关联成功;当余弦特征大于预设的距离阈值时,则当前检测帧的重识别特征和预测更新后的跟踪框的重识别特征未关联成功。
9.根据权利要求8所述的方法,其特征在于,步骤S400中获取当前帧检测目标的深度图对应的边界框以及跟踪目标的深度图对应的边界框以得到目标框的重叠率,具体为:
C=b(xt,i)∩b(zt-1,j)>σ
其中,C为目标框的重叠率,σ为预设的重叠率阈值,b(xt,i)为当前帧检测目标xt,i的深度图对应的边界框,b(zt-1,j)为跟踪目标zt-1,j的深度图对应的边界框,若C大于σ表示xt,i与zt-1,j关联匹配;
步骤S400中根据所述目标框的重叠率以及与预设的关联遮挡目标的目标函数进行遮挡匹配跟踪,预测得到当前帧的遮挡目标作为目标跟踪结果,具体为:
其中,S*为目标跟踪结果,P(zt-1,j)为所有跟踪目标的先验概率,P(xt,i∣zt-1,j)表示当前检测目标属于跟踪目标的条件概率,该条件概率是通过检测目标与上一帧跟踪目标框的重叠率计算得到。
10.根据权利要求9所述的方法,其特征在于,步骤S500中的所述若目标消失,则移动机器人按照目标运动轨迹进行主动搜索,重新识别目标并使移动机器人继续跟随目标,包括:
在跟随过程中如果目标超出移动机器人视野范围,移动机器人会保留消失前最后一帧跟踪目标的重识别特征和位置信息,并朝着目标消失的方向继续运动,若跟踪目标再次出现在视野内,进行目标检测并提取该目标的重识别特征与所述消失前最后一帧跟踪目标的重识别特征关联匹配,实现跟踪目标重识别并使移动机器人继续跟随目标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210966893.XA CN115205339A (zh) | 2022-08-11 | 2022-08-11 | 基于改进yolox的移动机器人目标跟随方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210966893.XA CN115205339A (zh) | 2022-08-11 | 2022-08-11 | 基于改进yolox的移动机器人目标跟随方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115205339A true CN115205339A (zh) | 2022-10-18 |
Family
ID=83585127
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210966893.XA Pending CN115205339A (zh) | 2022-08-11 | 2022-08-11 | 基于改进yolox的移动机器人目标跟随方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115205339A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115761646A (zh) * | 2022-12-06 | 2023-03-07 | 武汉纺织大学 | 一种面向工业园区的行人跟踪方法、设备及存储介质 |
CN116189229A (zh) * | 2022-11-30 | 2023-05-30 | 中信重工开诚智能装备有限公司 | 一种基于煤矿辅助运输机器人的人员跟踪方法 |
CN116659487A (zh) * | 2022-11-02 | 2023-08-29 | 丰疆智能(深圳)有限公司 | 位姿调整方法、位姿调整装置、电子设备及可读存储介质 |
CN117197695A (zh) * | 2023-09-14 | 2023-12-08 | 思翼科技(深圳)有限公司 | 基于人工智能的无人机云台相机目标识别跟踪方法及系统 |
-
2022
- 2022-08-11 CN CN202210966893.XA patent/CN115205339A/zh active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116659487A (zh) * | 2022-11-02 | 2023-08-29 | 丰疆智能(深圳)有限公司 | 位姿调整方法、位姿调整装置、电子设备及可读存储介质 |
CN116189229A (zh) * | 2022-11-30 | 2023-05-30 | 中信重工开诚智能装备有限公司 | 一种基于煤矿辅助运输机器人的人员跟踪方法 |
CN116189229B (zh) * | 2022-11-30 | 2024-04-05 | 中信重工开诚智能装备有限公司 | 一种基于煤矿辅助运输机器人的人员跟踪方法 |
CN115761646A (zh) * | 2022-12-06 | 2023-03-07 | 武汉纺织大学 | 一种面向工业园区的行人跟踪方法、设备及存储介质 |
CN115761646B (zh) * | 2022-12-06 | 2023-08-01 | 武汉纺织大学 | 一种面向工业园区的行人跟踪方法、设备及存储介质 |
CN117197695A (zh) * | 2023-09-14 | 2023-12-08 | 思翼科技(深圳)有限公司 | 基于人工智能的无人机云台相机目标识别跟踪方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111488795B (zh) | 应用于无人驾驶车辆的实时行人跟踪方法 | |
CN115205339A (zh) | 基于改进yolox的移动机器人目标跟随方法 | |
CN109059895B (zh) | 一种基于手机摄像头和传感器的多模态室内测距及定位方法 | |
Bremond et al. | Tracking multiple nonrigid objects in video sequences | |
Berrio et al. | Camera-LIDAR integration: Probabilistic sensor fusion for semantic mapping | |
Yang et al. | A RGB-D based real-time multiple object detection and ranging system for autonomous driving | |
Ai et al. | Visual SLAM in dynamic environments based on object detection | |
CN110765906A (zh) | 一种基于关键点的行人检测算法 | |
Wang et al. | A unified framework for mutual improvement of SLAM and semantic segmentation | |
CN108961342B (zh) | 一种光流传感器的校准方法及系统 | |
CN110427797B (zh) | 一种基于几何条件限制的三维车辆检测方法 | |
Smith | ASSET-2: Real-time motion segmentation and object tracking | |
Budvytis et al. | Large scale joint semantic re-localisation and scene understanding via globally unique instance coordinate regression | |
CN113223045A (zh) | 基于动态物体语义分割的视觉与imu传感器融合定位系统 | |
CN111612823A (zh) | 一种基于视觉的机器人自主跟踪方法 | |
CN110517291A (zh) | 一种基于多特征空间融合的道路车辆跟踪方法 | |
CN113516664A (zh) | 一种基于语义分割动态点的视觉slam方法 | |
CN112581543A (zh) | 运动机器人视觉导航方法 | |
CN115565130A (zh) | 一种无人值守系统及其基于光流的监控方法 | |
Guzel et al. | Vision based obstacle avoidance techniques | |
CN114689038A (zh) | 基于机器视觉的果实检测定位与果园地图构建方法 | |
CN117519168A (zh) | 一种基于视觉图像和激光雷达的机器人导航避障方法 | |
Li et al. | High-precision motion detection and tracking based on point cloud registration and radius search | |
Kim et al. | Pedestrian detection with simplified depth prediction | |
CN111160231A (zh) | 一种基于Mask R-CNN的自动驾驶环境道路提取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |