CN112734794B - 一种基于深度学习的运动目标跟踪与定位方法 - Google Patents

一种基于深度学习的运动目标跟踪与定位方法 Download PDF

Info

Publication number
CN112734794B
CN112734794B CN202110047697.8A CN202110047697A CN112734794B CN 112734794 B CN112734794 B CN 112734794B CN 202110047697 A CN202110047697 A CN 202110047697A CN 112734794 B CN112734794 B CN 112734794B
Authority
CN
China
Prior art keywords
image
algorithm
frame image
target
next frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110047697.8A
Other languages
English (en)
Other versions
CN112734794A (zh
Inventor
蔡志浩
强祺昌
赵江
王英勋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN202110047697.8A priority Critical patent/CN112734794B/zh
Publication of CN112734794A publication Critical patent/CN112734794A/zh
Application granted granted Critical
Publication of CN112734794B publication Critical patent/CN112734794B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度学习的运动目标跟踪与定位方法,利用深度神经网络YOLOv3‑Tiny算法检测目标的图像坐标,利用深度学习SORT跟踪算法预测目标的位置,利用SolvePnp位置估计算法计算目标的空间位置。YOLOv3检测算法与SORT跟踪算法可以在保证算法准确度的基础上,满足实际应用中的实时性要求;空间定位选用的SolvePnP算法,只需四个特征点即可获得摄像机的旋转矩阵,相比于其他算法运行速度快,基本能够达到与目标检测结果同步运算的效果。本发明可以有效降低对硬件性能的要求,提升算法的运算效率,减少人力财力的消耗,在实际应用中具体较好的应用价值。

Description

一种基于深度学习的运动目标跟踪与定位方法
技术领域
本发明涉及物体检测与跟踪技术领域,尤其涉及一种基于深度学习的运动目标跟踪与定位方法。
背景技术
目标检测与目标跟踪是计算机视觉领域的基本任务之一。近些年随着神经网络的火热发展,基于深度学习的目标检测与目标跟踪算法也蓬勃发展起来。
基于深度学习的目标检测与目标跟踪算法采用端到端的解决方式,即输入图像到输出任务结果一步完成,可以有效提高解决问题的效率。但在实际检测与跟踪运动目标的过程中,会存在硬件技术的限制,因此,在实时性上存在很大的提升空间。
发明内容
有鉴于此,本发明提供了一种基于深度学习的运动目标跟踪与定位方法,用以满足实际应用要求的准确性和实时性。
本发明提供的一种基于深度学习的运动目标跟踪与定位方法,包括如下步骤:
S1:利用飞行器搭载摄像头,采集视频图像;
S2:利用深度神经网络YOLOv3-Tiny算法,检测所述视频图像中当前帧图像的目标区域,输出当前帧图像的目标区域内运动目标的分类结果和目标区域的图像坐标;
S3:将深度神经网络YOLOv3-Tiny算法输出的当前帧图像的目标区域内运动目标的分类结果和目标区域的图像坐标,输入深度学习SORT跟踪算法,预测所述视频图像的下一帧图像中运动目标的位置,判断下一帧图像中运动目标的预测位置与当前帧图像的目标区域之间的IOU是否大于IOU1阈值;若是,则深度学习SORT跟踪算法输出下一帧图像中运动目标的预测位置;若否,则利用深度学习SORT跟踪算法重新预测下一帧图像中运动目标的位置;
S4:将深度学习SORT跟踪算法输出的下一帧图像中运动目标的预测位置,输入SolvePnp位置估计算法,根据三角形相似原理,计算下一帧图像中运动目标的世界坐标。
在一种可能的实现方式中,在本发明提供的上述基于深度学习的运动目标跟踪与定位方法中,在执行步骤S1,利用飞行器搭载摄像头,采集视频图像之后,在执行步骤S2,利用深度神经网络YOLOv3-Tiny算法,检测所述视频图像中当前帧图像的目标区域,输出当前帧图像的目标区域内运动目标的分类结果和目标区域的图像坐标之前,还包括:
对所述视频图像进行数据归一化处理:
输入:X=x1,...,xm (1)
过程:
Figure BDA0002897984310000021
Figure BDA0002897984310000022
Figure BDA0002897984310000023
输出:
Figure BDA0002897984310000024
其中,X表示上一层深度神经网络的输出结果,xi表示每层深度神经网络中的参数,i=1,2,…,m;μβ表示深度神经网络YOLOv3-Tiny算法训练批次均值,m表示深度神经网络YOLOv3-Tiny算法训练批次大小,
Figure BDA0002897984310000025
表示深度神经网络YOLOv3-Tiny算法训练批次方差,
Figure BDA0002897984310000026
为数据归一化处理中的中间参数,ε是防止式(4)中分母为0的正数;yi表示本层深度神经网络的输出结果,γ和β表示学习参数。
在一种可能的实现方式中,在本发明提供的上述基于深度学习的运动目标跟踪与定位方法中,步骤S1,利用飞行器搭载摄像头,采集视频图像,具体包括:
利用四旋翼F450飞行器搭载单目摄像头,采集视频图像。
在一种可能的实现方式中,在本发明提供的上述基于深度学习的运动目标跟踪与定位方法中,步骤S2,利用深度神经网络YOLOv3-Tiny算法,检测所述视频图像中当前帧图像的目标区域,输出当前帧图像的目标区域内运动目标的分类结果和目标区域的图像坐标,具体包括:
利用深度神经网络YOLOv3-Tiny算法训练数据获得检测网络模型,通过深度神经网络YOLOv3-Tiny算法的Darknet-53网络结构对所述视频图像中的当前帧图像进行多尺度特征提取,利用所述检测网络模型对当前帧图像中运动目标的类别和位置进行预测,判断当前帧图像中运动目标的预测位置与当前帧图像的目标区域之间的IOU是否大于IOU2阈值;若是,则输出当前帧图像的目标区域内运动目标的分类结果和目标区域的图像坐标;若否,则利用深度神经网络YOLOv3-Tiny算法对下一帧图像进行检测。
在一种可能的实现方式中,在本发明提供的上述基于深度学习的运动目标跟踪与定位方法中,步骤S3,将深度神经网络YOLOv3-Tiny算法输出的当前帧图像的目标区域内运动目标的分类结果和目标区域的图像坐标,输入深度学习SORT跟踪算法,预测所述视频图像的下一帧图像中运动目标的位置,判断下一帧图像中运动目标的预测位置与当前帧图像的目标区域之间的IOU是否大于IOU1阈值;若是,则深度学习SORT跟踪算法输出下一帧图像中运动目标的预测位置;若否,则利用深度学习SORT跟踪算法重新预测下一帧图像中运动目标的位置,具体包括:
利用卡尔曼滤波算法对所述视频图像的下一帧图像中运动目标的位置进行预测:
Figure BDA0002897984310000041
其中,u表示当前帧图像中运动目标的中心横坐标,v表示当前帧图像中运动目标的中心纵坐标,s表示当前帧图像中目标区域的尺寸,r表示目标区域的长宽比,
Figure BDA0002897984310000043
表示预测的下一帧图像中运动目标的中心横坐标,
Figure BDA0002897984310000044
表示预测的下一帧图像中运动目标的中心纵坐标,
Figure BDA0002897984310000045
表示预测的下一帧图像中目标区域的尺寸;
将下一帧图像的预测结果与当前帧图像的检测结果进行比对,利用匈牙利关联算法引入代价矩阵,代价矩阵定义为下一帧图像中运动目标的预测位置与当前帧图像的目标区域之间的IOU,判断下一帧图像中运动目标的预测位置与当前帧图像的目标区域之间的IOU是否大于IOU1阈值,若是,则预测结果与检测结果比对成功,深度学习SORT跟踪算法输出下一帧图像中运动目标的预测位置;若否,则利用深度学习SORT跟踪算法重新预测下一帧图像中运动目标的位置。
在一种可能的实现方式中,在本发明提供的上述基于深度学习的运动目标跟踪与定位方法中,步骤S4,将深度学习SORT跟踪算法输出的下一帧图像中运动目标的预测位置,输入SolvePnp位置估计算法,根据三角形相似原理,计算下一帧图像中运动目标的世界坐标,具体包括:
对摄像头进行标定,获得摄像头的内参矩阵:
Figure BDA0002897984310000042
其中,f表示摄像头焦距参数,单位是mm;dx和dy表示图像像元尺寸;μ0和v0为图像中心;
准备世界坐标系下的任意四个目标特征点,在图像坐标系上找到与所述四个目标特征点对应的坐标,创建所述旋转矩阵和所述平移矩阵的变量作为输出变量,利用所述内参矩阵求解摄像头的旋转矩阵R和平移矩阵T;
将深度学习SORT跟踪算法输出的下一帧图像中运动目标的预测位置输入SolvePnp位置估计算法,利用所述旋转矩阵R和所述平移矩阵T,通过如下公式求解下一帧图像中运动目标的世界坐标:
Figure BDA0002897984310000051
其中,
Figure BDA0002897984310000052
表示摄像头的外参矩阵,
Figure BDA0002897984310000053
表示下一帧图像中运动目标的世界坐标,
Figure BDA0002897984310000054
表示下一帧图像中运动目标的预测位置的坐标,Zc表示设定参数。
本发明提供的上述基于深度学习的运动目标跟踪与定位方法,面向实际应用场景的实时目标检测、跟踪与定位。首先,利用深度神经网络YOLOv3-Tiny算法检测目标的图像坐标,然后,利用深度学习SORT跟踪算法预测目标的位置,最后,利用SolvePnp位置估计算法计算目标的空间位置。YOLOv3检测算法与SORT跟踪算法可以在保证算法准确度的基础上,满足实际应用中的实时性要求;空间定位选用的SolvePnP算法,只需四个特征点即可获得摄像机的旋转矩阵,相比于其他算法运行速度快,基本能够达到与目标检测结果同步运算的效果。本发明提供的上述基于深度学习的运动目标跟踪与定位方法,可以有效降低对硬件性能的要求,提升算法的运算效率,减少人力财力的消耗,在实际应用中具体较好的应用价值。
附图说明
图1为本发明实施例1的流程示意图;
图2为本发明实施例1中深度学习SORT跟踪算法的流程示意图;
图3为本发明实施例1中SolvePnp位置估计算法的原理图。
具体实施方式
下面将结合本发明实施方式中的附图,对本发明实施方式中的技术方案进行清楚、完整的描述,显然,所描述的实施方式仅仅是作为例示,并非用于限制本发明。
本发明提供的一种基于深度学习的运动目标跟踪与定位方法,包括如下步骤:
S1:利用飞行器搭载摄像头,采集视频图像;
S2:利用深度神经网络YOLOv3-Tiny算法,检测视频图像中当前帧图像的目标区域,输出当前帧图像的目标区域内运动目标的分类结果和目标区域的图像坐标;
具体地,YOLOv3是YOLO目标检测算法的第三个改进版本,具有小而精的特点,对硬件设备要求不高,约1GB显存大小即可,通过减少YOLOv3算法输出张量的尺度,可以有效减小运算量从而提高算法运行速度;与其他算法相比,YOLOv3算法在检测精度与检测速度方面都有大幅度的提升;
S3:将深度神经网络YOLOv3-Tiny算法输出的当前帧图像的目标区域内运动目标的分类结果和目标区域的图像坐标,输入深度学习SORT跟踪算法,预测视频图像的下一帧图像中运动目标的位置,判断下一帧图像中运动目标的预测位置与当前帧图像的目标区域之间的IOU是否大于IOU1阈值;若是,则深度学习SORT跟踪算法输出下一帧图像中运动目标的预测位置;若否,则利用深度学习SORT跟踪算法重新预测下一帧图像中运动目标的位置;
具体地,深度学习SORT跟踪算法在保证实时性的基础上,可以大大提升算法的准确性,能够满足实际应用条件,在低内存情况下也能达到实时检测的要求,有助于解决实际应用中功耗大、内存小等难题;
S4:将深度学习SORT跟踪算法输出的下一帧图像中运动目标的预测位置,输入SolvePnp位置估计算法,根据三角形相似原理,计算下一帧图像中运动目标的世界坐标;
具体地,空间定位是通过四个已知坐标的特征点以及它们在摄像机图像中的成像坐标,求解出摄像机位于坐标系内的坐标与旋转角度,其核心在于PnP问题,通过PnP方法求解运动目标的空间位置。
本发明提供的上述基于深度学习的运动目标跟踪与定位方法,属于深度学习下的计算机视觉方向,计算机视觉包括四个基本任务:图像分类、物体检测、语义分割和实例分割。本发明属于物体检测与跟踪领域,主要通过深度学习算法进行端到端的解决问题,即输入图像到输出结果一步完成。目标检测、跟踪与定位的流程为:识别图像中所需目标的类别并进行跟踪,获得此目标的图像坐标,通过定位算法解算出目标的世界坐标。
较佳地,为了提升网络模型的精度与收敛速度,在执行本发明提供的上述基于深度学习的运动目标跟踪与定位方法中的步骤S1,利用飞行器搭载摄像头,采集视频图像之后,在执行本发明提供的上述基于深度学习的运动目标跟踪与定位方法中的步骤S2,利用深度神经网络YOLOv3-Tiny算法,检测视频图像中当前帧图像的目标区域,输出当前帧图像的目标区域内运动目标的分类结果和目标区域的图像坐标之前,还可以对视频图像进行预处理,具体可以为数据归一化处理,处理过程如下:
输入:X=x1,...,xm (1)
过程:
Figure BDA0002897984310000071
Figure BDA0002897984310000072
Figure BDA0002897984310000081
输出:
Figure BDA0002897984310000082
其中,X表示上一层深度神经网络的输出结果,xi表示每层深度神经网络中的参数,i=1,2,…,m;μβ表示深度神经网络YOLOv3-Tiny算法训练批次均值,m表示深度神经网络YOLOv3-Tiny算法训练批次大小,
Figure BDA0002897984310000083
表示深度神经网络YOLOv3-Tiny算法训练批次方差,
Figure BDA0002897984310000084
为数据归一化处理中的中间参数,ε是防止式(4)中分母为0的正数,即ε是接近于0的很小的正数;yi表示本层深度神经网络的输出结果,γ和β表示学习参数。
本发明提供的上述基于深度学习的运动目标跟踪与定位方法,可以通过四旋翼F450飞行器搭载Nvidia Xavier微型计算机、单目摄像头和导航系统等设备来实现,选择F450型号的原因是其负载能够满足飞行需求。上述试验平台可以简单分为以下三个模块:图像采集模块、图像处理模块和导航定位模块。四旋翼F450飞行器搭载单目摄像头采集地面或空中目标的视频图像,然后通过USB相机接口将采集的视频图像传输给图像处理模块,图像处理模块采用8-Core ARM的8核CPU、512-Core Volta的GPU加速单元、双深度学习加速器(DLA)引擎以及NVIDIA XAVIER嵌入式设备对视频图像进行处理,导航定位模块利用OptiTrack系统与图像处理模块进行数据融合,负责定位飞行器自身位置和目标所处的空间位置。
下面通过一个具体的实施例对本发明提供的上述基于深度学习的运动目标跟踪与定位方法的具体实施进行详细说明。
实施例1:
图1为整体试验流程,前期准备包括制作数据集和标定单目摄像头。四旋翼飞行器执行任务时,单目摄像头传入的视频图像,首先经过目标检测算法(即深度神经网络YOLOv3-Tiny算法)得到图像坐标,然后经过跟踪算法(即深度学习SORT跟踪算法)得到预测位置,最后将结果传给SolvePnp位置估计算法完成坐标转换,获得目标的实际位置。具体步骤如下:
第一步:利用飞行器搭载摄像头,采集视频图像。
具体地,可以利用四旋翼F450飞行器搭载单目摄像头,采集视频图像;采集的视频图像,可以为地面目标的视频图像,或者,也可以为空中目标的视频图像,在此不做限定。
第二步:利用深度神经网络YOLOv3-Tiny算法,检测视频图像中当前帧图像的目标区域,输出当前帧图像的目标区域内运动目标的分类结果和目标区域的图像坐标。
具体地,可以利用深度神经网络YOLOv3-Tiny算法训练数据获得检测网络模型,通过深度神经网络YOLOv3-Tiny算法的Darknet-53网络结构对视频图像中的当前帧图像进行多尺度特征提取,利用检测网络模型对当前帧图像中运动目标的类别和位置进行预测,然后通过评价指标筛选出预测的准确目标,具体是判断当前帧图像中运动目标的预测位置与当前帧图像的目标区域之间的IOU是否大于IOU2阈值;若是,则输出当前帧图像的目标区域内运动目标的分类结果和目标区域的图像坐标;若否,则利用深度神经网络YOLOv3-Tiny算法对下一帧图像进行检测。
第三步:将深度神经网络YOLOv3-Tiny算法输出的当前帧图像的目标区域内运动目标的分类结果和目标区域的图像坐标,输入深度学习SORT跟踪算法,预测视频图像的下一帧图像中运动目标的位置,判断下一帧图像中运动目标的预测位置与当前帧图像的目标区域之间的IOU是否大于IOU1阈值;若是,则深度学习SORT跟踪算法输出下一帧图像中运动目标的预测位置;若否,则利用深度学习SORT跟踪算法重新预测下一帧图像中运动目标的位置。深度学习SORT跟踪算法的流程如图2所示。
利用卡尔曼滤波算法对视频图像的下一帧图像中运动目标的位置进行预测:
Figure BDA0002897984310000091
其中,u表示当前帧图像中运动目标的中心横坐标,v表示当前帧图像中运动目标的中心纵坐标,s表示当前帧图像中目标区域的尺寸,r表示目标区域的长宽比(为一个常量),
Figure BDA0002897984310000101
表示预测的下一帧图像中运动目标的中心横坐标,
Figure BDA0002897984310000102
表示预测的下一帧图像中运动目标的中心纵坐标,
Figure BDA0002897984310000103
表示预测的下一帧图像中目标区域的尺寸;
然后,将下一帧图像的预测结果与当前帧图像的检测结果进行关联,具体地,将下一帧图像的预测结果与当前帧图像的检测结果进行比对,利用匈牙利关联算法引入代价矩阵,代价矩阵定义为下一帧图像中运动目标的预测位置与当前帧图像的目标区域之间的IOU,判断下一帧图像中运动目标的预测位置与当前帧图像的目标区域之间的IOU是否大于IOU1阈值,若是,则预测结果与检测结果比对成功,深度学习SORT跟踪算法输出下一帧图像中运动目标的预测位置;若否,则利用深度学习SORT跟踪算法重新预测下一帧图像中运动目标的位置。
第四步:将深度学习SORT跟踪算法输出的下一帧图像中运动目标的预测位置,输入SolvePnp位置估计算法,根据三角形相似原理,计算下一帧图像中运动目标的世界坐标。SolvePnp位置估计算法的原理如图3所示,
Figure BDA0002897984310000104
代表摄像机坐标系,
Figure BDA0002897984310000105
代表平面法向量,P0,P1,P2,P3代表平面任取的四个点,d代表摄像机到平面的距离。
摄像头在实际使用过程中镜头会存在畸变参数,这样会导致结果与期望相差甚远,因此,为了获得准确的输出结果,需要对摄像头进行“校正”(即标定)。摄像头的标定过程可以参考张正友标定方法,目的是获得计算机视觉中摄像头的内参矩阵,具体的内参矩阵如下:
Figure BDA0002897984310000111
其中,f表示摄像头焦距参数,单位是mm;dx和dy表示图像像元尺寸;μ0和v0为图像中心;
此时,还需要知道摄像头在世界坐标系下的位置(即外参矩阵),首先准备世界坐标系下的任意四个目标特征点,在图像坐标系上找到与四个目标特征点对应的坐标,创建旋转矩阵和平移矩阵的变量作为输出变量,利用内参矩阵求解摄像头的旋转矩阵R和平移矩阵T;
将深度学习SORT跟踪算法输出的下一帧图像中运动目标的预测位置输入SolvePnp位置估计算法,利用旋转矩阵R和平移矩阵T,通过如下公式求解下一帧图像中运动目标的世界坐标:
Figure BDA0002897984310000112
其中,
Figure BDA0002897984310000113
表示摄像头的外参矩阵,
Figure BDA0002897984310000114
表示下一帧图像中运动目标的世界坐标,
Figure BDA0002897984310000115
表示下一帧图像中运动目标的预测位置的坐标,Zc表示设定参数。
本发明提供的上述基于深度学习的运动目标跟踪与定位方法,面向实际应用场景的实时目标检测、跟踪与定位。首先,利用深度神经网络YOLOv3-Tiny算法检测目标的图像坐标,然后,利用深度学习SORT跟踪算法预测目标的位置,最后,利用SolvePnp位置估计算法计算目标的空间位置。YOLOv3检测算法与SORT跟踪算法可以在保证算法准确度的基础上,满足实际应用中的实时性要求;空间定位选用的SolvePnP算法,只需四个特征点即可获得摄像机的旋转矩阵,相比于其他算法运行速度快,基本能够达到与目标检测结果同步运算的效果。本发明提供的上述基于深度学习的运动目标跟踪与定位方法,可以有效降低对硬件性能的要求,提升算法的运算效率,减少人力财力的消耗,在实际应用中具体较好的应用价值。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (5)

1.一种基于深度学习的运动目标跟踪与定位方法,其特征在于,包括如下步骤:
S1:利用飞行器搭载摄像头,采集视频图像;
S2:利用深度神经网络YOLOv3-Tiny算法,检测所述视频图像中当前帧图像的目标区域,输出当前帧图像的目标区域内运动目标的分类结果和目标区域的图像坐标;
S3:将深度神经网络YOLOv3-Tiny算法输出的当前帧图像的目标区域内运动目标的分类结果和目标区域的图像坐标,输入深度学习SORT跟踪算法,预测所述视频图像的下一帧图像中运动目标的位置,判断下一帧图像中运动目标的预测位置与当前帧图像的目标区域之间的IOU是否大于IOU1阈值;若是,则深度学习SORT跟踪算法输出下一帧图像中运动目标的预测位置;若否,则利用深度学习SORT跟踪算法重新预测下一帧图像中运动目标的位置;
S4:将深度学习SORT跟踪算法输出的下一帧图像中运动目标的预测位置,输入SolvePnp位置估计算法,根据三角形相似原理,计算下一帧图像中运动目标的世界坐标;
步骤S3,将深度神经网络YOLOv3-Tiny算法输出的当前帧图像的目标区域内运动目标的分类结果和目标区域的图像坐标,输入深度学习SORT跟踪算法,预测所述视频图像的下一帧图像中运动目标的位置,判断下一帧图像中运动目标的预测位置与当前帧图像的目标区域之间的IOU是否大于IOU1阈值;若是,则深度学习SORT跟踪算法输出下一帧图像中运动目标的预测位置;若否,则利用深度学习SORT跟踪算法重新预测下一帧图像中运动目标的位置,具体包括:
利用卡尔曼滤波算法对所述视频图像的下一帧图像中运动目标的位置进行预测:
Figure FDA0003948969740000011
其中,u表示当前帧图像中运动目标的中心横坐标,v表示当前帧图像中运动目标的中心纵坐标,s表示当前帧图像中目标区域的尺寸,r表示目标区域的长宽比,
Figure FDA0003948969740000021
表示预测的下一帧图像中运动目标的中心横坐标,
Figure FDA0003948969740000022
表示预测的下一帧图像中运动目标的中心纵坐标,
Figure FDA0003948969740000023
表示预测的下一帧图像中目标区域的尺寸;
将下一帧图像的预测结果与当前帧图像的检测结果进行比对,利用匈牙利关联算法引入代价矩阵,代价矩阵定义为下一帧图像中运动目标的预测位置与当前帧图像的目标区域之间的IOU,判断下一帧图像中运动目标的预测位置与当前帧图像的目标区域之间的IOU是否大于IOU1阈值,若是,则预测结果与检测结果比对成功,深度学习SORT跟踪算法输出下一帧图像中运动目标的预测位置;若否,则利用深度学习SORT跟踪算法重新预测下一帧图像中运动目标的位置。
2.如权利要求1所述的基于深度学习的运动目标跟踪与定位方法,其特征在于,在执行步骤S1,利用飞行器搭载摄像头,采集视频图像之后,在执行步骤S2,利用深度神经网络YOLOv3-Tiny算法,检测所述视频图像中当前帧图像的目标区域,输出当前帧图像的目标区域内运动目标的分类结果和目标区域的图像坐标之前,还包括:
对所述视频图像进行数据归一化处理:
输入:X=x1,...,xm (1)
过程:
Figure FDA0003948969740000024
Figure FDA0003948969740000025
Figure FDA0003948969740000026
输出:
Figure FDA0003948969740000027
其中,X表示上一层深度神经网络的输出结果,xi表示每层深度神经网络中的参数,i=1,2,…,m;μβ表示深度神经网络YOLOv3-Tiny算法训练批次均值,m表示深度神经网络YOLOv3-Tiny算法训练批次大小,
Figure FDA0003948969740000031
表示深度神经网络YOLOv3-Tiny算法训练批次方差,
Figure FDA0003948969740000032
为数据归一化处理中的中间参数,ε是防止式(4)中分母为0的正数;yi表示本层深度神经网络的输出结果,γ和β表示学习参数。
3.如权利要求1或2所述的基于深度学习的运动目标跟踪与定位方法,其特征在于,步骤S1,利用飞行器搭载摄像头,采集视频图像,具体包括:
利用四旋翼F450飞行器搭载单目摄像头,采集视频图像。
4.如权利要求1或2所述的基于深度学习的运动目标跟踪与定位方法,其特征在于,步骤S2,利用深度神经网络YOLOv3-Tiny算法,检测所述视频图像中当前帧图像的目标区域,输出当前帧图像的目标区域内运动目标的分类结果和目标区域的图像坐标,具体包括:
利用深度神经网络YOLOv3-Tiny算法训练数据获得检测网络模型,通过深度神经网络YOLOv3-Tiny算法的Darknet-53网络结构对所述视频图像中的当前帧图像进行多尺度特征提取,利用所述检测网络模型对当前帧图像中运动目标的类别和位置进行预测,判断当前帧图像中运动目标的预测位置与当前帧图像的目标区域之间的IOU是否大于IOU2阈值;若是,则输出当前帧图像的目标区域内运动目标的分类结果和目标区域的图像坐标;若否,则利用深度神经网络YOLOv3-Tiny算法对下一帧图像进行检测。
5.如权利要求1所述的基于深度学习的运动目标跟踪与定位方法,其特征在于,步骤S4,将深度学习SORT跟踪算法输出的下一帧图像中运动目标的预测位置,输入SolvePnp位置估计算法,根据三角形相似原理,计算下一帧图像中运动目标的世界坐标,具体包括:
对摄像头进行标定,获得摄像头的内参矩阵:
Figure FDA0003948969740000041
其中,f表示摄像头焦距参数,单位是mm;dx和dy表示图像像元尺寸;μ0和v0为图像中心;
准备世界坐标系下的任意四个目标特征点,在图像坐标系上找到与所述四个目标特征点对应的坐标,创建旋转矩阵和平移矩阵的变量作为输出变量,利用所述内参矩阵求解摄像头的旋转矩阵R和平移矩阵T;
将深度学习SORT跟踪算法输出的下一帧图像中运动目标的预测位置输入SolvePnp位置估计算法,利用所述旋转矩阵R和所述平移矩阵T,通过如下公式求解下一帧图像中运动目标的世界坐标:
Figure FDA0003948969740000042
其中,
Figure FDA0003948969740000043
表示摄像头的外参矩阵,
Figure FDA0003948969740000044
表示下一帧图像中运动目标的世界坐标,
Figure FDA0003948969740000045
表示下一帧图像中运动目标的预测位置的坐标,Zc表示设定参数。
CN202110047697.8A 2021-01-14 2021-01-14 一种基于深度学习的运动目标跟踪与定位方法 Active CN112734794B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110047697.8A CN112734794B (zh) 2021-01-14 2021-01-14 一种基于深度学习的运动目标跟踪与定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110047697.8A CN112734794B (zh) 2021-01-14 2021-01-14 一种基于深度学习的运动目标跟踪与定位方法

Publications (2)

Publication Number Publication Date
CN112734794A CN112734794A (zh) 2021-04-30
CN112734794B true CN112734794B (zh) 2022-12-23

Family

ID=75593273

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110047697.8A Active CN112734794B (zh) 2021-01-14 2021-01-14 一种基于深度学习的运动目标跟踪与定位方法

Country Status (1)

Country Link
CN (1) CN112734794B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114067564B (zh) * 2021-11-15 2023-08-29 武汉理工大学 一种基于yolo的交通状况综合监测方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110276247A (zh) * 2019-05-09 2019-09-24 南京航空航天大学 一种基于YOLOv3-Tiny的行车检测方法
CN111160212A (zh) * 2019-12-24 2020-05-15 浙江大学 一种基于YOLOv3-Tiny改进的跟踪学习检测系统及方法
CN111460968A (zh) * 2020-03-27 2020-07-28 上海大学 基于视频的无人机识别与跟踪方法及装置
CN111563525A (zh) * 2020-03-25 2020-08-21 北京航空航天大学 一种基于YOLOv3-Tiny的运动目标检测方法
WO2020206861A1 (zh) * 2019-04-08 2020-10-15 江西理工大学 基于YOLO v3的针对交通枢纽关键物体的检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111563458A (zh) * 2020-05-09 2020-08-21 北京航空航天大学 基于YOLOv3和OpenCV的目标检测与定位方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020206861A1 (zh) * 2019-04-08 2020-10-15 江西理工大学 基于YOLO v3的针对交通枢纽关键物体的检测方法
CN110276247A (zh) * 2019-05-09 2019-09-24 南京航空航天大学 一种基于YOLOv3-Tiny的行车检测方法
CN111160212A (zh) * 2019-12-24 2020-05-15 浙江大学 一种基于YOLOv3-Tiny改进的跟踪学习检测系统及方法
CN111563525A (zh) * 2020-03-25 2020-08-21 北京航空航天大学 一种基于YOLOv3-Tiny的运动目标检测方法
CN111460968A (zh) * 2020-03-27 2020-07-28 上海大学 基于视频的无人机识别与跟踪方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于改进YOLOv3的目标跟踪算法研究;蔡锦华等;《计算机仿真》;20200515(第05期);全文 *

Also Published As

Publication number Publication date
CN112734794A (zh) 2021-04-30

Similar Documents

Publication Publication Date Title
CN112380952B (zh) 基于人工智能的电力设备红外图像实时检测及识别方法
CN113359810B (zh) 一种基于多传感器的无人机着陆区域识别方法
CN112396650A (zh) 一种基于图像和激光雷达融合的目标测距系统及方法
CN106529538A (zh) 一种飞行器的定位方法和装置
CN111476827A (zh) 目标跟踪方法、系统、电子装置及存储介质
CN105160649A (zh) 基于核函数非监督聚类的多目标跟踪方法及系统
CN112946679B (zh) 一种基于人工智能的无人机测绘果冻效应检测方法及系统
CN116309781B (zh) 一种基于跨模态融合的水下视觉目标测距方法及装置
CN111444801A (zh) 一种无人机红外目标实时检测方法
CN111563458A (zh) 基于YOLOv3和OpenCV的目标检测与定位方法
CN113253289A (zh) 基于激光雷达与视觉结合的无人机探测跟踪系统实现方法
CN111768429A (zh) 一种基于卡尔曼滤波和行人重识别算法的隧道环境下行人目标跟踪方法
CN117115784A (zh) 目标数据融合的车辆检测方法及检测装置
CN112734794B (zh) 一种基于深度学习的运动目标跟踪与定位方法
CN114035606A (zh) 杆塔巡检系统、杆塔巡检方法、控制装置和存储介质
Lin et al. Small object detection in aerial view based on improved YoloV3 neural network
CN117036404A (zh) 一种单目热成像同时定位与建图方法和系统
CN115690545B (zh) 训练目标跟踪模型和目标跟踪的方法和装置
CN115546716A (zh) 一种基于双目视觉的输电线路周边火灾源头定位方法
CN112069997B (zh) 一种基于DenseHR-Net的无人机自主着陆目标提取方法及装置
CN117808890A (zh) 一种相机与点云传感器外参标定矫正方法及装置
CN117113284A (zh) 多传感器融合的数据处理方法、装置与多传感器融合方法
CN116935356A (zh) 基于弱监督的自动驾驶多模态图片和点云实例分割方法
CN117132910A (zh) 一种用于无人机的车辆检测方法、装置及存储介质
CN116310902A (zh) 一种基于轻量级神经网络的无人机目标检测方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant