CN113724295A - 基于计算机视觉的无人机追踪系统及方法 - Google Patents

基于计算机视觉的无人机追踪系统及方法 Download PDF

Info

Publication number
CN113724295A
CN113724295A CN202111027996.1A CN202111027996A CN113724295A CN 113724295 A CN113724295 A CN 113724295A CN 202111027996 A CN202111027996 A CN 202111027996A CN 113724295 A CN113724295 A CN 113724295A
Authority
CN
China
Prior art keywords
target
coordinate system
unmanned aerial
yolo
aerial vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111027996.1A
Other languages
English (en)
Inventor
邓晓衡
尹建
李康检
丁海川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Central South University
Original Assignee
Central South University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Central South University filed Critical Central South University
Priority to CN202111027996.1A priority Critical patent/CN113724295A/zh
Publication of CN113724295A publication Critical patent/CN113724295A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明提供了一种基于计算机视觉的无人机追踪系统及方法,包括:步骤1,基于YOLO‑v4模型的主干特征提取网络架构CSPDarknet53设计改进的YOLO‑v4模型的主干特征提取网络架构CSPDarknet53,基于改进的YOLO‑v4模型的主干特征提取网络架构CSPDarknet53和长短期记忆LSTM网络模型构建YOLO‑LSTM稳定目标追踪模型。本发明通过将无人机目标追踪的高延迟、高耗能的目标追踪计算任务移至边缘端模块的边缘服务器与终端模块的无人机的嵌入式板载计算机,减少了无人机与地面站的数据传输,提高了无人机对目标追踪的实时性,当目标物体位于边缘端模块的感知范围内,通过边缘端模块的路侧单元的监控摄像头和边缘服务器追踪目标,降低了无人机实时处理图像信息的能耗。

Description

基于计算机视觉的无人机追踪系统及方法
技术领域
本发明涉及无人机追踪技术领域,特别涉及一种基于计算机视觉的无人机追踪系统及方法。
背景技术
随着智慧城市的发展以及5G通信技术的普及,云计算与物联网的应用变得更加智能。无人机作为智慧城市的重要组成部分,肩负着安防、智慧交通、自然灾害监控等重要职责。无人机其本身具有体积小、高机动性的特性,使得在无人机能够提供智慧城市日常服务及快速响应智慧城市中的突发事件。
目前利用计算机视觉技术进行无人机目标追踪的方法主要包括三种。一是利用路测单元进行目标追踪,将目标位置传输给地面站,然后地面站导航无人机至目标位置,这种方法存在视觉盲区,当目标逃离至视觉盲区将丢失目标。第二种是利用无人机的摄像头拍摄到的图像信息,通过图像传输模块传送到远距离的地面站,然后利用地面站强大的计算能力对无人机传送的图像进行处理。这种方法在未来智慧城市中具有一定的局限性,随着无人机规模的不断增大,与远距离的地面站的通信延迟不能忽略,限制了无人机的机动灵活性。第三种方法是,在无人机上搭载嵌入式的嵌入式板载计算机,将目标追踪的计算任务放置在无人机终端进行。这样可以降低无人机与地面站的传输图像信息的延迟。近年来,随着基于深度学习的计算机视觉的发展,涌现出了大量轻量级的神经网络,例如YOLO和SSD等目标检测网络。这些轻量级的神经网络使得在无人机端处理图像计算任务成为可能。但是实时运行这些高耗能的神经网络模型以及嵌入式板载计算机重量增加了无人机的能耗,降低了无人机有限的续航时间。
发明内容
本发明提供了一种基于计算机视觉的无人机追踪系统及方法,其目的是为了解决传统的无人机目标追踪方法增加了无人机的能耗,降低了无人机有限的续航时间。
为了达到上述目的,本发明的实施例提供了一种基于计算机视觉的无人机追踪系统,包括:
云端服务器模块,所述云端服务器模块将YOLO-LSTM稳定目标追踪模型发送到边缘端模块;
边缘端模块,所述边缘端模块与所述云端服务器模块连接,所述边缘端模块包括路侧单元和多个边缘服务器,所述边缘端模块接收云端服务器模块发送的YOLO-LSTM稳定目标追踪模型并存储在边缘服务器中,所述路侧单元包括智慧灯杆和监控摄像头,所述路侧单元通过监控摄像头捕捉画面,所述路侧单元通过串口将捕捉到的画面输送到相对应的所述边缘服务器中,所述边缘服务器通过YOLO-LSTM稳定目标追踪模型将捕捉到的画面进行计算分析,得到目标位置信息;
终端模块,所述终端模块与边缘端模块连接,所述终端模块包括多个无人机,多个所述无人机上均设置有机载摄像头和嵌入式板载计算机,每个所述嵌入式板载计算机上部署有YOLO-LSTM稳定目标追踪模型,通过所述机载摄像头和所述嵌入式板载计算机上部署的YOLO-LSTM稳定目标追踪模型对目标进行追踪,得到目标位置信息。
本发明的实施例还提供了一种基于计算机视觉的无人机追踪方法,包括:
步骤1,基于YOLO-v4模型的主干特征提取网络架构CSPDarknet53设计改进的YOLO-v4模型的主干特征提取网络架构CSPDarknet53,基于改进的YOLO-v4模型的主干特征提取网络架构CSPDarknet53和长短期记忆LSTM网络模型构建YOLO-LSTM稳定目标追踪模型;
步骤2,通过云端服务器模块将YOLO-LSTM稳定目标追踪模型发送到边缘端模块,边缘端模块将YOLO-LSTM稳定目标追踪模型存储在每个边缘服务器中;
步骤3,在终端模块中的每个无人机的嵌入式板载计算机上部署YOLO-LSTM稳定目标追踪模型;
步骤4,判断待追踪目标的位置位于终端模块的覆盖范围内或边缘端模块的覆盖范围内;
步骤5,当待追踪目标位于终端模块的覆盖范围内时,通过终端模块对待追踪目标进行获取和实时追踪,得到终端模块追踪结果,对终端模块追踪结果进行导航解算;
步骤6,当待追踪目标位于边缘端模块的覆盖范围内时,通过边缘端模块对待追踪目标进行获取和实时追踪,得到边缘端模块追踪结果,对边缘端模块追踪结果进行导航解算。
其中,所述步骤5具体包括:
步骤51,当待追踪目标位于终端模块的覆盖范围内时,通过终端模块中无人机的机载摄像头获取第一待追踪目标,将所述第一待追踪目标通过串口传输至无人机的嵌入式板载计算机中;
步骤52,通过部署在嵌入式板载计算机的YOLO-LSTM稳定目标追踪模型中的改进的YOLO-v4模型的主干特征提取网络架构CSPDarknet53对所述第一待追踪目标进行特征提取,得到第一目标视觉特征向量;
步骤53,将所述第一目标视觉特征向量输入YOLO-LSTM稳定目标追踪模型中的长短期记忆LSTM模型进行追踪,得到稳定的第一待追踪目标位置信息;
步骤54,对所述第一待追踪目标位置信息进行导航解算。
其中,所述步骤6具体包括:
步骤61,当待追踪目标位于边缘端模块的覆盖范围内时,通过边缘端模块中路侧单元的监控摄像头获取第二待追踪目标,将所述第二待追踪目标通过串口传输至对应的边缘服务器中;
步骤62,通过边缘服务器中预先存储的YOLO-LSTM稳定目标追踪模型中的改进的YOLO-v4模型的主干特征提取网络架构CSPDarknet53对获取的所述第二待追踪目标进行特征提取,得到第二目标视觉特征向量;
步骤63,将所述第二目标视觉特征向量输入YOLO-LSTM稳定目标追踪模型中的长短期记忆LSTM模型进行追踪,得到稳定的第二待追踪目标位置信息;
步骤64,对第二待追踪目标位置信息进行导航解算。
其中,所述长短期记忆LSTM模型包括3个门控单元、候选记忆细胞、记忆细胞和隐藏单元,3个门控单元为输入门、遗忘门和输出门,门控单元受到前一视频帧所传递隐藏单元控制,其中,记忆细胞与隐藏单元用于传递时序特征至下一帧视频进行推断,设待追踪目标的视频帧i经改进的YOLO-v4模型的主干特征提取网络架构CSPDarknet53特征提取后的目标视觉特征向量记为Xi,输入门的计算公式,如下所示:
Ii=σ(XiWI+Hi-1WHI+bI) (1)
其中,Ii表示输入门,WI表示输入门对应输入数据的权重,bI表示输入门对应输入数据的偏差,σ表示Sigmoid激活函数,Hi-1表示前一帧视频隐藏状态,WHI表示输入门受到前一视频帧所传递隐藏单元控制的权重参数;
遗忘门的计算公式,如下所示:
Fi=σ(XiWF+Hi-1WHF+bF) (2)
其中,Fi表示遗忘门,WF表示遗忘门对应输入数据的权重,bF表示遗忘门对应输入数据的偏差,WHF表示遗忘门受到前一视频帧所传递隐藏单元控制的权重参数;
输出门的计算公式,如下所示:
Oi=σ(XiWO+Hi-1WHO+bO) (3)
其中,Oi表示输出门,WO表示输出门对应输入数据的权重,bO表示输出门对应输入数据的偏差,WHO表示输出门受到前一视频帧所传递隐藏单元控制的权重参数;
通过门控单元控制候选记忆细胞、记忆细胞和隐藏单元,候选记忆细胞的计算公式,如下所示:
Figure BDA0003244244090000041
其中,
Figure BDA0003244244090000042
表示候选记忆细胞,WC表示候选记忆细胞对应输入数据的权重,bC表示候选记忆细胞对应输入数据的偏差,WHC表示候选记忆细胞受到前一视频帧所传递隐藏单元控制的权重参数;
记忆细胞的计算公式,如下所示:
Figure BDA0003244244090000043
其中,Ci表示记忆细胞,Ci-1表示前一帧视频所传递的记忆细胞;
隐藏单元的计算公式,如下所示:
Hi=Oi·tanh(Ci) (6)
其中,Hi表示隐藏单元。
其中,所述步骤54具体包括:
将机载摄像头坐标系下目标图像的坐标点PC经过机载摄像头坐标系旋转变换矩阵得到旋转后的机载摄像头坐标系下目标图像的坐标PW′,如下所示:
Figure BDA0003244244090000051
其中,(ex,ey,ez)表示无人机坐标系下的单位正交基,
Figure BDA0003244244090000054
表示机载摄像头坐标系下的单位正交基,PC=(xc,yc,zc)表示机载摄像头坐标系下目标图像的坐标点,zc通过双目摄像头测距功能得到,PW′表示旋转后的机载摄像头坐标系下目标图像的坐标,
Figure BDA0003244244090000052
表示机载摄像头坐标系旋转变换矩阵。
其中,所述步骤54还包括:
将旋转后的机载摄像头坐标系下目标图像的坐标PW′经过机载摄像头坐标系平移向量tc=(xtc,ytc,ztc)得到无人机坐标系下目标图像的坐标PW,如下所示:
Figure BDA0003244244090000053
其中,所述步骤64具体包括:
将路侧单元的监控摄像头坐标系下的目标图像坐标点PEC经过路侧单元的监控摄像头坐标系旋转变换矩阵得到旋转后的路侧单元的监控摄像头坐标系下的目标图像坐标PE′,如下所示:
Figure BDA0003244244090000061
其中,PEC=(xEC,yEC,zEC)表示路侧单元的监控摄像头坐标系下的目标图像坐标点,
Figure BDA0003244244090000062
表示边缘设备坐标系下的单位正交基,
Figure BDA0003244244090000063
表示路侧单元的监控摄像头坐标系下的单位正交基,
Figure BDA0003244244090000064
表示路侧单元的监控摄像头坐标系旋转变换矩阵。
其中,所述步骤64还包括:
将旋转后的路侧单元的监控摄像头坐标系下的目标图像坐标PE′经过路侧单元的监控摄像头坐标系平移向量tEC=(xtEC,ytEC,ztEC)得到边缘设备坐标系下的目标图像坐标PE,如下所示:
Figure BDA0003244244090000065
其中,所述步骤64还包括:
将边缘设备坐标系下的目标图像坐标PE经过边缘设备坐标系旋转变换矩阵得到旋转后的边缘设备坐标系下的目标图像坐标PW′,如下所示:
Figure BDA0003244244090000066
其中,
Figure BDA0003244244090000067
表示边缘设备坐标系旋转变换矩阵;
将旋转后的边缘设备坐标系下的目标图像坐标PW′经过边缘设备坐标系平移向量tE=(xtE,ytE,ztE)得到无人机坐标系下目标图像坐标PW,如下所示:
Figure BDA0003244244090000071
其中,PW表示无人机坐标系下目标图像坐标,tE表示边缘设备坐标系平移向量。
本发明的上述方案有如下的有益效果:
本发明的上述实施例所述的基于计算机视觉的无人机追踪系统及方法,通过将无人机目标追踪的高延迟、高耗能的目标追踪计算任务移至边缘端模块的边缘服务器与终端模块的无人机的嵌入式板载计算机,减少了无人机与地面站的数据传输,提高了无人机对目标追踪的实时性,当目标物体位于边缘端模块的感知范围内,通过边缘端模块的路侧单元的监控摄像头和边缘服务器追踪目标,降低了无人机实时处理图像信息的能耗。
附图说明
图1为本发明的流程图;
图2为本发明的结构示意图;
图3为本发明的YOLO-v4模型的主干特征提取网络架构CSPDarknet53示意图;
图4为本发明的改进的YOLO-v4模型的主干特征提取网络架构CSPDarknet53示意图;
图5为本发明的YOLO-LSTM稳定目标追踪模型示意图。
具体实施方式
为使本发明要解决的技术问题、技术方案和优点更加清楚,下面将结合附图及具体实施例进行详细描述。
本发明针对现有的无人机目标追踪方法增加了无人机的能耗,降低了无人机有限的续航时间的问题,提供了一种基于计算机视觉的无人机追踪系统及方法。
如图1至图5所示,本发明的实施例提供了一种基于计算机视觉的无人机追踪系统,包括:云端服务器模块,所述云端服务器模块将YOLO-LSTM稳定目标追踪模型发送到边缘端模块;边缘端模块,所述边缘端模块与所述云端服务器模块连接,所述边缘端模块包括路侧单元和多个边缘服务器,所述边缘端模块接收云端服务器模块发送的YOLO-LSTM稳定目标追踪模型并存储在边缘服务器中,所述路侧单元包括智慧灯杆和监控摄像头,所述路侧单元通过监控摄像头捕捉画面,所述路侧单元通过串口将捕捉到的画面输送到相对应的所述边缘服务器中,所述边缘服务器通过YOLO-LSTM稳定目标追踪模型将捕捉到的画面进行计算分析,得到目标位置信息;终端模块,所述终端模块与边缘端模块连接,所述终端模块包括多个无人机,多个所述无人机上均设置有机载摄像头和嵌入式板载计算机,每个所述嵌入式板载计算机上部署有YOLO-LSTM稳定目标追踪模型,通过所述机载摄像头和所述嵌入式板载计算机上部署的YOLO-LSTM稳定目标追踪模型对目标进行追踪,得到目标位置信息。
本发明的上述实施例所述的基于计算机视觉的无人机追踪系统及方法,云端服务器模块提供模型管理、边缘端结点管理等服务,为边缘服务器提供YOLO-LSTM稳定目标追踪模型、维护边缘设备的安全。边缘端模块由路侧单元和边缘服务器共同部署,常见的路侧单元有智慧灯杆、监控摄像头等。这些路侧单元与边缘服务器一起部署,路侧单元通过摄像头捕捉到的画面,经边缘服务器计算分析后将目标位置信息发送给无人机。终端无人机部分搭载摄像头和嵌入式板载计算机,当目标到达路侧单元视觉盲区时,则采用无人机机载摄像头与板载计算机对目标进行追踪。
本发明的实施例还提供了一种基于计算机视觉的无人机追踪方法,包括:步骤1,基于YOLO-v4模型的主干特征提取网络架构CSPDarknet53设计改进的YOLO-v4模型的主干特征提取网络架构CSPDarknet53,基于改进的YOLO-v4模型的主干特征提取网络架构CSPDarknet53和长短期记忆LSTM网络模型构建YOLO-LSTM稳定目标追踪模型;步骤2,通过云端服务器模块将YOLO-LSTM稳定目标追踪模型发送到边缘端模块,边缘端模块将YOLO-LSTM稳定目标追踪模型存储在每个边缘服务器中;步骤3,在终端模块中的每个无人机的嵌入式板载计算机上部署YOLO-LSTM稳定目标追踪模型;步骤4,判断待追踪目标的位置位于终端模块的覆盖范围内或边缘端模块的覆盖范围内;步骤5,当待追踪目标位于终端模块的覆盖范围内时,通过终端模块对待追踪目标进行获取和实时追踪,得到终端模块追踪结果,对终端模块追踪结果进行导航解算;步骤6,当待追踪目标位于边缘端模块的覆盖范围内时,通过边缘端模块对待追踪目标进行获取和实时追踪,得到边缘端模块追踪结果,对边缘端模块追踪结果进行导航解算。
其中,所述步骤5具体包括:步骤51,当待追踪目标位于终端模块的覆盖范围内时,通过终端模块中无人机的机载摄像头获取第一待追踪目标,将所述第一待追踪目标通过串口传输至无人机的嵌入式板载计算机中;步骤52,通过部署在嵌入式板载计算机的YOLO-LSTM稳定目标追踪模型中的改进的YOLO-v4模型的主干特征提取网络架构CSPDarknet53对所述第一待追踪目标进行特征提取,得到第一目标视觉特征向量;步骤53,将所述第一目标视觉特征向量输入YOLO-LSTM稳定目标追踪模型中的长短期记忆LSTM模型进行追踪,得到稳定的第一待追踪目标位置信息;步骤54,对所述第一待追踪目标位置信息进行导航解算。
其中,所述步骤6具体包括:步骤61,当待追踪目标位于边缘端模块的覆盖范围内时,通过边缘端模块中路侧单元的监控摄像头获取第二待追踪目标,将所述第二待追踪目标通过串口传输至对应的边缘服务器中;步骤62,通过边缘服务器中预先存储的YOLO-LSTM稳定目标追踪模型中的改进的YOLO-v4模型的主干特征提取网络架构CSPDarknet53对获取的所述第二待追踪目标进行特征提取,得到第二目标视觉特征向量;步骤63,将所述第二目标视觉特征向量输入YOLO-LSTM稳定目标追踪模型中的长短期记忆LSTM模型进行追踪,得到稳定的第二待追踪目标位置信息;步骤64,对第二待追踪目标位置信息进行导航解算。
其中,所述长短期记忆LSTM模型包括3个门控单元、候选记忆细胞、记忆细胞和隐藏单元,3个门控单元为输入门、遗忘门和输出门,门控单元受到前一视频帧所传递隐藏单元控制,其中,记忆细胞与隐藏单元用于传递时序特征至下一帧视频进行推断,设待追踪目标的视频帧i经改进的YOLO-v4模型的主干特征提取网络架构CSPDarknet53特征提取后的目标视觉特征向量记为Xi,输入门的计算公式,如下所示:
Ii=σ(XiWI+Hi-1WHI+bI) (1)
其中,Ii表示输入门,WI表示输入门对应输入数据的权重,bI表示输入门对应输入数据的偏差,σ表示Sigmoid激活函数,Hi-1表示前一帧视频隐藏状态,WHI表示输入门受到前一视频帧所传递隐藏单元控制的权重参数;
遗忘门的计算公式,如下所示:
Fi=σ(XiWF+Hi-1WHF+bF) (2)
其中,Fi表示遗忘门,WF表示遗忘门对应输入数据的权重,bF表示遗忘门对应输入数据的偏差,WHF表示遗忘门受到前一视频帧所传递隐藏单元控制的权重参数;
输出门的计算公式,如下所示:
Oi=σ(XiWO+Hi-1WHO+bO) (3)
其中,Oi表示输出门,WO表示输出门对应输入数据的权重,bO表示输出门对应输入数据的偏差,WHO表示输出门受到前一视频帧所传递隐藏单元控制的权重参数;
通过门控单元控制候选记忆细胞、记忆细胞和隐藏单元,候选记忆细胞的计算公式,如下所示:
Figure BDA0003244244090000101
其中,
Figure BDA0003244244090000102
表示候选记忆细胞,WC表示候选记忆细胞对应输入数据的权重,bC表示候选记忆细胞对应输入数据的偏差,WHC表示候选记忆细胞受到前一视频帧所传递隐藏单元控制的权重参数;
记忆细胞的计算公式,如下所示:
Figure BDA0003244244090000103
其中,Ci表示记忆细胞,Ci-1表示前一帧视频所传递的记忆细胞;
隐藏单元的计算公式,如下所示:
Hi=Oi·tanh(Ci) (6)
其中,Hi表示隐藏单元。
其中,所述步骤54具体包括:将机载摄像头坐标系下目标图像的坐标点PC经过机载摄像头坐标系旋转变换矩阵得到旋转后的机载摄像头坐标系下目标图像的坐标PW′,如下所示:
Figure BDA0003244244090000111
其中,(ex,ey,ez)表示无人机坐标系下的单位正交基,
Figure BDA0003244244090000117
表示机载摄像头坐标系下的单位正交基,PC=(xc,yc,zc)表示机载摄像头坐标系下目标图像的坐标点,zc通过双目摄像头测距功能得到,PW′表示旋转后的机载摄像头坐标系下目标图像的坐标,
Figure BDA0003244244090000112
表示机载摄像头坐标系旋转变换矩阵。
其中,所述步骤54还包括:将旋转后的机载摄像头坐标系下目标图像的坐标PW′经过机载摄像头坐标系平移向量tc=(xtc,ytc,ztc)得到无人机坐标系下目标图像的坐标PW,如下所示:
Figure BDA0003244244090000113
其中,所述步骤64具体包括:将路侧单元的监控摄像头坐标系下的目标图像坐标点PEC经过路侧单元的监控摄像头坐标系旋转变换矩阵得到旋转后的路侧单元的监控摄像头坐标系下的目标图像坐标PE′,如下所示:
Figure BDA0003244244090000114
其中,PEC=(xEC,yEC,zEC)表示路侧单元的监控摄像头坐标系下的目标图像坐标点,
Figure BDA0003244244090000115
表示边缘设备坐标系下的单位正交基,
Figure BDA0003244244090000116
表示路侧单元的监控摄像头坐标系下的单位正交基,
Figure BDA0003244244090000121
表示路侧单元的监控摄像头坐标系旋转变换矩阵。
其中,所述步骤64还包括:将旋转后的路侧单元的监控摄像头坐标系下的目标图像坐标PE′经过路侧单元的监控摄像头坐标系平移向量tEC=(xtEC,ytEC,ztEC)得到边缘设备坐标系下的目标图像坐标PE,如下所示:
Figure BDA0003244244090000122
其中,所述步骤64还包括:将边缘设备坐标系下的目标图像坐标PE经过边缘设备坐标系旋转变换矩阵得到旋转后的边缘设备坐标系下的目标图像坐标PW′,如下所示:
Figure BDA0003244244090000123
其中,
Figure BDA0003244244090000124
表示边缘设备坐标系旋转变换矩阵;
将旋转后的边缘设备坐标系下的目标图像坐标PW′经过边缘设备坐标系平移向量tE=(xtE,ytE,ztE)得到无人机坐标系下目标图像坐标PW,如下所示:
Figure BDA0003244244090000125
其中,PW表示无人机坐标系下目标图像坐标,tE表示边缘设备坐标系平移向量。
本发明的上述实施例所述的基于计算机视觉的无人机追踪系统及方法,当待追踪目标在边缘端模块的路侧单元的感知范围内,则利用边缘端模块的路侧单元的的监控摄像头和边缘服务器协助无人机进行目标追踪,以减轻无人机的负载、减少能耗。当边缘端模块的路侧单元的监控摄像头捕捉到目标时,所得到的坐标是基于路侧单元的监控摄像头的坐标系,因此需要进行坐标转换以导航无人机进行目标追踪。其转换过程需要先从边缘端模块的路侧单元的相机坐标系转换到边缘设备坐标系下,然后从边缘设备坐标系转换到无人机坐标系,方便导航无人机进行目标追踪。
本发明的上述实施例所述的基于计算机视觉的无人机追踪系统及方法,基于改进的YOLO-v4模型的主干特征提取网络架构CSPDarknet53和长短期记忆LSTM模型构建了YOLO-LSTM稳定目标追踪模型,YOLO模型是一阶段检测模型,对比于二阶段检测模型FasterRCNN等目标检测网络模型来说更加轻量化,符合无人机嵌入式板载计算机和边缘服务器对实时性需求。如图3所示,YOLO-v4的主干特征提取网络架构为CSPDarknet53,通过5次下采样得到目标视觉特征,目标视觉特征大小为(13,13,1024)。所述基于计算机视觉的无人机追踪方法采用改进的YOLO-v4模型的主干特征提取网络进行目标视觉特征提取与融合,当无人机和边缘端模块的路侧单元摄像头对地面物体进行追踪时,地面物体通常在高空摄像头中呈现出目标物体较小的情况。为应对小目标物体的追踪,改进了YOLO-v4模型主干特征提取网络,如图3所示,通过5次下采样得到目标视觉特征,目标视觉特征大小为(13,13,1024),在CSPDarknet53的第3次、第4次下采样后得到的大小为(52,52,256),(26,26,512)目标视觉特征向量,将得到的目标视觉特征向量再分别进行2次、1次的下采样,分别得到大小为(13,13,256),(13,13,512)的目标视觉特征向量,然后将大小为(13,13,256),(13,13,512)的目标视觉特征向量与主干特征提取网络所得到大小为(13,13,1024)的目标视觉特征进行堆叠融合,充分利用小目标物体在浅层网络的信息表达,得到大小为(13,13,1792)的目标视觉特征向量。如图4所示为YOLO-LSTM稳定目标追踪模型对目标进行稳定跟踪示意图,将无人机的机载摄像头或路侧单元的监控摄像头获取的待追踪目标的视频序列输入至YOLO-LSTM稳定目标追踪模型中的改进的YOLO-v4模型的主干特征提取网络架构CSPDarknet53进行特征提取,返回待追踪目标的视觉特征向量,其形状大小为(13,13,1792),累计连续的N个视频帧的目标视觉特征作为一段时序特征输入至长短期记忆LSTM模型中,其中,长短期记忆LSTM模型共享YOLO-LSTM稳定目标追踪模型参数,并向下一帧长短期记忆LSTM模型传递当前帧的记忆细胞Ci与隐藏单元Hi,利用目标轨迹空间上的连续性,长短期记忆LSTM模型预测目标的位置坐标,通过采用长短期记忆LSTM模型减少了因为目标遮挡、模糊等情况而产生的目标位置信息的消失和突变,降低目标物体位置信息的跳跃性,从而形成稳定目标位置信息。
本发明的上述实施例所述的基于计算机视觉的无人机追踪系统及方法,所述基于计算机视觉的无人机追踪系统可以灵活调度无人机与路侧单元摄像头追踪目标,当目标物体位于路侧单元的感知范围内,使用路侧单元的边缘服务器进行对目标的检测与跟踪,可以降低无人机运行实时目标追踪的能耗。当目标物体位于路侧单元感知范围之外,使用无人机板载计算机实时追踪目标,可以降低无人机与地面站的大量数据传输延迟;对于无人机目标追踪模型方面,使用改进的YOLO-v4模型的主干特征提取网络架构CSPDarknet53加速无人机板载计算机与路侧单元边缘服务器进行目标检测;使用长短期记忆LSTM网络模型平滑目标位置信息,防止出现目标位置突变与消失,形成稳定的目标位置信息;对于导航解算方面,使用无人机机载摄像头追踪目标物体,需将无人机机载摄像头的相机坐标系转换至无人机坐标系,即世界坐标系;使用边缘端模块的路侧单元的摄像头追踪目标物体,需将路侧单元的相机坐标系转换至路侧单元坐标系,然后转换至无人机坐标系。
本发明的上述实施例所述的基于计算机视觉的无人机追踪系统及方法,本改变了传统的无人机目标追踪模式,有效的扩大了无人机感知范围,通过将无人机目标追踪的计算任务移至边缘端模块的路侧单元的边缘服务器与无人机板载计算机中,有效的降低了传统无人机目标追踪模式中将图像传输地面站的时间延迟和无人机能耗。
本发明的上述实施例所述的基于计算机视觉的无人机追踪系统及方法,本系统将目标追踪与导航解算部分移至无人机板载计算机和边缘端路侧单元的边缘服务器上进行,改变了传统的无人机目标追踪模式,有效的扩大了无人机感知范围,通过将无人机目标追踪的计算任务移至边缘端模块的路侧单元的边缘服务器与无人机板载计算机中,有效的降低了传统无人机目标追踪模式中将图像传输地面站的时间延迟和无人机能耗,当待追踪目标在边缘端模块监测范围内时,采用边缘端模块的路侧单元的监控摄像头和边缘服务器进行对目标的跟踪,从而降低无人机与远距离地面站的图像数据传输所带来的延迟,不同于无人机完全在板载计算机进行图像处理与导航解算,本系统终端无人机与边缘端路侧单元协同,只有当待追踪目标脱离边缘端模块监测范围进入视觉盲区时,则采用终端无人机摄像头和板载计算机进行目标追踪,从而降低终端无人机板载计算机运算量,减少终端无人机的能耗。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明所述原理的前提下,还可以作出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (10)

1.一种基于计算机视觉的无人机追踪系统,其特征在于,包括:
云端服务器模块,所述云端服务器模块将YOLO-LSTM稳定目标追踪模型发送到边缘端模块;
边缘端模块,所述边缘端模块与所述云端服务器模块连接,所述边缘端模块包括路侧单元和多个边缘服务器,所述边缘端模块接收云端服务器模块发送的YOLO-LSTM稳定目标追踪模型并存储在边缘服务器中,所述路侧单元包括智慧灯杆和监控摄像头,所述路侧单元通过监控摄像头捕捉画面,所述路侧单元通过串口将捕捉到的画面输送到相对应的所述边缘服务器中,所述边缘服务器通过YOLO-LSTM稳定目标追踪模型将捕捉到的画面进行计算分析,得到目标位置信息;
终端模块,所述终端模块与边缘端模块连接,所述终端模块包括多个无人机,多个所述无人机上均设置有机载摄像头和嵌入式板载计算机,每个所述嵌入式板载计算机上部署有YOLO-LSTM稳定目标追踪模型,通过所述机载摄像头和所述嵌入式板载计算机上部署的YOLO-LSTM稳定目标追踪模型对目标进行追踪,得到目标位置信息。
2.一种基于计算机视觉的无人机追踪方法,应用于如权利要求1所述的基于计算机视觉的无人机追踪系统,其特征在于,包括:
步骤1,基于YOLO-v4模型的主干特征提取网络架构CSPDarknet53设计改进的YOLO-v4模型的主干特征提取网络架构CSPDarknet53,基于改进的YOLO-v4模型的主干特征提取网络架构CSPDarknet53和长短期记忆LSTM网络模型构建YOLO-LSTM稳定目标追踪模型;
步骤2,通过云端服务器模块将YOLO-LSTM稳定目标追踪模型发送到边缘端模块,边缘端模块将YOLO-LSTM稳定目标追踪模型存储在每个边缘服务器中;
步骤3,在终端模块中的每个无人机的嵌入式板载计算机上部署YOLO-LSTM稳定目标追踪模型;
步骤4,判断待追踪目标的位置位于终端模块的覆盖范围内或边缘端模块的覆盖范围内;
步骤5,当待追踪目标位于终端模块的覆盖范围内时,通过终端模块对待追踪目标进行获取和实时追踪,得到终端模块追踪结果,对终端模块追踪结果进行导航解算;
步骤6,当待追踪目标位于边缘端模块的覆盖范围内时,通过边缘端模块对待追踪目标进行获取和实时追踪,得到边缘端模块追踪结果,对边缘端模块追踪结果进行导航解算。
3.根据权利要求2所述的基于计算机视觉的无人机追踪方法,其特征在于,所述步骤5具体包括:
步骤51,当待追踪目标位于终端模块的覆盖范围内时,通过终端模块中无人机的机载摄像头获取第一待追踪目标,将所述第一待追踪目标通过串口传输至无人机的嵌入式板载计算机中;
步骤52,通过部署在嵌入式板载计算机的YOLO-LSTM稳定目标追踪模型中的改进的YOLO-v4模型的主干特征提取网络架构CSPDarknet53对所述第一待追踪目标进行特征提取,得到第一目标视觉特征向量;
步骤53,将所述第一目标视觉特征向量输入YOLO-LSTM稳定目标追踪模型中的长短期记忆LSTM模型进行追踪,得到稳定的第一待追踪目标位置信息;
步骤54,对所述第一待追踪目标位置信息进行导航解算。
4.根据权利要求2所述的基于计算机视觉的无人机追踪方法,其特征在于,所述步骤6具体包括:
步骤61,当待追踪目标位于边缘端模块的覆盖范围内时,通过边缘端模块中路侧单元的监控摄像头获取第二待追踪目标,将所述第二待追踪目标通过串口传输至对应的边缘服务器中;
步骤62,通过边缘服务器中预先存储的YOLO-LSTM稳定目标追踪模型中的改进的YOLO-v4模型的主干特征提取网络架构CSPDarknet53对获取的所述第二待追踪目标进行特征提取,得到第二目标视觉特征向量;
步骤63,将所述第二目标视觉特征向量输入YOLO-LSTM稳定目标追踪模型中的长短期记忆LSTM模型进行追踪,得到稳定的第二待追踪目标位置信息;
步骤64,对第二待追踪目标位置信息进行导航解算。
5.根据权利要求2所述的基于计算机视觉的无人机追踪方法,其特征在于,所述长短期记忆LSTM模型包括3个门控单元、候选记忆细胞、记忆细胞和隐藏单元,3个门控单元为输入门、遗忘门和输出门,门控单元受到前一视频帧所传递隐藏单元控制,其中,记忆细胞与隐藏单元用于传递时序特征至下一帧视频进行推断,设待追踪目标的视频帧i经改进的YOLO-v4模型的主干特征提取网络架构CSPDarknet53特征提取后的目标视觉特征向量记为Xi,输入门的计算公式,如下所示:
Ii=σ(XiWI+Hi-1WHI+bI) (1)
其中,Ii表示输入门,WI表示输入门对应输入数据的权重,bI表示输入门对应输入数据的偏差,σ表示Sigmoid激活函数,Hi-1表示前一帧视频隐藏状态,WHI表示输入门受到前一视频帧所传递隐藏单元控制的权重参数;
遗忘门的计算公式,如下所示:
Fi=σ(XiWF+Hi-1WHF+bF) (2)
其中,Fi表示遗忘门,WF表示遗忘门对应输入数据的权重,bF表示遗忘门对应输入数据的偏差,WHF表示遗忘门受到前一视频帧所传递隐藏单元控制的权重参数;
输出门的计算公式,如下所示:
Oi=σ(XiWO+Hi-1WHO+bO) (3)
其中,Oi表示输出门,WO表示输出门对应输入数据的权重,bO表示输出门对应输入数据的偏差,WHO表示输出门受到前一视频帧所传递隐藏单元控制的权重参数;
通过门控单元控制候选记忆细胞、记忆细胞和隐藏单元,候选记忆细胞的计算公式,如下所示:
Figure FDA0003244244080000031
其中,
Figure FDA0003244244080000032
表示候选记忆细胞,WC表示候选记忆细胞对应输入数据的权重,bC表示候选记忆细胞对应输入数据的偏差,WHC表示候选记忆细胞受到前一视频帧所传递隐藏单元控制的权重参数;
记忆细胞的计算公式,如下所示:
Figure FDA0003244244080000041
其中,Ci表示记忆细胞,Ci-1表示前一帧视频所传递的记忆细胞;
隐藏单元的计算公式,如下所示:
Hi=Oi·tanh(Ci) (6)
其中,Hi表示隐藏单元。
6.根据权利要求3所述的基于计算机视觉的无人机追踪方法,其特征在于,所述步骤54具体包括:
将机载摄像头坐标系下目标图像的坐标点PC经过机载摄像头坐标系旋转变换矩阵得到旋转后的机载摄像头坐标系下目标图像的坐标PW',如下所示:
Figure FDA0003244244080000042
其中,(ex,ey,ez)表示无人机坐标系下的单位正交基,
Figure FDA0003244244080000043
表示机载摄像头坐标系下的单位正交基,PC=(xc,yc,zc)表示机载摄像头坐标系下目标图像的坐标点,zc通过双目摄像头测距功能得到,PW'表示旋转后的机载摄像头坐标系下目标图像的坐标,
Figure FDA0003244244080000044
表示机载摄像头坐标系旋转变换矩阵。
7.根据权利要求6所述的基于计算机视觉的无人机追踪方法,其特征在于,所述步骤54还包括:
将旋转后的机载摄像头坐标系下目标图像的坐标PW'经过机载摄像头坐标系平移向量tc=(xtc,ytc,ztc)得到无人机坐标系下目标图像的坐标PW,如下所示:
Figure FDA0003244244080000045
8.根据权利要求4所述的基于计算机视觉的无人机追踪方法,其特征在于,所述步骤64具体包括:
将路侧单元的监控摄像头坐标系下的目标图像坐标点PEC经过路侧单元的监控摄像头坐标系旋转变换矩阵得到旋转后的路侧单元的监控摄像头坐标系下的目标图像坐标PE',如下所示:
Figure FDA0003244244080000051
其中,PEC=(xEC,yEC,zEC)表示路侧单元的监控摄像头坐标系下的目标图像坐标点,
Figure FDA0003244244080000052
表示边缘设备坐标系下的单位正交基,
Figure FDA0003244244080000053
表示路侧单元的监控摄像头坐标系下的单位正交基,
Figure FDA0003244244080000054
表示路侧单元的监控摄像头坐标系旋转变换矩阵。
9.根据权利要求8所述的基于计算机视觉的无人机追踪方法,其特征在于,所述步骤64还包括:
将旋转后的路侧单元的监控摄像头坐标系下的目标图像坐标PE'经过路侧单元的监控摄像头坐标系平移向量tEC=(xtEC,ytEC,ztEC)得到边缘设备坐标系下的目标图像坐标PE,如下所示:
Figure FDA0003244244080000055
10.根据权利要求9所述的基于计算机视觉的无人机追踪方法,其特征在于,所述步骤64还包括:
将边缘设备坐标系下的目标图像坐标PE经过边缘设备坐标系旋转变换矩阵得到旋转后的边缘设备坐标系下的目标图像坐标PW',如下所示:
Figure FDA0003244244080000056
其中,
Figure FDA0003244244080000061
表示边缘设备坐标系旋转变换矩阵;
将旋转后的边缘设备坐标系下的目标图像坐标PW'经过边缘设备坐标系平移向量tE=(xtE,ytE,ztE)得到无人机坐标系下目标图像坐标PW,如下所示:
Figure FDA0003244244080000062
其中,PW表示无人机坐标系下目标图像坐标,tE表示边缘设备坐标系平移向量。
CN202111027996.1A 2021-09-02 2021-09-02 基于计算机视觉的无人机追踪系统及方法 Pending CN113724295A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111027996.1A CN113724295A (zh) 2021-09-02 2021-09-02 基于计算机视觉的无人机追踪系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111027996.1A CN113724295A (zh) 2021-09-02 2021-09-02 基于计算机视觉的无人机追踪系统及方法

Publications (1)

Publication Number Publication Date
CN113724295A true CN113724295A (zh) 2021-11-30

Family

ID=78681111

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111027996.1A Pending CN113724295A (zh) 2021-09-02 2021-09-02 基于计算机视觉的无人机追踪系统及方法

Country Status (1)

Country Link
CN (1) CN113724295A (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9760806B1 (en) * 2016-05-11 2017-09-12 TCL Research America Inc. Method and system for vision-centric deep-learning-based road situation analysis
CN109996039A (zh) * 2019-04-04 2019-07-09 中南大学 一种基于边缘计算的目标追踪方法及装置
WO2019199967A1 (en) * 2018-04-10 2019-10-17 Neurala, Inc. Systems and methods for gamification of drone behavior using artificial intelligence
CN110553629A (zh) * 2019-09-20 2019-12-10 中南大学 一种基于边缘计算的无人机目标追踪功耗优化方法及系统
CN111932583A (zh) * 2020-06-05 2020-11-13 西安羚控电子科技有限公司 一种基于复杂背景下的时空信息一体化智能跟踪方法
CN112351503A (zh) * 2020-11-05 2021-02-09 大连理工大学 基于任务预测的多无人机辅助边缘计算资源分配方法
CN112767475A (zh) * 2020-12-30 2021-05-07 重庆邮电大学 一种基于c-v2x、雷达与视觉的智能路侧感知系统
CN113093726A (zh) * 2021-03-05 2021-07-09 华南理工大学 一种基于Yolo_v4算法的目标检测与跟踪方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9760806B1 (en) * 2016-05-11 2017-09-12 TCL Research America Inc. Method and system for vision-centric deep-learning-based road situation analysis
WO2019199967A1 (en) * 2018-04-10 2019-10-17 Neurala, Inc. Systems and methods for gamification of drone behavior using artificial intelligence
CN109996039A (zh) * 2019-04-04 2019-07-09 中南大学 一种基于边缘计算的目标追踪方法及装置
CN110553629A (zh) * 2019-09-20 2019-12-10 中南大学 一种基于边缘计算的无人机目标追踪功耗优化方法及系统
CN111932583A (zh) * 2020-06-05 2020-11-13 西安羚控电子科技有限公司 一种基于复杂背景下的时空信息一体化智能跟踪方法
CN112351503A (zh) * 2020-11-05 2021-02-09 大连理工大学 基于任务预测的多无人机辅助边缘计算资源分配方法
CN112767475A (zh) * 2020-12-30 2021-05-07 重庆邮电大学 一种基于c-v2x、雷达与视觉的智能路侧感知系统
CN113093726A (zh) * 2021-03-05 2021-07-09 华南理工大学 一种基于Yolo_v4算法的目标检测与跟踪方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
IVAN SAETCHNIKOV等: "Efficient objects tracking from an unmanned aerial vehicle", 《2021 IEEE 8TH INTERNATIONAL WORKSHOP ON METROLOGY FOR AEROSPACE》, pages 221 - 225 *
XIAOHENG DENG等: "Air–Ground Surveillance Sensor Network based on edge computing for target tracking", 《COMPUTER COMMUNICATIONS》, vol. 66, no. 2021, pages 254 *
XIAOHENG DENG等: "Energy-Efficient UAV-Aided Target Tracking Systems Based on Edge Computing", 《IEEE INTERNET OF THINGS JOURNAL》, vol. 09, no. 03, pages 2207 - 2214 *
方文辉: "面向无人机的视觉/惯性组合导航关键技术研究", 《中国优秀硕士学位论文全文数据库 (工程科技Ⅱ辑)》, no. 2020, pages 031 - 123 *
王小龙: "基于深度学习的目标检测与跟踪技术研究及应用", 《中国优秀硕士学位论文全文数据库 (信息科技辑)》, no. 2020, pages 138 - 413 *
邓晓衡等: "基于综合信任的边缘计算资源协同研究", 《计算机研究与发展》, vol. 55, no. 03, pages 449 - 477 *

Similar Documents

Publication Publication Date Title
CN108230361B (zh) 用无人机探测器和追踪器融合来增强目标追踪方法及系统
Nassar et al. A deep CNN-based framework for enhanced aerial imagery registration with applications to UAV geolocalization
CN109917818B (zh) 基于地面机器人的协同搜索围堵方法
CN109409354B (zh) 无人机智能跟随目标确定方法、无人机和遥控器
CN111860155B (zh) 一种车道线的检测方法及相关设备
CN111176309B (zh) 一种基于球面成像的多无人机自组群互感理解方法
US10853964B2 (en) Image recognition system
Alam et al. UAV based cost-effective real-time abnormal event detection using edge computing
CN112037142B (zh) 一种图像去噪方法、装置、计算机及可读存储介质
Parmar et al. Deeprange: deep‐learning‐based object detection and ranging in autonomous driving
Do et al. Energy-efficient unmanned aerial vehicle (UAV) surveillance utilizing artificial intelligence (AI)
CN112785628A (zh) 一种基于全景视角检测跟踪的轨迹预测方法及系统
CN113516227A (zh) 一种基于联邦学习的神经网络训练方法及设备
CN114596340A (zh) 一种监控视频的多目标跟踪方法及系统
Cao et al. Learning spatial-temporal representation for smoke vehicle detection
Saif et al. Crowd density estimation from autonomous drones using deep learning: challenges and applications
CN117157679A (zh) 感知网络、感知网络的训练方法、物体识别方法及装置
CN116823884A (zh) 多目标跟踪方法、系统、计算机设备及存储介质
CN113724295A (zh) 基于计算机视觉的无人机追踪系统及方法
Chandrakanth et al. UAV-based autonomous detection and tracking of beyond visual range (BVR) non-stationary targets using deep learning
Wang et al. Online drone-based moving target detection system in dense-obstructer environment
Xiong et al. Fire detection system based on unmanned aerial vehicle
Valappil et al. Vehicle detection in UAV videos using CNN-SVM
Zhang et al. edge-assisted learning for real-time UAV imagery via predictive offloading
Liu et al. Online multi-object tracking under moving unmanned aerial vehicle platform based on object detection and feature extraction network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination