CN113837097A - 一种面向视觉目标识别的无人机边缘计算验证系统和方法 - Google Patents
一种面向视觉目标识别的无人机边缘计算验证系统和方法 Download PDFInfo
- Publication number
- CN113837097A CN113837097A CN202111127405.8A CN202111127405A CN113837097A CN 113837097 A CN113837097 A CN 113837097A CN 202111127405 A CN202111127405 A CN 202111127405A CN 113837097 A CN113837097 A CN 113837097A
- Authority
- CN
- China
- Prior art keywords
- unmanned aerial
- aerial vehicle
- pedestrian
- image
- embedded computer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012795 verification Methods 0.000 title claims abstract description 25
- 238000004364 calculation method Methods 0.000 title claims abstract description 24
- 230000000007 visual effect Effects 0.000 title claims abstract description 19
- 238000000034 method Methods 0.000 title claims description 31
- 238000012545 processing Methods 0.000 claims abstract description 27
- 230000003287 optical effect Effects 0.000 claims abstract description 25
- 230000005540 biological transmission Effects 0.000 claims abstract description 11
- 238000012549 training Methods 0.000 claims description 37
- 238000012544 monitoring process Methods 0.000 claims description 26
- 238000012360 testing method Methods 0.000 claims description 14
- 230000008569 process Effects 0.000 claims description 11
- 238000002372 labelling Methods 0.000 claims description 8
- 238000013515 script Methods 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 2
- 238000004422 calculation algorithm Methods 0.000 abstract description 16
- 238000013499 data model Methods 0.000 abstract description 2
- 238000010801 machine learning Methods 0.000 abstract description 2
- 238000001514 detection method Methods 0.000 description 25
- 230000006870 function Effects 0.000 description 10
- 102100033121 Transcription factor 21 Human genes 0.000 description 5
- 101710119687 Transcription factor 21 Proteins 0.000 description 5
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 4
- 238000011161 development Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 238000005265 energy consumption Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G08—SIGNALLING
- G08C—TRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
- G08C17/00—Arrangements for transmitting signals characterised by the use of a wireless electrical link
- G08C17/02—Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/06—Protocols specially adapted for file transfer, e.g. file transfer protocol [FTP]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/2866—Architectures; Arrangements
- H04L67/30—Profiles
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04Q—SELECTING
- H04Q9/00—Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种面向视觉目标识别的无人机边缘计算验证系统,其特征在于,所述验证系统包括地面站和安装在无人机本体上的无人机光学吊舱、JetsonNano嵌入式计算机和无人机控制模块。本发明能够过在无人机数据链路上添加边缘节点,将原本需要地面站进行处理的数据将由边缘节点上的嵌入式计算机处理,通过嵌入式计算机上的yolov4机器学习算法以及预先训练好的数据模型能够高效地识别图像中的行人数量,有效避免原本无人机与地面站之间数据传输的延时和信息安全问题,同时在数据进行分流处理也减轻了无人机到地面站链路的信息传输负担。
Description
技术领域
本发明涉及无人机智能自组网技术领域,具体而言涉及一种面向视觉目标识别的无人机边缘计算验证系统和方法。
背景技术
随着5G和工业互联网的快速发展,新兴业务对边缘计算的需求十分迫切,在众多垂直行业新兴业务中,对边缘计算的需求主要体现在时延、带宽和安全三个方面。边缘计算通过把数据处理由云端推向离数据和应用更近的边缘,减少系统响应时延、节省网络带宽、保护数据安全。相比于普通的用做信息传输媒介的基站,无人机在信息的交互上具有更高的灵活性、应激性和不受地点限制的三维视角,使得其被广泛地应用于军事、农业、摄影、交谈等领域,这也要求无人机配备更强力的数据交互、分析手段。边缘计算在靠近无人机的网络边缘进行信息处理,具有去中心化、延时低、效率高、信息安全的特点。将无人机、人工智能与边缘计算这三个概念糅合在一起搭建演示验证平台拥有如下三个优点:
(1)低延时:靠近数据接收源头,能够实时地获取数据并进行分析处理。
(2)高效性:可以在边缘节点处就实现对数据的过滤和分析,不需要等待数据传输的时间。
(3)安全性:在边缘近端就可以处理,从源头有效解除了网络安全风险。
然而,无人机的相关应用大多是背景分析。在验证系统中,无人机仅作为获取图像数据的工具,然后将数据送回地面,由地面站进行数据处理,不涉及边缘计算。实际上,边缘计算的应用可以保证数据传输的高效、安全性和低延迟,满足了实时无人机人群计数系统的需要。
此外,研究人员主要关注于算法的优化、数据集的收集或更全面的规划和控制框架的命题,而不是边缘计算系统。在视觉仿真环境中,将无人机本身作为边缘网络节点进行数据预处理,通过无人机系统的优化算法提高了系统的性能。但事实上,无人机作为本地处理器的计算能力有效,无法同时满足低延时与低功耗的需求,即无人机没有能力同时完成图像采集和边缘计算的任务。对于无人机任务A(L,τd,X),包含任务输入数据大小L(以位为单位)、完成截止日期τd(以秒为单位)和计算工作量/强度X(以每位CPU周期为单位)的信息。无人机以CPU作为主要引擎,性能指标由周期频率fm(也称为CPU时钟)控制,则任务A(L,τd,X)的延时tm=LX/fm,能耗Em=kLXfm2,因此需要将部分任务卸载到边缘节点上,利用边缘节点空闲的数据处理能力来进行系统优化,保证低延时的同时将对能耗。因此,在实时无人机的人群计数系统中,我们需要其他设备来进行数据分析和处理的工作。
发明内容
本发明针对现有技术中的不足,提供一种面向视觉目标识别的无人机边缘计算验证系统和方法,通过在无人机数据链路上添加边缘节点,将原本需要地面站进行处理的数据将由边缘节点上的JetsonNano处理,通过JetsonNano上的yolov4机器学习算法以及预先训练好的数据模型能够高效地识别图像中的行人数量,有效避免原本无人机与地面站之间数据传输的延时和信息安全问题,同时在数据进行分流处理也减轻了无人机到地面站链路的信息传输负担。
为实现上述目的,本发明采用以下技术方案:
一种面向视觉目标识别的无人机边缘计算验证系统,所述验证系统包括地面站和安装在无人机本体上的无人机光学吊舱、JetsonNano嵌入式计算机和无人机控制模块;
所述无人机控制模块与无人机光学吊舱连接构成目标追踪系统,无人机控制模块用于控制无人机的飞行轨迹、飞行高度、停滞时间数据,以及无人机光学吊舱内摄像头的拍摄角度,对特定目标进行追踪;
所述无人机光学吊舱与JetsonNano嵌入式计算机通过网线连接构成图像处理系统,无人机光学吊舱将获取视频数据传输给JetsonNano嵌入式计算机进行图像处理,实时监测视频中行人数量的变化;
所述JetsonNano嵌入式计算机和无人机控制模块分别与地面站连接构成信息传输系统,JetsonNano嵌入式计算机与地面站进行实时监测数据的传输,无人机控制模块与地面站进行无人机控制命令的传输;
所述JetsonNano嵌入式计算机与无人机控制模块连接构成边缘负反馈系统,JetsonNano嵌入式计算机根据处理得到的图像信息中的行人密度自主性地对无人机控制模块发送指令,实时调整无人机的飞行状态;
所述JetsonNano嵌入式计算机内安装有用于统计图像中行人密度的行人监测模型,该行人监测模型以YOLOv4-Tiny网络为基础网络结构、根据所属无人机处理能力优化网络类数量和过滤器大小后构建,并且采用标注有目标类型、目标位置和相应置信度的一定量的无人机俯拍图像样本训练得到。
为优化上述技术方案,采取的具体措施还包括:
进一步地,所述无人机俯拍图像样本的获取过程包括以下步骤:
采用无人机光学吊舱,利用航拍视角从不同角度拍摄一定量包含行人聚集状态的图像数据,用长方形框标注出图像中每个行人的位置和大小,并在每个长方形框的左上角标注上相应的置信度,得到一定量的训练样本。
进一步地,所述行人监测模型的构建过程包括以下步骤:
S01,下载darknet网络文件,下载YOLOv4-Tiny.weights文件存储至darknet文件夹;
S02,在darknet的makefile文件下修改配置文件;
S03,在darknet目录下输入命令:make,完成C编译;
S04,在darknet的scripts下新建文件夹,将图片集放入JPEGImages文件夹下;
S05,将打好标签产生的.xml文件放入到Annotations文件夹下;
S06,指定训练集和测试集:在ImageSets目录中,新建Main目录,在Main目录中新建train.txt及test.txt文件,其中train.txt用来存放训练集,test.txt用来存放数据集;采用脚本文件生成train.txt和test.txt文件的内容;
S07,设置classes=[“class1”],并设置文件夹标识,生成训练集、测试集、地址三个文件;
S08,新增文件:data目录下的demo.names,添加所要识别类别的种类:class1;
S09,修改cfg目录下的YOLOv4-Tiny.cfg文件,对训练参数和相关网络结构进行修改,在训练参数上将Max_batches设为2000×classes,即为2000;steps的设置是Max_batches×80%和Max_batches×90%;在网络结构上修改classes和filters,将classes及其最近的filters改为:classes=1、filters=(classes+5)*3=18;
S010,使用预训练模型进行训练。
进一步地,所述行人监测模型包括视频缓存模块、抽帧处理模块、行人识别模块和标注模块;
所述视频缓存模块用于存储无人机光学吊舱发送的视频数据;
所述抽帧处理模块用于对接收到的视频数据进行抽帧处理,采集得到相应的视频帧图像;
所述行人识别模块用于对视频帧图像中的行人的位置、大小和置信度进行识别;
所述标注模块用于采用长方形框标注出每个行人的位置和大小,并在长方形框的左上角标注置信度。
基于前述无人机边缘计算验证系统,本发明提及一种面向视觉目标识别的无人机边缘计算验证方法,所述验证方法包括以下步骤:
以YOLOv4-Tiny网络为基础网络结构、根据所属无人机处理能力优化网络类数量和过滤器大小后构建得到行人监测模型,采用标注有目标类型、目标位置和相应置信度的一定量的无人机俯拍图像样本对行人监测模型进行训练;
利用无人机光学吊舱以航拍视角拍摄指定目标区域的视频图像,通过行人监测模型对视频图像中的行人和相应的置信度进行识别和标注;
JetsonNano嵌入式计算机统计置信度大于预设置信度阈值的行人数量,计算得到图像各区域的行人密度,根据计算得到的行人密度自主性地对无人机控制模块发送指令,实时调整无人机的飞行状态,使其针对特定目标进行追踪。
本发明的有益效果是:
(1)相比于地面站对无人机发出指令,通过边缘节点对无人机进行指令控制更加简单、快捷,并且有效避免了信息在无人机与地面站之间来回传输的延时和信息安全问题。
(3)无人机边缘计算系统能够扩展出除人流密度监测外的其他功能,如地形绘测、物件派送等。
(4)利用航拍视角的不同角度的图像进行模型训练,来应对无人机拍摄时目标出现不同程度的变形、重叠的问题。
附图说明
图1是本发明实施例的面向视觉目标识别的无人机边缘计算验证系统的结构示意图。
图2是本发明实施例的YOLOv4网络的结构示意图。
图3是本发明实施例的模型训练过程中损失函数变化曲线图。
具体实施方式
现在结合附图对本发明作进一步详细的说明。
需要注意的是,发明中所引用的如“上”、“下”、“左”、“右”、“前”、“后”等的用语,亦仅为便于叙述的明了,而非用以限定本发明可实施的范围,其相对关系的改变或调整,在无实质变更技术内容下,当亦视为本发明可实施的范畴。
图1是本发明实施例的面向视觉目标识别的无人机边缘计算验证系统的结构示意图。本发明在多旋翼无人机平台上搭载JetsonNano嵌入式计算机,通过自己训练的模型搭建一个无人机边缘计算的验证系统,实现行人监测等功能。验证系统包括一台多旋翼无人机,一台JetsonNano嵌入式计算机以及一地面控制接受站,无人机搭载JetsonNano在空中进行作业实现了实时的数据处理。为进一步实现对特定对象的跟随功能,本发明还提供了一种边缘节点对无人机进行负反馈的操作方案。参见图1,该验证系统包括地面站4和安装在无人机本体上的无人机光学吊舱1、JetsonNano嵌入式计算机和无人机控制模块3。
无人机控制模块3与无人机光学吊舱1连接构成目标追踪系统,无人机控制模块3用于控制无人机的飞行轨迹、飞行高度、停滞时间数据,以及无人机光学吊舱1内摄像头的拍摄角度,从而实现对特定目标的追踪。
无人机光学吊舱1与JetsonNano嵌入式计算机通过网线连接构成图像处理系统,无人机光学吊舱1将获取视频数据传输给JetsonNano嵌入式计算机进行图像处理,实时监测视频中行人数量的变化。
JetsonNano嵌入式计算机和无人机控制模块3分别与地面站4连接构成信息传输系统,JetsonNano嵌入式计算机与地面站4进行实时监测数据的传输,无人机控制模块3与地面站4进行无人机控制命令的传输。
JetsonNano嵌入式计算机与无人机控制模块3连接构成边缘负反馈系统,JetsonNano嵌入式计算机根据处理得到的图像信息中的行人密度自主性地对无人机控制模块3发送指令,实时调整无人机的飞行状态,有效避免了地面站4根据回传图像不断调整无人机飞行状态的问题。
JetsonNano嵌入式计算机内安装有用于统计图像中行人密度的行人监测模型,该行人监测模型以YOLOv4-Tiny网络为基础网络结构、根据所属无人机处理能力优化网络类数量和过滤器大小后构建,并且采用标注有目标类型、目标位置和相应置信度的一定量的无人机俯拍图像样本训练得到。
该无人机边缘计算验证系统的行人监测流程包括以下具体步骤:
步骤1:无人机光学吊舱1拍摄行人聚集状态,并将图像数据传输给JetsonNano嵌入式计算机2。
步骤2:JetsonNano嵌入式计算机获取数据流,利用yolov4算法以及训练好的行人监测模型统计图像中的行人密度,输出行人总数以及行人分布情况。Yolov4是开源程序,本发明通过神经网络结构对图像进行卷积压缩,再与训练模型进行比对,计算置信度,统计置信度较高的行人数量,计算得到行人密度。
步骤3:JetsonNano嵌入式计算机将处理得到的行人数据返回给地面站4。
步骤4:JetsonNano嵌入式计算机根据行人数据对高密度区域进行追踪,将对应的追踪指令传输给无人机控制模块3。
步骤5:无人机控制模块3接受到追踪指令控制无人机的飞行轨迹并调整无人机光学吊舱1的拍摄角度。
目前,将目标检测算法移植到Nano开发板后,检测速度下降严重,常用目标检测算法通常更加适用于普通场景下的大目标检测,而无人机场景下目标较小,检测精度较差,而且在嵌入式开发板上的速度也达不到实时要求,如YOLOv4算法在Nano上运行得非常慢(大约几个小时)。本系统旨在移动端实现对无人机视角下小目标的实时检测,鉴于开发板使用时的优先考虑条件是检测速度,并考虑到精度和速度的双重要求,本实施例选用YOLOv4算法的简化版本YOLOv4-Tiny算法为基础框架进行改进,优先保证了检测速度,重点提升检测精度。
对于YOLOv4-Tiny算法,其与YOLOv4算法十分相近。与其他YOLO算法相比,YOLOv4算法的速度更快、准确度更高。YOLOv4通过引入Mosaic数据增强方法与使用GA算法选择最优超参数,对现有方法进行改进使其具有更低的训练门槛,能够在GPU资源有限的条件下得到更好的结果。其中Mosaic数据增强方法每次随机读取四张图片,分别对四张图片进行翻转、缩放等操作,这种将四张图片组合为一张图片的方法可以丰富检测物体的背景。YOLOv4的网络结构如图2所示,CSPDarknet53作为骨干网络,SPP作为Neck的附加模块,PANet作为Neck的特征融合模块,YOLOv3作为Head。其中Darknet53包含了5个大残差块,这5个大残差块包含的小残差单元个数分别为1、2、8、8、4。CSPDarknet53在Darknet53的每个大残差块上加上了CSPNet(CrossStagePartialNetwork),通过梯度的变化集成到特征图中,将特征图分为两部分,一部分进行卷积操作,另一部分与上一次的卷积结果进行结合。在目标检测问题中,CSP可以有效提升CNN的学习能力,同时减少计算量。PANet(PathAggregationNetwork)充分利用了特征融合,YOLOv4中还将融合的方法由加法改为乘法,使该网络能够得到更加精确的目标检测能力。
YOLOv4-Tiny的网络结构类似YOLOv4,但网络中没有添加残差结构,且只有两个输出层,检测时通过一个卷积神经网络遍历整个图像,利用图像的全局信息进行预测。其检测过程如下,首先将图片输入卷积神经网络,将部分特征图上采样后与之前的特征图级联,然后根据框的坐标参数提取候选框内的特征,并采用非极大值抑制的方法筛选出目标置信度高的包围盒,经过最终的损失计算函数完成分类和定位,将预测包围盒坐标、分类信息及其置信度共同输出为一个向量。
本实施例提出一种基于无人机的人流密度检测方法。应当理解,在实际应用中,无人机边缘计算系统不局限于人流密度检测这一种应用,还能够扩展出除人流密度监测外的其他功能,如地形绘测、物件派送等,只需要更换监测目标,采用相应的图像样本对YOLOv4-Tiny网络进行重新训练即可,更改过程并不会影响无人机同时作为图像采集和边缘计算这两个功能主体的应用效果。为了简化描述过程,本实施例只以人流密度检测为例,对本实施例的无人机边缘计算验证方法进行说明。
无人机场景下的人流密度检测与普通场景下的人流密度检测之间存在一定的差异。例如,两者目标大小不同,在普通场景中,行人目标一般较大,特征更多,而在无人机场景中,行人目标一般较小,特征较少;而且拍摄角度也不同,普通场景中一般是在水平区域内拍摄行人,而无人机拍摄时大多采用俯视的角度拍摄,主要表现为平面和矩形,因此两种场景下的目标形变也存在一定差异;除此之外,无人机拍摄到的图像中行人重叠、姿态都与普通场景下不同,发生的重叠多是垂直方向上的重叠。目前行人检测的数据库多数针对普通场景中的行人检测,并不适用于无人机的视角。为解决前述问题,本实施例构建了一个包含124张手动标记图像的自建行人数据集,所有这些图像都由无人机在空中捕获,并基于该数据集训练YOLOv4-Tiny网络,从而提高这个系统检测的准确性。
JetsonNano嵌入式计算机对基于YOLOv4-Tiny网络构建的行人监测模型进行构建的步骤如下:
步骤一,下载darknet网络文件并下载YOLOv4-Tiny.weights文件放在darknet文件夹下。
步骤二,修改配置文件,在darknet的makefile文件下进行修改。
步骤三,C编译。在darknet目录下输入命令:make。
步骤四,在darknet的scripts下新建文件夹,再将图片集放入JPEGImages文件夹下。
步骤五,将打好标签产生的.xml文件放入到Annotations文件夹下。
步骤六,指定训练集和测试集。在ImageSets目录中,新建Main目录,在Main目录中新建train.txt及test.txt文件,其中train.txt用来存放训练集,test.txt用来存放数据集。之后即可使用脚本文件生成train.txt和test.txt文件的内容。
步骤七,修改相关文件。设置classes=[“class1”],并设置文件夹标识,生成训练集、测试集、地址三个文件。
步骤八,新增文件:data目录下的demo.names。添加所要识别类别的种类:class1。
步骤九,修改cfg目录下的YOLOv4-Tiny.cfg文件,对训练参数和相关网络结构进行修改。在训练参数上将Max_batches设为2000×classes,即为2000;steps的设置是Max_batches×80%和Max_batches×90%。在网络结构上需修改classes和filters,将classes及其最近的filters改为:classes=1、filters=(classes+5)*3=18。
步骤十,使用预训练模型进行训练。
本实施例通过修改网络class类的数量和过滤器filters的大小来优化模型训练过程,使优化后的模型能够和无人机的运算能力相适配。并且在draw_detections模块增添了标注功能,标注流程包括:增设存储单元left_x、top_y(行人位置)、width(行人宽度)、height(行人长度)、con(选中区域为行人的概率)、num(行人总数);通过yolov4算法进行图像识别,并将结果信息存入对于数据单元;在原视频帧上,根据存储信息,用长方形框标注每个行人的位置和大小,并在长方形框的左上角标注置信度;统计置信度con>β其中β∈(0,1),可根据实际需求修改)的行人数量,将统计的目标总数num标注在图像左上角。
示例性地,还可以在yolov4代码中增加视频缓存模块,通过设置缓存区存放待处理的视频帧,并采用了抽帧处理技术,每3帧抽取1帧进行图像处理。例如,实际操作中无人机图像采集传输15fps,1920*1080的视频画面,设置缓存模块有效避免处理速度不足导致帧堆积的情况,在保证视频图像流畅准确的同时,降低了边缘节点硬件需求。
在用自建数据集训练YOLOv4-Tiny时,检测的目标是行人这一类,因此设置检测类别classes=[“class1”]。在利用无人机摄像头拍摄了一系列行人图片及视频后,选用124张样本图片,每张大小为380k左右,图像分辨率为1920*1080像素。将这些样本图像全部放入JPEGImages文件夹下,打乱其顺序并重新命名,再手动对其上行人进行标记,以构成训练集,这是一个比较小的数据集,这是因为选用的硬件JetsonNano嵌入式计算机其能耗较小,相应计算能力也较小,难以承担大型的数据集训练任务,训练耗时较长,因此选用小型数据集来实现一个范围较小的应用。
之后对参数进行修改。为减轻内存占用的压力,设置batch=64、subdivisions=16,为加快网络的收敛,将学习率调整到0.001,再修改max_batches=classes*2000,因本系统只有一个类别,所以设其为2000。steps的设置是max_batches×80%和max_batches×90%。之后就可以利用行人数据集进行模型的训练。整个训练过程都是在JetsonNano嵌入式计算机上进行的,参数根据Nano的算力及检测的结果进行调整。
最终训练好的模型损失变化曲线如图3所示。图3(a)和图3(b)均为总迭代次数为10000的损失函数曲线,其中横坐标为迭代次数,纵坐标为损失值。它表示在训练过程中损失函数的变化,其逐渐减少,最后接近0。从图3中可以看出,当两个图中的迭代次数达到一定次数时,损失值趋于稳定、平滑、小幅度下降,基本在固定值附近浮动。当总迭代次数为10000,结果精度为0.1579%时,最终损失较小。为使损失值收敛得更快,最终更稳定,并产生更低的平均损失,我们在先设置参数时降低初始学习率,再在达到一定的迭代次数后提高学习率,以提高学习效率;当损失值趋于稳定时,再降低学习率,以避免过拟合。因此,训练时间得以缩短,可得到更好的检测结果。在经过改进后,总迭代次数不变的情况下,平均损失从最早的0.2227%下降到0.1579%,精度得到大大提高。
以上仅是本发明的优选实施方式,本发明的保护范围并不仅局限于上述实施例,凡属于本发明思路下的技术方案均属于本发明的保护范围。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理前提下的若干改进和润饰,应视为本发明的保护范围。
Claims (5)
1.一种面向视觉目标识别的无人机边缘计算验证系统,其特征在于,所述验证系统包括地面站和安装在无人机本体上的无人机光学吊舱、JetsonNano嵌入式计算机和无人机控制模块;
所述无人机控制模块与无人机光学吊舱连接构成目标追踪系统,无人机控制模块用于控制无人机的飞行轨迹、飞行高度、停滞时间数据,以及无人机光学吊舱内摄像头的拍摄角度,对特定目标进行追踪;
所述无人机光学吊舱与JetsonNano嵌入式计算机通过网线连接构成图像处理系统,无人机光学吊舱将获取视频数据传输给JetsonNano嵌入式计算机进行图像处理,实时监测视频中行人数量的变化;
所述JetsonNano嵌入式计算机和无人机控制模块分别与地面站连接构成信息传输系统,JetsonNano嵌入式计算机与地面站进行实时监测数据的传输,无人机控制模块与地面站进行无人机控制命令的传输;
所述JetsonNano嵌入式计算机与无人机控制模块连接构成边缘负反馈系统,JetsonNano嵌入式计算机根据处理得到的图像信息中的行人密度自主性地对无人机控制模块发送指令,实时调整无人机的飞行状态;
所述JetsonNano嵌入式计算机内安装有用于统计图像中行人密度的行人监测模型,该行人监测模型以YOLOv4-Tiny网络为基础网络结构、根据所属无人机处理能力优化网络类数量和过滤器大小后构建,并且采用标注有目标类型、目标位置和相应置信度的一定量的无人机俯拍图像样本训练得到。
2.根据权利要求1所述的面向视觉目标识别的无人机边缘计算验证系统,其特征在于,所述无人机俯拍图像样本的获取过程包括以下步骤:
采用无人机光学吊舱,利用航拍视角从不同角度拍摄一定量包含行人聚集状态的图像数据,用长方形框标注出图像中每个行人的位置和大小,并在每个长方形框的左上角标注上相应的置信度,得到一定量的训练样本。
3.根据权利要求1所述的面向视觉目标识别的无人机边缘计算验证系统,其特征在于,所述行人监测模型的构建过程包括以下步骤:
S01,下载darknet网络文件,下载YOLOv4-Tiny.weights文件存储至darknet文件夹;
S02,在darknet的makefile文件下修改配置文件;
S03,在darknet目录下输入命令:make,完成C编译;
S04,在darknet的scripts下新建文件夹,将图片集放入JPEGImages文件夹下;
S05,将打好标签产生的.xml文件放入到Annotations文件夹下;
S06,指定训练集和测试集:在ImageSets目录中,新建Main目录,在Main目录中新建train.txt及test.txt文件,其中train.txt用来存放训练集,test.txt用来存放数据集;采用脚本文件生成train.txt和test.txt文件的内容;
S07,设置classes=[“class1”],并设置文件夹标识,生成训练集、测试集、地址三个文件;
S08,新增文件:data目录下的demo.names,添加所要识别类别的种类:class1;
S09,修改cfg目录下的YOLOv4-Tiny.cfg文件,对训练参数和相关网络结构进行修改,在训练参数上将Max_batches设为2000×classes,即为2000;steps的设置是Max_batches×80%和Max_batches×90%;在网络结构上修改classes和filters,将classes及其最近的filters改为:classes=1、filters=(classes+5)*3=18;
S010,使用预训练模型进行训练。
4.根据权利要求1所述的面向视觉目标识别的无人机边缘计算验证系统,其特征在于,所述行人监测模型包括视频缓存模块、抽帧处理模块、行人识别模块和标注模块;
所述视频缓存模块用于存储无人机光学吊舱发送的视频数据;
所述抽帧处理模块用于对接收到的视频数据进行抽帧处理,采集得到相应的视频帧图像;
所述行人识别模块用于对视频帧图像中的行人的位置、大小和置信度进行识别;
所述标注模块用于采用长方形框标注出每个行人的位置和大小,并在长方形框的左上角标注置信度。
5.一种基于权利要求1-4任一项所述验证系统的面向视觉目标识别的无人机边缘计算验证方法,其特征在于,所述验证方法包括以下步骤:
以YOLOv4-Tiny网络为基础网络结构、根据所属无人机处理能力优化网络类数量和过滤器大小后构建得到行人监测模型,采用标注有目标类型、目标位置和相应置信度的一定量的无人机俯拍图像样本对行人监测模型进行训练;
利用无人机光学吊舱以航拍视角拍摄指定目标区域的视频图像,通过行人监测模型对视频图像中的行人和相应的置信度进行识别和标注;
JetsonNano嵌入式计算机统计置信度大于预设置信度阈值的行人数量,计算得到图像各区域的行人密度,根据计算得到的行人密度自主性地对无人机控制模块发送指令,实时调整无人机的飞行状态,使其针对特定目标进行追踪。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111127405.8A CN113837097B (zh) | 2021-09-26 | 2021-09-26 | 一种面向视觉目标识别的无人机边缘计算验证系统和方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111127405.8A CN113837097B (zh) | 2021-09-26 | 2021-09-26 | 一种面向视觉目标识别的无人机边缘计算验证系统和方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113837097A true CN113837097A (zh) | 2021-12-24 |
CN113837097B CN113837097B (zh) | 2024-05-07 |
Family
ID=78970300
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111127405.8A Active CN113837097B (zh) | 2021-09-26 | 2021-09-26 | 一种面向视觉目标识别的无人机边缘计算验证系统和方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113837097B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114895701A (zh) * | 2022-04-18 | 2022-08-12 | 深圳织算科技有限公司 | 一种无人机巡检方法及系统 |
CN115170990A (zh) * | 2022-09-06 | 2022-10-11 | 江苏及象生态环境研究院有限公司 | 一种无人机机载吊舱人工智能边缘计算系统及其方法 |
CN115599125A (zh) * | 2022-12-14 | 2023-01-13 | 电子科技大学(Cn) | 一种基于边缘计算的助航灯光控制策略选择方法 |
CN115865939A (zh) * | 2022-11-08 | 2023-03-28 | 燕山大学 | 一种基于边云协同决策的目标检测与追踪系统及方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180046188A1 (en) * | 2015-08-19 | 2018-02-15 | Eyedea Inc. | Unmanned aerial vehicle having automatic tracking function and method of controlling the same |
CN107911429A (zh) * | 2017-11-04 | 2018-04-13 | 南京奇蛙智能科技有限公司 | 一种基于视频的无人机云端在线交通流量监测方法 |
CN113361347A (zh) * | 2021-05-25 | 2021-09-07 | 东南大学成贤学院 | 一种基于yolo算法的施工现场安全检测方法 |
-
2021
- 2021-09-26 CN CN202111127405.8A patent/CN113837097B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180046188A1 (en) * | 2015-08-19 | 2018-02-15 | Eyedea Inc. | Unmanned aerial vehicle having automatic tracking function and method of controlling the same |
CN107911429A (zh) * | 2017-11-04 | 2018-04-13 | 南京奇蛙智能科技有限公司 | 一种基于视频的无人机云端在线交通流量监测方法 |
CN113361347A (zh) * | 2021-05-25 | 2021-09-07 | 东南大学成贤学院 | 一种基于yolo算法的施工现场安全检测方法 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114895701A (zh) * | 2022-04-18 | 2022-08-12 | 深圳织算科技有限公司 | 一种无人机巡检方法及系统 |
CN115170990A (zh) * | 2022-09-06 | 2022-10-11 | 江苏及象生态环境研究院有限公司 | 一种无人机机载吊舱人工智能边缘计算系统及其方法 |
CN115865939A (zh) * | 2022-11-08 | 2023-03-28 | 燕山大学 | 一种基于边云协同决策的目标检测与追踪系统及方法 |
CN115865939B (zh) * | 2022-11-08 | 2024-05-10 | 燕山大学 | 一种基于边云协同决策的目标检测与追踪系统及方法 |
CN115599125A (zh) * | 2022-12-14 | 2023-01-13 | 电子科技大学(Cn) | 一种基于边缘计算的助航灯光控制策略选择方法 |
CN115599125B (zh) * | 2022-12-14 | 2023-04-07 | 电子科技大学 | 一种基于边缘计算的助航灯光控制策略选择方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113837097B (zh) | 2024-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wang et al. | Data-driven based tiny-YOLOv3 method for front vehicle detection inducing SPP-net | |
CN113837097A (zh) | 一种面向视觉目标识别的无人机边缘计算验证系统和方法 | |
Gai et al. | A detection algorithm for cherry fruits based on the improved YOLO-v4 model | |
CN108230337B (zh) | 一种基于移动端的语义slam系统实现的方法 | |
US10452951B2 (en) | Active visual attention models for computer vision tasks | |
Li et al. | A survey on semantic segmentation | |
Xie et al. | Detecting trees in street images via deep learning with attention module | |
CN111899227A (zh) | 基于无人机作业的铁路扣件缺陷自动采集辨识方法 | |
CN111046821B (zh) | 一种视频行为识别方法、系统及电子设备 | |
CN104463117A (zh) | 一种基于视频方式的人脸识别样本采集方法及系统 | |
Chen et al. | An apple detection method based on des-YOLO v4 algorithm for harvesting robots in complex environment | |
CN110569754A (zh) | 图像目标检测方法、装置、存储介质及设备 | |
Zhang et al. | Research on the application of deep learning target detection of engineering vehicles in the patrol and inspection for military optical cable lines by UAV | |
CN110087041B (zh) | 基于5g基站的视频数据处理及传输方法和系统 | |
CN113160062A (zh) | 一种红外图像目标检测方法、装置、设备及存储介质 | |
CN111831010A (zh) | 一种基于数字空间切片的无人机避障飞行方法 | |
CN113160283A (zh) | 一种基于sift的多摄像头场景下的目标跟踪方法 | |
Yin | Object Detection Based on Deep Learning: A Brief Review | |
Mo et al. | Eventtube: An artificial intelligent edge computing based event aware system to collaborate with individual devices in logistics systems | |
Gopal et al. | Tiny object detection: Comparative study using single stage CNN object detectors | |
Kim et al. | Convolutional neural network-based multi-target detection and recognition method for unmanned airborne surveillance systems | |
US20230334774A1 (en) | Site model updating method and system | |
CN116152696A (zh) | 一种工控系统智慧安防图像识别方法及系统 | |
Nazarov et al. | Technologies For identifying Vehicles Standing at Traffic lights Based on Video Data | |
CN115115713A (zh) | 一种统一时空融合的环视鸟瞰图感知方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |