CN116152675A - 一种基于深度学习的无人机救援方法及系统 - Google Patents

一种基于深度学习的无人机救援方法及系统 Download PDF

Info

Publication number
CN116152675A
CN116152675A CN202211127254.0A CN202211127254A CN116152675A CN 116152675 A CN116152675 A CN 116152675A CN 202211127254 A CN202211127254 A CN 202211127254A CN 116152675 A CN116152675 A CN 116152675A
Authority
CN
China
Prior art keywords
unmanned aerial
aerial vehicle
image
target
vehicle group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211127254.0A
Other languages
English (en)
Inventor
徐超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hebi College of Vocation and Technology
Original Assignee
Hebi College of Vocation and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hebi College of Vocation and Technology filed Critical Hebi College of Vocation and Technology
Priority to CN202211127254.0A priority Critical patent/CN116152675A/zh
Publication of CN116152675A publication Critical patent/CN116152675A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y20/00Information sensed or collected by the things
    • G16Y20/10Information sensed or collected by the things relating to the environment, e.g. temperature; relating to location
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y20/00Information sensed or collected by the things
    • G16Y20/40Information sensed or collected by the things relating to personal data, e.g. biometric data, records or preferences
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y40/00IoT characterised by the purpose of the information processing
    • G16Y40/10Detection; Monitoring
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y40/00IoT characterised by the purpose of the information processing
    • G16Y40/20Analytics; Diagnosis
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y40/00IoT characterised by the purpose of the information processing
    • G16Y40/60Positioning; Navigation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Remote Sensing (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Environmental & Geological Engineering (AREA)
  • Toxicology (AREA)
  • Biomedical Technology (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例的方法中提出了一种基于深度学习的无人机救援方法及系统,管理服务器接收移动端发送的失联人员的数据信息,向无人机群发送目标追踪任务;无人机群沿预设航线进行航拍;管理服务器对航拍数据进行比对识别,将识别出的疑似图像发送至无人机群;无人机群对疑似目标进行二次航拍和定位;管理服务器将数据发送至移动端。本发明以设定初始位置评估生成失联人员的活动范围,然后通过无人机群的协调配合,完成对活动范围的航拍覆盖,再从航拍图像中通过识别模型和人工结合准确识别出目标,准确高效便捷,避免了人工搜寻时存在的成本高耗时久效率低的问题。

Description

一种基于深度学习的无人机救援方法及系统
【技术领域】
本发明涉及无人机技术领域,尤其涉及一种基于深度学习的无人机救援方法及系统。
【背景技术】
自助自主的旅行受到了广大的旅行爱好者的追捧。由于旅行爱好者具有自主自发性,且大多数并没有经过专业的训练,因此在探险中追求刺激的同时也伴随着巨大的风险,失联现象屡有发生。
在对野外失联人员搜救的过程中,往往由于搜寻面积广、环境恶劣、交通不便给救援工作带来极大的不便,而且地毯性搜索效率低耗时久成本高。因此,往往由于救援的不及时,错过了最佳救援时间。
【发明内容】
有鉴于此,本发明实施例提供了一种基于深度学习的无人机救援方法及系统。
第一方面,本发明实施例提供了一种基于深度学习的无人机救援方法,所述方法包括:
S1、管理服务器接收移动端发送的失联人员的数据信息,生成初始识别范围和最终识别范围,并基于最终识别范围向无人机群发送目标追踪任务,所述数据信息包括设定初始位置、目标图像和失踪时间;
S2、无人机群根据目标追踪任务进行航拍规划,并进行航拍;
S3、管理服务器接收无人机机群发送的航拍数据,对航拍数据中的航拍图像进行预处理,并进行比对识别,将识别出的疑似图像发送至无人机群;
S4、无人机群对初始识别范围内的疑似图像中的疑似目标进行二次航拍和定位,并将二次航拍图像和定位数据发送回管理服务器;
S5、管理服务器将二次航拍图像数据、定位数据以及非重叠识别范围内的疑似图像数据发送至移动端。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述数据信息还包括失联地的历史失联人员数据信息以及目标失联人员的年龄、身体、心理和物资状况信息。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述 S1中生成初始识别范围和最终识别范围,具体包括:
计算失联人员的第一活动距离L1,所述第一活动距离L1通过公式
Figure BDA0003849370680000021
计算,其中,i为时间间隔单位,N为失联人员失联总时间,λ为调节系数,/>
Figure BDA0003849370680000022
为测定的每i个时间单位内不同人员平地行走的平均距离;/>
计算失联人员的第二活动距离L2,所述第二活动距离L2通过公式
Figure BDA0003849370680000023
计算,其中,/>
Figure BDA0003849370680000024
失联地的历史失联人员发现位置与初始位置的平均距离,i为失联地的历史失联人员的序号,m为失联地的历史失联人员的数量,e为自然常数,α、β、γ、δ为修正参数,f1为失联人员年龄状况,若为老年、孕妇和儿童则f1为1,否则为0,f2为失联人员身体状况,若非健康则f2为1,否则为0,f3为失联人员心理状况,若非健康则f3为1,否则为0,f4为失联人员物资状况,若为紧缺则f4为1,否则为0;
比较第一活动距离L1与第二活动距离L2大小,以较小者作为第一目标活动距离L3,以较大者作为第二目标活动距离L4
以设定初始位置为圆心,以第一目标活动距离L3为半径,在二维平面向外辐射生成初始识别范围,以第二目标活动距离L4为半径,在二维平面向外辐射生成最终识别范围。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述 S2具体包括:
无人机群基于约束条件离开基地并达到初始识别范围内;
通过如下函数确定无人机群的初步识别范围:
Figure BDA0003849370680000031
其中,vi(t)为第i架无人机在t时刻的速度,kc为速度调节系数,Ωi为第i架无人机识别范围,h为惩戒函数,C为期望识别范围值,g(z0,q)为识别能力函数,/>
Figure BDA0003849370680000032
c0为识别常数,q为无人机识别范围Ωi内的点,γi(q,t)为t时刻q点的识别值;
无人机群进行位置调整,并上传无人机群网络:
定义分散函数
Figure BDA0003849370680000033
其中,/>
Figure BDA0003849370680000034
为无人机i与相邻无人机j在时间k的分散值,/>
Figure BDA0003849370680000035
为是无人机i在时间k的位置,/>
Figure BDA0003849370680000036
Figure BDA0003849370680000037
为是无人机j在时间k的位置,μ=N*π*CR 2/A,N为无人机的总数量,CR为无人机的航拍范围,即识别范围,A为最终识别范围面积,/>
Figure BDA0003849370680000038
为无人机i在时间k的关系区域密度值,μ为预期密度值,
Figure BDA0003849370680000039
S={s1,s2,...,sn},m为关系区域中无人机总数量,
Figure BDA00038493706800000310
为无人机间距,/>
Figure BDA00038493706800000311
其中,
Figure BDA00038493706800000312
其中,/>
Figure BDA00038493706800000313
为无人机i与其相邻无人机之间的分散总值,/>
定义无人机相邻无人机的集合
Figure BDA00038493706800000314
其中,无人机的分散总值大于集合其他无人机;
关系区域分散值
Figure BDA0003849370680000041
Figure BDA0003849370680000042
为无人机i被选为目标无人机以移动到时间k的次数,/>
Figure BDA0003849370680000043
定义关系区域密度值
Figure BDA0003849370680000044
定义关系区域合格函数
Figure BDA0003849370680000045
其中,α为调节常数,N为无人机的总数量,每个关系区域中合格数值最高的无人机作为目标无人机;
无人机群进行位置更新,直至所有无人机关系区域的无人机关系区域密度值收敛至满足预设的要求,完成最终识别范围的航拍覆盖;
无人机群达到初始识别范围直至航拍覆盖,按预设的频率进行航拍。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述约束条件根据目标追踪任务进行设定,所述约束条件包括无人机群的无人机数目、无人机的飞行速度、无人机的位置坐标、无人机的最大偏转角、无人机的最大偏转角变化量、无人机的识别范围以及初始识别范围参数。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述 S3中对航拍数据中的航拍图像进行预处理,具体包括:
对航拍图像进行去噪和外观特征的提取;
将提取的外观特征输入预训练的一级SVM分类器,根据置信度判断是否存在求救标志,若存在,则将对应的航拍图像标记为疑似图像;
将提取的外观特征输入预训练的二级SVM分类器,根据置信度判断是否存在目标图像对应的颜色目标,若存在,则判断存在颜色目标的航拍图像数量是否大于数量阈值,若小于数量阈值,则将相应的航拍图像标记为疑似图像。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述 S3中进行比对识别,具体包括:
通过关键点检测算法模型对航拍图像进行识别,判断航拍图像是否存在人形目标;
若存在人形目标,则计算航拍图像中的人形关键点,获取人形关键点的最大外接矩形,获取所有人形关键点的整体最大外接矩形,并将该整体最大外接矩形截取作为人形图像;
依次选取一人形图像与预处理后的目标图像的对应人形关键点的最大外接矩形进行图像进行比较,计算相似值Sij,其中,相似值Sij通过公式
Figure BDA0003849370680000051
计算,其中,N*为人形图像的人形关键点数量,M*为人形关键点的最大外接矩形的统计灰度直方图中的灰度值的取值区间划分出的段数,Qij为人形图像第i个人形关键点在灰度值的第j段取值区间内像素点的数量,Fij为目标图像第i个人形关键点在灰度值的第j段取值区间内像素点的数量;
判断航拍图像的相似值Sij是否大于设定的相似值阈值,若大于,则将航拍图像标记为疑似图像。
第二方面,本发明实施例提供了一种基于深度学习的无人机救援系统,所述系统包括:
移动端,用于发送的失联人员的数据信息,所述数据信息包括设定初始位置、目标图像和失踪时间;
无人机群,用于根据目标追踪任务进行航拍规划,并进行航拍;还用于对初始识别范围内的疑似图像中的疑似目标进行二次航拍和定位,并将二次航拍图像和定位数据发送回管理服务器;
管理服务器,包括任务生成模块、图像预处理模块、目标识别模块和传输模块,
所述任务生成模块,用于生成初始识别范围和最终识别范围,并基于最终识别范围向无人机群发送目标追踪任务;
所述图像预处理模块,用于接收无人机机群发送的航拍数据,对航拍数据中的航拍图像进行预处理;
所述目标识别模块,用于通过识别模型与目标图像进行比对识别,将识别出的疑似图像发送至无人机群;
所述传输模块,用于接收移动端发送的失联人员的数据信息,接收无人机群发送的二次航拍图像和定位数据,还用于将二次航拍图像数据、定位数据以及非重叠识别范围内的疑似图像数据发送至移动端。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述任务生成模块用于生成初始识别范围和最终识别范围,具体包括:
计算失联人员的第一活动距离L1,所述第一活动距离L1通过公式
Figure BDA0003849370680000061
计算,其中,i为时间间隔单位,N为失联人员失联总时间,λ为调节系数,/>
Figure BDA0003849370680000062
为测定的每i个时间单位内不同人员平地行走的平均距离;
计算失联人员的第二活动距离L2,所述第二活动距离L2通过公式
Figure BDA0003849370680000063
计算,其中,/>
Figure BDA0003849370680000064
失联地的历史失联人员发现位置与初始位置的平均距离,i为失联地的历史失联人员的序号,m为失联地的历史失联人员的数量,e为自然常数,α、β、γ、δ为修正参数,f1为失联人员年龄状况,若为老年、孕妇和儿童则f1为1,否则为0,f2为失联人员身体状况,若非健康则f2为1,否则为0,f3为失联人员心理状况,若非健康则f3为1,否则为0,f4为失联人员物资状况,若为紧缺则f4为1,否则为0;
比较第一活动距离L1与第二活动距离L2大小,以较小者作为第一目标活动距离L3,以较大者作为第二目标活动距离L4
以设定初始位置为圆心,以第一目标活动距离L3为半径,在二维平面向外辐射生成初始识别范围,以第二目标活动距离L4为半径,在二维平面向外辐射生成最终识别范围。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述图像预处理模块用于对航拍数据中的航拍图像进行预处理,具体包括:
对航拍图像进行去噪和外观特征的提取;
将提取的外观特征输入预训练的一级SVM分类器,根据置信度判断是否存在求救标志,若存在,则将对应的航拍图像标记为疑似图像;
将提取的外观特征输入预训练的二级SVM分类器,根据置信度判断是否存在目标图像对应的颜色目标,若存在,则判断存在颜色目标的航拍图像数量是否大于数量阈值,若小于数量阈值,则将相应的航拍图像标记为疑似图像。
上述技术方案中的一个技术方案具有如下有益效果:
本发明实施例的方法中提出了一种基于深度学习的无人机救援方法及系统,管理服务器接收移动端发送的失联人员的数据信息,生成初始识别范围和最终识别范围,并基于最终识别范围向无人机群发送目标追踪任务;无人机群根据目标追踪任务进行航拍规划,并进行航拍;管理服务器接收无人机机群发送的航拍数据,对航拍数据中的航拍图像进行预处理,并进行比对识别,将识别出的疑似图像发送至无人机群;无人机群对初始识别范围内的疑似图像中的疑似目标进行二次航拍和定位,并将二次航拍图像和定位数据发送回管理服务器;管理服务器将二次航拍图像数据、定位数据以及非重叠识别范围内的疑似图像数据发送至移动端。本申请利用无人机对失联人员进行搜寻以设定初始位置评估生成失联人员的活动范围,然后通过无人机群的协调配合,完成对活动范围的航拍覆盖,再从航拍图像中通过识别模型和人工结合准确识别出目标,因此,搜寻失联人员准确高效便捷,避免了人工搜寻时存在的成本高耗时久效率低的问题,有利于提高失联人员的生存率。
【附图说明】
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。
图1是本发明实施例所提供的基于深度学习的无人机救援方法的流程示意图;
图2为本发明实施例所提供的基于深度学习的无人机救援系统的功能框图。
【具体实施方式】
为使本发明的目的、技术方案和优点更加清楚,下面将结合具体实施例及相应的附图对本发明的技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参考图1,其为本发明实施例所提供的基于深度学习的无人机救援方法的流程示意图,如图1所示,该方法包括以下步骤:
S1、管理服务器接收移动端发送的失联人员的数据信息,生成初始识别范围和最终识别范围,并基于最终识别范围向无人机群发送目标追踪任务,所述数据信息包括设定初始位置、目标图像和失踪时间;
S2、无人机群根据目标追踪任务进行航拍规划,并进行航拍;
S3、管理服务器接收无人机机群发送的航拍数据,对航拍数据中的航拍图像进行预处理,并进行比对识别,将识别出的疑似图像发送至无人机群;
S4、无人机群对初始识别范围内的疑似图像中的疑似目标进行二次航拍和定位,并将二次航拍图像和定位数据发送回管理服务器;
S5、管理服务器将二次航拍图像数据、定位数据以及非重叠识别范围内的疑似图像数据发送至移动端。
本发明实施例的方法中提出了一种基于深度学习的无人机救援方法,利用无人机对失联人员进行搜寻以设定初始位置评估生成失联人员的活动范围,然后通过无人机群的协调配合,完成对活动范围的航拍覆盖,再从航拍图像中通过识别模型和人工结合准确识别出目标,因此,搜寻失联人员准确高效便捷,避免了人工搜寻时存在的成本高耗时久效率低的问题,有利于提高失联人员的生存率。
具体的,数据信息还包括失联地的历史失联人员数据信息以及目标失联人员的年龄、身体、心理和物资状况信息。
进一步地,本发明S1中生成初始识别范围和最终识别范围,具体包括:
计算失联人员的第一活动距离L1,所述第一活动距离L1通过公式
Figure BDA0003849370680000091
计算,其中,i为时间间隔单位,N为失联人员失联总时间,λ为调节系数,/>
Figure BDA0003849370680000092
为测定的每i个时间单位内不同人员平地行走的平均距离;
计算失联人员的第二活动距离L2,所述第二活动距离L2通过公式
Figure BDA0003849370680000093
计算,其中,/>
Figure BDA0003849370680000094
失联地的历史失联人员发现位置与初始位置的平均距离,i为失联地的历史失联人员的序号,m为失联地的历史失联人员的数量,e为自然常数,α、β、γ、δ为修正参数,f1为失联人员年龄状况,若为老年、孕妇和儿童则f1为1,否则为0,f2为失联人员身体状况,若非健康则f2为1,否则为0,f3为失联人员心理状况,若非健康则f3为1,例如抑郁症等,否则为0,f4为失联人员物资状况,若为紧缺则f4为1,否则为0;
比较第一活动距离L1与第二活动距离L2大小,以较小者作为第一目标活动距离L3,以较大者作为第二目标活动距离L4
以设定初始位置为圆心,以第一目标活动距离L3为半径,在二维平面向外辐射生成初始识别范围,以第二目标活动距离L4为半径,在二维平面向外辐射生成最终识别范围。
本发明通过设定初始位置和失联人员信息评估失联人员的活动范围,限定搜索范围,避免搜索资源浪费和无意义区域搜索,初始识别范围为失联人员最大可能被搜寻到的区域范围,因此,进行二次航拍确认价值更高,而初始识别范围与最终识别范围非重叠区域为失联人员可能出现的区域。
进一步地,本发明S2具体包括:
无人机群基于约束条件离开基地并达到初始识别范围内;
通过如下函数确定无人机群的初步识别范围:
Figure BDA0003849370680000101
其中,vi(t)为第i架无人机在t时刻的速度,kc为速度调节系数,Ωi为第i架无人机识别范围,h为惩戒函数,C为期望识别范围值,g(z0,q)为识别能力函数,/>
Figure BDA0003849370680000102
c0为识别常数,q为无人机识别范围Ωi内的点,γi(q,t)为t时刻q点的识别值;
无人机群进行位置调整,并上传无人机群网络:
定义分散函数
Figure BDA0003849370680000103
其中,/>
Figure BDA0003849370680000104
为无人机i与相邻无人机j在时间k的分散值,/>
Figure BDA0003849370680000105
为是无人机i在时间k的位置,/>
Figure BDA0003849370680000106
Figure BDA0003849370680000107
为是无人机j在时间k的位置,μ=N*π*CR 2/A,N为无人机的总数量,CR为无人机的航拍范围,即识别范围,A为最终识别范围面积,/>
Figure BDA0003849370680000108
为无人机i在时间k的关系区域密度值,μ为预期密度值,
Figure BDA0003849370680000109
S={s1,s2,...,sn},m为关系区域中无人机总数量,
Figure BDA00038493706800001010
为无人机间距,/>
Figure BDA00038493706800001011
其中,
Figure BDA0003849370680000111
其中,/>
Figure BDA0003849370680000112
为无人机i与其相邻无人机之间的分散总值,
定义无人机相邻无人机的集合
Figure BDA0003849370680000113
其中,无人机的分散总值大于集合其他无人机;
关系区域分散值
Figure BDA0003849370680000114
Figure BDA0003849370680000115
为无人机i被选为目标无人机以移动到时间k的次数,/>
Figure BDA0003849370680000116
定义关系区域密度值
Figure BDA0003849370680000117
定义关系区域合格函数
Figure BDA0003849370680000118
其中,α为调节常数,N为无人机的总数量,每个关系区域中合格数值最高的无人机作为目标无人机;
无人机群进行位置更新,直至所有无人机关系区域的无人机关系区域密度值收敛至满足预设的要求,完成最终识别范围的航拍覆盖;
无人机群达到初始识别范围直至航拍覆盖,按预设的频率进行航拍。
具体的,上述约束条件根据目标追踪任务进行设定,所述约束条件包括无人机群的无人机数目、无人机的飞行速度、无人机的位置坐标、无人机的最大偏转角、无人机的最大偏转角变化量、无人机的识别范围以及初始识别范围参数。
进一步地,本发明S3中对航拍数据中的航拍图像进行预处理,具体包括:
对航拍图像进行去噪和外观特征的提取;
将提取的外观特征输入预训练的一级SVM分类器,根据置信度判断是否存在求救标志,若存在,则将对应的航拍图像标记为疑似图像;
将提取的外观特征输入预训练的二级SVM分类器,根据置信度判断是否存在目标图像对应的颜色目标,若存在,则判断存在颜色目标的航拍图像数量是否大于数量阈值,若小于数量阈值,则将相应的航拍图像标记为疑似图像。
其中,求救标志例如可以是“help”、“sos”、“救命”、“110”等,而目标图像对应的颜色目标一般选取与自然颜色色差一般较大的颜色,例如红色等。
需要说明的是,预训练的SVM分类器可以快速进行图像分类,识别出疑似图像,而本发明通过一级SVM分类器识别求救标志以及二级SVM分类器识别颜色目标,可以快速无遗漏的筛选出失踪人员有意无意留下求救信号,并追踪到失踪人员。
进一步地,本发明S3中进行比对识别,具体包括:
通过关键点检测算法模型对航拍图像进行识别,判断航拍图像是否存在人形目标;
若存在人形目标,则计算航拍图像中的人形关键点,获取人形关键点的最大外接矩形,获取所有人形关键点的整体最大外接矩形,并将该整体最大外接矩形截取作为人形图像;
依次选取一人形图像与预处理后的目标图像的对应人形关键点的最大外接矩形进行图像进行比较,计算相似值Sij,其中,相似值Sij通过公式
Figure BDA0003849370680000121
计算,其中,N*为人形图像的人形关键点数量,M*为人形关键点的最大外接矩形的统计灰度直方图中的灰度值的取值区间划分出的段数,Qij为人形图像第i个人形关键点在灰度值的第j段取值区间内像素点的数量,Fij为目标图像第i个人形关键点在灰度值的第j段取值区间内像素点的数量;
判断航拍图像的相似值Sij是否大于设定的相似值阈值,若大于,则将航拍图像标记为疑似图像。
本发明通过关键点检测算法模型识别出搜寻区域的所有人形目标,完整无遗漏,然后比对相似值,搜寻到失踪人员。
本发明实施例进一步给出实现上述方法实施例中各步骤及方法的装置实施例。
请参考图2,其为本发明实施例所提供的基于深度学习的无人机救援系统的功能框图,所述系统包括:
移动端,用于发送的失联人员的数据信息,所述数据信息包括设定初始位置、目标图像和失踪时间;
无人机群,用于根据目标追踪任务进行航拍规划,并进行航拍;还用于对初始识别范围内的疑似图像中的疑似目标进行二次航拍和定位,并将二次航拍图像和定位数据发送回管理服务器;
管理服务器,包括任务生成模块、图像预处理模块、目标识别模块和传输模块,
所述任务生成模块,用于生成初始识别范围和最终识别范围,并基于最终识别范围向无人机群发送目标追踪任务;
所述图像预处理模块,用于接收无人机机群发送的航拍数据,对航拍数据中的航拍图像进行预处理;
所述目标识别模块,用于通过识别模型与目标图像进行比对识别,将识别出的疑似图像发送至无人机群;
所述传输模块,用于接收移动端发送的失联人员的数据信息,接收无人机群发送的二次航拍图像和定位数据,还用于将二次航拍图像数据、定位数据以及非重叠识别范围内的疑似图像数据发送至移动端。
具体地,任务生成模块用于生成初始识别范围和最终识别范围,具体包括:
计算失联人员的第一活动距离L1,所述第一活动距离L1通过公式
Figure BDA0003849370680000131
计算,其中,i为时间间隔单位,N为失联人员失联总时间,λ为调节系数,/>
Figure BDA0003849370680000132
为测定的每i个时间单位内不同人员平地行走的平均距离;
计算失联人员的第二活动距离L2,所述第二活动距离L2通过公式
Figure BDA0003849370680000141
计算,其中,/>
Figure BDA0003849370680000142
失联地的历史失联人员发现位置与初始位置的平均距离,i为失联地的历史失联人员的序号,m为失联地的历史失联人员的数量,e为自然常数,α、β、γ、δ为修正参数,f1为失联人员年龄状况,若为老年、孕妇和儿童则f1为1,否则为0,f2为失联人员身体状况,若非健康则f2为1,否则为0,f3为失联人员心理状况,若非健康则f3为1,否则为0,f4为失联人员物资状况,若为紧缺则f4为1,否则为0;
比较第一活动距离L1与第二活动距离L2大小,以较小者作为第一目标活动距离L3,以较大者作为第二目标活动距离L4
以设定初始位置为圆心,以第一目标活动距离L3为半径,在二维平面向外辐射生成初始识别范围,以第二目标活动距离L4为半径,在二维平面向外辐射生成最终识别范围。
进一步地,任务生成模块还用于无人机群基于约束条件离开基地并达到初始识别范围内;
通过如下函数确定无人机群的初步识别范围:
Figure BDA0003849370680000143
其中,vi(t)为第i架无人机在t时刻的速度,kc为速度调节系数,Ωi为第i架无人机识别范围,h为惩戒函数,C为期望识别范围值,g(z0,q)为识别能力函数,/>
Figure BDA0003849370680000144
c0为识别常数,q为无人机识别范围Ωi内的点,γi(q,t)为t时刻q点的识别值;
无人机群进行位置调整,并上传无人机群网络:
定义分散函数
Figure BDA0003849370680000145
其中,/>
Figure BDA0003849370680000146
为无人机i与相邻无人机j在时间k的分散值,/>
Figure BDA0003849370680000151
为是无人机i在时间k的位置,/>
Figure BDA0003849370680000152
Figure BDA0003849370680000153
为是无人机j在时间k的位置,μ=N*π*CR 2/A,N为无人机的总数量,CR为无人机的航拍范围,即识别范围,A为最终识别范围面积,/>
Figure BDA0003849370680000154
为无人机i在时间k的关系区域密度值,μ为预期密度值,
Figure BDA0003849370680000155
S={s1,s2,...,sn},m为关系区域中无人机总数量,
Figure BDA0003849370680000156
为无人机间距,/>
Figure BDA0003849370680000157
其中,
Figure BDA0003849370680000158
其中,/>
Figure BDA0003849370680000159
为无人机i与其相邻无人机之间的分散总值,
定义无人机相邻无人机的集合
Figure BDA00038493706800001510
其中,无人机的分散总值大于集合其他无人机;
关系区域分散值
Figure BDA00038493706800001511
Figure BDA00038493706800001512
为无人机i被选为目标无人机以移动到时间k的次数,/>
Figure BDA00038493706800001513
定义关系区域密度值
Figure BDA00038493706800001514
定义关系区域合格函数
Figure BDA00038493706800001515
其中,α为调节常数,N为无人机的总数量,每个关系区域中合格数值最高的无人机作为目标无人机;
无人机群进行位置更新,直至所有无人机关系区域的无人机关系区域密度值收敛至满足预设的要求,完成最终识别范围的航拍覆盖;
无人机群达到初始识别范围直至航拍覆盖,按预设的频率进行航拍。
具体地,图像预处理模块用于对航拍数据中的航拍图像进行预处理,具体包括:
对航拍图像进行去噪和外观特征的提取;
将提取的外观特征输入预训练的一级SVM分类器,根据置信度判断是否存在求救标志,若存在,则将对应的航拍图像标记为疑似图像;
将提取的外观特征输入预训练的二级SVM分类器,根据置信度判断是否存在目标图像对应的颜色目标,若存在,则判断存在颜色目标的航拍图像数量是否大于数量阈值,若小于数量阈值,则将相应的航拍图像标记为疑似图像。
具体的,目标识别模块,具体用于:
通过关键点检测算法模型对航拍图像进行识别,判断航拍图像是否存在人形目标;
若存在人形目标,则计算航拍图像中的人形关键点,获取人形关键点的最大外接矩形,获取所有人形关键点的整体最大外接矩形,并将该整体最大外接矩形截取作为人形图像;
依次选取一人形图像与预处理后的目标图像的对应人形关键点的最大外接矩形进行图像进行比较,计算相似值Sij,其中,相似值Sij通过公式
Figure BDA0003849370680000161
计算,其中,N*为人形图像的人形关键点数量,M*为人形关键点的最大外接矩形的统计灰度直方图中的灰度值的取值区间划分出的段数,Qij为人形图像第i个人形关键点在灰度值的第j段取值区间内像素点的数量,Fij为目标图像第i个人形关键点在灰度值的第j段取值区间内像素点的数量;
判断航拍图像的相似值Sij是否大于设定的相似值阈值,若大于,则将航拍图像标记为疑似图像。
由于本实施例中的各单元模块能够执行图1所示的方法,本实施例未详细描述的部分,可参考对图1的相关说明。
在硬件层面,该装置可以包括处理器,可选地还包括内部总线、网络接口、存储器。其中,存储器可能包含内存,例如高速随机存取存储器(Random- Access Memory,RAM),也可能还包括非易失性存储器(non-volatile memory),例如至少1个磁盘存储器等。当然,该装置还可能包括其他业务所需要的硬件。
处理器、网络接口和存储器可以通过内部总线相互连接,该内部总线可以是ISA(Industry Standard Architecture,工业标准体系结构)总线、 PCI(PeripheralComponent Interconnect,外设部件互连标准)总线或 EISA(Extended IndustryStandard Architecture,扩展工业标准结构)总线等。所述总线可以分为地址总线、数据总线、控制总线等。
存储器,用于存放程序。具体地,程序可以包括程序代码,所述程序代码包括计算机操作指令。存储器可以包括内存和非易失性存储器,并向处理器提供指令和数据。
结合本发明实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元或模块分别描述。当然,在实施本发明时可以把各单元或模块的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、 CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和 /或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/ 或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器 (RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本发明的实施例可提供为方法、系统或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本发明,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本发明中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本发明的实施例而已,并不用于限制本发明。对于本领域技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本发明的权利要求范围之内。

Claims (10)

1.一种基于深度学习的无人机救援方法,其特征在于,所述方法包括:
S1、管理服务器接收移动端发送的失联人员的数据信息,生成初始识别范围和最终识别范围,并基于最终识别范围向无人机群发送目标追踪任务,所述数据信息包括设定初始位置、目标图像和失踪时间;
S2、无人机群根据目标追踪任务进行航拍规划,并进行航拍;
S3、管理服务器接收无人机机群发送的航拍数据,对航拍数据中的航拍图像进行预处理,并进行比对识别,将识别出的疑似图像发送至无人机群;
S4、无人机群对初始识别范围内的疑似图像中的疑似目标进行二次航拍和定位,并将二次航拍图像和定位数据发送回管理服务器;
S5、管理服务器将二次航拍图像数据、定位数据以及非重叠识别范围内的疑似图像数据发送至移动端。
2.根据权利要求1所述的基于深度学习的无人机救援方法,其特征在于,所述数据信息还包括失联地的历史失联人员数据信息以及目标失联人员的年龄、身体、心理和物资状况信息。
3.根据权利要求2所述的基于深度学习的无人机救援方法,其特征在于,所述S1中生成初始识别范围和最终识别范围,具体包括:
计算失联人员的第一活动距离L1,所述第一活动距离L1通过公式
Figure FDA0003849370670000011
计算,其中,i为时间间隔单位,N为失联人员失联总时间,λ为调节系数,/>
Figure FDA0003849370670000012
为测定的每i个时间单位内不同人员平地行走的平均距离;
计算失联人员的第二活动距离L2,所述第二活动距离L2通过公式
Figure FDA0003849370670000013
计算,其中,/>
Figure FDA0003849370670000014
失联地的历史失联人员发现位置与初始位置的平均距离,i为失联地的历史失联人员的序号,m为失联地的历史失联人员的数量,e为自然常数,α、β、γ、δ为修正参数,f1为失联人员年龄状况,若为老年、孕妇和儿童则f1为1,否则为0,f2为失联人员身体状况,若非健康则f2为1,否则为0,f3为失联人员心理状况,若非健康则f3为1,否则为0,f4为失联人员物资状况,若为紧缺则f4为1,否则为0;
比较第一活动距离L1与第二活动距离L2大小,以较小者作为第一目标活动距离L3,以较大者作为第二目标活动距离L4
以设定初始位置为圆心,以第一目标活动距离L3为半径,在二维平面向外辐射生成初始识别范围,以第二目标活动距离L4为半径,在二维平面向外辐射生成最终识别范围。
4.根据权利要求3所述的基于深度学习的无人机救援方法,其特征在于,所述S2具体包括:
无人机群基于约束条件离开基地并达到初始识别范围内;
通过如下函数确定无人机群的初步识别范围:
Figure FDA0003849370670000021
其中,vi(t)为第i架无人机在t时刻的速度,kc为速度调节系数,Ωi为第i架无人机识别范围,h为惩戒函数,C为期望识别范围值,g(z0,q)为识别能力函数,/>
Figure FDA0003849370670000022
c0为识别常数,q为无人机识别范围Ωi内的点,γi(q,t)为t时刻q点的识别值;
无人机群进行位置调整,并上传无人机群网络:
定义分散函数
Figure FDA0003849370670000023
其中,/>
Figure FDA0003849370670000024
为无人机i与相邻无人机j在时间k的分散值,/>
Figure FDA0003849370670000025
为是无人机i在时间k的位置,/>
Figure FDA0003849370670000026
Figure FDA0003849370670000027
为是无人机j在时间k的位置,μ=N*π*CR 2/A,N为无人机的总数量,CR为无人机的航拍范围,即识别范围,A为最终识别范围面积,/>
Figure FDA0003849370670000028
为无人机i在时间k的关系区域密度值,μ为预期密度值,
Figure FDA0003849370670000031
S={s1,s2,...,sn},m为关系区域中无人机总数量,/>
Figure FDA0003849370670000032
为无人机间距,/>
Figure FDA0003849370670000033
其中,
Figure FDA0003849370670000034
其中,Fi k为无人机i与其相邻无人机之间的分散总值,
定义无人机相邻无人机的集合
Figure FDA0003849370670000035
其中,无人机的分散总值大于集合其他无人机;
关系区域分散值
Figure FDA0003849370670000036
Figure FDA0003849370670000037
为无人机i被选为目标无人机以移动到时间k的次数,/>
Figure FDA0003849370670000038
定义关系区域密度值
Figure FDA0003849370670000039
定义关系区域合格函数
Figure FDA00038493706700000310
其中,α为调节常数,N为无人机的总数量,每个关系区域中合格数值最高的无人机作为目标无人机;
无人机群进行位置更新,直至所有无人机关系区域的无人机关系区域密度值收敛至满足预设的要求,完成最终识别范围的航拍覆盖;
无人机群达到初始识别范围直至航拍覆盖,按预设的频率进行航拍。
5.根据权利要求4所述的基于深度学习的无人机救援方法,其特征在于,所述约束条件根据目标追踪任务进行设定,所述约束条件包括无人机群的无人机数目、无人机的飞行速度、无人机的位置坐标、无人机的最大偏转角、无人机的最大偏转角变化量、无人机的识别范围以及初始识别范围参数。
6.根据权利要求1所述的基于深度学习的无人机救援方法,其特征在于,所述S3中对航拍数据中的航拍图像进行预处理,具体包括:
对航拍图像进行去噪和外观特征的提取;
将提取的外观特征输入预训练的一级SVM分类器,根据置信度判断是否存在求救标志,若存在,则将对应的航拍图像标记为疑似图像;
将提取的外观特征输入预训练的二级SVM分类器,根据置信度判断是否存在目标图像对应的颜色目标,若存在,则判断存在颜色目标的航拍图像数量是否大于数量阈值,若小于数量阈值,则将相应的航拍图像标记为疑似图像。
7.根据权利要求6所述的基于深度学习的无人机救援方法,其特征在于,所述S3中进行比对识别,具体包括:
通过关键点检测算法模型对航拍图像进行识别,判断航拍图像是否存在人形目标;
若存在人形目标,则计算航拍图像中的人形关键点,获取人形关键点的最大外接矩形,获取所有人形关键点的整体最大外接矩形,并将该整体最大外接矩形截取作为人形图像;
依次选取一人形图像与预处理后的目标图像的对应人形关键点的最大外接矩形进行图像进行比较,计算相似值Sij,其中,相似值Sij通过公式
Figure FDA0003849370670000041
计算,其中,N*为人形图像的人形关键点数量,M*为人形关键点的最大外接矩形的统计灰度直方图中的灰度值的取值区间划分出的段数,Qij为人形图像第i个人形关键点在灰度值的第j段取值区间内像素点的数量,Fij为目标图像第i个人形关键点在灰度值的第j段取值区间内像素点的数量;
判断航拍图像的相似值Sij是否大于设定的相似值阈值,若大于,则将航拍图像标记为疑似图像。
8.一种基于深度学习的无人机救援系统,其特征在于,所述系统包括:
移动端,用于发送的失联人员的数据信息,所述数据信息包括设定初始位置、目标图像和失踪时间;
无人机群,用于根据目标追踪任务进行航拍规划,并进行航拍;还用于对初始识别范围内的疑似图像中的疑似目标进行二次航拍和定位,并将二次航拍图像和定位数据发送回管理服务器;
管理服务器,包括任务生成模块、图像预处理模块、目标识别模块和传输模块,
所述任务生成模块,用于生成初始识别范围和最终识别范围,并基于最终识别范围向无人机群发送目标追踪任务;
所述图像预处理模块,用于接收无人机机群发送的航拍数据,对航拍数据中的航拍图像进行预处理;
所述目标识别模块,用于通过识别模型与目标图像进行比对识别,将识别出的疑似图像发送至无人机群;
所述传输模块,用于接收移动端发送的失联人员的数据信息,接收无人机群发送的二次航拍图像和定位数据,还用于将二次航拍图像数据、定位数据以及非重叠识别范围内的疑似图像数据发送至移动端。
9.根据权利要求8所述的基于深度学习的无人机救援系统,其特征在于,所述任务生成模块用于生成初始识别范围和最终识别范围,具体包括:
计算失联人员的第一活动距离L1,所述第一活动距离L1通过公式
Figure FDA0003849370670000051
计算,其中,i为时间间隔单位,N为失联人员失联总时间,λ为调节系数,/>
Figure FDA0003849370670000052
为测定的每i个时间单位内不同人员平地行走的平均距离;
计算失联人员的第二活动距离L2,所述第二活动距离L2通过公式
Figure FDA0003849370670000053
计算,其中,/>
Figure FDA0003849370670000054
失联地的历史失联人员发现位置与初始位置的平均距离,i为失联地的历史失联人员的序号,m为失联地的历史失联人员的数量,e为自然常数,α、β、γ、δ为修正参数,f1为失联人员年龄状况,若为老年、孕妇和儿童则f1为1,否则为0,f2为失联人员身体状况,若非健康则f2为1,否则为0,f3为失联人员心理状况,若非健康则f3为1,否则为0,f4为失联人员物资状况,若为紧缺则f4为1,否则为0;
比较第一活动距离L1与第二活动距离L2大小,以较小者作为第一目标活动距离L3,以较大者作为第二目标活动距离L4
以设定初始位置为圆心,以第一目标活动距离L3为半径,在二维平面向外辐射生成初始识别范围,以第二目标活动距离L4为半径,在二维平面向外辐射生成最终识别范围。
10.根据权利要求8所述的基于深度学习的无人机救援系统,其特征在于,所述图像预处理模块用于对航拍数据中的航拍图像进行预处理,具体包括:
对航拍图像进行去噪和外观特征的提取;
将提取的外观特征输入预训练的一级SVM分类器,根据置信度判断是否存在求救标志,若存在,则将对应的航拍图像标记为疑似图像;
将提取的外观特征输入预训练的二级SVM分类器,根据置信度判断是否存在目标图像对应的颜色目标,若存在,则判断存在颜色目标的航拍图像数量是否大于数量阈值,若小于数量阈值,则将相应的航拍图像标记为疑似图像。
CN202211127254.0A 2022-09-16 2022-09-16 一种基于深度学习的无人机救援方法及系统 Pending CN116152675A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211127254.0A CN116152675A (zh) 2022-09-16 2022-09-16 一种基于深度学习的无人机救援方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211127254.0A CN116152675A (zh) 2022-09-16 2022-09-16 一种基于深度学习的无人机救援方法及系统

Publications (1)

Publication Number Publication Date
CN116152675A true CN116152675A (zh) 2023-05-23

Family

ID=86355058

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211127254.0A Pending CN116152675A (zh) 2022-09-16 2022-09-16 一种基于深度学习的无人机救援方法及系统

Country Status (1)

Country Link
CN (1) CN116152675A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116704386A (zh) * 2023-08-01 2023-09-05 四川开澜科技有限公司 一种基于ai的精准应急救援方法及装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116704386A (zh) * 2023-08-01 2023-09-05 四川开澜科技有限公司 一种基于ai的精准应急救援方法及装置
CN116704386B (zh) * 2023-08-01 2023-10-20 四川开澜科技有限公司 一种基于ai的精准应急救援方法及装置

Similar Documents

Publication Publication Date Title
CN107657226B (zh) 一种基于深度学习的人数估计方法
CN110889318B (zh) 利用cnn的车道检测方法和装置
CN108805900B (zh) 一种跟踪目标的确定方法及装置
Li et al. Adaptive deep convolutional neural networks for scene-specific object detection
US20040017930A1 (en) System and method for detecting and tracking a plurality of faces in real time by integrating visual ques
CN105469029A (zh) 用于对象再识别的系统和方法
CN110909618B (zh) 一种宠物身份的识别方法及装置
CN110879961B (zh) 利用车道模型的车道检测方法和装置
CN111985348B (zh) 人脸识别方法和系统
CN113361495A (zh) 人脸图像相似度的计算方法、装置、设备及存储介质
US20240087368A1 (en) Companion animal life management system and method therefor
CN110992378B (zh) 基于旋翼飞行机器人的动态更新视觉跟踪航拍方法及系统
CN110544268B (zh) 一种基于结构光及SiamMask网络的多目标跟踪方法
CN111401145A (zh) 一种基于深度学习与ds证据理论的可见光虹膜识别方法
CN110443181A (zh) 人脸识别方法及装置
CN113962326A (zh) 聚类方法、装置、设备及计算机存储介质
CN116152675A (zh) 一种基于深度学习的无人机救援方法及系统
CN114155489A (zh) 一种多设备协同的无人机飞手检测方法、设备及存储介质
CN114581990A (zh) 一种跑步智能测试方法以及装置
WO2015102711A2 (en) A method and system of enforcing privacy policies for mobile sensory devices
US10430459B2 (en) Server and method for providing city street search service
KR102617756B1 (ko) 속성 기반 실종자 추적 장치 및 방법
CN112257628A (zh) 一种户外比赛运动员的身份识别方法、装置及设备
CN111428567A (zh) 一种基于仿射多任务回归的行人跟踪系统及方法
CN114399731A (zh) 一种单粗点监督下的目标定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination