CN116704386B - 一种基于ai的精准应急救援方法及装置 - Google Patents
一种基于ai的精准应急救援方法及装置 Download PDFInfo
- Publication number
- CN116704386B CN116704386B CN202310952052.8A CN202310952052A CN116704386B CN 116704386 B CN116704386 B CN 116704386B CN 202310952052 A CN202310952052 A CN 202310952052A CN 116704386 B CN116704386 B CN 116704386B
- Authority
- CN
- China
- Prior art keywords
- rescue
- search
- trapped
- determining
- unmanned aerial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000001514 detection method Methods 0.000 claims abstract description 49
- 210000000349 chromosome Anatomy 0.000 claims description 33
- 239000003086 colorant Substances 0.000 claims description 17
- 238000012549 training Methods 0.000 claims description 15
- 230000008569 process Effects 0.000 claims description 12
- 230000005540 biological transmission Effects 0.000 claims description 8
- 238000010586 diagram Methods 0.000 claims description 6
- 230000007613 environmental effect Effects 0.000 claims description 4
- 230000035772 mutation Effects 0.000 claims description 4
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 claims description 3
- 238000005728 strengthening Methods 0.000 claims description 3
- 230000003014 reinforcing effect Effects 0.000 claims description 2
- 238000013473 artificial intelligence Methods 0.000 description 54
- 230000006870 function Effects 0.000 description 12
- 238000012545 processing Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 238000006424 Flood reaction Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000004083 survival effect Effects 0.000 description 1
Landscapes
- Traffic Control Systems (AREA)
Abstract
本发明公开了一种基于AI的精准应急救援方法及装置,涉及救援技术领域,通过预先部署的AI检测模型进行快速搜索,从而能快速定位位于搜救区域内的被困目标,并且针对每个被困目标采集其环境信息以及图像信息,从而确定被困目标对应的安全度,并根据安全度对救援信息进行标志以及区分,最终实现灾害场景中被困目标的受灾情况,实现AI精准救援。
Description
技术领域
本发明涉及救援技术领域,具体涉及一种基于AI的精准应急救援方法及装置。
背景技术
洪灾是由于江、河、湖、库水位猛涨,堤坝漫溢或溃决,水流入境而造成的灾害。 洪灾除对农业造成重大灾害外,还会造成工业甚至生命财产的损失,是威胁人类生存的十大自然灾害之一。发生洪灾时,人员往往来不急撤离,从而被困。而针对被困人员,现有技术中常常依靠人工搜索进行救援,但是人工搜索的效率往往较低,导致错过营救处于危险环境中的被困人员的最佳时机。
发明内容
本发明的目的在于提供一种基于AI的精准应急救援方法及装置,解决了现有技术中依靠人工搜索救援存在的效率较低的问题。
本发明通过下述技术方案实现:
一方面,本发明提供一种基于AI的精准应急救援方法,包括:
确定搜救范围以及搜救范围内的搜救路线,并控制搜救无人机按照搜救路线在搜救范围内进行救援搜索;
在救援搜索的过程中,通过服务器或者远程控制端实时接收搜救无人机的视频流,并采用预先部署的AI检测模型检测搜救范围内的被困目标,所述被困目标表示被困人员或被困车辆;
当扫描到被困目标时,以搜救无人机所在的定位信息为基础,为被困目标在电子地图上生成待救援标志;
针对每个被困目标,采集被困目标对应的环境信息以及以被困目标为中心的图像信息,并根据图像信息确定第一安全度以及根据环境信息确定第二安全度;
将第一安全度与第二安全度进行加权求和,确定被困目标的最终安全度,并根据最终安全度,为电子地图上的待救援标志赋予不同的颜色进行区分;
将携带待救援标志的电子地图同步至云端或者救援人员对应的终端设备上,以使救援人员确定救援顺序,实现应急精准救援。
在一种可能的实施方式中,确定搜救范围以及搜救范围内的搜救路线,并控制搜救无人机按照搜救路线在搜救范围内进行救援搜索,包括:
获取救援人员对应的终端设备所传输的搜救范围确定指令,根据搜救范围确定指令在电子地图上确定搜救范围,所述搜救范围为一个或者多个;
针对每个搜救范围,按照无人机的搜索宽度,将搜救范围划分为多个列,得到多个子搜救范围;
以每个子搜救范围的中心线为基础,确定中心线两端点的位置信息,并根据两端点的位置信息确定中心线的中心位置信息;
获取用于管理搜救无人机的飞控地面站中存储的搜救无人机的数量以及位置信息;
从所有中心线的中心位置信息中确定与搜救无人机数量相同的聚类中心,并将每个中心位置信息归类于聚类中心中;
对聚类中心进行更新,直至聚类中心不再变化,得到多个聚类,每个聚类用于表征一个搜救无人机的搜救区域,每个搜救区域包括至少一个子搜救范围;
将多个搜救无人机的位置信息按远近顺序排列,并将多个搜救区域随机排列,组成染色体,得到位置信息按顺序排列的搜救无人机对应的搜救区域;相同序号的搜救无人机的位置信息与搜救区域为对应关系;
随机产生M条染色体,并确定每条染色体的对应的适应度,所述适应度用于表征各搜救无人机到其对应的搜救区域之间的最短距离之和;
根据每条染色体对应的适应度,确定最佳适应度,并判断是否N次迭代中最佳适应度不再变化,若是,则确定最佳适应度对应的染色体为搜救无人机的匹配关系,否则对染色体执行交叉以及变异操作,产生新的染色体,将新的染色体与原有的染色体中适应度值最大的M条染色体保留,并进行下一次迭代,直至N次迭代中最佳适应度不再变化,并确定最佳适应度对应的染色体为搜救无人机的匹配关系;
根据搜救无人机的匹配关系,控制搜救无人机按照搜救路线在搜救范围内进行救援搜索。
在一种可能的实施方式中,所述针对搜救无人机实时视频流智能分析而预先部署的AI检测模型为YOLO智能检测模型。
在一种可能的实施方式中,所述AI检测模型部署于搜救无人机之前,还包括:
初始化AI检测模型的模型参数;
获取训练样本图像以及期望输出图像,所述期望输出图像用于表征包括真值标签的训练样本图像,所述真值标签用于表征人工标定的实际框;
将训练样本图像输入AI检测模型中,获取实际输出图像,并根据期望输出图像以及实际输出图像,获取AI检测模型对应的损失函数值;
判断损失函数值是否小于预先设定的阈值,若是,则将当前的模型参数作为AI检测模型的最终参数,否则对AI检测模型的模型参数进行更新,并进入下一次训练,直至损失函数值小于预先设定的阈值,获取AI检测模型的最终参数。
在一种可能的实施方式中,所述损失函数值通过损失函数获取,且所述损失函数为:
其中,表示损失函数,/>表示定位损失所占权重,S表示特征图的网格数,B表示特征图中每个网格的预测框数量,/>表示定位损失;/>表示第一系数,/>表示第二系数;针对在特征图中第i个网格的第j个预测框,当该预测框与期望输出图像中对应的实际框之间的IoU值大于给定阈值时,IoU值最大的预测框作为正样本,其对应的第一系数/>为1,第二系数/>为0,其他预测框对应的第一系数/>以及第二系数均为0;当所有的预测框与期望输出图像中对应的实际框之间的IoU值小于给定阈值时,则所有预测框对应的第一系数/>以及第二系数/>均为0;/>表示预测框对应的预测置信度,/>表示实际框对应的实际置信度,/>表示第一惩罚系数,/>表示第二惩罚系数,classes表示类别集合,/>表示特征图中第i个网格的第j个预测框输出的属于类别c的概率,/>表示真实属于类别c的概率。
在一种可能的实施方式中,在救援搜索的过程中,通过服务器或者远程控制端实时接收搜救无人机的视频流,并采用预先部署的AI检测模型检测搜救范围内的被困目标,包括:
在救援搜索的过程中,以所述搜救无人机的搜救路线为基础,控制搜救无人机按照预设的速度进行搜救扫描,以采集搜救范围的视频流;
通过服务器或者远程控制端实时接收搜救无人机的视频流,并采用预先部署的AI检测模型对视频流中的视频帧进行实时检测,确定视频帧中的被困目标。
在一种可能的实施方式中,针对每个被困目标,采集被困目标对应的环境信息以及以被困目标为中心的图像信息,并根据图像信息确定第一安全度以及根据环境信息确定第二安全度,包括:
针对每个被困目标,采集被困目标所处地点的前X时段内的累计降雨量以及未来X时段的预计降雨量,得到被困目标对应的环境信息;
判断累计降雨量加上预计降雨量之和是否超过设定安全阈值,若是,则被困目标处于不安全的环境中,否则被困目标处于安全的环境中,并确定第二安全度;累计降雨量加上预计降雨量之和与第二安全度呈线性相关,即累计降雨量加上预计降雨量之和越靠近安全阈值,则第二安全度越低;
采集以被困目标为中心的图像信息,并确定图像信息中洪水区域以及危险物;
判断洪水区域以及危险物与被困目标之间的距离是否小于设定的距离阈值,若是,则被困目标处于不安全的环境中,否则被困目标处于安全的环境中,并确定第一安全度;洪水区域以及危险物的预测框与被困目标之间的距离与第一安全度呈线性相关,即洪水区域以及危险物的预测框与被困目标之间的距离越靠近距离阈值,则第一安全度越低;
其中,当累计降雨量加上预计降雨量之和超过安全阈值或者洪水区域以及危险物的预测框与被困目标之间的距离小于距离阈值时,第一安全度以及第二安全度均直接置0。
在一种可能的实施方式中,判断洪水区域以及危险物与被困目标之间的距离是否小于设定的距离阈值,包括:
确定坐标原点为搜救无人机上摄像机轴线垂直与地面相交的点,确定z轴为摄像机的镜头中心点与坐标原点的连线,确定x轴为平行于摄像机视屏界面底边并与原点相交的直线,确定与x轴以及z轴垂直的直线作为y轴,得到坐标系;所述搜救无人机的摄像头垂直于地面拍摄;
根据建立的坐标系,确定洪水区域以及危险物与被困目标之间的距离,从而判断洪水区域以及危险物与被困目标之间的距离与距离阈值之间的大小关系。
在一种可能的实施方式中,将第一安全度与第二安全度进行加权求和,确定被困目标的最终安全度,并根据最终安全度,为电子地图上的待救援标志赋予不同的颜色进行区分,包括:
根据预设的第一安全度对应的第一权重以及第二安全度对应的第二权重,将第一安全度与第二安全度进行加权求和,确定被困目标的最终安全度;
获取预设的安全度范围以及每个安全度范围对应的颜色,确定被困目标的最终安全度所在安全度范围,从而确定最终安全度对应的颜色;
根据最终安全度对应的颜色,为电子地图上的待救援标志赋予不同的颜色进行区分。
另一方面,本发明提供一种基于AI的精准应急救援装置,包括:搜救计划定制模块、AI搜救模块、救援信息生成模块、安全度确定模块、救援信息强化模块以及救援信息传输模块;
所述搜救计划定制模块用于,确定搜救范围以及搜救范围内的搜救路线,并控制搜救无人机按照搜救路线在搜救范围内进行救援搜索;
所述AI搜救模块用于,在救援搜索的过程中,通过服务器或者远程控制端实时接收搜救无人机的视频流,并采用预先部署的AI检测模型检测搜救范围内的被困目标,所述被困目标表示被困人员或被困车辆;
所述救援信息生成模块用于,当扫描到被困目标时,以搜救无人机所在的定位信息为基础,为被困目标在电子地图上生成待救援标志;
所述安全度确定模块用于,针对每个被困目标,采集被困目标对应的环境信息以及以被困目标为中心的图像信息,并根据图像信息确定第一安全度以及根据环境信息确定第二安全度;
所述救援信息强化模块用于,将第一安全度与第二安全度进行加权求和,确定被困目标的最终安全度,并根据最终安全度,为电子地图上的待救援标志赋予不同的颜色进行区分;
所述救援信息传输模块用于,将携带待救援标志的电子地图同步至云端或者救援人员对应的终端设备上,以使救援人员确定救援顺序,实现应急精准救援。
本发明提供的一种基于AI的精准应急救援方法及装置,通过预先部署的AI检测模型进行快速搜索,从而能快速定位位于搜救区域内的被困目标,并且针对每个被困目标采集其环境信息以及图像信息,从而确定被困目标对应的安全度,并根据安全度对救援信息进行标志以及区分,最终实现灾害场景中被困目标的受灾情况,实现AI精准救援。
附图说明
为了更清楚地说明本发明示例性实施方式的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
在附图中:
图1为本发明实施例提供的一种基于AI的精准应急救援方法的流程示意图。
图2为本发明实施例提供的一种基于AI的精准应急救援装置的结构示意图。
图3为本发明实施例提供的一种基于AI的精准应急救援设备的结构示意图。
图4为本发明实施例提供的搜救路线示意图。
附图中标记及对应的零部件名称:
201-搜救计划定制模块、202-AI搜救模块、203-救援信息生成模块、204-安全度确定模块、205-救援信息强化模块、206-救援信息传输模块、301-存储器、302-处理器、303-总线。
实施方式
为使本发明的目的、技术方案和优点更加清楚明白,下面结合实施例和附图,对本发明作进一步的详细说明,本发明的示意性实施方式及其说明仅用于解释本发明,并不作为对本发明的限定。
实施例1
如图1所示,本实施例提供一种基于AI(Artificial Intelligence,人工智能)的精准应急救援方法,包括:
S101、确定搜救范围以及搜救范围内的搜救路线,并控制搜救无人机按照搜救路线在搜救范围内进行救援搜索。
搜救范围可以为工作人员通过人机交互或者无线传输的搜救范围确定指令,并通过搜救范围确定指令确定的封闭区域。如,工作人员可以在地图上不断标记点,每一个点与上一个点自动连线,最终形成封闭的图形之后,可以确定搜救范围。
在地图上确定了搜救范围之后,就可以确定搜救范围内各个点的坐标,从而可以采用预先设定的算法进行搜救路线的制定,并控制无人机按照制定的路线进行搜索,以保证能够及时发现被困目标。
S102、在救援搜索的过程中,通过服务器或者远程控制端实时接收搜救无人机的视频流,并采用预先部署的AI检测模型检测搜救范围内的被困目标,所述被困目标表示被困人员或被困车辆。
预先部署的AI检测模型可以为目标检测深度学习模块,通过预先对AI检测模型进行训练以及部署,可以使AI检测模型具备识别被困目标的能力。值得说明的是,当灾害发生时,涉及的区域会比较大,因此可以采用多架搜救无人机进行搜索,以提高搜索效率,争取受困目标的最佳营救时间。
可选的,当确定了被困车辆之后,还可以对被困车辆的图像进行采集,从而识别被困车辆中是否存在被困人员。例如,可以从被困车辆挡风斜45°方向对被困车辆的图像进行采集以及识别,从而确定被困车辆中是否存在被困人员。
S103、当扫描到被困目标时,以搜救无人机所在的定位信息为基础,为被困目标在电子地图上生成待救援标志。
可以通过以下方式为被困目标在电子地图上生成待救援标志:根据搜救无人机扫描到被困目标时的定位信息,在电子地图上确定与定位信息相同的地位标签,从而生成待救援标志。
S104、针对每个被困目标,采集被困目标对应的环境信息以及以被困目标为中心的图像信息,并根据图像信息确定第一安全度以及根据环境信息确定第二安全度。
当搜索到被困目标时,虽然被困目标位于搜救范围内,但是其可能处于危险状态中,也可能不处于危险状态中,因此可以确定被困目标的安全度,从而筛选出受灾目标。
S105、将第一安全度与第二安全度进行加权求和,确定被困目标的最终安全度,并根据最终安全度,为电子地图上的待救援标志赋予不同的颜色进行区分。
例如,处于安全中的被困目标对应的待救援标志可以赋予绿色或者白色,处于不安全中的被困目标对应的待救援标志可以赋予红色,被困目标的最终安全度降低一定量之后,待救援标志可以从绿色或者白色逐级向红色变化。
S106、将携带待救援标志的电子地图同步至云端或者救援人员对应的终端设备上,以使救援人员确定救援顺序,实现应急精准救援。
还可以将搜救视频存储至云端,以供救援人员观看,以确定救援环境以及确定被困目标是否为受灾人员或者受灾车辆,从而确定救援顺序。
可选的,还可以通过救援无人机对损坏道路、坍塌桥梁以及灾害区域进行识别,以便救援人员规划精准救援路线,或者方便电子地图自动生成救援路线。
本发明提供的一种基于AI的精准应急救援方法,通过预先部署的AI检测模型进行快速搜索,从而能快速定位位于搜救区域内的被困目标,并且针对每个被困目标采集其环境信息以及图像信息,从而确定被困目标对应的安全度,并根据安全度对救援信息进行标志以及区分,最终实现灾害场景中被困目标的受灾情况,实现AI精准救援。
在一种可能的实施方式中,确定搜救范围以及搜救范围内的搜救路线,并控制搜救无人机按照搜救路线在搜救范围内进行救援搜索,包括:
S101.1、获取救援人员对应的终端设备所传输的搜救范围确定指令,根据搜救范围确定指令在电子地图上确定搜救范围,所述搜救范围为一个或者多个。
当发生灾害时,主要救援地点是周围居民的活动区域,优先级最高,而像山区或者荒地这种基本无人流量的地方,优先级最低。因此,一般需要设置多个救援范围,以对不同的居民活动区域进行搜救。
S101.2、针对每个搜救范围,按照无人机的搜索宽度,将搜救范围划分为多个列,得到多个子搜救范围。
如图4所示,当无人机飞行高度固定时,其搜索宽度(即摄像头垂直向下时,扫描的宽度)是固定的,按照安全覆盖搜索的原则,按照搜索宽度将搜救范围划分为多个列,从而得到多个子搜救范围。当无人机沿着每列对应的子搜救范围的中心线飞行时,就可以完成子搜救范围的扫描。然后搜救无人机按照S形路线飞行,就可以完成多个相邻的子搜救范围的扫描。
可选的,为了保证搜救的效果,无人机的飞行高度应当至少保持划分子搜救范围时的高度,以保证无人机的搜索宽度不会减小。
S101.3、以每个子搜救范围的中心线为基础,确定中心线两端点的位置信息,并根据两端点的位置信息确定中心线的中心位置信息。
每列的子搜救范围的宽度都是无人机的搜索宽度,因此沿中心线飞行,即可完成一个子搜救范围的扫描。中心线的两个端点就是无人机在子搜救范围内的飞行起点和终点,而起点和终端均位于搜救范围的边上,到达终点时,沿搜救范围的边飞行至下一个子搜救范围的中心线的一个端点上,对下一个子搜救范围进行扫描搜救。
S101.4、获取用于管理搜救无人机的飞控地面站中存储的搜救无人机的数量以及位置信息。
考虑到搜集无人机的位置可能不会在一个地方,而是存储在不同地点的救援部门中,因此综合不同搜救无人机的位置信息进行路线规划。
S101.5、从所有中心线的中心位置信息中确定与搜救无人机数量相同的聚类中心,并将每个中心位置信息归类于聚类中心中。
将每个中心线的中心位置信息作为对应的子搜救范围的代表点,对不同的代表点进行聚类,从而确定多个类别,每个类别对应的子走就区域由一个搜救无人机负责搜索。
S101.6、对聚类中心进行更新,直至聚类中心不再变化,得到多个聚类,每个聚类用于表征一个搜救无人机的搜救区域,每个搜救区域包括至少一个子搜救范围。
值得说明的是,除了采用智能算法分配搜救无人机的子搜救范围之外,还可以由搜救人员手动配置。
可选的,对聚类中心进行更新可以包括:
其中,表示第k个类别更新后的聚类中心,/>表示第k个类别中样本数量,表示第k个类别中第i个样本。
S101.7、将多个搜救无人机的位置信息按远近顺序排列,并将多个搜救区域随机排列,组成染色体,得到位置信息按顺序排列的搜救无人机对应的搜救区域。相同序号的搜救无人机的位置信息与搜救区域为对应关系。
例如,存在5架无人机,分别编号为A1、A2、A3、A4以及A5,搜救区域分别设置五个固定编号B1、B2、B3、B4以及B5,且A1、A2、A3、A4以及A5分别与B1、B2、B3、B4以及B5一一对应,针对五个搜救区域随机匹配固定编号B1、B2、B3、B4以及B5,即完成搜救区域与无人机之间的匹配。改变搜救区域与固定编号B1、B2、B3、B4以及B5之间的匹配关系,就可以改变搜救区域与无人机之间的匹配关系。
S101.8、随机产生M条染色体,并确定每条染色体的对应的适应度,所述适应度用于表征各搜救无人机到其对应的搜救区域之间的最短距离之和。
例如,编号为A1的无人机到编号为B1的搜救区域的最短距离为L1,编号为A2的无人机到编号为B2的搜救区域的最短距离为L2,编号为A3的无人机到编号为B3的搜救区域的最短距离为L3,编号为A4的无人机到编号为B4的搜救区域的最短距离为L4,编号为A5的无人机到编号为B5的搜救区域的最短距离为L5,那么适应度就应当为L1+L2+L3+L4+L5。
S101.9、根据每条染色体对应的适应度,确定最佳适应度,并判断是否N次迭代中最佳适应度不再变化,若是,则确定最佳适应度对应的染色体为搜救无人机的匹配关系,否则对染色体执行交叉以及变异操作,产生新的染色体,将新的染色体与原有的染色体中适应度值最大的M条染色体保留,并进行下一次迭代,直至N次迭代中最佳适应度不再变化,并确定最佳适应度对应的染色体为搜救无人机的匹配关系。值得说明的是,交叉以及变异操作为遗传算法中的基础操作,本实施例不再赘述。
S101.10、根据搜救无人机的匹配关系,控制搜救无人机按照搜救路线在搜救范围内进行救援搜索。
在一种可能的实施方式中,所述针对搜救无人机实时视频流智能分析而预先部署的AI检测模型为YOLOv4或者YOLOv5智能检测模型。
在一种可能的实施方式中,所述AI检测模型部署之前,还包括:
初始化AI检测模型的模型参数。
根据灾害场景,制作受困人员机器深度学习数据集,下载灾害的航拍视频(实际应用部署时直接对接实时航拍视频),将航拍视频剪辑为一张张图片,对剪辑的图片进行筛选,选择合适的角度和高度以及图像清晰的受困人员图片,对图片中的人员/车辆进行人工标记。将图片标记完成之后,人员数据集就制作完成。
以制作完成的数据集为基础,进行AI检测模型的训练。模型训练完成后,就可以对视频中的目标进行目标检测。可以将检测视频保存为MP4格式的视频文件,可以反复查看。检测结果保存到数据库。
获取训练样本图像以及期望输出图像,所述期望输出图像用于表征包括真值标签的训练样本图像,所述真值标签用于表征人工标定的实际框。
将训练样本图像输入AI检测模型中,获取实际输出图像,并根据期望输出图像以及实际输出图像,获取AI检测模型对应的损失函数值。
判断损失函数值是否小于预先设定的阈值,若是,则将当前的模型参数作为AI检测模型的最终参数,否则对AI检测模型的模型参数进行更新,并进入下一次训练,直至损失函数值小于预先设定的阈值,获取AI检测模型的最终参数。
在一种可能的实施方式中,所述损失函数值通过损失函数获取,且所述损失函数为:
其中,表示损失函数,/>表示定位损失所占权重,S表示特征图的网格数,B表示特征图中每个网格的预测框数量,/>表示定位损失;/>表示第一系数,/>表示第二系数;针对在特征图中第i个网格的第j个预测框,当该预测框与期望输出图像中对应的实际框之间的IoU值大于给定阈值时,IoU值最大的预测框作为正样本,其对应的第一系数/>为1,第二系数/>为0,其他预测框对应的第一系数/>以及第二系数均为0;当所有的预测框与期望输出图像中对应的实际框之间的IoU值小于给定阈值时,则所有预测框对应的第一系数/>以及第二系数/>均为0;/>表示预测框对应的预测置信度,/>表示实际框对应的实际置信度,即/>表示预测边界框与基本事实的交叉部分,/>表示第一惩罚系数,/>表示第二惩罚系数,classes表示类别集合,表示特征图中第i个网格的第j个预测框输出的属于类别c的概率,/>表示真实属于类别c的概率。
本发明不是简单的进行AI识别无人机视频中的人,而是精准识别灾害中的“受困人员”,比如处于洪水中的人员、河流中间的人员、泥石流围住的人员、火灾中的人员、倒塌建筑物中的人员、受灾房屋顶上的人员、悬崖上的人员等等灾害场景下的受因人员。
通过对大面积受灾区域中受灾人员的智能筛选,进行轻、重、缓以及急的分析,在众多受灾对象中找出最急迫的救援目标,提供给指挥员,以便形成最有效、最高效和最佳的救援处置方案,最大程度挽救生命财产的安全,减轻灾害损失,进一步减少灾害风险。
在一种可能的实施方式中,在救援搜索的过程中,通过服务器或者远程控制端实时接收搜救无人机的视频流,并采用预先部署的AI检测模型检测搜救范围内的被困目标,包括:
在救援搜索的过程中,以所述搜救无人机的搜救路线为基础,控制搜救无人机按照预设的速度进行搜救扫描,以采集搜救范围的视频流。
通过服务器或者远程控制端实时接收搜救无人机的视频流,并采用预先部署的AI检测模型对视频流中的视频帧进行实时检测,确定视频帧中的被困目标。
在一种可能的实施方式中,针对每个被困目标,采集被困目标对应的环境信息以及以被困目标为中心的图像信息,并根据图像信息确定第一安全度以及根据环境信息确定第二安全度,包括:
针对每个被困目标,采集被困目标所处地点的前X时段内的累计降雨量以及未来X时段的预计降雨量,得到被困目标对应的环境信息。例如,可以采集天气预报或者气象局的累积降雨数据以及预计降雨量,从而被困人员的安全是否受到威胁。
判断累计降雨量加上预计降雨量之和是否超过设定安全阈值(即当前时刻前后X时段内的降雨量之和是否超过设定安全阈值),若是,则被困目标处于不安全的环境中,否则被困目标处于安全的环境中,并确定第二安全度。累计降雨量加上预计降雨量之和与第二安全度呈线性相关,即累计降雨量加上预计降雨量之和越靠近安全阈值,则第二安全度越低。
可选的,可以根据需求设置一大一小的第一安全阈值以及第二安全阈值,第一安全阈值小于第二安全阈值。当小于第一安全阈值时,则认为安全,也就是第二安全度为100%,当大于第二安全阈值时,则认为不安全,也就是第二安全度为0%。当位于第一安全阈值与第二安全阈值之间时,就可以通过线性相关确定第二安全度。
采集以被困目标为中心的图像信息,并确定图像信息中洪水区域以及危险物。
判断洪水区域以及危险物与被困目标之间的距离是否小于设定的距离阈值,若是,则被困目标处于不安全的环境中,否则被困目标处于安全的环境中,并确定第一安全度。洪水区域以及危险物的预测框与被困目标之间的距离与第一安全度呈线性相关,即洪水区域以及危险物的预测框与被困目标之间的距离越靠近距离阈值,则第一安全度越低。
当洪水区域以及危险物不位于图像信息中时,就可以认定被困目标安全,也就是图像信息的边界框所表示位置与被困目标之间的距离为安全距离,那么洪水区域以及危险物与被困目标之间的距离位于(距离阈值,安全距离)之内,第一安全度随着距离的减小而线性降低,从而可以确定第一安全度。
其中,当累计降雨量加上预计降雨量之和超过安全阈值或者洪水区域以及危险物的预测框与被困目标之间的距离小于距离阈值时,第一安全度以及第二安全度均直接置0。
在一种可能的实施方式中,判断洪水区域以及危险物与被困目标之间的距离是否小于设定的距离阈值,包括:
确定坐标原点为搜救无人机上摄像机轴线垂直与地面相交的点,确定z轴为摄像机的镜头中心点与坐标原点的连线,确定x轴为平行于摄像机视屏界面底边并与原点相交的直线,确定与x轴以及z轴垂直的直线作为y轴,得到坐标系。所述搜救无人机的摄像头垂直于地面拍摄。
根据建立的坐标系,确定洪水区域以及危险物与被困目标之间的距离,从而判断洪水区域以及危险物与被困目标之间的距离与距离阈值之间的大小关系。
可选的,可能存在摄像机斜拍的情况,因此,可以直接确定洪水区域以及危险物的预测框与被困目标的预测框之间的像素距离,采用像素距离进行判断。也可以通过直接确定以被困目标为中心的图像信息是否存在洪水区域以及危险物,若是,则安全度置0,否则安全度为100%。值得说明的是,对安全度的获取可以通过各种危险因素的判断获取,不限于本实施例的举例说明。
在一种可能的实施方式中,将第一安全度与第二安全度进行加权求和,确定被困目标的最终安全度,并根据最终安全度,为电子地图上的待救援标志赋予不同的颜色进行区分,包括:
根据预设的第一安全度对应的第一权重以及第二安全度对应的第二权重,将第一安全度与第二安全度进行加权求和,确定被困目标的最终安全度。
获取预设的安全度范围以及每个安全度范围对应的颜色,确定被困目标的最终安全度所在安全度范围,从而确定最终安全度对应的颜色。
根据最终安全度对应的颜色,为电子地图上的待救援标志赋予不同的颜色进行区分。
实施例2
如图2所示,本发明提供一种基于AI的精准应急救援装置,包括:搜救计划定制模块201、AI搜救模块202、救援信息生成模块203、安全度确定模块204、救援信息强化模块205以及救援信息传输模块206。
所述搜救计划定制模块201用于,确定搜救范围以及搜救范围内的搜救路线,并控制搜救无人机按照搜救路线在搜救范围内进行救援搜索。
所述AI搜救模块202用于,在救援搜索的过程中,通过服务器或者远程控制端实时接收搜救无人机的视频流,并采用预先部署的AI检测模型检测搜救范围内的被困目标,所述被困目标表示被困人员或被困车辆。
所述救援信息生成模块203用于,当扫描到被困目标时,以搜救无人机所在的定位信息为基础,为被困目标在电子地图上生成待救援标志。
所述安全度确定模块204用于,针对每个被困目标,采集被困目标对应的环境信息以及以被困目标为中心的图像信息,并根据图像信息确定第一安全度以及根据环境信息确定第二安全度。
所述救援信息强化模块205用于,将第一安全度与第二安全度进行加权求和,确定被困目标的最终安全度,并根据最终安全度,为电子地图上的待救援标志赋予不同的颜色进行区分。
所述救援信息传输模块206用于,将携带待救援标志的电子地图同步至云端或者救援人员对应的终端设备上,以使救援人员确定救援顺序,实现应急精准救援。
本实施例提供的一种基于AI的精准应急救援装置可以执行实施例1所述的方法技术方案,其原理及有益效果类似,此处不再赘述。
实施例3
如图3所示,本实施例提供一种基于AI的精准应急救援设备,包括存储器301和处理器302,存储器301与处理器302之间通过总线303相互连接。
存储器301存储计算机执行指令。
处理器302执行存储器存储的计算机执行指令,使得处理器执行如实施例1所述的一种基于AI的精准应急救援方法。
具体举例的,存储器可以但不限于包括随机存取存储器(random access memory,RAM)、只读存储器(Read Only Memory ,ROM)、闪存(Flash Memory)、先进先出存储器(First Input First Output,FIFO)和/或先进后出存储器(First In Last Out,FILO)等等;具体地,处理器可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现,同时,处理器也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。
实施例4
本实施例提供了一种计算机可读存储介质,计算机可读存储介质中存储有计算机执行指令,当计算机执行指令被处理器执行时用于实现如实施例1所述的一种基于AI的精准应急救援方法。
实施例5
本实施例提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现如实施例1所述的一种基于AI的精准应急救援方法。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种基于AI的精准应急救援方法,其特征在于,包括:
确定搜救范围以及搜救范围内的搜救路线,并控制搜救无人机按照搜救路线在搜救范围内进行救援搜索;
在救援搜索的过程中,通过服务器或者远程控制端实时接收搜救无人机的视频流,并采用预先部署的AI检测模型检测搜救范围内的被困目标,所述被困目标表示被困人员或被困车辆;
当扫描到被困目标时,以搜救无人机所在的定位信息为基础,为被困目标在电子地图上生成待救援标志;
针对每个被困目标,采集被困目标对应的环境信息以及以被困目标为中心的图像信息,并根据图像信息确定第一安全度以及根据环境信息确定第二安全度;
将第一安全度与第二安全度进行加权求和,确定被困目标的最终安全度,并根据最终安全度,为电子地图上的待救援标志赋予不同的颜色进行区分;
将携带待救援标志的电子地图同步至云端或者救援人员对应的终端设备上,以使救援人员确定救援顺序,实现应急精准救援;
针对搜救无人机实时视频流智能分析而预先部署的AI检测模型为YOLO智能检测模型。
2.根据权利要求1所述的基于AI的精准应急救援方法,其特征在于,确定搜救范围以及搜救范围内的搜救路线,并控制搜救无人机按照搜救路线在搜救范围内进行救援搜索,包括:
获取救援人员对应的终端设备所传输的搜救范围确定指令,根据搜救范围确定指令在电子地图上确定搜救范围,所述搜救范围为一个或者多个;
针对每个搜救范围,按照无人机的搜索宽度,将搜救范围划分为多个列,得到多个子搜救范围;
以每个子搜救范围的中心线为基础,确定中心线两端点的位置信息,并根据两端点的位置信息确定中心线的中心位置信息;
获取用于管理搜救无人机的飞控地面站中存储的搜救无人机的数量以及位置信息;
从所有中心线的中心位置信息中确定与搜救无人机数量相同的聚类中心,并将每个中心位置信息归类于聚类中心中;
对聚类中心进行更新,直至聚类中心不再变化,得到多个聚类,每个聚类用于表征一个搜救无人机的搜救区域,每个搜救区域包括至少一个子搜救范围;
将多个搜救无人机的位置信息按远近顺序排列,并将多个搜救区域随机排列,组成染色体,得到位置信息按顺序排列的搜救无人机对应的搜救区域;相同序号的搜救无人机的位置信息与搜救区域为对应关系;
随机产生M条染色体,并确定每条染色体的对应的适应度,所述适应度用于表征各搜救无人机到其对应的搜救区域之间的最短距离之和;
根据每条染色体对应的适应度,确定最佳适应度,并判断是否N次迭代中最佳适应度不再变化,若是,则确定最佳适应度对应的染色体为搜救无人机的匹配关系,否则对染色体执行交叉以及变异操作,产生新的染色体,将新的染色体与原有的染色体中适应度值最大的M条染色体保留,并进行下一次迭代,直至N次迭代中最佳适应度不再变化,并确定最佳适应度对应的染色体为搜救无人机的匹配关系;
根据搜救无人机的匹配关系,控制搜救无人机按照搜救路线在搜救范围内进行救援搜索。
3.根据权利要求1所述的基于AI的精准应急救援方法,其特征在于,所述AI检测模型部署于搜救无人机之前,还包括:
初始化AI检测模型的模型参数;
获取训练样本图像以及期望输出图像,所述期望输出图像用于表征包括真值标签的训练样本图像,所述真值标签用于表征人工标定的实际框;
将训练样本图像输入AI检测模型中,获取实际输出图像,并根据期望输出图像以及实际输出图像,获取AI检测模型对应的损失函数值;
判断损失函数值是否小于预先设定的阈值,若是,则将当前的模型参数作为AI检测模型的最终参数,否则对AI检测模型的模型参数进行更新,并进入下一次训练,直至损失函数值小于预先设定的阈值,获取AI检测模型的最终参数。
4.根据权利要求3所述的基于AI的精准应急救援方法,其特征在于,所述损失函数值通过损失函数获取,且所述损失函数为:
其中,表示损失函数,/>表示定位损失所占权重,S表示特征图的网格数,B表示特征图中每个网格的预测框数量,/>表示定位损失;/>表示第一系数,/>表示第二系数;针对在特征图中第i个网格的第j个预测框,当该预测框与期望输出图像中对应的实际框之间的IoU值大于给定阈值时,IoU值最大的预测框作为正样本,其对应的第一系数/>为1,第二系数/>为0,其他预测框对应的第一系数/>以及第二系数均为0;当所有的预测框与期望输出图像中对应的实际框之间的IoU值小于给定阈值时,则所有预测框对应的第一系数/>以及第二系数/>均为0;/>表示预测框对应的预测置信度,/>表示实际框对应的实际置信度,/>表示第一惩罚系数,/>表示第二惩罚系数,classes表示类别集合,/>表示特征图中第i个网格的第j个预测框输出的属于类别c的概率,/>表示真实属于类别c的概率。
5.根据权利要求1所述的基于AI的精准应急救援方法,其特征在于,在救援搜索的过程中,通过服务器或者远程控制端实时接收搜救无人机的视频流,并采用预先部署的AI检测模型检测搜救范围内的被困目标,包括:
在救援搜索的过程中,以所述搜救无人机的搜救路线为基础,控制搜救无人机按照预设的速度进行搜救扫描,以采集搜救范围的视频流;
通过服务器或者远程控制端实时接收搜救无人机的视频流,并采用预先部署的AI检测模型对视频流中的视频帧进行实时检测,确定视频帧中的被困目标。
6.根据权利要求1所述的基于AI的精准应急救援方法,其特征在于,针对每个被困目标,采集被困目标对应的环境信息以及以被困目标为中心的图像信息,并根据图像信息确定第一安全度以及根据环境信息确定第二安全度,包括:
针对每个被困目标,采集被困目标所处地点的前X时段内的累计降雨量以及未来X时段的预计降雨量,得到被困目标对应的环境信息;
判断累计降雨量加上预计降雨量之和是否超过设定安全阈值,若是,则被困目标处于不安全的环境中,否则被困目标处于安全的环境中,并确定第二安全度;累计降雨量加上预计降雨量之和与第二安全度呈线性相关,即累计降雨量加上预计降雨量之和越靠近安全阈值,则第二安全度越低;
采集以被困目标为中心的图像信息,并确定图像信息中洪水区域以及危险物;
判断洪水区域以及危险物与被困目标之间的距离是否小于设定的距离阈值,若是,则被困目标处于不安全的环境中,否则被困目标处于安全的环境中,并确定第一安全度;洪水区域以及危险物的预测框与被困目标之间的距离与第一安全度呈线性相关,即洪水区域以及危险物的预测框与被困目标之间的距离越靠近距离阈值,则第一安全度越低;
其中,当累计降雨量加上预计降雨量之和超过安全阈值或者洪水区域以及危险物的预测框与被困目标之间的距离大于时,第一安全度以及第二安全度均直接置0。
7.根据权利要求6所述的基于AI的精准应急救援方法,其特征在于,判断洪水区域以及危险物与被困目标之间的距离是否小于设定的距离阈值,包括:
确定坐标原点为搜救无人机上摄像机轴线垂直与地面相交的点,确定z轴为摄像机的镜头中心点与坐标原点的连线,确定x轴为平行于摄像机视屏界面底边并与原点相交的直线,确定与x轴以及z轴垂直的直线作为y轴,得到坐标系;所述搜救无人机的摄像头垂直于地面拍摄;
根据建立的坐标系,确定洪水区域以及危险物与被困目标之间的距离,从而判断洪水区域以及危险物与被困目标之间的距离与距离阈值之间的大小关系。
8.根据权利要求6所述的基于AI的精准应急救援方法,其特征在于,将第一安全度与第二安全度进行加权求和,确定被困目标的最终安全度,并根据最终安全度,为电子地图上的待救援标志赋予不同的颜色进行区分,包括:
根据预设的第一安全度对应的第一权重以及第二安全度对应的第二权重,将第一安全度与第二安全度进行加权求和,确定被困目标的最终安全度;
获取预设的安全度范围以及每个安全度范围对应的颜色,确定被困目标的最终安全度所在安全度范围,从而确定最终安全度对应的颜色;
根据最终安全度对应的颜色,为电子地图上的待救援标志赋予不同的颜色进行区分。
9.一种基于AI的精准应急救援装置,该精准应急救援装置用于执行权利要求1所述的精准应急救援方法,其特征在于,包括:搜救计划定制模块、AI搜救模块、救援信息生成模块、安全度确定模块、救援信息强化模块以及救援信息传输模块;
所述搜救计划定制模块用于,确定搜救范围以及搜救范围内的搜救路线,并控制搜救无人机按照搜救路线在搜救范围内进行救援搜索;
所述AI搜救模块用于,在救援搜索的过程中,通过服务器或者远程控制端实时接收搜救无人机的视频流,并采用预先部署的AI检测模型检测搜救范围内的被困目标,所述被困目标表示被困人员或被困车辆;
所述救援信息生成模块用于,当扫描到被困目标时,以搜救无人机所在的定位信息为基础,为被困目标在电子地图上生成待救援标志;
所述安全度确定模块用于,针对每个被困目标,采集被困目标对应的环境信息以及以被困目标为中心的图像信息,并根据图像信息确定第一安全度以及根据环境信息确定第二安全度;
所述救援信息强化模块用于,将第一安全度与第二安全度进行加权求和,确定被困目标的最终安全度,并根据最终安全度,为电子地图上的待救援标志赋予不同的颜色进行区分;
所述救援信息传输模块用于,将携带待救援标志的电子地图同步至云端或者救援人员对应的终端设备上,以使救援人员确定救援顺序,实现应急精准救援。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310952052.8A CN116704386B (zh) | 2023-08-01 | 2023-08-01 | 一种基于ai的精准应急救援方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310952052.8A CN116704386B (zh) | 2023-08-01 | 2023-08-01 | 一种基于ai的精准应急救援方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116704386A CN116704386A (zh) | 2023-09-05 |
CN116704386B true CN116704386B (zh) | 2023-10-20 |
Family
ID=87831375
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310952052.8A Active CN116704386B (zh) | 2023-08-01 | 2023-08-01 | 一种基于ai的精准应急救援方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116704386B (zh) |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110288118A (zh) * | 2019-05-14 | 2019-09-27 | 湖北工业大学 | 一种基于无人机的空中救援响应方法 |
CN110348304A (zh) * | 2019-06-06 | 2019-10-18 | 武汉理工大学 | 一种可搭载于无人机的海事遇险人员搜索系统以及目标识别方法 |
CN112132719A (zh) * | 2020-08-11 | 2020-12-25 | 湖南大学 | 用于应急救援的人员搜救方法、装置、系统及存储介质 |
CN113033513A (zh) * | 2021-05-24 | 2021-06-25 | 湖南华诺星空电子技术有限公司 | 一种空地协同搜索救援系统及方法 |
KR20210100937A (ko) * | 2020-02-07 | 2021-08-18 | 주식회사 딥아이 | 이종 센서 융합을 이용한 행동 분석 장치 |
CN113283314A (zh) * | 2021-05-11 | 2021-08-20 | 桂林电子科技大学 | 一种基于YOLOv3和手势识别的无人机的夜间搜救方法 |
CN113933871A (zh) * | 2021-10-15 | 2022-01-14 | 贵州师范学院 | 基于无人机和北斗定位的洪水灾情检测系统 |
CN114721421A (zh) * | 2022-03-04 | 2022-07-08 | 杭州翔毅科技有限公司 | 基于ai的无人机搜救方法、装置、设备及存储介质 |
CN114943809A (zh) * | 2022-05-31 | 2022-08-26 | 中国联合网络通信集团有限公司 | 一种地图模型的生成方法、装置及存储介质 |
CN114943757A (zh) * | 2022-06-02 | 2022-08-26 | 之江实验室 | 基于单目景深预测和深度增强学习的无人机森林探索系统 |
CN115272899A (zh) * | 2022-09-27 | 2022-11-01 | 广东国图勘测地理信息有限公司 | 一种风险预警方法、装置、飞行器及存储介质 |
CN116152675A (zh) * | 2022-09-16 | 2023-05-23 | 鹤壁职业技术学院 | 一种基于深度学习的无人机救援方法及系统 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106970648B (zh) * | 2017-04-19 | 2019-05-14 | 北京航空航天大学 | 城市低空环境下无人机多目标路径规划联合搜索方法 |
CN114294047B (zh) * | 2021-12-07 | 2023-11-14 | 中国人民解放军陆军军医大学 | 灾害等特殊环境下智能搜救系统 |
KR20230093096A (ko) * | 2021-12-17 | 2023-06-27 | 대한민국 (소방청 국립소방연구원장) | 드론 영상 기반의 구조대상자 탐지 시스템 및 방법 |
-
2023
- 2023-08-01 CN CN202310952052.8A patent/CN116704386B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110288118A (zh) * | 2019-05-14 | 2019-09-27 | 湖北工业大学 | 一种基于无人机的空中救援响应方法 |
CN110348304A (zh) * | 2019-06-06 | 2019-10-18 | 武汉理工大学 | 一种可搭载于无人机的海事遇险人员搜索系统以及目标识别方法 |
KR20210100937A (ko) * | 2020-02-07 | 2021-08-18 | 주식회사 딥아이 | 이종 센서 융합을 이용한 행동 분석 장치 |
CN112132719A (zh) * | 2020-08-11 | 2020-12-25 | 湖南大学 | 用于应急救援的人员搜救方法、装置、系统及存储介质 |
CN113283314A (zh) * | 2021-05-11 | 2021-08-20 | 桂林电子科技大学 | 一种基于YOLOv3和手势识别的无人机的夜间搜救方法 |
CN113033513A (zh) * | 2021-05-24 | 2021-06-25 | 湖南华诺星空电子技术有限公司 | 一种空地协同搜索救援系统及方法 |
CN113933871A (zh) * | 2021-10-15 | 2022-01-14 | 贵州师范学院 | 基于无人机和北斗定位的洪水灾情检测系统 |
CN114721421A (zh) * | 2022-03-04 | 2022-07-08 | 杭州翔毅科技有限公司 | 基于ai的无人机搜救方法、装置、设备及存储介质 |
CN114943809A (zh) * | 2022-05-31 | 2022-08-26 | 中国联合网络通信集团有限公司 | 一种地图模型的生成方法、装置及存储介质 |
CN114943757A (zh) * | 2022-06-02 | 2022-08-26 | 之江实验室 | 基于单目景深预测和深度增强学习的无人机森林探索系统 |
CN116152675A (zh) * | 2022-09-16 | 2023-05-23 | 鹤壁职业技术学院 | 一种基于深度学习的无人机救援方法及系统 |
CN115272899A (zh) * | 2022-09-27 | 2022-11-01 | 广东国图勘测地理信息有限公司 | 一种风险预警方法、装置、飞行器及存储介质 |
Non-Patent Citations (3)
Title |
---|
Aerial and Ground Robot Collaboration for Autonomous Mapping in Search and Rescue Missions;Dimitrios Chatziparaschis等;《Drones》;1-24 * |
基于人像分割的智能搜救无人机系统设计;王蓉;吕祖盛;孙嘉;江子岍;肖建;;计算机技术与发展(08);147-151+156 * |
洪灾被困人员搜救问题的集成优化研究;李守英;马祖军;郑斌;任铭;;系统工程学报(03);287-294 * |
Also Published As
Publication number | Publication date |
---|---|
CN116704386A (zh) | 2023-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108037770B (zh) | 基于人工智能的无人机输电线路巡检系统和方法 | |
RU2669656C2 (ru) | Обнаружение состояния с использованием обработки изображений | |
CN111915128B (zh) | 一种对地震诱发的次生滑坡灾后评估与救援辅助系统 | |
KR102507501B1 (ko) | 인공지능 기반 수계오염원 모니터링 시스템 및 방법 | |
CN112462774A (zh) | 一种基于无人机航行跟随的城市道路监管方法、系统及可读存储介质 | |
CN116108397B (zh) | 融合多模态数据分析的电力现场作业违章行为识别方法 | |
CN112381041A (zh) | 一种用于输电线路的树木识别方法、装置及终端设备 | |
CN115880466B (zh) | 基于无人机遥感的城市工程测绘方法及系统 | |
CN111178283A (zh) | 一种基于无人机图像的既定航线地物识别与定位方法 | |
CN115272656A (zh) | 环境检测报警方法、装置、计算机设备及存储介质 | |
CN112836590B (zh) | 洪涝灾害监测方法、装置、电子设备及存储介质 | |
CN112380945B (zh) | 一种基于卫星遥感影像的输电通道环境隐患的识别方法和系统 | |
CN117726991A (zh) | 一种高空吊篮安全带检测方法及终端 | |
Thanh Ha et al. | Automated localization and classification of expressway pole-like road facilities from mobile laser scanning data | |
CN108154089B (zh) | 一种基于尺度自适应的头部检测和密度图的人群计数方法 | |
CN114067245A (zh) | 一种铁路外部环境隐患识别方法及系统 | |
CN114237232A (zh) | 一种路径规划方法及装置 | |
CN116704386B (zh) | 一种基于ai的精准应急救援方法及装置 | |
CN116091709B (zh) | 建筑物的三维重建方法、装置、电子设备和存储介质 | |
CN117252316A (zh) | 一种应急疏散路径规划方法、装置、设备及存储介质 | |
CN113473076B (zh) | 社区报警方法及服务器 | |
CN114782894A (zh) | 输电线路通道内树障检测方法、计算机设备及存储介质 | |
WO2022173809A1 (en) | Computer vision systems and methods for detecting power line hazards from imagery | |
CN113313273A (zh) | 基于大数据环境下的公共设施检测方法、系统和存储介质 | |
CN110956156A (zh) | 一种基于深度学习的闯红灯检测系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |