CN114425133A - 一种室内火焰自主巡检及灭火方法 - Google Patents
一种室内火焰自主巡检及灭火方法 Download PDFInfo
- Publication number
- CN114425133A CN114425133A CN202210121746.2A CN202210121746A CN114425133A CN 114425133 A CN114425133 A CN 114425133A CN 202210121746 A CN202210121746 A CN 202210121746A CN 114425133 A CN114425133 A CN 114425133A
- Authority
- CN
- China
- Prior art keywords
- flame
- fire
- camera
- fire extinguishing
- fighting robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 238000007689 inspection Methods 0.000 title claims abstract description 18
- 238000001514 detection method Methods 0.000 claims abstract description 37
- 239000011159 matrix material Substances 0.000 claims description 18
- 230000004927 fusion Effects 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 10
- 238000011065 in-situ storage Methods 0.000 claims description 10
- 238000003062 neural network model Methods 0.000 claims description 10
- 239000013598 vector Substances 0.000 claims description 9
- 238000005070 sampling Methods 0.000 claims description 5
- 238000012805 post-processing Methods 0.000 claims description 4
- 238000012935 Averaging Methods 0.000 claims description 3
- 238000012937 correction Methods 0.000 claims description 3
- 230000001629 suppression Effects 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 abstract description 4
- 238000013528 artificial neural network Methods 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 239000007921 spray Substances 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 206010000369 Accident Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A62—LIFE-SAVING; FIRE-FIGHTING
- A62C—FIRE-FIGHTING
- A62C31/00—Delivery of fire-extinguishing material
- A62C31/02—Nozzles specially adapted for fire-extinguishing
- A62C31/03—Nozzles specially adapted for fire-extinguishing adjustable, e.g. from spray to jet or vice versa
-
- A—HUMAN NECESSITIES
- A62—LIFE-SAVING; FIRE-FIGHTING
- A62C—FIRE-FIGHTING
- A62C27/00—Fire-fighting land vehicles
-
- A—HUMAN NECESSITIES
- A62—LIFE-SAVING; FIRE-FIGHTING
- A62C—FIRE-FIGHTING
- A62C31/00—Delivery of fire-extinguishing material
- A62C31/28—Accessories for delivery devices, e.g. supports
-
- A—HUMAN NECESSITIES
- A62—LIFE-SAVING; FIRE-FIGHTING
- A62C—FIRE-FIGHTING
- A62C37/00—Control of fire-fighting equipment
- A62C37/08—Control of fire-fighting equipment comprising an outlet device containing a sensor, or itself being the sensor, i.e. self-contained sprinklers
- A62C37/09—Control of fire-fighting equipment comprising an outlet device containing a sensor, or itself being the sensor, i.e. self-contained sprinklers telescopic or adjustable
Landscapes
- Health & Medical Sciences (AREA)
- Public Health (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Fire-Detection Mechanisms (AREA)
- Image Analysis (AREA)
- Fire-Extinguishing By Fire Departments, And Fire-Extinguishing Equipment And Control Thereof (AREA)
Abstract
一种室内火焰自主巡检及灭火方法,它属于室内火焰检测技术领域。本发明解决了现有火焰检测方法中没有结合深度信息,导致利用现有火焰检测方法无法获取到立体的火焰位置信息的问题。本发明结合了自动导航和火焰检测方法,而且在火焰检测时结合了深度信息,从而可以获取立体的火焰位置信息,以便机器人精确灭火。同时,本发明应用深度神经网络算法能够较大地提升火焰目标识别的准确率和速度,相比传统方法具有较强的准确性与实时性。此外,实现视觉信息对灭火过程的闭环控制,具有较高的智能性。本发明方法可以应用于室内火焰检测。
Description
技术领域
本发明属于室内火焰检测技术领域,具体涉及一种室内火焰自主巡检及灭火方法。
背景技术
建筑物火灾在每年的火灾事故中占了很大的比例,特别是对于文保单位而言,其内存储的物品可能包含有价值极高的文物等,因此发生建筑火灾所造成的损失往往会更大,通过对室内火焰进行巡检来及时发现建筑物火灾是目前减小损失的最为有效的手段。
现有的火焰巡检方式包括室内自动导航和基于图像的火焰检测两部分。现有的自动导航技术有即时定位与地图构建(Simultaneous Localization And Mapping),指的是机器人在自身位置不确定的条件下,在完全未知环境中创建地图,同时利用地图进行自主定位和导航。SLAM问题可以描述为:机器人在未知环境中从一个未知位置开始移动,在移动过程中根据位置估计和传感器数据进行自身定位,同时建造增量式地图。在SLAM中,机器人利用自身携带的传感器识别未知环境中的特征标志,然后根据机器人与特征标志之间的相对位置和里程计的读数估计机器人和特征标志的全局坐标。这种在线的定位与地图创建需要保持机器人与特征标志之间的详细信息。近几年来,SLAM的研究取得了很大的进展,并已应用于各种不同的环境,如:室内环境、水下、室外环境。
目前的基于图像的火焰检测方法主要有三类。一类是传统的方式,包括基于颜色空间、基于纹理特征(使用统计学特点探究像素点之间关系)、基于火焰的几何特征(火焰面积等)、基于火焰轮廓、帧差法、背景/前景法、光流法。第二类是机器学习的方式,先通过传统的方式去提取火焰特征,然后通过这些特征去构建特征向量(比如光流法提取火焰特征向量),再代入特征向量到分类器中训练。同时,也有研究人员构建级联分类器,多个分类器之间采用投票的机制,预测类别多数获胜。第三类是基于卷积神经网络的火焰检测方式,相对于传统方式而言,对火焰有着更高的精确率与召回率,可以大大的降低系统的误报率。
但是目前的火焰检测方法对火焰位置的判断局限于二维信息,并没有结合深度信息,导致利用现有的火焰检测方法无法获取到立体的火焰位置信息,以致于无法进行精确灭火。
发明内容
本发明的目的是为解决现有火焰检测方法中没有结合深度信息,导致利用现有火焰检测方法无法获取到立体的火焰位置信息的问题,而提出的一种室内火焰自主巡检及灭火方法。
本发明为解决上述技术问题所采取的技术方案是:一种室内火焰自主巡检及灭火方法,所述方法具体包括以下步骤:
步骤一、将消防机器人启动后,上位机根据从下位机获取的数据得到消防机器人当前的实际位置信息;
若消防机器人当前实际位置与消防机器人在地图上位置的偏差大于设定的阈值,则初始化消防机器人在地图上的位置后,执行步骤二;否则,消防机器人当前实际位置与消防机器人在地图上位置的偏差小于等于设定的阈值,则直接执行步骤二;
步骤二、判断是否启动单点导航,若启动单点导航,则执行步骤三;若不启动单点导航,则启动多点巡航,直至启动单点导航时执行步骤三;
步骤三、通过单点导航进行路径规划,消防机器人根据规划的路径运动到目的地,并利用摄像机采集目的地区域的图像;
步骤四、采用yolov5深度神经网络模型对采集的图像进行火焰识别,若在连续的N秒内未识别到火焰,则执行步骤五,否则识别到图像中存在火焰,则启动灭火程序,待灭火完成后,再执行步骤五;
步骤五、消防机器人进行一次原地旋转并检测是否存在其它火焰,若存在其它火焰,则继续启动灭火程序,直至原地旋转的角度达到360°时停止旋转,并判断消防机器人是否启动返航;
若启动返航,则消防机器人返回原点;若不启动返航,则启动多点巡航,直至再次启动单点导航时执行步骤六;
步骤六、重复步骤三至步骤五的过程,直至消防机器人启动返航。
进一步地,所述步骤三中,摄像机采集的图像包括彩色图像和深度图像。
进一步地,所述yolov5深度神经网络模型包括特征提取子网络、特征融合子网络和检测子网络三个部分。
进一步地,所述yolov5深度神经网络模型的检测过程为:
将摄像机采集的彩色图像经过特征提取子网络后,再将特征提取结果输入特征融合子网络,并将特征融合结果输入检测子网络,得到检测子网络的输出结果;
若检测子网络的输出结果为图像中不存在火焰,则不需要对输出结果进行处理;否则,若图像中存在火焰,则对检测子网络的输出结果进行后处理,输出置信度得分最高的预测框的坐标。
进一步地,所述灭火程序的具体过程为:
步骤1、利用得到的预测框坐标对摄像机采集的深度图像进行采样,获得采样到的所有像素;
之后,对获得的像素进行去噪,获得去噪后的像素,对去噪后的像素的灰度取平均值,将得到的平均值作为火焰的深度;
步骤2、根据火焰的深度、得到的预测框坐标以及相机的内参矩阵进行三维重建,得到以相机为原点的相机空间中的火焰位置,相机空间的Z轴为摄像机的正对方向,X轴方向由正上向量(0,1,0)与Z轴叉乘获得,Y轴方向由Z轴与X轴叉乘获得;
步骤3、将相机空间中的火焰位置转移到灭火器喷头空间,灭火器喷头空间原点为灭火器喷头的喷口位置,灭火器喷头空间的Z'轴为喷头的正对方向,X'轴方向由正上向量(0,1,0)与Z'轴叉乘获得,Y'轴方向由Z'轴与X'轴叉乘获得,得到灭火器喷头空间中的火焰位置后,根据灭火器喷头空间中的火焰位置得到灭火器喷头的角度。
进一步地,所述后处理的方式为非极大值抑制。
进一步地,所述步骤2的具体过程为:
步骤21、根据火焰的深度信息以及得到的预测框坐标,获得火焰的像素坐标以及深度联立形成的三维信息;
步骤22、将火焰像素坐标以及深度联立形成的三维信息乘以内参矩阵的逆矩阵,得到火焰在以相机为原点的相机空间中的坐标。
进一步地,所述内参矩阵由张氏相机标定法获得。
进一步地,所述内参矩阵为:
其中,K为内参矩阵,fx和fy为焦距,x0和y0为主点偏移,s为切变参数。
更进一步地,所述根据灭火器喷头空间中的火焰位置得到灭火器喷头的角度,其具体为:
本发明的有益效果是:
本发明结合了自动导航和火焰检测方法,而且在火焰检测时结合了深度信息,从而可以获取立体的火焰位置信息,以便机器人精确灭火。同时,本发明应用深度神经网络算法能够较大地提升火焰目标识别的准确率和速度,相比传统方法具有较强的准确性与实时性。此外,实现视觉信息对灭火过程的闭环控制,具有较高的智能性。
附图说明
图1为本发明的一种室内火焰自主巡检及灭火方法的流程图;
图2为火焰识别流程图。
具体实施方式
具体实施方式一、结合图1和图2说明本实施方式。本实施方式所述的一种室内火焰自主巡检及灭火方法,所述方法具体包括以下步骤:
步骤一、将消防机器人启动后,上位机根据从下位机获取的数据得到消防机器人当前的实际位置信息;
若消防机器人当前实际位置与消防机器人在地图上位置的偏差大于设定的阈值,则初始化消防机器人在地图上的位置(据机器人的实际位置更新在地图上的位置)后,执行步骤二;否则,消防机器人当前实际位置与消防机器人在地图上位置的偏差小于等于设定的阈值,则直接执行步骤二;
步骤二、判断是否启动单点导航,若启动单点导航(单点导航可以使消防机器人前往指定的位置),则执行步骤三;若不启动单点导航,则启动多点巡航(多点巡航可以使消防机器人在大于等于2个位置之间进行巡逻),直至启动单点导航时执行步骤三;
步骤三、通过单点导航进行路径规划,消防机器人根据规划的路径运动到目的地,并利用摄像机采集目的地区域的图像;
通过上位机向下位机发送数据以实现系统控制机器人的移动;
步骤四、采用yolov5深度神经网络模型对采集的图像进行火焰识别,若在连续的N秒内未识别到火焰,则执行步骤五,否则识别到图像中存在火焰,则启动灭火程序,待灭火完成后,再执行步骤五;
本步骤中,N的取值为3,若对连续的N秒内所采集到的图像进行识别时,均未识别到火焰,则直接执行步骤五;
步骤五、消防机器人进行一次原地旋转并检测是否存在其它火焰,若存在其它火焰,则继续启动灭火程序,直至原地旋转的角度达到360°时停止旋转,并判断消防机器人是否启动返航;
若启动返航,则消防机器人返回原点;若不启动返航,则启动多点巡航,直至再次启动单点导航时执行步骤六;
所述消防机器人进行原地旋转,检测是否存在其它火焰的具体方法为:
机器人原地旋转一定的角度(每次可以旋转90度)后,利用火焰识别检测是否存在其它火焰,若存在其它火焰,则启动灭火程序灭火,否则继续原地旋转(旋转90°),直至累计旋转360度之后停止旋转;
步骤六、重复步骤三至步骤五的过程,直至消防机器人启动返航。
消防机器人使用了ros对整个系统进行管理,ros是一种非常灵活的软件架构,包括硬件抽象,底层设备控制,常用函数的实现,进程间消息传递,以及包管理。它也提供用于获取、编译、编写、和跨计算机运行代码所需的工具和库函数。为的是简化跨机器人平台创建复杂、鲁棒的机器人行为过程中的复杂度。启动rviz三维可视化平台,可以实施监控机器人的位置信息,进入rviz后,会加载默认的rviz配置文件,该文件中包含了map、robotmodel、scan等组件,通过这些组件让用户看见机器人在地图中的位置。除此之外还包含了机器人位置初始化、单点导航、多点导航等rviz自带功能。
本发明利用相对模糊的定点导航技术,实现避障能力较强的固定路线巡航功能;结合摄像头以及物体识别算法,实现基于视觉的导航功能,用于火焰寻找任务;结合多传感器的定位算法,实现更稳定的导航和避障,应用yolov5深度神经网络模型,通过视觉信息进行火焰目标检测。
具体实施方式二:本实施方式与具体实施方式一不同的是,所述步骤三中,摄像机采集的图像包括彩色图像和深度图像。
其它步骤及参数与具体实施方式一相同。
具体实施方式三:本实施方式与具体实施方式一或二不同的是,所述yolov5深度神经网络模型包括特征提取子网络、特征融合子网络和检测子网络三个部分。
其它步骤及参数与具体实施方式一或二相同。
具体实施方式四:本实施方式与具体实施方式一至三之一不同的是,所述yolov5深度神经网络模型的检测过程为:
将摄像机采集的彩色图像经过特征提取子网络后,再将特征提取结果输入特征融合子网络,并将特征融合结果输入检测子网络,得到检测子网络的输出结果;
若检测子网络的输出结果为图像中不存在火焰,则不需要对输出结果进行处理;否则,若图像中存在火焰,则对检测子网络的输出结果进行后处理,输出置信度得分最高的预测框的坐标。
火焰识别程序使用了yolov5进行目标识别,它由主干网络、颈部以及输出三部分构成。主干网络为特征提取网络,实时传入彩色相机的图像;颈部为特征融合网络,采取了自顶向下与自底向上的特征融合方式,之后传入检测层,经过后处理操作消除了大量冗余的预测框,最后输出置信度得分最高的区域,返回火焰的边框坐标。
其它步骤及参数与具体实施方式一至三之一相同。
具体实施方式五:本实施方式与具体实施方式一至四之一不同的是,所述灭火程序的具体过程为:
步骤1、利用得到的预测框坐标对摄像机采集的深度图像进行采样,获得采样到的所有像素;
(0.25*x2+0.75*x1)<w<(0.25*x1+0.75*x2)
(y1+y2)/2<h<y2
其中,(x1,x2)为预测框像素坐标的横坐标范围,(y1,y2)为预测框像素坐标的纵坐标范围。w代表采样区域的横坐标范围,h代表采样区域的纵坐标范围。
之后,对获得的像素进行去噪,获得去噪后的像素,对去噪后的像素的灰度取平均值,将得到的平均值作为火焰的深度;
步骤2、根据火焰的深度、得到的预测框坐标(火焰uv坐标)以及相机的内参矩阵进行三维重建,得到以相机为原点的相机空间中的火焰位置,相机空间的Z轴为摄像机的正对方向,X轴方向由正上向量(0,1,0)与Z轴叉乘获得,Y轴方向由Z轴与X轴叉乘获得;
步骤3、将相机空间中的火焰位置转移到灭火器喷头空间,灭火器喷头空间原点为灭火器喷头的喷口位置,灭火器喷头空间的Z'轴为喷头的正对方向,X'轴方向由正上向量(0,1,0)与Z'轴叉乘获得,Y'轴方向由Z'轴与X'轴叉乘获得,得到灭火器喷头空间中的火焰位置后,根据灭火器喷头空间中的火焰位置得到灭火器喷头的角度。
其它步骤及参数与具体实施方式一至四之一相同。
具体实施方式六:本实施方式与具体实施方式一至五之一不同的是,所述后处理的方式为非极大值抑制。
其它步骤及参数与具体实施方式一至五之一相同。
具体实施方式七:本实施方式与具体实施方式一至六之一不同的是,所述步骤2的具体过程为:
步骤21、根据火焰的深度信息以及得到的预测框坐标,获得火焰的像素坐标以及深度联立形成的三维信息;
步骤22、将火焰像素坐标以及深度联立形成的三维信息乘以内参矩阵的逆矩阵,得到火焰在以相机为原点的相机空间中的坐标。
其它步骤及参数与具体实施方式一至六之一相同。
具体实施方式八:本实施方式与具体实施方式一至七之一不同的是,所述内参矩阵由张氏相机标定法获得。
其它步骤及参数与具体实施方式一至七之一相同。
具体实施方式九:本实施方式与具体实施方式一至八之一不同的是,所述内参矩阵为:
其中,K为内参矩阵,fx和fy为焦距,x0和y0为主点偏移,s为切变参数。
其它步骤及参数与具体实施方式一至八之一相同。
具体实施方式十:本实施方式与具体实施方式一至九之一不同的是,所述根据灭火器喷头空间中的火焰位置得到灭火器喷头的角度,其具体为:
其它步骤及参数与具体实施方式一至九之一相同。
下面结合实施例对本发明做进一步说明。
应该指出,以下详细说明都是示例性的,旨在对本公开提供进一步的说明。除非另有指明,本发明使用的所有技术和科学术语具有与本发明所属技术领域的普通技术人员通常理解的相同含义。
在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
1、灭火模块
1)利用单点导航使消防机器人前往目的地的过程中,消防机器人启动相机模块、云台模块、通讯模块。
2)若消防机器人到达目的地附近后会等待一段时间,消防机器人启动火焰识别模块。
3)若检查到火焰,则将火焰的uv坐标(预测框坐标)发送给通讯模块,通讯模块接收到数据后会将数据发送给云台模块。
4)云台模块获得数据后会调整灭火器喷管位置,将喷管对准火焰。
5)启动灭火器进行灭火。
6)灭火完成后,消防机器人会原地旋转,检查周围是否存在其它火焰,若存在其它火焰,则重复3)—5)的过程,否则返航。
2、火焰识别
火焰识别部分需要在ubuntu系统中运行,需要结合消防机器人系统进行整体实施。可以在实施环境中设置一处火源,由导航系统将消防机器人导航至火源附近,消防机器人将会自动启动火焰识别程序。如果火焰识别检测到火焰,就会给灭火器推杆以及云台发布旋转角度以及灭火命令,灭火器喷头将会指向火焰并执行灭火。如果没有检测到火焰,机器人将会自行调整位置,直到发现火源。
本发明的上述算例仅为详细地说明本发明的计算模型和计算流程,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动,这里无法对所有的实施方式予以穷举,凡是属于本发明的技术方案所引伸出的显而易见的变化或变动仍处于本发明的保护范围之列。
Claims (10)
1.一种室内火焰自主巡检及灭火方法,其特征在于,所述方法具体包括以下步骤:
步骤一、将消防机器人启动后,上位机根据从下位机获取的数据得到消防机器人当前的实际位置信息;
若消防机器人当前实际位置与消防机器人在地图上位置的偏差大于设定的阈值,则初始化消防机器人在地图上的位置后,执行步骤二;否则,消防机器人当前实际位置与消防机器人在地图上位置的偏差小于等于设定的阈值,则直接执行步骤二;
步骤二、判断是否启动单点导航,若启动单点导航,则执行步骤三;若不启动单点导航,则启动多点巡航,直至启动单点导航时执行步骤三;
步骤三、通过单点导航进行路径规划,消防机器人根据规划的路径运动到目的地,并利用摄像机采集目的地区域的图像;
步骤四、采用yolov5深度神经网络模型对采集的图像进行火焰识别,若在连续的N秒内未识别到火焰,则执行步骤五,否则识别到图像中存在火焰,则启动灭火程序,待灭火完成后,再执行步骤五;
步骤五、消防机器人进行一次原地旋转并检测是否存在其它火焰,若存在其它火焰,则继续启动灭火程序,直至原地旋转的角度达到360°时停止旋转,并判断消防机器人是否启动返航;
若启动返航,则消防机器人返回原点;若不启动返航,则启动多点巡航,直至再次启动单点导航时执行步骤六;
步骤六、重复步骤三至步骤五的过程,直至消防机器人启动返航。
2.根据权利要求1所述的一种室内火焰自主巡检及灭火方法,其特征在于,所述步骤三中,摄像机采集的图像包括彩色图像和深度图像。
3.根据权利要求2所述的一种室内火焰自主巡检及灭火方法,其特征在于,所述yolov5深度神经网络模型包括特征提取子网络、特征融合子网络和检测子网络三个部分。
4.根据权利要求3所述的一种室内火焰自主巡检及灭火方法,其特征在于,所述yolov5深度神经网络模型的检测过程为:
将摄像机采集的彩色图像经过特征提取子网络后,再将特征提取结果输入特征融合子网络,并将特征融合结果输入检测子网络,得到检测子网络的输出结果;
若检测子网络的输出结果为图像中不存在火焰,则不需要对输出结果进行处理;否则,若图像中存在火焰,则对检测子网络的输出结果进行后处理,输出置信度得分最高的预测框的坐标。
5.根据权利要求4所述的一种室内火焰自主巡检及灭火方法,其特征在于,所述灭火程序的具体过程为:
步骤1、利用得到的预测框坐标对摄像机采集的深度图像进行采样,获得采样到的所有像素;
之后,对获得的像素进行去噪,获得去噪后的像素,对去噪后的像素的灰度取平均值,将得到的平均值作为火焰的深度;
步骤2、根据火焰的深度、得到的预测框坐标以及相机的内参矩阵进行三维重建,得到以相机为原点的相机空间中的火焰位置,相机空间的Z轴为摄像机的正对方向,X轴方向由正上向量(0,1,0)与Z轴叉乘获得,Y轴方向由Z轴与X轴叉乘获得;
步骤3、将相机空间中的火焰位置转移到灭火器喷头空间,灭火器喷头空间原点为灭火器喷头的喷口位置,灭火器喷头空间的Z'轴为喷头的正对方向,X'轴方向由正上向量(0,1,0)与Z'轴叉乘获得,Y'轴方向由Z'轴与X'轴叉乘获得,得到灭火器喷头空间中的火焰位置后,根据灭火器喷头空间中的火焰位置得到灭火器喷头的角度。
6.根据权利要求5所述的一种室内火焰自主巡检及灭火方法,其特征在于,所述后处理的方式为非极大值抑制。
7.根据权利要求6所述的一种室内火焰自主巡检及灭火方法,其特征在于,所述步骤2的具体过程为:
步骤21、根据火焰的深度信息以及得到的预测框坐标,获得火焰的像素坐标以及深度联立形成的三维信息;
步骤22、将火焰像素坐标以及深度联立形成的三维信息乘以内参矩阵的逆矩阵,得到火焰在以相机为原点的相机空间中的坐标。
8.根据权利要求7所述的一种室内火焰自主巡检及灭火方法,其特征在于,所述内参矩阵由张氏相机标定法获得。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210121746.2A CN114425133B (zh) | 2022-02-09 | 2022-02-09 | 一种室内火焰自主巡检及灭火方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210121746.2A CN114425133B (zh) | 2022-02-09 | 2022-02-09 | 一种室内火焰自主巡检及灭火方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114425133A true CN114425133A (zh) | 2022-05-03 |
CN114425133B CN114425133B (zh) | 2023-10-17 |
Family
ID=81313138
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210121746.2A Active CN114425133B (zh) | 2022-02-09 | 2022-02-09 | 一种室内火焰自主巡检及灭火方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114425133B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115645796A (zh) * | 2022-10-24 | 2023-01-31 | 上海应用技术大学 | 基于YOLOv5的自动定位射流灭火系统及其检测定位方法 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109331389A (zh) * | 2018-11-12 | 2019-02-15 | 重庆知遨科技有限公司 | 一种基于多传感器融合的消防机器人动作实时监测方法 |
CN109646853A (zh) * | 2018-12-17 | 2019-04-19 | 华北科技学院 | 一种自主消防机器人装置及监测系统 |
CN111179279A (zh) * | 2019-12-20 | 2020-05-19 | 成都指码科技有限公司 | 一种基于紫外、双目视觉的综合火焰检测方法 |
CN112263803A (zh) * | 2020-10-26 | 2021-01-26 | 杭州电子科技大学 | 基于实时场景巡视和自动检测灭火的无人车智能安防系统及控制方法 |
CN112747829A (zh) * | 2021-01-29 | 2021-05-04 | 易枭零部件科技(襄阳)有限公司 | 一种基于三维高精地图的火焰或热点定位测距方法 |
CN113101570A (zh) * | 2021-05-10 | 2021-07-13 | 国网山东省电力公司莱芜供电公司 | 一种自动跟踪灭火系统 |
CN113190016A (zh) * | 2021-05-21 | 2021-07-30 | 南京工业大学 | 一种用于洁净室的移动机器人检测系统与方法 |
CN113384844A (zh) * | 2021-06-17 | 2021-09-14 | 郑州万特电气股份有限公司 | 基于双目视觉的灭火动作检测方法及灭火器安全实训系统 |
CN113408479A (zh) * | 2021-07-12 | 2021-09-17 | 重庆中科云从科技有限公司 | 火焰检测方法、装置、计算机设备和存储介质 |
CN113713292A (zh) * | 2021-09-29 | 2021-11-30 | 浙江理工大学 | 一种基于YOLOv5模型进行精准火焰判别、灭火点定位与快速灭火的方法与装置 |
CN214912972U (zh) * | 2021-01-22 | 2021-11-30 | 福州大学 | 搭载于机械狗的ai的计算机视觉消防监测和识别系统 |
CN113819881A (zh) * | 2021-09-09 | 2021-12-21 | 南阳中天防爆电气股份有限公司 | 一种侦察巡检机器人用火源距离和地图方位的探测方法 |
CN113962282A (zh) * | 2021-08-19 | 2022-01-21 | 大连海事大学 | 一种基于改进YOLOv5L+DeepSort的船舶机舱火灾实时检测系统及方法 |
-
2022
- 2022-02-09 CN CN202210121746.2A patent/CN114425133B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109331389A (zh) * | 2018-11-12 | 2019-02-15 | 重庆知遨科技有限公司 | 一种基于多传感器融合的消防机器人动作实时监测方法 |
CN109646853A (zh) * | 2018-12-17 | 2019-04-19 | 华北科技学院 | 一种自主消防机器人装置及监测系统 |
CN111179279A (zh) * | 2019-12-20 | 2020-05-19 | 成都指码科技有限公司 | 一种基于紫外、双目视觉的综合火焰检测方法 |
CN112263803A (zh) * | 2020-10-26 | 2021-01-26 | 杭州电子科技大学 | 基于实时场景巡视和自动检测灭火的无人车智能安防系统及控制方法 |
CN214912972U (zh) * | 2021-01-22 | 2021-11-30 | 福州大学 | 搭载于机械狗的ai的计算机视觉消防监测和识别系统 |
CN112747829A (zh) * | 2021-01-29 | 2021-05-04 | 易枭零部件科技(襄阳)有限公司 | 一种基于三维高精地图的火焰或热点定位测距方法 |
CN113101570A (zh) * | 2021-05-10 | 2021-07-13 | 国网山东省电力公司莱芜供电公司 | 一种自动跟踪灭火系统 |
CN113190016A (zh) * | 2021-05-21 | 2021-07-30 | 南京工业大学 | 一种用于洁净室的移动机器人检测系统与方法 |
CN113384844A (zh) * | 2021-06-17 | 2021-09-14 | 郑州万特电气股份有限公司 | 基于双目视觉的灭火动作检测方法及灭火器安全实训系统 |
CN113408479A (zh) * | 2021-07-12 | 2021-09-17 | 重庆中科云从科技有限公司 | 火焰检测方法、装置、计算机设备和存储介质 |
CN113962282A (zh) * | 2021-08-19 | 2022-01-21 | 大连海事大学 | 一种基于改进YOLOv5L+DeepSort的船舶机舱火灾实时检测系统及方法 |
CN113819881A (zh) * | 2021-09-09 | 2021-12-21 | 南阳中天防爆电气股份有限公司 | 一种侦察巡检机器人用火源距离和地图方位的探测方法 |
CN113713292A (zh) * | 2021-09-29 | 2021-11-30 | 浙江理工大学 | 一种基于YOLOv5模型进行精准火焰判别、灭火点定位与快速灭火的方法与装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115645796A (zh) * | 2022-10-24 | 2023-01-31 | 上海应用技术大学 | 基于YOLOv5的自动定位射流灭火系统及其检测定位方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114425133B (zh) | 2023-10-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11501527B2 (en) | Visual-inertial positional awareness for autonomous and non-autonomous tracking | |
US11544867B2 (en) | Mapping optimization in autonomous and non-autonomous platforms | |
US10929690B1 (en) | Visual-inertial positional awareness for autonomous and non-autonomous mapping | |
US8725273B2 (en) | Situational awareness for teleoperation of a remote vehicle | |
EP3428760B1 (en) | Mapping optimization in autonomous and non-autonomous platforms | |
EP3850456B1 (en) | Control and navigation systems, pose optimisation, mapping, and localisation techniques | |
CN108759826B (zh) | 一种基于手机和无人机多传感参数融合的无人机运动跟踪方法 | |
CN112184812B (zh) | 提升无人机相机对AprilTag识别定位精度方法及定位方法和系统 | |
CN113870343A (zh) | 相对位姿标定方法、装置、计算机设备和存储介质 | |
Saripalli et al. | Detection and tracking of external features in an urban environment using an autonomous helicopter | |
Cho et al. | Autonomous ship deck landing of a quadrotor UAV using feed-forward image-based visual servoing | |
CN114425133B (zh) | 一种室内火焰自主巡检及灭火方法 | |
CN114815851A (zh) | 机器人跟随方法、装置、电子设备以及存储介质 | |
Pérez et al. | Enhanced monte carlo localization with visual place recognition for robust robot localization | |
CN112731503A (zh) | 一种基于前端紧耦合的位姿估计方法及系统 | |
Kamsvåg | Fusion between camera and lidar for autonomous surface vehicles | |
Mueller et al. | Continuous stereo self-calibration on planar roads | |
CN115345281A (zh) | 一种面向无人机图像导航的深度强化学习加速训练方法 | |
KR20230112296A (ko) | 목표물 탐색을 위한 3d 실내지도 작성 및 객체 인식 시스템 | |
Pogorzelski et al. | Vision Based Navigation Securing the UAV Mission Reliability | |
Abdulov et al. | Problems solved during AEROBOT-2021 UAV challenge | |
Lee et al. | Integrated Simulation of Virtual Prototypes and Control Algorithms of Unmanned Surface Vehicles Based on a Robot Operating System | |
Cobzas et al. | A panoramic model for remote robot environment mapping and predictive display | |
Petrlık | Onboard localization of an unmanned aerial vehicle in an unknown environment | |
US20230419650A1 (en) | Image localization using a digital twin representation of an environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |