CN113298193A - 基于紫外成像和图像识别的火灾援救方法、设备及介质 - Google Patents
基于紫外成像和图像识别的火灾援救方法、设备及介质 Download PDFInfo
- Publication number
- CN113298193A CN113298193A CN202110795531.4A CN202110795531A CN113298193A CN 113298193 A CN113298193 A CN 113298193A CN 202110795531 A CN202110795531 A CN 202110795531A CN 113298193 A CN113298193 A CN 113298193A
- Authority
- CN
- China
- Prior art keywords
- fire
- image
- image information
- rescue
- fire scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000003384 imaging method Methods 0.000 title claims abstract description 36
- 238000012549 training Methods 0.000 claims abstract description 38
- 238000004458 analytical method Methods 0.000 claims abstract description 16
- 230000003287 optical effect Effects 0.000 claims abstract description 13
- 238000001514 detection method Methods 0.000 claims description 36
- 238000012795 verification Methods 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 8
- 241001465754 Metazoa Species 0.000 claims description 6
- 238000003062 neural network model Methods 0.000 claims description 5
- 238000007781 pre-processing Methods 0.000 claims description 4
- 230000004807 localization Effects 0.000 claims description 2
- 238000004422 calculation algorithm Methods 0.000 abstract description 12
- 238000013528 artificial neural network Methods 0.000 abstract description 4
- 238000004020 luminiscence type Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 7
- 239000000779 smoke Substances 0.000 description 5
- 238000005286 illumination Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 239000004071 soot Substances 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000010438 heat treatment Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B17/00—Fire alarms; Alarms responsive to explosion
- G08B17/12—Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions
- G08B17/125—Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions by using a video camera to detect fire or smoke
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Abstract
本发明提供了一种基于紫外成像和图像识别的火灾救援方法、设备及介质,方法包括:基于紫外打光的火灾数据图像样本数据库,对火灾数据图像样本进行模型训练,以获得识别及定位模型;在接收到图像采集指令后,对火灾现场进行图像采集,以生成火灾现场图像信息;通过识别及定位模型对火灾现场图像信息进行拟合分析;根据拟合分析结果将火灾现场图像信息转换为包含特定目标类别及其定位的救援图像信息。本发明通过410nm紫外打光及在相机前添加410nm滤光片,消除火焰自发光的影响,透过火焰对火灾中待营救的人员或物品进行成像。同时采用内嵌神经网络算法的边缘计算模块或云服务器对紫外成像图片就行自动识别,对火灾中待营救人员或物品进行识别和定位。
Description
技术领域
本发明涉及人工智能图像处理领域,具体地,涉及一种基于紫外成像和图像识别的火灾援救方法、设备及存储介质。
背景技术
目前,火灾时结构元件的成像以及光学测量技术在不断发展中,其对于火灾援救具有重要的意义,但其也暴露出当前技术所存在的问题,包括火焰和加热物体发出的热辐射、烟灰和烟雾对目标的遮挡以及加热空气和烟雾中光折射造成的图像失真。此外,由于火焰的自发光(可见光波段)强度过大,导致救援人员无法识别出火焰中以及被火焰遮挡的待救援目标的情况,进而影响火灾援救进展。
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种基于紫外成像和图像识别的火灾援救方法、设备及存储介质。
根据本发明的第一方面,提供了一种基于紫外成像和图像识别的火灾援救方法,所述火灾援救方法包括:
基于火灾场景的紫外成像数据库进行神经网络模型训练,以获得识别和定位模型,将部署至边缘计算模块或云服务器;
在接收到图像采集指令后,对火灾现场进行图像采集,以生成火灾现场图像信息;
将所述火灾现场图像信息传输至所述边缘计算模块或所述云服务器,通过所述识别及定位模型对所述火灾现场图像信息进行拟合分析;根据拟合分析结果将所述火灾现场图像信息转换为包含特定目标及其定位的救援图像信息。
在上述技术方案中,优选地,所述基于火灾场景的紫外成像数据库进行神经网络模型训练的步骤包括:
将火灾数据图像样本按照样本中目标图像的种类进行分类处理,生成多种类别的分类图像样本;
建立目标检测网络,通过所述目标检测网络提取所述分类图像样本的特征图,将所述特征图进行融合得到融合特征图,根据融合特征图进行模型训练。
在上述技术方案中,优选地,在所述生成多种类别的分类图像样本的步骤与所述建立目标检测网络的步骤之间,还包括:
对各种所述分类图像样本进行预处理,并将预处理后的各种所述分类图像样本标引为训练集或验证集。
在上述技术方案中,优选地,所述火灾援救方法还包括:
将所述训练集中的所述分类图像样本输入到所述目标检测网络中进行训练,获得训练后的目标检测模型;
将所述验证集中的所述分类图像样本输入到所述目标检测模型中进行验证,获取识别及定位模型。
在上述技术方案中,优选地,根据多种类别的所述分类图像样本可获取多个对应类别的图像识别及定位模型。
在上述技术方案中,优选地,所述在接收到图像采集指令后,对火灾现场进行图像采集,以生成火灾现场图像信息的步骤包括:
在接收到图像采集指令后,通过410nm紫外打光及在相机前添加410nm滤光片,对火焰形成透视,以透过火焰对火焰中以及被火焰遮挡的场景进行清晰的成像,并生成所述火灾现场图像信息。
在上述技术方案中,优选地,所述根据拟合分析结果将所述火灾现场图像信息转换为包含特定目标及其定位的救援图像信息的步骤包括:
根据拟合分析结果将所述火灾现场图像信息转换为带有标示的所述救援图像信息;
将所述救援图像信息进行实时显示;
其中,对所述救援图像信息的标示包括对所述特定目标及其定位进行标注。
在上述技术方案中,优选地,所述特定目标包括人、动物和物体中的一种或多种;和/或
所述救援图像信息包括位置信息、数量信息和类别信息中的一种或多种。
根据本发明的第二方面,提出了一种计算机设备,所述计算机设备包括处 理器,所述处理器用于执行存储器中存储的计算机程序时实现如上述第一方面的技术方案中任一项所述的基于紫外成像和图像识别的火灾援救方法的步骤。
其中,计算机设备包括边缘计算模块或云服务器。
根据本公开实施例的第三方面,提出了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上述第一方面的技术方案中任一项所述的基于紫外成像和图像识别的火灾援救方法的步骤。
与现有技术相比,本发明具有如下的有益效果:
本发明通过大量的火灾数据图像样本,采用目标识别算法,有效地生成针对火灾现场图像的识别及定位模型,实现在火灾环境下的图像识别;在发生火灾需要救援时,可适配地将火灾现场进行图像输入至识别及定位模型进行拟合分析,使得将火灾现场或被火焰等遮挡的人员或物体能通过识别及定位模型可被识别出来,并标注出位置信息或数量信息,生成救援图像信息并反馈至救援人员,这样能够节约救援人员识别的时间,同时还提高了救援效率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1示出了本发明公开实施例的基于紫外成像和图像识别的火灾援救方法的一个流程示意图;
图2示出了本发明公开实施例的基于紫外成像和图像识别的火灾援救方法的又一个流程示意图;
图3示出了本发明公开实施例的基于紫外成像和图像识别的火灾援救方法的再一个流程示意图;
图4示出了本发明公开实施例的基于紫外成像和图像识别的火灾援救方法的再一个流程示意图;
图5示出了本发明公开实施例的基于紫外成像和图像识别的火灾援救方法的处理过程示意图;
图6示出了本发明公开实施例的计算机设备的示意框图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进。这些都属于本发明的保护范围。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例,例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
下面以具体地实施例对本发明的技术方案进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例不再赘述。
下面以具体地实施例对本发明的技术方案以及本申请的技术方案如何解决上述技术问题进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本发明的实施例进行描述。
下面结合图1至图5对本发明公开实施例的基于紫外成像和图像识别的火灾援救方法进行详细说明。
如图1所示,根据本发明公开实施例的基于紫外成像和图像识别的火灾援救方法,具体包括以下流程步骤:
步骤S102,基于火灾场景的紫外成像数据库进行神经网络模型训练,以获得识别和定位模型,将部署至边缘计算模块或云服务器;
步骤S104,在接收到图像采集指令后,对火灾现场进行图像采集,以生成火灾现场图像信息;
步骤S106,将所述火灾现场图像信息传输至所述边缘计算模块或所述云服务器,通过所述识别及定位模型对所述火灾现场图像信息进行拟合分析;
步骤S108,根据拟合分析结果将所述火灾现场图像信息转换为包含特定目标及其定位的救援图像信息。
在本实施例中,紫外成像数据库中包括有以往火灾数据图像样本,首先会根据以往火灾数据图像样本进行模型训练,其中火灾数据图像样本包括在模拟真实火灾现场中所采集的图像样本和真实火灾现场所采集的图像样本,其可有效保障训练模型的真实性;训练后获得的识别及定位模型上传存储至服务器;在发生火灾需要救援时,通过接收到图像采集指令的触发模式,对火灾现场进行图像采集;可想到地采集过程可为有针对性的采集,即对火焰亮度高,人眼识别能力低的区域着重采集,并生成火灾现场图像信息;其中,对火灾现场进行图像采集包括视频采集和/或图像采集,火灾现场图像信息即包括视频信息和/或图像信息;随后,将火灾现场图像信息与存储在服务器中的所述识别及定位模型进行拟合分析,使得将所述火灾现场图像信息转换为包含特定目标的救援图像信息,救援图像信息为处理后包括人员和/或物体的图像信息,其能将人员和/或物体在图像中进行识别标注,可大大提高了救援的效率,同时增加了识别的准确度、可靠性。
本发明强调了自动识别功能,当获取到的视频或图像后,可以帮助救援人员自动识别火焰后的物体或人并标记出大概的位置,从而提高了救援的效率。
本发明通过410nm紫外打光及在相机前添加410nm滤光片,消除火焰自发光的影响,透过火焰对火灾中待营救的人员或物品进行成像。同时采用内嵌神经网络算法的边缘计算模块对紫外成像图片就行自动识别,对火灾中待营救人员或物品进行识别和定位。
优选地,当发生火灾时,在救援人员还未到达现场时,就可通过触发图像采集指令进行图像采集工作,使得预先进行救援计划的指定,实现有针对性的救援方案。
具体地,图像采集指令可为在预设条件下自动触发,也可为人工触发,并且在人工触发时,其包括远程人工触发操作;预设条件包括在检测到环境温度、环境烟雾浓度等条件到达设定阈值。
如图2所示,进一步地,上述实施例中的所述步骤S102可以具体执行为如下的流程步骤,包括:
步骤S202,将所述火灾数据图像样本按照样本中目标图像的种类进行分类处理,生成多种类别的分类图像样本;
步骤S206,建立目标检测网络,通过所述目标检测网络提取所述分类图像样本的特征图,将所述特征图进行融合得到融合特征图,根据融合特征图进行模型训练。
在本实施例中,对火灾数据图像样本进行分类处理,其分类的执行标准为按照样本中目标图像的种类进行分类,具体地,可将火灾数据图像样本分类为包括人员、物品、人员和物品、不同数量等标准进行分类,以保证在后续生产的训练模型足够精确。随后建立目标检测网络,通过所述目标检测网络提取所述分类图像样本的特征图,将所述特征图进行融合得到融合特征图,根据融合特征图进行模型训练,以实现针对不同种类的特征的训练模型。
在本发明的一个具体实施例中,在进行模型训练时可使用的目标检测算法采用YOLO算法,是一种基于深度神经网络的对象识别和定位算法,其优点有运行速度很快,背景误检率低,通用性强,可以用于实时系统等。
当然改用其他的目标检测算法,如FPN,RetinaNet,SSD,Faster R-CNN等均为可替代的目标检测算法。
如图2所示,进一步地,上述实施例中的所述步骤S202和步骤S206之间还包括如下的流程步骤:
步骤S204,对各种所述分类图像样本进行预处理,并将预处理后的各种所述分类图像样本标引为训练集或验证集。
在本实施例中,为包括模型的真实性和准确性,会首先会模型进行预处理;同时,将预处理后的各种类型的分类图像样本进行标引分类,分别标引为训练集和验证集。
如图2所示,进一步地,上述实施例中的步骤S206之后还包括如下的流程步骤:
步骤S208,将所述训练集中的所述分类图像样本输入到所述目标检测网络中进行训练,获得训练后的目标检测模型;
步骤S210,将所述验证集中的所述分类图像样本输入到所述目标检测模型中进行验证,获取识别及定位模型。
在本实施例中,在得到分类标引为训练集和验证集的分类图像样本之后,分别将各个集合中的分类图像样本进行模型训练;将所述训练集中的所述分类图像样本输入到所述目标检测网络中进行训练,获得训练后的目标检测模型,以保证训练结构的真实性可靠性。随后再将所述验证集中的所述分类图像样本输入到所述目标检测模型中进行验证,获取识别及定位模型,这使得获得的识别及定位模型为已通过验证集进行验证的识别及定位模型,并且在验证的过程中,可对识别及定位模型进行修正优化。
在本发明的一个实施例中,优选地,根据多种类别的所述分类图像样本可获取多个对应类别的所述识别及定位模型。
在该实施例中,在对识别及定位模型进行训练时,可根据多种类别的所述分类图像样本分批进行模型训练,具体的,其训练的过程可针对单个数量的人员、物体、动物,或多数量人员、物体、动物等进行训练。
如图3所示,在本发明的一个实施例中,优选地,步骤S104可以具体执行为如下的流程步骤,包括:
步骤S302,在接收到图像采集指令后,通过410nm紫外打光及在相机前添加410nm滤光片,对火焰形成透视,以透过火焰对火焰中以及被火焰遮挡的场景进行清晰的成像,并生成所述火灾现场图像信息。
在本实施例中,在接收到图像采集指令后,开启LED光源,并且将LED光源设置为包括410纳米的紫色LED光源;410纳米的紫色LED光源为高强度、短波长的照明光源,这是由于火焰发出的光高度集中在光谱的红色端,可以通过用较短波长的光照射目标来避免,从而降低火焰和加热物体发出的热辐射、烟灰和烟雾等对目标的遮挡以及加热空气和烟雾中光折射造成的图像失真,提高了图像采集的准确性。随后,采用设置有光学滤光片的工业相机对所述火灾现场进行图像采集,优选的工业相机为Basler工业相机,获得火灾现场图像信息。由于在相机前加装了光学滤光片,光学滤光片的作用是用来过滤火焰对其后物体的遮挡,使得救援人员能较为清楚地看见火焰后的场景,便于进行后续处理。将窄光谱照明和目标检测算法相结合,在火灾救援想要尽快识别火焰背后的物体或人时,可以过滤火焰的遮挡,同时自动识别出火焰后的物体或人,且框出物体或人大致的位置,这样大大提高了救援的效率,同时增加了识别的准确度、可靠性。
本发明通过自动检测火焰背后的目标,在实际火灾救援中救援人员无需要花时间判断火焰后的物体具体是什么以及有多少,而是自动进行分析识别,有效地提高了救援效率。
此外,本发明中使用的光源为410纳米的紫光,可以使用其他波长的光源进行替代。
优选的,该光源具有窄光束角,将灯放置在远离火的位置。光源被放置在与目标大致相同的高度,距离目标3.5米,并略微偏移距中心线约0.75米,以消除可能在图像中造成不必要亮点的镜面反射。
进一步地,上述实施例中的所述步骤S108可以具体执行为如下的流程步骤,包括:
根据拟合分析结果将所述火灾现场图像信息转换为带有标示的所述救援图像信息;
将所述救援图像信息进行实时显示;
其中,对所述救援图像信息的标示包括对所述特定目标及其定位进行标注。
在本实施例中,将所述火灾现场图像信息输入至识别及定位模型对其进行拟合分析,从而获得救援图像信息,其中获得的救援图像信息带有对特定目标进行标注的标示记号,以便于搜救人员有针对性地进行救援。在一个具体的实施例中,特定目标可以设定为人员,则救援图像中会讲过人员进行标注显示,其标注显示的方法可以为在救援图像信息中,将人员的轮廓采用方框标示显示,并且进行高亮显示,以便于更好的找寻到待搜救的人员。优选的,人员在进行标注时,可以对其数量也进行备注,使得派出相应数量的救援人员。
此外,将所述救援图像信息进行实时显示可显示在显示器上,或实时发送至救援人员的移动通讯设备中。
在本发明的一个实施例中,优选地,所述特定目标包括人、动物和物体中的一种或多种;和/或所述救援图像信息包括位置信息、数量信息和类别信息中的一种或多种。
在本实施例中,特定目标设置为包括人、动物和物体中的一种或多种,所述救援图像信息包括位置信息、数量信息和类别信息中的一种或多种,并且特定目标和救援图像信息中的位置信息、数量信息和类别信息可相互组合。
如图4所示,为本发明的一个具体实施例:
首先,在火灾现场,通过410纳米的紫色LED光源打光,然后使用Basler工业相机对所需救援的地方进行拍摄,其中相机前加装了光学滤光片,光学滤光片的作用是用来过滤火焰对其后物体的遮挡,使得救援人员能较为清楚地看见火焰后的场景。相机与计算机相连接,之后拍摄的视频或图像将传入计算机中,进行后续处理。在接收到当前拍摄的视频或图像后,将接收到的视频或图像放入已经训练好的YOLO算法中,然后火焰后的物体或人的轮廓会被方框标示,并显示具体类别和数量,实时地展示在电脑屏幕上,其中,自动识别部分包括以下具体步骤:
(1)获取多种类别的目标图像的拍摄图像;
(2)对目标图像进行预处理,并将预处理后的目标图像分为训练集和验证集;
(3)建立目标检测网络,所述目标检测网络用于提取目标图像的特征图,将特征图进行融合得到融合特征图,并根据融合特征图进行模型训练;
(4)将训练集的目标图像输入到目标检测网络中进行训练,获得训练好的目标检测模型;
(5)将验证集的目标图像输入到训练好的目标检测模型中进行验证,获得多个类别检测目标识别模型;
(6)将相机的拍摄图像输入多个类别检测目标识别模型,获得检测结果。
本发明将窄光谱照明和目标检测算法相结合,在火灾救援想要尽快识别火焰背后的物体或人时,可以过滤火焰的遮挡,同时自动识别出火焰后的物体或人,且框出物体或人大致的位置,这样大大提高了救援的效率,同时增加了识别的准确度、可靠性。
如图5所示为本发明提供的基于神经网络算法对火灾中的人物进行识别和定位处理过程示意图,1为被火焰遮挡的待营救人员,2为火焰,3为相机+410nm滤光片,4为光源(410nm LED灯),5为处理器。
如图6所示,根据本发明的第二方面,提出了一种计算机设备40,所述计算机设备包括处理器404,所述处理器404用于执行存储器402中存储的计算机程序时实现如上述第一方面的技术方案中任一项所述的基于紫外成像和图像识别的火灾援救方法的步骤。
根据本公开实施例的第三方面,提出了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上述第一方面的技术方案中任一项所述的基于紫外成像和图像识别的火灾援救方法的步骤。
本发明公开实施例的基于图像识别的火灾援救方法中的步骤可以根据实际需要进行顺序调整、合并和删减。
本发明公开实施例的计算机设备中的单元可以根据实际需要进行合并、划分和删减。
本领域内的技术人员应明白,本发明的实施例可提供为方法、设备(系统)或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变形或修改,这并不影响本发明的实质内容。
Claims (10)
1.一种基于紫外成像和图像识别的火灾救援方法,其特征在于,所述火灾援救方法包括:
基于火灾场景的紫外成像数据库进行神经网络模型训练,以获得识别及定位模型,将所述模型部署至边缘计算模块或云服务器;
在接收到图像采集指令后,对火灾现场进行图像采集,以生成火灾现场图像信息;
将所述火灾现场图像信息传输至所述边缘计算模块或所述云服务器,通过所述识别及定位模型对所述火灾现场图像信息进行拟合分析;
根据拟合分析结果将所述火灾现场图像信息转换为包含特定目标及其定位救援图像信息。
2.根据权利要求1所述的基于紫外成像和图像识别的火灾援救方法,其特征在于,所述基于火灾场景的紫外成像数据库进行神经网络模型训练的步骤包括:
将火灾数据图像样本按照样本中目标图像的种类进行分类处理,生成多种类别的分类图像样本;
建立目标检测网络,通过所述目标检测网络提取所述分类图像样本的特征图,将所述特征图进行融合得到融合特征图,根据融合特征图进行模型训练。
3.根据权利要求2所述的基于紫外成像和图像识别的火灾援救方法,其特征在于,在所述生成多种类别的分类图像样本的步骤与所述建立目标检测网络的步骤之间,还包括:
对各种所述分类图像样本进行预处理,并将预处理后的各种所述分类图像样本标引为训练集或验证集。
4.根据权利要求3所述的基于紫外成像和图像识别的火灾援救方法,其特征在于,所述火灾援救方法还包括:
将所述训练集中的所述分类图像样本输入到所述目标检测网络中进行训练,获得训练后的目标检测模型;
将所述验证集中的所述分类图像样本输入到所述目标检测模型中进行验证,获取识别及定位模型。
5.根据权利要求4所述的基于紫外成像和图像识别的火灾援救方法,其特征在于,
根据多种类别的所述分类图像样本可获取多个对应类别的所述识别及定位模型。
6.根据权利要求1至5中任一项所述的基于紫外成像和图像识别的火灾援救方法,其特征在于,所述在接收到图像采集指令后,对火灾现场进行图像采集,以生成火灾现场图像信息的步骤包括:
在接收到所示图像采集指令后,通过410nm紫外打光及在相机前添加410nm滤光片,对火焰形成透视,以透过火焰对火焰中以及被火焰遮挡的场景进行清晰的成像,并生成所述火灾现场图像信息。
7.根据权利要求1至5中任一项所述的基于紫外成像和图像识别的火灾援救方法,其特征在于,所述根据拟合分析结果将所述火灾现场图像信息转换为包含特定目标及其定位的救援图像信息的步骤包括:
根据拟合分析结果将所述火灾现场图像信息转换为带有标示的所述救援图像信息;
将所述救援图像信息进行实时显示;
其中,对所述救援图像信息的标示包括对所述特定目标及其定位进行标注。
8.根据权利要求1至5中任一项所述的基于紫外成像和图像识别的火灾援救方法,其特征在于,
所述特定目标包括人、动物和物体中的一种或多种;和/或
所述救援图像信息包括位置信息、数量信息和类别信息中的一种或多种。
9.一种计算机设备,其特征在于,所述计算机设备包括处理器,所述处理器用于执行存储器中存储的计算机程序时实现如权利要求1至8中任一项所述基于紫外成像和图像识别的火灾援救方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至8中任一项所述基于紫外成像和图像识别的火灾援救方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110795531.4A CN113298193A (zh) | 2021-07-14 | 2021-07-14 | 基于紫外成像和图像识别的火灾援救方法、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110795531.4A CN113298193A (zh) | 2021-07-14 | 2021-07-14 | 基于紫外成像和图像识别的火灾援救方法、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113298193A true CN113298193A (zh) | 2021-08-24 |
Family
ID=77330920
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110795531.4A Pending CN113298193A (zh) | 2021-07-14 | 2021-07-14 | 基于紫外成像和图像识别的火灾援救方法、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113298193A (zh) |
-
2021
- 2021-07-14 CN CN202110795531.4A patent/CN113298193A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111259892B (zh) | 一种指示灯状态的巡检方法、装置、设备和介质 | |
CN108319926A (zh) | 一种工地现场的安全帽佩戴检测系统及检测方法 | |
CN110390265A (zh) | 一种无人机巡检的识别检测方法及系统 | |
CN110160583A (zh) | 一种文物监测装置、文物环境状态监测系统及存储箱 | |
CN110223284B (zh) | 一种基于智能终端的针孔摄像头的探测方法及探测装置 | |
JP6790160B2 (ja) | インテリジェントマシンのネットワーク | |
CN112396658A (zh) | 一种基于视频的室内人员定位方法及定位系统 | |
CN111339997A (zh) | 火点区域的确定方法及装置、存储介质和电子装置 | |
CN108830276A (zh) | 一种基于x光机图像的智能识别系统 | |
US20190096066A1 (en) | System and Method for Segmenting Out Multiple Body Parts | |
CN115170792B (zh) | 红外图像处理方法、装置及设备、存储介质 | |
CN109389040B (zh) | 一种作业现场人员安全着装的检查方法及装置 | |
CN112149690A (zh) | 一种基于生物图像特征识别的溯源方法和溯源系统 | |
CN111325133A (zh) | 一种基于人工智能识别的影像处理系统 | |
CN111062350B (zh) | 基于人工智能烟火识别算法 | |
Mahdi et al. | Analysis of Deep Learning Methods for Early Wildfire Detection Systems | |
CN112861676B (zh) | 一种烟火识别标记方法、系统、终端及存储介质 | |
CN112906441A (zh) | 用于通信行业查勘维护的图像识别系统及方法 | |
CN113627321A (zh) | 基于人工智能的图像识别方法、装置及计算机设备 | |
CN113298193A (zh) | 基于紫外成像和图像识别的火灾援救方法、设备及介质 | |
CN111612815A (zh) | 一种红外热成像行为意图分析方法及系统 | |
CN113052125A (zh) | 一种施工现场违章图像识别告警方法 | |
CN108388858B (zh) | 虹膜防伪方法与装置 | |
CN110717508B (zh) | 治具确定方法、确定设备、终端设备及存储介质 | |
CN114494103A (zh) | 缺陷检测方法及检测装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |