CN113255797A - 一种基于深度学习模型的危险品检测方法和系统 - Google Patents
一种基于深度学习模型的危险品检测方法和系统 Download PDFInfo
- Publication number
- CN113255797A CN113255797A CN202110613624.0A CN202110613624A CN113255797A CN 113255797 A CN113255797 A CN 113255797A CN 202110613624 A CN202110613624 A CN 202110613624A CN 113255797 A CN113255797 A CN 113255797A
- Authority
- CN
- China
- Prior art keywords
- images
- image
- model
- fusion
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 77
- 238000013136 deep learning model Methods 0.000 title claims abstract description 21
- 230000004927 fusion Effects 0.000 claims abstract description 45
- 230000003287 optical effect Effects 0.000 claims abstract description 41
- 238000012549 training Methods 0.000 claims abstract description 30
- 230000001502 supplementing effect Effects 0.000 claims abstract description 6
- 238000005286 illumination Methods 0.000 claims description 38
- 238000000034 method Methods 0.000 claims description 32
- 230000003044 adaptive effect Effects 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 9
- 238000007781 pre-processing Methods 0.000 claims description 7
- 230000008859 change Effects 0.000 claims description 5
- 230000007423 decrease Effects 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 description 10
- 230000000694 effects Effects 0.000 description 9
- 238000010276 construction Methods 0.000 description 6
- 230000007547 defect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 101100441251 Arabidopsis thaliana CSP2 gene Proteins 0.000 description 1
- 239000004566 building material Substances 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明属于危险品检测技术领域,涉及一种基于深度学习模型的危险品检测方法和系统:通过光学镜头和红外镜头同时进行图像采集,并将光学图像和红外图像融合获得融合图像;对融合图像进行标定,并给出对应的标签;根据标签设定模型初始参数,并采用标定后的融合图像对模型进行预训练;对经过训练的模型进行验证,统计检测错误的融合图像,根据其特征对图像进行补充,并采用融合图像和补充后的图像对模型进行二次训练,获得最佳检测模型;将实际场景中光学镜头和红外镜头采集的图像进行融合,随后输入最佳检测模型获得危险品检测结果。其通过将红外镜头和光学镜头相结合,解决了光线较暗时无法捕捉图像的问题,实现了全天候目标检测。
Description
技术领域
本发明涉及一种基于深度学习模型的危险品检测方法和系统,属于智能检测技术领域,特别涉及危险品智能检测技术领域。
背景技术
目前,基于深度学习的目标检测算法大致可以分为两种:第一种是两阶段(two-stage)算法:先产生候选区域,然后再进行CNN或RCNN分类;第二种是单阶段(one-stage)算法:直接对输入图像应用算法并输出类别和相应的定位。YOLO(You Only Look Once)模型是继RCNN、Fast-RCNN和Faster-RCNN之后,Ross Girshick针对深度学习目标检测速度问题提出的另外一种目标检测算法模型。
YOLO模型将目标检测问题转换为一个回归问题,直接预测出预测框(BoundingBox)和相关的类别信息。起初YOLO-V0提出了将独热编码转化为带有检测区域的坐标信息和置信度的一个编码信息,本质上是运用了矩阵映射的原理,实现了直接返回预测框的效果,不足之处是只能完成单个目标的预测。为了实现多个目标的检测功能,产生了YOLO-V1,其通过端到端的训练,仅使用一个模型、一个目标函数就能够实现目标检测的目的,规避了多模块模型固有的缺陷,而且还减少了工程的复杂度。其不需要单独的搜索候选区域,也不需要单独的分类,因此其检测速度特别快,可以达到45fps,而FastYOLO检测速度可以达到155fps。YOLO模型对背景的识别效果较好,且有一定的迁移性,YOLO-V1模型最大的问题是对小目标的检测不准确。
YOLO-V2模型在YOLO-V1模型的基础上,去掉了全连接层,并在每一个卷积层后边都添加了一个批量归一化层(Batch Normalization,BN),并且对每一批数据都做了归一化的预处理,这两个改变进一步提升了算法的速度。
YOLO-V3模型在网络上采用的是Darknet-53结构,在YOLO-V2模型的基础上,每隔两层增加了一个残差网络(Residual Networks),即捷径层(Short Cut),使用这种方法在训练很深层的网络时,能够解决梯度消失或者梯度爆炸的问题。
YOLO-V4模型实现了单GPU训练得到快速准确的目标检测,集成了目前主流网络的大多优点,提高了小目标物体的预测精度。YOLO-V5模型相对于YOLO-V4模型,在数据处理上进行了更新,采用了自适应锚定框计算等方法,进一步提高了模型预测的准确度,而且增加了小目标的数据量,弥补了之前YOLO模型在小目标检测上的不足,并且又提高了在重叠情况下的物体识别的准确度,而且在模型结构上又进一步缩小,在预测效率上有了一定的提升。
YOLO-V5模型是基于光学镜头实现的目标检测,在光线较暗的地方或者光线不充足的夜晚无法实现原有的对目标检测的功能。导致这种现象的根本原因是光学镜头不能在光线较弱或者无光的情况下完成图像的拍摄。红外摄像头采集到的图片是单通道的图像信息,不能直接作为输入信息应用于YOLO-V5模型上,若将单通道图像转化为三通道图像,应用于识别模型上,预测的精确度也不是很理想。
发明内容
针对上述问题,本发明的目的是提供了一种基于深度学习模型的危险品检测方法和系统,其通过将红外镜头和光学镜头相结合,解决了在光线较暗的条件下,光学镜头无法捕捉图像的问题,实现了YOLO模型全天候的目标检测。
为实现上述目的,本发明采取以下技术方案:一种基于深度学习模型的危险品检测方法,包括以下步骤:S1通过光学镜头和红外镜头同时进行图像采集,并将光学图像和红外图像融合获得融合图像;S2对融合图像进行标定,并给出对应的标签;S3根据标签设定模型初始参数,并采用标定后的融合图像对模型进行预训练;S4对经过训练的模型进行验证,统计检测错误的融合图像,根据其特征对图像进行补充,并采用融合图像和补充后的图像对模型进行二次训练,获得最佳检测模型;S5将实际场景中光学镜头和红外镜头采集的图像进行融合,随后输入最佳检测模型获得危险品检测结果。
进一步,步骤S1中光学图像和红外图像融合的方法为:S1.1判断光照强度,并根据光照强度获得加权因子α随光照强度变化曲线;S1.2通过光学镜头进行图像获得原始RGB图像,通过红外镜头获得红外图像;S1.3对原始RGB图像中各通道的像素乘以(1-α),对红外图像的像素乘以α,从而获得最终的融合图像。
进一步,加权因子α随光照强度变化曲线分为三个部分,当光照强和光照弱时,加权因子均为设定值,光照弱时的加权因子大于光照强时的加权因子;光照适中时,加权因子随光照强度线性变化,且加权因子α随光照强度增加而降低。
进一步,步骤S1中还包括对光学镜头和红外镜头采集到的图像进行预处理,预处理过程包括自适应锚框计算、马赛克数据增强和自适应图片缩放。
进一步,自适应锚框计算的方法为:根据图像设定初始锚框,在网络训练中,根据初始锚框输出预测框,将预测框和图像中真实框定的区域进行比对,计算两者差距,根据差异对初始锚框的参数进行更新,并更新网络参数,直至获得的预测框和图像中真实框定的区域吻合。
进一步,马赛克数据增强的方法为:在若干图像中,从每个图像各选出一个不重复的部分,将图像选出的部分进行组合,生成新的图像。
进一步,自适应图片缩放将长a宽b的长方形图像缩放为一边长为m的正方形,b边需要填充的像素长度p为:
p=mod(P,2γ)÷2
其中,P为原始长和宽乘以缩放系数后的差值,γ为下采样的次数,mod为取余运算。
进一步,模型为YOLO-V5模型,包括依次连接的输入端、主干子模块、Neck子模块和预测子模块。
进一步,主干子模块包括了Focus结构和跨阶段局部网络结构,Focus结构将特征图进行分割,通过跨像素点裁剪提取将一张特征图转化为若干张有效的特征图。
本发明还公开了一种基于深度学习模型的危险品检测系统,包括:融合模块,用于通过光学镜头和红外镜头同时进行图像采集,并将光学图像和红外图像融合获得融合图像;标定模块,用于对融合图像进行标定,并给出对应的标签;预训练模块,用于根据标签设定模型初始参数,并采用标定后的融合图像对模型进行预训练;二次训练模块,用于对经过训练的模型进行验证,统计检测错误的融合图像,根据其特征对图像进行补充,并采用融合图像和补充后的图像对模型进行二次训练,获得最佳检测模型;检测模块,用于将实际场景中光学镜头和红外镜头采集的图像进行融合,随后输入最佳检测模型获得危险品检测结果。
本发明由于采取以上技术方案,其具有以下优点:
1、本发明能够实现全天候监控,通过光学镜头与红外镜头采集图像的结合,实现了对于危险品的24小时检测功能,使YOLO模型的目标检测功能不再仅限于白天的使用,拓宽了YOLO模型实用范围,鲁棒性也得到了进一步提升。
2、模型识别准确率的提升,对于光线较暗的场景,传统YOLO模型有时会错误的识别目标或者识别不到待检测目标,红外图像信息的加入正好弥补了这一缺陷,进一步提高了模型在光线较暗和无光条件线下的检测效果。
3、模型的预测框框选位置更加精确,因为红外图像是单一颜色的图像,在一定程度上加大了目标在图像中的轮廓信息,减少了物体表面的装饰纹理的干扰,达到了一定的数据增强的效果,降低了一些由于光照的明暗强度所带来的干扰,由此模型可以更加精确的捕获到目标的准确位置。
附图说明
图1是本发明一实施例中基于深度学习模型的危险品检测方法的流程图;
图2是本发明一实施例中光学图像和红外图像融合方法的流程图;
图3是本发明一实施例中加权因子α随光照强度变化曲线图;
图4是本发明一实施例中YOLO-V5模型的结构示意图;
图5是本发明一实施例中马赛克增强方法的示意图;
图6是本发明一实施例中自适应图片缩放方法的示意图;
图7是本发明一实施例中Focus结构处理过程的示意图;
图8是本发明一实施例中YOLO-V5模型训练方法的流程图。
具体实施方式
为了使本领域技术人员更好的理解本发明的技术方向,通过具体实施例对本发明进行详细的描绘。然而应当理解,具体实施方式的提供仅为了更好地理解本发明,它们不应该理解成对本发明的限制。在本发明的描述中,需要理解的是,所用到的术语仅仅是用于描述的目的,而不能理解为指示或暗示相对重要性。
建筑施工现场安全问题广泛受到国家与社会的重视,其中化学材料的储存与安置是施工现场需要关注的重点工作。但由于摄像头多为光学镜头,在光线昏暗时,无法很好的对图像进行捕捉,无法实现全天候全场地的安全监督,导致施工现场安全隐患不能及时的发现,从而造成更加严重的人员伤亡和经济财产的损失。本发明提出了一种基于深度学习模型的危险品检测方法和系统,基于不同施工场地的需求,在易发生安全隐患的区域安置光学镜头和红外镜头,通过对视频区域中目标物体的检测,当特殊场所出现安全隐患的危险品时做出及时的预警提示,第一时间通知相关人员进行相应的处理,从而达到降低施工现场危险发生的效果。本发明的深度学习模型是基于YOLO-V5模型进行的改进,将红外图像与光学图像加权融合,改变了传统的仅由RGB三通道数据输入训练的方式,实现了基于光学镜头和红外镜头的全天候检测功能,提高了目标识别的准确度和预测框框选范围的精确度。下面结合附图,通过两个实施例对本发明的技术方案进行详细说明。
实施例一
本实施例公开了一种基于深度学习模型的危险品检测方法,如图1所示,包括以下步骤:
S1在红外光源照射下,通过光学镜头和红外镜头同时进行图像采集,并将光学图像和红外图像融合获得融合图像。
本步骤中首先需要确定检测目标的数量与种类。根据施工现场用到的化学材料、建筑材料和其他材料等用料信息,确定具体的需要检测的目标。统计需要检测的物品种类数量。确定使用的图像采集设备。根据检测目标与检测仪器的远近程度,确定摄像头拍摄图像的清晰成图,摄像头的清晰程度越高,检测小目标物体时的效果越好。储存分类采集图像。将不同类别的待检测目标的图像分别储存与不同的文件下,以便后续数据预处理程序的操作使用。
光学图像和红外图像融合的方法,如图2所示,包括以下步骤:
S1.1判断光照强度,并根据光照强度获得加权因子α随光照强度变化曲线,如图3所示,加权因子α随光照强度变化曲线分为三个部分,当光照强和光照弱时,加权因子均为设定值,光照弱时的加权因子大于光照强时的加权因子,优选当光照强度很弱,即光照强度小于等于5×102lx时,加权因子α=0.9,当光线强度很强,即光照强度大于等于3×104lx时,加权因子α=0.1;当加权因子0.1<α<0.9,即光照强度小于3×104lx,且光照强度大于5×102lx,属于光照适中的范围。光照适中时,加权因子随光照强度线性变化,且加权因子α随光照强度增加而降低,满足的直线方程为:0.8x+29500y=26950,x∈(500,30000)。其中,lx是光照强度单位勒克斯的简写。本实施例中优选采用光敏来对光照强度进行检测,光敏电阻,又称光电阻、光导体、光导管,是利用光电导效应的一种特殊的电阻,它的电阻和入射光的强弱有直接关系。光强度增加,则电阻减小;光强度减小,则电阻增大。此处光敏电阻只是一种优选的获得光强度的方法,其他本领域中常规的获得光强度的方法也可以用于本实施例中。
S1.2通过光学镜头进行图像获得原始RGB图像,通过红外镜头获得红外图像。
S1.3对原始RGB图像中各通道的像素乘以(1-α),对红外图像的像素乘以α,从而获得最终的融合图像,即图像融合的融合公式为:
R'=(1-α)·R+α·Y
G'=(1-α)·G+α·Y
B'=(1-α)·B+α·Y
其中,R、G、B是原始RGB图像红、绿、蓝三个通道对应的像素值,Y代表红外单通道的像素值,R’、G’、B’是融合图像红、绿、蓝三个通道对应的像素值。
S2对融合图像进行标定,并给出对应的标签。
在GitHub官方网站上下载并安装LabelImg标签工具。配置标签工具使用的环境。对图像进行预处理,并进行数据保存。选择处理后的图像,对检测目标进行图像的框选,并将标签信息保存到与图像信息对应的文件。
S3根据标签设定模型初始参数,并采用标定后的融合图像对模型进行预训练。
模型为YOLO-V5模型,如图4所示,包括依次连接的输入端、主干子模块、Neck子模块和预测子模块。
输入端对光学镜头和红外镜头采集到的图像进行预处理,预处理过程包括自适应锚框计算、马赛克数据增强和自适应图片缩放。
自适应锚框计算的方法为:根据图像设定初始锚框,在网络训练中,根据初始锚框输出预测框,将预测框和图像中真实框定的区域进行比对,计算两者差距,根据差异对初始锚框的参数进行更新,并更新网络参数,直至获得的预测框和图像中真实框定的区域吻合。
马赛克数据增强的方法,如图5所示,包括以下步骤:在若干图像中,从每个图像各选出一个不重复的部分,将图像选出的部分进行组合,生成新的图像。如图5所示,针对同一对象选取四张图像,从每一张图像中裁剪一个区域,每张图像裁剪出的区域不同,且各区域不重叠,且各个区域组合起来可以组成一个完整的图像,将各剪切出的区域进行组合,形成了一个新的图像。其有效解决了训练小目标对象时的问题,提高了模型在检测不同尺寸大小目标时的精确度。
在通常的目标检测算法中,由于图片大小不同,故需要先将原始图像统一缩放到一个标准尺寸,在输入模型中进行训练、计算。但由于各图像的长宽比不同,缩放填充后,图像中黑边的大小不同,如果填充的比较多,则存在信息冗余的问题,增大模型的计算量,影响模型的检测速度。如图6所示,本实施例中YOLO-V5模型在letterbox函数的基础上进行了修改,相比现有的自适应缩放方法,增加的黑边比较少,从而减少了模型的计算量,大幅度提升了目标检测速度。
本实施例中的自适应图片缩放方法为:将长a宽b的长方形图像缩放为一边长为m的正方形,首先确定缩放比例:
m÷a=β,m÷b=ε
其中,β为长度方向的缩放比例,γ为宽度方向的缩放比例。随后确定缩放系数δ,缩放系数δ=min(β,ε),原始长和宽乘以缩放系数后得:
a1=a·δ,b1=b·δ
由于,a>b,故β<ε,故β=δ,a1=m。原始长和宽乘以缩放系数后的差值P=m-b1=a1-b1。
b边需要填充的像素长度p为:
p=mod(P,2γ)÷2
其中,γ为下采样的次数,mod为取余运算。
主干子模块(Backbone)包括了Focus结构和跨阶段局部网络结构(CSP),Focus结构将特征图进行分割,通过跨像素点裁剪提取将一张特征图转化为若干张有效的特征图,如图7所示,达到了筛选和提升训练数据鲁棒性的效果。跨阶段局部网络结构类似于DenseNet网络,能够加强CNN的学习能力、减少计算瓶颈和内存消耗,很大程度上减少了资源开支。
Neck子模块位于主干子模块和预测子模块之间,预测子模块用于获取模型输出内容,利用提取的图像特征,对图像进行预测。为了更好的利用主干子模块特征提取功能,YOLO-V5模型的Neck子模块采用CSP2结构,加强网络特征融合的能力。
模型的损失函数采用GIOU Loss,以提高重叠目标识别率。
S4对经过训练的模型进行验证,统计检测错误的融合图像,根据其特征对图像进行补充,并采用融合图像和补充后的图像对模型进行二次训练,获得最佳检测模型。
本实施例中YOLO-V5模型的训练过程如图8所示,即先将融合后的图像输入模型进行预训练,通过从采集图像中分出的预测集对预训练结果进行验证,若验证结果比较好则跳过本步骤直接进入步骤S5,如果验证效果不好,或者对某一类图像不太好,则统计检测错误的融合图像,根据其特征对图像进行补充,并采用融合图像和补充后的图像对模型进行二次训练,获得最佳检测模型。
S5将实际场景中光学镜头和红外镜头采集的图像进行融合,随后输入最佳检测模型获得危险品检测结果。
根据实际需要,可以在检测到危险品时,进行报警,或通知维修人员,或通过屏幕进行显示,或自动停止相应功能。
若有新的需要检测的目标,则需要重新重复步骤S1-S5,以对模型进行更新。
实施例二
基于相同的发明构思,本实施例公开了一种基于深度学习模型的危险品检测系统,包括:
融合模块,用于通过光学镜头和红外镜头同时进行图像采集,并将光学图像和红外图像融合获得融合图像;
标定模块,用于对融合图像进行标定,并给出对应的标签;
预训练模块,用于根据标签设定模型初始参数,并采用标定后的融合图像对模型进行预训练;
二次训练模块,用于对经过训练的模型进行验证,统计检测错误的融合图像,根据其特征对图像进行补充,并采用融合图像和补充后的图像对模型进行二次训练,获得最佳检测模型;检测模块,用于将实际场景中光学镜头和红外镜头采集的图像进行融合,随后输入最佳检测模型获得危险品检测结果。
最后应当说明的是:以上实施例仅用以说明本发明的技术方案而非对其限制,尽管参照上述实施例对本发明进行了详细的说明,所属领域的普通技术人员应当理解:依然可以对本发明的具体实施方式进行修改或者等同替换,而未脱离本发明精神和范围的任何修改或者等同替换,其均应涵盖在本发明的权利要求保护范围之内。上述内容仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围。
Claims (10)
1.一种基于深度学习模型的危险品检测方法,其特征在于,包括以下步骤:
S1通过光学镜头和红外镜头同时进行图像采集,并将光学图像和红外图像融合获得融合图像;
S2对所述融合图像进行标定,并给出对应的标签;
S3根据所述标签设定模型初始参数,并采用标定后的融合图像对所述模型进行预训练;
S4对经过训练的模型进行验证,统计检测错误的融合图像,根据其特征对图像进行补充,并采用融合图像和补充后的图像对所述模型进行二次训练,获得最佳检测模型;
S5将实际场景中光学镜头和红外镜头采集的图像进行融合,随后输入所述最佳检测模型获得危险品检测结果。
2.如权利要求1所述的基于深度学习模型的危险品检测方法,其特征在于,所述步骤S1中光学图像和红外图像融合的方法为:
S1.1判断光照强度,并根据所述光照强度获得加权因子α随光照强度变化曲线;
S1.2通过光学镜头进行图像获得原始RGB图像,通过红外镜头获得红外图像;
S1.3对所述原始RGB图像中各通道的像素乘以(1-α),对所述红外图像的像素乘以α,从而获得最终的融合图像。
3.如权利要求2所述的基于深度学习模型的危险品检测方法,其特征在于,所述加权因子α随光照强度变化曲线分为三个部分,当光照强和光照弱时,所述加权因子均为设定值,光照弱时的加权因子大于光照强时的加权因子;光照适中时,所述加权因子随光照强度线性变化,且所述加权因子α随光照强度增加而降低。
4.如权利要求1-3任一项所述的基于深度学习模型的危险品检测方法,其特征在于,所述模型为YOLO-V5模型,包括依次连接的输入端、主干子模块、Neck子模块和预测子模块。
5.如权利要求4所述的基于深度学习模型的危险品检测方法,其特征在于,所述输入端对光学镜头和红外镜头采集到的图像进行预处理,所述预处理过程包括自适应锚框计算、马赛克数据增强和自适应图片缩放。
6.如权利要求5所述的基于深度学习模型的危险品检测方法,其特征在于,所述自适应锚框计算的方法为:根据图像设定初始锚框,在网络训练中,根据初始锚框输出预测框,将所述预测框和图像中真实框定的区域进行比对,计算两者差距,根据所述差异对所述初始锚框的参数进行更新,并更新网络参数,直至获得的预测框和图像中真实框定的区域吻合。
7.如权利要求5所述的基于深度学习模型的危险品检测方法,其特征在于,所述马赛克数据增强的方法为:在若干图像中,从每个图像各选出一个不重复的部分,将图像选出的部分进行组合,生成新的图像。
8.如权利要求5所述的基于深度学习模型的危险品检测方法,其特征在于,所述自适应图片缩放将长a宽b的长方形图像缩放为一边长为m的正方形,b边需要填充的像素长度p为:
p=mod(P,2γ)÷2
其中,P为原始长和宽乘以缩放系数后的差值,γ为下采样的次数,mod为取余运算。
9.如权利要求4所述的基于深度学习模型的危险品检测方法,其特征在于,所述主干子模块包括了Focus结构和跨阶段局部网络结构,所述Focus结构将特征图进行分割,通过跨像素点裁剪提取将一张特征图转化为若干张有效的特征图。
10.一种基于深度学习模型的危险品检测系统,其特征在于,包括:
融合模块,用于通过光学镜头和红外镜头同时进行图像采集,并将光学图像和红外图像融合获得融合图像;
标定模块,用于对所述融合图像进行标定,并给出对应的标签;
预训练模块,用于根据所述标签设定模型初始参数,并采用标定后的融合图像对所述模型进行预训练;
二次训练模块,用于对经过训练的模型进行验证,统计检测错误的融合图像,根据其特征对图像进行补充,并采用融合图像和补充后的图像对所述模型进行二次训练,获得最佳检测模型;
检测模块,用于将实际场景中光学镜头和红外镜头采集的图像进行融合,随后输入所述最佳检测模型获得危险品检测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110613624.0A CN113255797B (zh) | 2021-06-02 | 2021-06-02 | 一种基于深度学习模型的危险品检测方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110613624.0A CN113255797B (zh) | 2021-06-02 | 2021-06-02 | 一种基于深度学习模型的危险品检测方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113255797A true CN113255797A (zh) | 2021-08-13 |
CN113255797B CN113255797B (zh) | 2024-04-05 |
Family
ID=77185980
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110613624.0A Active CN113255797B (zh) | 2021-06-02 | 2021-06-02 | 一种基于深度学习模型的危险品检测方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113255797B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114202643A (zh) * | 2021-11-03 | 2022-03-18 | 西安工程大学 | 基于多传感融合的苹果叶部病害识别终端及方法 |
CN115035552A (zh) * | 2022-08-11 | 2022-09-09 | 深圳市爱深盈通信息技术有限公司 | 跌倒检测方法、装置、设备终端和可读存储介质 |
CN115410058A (zh) * | 2022-08-26 | 2022-11-29 | 青岛励图高科信息技术有限公司 | 一种基于深度学习的自动标注方法及系统 |
CN117636241A (zh) * | 2023-11-17 | 2024-03-01 | 北京科技大学 | 基于决策级融合的低光照场景多模态行人检测跟踪方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108875595A (zh) * | 2018-05-29 | 2018-11-23 | 重庆大学 | 一种基于深度学习和多层特征融合的驾驶场景目标检测方法 |
KR102061445B1 (ko) * | 2019-02-22 | 2019-12-31 | 써모아이 주식회사 | 가시광 및 적외선 융합 영상 기반 객체 검출 방법 및 장치 |
AU2020100178A4 (en) * | 2020-02-04 | 2020-03-19 | Huang, Shuying DR | Multiple decision maps based infrared and visible image fusion |
CN111209810A (zh) * | 2018-12-26 | 2020-05-29 | 浙江大学 | 向可见光与红外图像准确实时行人检测的边界框分割监督深度神经网络架构 |
CN111639526A (zh) * | 2020-04-22 | 2020-09-08 | 云南电网有限责任公司昭通供电局 | 一种基于深度学习的输电线路目标检测与监控方法 |
WO2020181685A1 (zh) * | 2019-03-12 | 2020-09-17 | 南京邮电大学 | 一种基于深度学习的车载视频目标检测方法 |
CN111986240A (zh) * | 2020-09-01 | 2020-11-24 | 交通运输部水运科学研究所 | 基于可见光和热成像数据融合的落水人员检测方法及系统 |
CN112258490A (zh) * | 2020-10-30 | 2021-01-22 | 中国人民解放军空军工程大学 | 基于光学和红外图像融合的低发射率涂层智能探损方法 |
-
2021
- 2021-06-02 CN CN202110613624.0A patent/CN113255797B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108875595A (zh) * | 2018-05-29 | 2018-11-23 | 重庆大学 | 一种基于深度学习和多层特征融合的驾驶场景目标检测方法 |
CN111209810A (zh) * | 2018-12-26 | 2020-05-29 | 浙江大学 | 向可见光与红外图像准确实时行人检测的边界框分割监督深度神经网络架构 |
KR102061445B1 (ko) * | 2019-02-22 | 2019-12-31 | 써모아이 주식회사 | 가시광 및 적외선 융합 영상 기반 객체 검출 방법 및 장치 |
WO2020181685A1 (zh) * | 2019-03-12 | 2020-09-17 | 南京邮电大学 | 一种基于深度学习的车载视频目标检测方法 |
AU2020100178A4 (en) * | 2020-02-04 | 2020-03-19 | Huang, Shuying DR | Multiple decision maps based infrared and visible image fusion |
CN111639526A (zh) * | 2020-04-22 | 2020-09-08 | 云南电网有限责任公司昭通供电局 | 一种基于深度学习的输电线路目标检测与监控方法 |
CN111986240A (zh) * | 2020-09-01 | 2020-11-24 | 交通运输部水运科学研究所 | 基于可见光和热成像数据融合的落水人员检测方法及系统 |
CN112258490A (zh) * | 2020-10-30 | 2021-01-22 | 中国人民解放军空军工程大学 | 基于光学和红外图像融合的低发射率涂层智能探损方法 |
Non-Patent Citations (4)
Title |
---|
唐聪;凌永顺;杨华;杨星;同武勤;: "基于深度学习的红外与可见光决策级融合跟踪", 激光与光电子学进展, no. 07 * |
张文利;郭向;杨?;王佳琪;朱清宇;: "面向室内环境控制的人员信息检测系统的设计与实现", 北京工业大学学报, no. 05 * |
李宇琦;赵海涛;: "基于红外和可见光图像逐级自适应融合的场景深度估计", 应用光学, no. 01 * |
李思瑶;刘宇红;张荣芬;: "基于迁移学习与模型融合的犬种识别方法", 智能计算机与应用, no. 06 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114202643A (zh) * | 2021-11-03 | 2022-03-18 | 西安工程大学 | 基于多传感融合的苹果叶部病害识别终端及方法 |
CN115035552A (zh) * | 2022-08-11 | 2022-09-09 | 深圳市爱深盈通信息技术有限公司 | 跌倒检测方法、装置、设备终端和可读存储介质 |
CN115035552B (zh) * | 2022-08-11 | 2023-01-17 | 深圳市爱深盈通信息技术有限公司 | 跌倒检测方法、装置、设备终端和可读存储介质 |
CN115410058A (zh) * | 2022-08-26 | 2022-11-29 | 青岛励图高科信息技术有限公司 | 一种基于深度学习的自动标注方法及系统 |
CN117636241A (zh) * | 2023-11-17 | 2024-03-01 | 北京科技大学 | 基于决策级融合的低光照场景多模态行人检测跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113255797B (zh) | 2024-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113255797B (zh) | 一种基于深度学习模型的危险品检测方法和系统 | |
CN111209810B (zh) | 向可见光与红外图像准确实时行人检测的边界框分割监督深度神经网络架构 | |
CN111444809B (zh) | 一种基于改进YOLOv3的输电线路异常目标检测方法 | |
CN109934153B (zh) | 基于门控深度残差优化网络的建筑物提取方法 | |
CN110263706B (zh) | 一种雾霾天气车载视频动态目标检测和识别的方法 | |
CN104350510B (zh) | 用于将图像的前景对象与背景模型区分开的方法和系统 | |
CN109902633A (zh) | 基于固定位摄像机监控视频的异常事件检测方法及装置 | |
CN110363770B (zh) | 一种边缘引导式红外语义分割模型的训练方法及装置 | |
WO2016113983A1 (ja) | 画像処理装置、画像処理方法、プログラム及びシステム | |
CN106683112A (zh) | 一种基于高分辨率图像的道路路域建筑物变化提取方法 | |
CN114399734A (zh) | 一种基于视觉信息的森林火灾预警方法 | |
CN111582074A (zh) | 一种基于场景深度信息感知的监控视频树叶遮挡检测方法 | |
CN114821484B (zh) | 机场跑道fod图像检测方法、系统和存储介质 | |
Zhang et al. | Application research of YOLO v2 combined with color identification | |
Pawar et al. | Detecting clear sky images | |
CN114445330A (zh) | 一种元器件外观缺陷的检测方法及系统 | |
EP2447912B1 (en) | Method and device for the detection of change in illumination for vision systems | |
Zheng et al. | A lightweight algorithm capable of accurately identifying forest fires from UAV remote sensing imagery | |
CN117078591A (zh) | 道路缺陷实时检测方法、系统、设备及存储介质 | |
CN103903269B (zh) | 球机监控视频的结构化描述方法和系统 | |
Xi et al. | Detection-Driven Exposure-Correction Network for Nighttime Drone-View Object Detection | |
CN115984712A (zh) | 基于多尺度特征的遥感图像小目标检测方法及系统 | |
CN113689399B (zh) | 一种用于电网识别遥感图像处理方法及系统 | |
CN112215122B (zh) | 基于视频图像目标检测的火灾检测方法、系统、终端以及存储介质 | |
CN115100680A (zh) | 一种基于多源图像融合的行人检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |