CN115761618A - 一种重点场所安防监控图像识别方法 - Google Patents
一种重点场所安防监控图像识别方法 Download PDFInfo
- Publication number
- CN115761618A CN115761618A CN202211345861.4A CN202211345861A CN115761618A CN 115761618 A CN115761618 A CN 115761618A CN 202211345861 A CN202211345861 A CN 202211345861A CN 115761618 A CN115761618 A CN 115761618A
- Authority
- CN
- China
- Prior art keywords
- image
- images
- convolution
- image data
- visible light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
Abstract
本发明公开了一种重点场所安防监控图像识别方法,通过应用可见光与红外图像融合技术、深度学习图像识别技术,使得在光照条件差的情况下能更加精准的识别非法闯入人员,确保重点场所的安全。本发明优点如下:1.采用可见光与红外图像融合技术,这两种图像具有天然的互补性,融合后的图像可以同时提供高亮目标信息与高分辨率人体细节信息;2.将人体姿态参数匹配与人脸匹配结果结合,从多维度判断进入重点场所人员是否为无权限、非法闯入。同时将信息传输至安全警报系统,对几种安全情形采取不同的处置措施,更加灵活,减少安保人员的工作量,符合实际情况。
Description
技术领域
本发明涉及图像识别领域,特别涉及一种重点场所安防监控图像识别方法。
背景技术
随着科技的发展和人们生活水平的不断提高,众多的智能产品开始步入千家万户。作为公共场所和个人家居的强力刚需,智能安防产品在各类场景中的使用也越来越普及,智能摄像头、监视器等民用安防产品的需求量正在不断扩大。
针对当前我国信息安全行业、重点场所安防技术手段落后,无权限人员非法进入频繁发生,传统的监控摄像头无法在光照条件较差的拍摄清晰的视频和图像,从而导致无法准确识别进入人员,进行安防监控。在夜间、未开灯时段的重点场所安防容易存在漏洞,无法实时确保人员进出情况,无法及时避免非法闯入、盗窃等情况发生。
对传统监控摄像头无法在光照条件差的情况下,准确识别非法闯入人员的问题。本专利针对这一场景,创新地提出了一种重点场所安防监控图像识别方法,通过应用可见光与红外图像融合技术、深度学习图像识别技术,使得在光照条件差的情况下能更加精准的识别非法闯入人员,确保重点场所的安全。
发明内容
本发明要解决的技术问题是克服现有技术的缺陷,提供一种重点场所安防监控图像识别方法。
本发明提供了如下的技术方案:
本发明提供一种重点场所安防监控图像识别方法,包括以下流程步骤:
S1、采集重点场所安防监控图像,包括可见光图像与红外图像,对样本图像进行规范化处理:
1)使用重点场所安防监控摄像头拍摄的图片中,获取相同时间与位置拍摄的可见光图像与红外图像,对图像进行分选,选取无人物的可见光图像与红外图像、有人物的可见光图像与红外图像,图像数量比例为1:1;
2)对图像进行调整,将图像置于256x256的画布中央,保持图像几何中心点与画布几何中心点重合,将图像像素大小按比例缩小,当图像缩小后较窄的一条边与画布边缘重合,则停止缩小,将超出画布的部分剪裁,仅保留与画布重合的部分,得到256x256的图像样本;
3)将尺寸调整后的图像样本进行保存,制作成样本图像数据集;
S2、搭建可见光与红外图像的融合模型,将两种图像进行融合,得到融合样本图像数据集:
1)对样本图像数据集进行预处理,采用中值滤波算法对样本图样数据集中的可见光图像与红外图像进行图像去噪,再将处理后的样本图像采用自适应直方图均衡化的方式进行图像增强,再采用双线性插值算法对红外图像插值,使得原始具有较低分辨率的红外图像数据再生出具有较高分辨率的图像数据,以匹配可见光图像的像素,得到预处理后的样本图像数据集;
2)对预处理后的样本图像数据集进行配准,图像配准是对同一目标的两幅及以上的图像在空间位置的对准,首先选择将可见光图像作为参考图像,将红外图像作为变换的目标图像,选取图像的空间变换模型;设置初始变换参数的初始搜索点,用初始点算出空间变换模型然后对红外图像进行几何变换;然后对变换的图像进行灰度插值,判断相似性测度函数是否达到最大值,如没有则进入下一步骤优化;利用搜素优化算法,进行搜索优化,求得相似性测度函数达到最大时的最佳配准参数;利用得到的参数在对变换后的红外图像再进行最后一次灰度插值输出配准后图像进行空间变换,最终进行灰度插值得到配准后图像;
3)搭建可见光与红外图像的融合模型,构建的红外与可见光图像融合网络包含输入编码网络、中间特征融合层、输出解码网络三部分,编码网络采用孪生结构,由两个包含相同数目卷积层与结构的分支组成;因为卷积核的尺寸设置为3*3,所以可以输入任意大小尺寸的图片,卷积步长设置为1,使用Swish激活函数;中间特征融合层采用基于L1范数的方法进行通道压缩,并根据区域能量特征对压缩后的源图像特征进行融合,融合后的特征图输入到解码网络重构出融合后的图像;解码网络包含四个卷积层,卷积核数量按照重构过程逐渐减少,卷积核的尺寸设置为3*3,卷积步长设置为1,同样使用Swish激活函数;
4)将配准后的红外图像与可见光图像分别输入到编码网络中,经过采用密集连接的卷积神经网络对各自图像进行特征提取得到多通道特征图,利用中间特征层融合获取到的多通道特征图,融合后的特征图经过解码网络的图像解码重构,从而还原出红外与可见光融合图像,得到融合样本图像数据集;
S3、对融合图像进行分类,分为包含行人姿态内容的图像与包含人脸内容的图像,对图像进行标注:
1)对经过融合模型处理完成的可见光与红外融合图像进行分类,按照图像中包含的人物内容进行划分,分为行人姿态内容图像与人脸内容图像两个类别;
2)采用VIA-VGGImageAnnotator对分类后的图像进行进行矩形框标注,对图像中出现的行人、人脸进行框选标注,得到标注完成的行人姿态内容图像数据集、人脸内容图像数据集;
S4、搭建行人姿态识别模型,将行人姿态内容图像数据集中的图像数据集输入模型中进行训练,建立人体姿态参数,与安全数据库中保存的安全人员姿态数据进行比对,输出识别结果:
1)搭建GhostNet基础网框架并进行优化,为了缩减网络参数量并提高网络运算效率,去掉了原GhostNet网络中的注意力模块,使用全局平均池化和1×1卷积层替换全连接层,得到行人姿态识别模型;
2)将行人姿态内容图像数据集中的图像数据输入模型中进行训练,在图像中建立像素坐标系,对人体测量的关键点进行定位,并获取特征点的坐标值;通过提取到的关键点数据,对人体各部位进行模型构建进行计算,包含了颈围、总肩宽、臂围、胸围、中腰围、裤腰围、腕围、臀围、大腿围、小腿围,对人体参数进行测量计算,得出人体姿态参数;
3)将人体姿态参数与安全数据库中保存的安全人员姿态数据进行特征比对,输出识别结果;识别结果分为安全行人与非法闯入行人;
S5、搭建人脸识别模型,将人脸内容图像数据集中的图像数据集输入模型中进行训练,与安全数据库中保存的安全人员人脸数据进行比对,输出识别结果:
1)搭建VGGFACE基础网框架并进行优化,VGGFACE基础网框架主要包括5个卷积块共13个卷积层,3个全连接层;每个卷积层后接池化层,每个卷积层都选用padding为1,卷积核大小为3的卷积,保证了卷积前后图像大小不变;
2)利用深度可分离卷积对VGGFACE的5个卷积模块进行改进,深度可分离卷积是对各深度的特征图进行卷积计算,因而将各层中的卷积核按照通道数划分;以第一层中3x3x3卷积核conv_1为例,在深度可分离卷积中该卷积核被分为3个大小为3x3深度为1的卷积核,相应地将第二层中的单个卷积核分解为64个,得到改进后的VGGFACE模型;输入特征图的大小为224x224x3,经过深度可分离卷积卷积核后输出特征图的大小为224x224x64,与原先的卷积核实现的结果一致,并且深度可分离卷积中参数量仅为4891而原先的conv_1中两个卷积层的参数量之和为38592,在实现相同功能的情况下参数量比原先减少了很多,使得模型的冗余参数减少,降低对硬件计算能力的要求,节省大量的计算资源;
3)将人脸内容图像数据集中的图像数据输入改进后的VGGFACE模型中进行训练,提取目标人脸特征向量;
4)将安全数据库中保存的安全人员人脸数据特征向量采用Annoy索引的方式形成多个二叉树结构,将提取到的目标人脸特征向量进行人脸识别时,只需要分别遍历这些二叉树,得到离目标最近的特征向量,并设定阈值控制判断,输出识别结果,识别结果分为安全人脸与非法闯入人脸;
S6、结合行人识别结果与人脸识别结果,判断进入重点场所的人员是否为非法进入,如为非法进入则将信息传送给安全警报系统,提醒安保人员立即进行相关处置:
1)将行人识别结果与人脸识别结果进行合并分类,将结果为安全行人与安全人脸合并输出为安全,记录人员进入重点场所的时间;
2)将结果为非法闯入行人与安全人脸、安全行人与非法闯入人脸两种合并输出为待确认安全,记录人员进入重点场所的时间与图片,上传至安全警报系统,待人工再次核查判断;
3)将结果为非法闯入行人与非法闯入人脸合并输出为不安全,上传至安全警报系统,提醒安保人员立即进行相关处置。
与现有技术相比,本发明的有益效果如下:
1.搭建可见光与红外图像的融合模型,采用可见光与红外图像融合技术,红外热成像摄像头能够通过目标与背景的亮温差捕获目标,摆脱了可见光传感器对光源的依赖,可以在夜晚识别目标,具有能克服光照环境差的优点,但通常图像分辨率低;而可见光成像传感器捕捉目标的反射信息,其图像适合人类的视觉感知系统,具有分辨率高、细节特征丰富等优点,但容易受到光照与天气因素影响。因此,这两种图像具有天然的互补性,融合后的图像可以同时提供高亮目标信息与高分辨率人体细节信息;
2.采用中值滤波算法对样本图样数据集中的可见光图像与红外图像进行图像去噪,再将处理后的样本图像采用自适应直方图均衡化的方式进行图像增强,再采用双线性插值算法对红外图像插值,使得原始具有较低分辨率的红外图像数据再生出具有较高分辨率的图像数据;
3.搭建GhostNet基础网框架并进行优化,为了缩减网络参数量并提高网络运算效率,去掉了原GhostNet网络中的注意力模块,使用全局平均池化和1×1卷积层替换全连接,使得一步缩减网络参数量并提高网络运算效率;
4.搭建VGGFACE基础网框架并进行优化,采用深度可分离卷积是对各深度的特征图进行卷积计算。在实现相同功能的情况下参数量比原先减少了很多,使得模型的冗余参数减少,降低对硬件计算能力的要求,节省大量的计算资源;
5.将人体姿态参数匹配与人脸匹配结果结合,从多维度判断进入重点场所人员是否为无权限、非法闯入。同时将信息传输至安全警报系统,对几种安全情形采取不同的处置措施,更加灵活,减少安保人员的工作量,符合实际情况。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1是本发明的实施例示意图;
图2是本发明的红外成像原理图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。其中附图中相同的标号全部指的是相同的部件。
实施例1
如图1-2,本发明提供一种重点场所安防监控图像识别方法,包括以下流程步骤:
S1、采集重点场所安防监控图像,包括可见光图像与红外图像,对样本图像进行规范化处理:
1)使用重点场所安防监控摄像头拍摄的图片中,获取相同时间与位置拍摄的可见光图像与红外图像,对图像进行分选,选取无人物的可见光图像与红外图像、有人物的可见光图像与红外图像,图像数量比例为1:1;
2)对图像进行调整,将图像置于256x256的画布中央,保持图像几何中心点与画布几何中心点重合,将图像像素大小按比例缩小,当图像缩小后较窄的一条边与画布边缘重合,则停止缩小,将超出画布的部分剪裁,仅保留与画布重合的部分,得到256x256的图像样本;
3)将尺寸调整后的图像样本进行保存,制作成样本图像数据集;
S2、搭建可见光与红外图像的融合模型,将两种图像进行融合,得到融合样本图像数据集:
1)对样本图像数据集进行预处理,采用中值滤波算法对样本图样数据集中的可见光图像与红外图像进行图像去噪,再将处理后的样本图像采用自适应直方图均衡化的方式进行图像增强,再采用双线性插值算法对红外图像插值,使得原始具有较低分辨率的红外图像数据再生出具有较高分辨率的图像数据,以匹配可见光图像的像素,得到预处理后的样本图像数据集;
2)对预处理后的样本图像数据集进行配准,图像配准是对同一目标的两幅及以上的图像在空间位置的对准,首先选择将可见光图像作为参考图像,将红外图像作为变换的目标图像,选取图像的空间变换模型;设置初始变换参数的初始搜索点,用初始点算出空间变换模型然后对红外图像进行几何变换;然后对变换的图像进行灰度插值,判断相似性测度函数是否达到最大值,如没有则进入下一步骤优化;利用搜素优化算法,进行搜索优化,求得相似性测度函数达到最大时的最佳配准参数;利用得到的参数在对变换后的红外图像再进行最后一次灰度插值输出配准后图像进行空间变换,最终进行灰度插值得到配准后图像;
3)搭建可见光与红外图像的融合模型,构建的红外与可见光图像融合网络包含输入编码网络、中间特征融合层、输出解码网络三部分,编码网络采用孪生结构,由两个包含相同数目卷积层与结构的分支组成;因为卷积核的尺寸设置为3*3,所以可以输入任意大小尺寸的图片,卷积步长设置为1,使用Swish激活函数;中间特征融合层采用基于L1范数的方法进行通道压缩,并根据区域能量特征对压缩后的源图像特征进行融合,融合后的特征图输入到解码网络重构出融合后的图像;解码网络包含四个卷积层,卷积核数量按照重构过程逐渐减少,卷积核的尺寸设置为3*3,卷积步长设置为1,同样使用Swish激活函数;
4)将配准后的红外图像与可见光图像分别输入到编码网络中,经过采用密集连接的卷积神经网络对各自图像进行特征提取得到多通道特征图,利用中间特征层融合获取到的多通道特征图,融合后的特征图经过解码网络的图像解码重构,从而还原出红外与可见光融合图像,得到融合样本图像数据集;
S3、对融合图像进行分类,分为包含行人姿态内容的图像与包含人脸内容的图像,对图像进行标注:
1)对经过融合模型处理完成的可见光与红外融合图像进行分类,按照图像中包含的人物内容进行划分,分为行人姿态内容图像与人脸内容图像两个类别;
2)采用VIA-VGGImageAnnotator对分类后的图像进行进行矩形框标注,对图像中出现的行人、人脸进行框选标注,得到标注完成的行人姿态内容图像数据集、人脸内容图像数据集;
S4、搭建行人姿态识别模型,将行人姿态内容图像数据集中的图像数据集输入模型中进行训练,建立人体姿态参数,与安全数据库中保存的安全人员姿态数据进行比对,输出识别结果:
1)搭建GhostNet基础网框架并进行优化,为了缩减网络参数量并提高网络运算效率,去掉了原GhostNet网络中的注意力模块,使用全局平均池化和1×1卷积层替换全连接层,得到行人姿态识别模型;
2)将行人姿态内容图像数据集中的图像数据输入模型中进行训练,在图像中建立像素坐标系,对人体测量的关键点进行定位,并获取特征点的坐标值;通过提取到的关键点数据,对人体各部位进行模型构建进行计算,包含了颈围、总肩宽、臂围、胸围、中腰围、裤腰围、腕围、臀围、大腿围、小腿围,对人体参数进行测量计算,得出人体姿态参数;
3)将人体姿态参数与安全数据库中保存的安全人员姿态数据进行特征比对,输出识别结果;识别结果分为安全行人与非法闯入行人;
S5、搭建人脸识别模型,将人脸内容图像数据集中的图像数据集输入模型中进行训练,与安全数据库中保存的安全人员人脸数据进行比对,输出识别结果:
1)搭建VGGFACE基础网框架并进行优化,VGGFACE基础网框架主要包括5个卷积块共13个卷积层,3个全连接层;每个卷积层后接池化层,每个卷积层都选用padding为1,卷积核大小为3的卷积,保证了卷积前后图像大小不变;
2)利用深度可分离卷积对VGGFACE的5个卷积模块进行改进,深度可分离卷积是对各深度的特征图进行卷积计算,因而将各层中的卷积核按照通道数划分;以第一层中3x3x3卷积核conv_1为例,在深度可分离卷积中该卷积核被分为3个大小为3x3深度为1的卷积核,相应地将第二层中的单个卷积核分解为64个,得到改进后的VGGFACE模型;输入特征图的大小为224x224x3,经过深度可分离卷积卷积核后输出特征图的大小为224x224x64,与原先的卷积核实现的结果一致,并且深度可分离卷积中参数量仅为4891而原先的conv_1中两个卷积层的参数量之和为38592,在实现相同功能的情况下参数量比原先减少了很多,使得模型的冗余参数减少,降低对硬件计算能力的要求,节省大量的计算资源;
3)将人脸内容图像数据集中的图像数据输入改进后的VGGFACE模型中进行训练,提取目标人脸特征向量;
4)将安全数据库中保存的安全人员人脸数据特征向量采用Annoy索引的方式形成多个二叉树结构,将提取到的目标人脸特征向量进行人脸识别时,只需要分别遍历这些二叉树,得到离目标最近的特征向量,并设定阈值控制判断,输出识别结果,识别结果分为安全人脸与非法闯入人脸;
S6、结合行人识别结果与人脸识别结果,判断进入重点场所的人员是否为非法进入,如为非法进入则将信息传送给安全警报系统,提醒安保人员立即进行相关处置:
1)将行人识别结果与人脸识别结果进行合并分类,将结果为安全行人与安全人脸合并输出为安全,记录人员进入重点场所的时间;
2)将结果为非法闯入行人与安全人脸、安全行人与非法闯入人脸两种合并输出为待确认安全,记录人员进入重点场所的时间与图片,上传至安全警报系统,待人工再次核查判断;
3)将结果为非法闯入行人与非法闯入人脸合并输出为不安全,上传至安全警报系统,提醒安保人员立即进行相关处置;
最后应说明的是:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (1)
1.一种重点场所安防监控图像识别方法,其特征在于,包括以下流程步骤:
S1、采集重点场所安防监控图像,包括可见光图像与红外图像,对样本图像进行规范化处理:
1)使用重点场所安防监控摄像头拍摄的图片中,获取相同时间与位置拍摄的可见光图像与红外图像,对图像进行分选,选取无人物的可见光图像与红外图像、有人物的可见光图像与红外图像,图像数量比例为1:1;
2)对图像进行调整,将图像置于256x256的画布中央,保持图像几何中心点与画布几何中心点重合,将图像像素大小按比例缩小,当图像缩小后较窄的一条边与画布边缘重合,则停止缩小,将超出画布的部分剪裁,仅保留与画布重合的部分,得到256x256的图像样本;
3)将尺寸调整后的图像样本进行保存,制作成样本图像数据集;
S2、搭建可见光与红外图像的融合模型,将两种图像进行融合,得到融合样本图像数据集:
1)对样本图像数据集进行预处理,采用中值滤波算法对样本图样数据集中的可见光图像与红外图像进行图像去噪,再将处理后的样本图像采用自适应直方图均衡化的方式进行图像增强,再采用双线性插值算法对红外图像插值,使得原始具有较低分辨率的红外图像数据再生出具有较高分辨率的图像数据,以匹配可见光图像的像素,得到预处理后的样本图像数据集;
2)对预处理后的样本图像数据集进行配准,图像配准是对同一目标的两幅及以上的图像在空间位置的对准,首先选择将可见光图像作为参考图像,将红外图像作为变换的目标图像,选取图像的空间变换模型;设置初始变换参数的初始搜索点,用初始点算出空间变换模型然后对红外图像进行几何变换;然后对变换的图像进行灰度插值,判断相似性测度函数是否达到最大值,如没有则进入下一步骤优化;利用搜素优化算法,进行搜索优化,求得相似性测度函数达到最大时的最佳配准参数;利用得到的参数在对变换后的红外图像再进行最后一次灰度插值输出配准后图像进行空间变换,最终进行灰度插值得到配准后图像;
3)搭建可见光与红外图像的融合模型,构建的红外与可见光图像融合网络包含输入编码网络、中间特征融合层、输出解码网络三部分,编码网络采用孪生结构,由两个包含相同数目卷积层与结构的分支组成;因为卷积核的尺寸设置为3*3,所以可以输入任意大小尺寸的图片,卷积步长设置为1,使用Swish激活函数;中间特征融合层采用基于L1范数的方法进行通道压缩,并根据区域能量特征对压缩后的源图像特征进行融合,融合后的特征图输入到解码网络重构出融合后的图像;解码网络包含四个卷积层,卷积核数量按照重构过程逐渐减少,卷积核的尺寸设置为3*3,卷积步长设置为1,同样使用Swish激活函数;
4)将配准后的红外图像与可见光图像分别输入到编码网络中,经过采用密集连接的卷积神经网络对各自图像进行特征提取得到多通道特征图,利用中间特征层融合获取到的多通道特征图,融合后的特征图经过解码网络的图像解码重构,从而还原出红外与可见光融合图像,得到融合样本图像数据集;
S3、对融合图像进行分类,分为包含行人姿态内容的图像与包含人脸内容的图像,对图像进行标注:
1)对经过融合模型处理完成的可见光与红外融合图像进行分类,按照图像中包含的人物内容进行划分,分为行人姿态内容图像与人脸内容图像两个类别;
2)采用VIA-VGGImageAnnotator对分类后的图像进行进行矩形框标注,对图像中出现的行人、人脸进行框选标注,得到标注完成的行人姿态内容图像数据集、人脸内容图像数据集;
S4、搭建行人姿态识别模型,将行人姿态内容图像数据集中的图像数据集输入模型中进行训练,建立人体姿态参数,与安全数据库中保存的安全人员姿态数据进行比对,输出识别结果:
1)搭建GhostNet基础网框架并进行优化,为了缩减网络参数量并提高网络运算效率,去掉了原GhostNet网络中的注意力模块,使用全局平均池化和1×1卷积层替换全连接层,得到行人姿态识别模型;
2)将行人姿态内容图像数据集中的图像数据输入模型中进行训练,在图像中建立像素坐标系,对人体测量的关键点进行定位,并获取特征点的坐标值;通过提取到的关键点数据,对人体各部位进行模型构建进行计算,包含了颈围、总肩宽、臂围、胸围、中腰围、裤腰围、腕围、臀围、大腿围、小腿围,对人体参数进行测量计算,得出人体姿态参数;
3)将人体姿态参数与安全数据库中保存的安全人员姿态数据进行特征比对,输出识别结果;识别结果分为安全行人与非法闯入行人;
S5、搭建人脸识别模型,将人脸内容图像数据集中的图像数据集输入模型中进行训练,与安全数据库中保存的安全人员人脸数据进行比对,输出识别结果:
1)搭建VGGFACE基础网框架并进行优化,VGGFACE基础网框架主要包括5个卷积块共13个卷积层,3个全连接层;每个卷积层后接池化层,每个卷积层都选用padding为1,卷积核大小为3的卷积,保证了卷积前后图像大小不变;
2)利用深度可分离卷积对VGGFACE的5个卷积模块进行改进,深度可分离卷积是对各深度的特征图进行卷积计算,因而将各层中的卷积核按照通道数划分;以第一层中3x3x3卷积核conv_1为例,在深度可分离卷积中该卷积核被分为3个大小为3x3深度为1的卷积核,相应地将第二层中的单个卷积核分解为64个,得到改进后的VGGFACE模型;输入特征图的大小为224x224x3,经过深度可分离卷积卷积核后输出特征图的大小为224x224x64,与原先的卷积核实现的结果一致,并且深度可分离卷积中参数量仅为4891而原先的conv_1中两个卷积层的参数量之和为38592,在实现相同功能的情况下参数量比原先减少了很多,使得模型的冗余参数减少,降低对硬件计算能力的要求,节省大量的计算资源;
3)将人脸内容图像数据集中的图像数据输入改进后的VGGFACE模型中进行训练,提取目标人脸特征向量;
4)将安全数据库中保存的安全人员人脸数据特征向量采用Annoy索引的方式形成多个二叉树结构,将提取到的目标人脸特征向量进行人脸识别时,只需要分别遍历这些二叉树,得到离目标最近的特征向量,并设定阈值控制判断,输出识别结果,识别结果分为安全人脸与非法闯入人脸;
S6、结合行人识别结果与人脸识别结果,判断进入重点场所的人员是否为非法进入,如为非法进入则将信息传送给安全警报系统,提醒安保人员立即进行相关处置:
1)将行人识别结果与人脸识别结果进行合并分类,将结果为安全行人与安全人脸合并输出为安全,记录人员进入重点场所的时间;
2)将结果为非法闯入行人与安全人脸、安全行人与非法闯入人脸两种合并输出为待确认安全,记录人员进入重点场所的时间与图片,上传至安全警报系统,待人工再次核查判断;
3)将结果为非法闯入行人与非法闯入人脸合并输出为不安全,上传至安全警报系统,提醒安保人员立即进行相关处置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211345861.4A CN115761618A (zh) | 2022-10-31 | 2022-10-31 | 一种重点场所安防监控图像识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211345861.4A CN115761618A (zh) | 2022-10-31 | 2022-10-31 | 一种重点场所安防监控图像识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115761618A true CN115761618A (zh) | 2023-03-07 |
Family
ID=85354647
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211345861.4A Pending CN115761618A (zh) | 2022-10-31 | 2022-10-31 | 一种重点场所安防监控图像识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115761618A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116758622A (zh) * | 2023-08-21 | 2023-09-15 | 深圳兔展智能科技有限公司 | 用于出勤管理系统的数据处理方法、装置、系统及介质 |
CN117541629A (zh) * | 2023-06-25 | 2024-02-09 | 哈尔滨工业大学 | 基于可穿戴头盔的红外图像和可见光图像配准融合方法 |
CN118506556A (zh) * | 2024-07-19 | 2024-08-16 | 国网浙江省电力有限公司建德市供电公司 | 一种智能型红外保护告警装置、方法及系统 |
CN118521284A (zh) * | 2024-07-23 | 2024-08-20 | 福建又上科技有限公司 | 一种远程智能考勤方法 |
-
2022
- 2022-10-31 CN CN202211345861.4A patent/CN115761618A/zh active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117541629A (zh) * | 2023-06-25 | 2024-02-09 | 哈尔滨工业大学 | 基于可穿戴头盔的红外图像和可见光图像配准融合方法 |
CN117541629B (zh) * | 2023-06-25 | 2024-06-11 | 哈尔滨工业大学 | 基于可穿戴头盔的红外图像和可见光图像配准融合方法 |
CN116758622A (zh) * | 2023-08-21 | 2023-09-15 | 深圳兔展智能科技有限公司 | 用于出勤管理系统的数据处理方法、装置、系统及介质 |
CN118506556A (zh) * | 2024-07-19 | 2024-08-16 | 国网浙江省电力有限公司建德市供电公司 | 一种智能型红外保护告警装置、方法及系统 |
CN118506556B (zh) * | 2024-07-19 | 2024-10-15 | 国网浙江省电力有限公司建德市供电公司 | 一种智能型红外保护告警装置、方法及系统 |
CN118521284A (zh) * | 2024-07-23 | 2024-08-20 | 福建又上科技有限公司 | 一种远程智能考勤方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115761618A (zh) | 一种重点场所安防监控图像识别方法 | |
CN109934176B (zh) | 行人识别系统、识别方法及计算机可读存储介质 | |
CN110084156B (zh) | 一种步态特征提取方法及基于步态特征的行人身份识别方法 | |
CN109522853B (zh) | 面向监控视频的人脸检测与搜索方法 | |
CN109886241A (zh) | 基于长短期记忆网络的驾驶员疲劳检测 | |
CN109190475B (zh) | 一种人脸识别网络与行人再识别网络协同训练方法 | |
Zin et al. | Fusion of infrared and visible images for robust person detection | |
CN112069891B (zh) | 一种基于光照特征的深度伪造人脸鉴别方法 | |
CN110321780A (zh) | 基于时空运动特性的异常摔倒行为检测方法 | |
CN110287370B (zh) | 基于现场鞋印的犯罪嫌疑人追踪方法、装置及存储介质 | |
CN113963315A (zh) | 一种复杂场景下实时视频多人行为识别方法及系统 | |
CN103729620B (zh) | 一种基于多视角贝叶斯网络的多视角行人检测方法 | |
CN112613359B (zh) | 用于人员异常行为检测的神经网络的构建方法 | |
CN111160149A (zh) | 基于运动场景及深度学习的车载人脸识别系统及方法 | |
CN115731579A (zh) | 基于交叉注意力Transformer网络的陆生动物个体识别方法 | |
WO2023279799A1 (zh) | 对象识别方法、装置和电子系统 | |
Miao et al. | Abnormal behavior learning based on edge computing toward a crowd monitoring system | |
CN115223204A (zh) | 一种人员违规穿着检测方法、装置、设备及存储介质 | |
CN113901423B (zh) | 一种基于人脸识别的智能安防设备控制方法和系统 | |
CN114783054B (zh) | 一种基于无线和视频特征融合的步态识别方法 | |
CN114120076B (zh) | 基于步态运动估计的跨视角视频步态识别方法 | |
CN115862128A (zh) | 一种基于人体骨架的顾客异常行为识别方法 | |
CN115909400A (zh) | 一种用于低分辨率监控场景中使用手机行为的识别方法 | |
CN109271972A (zh) | 基于自然语言理解和图像图形的智能图像识别系统及方法 | |
Yu et al. | Image fusion algorithm based on contourlet transform and PCNN for detecting obstacles in forests |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication |