CN113887446A - 一种基于神经网络的音视频联合行人意外跌倒监控方法 - Google Patents
一种基于神经网络的音视频联合行人意外跌倒监控方法 Download PDFInfo
- Publication number
- CN113887446A CN113887446A CN202111173517.7A CN202111173517A CN113887446A CN 113887446 A CN113887446 A CN 113887446A CN 202111173517 A CN202111173517 A CN 202111173517A CN 113887446 A CN113887446 A CN 113887446A
- Authority
- CN
- China
- Prior art keywords
- video
- network
- audio
- pedestrian
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/02—Preprocessing
- G06F2218/04—Denoising
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/08—Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于神经网络的音视频联合行人意外跌倒监控方法,包括以下步骤:构建初始训练集和测试集;构建行人目标检测模型;使用帧重组方法对行人目标检测模型输出的行人目标进行时序上的分类重组;构建动作识别分类网络模型,作为视频分类器;构建呼救声音分类网络模型,作为音频分类器;利用D‑S证据理论对视频、音频分类结果进行联合判决;判决结果综合输出。本发明利用音视频监控数据进行行人的跌倒意外监控,为公共安全行为分析提供助力,减少生命财产损失。
Description
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种基于神经网络的音视频联合行人意外跌倒监控方法。
背景技术
老年人的健康受到广泛关注。由于生理功能的退化、心理状态的改变和社会功能的弱化,老年人日常生活中极易出现跌倒险情。2015年中国死因调查结果显示,65岁以上老年人伤害致死原因中跌倒占比最大,跌倒是导致老年人残疾和死亡的重要祸首。
目前跌倒识别主要研究都集中在室内环境中的跌倒识别,而对室外环境下跌倒识别的研究却仍然开展的不多。在中国,老年人在户外跌倒发生意外因无人及时发现送医而受伤甚至身亡的事件并不少见,为了保障老年人的生命安全,通过技术手段及时检测到公共环境中老年人是否发生摔倒险情并做出反应是十分有必要的。
至2020年,我国对重点公共区域的监控覆盖率已达到100%。在此大背景下,如果能利用现有的公共安全摄像头资源,结合老年人健康问题设计一种结构复杂度相对不高的跌倒行人识别系统,该过程积累的技术经验势必为将来进一步的基于监控的公共安全行为分析提供助力。因此,使用计算机视觉技术方法来利用公共音视频监控数据进行行人的跌倒意外实时监控是非常有必要的。
发明内容
为解决上述技术问题,本发明提出了一种基于神经网络的音视频联合行人意外跌倒监控方法。
本发明解决上述技术问题的技术方案如下:
一种基于神经网络的音视频联合行人意外跌倒监控方法,包括以下步骤:
步骤S1.构建训练集和测试集;
步骤S2.构建视频分类器,输出视频分类结果;
步骤S21.构建行人目标检测模型;
将MobileNet特征提取网络作为Faster-RCNN的基础特征提取网络,同时在Faster-RCNN中添加FPN网络模块,训练后,输出行人目标检测模型;
步骤S22.使用帧重组方法,对行人目标检测模型输出的行人目标数据进行时序上的分类重组,获取重组视频帧数据;
步骤S23.构建动作识别分类网络模型,训练后,得到视频分类器,输出视频分类结果;
在C3D网络上并行添加小尺度的动作识别支路,构建双路C3D跌倒动作识别网络模型;训练后,得到视频分类器,输出分类结果;
步骤S3.构建呼救声音分类网络模型,作为音频分类器,输出音频分类结果;
以BiGRU作为声音分类网络搭建基础,使用三层卷积神经网络作为特征提取模块,构建呼救声音分类网络模型;训练后,得到音频分类器,输出分类结果;
步骤S4.利用D-S证据理论对视频、音频分类结果进行联合判决;
步骤S5.判决结果综合输出。
进一步地,所述步骤S1包括以下步骤:
步骤S11.收集公共环境行人声音和视频样本,得到初始样本数据集;
步骤S12.对初始样本数据集进行数据扩充,得到样本数据集;
步骤S13.将得到的样本数据集划分为训练集和测试集。
更进一步地,所述步骤S13包括以下步骤:
步骤S131.构建行人目标检测训练集和测试集,视频样本数据集进行剪裁,人工标注,将标注后的数据作为行人目标检测模型的训练及测试样本数据集;
步骤S132.呼救声音训练集和测试集,将采集的公共环境声音数据进行时间长度上的标准化裁剪;将裁减后数据作为呼救声音分类网络模型的训练与测试数据集。
进一步地,所述步骤S21包括如下步骤:
步骤S211.搭建MobileNet特征提取网络,所述MobileNet特征提取网络包括12个深度级可分类卷积层;
步骤S212.搭建Faster-RCNN网络预测模型,所述Faster-RCNN网络预测模型包括区域建议模块和池化模块,用以输出目标类别预测和位置边界预测,并设置每层参数;
步骤S213.搭建一个5层FPN网络,用以对MobileNet特征提取网络各层提取的不同尺度特征进行整合输出,并将输出连接至Faster-RCNN的区域生成网络,得到基于FPN的Faster-RCNN网络预测模型;
步骤S214.将基于FPN的Faster-RCNN网络预测模型进行参数初始化,并依据各模块之间的通道连接关系进行输入输出维度间的匹配,得到改进后的Faster-RCNN网络预测模型;
步骤S215.训练改进后的Faster-RCNN网络预测模型,保持输入端的底层网络参数不变,调整输出端顶层全连接层与softmax层,在行人目标检测训练集和测试集上进行增强训练,得到行人检测网络模型;
步骤S216.将待测的视频数据输入到行人检测网络模型,输出行人目标检测结果。
进一步地,步骤S22包括如下步骤:
步骤S222.根据行人中心绝对坐标计算出相邻两帧间的行人最小坐标距离;
步骤S223.根据坐标距离进行相邻帧间行人帧的目标重组与排列。
进一步地,步骤S23包括如下步骤:
步骤S231.数据预处理,
添加数据预处理层,用于对输入的图片进行尺寸筛选和归一化处理,并对不规则尺寸的输入图像进行调整;
步骤S232.构建双路C3D网络,
在C3D网络大图像支路的基础上并行添加一路小尺度的动作识别支路;两路网络均使用全卷积神经网络模块连接,大图像支路由五层卷积构成,小尺度动作识别支路由四层卷积构成,两路网络通道数相同;
步骤S233.训练双路C3D动作识别网络模型;
使用公共视频动作数据集,对两路C3D动作识别网络分别进行预训练获得两组初始化网络权重,使用重组视频帧数据进行二次训练进行二次训练,得到双路C3D动作识别网络模型,作为视频分类器;
步骤S234.将待测的视频数据输入到视频分类器,得到视频分类结果。
进一步地,步骤S3包括如下步骤:
步骤S31.使用MFCC方法提取声音浅层特征;
步骤S32.声音隐藏特征提取,
构建一个三层卷积神经网络作为特征提取模块,用以进行声音数据的隐藏特征提取;
步骤S33.深层特征提取,
步骤S331.使用BiGRU网络进行两次堆叠构建一个两层声音信息前后语义特征提取模块进行深层特征提取,输出提取的深层特征;
步骤S332.将所述提取的深层特征通过两层全连接层网络连接至softmax分类器进行声音数据分类识别;
步骤S34.训练BiGRU呼救声音分类网络模型,作为音频分类器;
步骤S341.进行呼救声音分类网络预训练,以获得初始化网络权重模型;
步骤S342.使用呼救声音训练集和测试集对呼救声音分类网络进行二次增强训练,保持网络卷积层参数不变,调整全连接层和softmax层参数,将softmax层修改为二分类分类器,获取呼救声音分类网络模型,作为音频分类器;
步骤S345.将待测的音频数据输入到音频分类器,得到音频分类结果。
进一步地,所述步骤S4包括如下步骤:
步骤S41.获取视频分类器和音频分类器的预测输出结果,同时获取视频预测最大值和音频预测最大值;
步骤S42.将视频分类器和音频分类器的预测输出结果分别结合基本置信函数,获取视频D-S证据融合结果和音频D-S证据融合结果;
步骤S43.视频D-S证据融合结果结合视频预测最大值,获取视频融合置信函数;音频D-S证据融合结果结合音频预测最大值,获取音频融合置信函数;
步骤S44.视频最大预制值结合视频融合置信函数,获得视频初步预判结果;
音频最大预制值结合音频融合置信函数,获得音频初步预判结果;
步骤S45.对音频初步预判结果和视频初步预判结果进行加权融合,获取最终判决结果,加权计算公式如下:
其中,pv表示视频分类器预测的报警概率,pa表示声音分类器预测的报警概率。
与现有技术相比,本发明的有益效果是:
(1)针对原始Faster-RCNN网络计算速度难以满足实时性要求和小目标识别效果较差的问题,将Faster-RCNN基础特征提取网络更换为MobileNet,MobileNet特征提取网络相对深度残差网络计算量小,利用MobileNet特征提取网络结构对Faster-RCNN网络结构进行了针对性的轻量化改进,因而网络模型测试时的运算速度也得到了极大的提升;然后又在此基础上添加了多尺度特征融合的FPN特征金字塔网络,增加的FPN特征金字塔网络用以增强对不同尺度目标的检测精度,将高层特征图的语义信息与低层特征图的细节信息相融合,大大提高了检测精度;构建的行人目标检测模型,保证精度要求的同时降低网络的计算量,满足多视频实时分类的测试要求,提高了网络的目标检测精度,同时大大缩短了网络的计算时间;
(2)在动作识别过程中,针对多目标动作识别过程中不同维度数据同一网络识别所造成的资源浪费和计算速度较慢的问题,在原有C3D动作识别网络基础上提出了基于改进的双路C3D动作识别网络,搭建了专注于小图像识别的压缩C3D网络支路,节省了计算资源的同时,提高了多目标识别时的计算效率;
(3)针对监控盲区问题和视频动作识别由于遮挡等原因导致的识别稳定性问题,提出了一种基于BiGRU的意外声音快速识别网络作为视频识别网络的补充以缓解视频动作识别网络应用的局限性;该模块首先对声音信号进行MFCC声音特征提取,然后将提取后特征利用卷积神经网络获取隐藏特征,最后对具有时序性的特征利用BiGRU双向循环门控单元网络进行意外呼救声音识别。
附图说明
图1为本发明的方法流程图;
图2为构建视频分类器方法流程图;
图3为帧重组方法进行数据重构实现方法流程图;
图4为训练BiGRU呼救声音分类网络模型步骤流程图;
图5为MFCC步骤流程图。
具体实施方式
以下结合附图对本发明的原理和特征进行描述,所举实例只用于解释本发明,并非用于限定本发明的范围。
本发明提供了一种基于神经网络的音视频联合行人意外跌倒监控方法,为使本发明能够更明显易懂,下面结合附图和具体实施例对本发明进一步详细的说明。
下面对本公开实施例中所涉概念进行介绍,Faster RCNN是在R-CNN和Fast RCNN的基础上的改进,Faster RCNN框架主要包含基础特征提取网络、区域建议网络和FastRCNN这三个部分,其中区域建议网络和Fast RCNN共享卷积特征提取网络,可以大大减少计算时间。Faster RCNN算法是先使用RPN(Region Proposal Network,区域生成网络)生成候选区域,再对该区域进行分类与回归位置,是一种基于分类思想的目标检测算法,这样的算法往往存在样本不平衡的问题,会导致检测模型降低训练效率和检测精度。
MobileNet是通过使用深度可分离的卷积来构建轻量级的深度神经网络,MobileNet基本单元是深度级可分离卷积(depthwise separable convolution),MobileNet网络拥有更小的体积,更少的计算量,更高的精度,在轻量级神经网络中拥有极大的优势。
FPN(Feature Pyramid Networks,特征金字塔网络)是一个特征金字塔,具有很好的泛化能力。
C3D(3-Dimensional Convolution)网络作为一种深度学习行为识别算法,C3D网络可以用来提取视频的空间时间特征。
图1为本发明一种基于神经网络的音视频联合行人意外跌倒监控方法的流程图,本发明的一种基于神经网络的音视频联合行人意外跌倒监控方法,包括以下步骤:
步骤S1.构建训练集和测试集;
具体实施例中,包括以下步骤:
步骤S11.收集公共环境行人声音和视频样本,得到初始样本数据集;
步骤S12.使用剪切、旋转、缩放等图像预处理方法,对初始样本数据集进行数据扩充,得到样本数据集;
步骤S13.将得到的样本数据集划分为训练集和测试集;
在具体实施例中,步骤S13具体包括以下步骤:
步骤S131.输入公共环境行人声音和视频样本数据集;
步骤S132.构建行人目标检测训练集和测试集,视频样本数据集进行剪裁,人工标注,将标注后的数据作为行人目标检测模型的训练及测试样本数据集;
在具体实施例中,将采集的视频样本数据集按90帧长度进行分帧裁剪,并对裁剪后的视频帧序列数据进行整体标签标注,人工处理划分日常动作和意外动作两大类,其中又细分为行走、站立、坐、跌倒及其他共计五个子类,对其中的行人进行人工位置标注,将标注后的数据作为行人目标检测模型的训练及测试样本数据集;
步骤S133.构建呼救声音训练集和测试集,将采集的公共环境声音数据进行时间长度上的裁剪,并将公共环境行人声音数据集划分为遇险呼救声和背景声两类;将裁减后数据作为呼救声音分类网络模型的训练与测试数据集。
步骤S2.参照图2,构建视频分类器,输出视频分类结果;
步骤S21.构建行人目标检测模型,将MobileNet特征提取网络作为Faster-RCNN的基础特征提取网络,同时在Faster-RCNN中添加FPN网络模块,用以增强对不同尺度目标的检测精度,输出行人目标检测模型;
具体实施例中,包括以下步骤:
步骤S211.搭建MobileNet特征提取网络,所述MobileNet特征提取网络包括12个深度级可分类卷积层,并设置每层参数,具体网络模型配置如表1所示,表一为MobileNet特征提取网络结构配置表;网络共包含6大卷积层,所有卷积层均为深度级可分离网络,每个大层内的卷积通道数一致,所有卷积层均使用ReLU(线性修正单元)进行非线性激活;
表1 MobileNet特征提取网络结构配置表
步骤S212.搭建Faster-RCNN网络预测模型,所述Faster-RCNN网络预测模型包括区域建议模块和池化模块,用以输出目标类别预测和位置边界预测;
步骤S213.搭建一个5层FPN网络,用以对MobileNet特征提取网络各层提取的不同尺度特征进行整合输出,并将输出连接至Faster-RCNN的区域生成网络,得到基于FPN的Faster-RCNN网络预测模型;
具体实施例中,特征提取部分使用上述MobileNet网络配置,与之相连接的FPN模块分别对接MobileNet的第2、3、4、5、6卷积层输出,其中,第6卷积层输出经2倍上采样后与第5层输出共享一层FPN,总计输出四张特征图;FPN各层的输入尺度设置与MobileNet各层输出需完全匹配,其中,FPN各层特征图匹配的先验框维度为{(32,32),(64,64),(128,128),(256,256)},比例为{(1:1),(1:2),(2:1)},共计12个先验框在区域生成网络模块内对FPN网络获得的四张特征图进行扫描,这样引入低倍率降采样特征图和小维度先验框可以使该网络更加有效地识别图像中出现的小目标,之后先验框输出经ROIpooling(Regionof Interest Pooling,感兴趣区域池化)层进行池化后,由全连接层接入回归分类器进行定位与分类,得到基于FPN的Faster-RCNN网络预测模型;
步骤S214.将基于FPN的Faster-RCNN网络预测模型进行参数初始化,并依据各模块之间的通道连接关系进行输入输出维度间的匹配,得到改进后的Faster-RCNN网络预测模型;
步骤S215.训练改进后的Faster-RCNN网络预测模型,保持输入端的底层网络参数不变,调整输出端顶层全连接层与softmax层,在行人目标检测训练集和测试集上进行增强训练,得到行人检测网络模型;
具体实施例中,选用VOC(Pascal Visual Object Classes)和COCO(CommonObjects in COntext)数据集进行预训练,训练之后获得初始化网络模型,然后保持输入端的底层网络参数不变,调整输出端顶层全连接层与softmax层;在行人目标检测训练集和测试集上进行增强训练;设置学习率为0.005,对1500张图片按2:1随机划分训练集进行100epoch的训练,训练时交并比阈值设置为0.75以获取行人检测网络模型;
步骤S216.将待测的视频数据输入到行人检测网络模型,输出行人目标检测结果。
步骤S22.使用帧重组方法对行人目标检测模型输出的行人目标进行时序上的分类重组,获取重组后的重组视频帧数据;具体步骤为:
步骤S222.根据行人中心绝对坐标计算出相邻两帧间的行人最小坐标距离;
步骤S223.根据坐标距离进行相邻帧间行人帧的目标重组与排列。
具体实施例中,帧间行人目标重组分割子帧流按照最小坐标距离进行相邻帧内同一目标组合;相邻帧内距离最小的两个中心点所代表的行人目标是为在此两帧中的同一行人目标,化为一个子帧流内,时间维度排列与帧流输入顺序相同;
步骤S224.获取重组后的重组视频帧数据。
步骤S23.构建动作识别分类网络模型,作为视频分类器,输出视频分类结果;
参见图3,在C3D网络上并行添加小尺度的动作识别支路,构建双路C3D跌倒动作识别网络模型;训练后,得到视频分类器,输出分类结果;
步骤S231.数据预处理,
添加数据预处理层,用于对输入的图片进行尺寸筛选和归一化处理,并对不规则尺寸的输入图像进行调整;对于输入维度超过阈值尺寸的图片进行缩放处理,对于输入维度小于阈值尺寸的图片使用黑色背景填充以满足输入要求;
步骤S232.构建双路C3D网络,
在C3D网络大图像支路的基础上并行添加一路小尺度动作识别支路;两路网络均使用全卷积神经网络模块连接,大图像支路由五层卷积构成,小尺度动作识别支路由四层卷积构成,两路网络通道数相同,网络具体结构见图3,图3为帧重组方法进行数据重构实现方法流程图;
步骤S233.训练双路C3D动作识别网络模型,作为视频分类器;
具体实施例中,使用UCF101公共视频动作数据集来对两路C3D动作识别网络分别进行预训练获得两组初始化网络权重,使用重组视频帧数据对网络二次训练,数据训练集与测试集比例划分为7:3,初始学习率为0.01,50epoch后学习率修改为0.001,总训练次数为80epoch,遗忘参数为0.1,得到双路C3D动作识别网络模型,作为视频分类器;
步骤S234.将待测的视频数据输入到视频分类器,得到视频分类结果。
步骤S3.构建呼救声音分类网络模型,作为音频分类器,输出音频分类结果;
以BiGRU作为声音分类网络搭建基础,使用三层卷积神经网络作为特征提取模块,构建呼救声音分类网络模型,训练后,得到音频分类器,输出分类结果;其中,三层卷积神经网络包括输入层、卷积层,ReLU层、池化(Pooling)层和全连接层;
步骤S31.使用MFCC(Mel-Frequency Cepstral Coefficients,梅尔倒谱系数)方法提取声音浅层特征,MFCC方法的具体步骤如图5所示;对于音频输入数据进行预加重、分帧、加窗、FFT快速傅里叶变换、Mel梅尔滤波、取对数、DCT离散余弦变换,输出动态特征向量;
步骤S32.声音隐藏特征提取,
构建一个三层卷积神经网络作为特征提取模块,用以进行声音数据的隐藏特征提取;
步骤S33.深层特征提取,该部分参数设置如表2所示;
步骤S331.使用BiGRU(Bidirectional Gating Recurrent Uni,双向门控制循单元)网络进行两次堆叠构建一个两层声音信息前后语义特征提取模块进行深层特征提取,输出提取的深层特征;
步骤S332.将所述提取的深层特征通过两层全连接层网络连接至softmax分类器进行声音数据分类识别;
步骤S34.训练BiGRU呼救声音分类网络模型,作为音频分类器;
步骤S341.使用ESC-50数据集,选用Adam分类器,进行呼救声音分类网络预训练以获得初始化网络权重模型;设置训练200epoch,学习率为0.01,dropout遗忘参数设置为0.1;所述ESC-50数据集带有标签的2000个环境记录集;
步骤S342.使用呼救声音训练集和测试集对呼救声音分类网络进行二次增强训练,保持网络卷积层参数不变,调整全连接层和softmax层参数,将softmax层修改为二分类分类器,训练数据集按3:1进行划分,学习率设置为0.01,学习20epoch后下降为0.005,50epoch后下降为0.001,遗忘参数为0.1,总计训练100epoch以获取较高精度的呼救声音分类网络模型,获取呼救声音分类网络模型;
表2 C3D网络模型各层参数设置表
步骤S35.将待测的音频数据输入到音频分类器,得到音频分类结果。
步骤S4.利用D-S证据理论对视频、音频分类结果进行联合判决,参见图4;
步骤S41.获取视频分类器和音频分类器的预测输出结果,同时获取视频预测最大值和音频预测最大值;
步骤S42.将视频分类器和音频分类器的预测输出结果分别结合基本置信函数,获取视频D-S证据融合结果和音频D-S证据融合结果;
步骤S43.视频D-S证据融合结果结合视频预测最大值,获取视频融合置信函数;音频D-S证据融合结果结合音频预测最大值,获取音频融合置信函数;
步骤S44.视频最大预制值结合视频融合置信函数,获得视频初步预判结果;
音频最大预制值结合音频融合置信函数,获得音频初步预判结果;
步骤S45.对音频初步预判结果和视频初步预判结果进行加权融合,获取最终判决结果,加权计算公式如下:
其中,pv表示视频分类器预测的报警概率,pa表示音频分类器预测的报警概率。
在具体实施例中,单路视频融合的最大预测概率上限设置为1,最终预测结果大于0.6则上报;考虑到单音频分类器最大预警概率情况,所以在此判决规则基础上加设一个音频0.9阈值越级报警判断条件,当预测概率大于0.9时直接进行报警。
步骤S5.判决结果综合输出。
对实施例中一些数据集进行说明,其中,VOC数据集是目标检测经常用的一个数据集,COCO是微软团队提供的一个可以用来进行图像识别的数据集;UCF101是从YouTube收集的具有101个操作类别的逼真动作视频的动作识别数据集,具有50个操作类别;ESC-50是带有标签的2000个环境记录集。
本发明,在行人目标检测过程中,针对原始Faster-RCNN网络计算速度难以满足实时性要求和小目标识别效果较差的问题,将Faster-RCNN基础特征提取网络更换为MobileNet,MobileNet通过使用深度可分离的卷积来构建轻量级的深度神经网络,MobileNet特征提取网络相对深度残差网络计算量小,利用MobileNet特征提取网络结构对Faster-RCNN网络结构进行了针对性的轻量化改进,因而网络模型测试时的运算速度也得到了极大的提升;然后又在此基础上添加的多尺度特征融合的FPN,FPN是一个特征金字塔,具有很好的泛化能力,增加的FPN特征金字塔网络用以增强对不同尺度目标的检测精度,将高层特征图的语义信息与低层特征图的细节信息相融合,大大提高了检测精度;构建的行人目标检测模型,保证精度要求的同时降低网络的计算量,满足多视频实时分类的测试要求,提高了网络的目标检测精度,同时大大缩短了网络的计算时间。
在动作识别分类过程中,针对多目标动作识别过程中不同维度数据同一网络识别所造成的资源浪费和计算速度较慢的问题,使用3D卷积网络学习时空特征,在原有C3D动作识别网络基础上提出了基于改进的双路C3D动作识别网络,搭建了专注于小图像识别的压缩C3D网络支路,节省了计算资源的同时,提高了多目标识别时的计算效率。
在呼救声音分类过程中,针对监控盲区问题和视频动作识别由于遮挡等原因导致的识别稳定性问题,首先对声音信号进行MFCC声音特征提取,然后将提取后特征利用卷积神经网络获取隐藏特征,最后对具有时序性的特征利用BiGRU双向循环门控单元网络进行意外呼救声音识别。
在判决结果时,使用D-S证据融合、置信函数等联合判决方式降低漏检概率,同时使用权值调控的方法降低网络的误检概率。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种基于神经网络的音视频联合行人意外跌倒监控方法,其特征在于,包括以下步骤:
步骤S1.构建训练集和测试集;
步骤S2.构建视频分类器,输出视频分类结果;
步骤S21.构建行人目标检测模型;
将MobileNet特征提取网络作为Faster-RCNN的基础特征提取网络,同时在Faster-RCNN中添加FPN网络模块,训练后,输出行人目标检测模型;
步骤S22.使用帧重组方法,对行人目标检测模型输出的行人目标数据进行时序上的分类重组,获取重组视频帧数据;
步骤S23.构建动作识别分类网络模型,训练后,得到视频分类器,输出视频分类结果;
在C3D网络上并行添加小尺度的动作识别支路,构建双路C3D跌倒动作识别网络模型;利用重组视频帧数据训练后,得到视频分类器,输出分类结果;
步骤S3.构建呼救声音分类网络模型,作为音频分类器,输出音频分类结果;
以BiGRU作为声音分类网络搭建基础,使用三层卷积神经网络作为特征提取模块,构建呼救声音分类网络模型;训练后,得到音频分类器,输出分类结果;
步骤S4.利用D-S证据理论对视频、音频分类结果进行联合判决;
步骤S5.判决结果综合输出。
2.根据权利要求1所述的一种基于神经网络的音视频联合行人意外跌倒监控方法,其特征在于,所述步骤S1包括以下步骤:
步骤S11.收集公共环境行人声音和视频样本,得到初始样本数据集;
步骤S12.对初始样本数据集进行数据扩充,得到样本数据集;
步骤S13.将得到的样本数据集划分为训练集和测试集。
3.根据权利要求2所述的一种基于神经网络的音视频联合行人意外跌倒监控方法,其特征在于,所述步骤S13包括以下步骤:
步骤S131.构建行人目标检测训练集和测试集,视频样本数据集进行剪裁,人工标注,将标注后的数据作为行人目标检测模型的训练及测试样本数据集;
步骤S132.呼救声音训练集和测试集,将采集的公共环境声音数据进行时间长度上的标准化裁剪;将裁减后数据作为呼救声音分类网络模型的训练与测试数据集。
4.根据权利要求1所述的一种基于神经网络的音视频联合行人意外跌倒监控方法,其特征在于,所述步骤S21包括如下步骤:
步骤S211.搭建MobileNet特征提取网络,所述MobileNet特征提取网络包括12个深度级可分类卷积层;
步骤S212.搭建Faster-RCNN网络预测模型,所述Faster-RCNN网络预测模型包括区域建议模块和池化模块,用以输出目标类别预测和位置边界预测,并设置每层参数;
步骤S213.搭建一个5层FPN网络,用以对MobileNet特征提取网络各层提取的不同尺度特征进行整合输出,并将输出连接至Faster-RCNN的区域生成网络,得到基于FPN的Faster-RCNN网络预测模型;
步骤S214.将基于FPN的Faster-RCNN网络预测模型进行参数初始化,并依据各模块之间的通道连接关系进行输入输出维度间的匹配,得到改进后的Faster-RCNN网络预测模型;
步骤S215.训练改进后的Faster-RCNN网络预测模型,保持输入端的底层网络参数不变,调整输出端顶层全连接层与softmax层,在行人目标检测训练集和测试集上进行增强训练,得到行人检测网络模型;
步骤S216.将待测的视频数据输入到行人检测网络模型,输出行人目标检测结果。
6.根据权利要求1所述的一种基于神经网络的音视频联合行人意外跌倒监控方法,其特征在于,所述步骤S23包括如下步骤:
步骤S231.数据预处理,
添加数据预处理层,用于对输入的图片进行尺寸筛选和归一化处理,并对不规则尺寸的输入图像进行调整;
步骤S232.构建双路C3D网络,
在C3D网络大图像支路的基础上并行添加一路小尺度的动作识别支路;两路网络均使用全卷积神经网络模块连接,大图像支路由五层卷积构成,小尺度动作识别支路由四层卷积构成,两路网络通道数相同;
步骤S233.训练双路C3D动作识别网络模型;
使用公共视频动作数据集,对两路C3D动作识别网络分别进行预训练获得两组初始化网络权重,使用重组视频帧数据进行二次训练进行二次训练,得到双路C3D动作识别网络模型,作为视频分类器;
步骤S234.将待测的视频数据输入到视频分类器,得到视频分类结果。
7.根据权利要求1所述的一种基于神经网络的音视频联合行人意外跌倒监控方法,其特征在于,所述步骤S3包括如下步骤:
步骤S31.使用MFCC方法提取声音浅层特征;
步骤S32.声音隐藏特征提取,
构建一个三层卷积神经网络作为特征提取模块,用以进行声音数据的隐藏特征提取;
步骤S33.深层特征提取,
步骤S331.使用BiGRU网络进行两次堆叠构建一个两层声音信息前后语义特征提取模块进行深层特征提取,输出提取的深层特征;
步骤S332.将所述提取的深层特征通过两层全连接层网络连接至softmax分类器进行声音数据分类识别;
步骤S34.训练BiGRU呼救声音分类网络模型,作为音频分类器;
步骤S341.进行呼救声音分类网络预训练,以获得初始化网络权重模型;
步骤S342.使用呼救声音训练集和测试集对呼救声音分类网络进行二次增强训练,保持网络卷积层参数不变,调整全连接层和softmax层参数,将softmax层修改为二分类分类器,获取呼救声音分类网络模型,作为音频分类器;
步骤S35.将待测的音频数据输入到音频分类器,得到音频分类结果。
8.根据权利要求1所述的一种基于神经网络的音视频联合行人意外跌倒监控方法,其特征在于,所述步骤S4包括如下步骤:
步骤S41.获取视频分类器和音频分类器的预测输出结果,同时获取视频预测最大值和音频预测最大值;
步骤S42.将视频分类器和音频分类器的预测输出结果分别结合基本置信函数,获取视频D-S证据融合结果和音频D-S证据融合结果;
步骤S43.视频D-S证据融合结果结合视频预测最大值,获取视频融合置信函数;音频D-S证据融合结果结合音频预测最大值,获取音频融合置信函数;
步骤S44.视频最大预制值结合视频融合置信函数,获得视频初步预判结果;
音频最大预制值结合音频融合置信函数,获得音频初步预判结果;
步骤S45.对音频初步预判结果和视频初步预判结果进行加权融合,获取最终判决结果,加权计算公式如下:
其中pv表示视频分类器预测的报警概率,pa表示声音分类器预测的报警概率。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111173517.7A CN113887446A (zh) | 2021-10-08 | 2021-10-08 | 一种基于神经网络的音视频联合行人意外跌倒监控方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111173517.7A CN113887446A (zh) | 2021-10-08 | 2021-10-08 | 一种基于神经网络的音视频联合行人意外跌倒监控方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113887446A true CN113887446A (zh) | 2022-01-04 |
Family
ID=79005588
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111173517.7A Pending CN113887446A (zh) | 2021-10-08 | 2021-10-08 | 一种基于神经网络的音视频联合行人意外跌倒监控方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113887446A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114495032A (zh) * | 2022-04-14 | 2022-05-13 | 科大天工智能装备技术(天津)有限公司 | 一种交通违法行为监测方法、系统及智慧灯杆 |
CN114743045A (zh) * | 2022-03-31 | 2022-07-12 | 电子科技大学 | 一种基于双分支区域建议网络的小样本目标检测方法 |
CN114973335A (zh) * | 2022-07-29 | 2022-08-30 | 深圳叮当科技技术有限公司 | 基于深度学习的工地安全行为监测方法、装置及电子设备 |
CN116313018A (zh) * | 2023-05-18 | 2023-06-23 | 北京大学第三医院(北京大学第三临床医学院) | 提高滑雪场与近地医院的急救效率的系统及方法 |
-
2021
- 2021-10-08 CN CN202111173517.7A patent/CN113887446A/zh active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114743045A (zh) * | 2022-03-31 | 2022-07-12 | 电子科技大学 | 一种基于双分支区域建议网络的小样本目标检测方法 |
CN114743045B (zh) * | 2022-03-31 | 2023-09-26 | 电子科技大学 | 一种基于双分支区域建议网络的小样本目标检测方法 |
CN114495032A (zh) * | 2022-04-14 | 2022-05-13 | 科大天工智能装备技术(天津)有限公司 | 一种交通违法行为监测方法、系统及智慧灯杆 |
CN114973335A (zh) * | 2022-07-29 | 2022-08-30 | 深圳叮当科技技术有限公司 | 基于深度学习的工地安全行为监测方法、装置及电子设备 |
CN116313018A (zh) * | 2023-05-18 | 2023-06-23 | 北京大学第三医院(北京大学第三临床医学院) | 提高滑雪场与近地医院的急救效率的系统及方法 |
CN116313018B (zh) * | 2023-05-18 | 2023-09-15 | 北京大学第三医院(北京大学第三临床医学院) | 用于滑雪场与近地医院的急救系统及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113887446A (zh) | 一种基于神经网络的音视频联合行人意外跌倒监控方法 | |
CN109359559B (zh) | 一种基于动态遮挡样本的行人再识别方法 | |
CN105022835B (zh) | 一种群智感知大数据公共安全识别方法及系统 | |
CN111626116B (zh) | 基于融合多注意力机制和Graph的视频语义分析方法 | |
CN106408030B (zh) | 基于中层语义属性和卷积神经网络的sar图像分类方法 | |
CN111626162B (zh) | 基于时空大数据分析的水上救援系统及溺水警情预测方法 | |
CN103942575A (zh) | 基于场景和马尔科夫逻辑网的智能行为分析系统及方法 | |
WO2023035923A1 (zh) | 一种视频审核方法、装置及电子设备 | |
KR20190079047A (ko) | 육안 인식 검사원의 부하경감을 위한 등급별 영상인식 기술을 이용한 cctv 영상내 의심물체 부분검사 지원 시스템 및 방법 | |
CN109117774A (zh) | 一种基于稀疏编码的多视角视频异常检测方法 | |
CN111046728A (zh) | 一种基于特征金字塔网络的秸秆燃烧检测方法 | |
CN113743471A (zh) | 一种驾驶评估方法及其系统 | |
CN110796360A (zh) | 一种固定型交通检测源多尺度数据融合方法 | |
CN110210550A (zh) | 基于集成学习策略的图像细粒度识别方法 | |
CN116824335A (zh) | 一种基于YOLOv5改进算法的火灾预警方法及系统 | |
CN115546899A (zh) | 一种基于深度学习的考场异常行为分析方法、系统及终端机 | |
CN114022726A (zh) | 一种基于胶囊网络的人员车辆监控方法及系统 | |
CN116469020A (zh) | 一种基于多尺度和高斯Wasserstein距离的无人机图像目标检测方法 | |
CN114879891A (zh) | 一种自监督多目标跟踪下的多模态人机互动方法 | |
CN113486712B (zh) | 一种基于深度学习的多人脸识别方法、系统和介质 | |
CN110046595A (zh) | 一种基于级联式多尺度的密集人脸检测方法 | |
CN117011932A (zh) | 一种奔跑行为检测方法、电子设备及存储介质 | |
CN116758469A (zh) | 一种人群异常情况和单人运动状态检测方法 | |
CN107665325A (zh) | 基于原子特征袋模型的视频异常事件检测方法及系统 | |
CN115719428A (zh) | 基于分类模型的人脸图像聚类方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |