CN113177450A - 行为识别方法、装置、电子设备和存储介质 - Google Patents
行为识别方法、装置、电子设备和存储介质 Download PDFInfo
- Publication number
- CN113177450A CN113177450A CN202110426867.3A CN202110426867A CN113177450A CN 113177450 A CN113177450 A CN 113177450A CN 202110426867 A CN202110426867 A CN 202110426867A CN 113177450 A CN113177450 A CN 113177450A
- Authority
- CN
- China
- Prior art keywords
- neural network
- convolutional neural
- video
- behavior recognition
- activation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Molecular Biology (AREA)
- Evolutionary Biology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Probability & Statistics with Applications (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本公开提供一种行为识别方法、装置、电子设备和存储介质。该方法包括:将待识别视频中的视频帧按时序分为至少两个视频片段,按序从每个所述视频片段中采样一帧视频图像,得到视频图像序列,将视频图像序列输入预先训练的特征提取卷积神经网络,得到与待识别视频对应的目标特征图像,将目标特征图像输入行为识别模型,得到与待识别视频对应的行为识别结果。通过在对待识别视频进行特征提取的特征提取卷积神经网络中并列引入时空激活卷积神经网络、网络信道激活卷积神经网络和运动激活卷积神经网络,相对于2D‑CNN仅增加少量计算量但识别准确度却相应提高,相对于3D‑CNN则大大减少计算量且识别准确度也得到提高。
Description
技术领域
本公开的实施例涉及计算机视觉技术领域,具体涉及行为识别方法、装置、电子设备和存储介质。
背景技术
行为识别主要研究在视频中识别出目标的动作类别,例如判断视频中一个人是在走路、跳跃还是在拍手等。行为识别除了关注空间的依赖关系,也需要在时间维度关注历史信息。
发明内容
本公开的实施例提出了行为识别方法、装置、电子设备和存储介质。
第一方面,本公开的实施例提供了一种行为识别方法,该方法包括:
在一些可选的实施方式中,所述特征提取卷积神经网络和所述行为识别模型是通过如下训练步骤预先训练得到的:
获取训练样本集合,其中,训练样本包括训练样本视频和用于表征该训练样本视频所表征行为类别的样本标注信息;
对每个所述训练样本视频,将该训练样本视频中的视频帧按时序分为至少两个视频片段,以及按序从每个所述视频片段中采样一帧视频图像,得到每个训练样本视频对应的视频图像序列;
对于所述训练样本集合中的训练样本视频,执行以下参数调整操作直到满足预设训练结束条件:将该训练样本视频对应的视频图像序列输入所述初始特征提取卷积神经网络,得到与该训练样本视频对应的样本目标特征图像,所述初始特征提取卷积神经网络包括并列设置的初始时空激活卷积神经网络、初始网络信道激活卷积神经网络和初始运动激活卷积神经网络,所述初始时空激活卷积神经网络包括网络信道池化层、时空卷积层和激活函数层,所述初始网络信道激活卷积神经网络包括空间池化层和激活函数层,所述初始运动激活卷积神经网络包括空间卷积层、时序相邻帧差异特征提取层、空间池化层和激活函数层;将所述样本目标特征图像输入初始行为识别模型,得到与该训练样本视频对应的行为识别结果;基于所得到的行为识别结果与该训练样本中样本标注信息之间的差异调整所述特征提取卷积神经网络和所述初始行为识别模型的参数;
分别将所述初始特征提取卷积神经网络和所述初始行为识别模型确定为所述特征提取卷积神经网络和所述行为识别模型。
在一些可选的实施方式中,所述预设训练结束条件包括以下至少一项:
用测试样本集合测试所述初始特征提取卷积神经网络和所述初始行为识别模型的准确率大于预设准确率阈值,所述测试样本包括测试样本视频和用于表征该测试样本视频所表征行为类别的样本标注信息;
所得到的行为识别结果与该训练样本中样本标注信息之间的差异小于预设差异阈值;
执行所述参数调整操作的次数大于等于预设调参次数阈值。
在一些可选的实施方式中,所述行为识别模型包括第一预设数目个按序排列的空间特征分类器,所述目标特征图像包括所述第一预设数目个按序排列的空间特征图像,所述行为识别结果包括第二预设数目个行为类别中每个行为类别的概率值;以及
所述将所述目标特征图像输入行为识别模型,得到与所述待识别视频对应的行为识别结果,包括:
分别将各所述空间特征图像输入相应顺序的空间特征分类器中,得到相应的行为识别结果;
将所得到的各所述行为识别结果的均值确定为与所述待识别视频对应的行为识别结果。
在一些可选的实施方式中,所述时空激活卷积神经网络、网络信道激活卷积神经网络和运动激活卷积神经网络均为残差网络。
第二方面,本公开的实施例提供了一种行为识别装置,该装置包括:
分段单元,被配置成将待识别视频中的视频帧按时序分为至少两个视频片段;
采样单元,被配置成按序从每个所述视频片段中采样一帧视频图像,得到视频图像序列;
特征提取单元,被配置成将所述视频图像序列输入预先训练的特征提取卷积神经网络,得到与所述待识别视频对应的目标特征图像,其中,所述特征提取卷积神经网络包括并列设置的时空激活卷积神经网络、网络信道激活卷积神经网络和运动激活卷积神经网络,所述时空激活卷积神经网络包括网络信道池化层、时空卷积层和激活函数层,所述网络信道激活卷积神经网络包括空间池化层和激活函数层,所述运动激活卷积神经网络包括空间卷积层、时序相邻帧差异特征提取层、空间池化层和激活函数层;
识别单元,被配置成将所述目标特征图像输入行为识别模型,得到与所述待识别视频对应的行为识别结果,其中,所述行为识别模型用于表征特征图像和行为识别结果之间的对应关系。
在一些可选的实施方式中,所述特征提取卷积神经网络和所述行为识别模型是通过如下训练步骤预先训练得到的:
获取训练样本集合,其中,训练样本包括训练样本视频和用于表征该训练样本视频所表征行为类别的样本标注信息;
对每个所述训练样本视频,将该训练样本视频中的视频帧按时序分为至少两个视频片段,以及按序从每个所述视频片段中采样一帧视频图像,得到每个训练样本视频对应的视频图像序列;
对于所述训练样本集合中的训练样本视频,执行以下参数调整操作直到满足预设训练结束条件:将该训练样本视频对应的视频图像序列输入所述初始特征提取卷积神经网络,得到与该训练样本视频对应的样本目标特征图像,所述初始特征提取卷积神经网络包括并列设置的初始时空激活卷积神经网络、初始网络信道激活卷积神经网络和初始运动激活卷积神经网络,所述初始时空激活卷积神经网络包括网络信道池化层、时空卷积层和激活函数层,所述初始网络信道激活卷积神经网络包括空间池化层和激活函数层,所述初始运动激活卷积神经网络包括空间卷积层、时序相邻帧差异特征提取层、空间池化层和激活函数层;将所述样本目标特征图像输入初始行为识别模型,得到与该训练样本视频对应的行为识别结果;基于所得到的行为识别结果与该训练样本中样本标注信息之间的差异调整所述特征提取卷积神经网络和所述初始行为识别模型的参数;
分别将所述初始特征提取卷积神经网络和所述初始行为识别模型确定为所述特征提取卷积神经网络和所述行为识别模型。
在一些可选的实施方式中,所述预设训练结束条件包括以下至少一项:
用测试样本集合测试所述初始特征提取卷积神经网络和所述初始行为识别模型的准确率大于预设准确率阈值,所述测试样本包括测试样本视频和用于表征该测试样本视频所表征行为类别的样本标注信息;
所得到的行为识别结果与该训练样本中样本标注信息之间的差异小于预设差异阈值;
执行所述参数调整操作的次数大于等于预设调参次数阈值。
在一些可选的实施方式中,所述行为识别模型包括第一预设数目个按序排列的空间特征分类器,所述目标特征图像包括所述第一预设数目个按序排列的空间特征图像,所述行为识别结果包括第二预设数目个行为类别中每个行为类别的概率值;以及
所述识别单元进一步被配置成:
分别将各所述空间特征图像输入相应顺序的空间特征分类器中,得到相应的行为识别结果;
将所得到的各所述行为识别结果的均值确定为与所述待识别视频对应的行为识别结果。
在一些可选的实施方式中,所述时空激活卷积神经网络、网络信道激活卷积神经网络和运动激活卷积神经网络均为残差网络。
第三方面,本公开的实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当上述一个或多个程序被上述一个或多个处理器执行时,使得上述一个或多个处理器实现如第一方面中任一实现方式描述的方法。
第四方面,本公开的实施例提供了一种计算机可读存储介质,其上存储有计算机程序,其中,该计算机程序被一个或多个处理器执行时实现如第一方面中任一实现方式描述的方法。
目前主流的视频行为识别主要有以下方案:
1.基于3D-CNN的结构:即采用3D卷积核替换2D卷积核,但3D-CNN的计算量较大。
2.基于2D-CNN的结构:其中代表的有TSN(Temporal Segment Networks)网络,但是TSN缺少对时间维度的建模;之后的TSM(Temporal Shift Module)对网络信道进行了移位操作,考虑到了时间的维度,但是也缺少了对视频帧之前差异的建模。
本公开的实施例提供的行为识别方法、装置、电子设备和存储介质,通过在对待识别视频进行特征提取的特征提取卷积神经网络中并列引入时空激活卷积神经网络、网络信道激活卷积神经网络和运动激活卷积神经网络,相对于2D-CNN仅增加少量计算量但识别准确度却相应提高,相对于3D-CNN则大大减少计算量且识别准确度也得到提高。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本公开的其它特征、目的和优点将会变得更明显。附图仅用于示出具体实施方式的目的,而并不认为是对本发明的限制。在附图中:
图1是本公开的一个实施例可以应用于其中的示例性系统架构图;
图2是根据本公开的行为识别方法的一个实施例的流程图;
图3是根据本公开的训练步骤的一个实施例的流程图;
图4是根据公开的行为识别方法的一个实施例的应用场景示意图;
图5是根据本公开的行为识别装置的一个实施例的结构示意图;
图6是适于用来实现本公开的实施例的电子设备的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本公开作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本公开。
图1示出了可以应用本公开的行为识别方法、装置、电子设备和存储介质的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如视频点播类应用、视频编辑类应用、视频拍摄类应用、短视频社交类应用、网络会议类应用、网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是具有视频采集设备(例如摄像头)、手写板和显示屏的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving Picture Experts GroupAudio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture ExpertsGroup Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的终端设备中。其可以实现成多个软件或软件模块(例如用来提供视频录制、编辑、播放服务),也可以实现成单个软件或软件模块。在此不做具体限定。
在一些情况下,本公开所提供的行为识别方法可以由终端设备101、102、103执行,相应地,行为识别装置可以设置于终端设备101、102、103中。这时,系统架构100也可以不包括服务器105。
在一些情况下,本公开所提供的行为识别方法可以由终端设备101、102、103和服务器105共同执行,例如,“将待识别视频中的视频帧按时序分为至少两个视频片段”和“按序从每个所述视频片段中采样一帧视频图像,得到视频图像序列”的步骤可以由终端设备101、102、103执行,“将视频图像序列输入预先训练的特征提取卷积神经网络,得到与待识别视频对应的目标特征图像”等步骤可以由服务器105执行。本公开对此不做限定。相应地,行为识别装置也可以分别设置于终端设备101、102、103和服务器105中。
在一些情况下,本公开所提供的行为识别方法可以由服务器105执行,相应地,行为识别装置也可以设置于服务器105中,这时,系统架构100也可以不包括终端设备101、102、103。
需要说明的是,服务器105可以是硬件,也可以是软件。当服务器105为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器105为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,其示出了根据本公开的行为识别方法的一个实施例的流程200,该行为识别方法包括以下步骤:
步骤201,将待识别视频中的视频帧按时序分为至少两个视频片段。
在本实施例中,行为识别方法的执行主体(例如图1所示的服务器105)可以本地或者远程地从与上述执行主体网络连接的其他电子设备(例如,图1所示的终端设备101、102、103)获取待识别视频,再采用各种实现方式将待识别视频中的视频帧按时序分为至少两个视频片段。
这里,待识别视频可以是短视频(一般是在互联网新媒体上传播的时长在5分钟以内的视频)或者常规视频,本公开对此不做具体限定。
这里,可以将待识别视频中的视频帧按时序分为固定数目个视频片段,比如分为N个视频片段,而N大于等于2。也可以将待识别视频分成可变化的数目个视频片段,而可变化的数目也是大于等于2的正整数。划分后所得到的各视频片段长度可以相同也可以不同。
在一些可选的实施方式中,对于包括V帧的待识别视频,可以从第一帧开始每隔S帧分成一个视频片段,直到未被划分的部分视频帧数小于等于S帧,将未被划分的部分划分成最后一个视频片段,或者也可以将最后一个视频片段丢弃。
步骤202,按序从每个视频片段中采样一帧视频图像,得到视频图像序列。
在本实施例中,上述执行主体可以随机从每个视频片段中采样一帧视频图像,也可以对每个视频片段的视频帧图像中的中位数视频帧图像进行采样。或者,还可以对每个视频片段的首帧视频图像或者最后一帧视频图像进行采样。
将所采样的各个视频图像按照所在视频片段在待识别视频中的顺序进行排列即得到视频图像序列。
步骤203,将视频图像序列输入预先训练的特征提取卷积神经网络,得到与待识别视频对应的目标特征图像。
在本实施例中,上述执行主体可以将步骤202中所得到的视频图像序列输入预先训练的特征提取卷积神经网络进行特征提取,并将特征提取得到的特征图像作为与待识别视频对应的目标特征图像。
这里,特征提取卷积神经网络可以包括并列设置的时空激活卷积神经网络、网络信道激活卷积神经网络和运动激活卷积神经网络。其中,并列设置的时空激活卷积神经网络、网络信道激活卷积神经网络和运动激活卷积神经网络可以位于特征提取卷积神经网络中的任意位置,例如可以位于特征提取卷积神经网络的起始位置、中间位置或者结束位置。需要说明的是,不论并列设置的时空激活卷积神经网络、网络信道激活卷积神经网络和运动激活卷积神经网络位于特征提取卷积神经网络中的什么位置,同时输入时空激活卷积神经网络、网络信道激活卷积神经网络和运动激活卷积神经网络的图像序列可以是步骤202中得到的视频图像序列,也可以是经过特征提取卷积神经网络中位于时空激活卷积神经网络、网络信道激活卷积神经网络和运动激活卷积神经网络之前的其他网络操作之后所得到的图像序列,且同时输入时空激活卷积神经网络、网络信道激活卷积神经网络和运动激活卷积神经网络的图像序列中图像数量可以与步骤202中得到的视频图像序列图像数量相同。
下面假设同时输入时空激活卷积神经网络、网络信道激活卷积神经网络和运动激活卷积神经网络的图像序列由T个按时序组成的长度为横向包括H个像素点纵向包括W个像素点,且每个像素点包括C个网络信道的图像组成,即,该图像序列可以认为是T*C*H*W的图像序列,对时空激活卷积神经网络、网络信道激活卷积神经网络和运动激活卷积神经网络进行解释。网络信道例如可以是图像像素点的颜色通道。
时空激活卷积神经网络可以包括网络信道池化层、时空卷积层和激活函数层。其中,网络信道池化层用于对所输入的维度为T*C*H*W的图像序列,在网络信道(即C维度)进行池化操作(比如取平均值),进而得到T*1*H*W的信道特征图像序列。接下来,时空卷积层用于对T*1*H*W的信道特征图像序列在时间维度(即,对应T这一维度)和空间维度(即,对应H和W这两个维度)这三个维度(即,对应T、H和W)进行三维卷积以提取时空特征,得到维度为T*1*H*W信道时空特征图像序列。最后,激活函数层用于对维度为T*1*H*W的信道时空特征图像序列进行归一化处理(例如,可以采用Sigmoid激活函数)得到维度为T*1*H*W的归一化后的信道时空特征图像序列。通过上述描述可知,时空激活卷积神经网络可以对所输入的图像序列进行网络信道维度的池化降维,以及可以提取时间和空间特征,并最后进行归一化处理。
网络信道激活卷积神经网络可以包括空间池化层和激活函数层。其中,空间池化层用于对所输入的维度为T*C*H*W的图像序列在空间维度(即,对应H和W这两个维度)进行池化操作(例如取平均值),进而得到维度为T*C*1*1的空间特征图像序列,再将维度为T*C*1*1的空间特征图像序列输入激活函数层(例如,可以采用Sigmoid激活函数)以进行归一化处理,得到维度为T*C*1*1的归一化后的空间特征图像序列。通过上述描述可知,网络信道激活卷积神经网络可以对所输入的图像序列进行空间维度的池化降维,以及进行归一化处理。
运动激活卷积神经网络可以包括空间卷积层、时序相邻帧差异特征提取层、空间池化层和激活函数层。其中,空间卷积层用于对所输入的维度为T*C*H*W的图像序列在空间维度(即,对应H和W这两个维度)进行二维卷积操作以提取空间特征,并得到维度为T*C*H*W的空间特征图像序列。而时序相邻帧差异特征提取层用于对维度为T*C*H*W的空间特征图像序列,在时间维度(即T维度)上,保留其中第一个维度为C*H*W的特征图像,对于后续维度为C*H*W的特征图像提取其与前一帧维度为C*H*W的特征图像之间的特征差值,即提取差异特征,也可以理解为运动特征,进行合并后得到维度为T*C*H*W的运动空间特征图像序列。接下来,空间池化层用于对维度为T*C*H*W的运动空间特征图像序列在空间维度进行池化操作(例如取均值),得到维度为T*C*1*1的运动空间特征图像序列。最后,激活函数层用于对维度为T*C*1*1的运动空间特征图像序列进行归一化处理(例如,可以采用Sigmoid激活函数),得到维度为T*C*1*1的归一化后的运动空间特征图像序列。通过上述描述可知,运动激活卷积神经网络可以对所输入的图像序列进行空间特征、运动特征提取以及进行空间维度的池化降维,最后进行归一化处理。
在一些可选的实施方式中,时空激活卷积神经网络、网络信道激活卷积神经网络和运动激活卷积神经网络可以均为残差网络。通过采用残差网络,可以缓解在深度神经网络中增加深度带来的梯度消失问题,即在训练过程中更容易优化,并且能够通过增加相当的深度来提高行为识别的准确率。
可以理解的是,按照上述举例及解释,当时空激活卷积神经网络为残差网络时,时空激活卷积神经网络的输出可以在维度为T*1*H*W的归一化后的信道时空特征图像序列的基础上合并所输入的维度为T*C*H*W的图像序列。同理,当网络信道激活卷积神经网络为残差网络时,网络信道激活卷积神经网络的输出可以在维度为T*C*1*1的归一化后的空间特征图像序列的基础上合并所输入的维度为T*C*H*W的图像序列。
当运动激活卷积神经网络为残差网络时,运动激活卷积神经网络的输出可以在维度为T*C*1*1的归一化后的运动空间特征图像序列的基础上合并所输入的维度为T*C*H*W的图像序列。
需要说明的是,特征提取卷积神经网络除了可以包括并列设置的时空激活卷积神经网络、网络信道激活卷积神经网络和运动激活卷积神经网络以外,还可以在上述并列设置的三个卷积神经网络之前或者之后包括其他至少一个卷积神经网络(例如包括卷积层、池化层和全连接层)等。当并列设置的时空激活卷积神经网络、网络信道激活卷积神经网络和运动激活卷积神经网络位于特征提取卷积神经网络中的结束位置时,可以将时空激活卷积神经网络、网络信道激活卷积神经网络和运动激活卷积神经网络输出的图像序列合并后得到与待识别视频对应的目标特征图像。当并列设置的时空激活卷积神经网络、网络信道激活卷积神经网络和运动激活卷积神经网络后还有其他卷积神经网络时,可以将时空激活卷积神经网络、网络信道激活卷积神经网络和运动激活卷积神经网络输出的图像序列合并后的特征图像输入其他卷积神经网络,并将上述其他卷积神经网络操作的输出的特征图像作为与待识别视频对应的目标特征图像。
步骤204,将目标特征图像输入行为识别模型,得到与待识别视频对应的行为识别结果。
在本实施例中,上述执行了主体可以将步骤203所得到的目标特征图像输入预先训练的行为识别模型,得到与待识别视频对应的行为识别结果。这里,行为识别模型用于表征特征图像和行为识别结果之间的对应关系。而行为识别结果可以采用各种表现形式,例如行为识别结果可以是第二预设数目个行为类别中具体哪个行为类别,行为识别结果还可以包括属于第二预设数目个行为类别中每个行为类别的概率值。例如第二预设数目个行为类别可以是“跳跃”、“走路”、“拍手”等。
这里,行为识别模型可以为各种分类器,例如可以是线性分类器或者非线性分类器,本公开对此不做具体限定。
在一些可选的实施方式中,行为识别模型可以包括第一预设数目个按序排列的空间特征分类器,相应地目标特征图像包括可以第一预设数目个按序排列的空间特征图像。而行为识别结果可以包括第二预设数目个行为类别中每个行为类别的概率值。相应地,步骤204也可以如下执行:
首先,分别将各空间特征图像输入相应顺序的空间特征分类器中,得到相应的行为识别结果。
然后,将所得到的各行为识别结果的均值确定为与待识别视频对应的行为识别结果。
这里,第一预设数目可以是步骤201中将待识别视频中的视频帧按时序划分所得到的视频片段的数目。即,按照该可选实施方式,可以按照时序对待识别视频不同时段的视频分别给出行为识别结果,再对不同时段的行为识别结果进行平均进而得到最终的行为识别结果,不会丢失时序特征,准确率更高。
在一些可选的实施方式中,步骤203中所用到的特征提取卷积神经网络和行为识别模型可以是通过如图3所示的训练步骤300预先训练得到的,训练步骤300包括以下步骤:
这里,训练步骤300的执行主体可以与上述行为识别方法的执行主体相同。这样,训练步骤的执行主体可以在训练得到特征提取卷积神经网络和行为识别模型后,将特征提取卷积神经网络和行为识别模型的模型参数存储在上述执行主体本地,并在执行上述行为识别方法的过程中读取上述训练得到的特征提取卷积神经网络和行为识别模型的模型结构信息和模型参数信息。
这里,训练步骤的执行主体也可以与上述行为识别方法的执行主体不同。这样,训练步骤的执行主体可以在训练得到特征提取卷积神经网络和行为识别模型后,将特征提取卷积神经网络和行为识别模型的模型参数发送给上述行为识别方法的执行主体。这样,上述行为识别方法的执行主体可以在执行上述特征提取卷积神经网络和行为识别方法的过程中读取上述从训练步骤的执行主体接收到的特征提取卷积神经网络和行为识别模型的模型结构信息和模型参数信息。
步骤301,获取训练样本集合。
这里,训练样本可以包括训练样本视频和用于表征该训练样本视频所表征行为类别的样本标注信息。
这里,样本标注信息可以是各种形式。例如,样本标注信息可以是第二预设数目个行为类别中具体哪个行为类别,或者样本标注信息可以是第二预设数目个行为类别中每个行为类别的概率值(例如,可以其中一个行为类别的概率值为1,而其他行为类别的概率值为0)。
步骤302,对每个训练样本视频,将该训练样本视频中的视频帧按时序分为至少两个视频片段,以及按序从每个视频片段中采样一帧视频图像,得到每个训练样本视频对应的视频图像序列。
这里,对训练样本视频进行划分以及从划分后的视频片段中进行采样的具体方法可以参考步骤201和步骤202的相关描述,在此不再赘述。
步骤303,对于训练样本集合中的训练样本视频,执行参数调整操作直到满足预设训练结束条件。
这里,参数调整操作可以包括以下子步骤:
子步骤3031,将该训练样本视频对应的视频图像序列输入初始特征提取卷积神经网络,得到与该训练样本视频对应的样本目标特征图像。
这里,初始特征提取卷积神经网络可以包括并列设置的初始时空激活卷积神经网络、初始网络信道激活卷积神经网络和初始运动激活卷积神经网络。关于初始特征卷积神经网络,可以参考上文中特征提取卷积神经网络的记载,在此不再赘述。
初始时空激活卷积神经网络可以包括网络信道池化层、时空卷积层和激活函数层。关于初始时空激活卷积神经网络,可以参考上文中时空激活卷积神经网络的记载,在此不再赘述。
初始网络信道激活卷积神经网络可以包括空间池化层和激活函数层。关于初始网络信道激活卷积神经网络,可以参考上文中网络信道激活卷积神经网络的记载,在此不再赘述。
初始运动激活卷积神经网络可以包括空间卷积层、时序相邻帧差异特征提取层、空间池化层和激活函数层。关于初始运动激活卷积神经网络,可以参考上文中运动激活卷积神经网络的记载,在此不再赘述。
子步骤3032,将样本目标特征图像输入初始行为识别模型,得到与该训练样本视频对应的行为识别结果。
子步骤3033,基于所得到的行为识别结果与该训练样本中样本标注信息之间的差异调整特征提取卷积神经网络和初始行为识别模型的参数。
这里,所得到的行为识别结果与该训练样本中样本标注信息之间的差异可以用各种损失函数来表征,本公开对此不做具体限定。
这里,可以采用各种参数优化方法调整特征提取卷积神经网络和初始行为识别模型的参数,例如梯度下降法。
在一些可选的实施方式中,预设训练结束条件包括以下至少一项:
第一项,用测试样本集合测试初始特征提取卷积神经网络和初始行为识别模型的准确率大于预设准确率阈值。这里,测试样本可以包括测试样本视频和用于表征该测试样本视频所表征行为类别的样本标注信息。
第二项,所得到的行为识别结果与该训练样本中样本标注信息之间的差异小于预设差异阈值。
第三项,执行参数调整操作的次数大于等于预设调参次数阈值。
经过步骤303,可以实现对初始特征提取卷积神经网络和初始行为识别模型的参数进行调整优化。
步骤304,分别将初始特征提取卷积神经网络和初始行为识别模型确定为特征提取卷积神经网络和行为识别模型。
经过上述步骤301到步骤304可以训练得到特征提取卷积神经网络和行为识别模型。
下面参考图4,图4是根据本实施例的行为识别方法的应用场景的一个示意图。在图4的应用场景中,待识别视频经过分段以及采样得到维度为T*3*224*224的视频图像序列,然后该维度为T*3*224*224的视频图像序列经过特征提取卷积神经网络,即依次经过7*7卷积、残差网络2、残差网络3、残差网络4和残差网络5,分别得到维度为T*64*56*56、T*256*56*56、T*512*28*28、T*1024*14*14和维度为T*2048*7*7的视频图像序列,最后得到的维度为T*2048*7*7的视频图像序列即为待识别视频对应的目标特征图像。接着,维度为T*2048*7*7的目标特征图像输入行为识别模型,得到待识别视频分别为每种行为类别的概率值,即得到行为识别结果。
在图4示出的特征提取卷积神经网络中,并列设置的时空激活卷积神经网络、网络信道激活卷积神经网络和运动激活卷积神经网络可以作为残差网络2、残差网络3、残差网络4、残差网络5中任一个残差网络,或者也可以作为上述残差网络任两个、三个或四个连续相邻的残差网络,其中,并列设置的时空激活卷积神经网络、网络信道激活卷积神经网络和运动激活卷积神经网络均为残差网络,三者的输出合并后还可以依次进行1*1卷积、3*3卷积和1*1卷积。
为了测试本公开的上述实施例提供的行为识别方法的实际效果,申请人在三个主流的数据集上egogesture,somethingv2,jester上对本公开的上述实施例提供的行为识别方法以及以TSN、TSM作为特征提取方法进行行为识别方法中的特征提取部分进行测试,具体结果如表1所示:
表1
其中,Top-1正确率是指如果概率向量中最大概率值对应的行为类别是正确的则认为识别正确,测试样本集中识别正确的样本量除以测试样本总量的比值。
TSM对应的Top-1正确率差值是指用TSM对应的Top-1正确率减去TSN对应的Top-1正确率的差值,本公开方法对应的Top-1正确率差值是指用公开方法对应的Top-1正确率减去TSN对应的Top-1正确率的差值。
Top-5正确率是指如果以概率向量中前五个最大概率值对应的行为类别中包括正确的行为类别则认为识别正确,测试样本集中识别正确的样本量除以测试样本总量的比值。
TSM对应的Top-5正确率差值是指用TSM对应的Top-5正确率减去TSN对应的Top-5正确率的差值,本公开方法对应的Top-5正确率差值是指用公开方法对应的Top-1正确率减去TSN对应的Top-5正确率的差值。
从表1中可以看出,本公开提供的行为识别方法,相对于2D-CNN大大提高了识别正确率。
申请人进一步将本公开的行为识别方法和其他基于3D-CNN的方法和2D-CNNbased方法共12个主流方法在3个大规模数据集egogesture、somethingv2、jester进行测试,具体结果如表2所示:
表2
从表2中可以看出,本公开提供的行为识别方法和其他基于3D-CNN的方法和2D-CNN based方法共12个主流方法在3个大规模数据集egogesture、somethingv2、jester的测试效果也是普遍最好的。
申请人还将本公开实施例提供的行为识别方法和TSN、TSM的参数和计算量进行对比,具体结果如表3所示:
表3
从表3可以看出,本公开的方法相对于TSN和TSM仅仅增加很少的参数存储空间和计算量,但正确率却有很多提高。其中,FLOPS是每秒所执行的浮点运算次数(floating-point operations per second)。而FLOPS差值是指减去TSM对应的FLOPS所得的差值。
另外,申请人还通过将并列设置的时空激活卷积神经网络、网络信道激活卷积神经网络和运动激活卷积神经网络添加到resnet-50的不同阶段进行测试,可以得到表4的结果:
表4
其中,所处阶段res2表示,用并列设置的时空激活卷积神经网络、网络信道激活卷积神经网络和运动激活卷积神经网络作为resnet-50的res2残差网络,而res2,3表示用并列设置的时空激活卷积神经网络、网络信道激活卷积神经网络和运动激活卷积神经网络作为resnet-50的res2和res3残差网络,而res2,3,4表示用并列设置的时空激活卷积神经网络、网络信道激活卷积神经网络和运动激活卷积神经网络作为resnet-50的res2、res3和res4残差网络,而res2,3,4,5表示用并列设置的时空激活卷积神经网络、网络信道激活卷积神经网络和运动激活卷积神经网络作为resnet-50的res2、res3、res4和res5残差网络。
从表4可以看出,将并列设置的时空激活卷积神经网络、网络信道激活卷积神经网络和运动激活卷积神经网络添加到resnet-50的不同阶段进行测试均可以达到不错的正确率。
最后,申请人将并列设置的时空激活卷积神经网络、网络信道激活卷积神经网络和运动激活卷积神经网络添加到不同的骨干网(backbone)中在3个大规模数据集egogesture、somethingv2、jester上进行测试,具体结果如表5所示:
表5
从表5中可以看出,将并列设置的时空激活卷积神经网络、网络信道激活卷积神经网络和运动激活卷积神经网络添加到不同的骨干网,参数所需存储空间和计算量略有增加,但正确率也有相应提高。
本公开的上述实施例提供的行为识别方法,通过在对待识别视频进行特征提取的特征提取卷积神经网络中并列引入时空激活卷积神经网络、网络信道激活卷积神经网络和运动激活卷积神经网络,其中时空激活卷积神经网络可以对所输入的图像序列进行网络信道维度的池化降维,以及对时间和空间特征进行三维卷积操作提取特征,并最后进行归一化处理,网络信道激活卷积神经网络可以对所输入的图像序列进行空间维度的池化降维,以及进行归一化处理,运动激活卷积神经网络可以对所输入的图像序列进行二维卷积得到空间特征,在提取运动特征以及进行空间维度的池化降维,最后进行归一化处理。其中,涉及二维卷积和三维卷积混合,且所提取的特征层次丰富全面,相对于2D-CNN仅增加少量计算量但识别准确度却相应提高,相对于3D-CNN则大大减少计算量且识别准确度也得到提高。
进一步参考图5,作为对上述各图所示方法的实现,本公开提供了一种行为识别装置的一个实施例,该装置实施例与图5所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的行为识别装置500包括:分段单元501、采样单元502、特征提取单元503和识别单元504。其中,分段单元501,被配置成将待识别视频中的视频帧按时序分为至少两个视频片段;采样单元502,被配置成按序从每个所述视频片段中采样一帧视频图像,得到视频图像序列;特征提取单元503,被配置成将所述视频图像序列输入预先训练的特征提取卷积神经网络,得到与所述待识别视频对应的目标特征图像,其中,所述特征提取卷积神经网络包括并列设置的时空激活卷积神经网络、网络信道激活卷积神经网络和运动激活卷积神经网络,所述时空激活卷积神经网络包括网络信道池化层、时空卷积层和激活函数层,所述网络信道激活卷积神经网络包括空间池化层和激活函数层,所述运动激活卷积神经网络包括空间卷积层、时序相邻帧差异特征提取层、空间池化层和激活函数层;识别单元504,被配置成将所述目标特征图像输入行为识别模型,得到与所述待识别视频对应的行为识别结果,其中,所述行为识别模型用于表征特征图像和行为识别结果之间的对应关系。
在本实施例中,行为识别装置500的分段单元501、采样单元502、特征提取单元503和识别单元504的具体处理及其所带来的技术效果可分别参考图2对应实施例中步骤201、步骤202、步骤203和步骤204的相关说明,在此不再赘述。
在一些可选的实施方式中,所述特征提取卷积神经网络和所述行为识别模型可以是通过如下训练步骤预先训练得到的:
获取训练样本集合,其中,训练样本包括训练样本视频和用于表征该训练样本视频所表征行为类别的样本标注信息;
对每个所述训练样本视频,将该训练样本视频中的视频帧按时序分为至少两个视频片段,以及按序从每个所述视频片段中采样一帧视频图像,得到每个训练样本视频对应的视频图像序列;
对于所述训练样本集合中的训练样本视频,执行以下参数调整操作直到满足预设训练结束条件:将该训练样本视频对应的视频图像序列输入所述初始特征提取卷积神经网络,得到与该训练样本视频对应的样本目标特征图像,所述初始特征提取卷积神经网络包括并列设置的初始时空激活卷积神经网络、初始网络信道激活卷积神经网络和初始运动激活卷积神经网络,所述初始时空激活卷积神经网络包括网络信道池化层、时空卷积层和激活函数层,所述初始网络信道激活卷积神经网络包括空间池化层和激活函数层,所述初始运动激活卷积神经网络包括空间卷积层、时序相邻帧差异特征提取层、空间池化层和激活函数层;将所述样本目标特征图像输入初始行为识别模型,得到与该训练样本视频对应的行为识别结果;基于所得到的行为识别结果与该训练样本中样本标注信息之间的差异调整所述特征提取卷积神经网络和所述初始行为识别模型的参数;
分别将所述初始特征提取卷积神经网络和所述初始行为识别模型确定为所述特征提取卷积神经网络和所述行为识别模型。
在一些可选的实施方式中,所述预设训练结束条件可以包括以下至少一项:
用测试样本集合测试所述初始特征提取卷积神经网络和所述初始行为识别模型的准确率大于预设准确率阈值,所述测试样本包括测试样本视频和用于表征该测试样本视频所表征行为类别的样本标注信息;
所得到的行为识别结果与该训练样本中样本标注信息之间的差异小于预设差异阈值;
执行所述参数调整操作的次数大于等于预设调参次数阈值。
在一些可选的实施方式中,所述行为识别模型包括第一预设数目个按序排列的空间特征分类器,所述目标特征图像包括所述第一预设数目个按序排列的空间特征图像,所述行为识别结果包括第二预设数目个行为类别中每个行为类别的概率值;以及
所述识别单元504可以进一步被配置成:
分别将各所述空间特征图像输入相应顺序的空间特征分类器中,得到相应的行为识别结果;
将所得到的各所述行为识别结果的均值确定为与所述待识别视频对应的行为识别结果。
在一些可选的实施方式中,所述时空激活卷积神经网络、网络信道激活卷积神经网络和运动激活卷积神经网络可以均为残差网络。
需要说明的是,本公开的实施例提供的行为识别装置中各单元的实现细节和技术效果可以参考本公开中其它实施例的说明,在此不再赘述。
下面参考图6,其示出了适于用来实现本公开的电子设备的计算机系统600的结构示意图。图6示出的计算机系统600仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图6所示,计算机系统600可以包括处理装置(例如中央处理器、图形处理器等)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储装置608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有计算机系统600操作所需的各种程序和数据。处理装置601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
通常,以下装置可以连接至I/O接口605:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风等的输入装置606;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置607;包括例如磁带、硬盘等的存储装置608;以及通信装置609。通信装置609可以允许计算机系统600与其他设备进行无线或有线通信以交换数据。虽然图6示出了具有各种装置的电子设备的计算机系统600,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置609从网络上被下载和安装,或者从存储装置608被安装,或者从ROM 602被安装。在该计算机程序被处理装置601执行时,执行本公开的实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备实现如图2所示的实施例及其可选实施方式示出的行为识别方法。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开的实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定,例如,分段单元还可以被描述为“将待识别视频中的视频帧按时序分为至少两个视频片段的单元”。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (12)
1.一种行为识别方法,包括:
将待识别视频中的视频帧按时序分为至少两个视频片段;
按序从每个所述视频片段中采样一帧视频图像,得到视频图像序列;
将所述视频图像序列输入预先训练的特征提取卷积神经网络,得到与所述待识别视频对应的目标特征图像,其中,所述特征提取卷积神经网络包括并列设置的时空激活卷积神经网络、网络信道激活卷积神经网络和运动激活卷积神经网络,所述时空激活卷积神经网络包括网络信道池化层、时空卷积层和激活函数层,所述网络信道激活卷积神经网络包括空间池化层和激活函数层,所述运动激活卷积神经网络包括空间卷积层、时序相邻帧差异特征提取层、空间池化层和激活函数层;
将所述目标特征图像输入行为识别模型,得到与所述待识别视频对应的行为识别结果,其中,所述行为识别模型用于表征特征图像和行为识别结果之间的对应关系。
2.根据权利要求1所述的方法,其中,所述特征提取卷积神经网络和所述行为识别模型是通过如下训练步骤预先训练得到的:
获取训练样本集合,其中,训练样本包括训练样本视频和用于表征该训练样本视频所表征行为类别的样本标注信息;
对每个所述训练样本视频,将该训练样本视频中的视频帧按时序分为至少两个视频片段,以及按序从每个所述视频片段中采样一帧视频图像,得到每个训练样本视频对应的视频图像序列;
对于所述训练样本集合中的训练样本视频,执行以下参数调整操作直到满足预设训练结束条件:将该训练样本视频对应的视频图像序列输入所述初始特征提取卷积神经网络,得到与该训练样本视频对应的样本目标特征图像,所述初始特征提取卷积神经网络包括并列设置的初始时空激活卷积神经网络、初始网络信道激活卷积神经网络和初始运动激活卷积神经网络,所述初始时空激活卷积神经网络包括网络信道池化层、时空卷积层和激活函数层,所述初始网络信道激活卷积神经网络包括空间池化层和激活函数层,所述初始运动激活卷积神经网络包括空间卷积层、时序相邻帧差异特征提取层、空间池化层和激活函数层;将所述样本目标特征图像输入初始行为识别模型,得到与该训练样本视频对应的行为识别结果;基于所得到的行为识别结果与该训练样本中样本标注信息之间的差异调整所述特征提取卷积神经网络和所述初始行为识别模型的参数;
分别将所述初始特征提取卷积神经网络和所述初始行为识别模型确定为所述特征提取卷积神经网络和所述行为识别模型。
3.根据权利要求2所述的方法,其中,所述预设训练结束条件包括以下至少一项:
用测试样本集合测试所述初始特征提取卷积神经网络和所述初始行为识别模型的准确率大于预设准确率阈值,所述测试样本包括测试样本视频和用于表征该测试样本视频所表征行为类别的样本标注信息;
所得到的行为识别结果与该训练样本中样本标注信息之间的差异小于预设差异阈值;
执行所述参数调整操作的次数大于等于预设调参次数阈值。
4.根据权利要求3所述的方法,其中,所述行为识别模型包括第一预设数目个按序排列的空间特征分类器,所述目标特征图像包括所述第一预设数目个按序排列的空间特征图像,所述行为识别结果包括第二预设数目个行为类别中每个行为类别的概率值;以及
所述将所述目标特征图像输入行为识别模型,得到与所述待识别视频对应的行为识别结果,包括:
分别将各所述空间特征图像输入相应顺序的空间特征分类器中,得到相应的行为识别结果;
将所得到的各所述行为识别结果的均值确定为与所述待识别视频对应的行为识别结果。
5.根据权利要求1-4任一项所述的方法,其中,所述时空激活卷积神经网络、网络信道激活卷积神经网络和运动激活卷积神经网络均为残差网络。
6.一种行为识别装置,包括:
分段单元,被配置成将待识别视频中的视频帧按时序分为至少两个视频片段;
采样单元,被配置成按序从每个所述视频片段中采样一帧视频图像,得到视频图像序列;
特征提取单元,被配置成将所述视频图像序列输入预先训练的特征提取卷积神经网络,得到与所述待识别视频对应的目标特征图像,其中,所述特征提取卷积神经网络包括并列设置的时空激活卷积神经网络、网络信道激活卷积神经网络和运动激活卷积神经网络,所述时空激活卷积神经网络包括网络信道池化层、时空卷积层和激活函数层,所述网络信道激活卷积神经网络包括空间池化层和激活函数层,所述运动激活卷积神经网络包括空间卷积层、时序相邻帧差异特征提取层、空间池化层和激活函数层;
识别单元,被配置成将所述目标特征图像输入行为识别模型,得到与所述待识别视频对应的行为识别结果,其中,所述行为识别模型用于表征特征图像和行为识别结果之间的对应关系。
7.根据权利要求6所述的装置,其中,所述特征提取卷积神经网络和所述行为识别模型是通过如下训练步骤预先训练得到的:
获取训练样本集合,其中,训练样本包括训练样本视频和用于表征该训练样本视频所表征行为类别的样本标注信息;
对每个所述训练样本视频,将该训练样本视频中的视频帧按时序分为至少两个视频片段,以及按序从每个所述视频片段中采样一帧视频图像,得到每个训练样本视频对应的视频图像序列;
对于所述训练样本集合中的训练样本视频,执行以下参数调整操作直到满足预设训练结束条件:将该训练样本视频对应的视频图像序列输入所述初始特征提取卷积神经网络,得到与该训练样本视频对应的样本目标特征图像,所述初始特征提取卷积神经网络包括并列设置的初始时空激活卷积神经网络、初始网络信道激活卷积神经网络和初始运动激活卷积神经网络,所述初始时空激活卷积神经网络包括网络信道池化层、时空卷积层和激活函数层,所述初始网络信道激活卷积神经网络包括空间池化层和激活函数层,所述初始运动激活卷积神经网络包括空间卷积层、时序相邻帧差异特征提取层、空间池化层和激活函数层;将所述样本目标特征图像输入初始行为识别模型,得到与该训练样本视频对应的行为识别结果;基于所得到的行为识别结果与该训练样本中样本标注信息之间的差异调整所述特征提取卷积神经网络和所述初始行为识别模型的参数;
分别将所述初始特征提取卷积神经网络和所述初始行为识别模型确定为所述特征提取卷积神经网络和所述行为识别模型。
8.根据权利要求7所述的装置,其中,所述预设训练结束条件包括以下至少一项:
用测试样本集合测试所述初始特征提取卷积神经网络和所述初始行为识别模型的准确率大于预设准确率阈值,所述测试样本包括测试样本视频和用于表征该测试样本视频所表征行为类别的样本标注信息;
所得到的行为识别结果与该训练样本中样本标注信息之间的差异小于预设差异阈值;
执行所述参数调整操作的次数大于等于预设调参次数阈值。
9.根据权利要求8所述的装置,其中,所述行为识别模型包括第一预设数目个按序排列的空间特征分类器,所述目标特征图像包括所述第一预设数目个按序排列的空间特征图像,所述行为识别结果包括第二预设数目个行为类别中每个行为类别的概率值;以及
所述识别单元进一步被配置成:
分别将各所述空间特征图像输入相应顺序的空间特征分类器中,得到相应的行为识别结果;
将所得到的各所述行为识别结果的均值确定为与所述待识别视频对应的行为识别结果。
10.根据权利要求6-9任一项所述的装置,其中,所述时空激活卷积神经网络、网络信道激活卷积神经网络和运动激活卷积神经网络均为残差网络。
11.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1-5中任一所述的方法。
12.一种计算机可读存储介质,其上存储有计算机程序,其中,所述计算机程序被一个或多个处理器执行时实现如权利要求1-5中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110426867.3A CN113177450A (zh) | 2021-04-20 | 2021-04-20 | 行为识别方法、装置、电子设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110426867.3A CN113177450A (zh) | 2021-04-20 | 2021-04-20 | 行为识别方法、装置、电子设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113177450A true CN113177450A (zh) | 2021-07-27 |
Family
ID=76924175
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110426867.3A Pending CN113177450A (zh) | 2021-04-20 | 2021-04-20 | 行为识别方法、装置、电子设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113177450A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114627329A (zh) * | 2022-02-24 | 2022-06-14 | 海信集团控股股份有限公司 | 一种视觉敏感信息检测模型训练方法、装置和设备 |
CN115631370A (zh) * | 2022-10-09 | 2023-01-20 | 北京医准智能科技有限公司 | 一种基于卷积神经网络的mri序列类别的识别方法及装置 |
WO2023108782A1 (zh) * | 2021-12-15 | 2023-06-22 | 深圳先进技术研究院 | 行为识别模型训练方法及装置、行为识别方法及装置、系统、介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020119527A1 (zh) * | 2018-12-11 | 2020-06-18 | 中国科学院深圳先进技术研究院 | 人体动作识别方法、装置、终端设备及存储介质 |
CN111310516A (zh) * | 2018-12-11 | 2020-06-19 | 杭州海康威视数字技术股份有限公司 | 一种行为识别方法和装置 |
CN112580523A (zh) * | 2020-12-22 | 2021-03-30 | 平安国际智慧城市科技股份有限公司 | 行为识别方法、装置、设备及存储介质 |
-
2021
- 2021-04-20 CN CN202110426867.3A patent/CN113177450A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020119527A1 (zh) * | 2018-12-11 | 2020-06-18 | 中国科学院深圳先进技术研究院 | 人体动作识别方法、装置、终端设备及存储介质 |
CN111310516A (zh) * | 2018-12-11 | 2020-06-19 | 杭州海康威视数字技术股份有限公司 | 一种行为识别方法和装置 |
CN112580523A (zh) * | 2020-12-22 | 2021-03-30 | 平安国际智慧城市科技股份有限公司 | 行为识别方法、装置、设备及存储介质 |
Non-Patent Citations (1)
Title |
---|
ZHENGWEI WANG ET AL.: "ACTION-Net: Multipath Excitation for Action Recognition", 《ARXIV》, pages 1 - 15 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023108782A1 (zh) * | 2021-12-15 | 2023-06-22 | 深圳先进技术研究院 | 行为识别模型训练方法及装置、行为识别方法及装置、系统、介质 |
CN114627329A (zh) * | 2022-02-24 | 2022-06-14 | 海信集团控股股份有限公司 | 一种视觉敏感信息检测模型训练方法、装置和设备 |
CN115631370A (zh) * | 2022-10-09 | 2023-01-20 | 北京医准智能科技有限公司 | 一种基于卷积神经网络的mri序列类别的识别方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109816589B (zh) | 用于生成漫画风格转换模型的方法和装置 | |
CN109165573B (zh) | 用于提取视频特征向量的方法和装置 | |
CN108830235B (zh) | 用于生成信息的方法和装置 | |
CN109740018B (zh) | 用于生成视频标签模型的方法和装置 | |
CN113177450A (zh) | 行为识别方法、装置、电子设备和存储介质 | |
CN111476871B (zh) | 用于生成视频的方法和装置 | |
CN111523566A (zh) | 目标视频片段定位方法和装置 | |
CN110876024B (zh) | 确定虚拟形象唇部动作的方法和装置 | |
CN109829432B (zh) | 用于生成信息的方法和装置 | |
CN109902763B (zh) | 用于生成特征图的方法和装置 | |
CN109389096B (zh) | 检测方法和装置 | |
CN112149699B (zh) | 用于生成模型的方法、装置和用于识别图像的方法、装置 | |
CN112597824A (zh) | 行为识别方法、装置、电子设备和存储介质 | |
CN111460876A (zh) | 用于识别视频的方法和装置 | |
CN111046757A (zh) | 人脸画像生成模型的训练方法、装置及相关设备 | |
CN110248195B (zh) | 用于输出信息的方法和装置 | |
CN113033677A (zh) | 视频分类方法、装置、电子设备和存储介质 | |
CN113923378B (zh) | 视频处理方法、装置、设备及存储介质 | |
CN109816023B (zh) | 用于生成图片标签模型的方法和装置 | |
CN109919220B (zh) | 用于生成视频的特征向量的方法和装置 | |
CN114420135A (zh) | 基于注意力机制的声纹识别方法及装置 | |
CN112990176A (zh) | 书写质量评价方法、装置和电子设备 | |
CN115346145A (zh) | 重复视频的识别方法、设备、储存介质及计算机程序产品 | |
CN112907628A (zh) | 视频目标追踪方法、装置、存储介质及电子设备 | |
CN109919249B (zh) | 用于生成特征图的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |