CN114399839A - 基于特征融合的行为识别方法、装置、设备及存储介质 - Google Patents
基于特征融合的行为识别方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN114399839A CN114399839A CN202210055992.2A CN202210055992A CN114399839A CN 114399839 A CN114399839 A CN 114399839A CN 202210055992 A CN202210055992 A CN 202210055992A CN 114399839 A CN114399839 A CN 114399839A
- Authority
- CN
- China
- Prior art keywords
- feature
- feature extraction
- module
- behavior recognition
- branch
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 55
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000000605 extraction Methods 0.000 claims abstract description 180
- 230000003287 optical effect Effects 0.000 claims abstract description 39
- 230000007246 mechanism Effects 0.000 claims abstract description 25
- 230000006399 behavior Effects 0.000 claims description 60
- 230000015654 memory Effects 0.000 claims description 16
- 230000006870 function Effects 0.000 claims description 12
- 230000004913 activation Effects 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 10
- 101100134058 Caenorhabditis elegans nth-1 gene Proteins 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 4
- 238000013473 artificial intelligence Methods 0.000 abstract description 10
- 238000012549 training Methods 0.000 abstract description 7
- 230000009286 beneficial effect Effects 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 13
- 238000005516 engineering process Methods 0.000 description 11
- 238000010606 normalization Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 239000003086 colorant Substances 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000000638 stimulation Effects 0.000 description 2
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及人工智能领域,提供了基于特征融合的行为识别方法、装置、设备及存储介质,其中方法包括对输入视频进行抽帧;融合颜色信息和光流信息得到融合图像;将融合图像输入至特征提取网络得到目标特征;对目标特征进行分类得到行为识别结果;通过光流信息对颜色信息进行指导有利于对融合图像的特征提取;将前一第一特征提取模块的输出与前一第二特征提取模块的输出的融合结果作为后一第二特征提取模块的输入,将时间维度信息和空间维度信息融合,捕捉视频中的语义信息和运动信息,并在特征提取模型中引入注意力机制,使模型能更关注感兴趣区域的信息,有利于提高行为识别的准确率和提高模型的训练效率。
Description
技术领域
本发明涉及人工智能领域,提供基于特征融合的行为识别方法、装置、设备及存储介质。
背景技术
行为识别是计算机视觉识别领域的一个课题。视频可以被分解为空间维度信息和时间维度信息两部分。空间维度信息以单幅图像的的形式表现出来,其携带着目标的形状、颜色等静态信息。而时间维度信息则通过多帧连续图像表现出来,反应了目标体的移动信息。通过两个神经网络对图像的空间维度信息和时间维度信息分开处理再融合,能实现目标物的静态信息和动态信息的结合。但这也存在着如模型难以训练、算法太复杂、特征提取不准确导致行为识别的准确率和模型的训练效率较低等问题。
发明内容
以下是对本文详细描述的主题的概述。本概述并非是为了限制权利要求的保护范围。
本发明实施例提供了基于特征融合的行为识别方法、装置、设备及存储介质。
第一方面,本发明实施例提供了基于特征融合的行为识别方法,包括:
对输入视频进行抽帧,得到帧图像;
对每个所述帧图像,获取所述帧图像的颜色信息和光流信息,对所述帧图像的每个像素的所述颜色信息和所述光流信息进行融合得到融合图像;
将所述融合图像输入至特征提取网络进行特征提取得到目标特征,其中所述特征提取网络包括第一分支、第二分支和融合模块,所述第一分支用于提取表示所述输入视频的时间维度信息的第一特征,所述第二分支用于提取表示所述输入视频的空间维度信息的第二特征,所述融合模块用于融合所述第一特征和所述第二特征得到所述目标特征,所述第一分支包括N个第一特征提取模块,所述第二分支包括N个第二特征提取模块,第n个所述第一特征提取模块的输入为第n-1个所述第一特征提取模块的输出,第n个所述第二特征提取模块的输入为第n-1个所述第一特征提取模块的输出与第n-1个所述第二特征提取模块的输出两者的融合结果,N为大于或等于2的整数,n为2至N之间的整数;
对所述目标特征进行分类,得到行为识别结果。
第二方面,本发明实施例还提供了基于特征融合的行为识别装置,包括:
抽帧模块,用于对输入视频进行抽帧,得到帧图像;
融合图像获取模块,用于对每个所述帧图像,获取所述帧图像的颜色信息和光流信息,对所述帧图像的每个像素的所述颜色信息和所述光流信息进行融合得到融合图像;
特征提取模块,用于将所述融合图像输入至特征提取网络进行特征提取得到目标特征,其中所述特征提取网络包括第一分支、第二分支和融合模块,所述第一分支用于提取表示所述输入视频的时间维度信息的第一特征,所述第二分支用于提取表示所述输入视频的空间维度信息的第二特征,所述融合模块用于融合所述第一特征和所述第二特征得到所述目标特征,所述第一分支包括N个第一特征提取模块,所述第二分支包括N个第二特征提取模块,第n个所述第一特征提取模块的输入为第n-1个所述第一特征提取模块的输出,第n个所述第二特征提取模块的输入为第n-1个所述第一特征提取模块的输出与第n-1个所述第二特征提取模块的输出两者的融合结果,N为大于或等于2的整数,n为2至N之间的整数;
分类模块,用于对所述目标特征进行分类,得到行为识别结果。
第三方面,本发明实施例还提供了行为识别设备,包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如本发明第一方面所述的基于特征融合的行为识别方法。
第四方面,本发明实施例还提供了存储介质,其特征在于,存储有计算机程序,所述计算机程序用于执行如本发明第一方面所述的基于特征融合的行为识别方法。
本发明实施例包括:对输入视频进行抽帧,得到帧图像;对每个帧图像,获取帧图像的颜色信息和光流信息,对帧图像的每个像素的颜色信息和光流信息进行融合得到融合图像;将融合图像输入至特征提取网络进行特征提取得到目标特征,其中特征提取网络包括第一分支、第二分支和融合模块,第一分支用于提取表示输入视频的时间维度信息的第一特征,第二分支用于提取表示输入视频的空间维度信息的第二特征,融合模块用于融合第一特征和第二特征得到目标特征,第一分支包括N个第一特征提取模块,第二分支包括N个第二特征提取模块,第n个第一特征提取模块的输入为第n-1个第一特征提取模块的输出,第n个第二特征提取模块的输入为第n-1个第一特征提取模块的输出与第n-1个第二特征提取模块的输出两者的融合结果,N为大于或等于2的整数,n为2至N之间的整数;对目标特征进行分类,得到行为识别结果;对输入视频的帧图像,融合颜色信息和光流信息,通过光流信息对颜色信息进行指导,有利于对融合图像的特征提取;将第n-1个第一特征提取模块的输出与第n-1个第二特征提取模块的输出两者的融合结果作为第n个第二特征提取模块的输入,将时间维度信息和空间维度信息融合,捕捉视频中的语义信息和运动信息,并在特征提取模型中引入注意力机制,使模型能更关注感兴趣区域的信息,有利于提高行为识别的准确率和提高模型的训练效率。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在说明书、权利要求书以及附图中所特别指出的结构来实现和获得。
附图说明
附图用来提供对本发明技术方案的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明的技术方案,并不构成对本发明技术方案的限制。
图1是本发明实施例基于特征融合的行为识别方法的流程图;
图2是对帧图像的每个像素的颜色信息和光流信息进行融合得到融合图像的步骤的流程图;
图3是步骤S300的流程图;
图4是特征提取网络的原理示意图;
图5是第一特征提取模块的原理示意图;
图6是第一注意力机制模块的原理示意图;
图7是第二特这个提取模块的原理示意图;
图8是第二注意力机制模块的原理示意图;
图9是本发明实施例行为识别装置的结构图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
需要说明的是,虽然在装置示意图中进行了功能模块划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于装置中的模块划分,或流程图中的顺序执行所示出或描述的步骤。说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。在本发明的描述中,若干的含义是一个或者多个,多个的含义是两个以上,大于、小于、超过等理解为不包括本数,以上、以下、以内等理解为包括本数。
本发明实施例提供了基于特征融合的行为识别方法、装置、设备及存储介质;对输入视频进行抽帧,得到帧图像;对每个帧图像,获取帧图像的颜色信息和光流信息,对帧图像的每个像素的颜色信息和光流信息进行融合得到融合图像;将融合图像输入至特征提取网络进行特征提取得到目标特征,其中特征提取网络包括第一分支、第二分支和融合模块,第一分支用于提取表示输入视频的时间维度信息的第一特征,第二分支用于提取表示输入视频的空间维度信息的第二特征,融合模块用于融合第一特征和第二特征得到目标特征,第一分支包括N个第一特征提取模块,第二分支包括N个第二特征提取模块,第n个第一特征提取模块的输入为第n-1个第一特征提取模块的输出,第n个第二特征提取模块的输入为第n-1个第一特征提取模块的输出与第n-1个第二特征提取模块的输出两者的融合结果,N为大于或等于2的整数,n为2至N之间的整数;对目标特征进行分类,得到行为识别结果;对输入视频的帧图像,融合颜色信息和光流信息,通过光流信息对颜色信息进行指导,有利于对融合图像的特征提取;将第n-1个第一特征提取模块的输出与第n-1个第二特征提取模块的输出两者的融合结果作为第n个第二特征提取模块的输入,将时间维度信息和空间维度信息融合,捕捉视频中的语义信息和运动信息,并在特征提取模型中引入注意力机制,使模型能更关注感兴趣区域的信息,有利于提高行为识别的准确率和提高模型的训练效率。
其中语义信息包括人物的形状、颜色、表情、亮度等静态信息,运动信息包括拍手、挥手、摇晃、行走或跳跃等动态信息。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。
人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。随着人工智能技术研究和进步,人工智能在多个领域展开研究和应用,例如常见的智能家居、智能客服、虚拟助理、智能音箱、智能营销、无人驾驶、自动驾驶、机器人、智能医疗等,相信随着技术的发展,人工智能将在更多的领域得到应用,并发挥越来越重要的价值。
下面结合附图,对本发明实施例作进一步阐述。
参照图1,图1是基于特征融合的行为识别方法的流程图。
如图1所示,行为识别方法包括但不限于有以下步骤:
步骤S100、对输入视频进行抽帧,得到帧图像;
步骤S200、对每个帧图像,获取帧图像的颜色信息和光流信息,对帧图像的每个像素的颜色信息和光流信息进行融合得到融合图像;
步骤S300、将融合图像输入至特征提取网络进行特征提取得到目标特征,其中特征提取网络包括第一分支、第二分支和融合模块,第一分支用于提取表示输入视频的时间维度信息的第一特征,第二分支用于提取表示输入视频的空间维度信息的第二特征,融合模块用于融合第一特征和第二特征得到目标特征,第一分支包括N个基于注意力机制的第一特征提取模块,第二分支包括N个基于注意力机制的第二特征提取模块,第n个第一特征提取模块的输入为第n-1个第一特征提取模块的输出,第n个第二特征提取模块的输入为第n-1个第一特征提取模块的输出与第n-1个第二特征提取模块的输出两者的融合结果,N为大于或等于2的整数,n为2至N之间的整数;
步骤S400、对目标特征进行分类,得到行为识别结果。
在该实施例中,对输入视频的帧图像,融合颜色信息和光流信息,通过光流信息对颜色信息进行指导,有利于对融合图像的特征提取;将第n-1个第一特征提取模块的输出与第n-1个第二特征提取模块的输出两者的融合结果作为第n个第二特征提取模块的输入,将时间维度信息和空间维度信息融合,捕捉视频中的语义信息和运动信息,并在特征提取模型中引入注意力机制,使模型能更关注感兴趣区域的信息,有利于提高行为识别的准确率和提高模型的训练效率。
对于步骤S100,视频是一系列捕获的帧图像以给定的频率显示的。而对视频抽帧,即为通过在一序列的特定帧处停止可获得单个的帧图像。
对输入视频进行解压缩和解码,对解码后的数据抽帧提取出与输入视频对应的多个帧图像。
另外,在解压缩、解码和抽帧过程中应避免图像失真,这有利于提高行为识别的准确率。
具体地,输入视频的格式可以包括MP4、RMVB、MKV、AVI等其他视频格式。
对于步骤S200,由输入视频得到了多个帧图像,需要对所有帧图像进行处理。对每个帧图像,获取帧图像的所有像素的颜色信息,颜色信息具体为RGB信息。RGB色彩就是常说的光学三原色,R代表Red(红色),G代表Green(绿色),B代表Blue(蓝色)。自然界中肉眼所能看到的任何色彩都可以由这三种色彩混合叠加而成。通过RGB信息描述图像色彩的模式是一种加色法模式,通过R、G、B的辐射量,可描述出任一颜色。计算机定义颜色时R、G、B三种成分的取值范围是0-255,0表示没有刺激量,255表示刺激量达最大值。
当物体在运动时,物体在图像上对应点的亮度模式也在运动,这种图像亮度模式的表观运动就是光流。光流信息表达了图像的变化,包含了目标运动的信息,能用来确定目标的运动情况。
参照图2,对帧图像的每个像素的颜色信息和光流信息进行融合得到融合图像,具体包括:
步骤S210、对帧图像的每个像素,根据颜色信息得到每个颜色通道的第一元素值;
步骤S220、对帧图像的每个像素,在每个颜色通道中,将像素的光流信息与像素的第一元素值作相乘融合得到像素的第二元素值,对第二元素值作标准化处理得到目标元素值;
步骤S230、将像素的所有颜色通道的目标元素值组合得到融合图像。
对于步骤S210,其中,由于颜色信息为RBG颜色,因此颜色信息包括R通道、B通道和G通道这三个颜色通道。对帧图像的像素(i,j),由颜色信息提取得到每个颜色通道的第一元素值inputi,j。
对于步骤S220,对帧图像的像素(i,j),光流信息表示为以像素的光流信息作为像素的第一元素值的权重,使两者融合得到像素的第二元素值。通过式子可以表示为:Inputi,j=inputi,j*opticali,j,其中Inputi,j为第二元素值。通过光流信息对颜色信息进行指导,有利于融合图像的特征表示。
其中,对第二元素值作标准化处理得到目标元素值,包括:计算第二元素值的均值;计算第二元素值的方差;将第二元素值与均值之差除以方差,得到目标元素值。使图像的元素值归一化和标准化。
对于步骤S230,对于一个帧图像,将像素的所有颜色通道的目标元素值组合,该像素的元素值;根据所有像素的元素值得到融合图像。
参照图4,图4是特征提取网络的原理示意图。特征提取网络包括第一分支、第二分支和融合模块。
参照图3,对于步骤S300,将融合图像输入至特征提取网络进行特征提取得到目标特征,包括:
步骤S310、将融合图像进行降采样率处理得到第二融合图像,将第二融合图像输入至第一分支得到第一特征;
步骤S320、将融合图像输入至第二分支得到第二特征;
步骤S330、通过融合模块将第一特征和第二特征拼接,得到目标特征。
对于步骤S310,融合图像的大小为B*C*T*H*W,其中B为batch_size,即一次训练所选取的样本数;C为通道数;T为时间序列;H和W分别为融合图像的长和宽。将融合图像进行降采样率处理得到第二融合图像,第二融合图像的大小为B*C/4*T*H*W。通过降低采样率,使得第一分支可以捕捉提取到输入视频时间维度上的变化信息。
对于第一分支,第一分支包括依次连接的N个第一特征提取模块。在该实施例中,N为2;当然在其他实施例中,N可以为其他大于或等于2的整数,例如3等。
使第二融合图像依次经过两个第一特征提取模块进行特征提取得到第一特征。具体地,将第二融合图像输入第一个第一特征提取模块,第一个第一特征提取模块输出一个第一输出特征;将第一个第一特征提取模块输出的第一输出特征输入至第二个第一特征提取模块,第二个第一特征提取模块输出另一个第一输出特征,将第二个第一特征提取模块输出的第一输出特征作为第一特征。
另外,参照图5,图5是第一特征提取模块的原理示意图。每个第一特征提取模块的结构如下:
第1个第一卷积层包括:1x1x1大小的卷积层和批量归一化层;
第2个第一卷积层包括:3x3x3大小的卷积层和批量归一化层;
第3个第一卷积层包括:1x1x1大小的卷积层和批量归一化层;
第一注意力机制模块;
融合运算,该融合运算用于将第一注意力特征和第一输入特征融合得到第一输出特征。
则经过第一特征提取模块进行特征提取的过程如下:使第一输入特征依次经过三个第一卷积层进行卷积运算得到第一卷积结果;使第一卷积结果经过第一注意力机制模块进行特征提取得到第一注意力特征;将第一注意力特征和第一输入特征拼接得到第一输出特征。
其中,参照图6,图6是第一注意力机制模块的原理示意图。第一注意力机制模块的结构如下:第一全池化层,两个第一全连接层、第一激活函数层和融合运算,该融合运算用于将第一子注意力特征和第一卷积结果拼接得到第一注意力特征。
具体地,第一激活函数层为sigmoid激活函数层。
则使第一卷积结果经过第一注意力机制模块进行特征提取得到第一注意力特征的过程如下:使第一卷积结果经过第一全池化层、至少一个第一全连接层和第一激活函数层得到第一子注意力特征,将第一子注意力特征和第一卷积结果融合得到第一注意力特征。
对于步骤S320,将融合图像输入至第二分支得到第二特征,其中融合图像的大小为B*C*T*H*W,保持不变,便于第二分支可以捕捉提取到输入视频空间维度上的变化信息。
对于第二分支,第二分支包括依次连接的N个第二特征提取模块。在该实施例中,N为2;当然在其他实施例中,N可以为其他大于或等于2的整数,例如3等。需要说明的是,第二特征提取模块的数量与第一特征提取模块的数量相同。
使融合图像依次经过两个第二特征提取模块进行特征提取得到第二特征。具体地,将融合图像输入第一个第二特征提取模块,第一个第二特征提取模块输出一个第二输出特征;将第一个第二特征提取模块输出的第二输出特征和第一个第一特征提取模块输出的第一输出特征融合,然后输入至第二个第一特征提取模块,第二个第二特征提取模块输出另一个第一输出特征,将第二个第二特征提取模块输出的第二输出特征作为第二特征。
需要说明的是,第二特征提取模块输出的第二输出特征和第一特征提取模块输出的第一输出特征的融合方式采用横向连接。
另外,参照图7,图7是第二特征提取模块的原理示意图。每个第二特征提取模块的结构如下:
第1个第二卷积层包括:1x1x1大小的卷积层和批量归一化层;
第2个第二卷积层包括:3x3x3大小的卷积层和批量归一化层;
第3个第二卷积层包括:1x1x1大小的卷积层和批量归一化层;
第二注意力机制模块;
融合运算,该融合运算用于将第二注意力特征和第二输入特征融合得到第二输出特征。
则经过第二特征提取模块进行特征提取的过程如下:使第二输入特征经过三个第二卷积层进行卷积运算得到第二卷积结果,第二输入特征为输入至第二特征提取模块的特征;使第二卷积结果经过第二注意力机制模块进行特征提取得到第二注意力特征;将第二注意力特征和第二输入特征融合得到第二输出特征,第二输出特征为第二特征提取模块输出的特征。
其中,参照图8,图8是第一注意力机制模块的原理示意图。第二注意力机制模块的结构如下:第二全池化层,两个第二全连接层、第二激活函数层和融合运算,该融合运算用于将第一子注意力特征和第一卷积结果拼接得到第一注意力特征。
具体地,第二激活函数层为sigmoid激活函数层。
则使第二卷积结果经过第二注意力机制模块进行特征提取得到第二注意力特征的过程如下:使第二卷积结果经过第二全池化层、两个第二全连接层和第二激活函数层得到第二子注意力特征,将第二子注意力特征和第二卷积结果融合得到第二意力特征。
对于步骤S330,通过融合模块将第一特征和第二特征拼接,得到目标特征,目标特征融合了第一特征的时间维度信息和第二特征的空间维度信息,包含了输入视频的语义信息和运动信息。
对于步骤S400,通过分类器对目标特征进行分类,得到行为识别结果。具体地,在该实施例中,采用sofamax函数作为分类器。当然在其他实施例中,也可以采用其他分类器,例如SVM向量机。
参照图9,图9是行为识别装置的结构图。本发明的一个实施例还提供了行为识别装置,应用如上的行为识别方法。
如图9所示,行为识别装置包括抽帧模块10、融合图像获取模块20、特征提取模块30和分类模块40。
其中,抽帧模块10用于对输入视频进行抽帧,得到帧图像。
融合图像20获取模块用于对每个帧图像,获取帧图像的颜色信息和光流信息,对帧图像的每个像素的颜色信息和光流信息进行融合得到融合图像。
特征提取模块30用于将融合图像输入至特征提取网络进行特征提取得到目标特征。其中特征提取网络如上,即特征提取网络包括第一分支、第二分支和融合模块,第一分支用于提取表示输入视频的时间维度信息的第一特征,第二分支用于提取表示输入视频的空间维度信息的第二特征,融合模块用于融合第一特征和第二特征得到目标特征,第一分支包括N个第一特征提取模块,第二分支包括N个第二特征提取模块,第n个第一特征提取模块的输入为第n-1个第一特征提取模块的输出,第n个第二特征提取模块的输入为第n-1个第一特征提取模块的输出与第n-1个第二特征提取模块的输出两者的融合结果,N为大于或等于2的整数,n为2至N之间的整数。
分类模块40用于对目标特征进行分类,得到行为识别结果。
需要说明的是,该行为识别装置的各模块与上述行为识别方法的各步骤一一对应,行为识别装置与行为识别方法两者具有相同的技术方案,解决了相同的技术问题,具有相同的有益效果。
对于行为识别装置,其对输入视频的帧图像,融合颜色信息和光流信息,通过光流信息对颜色信息进行指导,有利于对融合图像的特征提取;将第n-1个第一特征提取模块的输出与第n-1个第二特征提取模块的输出两者的融合结果作为第n个第二特征提取模块的输入,将时间维度信息和空间维度信息融合,捕捉视频中的语义信息和运动信息,并在特征提取模型中引入注意力机制,使模型能更关注感兴趣区域的信息,有利于提高行为识别的准确率和提高模型的训练效率。
本发明的一个实施例还提供了行为识别设备,该行为识别设备:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序。处理器执行计算机程序时实现如上的行为识别方法。
处理器和存储器可以通过总线或者其他方式连接。
存储器作为一种计算机可读存储介质,可用于存储软件程序以及计算机可执行程序。此外,存储器可以包括高速随机存取存储器,还可以包括存储器,例如至少一个磁盘存储器件、闪存器件、或其他固态存储器件。在一些实施方式中,存储器可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至该处理器。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
实现上述实施例的通信方法所需的软件程序以及指令存储在存储器中,当被处理器执行时,执行上述实施例中的行为识别方法,例如,执行以上描述的步骤S100至步骤S400、步骤S210至步骤S230和步骤S310至步骤S330。
以上所描述的节点实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
此外,本发明的一个实施例还提供了一种存储介质,该存储介质存储有计算机程序,该计算机程序被一个处理器或控制器执行,例如,被一个处理器执行,可使得上述处理器执行上述实施例中的行为识别方法,例如,执行以上描述的步骤S100至步骤S400、步骤S210至步骤S230和步骤S310至步骤S330。
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、系统可以被实施为软件、固件、硬件及其适当的组合。某些物理组件或所有物理组件可以被实施为由处理器,如中央处理器、数字信号处理器或微处理器执行的软件,或者被实施为硬件,或者被实施为集成电路,如专用集成电路。这样的软件可以分布在计算机可读介质上,计算机可读介质可以包括计算机存储介质(或非暂时性介质)和通信介质(或暂时性介质)。如本领域普通技术人员公知的,术语计算机存储介质包括在用于存储信息(诸如计算机可读指令、数据结构、程序模块或其他数据)的任何方法或技术中实施的易失性和非易失性、可移除和不可移除介质。计算机存储介质包括但不限于RAM、ROM、EEPROM、闪存或其他存储器技术、CD-ROM、数字多功能盘(DVD)或其他光盘存储、磁盒、磁带、磁盘存储或其他磁存储装置、或者可以用于存储期望的信息并且可以被计算机访问的任何其他的介质。此外,本领域普通技术人员公知的是,通信介质通常包含计算机可读指令、数据结构、程序模块或者诸如载波或其他传输机制之类的调制数据信号中的其他数据,并且可包括任何信息递送介质。
以上是对本发明的较佳实施进行了具体说明,但本发明并不局限于上述实施方式,熟悉本领域的技术人员在不违背本发明精神的前提下还可作出种种的等同变形或替换,这些等同的变形或替换均包含在本发明权利要求所限定的范围内。
Claims (10)
1.基于特征融合的行为识别方法,其特征在于,包括:
对输入视频进行抽帧,得到帧图像;
对每个所述帧图像,获取所述帧图像的颜色信息和光流信息,对所述帧图像的每个像素的所述颜色信息和所述光流信息进行融合得到融合图像;
将所述融合图像输入至特征提取网络进行特征提取得到目标特征,其中所述特征提取网络包括第一分支、第二分支和融合模块,所述第一分支用于提取表示所述输入视频的时间维度信息的第一特征,所述第二分支用于提取表示所述输入视频的空间维度信息的第二特征,所述融合模块用于融合所述第一特征和所述第二特征得到所述目标特征,所述第一分支包括N个基于注意力机制的第一特征提取模块,所述第二分支包括N个基于注意力机制的第二特征提取模块,第n个所述第一特征提取模块的输入为第n-1个所述第一特征提取模块的输出,第n个所述第二特征提取模块的输入为第n-1个所述第一特征提取模块的输出与第n-1个所述第二特征提取模块的输出两者的融合结果,N为大于或等于2的整数,n为2至N之间的整数;
对所述目标特征进行分类,得到行为识别结果。
2.根据权利要求1所述的行为识别方法,其特征在于,所述对所述帧图像的每个像素的所述颜色信息和所述光流信息进行融合得到融合图像,包括:
对所述帧图像的每个像素,根据所述颜色信息得到每个颜色通道的第一元素值;
对所述帧图像的每个像素,在每个所述颜色通道中,将所述像素的光流信息与所述像素的第一元素值作相乘融合得到所述像素的第二元素值,对所述第二元素值作标准化处理得到目标元素值;
将所述像素的所有所述颜色通道的所述目标元素值组合得到所述融合图像。
3.根据权利要求2所述的行为识别方法,其特征在于,所述对所述第二元素值作标准化处理得到目标元素值,包括:
计算所述第二元素值的均值;
计算所述第二元素值的方差;
将所述第二元素值与所述均值之差除以所述方差,得到所述目标元素值。
4.根据权利要求1所述的行为识别方法,其特征在于,所述将所述融合图像输入至特征提取网络进行特征提取得到目标特征,包括:
将所述融合图像进行降采样率处理得到第二融合图像,将所述第二融合图像输入至所述第一分支得到所述第一特征;
将所述融合图像输入至所述第二分支得到所述第二特征;
通过所述融合模块将所述第一特征和所述第二特征拼接,得到所述目标特征。
5.根据权利要求4所述的行为识别方法,其特征在于,所述将所述第二融合图像输入至所述第一分支得到所述第一特征,包括:
使所述第二融合图像依次经过N个所述第一特征提取模块进行特征提取得到所述第一特征;
其中,经过所述第一特征提取模块进行特征提取,包括:
使第一输入特征经过至少一个第一卷积层进行卷积运算得到第一卷积结果,所述第一输入特征为输入至所述第一特征提取模块的特征;
使所述第一卷积结果经过第一注意力机制模块进行特征提取得到第一注意力特征;
将所述第一注意力特征和所述第一输入特征融合得到第一输出特征,所述第一输出特征为所述第一特征提取模块输出的特征。
6.根据权利要求5所述的行为识别方法,其特征在于,将所述融合图像输入至所述第二分支得到所述第二特征,包括:
使所述融合图像依次经过N个所述第二特征提取模块进行特征提取得到所述第二特征;
其中,经过所述第二特征提取模块进行特征提取,包括:
使第二输入特征经过至少一个第二卷积层进行卷积运算得到第二卷积结果,所述第二输入特征为输入至所述第二特征提取模块的特征;
使所述第二卷积结果经过第二注意力机制模块进行特征提取得到第二注意力特征;
将所述第二注意力特征和所述第二输入特征融合得到第二输出特征,所述第二输出特征为所述第二特征提取模块输出的特征。
7.根据权利要求6所述的行为识别方法,其特征在于,所述使所述第一卷积结果经过第一注意力机制模块进行特征提取得到第一注意力特征,包括:
使所述第一卷积结果经过第一全池化层、至少一个第一全连接层和第一激活函数层得到第一子注意力特征,将所述第一子注意力特征和所述第一卷积结果融合得到所述第一注意力特征;
所述使所述第二卷积结果经过第二注意力机制模块进行特征提取得到第二注意力特征,包括:
使所述第二卷积结果经过第二全池化层、至少一个第二全连接层和第二激活函数层得到第二子注意力特征,将所述第二子注意力特征和所述第二卷积结果融合得到所述第二注意力特征。
8.行为识别装置,其特征在于,包括:
抽帧模块,用于对输入视频进行抽帧,得到帧图像;
融合图像获取模块,用于对每个所述帧图像,获取所述帧图像的颜色信息和光流信息,对所述帧图像的每个像素的所述颜色信息和所述光流信息进行融合得到融合图像;
特征提取模块,用于将所述融合图像输入至特征提取网络进行特征提取得到目标特征,其中所述特征提取网络包括第一分支、第二分支和融合模块,所述第一分支用于提取表示所述输入视频的时间维度信息的第一特征,所述第二分支用于提取表示所述输入视频的空间维度信息的第二特征,所述融合模块用于融合所述第一特征和所述第二特征得到所述目标特征,所述第一分支包括N个第一特征提取模块,所述第二分支包括N个第二特征提取模块,第n个所述第一特征提取模块的输入为第n-1个所述第一特征提取模块的输出,第n个所述第二特征提取模块的输入为第n-1个所述第一特征提取模块的输出与第n-1个所述第二特征提取模块的输出两者的融合结果,N为大于或等于2的整数,n为2至N之间的整数;
分类模块,用于对所述目标特征进行分类,得到行为识别结果。
9.行为识别设备,包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7中任意一项所述的基于特征融合的行为识别方法。
10.存储介质,其特征在于,存储有计算机程序,所述计算机程序用于执行如权利要求1至7中任意一项所述的基于特征融合的行为识别方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210055992.2A CN114399839A (zh) | 2022-01-18 | 2022-01-18 | 基于特征融合的行为识别方法、装置、设备及存储介质 |
PCT/CN2022/090714 WO2023137915A1 (zh) | 2022-01-18 | 2022-04-29 | 基于特征融合的行为识别方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210055992.2A CN114399839A (zh) | 2022-01-18 | 2022-01-18 | 基于特征融合的行为识别方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114399839A true CN114399839A (zh) | 2022-04-26 |
Family
ID=81231104
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210055992.2A Pending CN114399839A (zh) | 2022-01-18 | 2022-01-18 | 基于特征融合的行为识别方法、装置、设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN114399839A (zh) |
WO (1) | WO2023137915A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023137915A1 (zh) * | 2022-01-18 | 2023-07-27 | 平安科技(深圳)有限公司 | 基于特征融合的行为识别方法、装置、设备及存储介质 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116912636B (zh) * | 2023-09-12 | 2023-12-12 | 深圳须弥云图空间科技有限公司 | 目标识别方法及装置 |
CN117835012A (zh) * | 2023-12-27 | 2024-04-05 | 北京智象未来科技有限公司 | 可控视频生成方法、装置、设备、存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105913456A (zh) * | 2016-04-12 | 2016-08-31 | 西安电子科技大学 | 基于区域分割的视频显著性检测方法 |
CN110909594A (zh) * | 2019-10-12 | 2020-03-24 | 杭州电子科技大学 | 一种基于深度融合的视频显著性检测方法 |
CN112990116A (zh) * | 2021-04-21 | 2021-06-18 | 四川翼飞视科技有限公司 | 基于多注意力机制融合的行为识别装置、方法和存储介质 |
CN113792680A (zh) * | 2021-09-17 | 2021-12-14 | 平安科技(深圳)有限公司 | 基于图像融合的行为识别方法、装置、电子设备及介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114399839A (zh) * | 2022-01-18 | 2022-04-26 | 平安科技(深圳)有限公司 | 基于特征融合的行为识别方法、装置、设备及存储介质 |
-
2022
- 2022-01-18 CN CN202210055992.2A patent/CN114399839A/zh active Pending
- 2022-04-29 WO PCT/CN2022/090714 patent/WO2023137915A1/zh unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105913456A (zh) * | 2016-04-12 | 2016-08-31 | 西安电子科技大学 | 基于区域分割的视频显著性检测方法 |
CN110909594A (zh) * | 2019-10-12 | 2020-03-24 | 杭州电子科技大学 | 一种基于深度融合的视频显著性检测方法 |
CN112990116A (zh) * | 2021-04-21 | 2021-06-18 | 四川翼飞视科技有限公司 | 基于多注意力机制融合的行为识别装置、方法和存储介质 |
CN113792680A (zh) * | 2021-09-17 | 2021-12-14 | 平安科技(深圳)有限公司 | 基于图像融合的行为识别方法、装置、电子设备及介质 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023137915A1 (zh) * | 2022-01-18 | 2023-07-27 | 平安科技(深圳)有限公司 | 基于特征融合的行为识别方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2023137915A1 (zh) | 2023-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108229478B (zh) | 图像语义分割及训练方法和装置、电子设备、存储介质和程序 | |
US10936919B2 (en) | Method and apparatus for detecting human face | |
US11222236B2 (en) | Image question answering method, apparatus and system, and storage medium | |
US10635979B2 (en) | Category learning neural networks | |
CN114399839A (zh) | 基于特征融合的行为识别方法、装置、设备及存储介质 | |
Li et al. | No-reference image quality assessment with deep convolutional neural networks | |
CN110119757A (zh) | 模型训练方法、视频类别检测方法、装置、电子设备和计算机可读介质 | |
US20180114071A1 (en) | Method for analysing media content | |
US10417529B2 (en) | Learning combinations of homogenous feature arrangements | |
CN111696110B (zh) | 场景分割方法及系统 | |
US20190138850A1 (en) | Weakly-supervised spatial context networks | |
CN111539290A (zh) | 视频动作识别方法、装置、电子设备及存储介质 | |
CN111046757A (zh) | 人脸画像生成模型的训练方法、装置及相关设备 | |
US20220319157A1 (en) | Temporal augmentation for training video reasoning system | |
US11423262B2 (en) | Automatically filtering out objects based on user preferences | |
Fernando et al. | Automatic road traffic signs detection and recognition using ‘You Only Look Once’version 4 (YOLOv4) | |
CN114612847A (zh) | 一种Deepfake视频篡改检测方法以及系统 | |
Singh et al. | CNN based approach for traffic sign recognition system | |
CN107729381B (zh) | 基于多维特征识别的交互多媒体资源聚合方法及系统 | |
CN114170425A (zh) | 模型训练、图像分类方法、服务器及存储介质 | |
Jia et al. | Dynamic thresholding for video anomaly detection | |
CN116415019A (zh) | 虚拟现实vr图像识别方法及装置、电子设备、存储介质 | |
CN113542866B (zh) | 视频处理方法、装置、设备及计算机可读存储介质 | |
CN116229332B (zh) | 一种视频预训练模型的训练方法、装置、设备及存储介质 | |
CN112364933B (zh) | 图像分类方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |