CN113792680A - 基于图像融合的行为识别方法、装置、电子设备及介质 - Google Patents
基于图像融合的行为识别方法、装置、电子设备及介质 Download PDFInfo
- Publication number
- CN113792680A CN113792680A CN202111093387.6A CN202111093387A CN113792680A CN 113792680 A CN113792680 A CN 113792680A CN 202111093387 A CN202111093387 A CN 202111093387A CN 113792680 A CN113792680 A CN 113792680A
- Authority
- CN
- China
- Prior art keywords
- image
- images
- sampling
- target
- optical flow
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 69
- 238000000034 method Methods 0.000 title claims abstract description 62
- 230000003287 optical effect Effects 0.000 claims abstract description 145
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 68
- 230000007246 mechanism Effects 0.000 claims abstract description 21
- 238000005070 sampling Methods 0.000 claims description 223
- 230000006399 behavior Effects 0.000 claims description 98
- 238000004364 calculation method Methods 0.000 claims description 24
- 238000004422 calculation algorithm Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 11
- 230000011218 segmentation Effects 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 7
- 230000004044 response Effects 0.000 claims description 7
- 238000012216 screening Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 abstract description 14
- 230000002829 reductive effect Effects 0.000 abstract description 12
- 238000013473 artificial intelligence Methods 0.000 abstract description 6
- 230000006870 function Effects 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 230000008859 change Effects 0.000 description 8
- 238000001514 detection method Methods 0.000 description 8
- 239000013598 vector Substances 0.000 description 8
- 230000000877 morphologic effect Effects 0.000 description 6
- 238000003062 neural network model Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000001914 filtration Methods 0.000 description 5
- 230000003068 static effect Effects 0.000 description 5
- 238000010606 normalization Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 230000001960 triggered effect Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000000670 limiting effect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 230000008034 disappearance Effects 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000004880 explosion Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及人工智能技术领域,提供一种基于图像融合的行为识别方法、装置、电子设备及介质,通过将初始图像与计算得到的光流图像进行融合,实现了图像信息与时间信息的融合,且通过光流信息指导3D卷积神经网络对于初始图像的信息的理解,通过注意力机制让3D卷积神经网络学习更多的感兴趣信息,从而基于融合后的融合图像进行行为识别,有效的保证了行为识别的准确度;训练的3D卷积神经网络为单分支网络结构,相比双分支的3D卷积神经网络而言,在保证行为识别准确率的前提下,单分支网络结构降低了网络模型的复杂度,从而降低了整个行为识别过程的复杂度,让整个过程更加集中化,提高了行为识别的效率。
Description
技术领域
本发明涉及人工智能技术领域,具体涉及一种基于图像融合的行为识别方法、装置、电子设备及介质。
背景技术
行为识别是计算机视觉领域非常有挑战性的课题,因为其不仅仅要分析目标体的空间信息,还要分析时间维度上的信息。如何更好的提取出空间-时间特征是问题的关键。随着深度神经网络在目标检测方面的广泛应用和取得的良好效果,人们也探索使用神经网络进行动作识别。
发明人在实现本发明的过程中发现,现有技术中通过设置两个网络,一个网络用于处理图像空间,另一个网络用于处理时间信息,最后利用SVM将这两个网络的输出关联起来,实现目标体的静态和动态的融合,从而实现行为的识别。但该方法由于设置了两个网络结构,导致网络结构较为复杂,且需要同时训练两个网络,导致模型训练复杂度加大,训练效率较低,从而导致行为识别的效率较低。
发明内容
鉴于以上内容,有必要提出一种基于图像融合的行为识别方法、装置、电子设备及介质,能够在保证行为识别准确率的前提下简化神经网络模型的结构,降低神经网络模型的复杂度,提高行为识别的效率。
本发明的第一方面提供一种基于图像融合的行为识别方法,所述方法包括:
响应于识别目标对象的行为的指令,获取包含所述目标对象的视频流;
从所述视频流中提取多个初始图像;
对所述多个初始图像进行光流计算得到多个光流图像;
基于注意力机制将每个所述初始图像与对应的所述光流图像进行融合,得到多个融合图像;
将所述多个融合图像输入至预先训练完成的3D卷积神经网络中进行行为识别,其中,所述预先训练完成的3D卷积神经网络为单分支网络结构。
在一个可选的实施方式中,在从所述视频流中提取多个初始图像之后,所述方法还包括:
检测每个所述初始图像中所述目标对象对应的目标区域;
对每个所述初始图像中的目标区域进行裁剪,得到目标图像;
对多个所述目标图像进行采样,得到多个采样图像;
所述对所述多个初始图像进行光流计算得到多个光流图像包括:对所述多个采样图像进行光流计算得到多个光流图像。
在一个可选的实施方式中,所述对多个所述目标图像进行采样,得到多个采样图像包括:
获取每个所述目标图像的尺寸;
根据所述尺寸对每个所述目标图像进行第一采样得到第一采样图像,及对每个所述目标图像进行第二采样得到第二采样图像;
计算每个所述第一采样图像的第一图像质量,及计算每个所述第二采样图像的第二图像质量;
比较多个所述第一图像质量及多个所述第二图像质量,得到比较结果;
根据所述比较结果确定多个采样图像。
在一个可选的实施方式中,所述根据所述尺寸对每个所述目标图像进行第一采样得到第一采样图像,及对每个所述目标图像进行第二采样得到第二采样图像包括:
获取多个所述尺寸中的最大尺寸及最小尺寸;
根据所述最大尺寸确定每个所述目标图像的第一采样率,根据所述最小尺寸确定每个所述目标图像的第二采样率;
根据所述第一采样率对对应的所述目标图像进行上采样得到第一采样图像,根据所述第二采样率对对应的所述目标图像进行下采样得到第二采样图像。
在一个可选的实施方式中,所述根据所述比较结果确定多个采样图像包括:
当所述比较结果为多个所述第一图像质量的平均值大于多个所述第二图像质量的平均值,确定多个所述第一采样图像为所述多个采样图像;
当所述比较结果为多个所述第一图像质量的平均值小于多个所述第二图像质量的平均值,确定多个所述第二采样图像为所述多个采样图像。
在一个可选的实施方式中,所述对所述多个采样图像进行光流计算得到多个光流图像包括:
采用光流算法计算每相邻的两个采样图像的光流场;
对所述光流场进行阈值分割;
筛选出所述光流场中大于所述阈值的目标光流场;
确定对应所述目标光流场的目标采样图像,根据所述目标光流场得到目标光流图像;
所述基于注意力机制将每个所述初始图像与对应的所述光流图像进行融合包括:基于注意力机制将每个所述目标采样图像与对应的所述目标光流图像进行融合。
在一个可选的实施方式中,所述将所述多个融合图像输入至预先训练完成的3D卷积神经网络中进行行为识别包括:
获取所述3D卷积神经网络中最后一个卷积层输出的特征图;
将每个所述融合图像与对应的所述特征图进行拼接处理,得到拼接图像;
基于所述拼接图像进行行为识别。
本发明的第二方面提供一种基于图像融合的行为识别装置,所述装置包括:
获取模块,用于响应于识别目标对象的行为的指令,获取包含所述目标对象的视频流;
提取模块,用于从所述视频流中提取多个初始图像;
计算模块,用于对所述多个初始图像进行光流计算得到多个光流图像;
融合模块,用于基于注意力机制将每个所述初始图像与对应的所述光流图像进行融合,得到多个融合图像;
识别模块,用于将所述多个融合图像输入至预先训练完成的3D卷积神经网络中进行行为识别,其中,所述预先训练完成的3D卷积神经网络为单分支网络结构。
本发明的第三方面提供一种电子设备,所述电子设备包括处理器和存储器,所述处理器用于执行所述存储器中存储的计算机程序时实现所述基于图像融合的行为识别方法。
本发明的第四方面提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现所述基于图像融合的行为识别方法。
综上所述,本发明所述的基于图像融合的行为识别方法、装置、电子设备及介质,通过将初始图像与计算得到的光流图像进行融合,不仅实现了图像信息与时间信息的融合,而且通过光流信息指导3D卷积神经网络对于初始图像的信息的理解,通过注意力机制让3D卷积神经网络学习更多的感兴趣的区域的信息,从而基于融合后的融合图像进行行为识别,能够有效的保证行为识别的准确度;此外,训练的3D卷积神经网络为单分支网络结构,相比双分支的3D卷积神经网络而言,单分支网络结构降低了网络模型的复杂度,从而降低了整个行为识别过程的复杂度,让整个过程更加集中化,提高了行为识别的效率。
附图说明
图1是本发明实施例一提供的基于图像融合的行为识别方法的流程图。
图2是本发明实施例二提供的对融合图像进行拼接的示意图。
图3是本发明实施例二提供的基于图像融合的行为识别装置的结构图。
图4是本发明实施例三提供的电子设备的结构示意图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施例对本发明进行详细描述。需要说明的是,在不冲突的情况下,本发明的实施例及实施例中的特征可以相互组合。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述在一个可选的实施方式中实施例的目的,不是旨在于限制本发明。
本发明实施例提供的基于图像融合的行为识别方法由电子设备执行,相应地,基于图像融合的行为识别装置运行于电子设备中。
本申请实施例可以基于人工智能技术对目标对象的行为进行识别。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
实施例一
图1是本发明实施例一提供的基于图像融合的行为识别方法的流程图。所述基于图像融合的行为识别方法具体包括以下步骤,根据不同的需求,该流程图中步骤的顺序可以改变,某些可以省略。
S11,响应于识别目标对象的行为的指令,获取包含所述目标对象的视频流。
其中,目标对象是指需要进行行为识别的对象实体,例如,人或者宠物。若需要对某个人或者某个宠物进行行为识别,则可以使用图像采集设备采集这个人或者这个宠物的视频流。所述图像采集设备可以是高清数字图像采集设备。
识别目标对象的行为的指令可以由用户进行触发,也可以自动进行触发。电子设备在接收到识别目标对象的行为的指令时,响应于所述指令,向图像采集设备发送采集指令以控制图像采集设备采集包含目标对象的视频流。图像采集设备在采集到包含目标对象的视频流之后,将所采集的视频流至电子设备。图像采集设备可以以边采集边发送的方式发送视频流,以可以在采集预设时长的视频流之后,将所采集的视频流发送至电子设备。
S12,从所述视频流中提取多个初始图像。
视频流可以被分解为空间和时间两部分信息,空间信息以单幅图像的形式表现出来,图像携带着目标对象的形状,颜色等静态信息,而时间信息则通过多帧连续的图像动态表现出来,反应了目标对象的移动信息。
电子设备中可以预先设置有采集帧率,以所述采集帧率对视频流进行采集,从而得到多个初始图像,所述初始图像为RGB图像。
在一个可选的实施方式中,在从所述视频流中提取多个初始图像之后,所述方法还包括:
检测每个所述初始图像中所述目标对象对应的目标区域;
对每个所述初始图像中的目标区域进行裁剪,得到目标图像;
对多个所述目标图像进行采样,得到多个采样图像。
该可选的实施方式中,可以采用YOLO目标检测算法将所述初始图像中目标对象所在的区域用检测框框选出来,检测框框选的区域即为目标区域。
由于目标区域的像素数量远小于整幅初始图像的像素数量,且目标区域几乎只包含了人或者宠物这一目标对象,而无其他非目标对象,因此将目标区域裁剪出来得到的目标图像作为3D卷积神经网络模型的输入,不仅有助于提高3D卷积神经网络模型识别目标对象的行为的效率,而且目标图像中不存在非目标对象的干扰,还能提高3D卷积神经网络模型识别目标对象的行为的准确度。
此外,由于远近距离的原因,导致不同的初始图像中目标对象的相对大小不同,从而导致裁剪得到的目标图像的大小不同,为了保证输入至3D卷积神经网络模型中的图像的一致性,需要对多个目标图像进行采样,实现对多个目标图像的归一化,从而保证得到的多个采样图像的大小一致。
在一个可选的实施方式中,所述对多个所述目标图像进行采样,得到多个采样图像包括:
获取每个所述目标图像的尺寸;
根据所述尺寸对每个所述目标图像进行第一采样得到第一采样图像,及对每个所述目标图像进行第二采样得到第二采样图像;
计算每个所述第一采样图像的第一图像质量,及计算每个所述第二采样图像的第二图像质量;
比较多个所述第一图像质量及多个所述第二图像质量,得到比较结果;
根据所述比较结果确定多个采样图像。
该可选的实施方式中,不同的目标图像的大小不同,多个目标图像可能存在多个不同的尺寸,根据这多个不同的尺寸对每个目标图像进行两次采样,则经过两次采样后,每个目标图像对应两个不同的采样图像。
采用不同的采样方式进行采样,必然导致每个目标图像对应的两个采样图像的质量不同,将图像质量较佳的采样图像作为3D卷积神经网络模型中的输入,有助于提高3D卷积神经网络模型的识别准确度,从而提高提高目标对象的行为的准确度。为了获得图像质量较佳的采样图像,可以将采样得到的多个第一图像质量与多个第二图像质量进行比较,得到比较结果,从而根据比较结果确定采用何种采样方式对目标图像进行采样,得到采样图像。
在一个可选的实施方式中,所述根据所述尺寸对每个所述目标图像进行第一采样得到第一采样图像,及对每个所述目标图像进行第二采样得到第二采样图像包括:
获取多个所述尺寸中的最大尺寸及最小尺寸;
根据所述最大尺寸确定每个所述目标图像的第一采样率,根据所述最小尺寸确定每个所述目标图像的第二采样率;
根据所述第一采样率对对应的所述目标图像进行上采样得到第一采样图像,根据所述第二采样率对对应的所述目标图像进行下采样得到第二采样图像。
示例性的,假设有5张目标图像:F1、F2、F3、F4、F5,目标图像F1的尺寸为T1,目标图像F2的尺寸为T2,目标图像F3的尺寸为T3,目标图像F4的尺寸为T4,目标图像F5的尺寸为T5,将这5个尺寸(T1、T2、T3、T4、T5)进行从大到小的排序,或者从小到大的排序,得到尺寸序列。
获取尺寸序列中的最大尺寸,假设为T1,根据最大尺寸T1确定目标图像F1的第一采样率为T1/T1,根据最大尺寸T1确定目标图像F2的第一采样率为T1/T2,根据最大尺寸T1确定目标图像F3的第一采样率为T1/T3,根据最大尺寸T1确定目标图像F4的第一采样率为T1/T4,根据最大尺寸T1确定目标图像F5的第一采样率为T1/T5。根据第一采样率T1/T1对目标图像F1进行上采样得到第一采样图像F11,根据第一采样率T1/T2对目标图像F2进行上采样得到第一采样图像F21,根据第一采样率T1/T3对目标图像F3进行上采样得到第一采样图像F41,根据第一采样率T1/T4对目标图像F4进行上采样得到第一采样图像F41,根据第一采样率T1/T5对目标图像F5进行上采样得到第一采样图像F51。上采样得到的第一采样图像F11、F21、F41、F41、F51与目标图像F1具有相同的大小。
获取尺寸序列中的最小尺寸,假设为T5,根据最小尺寸T5确定目标图像F1的第一采样率为T5/T1,根据最小尺寸T5确定目标图像F2的第一采样率为T5/T2,根据最小尺寸T5确定目标图像F3的第一采样率为T5/T3,根据最小尺寸T5确定目标图像F4的第一采样率为T5/T4,根据最小尺寸T5确定目标图像F5的第一采样率为T5/T5。根据第一采样率T5/T1对目标图像F1进行下采样得到第一采样图像F12,根据第一采样率T5/T2对目标图像F2进行下采样得到第一采样图像F22,根据第一采样率T5/T3对目标图像F3进行下采样得到第一采样图像F42,根据第一采样率T5/T4对目标图像F4进行下采样得到第一采样图像F42,根据第一采样率T5/T5对目标图像F5进行下采样得到第一采样图像F52。下采样得到的第一采样图像F12、F22、F42、F42、F52与目标图像F5具有相同的大小。
该可选的方式中,根据目标图像的尺寸确定采样率,根据采样率对对应的目标图像进行上采样或者下采样,能够实现对不同的目标图像的动态采样,保证采样得到的采样图像的尺寸与目标图像的最大尺寸保持一致,或者采样得到的采样图像的尺寸与目标图像的最小的尺寸保持一致。
在一个可选的实施方式中,所述根据所述比较结果确定多个采样图像包括:
当所述比较结果为多个所述第一图像质量的平均值大于多个所述第二图像质量的平均值,确定多个所述第一采样图像为所述多个采样图像;
当所述比较结果为多个所述第一图像质量的平均值小于多个所述第二图像质量的平均值,确定多个所述第二采样图像为所述多个采样图像。
由于在上采样或者下采样的过程中,会降低或者提高目标图像的质量,导致采样图像的质量相对目标图像的质量有所提高或者降低,为了保证采样图像具有大概率的较佳的图像质量,对多个第一图像质量与多个第二图像质量进行比较。比较得到的结果包括:多个所述第一图像质量的平均值大于多个所述第二图像质量的平均值,多个所述第一图像质量的平均值小于多个所述第二图像质量的平均值。
多个所述第一图像质量的平均值大于多个所述第二图像质量的平均值,表明上采样得到的第一采样图像大部分的第一采样图像的第一图像质量高于下采样得到的第二采样图像大部分的第二采样图像的第二图像质量,因此,电子设备可以确定采用上采样的方式对目标图像进行上采样,即将多个第一采样图像确定为最终的多个采样图像,作为3D卷积神经网络模型的输入。
多个所述第一图像质量的平均值小于多个所述第二图像质量的平均值,表明上采样得到的第一采样图像大部分的第一采样图像的第一图像质量低于下采样得到的第二采样图像大部分的第二采样图像的第二图像质量,因此,电子设备可以确定采用下采样的方式对目标图像进行下采样,即将多个第二采样图像确定为最终的多个采样图像,作为3D卷积神经网络模型的输入。
需要说明的是,当所述比较结果为多个所述第一图像质量的平均值等于多个所述第二图像质量的平均值的情形,即可适用于所述比较结果为多个所述第一图像质量的平均值大于多个所述第二图像质量的平均值,也可适用于所述比较结果为多个所述第一图像质量的平均值小于多个所述第二图像质量的平均值。即,当多个所述第一图像质量的平均值等于多个所述第二图像质量的平均值时,既可以采用上采样的方式对目标图像进行采样,从而将多个第一采样图像确定为最终的多个采样图像;也可以下采样的方式对目标图像进行采样,从而将多个第二采样图像确定为最终的多个采样图像。
S13,对所述多个初始图像进行光流计算得到多个光流图像。
示例性的,假设从视频流中提取了N个连续的初始图像,根据N个连续的初始图像中每两个相邻的初始图像计算一个光流图像,从而获得N-1个连续的光流图像。
在一个可能的实施方式中,当电子设备执行了对初始图像的检测和裁剪过程后,可以得到N个连续的目标图像,对N个连续的目标图像进行采样后,可以得到N个连续的采样图像,则所述对所述多个初始图像进行光流计算得到多个光流图像为对所述多个采样图像进行光流计算得到多个光流图像。根据N个连续的采样图像中每两个相邻的采样图像计算一个光流图像,从而获得N-1个连续的光流图像。
在一个可选的实施方式中,所述对所述多个采样图像进行光流计算得到多个光流图像包括:
采用光流算法计算每相邻的两个采样图像的光流场;
对所述光流场进行阈值分割;
筛选出所述光流场中大于所述阈值的目标光流场;
确定对应所述目标光流场的目标采样图像,根据所述目标光流场得到目标光流图像。
由于在较短的时间内,同一目标对象在不同时刻之间的运动速度有限,即从图像采集设备采集的视频流中提取出的多个连续的初始图像之间的亮度不会发生改变,且目标对象的位置不会发生剧烈变化,相邻时刻对应的两个相邻的初始图像之间目标对象的位移非常小,仅存在平移变换或者拉伸压缩变换等,因而多个初始图像之间具有较强的关联性,该多个初始图像在像素上的表征能力大致相当,局部区域差异不大。故而可以采用光流算法对多个初始图像进行修正,将相邻的初始图像进行相关联。
该可选的实施方式中,光流算法是计算光流场的,在适当的平滑性约束条件下,根据图像序列的时空梯度估算运动场,通过分析运动场的变化对运动目标和场景进行检测与分割。通常有基于全局光流场和特征点光流场两种方法。优选为特征点光流场,具有计算量小、快速灵活的特点。通过光流算法计算出了相邻两个特征向量中的每个点的光流矢量,而发生运动的物体的光流矢量与背景光流矢量之间存在差异,使用阀值分割可以将光流场分成两个部分,即区分出运动的物体与背景。优选地,所述阀值的选取可以使用最大类间方差法(大津算法)来确定。
在一个可选的实施例中,在所述对所述光流场进行阈值分割之后,所述方法还包括:根据形态学运算对阈值分割后的光流场进行滤波;连通滤波后的光流场得到新的光流场。
本实施例中,光流场经过阈值分割后,会存在一些孤立的点或者凹区域,影响了目标对象的提取。可先利用形态学滤波中的开运算,去除那些光流值与结构元素不相吻合的凹区域,同时保留那些相吻合的凹区域。然后,利用形态学滤波中的闭运算,填充凹区域,如此目标对象所对应的区域成为一个可以连成一体的区域。
S14,基于注意力机制将每个所述初始图像与对应的所述光流图像进行融合,得到多个融合图像。
电子设备可以设定参数进行初始图像与光流图像的融合,对每个通道进行归一化和加权融合,得到融合图像。一个初始图像与对应的一个光流图像进行融合,得到一个融合图像。将融合得到融合图像按照顺序进行排列,得到融合图像流,从而实现了时间信息与空间信息的融合。
在一个可能的实施方式中,所述基于注意力机制将每个所述初始图像与对应的所述光流图像进行融合为基于注意力机制将每个所述目标采样图像与对应的所述目标光流图像进行融合。
S15,将所述多个融合图像输入至预先训练完成的3D卷积神经网络中进行行为识别。
其中,所述预先训练完成的3D卷积神经网络为单分支网络结构。
对于3D卷积神经网络,输入的融合图像的大小为B*C*T*H*W,其中B为batch_size,C为通道数,融合之后的通道数为5(RGB对应的3个通道+光流对应的2个通道),T为时间序列,H和W为融合图像的长和宽。在搭建3D卷积神经网络时,将通道数设定为5即可,这样既能对目标对象的静态特征进行捕捉,又能对光流的变化过程进行学习,在保证同样效果的前提下,降低3D卷积神经网络的整体框架的复杂度。
在一个可选的实施方式中,所述将所述多个融合图像输入至预先训练完成的3D卷积神经网络中进行行为识别包括:
获取所述3D卷积神经网络中最后一个卷积层输出的特征图;
将每个所述融合图像与对应的所述特征图进行拼接处理,得到拼接图像;
基于所述拼接图像进行行为识别。
请一并参阅图2所示,3D卷积神经网络包括多个卷积层,每个卷积层中包括一个卷积核,其中,第一个卷积核为1x1x1,第二个卷积核为3x3x3,最后一个卷积核为1x1x1。
将融合图像输入至3D卷积神经网络中,3D卷积神经网络通过第一个卷积层进行通道信息的融合并进行一个特征维度的升维,通过第二个卷积层同时进行时间维度以及空间维度的图像信息的特征提取,通过最后一个卷积层进行特征的降维,然后将最后一个卷积层输出的特征图与融合图像进行一个拼接处理。
该可选的实施方式,通过3D卷积神经网络进行特征维度的升维之后,为了避免进行梯度信息时,防止梯度爆炸,再通过3D卷积神经网络进行特征维度的降维;最后为了避免3D卷积神经网络将特征维度降得过低,将融合图像与最后一个卷积层输出的特征图在进行拼接处理,相对最后一个卷积层输出的特征图而言,拼接处理后得到的拼接图像的特征维度较高,能够有效的防止梯度消失。
相比于传统的基于two stream的行为识别方法,本发明实施例提供的基于图像融合的行为识别方法,通过将初始图像与计算得到的光流图像进行融合,不仅实现了图像信息与时间信息的融合,而且通过光流信息指导3D卷积神经网络对于初始图像的信息的理解,通过注意力机制让3D卷积神经网络学习更多的感兴趣的区域的信息,从而基于融合后的融合图像进行行为识别,能够有效的保证行为识别的准确度;此外,训练的3D卷积神经网络为单分支网络结构,相比双分支的3D卷积神经网络而言,单分支网络结构降低了网络模型的复杂度,从而降低了整个行为识别过程的复杂度,让整个过程更加集中化,提高了行为识别的效率。
实施例二
图3是本发明实施例二提供的基于图像融合的行为识别装置的结构图。
在一些实施例中,所述基于图像融合的行为识别装置30可以包括多个由计算机程序段所组成的功能模块。所述基于图像融合的行为识别装置30中的各个程序段的计算机程序可以存储于电子设备的存储器中,并由至少一个处理器所执行,以执行(详见图1描述)基于图像融合的行为识别的功能。
本实施例中,所述基于图像融合的行为识别装置30根据其所执行的功能,可以被划分为多个功能模块。所述功能模块可以包括:获取模块301、提取模块302、采样模块303、计算模块304、融合模块305及识别模块306。本发明所称的模块是指一种能够被至少一个处理器所执行并且能够完成固定功能的一系列计算机程序段,其存储在存储器中。在本实施例中,关于各模块的功能将在后续的实施例中详述。
所述获取模块301,用于响应于识别目标对象的行为的指令,获取包含所述目标对象的视频流。
其中,目标对象是指需要进行行为识别的对象实体,例如,人或者宠物。若需要对某个人或者某个宠物进行行为识别,则可以使用图像采集设备采集这个人或者这个宠物的视频流。所述图像采集设备可以是高清数字图像采集设备。
识别目标对象的行为的指令可以由用户进行触发,也可以自动进行触发。电子设备在接收到识别目标对象的行为的指令时,响应于所述指令,向图像采集设备发送采集指令以控制图像采集设备采集包含目标对象的视频流。图像采集设备在采集到包含目标对象的视频流之后,将所采集的视频流至电子设备。图像采集设备可以以边采集边发送的方式发送视频流,以可以在采集预设时长的视频流之后,将所采集的视频流发送至电子设备。
所述提取模块302,用于从所述视频流中提取多个初始图像。
视频流可以被分解为空间和时间两部分信息,空间信息以单幅图像的形式表现出来,图像携带着目标对象的形状,颜色等静态信息,而时间信息则通过多帧连续的图像动态表现出来,反应了目标对象的移动信息。
电子设备中可以预先设置有采集帧率,以所述采集帧率对视频流进行采集,从而得到多个初始图像,所述初始图像为RGB图像。
在一个可选的实施方式中,在从所述视频流中提取多个初始图像之后,所述采样模块303,用于对所述多个初始图像进行采样,得到多个采样图像。
在一个可选的实施方式中,所述采样模块303对所述多个初始图像进行采样,得到多个采样图像包括:
检测每个所述初始图像中所述目标对象对应的目标区域;
对每个所述初始图像中的目标区域进行裁剪,得到目标图像;
对多个所述目标图像进行采样,得到多个采样图像。
该可选的实施方式中,可以采用YOLO目标检测算法将所述初始图像中目标对象所在的区域用检测框框选出来,检测框框选的区域即为目标区域。
由于目标区域的像素数量远小于整幅初始图像的像素数量,且目标区域几乎只包含了人或者宠物这一目标对象,而无其他非目标对象,因此将目标区域裁剪出来得到的目标图像作为3D卷积神经网络模型的输入,不仅有助于提高3D卷积神经网络模型识别目标对象的行为的效率,而且目标图像中不存在非目标对象的干扰,还能提高3D卷积神经网络模型识别目标对象的行为的准确度。
此外,由于远近距离的原因,导致不同的初始图像中目标对象的相对大小不同,从而导致裁剪得到的目标图像的大小不同,为了保证输入至3D卷积神经网络模型中的图像的一致性,需要对多个目标图像进行采样,实现对多个目标图像的归一化,从而保证得到的多个采样图像的大小一致。
在一个可选的实施方式中,所述采样模块303对多个所述目标图像进行采样,得到多个采样图像包括:
获取每个所述目标图像的尺寸;
根据所述尺寸对每个所述目标图像进行第一采样得到第一采样图像,及对每个所述目标图像进行第二采样得到第二采样图像;
计算每个所述第一采样图像的第一图像质量,及计算每个所述第二采样图像的第二图像质量;
比较多个所述第一图像质量及多个所述第二图像质量,得到比较结果;
根据所述比较结果确定多个采样图像。
该可选的实施方式中,不同的目标图像的大小不同,多个目标图像可能存在多个不同的尺寸,根据这多个不同的尺寸对每个目标图像进行两次采样,则经过两次采样后,每个目标图像对应两个不同的采样图像。
采用不同的采样方式进行采样,必然导致每个目标图像对应的两个采样图像的质量不同,将图像质量较佳的采样图像作为3D卷积神经网络模型中的输入,有助于提高3D卷积神经网络模型的识别准确度,从而提高提高目标对象的行为的准确度。为了获得图像质量较佳的采样图像,可以将采样得到的多个第一图像质量与多个第二图像质量进行比较,得到比较结果,从而根据比较结果确定采用何种采样方式对目标图像进行采样,得到采样图像。
在一个可选的实施方式中,所述根据所述尺寸对每个所述目标图像进行第一采样得到第一采样图像,及对每个所述目标图像进行第二采样得到第二采样图像包括:
获取多个所述尺寸中的最大尺寸及最小尺寸;
根据所述最大尺寸确定每个所述目标图像的第一采样率,根据所述最小尺寸确定每个所述目标图像的第二采样率;
根据所述第一采样率对对应的所述目标图像进行上采样得到第一采样图像,根据所述第二采样率对对应的所述目标图像进行下采样得到第二采样图像。
示例性的,假设有5张目标图像:F1、F2、F3、F4、F5,目标图像F1的尺寸为T1,目标图像F2的尺寸为T2,目标图像F3的尺寸为T3,目标图像F4的尺寸为T4,目标图像F5的尺寸为T5,将这5个尺寸(T1、T2、T3、T4、T5)进行从大到小的排序,或者从小到大的排序,得到尺寸序列。
获取尺寸序列中的最大尺寸,假设为T1,根据最大尺寸T1确定目标图像F1的第一采样率为T1/T1,根据最大尺寸T1确定目标图像F2的第一采样率为T1/T2,根据最大尺寸T1确定目标图像F3的第一采样率为T1/T3,根据最大尺寸T1确定目标图像F4的第一采样率为T1/T4,根据最大尺寸T1确定目标图像F5的第一采样率为T1/T5。根据第一采样率T1/T1对目标图像F1进行上采样得到第一采样图像F11,根据第一采样率T1/T2对目标图像F2进行上采样得到第一采样图像F21,根据第一采样率T1/T3对目标图像F3进行上采样得到第一采样图像F41,根据第一采样率T1/T4对目标图像F4进行上采样得到第一采样图像F41,根据第一采样率T1/T5对目标图像F5进行上采样得到第一采样图像F51。上采样得到的第一采样图像F11、F21、F41、F41、F51与目标图像F1具有相同的大小。
获取尺寸序列中的最小尺寸,假设为T5,根据最小尺寸T5确定目标图像F1的第一采样率为T5/T1,根据最小尺寸T5确定目标图像F2的第一采样率为T5/T2,根据最小尺寸T5确定目标图像F3的第一采样率为T5/T3,根据最小尺寸T5确定目标图像F4的第一采样率为T5/T4,根据最小尺寸T5确定目标图像F5的第一采样率为T5/T5。根据第一采样率T5/T1对目标图像F1进行下采样得到第一采样图像F12,根据第一采样率T5/T2对目标图像F2进行下采样得到第一采样图像F22,根据第一采样率T5/T3对目标图像F3进行下采样得到第一采样图像F42,根据第一采样率T5/T4对目标图像F4进行下采样得到第一采样图像F42,根据第一采样率T5/T5对目标图像F5进行下采样得到第一采样图像F52。下采样得到的第一采样图像F12、F22、F42、F42、F52与目标图像F5具有相同的大小。
该可选的方式中,根据目标图像的尺寸确定采样率,根据采样率对对应的目标图像进行上采样或者下采样,能够实现对不同的目标图像的动态采样,保证采样得到的采样图像的尺寸与目标图像的最大尺寸保持一致,或者采样得到的采样图像的尺寸与目标图像的最小的尺寸保持一致。
在一个可选的实施方式中,所述根据所述比较结果确定多个采样图像包括:
当所述比较结果为多个所述第一图像质量的平均值大于多个所述第二图像质量的平均值,确定多个所述第一采样图像为所述多个采样图像;
当所述比较结果为多个所述第一图像质量的平均值小于多个所述第二图像质量的平均值,确定多个所述第二采样图像为所述多个采样图像。
由于在上采样或者下采样的过程中,会降低或者提高目标图像的质量,导致采样图像的质量相对目标图像的质量有所提高或者降低,为了保证采样图像具有大概率的较佳的图像质量,对多个第一图像质量与多个第二图像质量进行比较。比较得到的结果包括:多个所述第一图像质量的平均值大于多个所述第二图像质量的平均值,多个所述第一图像质量的平均值小于多个所述第二图像质量的平均值。
多个所述第一图像质量的平均值大于多个所述第二图像质量的平均值,表明上采样得到的第一采样图像大部分的第一采样图像的第一图像质量高于下采样得到的第二采样图像大部分的第二采样图像的第二图像质量,因此,电子设备可以确定采用上采样的方式对目标图像进行上采样,即将多个第一采样图像确定为最终的多个采样图像,作为3D卷积神经网络模型的输入。
多个所述第一图像质量的平均值小于多个所述第二图像质量的平均值,表明上采样得到的第一采样图像大部分的第一采样图像的第一图像质量低于下采样得到的第二采样图像大部分的第二采样图像的第二图像质量,因此,电子设备可以确定采用下采样的方式对目标图像进行下采样,即将多个第二采样图像确定为最终的多个采样图像,作为3D卷积神经网络模型的输入。
需要说明的是,当所述比较结果为多个所述第一图像质量的平均值等于多个所述第二图像质量的平均值的情形,即可适用于所述比较结果为多个所述第一图像质量的平均值大于多个所述第二图像质量的平均值,也可适用于所述比较结果为多个所述第一图像质量的平均值小于多个所述第二图像质量的平均值。即,当多个所述第一图像质量的平均值等于多个所述第二图像质量的平均值时,既可以采用上采样的方式对目标图像进行采样,从而将多个第一采样图像确定为最终的多个采样图像;也可以下采样的方式对目标图像进行采样,从而将多个第二采样图像确定为最终的多个采样图像。
所述计算模块304,用于对所述多个初始图像进行光流计算得到多个光流图像。
示例性的,假设从视频流中提取了N个连续的初始图像,根据N个连续的初始图像中每两个相邻的初始图像计算一个光流图像,从而获得N-1个连续的光流图像。
在一个可能的实施方式中,当电子设备执行了对初始图像的检测和裁剪过程后,可以得到N个连续的目标图像,对N个连续的目标图像进行采样后,可以得到N个连续的采样图像,则所述对所述多个初始图像进行光流计算得到多个光流图像为对所述多个采样图像进行光流计算得到多个光流图像。根据N个连续的采样图像中每两个相邻的采样图像计算一个光流图像,从而获得N-1个连续的光流图像。
在一个可选的实施方式中,所述计算模块304对所述多个采样图像进行光流计算得到多个光流图像包括:
采用光流算法计算每相邻的两个采样图像的光流场;
对所述光流场进行阈值分割;
筛选出所述光流场中大于所述阈值的目标光流场;
确定对应所述目标光流场的目标采样图像,根据所述目标光流场得到目标光流图像。
由于在较短的时间内,同一目标对象在不同时刻之间的运动速度有限,即从图像采集设备采集的视频流中提取出的多个连续的初始图像之间的亮度不会发生改变,且目标对象的位置不会发生剧烈变化,相邻时刻对应的两个相邻的初始图像之间目标对象的位移非常小,仅存在平移变换或者拉伸压缩变换等,因而多个初始图像之间具有较强的关联性,该多个初始图像在像素上的表征能力大致相当,局部区域差异不大。故而可以采用光流算法对多个初始图像进行修正,将相邻的初始图像进行相关联。
该可选的实施方式中,光流算法是计算光流场的,在适当的平滑性约束条件下,根据图像序列的时空梯度估算运动场,通过分析运动场的变化对运动目标和场景进行检测与分割。通常有基于全局光流场和特征点光流场两种方法。优选为特征点光流场,具有计算量小、快速灵活的特点。通过光流算法计算出了相邻两个特征向量中的每个点的光流矢量,而发生运动的物体的光流矢量与背景光流矢量之间存在差异,使用阀值分割可以将光流场分成两个部分,即区分出运动的物体与背景。优选地,所述阀值的选取可以使用最大类间方差法(大津算法)来确定。
在一个可选的实施例中,在所述对所述光流场进行阈值分割之后,所述电子设备还可以根据形态学运算对阈值分割后的光流场进行滤波;连通滤波后的光流场得到新的光流场。
本实施例中,光流场经过阈值分割后,会存在一些孤立的点或者凹区域,影响了目标对象的提取。可先利用形态学滤波中的开运算,去除那些光流值与结构元素不相吻合的凹区域,同时保留那些相吻合的凹区域。然后,利用形态学滤波中的闭运算,填充凹区域,如此目标对象所对应的区域成为一个可以连成一体的区域。
所述融合模块305,用于基于注意力机制将每个所述初始图像与对应的所述光流图像进行融合,得到多个融合图像。
电子设备可以设定参数进行初始图像与光流图像的融合,对每个通道进行归一化和加权融合,得到融合图像。一个初始图像与对应的一个光流图像进行融合,得到一个融合图像。将融合得到融合图像按照顺序进行排列,得到融合图像流,从而实现了时间信息与空间信息的融合。
在一个可能的实施方式中,所述基于注意力机制将每个所述初始图像与对应的所述光流图像进行融合为基于注意力机制将每个所述目标采样图像与对应的所述目标光流图像进行融合。
所述识别模型306,用于将所述多个融合图像输入至预先训练完成的3D卷积神经网络中进行行为识别。
其中,所述预先训练完成的3D卷积神经网络为单分支网络结构。
对于3D卷积神经网络,输入的融合图像的大小为B*C*T*H*W,其中B为batch_size,C为通道数,融合之后的通道数为5(RGB对应的3个通道+光流对应的2个通道),T为时间序列,H和W为融合图像的长和宽。在搭建3D卷积神经网络时,将通道数设定为5即可,这样既能对目标对象的静态特征进行捕捉,又能对光流的变化过程进行学习,在保证同样效果的前提下,降低3D卷积神经网络的整体框架的复杂度。
在一个可选的实施方式中,所述识别模型306将所述多个融合图像输入至预先训练完成的3D卷积神经网络中进行行为识别包括:
获取所述3D卷积神经网络中最后一个卷积层输出的特征图;
将每个所述融合图像与对应的所述特征图进行拼接处理,得到拼接图像;
基于所述拼接图像进行行为识别。
请一并参阅图2所示,3D卷积神经网络包括多个卷积层,每个卷积层中包括一个卷积核,其中,第一个卷积核为1x1x1,第二个卷积核为3x3x3,最后一个卷积核为1x1x1。
将融合图像输入至3D卷积神经网络中,3D卷积神经网络通过第一个卷积层进行通道信息的融合并进行一个特征维度的升维,通过第二个卷积层同时进行时间维度以及空间维度的图像信息的特征提取,通过最后一个卷积层进行特征的降维,然后将最后一个卷积层输出的特征图与融合图像进行一个拼接处理。
该可选的实施方式,通过3D卷积神经网络进行特征维度的升维之后,为了避免进行梯度信息时,防止梯度爆炸,再通过3D卷积神经网络进行特征维度的降维;最后为了避免3D卷积神经网络将特征维度降得过低,将融合图像与最后一个卷积层输出的特征图在进行拼接处理,相对最后一个卷积层输出的特征图而言,拼接处理后得到的拼接图像的特征维度较高,能够有效的防止梯度消失。
相比于传统的基于two stream的行为识别方法,本发明实施例提供的基于图像融合的行为识别方法,通过将初始图像与计算得到的光流图像进行融合,不仅实现了图像信息与时间信息的融合,而且通过光流信息指导3D卷积神经网络对于初始图像的信息的理解,通过注意力机制让3D卷积神经网络学习更多的感兴趣的区域的信息,从而基于融合后的融合图像进行行为识别,能够有效的保证行为识别的准确度;此外,训练的3D卷积神经网络为单分支网络结构,相比双分支的3D卷积神经网络而言,单分支网络结构降低了网络模型的复杂度,从而降低了整个行为识别过程的复杂度,让整个过程更加集中化,提高了行为识别的效率。
实施例三
本实施例提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述基于图像融合的行为识别方法实施例中的步骤,例如图1所示的S11-S15:
S11,响应于识别目标对象的行为的指令,获取包含所述目标对象的视频流;
S12,从所述视频流中提取多个初始图像;
S13,对所述多个初始图像进行光流计算得到多个光流图像;
S14,基于注意力机制将每个所述初始图像与对应的所述光流图像进行融合,得到多个融合图像;
S15,将所述多个融合图像输入至预先训练完成的3D卷积神经网络中进行行为识别。
或者,该计算机程序被处理器执行时实现上述装置实施例中各模块/单元的功能,例如图3中的模块301-306:
所述获取模块301,用于响应于识别目标对象的行为的指令,获取包含所述目标对象的视频流;
所述提取模块302,用于从所述视频流中提取多个初始图像;
所述采样模块303,用于对所述初始图像进行采样,得到多个采样图像;
所述计算模块304,用于对所述多个初始图像进行光流计算得到多个光流图像;
所述融合模块305,用于基于注意力机制将每个所述初始图像与对应的所述光流图像进行融合,得到多个融合图像;
所述识别模块306,用于将所述多个融合图像输入至预先训练完成的3D卷积神经网络中进行行为识别。
实施例四
参阅图4所示,为本发明实施例三提供的电子设备的结构示意图。在本发明较佳实施例中,所述电子设备4包括存储器41、至少一个处理器42、至少一条通信总线43及收发器44。
本领域技术人员应该了解,图4示出的电子设备的结构并不构成本发明实施例的限定,既可以是总线型结构,也可以是星形结构,所述电子设备4还可以包括比图示更多或更少的其他硬件或者软件,或者不同的部件布置。
在一些实施例中,所述电子设备4是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路、可编程门阵列、数字处理器及嵌入式设备等。所述电子设备4还可包括客户设备,所述客户设备包括但不限于任何一种可与客户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、数码相机等。
需要说明的是,所述电子设备4仅为举例,其他现有的或今后可能出现的电子产品如可适应于本发明,也应包含在本发明的保护范围以内,并以引用方式包含于此。
在一些实施例中,所述存储器41中存储有计算机程序,所述计算机程序被所述至少一个处理器42执行时实现如所述的基于图像融合的行为识别方法中的全部或者部分步骤。所述存储器41包括只读存储器(Read-Only Memory,ROM)、可编程只读存储器(Programmable Read-Only Memory,PROM)、可擦除可编程只读存储器(ErasableProgrammable Read-Only Memory,EPROM)、一次可编程只读存储器(One-timeProgrammable Read-Only Memory,OTPROM)、电子擦除式可复写只读存储器(Electrically-Erasable Programmable Read-Only Memory,EEPROM)、只读光盘(CompactDisc Read-Only Memory,CD-ROM)或其他光盘存储器、磁盘存储器、磁带存储器、或者能够用于携带或存储数据的计算机可读的任何其他介质。
进一步地,所述计算机可读存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
在一些实施例中,所述至少一个处理器42是所述电子设备4的控制核心(ControlUnit),利用各种接口和线路连接整个电子设备4的各个部件,通过运行或执行存储在所述存储器41内的程序或者模块,以及调用存储在所述存储器41内的数据,以执行电子设备4的各种功能和处理数据。例如,所述至少一个处理器42执行所述存储器中存储的计算机程序时实现本发明实施例中所述的基于图像融合的行为识别方法的全部或者部分步骤;或者实现基于图像融合的行为识别装置的全部或者部分功能。所述至少一个处理器42可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。
在一些实施例中,所述至少一条通信总线43被设置为实现所述存储器41以及所述至少一个处理器42等之间的连接通信。
尽管未示出,所述电子设备4还可以包括给各个部件供电的电源(比如电池),优选的,电源可以通过电源管理装置与所述至少一个处理器42逻辑相连,从而通过电源管理装置实现管理充电、放电、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备4还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
上述以软件功能模块的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能模块存储在一个存储介质中,包括若干指令用以使得一台电子设备(可以是个人计算机,或者网络设备等)或处理器(processor)执行本发明各个实施例所述方法的部分。
在本发明所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,既可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他单元或,单数不排除复数。说明书中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种基于图像融合的行为识别方法,其特征在于,所述方法包括:
响应于识别目标对象的行为的指令,获取包含所述目标对象的视频流;
从所述视频流中提取多个初始图像;
对所述多个初始图像进行光流计算得到多个光流图像;
基于注意力机制将每个所述初始图像与对应的所述光流图像进行融合,得到多个融合图像;
将所述多个融合图像输入至预先训练完成的3D卷积神经网络中进行行为识别,其中,所述预先训练完成的3D卷积神经网络为单分支网络结构。
2.如权利要求1所述的基于图像融合的行为识别方法,其特征在于,在从所述视频流中提取多个初始图像之后,所述方法还包括:
检测每个所述初始图像中所述目标对象对应的目标区域;
对每个所述初始图像中的目标区域进行裁剪,得到目标图像;
对多个所述目标图像进行采样,得到多个采样图像;
所述对所述多个初始图像进行光流计算得到多个光流图像包括:对所述多个采样图像进行光流计算得到多个光流图像。
3.如权利要求2所述的基于图像融合的行为识别方法,其特征在于,所述对多个所述目标图像进行采样,得到多个采样图像包括:
获取每个所述目标图像的尺寸;
根据所述尺寸对每个所述目标图像进行第一采样得到第一采样图像,及对每个所述目标图像进行第二采样得到第二采样图像;
计算每个所述第一采样图像的第一图像质量,及计算每个所述第二采样图像的第二图像质量;
比较多个所述第一图像质量及多个所述第二图像质量,得到比较结果;
根据所述比较结果确定多个采样图像。
4.如权利要求3所述的基于图像融合的行为识别方法,其特征在于,所述根据所述尺寸对每个所述目标图像进行第一采样得到第一采样图像,及对每个所述目标图像进行第二采样得到第二采样图像包括:
获取多个所述尺寸中的最大尺寸及最小尺寸;
根据所述最大尺寸确定每个所述目标图像的第一采样率,根据所述最小尺寸确定每个所述目标图像的第二采样率;
根据所述第一采样率对对应的所述目标图像进行上采样得到第一采样图像,根据所述第二采样率对对应的所述目标图像进行下采样得到第二采样图像。
5.如权利要求3所述的基于图像融合的行为识别方法,其特征在于,所述根据所述比较结果确定多个采样图像包括:
当所述比较结果为多个所述第一图像质量的平均值大于多个所述第二图像质量的平均值,确定多个所述第一采样图像为所述多个采样图像;
当所述比较结果为多个所述第一图像质量的平均值小于多个所述第二图像质量的平均值,确定多个所述第二采样图像为所述多个采样图像。
6.如权利要求2至5中任意一项所述的基于图像融合的行为识别方法,其特征在于,所述对所述多个采样图像进行光流计算得到多个光流图像包括:
采用光流算法计算每相邻的两个采样图像的光流场;
对所述光流场进行阈值分割;
筛选出所述光流场中大于所述阈值的目标光流场;
确定对应所述目标光流场的目标采样图像,根据所述目标光流场得到目标光流图像;
所述基于注意力机制将每个所述初始图像与对应的所述光流图像进行融合包括:基于注意力机制将每个所述目标采样图像与对应的所述目标光流图像进行融合。
7.如权利要求2至5中任意一项所述的基于图像融合的行为识别方法,其特征在于,所述将所述多个融合图像输入至预先训练完成的3D卷积神经网络中进行行为识别包括:
获取所述3D卷积神经网络中最后一个卷积层输出的特征图;
将每个所述融合图像与对应的所述特征图进行拼接处理,得到拼接图像;
基于所述拼接图像进行行为识别。
8.一种基于图像融合的行为识别装置,其特征在于,所述装置包括:
获取模块,用于响应于识别目标对象的行为的指令,获取包含所述目标对象的视频流;
提取模块,用于从所述视频流中提取多个初始图像;
计算模块,用于对所述多个初始图像进行光流计算得到多个光流图像;
融合模块,用于基于注意力机制将每个所述初始图像与对应的所述光流图像进行融合,得到多个融合图像;
识别模块,用于将所述多个融合图像输入至预先训练完成的3D卷积神经网络中进行行为识别,其中,所述预先训练完成的3D卷积神经网络为单分支网络结构。
9.一种电子设备,其特征在于,所述电子设备包括处理器和存储器,所述处理器用于执行所述存储器中存储的计算机程序时实现如权利要求1至7中任意一项所述基于图像融合的行为识别方法。
10.一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任意一项所述基于图像融合的行为识别方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111093387.6A CN113792680A (zh) | 2021-09-17 | 2021-09-17 | 基于图像融合的行为识别方法、装置、电子设备及介质 |
PCT/CN2022/071329 WO2023040146A1 (zh) | 2021-09-17 | 2022-01-11 | 基于图像融合的行为识别方法、装置、电子设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111093387.6A CN113792680A (zh) | 2021-09-17 | 2021-09-17 | 基于图像融合的行为识别方法、装置、电子设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113792680A true CN113792680A (zh) | 2021-12-14 |
Family
ID=78878787
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111093387.6A Pending CN113792680A (zh) | 2021-09-17 | 2021-09-17 | 基于图像融合的行为识别方法、装置、电子设备及介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN113792680A (zh) |
WO (1) | WO2023040146A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114399839A (zh) * | 2022-01-18 | 2022-04-26 | 平安科技(深圳)有限公司 | 基于特征融合的行为识别方法、装置、设备及存储介质 |
WO2023040146A1 (zh) * | 2021-09-17 | 2023-03-23 | 平安科技(深圳)有限公司 | 基于图像融合的行为识别方法、装置、电子设备及介质 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116309080B (zh) * | 2023-05-11 | 2023-08-11 | 武汉纺织大学 | 一种无人机视频拼接方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110084228A (zh) * | 2019-06-25 | 2019-08-02 | 江苏德劭信息科技有限公司 | 一种基于双流卷积神经网络的危险行为自动识别方法 |
CN111462183A (zh) * | 2020-03-31 | 2020-07-28 | 山东大学 | 一种基于注意力机制双流网络的行为识别方法及系统 |
US20200242153A1 (en) * | 2019-01-29 | 2020-07-30 | Samsung Electronics Co., Ltd. | Method, apparatus, electronic device and computer readable storage medium for image searching |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109543526B (zh) * | 2018-10-19 | 2022-11-08 | 谢飞 | 基于深度差异性特征的真假面瘫识别系统 |
CN112990077B (zh) * | 2021-04-02 | 2021-10-01 | 中国矿业大学 | 基于联合学习与光流估计的面部动作单元识别方法及装置 |
CN113792680A (zh) * | 2021-09-17 | 2021-12-14 | 平安科技(深圳)有限公司 | 基于图像融合的行为识别方法、装置、电子设备及介质 |
-
2021
- 2021-09-17 CN CN202111093387.6A patent/CN113792680A/zh active Pending
-
2022
- 2022-01-11 WO PCT/CN2022/071329 patent/WO2023040146A1/zh unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200242153A1 (en) * | 2019-01-29 | 2020-07-30 | Samsung Electronics Co., Ltd. | Method, apparatus, electronic device and computer readable storage medium for image searching |
CN110084228A (zh) * | 2019-06-25 | 2019-08-02 | 江苏德劭信息科技有限公司 | 一种基于双流卷积神经网络的危险行为自动识别方法 |
CN111462183A (zh) * | 2020-03-31 | 2020-07-28 | 山东大学 | 一种基于注意力机制双流网络的行为识别方法及系统 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023040146A1 (zh) * | 2021-09-17 | 2023-03-23 | 平安科技(深圳)有限公司 | 基于图像融合的行为识别方法、装置、电子设备及介质 |
CN114399839A (zh) * | 2022-01-18 | 2022-04-26 | 平安科技(深圳)有限公司 | 基于特征融合的行为识别方法、装置、设备及存储介质 |
WO2023137915A1 (zh) * | 2022-01-18 | 2023-07-27 | 平安科技(深圳)有限公司 | 基于特征融合的行为识别方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2023040146A1 (zh) | 2023-03-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113792680A (zh) | 基于图像融合的行为识别方法、装置、电子设备及介质 | |
CN110728255B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN111178183B (zh) | 人脸检测方法及相关装置 | |
CN111597870B (zh) | 一种基于注意力机制与多任务学习的人体属性识别方法 | |
WO2020001083A1 (zh) | 一种基于特征复用的人脸识别方法 | |
KR20200010993A (ko) | 보완된 cnn을 통해 이미지 속 얼굴의 속성 및 신원을 인식하는 전자 장치. | |
CN111428664B (zh) | 一种基于深度学习技术的计算机视觉的实时多人姿态估计方法 | |
US11423262B2 (en) | Automatically filtering out objects based on user preferences | |
Verma et al. | Age prediction using image dataset using machine learning | |
CN117094362B (zh) | 一种任务处理方法及相关装置 | |
CN113095199B (zh) | 一种高速行人识别方法及装置 | |
Pavlov et al. | Application for video analysis based on machine learning and computer vision algorithms | |
CN113111684B (zh) | 神经网络模型的训练方法、装置和图像处理系统 | |
Srinivas et al. | Facial Expression Detection Model of Seven Expression Types Using Hybrid Feature Selection and Deep CNN | |
CN112766176A (zh) | 轻量化卷积神经网络的训练方法及人脸属性识别方法 | |
CN114973107A (zh) | 基于多鉴别器协同和强弱共享机制的无监督跨域视频动作识别方法 | |
CN115862128A (zh) | 一种基于人体骨架的顾客异常行为识别方法 | |
CN113011320A (zh) | 视频处理方法、装置、电子设备及存储介质 | |
KR20150136971A (ko) | 저 에너지/해상도 가지는 얼굴 검출 방법 및 장치 | |
CN110427920B (zh) | 一种面向监控环境的实时行人解析方法 | |
CN111291640B (zh) | 用于识别步态的方法和装置 | |
JP2008009745A (ja) | 顔検出装置 | |
CN114049676A (zh) | 疲劳状态检测方法、装置、设备及存储介质 | |
CN113688667A (zh) | 一种基于深度学习的行李取放动作识别方法和系统 | |
Nair et al. | Automated detection of gender from face images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |