CN113361364B - 目标行为检测方法、装置、设备及存储介质 - Google Patents

目标行为检测方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN113361364B
CN113361364B CN202110604913.4A CN202110604913A CN113361364B CN 113361364 B CN113361364 B CN 113361364B CN 202110604913 A CN202110604913 A CN 202110604913A CN 113361364 B CN113361364 B CN 113361364B
Authority
CN
China
Prior art keywords
target object
information
behavior
target
video stream
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110604913.4A
Other languages
English (en)
Other versions
CN113361364A (zh
Inventor
胡超凡
赵代平
李展鹏
孙德乾
孔祥晖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sensetime Technology Development Co Ltd
Original Assignee
Beijing Sensetime Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sensetime Technology Development Co Ltd filed Critical Beijing Sensetime Technology Development Co Ltd
Priority to CN202110604913.4A priority Critical patent/CN113361364B/zh
Publication of CN113361364A publication Critical patent/CN113361364A/zh
Application granted granted Critical
Publication of CN113361364B publication Critical patent/CN113361364B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Abstract

本公开涉及计算机视觉技术领域,具体涉及一种目标行为检测方法、装置、设备及存储介质。目标行为检测方法,包括:获取第一时段的第一视频流数据;其中,第一视频流数据中包括至少一个目标对象;对第一视频流数据进行检测,预测得到第二时段目标对象的第一行为信息;在时序上,第二时段与第一时段相邻且位于第一时段之后,或者,第二时段的前段与第一时段的后段存在重叠,第一行为信息为目标对象的预测行为信息;根据实时获取的当前视频帧数据,检测得到目标对象的第二行为信息;响应于第一行为信息和第二行为信息的差异满足预设条件,确定目标对象出现目标行为。本公开方法可将目标行为检测时间提前,提前预警,降低检测滞后带来的风险。

Description

目标行为检测方法、装置、设备及存储介质
技术领域
本公开涉及计算机视觉技术领域,具体涉及一种目标行为检测方法、装置、设备及存储介质。
背景技术
目前,基于计算机视觉(Computer vision)的目标行为检测被广泛应用于各种场景中。但是,相关技术中,往往只能在目标行为发生后,基于采集图像中目标的相关动作分析确定目标行为的发生,具有滞后性,对于溺水等危险场景监测的适用性较差。
发明内容
本公开提供了一种目标行为检测方法、装置、设备及存储介质,以解决现有技术中因检测滞后而引发的危险场景监测适用性较差的问题。
第一方面,本公开实施方式提供了一种目标行为检测方法,包括:
获取第一时段的第一视频流数据;其中,所述第一视频流数据中包括至少一个目标对象;
对所述第一视频流数据进行检测,预测得到第二时段所述目标对象的第一行为信息;在时序上,所述第二时段与所述第一时段相邻且位于所述第一时段之后,或者,所述第二时段的前段与所述第一时段的后段存在重叠,所述第一行为信息为所述目标对象的预测行为信息;
根据实时获取的当前视频帧数据,检测得到所述目标对象的第二行为信息;
响应于所述第一行为信息和所述第二行为信息的差异满足预设条件,确定所述目标对象出现目标行为。
在一些实施方式中,所述对所述第一视频流数据进行检测,预测得到第二时段所述目标对象的第一行为信息,包括:
对所述第一视频流数据进行特征提取,得到所述目标对象的对象特征和光流特征;
基于所述对象特征和所述光流特征,得到所述目标对象的行为特征信息;
根据行为特征信息,得到所述第一行为信息。
在一些实施方式中,所述目标对象的行为信息包括位移变化信息和速度变化信息;
所述响应于所述第一行为信息和所述第二行为信息的差异满足预设条件,确定所述目标对象出现目标行为,包括:
响应于所述第一行为信息的第一位移变化信息与所述第二行为信息的第二位移变化信息的差异不小于预设位移阈值,和/或,所述第一行为信息的第一速度变化信息与所述第二行为信息的第二速度变化信息的差异不小于预设速度阈值,确定目标对象出现所述目标行为。
在一些实施方式中,所述对所述第一视频流数据进行检测,预测得到第二时段所述目标对象的第一行为信息,包括:
对所述第一视频流数据进行特征提取,得到所述目标对象的对象特征和光流特征;
基于所述对象特征,确定所述第一视频流数据包括的每帧图像中所述目标对象的位置信息,基于相邻帧图像之间的位置信息变化,确定所述第一位移变化信息;
基于所述光流特征,确定所述每帧图像中所述目标对象的速度信息,基于相邻帧图像之间的速度信息变化,确定所述第一速度变化信息。
在一些实施方式中,所述根据实时获取的当前视频帧数据,检测得到所述目标对象的第二行为信息,包括:
对所述当前视频帧数据进行特征提取,得到所述目标对象的对象特征和光流特征;
基于所述对象特征,获取所述当前视频帧数据与前一视频帧数据之间所述目标对象的位置信息变化,根据所述位置信息变化确定所述第二位移变化信息;
基于所述光流特征,获取所述当前视频帧数据与前一视频帧数据之间所述目标对象的速度信息变化,根据所述速度信息变化确定所述第二速度变化信息。
在一些实施方式中,在确定所述目标对象出现目标行为之后,所述方法还包括:
响应于所述目标对象处于目标行为的时长大于预设时长阈值,生成警报信息。
在一些实施方式中,所述的方法还包括:
基于所述目标对象的当前行为,确定所述目标对象的预警等级;
基于所述目标对象的位置信息和预警等级,在显示装置上输出预警结果。
在一些实施方式中,所述的方法还包括:
对所述第一视频流数据进行特征提取,得到所述目标对象的对象特征;
基于所述对象特征与历史数据的比对结果,确定所述目标对象的预警等级。
在一些实施方式中,所述目标行为包括溺水,所述第一视频流数据和所述当前视频帧数据为针对预设水域的采集数据,所述目标对象的行为信息包括目标对象的肢体关键点的位移变化信息和/或速度变化信息。
第二方面,本公开实施方式提供了一种目标行为检测装置,包括:
获取模块,被配置为获取第一时段的第一视频流数据;其中,所述第一视频流数据中包括至少一个目标对象;
预测模块,被配置为对所述第一视频流数据进行检测,预测得到第二时段所述目标对象的第一行为信息;在时序上,所述第二时段与所述第一时段相邻且位于所述第一时段之后,或者,所述第二时段的前段与所述第一时段的后段存在重叠,所述第一行为信息为所述目标对象的预测行为信息;
检测模块,被配置为根据实时获取的当前视频帧数据,检测得到所述目标对象的第二行为信息;
确定模块,被配置为响应于所述第一行为信息和所述第二行为信息的差异满足预设条件,确定所述目标对象出现目标行为。
在一些实施方式中,所述预测模块具体被配置为:
对所述第一视频流数据进行特征提取,得到所述目标对象的对象特征和光流特征;
基于所述对象特征和所述光流特征,得到所述目标对象的行为特征信息;
根据行为特征信息,得到所述第一行为信息。
在一些实施方式中,所述目标对象的行为信息包括位移变化信息和速度变化信息;所述确定模块具体被配置为:
响应于所述第一行为信息的第一位移变化信息与所述第二行为信息的第二位移变化信息的差异不小于预设位移阈值,和/或,所述第一行为信息的第一速度变化信息与所述第二行为信息的第二速度变化信息的差异不小于预设速度阈值,确定目标对象出现所述目标行为。
在一些实施方式中,所述预测模块具体被配置为:
对所述第一视频流数据进行特征提取,得到所述目标对象的对象特征和光流特征;
基于所述对象特征,确定所述第一视频流数据包括的每帧图像中所述目标对象的位置信息,基于相邻帧图像之间的位置信息变化,确定所述第一位移变化信息;
基于所述光流特征,确定所述每帧图像中所述目标对象的速度信息,基于相邻帧图像之间的速度信息变化,确定所述第一速度变化信息。
在一些实施方式中,所述检测模块具体被配置为:
对所述当前视频帧数据进行特征提取,得到所述目标对象的对象特征和光流特征;
基于所述对象特征,获取所述当前视频帧数据与前一视频帧数据之间所述目标对象的位置信息变化,根据所述位置信息变化确定所述第二位移变化信息;
基于所述光流特征,获取所述当前视频帧数据与前一视频帧数据之间所述目标对象的速度信息变化,根据所述速度信息变化确定所述第二速度变化信息。
在一些实施方式中,所述装置还包括:
警报信息生成模块,被配置为响应于所述目标对象处于目标行为的时长大于预设时长阈值,生成警报信息。
在一些实施方式中,所述装置还包括:
预警等级确定模块,被配置为基于所述目标对象的当前行为,确定所述目标对象的预警等级;
显示输出模块,被配置为基于所述目标对象的位置信息和预警等级,在显示装置上输出预警结果。
在一些实施方式中,所述装置还包括:
特征提取模块,被配置为对所述第一视频流数据进行特征提取,得到所述目标对象的对象特征;
预警等级确定模块,被配置为基于所述对象特征与历史数据的比对结果,确定所述目标对象的预警等级。
第三方面,本公开实施方式提供了一种电子设备,包括:
处理器;和
存储器,存储有计算机指令,所述计算机指令用于使处理器执行根据第一方面任一实施方式所述的方法。
第四方面,本公开实施方式提供了一种存储介质,存储有计算机指令,所述计算机指令用于使计算机执行第一方面任一实施方式所述的方法。
本公开实施方式的目标行为检测方法,包括对第一时段的第一视频流数据进行检测,预测得到第二时段目标对象的第一行为信息,在时序上,第二时段与第一时段相邻且位于所述第一时段之后,或者,所述第二时段的前段与第一时段的段存在重叠,根据实时获取的当前视频帧数据,检测得到目标对象的第二行为信息,响应于第一行为信息和第二行为信息的差异满足预设条件,确定目标对象出现目标行为。本公开实施方式的方法,基于第一时段的数据对目标行为进行预测,根据预测行为信息对目标行为进行实时检测,将行为检测时间提前,降低检测滞后带来的风险。
附图说明
为了更清楚地说明本公开具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本公开的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本公开一些实施方式中检测系统的结构示意图。
图2是根据本公开一些实施方式中目标行为检测方法的流程图。
图3是根据本公开一些实施方式中目标行为检测方法的原理示意图。
图4是根据本公开一些实施方式中目标行为检测方法的流程图。
图5是根据本公开一些实施方式中目标行为检测方法的原理图。
图6是根据本公开一些实施方式中目标行为检测方法的原理图。
图7是根据本公开一些实施方式中目标行为检测方法的流程图。
图8是根据本公开一些实施方式中目标行为检测方法的流程图。
图9是根据本公开一些实施方式中目标行为检测方法的流程图。
图10是根据本公开一些实施方式中目标行为检测方法的流程图。
图11是根据本公开一些实施方式中目标行为检测方法的流程图。
图12是根据本公开一些实施方式中目标行为检测装置的结构框图。
图13是根据本公开一些实施方式中目标行为检测装置的结构框图。
图14是适于实现本公开方法的计算机系统结构框图。
具体实施方式
下面将结合附图对本公开的技术方案进行清楚、完整地描述,显然,所描述的实施方式是本公开一部分实施方式,而不是全部的实施方式。基于本公开中的实施方式,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施方式,都属于本公开保护的范围。此外,下面所描述的本公开不同实施方式中所涉及的技术特征只要彼此之间未构成冲突就可以相互结合。
基于计算机视觉的目标行为检测,目前已经被广泛应用于各种场景。以溺水行为检测为例,相关技术中,通常是利用设于水域的摄像头来采集视频数据,基于计算机视觉技术对水域内的人体行为进行检测分析,确定目标是否溺水。
但是,相关技术中,在进行溺水行为检测时,只有在溺水行为发生后,检测系统才可以根据采集的视频数据分析确定目标行为属于溺水行为,也即具有检测滞后性,对于溺水这种危险行为的检测十分不利。
基于上述相关技术中存在的缺陷,本公开实施方式提供了一种目标行为检测方法、装置、电子设备以及存储介质,旨在对目标对象的当前行为进行检测识别,并且降低目标行为检测的滞后性,提高目标行为检测效果。
第一方面,本公开实施方式提供了一种目标行为检测方法,该方法可应用于基于计算机视觉的检测系统,并由系统的处理器执行。图1示出了本公开一些实施方式的检测系统的结构示意图,下面结合图1对本公开示例的检测系统进行说明。
如图1所示,在一些实施方式中,检测系统包括至少一个图像采集设备100和服务器200。
图像采集设备100可以是设置在需要进行目标行为检测场景中的摄像头。可以理解,图像采集设备100的作用是获取当前场景下的视频流数据,本公开实施方式对于图像采集设备100的类型不进行限制,例如RGB摄像头、红外摄像头等。
服务器200与图像采集设备100可以通过无线或者有线的方式建立通信连接,从而根据图像采集设备100采集的视频流数据进行下述一个或者多个方法步骤的处理,以实现目标行为的检测识别。本公开实施方式中,服务器200可以是包含一个或多个处理器的单台服务器,也可以是服务器集群,本公开对此不作限制。
可以理解,本公开示例的检测系统可以包括多个图像采集设备100,多个图像采集设备100通过无线或有线通信模块与服务器200建立可通信连接。多个图像采集设备100可以分别部署于场景的不同位置,从而采集不同角度或者不同位置的视频流数据,降低了视频/图像采集存在盲区的几率。
在一些实施方式中,本公开示例的检测系统还包括显示装置300,显示装置300可以通过例如有线或者无线的方式与服务器200建立可通信连接。显示装置300可以显示图像采集设备100采集的实时数据,从而实时显示场景画面。例如,服务器200和显示装置300可以部署于后端,从而工作人员可以在远程观察到场景图像。
显示装置300还可以根据服务器200发送的指令,将处于危险行为的目标对象在视频画面上可视化输出,从而可以直观地将目标对象发生的各种行为展示给工作人员,以提醒工作人员注意目标对象的当前行为。本公开下述中结合方法步骤对此进行详细说明,在此暂不详述。
可以理解,上述系统结构仅作为本公开实施方式的一种示例,本领域技术人员可以基于具体场景需求实现其他系统结构的部署,并不局限于上述示例。例如,检测系统还可以部署声光报警器,从而在目标对象处于危险行为时,利用声光报警的方式提醒工作人员。本领域技术人员对此可以理解并充分实施,本公开不再赘述。
如图2所示,基于上述检测系统,本公开实施方式提供了一种目标行为检测方法,该方法可以由上述检测系统的服务器执行。在一些实施方式中,本公开示例的目标行为检测方法包括:
S210、获取第一时段的第一视频流数据。
具体来说,可以通过图像采集设备100采集当前场景中目标对象的视频数据。在一个示例中,以游泳池溺水检测场景为例,游泳池的上方可以部署至少一个鸟瞰摄像机,摄像机的视场范围可覆盖整个游泳池区域,目标对象即为游泳池内的各个人体,从而在人们游泳的过程中,摄像机可以实时采集视频流数据。
本公开一些实施方式中,可按照固定的采样周期获取图像采集设备100采集的视频流数据,也即在时域上划分为连续的多个时间段,所述的第一时段为当前时刻之前一个采样周期对应的时段,第一时段的视频流数据定义为第一视频流数据。
对于时间段的划分可以根据检测精度、场景需求进行具体设置。例如,仍以溺水检测场景为例,溺水属于较紧急的危险行为,为了提高检测精度,可将时间段分为较短的时段,例如每2s作为一个时间段,也即每间隔2s获取一次视频流数据,而获取的第一视频流数据也即当前时刻之前2s的视频流数据。当然可以理解,在其他场景下,第一时段也可以是其他适于实施的时间长度,具体可根据待检测行为的危险程度、检测精度等相关,本公开对此不作限制。
S220、对第一视频流数据进行检测,预测得到第二时段目标对象的第一行为信息。
具体而言,视频流数据是由多帧图像组成的数据,在本公开实施方式中,可利用预先训练好的深度神经网络(Deep Neural Networks,DNN),将第一视频流数据作为DNN的输入数据,从而得到DNN预测输出目标对象在第二时段的第一行为信息。
结合前述,本公开在时域上划分为多个连续的时间段,在本公开实施方式中,第一时段可以与第二时段为相邻时段,也可以与第二时段部分重叠。
如图3中(a)所示,在一些实施方式中,第二时段与第一时段相邻且位于第一时段之后。以获取第一视频流数据的初始时刻t1为分界时间点,第一时段t0~t1为t1时刻之前的时段,第一时段t0~t1对应的第一视频流数据为t1时刻之前一个采样周期采集的数据。而第二时段t1~t2为t1时刻之后的时段。
如图3中(b)所示,在另一些实施方式中,第二时段的前段与第一时段的后段存在重叠。同样以获取第一视频流数据的初始时刻t1为分界时间点,第一时段t0~t1为t1时刻之前的时段,但是,第二时段的初始时刻t2位于t1之前,也即第二时段t2~t3与第一时段t0~t1具有重叠时段t2~t1
本公开实施方式中,基于采集的第一时段的第一视频流数据,通过例如DNN对第二时段的目标行为进行预测,得到预测的第二时段的目标对象的第一行为信息。
在一个示例中,以溺水检测场景为例,目标对象的行为信息包括目标对象的肢体关键点的位移变化信息和/或速度变化信息。从而,DNN通过对例如2s之前的第一视频流数据进行检测,预测得到2s之后的第二时段目标对象的肢体关键点的位移变化信息和速度变化信息中的至少一项。本公开下述中进行具体说明,在此暂不展开。
S230、根据实时获取的当前视频帧数据,检测得到目标对象的第二行为信息。
具体来说,图像采集设备100实时采集当前时刻的视频帧数据,结合前述可知,可通过视觉检测对实时采集的当前视频帧数据进行处理,从而检测得到目标对象的第二行为信息。可以理解,第二行为信息为根据当前目标对象的实际行为得到的信息数据。
对于第二行为信息的检测获取,本公开下述中进行说明,在此暂不详述。
S240、响应于第一行为信息和第二行为信息的差异满足预设条件,确定目标对象出现目标行为。
具体来说,第一行为信息表示根据过去的第一时段的数据得到的第二时段的预测行为信息,第二行为信息表示根据当前实际产生的数据得到的真实行为信息。通过对比第一行为信息和第二行为信息的差异,即可确定预测行为与真实行为之间的差异,若差异满足预设条件,即可确定目标对象出现目标行为。
仍以溺水检测场景为例,结合图3中(a)所示,假设目标对象在t1时刻出现溺水行为,也即,目标对象在t1时刻之前的第一时段t0~t1为正常游泳状态,而在第二时段t1~t2为溺水状态。本公开方法根据第一时段t0~t1处于正常游泳状态的数据预测得到第二时段t1~t2的第一行为信息(比如,可以是正常有用状态的数据),同时检测系统根据实时获取的视频帧数据得到当前真实发生的溺水行为的第二行为信息,即此时目标对象的第二行为信息所指示的行为,可以是目标对象的手臂摆动幅度大于预测出的第一行为信息指示的手臂摆动幅度,还可以是目标对象的各肢体关键点的相对位置异于预测出的第一行为信息指示的各肢体关键点的相对位置,比如,第二行为信息指示目标对象身体处于直立或蜷缩状态,而预测出的第一行为信息指示目标对象相较于前一时段仍处于水平或伸展状态等,基于此,通过对比第一行为信息和第二行为信息,确定两者差异较大,即可确定当前目标对象发生溺水行为。
本公开下述中对第一行为信息和第二行为信息的对比过程进行具体说明,在此暂不展开。
通过上述可知,本公开实施方式的检测方法,利用第一时段的数据预测第二时段的第一行为信息,利用预测的第一行为信息对当前真实行为进行实时检测,从而将行为检测时间提前,降低检测滞后带来的风险。
在一些实施方式中,本公开示例的检测系统,可通过深度神经网络(DNN)基于第一视频流数据预测得到第一行为信息。图4示出了本公开一些实施方式中预测得到第一行为信息的过程,下面具体进行说明。
如图4所示,在一些实施方式中,本公开示例的目标行为检测方法包括:
S410、对第一视频数据进行特征提取,得到目标对象的对象特征和光流特征。
S420、基于对象特征和光流特征,得到目标对象的行为特征信息。
S430、根据行为特征信息,得到第一行为信息。
在一些实施方式中,本公开示例的检测方法采用深度神经网络(DNN)对第一视频数据进行特征提取,图5中示出了本公开一些实施方式中DNN的网络结构。
如图5所示,本公开采用的DNN包括两个数据流的卷积神经网络,分别为空间流卷积网络和时间流卷积网络。DNN的输入为第一视频数据,第一视频数据包括静态帧数据和帧间动态数据。
空间流卷积网络根据静态帧数据对每帧图像进行特征提取,得到图像上目标对象的对象特征。对象特征表示目标对象的人体特征,例如目标对象的关键点、脸部特征、位置信息等特征信息。以游泳场景为例,空间流卷积网络可提取得到每帧图像中目标对象的手臂关节点等肢体关键点、脸部特征、目标位置等特征信息。
时间流卷积网络根据帧间动态数据,结合前后帧之间的光流信息得到每帧图像中目标对象的光流特征。光流特征表示目标对象的运动特征,例如目标对象的移动方向、移动速度、移动角度等特征信息。仍以游泳场景为例,时间流卷积网络可提取得到每帧图像中目标对象的行进方向、行进速度、手臂摆动角度等特征信息。
融合子网络对空间流卷积网络和时间流卷积网络提取得到的特征信息进行融合处理,将每个目标对象的特征信息融合得到特征向量,根据特征向量得到目标对象的行为特征信息,该行为特征信息对应第一时段该目标对象的行为。在得到行为特征信息之后,融合子网络可根据第一时段的行为特征信息,输出得到对应第二时段目标对象的第一行为信息。也即,DNN最终输出的是第二时段对目标对象的预测行为信息。
如图6所示,图6中横轴为时间轴t,假设当前时刻为t1,时间段t0~t1为第一时间段,t1~t2为第二时段,可以理解,第一时间段为刚刚过去的时间段,而第二时段为即将发生的时间段。在本公开实施方式中,在t1时刻,获取第一时段t0~t1的第一视频流数据,利用DNN预测输出第二时段t1~t2的目标对象的第一行为信息。也即,本公开实施方式中利用深度神经网络,基于过去时段的数据对即将发生的目标行为信息进行预测,得到目标对象的第一行为信息。
可以理解,本公开实施方式中DNN结构并不局限于图5所示,还可以是其他任何适于实现的网络结构,而且对于各个网络的隐层和输入、输出层的部署以及网络的具体类型,本领域技术人员基于相关技术可以理解并充分实现,本公开对此不作限制。
并且,本公开实施方式中的DNN,可以预先通过样本数据进行有监督训练,基于样本标签与输出值的损失进行反向传播对网络参数进行优化调整,直至满足收敛条件,从而得到训练后的DNN。对于网络训练的过程,本领域技术人员可以理解并实现,本公开不再赘述。
通过上述可知,本公开示例的检测方法,利用深度神经网络结合视频流数据的静态帧信息和帧间动态光流信息对目标对象的行为进行检测识别,提高目标行为的检测准确性。
在一些运动场景检测中,目标对象的行为信息可以包括位移变化信息和速度变化信息,通过位移变化信息和速度变化信息结合判断目标对象的当前行为。
以游泳池场景的检测为例,在游泳过程中,人体的位置为发生变化,从而基于视频流的帧与帧之间的人体位置可以得到位移变化信息。同时,在游泳时,人体手臂挥动具有速度,基于光流信息可以得到帧与帧之间人体手臂挥动的速度变化信息。基于第一行为信息的位移变化信息、速度变化信息,与第二行为信息的位移变化信息、速度变化信息的对比分析,确定目标对象当前行为是否为溺水行为。
在一些实施方式中,如图7所示,本公开示例的目标行为检测方法可包括:
S710、对第一视频流数据进行特征提取,得到目标对象的对象特征和光流特征。
具体来说,本步骤可参照前述图3实施方式实现,在此不再赘述。
S720、基于对象特征,确定第一视频流数据包括的每帧图像中目标对象的位置信息,基于相邻帧图像之间的位置信息变化,确定第一位移变化信息。
具体来说,通过深度神经网络DNN对第一视频流数据中的每帧图像进行特征提取,可以得到每帧图像中目标对象的位置信息。
在一个示例中,以游泳池溺水检测场景为例,通过DNN对每帧图像进行特征提取,可以得到肢体关键点信息,例如人体手臂关节点。目标对象在游泳过程中,手臂位置不断变化,从而可通过特征提取,确定每帧图像中手臂关节点的位置信息。对于任意两个相邻帧图像,根据两帧图像中手臂关节点的位置信息,即可确定这两帧图像之间手臂关节点的位置信息变化。
第一视频流数据包括多帧图像,例如以图像采集设备每秒获取30帧图像,若第一时段为2s,则第一视频数据共包括30*2=60帧图像。基于任意两帧图像之间的位置信息变化,预测得到对应第二时段的第一位移变化信息。
在一个示例中,仍以游泳池溺水检测场景为例,人体在正常游泳过程中,手臂的挥动速度大致上是相对平稳的,因此相邻帧之间对于某一或是多个特定肢体关键点的位置信息变化大致上也是平稳的。因此,可基于第一时段中所有帧间位置信息变化的平均值,作为对应第二时段的第一位移变化信息。
当然,本领域技术人员可以理解,上述示例仅作为本公开方法的其中一个实现方式,在其他实施方式中,也可以采用其他算法及方式确定第一位移变化信息,例如采用预先训练的DNN输出预测的第一位移变化信息,本公开对此不作限制。
S730、基于光流特征,确定每帧图像中目标对象的速度信息,基于相邻帧图像之间的速度信息变化,确定第一速度变化信息。
光流特征表示空间运动物体在图像上的像素运动的瞬时速度,可利用视频流中像素在相邻帧之间的相关性来确定上一帧与当前帧之间存在的对应关系,从而计算出相邻帧之间物体运动信息。因此,基于光流特征,可以计算得到每帧图像中目标对象的运动方向、运动速度等信息。
在一个示例中,以游泳溺水检测场景为例,通过DNN对第一视频流数据进行特征提取,得到每帧图像的光流特征,光流特征表示每帧图像中人体手臂关键点的速度信息。对于任意两个相邻帧图像,根据两帧图像中关键点的速度信息,即可确定这两帧图像之间手臂关键点的速度信息变化。
第一视频流数据包括多帧图像,例如以图像采集设备每秒获取30帧图像,若第一时段为2s,则第一视频数据共包括30*2=60帧图像。基于任意两帧图像之间的速度信息变化,预测得到对应第二时段的第一速度变化信息。
在一个示例中,仍以游泳池溺水检测场景为例,人体在正常游泳过程中,手臂的挥动速度大致上是相对平稳的,因此帧与帧间的速度信息变化大致上也是平稳的。因此,可基于第一时段中所有帧间速度信息变化的平均值,作为对应第二时段的第一速度变化信息。
当然,本领域技术人员可以理解,上述示例仅作为本公开方法的其中一个实现方式,在其他实施方式中,也可以采用其他算法及方式确定第一速度变化信息,例如采用预先训练的DNN输出预测的第一速度变化信息,本公开对此不作限制。
继续参照图6所示,本公开实施方式中,第一位移变化信息表示的是预测得到的第二时段t1~t2中目标对象的帧间位置信息变化,同样,第一速度变化信息表示的是预测得到的第二时刻t1~t2中目标对象的帧间速度变化。随着当前时刻由t1继续进行,图像采集设备可以实时获取到当前时刻的视频帧数据,实时获取的视频帧数据表示,当前目标对象真实目标行为的采集数据。从而可以根据实时获取的视频帧数据,检测得到目标对象当前的第二行为信息,下面结合图8进行说明。
如图8所示,在一些实施方式中,本公开示例的目标行为检测方法包括:
S810、对当前视频帧数据进行特征提取,得到目标对象的对象特征和光流特征。
具体而言,当前视频帧数据表示第二时段中实时获取的视频帧数据,举例来说,如图6中所示,假设当前时刻由t1变化至t’,图像采集设备即可实时采集到t’时刻的场景图像,也即当前视频帧数据。
本公开实施方式中,可通过例如图像检测算法或深度学习网络对当前视频帧数据进行特征提取,得到视频帧数据中目标对象的对象特征和光流特征。具体过程可参照前述图4实施方式实现,在此不再赘述。
S820、基于对象特征,获取当前视频帧数据与前一帧视频数据之间目标对象的位置信息变化,根据位置信息变化确定第二位移变化信息。
具体来说,在得到目标对象的对象特征之后,可以根据对象特征确定目标对象的位置信息。同时,获取当前视频帧数据前一帧图像中目标对象的位置信息。根据当前视频帧图像与前一帧图像中目标对象的位置信息变化,即可确定第二位移变化信息。
可以理解,第二位移变化信息表示当前真实场景下目标对象的位置变化。
S830、基于光流特征,获取当前视频帧数据与前一帧视频数据之间目标对象的速度信息变化,根据速度新变化确定第二速度变化信息。
具体来说,在得到目标对象的光流特征之后,可以根据光流特征确定目标对象的速度信息。同时获取当前视频帧数据前一帧图像中目标对象的速度信息。根据当前视频帧图像与前一帧图像中目标对象的速度信息变化,即可确定第二速度变化信息。
可以理解,第二速度变化信息表示当前真实场景下目标对象的速度变化。
在一个示例中,仍以游泳池溺水检测场景为例,在当前时刻t’,图像采集设备可以采集到当前时刻的图像,基于当前时刻的图像以及前一帧图像进行检测分析,可以得到目标对象手臂等肢体关键点的第二位移变化信息和第二速度变化信息。第二位移变化信息和第二速度变化信息表示目标对象当前真实的运动信息。
结合图7和图8实施方式,可以分别得到:目标对象在第二时段的预测行为信息,也即第一行为信息,其包括第一位移变化信息和第一速度变化信息;目标对象在当前时刻的真实行为信息,也即第二行为信息,其包括第二位移变化信息和第二速度变化信息。
可以理解,如图6所示,假设目标对象在第一时段t0~t1处于正常行为状态,根据第一时段的数据预测得到的第二时段t1~t2的第一行为信息也应当接近正常行为状态。在对第二时段的实时检测中,若在根据当前时刻的数据得到的第二行为信息与第一行为信息较为接近,表示目标对象的当前行为为正常行为状态。若根据当前时刻的数据得到的第二行为信息与第一行为信息差异较大,表示目标对象的当前行为处于异常状态,也即出现目标行为。
具体来说,在一些实施方式中,确定目标对象的当前行为是否为目标行为的过程包括:
响应于第一行为信息的第一位移变化信息与第二行为信息的第二位移变化信息的差异不小于预设位移阈值,和/或,第一行为信息的第一速度变化信息与第二行为信息的第二速度变化信息的差异不小于预设速度阈值,确定目标对象出现目标行为。
在一个示例中,仍以前述的游泳池溺水检测场景为例,第一位移变化信息表示目标对象在第二时段的手臂关键点位移变化的预测信息,第二位移变化信息表示目标对象在当前时刻的手臂关键点位移变化的真实信息,从而第一位移变化信息和第二位移变化信息的差异即可表示真实信息与预测信息之间的差异。同理,第一速度变化信息表示目标对象在第二时段的手臂关键点速度变化的预测信息,第二速度变化信息表示目标对象在当前时刻的手臂关键点速度变化的真实信息,从而第一速度变化信息和第二速度变化信息的差异即可表示真实信息与预测信息之间的差异。
在本示例中,可基于先验知识或者利用深度学习模型预先确定预设位移阈值和预设速度阈值。预设位移阈值表示用户处于目标行为的门限值,当第一位移变化信息与第二位移变化信息的差异小于该预设位移阈值,表示用户当前处于正常行为,反之则可能出现目标行为。同样,预设速度阈值表示用户处于目标行为的门限值,当第一速度变化信息与第二速度变化信息的差异小于该预设速度阈值,表示用户当前处于正常行为,反之则可能出现目标行为。本领域技术人员对此可以理解,本公开不再赘述。
在一些实施方式中,当第一位移变化信息与第二位移变化信息的差异不小于预设位移阈值,并且第一速度变化信息与第二速度变化信息的差异不小于预设速度阈值时,可确定目标对象的当前行为是目标行为。
在一个示例中,以游泳池溺水检测场景为例。预测得到的第一行为信息中,第一位移变化信息为s1,第一速度变化信息为a1。当前时刻的第二行为信息中,第二位移变化信息为s2,第二速度变化信息为a2。预先设置的预设位移阈值为x、预设速度阈值为y。若|s1-s2|≥x且|a1-a2|≥y,则确定目标对象的当前行为是目标行为。反之则相反。
可以理解,在本公开其他实施方式中,上述对于位移变化信息和速度变化信息的判断方式,可以只采用其中任意之一,也可以两者相结合判断。本领域技术人员可以根据具体的场景需要进行选择,本公开对此不作限制。
通过上述可知,本公开实施方式的检测方法,基于目标对象的位移变化和速度变化结合判断目标对象的当前行为,降低误判风险,提高检测准确性。
在一个示例性的场景中,结合图6所示,以游泳池溺水检测场景为例,假设目标对象A在第一时段处于正常游泳状态,而在t’时刻由于抽筋导致出现溺水行为。
现有技术的检测系统,只有在目标对象A处于溺水状态一段时间之后,在t2时刻才可以获取到t1~t2时间段的视频流数据,通过视觉检测识别,确定目标对象A处于溺水状态,进而提示报警。可以看到,现有技术的检测系统和方法具有一定的滞后性。
然而在本公开实施方式中,检测系统可以实时获取到t’时刻的视频帧数据,基于根据第一时段数据预测得到的第一行为信息和t’时刻的第二行为信息,实时检测到t’时刻的第二行为信息与预测的第一行为信息差异较大,目标对象A当前处于溺水状态。
可以看到,本公开实施方式的检测方法,可以有效将溺水检测的时间提前,做到实时检测,进而降低滞后检测带来的风险,尤其利用溺水等较为紧急的危险行为的检测识别。
在一些实施方式中,在确定目标对象的当前行为是目标行为之后,可生成相应的报警信息,以提示工作人员注意。
结合图1所示检测系统,图像采集设备100可以设于前端场景中,而显示装置300可以设于后台,报警信息可以为显示装置300上输出的可视化的预警结果,从而提醒后台工作人员注意。基于此框架,下面具体进行说明。
如图9所示,在一些实施方式中,本公开示例的目标行为检测方法包括:
S910、将目标对象确定为待预警对象。
S920、响应于目标对象处于目标行为的时长大于预设时长阈值,生成警报信息。
具体来说,在确定目标对象出现目标行为时,表示目标对象当前处于异常行为状态,同时将该目标对象确定为待预警对象。
在一些实施方式中,对于警情较为紧急的场景中,例如溺水检测等场景,在将目标对象确定为待预警对象之后,可以直接生成警报信息以提醒工作人员注意。
在另一些实施方式中,对于警情相对缓慢的场景中,例如违规行为检测等场景,在将目标对象确定为待预警对象之后,可以将该目标对象移动至预警序列,并且持续检测目标对象的当前行为。若目标对象持续处于目标行为的时长大于预设时长阈值,则生成警报信息以提醒工作人员注意。若目标对象在预设时长阈值内,由目标行为变化为非目标行为,表示目标对象的异常行为消失,则可以将目标对象移出预警序列。
如图10所示,在一些实施方式中,本公开实施方式的目标行为检测方法可包括:
S1010、基于目标对象的当前行为,确定目标对象的预警等级。
S1020、基于目标对象的位置信息和预警等级,在显示装置上输出预警结果。
在本实施方式中,可根据目标对象的当前行为设置不同的预警等级,并且将不同的预警等级在显示装置300上可视化输出。
在一个示例中,以游泳池溺水检测场景为例,如图9示例中所述,在目标对象确定为待预警对象之后,可根据目标对象处于目标行为的时长设置不同的预警等级,例如表一中所示:
表一
时长 预警等级
0秒~2秒 一级
2秒~5秒 二级
5秒以上 三级
同时,可基于前述的深度神经网络提取得到目标对象的手臂关键点的位置信息。在一个示例中,可通过对视频流数据进行特征提取,得到目标对象手臂关键点的三维坐标w1(x,y,z),将三维坐标w1转换为二维坐标w2(x,y),然后对w2通过坐标转换得到视频帧坐标系的位置信息z(x,y)。
对于显示装置的可视化结果输出,可以根据目标对象的位置信息,在显示装置上输出目标对象的检测框,并且随着目标对象的位置变化,检测框位置实时进行更新。
在本公开实施方式,可基于目标对象的预警等级,在显示装置上输出不同颜色的检测框,例如表二所示:
表二
预警等级 检测框颜色
一级 黄色
二级 橙色
三级 红色
从而,在图1系统的显示装置300上,工作人员可以实时看到当前场景下各个目标对象的预警结果。
在一个示例中,检测系统也可以设置声光报警器,从而对工作人员进行声光报警提醒。本领域技术人员对此可以理解并实施,本公开不再赘述。
在一些实施方式中,检测系统还设置有数据库,数据库可用来保存当前场景下的历史数据。从而对于每个目标对象,可基于历史数据对目标对象进行身份识别,确定该目标对象是否发生过目标行为,从而可以辅助预警提醒。
如图11所示,在一些实施方式中,本公开示例的目标行为检测方法包括:
S1110、对第一视频流数据进行特征提取,得到目标对象的对象特征。
S1120、基于对象特征与历史数据的比对结果,确定目标对象的预警等级。
以游泳池溺水检测场景为例,检测系统的数据库中存储有各个目标对象在游泳池进行游泳的历史数据。
对于某个目标对象,通过前述的方式对第一视频流数据进行特征提取,得到该目标对象的对象特征,例如该目标对象的脸部特征。基于该对象特征与数据库中的历史数据进行检索比对,确定该目标对象是否在历史时间中出现过溺水行为。若是,则表明该目标对象再次出现溺水的风险相对较高,反之则相反。
结合图10实施方式,若目标对象在历史时间中出现过溺水行为,可确定目标对象的预警等级较高,例如采用绿色的检测框在显示装置300上输出预警结果。
在对目标对象的溺水行为检测时,可采用上述的检测方法的步骤实现,本公开不再赘述。同时,在目标对象确定溺水之后,可以将该目标对象的全部数据保存至数据库中,以备后续使用。本公开对此不再赘述。
通过上述可知,本公开实施方式的检测方法,利用第一时段的数据预测第二时段的第一行为信息,利用预测的第一行为信息对当前真实行为进行实时检测,从而将行为检测时间提前,降低检测滞后带来的风险。同时,利用深度神经网络结合视频流数据的静态帧信息和帧间动态光流信息对目标对象的行为进行检测识别,提高目标行为的检测准确性。另外,利用显示装置对不同预警等级的目标对象进行可视化的预警结果输出,便于对多目标对象的行为预警管理,提高预警效果。
第二方面,本公开实施方式提供了一种目标行为检测装置,该装置可应用于例如图1所示的检测系统。
如图12所示,在一些实施方式中,本公开示例的目标行为检测装置,包括:
获取模块101,被配置为获取第一时段的第一视频流数据;其中,所述第一视频流数据中包括至少一个目标对象;
预测模块102,被配置为对所述第一视频流数据进行检测,预测得到第二时段所述目标对象的第一行为信息;在时序上,所述第二时段与所述第一时段相邻且位于所述第一时段之后,或者,所述第二时段的前段与所述第一时段的后段存在重叠,所述第一行为信息为所述目标对象的预测行为信息;
检测模块103,被配置为根据实时获取的当前视频帧数据,检测得到所述目标对象的第二行为信息;
确定模块104,被配置为响应于所述第一行为信息和所述第二行为信息的差异满足预设条件,确定所述目标对象出现目标行为。
通过上述可知,本公开实施方式的检测装置,利用第一时段的数据预测第二时段的第一行为信息,利用预测的第一行为信息对当前真实行为进行实时检测,从而将行为检测时间提前,降低检测滞后带来的风险。
在一些实施方式中,所述预测模块102具体被配置为:
对所述第一视频流数据进行特征提取,得到所述目标对象的对象特征和光流特征;
基于所述对象特征和所述光流特征,得到所述目标对象的行为特征信息;
根据行为特征信息,得到所述第一行为信息。
在一些实施方式中,所述目标对象的行为信息包括位移变化信息和速度变化信息;所述确定模块104具体被配置为:
响应于所述第一行为信息的第一位移变化信息与所述第二行为信息的第二位移变化信息的差异不小于预设位移阈值,和/或,所述第一行为信息的第一速度变化信息与所述第二行为信息的第二速度变化信息的差异不小于预设速度阈值,确定目标对象出现所述目标行为。
在一些实施方式中,所述预测模块102具体被配置为:
对所述第一视频流数据进行特征提取,得到所述目标对象的对象特征和光流特征;
基于所述对象特征,确定所述第一视频流数据包括的每帧图像中所述目标对象的位置信息,基于相邻帧图像之间的位置信息变化,确定所述第一位移变化信息;
基于所述光流特征,确定所述每帧图像中所述目标对象的速度信息,基于相邻帧图像之间的速度信息变化,确定所述第一速度变化信息。
在一些实施方式中,所述检测模块103具体被配置为:
对所述当前视频帧数据进行特征提取,得到所述目标对象的对象特征和光流特征;
基于所述对象特征,获取所述当前视频帧数据与前一视频帧数据之间所述目标对象的位置信息变化,根据所述位置信息变化确定所述第二位移变化信息;
基于所述光流特征,获取所述当前视频帧数据与前一视频帧数据之间所述目标对象的速度信息变化,根据所述速度信息变化确定所述第二速度变化信息。
如图13所示,在一些实施方式中,本公开示例的目标行为检测装置还包括:
警报信息生成模块105,被配置为响应于所述目标对象处于目标行为的时长大于预设时长阈值,生成警报信息。
如图13所示,在一些实施方式中,本公开示例的目标行为检测装置还包括:
预警等级确定模块106,被配置为基于所述目标对象的当前行为,确定所述目标对象的预警等级;
显示输出模块107,被配置为基于所述目标对象的位置信息和预警等级,在显示装置上输出预警结果。
如图13所示,在一些实施方式中,本公开示例的目标行为检测装置还包括:
特征提取模块108,被配置为对所述第一视频流数据进行特征提取,得到所述目标对象的对象特征;
预警等级确定模块106,被配置为基于所述对象特征与历史数据的比对结果,确定所述目标对象的预警等级。
通过上述可知,本公开实施方式的检测装置,利用第一时段的数据预测第二时段的第一行为信息,利用预测的第一行为信息对当前真实行为进行实时检测,从而将行为检测时间提前,降低检测滞后带来的风险。同时,利用深度神经网络结合视频流数据的静态帧信息和帧间动态光流信息对目标对象的行为进行检测识别,提高目标行为的检测准确性。另外,利用显示装置对不同预警等级的目标对象进行可视化的预警结果输出,便于对多目标对象的行为预警管理,提高预警效果。
第三方面,本公开实施方式提供了一种电子设备,包括:
处理器;和
存储器,存储有计算机指令,所述计算机指令用于使处理器执行根据第一方面任一实施方式所述的方法。
第四方面,本公开实施方式提供了一种存储介质,存储有计算机指令,所述计算机指令用于使计算机执行第一方面任一实施方式所述的方法。
具体而言,图14示出了适于用来实现本公开方法的计算机系统的结构示意图,通过图14所示系统,可实现上述处理器及存储介质相应功能。
如图14所示,计算机系统600包括处理器601,其可以根据存储在存储器602中的程序或者从存储部分608加载到存储器602中的程序而执行各种适当的动作和处理。在存储器602中,还存储有系统600操作所需的各种程序和数据。处理器601和存储器602通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本公开的实施方式,上文方法过程可以被实现为计算机软件程序。例如,本公开的实施方式包括一种计算机程序产品,其包括有形地包含在机器可读介质上的计算机程序,计算机程序包含用于执行上述方法的程序代码。在这样的实施方式中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。
附图中的流程图和框图,图示了按照本公开各种实施方式的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
显然,上述实施方式仅仅是为清楚地说明所作的举例,而并非对实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。而由此所引伸出的显而易见的变化或变动仍处于本公开创造的保护范围之中。

Claims (12)

1.一种目标行为检测方法,其特征在于,包括:
获取第一时段的第一视频流数据;其中,所述第一视频流数据中包括至少一个目标对象;
对所述第一视频流数据进行检测,预测得到第二时段所述目标对象的第一行为信息;在时序上,所述第二时段与所述第一时段相邻且位于所述第一时段之后,或者,所述第二时段的前段与所述第一时段的后段存在重叠,所述第一行为信息为所述目标对象的预测行为信息;
根据实时获取的当前视频帧数据,检测得到所述目标对象的第二行为信息;
响应于所述第一行为信息和所述第二行为信息的差异满足预设条件,确定所述目标对象出现目标行为。
2.根据权利要求1所述的方法,其特征在于,所述对所述第一视频流数据进行检测,预测得到第二时段所述目标对象的第一行为信息,包括:
对所述第一视频流数据进行特征提取,得到所述目标对象的对象特征和光流特征;
基于所述对象特征和所述光流特征,得到所述目标对象的行为特征信息;
根据行为特征信息,得到所述第一行为信息。
3.根据权利要求1或2所述的方法,其特征在于,所述目标对象的行为信息包括位移变化信息和速度变化信息;
所述响应于所述第一行为信息和所述第二行为信息的差异满足预设条件,确定所述目标对象出现目标行为,包括:
响应于所述第一行为信息的第一位移变化信息与所述第二行为信息的第二位移变化信息的差异不小于预设位移阈值,和/或,所述第一行为信息的第一速度变化信息与所述第二行为信息的第二速度变化信息的差异不小于预设速度阈值,确定目标对象出现所述目标行为。
4.根据权利要求3所述的方法,其特征在于,所述对所述第一视频流数据进行检测,预测得到第二时段所述目标对象的第一行为信息,包括:
对所述第一视频流数据进行特征提取,得到所述目标对象的对象特征和光流特征;
基于所述对象特征,确定所述第一视频流数据包括的每帧图像中所述目标对象的位置信息,基于相邻帧图像之间的位置信息变化,确定所述第一位移变化信息;
基于所述光流特征,确定所述每帧图像中所述目标对象的速度信息,基于相邻帧图像之间的速度信息变化,确定所述第一速度变化信息。
5.根据权利要求3所述的方法,其特征在于,所述根据实时获取的当前视频帧数据,检测得到所述目标对象的第二行为信息,包括:
对所述当前视频帧数据进行特征提取,得到所述目标对象的对象特征和光流特征;
基于所述对象特征,获取所述当前视频帧数据与前一视频帧数据之间所述目标对象的位置信息变化,根据所述位置信息变化确定所述第二位移变化信息;
基于所述光流特征,获取所述当前视频帧数据与前一视频帧数据之间所述目标对象的速度信息变化,根据所述速度信息变化确定所述第二速度变化信息。
6.根据权利要求1至5任一项所述的方法,其特征在于,在确定所述目标对象出现目标行为之后,所述方法还包括:
响应于所述目标对象处于目标行为的时长大于预设时长阈值,生成警报信息。
7.根据权利要求1至6任一项所述的方法,其特征在于,还包括:
基于所述目标对象的当前行为,确定所述目标对象的预警等级;
基于所述目标对象的位置信息和预警等级,在显示装置上输出预警结果。
8.根据权利要求1至7任一项所述的方法,其特征在于,还包括:
对所述第一视频流数据进行特征提取,得到所述目标对象的对象特征;
基于所述对象特征与历史数据的比对结果,确定所述目标对象的预警等级。
9.根据权利要求1至8任一项所述的方法,其特征在于,
所述目标行为包括溺水,所述第一视频流数据和所述当前视频帧数据为针对预设水域的采集数据,所述目标对象的行为信息包括目标对象的肢体关键点的位移变化信息和/或速度变化信息。
10.一种目标行为检测装置,其特征在于,包括:
获取模块,被配置为获取第一时段的第一视频流数据;其中,所述第一视频流数据中包括至少一个目标对象;
预测模块,被配置为对所述第一视频流数据进行检测,预测得到第二时段所述目标对象的第一行为信息;在时序上,所述第二时段与所述第一时段相邻且位于所述第一时段之后,或者,所述第二时段的前段与所述第一时段的后段存在重叠,所述第一行为信息为所述目标对象的预测行为信息;
检测模块,被配置为根据实时获取的当前视频帧数据,检测得到所述目标对象的第二行为信息;
确定模块,被配置为响应于所述第一行为信息和所述第二行为信息的差异满足预设条件,确定所述目标对象出现目标行为。
11.一种电子设备,其特征在于,包括:
处理器;和
存储器,存储有计算机指令,所述计算机指令用于使处理器执行根据权利要求1至9任一项所述的方法。
12.一种存储介质,其特征在于,存储有计算机指令,所述计算机指令用于使计算机执行根据权利要求1至9任一项所述的方法。
CN202110604913.4A 2021-05-31 2021-05-31 目标行为检测方法、装置、设备及存储介质 Active CN113361364B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110604913.4A CN113361364B (zh) 2021-05-31 2021-05-31 目标行为检测方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110604913.4A CN113361364B (zh) 2021-05-31 2021-05-31 目标行为检测方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN113361364A CN113361364A (zh) 2021-09-07
CN113361364B true CN113361364B (zh) 2022-11-01

Family

ID=77530643

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110604913.4A Active CN113361364B (zh) 2021-05-31 2021-05-31 目标行为检测方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN113361364B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114724177B (zh) * 2022-03-08 2023-04-07 三峡大学 结合Alphapose和YOLOv5s模型的人体溺水检测方法
CN114818989B (zh) * 2022-06-21 2022-11-08 中山大学深圳研究院 基于步态的行为识别方法、装置、终端设备及存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102542301A (zh) * 2011-12-28 2012-07-04 浙江大学 基于视频的早期溺水行为动作检测方法
CN103413114A (zh) * 2013-05-17 2013-11-27 浙江大学 一种基于支持向量机的溺水行为检测方法
CN106022230A (zh) * 2016-05-11 2016-10-12 太原理工大学 一种基于视频的游泳池溺水事件检测方法
CN108229282A (zh) * 2017-05-05 2018-06-29 商汤集团有限公司 关键点检测方法、装置、存储介质及电子设备
CN108846852A (zh) * 2018-04-11 2018-11-20 杭州电子科技大学 基于多示例和时间序列的监控视频异常事件检测方法
AU2020102906A4 (en) * 2020-10-20 2020-12-17 Zhan, Jinyu MISS A drowning detection method based on deep learning
CN112165600A (zh) * 2020-08-26 2021-01-01 苏宁云计算有限公司 一种溺水的识别方法、装置、摄像头及计算机系统
CN112738014A (zh) * 2020-10-28 2021-04-30 北京工业大学 一种基于卷积时序网络的工控流量异常检测方法及系统
CN112836676A (zh) * 2021-03-01 2021-05-25 创新奇智(北京)科技有限公司 一种异常行为检测方法、装置、电子设备及存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7002910B2 (ja) * 2017-10-20 2022-01-20 株式会社Soken 物体検知装置
CN108725440B (zh) * 2018-04-20 2020-11-27 深圳市商汤科技有限公司 前向碰撞控制方法和装置、电子设备、程序和介质
CN109684920B (zh) * 2018-11-19 2020-12-11 腾讯科技(深圳)有限公司 物体关键点的定位方法、图像处理方法、装置及存储介质

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102542301A (zh) * 2011-12-28 2012-07-04 浙江大学 基于视频的早期溺水行为动作检测方法
CN103413114A (zh) * 2013-05-17 2013-11-27 浙江大学 一种基于支持向量机的溺水行为检测方法
CN106022230A (zh) * 2016-05-11 2016-10-12 太原理工大学 一种基于视频的游泳池溺水事件检测方法
CN108229282A (zh) * 2017-05-05 2018-06-29 商汤集团有限公司 关键点检测方法、装置、存储介质及电子设备
CN108846852A (zh) * 2018-04-11 2018-11-20 杭州电子科技大学 基于多示例和时间序列的监控视频异常事件检测方法
CN112165600A (zh) * 2020-08-26 2021-01-01 苏宁云计算有限公司 一种溺水的识别方法、装置、摄像头及计算机系统
AU2020102906A4 (en) * 2020-10-20 2020-12-17 Zhan, Jinyu MISS A drowning detection method based on deep learning
CN112738014A (zh) * 2020-10-28 2021-04-30 北京工业大学 一种基于卷积时序网络的工控流量异常检测方法及系统
CN112836676A (zh) * 2021-03-01 2021-05-25 创新奇智(北京)科技有限公司 一种异常行为检测方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN113361364A (zh) 2021-09-07

Similar Documents

Publication Publication Date Title
US11228715B2 (en) Video surveillance system and video surveillance method
US10366586B1 (en) Video analysis-based threat detection methods and systems
JP6525545B2 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
CN113361364B (zh) 目标行为检测方法、装置、设备及存储介质
KR101937272B1 (ko) 복수 개의 촬영영상으로부터 이벤트를 검출하는 장치 및 방법
WO2014125882A1 (ja) 情報処理システム、情報処理方法及びプログラム
US20160078287A1 (en) Method and system of temporal segmentation for gesture analysis
US11776274B2 (en) Information processing apparatus, control method, and program
KR20200058260A (ko) 객체 이미지 인식 dcnn 기반 cctv 영상분석장치 및 그 장치의 구동방법
CN104966304A (zh) 基于卡尔曼滤波与非参数背景模型的多目标检测跟踪方法
US11120838B2 (en) Information processing apparatus, control method, and program
JP2004282535A (ja) 画角調整装置
KR101454644B1 (ko) 보행자 추적기를 이용한 서성거림을 탐지하는 방법
US20220189210A1 (en) Occlusion-Aware Prediction of Human Behavior
US20220189038A1 (en) Object tracking apparatus, control method, and program
CN108961287B (zh) 智能货架触发方法、智能货架系统、存储介质及电子设备
Miller et al. Intelligent Sensor Information System For Public Transport–To Safely Go…
Gong et al. Online codebook modeling based background subtraction with a moving camera
Ichihara et al. Accuracy evaluations of video anomaly detection using human pose estimation
JP5472976B2 (ja) 対象物検出装置、対象物検出方法、プログラムおよび記録媒体
JP2001175959A (ja) 侵入物体検出方法及び侵入物体検出装置
KR101970129B1 (ko) 이벤트 룰 설정방법 및 이를 이용한 이벤트 감시장치
CN115909173B (zh) 物体跟踪方法、跟踪模型训练方法、装置、设备和介质
Law et al. Smart Prison-Video Analysis for Human Action Detection
JP2019029747A (ja) 画像監視システム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant