CN111178323B - 基于视频的群体行为识别方法、装置、设备及存储介质 - Google Patents
基于视频的群体行为识别方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN111178323B CN111178323B CN202010025777.9A CN202010025777A CN111178323B CN 111178323 B CN111178323 B CN 111178323B CN 202010025777 A CN202010025777 A CN 202010025777A CN 111178323 B CN111178323 B CN 111178323B
- Authority
- CN
- China
- Prior art keywords
- human body
- video
- same
- key point
- identified
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/26—Government or public services
- G06Q50/265—Personal security, identity or safety
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
Abstract
本申请公开了基于视频的群体行为识别方法、装置、设备及存储介质,涉及人体识别技术领域。具体实现方案为:获取待识别视频,获取待识别视频中每一个视频帧中的每一个人体对象的人体框;根据每一个视频帧中的同一个人体对象的人体关键点,确定待识别视频的第一特征信息,第一特征信息用于指示每一个人体对象的特征;并根据每一个视频帧中的每一个人体对象的人体关键点,确定待识别视频的第二特征信息,第二特征信息用于指示不同的人体对象所构成的特征;根据第一特征信息和第二特征信息得到待识别视频的群体行为类别。识别出视频的群体行为类别;便于确定出视频的群体行为类别是否为危险、不安全、不正常的全体行为。
Description
技术领域
本申请涉及图像处理技术领域中的人体识别技术,尤其涉及一种基于视频的群体行为识别方法、装置、设备及存储介质。
背景技术
随着视频和图像技术的发展,可以对视频中的人体对象进行检测,进而确定出人体对象的行为类型,从而确定是否正在进行不安全的行为。
现有技术中,可以采用基于图像的方法,对图像中的人体对象进行识别,进而确定出人体对象的行为类型。
然而现有技术中,只能针对单人的行为进行识别,无法针对群体的行为进行识别;从而无法及时的识别出不安全的群体行为。
发明内容
本申请提供一种基于视频的群体行为识别方法、装置、设备及存储介质,可以
第一方面,本申请实施例提供一种基于视频的群体行为识别方法,包括:
获取待识别视频,其中,所述待识别视频中包括多个视频帧,并获取每一个所述视频帧中的每一个人体对象的人体框,其中,每一个所述人体框中包括多个人体关键点,每一个所述人体框的各人体关键点用于表征人体对象的动作;
根据每一个视频帧中的同一个人体对象的人体关键点,确定所述待识别视频的第一特征信息,其中,所述第一特征信息用于指示每一个人体对象的特征;并根据每一个视频帧中的每一个人体对象的人体关键点,确定所述待识别视频的第二特征信息,其中,所述第二特征信息用于指示不同的人体对象所构成的特征;
对所述第一特征信息和所述第二特征信息进行处理,得到所述待识别视频的群体行为类别。
本实施例中,在对待识别视频进行特征提取的时候,可以得到第一特征信息和第二特征信息,第一特征信息表征了待识别视频中的每一个人体对象的单人特征,第二特征信息表征了待识别视频中的各个人体对象之间的特征、各个人体对象之间的关系;从而,可以依据第一特征信息和第二特征信息,得到待识别视频的群体行为类别。从而,可以识别出视频的群体行为类别;进而,便于确定出视频的群体行为类别是否为危险、不安全、不正常的全体行为,加强了公共场所的安全,保证了群众的人身安全和财产安全。
在一种可能的设计中,根据每一个视频帧中的同一个人体对象的人体关键点,确定所述待识别视频的第一特征信息,包括:
将同一个视频帧中的同一个人体对象的各人体关键点进行连接,得到同一个视频帧中的同一个人体对象的第一关键点连接信息;
将各视频帧中的同一个人体对象的相同性质的人体关键点进行连接,得到同一个人体对象的第二关键点连接信息;
将每一个视频帧中的同一个人体对象的第一关键点连接信息和每一个人体对象的第二关键点连接信息进行整合,得到所述待识别视频的第一特征信息,其中,所述第一特征信息包括人体关键点的关键点特征、所述第一关键点连接信息、以及所述第二关键点连接信息。
从而,可以获取到视频帧中的人体对象的单人特征,并且可以基于时间维度上得到同一个人体对象的人体关键点的特征,即得到基于时间维度上得到同一个人体对象的人体关键点的位置和变化;有利于分析出人体对象随着时间的改变,其动作的变化;进而有利于确定出人体类别和群体行为类别。
在一种可能的设计中,所述将每一个视频帧中的同一个人体对象的第一关键点连接信息和每一个人体对象的第二关键点连接信息进行整合,得到所述待识别视频的第一特征信息,包括:
根据每一个人体对象的第一关键点连接信息和每一个人体对象的第二关键点连接信息,得到每一个人体对象的特征图,其中,每一个人体对象的特征图中包括人体对象的人体关键点的关键点特征、各个第一边、各个第二边,所述各个第一边为同一个视频帧中的同一个人体对象的各人体关键点进行连接所得到边,所述各个第二边为各视频帧中的同一个人体对象的相同性质的人体关键点进行连接所得到边;
将每一个人体对象的特征图输入至预设的卷积网络模型中,得到每一个人体对象在预设维度上的特征;
将各个人体对象在预设维度上的特征,输入至所述卷积网络模型中,得到所述待识别视频的第一特征信息。
从而,可以得到每一个人体对象的特征图,每一个人体对象的特征图直接描述出了视频帧中的人体对象的单人特征、以及基于时间维度上的同一个人体对象的人体关键点的特征;有利于确定出人体类别和群体行为类别。
在一种可能的设计中,根据每一个视频帧中的每一个人体对象的人体关键点,确定所述待识别视频的第二特征信息,包括:
将同一个视频帧中的同一个人体对象的各人体关键点进行连接,得到同一个视频帧中的同一个人体对象的第一关键点连接信息;
将各视频帧中的同一个人体对象的相同性质的人体关键点进行连接,得到同一个人体对象的第二关键点连接信息;
将同一个视频帧中的每一个人体对象的相同性质的人体关键点进行连接,得到同一个视频帧的第三关键点连接信息;
将每一个视频帧中的同一个人体对象的第一关键点连接信息、每一个人体对象的第二关键点连接信息、以及每一个视频帧的第三关键点连接信息进行整合,得到所述待识别视频的第二特征信息,其中,所述第二特征信息中包括人体关键点的关键点特征、所述第一关键点连接信息、所述第二关键点连接信息、以及所述第三关键点连接信息。
从而,可以获取到视频帧中的人体对象的单人特征,并且可以基于时间维度上得到同一个人体对象的人体关键点的特征,即得到基于时间维度上得到同一个人体对象的人体关键点的位置和变化;并且,得到同一个视频帧中的各个人体对象之间的关系;进而得到多人特征,即,得到群体特征,从而可以识别出视频的群体行为类别。
在一种可能的设计中,所述将每一个视频帧中的同一个人体对象的第一关键点连接信息、每一个人体对象的第二关键点连接信息、以及每一个视频帧的第三关键点连接信息进行整合,得到所述待识别视频的第二特征信息,包括:
根据每一个视频帧中的同一个人体对象的第一关键点连接信息、每一个人体对象的第二关键点连接信息、以及每一个视频帧的第三关键点连接信息,得到所述待识别视频的特征图,其中,所述待识别视频的特征图中包括人体对象的人体关键点的关键点特征、各个第一边、各个第二边、各个第三边,所述各个第一边为同一个视频帧中的同一个人体对象的各人体关键点进行连接所得到边,所述各个第二边为各视频帧中的同一个人体对象的相同性质的人体关键点进行连接所得到边,所述各个第三边为同一个视频帧中的每一个人体对象的相同性质的人体关键点进行连接所得到边;
将所述待识别视频的特征图输入至预设的卷积网络模型中,得到所述待识别视频的第二特征信息。
从而,可以得到待识别视频的特征图,待识别视频的特征图可以指出多人特征;进而可以根据多人特征进行群体行为的识别。
在一种可能的设计中,在所述根据每一个视频帧中的每一个人体对象的人体关键点,确定所述待识别视频的第二特征信息之前,还包括:
将每一个人体对象的人体关键点的个数进行删减,得到删减后的每一个人体对象的人体关键点。
从而,通过删减了每一个人体对象的人体关键点的个数,降低计算量,加快了识别的速度。
在一种可能的设计中,在所述根据每一个视频帧中的同一个人体对象的人体关键点,确定所述待识别视频的第一特征信息之前,还包括:
获取相邻两个视频帧中前一个视频帧的同一个人体关键点、与后一个视频帧的每一个人体关键点之间的偏移量;
确定相邻两个视频帧中前一个视频帧的同一个人体关键点、后一个视频帧中偏移量最小的人体关键点,两者属于同一人体对象。
从而可以识别出不同视频帧中的相同人体对象,便于确定出后续的人体关键连接关系。
在一种可能的设计中,所述获取待识别视频,包括:
获取待处理视频,并对所述待处理视频进行抽帧处理,得到所述多个视频帧,以得到所述待识别视频。
对待处理视频进行抽帧处理,可以减少视频中的帧数,减少计算量、加快识别出视频的群体行为的速度。
在一种可能的设计中,所述获取每一个所述视频帧中的每一个人体对象的人体框,包括:
将所述待识别视频输入至单阶段多尺度目标检测网络模型中,得到每一个所述视频帧中的各人体框;
将每一个所述视频帧中的各人体框,输入至预设识别模型中,得到每一个所述人体框中的各人体关键点。
从而有效的识别出人体框和人体关键点。
在一种可能的设计中,对所述第一特征信息和所述第二特征信息进行处理,得到所述待识别视频的群体行为类别,包括:
将所述第一特征信息和所述第二特征信息进行拼接处理,得到拼接后的特征信息;
将所述拼接后的特征信息输入至预设的分类模型中,得到所述待识别视频属于每一个预设群体行为类别的概率值;
确定概率值最大的预设群体行为类别,为所述待识别视频的群体行为类别。
可以得到待识别视频属于每一个预设群体行为类别的概率,可以基于这些数据对分类模型进行优化;进而便于后续的识别,增加后续的群体行为识别的精度。
在一种可能的设计中,在对所述第一特征信息和所述第二特征信息进行处理,得到所述待识别视频的群体行为类别之后,还包括:
在确定所述待识别视频的群体行为类别为预设类别时,发出警示信息,其中,所述警示信息包括以下的一种或多种:语音信息、文字信息、灯光信息、框选信息;
和/或,
在确定所述待识别视频的群体行为类别为预设类别时,对所述待识别视频进行预设处理,其中,所述预设处理包括以下一种或多种:重复播放处理、删除处理、遮挡处理。
从而,可以预设一些危险、有益、警示的行为类别,可以输出警示信息等,进而便于工作人员和其他用户躲避危险行为、或者观看警示行为。
第二方面,本申请实施例提供一种基于视频的群体行为识别装置,包括:
第一获取单元,用于获取待识别视频,其中,所述待识别视频中包括多个视频帧;
第二获取单元,用于获取每一个所述视频帧中的每一个人体对象的人体框,其中,每一个所述人体框中包括多个人体关键点,每一个所述人体框的各人体关键点用于表征人体对象的动作;
第一确定单元,用于根据每一个视频帧中的同一个人体对象的人体关键点,确定所述待识别视频的第一特征信息,其中,所述第一特征信息用于指示每一个人体对象的特征;
第二确定单元,用于根据每一个视频帧中的每一个人体对象的人体关键点,确定所述待识别视频的第二特征信息,其中,所述第二特征信息用于指示不同的人体对象所构成的特征;
识别单元,用于对所述第一特征信息和所述第二特征信息进行处理,得到所述待识别视频的群体行为类别。
本实施例中,在对待识别视频进行特征提取的时候,可以得到第一特征信息和第二特征信息,第一特征信息表征了待识别视频中的每一个人体对象的单人特征,第二特征信息表征了待识别视频中的各个人体对象之间的特征、各个人体对象之间的关系;从而,可以依据第一特征信息和第二特征信息,得到待识别视频的群体行为类别。从而,可以识别出视频的群体行为类别;进而,便于确定出视频的群体行为类别是否为危险、不安全、不正常的全体行为,加强了公共场所的安全,保证了群众的人身安全和财产安全。
在一种可能的设计中,所述第一确定单元,包括:
第一连接模块,用于将同一个视频帧中的同一个人体对象的各人体关键点进行连接,得到同一个视频帧中的同一个人体对象的第一关键点连接信息;
第二连接模块,用于将各视频帧中的同一个人体对象的相同性质的人体关键点进行连接,得到同一个人体对象的第二关键点连接信息;
第一处理模块,用于将每一个视频帧中的同一个人体对象的第一关键点连接信息和每一个人体对象的第二关键点连接信息进行整合,得到所述待识别视频的第一特征信息,其中,所述第一特征信息包括人体关键点的关键点特征、所述第一关键点连接信息、以及所述第二关键点连接信息。
从而,可以获取到视频帧中的人体对象的单人特征,并且可以基于时间维度上得到同一个人体对象的人体关键点的特征,即得到基于时间维度上得到同一个人体对象的人体关键点的位置和变化;有利于分析出人体对象随着时间的改变,其动作的变化;进而有利于确定出人体类别和群体行为类别。
在一种可能的设计中,所述第一处理模块,具体用于:
根据每一个人体对象的第一关键点连接信息和每一个人体对象的第二关键点连接信息,得到每一个人体对象的特征图,其中,每一个人体对象的特征图中包括人体对象的人体关键点的关键点特征、各个第一边、各个第二边,所述各个第一边为同一个视频帧中的同一个人体对象的各人体关键点进行连接所得到边,所述各个第二边为各视频帧中的同一个人体对象的相同性质的人体关键点进行连接所得到边;
将每一个人体对象的特征图输入至预设的卷积网络模型中,得到每一个人体对象在预设维度上的特征;
将各个人体对象在预设维度上的特征,输入至所述卷积网络模型中,得到所述待识别视频的第一特征信息。
从而,可以得到每一个人体对象的特征图,每一个人体对象的特征图直接描述出了视频帧中的人体对象的单人特征、以及基于时间维度上的同一个人体对象的人体关键点的特征;有利于确定出人体类别和群体行为类别。
在一种可能的设计中,所述第二确定单元,包括:
第三连接模块,用于将同一个视频帧中的同一个人体对象的各人体关键点进行连接,得到同一个视频帧中的同一个人体对象的第一关键点连接信息;
第四连接模块,用于将各视频帧中的同一个人体对象的相同性质的人体关键点进行连接,得到同一个人体对象的第二关键点连接信息;
第五连接模块,用于将同一个视频帧中的每一个人体对象的相同性质的人体关键点进行连接,得到同一个视频帧的第三关键点连接信息;
第二处理模块,用于将每一个视频帧中的同一个人体对象的第一关键点连接信息、每一个人体对象的第二关键点连接信息、以及每一个视频帧的第三关键点连接信息进行整合,得到所述待识别视频的第二特征信息,其中,所述第二特征信息中包括人体关键点的关键点特征、所述第一关键点连接信息、所述第二关键点连接信息、以及所述第三关键点连接信息。
从而,可以获取到视频帧中的人体对象的单人特征,并且可以基于时间维度上得到同一个人体对象的人体关键点的特征,即得到基于时间维度上得到同一个人体对象的人体关键点的位置和变化;并且,得到同一个视频帧中的各个人体对象之间的关系;进而得到多人特征,即,得到群体特征,从而可以识别出视频的群体行为类别。
在一种可能的设计中,所述第二处理模块,具体用于:
根据每一个视频帧中的同一个人体对象的第一关键点连接信息、每一个人体对象的第二关键点连接信息、以及每一个视频帧的第三关键点连接信息,得到所述待识别视频的特征图,其中,所述待识别视频的特征图中包括人体对象的人体关键点的关键点特征、各个第一边、各个第二边、各个第三边,所述各个第一边为同一个视频帧中的同一个人体对象的各人体关键点进行连接所得到边,所述各个第二边为各视频帧中的同一个人体对象的相同性质的人体关键点进行连接所得到边,所述各个第三边为同一个视频帧中的每一个人体对象的相同性质的人体关键点进行连接所得到边;
将所述待识别视频的特征图输入至预设的卷积网络模型中,得到所述待识别视频的第二特征信息。
从而,可以得到待识别视频的特征图,待识别视频的特征图可以指出多人特征;进而可以根据多人特征进行群体行为的识别。
在一种可能的设计中,所述装置,还包括:
删减单元,用于在所述第二确定单元根据每一个视频帧中的每一个人体对象的人体关键点,确定所述待识别视频的第二特征信息之前,将每一个人体对象的人体关键点的个数进行删减,得到删减后的每一个人体对象的人体关键点。
从而,通过删减每一个人体对象的人体关键点的个数,降低计算量,加快了识别的速度。
在一种可能的设计中,所述装置,还包括:
第三确定单元,用于在所述第一确定单元根据每一个视频帧中的同一个人体对象的人体关键点,确定所述待识别视频的第一特征信息之前,获取相邻两个视频帧中前一个视频帧的同一个人体关键点、与后一个视频帧的每一个人体关键点之间的偏移量;确定相邻两个视频帧中前一个视频帧的同一个人体关键点、后一个视频帧中偏移量最小的人体关键点,两者属于同一人体对象。
从而可以识别出不同视频帧中的相同人体对象,便于确定出后续的人体关键连接关系。
在一种可能的设计中,所述第一获取单元,具体用于:
获取待处理视频,并对所述待处理视频进行抽帧处理,得到所述多个视频帧,以得到所述待识别视频。
对待处理视频进行抽帧处理,可以减少视频中的帧数,减少计算量、加快识别出视频的群体行为的速度。
对待处理视频进行抽帧处理,可以减少视频中的帧数,减少计算量、加快识别出视频的群体行为的速度。
所述第二获取单元,具体用于:
将所述待识别视频输入至单阶段多尺度目标检测网络模型中,得到每一个所述视频帧中的各人体框;
将每一个所述视频帧中的各人体框,输入至预设识别模型中,得到每一个所述人体框中的各人体关键点。
从而有效的识别出人体框和人体关键点。
在一种可能的设计中,所述识别单元,包括:
拼接模块,用于将所述第一特征信息和所述第二特征信息进行拼接处理,得到拼接后的特征信息;
识别模块,用于将所述拼接后的特征信息输入至预设的分类模型中,得到所述待识别视频属于每一个预设群体行为类别的概率值;
确定模块,用于确定概率值最大的预设群体行为类别,为所述待识别视频的群体行为类别。
可以得到待识别视频属于每一个预设群体行为类别的概率,可以基于这些数据对分类模型进行优化;进而便于后续的识别,增加后续的群体行为识别的精度。
在一种可能的设计中,所述装置,还包括:
警示单元,用于在所述识别单元对所述第一特征信息和所述第二特征信息进行处理,得到所述待识别视频的群体行为类别之后,在确定所述待识别视频的群体行为类别为预设类别时,发出警示信息,其中,所述警示信息包括以下的一种或多种:语音信息、文字信息、灯光信息、框选信息;
和/或,
处理单元,用于在所述识别单元对所述第一特征信息和所述第二特征信息进行处理,得到所述待识别视频的群体行为类别之后,在确定所述待识别视频的群体行为类别为预设类别时,对所述待识别视频进行预设处理,其中,所述预设处理包括以下一种或多种:重复播放处理、删除处理、遮挡处理。
从而,可以预设一些危险、有益、警示的行为类别,可以输出警示信息等,进而便于工作人员和其他用户躲避危险行为、或者观看警示行为。
第三方面,本申请提供一种基于视频的群体行为识别方法,包括:
获取待识别视频,其中,所述待识别视频中包括多个视频帧,每一个所述视频帧中包括多个人体对象;
获取所述待识别视频中的每一个人体对象的单人特征、各人体对象之间的多人特征;
根据每一个人体对象的单人特征、以及各人体对象之间的多人特征,确定所述待识别视频的群体行为类别。
本实施例中,通过在对待识别视频进行特征提取的时候,可以得到每一个人体对象的单人特征、各个人体对象之间的特征、各个人体对象之间的关系;从而,可以依据上述特征确定出待识别视频的群体行为类别。从而,可以识别出视频的群体行为类别;进而,便于确定出视频的群体行为类别是否为危险、不安全、不正常的全体行为,加强了公共场所的安全,保证了群众的人身安全和财产安全。
第四方面,本申请提供一种电子设备,包括:处理器和存储器;存储器中存储有所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行如第一方面中任一项所述的基于视频的群体行为识别方法,或者执行如第三方面所述的基于视频的群体行为识别方法。
第五方面,本申请提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现第一方面中任一项所述的基于视频的群体行为识别方法,或者执行如第三方面所述的基于视频的群体行为识别方法。
第六方面,本申请实施例提供一种程序产品,所述程序产品包括:计算机程序,所述计算机程序存储在可读存储介质中,服务器的至少一个处理器可以从所述可读存储介质读取所述计算机程序,所述至少一个处理器执行所述计算机程序使得服务器执行第一方面中任一所述的基于视频的群体行为识别方法,或者执行如第三方面所述的基于视频的群体行为识别方法。
上述申请中的一个实施例具有如下优点或有益效果:通过在对待识别视频进行特征提取的时候,可以得到每一个人体对象的单人特征、各个人体对象之间的特征、各个人体对象之间的关系;从而,可以依据上述特征确定出待识别视频的群体行为类别。从而,可以识别出视频的群体行为类别;进而,便于确定出视频的群体行为类别是否为危险、不安全、不正常的全体行为,加强了公共场所的安全,保证了群众的人身安全和财产安全。
上述可选方式所具有的其他效果将在下文中结合具体实施例加以说明。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是可以实现本申请实施例的应用场景图;
图2是根据本申请第一实施例的示意图;
图3是可以实现申请实施例的人体框的示意图;
图4是根据本申请第二实施例的示意图;
图5是可以实现申请实施例的人体关键点的示意图一;
图6是可以实现申请实施例的人体关键点的示意图二;
图7是可以实现申请实施例的人体关键点的示意图三;
图8是可以实现申请实施例的人体关键点的示意图四;
图9是可以实现申请实施例的人体关键点的示意图五;
图10是可以实现申请实施例的人群的示意图;
图11是根据本申请第三实施例的示意图;
图12是根据本申请第四实施例的示意图;
图13是根据本申请第五实施例的示意图;
图14是根据本申请第六实施例的示意图;
图15是根据本申请第七实施例的示意图;
图16是用来实现本申请实施例的基于视频的群体行为识别方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
随着视频和图像技术的发展,可以对视频中的人体对象进行检测,进而确定出人体对象的行为类型,从而确定是否正在进行不安全的行为。
一个示例中,可以采用基于图像的方法,对图像中的人体对象进行识别,进而确定出人体对象的行为类型。
一个示例中,可以采用基于场景的图像识别方法,结合场景的特征,对人体的行为进行识别,可以识别出异常行为识别。例如,爆炸、车祸、火灾、聚众斗殴等需要结合场景进行识别。
一个示例中,可以获取视频中的单人行为,然后识别出单人行为的类别;进而识别出单人行为的异常行为识别,比如摔倒、抽烟、砸东西、翻墙。例如,根据人体对象的骨骼点,进而根据骨骼点的坐标,识别出人体对象的动作;然后,确定出人体对象在当前帧的行为类型。再例如,可以获取人体对象的关键点,然后使用图卷积模型识别出单人的异常行为。
可知,上述各方式中,只能针对单人的行为进行识别,无法针对群体的行为进行识别;即,无法识别至少两人以上的交互的异常行为,从而无法及时的识别出不安全的群体行为,例如,对于打架斗殴、争吵、拥挤、聚众赌博、游行示威、人流逆行等不安全的群体行为,现有的方法不能进行识别。但是群体行为,是人体行为中的重要行为类型;并且,群体异常行为又是发生频率高最高的种类;对于群体行为的检测和识别,在安防、监护等领域具有非常重要的应用价值。
本申请提供一种基于视频的群体行为识别方法、装置、设备及存储介质,以解决上述问题。
图1是可以实现本申请实施例的应用场景图,如图1所示,采用本申请实施例提供的方案,可以对视频中的多个人体进行识别,并且识别出视频的群体行为类别。
图2是根据本申请第一实施例的示意图,如图2所示,该方法,包括:
S101、获取待识别视频,其中,待识别视频中包括多个视频帧。
示例性地,本实施例以执行主体可以是控制设备、或者终端设备、或者远程服务器、或者其他可以执行本实施例方法的装置或设备。本实施例以执行主体为控制设备进行说明。
在识别人体行为的环境中布置摄像机,摄像机可以是高清摄像机;摄像机与控制设备连接,摄像机可以采集视频,控制设备可以获取摄像机采集的视频,然后,控制设备对视频进行分析,即,控制设备采用本实施例提供的方法对视频进行分析,以得到视频的行为类型。
控制设备获取摄像机采集的待识别视频,其中,待识别视频由多帧视频帧所构成。
S102、获取每一个视频帧中的每一个人体对象的人体框,其中,每一个人体框中包括多个人体关键点,每一个人体框的各人体关键点用于表征人体对象的动作。
一个示例中,步骤S102具体包括以下步骤:将待识别视频输入至单阶段多尺度目标检测网络模型中,得到每一个视频帧中的各人体框;将每一个视频帧中的各人体框,输入至预设识别模型中,得到每一个人体框中的各人体关键点。
示例性地,控制设备可以将待识别视频输入到预设的网络模型中,得到待识别视频的每一个视频帧中的人体框。每一个视频帧中具有一个或多个人体框,个别的视频帧中可以没有人体框。
在人体框中,可以将视频帧中的人体标记出来,并且,为了便于后续的识别,网络模型会将每一个人体框中的人体关键点标记出来;例如,采用open pose算法可以得到每一个人体框中的各个人体关键点。
并且,每一个人体关键点具有关键点特征。例如,人体关键点为鼻子,该人体关键点具有鼻子在视频帧中的坐标信息,即,关键点特征为鼻子在视频帧中的坐标信息。
一个示例中,控制设备可以将待识别视频输入到单阶段多尺度目标检测(SingleShot MultiBox Detector,简称SSD)网络模型中;SSD网络模型已经经过了标记出人体框的图像的训练,进而SSD网络模型可以对视频中的视频帧的人体对象进行识别,进而标记出视频帧中人体对象,即,为人体对象标记人体框。其中,SSD网络模型具有多层结构;并且,可以使用开源工具飞桨PaddlePaddle对SSD网络模型进行训练。
SSD网络模型在输出每一个视频帧的人体对象的人体框的时候,会为每一个人体框赋予一个置信度,即,这里的置信度,是SSD网络模型为人体框赋予的置信度;置信度的取值大于预设阈值,例如,大于0.4。
从而,图3是可以实现申请实施例的人体框的示意图,如图3所示,控制设备可以得到每一个视频帧中的每一个人体对象的人体框。可知,为每一个人体对象标记一个人体框。每一个人体框具有四个角点。
然后,控制设备在得到每一个视频帧中的人体对象的人体框之后,需要确定出每一个人体框中的人体对象的人体关键点。
控制设备将每一个视频帧中的各人体框,输入至预设识别模型中。识别模型可以是神经网络模型;识别模型已经采用了标记出人体关键点的图像和视频进行了训练。从而,识别模型可以识别出每一个人体框中的人体对象的人体关键点;预设识别模型中可以采用open pose算法,进而得到人体框中的人体对象的18个人体关键点。对于每一个人体框来说,人体框中的人体对象的各个人体关键点具有位置信息,进而各个人体关键点可以表征出该人体对象的动作。
并且,识别模型可以输出每一个人体关键点的关键点置信度,关键点置信度表征了人体关键点确定为真实人体关键点的概率。
S103、根据每一个视频帧中的同一个人体对象的人体关键点,确定待识别视频的第一特征信息,其中,第一特征信息用于指示每一个人体对象的特征;并根据每一个视频帧中的每一个人体对象的人体关键点,确定待识别视频的第二特征信息,其中,第二特征信息用于指示不同的人体对象所构成的特征。
示例性地,为了便于描述单人的人体对象的特征,控制设备可以依据每一个视频帧中的同一个人体对象的人体关键点进行特征分析和特征融合,得到可以指示出每一个人体对象的特征的第一特征信息;可知,第一特征信息可以指示出视频中的单人的特征。
一个示例中,由于一个人体框可以标记出一个人体对象,针对于一帧视频帧来说,一个人体框中的各个人体关键点是属于同一个人体对象的;并且,人体对象具有多个人体关键点,人体关键点具有关键点特征,关键点特征包括了人体关键点的坐标和关键点置信度,关键点置信度可以是识别模型在识别人体关键点的时候所输出的;从而,针对每一个视频帧来说,控制设备可以确定出属于同一个人体对象的人体关键点,然后,控制设备可以将同一个人体对象的人体关键点进行连接,或者将同一个人体对象的人体关键点的关键点信息进行特征融合,进而得到同一个人体对象的特征信息;进而根据以上方式,控制设备可以得到每一个视频帧中的每一个人体对象的特征信息;每一个视频帧中的每一个人体对象的特征信息,构成了待识别视频的第一特征信息,可知,第一特征信息指示出了单人的特征。
并且,为了便于描述多个人体对象的特征、以及多个人体对象之间的关系,控制设备可以依据每一个视频帧中的每一个人体对象的人体关键点进行特征分析和特征融合,得到可以指示出不同的人体对象的特征的第二特征信息;可知,第二特征信息可以指示出视频中的多人的特征、以及多人之间的关系。
一个示例中,由于一个人体框可以标记出一个人体对象,针对于一帧视频帧来说,一个人体框中的各个人体关键点是属于同一个人体对象的;并且,人体对象具有多个人体关键点,人体关键点具有关键点特征,关键点特征包括了人体关键点的坐标和关键点置信度;从而,针对每一个视频帧来说,视频帧中具有多个人体框,每一个人体框表征为一个人体对象,每一个人体框具有多个人体特征点。控制设备可以根据同一个视频帧中的多个人体框的特征进行特征融合,例如对人体框进行特征融合、对人体关键点进行特征融合,进而得到每一个视频帧中的多个人体对象之间的特征信息;每一个视频帧中的多个人体对象之间的特征信息,构成了待识别视频的第二特征信息,可知,第二特征信息指示出了多人的特征。控制设备还可以将不同帧的各个人体框的特征进行特征融合,例如对各个人体框的人体关键点进行整体的特征融合,进而基于时间维度上,得到多个人体对象之间的特征信息、多个人体对象之间的关系;多个人体对象之间的特征信息、多个人体对象之间的关系,也作为了待识别视频的第二特征信息。
S104、对第一特征信息和第二特征信息进行处理,得到待识别视频的群体行为类别。
示例性地,控制设备可以基于第一特征信息和第二特征信息,对待识别视频进行识别;由于第一特征信息表征了待识别视频中的每一个人体对象的单人特征,第二特征信息表征了待识别视频中的各个人体对象之间的特征、各个人体对象之间的关系,从而,控制设备可以依据第一特征信息和第二特征信息,得到待识别视频的群体行为类别。
一个示例中,控制设备,可以将待识别视频的第一特征信息和第二特征信息,输入到识别模型中,得到待识别视频的群体行为类别;识别模型,可以是神经网络模型中的一种。
一个示例中,群体行为类别,例如是,人流正向行走、人流跑动、打架斗殴、争吵、拥挤、聚众赌博、游行示威、人流逆行等等。
本实施例,通过获取待识别视频,待识别视频中包括多个视频帧,并获取每一个视频帧中的每一个人体对象的人体框,每一个人体框中包括多个人体关键点,每一个人体框的各人体关键点用于表征人体对象的动作;根据每一个视频帧中的同一个人体对象的人体关键点,确定待识别视频的第一特征信息,第一特征信息用于指示每一个人体对象的特征;并根据每一个视频帧中的每一个人体对象的人体关键点,确定待识别视频的第二特征信息,其中,第二特征信息用于指示不同的人体对象所构成的特征;对第一特征信息和第二特征信息进行处理,得到待识别视频的群体行为类别。在对待识别视频进行特征提取的时候,可以得到第一特征信息和第二特征信息,第一特征信息表征了待识别视频中的每一个人体对象的单人特征,第二特征信息表征了待识别视频中的各个人体对象之间的特征、各个人体对象之间的关系;从而,可以依据第一特征信息和第二特征信息,得到待识别视频的群体行为类别。从而,可以识别出视频的群体行为类别;进而,便于确定出视频的群体行为类别是否为危险、不安全、不正常的全体行为,加强了公共场所的安全,保证了群众的人身安全和财产安全。
图4是根据本申请第二实施例的示意图,如图4所示,该方法,包括:
S201、获取待处理视频,并对待处理视频进行抽帧处理,得到多个视频帧,以得到待识别视频。
示例性地,本实施例以执行主体可以是控制设备、或者终端设备、或者远程服务器、或者其他可以执行本实施例方法的装置或设备。本实施例以执行主体为控制设备进行说明。
在识别人体行为的环境中布置摄像机,摄像机可以是高清摄像机;摄像机与控制设备连接,摄像机可以采集视频,控制设备可以获取摄像机采集的视频,然后,控制设备对视频进行分析,即,控制设备采用本实施例提供的方法对视频进行分析,以得到视频的行为类型。
控制设备获取摄像机采集的视频,此时的视频中包括了多帧图像,且视频是未经过处理的视频。为了减少计算量、加快控制设备识别出视频的人体行为的速度,可以对摄像机采集的视频进行采样,减少视频中的帧数;控制设备可以对摄像机采集的视频进行抽帧处理,进而从视频中抽取出多个视频帧,将多个视频帧构成待识别视频。
一个示例中,控制设备对摄像机所及的视频中的图像进行均匀采样,得到多个视频帧。一个示例中,控制设备可以采用使用开源工具FFMPEG,对视频进行抽帧处理。
S202、获取每一个视频帧中的每一个人体对象的人体框,其中,每一个人体框中包括多个人体关键点,每一个人体框的各人体关键点用于表征人体对象的动作。
示例性地,本步骤可以参见图2的步骤S102,不在赘述。
一个示例中,在步骤S204之前,可以执行步骤S203。
S203、获取相邻两个视频帧中前一个视频帧的同一个人体关键点、与后一个视频帧的每一个人体关键点之间的偏移量;确定相邻两个视频帧中前一个视频帧的同一个人体关键点、后一个视频帧中偏移量最小的人体关键点,两者属于同一人体对象。
示例性地,由于需要对连续的多个视频帧进行分析,需要对多个视频帧中的相同人体对象进行分析,从而需要确定出各个视频帧中哪些人体对象是同一个人体对象。
控制设备已经获取到了每一个视频帧中的每一个人体对象的人体框,并且,每一个人体框中包括多个人体关键点,人体关键点具有关键点特征,关键点特征包括了人体关键点在视频帧中的坐标、人体关键点的关键点置信度;针对每两个相邻视频帧,控制设备依据人体关键点的关键点特征,针对相邻两个视频帧中前一个视频帧的同一个人体关键点,计算出该人体关键点与后一个视频帧中的每一个人体关键点之间的偏移量;然后,同样是针对每两个相邻视频帧,针对相邻两个视频帧中前一个视频帧的同一个人体关键点,将前一个视频帧的该一个人体关键点、后一个视频帧中偏移量最小的人体关键点,确定是属于同一个人体对象的。针对每两个相邻视频帧,都采用上述方法,就可以得到相邻两个视频帧中哪些人体关键点属于同一个人体对象,
举例来说,相邻两个视频帧分别为视频帧A和视频帧B,控制设备已经获取到视频帧A中的人体框A、人体框B,人体框A代表了人体对象1,人体框B代表了人体对象2;人体框A中的人体对象1在视频帧A中包括多个人体关键点,分别为人体关键点a1、人体关键点b1、人体关键点c1;人体框B中的人体对象2在视频帧A中包括多个人体关键点,分别为人体关键点a2、人体关键点b2、人体关键点c2。并且,控制设备已经获取到视频帧A中的人体框C、人体框D,人体框C在视频帧B中包括多个人体关键点,分别为人体关键点a3、人体关键点b3、人体关键点c3;人体框D在视频帧B中包括多个人体关键点,分别为人体关键点a4、人体关键点b4、人体关键点c4。针对于视频帧A中的人体框A的人体关键点a1,控制设备根据关键点特征,计算人体关键点a1与视频帧B中的各个人体关键点之间的偏移量,即,分别计算人体关键点a1与视频帧B中的人体关键点a3、人体关键点b3、人体关键点c3、人体关键点a4、人体关键点b4、人体关键点c4之间的偏移量;控制设备可以确定人体关键点a1与人体关键点b3之间的偏移量最小,则确定人体关键点b3也属于人体对象1。以此类推,针对视频帧A与视频帧B的人体关键点,可以确定出视频帧A与视频帧B中的同一个人体对象。
S204、将同一个视频帧中的同一个人体对象的各人体关键点进行连接,得到同一个视频帧中的同一个人体对象的第一关键点连接信息。
示例性地,控制设备可以根据归属于同一个视频帧中的同一个人体对象的各人体关键点,确定出第一特征集合。一个示例中,控制设备将归属于同一个视频帧中的同一个人体对象的各人体关键点进行连接,进而得到归属于同一个视频帧中的同一个人体对象的第一关键点连接信息。即,每一个视频帧中的每一个人体对象,具有自己的第一关键点连接信息。第一关键点连接信息表征出了同一个视频帧中的同一个人体对象的人体关键点之间的位置关系、人体关键点本身的位置。
举例来说,针对视频帧A,视频帧A具有人体框A、人体框B,人体框A代表了人体对象1,人体框B代表了人体对象2;人体框A中的人体对象1在视频帧A中包括M个人体关键点;人体框B中的人体对象2在视频帧A中包括M个人体关键点。将视频帧A中的人体框A中的M个人体关键点,进行连接,得到M-1条边,并且人体框A的各个人体关键点具有关键点特征,关键点特征包括了人体关键点在视频帧A中的坐标、关键点置信度;将视频帧A中的人体框B中的M个人体关键点,进行两两连接,得到M-1条边,并且人体框B的各个人体关键点具有关键点特征,关键点特征包括了人体关键点在视频帧A中的坐标、关键点置信度。图5是可以实现申请实施例的人体关键点的示意图一,如图5所示,针对图5所示的人体框,人体框具有18个人体关键点,将18个人体关键点进行连接,得到17条边。
S205、将各视频帧中的同一个人体对象的相同性质的人体关键点进行连接,得到同一个人体对象的第二关键点连接信息。
示例性地,控制设备已经得到了每两个相邻的视频帧中哪些人体关键点,属于同一个人体对象;从而,控制设备可以确定出各个视频帧中的相同的人体对象。例如,连续的视频帧A、视频帧B、视频帧C、视频帧D,控制设备可以确定人体对象1存在于视频帧A、视频帧B和视频帧C中,可以确定人体对象2存在于视频帧B、视频帧C和视频帧D中。
并且,由于人体对象具有M个人体关键点,人体关键点具有属性性质和关键点特征,例如,属性性质为鼻子、左眼、右眼、左耳朵、右耳朵、左肩膀、右肩膀、左肘部、右肘部等等。
从而,控制设备可以将各视频帧中的同一个人体对象的相同性质的人体关键点,进行连接,进而同一个人体对象的第二关键点连接信息,即得到每一个人体对象的第二关键点连接信息。第二关键点连接信息表征出了各视频帧中的同一个人体对象的相同性质的人体关键点之间的位置关系、人体关键点本身的位置。
举例来说,图6是可以实现申请实施例的人体关键点的示意图二,如图6所示,人体对象1存在于视频帧A、视频帧B和视频帧C;可以将视频帧A中的人体对象1的人体关键点“脖子”、视频帧B中的人体对象1的人体关键点“脖子”、视频帧C中的人体对象1的人体关键点“脖子”进行连接;可以将视频帧A中的人体对象1的人体关键点“右脚”、视频帧B中的人体对象1的人体关键点“右脚”、视频帧C中的人体对象1的人体关键点“右脚”进行连接。
一个示例中,可以只将各视频帧中的同一个人体对象的一种人体关键点,进行连接。例如,只将各视频帧中的同一个人体对象的人体关键点“脖子”进行连接。然后在后续的模型的处理过程中,可以自动的将各视频帧中的同一个人体对象的各个相同性质的人体关键点,分别进行连接。
S206、将每一个视频帧中的同一个人体对象的第一关键点连接信息和每一个人体对象的第二关键点连接信息进行整合,得到待识别视频的第一特征信息,其中,第一特征信息包括人体关键点的关键点特征、第一关键点连接信息、以及第二关键点连接信息。
一个示例中,步骤S206具体包括以下步骤:
根据每一个人体对象的第一关键点连接信息和每一个人体对象的第二关键点连接信息,得到每一个人体对象的特征图,其中,每一个人体对象的特征图中包括人体对象的人体关键点的关键点特征、各个第一边、各个第二边,各个第一边为同一个视频帧中的同一个人体对象的各人体关键点进行连接所得到边,各个第二边为各视频帧中的同一个人体对象的相同性质的人体关键点进行连接所得到边。
将每一个人体对象的特征图输入至预设的卷积网络模型中,得到每一个人体对象在预设维度上的特征。
将各个人体对象在预设维度上的特征,输入至卷积网络模型中,得到待识别视频的第一特征信息。
示例性地,控制设备将步骤S204所得到的每一个视频帧中的同一个人体对象的第一关键点连接信息、步骤S205所得到的每一个人体对象的第二关键点连接信息,进行整合,得到可以指示出每一个人体对象的特征的第一特征信息。
可知,第一特征信息包括人体关键点的关键点特征、第一关键点连接信息、以及第二关键点连接信息。
一个示例中,在每一个视频帧中,针对于同一个人体对象,将同一个人体对象的M个人体关键点进行连接,得到M-1个第一边,可知,第一边为同一个视频帧中的同一个人体对象的各人体关键点进行连接所得到边;并且,对于同一个人体对象,在连续的N个视频帧中,针对同一个人体关键点进行连接,得到多个第二边,可知,第二边为各视频帧中的同一个人体对象的相同性质的人体关键点进行连接所得到边。进而,得到(N-1)*M+N*(M-1)条边。基于以上各个第一边和第二边、以及人体关键点的关键点特征,可以得到每一个人体对象的特征图。
然后,控制设备将每一个人体对象的特征图,输入至预设的卷积网络模型中,得到每一个人体对象的固定维度特征,即,得到每一个人体对象在预设维度上的特征。然后,控制设备依据该卷积网络模型对各个人体对象的固定维度特征进行整合,进而将各人体对象的固定维度特征,整合为一个固定维度的独立特征,即,待识别视频的单人特征。将待识别视频的单人特征,就是上述第一特征信息。
其中,卷积网络模型可以采用现有的卷积网络模型;卷积网络模型已经采用了标记出群体行为和人体关键点的视频进行了训练。
一个示例中,在步骤S208之前,可以执行步骤S207。
S207、将每一个人体对象的人体关键点的个数进行删减,得到删减后的每一个人体对象的人体关键点。
示例性地,为了获取不同的人体对象之间的关系,即获取到人与人之间的联系,需要建一个包含不同人人体对象的特征图。但是,如果将全部的人体关键点都放入该特征图中,特征图中节点数量会非常大,进而不利于后续的网络模型的识别和训练等过程,会使得群体行为的识别较慢。
可以减少每一个人体对象的人体关键点的个数,进而减少计算率。例如,每一个人体对象具有M=18个人体关键点,可以降低为6个重要的人体关键点,分别为脖子、鼻子、左手、右手、左脚、右脚。
S208、将同一个视频帧中的同一个人体对象的各人体关键点进行连接,得到同一个视频帧中的同一个人体对象的第一关键点连接信息。
示例性地,需要得到多个人体对象的特征、以及多个人体对象之间的关系,为了降低计算量,已经将删减了每一个人体对象的人体关键点的个数。
然后,控制设备将将归属于同一个视频帧中的同一个人体对象的各人体关键点进行连接,进而得到归属于同一个视频帧中的同一个人体对象的第一关键点连接信息。即,每一个视频帧中的每一个人体对象,具有自己的第一关键点连接信息。第一关键点连接信息表征出了同一个视频帧中的同一个人体对象的人体关键点之间的位置关系、人体关键点本身的位置。
只是本步骤与步骤S204的不同之处在于,步骤S204可以对删减个数之前的人体关键点进行连接,本步骤对删减个数之后的人体关键点进行连接。
举例来说,图7是可以实现申请实施例的人体关键点的示意图三,如图7所示,针对图7所示的人体框,人体框具有6个人体关键点,分别为脖子、鼻子、左手、右手、左脚、右脚;将6个人体关键点进行连接,得到5条边。
S209、将各视频帧中的同一个人体对象的相同性质的人体关键点进行连接,得到同一个人体对象的第二关键点连接信息。
示例性地,控制设备已经得到了每两个相邻的视频帧中哪些人体关键点,属于同一个人体对象;从而,控制设备可以确定出各个视频帧中的相同的人体对象。并且,由于人体对象具有M个人体关键点,人体关键点具有属性性质和关键点特征。
从而,控制设备可以将各视频帧中的同一个人体对象的相同性质的人体关键点,进行连接,进而同一个人体对象的第二关键点连接信息,即得到每一个人体对象的第二关键点连接信息。第二关键点连接信息表征出了各视频帧中的同一个人体对象的相同性质的人体关键点之间的位置关系、人体关键点本身的位置。
只是本步骤与步骤S205的不同之处在于,步骤S205可以对删减个数之前的人体关键点进行连接,本步骤对删减个数之后的人体关键点进行连接。
举例来说,图8是可以实现申请实施例的人体关键点的示意图四,如图8所示,人体对象1存在于视频帧A、视频帧B和视频帧C;可以将视频帧A中的人体对象1的人体关键点“脖子”、视频帧B中的人体对象1的人体关键点“脖子”、视频帧C中的人体对象1的人体关键点“脖子”进行连接。
S210、将同一个视频帧中的每一个人体对象的相同性质的人体关键点进行连接,得到同一个视频帧的第三关键点连接信息。
示例性地,为了更好的得到群体中的各个人体对象之间的行为同性、行为特征和位置关系,控制设备可以将同一个视频帧中的各个人体对象的相同性质的人体关键点进行连接,进而得到同一个视频帧的第三关键点连接信息。第二关键点连接信息表征出了同一个视频帧中各个人体对象的相同性质的人体关键点之间的位置关系,进而表征出了同一个视频帧中群体的位置关系和特征。
举例来说,图9是可以实现申请实施例的人体关键点的示意图五,如图9所示,图9示出了一个视频帧,视频帧中包括人体对象1、人体对象2、人体对象3,每一个人体对象被标注了人体框;将人体对象1的人体关键点“脖子”、将人体对象2的人体关键点“脖子”、将人体对象3的人体关键点“脖子”进行连接;将人体对象1的人体关键点“右手”、将人体对象2的人体关键点“右手”、将人体对象3的人体关键点“右手”进行连接;以此类推。
S211、将每一个视频帧中的同一个人体对象的第一关键点连接信息、每一个人体对象的第二关键点连接信息、以及每一个视频帧的第三关键点连接信息进行整合,得到待识别视频的第二特征信息,其中,第二特征信息中包括人体关键点的关键点特征、第一关键点连接信息、第二关键点连接信息、以及第三关键点连接信息。
一个示例中,步骤S211具体包括以下步骤:
根据每一个视频帧中的同一个人体对象的第一关键点连接信息、每一个人体对象的第二关键点连接信息、以及每一个视频帧的第三关键点连接信息,得到待识别视频的特征图,其中,待识别视频的特征图中包括人体对象的人体关键点的关键点特征、各个第一边、各个第二边、各个第三边,各个第一边为同一个视频帧中的同一个人体对象的各人体关键点进行连接所得到边,各个第二边为各视频帧中的同一个人体对象的相同性质的人体关键点进行连接所得到边,各个第三边为同一个视频帧中的每一个人体对象的相同性质的人体关键点进行连接所得到边。
将待识别视频的特征图输入至预设的卷积网络模型中,得到待识别视频的第二特征信息。
示例性地,控制设备将步骤S208所得到的每一个视频帧中的同一个人体对象的第一关键点连接信息、步骤S209所得到的每一个人体对象的第二关键点连接信息、步骤S210所得到的每一个视频帧的第三关键点连接信息,进行整合,得到可以指示出群体特征的第二特征信息。
一个示例中,通过步骤S208-S210,在每一个视频帧中,针对于同一个人体对象,将同一个人体对象的P个人体关键点进行连接,得到P-1个第一边,可知,第一边为同一个视频帧中的同一个人体对象的各人体关键点进行连接所得到边。并且,对于同一个人体对象,在连续的N个视频帧中,针对同一个人体关键点进行连接,得到多个第二边,可知,第二边为各视频帧中的同一个人体对象的相同性质的人体关键点进行连接所得到边。并且,将归属于同一个视频帧中的各个人体对象的相同性质的人体关键点进行连接,得到第三边,可知,第三边为同一个视频帧中的每一个人体对象的相同性质的人体关键点进行连接所得到边。基于以上各个第一边、第二边和第三步、以及人体关键点的关键点特征,可以得到每一个人体对象的特征图。
然后,控制设备将待识别视频的特征图,输入至预设的卷积网络模型中,得到一个固定维度的特征,即,得到待识别视频的多人特征;待识别视频的多人特征,就是上述第二特征信息。
S212、对第一特征信息和第二特征信息进行处理,得到待识别视频的群体行为类别。
一个示例中,步骤S212具体包括以下步骤:
将第一特征信息和第二特征信息进行拼接处理,得到拼接后的特征信息;将拼接后的特征信息输入至预设的分类模型中,得到待识别视频属于每一个预设群体行为类别的概率值;确定概率值最大的预设群体行为类别,为待识别视频的群体行为类别。
示例性地,控制设备将待识别视频的单人特征与待识别视频的多人特征进行拼接,由于单人特征是一个向量,多人特征也是一个向量,从而,在将待识别视频的单人特征与待识别视频的多人特征进行拼接的时候,是进行的向量拼接;进而得到拼接后的特征信息。
控制设备再将拼接后的特征信息,输入到分类网络模型中,就可以得到待识别视频属于各个群体行为类别的概率值;控制设备将将概率值最大的群体行为类别,作为待识别视频的群体行为类别。
举例来说,图10是可以实现申请实施例的人群的示意图,如图10所示,采用本实施例的方法,可以对图10所示的视频的人群进行特征分析和识别,得到群体行为类别为“广场舞”类型。
并且,本申请所涉及的卷积网络模型、分类模型、识别模型等等,是采用了标记出异常群体行为的视频、非异常群体行为的视频进行了训练的。上述模型可以是深度神经网络。
本实施例,在上述实施例的基础上,可以得到每一个人体对象的特征图,每一个人体对象的特征图指示出了同一个视频帧中的同一个人体对象的各人体关键点之间的位置关系、各视频帧中的同一个人体对象的相同性质的人体关键点之间的位置关系;还可以得到待识别视频的特征图,待识别视频的特征图指示出了同一个视频帧中的同一个人体对象的各人体关键点之间的位置关系、各视频帧中的同一个人体对象的相同性质的人体关键点之间的位置关系、以及同一个视频帧中的各人体对象的相同性质的人体关键点之间的位置关系;进而得到单人特征和多人特征;基于单人特征和多人特征对视频的群体行为进行识别;可以准确的识别出视频的群体行为类别;进而,便于确定出视频的群体行为类别是否为危险、不安全、不正常的全体行为,加强了公共场所的安全,保证了群众的人身安全和财产安全。
图11是根据本申请第三实施例的示意图,如图11所示,该方法,包括:
S301、获取待识别视频,其中,待识别视频中包括多个视频帧。
示例性地,本实施例以执行主体可以是控制设备、或者终端设备、或者远程服务器、或者其他可以执行本实施例方法的装置或设备。本实施例以执行主体为控制设备进行说明。控制设备与摄像机连接。
本步骤可以参见图2所示的步骤S101,不再赘述。
S302、获取每一个视频帧中的每一个人体对象的人体框,其中,每一个人体框中包括多个人体关键点,每一个人体框的各人体关键点用于表征人体对象的动作。
示例性地,本步骤可以参见图2所示的步骤S102,不再赘述。
S303、根据每一个视频帧中的同一个人体对象的人体关键点,确定待识别视频的第一特征信息,其中,第一特征信息用于指示每一个人体对象的特征;并根据每一个视频帧中的每一个人体对象的人体关键点,确定待识别视频的第二特征信息,其中,第二特征信息用于指示不同的人体对象所构成的特征。
示例性地,本步骤可以参见图2所示的步骤S103,不再赘述。
S304、对第一特征信息和第二特征信息进行处理,得到待识别视频的群体行为类别。
示例性地,本步骤可以参见图2所示的步骤S104,不再赘述。
在步骤S304之后,还可以执行步骤S305和/或步骤S306。
S305、在确定待识别视频的群体行为类别为预设类别时,发出警示信息,其中,警示信息包括以下的一种或多种:语音信息、文字信息、灯光信息、框选信息。
示例性地,针对每一个待识别视频,可以实时的对待识别视频进行上述步骤的处理过程,进而得到待识别视频的群体行为类别;控制设备可以预先设定一些危险的行为类别,例如,静坐类型、持刀类型、偷摸类型、抢砸类型、群殴类型、斗殴类型、等等,然后,控制设备在确定待识别视频的群体行为类别为这些预设类别的时候,控制设备可以发出警示信息。
例如,控制设备直接发出语音和/或文字,进而通知工作人员对危险的人体行为进行处理,对其他人员进行保护。例如,控制设备可以发出灯光,进而通知所有人员对危险的人体行为进行躲避。例如,控制设备可以显示待识别视频,进而在待识别视频上框选出具有危险行为类别的用户,进而使得工作人员对该用户进行处理,或者便于后续对待识别视频和待识别视频的具有危险行为的动作,进行分析。
S306、在确定待识别视频的群体行为类别为预设类别时,对待识别视频进行预设处理,其中,预设处理包括以下一种或多种:重复播放处理、删除处理、遮挡处理。
示例性地,在对视频进行实时的播放,使得更多的用户进行观看的时候,控制设备可以采用上述步骤完成视频的群体行为类别的识别;为了避免一些行为会对大众造成不良的影响,控制设备在检测出群体行为类别之后,可以对待识别视频进行处理。这里,控制设备可以预先设定一些不利于大众观看的不良行为类别,例如,裸露类型、持刀类型、血腥类型等等;控制设备在确定待识别视频的群体行为类别为这些预设类别的时候,控制设备可以直接对视频进行处理,例如,删除具有不良行为类别的视频帧或者视频,或者,对具有不良行为类别的视频帧进行遮挡处理。
或者,在对视频进行实时的播放,或者再次播放的时候,视频中会具有一些有趣或者警示的内容,为了便于用户可以更多的观看这些内容;控制设备在检测出群体行为类别之后,可以对待识别视频进行处理。这里,控制设备可以预先设定一些需要用户可以重复观看的有益行为类别或者警示行为类别,例如,偷盗类型、玩笑类型等等;控制设备在确定待识别视频的群体行为类别为这些预设类别的时候,控制设备可以直接对视频进行处理,例如,重复播放具有有益行为类别或者警示行为类别的视频帧或者视频。
本实施例,在上述实施例的基础上,本实施例中可以预设一些危险、有益、警示的行为类别,可以输出警示信息等,进而便于工作人员和其他用户躲避危险行为、或者观看警示行为。并且,本实施例所采用的各个模型,可以采用预设的行为类别和识别进行训练和模拟,可以提升识别和分类能力,不需要直接的人体检测和动作检测,减少计算消耗,节约了成本;
图12是根据本申请第四实施例的示意图,如图12所示,该方法,包括:
S401、获取待识别视频,其中,待识别视频中包括多个视频帧,每一个视频帧中包括多个人体对象。
示例性地,本实施例以执行主体可以是控制设备、或者终端设备、或者远程服务器、或者其他可以执行本实施例方法的装置或设备。本实施例以执行主体为控制设备进行说明。控制设备与摄像机连接。
本步骤可以参见图2所示的步骤S101,不再赘述。
S402、获取待识别视频中的每一个人体对象的单人特征、各人体对象之间的多人特征。
示例性的,本步骤可以参见上述实施例的各步骤;每一个人体对象的单人特征,是每一个人体对象的特征;各人体对象之间的多人特征,是待识别视频的第二特征信息。
S403、根据每一个人体对象的单人特征、以及各人体对象之间的多人特征,确定待识别视频的群体行为类别。
示例性的,可以将步骤S402所得到的特征输入分类模型中,得到待识别视频的群体行为类别。
本实施例,通过在对待识别视频进行特征提取的时候,可以得到每一个人体对象的单人特征、各个人体对象之间的特征、各个人体对象之间的关系;从而,可以依据上述特征确定出待识别视频的群体行为类别。从而,可以识别出视频的群体行为类别;进而,便于确定出视频的群体行为类别是否为危险、不安全、不正常的全体行为,加强了公共场所的安全,保证了群众的人身安全和财产安全。
图13是根据本申请第五实施例的示意图,如图13所示,本实施例提供的基于视频的群体行为识别装置,可以包括:
第一获取单元31,用于获取待识别视频,其中,待识别视频中包括多个视频帧。
第二获取单元32,用于获取每一个视频帧中的每一个人体对象的人体框,其中,每一个人体框中包括多个人体关键点,每一个人体框的各人体关键点用于表征人体对象的动作。
第一确定单元33,用于根据每一个视频帧中的同一个人体对象的人体关键点,确定待识别视频的第一特征信息,其中,第一特征信息用于指示每一个人体对象的特征。
第二确定单元34,用于根据每一个视频帧中的每一个人体对象的人体关键点,确定待识别视频的第二特征信息,其中,第二特征信息用于指示不同的人体对象所构成的特征。
识别单元35,用于对第一特征信息和第二特征信息进行处理,得到待识别视频的群体行为类别。
本实施例的基于视频的群体行为识别装置,可以执行图2、图4、图11、图12所示方法中的技术方案,其具体实现过程和技术原理参见图2、图4、图11、图12所示方法中的相关描述,此处不再赘述。
图14是根据本申请第六实施例的示意图,在图13所示实施例的基础上,如图14所示,本实施例提供的基于视频的群体行为识别装置中,第一确定单元33,包括:
第一连接模块331,用于将同一个视频帧中的同一个人体对象的各人体关键点进行连接,得到同一个视频帧中的同一个人体对象的第一关键点连接信息。
第二连接模块332,用于将各视频帧中的同一个人体对象的相同性质的人体关键点进行连接,得到同一个人体对象的第二关键点连接信息。
第一处理模块333,用于将每一个视频帧中的同一个人体对象的第一关键点连接信息和每一个人体对象的第二关键点连接信息进行整合,得到待识别视频的第一特征信息,其中,第一特征信息包括人体关键点的关键点特征、第一关键点连接信息、以及第二关键点连接信息。
一个示例中,第一处理模块333,具体用于:
根据每一个人体对象的第一关键点连接信息和每一个人体对象的第二关键点连接信息,得到每一个人体对象的特征图,其中,每一个人体对象的特征图中包括人体对象的人体关键点的关键点特征、各个第一边、各个第二边,各个第一边为同一个视频帧中的同一个人体对象的各人体关键点进行连接所得到边,各个第二边为各视频帧中的同一个人体对象的相同性质的人体关键点进行连接所得到边。
将每一个人体对象的特征图输入至预设的卷积网络模型中,得到每一个人体对象在预设维度上的特征。
将各个人体对象在预设维度上的特征,输入至卷积网络模型中,得到待识别视频的第一特征信息。
一个示例中,第二确定单元34,包括:
第三连接模块341,用于将同一个视频帧中的同一个人体对象的各人体关键点进行连接,得到同一个视频帧中的同一个人体对象的第一关键点连接信息。
第四连接模块342,用于将各视频帧中的同一个人体对象的相同性质的人体关键点进行连接,得到同一个人体对象的第二关键点连接信息。
第五连接模块343,用于将同一个视频帧中的每一个人体对象的相同性质的人体关键点进行连接,得到同一个视频帧的第三关键点连接信息。
第二处理模块344,用于将每一个视频帧中的同一个人体对象的第一关键点连接信息、每一个人体对象的第二关键点连接信息、以及每一个视频帧的第三关键点连接信息进行整合,得到待识别视频的第二特征信息,其中,第二特征信息中包括人体关键点的关键点特征、第一关键点连接信息、第二关键点连接信息、以及第三关键点连接信息。
一个示例中,第二处理模块344,具体用于:
根据每一个视频帧中的同一个人体对象的第一关键点连接信息、每一个人体对象的第二关键点连接信息、以及每一个视频帧的第三关键点连接信息,得到待识别视频的特征图,其中,待识别视频的特征图中包括人体对象的人体关键点的关键点特征、各个第一边、各个第二边、各个第三边,各个第一边为同一个视频帧中的同一个人体对象的各人体关键点进行连接所得到边,各个第二边为各视频帧中的同一个人体对象的相同性质的人体关键点进行连接所得到边,各个第三边为同一个视频帧中的每一个人体对象的相同性质的人体关键点进行连接所得到边。
将待识别视频的特征图输入至预设的卷积网络模型中,得到待识别视频的第二特征信息。
一个示例中,本实施例提供的装置,还包括:
删减单元41,用于在第二确定单元34根据每一个视频帧中的每一个人体对象的人体关键点,确定待识别视频的第二特征信息之前,将每一个人体对象的人体关键点的个数进行删减,得到删减后的每一个人体对象的人体关键点。
一个示例中,本实施例提供的装置,还包括:
第三确定单元42,用于在第一确定单元33根据每一个视频帧中的同一个人体对象的人体关键点,确定待识别视频的第一特征信息之前,获取相邻两个视频帧中前一个视频帧的同一个人体关键点、与后一个视频帧的每一个人体关键点之间的偏移量;确定相邻两个视频帧中前一个视频帧的同一个人体关键点、后一个视频帧中偏移量最小的人体关键点,两者属于同一人体对象。
一个示例中,第一获取单元31,具体用于:获取待处理视频,并对待处理视频进行抽帧处理,得到多个视频帧,以得到待识别视频。
一个示例中,第二获取单元32,具体用于:
将待识别视频输入至单阶段多尺度目标检测网络模型中,得到每一个视频帧中的各人体框;将每一个视频帧中的各人体框,输入至预设识别模型中,得到每一个人体框中的各人体关键点。
一个示例中,识别单元35,包括:
拼接模块351,用于将第一特征信息和第二特征信息进行拼接处理,得到拼接后的特征信息。
识别模块352,用于将拼接后的特征信息输入至预设的分类模型中,得到待识别视频属于每一个预设群体行为类别的概率值。
确定模块353,用于确定概率值最大的预设群体行为类别,为待识别视频的群体行为类别。
一个示例中,本实施例提供的装置,还包括:
警示单元43,用于在识别单元35对第一特征信息和第二特征信息进行处理,得到待识别视频的群体行为类别之后,在确定待识别视频的群体行为类别为预设类别时,发出警示信息,其中,警示信息包括以下的一种或多种:语音信息、文字信息、灯光信息、框选信息。
和/或,
处理单元44,用于在识别单元35对第一特征信息和第二特征信息进行处理,得到待识别视频的群体行为类别之后,在确定待识别视频的群体行为类别为预设类别时,对待识别视频进行预设处理,其中,预设处理包括以下一种或多种:重复播放处理、删除处理、遮挡处理。
本实施例的基于视频的群体行为识别装置,可以执行图2、图4、图11、图12所示方法中的技术方案,其具体实现过程和技术原理参见图2、图4、图11、图12所示方法中的相关描述,此处不再赘述。
图15是根据本申请第七实施例的示意图;如图15所示,本实施例中的电子设备50可以包括:处理器51和存储器52。
存储器52,用于存储程序;存储器52,可以包括易失性存储器(英文:volatilememory),例如随机存取存储器(英文:random-access memory,缩写:RAM),如静态随机存取存储器(英文:static random-access memory,缩写:SRAM),双倍数据率同步动态随机存取存储器(英文:Double Data Rate Synchronous Dynamic Random Access Memory,缩写:DDR SDRAM)等;存储器也可以包括非易失性存储器(英文:non-volatile memory),例如快闪存储器(英文:flash memory)。存储器52用于存储计算机程序(如实现上述方法的应用程序、功能模块等)、计算机指令等,上述的计算机程序、计算机指令等可以分区存储在一个或多个存储器52中。并且上述的计算机程序、计算机指令、数据等可以被处理器51调用。
上述的计算机程序、计算机指令等可以分区存储在一个或多个存储器52中。并且上述的计算机程序、计算机指据等可以被处理器51调用。
处理器51,用于执行存储器52存储的计算机程序,以实现上述实施例涉及的方法中的各个步骤。
具体可以参见前面方法实施例中的相关描述。
处理器51和存储器52可以是独立结构,也可以是集成在一起的集成结构。当处理器51和存储器52是独立结构时,存储器52、处理器51可以通过总线53耦合连接。
本实施例的电子设备可以执行图2-图3,图9所示方法中的技术方案,其具体实现过程和技术原理参见图2-图3,图9所示方法中的相关描述,此处不再赘述。
本实施例,通过在对待识别视频进行特征提取的时候,可以得到第一特征信息和第二特征信息,第一特征信息表征了待识别视频中的每一个人体对象的单人特征,第二特征信息表征了待识别视频中的各个人体对象之间的特征、各个人体对象之间的关系;从而,可以依据第一特征信息和第二特征信息,得到待识别视频的群体行为类别。从而,可以识别出视频的群体行为类别;进而,便于确定出视频的群体行为类别是否为危险、不安全、不正常的全体行为,加强了公共场所的安全,保证了群众的人身安全和财产安全。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
图16是用来实现本申请实施例的基于视频的群体行为识别方法的电子设备的框图,如图16所示,电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图16所示,该电子设备包括:一个或多个处理器601、存储器602,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图16中以一个处理器601为例。
存储器602即为本申请所提供的非瞬时计算机可读存储介质。其中,存储器存储有可由至少一个处理器执行的指令,以使至少一个处理器执行本申请所提供的基于视频的群体行为识别方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的基于视频的群体行为识别方法。
存储器602作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的基于视频的群体行为识别方法对应的程序指令/模块(例如,附图10所示的第一获取单元31、第二获取单元32、构建单元33、卷积单元34和识别单元35)。处理器601通过运行存储在存储器602中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的基于视频的群体行为识别方法。
存储器602可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据基于视频的群体行为识别方法的电子设备的使用所创建的数据等。此外,存储器602可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器602可选包括相对于处理器601远程设置的存储器,这些远程存储器可以通过网络连接至基于视频的群体行为识别方法的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
基于视频的群体行为识别方法的电子设备还可以包括:输入装置603和输出装置604。处理器601、存储器602、输入装置603和输出装置604可以通过总线或者其他方式连接,图16中以通过总线连接为例。
输入装置603可接收输入的数字或字符信息,以及产生与基于视频的群体行为识别方法的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置604可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
基于视频的群体行为识别方法的电子设备还可以包括:摄像机605;摄像机605通过总线与处理器601、存储器602连接。摄像机605所采集的图像和视频,可以输送给处理器601、存储器602。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
根据本申请实施例的技术方案,基于前后相邻的视频帧的人体对象的人体框和人体关键点,进行人体对象的分析,即,在时间维度上进行分析,从而考虑了前后帧的视频帧的关系,可以减少视频理解上的偏差,提升视频的人体行为类别的准确率和召回率;并且,还在空间维度(人体框的关键点个数的维度)上得到卷积结果,基于两种卷积结果可以进一步的加强人体对象之间的关系,加强基于时间上的人体对象的行为变化的分析,更加准确的得到视频的人体行为类别;进而得到视频的行为动作和动作标签,利于优化卷积模型和识别模型,并利用用户和其他智能设备理解视频内容。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (13)
1.一种基于视频的群体行为识别方法,其特征在于,包括:
获取待识别视频,其中,所述待识别视频中包括多个视频帧,并获取每一个所述视频帧中的每一个人体对象的人体框,其中,每一个所述人体框中包括多个人体关键点,每一个所述人体框的各人体关键点用于表征人体对象的动作;
根据每一个视频帧中的同一个人体对象的人体关键点,确定所述待识别视频的第一特征信息,其中,所述第一特征信息用于指示每一个人体对象的特征;
将同一个视频帧中的同一个人体对象的各人体关键点进行连接,得到同一个视频帧中的同一个人体对象的第一关键点连接信息;
将各视频帧中的同一个人体对象的相同性质的人体关键点进行连接,得到同一个人体对象的第二关键点连接信息;
将同一个视频帧中的每一个人体对象的相同性质的人体关键点进行连接,得到同一个视频帧的第三关键点连接信息;
将每一个视频帧中的同一个人体对象的第一关键点连接信息、每一个人体对象的第二关键点连接信息、以及每一个视频帧的第三关键点连接信息进行整合,得到所述待识别视频的第二特征信息,其中,所述第二特征信息中包括人体关键点的关键点特征、所述第一关键点连接信息、所述第二关键点连接信息、以及所述第三关键点连接信息其中,所述第二特征信息用于指示不同的人体对象所构成的特征;
对所述第一特征信息和所述第二特征信息进行处理,得到所述待识别视频的群体行为类别。
2.根据权利要求1所述的方法,其特征在于,根据每一个视频帧中的同一个人体对象的人体关键点,确定所述待识别视频的第一特征信息,包括:
将同一个视频帧中的同一个人体对象的各人体关键点进行连接,得到同一个视频帧中的同一个人体对象的第一关键点连接信息;
将各视频帧中的同一个人体对象的相同性质的人体关键点进行连接,得到同一个人体对象的第二关键点连接信息;
将每一个视频帧中的同一个人体对象的第一关键点连接信息和每一个人体对象的第二关键点连接信息进行整合,得到所述待识别视频的第一特征信息,其中,所述第一特征信息包括人体关键点的关键点特征、所述第一关键点连接信息、以及所述第二关键点连接信息。
3.根据权利要求2所述的方法,其特征在于,所述将每一个视频帧中的同一个人体对象的第一关键点连接信息和每一个人体对象的第二关键点连接信息进行整合,得到所述待识别视频的第一特征信息,包括:
根据每一个人体对象的第一关键点连接信息和每一个人体对象的第二关键点连接信息,得到每一个人体对象的特征图,其中,每一个人体对象的特征图中包括人体对象的人体关键点的关键点特征、各个第一边、各个第二边,所述各个第一边为同一个视频帧中的同一个人体对象的各人体关键点进行连接所得到边,所述各个第二边为各视频帧中的同一个人体对象的相同性质的人体关键点进行连接所得到边;
将每一个人体对象的特征图输入至预设的卷积网络模型中,得到每一个人体对象在预设维度上的特征;
将各个人体对象在预设维度上的特征,输入至所述卷积网络模型中,得到所述待识别视频的第一特征信息。
4.根据权利要求1所述的方法,其特征在于,所述将每一个视频帧中的同一个人体对象的第一关键点连接信息、每一个人体对象的第二关键点连接信息、以及每一个视频帧的第三关键点连接信息进行整合,得到所述待识别视频的第二特征信息,包括:
根据每一个视频帧中的同一个人体对象的第一关键点连接信息、每一个人体对象的第二关键点连接信息、以及每一个视频帧的第三关键点连接信息,得到所述待识别视频的特征图,其中,所述待识别视频的特征图中包括人体对象的人体关键点的关键点特征、各个第一边、各个第二边、各个第三边,所述各个第一边为同一个视频帧中的同一个人体对象的各人体关键点进行连接所得到边,所述各个第二边为各视频帧中的同一个人体对象的相同性质的人体关键点进行连接所得到边,所述各个第三边为同一个视频帧中的每一个人体对象的相同性质的人体关键点进行连接所得到边;
将所述待识别视频的特征图输入至预设的卷积网络模型中,得到所述待识别视频的第二特征信息。
5.根据权利要求1所述的方法,其特征在于,在所述根据每一个视频帧中的每一个人体对象的人体关键点,确定所述待识别视频的第二特征信息之前,还包括:
将每一个人体对象的人体关键点的个数进行删减,得到删减后的每一个人体对象的人体关键点。
6.根据权利要求1所述的方法,其特征在于,在所述根据每一个视频帧中的同一个人体对象的人体关键点,确定所述待识别视频的第一特征信息之前,还包括:
获取相邻两个视频帧中前一个视频帧的同一个人体关键点、与后一个视频帧的每一个人体关键点之间的偏移量;
确定相邻两个视频帧中前一个视频帧的同一个人体关键点、后一个视频帧中偏移量最小的人体关键点,两者属于同一人体对象。
7.根据权利要求1-6任一项所述的方法,其特征在于,所述获取待识别视频,包括:
获取待处理视频,并对所述待处理视频进行抽帧处理,得到所述多个视频帧,以得到所述待识别视频。
8.根据权利要求1-6任一项所述的方法,其特征在于,所述获取每一个所述视频帧中的每一个人体对象的人体框,包括:
将所述待识别视频输入至单阶段多尺度目标检测网络模型中,得到每一个所述视频帧中的各人体框;
将每一个所述视频帧中的各人体框,输入至预设识别模型中,得到每一个所述人体框中的各人体关键点。
9.根据权利要求1-6任一项所述的方法,其特征在于,对所述第一特征信息和所述第二特征信息进行处理,得到所述待识别视频的群体行为类别,包括:
将所述第一特征信息和所述第二特征信息进行拼接处理,得到拼接后的特征信息;
将所述拼接后的特征信息输入至预设的分类模型中,得到所述待识别视频属于每一个预设群体行为类别的概率值;
确定概率值最大的预设群体行为类别,为所述待识别视频的群体行为类别。
10.根据权利要求1-6任一项所述的方法,其特征在于,在对所述第一特征信息和所述第二特征信息进行处理,得到所述待识别视频的群体行为类别之后,还包括:
在确定所述待识别视频的群体行为类别为预设类别时,发出警示信息,其中,所述警示信息包括以下的一种或多种:语音信息、文字信息、灯光信息、框选信息;
和/或,
在确定所述待识别视频的群体行为类别为预设类别时,对所述待识别视频进行预设处理,其中,所述预设处理包括以下一种或多种:重复播放处理、删除处理、遮挡处理。
11.一种基于视频的群体行为识别装置,其特征在于,包括:
第一获取单元,用于获取待识别视频,其中,所述待识别视频中包括多个视频帧;
第二获取单元,用于获取每一个所述视频帧中的每一个人体对象的人体框,其中,每一个所述人体框中包括多个人体关键点,每一个所述人体框的各人体关键点用于表征人体对象的动作;
第一确定单元,用于根据每一个视频帧中的同一个人体对象的人体关键点,确定所述待识别视频的第一特征信息,其中,所述第一特征信息用于指示每一个人体对象的特征;
第二确定单元,用于将同一个视频帧中的同一个人体对象的各人体关键点进行连接,得到同一个视频帧中的同一个人体对象的第一关键点连接信息;
将各视频帧中的同一个人体对象的相同性质的人体关键点进行连接,得到同一个人体对象的第二关键点连接信息;
将同一个视频帧中的每一个人体对象的相同性质的人体关键点进行连接,得到同一个视频帧的第三关键点连接信息;
将每一个视频帧中的同一个人体对象的第一关键点连接信息、每一个人体对象的第二关键点连接信息、以及每一个视频帧的第三关键点连接信息进行整合,得到所述待识别视频的第二特征信息,其中,所述第二特征信息中包括人体关键点的关键点特征、所述第一关键点连接信息、所述第二关键点连接信息、以及所述第三关键点连接信息,所述第二特征信息用于指示不同的人体对象所构成的特征;
识别单元,用于对所述第一特征信息和所述第二特征信息进行处理,得到所述待识别视频的群体行为类别。
12.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-10中任一项所述的方法。
13.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-10中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010025777.9A CN111178323B (zh) | 2020-01-10 | 2020-01-10 | 基于视频的群体行为识别方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010025777.9A CN111178323B (zh) | 2020-01-10 | 2020-01-10 | 基于视频的群体行为识别方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111178323A CN111178323A (zh) | 2020-05-19 |
CN111178323B true CN111178323B (zh) | 2023-08-29 |
Family
ID=70652658
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010025777.9A Active CN111178323B (zh) | 2020-01-10 | 2020-01-10 | 基于视频的群体行为识别方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111178323B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111832526A (zh) * | 2020-07-23 | 2020-10-27 | 浙江蓝卓工业互联网信息技术有限公司 | 一种行为检测方法及装置 |
CN112101180B (zh) * | 2020-09-10 | 2023-04-07 | 湖北烽火平安智能消防科技有限公司 | 一种人的不安全行为识别方法及系统 |
CN113163153A (zh) * | 2021-04-06 | 2021-07-23 | 游密科技(深圳)有限公司 | 视频会议中违规信息的处理方法、装置、介质及电子设备 |
CN113408495B (zh) * | 2021-07-30 | 2021-11-05 | 广州汇图计算机信息技术有限公司 | 一种用于安保的安全警备系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008098188A2 (en) * | 2007-02-08 | 2008-08-14 | Behavioral Recognition Systems, Inc. | Behavioral recognition system |
CN108985259A (zh) * | 2018-08-03 | 2018-12-11 | 百度在线网络技术(北京)有限公司 | 人体动作识别方法和装置 |
CN109740517A (zh) * | 2018-12-29 | 2019-05-10 | 上海依图网络科技有限公司 | 一种确定待识别对象的方法及装置 |
CN110472604A (zh) * | 2019-08-20 | 2019-11-19 | 中国计量大学 | 一种基于视频的行人与人群行为识别方法 |
CN110490078A (zh) * | 2019-07-18 | 2019-11-22 | 平安科技(深圳)有限公司 | 监控视频处理方法、装置、计算机设备和存储介质 |
CN110502986A (zh) * | 2019-07-12 | 2019-11-26 | 平安科技(深圳)有限公司 | 识别图像中人物位置方法、装置、计算机设备和存储介质 |
WO2020000912A1 (zh) * | 2018-06-28 | 2020-01-02 | 杭州海康威视数字技术股份有限公司 | 一种行为检测方法、装置、电子设备和存储介质 |
CN110659624A (zh) * | 2019-09-29 | 2020-01-07 | 上海依图网络科技有限公司 | 一种群体人员行为识别方法、装置和计算机存储介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117864918A (zh) * | 2016-07-29 | 2024-04-12 | 奥的斯电梯公司 | 乘客运输装置的监测系统、乘客运输装置及其监测方法 |
US10592771B2 (en) * | 2016-12-30 | 2020-03-17 | Accenture Global Solutions Limited | Multi-camera object tracking |
-
2020
- 2020-01-10 CN CN202010025777.9A patent/CN111178323B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008098188A2 (en) * | 2007-02-08 | 2008-08-14 | Behavioral Recognition Systems, Inc. | Behavioral recognition system |
WO2020000912A1 (zh) * | 2018-06-28 | 2020-01-02 | 杭州海康威视数字技术股份有限公司 | 一种行为检测方法、装置、电子设备和存储介质 |
CN108985259A (zh) * | 2018-08-03 | 2018-12-11 | 百度在线网络技术(北京)有限公司 | 人体动作识别方法和装置 |
CN109740517A (zh) * | 2018-12-29 | 2019-05-10 | 上海依图网络科技有限公司 | 一种确定待识别对象的方法及装置 |
CN110502986A (zh) * | 2019-07-12 | 2019-11-26 | 平安科技(深圳)有限公司 | 识别图像中人物位置方法、装置、计算机设备和存储介质 |
CN110490078A (zh) * | 2019-07-18 | 2019-11-22 | 平安科技(深圳)有限公司 | 监控视频处理方法、装置、计算机设备和存储介质 |
CN110472604A (zh) * | 2019-08-20 | 2019-11-19 | 中国计量大学 | 一种基于视频的行人与人群行为识别方法 |
CN110659624A (zh) * | 2019-09-29 | 2020-01-07 | 上海依图网络科技有限公司 | 一种群体人员行为识别方法、装置和计算机存储介质 |
Non-Patent Citations (1)
Title |
---|
ehavior analysis of video object in complicated background;Zhao, Wenting等;《Optoelectronic Imaging & Multimedia Technology IV Optoelectronic Imaging and Multimedia Technology IV》;第1-4页 * |
Also Published As
Publication number | Publication date |
---|---|
CN111178323A (zh) | 2020-05-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111259751B (zh) | 基于视频的人体行为识别方法、装置、设备及存储介质 | |
CN111178323B (zh) | 基于视频的群体行为识别方法、装置、设备及存储介质 | |
CN111598164B (zh) | 识别目标对象的属性的方法、装置、电子设备和存储介质 | |
CN110659600B (zh) | 物体检测方法、装置及设备 | |
CN112528850A (zh) | 人体识别方法、装置、设备和存储介质 | |
CN112784760B (zh) | 人体行为识别方法、装置、设备以及存储介质 | |
CN110909701B (zh) | 行人特征的提取方法、装置、设备及介质 | |
KR20220149508A (ko) | 이벤트 검출 방법, 장치, 전자 기기 및 판독 가능 기록 매체 | |
CN112001265B (zh) | 视频事件识别方法、装置、电子设备及存储介质 | |
CN111738263A (zh) | 目标检测方法、装置、电子设备及存储介质 | |
JP2023530796A (ja) | 認識モデルトレーニング方法、認識方法、装置、電子デバイス、記憶媒体及びコンピュータプログラム | |
CN110852321A (zh) | 候选框过滤方法、装置以及电子设备 | |
CN113378770A (zh) | 手势识别方法、装置、设备、存储介质以及程序产品 | |
CN111783619B (zh) | 人体属性的识别方法、装置、设备及存储介质 | |
CN112507832A (zh) | 监控场景下的犬只检测方法、装置、电子设备和存储介质 | |
CN111783600B (zh) | 一种人脸识别模型训练方法、装置、设备及介质 | |
CN111783644B (zh) | 检测方法、装置、设备和计算机存储介质 | |
CN110738261B (zh) | 图像分类和模型训练方法、装置、电子设备及存储介质 | |
CN111563541B (zh) | 图像检测模型的训练方法和装置 | |
CN112270303A (zh) | 图像识别方法、装置以及电子设备 | |
US20220392192A1 (en) | Target re-recognition method, device and electronic device | |
CN113204665B (zh) | 图像检索方法、装置、电子设备及计算机可读存储介质 | |
EP4020311A1 (en) | Logo picture processing method, apparatus, device and medium | |
CN114387651A (zh) | 一种人脸识别方法、装置、设备及存储介质 | |
CN111783609A (zh) | 行人再识别的方法、装置、设备和计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |