发明内容
本公开的内容部分用于以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。本公开的内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
本公开的一些实施例提出了基于云边协同的行为识别方法、装置、电子设备和介质,来解决以上背景技术部分提到的技术问题中的一项或多项。
第一方面,本公开的一些实施例提供了一种基于云边协同的行为识别方法,该方法包括:获取第一边缘终端录制的目标视频流,其中,上述目标视频流为包含目标对象的视频流;根据上述目标视频流,对上述目标对象进行行为识别,以生成行为识别信息序列;响应于确定上述行为识别信息序列中存在表征上述目标对象行为异常的行为识别信息,确定上述目标对象的当前位置,以生成当前位置信息;根据上述当前位置信息,对上述第一边缘终端的拍摄角度进行调整,以使得上述目标对象处在上述第一边缘终端拍摄的图像的画面中心;响应于确定上述目标对象未处在上述第一边缘终端的录制范围内,确定上述目标对象的移动轨迹;根据上述移动轨迹,对第二边缘终端集合中的每个第二边缘终端进行拍摄角度的调整。
可选地,上述方法还包括:从上述第一边缘终端和上述第二边缘终端集合中的第二边缘终端拉取实时视频流,得到实时视频流集合;在目标终端实时显示上述实时视频流集合中的实时视频流。
可选地,上述根据上述目标视频流,对上述目标对象进行行为识别,以生成行为识别信息序列,包括:对于上述目标视频流包括的每帧目标图像,响应于确定上述目标图像包括上述目标对象,将上述目标图像确定为候选图像;对得到的候选图像序列中的每张候选图像包括的上述目标对象进行动作检测,以生成行为识别信息,得到上述行为识别信息序列。
可选地,上述确定上述目标对象的当前位置,以生成当前位置信息,包括:获取上述目标对象距离上述第一边缘终端的距离值,得到候选距离值;根据上述候选距离值、上述第一边缘终端的俯仰角度值和上述第一边缘终端对应的坐标信息,生成上述当前位置信息。
可选地,上述确定上述目标对象的移动轨迹,包括:确定上述得到的候选图像序列中的每个候选图像包括的上述目标对象的实时位置信息,得到实时位置信息集合;根据上述得到的候选图像序列中的每个候选图像对应的帧索引和上述候选图像对应的实时位置信息,确定上述移动轨迹。
可选地,上述第二边缘终端集合中的第二边缘终端通过以下步骤得到:获取目标边缘终端信息集合,其中,上述目标边缘终端信息集合中的目标边缘终端信息包括:边缘终端位置和边缘终端监控区域信息;对于上述目标边缘终端信息集合中的目标边缘终端信息,响应于确定上述目标边缘终端信息包括的边缘终端位置和边缘终端监控区域信息对应的区域与上述移动轨迹存在重叠部分,将上述目标边缘终端信息对应的边缘终端,确定为第二边缘终端。
可选地,上述根据上述移动轨迹,对第二边缘终端集合中的每个第二边缘终端进行拍摄角度的调整,包括:获取上述第二边缘终端的当前状态信息,其中,上述当前状态信息包括:当前俯仰角度值、当前偏转角度值和当前焦距信息;根据上述目标对象在上述移动轨迹上的行进方向,和上述第二边缘终端与上述移动轨迹重叠区域对应的视角范围信息,对上述当前俯仰角度值和当前偏转角度值进行调整;根据上述视角范围信息和上述当前焦距信息,确定焦距变化范围;响应于确定上述目标对象进入上述第二边缘终端的监控范围,根据上述目标对象的移动速度,在上述焦距变化范围,对上述第二边缘终端的焦距进行实时调整,以及控制上述第二边缘终端对上述目标对象进行实时追踪。
第二方面,本公开的一些实施例提供了一种基于云边协同的行为识别装置,装置包括:获取单元,被配置成获取第一边缘终端录制的目标视频流,其中,上述目标视频流为包含目标对象的视频流;行为识别单元,被配置成根据上述目标视频流,对上述目标对象进行行为识别,以生成行为识别信息序列;第一确定单元,被配置成响应于确定上述行为识别信息序列中存在表征上述目标对象行为异常的行为识别信息,确定上述目标对象的当前位置,以生成当前位置信息;第一调整单元,被配置成根据上述当前位置信息,对上述第一边缘终端的拍摄角度进行调整,以使得上述目标对象处在上述第一边缘终端拍摄的图像的画面中心;第二确定单元,被配置成响应于确定上述目标对象未处在上述第一边缘终端的录制范围内,确定上述目标对象的移动轨迹;第二调整单元,被配置成根据上述移动轨迹,对第二边缘终端集合中的每个第二边缘终端进行拍摄角度的调整。
可选地,上述装置还包括:从上述第一边缘终端和上述第二边缘终端集合中的第二边缘终端拉取实时视频流,得到实时视频流集合;在目标终端实时显示上述实时视频流集合中的实时视频流。
可选地,上述行为识别单元,被进一步配置成:对于上述目标视频流包括的每帧目标图像,响应于确定上述目标图像包括上述目标对象,将上述目标图像确定为候选图像;对得到的候选图像序列中的每张候选图像包括的上述目标对象进行动作检测,以生成行为识别信息,得到上述行为识别信息序列。
可选地,上述第一确定单元,被进一步配置成:获取上述目标对象距离上述第一边缘终端的距离值,得到候选距离值;根据上述候选距离值、上述第一边缘终端的俯仰角度值和上述第一边缘终端对应的坐标信息,生成上述当前位置信息。
可选地,上述第二确定单元,被配置成:确定上述得到的候选图像序列中的每个候选图像包括的上述目标对象的实时位置信息,得到实时位置信息集合;根据上述得到的候选图像序列中的每个候选图像对应的帧索引和上述候选图像对应的实时位置信息,确定上述移动轨迹。
可选地,上述第二边缘终端集合中的第二边缘终端通过以下步骤得到:获取目标边缘终端信息集合,其中,上述目标边缘终端信息集合中的目标边缘终端信息包括:边缘终端位置和边缘终端监控区域信息;对于上述目标边缘终端信息集合中的目标边缘终端信息,响应于确定上述目标边缘终端信息包括的边缘终端位置和边缘终端监控区域信息对应的区域与上述移动轨迹存在重叠部分,将上述目标边缘终端信息对应的边缘终端,确定为第二边缘终端。
可选地,上述第二调整单元,被配置成:获取上述第二边缘终端的当前状态信息,其中,上述当前状态信息包括:当前俯仰角度值、当前偏转角度值和当前焦距信息;根据上述目标对象在上述移动轨迹上的行进方向,和上述第二边缘终端与上述移动轨迹重叠区域对应的视角范围信息,对上述当前俯仰角度值和当前偏转角度值进行调整;根据上述视角范围信息和上述当前焦距信息,确定焦距变化范围;响应于确定上述目标对象进入上述第二边缘终端的监控范围,根据上述目标对象的移动速度,在上述焦距变化范围,对上述第二边缘终端的焦距进行实时调整,以及控制上述第二边缘终端对上述目标对象进行实时追踪。
第三方面,本公开的一些实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现上述第一方面任一实现方式所描述的方法。
第四方面,本公开的一些实施例提供了一种计算机可读介质,其上存储有计算机程序,其中,程序被处理器执行时实现上述第一方面任一实现方式所描述的方法。
本公开的上述各个实施例具有如下有益效果:通过本公开的一些实施例的基于云边协同的行为识别方法,提高了行为识别效率,以及监控追踪的成功率。具体来说,造成行为识别效率低下,以及监控追踪的成功率低下的原因在于:由于监控摄像头的拍摄角度和拍摄范围的限制,往往需要布置大量的监控摄像头进行监控,通过人工的方式对多个视频包括的待检测对象进行行为识别,识别效率低下。其次,由于被检测对象往往处于移动状态,当被检测对象处于异常行为时,通过单一监控摄像头进行监控追踪,当被检测对象超出监控摄像头的监控范围时,往往会导致监控追踪失败。基于此,本公开的一些实施例的基于云边协同的行为识别方法,首先,获取第一边缘终端录制的目标视频流,其中,上述目标视频流为包含目标对象的视频流。其次,根据上述目标视频流,对上述目标对象进行行为识别,以生成行为识别信息序列。实际情况中,目标视频流中往往包含目标对象的连贯动作对应的多帧图像。因此,通过对实时获取的上述目标视频流包括的目标对象进行行为识别,并生成行为识别信息序列,能够很好地表征目标对象的行为类型,并且相比于人工识别的方式,识别效率以及准确率更高。此外,响应于确定上述行为识别信息序列中存在表征上述目标对象行为异常的行为识别信息,确定上述目标对象的当前位置,以生成当前位置信息。接着,根据上述当前位置信息,对上述第一边缘终端的拍摄角度进行调整,以使得上述目标对象处在上述第一边缘终端拍摄的图像的画面中心。实际情况中,当目标对象的行为异常时,往往需要对目标对象进行跟踪,通过确定目标对象的位置,以及根据位置对第一边缘终端的拍摄角度进行调整,从而保证监控追踪的成功率。此外,响应于确定上述目标对象未处在上述第一边缘终端的录制范围内,确定上述目标对象的移动轨迹。接着,根据上述移动轨迹,对第二边缘终端集合中的每个第二边缘终端进行拍摄角度的调整。实际情况中,由于第一边缘终端存在拍摄角度和拍摄范围的限制,通过确定目标对象的移动轨迹,进而调用第二边缘终端集合中的第二边缘终端对目标对象进行进一步的监控追踪,从而,进一步地提高了监控追踪的成功率。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例。相反,提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
下面将参考附图并结合实施例来详细说明本公开。
图1是本公开的一些实施例的基于云边协同的行为识别方法的一个应用场景的示意图。
在图1的应用场景中,首先,计算设备101可以获取第一边缘终端102录制的目标视频流103,其中,上述目标视频流103为包含目标对象的视频流;其次,计算设备101可以根据上述目标视频流103,对上述目标对象进行行为识别,以生成行为识别信息序列104;然后,计算设备101可以响应于确定上述行为识别信息序列104中存在表征上述目标对象行为异常的行为识别信息,确定上述目标对象的当前位置,以生成当前位置信息105;接着,计算设备101可以根据上述当前位置信息105,对上述第一边缘终端102的拍摄角度进行调整,以使得上述目标对象处在上述第一边缘终端102拍摄的图像的画面中心;进一步,计算设备101可以响应于确定上述目标对象未处在上述第一边缘终端102的录制范围内,确定上述目标对象的移动轨迹106;最后,计算设备101可以根据上述移动轨迹106,对第二边缘终端集合107中的每个第二边缘终端进行拍摄角度的调整。
需要说明的是,上述计算设备101可以是硬件,也可以是软件。当计算设备为硬件时,可以实现成多个服务器或终端设备组成的分布式集群,也可以实现成单个服务器或单个终端设备。当计算设备体现为软件时,可以安装在上述所列举的硬件设备中。其可以实现成例如用来提供分布式服务的多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
应该理解,图1中的计算设备的数目仅仅是示意性的。根据实现需要,可以具有任意数目的计算设备。
继续参考图2,示出了根据本公开的基于云边协同的行为识别方法的一些实施例的流程200。该基于云边协同的行为识别方法,包括以下步骤:
步骤201,获取第一边缘终端录制的目标视频流。
在一些实施例中,基于云边协同的行为识别方法的执行主体(例如图1所示的计算设备101)可以通过有线连接或无线连接的方式,获取上述第一边缘终端录制的上述目标视频流。其中,上述第一边缘终端可以是用于对目标区域进行实时视频录制的终端。上述目标区域可以是上述第一边缘终端最大监控范围内的区域。例如,上述第一边缘终端可以是监控摄像头。又如,上述目标区域可以为施工工地上的上述第一边缘终端监控范围内的区域。上述目标视频流可以是上述第一边缘终端实时录制的视频流。上述目标视频流可以为包含目标对象的视频流。其中,上述目标对象可以为待检测对象。例如,上述目标对象可以是“人”。需要指出的是,上述无线连接方式可以包括但不限于3G/4G/5G连接、WiFi连接、蓝牙连接、WiMAX连接、Zigbee连接、UWB(Ultra Wide Band)连接、以及其他现在已知或将来开发的无线连接方式。
步骤202,根据目标视频流,对目标对象进行行为识别,以生成行为识别信息序列。
在一些实施例中,上述执行主体可以根据目标视频流,对目标对象进行行为识别,以生成行为识别信息序列。其中,上述行为识别信息序列中的行为识别信息,可以包含上述目标对象对应的连贯动作在上述目标视频流包括的不同帧图像内的动作类别。上述执行主体可以将上述目标视频流,输入预先训练的行为检测模型,以生成上述行为识别信息序列,以实现对上述目标对象的行为识别。其中,上述行为检测模型可以是对上述目标对象的行为进行检测和识别的模型。例如,上述行为检测模型可以是但不限于以下任意一项:LSTM(Long Short-Term Memory,长短期记忆网络)模型,CNN(Convolutional NeuralNetworks,卷积神经网络)模型,TSN(Time Sensitive Networks,时间敏感性网络)模型,RNN(Recursive Neural Network,递归神经网络)模型和SSN(Structured SegmentNetwork,结构化的段网络)模型。
作为示例,上述行为识别信息序列可以为:{[帧序号:0012,识别对象标识:001,行为类别:“未佩戴安全帽”,识别概率:99%],[帧序号:0077,识别对象标识:001,行为类别:“搬运货物”,识别概率:97%],[帧序号:0199,识别对象标识:001,行为类别:“搬运货物”,识别概率:93%]}。
步骤203,响应于确定行为识别信息序列中存在表征目标对象行为异常的行为识别信息,确定目标对象的当前位置,以生成当前位置信息。
在一些实施例中,上述执行主体可以响应于确定行为识别信息序列中存在表征目标对象行为异常的行为识别信息,确定目标对象的当前位置,以生成当前位置信息。其中,上述当前位置信息用于表征上述目标对象的当前位置。例如,上述当前位置信息可以包括:上述目标对象的位置坐标和时间戳。上述当前位置信息可以是{位置坐标:(12,223,232),时间戳:1630496929.4670458}。
作为示例,上述执行主体可以对于上述行为识别信息序列中的每个行为识别信息,将上述行为识别信息包括的行为类别,与目标数据库中存储的行为类别进行比对,当上述目标数据库中存在与上述行为识别信息包括的行为类别一致的行为类别时,即可认定上述行为识别信息序列存在表征上述目标对象行为异常的行为识别信息。其中,上述目标数据库可以是用于存储异常的行为类别的数据库。例如,上述目标数据库可以是Hbase数据库。上述目标数据库还可以是Redis数据库。
作为又一示例,上述执行主体确定上述目标对象的当前位置,以生成上述当前位置信息,可以包括以下步骤:
第一步,确定上述目标对象在目标帧图像内的位置,以生成图像位置。
其中,上述目标帧图像可以是上述目标视频流中包含上述目标对象的最后一帧图像。
例如,如图3所示,其中,上述执行主体可以将上述目标对象301的中心点,在上述目标帧图像302中的像素位置,确定为上述图像位置。
第二步,根据上述像素位置和上述第一边缘终端,确定第一目标夹角值。
例如,如图3所示,其中,上述执行主体可以将上述第一边缘终端102的光心与上述像素位置的连线与铅直方向的夹角a,确定为上述第一目标夹角值。
第三步,获取第二夹角值和第三夹角值。
其中,上述第二夹角值可以是与上述第一边缘终端距离最近的第三边缘终端,和上述第一边缘终端之间的夹角值。上述第三夹角值可以是上述目标对象出现在上述第三边缘终端画面中心时,上述第三边缘终端的偏转角度。
例如,如图4所示,其中,上述执行主体可以将上述第一边缘终端102距离最近的第三边缘终端104,和上述第一边缘终端102之间的夹角值c,确定为上述第二夹角值。上述执行主体可以将图4中第三边缘终端401拍摄方向与水平方向的夹角b,确定为上述第三夹角值。
第四步,获取上述第三边缘终端和上述第四边缘终端之间的距离信息。
其中,上述执行主体首先,可以从边缘终端信息数据库中获取上述第三边缘终端的位置和上述第四边缘终端的位置。然后,根据上述第三边缘终端的位置和上述第四边缘终端的位置,通过两点之间距离公式,确定上述距离信息。
第五步,根据上述第一目标夹角值、上述第二目标夹角值、上述第三目标夹角值和上述距离信息,确定上述目标对象与上述第一边缘终端的距离值。
例如,上述执行主体可以根据上述第一目标夹角值、上述第二目标夹角值、上述第三目标夹角值和上述距离信息,通过以下公式,确定上述目标对象与上述第一边缘终端的距离值:
其中,
表示上述第一目标夹角值。
表示上述第二目标夹角值。
表示上述第三目标夹角值。
表示上述目标对象的位置,到上述第一边缘终端和上述第二边缘终端位置连线的距离值。
表示上述距离信息对应的距离值。
表示上述第一边缘终端到目标点的位置。上述第一目标点是从上述目标对象的位置出发的铅直钱,与上述第一边缘终端和上述第二边缘终端位置连线的交点。
例如,如图4所展示的上述第一边缘终端、上述第二边缘终端和上述目标对象之间的位置关系。
第六步,根据上述目标对象与上述第一边缘终端的距离值和上述第一边缘终端的位置,确定上述当前位置信息。
其中,上述当前位置信息可以表征上述目标对象的实际位置。上述执行主体可以通过上述第一终端的位置、上述目标对象与上述第一边缘终端的距离值和两点之间距离公式反推出上述目标对象的实际位置,以生成上述当前位置信息。
步骤204,根据当前位置信息,对第一边缘终端的拍摄角度进行调整,以使得目标对象处在第一边缘终端拍摄的图像的画面中心。
在一些实施例中,上述执行主体可以根据当前位置信息,通过目标跟踪算法,对第一边缘终端的拍摄角度进行调整,以使得目标对象处在第一边缘终端拍摄的图像的画面中心。例如,上述目标跟踪算法可以是但不限于以下任意一项:均值漂移算法,基于卡尔曼滤波的目标跟踪算法和基于粒子滤波的目标跟踪算法。
步骤205,响应于确定目标对象未处在第一边缘终端的录制范围内,确定目标对象的移动轨迹。
在一些实施例中,上述执行主体可以响应于确定目标对象未处在第一边缘终端的录制范围内,确定目标对象的移动轨迹。
其中,上述执行主体可以通过上述目标对象在上述目标视频流包括的图像中的位置对应的坐标进行曲线拟合,以生成上述移动轨迹。
作为示例,上述执行主体可以通过确定上述第一边缘终端实时拍摄的视频流中是否存在目标数量帧图像中均不包含上述目标对象,以此确定上述目标对象是否处在第一边缘终端的录制范围内。上述目标数量可以是50帧。
步骤206,根据移动轨迹,对第二边缘终端集合中的每个第二边缘终端进行拍摄角度的调整。
在一些实施例中,上述执行主体可以根据上述移动轨迹,对上述第二边缘终端集合中的每个第二边缘终端进行拍摄角度的调整。其中,上述第二边缘终端集合中的第二边缘终端可以是上述移动轨迹周围的边缘终端。上述执行主体可以控制上述第二边缘终端集合中的第二边缘终端的拍摄角度,以使得上述第二边缘终端录制的区域与上述移动轨迹存在相重叠的区域。
作为示例,如图5所示,上述执行主体可以控制第二边缘终端1071和第二边缘终端1072的拍摄角度,以使得上述第二边缘终端1071和上述第二边缘终端1072录制的区域与上述移动轨迹106存在相重叠的区域。
本公开的上述各个实施例具有如下有益效果:通过本公开的一些实施例的基于云边协同的行为识别方法,提高了行为识别效率,以及监控追踪的成功率。具体来说,造成行为识别效率低下,以及监控追踪的成功率低下的原因在于:由于监控摄像头的拍摄角度和拍摄范围的限制,往往需要布置大量的监控摄像头进行监控,通过人工的方式对多个视频包括的待检测对象进行行为识别,识别效率低下。其次,由于被检测对象往往处于移动状态,当被检测对象处于异常行为时,通过单一监控摄像头进行监控追踪,当被检测对象超出监控摄像头的监控范围时,往往会导致监控追踪失败。基于此,本公开的一些实施例的基于云边协同的行为识别方法,首先,获取第一边缘终端录制的目标视频流,其中,上述目标视频流为包含目标对象的视频流。其次,根据上述目标视频流,对上述目标对象进行行为识别,以生成行为识别信息序列。实际情况中,目标视频流中往往包含目标对象的连贯动作对应的多帧图像。因此,通过对实时获取的上述目标视频流包括的目标对象进行行为识别,并生成行为识别信息序列,能够很好地表征目标对象的行为类型,并且相比于人工识别的方式,识别效率以及准确率更高。此外,响应于确定上述行为识别信息序列中存在表征上述目标对象行为异常的行为识别信息,确定上述目标对象的当前位置,以生成当前位置信息。接着,根据上述当前位置信息,对上述第一边缘终端的拍摄角度进行调整,以使得上述目标对象处在上述第一边缘终端拍摄的图像的画面中心。实际情况中,当目标对象的行为异常时,往往需要对目标对象进行跟踪,通过确定目标对象的位置,以及根据位置对第一边缘终端的拍摄角度进行调整,从而保证监控追踪的成功率。此外,响应于确定上述目标对象未处在上述第一边缘终端的录制范围内,确定上述目标对象的移动轨迹。接着,根据上述移动轨迹,对第二边缘终端集合中的每个第二边缘终端进行拍摄角度的调整。实际情况中,由于第一边缘终端存在拍摄角度和拍摄范围的限制,通过确定目标对象的移动轨迹,进而调用第二边缘终端集合中的第二边缘终端对目标对象进行进一步的监控追踪,从而,进一步地提高了监控追踪的成功率。
进一步参考图6,其示出了基于云边协同的行为识别方法的另一些实施例的流程600。该基于云边协同的行为识别方法的流程600,包括以下步骤:
步骤601,获取第一边缘终端录制的目标视频流。
在一些实施例中,步骤601的具体实现及其所带来的技术效果,可以参考图2对应的那些实施例中的步骤201,在此不再赘述。
步骤602,根据目标视频流,对目标对象进行行为识别,以生成行为识别信息序列。
在一些实施例中,基于云边协同的行为识别方法的执行主体(例如图1所示的计算设备101)根据目标视频流,对目标对象进行行为识别,以生成行为识别信息序列,可以包括以下步骤:
第一步,对于上述目标视频流包括的每帧目标图像,响应于确定上述目标图像包括上述目标对象,将上述目标图像确定为候选图像。
其中,上述执行主体可以通过目标检测模型,确定上述目标图像中是否包含上述目标对象。其中,上述目标检测模型可以是但不限于以下任意一项:Fast R-CNN(FastRegion-based Convolutional Neural Network,基于区域的快速卷积神经网络)模型,R-FCN(Region-based Fully Convolutional Networks,基于区域的全卷积神经网络)模型和YOLO(You Only Look Once,实时物体检测网络)模型。
第二步,对得到的候选图像序列中的每张候选图像包括的上述目标图像进行动作检测,以生成行为识别信息,得到上述行为识别信息序列。
其中,上述执行主体可以通过目标动作检测模型,对上述候选图像包括的上述目标对象进行动作检测,以生成行为识别信息。上述目标动作检测模型可以是但不限于以下任意一项:SlowFast模型和TRN(Temporal Relation Network,时间段网络)模型。
步骤603,响应于确定行为识别信息序列中存在表征目标对象行为异常的行为识别信息,确定目标对象的当前位置,以生成当前位置信息。
在一些实施例中,上述执行主体响应于确定行为识别信息序列中存在表征目标对象行为异常的行为识别信息,确定目标对象的当前位置,以生成当前位置信息,可以包括以下步骤:
第一步,获取上述目标对象距离上述第一边缘终端的距离值,得到候选距离值。
其中,上述候选距离值可以是上述目标对象,与上述第一边缘终端之间的直线距离值。上述目标对象距离上述第一边缘终端的距离值可以由上述第一边缘终端上设置的激光测距仪器测量得到。
第二步,根据上述候选距离值、上述第一边缘终端的俯仰角度值和上述第一边缘终端对应的坐标信息,生成上述当前位置信息。
其中,上述执行主体根据上述候选距离值、上述第一边缘终端的俯仰角度值和上述第一边缘终端对应的坐标信息,生成上述当前位置信息,可以包括以下子步骤:
第一子步骤,根据上述候选距离值、上述第一边缘终端的俯仰角度值,通过以下公式,生成上述目标对象距离上述第一边缘终端的水平距离值:
其中,
表示上述第一边缘终端的俯仰角度值。
表示上述候选距离值。
表示上述水平距离值。
作为示例,如图7所示的目标对象301和上述第一边缘终端102之间的位置关系。
第二子步骤,根据上述水平距离值和上述第一边缘终端对应的坐标信息,确定上述当前位置信息。
其中,由于上述水平距离值对应的水平线、上述候选距离值对应的射线共面,因此,根据上述水平距离值和上述第一边缘终端对应的坐标信息,可以唯一确定上述当前位置信息。
步骤604,根据当前位置信息,对第一边缘终端的拍摄角度进行调整,以使得目标对象处在第一边缘终端拍摄的图像的画面中心。
在一些实施例中,步骤604的具体实现及其所带来的技术效果,可以参考图2对应的那些实施例中的步骤204,在此不再赘述。
步骤605,响应于确定目标对象未处在第一边缘终端的录制范围内,确定目标对象的移动轨迹。
在一些实施例中,上述执行主体响应于确定目标对象未处在第一边缘终端的录制范围内,确定目标对象的移动轨迹,可以包括以下步骤:
第一步,确定上述得到的候选图像序列中的每个候选图像包括的上述目标对象的实时位置信息,得到实时位置信息集合。
其中,上述执行主体可以通过步骤603中的生成当前位置信息的内容,确定上述得到的候选图像序列中的每个候选图像包括的上述目标对象的实时位置信息,得到实时位置信息集合。
第二步,根据上述得到的候选图像序列中的每个候选图像对应的帧索引和上述候选图像对应的实时位置信息,确定上述移动轨迹。
其中,上述执行主体可以首先,可以按照候选图像对应的帧索引,按照先后顺序将候选图像对应的实时位置信息对应的位置进行连线,以生成候选轨迹。然后,对上述候选轨迹进行平滑处理,以生成上述移动轨迹。
作为示例,如图8所示,上述执行主体可以对上述候选轨迹801进行平滑处理,以生成上述移动轨迹。
步骤606,根据移动轨迹,对第二边缘终端集合中的每个第二边缘终端进行拍摄角度的调整。
在一些实施例中,上述执行主体可以根据移动轨迹,对第二边缘终端集合中的每个第二边缘终端进行拍摄角度的调整。其中,上述第二边缘终端集合中的第二边缘终端通过以下步骤得到:
第一步,获取目标边缘终端信息集合。
其中,上述目标边缘终端信息集合中的目标边缘终端信息包括:边缘终端位置和边缘终端监控区域信息。边缘终端位置可以用于表征目标边缘终端的位置。边缘终端监控区域信息可以表征目标边缘终端监控区域范围。上述执行主体可以从上述边缘终端信息数据库获取上述目标边缘终端信息集合。
第二步,对于上述目标边缘终端信息集合中的目标边缘终端信息,响应于确定上述目标边缘终端信息包括的边缘终端位置和边缘终端监控区域信息对应的区域与上述移动轨迹存在重叠部分,将上述目标边缘终端信息对应的边缘终端,确定为第二边缘终端。
作为示例,上述执行主体根据移动轨迹,对第二边缘终端集合中的每个第二边缘终端进行拍摄角度的调整,可以包括以下步骤:
第一步,获取上述第二边缘终端的当前状态信息。
其中,上述执行主体可以通过有线连接或无线连接的方式,获取上述第二边缘终端的当前状态信息。上述当前状态信息可以包括:当前俯仰角度值、当前偏转角度值和当前焦距信息。其中,前俯仰角度值可以表征第二边缘终端的当前俯仰角。当前偏转角度值可以表征第二边缘终端的当前偏转角。当前焦距信息可以表征第二边缘终端的当前焦距。
第二步,根据上述目标对象在上述移动轨迹上的行进方向,和上述第二边缘终端与上述移动轨迹重叠区域对应的视角范围信息,对上述当前俯仰角度值和当前偏转角度值进行调整。
其中,上述执行主体可以对上述第二边缘终端的当前俯仰角度值和当前偏转角度值进行调整,以使得上述第二边缘终端与上述移动轨迹重叠区域的面积最大化。
第三步,根据上述视角范围信息和上述当前焦距信息,确定焦距变化范围。
其中,上述执行主体可以控制上述第二边缘终端在上述视角范围信息对应的视角范围内进行旋转,同时控制焦距变化,以使得上述第二边缘终端在上述视角范围信息对应的视角范围内采集的图像中的上述目标对象,在图像中的占比保持目标比例。其中,上述目标比例可以是25%。然后上述执行主体可以根据在旋转过程中的变化的各个焦距值,生成上述焦距变化范围。
第四步,响应于确定上述目标对象进入上述第二边缘终端的监控范围,根据上述目标对象的移动速度,在上述焦距变化范围,对上述第二边缘终端的焦距进行实时调整,以及控制上述第二边缘终端对上述目标对象进行实时追踪。
其中,上述执行主体可以根据上述目标对象的移动速度,控制焦距变化,以使得上述目标对象在图像中的占比保持上述目标比例。同时通过上述目标跟踪算法,对上述目标对象进行跟踪,并根据跟踪结果,控制第二边缘终端旋转,以保证上述目标对象处于图像中心。
步骤607,从第一边缘终端和第二边缘终端集合中的第二边缘终端拉取实时视频流,得到实时视频流集合。
在一些实施例中,上述执行主体可以从上述第一边缘终端和上述第二边缘终端集合中的第二边缘终端拉取实时视频流,得到实时视频流集合。其中,上述执行主体首先,可以获取上述第一边缘终端的URL(统一资源定位符,Uniform Resource Locator)和上述第二边缘终端集合中的第二边缘终端的URL。然后,根据上述第一边缘终端的URL(统一资源定位符,Uniform Resource Locator)和上述第二边缘终端集合中的第二边缘终端的URL,拉取实时视频流,得到实时视频流集合。
步骤608,在目标终端实时显示实时视频流集合中的实时视频流。
在一些实施例中,上述执行主体可以在上述目标终端实时显示上述实时视频流集合中的实时视频流。其中,上述目标终端可以是用于显示视频的终端。
图6可以看出,与图2对应的一些实施例的描述相比,本公开,首先,将包含上述目标对象的目标图像筛选出来,作为候选图像,得到候选图像序列。然后,再对上述候选图像序列中的候选图像进行动作检测。此种方式无需对每张图像进行动作检测,大大提高了数据处理效率。此外,在通过上述第二边缘检测终端集合中的第二边缘终端对上述目标对象进行追踪时,除了保证上述目标对象落入第二边缘终端的监控画面内以外,增加了对第二边缘终端焦距以及转动的控制,使得更好地对上述目标对象进行实时追踪。
进一步参考图9,作为对上述各图所示方法的实现,本公开提供了一种基于云边协同的行为识别装置的一些实施例,这些装置实施例与图2所示的那些方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图9所示,一些实施例的基于云边协同的行为识别装置900包括:获取单元901、行为识别单元902、第一确定单元903、第一调整单元904、第二确定单元905和第二调整单元906。其中,获取单元901,被配置成获取第一边缘终端录制的目标视频流,其中,上述目标视频流为包含目标对象的视频流;行为识别单元902,被配置成根据上述目标视频流,对上述目标对象进行行为识别,以生成行为识别信息序列;第一确定单元903,被配置成响应于确定上述行为识别信息序列中存在表征上述目标对象行为异常的行为识别信息,确定上述目标对象的当前位置,以生成当前位置信息;第一调整单元904,被配置成根据上述当前位置信息,对上述第一边缘终端的拍摄角度进行调整,以使得上述目标对象处在上述第一边缘终端拍摄的图像的画面中心;第二确定单元905,被配置成响应于确定上述目标对象未处在上述第一边缘终端的录制范围内,确定上述目标对象的移动轨迹;第二调整单元906,被配置成根据上述移动轨迹,对第二边缘终端集合中的每个第二边缘终端进行拍摄角度的调整。
在一些实施例的一些可选的实现方式中,上述装置900还包括:从上述第一边缘终端和上述第二边缘终端集合中的第二边缘终端拉取实时视频流,得到实时视频流集合;在目标终端实时显示上述实时视频流集合中的实时视频流。
在一些实施例的一些可选的实现方式中,上述行为识别单元902,被进一步配置成:对于上述目标视频流包括的每帧目标图像,响应于确定上述目标图像包括上述目标对象,将上述目标图像确定为候选图像;对得到的候选图像序列中的每张候选图像包括的上述目标对象进行动作检测,以生成行为识别信息,得到上述行为识别信息序列。
在一些实施例的一些可选的实现方式中,上述第一确定单元904,被进一步配置成:获取上述目标对象距离上述第一边缘终端的距离值,得到候选距离值;根据上述候选距离值、上述第一边缘终端的俯仰角度值和上述第一边缘终端对应的坐标信息,生成上述当前位置信息。
在一些实施例的一些可选的实现方式中,上述第二确定单元905,被配置成:确定上述得到的候选图像序列中的每个候选图像包括的上述目标对象的实时位置信息,得到实时位置信息集合;根据上述得到的候选图像序列中的每个候选图像对应的帧索引和上述候选图像对应的实时位置信息,确定上述移动轨迹。
在一些实施例的一些可选的实现方式中,上述第二边缘终端集合中的第二边缘终端通过以下步骤得到:获取目标边缘终端信息集合,其中,上述目标边缘终端信息集合中的目标边缘终端信息包括:边缘终端位置和边缘终端监控区域信息;对于上述目标边缘终端信息集合中的目标边缘终端信息,响应于确定上述目标边缘终端信息包括的边缘终端位置和边缘终端监控区域信息对应的区域与上述移动轨迹存在重叠部分,将上述目标边缘终端信息对应的边缘终端,确定为第二边缘终端。
在一些实施例的一些可选的实现方式中,上述第二调整单元906,被配置成:获取上述第二边缘终端的当前状态信息,其中,上述当前状态信息包括:当前俯仰角度值、当前偏转角度值和当前焦距信息;根据上述目标对象在上述移动轨迹上的行进方向,和上述第二边缘终端与上述移动轨迹重叠区域对应的视角范围信息,对上述当前俯仰角度值和当前偏转角度值进行调整;根据上述视角范围信息和上述当前焦距信息,确定焦距变化范围;响应于确定上述目标对象进入上述第二边缘终端的监控范围,根据上述目标对象的移动速度,在上述焦距变化范围,对上述第二边缘终端的焦距进行实时调整,以及控制上述第二边缘终端对上述目标对象进行实时追踪。
可以理解的是,该装置900中记载的诸单元与参考图2描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作、特征以及产生的有益效果同样适用于装置900及其中包含的单元,在此不再赘述。
下面参考图10,其示出了适于用来实现本公开的一些实施例的电子设备(如图1所示的计算设备101)1000的结构示意图。图10示出的电子设备仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图10所示,电子设备1000可以包括处理装置(例如中央处理器、图形处理器等)1001,其可以根据存储在只读存储器(ROM)1002中的程序或者从存储装置1008加载到随机访问存储器(RAM)1003中的程序而执行各种适当的动作和处理。在RAM 1003中,还存储有电子设备1000操作所需的各种程序和数据。处理装置1001、ROM 1002以及RAM 1003通过总线1004彼此相连。输入/输出(I/O)接口1005也连接至总线1004。
通常,以下装置可以连接至I/O接口1005:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置1006;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置1007;包括例如磁带、硬盘等的存储装置1008;以及通信装置1009。通信装置1009可以允许电子设备1000与其他设备进行无线或有线通信以交换数据。虽然图10示出了具有各种装置的电子设备1000,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图10中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的一些实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的一些实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的一些实施例中,该计算机程序可以通过通信装置1009从网络上被下载和安装,或者从存储装置1008被安装,或者从ROM 1002被安装。在该计算机程序被处理装置1001执行时,执行本公开的一些实施例的方法中限定的上述功能。
需要说明的是,本公开的一些实施例中记载的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的一些实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的一些实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取第一边缘终端录制的目标视频流,其中,上述目标视频流为包含目标对象的视频流;根据上述目标视频流,对上述目标对象进行行为识别,以生成行为识别信息序列;响应于确定上述行为识别信息序列中存在表征上述目标对象行为异常的行为识别信息,确定上述目标对象的当前位置,以生成当前位置信息;根据上述当前位置信息,对上述第一边缘终端的拍摄角度进行调整,以使得上述目标对象处在上述第一边缘终端拍摄的图像的画面中心;响应于确定上述目标对象未处在上述第一边缘终端的录制范围内,确定上述目标对象的移动轨迹;根据上述移动轨迹,对第二边缘终端集合中的每个第二边缘终端进行拍摄角度的调整。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的一些实施例的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开的一些实施例中的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元、行为识别单元、第一确定单元、第一调整单元、第二确定单元和第二调整单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,行为识别单元还可以被描述为“根据上述目标视频流,对上述目标对象进行行为识别,以生成行为识别信息序列的单元”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
以上描述仅为本公开的一些较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。