CN113869274B - 基于城市管理的无人机智能跟踪监控方法及系统 - Google Patents

基于城市管理的无人机智能跟踪监控方法及系统 Download PDF

Info

Publication number
CN113869274B
CN113869274B CN202111194535.3A CN202111194535A CN113869274B CN 113869274 B CN113869274 B CN 113869274B CN 202111194535 A CN202111194535 A CN 202111194535A CN 113869274 B CN113869274 B CN 113869274B
Authority
CN
China
Prior art keywords
action
track
behavior
target object
personnel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111194535.3A
Other languages
English (en)
Other versions
CN113869274A (zh
Inventor
杨翰翔
赖晓俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Lianhe Intelligent Technology Co ltd
Original Assignee
Shenzhen Lianhe Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Lianhe Intelligent Technology Co ltd filed Critical Shenzhen Lianhe Intelligent Technology Co ltd
Priority to CN202111194535.3A priority Critical patent/CN113869274B/zh
Publication of CN113869274A publication Critical patent/CN113869274A/zh
Application granted granted Critical
Publication of CN113869274B publication Critical patent/CN113869274B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

本申请提供一种基于城市管理的无人机智能跟踪监控方法及系统所述方法包括:获取第一无人机针对第一目标对象进行跟踪监控的第一监控视频数据;通过第一行为识别模型,根据第一监控视频数据确定第一目标对象的行为类型;若检测到第一目标对象的行为类型为预设的待监控行为类型,确定与待监控行为类型对应的第二行为识别模型;获取至少一个第二无人机拍摄的第二监控视频数据,通过第二行为识别模型检测第二监控视频数据中的第二目标人员;控制第二无人机对第二目标人员进行跟踪监控。如此,采用关注重点不同的动作识别模型减少了数据处理的整体计算量,从而能迅速及时地发现具有相似行为类型的人员并控制无人机进行跟踪监控。

Description

基于城市管理的无人机智能跟踪监控方法及系统
技术领域
本发明涉及智慧城市及监控技术领域,具体而言,涉及一种基于城市管理的无人机智能跟踪监控方法及系统。
背景技术
无人飞行载具(Unmanned Aerial Vehicle,UAV )又称为无人机。随着无人飞行技术的快速发展,消费性无人机在各行各业得到的广泛的应用,用于替代人执行相应的工作。
进一步地,随着智慧城市进程的不断加速,无人机在智慧城市领域的应用(如智慧城市管理)也被广泛推广。例如,无人机用于自动地对具有特定行为的人员进行识别并进行跟踪监控。然而,普适性地对监控范围内的所有人员进行行为识别计算量非常大,难以迅速有效地确定具有特定行为的人员。
发明内容
为解决上述问题,本发明实施例的目的之一在于提供一种基于城市管理的无人机智能跟踪监控方法,所述方法包括:
获取第一无人机针对第一目标对象进行跟踪监控的第一监控视频数据;
通过第一行为识别模型,根据所述第一监控视频数据确定所述第一目标对象的行为类型;
若检测到所述第一目标对象的行为类型为预设的待监控行为类型,确定与所述待监控行为类型对应的第二行为识别模型;
获取至少一个第二无人机拍摄的第二监控视频数据,通过所述第二行为识别模型检测所述第二监控视频数据中是否存在所述待监控行为类型的第二目标人员;
若存在,则控制所述第二无人机对所述第二目标人员进行跟踪监控。
基于上述目的,所述通过第一行为识别模型,根据所述第一监控视频数据确定所述第一目标对象的行为类型的步骤,包括:
根据所述第一监控视频数据确定所述第一目标对象的行为信息,所述行为信息包括行动轨迹和/或交互对象信息;
通过第一行为识别模型,根据所述第一目标对象的行为信息确定所述第一目标对象的行为类型。
基于上述目的,所述第一行为识别模型包括第一数据处理子模型、第二数据处理子模型及第三数据处理子模型;所述通过第一行为识别模型,根据所述第一目标对象的行为信息预测所述第一目标对象的行为类型的步骤,包括:
获取第一目标对象的行动轨迹和交互对象信息,所述行动轨迹中包括依照时序排列的多个轨迹分片;
对所述轨迹分片进行向量转换,获得所述轨迹分片对应的局部行动特征;
通过所述第一数据处理子模型根据所述轨迹分片对应的局部行动特征、以及所述轨迹分片的前一轨迹分片,确定所述轨迹分片对应的连续轨迹特征;
根据所述轨迹分片对应的局部行动特征,以及所述轨迹分片的前一轨迹分片,预测所述轨迹分片对应的前向连续轨迹特征;
根据所述轨迹分片对应的局部行动特征,以及所述轨迹分片的后一轨迹分片,预测所述轨迹分片对应的后向连续轨迹特征;
对所述前向连续轨迹特征和所述后向连续轨迹特征进行特征融合,获得所述第一目标对象的行动轨迹特征;
根据所述第一目标的对象交互对象信息构建交互拓扑图,所述交互拓扑图中包括人员节点和物品节点,所述人员节点表征第一目标对象及与所述第一目标对象相关的人员,所述物品节点表征人员之间流通的物品;
根据所述交互拓扑图中的人员节点和物品节点,通过第二数据处理子模型确定所述第一目标对象的交互关系特征;
对所述行动轨迹特征和所述交互关系特征进行特征融合,获得融合行为特征;
采用所述第三数据处理子模型的对所述融合行为特征进行加权求和计算并进行归一化处理,获得行为分类置信值;
根据所述行为分类置信值确定所述第一目标对象的行为类型。
基于上述目的,所述第一数据处理子模型包括输入层、隐层和输出层,所述过所述第一数据处理子模型根据所述轨迹分片对应的局部行动特征、以及所述轨迹分片的前一轨迹分片,确定所述轨迹分片对应的连续轨迹特征的步骤,包括:
通过所述输入层对所述轨迹分片对应的局部行动特征进行第一加权处理,获得所述轨迹分片的中间向量;
确定所述前一轨迹分片对应的隐藏向量,以及所述隐层上一时刻的层状态;
根据所述隐层上一时刻的层状态、所述前一轨迹分片对应的隐藏向量、所述轨迹分片的中间向量更新隐层当前时刻的层状态;
根据所述隐层当前时刻的层状态和所述前一轨迹分片对应的隐藏向量,对所述轨迹分片的中间向量、前一轨迹分片对应的隐藏向量进行加权求和,获得所述轨迹分片对应的隐藏向量;
在输出层对所述轨迹分片对应的隐藏向量进行第三加权处理,获得所述轨迹分片对应的连续轨迹特征。
基于上述目的,所述根据所述交互拓扑图中的人员节点和物品节点,通过第二数据处理子模型确定所述第一目标对象的交互关系特征的步骤,包括:
根据所述交互拓扑图获得所述第一目标对象的对应节点的邻居节点;根据所述第一目标对象的对应节点的邻居节点计算获得聚合特征;根据所述聚合特征确定所述第一目标对象的交互关系特征;或
在所述交互拓扑图中确定第一目标对象的对应节点、以及所述第一目标对象的对应节点的邻居节点;对所述邻居节点进行随机游走采样,获得所述第一目标对象的对应节点的游走节点序列;根据所述游走节点序列计算所述第一目标对象的对应节点的节点游走特征;根据所述节点游走特征确定所述第一目标对象的交互关系特征;或
基于所述轨迹分片对应的局部行动特征,以及所述轨迹分片的前一轨迹分片,预测所述轨迹分片对应的前向连续轨迹特征;基于所述轨迹分片对应的局部行动特征,以及所述轨迹分片的后一轨迹分片,预测所述轨迹分片对应的后向连续轨迹特征;对所述前向连续轨迹特征和所述后向连续轨迹特征进行特征融合,获得所述第一目标对象的行动轨迹特征。
基于上述目的,根据所述第二行为识别模型检测所述第二监控视频数据中是否存在所述待监控行为类型的第二目标人员的步骤,包括:
根据所述第二行为识别模型对所述第二监控视频数据进行图像动作识别,确定所述第二监控视频数据中是否存在所述待监控行为类型的第二目标人员。
基于上述目的,所述第二行为识别模型包括连续动作识别模型;所述根据所述第二行为识别模型对所述第二监控视频数据进行图像动作识别,确定所述第二监控视频数据中是否存在所述待监控行为类型的第二目标人员的步骤,包括:
从所述第二监控视频数据中提取人员移动轨迹;所述人员移动轨迹包括由同一人员的多个行动姿态图像帧组成的姿态动作序列;
对所述人员移动轨迹中的各个行动姿态图像帧分别进行动作片段识别,得到各个行动姿态图像帧对应的动作片段识别结果;所述动作片段识别结果包括预先规定的动作片段分类和对应于每个动作片段分类的动作片段分类概率值;
根据所述人员移动轨迹中的各个行动姿态图像帧对应的动作片段识别结果,生成所述人员移动轨迹对应的动作片段概率矩阵;所述动作片段概率矩阵中包括各个行动姿态图像帧对应的每个动作片段分类的动作片段分类概率值;
将所述人员移动轨迹对应的动作片段概率矩阵输入所述连续动作识别模型,获得所述人员移动轨迹对应的动作片段分类;
若所述人员移动轨迹对应的动作片段分类为目标动作片段分类,则从所述人员移动轨迹中选取出部分或者全部姿态动作序列作为目标姿态动作序列;其中,若所述人员移动轨迹中包含的行动姿态图像帧少于预设帧数,且/或所述人员移动轨迹对应的除目标动作片段分类之外的其他动作片段分类的动作片段分类概率值均小于设定阈值,则从所述人员移动轨迹中选取全部姿态动作序列作为所述目标姿态动作序列;否则,从所述人员移动轨迹的各个行动姿态图像帧中选取目标动作片段分类的动作片段分类概率值最大的目标行动姿态图像帧;从所述人员移动轨迹中选取包含所述目标行动姿态图像帧的部分行动姿态图像帧组成目标姿态动作序列;
根据所述目标姿态动作序列确定目标动作片段是否为待监控行为类型。
基于上述目的,从所述第二监控视频数据中提取人员移动轨迹,包括:
对于所述第二监控视频数据中的各个图像帧,获取所述图像帧中的人体图像区域;
提取所述人体图像区域的外形特征;
对于已检测到的人员移动轨迹,提取人员移动轨迹中的每个行动姿态图像帧的外形特征,并将人员移动轨迹中所有行动姿态图像帧对应的第一特征距离的平均值,作为人员移动轨迹与所述人体图像区域的第二特征距离;或者,将人员移动轨迹中每个行动姿态图像帧对应的第一特征距离中的最小值,作为人员移动轨迹与所述人体图像区域的第二特征距离;
确定所述人体图像区域在所述图像帧中的位置信息;
对于已检测到的人员移动轨迹,确定人员移动轨迹中的行动姿态图像帧在对应的图像帧中的位置信息,并根据行动姿态图像帧的位置信息与所述人体图像区域的位置信息之间的位置距离,确定人员移动轨迹与所述人体图像区域的活动距离;
将与所述人体图像区域的第二特征距离满足第一阈值,且与所述人体图像区域的活动距离满足第二阈值的人员移动轨迹,作为满足匹配条件的人员移动轨迹;
若已检测到的人员移动轨迹中存在满足匹配条件的人员移动轨迹,将所述人体图像区域对应的行动姿态图像帧添加至满足匹配条件的人员移动轨迹中;
若已检测到的人员移动轨迹中不存在满足匹配条件的人员移动轨迹,则新建包含所述人体图像区域对应的行动姿态图像帧的人员移动轨迹。
基于上述目的,所述第二行为识别模型还包括动作片段识别模型;对所述人员移动轨迹中的各个行动姿态图像帧分别进行动作片段识别,得到各个行动姿态图像帧对应的动作片段识别结果,包括:
对于每个行动姿态图像帧,将行动姿态图像帧输入所述动作片段识别模型,得到行动姿态图像帧对应于预先规定的每个动作片段分类的动作片段分类概率值;所述动作片段识别模型包括特征提取层和分类层,所述特征提取层用于对输入的行动姿态图像帧进行特征提取,得到行动姿态图像帧的特征图,所述分类层用于根据得到的特征图,确定行动姿态图像帧对应于预先规定的每个动作片段分类的动作片段分类概率值;
根据行动姿态图像帧对应于预先规定的每个动作片段分类的动作片段分类概率值,生成行动姿态图像帧对应的动作片段识别结果。
本发明实施例的又一目的还在于提供一种基于城市管理的无人机智能跟踪监控系统,应用于无人机控制中心,所述系统包括:
第一数据获取模块,用于获取第一无人机针对第一目标对象进行跟踪监控的第一监控视频数据;
数据处理模块,用于通过第一行为识别模型,根据所述第一监控视频数据确定所述第一目标对象的行为类型;若检测到所述第一目标对象的行为类型为预设的待监控行为类型,确定与所述待监控行为类型对应的第二行为识别模型;
第二数据获取模块,用于获取至少一个第二无人机拍摄的第二监控视频数据,通过所述第二行为识别模型检测所述第二监控视频数据中是否存在所述待监控行为类型的第二目标人员;
监控控制模块,用于若存在所述第二目标人员,则控制所述第二无人机对所述第二目标人员进行跟踪监控。
相对于现有技术而言,本申请具有以下有益效果:
本实施例提供的基于城市管理的无人机智能跟踪监控方法及系统,先使用第一行为识别模型对单个的第一目标对象进行普适性动作识别,在确定需要着重监控的行为类型后,再使用第二行为识别模型对第二无人机监控范围内的所有人员进行针对特定行为类型的动作识别。如此,采用关注重点不同的动作识别模型减少了数据处理的整体计算量,从而能迅速及时地发现具有相似行为类型的人员并控制无人机进行跟踪监控。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1是本发明实施例提供的基于城市管理的无人机智能跟踪监控方法的流程示意图。
图2是本发明实施例提供的基于城市管理的无人机智能跟踪监控方法的应用环境示意图。
图3是发明实施例提供的无人机控制中心的架构示意图。
图4是发明实施例提供的基于城市管理的无人机智能跟踪监控系统的示意图。
具体实施方式
经发明人研究发现,在一些城市管理时间中,常存在具有关联的多个目标对象在城市不同的位置实行相似的动作行为的情况,例如,破坏城市基础设施、执行特定伪线行为等。在现有的无人机跟踪监控方案中,一般由无人机对监控范围内的人员进行普适性的整体行为识别,然后确定出存在特定行为人员进行跟踪监控。但是,大范围普适性的行为识别计算量非常大,难以及时有效地发现存在特定行为的人员。有鉴于此,本实施例提供了一种基于城市管理的无人机智能跟踪监控方案,通过对第一目标对象进行行为识别,确定出第一目标对象的特定行为类型,然后有针对性地仅对该特定行为类型对其他人员进行检测,从而可以迅速发现与所述第一目标对象执行相似特定行为第二目标对象进行跟踪监控。下面对本实施例提供的方案进行详细解释。
请参阅图1,图1是本发明实施例提供的基于城市管理的无人机智能跟踪监控方法的流程示意图。本发明实施例中,结合图2所示,所述方法可以由用于管理并调度无人机的无人机控制中心100执行并实现。本实施例中,所述无人机控制中心100可以是基于智慧城市而设立的用于与预设管控区域内的多个无人机200进行远程通信以对无人机200进行远程控制和调度的一个服务平台。示例性地,所述无人机控制中心100可以是,但不限于,具有通信控制能力及大数据分析能力的服务器、计算机设备、云服务中心、机房控制中心、云平台等设备。
下面对上述方法进行详细的描述,本实施例中,所述方法包括以下所述的S100-S500的步骤。
步骤S100,获取第一无人机针对第一目标对象进行跟踪监控的第一监控视频数据。
在本实施例中,第一目标对象可以为已知的需要进行跟踪监控的对象,例如,已知可能要执行伪线动作的目标对象。
步骤S200,通过第一行为识别模型,根据所述第一监控视频数据确定所述第一目标对象的行为类型。
在本实施例中,所述第一行为识别模型可以为适用于针对单个监控对象的、所有行为动作进行识别的模型。
步骤S300,若检测到所述第一目标对象的行为类型为预设的待监控行为类型,确定与所述待监控行为类型对应的第二行为识别模型。
在本实施例中,所述第二行为识别模型可以为适用于针对监控范围内多个监控、某一种特定行为动作进行识别的模型。
在本实施例中,可以针对不同的待监控行为类型预先训练不同的第二行为识别模型,如此,第二行为识别模型可以以较小的计算量针对性地对某一种动作进行快速的识别。
步骤S400,获取至少一个第二无人机拍摄的第二监控视频数据,通过所述第二行为识别模型检测所述第二监控视频数据中是否存在所述待监控行为类型的第二目标人员。
步骤S500,若存在,则控制所述第二无人机对所述第二目标人员进行跟踪监控。
基于上述设计,本实施例提供的基于城市管理的无人机智能跟踪监控方法中,先使用第一行为识别模型对单个的第一目标对象进行普适性动作识别,在确定需要着重监控的行为类型后,再使用第二行为识别模型对第二无人机监控范围内的所有人员进行针对特定行为类型的动作识别。如此,采用关注重点不同的动作识别模型减少了数据处理的整体计算量,从而能迅速及时地发现具有相似行为类型的人员并控制无人机进行跟踪监控。
下面将对本发明实施例的上述各步骤的详细实现方法通过示例进行详细说明。
在本实施例中,所述第一行为识别模型和所述第二行为识别模型可以为识别动作着重点不同的模型。
例如,针对步骤S200,通过第一行为识别模型,根据所述第一监控视频数据确定所述第一目标对象的行为类型可以通过以下示例性实施方式实现。
步骤S210,根据所述第一监控视频数据确定所述第一目标对象的行为信息,所述行为信息包括行动轨迹和/或交互对象信息。
步骤S220,通过第一行为识别模型,根据所述第一目标对象的行为信息确定所述第一目标对象的行为类型。
由于所述第一无人机已经在执行所述第一目标对象的跟踪监控动作,因此可以获取所述第一目标对象的行动轨迹和/或交互对象信息,然后根据所述行动轨迹和/或交互对象信息对所述第一目标对象的所有动作进行普适性识别,以确定所述第一目标对象的行为类型。
而针对步骤S400中,通过所述第二行为识别模型检测所述第二监控视频数据中是否存在所述待监控行为类型的第二目标人员,可以根据所述第二行为识别模型对所述第二监控视频数据进行图像动作识别,确定所述第二监控视频数据中是否存在所述待监控行为类型的第二目标人员。
由于第二无人机的任务是识别出监控范围类具有所述待监控行为类型的第二目标人员然后加以跟踪监控,因此在本实施例中,针对第二无人机获得第二视频,可以采用第二行为识别模型对整个监控画面进行针所述待监控动作的识别分析,从而迅速确定是否存在第二目标人员。
基于上述设计,针对监控任务不同的第一无人机和第二无人机采集的监控识别,通过识别着重点不同的第一行为识别模型和第二行为模型进行动作行为的识别,可以减少整个行为识别动作的整体数据处理量,从而迅速发现具有相似特定行为动作的目标人员并加以跟踪监控。
基于上述内容,所述第一行为识别模型包括第一数据处理子模型、第二数据处理子模型及第三数据处理子模型。在步骤S220,所述通过第一行为识别模型,根据所述第一目标对象的行为信息预测所述第一目标对象的行为类型中,可以包括:
步骤S2201,获取第一目标对象的行动轨迹和交互对象信息,所述行动轨迹中包括依照时序排列的多个轨迹分片。
所述行动轨迹可以为按照时序记录的第一目标用户的行动位置移动序列,所述行动轨迹中包含依照时序记录的多个轨迹分片。所述交互对象信息可以包括与所述第一目标对象有过社交互动的其他人员的信息,例如,与第一目标对象进行过物品传递、交谈、肢体接触等等。
步骤S2202,对所述轨迹分片进行向量转换,获得所述轨迹分片对应的局部行动特征。
在本实施例中,对轨迹分片进行向量转换的方法具有多种,比如,可以通过降维、算子等方式进行向量转换。
例如,可以采用主成分分析(Principal ComponentAnalysis,PCA)、独立成分分析(Independent Component Analysis,ICA)、线性判别分析(Linear DiscriminantAnalysis,LDA)等方式。
步骤S2203,通过所述第一数据处理子模型根据所述轨迹分片对应的局部行动特征、以及所述轨迹分片的前一轨迹分片,确定所述轨迹分片对应的连续轨迹特征。
步骤S2204,根据所述轨迹分片对应的局部行动特征,以及所述轨迹分片的前一轨迹分片,预测所述轨迹分片对应的前向连续轨迹特征;
步骤S2205,根据所述轨迹分片对应的局部行动特征,以及所述轨迹分片的后一轨迹分片,预测所述轨迹分片对应的后向连续轨迹特征;
步骤S2206,对所述前向连续轨迹特征和所述后向连续轨迹特征进行特征融合,获得所述第一目标对象的行动轨迹特征。
步骤S2207,根据所述第一目标的对象交互对象信息构建交互拓扑图,所述交互拓扑图中包括人员节点和物品节点,所述人员节点表征第一目标对象及与所述第一目标对象相关的人员,所述物品节点表征人员之间流通的物品。
在本实施例中,可以根据与所述第一目标对象有交互关系的人员以物品构建相应的人员节点和物品节点,将有关联的节点进行连接获得所述交互拓扑图。有连接关系的节点(即相邻的节点)为存在交互关系的人员或者和人员有交互关系的物品。
例如,第一目标对象为人员A,人员B与该第一目标对象有过社交交互关系,则人员A和人员B对应的节点之间具有连线。如果人员A和人员B之间存在物品C的传递,则物品C分别与人员A和人员B之间具有连线。
步骤S2208,根据所述交互拓扑图中的人员节点和物品节点,通过第二数据处理子模型确定所述第一目标对象的交互关系特征。
步骤S2209,对所述行动轨迹特征和所述交互关系特征进行特征融合,获得融合行为特征。
步骤S2210,采用所述第三数据处理子模型的对所述融合行为特征进行加权求和计算并进行归一化处理,获得行为分类置信值。
步骤S2211,根据所述行为分类置信值确定所述第一目标对象的行为类型。
具体地,在本实施例中,所述第一数据处理子模型包括输入层、隐层和输出层。例如,所述第一数据处理子模型可以是一种循环神经网络(Recurrent Neural Network,RNN)模型,如,第一数据处理子模型可以为任意一种单向的循环神经网络模型。
可选地,在一些实施例中,为了检测出信息片段序列中信息片段之间的长期依赖信息,可以采用长短期记忆网络(Long Short-Term Memory,LSTM)作为第一数据处理子模型的循环单元,所述长短期记忆网络可以包含了一个用于输出的、三个用于控制的全连接层、遗忘门、输入门、输出门、长期记忆状态向量及短期记忆状态向量。
因此在步骤S2203中,所述过所述第一数据处理子模型根据所述轨迹分片对应的局部行动特征、以及所述轨迹分片的前一轨迹分片,确定所述轨迹分片对应的连续轨迹特征,可以包括:
通过所述输入层对所述轨迹分片对应的局部行动特征进行第一加权处理,获得所述轨迹分片的中间向量。
确定所述前一轨迹分片对应的隐藏向量,以及所述隐层上一时刻的层状态。
在一些实施例中,可以采用门控循环单元网络(Gated Recurrent Unit,GRU)作为正向预测模型的循环单元,其中,GRU类似于LSTM结构,但GRU合并两条状态向量为一条状态向量,且合并了遗忘门和输入门,以及没有输出门,但是多了一个对状态输入进行过滤的门。
因此在步骤S2203中,所述过所述第一数据处理子模型根据所述轨迹分片对应的局部行动特征、以及所述轨迹分片的前一轨迹分片,确定所述轨迹分片对应的连续轨迹特征,还可以包括:
根据所述隐层上一时刻的层状态、所述前一轨迹分片对应的隐藏向量、所述轨迹分片的中间向量更新隐层当前时刻的层状态。
根据所述隐层当前时刻的层状态和所述前一轨迹分片对应的隐藏向量,对所述轨迹分片的中间向量、前一轨迹分片对应的隐藏向量进行加权求和,获得所述轨迹分片对应的隐藏向量。
在输出层对所述轨迹分片对应的隐藏向量进行第三加权处理,获得所述轨迹分片对应的连续轨迹特征。
根据所述交互拓扑图中的人员节点和物品节点,通过第二数据处理子模型确定所述第一目标对象的交互关系特征,可以通过以下一种方式实现。
(一)、根据所述交互拓扑图获得所述第一目标对象的对应节点的邻居节点;根据所述第一目标对象的对应节点的邻居节点计算获得聚合特征;根据所述聚合特征确定所述第一目标对象的交互关系特征。
具体地,在本实施例中,可以通过预先训练的机器学习模型来进行节点关系抽取(Relationextraction),例如,可以利用图神经网络(Graph Neural Network,GNN)、图嵌入(GraphEmbedding)等方式进行关系抽取,比如,采用图卷积神经网络(GraphConvolutionalNetwork,GCN)、DeepWalk、node2vec,等等。
在这种方式中,第二数据处理子模型可以为图神经网络,例如,可以为GraphSAGE网络。
(二)、在所述交互拓扑图中确定第一目标对象的对应节点、以及所述第一目标对象的对应节点的邻居节点;对所述邻居节点进行随机游走采样,获得所述第一目标对象的对应节点的游走节点序列;根据所述游走节点序列计算所述第一目标对象的对应节点的节点游走特征;根据所述节点游走特征确定所述第一目标对象的交互关系特征。
在这种方式中,第二数据处理子模型可以采用节点嵌入算法,例如,可以采用DeepWalk算法。
基于上述内容,所述第二行为识别模型包括连续动作识别模型,在步骤S400,根据所述第二行为识别模型对所述第二监控视频数据进行图像动作识别,确定所述第二监控视频数据中是否存在所述待监控行为类型的第二目标人员中,可以包括:
步骤S410,从所述第二监控视频数据中提取人员移动轨迹。所述人员移动轨迹包括由同一人员的多个行动姿态图像帧组成的姿态动作序列。
步骤S420,对所述人员移动轨迹中的各个行动姿态图像帧分别进行动作片段识别,得到各个行动姿态图像帧对应的动作片段识别结果。所述动作片段识别结果包括于每个动作片段预先规定的动作片段分类和对应分类的动作片段分类概率值。
步骤S430,根据所述人员移动轨迹中的各个行动姿态图像帧对应的动作片段识别结果,生成所述人员移动轨迹对应的动作片段概率矩阵。所述动作片段概率矩阵中包括各个行动姿态图像帧对应的每个动作片段分类的动作片段分类概率值。
步骤S440,将所述人员移动轨迹对应的动作片段概率矩阵输入已训练的连续动作识别模型,获得所述人员移动轨迹对应的动作片段分类。
步骤S450,若所述人员移动轨迹对应的动作片段分类为目标动作片段分类,则从所述人员移动轨迹中选取出部分或者全部姿态动作序列作为目标姿态动作序列。其中,若所述人员移动轨迹中包含的行动姿态图像帧少于预设帧数,且/或所述人员移动轨迹对应的除目标动作片段分类之外的其他动作片段分类的动作片段分类概率值均小于设定阈值,则从所述人员移动轨迹中选取全部姿态动作序列作为所述目标姿态动作序列。否则,从所述人员移动轨迹的各个行动姿态图像帧中选取目标动作片段分类的动作片段分类概率值最大的目标行动姿态图像帧。从所述人员移动轨迹中选取包含所述目标行动姿态图像帧的部分行动姿态图像帧组成目标姿态动作序列。
步骤S460,根据所述目标姿态动作序列确定目标动作片段是否为待监控行为类型。
具体地,在所述第二监控视频数据中可能包含多个人员,在本实施例中,可以针对每个人员得到一个人员移动轨迹,即,针对不同人员对应不同的人员移动轨迹。甚至可以针对同一人员在不同场景下对应不同的人员移动轨迹。例如,针对一个所述第二监控视频数据中的人员A在街区M和在街区N就可以确定出不同的人员移动轨迹。步骤S410,从所述第二监控视频数据中提取人员移动轨迹中,可以包括:
步骤S411,对于所述第二监控视频数据中的各个图像帧,获取所述图像帧中的人体图像区域。
步骤S412,提取所述人体图像区域的外形特征。
所述第二监控视频数据由多个图像帧组成,每个图像帧具有对应的时间戳信息。在一种可能的实现方式中,可以对视频中的每个图像帧均进行人体检测,确定出每个图像帧中的人体图像区域,并从每个图像帧中分割出仅包含人体图像区域的行动姿态图像帧。在另一种可能的实现方式中,也可以对视频进行密集抽帧,即每隔多个图像帧抽取一个图像帧,并仅对抽取的图像帧进行人体检测,确定出图像帧中的人体图像区域,并从图像帧中分割出仅包含人体图像区域的行动姿态图像帧。
在本实施例中,可以采用人体检测算法对一个图像帧进行人体检测,以确定出该图像帧中的人体图像区域;或者,可以采用人体检测网络模型对一个图像帧进行人体检测,确定出该图像帧中的人体图像区域。例如,人体检测网络模型可以采用多任务卷积神经网络 (Multi-task ConvolutionalNeural Networks,MtCNN)模型,MtCNN模型可以:1、分类任务,即采用滑动窗口遍历输入的图像帧,并对每个滑动窗口对应的区域进行人体部分或非人体部分分类;2、回归任务,即确定人体图像区域在图像帧中的位置,并在对应位置标出人体检测框;3、特征点定位任务,即确定出多个外形特征点的位置。若一个图像帧中包括多个人员,可以从该图像帧中获取多个人体图像区域及每个人体图像区域对应的行动姿态图像帧。
步骤S413,对于已检测到的人员移动轨迹,提取人员移动轨迹中的每个行动姿态图像帧的外形特征,并将人员移动轨迹中所有行动姿态图像帧对应的第一特征距离的平均值,作为人员移动轨迹与所述人体图像区域的第二特征距离。或者,将人员移动轨迹中每个行动姿态图像帧对应的第一特征距离中的最小值,作为人员移动轨迹与所述人体图像区域的第二特征距离。
可选地,在本实施例中可以采用行人重识别(Person Re-identification,ReID)模型提取人体图像区域的外形特征,以及人员移动轨迹中的每个行动姿态图像帧的外形特征。行人重识别模型用于对输入的图像进行外形特征提取,获得相应的特征向量用于表征人员的外形特征。
然后可以根据每个行动姿态图像帧的外形特征与人体图像区域的外形特征的第一特征距离,确定该人员移动轨迹与人体图像区域的第二特征距离。具体地,人体图像区域的外形特征和每个行动姿态图像帧的外形特征均为一个特征向量。对于人员移动轨迹中的任意一个行动姿态图像帧,可以确定该行动姿态图像帧的外形特征与人体图像区域的外形特征之间的余弦距离或欧式距离,可以将得到的余弦距离或欧式距离作为该行动姿态图像帧的外形特征与人体图像区域的外形特征的第一特征距离。其中,特征距离越小,相似度越高。
由于在人员移动轨迹中,每个行动姿态图像帧可能具有不同的拍摄角度,各行动姿态图像帧与获取的人体图像区域的外形特征的第一特征距离可能不相同。在上述方案中,可以获得某个人员移动轨迹中的每个行动姿态图像帧的外形特征与获取的人体图像区域的外形特征之间的第一特征距离。在一种可能的实现方式中,可以将该人员移动轨迹中所有行动姿态图像帧对应的第一特征距离的平均值,作为该人员移动轨迹与人体图像区域的第二特征距离。在另一些实施例中,可以将该人员移动轨迹中每个行动姿态图像帧对应的第一特征距离中的最小值,作为该人员移动轨迹与人体图像区域的第二特征距离。
步骤S414,确定所述人体图像区域在所述图像帧中的位置信息。
步骤S415,对于已检测到的人员移动轨迹,确定人员移动轨迹中的行动姿态图像帧在对应的图像帧中的位置信息,并根据行动姿态图像帧的位置信息与所述人体图像区域的位置信息之间的位置距离,确定人员移动轨迹与所述人体图像区域的活动距离。
步骤S416,将与所述人体图像区域的第二特征距离满足第一阈值,且与所述人体图像区域的活动距离满足第二阈值的人员移动轨迹,作为满足匹配条件的人员移动轨迹。
对于一个人员移动轨迹,可以确定最近一次添加至人员移动轨迹中的行动姿态图像帧在对应的图像帧中的位置信息,确定最近一次添加至人员移动轨迹中的行动姿态图像帧的位置信息与人体图像区域的位置信息之间的位置距离。由于确定最近一次添加至人员移动轨迹中的行动姿态图像帧对应的第一图像帧是与人体图像区域对应的第二图像帧相邻的图像帧或最接近的图像帧,因此,可以将最近一次添加至人员移动轨迹中的行动姿态图像帧的位置信息与人体图像区域的位置信息之间的位置距离,作为人员移动轨迹与人体图像区域之间的活动距离。
如此,可以确定已检测到的每一个人员移动轨迹与人体图像区域的特征距离和活动距离。如果一个人员移动轨迹与人体图像区域的特征距离满足设定的外观阈值,并且该人员移动轨迹与人体图像区域的活动距离满足第二阈值,则可以认为该人员移动轨迹满足匹配条件。
如果一个人员移动轨迹与人体图像区域之间的特征距离小于或等于第一阈值,说明该人员移动轨迹与人体图像区域中的人体图像属于同一人员。如果一个人员移动轨迹与人体图像区域之间的活动距离小于或等于第二阈值,说明相对于该人员移动轨迹,该人体图像区域对应的人员的移动距离在正常范围内,该人体图像区域与该人员移动轨迹属于同一的运动轨迹。如果一个人员移动轨迹与人体图像区域之间的活动距离大于第二阈值,说明相对于该人员移动轨迹,该人体图像区域对应的人员的移动距离超出正常范围,该人体图像区域与该人员移动轨迹不属于同一人员在相同场景下的运动轨迹。
步骤S417,若已检测到的人员移动轨迹中存在满足匹配条件的人员移动轨迹,将所述人体图像区域对应的行动姿态图像帧添加至满足匹配条件的人员移动轨迹中。
若已检测到的人员移动轨迹中存在满足匹配条件的人员移动轨迹,说明该人员移动轨迹中的人体图像与人体图像区域属于同一人员在相同场景下的人体图像。将人体图像区域对应的行动姿态图像帧添加至满足匹配条件的人员移动轨迹中。
步骤S418,若已检测到的人员移动轨迹中不存在满足匹配条件的人员移动轨迹,则新建包含所述人体图像区域对应的行动姿态图像帧的人员移动轨迹。
若已检测到的人员移动轨迹中不存在满足匹配条件的人员移动轨迹,说明该人体图像区域属于一个新的人员,或者是已有人员在新场景下的人体图像。从对应的图像帧中分割出仅包含该人体图像区域的行动姿态图像帧,新建包含该人体图像区域对应的行动姿态图像帧的人员移动轨迹。
在上述方案中,所述第二行为识别模型还可以包括动作片段识别模型,在本实施例中,步骤S420,对所述人员移动轨迹中的各个行动姿态图像帧分别进行动作片段识别,得到各个行动姿态图像帧对应的动作片段识别结果中,可以包括:
步骤S421,对于每个行动姿态图像帧,将行动姿态图像帧输入已训练的动作片段识别模型,得到行动姿态图像帧对应于预先规定的每个动作片段分类的动作片段分类概率值;所述动作片段识别模型包括特征提取层和分类层,所述特征提取层用于对输入的行动姿态图像帧进行特征提取,得到行动姿态图像帧的特征图,所述分类层用于根据得到的特征图,确定行动姿态图像帧对应于预先规定的每个动作片段分类的动作片段分类概率值。
步骤S422,根据行动姿态图像帧对应于预先规定的每个动作片段分类的动作片段分类概率值,生成行动姿态图像帧对应的动作片段识别结果。
在本实施例中,可以采用动作片段识别模型对人员移动轨迹中的每个行动姿态图像帧进行动作片段识别。具体地说,可以从人员移动轨迹中任意抽取一个行动姿态图像帧输入动作片段识别模型,动作片段识别模型可以输出该行动姿态图像帧对应于预先规定的各个动作片段分类的动作片段分类概率值,然后再从人员移动轨迹中抽取下一个行动姿态图像帧输入动作片段识别模型进行检测,直至对人员移动轨迹中的每个行动姿态图像帧均检测完毕为止;或者,可以将人员移动轨迹中的行动姿态图像帧依次输入动作片段识别模型进行检测,得到每个行动姿态图像帧对应于预先规定的各个动作片段分类的动作片段分类概率值。
其中,预先规定的动作片段分类可以是在训练动作片段识别模型时根据需要预先规定的,对于输入动作片段识别模型的行动姿态图像帧,动作片段识别模型可以输出该行动姿态图像帧对应于不同动作片段分类的动作片段分类概率值。预先规定的动作片段分类和行动姿态图像帧对应于每个动作片段分类的动作片段分类概率值组成该行动姿态图像帧的动作片段识别结果。在本实施例中,可以采用机器学习建立动作片段识别模型,动作片段识别模型通过对学习可以对输入的行动姿态图像帧进行识别,输出行动姿态图像帧对应于预先规定的每个动作片段分类的动作片段分类概率值。
可选地,在本实施例中,所述动作片段识别模型的训练过程,包括:
获取第一样本数据集。所述第一样本数据集中包括多张人体样本图像,每张人体样本图像均标注有动作片段分类标签。
将从所述第一样本数据集中抽取的人体样本图像输入待训练的动作片段识别模型,得到人体样本图像的动作片段识别结果。
根据人体样本图像的动作片段识别结果与人体样本图像的动作片段分类标签,确定损失值。
根据损失值对所述动作片段识别模型的参数进行调整,直至所述损失值收敛至预设的期望值为止,得到已训练的动作片段识别模型。
可选地,在本实施例中,所述连续动作识别模型的训练过程,包括:
获取第二样本数据集。所述第二样本数据集中包括多个姿态动作序列,每个姿态动作序列均标注有动态动作片段分类标签。
从所述第二样本数据集中抽取姿态动作序列。
获取抽取的姿态动作序列中的每个人体图像对应的动作片段识别结果,并根据每个人体图像对应的动作片段识别结果,生成姿态动作序列对应的动作片段概率矩阵。
将姿态动作序列对应的动作片段概率矩阵输入待训练的连续动作识别模型,得到姿态动作序列的行为动作识别结果。
根据姿态动作序列的行为动作识别结果与姿态动作序列的动态动作片段分类标签,确定损失值。
根据损失值对所述连续动作识别模型的参数进行调整,直至所述损失值收敛至预设的期望值为止,得到已训练的连续动作识别模型。
进一步地,由于产生相似特定行为的人员可能一定程度上存在社交接触,在一种可能的实现方式中,可以根据所述第一目标对象的行动轨迹确定所述第一目标对象的活动区域,然后根据所述活动区域控制至少一个所述第二无人机获取所述第二监控视频数据。如此,可以减少所述第二无人机的布控范围。在另一种可能的实现方式中,也可以通过其他方式确定与所述第一目标对象具有社交关联关系的第三目标对象,然后根据所述第三目标对象的活动范围控制至少一个所述第二无人机获取所述第二监控视频数据。
如图3所示,是本发明实施例提供的无人机控制中心100的架构示意图。本实施例中,所述无人机控制中心100可以包括无人机智能跟踪监控系统110、机器可读存储介质120和处理器130。
本实施例中,机器可读存储介质120与处理器130可以位于无人机控制中心100中且二者分离设置。机器可读存储介质120也可以是独立于无人机控制中心100并由处理器130访问。无人机智能跟踪监控系统110可以包括存储在机器可读存储介质120的多个功能模块,例如所述无人机智能跟踪监控系统110包括的各软件功能模块。当处理器130执行无人机智能跟踪监控系统110中的软件功能模块时,以实现前述方法实施例提供的区块链大数据处理方法。
本实施例中,无人机控制中心100可以包括一个或多个处理器130。处理器130可以处理与服务请求相关的信息和/或数据以执行本发明中描述的一个或多个功能。在一些实施例中,处理器130可以包括一个或多个处理引擎(例如,单核处理器或多核处理器)。仅仅举个例子,处理器130可以包括一个或多个硬件处理器,例如中央处理器CPU、特定应用集成电路ASIC、专用指令集处理器ASIP、图形处理器GPU、物理运算处理单元PPU、数字信号处理器DSP、现场可以程序门阵列FPGA、可以程序逻辑装置PLD、控制器、微控制器单元、精简指令集计算机RISC、微处理器等中的一种,或类似或其任意组合。
机器可读存储介质120可以存储数据和/或指令。在一些实施例中,机器可读存储介质120可以存储从无人机200获得的数据或资料。在一些实施例中,机器可读存储介质120可以存储供无人机控制中心100执行或使用的数据和/或指令,无人机控制中心100可以通过执行或使用所述数据和/或指令以实现本申请描述的示例性方法。在一些实施例中,机器可读存储介质120可以包括大容量存储器、可以移动存储器、挥发性读写内存、只读存储器ROM等或类似或上述举例的任意组合。示例性的大容量存储器可以包括磁盘、光盘、固态磁盘等。示例性的可以移动存储器可以包括快闪驱动器、软盘、光盘、存储卡、压缩磁盘、磁带等。示例性的挥发性读写内存可以包括随机存取内存RAM。示例性的随机存取内存可以包括动态RAM、双倍速率同步动态RAM、静态RAM、晶闸管RAM和零电容RAM等。示例性的ROM可以包括掩蔽型ROM、可编程ROM、可擦除可编程ROM、电子可擦除可编程ROM、压缩磁盘ROM和数字通用磁盘ROM等。
如图4所示,是图3中所述的无人机智能跟踪监控系统110的功能模块图,本实施例中,所述无人机智能跟踪监控系统110可以包括第一数据获取模块111、数据处理模块112、第二数据获取模块113及监控控制模块114。
第一数据获取模块111用于获取第一无人机针对第一目标对象进行跟踪监控的第一监控视频数据。
本实施例中,所述第一数据获取模块111可用于执行图1所示的步骤S100,关于所述第一数据获取模块111的具体描述可参对所述步骤S100的描述。
数据处理模块112用于通过第一行为识别模型,根据所述第一监控视频数据确定所述第一目标对象的行为类型。若检测到所述第一目标对象的行为类型为预设的待监控行为类型,确定与所述待监控行为类型对应的第二行为识别模型。
本实施例中,所述数据处理模块112可用于执行图1所示的步骤S200,关于所述数据处理模块112的具体描述可参对所述步骤S200的描述。
第二数据获取模块113用于获取至少一个第二无人机拍摄的第二监控视频数据,通过所述第二行为识别模型检测所述第二监控视频数据中是否存在所述待监控行为类型的第二目标人员。
本实施例中,所述第二数据获取模块113可用于执行图1所示的步骤S300和S400,关于所述第二数据获取模块113的具体描述可参对所述步骤S300和S400的描述。
监控控制模块114用于若存在所述第二目标人员,则控制所述第二无人机对所述第二目标人员进行跟踪监控。
本实施例中,所述监控控制模块114可用于执行图1所示的步骤S500,关于所述监控控制模块114的具体描述可参对所述步骤S500的描述。
综上所述,本实施例提供的基于城市管理的无人机智能跟踪监控方法及系统,先使用第一行为识别模型对单个的第一目标对象进行普适性动作识别,在确定需要着重监控的行为类型后,再使用第二行为识别模型对第二无人机监控范围内的所有人员进行针对特定行为类型的动作识别。如此,采用关注重点不同的动作识别模型减少了数据处理的整体计算量,从而能迅速及时地发现具有相似行为类型的人员并控制无人机进行跟踪监控。
以上所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。通常在附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,在附图中提供的本发明的实施例的详细描述并非旨在限制本发明的保护范围,而仅仅是表示本发明的选定实施例。因此,本发明的保护范围应以权利要求的保护范围为准。此外,基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下可获得的所有其它实施例,都应属于本发明保护的范围。

Claims (8)

1.一种基于城市管理的无人机智能跟踪监控方法,其特征在于,所述方法包括:
获取第一无人机针对第一目标对象进行跟踪监控的第一监控视频数据;
通过第一行为识别模型,根据所述第一监控视频数据确定所述第一目标对象的行为类型;
若检测到所述第一目标对象的行为类型为预设的待监控行为类型,确定与所述待监控行为类型对应的第二行为识别模型;
获取至少一个第二无人机拍摄的第二监控视频数据,通过所述第二行为识别模型检测所述第二监控视频数据中是否存在所述待监控行为类型的第二目标人员;
若存在,则控制所述第二无人机对所述第二目标人员进行跟踪监控;
其中,所述通过第一行为识别模型,根据所述第一监控视频数据确定所述第一目标对象的行为类型的步骤,包括:
根据所述第一监控视频数据确定所述第一目标对象的行为信息,所述行为信息包括行动轨迹和/或交互对象信息;
通过第一行为识别模型,根据所述第一目标对象的行为信息确定所述第一目标对象的行为类型;
其中,所述第一行为识别模型包括第一数据处理子模型、第二数据处理子模型及第三数据处理子模型;所述通过第一行为识别模型,根据所述第一目标对象的行为信息预测所述第一目标对象的行为类型的步骤,包括:
获取第一目标对象的行动轨迹和交互对象信息,所述行动轨迹中包括依照时序排列的多个轨迹分片;
对所述轨迹分片进行向量转换,获得所述轨迹分片对应的局部行动特征;
通过所述第一数据处理子模型根据所述轨迹分片对应的局部行动特征、以及所述轨迹分片的前一轨迹分片,确定所述轨迹分片对应的连续轨迹特征;
根据所述轨迹分片对应的局部行动特征,以及所述轨迹分片的前一轨迹分片,预测所述轨迹分片对应的前向连续轨迹特征;
根据所述轨迹分片对应的局部行动特征,以及所述轨迹分片的后一轨迹分片,预测所述轨迹分片对应的后向连续轨迹特征;
对所述前向连续轨迹特征和所述后向连续轨迹特征进行特征融合,获得所述第一目标对象的行动轨迹特征;
根据所述第一目标的对象交互对象信息构建交互拓扑图,所述交互拓扑图中包括人员节点和物品节点,所述人员节点表征第一目标对象及与所述第一目标对象相关的人员,所述物品节点表征人员之间流通的物品;
根据所述交互拓扑图中的人员节点和物品节点,通过第二数据处理子模型确定所述第一目标对象的交互关系特征;
对所述行动轨迹特征和所述交互关系特征进行特征融合,获得融合行为特征;
采用所述第三数据处理子模型的对所述融合行为特征进行加权求和计算并进行归一化处理,获得行为分类置信值;
根据所述行为分类置信值确定所述第一目标对象的行为类型。
2.根据权利要求1所述的方法,其特征在于,所述第一数据处理子模型包括输入层、隐层和输出层,所述过所述第一数据处理子模型根据所述轨迹分片对应的局部行动特征、以及所述轨迹分片的前一轨迹分片,确定所述轨迹分片对应的连续轨迹特征的步骤,包括:
通过所述输入层对所述轨迹分片对应的局部行动特征进行第一加权处理,获得所述轨迹分片的中间向量;
确定所述前一轨迹分片对应的隐藏向量,以及所述隐层上一时刻的层状态;
根据所述隐层上一时刻的层状态、所述前一轨迹分片对应的隐藏向量、所述轨迹分片的中间向量更新隐层当前时刻的层状态;
根据所述隐层当前时刻的层状态和所述前一轨迹分片对应的隐藏向量,对所述轨迹分片的中间向量、前一轨迹分片对应的隐藏向量进行加权求和,获得所述轨迹分片对应的隐藏向量;
在输出层对所述轨迹分片对应的隐藏向量进行第三加权处理,获得所述轨迹分片对应的连续轨迹特征。
3.根据权利要求1所述的方法,其特征在于,所述根据所述交互拓扑图中的人员节点和物品节点,通过第二数据处理子模型确定所述第一目标对象的交互关系特征的步骤,包括:
根据所述交互拓扑图获得所述第一目标对象的对应节点的邻居节点;根据所述第一目标对象的对应节点的邻居节点计算获得聚合特征;根据所述聚合特征确定所述第一目标对象的交互关系特征;或
在所述交互拓扑图中确定第一目标对象的对应节点、以及所述第一目标对象的对应节点的邻居节点;对所述邻居节点进行随机游走采样,获得所述第一目标对象的对应节点的游走节点序列;根据所述游走节点序列计算所述第一目标对象的对应节点的节点游走特征;根据所述节点游走特征确定所述第一目标对象的交互关系特征;或
基于所述轨迹分片对应的局部行动特征,以及所述轨迹分片的前一轨迹分片,预测所述轨迹分片对应的前向连续轨迹特征;基于所述轨迹分片对应的局部行动特征,以及所述轨迹分片的后一轨迹分片,预测所述轨迹分片对应的后向连续轨迹特征;对所述前向连续轨迹特征和所述后向连续轨迹特征进行特征融合,获得所述第一目标对象的行动轨迹特征。
4.根据权利要求1所述的方法,其特征在于,根据所述第二行为识别模型检测所述第二监控视频数据中是否存在所述待监控行为类型的第二目标人员的步骤,包括:
根据所述第二行为识别模型对所述第二监控视频数据进行图像动作识别,确定所述第二监控视频数据中是否存在所述待监控行为类型的第二目标人员。
5.根据权利要求4所述的方法,其特征在于,所述第二行为识别模型包括连续动作识别模型;所述根据所述第二行为识别模型对所述第二监控视频数据进行图像动作识别,确定所述第二监控视频数据中是否存在所述待监控行为类型的第二目标人员的步骤,包括:
从所述第二监控视频数据中提取人员移动轨迹;所述人员移动轨迹包括由同一人员的多个行动姿态图像帧组成的姿态动作序列;
对所述人员移动轨迹中的各个行动姿态图像帧分别进行动作片段识别,得到各个行动姿态图像帧对应的动作片段识别结果;所述动作片段识别结果包括预先规定的动作片段分类和对应于每个动作片段分类的动作片段分类概率值;
根据所述人员移动轨迹中的各个行动姿态图像帧对应的动作片段识别结果,生成所述人员移动轨迹对应的动作片段概率矩阵;所述动作片段概率矩阵中包括各个行动姿态图像帧对应的每个动作片段分类的动作片段分类概率值;
将所述人员移动轨迹对应的动作片段概率矩阵输入所述连续动作识别模型,获得所述人员移动轨迹对应的动作片段分类;
若所述人员移动轨迹对应的动作片段分类为目标动作片段分类,则从所述人员移动轨迹中选取出部分或者全部姿态动作序列作为目标姿态动作序列;其中,若所述人员移动轨迹中包含的行动姿态图像帧少于预设帧数,且/或所述人员移动轨迹对应的除目标动作片段分类之外的其他动作片段分类的动作片段分类概率值均小于设定阈值,则从所述人员移动轨迹中选取全部姿态动作序列作为所述目标姿态动作序列;否则,从所述人员移动轨迹的各个行动姿态图像帧中选取目标动作片段分类的动作片段分类概率值最大的目标行动姿态图像帧;从所述人员移动轨迹中选取包含所述目标行动姿态图像帧的部分行动姿态图像帧组成目标姿态动作序列;
根据所述目标姿态动作序列确定目标动作片段是否为待监控行为类型。
6.根据权利要求5所述的方法,其特征在于,从所述第二监控视频数据中提取人员移动轨迹,包括:
对于所述第二监控视频数据中的各个图像帧,获取所述图像帧中的人体图像区域;
提取所述人体图像区域的外形特征;
对于已检测到的人员移动轨迹,提取人员移动轨迹中的每个行动姿态图像帧的外形特征,并将人员移动轨迹中所有行动姿态图像帧对应的第一特征距离的平均值,作为人员移动轨迹与所述人体图像区域的第二特征距离;或者,将人员移动轨迹中每个行动姿态图像帧对应的第一特征距离中的最小值,作为人员移动轨迹与所述人体图像区域的第二特征距离;
确定所述人体图像区域在所述图像帧中的位置信息;
对于已检测到的人员移动轨迹,确定人员移动轨迹中的行动姿态图像帧在对应的图像帧中的位置信息,并根据行动姿态图像帧的位置信息与所述人体图像区域的位置信息之间的位置距离,确定人员移动轨迹与所述人体图像区域的活动距离;
将与所述人体图像区域的第二特征距离满足第一阈值,且与所述人体图像区域的活动距离满足第二阈值的人员移动轨迹,作为满足匹配条件的人员移动轨迹;
若已检测到的人员移动轨迹中存在满足匹配条件的人员移动轨迹,将所述人体图像区域对应的行动姿态图像帧添加至满足匹配条件的人员移动轨迹中;
若已检测到的人员移动轨迹中不存在满足匹配条件的人员移动轨迹,则新建包含所述人体图像区域对应的行动姿态图像帧的人员移动轨迹。
7.根据权利要求5所述的方法,其特征在于,所述第二行为识别模型还包括动作片段识别模型;对所述人员移动轨迹中的各个行动姿态图像帧分别进行动作片段识别,得到各个行动姿态图像帧对应的动作片段识别结果,包括:
对于每个行动姿态图像帧,将行动姿态图像帧输入所述动作片段识别模型,得到行动姿态图像帧对应于预先规定的每个动作片段分类的动作片段分类概率值;所述动作片段识别模型包括特征提取层和分类层,所述特征提取层用于对输入的行动姿态图像帧进行特征提取,得到行动姿态图像帧的特征图,所述分类层用于根据得到的特征图,确定行动姿态图像帧对应于预先规定的每个动作片段分类的动作片段分类概率值;
根据行动姿态图像帧对应于预先规定的每个动作片段分类的动作片段分类概率值,生成行动姿态图像帧对应的动作片段识别结果。
8.一种基于城市管理的无人机智能跟踪监控系统,其特征在于,应用于无人机控制中心,所述系统包括:
第一数据获取模块,用于获取第一无人机针对第一目标对象进行跟踪监控的第一监控视频数据;
数据处理模块,用于通过第一行为识别模型,根据所述第一监控视频数据确定所述第一目标对象的行为类型;若检测到所述第一目标对象的行为类型为预设的待监控行为类型,确定与所述待监控行为类型对应的第二行为识别模型;
第二数据获取模块,用于获取至少一个第二无人机拍摄的第二监控视频数据,通过所述第二行为识别模型检测所述第二监控视频数据中是否存在所述待监控行为类型的第二目标人员;
监控控制模块,用于若存在所述第二目标人员,则控制所述第二无人机对所述第二目标人员进行跟踪监控;
其中,所述数据处理模块具体用于:
根据所述第一监控视频数据确定所述第一目标对象的行为信息,所述行为信息包括行动轨迹和/或交互对象信息;
通过第一行为识别模型,根据所述第一目标对象的行为信息确定所述第一目标对象的行为类型;
其中,所述第一行为识别模型包括第一数据处理子模型、第二数据处理子模型及第三数据处理子模型;所述数据处理模块具体用于:
获取第一目标对象的行动轨迹和交互对象信息,所述行动轨迹中包括依照时序排列的多个轨迹分片;
对所述轨迹分片进行向量转换,获得所述轨迹分片对应的局部行动特征;
通过所述第一数据处理子模型根据所述轨迹分片对应的局部行动特征、以及所述轨迹分片的前一轨迹分片,确定所述轨迹分片对应的连续轨迹特征;
根据所述轨迹分片对应的局部行动特征,以及所述轨迹分片的前一轨迹分片,预测所述轨迹分片对应的前向连续轨迹特征;
根据所述轨迹分片对应的局部行动特征,以及所述轨迹分片的后一轨迹分片,预测所述轨迹分片对应的后向连续轨迹特征;
对所述前向连续轨迹特征和所述后向连续轨迹特征进行特征融合,获得所述第一目标对象的行动轨迹特征;
根据所述第一目标的对象交互对象信息构建交互拓扑图,所述交互拓扑图中包括人员节点和物品节点,所述人员节点表征第一目标对象及与所述第一目标对象相关的人员,所述物品节点表征人员之间流通的物品;
根据所述交互拓扑图中的人员节点和物品节点,通过第二数据处理子模型确定所述第一目标对象的交互关系特征;
对所述行动轨迹特征和所述交互关系特征进行特征融合,获得融合行为特征;
采用所述第三数据处理子模型的对所述融合行为特征进行加权求和计算并进行归一化处理,获得行为分类置信值;
根据所述行为分类置信值确定所述第一目标对象的行为类型。
CN202111194535.3A 2021-10-13 2021-10-13 基于城市管理的无人机智能跟踪监控方法及系统 Active CN113869274B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111194535.3A CN113869274B (zh) 2021-10-13 2021-10-13 基于城市管理的无人机智能跟踪监控方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111194535.3A CN113869274B (zh) 2021-10-13 2021-10-13 基于城市管理的无人机智能跟踪监控方法及系统

Publications (2)

Publication Number Publication Date
CN113869274A CN113869274A (zh) 2021-12-31
CN113869274B true CN113869274B (zh) 2022-09-06

Family

ID=78999463

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111194535.3A Active CN113869274B (zh) 2021-10-13 2021-10-13 基于城市管理的无人机智能跟踪监控方法及系统

Country Status (1)

Country Link
CN (1) CN113869274B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115002349A (zh) * 2022-05-26 2022-09-02 于军 一种基于人工智能的智能跟踪监控系统
CN114863688B (zh) * 2022-07-06 2022-09-16 深圳联和智慧科技有限公司 一种基于无人机的渣土车智能定位方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103761748A (zh) * 2013-12-31 2014-04-30 北京邮电大学 异常行为检测方法和装置
CN111460246A (zh) * 2019-12-19 2020-07-28 南京柏跃软件有限公司 基于数据挖掘和密度检测的实时活动异常人员发现方法
WO2020199479A1 (zh) * 2019-04-03 2020-10-08 平安科技(深圳)有限公司 一种人体动作的识别方法及设备

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103761748A (zh) * 2013-12-31 2014-04-30 北京邮电大学 异常行为检测方法和装置
WO2020199479A1 (zh) * 2019-04-03 2020-10-08 平安科技(深圳)有限公司 一种人体动作的识别方法及设备
CN111460246A (zh) * 2019-12-19 2020-07-28 南京柏跃软件有限公司 基于数据挖掘和密度检测的实时活动异常人员发现方法

Also Published As

Publication number Publication date
CN113869274A (zh) 2021-12-31

Similar Documents

Publication Publication Date Title
Girdhar et al. Detect-and-track: Efficient pose estimation in videos
CN109146921B (zh) 一种基于深度学习的行人目标跟踪方法
US10242266B2 (en) Method and system for detecting actions in videos
CN105469029B (zh) 用于对象再识别的系统和方法
Kumar et al. An intelligent decision computing paradigm for crowd monitoring in the smart city
Wen et al. Exploiting hierarchical dense structures on hypergraphs for multi-object tracking
CN110998594A (zh) 检测动作的方法和系统
Nandhini et al. CNN Based Moving Object Detection from Surveillance Video in Comparison with GMM
CN113869274B (zh) 基于城市管理的无人机智能跟踪监控方法及系统
Supreeth et al. Efficient multiple moving object detection and tracking using combined background subtraction and clustering
Yu et al. Conditional GAN based individual and global motion fusion for multiple object tracking in UAV videos
Wang et al. Spatiotemporal group context for pedestrian counting
Sehgal Human activity recognition using BPNN classifier on HOG features
Zahid et al. Pedestrian identification using motion-controlled deep neural network in real-time visual surveillance
Lacabex et al. Lightweight tracking-by-detection system for multiple pedestrian targets
Krithika et al. MAFONN-EP: A minimal angular feature oriented neural network based emotion prediction system in image processing
Serpush et al. Complex human action recognition in live videos using hybrid FR-DL method
Delibasoglu et al. Motion detection in moving camera videos using background modeling and FlowNet
Saada et al. A multi-object tracker using dynamic Bayesian networks and a residual neural network based similarity estimator
Park et al. Intensity classification background model based on the tracing scheme for deep learning based CCTV pedestrian detection
Suresh et al. Online learning neural tracker
Aljuaid et al. Postures anomaly tracking and prediction learning model over crowd data analytics
Kalirajan et al. Deep Learning for Moving Object Detection and Tracking
Rai et al. Pearson's correlation and background subtraction (BGS) based approach for object's motion detection in infrared video frame sequences
Yıldırım et al. Calculating Bus Occupancy by Deep Learning Algorithms

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant