CN111553213A - 移动边缘云中实时分布式的身份感知行人属性识别方法 - Google Patents
移动边缘云中实时分布式的身份感知行人属性识别方法 Download PDFInfo
- Publication number
- CN111553213A CN111553213A CN202010303792.5A CN202010303792A CN111553213A CN 111553213 A CN111553213 A CN 111553213A CN 202010303792 A CN202010303792 A CN 202010303792A CN 111553213 A CN111553213 A CN 111553213A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- module
- attribute
- network
- identification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000012549 training Methods 0.000 claims abstract description 33
- 238000013528 artificial neural network Methods 0.000 claims abstract description 15
- 238000004364 calculation method Methods 0.000 claims abstract description 10
- 230000008569 process Effects 0.000 claims abstract description 9
- 230000006870 function Effects 0.000 claims description 16
- 230000005540 biological transmission Effects 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 14
- 230000009471 action Effects 0.000 claims description 12
- 238000005516 engineering process Methods 0.000 claims description 12
- 238000012544 monitoring process Methods 0.000 claims description 12
- 230000001934 delay Effects 0.000 claims description 7
- 238000004891 communication Methods 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 4
- 230000008447 perception Effects 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 3
- 230000009467 reduction Effects 0.000 claims description 3
- 238000013527 convolutional neural network Methods 0.000 claims description 2
- 239000003795 chemical substances by application Substances 0.000 description 5
- 238000010223 real-time analysis Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 239000002699 waste material Substances 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/043—Distributed expert systems; Blackboards
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2209/00—Indexing scheme relating to G06F9/00
- G06F2209/50—Indexing scheme relating to G06F9/50
- G06F2209/502—Proximity
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明属于计算机视觉技术领域,提供了一种移动边缘云中实时分布式的身份感知行人属性识别方法。本发明首次提出了跨摄像头分析身份绑定的行人属性的系统,并给出了完整的算法实现与部署方案。此外,本发明中某些局部算法均存在对现有技术的改进。一是改进的行人属性识别与行人重识别联合训练方法,在减少神经网络冗余信息的同时提升了识别精度;二是分布式行人图像库,采用并行计算加速了行人重识别中特征距离计算的过程。此外,基于上下文多臂老虎机的模块分配算法具有普适性,可用于其他模型在移动边缘网络中的部署。
Description
技术领域
本发明涉及行人属性识别与行人重识别技术,属于计算机视觉领域,涉及一种移动边缘云中实时分布式的身份感知行人属性识别方法。
背景技术
行人属性识别(Pedestrian Attribute Recognition,PAR)技术的目的是从给定的图像或视频序列中识别出目标行人的属性,如性别、年龄、发型、穿着等。行人属性是可用于检索的语义描述,越来越多地被应用于智能监控领域。与方向梯度直方图(Histogram ofOriented Gradient,HOG)等底层特征不同的是,属性可以看作是高层的语义信息,通常作为辅助信息被集成到计算机视觉领域其他任务中。行人属性识别从基于支持向量机(Support Vector Machine,SVM)的传统方法发展到目前基于深度学习(Deep Learning,DL)的最新方法后,识别精度与鲁棒性有了显著提升。然而,现有的行人属性识别的输入都是经过裁切的行人图像或视频序列,画面中只有单个行人。识别的结果只是当前给定行人的属性,无法在识别属性的同时识别出行人的身份,将属性与行人身份绑定。若将现有行人属性识别技术用于智能监控系统,同一行人在不同摄像头下、不同视角、不同背景被识别出的属性无法相联系,无法被归纳到该人,系统会认为是不同行人的属性,可见绑定身份信息对于行人属性来说是十分重要的。如何实现身份感知,将不同摄像头下的行人属性归纳到个人,实现跨摄像头的行人属性识别,还有大量研究工作需要完成。
传统监控系统主要依靠人工查看回放来发现问题,没有主动监督的功能。随着计算机视觉(Computer Vision,CV)的发展,智能视觉监控能够在不需要人为干预的情况下,通过对摄像机采集的图像序列进行自动分析,实现对动态场景中目标的定位、识别与追踪。系统不间断地进行监控,当异常发生时,向安保人员准确及时地发出警报,从而避免犯罪的发生,同时也减少雇佣大批监视人员所需要的人力、物力和财力的投入。
云计算(Cloud Computing)能够为计算机视觉提供算力支撑,现有的智能视觉监控解决方案通常是基于一种集中式结构,所有摄像头都把采集到的数据传输到远程的云服务器上进行集中式处理。然而,如果把摄像头拍摄的所有原始视频都传输到远程云上,这会导致严重的传输延迟。同时,由于大多数时候摄像头下是没有行人经过的,此时的数据是一种冗余,若依然传输会造成带宽的严重浪费。故要实现智能视觉监控系统的实时分析,还存在许多问题。
随着5G技术的快速发展,移动边缘计算(Mobile Edge Computing,MEC)正在成为一个有前景的范例,以实现移动用户附近的实时网络服务。在支持MEC的摄像头网络中,CV的任务可以被卸载到附近的计算节点,如cloudlets或带有人工智能加速器的基站。然而,现有的CV模型推理框架无法直接被部署到MEC网络中,存在算力限制与通信开销等问题,故迫切需要在MEC网络中对CV推理模型和任务分配进行更细粒度的集成。
发明内容
本发明所要解决的一个技术问题是如何实现身份感知,将不同摄像头下相同行人的属性与身份绑定,实现跨摄像头的行人属性识别。
另一个技术问题是如何将本发明的推理框架分布式地部署在移动边缘网络上,以最小化在线推理请求的延迟,实现监控系统的实时分析。同时,分布式部署算法应该能够根据网络环境的变化而动态地调整部署方式。
本发明的技术方案:
为了解决上述问题,本发明提出了一种移动边缘云中实时分布式的身份感知行人属性识别方法,步骤如下:
(1)神经网络训练子系统
采用行人重识别技术实现行人身份感知,将行人属性识别与行人重识别的联合训练,在一个神经网络中同时完成两个子任务,以实现在识别行人属性的同时识别出身份;
(1.1)用卷积神经网络作为骨干网络,对输入的图片提取特征表示;
(1.2)现有的行人属性识别与行人重识别联合训练方法都是将每个属性的识别当做单独的任务,为每个属性独立地训练分类器。然而这样训练得到的模型会包含巨大的冗余信息,臃肿的模型不适合在移动边缘网络中动态地分配。与之不同的是,本发明将所有属性同时考虑,训练单个能够同时识别所有属性的分类器。属性间的相关性也能够被学习,识别的精度得以提升。同时减少了模型的冗余信息,模型容量得以大幅减小,利于在移动边缘网络中动态地分配。
行人属性识别子任务的输入为骨干网络提取的特征表示,损失函数为交叉熵损失函数:
wj=exp(-ρj/σ2)
其中:N是训练集中的样本数目,M是训练集中每位行人的属性数目。是预测行人样本i含有属性j的概率。yij是真实值,指明了行人样本i是否含有属性j。对于属性j,有损失权重wj来处理属性分布不均衡的问题。ρj是属性j在训练集中的比率。σ是用来调优的超参数。
(1.3)属性识别子任务的输出与骨干网络提取的特征表示相连接,作为新的特征表示。行人重识别子任务的输入为新的特征表示,损失函数为分类交叉熵函数:
其中:N是训练集中的样本数目,K是训练集含有的行人数目。是预测行人样本i的编号为k的概率。yik是真实值,指明了行人样本i的编号是否为k。
(1.4)采用多任务学习,在单个模型中同时完成行人属性识别与行人重识别两个子任务。两个子任务对应骨干网络之后的两个分支。训练时,整体的损失函数为:
其中:λ为超参数,用来平衡行人属性识别与行人重识别两个子任务的损失值。
(2)分布式推理子系统
(2.1)模块的位置:将推理框架拆分为4个模块,同时使模块间的通信开销最小。模块可以被分配到不同的边缘服务器,实现分布式推理。现有技术采用将摄像头拍摄的所有原始视频皆传输到云端,这会导致严重的传输延迟。同时,由于大多时刻摄像头下是没有行人经过的,此时的数据是一种冗余,若依然传输会造成带宽的严重浪费。本发明中,模块A从摄像头端原始视频流中提取有效的行人图像,发送至服务器。故本系统中,模块A搭载于摄像头端,模块B、C、D搭载于边缘服务器端。
(2.2)模块的数目:现有的行人重识别技术只含有单个行人图像库,随着系统的不断运行,图像库将变得巨大,因此计算特征距离的耗时将会成为系统性能的瓶颈。与之不同的是,本发明采用了多个分布式图像库,通过并行计算加速特征距离计算这一过程。故本系统中存在多个模块C,模块B、D仅有一个,模块A的数目为摄像头的数目。
(2.3)各模块详细说明,以一次推理请求为例:
(2.3.1)模块A:模块A为行人检测器,搭载于各摄像头上。模块A从实时的视频流中提取出有效的行人图片x,将x作为待识别的行人发送到模块B进行处理;
(2.3.2)模块B:此模块B接收模块A发出的x。模块B使用训练完成的神经网络,提取x的特征表示φ。φ输入行人属性识别分支,识别出行人的属性序列与φ相连接,形成新的特征表示φ′。与神经网络训练阶段不同的是,φ′不再输入行人重识别分支,而是作为待检索行人的完整特征传输到每个模块C;
(2.3.3)模块C:此模块C包含一个分布式行人图像库,图像库中存储的是已编号的行人特征。当收到模块B发出的待检索行人特征φ′后,模块C会计算待检索特征φ′与图像库中各特征之间的相似度。最大的m个相似度值与对应的行人编号被发送到模块D;
(2.3.4)模块D:此模块D存储已编号的行人属性。设有n个模块C,模块D接收各模块C发出的m个带编号的相似度,将收到的所有m×n个相似度进行排序,得到最大的相似度值为s,对应编号为k。若s小于阈值ε,则表明待检索行人x首次进入系统的监控范围,x不存在于n个行人图像库中。此时,模块D为行人x分配编号,并将其属性与编号更新到模块D的属性集合中。若s大于等于阈值ε,则表明待检索行人x编号为k,此时应该用新识别的属性更新模块D属性集合中编号k的历史属性。模块D执行完后,将特征φ′与编号更新回图像库中;
模块D中存储的是跨摄像头且与身份绑定的行人属性,问题一得以解决。
(3)基于上下文多臂老虎机的模块分配子系统:
在本发明提出的分布式推理模型中,各模块的位置对在线推理请求的延迟起着决定性的作用,而当前摄像头网络的状态影响着模块位置的选择。本发明提出一种基于上下文多臂老虎机(Contextual Multi-Armed Bandits)的模块分配算法,将网络状态作为上下文,为模块放置位置与数据传输链路的选择给出最优决策。系统为每个模块分配一个代理,代理负责其模块在每个决策周期的决策。
具体运行过程如下:
(3.1)初始化存储摄像头网络延迟统计信息的经验回放存储器M;
(3.2)初始化策略集Π。其中:每个策略π(π∈Π)对应D到A的不同映射。D是所有可能网络状态的集合,且网络状态数量有限。A是所有可能行动a的集合,且行动a数量有限。a可以表示为{0,1}的集合,其中1表示代理选择了某边缘服务器来运行模块或选择了某链路来进行数据传输,而0表示未选择它们;
(3.4)将处理延迟与传输延迟划分为L个等级,每一级l(1≤l≤L表示固定的延迟范围;
(3.5)观察当前网络环境,并用(3.4)划分的延迟等级进行量化,记当前网络状态为d。其中:d∈D;
(3.6)对策略集Π中的每个策略π:计算网络状态为d时,π所对应的行动a产生回报的期望。选择回报期望最大的策略π。其中:策略π的回报是指采取行动a后,处理延迟和传输延迟的减少量。策略的历史回报信息存储在策略集中;
(3.7)观察所选策略π的回报,更新策略集Π与经验回放存储器M。新的决策周期开始时,返回(3.3)继续执行;
代理通过在线学习,给出的是模块分配的最优决策,且能根据网络状态的变化动态地调整部署方式,问题二得以解决。
本发明的有益效果:
(1)行人属性是可用于检索的语义描述,对智能安防有很大的意义。然而,现有的行人属性识别算法大多作为其他视觉任务的辅助,无法单独在智能监控系统中发挥分析作用,原因有两方面:一是现有技术无法将属性与行人身份绑定。若将现有行人属性识别技术用于智能监控系统,同一行人在不同摄像头下被识别出的属性无法相联系,会被系统认为是不同行人的属性,如此的属性信息是无意义的。二是现有的部署方式存在延迟大、带宽浪费等问题,不利于实时分析。本发明提出的推理模型,能够实现跨摄像头的身份感知行人属性识别。与身份绑定的行人属性,在智能监控系统中产生了巨大的应用价值。此外,本发明提出的基于上下文多臂老虎机的模块分配算法,使系统能将推理模型分布式地部署在移动边缘网络上,最小化在线推理请求的延迟,实现监控系统的实时分析。同时,系统能够根据网络状态的变化动态地调整部署方式,表现出优秀的自适应能力和鲁棒性。
(2)本发明首次提出了跨摄像头分析身份绑定的行人属性的系统,并给出了完整的算法实现与部署方案。此外,本发明中某些局部算法均存在对现有技术的改进。一是改进的行人属性识别与行人重识别联合训练方法,在减少神经网络冗余信息的同时提升了识别精度;二是分布式行人图像库,采用并行计算加速了行人重识别中特征距离计算的过程。此外,基于上下文多臂老虎机的模块分配算法具有普适性,可用于其他模型在移动边缘网络中的部署。
附图说明
图1为本发明所述的行人属性识别与行人重识别联合训练的神经网络结构图。
图2为本发明所述的分布式推理流程图。
图3为本发明所述的基于上下文多臂老虎机的模块分配算法流程图。
具体实施方式
为了将本发明的目的,技术方案和优点表达的更清晰明了,接下来将通过实施例和附图,对本发明做进一步的详尽的说明。此处的具体实施例仅用来解释说明本发明,并不局限于本发明。
一种移动边缘云中实时分布式的身份感知行人属性识别方法及系统,所用的系统包括神经网络训练子系统、分布式推理子系统、基于上下文多臂老虎机的模块分配子系统。
参照图1,神经网络训练子系统的详细说明如下:
采用在ImageNet上预训练后的ResNet-50作为骨干网络,对输入的图片提取特征表示;
现有的行人属性识别与行人重识别联合训练方法都是将每个属性的识别当做单独的任务,为每个属性独立地训练分类器。然而这样训练得到的模型会包含巨大的冗余信息,臃肿的模型不适合在移动边缘网络中动态地分配。与之不同的是,本发明将所有属性同时考虑,训练单个能够同时识别所有属性的分类器。属性间的相关性也能够被学习,识别的精度得以提升。同时减少了模型的冗余信息,模型容量得以大幅减小,利于在移动边缘网络中动态地分配。
行人属性识别子任务的输入为骨干网络ResNet-50提取的特征表示,用属性分类器进行预测。参照图1,属性分类器依次包含512维的全连接(Fully Connected,FC)层、批归一化(Batch Normalization,BN)层、修正线性单元(Rectified Linear Unit,ReLU)层、Dropout层以及最后的全连接层。损失函数为交叉熵损失函数:
wj=exp(-ρj/σ2)
其中:N是训练集中的样本数目,M是训练集中每位行人的属性数目。是预测行人样本i含有属性j的概率。yij是真实值,指明了行人样本i是否含有属性j。对于属性j,有损失权重wj来处理属性分布不均衡的问题。σj是属性j在训练集中的比率。σ是用来调优的超参数,取σ=0.95。
属性分类器的输出与骨干网络ResNet-50提取的特征表示相连接,作为新的特征表示。行人重识别子任务的输入为新的特征表示,用身份分类器进行预测。参照图1,身份分类器依次包含512维的全连接层、批归一化层、Dropout层以及最后的全连接层。损失函数为分类交叉熵函数:
采用多任务学习,在单个模型中同时完成行人属性识别与行人重识别两个子任务。两个子任务对应骨干网络之后的两个分支。训练时,整体的损失函数为:
其中:λ为超参数,用来平衡行人属性识别与行人重识别两个子任务的损失值,取λ=0.5。
训练时:回合(Epoch)数为80,批尺寸(Batch Size)为32,学习率(Learning Rate)为0.02且在10个回合内逐渐增大(warmup)。将输入图片缩放到384×128尺寸,并采用随机擦除(Random Erasing)。
参照图2,以一次推理请求为例,分布式推理子系统详细说明如下:
模块的位置:本发明将推理框架拆分为4个模块,同时使模块间的通信开销最小。模块可以被分配到不同的边缘服务器,实现分布式推理。现有技术采用将摄像头拍摄的所有原始视频皆传输到云端,这会导致严重的传输延迟。同时,由于大多时刻摄像头下是没有行人经过的,此时的数据是一种冗余,若依然传输会造成带宽的严重浪费。本发明中,模块A从摄像头端原始视频流中提取有效的行人图像,发送至服务器。故本系统中,模块A搭载于摄像头端,模块B、C、D搭载于边缘服务器端。
模块的数目:现有的行人重识别技术只含有单个行人图像库,随着系统的不断运行,图像库将变得巨大,因此计算特征距离的耗时将会成为系统性能的瓶颈。与之不同的是,本发明采用了多个分布式图像库,通过并行计算加速特征距离计算这一过程。故本系统中存在多个模块C,模块B、D仅有一个,模块A的数目为摄像头的数目。
模块A:此模块为行人检测器,搭载于各摄像头上。模块A用行人检测算法从实时的视频流中提取出有效的行人图片x,将x作为待识别的行人发送到模块B进行处理;
模块B:此模块接收模块A发出的x。模块B使用训练完成的神经网络,提取x的特征表示φ。φ输入行人属性识别分支,识别出行人的属性序列与φ相连接,形成新的特征表示φ′。与神经网络训练阶段不同的是,φ′不再输入行人重识别分支,而是作为待检索行人的完整特征传输到每个模块C;
模块C:此模块包含一个分布式行人图像库,图像库中存储的是已编号的行人特征。当收到模块B发出的待检索行人特征φ′后,模块C会计算待检索特征φ′与图像库中各特征之间的相似度。最大的m=1个相似度值与对应的行人编号被发送到模块D;
模块D:此模块存储已编号的行人属性。设有n=5个模块C,模块D接收各模块C发出的m=1个带编号的相似度,将收到的所有5×1个相似度进行排序,得到最大的相似度值为s,对应编号为k。若s小于阈值ε=0.9,则表明待检索行人x首次进入系统的监控范围,x不存在于n=5个行人图像库中。此时,模块D为行人x分配编号,并将其属性与编号更新到模块D的属性集合中。若s大于等于阈值ε=0.9,则表明待检索行人x编号为k,此时应该用新识别的属性更新模块D属性集合中编号k的历史属性。模块D执行完后,将特征φ′与编号更新回图像库中;
参照图3,基于上下文多臂老虎机的模块分配子系统具体运行过程如下:
初始化存储摄像头网络延迟统计信息的经验回放存储器M;
初始化策略集Π。其中:每个策略π(π∈Π)对应D到A的不同映射。D是所有可能网络状态的集合,且网络状态数量有限。A是所有可能行动a的集合,且行动a数量有限。a可以表示为{0,1}的集合,其中1表示代理选择了某边缘服务器来运行模块或选择了某链路来进行数据传输,而0表示未选择它们;
将处理延迟与传输延迟划分为L=20个等级,每一级l(1≤l≤L)表示固定的延迟范围;
观察当前网络环境,并用划分的L个延迟等级进行量化,记当前网络状态为d。其中:d∈D;
对策略集Π中的每个策略π:计算网络状态为d时,π所对应的行动a产生回报的期望。选择回报期望最大的策略π。其中:策略π的回报是指采取行动a后,处理延迟和传输延迟的减少量。策略的历史回报信息存储在策略集中;
观察所选策略π的回报,更新策略集Π与经验回放存储器M。新的决策周期开始时,返回步骤三继续执行。
Claims (1)
1.一种移动边缘云中实时分布式的身份感知行人属性识别方法,其特征在于,步骤如下:
(1)神经网络训练子系统
采用行人重识别技术实现行人身份感知,将行人属性识别与行人重识别的联合训练,在一个神经网络中同时完成两个子任务,以实现在识别行人属性的同时识别出身份;
(1.1)用卷积神经网络作为骨干网络,对输入的图片提取特征表示;
(1.2)将所有行人属性同时考虑,训练单个能同时识别所有行人属性的分类器;行人属性间的相关性也能被学习,识别的精度得以提升;同时减少了模型的冗余信息,模型容量得以大幅减小,利于在移动边缘网络中动态地分配;
行人属性识别子任务的输入为骨干网络提取的特征表示,损失函数为交叉熵损失函数:
其中:N是训练集中的样本数目;M是训练集中每位行人的属性数目;是预测行人样本i含有属性j的概率;yij是真实值,指明了行人样本i是否含有属性j;对于属性j,有损失权重wj来处理属性分布不均衡的问题;ρj是属性j在训练集中的比率;σ是用来调优的超参数;
(1.3)属性识别子任务的输出与骨干网络提取的特征表示相连接,作为新的特征表示;行人重识别子任务的输入为新的特征表示,损失函数为分类交叉熵函数:
(1.4)采用多任务学习,在单个模型中同时完成行人属性识别与行人重识别两个子任务;两个子任务对应骨干网络之后的两个分支;训练时,整体的损失函数为:
其中:λ为超参数,用来平衡行人属性识别与行人重识别两个子任务的损失值;
(2)分布式推理子系统
(2.1)模块的位置:将推理框架拆分为4个模块,同时使模块间的通信开销最小;模块被分配到不同的边缘服务器,实现分布式推理;本方法中,模块A从摄像头端原始视频流中提取有效的行人图像,发送至服务器;故模块A搭载于摄像头端,模块B、C、D搭载于边缘服务器端;
(2.2)模块的数目:本方法采用多个分布式图像库,通过并行计算加速特征距离计算过程;分布式推理子系统中存在多个模块C,模块B和模块D仅有一个,模块A的数目为摄像头的数目;
(2.3)一次推理请求:
(2.3.1)模块A:模块A为行人检测器,搭载于各摄像头上;模块A从实时的视频流中提取出有效的行人图片x,将行人图片x作为待识别的行人发送到模块B进行处理;
(2.3.2)模块B:模块B接收模块A发出的行人图片x;模块B使用训练完成的神经网络,提取行人图片x的特征表示φ;φ输入行人属性识别分支,识别出行人的属性序列 与φ相连接,形成新的特征表示φ′;与神经网络训练阶段不同的是,φ′不再输入行人重识别分支,而是作为待检索行人的完整特征传输到每个模块C;
(2.3.3)模块C:模块C包含一个分布式行人图像库,图像库中存储的是已编号的行人特征;当收到模块B发出的待检索行人特征φ′后,模块C计算待检索特征φ′与图像库中各特征之间的相似度;最大的m个相似度值与对应的行人编号被发送到模块D;
(2.3.4)模块D:模块D存储已编号的行人属性;设有n个模块C,模块D接收各模块C发出的m个带编号的相似度,将收到的所有m×n个相似度进行排序,得到最大的相似度值为s,对应编号为k;若s小于阈值ε,则表明待检索行人图片x首次进入系统的监控范围,行人图片x不存在于n个行人图像库中;此时,模块D为行人图片x分配编号,并将其属性与编号更新到模块D的属性集合中;若s大于等于阈值ε,则表明待检索行人图片x编号为k,此时用新识别的属性更新模块D属性集合中编号k的历史属性;模块D执行完后,将特征φ′与编号更新回图像库中;
模块D中存储的是跨摄像头且与身份绑定的行人属性;
(3)基于上下文多臂老虎机的模块分配子系统
在分布式推理子系统中,各模块的位置对在线推理请求的延迟起着决定性的作用,而当前摄像头网络的状态影响着模块位置的选择;本方法提出一种基于上下文多臂老虎机的模块分配算法,将网络状态作为上下文,为模块放置位置与数据传输链路的选择给出最优决策;基于上下文多臂老虎机的模块分配子系统为每个模块分配一个代理,代理负责其模块在每个决策周期的决策;
具体运行过程如下:
(3.1)初始化存储摄像头网络延迟统计信息的经验回放存储器M;
(3.2)初始化策略集Π;其中:每个策略π对应D到A的不同映射,π∈Π;D是所有可能网络状态的集合,且网络状态数量有限;A是所有可能行动a的集合,且行动a数量有限;a表示为{0,1}的集合,其中1表示代理选择了某边缘服务器来运行模块或选择了某链路来进行数据传输,而0表示未选择它们;
(3.4)将处理延迟与传输延迟划分为L个等级,每一级l表示固定的延迟范围,1≤l≤L;
(3.5)观察当前网络环境,并用步骤(3.4)划分的延迟等级进行量化,记当前网络状态为d;其中:d∈D;
(3.6)对策略集Π中的每个策略π:计算网络状态为d时,π所对应的行动a产生回报的期望;选择回报期望最大的策略π;其中:策略π的回报是指采取行动a后,处理延迟和传输延迟的减少量;策略的历史回报信息存储在策略集中;
(3.7)观察所选策略π的回报,更新策略集Π与经验回放存储器M;新的决策周期开始时,返回(3.3)继续执行。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010303792.5A CN111553213B (zh) | 2020-04-17 | 2020-04-17 | 移动边缘云中实时分布式的身份感知行人属性识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010303792.5A CN111553213B (zh) | 2020-04-17 | 2020-04-17 | 移动边缘云中实时分布式的身份感知行人属性识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111553213A true CN111553213A (zh) | 2020-08-18 |
CN111553213B CN111553213B (zh) | 2022-09-20 |
Family
ID=72002507
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010303792.5A Active CN111553213B (zh) | 2020-04-17 | 2020-04-17 | 移动边缘云中实时分布式的身份感知行人属性识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111553213B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112084998A (zh) * | 2020-09-22 | 2020-12-15 | 杭州云栖智慧视通科技有限公司 | 一种基于属性信息辅助的行人再识别方法 |
CN112200106A (zh) * | 2020-10-16 | 2021-01-08 | 中国计量大学 | 跨相机行人重识别与跟踪方法 |
CN112507893A (zh) * | 2020-12-14 | 2021-03-16 | 华南理工大学 | 一种基于边缘计算的分布式无监督行人重识别方法 |
CN112712124A (zh) * | 2020-12-31 | 2021-04-27 | 山东奥邦交通设施工程有限公司 | 一种基于深度学习的多模块协同物体识别系统及方法 |
CN112926415A (zh) * | 2021-02-05 | 2021-06-08 | 西安电子科技大学 | 一种行人避让系统和行人监测方法 |
CN113095506A (zh) * | 2021-03-25 | 2021-07-09 | 北京大学 | 基于端、边及云协同的机器学习方法、系统及介质 |
CN113807200A (zh) * | 2021-08-26 | 2021-12-17 | 青岛文达通科技股份有限公司 | 基于动态拟合多任务推理网络的多行人识别方法及系统 |
CN114610482A (zh) * | 2022-02-25 | 2022-06-10 | 南京南瑞继保电气有限公司 | 一种基于多任务融合的模型边缘端部署方法 |
CN114821649A (zh) * | 2022-04-28 | 2022-07-29 | 中山大学 | 一种基于边缘计算的行人重识别方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109711281A (zh) * | 2018-12-10 | 2019-05-03 | 复旦大学 | 一种基于深度学习的行人重识别与特征识别融合方法 |
CN110046553A (zh) * | 2019-03-21 | 2019-07-23 | 华中科技大学 | 一种融合属性特征的行人重识别模型、方法及系统 |
CN110516569A (zh) * | 2019-08-15 | 2019-11-29 | 华侨大学 | 一种基于身份和非身份属性交互学习的行人属性识别方法 |
CN110543823A (zh) * | 2019-07-30 | 2019-12-06 | 平安科技(深圳)有限公司 | 基于残差网络的行人再识别方法、装置和计算机设备 |
-
2020
- 2020-04-17 CN CN202010303792.5A patent/CN111553213B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109711281A (zh) * | 2018-12-10 | 2019-05-03 | 复旦大学 | 一种基于深度学习的行人重识别与特征识别融合方法 |
CN110046553A (zh) * | 2019-03-21 | 2019-07-23 | 华中科技大学 | 一种融合属性特征的行人重识别模型、方法及系统 |
CN110543823A (zh) * | 2019-07-30 | 2019-12-06 | 平安科技(深圳)有限公司 | 基于残差网络的行人再识别方法、装置和计算机设备 |
CN110516569A (zh) * | 2019-08-15 | 2019-11-29 | 华侨大学 | 一种基于身份和非身份属性交互学习的行人属性识别方法 |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112084998A (zh) * | 2020-09-22 | 2020-12-15 | 杭州云栖智慧视通科技有限公司 | 一种基于属性信息辅助的行人再识别方法 |
CN112200106A (zh) * | 2020-10-16 | 2021-01-08 | 中国计量大学 | 跨相机行人重识别与跟踪方法 |
CN112507893A (zh) * | 2020-12-14 | 2021-03-16 | 华南理工大学 | 一种基于边缘计算的分布式无监督行人重识别方法 |
CN112712124A (zh) * | 2020-12-31 | 2021-04-27 | 山东奥邦交通设施工程有限公司 | 一种基于深度学习的多模块协同物体识别系统及方法 |
CN112712124B (zh) * | 2020-12-31 | 2021-12-10 | 山东奥邦交通设施工程有限公司 | 一种基于深度学习的多模块协同物体识别系统及方法 |
CN112926415A (zh) * | 2021-02-05 | 2021-06-08 | 西安电子科技大学 | 一种行人避让系统和行人监测方法 |
CN113095506A (zh) * | 2021-03-25 | 2021-07-09 | 北京大学 | 基于端、边及云协同的机器学习方法、系统及介质 |
CN113807200A (zh) * | 2021-08-26 | 2021-12-17 | 青岛文达通科技股份有限公司 | 基于动态拟合多任务推理网络的多行人识别方法及系统 |
CN113807200B (zh) * | 2021-08-26 | 2024-04-19 | 青岛文达通科技股份有限公司 | 基于动态拟合多任务推理网络的多行人识别方法及系统 |
CN114610482A (zh) * | 2022-02-25 | 2022-06-10 | 南京南瑞继保电气有限公司 | 一种基于多任务融合的模型边缘端部署方法 |
CN114610482B (zh) * | 2022-02-25 | 2025-04-29 | 南京南瑞继保电气有限公司 | 一种基于多任务融合的模型边缘端部署方法 |
CN114821649A (zh) * | 2022-04-28 | 2022-07-29 | 中山大学 | 一种基于边缘计算的行人重识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111553213B (zh) | 2022-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111553213B (zh) | 移动边缘云中实时分布式的身份感知行人属性识别方法 | |
Xu et al. | Edge intelligence: Empowering intelligence to the edge of network | |
US20220351019A1 (en) | Adaptive Search Method and Apparatus for Neural Network | |
He et al. | Pyramid: Enabling hierarchical neural networks with edge computing | |
Yan et al. | TL-CNN-IDS: transfer learning-based intrusion detection system using convolutional neural network | |
CN111339818A (zh) | 一种人脸多属性识别系统 | |
CN112052950A (zh) | 神经网络训练方法、模型计算服务器及存储介质 | |
Meybodi et al. | TEDGE-Caching: Transformer-based edge caching towards 6G networks | |
CN116012880A (zh) | 分布式边缘协同推理的行人重识别方法、系统及装置 | |
CN116362325A (zh) | 一种基于模型压缩的电力图像识别模型轻量化应用方法 | |
CN117389721A (zh) | 一种基于时序调用图的无服务系统自适应扩缩容方法和装置 | |
Kansal et al. | Comparative analysis of convolutional neural network in object detection | |
Felemban et al. | PicSys: Energy-efficient fast image search on distributed mobile networks | |
CN119152315B (zh) | 一种ElectroTrackNet的电选轨迹识别方法及系统 | |
Alves et al. | Optimizing parking space classification: Distilling ensembles into lightweight classifiers | |
Xu et al. | Identity-aware attribute recognition via real-time distributed inference in mobile edge clouds | |
CN119520489A (zh) | 一种语义信息辅助的任务导向图像压缩方法、系统及设备 | |
CN114170560B (zh) | 一种基于深度强化学习的多设备边缘视频分析系统 | |
Abhari et al. | Video analytic data reduction model for fog computing | |
CN114384866B (zh) | 一种基于分布式深度神经网络框架的数据划分方法 | |
CN113886081A (zh) | 一种基于负载均衡的车站多刷脸阵列人脸库分割方法 | |
Liang et al. | SplitStream: Distributed and workload-adaptive video analytics at the edge | |
CN114445875A (zh) | 基于深度学习的身份识别与人脸比对系统及训练方法 | |
CN113947128A (zh) | 融合边缘计算和深度学习的变电站填方压路机识别方法 | |
Hu et al. | Speeding-up age estimation in intelligent demographics system via network optimization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |