CN110110601B - 基于多时空注意力模型的视频行人重识别方法及装置 - Google Patents

基于多时空注意力模型的视频行人重识别方法及装置 Download PDF

Info

Publication number
CN110110601B
CN110110601B CN201910273362.0A CN201910273362A CN110110601B CN 110110601 B CN110110601 B CN 110110601B CN 201910273362 A CN201910273362 A CN 201910273362A CN 110110601 B CN110110601 B CN 110110601B
Authority
CN
China
Prior art keywords
pedestrian
video
attention model
spatial
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910273362.0A
Other languages
English (en)
Other versions
CN110110601A (zh
Inventor
张斯尧
谢喜林
王思远
黄晋
蒋杰
张�诚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Jiuling Software Technology Co ltd
Original Assignee
Shenzhen Jiuling Software Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Jiuling Software Technology Co ltd filed Critical Shenzhen Jiuling Software Technology Co ltd
Priority to CN201910273362.0A priority Critical patent/CN110110601B/zh
Publication of CN110110601A publication Critical patent/CN110110601A/zh
Application granted granted Critical
Publication of CN110110601B publication Critical patent/CN110110601B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种基于多时空注意力模型的视频行人重识别方法及装置,该算法首先利用多空间注意力模型来定位判别视频图像行人区域;再结合时间注意力模型来计算由每个空间注意力模型提取的特征的聚合表示,并进行行人重识别损失函数补偿;最后将待识别图像的特征向量与有效地理区域范围内的视频图像的行人的特征向量对比,搜索出相似度最高的行人目标图像并输出最终重识别匹配结果。本发明算法能解决针对实际过程中,行人视频图像成像质量差,细节显示不清楚,行人部分有用信息被遮挡而特征提取困难导致的视频监控系统重识别准确率不高等问题,并使算法满足实时性需求。

Description

基于多时空注意力模型的视频行人重识别方法及装置
技术领域
本发明涉及计算机视觉领域,具体涉及一种基于多时空注意力模型的视频行人重识别方法及装置。
背景技术
随着人工智能、计算机视觉和硬件技术的不断发展,视频图像处理技术已经广泛应用于智能城市系统中。
行人重识别(Person Re-identification)也称行人再识别,简称为Re-ID。是利用计算机视觉技术判断图像或者视频序列中是否存在特定行人的技术。在监控视频中,由于相机分辨率和拍摄角度的缘故,通常无法得到质量非常高的人脸图片。当人脸识别失效的情况下,Re-ID就成为了一个非常重要的替代品技术。Re-ID有一个非常重要的特性就是跨摄像头,所以检索出不同摄像头下的相同行人图片就成为了Re-ID的关键。
大多现存的解决视频行人重识别问题的方法是把每一帧编码成一个向量,然后对所有的帧向量进行聚合得到视频序列的特征嵌入。在实践中,行人经常被部分遮挡,这样就破坏了提取的特征。并且基于视频的行人重识别Re-ID,如果全部利用所有的帧,会因为有很多质量不好的图片(遮挡,光照等因素)对深度学习出来的特征影响很大。从而影响行人重识别的准确率,增加系统的计算量的同时使系统鲁棒性也变差。
针对这些问题,本发明提出一种基于多时空注意力模型的视频图像行人重识别算法。本发明算法能够自动地使用视频序列中条件最好的帧中的路径学到面部、躯干以及身体其他部分的特征,能够很好地对抗遮挡和不对齐,有效提取所有帧中的有用信息,能够很好的提高行人重识别系统在复杂条件下的重识别准确率、并提高系统的鲁棒性。
发明内容
本发明的主要目的是提供一种基于多时空注意力模型的视频行人重识别方法及装置,旨在目前视频行人识别系统在实践时,行人经常被部分遮挡,这样就破坏了提取的特征,并且基于视频的行人重识别Re-ID,如果全部利用所有的帧,会因为有很多质量不好的图片(遮挡,光照等因素)对深度学习出来的特征影响很大,从而影响行人重识别的准确率,增加系统的计算量的同时使系统鲁棒性也变差的问题。
为实现上述目的,本发明提供一种基于多时空注意力模型的视频行人重识别方法,包括以下步骤:
S1基于多空间注意力模型来定位判别视频图像行人区域;
S2基于时间注意力模型来计算由每个空间注意力模型提取的特征的聚合表示,并将聚合表示连接成最终的特征向量;
S3根据步骤S1和S2获取待识别图像的特征向量,将待识别图像的特征向量与有效地理区域范围内的视频图像的行人的特征向量对比,搜索出相似度最高的行人目标图像并输出最终重识别匹配结果。
优选地,步骤S1包括:
S1.1用约束随机抽样策略进行视频图像采样;
S1.2利用采样的视频图像训练多空间注意力模型来定位判别视频图像行人区域。
优选地,步骤S1.1包括:
给定一个输入视频V,将其按照相等时间划分为N个块:{Cn},n=1...N,从每个块Cn中随机地对图像In进行采样,视频由有序的一组采样帧表示{In},n=1...N。
优选地,步骤S1.2包括:
从每个采样图像中提取特征,将N张图片送入预训练的ResNet50得到N×2048×8×4的特征图,并将每张图划分为32个2048维的空间特征{fn,l},l=1,L,其中L=32,对于每个空间注意力模块,将2048×32的空间特征图经过一个d个神经元的fc+ReLU降维得到d×32,然后再经过一个神经元的fc得到1×32=32个e(n,k,l);
将一张图32个空间向量经过下面的softmax得到32个空间向量的权重,每个空间向量权重表示为Sn,k,l表示第n帧、第k个空间注意力模块、第l个空间向量的权重,Sn,k成为第k个空间注意力模块的感受野,具体公式如下:
Figure GDA0004127721240000031
根据L个权重对L个空间特征进行加权求和,得到了第n帧、第k个空间注意力模块的特征Xn,k
Figure GDA0004127721240000032
获取得到视频序列的N×K×D的空间注意力输出图。
优选地,步骤S1.2还包括:
利用海林格距离来计算sn,i和sn,j的相似性,其定义为:
Figure GDA0004127721240000033
在对sn,i和sn,j之间的距离进行最大化的条件下,每个图像的感受野冗余的正则项是:
Figure GDA0004127721240000034
其中,
Figure GDA0004127721240000035
||·||F表示矩阵的Frobenius范数,I是K维单位矩阵,该正则项Q将乘以一个系数,并添加到训练模型中的原始OIM损失中。
优选的,步骤S2包括:
将N×K×D特征图经过一个神经元的fc得到N×K的,然后再在时域N上Softmax得到N×K的时域权重,tn,k表示对于第K个空间注意力模块,第n帧感受野特征的权重,其公式如下:
Figure GDA0004127721240000036
Figure GDA0004127721240000037
然后时序注意力模型被运用在每个成分上使用加权平均:
Figure GDA0004127721240000038
最终的判别性的区域的特征为:
Figure GDA0004127721240000039
将这些聚合表示连接成最终的特征向量:x=[x1,...,xK]。
优选的,步骤S3中通过以下公式计算相似度:
Figure GDA00041277212400000310
为实现上述目的,本发明提供一种计算机装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如上述任一项所述的基于多时空注意力模型的视频行人重识别方法的步骤。
本发明提出的基于多时空注意力模型的视频行人重识别方法,能够自动地使用视频序列中条件最好的帧中的路径学到面部、躯干以及身体其他部分的特征,能够很好地对抗遮挡和不对齐,有效提取所有帧中的有用信息,能够很好的提高行人重识别系统在复杂条件下的重识别准确率、并提高系统的鲁棒性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图示出的结构获得其他的附图。
图1是本发明一实施例所述的算法流程图;
图2是本发明一实施例所述整体算法整体网络结构图;
图3是本发明一实施例所述多空间注意力模型的可视化图像结果;
图4是本发明一实施例所述时域注意力的可视化结果图像。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
本发明算法的流程图如图1所示,整体网络结构图如图2所示。
本发明本发明提出的基于多时空注意力模型的视频行人重识别方法具体包括以下步骤:
S1基于多空间注意力(spatial attention)模型来定位判别视频图像行人区域;
S1.1用约束随机抽样策略进行视频图像采样;
本发明提出一种约束的随机采样策略以期能够获得原始数据好的特征表达,该方法能够利用整个视频序列的视觉信息,同时避免连续帧之间的冗余,其具体如下:
给定一个输入视频V,将其按照相等时间划分为N个块:{Cn},n=1...N,从每个块Cn中随机地对图像In进行采样,即每个块中随机选择1张图片,然后,视频由有序的一组采样帧表示{In},n=1...N,完成视频随机采样。
S1.2训练多空间注意力模型来定位判别视频图像行人区域;
本发明算法采用ResNet-50 CNN结构作为基础模型,用于从每个采样图像中提取特征,将N张图片送入预训练的ResNet50得到N×2048×8×4的特征图,对于每张图,划分为32个2048维的空间特征{fn,l},l=1,L,其中L=32,对于每个空间注意力模块,将2048x32的空间特征图经过一个d个神经元的fc+ReLU降维(D=2048,d=256)得到d×32,然后再经过一个神经元的fc得到1×32=32个e(n,k,l),这一过程用数学表达式如下:
Figure GDA0004127721240000051
where w′s,k∈Rd,Ws,k∈Rd×D,bs,k∈Rdandb″s,k∈R
然后将一张图32个空间向量经过下面的softmax得到32个空间向量的权重,每个空间向量权重表示为Sn,k,l表示第n帧、第k个空间注意力模块、第l个空间向量的权重,Sn,k成为第k个空间注意力模块的感受野,具体公式如下:
Figure GDA0004127721240000052
然后根据L个权重对L个空间特征进行加权求和(如下式),得到了第n帧、第k个空间注意力模块的特征Xn,k
Figure GDA0004127721240000053
这样就得到了视频序列的N×K×D的空间注意力输出图。
S1.3对处理过后的视频图像进行多样性正则化;
通常来说如果不提供约束,仅仅用一个OIM损失(类似于Softmax损失),会导致训练模型退化,使得多个空间注意力模型结果检测人体相同的部位,为了提供约束使多空间注意力模型关注不同的部位,考虑到每个空间注意力模块的感受野Sn,k具有概率解释(Softmax将其映射到0-1之间),采用了一个惩罚项,用来衡量不同感受野之间的重叠,计算来两个注意力向量Sn,1和Sn,j的重叠区域,利用海林格(Hellinger)距离来计算sn,i和sn,j的相似性,其定义为:
Figure GDA0004127721240000061
因为
Figure GDA0004127721240000062
Figure GDA0004127721240000063
为了确保感受野的多样性,需要最大化sn,i和sn,j之间的距离,这相当于最小化:
1-H2(sn,i,sn,j)
其中:
Figure GDA0004127721240000064
每个图像的感受野冗余的正则项是:
Figure GDA0004127721240000065
其中||·||F表示矩阵的Frobenius范数,I是K维单位矩阵,该正则项Q将乘以一个系数,并添加到原始OIM loss中。
处理后的可视化结果图像如图3所示,本发明算法通常能够关注到大的且不重叠的对判别有利的区域。
S2基于时域注意力(temporal attention)模型来计算由每个空间注意力模型提取的特征的聚合表示,并进行行人重识别损失函数(Loss)补偿。
为了关注到更多细粒度的信息,本发明算法采用了N×K个权重、每帧视频的每个空间感受野一个单独权重的时域注意力方法,具体实现上,将N×K×D特征图经过一个神经元的fc得到N×K的,然后再在时域N上Softmax得到N×K的时域权重,tn,k表示对于第K个空间注意力模块,第n帧感受野特征的权重,
其公式如下:
Figure GDA0004127721240000066
Figure GDA0004127721240000067
然后时序注意力模型被运用在每个成分上使用加权平均:
Figure GDA0004127721240000068
最终的判别性的区域的特征为:
Figure GDA0004127721240000071
然后将这些聚合表示连接成最终的特征向量,该特征向量表示整个视频中行人可用的所有信息:
x=[x1,...,xK]
最后,因为通常情况下一般的行人重识别算法使用多类的softmax作为目标损失,但因为样本数量少于训练中的个体数量,因此网络更新可能存在误差,所以本发明算法采用了OIM loss(Online Instance Mathing loss function),OIM loss使用一个存储了之前训练集中所有行人特征的查找表,在前向过程中,每个批次中的样本利用了之前所有行人特征计算分类可能性,OIM loss被证明在行人重识别任务中比Softmax loss更有效。
处理后的可视化结果图像如图4所示,实际过程中,时域注意力相比于平庸化的时域平均,能够有选择地关注到无遮挡空间注意力区域。
S3将待识别图像的特征向量与有效地理区域范围内的视频图像的行人的特征向量对比,搜索出相似度最高的行人目标图像并输出最终重识别匹配结果。
相似度计算通常采用余弦距离计算,余弦相似度用向量空间中两个向量夹角的余弦值作为衡量两个个体间差异的大小,相比距离度量,余弦相似度更加注重两个向量在方向上的差异,而非距离或长度上,公式如下:
Figure GDA0004127721240000072
计算得到的数值越小,则相似度越高,结合输出最终重识别系统模型。
按照上述方法,按要求搜索出top1、top5、top100等的行人重识别图像,将最终重识别的结果输出。
将本发明中提出的方法实际上可嵌入FPGA实现,运用于具有实时的行人重识别的系统中。
本发明还提供一种计算机装置,在一实施例中,该计算机装置包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述任一实施例中的基于多时空注意力模型的视频行人重识别方法的步骤。可以理解,该计算机装置可以为电视、IPAD、PC、手机等。
本领域技术人员将清楚本发明的范围不限制于以上讨论的示例,有可能对其进行若干改变和修改,而不脱离所附权利要求书限定的本发明的范围。尽管己经在附图和说明书中详细图示和描述了本发明,但这样的说明和描述仅是说明或示意性的,而非限制性的。本发明并不限于所公开的实施例。
在本说明书的描述中,参考术语“一实施例”、“另一实施例”、“其他实施例”、或“第一实施例~第X实施例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料、方法步骤或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护之内。

Claims (3)

1.一种基于多时空注意力模型的视频行人重识别方法,其特征在于,包括以下步骤:
S1基于多空间注意力模型来定位判别视频图像行人区域;
S2基于时间注意力模型来计算由每个空间注意力模型提取的特征的聚合表示,并将聚合表示连接成最终的特征向量;
S3根据步骤S1和S2获取待识别图像的特征向量,将待识别图像的特征向量与有效地理区域范围内的视频图像的行人的特征向量对比,搜索出相似度最高的行人目标图像并输出最终重识别匹配结果;步骤S1包括:
S1.1用约束随机抽样策略进行视频图像采样;
S1.2利用采样的视频图像训练多空间注意力模型来定位判别视频图像行人区域;步骤S1.1包括:
给定一个输入视频V,将其按照相等时间划分为N个块:{Cn},n=1...N,从每个块Cn中随机地对图像In进行采样,视频由有序的一组采样帧表示{In},n=1...N;步骤S1.2包括:
从每个采样图像中提取特征,将N张图片送入预训练的ResNet50得到N×2048×8×4的特征图,并将每张图划分为32个2048维的空间特征{fn,l},l=1,L,其中L=32,对于每个空间注意力模块,将2048×32的空间特征图经过一个d个神经元的fc+ReLU降维得到d×32,然后再经过一个神经元的fc得到1×32=32个e(n,k,l);
将一张图32个空间向量经过下面的softmax得到32个空间向量的权重,每个空间向量权重表示为Sn,k,l表示第n帧、第k个空间注意力模块、第l个空间向量的权重,Sn,k成为第k个空间注意力模块的感受野,具体公式如下:
Figure FDA0004127721230000011
根据L个权重对L个空间特征进行加权求和,得到了第n帧、第k个空间注意力模块的特征Xn,k
Figure FDA0004127721230000012
获取得到视频序列的N×K×D的空间注意力输出图;步骤S1.2还包括:
利用海林格距离来计算sn,i和sn,j的相似性,其定义为:
Figure FDA0004127721230000021
在对sn,i和sn,j之间的距离进行最大化的条件下,每个图像的感受野冗余的正则项是:
Figure FDA0004127721230000022
其中,
Figure FDA0004127721230000023
||·||F表示矩阵的Frobenius范数,I是K维单位矩阵,该正则项Q将乘以一个系数,并添加到训练模型中的原始OIM损失中;步骤S2包括:
将N×K×D特征图经过一个神经元的fc得到N×K的,然后再在时域N上Softmax得到N×K的时域权重,tn,k表示对于第K个空间注意力模块,第n帧感受野特征的权重,其公式如下:
Figure FDA0004127721230000024
Figure FDA0004127721230000025
然后时序注意力模型被运用在每个成分上使用加权平均:
Figure FDA0004127721230000026
最终的判别性的区域的特征为:
Figure FDA0004127721230000027
将这些聚合表示连接成最终的特征向量:x=[x1,...,xK]。
2.如权利要求1所述的基于多时空注意力模型的视频行人重识别方法,其特征在于,步骤S3中通过以下公式计算相似度:
Figure FDA0004127721230000028
3.一种计算机装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1或2所述的基于多时空注意力模型的视频行人重识别方法的步骤。
CN201910273362.0A 2019-04-04 2019-04-04 基于多时空注意力模型的视频行人重识别方法及装置 Active CN110110601B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910273362.0A CN110110601B (zh) 2019-04-04 2019-04-04 基于多时空注意力模型的视频行人重识别方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910273362.0A CN110110601B (zh) 2019-04-04 2019-04-04 基于多时空注意力模型的视频行人重识别方法及装置

Publications (2)

Publication Number Publication Date
CN110110601A CN110110601A (zh) 2019-08-09
CN110110601B true CN110110601B (zh) 2023-04-25

Family

ID=67485210

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910273362.0A Active CN110110601B (zh) 2019-04-04 2019-04-04 基于多时空注意力模型的视频行人重识别方法及装置

Country Status (1)

Country Link
CN (1) CN110110601B (zh)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110659576A (zh) * 2019-08-23 2020-01-07 深圳久凌软件技术有限公司 一种基于联合判断与生成学习的行人搜索方法及装置
CN110765880B (zh) * 2019-09-24 2023-04-18 中国矿业大学 一种轻量级视频行人重识别方法
CN110781817B (zh) * 2019-10-25 2022-05-17 南京大学 一种解决部件不对齐的行人再识别方法
CN112784648B (zh) * 2019-11-07 2022-09-06 中国科学技术大学 一种优化视频行人重识别系统特征提取的方法及装置
CN111738043A (zh) * 2019-12-10 2020-10-02 珠海大横琴科技发展有限公司 一种行人重识别方法及装置
CN111160295B (zh) * 2019-12-31 2023-05-12 广州视声智能科技有限公司 基于区域引导和时空注意力的视频行人重识别方法
CN111241996B (zh) * 2020-01-09 2023-06-02 桂林电子科技大学 一种用于识别视频中人物动作的方法
CN111310728B (zh) * 2020-03-16 2022-07-15 中国科学技术大学 基于监控相机和无线定位的行人重识别系统
CN113627218A (zh) * 2020-05-08 2021-11-09 北京邮电大学 基于视频数据的人物识别方法及装置
CN111598067B (zh) * 2020-07-24 2020-11-10 浙江大华技术股份有限公司 视频中重识别训练方法、重识别方法及存储装置
CN111897995A (zh) * 2020-08-04 2020-11-06 成都井之丽科技有限公司 视频特征提取方法及应用该方法的视频量化方法
CN112183544A (zh) * 2020-09-29 2021-01-05 厦门大学 一种融合双通道的三层架构数学公式识别方法、系统和存储设备
CN112682919A (zh) * 2020-12-21 2021-04-20 珠海格力电器股份有限公司 一种空调设备及其设定温度调节系统、方法和存储介质
CN113139496A (zh) * 2021-05-08 2021-07-20 青岛根尖智能科技有限公司 一种基于时序多尺度融合的行人重识别方法及系统
CN113343810B (zh) * 2021-05-28 2023-03-21 国家计算机网络与信息安全管理中心 基于时序多样性与相关性的行人重识别模型训练和识别方法与装置
CN115858846B (zh) * 2023-02-16 2023-04-21 云南派动科技有限公司 一种基于深度学习的滑雪者图像检索方法和系统

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107066973B (zh) * 2017-04-17 2020-07-21 杭州电子科技大学 一种利用时空注意力模型的视频内容描述方法
CN107480642A (zh) * 2017-08-18 2017-12-15 深圳市唯特视科技有限公司 一种基于时域分段网络的视频动作识别方法
CN108921051B (zh) * 2018-06-15 2022-05-20 清华大学 基于循环神经网络注意力模型的行人属性识别网络及技术
CN108875708A (zh) * 2018-07-18 2018-11-23 广东工业大学 基于视频的行为分析方法、装置、设备、系统及存储介质
CN109101896B (zh) * 2018-07-19 2022-03-25 电子科技大学 一种基于时空融合特征和注意力机制的视频行为识别方法
CN109190471B (zh) * 2018-07-27 2021-07-13 天津大学 基于自然语言描述的视频监控行人搜索的注意力模型方法
CN109447053A (zh) * 2019-01-09 2019-03-08 江苏星云网格信息技术有限公司 一种基于双重限制注意力神经网络模型的人脸识别方法

Also Published As

Publication number Publication date
CN110110601A (zh) 2019-08-09

Similar Documents

Publication Publication Date Title
CN110110601B (zh) 基于多时空注意力模型的视频行人重识别方法及装置
CN111259850B (zh) 一种融合随机批掩膜和多尺度表征学习的行人重识别方法
US11468697B2 (en) Pedestrian re-identification method based on spatio-temporal joint model of residual attention mechanism and device thereof
CN111709409B (zh) 人脸活体检测方法、装置、设备及介质
CN109344725B (zh) 一种基于时空关注度机制的多行人在线跟踪方法
CN112801018B (zh) 一种跨场景目标自动识别与追踪方法及应用
WO2022111506A1 (zh) 视频动作识别方法、装置、电子设备和存储介质
CN111539370A (zh) 一种基于多注意力联合学习的图像行人重识别方法和系统
CN112446270A (zh) 行人再识别网络的训练方法、行人再识别方法和装置
CN114783003B (zh) 一种基于局部特征注意力的行人重识别方法和装置
CN111291633A (zh) 一种实时行人重识别方法及装置
Zhong et al. Change detection based on pulse-coupled neural networks and the NMI feature for high spatial resolution remote sensing imagery
CN111709313B (zh) 基于局部和通道组合特征的行人重识别方法
CN110751018A (zh) 一种基于混合注意力机制的群组行人重识别方法
CN110765841A (zh) 基于混合注意力机制的群组行人重识别系统及终端
CN113205002B (zh) 非受限视频监控的低清人脸识别方法、装置、设备及介质
CN112084952B (zh) 一种基于自监督训练的视频点位跟踪方法
CN111539351A (zh) 一种多任务级联的人脸选帧比对方法
CN112036381A (zh) 视觉跟踪方法、视频监控方法及终端设备
CN111105436B (zh) 目标跟踪方法、计算机设备及存储介质
CN112257492A (zh) 一种多路摄像头实时入侵检测与跟踪方法
Suba et al. Violence detection for surveillance systems using lightweight CNN models
Zhou et al. Flame detection with pruned and knowledge distilled YOLOv5
Zhao et al. Deep learning-based laser and infrared composite imaging for armor target identification and segmentation in complex battlefield environments
Rao Implementation of Low Cost IoT Based Intruder Detection System by Face Recognition using Machine Learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant