CN111310633B - 基于视频的并行时空注意力行人重识别方法 - Google Patents
基于视频的并行时空注意力行人重识别方法 Download PDFInfo
- Publication number
- CN111310633B CN111310633B CN202010084877.9A CN202010084877A CN111310633B CN 111310633 B CN111310633 B CN 111310633B CN 202010084877 A CN202010084877 A CN 202010084877A CN 111310633 B CN111310633 B CN 111310633B
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- time sequence
- spatial
- video
- space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
基于视频的并行时空注意力行人重识别方法,属于计算机视觉领域。本发明提出的并行时空网络模型,能够同时提取行人的时序特征和空间特征,显著减少了行人信息的损失。此外为获取更具有辨识性的时序特征,本发明提出了全局时序注意力模块,同时为获取更具有辨识性的空间特征本发明引入了空间卷积注意力模块。全局时序注意力模块能够选择出辨识性更强的视频帧,同时空间卷积注意力模块能够对显著性区域进行特征提取。最终本发明使用特征融合的方法对时序特征和空间特征进行联合,从而获得更加完整的行人特征用于行人的重识别,极大提高了行人重识别模型的鲁棒性。
Description
技术领域
本发明属于计算机视觉领域,特别涉及一种基于视频的并行时空注意力行人重识别方法。
背景技术
行人重识别是计算机视觉领域具有挑战性的理论研究方向,同时也是工程领域中的重要应用技术。由于光照、遮挡、行人姿态变化等因素的影响,行人重识别还有很多问题亟待解决。目前,行人重识别主要分为基于图片和基于视频两类方法。基于图片行人重识别以图片作为研究对象,但是图像所提供的信息非常有限,想要捕获有效的信息进行识别并不容易。相较而言,在基于视频的行人重识别中,研究人员可以从视频帧中提取出时序信息和更加完整的空间信息。因此,本发明以视频为研究对象,针对网络提取视频中行人特征所面临的问题,提出独特的并行时空注意力方法来有效地提取辨识性特征用于行人重识别。
目前,基于视频的行人重识别主要使用二维卷积网络与时序池化结合的方法和三维卷积网络的方法来提取行人特征。这两种方法都能够获得行人的特征,但是依然存在以下问题:(1)在二维卷积网络与时序池化结合的方法中,首先使用二维卷积网络提取行人空间信息,然后使用时序池化将行人的信息提取到一个特征矩阵中,提取出的时序特征矩阵将作为行人最终的特征。然而,由于一个人在一个视频序列中可能表现出很大的视觉变化,单一的特征矩阵不能完全表达行人外观的多样性,因此仅仅使用提取出的时序特征矩阵作为行人最终的特征不可避免的会丢失一些重要的细节信息。(2)使用三维卷积网络能够同时提取出行人的空间特征和时序特征,但是三维卷积网络的参数量众多,训练难度大,计算代价非常高。
为解决以上问题,本发明提出了基于视频的并行时空注意力行人重识别方法。首先使用并行时空网络提取行人的时序特征和空间特征,减少行人信息的损失。其次,引入全局时序注意力模块和空间卷积注意力模块获取更具有辨识性的行人特征。
发明内容
本发明的主要目的是提出一种基于视频的并行时空注意力行人重识别方法,以实现高效的行人重识别。
为实现以上目的,本发明提供如下技术方案:
步骤一、获取视频帧:从数据集的每段视频中选取出T帧视频,其中视频帧数T为超参数;
步骤二、提取视频帧中的初级空间特征:将步骤一中提取的视频帧输入到初级空间特征提取网络中,首先使用卷积网络分别提取每一帧中的初级空间特征si,i=1,2…,T,然后按照视频帧的时序将初级空间特征si按照原有视频顺序拼接在一起构成该段视频的初级空间特征集合S={s1,s2,…,si,…,sT}。
步骤三、提取行人时序特征:将步骤二中生成的初级空间特征集合S输入到时序特征提取模块中。在时序特征提取模块中首先使用卷积网络进一步提取行人的空间特征,然后构建全局时序注意力模块计算时序注意力权重Wt∈RT×T,最后对视频帧进行加权融合生成行人的时序特征ft。
步骤四、选取权重最高的视频帧:按照步骤三中产生的时序注意力权重对视频帧进行排序,根据排序结果选取出权重最高的前N帧视频帧;
步骤五、使用并行空间特征提取模块提取行人空间特征:将步骤四选取出的权重最高的前N帧视频帧所对应的初级空间特征si∈S分别输入到空间特征提取模块中。在空间特征提取模块首先使用空间卷积注意力模块计算每帧的空间注意力概率分布Ws,然后使用该空间概率分布与该帧的初级空间特征进行加权融合得到加权后的空间特征矩阵最后对生成的空间特征使用卷积操作和空间上的平均池化计算出权重最高的前N帧视频帧最终的行人空间特征i= 1,2,…,N。
步骤六、融合行人特征:将步骤三中产生的行人时序特征ft和步骤五中产生的N个行人空间特征i=1,2,…,N使用矩阵拼接的方式沿通道方向融合为最终的行人特征。
步骤七、模型训练:采用三元组损失函数和交叉熵损失函数作为该模型的目标函数,训练得到并行时空注意力网络模型。
与现有技术相比,本发明具有以下有益效果:
1、本发明使用并行的空间特征提取模块能够提取出更多的行人空间特征。与以往直接使用时序特征作为行人特征的方法相比,能够减少行人空间信息的损失。
2、步骤三中构建的全局时序注意力模块能够根据当前帧与视频片段中所有视频帧之间的关系计算当前帧的权重。与仅计算当前帧与相邻帧之间的关系相比更加精确的计算视频帧的权重,有效的提高了行人时序特征的获取。
3、步骤六中选取视频帧,本发明充分利用了全局时序注意力模块产生的权重。与随机抽帧相比,使用全局时序注意力模块产生的权重选取的视频帧更具有辨识性。
附图说明
图1为本发明的算法模型图。
图2本发明的全局时序注意力模型图。
图3为本发明的选取视频帧示意图。
图4为本发明使用的空间注意力模型图。
图5为MARS数据集空间注意力结果图。其中,(a)(b)(c)(d)为第一个行人的视频序列中不同帧(时刻)的注意力结果图;(e)(f)(g)(h)为第二个行人的视频序列中不同帧(时刻)的注意力结果图;(i)(j)(k)(l)为第三个行人的视频序列中不同帧(时刻)的注意力结果图。
图6为本发明的模型训练图。
具体实施方式
图1表示本发明的算法模型图。算法以视频帧为输入,包含初级特征提取模块、时序特征提取模块、空间特征提取模块、特征融合模块等部分。其中时序特征提取模块中包含全局时序注意力模型,用于计算不同视频帧的权重及选取视频帧;空间特征模块中包含空间卷积注意力模型,用于计算空间不同部位的权重。
为了对本发明进行更好的说明,下面以公开的行人重识别数据集MARS进行阐述。
上述技术方案中步骤一中T帧视频的具体选取方法是:
在选取视频的过程中,预先设定视频帧数T。对每段视频序列,若其总帧数大于T则选取前T帧视频,否则选取该段视频全部视频帧,然后从该段视频的第一帧开始二次选取以补全T帧。
上述技术方案中步骤二中初级空间特征提取网络的构建方法是:
以ResNet网络为基础,使用ResNet50网络中前4层conv1至conv4取视频帧中行人的初级空间特征。在初级空间特征提取网络的训练阶段,首先将ResNet50网络在ImageNet数据集上进行预训练,并在行人重识别数据集MARS 上进行微调,利用微调后的ResNet50网络实现初级特征的提取。
上述技术方案中步骤三中全局时序注意力模型的构建方法为:
全局时序注意力模型如图2所示,输入初级空间特征矩阵S,首先使用二维卷积神经网络来进一步提取行人的空间特征,并压缩每一视频帧的空间尺寸到1*1 从而得到特征矩阵M。对M分别使用一维卷积神经网络提取视频帧中的时序信息得到得到时序特征θ∈RT×1和时序特征然后将θ和进行矩阵乘积并经过 Softmax操作得到时序注意力权重Wt∈RT×T,即
M=Conv2d(X)
θ=Conv1d(M)
其中Conv1d为一维卷积神经网络,Conv2d为二维卷积神经网络。另外使用空间平均池化的方法从初级空间特征矩阵S中压缩空间尺寸到1*1从而得到特征矩阵 P。最后将特征矩阵P与权重矩阵Wt进行矩阵相乘并在时序上使用平均池化获得行人的时序特征ft。全局时序注意力可以获得每一帧与视频序列中所有帧之间的关联性,相比于仅仅计算当前帧与相邻帧之间的关系,本发明提出的全局时序注意力生成的权重矩阵Wt可以对视频的时序信息作出更好的评价。
上述技术方案中步骤四中选取权重最高的视频帧的方法为:
首先对步骤三中产生的时序注意力权重矩阵Wt进行按列求和获得选择矩阵 W,然后对选择矩阵W按照数值大小进行排序并记录最大的前4帧视频帧的编号,最后根据编号选择对应视频帧送入空间模块进行进一步的特征提取。图3为本发明对行人重识别数据集MARS中一个视频序列的选取结果。
上述技术方案中步骤五中空间卷积注意力模型由Sanghyun Woo等人为解决图像分类问题而提出,其构建方法为:
如图4所示,输入一帧视频帧si首先在空间上使用最大池化的方法获得空间特征矩阵f,使用空间平均池化的方法获得空间特征矩阵g,然后将f和g拼接为空间特征矩阵h并使用二维卷积神经网络进一步提取空间信息,最后使用 Sigmoid操作得到注意力概率分布Ws,即
g=AvgPool(si)
Ws=σ(Conv2d(f+g))
其中AvgPool为空间平均池化,MaxPool为空间最大池化,Conv2d为二维空间卷积,σ为Sigmoid操作。
使用Ws与si进行矩阵乘法操作获得评价结果图5为MARS数据集部分帧使用空间注意力后的结果图。从该图可以看出使用空间注意力后可以对视频帧中具有辨识性的空间部分赋予更高的权重,这将有效的提高行人的重识别。
上述技术方案中步骤七中模型的训练方法为:
为训练网络模型,本发明采用三元组损失函数和交叉熵损失函数作为目标函数。如图6所示,本发明对提取出的时序特征ft和N个行人空间特征i= 1,2,…,N分别使用三元组损失进行训练。另外获取到时序特征和空间特征后分别使用全连接层获得行人的ID,然后使用交叉熵损失函数进行训练。通过对每部分特征进行分别训练可以获得更具有差异性的行人特征,增强模型的鲁棒性。
为验证本发明的准确性和鲁棒性,本发明在公开的PRID2011、iLIDS-VID和 MARS数据集上进行了实验。PRID2011是一个常用的视频行人重识别数据集,该数据集共有两个摄像头拍摄而成,其中一个摄像头中有475个行人另一个摄像头中有753个行人,每个行人的视频片段包含5到675帧。iLIDS-VID数据集从iLIDS-MCTS数据集中提取了包括300个身份的600个视频。取自监控航空接站大厅,从2个不相交摄像机创建该数据集。由于iLIDS-MCTS数据集的局限性, iLIDS-VID遮挡非常严重。MARS数据集是一个数据量大,识别难度高的数据集。该数据集拍摄于清华大学校园内,有7个摄像头共同拍摄而成,包含了1261个行人和超过20000段的视频序列。
这三种数据集中的行人存在姿态、尺寸、视角、光照条件等变化因素,因此是具有挑战性的数据集。iLIDS-VID和MARS数据集中更是存在着部分遮挡和行人外表改变的影响因素,这为行人的重识别带来了极大的挑战。表1中是这三个数据中存在的干扰因素,主要包含光照、遮挡、形变等问题。
表1视频中存在的干扰因素
视频类别 | 干扰因素 |
PRID2011 | 光照变化、低分辨率、背景混乱 |
iLIDS-VID | 形变、视角,物体不明显 |
MARS | 光照变换、视角、遮挡、形变 |
实验参数设置:
表2数据库实验参数设置
数据集 | 训练样本数 | 测试样本数 | 图片大小 | 学习率 | 迭代次数 |
PRID2011 | 占2/3 | 占1/3 | 256*128 | 0.001 | 400 |
iLIDS-VID | 占1/2 | 占1/2 | 256*128 | 0.001 | 400 |
MARS | 625个 | 636个 | 256*128 | 0.001 | 400 |
表2是两个数据集在实验中的各个参数设置。其中分别包括训练样本和测试样本所占的比例、处理后的图片大小、学习率及其变化以及总的迭代次数。
本发明采用了累计匹配(CMC)和平均正确率(mAP)两个指标对本发明提出的方法进行了验证。表3为本发明提出的方法与时空联合递归神经网络(SeeForest)、基于局部质量评估网络(RQEN)、多样性正则化注意力模型(STAN) 等方法在PRID2011、iLIDS-VID和MARS数据集上的测试结果,本发明在这三个数据集上都取得了较高的识别率。尽管这些数据集存在着遮挡,变形,低分辨率等影响因素,但本发明提出的方法对这些影响因素具有很好的鲁棒性。
表3数据集上的识别率
上面结合附图对本发明的具体实施方式做了详细说明,但是本发明并不限于上述实施方式,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下做出各种变化。
Claims (1)
1.基于视频的并行时空注意力行人重识别方法,其特征在于,步骤如下:
步骤一、获取视频帧:从数据集的每段视频中选取出T帧视频,其中视频帧数T为超参数;
步骤二、提取视频帧中的初级空间特征:将步骤一中提取的视频帧输入到初级空间特征提取网络中,首先使用卷积网络分别提取每一帧中的初级空间特征si,i=1,2…,T,然后按照视频帧的顺序将初级空间特征si拼接在一起,构成该段视频的初级空间特征集合S={s1,s2,…,si,…,sT};
所述步骤二中,初级空间特征提取网络的构建方法是:
以ResNet网络为基础,使用ResNet50网络中前4层conv1至conv4提取视频帧中行人的初级空间特征,在初级空间特征提取网络的训练阶段,首先将ResNet50网络在ImageNet数据集上进行预训练,并在行人重识别数据集MARS上进行微调,利用微调后的ResNet50网络实现初级特征的提取;
步骤三、提取行人时序特征:将步骤二中生成的初级空间特征集合S输入到时序特征提取模块中,在时序特征提取模块中首先使用卷积网络进一步提取行人的空间特征,然后构建全局时序注意力模块,计算时序注意力权重Wt∈RT×T,最后对视频帧进行加权融合生成行人的时序特征ft;
所述步骤三的具体过程为:
输入初级空间特征集合S,首先使用二维卷积神经网络来进一步提取行人的空间特征,并压缩每一视频帧的空间尺寸到1*1,从而得到特征矩阵M;对M分别使用一维卷积神经网络提取视频帧中的时序信息,得到时序特征θ∈RT×1和时序特征然后将θ和进行矩阵乘积并经过Softmax操作得到时序注意力权重Wt∈RT×T,即
M=Conv2d(X)
θ=Conv1d(M)
其中Conv1d为一维卷积神经网络,Conv2d为二维卷积神经网络;另外使用空间平均池化的方法从初级空间特征集合S中压缩空间尺寸到1*1从而得到特征矩阵P;最后将特征矩阵P与权重矩阵Wt进行矩阵相乘,并在时序上使用平均池化获得行人的时序特征ft;
步骤四、选取权重最高的视频帧:按照步骤三中产生的时序注意力权重对视频帧进行排序,根据排序结果选取出权重最高的前N帧视频帧;
所述步骤四中,选取权重最高的视频帧的具体过程为:
首先对步骤三中产生的时序注意力权重Wt矩阵进行按列求和,获得选择矩阵W,然后对选择矩阵W按照数值大小进行排序并记录最大的前N帧视频帧的编号,最后根据编号选择对应前N帧视频帧送入空间特征提取模块进行进一步的特征提取;
步骤五、使用并行空间特征提取模块提取行人空间特征:将步骤四选取出的权重最高的前N帧视频帧所对应的初级空间特征si∈S分别输入到空间特征提取模块中;在空间特征提取模块首先使用空间卷积注意力模块计算每帧的空间注意力概率分布Ws,然后使用该空间注意力概率分布与该帧的初级空间特征进行加权融合得到加权后的空间特征矩阵最后对生成的空间特征使用卷积操作和空间上的平均池化计算出权重最高的前N帧视频帧最终的行人空间特征fs i,i=1,2,…,N;
步骤六、融合行人特征:将步骤三中产生的行人时序特征ft和步骤五中产生的N个行人空间特征fs i,i=1,2,…,N使用矩阵拼接的方式沿通道方向融合为最终的行人特征;
步骤七、模型训练:采用三元组损失函数和交叉熵损失函数作为该模型的目标函数,训练得到并行时空注意力网络模型;
所述步骤七中,模型训练的方法为:
采用三元组损失函数和交叉熵损失函数作为目标函数;对提取出的时序特征ft和N个行人空间特征fs i,i=1,2,…,N分别使用三元组损失进行训练;另外获取到时序特征和空间特征后分别使用全连接层获得行人的ID,然后使用交叉熵损失函数进行训练;通过对每部分特征进行分别训练可以获得更具有差异性的行人特征,增强模型的鲁棒性。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010084877.9A CN111310633B (zh) | 2020-02-10 | 2020-02-10 | 基于视频的并行时空注意力行人重识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010084877.9A CN111310633B (zh) | 2020-02-10 | 2020-02-10 | 基于视频的并行时空注意力行人重识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111310633A CN111310633A (zh) | 2020-06-19 |
CN111310633B true CN111310633B (zh) | 2023-05-05 |
Family
ID=71148894
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010084877.9A Active CN111310633B (zh) | 2020-02-10 | 2020-02-10 | 基于视频的并行时空注意力行人重识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111310633B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112364757B (zh) * | 2020-11-09 | 2022-10-21 | 大连理工大学 | 一种基于时空注意力机制的人体动作识别方法 |
CN112800957A (zh) * | 2021-01-28 | 2021-05-14 | 内蒙古科技大学 | 视频行人重识别方法、装置、电子设备及存储介质 |
CN113221686B (zh) * | 2021-04-27 | 2024-01-09 | 西北工业大学 | 一种基于时空通道注意力的目标重识别方法 |
CN113139496A (zh) * | 2021-05-08 | 2021-07-20 | 青岛根尖智能科技有限公司 | 一种基于时序多尺度融合的行人重识别方法及系统 |
WO2022236668A1 (zh) * | 2021-05-11 | 2022-11-17 | 深圳大学 | 行人重识别方法、系统、电子装置及存储介质 |
CN113449601B (zh) * | 2021-05-28 | 2023-05-16 | 国家计算机网络与信息安全管理中心 | 基于渐进性平滑损失的行人重识别模型训练和识别方法与装置 |
CN113343810B (zh) * | 2021-05-28 | 2023-03-21 | 国家计算机网络与信息安全管理中心 | 基于时序多样性与相关性的行人重识别模型训练和识别方法与装置 |
CN114067270B (zh) * | 2021-11-18 | 2022-09-09 | 华南理工大学 | 一种车辆追踪方法和装置、计算机设备及存储介质 |
CN114529938B (zh) * | 2022-01-06 | 2024-10-18 | 山东师范大学 | 一种面向航空视角下的行人重识别方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110110642A (zh) * | 2019-04-29 | 2019-08-09 | 华南理工大学 | 一种基于多通道注意力特征的行人重识别方法 |
CN110188611A (zh) * | 2019-04-26 | 2019-08-30 | 华中科技大学 | 一种引入视觉注意力机制的行人重识别方法及系统 |
CN110765841A (zh) * | 2019-09-03 | 2020-02-07 | 上海交通大学 | 基于混合注意力机制的群组行人重识别系统及终端 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108229455B (zh) * | 2017-02-23 | 2020-10-16 | 北京市商汤科技开发有限公司 | 物体检测方法、神经网络的训练方法、装置和电子设备 |
US11651206B2 (en) * | 2018-06-27 | 2023-05-16 | International Business Machines Corporation | Multiscale feature representations for object recognition and detection |
-
2020
- 2020-02-10 CN CN202010084877.9A patent/CN111310633B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110188611A (zh) * | 2019-04-26 | 2019-08-30 | 华中科技大学 | 一种引入视觉注意力机制的行人重识别方法及系统 |
CN110110642A (zh) * | 2019-04-29 | 2019-08-09 | 华南理工大学 | 一种基于多通道注意力特征的行人重识别方法 |
CN110765841A (zh) * | 2019-09-03 | 2020-02-07 | 上海交通大学 | 基于混合注意力机制的群组行人重识别系统及终端 |
Non-Patent Citations (1)
Title |
---|
宋婉茹 等.行人重识别研究综述.《智能系统学报》.2017,第第12卷卷(第第12卷期),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN111310633A (zh) | 2020-06-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111310633B (zh) | 基于视频的并行时空注意力行人重识别方法 | |
CN106778604B (zh) | 基于匹配卷积神经网络的行人再识别方法 | |
CN110119780B (zh) | 基于生成对抗网络的高光谱图像超分辨重建方法 | |
CN108520535B (zh) | 基于深度恢复信息的物体分类方法 | |
CN104090972B (zh) | 用于三维城市模型检索的图像特征提取和相似性度量方法 | |
CN111738143B (zh) | 一种基于期望最大化的行人重识别方法 | |
CN111814661A (zh) | 基于残差-循环神经网络的人体行为识别方法 | |
CN112651262B (zh) | 一种基于自适应行人对齐的跨模态行人重识别方法 | |
CN113947814B (zh) | 一种基于时空信息增强和多尺度显著性特征提取的跨视角步态识别方法 | |
CN109447123B (zh) | 一种基于标签一致性约束与拉伸正则化字典学习的行人再识别方法 | |
CN110751018A (zh) | 一种基于混合注意力机制的群组行人重识别方法 | |
CN110097617B (zh) | 基于卷积神经网络与显著性权重的图像融合方法 | |
CN110765841A (zh) | 基于混合注意力机制的群组行人重识别系统及终端 | |
CN110175506B (zh) | 基于并行降维卷积神经网络的行人重识别方法及装置 | |
CN115424051B (zh) | 一种全景拼接图像质量评价方法 | |
CN116030495A (zh) | 基于倍率学习的低分辨率行人重识别算法 | |
CN116681742A (zh) | 基于图神经网络的可见光与红外热成像图像配准方法 | |
CN112785626A (zh) | 一种基于多尺度特征融合的孪生网络小目标跟踪方法 | |
CN111079585B (zh) | 图像增强结合伪孪生卷积神经网络的行人再识别方法 | |
CN117132621A (zh) | 一种基于全局多尺度策略特征增强的目标跟踪方法 | |
CN112308887A (zh) | 一种多源图像序列实时配准方法 | |
CN110070626B (zh) | 一种基于多视角分类的三维物体检索方法 | |
CN116797640A (zh) | 一种面向智能伴行巡视器的深度及3d关键点估计方法 | |
CN116416649A (zh) | 一种基于多尺度分辨率对齐的视频行人重识别方法 | |
CN113537032B (zh) | 一种基于图片分块丢弃的分集多支路行人重识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |