CN115050101A - 一种基于骨骼和轮廓特征融合的步态识别方法 - Google Patents

一种基于骨骼和轮廓特征融合的步态识别方法 Download PDF

Info

Publication number
CN115050101A
CN115050101A CN202210841836.9A CN202210841836A CN115050101A CN 115050101 A CN115050101 A CN 115050101A CN 202210841836 A CN202210841836 A CN 202210841836A CN 115050101 A CN115050101 A CN 115050101A
Authority
CN
China
Prior art keywords
pedestrian
skeleton
feature
gait
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210841836.9A
Other languages
English (en)
Other versions
CN115050101B (zh
Inventor
冯子亮
单强达
许重阳
蓝田野
潘悦
唐玄霜
黎光耀
董佳乐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan University
Original Assignee
Sichuan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan University filed Critical Sichuan University
Priority to CN202210841836.9A priority Critical patent/CN115050101B/zh
Publication of CN115050101A publication Critical patent/CN115050101A/zh
Application granted granted Critical
Publication of CN115050101B publication Critical patent/CN115050101B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于骨骼和轮廓特征融合的步态识别方法,融合了行人轮廓图识别方法和骨骼关键点识别方法的优点,先提取行人骨骼关键点特征和行人轮廓图特征,再将其送入神经网络,在网络中间进行融合,实现基于步态的行人识别;本方法可解决步态识别中易受服装、视角和携带物等因素影响识别效果的问题,使得处于携带物、服装、视角等因素影响下的步态识别精度有了显著提升,具有识别精度高、鲁棒性强等优点。

Description

一种基于骨骼和轮廓特征融合的步态识别方法
技术领域
本发明属于计算机视觉领域,尤其涉及一种基于骨骼和轮廓特征融合的步态识别方法。
背景技术
步态识别通常是指根据行人行走时的步态来识别来行人的过程,是计算机视觉领域一个重要的研究和应用方向,广泛应用于场景监控、行人识别等领域的视频分析,具有广阔的应用前景和使用价值。
步态识别技术可分为基于模型的方法、基于行人轮廓图的方法、基于步态能量图的方法、基于步态熵图的方法、基于骨骼关键点的方法等类别。
基于行人轮廓图的方法是一种常用方法,它通过背景分离或实例分割技术对视频中的行人进行实例提取,生成行人轮廓图,然后通过卷积神经网络对步态特征进行提取和识别;该方法具有较好的识别效果,但在拍摄角度、行人衣着或携带物等发生变化时,识别率会明显下降。
基于骨骼关键点的方法是另一种常用方法,它通过姿态估计方法来进行骨骼关键点信息提取,通过对关键点运动变化的识别来实现对行人步态的识别;该方法对行人衣着打扮具有较高的鲁棒性;但是在受遮挡时识别率也会受到严重影响。
为了解决步态识别中易受服装、视角和携带物等因素影响识别效果的问题,考虑到多模态特征融合具有鲁棒性强和稳定性好等优点,本发明提出一种多模态特征融合的步态识别方法,先提取行人骨骼关键点特征,以及行人轮廓图特征,再将其送入神经网络,在网络中间进行融合,可实现的基于步态的行人识别;该方法具有识别精度高、鲁棒性强等优点。
发明内容
一种基于骨骼和轮廓特征融合的步态识别方法,其特征在于,包括以下步骤。
步骤1,采用基于神经网络的姿态估计算法对视频进行处理,得到每帧图像中的行人骨骼关键点位置,包括:
基于神经网络的姿态估计算法,采用具有并行的多子网络结构的特征提取模型,使用骨骼关键点的高斯热力图作为标签进行模型训练;最后通过寻找高斯热力图中的峰值点来确定行人骨骼关键点位置。
步骤2,使用骨骼关键点位置数据进行计算,生成关键点移动速度、骨骼长度与角度数据;骨骼关键点的位置、速度、骨骼长度与角度统称为骨骼关键点数据。
步骤3,通过图卷积神经网络对行人骨骼关键点数据进行特征提取,包括:
将骨骼关键点位置、速度、骨骼长度与角度这三组骨骼关键点数据,作为三个输入分别顺序经过批正则化模块、初始化模块、两个带注意力机制的图卷积神经网络模块,进行特征提取;然后在网络的中部进行融合,最后通过一条共享的主干网络,即两个带注意力机制的图卷积神经网络模块,生成最终的行人骨骼关键点特征图。
步骤4,采用基于神经网络的实例分割方法对原始视频数据进行处理,生成行人的轮廓图,包括:
采用轻量化的实例分割模型对原始视频中的每一帧进行特征提取,得到相应的行人轮廓图。
步骤5,对行人轮廓图进行归一化处理,包括:
剪除垂直方向上的多余像素并放缩到合适的尺寸,剪除水平方向上多余的像素得到最终的图片尺寸。
步骤6,采用局部轮廓特征提取器对归一化后的行人轮廓图进行特征提取,并使用时间特征聚合注意力模块对其进行特征压缩,包括:
时间特征聚合注意力模块通过最大值函数、均值函数和中值函数三种基础函数对输入进行全局特征收集,然后在时间维度上进行复制并将三者拼接到一起;最后通过1*1的卷积进行通道压缩并生成注意力图,得到最终的行人轮廓特征图。
步骤7,将行人骨骼关键点特征图和行人轮廓特征图进行拼接,使用分离全连接层和局部注意力机制引导两者融合,生成最终的步态特征。
步骤8,使用欧式距离,比对计算生成的步态特征与数据库中的步态特征,选取出距离最小的步态特征对应的行人,作为最终的识别结果。
本方法融合了行人轮廓图识别方法和骨骼关键点识别方法的优点,将行人轮廓图特征和骨骼关键点特征送入神经网络,在网络中间进行融合,使得处于携带物、服装、视角等因素影响下的步态识别精度有了显著提升,具有良好的鲁棒性。
附图说明
图1为本发明方法的流程示意图。
图2为骨骼关键点及其高斯热力图示意图。
图3为COCO数据集行人关键点分布图。
图4为骨骼关键点数据包含的三组特征。
图5为使用图卷积神经网络提取行人骨骼关键点特征流程示意图。
图6为对行人轮廓图进行归一化处理流程示意图。
图7为时间特征聚合注意力模块示意图。
具体实施方式
为了更加清楚地展示本发明的目的和技术方案,下面将结合具体的实施过程和附图,对本发明的具体实施方式和参数进行更加详细的描述。
一种基于骨骼和轮廓特征融合的步态识别方法,如图1所示,包含以下步骤。
步骤1,采用基于HRNet的姿态估计算法对视频进行处理,得到每帧图像中的行人骨骼关键点位置。
HRNet姿态估计算法,采用具有并行的多子网络结构的特征提取模型,处于最上层分支中的特征图一直保持着高分辨率;使用骨骼关键点的高斯热力图作为标签进行模型训练,网络最终便可生成关键点高斯热力图;最后通过寻找高斯热力图中的峰值点可确定行人骨骼关键点位置。
所述使用骨骼关键点的高斯热力图作为标签是指,根据通过高斯函数在骨骼关键点生成热力图;其灰度可以公式表示为:I(x,y)=exp(-((x-xc)^2+(y-yc)^2)/(2*var^2)),其中,(x,y)表示热力图上一个像素点的位置,(xc,yc)表示关键点的位置,^2表示平方,var表示标准差,在本实施例中设定为3。
用灰度表示的骨骼关键点及其高斯热力图的示意图如图2所示。
不同的行人关键点数据集标注的行人关键点个数不同,如COCO数据集行人关键点有17个,其分布如图3所示。
步骤2,使用骨骼关键点位置数据进行计算,生成关键点移动速度、骨骼长度与角度数据,位置、速度、长度与角度这三组特征的示意图如图4所示;其中,将骨骼视为关键点的连线。
步骤3,通过图卷积神经网络GCN对行人骨骼关键点数据进行特征提取,其流程如图5上方所示,包括:
将骨骼关键点位置、速度、骨骼长度与角度这三组骨骼关键点数据,作为三个输入,分别顺序经过批正则化模块(Batch Normal)、初始化模块(Initial Block)、两个带注意力机制的图卷积神经网络(64*48的GCN、48*16的GCN),进行特征提取;然后在网络的中部进行融合,最后经过一条共享的主干网络,即两个带注意力机制的图卷积神经网络(48*64的GCN、64*128的GCN),生成最终的行人骨骼关键点特征图。
带注意力机制的图卷积神经网络(GCN)的构成如图5左下方所示。由一个空间图卷积(SGC) 模块、若干个时间维度卷积模块(TC)以及一个注意力机制模块(Attention)堆叠而成。
步骤4,采用Mask RCNN网络对原始视频中的每一帧进行特征提取,得到相应的行人轮廓图。
步骤5,对行人轮廓图进行归一化处理,剪除图像垂直方向和水平方向上多余的空白像素点,如图6所示。
若最终的图片分辨率为64*44,则先剪除图片中行人头顶上方和脚部下方的多余像素,并将图片缩放到高度44像素。
具体操作时,先在水平方向上对所有像素求和,得到第一个非零位置便是上临界点,最后一个非零位置便是下临界点,然后剪除上临界点之上的像素、下临界点以下的像素。
剪除垂直方向上的多余像素并放缩到合适的尺寸,以行人躯干中心点为基准,向左右两侧分别裁剪出32个像素点,最终得到输出图片分辨率为64*44。
具体操作时,先在垂直方向上对所有像求和,当求和的值等于图像中所有像素和一半时停止,此位置作为行人水平中心点位置,然后从此中心点分别向左右两侧扩展设定的像素个数,并剪除此区域外的像素点。
步骤6, 将归一化之后的行人轮廓数据,输入局部轮廓特征提取器进行特征提取,并采用时间特征聚合注意力模块进行特征压缩,得到最终的行人轮廓特征图。
局部轮廓特征提取器采用GaitPart 方法中的特征提取器部分。
时间特征聚合注意力模块的具体实现方式如图7所示,首先通过最大值函数max(·)、均值函数mean(·)、中值函数median(·)三种基础函数对输入进行全局特征收集,然后在时间维度上进行复制并将三者拼接到一起;最后通过1*1的卷积进行通道压缩并生成注意力图。
基于注意力机制的时间聚合模块从整体上来看采用了残差结构,保持网络结构稳定性的同时提高了网络训练收敛速度。
步骤7,将行人骨骼关键点特征图和行人轮廓特征图进行拼接,再通过分离全连接层和局部注意力机制引导两者融合,生成最终的步态特征图。
步骤8,使用欧式距离,比对计算生成的步态特征与数据库中的步态特征,选取出距离最小的步态特征对应的行人,作为最终的识别结果。
如特征图的尺寸为20*128,则先该特征图拉成一个长度为2560的一维向量,然后再与数据库中所有的特征向量进行欧式距离计算和比对,选取距离最小的特征向量对应的行人作为最终结果。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其进行限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;或者修改各个步骤的使用顺序,而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围;本发明各种阈值及范围取值,也会因为装置的具体参数不同而有所改变。

Claims (6)

1.一种基于骨骼和轮廓特征融合的步态识别方法,其特征在于,包括以下步骤:
步骤1,使用基于神经网络的姿态估计算法对视频进行处理,得到每帧图象中的行人骨骼关键点位置;
步骤2,使用骨骼关键点位置数据进行计算,生成关键点移动速度、骨骼长度与角度数据;
步骤3,通过图卷积神经网络对行人骨骼关键点数据进行特征提取,生成行人骨骼关键点特征图;
步骤4,使用基于神经网络的实例分割方法对原始视频数据进行处理,生成行人的轮廓图;
步骤5,对行人轮廓图进行归一化处理;
步骤6,采用局部轮廓特征提取器对归一化后的行人轮廓图进行特征提取,并使用时间特征聚合注意力模块对其进行特征压缩;生成行人轮廓特征图;
步骤7,将行人骨骼关键点特征图和行人轮廓特征图进行拼接,使用分离全连接层和局部注意力机制引导两者融合,生成最终的步态特征;
步骤8,使用欧式距离,比对计算生成的步态特征与数据库中的步态特征,选取出距离最小的步态特征对应的行人,作为最终的识别结果。
2.基于权利要求1所述的方法,其特征在于,步骤1所述基于神经网络的姿态估计算法,包括:
采用具有并行的多子网络结构的特征提取模型,使用骨骼关键点的高斯热力图作为标签进行模型训练;最后通过寻找高斯热力图中的峰值点来确定行人骨骼关键点位置。
3.基于权利要求1所述的方法,其特征在于,步骤3所述图卷积神经网络,包括:
先将骨骼关键点位置、速度、骨骼长度与角度这三组骨骼关键点数据,作为三个输入分别顺序经过批正则化模块、初始化模块、两个带注意力机制的图卷积神经网络模块,进行特征提取;然后在网络的中部进行融合,最后通过一条共享的主干网络,即两个带注意力机制的图卷积神经网络模块,生成最终的行人骨骼关键点特征图。
4.基于权利要求1所述的方法,其特征在于,步骤4所述基于神经网络的实例分割方法,包括:
采用轻量化的实例分割模型对原始视频中的每一帧进行特征提取,得到相应的行人轮廓图。
5.基于权利要求1所述的方法,其特征在于,步骤5所述对行人轮廓图进行归一化处理,包括:
先剪除垂直方向上的多余像素并放缩到合适的尺寸,再剪除水平方向上多余的像素得到最终的图片尺寸。
6.基于权利要求1所述的方法,其特征在于,步骤6所述时间特征聚合注意力模块,包括:
先通过最大值函数、均值函数和中值函数三种基础函数对输入进行全局特征收集,然后在时间维度上进行复制并将三者拼接到一起;最后通过1*1的卷积进行通道压缩并生成注意力图。
CN202210841836.9A 2022-07-18 2022-07-18 一种基于骨骼和轮廓特征融合的步态识别方法 Active CN115050101B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210841836.9A CN115050101B (zh) 2022-07-18 2022-07-18 一种基于骨骼和轮廓特征融合的步态识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210841836.9A CN115050101B (zh) 2022-07-18 2022-07-18 一种基于骨骼和轮廓特征融合的步态识别方法

Publications (2)

Publication Number Publication Date
CN115050101A true CN115050101A (zh) 2022-09-13
CN115050101B CN115050101B (zh) 2024-03-22

Family

ID=83166723

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210841836.9A Active CN115050101B (zh) 2022-07-18 2022-07-18 一种基于骨骼和轮廓特征融合的步态识别方法

Country Status (1)

Country Link
CN (1) CN115050101B (zh)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060001545A1 (en) * 2005-05-04 2006-01-05 Mr. Brian Wolf Non-Intrusive Fall Protection Device, System and Method
CN110110668A (zh) * 2019-05-08 2019-08-09 湘潭大学 一种基于反馈权重卷积神经网络和胶囊神经网络的步态识别方法
CN112101176A (zh) * 2020-09-09 2020-12-18 元神科技(杭州)有限公司 一种结合用户步态信息的用户身份识别方法及系统
CN112633209A (zh) * 2020-12-29 2021-04-09 东北大学 一种基于图卷积神经网络的人类动作识别方法
US20210174074A1 (en) * 2019-09-27 2021-06-10 Beijing Sensetime Technology Development Co., Ltd. Human detection method and apparatus, computer device and storage medium
CN113378649A (zh) * 2021-05-19 2021-09-10 北京建筑大学 身份、位置和动作识别方法、系统、电子设备及存储介质
CN113496216A (zh) * 2021-08-31 2021-10-12 四川大学华西医院 一种基于骨骼关键点的多角度跌倒高危识别方法及系统
CN113887501A (zh) * 2021-10-21 2022-01-04 泰康保险集团股份有限公司 行为识别方法、装置、存储介质及电子设备
CN114359962A (zh) * 2021-12-27 2022-04-15 浙江大华技术股份有限公司 一种姿态识别方法、装置及可读存储介质
CN114463555A (zh) * 2021-12-29 2022-05-10 浙江大华技术股份有限公司 步态特征提取方法及装置
CN114550291A (zh) * 2022-02-21 2022-05-27 重庆紫光华山智安科技有限公司 一种步态特征提取方法、装置及设备

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060001545A1 (en) * 2005-05-04 2006-01-05 Mr. Brian Wolf Non-Intrusive Fall Protection Device, System and Method
CN110110668A (zh) * 2019-05-08 2019-08-09 湘潭大学 一种基于反馈权重卷积神经网络和胶囊神经网络的步态识别方法
US20210174074A1 (en) * 2019-09-27 2021-06-10 Beijing Sensetime Technology Development Co., Ltd. Human detection method and apparatus, computer device and storage medium
CN112101176A (zh) * 2020-09-09 2020-12-18 元神科技(杭州)有限公司 一种结合用户步态信息的用户身份识别方法及系统
CN112633209A (zh) * 2020-12-29 2021-04-09 东北大学 一种基于图卷积神经网络的人类动作识别方法
CN113378649A (zh) * 2021-05-19 2021-09-10 北京建筑大学 身份、位置和动作识别方法、系统、电子设备及存储介质
CN113496216A (zh) * 2021-08-31 2021-10-12 四川大学华西医院 一种基于骨骼关键点的多角度跌倒高危识别方法及系统
CN113887501A (zh) * 2021-10-21 2022-01-04 泰康保险集团股份有限公司 行为识别方法、装置、存储介质及电子设备
CN114359962A (zh) * 2021-12-27 2022-04-15 浙江大华技术股份有限公司 一种姿态识别方法、装置及可读存储介质
CN114463555A (zh) * 2021-12-29 2022-05-10 浙江大华技术股份有限公司 步态特征提取方法及装置
CN114550291A (zh) * 2022-02-21 2022-05-27 重庆紫光华山智安科技有限公司 一种步态特征提取方法、装置及设备

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CHAO FAN等: "GaitPart: Temporal Part-Based Model for Gait Recognition", 《2020 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》, 5 August 2020 (2020-08-05), pages 14213 - 14221 *
NAN MA等: "A Survey of Human Action Recognition and Posture Prediction", 《TSINGHUA SCIENCE AND TECHNOLOGY 》, 21 June 2022 (2022-06-21), pages 973 - 1001 *
王科俊;丁欣楠;邢向磊;刘美辰;: "多视角步态识别综述", 自动化学报, no. 05, 11 October 2018 (2018-10-11) *
许文芳;吴清江;王青力;: "基于LDA和SVM的步态识别", 计算机应用与软件, no. 05, 15 May 2008 (2008-05-15) *

Also Published As

Publication number Publication date
CN115050101B (zh) 2024-03-22

Similar Documents

Publication Publication Date Title
CN110728200B (zh) 一种基于深度学习的实时行人检测方法及系统
CN110097568B (zh) 一种基于时空双分支网络的视频对象检测与分割方法
CN109961051B (zh) 一种基于聚类和分块特征提取的行人重识别方法
CN111259786B (zh) 一种基于视频的外观和运动信息同步增强的行人重识别方法
CN108520226B (zh) 一种基于躯体分解和显著性检测的行人重识别方法
KR101410489B1 (ko) 얼굴 식별 방법 및 그 장치
US10140508B2 (en) Method and apparatus for annotating a video stream comprising a sequence of frames
CN113313736B (zh) 统一目标运动感知和重识别网络的在线多目标跟踪方法
Rekha et al. Hand gesture recognition for sign language: A new hybrid approach
KR101917354B1 (ko) 모바일 환경 객체 신뢰도 평가와 학습을 통한 융합 객체 추적 시스템 및 방법
CN111709317B (zh) 一种基于显著性模型下多尺度特征的行人重识别方法
CN110991321A (zh) 一种基于标签更正与加权特征融合的视频行人再识别方法
CN111401113A (zh) 一种基于人体姿态估计的行人重识别方法
Wang et al. MCF3D: Multi-stage complementary fusion for multi-sensor 3D object detection
CN112200056A (zh) 人脸活体检测方法、装置、电子设备及存储介质
US20230095533A1 (en) Enriched and discriminative convolutional neural network features for pedestrian re-identification and trajectory modeling
Kheirkhah et al. A hybrid face detection approach in color images with complex background
CN111582154A (zh) 基于多任务骨架姿态划分部件的行人重识别方法
CN112668493B (zh) 基于gan和深度学习的换装行人再识别定位跟踪系统
Barroso-Laguna et al. Scalenet: A shallow architecture for scale estimation
CN113591735A (zh) 一种基于深度学习的行人检测方法及系统
CN116824641B (zh) 姿态分类方法、装置、设备和计算机存储介质
CN117437691A (zh) 一种基于轻量化网络的实时多人异常行为识别方法及系统
CN117373062A (zh) 一种基于联合学习的实时端到端跨分辨率行人重识别方法
CN116912763A (zh) 一种融合步态人脸模态的多行人重识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant