CN115050101B - 一种基于骨骼和轮廓特征融合的步态识别方法 - Google Patents
一种基于骨骼和轮廓特征融合的步态识别方法 Download PDFInfo
- Publication number
- CN115050101B CN115050101B CN202210841836.9A CN202210841836A CN115050101B CN 115050101 B CN115050101 B CN 115050101B CN 202210841836 A CN202210841836 A CN 202210841836A CN 115050101 B CN115050101 B CN 115050101B
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- feature
- key point
- skeleton
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 230000005021 gait Effects 0.000 title claims abstract description 33
- 230000004927 fusion Effects 0.000 title claims abstract description 11
- 238000013528 artificial neural network Methods 0.000 claims abstract description 20
- 210000000988 bone and bone Anatomy 0.000 claims description 31
- 238000010586 diagram Methods 0.000 claims description 21
- 238000000605 extraction Methods 0.000 claims description 13
- 230000007246 mechanism Effects 0.000 claims description 12
- 230000002776 aggregation Effects 0.000 claims description 7
- 238000004220 aggregation Methods 0.000 claims description 7
- 238000012545 processing Methods 0.000 claims description 7
- 230000006835 compression Effects 0.000 claims description 6
- 238000007906 compression Methods 0.000 claims description 6
- 230000011218 segmentation Effects 0.000 claims description 6
- 238000013527 convolutional neural network Methods 0.000 claims description 4
- 238000012549 training Methods 0.000 claims description 4
- 238000010606 normalization Methods 0.000 claims description 3
- 238000000926 separation method Methods 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 abstract description 4
- 230000000694 effects Effects 0.000 abstract description 3
- 239000000284 extract Substances 0.000 abstract 1
- 239000013598 vector Substances 0.000 description 3
- 230000008569 process Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
- G06V40/25—Recognition of walking or running movements, e.g. gait recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Human Computer Interaction (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Computational Linguistics (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于骨骼和轮廓特征融合的步态识别方法,融合了行人轮廓图识别方法和骨骼关键点识别方法的优点,先提取行人骨骼关键点特征和行人轮廓图特征,再将其送入神经网络,在网络中间进行融合,实现基于步态的行人识别;本方法可解决步态识别中易受服装、视角和携带物等因素影响识别效果的问题,使得处于携带物、服装、视角等因素影响下的步态识别精度有了显著提升,具有识别精度高、鲁棒性强等优点。
Description
技术领域
本发明属于计算机视觉领域,尤其涉及一种基于骨骼和轮廓特征融合的步态识别方法。
背景技术
步态识别通常是指根据行人行走时的步态来识别来行人的过程,是计算机视觉领域一个重要的研究和应用方向,广泛应用于场景监控、行人识别等领域的视频分析,具有广阔的应用前景和使用价值。
步态识别技术可分为基于模型的方法、基于行人轮廓图的方法、基于步态能量图的方法、基于步态熵图的方法、基于骨骼关键点的方法等类别。
基于行人轮廓图的方法是一种常用方法,它通过背景分离或实例分割技术对视频中的行人进行实例提取,生成行人轮廓图,然后通过卷积神经网络对步态特征进行提取和识别;该方法具有较好的识别效果,但在拍摄角度、行人衣着或携带物等发生变化时,识别率会明显下降。
基于骨骼关键点的方法是另一种常用方法,它通过姿态估计方法来进行骨骼关键点信息提取,通过对关键点运动变化的识别来实现对行人步态的识别;该方法对行人衣着打扮具有较高的鲁棒性;但是在受遮挡时识别率也会受到严重影响。
为了解决步态识别中易受服装、视角和携带物等因素影响识别效果的问题,考虑到多模态特征融合具有鲁棒性强和稳定性好等优点,本发明提出一种多模态特征融合的步态识别方法,先提取行人骨骼关键点特征,以及行人轮廓图特征,再将其送入神经网络,在网络中间进行融合,可实现的基于步态的行人识别;该方法具有识别精度高、鲁棒性强等优点。
发明内容
一种基于骨骼和轮廓特征融合的步态识别方法,其特征在于,包括以下步骤。
步骤1,采用基于神经网络的姿态估计算法对视频进行处理,得到每帧图像中的行人骨骼关键点位置,包括:
基于神经网络的姿态估计算法,采用具有并行的多子网络结构的特征提取模型,使用骨骼关键点的高斯热力图作为标签进行模型训练;最后通过寻找高斯热力图中的峰值点来确定行人骨骼关键点位置。
步骤2,使用骨骼关键点位置数据进行计算,生成关键点移动速度、骨骼长度与角度数据;骨骼关键点的位置、速度、骨骼长度与角度统称为骨骼关键点数据。
步骤3,通过图卷积神经网络对行人骨骼关键点数据进行特征提取,包括:
将骨骼关键点位置、速度、骨骼长度与角度这三组骨骼关键点数据,作为三个输入分别顺序经过批正则化模块、初始化模块、两个带注意力机制的图卷积神经网络模块,进行特征提取;然后在网络的中部进行融合,最后通过一条共享的主干网络,即两个带注意力机制的图卷积神经网络模块,生成最终的行人骨骼关键点特征图。
步骤4,采用基于神经网络的实例分割方法对原始视频数据进行处理,生成行人的轮廓图,包括:
采用轻量化的实例分割模型对原始视频中的每一帧进行特征提取,得到相应的行人轮廓图。
步骤5,对行人轮廓图进行归一化处理,包括:
剪除垂直方向上的多余像素并放缩到合适的尺寸,剪除水平方向上多余的像素得到最终的图片尺寸。
步骤6,采用局部轮廓特征提取器对归一化后的行人轮廓图进行特征提取,并使用时间特征聚合注意力模块对其进行特征压缩,包括:
时间特征聚合注意力模块通过最大值函数、均值函数和中值函数三种基础函数对输入进行全局特征收集,然后在时间维度上进行复制并将三者拼接到一起;最后通过1*1的卷积进行通道压缩并生成注意力图,得到最终的行人轮廓特征图。
步骤7,将行人骨骼关键点特征图和行人轮廓特征图进行拼接,使用分离全连接层和局部注意力机制引导两者融合,生成最终的步态特征。
步骤8,使用欧式距离,比对计算生成的步态特征与数据库中的步态特征,选取出距离最小的步态特征对应的行人,作为最终的识别结果。
本方法融合了行人轮廓图识别方法和骨骼关键点识别方法的优点,将行人轮廓图特征和骨骼关键点特征送入神经网络,在网络中间进行融合,使得处于携带物、服装、视角等因素影响下的步态识别精度有了显著提升,具有良好的鲁棒性。
附图说明
图1为本发明方法的流程示意图。
图2为骨骼关键点及其高斯热力图示意图。
图3为COCO数据集行人关键点分布图。
图4为骨骼关键点数据包含的三组特征。
图5为使用图卷积神经网络提取行人骨骼关键点特征流程示意图。
图6为对行人轮廓图进行归一化处理流程示意图。
图7为时间特征聚合注意力模块示意图。
具体实施方式
为了更加清楚地展示本发明的目的和技术方案,下面将结合具体的实施过程和附图,对本发明的具体实施方式和参数进行更加详细的描述。
一种基于骨骼和轮廓特征融合的步态识别方法,如图1所示,包含以下步骤。
步骤1,采用基于HRNet的姿态估计算法对视频进行处理,得到每帧图像中的行人骨骼关键点位置。
HRNet姿态估计算法,采用具有并行的多子网络结构的特征提取模型,处于最上层分支中的特征图一直保持着高分辨率;使用骨骼关键点的高斯热力图作为标签进行模型训练,网络最终便可生成关键点高斯热力图;最后通过寻找高斯热力图中的峰值点可确定行人骨骼关键点位置。
所述使用骨骼关键点的高斯热力图作为标签是指,根据通过高斯函数在骨骼关键点生成热力图;其灰度可以公式表示为:I(x,y)=exp(-((x-xc)^2+(y-yc)^2)/(2*var^2)),其中,(x,y)表示热力图上一个像素点的位置,(xc,yc)表示关键点的位置,^2表示平方,var表示标准差,在本实施例中设定为3。
用灰度表示的骨骼关键点及其高斯热力图的示意图如图2所示。
不同的行人关键点数据集标注的行人关键点个数不同,如COCO数据集行人关键点有17个,其分布如图3所示。
步骤2,使用骨骼关键点位置数据进行计算,生成关键点移动速度、骨骼长度与角度数据,位置、速度、长度与角度这三组特征的示意图如图4所示;其中,将骨骼视为关键点的连线。
步骤3,通过图卷积神经网络GCN对行人骨骼关键点数据进行特征提取,其流程如图5上方所示,包括:
将骨骼关键点位置、速度、骨骼长度与角度这三组骨骼关键点数据,作为三个输入,分别顺序经过批正则化模块(Batch Normal)、初始化模块(Initial Block)、两个带注意力机制的图卷积神经网络(64*48的GCN、48*16的GCN),进行特征提取;然后在网络的中部进行融合,最后经过一条共享的主干网络,即两个带注意力机制的图卷积神经网络(48*64的GCN、64*128的GCN),生成最终的行人骨骼关键点特征图。
带注意力机制的图卷积神经网络(GCN)的构成如图5左下方所示。由一个空间图卷积(SGC) 模块、若干个时间维度卷积模块(TC)以及一个注意力机制模块(Attention)堆叠而成。
步骤4,采用Mask RCNN网络对原始视频中的每一帧进行特征提取,得到相应的行人轮廓图。
步骤5,对行人轮廓图进行归一化处理,剪除图像垂直方向和水平方向上多余的空白像素点,如图6所示。
若最终的图片分辨率为64*44,则先剪除图片中行人头顶上方和脚部下方的多余像素,并将图片缩放到高度44像素。
具体操作时,先在水平方向上对所有像素求和,得到第一个非零位置便是上临界点,最后一个非零位置便是下临界点,然后剪除上临界点之上的像素、下临界点以下的像素。
剪除垂直方向上的多余像素并放缩到合适的尺寸,以行人躯干中心点为基准,向左右两侧分别裁剪出32个像素点,最终得到输出图片分辨率为64*44。
具体操作时,先在垂直方向上对所有像求和,当求和的值等于图像中所有像素和一半时停止,此位置作为行人水平中心点位置,然后从此中心点分别向左右两侧扩展设定的像素个数,并剪除此区域外的像素点。
步骤6, 将归一化之后的行人轮廓数据,输入局部轮廓特征提取器进行特征提取,并采用时间特征聚合注意力模块进行特征压缩,得到最终的行人轮廓特征图。
局部轮廓特征提取器采用GaitPart 方法中的特征提取器部分。
时间特征聚合注意力模块的具体实现方式如图7所示,首先通过最大值函数max(·)、均值函数mean(·)、中值函数median(·)三种基础函数对输入进行全局特征收集,然后在时间维度上进行复制并将三者拼接到一起;最后通过1*1的卷积进行通道压缩并生成注意力图。
基于注意力机制的时间聚合模块从整体上来看采用了残差结构,保持网络结构稳定性的同时提高了网络训练收敛速度。
步骤7,将行人骨骼关键点特征图和行人轮廓特征图进行拼接,再通过分离全连接层和局部注意力机制引导两者融合,生成最终的步态特征图。
步骤8,使用欧式距离,比对计算生成的步态特征与数据库中的步态特征,选取出距离最小的步态特征对应的行人,作为最终的识别结果。
如特征图的尺寸为20*128,则先该特征图拉成一个长度为2560的一维向量,然后再与数据库中所有的特征向量进行欧式距离计算和比对,选取距离最小的特征向量对应的行人作为最终结果。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其进行限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;或者修改各个步骤的使用顺序,而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围;本发明各种阈值及范围取值,也会因为装置的具体参数不同而有所改变。
Claims (5)
1.一种基于骨骼和轮廓特征融合的步态识别方法,其特征在于,包括以下步骤:
步骤1,使用基于神经网络的姿态估计算法对视频进行处理,得到每帧图像中的行人骨骼关键点位置;
步骤2,使用骨骼关键点位置数据进行计算,生成关键点移动速度、骨骼长度与角度数据;
步骤3,通过图卷积神经网络对行人骨骼关键点数据进行特征提取,生成行人骨骼关键点特征图;
步骤4,使用基于神经网络的实例分割方法对原始视频数据进行处理,生成行人的轮廓图;
步骤5,对行人轮廓图进行归一化处理;
步骤6,采用局部轮廓特征提取器对归一化后的行人轮廓图进行特征提取,并使用时间特征聚合注意力模块对其进行特征压缩;生成行人轮廓特征图;
步骤7,将行人骨骼关键点特征图和行人轮廓特征图进行拼接,使用分离全连接层和局部注意力机制引导两者融合,生成最终的步态特征;
步骤8,使用欧式距离,比对计算生成的步态特征与数据库中的步态特征,选取出距离最小的步态特征对应的行人,作为最终的识别结果;
步骤6中所述时间特征聚合注意力模块,包括:
先通过最大值函数、均值函数和中值函数三种基础函数对输入进行全局特征收集,然后在时间维度上进行复制并将三者拼接到一起;最后通过1*1的卷积进行通道压缩并生成注意力图。
2.基于权利要求1所述的方法,其特征在于,步骤1所述基于神经网络的姿态估计算法,包括:
采用具有并行的多子网络结构的特征提取模型,使用骨骼关键点的高斯热力图作为标签进行模型训练;最后通过寻找高斯热力图中的峰值点来确定行人骨骼关键点位置。
3.基于权利要求1所述的方法,其特征在于,步骤3所述图卷积神经网络,包括:
先将骨骼关键点位置、速度、骨骼长度与角度这三组骨骼关键点数据,作为三个输入分别顺序经过批正则化模块、初始化模块、两个带注意力机制的图卷积神经网络模块,进行特征提取;然后在网络的中部进行融合,最后通过一条共享的主干网络,即两个带注意力机制的图卷积神经网络模块,生成最终的行人骨骼关键点特征图。
4.基于权利要求1所述的方法,其特征在于,步骤4所述基于神经网络的实例分割方法,包括:
采用轻量化的实例分割模型对原始视频中的每一帧进行特征提取,得到相应的行人轮廓图。
5.基于权利要求1所述的方法,其特征在于,步骤5所述对行人轮廓图进行归一化处理,包括:
先剪除垂直方向上的多余像素并放缩到合适的尺寸,再剪除水平方向上多余的像素得到最终的图片尺寸。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210841836.9A CN115050101B (zh) | 2022-07-18 | 2022-07-18 | 一种基于骨骼和轮廓特征融合的步态识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210841836.9A CN115050101B (zh) | 2022-07-18 | 2022-07-18 | 一种基于骨骼和轮廓特征融合的步态识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115050101A CN115050101A (zh) | 2022-09-13 |
CN115050101B true CN115050101B (zh) | 2024-03-22 |
Family
ID=83166723
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210841836.9A Active CN115050101B (zh) | 2022-07-18 | 2022-07-18 | 一种基于骨骼和轮廓特征融合的步态识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115050101B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110110668A (zh) * | 2019-05-08 | 2019-08-09 | 湘潭大学 | 一种基于反馈权重卷积神经网络和胶囊神经网络的步态识别方法 |
CN112101176A (zh) * | 2020-09-09 | 2020-12-18 | 元神科技(杭州)有限公司 | 一种结合用户步态信息的用户身份识别方法及系统 |
CN112633209A (zh) * | 2020-12-29 | 2021-04-09 | 东北大学 | 一种基于图卷积神经网络的人类动作识别方法 |
CN113378649A (zh) * | 2021-05-19 | 2021-09-10 | 北京建筑大学 | 身份、位置和动作识别方法、系统、电子设备及存储介质 |
CN113496216A (zh) * | 2021-08-31 | 2021-10-12 | 四川大学华西医院 | 一种基于骨骼关键点的多角度跌倒高危识别方法及系统 |
CN113887501A (zh) * | 2021-10-21 | 2022-01-04 | 泰康保险集团股份有限公司 | 行为识别方法、装置、存储介质及电子设备 |
CN114359962A (zh) * | 2021-12-27 | 2022-04-15 | 浙江大华技术股份有限公司 | 一种姿态识别方法、装置及可读存储介质 |
CN114463555A (zh) * | 2021-12-29 | 2022-05-10 | 浙江大华技术股份有限公司 | 步态特征提取方法及装置 |
CN114550291A (zh) * | 2022-02-21 | 2022-05-27 | 重庆紫光华山智安科技有限公司 | 一种步态特征提取方法、装置及设备 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060001545A1 (en) * | 2005-05-04 | 2006-01-05 | Mr. Brian Wolf | Non-Intrusive Fall Protection Device, System and Method |
CN110705448B (zh) * | 2019-09-27 | 2023-01-20 | 北京市商汤科技开发有限公司 | 一种人体检测方法及装置 |
-
2022
- 2022-07-18 CN CN202210841836.9A patent/CN115050101B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110110668A (zh) * | 2019-05-08 | 2019-08-09 | 湘潭大学 | 一种基于反馈权重卷积神经网络和胶囊神经网络的步态识别方法 |
CN112101176A (zh) * | 2020-09-09 | 2020-12-18 | 元神科技(杭州)有限公司 | 一种结合用户步态信息的用户身份识别方法及系统 |
CN112633209A (zh) * | 2020-12-29 | 2021-04-09 | 东北大学 | 一种基于图卷积神经网络的人类动作识别方法 |
CN113378649A (zh) * | 2021-05-19 | 2021-09-10 | 北京建筑大学 | 身份、位置和动作识别方法、系统、电子设备及存储介质 |
CN113496216A (zh) * | 2021-08-31 | 2021-10-12 | 四川大学华西医院 | 一种基于骨骼关键点的多角度跌倒高危识别方法及系统 |
CN113887501A (zh) * | 2021-10-21 | 2022-01-04 | 泰康保险集团股份有限公司 | 行为识别方法、装置、存储介质及电子设备 |
CN114359962A (zh) * | 2021-12-27 | 2022-04-15 | 浙江大华技术股份有限公司 | 一种姿态识别方法、装置及可读存储介质 |
CN114463555A (zh) * | 2021-12-29 | 2022-05-10 | 浙江大华技术股份有限公司 | 步态特征提取方法及装置 |
CN114550291A (zh) * | 2022-02-21 | 2022-05-27 | 重庆紫光华山智安科技有限公司 | 一种步态特征提取方法、装置及设备 |
Non-Patent Citations (4)
Title |
---|
A Survey of Human Action Recognition and Posture Prediction;Nan Ma等;《Tsinghua Science and Technology 》;20220621;973-1001 * |
GaitPart: Temporal Part-Based Model for Gait Recognition;Chao Fan等;《2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)》;20200805;14213-14221 * |
基于LDA和SVM的步态识别;许文芳;吴清江;王青力;;计算机应用与软件;20080515(05);全文 * |
多视角步态识别综述;王科俊;丁欣楠;邢向磊;刘美辰;;自动化学报;20181011(05);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN115050101A (zh) | 2022-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108549893B (zh) | 一种任意形状的场景文本端到端识别方法 | |
US11315345B2 (en) | Method for dim and small object detection based on discriminant feature of video satellite data | |
CN110728200B (zh) | 一种基于深度学习的实时行人检测方法及系统 | |
CN107832672B (zh) | 一种利用姿态信息设计多损失函数的行人重识别方法 | |
CN108520226B (zh) | 一种基于躯体分解和显著性检测的行人重识别方法 | |
WO2018107979A1 (zh) | 一种基于级联回归的多姿态的人脸特征点检测方法 | |
KR101410489B1 (ko) | 얼굴 식별 방법 및 그 장치 | |
US20070058856A1 (en) | Character recoginition in video data | |
Rekha et al. | Hand gesture recognition for sign language: A new hybrid approach | |
KR101917354B1 (ko) | 모바일 환경 객체 신뢰도 평가와 학습을 통한 융합 객체 추적 시스템 및 방법 | |
Haque et al. | Two-handed bangla sign language recognition using principal component analysis (PCA) and KNN algorithm | |
Molina-Moreno et al. | Efficient scale-adaptive license plate detection system | |
CN110991321A (zh) | 一种基于标签更正与加权特征融合的视频行人再识别方法 | |
CN111709317B (zh) | 一种基于显著性模型下多尺度特征的行人重识别方法 | |
CN111401113A (zh) | 一种基于人体姿态估计的行人重识别方法 | |
US20230095533A1 (en) | Enriched and discriminative convolutional neural network features for pedestrian re-identification and trajectory modeling | |
CN113591735A (zh) | 一种基于深度学习的行人检测方法及系统 | |
CN111428612B (zh) | 行人重识别方法、终端、装置及存储介质 | |
CN115050101B (zh) | 一种基于骨骼和轮廓特征融合的步态识别方法 | |
CN117036412A (zh) | 一种融合可变形卷积的孪生网络红外行人目标跟踪方法 | |
Khryashchev et al. | Audience analysis system on the basis of face detection, tracking and classification techniques | |
CN112258575B (zh) | 一种同步定位和地图构建中物体的快速识别方法 | |
Vaithiyanathan et al. | Real-time-based Object Recognition using SIFT algorithm | |
CN114663835A (zh) | 一种行人跟踪方法、系统、设备及存储介质 | |
Yow et al. | Scale and Orientation Invariance in Human Face Detection. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |