CN113255492B - 行人重识别的方法及系统 - Google Patents
行人重识别的方法及系统 Download PDFInfo
- Publication number
- CN113255492B CN113255492B CN202110533082.6A CN202110533082A CN113255492B CN 113255492 B CN113255492 B CN 113255492B CN 202110533082 A CN202110533082 A CN 202110533082A CN 113255492 B CN113255492 B CN 113255492B
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- image
- height
- width
- shielding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种行人重识别的方法及系统,涉及行人识别技术领域,解决了在有遮挡情况下行人重识别准确率不高的技术问题,其技术方案要点是采用行人图像手工特征辅助监督行人重识别模型训练的方法,提高了识别模型对于遮挡行人场景的鲁棒性。采用基于人体关键点的遮挡行人图像的涂白匹配方法,进一步提高了行人重识别的匹配准确度。
Description
技术领域
本公开涉及行人识别技术领域,尤其涉及一种行人重识别的方法及系统。
背景技术
行人重识别的任务是匹配不同摄像机拍摄的行人,给定一个摄像机拍摄的行人图像,在其他摄像机拍摄的行人图像中检索该行人,广泛应用于智能安防、智慧零售等领域。在实际应用场景中,行人容易被一些物品(比如车辆,树木,广告牌等)遮挡,影响行人重识别的效果。
目前行人重识别的方法主要分为基于图像手工特征的方法(可参考Bingpeng Ma,Yu Su,and Frederic Jurie.Covariance descriptor based on bio-inspired featuresfor person reidentification and face verification.Image and Vision Computing,32(6-7):379–390,2014.及Yang Yang,Jimei Yang,Junjie Yan,Shengcai Liao,Dong Yi,and Stan Z Li.Salient color names for person reidentification.In Europeanconference on computer vision,pages 536–551.Springer,2014.)、度量学习的方法(可参考Shengcai Liao and Stan Z Li.Efficient psd constrained asymmetric metriclearning for person re-identification.In Proceedings of the IEEEInternational Conference on Computer Vision,pages3685–3693,2015.及Wei-ShiZheng,Shaogang Gong,and Tao Xiang.Reidentification by relative distancecomparison.IEEE transactions on pattern analysis and machine intelligence,35(3):653–668,2013.)以及深度学习的方法(可参考Yifan Sun,Liang Zheng,Yi Yang,QiTian,and ShengjinWang.Beyond part models:Person retrieval with refined partpooling(and a strong convolutional baseline).In Proceedings of the EuropeanConference on Computer Vision(ECCV),pages 480–496,2018.及Yan Lu,Yue Wu,BinLiu,Tianzhu Zhang,Baopu Li,Qi Chu,and Nenghai Yu.Cross-modality person re-identification with shared-specific feature transfer,2020.),大多为整体图像的行人重识别方法,对实际场景中遮挡行人重识别的效果较差。因此,亟需一种有效的遮挡行人重识别方法及系统。
发明内容
本公开提供了一种行人重识别的方法及系统,其技术目的是提高行人重识别的准确率,在行人有遮挡的情况下能够有效对行人进行识别。
本公开的上述技术目的是通过以下技术方案得以实现的:
一种行人重识别的方法,包括:
输入行人图像,提取人体躯干关键点,根据人体躯干关键点和遮挡物品对所述行人图像进行合成,得到第一遮挡行人图像;
根据行人遮挡框信息,对所述第一遮挡行人图像的遮挡区域进行涂白,得到第二遮挡行人图像;
对所述第二遮挡行人图像的颜色特征和纹理特征进行提取,得到第一图像手工特征,对所述第一图像手工特征进行降维处理得到第二图像手工特征;
通过第一识别模型对所述第一遮挡行人图像进行特征提取,得到第一特征和第二特征;
将所述第一特征和所述第二图像手工特征输入到所述第一识别模型的特征比较器进行训练,得到训练结果,根据所述训练结果对所述第一识别模型的参数进行调整,然后将所述第二特征输入到所述第一识别模型的分类器进行训练,得到第二识别模型;
通过所述第二识别模型进行行人重识别。
一种行人重识别的系统,包括:
合成模块,输入行人图像,提取人体躯干关键点,根据人体躯干关键点和遮挡物品对所述行人图像进行合成,得到第一遮挡行人图像;
预处理模块,根据行人遮挡框信息,对所述第一遮挡行人图像的遮挡区域进行涂白,得到第二遮挡行人图像;
第一特征提取模块,对所述第二遮挡行人图像的颜色特征和纹理特征进行提取,得到第一图像手工特征,对所述第一图像手工特征进行降维处理得到第二图像手工特征;
第二特征提取模块,通过第一识别模型对所述第一遮挡行人图像进行特征提取,得到第一特征和第二特征;
训练模块,将所述第一特征和所述第二图像手工特征输入到所述第一识别模型的特征比较器进行训练,得到训练结果,根据所述训练结果对所述第一识别模型的参数进行调整,然后将所述第二特征输入到所述第一识别模型的分类器进行训练,得到第二识别模型;
识别模块,通过所述第二识别模型进行行人重识别。
本公开的有益效果在于:本公开的行人重识别方法和系统,采用行人图像手工特征辅助监督行人重识别模型训练的方法,提高了识别模型对于遮挡行人场景的鲁棒性。采用基于人体关键点的遮挡行人图像的涂白匹配方法,进一步提高了行人重识别的匹配准确度。
附图说明
图1为本申请所述方法的流程图;
图2为通过第一识别模型进行训练的流程示意图;
图3为本申请所述系统的示意图。
具体实施方式
下面将结合附图对本公开技术方案进行详细说明。在本申请的描述中,需要理解地是,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量,仅用于区分不同的组成部分。
图1为本申请所述方法的流程图,如图1所示,步骤S1:输入行人图像,提取人体躯干关键点,根据人体躯干关键点和遮挡物品对所述行人图像进行合成,得到第一遮挡行人图像。
具体地,人体躯干关键点为遮挡区域的中心点[x,y],遮挡区域为[x,y,w,h],w∈[0.2*width,0.8*width],h∈[0.2*height,0.8*height],width、height分别表示行人图像的宽度、高度。
步骤S2:根据行人遮挡框信息,对所述第一遮挡行人图像的遮挡区域进行涂白,得到第二遮挡行人图像。涂白主要是为了提升模型对于遮挡的鲁棒性。
步骤S3:对所述第二遮挡行人图像的颜色特征和纹理特征进行提取,得到第一图像手工特征,对所述第一图像手工特征进行降维处理得到第二图像手工特征。
图像的颜色特征和纹理特征合并起来就是图像手工特征,本申请中用到的图像手工特征是经过降维处理的。将颜色特征和纹理特征进行对应的灰度图变换,将灰度图分成Q个大小为P×P的子块;对每个子块进行直方图统计,得到子块的直方图;然后对所有子块的直方图进行归一化处理;最后连接所有子块的归一化直方图,从而得到整幅图像的特征。
若第一图像手工特征的直方图表示的维度为256维,假设第一图像手工特征分为Q个特征子块,则有Q*256维HSV颜色特征和Q*256维LBP纹理特征,图像的整体特征维度为M*512维。由于特征维度较大,增大存储空间,不利于模型的训练,采用PCA降维算法对特征进行降维,经过实验验证,将特征维度设置为512维较为合理。
其中对协方差矩阵C进行特征分解,得到m个特征值λ1,λ2...λm和m个对应的特征向量u1,u2...um,对特征值进行降序排序,选择前512个特征值对应的特征向量,组成矩阵u∈R512×m为第一主成分,Y=uX即为降维后的特征Y∈R512×n。
步骤S4:通过第一识别模型对所述第一遮挡行人图像进行特征提取,得到第一特征和第二特征。
提取图像的颜色特征和纹理特征时,不需要通过模型进行特征提取。通过第一识别模型对第一遮挡行人图像进行特征提取时,由图2可知,将第一遮挡行人图像投入到第一识别模型中,经过一系列的特征提取过程,最终将第一遮挡行人图像通过不同的处理形成第一特征和第二特征,第一特征用于和第二图像手工特征一起监督辅助训练,第二特征则用于在监督辅助训练对第一识别模型的参数进行不断调整的情况下对分类器进行训练,从而得到最终的识别模型。
步骤S5:将所述第一特征和所述第二图像手工特征输入到所述第一识别模型的特征比较器进行训练,得到训练结果,根据所述训练结果对所述第一识别模型的参数进行调整,然后将所述第二特征输入到所述第一识别模型的分类器进行训练,得到第二识别模型。
步骤S6:通过所述第二识别模型进行行人重识别,包括:步骤S61:对底库行人图像与遮挡行人图像的人体躯干关键点进行提取。
步骤S62:所述遮挡行人图像的遮挡区域为(x',y',w',h')和中心点P(x1,y1),其中,x1=x'+w'/2,y1=y'+h'/2,w'∈[0.2*width',0.8*width'],h'∈[0.2*height',0.8*height'],width'、height'分别表示所述遮挡行人图像的宽度、高度。
步骤S63:计算中心点P(x1,y1)与人体躯干关键点的欧式距离,确定距离最近的人体躯干关键点K(x2,y2),计算P(x1,y1)与K(x2,y2)的偏移量值ΔP=(Δx,Δy),其中,Δx=x1-x2,Δy=y1-y2。
步骤S64:对所述行人遮挡框信息和ΔP进行归一化处理,得到Δx'=Δx/width',Δy'=Δy/height',w”=w'/width',h”=h'/height'。
步骤S65:将归一化后的遮挡区域映射到每个所述底库行人图像(widthi,heighti)中,距离所述底库行人图像的遮挡区域中心点最近的人体躯干关键点为Ki(x2i,y2i),则所述底库行人图像对应的遮挡区域为(xi,yi,wi,yi),其中,xi=x2i+Δx'*widthi,yi=y2i+Δy'*heighti,wi=w”*widthi,hi=h”*heighti。
步骤S66:对所述底库行人图像和所述遮挡行人图像的遮挡区域进行统一涂白。
步骤S67:对所述底库行人图像和所述遮挡行人图像进行特征提取,得到底库行人特征和行人特征。
步骤S68:将所述底库行人特征与所述行人特征进行比对,确定所述遮挡行人图像的行人身份。
图3为本申请所述系统的示意图,该系统包括合成模块、预处理模块、第一特征提取模块、第二特征提取模块、训练模块和识别模块。其中,识别模块又包括关键点提取单元、第一遮挡区域提取单元、偏移量计算单元、归一化单元、第二遮挡区域提取单元、预处理单元、特征提取单元和比较单元。
合成模块用于:输入行人图像,提取人体躯干关键点,根据人体躯干关键点和遮挡物品对所述行人图像进行合成,得到第一遮挡行人图像。
预处理模块用于根据行人遮挡框信息,对所述第一遮挡行人图像的遮挡区域进行涂白,得到第二遮挡行人图像。
第一特征提取模块用于对所述第二遮挡行人图像的颜色特征和纹理特征进行提取,得到第一图像手工特征,对所述第一图像手工特征进行降维处理得到第二图像手工特征。
第二特征提取模块用于通过第一识别模型对所述第一遮挡行人图像进行特征提取,得到第一特征和第二特征。
训练模块用于将所述第一特征和所述第二图像手工特征输入到所述第一识别模型的特征比较器进行训练,得到训练结果,根据所述训练结果对所述第一识别模型的参数进行调整,然后将所述第二特征输入到所述第一识别模型的分类器进行训练,得到第二识别模型。
识别模块用于通过所述第二识别模型进行行人重识别,具体包括:
关键点提取单元对底库行人图像与遮挡行人图像的人体躯干关键点进行提取;
第一遮挡区域提取单元用于:所述遮挡行人图像的遮挡区域为(x',y',w',h')和中心点P(x1,y1),其中,x1=x'+w'/2,y1=y'+h'/2,w'∈[0.2*width',0.8*width'],h'∈[0.2*height',0.8*height'],width'、height'分别表示所述遮挡行人图像的宽度、高度。
偏移量计算单元计算中心点P(x1,y1)与人体躯干关键点的欧式距离,确定距离最近的人体躯干关键点K(x2,y2),计算P(x1,y1)与K(x2,y2)的偏移量值ΔP=(Δx,Δy),其中,Δx=x1-x2,Δy=y1-y2。
归一化单元对所述行人遮挡框信息和ΔP进行归一化处理,得到Δx'=Δx/width',Δy'=Δy/height',w”=w'/width',h”=h'/height'。
第二遮挡区域提取单元用于:将归一化后的遮挡区域映射到每个所述底库行人图像(widthi,heighti)中,距离所述底库行人图像的遮挡区域中心点最近的人体躯干关键点为Ki(x2i,y2i),则所述底库行人图像对应的遮挡区域为(xi,yi,wi,yi),其中,xi=x2i+Δx'*widthi,yi=y2i+Δy'*heighti,wi=w”*widthi,hi=h”*heighti。
预处理单元对所述底库行人图像和所述遮挡行人图像的遮挡区域进行统一涂白。
特征提取单元对所述底库行人图像和所述遮挡行人图像进行特征提取,得到底库行人特征和行人特征。
比较单元将所述底库行人特征与所述行人特征进行比对,确定所述遮挡行人图像的行人身份。
以上为本申请示范性实施例,本申请的保护范围由权利要求书及其等效物限定。
Claims (8)
1.一种行人重识别的方法,其特征在于,包括:
输入行人图像,提取人体躯干关键点,根据人体躯干关键点和遮挡物品对所述行人图像进行合成,得到第一遮挡行人图像;
根据行人遮挡框信息,对所述第一遮挡行人图像的遮挡区域进行涂白,得到第二遮挡行人图像;
对所述第二遮挡行人图像的颜色特征和纹理特征进行提取,得到第一图像手工特征,对所述第一图像手工特征进行降维处理得到第二图像手工特征;
通过第一识别模型对所述第一遮挡行人图像进行特征提取,得到第一特征和第二特征;
将所述第一特征和所述第二图像手工特征输入到所述第一识别模型的特征比较器进行训练,得到训练结果,根据所述训练结果对所述第一识别模型的参数进行调整,然后将所述第二特征输入到所述第一识别模型的分类器进行训练,得到第二识别模型;
通过所述第二识别模型进行行人重识别。
2.如权利要求1所述的方法,其特征在于,所述根据人体躯干关键点和遮挡物品对所述行人图像进行合成,得到第一遮挡行人图像,包括:
所述人体躯干关键点为遮挡区域的中心点[x,y],遮挡区域为[x,y,w,h],w∈[0.2*width,0.8*width],h∈[0.2*height,0.8*height],width、height分别表示所述行人图像的宽度、高度。
3.如权利要求2所述的方法,其特征在于,通过所述第二识别模型进行行人重识别,包括:
对底库行人图像与遮挡行人图像的人体躯干关键点进行提取;
所述遮挡行人图像的遮挡区域为(x',y',w',h')和中心点P(x1,y1),其中,x1=x'+w'/2,y1=y'+h'/2,w'∈[0.2*width',0.8*width'],h'∈[0.2*height',0.8*height'],width'、height'分别表示所述遮挡行人图像的宽度、高度;
计算中心点P(x1,y1)与人体躯干关键点的欧式距离,确定距离最近的人体躯干关键点K(x2,y2),计算P(x1,y1)与K(x2,y2)的偏移量值ΔP=(Δx,Δy),其中,Δx=x1-x2,Δy=y1-y2;
对所述行人遮挡框信息和ΔP进行归一化处理,得到Δx'=Δx/width',Δy'=Δy/height',w”=w'/width',h”=h'/height';
将归一化后的遮挡区域映射到每个所述底库行人图像(widthi,heighti)中,距离所述底库行人图像的遮挡区域中心点最近的人体躯干关键点为Ki(x2i,y2i),则所述底库行人图像对应的遮挡区域为(xi,yi,wi,hi ),其中,xi=x2i+Δx'*widthi,yi=y2i+Δy'*heighti,wi=w”*widthi,hi=h”*heighti;
对所述底库行人图像和所述遮挡行人图像的遮挡区域进行统一涂白;
对所述底库行人图像和所述遮挡行人图像进行特征提取,得到底库行人特征和行人特征;
将所述底库行人特征与所述行人特征进行比对,确定所述遮挡行人图像的行人身份。
5.一种行人重识别的系统,其特征在于,包括:
合成模块,输入行人图像,提取人体躯干关键点,根据人体躯干关键点和遮挡物品对所述行人图像进行合成,得到第一遮挡行人图像;
预处理模块,根据行人遮挡框信息,对所述第一遮挡行人图像的遮挡区域进行涂白,得到第二遮挡行人图像;
第一特征提取模块,对所述第二遮挡行人图像的颜色特征和纹理特征进行提取,得到第一图像手工特征,对所述第一图像手工特征进行降维处理得到第二图像手工特征;
第二特征提取模块,通过第一识别模型对所述第一遮挡行人图像进行特征提取,得到第一特征和第二特征;
训练模块,将所述第一特征和所述第二图像手工特征输入到所述第一识别模型的特征比较器进行训练,得到训练结果,根据所述训练结果对所述第一识别模型的参数进行调整,然后将所述第二特征输入到所述第一识别模型的分类器进行训练,得到第二识别模型;
识别模块,通过所述第二识别模型进行行人重识别。
6.如权利要求5所述的系统,其特征在于,所述合成模块用于:
所述人体躯干关键点为遮挡区域的中心点[x,y],遮挡区域为[x,y,w,h],w∈[0.2*width,0.8*width],h∈[0.2*height,0.8*height],width、height分别表示所述行人图像的宽度、高度。
7.如权利要求6所述的系统,其特征在于,所述识别模块包括:
关键点提取单元,对底库行人图像与遮挡行人图像的人体躯干关键点进行提取;
第一遮挡区域提取单元,所述遮挡行人图像的遮挡区域为(x',y',w',h')和中心点P(x1,y1),其中,x1=x'+w'/2,y1=y'+h'/2,w'∈[0.2*width',0.8*width'],h'∈[0.2*height',0.8*height'],width'、height'分别表示所述遮挡行人图像的宽度、高度;
偏移量计算单元,计算中心点P(x1,y1)与人体躯干关键点的欧式距离,确定距离最近的人体躯干关键点K(x2,y2),计算P(x1,y1)与K(x2,y2)的偏移量值ΔP=(Δx,Δy),其中,Δx=x1-x2,Δy=y1-y2;
归一化单元,对所述行人遮挡框信息和ΔP进行归一化处理,得到Δx'=Δx/width',Δy'=Δy/height',w”=w'/width',h”=h'/height';
第二遮挡区域提取单元,将归一化后的遮挡区域映射到每个所述底库行人图像(widthi,heighti)中,距离所述底库行人图像的遮挡区域中心点最近的人体躯干关键点为Ki(x2i,y2i),则所述底库行人图像对应的遮挡区域为(xi,yi,wi,hi ),其中,xi=x2i+Δx'*widthi,yi=y2i+Δy'*heighti,wi=w”*widthi,hi=h”*heighti;
预处理单元,对所述底库行人图像和所述遮挡行人图像的遮挡区域进行统一涂白;
特征提取单元,对所述底库行人图像和所述遮挡行人图像进行特征提取,得到底库行人特征和行人特征;
比较单元,将所述底库行人特征与所述行人特征进行比对,确定所述遮挡行人图像的行人身份。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110533082.6A CN113255492B (zh) | 2021-05-17 | 2021-05-17 | 行人重识别的方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110533082.6A CN113255492B (zh) | 2021-05-17 | 2021-05-17 | 行人重识别的方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113255492A CN113255492A (zh) | 2021-08-13 |
CN113255492B true CN113255492B (zh) | 2022-08-05 |
Family
ID=77182109
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110533082.6A Active CN113255492B (zh) | 2021-05-17 | 2021-05-17 | 行人重识别的方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113255492B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108537136A (zh) * | 2018-03-19 | 2018-09-14 | 复旦大学 | 基于姿态归一化图像生成的行人重识别方法 |
CN110135366A (zh) * | 2019-05-20 | 2019-08-16 | 厦门大学 | 基于多尺度生成对抗网络的遮挡行人重识别方法 |
CN112200111A (zh) * | 2020-10-19 | 2021-01-08 | 厦门大学 | 一种全局与局部特征融合的遮挡鲁棒行人重识别方法 |
-
2021
- 2021-05-17 CN CN202110533082.6A patent/CN113255492B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108537136A (zh) * | 2018-03-19 | 2018-09-14 | 复旦大学 | 基于姿态归一化图像生成的行人重识别方法 |
CN110135366A (zh) * | 2019-05-20 | 2019-08-16 | 厦门大学 | 基于多尺度生成对抗网络的遮挡行人重识别方法 |
CN112200111A (zh) * | 2020-10-19 | 2021-01-08 | 厦门大学 | 一种全局与局部特征融合的遮挡鲁棒行人重识别方法 |
Non-Patent Citations (1)
Title |
---|
基于多尺度生成对抗网络的遮挡行人重识别方法;杨婉香等;《软件学报》(第07期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113255492A (zh) | 2021-08-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Chen et al. | An end-to-end system for unconstrained face verification with deep convolutional neural networks | |
Bak et al. | Person re-identification using spatial covariance regions of human body parts | |
Huang et al. | Human gait recognition in canonical space using temporal templates | |
Han et al. | Face recognition with contrastive convolution | |
Jüngling et al. | View-invariant person re-identification with an implicit shape model | |
CN107330397A (zh) | 一种基于大间隔相对距离度量学习的行人重识别方法 | |
CN104616316A (zh) | 基于阈值矩阵和特征融合视觉单词的人物行为识别方法 | |
CN113449704B (zh) | 人脸识别模型训练方法、装置、电子设备及存储介质 | |
Karahan et al. | On identification from periocular region utilizing sift and surf | |
Symeonidis et al. | Neural attention-driven non-maximum suppression for person detection | |
Tathe et al. | Human face detection and recognition in videos | |
Chater et al. | New approach to the identification of the easy expression recognition system by robust techniques (SIFT, PCA-SIFT, ASIFT and SURF) | |
KR101727833B1 (ko) | 얼굴인식을 위한 판별분석 기반의 복합 특징 벡터 생성 장치 및 방법 | |
Sahbi et al. | Coarse to fine face detection based on skin color adaption | |
Epshtein et al. | Identifying semantically equivalent object fragments | |
Aly | An effective human action recognition system based on Zernike moment features | |
CN113255492B (zh) | 行人重识别的方法及系统 | |
Sathish et al. | A complete person re-identification model using Kernel-PCA-based Gabor-filtered hybrid descriptors | |
Sidibe et al. | A simple and efficient eye detection method in color images | |
Wijaya et al. | Real time face recognition using DCT coefficients based face descriptor | |
Li et al. | Facial peculiarity retrieval via deep neural networks fusion | |
Safi et al. | Robust face recognition algorithm with a minimum datasets | |
Babaee et al. | View-invariant gait representation using joint bayesian regularized non-negative matrix factorization | |
Su et al. | Linear and deep order-preserving wasserstein discriminant analysis | |
Naveen et al. | Pose and head orientation invariant face detection based on optimised aggregate channel feature |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP01 | Change in the name or title of a patent holder |
Address after: 210000 Longmian Avenue 568, High-tech Park, Jiangning District, Nanjing City, Jiangsu Province Patentee after: Xiaoshi Technology (Jiangsu) Co.,Ltd. Address before: 210000 Longmian Avenue 568, High-tech Park, Jiangning District, Nanjing City, Jiangsu Province Patentee before: NANJING ZHENSHI INTELLIGENT TECHNOLOGY Co.,Ltd. |
|
CP01 | Change in the name or title of a patent holder |