CN111353443B - 一种基于跨视图核协同表示的行人再识别方法 - Google Patents
一种基于跨视图核协同表示的行人再识别方法 Download PDFInfo
- Publication number
- CN111353443B CN111353443B CN202010141525.2A CN202010141525A CN111353443B CN 111353443 B CN111353443 B CN 111353443B CN 202010141525 A CN202010141525 A CN 202010141525A CN 111353443 B CN111353443 B CN 111353443B
- Authority
- CN
- China
- Prior art keywords
- samples
- pedestrian
- kernel
- sample
- view
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000012549 training Methods 0.000 claims abstract description 47
- 238000012360 testing method Methods 0.000 claims abstract description 31
- 238000007781 pre-processing Methods 0.000 claims abstract description 6
- 239000011159 matrix material Substances 0.000 claims description 55
- 239000000523 sample Substances 0.000 claims description 54
- 230000009467 reduction Effects 0.000 claims description 11
- 239000013598 vector Substances 0.000 claims description 9
- 238000013507 mapping Methods 0.000 claims description 8
- 230000002195 synergetic effect Effects 0.000 claims description 5
- 230000002708 enhancing effect Effects 0.000 claims description 3
- 238000011524 similarity measure Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 238000000605 extraction Methods 0.000 description 6
- 238000011160 research Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 238000000513 principal component analysis Methods 0.000 description 4
- 239000013604 expression vector Substances 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 206010009944 Colon cancer Diseases 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 239000008358 core component Substances 0.000 description 1
- 238000011840 criminal investigation Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于跨视图核协同表示的行人再识别方法,属于行人再识别技术领域。本发明的方法首先对数据集进行预处理,然后划分训练、测试集,再进行特征提取与降维;并进行跨视图核协同表示,最后识别待测样本。本发明采用了跨视图核协同表示方法,按照不同的视图分别处理样本,用CRC协同表示同一视图下的样本得到该视图所有样本的协同表示编码,然后对不同视图下同一个人的协同表示编码加上彼此相似性约束,最后将不同视图的CRC模型和编码相似性约束整合到同一个多任务学习框架中,联合地学习跨视图样本的协同表示编码,通过这种方式使CRC更适用于行人再识别任务。因此,本方法应对跨视图行人图像间的外观差异具有更强的鲁棒性。
Description
技术领域
本发明涉及一种基于跨视图核协同表示的行人再识别方法,属于行人再识别技术领域。
背景技术
行人再识别(Person re-identification,Re-ID)起源于多摄像头跟踪,用于判断非重叠视域中拍摄到的不同图像中的行人是否属于同一个人。行人再识别涉及计算机视觉、机器学习、模式识别等多个学科领域,可以广泛应用于智能视频监控、安保、刑侦等领域。近年来,行人再识别技术引起了学术界和工业界的广泛关注,已经成为计算机视觉领域的一个研究热点。
对行人再识别的研究可以追溯到2003年,Porikli等人利用相关系数矩阵建立相机对之间的非参数模型,获取目标在不同相机间的颜色分布变化,实现了跨视域的目标匹配。2006年,Gheissari等人首次提出行人再识别的概念,利用颜色和显著边缘线直方图实现行人再识别。经过多年的研究,行人再识别取得了诸多有意义的成果。2010年,Farenzena等人第一次在计算机视觉领域的顶级会议CVPR(Computer vision and patternrecognition)上发表了关于行人再识别的文章《Person re-identification bysymmetry-driven accumulation of local features》。自此以后,在计算机视觉领域的国际重要会议和权威期刊中,行人再识别都成为一个重要的研究方向,涌现了大量的研究成果。尤其是近年来,很多学者和研究机构陆续公布了专门针对行人再识别问题的数据集,极大地推动了行人再识别研究工作的开展。
现有行人再识别的典型流程如图1所示。对于摄像头A和B采集的图像/视频,首先进行行人检测,得到行人图像。为了消除行人检测效果对再识别结果的影响,大部分行人再识别算法使用已经裁剪好的行人图像作为输入。然后针对输入图像提取鲁棒的特征,获得能够描述和区分不同行人的特征表达向量。最后根据特征表达向量进行相似性度量,按照相似性大小对图像进行排序,相似度最高的图像将作为最终的识别结果。
行人再识别包括两个核心部分:1)特征提取与表达——从行人外观出发,提取鲁棒性强且具有较强区分性的特征表示向量,有效表达行人图像的特性;2)相似性度量——通过特征向量之间的相似度比对,判断行人的相似性。
协同表示分类器(CRC)是一种高效高速的分类器,现已广泛应用于图像识别领域。CRC的基本思想是利用所有训练样本一起来协同表示该测试样本,进而得到协同表示编码。然后选择出和某一类训练样本相对应的类编码,最后用类编码计算由该类训练样本对测试样本进行重构的残差,重构残差最小的类标签即为该测试样本的类别。CRC在处理单视图(样本均采集自同一个摄像头,即单视图)问题时,由于图像间的外观差异不大,其空间分布可以近似为线性的,而CRC刚好是一种线性模型,因此有很好的表现。但是在处理行人再识别(样本采集自多个非重叠摄像头,即多视图)问题时,因为不同视图下的行人图像由于光照、色调、背景噪声等因素干扰,其外观差异很大,此时样本的空间分布是非线性的,传统的CRC已不能处理此类问题,因此需要对CRC进行改进以适应于行人再识别任务。
另一方面,为了线性地区分各类样本,人们通常采用核方法来产生一种非线性映射机制,将原始样本投影到一个高维核特征空间,在此空间中异类的样本将更易于线性地区分开。但是这也带来一个弊端,那就是核特征空间中样本的特征维度往往很高,而且有时是无限维的,过高的维度会使后续的优化求解变得复杂。因此需要对经过核函数投影后的特征进行降维。
发明内容
本发明的目的主要在于解决现有技术中行人再识别场景中由于光照、色调、噪声等干扰因素导致的跨视图行人图像彼此差异过大的问题,提出了一种基于跨视图核协同表示方法来提取对于视图差异不敏感的协同表示编码,最后通过比较不同样本的协同表示编码来识别待测行人。
为了达到上述目的,本发明提出的技术方案为:一种基于跨视图核协同表示的行人再识别方法,其特征在于,包括如下步骤:
步骤一、利用A、B两摄像机拍摄行人图像,记为A、B两视图,从两视图中分别采集行人图像样本作为数据集,对数据集预处理,并划分训练集和测试集;
步骤二、对训练集和测试集中的样本进行特征提取;
步骤三、利用核方法将所有样本映射到一个高维核特征空间;
步骤四、对高维核特征空间中的样本进行降维;
Ay通过求解如下广义特征值问题得到:Kyβy=γyβy
步骤五、利用跨视图核协同表示方法对Ygallery,Xprob中的样本进行协同表示;
Ygallery,Xprob的协同表示编码矩阵为:
步骤六、依据余弦相似性度量逐对比较Ygallery,Xprob中样本的协同表示编码,按照相似度大小确定Xprob中样本的身份标签。
对上述技术方案的进一步设计为:所述步骤一中,数据集预处理包括去除不合格样本、整理样本标签、图像去噪,图像增强和图像规范化。
所述步骤一中,划分训练集和测试集的方法为:分别从A、B摄像机采集的数据集中选取n张有标签行人图像作为训练集,用和分别表示由摄像机A和B采集的n个有标签训练样本,其中Train_datasetA的第i列/>表示采集自摄像机A的第个样本,Train_datasetB的第j列/>表示采集自摄像机B的第j个样本,f为数据维度;
所述A、B两视图下同一个人的样本在样本矩阵Train_datasetA,Train_datasetB中具有相同的列索引,即ai与bi,i=1,2,…,n,且具有相同的身份标签。
测试集中m1张来自摄像机A的行人图像与训练集中的样本具有不同的身份标签。
所述步骤二中利用分层高斯描述子提取GOG特征,并利用子空间学习算法XQDA对高维GOG特征进行降维,得到分别对应于Train_datasetA,Train_datasetB,Prob_dataset,Gallery_dataset的新的数据矩阵 和/>d为样本的特征维度。
对于Xprob中的第i个待测样本寻找Sim(Λp,Λg)中第i行Sim(i,:)中的最大的相似度Sim(i,l),则/>的身份标签就与Ygallery中的第l个样本/>的身份标签相同,i=1,2,…,m2;j=1,2,…,m1。
本发明与现有技术相比具有的有益效果为:
本发明主要利用了协同表示分类器(CRC)来解决行人再识别问题,因为CRC省去了训练过程,所以本方法的再识别速度很快。另外,相较于深度学习技术,由于CRC对训练样本的数量要求较低,所以即使在较少样本的情况下,本方法依然有很好的表现。除此以外,本发明还针对上文中提及的CRC的不足进行了适应行人再识别任务的改进。
首先,为了克服跨视图样本间的非线性分布问题,本发明采用了跨视图核协同表示方法。具体来说就是,按照不同的视图分别处理样本,用CRC协同表示同一视图下的样本得到该视图所有样本的协同表示编码,然后对不同视图下同一个人的协同表示编码加上彼此相似性约束,最后将不同视图的CRC模型和编码相似性约束整合到同一个多任务学习框架中,联合地学习跨视图样本的协同表示编码,通过这种方式使CRC更适用于行人再识别任务。因此,本方法应对跨视图行人图像间的外观差异具有更强的鲁棒性。
其次,为了降低核特征空间中特征维度,本发明采用了核主成分分析(KPCA)方法来降低核特征空间的维度,进而降低后续的优化求解复杂度。因此,本方法的求解过程简洁高效。
附图说明
图1为行人再识别典型流程图;
图2为本发明跨视图核协同表示行人再识别典型流程图。
具体实施方式
下面结合附图以及具体实施例对本发明进行详细说明。
实施例
本实施例的基于跨视图协同表示的行人再识别方法的流程图如图2所示。
步骤1:对分别采集自摄象机A和B的行人图像样本进行数据集预处理,其工作内容包括:去除不合格样本、整理样本标签、图像去噪,图像增强,图像规范化等操作。然后将样本划分为训练集和测试集。
在本实施例中我们针对单次拍摄(one-shoot)场景(即,每个视图下每个行人各有一张图像,且训练和测试选择的行人图像身份也不同),因此我们各选择A和B视图中的n张有标签行人图像作为训练集,我们用和分别表示由摄像机A和B采集的n个有标签训练样本,其中Train_datasetA,Train_datasetB的第i,j列/>分别表示采集自摄像机A,B的第i,j个样本,它们的数据维度是f。由于我们研究的是单次拍摄场景,所以我们规定不同视图下同一个人的样本在样本矩阵Train_datasetA,Train_datasetB中应具有相同的列索引,即ai与bi,i=1,2,…,n应具有相同的身份标签。另外对于测试集,它包括两部分:m1张来自视图A的有标签行人图像(它们和训练集中的样本具有不同的身份标签),记为m2张来自视图B的待测行人图像(身份未知),记为/>用于匹配Prob_dataset与Gallery_dataset中的行人图像。
为便于描述,我们用和/>分别表示由摄像机A和B采集的n个有标签训练样本,其中Y,X的第i,j列/>分别表示采集自摄像机A,B的第i,j个样本,它们的特征维度是d。设非线性映射为φ(·),则原始训练样本会被映射到高维空间,即:
步骤2:用特定的特征提取算法对训练集和测试集中的样本进行特征提取;
对经过预处理的训练、测试样本执行指定的特征提取操作,利用显著特征描述子(Salience)、分层高斯描述子(GOG)、局部最大发生表示(LOMO)、最大粒度结构描述子(MGSD)等特征描述子提取相应特征。在特征提取时,按具体性能表现有选择的提取一种或融合几种特征用于后续的再识别过程。
本实施例采用分层高斯描述子(GOG)提取GOG特征,并且利用子空间学习算法XQDA对高维GOG特征进行降维,得到分别对应于Train_datasetA,Train_datasetB,Prob_dataset,Gallery_dataset的新的数据矩阵 和/>它们样本的特征维度为d;
步骤3:利用核方法将所有样本映射到一个高维核特征空间。
特征提取后,如果特征维度过高则还需要对训练、测试样本的特征进行降维,比如进行主成分分析(PCA)。最后将经过特征提取、降维后的训练、测试集数据矩阵(各样本的特征数据转换成列向量的形式,按列组成一个向量组,即数据矩阵)进行规范化处理,使每个样本的特征向量为单位向量。
设非线性映射为φ(·),原始训练样本会被映射到高维空间,即:
步骤4:对高维核特征空间中的样本进行降维。本方法对投影到核特征空间的数据进行了额外的降维处理,进而降低后续求解过程的时间和空间复杂度。设两个视图的高维核特征空间中的鉴别投影为Py,目标维度为dim,且dim<<s,则它们满足:Py=φ(Y)Ay,Px=φ(X)Ax其中Ay,/>分别表示Py,Px对应的变换矩阵。则Ay可通过求解如下广义特征值问题得到:
Kyβy=γyβy
步骤5:利用跨视图核协同表示方法对Ygallery,Xprob中的样本进行协同表示。
为了更易线性地区分不同身份的行人图像,在协同表示之前要将原始数据投影到一个高维特征空间,具体而言就是用一个指定的非线性核函数将训练和测试数据投影到一个核特征空间,由于核特征空间的维数非常高或者有可能是无穷维,因此有必要在对核特征空间进行降维。主要采用一些基于核方法的降维方法,比如核主成分分析。最后,对核特征空间中的训练、测试样本进行跨视图核协同表示,进而得到训练、测试集的协同表示编码矩阵。
为了克服传统CRC不适应于跨视图行人再识别的弊端,本方法将每个单视图的CRC过程整合到同一个多任务学习框架,同时加上对表示编码的约束项,联合地学习协同表示编码。具体描述如下:
对于A视图下的某个待测样本y,经过非线性映射降维之后,样本y可以表示为用A视图中所有训练样本对待测样本y进行重构,设重构系数为αy,根据最小二乘法得到下式:/>对系数αy进行2范数约束,得到单视图核CRC模型:/>同理对于B视图下的已知行人样本x,也可得到B视图核CRC模型:/>将两个视图的核CRC模型、系数相似性约束项,整合到同一个多任务学习框架中,得到跨视图核协同表示分类模型的目标函数:
经过一系列的代数优化,最终可得Ygallery,Xprob的协同表示编码矩阵:
依据上述跨视图核协同表示方法的求解公式,可得Ygallery,Xprob的协同表示编码矩阵:
Xprob和Ygallery对应的编码矩阵。
步骤6:依据余弦相似性度量逐对比较Ygallery,Xprob中样本的协同表示编码,按照相似度大小确定Xprob中样本的身份标签。具体而言,对于Xprob中的某个待测样本计算它的协同表示编码/>与Ygallery中每个样本/>的协同表示编码/>之间的相似度:/>对于所有Xprob中的待测样本,它们的相似度可以构成相似度矩阵Sim(Λp,Λg),且其第i行j列的元素为/>对于Xprob中的第i个待测样本/>寻找Sim(Λp,Λg)中第i行Sim(i,:)中的最大的相似度Sim(i,l),则/>的身份标签就与Ygallery中的第l个样本/>的身份标签相同,i=1,2,…,m2;/>
本发明的技术方案不局限于上述各实施例,凡采用等同替换方式得到的技术方案均落在本发明要求保护的范围内。
Claims (4)
1.一种基于跨视图核协同表示的行人再识别方法,其特征在于,包括如下步骤:
步骤一、利用A、B两摄像机拍摄行人图像,记为A、B两视图,从两视图中分别采集行人图像样本作为数据集,对数据集预处理,并划分训练集和测试集;
划分训练集和测试集的方法为:分别从A、B摄像机采集的数据集中选取n张有标签行人图像作为训练集,用和分别表示由摄像机A和B采集的n个有标签训练样本,其中Train_datasetA的第i列/>表示采集自摄像机A的第个样本,Train_datasetB的第j列/>表示采集自摄像机B的第j个样本,f为数据维度;分别选取m1张来自摄像机A的有标签行人图像,记为/>m2张来自摄像机B的待测行人图像,记为/>作为测试集;
步骤二、对训练集和测试集中的样本进行特征提取,利用分层高斯描述子提取GOG特征,并利用子空间学习算法XQDA对高维GOG特征进行降维,得到分别对应于Train_datasetA,Train_datasetB,Prob_dataset,Gallery_dataset的新的数据矩阵和d为样本的特征维度;
步骤三、利用核方法将所有样本映射到一个高维核特征空间;
步骤四、对高维核特征空间中的样本进行降维;
Ay通过求解如下广义特征值问题得到:Kyβy=γyβy
步骤五、利用跨视图核协同表示方法对Ygallery,Xprob中的样本进行协同表示;
Ygallery,Xprob的协同表示编码矩阵为:
步骤六、依据余弦相似性度量逐对比较Ygallery,Xprob中样本的协同表示编码,按照相似度大小确定Xprob中样本的身份标签;
2.根据权利要求1所述基于跨视图核协同表示的行人再识别方法,其特征在于:所述步骤一中,数据集预处理包括去除不合格样本、整理样本标签、图像去噪,图像增强和图像规范化。
3.根据权利要求2所述基于跨视图核协同表示的行人再识别方法,其特征在于:A、B两视图下同一个人的样本在样本矩阵Train_datasetA,Train_datasetB中具有相同的列索引,即ai与bi,i=1,2,…,n,且具有相同的身份标签。
4.根据权利要求3所述基于跨视图核协同表示的行人再识别方法,其特征在于:测试集中m1张来自摄像机A的行人图像与训练集中的样本具有不同的身份标签。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010141525.2A CN111353443B (zh) | 2020-03-02 | 2020-03-02 | 一种基于跨视图核协同表示的行人再识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010141525.2A CN111353443B (zh) | 2020-03-02 | 2020-03-02 | 一种基于跨视图核协同表示的行人再识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111353443A CN111353443A (zh) | 2020-06-30 |
CN111353443B true CN111353443B (zh) | 2023-06-20 |
Family
ID=71194322
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010141525.2A Active CN111353443B (zh) | 2020-03-02 | 2020-03-02 | 一种基于跨视图核协同表示的行人再识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111353443B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114299550B (zh) * | 2022-01-05 | 2024-02-27 | 南通理工学院 | 一种行人再识别系统中无感噪声攻击的防御方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107506700B (zh) * | 2017-08-07 | 2021-03-16 | 苏州经贸职业技术学院 | 基于广义相似性度量学习的行人再识别方法 |
CN109447123B (zh) * | 2018-09-28 | 2021-07-16 | 昆明理工大学 | 一种基于标签一致性约束与拉伸正则化字典学习的行人再识别方法 |
CN109447175A (zh) * | 2018-11-07 | 2019-03-08 | 黄山学院 | 结合深度学习与度量学习的行人再识别方法 |
CN109766748B (zh) * | 2018-11-27 | 2022-09-23 | 昆明理工大学 | 一种基于投影变换与字典学习的行人再识别的方法 |
-
2020
- 2020-03-02 CN CN202010141525.2A patent/CN111353443B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111353443A (zh) | 2020-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111680614B (zh) | 一种基于视频监控中的异常行为检测方法 | |
Liu et al. | Identity preserving generative adversarial network for cross-domain person re-identification | |
CN113887661B (zh) | 一种基于表示学习重构残差分析的图像集分类方法及系统 | |
Qiang et al. | Hybrid human detection and recognition in surveillance | |
CN112836671B (zh) | 一种基于最大化比率和线性判别分析的数据降维方法 | |
Zhao et al. | Maximal granularity structure and generalized multi-view discriminant analysis for person re-identification | |
Lee et al. | Face image retrieval using sparse representation classifier with gabor-lbp histogram | |
CN110874576A (zh) | 一种基于典型相关分析融合特征的行人再识别方法 | |
Avola et al. | Real-time deep learning method for automated detection and localization of structural defects in manufactured products | |
CN115496950A (zh) | 邻域信息嵌入的半监督判别字典对学习的图像分类方法 | |
Haddad et al. | Locally adaptive statistical background modeling with deep learning-based false positive rejection for defect detection in semiconductor units | |
CN113095305A (zh) | 一种医药异物高光谱分类检测方法 | |
Fang et al. | A colour histogram based approach to human face detection | |
CN111353443B (zh) | 一种基于跨视图核协同表示的行人再识别方法 | |
CN107133579A (zh) | 基于CSGF(2D)2PCANet卷积网络的人脸识别方法 | |
CN112257600B (zh) | 一种人脸识别方法及系统 | |
Rahiddin et al. | Local texture representation for timber defect recognition based on variation of LBP | |
Chen et al. | More about covariance descriptors for image set coding: Log-euclidean framework based kernel matrix representation | |
Hsieh et al. | Video-based human action and hand gesture recognition by fusing factored matrices of dual tensors | |
Tsechpenakis et al. | Image analysis techniques to accompany a new in situ ichthyoplankton imaging system | |
CN110147824B (zh) | 一种图像的自动分类方法及装置 | |
CN113947780A (zh) | 一种基于改进卷积神经网络的梅花鹿面部识别方法 | |
Zeno et al. | Face validation based anomaly detection using variational autoencoder | |
CN115115898B (zh) | 一种基于无监督特征重构的小样本目标检测方法 | |
Xu et al. | A novel method of aerial image classification based on attention-based local descriptors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |