CN107330397B - 一种基于大间隔相对距离度量学习的行人重识别方法 - Google Patents
一种基于大间隔相对距离度量学习的行人重识别方法 Download PDFInfo
- Publication number
- CN107330397B CN107330397B CN201710510540.8A CN201710510540A CN107330397B CN 107330397 B CN107330397 B CN 107330397B CN 201710510540 A CN201710510540 A CN 201710510540A CN 107330397 B CN107330397 B CN 107330397B
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- matrix
- feature expression
- camera
- expression vectors
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
一种基于大间隔相对距离度量学习的行人重识别方法,包括步骤:在训练数据集中,对行人图像的特征表达向量进行降维处理并将降维后的向量进一步投影到类内子空间;根据投影后的特征表达向量及对应的标签信息通过优化损失函数学习马氏距离度量矩阵;在测试数据集中,利用学习到的马氏距离度量矩阵对不同摄像机下的行人图像进行行人重识别。由于在类内子空间通过相对距离比较学习马氏距离度量矩阵,获得的度量矩阵具有更强的鲁棒性,在测试集上显著提升了行人重识别的准确率。
Description
技术领域
本发明涉及视频监控技术领域,具体涉及一种基于大间隔相对距离度量学习的行人重识别方法。
背景技术
近年来,随着网络技术的发展以及社会安防需求的增长,智能视频监控的应用得到了大量的普及。由于视频监控能够以直观、准确、及时与丰富的图像展示当前状态或还原事发现场,成为了打击犯罪、公安刑侦、司法取证等工作的有效手段,也因此被广泛应用于各种场所。当前,在机关单位、小区、街道路口、车站、地铁等公共场合基本上建立起了比较完备的视频监控网络,它们所存储的视频为安全防范,实时监控跟踪以及事件分析提供了有效的数据保障。为了对比较大的范围进行有效的监控,当前的视频监控系统一般采用具有不重叠视域的摄像机对需要重点覆盖的区域进行监控。在一些基于视频监控系统的应用中,比如跨摄像机的行人跟踪与基于视频的行人检索中,常常需要根据特定的外观信息,对不同摄像机下的行人进行身份关联,即通过行人外观信息对不同摄像机捕获的行人画面进行匹配。这种对具有不重叠视域摄像机捕捉到的行人画面根据外观进行身份匹配的工作即为行人重识别。
但是由于不同摄像机的内部参数存在差异,行人在不同摄像机画面中受光照、摄像机视角与行人姿态等因素的影响,即使是同一行人在不同摄像机画面中的外观会存在巨大的差异,导致不同摄像机下根据行人外观进行身份匹配的重识别工作相当困难。
尽管行人重识别的方法各有不同,但总体上大致都可以分为两个阶段。第一阶段是特征表达的提取,即从行人画面(已从摄像机监控视频中裁切出)中计算一些具有判别性的特征表达,获得关于行人外观的数字化表达。第二阶段是采用一些距离/相似度计算方法计算不同摄像机下的两张行人画面间的距离/相似度,并确定两张图像中的行人是否为同一人;针对第二阶段的距离度量研究中,传统方法一般采用标准的距离函数度量行人间的相似性,如欧式距离、巴氏距离等,但是,其存在距离度量的鲁棒性差的问题,导致行人重识别的准确率低。
发明内容
本申请提供一种基于大间隔相对距离度量学习的行人重识别方法,包括步骤:
在训练数据集中,对不同摄像机下的行人图像的特征表达向量进行降维处理,并将降维处理后的特征表达向量投影到类内子空间;
根据投影后的各特征表达向量及其对应的标签信息通过优化损失函数学习马氏距离度量矩阵;
在测试数据集中,利用从训练集中学习获得的马氏距离度量矩阵对不同摄像机下的行人图像进行行人重识别。
一种实施例中,对不同摄像机下的训练数据集的行人图像的特征表达向量进行降维处理,具体为:
对所述协方差矩阵进行特征值分解运算,并获取前d′个最大特征值所对应的特征向量;
一种实施例中,将降维处理后的行人图像的特征表达向量投影到类内子空间,具体为:
计算降维后的所有特征表达向量的类内协方差矩阵:其中,为所有具有相同身份标签的跨摄像机行人图像对所组成的集合,x′i与z′j分别为X′与Z′的第i、j列,指代X所属摄像机下的第i张图片与Z所属摄像机下的第j张图片,x′i与z′j为同一行人在不同摄像机下的特征表达向量;
一种实施例中,根据向类内子空间投影后的特征表达向量及其对应的标签信息通过优化损失函数学习马氏距离度量矩阵,具体为:
目标函数为:其中,为在摄像机b下的正确匹配图像特征表达向量集合,而则为在摄像机b下的错误匹配图像特征表达向量集合,为关于三元组的函数,用于约束与错误匹配图像中最的小距离比正确匹配距离高于一个常数阈值δ,为马氏距离函数,其由一个半正定矩阵M所参数化;
采用加速邻近端梯度优化方法对所述目标函数求解,获取最优马氏距离度量矩阵。
一种实施例中,利用所述在训练集上学习获得的马氏距离度量矩阵对测试数据集中不同摄像机下的行人图像进行行人重识别,具体为:将测试数据集中摄像机a下每一张图片的特征表达向量与摄像机b下所有图像提取的特征表达向量两两计算马氏距离,并按马氏距离由小到大排序,将马氏距离最小的图像作为正确匹配的图片对。
一种实施例中,还包括获取数据集中所有图像的特征表达向量的步骤:
对行人图像大小进行归一化处理;
对归一化处理后的行人图像进行特征表达向量提取;
将所有行人图像的特征表达向量与其所对应的标签划分为训练数据集和测
试数据集。
依据上述实施例的行人重识别方法,由于先对训练数据集中的特征表达向量进行降维,再将降维后的特征表达向量投影到类内子空间,进而在类内子空间通过相对距离比较学习马氏距离度量矩阵,最后,在测试集上使用学习到的马氏距离度量矩阵进行行人重识别,该方法能够有效避免训练数据集中正、负样本不平衡所带来的影响,能够学习到鲁棒性强的马氏距离度量矩阵,提升行人重识别的准确率。
附图说明
图1为行人重识别方法流程图;
图2为特征表达向量提取过程示意图;
图3为一公开数据集中的不同摄像机下部分行人图片示意图;
图4为行人重识别方法仿真结果比较图。
具体实施方式
下面通过具体实施方式结合附图对本发明作进一步详细说明。
为了避免在度量学习中正确匹配行人图片对的数量远低于不同行人图片对所带来的样本不平衡问题,本例提供一种基于大间隔相对距离度量学习的行人重识别方法,通过将样本投影到类内子空间,采用新设计的具有更强约束的损失函数,使本例提出的行人重识别方法能够获得更优的距离度量矩阵,从而大大提高行人重识别的准确率。
本例以从监控视频画面中裁剪出的仅包含行人的矩形画面作为行人图像,提取这些行人图像的特征表达向量,并将这些特征表达向量及对应的身份标签所组成的数据划分为训练数据集和测试数据集,在训练数据集上,按大间隔相对距离度量学习算法学习得到马氏距离度量矩阵,在测试数据集上利用学习到的距离度量矩阵计算不同摄像机下行人画面的距离,实现行人身份验证(即完成行人重识别工作),具体包括如下步骤,其流程图如图1所示。
S1:获取行人图像的特征表达向量,并划分为训练数据集与测试数据集。
具体的,对行人图像大小作归一化处理,即将所有行人图像统一到相同的大小;利用现有的特征表达向量提取算法计算归一化处理后的行人图像的特征表达向量,将所有行人图像的特征表达向量与其所对应的标签(如,行人身份验证标签)组成数据集,再将数据集划分为训练数据集和测试数据集。
其中,对行人图像大小归一化处理的具体过程是:如图2所示,给定一张行人图像,首先将该行人图像调整为128像素×64像素,然后采用前景分割算法获得图像中的行人。再对前景行人图像划分为8个等高度的水平条,对于最顶端与最底端分别去除1/2水平条高度后,将获得的裁剪后的图像再划分为7个等高水平条,这样的划分可以获得具有覆盖的15个水平条;从每个水平条中分别提取HSV联合直方图、RGB联合直方图、尺度不变局部三元模式(Local Ternary Pattern,LTP)纹理特征与显著颜色名称(Salient Color Names,SCN)直方图。其中,HSV与RGB联合直方图每个颜色通道作8位量化,因此,获得的HSV/RGB联合直方图均为512维,LTP直方图为182维,SCN直方图为16维;将各个水平条上提取的特征向量按顺序逐一拼接起来,得到整幅图像完整的特征表达向量,最终的维度为18030。
S2:在训练数据集中,对不同摄像机下行人图像的特征表达向量进行降维处理并将降维处理后的特征表达向量投影到类内子空间。
为了提高运算速度,对不同摄像机下的行人图像的特征向量首先进行无监督的PCA降维处理,且,降维时采用保留所有能量的方案,降维处理的具体过程如下。
对所述协方差矩阵进行特征值分解运算,并获取前d′个最大特征值所对应的特征向量;
另外,将降维处理后的行人图像的特征表达向量投影到类内子空间的过程如下。
计算降维后的特征矩阵的类内协方差,获取类内协方差矩阵:
其中,为所有具有相同身份标签的跨摄像机行人图像对所组成的集合,x′i与z′j分别为X′与Z′的第i、j列,指代X所属摄像机下的第i张图片与Z所属摄像机下的第j张图片,x′i与z′j为同一行人在不同摄像机下的特征表达向量;
分别将降维处理后的行人图像的特征表达向量使用所述类内子空间投影矩阵Wintra投影到类内子空间:
通过公式(2)向类内子空间投影操作能够有效地抑制具有较大方差的特征向量的维度,从而使得具有相同标签的跨摄像机特征向量间的距离得到降低。
S3:根据投影后的特征表达向量及其对应的标签信息通过优化损失函数学习马氏距离度量矩阵。
本例中,从跨摄像机的行人图像特征表达向量及对应的标签中学习马氏距离度量矩阵的目标函数的表达式如下:
其中,为在摄像机b下的正确匹配图像集合,而则为在摄像机b下的错误匹配图像集合,为关于三元组的函数,用于约束与错误匹配图像中最的小距离比正确匹配距离高于一个常数阈值δ,为马氏距离函数,其由一个半正定矩阵M所参数化;并将作为约束函数。
公式(3)中采用了Log-logistic损失函数,能够为正确匹配样本对与错误匹配样本对提供一个柔性区分间隔,此外该函数为一凸函数,保证了公式(3)为凸优化问题其最优解唯一,该函数的光滑可微性也为公式(3)的优化求解带来了方便。此外,采用了三元组来比较的正确匹配图像对与所有错误匹配图像对间的相对距离,避免了从不平衡数据中学习到的度量矩阵不够鲁棒的缺点;而约束了即使的错误匹配图像中即使最小的距离也要比正确匹配距离高出δ,这是一个非常严格的约束条件,保证了正确匹配图像在最终按距离排序时,其位置能够有效地被向前推(Top Push)。
另外,本例采用了高效的加速邻近端梯度(Accelerated Proximal Gradient,APG)优化方法对公式(3)进行求解,获取最优马氏距离度量矩阵。具体的,为了更高效方便地求解公式(3),首先对公式(3)进行恒等变换,将约束条件采用示性函数整合到目标函数中:
进一步,将公式(4)拆分为如下两部分:
采用APG的迭代优化策略,首先对f(M)执行梯度下降,再优化h(M),如此迭代直到达到收敛条件阈值。令Vt(t≥1)为已搜索到的最优点,在此点处对f(M)线性化,创建邻近点算子(Proximal Operator)如下:
为了加快对(9)的运算速度,避免公式(12)中的外积运算所带来的巨大运算量,实际数值运算采用了矩阵化运算,
式中N+为对每个a摄像机下每个在摄像机b下作添补后的正确匹配图片数,这样使得对于所有在摄像机b下都具有相同的正确匹配图片数,从而可以进行矩阵化运算。G(t)为一个3维矩阵,其中的元素为 为G(t)中第2个维度上的第l个2维矩阵,与是两上对角矩阵,它们主对角线上的元素的和分别为的行和与列和。采用式(13)的计算效率远高于式(9),特别是在N+=1的情况下,即对每个摄像机a下的行人图片,在摄像机b下仅有1张正确匹配图片。
以VIPeR数据集为例,如图3所示展示了从该数据集中随机选取的部分行人图像示例。将数据集随机划分为不相交的两部分,其中一部分作为训练数据集,另一部分作为测试数据集,如在VIPeR上,将其中包含的632个行人(每个行人在两个摄像机下各一张图片)随机划分为2个各含316个行人子集,前316人图片的向类内子空间投影后的特征表达向量用于训练,后316人投影后的特征表达向量用作为测试集。
以举例说明学习获得马氏距离度量矩阵的具体过程如下:
步骤1:初始化M0与V1均为d′×d′大小的单位阵,θ0=1,收敛阈值∈=10-5;
步骤5:采用线搜索方法估计式(8)中的步长ηt;
步骤9:根据式(4)计算损失函数,如果当前损失函数与上次损失函数差值大于收敛阈值∈,则转到步骤2,否则认为算法收敛,输出最优解Mt。
S4:在测试数据集中,利用马氏距离度量矩阵对摄像机a和摄像机b下的行人图像进行行人重识别。
具体为:将测试数据集中摄像机a下每一张图片的特征表达向量与摄像机b下所有图像提取的特征表达向量两两计算马氏距离,并按马氏距离由小到大排序,将马氏距离最小的图像作为正确匹配的图片对;即,对所有测试数据集中的特征表达向量使用Wpca与均值特征向量作PCA投影到d′维度,再使用Wintra向类内子空间投影,对测试数据集中摄像机a下一个行人图像的向类内子空间投影后的特征表达向量,与摄像机b下的所有行人图像的类内子空间投影后特征表达向量根据计算马氏距离,对获得的距离按距离由小到大升序排列,排在靠前位置的被认为与摄像机a下行人图像最为匹配的摄像机b下行人图像,重复计算马氏距离及排序操作,直到摄像机a下所有行人图像都有摄像机b下所有行人图像完成距离计算与排序操作。
如图4所示,为本例与其它公开方法在VIPeR数据集上的重识别累积匹配准确率(Cumulative Matching Characteristic,CMC)曲线,其中SSSVM为每个行人训练一个SVM分类器,并采用最小二乘半耦合词典创建特征空间与分类器空间之间的对应关系;NFST将行人图片的特征表达向量投影到类内散布矩阵的零空间再进行匹配,该方法能够有效地解决小样本问题且具有闭合形式的解;MLAPG方法在求解度量矩阵时对正、负样本对采用了不对称加权的策略来解决样本不平衡导致的度量矩阵不够鲁棒的缺点;XQDA方法在求解距离度量矩阵的同时还求解一个低维投影矩阵,从而无需先对特征向量降维再学习度量矩阵;PolyMap方法对跨摄像机的行人图片特征向量首先采用二次多项式核函数进行映射,再学习相似度函数计算不同摄像机下图片之间的相似度;MLF方法通过学习中层滤波器特征,利用RankSVM算法来计算行人图片间的相似度,但运算耗时较长;SalMatch方法采用了对行人图片首先计算其显著性图,再使用该显著性图对RankSVM计算的相似度进行加权;KISSME为从统计推理角度出发提出的一种快速度量学习方法,该算法简单高效,具有闭合形式的解,但是对PCA维度相当敏感;PCCA方法从训练样本中学习到一个低维投影矩阵,因此可以直接处理高维样本,并在降维后的子空间中实现行人图片的匹配;PRDC方法从概率角度出发,旨在学习一个投影子空间使得错误匹配图像间距离高于正确匹配图像间距离的概率最大化。LMRDL为本发明实施例的准确率结果。可以看出本实施例在识别准确率明显优于其他方法。此外,由于采用了高效的APG优化方法,本发明方法求解速度也很快。
与现有技术相比,本发明具有以下的有益效果:
传统的度量学习往往直接不同摄像机下的行人图像对施加硬约束,即匹配图像对的距离应小于某一阈值,而不匹配图像应大于此阈值。但这种约束过于僵硬,因为无法保证不同行人的两张图像均满足固定的阈值条件,另外受到不平衡数据的影响较重。以往的基于三元组的度量学习方法或者不处理类内图像对,或者在目标函数中同时约束类内距离与类间距离,但需要对两者进行平衡。而本发明所提出的度量学习方法是在将样本投影到内类子空间后再学习相对距离度量,该方法不仅能够有效地避免不平衡样本所带来的度量矩阵不够鲁棒的缺点,还能够降低不同摄像机下类内行人图像的距离,不必对类内距离与类间距离进行平衡。在行人重识别任务上的实验结果证实了本发明提出的方法的有效性。
以上应用了具体个例对本发明进行阐述,只是用于帮助理解本发明,并不用以限制本发明。对于本发明所属技术领域的技术人员,依据本发明的思想,还可以做出若干简单推演、变形或替换。
Claims (5)
1.一种基于大间隔相对距离度量学习的行人重识别方法,其特征在于,包括步骤:
在训练数据集中,对不同摄像机下行人图像的特征表达向量进行降维处理并将降维后的特征表达向量投影到类内子空间;
根据投影后的各特征表达向量及其对应的标签信息通过优化损失函数学习马氏距离度量矩阵;具体为:
目标函数为:其中,为在摄像机b下的正确匹配图像特征表达向量集合,而则为在摄像机b下的错误匹配图像特征表达向量集合,为关于三元组的函数,用于约束与错误匹配图像中最的小距离比正确匹配距离高于一个常数阈值δ,为马氏距离函数,其由一个半正定矩阵M所参数化;
采用加速邻近端梯度优化方法对所述目标函数求解,获取最优马氏距离度量矩阵;
在测试数据集中,利用从训练集中学习获得的马氏距离度量矩阵对不同摄像机下的行人图像进行行人重识别。
2.如权利要求1所述的行人重识别方法,其特征在于,所述对训练数据集中不同摄像机下行人图像的特征表达向量进行降维处理,具体为:
对所述协方差矩阵进行特征值分解运算,并获取前d′个最大特征值所对应的特征向量;
3.如权利要求2所述的行人重识别方法,其特征在于,所述将降维处理后的行人图像的特征表达向量投影到类内子空间,具体为:
计算降维后的所有特征表达向量的类内协方差矩阵:其中,为所有具有相同身份标签的跨摄像机行人图像对所组成的集合,x′i与z′j分别为X′与Z′的第i、j列,指代X′所属摄像机下的第i张图片与Z′所属摄像机下的第j张图片,x′i与z′j为同一行人在不同摄像机下的特征表达向量;
4.如权利要求1所述的行人重识别方法,其特征在于,所述利用在训练集上学习获得的马氏距离度量矩阵对测试数据集中不同摄像机下的行人图像进行行人重识别,具体为:将所述测试数据集中摄像机a下每一张图片的特征表达向量与摄像机b下所有图像的特征表达向量两两计算马氏距离,并按马氏距离由小到大排序,将马氏距离最小的图像视与检索图像正确匹配的结果。
5.如权利要求1所述的行人重识别方法,其特征在于,还包括训练数据集和测试数据集的特征表达向量的获取步骤:
对行人图像大小进行归一化处理;
对归一化处理后的行人图像进行特征表达向量提取;
将所有行人图像的特征表达向量与其所对应的标签组成数据集;
将所述数据集划分为训练数据集和测试数据集。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710510540.8A CN107330397B (zh) | 2017-06-28 | 2017-06-28 | 一种基于大间隔相对距离度量学习的行人重识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710510540.8A CN107330397B (zh) | 2017-06-28 | 2017-06-28 | 一种基于大间隔相对距离度量学习的行人重识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107330397A CN107330397A (zh) | 2017-11-07 |
CN107330397B true CN107330397B (zh) | 2020-10-02 |
Family
ID=60198654
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710510540.8A Active CN107330397B (zh) | 2017-06-28 | 2017-06-28 | 一种基于大间隔相对距离度量学习的行人重识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107330397B (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107909049B (zh) * | 2017-11-29 | 2020-07-31 | 广州大学 | 基于最小二乘判别分析距离学习的行人重识别方法 |
CN108446613A (zh) * | 2018-03-08 | 2018-08-24 | 常州大学 | 一种基于距离中心化与投影向量学习的行人重识别方法 |
CN108537181A (zh) * | 2018-04-13 | 2018-09-14 | 盐城师范学院 | 一种基于大间距深度度量学习的步态识别方法 |
CN109063591B (zh) * | 2018-07-12 | 2021-10-15 | 杭州电子科技大学 | 一种基于距离分布度量学习的行人再识别方法 |
CN108549883A (zh) * | 2018-08-06 | 2018-09-18 | 国网浙江省电力有限公司 | 一种人脸再识别方法 |
CN109271895B (zh) * | 2018-08-31 | 2022-03-04 | 西安电子科技大学 | 基于多尺度特征学习和特征分割的行人重识别方法 |
CN109903271B (zh) * | 2019-01-29 | 2022-05-13 | 福州大学 | 胎盘植入b超图像特征提取与验证方法 |
CN110032984B (zh) * | 2019-04-22 | 2020-01-31 | 广东石油化工学院 | 基于非对称映射半耦合字典对的低分辨率行人重学习方法 |
CN110135363B (zh) * | 2019-05-13 | 2022-09-27 | 苏州经贸职业技术学院 | 基于判别词典嵌入行人图像检索方法、系统、设备及介质 |
CN110210335B (zh) * | 2019-05-16 | 2021-05-11 | 上海工程技术大学 | 一种行人重识别学习模型的训练方法、系统和装置 |
CN111126135B (zh) * | 2019-11-11 | 2023-12-01 | 上海蠡图信息科技有限公司 | 一种基于统一划分的特征自适应行人再识别方法 |
CN112069908B (zh) * | 2020-08-11 | 2024-04-05 | 西安理工大学 | 基于共现属性的行人重识别方法 |
CN111967381B (zh) * | 2020-08-16 | 2022-11-11 | 云知声智能科技股份有限公司 | 一种人脸图像质量评分标注方法及装置 |
CN112069961B (zh) * | 2020-08-28 | 2022-06-14 | 电子科技大学 | 一种基于度量学习的少样本文档版面分析方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103793702A (zh) * | 2014-02-28 | 2014-05-14 | 武汉大学 | 基于协同尺度学习的行人重识别方法 |
CN106250870A (zh) * | 2016-08-16 | 2016-12-21 | 电子科技大学 | 一种联合局部和全局相似性度量学习的行人再识别方法 |
CN106803063A (zh) * | 2016-12-21 | 2017-06-06 | 华中科技大学 | 一种行人重识别的度量学习方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7711146B2 (en) * | 2006-03-09 | 2010-05-04 | General Electric Company | Method and system for performing image re-identification |
-
2017
- 2017-06-28 CN CN201710510540.8A patent/CN107330397B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103793702A (zh) * | 2014-02-28 | 2014-05-14 | 武汉大学 | 基于协同尺度学习的行人重识别方法 |
CN106250870A (zh) * | 2016-08-16 | 2016-12-21 | 电子科技大学 | 一种联合局部和全局相似性度量学习的行人再识别方法 |
CN106803063A (zh) * | 2016-12-21 | 2017-06-06 | 华中科技大学 | 一种行人重识别的度量学习方法 |
Non-Patent Citations (1)
Title |
---|
Similarity Metric Learning for Face Recognition;Qiong Cao等;《ICCV2013:IEEE International Conference on Computer Vision》;20131231;第2408~2415页 * |
Also Published As
Publication number | Publication date |
---|---|
CN107330397A (zh) | 2017-11-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107330397B (zh) | 一种基于大间隔相对距离度量学习的行人重识别方法 | |
CN107506700B (zh) | 基于广义相似性度量学习的行人再识别方法 | |
CN111814584B (zh) | 基于多中心度量损失的多视角环境下车辆重识别方法 | |
Chen et al. | Unconstrained face verification using deep CNN features | |
Sankaranarayanan et al. | Triplet probabilistic embedding for face verification and clustering | |
Chen et al. | An end-to-end system for unconstrained face verification with deep convolutional neural networks | |
Cheng et al. | Exploiting effective facial patches for robust gender recognition | |
US7702596B2 (en) | Probabilistic boosting tree framework for learning discriminative models | |
US7596247B2 (en) | Method and apparatus for object recognition using probability models | |
Ranjan et al. | Unconstrained age estimation with deep convolutional neural networks | |
Ghorbani et al. | HOG and LBP: Towards a robust face recognition system | |
Lin et al. | Learning pairwise dissimilarity profiles for appearance recognition in visual surveillance | |
CN109255289B (zh) | 一种基于统一式生成模型的跨衰老人脸识别方法 | |
US20060018521A1 (en) | Object classification using image segmentation | |
CN111126240B (zh) | 一种三通道特征融合人脸识别方法 | |
Demirkus et al. | Probabilistic temporal head pose estimation using a hierarchical graphical model | |
Wang et al. | Improving human action recognition by non-action classification | |
Demirkus et al. | Hierarchical temporal graphical model for head pose estimation and subsequent attribute classification in real-world videos | |
Chen et al. | Unconstrained face verification using fisher vectors computed from frontalized faces | |
Symeonidis et al. | Neural attention-driven non-maximum suppression for person detection | |
CN110458064B (zh) | 结合数据驱动型和知识驱动型的低空目标检测与识别方法 | |
CN115862055A (zh) | 基于对比学习和对抗训练的行人重识别方法及装置 | |
CN112052722A (zh) | 行人身份再识别方法及存储介质 | |
Karungaru et al. | Face recognition in colour images using neural networks and genetic algorithms | |
CN112766180B (zh) | 一种基于特征融合和多核学习的行人再识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |