CN105404871A - 基于多尺度联合学习的无交叠视域摄像头之间的低分辨率行人匹配方法 - Google Patents

基于多尺度联合学习的无交叠视域摄像头之间的低分辨率行人匹配方法 Download PDF

Info

Publication number
CN105404871A
CN105404871A CN201510831221.8A CN201510831221A CN105404871A CN 105404871 A CN105404871 A CN 105404871A CN 201510831221 A CN201510831221 A CN 201510831221A CN 105404871 A CN105404871 A CN 105404871A
Authority
CN
China
Prior art keywords
pedestrian
scale
pedestrians
scales
low
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510831221.8A
Other languages
English (en)
Other versions
CN105404871B (zh
Inventor
郑伟诗
李翔
吴岸聪
曹玫
游瑾洁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN201510831221.8A priority Critical patent/CN105404871B/zh
Publication of CN105404871A publication Critical patent/CN105404871A/zh
Application granted granted Critical
Publication of CN105404871B publication Critical patent/CN105404871B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于多尺度联合学习的无交叠视域摄像头之间的低分辨率行人匹配方法,包括以下步骤:(1)从原始的行人训练数据中分别生成多个不同尺度的行人训练数据;(2)提出不同尺度上同一行人差异最小化准则;(3)建立多尺度联合学习模型;(4)实现不同摄像头间低分辨率行人的匹配。本发明采用多个不同的图像尺度来有效地保持低分辨率行人的表观信息,进一步利用不同尺度上同一行人差异最小化准则来传递行人在不同分辨率下的判别信息,在此基础上建立多尺度联合学习模型,学习每个尺度的最优距离度量。本发明的方法相比于直接将行人图像缩放到单一尺度建模的现有行人匹配方法,能够获得更高的不同摄像头之间低分辨行人的匹配准确率。

Description

基于多尺度联合学习的无交叠视域摄像头之间的低分辨率行人匹配方法
技术领域
本发明涉及视频监控领域不同摄像头之间的行人匹配方法,尤其涉及一种基于多尺度联合学习的无交叠视域摄像头之间的低分辨率行人匹配方法。
背景技术
当前在公共场合,常使用无交叠视域摄像头进行视频监控以扩大监控范围和记录行人轨迹。这其中的关键是实现不同摄像头检测到的行人之间的准确匹配。然而在现实中行人和不同摄像头之间的距离存在较大的差异,行人图像的分辨率往往大小不一,导致了低分辨率行人匹配问题的出现,即一个摄像头检测到的低分辨率行人和另一个摄像头检测到的正常分辨率行人之间的匹配问题。
近五年来出现了很多行人匹配的方法,如基于支持向量排序模型的匹配、基于相对距离比较学习的统计方法、基于等价约束模型的贝叶斯距离、基于自适应决策函数的匹配,以及基于局部线性判别分析的匹配等方法。但是现有方法忽略了行人匹配中存在的低分辨率问题,直接将所有行人图像缩放到单一的标准尺度后再进行匹配,使低分辨行人的信息损失严重,导致低分辨率行人匹配的准确率低下。
发明内容
本发明的目的在于克服现有技术的不足,提供一种实用性强、可明显提高低分辨率行人匹配准确率的基于多尺度联合学习的不同摄像头之间低分辨率行人匹配的方法。本方法对低分辨率行人和正常分辨率行人在多个图像尺度上进行联合建模以充分学习其内在的匹配关系,并获得了较高的匹配准确率。这是现有的方法中第一次解决低分辨率行人的匹配问题。
本发明的目的通过下述方案实现:一种基于多尺度联合学习的无交叠摄像头之间的低分辨率行人匹配方法,包括下述步骤:
(1)生成多个不同图像尺度的行人训练数据;
(2)提出不同尺度上同一行人差异最小化准则;
(3)建立多尺度联合学习模型;
(4)实现不同摄像头间低分辨率行人的匹配。
作为优选的,所述步骤(1)中,不同尺度的行人训练数据是通过将原始分辨率各异的行人训练图像同时缩放到多个不同的尺度得到的。
作为优选的,步骤(1)具体为:
行人训练图像被缩放到两个尺度,即一个标准尺度和一个其他的小尺度,更多尺度的情况可以很容易扩展,具体地,对于一个行人训练集,通过缩放图像可以分别得到一个标准尺度的行人训练集和一个小尺度的行人训练集 X s = { ( x i s , y i ) } i = 1 N , 其中 x i h ∈ R d h x i s ∈ R d s ( d h > d s ) 分别表示同一张行人图像调整到标准尺度和小尺度后提取的特征向量,其所属的行人/类别记为yi,N是训练集的行人图像样本总数。
作为优选的,所述步骤(2)中,提出的不同尺度同一行人分布差异最小化准则,是通过最小化不同尺度上同一行人的图像特征向量在低维空间中的分布差异实现的。
作为优选的,步骤(2)具体为:
不同尺度的同一个行人差异最小化准则通过最大限度减少同一行人在不同尺度上的图像的特征向量的均值在一个低维空间中的差异来实现,即最小化不同尺度的行人同类均值在低维子空间中的差异,该过程可表示为:
min W h , W s H C M D ( W h , W s ) = 1 C Σ i = 1 C | | W h T u i h - W s T u i s | | 2 2
其中,分别是Xh和Xs中第i个行人的所属图像的特征向量的均值C是行人的总个数即总类别数,分别是标准尺度和小尺度上距离度量的变换矩阵,用来投影行人样本到低维空间,r是被投影的低维空间的维度。
作为优选的,所述步骤(3)中的多尺度联合学习模型,目的是协同地在每个尺度上学习一个最优的距离度量,既实现不同尺度上同一行人差异最小化准则,同时又保证在同一尺度上,不同行人的类间距离最大化,同一行人的类内距离最小化。
作为优选的,步骤(3)具体为:
首先根据He和Niyogi提出的亲和度矩阵A和Sugiyama提出的局部线性判别理论,构造同一尺度的行人的类间散度矩阵Sb和类内的散度矩阵Sw如下:
S b = Σ i , j = 1 N A ‾ i , j b 2 ( x i - x j ) ( x i - x j ) T
S w = Σ i , j = 1 N A ‾ i , j w 2 ( x i - x j ) ( x i - x j ) T
其中,xi和xj为两张行人图像的特征向量,当xi和xj属于同一行人时, A ‾ i , j b = A i , j N - A i , j N c , A ‾ i , j w = A i , j N c ; 当xi和xj属于不同行人时, A ‾ i , j b = 1 N , Ai,j是xi和xj之间的亲和度,N是所有行人样本的总数,Nc是对应的同一行人的样本数,对于标准尺度和小尺度,其对应的类间散度矩阵分别被表示为其对应的类内散度矩阵分别被表示为
为了得到最优距离度量的变换矩阵Wh和Ws,使其既要满足不同尺度的行人同类均值差异HCMD(Wh,Ws)最小化,又要分别实现行人样本的类内距离最小化和类间距离最大化,所以建立多尺度联合学习模型如下:
max W h , W s H C M D ( W h , W s ) - 1 , t r ( W h T S b h W h ) t r ( W h T S w h W h ) , t r ( W s T S b s W s ) t r ( W s T S w s W s ) ·
公式③表示的是基于两个图像尺度的多尺度联合学习模型,通过增加更多的尺度来最小化HCMD并同时学习各个尺度上行人的距离度量,能够很容易扩展到两个以上尺度的联合学习模型,求解公式③即可得到优选方案中标准尺度和小尺度上的最优距离度量的变换矩阵Wh和Ws
作为优选的,所述步骤(4)是对摄像头camA中检测到的低分辨率行人PA,在摄像头camB中检测到的R个正常分辨率行人r∈[1,R]中找到与其匹配的行人,与PA匹配的行人可由公式确定,其中是PA在不同尺度上学习的最优距离度量计算的融合距离。
本发明与现有技术相比,具有如下优点和有益效果:
1、本发明使用多个图像尺度来提取行人的信息,与现有的行人匹配技术直接将所有行人缩放到单一图像尺度的做法相比,有效地保持了低分辨率行人的表观信息。
2、本发明提出的不同尺度的同一行人差异最小化准则能够保持不同尺度的行人表观信息的相似性,有效地传递了不同分辨率行人的判别信息。
3、本发明在不同尺度上同一行人差异最小化准则的基础上建立多尺度联合学习模型,学习每个尺度的最优距离度量,有效地增强了低分辨率行人和正常分辨率行人之间的匹配关系。与现有行人匹配技术相比,较好地改善了无交叠视域摄像头之间低分辨率行人的匹配效果。
附图说明
图1为本发明的操作流程图示。
图2为本发明方法的思想描述。
图3为CAVIAR行人数据集示例(第一行是一个摄像头中检测到的正常分辨率行人,第二行是对应的另一摄像头中检测到的低分辨率行人)。
图4为本发明的方法与现有行人匹配方法在CAVIAR行人数据集上的CMC曲线结果对比图。
图5为本发明的方法在低分辨率行人监控场景下的匹配结果示例图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例
图1、图2示出了本发明的操作过程,由图1可见,基于多尺度联合学习的无交叠视域摄像头之间的低分辨率行人匹配方法,包括下述步骤:
(1)将原始的行人训练数据分别缩放到多个图像尺度上,以充分保持低分辨率行人的信息。具体地,在本实施例中,采用行人匹配方法中常用的单一标准尺度(128×48)和一个其他的小尺度(64×24)共两个尺度。对于行人图像,提取其颜色、LBP和HOG特征组成特征向量。
(2)构造不同尺度上同一行人差异最小化准则的具体表达形式。在本实施例中,通过最小化同一行人在不同尺度上的图像特征向量的均值在一个低维空间中的差异即来实现该准则。其中Wh和Ws分别是标准尺度和小尺度上距离度量的变换矩阵,用来投影行人样本到低维空间。在本实施例中,低维空间的维度取100维最佳。
(3)构建多尺度联合学习模型,协同学习不同尺度上最优距离度量,从而实现最小化HCMD(Wh,Ws),又保证同一尺度上不同行人的类间距离最大化和同一行人的类内距离最小化。具体地,在本实施例中,通过以下公式③的近似等价形式来求解最优距离度量的变换矩阵Wh和Ws
max W h , W s t r ( W h T S b h W h + W s T S b s W s ) t r ( W h T S w h W h + W s T S w s W s ) + α H C M D ( W h , W s )
其中,α是控制HCMD影响幅度的参数,在本实施例中α取10。
(4)实现不同摄像头下的低分辨率行人的匹配(见图5)。具体地,在本实施例中,对于摄像头camA中检测到的目标行人PA和摄像头camB中检测到的某一行人PB,分别提取其在标准尺度上的图像特征向量以及在小尺度上的图像特征向量则PA和PB在两个不同尺度上分别利用Wh和Ws变换后得到的融合距离度量可以由下式计算得到:
d ( p A , p B ) = β | | W h T x p A h - W h T x P B h | | 2 + ( 1 - β ) | | W s T x p A s - W s T x p B s | | 2
其中,β是调节标准尺度和小尺度影响的权重。在本实施例中β取0.3。假设在一段时间内有R个行人进入摄像头camB,则利用公式⑤分别计算目标行人PA和这R个行人之间的距离,其中与PA距离最小的行人即为camB中与PA匹配的行人,即 r ^ = argmin r ∈ [ 1 , R ] d ( P A , P B r ) .
本发明通过以下实验对本发明的效果进行说明:低分辨率行人匹配实验选择在CAVIAR行人数据集上进行。具体地,选择CAVIAR数据集的50个行人进行实验,这些行人在一个摄像头下是低分辨率,在另一个摄像头下是正常分辨率(见图3)。在该50个行人中,随机选择25个行人作为训练集,剩余的25个行人作为测试集。该过程重复10次进行实验,取10次结果的平均作为最终的实验结果,以CMC(cumulativematchcharacteristic)曲线来展现。
本实验比较了本发明的方法和六种常用的行人匹配方法,包括1)基于1范数距离的匹配方法(L1norm);2)基于局部线性判别分析的匹配方法(LFDA)(具体见“S.Pedagadi,J.Orwell,S.Velastin,andB.Boghossian.Localfisherdiscriminantanalysisforpedestrianre-identification.InCVPR,2013.”);3)基于等价约束的匹配方法(KISSME)(具体见“M.Kostinger,M.Hirzer,P.Wohlhart,P.M.Roth,andH.Bischof.Largescalemetriclearningfromequivalenceconstraints.InCVPR,2012.”);4)基于自适应决策函数的匹配方法(LADF)(具体见“Z.Li,S.Chang,F.Liang,T.S.Huang,L.Cao,andJ.R.Smith.Learninglocally-adaptivedecisionfunctionsforpersonverification.InCVPR,2013.”);5)基于支持向量排序模型的匹配方法(PRSVM)(具体见“B.Prosser,W.-S.Zheng,S.Gong,andT.Xiang.Personre-identificationbysupportvectorranking.InBMVC,2010.”);6)基于相对距离比较学习的匹配方法(RDC)(具体见“W.-S.Zheng,S.Gong,andT.Xiang.Re-identificationbyrelativedistancecomparison.IEEETPAMI,35(3):653–668,2013.”)。比较的结果如图4和表1所示,其中图4是实验中每种方法的CMC曲线图,表1记录了每种方法匹配准确率的具体数值。
表1:行人匹配准确率(%)。其中,Rank1、5、10和20分别表示正确匹配出现在前1、5、10和20个最相似位置的准确率。
Methods Rank 1 Rank 5 Rank 10 Rank 20
本发明的方法 22.12 59.56 80.48 97.84
LFDA 14.56 48.76 72.04 96.04
L1norm 11.56 40.08 64.92 92.60
KISSME 16.72 51.28 75.56 97.80
LADF 11.12 46.52 72.04 96.00
PRSVM 15.56 45.56 68.60 94.16
RDC 15.12 45.92 68.92 94.56
从实验结果可以看出,采用本发明进行无交叠视域摄像头之间的低分辨率行人匹配,与现存的行人匹配方法相比,提高了匹配准确率。由于这些方法忽略了视频监控中低分辨率行人的存在,对所有行人在单一图像尺度上建模,既使低分辨率行人的表观信息失真严重,又没有挖掘不同分辨率行人之间的匹配关系,导致低分辨率行人的匹配准确率低下。而本发明的方法利用多个图像尺度来保持低分辨率行人的表观信息,同时提出多尺度联合学习模型,充分挖掘不同尺度之间的联系,较好地改善了低分辨率行人匹配的效果。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (8)

1.一种基于多尺度联合学习的无交叠视域摄像头之间的低分辨率行人匹配方法,其特征在于包括以下步骤:
(1)生成多个不同图像尺度的行人训练数据;
(2)提出不同尺度上同一行人差异最小化准则;
(3)建立多尺度联合学习模型;
(4)实现不同摄像头间低分辨率行人的匹配。
2.根据权利要求1所述的基于多尺度联合学习的无交叠视域摄像头之间的低分辨率行人匹配方法,其特征在于,所述步骤(1)中,不同尺度的行人训练数据是通过将原始分辨率各异的行人训练图像同时缩放到多个不同的尺度得到的。
3.根据权利要求2所述的基于多尺度联合学习的无交叠视域摄像头之间的低分辨率行人匹配方法,其特征在于,步骤(1)具体为:
行人训练图像被缩放到两个尺度,即一个标准尺度和一个其他的小尺度,更多尺度的情况可以很容易扩展,具体地,对于一个行人训练集,通过缩放图像可以分别得到一个标准尺度的行人训练集和一个小尺度的行人训练集 X s = { ( x i s , y i ) } i = 1 N , 其中 x i h ∈ R d h x i s ∈ R d s ( d h > d s ) 分别表示同一张行人图像调整到标准尺度和小尺度后提取的特征向量,其所属的行人/类别记为yi,N是训练集的行人图像样本总数。
4.根据权利要求1所述的基于多尺度联合学习的无交叠视域摄像头之间的低分辨率行人匹配方法,其特征在于,所述步骤(2)中,提出的不同尺度同一行人分布差异最小化准则,是通过最小化不同尺度上同一行人的图像特征向量在低维空间中的分布差异实现的。
5.根据权利要求4所述的基于多尺度联合学习的无交叠视域摄像头之间的低分辨率行人匹配方法,其特征在于,步骤(2)具体为:
不同尺度的同一个行人差异最小化准则通过最大限度减少同一行人在不同尺度上的图像的特征向量的均值在一个低维空间中的差异来实现,即最小化不同尺度的行人同类均值在低维子空间中的差异,该过程可表示为:
min W h , W s HCMD ( W h , W s ) = 1 C Σ i = 1 C | | W h T u i h - W s T u i s | | 2 2
其中,分别是Xh和Xs中第i个行人的所属图像的特征向量的均值C是行人的总个数即总类别数,分别是标准尺度和小尺度上距离度量的变换矩阵,用来投影行人样本到低维空间,r是被投影的低维空间的维度。
6.根据权利要求1所述的基于多尺度联合学习的无交叠视域摄像头之间的低分辨率行人匹配方法,其特征在于,所述步骤(3)中的多尺度联合学习模型,目的是协同地在每个尺度上学习一个最优的距离度量,既实现不同尺度上同一行人差异最小化准则,同时又保证在同一尺度上,不同行人的类间距离最大化,同一行人的类内距离最小化。
7.根据权利要求6所述的基于多尺度联合学习的无交叠视域摄像头之间的低分辨率行人匹配方法,其特征在于,步骤(3)具体为:
首先根据He和Niyogi提出的亲和度矩阵A和Sugiyama提出的局部线性判别理论,构造同一尺度的行人的类间散度矩阵Sb和类内的散度矩阵Sw如下:
S b = Σ i , j = 1 N A ‾ i , j b 2 ( x i - x j ) ( x i - x j ) T S w = Σ i , j = 1 N A ‾ i , j w 2 ( x i - x j ) ( x i - x j ) T
其中,xi和xj为两张行人图像的特征向量,当xi和xj属于同一行人时, A ‾ i , j b = A i , j N - A i , j N c , A ‾ i , j w = A i , j N c ; 当xi和xj属于不同行人时, A ‾ i , j b = 1 N , Ai,j是xi和xj之间的亲和度,N是所有行人样本的总数,Nc是对应的同一行人的样本数,对于标准尺度和小尺度,其对应的类间散度矩阵分别被表示为其对应的类内散度矩阵分别被表示为
为了得到最优距离度量的变换矩阵Wh和Ws,使其既要满足不同尺度的行人同类均值差异HCMD(Wh,Ws)最小化,又要分别实现行人样本的类内距离最小化和类间距离最大化,所以建立多尺度联合学习模型如下:
max W h , W s H C M D ( W h , W s ) - 1 , t r ( W h T S b h W h ) t r ( W h T S w h W h ) , t r ( W s T S b s W s ) t r ( W s T S w s W s ) .
公式③表示的是基于两个图像尺度的多尺度联合学习模型,通过增加更多的尺度来最小化HCMD并同时学习各个尺度上行人的距离度量,能够很容易扩展到两个以上尺度的联合学习模型,求解公式③即可得到优选方案中标准尺度和小尺度上的最优距离度量的变换矩阵Wh和Ws
8.根据权利要求1所述的基于多尺度联合学习的无交叠视域摄像头之间的低分辨率行人匹配方法,其特征在于,所述步骤(4)是对摄像头camA中检测到的低分辨率行人PA,在摄像头camB中检测到的R个正常分辨率行人中找到与其匹配的行人,与PA匹配的行人可由公式确定,其中是PA在不同尺度上学习的最优距离度量计算的融合距离。
CN201510831221.8A 2015-11-25 2015-11-25 基于多尺度联合学习的无交叠视域摄像头之间的低分辨率行人匹配方法 Active CN105404871B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510831221.8A CN105404871B (zh) 2015-11-25 2015-11-25 基于多尺度联合学习的无交叠视域摄像头之间的低分辨率行人匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510831221.8A CN105404871B (zh) 2015-11-25 2015-11-25 基于多尺度联合学习的无交叠视域摄像头之间的低分辨率行人匹配方法

Publications (2)

Publication Number Publication Date
CN105404871A true CN105404871A (zh) 2016-03-16
CN105404871B CN105404871B (zh) 2019-01-11

Family

ID=55470348

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510831221.8A Active CN105404871B (zh) 2015-11-25 2015-11-25 基于多尺度联合学习的无交叠视域摄像头之间的低分辨率行人匹配方法

Country Status (1)

Country Link
CN (1) CN105404871B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110647793A (zh) * 2018-06-27 2020-01-03 国际商业机器公司 用于对象识别和检测的多尺度特征表示
CN113657336A (zh) * 2021-08-25 2021-11-16 浙江捷瑞电力科技有限公司 一种基于多维图像的目标智能匹配和识别方法
CN116030014A (zh) * 2023-01-06 2023-04-28 浙江伟众科技有限公司 空调软硬管的智能化加工方法及其系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999005639A1 (en) * 1997-07-25 1999-02-04 Arch Development Corporation Wavelet snake technique for discrimination of nodules and false positives in digital radiographs
CN102592288A (zh) * 2012-01-04 2012-07-18 西安理工大学 一种光照环境变化情况下的行人目标匹配跟踪方法
CN104376334A (zh) * 2014-11-12 2015-02-25 上海交通大学 一种多尺度特征融合的行人比对方法
CN104392463A (zh) * 2014-12-16 2015-03-04 西安电子科技大学 一种基于联合稀疏多尺度融合的图像显著区域检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999005639A1 (en) * 1997-07-25 1999-02-04 Arch Development Corporation Wavelet snake technique for discrimination of nodules and false positives in digital radiographs
CN102592288A (zh) * 2012-01-04 2012-07-18 西安理工大学 一种光照环境变化情况下的行人目标匹配跟踪方法
CN104376334A (zh) * 2014-11-12 2015-02-25 上海交通大学 一种多尺度特征融合的行人比对方法
CN104392463A (zh) * 2014-12-16 2015-03-04 西安电子科技大学 一种基于联合稀疏多尺度融合的图像显著区域检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
SOMA BISWAS ET AL: "Multidimensional Scaling for Matching Low-resolution Face Images", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 *
王智飞: "低分辨率人脸识别算法研究", 《中国博士学位论文全文数据库》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110647793A (zh) * 2018-06-27 2020-01-03 国际商业机器公司 用于对象识别和检测的多尺度特征表示
CN110647793B (zh) * 2018-06-27 2023-06-06 国际商业机器公司 用于对象识别和检测的多尺度特征表示
CN113657336A (zh) * 2021-08-25 2021-11-16 浙江捷瑞电力科技有限公司 一种基于多维图像的目标智能匹配和识别方法
CN116030014A (zh) * 2023-01-06 2023-04-28 浙江伟众科技有限公司 空调软硬管的智能化加工方法及其系统
CN116030014B (zh) * 2023-01-06 2024-04-09 浙江伟众科技有限公司 空调软硬管的智能化加工方法及其系统

Also Published As

Publication number Publication date
CN105404871B (zh) 2019-01-11

Similar Documents

Publication Publication Date Title
CN110443143B (zh) 多分支卷积神经网络融合的遥感图像场景分类方法
CN106469299B (zh) 一种车辆搜索方法及装置
CN103810473B (zh) 一种基于隐马尔科夫模型的人体对象的目标识别方法
Wang et al. Joint learning of visual attributes, object classes and visual saliency
CN107424161B (zh) 一种由粗至精的室内场景图像布局估计方法
CN111161199B (zh) 一种空谱融合的高光谱影像混合像元低秩稀疏分解方法
CN110276264B (zh) 一种基于前景分割图的人群密度估计方法
CN110222560B (zh) 一种嵌入相似性损失函数的文本人员搜索方法
CN113221987B (zh) 一种基于交叉注意力机制的小样本目标检测方法
CN110942472B (zh) 一种基于特征融合与自适应分块的核相关滤波跟踪方法
CN105389550A (zh) 一种基于稀疏指引与显著驱动的遥感目标检测方法
CN110852152B (zh) 一种基于数据增强的深度哈希行人重识别方法
CN105184298A (zh) 一种快速局部约束低秩编码的图像分类方法
CN103714148B (zh) 基于稀疏编码分类的sar图像检索方法
CN106096517A (zh) 一种基于低秩矩阵与特征脸的人脸识别方法
CN104298992A (zh) 一种基于数据驱动的自适应尺度行人重识别方法
CN108960142B (zh) 基于全局特征损失函数的行人再识别方法
CN112966740A (zh) 基于核心样本自适应扩充的小样本高光谱图像分类方法
CN106056165A (zh) 一种基于超像素关联性增强Adaboost分类学习的显著性检测方法
CN105404871B (zh) 基于多尺度联合学习的无交叠视域摄像头之间的低分辨率行人匹配方法
CN108921872B (zh) 一种适用于长程跟踪的鲁棒性视觉目标跟踪方法
CN105096345A (zh) 一种基于动态测量矩阵的目标跟踪方法及系统
CN107563327B (zh) 一种基于自步反馈的行人重识别方法及系统
CN110851627B (zh) 一种用于描述全日面图像中太阳黑子群的方法
CN103714340A (zh) 基于图像分块的自适应特征提取方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant