CN105447465A - 基于行人局部和整体融合匹配的无交叠视域摄像头之间的不完整行人匹配方法 - Google Patents

基于行人局部和整体融合匹配的无交叠视域摄像头之间的不完整行人匹配方法 Download PDF

Info

Publication number
CN105447465A
CN105447465A CN201510831148.4A CN201510831148A CN105447465A CN 105447465 A CN105447465 A CN 105447465A CN 201510831148 A CN201510831148 A CN 201510831148A CN 105447465 A CN105447465 A CN 105447465A
Authority
CN
China
Prior art keywords
pedestrian
matching
imperfect
local
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510831148.4A
Other languages
English (en)
Other versions
CN105447465B (zh
Inventor
郑伟诗
李翔
吴岸聪
赖剑煌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN201510831148.4A priority Critical patent/CN105447465B/zh
Publication of CN105447465A publication Critical patent/CN105447465A/zh
Application granted granted Critical
Publication of CN105447465B publication Critical patent/CN105447465B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于行人局部和整体融合匹配的无交叠视域摄像头之间的不完整行人匹配方法,包括以下步骤:(1)建立行人局部匹配模型;(2)建立行人整体匹配模型;(3)融合局部模型和整体模型实现不完整行人的匹配。本发明在允许不对行人进行手动规整对齐的情况下,建立行人局部匹配模型和整体匹配模型,最后融合两种模型的匹配度信息,从而实现不完整行人匹配。本发明允许不对行人进行手动规整对齐,从而保持不完整行人的原始信息。同时,本发明对行人局部信息和全局信息进行融合匹配,实现优势互补,相比于直接将行人手动对齐到相同尺度建模的现有行人匹配方法,能够显著地提升不同摄像头之间不完整行人的匹配准确率。

Description

基于行人局部和整体融合匹配的无交叠视域摄像头之间的不完整行人匹配方法
技术领域
本发明涉及视频监控领域不同摄像头之间的行人匹配方法,尤其涉及一种基于行人局部和整体融合匹配的无交叠视域摄像头之间的不完整行人匹配方法。
背景技术
当前公共场合,常使用无交叠视域摄像头进行视频监控以扩大监控范围和记录行人轨迹。这其中的关键是实现不同摄像头检测到的行人之间的准确匹配。然而在现实中行人在运动过程中身体存在被遮挡的情况,行人常常是不完整的,导致了不完整行人匹配问题的出现,即一个摄像头检测到的由于遮挡等因素导致的不完整行人和另一个摄像头检测到的完整行人之间的匹配问题。
近五年来出现了很多行人匹配的方法,如基于支持向量排序模型的匹配、基于相对距离比较学习的统计方法、基于等价约束模型的贝叶斯距离、基于自适应决策函数的匹配、基于局部线性判别分析的匹配等方法。但是现有方法都基于能够检测到完整行人这个假设,忽略了不完整行人的存在,直接将所有行人手动规整对齐到相同尺度后进行匹配,导致不完整行人失真严重,导致匹配准确率严重低下。
发明内容
本发明的目的在于克服现有技术的不足,提供一种实用性强、可明显提高不完整行人匹配准确率的基于行人局部和整体融合匹配的不同摄像机之间的行人匹配方法。本方法允许不对行人进行手动规整对齐,从而保持不完整行人的原始信息。本方法融合了行人局部和整体的信息进行匹配,与现有方法相比,尤其针对大幅度遮挡的情形的不完整行人匹配,大幅提高了不完整行人的匹配准确率。
为了达到上述目的,本发明采用以下技术方案:
一种基于行人局部和整体融合匹配的无交叠视域摄像头之间的不完整行人匹配方法,该方法包括下述步骤:
(1)建立行人局部匹配模型;
(2)建立行人整体匹配模型;
(3)融合局部模型和整体模型实现不完整行人的匹配。
作为优选的,所述步骤(1)中,行人局部匹配模型是在允许无手动对齐的情况下,对不完整行人和完整行人在局部信息上的匹配关系进行建模得到的,根据行人局部匹配模型可以计算得到不完整行人和完整行人之间的局部匹配的相似度信息。
作为优选的,所述步骤(1)中,建立行人局部匹配模型的具体方法为:
对于摄像头camA中检测到的不完整行人PA,其特征矩阵被表示为Y=[y1,y2,…,yn],其中Y的每一列是PA的一个局部特征向量,n是PA局部特征向量的数量,对于摄像头camB中检测到的C个完整行人其特征矩阵被表示为其中Dc的每一列是的一个局部特征向量,kc局部特征向量的数量,首先组合C个完整行人的特征矩阵得到D=[D1,D2,…,DC],再利用特征矩阵D为PA的n个局部特征向量yi,i∈[1,n]分别计算一个重构表达系数xi,使其满足yi=Dxi,最后利用的特征矩阵Dc对于PA的每个局部特征向量的重构误差之和来确定PA之间的局部距离:
d l o c a l ( p A , p B c ) = 1 n Σ i = 1 n | | y i - D c δ c ( x i ) | | 2 2 , 其中,δc用来从xi中选择与Dc对应的重构系数。
作为优选的,所述步骤(2)中,行人整体匹配模型是在允许无手动对齐的情况下,对不完整行人和完整行人在整体信息上的匹配关系进行建模得到的,根据行人整体匹配模型可以计算得到不完整行人和完整行人之间的整体匹配的相似度信息。
作为优选的,所述步骤(2)中,建立行人整体匹配模型具体为:
对于所有的行人图像,我们允许不进行手动对齐,而是根据摄像头camA中检测到的不完整行人PA的大小设置一个窗口,在摄像头camB中检测到的完整行人上进行滑动搜索,每次滑动后计算一次当前窗口中的行人与PA的距离,最后取最小的距离作为PA的整体距离
作为优选的,所述步骤(3)中,是对摄像头camA中检测到的不完整行人PA,在摄像头camB中检测到的C个完整行人中找到与其匹配的行人,与PA匹配的行人可由公式确定,其中是将步骤(1)中得到的局部信息(比如距离dlocal)和步骤(2)中得到的整体信息(比如距离dglobal)结合计算得到的不完整行人PA和完整行人之间的最终距离。
本发明与现有技术相比,具有如下优点和有益效果:
1、本发明允许对行人进行无手动对齐的建模,与现有的行人匹配技术直接将所有行人手动对齐到相同图像尺度的做法相比,有效地保持了不完整行人表观信息的真实性。
2、本发明建立的不完整行人局部匹配模型,利用行人局部信息的匹配关系进行建模,能够较好的减少由于摄像头角度变换和行人姿势变化等因素导致行人形变带来的影响。
3、本发明建立的不完整行人整体匹配模型,利用行人整体信息的匹配关系进行建模,增强了行人图像在整体空间布局上的稳定性。
4、本发明融合局部匹配模型和整体匹配模型进行最终的行人匹配,充分利用了两种匹配模型各自的优点,实现了优势互补,与现有行人匹配技术相比,显著地改善了无交叠视域摄像头之间不完整行人的匹配效果。
附图说明
图1为本发明的操作流程图示(实例)。
图2为本发明方法的思想描述。
图3为不完整行人匹配数据集的行人图像示例(第一行是由于遮挡等因素导致的不完整行人图像,第二行是对应的完整行人图像)。
图4为本发明与现有行人匹配方法在不完整行人匹配数据集上的CMC曲线结果对比图。
图5为本发明在不完整行人匹配数据集上的匹配结果示例图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例
图1示出了本发明的操作过程,由图1可见,基于行人局部和整体融合匹配的无交叠视域摄像头之间的不完整行人匹配方法,包括下述步骤:
(1)建立无手动对齐的行人局部匹配模型,计算不同行人之间的局部距离。在本实施例中,行人被划分为多个规则网格状的图像块,并分块提取颜色、LBP和HOG的组合特征。具体地,对于摄像头camA中检测到的不完整行人PA,提取其每一个图像块的特征向量构成特征矩阵Y=[y1,y2,…,yn]。对于摄像头camB中检测到的C个完整行人分别提取其每一个图像块的特征向量构成C个特征矩阵并组合得到D=[D1,D2,…,DC]。为了利用特征矩阵D为PA的n个局部特征向量yi,i∈[1,n]分别计算一个满足yi=Dxi的重构系数xi,在本实施例中,首先构造优化模型如下:
m i n x i | | y i - DX i | | 2 2 , i ∈ [ 1 , n ]
为了提高xi的重构质量,我们在公式①中加入两个约束项:第一个约束项引入相似性约束,通过最小化增大D中相关特征向量对重构yi的贡献。其中,si是由yi分别和D中每一列特征向量dj的相似度(根据公式计算得到)组成的相似度向量。第二个约束项引入稀疏约束,通过最小化||xi||1,减少D中无关特征向量对重构yi的干扰。因此公式②可以转化为:
m i n x i | | y i - Dx i | | 2 2 + αs i T x i + β | | x i | | 1 , i ∈ [ 1 , n ]
其中,α和β分别是控制对应约束项的影响幅度的参数,在本实施例中α和β的取值分别是5和0.3。在求解公式③得到最优的重构系数xi后,即可利用的特征矩阵Dc对于PA每个局部特征向量的重构误差之和来确定PA的局部距离:
d l o c a l ( p A , p B c ) = 1 n Σ i = 1 n | | y i - D c δ c ( x i ) | | 2 2 . 其中,δc用来从xi中选择与Dc对应的重构系数。
(2)建立允许无手动对齐的行人整体匹配模型,计算不同行人之间的整体距离。具体地,在本实施例中,我们根据摄像头camA中检测到的不完整行人PA的大小设置一个窗口,在摄像头camB中检测到的完整行人上进行滑动搜索。每次滑动后计算一次当前窗口中的行人与PA的距离。该距离通过计算当前窗口中的行人图像特征和PA的图像特征之差的一范数得到。最后我们取最小的距离作为PA的整体距离在本实施例中,颜色、LBP和HOG的组合特征被作为行人图像特征,滑动窗口步长为5个像素点。
(3)融合局部模型和整体模型实现不完整行人的匹配(见图5)。具体地,在本实施例中,对于摄像头camA中检测到的不完整行人PA和摄像头camB中检测到的C个完整行人其最终距离由局部距离和整体距离的加权和得到,即:
d ( p A , p B c ) = γd l o c a l ( p A , p B c ) + ( 1 - γ ) d g l o b a l ( p A , p B c ) , c ∈ [ 1 , C ]
其中,γ用来调节局部距离和整体距离影响,在本实施例中γ取0.7。最后根据公式找出摄像头camB下与PA匹配的行人。
本发明通过以下实验对本发明的效果进行说明:构造一个不完整行人匹配数据集上进行实验。具体地,该数据集含有60个行人,这些行人在一个摄像头下由于遮挡等因素是不完整的,在另一个摄像头下是完整的(见图2)。在该60个行人中,随机选择70%的行人作为测试集。该过程重复10次进行实验,取10次结果的平均作为最终的实验结果,以CMC(cumulativematchcharacteristic)曲线来展现。
本实验比较了本发明的方法和六种常用的行人匹配方法,包括1)基于1范数距离的匹配方法(L1norm);2)基于局部线性判别分析的匹配方法(LFDA)(具体见“S.Pedagadi,J.Orwell,S.Velastin,andB.Boghossian.Localfisherdiscriminantanalysisforpedestrianre-identification.InCVPR,2013.”);3)基于等价约束的匹配方法(KISSME)(具体见“M.Kostinger,M.Hirzer,P.Wohlhart,P.M.Roth,andH.Bischof.Largescalemetriclearningfromequivalenceconstraints.InCVPR,2012.”);4)基于自适应决策函数的匹配方法(LADF)(具体见“Z.Li,S.Chang,F.Liang,T.S.Huang,L.Cao,andJ.R.Smith.Learninglocally-adaptivedecisionfunctionsforpersonverification.InCVPR,2013.”);5)基于支持向量排序模型的匹配方法(PRSVM)(具体见“B.Prosser,W.-S.Zheng,S.Gong,andT.Xiang.Personre-identificationbysupportvectorranking.InBMVC,2010.”);6)基于相对距离比较学习的匹配方法(RDC)(具体见“W.-S.Zheng,S.Gong,andT.Xiang.Re-identificationbyrelativedistancecomparison.IEEETPAMI,35(3):653–668,2013.”)。为了进一步说明本发明的有效性,一些相关领域的遮挡或不完整图像匹配技术也被参与比较,具体包括:1)基于多任务稀疏表达的不完整人脸匹配方法(MTSR)(具体见“S.Liao,A.K.Jain,andS.Z.Li.Partialfacerecognitionalignment-freeapproach.IEEETPAMI,35(5),2013.”);2)基于鲁棒稀疏表达的遮挡人脸匹配方法(SRC)(具体见“J.Wright,A.Y.Yang,A.Ganesh,S.S.Sastry,andY.Ma.Robustfacerecognitionviasparserepresentation.IEEETPAMI,31(2),2009.”)。比较的结果如图4和表1所示,其中图4是实验中每种方法的CMC曲线图,表1记录了每种方法匹配准确率的具体数值。
表1:行人匹配准确率(%)。其中,Rank1、5、10和20分别表示正确匹配出现在前1、5、10和20个最相似位置的准确率。
Methods Rank 1 Rank 5 Rank 10 Rank 20
本发明的方法 53.14 76.43 85.29 94.33
LFDA 24.62 47.05 62.48 80.05
L1norm 24.14 43.90 57.90 76.52
KISSME 24.95 45.19 58.48 77.86
LADF 26.38 50.52 65.43 83.33
PRSVM 27.00 48.71 64.00 81.14
RDC 26.76 49.71 64.29 81.10
MTSR 42.00 67.24 79.81 91.14
SRC 24.90 45.62 58.14 76.19
从图4和表1的实验结果可以看出,采用本发明的方法进行无交叠视域摄像头之间的不完整行人匹配,与现存的行人匹配方法相比,能显著地提高匹配准确率。由于这些方法忽略了视频监控中由于遮挡等因素造成的不完整行人的存在,直接将所有行人手动对齐到相同尺度后再进行建模,导致不完整行人的信息失真严重,无法和完整行人准确对齐,所以造成匹配准确率低下。而本发明设计允许无手动对齐的行人局部和整体融合匹配的方法,既充分保持了行人的原始信息,又同时结合两种匹配模型的优点,所以极大地改善了不完整行人匹配的效果。从图4和表1还能看出,本发明的准确率也高于其他相关领域使用的遮挡或者不完整图像的匹配方法的准确率。此结果进一步说明了本发明在不完整行人匹配上的优势。
此外,由于本发明融合了局部匹配模型和整体匹配模型,为了更好的说明融合的有效性,表2还示出了单独使用本发明的局部匹配模型和整体匹配模型的匹配结果。
表2:行人匹配准确率(%)
Methods Rank 1 Rank 5 Rank 10 Rank 20
本发明的方法 53.14 76.43 85.29 94.33
局部匹配 45.19 70.29 81.00 90.62
整体匹配 47.24 71.05 80.57 92.05
从表2的实验结果可以看出,本发明进行融合匹配的效果优于单独使用局部匹配或整体匹配的效果。此结果更进一步说明了本发明在不完整行人匹配上的有效性。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (6)

1.一种基于行人局部和整体融合匹配的无交叠视域摄像头之间的不完整行人匹配方法,其特征在于,该方法包括下述步骤:
(1)建立行人局部匹配模型;
(2)建立行人整体匹配模型;
(3)融合局部模型和整体模型实现不完整行人的匹配。
2.根据权利要求1所述的基于行人局部和整体融合匹配的无交叠视域摄像头之间的不完整行人匹配方法,其特征在于,所述步骤(1)中,行人局部匹配模型是在允许无手动对齐的情况下,对不完整行人和完整行人在局部信息上的匹配关系进行建模得到的,根据行人局部匹配模型可以计算得到不完整行人和完整行人之间的局部匹配的相似度信息。
3.根据权利要求2所述的基于行人局部和整体融合匹配的无交叠视域摄像头之间的不完整行人匹配方法,其特征在于,所述步骤(1)中,建立行人局部匹配模型的具体方法为:
对于摄像头camA中检测到的不完整行人PA,其特征矩阵被表示为Y=[y1,y2,…,yn],其中Y的每一列是PA的一个局部特征向量,n是PA局部特征向量的数量,对于摄像头camB中检测到的C个完整行人c∈[1,C],其特征矩阵被表示为c∈[1,C],其中Dc的每一列是的一个局部特征向量,kc局部特征向量的数量,首先组合C个完整行人的特征矩阵得到D=[D1,D2,…,DC],再利用特征矩阵D为PA的n个局部特征向量yi,i∈[1,n]分别计算一个重构表达系数xi,使其满足yi=Dxi,最后利用的特征矩阵Dc对于PA的每个局部特征向量的重构误差之和来确定PA之间的局部距离: d l o c a l ( p A , p B c ) = 1 n Σ i = 1 n | | y i - D c δ c ( x i ) | | 2 2 , 其中,δc用来从xi中选择与Dc对应的重构系数。
4.根据权利要求1所述的基于行人局部和整体融合匹配的无交叠视域摄像头之间的不完整行人匹配方法,其特征在于,所述步骤(2)中,行人整体匹配模型是在允许无手动对齐的情况下,对不完整行人和完整行人在整体信息上的匹配关系进行建模得到的,根据行人整体匹配模型可以计算得到不完整行人和完整行人之间的整体匹配的相似度信息。
5.根据权利要求4所述的基于行人局部和整体融合匹配的无交叠视域摄像头之间的不完整行人匹配方法,其特征在于,所述步骤(2)中,建立行人整体匹配模型具体为:
对于所有的行人图像,我们允许不进行手动对齐,而是根据摄像头camA中检测到的不完整行人PA的大小设置一个窗口,在摄像头camB中检测到的完整行人上进行滑动搜索,每次滑动后计算一次当前窗口中的行人与PA的距离,最后取最小的距离作为PA的整体距离
6.根据权利要求1所述的基于行人局部和整体融合匹配的无交叠视域摄像头之间的不完整行人匹配方法,其特征在于,所述步骤(3)中,是对摄像头camA中检测到的不完整行人PA,在摄像头camB中检测到的C个完整行人c∈[1,C]中找到与其匹配的行人,与PA匹配的行人可由公式确定,其中是融合根据局部匹配模型和整体匹配模型分别计算得到的PA之间局部匹配相似度信息和全局匹配相似度信息。
CN201510831148.4A 2015-11-25 2015-11-25 基于行人局部和整体融合匹配的无交叠视域摄像头之间的不完整行人匹配方法 Active CN105447465B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510831148.4A CN105447465B (zh) 2015-11-25 2015-11-25 基于行人局部和整体融合匹配的无交叠视域摄像头之间的不完整行人匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510831148.4A CN105447465B (zh) 2015-11-25 2015-11-25 基于行人局部和整体融合匹配的无交叠视域摄像头之间的不完整行人匹配方法

Publications (2)

Publication Number Publication Date
CN105447465A true CN105447465A (zh) 2016-03-30
CN105447465B CN105447465B (zh) 2020-02-07

Family

ID=55557625

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510831148.4A Active CN105447465B (zh) 2015-11-25 2015-11-25 基于行人局部和整体融合匹配的无交叠视域摄像头之间的不完整行人匹配方法

Country Status (1)

Country Link
CN (1) CN105447465B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107766791A (zh) * 2017-09-06 2018-03-06 北京大学 一种基于全局特征和粗粒度局部特征的行人再识别方法及装置
CN108229444A (zh) * 2018-02-09 2018-06-29 天津师范大学 一种基于整体和局部深度特征融合的行人再识别方法
CN108717520A (zh) * 2018-04-10 2018-10-30 新智数字科技有限公司 一种行人重识别方法及装置
CN109782811A (zh) * 2019-02-02 2019-05-21 绥化学院 一种无人模型车的自动跟随控制系统及方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080008355A1 (en) * 2006-07-05 2008-01-10 Fujitsu Ten Limited Image recognition apparatus, image recognition method, and vehicle control apparatus
CN101236599A (zh) * 2007-12-29 2008-08-06 浙江工业大学 基于多摄像机信息融合的人脸识别检测装置
CN101616309A (zh) * 2009-07-16 2009-12-30 上海交通大学 无重叠视域多摄像机人体目标跟踪方法
CN102236785A (zh) * 2011-06-29 2011-11-09 中山大学 一种非重叠摄像机视点之间的行人匹配方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080008355A1 (en) * 2006-07-05 2008-01-10 Fujitsu Ten Limited Image recognition apparatus, image recognition method, and vehicle control apparatus
CN101236599A (zh) * 2007-12-29 2008-08-06 浙江工业大学 基于多摄像机信息融合的人脸识别检测装置
CN101616309A (zh) * 2009-07-16 2009-12-30 上海交通大学 无重叠视域多摄像机人体目标跟踪方法
CN102236785A (zh) * 2011-06-29 2011-11-09 中山大学 一种非重叠摄像机视点之间的行人匹配方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
XIANG LI ET AL: "Towards more reliable matching for person re-identification", 《2015 IEEE INTERNATIONAL CONFERENCE ON IDENTITY, SECURITY AND BEHAVIOR ANALYSIS(ISBA)》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107766791A (zh) * 2017-09-06 2018-03-06 北京大学 一种基于全局特征和粗粒度局部特征的行人再识别方法及装置
CN108229444A (zh) * 2018-02-09 2018-06-29 天津师范大学 一种基于整体和局部深度特征融合的行人再识别方法
CN108229444B (zh) * 2018-02-09 2021-10-12 天津师范大学 一种基于整体和局部深度特征融合的行人再识别方法
CN108717520A (zh) * 2018-04-10 2018-10-30 新智数字科技有限公司 一种行人重识别方法及装置
CN109782811A (zh) * 2019-02-02 2019-05-21 绥化学院 一种无人模型车的自动跟随控制系统及方法
CN109782811B (zh) * 2019-02-02 2021-10-08 绥化学院 一种无人模型车的自动跟随控制系统及方法

Also Published As

Publication number Publication date
CN105447465B (zh) 2020-02-07

Similar Documents

Publication Publication Date Title
TWI742690B (zh) 人體檢測方法、裝置、電腦設備及儲存媒體
CN102750537B (zh) 一种高精度图像自动配准方法
CN108171141B (zh) 基于注意力模型的级联多模式融合的视频目标跟踪方法
CN105447465A (zh) 基于行人局部和整体融合匹配的无交叠视域摄像头之间的不完整行人匹配方法
CN110674688A (zh) 用于视频监控场景的人脸识别模型获取方法、系统和介质
CN103177456A (zh) 视频图像的运动目标检测方法
CN105931267B (zh) 一种基于改进ViBe算法的运动物体检测跟踪方法
CN104236528A (zh) 一种非合作目标相对位姿测量方法
CN105005760A (zh) 一种基于有限混合模型的行人再识别方法
CN109948707A (zh) 模型训练方法、装置、终端及存储介质
US11361534B2 (en) Method for glass detection in real scenes
CN104751111B (zh) 识别视频中人体行为的方法和系统
CN105224937A (zh) 基于人体部件位置约束的细粒度语义色彩行人重识别方法
CN110688905A (zh) 一种基于关键帧的三维物体检测与跟踪方法
EP4105600A2 (en) Method for automatically producing map data, related apparatus and computer program product
CN114758288A (zh) 一种配电网工程安全管控检测方法及装置
CN110866934A (zh) 基于规范性编码的复杂点云分割方法及系统
CN104036229A (zh) 基于回归的主动外观模型初始化方法
CN103093237B (zh) 一种基于结构化模型的人脸检测方法
CN104574351A (zh) 一种基于视频处理的车位检测方法
CN104408741A (zh) 一种时序一致性约束的视频全局运动估计方法
CN105631469A (zh) 一种多层稀疏编码特征的鸟类图像识别方法
Wang et al. Body part-level domain alignment for domain-adaptive person re-identification with transformer framework
Li et al. An aerial image segmentation approach based on enhanced multi-scale convolutional neural network
CN114240796B (zh) 一种基于gan的遥感影像去云雾方法、设备、存储介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant