CN105447465A - 基于行人局部和整体融合匹配的无交叠视域摄像头之间的不完整行人匹配方法 - Google Patents
基于行人局部和整体融合匹配的无交叠视域摄像头之间的不完整行人匹配方法 Download PDFInfo
- Publication number
- CN105447465A CN105447465A CN201510831148.4A CN201510831148A CN105447465A CN 105447465 A CN105447465 A CN 105447465A CN 201510831148 A CN201510831148 A CN 201510831148A CN 105447465 A CN105447465 A CN 105447465A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- matching
- imperfect
- local
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 230000004927 fusion Effects 0.000 title claims abstract description 19
- 230000008878 coupling Effects 0.000 claims description 27
- 238000010168 coupling process Methods 0.000 claims description 27
- 238000005859 coupling reaction Methods 0.000 claims description 27
- 239000013598 vector Substances 0.000 claims description 21
- 230000013011 mating Effects 0.000 claims description 2
- 238000004064 recycling Methods 0.000 claims description 2
- 230000008901 benefit Effects 0.000 abstract description 7
- 230000008569 process Effects 0.000 description 13
- 230000000694 effects Effects 0.000 description 5
- 238000013480 data collection Methods 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 102100040160 Rabankyrin-5 Human genes 0.000 description 2
- 101710086049 Rabankyrin-5 Proteins 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 230000000875 corresponding effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 101100379080 Emericella variicolor andB gene Proteins 0.000 description 1
- 101100001673 Emericella variicolor andH gene Proteins 0.000 description 1
- 101100001675 Emericella variicolor andJ gene Proteins 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000001144 postural effect Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于行人局部和整体融合匹配的无交叠视域摄像头之间的不完整行人匹配方法,包括以下步骤:(1)建立行人局部匹配模型;(2)建立行人整体匹配模型;(3)融合局部模型和整体模型实现不完整行人的匹配。本发明在允许不对行人进行手动规整对齐的情况下,建立行人局部匹配模型和整体匹配模型,最后融合两种模型的匹配度信息,从而实现不完整行人匹配。本发明允许不对行人进行手动规整对齐,从而保持不完整行人的原始信息。同时,本发明对行人局部信息和全局信息进行融合匹配,实现优势互补,相比于直接将行人手动对齐到相同尺度建模的现有行人匹配方法,能够显著地提升不同摄像头之间不完整行人的匹配准确率。
Description
技术领域
本发明涉及视频监控领域不同摄像头之间的行人匹配方法,尤其涉及一种基于行人局部和整体融合匹配的无交叠视域摄像头之间的不完整行人匹配方法。
背景技术
当前公共场合,常使用无交叠视域摄像头进行视频监控以扩大监控范围和记录行人轨迹。这其中的关键是实现不同摄像头检测到的行人之间的准确匹配。然而在现实中行人在运动过程中身体存在被遮挡的情况,行人常常是不完整的,导致了不完整行人匹配问题的出现,即一个摄像头检测到的由于遮挡等因素导致的不完整行人和另一个摄像头检测到的完整行人之间的匹配问题。
近五年来出现了很多行人匹配的方法,如基于支持向量排序模型的匹配、基于相对距离比较学习的统计方法、基于等价约束模型的贝叶斯距离、基于自适应决策函数的匹配、基于局部线性判别分析的匹配等方法。但是现有方法都基于能够检测到完整行人这个假设,忽略了不完整行人的存在,直接将所有行人手动规整对齐到相同尺度后进行匹配,导致不完整行人失真严重,导致匹配准确率严重低下。
发明内容
本发明的目的在于克服现有技术的不足,提供一种实用性强、可明显提高不完整行人匹配准确率的基于行人局部和整体融合匹配的不同摄像机之间的行人匹配方法。本方法允许不对行人进行手动规整对齐,从而保持不完整行人的原始信息。本方法融合了行人局部和整体的信息进行匹配,与现有方法相比,尤其针对大幅度遮挡的情形的不完整行人匹配,大幅提高了不完整行人的匹配准确率。
为了达到上述目的,本发明采用以下技术方案:
一种基于行人局部和整体融合匹配的无交叠视域摄像头之间的不完整行人匹配方法,该方法包括下述步骤:
(1)建立行人局部匹配模型;
(2)建立行人整体匹配模型;
(3)融合局部模型和整体模型实现不完整行人的匹配。
作为优选的,所述步骤(1)中,行人局部匹配模型是在允许无手动对齐的情况下,对不完整行人和完整行人在局部信息上的匹配关系进行建模得到的,根据行人局部匹配模型可以计算得到不完整行人和完整行人之间的局部匹配的相似度信息。
作为优选的,所述步骤(1)中,建立行人局部匹配模型的具体方法为:
对于摄像头camA中检测到的不完整行人PA,其特征矩阵被表示为Y=[y1,y2,…,yn],其中Y的每一列是PA的一个局部特征向量,n是PA局部特征向量的数量,对于摄像头camB中检测到的C个完整行人其特征矩阵被表示为其中Dc的每一列是的一个局部特征向量,kc是局部特征向量的数量,首先组合C个完整行人的特征矩阵得到D=[D1,D2,…,DC],再利用特征矩阵D为PA的n个局部特征向量yi,i∈[1,n]分别计算一个重构表达系数xi,使其满足yi=Dxi,最后利用的特征矩阵Dc对于PA的每个局部特征向量的重构误差之和来确定PA和之间的局部距离:
作为优选的,所述步骤(2)中,行人整体匹配模型是在允许无手动对齐的情况下,对不完整行人和完整行人在整体信息上的匹配关系进行建模得到的,根据行人整体匹配模型可以计算得到不完整行人和完整行人之间的整体匹配的相似度信息。
作为优选的,所述步骤(2)中,建立行人整体匹配模型具体为:
对于所有的行人图像,我们允许不进行手动对齐,而是根据摄像头camA中检测到的不完整行人PA的大小设置一个窗口,在摄像头camB中检测到的完整行人上进行滑动搜索,每次滑动后计算一次当前窗口中的行人与PA的距离,最后取最小的距离作为PA和的整体距离
作为优选的,所述步骤(3)中,是对摄像头camA中检测到的不完整行人PA,在摄像头camB中检测到的C个完整行人中找到与其匹配的行人,与PA匹配的行人可由公式确定,其中是将步骤(1)中得到的局部信息(比如距离dlocal)和步骤(2)中得到的整体信息(比如距离dglobal)结合计算得到的不完整行人PA和完整行人之间的最终距离。
本发明与现有技术相比,具有如下优点和有益效果:
1、本发明允许对行人进行无手动对齐的建模,与现有的行人匹配技术直接将所有行人手动对齐到相同图像尺度的做法相比,有效地保持了不完整行人表观信息的真实性。
2、本发明建立的不完整行人局部匹配模型,利用行人局部信息的匹配关系进行建模,能够较好的减少由于摄像头角度变换和行人姿势变化等因素导致行人形变带来的影响。
3、本发明建立的不完整行人整体匹配模型,利用行人整体信息的匹配关系进行建模,增强了行人图像在整体空间布局上的稳定性。
4、本发明融合局部匹配模型和整体匹配模型进行最终的行人匹配,充分利用了两种匹配模型各自的优点,实现了优势互补,与现有行人匹配技术相比,显著地改善了无交叠视域摄像头之间不完整行人的匹配效果。
附图说明
图1为本发明的操作流程图示(实例)。
图2为本发明方法的思想描述。
图3为不完整行人匹配数据集的行人图像示例(第一行是由于遮挡等因素导致的不完整行人图像,第二行是对应的完整行人图像)。
图4为本发明与现有行人匹配方法在不完整行人匹配数据集上的CMC曲线结果对比图。
图5为本发明在不完整行人匹配数据集上的匹配结果示例图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例
图1示出了本发明的操作过程,由图1可见,基于行人局部和整体融合匹配的无交叠视域摄像头之间的不完整行人匹配方法,包括下述步骤:
(1)建立无手动对齐的行人局部匹配模型,计算不同行人之间的局部距离。在本实施例中,行人被划分为多个规则网格状的图像块,并分块提取颜色、LBP和HOG的组合特征。具体地,对于摄像头camA中检测到的不完整行人PA,提取其每一个图像块的特征向量构成特征矩阵Y=[y1,y2,…,yn]。对于摄像头camB中检测到的C个完整行人分别提取其每一个图像块的特征向量构成C个特征矩阵并组合得到D=[D1,D2,…,DC]。为了利用特征矩阵D为PA的n个局部特征向量yi,i∈[1,n]分别计算一个满足yi=Dxi的重构系数xi,在本实施例中,首先构造优化模型如下:
为了提高xi的重构质量,我们在公式①中加入两个约束项:第一个约束项引入相似性约束,通过最小化增大D中相关特征向量对重构yi的贡献。其中,si是由yi分别和D中每一列特征向量dj的相似度(根据公式计算得到)组成的相似度向量。第二个约束项引入稀疏约束,通过最小化||xi||1,减少D中无关特征向量对重构yi的干扰。因此公式②可以转化为:
其中,α和β分别是控制对应约束项的影响幅度的参数,在本实施例中α和β的取值分别是5和0.3。在求解公式③得到最优的重构系数xi后,即可利用的特征矩阵Dc对于PA每个局部特征向量的重构误差之和来确定PA和的局部距离:
(2)建立允许无手动对齐的行人整体匹配模型,计算不同行人之间的整体距离。具体地,在本实施例中,我们根据摄像头camA中检测到的不完整行人PA的大小设置一个窗口,在摄像头camB中检测到的完整行人上进行滑动搜索。每次滑动后计算一次当前窗口中的行人与PA的距离。该距离通过计算当前窗口中的行人图像特征和PA的图像特征之差的一范数得到。最后我们取最小的距离作为PA和的整体距离在本实施例中,颜色、LBP和HOG的组合特征被作为行人图像特征,滑动窗口步长为5个像素点。
(3)融合局部模型和整体模型实现不完整行人的匹配(见图5)。具体地,在本实施例中,对于摄像头camA中检测到的不完整行人PA和摄像头camB中检测到的C个完整行人其最终距离由局部距离和整体距离的加权和得到,即:
其中,γ用来调节局部距离和整体距离影响,在本实施例中γ取0.7。最后根据公式找出摄像头camB下与PA匹配的行人。
本发明通过以下实验对本发明的效果进行说明:构造一个不完整行人匹配数据集上进行实验。具体地,该数据集含有60个行人,这些行人在一个摄像头下由于遮挡等因素是不完整的,在另一个摄像头下是完整的(见图2)。在该60个行人中,随机选择70%的行人作为测试集。该过程重复10次进行实验,取10次结果的平均作为最终的实验结果,以CMC(cumulativematchcharacteristic)曲线来展现。
本实验比较了本发明的方法和六种常用的行人匹配方法,包括1)基于1范数距离的匹配方法(L1norm);2)基于局部线性判别分析的匹配方法(LFDA)(具体见“S.Pedagadi,J.Orwell,S.Velastin,andB.Boghossian.Localfisherdiscriminantanalysisforpedestrianre-identification.InCVPR,2013.”);3)基于等价约束的匹配方法(KISSME)(具体见“M.Kostinger,M.Hirzer,P.Wohlhart,P.M.Roth,andH.Bischof.Largescalemetriclearningfromequivalenceconstraints.InCVPR,2012.”);4)基于自适应决策函数的匹配方法(LADF)(具体见“Z.Li,S.Chang,F.Liang,T.S.Huang,L.Cao,andJ.R.Smith.Learninglocally-adaptivedecisionfunctionsforpersonverification.InCVPR,2013.”);5)基于支持向量排序模型的匹配方法(PRSVM)(具体见“B.Prosser,W.-S.Zheng,S.Gong,andT.Xiang.Personre-identificationbysupportvectorranking.InBMVC,2010.”);6)基于相对距离比较学习的匹配方法(RDC)(具体见“W.-S.Zheng,S.Gong,andT.Xiang.Re-identificationbyrelativedistancecomparison.IEEETPAMI,35(3):653–668,2013.”)。为了进一步说明本发明的有效性,一些相关领域的遮挡或不完整图像匹配技术也被参与比较,具体包括:1)基于多任务稀疏表达的不完整人脸匹配方法(MTSR)(具体见“S.Liao,A.K.Jain,andS.Z.Li.Partialfacerecognitionalignment-freeapproach.IEEETPAMI,35(5),2013.”);2)基于鲁棒稀疏表达的遮挡人脸匹配方法(SRC)(具体见“J.Wright,A.Y.Yang,A.Ganesh,S.S.Sastry,andY.Ma.Robustfacerecognitionviasparserepresentation.IEEETPAMI,31(2),2009.”)。比较的结果如图4和表1所示,其中图4是实验中每种方法的CMC曲线图,表1记录了每种方法匹配准确率的具体数值。
表1:行人匹配准确率(%)。其中,Rank1、5、10和20分别表示正确匹配出现在前1、5、10和20个最相似位置的准确率。
Methods | Rank 1 | Rank 5 | Rank 10 | Rank 20 |
本发明的方法 | 53.14 | 76.43 | 85.29 | 94.33 |
LFDA | 24.62 | 47.05 | 62.48 | 80.05 |
L1norm | 24.14 | 43.90 | 57.90 | 76.52 |
KISSME | 24.95 | 45.19 | 58.48 | 77.86 |
LADF | 26.38 | 50.52 | 65.43 | 83.33 |
PRSVM | 27.00 | 48.71 | 64.00 | 81.14 |
RDC | 26.76 | 49.71 | 64.29 | 81.10 |
MTSR | 42.00 | 67.24 | 79.81 | 91.14 |
SRC | 24.90 | 45.62 | 58.14 | 76.19 |
从图4和表1的实验结果可以看出,采用本发明的方法进行无交叠视域摄像头之间的不完整行人匹配,与现存的行人匹配方法相比,能显著地提高匹配准确率。由于这些方法忽略了视频监控中由于遮挡等因素造成的不完整行人的存在,直接将所有行人手动对齐到相同尺度后再进行建模,导致不完整行人的信息失真严重,无法和完整行人准确对齐,所以造成匹配准确率低下。而本发明设计允许无手动对齐的行人局部和整体融合匹配的方法,既充分保持了行人的原始信息,又同时结合两种匹配模型的优点,所以极大地改善了不完整行人匹配的效果。从图4和表1还能看出,本发明的准确率也高于其他相关领域使用的遮挡或者不完整图像的匹配方法的准确率。此结果进一步说明了本发明在不完整行人匹配上的优势。
此外,由于本发明融合了局部匹配模型和整体匹配模型,为了更好的说明融合的有效性,表2还示出了单独使用本发明的局部匹配模型和整体匹配模型的匹配结果。
表2:行人匹配准确率(%)
Methods | Rank 1 | Rank 5 | Rank 10 | Rank 20 |
本发明的方法 | 53.14 | 76.43 | 85.29 | 94.33 |
局部匹配 | 45.19 | 70.29 | 81.00 | 90.62 |
整体匹配 | 47.24 | 71.05 | 80.57 | 92.05 |
从表2的实验结果可以看出,本发明进行融合匹配的效果优于单独使用局部匹配或整体匹配的效果。此结果更进一步说明了本发明在不完整行人匹配上的有效性。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (6)
1.一种基于行人局部和整体融合匹配的无交叠视域摄像头之间的不完整行人匹配方法,其特征在于,该方法包括下述步骤:
(1)建立行人局部匹配模型;
(2)建立行人整体匹配模型;
(3)融合局部模型和整体模型实现不完整行人的匹配。
2.根据权利要求1所述的基于行人局部和整体融合匹配的无交叠视域摄像头之间的不完整行人匹配方法,其特征在于,所述步骤(1)中,行人局部匹配模型是在允许无手动对齐的情况下,对不完整行人和完整行人在局部信息上的匹配关系进行建模得到的,根据行人局部匹配模型可以计算得到不完整行人和完整行人之间的局部匹配的相似度信息。
3.根据权利要求2所述的基于行人局部和整体融合匹配的无交叠视域摄像头之间的不完整行人匹配方法,其特征在于,所述步骤(1)中,建立行人局部匹配模型的具体方法为:
对于摄像头camA中检测到的不完整行人PA,其特征矩阵被表示为Y=[y1,y2,…,yn],其中Y的每一列是PA的一个局部特征向量,n是PA局部特征向量的数量,对于摄像头camB中检测到的C个完整行人c∈[1,C],其特征矩阵被表示为c∈[1,C],其中Dc的每一列是的一个局部特征向量,kc是局部特征向量的数量,首先组合C个完整行人的特征矩阵得到D=[D1,D2,…,DC],再利用特征矩阵D为PA的n个局部特征向量yi,i∈[1,n]分别计算一个重构表达系数xi,使其满足yi=Dxi,最后利用的特征矩阵Dc对于PA的每个局部特征向量的重构误差之和来确定PA和之间的局部距离: 其中,δc用来从xi中选择与Dc对应的重构系数。
4.根据权利要求1所述的基于行人局部和整体融合匹配的无交叠视域摄像头之间的不完整行人匹配方法,其特征在于,所述步骤(2)中,行人整体匹配模型是在允许无手动对齐的情况下,对不完整行人和完整行人在整体信息上的匹配关系进行建模得到的,根据行人整体匹配模型可以计算得到不完整行人和完整行人之间的整体匹配的相似度信息。
5.根据权利要求4所述的基于行人局部和整体融合匹配的无交叠视域摄像头之间的不完整行人匹配方法,其特征在于,所述步骤(2)中,建立行人整体匹配模型具体为:
对于所有的行人图像,我们允许不进行手动对齐,而是根据摄像头camA中检测到的不完整行人PA的大小设置一个窗口,在摄像头camB中检测到的完整行人上进行滑动搜索,每次滑动后计算一次当前窗口中的行人与PA的距离,最后取最小的距离作为PA和的整体距离
6.根据权利要求1所述的基于行人局部和整体融合匹配的无交叠视域摄像头之间的不完整行人匹配方法,其特征在于,所述步骤(3)中,是对摄像头camA中检测到的不完整行人PA,在摄像头camB中检测到的C个完整行人c∈[1,C]中找到与其匹配的行人,与PA匹配的行人可由公式确定,其中是融合根据局部匹配模型和整体匹配模型分别计算得到的PA与之间局部匹配相似度信息和全局匹配相似度信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510831148.4A CN105447465B (zh) | 2015-11-25 | 2015-11-25 | 基于行人局部和整体融合匹配的无交叠视域摄像头之间的不完整行人匹配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510831148.4A CN105447465B (zh) | 2015-11-25 | 2015-11-25 | 基于行人局部和整体融合匹配的无交叠视域摄像头之间的不完整行人匹配方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105447465A true CN105447465A (zh) | 2016-03-30 |
CN105447465B CN105447465B (zh) | 2020-02-07 |
Family
ID=55557625
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510831148.4A Active CN105447465B (zh) | 2015-11-25 | 2015-11-25 | 基于行人局部和整体融合匹配的无交叠视域摄像头之间的不完整行人匹配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105447465B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107766791A (zh) * | 2017-09-06 | 2018-03-06 | 北京大学 | 一种基于全局特征和粗粒度局部特征的行人再识别方法及装置 |
CN108229444A (zh) * | 2018-02-09 | 2018-06-29 | 天津师范大学 | 一种基于整体和局部深度特征融合的行人再识别方法 |
CN108717520A (zh) * | 2018-04-10 | 2018-10-30 | 新智数字科技有限公司 | 一种行人重识别方法及装置 |
CN109782811A (zh) * | 2019-02-02 | 2019-05-21 | 绥化学院 | 一种无人模型车的自动跟随控制系统及方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080008355A1 (en) * | 2006-07-05 | 2008-01-10 | Fujitsu Ten Limited | Image recognition apparatus, image recognition method, and vehicle control apparatus |
CN101236599A (zh) * | 2007-12-29 | 2008-08-06 | 浙江工业大学 | 基于多摄像机信息融合的人脸识别检测装置 |
CN101616309A (zh) * | 2009-07-16 | 2009-12-30 | 上海交通大学 | 无重叠视域多摄像机人体目标跟踪方法 |
CN102236785A (zh) * | 2011-06-29 | 2011-11-09 | 中山大学 | 一种非重叠摄像机视点之间的行人匹配方法 |
-
2015
- 2015-11-25 CN CN201510831148.4A patent/CN105447465B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080008355A1 (en) * | 2006-07-05 | 2008-01-10 | Fujitsu Ten Limited | Image recognition apparatus, image recognition method, and vehicle control apparatus |
CN101236599A (zh) * | 2007-12-29 | 2008-08-06 | 浙江工业大学 | 基于多摄像机信息融合的人脸识别检测装置 |
CN101616309A (zh) * | 2009-07-16 | 2009-12-30 | 上海交通大学 | 无重叠视域多摄像机人体目标跟踪方法 |
CN102236785A (zh) * | 2011-06-29 | 2011-11-09 | 中山大学 | 一种非重叠摄像机视点之间的行人匹配方法 |
Non-Patent Citations (1)
Title |
---|
XIANG LI ET AL: "Towards more reliable matching for person re-identification", 《2015 IEEE INTERNATIONAL CONFERENCE ON IDENTITY, SECURITY AND BEHAVIOR ANALYSIS(ISBA)》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107766791A (zh) * | 2017-09-06 | 2018-03-06 | 北京大学 | 一种基于全局特征和粗粒度局部特征的行人再识别方法及装置 |
CN108229444A (zh) * | 2018-02-09 | 2018-06-29 | 天津师范大学 | 一种基于整体和局部深度特征融合的行人再识别方法 |
CN108229444B (zh) * | 2018-02-09 | 2021-10-12 | 天津师范大学 | 一种基于整体和局部深度特征融合的行人再识别方法 |
CN108717520A (zh) * | 2018-04-10 | 2018-10-30 | 新智数字科技有限公司 | 一种行人重识别方法及装置 |
CN109782811A (zh) * | 2019-02-02 | 2019-05-21 | 绥化学院 | 一种无人模型车的自动跟随控制系统及方法 |
CN109782811B (zh) * | 2019-02-02 | 2021-10-08 | 绥化学院 | 一种无人模型车的自动跟随控制系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN105447465B (zh) | 2020-02-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI742690B (zh) | 人體檢測方法、裝置、電腦設備及儲存媒體 | |
CN102750537B (zh) | 一种高精度图像自动配准方法 | |
CN108171141B (zh) | 基于注意力模型的级联多模式融合的视频目标跟踪方法 | |
CN105447465A (zh) | 基于行人局部和整体融合匹配的无交叠视域摄像头之间的不完整行人匹配方法 | |
CN110674688A (zh) | 用于视频监控场景的人脸识别模型获取方法、系统和介质 | |
CN103177456A (zh) | 视频图像的运动目标检测方法 | |
CN105931267B (zh) | 一种基于改进ViBe算法的运动物体检测跟踪方法 | |
CN104236528A (zh) | 一种非合作目标相对位姿测量方法 | |
CN105005760A (zh) | 一种基于有限混合模型的行人再识别方法 | |
CN109948707A (zh) | 模型训练方法、装置、终端及存储介质 | |
US11361534B2 (en) | Method for glass detection in real scenes | |
CN104751111B (zh) | 识别视频中人体行为的方法和系统 | |
CN105224937A (zh) | 基于人体部件位置约束的细粒度语义色彩行人重识别方法 | |
CN110688905A (zh) | 一种基于关键帧的三维物体检测与跟踪方法 | |
EP4105600A2 (en) | Method for automatically producing map data, related apparatus and computer program product | |
CN114758288A (zh) | 一种配电网工程安全管控检测方法及装置 | |
CN110866934A (zh) | 基于规范性编码的复杂点云分割方法及系统 | |
CN104036229A (zh) | 基于回归的主动外观模型初始化方法 | |
CN103093237B (zh) | 一种基于结构化模型的人脸检测方法 | |
CN104574351A (zh) | 一种基于视频处理的车位检测方法 | |
CN104408741A (zh) | 一种时序一致性约束的视频全局运动估计方法 | |
CN105631469A (zh) | 一种多层稀疏编码特征的鸟类图像识别方法 | |
Wang et al. | Body part-level domain alignment for domain-adaptive person re-identification with transformer framework | |
Li et al. | An aerial image segmentation approach based on enhanced multi-scale convolutional neural network | |
CN114240796B (zh) | 一种基于gan的遥感影像去云雾方法、设备、存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |