CN108090472A - 基于多通道一致性特征的行人重识别方法及其系统 - Google Patents
基于多通道一致性特征的行人重识别方法及其系统 Download PDFInfo
- Publication number
- CN108090472A CN108090472A CN201810030307.4A CN201810030307A CN108090472A CN 108090472 A CN108090472 A CN 108090472A CN 201810030307 A CN201810030307 A CN 201810030307A CN 108090472 A CN108090472 A CN 108090472A
- Authority
- CN
- China
- Prior art keywords
- mrow
- msubsup
- msub
- theta
- mtr
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
Abstract
本发明属于图像处理技术领域,涉及一种基于多通道一致性特征的行人重识别方法,包括如下步骤:输入包括训练数据和测试数据的待匹配的N个图像对及其对应的标签ln,其中n=1,……,N;提取输入的图像数据的语义特征表示和颜色纹理空间分布特征表示;通过多尺度的特征匹配获取所述语义特征表示和颜色纹理空间分布特征表示的一致性特征表示;对得到的一致性特征表示构建二分类器,输出描述同一目标的概率表示。本发明的优点是:综合行人图像语义属性和颜色分布特征进行行人的辨别,精度高,性能稳定,适合解决复杂场景下的行人重识别问题。
Description
技术领域
本发明属于图像处理技术领域,涉及一种基于多通道一致性特征的行人重识别方法,特别涉及一种联合图像语义一致性特征和颜色纹理分布一致性特征进行行人重识别的深度学习方法。
背景技术
行人重识别任务是处理跨摄像头的行人匹配问题,该技术在行人监控网络的应用体现在行人追踪,人体检索等,在公共安全领域具有极其巨大的应用场景。行人语义属性信息和行人的颜色纹理分布信息具有一定的互补性,是描述行人的两个方面,联合两种特征进行行人重识别可以弥补单一特征造成误判的缺陷。
行人的语义属性结构信息和行人外表颜色纹理分布信息是图像所蕴含的基本信息,对于行人重识别任务而言,由于场景众多和行人规模巨大,往往存在一些场景行人外表具有相似的颜色纹理分布如在一些场景行人身穿统一的制服,另一方面,有很多人具有极其相似的体态特征和走路习惯,由此以往的方法单纯依靠行人的语义属性信息或者颜色纹理分布信息都无法高精度地进行行人重识别。
发明内容
本发明的目的在于克服上述已有技术缺点,提出一种用在行人重识别技术中的综合图像语义属性特征和颜色纹理特征的多通道一致性特征的深度学习方法。
为实现上述目的,本发明采用了如下技术方案:
本发明的一个方面提供了一种基于多通道一致性特征的行人重识别方法,包括如下步骤:
S1:输入包括训练数据和测试数据的待匹配的N个图像对及其对应的标签ln,其中n=1,……,N;
S2:提取S1中输入的图像数据的语义特征表示和颜色纹理空间分布特征表示;
S3、通过多尺度的特征匹配获取所述语义特征表示和颜色纹理空间分布特征表示的一致性特征表示;
S4:对S3中得到的一致性特征表示构建二分类器,输出描述同一目标的概率表示。
进一步的S2具体包括:
S21、提取图像数据的语义特征表示:
其中,为输入图像对的语义特征表示,fCNN表示卷积操作,为待学习参数;
S22、提取图像数据在RGB、HSV、SILTP各通道的空间分布特征,并通过由三层卷积层和三层最大化池化层构成的卷积神经网络进行特征的抽象表示,得到图像数据的颜色纹理空间分布特征表示:
其中CTMn为颜色纹理空间分布原始特征,CTMM表示上述颜色纹理空间分布原始特征的提取操作,其参数k、s和b分别表示CTMM操作的滑动窗大小、滑动步长和分桶个数,Concat表示在特征通道维度的特征拼接操作,为输入图像对的颜色纹理空间分布特征表示,fCNN为卷积操作,为待学习参数。
进一步的S3具体包括:
S31、通过多尺度特征匹配学习得到语义特征表示和颜色纹理空间分布特征表示的一致性表示:
其中和分别为语义特征一致性表示和颜色纹理空间分布特征一致性表示,r=1,2,3为带孔卷积的孔率,为孔率为r时的特征一致性表示,为卷积孔率为r时的参数,和分别表示该语义特征匹配和颜色纹理空间分布特征匹配的待学习参数;
S32、由S31中得到的通过学习表征不同尺度下语义特征表示的一致性特征权重和颜色纹理空间分布特征表示的一致性特征权重进一步将不同尺度下的一致性特征进行融合,并利用卷积和最大化池化层进一步地获取最具有判决力的一致性信息,从而整体的一致性特征可表示为:
其中,θ3为表征不同尺度下和来自不同通道的一致性特征权重的待学习参数;
S33、利用S32中得到的一致性特征表示进一步使用两层全连接层来编码原特征,获取一个1024维的一致性特征向量。
优选的,S31中,所述多尺度特征匹配学习通过控制带孔卷积操作的孔率分别为1、2、3来提供3×3、5×5和7×7的感受野,以自适应地匹配不同尺度空间偏移的组件。
进一步的S4具体包括:
S41、使用一个包含两个节点的softmax层作为判决输入图像对是否属于同一个目标的二分类决策层从而得到表征输入图像对描述同一个目标的概率:
整个框架可以表示为:
其中,θ4是上述决策过程中的待学习参数;
S42、通过最小化分类交叉熵损失来优化整个框架直到收敛,优化的目标函数如下:
S43、将学习到的待学习参数θ1,θ2,θ3,θ4代入整体网络框架里,输入测试图像对即得到其最终描述同一目标的概率估计值
本发明的另一个方面提供了一种基于多通道一致性特征的行人重识别系统,包括:
图像数据输入模块,用于输入包括训练数据和测试数据的待匹配的N个图像对及其对应的标签ln,其中n=1,……,N;
特征表示提取模块,用于提取图像数据输入模块输入的图像数据的语义特征表示和颜色纹理空间分布特征表示;
一致性特征表示模块,用于通过多尺度的特征匹配获取所述语义特征表示和颜色纹理空间分布特征表示的一致性特征表示;
概率表示输出模块,用于对所述一致性特征表示模块得到的一致性特征表示构建二分类器,输出描述同一目标的概率表示。
进一步的所述特征表示提取模块包括:
语义特征表示提取单元,用于提取图像数据的语义特征表示:
其中,为输入图像对的语义特征表示,fCNN表示卷积操作,为待学习参数;
颜色纹理空间分布特征表示提取单元,用于提取图像数据在RGB、HSV、SILTP各通道的空间分布特征,并通过由三层卷积层和三层最大化池化层构成的卷积神经网络进行特征的抽象表示,得到图像数据的颜色纹理空间分布特征表示:
其中CTMn为颜色纹理空间分布原始特征,CTMM表示上述颜色纹理空间分布原始特征的提取操作,其参数k、s和b分别表示CTMM操作的滑动窗大小、滑动步长和分桶个数,Concat表示在特征通道维度的特征拼接操作,为输入图像对的颜色纹理空间分布特征表示,fCNN为卷积操作,为待学习参数。
进一步的所述一致性特征表示模块包括:
多尺度特征匹配学习单元,用于通过多尺度特征匹配学习得到语义特征表示和颜色纹理空间分布特征表示的一致性表示:
其中和分别为语义特征一致性表示和颜色纹理空间分布特征一致性表示,r=1,2,3为带孔卷积的孔率,为孔率为r时的特征一致性表示,为卷积孔率为r时的参数,和分别表示该语义特征匹配和颜色纹理空间分布特征匹配的待学习参数;
一致性特征融合单元,用于由所述多尺度特征匹配学习单元得到的通过学习表征不同尺度下语义特征表示的一致性特征权重和颜色纹理空间分布特征表示的一致性特征权重进一步将不同尺度下的一致性特征进行融合,并利用卷积和最大化池化层进一步地获取最具有判决力的一致性信息,从而获得整体的一致性特征表示:
其中,θ3为表征不同尺度下和来自不同通道的一致性特征权重的待学习参数;
编码单元,用于通过所述一致性特征融合单元得到的一致性特征表示进一步使用两层全连接层来编码原特征,获取一个1024维的一致性特征向量。
优选的,所述多尺度特征匹配学习单元中,多尺度特征匹配学习通过控制带孔卷积操作的孔率分别为1、2、3来提供3×3、5×5和7×7的感受野,以自适应地匹配不同尺度空间偏移的组件。
进一步的所述概率表示输出模块包括:
目标概率获取单元,用于使用一个包含两个节点的softmax层作为判决输入图像对是否属于同一个目标的二分类决策层从而得到表征输入图像对描述同一个目标的概率:
整个框架可以表示为:
其中,θ4是上述决策过程中的待学习参数;
框架优化单元,用于通过最小化分类交叉熵损失来优化整个框架直到收敛,优化的目标函数如下:
结果输出单元,用于将学习到的待学习参数θ1,θ2,θ3,θ4代入整体网络框架中,输入测试图像对即得到其最终描述同一目标的概率估计值
本发明的行人重识方法及其系统,一方面利用深度神经网络提取图像的语义特征,另一方面构建图像的颜色纹理空间分布特征,然后基于多尺度的特征匹配分别获取两种特征的一致性表示,进一步地融合两种一致性信息,利用该信息做出最后的判决。本发明的优点是:综合行人图像语义属性和颜色分布特征进行行人的辨别,精度高,性能稳定,适合解决复杂场景下的行人重识别问题。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
相反,本发明涵盖任何由权利要求定义的在本发明的精髓和范围上做的替代、修改、等效方法以及方案。进一步,为了使公众对本发明有更好的了解,在下文对本发明的细节描述中,详尽描述了一些特定的细节部分。对本领域技术人员来说没有这些细节部分的描述也可以完全理解本发明。
本发明提供了一种基于多通道一致性特征的行人重识别方法及其系统,下面通过具体的实施例进行说明。
实施例一
一种基于多通道一致性特征的行人重识别方法,包括如下步骤:
第一步:输入包括训练数据和测试数据的待匹配的N个图像对及其对应的标签ln,其中n=1,……,N。
第二步:提取第一步中输入的图像数据的语义特征表示和颜色纹理空间分布特征表示,具体包括如下步骤:
1)提取图像数据的语义特征表示:
其中,为输入图像对的语义特征表示,fCNN表示卷积操作,为待学习参数;
2)提取图像数据在RGB、HSV(颜色信息)、SILTP(纹理信息)各通道的空间分布特征,并通过由三层卷积层和三层最大化池化层构成的卷积神经网络进行特征的抽象表示,得到图像数据的颜色纹理空间分布特征表示:
其中CTMn为颜色纹理空间分布原始特征,CTMM表示上述颜色纹理空间分布原始特征的提取操作(Color-Texture Map Machine,CTMM),其参数k、s和b分别表示CTMM操作的滑动窗大小、滑动步长和分桶个数,Concat表示在特征通道维度的特征拼接操作,为输入图像对的颜色纹理空间分布特征表示,fCNN为卷积操作,为待学习参数。
第三步:通过多尺度的特征匹配获取所述语义特征表示和颜色纹理空间分布特征表示的一致性特征表示,具体包括如下步骤:
1)通过多尺度特征匹配学习得到语义特征表示和颜色纹理空间分布特征表示的一致性表示:
其中和分别为语义特征一致性表示和颜色纹理空间分布特征一致性表示,r=1,2,3为带孔卷积的孔率,为孔率为r时的特征一致性表示,为卷积孔率为r时的参数,和分别表示该语义特征匹配和颜色纹理空间分布特征匹配的待学习参数;
2)由S31中得到的通过学习表征不同尺度下语义特征表示的一致性特征权重和颜色纹理空间分布特征表示的一致性特征权重进一步将不同尺度下的一致性特征进行融合,并利用卷积和最大化池化层进一步地获取最具有判决力的一致性信息,从而整体的一致性特征可表示为:
其中,θ3为表征不同尺度下和来自不同通道的一致性特征权重的待学习参数;
3)利用S32中得到的一致性特征表示进一步使用两层全连接层来编码原特征,获取一个1024维的一致性特征向量。
作为优选实施方案,步骤(1)中,所述多尺度特征匹配学习通过控制带孔卷积操作的孔率分别为1、2、3来提供3×3、5×5和7×7的感受野,以自适应地匹配不同尺度空间偏移的组件。
第四步:对上一步中得到的一致性特征表示构建二分类器,输出描述同一目标的概率表示,具体包括如下步骤:
1)使用一个包含两个节点的softmax层作为判决输入图像对是否属于同一个目标的二分类决策层从而得到表征输入图像对描述同一个目标的概率:
整个框架可以表示为:
其中,θ4是上述决策过程中的待学习参数;
2)通过最小化分类交叉熵损失来优化整个框架直到收敛,优化的目标函数如下:
3)将学习到的待学习参数θ1,θ2,θ3,θ4代入整体网络框架里,输入测试图像对即得到其最终描述同一目标的概率估计值
实施例二
一种基于多通道一致性特征的行人重识别系统,包括如下模块:
图像数据输入模块,用于输入包括训练数据和测试数据的待匹配的N个图像对及其对应的标签ln,其中n=1,……,N;
特征表示提取模块,用于提取图像数据输入模块输入的图像数据的语义特征表示和颜色纹理空间分布特征表示;
一致性特征表示模块,用于通过多尺度的特征匹配获取所述语义特征表示和颜色纹理空间分布特征表示的一致性特征表示;
概率表示输出模块,用于对所述一致性特征表示模块得到的一致性特征表示构建二分类器,输出描述同一目标的概率表示。
其中,特征表示提取模块具体包括:
语义特征表示提取单元,用于提取图像数据的语义特征表示:
其中,为输入图像对的语义特征表示,fCNN表示卷积操作,为待学习参数;
颜色纹理空间分布特征表示提取单元,用于提取图像数据在RGB、HSV、SILTP各通道的空间分布特征,并通过由三层卷积层和三层最大化池化层构成的卷积神经网络进行特征的抽象表示,得到图像数据的颜色纹理空间分布特征表示:
其中CTMn为颜色纹理空间分布原始特征,CTMM表示上述颜色纹理空间分布原始特征的提取操作,其参数k、s和b分别表示CTMM操作的滑动窗大小、滑动步长和分桶个数,Concat表示在特征通道维度的特征拼接操作,为输入图像对的颜色纹理空间分布特征表示,fCNN为卷积操作,为待学习参数。
一致性特征表示模块具体包括:
多尺度特征匹配学习单元,用于通过多尺度特征匹配学习得到语义特征表示和颜色纹理空间分布特征表示的一致性表示:
其中和分别为语义特征一致性表示和颜色纹理空间分布特征一致性表示,r=1,2,3为带孔卷积的孔率,为孔率为r时的特征一致性表示,为卷积孔率为r时的参数,和分别表示该语义特征匹配和颜色纹理空间分布特征匹配的待学习参数;
一致性特征融合单元,用于由所述多尺度特征匹配学习单元得到的通过学习表征不同尺度下语义特征表示的一致性特征权重和颜色纹理空间分布特征表示的一致性特征权重进一步将不同尺度下的一致性特征进行融合,并利用卷积和最大化池化层进一步地获取最具有判决力的一致性信息,从而获得整体的一致性特征表示:
其中,θ3为表征不同尺度下和来自不同通道的一致性特征权重的待学习参数;
编码单元,用于通过所述一致性特征融合单元得到的一致性特征表示进一步使用两层全连接层来编码原特征,获取一个1024维的一致性特征向量。
作为优选实施方案,多尺度特征匹配学习单元中,多尺度特征匹配学习通过控制带孔卷积操作的孔率分别为1、2、3来提供3×3、5×5和7×7的感受野,以自适应地匹配不同尺度空间偏移的组件。
概率表示输出模块具体包括:
目标概率获取单元,用于使用一个包含两个节点的softmax层作为判决输入图像对是否属于同一个目标的二分类决策层从而得到表征输入图像对描述同一个目标的概率:
整个框架可以表示为:
其中,θ4是上述决策过程中的待学习参数;
框架优化单元,用于通过最小化分类交叉熵损失来优化整个框架直到收敛,优化的目标函数如下:
结果输出单元,用于将学习到的待学习参数θ1,θ2,θ3,θ4代入整体网络框架中,输入测试图像对即得到其最终描述同一目标的概率估计值
以上实施例的说明只是用于帮助理解本发明的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。
Claims (10)
1.基于多通道一致性特征的行人重识别方法,其特征在于包括如下步骤:
S1:输入包括训练数据和测试数据的待匹配的N个图像对及其对应的标签ln,其中n=1,……,N;
S2:提取S1中输入的图像数据的语义特征表示和颜色纹理空间分布特征表示;
S3、通过多尺度的特征匹配获取所述语义特征表示和颜色纹理空间分布特征表示的一致性特征表示;
S4:对S3中得到的一致性特征表示构建二分类器,输出描述同一目标的概率表示。
2.如权利要求1所述的方法,其特征在于S2具体包括:
S21、提取图像数据的语义特征表示:
<mrow>
<msub>
<mrow>
<mo>{</mo>
<msubsup>
<mi>R</mi>
<mi>n</mi>
<mi>A</mi>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>R</mi>
<mi>n</mi>
<mi>B</mi>
</msubsup>
<mo>}</mo>
</mrow>
<mrow>
<mi>S</mi>
<mi>C</mi>
</mrow>
</msub>
<mo>=</mo>
<mo>{</mo>
<msub>
<mi>f</mi>
<mrow>
<mi>C</mi>
<mi>N</mi>
<mi>N</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<msubsup>
<mi>I</mi>
<mi>n</mi>
<mi>A</mi>
</msubsup>
<mo>;</mo>
<msubsup>
<mi>&theta;</mi>
<mn>1</mn>
<mrow>
<mi>S</mi>
<mi>C</mi>
</mrow>
</msubsup>
<mo>)</mo>
</mrow>
<mo>,</mo>
<msub>
<mi>f</mi>
<mrow>
<mi>C</mi>
<mi>N</mi>
<mi>N</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<msubsup>
<mi>I</mi>
<mi>n</mi>
<mi>B</mi>
</msubsup>
<mo>;</mo>
<msubsup>
<mi>&theta;</mi>
<mn>1</mn>
<mrow>
<mi>S</mi>
<mi>C</mi>
</mrow>
</msubsup>
<mo>)</mo>
</mrow>
<mo>}</mo>
</mrow>
其中,为输入图像对的语义特征表示,fCNN表示卷积操作,为待学习参数;
S22、提取图像数据在RGB、HSV、SILTP各通道的空间分布特征,并通过由三层卷积层和三层最大化池化层构成的卷积神经网络进行特征的抽象表示,得到图像数据的颜色纹理空间分布特征表示:
<mfenced open = "" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>CTM</mi>
<mi>n</mi>
</msub>
<mo>=</mo>
<mi>C</mi>
<mi>o</mi>
<mi>n</mi>
<mi>c</mi>
<mi>a</mi>
<mi>t</mi>
<mrow>
<mo>{</mo>
<mrow>
<msubsup>
<mi>CTM</mi>
<mi>n</mi>
<mrow>
<mi>C</mi>
<mi>o</mi>
<mi>l</mi>
<mi>o</mi>
<mi>r</mi>
</mrow>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>CTM</mi>
<mi>n</mi>
<mrow>
<mi>T</mi>
<mi>e</mi>
<mi>x</mi>
<mi>t</mi>
<mi>u</mi>
<mi>r</mi>
<mi>e</mi>
</mrow>
</msubsup>
</mrow>
<mo>}</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<mi>C</mi>
<mi>o</mi>
<mi>n</mi>
<mi>c</mi>
<mi>a</mi>
<mi>t</mi>
<mrow>
<mo>{</mo>
<mrow>
<msubsup>
<mi>CTMM</mi>
<mrow>
<mi>R</mi>
<mi>G</mi>
<mi>B</mi>
<mi>H</mi>
<mi>S</mi>
<mi>V</mi>
</mrow>
<mrow>
<mi>k</mi>
<mo>=</mo>
<mn>8</mn>
<mo>&times;</mo>
<mn>8</mn>
<mo>,</mo>
<mi>s</mi>
<mo>=</mo>
<mn>4</mn>
<mo>,</mo>
<mi>b</mi>
<mo>=</mo>
<mn>8</mn>
</mrow>
</msubsup>
<mrow>
<mo>(</mo>
<msub>
<mi>I</mi>
<mi>n</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>,</mo>
<msubsup>
<mi>CTMM</mi>
<mrow>
<mi>S</mi>
<mi>I</mi>
<mi>L</mi>
<mi>T</mi>
<mi>P</mi>
</mrow>
<mrow>
<mi>k</mi>
<mo>=</mo>
<mn>8</mn>
<mo>&times;</mo>
<mn>8</mn>
<mo>,</mo>
<mi>s</mi>
<mo>=</mo>
<mn>4</mn>
<mo>,</mo>
<mi>b</mi>
<mo>=</mo>
<mn>16</mn>
</mrow>
</msubsup>
<mrow>
<mo>(</mo>
<msub>
<mi>I</mi>
<mi>n</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
<mo>}</mo>
</mrow>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mrow>
<msub>
<mrow>
<mo>{</mo>
<mrow>
<msubsup>
<mi>R</mi>
<mi>n</mi>
<mi>A</mi>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>R</mi>
<mi>n</mi>
<mi>B</mi>
</msubsup>
</mrow>
<mo>}</mo>
</mrow>
<mrow>
<mi>C</mi>
<mi>T</mi>
<mi>M</mi>
</mrow>
</msub>
<mo>=</mo>
<mrow>
<mo>{</mo>
<mrow>
<msub>
<mi>f</mi>
<mrow>
<mi>C</mi>
<mi>N</mi>
<mi>N</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mrow>
<msubsup>
<mi>CTM</mi>
<mi>n</mi>
<mi>A</mi>
</msubsup>
<mo>;</mo>
<msubsup>
<mi>&theta;</mi>
<mn>1</mn>
<mrow>
<mi>C</mi>
<mi>T</mi>
<mi>M</mi>
</mrow>
</msubsup>
</mrow>
<mo>)</mo>
</mrow>
<mo>,</mo>
<msub>
<mi>f</mi>
<mrow>
<mi>C</mi>
<mi>N</mi>
<mi>N</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mrow>
<msubsup>
<mi>CTM</mi>
<mi>n</mi>
<mi>B</mi>
</msubsup>
<mo>;</mo>
<msubsup>
<mi>&theta;</mi>
<mn>1</mn>
<mrow>
<mi>C</mi>
<mi>T</mi>
<mi>M</mi>
</mrow>
</msubsup>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
<mo>}</mo>
</mrow>
</mrow>
其中CTMn为颜色纹理空间分布原始特征,CTMM表示上述颜色纹理空间分布原始特征的提取操作,其参数k、s和b分别表示CTMM操作的滑动窗大小、滑动步长和分桶个数,Concat表示在特征通道维度的特征拼接操作,为输入图像对的颜色纹理空间分布特征表示,fCNN为卷积操作,为待学习参数。
3.如权利要求2所述的方法,其特征在于S3具体包括:
S31、通过多尺度特征匹配学习得到语义特征表示和颜色纹理空间分布特征表示的一致性表示:
<mfenced open = "" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mrow>
<mi>p</mi>
<mi>p</mi>
<mi>m</mi>
<mo>_</mo>
<mi>s</mi>
<mi>c</mi>
</mrow>
</msubsup>
<mo>=</mo>
<msub>
<mrow>
<mo>{</mo>
<mrow>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mrow>
<mi>r</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mrow>
<mi>r</mi>
<mo>=</mo>
<mn>2</mn>
</mrow>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mrow>
<mi>r</mi>
<mo>=</mo>
<mn>3</mn>
</mrow>
</msubsup>
</mrow>
<mo>}</mo>
</mrow>
<mrow>
<mi>S</mi>
<mi>C</mi>
</mrow>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<mrow>
<mo>{</mo>
<mrow>
<msub>
<mi>f</mi>
<mrow>
<mi>C</mi>
<mi>N</mi>
<mi>N</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mrow>
<msub>
<mrow>
<mo>{</mo>
<mrow>
<msubsup>
<mi>R</mi>
<mi>n</mi>
<mi>A</mi>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>R</mi>
<mi>n</mi>
<mi>B</mi>
</msubsup>
</mrow>
<mo>}</mo>
</mrow>
<mrow>
<mi>S</mi>
<mi>C</mi>
</mrow>
</msub>
<mo>;</mo>
<msubsup>
<mi>&theta;</mi>
<mn>2</mn>
<mrow>
<mi>S</mi>
<mi>C</mi>
</mrow>
</msubsup>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
<mo>}</mo>
</mrow>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mfenced open = "" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mrow>
<mi>p</mi>
<mi>p</mi>
<mi>m</mi>
<mo>_</mo>
<mi>c</mi>
<mi>t</mi>
<mi>m</mi>
</mrow>
</msubsup>
<mo>=</mo>
<msub>
<mrow>
<mo>{</mo>
<mrow>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mrow>
<mi>r</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mrow>
<mi>r</mi>
<mo>=</mo>
<mn>2</mn>
</mrow>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mrow>
<mi>r</mi>
<mo>=</mo>
<mn>3</mn>
</mrow>
</msubsup>
</mrow>
<mo>}</mo>
</mrow>
<mrow>
<mi>C</mi>
<mi>T</mi>
<mi>M</mi>
</mrow>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<mrow>
<mo>{</mo>
<mrow>
<msub>
<mi>f</mi>
<mrow>
<mi>C</mi>
<mi>N</mi>
<mi>N</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mrow>
<msub>
<mrow>
<mo>{</mo>
<mrow>
<msubsup>
<mi>R</mi>
<mi>n</mi>
<mi>A</mi>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>R</mi>
<mi>n</mi>
<mi>B</mi>
</msubsup>
</mrow>
<mo>}</mo>
</mrow>
<mrow>
<mi>C</mi>
<mi>T</mi>
<mi>M</mi>
</mrow>
</msub>
<mo>;</mo>
<msubsup>
<mi>&theta;</mi>
<mn>2</mn>
<mrow>
<mi>C</mi>
<mi>T</mi>
<mi>M</mi>
</mrow>
</msubsup>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
<mo>}</mo>
</mrow>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
其中和分别为语义特征一致性表示和颜色纹理空间分布特征一致性表示,r=1,2,3为带孔卷积的孔率,为孔率为r时的特征一致性表示,为卷积孔率为r时的参数,和分别表示该语义特征匹配和颜色纹理空间分布特征匹配的待学习参数;
S32、由S31中得到的通过学习表征不同尺度下语义特征表示的一致性特征权重和颜色纹理空间分布特征表示的一致性特征权重进一步将不同尺度下的一致性特征进行融合,并利用卷积和最大化池化层进一步地获取最具有判决力的一致性信息,从而整体的一致性特征可表示为:
<mfenced open = "" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mrow>
<mi>f</mi>
<mi>i</mi>
<mi>n</mi>
<mi>a</mi>
<mi>l</mi>
</mrow>
</msubsup>
<mo>=</mo>
<msub>
<mi>f</mi>
<mrow>
<mi>C</mi>
<mi>N</mi>
<mi>N</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mrow>
<mo>{</mo>
<mrow>
<mrow>
<mo>{</mo>
<mrow>
<msub>
<mrow>
<mo>{</mo>
<mrow>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mrow>
<mi>r</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mrow>
<mi>r</mi>
<mo>=</mo>
<mn>2</mn>
</mrow>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mrow>
<mi>r</mi>
<mo>=</mo>
<mn>3</mn>
</mrow>
</msubsup>
</mrow>
<mo>}</mo>
</mrow>
<mrow>
<mi>S</mi>
<mi>C</mi>
</mrow>
</msub>
<mo>;</mo>
<msubsup>
<mi>&theta;</mi>
<mn>3</mn>
<mrow>
<mi>S</mi>
<mi>C</mi>
</mrow>
</msubsup>
</mrow>
<mo>}</mo>
</mrow>
<mo>,</mo>
<mrow>
<mo>{</mo>
<mrow>
<msub>
<mrow>
<mo>{</mo>
<mrow>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mrow>
<mi>r</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mrow>
<mi>r</mi>
<mo>=</mo>
<mn>2</mn>
</mrow>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mrow>
<mi>r</mi>
<mo>=</mo>
<mn>3</mn>
</mrow>
</msubsup>
</mrow>
<mo>}</mo>
</mrow>
<mrow>
<mi>C</mi>
<mi>T</mi>
<mi>M</mi>
</mrow>
</msub>
<mo>;</mo>
<msubsup>
<mi>&theta;</mi>
<mn>3</mn>
<mrow>
<mi>C</mi>
<mi>T</mi>
<mi>M</mi>
</mrow>
</msubsup>
</mrow>
<mo>}</mo>
</mrow>
<mo>;</mo>
<msub>
<mi>&theta;</mi>
<mn>3</mn>
</msub>
</mrow>
<mo>}</mo>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<msub>
<mi>f</mi>
<mrow>
<mi>C</mi>
<mi>N</mi>
<mi>N</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mrow>
<mrow>
<mo>{</mo>
<mrow>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mrow>
<mi>p</mi>
<mi>p</mi>
<mi>m</mi>
<mo>_</mo>
<mi>s</mi>
<mi>c</mi>
</mrow>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mrow>
<mi>p</mi>
<mi>p</mi>
<mi>m</mi>
<mo>_</mo>
<mi>c</mi>
<mi>t</mi>
<mi>m</mi>
</mrow>
</msubsup>
</mrow>
<mo>}</mo>
</mrow>
<mo>;</mo>
<mrow>
<mo>{</mo>
<mrow>
<msubsup>
<mi>&theta;</mi>
<mn>3</mn>
<mrow>
<mi>S</mi>
<mi>C</mi>
</mrow>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>&theta;</mi>
<mn>3</mn>
<mrow>
<mi>C</mi>
<mi>T</mi>
<mi>M</mi>
</mrow>
</msubsup>
<mo>,</mo>
<msub>
<mi>&theta;</mi>
<mn>3</mn>
</msub>
</mrow>
<mo>}</mo>
</mrow>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
其中,θ3为表征不同尺度下和来自不同通道的一致性特征权重的待学习参数;
S33、利用S32中得到的一致性特征表示进一步使用两层全连接层来编码原特征,获取一个1024维的一致性特征向量。
4.如权利要求3所述的方法,其特征在于S31中,所述多尺度特征匹配学习通过控制带孔卷积操作的孔率分别为1、2、3来提供3×3、5×5和7×7的感受野,以自适应地匹配不同尺度空间偏移的组件。
5.如权利要求3或4所述的方法,其特征在于S4具体包括:
S41、使用一个包含两个节点的softmax层作为判决输入图像对是否属于同一个目标的二分类决策层从而得到表征输入图像对描述同一个目标的概率:
<mrow>
<msub>
<mi>p</mi>
<mi>n</mi>
</msub>
<mo>=</mo>
<mfrac>
<mrow>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mn>1</mn>
</msubsup>
<mo>(</mo>
<mrow>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mrow>
<mi>f</mi>
<mi>i</mi>
<mi>n</mi>
<mi>a</mi>
<mi>l</mi>
</mrow>
</msubsup>
<mo>;</mo>
<msub>
<mi>&theta;</mi>
<mn>4</mn>
</msub>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mn>0</mn>
</msubsup>
<mo>(</mo>
<mrow>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mrow>
<mi>f</mi>
<mi>i</mi>
<mi>n</mi>
<mi>a</mi>
<mi>l</mi>
</mrow>
</msubsup>
<mo>;</mo>
<msub>
<mi>&theta;</mi>
<mn>4</mn>
</msub>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mn>1</mn>
</msubsup>
<mo>(</mo>
<mrow>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mrow>
<mi>f</mi>
<mi>i</mi>
<mi>n</mi>
<mi>a</mi>
<mi>l</mi>
</mrow>
</msubsup>
<mo>;</mo>
<msub>
<mi>&theta;</mi>
<mn>4</mn>
</msub>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
</mrow>
整个框架可以表示为:
<mfenced open = "" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>S</mi>
<mi>n</mi>
</msub>
<mrow>
<mo>(</mo>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mrow>
<mi>f</mi>
<mi>i</mi>
<mi>n</mi>
<mi>a</mi>
<mi>l</mi>
</mrow>
</msubsup>
<mo>;</mo>
<msub>
<mi>&theta;</mi>
<mn>4</mn>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<msub>
<mi>f</mi>
<mrow>
<mi>C</mi>
<mi>N</mi>
<mi>N</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mrow>
<mrow>
<mo>{</mo>
<mrow>
<msubsup>
<mi>I</mi>
<mi>n</mi>
<mi>A</mi>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>I</mi>
<mi>n</mi>
<mi>B</mi>
</msubsup>
</mrow>
<mo>}</mo>
</mrow>
<mo>;</mo>
<mrow>
<mo>{</mo>
<mrow>
<mrow>
<mo>{</mo>
<mrow>
<msubsup>
<mi>&theta;</mi>
<mn>1</mn>
<mrow>
<mi>S</mi>
<mi>C</mi>
</mrow>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>&theta;</mi>
<mn>2</mn>
<mrow>
<mi>S</mi>
<mi>C</mi>
</mrow>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>&theta;</mi>
<mn>3</mn>
<mrow>
<mi>S</mi>
<mi>C</mi>
</mrow>
</msubsup>
</mrow>
<mo>}</mo>
</mrow>
<mo>,</mo>
<mrow>
<mo>{</mo>
<mrow>
<msubsup>
<mi>&theta;</mi>
<mn>1</mn>
<mrow>
<mi>C</mi>
<mi>T</mi>
<mi>M</mi>
</mrow>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>&theta;</mi>
<mn>2</mn>
<mrow>
<mi>C</mi>
<mi>T</mi>
<mi>M</mi>
</mrow>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>&theta;</mi>
<mn>3</mn>
<mrow>
<mi>C</mi>
<mi>T</mi>
<mi>M</mi>
</mrow>
</msubsup>
</mrow>
<mo>}</mo>
</mrow>
<mo>,</mo>
<msub>
<mi>&theta;</mi>
<mn>4</mn>
</msub>
</mrow>
<mo>}</mo>
</mrow>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<msub>
<mi>f</mi>
<mrow>
<mi>C</mi>
<mi>N</mi>
<mi>N</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mrow>
<mrow>
<mo>{</mo>
<mrow>
<msubsup>
<mi>I</mi>
<mi>n</mi>
<mi>A</mi>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>I</mi>
<mi>n</mi>
<mi>B</mi>
</msubsup>
</mrow>
<mo>}</mo>
</mrow>
<mo>;</mo>
<mi>&theta;</mi>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
其中,θ4是上述决策过程中的待学习参数;
S42、通过最小化分类交叉熵损失来优化整个框架直到收殓,优化的目标函数如下:
<mrow>
<msub>
<mi>L</mi>
<mi>&theta;</mi>
</msub>
<mo>=</mo>
<mo>-</mo>
<mfrac>
<mn>1</mn>
<mi>N</mi>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>n</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>N</mi>
</munderover>
<mo>&lsqb;</mo>
<msub>
<mi>l</mi>
<mi>n</mi>
</msub>
<mi>log</mi>
<mi> </mi>
<msub>
<mi>p</mi>
<mi>n</mi>
</msub>
<mo>+</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<msub>
<mi>l</mi>
<mi>n</mi>
</msub>
<mo>)</mo>
</mrow>
<mi>l</mi>
<mi>o</mi>
<mi>g</mi>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<msub>
<mi>p</mi>
<mi>n</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>&rsqb;</mo>
</mrow>
S43、将学习到的待学习参数θ1,θ2,θ3,θ4代入整体网络框架里,输入测试图像对即得到其最终描述同一目标的概率估计值
6.基于多通道一致性特征的行人重识别系统,其特征在于包括:
图像数据输入模块,用于输入包括训练数据和测试数据的待匹配的N个图像对及其对应的标签ln,其中n=1,……,N;
特征表示提取模块,用于提取图像数据输入模块输入的图像数据的语义特征表示和颜色纹理空间分布特征表示;
一致性特征表示模块,用于通过多尺度的特征匹配获取所述语义特征表示和颜色纹理空间分布特征表示的一致性特征表示;
概率表示输出模块,用于对所述一致性特征表示模块得到的一致性特征表示构建二分类器,输出描述同一目标的概率表示。
7.如权利要求6所述的系统,其特征在于所述特征表示提取模块包括:
语义特征表示提取单元,用于提取图像数据的语义特征表示:
<mrow>
<msub>
<mrow>
<mo>{</mo>
<msubsup>
<mi>R</mi>
<mi>n</mi>
<mi>A</mi>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>R</mi>
<mi>n</mi>
<mi>B</mi>
</msubsup>
<mo>}</mo>
</mrow>
<mrow>
<mi>S</mi>
<mi>C</mi>
</mrow>
</msub>
<mo>=</mo>
<mo>{</mo>
<msub>
<mi>f</mi>
<mrow>
<mi>C</mi>
<mi>N</mi>
<mi>N</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<msubsup>
<mi>I</mi>
<mi>n</mi>
<mi>A</mi>
</msubsup>
<mo>;</mo>
<msubsup>
<mi>&theta;</mi>
<mn>1</mn>
<mrow>
<mi>S</mi>
<mi>C</mi>
</mrow>
</msubsup>
<mo>)</mo>
</mrow>
<mo>,</mo>
<msub>
<mi>f</mi>
<mrow>
<mi>C</mi>
<mi>N</mi>
<mi>N</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<msubsup>
<mi>I</mi>
<mi>n</mi>
<mi>B</mi>
</msubsup>
<mo>;</mo>
<msubsup>
<mi>&theta;</mi>
<mn>1</mn>
<mrow>
<mi>S</mi>
<mi>C</mi>
</mrow>
</msubsup>
<mo>)</mo>
</mrow>
<mo>}</mo>
</mrow>
其中,为输入图像对的语义特征表示,fCNN表示卷积操作,为待学习参数;
颜色纹理空间分布特征表示提取单元,用于提取图像数据在RGB、HSV、SILTP各通道的空间分布特征,并通过由三层卷积层和三层最大化池化层构成的卷积神经网络进行特征的抽象表示,得到图像数据的颜色纹理空间分布特征表示:
<mfenced open = "" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>CTM</mi>
<mi>n</mi>
</msub>
<mo>=</mo>
<mi>C</mi>
<mi>o</mi>
<mi>n</mi>
<mi>c</mi>
<mi>a</mi>
<mi>t</mi>
<mrow>
<mo>{</mo>
<mrow>
<msubsup>
<mi>CTM</mi>
<mi>n</mi>
<mrow>
<mi>C</mi>
<mi>o</mi>
<mi>l</mi>
<mi>o</mi>
<mi>r</mi>
</mrow>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>CTM</mi>
<mi>n</mi>
<mrow>
<mi>T</mi>
<mi>e</mi>
<mi>x</mi>
<mi>t</mi>
<mi>u</mi>
<mi>r</mi>
<mi>e</mi>
</mrow>
</msubsup>
</mrow>
<mo>}</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<mi>C</mi>
<mi>o</mi>
<mi>n</mi>
<mi>c</mi>
<mi>a</mi>
<mi>t</mi>
<mrow>
<mo>{</mo>
<mrow>
<msubsup>
<mi>CTMM</mi>
<mrow>
<mi>R</mi>
<mi>G</mi>
<mi>B</mi>
<mi>H</mi>
<mi>S</mi>
<mi>V</mi>
</mrow>
<mrow>
<mi>k</mi>
<mo>=</mo>
<mn>8</mn>
<mo>&times;</mo>
<mn>8</mn>
<mo>,</mo>
<mi>s</mi>
<mo>=</mo>
<mn>4</mn>
<mo>,</mo>
<mi>b</mi>
<mo>=</mo>
<mn>8</mn>
</mrow>
</msubsup>
<mrow>
<mo>(</mo>
<msub>
<mi>I</mi>
<mi>n</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>,</mo>
<msubsup>
<mi>CTMM</mi>
<mrow>
<mi>S</mi>
<mi>I</mi>
<mi>L</mi>
<mi>T</mi>
<mi>P</mi>
</mrow>
<mrow>
<mi>k</mi>
<mo>=</mo>
<mn>8</mn>
<mo>&times;</mo>
<mn>8</mn>
<mo>,</mo>
<mi>s</mi>
<mo>=</mo>
<mn>4</mn>
<mo>,</mo>
<mi>b</mi>
<mo>=</mo>
<mn>16</mn>
</mrow>
</msubsup>
<mrow>
<mo>(</mo>
<msub>
<mi>I</mi>
<mi>n</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
<mo>}</mo>
</mrow>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mrow>
<msub>
<mrow>
<mo>{</mo>
<mrow>
<msubsup>
<mi>R</mi>
<mi>n</mi>
<mi>A</mi>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>R</mi>
<mi>n</mi>
<mi>B</mi>
</msubsup>
</mrow>
<mo>}</mo>
</mrow>
<mrow>
<mi>C</mi>
<mi>T</mi>
<mi>M</mi>
</mrow>
</msub>
<mo>=</mo>
<mrow>
<mo>{</mo>
<mrow>
<msub>
<mi>f</mi>
<mrow>
<mi>C</mi>
<mi>N</mi>
<mi>N</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mrow>
<msubsup>
<mi>CTM</mi>
<mi>n</mi>
<mi>A</mi>
</msubsup>
<mo>;</mo>
<msubsup>
<mi>&theta;</mi>
<mn>1</mn>
<mrow>
<mi>C</mi>
<mi>T</mi>
<mi>M</mi>
</mrow>
</msubsup>
</mrow>
<mo>)</mo>
</mrow>
<mo>,</mo>
<msub>
<mi>f</mi>
<mrow>
<mi>C</mi>
<mi>N</mi>
<mi>N</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mrow>
<msubsup>
<mi>CTM</mi>
<mi>n</mi>
<mi>B</mi>
</msubsup>
<mo>;</mo>
<msubsup>
<mi>&theta;</mi>
<mn>1</mn>
<mrow>
<mi>C</mi>
<mi>T</mi>
<mi>M</mi>
</mrow>
</msubsup>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
<mo>}</mo>
</mrow>
</mrow>
其中CTMn为颜色纹理空间分布原始特征,CTMM表示上述颜色纹理空间分布原始特征的提取操作,其参数k、s和b分别表示CTMM操作的滑动窗大小、滑动步长和分桶个数,Concat表示在特征通道维度的特征拼接操作,为输入图像对的颜色纹理空间分布特征表示,fCNN为卷积操作,为待学习参数。
8.如权利要求7所述的系统,其特征在于所述一致性特征表示模块包括:
多尺度特征匹配学习单元,用于通过多尺度特征匹配学习得到语义特征表示和颜色纹理空间分布特征表示的一致性表示:
<mfenced open = "" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mrow>
<mi>p</mi>
<mi>p</mi>
<mi>m</mi>
<mo>_</mo>
<mi>s</mi>
<mi>c</mi>
</mrow>
</msubsup>
<mo>=</mo>
<msub>
<mrow>
<mo>{</mo>
<mrow>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mrow>
<mi>r</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mrow>
<mi>r</mi>
<mo>=</mo>
<mn>2</mn>
</mrow>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mrow>
<mi>r</mi>
<mo>=</mo>
<mn>3</mn>
</mrow>
</msubsup>
</mrow>
<mo>}</mo>
</mrow>
<mrow>
<mi>S</mi>
<mi>C</mi>
</mrow>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<mrow>
<mo>{</mo>
<mrow>
<msub>
<mi>f</mi>
<mrow>
<mi>C</mi>
<mi>N</mi>
<mi>N</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mrow>
<msub>
<mrow>
<mo>{</mo>
<mrow>
<msubsup>
<mi>R</mi>
<mi>n</mi>
<mi>A</mi>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>R</mi>
<mi>n</mi>
<mi>B</mi>
</msubsup>
</mrow>
<mo>}</mo>
</mrow>
<mrow>
<mi>S</mi>
<mi>C</mi>
</mrow>
</msub>
<mo>;</mo>
<msubsup>
<mi>&theta;</mi>
<mn>2</mn>
<mrow>
<mi>S</mi>
<mi>C</mi>
</mrow>
</msubsup>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
<mo>}</mo>
</mrow>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mfenced open = "" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mrow>
<mi>p</mi>
<mi>p</mi>
<mi>m</mi>
<mo>_</mo>
<mi>c</mi>
<mi>t</mi>
<mi>m</mi>
</mrow>
</msubsup>
<mo>=</mo>
<msub>
<mrow>
<mo>{</mo>
<mrow>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mrow>
<mi>r</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mrow>
<mi>r</mi>
<mo>=</mo>
<mn>2</mn>
</mrow>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mrow>
<mi>r</mi>
<mo>=</mo>
<mn>3</mn>
</mrow>
</msubsup>
</mrow>
<mo>}</mo>
</mrow>
<mrow>
<mi>C</mi>
<mi>T</mi>
<mi>M</mi>
</mrow>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<mrow>
<mo>{</mo>
<mrow>
<msub>
<mi>f</mi>
<mrow>
<mi>C</mi>
<mi>N</mi>
<mi>N</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mrow>
<msub>
<mrow>
<mo>{</mo>
<mrow>
<msubsup>
<mi>R</mi>
<mi>n</mi>
<mi>A</mi>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>R</mi>
<mi>n</mi>
<mi>B</mi>
</msubsup>
</mrow>
<mo>}</mo>
</mrow>
<mrow>
<mi>C</mi>
<mi>T</mi>
<mi>M</mi>
</mrow>
</msub>
<mo>;</mo>
<msubsup>
<mi>&theta;</mi>
<mn>2</mn>
<mrow>
<mi>C</mi>
<mi>T</mi>
<mi>M</mi>
</mrow>
</msubsup>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
<mo>}</mo>
</mrow>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
其中和分别为语义特征一致性表示和颜色纹理空间分布特征一致性表示,r=1,2,3为带孔卷积的孔率,为孔率为r时的特征一致性表示,为卷积孔率为r时的参数,和分别表示该语义特征匹配和颜色纹理空间分布特征匹配的待学习参数;
一致性特征融合单元,用于由所述多尺度特征匹配学习单元得到的通过学习表征不同尺度下语义特征表示的一致性特征权重和颜色纹理空间分布特征表示的一致性特征权重进一步将不同尺度下的一致性特征进行融合,并利用卷积和最大化池化层进一步地获取最具有判决力的一致性信息,从而获得整体的一致性特征表示:
<mfenced open = "" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mrow>
<mi>f</mi>
<mi>i</mi>
<mi>n</mi>
<mi>a</mi>
<mi>l</mi>
</mrow>
</msubsup>
<mo>=</mo>
<msub>
<mi>f</mi>
<mrow>
<mi>C</mi>
<mi>N</mi>
<mi>N</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mrow>
<mo>{</mo>
<mrow>
<mrow>
<mo>{</mo>
<mrow>
<msub>
<mrow>
<mo>{</mo>
<mrow>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mrow>
<mi>r</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mrow>
<mi>r</mi>
<mo>=</mo>
<mn>2</mn>
</mrow>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mrow>
<mi>r</mi>
<mo>=</mo>
<mn>3</mn>
</mrow>
</msubsup>
</mrow>
<mo>}</mo>
</mrow>
<mrow>
<mi>S</mi>
<mi>C</mi>
</mrow>
</msub>
<mo>;</mo>
<msubsup>
<mi>&theta;</mi>
<mn>3</mn>
<mrow>
<mi>S</mi>
<mi>C</mi>
</mrow>
</msubsup>
</mrow>
<mo>}</mo>
</mrow>
<mo>,</mo>
<mrow>
<mo>{</mo>
<mrow>
<msub>
<mrow>
<mo>{</mo>
<mrow>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mrow>
<mi>r</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mrow>
<mi>r</mi>
<mo>=</mo>
<mn>2</mn>
</mrow>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mrow>
<mi>r</mi>
<mo>=</mo>
<mn>3</mn>
</mrow>
</msubsup>
</mrow>
<mo>}</mo>
</mrow>
<mrow>
<mi>C</mi>
<mi>T</mi>
<mi>M</mi>
</mrow>
</msub>
<mo>;</mo>
<msubsup>
<mi>&theta;</mi>
<mn>3</mn>
<mrow>
<mi>C</mi>
<mi>T</mi>
<mi>M</mi>
</mrow>
</msubsup>
</mrow>
<mo>}</mo>
</mrow>
<mo>;</mo>
<msub>
<mi>&theta;</mi>
<mn>3</mn>
</msub>
</mrow>
<mo>}</mo>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<msub>
<mi>f</mi>
<mrow>
<mi>C</mi>
<mi>N</mi>
<mi>N</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mrow>
<mrow>
<mo>{</mo>
<mrow>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mrow>
<mi>p</mi>
<mi>p</mi>
<mi>m</mi>
<mo>_</mo>
<mi>s</mi>
<mi>c</mi>
</mrow>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mrow>
<mi>p</mi>
<mi>p</mi>
<mi>m</mi>
<mo>_</mo>
<mi>c</mi>
<mi>t</mi>
<mi>m</mi>
</mrow>
</msubsup>
</mrow>
<mo>}</mo>
</mrow>
<mo>;</mo>
<mrow>
<mo>{</mo>
<mrow>
<msubsup>
<mi>&theta;</mi>
<mn>3</mn>
<mrow>
<mi>S</mi>
<mi>C</mi>
</mrow>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>&theta;</mi>
<mn>3</mn>
<mrow>
<mi>C</mi>
<mi>T</mi>
<mi>M</mi>
</mrow>
</msubsup>
<mo>,</mo>
<msub>
<mi>&theta;</mi>
<mn>3</mn>
</msub>
</mrow>
<mo>}</mo>
</mrow>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
其中,θ3为表征不同尺度下和来自不同通道的一致性特征权重的待学习参数;
编码单元,用于通过所述一致性特征融合单元得到的一致性特征表示进一步使用两层全连接层来编码原特征,获取一个1024维的一致性特征向量。
9.如权利要求8所述的系统,其特征在于所述多尺度特征匹配学习单元中,多尺度特征匹配学习通过控制带孔卷积操作的孔率分别为1、2、3来提供3×3、5×5和7×7的感受野,以自适应地匹配不同尺度空间偏移的组件。
10.如权利要求8或9所述的系统,其特征在于所述概率表示输出模块包括:
目标概率获取单元,用于使用一个包含两个节点的softmax层作为判决输入图像对是否属于同一个目标的二分类决策层从而得到表征输入图像对描述同一个目标的概率:
<mrow>
<msub>
<mi>p</mi>
<mi>n</mi>
</msub>
<mo>=</mo>
<mfrac>
<mrow>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mn>1</mn>
</msubsup>
<mo>(</mo>
<mrow>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mrow>
<mi>f</mi>
<mi>i</mi>
<mi>n</mi>
<mi>a</mi>
<mi>l</mi>
</mrow>
</msubsup>
<mo>;</mo>
<msub>
<mi>&theta;</mi>
<mn>4</mn>
</msub>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mn>0</mn>
</msubsup>
<mo>(</mo>
<mrow>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mrow>
<mi>f</mi>
<mi>i</mi>
<mi>n</mi>
<mi>a</mi>
<mi>l</mi>
</mrow>
</msubsup>
<mo>;</mo>
<msub>
<mi>&theta;</mi>
<mn>4</mn>
</msub>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mn>1</mn>
</msubsup>
<mo>(</mo>
<mrow>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mrow>
<mi>f</mi>
<mi>i</mi>
<mi>n</mi>
<mi>a</mi>
<mi>l</mi>
</mrow>
</msubsup>
<mo>;</mo>
<msub>
<mi>&theta;</mi>
<mn>4</mn>
</msub>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
</mrow>
整个框架可以表示为:
<mfenced open = "" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>S</mi>
<mi>n</mi>
</msub>
<mrow>
<mo>(</mo>
<msubsup>
<mi>S</mi>
<mi>n</mi>
<mrow>
<mi>f</mi>
<mi>i</mi>
<mi>n</mi>
<mi>a</mi>
<mi>l</mi>
</mrow>
</msubsup>
<mo>;</mo>
<msub>
<mi>&theta;</mi>
<mn>4</mn>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<msub>
<mi>f</mi>
<mrow>
<mi>C</mi>
<mi>N</mi>
<mi>N</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mrow>
<mrow>
<mo>{</mo>
<mrow>
<msubsup>
<mi>I</mi>
<mi>n</mi>
<mi>A</mi>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>I</mi>
<mi>n</mi>
<mi>B</mi>
</msubsup>
</mrow>
<mo>}</mo>
</mrow>
<mo>;</mo>
<mrow>
<mo>{</mo>
<mrow>
<mrow>
<mo>{</mo>
<mrow>
<msubsup>
<mi>&theta;</mi>
<mn>1</mn>
<mrow>
<mi>S</mi>
<mi>C</mi>
</mrow>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>&theta;</mi>
<mn>2</mn>
<mrow>
<mi>S</mi>
<mi>C</mi>
</mrow>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>&theta;</mi>
<mn>3</mn>
<mrow>
<mi>S</mi>
<mi>C</mi>
</mrow>
</msubsup>
</mrow>
<mo>}</mo>
</mrow>
<mo>,</mo>
<mrow>
<mo>{</mo>
<mrow>
<msubsup>
<mi>&theta;</mi>
<mn>1</mn>
<mrow>
<mi>C</mi>
<mi>T</mi>
<mi>M</mi>
</mrow>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>&theta;</mi>
<mn>2</mn>
<mrow>
<mi>C</mi>
<mi>T</mi>
<mi>M</mi>
</mrow>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>&theta;</mi>
<mn>3</mn>
<mrow>
<mi>C</mi>
<mi>T</mi>
<mi>M</mi>
</mrow>
</msubsup>
</mrow>
<mo>}</mo>
</mrow>
<mo>,</mo>
<msub>
<mi>&theta;</mi>
<mn>4</mn>
</msub>
</mrow>
<mo>}</mo>
</mrow>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<msub>
<mi>f</mi>
<mrow>
<mi>C</mi>
<mi>N</mi>
<mi>N</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mrow>
<mrow>
<mo>{</mo>
<mrow>
<msubsup>
<mi>I</mi>
<mi>n</mi>
<mi>A</mi>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>I</mi>
<mi>n</mi>
<mi>B</mi>
</msubsup>
</mrow>
<mo>}</mo>
</mrow>
<mo>;</mo>
<mi>&theta;</mi>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
其中,θ4是上述决策过程中的待学习参数;
框架优化单元,用于通过最小化分类交叉熵损失来优化整个框架直到收敛,优化的目标函数如下:
<mrow>
<msub>
<mi>L</mi>
<mi>&theta;</mi>
</msub>
<mo>=</mo>
<mo>-</mo>
<mfrac>
<mn>1</mn>
<mi>N</mi>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>n</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>N</mi>
</munderover>
<mo>&lsqb;</mo>
<msub>
<mi>l</mi>
<mi>n</mi>
</msub>
<mi>log</mi>
<mi> </mi>
<msub>
<mi>p</mi>
<mi>n</mi>
</msub>
<mo>+</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<msub>
<mi>l</mi>
<mi>n</mi>
</msub>
<mo>)</mo>
</mrow>
<mi>l</mi>
<mi>o</mi>
<mi>g</mi>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<msub>
<mi>p</mi>
<mi>n</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>&rsqb;</mo>
</mrow>
结果输出单元,用于将学习到的待学习参数θ1,θ2,θ3,θ4代入整体网络框架中,输入测试图像对即得到其最终描述同一目标的概率估计值
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810030307.4A CN108090472B (zh) | 2018-01-12 | 2018-01-12 | 基于多通道一致性特征的行人重识别方法及其系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810030307.4A CN108090472B (zh) | 2018-01-12 | 2018-01-12 | 基于多通道一致性特征的行人重识别方法及其系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108090472A true CN108090472A (zh) | 2018-05-29 |
CN108090472B CN108090472B (zh) | 2021-05-04 |
Family
ID=62182165
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810030307.4A Active CN108090472B (zh) | 2018-01-12 | 2018-01-12 | 基于多通道一致性特征的行人重识别方法及其系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108090472B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109460815A (zh) * | 2018-10-25 | 2019-03-12 | 浙江科技学院 | 一种单目视觉深度估计方法 |
CN109472360A (zh) * | 2018-10-30 | 2019-03-15 | 北京地平线机器人技术研发有限公司 | 神经网络的更新方法、更新装置和电子设备 |
CN109919917A (zh) * | 2019-02-21 | 2019-06-21 | 国网山东省电力公司临沂供电公司 | 基于图像处理的架空输电线路的异物检测方法 |
CN111598117A (zh) * | 2019-02-21 | 2020-08-28 | 成都通甲优博科技有限责任公司 | 图像识别方法及装置 |
CN111739079A (zh) * | 2020-06-18 | 2020-10-02 | 东华理工大学 | 一种基于语义特征多源低空立体像对快速匹配方法 |
CN111858346A (zh) * | 2020-07-23 | 2020-10-30 | 深圳慕智科技有限公司 | 一种基于深度学习测试数据集的数据质量多维评估技术 |
CN112258483A (zh) * | 2020-10-23 | 2021-01-22 | 哈尔滨市科佳通用机电股份有限公司 | 一种钩尾销插托错位和螺母丢失故障检测方法 |
CN112508038A (zh) * | 2020-12-03 | 2021-03-16 | 江苏科技大学 | 一种跨通道局部二值模式的彩色纹理分类方法 |
CN112560831A (zh) * | 2021-03-01 | 2021-03-26 | 四川大学 | 一种基于多尺度空间校正的行人属性识别方法 |
CN113177539A (zh) * | 2021-06-30 | 2021-07-27 | 之江实验室 | 一种遮挡行人特征提取与行人重识别方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102880873A (zh) * | 2012-08-31 | 2013-01-16 | 公安部第三研究所 | 基于图像分割和语义提取实现人员行为识别的系统及方法 |
CN105224937A (zh) * | 2015-11-13 | 2016-01-06 | 武汉大学 | 基于人体部件位置约束的细粒度语义色彩行人重识别方法 |
CN105518744A (zh) * | 2015-06-29 | 2016-04-20 | 北京旷视科技有限公司 | 行人再识别方法及设备 |
CN107145845A (zh) * | 2017-04-26 | 2017-09-08 | 中山大学 | 基于深度学习及多特征点融合的行人检测方法 |
CN107273872A (zh) * | 2017-07-13 | 2017-10-20 | 北京大学深圳研究生院 | 用于图像或视频中行人重识别的深度判别网络模型方法 |
CN107301380A (zh) * | 2017-06-01 | 2017-10-27 | 华南理工大学 | 一种用于视频监控场景中行人重识别的方法 |
-
2018
- 2018-01-12 CN CN201810030307.4A patent/CN108090472B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102880873A (zh) * | 2012-08-31 | 2013-01-16 | 公安部第三研究所 | 基于图像分割和语义提取实现人员行为识别的系统及方法 |
CN105518744A (zh) * | 2015-06-29 | 2016-04-20 | 北京旷视科技有限公司 | 行人再识别方法及设备 |
CN105224937A (zh) * | 2015-11-13 | 2016-01-06 | 武汉大学 | 基于人体部件位置约束的细粒度语义色彩行人重识别方法 |
CN107145845A (zh) * | 2017-04-26 | 2017-09-08 | 中山大学 | 基于深度学习及多特征点融合的行人检测方法 |
CN107301380A (zh) * | 2017-06-01 | 2017-10-27 | 华南理工大学 | 一种用于视频监控场景中行人重识别的方法 |
CN107273872A (zh) * | 2017-07-13 | 2017-10-20 | 北京大学深圳研究生院 | 用于图像或视频中行人重识别的深度判别网络模型方法 |
Non-Patent Citations (4)
Title |
---|
D. LI, X. CHEN, Z. ZHANG AND K. HUANG: "Learning Deep Context-Aware Features over Body and Latent Parts for Person Re-identification", 《 2017 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 * |
EMNA FENDRI ETC: "Multi-level semantic appearance representation for person", 《SCIENCEDIRECT》 * |
Y. CHEN, S. DUFFNER, A. STOIAN, J. DUFOUR AND A. BASKURT: "Triplet CNN and pedestrian attribute recognition for improved person re-identification", 《 2017 14TH IEEE INTERNATIONAL CONFERENCE ON ADVANCED VIDEO AND SIGNAL BASED SURVEILLANCE (AVSS)》 * |
袁立,田子茹: "基于融合特征的行人再识别方法", 《模式识别与人工智能》 * |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109460815A (zh) * | 2018-10-25 | 2019-03-12 | 浙江科技学院 | 一种单目视觉深度估计方法 |
CN109460815B (zh) * | 2018-10-25 | 2021-12-10 | 浙江科技学院 | 一种单目视觉深度估计方法 |
CN109472360A (zh) * | 2018-10-30 | 2019-03-15 | 北京地平线机器人技术研发有限公司 | 神经网络的更新方法、更新装置和电子设备 |
US11328180B2 (en) | 2018-10-30 | 2022-05-10 | Beijing Horizon Robotics Technology Research And Development Co., Ltd. | Method for updating neural network and electronic device |
CN109472360B (zh) * | 2018-10-30 | 2020-09-04 | 北京地平线机器人技术研发有限公司 | 神经网络的更新方法、更新装置和电子设备 |
CN111598117B (zh) * | 2019-02-21 | 2023-06-30 | 成都通甲优博科技有限责任公司 | 图像识别方法及装置 |
CN111598117A (zh) * | 2019-02-21 | 2020-08-28 | 成都通甲优博科技有限责任公司 | 图像识别方法及装置 |
CN109919917A (zh) * | 2019-02-21 | 2019-06-21 | 国网山东省电力公司临沂供电公司 | 基于图像处理的架空输电线路的异物检测方法 |
CN111739079A (zh) * | 2020-06-18 | 2020-10-02 | 东华理工大学 | 一种基于语义特征多源低空立体像对快速匹配方法 |
CN111739079B (zh) * | 2020-06-18 | 2022-10-11 | 东华理工大学 | 一种基于语义特征多源低空立体像对快速匹配方法 |
CN111858346A (zh) * | 2020-07-23 | 2020-10-30 | 深圳慕智科技有限公司 | 一种基于深度学习测试数据集的数据质量多维评估技术 |
CN112258483A (zh) * | 2020-10-23 | 2021-01-22 | 哈尔滨市科佳通用机电股份有限公司 | 一种钩尾销插托错位和螺母丢失故障检测方法 |
CN112258483B (zh) * | 2020-10-23 | 2021-07-06 | 哈尔滨市科佳通用机电股份有限公司 | 一种钩尾销插托错位和螺母丢失故障检测方法 |
CN112508038A (zh) * | 2020-12-03 | 2021-03-16 | 江苏科技大学 | 一种跨通道局部二值模式的彩色纹理分类方法 |
CN112508038B (zh) * | 2020-12-03 | 2022-11-08 | 江苏科技大学 | 一种跨通道局部二值模式的彩色纹理分类方法 |
CN112560831B (zh) * | 2021-03-01 | 2021-05-04 | 四川大学 | 一种基于多尺度空间校正的行人属性识别方法 |
CN112560831A (zh) * | 2021-03-01 | 2021-03-26 | 四川大学 | 一种基于多尺度空间校正的行人属性识别方法 |
CN113177539A (zh) * | 2021-06-30 | 2021-07-27 | 之江实验室 | 一种遮挡行人特征提取与行人重识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108090472B (zh) | 2021-05-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108090472A (zh) | 基于多通道一致性特征的行人重识别方法及其系统 | |
CN110781838B (zh) | 一种复杂场景下行人的多模态轨迹预测方法 | |
CN109063666A (zh) | 基于深度可分离卷积的轻量化人脸识别方法及系统 | |
CN110413844A (zh) | 基于时空注意力深度模型的动态链路预测方法 | |
CN109978918A (zh) | 一种轨迹追踪方法、装置和存储介质 | |
CN111914907A (zh) | 一种基于深度学习空谱联合网络的高光谱图像分类方法 | |
CN107644235A (zh) | 基于半监督学习的图像自动标注方法 | |
CN108388876A (zh) | 一种图像识别方法、装置以及相关设备 | |
CN106096568A (zh) | 一种基于cnn和卷积lstm网络的行人再识别方法 | |
CN108345900A (zh) | 基于颜色纹理分布特征的行人重识别方法及其系统 | |
CN105095870A (zh) | 基于迁移学习的行人重识别方法 | |
CN109598268A (zh) | 一种基于单流深度网络的rgb-d显著目标检测方法 | |
CN107871105A (zh) | 一种人脸认证方法和装置 | |
CN106570464A (zh) | 一种快速处理人脸遮挡的人脸识别方法及装置 | |
CN112395442B (zh) | 移动互联网上的低俗图片自动识别与内容过滤方法 | |
CN107122796A (zh) | 一种基于多分支网络融合模型的光学遥感图像分类方法 | |
CN110222634A (zh) | 一种基于卷积神经网络的人体姿态识别方法 | |
CN113128424B (zh) | 基于注意力机制的图卷积神经网络动作识别方法 | |
CN109145974A (zh) | 一种基于图文匹配的多层次图像特征融合方法 | |
CN115223082A (zh) | 一种基于时空多尺度Transformer的航拍视频分类方法 | |
CN107818299A (zh) | 基于融合hog特征和深度信念网络的人脸识别算法 | |
CN112434608A (zh) | 一种基于双流结合网络的人体行为识别方法及系统 | |
CN113705290A (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
CN110175248A (zh) | 一种基于深度学习和哈希编码的人脸图像检索方法和装置 | |
CN114387641A (zh) | 基于多尺度卷积网络和ViT的虚假视频检测方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |