CN107679461A - 基于对偶综合‑解析字典学习的行人再识别方法 - Google Patents
基于对偶综合‑解析字典学习的行人再识别方法 Download PDFInfo
- Publication number
- CN107679461A CN107679461A CN201710816499.7A CN201710816499A CN107679461A CN 107679461 A CN107679461 A CN 107679461A CN 201710816499 A CN201710816499 A CN 201710816499A CN 107679461 A CN107679461 A CN 107679461A
- Authority
- CN
- China
- Prior art keywords
- msub
- mrow
- msubsup
- pedestrian
- antithesis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/28—Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明设计了一种基于对偶综合‑解析字典学习的行人再识别方法,其主要技术特点是:从行人再识别数据中提取行人图像特征;采用局部Fisher判决分析方法将不同摄像机视角下的行人图像特征投影到公共特征空间;运用对偶综合‑解析字典学习算法,在公共特征空间中学习对偶综合字典和对偶解析字典;建立行人匹配模型,并利用改进余弦公式进行行人距离计算。本发明设计合理,其通过在原始对偶综合字典学习中引入对偶解析字典,解析字典拥有判决能力,提高了综合字典的数据表示能力,使得字典能够更有效的表示数据的本征结构,获得了有效的再识别性能。
Description
技术领域
本发明属于视觉识别技术领域,尤其是一种基于对偶综合-解析字典学习的行人再识别方法。
背景技术
随着安全监控摄像头的不断增多以及视频采集技术和大规模数据存储的快速发展,使得人工识别监控画面面临着大量的困难和挑战,从而令计算机视觉中的行人再识别技术得到了广泛的关注。
行人再识别技术其目的是在非重叠区域的多个摄像头中,识别同一个人。由于摄像头采集的视频内容的丰富和多样化,因此存在许多挑战,例如强烈的光照变化、物体遮挡、亮度变化以及低像素画面,这些挑战使得现有的行人再识别技术所能达到的识别准确率较低。
针对上述挑战,现有的识别方法主要分为两类:一是鲁棒特征提取方法;二是距离度量方法。然而,摄像头的多变条件变化约束了这两种方法的数据表示能力。近年来,字典学习展现了强大的数据表示能力,并在计算机视觉中得到了广泛的应用。其中对偶字典学习方法在行人再识别这种交叉视角问题中取得一定的效果,然而,传统的对偶字典学习方法属于对偶综合字典学习方法,所学得的字典不仅要有数据表示能力,还要有判决能力。这种方法降低了字典学习本身的表示能力,使得字典很难挖掘数据的固有结构。因此,如何提高综合字典的数据表示能力成为了一个关键研究问题。
发明内容
本发明的目地在于克服现有技术的不足,提出一种设计合理、能够提高综合字典的数据表示能力的基于对偶综合-解析字典学习的行人再识别方法。
本发明解决其技术问题是采取以下技术方案实现的:
一种基于对偶综合-解析字典学习的行人再识别方法,包括以下步骤:
步骤1、从行人再识别数据中提取行人图像特征;
步骤2、采用局部Fisher判决分析方法将不同摄像机视角下的行人图像特征投影到公共特征空间;
步骤3、运用对偶综合-解析字典学习算法,在公共特征空间中学习对偶综合字典和对偶解析字典;
步骤4、建立行人匹配模型,并利用改进余弦公式进行行人距离计算。
所述步骤1提取的行人图像特征为LOMO特征,具体提取方法为:首先,将图像按垂直方向分为水平的条状区域,将每个条状区域分成各个小块;然后,对该条状区域的每个小块进行直方图特征提取,对每个直方取最大值,得到该条状区域的直方图特征;最后,将图像的所有水平区域的直方图特征进行串联,得到该图像的LOMO特征。
所述直方图特征包括HSV颜色域的直方图以及SILTP纹理特征直方图。
所述步骤2的实现方法为:给定训练数据集,使用局部Fisher判决分析学习转换矩阵T,并将原始特征向量通过T转换进入公共特征空间。
所述步骤3的具体实现方法包括以下步骤:
步骤3.1、建立如下对偶综合-解析字典学习模型:
其中,||·||F为矩阵的F-范数,d为字典原子,XA和XB为相机A和相机B的行人图像训练数据,PA和PB是具有判决能力的对偶解析字典,DA和DB为具有数据表示能力对偶综合字典;PA和DA形成一个对偶综合-解析字典对,通过联合学习PA和DA,得到编码系数矩阵ZA=PAXA,并且运用综合字典DA重构训练数据XA≈DAZA;
步骤3.2、建立如下总体目标函数:
其中,λ1和λ2为正则化参数,一旦和被得到,对偶综合-解析字典学习能够被更新,从而解析编码系数并重构行人图像;
步骤3.3、对总体目标函数进行优化更新:
引入附加变量ZA和ZB,采用变更迭代优化更新所有变量,对于变量PA,PB,WA,WB,ZA,ZB,所求得的为封闭解,对于DA和DB,采用ADMM算法实现。
所述步骤4的具体实现方法包括以下步骤:
步骤4.1、根据综合字典DA和DB,给定备选集和查询集,备选集第j个图像为pA,j,查询集第k个图像为pB,k,采用如下方法计算行人特征的编码表示系数:
其中,αA,j和αB,k分别为来自摄像头A与摄像头B的行人特征编码表示系数,μ为正则化系数。
步骤4.2、采用下述改进余弦公式计算行人间距,并进行排列,实现行人再识别功能:
其中,ε为较小的正数,防止分母出现零的情况。
本发明的优点和积极效果是:
本发明设计合理,其通过在原始对偶综合字典学习中引入对偶解析字典,解析字典拥有判决能力,提高了综合字典的数据表示能力,使得字典能够更有效的表示数据的本征结构,获得了有效的再识别性能。本方法在公开的数据库上进行了测试,实验表明提出的方法优于目前其他的行人再识别算法。
附图说明
图1是本发明的处理流程图;
图2a是采用不同算法在图像序列数据集VIPeR上的CMC曲线图;
图2b是采用不同算法在图像序列数据集CUHK01上的CMC曲线图。
具体实施方式
以下结合附图对本发明实例做进一步详述。
一种基于对偶综合-解析字典学习的行人再识别方法,如图1所示,包括以下步骤:
步骤1、从行人再识别数据中提取行人图像特征,运用的特征提取方法为LOMO特征。
在本步骤中,分别提取不同视角下的行人图像的LOMO特征。在提取LOMO特征时,首先,将图像按垂直方向分为水平的条状区域,将每个条状区域分成各个小块,然后对每个小块进行直方图特征提取(取得单个条状区域的所有直方图),其中包括HSV颜色域的直方图以及SILTP纹理特征直方图。然后,对每个直方取最大值,得到该区域的直方特征。最后将图像的所有水平区域按前面所述方法得到的直方图特征进行串联,则得到该图像的LOMO特征。
LOMO特征描述了水平方向上的局部最大可能代表该区域的特征,对视角变化等问题有很强的鲁棒性。由于LOMO特征所得到的串联特征数据有上万维,因此采用了PCA对所有训练图像特征进行数据降维。
步骤2、采用局部Fisher判决分析方法将不同摄像机视角下的行人图像特征投影到公共特征空间。
局部Fisher判决分析不仅能最小化类内离散度,最大化类间离散度,同时还能保持数据之间的局部几何结构。因此给定训练数据集,使用局部Fisher判决分析学习转换矩阵T,并将原始特征向量通过T转换进入公共特征空间。
步骤3、运用对偶综合-解析字典学习算法,在公共特征空间中学习对偶综合字典和对偶解析字典。
步骤3.1:建立对偶综合-解析字典学习模型,该模型的总体框架如下:
其中,||·||F为矩阵的F-范数,d为字典原子,XA和XB为相机A和相机B的行人图像训练数据,PA和PB是对偶解析字典,具有判决能力;DA和DB对偶综合字典,具有数据表示能力。PA和DA形成了一个对偶综合-解析字典对,通过联合学习PA和DA,得到编码系数矩阵ZA=PAXA,同时可以运用综合字典DA重构训练数据XA≈DAZA。相机B的处理过程与A相同。框架的最后一项是联系函数,该函数具有判决能力,能够更好的描述交叉视角数据的固有结构。
步骤3.2:设定对偶字典学习的假设条件为:存在隐藏的对偶特征空间使得相同目标的编码系数严格相等,该假设条件太绝对,而不同原始空间中的目标数据拥有各种结构,很难达到严格相等的目的,因此,本发明松弛该假设,利用一对解析字典学习这个隐藏对偶特征空间。即本发明引入一个映射转换WA和WB,并考虑下面最小化问题
其中MA和MB为投影到对偶特征空间后的数据,保证上述公式最小化,即表示相同的人在对偶特征空间中的距离更近。
为了避免平凡解,使得表述更精确,本发明推导如下过程:对于相同的人m,
因此,可以得到最后的总体目标函数为:
其中,λ1和λ2为正则化参数,一旦和被得到,对偶综合-解析字典学习能够被更新,从而解析编码系数并重构行人图像。
步骤3.3:对上述目标函数进行优化更新
引入附加变量ZA和ZB,本发明采用变更迭代优化更新所有变量。对于变量PA,PB,WA,WB,ZA,ZB,所求得的为封闭解,对于DA和DB,采用ADMM算法。
步骤4、建立行人匹配模型,并利用改进余弦公式进行行人距离计算。
步骤4.1:根据综合字典DA和DB,采用如下方法计算行人特征的编码表示系数。
给定备选集和查询集,备选集第j个图像为pA,j,查询集第k个图像为pB,k,因此运用如下公式求得表示系数:
其中,αA,j和αB,k分别为来自摄像头A与摄像头B的行人特征编码表示系数,μ为正则化系数。
步骤4.2:求得行人图像的表示系数后,采用下述改进余弦距离计算行人间距,并进行排列,达到行人再识别目的。
其中,ε为较小的正数,防止分母出现零的情况。
下面按照本发明方法进行实验,说明本发明的实际效果。
测试环境:MATLAB R2016a
测试数据:所选数据集是用于行人再识别的图像序列数据集VIPeR和CUHK01。
测试指标:
本发明使用了Cumulated Matching Characteristics(CMC)曲线作为评价指标,该指标表示正确匹配的样本在备选集中相似度的排名。测试结果如表1和表2所示,并形成如图2a、图2b所示的不同算法在两种图像序列数据集上的CMC曲线图,CMC曲线越接近100%性能越好,可以看出本发明的性能曲线明显好于其他算法。
表1
表2
需要强调的是,本发明所述的实施例是说明性的,而不是限定性的,因此本发明包括并不限于具体实施方式中所述的实施例,凡是由本领域技术人员根据本发明的技术方案得出的其他实施方式,同样属于本发明保护的范围。
Claims (6)
1.一种基于对偶综合-解析字典学习的行人再识别方法,其特征在于包括以下步骤:
步骤1、从行人再识别数据中提取行人图像特征;
步骤2、采用局部Fisher判决分析方法将不同摄像机视角下的行人图像特征投影到公共特征空间;
步骤3、运用对偶综合-解析字典学习算法,在公共特征空间中学习对偶综合字典和对偶解析字典;
步骤4、建立行人匹配模型,并利用改进余弦公式进行行人距离计算。
2.根据权利要求1所述的基于对偶综合-解析字典学习的行人再识别方法,其特征在于:所述步骤1提取的行人图像特征为LOMO特征,具体提取方法为:首先,将图像按垂直方向分为水平的条状区域,将每个条状区域分成各个小块;然后,对该条状区域的每个小块进行直方图特征提取,对每个直方取最大值,得到该条状区域的直方图特征;最后,将图像的所有水平区域的直方图特征进行串联,得到该图像的LOMO特征。
3.根据权利要求2所述的基于对偶综合-解析字典学习的行人再识别方法,其特征在于:所述直方图特征包括HSV颜色域的直方图以及SILTP纹理特征直方图。
4.根据权利要求1所述的基于对偶综合-解析字典学习的行人再识别方法,其特征在于:所述步骤2的实现方法为:给定训练数据集,使用局部Fisher判决分析学习转换矩阵T,并将原始特征向量通过T转换进入公共特征空间。
5.根据权利要求1所述的基于对偶综合-解析字典学习的行人再识别方法,其特征在于:所述步骤3的具体实现方法包括以下步骤:
步骤3.1、建立如下对偶综合-解析字典学习模型:
<mrow>
<munder>
<mrow>
<mi>m</mi>
<mi>i</mi>
<mi>n</mi>
</mrow>
<mrow>
<msub>
<mi>D</mi>
<mi>A</mi>
</msub>
<mo>,</mo>
<msub>
<mi>D</mi>
<mi>B</mi>
</msub>
<mo>,</mo>
<msub>
<mi>P</mi>
<mi>A</mi>
</msub>
<mo>,</mo>
<msub>
<mi>P</mi>
<mi>B</mi>
</msub>
</mrow>
</munder>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>X</mi>
<mi>A</mi>
</msub>
<mo>-</mo>
<msub>
<mi>D</mi>
<mi>A</mi>
</msub>
<msub>
<mi>P</mi>
<mi>A</mi>
</msub>
<msub>
<mi>X</mi>
<mi>A</mi>
</msub>
<mo>|</mo>
<msubsup>
<mo>|</mo>
<mi>F</mi>
<mn>2</mn>
</msubsup>
<mo>+</mo>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>X</mi>
<mi>B</mi>
</msub>
<mo>-</mo>
<msub>
<mi>D</mi>
<mi>B</mi>
</msub>
<msub>
<mi>P</mi>
<mi>B</mi>
</msub>
<msub>
<mi>X</mi>
<mi>B</mi>
</msub>
<mo>|</mo>
<msubsup>
<mo>|</mo>
<mi>F</mi>
<mn>2</mn>
</msubsup>
<mo>+</mo>
<mi>&Psi;</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>P</mi>
<mi>A</mi>
</msub>
<mo>,</mo>
<msub>
<mi>P</mi>
<mi>B</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
<mfenced open = "" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<mi>s</mi>
<mo>.</mo>
<mi>t</mi>
<mo>.</mo>
</mrow>
</mtd>
<mtd>
<mrow>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>d</mi>
<mrow>
<mi>A</mi>
<mo>,</mo>
<mi>i</mi>
</mrow>
</msub>
<mo>|</mo>
<msub>
<mo>|</mo>
<mn>2</mn>
</msub>
<mo>&le;</mo>
<mn>1</mn>
<mo>,</mo>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>d</mi>
<mrow>
<mi>B</mi>
<mo>,</mo>
<mi>i</mi>
</mrow>
</msub>
<mo>|</mo>
<mo>|</mo>
<mo>&le;</mo>
<mn>1</mn>
<mo>,</mo>
<mo>&ForAll;</mo>
<mi>i</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
其中,||·||F为矩阵的F-范数,d为字典原子,XA和XB为相机A和相机B的行人图像训练数据,PA和PB是具有判决能力的对偶解析字典,DA和DB为具有数据表示能力对偶综合字典;PA和DA形成一个对偶综合-解析字典对,通过联合学习PA和DA,得到编码系数矩阵ZA=PAXA,并且运用综合字典DA重构训练数据XA≈DAZA;
步骤3.2、建立如下总体目标函数:
<mfenced open = "" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<munder>
<munder>
<mi>min</mi>
<mrow>
<msub>
<mi>D</mi>
<mi>A</mi>
</msub>
<mo>,</mo>
<msub>
<mi>D</mi>
<mi>B</mi>
</msub>
<mo>,</mo>
<msub>
<mi>P</mi>
<mi>A</mi>
</msub>
<mo>,</mo>
<msub>
<mi>P</mi>
<mi>B</mi>
</msub>
<mo>,</mo>
</mrow>
</munder>
<mrow>
<msub>
<mi>W</mi>
<mi>A</mi>
</msub>
<mo>,</mo>
<msub>
<mi>W</mi>
<mi>B</mi>
</msub>
</mrow>
</munder>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>X</mi>
<mi>A</mi>
</msub>
<mo>-</mo>
<msub>
<mi>D</mi>
<mi>A</mi>
</msub>
<msub>
<mi>P</mi>
<mi>A</mi>
</msub>
<msub>
<mi>X</mi>
<mi>A</mi>
</msub>
<mo>|</mo>
<msubsup>
<mo>|</mo>
<mi>F</mi>
<mn>2</mn>
</msubsup>
<mo>+</mo>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>X</mi>
<mi>B</mi>
</msub>
<mo>-</mo>
<msub>
<mi>D</mi>
<mi>B</mi>
</msub>
<msub>
<mi>P</mi>
<mi>B</mi>
</msub>
<msub>
<mi>X</mi>
<mi>B</mi>
</msub>
<mo>|</mo>
<msubsup>
<mo>|</mo>
<mi>F</mi>
<mn>2</mn>
</msubsup>
<mo>+</mo>
<msub>
<mi>&lambda;</mi>
<mn>1</mn>
</msub>
<mrow>
<mo>(</mo>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>P</mi>
<mi>A</mi>
</msub>
<msub>
<mi>X</mi>
<mi>A</mi>
</msub>
<mo>-</mo>
<msup>
<msub>
<mi>W</mi>
<mi>A</mi>
</msub>
<mrow>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msup>
<msub>
<mi>M</mi>
<mi>B</mi>
</msub>
<mo>|</mo>
<msubsup>
<mo>|</mo>
<mi>F</mi>
<mn>2</mn>
</msubsup>
<mo>+</mo>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>P</mi>
<mi>B</mi>
</msub>
<msub>
<mi>X</mi>
<mi>B</mi>
</msub>
<mo>-</mo>
<msubsup>
<mi>W</mi>
<mi>B</mi>
<mrow>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msubsup>
<msub>
<mi>M</mi>
<mi>A</mi>
</msub>
<mo>|</mo>
<msubsup>
<mo>|</mo>
<mi>F</mi>
<mn>2</mn>
</msubsup>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mtable>
<mtr>
<mtd>
<mrow>
<mo>+</mo>
<msub>
<mi>&lambda;</mi>
<mn>2</mn>
</msub>
<mrow>
<mo>(</mo>
<mo>|</mo>
<mo>|</mo>
<msubsup>
<mi>W</mi>
<mi>A</mi>
<mrow>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msubsup>
<mo>|</mo>
<msubsup>
<mo>|</mo>
<mi>F</mi>
<mn>2</mn>
</msubsup>
<mo>+</mo>
<mo>|</mo>
<mo>|</mo>
<msubsup>
<mi>W</mi>
<mi>B</mi>
<mrow>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msubsup>
<mo>|</mo>
<msubsup>
<mo>|</mo>
<mi>F</mi>
<mn>2</mn>
</msubsup>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>s</mi>
<mo>.</mo>
<mi>t</mi>
<mo>.</mo>
</mrow>
</mtd>
<mtd>
<mrow>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>d</mi>
<mrow>
<mi>A</mi>
<mo>,</mo>
<mi>i</mi>
</mrow>
</msub>
<mo>|</mo>
<msub>
<mo>|</mo>
<mn>2</mn>
</msub>
<mo>&le;</mo>
<mn>1</mn>
<mo>,</mo>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>d</mi>
<mrow>
<mi>B</mi>
<mo>,</mo>
<mi>i</mi>
</mrow>
</msub>
<mo>|</mo>
<mo>|</mo>
<mo>&le;</mo>
<mn>1</mn>
<mo>,</mo>
<mo>&ForAll;</mo>
<mi>i</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mtd>
</mtr>
</mtable>
</mfenced>
其中,λ1和λ2为正则化参数,一旦和被得到,对偶综合-解析字典学习能够被更新,从而解析编码系数并重构行人图像;
步骤3.3、对总体目标函数进行优化更新:
引入附加变量ZA和ZB,采用变更迭代优化更新所有变量,对于变量PA,PB,WA,WB,ZA,ZB,所求得的为封闭解,对于DA和DB,采用ADMM算法实现。
6.根据权利要求1所述的基于对偶综合-解析字典学习的行人再识别方法,其特征在于:所述步骤4的具体实现方法包括以下步骤:
步骤4.1、根据综合字典DA和DB,给定备选集和查询集,备选集第j个图像为pA,j,查询集第k个图像像为pB,k,采用如下方法计算行人特征的编码表示系数:
<mrow>
<msub>
<mi>&alpha;</mi>
<mrow>
<mi>A</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
<mo>=</mo>
<munder>
<mi>argmin</mi>
<msub>
<mi>&alpha;</mi>
<mrow>
<mi>A</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
</munder>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>p</mi>
<mrow>
<mi>A</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>D</mi>
<mi>A</mi>
</msub>
<msub>
<mi>&alpha;</mi>
<mrow>
<mi>A</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
<mo>|</mo>
<msubsup>
<mo>|</mo>
<mi>F</mi>
<mn>2</mn>
</msubsup>
<mo>+</mo>
<mi>&mu;</mi>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>&alpha;</mi>
<mrow>
<mi>A</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
<mo>|</mo>
<msubsup>
<mo>|</mo>
<mn>1</mn>
<mn>2</mn>
</msubsup>
</mrow>
<mrow>
<msub>
<mi>&alpha;</mi>
<mrow>
<mi>B</mi>
<mo>,</mo>
<mi>k</mi>
</mrow>
</msub>
<mo>=</mo>
<munder>
<mi>argmin</mi>
<msub>
<mi>&alpha;</mi>
<mrow>
<mi>B</mi>
<mo>,</mo>
<mi>k</mi>
</mrow>
</msub>
</munder>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>p</mi>
<mrow>
<mi>B</mi>
<mo>,</mo>
<mi>k</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>D</mi>
<mi>B</mi>
</msub>
<msub>
<mi>&alpha;</mi>
<mrow>
<mi>B</mi>
<mo>,</mo>
<mi>k</mi>
</mrow>
</msub>
<mo>|</mo>
<msubsup>
<mo>|</mo>
<mi>F</mi>
<mn>2</mn>
</msubsup>
<mo>+</mo>
<mi>&mu;</mi>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>&alpha;</mi>
<mrow>
<mi>B</mi>
<mo>,</mo>
<mi>k</mi>
</mrow>
</msub>
<mo>|</mo>
<msubsup>
<mo>|</mo>
<mn>1</mn>
<mn>2</mn>
</msubsup>
</mrow>
其中,αA,j和αB,k分别为来自摄像头A与摄像头B的行人特征编码表示系数,μ为正则化系数;
步骤4.2、采用下述改进余弦公式计算行人间距,并进行排列,实现行人再识别功能:
<mrow>
<mi>s</mi>
<mi>i</mi>
<mi>m</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>&alpha;</mi>
<mrow>
<mi>A</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>&alpha;</mi>
<mrow>
<mi>B</mi>
<mo>,</mo>
<mi>k</mi>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mrow>
<mo>|</mo>
<mrow>
<msubsup>
<mi>&alpha;</mi>
<mrow>
<mi>A</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
<mi>T</mi>
</msubsup>
<mo>&CenterDot;</mo>
<msub>
<mi>&alpha;</mi>
<mrow>
<mi>B</mi>
<mo>,</mo>
<mi>k</mi>
</mrow>
</msub>
</mrow>
<mo>|</mo>
</mrow>
<mrow>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>&alpha;</mi>
<mrow>
<mi>A</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
<mo>|</mo>
<mo>|</mo>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>&alpha;</mi>
<mrow>
<mi>B</mi>
<mo>,</mo>
<mi>k</mi>
</mrow>
</msub>
<mo>|</mo>
<mo>|</mo>
<mrow>
<mo>(</mo>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>&alpha;</mi>
<mrow>
<mi>A</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>&alpha;</mi>
<mrow>
<mi>B</mi>
<mo>,</mo>
<mi>k</mi>
</mrow>
</msub>
<mo>|</mo>
<msub>
<mo>|</mo>
<mi>p</mi>
</msub>
<mo>+</mo>
<mi>&epsiv;</mi>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
<mo>.</mo>
</mrow>
其中,ε为较小的正数,防止分母出现零的情况。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710816499.7A CN107679461A (zh) | 2017-09-12 | 2017-09-12 | 基于对偶综合‑解析字典学习的行人再识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710816499.7A CN107679461A (zh) | 2017-09-12 | 2017-09-12 | 基于对偶综合‑解析字典学习的行人再识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107679461A true CN107679461A (zh) | 2018-02-09 |
Family
ID=61136271
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710816499.7A Pending CN107679461A (zh) | 2017-09-12 | 2017-09-12 | 基于对偶综合‑解析字典学习的行人再识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107679461A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108509854A (zh) * | 2018-03-05 | 2018-09-07 | 昆明理工大学 | 一种基于投影矩阵约束结合判别字典学习的行人再识别方法 |
CN109409201A (zh) * | 2018-09-05 | 2019-03-01 | 昆明理工大学 | 一种基于共享及特有字典对联合学习的行人再识别方法 |
CN109447123A (zh) * | 2018-09-28 | 2019-03-08 | 昆明理工大学 | 一种基于标签一致性约束与拉伸正则化字典学习的行人再识别方法 |
CN109492610A (zh) * | 2018-11-27 | 2019-03-19 | 广东工业大学 | 一种行人重识别方法、装置及可读存储介质 |
CN109766748A (zh) * | 2018-11-27 | 2019-05-17 | 昆明理工大学 | 一种基于投影变换与字典学习的行人再识别的方法 |
CN109977882A (zh) * | 2019-03-29 | 2019-07-05 | 广东石油化工学院 | 一种半耦合字典对学习的行人重识别方法及系统 |
CN110335685A (zh) * | 2019-07-05 | 2019-10-15 | 河海大学常州校区 | 一种基于脑连接对偶子空间学习的adhd分类诊断方法 |
CN110826417A (zh) * | 2019-10-12 | 2020-02-21 | 昆明理工大学 | 一种基于判别字典学习的跨视角行人重识别方法 |
WO2021137763A1 (en) * | 2019-12-30 | 2021-07-08 | Nanyang Technological University | Object re-identification using multiple cameras |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105574515A (zh) * | 2016-01-15 | 2016-05-11 | 南京邮电大学 | 一种无重叠视域下的行人再识别方法 |
-
2017
- 2017-09-12 CN CN201710816499.7A patent/CN107679461A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105574515A (zh) * | 2016-01-15 | 2016-05-11 | 南京邮电大学 | 一种无重叠视域下的行人再识别方法 |
Non-Patent Citations (2)
Title |
---|
DE-AN HUANG AND YU-CHIANG FRANK WANG: "Coupled Dictionary and Feature Space Learning with Applications to Cross-Domain Image Synthesis and Recognition", 《IN PROCEEDINGS OF THE INTERNATIONAL CONFERENCE ON COMPUTER VISION》 * |
SHUHANG GU ET AL.: "Projective dictionary pair learning for pattern classification", 《IN ADVANCES IN NEURAL INFORMATION PROCESSING SYSTEMS》 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108509854A (zh) * | 2018-03-05 | 2018-09-07 | 昆明理工大学 | 一种基于投影矩阵约束结合判别字典学习的行人再识别方法 |
CN109409201A (zh) * | 2018-09-05 | 2019-03-01 | 昆明理工大学 | 一种基于共享及特有字典对联合学习的行人再识别方法 |
CN109409201B (zh) * | 2018-09-05 | 2021-06-18 | 昆明理工大学 | 一种基于共享及特有字典对联合学习的行人再识别方法 |
CN109447123B (zh) * | 2018-09-28 | 2021-07-16 | 昆明理工大学 | 一种基于标签一致性约束与拉伸正则化字典学习的行人再识别方法 |
CN109447123A (zh) * | 2018-09-28 | 2019-03-08 | 昆明理工大学 | 一种基于标签一致性约束与拉伸正则化字典学习的行人再识别方法 |
CN109492610A (zh) * | 2018-11-27 | 2019-03-19 | 广东工业大学 | 一种行人重识别方法、装置及可读存储介质 |
CN109766748A (zh) * | 2018-11-27 | 2019-05-17 | 昆明理工大学 | 一种基于投影变换与字典学习的行人再识别的方法 |
CN109492610B (zh) * | 2018-11-27 | 2022-05-10 | 广东工业大学 | 一种行人重识别方法、装置及可读存储介质 |
CN109977882A (zh) * | 2019-03-29 | 2019-07-05 | 广东石油化工学院 | 一种半耦合字典对学习的行人重识别方法及系统 |
CN110335685A (zh) * | 2019-07-05 | 2019-10-15 | 河海大学常州校区 | 一种基于脑连接对偶子空间学习的adhd分类诊断方法 |
CN110826417A (zh) * | 2019-10-12 | 2020-02-21 | 昆明理工大学 | 一种基于判别字典学习的跨视角行人重识别方法 |
CN110826417B (zh) * | 2019-10-12 | 2022-08-16 | 昆明理工大学 | 一种基于判别字典学习的跨视角行人重识别方法 |
WO2021137763A1 (en) * | 2019-12-30 | 2021-07-08 | Nanyang Technological University | Object re-identification using multiple cameras |
US11935302B2 (en) | 2019-12-30 | 2024-03-19 | Nanyang Technological University | Object re-identification using multiple cameras |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107679461A (zh) | 基于对偶综合‑解析字典学习的行人再识别方法 | |
Liu et al. | Enhancing low-rank subspace clustering by manifold regularization | |
CN108509854B (zh) | 一种基于投影矩阵约束结合判别字典学习的行人再识别方法 | |
CN104866829B (zh) | 一种基于特征学习的跨年龄人脸验证方法 | |
CN104008395B (zh) | 一种基于人脸检索的不良视频智能检测方法 | |
US11263435B2 (en) | Method for recognizing face from monitoring video data | |
CN109389180A (zh) | 一款基于深度学习的电力设备图像识别方法及巡查机器人 | |
CN102750385B (zh) | 基于标签检索的相关性—质量排序图像检索方法 | |
CN104851140A (zh) | 基于人脸识别的考勤门禁系统 | |
CN106295609B (zh) | 基于块稀疏结构低秩表示的单样本人脸识别方法 | |
CN112464730B (zh) | 一种基于域无关前景特征学习的行人再识别方法 | |
CN102411708A (zh) | 一种融合双树复小波变换和离散小波变换的人脸识别方法 | |
CN113627266B (zh) | 基于Transformer时空建模的视频行人重识别方法 | |
CN110675421B (zh) | 基于少量标注框的深度图像协同分割方法 | |
CN103295009B (zh) | 基于笔画分解的车牌字符识别方法 | |
CN105574475A (zh) | 一种基于共同向量词典的稀疏表示分类方法 | |
CN102214299A (zh) | 一种基于改进的asm算法的人脸特征定位方法 | |
CN103955671A (zh) | 基于快速判别公共向量算法的人体行为识别方法 | |
CN104850859A (zh) | 一种基于多尺度分析的图像特征包构建方法 | |
CN108875645A (zh) | 一种煤矿井下复杂光照条件下的人脸识别方法 | |
CN109766748A (zh) | 一种基于投影变换与字典学习的行人再识别的方法 | |
CN103714340A (zh) | 基于图像分块的自适应特征提取方法 | |
CN102004902A (zh) | 一种基于小波和稀疏表示理论的近红外人脸图像识别方法 | |
CN103745242A (zh) | 一种跨设备生物特征识别方法 | |
CN103605993B (zh) | 一种基于面向场景判别性分析的图像到视频人脸识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20180209 |
|
WD01 | Invention patent application deemed withdrawn after publication |