CN109492610B - 一种行人重识别方法、装置及可读存储介质 - Google Patents
一种行人重识别方法、装置及可读存储介质 Download PDFInfo
- Publication number
- CN109492610B CN109492610B CN201811429869.2A CN201811429869A CN109492610B CN 109492610 B CN109492610 B CN 109492610B CN 201811429869 A CN201811429869 A CN 201811429869A CN 109492610 B CN109492610 B CN 109492610B
- Authority
- CN
- China
- Prior art keywords
- dictionary
- pedestrian
- learning model
- pedestrian image
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种行人重识别方法,该方法包括以下步骤:获取待识别的行人图像,将行人图像输入学习模型中;其中,学习模型为利用交叉学习策略,对不同摄像头采集的行人图像数据进行学习后,获得的模型;利用学习模型中的投影矩阵,计算行人图像的图像特征;利用目标字典,对图像特征进行稀疏编码,获得编码结果;目标字典为学习模型对行人图像数据进行字典学习后,输出的字典;计算编码结果的系数向量,并利用分类器对系数向量进行识别分类,获得行人图像的识别结果。可提升行人图像的识别结果的准确率。本发明还公开了一种行人重识别装置和可读存储介质,具有相应的技术效果。
Description
技术领域
本发明涉及图像识别技术领域,特别是涉及一种行人重识别方法、装置及可读存储介质。
背景技术
在图像识别技术领域中,如何在视频图像中更好地识别出特定的行人图像,主要涉及行人重识别方法。行人重识别方法是基于研究多个摄像头观察到的非重叠行人图像,实现不同图像中的同一行人目标的图像匹配任务。它在如智能家居、安防和视频监控等许多安全应用中起到了关键性的作用,为企业和政府节省了大量的人力物力。
近年来,许多研究工作一直致力于开发简单有效的解决方案。现有的行人重识别方法主要包括距离学习方法,度量学习方法和特征学习方法等。其中特征学习方法是从行人图像中提取具有判别性的特征,然后在特征空间中进行行人图像匹配任务(判别性的特征主要包括颜色信息特征,纹理信息特征,显著性信息特征和空间信息特征等)。
现有的特征学习方法在行人重识别问题上面取得了很好的表现效果。然而,由于在复杂现实世界场景中,行人图像受到各种各样的限制条件(例如存在较大的照明变化或遮挡情况),现有的行人重识别方法学习到的图像特征或图像相似度的表示能力是有限的。主要原因在于学习到的特征表示的判别性不够明显;此外,现有大多数方法要么专注于从单个图像中学习局部特征,要么直接学习全局特征,这样往往忽略了局部特征和全局特征之间的信息,不利于行人图像特征表示的学习,继而导致行人重识别准确率较低,使得行人重识别结果不具备实用性。
综上所述,如何有效地提高行人重识别的准确率等问题,是目前本领域技术人员急需解决的技术问题。
发明内容
本发明的目的是提供一种行人重识别方法、装置及可读存储介质,以提高行人重识别的准确率。
为解决上述技术问题,本发明提供如下技术方案:
一种行人重识别方法,包括:
获取待识别的行人图像,将所述行人图像输入学习模型中;其中,所述学习模型为利用交叉学习策略,对不同摄像头采集的行人图像数据进行学习后,获得的模型;
利用所述学习模型中的投影矩阵,计算所述行人图像的图像特征;
利用目标字典,对所述图像特征进行稀疏编码,获得编码结果;所述目标字典为所述学习模型对所述行人图像数据进行字典学习后,输出的字典;
计算所述编码结果的系数向量,并利用分类器对所述系数向量进行识别分类,获得所述行人图像的识别结果。
优选地,在利用目标字典的投影矩阵之前,还包括:
获取所述行人图像数据,并利用所述交叉重构策略对所述行人图像数据进行预处理,获得目标行人图像数据;
对所述目标行人图像数据进行投影,获得投影数据集;
利用所述投影数据集,进行字典学习,并建立字典学习模型;
通过正则化策略优化训练所述字典学习模型,获得所述学习模型;
采用求解约束问题的最优化方法对所述学习模型进行求解,获得所述目标字典。
优选地,所述获取所述行人图像数据,包括:
获取第一摄像头和第二摄像头采集的所述行人图像数据;其中,所述行人图像数据包括:所述第一摄像头的图像数据为其中i表示类别.视频数据为NS为视频数据样本数;所述第二摄像头的图像数据为其中j表示类别,视频数据为 NT为视频图像样本数,c为视频数据的类别数,m为数据集样本的维度。
优选地,所述利用交叉重构策略对所述行人图像数据进行预处理,获得目标行人图像数据,包括:
优选地,所述对所述目标行人图像数据进行投影,获得投影数据集,包括:
优选地,所述利用所述投影数据集,进行字典学习,并建立字典学习模型,包括:
优选地,所述通过正则化策略优化训练所述字典学习模型,获得所述学习模型,包括:
优选地,所述采用求解约束问题的最优化方法对所述学习模型进行求解,获得所述目标字典,包括:
利用交替方向乘子法算法对所述学习模型进行求解;其中,所述求解包括辅助变量添加步骤和系数求解步骤;
其中,所述辅助变量添加步骤,包括:
所述系数求解步骤,包括:
固定系数V2,P,W,D,M,则V1=(DTD+βI+αI)-1{β(Q+B⊙M)+αPY+DTX};
固定系数V1,P,W,D,M,则V2=(DTD+βI+αI+γWTW)-1K,其中K={γWTL+β(Q+B⊙M)+αPX+DTX};
固定系数V1,V2,W,D,M,则P=(V1YT+V2XT)(YYT+XXT)-1;
固定系数V1,V2,P,W,D,则M=max(max(B⊙(V1-Q),0),max(B⊙(V2-Q),0));
重复执行上述系数求解步骤,直到表达式不收敛,获得所述学习模型。
一种行人重识别装置,包括:
行人图像获取模块,用于获取待识别的行人图像,将所述行人图像输入学习模型中;其中,所述学习模型为利用交叉学习策略,对不同摄像头采集的行人图像数据进行学习后,获得的模型;
图像特征计算模块,用于利用所述学习模型中的投影矩阵,计算所述行人图像的图像特征;
编码结果获取模块,用于利用目标字典,对所述图像特征进行稀疏编码,获得编码结果;所述目标字典为所述学习模型对所述行人图像数据进行字典学习后,输出的字典;
识别结果获得模块,用于计算所述编码结果的系数向量,并利用分类器对所述系数向量进行识别分类,获得所述行人图像的识别结果。
应用本发明实施例所提供的方法,获取待识别的行人图像,将行人图像输入学习模型中;其中,学习模型为利用交叉学习策略,对不同摄像头采集的行人图像数据进行学习后,获得的模型;利用学习模型中的投影矩阵,计算行人图像的图像特征;利用目标字典,对图像特征进行稀疏编码,获得编码结果;目标字典为学习模型对行人图像数据进行字典学习后,输出的字典;计算编码结果的系数向量,并利用分类器对系数向量进行识别分类,获得行人图像的识别结果。
得到待识别的行人图像之后,将该行人图像输入至预先设置的学习模型中。由于该学习模型为利用交叉学习策略对不同摄像头采集的行人图像数据进行学习而获得的。又因交叉学习策略对不同摄像头的行人图像数据进行字典的模型训练时,可最大程度保留原始的行人图像数据中的局部特征信息和全局特征信息。因此将待识别的行人图像输入至学习模型之后,可利用学习模型中的投影矩阵,计算出行人图像的基于局部特征和全局特征的图像特征。利用目标字典,对图像特征进行稀疏编码,获得编码结果;目标字典为学习模型对行人图像数据进行字典学习后,输出的字典。计算出编码结果的系数向量,最后利用分类对系数向量进行识别分类,最终获得行人图像的识别结果。也就是说,应用本发明实施例所提供的方法,可兼顾局部特征和全局特征对行人图像进行重识别,如此便可提升行人图像的识别结果的准确率。
相应地,本发明实施例还提供了与上述行人重识别方法相对应的行人重识别装置和可读存储介质,具有上述技术效果,在此不再赘述。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例中一种行人重识别方法的实施流程图;
图2为本发明实施例中一种目标字典获取过程示意图;
图3为本发明实施例中另一种目标字典获取过程示意图;
图4为本发明实施例中一种行人重识别方法的具体实现过程示意图;
图5为本发明实施例中一种交叉重构策略示意图;
图6为本发明实施例中一种行人重识别装置的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面结合附图和具体实施方式对本发明作进一步的详细说明。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一:
请参考图1,图1为本发明实施例中一种行人重识别方法的流程图,该方法包括以下步骤:
S101、获取待识别的行人图像,将行人图像输入学习模型中。
其中,学习模型为利用交叉学习策略,对不同摄像头采集的行人图像数据进行学习后,获得的模型。
可利用图像采集设备实时采集行人图像,也可通过读取预先存储在可读存储介质中的待识别的行人图像的方式获得行人图像。当然,还可通过设置接口的方式,接收上层应用发送的待识别的行人图像。
获得行人图像之后,便可将行人图像输入学习模型中。
S102、利用学习模型中的投影矩阵,计算行人图像的图像特征。
将待识别的行人图像输入至该学习模型之后,便可利用该信息模型中的投影矩阵,计算出行人图像的图像特征。需要说明是,在本发明实施例中所描述的学习模型为利用交叉信息策略对不同摄像头采集的行人图像数据进行学习后得到的。又因交叉学习策略对不同摄像头的行人图像数据进行字典的模型训练时,可最大程度保留原始的行人图像数据中的局部特征信息和全局特征信息。因而,基于利用该学习模型的投影矩阵对行人图像进行投影处理,计算行人图像的图像特征时,便可保留待识别行人图像的局部特征和全局特征。
获得待识别行人图像之后,便可执行步骤S103的操作。
S103、利用目标字典,对图像特征进行稀疏编码,获得编码结果。
其中,目标字典为学习模型对行人图像数据进行字典学习后,输出的字典。
即,该目标字典即是对学习模型进行求解之后,得到的目标字典。在该目标字典上,对图像特征进行稀疏编码,便可获得编码结果。其中,稀疏编码算法为一种无监督学习方法,可以用来寻找一组“超完备”基向量来更高效地表示样本数据,即稀疏编码算法的目的就是找到一组基向量,可用输入向量表示基向量的线性组合。即可采用常见的稀疏编码算法在目标字典上对图像特征进行编码,在此不再阐述具体编码过程。得到编码结果之后,便可执行步骤S104的操作。
S104、计算编码结果的系数向量,并利用分类器对系数向量进行识别分类,获得行人图像的识别结果。
计算编码结果的系数向量,也就是对编码结果进行求解。然后,利用分类其对系数向量进行分类处理,如此便可获得行人图像的识别结果。具体的,关于如何根据编码结果计算系数向量,可参见常见的系数编码算法的具体过程,在此不再赘述。
应用本发明实施例所提供的方法,获取待识别的行人图像,将行人图像输入学习模型中;其中,学习模型为利用交叉学习策略,对不同摄像头采集的行人图像数据进行学习后,获得的模型;利用学习模型中的投影矩阵,计算行人图像的图像特征;利用目标字典,对图像特征进行稀疏编码,获得编码结果;目标字典为学习模型对行人图像数据进行字典学习后,输出的字典;计算编码结果的系数向量,并利用分类器对系数向量进行识别分类,获得行人图像的识别结果。
得到待识别的行人图像之后,将该行人图像输入至预先设置的学习模型中。由于该学习模型为利用交叉学习策略对不同摄像头采集的行人图像数据进行学习而获得的。又因交叉学习策略对不同摄像头的行人图像数据进行字典的模型训练时,可最大程度保留原始的行人图像数据中的局部特征信息和全局特征信息。因此将待识别的行人图像输入至学习模型之后,可利用学习模型中的投影矩阵,计算出行人图像的基于局部特征和全局特征的图像特征。然后,利用目标字典,对图像特征进行稀疏编码,获得编码结果;目标字典为学习模型对行人图像数据进行字典学习后,输出的字典;计算出编码结果的系数向量,最后利用分类对系数向量进行识别分类,最终获得行人图像的识别结果。也就是说,应用本发明实施例所提供的方法,可兼顾局部特征和全局特征对行人图像进行重识别,如此便可提升行人图像的识别结果的准确率。
实施例二:
为便于本领域技术人员更好的理解本发明实施例所提供的技术方案,下面以获得学习模型以及目标字典的过程为例,对本发明实施例所提供的技术方案进行详细说明。
请参考图2,图2为本发明实施例中一种目标字典获取过程示意图。在执行步骤S101之前,即在利用目标字典的投影矩阵之前,可执行以下步骤:
S201、获取行人图像数据,并利用交叉重构策略对行人图像数据进行预处理,获得目标行人图像数据。
首先获取用于创建字典学习模型的行人图像数据。具体的,由于是对行人进行识别,因此需获取不同摄像头采集到的行人图像。例如,可具体为能够先后拍摄到同一个行人的不同摄像头采集到的行人图像。然后,采用交叉重构策略对行人图像数据进行预处理,便可获得目标行人图像数据。
S202、对目标行人图像数据进行投影,获得投影数据集。
得到目标行人图像数据之后,便可对目标行人图像进行投影。具体的,可参见常见的投影学习策略对该目标行人图像进行投影,如此,便可获得投影数据集。
S203、利用投影数据集,进行字典学习,并建立字典学习模型。
然后,对该投影数据即进行字典学习,同时还可建立字典信息模型。得到字典信息模型至,便可执行步骤S204的操作。
S204、通过正则化策略优化训练字典学习模型,获得学习模型。
可采用正则化策略优化训练该字典信息模型,进而获得用于求解目标字典以及对行人图像进行识别时,提取图像特征的学习模型。其中,正则化策略即正则化方法为在训练数据不够多时,或者过度训练(over training)时,通过向原始模型引入额外信息,以便防止过拟合和提高模型泛化性能的一类方法的统称。具体的,可采用基于标签一致性总资产策略或基于线性分类器错误项的正则化策略引用相应地约束项对字典学习模型进行优化训练。当然,也可采用其他常见的正则化策略对字典学习模型进行优化训练,在此不再一一列举。
S205、采用求解约束问题的最优化方法对学习模型进行求解,获得目标字典。
然后,可采用求解约束问题的最优化方法对该学习模型进行求解,如此便可得到目标字典。
实施例三:
下面以两个不同摄像头采集到的行人图像数据为例,对本发明实施例所提供的技术方案进行详细说明。
请参考图3,图3为本发明实施例中另一种目标字典获取过程示意图。该过程包括:
S301、获取第一摄像头和第二摄像头采集的行人图像数据;
其中,行人图像数据包括:第一摄像头的图像数据为其中i表示类别,视频数据为NS为视频数据样本数;第二摄像头的图像数据为其中j表示类别,视频数据为NT为视频图像样本数,c为视频数据的类别数,m为数据集样本的维度。
S302、利用交叉重构策略对XS和XT进行数据预处理,得到预处理后的数据集X和数据集Y;
S303、利用投影学习策略对数据集X和Y进行投影操作,得到投影数据集PX和PY;
S305、通过正则化策略优化训练字典学习模型,获得学习模型。
具体包括:
S306、利用交替方向乘子法算法对学习模型进行求解。
其中,求解包括辅助变量添加步骤和系数求解步骤;
其中,辅助变量添加步骤,包括:
系数求解步骤,包括:
固定系数V2,P,W,D,M,则V1=(DTD+βI+αI)-1{β(Q+B⊙M)+αPY+DTX};
固定系数V1,P,W,D,M,则V2=(DTD+βI+αI+γWTW)-1K,其中K={γWTL+β(Q+B⊙M)+αPX+DTX};
固定系数V1,V2,W,D,M,则P=(V1YT+V2XT)(YYT+XXT)-1;
固定系数V1,V2,P,W,D,则M=max(max(B⊙(V1-Q),0),max(B⊙(V2-Q),0));
重复执行上述系数求解步骤,直到表达式不收敛,获得学习模型。
其中,交替方向乘子法算法(Alternating Direction Method of Multipliers,ADMM)。
实施例四:
下面结合获取目标字典、学习模型,以及如利用学习模型和目标字典对待识别的行人图像进行重识别为例,本发明实施例所提供的技术方案进行详细说明。
请参考图4,图4为本发明实施例中一种行人重识别方法的具体实现过程示意图。
S401、采用交叉重构策略对不同摄像头的行人图像数据进行数据预处理,得到预处理后的数据集。
具体的,可选择摄像头S和摄像头T,基于摄像头S和摄像头T得到行人图像数据,定义摄像头S的第i类的行人图像数据为摄像头S的视频图像样本数为NS,摄像头T的第j类的行人图像数据为摄像头T的视频图像样本数为NT,视频行人图像数据的类别数为c,得到摄像头S和摄像头T的视频图像数据为和 其中m为数据集样本的维度。
需要说明的是,当存在三个及三个以上的摄像头时,可将多个摄像头虚拟为两个摄像头。例如,若有4个不同的摄像头时,可将这四个摄像头任意划分为2个组合,每一个组合分别虚拟为一个摄像头,当组合不能为空。
S402、采用投影学习策略对预处理后的数据集进行投影操作,得到投影数据集。
S403、通过交叉字典学习方法对投影数据集进行字典学习,建立字典学习模型。
对投影数据集PX和PY进行字典学习,建立字典学习模型如下:
S404、采用标签一致性正则化策略和线性分类器错误项的正则化策略优化字典学习模型,训练得到最终字典学习模型。
采用标签一致性正则化策略和线性分类器错误项的正则化策略来将原始视图的标签信息和学习到的字典的原子进行正相关关联,训练得到最终字典学习模型。步骤S404具体包括:
步骤三、得到最终字典学习模型如下:
其中β,γ为人为设置的权重参数,作为优选方案,β,γ分别取值1,1。
S405、采用求解约束问题的最优化方法对字典学习模型进行求解,求解得到最终字典学习模型。
具体的,可执行以下步骤:
步骤一、选择交替方向乘子法算法(Alternating DirectionMethodofMultipliers,ADMM)作为求解目标函数的方法;
步骤二、添加辅助变量V1,V2,有
步骤三、固定系数V2,P,W,D,M,求解V1,有
V1=(DTD+βI+αI)-1{β(Q+B⊙M)+αPY+DTX}
步骤四、同理,固定系数V1,P,W,D,M,求解V2,有
V2=(DTD+βI+αI+γWTW)-1K,其中K={γWTL+β(Q+B⊙M)+αPX+DTX};
步骤五、同理,固定系数V1,V2,W,D,M,求解P,有P=(V1YT+V2XT)(YYT+XXT)-1;
步骤八、同理,固定系数V1,V2,P,W,D,同理求解M,有
M=max(max(B⊙(V1-Q),0),max(B⊙(V2-Q),0))
步骤九、重复上述步骤三至步骤八,直到表达式不收敛,得到字典学习模型。
S406、对于待识别的行人图像数据,求解得到的字典进行字典学习,进行行人重识别。
具体的,对于待识别的行人图像数据,利用步骤S405求解得到的字典模型中的投影矩阵求得待识别的行人图像数据的特征;在字典上对取得的图像特征进行稀疏编码,求解系数向量,利用分类器对得到的系数向量进行识别分类。
与现有技术相比,本发明的方法具有以下优点:
(1)、采用交叉重构策略进行数据预处理,可以考虑到不同摄像头的行人图像数据的局部特征信息和全局特征信息,得到更加精确直观的特征表示;
(2)、能对不同摄像头的行人图像数据同时进行投影学习和交叉字典学习,学习得到的字典可以生成更加稳健的特征表示;
(3)、能有目的性地选择多个摄像头的行人图像数据来训练学习字典模型;
(4)、能利用行人图像的局部特征和全局特征的相关信息学习一个公共字典。
实施例五:
相应于上面的方法实施例,本发明实施例还提供了一种行人重识别装置,下文描述的行人重识别装置与上文描述的行人重识别方法可相互对应参照。
参见图6所示,该装置包括以下模块:
行人图像获取模块101,用于获取待识别的行人图像,将行人图像输入学习模型中;其中,学习模型为利用交叉学习策略,对不同摄像头采集的行人图像数据进行学习后,获得的模型;
图像特征计算模块102,用于利用学习模型中的投影矩阵,计算行人图像的图像特征;
编码结果获取模块103,用于利用目标字典,对图像特征进行稀疏编码,获得编码结果;目标字典为学习模型对行人图像数据进行字典学习后,输出的字典;
识别结果获得模块104,用于计算编码结果的系数向量,并利用分类器对系数向量进行识别分类,获得行人图像的识别结果。
应用本发明实施例所提供的装置,获取待识别的行人图像,将行人图像输入学习模型中;其中,学习模型为利用交叉学习策略,对不同摄像头采集的行人图像数据进行学习后,获得的模型;利用学习模型中的投影矩阵,计算行人图像的图像特征;利用目标字典,对图像特征进行稀疏编码,获得编码结果;目标字典为学习模型对行人图像数据进行字典学习后,输出的字典;计算编码结果的系数向量,并利用分类器对系数向量进行识别分类,获得行人图像的识别结果。
得到待识别的行人图像之后,将该行人图像输入至预先设置的学习模型中。由于该学习模型为利用交叉学习策略对不同摄像头采集的行人图像数据进行学习而获得的。又因交叉学习策略对不同摄像头的行人图像数据进行字典的模型训练时,可最大程度保留原始的行人图像数据中的局部特征信息和全局特征信息。因此将待识别的行人图像输入至学习模型之后,可利用学习模型中的投影矩阵,计算出行人图像的基于局部特征和全局特征的图像特征。然后,利用目标字典,对图像特征进行稀疏编码,获得编码结果;目标字典为学习模型对行人图像数据进行字典学习后,输出的字典;计算出编码结果的系数向量,最后利用分类对系数向量进行识别分类,最终获得行人图像的识别结果。也就是说,应用本发明实施例所提供的装置,可兼顾局部特征和全局特征对行人图像进行重识别,如此便可提升行人图像的识别结果的准确率。
在本发明的一种具体实施方式中,还包括:目标字典获取模块,用于在利用目标字典的投影矩阵,获取目标字典;
其中,目标字典获取模块,包括:
图像预处理单元,用于获取行人图像数据,并利用交叉重构策略对行人图像数据进行预处理,获得目标行人图像数据;
投影单元,用于对目标行人图像数据进行投影,获得投影数据集;
字典信息模型建立单元,用于利用投影数据集,进行字典学习,并建立字典学习模型;
模型优化训练单元,用于通过正则化策略优化训练字典学习模型,获得学习模型;
学习模型求解单元,用于采用求解约束问题的最优化方法对学习模型进行求解,获得目标字典。
在本发明的一种具体实施方式中,图像预处理单元,具体用于获取第一摄像头和第二摄像头采集的行人图像数据;其中,行人图像数据包括:第一摄像头的图像数据为其中i表示类别,视频数据为 NS为视频数据样本数;第二摄像头的图像数据为其中j表示类别,视频数据为NT为视频图像样本数,c为视频数据的类别数,m为数据集样本的维度。
在本发明的一种具体实施方式中,字典信息模型建立单元,具体用于对PX和PY进行字典学习,建立字典学习模型: 其中,D为字典,k为字典中的原子个数,di,dj分别为字典D中的第i个和第j个字典原子,为数学运算中di的转置运算。
在本发明的一种具体实施方式中,模型优化训练单元,具体用于基于标签一致性正则化策略,并引入字典学习模型的约束项Θ;其中, 其中Q表示分类任务中输入数据的判别性稀疏码,B为等值于Q的矩阵,M为满足标签一致性正则化策略的非负矩阵;
在本发明的一种具体实施方式中,学习模型求解单元,具体用于利用交替方向乘子法算法对学习模型进行求解;其中,求解包括辅助变量添加步骤和系数求解步骤;
其中,辅助变量添加步骤,包括:
系数求解步骤,包括:
固定系数V2,P,W,D,M,则V1=(DTD+βI+αI)-1{β(Q+B⊙M)+αPY+DTX};
固定系数V1,P,W,D,M,则V2=(DTD+βI+αI+γWTW)-1K,其中K={γWTL+β(Q+B⊙M)+αPX+DTX};
固定系数V1,V2,W,D,M,则P=(V1YT+V2XT)(YYT+XXT)-1;
固定系数V1,V2,P,W,D,则M=max(max(B⊙(V1-Q),0),max(B⊙(V2-Q),0));
重复执行上述系数求解步骤,直到表达式不收敛,获得学习模型。
实施例六:
相应于上面的方法实施例,本发明实施例还提供了一种可读存储介质,下文描述的一种可读存储介质与上文描述的一种行人重识别方法可相互对应参照。
一种可读存储介质,可读存储介质上存储有计算机程序,计算机程序被处理器执行时实现上述方法实施例的行人重识别方法的步骤。
该可读存储介质具体可以为U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可存储程序代码的可读存储介质。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
Claims (8)
1.一种行人重识别方法,其特征在于,包括:
获取待识别的行人图像,将所述行人图像输入学习模型中;其中,所述学习模型为利用交叉学习策略,对不同摄像头采集的行人图像数据进行学习后,获得的模型;
利用所述学习模型中的投影矩阵,计算所述行人图像的图像特征;
利用目标字典,对所述图像特征进行稀疏编码,获得编码结果;所述目标字典为所述学习模型对所述行人图像数据进行字典学习后,输出的字典;
计算所述编码结果的系数向量,并利用分类器对所述系数向量进行识别分类,获得所述行人图像的识别结果;
在利用目标字典的投影矩阵之前,还包括:
获取所述行人图像数据,并利用交叉重构策略对所述行人图像数据进行预处理,获得目标行人图像数据;
对所述目标行人图像数据进行投影,获得投影数据集;
利用所述投影数据集,进行字典学习,并建立字典学习模型;
通过正则化策略优化训练所述字典学习模型,获得所述学习模型;
采用求解约束问题的最优化方法对所述学习模型进行求解,获得所述目标字典;
所述获取所述行人图像数据,包括:
6.根据权利要求5所述的行人重识别方法,其特征在于,所述采用求解约束问题的最优化方法对所述学习模型进行求解,获得所述目标字典,包括:
利用交替方向乘子法算法对所述学习模型进行求解;其中,所述求解包括辅助变量添加步骤和系数求解步骤;
其中,所述辅助变量添加步骤,包括:
所述系数求解步骤,包括:
固定系数V2,P,W,D,M,则V1=(DTD+βI+αI)-1{β(Q+B⊙M)+αPY+DTX};
固定系数V1,P,W,D,M,则V2=(DTD+βI+αI+γWTW)-1K,其中K={γWTL+β(Q+B⊙M)+αPX+DTX};
固定系数V1,V2,W,D,M,则P=(V1YT+V2XT)(YYT+XXT)-1;
固定系数V1,V2,P,W,D,则M=max(max(B⊙(V1-Q),0),max(B⊙(V2-Q),0));
重复执行上述系数求解步骤,直到表达式不收敛,获得所述学习模型。
7.一种行人重识别装置,其特征在于,包括:
行人图像获取模块,用于获取待识别的行人图像,将所述行人图像输入学习模型中;其中,所述学习模型为利用交叉学习策略,对不同摄像头采集的行人图像数据进行学习后,获得的模型;
图像特征计算模块,用于利用所述学习模型中的投影矩阵,计算所述行人图像的图像特征;
编码结果获取模块,用于利用目标字典,对所述图像特征进行稀疏编码,获得编码结果;所述目标字典为所述学习模型对所述行人图像数据进行字典学习后,输出的字典;
识别结果获得模块,用于计算所述编码结果的系数向量,并利用分类器对所述系数向量进行识别分类,获得所述行人图像的识别结果;
还包括:目标字典获取模块,用于在利用目标字典的投影矩阵,获取目标字典;
其中,目标字典获取模块,包括:
图像预处理单元,用于获取行人图像数据,并利用交叉重构策略对行人图像数据进行预处理,获得目标行人图像数据;
投影单元,用于对目标行人图像数据进行投影,获得投影数据集;
字典信息模型建立单元,用于利用投影数据集,进行字典学习,并建立字典学习模型;
模型优化训练单元,用于通过正则化策略优化训练字典学习模型,获得学习模型;
学习模型求解单元,用于采用求解约束问题的最优化方法对学习模型进行求解,获得目标字典;
8.一种可读存储介质,其特征在于,所述可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至6任一项所述行人重识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811429869.2A CN109492610B (zh) | 2018-11-27 | 2018-11-27 | 一种行人重识别方法、装置及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811429869.2A CN109492610B (zh) | 2018-11-27 | 2018-11-27 | 一种行人重识别方法、装置及可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109492610A CN109492610A (zh) | 2019-03-19 |
CN109492610B true CN109492610B (zh) | 2022-05-10 |
Family
ID=65697931
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811429869.2A Active CN109492610B (zh) | 2018-11-27 | 2018-11-27 | 一种行人重识别方法、装置及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109492610B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112001865A (zh) * | 2020-09-02 | 2020-11-27 | 广东工业大学 | 一种人脸识别方法、装置和设备 |
CN112699829B (zh) * | 2021-01-05 | 2022-08-30 | 山东交通学院 | 基于深度特征和稀疏度量投影的车辆重识别方法及系统 |
CN112819065B (zh) * | 2021-01-28 | 2023-04-18 | 广东工业大学 | 基于多重聚类信息的无监督行人难样本挖掘方法和系统 |
CN113177487B (zh) * | 2021-05-06 | 2023-07-18 | 南京信息工程大学 | 行人重识别方法、装置、计算机设备和存储介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008141295A (ja) * | 2006-11-30 | 2008-06-19 | Kyocera Mita Corp | 画像処理装置および画像処理プログラム |
CN103049760A (zh) * | 2012-12-27 | 2013-04-17 | 北京师范大学 | 基于图像分块和位置加权的稀疏表示目标识别方法 |
CN103093273A (zh) * | 2012-12-30 | 2013-05-08 | 信帧电子技术(北京)有限公司 | 基于人体重识别的视频人数统计方法 |
CN103984915A (zh) * | 2014-02-28 | 2014-08-13 | 中国计量学院 | 一种监控视频中行人重识别方法 |
CN203982351U (zh) * | 2014-07-23 | 2014-12-03 | 吴建伟 | 一种手势输入装置 |
CN107679461A (zh) * | 2017-09-12 | 2018-02-09 | 国家新闻出版广电总局广播科学研究院 | 基于对偶综合‑解析字典学习的行人再识别方法 |
CN107977656A (zh) * | 2017-12-26 | 2018-05-01 | 北京大学 | 一种行人重识别方法及系统 |
CN108509925A (zh) * | 2018-04-08 | 2018-09-07 | 东北大学 | 一种基于视觉词袋模型的行人重识别方法 |
CN108509854A (zh) * | 2018-03-05 | 2018-09-07 | 昆明理工大学 | 一种基于投影矩阵约束结合判别字典学习的行人再识别方法 |
CN108509833A (zh) * | 2017-12-21 | 2018-09-07 | 苏州大学 | 一种基于结构化分析字典的人脸识别方法、装置及设备 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ES2322120B1 (es) * | 2007-10-26 | 2010-03-24 | Consejo Superior De Investigaciones Cientificas | Metodo y sistema para analisis de singularidades en señales digitales. |
US10474883B2 (en) * | 2016-11-08 | 2019-11-12 | Nec Corporation | Siamese reconstruction convolutional neural network for pose-invariant face recognition |
CN108108652B (zh) * | 2017-03-29 | 2021-11-26 | 广东工业大学 | 一种基于字典学习的跨视角人体行为识别方法及装置 |
CN107657249A (zh) * | 2017-10-26 | 2018-02-02 | 珠海习悦信息技术有限公司 | 多尺度特征行人重识别的方法、装置、存储介质及处理器 |
-
2018
- 2018-11-27 CN CN201811429869.2A patent/CN109492610B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008141295A (ja) * | 2006-11-30 | 2008-06-19 | Kyocera Mita Corp | 画像処理装置および画像処理プログラム |
CN103049760A (zh) * | 2012-12-27 | 2013-04-17 | 北京师范大学 | 基于图像分块和位置加权的稀疏表示目标识别方法 |
CN103093273A (zh) * | 2012-12-30 | 2013-05-08 | 信帧电子技术(北京)有限公司 | 基于人体重识别的视频人数统计方法 |
CN103984915A (zh) * | 2014-02-28 | 2014-08-13 | 中国计量学院 | 一种监控视频中行人重识别方法 |
CN203982351U (zh) * | 2014-07-23 | 2014-12-03 | 吴建伟 | 一种手势输入装置 |
CN107679461A (zh) * | 2017-09-12 | 2018-02-09 | 国家新闻出版广电总局广播科学研究院 | 基于对偶综合‑解析字典学习的行人再识别方法 |
CN108509833A (zh) * | 2017-12-21 | 2018-09-07 | 苏州大学 | 一种基于结构化分析字典的人脸识别方法、装置及设备 |
CN107977656A (zh) * | 2017-12-26 | 2018-05-01 | 北京大学 | 一种行人重识别方法及系统 |
CN108509854A (zh) * | 2018-03-05 | 2018-09-07 | 昆明理工大学 | 一种基于投影矩阵约束结合判别字典学习的行人再识别方法 |
CN108509925A (zh) * | 2018-04-08 | 2018-09-07 | 东北大学 | 一种基于视觉词袋模型的行人重识别方法 |
Non-Patent Citations (1)
Title |
---|
基于超球支持向量机的多姿态协同人脸检测;滕少华等;《Journal of Computer Applications》;20130701;第1988-1991页 * |
Also Published As
Publication number | Publication date |
---|---|
CN109492610A (zh) | 2019-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110443143B (zh) | 多分支卷积神经网络融合的遥感图像场景分类方法 | |
CN109492610B (zh) | 一种行人重识别方法、装置及可读存储介质 | |
CN111444881A (zh) | 伪造人脸视频检测方法和装置 | |
CN113887661B (zh) | 一种基于表示学习重构残差分析的图像集分类方法及系统 | |
CN112633382A (zh) | 一种基于互近邻的少样本图像分类方法及系统 | |
CN111325766B (zh) | 三维边缘检测方法、装置、存储介质和计算机设备 | |
CN113761259A (zh) | 一种图像处理方法、装置以及计算机设备 | |
CN112926675B (zh) | 视角和标签双重缺失下的深度不完整多视角多标签分类方法 | |
Dixit et al. | Object based scene representations using fisher scores of local subspace projections | |
CN113971735A (zh) | 一种深度图像聚类方法、系统、设备、介质及终端 | |
CN114187506A (zh) | 视点意识的动态路由胶囊网络的遥感图像场景分类方法 | |
CN111898614A (zh) | 神经网络系统以及图像信号、数据处理的方法 | |
Liu et al. | Tread pattern image classification using convolutional neural network based on transfer learning | |
CN115471901B (zh) | 基于生成对抗网络的多姿态人脸正面化方法及系统 | |
JP7225731B2 (ja) | 多変数データシーケンスの画像化 | |
CN115527064A (zh) | 基于多阶段ViT与对比学习的毒蘑菇细粒度图像分类方法 | |
CN115984968A (zh) | 一种学生时空动作识别方法、装置、终端设备及介质 | |
CN115762721A (zh) | 一种基于计算机视觉技术的医疗影像质控方法和系统 | |
Hu et al. | Bagging deep convolutional autoencoders trained with a mixture of real data and GAN-generated data | |
Biswas et al. | Attendance Tracking with Face Recognition Through Hidden Markov Models | |
CN114780767A (zh) | 一种基于深度卷积神经网络的大规模图像检索方法及系统 | |
Ali et al. | A deep convolutional neural wavelet network for classification of medical images | |
CN112307980A (zh) | 一种基于不完整多视聚类的图像识别方法 | |
Jayoma et al. | Faculty Facial Recognition Using Convolutional Neural Network a Tool for Smart Academic Monitoring | |
CN112070023B (zh) | 一种邻域先验嵌入型协同表示模式识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |