CN109784182A - 行人重识别方法和装置 - Google Patents
行人重识别方法和装置 Download PDFInfo
- Publication number
- CN109784182A CN109784182A CN201811540943.8A CN201811540943A CN109784182A CN 109784182 A CN109784182 A CN 109784182A CN 201811540943 A CN201811540943 A CN 201811540943A CN 109784182 A CN109784182 A CN 109784182A
- Authority
- CN
- China
- Prior art keywords
- network
- image
- pedestrian
- learning sub
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明实施例提供一种行人重识别方法和装置。其中,行人重识别方法包括:将待识别图像输入至训练好的孪生网络模型,输出待识别图像的特征向量;根据待识别图像的特征向量和行人图像库中各样本行人图像的特征向量,获取识别结果;其中,孪生网络模型是基于样本行人图像进行训练后得到的;孪生网络模型包括第一卷积神经网络和第二卷积神经网络;第一卷积神经网络与第二卷积神经网络的结构相同。本发明实施例提供的行人重识别方法和装置,通过孪生网络模型获取待识别图像的特征向量,能提高特征提取的准确率,进而能提高行人重识别的准确率。
Description
技术领域
本发明实施例涉及计算机技术领域,尤其涉及一种行人重识别方法和装置。
背景技术
行人重识别(Person re-identification,简称ReID)也称行人再识别,是利用计算机视觉技术判断图像或者视频序列中是否存在特定行人的技术。广泛被认为是一个图像检索的子问题。给定一个监控行人图像,检索跨设备下的该行人图像。旨在弥补目前固定的摄像头的视觉局限,并可与行人检测/行人跟踪技术相结合,可广泛应用于智能视频监控、智能安保等领域。
由于行人图像的分辨率变化大、拍摄角度不统一、光照条件差、环境变化大、行人姿态不断变化等原因,导致同一行人不同图片之间差距大,对行人进行浅层特征的提取很难实现行人重识别的判断。
为了提高行人重识别的准确率,传统的行人重识别从特征提取和距离度量学习两个方面进行研究。对于特征提取方面,采用提取局部特征的方式,采用局部关键特征尺度不变特征变换(Scale-Invariant Feature Transform,简称SIFT)来表示图像,但由于局部关键点经常会落在背景上,导致识别精度的下降;并且,目前大多数方法在提取图像特征的过程中,都忽略了无关背景信息的影响,使得提取好的图像特征带有较多的噪声,影响识别准确率。对于距离度量学习方面,为了解决拍摄角度不一以及行人姿态的变化问题,大多数方法采取了非精确匹配的策略,使用特定的方式将不同图像块之间的特征进行融合,效果颇为显著,但同时也损失了一部分图像内部的空间信息,使得在分辨一些具有相对位置差异的图像上,能力大大降低。综上,现有行人重识别技术的识别准确率较低,亟待提高。
发明内容
针对现有技术存在的问题,本发明实施例提供一种克服上述问题或者至少部分地解决上述问题的行人重识别方法和装置。
第一方面,本发明实施例提供一种行人重识别方法,包括:
将待识别图像输入至训练好的孪生网络模型,输出所述待识别图像的特征向量;
根据所述待识别图像的特征向量和行人图像库中各样本行人图像的特征向量,获取识别结果;
其中,所述孪生网络模型是基于样本行人图像进行训练后得到的;所述特征向量由类型特征和图像特征组成;
所述孪生网络模型包括第一卷积神经网络和第二卷积神经网络;所述第一卷积神经网络与所述第二卷积神经网络的结构相同;所述第一卷积神经网络包括第一分类学习子网络和第一度量学习子网络;所述第二卷积神经网络包括第二分类学习子网络和第二度量学习子网络;
所述第一分类学习子网络和所述第二分类学习子网络,均用于获取所述待识别图像的类型特征;
所述第一度量学习子网络和所述第二度量学习子网络,均用于获取所述待识别图像的图像特征。
第二方面,本发明实施例提供一种行人重识别装置,包括:
特征提取模块,用于将待识别图像输入至孪生网络模型,输出所述待识别图像的特征向量;
行人识别模块,用于根据所述待识别图像的特征向量和行人图像库中各样本行人图像的特征向量,获取识别结果;
其中,所述孪生网络模型是基于样本行人图像进行训练后得到的;所述特征向量由类型特征和图像特征组成;
所述孪生网络模型包括第一卷积神经网络和第二卷积神经网络;所述第一卷积神经网络与所述第二卷积神经网络的结构相同;所述第一卷积神经网络包括第一分类学习子网络和第一度量学习子网络;所述第二卷积神经网络包括第二分类学习子网络和第二度量学习子网络;
所述第一分类学习子网络和所述第二分类学习子网络,均用于获取所述待识别图像的类型特征;
所述第一度量学习子网络和所述第二度量学习子网络,均用于获取所述待识别图像的图像特征。
第三方面,本发明实施例提供一种电子设备,包括:
至少一个处理器;以及
与所述处理器通信连接的至少一个存储器,其中:
所述存储器存储有可被所述处理器执行的程序指令,所述处理器调用所述程序指令能够执行第一方面的各种可能的实现方式中任一种可能的实现方式所提供的行人重识别方法。
第四方面,本发明实施例提供一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令使所述计算机执行第一方面的各种可能的实现方式中任一种可能的实现方式所提供的行人重识别方法。
本发明实施例提供的行人重识别方法和装置,通过孪生网络模型获取待识别图像的特征向量,由于孪生网络可以同时学得具有辨别力的卷积神经网络特征和相似性度量,因而能提高特征提取的准确率,进而能提高行人重识别的准确率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为根据本发明实施例提供的行人重识别方法的流程示意图;
图2为根据本发明实施例提供的行人重识别装置的功能框图;
图3为根据本发明实施例提供的电子设备的结构框图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为了克服现有技术的上述问题,本发明实施例提供一种行人重识别方法和装置,其发明构思是,使用孪生网络提取行人图像的特征,通过孪生网络中的两个网络在训练时互相学习,使得获取的行人图像的特征对行人图像的描述性更强,从而提高行人重识别的准确率。
图1为根据本发明实施例提供的行人重识别方法的流程示意图。如图1所示,一种行人重识别方法包括:步骤S101、将待识别图像输入至训练好的孪生网络模型,输出待识别图像的特征向量;其中,孪生网络模型是基于样本行人图像进行训练后得到的;特征向量由类型特征和图像特征组成;孪生网络模型包括第一卷积神经网络和第二卷积神经网络;第一卷积神经网络与第二卷积神经网络的结构相同;第一卷积神经网络包括第一分类学习子网络和第一度量学习子网络;第二卷积神经网络包括第二分类学习子网络和第二度量学习子网络;第一分类学习子网络和第二分类学习子网络,均用于获取待识别图像的类型特征;第一度量学习子网络和第二度量学习子网络,均用于获取待识别图像的图像特征。
为了便于对本发明各实施例的理解,先对孪生网络模型的结构进行描述。
孪生网络模型包括两个结构相同的卷积神经网络(Convolutional NeuralNetworks,简称CNN):第一卷积神经网络和第二卷积神经网络。结构相同,指卷积神经网络包含的各层以及各层的神经元的个数均相同。由于两个网络的结构相同,因而被称为孪生网络。孪生网络有两个卷积神经网络共同学习,每个卷积神经网络所学习的内容并不相同,能形成互补,通过相互学习、相互监督,在共同学习的过程中更能提高提取特征的准确率,进而提高行人重识别的准确率。
第一卷积神经网络包括两个子网络:第一分类学习子网络和第一度量学习子网络。第一分类学习子网络和第一度量学习子网络为并列的子网络,即将行人图像输入第一卷积神经网络的具体步骤包括:将该行人图像分别输入第一分类学习子网络和第一度量学习子网络。将该行人图像输入至第一分类学习子网络,第一分类学习子网络输出该行人图像的类型特征;将该行人图像输入至第一度量学习子网络,第一度量学习子网络输出该行人图像的图像特征。
类型特征,指行人图像中的行人的身份(即对应样本行人图像中的哪一身份)。
图像特征,指行人图像自身的特征。图像自身的特征一般可分为全局图像特征和局部图像特征。全局图像特征,是指能表示整幅图像上的特征。全局图像特征是相对于图像局部特征而言的,用于描述图像或目标的颜色和形状等整体特征。全局图像特征可以包括线特征、纹理特征、结构特征等。局部图像特征是图像特征的局部表达,它反映了图像上具有的局部特性。局部图像特征可以包括SIFT特征、加速鲁棒特征(Speed Up RobustFeatures,简称SURF特征)、DAISY特征、二元鲁棒独立元特征(Binary Robust IndependentElement Feature,简称BRIEF特征)等。
虽然类型特征已经可以对应行人身份标签,为了降低第一分类学习子网络的分类误差,通过第一度量学习子网络提取图像特征,综合类型特征和图像特征获得输入图像的特征向量,能更好地描述输入图像的特征,从而能提高行人重识别的准确率。
每一行人身份标签,可以表示一个特定行人;可以将一个特定行人,作为一个类型的行人;因此,一个行人身份标签,对应一个类型的行人。
由于第二卷积神经网络的结构与第一卷积神经网络的结构相同,可以理解的是,第二卷积神经网络包括两个子网络:第二分类学习子网络和第二度量学习子网络。第二分类学习子网络和第二度量学习子网络为并列的子网络,即将行人图像输入第二卷积神经网络的具体步骤包括:将该行人图像分别输入第二分类学习子网络和第二度量学习子网络。将该行人图像输入至第二分类学习子网络,第二分类学习子网络输出该行人图像的类型特征;将该行人图像输入至第二度量学习子网络,第二度量学习子网络输出该行人图像的图像特征。
样本行人图像,为多幅预先采集不同身份的行人的图像。在训练过程中,将样本行人图像输入至孪生网络模型,根据第一卷积神经网络和第二卷积神经网络的输出,分别调整第一卷积神经网络和第二卷积神经网络的参数,直至获得训练好的孪生网络模型。对于孪生网络模型的训练,还需要根据样本行人图像对应的行人身份标签。
需要说明的是,待识别图像,是将摄像头等图像设备采集的原始行人图像进行预处理后获得的。
预处理的具体步骤可以包括:将原始行人图像进行归一化后,再进行减均值预处理。
归一化,指将图像的尺寸调整为预设的尺寸(例如256×128像素)后。
减均值,指将图像每个像素的各个通道值,减去各像素对应通道值的平均值。
可以理解的是,样本行人图像也是采用上述方法对原始样本行人图像进行预处理后获得的。
将待识别图像输入至训练好的孪生网络模型后,训练好的孪生网络模型中的第一卷积神经网络和第二卷积神经网络分别输出第一特征向量和第二特征向量,根据第一特征向量和第二特征向量,可以获得待识别图像的特征向量。
第一特征向量,根据第一分类学习子网络的输出和第一度量学习子网络的输出获得;第二特征向量,根据第二分类学习子网络的输出和第二度量学习子网络的输出获得。
根据第一特征向量和第二特征向量,获得待识别图像的特征向量的具体步骤,本发明实施例不作具体限制。
例如,可以比较第一特征向量和第二特征向量,将其中较大的一个确定为待识别图像的特征向量;或者,将第一特征向量和第二特征向量的平均向量,确定为待识别图像的特征向量;或者,比较第一特征向量和第二特征向量中每个元素的值,将其中较大的值确定为待识别图像的特征向量中该元素的值。
步骤S102、根据待识别图像的特征向量和行人图像库中各样本行人图像的特征向量,获取识别结果。
可以理解的是,行人图像库由各样本行人图像组成。行人图像库中,同一行人身份标签对应的样本行人图像可以为多幅。也就是说,对于同一行人,从不同摄像头下获取该行人的图像,并为多幅该行人的图像分配相同的行人身份标签。
获得待识别图像的特征向量后,计算待识别图像与行人图像库中每一样本行人图像的特征向量之间的相似性,按照相似性对样本行人图像的特征向量进行降序排列,确定相似性最大的若干个样本行人图像的特征向量,并根据上述相似性最大的若干个样本行人图像的特征向量所对应的行人身份标签,确定待识别图像对应的行人身份标签,作为识别结果。
识别结果,指待识别图像中行人的重识别结果。
计算待识别图像与行人图像库中每一样本行人图像的特征向量之间的相似性,可以采用现有的任何一种度量向量之间相似性的算法,本发明实施例对此不作具体限制。
例如,可以通过计算待识别图像与行人图像库中每一样本行人图像的特征向量之间的欧氏距离确定二者之间的相似性,欧氏距离越大,说明二者越不相似;因此,可以按照欧氏距离对样本行人图像的特征向量进行升序排列,确定欧氏距离最小的若干个样本行人图像的特征向量,并根据上述欧氏距离最小的若干个样本行人图像的特征向量所对应的行人身份标签,确定待识别图像对应的行人身份标签,作为识别结果。
本发明实施例通过孪生网络模型获取待识别图像的特征向量,由于孪生网络可以同时学得具有辨别力的卷积神经网络特征和相似性度量,因而能提高特征提取的准确率,进而能提高行人重识别的准确率。
基于上述各实施例的内容,第一度量学习子网络包括第一提取分支和第二提取分支;第二度量学习子网络包括第三提取分支和第四提取分支;第一提取分支和第三提取分支,均用于获取待识别图像的全局图像特征;第二提取分支和第四提取分支,均用于获取待识别图像的局部图像特征;相应地,第一度量学习子网络,用于根据第一提取分支获取的待识别图像的全局图像特征和第二提取分支获取的待识别图像的局部图像特征,获取待识别图像的图像特征;第二度量学习子网络,用于根据第三提取分支获取的待识别图像的全局图像特征和第四提取分支获取的待识别图像的局部图像特征,获取待识别图像的图像特征。
具体地,第一度量学习子网络包括两个分支第一提取分支和第二提取分支,分别用于获取待识别图像的全局图像特征和局部图像特征。第一提取分支和第二提取分支为并列结构,即将待识别图像输入第一度量学习子网络的具体步骤为将待识别图像分别输入第一提取分支和第二提取分支。
由于第二卷积神经网络的结构与第一卷积神经网络的结构相同,可以理解的是,第二度量学习子网络包括两个分支第三提取分支和第四提取分支,分别用于获取待识别图像的全局图像特征和局部图像特征。
对于第一度量学习子网络,根据第一提取分支获取的待识别图像的全局图像特征和第二提取分支获取的待识别图像的局部图像特征,可以获取待识别图像的图像特征并输出。
例如,可以预先对全局图像特征和局部图像特征赋予不同的权重,第一度量学习子网络将第一提取分支获取的待识别图像的全局图像特征和第二提取分支获取的待识别图像的局部图像特征进行加权求和,从而获得待识别图像的图像特征。
第二度量学习子网络,根据第三提取分支获取的待识别图像的全局图像特征和第四提取分支获取的待识别图像的局部图像特征,获取待识别图像的图像特征的过程,与上述第一度量学习子网络获取待识别图像的图像特征的过程类似,此处不再赘述。
本发明实施例通过提取全局图像特征和局部图像特征,并根据全局图像特征和局部图像特征获得待识别图像的图像特征,兼顾了待识别图像的全局特征和局部特征,获得的图像特征能更好地描述待识别图像,进而能进一步提高行人重识别的准确率。
基于上述各实施例的内容,获取训练好的孪生网络模型的具体步骤包括:对于每轮训练,根据总损失函数和孪生网络模型的输出,获取孪生网络模型的总损失值;根据每轮训练孪生网络模型的损失值,调整孪生网络模型的参数,直至孪生网络模型的总损失值达到最小值,获得训练好的孪生网络模型。
具体地,对孪生网络模型进行多轮训练,不断地迭代以寻找最优结果,以获得训练好的孪生网络模型。在不断迭代的过程中,评判标准便是使总损失函数对应的损失值最小。
每轮训练,向孪生网络模型输入N幅样本行人图像,根据孪生网络模型的输出和预设的总损失函数,确定该轮训练孪生网络模型的总损失值。
需要说明的是,由于孪生网络模型包括两个CNN,每个CNN包括两个子网络,每个度量学习子网络包括两个分支,孪生网络模型的每个子网络或分支均有损失,因此,总损失函数用于反映孪生网络模型包括的各部分的整体损失。
根据每轮训练孪生网络模型的损失值,调整孪生网络模型的参数,使得孪生网络模型的总损失值随着训练轮数增加呈下降趋势,直至总损失值达到最小值,孪生网络模型达到最优。将总损失值达到最小值时的孪生网络模型,确定为训练好的孪生网络模型。
本发明实施例通过总损失函数反映孪生网络模型包括的各部分的整体损失,通过使得总损失值不断下降,获得训练好的孪生网络模型,使得训练好的孪生网络模型的识别误差更小,能提高行人重识别的准确率。
基于上述各实施例的内容,总损失函数是根据预设的权重对第一类损失函数、第二类损失函数、第三类损失函数和第四类损失函数进行加权求和获得的;第一类损失函数,包括第一分类学习子网络的损失函数和第二分类学习子网络的损失函数;第二类损失函数,包括第一度量学习子网络的损失函数和第二度量学习子网络的损失函数;第三类损失函数,为第一分类学习子网络与第二分类学习子网络之间的损失函数;第四类损失函数,为第一度量学习子网络与第二度量学习子网络之间的损失函数。
具体地,对于第一分类学习子网络和第二分类学习子网络,二者的结构相同,可以使用相同的损失函数。第一分类学习子网络的损失函数和第二分类学习子网络的损失函数,为第一类损失函数。
第一类损失函数,可以采用归一化损失函数(softmax loss),以实现不同类型的行人图像的类型特征的分离。
对于第一度量学习子网络和第二度量学习子网络,均包括两个分支,这四个分支(第一提取分支至第四提取分支)可以使用相同的损失函数。上述四个分支的损失函数,为第二类损失函数。
由于采用了孪生网络,可以是两个卷积神经网络(指第一卷积神经网络和第二卷积神经网络)进行协同学习。两个卷积神经网络相互影响、相互促进,两个卷积神经网络都进行了监督学习,从而能降低识别误差。
协同学习,又称协作学习(Collaborative Learning),是一种通过小组或团队的形式进行学习的一种策略。小组中任一成员的学习结果,可以与小组中的其他成员共享。可以将两个卷积神经网络作为一个小组,实现二者学习结果的共享,从而实现相互影响、相互促进。
第一分类学习子网络与第二分类学习子网络之间,可以采用协同学习方法进行训练。第一分类学习子网络与第二分类学习子网络之间进行协同学习的损失,为分类协同损失。第三类损失函数,用于描述分类协同损失。
第一度量学习子网络与第二度量学习子网络之间,可以采用协同学习方法进行训练。具体地,第一提取分支与第三提取分支络之间,可以采用协同学习方法进行训练;第二提取分支与第四提取分支络之间,可以采用协同学习方法进行训练。
第一提取分支与第三提取分支络之间协同学习的损失,第二提取分支与第四提取分支络之间协同学习的损失,均为度量协同损失。上述两个度量协同损失,均可以通过第四类损失函数描述。
由于孪生网络模型的损失来自上述四种类型,由于上述四种类型的损失对特征提取结果的影响不同,因此,可以预先对上述四类损失函数赋予不同的权重,根据权重对四类损失函数进行加权求和得到的函数作为总损失函数。
本发明实施例通过孪生网络模型中两个卷积神经网络的各自学习和协同学习进行训练,根据预设的权重对四类损失函数进行加权求和获得总损失函数,能获得更优的总损失函数,从而能通过训练得到更优的训练好的孪生网络模型,提高行人重识别的准确率。
基于上述各实施例的内容,第二类损失函数为三元组损失函数。
具体地,对于第一提取分支至第四提取分支,采用度量学习方式进行训练。
度量学习,是指通过距离测度学习来衡量样本之间的相近程度,可以使同类样本之间的距离尽可能小,不同类样本之间的距离尽可能大。度量学习的目的是便是使相似图像的图像特征尽可能靠近,非相似图像的图像特征尽可能背离。
度量学习通常采用三元组方式,相应的损失函数为三元组损失函数。通过定义新的距离度量空间,使得同一行人不同样本行人图像的图像特征之间的距离小于与不同行人的样本行人图像的图像特征之间的距离。
以第一提取分支为例,每一轮的训练随机从样本图像库中选取3种行人类型a,p,n,并满足a=p,a≠n。即a与p取自同一个行人身份标签,与n取自不同的行人身份标签。对于三种行人类型a,p,n,均随机抽取N幅行人样本图像。
三元组损失函数的具体公式为
其中,Ltriplet表示损失值;i表示第i幅样本行人图像,i=1,2,…,N;||*||表示欧氏距离;分别表示将来自行人类型a,p,n的第i幅样本行人图像输入至第一提取分支的输出结果;上标中的2表示平方;下标中的2表示2范数;δ表示预设的阈值。δ表示来自同一身份类型a,p的样本行人图像的图像特征之间的欧式距离与不同身份类型a,n的样本行人图像的图像特征之间的欧式距离差值的阈值,其作用不仅是使得不同行人的样本行人图像的图像特征之间的欧式距离大于相同行人的样本行人图像的图像特征之间的欧式距离,还要使得上述两个欧氏距离的差值大于一个阈值(正数),从而使训练更加具有难度,行人重识别结果更准确。
对于第二提取分支、第三提取分支和第四提取分支,也可以采用上述三元组损失函数的具体公式。
本发明实施例通过三元组损失函数度量图像特征之间的距离,使得相似图像的图像特征尽可能靠近,非相似图像的图像特征尽可能背离,从而能提高度量学习的效果,提取的图像特征对图像的描述更准确,能提高行人重识别的准确率。
基于上述各实施例的内容,第三类损失函数,为第一分类学习子网络的输出与第二分类学习子网络的输出之间的相对熵。
具体地,考虑两个卷积神经网络互相转换知识促进学习的过程,对于第一分类学习子网络的输出与第二分类学习子网络的输出,通过二者之间的相对熵,反映二者之间的损失值。
因此,可以采用分类概率KL的距离即KL divergence作为第三类损失函数。
相对熵,又称KL散度(Kullback–Leibler divergence,简称KL divergence或KLD),是描述两个概率分布之间的差异的一种方法。
本发明实施例通过采用相对熵作为第三类损失函数,加速损失值的收敛,能提高行人重识别的准确率。
基于上述各实施例的内容,第四类损失函数的公式为
其中,LM表示根据第四类损失函数获取的损失值;θ1表示第一卷积神经网络;θ2表示第二卷积神经网络;ZG表示零梯度函数符号;N表示本轮训练使用的样本行人图像的数量;表示第一度量学习子网络获取的本轮训练中第i幅样本行人图像的图像特征,与本轮训练中第j幅样本行人图像的图像特征之间的距离;表示第二度量学习子网络获取的本轮训练中第i幅样本行人图像的图像特征,与本轮训练中第j幅样本行人图像的图像特征之间的距离。
具体地,对于第一提取分支和第三提取分支,每轮训练采用的N幅样本行人图像,第一提取分支和第三提取分支分别获取上述N幅样本行人图像的全局图像特征。第一提取分支和第三提取分支分别获取上述N幅样本行人图像的全局图像特征,计算第一提取分支获取的上述N幅样本行人图像的全局图像特征中每一样本行人图像的全局图像特征,与第三提取分支获取的上述N幅样本行人图像的全局图像特征中每一样本行人图像的全局图像特征之间的距离,获得两个N×N的距离矩阵。与分别为上述两个距离矩阵中中(i,j)处的元素。可以理解的是,上述两个距离矩阵互为转置。
对于零梯度函数,当计算梯度时可以把变量当成一个常数,这样可以在学习阶段停止后向传递。
应用零梯度函数时,二阶阶梯度满足
由于零梯度函数的引用,减少了后向传递过程的时间消耗,加速了损失值的收敛,提高了准确率。
对于第二提取分支和第四提取分支之间的协同学习,也可以采用上述第四类损失函数的具体公式,此处不再赘述。
本发明实施例基于零梯度函数构造第四类损失函数,加速损失值的收敛,能提高行人重识别的准确率。
为了便于对本发明各实施例的理解,下面通过一个实例对本发明实施例提供的行人重识别方法的技术效果进行说明。
采用三种公开的行人数据集Market、CUHK、Duke,分别作为三个数据来源。对于每个数据来源,将该来源的数据集分为train、val、test三个集合。每个数据集的行人类型为2220种。将行人数据集中的图像进行预处理使之归一化。从test集合中随机选择每一行人类型的一副图片,组成测试集;将test集合中未被选择的图像,组成样本图像库。
采用在ImageNet上与训练的resnet18作为基础网络(训练前的第一卷积神经网络和第二卷积神经网络),经过卷积层的学习后共同提取样本图像库中各图像的局部特征和全局特征,再通过随机梯度下降使总损失函数值不断降低,以最终达到要求,获得训练好的孪生网络模型。由此,完成样本图像库中各图像的特征提取,获得各样本行人图像的特征向量。
对测试集中的任一图像进行行人重识别(即预测阶段)时,考虑到互相学习(协同学习)的作用,可以发现提取的全局特征在局部特征的影响下,已经可以准确的描述图片,全局特征和局部特征的描述效果并无明显区别,由于全局特征提取速度快,一致性描述强,所以在预测阶段可以不考虑局部特征的影响,使图像特征中局部图像特征的权重为0。
计算测试集中每一图像的特征向量和样本图像库中每一行人样本图像的特征向量之间的欧氏距离,利用重排序使得距离最小放在位于顶部,同时使用得到的距离值计算mAP(平均精度均值,mean Average Precision)和CMC1、CMC5和CMC10作为衡量模型准确率的评价指标。其中,CMC为累积匹配曲线(Cumulative Match Characteristic)的缩写;CMC1、CMC5和CMC10分别表示取欧氏距离最小的1、5、10幅样本图像时模型的误差。
采用控制变量法,对单一网络模型和本发明提供的孪生网络模型分别测试,测试结果如表1所示。
表1测试结果对比表
从表1可以看出,本发明提供的行人重识别方法的识别准确率更高。
图2为根据本发明实施例提供的行人重识别装置的功能框图。基于上述各实施例的内容,如图2所示,该行人重识别装置包括特征提取模块201、和行人识别模块202,其中:
特征提取模块201,用于将待识别图像输入至孪生网络模型,输出待识别图像的特征向量;
行人识别模块202,用于根据待识别图像的特征向量和行人图像库中各样本行人图像的特征向量,获取识别结果;
其中,孪生网络模型是基于样本行人图像进行训练后得到的;特征向量由类型特征和图像特征组成;
孪生网络模型包括第一卷积神经网络和第二卷积神经网络;第一卷积神经网络与第二卷积神经网络的结构相同;第一卷积神经网络包括第一分类学习子网络和第一度量学习子网络;第二卷积神经网络包括第二分类学习子网络和第二度量学习子网络;
第一分类学习子网络和第二分类学习子网络,均用于获取待识别图像的类型特征;
第一度量学习子网络和第二度量学习子网络,均用于获取待识别图像的图像特征。
具体地,特征提取模块201将待识别图像输入至训练好的孪生网络模型后,训练好的孪生网络模型中的第一卷积神经网络和第二卷积神经网络分别输出第一特征向量和第二特征向量,根据第一特征向量和第二特征向量,可以获得待识别图像的特征向量。
第一特征向量,根据第一分类学习子网络的输出和第一度量学习子网络的输出获得;第二特征向量,根据第二分类学习子网络的输出和第二度量学习子网络的输出获得。
行人识别模块202,获得待识别图像的特征向量后,计算待识别图像与行人图像库中每一样本行人图像的特征向量之间的相似性,按照相似性对样本行人图像的特征向量进行降序排列,确定相似性最大的若干个样本行人图像的特征向量,并根据上述相似性最大的若干个样本行人图像的特征向量所对应的行人身份标签,确定待识别图像对应的行人身份标签,作为识别结果。
本发明实施例提供的行人重识别装置,用于执行本发明实施例提供的行人重识别方法,该行人重识别装置包括的各模块实现相应功能的具体方法和流程详见上述行人重识别方法的实施例,此处不再赘述。
该行人重识别装置用于前述各实施例的行人重识别方法。因此,在前述各实施例中的行人重识别方法中的描述和定义,可以用于本发明实施例中各执行模块的理解。
通过孪生网络模型获取待识别图像的特征向量,由于孪生网络可以同时学得具有辨别力的卷积神经网络特征和相似性度量,因而能提高特征提取的准确率,进而能提高行人重识别的准确率。
图3为根据本发明实施例提供的电子设备的结构框图。基于上述实施例的内容,如图3所示,该电子设备可以包括:处理器(processor)301、存储器(memory)302和总线303;其中,处理器301和存储器302通过总线303完成相互间的通信;处理器301用于调用存储在存储器302中并可在处理器301上运行的计算机程序指令,以执行上述各方法实施例所提供的方法,例如包括:将待识别图像输入至训练好的孪生网络模型,输出待识别图像的特征向量;根据待识别图像的特征向量和行人图像库中各样本行人图像的特征向量,获取识别结果。
本发明另一实施例公开一种计算机程序产品,计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,计算机程序包括程序指令,当程序指令被计算机执行时,计算机能够执行上述各方法实施例所提供的方法,例如包括:将待识别图像输入至训练好的孪生网络模型,输出待识别图像的特征向量;根据待识别图像的特征向量和行人图像库中各样本行人图像的特征向量,获取识别结果。
此外,上述的存储器302中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本发明另一实施例提供一种非暂态计算机可读存储介质,非暂态计算机可读存储介质存储计算机指令,计算机指令使计算机执行上述各方法实施例所提供的方法,例如包括:将待识别图像输入至训练好的孪生网络模型,输出待识别图像的特征向量;根据待识别图像的特征向量和行人图像库中各样本行人图像的特征向量,获取识别结果。
以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行上述各个实施例或者实施例的某些部分的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种行人重识别方法,其特征在于,包括:
将待识别图像输入至训练好的孪生网络模型,输出所述待识别图像的特征向量;
根据所述待识别图像的特征向量和行人图像库中各样本行人图像的特征向量,获取识别结果;
其中,所述孪生网络模型是基于样本行人图像进行训练后得到的;所述特征向量由类型特征和图像特征组成;
所述孪生网络模型包括第一卷积神经网络和第二卷积神经网络;所述第一卷积神经网络与所述第二卷积神经网络的结构相同;所述第一卷积神经网络包括第一分类学习子网络和第一度量学习子网络;所述第二卷积神经网络包括第二分类学习子网络和第二度量学习子网络;
所述第一分类学习子网络和所述第二分类学习子网络,均用于获取所述待识别图像的类型特征;
所述第一度量学习子网络和所述第二度量学习子网络,均用于获取所述待识别图像的图像特征。
2.根据权利要求1所述的行人重识别方法,其特征在于,所述第一度量学习子网络包括第一提取分支和第二提取分支;所述第二度量学习子网络包括第三提取分支和第四提取分支;
所述第一提取分支和所述第三提取分支,均用于获取所述待识别图像的全局图像特征;
所述第二提取分支和所述第四提取分支,均用于获取所述待识别图像的局部图像特征;
相应地,所述第一度量学习子网络,用于根据所述第一提取分支获取的所述待识别图像的全局图像特征和所述第二提取分支获取的所述待识别图像的局部图像特征,获取所述待识别图像的图像特征;
所述第二度量学习子网络,用于根据所述第三提取分支获取的所述待识别图像的全局图像特征和所述第四提取分支获取的所述待识别图像的局部图像特征,获取所述待识别图像的图像特征。
3.根据权利要求2所述的行人重识别方法,其特征在于,获取所述训练好的孪生网络模型的具体步骤包括:
对于每轮训练,根据总损失函数和孪生网络模型的输出,获取孪生网络模型的总损失值;
根据每轮训练孪生网络模型的损失值,调整孪生网络模型的参数,直至孪生网络模型的总损失值达到最小值,获得所述训练好的孪生网络模型。
4.根据权利要求3所述的行人重识别方法,其特征在于,所述总损失函数是根据预设的权重对第一类损失函数、第二类损失函数、第三类损失函数和第四类损失函数进行加权求和获得的;
所述第一类损失函数,包括所述第一分类学习子网络的损失函数和所述第二分类学习子网络的损失函数;
所述第二类损失函数,包括所述第一度量学习子网络的损失函数和所述第二度量学习子网络的损失函数;
所述第三类损失函数,为所述第一分类学习子网络与所述第二分类学习子网络之间的损失函数;
所述第四类损失函数,为所述第一度量学习子网络与所述第二度量学习子网络之间的损失函数。
5.根据权利要求4所述的行人重识别方法,其特征在于,所述第二类损失函数为三元组损失函数。
6.根据权利要求4所述的行人重识别方法,其特征在于,所述第三类损失函数,为所述第一分类学习子网络的输出与所述第二分类学习子网络的输出之间的相对熵。
7.根据权利要求4所述的行人重识别方法,其特征在于,所述第四类损失函数的公式为
其中,LM表示根据第四类损失函数获取的损失值;θ1表示第一卷积神经网络;θ2表示第二卷积神经网络;ZG表示零梯度函数符号;N表示本轮训练使用的样本行人图像的数量;表示第一度量学习子网络获取的本轮训练中第i幅样本行人图像的图像特征,与本轮训练中第j幅样本行人图像的图像特征之间的距离;表示第二度量学习子网络获取的本轮训练中第i幅样本行人图像的图像特征,与本轮训练中第j幅样本行人图像的图像特征之间的距离。
8.一种行人重识别装置,其特征在于,包括:
特征提取模块,用于将待识别图像输入至孪生网络模型,输出所述待识别图像的特征向量;
行人识别模块,用于根据所述待识别图像的特征向量和行人图像库中各样本行人图像的特征向量,获取识别结果;
其中,所述孪生网络模型是基于样本行人图像进行训练后得到的;所述特征向量由类型特征和图像特征组成;
所述孪生网络模型包括第一卷积神经网络和第二卷积神经网络;所述第一卷积神经网络与所述第二卷积神经网络的结构相同;所述第一卷积神经网络包括第一分类学习子网络和第一度量学习子网络;所述第二卷积神经网络包括第二分类学习子网络和第二度量学习子网络;
所述第一分类学习子网络和所述第二分类学习子网络,均用于获取所述待识别图像的类型特征;
所述第一度量学习子网络和所述第二度量学习子网络,均用于获取所述待识别图像的图像特征。
9.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述处理器通信连接的至少一个存储器,其中:
所述存储器存储有可被所述处理器执行的程序指令,所述处理器调用所述程序指令能够执行如权利要求1至7任一所述的方法。
10.一种非暂态计算机可读存储介质,其特征在于,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令使所述计算机执行如权利要求1至7任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811540943.8A CN109784182A (zh) | 2018-12-17 | 2018-12-17 | 行人重识别方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811540943.8A CN109784182A (zh) | 2018-12-17 | 2018-12-17 | 行人重识别方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109784182A true CN109784182A (zh) | 2019-05-21 |
Family
ID=66497094
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811540943.8A Pending CN109784182A (zh) | 2018-12-17 | 2018-12-17 | 行人重识别方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109784182A (zh) |
Cited By (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110427813A (zh) * | 2019-06-24 | 2019-11-08 | 中国矿业大学 | 基于姿态指导行人图像生成的孪生生成式对抗网络的行人重识别方法 |
CN110516745A (zh) * | 2019-08-28 | 2019-11-29 | 北京达佳互联信息技术有限公司 | 图像识别模型的训练方法、装置及电子设备 |
CN110533184A (zh) * | 2019-08-31 | 2019-12-03 | 南京人工智能高等研究院有限公司 | 一种网络模型的训练方法及装置 |
CN110532890A (zh) * | 2019-08-05 | 2019-12-03 | 安徽大学 | 一种基于云端、边缘端和设备端的分布式孪生卷积神经网络行人重识别方法 |
CN110598019A (zh) * | 2019-09-11 | 2019-12-20 | 腾讯科技(深圳)有限公司 | 重复图像识别方法及装置 |
CN110874574A (zh) * | 2019-10-30 | 2020-03-10 | 平安科技(深圳)有限公司 | 行人重识别方法、装置、计算机设备及可读存储介质 |
CN110929558A (zh) * | 2019-10-08 | 2020-03-27 | 杭州电子科技大学 | 一种基于深度学习的行人重识别方法 |
CN110942012A (zh) * | 2019-11-22 | 2020-03-31 | 上海眼控科技股份有限公司 | 图像特征提取方法、行人重识别方法、装置和计算机设备 |
CN111046780A (zh) * | 2019-12-06 | 2020-04-21 | 北京市商汤科技开发有限公司 | 神经网络训练及图像识别方法、装置、设备和存储介质 |
CN111143604A (zh) * | 2019-12-25 | 2020-05-12 | 腾讯音乐娱乐科技(深圳)有限公司 | 一种音频的相似度匹配方法、装置及存储介质 |
CN111275010A (zh) * | 2020-02-25 | 2020-06-12 | 福建师范大学 | 一种基于计算机视觉的行人重识别方法 |
CN111401267A (zh) * | 2020-03-19 | 2020-07-10 | 山东大学 | 基于自学习局部特征表征的视频行人再识别方法及系统 |
CN111860374A (zh) * | 2020-07-24 | 2020-10-30 | 苏州浪潮智能科技有限公司 | 一种行人重识别方法、装置、设备及存储介质 |
CN111931641A (zh) * | 2020-08-07 | 2020-11-13 | 华南理工大学 | 基于权重多样性正则化的行人重识别方法及其应用 |
CN111931637A (zh) * | 2020-08-07 | 2020-11-13 | 华南理工大学 | 基于双流卷积神经网络的跨模态行人重识别方法和系统 |
CN112069860A (zh) * | 2019-06-10 | 2020-12-11 | 联想新视界(北京)科技有限公司 | 一种基于肢体姿势图像识别奶牛的方法和装置 |
CN112069857A (zh) * | 2019-06-10 | 2020-12-11 | 联想新视界(天津)科技有限公司 | 一种识别奶牛花纹的方法和装置 |
CN112183224A (zh) * | 2020-09-07 | 2021-01-05 | 北京达佳互联信息技术有限公司 | 用于图像识别的模型训练方法、图像识别方法和装置 |
CN112232269A (zh) * | 2020-10-29 | 2021-01-15 | 南京莱斯网信技术研究院有限公司 | 一种基于孪生网络的船舶身份智能识别方法及系统 |
CN112241764A (zh) * | 2020-10-23 | 2021-01-19 | 北京百度网讯科技有限公司 | 图像识别方法、装置、电子设备及存储介质 |
CN112258559A (zh) * | 2020-10-26 | 2021-01-22 | 上海萱闱医疗科技有限公司 | 一种基于多目标跟踪的智能跑步计时评分系统和方法 |
CN112668365A (zh) * | 2019-10-15 | 2021-04-16 | 顺丰科技有限公司 | 一种物料入库识别方法、装置、设备及存储介质 |
CN112801008A (zh) * | 2021-02-05 | 2021-05-14 | 电子科技大学中山学院 | 行人重识别方法、装置、电子设备及可读存储介质 |
CN112861975A (zh) * | 2021-02-10 | 2021-05-28 | 北京百度网讯科技有限公司 | 分类模型的生成方法、分类方法、装置、电子设备与介质 |
CN112906730A (zh) * | 2020-08-27 | 2021-06-04 | 腾讯科技(深圳)有限公司 | 一种信息处理方法、装置及计算机可读存储介质 |
CN112949590A (zh) * | 2021-03-31 | 2021-06-11 | 济南大学 | 一种跨域行人重识别模型构建方法及构建系统 |
CN112949608A (zh) * | 2021-04-15 | 2021-06-11 | 南京邮电大学 | 基于孪生语义自编码器和分支融合的行人重识别方法 |
CN113095269A (zh) * | 2021-04-22 | 2021-07-09 | 云南中烟工业有限责任公司 | 一种基于孪生神经网络判别卷烟爆珠受潮程度的方法 |
CN113239776A (zh) * | 2021-05-10 | 2021-08-10 | 北方工业大学 | 一种基于能量模型的行人重识别方法 |
CN113379779A (zh) * | 2021-06-07 | 2021-09-10 | 华南理工大学 | 堆叠宽度学习系统的边缘计算方法、装置、介质和设备 |
CN113449672A (zh) * | 2021-07-07 | 2021-09-28 | 中国人民解放军国防科技大学 | 基于双线性孪生架构的遥感场景分类方法和装置 |
WO2022001034A1 (en) * | 2020-06-29 | 2022-01-06 | Zhejiang Dahua Technology Co., Ltd. | Target re-identification method, network training method thereof, and related device |
CN114170687A (zh) * | 2021-12-08 | 2022-03-11 | 山东大学 | 基于指导信息的人体骨架动作早期识别方法及系统 |
CN115100690A (zh) * | 2022-08-24 | 2022-09-23 | 天津大学 | 一种基于联合学习的图像特征提取方法 |
WO2023272995A1 (zh) * | 2021-06-29 | 2023-01-05 | 苏州浪潮智能科技有限公司 | 一种行人重识别方法、装置、设备及可读存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007103494A2 (en) * | 2006-03-09 | 2007-09-13 | General Electric Company | Method and system for performing image re-identification |
US20130343642A1 (en) * | 2012-06-21 | 2013-12-26 | Siemens Corporation | Machine-learnt person re-identification |
CN107844753A (zh) * | 2017-10-20 | 2018-03-27 | 珠海习悦信息技术有限公司 | 视频图像中的行人重识别方法、装置、存储介质及处理器 |
US20180204093A1 (en) * | 2017-01-19 | 2018-07-19 | Cisco Technology, Inc. | Clustering-based person re-identification |
CN108764308A (zh) * | 2018-05-16 | 2018-11-06 | 中国人民解放军陆军工程大学 | 一种基于卷积循环网络的行人重识别方法 |
-
2018
- 2018-12-17 CN CN201811540943.8A patent/CN109784182A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007103494A2 (en) * | 2006-03-09 | 2007-09-13 | General Electric Company | Method and system for performing image re-identification |
US20130343642A1 (en) * | 2012-06-21 | 2013-12-26 | Siemens Corporation | Machine-learnt person re-identification |
US20180204093A1 (en) * | 2017-01-19 | 2018-07-19 | Cisco Technology, Inc. | Clustering-based person re-identification |
CN107844753A (zh) * | 2017-10-20 | 2018-03-27 | 珠海习悦信息技术有限公司 | 视频图像中的行人重识别方法、装置、存储介质及处理器 |
CN108764308A (zh) * | 2018-05-16 | 2018-11-06 | 中国人民解放军陆军工程大学 | 一种基于卷积循环网络的行人重识别方法 |
Non-Patent Citations (1)
Title |
---|
XUAN ZHANG 等: "AlignedReID: Surpassing Human-Level Performance in Person Re-Identification", 《ARXIV:COMPUTER VISION AND PATTERN RECOGNITION》 * |
Cited By (56)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112069860A (zh) * | 2019-06-10 | 2020-12-11 | 联想新视界(北京)科技有限公司 | 一种基于肢体姿势图像识别奶牛的方法和装置 |
CN112069857A (zh) * | 2019-06-10 | 2020-12-11 | 联想新视界(天津)科技有限公司 | 一种识别奶牛花纹的方法和装置 |
CN110427813B (zh) * | 2019-06-24 | 2023-06-09 | 中国矿业大学 | 基于姿态指导行人图像生成的孪生生成式对抗网络的行人重识别方法 |
CN110427813A (zh) * | 2019-06-24 | 2019-11-08 | 中国矿业大学 | 基于姿态指导行人图像生成的孪生生成式对抗网络的行人重识别方法 |
CN110532890A (zh) * | 2019-08-05 | 2019-12-03 | 安徽大学 | 一种基于云端、边缘端和设备端的分布式孪生卷积神经网络行人重识别方法 |
CN110532890B (zh) * | 2019-08-05 | 2021-10-22 | 安徽大学 | 一种基于云端、边缘端和设备端的分布式孪生卷积神经网络行人重识别方法 |
CN110516745A (zh) * | 2019-08-28 | 2019-11-29 | 北京达佳互联信息技术有限公司 | 图像识别模型的训练方法、装置及电子设备 |
CN110516745B (zh) * | 2019-08-28 | 2022-05-24 | 北京达佳互联信息技术有限公司 | 图像识别模型的训练方法、装置及电子设备 |
CN110533184A (zh) * | 2019-08-31 | 2019-12-03 | 南京人工智能高等研究院有限公司 | 一种网络模型的训练方法及装置 |
CN110598019A (zh) * | 2019-09-11 | 2019-12-20 | 腾讯科技(深圳)有限公司 | 重复图像识别方法及装置 |
CN110929558B (zh) * | 2019-10-08 | 2022-10-18 | 杭州电子科技大学 | 一种基于深度学习的行人重识别方法 |
CN110929558A (zh) * | 2019-10-08 | 2020-03-27 | 杭州电子科技大学 | 一种基于深度学习的行人重识别方法 |
CN112668365A (zh) * | 2019-10-15 | 2021-04-16 | 顺丰科技有限公司 | 一种物料入库识别方法、装置、设备及存储介质 |
CN110874574A (zh) * | 2019-10-30 | 2020-03-10 | 平安科技(深圳)有限公司 | 行人重识别方法、装置、计算机设备及可读存储介质 |
CN110874574B (zh) * | 2019-10-30 | 2024-05-07 | 平安科技(深圳)有限公司 | 行人重识别方法、装置、计算机设备及可读存储介质 |
CN110942012A (zh) * | 2019-11-22 | 2020-03-31 | 上海眼控科技股份有限公司 | 图像特征提取方法、行人重识别方法、装置和计算机设备 |
CN111046780A (zh) * | 2019-12-06 | 2020-04-21 | 北京市商汤科技开发有限公司 | 神经网络训练及图像识别方法、装置、设备和存储介质 |
CN111143604A (zh) * | 2019-12-25 | 2020-05-12 | 腾讯音乐娱乐科技(深圳)有限公司 | 一种音频的相似度匹配方法、装置及存储介质 |
CN111143604B (zh) * | 2019-12-25 | 2024-02-02 | 腾讯音乐娱乐科技(深圳)有限公司 | 一种音频的相似度匹配方法、装置及存储介质 |
CN111275010A (zh) * | 2020-02-25 | 2020-06-12 | 福建师范大学 | 一种基于计算机视觉的行人重识别方法 |
CN111401267B (zh) * | 2020-03-19 | 2023-06-13 | 山东大学 | 基于自学习局部特征表征的视频行人再识别方法及系统 |
CN111401267A (zh) * | 2020-03-19 | 2020-07-10 | 山东大学 | 基于自学习局部特征表征的视频行人再识别方法及系统 |
WO2022001034A1 (en) * | 2020-06-29 | 2022-01-06 | Zhejiang Dahua Technology Co., Ltd. | Target re-identification method, network training method thereof, and related device |
CN111860374A (zh) * | 2020-07-24 | 2020-10-30 | 苏州浪潮智能科技有限公司 | 一种行人重识别方法、装置、设备及存储介质 |
CN111931641A (zh) * | 2020-08-07 | 2020-11-13 | 华南理工大学 | 基于权重多样性正则化的行人重识别方法及其应用 |
CN111931637A (zh) * | 2020-08-07 | 2020-11-13 | 华南理工大学 | 基于双流卷积神经网络的跨模态行人重识别方法和系统 |
CN111931641B (zh) * | 2020-08-07 | 2023-08-22 | 华南理工大学 | 基于权重多样性正则化的行人重识别方法及其应用 |
CN111931637B (zh) * | 2020-08-07 | 2023-09-15 | 华南理工大学 | 基于双流卷积神经网络的跨模态行人重识别方法和系统 |
CN112906730A (zh) * | 2020-08-27 | 2021-06-04 | 腾讯科技(深圳)有限公司 | 一种信息处理方法、装置及计算机可读存储介质 |
CN112906730B (zh) * | 2020-08-27 | 2023-11-28 | 腾讯科技(深圳)有限公司 | 一种信息处理方法、装置及计算机可读存储介质 |
CN112183224A (zh) * | 2020-09-07 | 2021-01-05 | 北京达佳互联信息技术有限公司 | 用于图像识别的模型训练方法、图像识别方法和装置 |
CN112241764A (zh) * | 2020-10-23 | 2021-01-19 | 北京百度网讯科技有限公司 | 图像识别方法、装置、电子设备及存储介质 |
CN112241764B (zh) * | 2020-10-23 | 2023-08-08 | 北京百度网讯科技有限公司 | 图像识别方法、装置、电子设备及存储介质 |
CN112258559B (zh) * | 2020-10-26 | 2024-05-07 | 上海萱闱医疗科技有限公司 | 一种基于多目标跟踪的智能跑步计时评分系统和方法 |
CN112258559A (zh) * | 2020-10-26 | 2021-01-22 | 上海萱闱医疗科技有限公司 | 一种基于多目标跟踪的智能跑步计时评分系统和方法 |
CN112232269B (zh) * | 2020-10-29 | 2024-02-09 | 南京莱斯网信技术研究院有限公司 | 一种基于孪生网络的船舶身份智能识别方法及系统 |
CN112232269A (zh) * | 2020-10-29 | 2021-01-15 | 南京莱斯网信技术研究院有限公司 | 一种基于孪生网络的船舶身份智能识别方法及系统 |
CN112801008A (zh) * | 2021-02-05 | 2021-05-14 | 电子科技大学中山学院 | 行人重识别方法、装置、电子设备及可读存储介质 |
CN112801008B (zh) * | 2021-02-05 | 2024-05-31 | 电子科技大学中山学院 | 行人重识别方法、装置、电子设备及可读存储介质 |
CN112861975B (zh) * | 2021-02-10 | 2023-09-26 | 北京百度网讯科技有限公司 | 分类模型的生成方法、分类方法、装置、电子设备与介质 |
US12026937B2 (en) | 2021-02-10 | 2024-07-02 | Beijing Baidu Netcom Science Technology Co., Ltd. | Method for generating classification model, electronic device, and medium |
CN112861975A (zh) * | 2021-02-10 | 2021-05-28 | 北京百度网讯科技有限公司 | 分类模型的生成方法、分类方法、装置、电子设备与介质 |
CN112949590A (zh) * | 2021-03-31 | 2021-06-11 | 济南大学 | 一种跨域行人重识别模型构建方法及构建系统 |
CN112949608A (zh) * | 2021-04-15 | 2021-06-11 | 南京邮电大学 | 基于孪生语义自编码器和分支融合的行人重识别方法 |
CN112949608B (zh) * | 2021-04-15 | 2022-08-02 | 南京邮电大学 | 基于孪生语义自编码器和分支融合的行人重识别方法 |
CN113095269A (zh) * | 2021-04-22 | 2021-07-09 | 云南中烟工业有限责任公司 | 一种基于孪生神经网络判别卷烟爆珠受潮程度的方法 |
CN113239776A (zh) * | 2021-05-10 | 2021-08-10 | 北方工业大学 | 一种基于能量模型的行人重识别方法 |
CN113239776B (zh) * | 2021-05-10 | 2023-06-06 | 北方工业大学 | 一种基于能量模型的行人重识别方法 |
CN113379779A (zh) * | 2021-06-07 | 2021-09-10 | 华南理工大学 | 堆叠宽度学习系统的边缘计算方法、装置、介质和设备 |
US11830275B1 (en) | 2021-06-29 | 2023-11-28 | Inspur Suzhou Intelligent Technology Co., Ltd. | Person re-identification method and apparatus, device, and readable storage medium |
WO2023272995A1 (zh) * | 2021-06-29 | 2023-01-05 | 苏州浪潮智能科技有限公司 | 一种行人重识别方法、装置、设备及可读存储介质 |
CN113449672A (zh) * | 2021-07-07 | 2021-09-28 | 中国人民解放军国防科技大学 | 基于双线性孪生架构的遥感场景分类方法和装置 |
CN113449672B (zh) * | 2021-07-07 | 2022-08-19 | 中国人民解放军国防科技大学 | 基于双线性孪生架构的遥感场景分类方法和装置 |
CN114170687A (zh) * | 2021-12-08 | 2022-03-11 | 山东大学 | 基于指导信息的人体骨架动作早期识别方法及系统 |
CN114170687B (zh) * | 2021-12-08 | 2024-05-07 | 山东大学 | 基于指导信息的人体骨架动作早期识别方法及系统 |
CN115100690A (zh) * | 2022-08-24 | 2022-09-23 | 天津大学 | 一种基于联合学习的图像特征提取方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109784182A (zh) | 行人重识别方法和装置 | |
Zhou et al. | Recurrent convolutional neural network regression for continuous pain intensity estimation in video | |
Wang et al. | Deeply-learned feature for age estimation | |
CN108108807B (zh) | 学习型图像处理方法、系统及服务器 | |
CN109558810B (zh) | 基于部位分割与融合目标人物识别方法 | |
CN106295124B (zh) | 多种图像检测技术综合分析基因子图相似概率量的方法 | |
CN106358444B (zh) | 用于面部验证的方法和系统 | |
CN110956111A (zh) | 人工智能cnn、lstm神经网络步态识别系统 | |
Taheri et al. | Animal classification using facial images with score‐level fusion | |
CN109101938B (zh) | 一种基于卷积神经网络的多标签年龄估计方法 | |
CN111783532B (zh) | 一种基于在线学习的跨年龄人脸识别方法 | |
CN109002755B (zh) | 基于人脸图像的年龄估计模型构建方法及估计方法 | |
CN106407958B (zh) | 基于双层级联的面部特征检测方法 | |
CN109919241B (zh) | 基于概率模型和深度学习的高光谱未知类别目标检测方法 | |
CN108921107A (zh) | 基于排序损失和Siamese网络的行人再识别方法 | |
CN111126482A (zh) | 一种基于多分类器级联模型的遥感影像自动分类方法 | |
CN110837768A (zh) | 一种面向珍稀动物保护的在线检测与识别方法 | |
CN107368803A (zh) | 一种基于类别稀疏表示的人脸识别方法及系统 | |
Song et al. | Feature extraction and target recognition of moving image sequences | |
Yang et al. | A Face Detection Method Based on Skin Color Model and Improved AdaBoost Algorithm. | |
Chin et al. | Facial skin image classification system using Convolutional Neural Networks deep learning algorithm | |
CN108694375B (zh) | 一种可用于多电子鼻平台的图像化白酒识别方法 | |
Al-Nima | Human authentication with earprint for secure telephone system | |
Stojanović et al. | ANN based fingerprint image ROI segmentation | |
Pospisil et al. | Comparing the brainʼs representation of shape to that of a deep convolutional neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190521 |
|
RJ01 | Rejection of invention patent application after publication |