CN109886141B - 一种基于不确定性优化的行人再辨识方法 - Google Patents
一种基于不确定性优化的行人再辨识方法 Download PDFInfo
- Publication number
- CN109886141B CN109886141B CN201910079205.6A CN201910079205A CN109886141B CN 109886141 B CN109886141 B CN 109886141B CN 201910079205 A CN201910079205 A CN 201910079205A CN 109886141 B CN109886141 B CN 109886141B
- Authority
- CN
- China
- Prior art keywords
- network
- image
- pedestrian
- images
- bayesian
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及计算机视觉领域,采用深度学习框架,更具体地,本发明涉及一种基于不确定性优化的行人再辨识方法,包括以下步骤:1)使用孪生网络结构,将两个属于相同或不同行人的原始图像分别作为两个同构网络的输入;2)使用inception网络和Dropout层叠加的方式,用来实现不确定性优化的贝叶斯卷积神经网络作为特征提取网络;3)根据孪生网络的特征输出,计算二分类损失和各自网络的多分类损失,叠加后用于网络的反向传播和参数优化;4)将待辨识行人图像和所有比对图像输入训练好的模型,提取图像特征;5)利用欧式距离计算公式,获取待辨识行人图像和比对图像之间的最终距离;6)根据特征相似度距离进行排序,获取与待辨识行人对应的对比图像匹配排序。与现有技术相比,本发明具有在全部样本和少样本下都具有高准确性、高鲁棒性、快速简便等优点。
Description
技术领域
本发明涉及计算机视觉领域,采用深度学习框架,更具体地,本发明涉及一种基于不确定性优化的行人再辨识方法。
背景技术
行人再辨识是智能视频分析突破海量监控视频技术应用瓶颈的关键一环,在最近几年引起了众多研究学者的关注。行人再辨识是指在不同时间以及不同摄像头下对同一个行人目标进行匹配行人再辨识是一个非常具有挑战性的研究问题。实际生活中的大规模视频监控网络系统,环境、设备的复杂性和不可预计性会给行人再辨识的实现带来各种各样的不确定性。其一,不同摄像头由于硬件条件、参数等不同,所拍摄的视频图像质量也存在着差别。这种硬件设备自身的不确定性,要求行人再辨识技术具有非常强的鲁棒性,以适用于不同硬件设备所拍摄的不同质量的视频。其二,每台监控摄像头所面对的场景信息各异,所处位置、光照条件、天气条件等都存在不确定因素,这也给行人再辨识带来困难。如在白天光照条件良好的情况下,摄像头所拍摄的视频一般较为清晰、色彩分明,有利于行人视频图像的智能分析;而在夜晚光照条件不足的情况下,大部分监控摄像头所拍摄的行人视频图像都存在噪点多、色彩单一的问题,难以进行快速准确的智能分析和匹配。因此,场景的不确定性,也是在设计行人再辨识技术时需要考虑的问题。其三,行人自身也存在诸多不确定性,使得行人再辨识难度进一步加大。举例来说,行人的着装是行人再辨识中最重要的判断依据之一,但着装存在众多人为的不确定因素,包括脱去外套、挽起袖子等等。同样,行人的步态、是否背包、是否下蹲等也都是影响行人检测准确率的不确定因素。这些实际生活中大规模视频监控网络系统存在的诸多不确定性,是影响行人再辨识准确率的主要因素,也是在行人再辨识技术中需要着重解决的问题。
近年来,随着深度学习技术的迅速发展,行人再辨识的主流研究已从传统的特征表示和度量学习方法向基于深度学习的端到端行人再辨识方法转移,该类方法可对行人目标进行多层次的特征表达,从而更好地对行人图像进行描述。然而,在基于深度学习的行人再辨识方法中,仍存在许多不确定性的干扰因素,主要包括:样本不确定性,结构不确定性,模型参数不确定性以及模型预测置信度的不确定性。
专利CN 106897669A提出了一种基于迭代多视角迁移学习的行人再辨识方法,基于外观特征提取鲁棒的特征描述符,基于度量学习构造相似性度量函数。采用迁移学习解决样本分布不一致问题。但是该方法将行人再辨识拆解为两个独立的过程,没有端到端的模型,面对如今海量数据,在大规模行人再辨识数据集上难以实现。
专利CN 107729805A提出了一种用于行人再识别的神经网络和基于深度学习的行人再识别算法。使用端到端的神经网络模型进行行人特征提取和匹配。但是该方法没有考虑到行人再辨识过程中的过拟合问题和不确定性问题,深度学习中的样本、参数、结构不确定性都会对行人再辨识结果造成较大的负面影响,尤其当行人样本数量较少时,识别率较低。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于不确定性优化的行人再辨识方法。
本发明的目的可以通过以下技术方案来实现:
一种基于不确定性优化的行人再辨识方法,包括以下步骤:
1)使用孪生网络结构,将两个属于相同或不同行人的原始图像分别作为两个同构网络的输入;
2)孪生网络结构中的每个网络结构设计为贝叶斯卷积神经网络,所述贝叶斯卷积神经网络采用inception网络和Dropout层叠加的方式构成,作为特征提取网络,从根本上用来实现不确定性方面的优化;
3)根据孪生网络的特征输出,计算二分类损失和各自网络的多分类损失,叠加后用于网络的反向传播和参数优化;
4)将待辨识行人图像和所有比对图像输入训练好的模型,提取图像特征;
5)利用欧式距离计算公式,获取待辨识行人图像和比对图像之间的最终距离
6)根据特征相似度距离进行排序,获取与待辨识行人对应的对比图像匹配排序。
所述的步骤1)输入处理具体包括以下步骤:
11)从行人图像中任意取两个图像,分成多个图片对,作为孪生网络的输入,假设训练数据集为{I1,I2…Im},则输入为{(P1,L1),(P2L2)…(PnLn)},Pi={Ij,Ik}(j≠k<m),Li∈{0,1},其中P为图像,L为标签,当Li=1时表示图片{Ij,Ik}属于同一行人,当Li=0时表示图片{Ij,Ik}属于不同行人。
12)将处理好的图片对进行裁剪和归一化,保证输入到网络中的图片大小一致,为了扩充样本,可以人为预先对数据集进行镜像,水平翻转等操作。
所述的步骤2)网络设计具体包括以下步骤:
21)网络使用Inception网络作为基本网络,将输入的图像裁剪为416*416后送入网络中进行特征提取,为了进行不确定性的优化,我们使用在每个卷积层和全连接层之前加入dropout层的方式,用于实现贝叶斯卷积神经网络。网络的参数使用在ImageNet图像数据集上预训练得到的权重进行初始化。对于每一组图片对(Pi,Li),(PjLj),经过贝叶斯卷积神经网络后,提取出各自的语义特征,公式表示为:其中,θBayesian是贝叶斯卷积神经网络的权重,/>和/>是行人特征描述符。
22)具体的网络结构如下表所示:
所述的步骤3)具体包括以下步骤:
31)根据单个网络特征输出分别计算多分类损失Lidentification,对两个输入(Pi,Li)和(PjLj)的操作是相同的,以(Pi,Li)为例,我们已经提取了特征描述符多分类损失的计算公式如下:
33)加权步骤31和步骤32中的两个损失函数,叠加后用于网络的反向传播和优化,叠加公式如下:Lfusion(θ,r,s)=λLverification+Lidentification
根据对比实验结果,通常我们将经验性参数λ设为3,在反向传播和优化过程中,使用随机梯度下降(SGD)算法调整模型参数,直到训练参数收敛。
所述步骤4)具体包括以下步骤:
41)将待辨识图像和所有比对图像大小调整统一;
42)将待辨识图像和所有比对图像依次输入训练好的基于多块重叠特征图像的深度学习神经网络模型,将贝叶斯卷积神经网络的全连接层输出作为输入图像的特征图像,大小为1024维。
使用随机梯度下降(SGD)算法调整模型参数,直到训练参数收敛。
所述步骤5)具体包括以下步骤:
51)欧式距离计算公式具体如下:
其中xg表示待辨识图像,xp表示单张比对图像,f(xg)表示将待辨识图像xg输入模型后得到的特征,f(xp)表示将比对图像xp输入模型后得到的特征。
与现有技术相比,本发明具有以下优点:
一、本发明使用的深度学习网络模型经过了不确定性的优化,能够提升小样本情况下行人再辨识的准确率,为行人再辨识的实际应用提供了可靠模型。
二、本发明融合了二分类和多分类模型的损失函数,能够充分利用标签信息,有效提升行人再辨识的准确性和鲁棒性。
附图说明
图1为本发明方法的系统流程图
图2为本发明方法的网络结构图
图3为本发明算法和其他算法在CUHK01行人再辨识公开数据集的CMC曲线比较
图4为本发明算法和其他算法在CUHK03行人再辨识公开数据集的CMC曲线比较
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。
实施例:
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,具体如图1所示算法流程图,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,但并不限定本发明。
步骤一:输入处理,具体描述如下:本发明使用孪生网络结构,将两个属于相同或不同行人的原始图像分别作为两个同构网络的输入,具体实施如下:
(1)本发明从行人图像中任意取两个图像,分成多个图片对,作为孪生网络的输入;
(2)本发明将处理好的图片对进行裁剪和归一化,同时进行镜像,水平翻转等操作,用于扩充本发明使用的数据集。
步骤二:如何构建网络模型
设计机理:
本发明采用贝叶斯神经网络理论并结合已有的深度学习技术,首次构建出贝叶斯卷积神经网络模型,从根本上解决样本不确定性、参数不确定性和预测置信度的不确定性等问题。
公知,在贝叶斯理论中,定义似然分布p(y|x,ω),通过后验分布p(ω|X,Y)可以得到给定观测数据集的最优参数ω的分布:
将p(ω|X,Y)代入(2),可以预测给定输入x*的输出y*。
p(y*|x*,X,Y)=∫p(y*|x*,ω)p(ω|X,Y)dω (2)
以上为贝叶斯推理过程。
本发明贝叶斯卷积神经网络模型的关键在于求解公式(2)中积分,求解积分需要后验分布。但实践中本领域技术人员皆知,后验分布通常是不可解的。变分推理的基本思想是将原问题转化成求解如下近似分布qθ(ω)的优化问题。
我们假设qθ(ω)为近似的伯努利分布,为了应用到卷积神经网络中,我们需要将网络参数模拟为具有伯努利分布的参数。Dropout层的随机丢弃操作正好相当于在每个参数上加入概率为p的伯努利分布。因此,我们在inception网络中加入dropout层来实现贝叶斯卷积神经网络模型,实际网络参数的数学表示下:
zi,j~Bernoulli(pi)for i=1,…,L,j=1,…,Ki-1
其中zi,j是pi概率的伯努利分布,diag表示对角矩阵,pi是网络中dropout概率,Mi是网络中待优化的参数矩阵,(·)表示矩阵点乘操作,K表示卷积神经网络中的卷积核。
为此,本发明将孪生网络结构中的每个网络结构设计为贝叶斯卷积神经网络,所述贝叶斯卷积神经网络采用inception网络和Dropout层叠加的方式构成,作为特征提取网络,从根本上用来实现不确定性方面的优化。
以上介绍了贝叶斯理论推导,主要是阐述本发明为什么可以通过加入dropout层来实现贝叶斯卷积神经网络。
以下以表格形式介绍本发明网络结构和dropout概率的设定,为方案的具体实现。具体操作如下:
(1)使用在每个卷积层和全连接层之前加入dropout层的方式,实现贝叶斯卷积神经网络。
网络结构如下表:
(3)使用在ImageNet图像数据集上预训练得到的权重初始化网络参数。
步骤三:参数优化,具体描述为根据孪生网络的特征输出,计算二分类损失和各自网络的多分类损失,叠加后用于网络的反向传播和参数优化。具体操作如下:
(1)根据单个网络特征输出分别计算多分类损失Lidentification,对两个输入(Pi,Li)和(PjLj)的操作是相同的,以(Pi,Li)为例,我们已经提取了特征描述符多分类损失的计算公式如下:/>
(3)加权步骤三(1)和(2)中的两个损失函数,叠加后用于网络的反向传播和优化,叠加公式如下:Lfusion(θ,r,s)=λLverification+Lidentification经验性参数λ设为3,在反向传播和优化过程中,使用随机梯度下降(SGD)算法调整模型参数,直到训练参数收敛。
步骤四:将待辨识行人图像和所有比对图像输入模型,得到图像特征,具体实施如下:
(1)将待辨识图像和所有比对图像大小调整统一;
(2)将待辨识图像和所有比对图像依次输入训练好的基于多块重叠特征图像的深度学习神经网络模型,将贝叶斯卷积神经网络的全连接层输出作为输入图像的特征图像,大小为1024维。
步骤五:利用欧式距离计算公式,获取待辨识行人图像和比对图像之间的最终距离,具体实施如下:
其中xg表示待辨识图像,xp表示单张比对图像,f(xg)表示将待辨识图像xg输入模型后得到的特征,f(xp)表示将比对图像xp输入模型后得到的特征。
步骤六:对距离进行排序,获取与待辨识行人对应的比对图像库匹配排序。
本发明具体实现步骤为:
图1是本发明的实现流程图,具体实施方式如下:
1、孪生网络输入处理;
2、构建贝叶斯卷积神经网络;
3、训练时计算多分类损失函数;
4、训练时计算二分类损失函数;
5、训练时加权多分类与二分类损失函数,反向传播优化贝叶斯卷积神经网络参数;
6、测试时利用欧式距离计算公式,获取待辨识行人图像和比对图像之间的最终距离;
7、测试时对距离进行排序,获取与待辨识行人对应的比对图像库匹配排序。
显然,上述实例仅仅是为清楚地说明所作的举例,而并非对实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。而由此所引伸出的显而易见的变化或变动仍处于本发明创造的保护范围之中。
Claims (2)
1.一种基于不确定性优化的行人再辨识方法,其特征在于,包括以下步骤:
1)使用孪生网络结构,将两个属于相同或不同行人的原始图像分别作为两个同构网络的输入;
2)孪生网络结构中的每个网络结构设计为贝叶斯卷积神经网络,所述贝叶斯卷积神经网络采用inception网络和Dropout层叠加的方式构成,作为特征提取网络;
3)根据孪生网络的特征输出,计算二分类损失和各自网络的多分类损失,叠加后用于网络的反向传播和参数优化;
4)将待辨识行人图像和所有比对图像输入训练好的模型,提取图像特征;
5)利用欧式距离计算公式,获取待辨识行人图像和比对图像之间的最终距离6)根据特征相似度距离进行排序,获取与待辨识行人对应的对比图像匹配排序;
所述的步骤1)输入设计具体包括以下步骤:
11)从行人图像中任意取两个图像,分成多个图片对,作为孪生网络的输入,假设训练数据集为{I1,I2…Im},则输入为{(P1,L1),(P2L2)…(PnLn)},Pi={Ij,Ik}(j≠k<m),Li∈{0,1},其中P为图像,L为标签,当Li=1时表示图片{Ij,Ik}属于同一行人,当Li=0时表示图片{Ij,Ik}属于不同行人;
12)将处理好的图片对进行裁剪和归一化,保证输入到网络中的图片大小一致,为了扩充样本,可以人为预先对数据集进行镜像,水平翻转操作;
所述的步骤2)中,将训练集图像输入贝叶斯卷积神经网络中进行训练,具体包括以下步骤:
21)网络使用Inception网络作为基本网络,将输入的图像裁剪为416*416后送入网络中进行特征提取,为了进行不确定性的优化,使用在每个卷积层和全连接层之前加入dropout层的方式,用于实现贝叶斯卷积神经网络;网络的参数使用在ImageNet图像数据集上预训练得到的权重进行初始化;对于每一组图片对(Pi,Li),(PjLj),经过贝叶斯卷积神经网络后,提取出各自的语义特征,公式表示为: 其中,θBayesian是贝叶斯卷积神经网络的权重,/>和/>是行人特征描述符;
22)具体的网络结构如下表所示:
所述的步骤3)中,根据孪生网络的特征输出,计算二分类损失和各自网络的多分类损失,叠加后用于网络的反向传播和参数优化,具体包括:
33)加权步骤31)和步骤32)中的两个损失函数,叠加后用于网络的反向传播和优化,叠加公式如下:Lfusion(θ,r,s)=λLverification+Lidentification
参数λ设为3,在反向传播和优化过程中,使用随机梯度下降(SGD)算法调整模型参数,直到训练参数收敛;
所述的步骤5)中,欧式距离计算公式具体如下:
其中xg表示待辨识图像,xp表示单张比对图像,f(xg)表示将待辨识图像xg输入模型后得到的特征,f(xp)表示将比对图像xp输入模型后得到的特征。
2.根据权利要求1所述的一种基于深度学习和重叠图像块间度量的行人再辨识方法,其特征在于,所述的步骤4)中,将待辨识行人图像和所有比对图像输入训练好的模型,提取图像特征,具体包括;
41)将待辨识图像和所有比对图像大小调整统一;
42)将待辨识图像和所有比对图像依次输入训练好的基于多块重叠特征图像的深度学习神经网络模型,将贝叶斯卷积神经网络的全连接层输出作为输入图像的特征图像,大小为1024维。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910079205.6A CN109886141B (zh) | 2019-01-28 | 2019-01-28 | 一种基于不确定性优化的行人再辨识方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910079205.6A CN109886141B (zh) | 2019-01-28 | 2019-01-28 | 一种基于不确定性优化的行人再辨识方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109886141A CN109886141A (zh) | 2019-06-14 |
CN109886141B true CN109886141B (zh) | 2023-06-06 |
Family
ID=66926966
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910079205.6A Active CN109886141B (zh) | 2019-01-28 | 2019-01-28 | 一种基于不确定性优化的行人再辨识方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109886141B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110414349A (zh) * | 2019-06-26 | 2019-11-05 | 长安大学 | 引入感知模型的孪生卷积神经网络人脸识别算法 |
CN110458004B (zh) * | 2019-07-02 | 2022-12-27 | 浙江吉利控股集团有限公司 | 一种目标对象识别方法、装置、设备以及存储介质 |
CN110348393B (zh) * | 2019-07-12 | 2020-11-20 | 上海眼控科技股份有限公司 | 车辆特征提取模型训练方法、车辆识别方法及设备 |
CN110739050B (zh) * | 2019-12-20 | 2020-07-28 | 深圳大学 | 一种左心室全参数及置信度的量化方法 |
CN111368690B (zh) * | 2020-02-28 | 2021-03-02 | 珠海大横琴科技发展有限公司 | 基于深度学习的海浪影响下视频图像船只检测方法及系统 |
CN111428800B (zh) * | 2020-03-30 | 2023-07-18 | 南京工业大学 | 基于0-1模型的茶叶验真方法 |
CN111695604A (zh) * | 2020-05-20 | 2020-09-22 | 平安科技(深圳)有限公司 | 一种图像可信度的确定方法、装置及电子设备、存储介质 |
CN113140290A (zh) * | 2020-12-17 | 2021-07-20 | 慧影医疗科技(北京)有限公司 | 模型训练方法、装置、病灶识别方法及电子设备 |
CN112598643B (zh) * | 2020-12-22 | 2023-06-23 | 百度在线网络技术(北京)有限公司 | 深度伪造图像检测及模型训练方法、装置、设备、介质 |
CN112633222B (zh) * | 2020-12-30 | 2023-04-28 | 民航成都电子技术有限责任公司 | 基于对抗网络的步态识别方法、装置、设备及介质 |
CN112800941B (zh) * | 2021-01-26 | 2023-06-06 | 中科人工智能创新技术研究院(青岛)有限公司 | 基于非对称辅助信息嵌入网络的人脸反欺诈方法及系统 |
CN112818808B (zh) * | 2021-01-27 | 2024-01-19 | 南京大学 | 一种结合两个向量嵌入空间的高精度步态识别方法 |
CN117197538B (zh) * | 2023-08-16 | 2024-05-14 | 哈尔滨工业大学 | 一种基于高斯分布权重采样的贝叶斯卷积神经网络结构表观损伤识别方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107832672A (zh) * | 2017-10-12 | 2018-03-23 | 北京航空航天大学 | 一种利用姿态信息设计多损失函数的行人重识别方法 |
CN108009525A (zh) * | 2017-12-25 | 2018-05-08 | 北京航空航天大学 | 一种基于卷积神经网络的无人机对地特定目标识别方法 |
CN108764308A (zh) * | 2018-05-16 | 2018-11-06 | 中国人民解放军陆军工程大学 | 一种基于卷积循环网络的行人重识别方法 |
CN108921107A (zh) * | 2018-07-06 | 2018-11-30 | 北京市新技术应用研究所 | 基于排序损失和Siamese网络的行人再识别方法 |
CN109102025A (zh) * | 2018-08-15 | 2018-12-28 | 电子科技大学 | 基于深度学习联合优化的行人重识别方法 |
-
2019
- 2019-01-28 CN CN201910079205.6A patent/CN109886141B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107832672A (zh) * | 2017-10-12 | 2018-03-23 | 北京航空航天大学 | 一种利用姿态信息设计多损失函数的行人重识别方法 |
CN108009525A (zh) * | 2017-12-25 | 2018-05-08 | 北京航空航天大学 | 一种基于卷积神经网络的无人机对地特定目标识别方法 |
CN108764308A (zh) * | 2018-05-16 | 2018-11-06 | 中国人民解放军陆军工程大学 | 一种基于卷积循环网络的行人重识别方法 |
CN108921107A (zh) * | 2018-07-06 | 2018-11-30 | 北京市新技术应用研究所 | 基于排序损失和Siamese网络的行人再识别方法 |
CN109102025A (zh) * | 2018-08-15 | 2018-12-28 | 电子科技大学 | 基于深度学习联合优化的行人重识别方法 |
Non-Patent Citations (1)
Title |
---|
"面向真实场景的行人检测技术研究";李耀斌;《万方》;20181218;论文正文第2-5章 * |
Also Published As
Publication number | Publication date |
---|---|
CN109886141A (zh) | 2019-06-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109886141B (zh) | 一种基于不确定性优化的行人再辨识方法 | |
CN109241317B (zh) | 基于深度学习网络中度量损失的行人哈希检索方法 | |
Fu et al. | Fast crowd density estimation with convolutional neural networks | |
US11704907B2 (en) | Depth-based object re-identification | |
CN112131967B (zh) | 基于多分类器对抗迁移学习的遥感场景分类方法 | |
CN109344731B (zh) | 基于神经网络的轻量级的人脸识别方法 | |
WO2018052587A1 (en) | Method and system for cell image segmentation using multi-stage convolutional neural networks | |
US7711157B2 (en) | Artificial intelligence systems for identifying objects | |
CN111126360A (zh) | 基于无监督联合多损失模型的跨域行人重识别方法 | |
CN106778796B (zh) | 基于混合式协同训练的人体动作识别方法及系统 | |
CN109359541A (zh) | 一种基于深度迁移学习的素描人脸识别方法 | |
US20210034840A1 (en) | Method for Recognzing Face from Monitoring Video Data | |
Xiao et al. | A fast method for particle picking in cryo-electron micrographs based on fast R-CNN | |
CN111898621B (zh) | 一种轮廓形状识别方法 | |
CN108399435B (zh) | 一种基于动静特征的视频分类方法 | |
CN108921107A (zh) | 基于排序损失和Siamese网络的行人再识别方法 | |
CN111950372A (zh) | 一种基于图卷积网络的无监督行人重识别方法 | |
Ying et al. | Human ear recognition based on deep convolutional neural network | |
CN113158955B (zh) | 基于聚类引导和成对度量三元组损失的行人重识别方法 | |
Li et al. | Locality linear fitting one-class SVM with low-rank constraints for outlier detection | |
Yang et al. | A robust iris segmentation using fully convolutional network with dilated convolutions | |
CN113033547A (zh) | 一种基于MobileNetV2的焊接状态分类方法 | |
Cui et al. | Face recognition via convolutional neural networks and siamese neural networks | |
Zhu et al. | A novel simple visual tracking algorithm based on hashing and deep learning | |
Blanchart et al. | Cascaded active learning for object retrieval using multiscale coarse to fine analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |