CN109284767A - 一种基于增广样本和多流层的行人检索方法 - Google Patents

一种基于增广样本和多流层的行人检索方法 Download PDF

Info

Publication number
CN109284767A
CN109284767A CN201810813011.XA CN201810813011A CN109284767A CN 109284767 A CN109284767 A CN 109284767A CN 201810813011 A CN201810813011 A CN 201810813011A CN 109284767 A CN109284767 A CN 109284767A
Authority
CN
China
Prior art keywords
sample
layer
multithread
neural network
deep neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810813011.XA
Other languages
English (en)
Other versions
CN109284767B (zh
Inventor
刘爽
郝晓龙
张重
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hefei Minglong Electronic Technology Co ltd
Wen Jing
Original Assignee
Tianjin Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin Normal University filed Critical Tianjin Normal University
Priority to CN201810813011.XA priority Critical patent/CN109284767B/zh
Publication of CN109284767A publication Critical patent/CN109284767A/zh
Application granted granted Critical
Publication of CN109284767B publication Critical patent/CN109284767B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例公开了一种基于增广样本和多流层的行人检索方法,该方法包括:构建基于增广样本和多流层的深度神经网络;获取训练集,利用深度卷积生成对抗网络产生生成样本扩充训练集;从训练集中选择B个真实样本和B个生成样本作为深度神经网络输入;利用深度神经网络多流层得到行人特征表示;送入混合四元组损失,并基于损失值优化深度神经网络;利用训练完成的深度神经网络提取待查询样本最终特征表示,并且利用特征向量之间的相似度获得待查询样本的匹配结果。本发明利用多流层学习不同方面的行人特征,并利用混合四元组损失得到具有判别性的特征空间,不但减小了过拟合的风险还提高了网络的泛化能力,从而提高行人检索匹配的正确率。

Description

一种基于增广样本和多流层的行人检索方法
技术领域
本发明属于计算机视觉、深度学习、人工智能技术领域,具体涉及一种基于增广样本和多流层的行人检索方法。
背景技术
行人检索旨在从不同角度架设的摄像机中检索特定行人,它在视频检索、多相机跟踪、行为识别等应用中扮演着重要的角色。然而行人检索还面临诸多挑战,例如姿态变化、视角变化、光照变化和遮挡。
目前,由于深度神经网络在特征学习中的优势,它被广泛应用于行人检索领域。然而,训练样本数量和模型结构对深度神经网络的性能产生较大影响。第一,在训练深度神经网络时,需要大量的样本,但是大多数现有的数据库都比较小,可能导致过拟合。第二,在实际应用中,因为行人可能穿着相似的衣服,所以很难从他们的外表进行辨别。因此,研究减小过拟合的方法和学习具有判别性的特征对行人检索的性能至关重要。就减小过拟合而言,最直接的方法是增加训练样本数量。为了增加训练样本,Zhong等人在原始样本上随机地选择一个矩形区域,然后利用随机值替换这个区域的像素值从而增加样本;Simonyan等人将样本随机翻转得到新图像之后去扩大训练集;Zheng等人利用DCGAN模型生成额外的样本,并且为每个生成样本分配一个额外的标签用于监督学习。然而,这些方法都不能直接利用生成样本减小模型的过拟合。此外,模型的损失函数与模型结构会严重影响判别性特征的学习。Zhang等人利用交叉熵损失计算行人样本属于任何一类的概率;Hermans等人提出三元组损失,在减小类内变化的同时增加类间变化;Zheng等人使用识别深度神经网络和验证深度神经网络联合学习判别性较强的特征。然而,这些网络模型的结构都比较单一,不能从多方面学习行人的特征表示。
发明内容
本发明的目的是要解决在训练深度网络时减小过拟合并从不同方面上提取行人的特征提高网络泛化能力,为此,本发明提供一种基于增广样本和多流层的行人检索方法。
为了实现所述目的,本发明提出一种基于增广样本和多流层的行人检索方法,所述方法包括以下步骤:
步骤S1,构建基于增广样本和多流层的深度神经网络;
步骤S2,获取训练集,利用深度卷积生成对抗网络产生生成样本,并用这些生成样本扩充训练集;
步骤S3,从所述训练集中选择B个真实样本和B个生成样本作为所述基于增广样本和多流层的深度神经网络的输入;
步骤S4,在训练过程中,利用所述深度神经网络的多流层从不同方面学习行人的微妙差别,得到行人具有判别性的特征表示;
步骤S5,把行人的特征表示送入混合四元组损失,并基于得到的损失值对于所述基于增广样本和多流层的深度神经网络进行优化,得到训练完成的基于增广样本和多流层的深度神经网络;
步骤S6,在测试过程中,将待查询样本作为输入,利用训练完成的基于增广样本和多流层的深度神经网络提取多流层的输出作为所述待查询样本最终的特征表示,并根据所述待查询样本与搜索库中样本特征向量之间的相似度得到所述待查询样本的匹配结果。
可选地,所述步骤S1包括以下步骤:
步骤S11,选择预训练神经网络并对网络的参数赋值;
步骤S12,修改所述预训练神经网络并在其基础上添加多流层结构得到所需要的基于增广样本和多流层的深度神经网络。
可选地,所述步骤S12包括以下步骤:
步骤S121,移除所述预训练神经网络中最后的平均池化层和全连接层,得到修改后的预训练神经网络;
步骤S122,在得到的预训练神经网络之后添加多流层结构构成所需要的基于增广样本和多流层的深度神经网络。
可选地,所述步骤S122包括以下步骤:
步骤S1221,在所述预训练神经网络之后设置三个流结构,每个流结构包括一个卷积层和一个平均池化层;
步骤S1222,在三个流结构之后添加一个最大池化层,构成多流层。
可选地,所述步骤S2包括以下步骤:
步骤S21,将所述训练集中每一幅行人样本的大小调整到第一预设大小,并将这些行人样本作为深度卷积生成对抗网络中判别器的输入;
步骤S22,随机选择一个向量作为所述深度卷积生成对抗网络中生成器的输入;
步骤S23,使用所述深度卷积生成对抗网络迭代计算预设次数,获得生成样本;
步骤S24,将生成样本的大小调整到第二预设大小,并使用这些生成样本扩充所述训练集。
可选地,所述步骤S3包括以下步骤:
步骤S31,在训练集中随机选择B个真实样本和B个生成样本作为一个批次;
步骤S32,将每一个批次中样本的大小调整到第二预设大小,并将这些样本作为所述基于增广样本和多流层的深度神经网络的输入。
可选地,所述步骤S4包括以下步骤:
步骤S41,把输入样本送入所述深度神经网络多流层之前的部分,得到相应的卷积激活图;
步骤S42,将所述卷积激活图送入所述深度神经网络的多流层,利用多流层从不同方面学习行人具有判别性的特征表示。
可选地,所述步骤S42包括以下步骤:
步骤S421,将所述卷积激活图分别送入多流层中的三个不同的流结构中学习行人特征;
步骤S422,利用最大池化层融合三个不同流结构的输出,并将融合的特征作为行人的特征表示。
可选地,所述混合四元组损失表示为:
LHTL=[m+Dap-Dan]++α[m1+Dap-Dag]+
其中,[s]+代表max(s,0),f(y)表示样本y的特征向量,α是一个超参数,m和m1表示阈值,a表示锚样本,p表示正样本,n表示负样本,g表示生成样本,Dap表示锚样本与正样本之间的距离,Dan表示表示锚样本与负样本之间的距离,Dag表示表示锚样本与生成样本之间的距离。
可选地,所述步骤S6包括以下步骤:
步骤S61,将待查询样本送入训练完成的基于增广样本和多流层的深度神经网络,将多流层的输出作为所述待查询样本最终的特征表示;
步骤S62,基于所述待查询样本与搜索库中样本特征向量,计算两者的相似度得分;
步骤S63,利用相似度得分对所述待查询样本进行匹配,获得匹配结果。
本发明的有益效果为:本发明利用多流程从不同方面学习行人的特征,并利用混合四元组损失减小行人类内差距与此同时增加类外差距,有效的减小了过拟合,提高网络的泛化能力,从而提高行人检索匹配的正确率。
需要说明的是,本发明得到了国家自然科学基金项目No.61501327、No.61711530240,天津市自然科学基金重点项目No.17JCZDJC30600,天津师范大学“青年科研拔尖人才培育计划”No.135202RC1703,模式识别国家重点实验室开放课题基金No.201700001、No.201800002,中国国家留学基金No.201708120040、No.201708120039和天津高等学校创新团队基金项目的资助。
附图说明
图1是根据本发明一实施例的基于增广样本和多流层的行人检索方法的流程图。
图2是根据本发明一实施例构建的基于增广样本和多流层深度神经网络的结构框图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明了,下面结合具体实施方式并参照附图,对本发明进一步详细说明。应该理解,这些描述只是示例性的,而并非要限制本发明的范围。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本发明的概念。
图1是根据本发明一实施例基于增广样本和多流层深度神经网络的行人检索方法的流程图,下面以图1为例来说明本发明的一些具体实现流程。本发明的方法是一种基于增广样本和多流层的行人检索方法,其具体步骤包括:
步骤S1,构建基于增广样本和多流层的深度神经网络,图2显示了根据本发明一实施例构建的基于增广样本和多流层深度神经网络的结构框图;
进一步地,所述步骤S1包括以下步骤:
步骤S11,选择预训练神经网络并对网络的参数赋值;
在本发明一实施例中,所述预训练神经网络选为残差网络-50;
步骤S12,修改所述预训练神经网络并在其基础上添加多流层结构得到所需要的基于增广样本和多流层的深度神经网络。
其中,所述步骤S12包括以下步骤:
步骤S121,移除所述预训练神经网络中最后的平均池化层和全连接层,得到修改后的预训练神经网络;
步骤S122,在得到的预训练神经网络之后添加多流层结构构成所需要的基于增广样本和多流层的深度神经网络。
其中,所述步骤S122包括以下步骤:
步骤S1221,在所述预训练神经网络之后设置三个流结构,每个流结构包括一个卷积层和一个平均池化层,其中每个流结构中卷积层的滤波器大小分别为:1×1,2×2和3×3;
步骤S1222,在三个流结构之后添加一个最大池化层,构成多流层。
步骤S2,获取训练集,利用深度卷积生成对抗网络产生生成样本,并用这些生成样本扩充训练集;
进一步地,所述步骤S2包括以下步骤:
步骤S21,将所述训练集中每一幅行人样本的大小调整到第一预设大小,比如128×64,并将这些行人样本作为深度卷积生成对抗网络中判别器的输入;
步骤S22,随机选择一个向量作为所述深度卷积生成对抗网络中生成器的输入,其中,所述向量可以为100维;
步骤S23,使用所述深度卷积生成对抗网络迭代计算预设次数,比如40次,获得生成样本;
步骤S24,将生成样本的大小调整到第二预设大小,比如256×128,并使用这些生成样本扩充所述训练集。
步骤S3,从所述训练集中选择B个真实样本和B个生成样本作为所述基于增广样本和多流层的深度神经网络的输入;
进一步地,所述步骤S3包括以下步骤:
步骤S31,在训练集中随机选择B个真实样本和B个生成样本作为一个批次;
在本发明一实施例中,所述真实样本个数B=64,生成样本个数B=64。
步骤S32,将每一个批次中样本的大小调整到第二预设大小256×128,并将这些样本作为所述基于增广样本和多流层的深度神经网络的输入。
步骤S4,在训练过程中,利用所述深度神经网络的多流层从不同方面学习行人的微妙差别,得到行人具有判别性的特征表示;
进一步地,所述步骤S4包括以下步骤:
步骤S41,把输入样本送入修改后的预训练神经网络中,即所述深度神经网络多流层之前的部分,得到相应的卷积激活图,其大小为16×8;
步骤S42,将所述卷积激活图送入所述深度神经网络的多流层,利用多流层从不同方面学习行人具有判别性的特征表示。
其中,所述步骤S42包括以下步骤:
步骤S421,将所述卷积激活图分别送入多流层中的三个不同的流结构中学习行人特征;
步骤S422,利用最大池化层融合三个不同流结构的输出,并将融合的特征作为行人的特征表示。
在本发明一实施例中,所述行人的特征为2048维向量。
步骤S5,把行人的特征表示送入混合四元组损失,并基于得到的损失值对于所述基于增广样本和多流层的深度神经网络进行优化,得到训练完成的基于增广样本和多流层的深度神经网络;
进一步地,所述步骤S5包括以下步骤:
步骤S51,将所述行人的特征表示送入混合四元组损失,其中,所述混合四元组损失可以表示为:
LHTL=[m+Dap-Dan]++α[m1+Dap-Dag]+
其中,[s]+代表max(s,0),f(y)表示样本y的特征向量,α是一个超参数,m和m1表示阈值,a定义为锚样本,p表示正样本,n表示负样本,g表示生成样本,Dap表示锚样本与正样本之间的距离,Dan表示表示锚样本与负样本之间的距离,Dag表示表示锚样本与生成样本之间的距离;
在本发明一实施例中,实验性的可设置α=0.1,m=0.3,m1=0.2。
步骤S52,基于得到的损失值对于所述基于增广样本和多流层的深度神经网络进行优化;
在本发明一实施例中,基于得到的损失值利用Adam优化器对于所述基于增广样本和多流层的深度神经网络进行优化。
步骤S6,在测试过程中,将待查询样本作为输入,利用训练完成的基于增广样本和多流层的深度神经网络提取多流层的输出作为所述待查询样本最终的特征表示,并根据所述待查询样本与搜索库中样本特征向量之间的相似度得到所述待查询样本的匹配结果。
进一步地,所述步骤S6包括以下步骤:
步骤S61,将待查询样本送入训练完成的基于增广样本和多流层的深度神经网络,将多流层的输出作为所述待查询样本最终的特征表示;
步骤S62,基于所述待查询样本与搜索库中样本特征向量,计算两者的相似度得分;
步骤S63,利用相似度得分对所述待查询样本进行匹配,获得匹配结果。
在本发明一实施例中,所述相似度得分为基于余弦距离得到。
在本发明一实施例中,所述匹配结果为相似度得分最高的行人样本。
以网上公开的行人检索数据库作为测试对象,比如在DukeMTMC-reID数据库上,当α=0.1,m=0.3,m1=0.2时,行人再识别匹配的正确率为rank-1=79.4%,平均精度mAP=62.6%。由此可见本发明方法的有效性。
应当理解的是,本发明的上述具体实施方式仅仅用于示例性说明或解释本发明的原理,而不构成对本发明的限制。因此,在不偏离本发明的精神和范围的情况下所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。此外,本发明所附权利要求旨在涵盖落入所附权利要求范围和边界、或者这种范围和边界的等同形式内的全部变化和修改例。

Claims (10)

1.一种基于增广样本和多流层的行人检索方法,其特征在于,该方法包括以下步骤:
步骤S1,构建基于增广样本和多流层的深度神经网络;
步骤S2,获取训练集,利用深度卷积生成对抗网络产生生成样本,并用这些生成样本扩充训练集;
步骤S3,从所述训练集中选择B个真实样本和B个生成样本作为所述基于增广样本和多流层的深度神经网络的输入;
步骤S4,在训练过程中,利用所述深度神经网络的多流层从不同方面学习行人的微妙差别,得到行人具有判别性的特征表示;
步骤S5,把行人的特征表示送入混合四元组损失,并基于得到的损失值对于所述基于增广样本和多流层的深度神经网络进行优化,得到训练完成的基于增广样本和多流层的深度神经网络;
步骤S6,在测试过程中,将待查询样本作为输入,利用训练完成的基于增广样本和多流层的深度神经网络提取多流层的输出作为所述待查询样本最终的特征表示,并根据所述待查询样本与搜索库中样本特征向量之间的相似度得到所述待查询样本的匹配结果。
2.根据权利要求1所述的方法,其特征在于,所述步骤S1包括以下步骤:
步骤S11,选择预训练神经网络并对网络的参数赋值;
步骤S12,修改所述预训练神经网络并在其基础上添加多流层结构得到所需要的基于增广样本和多流层的深度神经网络。
3.根据权利要求2所述的方法,其特征在于,所述步骤S12包括以下步骤:
步骤S121,移除所述预训练神经网络中最后的平均池化层和全连接层,得到修改后的预训练神经网络;
步骤S122,在得到的预训练神经网络之后添加多流层结构构成所需要的基于增广样本和多流层的深度神经网络。
4.根据权利要求3所述的方法,其特征在于,所述步骤S122包括以下步骤:
步骤S1221,在所述预训练神经网络之后设置三个流结构,每个流结构包括一个卷积层和一个平均池化层;
步骤S1222,在三个流结构之后添加一个最大池化层,构成多流层。
5.根据权利要求1所述的方法,其特征在于,所述步骤S2包括以下步骤:
步骤S21,将所述训练集中每一幅行人样本的大小调整到第一预设大小,并将这些行人样本作为深度卷积生成对抗网络中判别器的输入;
步骤S22,随机选择一个向量作为所述深度卷积生成对抗网络中生成器的输入;
步骤S23,使用所述深度卷积生成对抗网络迭代计算预设次数,获得生成样本;
步骤S24,将生成样本的大小调整到第二预设大小,并使用这些生成样本扩充所述训练集。
6.根据权利要求1所述的方法,其特征在于,所述步骤S3包括以下步骤:
步骤S31,在训练集中随机选择B个真实样本和B个生成样本作为一个批次;
步骤S32,将每一个批次中样本的大小调整到第二预设大小,并将这些样本作为所述基于增广样本和多流层的深度神经网络的输入。
7.根据权利要求1所述的方法,其特征在于,所述步骤S4包括以下步骤:
步骤S41,把输入样本送入所述深度神经网络多流层之前的部分,得到相应的卷积激活图;
步骤S42,将所述卷积激活图送入所述深度神经网络的多流层,利用多流层从不同方面学习行人具有判别性的特征表示。
8.根据权利要求7所述的方法,其特征在于,所述步骤S42包括以下步骤:
步骤S421,将所述卷积激活图分别送入多流层中的三个不同的流结构中学习行人特征;
步骤S422,利用最大池化层融合三个不同流结构的输出,并将融合的特征作为行人的特征表示。
9.根据权利要求1所述的方法,其特征在于,所述混合四元组损失表示为:
LHTL=[m+Dap-Dan]++α[m1+Dap-Dag]+
其中,[s]+代表max(s,0),f(y)表示样本y的特征向量,α是一个超参数,m和m1表示阈值,a表示锚样本,p表示正样本,n表示负样本,g表示生成样本,Dap表示锚样本与正样本之间的距离,Dan表示表示锚样本与负样本之间的距离,Dag表示表示锚样本与生成样本之间的距离。
10.根据权利要求1所述的方法,其特征在于,所述步骤S6包括以下步骤:
步骤S61,将待查询样本送入训练完成的基于增广样本和多流层的深度神经网络,将多流层的输出作为所述待查询样本最终的特征表示;
步骤S62,基于所述待查询样本与搜索库中样本特征向量,计算两者的相似度得分;
步骤S63,利用相似度得分对所述待查询样本进行匹配,获得匹配结果。
CN201810813011.XA 2018-07-23 2018-07-23 一种基于增广样本和多流层的行人检索方法 Active CN109284767B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810813011.XA CN109284767B (zh) 2018-07-23 2018-07-23 一种基于增广样本和多流层的行人检索方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810813011.XA CN109284767B (zh) 2018-07-23 2018-07-23 一种基于增广样本和多流层的行人检索方法

Publications (2)

Publication Number Publication Date
CN109284767A true CN109284767A (zh) 2019-01-29
CN109284767B CN109284767B (zh) 2021-04-06

Family

ID=65183140

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810813011.XA Active CN109284767B (zh) 2018-07-23 2018-07-23 一种基于增广样本和多流层的行人检索方法

Country Status (1)

Country Link
CN (1) CN109284767B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109934117A (zh) * 2019-02-18 2019-06-25 北京联合大学 基于生成对抗网络的行人重识别检测方法
CN110135305A (zh) * 2019-04-30 2019-08-16 百度在线网络技术(北京)有限公司 用于疲劳度检测的方法、装置、设备和介质
CN110363060A (zh) * 2019-04-04 2019-10-22 杭州电子科技大学 基于特征子空间生成对抗网络的小样本目标识别方法
CN110472528A (zh) * 2019-07-29 2019-11-19 江苏必得科技股份有限公司 一种地铁环境目标训练集生成方法及系统
CN111274429A (zh) * 2020-01-14 2020-06-12 广东工业大学 一种基于gan的数据增强的无监督商标检索系统及方法
CN112287896A (zh) * 2020-11-26 2021-01-29 山东捷讯通信技术有限公司 一种基于深度学习的无人机航拍图像目标检测方法及系统
CN112364791A (zh) * 2020-11-17 2021-02-12 中南民族大学 一种基于生成对抗网络的行人重识别方法和系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106682233A (zh) * 2017-01-16 2017-05-17 华侨大学 一种基于深度学习与局部特征融合的哈希图像检索方法
CN107221320A (zh) * 2017-05-19 2017-09-29 百度在线网络技术(北京)有限公司 训练声学特征提取模型的方法、装置、设备和计算机存储介质
CN107679465A (zh) * 2017-09-20 2018-02-09 上海交通大学 一种基于生成网络的行人重识别数据生成和扩充方法
CN108197525A (zh) * 2017-11-20 2018-06-22 中国科学院自动化研究所 人脸图像生成方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106682233A (zh) * 2017-01-16 2017-05-17 华侨大学 一种基于深度学习与局部特征融合的哈希图像检索方法
CN107221320A (zh) * 2017-05-19 2017-09-29 百度在线网络技术(北京)有限公司 训练声学特征提取模型的方法、装置、设备和计算机存储介质
CN107679465A (zh) * 2017-09-20 2018-02-09 上海交通大学 一种基于生成网络的行人重识别数据生成和扩充方法
CN108197525A (zh) * 2017-11-20 2018-06-22 中国科学院自动化研究所 人脸图像生成方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SAVINOV NIKOLAY 等: "《Quad-Networks: Unsupervised Learning to Rank for Interest Point Detection》", 《PROCEEDINGS OF THE IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109934117A (zh) * 2019-02-18 2019-06-25 北京联合大学 基于生成对抗网络的行人重识别检测方法
CN109934117B (zh) * 2019-02-18 2021-04-27 北京联合大学 基于生成对抗网络的行人重识别检测方法
CN110363060A (zh) * 2019-04-04 2019-10-22 杭州电子科技大学 基于特征子空间生成对抗网络的小样本目标识别方法
CN110135305A (zh) * 2019-04-30 2019-08-16 百度在线网络技术(北京)有限公司 用于疲劳度检测的方法、装置、设备和介质
CN110135305B (zh) * 2019-04-30 2022-03-01 百度在线网络技术(北京)有限公司 用于疲劳度检测的方法、装置、设备和介质
CN110472528A (zh) * 2019-07-29 2019-11-19 江苏必得科技股份有限公司 一种地铁环境目标训练集生成方法及系统
CN111274429A (zh) * 2020-01-14 2020-06-12 广东工业大学 一种基于gan的数据增强的无监督商标检索系统及方法
CN112364791A (zh) * 2020-11-17 2021-02-12 中南民族大学 一种基于生成对抗网络的行人重识别方法和系统
CN112287896A (zh) * 2020-11-26 2021-01-29 山东捷讯通信技术有限公司 一种基于深度学习的无人机航拍图像目标检测方法及系统

Also Published As

Publication number Publication date
CN109284767B (zh) 2021-04-06

Similar Documents

Publication Publication Date Title
CN109284767A (zh) 一种基于增广样本和多流层的行人检索方法
CN108229444A (zh) 一种基于整体和局部深度特征融合的行人再识别方法
CN110163110B (zh) 一种基于迁移学习和深度特征融合的行人重识别方法
CN108537191B (zh) 一种基于结构光摄像头的三维人脸识别方法
CN110473164A (zh) 一种基于注意力机制的图像美学质量评价方法
CN109377448A (zh) 一种基于生成对抗网络的人脸图像修复方法
CN110008842A (zh) 一种基于深度多损失融合模型的行人重识别方法
CN110458844A (zh) 一种低光照场景的语义分割方法
CN107194341A (zh) Maxout多卷积神经网络融合人脸识别方法和系统
CN110021051A (zh) 一种基于生成对抗网络通过文本指导的人物图像生成方法
CN109583502A (zh) 一种基于对抗擦除注意力机制的行人再识别方法
CN109977922A (zh) 一种基于生成对抗网络的行人掩模生成方法
CN106650789A (zh) 一种基于深度lstm网络的图像描述生成方法
CN103279936A (zh) 基于画像的人脸伪照片自动合成及修正方法
CN108197584A (zh) 一种基于三元组深度神经网络的行人重识别方法
CN107463954A (zh) 一种模糊异谱图像的模板匹配识别方法
CN111126864A (zh) 一种基于人机对抗评分的街道品质评估方法
CN109741268A (zh) 一种针对壁画的破损图像补全方法
CN107748798A (zh) 一种基于多层视觉表达和深度网络的手绘图像检索方法
CN104820711A (zh) 复杂场景下对人形目标的视频检索方法
CN108764233A (zh) 一种基于连续卷积激活的场景字符识别方法
CN117033609A (zh) 文本视觉问答方法、装置、计算机设备和存储介质
Cai et al. Performance analysis of distance teaching classroom based on machine learning and virtual reality
Li et al. AR-CNN: an attention ranking network for learning urban perception
Thepade et al. Sign language recognition using color means of gradient slope magnitude edge images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20230810

Address after: Room 1102, No. 23, Lane 88, Jiangwan Road, Yangpu District, Shanghai, 200082

Patentee after: Wen Jing

Address before: 230000 B-1015, wo Yuan Garden, 81 Ganquan Road, Shushan District, Hefei, Anhui.

Patentee before: HEFEI MINGLONG ELECTRONIC TECHNOLOGY Co.,Ltd.

Effective date of registration: 20230810

Address after: 230000 B-1015, wo Yuan Garden, 81 Ganquan Road, Shushan District, Hefei, Anhui.

Patentee after: HEFEI MINGLONG ELECTRONIC TECHNOLOGY Co.,Ltd.

Address before: 300387 Tianjin city Xiqing District West Binshui Road No. 393

Patentee before: TIANJIN NORMAL University

TR01 Transfer of patent right