CN108573222A - 基于循环对抗生成网络的行人图像遮挡检测方法 - Google Patents

基于循环对抗生成网络的行人图像遮挡检测方法 Download PDF

Info

Publication number
CN108573222A
CN108573222A CN201810266302.1A CN201810266302A CN108573222A CN 108573222 A CN108573222 A CN 108573222A CN 201810266302 A CN201810266302 A CN 201810266302A CN 108573222 A CN108573222 A CN 108573222A
Authority
CN
China
Prior art keywords
image
block
cycle
pedestrian
mark
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810266302.1A
Other languages
English (en)
Other versions
CN108573222B (zh
Inventor
赖剑煌
陈泽宇
卓嘉璇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN201810266302.1A priority Critical patent/CN108573222B/zh
Publication of CN108573222A publication Critical patent/CN108573222A/zh
Application granted granted Critical
Publication of CN108573222B publication Critical patent/CN108573222B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于循环对抗生成网络的行人图像遮挡检测方法,步骤:(1)在无遮挡的行人图像中随机加入遮挡图像块,生成带遮挡的行人图像及对应的带遮挡标注的行人图像;(2)将上述带遮挡的行人图像及对应的带遮挡标注的行人图像作为两个数据域,训练循环对抗生成网络模型,构建遮挡图像与遮挡标注之间的映射;(3)对于当前输入的待标注图像,利用训练后的循环对抗生成网络模型去产生该图像对应的遮挡标注,同时对待标注图像进行分割,得到若干个超像素块,根据每个超像素块内遮挡标注的信息,采用区域生长方法得到最终的遮挡区域。本发明方法可以在缺少遮挡标注的情况下,针对不同类型的遮挡进行建模,得到像素级别的遮挡区域检测结果。

Description

基于循环对抗生成网络的行人图像遮挡检测方法
技术领域
本发明涉及图像分析领域的遮挡检测方法,尤其是利用循环对抗生成网络进行行人图像中的遮挡区域检测方法。
背景技术
行人再识别旨在从不同视角、不同时段拍摄的图像中匹配到相同的行人目标。这个问题在视频安防监控中是一个非常重要的问题,特别是对于重点人物的追踪定位有十分现实的意义。然而主流的行人再标识任务中,进行匹配的图像都是由行人检测器获取到的行人图像,而这些被检测出来的图像往往伴随着遮挡。图像中的遮挡会对原有行人纹理特征产生巨大干扰,使得后续的行人再标识任务的准确率大打折扣。为了避免遮挡区域对行人再标识任务性能的影响,需要对行人图像中的遮挡信息进行分析。
对于图像中遮挡区域检测问题,目前主要有以下两种方法:基于显著性检测的方法、基于通用物体检测的方法。基于显著性检测的方法是假设遮挡区域在图像中具有比较强的显著性,将显著性图中数值较高的区域作为遮挡区域,这种方法对于遮挡区域不显著的图像很容易发生误检。基于通用物体检测的方法是将图像中的主要目标物体标定出来,并进行分类判断。由于主流的通用物体检测方法提取出来的是一个矩形框,相比遮挡检测这类像素级别的任务略有不同,在实际应用中不可避免地涉及到诸多后处理的步骤,不能保证模型的鲁棒性。
发明内容
本发明的目的在于克服现有技术的缺点与不足,提供一种基于循环对抗生成网络的行人图像遮挡检测方法,该方法可以在缺少遮挡标注的情况下,针对不同类型的遮挡进行建模,人工生成大量带遮挡的行人图像及其遮挡区域标记,最终得到像素级别的遮挡区域检测结果。
本发明的目的通过以下的技术方案实现:基于循环对抗生成网络的行人图像遮挡检测方法,包括步骤:
(1)在无遮挡的行人图像中随机加入遮挡图像块,生成带遮挡的行人图像及对应的带遮挡标注的行人图像;所述的遮挡标注是指人为设定的遮挡图像块或者原图自带的遮挡物体在行人图像中的区域;
(2)将上述带遮挡的行人图像及对应的带遮挡标注的行人图像作为两个数据域,训练循环对抗生成网络模型,构建遮挡图像与遮挡标注之间的映射;
(3)对于当前输入的待标注图像,利用训练后的循环对抗生成网络模型去产生该图像对应的遮挡标注,同时对待标注图像进行分割,得到若干个超像素块,根据每个超像素块内遮挡标注的信息,采用区域生长方法得到最终的遮挡区域。
作为一种优选方式,所述步骤(1)中,遮挡图像块的获取方式是:从数据库中获取遮挡物图像,然后在遮挡物图像上进行去背景、高斯滤波操作,得到遮挡图像块。使得遮挡图像块与原有的行人照片的贴合更加自然。
作为另一种优选方式,所述步骤(1)中,遮挡图像块的获取方式是:从数据库中获取遮挡物图像,然后在遮挡物图像上进行去背景、高斯滤波操作,得到初始遮挡图像块;再对初始遮挡物图像进行随机裁剪和水平翻转,然后得到最终遮挡图像块。以尽量增加遮挡物图像的比例,实现数据增强。
更进一步的,为了更好地拟合现实中的遮挡类型,对于位于无遮挡的行人图像上下两半部分的遮挡,随机选取宽为60%~100%,高为20%~50%的区域放置所述的遮挡图像块;对于位于原图左右两半部分的遮挡,随机选取宽为20%~50%,高为60%~100%的区域放置所述的遮挡图像块。这里限定的遮挡块区域是根据现实场景中的遮挡来设置的。
优选的,所述步骤(2)中,训练循环对抗生成网络模型的步骤如下:
循环对抗生成网络中有两组对称的生成器与判别器,假设带遮挡的行人图像域为X,带遮挡标注的行人图像域为Y,生成器GX→Y用于将域X中的图像映射到域Y中,生成器GY→X用于将域Y中的图像映射到域X中,判别器DX、DY分别用于判别输入的图像是否属于域X与域Y;
网络训练的过程包含两种损失函数:对抗损失函数与循环一致性损失函数,对抗损失函数约束着生成器产生更接近另一种图像域的图片,而判别器不断提升判别对应的图像域的能力,以生成器GX→Y和判别器DY的组合为例,其对抗损失可表示如下:
循环一致性损失函数约束着图像经过两种图像域之间的转换后,仍能保持原有的图像域的分布特征,循环一致性损失函数可表示如下:
结合上述两种损失函数,总体的损失函数可表示如下:
L(GX→Y,GY→X,DX,DY)
=LGAN(GX→Y,DY,X,Y)+LGAN(GY→X,DX,X,Y)+λLcyc(GX→Y,GY→X)
其中的λ用于调节对抗损失函数与循环一致性损失函数的权重;
当迭代次数达到阈值或者总体损失函数小于阈值时,该模型停止训练。
优选的,所述步骤(3)中,针对循环对抗生成网络模型中生成器生成的带遮挡标注的行人图像,在LAB空间对每个像素的值与训练时设定的遮挡标注的值进行距离度量,将距离小于阈值的像素点作为兴趣点,生成一幅二值化的热点图。
优选的,在二值化的热点图上,采用紧密分水岭分割算法对当前输入的待标注图像进行分割,得到超像素图,超像素图中包括若干个超像素块,如果某个超像素块内,兴趣点与其他像素点的比例,或者兴趣点的个数超过一定阈值,那么将这个超像素块作为初始的候选遮挡区域。
更进一步的,在选择初始的候选遮挡区域后,使用宽度优先搜索或者深度优先搜索策略,通过区域生长方法得到最终的遮挡区域。
本发明与现有技术相比,具有如下优点和有益效果:
1、本发明能够在缺少遮挡图像数据的情况下生成所需的遮挡图像样本进行模型训练。本发明利用人工合成的方法,模拟了现实场景下各种类型的遮挡情况,在短时间内生成了大量的带遮挡图像及对应的遮挡标记。这样可以显著降低数据采集与数据标记过程中的成本。
2、本发明利用循环对抗生成网络进行训练,能够借助模型自身的循环一致性约束自适应地对训练数据中的遮挡图像和遮挡标记的模式分布进行学习。而且本方法在训练过程中不需要成对的输入数据进行训练,在原始遮挡图像或者遮挡标注图像丢失的情况下依然能够利用剩余的数据进行训练。
3、本发明利用超像素块的纹理特征进行匹配,能够充分利用图像全局信息进行分析。经过基于超像素的后处理,本方法在修正检测结果的同时显著提升了处理效率,且结果更为准确。
附图说明
图1为本发明方法训练过程的流程图。
图2为本发明方法测试过程的流程图。
图3为本发明方法生成的训练数据示例图一,其中第一行表示带遮挡的行人图像,第二行表示对应的带遮挡标注的行人图像。
图4为本发明方法生成的训练数据示例图二,其中第一行表示带遮挡的行人图像,第二行表示对应的带遮挡标注的行人图像。
图5为本发明方法生成的超像素图。
图6为本发明方法的遮挡区域检测结果,其中第一行表示带遮挡的原始行人图像,第二行中的灰色区域表示循环对抗生成网络模型预测出的遮挡区域,第三行中的白色区域表示最终得到的遮挡区域检测结果。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例1
参见图1、2,本实施例基于循环对抗生成网络的行人图像遮挡检测方法,包括步骤:
(1)训练阶段1,即训练样本图像获取阶段。
本实施例利用MARS数据集中训练集的625个ID的行人图像作为无遮挡的原始行人照片,同时从ImageNet数据集和互联网分别获取了包括行人、墙壁、车辆、花木、雨伞、桌椅等6类731张图片作为遮挡物的图像,最终合成18750张带遮挡的图像及其标注。
在输入网络进行训练之前,本实施例在遮挡物图像上进行了去掉遮挡物中的背景、高斯滤波等操作,确保生成的图像质量趋近于真实的图像遮挡区块。由于遮挡物图像的比例相对较少,本发明对去掉背景的遮挡物图像进行随机裁剪(即选取遮挡物图像中的一部分)和水平翻转,实现数据增强。针对MARS数据集中的每一个行人ID,本方法不重复地随机选择不超过40张图片作为背景。对于每张原始的行人图像,随机选取一张遮挡物的图像,并根据遮挡物的先验知识随机地分配遮挡的类型——上下左右。譬如树木只会在左右两边,椅子只会在下方,雨伞可以在上下两半等等。若要生成位于原图上下两半部分的遮挡,本方法随机选取宽为60%~100%,高为20%~50%的区域用于放置遮挡物图像;若要生成位于原图左右两半部分的遮挡,本方法随机选取了宽为20%~50%,高为60%~100%的区域用于放置遮挡物图像。本方法将原图中的遮挡区域替换成遮挡物图像,合成带遮挡的行人图像;将原图中的遮挡区域替换成灰色,合成带遮挡标注的行人图像。最终生成的训练样本如图3、4所示。
(2)训练阶段2,即构建循环对抗生成网络模型阶段。
本发明将带遮挡的行人图像与标记出遮挡区域的行人图像作为网络的两路输入进行训练,综合考虑对抗损失与循环一致损失,让网络能够实现带遮挡图像与带遮挡标注的图像这两种数据域的图像转换。由于循环对抗生成网络(参考:Zhu,Jun-Yan,et al."Unpaired image-to-image translation using cycle-consistent adversarialnetworks."arXiv preprint arXiv:1703.10593(2017).)的标准输入输出是方形图像,为了避免图像失真,本方法在训练前对图像的左右两侧加入等宽的黑色边框,并在测试环节把两边的黑边删去。在实验中,设置batch size为1,learning rate为0.0002,λ为10。图像尺寸为256*256。经过90000次迭代,模型基本收敛。
(3)测试阶段。
对于输入的带遮挡行人图像,本发明利用训练阶段得到的遮挡标记生成器去生成对应的带遮挡标注的行人图像。由于生成的图像标记存在色差,本方法需要筛选出感兴趣的像素点。生成的标注图像首先被投影到LAB空间下,并转化为0~255的区间。接着统计出各个通道的数值与标记色彩(灰色)的距离均小于5的像素点作为兴趣点,从而生成一幅二值化的热点图。
同时本发明利用紧密分水岭分割算法(参考:Neubert,Peer,and PeterProtzel."Compact watershed and preemptive slic:On improving trade-offs ofsuperpixel segmentation algorithms."Pattern Recognition(ICPR),2014 22ndInternational Conference on.IEEE,2014.)对原始图像进行分割,得到相应的超像素图。在进行图像分割的过程中,初始超像素块数设置为80,紧密度设置为0.01,经过实验验证得到比较良好的分割效果。超像素块分割结果如图5所示。本发明首先计算每个超像素块内兴趣点个数,筛选出兴趣点个数超过20或者兴趣点比例超过0.4的超像素块作为初始的候选遮挡区域。接着本发明以这些初始候选遮挡区域为种子进行区域生长。具体而言,就是从每一个初始的候选遮挡区域出发,遍历其邻接的超像素块,将平均LAB数值与该初始超像素的欧氏距离小于12且未被访问的超像素块加入候选遮挡区域集合,若存在符合条件的超像素块则递归地访问其邻接的超像素块。这个过程可以使用宽度优先搜索或者深度优先搜索策略实现,搜索完成后,最终的候选遮挡区域集合即为本发明检测到的遮挡区域。
为了验证实验的有效性,本发明还在Occluded-REID和Partial-REID这两个带遮挡的行人数据集上进行了验证。实验中,利用本方法对两个数据中的遮挡行人图像进行处理,提取出遮挡物体的区域。将实验得到的结果与数据集人工标注出的行人目标和遮挡目标区域进行比较,计算出检测结果中行人目标、遮挡目标的比例以及行人目标、遮挡目标被检测到的比例。结果参见表1。
表1本发明方法在实验数据集上进行遮挡区域检测的量化分析
在上表中,检测结果遮挡物比例、检测结果行人比例类似于准确率,遮挡物被检测比例、行人被检测比例类似于召回率。如果检测区域中的遮挡目标比例太低,则说明没有很好地把遮挡目标的特征识别出来;如果遮挡目标被检测出来的比例太低,则说明发生较多的漏检。通过上述指标可看出,本发明方法具有较高的准确率,较低的误检率。参见图6,本发明的方法能够较准确地检测出图像中的遮挡区域,同时对行人目标的误检率也较为理想。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (8)

1.基于循环对抗生成网络的行人图像遮挡检测方法,其特征在于,包括步骤:
(1)在无遮挡的行人图像中随机加入遮挡图像块,生成带遮挡的行人图像及对应的带遮挡标注的行人图像;所述的遮挡标注是指人为设定的遮挡图像块或者原图自带的遮挡物体在行人图像中的区域;
(2)将上述带遮挡的行人图像及对应的带遮挡标注的行人图像作为两个数据域,训练循环对抗生成网络模型,构建遮挡图像与遮挡标注之间的映射;
(3)对于当前输入的待标注图像,利用训练后的循环对抗生成网络模型去产生该图像对应的遮挡标注,同时对待标注图像进行分割,得到若干个超像素块,根据每个超像素块内遮挡标注的信息,采用区域生长方法得到最终的遮挡区域。
2.根据权利要求1所述的基于循环对抗生成网络的行人图像遮挡检测方法,其特征在于,所述步骤(1)中,遮挡图像块的获取方式是:从数据库中获取遮挡物图像,然后在遮挡物图像上进行去背景、高斯滤波操作,得到遮挡图像块。
3.根据权利要求1所述的基于循环对抗生成网络的行人图像遮挡检测方法,其特征在于,所述步骤(1)中,遮挡图像块的获取方式是:从数据库中获取遮挡物图像,然后在遮挡物图像上进行去背景、高斯滤波操作,得到初始遮挡图像块;
再对初始遮挡物图像进行随机裁剪和水平翻转,然后得到最终遮挡图像块。
4.根据权利要求2或3所述的基于循环对抗生成网络的行人图像遮挡检测方法,其特征在于,对于位于无遮挡的行人图像上下两半部分的遮挡,随机选取宽为60%~100%,高为20%~50%的区域放置所述的遮挡图像块;对于位于原图左右两半部分的遮挡,随机选取宽为20%~50%,高为60%~100%的区域放置所述的遮挡图像块。
5.根据权利要求1所述的基于循环对抗生成网络的行人图像遮挡检测方法,其特征在于,所述步骤(2)中,训练循环对抗生成网络模型的步骤如下:
循环对抗生成网络中有两组对称的生成器与判别器,假设带遮挡的行人图像域为X,带遮挡标注的行人图像域为Y,生成器GX→Y用于将域X中的图像映射到域Y中,生成器GY→X用于将域Y中的图像映射到域X中,判别器DX、DY分别用于判别输入的图像是否属于域X与域Y;
网络训练的过程包含两种损失函数:对抗损失函数与循环一致性损失函数,对抗损失函数约束着生成器产生更接近另一种图像域的图片,而判别器不断提升判别对应的图像域的能力,以生成器GX→Y和判别器DY的组合为例,其对抗损失可表示如下:
LGAN(GX→Y,DY,X,Y)
=Ey~pdata(y)[logDY(y)]+Ex~p0ata(x)[log(1-DY(GX→Y(x)))]
循环一致性损失函数约束着图像经过两种图像域之间的转换后,仍能保持原有的图像域的分布特征,循环一致性损失函数可表示如下:
Lcyc(GX→Y,GY→X)
=Ex~pdata(x)[||GY→X(GX→Y(x))-x||1]
+Ey~pdata(y)[||GX→Y(GY→X(y))-y||1]
结合上述两种损失函数,总体的损失函数可表示如下:
L(GX→Y,GY→X,DX,DY)
=LGAN(GX→Y,DY,X,Y)+LGAN(GY→X,DX,X,Y)+λLcyc(GX→Y,GY→X)
其中的λ用于调节对抗损失函数与循环一致性损失函数的权重;
当迭代次数达到阈值或者总体损失函数小于阈值时,该模型停止训练。
6.根据权利要求1所述的基于循环对抗生成网络的行人图像遮挡检测方法,其特征在于,所述步骤(3)中,针对循环对抗生成网络模型中生成器生成的带遮挡标注的行人图像,在LAB空间对每个像素的值与训练时设定的遮挡标注的值进行距离度量,将距离小于阈值的像素点作为兴趣点,生成一幅二值化的热点图。
7.根据权利要求6所述的基于循环对抗生成网络的行人图像遮挡检测方法,其特征在于,在二值化的热点图上,采用紧密分水岭分割算法对当前输入的待标注图像进行分割,得到超像素图,超像素图中包括若干个超像素块,如果某个超像素块内,兴趣点与其他像素点的比例,或者兴趣点的个数超过一定阈值,那么将这个超像素块作为初始的候选遮挡区域。
8.根据权利要求7所述的基于循环对抗生成网络的行人图像遮挡检测方法,其特征在于,在选择初始的候选遮挡区域后,使用宽度优先搜索或者深度优先搜索策略,通过区域生长方法得到最终的遮挡区域。
CN201810266302.1A 2018-03-28 2018-03-28 基于循环对抗生成网络的行人图像遮挡检测方法 Active CN108573222B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810266302.1A CN108573222B (zh) 2018-03-28 2018-03-28 基于循环对抗生成网络的行人图像遮挡检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810266302.1A CN108573222B (zh) 2018-03-28 2018-03-28 基于循环对抗生成网络的行人图像遮挡检测方法

Publications (2)

Publication Number Publication Date
CN108573222A true CN108573222A (zh) 2018-09-25
CN108573222B CN108573222B (zh) 2020-07-14

Family

ID=63574686

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810266302.1A Active CN108573222B (zh) 2018-03-28 2018-03-28 基于循环对抗生成网络的行人图像遮挡检测方法

Country Status (1)

Country Link
CN (1) CN108573222B (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109359559A (zh) * 2018-09-27 2019-02-19 天津师范大学 一种基于动态遮挡样本的行人再识别方法
CN109472817A (zh) * 2018-09-27 2019-03-15 浙江工业大学 一种基于循环生成对抗网络的多序列磁共振图像配准方法
CN109637634A (zh) * 2018-12-11 2019-04-16 厦门大学 一种基于生成对抗网络的医学图像合成方法
CN109784349A (zh) * 2018-12-25 2019-05-21 东软集团股份有限公司 图像目标检测模型建立方法、装置、存储介质及程序产品
CN109993072A (zh) * 2019-03-14 2019-07-09 中山大学 基于超分辨图像生成的低分辨率行人重识别系统和方法
CN110033416A (zh) * 2019-04-08 2019-07-19 重庆邮电大学 一种结合多粒度的车联网图像复原方法
CN110135305A (zh) * 2019-04-30 2019-08-16 百度在线网络技术(北京)有限公司 用于疲劳度检测的方法、装置、设备和介质
CN110348437A (zh) * 2019-06-27 2019-10-18 电子科技大学 一种基于弱监督学习与遮挡感知的目标检测方法
CN110728661A (zh) * 2019-09-18 2020-01-24 清华大学 基于随机生成样本的图像畸变评价网络训练方法及装置
CN111476200A (zh) * 2020-04-27 2020-07-31 华东师范大学 基于生成对抗网络的人脸去识别化生成方法
CN111860431A (zh) * 2020-07-30 2020-10-30 浙江大华技术股份有限公司 图像中对象的识别方法和装置、存储介质及电子装置
CN113111823A (zh) * 2021-04-22 2021-07-13 广东工业大学 一种建筑施工地的异常行为检测方法和相关装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106503170A (zh) * 2016-10-31 2017-03-15 清华大学 一种基于遮挡维度的图像库构建方法
CN107016406A (zh) * 2017-02-24 2017-08-04 中国科学院合肥物质科学研究院 基于生成式对抗网络的病虫害图像生成方法
CN107133601A (zh) * 2017-05-13 2017-09-05 五邑大学 一种基于生成式对抗网络图像超分辨率技术的行人再识别方法
CN107292813A (zh) * 2017-05-17 2017-10-24 浙江大学 一种基于生成对抗网络的多姿态人脸生成方法
CN107403160A (zh) * 2017-07-28 2017-11-28 中国地质大学(武汉) 一种智能驾驶场景中图像检测方法、设备及其存储设备
US20170365038A1 (en) * 2016-06-16 2017-12-21 Facebook, Inc. Producing Higher-Quality Samples Of Natural Images

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170365038A1 (en) * 2016-06-16 2017-12-21 Facebook, Inc. Producing Higher-Quality Samples Of Natural Images
CN106503170A (zh) * 2016-10-31 2017-03-15 清华大学 一种基于遮挡维度的图像库构建方法
CN107016406A (zh) * 2017-02-24 2017-08-04 中国科学院合肥物质科学研究院 基于生成式对抗网络的病虫害图像生成方法
CN107133601A (zh) * 2017-05-13 2017-09-05 五邑大学 一种基于生成式对抗网络图像超分辨率技术的行人再识别方法
CN107292813A (zh) * 2017-05-17 2017-10-24 浙江大学 一种基于生成对抗网络的多姿态人脸生成方法
CN107403160A (zh) * 2017-07-28 2017-11-28 中国地质大学(武汉) 一种智能驾驶场景中图像检测方法、设备及其存储设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JUN-YAN ZHU等: "Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks", 《2017 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION》 *
魏 林等: "基于统计学习优化SIFT的面部遮挡人脸识别", 《激光杂志》 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109472817A (zh) * 2018-09-27 2019-03-15 浙江工业大学 一种基于循环生成对抗网络的多序列磁共振图像配准方法
CN109359559B (zh) * 2018-09-27 2021-11-12 天津师范大学 一种基于动态遮挡样本的行人再识别方法
CN109472817B (zh) * 2018-09-27 2021-08-03 浙江工业大学 一种基于循环生成对抗网络的多序列磁共振图像配准方法
CN109359559A (zh) * 2018-09-27 2019-02-19 天津师范大学 一种基于动态遮挡样本的行人再识别方法
CN109637634B (zh) * 2018-12-11 2020-10-02 厦门大学 一种基于生成对抗网络的医学图像合成方法
CN109637634A (zh) * 2018-12-11 2019-04-16 厦门大学 一种基于生成对抗网络的医学图像合成方法
CN109784349A (zh) * 2018-12-25 2019-05-21 东软集团股份有限公司 图像目标检测模型建立方法、装置、存储介质及程序产品
CN109993072B (zh) * 2019-03-14 2021-05-25 中山大学 基于超分辨图像生成的低分辨率行人重识别系统和方法
CN109993072A (zh) * 2019-03-14 2019-07-09 中山大学 基于超分辨图像生成的低分辨率行人重识别系统和方法
CN110033416A (zh) * 2019-04-08 2019-07-19 重庆邮电大学 一种结合多粒度的车联网图像复原方法
CN110135305A (zh) * 2019-04-30 2019-08-16 百度在线网络技术(北京)有限公司 用于疲劳度检测的方法、装置、设备和介质
CN110348437A (zh) * 2019-06-27 2019-10-18 电子科技大学 一种基于弱监督学习与遮挡感知的目标检测方法
CN110728661A (zh) * 2019-09-18 2020-01-24 清华大学 基于随机生成样本的图像畸变评价网络训练方法及装置
CN111476200A (zh) * 2020-04-27 2020-07-31 华东师范大学 基于生成对抗网络的人脸去识别化生成方法
CN111476200B (zh) * 2020-04-27 2022-04-19 华东师范大学 基于生成对抗网络的人脸去识别化生成方法
CN111860431A (zh) * 2020-07-30 2020-10-30 浙江大华技术股份有限公司 图像中对象的识别方法和装置、存储介质及电子装置
CN111860431B (zh) * 2020-07-30 2023-12-12 浙江大华技术股份有限公司 图像中对象的识别方法和装置、存储介质及电子装置
CN113111823A (zh) * 2021-04-22 2021-07-13 广东工业大学 一种建筑施工地的异常行为检测方法和相关装置

Also Published As

Publication number Publication date
CN108573222B (zh) 2020-07-14

Similar Documents

Publication Publication Date Title
CN108573222A (zh) 基于循环对抗生成网络的行人图像遮挡检测方法
CN106228528B (zh) 一种基于决策图与稀疏表示的多聚焦图像融合方法
CN108334847A (zh) 一种真实场景下的基于深度学习的人脸识别方法
CN111986099A (zh) 基于融合残差修正的卷积神经网络的耕地监测方法及系统
Zhao et al. Pyramid global context network for image dehazing
CN107886089A (zh) 一种基于骨架图回归的三维人体姿态估计的方法
CN110084757A (zh) 一种基于生成对抗网络的红外深度图像增强方法
CN109242834A (zh) 一种基于卷积神经网络的无参考立体图像质量评价方法
CN103186894B (zh) 一种自适应分块的多聚焦图像融合方法
CN109801292A (zh) 一种基于生成对抗网络的沥青公路裂缝图像分割方法
CN109598223A (zh) 基于视频获取目标人物的方法和装置
CN103914699A (zh) 一种基于色彩空间的自动唇彩的图像增强的方法
CN109472193A (zh) 人脸检测方法及装置
CN109255758A (zh) 基于全1*1卷积神经网络的图像增强方法
CN110163213A (zh) 基于视差图和多尺度深度网络模型的遥感图像分割方法
CN109978854A (zh) 一种基于边缘与结构特征的屏幕内容图像质量评估方法
CN109993775A (zh) 基于特征补偿的单目标跟踪方法
CN110008962A (zh) 基于注意力机制的弱监督语义分割方法
CN107330854B (zh) 一种基于新型模板的图像超分辨率增强方法
CN110390673A (zh) 一种监控场景下基于深度学习的香烟自动检测方法
CN109801225A (zh) 基于多任务全卷积神经网络的人脸网纹污迹去除方法
CN110070517A (zh) 基于退化成像机理和生成对抗机制的模糊图像合成方法
Li et al. Image manipulation localization using attentional cross-domain CNN features
CN109840905A (zh) 电力设备锈迹检测方法及系统
Luo et al. Bi-GANs-ST for perceptual image super-resolution

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
OL01 Intention to license declared
OL01 Intention to license declared