CN110084146B - 基于遮挡感知自监督学习的行人检测方法及装置 - Google Patents

基于遮挡感知自监督学习的行人检测方法及装置 Download PDF

Info

Publication number
CN110084146B
CN110084146B CN201910277903.7A CN201910277903A CN110084146B CN 110084146 B CN110084146 B CN 110084146B CN 201910277903 A CN201910277903 A CN 201910277903A CN 110084146 B CN110084146 B CN 110084146B
Authority
CN
China
Prior art keywords
occlusion
pedestrian
network
pictures
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910277903.7A
Other languages
English (en)
Other versions
CN110084146A (zh
Inventor
鲁继文
周杰
林纯泽
段岳圻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN201910277903.7A priority Critical patent/CN110084146B/zh
Publication of CN110084146A publication Critical patent/CN110084146A/zh
Application granted granted Critical
Publication of CN110084146B publication Critical patent/CN110084146B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明公开了一种基于遮挡感知自监督学习的行人检测方法及装置,其中,方法包括:将输入图像送到候选区域生成网络中以生成包括行人区域和背景区域的多个感兴趣区域;对多个感兴趣区域进行预处理,以得到多张感兴趣图片,并根据多张感兴趣图片随机生成遮挡物以得到遮挡样本图片和遮挡图;将多张感兴趣图片和遮挡样本图片输入至遮挡感知深度网络,并通过遮挡图监督训练网络,以得到遮挡感知深度网络的置信度;根据多个感兴趣区域和候选区域生成网络的置信度及遮挡感知深度网络的置信度得到行人检测结果。该方法随机生成遮挡样本并提供遮挡物的具体位置,使得遮挡感知深度网络能够有效的区分人体和遮挡物,具备更鲁棒的识别能力。

Description

基于遮挡感知自监督学习的行人检测方法及装置
技术领域
本发明涉及计算机图像处理中的行人检测技术领域,特别涉及一种基于遮挡感知自监督学习的行人检测方法及装置。
背景技术
行人检测是视觉分析中最重要的任务之一,具有许多实际应用,例如自动驾驶、智能监控和机器人。因此行人检测技术具有极高的科研价值和商业价值,近年来,它在计算机视觉领域引起了极大的关注。尽管有大量的学者从事行人检测算法的研究,行人检测任务依然具有很大的挑战性。大多数最先进的行人检测方法在合理的情况下,即行人没有被遮挡或被轻微遮挡的情况下,具有较好的检测性能。然而,当行人被严重遮挡时,这些方法会受到严重影响。由于大多数身体部位是不可见的,因此行人检测器很容易被遮挡物误导,从而无法有效的识别行人。由于行人在现实世界的应用中可能被不同的物体遮挡,因此处理遮挡问题对于鲁棒的行人检测至关重要。
现有技术提出了一些方法来减轻遮挡的干扰,例如学习身体部位检测器以局部地识别特定的身体部位,然后通过考虑多个部位的置信度来做出最终检测的决定。现有大多数方法主要使用RPN(Region Proposal Network,候选区域生成网络)提取一系列可能存在行人的区域,并在这些区域使用身体部位检测器寻找人体的部位(头部、胸部、手、腿、脚等等)。如果存在行人的身体部位,则表明区域确实存在目标,并将此区域的置信度提高作为检测结果。
然而,这些方法的主要缺点是非常依赖于拥有细粒度标注的数据集(例如可见身体部位注释)来学习每个身体部位的检测器,收集这些精准标注的数据集需要非常昂贵且耗时的人工,从而使得这些方法无法在大多数仅具有整个身体位置标注的现有行人数据集上进行训练。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的一个目的在于提出一种基于遮挡感知自监督学习的行人检测方法,该方法可以有效提高行人检测的精度和鲁棒性,简单易实现。
本发明的另一个目的在于提出一种基于遮挡感知自监督学习的行人检测装置。
为达到上述目的,本发明一方面实施例提出了一种基于遮挡感知自监督学习的行人检测方法,包括以下步骤:将输入图像送到候选区域生成网络中以生成多个感兴趣区域,其中,所述多个感兴趣区域包括行人区域和背景区域;对所述多个感兴趣区域进行预处理,以得到多张感兴趣图片,并根据所述多张感兴趣图片随机生成遮挡物以得到遮挡样本图片和遮挡图;将所述多张感兴趣图片和遮挡样本图片输入至遮挡感知深度网络,并通过所述遮挡图监督训练网络,以得到所述遮挡感知深度网络的置信度;根据所述多个感兴趣区域和所述候选区域生成网络的置信度及所述遮挡感知深度网络的置信度得到行人检测结果。
本发明实施例的基于遮挡感知自监督学习的行人检测方法,将需要检测的图片输入到候选区域生成网络中得到一系列可能有行人的候选区域,并在训练遮挡感知深度神经网络的过程中,在这些候选区域图片生成随机遮挡物以及标有遮挡物位置的遮挡图,从而使用遮挡图作为免费额外的监督信号训练遮挡感知深度神经网络,使其能够区分人体特征和遮挡物,具备更鲁棒的识别能力,进而有效提高行人检测的精度和鲁棒性,简单易实现。
另外,根据本发明上述实施例的基于遮挡感知自监督学习的行人检测方法还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述将输入图像送到候选区域生成网络中以生成多个感兴趣区域,进一步包括:通过候选区域生成网络检测出所述多个感兴趣区域中的所述行人区域,以获得所述候选区域生成网络的置信度。
进一步地,在本发明的一个实施例中,所述对所述多个感兴趣区域进行预处理,以得到多张感兴趣图片,进一步包括:将所述多个感兴趣区域从所述输入图像中裁剪下来并调整至相同大小图片,以得到多张感兴趣图片。
进一步地,在本发明的一个实施例中,还包括:使用第一目标函数训练所述候选区域生成网络,其中,所述第一目标函数为:
LRPN=LconflLlocsLseg
其中:
Figure BDA0002020663150000021
Figure BDA0002020663150000022
Figure BDA0002020663150000023
xij={1,0}判断第i个检测框与第j个行人标注框是否有交集,N为检测框的数目,{x,y,w,h}代表检测框的中心坐标、宽度和高度,d为检测结果,g是标注信息,
Figure BDA0002020663150000031
Ns为行人分割图中的像素个数,yi为真实像素标签,ls为行人或背景类别,I{.}为指示函数。
进一步地,在本发明的一个实施例中,还包括:使用第二目标函数训练所述遮挡感知深度神经网络,其中,所述第二目标函数为:
Figure BDA0002020663150000032
其中,
Figure BDA0002020663150000033
为softmaxloss评估真实类别和模型估计的类别,
Figure BDA0002020663150000034
其中,H和W分别是遮挡图的高和宽,
Figure BDA0002020663150000035
Figure BDA0002020663150000036
分别是模型估计的遮挡图中第k和j像素的预测的类别以及真实遮挡图中第k和j像素的真实类别,lo为交叉熵函数。
为达到上述目的,本发明另一方面实施例提出了一种基于遮挡感知自监督学习的行人检测装置,包括:生成模块,用于将输入图像送到候选区域生成网络中以生成多个感兴趣区域,其中,所述多个感兴趣区域包括行人区域和背景区域;预处理模块,用于对所述多个感兴趣区域进行预处理,以得到多张感兴趣图片,并根据所述多张感兴趣图片随机生成遮挡物以得到遮挡样本图片和遮挡图;置信度获取模块,用于将所述多张感兴趣图片和遮挡样本图片输入至遮挡感知深度网络,并通过所述遮挡图监督训练网络,以得到所述遮挡感知深度网络的置信度;结果模块,用于根据所述多个感兴趣区域和所述候选区域生成网络的置信度及所述遮挡感知深度网络的置信度得到行人检测结果。
本发明实施例的基于遮挡感知自监督学习的行人检测装置,将需要检测的图片输入到候选区域生成网络中得到一系列可能有行人的候选区域,并在训练遮挡感知深度神经网络的过程中,在这些候选区域图片生成随机遮挡物以及标有遮挡物位置的遮挡图,从而使用遮挡图作为免费额外的监督信号训练遮挡感知深度神经网络,使其能够区分人体特征和遮挡物,具备更鲁棒的识别能力,进而有效提高行人检测的精度和鲁棒性,简单易实现。
另外,根据本发明上述实施例的基于遮挡感知自监督学习的行人检测装置还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述生成模块进一步用于通过候选区域生成网络检测出所述多个感兴趣区域中的所述行人区域,以获得所述候选区域生成网络的置信度。
进一步地,在本发明的一个实施例中,所述预处理模块进一步用于将所述多个感兴趣区域从所述输入图像中裁剪下来并调整至相同大小图片,以得到多张感兴趣图片。
进一步地,在本发明的一个实施例中,还包括:第一训练模块,用于使用第一目标函数训练所述候选区域生成网络,其中,所述第一目标函数为:
LRPN=LconflLlocsLseg
其中:
Figure BDA0002020663150000041
Figure BDA0002020663150000042
Figure BDA0002020663150000043
xij={1,0}判断第i个检测框与第j个行人标注框是否有交集,N为检测框的数目,{x,y,w,h}代表检测框的中心坐标、宽度和高度,d为检测结果,g是标注信息,
Figure BDA0002020663150000044
Ns为行人分割图中的像素个数,yi为真实像素标签,ls为行人或背景类别,I{.}为指示函数。
进一步地,在本发明的一个实施例中,还包括:第二训练模块,用于使用第二目标函数训练所述遮挡感知深度神经网络,其中,所述第二目标函数为:
Figure BDA0002020663150000045
其中,
Figure BDA0002020663150000046
为softmaxloss评估真实类别和模型估计的类别,
Figure BDA0002020663150000047
其中,H和W分别是遮挡图的高和宽,
Figure BDA0002020663150000048
Figure BDA0002020663150000049
分别是模型估计的遮挡图中第k和j像素的预测的类别以及真实遮挡图中第k和j像素的真实类别,lo为交叉熵函数。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本发明一个实施例的基于遮挡感知自监督学习的行人检测方法的流程图;
图2为根据本发明一个具体实施例的基于遮挡感知自监督学习的行人检测方法的流程图;
图3为根据本发明一个实施例的现有方法和本发明实施例的方法在遮挡情况下的对比示意图;
图4为根据本发明一个实施例的生成的遮挡样本和遮挡图样例示意图;
图5为根据本发明一个实施例的现实世界中遮挡情况估计的遮挡图;
图6为根据本发明一个实施例的基于遮挡感知自监督学习的行人检测装置的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参照附图描述根据本发明实施例提出的基于遮挡感知自监督学习的行人检测方法及装置,首先将参照附图描述根据本发明实施例提出的基于遮挡感知自监督学习的行人检测方法。
图1是本发明一个实施例的基于遮挡感知自监督学习的行人检测方法的流程图。
如图1所示,该基于遮挡感知自监督学习的行人检测方法包括以下步骤:
在步骤S101中,将输入图像送到候选区域生成网络中以生成多个感兴趣区域,其中,多个感兴趣区域包括行人区域和背景区域。
可以理解的是,如图2所示,本发明实施例提出使用候选区域生成网络生成感兴趣区域,然后使用遮挡感知深度网络对其进行分类(行人/背景)。
具体地,首先,将输入图像送到候选区域生成网络中;然后,候选区域生成网络生成一系列感兴趣区域,其中包括行人和背景。。
进一步地,在本发明的一个实施例中,将输入图像送到候选区域生成网络中以生成多个感兴趣区域,进一步包括:过候选区域生成网络检测出多个感兴趣区域中的行人区域,以获得候选区域生成网络的置信度。
具体而言,本发明实施例的行人检测器主要由两个深度卷积神经网络组成。其中候选区域生成网络是第一个深度卷积神经网络,其任务是将图片中可能出现行人的区域检测出来并给予置信度。在行人检测任务中,由于只需分类行人和背景,候选区域生成网络可直接视为行人检测器。但是,候选区域生成网络容易被遮挡物所误导,造成严重的误解或漏检。
本发明实施例将适用于分类的深度卷积神经网络VGG-16进行调整使其能够用于感兴趣区域生成任务。
具体地,去除了所有全连接层以及分类层,并在卷积神经网络后面增加了两个卷积层,用于检测框坐标的回归和分类,以及一个行人分割模块。行人分割模块将输入图片在图片空间上将像素分成两类:行人和背景。行人分割模块可以有效的帮助候选区域生成网络将注意集中在行人身上,避免深度神经网络被复杂的背景误导而检测出大量的背景和丢失目标区域。附图2左半部分显示了候选区域生成网络,其中,可以看到将图像输入到候选区域生成网络中,然后得到一系列的感兴趣区域,其中包括行人和背景。最有可能出现行人的感兴趣区域将被送入到遮挡感知深度网络进行再次分类,从而获得更精确的置信度。
其中,在本发明的一个实施例中,使用第一目标函数训练候选区域生成网络:
LRPN=LconflLlocsLseg
其中:
Figure BDA0002020663150000061
Figure BDA0002020663150000062
Figure BDA0002020663150000063
xij={1,0}判断第i个检测框与第j个行人标注框是否有交集,N为检测框的数目,{x,y,w,h}代表检测框的中心坐标,宽度和高度,d为检测结果,g是标注信息,
Figure BDA0002020663150000064
Ns为行人分割图中的像素个数,yi为真实像素标签,ls为行人/背景类别。I{.}为指示函数。实验表明λl=3与λm=1情况下,能够取得较好的训练结果。
在步骤S102中,对多个感兴趣区域进行预处理,以得到多张感兴趣图片,并根据多张感兴趣图片随机生成遮挡物以得到遮挡样本图片和遮挡图。
可以理解的是,为了有效识别被遮挡的目标,本发明实施例提出随机生成遮挡样本并提供遮挡物的具体位置,从而可以使得遮挡感知深度网络能够有效的区分人体和遮挡物。
需要说明的是,由于无遮挡数据远多于被遮挡的行人数据,通过随机生成遮挡物的方法产生一系列被遮挡的行人,从而减轻数据量不平衡的问题。
其中,在本发明的一个实施例中,对多个感兴趣区域进行预处理,以得到多张感兴趣图片,进一步包括:将多个感兴趣区域从输入图像中裁剪下来并调整至相同大小图片,以得到多张感兴趣图片。
可以理解的是,如图2所示,将感兴趣区域从原始图像裁剪下来并调整至相同大小图片。进一步地,以百分之50的概率在这些感兴趣区域图片上随机生成遮挡物,从而获得遮挡样本图片和遮挡图。
在步骤S103中,将多张感兴趣图片和遮挡样本图片输入至遮挡感知深度网络,并通过遮挡图监督训练网络,以得到遮挡感知深度网络的置信度。
可以理解的是,如图2所示,本发明实施例将感兴趣区域图片和遮挡样本图片输入到遮挡感知深度网络,并使用遮挡图监督训练网络,使其能够理解遮挡物并有效的区分各种遮挡情况下的行人和背景。
也就是说,本发明实施例可以利用遮挡感知自监督学习的技术提升行人检测器在遮挡情况下的精准度。具体地,生成具有遮挡物位置信息的遮挡图作为监督信息训练深度卷积神经网络,使其具备在遮挡情况下能够有效的区分人体特征和遮挡物,从而达到拟人的分辨能力和识别能力。
具体而言,由于人类在识别一个被遮挡的目标时,首先会下意识地区分开遮挡和目标,然后进行目标识别,因此,本发明实施例为实现拟人类的识别感知,提出遮挡感知自监督学习的方法训练遮挡感知深度网络。具体地,本发明实施例的方法希望深度神经网络在识别目标的同时能够有效的区分行人身体部分和遮挡物,从而达到在遮挡情况下拟人类的感知能力。
由于现有深度神经网络的训练严重依赖于大数据,且收集遮挡数据并进行标注需要大量的工作量和资源,因此,本发明实施例提出使用遮挡感知自监督学习的方法避免遮挡数据的收集和标注。
如图3所示,附图3显示了现有技术在遮挡情况下的方法以及本发明的方法。在候选区域生成网络给定的行人或背景图片上以百分之五十的概率随机生成遮挡物,从而获得遮挡数据以及遮挡图。新生成的遮挡数据将被用于训练数据而遮挡图则用于监督信号训练遮挡感知深度神经网络。
如图4所示,附图4显示了一系列的图例,其中可以看到原始行人图片,生成的遮挡图片以及遮挡图。生成的遮挡图可视为免费的监督信号用于训练深度神经网络使其拥有遮挡感知能力。附图5显示遮挡感知深度神经网络在面对现实世界中遮挡情况的理解能力,从图中可以看到,遮挡感知深度神经网络能够有效的判断出行人身体部分并将其和背景/遮挡物区分开来。此遮挡感知能力能够帮助神经网络在识别的过程中更加关注目标行人的特征,避免被遮挡物或复杂背景的特征误导。
遮挡感知深度神经网络的结构由VGG-16网络组成。本发明实施例在VGG-16的网络结构中加入遮挡图生成模块,使得深度神经网络能够更有效的理解遮挡情况并区分目标特征和遮挡物/背景特征。遮挡图生成模块建立在conv5_3卷积层上,由一个卷积层和Sigmoid层组成,其输出是输入图片的十六分之一大小的遮挡图。遮挡图在图片空间上将像素分为人体部分和遮挡物部分,从而表现区分人体部分的能力。
由于遮挡图生成模块的底层特征与分类模块共享,此模块能够有效的提供遮挡位置信息给分类模块,从而提升遮挡情况下的分类精确度。另一方面,分类模块建立在conv5_3卷积层,由2个全连接层和Softmax层组成,其输出是一个二维的向量,分别表示行人和背景的置信度。
其中,在本发明的一个实施例中,使用第二目标函数训练遮挡感知深度神经网络:
Figure BDA0002020663150000081
其中,
Figure BDA0002020663150000082
为softmaxloss评估真实类别和模型估计的类别,
Figure BDA0002020663150000083
H和W分别是遮挡图的高和宽,
Figure BDA0002020663150000084
Figure BDA0002020663150000085
分别是模型估计的遮挡图中第k和j像素的预测的类别以及真实遮挡图中第k和j像素的真实类别。lo为交叉熵函数。实验表明λc=1与λo=1情况下,能够取得较好的训练结果。
在步骤S104中,根据多个感兴趣区域和候选区域生成网络的置信度及遮挡感知深度网络的置信度得到行人检测结果。
可以理解的是,本发明实施例可以结合候选区域生成网络获得的行人坐标以及置信度和遮挡感知深度网络的置信度得到最终的行人检测结果。
需要说明的是,本发明实施例提供一种新的方法去提升行人检测在严重遮挡的情况下的性能,从而不再简单地使用现有数据或收集新标注,而是以自监督学习的方式利用无遮挡的行人来生成新的遮挡数据。在避免使用大量人力去标注行人和遮挡数据,通过生成遮挡物的方法提供遮挡样例和用于训练深度神经网络的监督信号,使得行人检测器能够有效的区分人体和遮挡物。
综上,本发明实施例主要目的是提升现有行人检测技术在复杂场景下被其他物体遮挡的行人检测的精度和鲁棒性。本发明实施例通过引入遮挡感知自监督学习的方法使得检测器能够有效区分行人身体部分和遮挡物。该方法的优点是不需要大量细粒度标注的数据用于监督训练深度卷积神经网络,而是利用现有公开行人检测数据集,通过自监督学习的方法训练对遮挡鲁棒的模型。
根据本发明实施例提出的基于遮挡感知自监督学习的行人检测方法,将需要检测的图片输入到候选区域生成网络中得到一系列可能有行人的候选区域,并在训练遮挡感知深度神经网络的过程中,在这些候选区域图片生成随机遮挡物以及标有遮挡物位置的遮挡图,从而使用遮挡图作为免费额外的监督信号训练遮挡感知深度神经网络,使其能够区分人体特征和遮挡物,具备更鲁棒的识别能力,进而有效提高行人检测的精度和鲁棒性,简单易实现。
其次参照附图描述根据本发明实施例提出的基于遮挡感知自监督学习的行人检测装置。
图6是本发明一个实施例的基于遮挡感知自监督学习的行人检测装置的结构示意图。
如图6所示,该基于遮挡感知自监督学习的行人检测装置100包括:生成模块110、预处理模块120、置信度获取模块130和结果模块140。
其中,生成模块110用于将输入图像送到候选区域生成网络中以生成多个感兴趣区域,其中,多个感兴趣区域包括行人区域和背景区域。预处理模块120用于对多个感兴趣区域进行预处理,以得到多张感兴趣图片,并根据多张感兴趣图片随机生成遮挡物以得到遮挡样本图片和遮挡图。置信度获取模块130用于将多张感兴趣图片和遮挡样本图片输入至遮挡感知深度网络,并通过遮挡图监督训练网络,以得到遮挡感知深度网络的置信度。结果模块140用于根据多个感兴趣区域和候选区域生成网络的置信度及遮挡感知深度网络的置信度得到行人检测结果。本发明实施例的装置100可以在这些候选区域图片生成随机遮挡物以及标有遮挡物位置的遮挡图,以训练遮挡感知深度神经网络,使其能够区分人体特征和遮挡物,具备更鲁棒的识别能力,进而有效提高行人检测的精度和鲁棒性,简单易实现。
进一步地,在本发明的一个实施例中,生成模块110进一步用于通过候选区域生成网络检测出多个感兴趣区域中的行人区域,以获得候选区域生成网络的置信度。
进一步地,在本发明的一个实施例中,预处理模块120进一步用于将多个感兴趣区域从输入图像中裁剪下来并调整至相同大小图片,以得到多张感兴趣图片。
进一步地,在本发明的一个实施例中,本发明实施例的装置100还包括:第一训练模块。
其中,第一训练模块用于使用第一目标函数训练候选区域生成网络,其中,第一目标函数为:
LRPN=LconflLlocsLseg
其中:
Figure BDA0002020663150000101
Figure BDA0002020663150000102
Figure BDA0002020663150000103
xij={1,0}判断第i个检测框与第j个行人标注框是否有交集,N为检测框的数目,{x,y,w,h}代表检测框的中心坐标、宽度和高度,d为检测结果,g是标注信息,
Figure BDA0002020663150000104
Ns为行人分割图中的像素个数,yi为真实像素标签,ls为行人或背景类别,I{·}为指示函数。
进一步地,在本发明的一个实施例中,本发明实施例的装置100还包括:第二训练模块。
其中,第二训练模块用于使用第二目标函数训练遮挡感知深度神经网络,其中,第二目标函数为:
Figure BDA0002020663150000105
其中,
Figure BDA0002020663150000106
为softmaxloss评估真实类别和模型估计的类别,
Figure BDA0002020663150000107
其中,H和W分别是遮挡图的高和宽,
Figure BDA0002020663150000108
Figure BDA0002020663150000109
分别是模型估计的遮挡图中第k和j像素的预测的类别以及真实遮挡图中第k和j像素的真实类别,lo为交叉熵函数。
需要说明的是,前述对基于遮挡感知自监督学习的行人检测方法实施例的解释说明也适用于该实施例的基于遮挡感知自监督学习的行人检测装置,此处不再赘述。
根据本发明实施例提出的基于遮挡感知自监督学习的行人检测装置,将需要检测的图片输入到候选区域生成网络中得到一系列可能有行人的候选区域,并在训练遮挡感知深度神经网络的过程中,在这些候选区域图片生成随机遮挡物以及标有遮挡物位置的遮挡图,从而使用遮挡图作为免费额外的监督信号训练遮挡感知深度神经网络,使其能够区分人体特征和遮挡物,具备更鲁棒的识别能力,进而有效提高行人检测的精度和鲁棒性,简单易实现。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本发明中,除非另有明确的规定和限定,第一特征在第二特征“上”或“下”可以是第一和第二特征直接接触,或第一和第二特征通过中间媒介间接接触。而且,第一特征在第二特征“之上”、“上方”和“上面”可是第一特征在第二特征正上方或斜上方,或仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、“下方”和“下面”可以是第一特征在第二特征正下方或斜下方,或仅仅表示第一特征水平高度小于第二特征。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (10)

1.一种基于遮挡感知自监督学习的行人检测方法,其特征在于,包括以下步骤:
将输入图像送到候选区域生成网络中以生成多个感兴趣区域,其中,所述多个感兴趣区域包括行人区域和背景区域;
对所述多个感兴趣区域进行预处理,以得到多张感兴趣图片,并根据所述多张感兴趣图片随机生成遮挡物以得到遮挡样本图片和标有遮挡物位置信息的遮挡图;
将所述多张感兴趣图片和遮挡样本图片输入至遮挡感知深度网络,并通过所述遮挡图监督训练网络,以得到所述遮挡感知深度网络的置信度;以及
根据所述多个感兴趣区域和所述候选区域生成网络的置信度及所述遮挡感知深度网络的置信度得到行人检测结果。
2.根据权利要求1所述的基于遮挡感知自监督学习的行人检测方法,其特征在于,所述将输入图像送到候选区域生成网络中以生成多个感兴趣区域,进一步包括:
通过候选区域生成网络检测出所述多个感兴趣区域中的所述行人区域,以获得所述候选区域生成网络的置信度。
3.根据权利要求1所述的基于遮挡感知自监督学习的行人检测方法,其特征在于,所述对所述多个感兴趣区域进行预处理,以得到多张感兴趣图片,进一步包括:
将所述多个感兴趣区域从所述输入图像中裁剪下来并调整至相同大小图片,以得到多张感兴趣图片。
4.根据权利要求2所述的基于遮挡感知自监督学习的行人检测方法,其特征在于,还包括:
使用第一目标函数训练所述候选区域生成网络,其中,所述第一目标函数为:
LRPN=LconflLlocsLseg
其中:
Figure FDA0002982623250000011
Figure FDA0002982623250000012
Figure FDA0002982623250000013
xij={1,0}判断第i个检测框与第j个行人标注框是否有交集,N为检测框的数目,{x,y,w,h}代表检测框的中心坐标、宽度和高度,d为检测结果,g是标注信息,
Figure FDA0002982623250000021
Ns为行人分割图中的像素个数,yi为真实像素标签,ls为行人或背景类别,I{.}为指示函数。
5.根据权利要求1所述的基于遮挡感知自监督学习的行人检测方法,其特征在于,还包括:
使用第二目标函数训练所述遮挡感知深度神经网络,其中,所述第二目标函数为:
Figure FDA0002982623250000022
其中,
Figure FDA0002982623250000023
为softmaxloss评估真实类别和模型估计的类别,
Figure FDA0002982623250000024
其中,H和W分别是遮挡图的高和宽,
Figure FDA0002982623250000025
Figure FDA0002982623250000026
分别是模型估计的遮挡图中第k和j像素的预测的类别以及真实遮挡图中第k和j像素的真实类别,lo为交叉熵函数。
6.一种基于遮挡感知自监督学习的行人检测装置,其特征在于,包括:
生成模块,用于将输入图像送到候选区域生成网络中以生成多个感兴趣区域,其中,所述多个感兴趣区域包括行人区域和背景区域;
预处理模块,用于对所述多个感兴趣区域进行预处理,以得到多张感兴趣图片,并根据所述多张感兴趣图片随机生成遮挡物以得到遮挡样本图片和标有遮挡物位置信息的遮挡图;
置信度获取模块,用于将所述多张感兴趣图片和遮挡样本图片输入至遮挡感知深度网络,并通过所述遮挡图监督训练网络,以得到所述遮挡感知深度网络的置信度;以及
结果模块,用于根据所述多个感兴趣区域和所述候选区域生成网络的置信度及所述遮挡感知深度网络的置信度得到行人检测结果。
7.根据权利要求6所述的基于遮挡感知自监督学习的行人检测装置,其特征在于,所述生成模块进一步用于通过候选区域生成网络检测出所述多个感兴趣区域中的所述行人区域,以获得所述候选区域生成网络的置信度。
8.根据权利要求6所述的基于遮挡感知自监督学习的行人检测装置,其特征在于,所述预处理模块进一步用于将所述多个感兴趣区域从所述输入图像中裁剪下来并调整至相同大小图片,以得到多张感兴趣图片。
9.根据权利要求7所述的基于遮挡感知自监督学习的行人检测装置,其特征在于,还包括:
第一训练模块,用于使用第一目标函数训练所述候选区域生成网络,其中,所述第一目标函数为:
LRPN=LconflLlocsLseg
其中:
Figure FDA0002982623250000031
Figure FDA0002982623250000032
Figure FDA0002982623250000033
xij={1,0}判断第i个检测框与第j个行人标注框是否有交集,N为检测框的数目,{x,y,w,h}代表检测框的中心坐标、宽度和高度,d为检测结果,g是标注信息,
Figure FDA0002982623250000034
Ns为行人分割图中的像素个数,yi为真实像素标签,ls为行人或背景类别,I{.}为指示函数。
10.根据权利要求6所述的基于遮挡感知自监督学习的行人检测装置,其特征在于,还包括:
第二训练模块,用于使用第二目标函数训练所述遮挡感知深度神经网络,其中,所述第二目标函数为:
Figure FDA0002982623250000035
其中,
Figure FDA0002982623250000036
为softmaxloss评估真实类别和模型估计的类别,
Figure FDA0002982623250000037
其中,H和W分别是遮挡图的高和宽,
Figure FDA0002982623250000038
Figure FDA0002982623250000039
分别是模型估计的遮挡图中第k和j像素的预测的类别以及真实遮挡图中第k和j像素的真实类别,lo为交叉熵函数。
CN201910277903.7A 2019-04-08 2019-04-08 基于遮挡感知自监督学习的行人检测方法及装置 Active CN110084146B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910277903.7A CN110084146B (zh) 2019-04-08 2019-04-08 基于遮挡感知自监督学习的行人检测方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910277903.7A CN110084146B (zh) 2019-04-08 2019-04-08 基于遮挡感知自监督学习的行人检测方法及装置

Publications (2)

Publication Number Publication Date
CN110084146A CN110084146A (zh) 2019-08-02
CN110084146B true CN110084146B (zh) 2021-06-04

Family

ID=67414491

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910277903.7A Active CN110084146B (zh) 2019-04-08 2019-04-08 基于遮挡感知自监督学习的行人检测方法及装置

Country Status (1)

Country Link
CN (1) CN110084146B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112270330A (zh) * 2020-11-05 2021-01-26 国网甘肃省电力公司电力科学研究院 一种基于Mask R-CNN神经网络被关注目标的智能检测方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101325690A (zh) * 2007-06-12 2008-12-17 上海正电科技发展有限公司 监控视频流中人流分析与人群聚集过程的检测方法及系统
CN104281837A (zh) * 2014-09-26 2015-01-14 哈尔滨工业大学深圳研究生院 结合卡尔曼滤波和相邻帧间roi扩大的行人跟踪方法
CN108596958A (zh) * 2018-05-10 2018-09-28 安徽大学 一种基于困难正样本生成的目标跟踪方法
CN108710897A (zh) * 2018-04-24 2018-10-26 江苏科海智能系统有限公司 一种基于ssd-t的远端在线通用目标检测系统
CN108875588A (zh) * 2018-05-25 2018-11-23 武汉大学 基于深度学习的跨摄像头行人检测跟踪方法
CN109359559A (zh) * 2018-09-27 2019-02-19 天津师范大学 一种基于动态遮挡样本的行人再识别方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101389005A (zh) * 2007-09-11 2009-03-18 华为技术有限公司 一种对图像特定位置进行遮挡的方法及装置
CN103020606B (zh) * 2012-12-27 2017-02-22 北京大学 一种基于时空上下文信息的行人检测方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101325690A (zh) * 2007-06-12 2008-12-17 上海正电科技发展有限公司 监控视频流中人流分析与人群聚集过程的检测方法及系统
CN104281837A (zh) * 2014-09-26 2015-01-14 哈尔滨工业大学深圳研究生院 结合卡尔曼滤波和相邻帧间roi扩大的行人跟踪方法
CN108710897A (zh) * 2018-04-24 2018-10-26 江苏科海智能系统有限公司 一种基于ssd-t的远端在线通用目标检测系统
CN108596958A (zh) * 2018-05-10 2018-09-28 安徽大学 一种基于困难正样本生成的目标跟踪方法
CN108875588A (zh) * 2018-05-25 2018-11-23 武汉大学 基于深度学习的跨摄像头行人检测跟踪方法
CN109359559A (zh) * 2018-09-27 2019-02-19 天津师范大学 一种基于动态遮挡样本的行人再识别方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Multi-Grained Deep Feature Learning for Robust Pedestrian Detection;chunze lin等;《IEEE》;20181130;论文正文 *
Occluded Pedestrian Detection Through Guided Attention in CNNs;Shanshan Zhang等;《IEEE》;20181217;论文正文 *
Occlusion-aware R-CNN:Detecting pedestrians in a Crowd;Shifeng zhang等;《arXiv》;20180723;论文正文 *

Also Published As

Publication number Publication date
CN110084146A (zh) 2019-08-02

Similar Documents

Publication Publication Date Title
Cheng et al. Automated detection of sewer pipe defects in closed-circuit television images using deep learning techniques
CN107818571B (zh) 基于深度学习网络和均值漂移的船只自动跟踪方法及系统
CN111985317B (zh) 用于道路智能清扫的路面清洁度评估方法
CN103824070B (zh) 一种基于计算机视觉的快速行人检测方法
WO2017190574A1 (zh) 一种基于聚合通道特征的快速行人检测方法
Lookingbill et al. Reverse optical flow for self-supervised adaptive autonomous robot navigation
KR100612858B1 (ko) 로봇을 이용하여 사람을 추적하는 방법 및 장치
CN103810717B (zh) 一种人体行为检测方法及装置
Han et al. Image crowd counting using convolutional neural network and Markov random field
CN110874592A (zh) 一种基于总有界变分的森林火灾烟雾图像检测方法
CN102496001A (zh) 一种视频监控目标自动检测的方法和系统
CN110852179B (zh) 基于视频监控平台的可疑人员入侵的检测方法
CN104680554B (zh) 基于surf的压缩跟踪方法和系统
CN104182985A (zh) 遥感图像变化检测方法
CN104463232A (zh) 一种基于hog特征和颜色直方图特征的密度人群计数的方法
CN113129336A (zh) 一种端到端多车辆跟踪方法、系统及计算机可读介质
US20170053172A1 (en) Image processing apparatus, and image processing method
CN114140745A (zh) 施工现场人员属性检测方法、系统、装置及介质
CN116630890A (zh) 一种通过对钓鱼区域分析的钓鱼行为检测方法和系统
CN110084146B (zh) 基于遮挡感知自监督学习的行人检测方法及装置
Khan et al. Comparative study of various crowd detection and classification methods for safety control system
CN109993107A (zh) 一种基于非迭代k均值算法的移动机器人障碍物视觉检测方法
Khel et al. Realtime Crowd Monitoring—Estimating Count, Speed and Direction of People Using Hybridized YOLOv4
Mantini et al. Camera Tampering Detection using Generative Reference Model and Deep Learned Features.
CN117475353A (zh) 基于视频的异常烟雾识别方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant