CN111967442A - 基于实例导向检测网络的行人搜索方法、系统、装置 - Google Patents

基于实例导向检测网络的行人搜索方法、系统、装置 Download PDF

Info

Publication number
CN111967442A
CN111967442A CN202010920874.4A CN202010920874A CN111967442A CN 111967442 A CN111967442 A CN 111967442A CN 202010920874 A CN202010920874 A CN 202010920874A CN 111967442 A CN111967442 A CN 111967442A
Authority
CN
China
Prior art keywords
pedestrian
image
feature
detection
residual error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010920874.4A
Other languages
English (en)
Inventor
张兆翔
谭铁牛
宋纯锋
董文恺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Automation of Chinese Academy of Science
Original Assignee
Institute of Automation of Chinese Academy of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Automation of Chinese Academy of Science filed Critical Institute of Automation of Chinese Academy of Science
Priority to CN202010920874.4A priority Critical patent/CN111967442A/zh
Publication of CN111967442A publication Critical patent/CN111967442A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于计算机视觉、模式识别领域,具体涉及一种基于实例导向检测网络的行人搜索方法、系统、装置,旨在解决现有的行人搜索方法搜索准确率较低问题。本发明方法包括:获取输入视频中第t帧图像,作为第一图像;通过预训练的行人检测模型得到第一图像中各候选区域与第二图像的相似度并排序,排序后选取前N个候选区域作为检测区域;第二图像为预获取的待搜索行人目标的图像;基于各检测区域、第二图像,通过预训练的行人再识别模型得到行人目标的搜索结果。本发明提高了行人目标搜索的准确率。

Description

基于实例导向检测网络的行人搜索方法、系统、装置
技术领域
本发明属于计算机视觉、模式识别领域,具体涉及一种基于实例导向检测网络的行人搜索方法、系统、装置。
背景技术
行人搜索的目的是在场景图中定位与目标行人身份相同的行人。与行人再识别相比,该任务包含了行人检测部分,更加符合现实生活的需求,在安防监控、智能视频分析、人员搜救检索等领域具有广泛的应用。
目前两阶段的行人搜索方法通常将其分为行人检测和行人再识别两个子任务,在行人检测阶段,现有的检测器从场景中检测所有人作为第二阶段的候选行人。然而对于行人再识别,随着候选行人数量的增加,干扰项也会增加,这会影响行人再识别阶段的准确率,从而影响整个任务的准确率,而这些问题在之前的研究中都尚未得到很好的解决。基于此,本发明提出了一种基于实例导向检测网络的行人搜索方法。
发明内容
为了解决现有技术中的上述问题,即为了解决现有的行人搜索方法搜索准确率较低的问题,本发明提出了一种基于实例导向检测网络的行人搜索方法,该方法包括:
步骤S10,获取输入视频中第t帧图像,作为第一图像;
步骤S20,通过预训练的行人检测模型得到所述第一图像中各候选区域与第二图像的相似度并排序,排序后选取前N个候选区域作为检测区域;所述第二图像为预获取的待搜索行人目标的图像;
步骤S30,基于各检测区域、所述第二图像,通过预训练的行人再识别模型得到行人目标的搜索结果;
所述行人检测模型、所述行人再识别模型基于残差网络构建;其中,构建所述行人检测模型的残差网络为双通路残差网络。
在一些优选的实施方式中,所述行人检测模型其训练方法为:
步骤A10,获取待检测行人目标的图像以及包含行人目标的场景图,作为第三图像、第四图像;
步骤A20,通过双通路残差网络的conv1层至conv4层提取所述第三图像的特征作为第一特征、所述第四图像的特征作为第二特征;
步骤A30,基于所述第一特征,通过双通路残差网络的互相关层得到相关核;对所述第二特征,通过所述相关核、双通路残差网络的区域提案网络层得到行人目标的候选区域,并计算各候选区域与所述第三图像之间的损失,作为第一损失;
步骤A40,选取设定比例的正负样本的候选区域,并将选取的候选区域在所述第四图像对应的特征,作为第三特征;基于所述第三特征,通过双通路残差网络第二通路的conv5层及全局池化层,得到第四特征;基于所述第一特征,通过双通路残差网络第一通路的conv5层、全局池化层进行池化,得到第五特征;
步骤A50,基于所述第四特征、所述第五特征,通过双通路残差网络的全连接层得到各候选区域与所述行人目标相似度的关系特征,作为第六特征;
步骤A60,基于所述第六特征,通过局部关系模块,得到加强的关系特征,作为第七特征;
步骤A70,基于所述第七特征,分别通过残差网络的回归分支、相似度分支、全局关系分支,计算损失值,作为第二损失;基于所述第一损失、所述第二损失,对所述行人检测模型进行网络参数更新;
步骤A80,循环执行步骤A10-步骤A70,直至得到训练好的行人检测模型。
在一些优选的实施方式中,步骤A40中“通过双通路残差网络的互相关层得到相关核”,其方法为:
Figure BDA0002666688310000031
其中,
Figure BDA0002666688310000032
表示卷积核,
Figure BDA0002666688310000033
表示外积,B表示预设的网络参数,
Figure BDA0002666688310000034
表示互相关层的相关核,z表示第一特征。
在一些优选的实施方式中,步骤A50中“通过双通路残差网络的全连接层得到各候选区域与所述行人目标相似度的关系特征”,其方法为:
ri 1=Wf1.[Wf2.(fi p-fq)2]
其中,ri 1表示第i个候选区域与所述行人目标相似度的关系特征,Wf1、Wf2表示全连接层,fi p表示第四特征,fq表示第五特征。
在一些优选的实施方式中,步骤A60中“通过局部关系模块得到加强的关系特征”,其方法为:
Figure BDA0002666688310000035
其中,μ(fi p)、v(fi p)、g(fi p)表示三个嵌入层,μ(fi p)=Wμfi p,ν(fi p)=Wνfi p,g(fi p)=Wgri 1,Z表示归一化,Wr,Wμ,Wν,Wg均为全连接层。
本发明的第二方面,提出了一种基于实例导向检测网络的行人搜索系统,该系统包括:获取模块、检测模块、识别模块;
所述获取模块,配置为获取输入视频中第t帧图像,作为第一图像;
所述检测模块,配置为通过预训练的行人检测模型得到所述第一图像中各候选区域与第二图像的相似度并排序,排序后选取前N个候选区域作为检测区域;所述第二图像为预获取的待搜索行人目标的图像;
所述识别模块,配置为基于各检测区域、所述第二图像,通过预训练的行人再识别模型得到行人目标的搜索结果;
所述行人检测模型、所述行人再识别模型基于残差网络构建;其中,构建所述行人检测模型的残差网络为双通路残差网络。
本发明的第三方面,提出了一种存储装置,其中存储有多条程序,所述程序应用由处理器加载并执行以实现上述的基于实例导向检测网络的行人搜索方法。
本发明的第四方面,提出了一种处理装置,包括处理器、存储装置;处理器,适用于执行各条程序;存储装置,适用于存储多条程序;所述程序适用于由处理器加载并执行以实现上述的基于实例导向检测网络的行人搜索方法。
本发明的有益效果:
本发明提高了行人目标搜索的准确率。本发明将待搜索的行人目标图像作为额外输入,并结合改进的互相关层将行人目标的信息融入到检测模型中,使网络模型学习场景中的行人与待搜索行人目标之间的相似度,并在检测的过程中只保留与目标相似度较高的行人,能显著减少行人再识别阶段候选行人的数目,以此来减少干扰项,提升行人再识别的准确率。
同时,本发明分别利用局部和全局关系,加强每个区域的特征,使得网络模型学习得到的相似度更加准确,提升后续行人再识别阶段的准确率,从而整体提高行人搜索的准确率。
附图说明
通过阅读参照以下附图所做的对非限制性实施例所做的详细描述,本申请的其他特征、目的和优点将会变得更明显。
图1是本发明一种实施例的基于实例导向检测网络的行人搜索方法的流程示意图;
图2为本发明一种实施例的行人检测模型的结构示意图;
图3是本发明一种实施例的行人检测模型中互相关层的结构示意图;
图4为本发明一种实施例的基于实例导向检测网络的行人搜索系统的框架示意图;
图5为本发明一种实施例的行人检测模型中局部关系模块的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
本发明第一实施例的一种基于实例导向检测网络的行人搜索方法,如图1所示,该方法包括以下步骤:
步骤S10,获取输入视频中第t帧图像,作为第一图像;
步骤S20,通过预训练的行人检测模型得到所述第一图像中各候选区域与第二图像的相似度并排序,排序后选取前N个候选区域作为检测区域;所述第二图像为预获取的待搜索行人目标的图像;
步骤S30,基于各检测区域、所述第二图像,通过预训练的行人再识别模型得到行人目标的搜索结果;
所述行人检测模型、所述行人再识别模型基于残差网络构建;其中,构建所述行人检测模型的残差网络为双通路残差网络。
为了更清晰地对本发明基于实例导向检测网络的行人搜索方法进行说明,下面对本发明方法一种实施例中各步骤进行展开详述。
在下述的实施例中,先对行人检测模型、行人再识别模型的训练过程进行描述,再对通过基于实例导向检测网络的行人搜索方法获取行人目标的搜索结果进行描述。
1、行人检测模型的训练过程
步骤A10,获取待检测行人目标的图像以及包含行人目标的场景图,作为第三图像、第四图像;
在本实施例中,以某大型行人搜索数据库为例,包含18,184张场景图,96,143个行人边界框(即行人目标图像)。从数据库中选取数据,构造训练样本,每个训练样本包含一张行人目标图像,一张场景图像,其中行人图像作为待检测目标。训练样本有三种,分别为:自场景正样本,一张行人目标图像和包含行人目标的场景图像,且两张图像位于同一场景;跨场景正样本,一张行人目标图像和包含行人目标的场景图像,但两张图像不位于同一场景;负样本,一张行人目标图像和不包含行人目标的场景图像。
步骤A20,通过双通路残差网络的conv1层至conv4层提取所述第三图像的特征作为第一特征、所述第四图像的特征作为第二特征;
本发明中,利用实例导向检测网络代替传统的行人检测器来检测场景图像中的行人目标,实例导向检测网络即行人检测模型,基于双通路的残差网络构建,具体结构如图2所示,包含两个分支,第一分支简称为实例感知分支,即图2中输入为行人目标的分支,各分支的具体结构在下文描述中描述。在本发明中,残差网络优选为FasterRCNN网络。
在本实施例中,通过双通路残差网络的卷积层分别提取行人目标图像以及场景图像的特征,简称为中间特征,将行人目标图像提取的特征z作为第一特征,将场景图像提取的特征x作为第二特征。双通路残差网络的卷积层,即图2中的ResNet50 PartI部分,共包括conv1层、conv2层、conv3层及conv4层四层。
步骤A30,基于所述第一特征,通过双通路残差网络的互相关层得到相关核;对所述第二特征,通过所述相关核、双通路残差网络的区域提案网络层得到行人目标的候选区域,并计算各候选区域与所述第三图像之间的损失,作为第一损失;
在本实施例中,将第一特征输入双通路残差网络第一通路的互相关层计算相关核,并用相关核代替一般残差网络中区域提案网络的卷积核,利用相关核对场景图像的特征进行卷积,得到每个锚点与目标的相似度以及边界框的回归值,并根据每个锚点与目标的相似度以及边界框的回归值,数据库中标注的每个锚点对应的行人身份和目标行人身份以及每个锚点对应行人边界框,计算损失Lsprn,作为第一损失。双通路残差网络第一通路的互相关层如图2中的互相关层所述,具体如图3所示,将行人目标的7×3×1024中间特征,即第一特征,通过互相关层将其转换为7×3×512×2k的特征,并将此特征作为相关核对第二特征进行卷积得到候选区域。
其中,相关核的计算方法如式(1)所示:
Figure BDA0002666688310000081
其中,
Figure BDA0002666688310000082
表示卷积核,
Figure BDA0002666688310000083
表示外积,B表示预设的网络参数,
Figure BDA0002666688310000084
表示互相关层的相关核,z表示第一特征。
步骤A40,选取设定比例的正负样本的候选区域,并将选取的候选区域在所述第四图像对应的特征,作为第三特征;基于所述第三特征,通过双通路残差网络第二通路的conv5层及全局池化层,得到第四特征;基于所述第一特征,通过双通路残差网络第一通路的conv5层、全局池化层进行池化,得到第五特征;
在本实施例中,选取一定数目的区域的边界框(候选区域),并根据边界框从x上截取相对应位置的特征,得到选中区域的中间特征,即图2中的7×7,作为第三特征,将选中的特征送入双通路残差网络第二通路的conv5层、全局池化层得到这些区域的全局特征fi p,作为第四特征,同时将第一特征送入双通路残差网络第一通路的Conv5层、全局池化层,得到行人目标的全局特征fq,作为第五特征。其中,图2中的ResNet50 PartII即conv5层、全局池化层。
其中,边界框的选取方法为:优选根据正负样本1:3的比例选取候选区域,正样本为候选区域包括行人目标,负样本为候选区域不包括行人目标。
步骤A50,基于所述第四特征、所述第五特征,通过双通路残差网络的全连接层得到各候选区域与所述行人目标相似度的关系特征,作为第六特征;
在本实施例中,将步骤S40得到的每个fi p首先减去fq,然后将两种特征的差值每个维度的值平方(即图2中的Square)后输入双通路残差网络的全连接层(即图2中的FC),计算每个候选区域和行人目标(即待搜索行人目标)相似度的关系特征,作为第六特征,具体计算过程如式(2)所示:
ri 1=Wf1.[Wf2.(fi p-fq)2] (2)
其中,ri 1表示第i个候选区域与所述行人目标相似度的关系特征,Wf1、Wf2表示全连接层,fi p表示第四特征,fq表示第五特征。
步骤A60,基于所述第六特征,通过局部关系模块,得到加强的关系特征,作为第七特征;
在本实施例中,利用区域之间的关系来增强每个特征的判别力,即通过双通路残差网络的局部关系模块(如图5所示),该局部关系模块包含四个全连接层、一个LN层,对步骤A50获取的第六特征利用fi p之间的关系进行加强,得到加强后的关系特征ri 2,作为第七特征。具体计算过程如式(3)所示:
Figure BDA0002666688310000091
其中,μ(fi p)、v(fi p)、
Figure BDA0002666688310000094
表示三个嵌入层,μ(fi p)=Wμfi p,ν(fi p)=Wνfi p
Figure BDA0002666688310000092
Z表示归一化,Wr,Wμ,Wν,Wg均为全连接层,
Figure BDA0002666688310000093
表示第j个候选区域与所述行人目标相似度的关系特征,j为自然数。
步骤A70,基于所述第七特征,分别通过残差网络的回归分支、相似度分支、全局关系分支,计算损失值,作为第二损失;基于所述第一损失、所述第二损失,对所述行人检测模型进行网络参数更新;
在本实施例中,将加强后的关系特征ri 2分别送入双通路残差网络的相似度分支,回归分支,全局关系分支,并计算输出与真实值的偏差,其中,相似度分支输出各个候选区域与行人目标的相似度,监督信息为数据库中标注的各个候选区域对应的行人身份与行人目标的身份是否一致,若一致,则真实值为1,反之,为0,该分支的损失为BCE损失;回归分支输出为每个候选区域边界框的回归值,其监督信息为每个候选区域的边界框与其对应的数据库中标注的边界框之间的回归值,该分支的损失函数为smooth L1损失;全局关系分支的判断该场景是否包含待搜索行人目标,其监督信息为构建训练样本对时,场景图若包含行人目标,则真实值为1,反之,为0,该分支的输入为所有ri 2的均值。损失统一记为Ligpn,作为第二损失。
将第一损失和第二损失相加后得到全局损失Lall,具体如式(4)所示:
Lall=Lsrpn+Ligpn (4)
基于全局损失进行网络参数更新,并采用反向传播算法和随机梯度下降法来减小预测整体误差以训练该模型。在本发明中,利用行人身份在特征空间和预测分布的一致性设计了两种双向交互损失函数,即第一损失和第二损失,能在训练阶段不引入额外计算量的条件下,提高行人检测和搜索的准确率。
其中,全局关系分支的作用是引入一辅助任务来利用场景-实例之间的关系,帮助检测模型更好的学习场景中行人与目标的相似度。该任务为判断整个场景中是否包含目标人物,该分支的输入是所有关系特征的均值
Figure BDA0002666688310000101
其中,N表示候选区域的数目。
步骤A80,循环执行步骤A10-步骤A70,直至得到训练好的行人检测模型。
在本实施例中,经过多次迭代训练得到实例导向的行人检测模型。
2、行人再识别模型的训练过程
利用数据库中的场景图和标注行人的边界框和身份得到每个行人的图片和身份,然后将行人图片送入基于残差网络行人再识别模型中,经过全局池化层后得到每个行人的全局特征,然后将其送入softmax分类器中,输出其属于每个类别即身份的概率,并与标注的真实身份计算交叉熵损失。通过不断迭代,直至行人再识别模型收敛。
3、基于实例导向检测网络的行人搜索方法
步骤S10,获取输入视频中第t帧图像,作为第一图像;
在本实施例中,获取待搜索的行人目标图像和场景图像,作为第二图像、第一图像。场景图像在本发明中优选为实时输入视频中的第t帧图像。
步骤S20,通过预训练的行人检测模型得到所述第一图像中各候选区域与第二图像的相似度并排序,排序后选取前N个候选区域作为检测区域;所述第二图像为预获取的待搜索行人目标的图像;
在本实施例中,将第一图像、第二图像送入训练好的的行人检测模型中得到第一图像中各候选区域与第二图像的相似度,即得到场景图像中各候选区域与行人目标的相似度。按照相似度进行降序排序,并选取前N个相似度对应的候选区域作为检测区域。
步骤S30,基于各检测区域、所述第二图像,通过预训练的行人再识别模型得到行人目标的搜索结果;
在本实施例中,将各检测区域图像以及待搜索行人目标的图像输入行人再识别模型中,得到行人搜索的最终结果。
本发明第二实施例的一种基于实例导向检测网络的行人搜索系统,如图4所示,包括:获取模块100、检测模块200、识别模块300;
所述获取模块100,配置为获取输入视频中第t帧图像,作为第一图像;
所述检测模块200,配置为通过预训练的行人检测模型得到所述第一图像中各候选区域与第二图像的相似度并排序,排序后选取前N个候选区域作为检测区域;所述第二图像为预获取的待搜索行人目标的图像;
所述识别模块300,配置为基于各检测区域、所述第二图像,通过预训练的行人再识别模型得到行人目标的搜索结果;
所述行人检测模型、所述行人再识别模型基于残差网络构建;其中,构建所述行人检测模型的残差网络为双通路残差网络。
所述技术领域的技术人员可以清楚的了解到,为描述的方便和简洁,上述描述的系统的具体的工作过程及有关说明,可以参考前述方法实施例中的对应过程,在此不再赘述。
需要说明的是,上述实施例提供的基于实例导向检测网络的行人搜索系统,仅以上述各功能模块的划分进行举例说明,在实际应用中,可以根据需要而将上述功能分配由不同的功能模块来完成,即将本发明实施例中的模块或者步骤再分解或者组合,例如,上述实施例的模块可以合并为一个模块,也可以进一步拆分成多个子模块,以完成以上描述的全部或者部分功能。对于本发明实施例中涉及的模块、步骤的名称,仅仅是为了区分各个模块或者步骤,不视为对本发明的不当限定。
本发明第三实施例的一种存储装置,其中存储有多条程序,所述程序适用于由处理器加载并实现上述的基于实例导向检测网络的行人搜索方法。
本发明第四实施例的一种处理装置,包括处理器、存储装置;处理器,适于执行各条程序;存储装置,适于存储多条程序;所述程序适于由处理器加载并执行以实现上述的基于实例导向检测网络的行人搜索方法。
所述技术领域的技术人员可以清楚的了解到,为描述的方便和简洁,上述描述的存储装置、处理装置的具体工作过程及有关说明,可以参考前述方法实例中的对应过程,在此不再赘述。
本领域技术人员应该能够意识到,结合本文中所公开的实施例描述的各示例的模块、方法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,软件模块、方法步骤对应的程序可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。为了清楚地说明电子硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以电子硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。本领域技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
术语“第一”、“第二”、“第三”等是用于区别类似的对象,而不是用于描述或表示特定的顺序或先后次序。
至此,已经结合附图所示的优选实施方式描述了本发明的技术方案,但是,本领域技术人员容易理解的是,本发明的保护范围显然不局限于这些具体实施方式。在不偏离本发明的原理的前提下,本领域技术人员可以对相关技术特征作出等同的更改或替换,这些更改或替换之后的技术方案都将落入本发明的保护范围之内。

Claims (9)

1.一种基于实例导向检测网络的行人搜索方法,其特征在于,该方法包括:
步骤S10,获取输入视频中第t帧图像,作为第一图像;
步骤S20,通过预训练的行人检测模型得到所述第一图像中各候选区域与第二图像的相似度并排序,排序后选取前N个候选区域作为检测区域;所述第二图像为预获取的待搜索行人目标的图像;
步骤S30,基于各检测区域、所述第二图像,通过预训练的行人再识别模型得到行人目标的搜索结果;
所述行人检测模型、所述行人再识别模型基于残差网络构建;其中,构建所述行人检测模型的残差网络为双通路残差网络。
2.根据权利要求1所述的基于实例导向检测网络的行人搜索方法,其特征在于,所述行人检测模型其训练方法为:
步骤A10,获取训练样本,将待检测行人目标的图像作为第三图像、场景图作为第四图像;训练样本包括待检测行人目标的图像及场景图像;
步骤A20,通过双通路残差网络的conv1层至conv4层提取所述第三图像的特征作为第一特征、所述第四图像的特征作为第二特征;
步骤A30,基于所述第一特征,通过双通路残差网络的互相关层得到相关核;对所述第二特征,通过所述相关核、双通路残差网络的区域提案网络层得到行人目标的候选区域,并计算各候选区域与所述第三图像之间的损失,作为第一损失;
步骤A40,选取设定比例的正负样本的候选区域,并将选取的候选区域在所述第四图像对应的特征,作为第三特征;基于所述第三特征,通过双通路残差网络第二通路的conv5层及全局池化层,得到第四特征;基于所述第一特征,通过双通路残差网络第一通路的conv5层、全局池化层进行池化,得到第五特征;
步骤A50,基于所述第四特征、所述第五特征,通过双通路残差网络的全连接层得到各候选区域与所述行人目标相似度的关系特征,作为第六特征;
步骤A60,基于所述第六特征,通过局部关系模块得到加强的关系特征,作为第七特征;所述局部关系加强模块由全连接层和一个LN层组成;
步骤A70,基于所述第七特征,分别通过残差网络的回归分支、相似度分支、全局关系分支计算损失值,作为第二损失;基于所述第一损失、所述第二损失,对所述行人检测模型进行网络参数更新;
步骤A80,循环执行步骤A10-步骤A70,直至得到训练好的行人检测模型。
3.根据权利要求2所述的基于实例导向检测网络的行人搜索方法,其特征在于,所述训练样本分为自场景正样本、跨场景正样本、负样本三种类型;其中,所述自场景正样本包括一张行人目标图像、包含行人目标的场景图像,且两张图像位于同一场景;所述跨场景正样本包括一张行人目标图像、包含行人目标的场景图像,但两张图像不位于同一场景;所述负样本包括一张行人目标图像、不包含行人目标的场景图像。
4.根据权利要求2所述的基于实例导向检测网络的行人搜索方法,其特征在于,步骤A40中“通过双通路残差网络的互相关层得到相关核”,其方法为:
Figure FDA0002666688300000021
其中,
Figure FDA0002666688300000022
表示卷积核,
Figure FDA0002666688300000023
表示外积,B表示预设的网络参数,
Figure FDA0002666688300000024
表示互相关层的相关核,z表示第一特征。
5.根据权利要求2所述的基于实例导向检测网络的行人搜索方法,其特征在于,步骤A50中“通过双通路残差网络的全连接层得到各候选区域与所述行人目标相似度的关系特征”,其方法为:
ri 1=Wf1.[Wf2.(fi p-fq)2]
其中,ri 1表示第i个候选区域与所述行人目标相似度的关系特征,Wf1、Wf2表示全连接层,fi p表示第四特征,fq表示第五特征。
6.根据权利要求5所述的基于实例导向检测网络的行人搜索方法,其特征在于,步骤A60中“通过局部关系模块得到加强的关系特征”,其方法为:
Figure FDA0002666688300000031
其中,μ(fi p)=Wμfi p,ν(fi p)=Wνfi p
Figure FDA0002666688300000032
Z表示归一化,Wr,Wμ,Wν,Wg均为全连接层,
Figure FDA0002666688300000033
表示第j个候选区域与所述行人目标相似度的关系特征。
7.一种基于实例导向检测网络的行人搜索系统,其特征在于,该系统包括:获取模块、检测模块、识别模块;
所述获取模块,配置为获取输入视频中第t帧图像,作为第一图像;
所述检测模块,配置为通过预训练的行人检测模型得到所述第一图像中各候选区域与第二图像的相似度并排序,排序后选取前N个候选区域作为检测区域;所述第二图像为预获取的待搜索行人目标的图像;
所述识别模块,配置为基于各检测区域、所述第二图像,通过预训练的行人再识别模型得到行人目标的搜索结果;
所述行人检测模型、所述行人再识别模型基于残差网络构建;其中,构建所述行人检测模型的残差网络为双通路残差网络。
8.一种存储装置,其中存储有多条程序,其特征在于,所述程序适用于由处理器加载并执行以实现权利要求1-6任一项所述的基于实例导向检测网络的行人搜索方法。
9.一种处理装置,包括处理器、存储装置;处理器,适用于执行各条程序;存储装置,适用于存储多条程序;其特征在于,所述程序适用于由处理器加载并执行以实现权利要求1-6任一项所述的基于实例导向检测网络的行人搜索方法。
CN202010920874.4A 2020-09-04 2020-09-04 基于实例导向检测网络的行人搜索方法、系统、装置 Pending CN111967442A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010920874.4A CN111967442A (zh) 2020-09-04 2020-09-04 基于实例导向检测网络的行人搜索方法、系统、装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010920874.4A CN111967442A (zh) 2020-09-04 2020-09-04 基于实例导向检测网络的行人搜索方法、系统、装置

Publications (1)

Publication Number Publication Date
CN111967442A true CN111967442A (zh) 2020-11-20

Family

ID=73392151

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010920874.4A Pending CN111967442A (zh) 2020-09-04 2020-09-04 基于实例导向检测网络的行人搜索方法、系统、装置

Country Status (1)

Country Link
CN (1) CN111967442A (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107506703A (zh) * 2017-08-09 2017-12-22 中国科学院大学 一种基于无监督局部度量学习和重排序的行人再识别方法
CN110781350A (zh) * 2019-09-26 2020-02-11 武汉大学 一种面向全画面监控场景的行人检索方法及系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107506703A (zh) * 2017-08-09 2017-12-22 中国科学院大学 一种基于无监督局部度量学习和重排序的行人再识别方法
CN110781350A (zh) * 2019-09-26 2020-02-11 武汉大学 一种面向全画面监控场景的行人检索方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
WENKAI DONG等: "Instance Guided Proposal Network for Person Search", 《2020 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 *
方卫华: "《跨拦河建筑物安全状态感知、融合与预测》", 31 December 2018, 河海大学出版社 *

Similar Documents

Publication Publication Date Title
CN109857889B (zh) 一种图像检索方法、装置、设备及可读存储介质
Dube et al. SegMap: Segment-based mapping and localization using data-driven descriptors
CN106649487B (zh) 基于兴趣目标的图像检索方法
Bui et al. Whale Optimization Algorithm and Adaptive Neuro-Fuzzy Inference System: a hybrid method for feature selection and land pattern classification
Zheng et al. Swin-MLP: A strawberry appearance quality identification method by Swin Transformer and multi-layer perceptron
Li et al. A multi-scale cucumber disease detection method in natural scenes based on YOLOv5
Bertrand et al. Bark and leaf fusion systems to improve automatic tree species recognition
CN114564982A (zh) 雷达信号调制类型的自动识别方法
Sathish et al. Detection and localization of multiple objects using VGGNet and single shot detection
CN112232374B (zh) 基于深度特征聚类和语义度量的不相关标签过滤方法
CN112270286A (zh) 一种抗阴影干扰的单色视频目标跟踪方法
Olkiewicz et al. Emotion-based image retrieval—An artificial neural network approach
Mohammadi et al. Improvement in crop mapping from satellite image time series by effectively supervising deep neural networks
Nie et al. Adap-EMD: Adaptive EMD for aircraft fine-grained classification in remote sensing
Oh et al. A case study on scene recognition using an ensemble convolution neural network
Song et al. Weakly supervised group mask network for object detection
Fu et al. A case study of utilizing YOLOT based quantitative detection algorithm for marine benthos
US20200394460A1 (en) Image analysis device, image analysis method, and image analysis program
Khryashchev et al. Optimization of convolutional neural network for object recognition on satellite images
Pirotti et al. Classification of aerial laser scanning point clouds using machine learning: a comparison between random forest and tensorflow
Liu et al. Multi-path Region-Based Convolutional Neural Network for Accurate Detection of Unconstrained" Hard Faces"
CN109785302B (zh) 一种空谱联合特征学习网络及多光谱变化检测方法
Grishin et al. Individual Tree Segmentation Quality Evaluation Using Deep Learning Models LiDAR Based
CN111967442A (zh) 基于实例导向检测网络的行人搜索方法、系统、装置
Ataş Performance Evaluation of Jaccard-Dice Coefficient on Building Segmentation from High Resolution Satellite Images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20201120