CN110287798A - 基于特征模块化和上下文融合的矢量网络行人检测方法 - Google Patents

基于特征模块化和上下文融合的矢量网络行人检测方法 Download PDF

Info

Publication number
CN110287798A
CN110287798A CN201910447819.5A CN201910447819A CN110287798A CN 110287798 A CN110287798 A CN 110287798A CN 201910447819 A CN201910447819 A CN 201910447819A CN 110287798 A CN110287798 A CN 110287798A
Authority
CN
China
Prior art keywords
pedestrian
vector
feature
information
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910447819.5A
Other languages
English (en)
Other versions
CN110287798B (zh
Inventor
魏运
田青
仝淑贞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201910447819.5A priority Critical patent/CN110287798B/zh
Publication of CN110287798A publication Critical patent/CN110287798A/zh
Application granted granted Critical
Publication of CN110287798B publication Critical patent/CN110287798B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

一种基于特征模块化和上下文融合的矢量网络行人检测方法,本方法通过构造精细的行人模板,利用模板匹配法实现行人部件分割,并根据构造的加权平均损失函数对分割后的部件筛选,保留的部件经过重组得到可能存在行人的区域。为了利用场景辅助信息优化检测结果,对行人和场景之间的布局关系进行表征,将局部行人信息与全局场景信息以势能函数的形式整合,并进行优化求解,进一步对可能存在行人的区域进行判别,再对保留的结果通过卷积特征提取、卷积特征分组组合将传统二维特征组合为新型三维特征,并通过构造矢量激活函数使得网络权值、网络输出也以矢量表示,搭建起用于精确行人检测的矢量网络,最终通过输出的矢量信息获得行人检测结果。

Description

基于特征模块化和上下文融合的矢量网络行人检测方法
技术领域
本发明属智能检测领域,尤其涉及一种基于特征模块化和上下文融合的矢量网络行人检测方法。
背景技术
行人检测是利用计算机视觉技术判断图像或者视频序列中是否存在行人并给予精确定位。该技术可以与行人跟踪、行人重识别等技术结合,应用于智能视频监控、人工智能系统、智能交通、安防等领域。在实际场景中,可广泛应用于地铁、车站、博物馆、广场、商场、公园等重要场所及人流密集区域,能够实现对行人的实时检测、个体特征及群体特征与参数的提取等功能,可为基于行人检测的数据采集、异常信息提取、客流统计与预警、商业分析等系统提供数据获取手段,本发明革新了传统视频监控仅仅进行录像存储的现状,是对监控手段的智能化升级,也是智慧城市的重要体现所在。
国内外很多大学和科研机构也均对行人检测进行过研究,并取得了一定的研究成果。传统行人检测方法通过人为构造特征,采用滑窗法对窗内信息进行特征相似性度量实现行人检测,比较有代表性的是Haar特征和HOG特征,这些特征的构造十分依赖专业人员的经验,而行人目标具有多姿势、易受遮挡、受光线条件影响的特点,使得构造的特征难以保证鲁棒性,在实际应用中十分受限。而随着深度学习技术的进步,推动着目标检测技术向着更快、更准的方向发展。现在已经有许多深度学习算法被应用于行人检测,如Faster R-CNN、SSD、Yolo系列等,采用特征自动提取的方式,在特定场景下取得了较好的检测效果。但现有深度学习算法对行人特征的表征仍然十分有限,在密集行人场景中,行人因遮挡而导致局部信息不完整,特征难以被充分提取,使得漏检和误检较为严重。现有的深度学习算法框架设计上很少考虑局部行人信息和场景全局信息的位置关系,当存在光线和阴影影响时,检测结果容易产生语义上的不一致。现有的特征提取方式虽然可以很好的表征轮廓、颜色等明显的行人信息,但还不足以完全表征行人局部信息,现有算法大多是基于标量的设计,损失了部分方向性信息,限制了检测精度的进一步提升。
综上,为了进一步提高行人检测的精度,就需要对局部信息缺失的行人进行更充分的特征提取、对局部行人与全局场景信息更加合理的利用以及研究新的更具鲁棒性的特征表征方式。
发明内容
为了克服上述缺陷,本发明的目的是提供一种基于特征模块化和上下文融合的矢量网络行人检测方法,可以克服现有深度学习算法用于行人检测易受光照、遮挡干扰的问题,提高算法本身特征表征能力,实现包括晚上、密集行人等各种环境下的准确行人检测,可满足复杂环境下及客流密集区域的行人检测及统计。
为达到上述目的,本发明的技术解决方案是一种基于特征模块化和上下文融合的矢量网络行人检测方法,该方法通过构造精细的行人模板,利用模板匹配法实现行人部件分割,并根据构造的加权平均损失函数对分割后的部件筛选,保留的部件经过重组得到可能存在行人的区域。在此基础上,为了利用场景辅助信息优化检测结果,对行人和场景之间的布局关系进行表征,通过条件随机场建模将局部行人信息与全局场景信息以势能函数的形式整合,采用平均场近似理论进行优化求解,进一步对可能存在行人的区域进行判别,再对保留的结果通过卷积特征提取、卷积特征分组组合将传统二维特征组合为新型三维特征,并通过构造矢量激活函数使得网络权值、网络输出也以矢量表示,搭建起用于精确行人检测的矢量网络,最终通过输出的矢量信息获得行人检测结果。
具体如下:
一种基于特征模块化和上下文融合的矢量网络行人检测方法及装置,步骤包括:
1)进行行人图像采集,根据预先设定好的精细化行人模板,如图1所示,采用模板匹配法将感兴趣区域分割为多个行人部件,判断各部件是否为行人关键模块,行人关键模块是指能明显表明行人目标的人体部分;
如果判别为否,直接滤除该部件所在区域;
如果判别为是,保留该部件像素信息及位置信息,进入步骤2);
2)对保留的所有行人关键模块以整体的形式,利用位置信息计算关键模块所在区域中心点之间的欧式距离、关键模块内部像素信息,构造加权平均损失函数,优化该函数从而将行人关键模块重组为可能存在行人的区域;
3)通过对行人随机移动特性的分析,对场景内行人和其他物体的位置关系进行布局表征,根据条件随机场理论进行建模,将疑似区域被分配为行人区域标签的能量作为一元能量项,将反映疑似区域标签与场景内物体标签关系的能量作为二元能量项,对行人与场景内物体的布局关系进行表征,将局部行人和全局场景信息融合。
4)由于构建的条件随机场模型在求解时存在大量的相乘相加运算,通过比较每一步运算与卷积计算的相似性,运用平均场近似理论将条件随机场的优化求解问题转化为卷积神经网络的优化求解问题,采用训练的方式快速优化该模型,并根据优化结果对行人疑似区域进一步判断是否为行人;
如果判别为否,直接滤除该疑似区域;
如果判别为是,保留该区域信息,然后进入步骤5);
5)在传统卷积神经网络的基础上,为了提取图像中的方向性信息,删减掉网络中的池化层,对保留的区域信息仅提取图像卷积特征,按一定规则对同一层的卷积特征进行分组,以维度拓展的方式,将组内多个二维卷积特征合成为一个三维矢量特征,实现行人特征的矢量化表征;
6)构造矢量激活函数引入非线性性质并对有效行人特征进行响应,使得网络层间权值也以矢量形式表达,充分保留方向性信息;
7)按照步骤5)6)搭建起矢量网络,为了优化存在矢量的神经网络,根据矢量间的相似性度量,通过动态路由算法对网络进行训练,根据训练好的网络最终输出的矢量结果,继续对行人检测结果进行判断;
如果判别为否,直接滤除该结果;
如果判别为是,输出最终行人检测结果(检测结果以矩形目标检测框表示,包括其在在图像中的位置和大小)。
上述方法中,根据遮挡发生的各种情况,设置了三大类行人模板,共包含24种精细化的行人部件图,通过预先建立的行人样本集,训练生成对应各模板的分类器;在检测中加载该分类器可以实现行人关键模块识别。也可根据实际场景特点适当减少模板。
上述方法中,对分解后的行人关键模块重组时的各部件权值设计可以根据实际场景中的光照条件、摄像头架设位置进行预先设定,然后根据位置关系通过对加权平均损失函数优化后得到重组区域,也即行人疑似区域。
上述方法中,对行人与场景内其他物体的位置关系进行布局表征时,设计了左、右、上、下、里、外、远、近共8种位置关系,可根据实际场景中行人的运动及分布规律,适当减少布局表征的位置关系种类,但至少应包含左、右、上、下共4种位置关系。然后通过条件随机场重新建模和平均场理论优化后,得到更为准确的行人目标区域。
上述方法中,矢量网络的构造中对分组卷积核的设计,初始设置为每组8种卷积核,表征了相对较为理想条件下的浅层行人目标特征,输出为16维矢量。可根据外界环境的复杂度提高每组卷积核的种类(8~16种),增加输出矢量维度(不超过32维)。
与现有技术相比,本发明可实现行人的高精度检测,能适应开放或封闭区域条件的个体行人特征及群体特征的提取,应用范围广泛,有利于提高客流管理服务及安全保障水平。
附图说明:
图1为行人分割模板示意图;
图2为二维特征合成为三维特征示意图;
图3为矢量网络示意图;
图4动态路由算法示意图;
图5为基于特征模块化和上下文融合的矢量网络行人检测方法流程图;
图6为基于特征模块化和上下文融合的矢量网络行人检测方法示意图;
图7所建立的彩色行人样本库示例。
具体实施方式
下面结合附图与具体实施方式对本技术方案进一步说明如下:
一种基于特征模块化和上下文融合的矢量网络行人检测方法,步骤包括:
1)进行行人图像采集,根据预先设定好的精细化行人模板;
采用模板匹配法将感兴趣区域分割为多个行人部件,判断各部件是否为行人关键模块,行人关键模块是指能明显表明行人目标的人体部分;
如果判别为否,直接滤除该部件所在区域;
如果判别为是,保留该部件像素信息及位置信息,进入步骤2);
2)利用位置信息计算关键模块所在区域中心点之间的欧式距离,利用关键模块局部像素信息计算特征相似度,构造加权平均损失函数,优化该函数,从而将行人关键模块重组为可能存在行人的区域;
3)通过对行人随机移动特性的分析,对场景内行人和其他物体的位置关系进行布局表征,根据条件随机场理论进行建模,将疑似区域被分配为行人区域标签的能量作为一元能量项,将反映疑似区域标签与场景内物体标签关系的能量作为二元能量项,对行人与场景内物体的布局关系进行表征,将局部行人和全局场景信息融合。
4)由于构建的条件随机场模型在求解时存在大量的相乘相加运算,通过比较每一步运算与卷积计算的相似性,运用平均场近似理论将条件随机场的优化求解问题转化为卷积神经网络的优化求解问题,采用训练的方式快速优化该模型,并根据优化结果对行人疑似区域进一步判断是否为行人;
如果判别为否,直接滤除该疑似区域;
如果判别为是,保留该区域信息,然后进入步骤5);
5)在传统卷积神经网络的基础上,为了提取图像中的方向性信息,删减掉网络中的池化层,对保留的区域信息仅提取图像卷积特征,按一定规则对同一层的卷积特征进行分组,以维度拓展的方式,将组内多个二维卷积特征合成为一个三维矢量特征,实现行人特征的矢量化表征;
6)构造矢量激活函数引入非线性性质并对有效行人特征进行响应,使得网络层间权值也以矢量形式表达,保留矢量特征中所含的方向性信息;
7)按照步骤5)6)搭建起矢量网络,为了优化存在矢量的神经网络,根据矢量间的相似性度量,通过动态路由算法对网络进行训练,根据训练好的网络最终输出的矢量结果,继续对行人检测结果进行判断;
如果判别为否,直接滤除该结果;
如果判别为是,输出最终行人检测结果(检测结果以矩形目标检测框表示,包括其在图像中的位置和大小)。
所述步骤1)中,行人模板的设置根据被遮挡面积占行人所在矩形区域的比例rocc,共考虑了三大类情况:①rocc≤1/2;②1/2<rocc≤2/3,③2/3<rocc≤5/6。如图1所示,根据行人各关键部件对于行人检测重要性的不同,每种情况又划分了多种分割方式,便于加权重组为行人疑似区域。
所述步骤2)中,加权平均损失函数定义如下:
其中n为所有区域的数量,pi_x,pj_x,pi_y,pj_y分别表示区域i,j的中心坐标,Ipi和Ipj表示区域i,j的特征信息,ρ1和ρ2调整对位置信息和像素信息对重组的影响程度。
所述步骤3)中,根据行人与场景内物体可能存在的位置关系,按左、右、上、下、里、外、远、近的位置关系进行布局表征,然后在此基础上采用条件随机场建模。
条件随机场建模后的势能函数为:
其中,θi(xi)是一元能量项,代表着将区域像素矩阵i内所有像素点被分成标签xi的能量,二元能量项反映的是区域像素矩阵i与场景物体区域像素矩阵j之间的相对位置关系的符合程度。一元能量项来源于可能存在行人的区域信息,采用对数计算:
θi(xi)=-logP(xi)
其中P(xi)为像素点i被正确分配标签的概率;
二元能量项的计算方式为:
其中,当i≠j时,δ(xi,xj)=1,当i=j时,δ(xi,xj)=0。其余部分的表达式为不同特征空间里的两个高斯核函数,第一个是基于双边高斯函数,与像素位置p和像素值I有关,用以限定有相似像素值的区域分布在同样的标签内,第二个是只考虑像素位置的平滑项。μ1,μ2用以调整两个高斯核函数之间的影响,超参数σα,σβ,σγ控制核的权重。
所述步骤5)中,由于传统卷积特征在经过池化层会存在方向性信息丢失,为了保留这些对有利于准确检测的信息,删减池化层,并将传统卷积层中提取的卷积特征按一定规则分组,组间特征保持相互独立,组内特征作为一个整体来表征感兴趣区域在这组卷积核下的整体特性,将组内二维特征在第三个维度上堆叠实现维度拓展,合成为三维特征,如:组内的t个s×s的二维特征可堆叠成为s×s×t的三维特征,如图2所示。
所述步骤6)中,为了引入非线性及对有效特征作出响应,构造矢量激活函数:
其中,sj为组合后的输出矢量,vj为被激活的用于传递到下一层的矢量信息。
所述步骤7)中,搭建起的矢量网络如图3所示,算法示意图如图4所示。网络训练采用的动态路由算法的权值更新计算公式为:
uj|i=Wijui
bij=bij+uj|ivj
其中,uj|i反映了通过不同权重Wij使得第i个卷积特征作线性变换。cij为组合线性变换后各特征的权值,也即bij的softmax函数,sj为合成的新型矢量特征,vj为被激活的矢量信息。
如图5所示,描述了基于特征模块化和上下文融合的矢量网络行人检测方法流程。首先进行彩色图像采集,获取某一监控区域的彩色图像,选择合适的精细行人模板,根据模板匹配法的匹配结果,判断疑似区域是否为关键模块。如果判别为否,直接滤除该疑似区域。如果判别为是,保留该区域信息并重组为行人疑似区。再对行人在场景内的位置关系进行布局表征,通过条件随机场建模及平均场理论优化,对各行人疑似区域进一步判断。如果判别为否,直接滤除该行人疑似区域。如果判别为是,保留该区域信息。通过设置好的卷积核种类、输出矢量维度,对保留的区域信息进行卷积特征提取,将二维卷积特征分组合成为三维特征,并采用矢量激活函数引入非线性和有效特征响应,由此构建起矢量网络,根据最终输出的矢量结果,确定最终检测结果(检测结果以矩形目标检测框表示,包括其在在图像中的位置和大小)。
如图6所示,为基于特征模块化和上下文融合的矢量网络行人检测方法示意图。在分类器和网络设计阶段,通过采集行人彩色图像样本,建立样本库,选择合适的行人模板集合,训练生成各关键模块的特征分类器,设定合适的卷积核种类和输出矢量维度,训练生成矢量网络。检测过程以图示形式表示,步骤为1采集彩色图像,2根据选择的行人模板集合对疑似区域进行模板匹配,3通过特征相似性度量保留行人关键模块,4通过优化加权平均损失函数完成行人关键模块重组得到行人疑似区域,5根据设定好的布局表征模型对行人疑似区域进一步判断是否为行人,6对保留的区域提取矢量特征并输出矢量结果,进一步判断是否为行人。
如图7所示,样本库中包含不同角度、不同遮挡程度的行人图像,用于行人关键模块识别的分类器训练及矢量网络的训练。
现有技术中,矢量网络是指在传统卷积神经网络的基础上,经过卷积特征提取后,将卷积结果按一定规则分组,组内特征合成为新的矢量特征,以保留方向性信息。在网络优化及权值更新中,针对生成的矢量特征,通过新的动态路由算法实现网络中矢量权值的更新,并最终通过输出的矢量信息完成检测任务。

Claims (9)

1.一种基于特征模块化和上下文融合的矢量网络行人检测方法,其特征是步骤包括:
1)进行行人图像采集,根据预先设定好的精细化行人模板;
采用模板匹配法将感兴趣区域分割为多个行人部件,判断各部件是否为行人关键模块,行人关键模块是指能明显表明行人目标的人体部分;
如果判别为否,则直接滤除该部件所在区域;
如果判别为是,则保留该部件像素信息及位置信息,并进入步骤2);
2)利用位置信息计算行人关键模块所在区域中心点之间的欧式距离、利用行人关键模块局部像素信息计算特征相似度;构造加权平均损失函数,并优化该函数,从而将行人关键模块重组为可能存在行人的区域即行人疑似区域;
3)通过对行人随机移动特性的分析,对场景内行人和其他物体的位置关系进行布局表征;
根据条件随机场理论进行建模,将疑似区域被分配为行人区域标签的能量作为一元能量项,将反映疑似区域标签与场景内物体标签关系的能量作为二元能量项,对行人与场景内物体的布局关系进行表征,将局部行人和全局场景信息融合。
4)由于构建的条件随机场模型在求解时存在大量的相乘相加运算,通过比较每一步运算与卷积计算的相似性,运用平均场近似理论将条件随机场的优化求解问题转化为卷积神经网络的优化求解问题,采用训练的方式快速优化该模型,并根据优化结果对行人疑似区域进一步判断是否为行人;
如果判别为否,直接滤除该疑似区域;
如果判别为是,保留该区域信息,然后进入步骤5);
5)在传统卷积神经网络的基础上,删减掉网络中的池化层,对保留的区域信息仅提取图像卷积特征,对同一层的卷积特征进行分组,组间特征保持相互独立,组内特征作为一个整体来表征感兴趣区域在这组卷积核下的整体特性,将组内二维特征在第三个维度上堆叠实现维度拓展,合成为三维特征,以实现行人特征的矢量化表征;
6)构造矢量激活函数引入非线性性质并对有效行人特征进行响应,使得网络层间权值也以矢量形式表达,保留矢量特征中所含的方向性信息;
7)按照步骤5)、6)搭建起矢量网络,通过动态路由算法对矢量网络进行训练,根据训练好的网络最终输出的矢量结果,继续对行人检测结果进行判断;
如果判别为否,则直接滤除该结果;
如果判别为是,则输出最终行人检测结果。
2.根据权利要求1所述的方法,其特征是所述步骤1)中,行人模板的设置根据被遮挡面积占行人所在矩形区域的比例rocc,分为三类行人模板:①rocc≤1/2;②1/2<rocc≤2/3,③2/3<rocc≤5/6。
3.根据权利要求1所述的方法,其特征是所述步骤2)中,加权平均损失函数F(p)定义如下:
其中n为所有区域的数量,pi_x,pj_x,pi_y,pj_y分别表示区域i,j的中心坐标,Ipi和Ipj表示区域i,j的特征信息,ρ1和ρ2调整对位置信息和像素信息对重组的影响程度。
4.根据权利要求1所述的方法,其特征是所述步骤3)中,根据行人与场景内物体可能存在的位置关系,按左、右、上、下的位置关系进行布局表征,然后在此基础上采用条件随机场建模。
5.根据权利要求1所述的方法,其特征是所述步骤3)中,根据行人与场景内物体可能存在的位置关系,按左、右、上、下、里、外、远、近的位置关系进行布局表征,然后在此基础上采用条件随机场建模。
6.根据权利要求4或5所述的方法,其特征是所述步骤3)中,条件随机场建模后的势能函数E(x)为:
其中,θi(xi)是一元能量项,代表着将区域像素矩阵i内所有像素点被分成标签xi的能量,二元能量项反映的是区域像素矩阵i与场景物体区域像素矩阵j之间的相对位置关系的符合程度;
一元能量项来源于可能存在行人的区域信息,采用对数计算:
θi(xi)=-logP(xi)
其中P(xi)为像素点i被正确分配标签的概率;
二元能量项的计算方式为:
其中,当i≠j时,δ(xi,xj)=1,当i=j时,δ(xi,xj)=0;其余部分的表达式为不同特征空间里的两个高斯核函数:第一个是基于双边高斯函数,与像素位置p和像素值I有关,用以限定有相似像素值的区域分布在同样的标签内;第二个是只考虑像素位置p的平滑项;
μ1,μ2用以调整两个高斯核函数之间的影响,超参数σα,σβ,σγ控制核的权重。
7.根据权利要求1所述的方法,其特征是所述步骤6)中,为了引入非线性及对有效特征作出响应,构造矢量激活函数:
其中,sj为组合后的输出矢量,vj为被激活的用于传递到下一层的矢量信息。
8.根据权利要求1所述的方法,其特征是所述步骤7)中,矢量网络的构造中对分组卷积核的设计,根据外界环境的复杂度设置每组卷积核的种类为8~16种,输出矢量维度不超过32维。
9.根据权利要求1所述的方法,其特征是所述步骤7)中,搭建起的矢量网络训练采用的动态路由算法的权值更新计算公式为:
uj|i=Wijui
bij=bij+uj|ivj
其中,uj|i反映了通过不同权重Wij使得第i个卷积特征作线性变换;cij为组合线性变换后各特征的权值,也即bij的softmax函数,sj为合成的新型矢量特征,vj为被激活的矢量信息。
CN201910447819.5A 2019-05-27 2019-05-27 基于特征模块化和上下文融合的矢量网络行人检测方法 Active CN110287798B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910447819.5A CN110287798B (zh) 2019-05-27 2019-05-27 基于特征模块化和上下文融合的矢量网络行人检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910447819.5A CN110287798B (zh) 2019-05-27 2019-05-27 基于特征模块化和上下文融合的矢量网络行人检测方法

Publications (2)

Publication Number Publication Date
CN110287798A true CN110287798A (zh) 2019-09-27
CN110287798B CN110287798B (zh) 2023-04-18

Family

ID=68002521

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910447819.5A Active CN110287798B (zh) 2019-05-27 2019-05-27 基于特征模块化和上下文融合的矢量网络行人检测方法

Country Status (1)

Country Link
CN (1) CN110287798B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111340756A (zh) * 2020-02-13 2020-06-26 北京深睿博联科技有限责任公司 一种医学图像病变检出合并方法、系统、终端及存储介质
CN111461772A (zh) * 2020-03-27 2020-07-28 上海大学 一种基于生成对抗网络的视频广告融入系统与方法
CN112446870A (zh) * 2020-12-02 2021-03-05 平安科技(深圳)有限公司 管道损伤检测方法、装置、设备及存储介质
CN113627472A (zh) * 2021-07-05 2021-11-09 南京邮电大学 基于分层深度学习模型的智慧园林食叶害虫识别方法
CN114882527A (zh) * 2022-04-25 2022-08-09 山东浪潮科学研究院有限公司 基于动态分组卷积的行人检测方法及系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7227893B1 (en) * 2002-08-22 2007-06-05 Xlabs Holdings, Llc Application-specific object-based segmentation and recognition system
CN104636732A (zh) * 2015-02-12 2015-05-20 合肥工业大学 一种基于序列深信度网络的行人识别方法
CN107220590A (zh) * 2017-04-24 2017-09-29 广东数相智能科技有限公司 一种基于活体检测的防作弊网络调研方法、装置及系统
CN107273870A (zh) * 2017-07-07 2017-10-20 郑州航空工业管理学院 一种监控场景下融合上下文信息的行人位置检测方法
WO2018150024A1 (en) * 2017-02-17 2018-08-23 Cogisen S.R.L. Method for image processing and video compression
CN108875588A (zh) * 2018-05-25 2018-11-23 武汉大学 基于深度学习的跨摄像头行人检测跟踪方法
CN109598196A (zh) * 2018-10-29 2019-04-09 华中科技大学 一种多形变多姿态人脸序列的特征点定位方法
CN109635642A (zh) * 2018-11-01 2019-04-16 浙江科技学院 一种基于残差网络和扩张卷积的道路场景分割方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7227893B1 (en) * 2002-08-22 2007-06-05 Xlabs Holdings, Llc Application-specific object-based segmentation and recognition system
CN104636732A (zh) * 2015-02-12 2015-05-20 合肥工业大学 一种基于序列深信度网络的行人识别方法
WO2018150024A1 (en) * 2017-02-17 2018-08-23 Cogisen S.R.L. Method for image processing and video compression
CN107220590A (zh) * 2017-04-24 2017-09-29 广东数相智能科技有限公司 一种基于活体检测的防作弊网络调研方法、装置及系统
CN107273870A (zh) * 2017-07-07 2017-10-20 郑州航空工业管理学院 一种监控场景下融合上下文信息的行人位置检测方法
CN108875588A (zh) * 2018-05-25 2018-11-23 武汉大学 基于深度学习的跨摄像头行人检测跟踪方法
CN109598196A (zh) * 2018-10-29 2019-04-09 华中科技大学 一种多形变多姿态人脸序列的特征点定位方法
CN109635642A (zh) * 2018-11-01 2019-04-16 浙江科技学院 一种基于残差网络和扩张卷积的道路场景分割方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
郭燕飞;刘宏哲;袁家政;王雪峤;: "基于前馈上下文和形状先验的平面标注方法" *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111340756A (zh) * 2020-02-13 2020-06-26 北京深睿博联科技有限责任公司 一种医学图像病变检出合并方法、系统、终端及存储介质
CN111340756B (zh) * 2020-02-13 2023-11-28 北京深睿博联科技有限责任公司 一种医学图像病变检出合并方法、系统、终端及存储介质
CN111461772A (zh) * 2020-03-27 2020-07-28 上海大学 一种基于生成对抗网络的视频广告融入系统与方法
CN112446870A (zh) * 2020-12-02 2021-03-05 平安科技(深圳)有限公司 管道损伤检测方法、装置、设备及存储介质
CN112446870B (zh) * 2020-12-02 2024-07-09 平安科技(深圳)有限公司 管道损伤检测方法、装置、设备及存储介质
CN113627472A (zh) * 2021-07-05 2021-11-09 南京邮电大学 基于分层深度学习模型的智慧园林食叶害虫识别方法
CN113627472B (zh) * 2021-07-05 2023-10-13 南京邮电大学 基于分层深度学习模型的智慧园林食叶害虫识别方法
CN114882527A (zh) * 2022-04-25 2022-08-09 山东浪潮科学研究院有限公司 基于动态分组卷积的行人检测方法及系统
CN114882527B (zh) * 2022-04-25 2024-05-17 山东浪潮科学研究院有限公司 基于动态分组卷积的行人检测方法及系统

Also Published As

Publication number Publication date
CN110287798B (zh) 2023-04-18

Similar Documents

Publication Publication Date Title
US10984532B2 (en) Joint deep learning for land cover and land use classification
EP3614308B1 (en) Joint deep learning for land cover and land use classification
CN108573276B (zh) 一种基于高分辨率遥感影像的变化检测方法
CN109697435B (zh) 人流量监测方法、装置、存储介质及设备
CN108596101B (zh) 一种基于卷积神经网络的遥感图像多目标检测方法
Tao et al. Smoke detection based on deep convolutional neural networks
CN110287798A (zh) 基于特征模块化和上下文融合的矢量网络行人检测方法
CN106897670B (zh) 一种基于计算机视觉的快递暴力分拣识别方法
CN106127204B (zh) 一种全卷积神经网络的多方向水表读数区域检测算法
Xu et al. High-resolution remote sensing image change detection combined with pixel-level and object-level
CN108549893A (zh) 一种任意形状的场景文本端到端识别方法
CN104134071B (zh) 一种基于颜色描述的可变形部件模型物体检测方法
Zhang et al. Unsupervised difference representation learning for detecting multiple types of changes in multitemporal remote sensing images
CN107016357A (zh) 一种基于时间域卷积神经网络的视频行人检测方法
CN109543632A (zh) 一种基于浅层特征融合引导的深层网络行人检测方法
CN111401132B (zh) 监控场景下高层语义指导的行人属性识别方法
CN112560675B (zh) Yolo与旋转-融合策略相结合的鸟类视觉目标检测方法
CN112950780B (zh) 一种基于遥感影像的网络地图智能生成方法及系统
CN113033520A (zh) 一种基于深度学习的树木线虫病害木识别方法及系统
CN114758288A (zh) 一种配电网工程安全管控检测方法及装置
CN107767416A (zh) 一种低分辨率图像中行人朝向的识别方法
CN114519819B (zh) 一种基于全局上下文感知的遥感图像目标检测方法
CN109063549A (zh) 基于深度神经网络的高分辨率航拍视频运动目标检测方法
CN111507416B (zh) 一种基于深度学习的吸烟行为实时检测方法
Hu et al. Fast and Regularized Reconstruction of Building Fa\c {c} ades from Street-View Images using Binary Integer Programming

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant