CN108416780B - 一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法 - Google Patents

一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法 Download PDF

Info

Publication number
CN108416780B
CN108416780B CN201810255893.2A CN201810255893A CN108416780B CN 108416780 B CN108416780 B CN 108416780B CN 201810255893 A CN201810255893 A CN 201810255893A CN 108416780 B CN108416780 B CN 108416780B
Authority
CN
China
Prior art keywords
layer
frame
convolution
pooling
twin
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201810255893.2A
Other languages
English (en)
Other versions
CN108416780A (zh
Inventor
余春艳
林晖翔
陈吕财
郭文忠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuzhou University
Original Assignee
Fuzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuzhou University filed Critical Fuzhou University
Priority to CN201810255893.2A priority Critical patent/CN108416780B/zh
Publication of CN108416780A publication Critical patent/CN108416780A/zh
Application granted granted Critical
Publication of CN108416780B publication Critical patent/CN108416780B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于孪生‑感兴趣区域池化模型的物体检测与匹配方法,使用了一个融合了全卷积网络结构和感兴趣区域池化层两个方法的孪生‑感兴趣区域池化模型,采用了全卷积网络结构以适应不同大小的输入单元,通过网络逐层抽象获得判别性特征,并引入相关卷积层用于判定目标框与当前视频帧的特征相似性并输出目标框在当前视频帧中对应位置的响应图,再添加ROI Pooling层以应用于目标检测。本发明能够在复杂情形下仍旧良好地进行检测。

Description

一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法
技术领域
本发明涉及目标检测领域,特别是一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法。
背景技术
目标检测是从图像序列中将变化的区域从背景图像中提取出来,从而检测出运动的目标。在医疗诊断方面,目标检测可以有效地分析器官、细胞的运动,为医生提供了辅助诊断信息;在智能交通方面,目标检测可以为车流量统计、行人违规行为检测、车辆超速监测、交通拥堵分析等提供有力的技术支持;在人机交互方面,目标检测为人类提供了一种新的与电脑非接触、灵活的交互方式,例如通过捕捉手势的运动轨迹进而识别以产生输入信息;在自动驾驶方面,可以采用目标检测技术检测并跟踪当前行车前方的行人、车辆和动物等,通过实时收集与目标之间的距离信息控制制动装置以实现车辆在安全行车范围,可以减少事故发生概率。
目标检测的效果会影响目标对象的分类、行为识别等一些后期处理。所以目标检测十分重要。下面介绍一下一些常用的动态视频目标检测与匹配的方法:
背景减除:背景减除方法是目前运动检测中最常用的一种方法,它是利用当前图像与背景图像的差分来检测出运动目标的一种技术。它一般能够提供相对来说比较全面的运动目标的特征数据,但对于动态场景的变化,如光线照射情况和外来无关事件的干扰等也特别敏感。由于该模型是固定的,一旦建立之后,对于该场景图像所发生的任何变化都比较敏感,比如阳光照射方向,影子,树叶随风摇动等。
时间差分:时间差分方法充分利用了视频图像的特征,从连续得到的视频流中提取所需要的动态目标信息。在一般情况下采集的视频图像,若仔细对比相邻两帧,可以发现其中大部分的背景像素均保持不变。只有在有前景移动目标的部分相邻帧的像素差异比较大。时间差分方法就是利用相邻帧图像的相减来提取出前景移动目标的信息的。但在目标运动缓慢时,差分后的运动目标区域内会产生空洞,从而不能完全提取出所有相关的特征像素点,一般不能够完整地分割运动对像,不利于进行相关分析,因此差分法很少被单独使用。
光流法:基于光流方法的运动检测采用了运动目标随时间变化的光流特性,如Meyer等通过计算位移向量光流场来初始化基于轮廓的跟踪算法,从而有效地提取和跟踪运动目标。该方法的优点是在所摄场所运动存在的前提下也能检测出独立的运动目标。然而大多数的光流计算方法相当复杂,且抗噪性能差,如果没有特别的硬件装置则不能被应用于全帧视频流的实时处理。
近年来,基于检测的跟踪方法得益于机器学习方法的不断成熟和应用,主要思想是将目标与背景当作两类对象区分,在有效范围内采用目标检测的方法选取相似度最高的区域。此类方法的主要工作在特征选取和匹配函数的设计上,常见的特征包括局部二值模式特征、方向梯度直方图,以及目前流行的卷积特征,匹配函数主要有支持向量机分类器、基于深度学习的分类、聚类方法等。这类方法能有效克服复杂背景的干扰以应对目标形变、遮挡等问题,但其算法效率较低。
发明内容
有鉴于此,本发明的目的是提出一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法,能够在复杂情形下仍旧良好地进行检测。
本发明采用以下方案实现:一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法,具体包括以下步骤:
步骤S1:将初始帧和候选样本帧输入全卷积网络获取判别性特征;
步骤S2:引入相关卷积层用于判定目标框与当前视频帧的特征相似性并输出目标框在当前视频帧中对应位置的响应图;
步骤S3:添加ROI Pooling层以应用于目标检测。
进一步地,所述步骤S1具体包括以下步骤:
步骤S11:获取初始帧和候选样本帧;
步骤S12:构建全卷积网络,把初始帧和候选帧输入全卷积网络,获取判别性特征;
其中,所述全卷积网络为深度卷积神经网络。
进一步地,所述深度卷积神经网络的结构如下:
第一层为卷积层,用以获取低层特征,该层的卷积核尺寸为11×11,卷积核个数为96,步长为2;输出经过正则化函数Batch Normalization正则化,用于防止梯度消失,加快网络训练深度;
第二层为最大池化层,用以降低特征维度,防止模型过拟合;池化层尺寸为3×3,步长为2;
第三层也为卷积层,用以获取抽象特征,该层的卷积核尺寸为5×5,卷积核个数为256,步长为1;输出经过正则化函数Batch Normalization正则化,用于防止梯度消失,加快网络训练深度;
第四层为最大池化层,用以降低特征维度;该层的池化层尺寸为3×3,步长为1;
第五层、第六层、以及第七层均为卷积层,用以获取抽象特征,该层的卷积核尺寸均为3×3,卷积核个数分别为192、192和128,第五层和第六层的输出都通过正则化函数batch normalization正则化,第七层没有正则化操作。
进一步地,步骤S2中,所述相关卷积层包括复制层、去卷积层以及关联层,所述步骤S2具体包括以下步骤:
步骤S21:将步骤S1获得的初始帧和候选样本帧的判别性特征分别输入复制层和去卷积层,还原特征信息;
步骤S22:将S21还原的特征信息输入关联层进行特征融合,获得融合特征;其中,在关联层中将去卷积层的输出与复制层的输出进行逐像素点乘,得到目标框在当前视频帧中对应位置的响应图。
进一步地,步骤S21中,所述复制层的参数为:复制层复制行系数为17,列系数为17;所述去卷积层的参数为:去卷积核为18×18,步长为4,滤波器个数为1。
进一步地,步骤S3具体包括以下步骤:
步骤S31:对原图进行感兴趣区域抽取,选取与目标区域IoU值最大的样本,将其区域及对应原图坐标输入到ROI Pooling层中;
步骤S32:将步骤S22获得的融合特征输入ROI Pooling层,输出17×17的得分图。
与现有技术相比,本发明有以下有益效果:本发明提出了一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法,采用孪生网络可以同时完成特征表示与特征匹配两个学习任务。借助于这一特性,可以协同完成运动目标的特征提取与候选样本间的匹配任务。而且本发明采用全卷积网络结构适应不同大小的候选样本输入,同时引入相关卷积层和ROI Pooling实现目标匹配与定位,使得本发明能够在形变和遮挡的情况下具有良好的检测效果。
附图说明
图1为本发明实施例的方法流程示意图。
图2为本发明实施例应用的ROI Polling网络的结构图。
图3为本发明实施例中应用的基于孪生-感兴趣区域池化的模型的网络结构图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
如图1、图2以及图3所示,本实施例提供了一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法,具体包括以下步骤:
步骤S1:将初始帧和候选样本帧输入全卷积网络获取判别性特征;
步骤S2:引入相关卷积层用于判定目标框与当前视频帧的特征相似性并输出目标框在当前视频帧中对应位置的响应图;
步骤S3:添加ROI Pooling层以应用于目标检测。
在本实施例中,所述步骤S1具体包括以下步骤:
步骤S11:获取初始帧和候选样本帧;
步骤S12:构建全卷积网络,把初始帧和候选帧输入全卷积网络,获取判别性特征;
其中,所述全卷积网络为深度卷积神经网络。
在本实施例中,所述深度卷积神经网络的结构如下:
第一层为卷积层,用以获取低层特征,该层的卷积核尺寸为11×11,卷积核个数为96,步长为2;输出经过正则化函数Batch Normalization正则化,用于防止梯度消失,加快网络训练深度;
第二层为最大池化层,用以降低特征维度,防止模型过拟合;池化层尺寸为3×3,步长为2;
第三层也为卷积层,用以获取抽象特征,该层的卷积核尺寸为5×5,卷积核个数为256,步长为1;输出经过正则化函数Batch Normalization正则化,用于防止梯度消失,加快网络训练深度;
第四层为最大池化层,用以降低特征维度;该层的池化层尺寸为3×3,步长为1;
第五层、第六层、以及第七层均为卷积层,用以获取抽象特征,该层的卷积核尺寸均为3×3,卷积核个数分别为192、192和128,第五层和第六层的输出都通过正则化函数batch normalization正则化,第七层没有正则化操作。
在本实施例中,步骤S2中,所述相关卷积层包括复制层、去卷积层以及关联层,所述步骤S2具体包括以下步骤:
步骤S21:将步骤S1获得的初始帧和候选样本帧的判别性特征分别输入复制层和去卷积层,还原特征信息;
步骤S22:将S21还原的特征信息输入关联层进行特征融合,获得融合特征;其中,在关联层中将去卷积层的输出与复制层的输出进行逐像素点乘,得到目标框在当前视频帧中对应位置的响应图。
在本实施例中,步骤S21中,所述复制层的参数为:复制层复制行系数为17,列系数为17;所述去卷积层的参数为:去卷积核为18×18,步长为4,滤波器个数为1。
在本实施例中,步骤S3具体包括以下步骤:
步骤S31:对原图进行感兴趣区域抽取,选取与目标区域IoU值最大的样本,将其区域及对应原图坐标输入到ROI Pooling层中;
步骤S32:将步骤S22获得的融合特征输入ROI Pooling层,输出17×17的得分图。
特别的,本实施例以遮挡人脸检测为例,具体给出以下步骤:
步骤1:将人脸初始帧和当前候选样本帧输入全卷积网络获取判别性特征,具体步骤如下:
步骤11:获取人脸初始帧和当前候选样本帧,人脸初始帧为3×127×127,当前候选样本帧为3×255×255。
步骤12:构建深度卷积神经网络,把人脸初始帧和当前候选样本帧输入深度卷积神经网络,获取判别性特征;
构建深度卷积神经网络并得到对应结果:
第一层为卷积层,获取低层特征;卷积核尺寸为11×11,卷积核个数为96,步长为2;输出经过正则化函数Batch Normalization,用于防止梯度消失,加快网络训练深度。人脸初始帧对应变为96×59×59,候选样本帧对应变为96×123×123。
第二层为最大池化层,用于降低特征维度,防止模型过拟合;池化层尺寸为3×3,步长为2。人脸初始帧对应变为96×29×29,候选样本帧对应变为96×61×61。
第三层为卷积层,获取抽象特征,卷积核尺寸为5×5,卷积核个数为256,步长为1;输出经过正则化函数Batch Normalization,用于防止梯度消失,加快网络训练深度。人脸初始帧对应变为256×25×25,候选样本帧对应变为256×57×57。
第四层为最大池化层,用于降低特征维度;池化层尺寸为3×3,步长为1。人脸初始帧对应变为256×12×12,候选样本帧对应变为256×28×28。
第五、六、七层均为卷积层,获取抽象特征,卷积核尺寸均为3×3,卷积核个数分别为192、192和128,第五层和第六层输出都需要进行batch normalization正则化,第七层没有正则化操作。人脸初始帧对应变为192×10×10,192×8×8,128×6×6,候选样本帧对应变为192×26×26,192×24×24,128×22×22。
步骤2:引入相关卷积层用于判定人脸目标框与当前视频帧的特征相似性并输出目标框在当前视频帧中对应位置的响应图。具体步骤如下:
步骤21:将人脸初始帧和候选样本帧经过1步骤获得的判别性特征分别输入复制层和去卷积层,还原特征信息;
复制层参数如下:
复制层复制行系数为17,列系数为17。得到102×102的特征。
去卷积层参数如下:
去卷积核为18×18,步长为4,滤波器个数为1。得到102×102的特征。
步骤22:将21还原的特征信息输入关联层进行特征融合,获得融合特征;
关联层操作如下:
将去卷积层输出与复制层输出进行逐像素点乘。
步骤3:添加ROI Pooling层以应用于目标检测。具体步骤如下:
步骤31:对人脸初始帧进行感兴趣区域抽取,选取与目标区域IoU值最大的样本,将其区域及对应原图坐标输入到ROI Pooling层中;
步骤32:将融合特征输入ROI Pooling层,输出17×17的得分图,从而预测人脸目标的正确位置。
以上所述仅为本发明的较佳实施例,可应用在视频监控、无人驾驶、人机交互、医疗诊断等领域,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本发明的涵盖范围。

Claims (5)

1.一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法,其特征在于:包括以下步骤:
步骤S1:将初始帧和候选样本帧输入全卷积网络获取判别性特征;
步骤S2:引入相关卷积层用于判定目标框与当前视频帧的特征相似性并输出目标框在当前视频帧中对应位置的响应图;
步骤S3:添加ROI Pooling层以应用于目标检测;
其中,步骤S2中,所述相关卷积层包括复制层、去卷积层以及关联层,所述步骤S2具体包括以下步骤:
步骤S21:将步骤S1获得的初始帧和候选样本帧的判别性特征分别输入复制层和去卷积层,还原特征信息;
步骤S22:将S21还原的特征信息输入关联层进行特征融合,获得融合特征;其中,在关联层中将去卷积层的输出与复制层的输出进行逐像素点乘,得到目标框在当前视频帧中对应位置的响应图。
2.根据权利要求1所述的一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法,其特征在于:所述步骤S1具体包括以下步骤:
步骤S11:获取初始帧和候选样本帧;
步骤S12:构建全卷积网络,把初始帧和候选帧输入全卷积网络,获取判别性特征;
其中,所述全卷积网络为深度卷积神经网络。
3.根据权利要求2所述的一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法,其特征在于:所述深度卷积神经网络的结构如下:
第一层为卷积层,用以获取低层特征,该层的卷积核尺寸为11×11,卷积核个数为96,步长为2;输出经过正则化函数Batch Normalization正则化;
第二层为最大池化层,用以降低特征维度,防止模型过拟合;池化层尺寸为3×3,步长为2;
第三层也为卷积层,用以获取抽象特征,该层的卷积核尺寸为5×5,卷积核个数为256,步长为1;输出经过正则化函数Batch Normalization正则化;
第四层为最大池化层,用以降低特征维度;该层的池化层尺寸为3×3,步长为1;
第五层、第六层、以及第七层均为卷积层,用以获取抽象特征,该层的卷积核尺寸均为3×3,卷积核个数分别为192、192和128,第五层和第六层的输出都通过正则化函数batchnormalization正则化,第七层没有正则化操作。
4.根据权利要求1所述的一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法,其特征在于:步骤S21中,所述复制层的参数为:复制层复制行系数为17,列系数为17;所述去卷积层的参数为:去卷积核为18×18,步长为4,滤波器个数为1。
5.根据权利要求1所述的一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法,其特征在于:步骤S3具体包括以下步骤:
步骤S31:对原图进行感兴趣区域抽取,选取与目标区域IoU值最大的样本,将其区域及对应原图坐标输入到ROI Pooling层中;
步骤S32:将步骤S22获得的融合特征输入ROI Pooling层,输出17×17的得分图。
CN201810255893.2A 2018-03-27 2018-03-27 一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法 Expired - Fee Related CN108416780B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810255893.2A CN108416780B (zh) 2018-03-27 2018-03-27 一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810255893.2A CN108416780B (zh) 2018-03-27 2018-03-27 一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法

Publications (2)

Publication Number Publication Date
CN108416780A CN108416780A (zh) 2018-08-17
CN108416780B true CN108416780B (zh) 2021-08-31

Family

ID=63133499

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810255893.2A Expired - Fee Related CN108416780B (zh) 2018-03-27 2018-03-27 一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法

Country Status (1)

Country Link
CN (1) CN108416780B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109543526B (zh) * 2018-10-19 2022-11-08 谢飞 基于深度差异性特征的真假面瘫识别系统
CN112417939A (zh) * 2019-08-21 2021-02-26 南京行者易智能交通科技有限公司 基于图像识别的客流od数据获取方法、装置、移动端设备、服务器及模型训练方法
CN110796666B (zh) * 2019-10-08 2023-03-31 铁道警察学院 一种基于形状描述符和孪生神经网络的纹理分割算法
CN110658795B (zh) * 2019-10-10 2020-07-31 北京航空航天大学 一种数字孪生数据精准融合方法和系统
CN111079671B (zh) * 2019-12-20 2020-11-03 深圳集智数字科技有限公司 一种场景中异常物品的检测方法及装置
CN112183185A (zh) * 2020-08-13 2021-01-05 天津大学 基于光流法和cnn-svm的液体泄漏检测方法
CN112801037A (zh) * 2021-03-01 2021-05-14 山东政法学院 一种基于连续帧间差异的人脸篡改检测方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106650630A (zh) * 2016-11-11 2017-05-10 纳恩博(北京)科技有限公司 一种目标跟踪方法及电子设备
CN106875425A (zh) * 2017-01-22 2017-06-20 北京飞搜科技有限公司 一种基于深度学习的多目标追踪系统及实现方法
CN107229904A (zh) * 2017-04-24 2017-10-03 东北大学 一种基于深度学习的目标检测与识别方法
WO2017168125A1 (en) * 2016-03-31 2017-10-05 Queen Mary University Of London Sketch based search methods
CN107292915A (zh) * 2017-06-15 2017-10-24 国家新闻出版广电总局广播科学研究院 基于卷积神经网络的目标跟踪方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017168125A1 (en) * 2016-03-31 2017-10-05 Queen Mary University Of London Sketch based search methods
CN106650630A (zh) * 2016-11-11 2017-05-10 纳恩博(北京)科技有限公司 一种目标跟踪方法及电子设备
CN106875425A (zh) * 2017-01-22 2017-06-20 北京飞搜科技有限公司 一种基于深度学习的多目标追踪系统及实现方法
CN107229904A (zh) * 2017-04-24 2017-10-03 东北大学 一种基于深度学习的目标检测与识别方法
CN107292915A (zh) * 2017-06-15 2017-10-24 国家新闻出版广电总局广播科学研究院 基于卷积神经网络的目标跟踪方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Fully-convolutional Siamese networks for object tracking;Bertinetto L et al;《European Conference on Computer Vision 2016》;20161103;正文第2节、图1-2、图6及表1 *
Siamese Instance Search for Tracking;Ran Tao et al;《2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)》;20161212;正文第3节 *
Visual tracking using Siamese convolutional neural network with region proposal and domain specific updating;Han Zhang et al;《Neurocomputing》;20180131;第275卷;第2645-2655页 *
基于深度学习的目标跟踪方法研究现状与展望;罗海波等;《红外与激光工程》;20170531;第14-20页 *

Also Published As

Publication number Publication date
CN108416780A (zh) 2018-08-17

Similar Documents

Publication Publication Date Title
CN108416780B (zh) 一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法
CN108257158B (zh) 一种基于循环神经网络的目标预测与跟踪方法
CN108062525B (zh) 一种基于手部区域预测的深度学习手部检测方法
Enzweiler et al. Monocular pedestrian detection: Survey and experiments
Giannoukos et al. Operator context scanning to support high segmentation rates for real time license plate recognition
CN111914664A (zh) 基于重识别的车辆多目标检测和轨迹跟踪方法
Lim et al. A feature covariance matrix with serial particle filter for isolated sign language recognition
CN110929593A (zh) 一种基于细节辨别区别的实时显著性行人检测方法
Saqib et al. Person head detection in multiple scales using deep convolutional neural networks
Cho et al. Semantic segmentation with low light images by modified CycleGAN-based image enhancement
Saran et al. Traffic video surveillance: Vehicle detection and classification
CN111723773A (zh) 遗留物检测方法、装置、电子设备及可读存储介质
CN111368742B (zh) 基于视频分析的双黄交通标线的重建识别方法及系统
Vignesh et al. Abnormal event detection on BMTT-PETS 2017 surveillance challenge
Cao et al. Learning spatial-temporal representation for smoke vehicle detection
Angelo A novel approach on object detection and tracking using adaptive background subtraction method
Hou et al. Human detection and tracking over camera networks: A review
Cho et al. Modified perceptual cycle generative adversarial network-based image enhancement for improving accuracy of low light image segmentation
Yang et al. Video anomaly detection for surveillance based on effective frame area
Sarin et al. Face and human detection in low light for surveillance purposes
Yousif et al. Object detection from dynamic scene using joint background modeling and fast deep learning classification
Savakis et al. Semantic background estimation in video sequences
Alsaedi et al. Design and Simulation of Smart Parking System Using Image Segmentation and CNN
Dilawari et al. Toward generating human-centered video annotations
Qu et al. An intelligent vehicle image segmentation and quality assessment model

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20210831