CN108416780B - 一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法 - Google Patents
一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法 Download PDFInfo
- Publication number
- CN108416780B CN108416780B CN201810255893.2A CN201810255893A CN108416780B CN 108416780 B CN108416780 B CN 108416780B CN 201810255893 A CN201810255893 A CN 201810255893A CN 108416780 B CN108416780 B CN 108416780B
- Authority
- CN
- China
- Prior art keywords
- layer
- frame
- convolution
- pooling
- twin
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000011176 pooling Methods 0.000 title claims abstract description 46
- 238000001514 detection method Methods 0.000 title claims abstract description 35
- 238000000034 method Methods 0.000 title claims abstract description 31
- 230000004044 response Effects 0.000 claims abstract description 8
- 238000010606 normalization Methods 0.000 claims description 15
- 230000004927 fusion Effects 0.000 claims description 12
- 238000013527 convolutional neural network Methods 0.000 claims description 9
- 230000010076 replication Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 16
- 230000033001 locomotion Effects 0.000 description 7
- 238000012549 training Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 241000282414 Homo sapiens Species 0.000 description 3
- 238000003745 diagnosis Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010219 correlation analysis Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000036039 immunity Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于孪生‑感兴趣区域池化模型的物体检测与匹配方法,使用了一个融合了全卷积网络结构和感兴趣区域池化层两个方法的孪生‑感兴趣区域池化模型,采用了全卷积网络结构以适应不同大小的输入单元,通过网络逐层抽象获得判别性特征,并引入相关卷积层用于判定目标框与当前视频帧的特征相似性并输出目标框在当前视频帧中对应位置的响应图,再添加ROI Pooling层以应用于目标检测。本发明能够在复杂情形下仍旧良好地进行检测。
Description
技术领域
本发明涉及目标检测领域,特别是一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法。
背景技术
目标检测是从图像序列中将变化的区域从背景图像中提取出来,从而检测出运动的目标。在医疗诊断方面,目标检测可以有效地分析器官、细胞的运动,为医生提供了辅助诊断信息;在智能交通方面,目标检测可以为车流量统计、行人违规行为检测、车辆超速监测、交通拥堵分析等提供有力的技术支持;在人机交互方面,目标检测为人类提供了一种新的与电脑非接触、灵活的交互方式,例如通过捕捉手势的运动轨迹进而识别以产生输入信息;在自动驾驶方面,可以采用目标检测技术检测并跟踪当前行车前方的行人、车辆和动物等,通过实时收集与目标之间的距离信息控制制动装置以实现车辆在安全行车范围,可以减少事故发生概率。
目标检测的效果会影响目标对象的分类、行为识别等一些后期处理。所以目标检测十分重要。下面介绍一下一些常用的动态视频目标检测与匹配的方法:
背景减除:背景减除方法是目前运动检测中最常用的一种方法,它是利用当前图像与背景图像的差分来检测出运动目标的一种技术。它一般能够提供相对来说比较全面的运动目标的特征数据,但对于动态场景的变化,如光线照射情况和外来无关事件的干扰等也特别敏感。由于该模型是固定的,一旦建立之后,对于该场景图像所发生的任何变化都比较敏感,比如阳光照射方向,影子,树叶随风摇动等。
时间差分:时间差分方法充分利用了视频图像的特征,从连续得到的视频流中提取所需要的动态目标信息。在一般情况下采集的视频图像,若仔细对比相邻两帧,可以发现其中大部分的背景像素均保持不变。只有在有前景移动目标的部分相邻帧的像素差异比较大。时间差分方法就是利用相邻帧图像的相减来提取出前景移动目标的信息的。但在目标运动缓慢时,差分后的运动目标区域内会产生空洞,从而不能完全提取出所有相关的特征像素点,一般不能够完整地分割运动对像,不利于进行相关分析,因此差分法很少被单独使用。
光流法:基于光流方法的运动检测采用了运动目标随时间变化的光流特性,如Meyer等通过计算位移向量光流场来初始化基于轮廓的跟踪算法,从而有效地提取和跟踪运动目标。该方法的优点是在所摄场所运动存在的前提下也能检测出独立的运动目标。然而大多数的光流计算方法相当复杂,且抗噪性能差,如果没有特别的硬件装置则不能被应用于全帧视频流的实时处理。
近年来,基于检测的跟踪方法得益于机器学习方法的不断成熟和应用,主要思想是将目标与背景当作两类对象区分,在有效范围内采用目标检测的方法选取相似度最高的区域。此类方法的主要工作在特征选取和匹配函数的设计上,常见的特征包括局部二值模式特征、方向梯度直方图,以及目前流行的卷积特征,匹配函数主要有支持向量机分类器、基于深度学习的分类、聚类方法等。这类方法能有效克服复杂背景的干扰以应对目标形变、遮挡等问题,但其算法效率较低。
发明内容
有鉴于此,本发明的目的是提出一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法,能够在复杂情形下仍旧良好地进行检测。
本发明采用以下方案实现:一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法,具体包括以下步骤:
步骤S1:将初始帧和候选样本帧输入全卷积网络获取判别性特征;
步骤S2:引入相关卷积层用于判定目标框与当前视频帧的特征相似性并输出目标框在当前视频帧中对应位置的响应图;
步骤S3:添加ROI Pooling层以应用于目标检测。
进一步地,所述步骤S1具体包括以下步骤:
步骤S11:获取初始帧和候选样本帧;
步骤S12:构建全卷积网络,把初始帧和候选帧输入全卷积网络,获取判别性特征;
其中,所述全卷积网络为深度卷积神经网络。
进一步地,所述深度卷积神经网络的结构如下:
第一层为卷积层,用以获取低层特征,该层的卷积核尺寸为11×11,卷积核个数为96,步长为2;输出经过正则化函数Batch Normalization正则化,用于防止梯度消失,加快网络训练深度;
第二层为最大池化层,用以降低特征维度,防止模型过拟合;池化层尺寸为3×3,步长为2;
第三层也为卷积层,用以获取抽象特征,该层的卷积核尺寸为5×5,卷积核个数为256,步长为1;输出经过正则化函数Batch Normalization正则化,用于防止梯度消失,加快网络训练深度;
第四层为最大池化层,用以降低特征维度;该层的池化层尺寸为3×3,步长为1;
第五层、第六层、以及第七层均为卷积层,用以获取抽象特征,该层的卷积核尺寸均为3×3,卷积核个数分别为192、192和128,第五层和第六层的输出都通过正则化函数batch normalization正则化,第七层没有正则化操作。
进一步地,步骤S2中,所述相关卷积层包括复制层、去卷积层以及关联层,所述步骤S2具体包括以下步骤:
步骤S21:将步骤S1获得的初始帧和候选样本帧的判别性特征分别输入复制层和去卷积层,还原特征信息;
步骤S22:将S21还原的特征信息输入关联层进行特征融合,获得融合特征;其中,在关联层中将去卷积层的输出与复制层的输出进行逐像素点乘,得到目标框在当前视频帧中对应位置的响应图。
进一步地,步骤S21中,所述复制层的参数为:复制层复制行系数为17,列系数为17;所述去卷积层的参数为:去卷积核为18×18,步长为4,滤波器个数为1。
进一步地,步骤S3具体包括以下步骤:
步骤S31:对原图进行感兴趣区域抽取,选取与目标区域IoU值最大的样本,将其区域及对应原图坐标输入到ROI Pooling层中;
步骤S32:将步骤S22获得的融合特征输入ROI Pooling层,输出17×17的得分图。
与现有技术相比,本发明有以下有益效果:本发明提出了一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法,采用孪生网络可以同时完成特征表示与特征匹配两个学习任务。借助于这一特性,可以协同完成运动目标的特征提取与候选样本间的匹配任务。而且本发明采用全卷积网络结构适应不同大小的候选样本输入,同时引入相关卷积层和ROI Pooling实现目标匹配与定位,使得本发明能够在形变和遮挡的情况下具有良好的检测效果。
附图说明
图1为本发明实施例的方法流程示意图。
图2为本发明实施例应用的ROI Polling网络的结构图。
图3为本发明实施例中应用的基于孪生-感兴趣区域池化的模型的网络结构图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
如图1、图2以及图3所示,本实施例提供了一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法,具体包括以下步骤:
步骤S1:将初始帧和候选样本帧输入全卷积网络获取判别性特征;
步骤S2:引入相关卷积层用于判定目标框与当前视频帧的特征相似性并输出目标框在当前视频帧中对应位置的响应图;
步骤S3:添加ROI Pooling层以应用于目标检测。
在本实施例中,所述步骤S1具体包括以下步骤:
步骤S11:获取初始帧和候选样本帧;
步骤S12:构建全卷积网络,把初始帧和候选帧输入全卷积网络,获取判别性特征;
其中,所述全卷积网络为深度卷积神经网络。
在本实施例中,所述深度卷积神经网络的结构如下:
第一层为卷积层,用以获取低层特征,该层的卷积核尺寸为11×11,卷积核个数为96,步长为2;输出经过正则化函数Batch Normalization正则化,用于防止梯度消失,加快网络训练深度;
第二层为最大池化层,用以降低特征维度,防止模型过拟合;池化层尺寸为3×3,步长为2;
第三层也为卷积层,用以获取抽象特征,该层的卷积核尺寸为5×5,卷积核个数为256,步长为1;输出经过正则化函数Batch Normalization正则化,用于防止梯度消失,加快网络训练深度;
第四层为最大池化层,用以降低特征维度;该层的池化层尺寸为3×3,步长为1;
第五层、第六层、以及第七层均为卷积层,用以获取抽象特征,该层的卷积核尺寸均为3×3,卷积核个数分别为192、192和128,第五层和第六层的输出都通过正则化函数batch normalization正则化,第七层没有正则化操作。
在本实施例中,步骤S2中,所述相关卷积层包括复制层、去卷积层以及关联层,所述步骤S2具体包括以下步骤:
步骤S21:将步骤S1获得的初始帧和候选样本帧的判别性特征分别输入复制层和去卷积层,还原特征信息;
步骤S22:将S21还原的特征信息输入关联层进行特征融合,获得融合特征;其中,在关联层中将去卷积层的输出与复制层的输出进行逐像素点乘,得到目标框在当前视频帧中对应位置的响应图。
在本实施例中,步骤S21中,所述复制层的参数为:复制层复制行系数为17,列系数为17;所述去卷积层的参数为:去卷积核为18×18,步长为4,滤波器个数为1。
在本实施例中,步骤S3具体包括以下步骤:
步骤S31:对原图进行感兴趣区域抽取,选取与目标区域IoU值最大的样本,将其区域及对应原图坐标输入到ROI Pooling层中;
步骤S32:将步骤S22获得的融合特征输入ROI Pooling层,输出17×17的得分图。
特别的,本实施例以遮挡人脸检测为例,具体给出以下步骤:
步骤1:将人脸初始帧和当前候选样本帧输入全卷积网络获取判别性特征,具体步骤如下:
步骤11:获取人脸初始帧和当前候选样本帧,人脸初始帧为3×127×127,当前候选样本帧为3×255×255。
步骤12:构建深度卷积神经网络,把人脸初始帧和当前候选样本帧输入深度卷积神经网络,获取判别性特征;
构建深度卷积神经网络并得到对应结果:
第一层为卷积层,获取低层特征;卷积核尺寸为11×11,卷积核个数为96,步长为2;输出经过正则化函数Batch Normalization,用于防止梯度消失,加快网络训练深度。人脸初始帧对应变为96×59×59,候选样本帧对应变为96×123×123。
第二层为最大池化层,用于降低特征维度,防止模型过拟合;池化层尺寸为3×3,步长为2。人脸初始帧对应变为96×29×29,候选样本帧对应变为96×61×61。
第三层为卷积层,获取抽象特征,卷积核尺寸为5×5,卷积核个数为256,步长为1;输出经过正则化函数Batch Normalization,用于防止梯度消失,加快网络训练深度。人脸初始帧对应变为256×25×25,候选样本帧对应变为256×57×57。
第四层为最大池化层,用于降低特征维度;池化层尺寸为3×3,步长为1。人脸初始帧对应变为256×12×12,候选样本帧对应变为256×28×28。
第五、六、七层均为卷积层,获取抽象特征,卷积核尺寸均为3×3,卷积核个数分别为192、192和128,第五层和第六层输出都需要进行batch normalization正则化,第七层没有正则化操作。人脸初始帧对应变为192×10×10,192×8×8,128×6×6,候选样本帧对应变为192×26×26,192×24×24,128×22×22。
步骤2:引入相关卷积层用于判定人脸目标框与当前视频帧的特征相似性并输出目标框在当前视频帧中对应位置的响应图。具体步骤如下:
步骤21:将人脸初始帧和候选样本帧经过1步骤获得的判别性特征分别输入复制层和去卷积层,还原特征信息;
复制层参数如下:
复制层复制行系数为17,列系数为17。得到102×102的特征。
去卷积层参数如下:
去卷积核为18×18,步长为4,滤波器个数为1。得到102×102的特征。
步骤22:将21还原的特征信息输入关联层进行特征融合,获得融合特征;
关联层操作如下:
将去卷积层输出与复制层输出进行逐像素点乘。
步骤3:添加ROI Pooling层以应用于目标检测。具体步骤如下:
步骤31:对人脸初始帧进行感兴趣区域抽取,选取与目标区域IoU值最大的样本,将其区域及对应原图坐标输入到ROI Pooling层中;
步骤32:将融合特征输入ROI Pooling层,输出17×17的得分图,从而预测人脸目标的正确位置。
以上所述仅为本发明的较佳实施例,可应用在视频监控、无人驾驶、人机交互、医疗诊断等领域,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本发明的涵盖范围。
Claims (5)
1.一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法,其特征在于:包括以下步骤:
步骤S1:将初始帧和候选样本帧输入全卷积网络获取判别性特征;
步骤S2:引入相关卷积层用于判定目标框与当前视频帧的特征相似性并输出目标框在当前视频帧中对应位置的响应图;
步骤S3:添加ROI Pooling层以应用于目标检测;
其中,步骤S2中,所述相关卷积层包括复制层、去卷积层以及关联层,所述步骤S2具体包括以下步骤:
步骤S21:将步骤S1获得的初始帧和候选样本帧的判别性特征分别输入复制层和去卷积层,还原特征信息;
步骤S22:将S21还原的特征信息输入关联层进行特征融合,获得融合特征;其中,在关联层中将去卷积层的输出与复制层的输出进行逐像素点乘,得到目标框在当前视频帧中对应位置的响应图。
2.根据权利要求1所述的一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法,其特征在于:所述步骤S1具体包括以下步骤:
步骤S11:获取初始帧和候选样本帧;
步骤S12:构建全卷积网络,把初始帧和候选帧输入全卷积网络,获取判别性特征;
其中,所述全卷积网络为深度卷积神经网络。
3.根据权利要求2所述的一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法,其特征在于:所述深度卷积神经网络的结构如下:
第一层为卷积层,用以获取低层特征,该层的卷积核尺寸为11×11,卷积核个数为96,步长为2;输出经过正则化函数Batch Normalization正则化;
第二层为最大池化层,用以降低特征维度,防止模型过拟合;池化层尺寸为3×3,步长为2;
第三层也为卷积层,用以获取抽象特征,该层的卷积核尺寸为5×5,卷积核个数为256,步长为1;输出经过正则化函数Batch Normalization正则化;
第四层为最大池化层,用以降低特征维度;该层的池化层尺寸为3×3,步长为1;
第五层、第六层、以及第七层均为卷积层,用以获取抽象特征,该层的卷积核尺寸均为3×3,卷积核个数分别为192、192和128,第五层和第六层的输出都通过正则化函数batchnormalization正则化,第七层没有正则化操作。
4.根据权利要求1所述的一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法,其特征在于:步骤S21中,所述复制层的参数为:复制层复制行系数为17,列系数为17;所述去卷积层的参数为:去卷积核为18×18,步长为4,滤波器个数为1。
5.根据权利要求1所述的一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法,其特征在于:步骤S3具体包括以下步骤:
步骤S31:对原图进行感兴趣区域抽取,选取与目标区域IoU值最大的样本,将其区域及对应原图坐标输入到ROI Pooling层中;
步骤S32:将步骤S22获得的融合特征输入ROI Pooling层,输出17×17的得分图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810255893.2A CN108416780B (zh) | 2018-03-27 | 2018-03-27 | 一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810255893.2A CN108416780B (zh) | 2018-03-27 | 2018-03-27 | 一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108416780A CN108416780A (zh) | 2018-08-17 |
CN108416780B true CN108416780B (zh) | 2021-08-31 |
Family
ID=63133499
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810255893.2A Expired - Fee Related CN108416780B (zh) | 2018-03-27 | 2018-03-27 | 一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108416780B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109543526B (zh) * | 2018-10-19 | 2022-11-08 | 谢飞 | 基于深度差异性特征的真假面瘫识别系统 |
CN112417939A (zh) * | 2019-08-21 | 2021-02-26 | 南京行者易智能交通科技有限公司 | 基于图像识别的客流od数据获取方法、装置、移动端设备、服务器及模型训练方法 |
CN110796666B (zh) * | 2019-10-08 | 2023-03-31 | 铁道警察学院 | 一种基于形状描述符和孪生神经网络的纹理分割算法 |
CN110658795B (zh) * | 2019-10-10 | 2020-07-31 | 北京航空航天大学 | 一种数字孪生数据精准融合方法和系统 |
CN111079671B (zh) * | 2019-12-20 | 2020-11-03 | 深圳集智数字科技有限公司 | 一种场景中异常物品的检测方法及装置 |
CN112183185A (zh) * | 2020-08-13 | 2021-01-05 | 天津大学 | 基于光流法和cnn-svm的液体泄漏检测方法 |
CN112801037A (zh) * | 2021-03-01 | 2021-05-14 | 山东政法学院 | 一种基于连续帧间差异的人脸篡改检测方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106650630A (zh) * | 2016-11-11 | 2017-05-10 | 纳恩博(北京)科技有限公司 | 一种目标跟踪方法及电子设备 |
CN106875425A (zh) * | 2017-01-22 | 2017-06-20 | 北京飞搜科技有限公司 | 一种基于深度学习的多目标追踪系统及实现方法 |
CN107229904A (zh) * | 2017-04-24 | 2017-10-03 | 东北大学 | 一种基于深度学习的目标检测与识别方法 |
WO2017168125A1 (en) * | 2016-03-31 | 2017-10-05 | Queen Mary University Of London | Sketch based search methods |
CN107292915A (zh) * | 2017-06-15 | 2017-10-24 | 国家新闻出版广电总局广播科学研究院 | 基于卷积神经网络的目标跟踪方法 |
-
2018
- 2018-03-27 CN CN201810255893.2A patent/CN108416780B/zh not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017168125A1 (en) * | 2016-03-31 | 2017-10-05 | Queen Mary University Of London | Sketch based search methods |
CN106650630A (zh) * | 2016-11-11 | 2017-05-10 | 纳恩博(北京)科技有限公司 | 一种目标跟踪方法及电子设备 |
CN106875425A (zh) * | 2017-01-22 | 2017-06-20 | 北京飞搜科技有限公司 | 一种基于深度学习的多目标追踪系统及实现方法 |
CN107229904A (zh) * | 2017-04-24 | 2017-10-03 | 东北大学 | 一种基于深度学习的目标检测与识别方法 |
CN107292915A (zh) * | 2017-06-15 | 2017-10-24 | 国家新闻出版广电总局广播科学研究院 | 基于卷积神经网络的目标跟踪方法 |
Non-Patent Citations (4)
Title |
---|
Fully-convolutional Siamese networks for object tracking;Bertinetto L et al;《European Conference on Computer Vision 2016》;20161103;正文第2节、图1-2、图6及表1 * |
Siamese Instance Search for Tracking;Ran Tao et al;《2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)》;20161212;正文第3节 * |
Visual tracking using Siamese convolutional neural network with region proposal and domain specific updating;Han Zhang et al;《Neurocomputing》;20180131;第275卷;第2645-2655页 * |
基于深度学习的目标跟踪方法研究现状与展望;罗海波等;《红外与激光工程》;20170531;第14-20页 * |
Also Published As
Publication number | Publication date |
---|---|
CN108416780A (zh) | 2018-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108416780B (zh) | 一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法 | |
CN108257158B (zh) | 一种基于循环神经网络的目标预测与跟踪方法 | |
CN108062525B (zh) | 一种基于手部区域预测的深度学习手部检测方法 | |
Enzweiler et al. | Monocular pedestrian detection: Survey and experiments | |
Giannoukos et al. | Operator context scanning to support high segmentation rates for real time license plate recognition | |
CN111914664A (zh) | 基于重识别的车辆多目标检测和轨迹跟踪方法 | |
Lim et al. | A feature covariance matrix with serial particle filter for isolated sign language recognition | |
CN110929593A (zh) | 一种基于细节辨别区别的实时显著性行人检测方法 | |
Saqib et al. | Person head detection in multiple scales using deep convolutional neural networks | |
Cho et al. | Semantic segmentation with low light images by modified CycleGAN-based image enhancement | |
Saran et al. | Traffic video surveillance: Vehicle detection and classification | |
CN111723773A (zh) | 遗留物检测方法、装置、电子设备及可读存储介质 | |
CN111368742B (zh) | 基于视频分析的双黄交通标线的重建识别方法及系统 | |
Vignesh et al. | Abnormal event detection on BMTT-PETS 2017 surveillance challenge | |
Cao et al. | Learning spatial-temporal representation for smoke vehicle detection | |
Angelo | A novel approach on object detection and tracking using adaptive background subtraction method | |
Hou et al. | Human detection and tracking over camera networks: A review | |
Cho et al. | Modified perceptual cycle generative adversarial network-based image enhancement for improving accuracy of low light image segmentation | |
Yang et al. | Video anomaly detection for surveillance based on effective frame area | |
Sarin et al. | Face and human detection in low light for surveillance purposes | |
Yousif et al. | Object detection from dynamic scene using joint background modeling and fast deep learning classification | |
Savakis et al. | Semantic background estimation in video sequences | |
Alsaedi et al. | Design and Simulation of Smart Parking System Using Image Segmentation and CNN | |
Dilawari et al. | Toward generating human-centered video annotations | |
Qu et al. | An intelligent vehicle image segmentation and quality assessment model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20210831 |