CN110175597A - 一种融合特征传播与聚合的视频目标检测方法 - Google Patents
一种融合特征传播与聚合的视频目标检测方法 Download PDFInfo
- Publication number
- CN110175597A CN110175597A CN201910483441.4A CN201910483441A CN110175597A CN 110175597 A CN110175597 A CN 110175597A CN 201910483441 A CN201910483441 A CN 201910483441A CN 110175597 A CN110175597 A CN 110175597A
- Authority
- CN
- China
- Prior art keywords
- feature
- frame
- key frame
- network
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 43
- 230000002776 aggregation Effects 0.000 title claims abstract description 13
- 238000004220 aggregation Methods 0.000 title claims abstract description 13
- 238000000034 method Methods 0.000 claims abstract description 13
- 238000013507 mapping Methods 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 8
- 230000004927 fusion Effects 0.000 claims description 8
- 238000012360 testing method Methods 0.000 claims description 8
- 230000000644 propagated effect Effects 0.000 claims description 7
- 239000011159 matrix material Substances 0.000 claims description 6
- HUTDUHSNJYTCAR-UHFFFAOYSA-N ancymidol Chemical compound C1=CC(OC)=CC=C1C(O)(C=1C=NC=NC=1)C1CC1 HUTDUHSNJYTCAR-UHFFFAOYSA-N 0.000 claims description 4
- 238000012512 characterization method Methods 0.000 claims description 4
- 238000006116 polymerization reaction Methods 0.000 claims description 4
- 238000012549 training Methods 0.000 claims description 4
- 230000003044 adaptive effect Effects 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 3
- 239000013589 supplement Substances 0.000 claims description 3
- 230000002708 enhancing effect Effects 0.000 claims description 2
- 230000003287 optical effect Effects 0.000 claims description 2
- 238000005259 measurement Methods 0.000 abstract description 4
- 238000011156 evaluation Methods 0.000 abstract description 3
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 239000000047 product Substances 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000013100 final test Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2136—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on sparsity criteria, e.g. with an overcomplete basis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种融合特征传播与聚合的视频目标检测方法,其特征在于,包括稀疏特征传播和密集特征聚合;所述稀疏特征传播的方法能够生成非关键帧的特征图像,以降低特征网络部分的计算量,提高整体检测速度;所述密集特征聚合将相邻帧在运动路径上的特征均聚合到当前帧的特征中,增强当前帧的特征,提高后续视频识别的检测精度。本发明基于视频的目标检测具有同图像目标检测相同的评价指标,使用MAP作为检测精度上的衡量,FPS作为检测速度上的衡量,且均追求在精度和速度上获得最好的均衡;本发明方法能够提高速度和精度。
Description
技术领域
本发明涉及基于计算机视觉技术的智能监控系统领域,具体是一种融合特征传播与聚合的视频目标检测方法。
背景技术
目标检测是计算机视觉领域中一个富有挑战性的课题,其主要目的是从静态图像或者视频中识别并定位一个或多个有效目标。传统的目标检测任务主要通过人工提取特征模型建立,常用的特征包括:HOG(Histogram of Oriented Gradient,HOG),SIFT(Scale-invariant feature transform,SIFT)和Haar(Haar-like features,Haar)等,特征提取模型之后进行支持向量机或者Adaboost的分类任务,进而得到我们所关注的目标结果。由于这种特征模型对复杂场景多类目标的检测具有局限性,因此当前最先进的目标检测算法均引入具备更强大表征能力的深度卷积神经网络得到图像的多层特征信息,既包含前级卷积层得到的细节纹理等特征,又包含后级卷积层得到的在语义语境方面更加抽象的高层信息。在此基础上结合多种候选边框选取策略,结合区域回归算法与物体分类算法形成可端到端训练的,可应用于多种复杂场景的多目标检测统一模型。
其中,基于深度学习的两类目标检测模型更为流行。一类是含有物体边界区域建议的,比如R-CNN、Fast R-CNN、Faster R-CNN和R-FCN等模型,该类模型使用枚举法预先假设目标候选区域,再逐步微调和优化目标位置,最终实现对其分类识别,该类方法具有较高的检测精度,但是速度较慢。另一类是直接生成边界区域,比如YOLO和SSD等One-stage的检测模型,该类模型在进行目标预测时可以同时进行预测边界框和分类识别,检测速度上有非常明显的提升,但是往往存在漏检等检测低精度的问题。
发明内容
本发明的目的在于提供一种融合特征传播与聚合的视频目标检测方法,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:
一种融合特征传播与聚合的视频目标检测方法,其特征在于,包括稀疏特征传播和密集特征聚合。
所述稀疏特征传播的方法能够生成非关键帧的特征图像,以降低特征网络部分的计算量,提高整体检测速度;稀疏特征传播采用视频帧之间的相似性来降低特征计算成本,每隔n张(根据实际情况可以随机确定n的大小,一般取10)抽取视频中的关键帧通过深度卷积网络得到关键帧特征图,对于非关键帧,其特征图的计算则来源于最近邻关键帧以及其与当前非关键帧之间的运动变化矢量的加和,通常用光流矢量的计算定量临近两帧之间的信息差值。
所述密集特征聚合将相邻帧在运动路径上的特征均聚合到当前帧的特征中,增强当前帧的特征,提高后续视频识别的检测精度;其是通过Flow-guided featureaggregation网络来实现的。
所述稀疏特征传播到当前帧i的特征图Fk→i计算如下:
Fk→i=ω(Fk,Mi→k)
其中F表示由关键帧Input_frames_i到非关键帧Input_frames_k之间的光流计算,可以通过光流网络计算N_flow(Input_frames_k,Input_frames_i)=Mi→k得到;Mi→k对应一个二维矩阵,表征当前帧上任一点p(x,y)与关键帧上的相应位置上的光流失量ΔP,其尺寸和当前帧大小一致。
ω表示关键帧特征信息针对光流矢量的映射运算;映射后的特征信息可以表征当前非关键帧的特征向量,再通过N_det网络来计算k时刻的检测结果Fk→i;网络可以同时实现让Fk→i自动去接近fi的,包括计算光流网络N_flow在内的端到端的训练。
所述Flow-guided feature aggregation网络需要计算视频每一帧的特征图;对于视频流的第i个时刻的关键帧,需要其之前和之后一段时间(根据实际情况可以随机确定时间段大小,最常见的是取10帧)的特征信息以某种规则合理的补充与添加到当前帧特征计算中去;一般来说,给每个时间帧分配一定权重系数,来对前后i+2r个特征图对应位置的值加权求和来得到当前帧的聚合特征图F′i,具体计算如公式:
F′i(p)=Σk∈[i-r,i+r]Wk→i(p)·Fk→i
其中Wk→i(p)为相邻帧k特征图映射到当前帧i特征图的自适应权重系数,Fk→i与公式Fk→i=ω(Fk,Mi→k)意义相同;P对应一个代表多通道像素位置的多维矩阵;权重系数Wk→i(p)用下方公式定义:
权重系数Wk→i(p)表征当前系统缓存中临近关键帧特征信息对于当前帧的重要程度;特别是在位置P,如果映射后的特征Fk→i(P)和Fi(P)很相近,则它会被赋予一个大的权重,反之则相反;其中Fe表示特征图经过由三个卷积层组成的内嵌映射网络ε(·)(Embedding network)。
与现有技术相比,本发明基于视频的目标检测具有同图像目标检测相同的评价指标,使用MAP作为检测精度上的衡量,FPS作为检测速度上的衡量,且均追求在精度和速度上获得最好的均衡;本发明方法能够提高速度和精度。
附图说明
图1为稀疏特征传播示意图。
图2为密集特征聚合示意图。
图3为视频目标效果检测对比图。
具体实施方式
下面结合具体实施方式对本专利的技术方案作进一步详细地说明。
在视频目标检测方法中,通常采用稀疏特征传播的方法生成非关键帧的特征图像以降低特征网络部分的计算量,提高整体检测速度;视频流文件中,一般相邻的前后帧信息相互关联,差别不大,体现在深度特征图中的相似性会更强;因此,重新计算视频文件中每一帧文件的特征信息将会导致很多重复计算,不利于视频检测的实时性需求。
请参阅图1-3,一种融合特征传播与聚合的视频目标检测方法,包括稀疏特征传播和密集特征聚合;所述稀疏特征传播方式能够提高检测速度,密集特征聚合能够提高检测精度。
所述稀疏特征传播的方法能够生成非关键帧的特征图像,以降低特征网络部分的计算量,提高整体检测速度;稀疏特征传播采用视频帧之间的相似性来降低特征计算成本,每隔n张(根据实际情况可以随机确定n的大小,一般取10)抽取视频中的关键帧通过深度卷积网络得到关键帧特征图,对于非关键帧,其特征图的计算则来源于最近邻关键帧以及其与当前非关键帧之间的运动变化矢量的加和,通常用光流矢量的计算定量临近两帧之间的信息差值。
如图1所示,深灰色部分为关键帧,浅灰色部分为非关键帧,关键帧的信息要加和光流信息一起传播到临近非关键帧中去。
这种将稀疏的关键帧的特征信息传播到非关键帧中的方法可以用如下的算法实现:
其中F表示由关键帧Input_frames_i到非关键帧Input_frames_k之间的光流计算,可以通过光流网络计算N_flow(Input_frames_k,Input_frames_i)=Mi→k得到;Mi→k对应一个二维矩阵,表征当前帧上任一点p(x,y)与关键帧上的相应位置上的光流失量ΔP,其尺寸和当前帧大小一致;传播到当前帧i的特征图Fk→i计算如公式(1):
Fk→i=ω(Fk,Mi→k) (1)
ω表示关键帧特征信息针对光流矢量的映射运算;映射后的特征信息可以表征当前非关键帧的特征向量,再通过N_det网络来计算k时刻的检测结果Fk→i;网络可以同时实现让Fk→i自动去接近fi的,包括计算光流网络N_flow在内的端到端的训练。
需要注意的是,在使用稀疏特征传播方式的Deep Feature Flow网络中,因为N_feat网络累计的stride是16,所以特征图Fk会是原始图像的十六分之一;N_flow光流网络的累计的stride是4,加上原始图像的二分之一缩小预处理,所以Mi→k会比原始图像小8倍;因此,要完成映射操作需要使用双线性下采样来使得光流场和最近邻的关键帧的特征图Fk尺寸对齐。
如图2所示,所述密集特征聚合将相邻帧在运动路径上的特征均聚合到当前帧的特征中,增强当前帧的特征,提高后续视频识别的检测精度;其是通过Flow-guidedfeature aggregation网络来实现的。
Flow-guided feature aggregation网络需要计算视频每一帧的特征图;对于视频流的第i个时刻的关键帧,需要其之前和之后一段时间(根据实际情况可以随机确定时间段大小,最常见的是取10帧)的特征信息以某种规则合理的补充与添加到当前帧特征计算中去;一般来说,给每个时间帧分配一定权重系数,来对前后i+2r个特征图对应位置的值加权求和来得到当前帧的聚合特征图F′i,具体计算如公式(2):
F′i(p)=∑k∈[i-r,i+r]Wk→i(p)·Fk→i (2)
其中Wk→i(p)为相邻帧k特征图映射到当前帧i特征图的自适应权重系数,Fk→i与公式(1)意义相同;P对应一个代表多通道像素位置的多维矩阵;权重系数Wk→i(p)用如公式(3)定义:
权重系数Wk→i(p)表征当前系统缓存中临近关键帧特征信息对于当前帧的重要程度;特别是在位置P,如果映射后的特征Fk→i(P)和Fi(P)很相近,则它会被赋予一个大的权重,反之则相反;其中Fe表示特征图经过由三个卷积层组成的内嵌映射网络ε(·)(Embedding network),其作用就是把特征图的信息映射到适合做相似度余弦变换(公式(3))前的预处理。
总结密集特征聚合在光流特征图中具体传播和获得检测结果的算法如下:
如图3所示,展示了四组检测结果对比,每一组左侧为本文融合特征传播与特征聚合算法的视频目标检测结果,右侧为不增加额外的改进策略,完全使用图像上的目标检测算法对单帧视频进行目标检测的结果,且改进后的检测效果明显优于后者,在检测的完整度和准确度上都有明显的优势。
还在部分ImageNet VID的测试集上,进行了最终的测试与验证,分别计算了应用关键帧调度,融合使用稀疏特征传播与密集特征聚合后的模型在测试数据集上的精确度和运行速率,并与单独使用稀疏特征传播与密集特征聚合方法等常见的视频目标检测模型进行了实验对比,如表1所示:
表1模型评价指标对比
上面对本专利的较佳实施方式作了详细说明,但是本专利并不限于上述实施方式,在本领域的普通技术人员所具备的知识范围内,还可以在不脱离本专利宗旨的前提下作出各种变化。
Claims (1)
1.一种融合特征传播与聚合的视频目标检测方法,其特征在于,包括稀疏特征传播和密集特征聚合;
所述稀疏特征传播的方法能够生成非关键帧的特征图像,以降低特征网络部分的计算量,提高整体检测速度;稀疏特征传播采用视频帧之间的相似性来降低特征计算成本,每隔n张(根据实际情况可以随机确定n的大小,一般取10)抽取视频中的关键帧通过深度卷积网络得到关键帧特征图,对于非关键帧,其特征图的计算则来源于最近邻关键帧以及其与当前非关键帧之间的运动变化矢量的加和,通常用光流矢量的计算定量临近两帧之间的信息差值;
所述密集特征聚合将相邻帧在运动路径上的特征均聚合到当前帧的特征中,增强当前帧的特征,提高后续视频识别的检测精度;其是通过Flow-guided feature aggregation网络来实现的;
所述稀疏特征传播到当前帧i的特征图Fk→i计算如下:
Fk→i=ω(Fk,Mi→k)
其中F表示由关键帧Input_frames_i到非关键帧Input_frames_k之间的光流计算,可以通过光流网络计算N_flow(Input_frames_k,Input_frames_i)=Mi→k得到;Mi→k对应一个二维矩阵,表征当前帧上任一点p(x,y)与关键帧上的相应位置上的光流失量ΔP,其尺寸和当前帧大小一致;ω表示关键帧特征信息针对光流矢量的映射运算;映射后的特征信息可以表征当前非关键帧的特征向量,再通过N_det网络来计算k时刻的检测结果Fk→i;网络可以同时实现让Fk→i自动去接近fi的,包括计算光流网络N_flow在内的端到端的训练;
所述Flow-guided feature aggregation网络需要计算视频每一帧的特征图;对于视频流的第i个时刻的关键帧,需要其之前和之后一段时间(根据实际情况可以随机确定时间段大小,最常见的是取10帧)的特征信息以某种规则合理的补充与添加到当前帧特征计算中去;一般来说,给每个时间帧分配一定权重系数,来对前后i+2r个特征图对应位置的值加权求和来得到当前帧的聚合特征图F′i,具体计算如公式:
F′i(p)=∑k∈[i-r,i+r]Wk→i(p)·Fk→i
其中Wk→i(p)为相邻帧k特征图映射到当前帧i特征图的自适应权重系数,Fk→i与公式Fk→i=ω(Fk,Mi→k)意义相同;P对应一个代表多通道像素位置的多维矩阵;权重系数Wk→i(p)用下方公式定义:
权重系数Wk→i(p)表征当前系统缓存中临近关键帧特征信息对于当前帧的重要程度;特别是在位置P,如果映射后的特征Fk→i(P)和Fi(P)很相近,则它会被赋予一个大的权重,反之则相反;其中Fe表示特征图经过由三个卷积层组成的内嵌映射网络ε(·)(Embeddingnetwork)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910483441.4A CN110175597A (zh) | 2019-06-04 | 2019-06-04 | 一种融合特征传播与聚合的视频目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910483441.4A CN110175597A (zh) | 2019-06-04 | 2019-06-04 | 一种融合特征传播与聚合的视频目标检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110175597A true CN110175597A (zh) | 2019-08-27 |
Family
ID=67698035
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910483441.4A Pending CN110175597A (zh) | 2019-06-04 | 2019-06-04 | 一种融合特征传播与聚合的视频目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110175597A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112801053A (zh) * | 2021-04-01 | 2021-05-14 | 腾讯科技(深圳)有限公司 | 视频数据处理方法、装置 |
CN112949662A (zh) * | 2021-05-13 | 2021-06-11 | 北京市商汤科技开发有限公司 | 一种图像处理方法、装置、计算机设备以及存储介质 |
CN112966581A (zh) * | 2021-02-25 | 2021-06-15 | 厦门大学 | 一种基于内外语义聚合的视频目标检测方法 |
CN113223044A (zh) * | 2021-04-21 | 2021-08-06 | 西北工业大学 | 一种结合特征聚合和注意力机制的红外视频目标检测方法 |
CN115631478A (zh) * | 2022-12-02 | 2023-01-20 | 广汽埃安新能源汽车股份有限公司 | 道路图像检测方法、装置、设备、计算机可读介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8867891B2 (en) * | 2011-10-10 | 2014-10-21 | Intellectual Ventures Fund 83 Llc | Video concept classification using audio-visual grouplets |
CN104484890A (zh) * | 2014-12-18 | 2015-04-01 | 上海交通大学 | 基于复合稀疏模型的视频目标跟踪方法 |
CN105138982A (zh) * | 2015-08-21 | 2015-12-09 | 中南大学 | 一种基于多特征聚类及分类的人群异常检测与评估方法 |
CN106888024A (zh) * | 2017-01-06 | 2017-06-23 | 南京邮电大学 | 一种基于双向最佳匹配的分布式视频压缩感知重构方法 |
CN107169415A (zh) * | 2017-04-13 | 2017-09-15 | 西安电子科技大学 | 基于卷积神经网络特征编码的人体动作识别方法 |
CN107729799A (zh) * | 2017-06-13 | 2018-02-23 | 银江股份有限公司 | 基于深度卷积神经网络的人群异常行为视觉检测及分析预警系统 |
-
2019
- 2019-06-04 CN CN201910483441.4A patent/CN110175597A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8867891B2 (en) * | 2011-10-10 | 2014-10-21 | Intellectual Ventures Fund 83 Llc | Video concept classification using audio-visual grouplets |
CN104484890A (zh) * | 2014-12-18 | 2015-04-01 | 上海交通大学 | 基于复合稀疏模型的视频目标跟踪方法 |
CN105138982A (zh) * | 2015-08-21 | 2015-12-09 | 中南大学 | 一种基于多特征聚类及分类的人群异常检测与评估方法 |
CN106888024A (zh) * | 2017-01-06 | 2017-06-23 | 南京邮电大学 | 一种基于双向最佳匹配的分布式视频压缩感知重构方法 |
CN107169415A (zh) * | 2017-04-13 | 2017-09-15 | 西安电子科技大学 | 基于卷积神经网络特征编码的人体动作识别方法 |
CN107729799A (zh) * | 2017-06-13 | 2018-02-23 | 银江股份有限公司 | 基于深度卷积神经网络的人群异常行为视觉检测及分析预警系统 |
Non-Patent Citations (2)
Title |
---|
XIZHOU ZHU ET AL: "Deep Feature Flow for Video Recognition", 《ARXIV:1611.07715V2 [CS.CV] 5 JUN 2017》 * |
XIZHOU ZHU等: "Flow-Guided Feature Aggregation for Video Object Detection", 《2017 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION (ICCV)》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112966581A (zh) * | 2021-02-25 | 2021-06-15 | 厦门大学 | 一种基于内外语义聚合的视频目标检测方法 |
CN112966581B (zh) * | 2021-02-25 | 2022-05-27 | 厦门大学 | 一种基于内外语义聚合的视频目标检测方法 |
CN112801053A (zh) * | 2021-04-01 | 2021-05-14 | 腾讯科技(深圳)有限公司 | 视频数据处理方法、装置 |
CN113223044A (zh) * | 2021-04-21 | 2021-08-06 | 西北工业大学 | 一种结合特征聚合和注意力机制的红外视频目标检测方法 |
CN112949662A (zh) * | 2021-05-13 | 2021-06-11 | 北京市商汤科技开发有限公司 | 一种图像处理方法、装置、计算机设备以及存储介质 |
CN115631478A (zh) * | 2022-12-02 | 2023-01-20 | 广汽埃安新能源汽车股份有限公司 | 道路图像检测方法、装置、设备、计算机可读介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110175597A (zh) | 一种融合特征传播与聚合的视频目标检测方法 | |
CN107967451B (zh) | 一种对静止图像进行人群计数的方法 | |
CN104424634B (zh) | 对象跟踪方法和装置 | |
CN104599275B (zh) | 基于概率图模型的非参数化的rgb-d场景理解方法 | |
CN112150821B (zh) | 轻量化车辆检测模型构建方法、系统及装置 | |
CN108647591A (zh) | 一种基于视觉-语义特征的视频中行为识别方法和系统 | |
CN110210551A (zh) | 一种基于自适应主体敏感的视觉目标跟踪方法 | |
CN108665481A (zh) | 多层深度特征融合的自适应抗遮挡红外目标跟踪方法 | |
CN110119687A (zh) | 基于图像处理和卷积神经网络相结合的道路表面裂痕缺陷的检测方法 | |
CN108470354A (zh) | 视频目标跟踪方法、装置和实现装置 | |
CN109190479A (zh) | 一种基于混合深度学习的视频序列表情识别方法 | |
CN109190707A (zh) | 一种基于对抗学习的域自适应图像语义分割方法 | |
CN109858466A (zh) | 一种基于卷积神经网络的人脸关键点检测方法及装置 | |
CN107924491A (zh) | 未知类别的检测和用于未知类别的分类器的初始化 | |
CN108764085A (zh) | 基于生成对抗网络的人群计数方法 | |
CN107133569A (zh) | 基于泛化多标记学习的监控视频多粒度标注方法 | |
CN110110689A (zh) | 一种行人重识别方法 | |
CN110298297A (zh) | 火焰识别方法和装置 | |
CN111709285A (zh) | 一种基于无人机的疫情防护监控方法、装置和存储介质 | |
CN109871803A (zh) | 机器人回环检测方法和装置 | |
CN106372597B (zh) | 基于自适应上下文信息的cnn交通检测方法 | |
CN110263712A (zh) | 一种基于区域候选的粗精行人检测方法 | |
CN107944386A (zh) | 基于卷积神经网络的视觉场景识别方法 | |
CN106650617A (zh) | 一种基于概率潜在语义分析的行人异常识别方法 | |
TWI780567B (zh) | 對象再識別方法、儲存介質及電腦設備 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190827 |