CN111027505B - 一种基于显著性检测的分层多目标跟踪方法 - Google Patents
一种基于显著性检测的分层多目标跟踪方法 Download PDFInfo
- Publication number
- CN111027505B CN111027505B CN201911314479.5A CN201911314479A CN111027505B CN 111027505 B CN111027505 B CN 111027505B CN 201911314479 A CN201911314479 A CN 201911314479A CN 111027505 B CN111027505 B CN 111027505B
- Authority
- CN
- China
- Prior art keywords
- target
- detection
- significance
- region
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明涉及一种基于显著性检测的分层多目标跟踪方法,包括以下步骤:构建基于已有标准数据集与人工标注混合的混合数据集;构建道路交通场景显著性区域检测子网络生成显著性区域与非显著性区域;利用目标检测算法检测每一帧目标;构建卷积网络、长短时记忆与图卷积网络相结合的多目标跟踪网络模型,并跟踪显著性区域目标;构建并行KCF池对非显著性区域内目标进行单目标跟踪;将显著性区域与非显著性区域轨迹结合并后处理生成整体轨迹。本发明通过增加快速显著性检测方法,生成显著性区域包围框,对以输入检测和跟踪目标;能够加快检测速度同时,保持检测精度;可为真实情景下自动驾驶多目标跟踪降低计算复杂度,加速跟踪。
Description
技术领域
本发明属于自动驾驶环境感知技术领域,具体涉及一种深度学习的多目标跟踪方法,特别涉及一种基于显著性检测的分层多目标跟踪方法。
背景技术
多目标跟踪是自动驾驶环境感知中重要研究领域,在实际应用中涉及到计算机视觉、传感器理论、通信理论及交通工程等,可以为自动驾驶之后的决策控制提供基础数据。这一任务中最主要需求就是对道路场景下行人和车辆等目标进行精准跟踪。
多目标跟踪性能由跟踪精度和跟踪速度两个指标组成。基于实际复杂交通环境中的背景复杂、目标密度大且随机移动、遮挡频繁等因素,多目标跟踪很难实现准确度和速度的共同提高。针对这一问题,相关科研人员近年来在提高跟踪准确度和鲁棒性方面做出大量研究,逐渐在克服以上因素的干扰。2008年,Li Zhang等人将多目标跟踪问题建模为最小消耗网络流问题,并在此基础上提出一种全局数据关联算法。2015年,Milan等人提出离散-连续能量最小化方法,利用条件随机场针对多目标跟踪中多种交互状态进行精细建模,其数学理论基础非常完善,在相关领域引起很大关注。
随着深度学习在计算机视觉等领域引入,多目标跟踪也有了较大发展。以卷积神经网络和循环神经网络等算法引入,较大提高算法检测精度,但是仍然不能满足交通场景方面的需求。以代表性深度学习类多目标跟踪类算法为例,其网络模型加载和计算难以在车载计算平台上实现全部性能。
传统多目标跟踪一般分为包围框生成和数据关联两个方面。其中,包围框一般为通过检测算法提供,而数据关联算法因其多样性与适用性而被广泛研究。深度学习类多目标跟踪通常是将以上两个合并为端到端跟踪框架,并会增加检测增强和注意力机制等模块,取得精确度提高。2017年Chu等人将多目标跟踪算法中的检测模块替换为单目标跟踪器,在跟踪过程中每个目标都有其单独的在线跟踪器,为了解决遮挡和交互引起的跟踪漂移问题,在网络结构中引入基于可视化图的时间-空间注意力机制。2018年,Zhu等引入消耗敏感损失函数,并结合最新的单目标跟踪算法建立双重注意力机制网络,在空间注意力网络中引入孪生结构以处理噪声检测和遮挡,并利用时间注意力机制分配样本在轨迹段中重要程度。2019年,凌海滨等人提出实例自意识多目标跟踪器,将跟踪过程分为目标与背景抽离和对不同目标进行建模两部分,并不断评价和更新模型,在目前公开的多目标跟踪数据集上取得最好效果。
但是,深度多目标跟踪算法仍然面临计算速度过慢的难点,一般的方法是通过模型压缩或者剪枝方式降低模型大小,可在一定程度上减缓这一问题。同时,组合式方法能够从其他计算机视觉任务中获取灵感,加速多目标跟踪算法整体进程。
发明内容
本发明的目的是克服现有多目标跟踪算法中存在计算资源消耗大,计算速度低的不足,提供一种基于显著性检测的分层多目标跟踪方法,能够在保证一定准确度前提下,降低计算成本,实现快速多目标跟踪。
本发明的目的是通过以下技术方案实现的:
一种基于显著性检测的分层多目标跟踪方法,其特征在于,包括以下步骤:
构建基于已有标准数据集与人工标注混合的混合数据集,并进行数据增强;构建道路交通场景显著性区域检测子网络生成显著性区域与非显著性区域;利用目标检测算法检测每一帧目标;构建卷积网络、长短时记忆与图卷积网络相结合的多目标跟踪网络模型,并跟踪显著性区域目标;构建并行KCF池对非显著性区域内目标进行单目标跟踪;将显著性区域与非显著性区域轨迹结合并后处理生成整体轨迹。
具体包括以下步骤:
A、通过前视车载相机拍摄交通视频,对交通视频每一帧标注,建立真实场景数据集,并与已有标准多目标跟踪数据集进行联合增强,得到混合数据集;
B、利用混合数据集进行训练,构建显著性检测卷积神经网络,对于输入图片输出检测显著性区域Is和非显著性区域Inon,区域面积与原始图片I0比例为f(R)=S(Is)/S(I0),通过输入原始图片I0对图片目标进行分割,生成显著性区域Is,区域框内目标为该场景下最需要注意的脆弱目标,区域框面积与原始图片I0大小关系为
C、在时刻t对原始图片I0进行预处理获取检测输入Ide,利用一阶段目标检测卷积网络YOLO v3对于输入Ide计算目标种类和包围框,进行限定目标检测,判断是否为显著性区域,如“是”,继续下一步,如“不是”执行步骤I;
D、输入原始图片I0、显著性图片Is与目标检测结果,构建基于卷积神经网络与多个长短时记忆模块相结合的多目标跟踪网络以提取表观特征、运动特征和交互特征,输出运动轨迹;
E、针对步骤D中的表观特征利用卷积神经网络提取检测目标区域的表观特征,网络结构包括5个卷积层、3个池化层和1个全连接层,针对每个目标输出对应卷积特征表示;
F、针对步骤D中的所提取运动特征采用多个长短时记忆模块组合构成长短时记忆网络单元,在t时刻其输入分别为目标速度v、目标类别class、目标包围框坐标bb;
G、针对步骤D中的所提取交互特征采用单层图卷积网络进行提取,针对t时刻起输入为目标包围框坐标bb、目标类别class、目标中心center不同目标之间影响进行迭代建模,输出每个目标位置正态分布;
H、将步骤E、步骤F和步骤G中所提取表观、运动和交互特征作为输入张量,输入到长短时记忆模块中,提取得到显著性区域目标轨迹和包围框;
I、采用并行KCF算法对步骤B所得每个非显著区域目标进行跟踪,生成轨迹;
J、结合显著性区域和非显著性区域轨迹后处理生成整体轨迹。
进一步地,步骤A,所述视频分为路段和交叉口两类,每个类别不少于设定时间T。
进一步地,步骤A,所述数据增强方法为将混合数据集进行翻转、随机裁剪、多尺度缩放、仿射变换。
进一步地,步骤B,采用随机梯度下降法SGD进行训练,采用smooth L1、softmax函数与R联合作为损失函数,其公式为f=f(smooth-l1)+f(softmax)+f(R),其具体定义分别如下:
进一步地,步骤C,所述目标种类包括行人、车辆和骑车人。
进一步地,步骤F,所述长短时记忆网络单元包含200个隐藏层。
进一步地,步骤I,具体包括以下步骤:开启多线程,利用并行KCF算法直接跟踪每个目标,输出非显著性区域包围框和轨迹。
进一步地,步骤J,具体包括以下步骤:将显著性区域和非显著性区域跟踪轨迹和包围框进行增强验证,获取最终包围框和轨迹。
与现有技术相比,本发明的有益效果在于:
采用本发明所述方法,通过增加快速显著性检测方法,生成显著性区域包围框,对以输入检测和跟踪目标;与传统直接进行全局检测并多目标跟踪方法相比能够加快检测速度同时,保持检测精度;大量实验表明,本发明中在保持相同检测与跟踪结果前提下,能够将整体速度提高两倍。
附图说明
图1是本发明多目标跟踪流程图;
图2是本发明跟踪网络结构图。
具体实施方式
下面结合实施例对本发明作进一步说明:
本发明所要解决的技术问题是在保证物体跟踪效果准确率不变的前提下,通过增加显著性检测网络能够降低检测与跟踪过程中计算复杂性,从而提高系统整体速度。
多目标跟踪系统基本分为目标检测和目标跟踪两个部分,其中目标检测和目标跟踪中数据联合部分均需耗费大量计算资源,深刻影响整个跟踪过程时间。通过采用微型显著性检测网络与轻量化目标检测网络配合端到端多目标跟踪网络与实时单目标跟踪器,能够实现一体化实时多目标跟踪算法。
本发明基于显著性检测的分层多目标跟踪算法,首先,根据实地试验驾驶数据与已有标准驾驶数据集进行数据增强,建立符合中国特性的增强驾驶员视角数据集;其次,通过微调显著性检测网络获取图片仿人视觉关注区域;再次,调整单阶段目标跟踪网络,将检测对象集缩小以符合道路场景需求;然后,分别利用多目标跟踪网络和并行单目标跟踪算法对显著性区域和非显著性区域进行跟踪;最后,将所有轨迹后处理,输出整体轨迹。
下面结合附图对本发明进行说明
步骤1:基于前视车载相机GoPro搜集实际交通数据进行标注,并与已有标准数据集进行联合增强,扩充为训练数据集,并设定训练需要到的性能:准确率和需求帧率。具体地,数据增强方法为将混合数据集进行翻转、随机裁剪、多尺度缩放、仿射变换。
步骤2:显著性检测(Saliency Detection)是指通过算法模拟人的视觉特点,提取图像中显著区域,即人类感兴趣区域。利用训练数据集,构建显著性检测卷积网络,所述网络结构包括5个卷积层,4个池化层,1个全连接层,对于输入图片输出检测显著性区域Is和非显著性区域Inon,区域面积与原始图片I0比例为f(R)=S(Is)/S(I0),采用随机梯度下降法SGD(Stochastic Gradient Descent)进行训练,采用smooth L1、softmax函数与R联合作为损失函数,其公式如下f=f(smooth-L1)+f(softmax)+f(R),其具体定义分别如下:
步骤3:将原始图片I0缩放到到720*480大小。将利用单阶段目标检测算法YOLO v3对限定目标类别包括行人、车辆和骑车人进行检测,输出对应帧的目标种类和包围框作为下一步输入。
步骤4:将步骤2计算所得显著性区域Is与区域内检测结果输入到多目标跟踪网络中,通过子网络分别提取表观特征、运动特征和交互特征,进行目标跟踪输出轨迹。
步骤5:步骤4中提到表观特征采集采用卷积神经网络CNN,输入为显著性区域Is,采用预训练网络是VGG-M,网络结构包括5个卷积层、3个池化层和1个全连接层,针对每个目标输出对应卷积特征表示。训练方法为随机梯度下降。
步骤6:步骤4中所提到运动特征采用孪生混合阶长短时记忆网络LSTM组合,其中一阶LSTM模块输入为目标类别class、目标速度v、目标包围框坐标bb,二阶LSTM模块输入为目标类别class、加速度acc、最大最小法归一化后像素坐标bbnor,将上述混合阶长短时记忆网络模块并行排列,分别输出轨迹位置并计算轨迹均值作为最后输出结构。其中每个LSTM隐藏层数均为200,采用RMSprop算法最小化损失函数,初始学习率为0.001,每迭代2000次后降低5%,最大迭代次数为20000次。
步骤7:步骤4中所提到交互特征采用单层图卷积网络进行提取,其中节点为目标,边为目标之间属性,具体输入属性包括显著性区域内目标中心像素坐标位置center、目标包围框坐标bb、目标类别class、目标速度v,通过图卷积迭代计算每个目标对于其他目标影响程度,生成每个目标预测位置。具体地,所采用初始化方法为随机初始化。
步骤8:将步骤5、步骤6、步骤7中所提取表观、运动和交互特征作为输入张量,输入到LSTM模块中,提取得到显著性区域目标轨迹和包围框。
步骤9:将步骤2中计算所得非显著性区域Inon利用KCF(Kernelized CorrelationFilter)单目标算法进行并行跟踪。因非显著性区域内目标一般为简单目标,遮挡和尺度等情况发展较少,直接调用并行池,使用KCF算法直接跟踪每个目标,输出非显著性区域包围框和轨迹。
步骤10:将步骤非显著性区域跟踪目标与显著性区域跟踪目标进行增强验证,去除重合度高轨迹,输出最终跟踪轨迹和包括框。
Claims (8)
1.一种基于显著性检测的分层多目标跟踪方法,其特征在于,包括以下步骤:
构建基于已有标准数据集与人工标注混合的混合数据集,并进行数据增强;构建道路交通场景显著性区域检测子网络生成显著性区域与非显著性区域;利用目标检测算法检测每一帧目标;构建卷积网络、长短时记忆与图卷积网络相结合的多目标跟踪网络模型,并跟踪显著性区域目标;构建并行KCF池对非显著性区域内目标进行单目标跟踪;将显著性区域与非显著性区域轨迹结合并后处理生成整体轨迹;
具体包括以下步骤:
A、通过前视车载相机拍摄交通视频,对交通视频每一帧标注,建立真实场景数据集,并与已有标准多目标跟踪数据集进行联合增强,得到混合数据集;
B、利用混合数据集进行训练,构建显著性检测卷积神经网络,对于输入图片输出检测显著性区域Is和非显著性区域Inon,区域面积与原始图片I0比例为f(R)=S(Is)/S(I0),通过输入原始图片I0对图片目标进行分割,生成显著性区域Is,区域框内目标为该场景下最需要注意的脆弱目标,区域框面积与原始图片I0大小关系为
C、在时刻t对原始图片I0进行预处理获取检测输入Ide,利用一阶段目标检测卷积网络YOLO v3对于输入Ide计算目标种类和包围框,进行限定目标检测,判断是否为显著性区域,如“是”,继续下一步,如“不是”执行步骤I;
D、输入原始图片I0、显著性图片Is与目标检测结果,构建基于卷积神经网络与多个长短时记忆模块相结合的多目标跟踪网络以提取表观特征、运动特征和交互特征,输出运动轨迹;
E、针对步骤D中的表观特征利用卷积神经网络提取检测目标区域的图像特征,网络结构包括5个卷积层、3个池化层和1个全连接层,针对每个目标输出对应卷积特征表示;
F、针对步骤D中的所提取运动特征采用多个长短时记忆模块组合构成长短时记忆网络单元,在t时刻其输入分别为目标速度v、目标类别class、目标包围框坐标bb;
G、针对步骤D中的所提取交互特征采用单层图卷积网络进行提取,针对t时刻起输入为目标包围框坐标bb、目标类别class、目标中心center不同目标之间影响进行迭代建模,输出每个目标位置正态分布;
H、将步骤E、步骤F和步骤G中所提取表观、运动和交互特征作为输入张量,输入到长短时记忆模块中,提取得到显著性区域目标轨迹和包围框;
I、采用并行KCF算法对步骤B所得每个非显著区域目标进行跟踪,生成轨迹;
J、结合显著性区域和非显著性区域轨迹后处理生成整体轨迹。
2.根据权利要求1所述的一种基于显著性检测的分层多目标跟踪方法,其特征在于:步骤A,所述视频分为路段和交叉口两类,每个类别不少于设定时间T。
3.根据权利要求1所述的一种基于显著性检测的分层多目标跟踪方法,其特征在于:步骤A,所述数据增强方法为将混合数据集进行翻转、随机裁剪、多尺度缩放、仿射变换。
5.根据权利要求1所述的一种基于显著性检测的分层多目标跟踪方法,其特征在于:步骤C,所述目标种类包括行人、车辆和骑车人。
6.根据权利要求1所述的一种基于显著性检测的分层多目标跟踪方法,其特征在于:步骤F,所述长短时记忆网络单元包含200个隐藏层。
7.根据权利要求1所述的一种基于显著性检测的分层多目标跟踪方法,其特征在于:步骤I,具体包括以下步骤:开启多线程,利用KCF算法直接跟踪每个目标,输出非显著性区域包围框和轨迹。
8.根据权利要求1所述的一种基于显著性检测的分层多目标跟踪方法,其特征在于:步骤J,具体包括以下步骤:将显著性区域和非显著性区域跟踪轨迹和包围框进行增强验证,获取最终包围框和轨迹。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911314479.5A CN111027505B (zh) | 2019-12-19 | 2019-12-19 | 一种基于显著性检测的分层多目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911314479.5A CN111027505B (zh) | 2019-12-19 | 2019-12-19 | 一种基于显著性检测的分层多目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111027505A CN111027505A (zh) | 2020-04-17 |
CN111027505B true CN111027505B (zh) | 2022-12-23 |
Family
ID=70210744
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911314479.5A Active CN111027505B (zh) | 2019-12-19 | 2019-12-19 | 一种基于显著性检测的分层多目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111027505B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111652903B (zh) * | 2020-05-22 | 2023-09-08 | 重庆理工大学 | 一种自动驾驶场景下基于卷积关联网络的行人目标跟踪方法 |
CN113744304A (zh) * | 2020-05-30 | 2021-12-03 | 华为技术有限公司 | 一种目标检测跟踪的方法和装置 |
CN111898598B (zh) * | 2020-07-03 | 2022-08-30 | 贵州大学 | 一种动态场景下基于文本的目标检测方法 |
CN112163990B (zh) * | 2020-09-08 | 2022-10-25 | 上海交通大学 | 360度图像的显著性预测方法及系统 |
CN112560656B (zh) * | 2020-12-11 | 2024-04-02 | 成都东方天呈智能科技有限公司 | 一种联合注意力机制端到端训练的行人多目标跟踪方法 |
CN112989958A (zh) * | 2021-02-22 | 2021-06-18 | 哈工大机器人集团(无锡)科创基地研究院 | 基于YOLOv4与显著性检测的安全帽佩戴识别方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104637052A (zh) * | 2015-01-22 | 2015-05-20 | 西南交通大学 | 基于目标引导显著性检测的对象跟踪方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103116896B (zh) * | 2013-03-07 | 2015-07-15 | 中国科学院光电技术研究所 | 一种基于视觉显著性模型的自动检测跟踪方法 |
CN107330920B (zh) * | 2017-06-28 | 2020-01-03 | 华中科技大学 | 一种基于深度学习的监控视频多目标追踪方法 |
US10685244B2 (en) * | 2018-02-27 | 2020-06-16 | Tusimple, Inc. | System and method for online real-time multi-object tracking |
CN108573496B (zh) * | 2018-03-29 | 2020-08-11 | 淮阴工学院 | 基于lstm网络和深度增强学习的多目标跟踪方法 |
-
2019
- 2019-12-19 CN CN201911314479.5A patent/CN111027505B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104637052A (zh) * | 2015-01-22 | 2015-05-20 | 西南交通大学 | 基于目标引导显著性检测的对象跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111027505A (zh) | 2020-04-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111027505B (zh) | 一种基于显著性检测的分层多目标跟踪方法 | |
AU2020100371A4 (en) | Hierarchical multi-object tracking method based on saliency detection | |
CN110210551B (zh) | 一种基于自适应主体敏感的视觉目标跟踪方法 | |
CN109800689B (zh) | 一种基于时空特征融合学习的目标跟踪方法 | |
CN102789568B (zh) | 一种基于深度信息的手势识别方法 | |
CN103413444B (zh) | 一种基于无人机高清视频的交通流调查处理方法 | |
CN111832393B (zh) | 一种基于深度学习的视频目标检测方法与装置 | |
CN108830170B (zh) | 一种基于分层特征表示的端到端目标跟踪方法 | |
CN111310593B (zh) | 一种基于结构感知的超快速车道线检测方法 | |
CN115512251A (zh) | 基于双分支渐进式特征增强的无人机低照度目标跟踪方法 | |
Zhang et al. | A semi-supervised 3D object detection method for autonomous driving | |
CN110827320A (zh) | 基于时序预测的目标跟踪方法和装置 | |
CN116071668A (zh) | 基于多尺度特征融合的无人机航拍图像目标检测方法 | |
Zhang et al. | PSNet: Perspective-sensitive convolutional network for object detection | |
CN111882581A (zh) | 一种深度特征关联的多目标跟踪方法 | |
Liu et al. | Multi-lane detection by combining line anchor and feature shift for urban traffic management | |
WO2024160219A1 (zh) | 一种模型量化方法及其装置 | |
CN104463962A (zh) | 基于gps信息视频的三维场景重建方法 | |
CN117576149A (zh) | 一种基于注意力机制的单目标跟踪方法 | |
CN112115786A (zh) | 基于注意力U-net的单目视觉里程计方法 | |
CN114820931B (zh) | 基于虚拟现实的智慧城市cim可视化实时成像方法 | |
Yao et al. | MLP-based Efficient Convolutional Neural Network for Lane Detection | |
Liu et al. | Semantic segmentation network of remote sensing images with dynamic loss fusion strategy | |
CN115331171A (zh) | 基于深度信息和显著性信息的人群计数方法及系统 | |
Qi et al. | Vehicle detection under unmanned aerial vehicle based on improved YOLOv3 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |