CN112419362B - 一种基于先验信息特征学习的运动目标跟踪方法 - Google Patents
一种基于先验信息特征学习的运动目标跟踪方法 Download PDFInfo
- Publication number
- CN112419362B CN112419362B CN201910773901.7A CN201910773901A CN112419362B CN 112419362 B CN112419362 B CN 112419362B CN 201910773901 A CN201910773901 A CN 201910773901A CN 112419362 B CN112419362 B CN 112419362B
- Authority
- CN
- China
- Prior art keywords
- target
- specific
- tracking
- model
- probability map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于先验信息特征学习的运动目标跟踪方法,包括步骤:一、生成目标概率图模型;二、确定特定跟踪目标的位置与尺度信息;三、特定跟踪目标模型进行差异化调整更新。本发明离线收集特定目标先验信息并生成训练样本,并利用卷积神经网络对训练样本进行预训练,生成目标概率图模型;然后采用多尺度中心搜寻策略来判定特定目标的大致区域,并根据目标概率图模型来进一步确定特定目标的位置与尺度信息;最后通过双层卷积神经网络模型,并结合负样本的稳定性对特定目标模型进行差异化调整更新。
Description
技术领域
本发明属于运动目标跟踪技术领域,具体涉及一种基于先验信息特征学习的运动目标跟踪方法。
背景技术
运动目标跟踪是智能视频分析领域的重要研究课题和应用方向,一般可分为基于状态推理的跟踪方法和基于检测识别的跟踪方法两类。基于状态推理的跟踪方法通常在贝叶斯推理框架下实现,该方法假设目标的运动和观测服从一定的规律,从而通过求解目标运动参数的后验概率来实现运动目标的跟踪。基于状态推理的跟踪方法依赖于运动目标的动态模型和观测模型,然而在很多情况下,动态模型和观测模型无法得到准确的结果,此时只能采用粒子滤波等近似实现对运动目标的跟踪估计。基于检测识别的跟踪方法将跟踪归结为检测、识别问题,并搜索、匹配当前图像中与目标参考模型最相似的区域作为运动目标的跟踪结果。基于检测识别的跟踪方法通常需要不断在线收集跟踪过程中的目标样本数据,当目标样本数据不足时,其跟踪效果不理想。
近年来,诸如卷积神经网络、深度神经网络等深度学习方法受到了前所未有的关注,由于深度学习方法能够通过底层特征的学习,挖掘出样本数据更高层级的深度特征,而这些被抽象表达的深度特征被认为更能反映目标深层次的本质,因此相比于底层特征的学习,该类特征描述方法可显著提升性能。目前,深度学习方法已在图像识别、目标检测等领域取得了较大成功,并在表征图像位移、尺度变化和其他扭曲形式方面表现出了非常强的生命力,而这些又是运动目标跟踪中选取目标特征时最为看重的关键性因素,但其在运动目标跟踪领域的探索应用却相当稀少。
发明内容
本发明所要解决的技术问题在于针对上述现有技术中的不足,提供一种基于先验信息特征学习的运动目标跟踪方法,离线收集特定目标先验信息并生成训练样本,并利用卷积神经网络对训练样本进行预训练,生成目标概率图模型;然后采用多尺度中心搜寻策略来判定特定目标的大致区域,并根据目标概率图模型来进一步确定特定目标的位置与尺度信息;最后通过双层卷积神经网络模型,并结合负样本的稳定性对特定目标模型进行差异化调整更新,便于推广使用。
为解决上述技术问题,本发明采用的技术方案是:一种基于先验信息特征学习的运动目标跟踪方法,其特征在于,该方法包括以下步骤:
步骤一、生成目标概率图模型:离线收集特定运动目标的先验信息并生成训练样本,利用卷积神经网络对训练样本进行预训练,生成目标概率图模型,过程如下:
步骤101、选取Image Net 2014数据集中包含某个特定运动目标的图片作为正样本,不包含该特定运动目标的图片作为负样本;
步骤102、利用卷积神经网络模型对上述样本进行训练;
步骤103、输出50×50的目标概率图,概率图上的每个像素点对应原始输入视频帧的一个2×2区域,并且该像素点的值代表原始输入视频帧属于特定运动目标的概率大小;
步骤二、确定特定跟踪目标的位置与尺度信息:通过自动选择或人工标注方式选取特定跟踪目标,采用多尺度中心搜寻策略确定特定跟踪目标的大致区域,并根据目标概率图模型进一步精确确定特定跟踪目标的位置与尺度信息,过程如下:
步骤201、初始时刻,通过自动选择或人工标注方式选取特定跟踪目标;
步骤202、任意t时刻,利用多尺度中心搜寻策略确定特定跟踪目标的大致区域,过程如下:
步骤A、计算t-1时刻特定跟踪目标矩形框的中心,从而确定搜索中心点;
步骤B、根据初始时刻获得的特定跟踪目标真实尺度信息,采用最小的搜索尺度对目标进行搜索,当目标概率图的输出概率小于一定阈值时,则判定目标不在该搜索尺度范围内,转入步骤C;
步骤C、继续搜索特定跟踪目标,并加大搜索尺度,直至目标概率图的输出概率大于设定阈值时,则确定目标在该搜索尺度范围内;
步骤D、若各种搜索尺度均不能发现特定跟踪目标,则判定目标丢失;
步骤203、与离线阶段获得的目标概率图进行匹配度量,从而确定最佳的目标位置与具体尺度,过程如下:
步骤I、确定最佳的特定目标跟踪框中心位置。首先设定目标概率图对应的阈值λ1,采用基于密度基的方法进行搜索,当跟踪框内所有区域目标概率图均高于阈值λ1时,即停止搜索,此时可确定该跟踪框中心即为当前时刻特定目标跟踪框的中心点;
步骤II、确定跟踪框尺度,令M表示目标概率图,mij表示目标概率图M中(i,j)位置对应的概率值,若设跟踪框的左上角位置坐标为(x,y),宽为a,高度为b,根据公式计算跟踪框尺度c,其中,ε为平衡系数,用来平衡跟踪框的尺度;
步骤三、特定跟踪目标模型进行差异化调整更新:通过双层卷积神经网络模型,对特定跟踪目标模型进行差异化调整更新。
上述的一种基于先验信息特征学习的运动目标跟踪方法,其特征在于:步骤101中对每个正样本边界框内部随机进行特定目标像素填充。
上述的一种基于先验信息特征学习的运动目标跟踪方法,其特征在于:步骤101中,当特定运动目标预测边界框与正样本的重合率低于一定阈值时,随机将其内部像素标记为负样本。
上述的一种基于先验信息特征学习的运动目标跟踪方法,其特征在于:步骤103中,先设置逻辑回归模型,并定义对应的损耗函数其中,mij表示位置(i,j)的预测像素值,nij表示位置(i,j)真实值的二值表示;正样本数据边界框内部设置为1,外部设置为0,负样本数据统一设置为0。
本发明与现有技术相比具有以下优点:
1、本发明任意t时刻特定跟踪目标矩形框位置、尺度确定后,需要对目标模型进行更新,其基本思路是分别构建两个卷积神经网络模型,一个用于短时表观模型更新,另一个用于长时表观模型更新:首先,两个卷积神经网络模型均在视频输入的第一帧完成模型的初始化;然后,长时表观模型保持相对稳定,短时表观模型更新则一直保持动态的调整;通过二者的协同,短时表观模型更新保持与表观变化的自适应调整,而长时表观模型可以抑制潜在的积累误差,便于推广使用。
2、本发明离线收集特定目标先验信息并生成训练样本,并利用卷积神经网络对训练样本进行预训练,生成目标概率图模型;然后采用多尺度中心搜寻策略来判定特定目标的大致区域,并根据目标概率图模型来进一步确定特定目标的位置与尺度信息,可靠稳定,使用效果好。
3、本发明方法步骤简单,易于实现,便于推广使用。
综上所述,本发明离线收集特定目标先验信息并生成训练样本,并利用卷积神经网络对训练样本进行预训练,生成目标概率图模型;然后采用多尺度中心搜寻策略来判定特定目标的大致区域,并根据目标概率图模型来进一步确定特定目标的位置与尺度信息;最后通过双层卷积神经网络模型,并结合负样本的稳定性对特定目标模型进行差异化调整更新,便于推广使用。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
图1为本发明方法的方法流程框图。
具体实施方式
如图1所示,本发明的一种基于先验信息特征学习的运动目标跟踪方法,包括以下步骤:
步骤一、生成目标概率图模型:离线收集特定运动目标的先验信息并生成训练样本,利用卷积神经网络对训练样本进行预训练,生成目标概率图模型,过程如下:
步骤101、选取Image Net 2014数据集中包含某个特定运动目标的图片作为正样本,不包含该特定运动目标的图片作为负样本;
步骤102、利用卷积神经网络模型对上述样本进行训练;
步骤103、输出50×50的目标概率图,概率图上的每个像素点对应原始输入视频帧的一个2×2区域,并且该像素点的值代表原始输入视频帧属于特定运动目标的概率大小;
步骤二、确定特定跟踪目标的位置与尺度信息:通过自动选择或人工标注方式选取特定跟踪目标,采用多尺度中心搜寻策略确定特定跟踪目标的大致区域,并根据目标概率图模型进一步精确确定特定跟踪目标的位置与尺度信息,过程如下:
步骤201、初始时刻,通过自动选择或人工标注方式选取特定跟踪目标;
步骤202、任意t时刻,利用多尺度中心搜寻策略确定特定跟踪目标的大致区域,过程如下:
步骤A、计算t-1时刻特定跟踪目标矩形框的中心,从而确定搜索中心点;
步骤B、根据初始时刻获得的特定跟踪目标真实尺度信息,采用最小的搜索尺度对目标进行搜索,当目标概率图的输出概率小于一定阈值时,则判定目标不在该搜索尺度范围内,转入步骤C;
步骤C、继续搜索特定跟踪目标,并加大搜索尺度,直至目标概率图的输出概率大于设定阈值时,则确定目标在该搜索尺度范围内;
步骤D、若各种搜索尺度均不能发现特定跟踪目标,则判定目标丢失;
步骤203、与离线阶段获得的目标概率图进行匹配度量,从而确定最佳的目标位置与具体尺度,过程如下:
步骤I、确定最佳的特定目标跟踪框中心位置。首先设定目标概率图对应的阈值λ1,采用基于密度基的方法进行搜索,当跟踪框内所有区域目标概率图均高于阈值λ1时,即停止搜索,此时可确定该跟踪框中心即为当前时刻特定目标跟踪框的中心点;
步骤II、确定跟踪框尺度,令M表示目标概率图,mij表示目标概率图M中(i,j)位置对应的概率值,若设跟踪框的左上角位置坐标为(x,y),宽为a,高度为b,根据公式计算跟踪框尺度c,其中,ε为平衡系数,用来平衡跟踪框的尺度;
步骤三、特定跟踪目标模型进行差异化调整更新:通过双层卷积神经网络模型,对特定跟踪目标模型进行差异化调整更新。
本实施例中,步骤101中对每个正样本边界框内部随机进行特定目标像素填充。
本实施例中,步骤101中,当特定运动目标预测边界框与正样本的重合率低于一定阈值时,随机将其内部像素标记为负样本。
本实施例中,步骤103中,先设置逻辑回归模型,并定义对应的损耗函数其中,mij表示位置(i,j)的预测像素值,nij表示位置(i,j)真实值的二值表示;正样本数据边界框内部设置为1,外部设置为0,负样本数据统一设置为0。
本发明使用时,任意t时刻特定跟踪目标矩形框位置、尺度确定后,需要对目标模型进行更新,其基本思路是分别构建两个卷积神经网络模型,一个用于短时表观模型更新,另一个用于长时表观模型更新:首先,两个卷积神经网络模型均在视频输入的第一帧完成模型的初始化;然后,长时表观模型保持相对稳定,短时表观模型更新则一直保持动态的调整;通过二者的协同,短时表观模型更新保持与表观变化的自适应调整,而长时表观模型可以抑制潜在的积累误差;离线收集特定目标先验信息并生成训练样本,并利用卷积神经网络对训练样本进行预训练,生成目标概率图模型;然后采用多尺度中心搜寻策略来判定特定目标的大致区域,并根据目标概率图模型来进一步确定特定目标的位置与尺度信息,易于实现。
以上所述,仅是本发明的较佳实施例,并非对本发明作任何限制,凡是根据本发明技术实质对以上实施例所作的任何简单修改、变更以及等效结构变化,均仍属于本发明技术方案的保护范围内。
Claims (4)
1.一种基于先验信息特征学习的运动目标跟踪方法,其特征在于,该方法包括以下步骤:
步骤一、生成目标概率图模型:离线收集特定运动目标的先验信息并生成训练样本,利用卷积神经网络对训练样本进行预训练,生成目标概率图模型,过程如下:
步骤101、选取Image Net 2014数据集中包含某个特定运动目标的图片作为正样本,不包含该特定运动目标的图片作为负样本;
步骤102、利用卷积神经网络模型对上述样本进行训练;
步骤103、输出50×50的目标概率图,概率图上的每个像素点对应原始输入视频帧的一个2×2区域,并且该像素点的值代表原始输入视频帧属于特定运动目标的概率大小;
步骤二、确定特定跟踪目标的位置与尺度信息:通过自动选择或人工标注方式选取特定跟踪目标,采用多尺度中心搜寻策略确定特定跟踪目标的大致区域,并根据目标概率图模型进一步精确确定特定跟踪目标的位置与尺度信息,过程如下:
步骤201、初始时刻,通过自动选择或人工标注方式选取特定跟踪目标;
步骤202、任意t时刻,利用多尺度中心搜寻策略确定特定跟踪目标的大致区域,过程如下:
步骤A、计算t-1时刻特定跟踪目标矩形框的中心,从而确定搜索中心点;
步骤B、根据初始时刻获得的特定跟踪目标真实尺度信息,采用最小的搜索尺度对目标进行搜索,当目标概率图的输出概率小于一定阈值时,则判定目标不在该搜索尺度范围内,转入步骤C;
步骤C、继续搜索特定跟踪目标,并加大搜索尺度,直至目标概率图的输出概率大于设定阈值时,则确定目标在该搜索尺度范围内;
步骤D、若各种搜索尺度均不能发现特定跟踪目标,则判定目标丢失;
步骤203、与离线阶段获得的目标概率图进行匹配度量,从而确定最佳的目标位置与具体尺度,过程如下:
步骤I、确定最佳的特定目标跟踪框中心位置,首先设定目标概率图对应的阈值λ1,采用基于密度基的方法进行搜索,当跟踪框内所有区域目标概率图均高于阈值λ1时,即停止搜索,此时可确定该跟踪框中心即为当前时刻特定目标跟踪框的中心点;
步骤II、确定跟踪框尺度,令M表示目标概率图,mij表示目标概率图M中(i,j)位置对应的概率值,若设跟踪框的左上角位置坐标为(x,y),宽为a,高度为b,根据公式计算跟踪框尺度c,其中,ε为平衡系数,用来平衡跟踪框的尺度;
步骤三、特定跟踪目标模型进行差异化调整更新:通过双层卷积神经网络模型,对特定跟踪目标模型进行差异化调整更新;
2.按照权利要求1所述的一种基于先验信息特征学习的运动目标跟踪方法,其特征在于:步骤101中对每个正样本边界框内部随机进行特定目标像素填充。
3.按照权利要求1所述的一种基于先验信息特征学习的运动目标跟踪方法,其特征在于:步骤101中,当特定运动目标预测边界框与正样本的重合率低于一定阈值时,随机将其内部像素标记为负样本。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910773901.7A CN112419362B (zh) | 2019-08-21 | 2019-08-21 | 一种基于先验信息特征学习的运动目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910773901.7A CN112419362B (zh) | 2019-08-21 | 2019-08-21 | 一种基于先验信息特征学习的运动目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112419362A CN112419362A (zh) | 2021-02-26 |
CN112419362B true CN112419362B (zh) | 2023-07-07 |
Family
ID=74780108
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910773901.7A Active CN112419362B (zh) | 2019-08-21 | 2019-08-21 | 一种基于先验信息特征学习的运动目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112419362B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113570207B (zh) * | 2021-07-09 | 2024-04-26 | 北京淇瑀信息科技有限公司 | 用户策略分配方法、装置及电子设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104637052A (zh) * | 2015-01-22 | 2015-05-20 | 西南交通大学 | 基于目标引导显著性检测的对象跟踪方法 |
US9443320B1 (en) * | 2015-05-18 | 2016-09-13 | Xerox Corporation | Multi-object tracking with generic object proposals |
CN106056626A (zh) * | 2016-05-26 | 2016-10-26 | 河海大学 | 一种基于前景背景模型交互的运动目标检测方法 |
WO2018095082A1 (zh) * | 2016-11-28 | 2018-05-31 | 江苏东大金智信息系统有限公司 | 一种视频监测中运动目标的快速检测方法 |
CN109271883A (zh) * | 2018-08-28 | 2019-01-25 | 武汉科技大学 | 一种融合学习机制的目标跟踪方法 |
CN109671102A (zh) * | 2018-12-03 | 2019-04-23 | 华中科技大学 | 一种基于深度特征融合卷积神经网络的综合式目标跟踪方法 |
CN109903266A (zh) * | 2019-01-21 | 2019-06-18 | 深圳市华成工业控制有限公司 | 一种基于样本窗的双核密度估计实时背景建模方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9141196B2 (en) * | 2012-04-16 | 2015-09-22 | Qualcomm Incorporated | Robust and efficient learning object tracker |
-
2019
- 2019-08-21 CN CN201910773901.7A patent/CN112419362B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104637052A (zh) * | 2015-01-22 | 2015-05-20 | 西南交通大学 | 基于目标引导显著性检测的对象跟踪方法 |
US9443320B1 (en) * | 2015-05-18 | 2016-09-13 | Xerox Corporation | Multi-object tracking with generic object proposals |
CN106056626A (zh) * | 2016-05-26 | 2016-10-26 | 河海大学 | 一种基于前景背景模型交互的运动目标检测方法 |
WO2018095082A1 (zh) * | 2016-11-28 | 2018-05-31 | 江苏东大金智信息系统有限公司 | 一种视频监测中运动目标的快速检测方法 |
CN109271883A (zh) * | 2018-08-28 | 2019-01-25 | 武汉科技大学 | 一种融合学习机制的目标跟踪方法 |
CN109671102A (zh) * | 2018-12-03 | 2019-04-23 | 华中科技大学 | 一种基于深度特征融合卷积神经网络的综合式目标跟踪方法 |
CN109903266A (zh) * | 2019-01-21 | 2019-06-18 | 深圳市华成工业控制有限公司 | 一种基于样本窗的双核密度估计实时背景建模方法及装置 |
Non-Patent Citations (4)
Title |
---|
Action-Decision Networks for Visual Tracking with Deep Reinforcement Learning;Sangdoo Yun等;《IEEE Conference on Computer Vision and Pattern Recognition》;20170731;第2711-2720页 * |
The Sixth Visual Object Tracking VOT2018 Challenge Results;Matej Kristan等;《 Computer Vision – ECCV 2018 Workshops》;20190131;第3-53页 * |
基于改进的TLD目标跟踪算法;胡欣等;《计算机应用研究》;20180912(第05期);全文 * |
改进视觉背景提取模型的运动目标检测算法;苏延召 等;《计算机辅助设计与图形学学报》;20140228;第28-34页 * |
Also Published As
Publication number | Publication date |
---|---|
CN112419362A (zh) | 2021-02-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108399362B (zh) | 一种快速行人检测方法及装置 | |
CN107609525B (zh) | 基于剪枝策略构建卷积神经网络的遥感图像目标检测方法 | |
CN110781924B (zh) | 一种基于全卷积神经网络的侧扫声纳图像特征提取方法 | |
CN112101430B (zh) | 用于图像目标检测处理的锚框生成方法及轻量级目标检测方法 | |
CN108830196A (zh) | 基于特征金字塔网络的行人检测方法 | |
CN111680702B (zh) | 一种使用检测框实现弱监督图像显著性检测的方法 | |
CN112884742B (zh) | 一种基于多算法融合的多目标实时检测、识别及跟踪方法 | |
CN111476817A (zh) | 一种基于yolov3的多目标行人检测跟踪方法 | |
CN112734775A (zh) | 图像标注、图像语义分割、模型训练方法及装置 | |
CN113486764B (zh) | 一种基于改进的YOLOv3的坑洼检测方法 | |
CN112489081B (zh) | 一种视觉目标跟踪方法及装置 | |
CN113361645B (zh) | 基于元学习及知识记忆的目标检测模型构建方法及系统 | |
CN110781262A (zh) | 基于视觉slam的语义地图的构建方法 | |
CN114332578A (zh) | 图像异常检测模型训练方法、图像异常检测方法和装置 | |
CN111198964A (zh) | 图像检索方法及系统 | |
CN112950780B (zh) | 一种基于遥感影像的网络地图智能生成方法及系统 | |
CN109710804B (zh) | 一种教学视频图像知识点降维分析方法 | |
CN112364931A (zh) | 基于元特征和权重调整的少样本目标检测方法及网络模型 | |
CN114677323A (zh) | 一种室内动态场景下基于目标检测的语义视觉slam定位方法 | |
CN109635667A (zh) | 一种基于Guided Faster-RCNN的车辆检测系统 | |
CN103105924A (zh) | 人机交互方法和装置 | |
CN115049841A (zh) | 基于深度无监督多步对抗域自适应的高分辨sar图像地物要素提取方法 | |
CN112883931A (zh) | 基于长短期记忆网络的实时真假运动判断方法 | |
CN105427348A (zh) | 一种基于蝙蝠算法的视频目标跟踪方法 | |
CN112419362B (zh) | 一种基于先验信息特征学习的运动目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |