CN112270365A - 目标跟踪方法 - Google Patents
目标跟踪方法 Download PDFInfo
- Publication number
- CN112270365A CN112270365A CN202011203073.2A CN202011203073A CN112270365A CN 112270365 A CN112270365 A CN 112270365A CN 202011203073 A CN202011203073 A CN 202011203073A CN 112270365 A CN112270365 A CN 112270365A
- Authority
- CN
- China
- Prior art keywords
- result
- information
- analysis information
- detection
- template
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 23
- 238000001514 detection method Methods 0.000 claims abstract description 61
- 238000004458 analytical method Methods 0.000 claims abstract description 45
- 238000012216 screening Methods 0.000 claims abstract description 7
- 230000009466 transformation Effects 0.000 claims abstract description 4
- 238000004364 calculation method Methods 0.000 claims description 4
- 230000002708 enhancing effect Effects 0.000 claims description 3
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003703 image analysis method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种目标跟踪方法,其包括以下步骤:S1.将模板信息与搜索区域信息传输进入检测网络中;S2.所述检测网络对所述模板信息进行检测并得到第一模板分析信息,所述检测网络对所述区域信息进行检测并得到第一区域分析信息;S3.所述检测网络计算所述第一模板分析信息以及所述第一区域分析信息之间的点云序列相似性并得到第一检测结果;S4.所述检测网络将所述第一检测结果进行霍夫变换并进行区域投影的到第一投影结果;以及S5.对所述第一投影结果进行聚类与处理,筛选出最高得分的决策生成跟踪结果。检测网络对模板信息与搜索区域信息进行结合与检测,提高目标跟踪过程的精准性与实时性。
Description
技术领域
本发明涉及图像分析方法领域,具体涉及一种目标跟踪方法。
背景技术
卷积神经网络是一种包含卷积计算且具有深度结构的前馈神经网络,是深度学习的代表算法之一。现有的卷积神经网络在图像的处理以及分析领域有很深的应用,在图像识别以及目标跟踪的过程中均有着重要的应用。尽管基于卷积神经网络的目标跟踪方法已经取得了很多成果,但在时间连续性和空间信息建模方面还有待进一步改善。近年来,递归神经网络尤其是带有门结构的GRU、LSTM等在时序任务上显示出了突出的性能,因此不少研究者开始探索如何应用递归神经网络来解决现有跟踪任务中存在的问题。然而基于深度分类网络的目标跟踪方法存在以下两个方面的问题:(1)每一帧中的正样本空间上高度重合,不能获取丰富的表观信息;(2)正负样本的比例严重不平衡。通过对抗学习的方法来解决这两个问题。
现有的基于卷积神经网络的目标跟踪方法主要有两方面问题:1、无法明确区分具有相同属性或语义的两个目标;2、跟踪器遇到没见过的类别或者目标形状变化较大时容易发生漂移。
发明内容
本发明的目的是提供一种目标跟踪方法,其能够解决现有的目标跟踪方法的缺陷,具体地,一种目标跟踪方法,其包括以下步骤:S1.将模板信息与搜索区域信息传输进入检测网络中;S2.所述检测网络对所述模板信息进行检测并得到第一模板分析信息,所述检测网络对所述区域信息进行检测并得到第一区域分析信息;S3.所述检测网络计算所述第一模板分析信息以及所述第一区域分析信息之间的点云序列相似性并得到第一检测结果;S4.所述检测网络将所述第一检测结果进行霍夫变换并进行区域投影的到第一投影结果;以及S5.对所述第一投影结果进行聚类与处理,筛选出最高得分的决策生成跟踪结果。
根据本发明的实施例,所述S3步骤具体为:S301.计算所述第一模板分析信息以及所述第一区域分析信息之间的点序排列相似性;以及S302.对所述S301步骤中的计算结果进行特征增强得到所述第一检测结果。
根据本发明的实施例,所述S4步骤具体为:S401.对所述第一检测结果进行分类;S402.对分类后的所述第一检测结果进行霍夫投票,将所述第一检测结果中的所述第一区域分析信息投影到所述第一模板分析信息上;以及S403.增强所述投影到所述第一模板分析信息上的所述第一区域分析信息并得到所述第一投影结果。
根据本发明的实施例,所述S5步骤具体为:S501.将所述第一投影结果聚类在投影区域;以及S502.计算所述第一投影结果的目标中心得分并筛选出所述目标中心得分最高的作为跟踪结果。
根据本发明的实施例,所述检测网络为PointNet++网络。
通过采用上述技术方案,本发明主要有如下几点技术效果:
1.检测网络对模板信息与搜索区域信息进行结合与检测,提高目标跟踪过程的精准性与实时性;
2.通过计算点云中的点序排列来对第一模板分析信息与第一区域分析信息进行分析,提高分析的准确性;
3.通过霍夫投票得到第一投影结果,提高第一投影结果的准确性以及鲁棒性。
附图说明
图1为根据本发明的实施例的目标跟踪方法的示意图。
具体实施方式
下面结合说明书附图来说明本发明的具体实施方式。
本发明公开了一种目标跟踪方法,其包括以下步骤:
S1.将模板信息与搜索区域信息传输进入检测网络中;
S2.所述检测网络对所述模板信息进行检测并得到第一模板分析信息,所述检测网络对所述区域信息进行检测并得到第一区域分析信息;
S3.所述检测网络计算所述第一模板分析信息以及所述第一区域分析信息之间的点云序列相似性并得到第一检测结果;
S4.所述检测网络将所述第一检测结果进行霍夫变换并进行区域投影的到第一投影结果;以及
S5.对所述第一投影结果进行聚类与处理,筛选出最高得分的决策生成跟踪结果。
其中,上述步骤中的检测网络为基于卷积神经网络的检测网络,为提高检测网络的检测效率以及检测成功率,本实施例中的检测网络为PointNet++网络,PointNet++网络是一种利用encoder-decoder结构,逐层提高特征等级,在到达最高层之后通过skip linkconnection操作恢复局部信息,从而使得检测网络能够同时获取高阶特征信息以及低阶特征信息,提高检测网络的数据全面性以及分析的准确性。
其中S1步骤中将模板信息与搜索区域信息传输进入检测网络中的方法包括但不限于通过计算机传输或通过设备直接进行传输。搜索区域信息可以为计算机中针对地图进行预设的搜索区域,也可以为根据拍摄模块拍摄的图像来进行判断的搜索区域。
其中S3具体为:S301.计算第一模板分析信息以及第一区域分析信息之间的点云的点序排列的相似性;以及S302.对所述S301步骤中的计算结果进行特征增强的到所述第一检测结果。第一检测结果为检测网络计算第一模板分析信息以及第一区域分析信息之间的点云中的点序排列的相似性得出的结果,结合了模板分析信息之后的分析结果更加准确,并且分析点云中的点序排列的相似性也能够提高检测网络的检测速度。
其中S4步骤具体为:S401.对所述第一检测结果进行分类;S402.对分类后的所述第一检测结果进行霍夫投票,将所述第一检测结果中的所述第一区域分析信息投影到所述第一模板分析信息上;以及S403.增强所述投影到所述第一模板分析信息上的所述第一区域分析信息并得到所述第一投影结果。本实施例中的投影过程是通过霍夫投票的方式来进行,通过霍夫投票将第一区域分析信息投影在第一模板分析信息的潜在中心上,并增强这些潜在中心的判别力,最后得出第一投影结果。
其中S5步骤具体为:S501.将所述第一投影结果聚类在投影区域;以及S502.计算第一投影结果的目标中心得分并筛选出目标中心得分最高的作为跟踪结果。本实施例中的具体步骤为对每个潜在中心进行聚类和3D目标决策,具有最高得分的决策被验证为最终的跟踪结果。
以上实施方式仅用于说明本发明,而并非对本发明的限制,有关技术领域的普通技术人员,在不脱离本发明的精神和范围的情况下,还可以做出各种变化和变型,因此所有等同的技术方案也属于本发明的范畴,本发明的专利保护范围应由权利要求限定。
Claims (5)
1.一种目标跟踪方法,其特征在于,包括以下步骤:
S1.将模板信息与搜索区域信息传输进入检测网络中;
S2.所述检测网络对所述模板信息进行检测并得到第一模板分析信息,所述检测网络对所述区域信息进行检测并得到第一区域分析信息;
S3.所述检测网络计算所述第一模板分析信息以及所述第一区域分析信息之间的点云序列相似性并得到第一检测结果;
S4.所述检测网络将所述第一检测结果进行霍夫变换并进行区域投影的到第一投影结果;以及
S5.对所述第一投影结果进行聚类与处理,筛选出最高得分的决策生成跟踪结果。
2.根据权利要求1所述的跟踪方法,其特征在于:
所述S3步骤具体为:
S301.计算所述第一模板分析信息以及所述第一区域分析信息之间的点云序列中的点序排列的相似性;以及
S302.对所述S301步骤中的计算结果进行特征增强得到所述第一检测结果。
3.根据权利要求1所述的跟踪方法,其特征在于:
所述S4步骤具体为:
S401.对所述第一检测结果进行分类;
S402.对分类后的所述第一检测结果进行霍夫投票,将所述第一检测结果中的所述第一区域分析信息投影到所述第一模板分析信息上;以及
S403.增强所述投影到所述第一模板分析信息上的所述第一区域分析信息并得到所述第一投影结果。
4.根据权利要求1所述的跟踪方法,其特征在于:
所述S5步骤具体为:
S501.将所述第一投影结果聚类在投影区域;以及
S502.计算所述第一投影结果的目标中心得分并筛选出所述目标中心得分最高的作为跟踪结果。
5.根据权利要求1至4中任一项所述的跟踪方法,其特征在于:
所述检测网络为PointNet++网络。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011203073.2A CN112270365A (zh) | 2020-11-02 | 2020-11-02 | 目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011203073.2A CN112270365A (zh) | 2020-11-02 | 2020-11-02 | 目标跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112270365A true CN112270365A (zh) | 2021-01-26 |
Family
ID=74344562
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011203073.2A Pending CN112270365A (zh) | 2020-11-02 | 2020-11-02 | 目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112270365A (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110969648A (zh) * | 2019-12-11 | 2020-04-07 | 华中科技大学 | 一种基于点云序列数据的3d目标跟踪方法及系统 |
CN111161317A (zh) * | 2019-12-30 | 2020-05-15 | 北京工业大学 | 一种基于多重网络的单目标跟踪方法 |
-
2020
- 2020-11-02 CN CN202011203073.2A patent/CN112270365A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110969648A (zh) * | 2019-12-11 | 2020-04-07 | 华中科技大学 | 一种基于点云序列数据的3d目标跟踪方法及系统 |
CN111161317A (zh) * | 2019-12-30 | 2020-05-15 | 北京工业大学 | 一种基于多重网络的单目标跟踪方法 |
Non-Patent Citations (1)
Title |
---|
HAOZHE QI等: "P2B:Point-to-Box Network for 3D Object Tracking in Point Clouds", 2020 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》, 5 August 2020 (2020-08-05), pages 6328 - 6334 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111275688A (zh) | 基于注意力机制的上下文特征融合筛选的小目标检测方法 | |
CN108288088B (zh) | 一种基于端到端全卷积神经网络的场景文本检测方法 | |
WO2023065395A1 (zh) | 作业车辆检测与跟踪方法和系统 | |
WO2021103868A1 (zh) | 一种行人结构化方法、装置、设备和存储介质 | |
CN111080693A (zh) | 一种基于YOLOv3的机器人自主分类抓取方法 | |
CN108961235A (zh) | 一种基于YOLOv3网络和粒子滤波算法的缺陷绝缘子识别方法 | |
US10410354B1 (en) | Method and apparatus for multi-model primitive fitting based on deep geometric boundary and instance aware segmentation | |
CN111754498A (zh) | 一种基于YOLOv3的传送带托辊检测方法 | |
Mahaur et al. | Road object detection: a comparative study of deep learning-based algorithms | |
CN113205063A (zh) | 一种输电导线缺陷的视觉识别及定位方法 | |
CN115439458A (zh) | 基于深度图注意力的工业图像缺陷目标检测算法 | |
CN111008576B (zh) | 行人检测及其模型训练、更新方法、设备及可读存储介质 | |
CN109829458B (zh) | 实时自动生成记录系统操作行为的日志文件的方法 | |
US20230041943A1 (en) | Method for automatically producing map data, and related apparatus | |
CN113344967B (zh) | 一种复杂背景下的动态目标识别追踪方法 | |
Zhao et al. | Detection of passenger flow on and off buses based on video images and YOLO algorithm | |
WO2022199360A1 (zh) | 运动物体的定位方法、装置、电子设备及存储介质 | |
Tao et al. | Gap detection of switch machines in complex environment based on object detection and image processing | |
CN107247967B (zh) | 一种基于r-cnn的车窗年检标检测方法 | |
CN103679214A (zh) | 基于在线面积估计和多特征决策融合的车辆检测方法 | |
CN110909656B (zh) | 一种雷达与摄像机融合的行人检测方法和系统 | |
Yin | Object Detection Based on Deep Learning: A Brief Review | |
CN112115810A (zh) | 基于信息融合的目标识别方法、系统、计算机设备和存储介质 | |
CN112270365A (zh) | 目标跟踪方法 | |
CN114283280A (zh) | 一种基于改进卷积神经网络的水面漂浮垃圾识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |