CN104637052A - 基于目标引导显著性检测的对象跟踪方法 - Google Patents
基于目标引导显著性检测的对象跟踪方法 Download PDFInfo
- Publication number
- CN104637052A CN104637052A CN201510031269.0A CN201510031269A CN104637052A CN 104637052 A CN104637052 A CN 104637052A CN 201510031269 A CN201510031269 A CN 201510031269A CN 104637052 A CN104637052 A CN 104637052A
- Authority
- CN
- China
- Prior art keywords
- target
- value
- image
- sigma
- tracks
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于目标引导显著性检测的对象跟踪方法,属于计算机视觉技术领域。它能解决对刚性和非刚性目标对象长时间实时稳定的跟踪问题。主要步骤为:目标选取,从初始图像中选择并确定要跟踪的目标对象。目标选取过程可以通过运动目标检测方法自动提取,也可以通过人机交互方法手动指定。图像输入:在实时处理情况下,提取通过摄像头采集并保存在存储区的视频图像,作为要进行跟踪的输入图像。再分别执行执行短时跟踪:目标引导显著性检测和目标定位。该方法利用灰度直方图将目标和场景的信息融合到显著性计算中,在短时跟踪失败的情况下首先根据这种显著性计算方法得到显著图,然后通过搜索计算最大目标置信度值对目标进行定位。
Description
技术领域
本发明属于计算机视觉对象跟踪技术领域,特别涉及计算机图形图像处理技术领域。
背景技术
视觉对象跟踪是许多计算机视觉应用的基本和关键问题,如视频分析,智能监控,人机交互,行为识别等,尽管研究人员对此做出了大量的工作,但要在复杂的环境中实现实时稳定的对象跟踪仍然是极具挑战性的任务。
目前依赖检测或者学习的对象跟踪方法(如TLD,Tracking-Learning-Detection)受到越来越广泛的关注。这些方法通过学习某种分类器,如支持向量机、自举、随机森林,或者随机蕨等来发掘未知的数据和信息,进而增强其对目标及其场景变化的适应能力。在基础(短时)跟踪(如KLT、均值漂移、粒子滤波等)失败时,这些分类器则被用作检测器进行目标检测,以达到恢复跟踪的目的。为了保证分类器学习的准确性,同时又能尽可能的适应目标的变化,Babenko等提出了袋学习的思想和OMB方法(Online-MILBoost),Kalal等提出了P-N(Positive-Negative)正负样例学习的方法。然而,这些方法仍然难以处理非刚性运动变化以及遮挡等问题。对此,霍夫森林提供了一种可能的解决方法。霍夫森林是一种融合霍夫变换的随机森林,它由多个决策树组成,每棵树将图像或者视频中的局部表观映射到它的叶节点中,而每个叶节点则包含在霍夫空间中的概率投票。由此,对象的定位或者检测被看作是寻求在霍夫图像中的概率极大值点。然而这样的检测过程十分耗时,因此基于霍夫森林的对象跟踪方法在实时性上远不及基于随机蕨的方法。此外,基于稀疏表示和学习的对象跟踪方法,由于其较稳定的跟踪性能受到越来越多的关注和研究,然而这些方法十分依赖样例模板,同样存在不小的失败风险,且计算结构复杂而难以满足实际实时性的要求。
一般情况下,场景越复杂,跟踪或者检测就变得越困难,由于计算资源的局限和效率的要求,对象表观模型不能过于复杂。实际上,除了目标本身以外,背景信息也是十分有用且重要的信息。Yang等采用图像分割融合方法,通过时空分析发掘辅助对象作为跟踪协助,其对应实现的CAT跟踪系统表现出较稳定的跟踪结果。然而该辅助对象的获取基于一定的运动假设,因而难以适应更复杂的跟踪环境,且计算效率有待进一步的提高。Grabner等提出通过获取目标周围有价值的特征点,借此预测目标的位置,增强了跟踪的稳定性,然而检测和匹配所有这些局部特征点的方法在计算上十分耗时。Thang等通过将PNT作为基础跟踪和同时增加对误匹配项的跟踪来改进Grabner等的算法,能够在一定程度上区分与目标相似的对象,从而表现出更好的跟踪性能。Fan等提出学习具有较强区别性的关注区域用以辅助跟踪,然而在场景出现剧烈运动时,受这些局部区域的限制,其计算效率依然不高。Godec等通过对场景进行聚类学习,将背景分类为多个虚拟的类型,取得了较为满意的跟踪效果,但是该方法假设背景只是逐步而细微的改变,这在很多跟踪场合并不成立,因此其应用有限。
因此,本发明提出一种新的对象跟踪方法。该方法利用灰度直方图将目标和场景的信息融合到显著性计算中,在短时跟踪失败的情况下首先根据这种显著性计算方法得到显著图,该显著图突出了更可能属于目标的图像区域,然后通过搜索计算最大目标置信度值对目标进行定位,并据此更新目标图像块及其归一化灰度直方图。
发明内容
本发明的目的是提供一种基于目标引导显著性检测的对象跟踪方法,它能有效地解决对刚性和非刚性目标对象长时间实时稳定的跟踪问题。
本发明的目的是通过以下技术方案来实现的:具体包括如下步骤:
(1)目标选取
从初始图像中选择并确定要跟踪的目标对象。目标选取过程可以通过运动目标检测方法自动提取,也可以通过人机交互方法手动指定。设表示目标图像块ZT的归一化灰度直方图,其中MT为AT的总量化级数,ak表示AT中第k个量化级数对应的直方图取值。
(2)图像输入
在实时处理情况下,提取通过摄像头采集并保存在存储区的视频图像,作为要进行跟踪的输入图像;在离线处理情况下,将已采集的视频文件分解为多个帧组成的图像序列,按照时间顺序,逐个提取帧图像作为输入图像。如果输入图像为空,则跟踪结束。
(3)执行短时跟踪
这里,短时跟踪采用基于归一化交叉互相关(NCC,Normalized Cross-Correlation)的方法。设候选图像块Zc与目标图像块ZT的归一化交叉互相关值为vNCC(Zc,ZT),短时跟踪过程为:在以上次确定的目标位置为中心的搜索区域内选择候选图像块并计算其与目标图像块的vNCC值,搜索使vNCC值最大的位置作为当前预测的目标位置。设阈值θNCC=0.8,如果最大的vNCC>θNCC,则目标定位成功,当前跟踪完成,跳转到(2);否则,跳转到(4)。
(4)目标引导显著性检测
设表示整个图像的归一化灰度直方图,其中MB为AB的总量化级数,且MB=MT,bk表示AB中第k个量化级数对应的直方图取值,则位置为(i,j)的像素的显著性值S(i,j)计算为:
其中,W和H分别表示图像的宽和高;I(i,j)表示位置为(i,j)的像素的灰度值,I(m,n)表示位置为(m,n)的像素的灰度值;δ(I(i,j))表示灰度值为I(i,j)在灰度直方图中对应的级数;C为归一化因子,
根据以上公式,计算图像中每个像素的显著性值,得到显著图G。在上面的显著性计算公式中,乘积项aδ(I(i,j))是根据目标的归一化灰度直方图得到的属于目标的概率,而(1-bδ(I(i,j)))则是根据整个图像的归一化灰度直方图计算得到的属于目标的概率,因此在这里的显著性计算中融合了目标的信息,即目标的信息实际上引导了显著性的计算。
(5)目标定位
设目标的宽和高分别为WT和HT,则位置为(i,j)对应的目标置信度值p(i,j)计算为:
其中,G(m,n)表示位置为(m,n)对应的显著性值。设p(i*,j*)表示最大的目标置信度值,则将当前目标的位置设置为(i*,j*),从而完成对目标的定位,并据此更新目标图像块及其归一化灰度直方图。当前跟踪完成,跳转到(2)。
在跟踪过程中,短时跟踪主要用于完成在目标变化不大的情况下的跟踪任务;当短时跟踪失败后,则通过进行目标引导的显著性检测和搜索计算最大的目标置信度值重新对目标进行定位,从而恢复跟踪。
本发明的与现有技术相比的优点和积极效果:本发明提出一种基于目标引导显著性检测的对象跟踪方法。该方法利用灰度直方图将目标和场景的信息融合到显著性计算中,在短时跟踪失败的情况下首先根据这种显著性计算方法得到显著图,然后通过搜索计算最大目标置信度值对目标进行定位,并据此更新目标图像块及其归一化灰度直方图。结合跟踪的时序性特点,该方法可以快速排除场景干扰,因而对目标的适应性强,跟踪稳定;同时由于使用的特征简单,且不需要进行复杂的机器学习过程,该方法实现简单,计算速度快。
附图说明
图1是本发明的流程图
具体实施方式
下面结合附图和实施例对本发明进一步说明。(1)目标选取
从初始图像中选择并确定要跟踪的目标对象。目标选取过程可以通过运动目标检测方法自动提取,也可以通过人机交互方法手动指定。设表示目标图像块ZT的归一化灰度直方图,其中MT为AT的总量化级数,ak表示AT中第k个量化级数对应的直方图取值。
(2)图像输入
在实时处理情况下,提取通过摄像头采集并保存在存储区的视频图像,作为要进行跟踪的输入图像;在离线处理情况下,将已采集的视频文件分解为多个帧组成的图像序列,按照时间顺序,逐个提取帧图像作为输入图像。如果输入图像为空,则跟踪结束。
(3)执行短时跟踪
这里,短时跟踪采用基于归一化交叉互相关(NCC,Normalized Cross-Correlation)的方法。设候选图像块Zc与目标图像块ZT的归一化交叉互相关值为vNCC(Zc,ZT),短时跟踪过程为:在以上次确定的目标位置为中心的搜索区域内选择候选图像块并计算其与目标图像块的vNCC值,搜索使vNCC值最大的位置作为当前预测的目标位置。设阈值θNCC=0.8,如果最大的vNCC>θNCC,则目标定位成功,当前跟踪完成,跳转到(2);否则,跳转到(4)。
(4)目标引导显著性检测
设表示整个图像的归一化灰度直方图,其中MB为AB的总量化级数,且MB=MT,bk表示AB中第k个量化级数对应的直方图取值,则位置为(i,j)的像素的显著性值S(i,j)计算为:
其中,W和H分别表示图像的宽和高;I(i,j)表示位置为(i,j)的像素的灰度值,I(m,n)表示位置为(m,n)的像素的灰度值;δ(I(i,j))表示灰度值为I(i,j)在灰度直方图中对应的级数;C为归一化因子,
根据以上公式,计算图像中每个像素的显著性值,得到显著图G。在上面的显著性计算公式中,乘积项aδ(I(i,j))是根据目标的归一化灰度直方图得到的属于目标的概率,而(1-bδ(I(i,j)))则是根据整个图像的归一化灰度直方图计算得到的属于目标的概率,因此在这里的显著性计算中融合了目标的信息,即目标的信息实际上引导了显著性的计算。
(5)目标定位
设目标的宽和高分别为WT和HT,则位置为(i,j)对应的目标置信度值p(i,j)计算为:
其中,G(m,n)表示位置为(m,n)对应的显著性值。设p(i*,j*)表示最大的目标置信度值,则将当前目标的位置设置为(i*,j*),从而完成对目标的定位,并据此更新目标图像块及其归一化灰度直方图。当前跟踪完成,跳转到(2)
在跟踪过程中,短时跟踪主要用于完成在目标变化不大的情况下的跟踪任务;当短时跟踪失败后,则通过进行目标引导的显著性检测和搜索计算最大的目标置信度值重新对目标进行定位,从而恢复跟踪。
本发明的方法可用于对象跟踪的各种场合,如智能视频分析,自动人机交互,交通视频监控,无人车辆驾驶,生物群体分析,以及流体表面测速等。
以智能视频分析为例:智能视频分析包含许多重要的自动分析任务,如对象行为分析,视频压缩等,而这些工作的基础则是能够进行稳定的对象跟踪。可以采用本发明提出的跟踪方法实现,具体来说,首先基于归一化交叉互相关方法实现短时跟踪,用于完成在目标变化不大的情况下的跟踪任务;当短时跟踪失败后,则通过进行目标引导的显著性检测得到显著图,由于在显著性计算公式中融合了目标的信息,即目标的归一化灰度直方图信息,因此该显著图将突出更可能属于目标的图像区域;然后根据该显著图搜索计算最大的目标置信度值,并将其对应的位置作为当前目标的位置,从而实现对目标的重新定位,并据此更新目标图像块及其归一化灰度直方图,进而恢复跟踪。结合跟踪的时序性特点,该方法可以快速排除场景干扰,因而对目标的适应性强,跟踪稳定;同时由于使用的特征简单,且不需要进行复杂的机器学习过程,该方法实现简单,计算速度快。
本发明方法可通过任何计算机程序设计语言(如C语言)编程实现,基于本方法的跟踪系统软件可在任何PC或者嵌入式系统中实现实时对象跟踪应用。
Claims (1)
1.一种基于目标引导显著性检测的对象跟踪方法,包括如下步骤:
(1)目标选取
从初始图像中选择并确定要跟踪的目标对象,目标选取过程可以通过运动目标检测方法自动提取,也可以通过人机交互方法手动指定,设表示目标图像块ZT的归一化灰度直方图,其中MT为AT的总量化级数,ak表示AT中第k个量化级数对应的直方图取值;
(2)图像输入
在实时处理情况下,提取通过摄像头采集并保存在存储区的视频图像,作为要进行跟踪的输入图像;在离线处理情况下,将已采集的视频文件分解为多个帧组成的图像序列,按照时间顺序,逐个提取帧图像作为输入图像。如果输入图像为空,则跟踪结束;
(3)执行短时跟踪
这里短时跟踪采用基于归一化交叉互相关的方法,设候选图像块Zc与目标图像块ZT的归一化交叉互相关值为vNCC(Zc,ZT),短时跟踪过程为:在以上次确定的目标位置为中心的搜索区域内选择候选图像块并计算其与目标图像块的vNCC值,搜索使vNCC值最大的位置作为当前预测的目标位置;设阈值θNCC=0.8,如果最大的vNCC>θNCC,则目标定位成功,当前跟踪完成,跳转到(2);否则,跳转到(4);
(4)目标引导显著性检测
设表示整个图像的归一化灰度直方图,其中MB为AB的总量化级数,且MB=MT,bk表示AB中第k个量化级数对应的直方图取值,则位置为(i,j)的像素的显著性值S(i,j)计算为:
其中,W和H分别表示图像的宽和高;I(i,j)表示位置为(i,j)的像素的灰度值,I(m,n)表示位置为(m,n)的像素的灰度值;δ(I(i,j))表示灰度值为I(i,j)在灰度直方图中对应的级数;C为归一化因子,
根据以上公式,计算图像中每个像素的显著性值,得到显著图G,在上面的显著性计算公式中,乘积项aδ(I(i,j))是根据目标的归一化灰度直方图得到的属于目标的概率,而(1-bδ(I(i,j)))则是根据整个图像的归一化灰度直方图计算得到的属于目标的概率,因此在这里的显著性计算中融合了目标的信息,即目标的信息实际上引导了显著性的计算;
(5)目标定位
设目标的宽和高分别为WT和HT,则位置为(i,j)对应的目标置信度值p(i,j)计算为:
其中,G(m,n)表示位置为(m,n)对应的显著性值,设p(i*,j*)表示最大的目标置信度值,则将当前目标的位置设置为(i*,j*),从而完成对目标的定位,并据此更新目标图像块及其归一化灰度直方图;当前跟踪完成,跳转到(2)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510031269.0A CN104637052B (zh) | 2015-01-22 | 2015-01-22 | 基于目标引导显著性检测的对象跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510031269.0A CN104637052B (zh) | 2015-01-22 | 2015-01-22 | 基于目标引导显著性检测的对象跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104637052A true CN104637052A (zh) | 2015-05-20 |
CN104637052B CN104637052B (zh) | 2017-07-11 |
Family
ID=53215758
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510031269.0A Active CN104637052B (zh) | 2015-01-22 | 2015-01-22 | 基于目标引导显著性检测的对象跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104637052B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104881884A (zh) * | 2015-06-29 | 2015-09-02 | 辽宁工程技术大学 | 一种基于视觉量子的目标跟踪方法 |
CN107539218A (zh) * | 2016-06-28 | 2018-01-05 | 爱信精机株式会社 | 显示控制装置 |
CN109074657A (zh) * | 2018-07-18 | 2018-12-21 | 深圳前海达闼云端智能科技有限公司 | 一种目标跟踪方法、装置、电子设备和可读存储介质 |
CN109087334A (zh) * | 2018-06-20 | 2018-12-25 | 国网浙江省电力有限公司 | 基于显著语境稀疏表示的目标追踪方法 |
CN111027505A (zh) * | 2019-12-19 | 2020-04-17 | 吉林大学 | 一种基于显著性检测的分层多目标跟踪方法 |
CN112419362A (zh) * | 2019-08-21 | 2021-02-26 | 中国人民解放军火箭军工程大学 | 一种基于先验信息特征学习的运动目标跟踪方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102087747A (zh) * | 2011-01-05 | 2011-06-08 | 西南交通大学 | 基于单纯形法的对象跟踪方法 |
US20120250984A1 (en) * | 2010-12-01 | 2012-10-04 | The Trustees Of The University Of Pennsylvania | Image segmentation for distributed target tracking and scene analysis |
CN102722725A (zh) * | 2012-06-04 | 2012-10-10 | 西南交通大学 | 一种基于主动场景学习的对象跟踪方法 |
-
2015
- 2015-01-22 CN CN201510031269.0A patent/CN104637052B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120250984A1 (en) * | 2010-12-01 | 2012-10-04 | The Trustees Of The University Of Pennsylvania | Image segmentation for distributed target tracking and scene analysis |
CN102087747A (zh) * | 2011-01-05 | 2011-06-08 | 西南交通大学 | 基于单纯形法的对象跟踪方法 |
CN102722725A (zh) * | 2012-06-04 | 2012-10-10 | 西南交通大学 | 一种基于主动场景学习的对象跟踪方法 |
Non-Patent Citations (2)
Title |
---|
TIE LIU ET AL: "Learning to detect a salient object", 《TRANSACTIONS ON PATTERN ANALYSIS AND MECHINE INTELLIGENCE》 * |
YICHEN WEI ET AL: "Geodesic Saliency Using background priors", 《COMPUTER VISION ECCV 2O12》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104881884A (zh) * | 2015-06-29 | 2015-09-02 | 辽宁工程技术大学 | 一种基于视觉量子的目标跟踪方法 |
CN104881884B (zh) * | 2015-06-29 | 2017-07-11 | 辽宁工程技术大学 | 一种基于视觉量子的目标跟踪方法 |
CN107539218A (zh) * | 2016-06-28 | 2018-01-05 | 爱信精机株式会社 | 显示控制装置 |
CN107539218B (zh) * | 2016-06-28 | 2022-06-21 | 株式会社爱信 | 显示控制装置 |
CN109087334A (zh) * | 2018-06-20 | 2018-12-25 | 国网浙江省电力有限公司 | 基于显著语境稀疏表示的目标追踪方法 |
CN109074657A (zh) * | 2018-07-18 | 2018-12-21 | 深圳前海达闼云端智能科技有限公司 | 一种目标跟踪方法、装置、电子设备和可读存储介质 |
CN112419362A (zh) * | 2019-08-21 | 2021-02-26 | 中国人民解放军火箭军工程大学 | 一种基于先验信息特征学习的运动目标跟踪方法 |
CN112419362B (zh) * | 2019-08-21 | 2023-07-07 | 中国人民解放军火箭军工程大学 | 一种基于先验信息特征学习的运动目标跟踪方法 |
CN111027505A (zh) * | 2019-12-19 | 2020-04-17 | 吉林大学 | 一种基于显著性检测的分层多目标跟踪方法 |
CN111027505B (zh) * | 2019-12-19 | 2022-12-23 | 吉林大学 | 一种基于显著性检测的分层多目标跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN104637052B (zh) | 2017-07-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Soleimanitaleb et al. | Object tracking methods: a review | |
CN102722725B (zh) | 一种基于主动场景学习的对象跟踪方法 | |
CN104637052A (zh) | 基于目标引导显著性检测的对象跟踪方法 | |
CN104992451A (zh) | 一种改进的目标跟踪方法 | |
CN111862145B (zh) | 一种基于多尺度行人检测的目标跟踪方法 | |
CN104778699A (zh) | 一种自适应对象特征的跟踪方法 | |
CN105809718B (zh) | 一种轨迹熵最小化的对象跟踪方法 | |
CN107798691B (zh) | 一种基于视觉的无人机自主着陆地标实时检测跟踪方法 | |
Huang et al. | Fish tracking and segmentation from stereo videos on the wild sea surface for electronic monitoring of rail fishing | |
Fiaz et al. | Vision based human activity tracking using artificial neural networks | |
Cong et al. | Novel event analysis for human-machine collaborative underwater exploration | |
Aburaed et al. | A study on the autonomous detection of impact craters | |
Jung et al. | V-strong: Visual self-supervised traversability learning for off-road navigation | |
Li et al. | One-shot multi-object tracking using CNN-based networks with spatial-channel attention mechanism | |
Manen et al. | Leveraging single for multi-target tracking using a novel trajectory overlap affinity measure | |
CN104268902A (zh) | 面向工业现场的多目标视频跟踪方法 | |
Ma | An object tracking algorithm based on optical flow and temporal–spatial context | |
CN116434150B (zh) | 面向拥挤场景的多目标检测跟踪方法、系统及存储介质 | |
CN111862147B (zh) | 视频中多车辆和多行人目标的跟踪方法 | |
Sri Jamiya | An efficient algorithm for real-time vehicle detection using deep neural networks | |
CN113781521B (zh) | 一种基于改进YOLO-DeepSort的仿生机器鱼检测跟踪方法 | |
CN104392437A (zh) | 基于多细胞块状态融合的对象跟踪方法 | |
Liu et al. | Fast and consistent matching for landmark-based place recognition | |
CN113792660A (zh) | 基于改进YOLOv3网络的行人检测方法、系统、介质、设备 | |
Zhang et al. | A framework for long-term tracking based on a global proposal network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20200824 Address after: No.3003, office building, Taiyuan Maoye center, No.79, Qinxian North Street, Pingyang road street, Xiaodian District, Taiyuan City, Shanxi Province Patentee after: Shanxi Zhongwei Media Technology Co., Ltd Address before: 610031 Sichuan City, Chengdu Province, No. two North Ring Road, No. 111 Patentee before: SOUTHWEST JIAOTONG University |
|
TR01 | Transfer of patent right |