CN111539993B - 基于分割的空间目标视觉跟踪方法 - Google Patents
基于分割的空间目标视觉跟踪方法 Download PDFInfo
- Publication number
- CN111539993B CN111539993B CN202010285563.5A CN202010285563A CN111539993B CN 111539993 B CN111539993 B CN 111539993B CN 202010285563 A CN202010285563 A CN 202010285563A CN 111539993 B CN111539993 B CN 111539993B
- Authority
- CN
- China
- Prior art keywords
- target
- pixel
- background
- area
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Probability & Statistics with Applications (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于分割的空间目标视觉跟踪方法,该方法包括:S1,在首帧,通过矩形框选择空间目标区域,对目标区域初始化目标与背景图像特征,得到目标剪影区域。S2,在当前帧,根据目标和背景图像特征,通过剪影跟踪,得到当前帧的目标剪影区域;S3,根据当前帧的目标剪影区域,在线学习目标与背景图像特征。S4,重复步骤S2和步骤S3,得到空间目标在视频图像的区域信息。本发明的基于分割的空间目标视觉跟踪方法,无需首帧图像标记空间目标轮廓,只需首帧图像标记空间目标矩形区域即可完成在轨服务、交会对接、相对导航等过程中空间目标的视觉跟踪。不易被视点与尺度变化影响,跟踪结果更准确,计算复杂度较低,实现简单,更适合工程应用。
Description
技术领域
本发明涉及视觉跟踪技术领域,尤其涉及一种基于分割的空间目标视觉跟踪方法。
背景技术
通过卫星上搭载的视频相机跟踪空间目标,可以为在轨服务、交会对接、相对导航等空间任务提供目标的图像位置,从而使位姿估计、立体重建等目标运动和结构的深入分析成为可能。
现有技术中,空间目标视觉跟踪常用的方法包括基于检测的跟踪方法(tracking-by-detection)和基于分割的跟踪方法(tracking-by-segmentation)。基于检测的跟踪方法,根据首帧初始化的目标矩形区域,建立目标图像外观特征,在线学习判别分类器,得到序列图像目标矩形区域。此类方法由于特征描述过多引入背景信息,当观测像机与空间目标存在较大相对位姿变化时,将发生跟踪漂移,很难准确完成跟踪任务。基于分割的跟踪方法,若采用灰度均值等简单特征描述,很难取得较好的跟踪结果;若采用粒子滤波等估计方法,采用霍夫森林分类,神经网络等分类方法,很难取得较高的跟踪效率;当首帧需要精确标记目标剪影时,方法应用流程复杂。综上,现有空间目标视觉跟踪方法不能精确、高效完成空间目标视觉跟踪任务。
发明内容
为解决上述现有技术中存在的技术问题,本发明提供了一种基于分割的空间目标视觉跟踪方法。具体技术方案如下:
一种基于分割的空间目标视觉跟踪方法,所述方法包括:
S1,在首帧,通过矩形框选择空间目标区域,对目标区域初始化目标与背景图像特征,得到目标剪影区域;
S2,在当前帧,根据目标和背景图像特征,通过剪影跟踪,得到当前帧的目标剪影区域;
S3,根据当前帧的目标剪影区域,在线学习目标与背景图像特征;
S4,重复步骤S2和步骤S3,得到空间目标在视频图像的区域信息。
可选地,步骤S1中,在首帧,通过矩形框选择空间目标区域,对空间目标区域初始化目标与背景图像特征,得到目标剪影区域,进一步包括:
在首帧t=0时刻框选目标矩形区域,矩形区域内为可能的目标像素集合,矩形区域外为背景像素集合;根据像素类别标记,通过交互式图像分割方法,得到t=0时刻目标区域,并划分目标像素集合和背景像素集合,生成目标掩膜图像;通过K-means聚类和参数拟合,估计目标像素集合和背景像素集合的高斯混合模型。
可选地,步骤S2中,在当前帧,根据目标和背景图像特征,通过剪影跟踪,得到当前帧的目标剪影区域,进一步包括:
根据t-1时刻的目标掩膜图像,通过图像形态学膨胀运算,得到t时刻的目标潜在区域掩膜图像,t≥1;对t时刻的目标潜在区域,根据目标和背景高斯混合模型和邻域标记相似性,定义吉布斯能量函数;通过最小割算法,迭代优化求解能量函数,将像素标记为目标像素,可能的目标像素,背景像素,可能的背景像素;将目标像素集合作为t时刻跟踪到的目标区域,划分目标像素集合和背景像素集合,生成目标掩膜图像。
可选地,步骤S3中,根据当前帧的目标剪影区域,在线学习目标与背景图像特征,进一步包括:
根据像素颜色值,计算像素属于目标高斯混合模型的概率密度,将可能的目标像素重标记为目标像素和背景像素;通过K-means聚类和参数拟合,基于目标像素集合和背景像素集合的颜色值,在线估计高斯混合模型,学习目标和背景图像特征。
可选地,步骤S1中,估计目标像素集合pixels0和背景像素集合pixels1高斯混合模型gmml m={wl m,μl m,Σl m,l=0,1,m=1,…,M},其中l是像素标签,l=0表示目标模型,l=1表示背景模型,m是M个高斯模型的序号,wl m是第m个高斯模型的归一化混合权重,μl m是第m个高斯模型的均值向量,Σl m是第m个高斯模型的协方差矩阵;目标和背景像素集合的高斯混合模型概率密度函数可定义为下述公式一,其中x为像素颜色值:
可选地,步骤S2中,根据t-1时刻的目标掩膜图像,通过下述公式二进行图像形态学膨胀运算,得到t时刻的目标潜在区域掩膜图像,t≥1:
式中,pmaskt表示t时刻的目标潜在区域掩膜图像,maskt-1表示t-1时刻的目标掩膜图像,(x,y)代表像素坐标,(Δx,Δy)代表像素坐标偏移量。
可选地,步骤S2中,定义的吉布斯能量函数如下式公式三:
式中,n为像素索引,权重γ=50,像素i和j属于四邻域集合C,dis为函数计算像素i和j图像坐标欧式距离,δ为函数指示像素i标记li和像素j标记lj的相似性,相同为0,不同为1,常数β选取四邻域集合像素颜色差值期望。
可选地,步骤S3中,根据像素颜色值,计算像素属于目标高斯混合模型的概率密度,将可能的目标像素重标记为目标像素和背景像素,进一步包括:
根据像素颜色值,通过公式一计算像素属于目标高斯混合模型的概率密度p0,属于背景高斯混合模型的概率密度p1;如果p0<p1,且像素标记为可能的目标像素,则将像素重标记为可能的背景像素;如果p0>p1,且像素标记为可能的目标像素,则将像素重标记为目标像素。
本发明技术方案的主要优点如下:
本发明的基于分割的空间目标视觉跟踪方法,无需首帧图像标记空间目标轮廓,只需首帧图像标记空间目标矩形区域即可完成在轨服务、交会对接、相对导航等过程中空间目标的视觉跟踪。与基于检测的跟踪方法相比,不易被视点与尺度变化影响,跟踪结果更准确;与现有技术中已有的基于分割的跟踪方法相比,计算复杂度较低,实现简单,更适合工程应用。
附图说明
此处所说明的附图用来提供对本发明实施例的进一步理解,构成本发明的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1为本发明一实施例提供的基于分割的空间目标视觉跟踪方法流程图;
图2为本发明一实施例提供的基于分割的空间目标视觉跟踪方法中估计的目标高斯混合模型的示意图;
图3为本发明一实施例提供的基于分割的空间目标视觉跟踪方法在卫星仿真数据集单帧计算时间示意图;
图4为欧空局Speed数据集单帧计算时间示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明具体实施例及相应的附图对本发明技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本发明的一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
以下结合附图,详细说明本发明实施例提供的技术方案。
本发明实施例提供了一种基于分割的空间目标视觉跟踪方法,如附图1所示,该方法包括:
S1,在首帧,通过矩形框选择空间目标区域,对目标区域初始化目标与背景图像特征,得到目标剪影区域。
S2,在当前帧,根据目标和背景图像特征,通过剪影跟踪,得到当前帧的目标剪影区域。
S3,根据当前帧的目标剪影区域,在线学习目标与背景图像特征。
S4,重复步骤S2和步骤S3,得到空间目标在视频图像的区域信息。
本发明提供的基于分割的空间目标视觉跟踪方法,无需首帧图像标记空间目标轮廓,只需首帧图像标记空间目标矩形区域即可完成在轨服务、交会对接、相对导航等过程中空间目标的视觉跟踪。与现有技术中基于检测的跟踪方法相比,不易被视点与尺度变化影响,跟踪结果更准确;与现有技术中已有的基于分割的跟踪方法相比,计算复杂度较低,实现简单,更适合工程应用。
以下对本发明实施例提供的基于分割的空间目标视觉跟踪方法的各步骤进行详细阐述:
S1,在首帧t=0时刻框选目标矩形区域,矩形区域内为可能的目标像素集合,矩形区域外为背景像素集合。根据像素类别标记,通过交互式图像分割方法,得到首帧t=0时刻目标区域,并划分目标像素集合pixelst 0和背景像素集合pixelst 1,生成目标掩膜图像maskt。通过K-means聚类和参数拟合,估计目标像素集合pixelst 0和背景像素集合pixelst 1的高斯混合模型gmml m={wl m,μl m,Σl m,l=0,1,m=1,…,M},其中l是像素标签,l=0表示目标模型,l=1表示背景模型,m是M个高斯模型的序号,wl m是第m个高斯模型的归一化混合权重,μl m是第m个高斯模型的均值向量,Σl m是第m个高斯模型的协方差矩阵。估计的目标高斯混合模型如附图2所示。
目标和背景像素集合的高斯混合模型概率密度函数可定义为下述公式一,其中x为像素颜色值:
S2,根据t-1(t≥1)时刻的目标掩膜图像,通过下述公式二进行图像形态学膨胀运算,得到t时刻的目标潜在区域掩膜图像;
式中,pmaskt表示t时刻的目标潜在区域掩膜图像,maskt-1表示t-1时刻的目标掩膜图像,(x,y)代表像素坐标,(Δx,Δy)代表像素坐标偏移量。
对t时刻的目标潜在区域,根据目标和背景高斯混合模型和邻域标记相似性,定义吉布斯能量函数如公式三;
式中,n为像素索引,权重γ=50,像素i和j属于四邻域集合C,dis为函数计算像素i和j图像坐标欧式距离,δ为函数指示像素i标记li和像素j标记lj的相似性,相同为0,不同为1,常数β选取四邻域集合像素颜色差值期望。
通过最小割算法,迭代优化求解能量函数,将像素标记为目标像素,可能的目标像素,背景像素,可能的背景像素。将目标像素集合作为t时刻跟踪到的目标区域,划分目标像素集合和背景像素集合,生成目标掩膜图像。
S3,根据像素颜色值,通过公式一计算像素属于目标高斯混合模型的概率密度p0,属于背景高斯混合模型的概率密度p1;如果p0<p1,且像素标记为可能的目标像素,则将像素重标记为可能的背景像素;如果p0>p1,且像素标记为可能的目标像素,则将像素重标记为目标像素,其他情况,像素标记不变。从而通过K-means聚类和参数拟合,基于目标像素集合和背景像素集合的颜色值,在线估计高斯混合模型,学习目标和背景图像特征。
S4,重复步骤S2和步骤S3,即可得到空间目标在每一帧的区域信息,进而得到空间目标在视频图像的区域信息。
以下结合具体示例,对本发明的基于分割的空间目标视觉跟踪方法的有益效果进行说明:
该实施例中,基于仿真数据集(287帧,图像分辨率640×640)和欧空局Speed数据集(16帧,图像分辨率1920×1200),验证方法的可行性。实验硬件平台,选择2.50GHz IntelCore i7-4710HQ处理器,12.0GB内存;实验操作系统,选择64位Windows 10。利用开源计算机视觉库opencv 2.4.10,通过C++实现,未进行加速优化。
实施例一,通过对比基于检测的跟踪方法,例如经典的核相关滤波跟踪方法(Kernelized Correlation Filters Tracker),验证了当卫星存在视点与尺度变化情况,本发明的方法可以给出更准确的跟踪结果。
实施例二,如附图3和附图4所示,本发明的方法在卫星仿真数据集上单帧平均计算时间约为379毫秒,在欧空局Speed数据集上单帧平均计算时间约为1821毫秒,计算速度较快,可见,本发明方法的跟踪时效性较强。
需要说明的是,在本文中,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。此外,本文中“前”、“后”、“左”、“右”、“上”、“下”均以附图中表示的放置状态为参照。
最后应说明的是:以上实施例仅用于说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (1)
1.一种基于分割的空间目标视觉跟踪方法,其特征在于,所述方法包括:
S1,在首帧,通过矩形框选择空间目标区域,对目标区域初始化目标与背景图像特征,得到目标剪影区域;
S2,在当前帧,根据目标和背景图像特征,通过剪影跟踪,得到当前帧的目标剪影区域;
S3,根据当前帧的目标剪影区域,在线学习目标与背景图像特征;
S4,重复步骤S2和步骤S3,得到空间目标在视频图像的区域信息;
其中,步骤S1中,在首帧,通过矩形框选择空间目标区域,对空间目标区域初始化目标与背景图像特征,得到目标剪影区域,进一步包括:在首帧t=0时刻框选目标矩形区域,矩形区域内为可能的目标像素集合,矩形区域外为背景像素集合;根据像素类别标记,通过交互式图像分割方法,得到t=0时刻目标区域,并划分目标像素集合和背景像素集合,生成目标掩膜图像;通过K-means聚类和参数拟合,估计目标像素集合和背景像素集合的高斯混合模型;
步骤S1中,估计目标像素集合pixels0和背景像素集合pixels1高斯混合模型gmml m={wl m,μl m,Σl m,l=0,1,m=1,…,M},其中l是像素标签,l=0表示目标模型,l=1表示背景模型,m是M个高斯模型的序号,wl m是第m个高斯模型的归一化混合权重,μl m是第m个高斯模型的均值向量,Σl m是第m个高斯模型的协方差矩阵;
目标和背景像素集合的高斯混合模型概率密度函数定义为下述公式一,其中x为像素颜色值:
步骤S2包括:根据t-1时刻的目标掩膜图像,通过下述公式二进行图像形态学膨胀运算,得到t时刻的目标潜在区域掩膜图像,t≥1;对t时刻的目标潜在区域,根据目标和背景高斯混合模型和邻域标记相似性,得到如公式三所示的吉布斯能量函数;通过最小割算法,迭代优化求解能量函数,将像素标记为目标像素,可能的目标像素,背景像素,可能的背景像素;将目标像素集合作为t时刻跟踪到的目标区域,划分目标像素集合和背景像素集合,生成目标掩膜图像;
式中,pmaskt表示t时刻的目标潜在区域掩膜图像,maskt-1表示t-1时刻的目标掩膜图像,(x,y)代表像素坐标,(Δx,Δy)代表像素坐标偏移量;
式中,n为像素索引,权重γ=50,像素i和j属于四邻域集合C,dis为函数计算像素i和j图像坐标欧式距离,δ为函数指示像素i标记li和像素j标记lj的相似性,相同为0,不同为1,常数β选取四邻域集合像素颜色差值期望;
步骤S3中,根据当前帧的目标剪影区域,在线学习目标与背景图像特征,进一步包括:根据像素颜色值,计算像素属于目标高斯混合模型的概率密度,将可能的目标像素重标记为目标像素和背景像素;通过K-means聚类和参数拟合,基于目标像素集合和背景像素集合的颜色值,在线估计高斯混合模型,学习目标和背景图像特征;
根据像素颜色值,计算像素属于目标高斯混合模型的概率密度,将可能的目标像素重标记为目标像素和背景像素,进一步包括:
根据像素颜色值,计算像素属于目标高斯混合模型的概率密度p0,属于背景高斯混合模型的概率密度p1;
如果p0<p1,且像素标记为可能的目标像素,则将像素重标记为可能的背景像素;
如果p0>p1,且像素标记为可能的目标像素,则将像素重标记为目标像素。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010285563.5A CN111539993B (zh) | 2020-04-13 | 2020-04-13 | 基于分割的空间目标视觉跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010285563.5A CN111539993B (zh) | 2020-04-13 | 2020-04-13 | 基于分割的空间目标视觉跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111539993A CN111539993A (zh) | 2020-08-14 |
CN111539993B true CN111539993B (zh) | 2021-10-19 |
Family
ID=71978644
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010285563.5A Active CN111539993B (zh) | 2020-04-13 | 2020-04-13 | 基于分割的空间目标视觉跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111539993B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112116635A (zh) * | 2020-09-17 | 2020-12-22 | 赵龙 | 一种基于快速人体移动的视觉跟踪方法及装置 |
CN112465861B (zh) * | 2020-11-19 | 2024-05-10 | 西北工业大学 | 一种基于自适应掩膜的相关滤波视觉目标跟踪方法 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1969561A1 (en) * | 2005-12-30 | 2008-09-17 | Telecom Italia S.p.A. | Segmentation of video sequences |
CN101369346B (zh) * | 2007-08-13 | 2010-09-15 | 北京航空航天大学 | 一种视频运动目标自适应窗口的跟踪方法 |
CN101783015B (zh) * | 2009-01-19 | 2013-04-24 | 北京中星微电子有限公司 | 一种视频跟踪设备及方法 |
CN102651128B (zh) * | 2011-02-24 | 2014-10-01 | 南京大学 | 一种基于采样的图像集分割方法 |
CN102270346B (zh) * | 2011-07-27 | 2013-05-01 | 宁波大学 | 一种交互式视频中的目标对象的提取方法 |
CN103136529A (zh) * | 2013-03-01 | 2013-06-05 | 西北工业大学 | 基于Grab-Cut与光流分割的非刚体目标跟踪方法 |
KR102161052B1 (ko) * | 2013-08-27 | 2020-09-29 | 삼성전자주식회사 | 영상에서 객체를 분리하는 방법 및 장치. |
CN103700097B (zh) * | 2013-12-13 | 2017-02-15 | 中国科学院深圳先进技术研究院 | 一种背景分割方法及系统 |
CN104899877A (zh) * | 2015-05-20 | 2015-09-09 | 中国科学院西安光学精密机械研究所 | 基于超像素和快速三分图的图像前景提取方法 |
CN107590818B (zh) * | 2017-09-06 | 2019-10-25 | 华中科技大学 | 一种交互式视频分割方法 |
CN107644429B (zh) * | 2017-09-30 | 2020-05-19 | 华中科技大学 | 一种基于强目标约束视频显著性的视频分割方法 |
CN109064490B (zh) * | 2018-04-12 | 2021-09-28 | 江苏省基础地理信息中心 | 一种基于MeanShift的运动目标跟踪方法 |
US10515463B2 (en) * | 2018-04-20 | 2019-12-24 | Sony Corporation | Object segmentation in a sequence of color image frames by background image and background depth correction |
CN109087330A (zh) * | 2018-06-08 | 2018-12-25 | 中国人民解放军军事科学院国防科技创新研究院 | 一种基于由粗到精图像分割的运动目标检测方法 |
CN110111348A (zh) * | 2019-04-09 | 2019-08-09 | 北京邮电大学 | 一种基于双层模型的宫廷服饰龙纹自动分割方法 |
-
2020
- 2020-04-13 CN CN202010285563.5A patent/CN111539993B/zh active Active
Non-Patent Citations (2)
Title |
---|
一种结合多种图像分割算法的实例分割方案;詹琦梁 等;《小型微型计算机系统》;20200409(第4期);第837-842页,正文第2.3-2.4节 * |
低帧频图像序列目标提取关键技术研究;李鹏;《中国博士学位论文全文数据库 信息科技辑》;20141015(第10期);第I138-67页 * |
Also Published As
Publication number | Publication date |
---|---|
CN111539993A (zh) | 2020-08-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Dewi et al. | Yolo V4 for advanced traffic sign recognition with synthetic training data generated by various GAN | |
Subudhi et al. | A change information based fast algorithm for video object detection and tracking | |
Su et al. | A supervised classification method based on conditional random fields with multiscale region connection calculus model for SAR image | |
CN111539993B (zh) | 基于分割的空间目标视觉跟踪方法 | |
CN107154051B (zh) | 背景剪除方法及装置 | |
Li et al. | Superpixel-based foreground extraction with fast adaptive trimaps | |
CN113362341B (zh) | 基于超像素结构约束的空地红外目标跟踪数据集标注方法 | |
Chiverton et al. | Automatic bootstrapping and tracking of object contours | |
Zhan et al. | Salient superpixel visual tracking with graph model and iterative segmentation | |
Lin et al. | Temporally coherent 3D point cloud video segmentation in generic scenes | |
Xiong et al. | A structured learning-based graph matching method for tracking dynamic multiple objects | |
Feng | Mask RCNN-based single shot multibox detector for gesture recognition in physical education | |
Makris et al. | A hierarchical feature fusion framework for adaptive visual tracking | |
Fisher | The architecture of the apex platform, salesforce. com's platform for building on-demand applications | |
Sun et al. | Adaptive image dehazing and object tracking in UAV videos based on the template updating Siamese network | |
CN116363374B (zh) | 图像语义分割网络持续学习方法、系统、设备及存储介质 | |
Willert et al. | Non-gaussian velocity distributions integrated over space, time, and scales | |
Liu et al. | Fast tracking via spatio-temporal context learning based on multi-color attributes and pca | |
Lin et al. | One shot learning for generic instance segmentation in RGBD videos | |
Gang et al. | Vehicle tracking incorporating low-rank sparse into particle filter in haze scene | |
CN111462181B (zh) | 一种基于矩形非对称逆布局模型的视频单目标跟踪方法 | |
Zhang et al. | A quantum evolutionary learning tracker for video | |
Ongkittikul et al. | Enhanced hand tracking using the k-means embedded particle filter with mean-shift vector re-sampling | |
Ye | Robust Visual Motion Analysis: piecewise-smooth optical flow and motion-based detection and tracking | |
Lahraichi et al. | Visual tracking using particle filter based on Gabor features |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB03 | Change of inventor or designer information | ||
CB03 | Change of inventor or designer information |
Inventor after: Guo Pengyu Inventor after: Cao Lu Inventor after: Liu Yong Inventor after: Ran Dechao Inventor after: Li Xianbin Inventor before: Guo Pengyu |
|
GR01 | Patent grant | ||
GR01 | Patent grant |