CN112767447A - 基于深度霍夫优化投票的时敏单目标跟踪方法、存储介质和终端 - Google Patents
基于深度霍夫优化投票的时敏单目标跟踪方法、存储介质和终端 Download PDFInfo
- Publication number
- CN112767447A CN112767447A CN202110097823.0A CN202110097823A CN112767447A CN 112767447 A CN112767447 A CN 112767447A CN 202110097823 A CN202110097823 A CN 202110097823A CN 112767447 A CN112767447 A CN 112767447A
- Authority
- CN
- China
- Prior art keywords
- target
- template
- representing
- point
- search
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 53
- 238000005457 optimization Methods 0.000 title claims abstract description 21
- 238000005070 sampling Methods 0.000 claims abstract description 10
- 239000011159 matrix material Substances 0.000 claims abstract description 9
- 238000012216 screening Methods 0.000 claims abstract description 8
- 230000004931 aggregating effect Effects 0.000 claims abstract description 7
- 230000006870 function Effects 0.000 claims description 36
- 238000012549 training Methods 0.000 claims description 9
- 230000008859 change Effects 0.000 claims description 7
- 238000011176 pooling Methods 0.000 claims description 7
- 150000001875 compounds Chemical class 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 3
- 239000000126 substance Substances 0.000 claims description 3
- 241001632422 Radiola linoides Species 0.000 claims 1
- 230000008569 process Effects 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 241001632427 Radiola Species 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Abstract
本发明公开了基于深度霍夫优化投票的时敏单目标跟踪方法、存储介质和终端,方法包括:提取模板点云Ptemp和搜索点云Psea的几何特征,并生成模板种子点集Q和搜索种子点集R;通过计算Q和R的相似度矩阵T将目标信息编码到搜索空间中,生成搜索种子点集D;编码后的搜索种子点dj通过投票产生对应的潜在目标中心点cj,并基于置信度得分B从潜在目标中心C中筛选出具有高置信度的潜在目标中心E;采样和聚集高可信度的潜在目标中心E,产生K个提议,具有最高得分的提议作为最终的预测结果Φ;基于前一帧目标的预测结果更新模板点云Ptemp。本发明可以高效稳定地对场景中的时敏单目标进行持续跟踪,得到单目标连续的运动轨迹。
Description
技术领域
本发明涉及目标跟踪领域,尤其涉及基于深度霍夫优化投票的时敏单目标跟踪方法、存储介质和终端。
背景技术
基于点云数据的三维时敏单目标跟踪是自动驾驶和机器人视觉等相关领域应用的基础。现有的三维目标跟踪方法大都继承二维目标跟踪中的经验,对于RGB信息有很强的依赖性。但是当环境因素变化导致RGB信息退化时,这些方法的性能会变得很差甚至失效。三维点云数据描述场景的几何信息,其采集过程不受光照变化的影响,相较于RGB信息更适用于目标跟踪任务。然而,三维点云数据的不规则性、无序性和稀疏性导致传统二维目标跟踪的方法(如基于孪生神经网络的算法)无法直接应用,为三维时敏单目标跟踪带来巨大的挑战。
发明内容
本发明的目的在于克服现有技术的不足,提供一种基于深度霍夫优化投票的时敏单目标跟踪方法、存储介质和终端。
本发明的目的是通过以下技术方案来实现的:
本发明的第一方面,提供基于深度霍夫优化投票的时敏单目标跟踪方法,包括以下步骤:
使用PointNet++网络提取模板点云Ptemp和搜索点云Psea的几何特征,并生成模板种子点集Q和搜索种子点集R;通过计算Q和R的相似度矩阵T将目标信息编码到搜索空间中,生成编码了目标信息的搜索种子点集D;
编码后的搜索种子点dj通过投票产生对应的潜在目标中心点cj,并基于置信度得分B从潜在目标中心C中筛选出具有高置信度的潜在目标中心E;
采样和聚集高可信度的潜在目标中心E,产生K个提议,具有最高得分的提议作为最终的预测结果Φ;
采用模板点云更新策略γ,基于前一帧目标的预测结果更新模板点云Ptemp。
进一步地,所述使用PointNet++网络提取模板点云Ptemp和搜索点云Psea的几何特征,并生成模板种子点集Q和搜索种子点集R,包括:
向PointNet++网络输入模板点云和搜索点云得到模板种子点集和搜索种子点集其中M1代表模板种子点集Q中种子点的数量,M2代表搜索种子点集R中种子点的数量,qi和rj分别代表模板种子点和搜索种子点,由三维坐标和特征构成;
所述通过计算Q和R的相似度矩阵T将目标信息编码到搜索空间中,生成编码了目标信息的搜索种子点集D,包括:
使用余弦距离计算Q和R之间的相似度,生成相似度矩阵T=(M2,M1),计算公式如下所示:
其中,Tj,i是T中的第j行,表示了rj与Q中所有种子点的相似度;
使用Q的空间坐标和特征增强,每个Tj,i得到一个大小为M1×(1+3+d1)的张量;通过包括多层感知机络和最大池化的操作ψ得到rj的特定目标特征最后,通过合并的三维坐标和特定目标特征生成编码目标信息的搜索种子点集
进一步地,所述编码后的搜索种子点dj通过投票产生对应的潜在目标中心点cj,并基于置信度得分B从潜在目标中心C中筛选出具有高置信度的潜在目标中心E,包括:
进一步地,采样和聚集高可信度的潜在目标中心E,产生K个提议,具有最高得分的提议作为最终的预测结果Φ,包括:
每个ek可以以R半径使用球查询来聚集生成一个簇Gk,其中Gk={el|||el-ek||2<R};
采用最远点采样从E中计算出大小为K的子集,作为簇中心生成K个簇;
进一步地,所述采用模板点云更新策略γ,基于前一帧目标的预测结果更新模板点云Ptemp,包括:
在生成了当前帧的预测结果Φ后,基于模板点云更新策略γ,生成下一帧的模板点云,以适应目标外观的变化;即指定目标在第一帧的位置为模板点云,之后每一帧的模板点云通过融合第一帧的模板点云和前一帧预测的目标点云生成。
进一步地,所述方法还包括:
总损失函数为:
L=Lreg+γ1Lcla+γ2Lpro+γ3Lbox。
进一步地,smooth-L1损失函数Lreg的定义为:
交叉熵损失函数Lcla的定义为:
式中,yj表示第j个搜索种子点是否在目标上的标签,在目标上为1,不在目标上为0;bj表示第j个搜索种子点预测在目标上的概率;M2表示搜索种子点的数量;
交叉熵损失函数Lpro的定义为:
smooth-L1损失函数Lbox的定义为:
进一步地,损失函数的权重取值为:γ1=0.18,γ2=1.47,γ3=0.18。
本发明的第二方面,提供一种存储介质,其上存储有计算机指令,所述计算机指令运行时执行所述的基于深度霍夫优化投票的时敏单目标跟踪方法的步骤。
本发明的第三方面,提供一种终端,包括存储器和处理器,所述存储器上存储有可在所述处理器上运行的计算机指令,所述处理器运行所述计算机指令时执行所述的基于深度霍夫优化投票的时敏单目标跟踪方法的步骤。
本发明的有益效果是:
(1)在本发明一示例性实施例中,首先充分挖掘模板和搜索空间中目标的相似性,将目标模板中的信息有效地编码到搜索空间中,为目标跟踪提供高鉴别力的特征信息,同时该方法对点云的无序性和不规则性保持鲁棒;其次,把目标表面的每一个点回归到物体中心,再聚集目标的候选中心点生成提议,可以获取目标更多的全局信息,从而得到更加准确的检测结果;最后,以帧为单位,通过输入在一个时间序列下连续多帧的搜索空间点云和融合第一帧目标点云与前一帧预测目标点云的模板点云进行持续跟踪,从而可以高效稳定地对场景中的时敏单目标进行持续跟踪,得到单目标连续的运动轨迹(该方法既包含了目标在第一帧中的真实值,又结合了每一帧的预测结果。在目标物体外观发生改变时,通过融合改变过程中的每一帧中的预测目标点云,可以很好地适应目标形状的改变)。
(2)在本发明一示例性实施例中,公开了各个方法的具体实现方式。
附图说明
图1为本发明一示例性实施例提供的发明流程图。
具体实施方式
下面结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本申请使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请。在本申请和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本申请可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本申请范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
其中,搜索点云的定义可以是:在某一帧中,通过三维雷达扫描仪得到的待搜索空间中所有点构成的集合。(每个点由在空间中的三维坐标构成)
参见图1,图1示出了本发明的一示例性实施例提供的基于深度霍夫优化投票的时敏单目标跟踪方法,包括以下步骤:
使用PointNet++网络提取模板点云Ptemp和搜索点云Psea的几何特征,并生成模板种子点集Q和搜索种子点集R;通过计算Q和R的相似度矩阵T将目标信息编码到搜索空间中,生成编码了目标信息的搜索种子点集D;
编码后的搜索种子点dj通过投票产生对应的潜在目标中心点cj,并基于置信度得分B从潜在目标中心C中筛选出具有高置信度的潜在目标中心E;
采样和聚集高可信度的潜在目标中心E,产生K个提议,具有最高得分的提议作为最终的预测结果Φ;
采用模板点云更新策略γ,基于前一帧目标的预测结果更新模板点云Ptemp。
具体地,在现有技术中,单个目标表面的点可以直接生成目标提议,但是由于单个目标表面的点只捕获了目标的局部信息,无法有效地描述目标的全局信息,所以无法得到目标在三维空间中精确的位置。
而在本示例性实施例中提出的基于优化的深度霍夫投票的跟踪方法,首先充分挖掘模板和搜索空间中目标的相似性,将目标模板中的信息有效地编码到搜索空间中,为目标跟踪提供高鉴别力的特征信息,同时该方法对点云的无序性和不规则性保持鲁棒;其次,把目标表面的每一个点回归到物体中心,再聚集目标的候选中心点生成提议,可以获取目标更多的全局信息,从而得到更加准确的检测结果;最后,以帧为单位,通过输入在一个时间序列下连续多帧的搜索空间点云和融合第一帧目标点云与前一帧预测目标点云的模板点云进行持续跟踪,从而可以高效稳定地对场景中的时敏单目标进行持续跟踪,得到单目标连续的运动轨迹(该方法既包含了目标在第一帧中的真实值,又结合了每一帧的预测结果。在目标物体外观发生改变时,通过融合改变过程中的每一帧中的预测目标点云,可以很好地适应目标形状的改变)。
该示例性实施例的方法充分挖掘模板和搜索空间中目标的相似性,有效应对点云的无序性和不规则性以及目标外观变化,能够高效稳定地对场景中的时敏单目标进行持续跟踪。能够筛选并编码目标局部信息,有效应对点云的稀疏性和目标运动过程中外观变化。
另外,需要说明的是,在一示例性实施例中,目标信息指的是在目标模板点云中对目标三维外观的描述。
具体地,从模板点云和搜索点云中提取种子点,采用面向目标的特征提取方法编码目标信息;然后,通过投票和筛选生成高置信度的潜在目标中心;之后,执行联合提议和验证生成预测结果;最后进行模板更新。
下述示例性实施例分别对上述四个步骤进行详细展开:
其中,面向目标的特征提取将模板中的目标信息编码到搜索空间中,充分挖掘搜索空间和模板中目标的几何相似性,为后续目标的跟踪提供高鉴别力的特征表示。首先通过PointNet++网络从目标模板点云和搜索空间点云中获取种子点集,然后利用模板中蕴含的目标信息,将搜索区域种子与目标特定特征结合。同时,该方法能够对模板点云的无序性和不规则性保持稳定。
更优地,在一示例性实施例中,如图1中的(a)部分可知,所述使用PointNet++网络提取模板点云Ptemp和搜索点云Psea的几何特征,并生成模板种子点集Q和搜索种子点集R,包括:
向PointNet++网络输入模板点云和搜索点云得到模板种子点集(即图1中的(a)部分的M1×(3+d1),其中3+d1表示模板种子点的三维坐标和特征下同,不进行赘述)和搜索种子点集(即图1中的(a)部分的M2×(3+d1)),其中M1代表模板种子点集Q中种子点的数量,M2代表搜索种子点集R中种子点的数量,qi和ri分别代表模板种子点和搜索种子点,由三维坐标和特征构成;
所述通过计算Q和R的相似度矩阵T将目标信息编码到搜索空间中,生成编码了目标信息的搜索种子点集D,包括:
为了把Q中的目标信息编码到R中,使用余弦距离计算Q和R之间的相似度,生成相似度矩阵T=(M2,M1)((即图1中的(a)部分M1×M2)),计算公式如下所示:
其中,Tj,i是T中的第j行,表示了rj与Q中所有种子点的相似度。
考虑到Q的无序性导致特征表示Tj,i不稳定,采用最大池化操作保证特征的唯一性。使用Q的空间坐标和特征增强,每个Tj,i得到一个大小为M1×(1+3+d1)的张量(即图中1中的(a)部分的特征融合);通过包括多层感知机络和最大池化的操作ψ得到rj的特定目标特征(即图中1中的(a)部分的M2×d2);最后,通过合并的三维坐标和特定目标特征生成编码目标信息的搜索种子点集(即图中1中的(a)部分的M2×(3+d2),3+d2指rj的三维坐标和生成的特定目标特征)。
对于通过投票和筛选生成高置信度的潜在目标中心的步骤,个编码了目标信息的搜索种子点dj可以直接生成一个目标提议,但是单个搜索种子点只捕获了有限的局部信息,无法得到准确的目标位置预测。因此,通过投票回归到潜在目标中心,再进行联合的提议和验证生成最终结果。每个dj生成一个置信度得分,根据得分排序取用前50%的dj进行联合提议和验证,以提高目标跟踪的精确度。
更优地,在一示例性实施例中,如图1中的(b)部分可知,所述编码后的搜索种子点dj通过投票产生对应的潜在目标中心点cj,并基于置信度得分B从潜在目标中心C中筛选出具有高置信度的潜在目标中心E,包括:
每个dj通过多层感知机预测出和以生成(即图中1中的(b)部分的M2×(3+d2)),其中 是指通过预测出的当前搜索种子点到目标中心的三维坐标偏移量,是指通过预测出的当前搜索种子点到目标中心的特征偏移量;
需要说明的是,这里多层感知机是指在特征维度上共享卷积核的卷积操作。
更优地,在一示例性实施例中,如图1中的(c)部分可知,采样和聚集高可信度的潜在目标中心E,产生K个提议,具有最高得分的提议作为最终的预测结果Φ,包括:
每个ek可以以R半径使用球查询来聚集生成一个簇Gk,其中Gk={el|||el-ek||2<R}(即即图中1中的(c)部分的N1×(3+d2)等);
采用最远点采样从E中计算出大小为K的子集,作为簇中心生成K个簇;
其中,为了学习该网络,定义簇中心点和目标中心点小于0.3m的提议作为正样本,簇中心点和目标中心点大于0.6m的提议作为负样本,其他提议不做处理。
更优地,在一示例性实施例中,如图1中的(d)部分可知,所述采用模板点云更新策略γ,基于前一帧目标的预测结果更新模板点云Ptemp,包括:
在生成了当前帧的预测结果Φ后,基于模板点云更新策略γ,生成下一帧的模板点云,以适应目标外观的变化;即指定目标在第一帧的位置为模板点云,之后每一帧的模板点云通过融合第一帧的模板点云和前一帧预测的目标点云生成。
具体来说,该方法通过拼接在第一帧和前一帧中目标三维框内的点云生成下一帧输入的模板点云。该方法既包含了目标在第一帧中的真实值,又结合了每一帧的预测结果。在目标物体外观发生改变时,通过融合改变过程中的每一帧中的预测目标点云,可以很好地适应目标形状的改变。
更优地,在一示例性实施例中,所述方法还包括:
总损失函数为:
L=Lreg+γ1Lcla+γ2Lpro+γ3Lbox。
更优地,在一示例性实施例中,smooth-L1损失函数Lreg的定义为:
交叉熵损失函数Lcla的定义为:
式中,yj表示第j个搜索种子点是否在目标上的标签,在目标上为1,不在目标上为0;bj表示第j个搜索种子点预测在目标上的概率;M2表示搜索种子点的数量;
交叉熵损失函数Lpro的定义为:
smooth-L1损失函数Lbox的定义为:
更优地,在一示例性实施例中,损失函数的权重取值为:γ1=0.18,γ2=1.47,γ3=0.18,可以较好地平衡各个损失函数之间的影响。
通过在KITTI跟踪数据集上进行实验,本示例性实施例提出的方法在成功率和精准度上都显著优于当前最先进的方法,并且可以在单个NVIDIA2080S图形处理器上以43.5FPS运行。同时具有较低的计算复杂度。
基于上述任意一示例性实施例,本发明的一示例性实施例提供一种存储介质,其上存储有计算机指令,所述计算机指令运行时执行所述的基于深度霍夫优化投票的时敏单目标跟踪方法的步骤。
基于上述任意一示例性实施例,本发明的一示例性实施例提供一种终端,包括存储器和处理器,所述存储器上存储有可在所述处理器上运行的计算机指令,所述处理器运行所述计算机指令时执行所述的基于深度霍夫优化投票的时敏单目标跟踪方法的步骤。
基于这样的理解,本实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该软件产品存储在一个存储介质中,包括若干指令用以使得装置执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(RandomAccessMemory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
显然,上述实施例仅仅是为清楚地说明所作的举例,而并非对实施方式的限定,对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其他不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。而由此所引申出的显而易见的变化或变动仍处于本发明创造的保护范围之中。
Claims (10)
1.基于深度霍夫优化投票的时敏单目标跟踪方法,其特征在于:包括以下步骤:
使用PointNet++网络提取模板点云Ptemp和搜索点云Psea的几何特征,并生成模板种子点集Q和搜索种子点集R;通过计算Q和R的相似度矩阵T将目标信息编码到搜索空间中,生成编码了目标信息的搜索种子点集D;
编码后的搜索种子点dj通过投票产生对应的潜在目标中心点cj,并基于置信度得分B从潜在目标中心C中筛选出具有高置信度的潜在目标中心E;
采样和聚集高可信度的潜在目标中心E,产生K个提议,具有最高得分的提议作为最终的预测结果Φ;
采用模板点云更新策略γ,基于前一帧目标的预测结果更新模板点云Ptemp。
2.根据权利要求1所述的基于深度霍夫优化投票的时敏单目标跟踪方法,其特征在于:所述使用PointNet++网络提取模板点云Ptemp和搜索点云Psea的几何特征,并生成模板种子点集Q和搜索种子点集R,包括:
向PointNet++网络输入模板点云和搜索点云得到模板种子点集和搜索种子点集其中M1代表模板种子点集Q中种子点的数量,M2代表搜索种子点集R中种子点的数量,qi和rj分别代表模板种子点和搜索种子点,由三维坐标和特征构成;
所述通过计算Q和R的相似度矩阵T将目标信息编码到搜索空间中,生成编码了目标信息的搜索种子点集D,包括:
使用余弦距离计算Q和R之间的相似度,生成相似度矩阵T=(M2,M1),计算公式如下所示:
其中,Tj,i是T中的第j行,表示了rj与Q中所有种子点的相似度;
3.根据权利要求2所述的基于深度霍夫优化投票的时敏单目标跟踪方法,其特征在于:所述编码后的搜索种子点dj通过投票产生对应的潜在目标中心点cj,并基于置信度得分B从潜在目标中心C中筛选出具有高置信度的潜在目标中心E,包括:
5.根据权利要求1所述的基于深度霍夫优化投票的时敏单目标跟踪方法,其特征在于:所述采用模板点云更新策略γ,基于前一帧目标的预测结果更新模板点云Ptemp,包括:
在生成了当前帧的预测结果Φ后,基于模板点云更新策略γ,生成下一帧的模板点云,以适应目标外观的变化;即指定目标在第一帧的位置为模板点云,之后每一帧的模板点云通过融合第一帧的模板点云和前一帧预测的目标点云生成。
7.根据权利要求6所述的基于深度霍夫优化投票的时敏单目标跟踪方法,其特征在于:smooth-L1损失函数Lreg的定义为:
交叉熵损失函数Lcla的定义为:
式中,yj表示第j个搜索种子点是否在目标上的标签,在目标上为1,不在目标上为0;bj表示第j个搜索种子点预测在目标上的概率;M2表示搜索种子点的数量;
交叉熵损失函数Lpro的定义为:
smooth-L1损失函数Lbox的定义为:
8.根据权利要求6所述的基于深度霍夫优化投票的时敏单目标跟踪方法,其特征在于:损失函数的权重取值为:γ1=0.18,γ2=1.47,γ3=0.18。
9.一种存储介质,其上存储有计算机指令,其特征在于:所述计算机指令运行时执行权利要求1-8中任意一项所述的基于深度霍夫优化投票的时敏单目标跟踪方法的步骤。
10.一种终端,包括存储器和处理器,所述存储器上存储有可在所述处理器上运行的计算机指令,其特征在于,所述处理器运行所述计算机指令时执行权利要求1-8中任意一项所述的基于深度霍夫优化投票的时敏单目标跟踪方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110097823.0A CN112767447A (zh) | 2021-01-25 | 2021-01-25 | 基于深度霍夫优化投票的时敏单目标跟踪方法、存储介质和终端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110097823.0A CN112767447A (zh) | 2021-01-25 | 2021-01-25 | 基于深度霍夫优化投票的时敏单目标跟踪方法、存储介质和终端 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112767447A true CN112767447A (zh) | 2021-05-07 |
Family
ID=75707156
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110097823.0A Pending CN112767447A (zh) | 2021-01-25 | 2021-01-25 | 基于深度霍夫优化投票的时敏单目标跟踪方法、存储介质和终端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112767447A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113920498A (zh) * | 2021-10-13 | 2022-01-11 | 河北工业大学 | 一种基于多层特征金字塔的点云3d物体检测方法 |
CN114882495A (zh) * | 2022-04-02 | 2022-08-09 | 华南理工大学 | 一种基于上下文感知特征聚集的3d目标检测方法 |
CN115375731A (zh) * | 2022-07-29 | 2022-11-22 | 大连宗益科技发展有限公司 | 一种关联点和体素的3d点云单目标跟踪方法及相关装置 |
CN116051633A (zh) * | 2022-12-15 | 2023-05-02 | 清华大学 | 一种基于加权关系感知的3d点云目标检测方法及装置 |
CN116721270A (zh) * | 2023-08-10 | 2023-09-08 | 泰安汉阳电子科技有限公司 | 一种用于智能水表的数据处理方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109446886A (zh) * | 2018-09-07 | 2019-03-08 | 百度在线网络技术(北京)有限公司 | 基于无人车的障碍物检测方法、装置、设备以及存储介质 |
CN110264468A (zh) * | 2019-08-14 | 2019-09-20 | 长沙智能驾驶研究院有限公司 | 点云数据标注、分割模型确定、目标检测方法及相关设备 |
CN110348310A (zh) * | 2019-06-12 | 2019-10-18 | 西安工程大学 | 一种霍夫投票3d彩色点云识别方法 |
-
2021
- 2021-01-25 CN CN202110097823.0A patent/CN112767447A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109446886A (zh) * | 2018-09-07 | 2019-03-08 | 百度在线网络技术(北京)有限公司 | 基于无人车的障碍物检测方法、装置、设备以及存储介质 |
CN110348310A (zh) * | 2019-06-12 | 2019-10-18 | 西安工程大学 | 一种霍夫投票3d彩色点云识别方法 |
CN110264468A (zh) * | 2019-08-14 | 2019-09-20 | 长沙智能驾驶研究院有限公司 | 点云数据标注、分割模型确定、目标检测方法及相关设备 |
Non-Patent Citations (3)
Title |
---|
CHARLES R. QI等: ""Deep Hough Voting for 3D Object Detection in Point Clouds"", 《2019 IEEE/CVF INTERNATIONAL CONFERENCE ON COMPUTER VISION》 * |
HAOZHE QI ETC: ""P2B: Point-to-Box Network for 3D Object Tracking in Point Clouds"", 《COMPUTER SCIENCE》 * |
SHAOQING REN等: ""Faster R-CNN: Towards Real-Time Object"", 《IEEE》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113920498A (zh) * | 2021-10-13 | 2022-01-11 | 河北工业大学 | 一种基于多层特征金字塔的点云3d物体检测方法 |
CN114882495A (zh) * | 2022-04-02 | 2022-08-09 | 华南理工大学 | 一种基于上下文感知特征聚集的3d目标检测方法 |
CN114882495B (zh) * | 2022-04-02 | 2024-04-12 | 华南理工大学 | 一种基于上下文感知特征聚集的3d目标检测方法 |
CN115375731A (zh) * | 2022-07-29 | 2022-11-22 | 大连宗益科技发展有限公司 | 一种关联点和体素的3d点云单目标跟踪方法及相关装置 |
CN116051633A (zh) * | 2022-12-15 | 2023-05-02 | 清华大学 | 一种基于加权关系感知的3d点云目标检测方法及装置 |
CN116051633B (zh) * | 2022-12-15 | 2024-02-13 | 清华大学 | 一种基于加权关系感知的3d点云目标检测方法及装置 |
CN116721270A (zh) * | 2023-08-10 | 2023-09-08 | 泰安汉阳电子科技有限公司 | 一种用于智能水表的数据处理方法 |
CN116721270B (zh) * | 2023-08-10 | 2023-10-20 | 泰安汉阳电子科技有限公司 | 一种用于智能水表的数据处理方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109360226B (zh) | 一种基于时间序列多特征融合的多目标跟踪方法 | |
US10650042B2 (en) | Image retrieval with deep local feature descriptors and attention-based keypoint descriptors | |
CN112767447A (zh) | 基于深度霍夫优化投票的时敏单目标跟踪方法、存储介质和终端 | |
You et al. | Pixel-level remote sensing image recognition based on bidirectional word vectors | |
CN107742102B (zh) | 一种基于深度传感器的手势识别方法 | |
CN112651995B (zh) | 基于多功能聚合和跟踪模拟训练的在线多目标跟踪方法 | |
CN108230291B (zh) | 物体识别系统训练方法、物体识别方法、装置和电子设备 | |
CN106815323B (zh) | 一种基于显著性检测的跨域视觉检索方法 | |
CN110443257B (zh) | 一种基于主动学习的显著性检测方法 | |
CN112884802A (zh) | 一种基于生成的对抗攻击方法 | |
CN110633727A (zh) | 基于选择性搜索的深度神经网络舰船目标细粒度识别方法 | |
CN115359366A (zh) | 基于参数优化的遥感图像目标检测方法 | |
Liu et al. | Visual object tracking with partition loss schemes | |
CN115115825A (zh) | 图像中的对象检测方法、装置、计算机设备和存储介质 | |
CN114627156A (zh) | 消费级无人机视频运动目标精准追踪方法 | |
CN109558883B (zh) | 叶片特征提取方法及装置 | |
CN116071570A (zh) | 一种室内场景下的3d目标检测方法 | |
CN115082778A (zh) | 一种基于多分支学习的宅基地识别方法及系统 | |
CN113888603A (zh) | 基于光流跟踪和特征匹配的回环检测及视觉slam方法 | |
CN114677508A (zh) | 一种基于动态滤波和逐点相关的点云实例语义分割方法 | |
CN116152334A (zh) | 图像处理方法及相关设备 | |
CN113936246A (zh) | 基于联合局部特征判别性学习的无监督目标行人重识别方法 | |
CN113298850A (zh) | 一种基于注意力机制与特征融合的目标跟踪方法及系统 | |
Huang et al. | Baggage image retrieval with attention-based network for security checks | |
CN116824306B (zh) | 基于多模态元数据的笔石化石图像识别模型的训练方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210507 |