CN109859242B - 一种预测自适应学习的目标跟踪方法 - Google Patents

一种预测自适应学习的目标跟踪方法 Download PDF

Info

Publication number
CN109859242B
CN109859242B CN201910040310.9A CN201910040310A CN109859242B CN 109859242 B CN109859242 B CN 109859242B CN 201910040310 A CN201910040310 A CN 201910040310A CN 109859242 B CN109859242 B CN 109859242B
Authority
CN
China
Prior art keywords
target
frame
tracking
sample
classifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910040310.9A
Other languages
English (en)
Other versions
CN109859242A (zh
Inventor
杨路
郑敏
王诗言
魏瑶瑶
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Post and Telecommunications
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN201910040310.9A priority Critical patent/CN109859242B/zh
Publication of CN109859242A publication Critical patent/CN109859242A/zh
Application granted granted Critical
Publication of CN109859242B publication Critical patent/CN109859242B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明涉及一种预测自适应学习的目标跟踪方法,属于图像处理领域。该方法具体包括:S1:输入第t帧图像,利用运动向量预测目标位置;S2:通过LogGabor滤波器获得相位一致性图像;S3:采集正、负样本,利用随机稀疏矩阵的提取特征,并计算正负样本的压缩特征;S4:选取朴素贝叶斯分类器响应最大的候选位置作为当前帧的目标;S5:计算目标窗口相似度来自适应地更新分类器;S6:输出第t帧的目标位置及更新后的模型参数。本发明在跟踪成功率上有显著提升,平均中心误差明显降低,提高了原算法在光照变化、遮挡等情况下的跟踪精度,有着良好的跟踪性能。

Description

一种预测自适应学习的目标跟踪方法
技术领域
本发明属于图像处理领域,涉及一种预测自适应学习的目标跟踪方法。
背景技术
随着计算机技术的迅速发展,目标跟踪作为计算机视觉领域的关键技术广泛应用于视频监控、人机交互、无人驾驶等领域,具有广阔的应用前景。在实际目标跟踪中往往会遇到各项干扰因素所带来的问题,其中需要考虑的关键因素有:1)复杂的背景;2)目标的遮挡;3)目标的形变;4)算法实时性。因此,保证长期稳定的目标跟踪成为了众多学者的研究重点。
早期的研究大部分是基于生成模型进行跟踪,这种跟踪算法计算量大且复杂度高,难以进行实时跟踪。随着跟踪算法的快速发展,基于判别模型的跟踪成为了众多专家学者的研究重点。有学者提出了基于压缩感知的跟踪算法(Compressive Tracking,CT),该跟踪算法复杂度低且实时性强,但漂移现象较为明显。还有学者提出了快速压缩跟踪(FastCompressive Tracking,FCT)算法,该算法虽然较好地解决了严重的漂移现象,但仅能在目标遇到少量遮挡时保持较好跟踪效果。这些算法在实际应用中都能取得较好的跟踪效果,但仍然存在一些问题,如当跟踪目标的运动状态变化较大、光照变化明显时,其跟踪效果较差。因此,能在复杂环境下实现鲁棒、稳定的跟踪目标的算法仍然有待研究。
为了解决上述存在的问题和缺陷,本发明提出了一种将压缩感知和相位一致性理论相结合的跟踪算法。之后根据运动向量的原理,来预测下一帧中目标的位置。利用压缩感知理论对所提取的特征进行降维,减少运算信息量,更加提升跟踪的速度,满足实时性的要求。并自适应的更新滤波器参数,来提高跟踪算法的准确性。
发明内容
有鉴于此,本发明的目的在于提供一种预测自适应学习的目标跟踪方法,用于解决压缩跟踪在光照变化、遮挡情况下跟踪不稳定问题,利用相位一致性不易受光照变化影响和能够检测大范围特征的特点,并根据相似度自适应更新分类器,使得分类结果更准确。
为达到上述目的,本发明提供如下技术方案:
一种预测自适应学习的目标跟踪方法,包括压缩跟踪与相位一致性、预测机制及分类器自适应更新,如图1所示,该方法具体包括以下步骤:
S1:输入第t帧图像,按照式(1)利用运动向量预测目标位置Lp
Figure BDA0001947323840000021
其中,(x2,y2)表示当前帧位置,(x3,y3)表示预测位置,(Δx,Δy)表示运动向量;
S2:对目标搜索区域Tsearch用式(2)进行相位一致性变换,得到相位一致性图像imgpc
Figure BDA0001947323840000022
其中,参数o表示方向的索引,m是小波变换的尺度,下面只从一个方向上来说明相关参数的含义:PC2(x,y)为二维信号的相位一致性,Am(x,y)为第m级傅里叶级数成分的振幅,W(x,y)是控制频率展宽函数,
Figure BDA0001947323840000023
为相位偏移量,
Figure BDA0001947323840000024
ε为恒定系数,T为预估噪声系数;
S3:采集正、负样本,利用随机稀疏矩阵的提取特征,正、负样本的搜索区域分别为TPOS={x|l(z)-Lp<a}、Tneg={x|b<l(z)-Lp<c},并根据式(3)计算正负样本的压缩特征;
V=RX (3)
其中,l(z)表示第i帧图像中样本z的中心位置,Lp表示第i帧图像中目标的中心位置,a为正样本搜索半径,b为负样本搜索内半径,c为负样本搜索外半径,且a<b<c;R为测量矩阵,V是原高维信号x在R下的投影;
S4:将特征值代入式(4),设样本为目标(即正样本)时y=1,样本为背景(即负样本)时y=0,假设先验概率p(y=1)=p(y=0)选取朴素贝叶斯分类器响应最大的候选位置作为当前帧的目标Lt
Figure BDA0001947323840000025
其中,v为样本z的低维特征,v=(v1,v2,...,vn)T
S5:分类器自适应更新:计算第t帧和初始帧目标窗口的巴氏系数B;
S6:判断B与q和p的关系,其中q,p为自适应阈值,且q>p,利用学习参数λ更新分类器参数;
S7:最终输出第t帧的目标位置及更新后的模型参数。
进一步,步骤S1中,假设当前帧位置为(x2,y2),上一帧位置为(x1,y1);当物体快速移动时,利用运动向量信息以及当前帧的位置信息来预测下一帧的目标位置,即位置预测方法:利用运动向量(Δx,Δy)来确定下一帧目标位置时,通过计算(x2+Δx,y2+Δy)来作为目标的初始位置,在目标快速运动的情况下,以预测位置为中心进行跟踪。
进一步,步骤S2中,使用压缩跟踪对图像进行多尺度降维,将多维特征向量映射到低维特征中,并利用局部能量模型进行相位一致计算从而提取线性、阶跃等重要图像特征,即:
Figure BDA0001947323840000031
其中,H(x)是F(x)的Hilbert变换,
Figure BDA0001947323840000032
I(x)是信号,
Figure BDA0001947323840000033
Figure BDA0001947323840000034
分别是m尺度下奇偶小波,则局部能量函数定义为:
Figure BDA0001947323840000035
其中,PC(x)为一维信号在x处信号的相位一致性函数,Am为第m级Fourier的振幅。
进一步,步骤S5中,所述分类器自适应更新具体包括:采用Bhattacharyya系数来度量初始帧目标窗口和当前帧目标窗口的相似性;对于连续概率分布,其表达式为:
Figure BDA0001947323840000036
其中,p(x)和q(x)分别为初始帧目标窗口和当前帧目标窗口图像的密度函数;B表示巴氏系数,通过比较两帧搜索窗口B∈[0,1]图像的相似度;B值越大,两窗口目标图像相似度越大。
进一步,步骤S6中,所述判断B与q和p的关系具体为:
(1)若B<p,则提取初始帧的正样本、t帧的负样本,利用学习参数λ更新分类器参数;
(2)若p≤B≤q,则仅采集t帧的负样本,利用学习参数λ更新分类器参数;
(3)若B>q,则采集t帧正、负样本,利用学习参数λ更新分类器参数。
本发明的有益效果在于:本发明通过使用运动向量预测更准确的目标位置,利用相位一致性不易受光照变化影响和能够检测大范围特征的特点,并根据相似度自适应更新分类器,使得分类结果更准确。运用本发明对多个视频序列进行测试,实验结果表明,本发明在跟踪成功率上有显著提升,平均中心误差明显降低,提高了原算法在光照变化、遮挡等情况下的跟踪精度;有着良好的跟踪性能在目标在被大面积遮挡和光照变化的情况时,仍能保证目标跟踪具有更好的鲁棒性。
附图说明
为了使本发明的目的、技术方案和有益效果更加清楚,本发明提供如下附图进行说明:
图1为本发明所述跟踪方法流程图;
图2为位置预测方法示意图;
图3为x处Fourier成分的极坐标图;
图4为自适应更新分类器示意图;
图5为特征生成示意图;
图6选取搜索区域示意图。
具体实施方式
下面将结合附图,对本发明的优选实施例进行详细的描述。
如图1所示,本发明所述的一种预测自适应学习的目标跟踪方法,具体包括以下步骤:
S1:在目标快速运动时,传统压缩跟踪算法容易产生跟踪丢失的问题,为了解决这个问题,本发明引入位置预测机制。假设当前帧位置为(x2,y2),上一帧位置为(x1,y1)。当物体快速移动时,按照传统方法将(x2,y2)作为下一帧的初始位置,会产生跟踪误差。利用运动向量信息以及当前帧的位置信息来预测下一帧的目标位置,提出了位置预测机制,如图2所示,利用运动向量(Δx,Δy)来确定下一帧目标位置时,计算预测位置(x2+Δx,y2+Δy)作为目标的初始位置。引入位置预测法后,在目标快速运动的情况下,以预测位置为中心进行跟踪更容易覆盖目标,故该方法对于快速运动的目标跟踪具有较好的鲁棒性。
S2:对于一维信号,在x处信号的相位一致性函数为:
Figure BDA0001947323840000041
其中,Am是第m级Fourier的振幅,
Figure BDA0001947323840000042
表示Fourier级数在x处的局部相位信息,
Figure BDA0001947323840000043
表示Fourier级数在x处的局部相位角均值,参数几何意义如图3所示:
相位一致性的计算可延伸到二维信号当中,以正交滤波器来计算PC值,将信号与LogGabor小波滤波器卷积获得局部能量函数来替代Hilbert变换。在(x,y)处的图像相位一致性表示为:
Figure BDA0001947323840000044
其中,参数o表示方向的索引。
S3:随机高斯测量矩阵是经典的测量矩阵,但高斯矩阵是稠密的,不利于存储和快速计算。这里给出了一种非常稀疏的随机测量矩阵,形式如下:
Figure BDA0001947323840000045
式中,s取值为2-4时,该矩阵满足推论Johnsen-lindenstrauss定理。利用一个稀疏的测量矩阵R将高维特征向量X映射到低维空间Rm中,将压缩后的低维特征向量记为V,如图5所示:
上述压缩感知提取特征的公式为:
V=RX
对初始帧手动选取目标区域T,目标位置记为(x,y,w,h),其中x,y为目标区域的左上角坐标,w,h分别为目标区域的宽和高。本发明中选取搜索区域如图6所示:
对于正样本的搜索区域为正中心的矩形表示目标区域,a,b,c表示正负样本的搜索半径,正样本的搜索区域和负样本的搜索区域分别为:TPOS={x|l(z)-Lp<a}、Tneg={x|b<l(z)-Lp<c},其中Lp是t帧的预测位置,并且a<b<c。为保证t帧正负样本均在搜索区域进行选取,因而我们将最大的矩形作为我们的搜索区域Tsearch,其中X=c+w/2,Y=c+h/2。
S4:在特征提取后要进行分类器的构建与更新,假设v中的所有元素都是独立分布的并用朴素贝叶斯分类器对其进行建模,设样本为目标(即正样本)时y=1,样本为背景(即负样本)时y=0,假设先验概率p(y=1)=p(y=0),朴素贝叶斯分类器模型定义为:
Figure BDA0001947323840000051
其中p(vi|y=1)和p(vi|y=0)条件概率都服从高斯分布,即:
Figure BDA0001947323840000052
Figure BDA0001947323840000053
式中参数μ1和σ1分别为目标样本的均值与方差,参数μ0和σ0表示背景样本的均值与方差。目标样本选取靠近目标位置的区域,背景样本选取远离目标的若干区域。最后,取H(v)最大候选区域作为下一帧的目标区域,并且对相关系数更新,即:
Figure BDA0001947323840000054
Figure BDA0001947323840000055
其中,λ>0是一个学习参数。
S5:压缩跟踪算法中的特征服从高斯分布,由于目标和背景存在一定的差异,使得特征在正、负类中服从不同的高斯分布。采用Bhattacharyya系数来度量初始帧目标窗口和当前帧目标窗口的相似性。对于连续概率分布,其表达式为:
Figure BDA0001947323840000056
其中p(x)和q(x)是初始帧目标窗口和当前帧目标窗口图像的密度函数,B表示巴氏系数,通过比较两帧搜索窗口B∈[0,1]图像的相似度。B值越大,两窗口目标图像相似度越大。
本发明考虑到在遮挡情况下目标跟踪不稳定问题,尤其当目标大部分或完全被遮挡时,如果仍利用当前正样本更新分类器,那么下一帧的目标可能会被误认为是遮挡物,导致跟踪窗口随着遮挡物移动而偏离目标位置。为了解决以上问题,算法根据两窗口图形相似度B设定了两个阈值为q和p来自适应更新分类器,其流程如图4所示。
S6:判断B与q和p的关系:
(1)若B<p,则提取初始帧的正样本、t帧的负样本,利用学习参数λ更新分类器参数;
(2)若p≤B≤q,则仅采集t帧的负样本,利用学习参数λ更新分类器参数;
(3)若B>q,则采集t帧正、负样本,利用学习参数λ更新分类器参数。
S7:最终输出第t帧的目标位置及更新后的模型参数。
最后说明的是,以上优选实施例仅用以说明本发明的技术方案而非限制,尽管通过上述优选实施例已经对本发明进行了详细的描述,但本领域技术人员应当理解,可以在形式上和细节上对其作出各种各样的改变,而不偏离本发明权利要求书所限定的范围。

Claims (4)

1.一种预测自适应学习的目标跟踪方法,其特征在于,该方法具体包括以下步骤:
S1:输入第t帧图像,按照式(1)利用运动向量预测目标位置Lp
Figure FDA0003770043760000011
其中,(x2,y2)表示当前帧位置,(x3,y3)表示预测位置,(Δx,Δy)表示运动向量;
S2:对目标搜索区域Tsearch用式(2)进行相位一致性变换,得到相位一致性图像imgpc
Figure FDA0003770043760000012
其中,参数o表示方向的索引,下面只从一个方向上来说明相关参数的含义:PC2(x,y)为二维信号的相位一致性,Am(x,y)为第m级傅里叶级数成分的振幅,W(x,y)是控制频率展宽函数,
Figure FDA0003770043760000013
为相位偏移量,
Figure FDA0003770043760000014
ε为恒定系数,T为预估噪声系数;
S3:采集正、负样本,利用随机稀疏矩阵的提取特征,正、负样本的搜索区域分别为TPOS={x|l(z)-Lp<a}、Tneg={x|b<l(z)-Lp<c},并根据式(3)计算正负样本的压缩特征;
V=RX (3)
其中,l(z)表示第i帧图像中样本z的中心位置,Lp表示第i帧图像中目标的中心位置,a为正样本搜索半径,b为负样本搜索内半径,c为负样本搜索外半径,且a<b<c;R为测量矩阵,V是原高维信号x在R下的投影,X=c+w/2,w为目标区域的宽;
S4:将特征值代入式(4),设样本为目标即正样本时y=1,样本为背景即负样本时y=0,假设先验概率p(y=1)=p(y=0)选取朴素贝叶斯分类器响应最大的候选位置作为当前帧的目标;
Figure FDA0003770043760000015
其中,v为样本z的低维特征,v=(v1,v2,...,vn)T,H(v)表示朴素贝叶斯分类器模型;
S5:分类器自适应更新:计算第t帧和初始帧目标窗口的巴氏系数B;
S6:判断B与q和p的关系,其中q,p为自适应阈值,且q>p,利用学习参数λ更新分类器参数;所述判断B与q和p的关系具体为:
(1)若B<p,则提取初始帧的正样本、t帧的负样本,利用学习参数λ更新分类器参数;
(2)若p≤B≤q,则仅采集t帧的负样本,利用学习参数λ更新分类器参数;
(3)若B>q,则采集t帧正、负样本,利用学习参数λ更新分类器参数;
S7:最终输出第t帧的目标位置及更新后的模型参数。
2.根据权利要求1所述的一种预测自适应学习的目标跟踪方法,其特征在于,步骤S1中,假设当前帧位置为(x2,y2),上一帧位置为(x1,y1);当物体快速移动时,利用运动向量信息以及当前帧的位置信息来预测下一帧的目标位置,即位置预测方法:利用运动向量(Δx,Δy)来确定下一帧目标位置时,通过计算(x2+Δx,y2+Δy)来作为目标的初始位置,在目标快速运动的情况下,以预测位置为中心进行跟踪。
3.根据权利要求1所述的一种预测自适应学习的目标跟踪方法,其特征在于,步骤S2中,使用压缩跟踪对图像进行多尺度降维,将多维特征向量映射到低维特征中,并利用局部能量模型进行相位一致计算从而提取图像特征,即:
Figure FDA0003770043760000021
其中,H(x)是F(x)的Hilbert变换,
Figure FDA0003770043760000022
I(x)是信号,
Figure FDA0003770043760000023
Figure FDA0003770043760000024
分别是m尺度下奇偶小波,则局部能量函数定义为:
Figure FDA0003770043760000025
其中,PC(x)为一维信号在x处信号的相位一致性函数,Am为第m级傅里叶级数成分的振幅。
4.根据权利要求1所述的一种预测自适应学习的目标跟踪方法,其特征在于,步骤S5中,所述分类器自适应更新具体包括:采用Bhattacharyya系数来度量初始帧目标窗口和当前帧目标窗口的相似性;对于连续概率分布,其表达式为:
Figure FDA0003770043760000026
其中,p(x)和q(x)分别为初始帧目标窗口和当前帧目标窗口图像的密度函数;B表示巴氏系数,通过比较两帧搜索窗口B∈[0,1]图像的相似度;B值越大,两窗口目标图像相似度越大。
CN201910040310.9A 2019-01-16 2019-01-16 一种预测自适应学习的目标跟踪方法 Active CN109859242B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910040310.9A CN109859242B (zh) 2019-01-16 2019-01-16 一种预测自适应学习的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910040310.9A CN109859242B (zh) 2019-01-16 2019-01-16 一种预测自适应学习的目标跟踪方法

Publications (2)

Publication Number Publication Date
CN109859242A CN109859242A (zh) 2019-06-07
CN109859242B true CN109859242B (zh) 2022-09-09

Family

ID=66894968

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910040310.9A Active CN109859242B (zh) 2019-01-16 2019-01-16 一种预测自适应学习的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN109859242B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110335289B (zh) * 2019-06-13 2022-08-05 河海大学 一种基于在线学习的目标跟踪方法
CN111127514B (zh) * 2019-12-13 2024-03-22 华南智能机器人创新研究院 一种机器人对目标的跟踪方法及装置
CN111223130A (zh) * 2019-12-25 2020-06-02 北京自行者科技有限公司 一种改进kcf的红外目标跟踪方法
CN112965040B (zh) * 2021-02-05 2024-01-23 重庆邮电大学 一种基于背景预筛选的自适应cfar目标检测方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106815562A (zh) * 2016-12-19 2017-06-09 江苏慧眼数据科技股份有限公司 一种基于压缩特征的行人检测跟踪方法
CN107918772A (zh) * 2017-12-10 2018-04-17 北京工业大学 基于压缩感知理论和gcForest的目标跟踪方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4763549B2 (ja) * 2006-08-18 2011-08-31 富士通セミコンダクター株式会社 フレーム間予測処理装置、画像符号化装置、及び画像復号化装置
US9213901B2 (en) * 2013-09-04 2015-12-15 Xerox Corporation Robust and computationally efficient video-based object tracking in regularized motion environments
CN103885057B (zh) * 2014-03-20 2016-08-24 西安电子科技大学 自适应变滑窗多目标跟踪方法
CN105427339B (zh) * 2015-11-05 2018-11-23 天津工业大学 一种结合特征筛选与二次定位的快速压缩跟踪方法
CN106372650B (zh) * 2016-08-19 2019-03-19 南通大学 一种基于运动预测的压缩跟踪方法
CN108062557B (zh) * 2017-11-21 2020-01-10 杭州电子科技大学 基于快速压缩跟踪算法的尺度自适应目标跟踪方法
CN108182447B (zh) * 2017-12-14 2020-04-21 南京航空航天大学 一种基于深度学习的自适应粒子滤波目标跟踪方法
CN111311641B (zh) * 2020-02-25 2023-06-09 重庆邮电大学 一种无人机目标跟踪控制方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106815562A (zh) * 2016-12-19 2017-06-09 江苏慧眼数据科技股份有限公司 一种基于压缩特征的行人检测跟踪方法
CN107918772A (zh) * 2017-12-10 2018-04-17 北京工业大学 基于压缩感知理论和gcForest的目标跟踪方法

Also Published As

Publication number Publication date
CN109859242A (zh) 2019-06-07

Similar Documents

Publication Publication Date Title
CN109859242B (zh) 一种预测自适应学习的目标跟踪方法
CN111260689B (zh) 一种基于置信度增强的相关滤波视觉跟踪方法
CN107680120B (zh) 基于稀疏表示和转移受限粒子滤波的红外小目标跟踪方法
CN113012203B (zh) 一种复杂背景下高精度多目标跟踪方法
CN109584271B (zh) 基于高置信度更新策略的高速相关滤波跟踪方法
Yuan Face detection and recognition based on visual attention mechanism guidance model in unrestricted posture
CN111080675A (zh) 一种基于时空约束相关滤波的目标跟踪方法
CN101924871A (zh) 基于均值偏移的视频目标跟踪方法
CN110276784B (zh) 基于记忆机制与卷积特征的相关滤波运动目标跟踪方法
CN109242019B (zh) 一种水面光学小目标快速检测与跟踪方法
Zhang et al. Infrared small target tracking based on sample constrained particle filtering and sparse representation
CN113052873A (zh) 一种在线自监督学习场景适应的单目标跟踪方法
CN112329784A (zh) 一种基于时空感知及多峰响应的相关滤波跟踪方法
CN107368802B (zh) 基于kcf和人脑记忆机制的运动目标跟踪方法
CN110555864B (zh) 基于pspce的自适应目标跟踪方法
CN110232705B (zh) 一种融合分数阶变分调整的反向低秩稀疏学习目标跟踪方法
Zhang et al. Residual memory inference network for regression tracking with weighted gradient harmonized loss
CN108985375B (zh) 考虑粒子权值空间分布的多特征融合跟踪方法
CN110751670B (zh) 一种基于融合的目标跟踪方法
CN108257148B (zh) 特定对象的目标建议窗口生成方法及其在目标跟踪的应用
Li Multilevel image edge detection algorithm based on visual perception
CN112614158B (zh) 一种采样框自适应的多特征融合在线目标跟踪方法
CN115861226A (zh) 基于特征值梯度变化的深度神经网络智能识别表面缺陷方法
Zhang Detection of aerobics action based on convolutional neural network
CN113989571A (zh) 点云数据的分类方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant