CN116229210B - 目标检测模型训练方法、装置、设备和介质 - Google Patents

目标检测模型训练方法、装置、设备和介质 Download PDF

Info

Publication number
CN116229210B
CN116229210B CN202310177285.5A CN202310177285A CN116229210B CN 116229210 B CN116229210 B CN 116229210B CN 202310177285 A CN202310177285 A CN 202310177285A CN 116229210 B CN116229210 B CN 116229210B
Authority
CN
China
Prior art keywords
point cloud
cloud data
target
training set
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310177285.5A
Other languages
English (en)
Other versions
CN116229210A (zh
Inventor
单佳炜
张正杰
沈罗丰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nantong Tanwei Photoelectric Technology Co ltd
Original Assignee
Nantong Tanwei Photoelectric Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nantong Tanwei Photoelectric Technology Co ltd filed Critical Nantong Tanwei Photoelectric Technology Co ltd
Priority to CN202310177285.5A priority Critical patent/CN116229210B/zh
Publication of CN116229210A publication Critical patent/CN116229210A/zh
Application granted granted Critical
Publication of CN116229210B publication Critical patent/CN116229210B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本公开涉及人工智能技术领域,提供了一种目标检测模型训练方法,包括:根据预设时长内的具有时间序列的所有初始点云数据、以及每帧初始点云数据对应的标签数据,确定第一训练集;对第一训练集中包括的多帧目标稀疏点云数据中分别对应的至少一个目标对象的点云数据进行增强处理,得到每帧目标稀疏点云数据对应的稠密点云数据;根据多帧稠密点云数据、多帧初始点云数据、以及所有标签数据,确定第二训练集;利用第二训练集,对教师模型进行训练,得到训练好的目标教师模型;利用目标教师模型、第一训练集以及第二训练集,通过知识蒸馏方法,对学生模型进行训练,直至学生模型收敛,得到目标学生模型。采用该方式提高了目标检测的准确性。

Description

目标检测模型训练方法、装置、设备和介质
技术领域
本公开涉及人工智能技术领域,特别是涉及一种目标检测模型训练方法、装置、设备和介质。
背景技术
由于激光雷达对环境光具有不敏感的特性、以及通过激光雷达能够较好的捕捉物体三维空间结构,因此通过激光雷达能够更准确的探测外界环境,基于此,根据激光雷达获取的激光点云数据被广泛的应用在目标检测中。
然而,通过激光雷达获取激光点云数据时,根据激光雷达的测距距离可知,激光点云数据的密度与被探测目标对象的距离密切相关,具体的,当被探测目标对象的距离越大时,目标对象对应的激光点云数据越稀疏,且存在目标对象被遮挡的可能性,从而导致无法利用目标对象对应的激光点云数据确定目标对象的特征,以此降低了基于激光点云数据的目标检测的准确性。
发明内容
基于此,有必要针对上述技术问题,提供了一种目标检测模型训练方法、装置、设备和介质。
第一方面,本公开实施例提供了一种目标检测模型训练方法,所述方法包括:
根据预设时长内的具有时间序列的所有初始点云数据、以及每帧所述初始点云数据对应的标签数据,确定第一训练集,其中,所述标签数据是根据目标对象的标注信息确定的;
对第一训练集中包括的多帧目标稀疏点云数据中分别对应的至少一个所述目标对象的点云数据进行增强处理,得到每帧所述目标稀疏点云数据对应的稠密点云数据,其中,所述目标稀疏点云数据是根据目标对象对应的点云数据量在第一训练集中包括的所有初始点云数据中确定的;
根据多帧所述稠密点云数据、多帧所述初始点云数据、以及所有标签数据,确定第二训练集,其中,多帧所述初始点云数据为所述第一训练集中除多帧目标稀疏点云数据的其他所述初始点云数据;
利用所述第二训练集,对教师模型进行训练,得到训练好的目标教师模型;
利用所述目标教师模型、第一训练集以及所述第二训练集,通过知识蒸馏方法,对学生模型进行训练,直至学生模型收敛,得到目标学生模型。
在一个实施例中,所述对第一训练集中包括的多帧目标稀疏点云数据中分别对应的至少一个目标对象的点云数据进行增强处理,得到每帧所述目标稀疏点云数据对应的稠密点云数据之前,还包括:
确定所述每帧所述初始点云数据中的各所述目标对象对应的点云数据量;
根据所述点云数据量以及预设阈值,在所述第一训练集中确定多帧所述目标稀疏点云数据。
在一个实施例中,所述对第一训练集中包括的多帧目标稀疏点云数据中分别对应的至少一个所述目标对象的点云数据进行增强处理,得到每帧所述目标稀疏点云数据对应的稠密点云数据,包括:
根据多帧所述目标稀疏点云数据中分别对应的各所述目标对象的点云数据,确定各所述目标对象对应的参考稠密点云数据;
根据所述参考稠密点云数据,对每帧所述目标稀疏点云数据中的各所述目标对象的点云数据进行增强处理,得到每帧所述目标稀疏点云数据对应的稠密点云数据。
在一个实施例中,所述根据多帧所述目标稀疏点云数据中分别对应的各所述目标对象的点云数据,确定各所述目标对象对应的参考稠密点云数据,包括:
将每帧所述目标稀疏点云数据中的各所述目标对象的点云数据映射至同一雷达坐标系中,并根据预设姿态,调整各所述目标对象的点云数据;
将调整后的多帧所述目标稀疏点云数据中的各所述目标对象的点云数据进行组合,得到各所述目标对象对应的参考稠密点云数据。
在一个实施例中,所述根据所述参考稠密点云数据,对每帧所述目标稀疏点云数据中的各所述目标对象的点云数据进行增强处理,得到每帧所述目标稀疏点云数据对应的稠密点云数据,包括:
确定每帧所述目标稀疏点云数据中的各所述目标对象的位姿信息;
基于所述位姿信息,将各所述目标对象对应的参考稠密点云数据与各所述目标对象的点云数据进行组合,得到每帧所述目标稀疏点云数据对应的稠密点云数据。
在一个实施例中,所述利用所述目标教师模型、第一训练集以及所述第二训练集,通过知识蒸馏方法,对学生模型进行训练,直至学生模型收敛,得到目标学生模型,包括:
将所述稠密点云数据输入至所述目标教师模型,得到第一特征图、第一回归结果以及第一分类结果;
将所述初始点云数据输入至所述学生模型,得到第二特征图、第二回归结果以及第二分类结果,其中,所述初始点云数据是根据所述第一训练集得到的;
根据所述第一特征图、第一回归结果、第一分类结果、第二特征图、第二回归结果以及第二分类结果,对学生模型进行训练,直至学生模型收敛,得到目标学生模型。
在一个实施例中,所述根据所述第一特征图、第一回归结果、第一分类结果、第二特征图、第二回归结果以及第二分类结果,对学生模型进行训练,直至学生模型收敛,得到目标学生模型,包括:
根据所述第一特征图和所述第二特征图,确定特征图损失函数;
根据所述第一回归结果和所述第二回归结果,确定回归损失函数;
根据所述第一分类结果和所述第二分类结果,确定分类损失函数;
根据所述特征图损失函数、所述回归损失函数、所述分类损失函数以及初始损失函数,确定目标损失函数;
利用所述目标损失函数对学生模型进行训练,直至学生模型收敛,得到目标学生模型。
第二方面,本公开实施例提供了一种目标检测模型训练装置,包括:
第一训练集确定模块,用于根据预设时长内的具有时间序列的所有初始点云数据、以及每帧所述初始点云数据对应的标签数据,确定第一训练集,其中,所述标签数据是根据目标对象的标注信息确定的;
稠密点云数据得到模块,用于对第一训练集中包括的多帧目标稀疏点云数据中分别对应的至少一个所述目标对象的点云数据进行增强处理,得到每帧所述目标稀疏点云数据对应的稠密点云数据,其中,所述目标稀疏点云数据是根据目标对象对应的点云数据量在第一训练集中包括的所有初始点云数据中确定的;
第二训练集确定模块,用于根据多帧所述稠密点云数据、多帧所述初始点云数据、以及所有标签数据,确定第二训练集,其中,多帧所述初始点云数据为所述第一训练集中除多帧目标稀疏点云数据的其他所述初始点云数据;
目标教师模型训练模块,用于利用所述第二训练集,对教师模型进行训练,得到训练好的目标教师模型;
目标学生模型训练模块,用于利用所述目标教师模型、第一训练集以及所述第二训练集,通过知识蒸馏方法,对学生模型进行训练,直至学生模型收敛,得到目标学生模型
第三方面,本公开实施例提供了一种电子设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现第一方面所述目标检测模型训练方法的步骤。
第四方面,本公开实施例提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现第一方面所述目标检测模型训练方法的步骤。
本公开实施例所提供的一种目标检测模型训练方法、装置、设备和介质,采用该方式通过对具有时间序列的多帧目标稀疏点云数据中的一个或多个目标对象的点云数据进行增强处理,由于在不同时刻下能够从不同角度得到各目标对象的点云数据,因此,在对目标对象的点云数据进行增强处理之后,能够更好的表征目标对象的特征,基于此,根据增强后的稠密点云数据确定的第二训练集在训练教师模型时,也能够提高目标教师模型检测准确性,避免现有技术中,由于存在被探测目标对象的距离越大,导致目标对象对应的激光点云数据越稀疏,以此降低了基于激光点云数据的目标检测的准确性的问题。进一步的,通过知识蒸馏方法,在对学生模型进行训练时,利用检测较准确的目标教师模型对学生模型进行约束,从而提高学生模型进行目标检测的准确性。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本公开实施例提供的一种目标检测模型训练方法的流程示意图;
图2为本公开实施例提供的一种目标检测模型训练装置的结构示意图。
具体实施方式
为了能够更清楚地理解本公开的上述目的、特征和优点,下面将对本公开的方案进行进一步描述。需要说明的是,在不冲突的情况下,本公开的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本公开,但本公开还可以采用其他不同于在此描述的方式来实施;显然,说明书中的实施例只是本公开的一部分实施例,而不是全部的实施例。
现有技术中,通过激光雷达获取激光点云数据时,根据激光雷达的测距距离可知,激光点云数据的密度与被探测目标对象的距离密切相关,具体的,当被探测目标对象的距离越大时,目标对象对应的激光点云数据越稀疏,且存在目标对象被遮挡的可能性,从而导致无法利用目标对象对应的激光点云数据确定目标对象的特征,以此降低了基于激光点云数据的目标检测的准确性。
基于上述问题,本公开提供了一种目标检测模型训练方法,通过对具有时间序列的多帧目标稀疏点云数据中的一个或多个目标对象的点云数据进行增强处理,由于在不同时刻下能够从不同角度得到各目标对象的点云数据,因此,在对目标对象的点云数据进行增强处理之后,能够更好的表征目标对象的特征,基于此,根据增强后的稠密点云数据确定的第二训练集在训练教师模型时,也能够提高目标教师模型检测准确性,避免现有技术中,由于存在被探测目标对象的距离越大,导致目标对象对应的激光点云数据越稀疏,以此降低了基于激光点云数据的目标检测的准确性的问题。进一步的,通过知识蒸馏方法,在对学生模型进行训练时,利用检测较准确的目标教师模型对学生模型进行约束,从而提高学生模型进行目标检测的准确性。
在一个实施例中,如图1所示,图1为本公开实施例提供的一种目标检测模型训练方法的流程示意图,具体包括以下步骤:
S11:根据预设时长内的具有时间序列的所有初始点云数据、以及每帧初始点云数据对应的标签数据,确定第一训练集。
其中,标签数据是根据目标对象的标注信息确定的,标签数据用来确定目标对象的位置、大小、朝向等信息,对于标签数据可以是通过框选的方式设置,目标对象是指在进行目标检测时,需要被检测的对象。示例性的,在通过激光雷达获取得到的一帧点云数据中,将目标对象如汽车通过框选的方式进行标注,以此得到标签数据,但不限于此,本公开不具体限制,本领域技术人员可根据实际情况设置。
上述点云数据是指利用激光雷达获取的具有三维空间坐标的一组向量的集合,由于数量大且密集,因此被称为点云,点云数据包括但不限于几何位置信息、颜色信息、强度信息,由于点云数据带有空间坐标,因此被广泛的应用于测绘、电力、建筑、工业、汽车、游戏、刑侦等相当多的领域,但不限于此,本公开不具体限制,本领域人员可根据实际情况设置。
上述初始点云数据是指在预设时长内的,获取不同时刻对应的初始点云数据,以此得到的具有时间序列的多帧初始点云数据,通过该方式,能够在不同时刻下获取不同角度、不同距离,具有不同点云数据量的初始点云数据,进一步的对于初始点云数据中的各个目标对象,同样也能够获取在不同角度、不同距离对应的点云数据,便于后续根据各目标对象在多角度、多距离分别对应的点云数据,能够更准确的获取目标对象的特征,以此解决当被探测目标对象的距离越大,导致目标对象对应的激光点云数据越稀疏,无法获取探测目标对象的特征的问题。其中,预设时长例如可以是10秒,但不限于此,本公开不具体限制,本领域技术人员可根据实际情况设置。
具体的,通过激光雷达获取预设时长内的具有时间序列的所有初始点云数据,并在每帧初始点云数据中,根据目标对象的标注信息,对目标对象进行打标签处理,以此得到每帧初始点云数据对应的标签数据,根据所有初始点云数据以及每帧初始点云数据对应的标签数据,确定第一训练集。
S12:对第一训练集中包括的多帧目标稀疏点云数据中分别对应的至少一个目标对象的点云数据进行增强处理,得到每帧目标稀疏点云数据对应的稠密点云数据。
其中,目标稀疏点云数据是根据目标对象对应的点云数据量在初始训练集中包括的所有初始点云数据中确定的。
其中,增强处理是指针对每帧目标稀疏点云数据中的一个或多个目标对象的点云数据进行处理,以增加目标对象点云数据量,从而能够获取准确的目标对象的特征。
可选的,在上述实施例的基础上,在本公开一些实施例中,在执行S12之前还包括:
S111:确定每帧初始点云数据中的各目标对象对应的点云数据量。
S112:根据点云数据量以及预设阈值,在第一训练集中确定多帧目标稀疏点云数据。
其中,预设阈值是指用来在第一训练集中包括的所有初始点云数据确定目标稀疏点云数据所设置的参数值,该预设阈值例如可以是1000,但不限于此,本公开不具体限制,本领域技术人员可根据实际情况设置。
具体的,对于第一训练集中包括的所有初始点云数据,获取每帧初始点云数据中包括的所有目标对象对应的点云数据量,将每帧初始点云数据中各目标对象对应的点云数据量与预设阈值进行对比,以此在第一训练集中确定多帧目标稀疏点云数据,即在所有初始点云数据中确定多帧目标稀疏点云数据。
可选的,在上述实施例的基础上,在本公开一些实施例中,根据点云数据量以及预设阈值,在第一训练集中确定多帧目标稀疏点云数据的一种实现方式可以是:
判断各目标对象对应的点云数据量是否小于预设阈值,在确定点云数据量小于预设阈值时,确定存在目标对象对应的点云数据量小于预设阈值的初始点云数据为目标稀疏点云数据。
这样,本公开提供的目标检测模型训练方法,通过上述过程,能够快速的在第一训练集中确定需要进行数据增强处理的目标稀疏点云数据,避免对第一训练集中包括的所有初始点云数据都进行数据增强处理。
S13:根据多帧稠密点云数据、多帧初始点云数据、以及所有标签数据,确定第二训练集。
其中,多帧初始点云数据为第一训练集中除多帧目标稀疏点云数据的其他初始点云数据。
可选的,在上述实施例的基础上,在本公开一些实施例中,S13的一种实现方式可以是,在得到多帧稠密点云数据之后,利用多帧稠密点云数据替换第一训练集相对应的初始点云数据,继而得到第二训练集。
S14:利用第二训练集,对教师模型进行训练,得到训练好的目标教师模型。
其中,教师模型指的是具有网络规模大、计算量复杂的大型网络模型,在利用第二训练集,对教师模型进行训练,得到训练好的目标教师模型,通过训练好的目标教师模型,能够较准确的检测到目标对象,但是,又因为在对教师模型进行训练过程中,存在计算量较大的问题,因此利用知识蒸馏方法,根据训练好的目标教师模型,训练相对应的网络规模小、计算量少学生模型,即,将教师模型的知识转移到学生模型上,以此利用小型网络规模实现教师模型所能达到的性能,继而提高计算效率。
S15:利用目标教师模型、第一训练集以及第二训练集,通过知识蒸馏方法,对学生模型进行训练,直至学生模型收敛,得到目标学生模型。
具体的,在得到第二训练集之后,利用第二训练集,对教师模型进行训练,得到训练好的目标教师模型,进一步的,利用训练好的的目标教师模型,以及初始的未经过增强处理的第一训练集,通过知识蒸馏方法,对学生模型进行训练,直至学生模型收敛,得到目标学生模型。
这样,本实施例提供的目标检测模型训练方法,通过对具有时间序列的多帧目标稀疏点云数据中的一个或多个目标对象的点云数据进行增强处理,由于在不同时刻下能够从不同角度得到各目标对象的点云数据,因此,在对目标对象的点云数据进行增强处理之后,能够更好的表征目标对象的特征,基于此,根据增强后的稠密点云数据确定的第二训练集在训练教师模型时,也能够提高目标教师模型检测准确性,避免现有技术中,由于存在被探测目标对象的距离越大,导致目标对象对应的激光点云数据越稀疏,以此降低了基于激光点云数据的目标检测的准确性的问题。进一步的,通过知识蒸馏方法,在对学生模型进行训练时,利用检测较准确的目标教师模型对学生模型进行约束,从而提高学生模型进行目标检测的准确性。
可选的,在上述实施例的基础上,在本公开一些实施例中,S12的一中实现方式可以是:
S121:根据多帧目标稀疏点云数据中分别对应的各目标对象的点云数据,确定各目标对象对应的参考稠密点云数据。
其中,参考稠密点云数据是用来较准确的从不同角度获取各目标对象的特征的。
具体的,获取多帧目标稀疏点云数据中,每帧目标稀疏点云数据中各目标对象的点云数据,从而将多帧目标稀疏点云数据中分别对应的目标对象的点云数据进行组合,得到目标对象对应的参考稠密点云数据。
可选的,上述针对多帧目标稀疏点云数据中分别对应的各目标对象,能够通过目标唯一索引如目标对象的标识号进行关联,但不限于此,本公开不具体限制。
可选的,在上述实施例的基础上,在本公开一些实施例中,在根据多帧目标稀疏点云数据中分别对应的各目标对象的点云数据,确定各目标对象对应的参考稠密点云数据之前,在确定每帧目标稀疏点云数据存在多个目标对象时,针对每帧目标稀疏点云数据中的多个目标对象,获取各目标对象的点云数据量,根据点云数据量以及预设阈值,在每帧目标稀疏点云数据中的多个目标对象,确定需要进行增强处理的一个或多个目标对象。
示例性的,对于一帧目标稀疏点云数据中,对于目标对象例如可以是汽车,确定在该目标稀疏点云数据存在10辆汽车,分别获取10辆汽车对应的点云数据量,进而根据每辆汽车的点云数据量以及预设阈值的大小关系,确定在10辆汽车中需要进行增强处理的汽车例如可以是1辆,还可以是5辆,但不限于此,本公开不具体限制。
可选的,在上述实施例的基础上,在本公开一些实施例中,S121的一中实现方式可以是:
S1211:将每帧目标稀疏点云数据中的各目标对象的点云数据映射至同一雷达坐标系中,并根据预设姿态,调整各目标对象的点云数据。
其中,将每帧目标稀疏点云数据中的各目标对象的点云数据映射至同一雷达坐标系是因为激光雷达在采集初始点云数据过程中,由于激光雷达的位置随着时间在改变,因此导致在不同时刻得到的初始点云数据具有不同的雷达坐标系,基于此,需要将不同时刻的初始点云数据中的目标对象的点云数据映射至同一雷达坐标系中,且,进一步的,又因为在不同时刻下,根据从不同角度获取到的初始点云数据中的目标对象的姿态也是不同的,基于此,通过设置预设姿态,调整具有不同姿态的每帧初始点云数据中的目标对象的姿态为同一预设姿态,从而保证目前多帧目标稀疏点云数据中分别对应的目标对象的点云数据在同一雷达坐标系中,且具有同一预设姿态,便于后续确定目标对象对应的参考稠密点云数据。
需要说明的是,上述在将每帧目标稀疏点云数据中的各目标对象的点云数据映射至同一雷达坐标系过程中,需要在多帧目标稀疏点云数据中,确定每帧目标稀疏点云数据中的相对应的进行增强处理的同一目标对象,将该多个进行增强处理的同一目标对象云数据均映射至同一雷达坐标系中。
S1212:将调整后的多帧目标稀疏点云数据中的各目标对象的点云数据进行组合,得到各目标对象对应的参考稠密点云数据。
具体的,将具有不同雷达坐标系每帧目标稀疏点云数据中的同一目标对象的点云数据映射至同一雷达坐标系之后,并根据预先设置的预设姿态,对每帧目标稀疏点云数据中的相对应的各目标对象的点云数据进行调整,使得每帧目标稀疏点云数据中的目标对象的点云数据具有相同的预设姿态,在完成调整之后,将调整后的多帧目标稀疏点云数据中的相对应的各目标对象的点云数据进行组合,得到目标对象对应的参考稠密点云数据。
S122:根据参考稠密点云数据,对每帧目标稀疏点云数据中的各目标对象的点云数据进行增强处理,得到每帧目标稀疏点云数据对应的稠密点云数据。
具体的,在得到各目标对象对应的参考稠密点云数据之后,根据参考稠密点云数据,对每帧目标稀疏点云数据中的各目标对象的点云数据进行增强处理,得到每帧目标稀疏点云数据对应的稠密点云数据。
需要说明的是,由于参考稠密点云数据能够表征目标对象的三维空间结构,因此,根据参考稠密点云数据能够增加目标稀疏点云数据中的目标对象的点云数据量。
可选的,在上述实施例的基础上,在本公开一些实施例中,由于参考稠密点云数据的点云数据量较大,因此为了能够减小计算量,在根据参考稠密点云数据,对每帧目标稀疏点云数据中的目标对象的点云数据进行增强处理之前,对参考稠密点云数据进行下采样处理,对于下采样处理可参考现有技术,此处不在赘述。
可选的,在上述实施例的基础上,在本公开一些实施例中,S122的一中实现方式可以是:
S1221:确定每帧目标稀疏点云数据中的各目标对象的位姿信息。
S1222:基于位姿信息,将稠密点云数据与每帧目标稀疏点云数据中的各目标对象的点云数据进行组合,得到每帧目标稀疏点云数据对应的稠密点云数据。
具体的,确定每帧目标稀疏点云数据中的各目标对象的位姿信息,在确定了每帧目标稀疏点云数据中的各目标对象的位姿信息之后,在该目标对象对应的稠密点云数据中,获取与目标对象的位姿信息相对应的点云数据,将该点云数据与该目标对象的点云数据进行组合,以此得到每帧目标稀疏点云数据对应的稠密点云数据。
这样,本公开提供的目标检测模型训练方法,通过上述过程,通过具有时间序列的多帧目标稀疏点云数据中的目标对象的点云数据,获取具有不同角度的目标对象对应的参考稠密点云数据,进一步,利用该目标对象对应的参考稠密点云数据,以此实现对多帧目标稀疏点云数据中的目标对象的点云数据的增强,从而提高了基于该增强后的点云数据进行目标检测的准确性。
可选的,在上述实施例的基础上,在本公开一些实施例中,S15的一中实现方式可以是:
S151:将稠密点云数据输入至目标教师模型,得到第一特征图、第一回归结果以及第一分类结果。
其中,第一特征图是根据目标教师模型提取得到的最后一层特征图,第一回归结果是指在稠密点云数据对目标对象进行打标签的结果,即,对目标对象进行框选以此确定目标对象在稠密点云数据的位置,第一分类结果是指在稠密点云数据实现对目标对象检测的分类结果。
S152:将初始点云数据输入至学生模型,得到第二特征图、第二回归结果以及第二分类结果。
其中,初始点云数据是根据第一训练集得到的,上述学生模型是指未训练好的模型。
S153:根据第一特征图、第一回归结果、第一分类结果、第二特征图、第二回归结果以及第二分类结果,对学生模型进行训练,直至学生模型收敛,得到目标学生模型。
具体的,将经过增强处理后的稠密点云数据输入至训练好的目标教师模型,使得目标教师模型输出第一特征图、第一回归结果以及第一分类结果,在对学生模型进行训练的过程中,将初始点云数据输入至学生模型,使得学生模型输出第二特征图、第二回归结果以及第二分类结果,进而根据第一特征图、第一回归结果、第一分类结果、第二特征图、第二回归结果以及第二分类结果,对学生模型进行训练,直至学生模型收敛,得到目标学生模型。
可选的,在上述实施例的基础上,在本公开一些实施例中,S153的一中实现方式可以是:
S1531:根据第一特征图和第二特征图,确定特征图损失函数。
S1532:根据第一回归结果和第二回归结果,确定回归损失函数。
S1533:根据第一分类结果和第二分类结果,确定分类损失函数。
具体的,利用第一特征图和第二特征图,构建对应的特征图损失函数,利用第一回归结果和第二回归结果,构建对应的回归损失函数,利用第一分类结果和第二分类结果,构建对应的分类损失函数。
上述对于构建特征图损失函数、回归损失函数以及分类损失函数的具体实现过程可参考现有技术,此处不再过多赘述。
S1534:根据特征图损失函数、回归损失函数、分类损失函数以及初始损失函数,确定目标损失函数。
其中,初始损失函数是指学生模型原始的损失函数,该损失函数参考现有技术,此处不再过多赘述。
具体的,利用特征图损失函数、回归损失函数、分类损失函数以及初始损失函数,构建训练学生模型的目标损失函数,具体可以由以下表达式限定:
LT=LD+L4
其中,L4表示初始损失函数,LD表示蒸馏损失函数,LD是根据特征图损失函数、回归损失函数以及分类损失函数确定的,即,LD=aL1+bL2+cL3,对于L1表示特征图损失函数,L2表示回归损失函数,L3表示分类损失函数,a,b,c表示特征图损失函数、回归损失函数以及分类损失函数分别对应的权值,对于a,b,c的取值,本公开不具体限制,本领域技术人员可根据实际情况设置。
S1535:利用目标损失函数对学生模型进行训练,直至学生模型收敛,得到目标学生模型。
具体的,将第二训练集输入至学生模型中,利用目标损失函数对学生模型进行训练,直至学生模型收敛,得到目标学生模型。
这样,本公开提供的目标检测模型训练方法,通过上述过程,通过知识蒸馏方法,在对学生模型进行训练时,利用检测较准确的目标教师模型对学生模型构建蒸馏损失函数,进而根据蒸馏损失函数以及学生模型的初始损失函数确定目标损失函数,以此在训练过程中,利用目标损失函数进行约束,从而提高学生模型进行目标检测的准确性。
应该理解的是,虽然图1的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图2所示,提供了一种目标检测模型训练装置,包括:第一训练集确定模块11、稠密点云数据得到模块12、第二训练集确定模块13、目标教师模型训练模块14以及目标学生模型训练模块15。
其中,第一训练集确定模块11,用于根据预设时长内的具有时间序列的所有初始点云数据、以及每帧所述初始点云数据对应的标签数据,确定第一训练集,其中,所述标签数据是根据目标对象的标注信息确定的;
稠密点云数据得到模块12,用于对第一训练集中包括的多帧目标稀疏点云数据中分别对应的至少一个所述目标对象的点云数据进行增强处理,得到每帧所述目标稀疏点云数据对应的稠密点云数据,其中,所述目标稀疏点云数据是根据目标对象对应的点云数据量在第一训练集中包括的所有初始点云数据中确定的;
第二训练集确定模块13,用于根据多帧所述稠密点云数据、多帧所述初始点云数据、以及所有标签数据,确定第二训练集,其中,多帧所述初始点云数据为所述第一训练集中除多帧目标稀疏点云数据的其他所述初始点云数据;
目标教师模型训练模块14,用于利用所述第二训练集,对教师模型进行训练,得到训练好的目标教师模型;
目标学生模型训练模块15,用于利用所述目标教师模型、第一训练集以及第二训练集,通过知识蒸馏方法,对学生模型进行训练,直至学生模型收敛,得到目标学生模型。
在本发明实施例一实施方式中,所述装置还包括:目标稀疏点云数据确定模块,用于确定所述每帧所述初始点云数据中的各所述目标对象对应的点云数据量;根据所述点云数据量以及预设阈值,在所述第一训练集中确定多帧所述目标稀疏点云数据。
在本发明实施例一实施方式中,稠密点云数据得到模块12,具体用于根据多帧所述目标稀疏点云数据中分别对应的各所述目标对象的点云数据,确定各所述目标对象对应的参考稠密点云数据;根据所述参考稠密点云数据,对每帧所述目标稀疏点云数据中的各所述目标对象的点云数据进行增强处理,得到每帧所述目标稀疏点云数据对应的稠密点云数据。
在本发明实施例一实施方式中,稠密点云数据得到模块12,具体还用于将每帧所述目标稀疏点云数据中的各所述目标对象的点云数据映射至同一雷达坐标系中,并根据预设姿态,调整各所述目标对象的点云数据;将调整后的多帧所述目标稀疏点云数据中的各所述目标对象的点云数据进行组合,得到各所述目标对象对应的参考稠密点云数据。
在本发明实施例一实施方式中,稠密点云数据得到模块12,具体还用于确定每帧所述目标稀疏点云数据中的各所述目标对象的位姿信息;基于所述位姿信息,将各所述目标对象对应的参考稠密点云数据与各所述目标对象的点云数据进行组合,得到每帧所述目标稀疏点云数据对应的稠密点云数据。
在本发明实施例一实施方式中,目标学生模型训练模块15,具体用于将所述稠密点云数据输入至所述目标教师模型,得到第一特征图、第一回归结果以及第一分类结果;将所述初始点云数据输入至所述学生模型,得到第二特征图、第二回归结果以及第二分类结果,其中,所述初始点云数据是根据所述第一训练集得到的;根据所述第一特征图、第一回归结果、第一分类结果、第二特征图、第二回归结果以及第二分类结果,对学生模型进行训练,直至学生模型收敛,得到目标学生模型。
在本发明实施例一实施方式中,目标学生模型训练模块15,具体还用于根据所述第一特征图和所述第二特征图,确定特征图损失函数;根据所述第一回归结果和所述第二回归结果,确定回归损失函数;根据所述第一分类结果和所述第二分类结果,确定分类损失函数;根据所述特征图损失函数、所述回归损失函数、所述分类损失函数以及初始损失函数,确定目标损失函数;利用所述目标损失函数对学生模型进行训练,直至学生模型收敛,得到目标学生模型。
在上述实施例中,第一训练集确定模块用于根据预设时长内的具有时间序列的所有初始点云数据、以及每帧初始点云数据对应的标签数据,确定第一训练集,其中,标签数据是根据目标对象的标注信息确定的;稠密点云数据得到模块用于对第一训练集中包括的多帧目标稀疏点云数据中分别对应的至少一个目标对象的点云数据进行增强处理,得到每帧目标稀疏点云数据对应的稠密点云数据,其中,目标稀疏点云数据是根据目标对象对应的点云数据量在第一训练集中包括的所有初始点云数据中确定的;第二训练集确定模块用于根据多帧稠密点云数据、多帧初始点云数据、以及所有标签数据,确定第二训练集,其中,多帧初始点云数据为第一训练集中除多帧目标稀疏点云数据的其他初始点云数据;目标教师模型训练模块用于利用第二训练集,对教师模型进行训练,得到训练好的目标教师模型;目标学生模型训练模块用于利用目标教师模型、第一训练集以及第二训练集,通过知识蒸馏方法,对学生模型进行训练,直至学生模型收敛,得到目标学生模型。这样,通过对具有时间序列的多帧目标稀疏点云数据中的一个或多个目标对象的点云数据进行增强处理,由于在不同时刻下能够从不同角度得到各目标对象的点云数据,因此,在对目标对象的点云数据进行增强处理之后,能够更好的表征目标对象的特征,基于此,根据增强后的稠密点云数据确定的第二训练集在训练教师模型时,也能够提高目标教师模型检测准确性,避免现有技术中,由于存在被探测目标对象的距离越大,导致目标对象对应的激光点云数据越稀疏,以此降低了基于激光点云数据的目标检测的准确性的问题。进一步的,通过知识蒸馏方法,在对学生模型进行训练时,利用检测较准确的目标教师模型对学生模型进行约束,从而提高学生模型进行目标检测的准确性。
关于目标检测模型训练装置的具体限定可以参见上文中对于目标检测模型训练方法的限定,在此不再赘述。上述服务器中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
本公开实施例提供了一种电子设备,包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时可以实现本公开实施例提供的目标检测模型训练方法,例如,处理器执行计算机程序时可以实现图1所示方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
本公开还提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时可以实现本公开实施例提供的目标检测模型训练方法,例如,计算机程序被处理器执行时实现图1所示方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本公开所提供的各实施例中所使用的对存储器、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-OnlyMemory,ROM)、磁带、软盘、闪存或光存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,比如静态随机存取存储器(Static Random Access Memory,SRAM)和动态随机存取存储器(Dynamic Random Access Memory,DRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本公开的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本公开构思的前提下,还可以做出若干变形和改进,这些都属于本公开的保护范围。因此,本公开专利的保护范围应以所附权利要求为准。

Claims (9)

1.一种目标检测模型训练方法,其特征在于,包括:
根据预设时长内的具有时间序列的所有初始点云数据、以及每帧所述初始点云数据对应的标签数据,确定第一训练集,其中,所述标签数据是根据目标对象的标注信息确定的;
对第一训练集中包括的多帧目标稀疏点云数据中分别对应的至少一个所述目标对象的点云数据进行增强处理,得到每帧所述目标稀疏点云数据对应的稠密点云数据,其中,所述目标稀疏点云数据是根据目标对象对应的点云数据量在第一训练集中包括的所有初始点云数据中确定的;
根据多帧所述稠密点云数据、多帧所述初始点云数据、以及所有标签数据,确定第二训练集,其中,多帧所述初始点云数据为所述第一训练集中除多帧目标稀疏点云数据的其他所述初始点云数据;
利用所述第二训练集,对教师模型进行训练,得到训练好的目标教师模型;
利用所述目标教师模型、第一训练集以及所述第二训练集,通过知识蒸馏方法,对学生模型进行训练,直至学生模型收敛,得到目标学生模型;
所述利用所述目标教师模型、第一训练集以及所述第二训练集,通过知识蒸馏方法,对学生模型进行训练,直至学生模型收敛,得到目标学生模型,包括:
将所述稠密点云数据输入至所述目标教师模型,得到第一特征图、第一回归结果以及第一分类结果;
将所述初始点云数据输入至所述学生模型,得到第二特征图、第二回归结果以及第二分类结果,其中,所述初始点云数据是根据所述第一训练集得到的;
根据所述第一特征图、第一回归结果、第一分类结果、第二特征图、第二回归结果以及第二分类结果,对学生模型进行训练,直至学生模型收敛,得到目标学生模型。
2.根据权利要求1所述的方法,其特征在于,所述对第一训练集中包括的多帧目标稀疏点云数据中分别对应的至少一个目标对象的点云数据进行增强处理,得到每帧所述目标稀疏点云数据对应的稠密点云数据之前,还包括:
确定所述每帧所述初始点云数据中的各所述目标对象对应的点云数据量;
根据所述点云数据量以及预设阈值,在所述第一训练集中确定多帧所述目标稀疏点云数据。
3.根据权利要求1所述的方法,其特征在于,所述对第一训练集中包括的多帧目标稀疏点云数据中分别对应的至少一个所述目标对象的点云数据进行增强处理,得到每帧所述目标稀疏点云数据对应的稠密点云数据,包括:
根据多帧所述目标稀疏点云数据中分别对应的各所述目标对象的点云数据,确定各所述目标对象对应的参考稠密点云数据;
根据所述参考稠密点云数据,对每帧所述目标稀疏点云数据中的各所述目标对象的点云数据进行增强处理,得到每帧所述目标稀疏点云数据对应的稠密点云数据。
4.根据权利要求3所述的方法,其特征在于,所述根据多帧所述目标稀疏点云数据中分别对应的各所述目标对象的点云数据,确定各所述目标对象对应的参考稠密点云数据,包括:
将每帧所述目标稀疏点云数据中的各所述目标对象的点云数据映射至同一雷达坐标系中,并根据预设姿态,调整各所述目标对象的点云数据;
将调整后的多帧所述目标稀疏点云数据中的各所述目标对象的点云数据进行组合,得到各所述目标对象对应的参考稠密点云数据。
5.根据权利要求3所述的方法,其特征在于,所述根据所述参考稠密点云数据,对每帧所述目标稀疏点云数据中的各所述目标对象的点云数据进行增强处理,得到每帧所述目标稀疏点云数据对应的稠密点云数据,包括:
确定每帧所述目标稀疏点云数据中的各所述目标对象的位姿信息;
基于所述位姿信息,将各所述目标对象对应的参考稠密点云数据与各所述目标对象的点云数据进行组合,得到每帧所述目标稀疏点云数据对应的稠密点云数据。
6.根据权利要求1所述的方法,其特征在于,所述根据所述第一特征图、第一回归结果、第一分类结果、第二特征图、第二回归结果以及第二分类结果,对学生模型进行训练,直至学生模型收敛,得到目标学生模型,包括:
根据所述第一特征图和所述第二特征图,确定特征图损失函数;
根据所述第一回归结果和所述第二回归结果,确定回归损失函数;
根据所述第一分类结果和所述第二分类结果,确定分类损失函数;
根据所述特征图损失函数、所述回归损失函数、所述分类损失函数以及初始损失函数,确定目标损失函数;
利用所述目标损失函数对学生模型进行训练,直至学生模型收敛,得到目标学生模型。
7.一种目标检测模型训练装置,其特征在于,包括:
第一训练集确定模块,用于根据预设时长内的具有时间序列的所有初始点云数据、以及每帧所述初始点云数据对应的标签数据,确定第一训练集,其中,所述标签数据是根据目标对象的标注信息确定的;
稠密点云数据得到模块,用于对第一训练集中包括的多帧目标稀疏点云数据中分别对应的至少一个所述目标对象的点云数据进行增强处理,得到每帧所述目标稀疏点云数据对应的稠密点云数据,其中,所述目标稀疏点云数据是根据目标对象对应的点云数据量在第一训练集中包括的所有初始点云数据中确定的;
第二训练集确定模块,用于根据多帧所述稠密点云数据、多帧所述初始点云数据、以及所有标签数据,确定第二训练集,其中,多帧所述初始点云数据为所述第一训练集中除多帧目标稀疏点云数据的其他所述初始点云数据;
目标教师模型训练模块,用于利用所述第二训练集,对教师模型进行训练,得到训练好的目标教师模型;
目标学生模型训练模块,用于利用所述目标教师模型、第一训练集以及所述第二训练集,通过知识蒸馏方法,对学生模型进行训练,直至学生模型收敛,得到目标学生模型;
目标学生模型训练模块,用于将所述稠密点云数据输入至所述目标教师模型,得到第一特征图、第一回归结果以及第一分类结果;
将所述初始点云数据输入至所述学生模型,得到第二特征图、第二回归结果以及第二分类结果,其中,所述初始点云数据是根据所述第一训练集得到的;
根据所述第一特征图、第一回归结果、第一分类结果、第二特征图、第二回归结果以及第二分类结果,对学生模型进行训练,直至学生模型收敛,得到目标学生模型。
8.一种电子设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至6中任一项所述目标检测模型训练方法的步骤。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-6中任一项所述目标检测模型训练方法的步骤。
CN202310177285.5A 2023-02-23 2023-02-23 目标检测模型训练方法、装置、设备和介质 Active CN116229210B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310177285.5A CN116229210B (zh) 2023-02-23 2023-02-23 目标检测模型训练方法、装置、设备和介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310177285.5A CN116229210B (zh) 2023-02-23 2023-02-23 目标检测模型训练方法、装置、设备和介质

Publications (2)

Publication Number Publication Date
CN116229210A CN116229210A (zh) 2023-06-06
CN116229210B true CN116229210B (zh) 2023-10-24

Family

ID=86569178

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310177285.5A Active CN116229210B (zh) 2023-02-23 2023-02-23 目标检测模型训练方法、装置、设备和介质

Country Status (1)

Country Link
CN (1) CN116229210B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112767554A (zh) * 2021-04-12 2021-05-07 腾讯科技(深圳)有限公司 一种点云补全方法、装置、设备及存储介质
CN113592932A (zh) * 2021-06-28 2021-11-02 北京百度网讯科技有限公司 深度补全网络的训练方法、装置、电子设备及存储介质
CN114639021A (zh) * 2022-03-25 2022-06-17 合肥工业大学 一种目标检测模型的训练方法及目标划分方法
WO2022213879A1 (zh) * 2021-04-07 2022-10-13 腾讯科技(深圳)有限公司 目标对象检测方法、装置、计算机设备和存储介质
WO2023277975A1 (en) * 2021-06-30 2023-01-05 Tencent America LLC Systems and methods of contrastive point completion with fine-to-coarse refinement
CN115690708A (zh) * 2022-10-21 2023-02-03 苏州轻棹科技有限公司 基于跨模态知识蒸馏训练三维目标检测模型的方法和装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220036194A1 (en) * 2021-10-18 2022-02-03 Intel Corporation Deep neural network optimization system for machine learning model scaling

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022213879A1 (zh) * 2021-04-07 2022-10-13 腾讯科技(深圳)有限公司 目标对象检测方法、装置、计算机设备和存储介质
CN112767554A (zh) * 2021-04-12 2021-05-07 腾讯科技(深圳)有限公司 一种点云补全方法、装置、设备及存储介质
CN113592932A (zh) * 2021-06-28 2021-11-02 北京百度网讯科技有限公司 深度补全网络的训练方法、装置、电子设备及存储介质
WO2023277975A1 (en) * 2021-06-30 2023-01-05 Tencent America LLC Systems and methods of contrastive point completion with fine-to-coarse refinement
CN114639021A (zh) * 2022-03-25 2022-06-17 合肥工业大学 一种目标检测模型的训练方法及目标划分方法
CN115690708A (zh) * 2022-10-21 2023-02-03 苏州轻棹科技有限公司 基于跨模态知识蒸馏训练三维目标检测模型的方法和装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Object DGCNN:3D Object Detection using Dynamic Graphs;Yue Wang 等;35th Conference on Neural Information Processing Systems;1-14 *
激光点云的三维目标检测研究进展;周燕 等;计算机科学与探索;2695-2617 *

Also Published As

Publication number Publication date
CN116229210A (zh) 2023-06-06

Similar Documents

Publication Publication Date Title
CN109117831B (zh) 物体检测网络的训练方法和装置
CN109086811B (zh) 多标签图像分类方法、装置及电子设备
WO2019100723A1 (zh) 训练多标签分类模型的方法和装置
CN111161349B (zh) 物体姿态估计方法、装置与设备
CN112633311A (zh) 利用输入数据结构的高效黑盒对抗性攻击
KR20160041856A (ko) 베이지안 최적화를 수행하기 위한 시스템 및 방법
CN111612822B (zh) 对象跟踪方法、装置、计算机设备和存储介质
CN112085056B (zh) 目标检测模型生成方法、装置、设备及存储介质
US20200202556A1 (en) Water level measurement device and shoreline extraction method
KR20210074163A (ko) 공동 검출 및 기술 시스템 및 방법
CN109685830B (zh) 目标跟踪方法、装置和设备及计算机存储介质
CN114494260A (zh) 对象缺陷检测方法、装置、计算机设备和存储介质
CN111932451A (zh) 重定位效果的评价方法、装置、电子设备和存储介质
CN114519853A (zh) 一种基于多模态融合的三维目标检测方法及系统
US10311338B1 (en) Learning method, learning device for detecting lanes on the basis of CNN and testing method, testing device using the same
CN111507135A (zh) 人脸检测方法、装置、计算机设备及存储介质
CN116229210B (zh) 目标检测模型训练方法、装置、设备和介质
CN116206196B (zh) 一种海洋低光环境多目标检测方法及其检测系统
CN114638996A (zh) 基于对抗学习的模型训练方法、装置、设备和存储介质
CN114663714B (zh) 图像分类、地物分类方法和装置
CN116597246A (zh) 模型训练方法、目标检测方法、电子设备及存储介质
CN116433722A (zh) 目标跟踪方法、电子设备、存储介质及程序产品
CN116091784A (zh) 一种目标跟踪方法、设备及存储介质
CN115661542A (zh) 一种基于特征关系迁移的小样本目标检测方法
CN114511731A (zh) 目标检测器的训练方法、装置、存储介质和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant