CN115223117A - 三维目标检测模型的训练和使用方法、装置、介质及设备 - Google Patents

三维目标检测模型的训练和使用方法、装置、介质及设备 Download PDF

Info

Publication number
CN115223117A
CN115223117A CN202210602131.1A CN202210602131A CN115223117A CN 115223117 A CN115223117 A CN 115223117A CN 202210602131 A CN202210602131 A CN 202210602131A CN 115223117 A CN115223117 A CN 115223117A
Authority
CN
China
Prior art keywords
dimensional
loss function
detection model
distillation
feature map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210602131.1A
Other languages
English (en)
Other versions
CN115223117B (zh
Inventor
董博
林金表
许舒恒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Feichi Era Technology Co.,Ltd.
Jiuzhi Suzhou Intelligent Technology Co ltd
Original Assignee
Jiuzhi Suzhou Intelligent Technology Co ltd
Jiuzhizhixing Beijing Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiuzhi Suzhou Intelligent Technology Co ltd, Jiuzhizhixing Beijing Technology Co ltd filed Critical Jiuzhi Suzhou Intelligent Technology Co ltd
Priority to CN202210602131.1A priority Critical patent/CN115223117B/zh
Publication of CN115223117A publication Critical patent/CN115223117A/zh
Application granted granted Critical
Publication of CN115223117B publication Critical patent/CN115223117B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本申请公开了一种三维目标检测模型的训练和使用方法、装置、介质及设备,属于数据处理技术领域。方法包括:获取三维目标检测模型和训练集;利用三维目标检测模型中的学生网络对单目图像进行检测,得到第一检测结果、深度损失函数和真值损失函数;利用教师网络对点云数据进行检测,得到第二检测结果;根据第一检测结果和第二检测结果计算BEV特征蒸馏损失函数、三维关系蒸馏损失函数和响应蒸馏损失函数;根据上述五个损失函数计算三维目标检测模型的整体损失函数;根据整体损失函数训练三维目标检测模型。本申请通过跨模态知识蒸馏使单目三维目标检测能够从雷达三维目标检测中学习到三维信息,提高了检测精度和检测效率,降低了检测成本。

Description

三维目标检测模型的训练和使用方法、装置、介质及设备
技术领域
本申请涉及图像处理技术领域,特别涉及一种三维目标检测模型的训练和使用方法、装置、介质及设备。
背景技术
无人驾驶车辆在行驶过程中需要实时进行三维目标检测,以便于准确预判和规划行驶路径。
常见的三维目标检测可以包括单目三维目标检测和雷达三维目标检测。单目三维目标检测是从单目图像中预测出三维目标的位置,雷达三维目标检测是从点云数据中预测出三维目标的位置。
采用单目三维目标检测时,单目图像中缺少深度信息,这就会产生深度估计误差,而深度估计误差会对检测精度产生较大的影响。采用雷达三维目标检测时,需要在无人驾驶车辆中配置高成本的雷达,且点云数据的数据量较大,检测效率较低。
发明内容
本申请提供了一种三维目标检测模型的训练和使用方法、装置、介质及设备,用于解决采用单目三维目标检测时检测精度低、采用雷达三维目标检测时成本高和检测效率低的问题。所述技术方案如下:
一方面,提供了一种三维目标检测模型的训练方法,所述方法包括:
获取三维目标检测模型和训练集,所述训练集中包含在无人驾驶车辆的行驶过程中采集到的同一时刻的单目图像和点云数据,所述三维目标检测模型中包含学生网络和教师网络;
利用所述学生网络对所述单目图像进行检测,得到第一检测结果、深度损失函数和真值损失函数;
利用所述教师网络对所述点云数据进行检测,得到第二检测结果;
根据所述第一检测结果和所述第二检测结果计算纯电动汽车BEV特征蒸馏损失函数、三维关系蒸馏损失函数和响应蒸馏损失函数;
根据所述深度损失函数、所述真值损失函数、所述BEV特征蒸馏损失函数、所述三维关系蒸馏损失函数和所述响应蒸馏损失函数计算所述三维目标检测模型的整体损失函数;
根据所述整体损失函数训练所述三维目标检测模型。
在一种可能的实现方式中,所述根据所述第一检测结果和所述第二检测结果计算纯电动汽车BEV特征蒸馏损失函数、三维关系蒸馏损失函数和响应蒸馏损失函数,包括:
采用非极大值抑制NMS算法对所述第一检测结果中的第一三维预测框和第一分类置信度进行融合,将融合后得到的第二三维预测框映射到所述学生网络输出的第一BEV特征图中,得到第一感兴趣区域特征图;
采用所述NMS算法对所述第二检测结果中的第三三维预测框和第二分类置信度进行融合,将融合后得到的第四三维预测框映射到所述教师网络输出的第二BEV特征图中,得到第二感兴趣区域特征图;
根据所述第一感兴趣区域特征图和所述第二感兴趣区域特征图计算所述BEV特征蒸馏损失函数;
根据所述第一感兴趣区域特征图和所述第二感兴趣区域特征图计算所述三维关系蒸馏损失函数;
根据所述第一三维预测框、所述第一分类置信度、所述第三三维预测框和所述第二分类置信度计算所述响应蒸馏损失函数。
在一种可能的实现方式中,所述根据所述第一感兴趣区域特征图和所述第二感兴趣区域特征图计算所述BEV特征蒸馏损失函数,包括:
对所述第一感兴趣区域特征图进行维度变换,到第三感兴趣区域特征图,所述第三感兴趣区域特征图的维度与所述第二感兴趣区域特征图的维度相同;
对所述第二感兴趣区域特征图和所述第三感兴趣区域特征图计算二次损失,得到所述BEV特征蒸馏损失函数。
在一种可能的实现方式中,所述根据所述第一感兴趣区域特征图和所述第二感兴趣区域特征图计算所述三维关系蒸馏损失函数,包括:
对所述第一感兴趣区域特征图进行维度变换,到第三感兴趣区域特征图,所述第三感兴趣区域特征图的维度与所述第二感兴趣区域特征图的维度相同;
计算所述第三感兴趣区域特征图中的各个感兴趣区域特征图之间的关系,得到第一关系矩阵;
计算所述第二感兴趣区域特征图中的各个感兴趣区域特征图之间的关系,得到第二关系矩阵;
对所述第一关系矩阵和所述第二关系矩阵计算一次损失,得到所述三维关系蒸馏损失函数。
在一种可能的实现方式中,所述根据所述第一三维预测框、所述第一分类置信度、所述第三三维预测框和所述第二分类置信度计算所述响应蒸馏损失函数,包括:
对所述第一三维预测框、所述第一分类置信度、所述第三三维预测框和所述第二分类置信度计算一次损失,得到所述响应蒸馏损失函数。
在一种可能的实现方式中,所述利用所述学生网络对所述单目图像进行检测,得到第一检测结果、深度损失函数和真值损失函数,包括:
利用所述学生网络对所述单目图像进行二维卷积处理,得到二维特征图;
对所述二维特征图进行深度估计,得到稠密深度图和所述深度损失函数;
对所述二维特征图和所述稠密度深度图进行张量点乘运算,根据单目相机与雷达的标定关系对运算结果进行转换,得到第一三维特征图;
对所述第一三维特征图进行卷积和降维处理,得到第一BEV特征图;
利用三维探测头对所述第一BEV特征图进行处理,得到所述第一检测结果和所述真值损失函数。
在一种可能的实现方式中,所述利用所述教师网络对所述点云数据进行检测,得到第二检测结果,包括:
利用所述教师网络对所述点云数据进行三维稀疏卷积处理,得到第二三维特征图;
对所述第二三维特征图进行卷积和降维处理,得到第二BEV特征图;
利用三维探测头对所述第二BEV特征图进行处理,得到所述第二检测结果。
在一种可能的实现方式中,所述根据所述深度损失函数、所述真值损失函数、所述BEV特征蒸馏损失函数、所述三维关系蒸馏损失函数和所述响应蒸馏损失函数计算所述三维目标检测模型的整体损失函数,包括:
获取第一系数、第二系数、第三系数和第四系数;
将所述真值损失函数、所述深度损失函数和所述第一系数的乘积、所述BEV特征蒸馏损失函数和所述第二系数的乘积、所述三维关系蒸馏损失函数和所述第三系数的乘积、所述响应蒸馏损失函数和所述第四系数的乘积相加,得到所述三维目标检测模型的整体损失函数。
一方面,提供了一种三维目标检测模型的使用方法,所述方法包括:
通过无人驾驶车辆中的单目相机采集当前时刻的单目图像;
获取三维目标检测模型,所述三维目标检测模型是采用如上所述的训练方法进行训练后得到;
利用所述三维目标检测模型中的学生网络对所述单目图像进行检测,得到三维目标的三维预测框和分类。
一方面,提供了一种三维目标检测模型的训练装置,所述装置包括:
第一获取模块,用于获取三维目标检测模型和训练集,所述训练集中包含在无人驾驶车辆的行驶过程中采集到的同一时刻的单目图像和点云数据,所述三维目标检测模型中包含学生网络和教师网络;
第一检测模块,用于利用所述学生网络对所述单目图像进行检测,得到第一检测结果、深度损失函数和真值损失函数;
所述第一检测模块,还用于利用所述教师网络对所述点云数据进行检测,得到第二检测结果;
计算模块,用于根据所述第一检测结果和所述第二检测结果计算纯电动汽车BEV特征蒸馏损失函数、三维关系蒸馏损失函数和响应蒸馏损失函数;
所述计算模块,还用于根据所述深度损失函数、所述真值损失函数、所述BEV特征蒸馏损失函数、所述三维关系蒸馏损失函数和所述响应蒸馏损失函数计算所述三维目标检测模型的整体损失函数;
训练模块,用于根据所述整体损失函数训练所述三维目标检测模型。
一方面,提供了一种三维目标检测模型的使用装置,所述装置包括:
采集模块,用于通过无人驾驶车辆中的单目相机采集当前时刻的单目图像;
第二获取模块,用于获取三维目标检测模型,所述三维目标检测模型是采用如上所述的训练方法进行训练后得到;
第二检测模块,用于利用所述三维目标检测模型中的学生网络对所述单目图像进行检测,得到三维目标的三维预测框和分类。
一方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令,所述至少一条指令由处理器加载并执行以实现如上所述的三维目标检测模型的训练方法;或者,所述至少一条指令由处理器加载并执行以实现如上所述的三维目标检测模型的使用方法。
一方面,提供了一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令,所述指令由所述处理器加载并执行以实现如上所述的三维目标检测模型的训练方法;或者,所述指令由所述处理器加载并执行以实现如上所述的三维目标检测模型的使用方法。
本申请提供的技术方案的有益效果至少包括:
通过利用三维目标检测模型中的学生网络对单目图像进行检测,得到第一检测结果、深度损失函数和真值损失函数;再利用三维目标检测模型中的教师网络对点云数据进行检测,得到第二检测结果;然后,根据第一检测结果和第二检测结果计算BEV特征蒸馏损失函数、三维关系蒸馏损失函数和响应蒸馏损失函数;根据深度损失函数、真值损失函数、BEV特征蒸馏损失函数、三维关系蒸馏损失函数和响应蒸馏损失函数计算三维目标检测模型的整体损失函数;最后,根据整体损失函数训练三维目标检测模型,这样,就可以在BEV视角上进行跨模态的知识蒸馏(蒸馏内容包括BEV特征蒸馏、三维关系蒸馏和响应蒸馏),使得单目三维目标检测能够从雷达三维目标检测中学习到三维信息,能够提高三维目标的检测精度和检测效率,且只需部署单目相机即可,从而降低了三维目标的检测成本。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一个实施例提供的三维目标检测模型的训练方法的方法流程图;
图2是本申请一个实施例提供的三维目标检测模型的结构示意图;
图3是本申请另一实施例提供的三维目标检测模型的使用方法的方法流程图;
图4是本申请再一实施例提供的三维目标检测模型的训练装置的结构框图;
图5是本申请再一实施例提供的三维目标检测模型的使用装置的结构框图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
请参考图1,其示出了本申请一个实施例提供的三维目标检测模型的训练方法的方法流程图,该三维目标检测模型的训练方法可以应用于计算机设备中。
该三维目标检测模型的训练方法,可以包括:
步骤101,获取三维目标检测模型和训练集,训练集中包含在无人驾驶车辆的行驶过程中采集到的同一时刻的单目图像和点云数据,三维目标检测模型中包含学生网络和教师网络。
训练集用于对三维目标检测模型进行训练。训练集中包含多组训练样本,每组训练样本中包含在无人驾驶车辆的行驶过程中采集到的同一时刻的单目图像和点云数据、以及单目图像中所包含的三维目标的真实框和分类。其中,单目图像是无人驾驶车辆中的单目相机拍摄得到的,点云数据是无人驾驶车辆中的雷达生成的,真实框用于表示三维目标在单目图像中的位置,分类用于表示三维目标的类别,比如车辆、行人、交通标志、红绿灯等等。
三维目标检测模型中包含学生网络和教师网络,学生网络用于检测单目图像,教师网络用于检测点云数据。其中,学生网络也可以称为单目三维目标检测网络,教师网络也可以称为雷达三维目标检测网络。
步骤102,利用学生网络对单目图像进行检测,得到第一检测结果、深度损失函数和真值损失函数。
具体的,利用学生网络对单目图像进行检测,得到第一检测结果、深度损失函数和真值损失函数,可以包括:利用学生网络对单目图像进行二维卷积处理,得到二维特征图;对二维特征图进行深度估计,得到稠密深度图和深度损失函数;对二维特征图和稠密度深度图进行张量点乘运算,根据单目相机与雷达的标定关系对运算结果进行转换,得到第一三维特征图;对第一三维特征图进行卷积和降维处理,得到第一BEV(Battery Electricvehicle,纯电动汽车)特征图;利用三维探测头对第一BEV特征图进行处理,得到第一检测结果和真值损失函数。
请参考图2中的学生网络(Student Network),将单目图像(Image fromMonocular)输入二维卷积模块(2D Conv Backbone),二维卷积模块的一个输出分支输出二维特征图(2D feature),另一个输出分支将二维特征图输入深度估计模块(DepthEstimation),深度估计模块输出稠密深度图(Dense Depth)和深度损失函数(DepthLoss),将二维特征图和稠密深度图进行张量点乘运算,在结合标定关系(CameraCalibration)对运算结果生成第一三维特征图(3D Volume),对第一三维特征图进行卷积和降维处理,得到第一BEV特征图(BEV Feature),将第一BEV特征图输入三维探测头(3DDetection Head),三维探测头输出第一检测结果和真值损失函数(GT Loss)。
其中,第一检测结果中包含三维目标的第一三维预测框、预测分类和第一分类置信度,该第一分类置信度也可以理解为三维目标属于预测分类的概率。
步骤103,利用教师网络对点云数据进行检测,得到第二检测结果。
具体的,利用教师网络对点云数据进行检测,得到第二检测结果,可以包括:利用教师网络对点云数据进行三维稀疏卷积处理,得到第二三维特征图;对第二三维特征图进行卷积和降维处理,得到第二BEV特征图;利用三维探测头对第二BEV特征图进行处理,得到第二检测结果。
请参考图2中的教师网络(Teacher Network),将点云数据(LiDAR Point Cloud)输入三维稀疏卷积模块(3D Sparse Conv),三维稀疏卷积模块输出第二三维特征图(3DVolume),对第二三维特征图进行卷积和降维处理,得到第二BEV特征图(BEV Feature),将第二BEV特征图输入三维探测头(3D Detection Head),三维探测头输出第二检测结果。
其中,第二检测结果中包含三维目标的第三三维预测框、预测分类和第二分类置信度,该第二分类置信度也可以理解为三维目标属于预测分类的概率。
步骤104,根据第一检测结果和第二检测结果计算BEV特征蒸馏损失函数、三维关系蒸馏损失函数和响应蒸馏损失函数。
本实施例中涉及跨模态的知识蒸馏,蒸馏内容包括BEV特征蒸馏(BEV FeatureDistillation)、三维关系蒸馏(Relationship Distillation)和响应蒸馏(ResponseDistillation),可以通过BEV特征蒸馏损失函数实现BEV特征蒸馏,通过三维关系蒸馏损失函数实现三维关系蒸馏,通过响应蒸馏损失函数实现响应蒸馏。
具体的,根据第一检测结果和第二检测结果计算纯电动汽车BEV特征蒸馏损失函数、三维关系蒸馏损失函数和响应蒸馏损失函数,可以包括:
(1)采用NMS(Non-Maximum Suppression,非极大值抑制)算法对第一检测结果中的第一三维预测框和第一分类置信度进行融合,将融合后得到的第二三维预测框映射到学生网络输出的第一BEV特征图中,得到第一感兴趣区域特征图。
其中,第一感兴趣区域特征图中包括多个感兴趣区域(Region of Interest,ROI)特征图。
(2)采用NMS算法对第二检测结果中的第三三维预测框和第二分类置信度进行融合,将融合后得到的第四三维预测框映射到教师网络输出的第二BEV特征图中,得到第二感兴趣区域特征图。
其中,第二感兴趣区域特征图中包括多个感兴趣区域特征图。
(3)根据第一感兴趣区域特征图和第二感兴趣区域特征图计算BEV特征蒸馏损失函数。
具体的,根据第一感兴趣区域特征图和第二感兴趣区域特征图计算BEV特征蒸馏损失函数,可以包括:对第一感兴趣区域特征图进行维度变换,到第三感兴趣区域特征图,第三感兴趣区域特征图的维度与第二感兴趣区域特征图的维度相同;对第二感兴趣区域特征图和第三感兴趣区域特征图计算二次损失(L2Loss),得到BEV特征蒸馏损失函数。
若将BEV特征蒸馏损失函数记为LFeature,其计算公式如下:
Figure BDA0003669736750000091
s’=fadapt(s) (2)
其中,K表示感兴趣区域特征图的数量,s’i表示第三感兴趣区域特征图中的第i个感兴趣区域特征图,ti表示第二感兴趣区域特征图中的第i个感兴趣区域特征图,fadapt()表示维度变换器,用于将第一感兴趣区域特征图变换为第三感兴趣区域特征图,以使第三感兴趣区域特征图与第二感兴趣区域特征图的维度相同。
(4)根据第一感兴趣区域特征图和第二感兴趣区域特征图计算三维关系蒸馏损失函数。
具体的,根据第一感兴趣区域特征图和第二感兴趣区域特征图计算三维关系蒸馏损失函数,可以包括:对第一感兴趣区域特征图进行维度变换,到第三感兴趣区域特征图,第三感兴趣区域特征图的维度与第二感兴趣区域特征图的维度相同;计算第三感兴趣区域特征图中的各个感兴趣区域特征图之间的关系,得到第一关系矩阵;计算第二感兴趣区域特征图中的各个感兴趣区域特征图之间的关系,得到第二关系矩阵;对第一关系矩阵和第二关系矩阵计算一次损失(L1 Loss),得到三维关系蒸馏损失函数。
若将三维关系蒸馏损失函数记为LRelation,其计算公式如下:
Figure BDA0003669736750000101
Figure BDA0003669736750000102
其中,K表示感兴趣区域特征图的数量,s’i表示第三感兴趣区域特征图中的第i个感兴趣区域特征图,s’j表示第三感兴趣区域特征图中的第j个感兴趣区域特征图,ti表示第二感兴趣区域特征图中的第i个感兴趣区域特征图,tj表示第二感兴趣区域特征图中的第j个感兴趣区域特征图,l()表示关系矩阵计算函数。
(5)根据第一三维预测框、第一分类置信度、第三三维预测框和第二分类置信度计算响应蒸馏损失函数。
具体的,根据第一三维预测框、第一分类置信度、第三三维预测框和第二分类置信度计算响应蒸馏损失函数,可以包括:对第一三维预测框、第一分类置信度、第三三维预测框和第二分类置信度计算一次损失(L1 Loss),得到响应蒸馏损失函数。
若将响应蒸馏损失函数记为LResponse,其计算公式如下:
Figure BDA0003669736750000103
Figure BDA0003669736750000104
其中,
Figure BDA0003669736750000105
表示教师网络和学生网络的分类部分的输出,Lcls()表示其对应的损失函数,
Figure BDA0003669736750000106
表示教师网络和学生网络的回归部分的输出,Lreg()表示其对应的损失函数,R表示分类标签的总类别,Nm表示所有分类的概率和,y表示类别预测值,r表示三维框的位置预测值,当三维探测头输出的第i个像素和感兴趣区域特征图相匹配时Mi的输出为1,不匹配时Mi的输出为0。
步骤105,根据深度损失函数、真值损失函数、BEV特征蒸馏损失函数、三维关系蒸馏损失函数和响应蒸馏损失函数计算三维目标检测模型的整体损失函数。
具体的,根据深度损失函数、真值损失函数、BEV特征蒸馏损失函数、三维关系蒸馏损失函数和响应蒸馏损失函数计算三维目标检测模型的整体损失函数,可以包括:获取第一系数、第二系数、第三系数和第四系数;将真值损失函数、深度损失函数和第一系数的乘积、BEV特征蒸馏损失函数和第二系数的乘积、三维关系蒸馏损失函数和第三系数的乘积、响应蒸馏损失函数和第四系数的乘积相加,得到三维目标检测模型的整体损失函数。
若将整体损失函数记为L,深度损失函数记为LDepth,真值损失函数记为LGT,其计算公式如下:
L=LGT1LDepth2LFeature3LRelation4LResponse (7)
其中,λ1表示第一系数,λ2表示第二系数,λ3表示第三系数,λ4表示第四系数,且上述四个系数是经验值。
步骤106,根据整体损失函数训练三维目标检测模型。
计算机设备可以根据训练集和整体损失函数训练三维目标检测模型,直至三维目标检测模型收敛后停止。
后续,在无人驾驶车辆的行驶过程中,可以利用三维目标检测模型中的学生网络检测实时采集到的单目图像中的三维目标。
综上所述,本申请实施例提供的三维目标检测模型的训练方法,通过利用三维目标检测模型中的学生网络对单目图像进行检测,得到第一检测结果、深度损失函数和真值损失函数;再利用三维目标检测模型中的教师网络对点云数据进行检测,得到第二检测结果;然后,根据第一检测结果和第二检测结果计算BEV特征蒸馏损失函数、三维关系蒸馏损失函数和响应蒸馏损失函数;根据深度损失函数、真值损失函数、BEV特征蒸馏损失函数、三维关系蒸馏损失函数和响应蒸馏损失函数计算三维目标检测模型的整体损失函数;最后,根据整体损失函数训练三维目标检测模型,这样,就可以在BEV视角上进行跨模态的知识蒸馏(蒸馏内容包括BEV特征蒸馏、三维关系蒸馏和响应蒸馏),使得单目三维目标检测能够从雷达三维目标检测中学习到三维信息,能够提高三维目标的检测精度和检测效率,且只需部署单目相机即可,从而降低了三维目标的检测成本。
请参考图3,其示出了本申请一个实施例提供的三维目标检测模型的使用方法的方法流程图,该三维目标检测模型的使用方法可以应用于计算机设备中。
该三维目标检测模型的使用方法,可以包括:
步骤301,通过无人驾驶车辆中的单目相机采集当前时刻的单目图像。
在无人驾驶车辆的行驶过程中,单目相机需要定期采集单目图像。
步骤302,获取三维目标检测模型。
其中,三维目标检测模型是采用如图1所示的训练方法进行训练后得到。
步骤303,利用三维目标检测模型中的学生网络对单目图像进行检测,得到三维目标的三维预测框和分类。
其中,学生网络对单目图像的检测流程与步骤102中所述的检测流程相同,此处不再赘述。
综上所述,本申请实施例提供的三维目标检测模型的使用方法,由于三维目标检测模型中的学生网络是通过在BEV视角上进行跨模态的知识蒸馏后得到的,所以,学生网络能够学习到单目图像中的三维信息,能够提高三维目标的检测精度和检测效率,且只需部署单目相机即可,从而降低了三维目标的检测成本。
请参考图4,其示出了本申请一个实施例提供的三维目标检测模型的训练装置的结构框图,该三维目标检测模型的训练装置可以应用于计算机设备中。该三维目标检测模型的训练装置,可以包括:
第一获取模块410,用于获取三维目标检测模型和训练集,训练集中包含在无人驾驶车辆的行驶过程中采集到的同一时刻的单目图像和点云数据,三维目标检测模型中包含学生网络和教师网络;
第一检测模块420,用于利用学生网络对单目图像进行检测,得到第一检测结果、深度损失函数和真值损失函数;
第一检测模块420,还用于利用教师网络对点云数据进行检测,得到第二检测结果;
计算模块430,用于根据第一检测结果和第二检测结果计算BEV特征蒸馏损失函数、三维关系蒸馏损失函数和响应蒸馏损失函数;
计算模块430,还用于根据深度损失函数、真值损失函数、BEV特征蒸馏损失函数、三维关系蒸馏损失函数和响应蒸馏损失函数计算三维目标检测模型的整体损失函数;
训练模块440,用于根据整体损失函数训练三维目标检测模型。
在一个可选的实施例中,计算模块430,还用于:
采用NMS算法对第一检测结果中的第一三维预测框和第一分类置信度进行融合,将融合后得到的第二三维预测框映射到学生网络输出的第一BEV特征图中,得到第一感兴趣区域特征图;
采用NMS算法对第二检测结果中的第三三维预测框和第二分类置信度进行融合,将融合后得到的第四三维预测框映射到教师网络输出的第二BEV特征图中,得到第二感兴趣区域特征图;
根据第一感兴趣区域特征图和第二感兴趣区域特征图计算BEV特征蒸馏损失函数;
根据第一感兴趣区域特征图和第二感兴趣区域特征图计算三维关系蒸馏损失函数;
根据第一三维预测框、第一分类置信度、第三三维预测框和第二分类置信度计算响应蒸馏损失函数。
在一个可选的实施例中,计算模块430,还用于:
对第一感兴趣区域特征图进行维度变换,到第三感兴趣区域特征图,第三感兴趣区域特征图的维度与第二感兴趣区域特征图的维度相同;
对第二感兴趣区域特征图和第三感兴趣区域特征图计算二次损失,得到BEV特征蒸馏损失函数。
在一个可选的实施例中,计算模块430,还用于:
对第一感兴趣区域特征图进行维度变换,到第三感兴趣区域特征图,第三感兴趣区域特征图的维度与第二感兴趣区域特征图的维度相同;
计算第三感兴趣区域特征图中的各个感兴趣区域特征图之间的关系,得到第一关系矩阵;
计算第二感兴趣区域特征图中的各个感兴趣区域特征图之间的关系,得到第二关系矩阵;
对第一关系矩阵和第二关系矩阵计算一次损失,得到三维关系蒸馏损失函数。
在一个可选的实施例中,计算模块430,还用于:
对第一三维预测框、第一分类置信度、第三三维预测框和第二分类置信度计算一次损失,得到响应蒸馏损失函数。
在一个可选的实施例中,第一检测模块420,还用于:
利用学生网络对单目图像进行二维卷积处理,得到二维特征图;
对二维特征图进行深度估计,得到稠密深度图和深度损失函数;
对二维特征图和稠密度深度图进行张量点乘运算,根据单目相机与雷达的标定关系对运算结果进行转换,得到第一三维特征图;
对第一三维特征图进行卷积和降维处理,得到第一BEV特征图;
利用三维探测头对第一BEV特征图进行处理,得到第一检测结果和真值损失函数。
在一个可选的实施例中,第一检测模块420,还用于:
利用教师网络对点云数据进行三维稀疏卷积处理,得到第二三维特征图;
对第二三维特征图进行卷积和降维处理,得到第二BEV特征图;
利用三维探测头对第二BEV特征图进行处理,得到第二检测结果。
在一个可选的实施例中,计算模块430,还用于:
获取第一系数、第二系数、第三系数和第四系数;
将真值损失函数、深度损失函数和第一系数的乘积、BEV特征蒸馏损失函数和第二系数的乘积、三维关系蒸馏损失函数和第三系数的乘积、响应蒸馏损失函数和第四系数的乘积相加,得到三维目标检测模型的整体损失函数。
综上所述,本申请实施例提供的三维目标检测模型的训练装置,通过利用三维目标检测模型中的学生网络对单目图像进行检测,得到第一检测结果、深度损失函数和真值损失函数;再利用三维目标检测模型中的教师网络对点云数据进行检测,得到第二检测结果;然后,根据第一检测结果和第二检测结果计算BEV特征蒸馏损失函数、三维关系蒸馏损失函数和响应蒸馏损失函数;根据深度损失函数、真值损失函数、BEV特征蒸馏损失函数、三维关系蒸馏损失函数和响应蒸馏损失函数计算三维目标检测模型的整体损失函数;最后,根据整体损失函数训练三维目标检测模型,这样,就可以在BEV视角上进行跨模态的知识蒸馏(蒸馏内容包括BEV特征蒸馏、三维关系蒸馏和响应蒸馏),使得单目三维目标检测能够从雷达三维目标检测中学习到三维信息,能够提高三维目标的检测精度和检测效率,且只需部署单目相机即可,从而降低了三维目标的检测成本。
请参考图5,其示出了本申请一个实施例提供的三维目标检测模型的训练装置的结构框图,该三维目标检测模型的训练装置可以应用于计算机设备中。该三维目标检测模型的训练装置,可以包括:
采集模块510,用于通过无人驾驶车辆中的单目相机采集当前时刻的单目图像;
第二获取模块520,用于获取三维目标检测模型,三维目标检测模型是采用如图1所示的训练方法进行训练后得到;
第二检测模块530,用于利用三维目标检测模型中的学生网络对单目图像进行检测,得到三维目标的三维预测框和分类。
综上所述,本申请实施例提供的三维目标检测模型的训练装置,由于三维目标检测模型中的学生网络是通过在BEV视角上进行跨模态的知识蒸馏后得到的,所以,学生网络能够学习到单目图像中的三维信息,能够提高三维目标的检测精度和检测效率,且只需部署单目相机即可,从而降低了三维目标的检测成本。
本申请一个实施例提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令,所述至少一条指令由处理器加载并执行以实现如上所述的三维目标检测模型的训练方法;或者,所述至少一条指令由处理器加载并执行以实现如上所述的三维目标检测模型的使用方法。
本申请一个实施例提供了一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令,所述指令由所述处理器加载并执行以实现如上所述的三维目标检测模型的训练方法;或者,所述指令由所述处理器加载并执行以实现如上所述的三维目标检测模型的使用方法。
需要说明的是:上述实施例提供的三维目标检测模型的训练和使用装置在进行三维目标检测模型的训练和使用时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将三维目标检测模型的训练和使用装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的三维目标检测模型的训练和使用装置与三维目标检测模型的训练和使用方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述并不用以限制本申请实施例,凡在本申请实施例的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请实施例的保护范围之内。

Claims (13)

1.一种三维目标检测模型的训练方法,其特征在于,所述方法包括:
获取三维目标检测模型和训练集,所述训练集中包含在无人驾驶车辆的行驶过程中采集到的同一时刻的单目图像和点云数据,所述三维目标检测模型中包含学生网络和教师网络;
利用所述学生网络对所述单目图像进行检测,得到第一检测结果、深度损失函数和真值损失函数;
利用所述教师网络对所述点云数据进行检测,得到第二检测结果;
根据所述第一检测结果和所述第二检测结果计算纯电动汽车BEV特征蒸馏损失函数、三维关系蒸馏损失函数和响应蒸馏损失函数;
根据所述深度损失函数、所述真值损失函数、所述BEV特征蒸馏损失函数、所述三维关系蒸馏损失函数和所述响应蒸馏损失函数计算所述三维目标检测模型的整体损失函数;
根据所述整体损失函数训练所述三维目标检测模型。
2.根据权利要求1所述的方法,其特征在于,所述根据所述第一检测结果和所述第二检测结果计算纯电动汽车BEV特征蒸馏损失函数、三维关系蒸馏损失函数和响应蒸馏损失函数,包括:
采用非极大值抑制NMS算法对所述第一检测结果中的第一三维预测框和第一分类置信度进行融合,将融合后得到的第二三维预测框映射到所述学生网络输出的第一BEV特征图中,得到第一感兴趣区域特征图;
采用所述NMS算法对所述第二检测结果中的第三三维预测框和第二分类置信度进行融合,将融合后得到的第四三维预测框映射到所述教师网络输出的第二BEV特征图中,得到第二感兴趣区域特征图;
根据所述第一感兴趣区域特征图和所述第二感兴趣区域特征图计算所述BEV特征蒸馏损失函数;
根据所述第一感兴趣区域特征图和所述第二感兴趣区域特征图计算所述三维关系蒸馏损失函数;
根据所述第一三维预测框、所述第一分类置信度、所述第三三维预测框和所述第二分类置信度计算所述响应蒸馏损失函数。
3.根据权利要求2所述的方法,其特征在于,所述根据所述第一感兴趣区域特征图和所述第二感兴趣区域特征图计算所述BEV特征蒸馏损失函数,包括:
对所述第一感兴趣区域特征图进行维度变换,到第三感兴趣区域特征图,所述第三感兴趣区域特征图的维度与所述第二感兴趣区域特征图的维度相同;
对所述第二感兴趣区域特征图和所述第三感兴趣区域特征图计算二次损失,得到所述BEV特征蒸馏损失函数。
4.根据权利要求2所述的方法,其特征在于,所述根据所述第一感兴趣区域特征图和所述第二感兴趣区域特征图计算所述三维关系蒸馏损失函数,包括:
对所述第一感兴趣区域特征图进行维度变换,到第三感兴趣区域特征图,所述第三感兴趣区域特征图的维度与所述第二感兴趣区域特征图的维度相同;
计算所述第三感兴趣区域特征图中的各个感兴趣区域特征图之间的关系,得到第一关系矩阵;
计算所述第二感兴趣区域特征图中的各个感兴趣区域特征图之间的关系,得到第二关系矩阵;
对所述第一关系矩阵和所述第二关系矩阵计算一次损失,得到所述三维关系蒸馏损失函数。
5.根据权利要求2所述的方法,其特征在于,所述根据所述第一三维预测框、所述第一分类置信度、所述第三三维预测框和所述第二分类置信度计算所述响应蒸馏损失函数,包括:
对所述第一三维预测框、所述第一分类置信度、所述第三三维预测框和所述第二分类置信度计算一次损失,得到所述响应蒸馏损失函数。
6.根据权利要求1所述的方法,其特征在于,所述利用所述学生网络对所述单目图像进行检测,得到第一检测结果、深度损失函数和真值损失函数,包括:
利用所述学生网络对所述单目图像进行二维卷积处理,得到二维特征图;
对所述二维特征图进行深度估计,得到稠密深度图和所述深度损失函数;
对所述二维特征图和所述稠密度深度图进行张量点乘运算,根据单目相机与雷达的标定关系对运算结果进行转换,得到第一三维特征图;
对所述第一三维特征图进行卷积和降维处理,得到第一BEV特征图;
利用三维探测头对所述第一BEV特征图进行处理,得到所述第一检测结果和所述真值损失函数。
7.根据权利要求1所述的方法,其特征在于,所述利用所述教师网络对所述点云数据进行检测,得到第二检测结果,包括:
利用所述教师网络对所述点云数据进行三维稀疏卷积处理,得到第二三维特征图;
对所述第二三维特征图进行卷积和降维处理,得到第二BEV特征图;
利用三维探测头对所述第二BEV特征图进行处理,得到所述第二检测结果。
8.根据权利要求1至7中任一所述的方法,其特征在于,所述根据所述深度损失函数、所述真值损失函数、所述BEV特征蒸馏损失函数、所述三维关系蒸馏损失函数和所述响应蒸馏损失函数计算所述三维目标检测模型的整体损失函数,包括:
获取第一系数、第二系数、第三系数和第四系数;
将所述真值损失函数、所述深度损失函数和所述第一系数的乘积、所述BEV特征蒸馏损失函数和所述第二系数的乘积、所述三维关系蒸馏损失函数和所述第三系数的乘积、所述响应蒸馏损失函数和所述第四系数的乘积相加,得到所述三维目标检测模型的整体损失函数。
9.一种三维目标检测模型的使用方法,其特征在于,所述方法包括:
通过无人驾驶车辆中的单目相机采集当前时刻的单目图像;
获取三维目标检测模型,所述三维目标检测模型是采用如权利要求1至8中任一所述的训练方法进行训练后得到;
利用所述三维目标检测模型中的学生网络对所述单目图像进行检测,得到三维目标的三维预测框和分类。
10.一种三维目标检测模型的训练装置,其特征在于,所述装置包括:
第一获取模块,用于获取三维目标检测模型和训练集,所述训练集中包含在无人驾驶车辆的行驶过程中采集到的同一时刻的单目图像和点云数据,所述三维目标检测模型中包含学生网络和教师网络;
第一检测模块,用于利用所述学生网络对所述单目图像进行检测,得到第一检测结果、深度损失函数和真值损失函数;
所述第一检测模块,还用于利用所述教师网络对所述点云数据进行检测,得到第二检测结果;
计算模块,用于根据所述第一检测结果和所述第二检测结果计算纯电动汽车BEV特征蒸馏损失函数、三维关系蒸馏损失函数和响应蒸馏损失函数;
所述计算模块,还用于根据所述深度损失函数、所述真值损失函数、所述BEV特征蒸馏损失函数、所述三维关系蒸馏损失函数和所述响应蒸馏损失函数计算所述三维目标检测模型的整体损失函数;
训练模块,用于根据所述整体损失函数训练所述三维目标检测模型。
11.一种三维目标检测模型的使用装置,其特征在于,所述装置包括:
采集模块,用于通过无人驾驶车辆中的单目相机采集当前时刻的单目图像;
第二获取模块,用于获取三维目标检测模型,所述三维目标检测模型是采用如权利要求1至8中任一所述的训练方法进行训练后得到;
第二检测模块,用于利用所述三维目标检测模型中的学生网络对所述单目图像进行检测,得到三维目标的三维预测框和分类。
12.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令,所述至少一条指令由处理器加载并执行以实现如权利要求1至8任一所述的三维目标检测模型的训练方法;或者,所述至少一条指令由处理器加载并执行以实现如权利要求9所述的三维目标检测模型的使用方法。
13.一种计算机设备,其特征在于,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令,所述指令由所述处理器加载并执行以实现如权利要求1至8任一所述的三维目标检测模型的训练方法;或者,所述指令由所述处理器加载并执行以实现如权利要求9所述的三维目标检测模型的使用方法。
CN202210602131.1A 2022-05-30 2022-05-30 三维目标检测模型的训练和使用方法、装置、介质及设备 Active CN115223117B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210602131.1A CN115223117B (zh) 2022-05-30 2022-05-30 三维目标检测模型的训练和使用方法、装置、介质及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210602131.1A CN115223117B (zh) 2022-05-30 2022-05-30 三维目标检测模型的训练和使用方法、装置、介质及设备

Publications (2)

Publication Number Publication Date
CN115223117A true CN115223117A (zh) 2022-10-21
CN115223117B CN115223117B (zh) 2023-05-30

Family

ID=83608056

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210602131.1A Active CN115223117B (zh) 2022-05-30 2022-05-30 三维目标检测模型的训练和使用方法、装置、介质及设备

Country Status (1)

Country Link
CN (1) CN115223117B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116229209A (zh) * 2023-02-14 2023-06-06 北京百度网讯科技有限公司 目标模型的训练方法、目标检测方法及装置
CN116524329A (zh) * 2023-07-04 2023-08-01 吉咖智能机器人有限公司 用于低算力平台的网络模型构建方法、装置、设备和介质
CN117315402A (zh) * 2023-11-02 2023-12-29 北京百度网讯科技有限公司 三维对象检测模型的训练方法及三维对象检测方法
CN117351450A (zh) * 2023-12-06 2024-01-05 吉咖智能机器人有限公司 一种单目3d检测方法、装置、电子设备及存储介质
CN117711609A (zh) * 2024-02-04 2024-03-15 广州中大医疗器械有限公司 一种基于大数据的神经移植方案推荐方法及系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180268292A1 (en) * 2017-03-17 2018-09-20 Nec Laboratories America, Inc. Learning efficient object detection models with knowledge distillation
CN111462137A (zh) * 2020-04-02 2020-07-28 中科人工智能创新技术研究院(青岛)有限公司 一种基于知识蒸馏和语义融合的点云场景分割方法
US20200293904A1 (en) * 2019-03-13 2020-09-17 Cortica Ltd. Method for object detection using knowledge distillation
CN112560631A (zh) * 2020-12-09 2021-03-26 昆明理工大学 一种基于知识蒸馏的行人重识别方法
CN112906502A (zh) * 2021-01-29 2021-06-04 北京百度网讯科技有限公司 目标检测模型的训练方法、装置、设备以及存储介质
CN113569882A (zh) * 2020-04-28 2021-10-29 上海舜瞳科技有限公司 一种基于知识蒸馏的快速行人检测方法
CN113705432A (zh) * 2021-08-26 2021-11-26 京东鲲鹏(江苏)科技有限公司 一种模型训练、三维目标检测方法、装置、设备及介质
CN114037046A (zh) * 2021-09-27 2022-02-11 北京旷视科技有限公司 神经网络模型的蒸馏方法、装置及电子系统

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180268292A1 (en) * 2017-03-17 2018-09-20 Nec Laboratories America, Inc. Learning efficient object detection models with knowledge distillation
US20200293904A1 (en) * 2019-03-13 2020-09-17 Cortica Ltd. Method for object detection using knowledge distillation
CN111462137A (zh) * 2020-04-02 2020-07-28 中科人工智能创新技术研究院(青岛)有限公司 一种基于知识蒸馏和语义融合的点云场景分割方法
CN113569882A (zh) * 2020-04-28 2021-10-29 上海舜瞳科技有限公司 一种基于知识蒸馏的快速行人检测方法
CN112560631A (zh) * 2020-12-09 2021-03-26 昆明理工大学 一种基于知识蒸馏的行人重识别方法
CN112906502A (zh) * 2021-01-29 2021-06-04 北京百度网讯科技有限公司 目标检测模型的训练方法、装置、设备以及存储介质
CN113705432A (zh) * 2021-08-26 2021-11-26 京东鲲鹏(江苏)科技有限公司 一种模型训练、三维目标检测方法、装置、设备及介质
CN114037046A (zh) * 2021-09-27 2022-02-11 北京旷视科技有限公司 神经网络模型的蒸馏方法、装置及电子系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
WANG T等: "Distilling object detection with fine-grained feature imitation", 《CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *
张彤彤;董军宇;赵浩然;李琼;孙鑫;: "基于知识蒸馏的轻量型浮游植物检测网络", 应用科学学报 *
赖叶静;郝珊锋;黄定江;: "深度神经网络模型压缩方法与进展", 华东师范大学学报(自然科学版) *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116229209A (zh) * 2023-02-14 2023-06-06 北京百度网讯科技有限公司 目标模型的训练方法、目标检测方法及装置
CN116229209B (zh) * 2023-02-14 2023-11-07 北京百度网讯科技有限公司 目标模型的训练方法、目标检测方法及装置
CN116524329A (zh) * 2023-07-04 2023-08-01 吉咖智能机器人有限公司 用于低算力平台的网络模型构建方法、装置、设备和介质
CN116524329B (zh) * 2023-07-04 2023-08-29 吉咖智能机器人有限公司 用于低算力平台的网络模型构建方法、装置、设备和介质
CN117315402A (zh) * 2023-11-02 2023-12-29 北京百度网讯科技有限公司 三维对象检测模型的训练方法及三维对象检测方法
CN117351450A (zh) * 2023-12-06 2024-01-05 吉咖智能机器人有限公司 一种单目3d检测方法、装置、电子设备及存储介质
CN117351450B (zh) * 2023-12-06 2024-02-27 吉咖智能机器人有限公司 一种单目3d检测方法、装置、电子设备及存储介质
CN117711609A (zh) * 2024-02-04 2024-03-15 广州中大医疗器械有限公司 一种基于大数据的神经移植方案推荐方法及系统
CN117711609B (zh) * 2024-02-04 2024-05-03 广州中大医疗器械有限公司 一种基于大数据的神经移植方案推荐方法及系统

Also Published As

Publication number Publication date
CN115223117B (zh) 2023-05-30

Similar Documents

Publication Publication Date Title
CN115223117A (zh) 三维目标检测模型的训练和使用方法、装置、介质及设备
Liang et al. Deep continuous fusion for multi-sensor 3d object detection
Wang et al. PVStereo: Pyramid voting module for end-to-end self-supervised stereo matching
CN111507222B (zh) 一种基于多源数据知识迁移的三维物体检测框架
CN112802078A (zh) 深度图生成方法和装置
Cepni et al. Vehicle detection using different deep learning algorithms from image sequence
CN113706480A (zh) 一种基于关键点多尺度特征融合的点云3d目标检测方法
Vaquero et al. Dual-branch CNNs for vehicle detection and tracking on LiDAR data
CN110414526A (zh) 语义分割网络的训练方法、训练装置、服务器和存储介质
CN113850189B (zh) 一种应用于机动平台的嵌入式孪生网络实时跟踪方法
CN113762003B (zh) 一种目标对象的检测方法、装置、设备和存储介质
CN116246119A (zh) 3d目标检测方法、电子设备及存储介质
CN115482518A (zh) 一种面向交通场景的可扩展多任务视觉感知方法
CN115100741B (zh) 一种点云行人距离风险检测方法、系统、设备和介质
CN117115555A (zh) 一种基于噪声数据的半监督三维目标检测方法
CN115937520A (zh) 基于语义信息引导的点云运动目标分割方法
CN116129234A (zh) 一种基于注意力的4d毫米波雷达与视觉的融合方法
CN116071721A (zh) 一种基于Transformer的高精地图实时预测方法和系统
CN111476190A (zh) 用于无人驾驶的目标检测方法、设备及存储介质
CN114973031A (zh) 一种无人机视角下的可见光-热红外图像目标检测方法
Zhang et al. Depth Monocular Estimation with Attention-based Encoder-Decoder Network from Single Image
CN117351345A (zh) 一种基于立体视觉的海上目标识别与定位方法
WO2023222643A1 (en) Method for image segmentation matching
CN116953702A (zh) 基于演绎范式的旋转目标检测方法及装置
Gong et al. Reparameterized dilated architecture: A wider field of view for pedestrian detection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address

Address after: 100 meters west of Changhou Road, Changxingzhuang Village, Xiaotangshan Town, Changping District, Beijing 102211, 2nd Floor, Silk Road Style (Beijing) Hotel Management Service Co., Ltd. 821645

Patentee after: Beijing Feichi Era Technology Co.,Ltd.

Country or region after: China

Patentee after: Jiuzhi (Suzhou) Intelligent Technology Co.,Ltd.

Address before: 100 meters west of Changhou Road, Changxingzhuang Village, Xiaotangshan Town, Changping District, Beijing 102211, 2nd Floor, Silk Road Style (Beijing) Hotel Management Service Co., Ltd. 821645

Patentee before: Jiuzhizhixing (Beijing) Technology Co.,Ltd.

Country or region before: China

Patentee before: Jiuzhi (Suzhou) Intelligent Technology Co.,Ltd.

CP03 Change of name, title or address