CN114492732A - 一种面向自动驾驶视觉检测轻量化模型蒸馏方法 - Google Patents
一种面向自动驾驶视觉检测轻量化模型蒸馏方法 Download PDFInfo
- Publication number
- CN114492732A CN114492732A CN202111599055.5A CN202111599055A CN114492732A CN 114492732 A CN114492732 A CN 114492732A CN 202111599055 A CN202111599055 A CN 202111599055A CN 114492732 A CN114492732 A CN 114492732A
- Authority
- CN
- China
- Prior art keywords
- model
- detection
- module
- student
- models
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种面向自动驾驶视觉检测轻量化模型蒸馏方法,包括:步骤S1、构建初始学生模型;所述初始学生模型包括特征提取模块一、特征增强模块一和检测头模块一,所述初始学生模型用于对获取的图像信息依次进行特征提取处理、特征增强处理和多项任务检测处理,并最终输出检测结果一;步骤S2、调取两个以上训练好的教师模型;每个所述教师模型均用于对获取的图像信息依次进行特征提取处理、特征增强处理和单项任务检测处理,并最终输出检测结果二;步骤S3、将多任务训练数据集并行送入初始学生模型和调取的教师模型中,并依据所述教师模型的处理结果同步指导学生模型的训练。
Description
技术领域
本发明涉及自动驾驶视觉检测技术领域,具体为一种面向自动驾驶视觉检测轻量化模型蒸馏方法。
背景技术
当前人工智能蓬勃发展,图像识别与目标检测等技术近年来也发展迅速,为人们的生活带来了便捷的同时也进一步促进了自动驾驶技术甚至无人驾驶在未来广泛普及成为可能,在自动驾驶领域中,环境感知系统利用各种车载传感器(前视摄像头等)进行数据采集和处理,为智能车辆提供自车与周围目标的位置和类别信息,以及相对距离、相对速度等信息,进而为上层的决策规划提供信息依据。
现有技术方案一般采用参数量化或剪枝的方案,来实现自动驾驶的视觉检测算法轻量化,但是这两种方案的模型压缩能力都十分有限;如剪枝的方案,其原理是通过设计剪枝框架,剪枝取出深度学习模型中的冗余参数,对模型大小压缩提高模型运算速度,但是在过多次进行剪枝模型后,模型性能会降低较大,很难实现在有限算力和有限内存的车载芯片上使模型大小和模型性能都能达到很高要求。
发明内容
本发明的目的在于提供了一种面向自动驾驶视觉检测轻量化模型蒸馏方法,包括:
步骤S1、以学生模型中的ResNet18模块提取初始图像生成浅层特征图,使用教师模型的特征提取模块对浅层特征图进行指导;
步骤S2、以学生模型中的Transformer Encoder模块对指导后的所述浅层特征图进行感知和特征增强生成增强特征图,使用教师模型的特征增强模块对增强特征图进行指导;
步骤S3、将指导后的所述增强特征图进行共享,分别在学生模型中进行人车辆检测识别、可行区域分割、车道线检测三个任务,使用教师模型的检测头模块对上述三个任务进行指导,以此完成学生模型的训练。
所述教师模型包括:目标检测模型、车道线检测模型、可行驶区域模型;三个模型中的特征提取模块、特征增强模块、检测头模块,产生的软标签分别指导学生模型中对应的模块。
所述步骤S1中ResNet18模块使用步长为2的卷积核对特征图进行两次下采样,快速提取初始图像的浅层特征。
所述步骤S2中的Transformer Encoder模块包括多头自注意力机制,通过计算特征之间的相关性进行全局特征感知。
所述步骤S3包括将所述增强特征图拷贝三份,并分别输入至Object Detetionstudent模块、Lane Detection student模块和Free Space Detection student模块执行相应的人车辆检测识别任务、可行区域分割任务和车道线检测任务。
所述Object Detetion student模块对输入的增强特征图中的特征分别使用3个1*1卷积得到用于目标分类的输出、用于预测目标检测框宽和高的输出以及用于补偿目标中心点坐标的输出。
所述Lane Detection student模块包括第一前处理策略,所述第一前处理策略包括对输入的增强特征图进行两次全连接得到宽和高分别为初始图像四分之一的特征图一。
所述Free Space Detection student模块包括第二前处理策略,所述第二前处理策略包括对输入的增强特征图进行两次上采样,得到与初始图像尺寸一致的特征图二。
与现有技术相比,本发明的有益效果是:
1.利用学生模型中的ResNet18为骨干网络快速提取浅层特征,使用教师模型的特征提取模块对浅层特征图进行指导,以学生模型中的Transformer Encoder模块对指导后的所述浅层特征图进行感知和特征增强生成增强特征图,使用教师模型的特征增强模块对增强特征图进行指导,将指导后的所述增强特征图进行共享,分别在学生模型中进行人车辆检测识别、可行区域分割、车道线检测三个任务,使用教师模型的检测头模块对上述三个任务进行指导,以此完成学生模型的训练;在保持单学生模型精度的条件下,减少了对车载芯片算力和内存的要求,运行速度提升明显。
2.利用学生模型中的ResNet18模块作为特征提取网络提取使用步长为2的卷积核对特征图进行两次下采样生成浅层特征图,可以避免全连接层的参数冗余,快速提取初始图像的浅层特征,进一步提升运行速度。
3.利用利用学生模型中的Transformer Encoder模块对浅层特征图的全局特征进行感知和特征增强生成增强特征图,Transformer Encoder作为目前最新的图像方面特征提取器,因为内部的自注意力机制,可以对全局进行感知,因此在处理过程中可以感知全局特征,可以很好的进行特征增强。
附图说明
图1为本发明一种面向自动驾驶视觉检测轻量化模型蒸馏方法的示意图;
图2为本发明一种面向自动驾驶视觉检测轻量化模型蒸馏方法中学生模型的示意图;
图3为本发明一种面向自动驾驶视觉检测轻量化模型蒸馏方法中ResNet18模块网络示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1和图2所示,本发明提供的一种面向自动驾驶视觉检测轻量化模型蒸馏方法,包括如下步骤:
步骤S1、以学生模型中的ResNet18模块作为特征提取网络提取所述初始图像的浅层特征生成浅层特征图,初始图像通过车体上的前视摄像头采集,使用教师模型的特征提取模块对浅层特征图进行指导;
所谓的教师模型就是已经训练好的模型,输入数据时,可以在各层输出教师模型的一个预测结果,就是在下文中会提到的软标签,而学生模型则是没有训练过的模型,也可以输出同样的一个预测结果,一开始这个预测结果并没有意义,但是学生的预测结果和老师的预测结果(软标签)进行比对,经过损失Softmax或L1等得到预测结果和软标签的距离(误差),在完成一次前向传播后,通过误差反向传播,将梯度更新至学生模型各层网络的权重中,不断完成教师模型指导学生模型学习;
步骤S2、以学生模型中的Transformer Encoder模块对指导后的所述浅层特征图进行感知和特征增强生成增强特征图,使用教师模型的特征增强模块对增强特征图进行指导;
步骤S3、将指导后的所述增强特征图进行共享,分别在学生模型中进行人车辆检测识别、可行区域分割、车道线检测三个任务,使用教师模型的检测头模块对上述三个任务进行指导,以此完成学生模型的训练;
用学生模型中的ResNet18为骨干网络快速提取浅层特征,使用教师模型的特征提取模块对浅层特征图进行指导,以学生模型中的Transformer Encoder模块对指导后的所述浅层特征图进行感知和特征增强生成增强特征图,使用教师模型的特征增强模块对增强特征图进行指导,将指导后的所述增强特征图进行共享,分别在学生模型中进行人车辆检测识别、可行区域分割、车道线检测三个任务,使用教师模型的检测头模块对上述三个任务进行指导,以此完成学生模型的训练;在保持单学生模型精度的条件下,减少了对车载芯片算力和内存的要求,运行速度提升明显。
具体的,所述教师模型包括:目标检测模型(Object Detection Teacher)、车道线检测模型(Lane Detection Teacher)和可行驶区域模型(Free Space Detection);三个模型中的特征提取模块(Backbone)、特征增强模块(Neck)和检测头模块(Head),产生的软标签分别指导学生模型中对应的模块;
以指导Head的任务为例,训练数据分别通过老师模型和学生模型得到一次前向传播的结果,这个结果因为老师模型时训练后的有意义是软标签,而学生模型则是没有训练过是随机的概率值,通过计算两者之间的损失如softmax损失或L1损失得到误差,通过误差反向传播,将误差更新至各层权重中。至于教师模型指导3个学生Head,过程相同,区别在于在学生模型的Backbone和Neck中将三个损失平均更新权重,至于Head部分只接受对应Head的损失,至于教师模型指导Backbone和Neck,过程也一致,不过是在Backbone部分的更新添加了来自于三个学生和老师Backbone误差的梯度和来自于学生和老师Neck误差的梯度;Neck部分的更新添加了来自于三个学生和老师Neck误差的梯度。
Softlabel(软标签)对于上一层模型的指导,是通过当前学生预测的输出和Softlabel计算损失得到误差,进行反向传播更新梯度得到的;Transformer自有的自注意机制,可以进行全局感知,可以进行特征增强,在这里是Neck的作用,具体的实施是,将上层特征图如24*24*128形状的特征图,reshape至576*128的特征图,送入transformerEncoder中对特征进行抽取,得到特征增强后的特征图576*128,重新reshape后得到24*24*128的特征图,进入下游网络Head,完成特征增强后,新的特征图被拷贝成3分,分别接入下游网络3个Head,没有划分标准仅拷贝成3份分别送入3个Head中,根据3个Head的设计决定task(目标任务)。
优选的,所述步骤S1学生模型的ResNet18模块使用步长为2的卷积核对特征图进行两次下采样,快速提取初始图像的浅层特征。
具体的,如图3所示,为ResNet18模块网络示意图,ResNet18模块包括17个卷积层(conv)+1个全连接层(fc),只有layer2,layer3,layer4只在第一个BasicBlock进行downsample下采样,layer1没有下采样,每个layer包含2个BasicBlock,1个BasicBlock中有2次卷积。利用ResNet18模块作为特征提取网络提取使用步长为2的卷积核对特征图进行两次下采样生成浅层特征图,可以避免全连接层的参数冗余,快速提取初始图像的浅层特征,进一步提升运行速度。
优选的,所述步骤S2中的Transformer Encoder模块包括多头自注意力机制,通过计算特征之间的相关性进行全局特征感知。利用Transformer Encoder模块对浅层特征图的全局特征进行感知和特征增强生成增强特征图,Transformer Encoder作为目前最新的图像方面特征提取器,与传统的CNN相比,因为内部的自注意力机制,可以对全局进行感知,因此在处理过程中可以感知全局特征,同样相较于原有CNN,3*3大小的卷积核,或5*5的卷积核,使用CNN捕获的特征仍旧受限,而基于transformer Encoder因为其全局感知的特征,可以很好的进行特征增强。
优选的,所述步骤S4包括将所述增强特征图拷贝三份,并分别输入至ObjectDetetion student模块、Lane Detection student模块和Free Space Detection student模块执行相应的人车辆检测识别任务、可行区域分割任务和车道线检测任务。3份相同的特征图分别进行行人车辆检测识别、可行区域分割、车道线检测,可以理解为TransformerEncoder模块作为上游网络,上游网络的输出是一系列特征图,而下游网络接上游网络输出的特征图,分别进行新的任务。
优选的,所述Object Detetion student模块对输入的增强特征图中的特征分别使用3个1*1卷积得到用于目标分类的输出、用于预测Box宽和高的输出以及用于补偿目标中心点(x,y)坐标的输出,所谓的Box,就是目标检测框;宽和高分别为目标检测框的宽和高。
优选的,所述Lane Detection student模块包括第一前处理策略,所述第一前处理策略包括对输入的增强特征图进行两次全连接得到宽和高分别为初始图像四分之一的特征图一。
在实际训练过程中发现,如果进行同样的前处理策略,即均使用两次上采样得到原始图像尺寸一致的特征图,在车道线的检测上得到的表现并不好,考虑到车道线更适合使用深度特征来进行定位,且为了处理速度的提升,因此在速度和精度的双重考量下,使用了所述的第一前处理策略进行车道线的定位。
优选的,所述Free Space Detecion模块包括第二前处理策略,所述第二前处理策略包括对输入的增强特征图进行两次上采样,得到与初始图像尺寸一致的特征图二。
优选的,对于所述Object Detetion student模块的目标分类输出使用Softmax损失进行训练,对于Object Detetion student模块的预测目标检测框宽和高输出使用CIOU损失进行训练,对于Object Detetion student模块的补偿目标中心点坐标输出使用Smooth L1损失进行训练;对于所述Lane Detection student模块的输出使用Softmax损失函数对各层网络的权重进行训练;对于所述Free Space Detecion模块的输出使用全局Softmax损失函数对各层网络的权重进行训练。
关于所述Object Detetion student模块的目标分类输出,设定原始图像分辨率为640*480,对其进行两次下采样后得到160*120分辨率,即共有160*120=19200个待预测的点,所谓的待预测的点,就是在每个点上预测目标物体是否落在该点上的分类任务。同时每个点进行两个回归任务,一个回归任务就是该点预测距离中心点的偏差即(x,y)的补偿;另一个回归任务则直接落在该点上物体的宽和高。
关于车道线检测模块,经过第一前处理策略得到宽和高为初始图像四分之一的特征图后(160*120分辨率),直接对于160*120=19200个待预测的点使用softmax进行分类任务,分类的类别为0为非车道线,1为车道线。
关于可行驶区域模块,则在和初始图像尺寸一致的特征图中,在640*480=76800个待预测点上使用softmax进行分类任务,分类的类别为0为不可行驶,1为可行驶。
其中,全局Softmax一般是在原始图片大小上对每一个像素点进行分类,而Softmax则是对经过多个Cnn处理后得到的大小为19*19的特征图上每一个像素点进行分类。
关于目标检测上物体的分类,或者语义分割上物体的分类使用Softmax损失,对于目标检测框使用CIOU作为损失进行训练,这样检测的效果是检测和分类的精度更高。对Object Detetion student模块的目标分类输出使用Softmax损失进行训练的目的是为了更好的预测物体类别,对Object Detetion student模块的Box宽和高输出使用CIOU损失进行训练的目的是为了更好的预测目标检测框的宽和高。具体训练的过程是原始数据依次通过BackBone模块、Transormer Encoder模块、Object Detectionstudent或LaneDetectionstudent或Free Space Detection student模块后得到的预测结果和该原始数据真实标签进行对比,对比的方法是Softmax损失、CIOU损失,可以得到预测结果和真实标签的距离或者说损失,损失经过反向传播,将梯度更新至各层网络或者说模块上的权重上,实际训练的是各层网络或者说模块上的权重。
工作原理:多任务集成检测方法利用ResNet18为骨干网络快速提取浅层特征,再使用Transformer Encoder网络对全局特征进行感知、特征增强,最后共享特征分别进行行人车辆检测识别、可行区域分割和车道线检测任务,在保持单模型精度的条件下,减少了对车载芯片算力和内存的要求,运行速度提升明显。
该方案包含Backbone模块,Transformer Encoder模块,Object Detetionstudent模块,Lane Detection student模块,Free Space Detection student模块。其中Backbone模块,由ResNet18构建,使用步长为2的卷积核对特征图进行2次下采样,快速提取图像浅层特征;利用ResNet18模块作为特征提取网络提取使用步长为2的卷积核对特征图进行两次下采样生成浅层特征图,可以避免全连接层的参数冗余,快速提取初始图像的浅层特征,进一步提升运行速度。Transformer Encoder模块,可以对捕获的特征进行全局感知实现特征增强;Object Detetion student模块,可以对输入特征分别使用3个1*1卷积得到用于目标分类的输出、用于预测Box宽和高的输出和用于补偿中心点坐标的输出;LaneDetection student模块,可以对输入特征进行两次全连接得到宽和高分别为原图四分之一的特征图;利用Transformer Encoder模块对浅层特征图的全局特征进行感知和特征增强生成增强特征图,Transformer Encoder作为目前最新的图像方面特征提取器,因为内部的自注意力机制,可以对全局进行感知,因此在处理过程中可以感知全局特征,可以很好的进行特征增强。
Free Space Detecion模块,可以对输入特征进行两次上采样,得到与原图尺寸一致的特征图;对于Object Detetion student模块的目标分类输出使用Softmax损失进行训练,对于Object Detetion student模块的Box宽和高输出使用CIOU损失进行训练,对于Object Detetion student模块的补偿中心点坐标输出使用Smooth L1损失进行训练,对于Lane Detection student模块的输出使用Softmax损失进行训练,对于Free SpaceDetecion模块的输出使用全局Softmax损失进行训练。对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
Claims (8)
1.一种面向自动驾驶视觉检测轻量化模型蒸馏方法其特征在于,包括:
步骤S1、构建初始学生模型;
所述初始学生模型包括特征提取模块一、特征增强模块一和检测头模块一,所述初始学生模型用于对获取的图像信息依次进行特征提取处理、特征增强处理和多项任务检测处理,并最终输出检测结果一;
步骤S2、调取两个以上训练好的教师模型;
每个所述教师模型均用于对获取的图像信息依次进行特征提取处理、特征增强处理和单项任务检测处理,并最终输出检测结果二;
步骤S3、将多任务训练数据集并行送入初始学生模型和调取的教师模型中,并依据所述教师模型的处理结果同步指导学生模型的训练。
2.根据权利要求1所述的一种面向自动驾驶视觉检测轻量化模型蒸馏方法,其特征在于,所述步骤S2设置为调取三个训练好的教师模型,包括目标检测模型、车道线检测模型和可行驶区域模型,分别用于执行行人车辆检测任务、车道线检测任务和可行驶区域检测任务;
所述目标检测模型、车道线检测模型和可行驶区域模型均包括相应的特征提取部分、特征增强部分和检测头部分。
3.根据权利要求2所述的一种面向自动驾驶视觉检测轻量化模型蒸馏方法,其特征在于,所述步骤S3包括所述目标检测模型、车道线检测模型和可行驶区域模型分别在各自模型的特征提取部分、特征增强部分和检测头部分产出对应的软标签,并利用所述软标签指导初始学生模型的训练。
4.根据权利要求3所述的一种面向自动驾驶视觉检测轻量化模型蒸馏方法,其特征在于,所述步骤S2中的Transformer Encoder模块包括多头自注意力机制,通过计算特征之间的相关性进行全局特征感知。
5.根据权利要求4所述的一种面向自动驾驶视觉检测轻量化模型蒸馏方法,其特征在于,所述依据软标签指导初始学生模型的训练过程包括将多任务训练数据集中的训练数据分别通过多个教师模型和学生模型得到一次前向传播的检测结果,然后计算两者之间的损失并将损失反向传播至学生模型中,将损失结果更新至学生模型中的各层权重中。
6.根据权利要求5所述的一种面向自动驾驶视觉检测轻量化模型蒸馏方法,其特征在于,所述检测头模块一包括目标检测子模型一、车道线检测子模型一和可行驶区域子模型一,在步骤S3中,所述目标检测子模型一、车道线检测子模型一和可行驶区域子模型一分别用于接收来自所述目标检测模型、车道线检测模型和可行驶区域模型分别在各自模型的检测头部分产出的对应软标签,并计算对应两个检测模型之间的softmax损失或Smooth L1损失差值,将损失差值更新至所述目标检测子模型一、车道线检测子模型一和可行驶区域子模型一的各层权重中。
7.根据权利要求6所述的一种面向自动驾驶视觉检测轻量化模型蒸馏方法,其特征在于,所述步骤S1中的初始学生模型包括将进行特征增强处理后的增强特征图拷贝三份,并分别输入至目标检测子模型一、车道线检测子模型一和可行驶区域子模型一中执行相应的人车辆检测识别任务、可行区域分割任务和车道线检测任务。
8.根据权利要求7所述的一种面向自动驾驶视觉检测轻量化模型蒸馏方法,其特征在于,所述ResNet18模型使用步长为2的卷积核对特征图进行两次下采样,快速提取训练数据的浅层特征。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111599055.5A CN114492732A (zh) | 2021-12-24 | 2021-12-24 | 一种面向自动驾驶视觉检测轻量化模型蒸馏方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111599055.5A CN114492732A (zh) | 2021-12-24 | 2021-12-24 | 一种面向自动驾驶视觉检测轻量化模型蒸馏方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114492732A true CN114492732A (zh) | 2022-05-13 |
Family
ID=81495826
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111599055.5A Pending CN114492732A (zh) | 2021-12-24 | 2021-12-24 | 一种面向自动驾驶视觉检测轻量化模型蒸馏方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114492732A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI832270B (zh) * | 2022-05-31 | 2024-02-11 | 鴻海精密工業股份有限公司 | 路況檢測方法、電子設備及計算機可讀存儲媒體 |
-
2021
- 2021-12-24 CN CN202111599055.5A patent/CN114492732A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI832270B (zh) * | 2022-05-31 | 2024-02-11 | 鴻海精密工業股份有限公司 | 路況檢測方法、電子設備及計算機可讀存儲媒體 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111563508B (zh) | 一种基于空间信息融合的语义分割方法 | |
JP7289918B2 (ja) | 物体認識方法及び装置 | |
CN111898432B (zh) | 一种基于改进YOLOv3算法的行人检测系统及方法 | |
CN113095152B (zh) | 一种基于回归的车道线检测方法及系统 | |
CN113177560A (zh) | 一种普适性轻量级深度学习车辆检测方法 | |
CN112434723B (zh) | 一种基于注意力网络的日/夜间图像分类及物体检测方法 | |
CN113095251B (zh) | 一种人体姿态估计方法及系统 | |
CN112801236B (zh) | 图像识别模型的迁移方法、装置、设备及存储介质 | |
CN116564355A (zh) | 一种基于自注意力机制融合的多模态情感识别方法、系统、设备及介质 | |
Lu et al. | MFNet: Multi-feature fusion network for real-time semantic segmentation in road scenes | |
CN115375781A (zh) | 一种数据处理方法及其装置 | |
CN114973199A (zh) | 一种基于卷积神经网络的轨道交通列车障碍物检测方法 | |
CN114495050A (zh) | 一种面向自动驾驶前向视觉检测的多任务集成检测方法 | |
Wang et al. | Autonomous Driving System Driven by Artificial Intelligence Perception Fusion | |
CN115953569A (zh) | 一种基于多步推理的一阶段视觉定位模型构建方法 | |
CN117975002A (zh) | 一种基于多尺度伪标签融合的弱监督图像分割方法 | |
CN114492732A (zh) | 一种面向自动驾驶视觉检测轻量化模型蒸馏方法 | |
CN114492634A (zh) | 一种细粒度装备图片分类识别方法及系统 | |
CN117975090A (zh) | 一种基于智能感知的人物交互检测方法 | |
CN117576149A (zh) | 一种基于注意力机制的单目标跟踪方法 | |
CN115731517B (zh) | 一种基于Crowd-RetinaNet网络的拥挤人群检测方法 | |
CN111578956A (zh) | 一种基于深度学习的视觉slam定位方法 | |
CN116258931A (zh) | 基于ViT和滑窗注意力融合的视觉指代表达理解方法和系统 | |
CN115861944A (zh) | 一种基于激光雷达的交通目标检测系统 | |
CN114266996A (zh) | 一种基于Transformer的单目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |