CN114332797A - 一种带自评测机制的道路场景语义分割方法及系统 - Google Patents
一种带自评测机制的道路场景语义分割方法及系统 Download PDFInfo
- Publication number
- CN114332797A CN114332797A CN202111614152.7A CN202111614152A CN114332797A CN 114332797 A CN114332797 A CN 114332797A CN 202111614152 A CN202111614152 A CN 202111614152A CN 114332797 A CN114332797 A CN 114332797A
- Authority
- CN
- China
- Prior art keywords
- evaluation
- segmentation
- self
- semantic segmentation
- result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 196
- 238000011156 evaluation Methods 0.000 title claims abstract description 87
- 238000000034 method Methods 0.000 title claims abstract description 43
- 230000003287 optical effect Effects 0.000 claims abstract description 34
- 238000013210 evaluation model Methods 0.000 claims abstract description 29
- 238000012549 training Methods 0.000 claims abstract description 21
- 238000005457 optimization Methods 0.000 claims description 11
- 238000013527 convolutional neural network Methods 0.000 claims description 6
- 238000002372 labelling Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012854 evaluation process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明公开了一种带自评测机制的道路场景语义分割方法及系统,该方法包括:获取车辆行驶环境中的道路场景视频,并将预设帧数的街景原始图像进行语义分割,预测得到分割掩膜图像和运动光流信息;构建评测网络,使用视频物体分割数据集对评测网络进行训练和调优,得到自评测模型;将街景原始图像、分割掩膜图像及运动光流信息输入自评测模型,得到语义分割结果的评分。该方法通过预先构建好自评测模型,在得到语义分割结果后,使用该结果输入自评测模型,进而得到较为客观的语义分割结果的评分,该评分可以在客观上评价语义分割结果的置信度,进而为智能驾驶系统提供有效的决策依据,也可以为应用过程中无监督调优提供数据支持。
Description
技术领域
本发明涉及人工智能技术领域,更具体的说是涉及一种带自评测机制的道路场景语义分割方法及系统。
背景技术
目前,随着车辆智能驾驶技术的不断发展,作为智能驾驶系统中一项核心技术的道路场景语义分割技术成为该领域研究的重点,道路场景语义分割技术可以辅助车辆对驾驶环境进行像素级别的密集感知。在行车过程中,使用车载摄像头获取驾驶图像,并将其输入到语义分割算法中,算法自动对图像进行分割归类,将感知到的一整幅图切分成车道、行人、车辆等具体的语义信息,再输送给决定车辆行驶的决策模块,以进行障碍物避让和环境分析模块,从而为安全驾驶保驾护航。
但是,现有的道路场景语义分割算法的评测需要在有标注的数据集上进行,根据算法的分割结果与人工标注之间的差异计算得到算法的分割精度。然而基于深度学习的各类算法的性能表现在不同数据集是不一样的,当算法被应用于实际中时,具体的实测性能大多只能靠使用者的目测来进行主观判断。这种方式下,算法的实用性能无法得到客观测评,输送给决策端的信息精度也无法保障。且开发者无法得到算法实用效果的精准反馈,无法在不额外进行数据标注的情况下,将算法针对实际使用场景进行调试优化。
因此,如何提供一种具有自评测功能的道路场景语义分割方法是本领域技术人员亟需解决的问题。
发明内容
有鉴于此,本发明提供了一种带自评测机制的道路场景语义分割方法及系统,该方法自带一种分割评测机制,能够在实际使用过程中给出分割结果,以及该分割结果的评分(置信度),解决了现有的语义分割算法无法实现自评测功能,进而无法为智能驾驶系统提供有效的决策依据,也无法为应用过程中无监督调优提供数据支持的问题。
为了实现上述目的,本发明采用如下技术方案:
一方面,本发明提供了一种带自评测机制的道路场景语义分割方法,该方法包括以下步骤:
语义分割:获取车辆行驶环境中的道路场景视频,并将预设帧数的街景原始图像进行语义分割,预测得到分割掩膜图像和运动光流信息;
构建模型:构建评测网络,使用视频物体分割数据集对所述评测网络进行训练和调优,得到自评测模型;
评测结果:将所述街景原始图像、所述分割掩膜图像以及所述运动光流信息输入所述自评测模型,得到语义分割结果的评分。
本发明的有益效果是:该方法通过预先构建好自评测模型,在得到语义分割结果后,使用该结果输入构建好的自评测模型,进而得到较为客观的语义分割结果的评分,该评分可以在客观上评价语义分割结果的置信度,进而为智能驾驶系统提供有效的决策依据,也可以为应用过程中无监督调优提供数据支持。
进一步地,上述构建模型的步骤,具体包括:
步骤1:以卷积神经网络为主体,构建评测网络;
步骤2:基于视频物体分割数据集,对所述评测网络进行预训练;
步骤3:选取所述视频物体分割数据集中多种已知算法预测得到的掩膜图像和光流信息,并对所述视频物体分割数据集中选取数据进行标注计算得到的分割结果评分;
步骤4:将所述掩膜图像和光流信息以及所述分割结果评分作为训练数据对所述评测网络进行训练;
步骤5:将所述语义分割步骤中预测得到的分割掩膜图像和运动光流信息作为调优数据对训练后的所述评测网络进行调优,得到自评测模型。
进一步地,当所述分割掩膜图像为一种类别时,所述评测结果步骤具体包括:
将所述分割掩膜图像以二值掩膜点乘所述街景原始图像的形式,得到RGB分割结果图;
将所述RGB分割结果图与所述运动光流信息均输入所述评测模型,得到语义分割结果的评分。
进一步地,当所述分割掩膜图像为多种类别时,所述评测结果步骤,具体包括:
将所述分割掩膜图像根据类别进行拆分,得到多个单类别的掩膜图像;
分别将所述单类别的掩膜图像以二值掩膜点乘所述街景原始图像的形式,得到多个RGB分割结果图;
将各个所述RGB分割结果图与对应的运动光流信息分别输入所述自评测模型,得到各个类别的分割结果评分;
将各个类别的分别结果评分区均值,得到最终的语义分割结果的评分。
进一步地,所述语义分割结果的评分为0到1内的任一数值。评分值越高,表明语义分割结果的性能越优。
进一步地,上述的带自评测机制的道路场景语义分割方法还包括:
无监督调优:基于所述语义分割结果的评分构建损失函数,并使用所述损失函数进行微调优化。通过该过程可以直接根据实际应用场景进行无监督(不需要额外人工标注)的在线优化。
进一步地,所述损失函数为:
Loss=1-s
s=C2(It,M,F)
其中,Loss为损失函数,s为语义分割结果的评分,C2为评测模型,It为街景原始图像,M为语义分割掩膜图像,F为运动光流信息。
另一方面,本发明还提供了一种带自评测机制的道路场景语义分割系统,该系统包括:
场景分割模块,用于获取车辆行驶环境中的道路场景视频,并将预设帧数的街景原始图像进行语义分割,预测得到分割掩膜图像和运动光流信息;
模型构建模块,用于构建评测网络,使用视频物体分割数据集对所述评测网络进行训练和调优,得到自评测模型;以及
自评测模块,用于将所述街景原始图像、所述分割掩膜图像以及所述运动光流信息输入所述自评测模型,得到语义分割结果的评分。
进一步地,上述带自评测机制的道路场景语义分割系统还包括无监督调优模块,所述无监督调优模块用于基于所述语义分割结果的评分构建损失函数,并使用所述损失函数进行微调优化。
上述系统中主要部分为场景分割模块和自评测模块,场景分割模块采用多尺度的全卷积神经网络来进行道路场景图像的语义分割,自评测模块则对分割结果进行无监督的自主评测,给出分割结果的性能评分。本发明中该系统的核心在于自评测模块,该部分的输入为语义分割算法的分割结果、当前帧原始图像和运动光流信息(即光流幅值图)。以原始图像和光流幅值图分别作为分割结果在空间和时间上的参考项,对分割结果进行自动评分,可以在无人工标注的实际应用场景中给出算法结果的客观评价,进而可以辅助智能驾驶系统做出更加精准的决策。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明提供的一种带自评测机制的道路场景语义分割方法的流程示意图;
图2为本发明实施例中一种带自评测机制的道路场景语义分割系统的结构架构示意图;
图3为本发明实施例中场景分割模块的网络结构示意图;
图4为本发明实施例中自评测模块的网络结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
一方面,参见附图1,本发明实施例公开了一种带自评测机制的道路场景语义分割方法,该方法包括以下步骤:
S1:语义分割:获取车辆行驶环境中的道路场景视频,并将预设帧数的街景原始图像进行语义分割,预测得到分割掩膜图像和运动光流信息;
S2:构建模型:构建评测网络,使用视频物体分割数据集对评测网络进行训练和调优,得到自评测模型;
上述构建模型的过程,具体包括:
步骤1:以卷积神经网络为主体,构建评测网络;
步骤2:基于视频物体分割数据集,对评测网络进行预训练;
步骤3:选取视频物体分割数据集中多种已知算法预测得到的掩膜图像和光流信息,并对视频物体分割数据集中选取数据进行标注计算得到的分割结果评分;
步骤4:将掩膜图像和光流信息以及分割结果评分作为训练数据对评测网络进行训练;
步骤5:将语义分割步骤中预测得到的分割掩膜图像和运动光流信息作为调优数据对训练后的评测网络进行调优,得到自评测模型。
S3:评测结果:将街景原始图像、分割掩膜图像以及运动光流信息输入自评测模型,得到语义分割结果的评分。
在实际评测中,由于分割掩膜图像可能是一种类型的图像,也可能是多种类型组合后的图像,为了得到更精确的评分,需要根据分割掩膜图像所包含的图像类型数量合理进行评分。具体分为两种情况处理:
(1)当分割掩膜图像为一种类别时,上述评测结果的过程,具体包括以下步骤:
步骤1:将分割掩膜图像以二值掩膜点乘街景原始图像的形式,得到RGB分割结果图;
步骤2:将RGB分割结果图与运动光流信息均输入评测模型,得到语义分割结果的评分。
(2)当分割掩膜图像为多种类别时,上述评测结果的过程,具体包括以下步骤:
步骤1:将分割掩膜图像根据类别进行拆分,得到多个单类别的掩膜图像;
步骤2:分别将单类别的掩膜图像以二值掩膜点乘街景原始图像的形式,得到多个RGB分割结果图;
步骤3:将各个RGB分割结果图与对应的运动光流信息分别输入自评测模型,得到各个类别的分割结果评分;
步骤4:将各个类别的分别结果评分区均值,得到最终的语义分割结果的评分。
在本实施例中,语义分割结果的评分为0到1内的任一数值。评分值越高,表明语义分割结果的性能越优。
较优地,上述的带自评测机制的道路场景语义分割方法还包括:
无监督调优:基于语义分割结果的评分构建损失函数,并使用损失函数进行微调优化。通过该过程可以直接根据实际应用场景进行无监督(不需要额外人工标注)的在线优化。
上述的损失函数具体为:
Loss=1-s
s=C2(It,M,F)
其中,Loss为损失函数,s为语义分割结果的评分,C2为评测模型,It为街景原始图像,M为语义分割掩膜图像,F为运动光流信息。
另一方面,参见附图2,本发明实施例还公开了一种带自评测机制的道路场景语义分割系统,该系统包括:
场景分割模块1,用于获取车辆行驶环境中的道路场景视频,并将预设帧数的街景原始图像进行语义分割,预测得到分割掩膜图像和运动光流信息;
模型构建模块2,用于构建评测网络,使用视频物体分割数据集对评测网络进行训练和调优,得到自评测模型;以及
自评测模块3,用于将街景原始图像、分割掩膜图像以及运动光流信息输入自评测模型,得到语义分割结果的评分。
在本实施例中,参见附图2和附图3,上述场景分割模块的主体为全卷积神经网络(Fully Convolutional Networks,简称FCN),采用多层次、多尺度融合特征提升网络特征的描述力,并在多路融合特征后分出两路,一路预测场景分割掩膜,一路预测运动信息。网络的输入为连续两帧的车载摄像头拍摄的道路场景视频中街景原始图像(假设为第t和t+1帧),输出为当前帧(t)的语义分割结果,即N+1层概率图(分割掩膜图像),每层概率对应一个分割类别(如车道、行人、车辆),总类别数N由训练数据集的标注决定,多出的一层对应背景类别;输出还包括当前帧(t)和下一帧(t+1)之间的运动光流信息,即二维的光流预测结果,两个维度分别对应像素点的横向位移和纵向位移。该网络的具体参数在带标注的大型街景数据集(如Cityscapes数据集)和带标注的光流数据集(如SINTEL数据集)上进行交替训练得到。
场景分割模块主要负责对获取的驾驶中摄像头获取道路场景图像进行像素级别的分割和光流预测,得出的光流结果输入自评测部分作为分割结果的评分参考,得出的分割掩膜图像则将进一步输出给智能驾驶系统中的决策算法进行下一步的行驶规划、碰撞检测等决策生成过程。
在本实施例中,参见附图2和图4,自评测模块的主体为卷积神经网络(Convolutional Neural Networks,简称CNN),比起场景分割模块为丰富特征而设计的多层融合结构,自评测模块在特征提取阶段网络结构相对简单,重点在于对分割结果的多维度对比和评测过程。
自评测模块引入空域和时域两种参考信息,该部分的输入为街景原始图像(空域参考)和运动光流信息(时域参考)以及待评测的分割掩膜图像,待评的分割测掩膜图像以二值掩膜点乘原始图像的形式,得到RGB分割结果图并输入自评测模型。
自评测模型的输出为0~1的掩膜评分,能够直接根据掩膜及其参考信息的对比来无监督地给出掩膜的质量评分。
为达到这个目的,自评测模块在大规模视频物体分割数据集DAVIS上进行预训练,选取该数据集上数十种现有算法的预测掩膜及其评分(即数据集标注计算得到的Jaccard得分)作为训练数据,使用损失函数L2 loss对网络进行训练,使得网络逐渐具有自主对任何掩膜进行评价的能力。
预训练完成后,使用场景分割模块的输出作为输入对网络进行进一步的调优(仍采用L2损失函数),调试过程需要少量标注。调试完成后,两个模块形成一个一体化的网络结构,该网络同时具备预测分割掩膜和无监督评测分割掩膜的能力。在实际评测中,对于多类别的分割掩膜,将预测得到的不同类别的掩膜拆分开进行一一评测(比如N中分割类别,则分别评测第1到N类的掩膜的评分),然后取均值作为分割结果的评分。
自评测模块对分割部分的结果进行自主评价,给出分割结果的优劣判断,并发送给决策部分的算法作为参考,决策算法可根据自评测得分来对分割信息的可信度进行加权,比如在当前帧得分较低的情况下引入前序评分较高的帧的分割结果来辅助分析,从而提升整体系统的精准性和安全性。该得分也可以反馈给算法本身进行实际场景中算法的动态优化等。
较优地,上述带自评测机制的道路场景语义分割系统还包括无监督调优模块,无监督调优模块用于基于语义分割结果的评分构建损失函数,并使用损失函数进行微调优化。
下面对上述带自评测机制的道路场景语义分割系统在智能驾驶系统中的工作过程做具体说明:
1)驾驶过程中,车载摄像头拍摄得到道路场景视频,并将每两帧的连续街景图像输入场景分割模块。
2)场景分割模块根据图像预测得出场景分割掩膜图像以及运动光流信息。
3)自评测模块读取场景分割模块预测出的掩膜和光流,返回评分。
4)分割掩膜和评分同时输送给智能驾驶系统后端的决策算法,决策算法根据评分判断当前帧的分割信息在决策中的置信度:若分割结果评分过低,则不予采信,采用前序的高评分分割结果或系统中来自雷达等信号源的信息进行补充。
下面对上述带自评测机制的道路场景语义分割系统在实用场景中进行无监督调优的过程进行详细说明:
1)驾驶过程中,算法同时给出分割结果以及其评测得分。
2)网络直接采用1减去评测得分作为损失函数进行微调训练,可以直接进行无监督(不需要额外人工标注)的在线优化。
设分割部分和自评测部分的网络分别为C1和C2,分割部分输入为图像It、It+1,输出为分割掩膜图像M和运动光流信息F,则有:
C1(It,It+1)=M,F
自评测部分的得分s的计算过程为:
s=C2(It,M,F)
已知C2在训练中学习到的是Jaccard评分,分值范围在0~1,评分越高掩膜性能越好,因此,在实际运行过程中可以将评分s等价为掩膜性能,通过最大化评分s(也就是最小化1-s)来对整体系统C1+C2进行在线调优,此调优损失函数可表达为:
Loss=1-s=1-C2(It,M,F)=1-C2(It,C1(It,It+1))
不难发现,本发明中的道路场景图像语义分割方法自带评测功能,能够在无标注的实际驾驶场景中同时给出分割结果和对该结果的客观评分,为智能驾驶系统的决策算法提供了更加详尽的参考信息,提升了整体系统的安全性,同时也为算法的无监督动态优化提供了可能。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (9)
1.一种带自评测机制的道路场景语义分割方法,其特征在于,包括:
语义分割:获取车辆行驶环境中的道路场景视频,并将预设帧数的街景原始图像进行语义分割,预测得到分割掩膜图像和运动光流信息;
构建模型:构建评测网络,使用视频物体分割数据集对所述评测网络进行训练和调优,得到自评测模型;
评测结果:将所述街景原始图像、所述分割掩膜图像以及所述运动光流信息输入所述自评测模型,得到语义分割结果的评分。
2.根据权利要求1所述的一种带自评测机制的道路场景语义分割方法,其特征在于,构建模型的步骤,具体包括:
以卷积神经网络为主体,构建评测网络;
基于视频物体分割数据集,对所述评测网络进行预训练;
选取所述视频物体分割数据集中多种已知算法预测得到的掩膜图像和光流信息,并对所述视频物体分割数据集中选取数据进行标注计算得到的分割结果评分;
将所述掩膜图像和光流信息以及所述分割结果评分作为训练数据对所述评测网络进行训练;
将所述语义分割步骤中预测得到的分割掩膜图像和运动光流信息作为调优数据对训练后的所述评测网络进行调优,得到自评测模型。
3.根据权利要求1所述的一种带自评测机制的道路场景语义分割方法,其特征在于,当所述分割掩膜图像为一种类别时,所述评测结果步骤具体包括:
将所述分割掩膜图像以二值掩膜点乘所述街景原始图像的形式,得到RGB分割结果图;
将所述RGB分割结果图与所述运动光流信息均输入所述自评测模型,得到语义分割结果的评分。
4.根据权利要求1所述的一种带自评测机制的道路场景语义分割方法,其特征在于,当所述分割掩膜图像为多种类别时,所述评测结果步骤,具体包括:
将所述分割掩膜图像根据类别进行拆分,得到多个单类别的掩膜图像;
分别将所述单类别的掩膜图像以二值掩膜点乘所述街景原始图像的形式,得到多个RGB分割结果图;
将各个所述RGB分割结果图与对应的运动光流信息分别输入所述自评测模型,得到各个类别的分割结果评分;
将各个类别的分别结果评分区均值,得到最终的语义分割结果的评分。
5.根据权利要求1所述的一种带自评测机制的道路场景语义分割方法,其特征在于,所述语义分割结果的评分为0到1内的任一数值。
6.根据权利要求1所述的一种带自评测机制的道路场景语义分割方法,其特征在于,还包括:
无监督调优:基于所述语义分割结果的评分构建损失函数,并使用所述损失函数进行微调优化。
7.根据权利要求6所述的一种带自评测机制的道路场景语义分割方法,其特征在于,所述损失函数为:
Loss=1-s
s=C2(It,M,F)
其中,Loss为损失函数,s为语义分割结果的评分,C2为评测模型,It为街景原始图像,M为语义分割掩膜图像,F为运动光流信息。
8.一种带自评测机制的道路场景语义分割系统,其特征在于,包括:
场景分割模块,用于获取车辆行驶环境中的道路场景视频,并将预设帧数的街景原始图像进行语义分割,预测得到分割掩膜图像和运动光流信息;
模型构建模块,用于构建评测网络,使用视频物体分割数据集对所述评测网络进行训练和调优,得到自评测模型;以及
自评测模块,用于将所述街景原始图像、所述分割掩膜图像以及所述运动光流信息输入所述自评测模型,得到语义分割结果的评分。
9.根据权利要求8所述的一种带自评测机制的道路场景语义分割系统,其特征在于,还包括无监督调优模块,所述无监督调优模块用于基于所述语义分割结果的评分构建损失函数,并使用所述损失函数进行微调优化。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111614152.7A CN114332797A (zh) | 2021-12-27 | 2021-12-27 | 一种带自评测机制的道路场景语义分割方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111614152.7A CN114332797A (zh) | 2021-12-27 | 2021-12-27 | 一种带自评测机制的道路场景语义分割方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114332797A true CN114332797A (zh) | 2022-04-12 |
Family
ID=81012782
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111614152.7A Pending CN114332797A (zh) | 2021-12-27 | 2021-12-27 | 一种带自评测机制的道路场景语义分割方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114332797A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114500368A (zh) * | 2022-04-07 | 2022-05-13 | 成都网讯优速信息技术有限公司 | 数据传输方法和装置及采用该装置的路由器 |
CN117078923A (zh) * | 2023-07-19 | 2023-11-17 | 苏州大学 | 面向自动驾驶环境的语义分割自动化方法、系统及介质 |
-
2021
- 2021-12-27 CN CN202111614152.7A patent/CN114332797A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114500368A (zh) * | 2022-04-07 | 2022-05-13 | 成都网讯优速信息技术有限公司 | 数据传输方法和装置及采用该装置的路由器 |
CN114500368B (zh) * | 2022-04-07 | 2022-06-17 | 成都网讯优速信息技术有限公司 | 数据传输方法和装置及采用该装置的路由器 |
CN117078923A (zh) * | 2023-07-19 | 2023-11-17 | 苏州大学 | 面向自动驾驶环境的语义分割自动化方法、系统及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110276765B (zh) | 基于多任务学习深度神经网络的图像全景分割方法 | |
CN110263786B (zh) | 一种基于特征维度融合的道路多目标识别系统及方法 | |
Karim et al. | A dynamic spatial-temporal attention network for early anticipation of traffic accidents | |
CN113486726A (zh) | 一种基于改进卷积神经网络的轨道交通障碍物检测方法 | |
CN110633632A (zh) | 一种基于循环指导的弱监督联合目标检测和语义分割方法 | |
CN111882620B (zh) | 一种基于多尺度信息道路可行驶区域分割方法 | |
Achaji et al. | Is attention to bounding boxes all you need for pedestrian action prediction? | |
CN114332797A (zh) | 一种带自评测机制的道路场景语义分割方法及系统 | |
CN110599521B (zh) | 生成易受伤害道路使用者轨迹预测模型的方法及预测方法 | |
CN110705412A (zh) | 一种基于运动历史图像的视频目标检测方法 | |
CN110281949B (zh) | 一种自动驾驶统一分层决策方法 | |
CN110909741A (zh) | 一种基于背景分割的车辆再识别方法 | |
CN113269133A (zh) | 一种基于深度学习的无人机视角视频语义分割方法 | |
CN112036276A (zh) | 一种人工智能视频问答方法 | |
CN111462192A (zh) | 一种人行道扫地机器人时空双流融合卷积神经网络动态避障方法 | |
CN114581486A (zh) | 基于全卷积孪生网络多层特征的模板更新目标跟踪算法 | |
CN118013234B (zh) | 基于多源异构大数据的重点车辆驾驶员画像智能生成系统 | |
CN111209808A (zh) | 一种基于分层处理的无人机图像语义分割识别方法 | |
Shi | Object detection models and research directions | |
CN113888638A (zh) | 一种基于注意力机制的图神经网络行人轨迹预测方法 | |
Šarić et al. | Single level feature-to-feature forecasting with deformable convolutions | |
CN114743126A (zh) | 一种基于图注意力机制网络的车道线标志分割方法 | |
Khan et al. | Latent space reinforcement learning for steering angle prediction | |
EP4158529A1 (en) | Computer-implemented method for multimodal egocentric future prediction | |
US20230281424A1 (en) | Method for Extracting Features from Data of Traffic Scenario Based on Graph Neural Network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Country or region after: China Address after: Building 2, No. 19 Zhuoyue Road, Longxing Town, Liangjiang New District, Yubei District, Chongqing 401135 (Room 102, 1st Floor, Shuchuang Park) Applicant after: Liuwei Technology (Chongqing) Co.,Ltd. Address before: 102200 811, unit 1, floor 8, building 1, yard 1, energy East Road, Changping District, Beijing Applicant before: Liuwei Technology (Beijing) Co.,Ltd. Country or region before: China |
|
CB02 | Change of applicant information |