CN114926819A - 一种复杂场景的未知异常障碍物识别方法及系统 - Google Patents

一种复杂场景的未知异常障碍物识别方法及系统 Download PDF

Info

Publication number
CN114926819A
CN114926819A CN202210607410.7A CN202210607410A CN114926819A CN 114926819 A CN114926819 A CN 114926819A CN 202210607410 A CN202210607410 A CN 202210607410A CN 114926819 A CN114926819 A CN 114926819A
Authority
CN
China
Prior art keywords
attention
matrix
unknown
feature
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210607410.7A
Other languages
English (en)
Other versions
CN114926819B (zh
Inventor
张卫东
任相璇
杨云祥
覃善兴
沈春华
柏林
熊明磊
常建
贺通
黄宴委
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hainan University
Original Assignee
Hainan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hainan University filed Critical Hainan University
Priority to CN202210607410.7A priority Critical patent/CN114926819B/zh
Publication of CN114926819A publication Critical patent/CN114926819A/zh
Application granted granted Critical
Publication of CN114926819B publication Critical patent/CN114926819B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种复杂场景的未知异常障碍物识别方法及系统,该系统包括:特征编码器模块:用以将输入图片编码为高维特征张量,提取输入特征;未知注意力生成模块,用以生成未知注意力权重图,该注意力图对不确定性高区域生成高权重,反之注意力图较低;注意力信息提示模块,用以对注意力高区域给予真值提示;语义分割结果预测模块,用以预测像素为各类别的概率。本发明通过训练模型将有效注意力放在不确定性区域高的区域来以此根据模型注意力权重值来预测是否为未知异常障碍物。与现有技术相比本发明具有应用性强、计算量小、普适性强等优点。

Description

一种复杂场景的未知异常障碍物识别方法及系统
技术领域
本发明涉及机器视觉中的语义分割领域,尤其是涉及一种复杂场景的未知异常障碍物识别方法及系统。
背景技术
在陆上或者海上自动驾驶中,识别未知异常障碍物的能力对系统安全极为重要。现有的基于深度学习的语义分割算法过分依赖训练数据集的规模及质量,在这种情况下,模型只能将物体识别为自己学过的类别中的某一类,对于训练集中不存在的训练类别(未知异常类),模型则会作出错误的判断:将其强行归类为已知类的一种,而不是承认对其未知。这种强烈依赖训练数据的方法这在实际应用中会引发一系列的安全问题:如以自动驾驶场景举例,现有的方法在使用一足够规模的数据集全监督进行训练时,已经可以达到很高的检测精度,数据集中所包含的目标种类常常是常见目标如行人、车辆、路灯等,但当道路上出现如猫狗、垃圾车遗落下的箱子、甚至椅子、玩具等不存在于用来训练模型的数据集中的障碍物时,检测器强行将其归类为已知类的一种,这会引发一系列的安全隐患。而收集一个可以包含所有可能实例的数据集是不现实的,这大大限制了其在现实世界的应用。使模型具有识别未知异常障碍物的能力同时可以使得系统更为高效的学习。当接收到新的视觉信息时,人类的好奇心常常驱使人们去更关注自己未知的事物,这使得相比于机器,人具有更为高效的学习能力。识别未知异常障碍物并对异常障碍物给予更高的注意力可以帮助神经网络模型更为关注异常类别信息,进而作出更为精准的预测。在此背景下,由于语义分割任务要求需要预测每一像素点的类别,这使得语义分割任务相较于其他视觉任务更为复杂,涉及的相关背景的技术较少,主要集中在两个方面:一是使用含有异常数据的数据集训练或者引入生成器生成异常数据用来训练模型;二是基于一个直觉即异常实例获得的检测分数应比分布内实例的检测分数低,故使用预测分数MSP和maxlogits的负值作为异常分数。然而上述方法存在着过度依赖异常数据质量以及对异常目标检出率低的问题,这大大限制了其实际中的应用。因此,设计一种解决上述问题的未知异常障碍物检测系统及方法是必要的。
发明内容
本发明的目的就是为了克服上述现有技术缺陷而提供一种复杂场景的未知异常障碍物识别方法及系统。本发明基于一思路:模型应将有限的注意力放在不确定性高的区域,且对于高注意力区域模型应给予相比于低注意力区域更多信息,进而使得模型预测一未知注意力矩阵,进而通过注意力矩阵判别不确定性区域,以达到未知异常障碍物识别的目的。为了训练模型对不确定区域生成较高的注意力值,本发明使用提示方法,真值信息不仅用于计算损失函数,还用于在前向传播过程中给予模型一定的提示,以此来引导模型对不确定区域输出较高注意力权重来使损失函数降低,达到发明目的。
一种复杂场景未知异常障碍物识别方法,包括以下步骤:
步骤1:收集所应用场景的数据集,获得场景数据,并建立神经网络模型;
步骤2:确定特征提取网络结构,用于从场景数据中提取并生成用于解码器网络语义分割结果的高维特征,再由高维特征得到特征矩阵F;
步骤3:确定未知注意力生成矩阵网络结构,根据所述特征矩阵F生成注意力权重矩阵,并根据所述注意力权重矩阵与输入特征加权,生成用于预测像素类别的注意力加权特征矩阵;
步骤4:确认特征解码器模块神经网络,对所述注意力加权特征矩阵生成预测结果;
步骤5:根据所述注意力权重矩阵生成真值提示矩阵;
步骤6:将生成的真值提示矩阵输入给语义分割结果输出解码器网络模型,得到加入提示后的预测结果;
步骤7:计算神经网络模型的maxlogit得分,根据得分与注意力权重矩阵一起预测未知异常障碍物区域,获得语义分割输出;
步骤8:确定损失函数,利用损失函数反向传播训练神经网络模型;
步骤9:神经网络模型训练完成后,进行障碍物识别并输出障碍物识别结果。
可选的,
所述特征矩阵F∈RN×H’×W’,
其中,N代表高维特征通道数,W’、H’代表特征矩阵宽与高。
可选的,步骤3的具体步骤包括:
采用平均池化层加卷积层的方式生成与输入特征相同宽高的注意力图;
将注意力图沿宽高展平为(W*H)张量输入softmax中以获得和为1的注意力得分,即∑h,wmh,w=1;其中W、H代表输入图片的宽与高;
将注意力权重矩阵M与特征矩阵F结合为Fatt作为注意力加权特征矩阵,传入解码器用于预测像素类别。
可选的,注意力加权特征矩阵Fatt的生成公式为:
Fatt=F×M+F。
可选的,根据所述注意力权重矩阵生成真值提示矩阵,具体包括:
假设真值为G∈RH×W,通过将其对应位置的类别序号gh,w编码为one-hot向量,将其拓展为G’∈RC×H×W,进而得到真值提示矩阵H1=G’×M,其中H1∈RC×H×W
可选的,加入提示后的预测结果为P为:
P=P’+θH1
其中,θ为权重系数,P’为步骤四生成的预测结果。
可选的,所述步骤8中损失函数为:
l=ls+αla
其中ls为分割损失函数,la为注意力损失函数,其中α为权重系数;
计算预测正确像素所对应未知权重均值a,则注意力损失函数公式为:
Figure BDA0003671902110000031
其中β为权重系数,mc,w,h与pc,w,h分别代表对应位置注意力系数和预测输出概率。
基于上述方法,提出一种复杂场景的未知异常障碍物识别方法及系统,包括:
特征编码器模块:用于对输入图片进行特征编码,获取图片中的特征信息,并建立神经网络模型;
未知注意力生成模块:用于网络结合所述特征信息生成相同大小的未知注意力矩阵,未知注意力矩阵所有值之和为1;
注意力信息提示模块:用于根据所述未知注意力矩阵给予注意力得分高的像素以一定的数据集真值信息作为提示;
语义分割结果预测模块:用于解码神经网络模型的特征输出像素为某一类别的概率,并结合概率得分以及注意力值判断异常障碍物区域。
与现有技术相比,本发明具有以下优点:
1.不同于以往使用模型预测概率分数作为未知异常障碍物的评判标准,本发明使用注意力矩阵中的注意力权重作为不确定性预测辅助评判指标,有效提高未知异常障碍物的检出指标。为了训练模型关注未知信息,本发明采用一种基于注意力的提示方法,对模型注意力图上的不确定区域给予提示,以引导模型对不确定区域延迟作出预测。
2.对未知实例给予高的注意力并在训练模型过程中对其不确定性高区域给予一定的提示的师-生模式使得模型的训练过程更符合人类认知规律,有效提高模型学习效率。本发明不需要额外收集含有异常数据的数据集,由于在实际应用中无法完美模拟现实出现的各类异常情况,所以本发明的训练方法更符合实际应用场景。
3.本发明所采用的注意力模块简单且参数量较小,可作为一种即插即用的组件插入现有各类深度学习模型中,即可达到检测场景中未知异常的目的,同时未知注意力机制的加入可提高模型本身检测指标。尤其对于复杂场景中的语义分割任务,模型训练更为困难且不允许引入过多网络参数,这使得需要额外大量训练的异常检测方法不适用,而本发明可直接应用于该类场景。
附图说明
以下结合附图的描述可以进一步理解本发明。
图1是本发明实施例中一种复杂场景的未知异常障碍物识别方法的流程图;
图2是本发明实施例中一种复杂场景的未知异常障碍物识别系统的功能模块示意图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。显然,所描述的实施例是本发明的一部分实施例,而不是全部实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都应属于本发明保护的范围。
第一方面,本申请实施例还提供了一种复杂场景未知异常障碍物识别方法,如图1所示,该方法包括以下步骤:
步骤1:收集所应用场景的数据集,以获得尽可能高质量的场景数据。
为获得尽可能丰富的图像数据,所述的数据增强手段包括但不限于图片清晰度增强、图片背景前景融合、生成对抗网络生成虚拟图像等。
步骤2:确定特征提取网络结构,本实施例采用ResNet101作为骨干的DeepLabV3+作为特征提取网络,用于从输入数据中提取并生成高维特征用于解码器网络预语义分割结果。网络输出一特征矩阵F,其中F∈RN×H’×W’,N代表高维特征通道数,W’、H’代表特征矩阵宽与高。
步骤3:确定未知注意力生成矩阵网络结构,该网络根据上一步骤得到的特征矩阵F生成注意力权重矩阵M∈RH×W,W、H代表输入图片的宽与高。
优选地,采用平均池化层加卷积层的方式生成与输入特征相同宽高的注意力图。最后,将注意力图沿宽高展平为(W*H)张量输入softmax中以获得和为1的注意力得分,即∑h,wmh,w=1,以确保注意力是有限的,强迫模型在有限注意力内最大限度获得更多有用信息。最后,将M与F结合为Fatt作为最终特征矩阵传入解码器用于预测像素类别。
优选地,Fatt的生成公式为:
Fatt=F×M+F
步骤4:确认特征解码器模块神经网络结果,用于根据上述所获得的Fatt生成预测结果P’∈RC×H×W,其中C∈{1,.....,c}代表数据集中所含的实例类别如车、人、路灯等。
步骤5:根据注意力权重矩阵生成真值提示矩阵H1∈RC×H×W
优选地,假设真值为G∈RH×W,通过将其对应位置的类别序号gh,w编码为one-hot向量,将其拓展为G’∈RC×H×W,进而H1=G’×M。
步骤6:将生成的真值提示矩阵输入给模型,其目的是给予模型高注意力区域以提示。通过这种机制使得模型学会分辨不确定性区域。
优选地,加入提示后的预测结果P为:
P=P’+θH1
其中,θ为权重系数。
为了防止模型选择延迟的学习注意力将注意力权重学为相同值无法分辨,只对每一训练周期的40%训练样本给予提示,这样的设置目的是为了使得模型错误预测有机会不加提示的被输出用于计算损失,强迫模型学习决策边界。
步骤7:计算模型maxlogit得分Score∈RC×H×W,Score=maxPc,h,w,根据Score与注意力权重矩阵M一起预测未知异常障碍物区域,获得语义分割输出,预测输出为:
Y=argmaxPc,h,w
步骤8:确认损失函数,利用损失函数反向传播训练网络,所使用的损失函数为:
l=ls+αla
其中ls为分割损失函数,本实施例采用交叉熵损失,la为注意力损失函数,其中α为权重系数。计算预测正确像素所对应未知权重均值a,则注意力损失函数公式为:
Figure BDA0003671902110000061
其中β为权重系数,mc,w,h与pc,w,h分别代表对应位置注意力系数和预测输出概率。
步骤9:保存训练好的系统模型。
第二方面,如图2所示,本申请实施例提供了一种复杂场景的未知异常障碍物识别系统,包括:特征编码器模块,未知注意力生成模块,注意力信息提示模块及语义分割结果预测模块:
所述特征编码器模块,用于使用神经网络对输入图片进行特征编码,使得神经网络模型获取图片中的特征信息;
所述未知注意力生成模块,用于网络结合上述特征编码器生成的特征数组生成相同大小的未知注意力矩阵,未知注意力矩阵所有值之和为1,数值越高代表网络对该区域的注意力越高,即该区域越有可能为未知异常区域;
所述注意力信息提示模块,用于根据注意力图给予注意力得分高的像素以一定的数据集真值信息作为提示。该模块的目的在于使得网络对预测准确自信心不足的区域学习低信心值(高注意力值),进而用于分割异常障碍物区域;
所述语义分割结果预测模块,用于解码网络特征输出像素为某一类别的概率,并结合概率得分以及注意力值判断异常障碍物区域。
特别说明地,所述未知异常类是指已有的对网络进行训练的图像数据中所没有的类别,即没有输入神经网络模型的障碍物类别。
以上,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的工作人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围。

Claims (8)

1.一种复杂场景未知异常障碍物识别方法,其特征在于,包括以下步骤:
步骤1:收集所应用场景的数据集,获得场景数据,并建立神经网络模型;
步骤2:确定特征提取网络结构,用于从场景数据中提取并生成用于解码器网络语义分割结果的高维特征,再由高维特征得到特征矩阵F;
步骤3:确定未知注意力生成矩阵网络结构,根据所述特征矩阵F生成注意力权重矩阵,并根据所述注意力权重矩阵与输入特征加权,生成用于预测像素类别的注意力加权特征矩阵;
步骤4:确认特征解码器模块神经网络,对所述注意力加权特征矩阵生成预测结果;
步骤5:根据所述注意力权重矩阵生成真值提示矩阵;
步骤6:将生成的真值提示矩阵输入给语义分割结果输出解码器网络模型,得到加入提示后的预测结果;
步骤7:计算神经网络模型的maxlogit得分,根据得分与注意力权重矩阵一起预测未知异常障碍物区域,获得语义分割输出;
步骤8:确定损失函数,利用损失函数反向传播训练神经网络模型;
步骤9:神经网络模型训练完成后,进行障碍物识别并输出障碍物识别结果。
2.根据权利要求1所述的一种复杂场景未知异常障碍物识别方法,其特征在于,
所述特征矩阵F∈RN×H′×W′
其中,N代表高维特征通道数,W′、H′代表特征矩阵宽与高。
3.根据权利要求1所述的一种复杂场景未知异常障碍物识别方法,其特征在于,步骤3的具体步骤包括:
采用平均池化层加卷积层的方式生成与输入特征相同宽高的注意力图;
将注意力图沿宽高展平为(W*H)张量输入softmax中以获得和为1的注意力得分,即∑h,wmh,w=1;其中W、H代表输入图片的宽与高;
将注意力权重矩阵M与特征矩阵F结合为Fatt作为注意力加权特征矩阵,传入解码器用于预测像素类别。
4.根据权利要求3所述的一种复杂场景未知异常障碍物识别方法,其特征在于,注意力加权特征矩阵Fatt的生成公式为:
Fatt=F×M+F。
5.根据权利要求1所述的一种复杂场景未知异常障碍物识别方法,其特征在于,根据所述注意力权重矩阵生成真值提示矩阵,具体包括:
假设真值为G∈RH×W,通过将其对应位置的类别序号gh,w编码为one-hot向量,将其拓展为G′∈RC×H×W,进而得到真值提示矩阵H1=G’×M,其中H1∈RC×H×W
6.根据权利要求5所述的一种复杂场景未知异常障碍物识别方法,其特征在于,加入提示后的预测结果为P为:
P=P’+θH1
其中,θ为权重系数,P’为步骤四生成的预测结果。
7.根据权利要求1所述的一种复杂场景未知异常障碍物识别方法,其特征在于,所述步骤8中损失函数为:
l=ls+αla
其中ls为分割损失函数,la为注意力损失函数,其中α为权重系数;
计算预测正确像素所对应未知权重均值a,则注意力损失函数公式为:
Figure FDA0003671902100000021
其中β为权重系数,mc,w,h与pc,w,h分别代表对应位置注意力系数和预测输出概率。
8.一种复杂场景的未知异常障碍物识别系统,其特征在于,包括:
特征编码器模块:用于对输入图片进行特征编码,获取图片中的特征信息,并建立神经网络模型;
未知注意力生成模块:用于网络结合所述特征信息生成相同大小的未知注意力矩阵,未知注意力矩阵所有值之和为1;
注意力信息提示模块:用于根据所述未知注意力矩阵给予注意力得分高的像素以一定的数据集真值信息作为提示;
语义分割结果预测模块:用于解码神经网络模型的特征输出像素为某一类别的概率,并结合概率得分以及注意力值判断异常障碍物区域。
CN202210607410.7A 2022-05-31 2022-05-31 一种复杂场景的未知异常障碍物识别方法及系统 Active CN114926819B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210607410.7A CN114926819B (zh) 2022-05-31 2022-05-31 一种复杂场景的未知异常障碍物识别方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210607410.7A CN114926819B (zh) 2022-05-31 2022-05-31 一种复杂场景的未知异常障碍物识别方法及系统

Publications (2)

Publication Number Publication Date
CN114926819A true CN114926819A (zh) 2022-08-19
CN114926819B CN114926819B (zh) 2024-06-21

Family

ID=82812822

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210607410.7A Active CN114926819B (zh) 2022-05-31 2022-05-31 一种复杂场景的未知异常障碍物识别方法及系统

Country Status (1)

Country Link
CN (1) CN114926819B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115100491A (zh) * 2022-08-25 2022-09-23 山东省凯麟环保设备股份有限公司 一种面向复杂自动驾驶场景的异常鲁棒分割方法与系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111768342A (zh) * 2020-09-03 2020-10-13 之江实验室 基于注意力机制和多级反馈监督的人脸超分辨方法
US10922390B1 (en) * 2018-08-02 2021-02-16 Facebook, Inc. Training a classifier to identify unknown users of an online system
WO2021081808A1 (zh) * 2019-10-30 2021-05-06 深圳市大疆创新科技有限公司 基于人工神经网络的物体检测的系统及方法
CN113033572A (zh) * 2021-04-23 2021-06-25 上海海事大学 一种基于usv的障碍物分割网络及其生成方法
CN113807243A (zh) * 2021-09-16 2021-12-17 上海交通大学 一种基于对未知目标注意力的水上障碍物检测系统及方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10922390B1 (en) * 2018-08-02 2021-02-16 Facebook, Inc. Training a classifier to identify unknown users of an online system
WO2021081808A1 (zh) * 2019-10-30 2021-05-06 深圳市大疆创新科技有限公司 基于人工神经网络的物体检测的系统及方法
CN111768342A (zh) * 2020-09-03 2020-10-13 之江实验室 基于注意力机制和多级反馈监督的人脸超分辨方法
CN113033572A (zh) * 2021-04-23 2021-06-25 上海海事大学 一种基于usv的障碍物分割网络及其生成方法
CN113807243A (zh) * 2021-09-16 2021-12-17 上海交通大学 一种基于对未知目标注意力的水上障碍物检测系统及方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DONGWEI ZHANG: "Micrometeoroid and Orbital Debris Impact Detection and Location Based on FBG Sensor Network Using Combined Artificial Neural Network and Mahalanobis Distance Method", 《IEEE》, 15 December 2021 (2021-12-15), pages 1 - 10 *
牛轶峰: "无人机群协同跟踪地面多目标导引方法研究", 《中国科学》, 3 April 2020 (2020-04-03), pages 403 - 422 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115100491A (zh) * 2022-08-25 2022-09-23 山东省凯麟环保设备股份有限公司 一种面向复杂自动驾驶场景的异常鲁棒分割方法与系统
CN115100491B (zh) * 2022-08-25 2022-11-18 山东省凯麟环保设备股份有限公司 一种面向复杂自动驾驶场景的异常鲁棒分割方法与系统
US11954917B2 (en) 2022-08-25 2024-04-09 Shandong Kailin Environmental Protection Equipment Co., Ltd. Method of segmenting abnormal robust for complex autonomous driving scenes and system thereof

Also Published As

Publication number Publication date
CN114926819B (zh) 2024-06-21

Similar Documents

Publication Publication Date Title
CN109949317B (zh) 基于逐步对抗学习的半监督图像实例分割方法
CN109977812B (zh) 一种基于深度学习的车载视频目标检测方法
CN110276765B (zh) 基于多任务学习深度神经网络的图像全景分割方法
CN107563372B (zh) 一种基于深度学习ssd框架的车牌定位方法
CN112633149B (zh) 一种域自适应雾天图像目标检测方法和装置
CN112287941B (zh) 一种基于自动字符区域感知的车牌识别方法
CN115019039B (zh) 一种结合自监督和全局信息增强的实例分割方法及系统
CN114627437B (zh) 一种交通目标识别方法及系统
CN112906631A (zh) 一种基于视频的危险驾驶行为检测方法和检测系统
CN115984537A (zh) 图像处理方法、装置及相关设备
CN115690714A (zh) 一种基于区域聚焦的多尺度道路目标检测方法
CN117217368A (zh) 预测模型的训练方法、装置、设备、介质及程序产品
CN114926819B (zh) 一种复杂场景的未知异常障碍物识别方法及系统
CN114596548A (zh) 目标检测方法、装置、计算机设备及计算机可读存储介质
US11954917B2 (en) Method of segmenting abnormal robust for complex autonomous driving scenes and system thereof
CN117726870A (zh) 基于扩散模型的小样本目标检测模型增强学习方法和装置
CN115294548B (zh) 一种基于行方向上位置选择和分类方法的车道线检测方法
CN116433909A (zh) 基于相似度加权多教师网络模型的半监督图像语义分割方法
CN116452688A (zh) 一种基于共同注意力机制的图像描述生成方法
CN113420706B (zh) 一种基于多层特征融合的车辆检测方法
CN115861756A (zh) 基于级联组合网络的大地背景小目标识别方法
CN117611932B (zh) 基于双重伪标签细化和样本重加权的图像分类方法及系统
CN112686344B (zh) 一种快速过滤背景图片的检测模型及其训练方法
Mahendran et al. Adaptive Lane Point Extraction in Rain Conditions
CN114973202A (zh) 一种基于语义分割的交通场景障碍物检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant