CN117576649A - 一种基于分割点和双特征增强的车道线检测方法及系统 - Google Patents

一种基于分割点和双特征增强的车道线检测方法及系统 Download PDF

Info

Publication number
CN117576649A
CN117576649A CN202311799873.9A CN202311799873A CN117576649A CN 117576649 A CN117576649 A CN 117576649A CN 202311799873 A CN202311799873 A CN 202311799873A CN 117576649 A CN117576649 A CN 117576649A
Authority
CN
China
Prior art keywords
lane line
feature
lane
point
representing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311799873.9A
Other languages
English (en)
Other versions
CN117576649B (zh
Inventor
赵静
胡惠琴
孙仕亮
王振超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
East China Normal University
Original Assignee
East China Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by East China Normal University filed Critical East China Normal University
Priority to CN202311799873.9A priority Critical patent/CN117576649B/zh
Publication of CN117576649A publication Critical patent/CN117576649A/zh
Application granted granted Critical
Publication of CN117576649B publication Critical patent/CN117576649B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及计算机技术领域,具体为一种基于分割点和双特征增强的车道线检测方法,该方法包括如下步骤:根据特定网络提取图片特征,并获得多尺度特征图;依据所述多尺度特征图得到车道线特征点坐标集合;基于所述多尺度特征图和所述车道线特征点坐标集合设置车道线特征增强模型;利用所述车道线特征增强模型优化车道线特征,以获得最优车道线特征;依据所述最优车道线特征获得预测车道线。本发明提取车道线的特征点,利用车道线特征增强模型对车道线特征点进行逐步优化,以获得最优的车道线特征,进而构建出更加准确的车道线实例。

Description

一种基于分割点和双特征增强的车道线检测方法及系统
本发明涉及计算机技术领域,具体为一种基于分割点和双特征增强的车道线检测方法及系统。
背景技术
车道线检测是驾驶技术中的一项关键任务,对于车辆的安全行驶具有重要意义。传统的车道线检测方法通常基于图像处理技术,如边缘检测、霍夫变换等,但现有技术在面对复杂道路环境和多种干扰因素时,往往表现出鲁棒性不足,预测结果不准确等问题。其中逐行检测方法在面对弯曲或交叉车道线时具有较好的效果,但容易受到图像中其他干扰因素的影响,另外一方面参数曲线方法利用模型来拟合车道线,并得到车道线拟合结果,但是交通驾驶环境多变且复杂,驾驶过程中容易受到外界因素的干扰。
在实际应用中,实现车道线的精确检测至关重要,需要选择合适的算法和方法实现车道线的精确检测。同时,还需要考虑计算效率和实时性等方面的因素,以满足实际应用需求。因此,当前需要解决的问题是如何提高车道线检测的鲁棒性和准确性,并确保预测方法的实时性和检测效率。
发明内容
针对现有方法的缺陷以及实际应用的不足,本发明为了提高车道线检测的准确性和鲁棒性,同时满足实时性要求。通过深入挖掘图像中的有用特征,实现车道线的精准检测,基于分割点和特征增强模型,以应对复杂道路环境和其他因素的干扰。第一方面本发明提供了一种基于分割点和双特征增强的车道线检测方法,其包括如下步骤,根据特定网络提取图片特征,并获得多尺度特征图;依据所述多尺度特征图得到车道线特征点坐标集合;基于所述多尺度特征图和所述车道线特征点坐标集合设置车道线特征增强模型;利用所述车道线特征增强模型优化车道线特征,以获得最优车道线特征;依据所述最优车道线特征获得预测车道线。本发明通过提取多尺度特征图的有用特征,并使用特征增强模型对其进行细化增强,能够更好地适应不同的道路环境和光照条件,提高车道线检测方法的鲁棒性,实现车道线检测的精准预测。
可选地,所述根据特定网络提取图片特征,并获得多尺度特征图包括:依据网络图片提取图片特征,得到不同分辨率的多尺度特征图;对所述不同分辨率的多尺度特征图进行聚集,以获得聚集空间特征;基于所述聚集空间特征以获得多尺度特征图。本发明根据特定网络提取图片特征并获得多尺度特征图,有利于提高车道线检测方法的实用性能、鲁棒性、可解释性以及泛化能力。
可选地,所述依据所述多尺度特征图得到车道线特征点坐标集合包括:预设车道线特征点分割点;根据所述车道线特征点分割点得到车道线特征点坐标集合。本发明预设车道线特征分割点,可以得到车道线的精确位置,特征点坐标集合有利于后续的车道线检测和预测,减少其他干扰因素对车道线检测的影响,确保车辆在行驶过程中的安全性和稳定性。
可选地,所述车道线特征点坐标,满足如下关系:
Ln={(xn1,y1),(xn2,y2),(xn3,y3),…,(xni,yi)}
其中,Ln表示图片中任意一条车道线特征点坐标的集合,n表示图片中包含的车道线数量,xn1表示任意一条车道线第一个特征点的x坐标,y1表示任意一条车道线第一个特征点的y坐标,xn2表示任意一条车道线第二个特征点的x坐标,y2表示任意一条车道线第二个特征点的y坐标,xn3表示任意一条车道线第三个特征点的x坐标,y3表示任意一条车道线第三个特征点的y坐标,xni表示任意一条车道线第i个特征点的x坐标,yi表示任意一条车道线第i个特征点的y坐标。本发明对车道线特征点使用统一的表示方式,可以更方便地处理不同图片的车道线特征点坐标,进而简化算法和数据处理过程,提高工作效率。
可选地,所述基于所述多尺度特征图和所述车道线特征点坐标集合设置车道线特征增强模型包括:将所述多尺度特征图和所述车道线特征点集合进行分析,以获得多尺度特征图的不同通道信息和不同空间位置信息。本发明对多尺度特征图和车道线特征点集合进行分析,可以提取出更多车道线的特征信息,在后续车道线检测和预测过程中发挥重要作用,提高车道线检测算法的准确性和鲁棒性。
可选地,所述不同通道信息和所述不同空间信息,满足如下关系:
其中,Fcam表示经过通道注意力增强不同通道的信息后的特征图,sig表示激活函数sigmoid,Fsam表示经过空间位置注意力增强不同空间位置的信息后的特征图。本发明利用相关数学模型融合不同尺度的特征信息,可以提取不同特征图的显著信息,并且保留特征的全局信息,有助于提取更全面、更具代表性的特征,有利于满足车道线检测的实时性要求。
可选地,所述基于所述多尺度特征图和所述车道线特征点坐标集合设置车道线特征增强模型包括:所述车道线特征增强模型,满足如下关系:
其中,Xl 表示经过增强后的车道线特征点的特征,Xl表示车道线特征点附近的特征,fsoftmax表示归一化函数softmax,C表示特征图通道的数量,Xf表示展开的全局特征图,T表示特征图的转置。本发明基于多尺度特征图和车道线特征点坐标集合设置车道线特征增强模型,可以具备更好的特征表示能力、更全面的车道线特征信息、更高的计算效率和更广泛的模型应用范围。
可选地,所述利用所述车道线特征增强模型优化车道线特征,以获得最优车道线特征包括:利用所述车道线特征增强模型对车道线特征进行逐步迭代优化,以获得最优车道线特征,所述最优车道线特征包括相同通道数量以及不同分辨率。本发明利用车道线特征增强模型对多尺度特征图进行迭代优化,可以获得相同通道数量和不同分辨率的最优车道线特征,提高特征的辨识能力、鲁棒性、降低计算复杂度并扩展应用范围。
可选地,所述依据所述最优车道线特征获得预测车道线还包括;建立车道线预测结果检测模型;所述车道线预测结果检测模型根据所述预测车道线分析车道线预测结果的损失程度;所述车道线预测结果检测模型,满足如下关系:
FLsoftmax=-αc(1-pc)γlog(pc)
其中,FLsoftmax表示车道线的分类损失,α表示不同类别的权重因子,pc表示预测的置信度,γ表示可调节因子。本发明利用不同的权重因子对不同类别的车道线结果进行处理,有助于平衡不同类别之间的预测误差,提高模型的准确性和鲁棒性。
第二方面,本发明还提供了一种基于分割点和双特征增强的车道线检测系统,能够高效地执行本发明所提供的一种基于分割点和双特征增强的车道线检测方法,所述系统包括输入设备、处理器、输出设备和存储器,其中,所述输入设备、处理器、输出设备和存储器相互连接,所述存储器包括如本发明第一方面所述的计算机可读存储介质,所述存储器用于存储计算机程序,所述计算机程序包括程序指令,所述处理器被配置用于调用所述程序指令。本发明提供的系统结构紧凑,适用性强,极大程度地提高了运行效率。
附图说明
图1为本发明的基于分割点和双特征增强的车道线检测方法流程图;
图2为本发明的基于分割点的车道线特征点坐标集合示意图;
图3为本发明的基于分割点和双特征增强之后的车道线特征示意图;
图4为本发明的基于分割点和双特征增强的车道线检测系统的结构示意图。
具体实施方式
下面将详细描述本发明的具体实施例,应当注意,这里描述的实施例只用于举例说明,并不用于限制本发明。在以下描述中,为了提供对本发明的透彻理解,阐述了大量特定细节。然而,对于本领域普通技术人员显而易见的是:不必采用这些特定细节来实行本发明。在其他实例中,为了避免混淆本发明,未具体描述公知的电路,软件或方法。
在整个说明书中,对“一个实施例”、“实施例”、“一个示例”或“示例”的提及意味着:结合该实施例或示例描述的特定特征、结构或特性被包含在本发明至少一个实施例中。因此,在整个说明书的各个地方出现的短语“在一个实施例中”、“在实施例中”、“一个示例”或“示例”不一定都指同一实施例或示例。此外,可以以任何适当的组合和、或子组合将特定的特征、结构或特性组合在一个或多个实施例或示例中。此外,本领域普通技术人员应当理解,在此提供的示图都是为了说明的目的,并且示图不一定是按比例绘制的。
请参见图1,为了提升车道线检测方法的准确性和鲁棒性,并确保实时性需求得到满足,通过整合不同尺度的特征信息,实现多尺度特征的相互融合,并利用模型同时处理不同分辨率的车道线,提高增强模型的适应性和鲁棒性,使得车道线检测方法在面对复杂道路环境时,仍能保持相对稳定的实用性能。本发明提供了一种基于分割点和双特征增强的车道线检测方法,所述基于分割点和双特征增强的车道线检测方法包括如下步骤:
S1.根据特定网络提取图片特征,并获得多尺度特征图,其具体实施步骤以及相关内容如下:
首先,在本实施例中上述特定网络包括但不限于骨干网络,接着利用骨干网络提取网络图片的图片特征,得到不同分辨率的多尺度特征图。将网络数据集中的前视车道线图像作为输入,经过裁剪处理后,将其送入骨干网络中进行特征提取。在本实施例中选择DLA34网络作为骨干网络,因为其具有强大的特征提取能力,可以从输入图像中提取出较为完整的特征信息,上述特征包括但不限于颜色、光线、形状、大小等,有助于模型更好地理解和区分车道线。通过骨干网络的运算,可以得到不同分辨率和不同通道数的多尺度特征图。上述特征图包含了图像的相关信息,为后续的车道线检测提供了重要的特征支持。
然后,将上述不同分辨率的多尺度特征图聚集,以获得聚集空间特征。将不同分辨率的多尺度特征图输入到特征聚合器中,在本实施例中特征聚合器采用了transformer编码器变体,此编码器可以通过自注意力机制对特征图进行逐行和逐列的计算,从而聚集空间特征并实现特征增强。
更进一步地,在本实施例中没有改变多尺度特征图的分辨率和通道大小,因此保持了多尺度特征图的完整性,通过自注意力计算,特征聚合器能够将不同特征图中的有用信息进行融合,提高特征的表示能力和鲁棒性。此外,特征聚合器具有较好的并行性和扩展性,能够处理大规模的特征图数据,有助于提高车道线检测方法的工作效率和准确性。
最后,利用特征金字塔网络进一步融合多尺度特征图,统一特征图通道。为了进一步提高多尺度特征图的表示能力和鲁棒性,进一步采用了特征金字塔网络。特征金字塔网络是一种多尺度特征的融合方法,通过采样和卷积操作将不同尺度特征图中的特定语义信息进行融合,在融合过程中能够逐步将低分辨率特征图中的信息融入到高分辨率特征图中,从而得到更丰富、更全面的特征信息。
此外,特征金字塔网络能够统一所有尺度特征图的通道维度,有助于简化后续处理和分析流程,提高计算效率,并确保不同尺度特征图之间的信息能够更好地传递和融合。通过特征金字塔网络的进一步处理,得到了车道线特征的多尺度特征图。上述特征图不仅具有更丰富的语义信息,还能够适应不同尺度的车道线检测任务,提高模型的鲁棒性和准确性。
在本实施例中,将特征图送入特征聚合器进行注意力计算,能够聚集空间特征同时实现特征增强,为后续的车道线检测提供更强大的特征支持,另外一方面通过特征金字塔网络的进一步融合和统一通道处理,可以得到更完整的多尺度特征图,为之后的车道线检测方法提供更准确、更稳定的数据支撑。
更进一步地,在本实施例中所采取的多尺度特征图采集、优化以及聚集方法仅仅为本发明的一个可选条件,在其他一个或者一些实施例中可以根据现实需求和数据情况,特征图的处理方法进行灵活选择,进而增强多尺度特征图的表示能力和鲁棒性,为后续的车道线检测方法提供数据支撑。
S2.依据多尺度特征图得到车道线特征点坐标集合,其具体实施步骤以及相关内容如下:
首先预设出车道线特征点的分割点,然后根据上述车道线特征点分割点得到车道线特征点坐标集合,其具体实施内容如下;
在本实施例中,利用分割器对车道线特征点进行分割,抽取车道线上的点作为车道线的特征点。在一个可选的实施例中,上述分割器采用高分辨率特征图来预测车道线的分割掩码,将车道线像素标记为前景,其他像素标记为背景。在预设特征点分割点的过程中,通过设定阈值来确定像素点,判断其是否属于车道线的一部分。更进一步地,针对任意一条车道线,在y轴方向上等间距地选取72个特征点,并获取不同点所对应的x坐标。最终,上述点的集合可以用于表示车道线的形状和位置信息。
在一个可选地实施例中,使用了一种图像采样算法,将特征图放大到输入图像的大小,并且上述特征图包含了多个通道,其大小为H×W,每个通道对应一个类别,此外还包含了关于图像的各种信息,包括但不限于车道线的位置、宽度等。然后根据上述特征图预测一个更大的分割图,此分割图的大小为n+1维,其中n表示图像中车道线的数量,且每一个维度分别对应一个类别,即每一个车道线或者背景像素都被分配到一个特定的维度中,在每个维度中存储了属于该类别的所有像素,并且预测得到的分割图满足如下关系:
S=softmax(Upsample(f))
其中,S表示预测得到的分割图,f表示多尺度特征图中分辨率最大的特征图。为了可以精确描述车道线的形状,简化计算和数据处理流程,提高算法效率和准确性,本实施例在预设特征点分割点的过程中,通过设定阈值,将像素点分割为两个或多个类别,从而确定特征点的位置。基于此,在任意一条车道线y轴方向上等间距地选取72个特征点,定义为车道线特征点的y坐标,并且y坐标满足如下关系:
其中,yi表示任意一条车道线第i个特征点的y坐标,H表示特征图的宽度,N表示任意一条车道线的特征点数量,且所述特征点N=72,i表示任意一条车道线的第i个特征点。
根据预先设定的阈值获得任意一条车道线的特征点位置,可以减少像素点的处理数量,简化计算过程,可以显著提高计算效率。另外一方面,上述阈值的选择应该基于一定的理论知识或实际经验,有助于过滤掉噪声或非关键性的像素点,保证任意一条车道线特征点位置的准确性。
请参见图2,其中AE表示车道线的特征图片,TA表示特征聚合器,D表示特征点分割头,DP表示特征分割点,EF表示车道线特征点的坐标集合。
图片中任意一条车道线,基于车道线不同特征点所对应的y坐标,逐行选取置信度大于阈值的点,作为图片中任意一条车道线的特征点,并且以点集合的形式描述图片中任意一条车道线,上述图片中任意一条车道线的特征点坐标,满足如下关系:
Ln={(xn1,y1),(xn2,y2),(xn3,y3),…,(xni,yi)}
其中,Ln表示图片中任意一条车道线特征点坐标的集合,n表示图片中包含的车道线数量,xn1表示任意一条车道线第一个特征点的x坐标,y1表示任意一条车道线第一个特征点的y坐标,xn2表示任意一条车道线第二个特征点的x坐标,y2表示任意一条车道线第二个特征点的y坐标,xn3表示任意一条车道线第三个特征点的x坐标,y3表示任意一条车道线第三个特征点的y坐标,xni表示任意一条车道线第i个特征点的x坐标,yi表示任意一条车道线第i个特征点的y坐标。
在本实施例中,对图片中任意一条车道线的特征点坐标进行分析,进而可以获取图片中不同车道线的相关信息。另外一方面,在实际应用中,车道线可能受到光照变化、路面磨损以及环境温度等因素的影响,多尺度特征图能够更好地应对相关变化,处理不同尺度的变化情况,提高车道线检测方法的鲁棒性。
更进一步地,在本实施例中对图片中任意一条车道线特征点坐标的分析方法,仅仅只是本发明的一个可选条件,在其他一个或者一些实施例中可以根据环境情况和实际要求进行更换和调整,进而通过任意一条车道线的特征点坐标,更准确地确定车道线的位置和形状,提高车道线检测方法的稳定性。
S3.基于多尺度特征图以及图片中任意一条车道线的特征点坐标集合设置车道线特征增强模型,其具体实施步骤以及相关内容如下:
在本实施例中,首先对多尺度特征图以及图片中任意一条车道线的特征点坐标集合进行分析,以获得多尺度特征图的不同通道信息和不同空间位置信息,其具体实施内容如下:
为了更全面地捕捉车道线的特征信息,提高特征提取结果的准确性,在本实施例中,分别从通道维度和空间位置维度对任意一条车道线的特征点坐标进行采样和提取。
在一个可选的实施例中,首先分别从通道维度和空间位置维度采集任意一条车道线特征点坐标处的相关特征,并连接通道维度和空间维度上的特征,以增强特征点的表示能力,并使相关特征更有效地融合。其中通道维度会关注不同通道之间的特征关系,通过注意力机制对通道间的特征进行加权融合,突出重要的通道信息;空间维度会关注不同空间位置的特征关系,通过注意力机制对不同位置的特征进行加权融合,突出重要的空间位置信息。
其次,通过交叉注意力操作对不同尺度下的特征图进行融合和细化,结合通道维度和空间位置维度,通过注意力机制对特征进行加权融合,进一步提取车道线的特征,上述操作可以捕捉不同尺度下的车道线特征,提高车道线特征的鲁棒性和准确性。
然后,基于特征金字塔网络中输出的多尺度特征图,按照分辨率由小到大的过程,重复上述操作进行由粗粒度到细粒度的迭代。基于逐步提取不同尺度的车道线特征,并利用注意力机制进行融合,得到更精确的车道线特征,进而为后续分析提供更完整的特征信息。在本实施例中不断迭代和细化特征提取过程,可以得到更精确的车道线特征,提高车道线检测方法的稳定性和准确性。
基于图片中任意一条车道线的特征点坐标,利用通道维度和空间位置维度采集车道线的相关特征,并且融合特征图不同通道和不同空间的相关信息,上述不同通道信息和所述不同空间信息,满足如下关系:
其中,Fcam表示经过通道注意力增强不同通道的信息后的特征图,sig表示激活函数sigmoid,Fsam表示经过空间位置注意力增强不同空间位置的信息后的特征图。
将特征图不同通道和不同空间的相关信息连接起来,其次利用双线性插值方法从特征图上提取车道线特征点附近的特征,然后将提取的车道线特征与全局特征图做交叉注意力,进而获得增强后的车道线特征点的特征,由此设置车道线特征增强模型,且车道线特征增强模型满足如下关系:
其中,Xl 表示经过增强后的车道线特征点的特征,Xl表示车道线特征点附近的特征,fsoftmax表示归一化函数softmax,C表示特征图通道的数量,Xf表示展开的全局特征图,T表示特征图的转置。
车道线特征点附近的特征指的是在车道线上的特定点附近提取的与车道线相关的特征。上述特征包括但不限于像素的颜色、亮度、光线以及与车道线形状、方向、连续性等相关的特征,基于此可以更好地描述和识别车道线。
归一化指数函数也可以称为Softmax函数,是有限项离散概率分布的梯度对数归一化。其中归一化指数函数包括但不限于多项逻辑回归、多项线性判别等分析,可以将多通道特征图转换为概率分布,使得每个通道的特征都可以被赋予一个概率值,从而更全面地描述车道线特征,还可以将不同通道的特征连接起来进行处理,增强车道线特征的表示能力和准确度。
特征图通道的数量指的是每个特征图所包含的通道数。在图像空间中可能会使用多种的通道来表示颜色或其他属性,不同通道用于表示不同特征。
展开的全局特征图是指将输出特征图展平,以获得一维向量形式的特征表示,全局特征图通常能够提供更丰富的上下文信息,其包含了整个图像或特征图的特征表示,基于此可以降低维度,简化结构。
特征图转置指的是将特征图按照一定的规则进行旋转或翻转,以获得新的特征表示,特征图的转置可以用于多种目的,进而实现不同方向的目标识别,不同区域或对象的分割,还可以用于简化模型结构、降低计算复杂程度。
更进一步地,在本实施例中设置车道线特征增强模型的方法,仅仅只是本发明的一个可选条件,在其他一个或者一些实施例中可以根据环境情况和预测需求对模型构建方法以及参数进行优化和更换,以便更好地描述特征属性、识别车道线,分析车道线形态等,提高车道线检测方法在复杂道路环境下的适用性和准确性。
S4.利用上述车道线特征增强模型优化车道线特征,以获得最优车道线特征,其具体实施步骤以及相关内容如下:
在本实施例中,通过设置车道线特征增强模型对车道线特征进行增强和迭代优化,可以更好地描述和识别车道线,提高分类和回归任务的准确性、稳定性和鲁棒性,另外一方面车道线特征增强模型可以适用于多种场景,包括但不限于自动驾驶、交通流检测等,为相关领域提供更准确、更稳定的技术支持。
在另外一个可选的实施例中,在多个不同分辨率但通道数相同的特征图中,通过重复执行特征增强的相关操作,上述操作包括但不限于,融合特征图不同通道和不同空间的相关信息、提取特征图上车道线特征点附近的特征以及利用全局特征图的信息对车道线特征进行增强,以获得最优车道线特征。
更进一步地最优车道线特征应该包括相同通道数量和不同分辨率的特性,其中相同通道数量,则说明特征图有相同的维度和结构,不同尺度的特征图有不同的通道数量,而相同通道数量的特征图可以更好地进行特征融合和比较,有助于保持特征的一致性和可比性。此外不同分辨率指的是在不同尺度的特征图中,车道线的表示和识别能力是不同的,在不同分辨率的特征图上提取车道线特征,可以获得更全面、更精细的车道线特征表示信息,进而更好地应对不同分辨率下的车道线识别和预测任务。
重复执行特征增强的相关操作,有利于实现一个迭代的车道线特征细化过程,上述过程可以逐步提取更精细的车道线特征,以提高特征的识别精度和鲁棒性。在不同尺度的特征图上重复执行上述步骤,可以逐步细化车道线的特征信息,从而更好地适应不同分辨率下的车道线识别任务,提高基于分割点和双特征增强的车道线检测方法的稳定性和可靠性。
另外一方面,通过不断细化特征并迭代优化,可以更深入地理解车道线的特征属性,从而为后续的分类和车道线分析提供更精确、更稳定的基础,并且可以更好地应对各种复杂的道路环境和光照条件,有效地理解和分析车道线的形态、走向、宽度等特征,提高车道线检测方法的鲁棒性和适应性。
请参见图3,其中RD表示任意一条车道线特征点坐标处的相关特征,MD表示融合之后的多尺度特征图,C表示通道维度,S表示空间维度,A表示对多尺度特征图进行调整,SE表示对多尺度特征图进行分割,SQ表示对对尺度特征图进行压缩,ED表示增强之后的车道线特征点特征。基于图3可知车道线特征点特征方法的具体实施流程,快速了解从数据输入到最终输出的完整过程,可以更清晰地了解车道线特征点特征的具体处理方法和步骤,从而更好地理解和应用车道线检测方法。
更进一步地,本实施例中利用不断迭代和优化特征提取方法对车道线特征点进行增强,本实施例的车道线特征增强方法可以广泛应用于其他相关领域,在其他一个或者一些实施例中可以采用类似的优化方法,进而更好地应对复杂道路环境和光照条件,提高车道线检测方法的实用性能。
S5.依据最优车道线特征获得预测车道线,其具体实施步骤以及相关内容如下:
依据最优车道线特征便可以获得预测车道线,在本实施例中为了确保车道线预测结果的准确性和可靠性,建立一个车道线预测结果检测模型对预测车道线进行评估和验证,通过检测模型可以及时发现预测过程中的错误或者偏差,对其进行相应的调整和优化,提高车道线预测结果的准确性。另外一方面,在复杂的道路环境和光照条件下,车道线的识别和预测可能会受到多种因素的影响,通过检测模型可以对外界影响因素进行综合考虑,提高预测方法的精确度。
在本实施例中车道线预测结果检测模型,满足如下关系:
FLsoftmax=-αc(1-pc)γlog(pc)
其中,FLsoftmax表示车道线的分类损失,α表示不同类别的权重因子,pc表示预测的置信度,γ表示可调节因子。
车道线分类损失是指在车道线分类过程中,模型预测的车道线与实际的车道线之间的差异,即模型预测的概率分布与实际的车道线类别的概率分布之间的差异,通过分类损失的最小化,可以使得模型的预测结果更加准确,从而提高车道线检测方法的性能。
不同类别的权重因子是指对于不同的类别赋予不同的权重,不同类别的权重因子可以调整模型影响着不同类别车道线的分析程度,从而提高模型的适用效果和分析精度。
预测的置信度是指模型对于某个预测结果的信任程度或可靠程度,其中检测模型的预测结果可以是一个概率值或置信度分数,表示检测模型对于某个预测结果的信任程度,置信度越高,表示检测模型对于预测结果的信任程度越高,预测结果越可靠;相反,置信度越低,表示检测模型对于预测结果的信任程度越低,预测结果的可信度就越低。在一个可选地实施例中,置信度可以用来评估车道线预测结果的可靠程度,如果模型的置信度较高,则可以更加信任车道线的预测结果;如果模型的置信度较低,则需要进一步验证车道线的预测结果,或者采取其他措施来提高模型的预测精度。
可调节因子指的是用于调整车道线预测结果检测模型性能和预测精度的参数或权重,上述可调节因子可以根据实际需求和模型性能进行灵活调整,以优化模型的预测结果。
在一个可选的实施例中,车道线预测结果检测模型根据预测车道线分析车道线预测结果的损失程度,其具体实施内容如下:
针对每一层细化后的车道线特征进行预测,获得每个点存在的概率及其在x轴方向上的偏移量,将当前层特征点的坐标与预测的偏移量相加,得到下一层的特征点坐标,经过多层的迭代细化,最后一层输出的坐标点即为预测的车道线点,更进一步地为了得到一条连续的车道线,可以使用曲线拟合方法对最后一层输出的坐标点进行拟合形成一条连续的车道线。
此外,还将计算出每一层的分类损失和偏移量与实际标签之间的损失程度,可以进一步平衡正负样本之间的差异,在本实施例中通过车道线预测结果检测模型对其进行损失检验,可以减少样本过拟合等情况的发生,从而提高车道线检测方法的实用性能。
逐步细化特征提高车道线检测方法精度的同时,利用车道线预测结果检测模型平衡损失程度,从而提升车道线检测方法的实用性,拓宽本发明的实际运用范围。
在另外一个可选的实施例中,采用线段交并比的方法对车道线分类损失结果进行分析,首先将预测的车道线和真实的车道线点左右扩充20个像素。然后,计算扩充后所形成的线段之间的交并比作为回归损失的度量。通过扩充像素并计算交并比,模型能够更好地考虑车道线的宽度和形状,从而更加准确地预测车道线的位置,因此预测的车道线与真实的车道线更加接近,从而提高车道线检测结果的准确性。
上述线段交并比方法满足如下关系:
其中,表示线段交并比损失,N表示任意一条车道线上车道线点的数量,/>表示线段之间相交部分的长度,/>表示线段之间并集的长度。
更进一步地,具体的扩充像素数量和计算交并比的方法会因不同的应用场景和数据集而有所不同,本发明所采取的扩充像素数量和计算交并比仅仅只是本发明的一个可选条件,在其他一个或者一些实施例中可以根据实际应用场景以及具体情况进行参数调整和优化,以获得最佳的性能和预测精度。
在另外一个可选的实施例中,根据每一层预测出的车道线点坐标及其置信度,结合车道线预测结果检测模型计算对应的损失程度,上述损失程度直接反映了模型预测结果与真实车道线之间的差异程度。然后,通过反向传播算法将损失逐层传递回网络,更新车道线特征增强模型的权重和参数,基于最小化损失优化模型的性能,此外可以通过反向传播算法对模型进行训练,在此过程中最后一层特征图的预测坐标被视为最终网络的车道线预测结果,因为最后一层特征图包含了输入图像的完整特征信息和上下文信息,能够更准确地预测车道线的位置。
更进一步地,在本实施例中对于预测结果的检验方法,仅仅只是本发明的一个可选条件,在其他一个或者一些实施例中可以根据实际情况和现实需求进行调整,考虑车道线预测结果的其他影响因素的干扰,从而可以更加准确地预测车道线的位置。
在另外一个可选的实施例中,为了更加直观地呈现相关模型在车道线检测中的性能,体现本发明的有效性,所以将模型预测的车道线结果以可视化的形式呈现出来。基于可视化结果能够直观地展示模型在不同场景和光照条件下的车道线检测能力,以及对于复杂道路环境的适应性,通过相应的可视化结果对比真实车道线与模型预测结果的差异,可以更准确地评估模型的准确性和鲁棒性。
在本实施例中,基于注重车道线表示的简洁性和高效性,提出了一种基于分割点采集车道线特征点的方法,可以减少特征点的数量,降低模型的计算复杂度,提高模型的预测速度,对于实时性要求较高的应用场景尤为重要。
对不同驾驶环境下车道线识别的问题,本发明提出了一种特征增强方法,能够综合考虑外界环境因素和驾驶情况对车道线识别结果的影响,结合不同层次的语义信息和不同维度下的全局特征,对车道线特征进行补充和增强,即本发明从通道维度和空间位置两个方面提取车道线特征,并结合交叉注意力操作,进一步增强了车道线特征的表达能力,能够更好地捕捉到车道线的细节信息,提高车道线识别的准确性和鲁棒性。
同时,本发明还对不同尺度特征图的特征点坐标进行逐步细化,最终得到更加准确的车道线预测结果,进一步提高预测结果的准确性,迭代细化可以更好地处理车道线的细节信息,减少预测误差,提高车道线检测方法的实用性。
请参见图4,在一个可选的实施例中,为能够高效地执行本发明所提供的基于分割点和双特征增强的车道线检测方法,本发明还提供了一种基于分割点和双特征增强的车道线检测系统,所述一种基于分割点和双特征增强的车道线检测系统包括处理器、输入设备、输出设备和存储器,所述处理器、输入设备、输出设备和存储器相互连接,其中,所述存储器用于存储计算机程序,所述计算机程序包括程序指令,所述处理器被配置用于调用所述程序指令,执行如本发明所提供的基于分割点和双特征增强的车道线检测方法及相关实施例的具体步骤。本发明的一种基于分割点和双特征增强的车道线检测系统,结构完整、客观稳定,本发明通过逐步细化不同尺度特征图的特征点坐标,实现了对车道线预测结果的更精确处理,从而提高车道线检测方法的准确性和实用性。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围,其均应涵盖在本发明的权利要求和说明书的范围当中。

Claims (10)

1.一种基于分割点和双特征增强的车道线检测方法,其特征在于,包括如下步骤:
根据特定网络提取图片特征,并获得多尺度特征图;
依据所述多尺度特征图得到车道线特征点坐标集合;
基于所述多尺度特征图和所述车道线特征点坐标集合设置车道线特征增强模型;
利用所述车道线特征增强模型优化车道线特征,以获得最优车道线特征;
依据所述最优车道线特征获得预测车道线。
2.根据权利要求1所述的基于分割点和双特征增强的车道线检测方法,其特征在于,所述根据特定网络提取图片特征,并获得多尺度特征图包括:
依据网络图片提取图片特征,得到不同分辨率的多尺度特征图;
对所述不同分辨率的多尺度特征图进行聚集,以获得聚集空间特征;
基于所述聚集空间特征以获得多尺度特征图。
3.根据权利要求2所述的基于分割点和双特征增强的车道线检测方法,其特征在于,所述依据所述多尺度特征图得到车道线特征点坐标集合包括:
预设车道线特征点分割点;
根据所述车道线特征点分割点得到车道线特征点坐标集合。
4.根据权利要求3所述的基于分割点和双特征增强的车道线检测方法,其特征在于,所述车道线特征点坐标,满足如下关系:
Ln={(xn1,y1),(xn2,y2),(xn3,y3),…,(xni,yi)}
其中,Ln表示图片中任意一条车道线特征点坐标的集合,n表示图片中包含的车道线数量,xn1表示任意一条车道线第一个特征点的x坐标,y1表示任意一条车道线第一个特征点的y坐标,xn2表示任意一条车道线第二个特征点的x坐标,y2表示任意一条车道线第二个特征点的y坐标,xn3表示任意一条车道线第三个特征点的x坐标,y3表示任意一条车道线第三个特征点的y坐标,xni表示任意一条车道线第i个特征点的x坐标,yi表示任意一条车道线第i个特征点的y坐标。
5.根据权利要求1所述的基于分割点和双特征增强的车道线检测方法,其特征在于,所述基于所述多尺度特征图和所述车道线特征点坐标集合设置车道线特征增强模型包括:
将所述多尺度特征图和所述车道线特征点集合进行分析,以获得多尺度特征图的不同通道信息和不同空间位置信息。
6.根据权利要求5所述的基于分割点和双特征增强的车道线检测方法,其特征在于,所述不同通道信息和所述不同空间信息,满足如下关系:
其中,Fcam表示经过通道注意力增强不同通道的信息后的特征图,sig表示激活函数sigmoid,Fsam表示经过空间位置注意力增强不同空间位置的信息后的特征图。
7.根据权利要求6所述的基于分割点和双特征增强的车道线检测方法,其特征在于,所述基于所述多尺度特征图和所述车道线特征点坐标集合设置车道线特征增强模型包括:
所述车道线特征增强模型,满足如下关系:
其中,Xl 表示经过增强后的车道线特征点的特征,Xl表示车道线特征点附近的特征,fsoftmax表示归一化函数softmax,C表示特征图通道的数量,Xf表示展开的全局特征图,T表示特征图的转置。
8.根据权利要求1所述的基于分割点和双特征增强的车道线检测方法,其特征在于,所述利用所述车道线特征增强模型优化车道线特征,以获得最优车道线特征包括:
利用所述车道线特征增强模型对车道线特征进行逐步迭代优化,以获得最优车道线特征,所述最优车道线特征包括相同通道数量以及不同分辨率。
9.根据权利要求8所述的基于分割点和双特征增强的车道线检测方法,其特征在于,所述依据所述最优车道线特征获得预测车道线还包括;
建立车道线预测结果检测模型;
所述车道线预测结果检测模型根据所述预测车道线分析车道线预测结果的损失程度;
所述车道线预测结果检测模型,满足如下关系:
FLsoftmax=-αc(1-pc)γlog(pc)
其中,FLsoftmax表示车道线的分类损失,α表示不同类别的权重因子,pc表示预测的置信度,γ表示可调节因子。
10.一种基于分割点和双特征增强的车道线检测系统,其特征在于,系统包括处理器、输入设备、输出设备和存储器,所述处理器、输入设备、输出设备和存储器相互连接,其中,所述存储器用于存储计算机程序,所述计算机程序包括程序指令,所述处理器被配置用于调用所述程序指令,执行如权利要求1-9任一项所述的基于分割点和双特征增强的车道线检测方法。
CN202311799873.9A 2023-12-26 2023-12-26 一种基于分割点和双特征增强的车道线检测方法及系统 Active CN117576649B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311799873.9A CN117576649B (zh) 2023-12-26 2023-12-26 一种基于分割点和双特征增强的车道线检测方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311799873.9A CN117576649B (zh) 2023-12-26 2023-12-26 一种基于分割点和双特征增强的车道线检测方法及系统

Publications (2)

Publication Number Publication Date
CN117576649A true CN117576649A (zh) 2024-02-20
CN117576649B CN117576649B (zh) 2024-04-30

Family

ID=89890162

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311799873.9A Active CN117576649B (zh) 2023-12-26 2023-12-26 一种基于分割点和双特征增强的车道线检测方法及系统

Country Status (1)

Country Link
CN (1) CN117576649B (zh)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111242037A (zh) * 2020-01-15 2020-06-05 华南理工大学 基于结构信息的车道线检测方法
CN113627228A (zh) * 2021-05-28 2021-11-09 华南理工大学 一种基于关键点回归与多尺度特征融合的车道线检测方法
CN113780132A (zh) * 2021-08-31 2021-12-10 武汉理工大学 一种基于卷积神经网络的车道线检测方法
CN115205730A (zh) * 2022-06-10 2022-10-18 西安工业大学 一种结合特征增强与模板更新的目标跟踪方法
CN115393810A (zh) * 2022-07-19 2022-11-25 华东师范大学 一种基于贝塞尔曲线和车道对称性的车道线检测方法
WO2023273375A1 (zh) * 2021-06-28 2023-01-05 浙江工商大学 结合图像增强和深度卷积神经网络的道线检测方法
CN116092034A (zh) * 2023-01-13 2023-05-09 浙江理工大学 一种基于改进的DeeplabV3+模型的车道线检测方法
CN116129390A (zh) * 2023-04-04 2023-05-16 石家庄铁道大学 一种增强曲线感知的车道线精准检测方法
CN116229406A (zh) * 2023-05-09 2023-06-06 华东交通大学 车道线检测方法、系统、电子设备及存储介质
CN116721396A (zh) * 2023-06-20 2023-09-08 天津所托瑞安汽车科技有限公司 车道线检测方法、设备及存储介质
CN117173217A (zh) * 2023-09-19 2023-12-05 重庆交通大学 一种基于多尺度通道特征聚合的视频多目标跟踪方法
US20230400301A1 (en) * 2022-06-10 2023-12-14 Tianjin University Tropical instability wave early warning method and device based on temporal-spatial cross-scale attention fusion

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111242037A (zh) * 2020-01-15 2020-06-05 华南理工大学 基于结构信息的车道线检测方法
CN113627228A (zh) * 2021-05-28 2021-11-09 华南理工大学 一种基于关键点回归与多尺度特征融合的车道线检测方法
WO2023273375A1 (zh) * 2021-06-28 2023-01-05 浙江工商大学 结合图像增强和深度卷积神经网络的道线检测方法
CN113780132A (zh) * 2021-08-31 2021-12-10 武汉理工大学 一种基于卷积神经网络的车道线检测方法
CN115205730A (zh) * 2022-06-10 2022-10-18 西安工业大学 一种结合特征增强与模板更新的目标跟踪方法
US20230400301A1 (en) * 2022-06-10 2023-12-14 Tianjin University Tropical instability wave early warning method and device based on temporal-spatial cross-scale attention fusion
CN115393810A (zh) * 2022-07-19 2022-11-25 华东师范大学 一种基于贝塞尔曲线和车道对称性的车道线检测方法
CN116092034A (zh) * 2023-01-13 2023-05-09 浙江理工大学 一种基于改进的DeeplabV3+模型的车道线检测方法
CN116129390A (zh) * 2023-04-04 2023-05-16 石家庄铁道大学 一种增强曲线感知的车道线精准检测方法
CN116229406A (zh) * 2023-05-09 2023-06-06 华东交通大学 车道线检测方法、系统、电子设备及存储介质
CN116721396A (zh) * 2023-06-20 2023-09-08 天津所托瑞安汽车科技有限公司 车道线检测方法、设备及存储介质
CN117173217A (zh) * 2023-09-19 2023-12-05 重庆交通大学 一种基于多尺度通道特征聚合的视频多目标跟踪方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
YUE SONGA等: "Lane detection based on IBN deep neural network and attention", 《CONNECTION SCIENCE》, vol. 34, no. 1, 17 November 2022 (2022-11-17), pages 2671 - 2688 *
何飞 等: "基于ResNet-ViT和注意力机制的车道线检测方法", 《软件工程与应用》, vol. 12, no. 3, 31 May 2023 (2023-05-31), pages 381 - 392 *
杨东东: "不良视觉条件下车道线检测技术的研究", 《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》, no. 11, 15 November 2022 (2022-11-15), pages 034 - 80 *
殷俊 等: "基于最近正交矩阵的二维鉴别投影及人脸识别应用", 《计算机辅助设计与图形学学报》, vol. 29, no. 8, 15 August 2017 (2017-08-15), pages 1457 - 1464 *
邹广: "基于改进孪生网络的目标跟踪研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》, no. 2, 15 February 2023 (2023-02-15), pages 138 - 1547 *

Also Published As

Publication number Publication date
CN117576649B (zh) 2024-04-30

Similar Documents

Publication Publication Date Title
CN112052787B (zh) 基于人工智能的目标检测方法、装置及电子设备
CN108830285B (zh) 一种基于Faster-RCNN的加强学习的目标检测方法
CN109033950B (zh) 基于多特征融合级联深度模型的车辆违停检测方法
CN110781756A (zh) 基于遥感图像的城市道路提取方法及装置
CN111461083A (zh) 基于深度学习的快速车辆检测方法
CN114842365B (zh) 一种无人机航拍目标检测识别方法和系统
CN111274926B (zh) 图像数据筛选方法、装置、计算机设备和存储介质
CN113609896A (zh) 基于对偶相关注意力的对象级遥感变化检测方法及系统
CN113487610B (zh) 疱疹图像识别方法、装置、计算机设备和存储介质
CN114612835A (zh) 一种基于YOLOv5网络的无人机目标检测模型
CN110738132B (zh) 一种具备判别性感知能力的目标检测质量盲评价方法
Chen et al. ASF-Net: Adaptive screening feature network for building footprint extraction from remote-sensing images
CN111259808A (zh) 一种基于改进ssd算法的交通标识的检测识别方法
CN110377670B (zh) 一种确定道路要素信息的方法、装置、介质及设备
Li et al. A review of deep learning methods for pixel-level crack detection
CN111414951B (zh) 用于图像的细分类方法及装置
CN110909656B (zh) 一种雷达与摄像机融合的行人检测方法和系统
CN117152484A (zh) 改进YOLOv5s的小目标布匹瑕疵检测方法
CN111738319A (zh) 一种基于大规模样本的聚类结果评价方法及装置
CN115424237A (zh) 一种基于深度学习的前向车辆识别与距离检测方法
CN113704276A (zh) 地图更新方法、装置、电子设备及计算机可读存储介质
Yang et al. YOLOv8-Lite: A Lightweight Object Detection Model for Real-time Autonomous Driving Systems
CN117576649B (zh) 一种基于分割点和双特征增强的车道线检测方法及系统
CN116721288A (zh) 一种基于YOLOv5的安全帽检测方法及系统
CN114882490B (zh) 一种基于点引导定位的无受限场景车牌检测分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant