CN116977972A - 一种车道线检测方法及装置 - Google Patents

一种车道线检测方法及装置 Download PDF

Info

Publication number
CN116977972A
CN116977972A CN202210429834.9A CN202210429834A CN116977972A CN 116977972 A CN116977972 A CN 116977972A CN 202210429834 A CN202210429834 A CN 202210429834A CN 116977972 A CN116977972 A CN 116977972A
Authority
CN
China
Prior art keywords
lane
lane line
lines
line
virtual space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210429834.9A
Other languages
English (en)
Inventor
胡琦
王明晖
舒畅
任海兵
申浩
夏华夏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sankuai Online Technology Co Ltd
Original Assignee
Beijing Sankuai Online Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sankuai Online Technology Co Ltd filed Critical Beijing Sankuai Online Technology Co Ltd
Priority to CN202210429834.9A priority Critical patent/CN116977972A/zh
Publication of CN116977972A publication Critical patent/CN116977972A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Architecture (AREA)
  • Traffic Control Systems (AREA)

Abstract

本说明书公开了一种车道线检测方法及装置,将从目标图像中提取出的车道线以及参考线,映射到预设的虚拟空间内,并根据映射到虚拟空间内的参考线,确定映射到虚拟空间内的各车道线之间的车道线拓扑关系,根据车道线拓扑关系,对映射到虚拟空间内的各车道线间融合,将融合后的车道线确定未从目标图像中检测出的车道线。

Description

一种车道线检测方法及装置
技术领域
本说明书涉及无人驾驶技术领域,尤其涉及一种车道线检测方法及装置。
背景技术
在无人驾驶的环境下,需要提前构建出无人设备的地图,其中,地图中需要包含环境信息,例如,无人设备行驶过程中的车道线信息等。以使得无人设备能够合理的做出行驶决策。
发明内容
本说明书提供一种车道线检测方法及装置,以部分的解决现有技术存在的上述问题。
本说明书采用下述技术方案:
本说明书提供了一种车道线检测方法,包括:
将从目标图像中提取出的车道线以及参考线,映射到预设的虚拟空间内,并根据映射到所述虚拟空间内的参考线,确定映射到所述虚拟空间内的各车道线之间的车道线拓扑关系;
根据所述车道线拓扑关系,对映射到所述虚拟空间内的各车道线进行融合,将融合后的车道线确定为从所述目标图像中检测出的车道线。
可选地,根据映射到所述虚拟空间内的参考线,确定映射到所述虚拟空间内的各车道线之间的车道线拓扑关系,具体包括:
根据映射到所述虚拟空间内的参考线及车道线,确定映射到所述虚拟空间内各车道线与参考线之间的位置关系;
根据所述位置关系,确定映射到所述虚拟空间内各车道线之间的车道线拓扑关系。
可选地,根据所述车道线拓扑关系,对映射到所述虚拟空间内的各车道线进行融合,得到融合后的各车道线,具体包括:
将所述虚拟空间中符合所述车道线拓扑关系的多条车道线,作为同组车道线;
针对每一组车道线,将该组车道线融合为一条车道线,得到融合后的车道线。
可选地,根据所述车道线拓扑关系,对映射到所述虚拟空间内的各车道线进行融合,得到融合后的各车道线,具体包括:
确定符合所述车道线拓扑关系的各车道线对应的置信度;
根据所述置信度,对符合所述车道线拓扑关系的各车道线在所述虚拟空间中进行融合,得到融合后的车道线。
可选地,确定符合所述车道线拓扑关系的各车道线对应的置信度,具体包括:
针对符合所述车道线拓扑关系的每个车道线,确定所述采集设备采集包含有该车道线的图像的目标图像时所基于的位姿;
根据所述位姿,确定所述采集设备采集包含有该车道线的图像的目标图像时,与该车道线之间的距离;
根据所述距离,确定该车道线对应的置信度,其中,所述置信度和所述距离呈负相关关系。
可选地,所述虚拟空间包括:三维道路空间;
将从目标图像中提取出的车道线以及参考线,映射到预设的虚拟空间内,具体包括:
根据从所述目标图像中提取出的特征点,在所述目标图像中融合出车道线及参考线;
将在所述目标图像中融合出的车道线以及参考线映射到预设的三维道路空间内。
可选地,将从目标图像中提取出的车道线以及参考线,映射到预设的虚拟空间内,具体包括:
根据确定出的所述目标图像中包含的每个像素点的深度值,以及采集设备采集所述目标图像时所基于的位姿,将从所述目标图像中提取出的车道线以及参考线,映射到预设的虚拟空间内。
可选地,所述方法还包括:
根据所述融合后的各车道线,构建地图。
可选地,所述参考线包括:道路中心线,以及由路沿融合出的路沿线中的至少一种。
本说明书提供了一种车道线检测装置,包括:
映射模块,用于将从目标图像中提取出的车道线以及参考线,映射到预设的虚拟空间内,并根据映射到所述虚拟空间内的参考线,确定映射到所述虚拟空间内的各车道线之间的车道线拓扑关系;
检测模块,用于根据所述车道线拓扑关系,对映射到所述虚拟空间内的各车道线进行融合,将融合后的车道线确定为从所述目标图像中检测出的车道线。
本说明书提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述车道线检测方法。
本说明书提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述车道线检测方法。
本说明书采用的上述至少一个技术方案能够达到以下有益效果:
在本说明书提供的车道线检测方法,将从目标图像中提取出的车道线以及参考线,映射到预设的虚拟空间内,并根据映射到虚拟空间内的参考线,确定映射到虚拟空间内的各车道线之间的车道线拓扑关系,根据车道线拓扑关系,对映射到虚拟空间内的各车道线间融合,将融合后的车道线确定未从目标图像中检测出的车道线。
从上述方法中可以看出,通过上述车道线检测方法,不需要使用激光雷达等价格较高的传感器来采集环境信息,只需要使用摄像头采集的图像数据就可以构建出供无人设备行驶的地图,降低了构建地图的成本。同时,本说明书提供的车道线检测方法,根据各车道线间的拓扑关系进行融合,能够将同一车道线归为一条车道线,从而相比于现有技术来说,可以有效地提高融合出的车道线的准确度,从而有效地保证了构建出的地图的精度。
附图说明
此处所说明的附图用来提供对本说明书的进一步理解,构成本说明书的一部分,本说明书的示意性实施例及其说明用于解释本说明书,并不构成对本说明书的不当限定。在附图中:
图1为本说明书中提供的一种车道线检测方法的流程示意图;
图2为本说明书提供的一种车道线示意图;
图3为本说明书提供的参考线的示意图;
图4A~4B为本说明书提供的车道线间拓扑关系的确定方式的示意图;
图5为本说明书提供的一种车道线检测装置的示意图;
图6为本说明书提供的一种对应于图1的电子设备的示意图。
具体实施方式
为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本说明书保护的范围。
在目前的无人驾驶领域内,构建出无人设备的行驶地图的主要方式为:利用配置有激光雷达等高精度传感器的采集设备采集到高精度的传感数据(如点云数据),进而基于采集到的高精度的传感数据来构建地图。这种方式虽然可以获取到具有较高精度的地图,但是激光雷达等高精度传感器的成本较高。
除此之外,构建出无人设备的地图的方式也可以为:利用配置有摄像头的采集设备采集到图像信息,从多张图像信息中,提取出无人设备使用的地图的相关信息,例如,车道线信息。基于设置于采集设备的摄像头的位置,生成关于设备行驶环境的深度图,并将多张深度图投影到三维空间中,以在三维空间中进行融合,生成无人设备所使用的地图。
虽然通过这种方式能够实现低成本的构建出无人设备所使用的地图,但是,这种方式最终难以将同一车道线聚集成一条车道线,从而导致构建出的地图精度较低。
所以,如何能够在降低构建地图成本的同时,保证构建出的地图的精度,则是一个亟待解决的问题。
而为了解决上述提出的问题,本说明书提供了一种车道线检测的方法,以下结合附图,详细说明本说明书各实施例提供的技术方案。
图1为本说明书中提供的一种车道线检测方法的流程示意图,包括以下步骤:
S101:将从目标图像中提取出的车道线以及参考线,映射到预设的虚拟空间内,并根据映射到所述虚拟空间内的参考线,确定映射到所述虚拟空间内的各车道线之间的车道线拓扑关系。
在本说明书中,具体实施车道线检测方法的执行主体可以是台式电脑、笔记本电脑等终端设备,也可以是服务器等设备,抑或是无人设备,其中,无人设备可以是无人车、无人机、自动驾驶机器人等。而在本说明书中提供的车道线检测方法构建出的地图,可以使得无人设备用于执行配送领域的配送任务,如,使用无人设备进行快递、物流、外卖等配送的业务场景。下面为便于描述,仅以终端设备为执行主体,来详细介绍本说明书提供的车道线检测方法。
目前,在无人驾驶领域,构建无人设备行驶的地图的主要方式为,由搭载高精度传感器的采集设备(如,无人设备,有人控制设备等)采集到需要构建车道线的地图区域的环境信息,根据采集到的环境信息来构建地图。由于高精度传感器成本较高,依赖于高精度传感器的车道线检测方法难以实现构建规模过大的地图。
除此之外,构建用于无人驾驶设备行驶的地图的方式也可以为,利用设置在设备上的摄像头采集到的需要构建车道线的地图区域的图像,提取出其中的特征点,根据采集到的特征点来构建地图。
这种方式虽然能够实现地图的低成本构建,但是这种方式最终难以将对应于实际空间中一条车道线的多条车道线聚类成一条车道线,从而导致构建出的地图精度较低。
为解决上述提到的技术问题,本说明书提供了一种车道线检测方法。首先,终端设备确定需要构建地图中的车道线的至少一个地图区域,作为目标区域。其中,这里的车道线为用于规范车辆行驶轨迹的线条。如图2为本说明书提供的一种车道线示意图。其中,序号1~3为三条车道线,车辆可以在1号车道线与2号车道线之间或2号与3号车道线之间行驶。
上述提到的目标区域可以为需要构建的整个地图,也可以为需要构建的地图的其中一部分。在本说明书中不对目标区域的类型进行具体限定。
需要说明的是,本说明书中涉及到的图像数据,为摄像头、相机等图像采集设备采集到的二维图像数据,而非由激光雷达采集到的三维的点云图像。
终端设备在确定出需要构建车道线的目标区域后,从预先获取到的采集设备采集的在所述目标区域对应的实际地理区域采集的图像数据,作为目标图像。其中,采集设备可以为承载于无人设备、有人控制设备或由人员携带的相机、摄像头等图像采集设备。
在本说明书中,目标图像可以为包含有目标区域的标志性结构的图像数据或图像的清晰度满足预设的清晰度要求的图像数据。例如,若图像数据中包含有目标区域的车道线和/或路沿,则将该图像数据作为目标图像。又例如,若图像数据的清晰度较高,并可以从该图像数据中识别出车道线,则可以将该图像数据作为目标图像。
需要说明的是,采集设备采集各图像数据时,可以记录采集这些图像数据时所基于的位置信息,进而可以将图像数据与采集该图像数据时基于的位置信息对应保存在数据库中。而在构建地图时,则可以基于数据库中记录的各图像数据对应的位置信息,查询出用于构建上述目标区域的地图的图像数据。
终端设备在获取到目标图像后,针对每个目标图像,可以从该目标图像中提取出目标区域内的车道线以及参考线。其中,参考线可以为道路中心线,以及由路沿融合出的路沿线中的至少一种。如图3为本说明书提供的参考线的示意图,其中,2号线与4号线为车道线,1号线与5号线为基于目标图像采集到的路沿信息融合出的路沿线,3号线为道路中心线,用于区分往返双向车辆行驶空间的标志线。
终端设备提取出目标区域内的车道线以及参考线的方式可以为,针对每个目标图像,提取出该目标图像中的特征点,根据提取出的特征点确定出该目标图像中的车道线和/或参考线。具体的,终端设备可以将该目标图像输入到预设的图像识别模型中,图像识别模型通过提取出该目标图像中的特征点,来识别出该目标图像中所包含的车道线或是参考线。当然,终端设备也可以通过其他的方式,来识别出该目标图像中的车道线或是参考线。例如,终端设备提取出目标图像中的各特征点后,可以基于各特征点在目标图像中的位置,对各特征点进行融合,以得到各条线,然后,根据各条线在目标图像中的位置,来识别出该目标图像中的车道线或是参考线。
需要说明的是,图像识别模型可以通过语义分析,确定出各目标图像中的车道线。在确定出各目标图像中包含的车道线后,可以利用预设的跟踪算法(如,卡尔曼滤波算法),完成车道线的跟踪。另外,需要强调的是,这里提到的车道线的跟踪,只是将前后帧图像中可能存在拓扑关系的车道线进行关联,而并不是直接确定出车道线之间的拓扑关系。
其中,对于道路中心线来说,若从目标图像中的一条线中识别出方向相反的两个道路指向标识,则可以确定出这一条线,即为道路中心线,而对于路沿线来说,可以将从目标图像中识别出的路沿,向目标图像中地面所处的平面进行投影,以确定出相应的路沿线。
在终端设备获取到从各目标图像中提取出的目标区域内的车道线以及参考线后,将获取到的车道线以及参考线映射到预设的虚拟空间内。其中,预设的虚拟空间可以为三维道路空间。即,针对每个目标图像,终端设备可以根据从该目标图像中提取出的特征点,在该目标图像中融合出车道线及参考线。之后,终端设备可以将在每个目标图像中融合出的车道线以及参考线映射到预设的三维道路空间内。
在终端设备将各车道线及参考线映射到预设的虚拟空间后,可以根据虚拟空间中的参考线,来确定出映射到虚拟空间内各车道线之间的车道线拓扑关系。其中,车道线间的拓扑关系可以为,若从各目标图像中提取出的各车道线对应于现实空间中同一条车道线,则确定这些车道线间具有拓扑关系。
在实际应用中,在同一车道中,不同的车道线往往会对应同一道路中心线或是将路沿融合出的路沿线,基于此,在本说明书中,终端设备可以根据车道映射到虚拟空间内各车道线与参考线之间的位置关系,确定出车道线间的拓扑关系。
如图4A~4B为本说明书提供的车道线间拓扑关系的确定方式的示意图,其中,图4A与图4B为拍摄同一路段的不同目标图像,在图4A中,2号线、3号线、5号线、6号线为车道线,1号线与7号线为基于目标图像采集到的路沿信息融合出的路沿线,4号线为道路中心线。在图4B中,9号线、10号线、12号线、13号线为车道线,8号线与14号线为基于目标图像采集到的路沿信息融合出的路沿线,11号线为道路中心线。
在确定图4A与图4B采集到的为同一段道路时,可以确定出2号线左侧为路沿线,右侧有一条车道线,即,与道路中心线之间夹着一条车道线。3号车道线右侧为道路中心线,左侧有一条车道线,即,与左侧的路沿线之间夹着一条车道线。5号线左侧为道路中心线,右侧有一条车道线,即,与右侧的路沿线之间夹着一条车道线。6号线右侧为路沿线,左侧有一条车道线,即,与道路中心线之间夹着一条车道线。
同理,9号线左侧为路沿线,右侧有一条车道线,即,与道路中心线之间夹着一条车道线。10号车道线右侧为道路中心线,左侧有一条车道线,即,与左侧的路沿线之间夹着一条车道线。12号线左侧为道路中心线,右侧有一条车道线,即,与右侧的路沿线之间夹着一条车道线。13号线右侧为路沿线,左侧有一条车道线,即,与道路中心线之间夹着一条车道线。
基于上述条件可以得知,2号线与9号线为同一条车道线,3号线与10号线为同一条车道线,5号线与12号线为同一条车道线,6号线与13号线为同一条车道线。因此,2号线与9号线具有拓扑关系,3号线与10号线具有拓扑关系,5号线与12号线具有拓扑关系,6号线与13号线具有拓扑关系。
当然,上述提到的车道线的拓扑关系,除了用于表示同一位置上不同视角下采集的各图像数据(如双目摄像头采集到的图像)中车道线的关系外,还可以用于表示不同位置上采集的图像数据中车道线之间的关系。例如,采集设备沿着一条道路上行进时,分别在t时刻和t+1时刻采集到了两张图像数据,这两张图像数据对应的采集位置不同,但是这两张图像数据中所包含的车道线的图像,实际上都源自于该道路上相同的车道线。所以,在本说明书中,终端设备还可以根据目标图像所基于的采集位置以及采集时刻,将不同目标图像中的包含的车道线进行对应,以确定出不同位置上采集的不同目标图像中包含的车道线之间的拓扑关系。
在具体的映射过程中,终端设备可以先确定出目标图像中包含的每个像素点的深度值(主要是车道线和参考线的像素点的深度值),以及采集设备采集目标图像时所基于的位姿,而后,根据确定出的深度值以及位姿,将目标图像中车道线和参考线的像素点映射到虚拟空间中。其中,确定出各目标图像中像素点的深度值的方式可以为,利用DEEPV2D算法确定各目标图像中像素点的深度值。
需要说明的是,在本说明书中,终端设备除了可以将从目标图像中识别出的车道线或是参考线映射到一个三维的虚拟空间外,还可以将识别出的车道线或是参考线映射到一个二维的虚拟空间中,如,将识别出的车道线或是参考线映射到一个俯视视角的一个二维地图空间中。
S102:根据所述车道线拓扑关系,对映射到所述虚拟空间内的各车道线进行融合,将融合后的车道线确定为从所述目标图像中检测出的车道线。
终端设备在获取到各车道线间的拓扑关系后,将在虚拟空间中符合车道线拓扑关系的多条车道线,作为同组车道线。针对每组车道线,终端设备可以根据预设的车道线的融合方式,从该组车道线中确定出最终融合出的车道线。
其中,车道线的融合方式可以为,在预设的虚拟空间中,针对每组车道线,终端设备可以根据该组车道线两端的车道线位置,确定出该组车道线的中心位置,将距离该组车道线中心位置最近的车道线作为最终融合出的车道线。
终端设备也可以根据不同车道线对应的置信度,来对车道线进行融合。具体的,终端设备可以针对符合车道线拓扑关系的每个车道线,确定采集设备采集包含有该车道线的图像的图像数据时所基于的位姿。终端设备可以根据采集设备的位姿,确定采集设备采集包含有该车道线的图像的图像数据时,与该车道线之间的距离。终端设备根据采集设备与车道线之间的距离,确定该车道线对应的置信度。其中,置信度和采集设备与车道线之间的距离呈负相关关系。即,在采集目标图像时,采集设备距离车道线的位置越近,则该目标图像中包含的车道线的置信度越高。
终端设备可以选择置信度最高的车道线作为最终融合出的车道线。或者,终端设备可以根据不同车道线对应的置信度,将一组车道线进行融合,以得到最终融合出的车道线,即,终端设备可以与该组车道线垂直的方向作为切割方向,将该组车道线切割成多段,然后针对每段车道线,选择该段置信度最高的车道线,作为该段对应的车道线,最终,以融合出的车道线为直线为约束条件,将各段对应的车道线进行融合,以得到融合出的车道线。
终端设备根据上述车道线的融合方式,可以将多条车道线融合成一条车道线,从而在一定程度上解决了在构建地图时,同一车道线无法聚类为一条车道线,或者最终聚类得到的车道线的曲度与实际差距较大的问题。
终端设备可以基于获取到的在三维道路空间中的融合后的各车道线,构建出目标区域对应的地图。而通过本说明书提供的一种车道线检测方法可以看出,终端设备不需要使用激光雷达等价格较高的传感器来采集环境信息,只需要根据使用摄像头、相机等采集设备采集到的图像数据就可以构建出无人设备的行驶地图,降低了构建地图的成本。同时,根据本说明书提供的车道线的融合方式,可以将同组车道线融合成一条车道线,相比于现有技术来说,可以有效地提高融合出的车道线的准确度,从而保证了最终构建出的地图的精度。
图5为本说明书提供的一种车道线检测装置的示意图,包括:
映射模块501,用于将从目标图像中提取出的车道线以及参考线,映射到预设的虚拟空间内,并根据映射到所述虚拟空间内的参考线,确定映射到所述虚拟空间内的各车道线之间的车道线拓扑关系;
检测模块502,用于根据所述车道线拓扑关系,对映射到所述虚拟空间内的各车道线进行融合,将融合后的车道线确定为从所述目标图像中检测出的车道线。
可选地,所述映射模块501具体用于,根据映射到所述虚拟空间内的参考线及车道线,确定映射到所述虚拟空间内各车道线与参考线之间的位置关系;根据所述位置关系,确定映射到所述虚拟空间内各车道线之间的车道线拓扑关系。
可选地,所述映射模块501具体用于,将所述虚拟空间中符合所述车道线拓扑关系的多条车道线,作为同组车道线;针对每一组车道线,将该组车道线融合为一条车道线,得到融合后的车道线。
可选地,所述映射模块501具体用于,确定符合所述车道线拓扑关系的各车道线对应的置信度;根据所述置信度,对符合所述车道线拓扑关系的各车道线在所述虚拟空间中进行融合,得到融合后的车道线。
可选地,所述检测模块502具体用于,针对符合所述车道线拓扑关系的每个车道线,确定所述采集设备采集包含有该车道线的图像的目标图像时所基于的位姿;根据所述位姿,确定所述采集设备采集包含有该车道线的图像的目标图像时,与该车道线之间的距离;根据所述距离,确定该车道线对应的置信度,其中,所述置信度和所述距离呈负相关关系。
可选地,所述虚拟空间包括:三维道路空间;
所述检测模块502具体用于,根据从所述目标图像中提取出的特征点,在所述目标图像中融合出车道线及参考线;将在所述目标图像中融合出的车道线以及参考线映射到预设的三维道路空间内。
可选地,所述映射模块501具体用于,根据确定出的所述目标图像中包含的每个像素点的深度值,以及采集设备采集所述目标图像时所基于的位姿,将从所述目标图像中提取出的车道线以及参考线,映射到预设的虚拟空间内。
可选地,所述检测模块502还用于,根据所述融合后的各车道线,构建地图。
可选地,所述参考线包括:道路中心线,以及由路沿融合出的路沿线中的至少一种。
本说明书还提供了一种计算机可读存储介质,该存储介质存储有计算机程序,计算机程序可用于执行上述图1提供的一种车道线检测方法。
本说明书还提供了图6所示的一种对应于图1的电子设备的示意结构图。如图6所述,在硬件层面,该电子设备包括处理器、内部总线、网络接口、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述图1所述的车道线检测方法。当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书的实施例可提供为方法、系统、或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。

Claims (12)

1.一种车道线检测方法,其特征在于,包括:
将从目标图像中提取出的车道线以及参考线,映射到预设的虚拟空间内,并根据映射到所述虚拟空间内的参考线,确定映射到所述虚拟空间内的各车道线之间的车道线拓扑关系;
根据所述车道线拓扑关系,对映射到所述虚拟空间内的各车道线进行融合,将融合后的车道线确定为从所述目标图像中检测出的车道线。
2.如权利要求1所述的方法,其特征在于,根据映射到所述虚拟空间内的参考线,确定映射到所述虚拟空间内的各车道线之间的车道线拓扑关系,具体包括:
根据映射到所述虚拟空间内的参考线及车道线,确定映射到所述虚拟空间内各车道线与参考线之间的位置关系;
根据所述位置关系,确定映射到所述虚拟空间内各车道线之间的车道线拓扑关系。
3.如权利要求1所述的方法,其特征在于,根据所述车道线拓扑关系,对映射到所述虚拟空间内的各车道线进行融合,具体包括:
将所述虚拟空间中符合所述车道线拓扑关系的多条车道线,作为同组车道线;
针对每一组车道线,将该组车道线融合为一条车道线,得到融合后的车道线。
4.如权利要求1或3所述的方法,其特征在于,根据所述车道线拓扑关系,对映射到所述虚拟空间内的各车道线进行融合,具体包括:
确定符合所述车道线拓扑关系的各车道线对应的置信度;
根据所述置信度,对符合所述车道线拓扑关系的各车道线在所述虚拟空间中进行融合,得到融合后的车道线。
5.如权利要求4所述的方法,其特征在于,确定符合所述车道线拓扑关系的各车道线对应的置信度,具体包括:
针对符合所述车道线拓扑关系的每个车道线,确定采集设备采集包含有该车道线的图像的目标图像时所基于的位姿;
根据所述位姿,确定所述采集设备采集包含有该车道线的图像的目标图像时,与该车道线之间的距离;
根据所述距离,确定该车道线对应的置信度,其中,所述置信度和所述距离呈负相关关系。
6.如权利要求1所述的方法,其特征在于,所述虚拟空间包括:三维道路空间;
将从目标图像中提取出的车道线以及参考线,映射到预设的虚拟空间内,具体包括:
根据从所述目标图像中提取出的特征点,在所述目标图像中融合出车道线及参考线;
将在所述目标图像中融合出的车道线以及参考线映射到预设的三维道路空间内。
7.如权利要求1所述的方法,其特征在于,将从目标图像中提取出的车道线以及参考线,映射到预设的虚拟空间内,具体包括:
根据确定出的所述目标图像中包含的每个像素点的深度值,以及采集设备采集所述目标图像时所基于的位姿,将从所述目标图像中提取出的车道线以及参考线,映射到预设的虚拟空间内。
8.如权利要求1所述的方法,其特征在于,所述方法还包括:
根据所述融合后的各车道线,构建地图。
9.如权利要求1~8任一项所述的方法,其特征在于,所述参考线包括:道路中心线,以及由路沿融合出的路沿线中的至少一种。
10.一种车道线检测装置,其特征在于,包括:
映射模块,用于将从目标图像中提取出的车道线以及参考线,映射到预设的虚拟空间内,并根据映射到所述虚拟空间内的参考线,确定映射到所述虚拟空间内的各车道线之间的车道线拓扑关系;
检测模块,用于根据所述车道线拓扑关系,对映射到所述虚拟空间内的各车道线进行融合,将融合后的车道线确定为从所述目标图像中检测出的车道线。
11.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述权利要求1~9任一项所述的方法。
12.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现上述权利要求1~9任一项所述的方法。
CN202210429834.9A 2022-04-22 2022-04-22 一种车道线检测方法及装置 Pending CN116977972A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210429834.9A CN116977972A (zh) 2022-04-22 2022-04-22 一种车道线检测方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210429834.9A CN116977972A (zh) 2022-04-22 2022-04-22 一种车道线检测方法及装置

Publications (1)

Publication Number Publication Date
CN116977972A true CN116977972A (zh) 2023-10-31

Family

ID=88471850

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210429834.9A Pending CN116977972A (zh) 2022-04-22 2022-04-22 一种车道线检测方法及装置

Country Status (1)

Country Link
CN (1) CN116977972A (zh)

Similar Documents

Publication Publication Date Title
CN111311709B (zh) 一种生成高精地图的方法及装置
CN110674723B (zh) 一种确定无人驾驶车辆行驶轨迹的方法及装置
CN111508258B (zh) 一种定位方法及装置
CN111882611B (zh) 一种地图构建方法及装置
CN112163475B (zh) 一种确定车道线方向的方法及装置
CN111797722B (zh) 车道线绘制的方法及装置
KR102118357B1 (ko) 모바일 맵핑 또는 자율 주행용 플랫폼과 관측 데이터의 구조화를 위한 시스템
CN114295119B (zh) 一种构建地图的方法及装置
CN111797711A (zh) 一种模型训练的方法及装置
CN116740361B (zh) 一种点云分割方法、装置、存储介质及电子设备
CN112327864A (zh) 一种无人驾驶设备的控制方法及控制装置
CN112036462A (zh) 一种模型训练以及目标检测的方法及装置
CN115600157B (zh) 一种数据处理的方法、装置、存储介质及电子设备
CN118053153B (zh) 一种点云数据的识别方法、装置、存储介质及电子设备
CN112990099B (zh) 一种车道线检测的方法以及装置
CN113674424B (zh) 一种电子地图绘制的方法及装置
CN112818968A (zh) 一种目标物分类方法及装置
CN111426299B (zh) 一种基于目标物的景深进行测距的方法及装置
WO2022099620A1 (zh) 三维点云分割方法和装置、可移动平台
CN114332189A (zh) 一种高精地图构建方法、装置、存储介质及电子设备
CN116977972A (zh) 一种车道线检测方法及装置
CN114429576A (zh) 一种生成训练样本的方法及装置
CN114187355A (zh) 一种图像标定方法及装置
CN114299147A (zh) 一种定位方法、装置、存储介质及电子设备
CN112712561A (zh) 一种建图方法、装置、存储介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination