CN112525147B - 自动驾驶设备测距方法及相关装置 - Google Patents
自动驾驶设备测距方法及相关装置 Download PDFInfo
- Publication number
- CN112525147B CN112525147B CN202011445032.4A CN202011445032A CN112525147B CN 112525147 B CN112525147 B CN 112525147B CN 202011445032 A CN202011445032 A CN 202011445032A CN 112525147 B CN112525147 B CN 112525147B
- Authority
- CN
- China
- Prior art keywords
- target
- vanishing
- point
- vanishing point
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本申请提供了一种自动驾驶设备测距方法及相关装置,其中,该自动驾驶设备测距方法包括:获取于行驶前方视野下采集到的多帧目标图像;根据从所述目标图像中提取出的目标交点,利用预设的消失点提取模型,得到输出消失点;其中,所述目标交点为所述目标图像中所呈现的直线之间的交点;根据所述输出消失点及实时采集到的行驶前方图像,计算自动驾驶设备与位于行驶前方的目标对象之间的距离。从而,达到简单的实现高精准度的消失点确定,提高自动测距的准确性的效果。
Description
技术领域
本申请涉及自动驾驶技术领域,具体而言,涉及一种自动驾驶设备测距方法及相关装置。
背景技术
测距是自动驾驶领域中重要的技术指标。基于机器视觉进行测距是目前常见的测距方式。基于机器视觉的测距依赖于消失点的确定。然而目前,确定消失点的方式实现复杂且精度较低,一定程度上制约了自动驾驶技术的推广应用。
发明内容
有鉴于此,本申请的目的在于提供一种自动驾驶设备测距方法及相关装置,达到简单的实现高精准度的消失点确定,提高自动测距的准确性。
第一方面,本发明提供一种自动驾驶设备测距方法,包括:
获取于行驶前方视野下采集到的多帧目标图像;
根据从所述目标图像中提取出的目标交点,利用预设的消失点提取模型,得到输出消失点;其中,所述目标交点为所述目标图像中所呈现的直线之间的交点;
根据所述输出消失点及实时采集到的行驶前方图像,计算自动驾驶设备与位于行驶前方的目标对象之间的距离。
上述实施例提供的自动驾驶设备测距方法,相较于现有技术而言,采用了直接利用目标图像中的目标交点寻找输出消失点,无需对大量线条进行处理,简化得到消失点算法的复杂性,也提高了得到的消失点准确性,进而提高车辆自动测距的准确性。
在可选的实施方式中,所述根据从所述目标图像中提取出的目标交点,利用预设的消失点提取模型,得到输出消失点,包括:
将所述目标交点投影到高斯球坐标系,以得到第一方向的待选消失点;
在所述高斯球坐标系中获取与所述第一方向的待选消失点之间满足正交要求的其他方向的待选消失点;
将得到的所述待选消失点投影至极坐标网格中,并选出目标消失点,以便从所述目标消失点中确定输出消失点;其中,所述极坐标网格为所述高斯球坐标系在二维图像平面上的投影。
上述实施例提供的自动驾驶设备测距方法,相较于现有技术而言,一方面,采用了直接将目标交点投影到高斯球坐标系方式,无需对大量线条进行投影,简化算法的复杂性,便于推广。另一方面,可以得到与投影到高斯球坐标系的待选消失点对应的其他方向的待选消失点,确保全局性,此外,其他方向的待选消失点,利用正交特性确定,确保较小计算量的同时得到准确的消失点。
在可选的实施方式中,所述选出目标消失点的步骤包括:
将所述待选消失点所对应的直线与目标网格绑定;其中,所述目标网格是所述极坐标网格中与所述待选消失点对应的网格;
根据绑定于每个所述目标网格的直线的长度信息,计算所述目标网格对应的权重值;
根据所述权重值,从多个所述目标网格中选出最优网格;
根据与所述最优网格对应的所述待选消失点,确定出目标消失点。
上述实施例提供的自动驾驶设备测距方法,相较于现有技术而言,利用消失点所对应的直线长度进行投票,从而得到准确的目标消失点。
在可选的实施方式中,所述根据与所述最优网格对应的所述待选消失点,确定出目标消失点的步骤包括:
在所述目标图像中确定出感兴趣区域;
将所述最优网格所对应的所述待选消失点中与所述感兴趣区域无关的待选消失点剔除,以得到目标消失点。
上述实施例提供的自动驾驶设备测距方法,相较于现有技术而言,是利用图像内的感兴趣区域筛除无关的点,保障得到的目标消失点的可靠性。
在可选的实施方式中,在选出目标消失点之后,所述根据从所述目标图像中提取出的目标交点,利用预设的消失点提取模型,得到输出消失点,还包括:
利用所述目标图像中所呈现的直线进行聚类;
筛除没有位于直线聚类延长线上的目标消失点,以得到输出消失点。
上述实施例提供的自动驾驶设备测距方法,相较于现有技术而言,利用直线聚类验证目标消失点的有效性,提高用于测距的输出消失点的准确性。
在可选的实施方式中,所述方法还包括:基于目标图像提取目标交点;所述基于目标图像提取目标交点的步骤包括:
从所述目标图像中获取会相交的直线对;
从得到的所述直线对中,筛除与所述目标图像的图像坐标系之间角度不满足预设要求的直线对;
获取保留的所述直线对的交点,以作为所述目标交点。
在可选的实施方式中,所述获取于行驶前方视野下采集到的多帧目标图像的步骤包括:
在自动驾驶过程中,按照预设的时间周期,从行驶前方视野下采集到的视频流中截取预设时长的视频数据;并从所述视频数据中获取多帧所述目标图像。
在可选的实施方式中,所述获取于行驶前方视野下采集到的多帧目标图像的步骤包括:
在自动驾驶过程中,若检测到车身出现满足预设条件的颠簸,则触发从行驶前方视野下采集到的视频流中截取预设时长的视频数据;并从所述视频数据中获取多帧所述目标图像。
第二方面,本发明提供一种自动驾驶设备测距装置,包括:
获取模块,用于获取于行驶前方视野下采集到的多帧目标图像;
消失点确定模块,用于根据从所述目标图像中提取出的目标交点,利用预设的消失点提取模型,得到输出消失点;其中,所述目标交点为所述目标图像中所呈现的直线之间的交点;
计算模块,用于根据所述输出消失点及实时采集到的行驶前方图像,计算自动驾驶设备与位于行驶前方的目标对象之间的距离。
在可选的实施方式中,所述消失点确定模块包括:
投影子模块,用于将所述目标交点投影到高斯球坐标系,以得到第一方向的待选消失点;
获取子模块,用于在所述高斯球坐标系中获取与所述第一方向的待选消失点之间满足正交要求的其他方向的待选消失点;
选择子模块,用于将得到的所述待选消失点投影至极坐标网格中,并选出目标消失点,以便从所述目标消失点中确定输出消失点;其中,所述极坐标网格为所述高斯球坐标系在二维图像平面上的投影。
在可选的实施方式中,所述选择子模块还用于:
将所述待选消失点所对应的直线与目标网格绑定;其中,所述目标网格是所述极坐标网格中与所述待选消失点对应的网格;
根据绑定于每个所述目标网格的直线的长度信息,计算所述目标网格对应的权重值;
根据所述权重值,从多个所述目标网格中选出最优网格;
根据与所述最优网格对应的所述待选消失点,确定出目标消失点。
在可选的实施方式中,所述选择子模块还用于:
在所述目标图像中确定出感兴趣区域;
将所述最优网格所对应的所述待选消失点中与所述感兴趣区域无关的待选消失点剔除,以得到目标消失点。
在可选的实施方式中,所述消失点确定模块还包括:
聚类子模块,用于利用所述目标图像中所呈现的直线进行聚类;
筛选子模块,用于筛除没有位于直线聚类延长线上的目标消失点,以得到输出消失点。
在可选的实施方式中,所述装置还包括:提取模块,用于从所述目标图像中获取会相交的直线对;从得到的所述直线对中,筛除与所述目标图像的图像坐标系之间角度不满足预设要求的直线对;获取保留的所述直线对的交点,以作为所述目标交点。
在可选的实施方式中,所述获取模块用于:
在自动驾驶过程中,按照预设的时间周期,从行驶前方视野下采集到的视频流中截取预设时长的视频数据;并从所述视频数据中获取多帧所述目标图像。
在可选的实施方式中,所述获取模块还用于:
在自动驾驶过程中,若检测到车身出现满足预设条件的颠簸,则触发从行驶前方视野下采集到的视频流中截取预设时长的视频数据;并从所述视频数据中获取多帧所述目标图像。
第三方面,本发明提供一种电子设备,包括:处理器、存储介质和总线,所述存储介质存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储介质之间通过总线通信,所述处理器执行所述机器可读指令,以执行如前述实施方式任一所述自动驾驶设备测距方法。
第四方面,本发明提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行1至8任一所述自动驾驶设备测距方法。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本申请实施例提供的一种自动驾驶设备测距服务系统的架构示意图;
图2示出了本申请实施例提供的一种自动驾驶设备测距方法的流程图;
图3示出了本申请实施例提供的消失点检测方法的流程图;
图4示出了本申请实施例提供的消失点检测方法中,步骤S201具体方法的流程图;
图5示出了本申请实施例提供的消失点检测方法中,步骤S203具体方法的流程图;
图6示出了本申请实施例提供的消失点检测方法中,步骤S204具体方法的流程图;
图7示出了本申请实施例提供的一种消失点检测方法的流程图的另一部分;
图8示出了本申请实施例提供的一种自动驾驶设备测距装置的结构示意图;
图9示出了本申请实施例提供的一种电子设备的结构示意图。
图标:100-自动驾驶设备测距服务系统;10-单目采集设备;60-电子设备;61-处理器;62-存储器;63-总线;400-自动驾驶设备测距装置;401-获取模块;402-消失点确定模块;403-计算模块。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,应当理解,本申请中附图仅起到说明和描述的目的,并不用于限定本申请的保护范围。另外,应当理解,示意性的附图并未按实物比例绘制。本申请中使用的流程图示出了根据本申请的一些实施例实现的操作。应该理解,流程图的操作可以不按顺序实现,没有逻辑的上下文关系的步骤可以反转顺序或者同时实施。此外,本领域技术人员在本申请内容的指引下,可以向流程图添加一个或多个其他操作,也可以从流程图中移除一个或多个操作。
另外,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
为了使得本领域技术人员能够使用本申请内容,结合特定应用场景“自动驾驶汽车测距”,给出以下实施方式。对于本领域技术人员来说,在不脱离本申请的精神和范围的情况下,可以将这里定义的一般原理应用于其他实施例和应用场景。虽然本申请主要围绕自动驾驶汽车测距进行描述,但是应该理解,这仅是一个示例性实施例。
自动测距可以使汽车在驾驶过程中由于距离过近发出警报,以提升驾驶员的警惕性,降低事故发生率,进而提高驾驶车辆的安全性能。只有更准确的测距,才能够更有效的获得与障碍物之间的距离信息,从而提升驾驶车辆的安全和人身安全。
在自动驾驶系统中,单目相机是测距的重要传感器,但人为因素或环境影响可能导致相机的安装角度存在一定的偏差,故提出通过LSD(Line Segment Detector)直线检测、高斯球极坐标网格原理、ROI(Region of Interest)提取、去除外点算法和直线聚类算法获得曼哈顿世界(Manhattan World)的消失点。由于相机坐标系中消失点与光心在一条直线上,根据消失点与相机的光心和焦距可以获得相机的偏航角和俯仰角,从而可以在无相机标定的前提下校正相机的外部参数,尤其是相机的旋转矩阵,进而提升测量障碍物距离的精度,实现在无驾驶环境要求、无人工标注和无相机标定的情况下,完成消失点横纵坐标的解算、相机旋转角度的计算和障碍物距离的估计。
值得注意的是,消失点检测方法分为四种:
(1)基于高斯球的方法:以相机的光心为原点建立单位球体,称为高斯球。图像中的一条直线映射到高斯球上为一个大圆,故在高斯球上会产生无数个大圆,求取每个大圆的交点坐标,再进行投票,命中次数最多的交点为消失点。该方式需将大量线条投影到高斯球体上寻找交点进而确定消失点。通过该方式得到的消失点的精度低,算法时间复杂度比较高,且无法保证消失点的正交性。
(2)基于边缘检测的方法:利用Canny检测图像中的边缘,结合Hough变换的方法,进行线段提取,从而获得消失点。在现实场景中,由于存在大量的虚拟线段,从而干扰了消失点检测的精度,且该方法不能保证消失点的正交性,进一步降低了测距的精度。
(3)基于车道线检测的方法:在结构化场景中,通常采用车道线检测的方法计算消失点,利用车道线相互平行的事实,在图像中必相交于一点,从而获得消失点。对于道路没有车道线信息时,消失点将无从获得,该方法对驾驶环境具有一定的要求,不具有普遍性,且无法保证消失点的正交性。
(4)基于深度学习的方法:人工对数据进行消失点的标注,肉眼看图寻找消失点,通过深度学习模型输出前车的检测框和消失点的纵坐标的值。针对有遮挡的数据,消失点精度降低;且模型输出消失点只有相对准确的纵坐标,在自动驾驶中求取横向距离时,具有一定的局限性;此外,若自车为货车等非轿车的情况下,由于相机看前车的视角为俯视,故模型消失点的估计也是不准确的。
相比而言,本申请提供的自动驾驶设备测距方法中检测消失点的方式可以是通过直接将目标图像中的直线交点投影到高斯球坐标系,再利用正交特性寻找通过投影得到的待选消失点所对应的其他方向的待选消失点。最后,从所得到待选消失点中得到目标消失点。实现过程简单所需占用运算资源少,且准确性较高。
图1是本申请一些实施例的自动驾驶设备测距服务系统100的框图。例如,自动驾驶设备测距服务系统100可以是用于诸如出租车、代驾服务、快车、拼车、公共汽车之类的运输类服务。自动驾驶设备测距服务系统100可以包括电子设备60及单目采集设备10,上述电子设备60与单目采集设备10之间通信连接。上述电子设备60中可以包括执行指令操作的处理器61。
在一些场景下,可以将单目采集设备10安装到车辆中,上述电子设备60可以是驾驶者所使用的智能终端。如此,对于代驾类服务,代驾人员可以自携带上述单目采集设备10,在需要进行代驾时,将其安装于需代驾的车辆上,并将智能终端作为电子设备60,方便搭建自动驾驶设备测距服务系统100,以提供更加安全的驾驶服务。
在一些场景下,可以将上述电子设备60和单目采集设备10均安装于车辆内。如此,方便为特定车辆提供服务。
在一些场景下,可以仅将单目采集设备10安装到车辆上,电子设备60与单目采集设备10远程通信。在此场景下,电子设备60可以是一些处理能力强的设备,比如,可以是服务器、云平台等。与之对应的,该自动驾驶设备测距服务系统100中还可以包括具有提醒功能的设备,用于安装于车辆内,以提醒驾驶者距离。
参照图2所示,为本申请实施例提供的一种自动驾驶设备测距方法的流程示意图,该方法可以由自动驾驶设备测距服务系统100中的电子设备60来执行,具体执行过程为:
步骤S101,获取于行驶前方视野下采集到的多帧目标图像。
在一些实施例中,车辆自动测距服务系统的单目采集设备10的镜头朝向自动驾驶设备的行驶前方。故可以从单目采集设备10采集到行驶前方视野下采集到的视频数据,从视频数据中便可获取到所需的目标图像。
在一些场景下,上述步骤S101可以是:在自动驾驶过程中,按照预设的时间周期,从行驶前方视野下采集到的视频流中截取预设时长的视频数据。
在另一些场景下,上述步骤S101还可以是:在自动驾驶过程中,若检测到车身出现满足预设条件的颠簸,则触发从行驶前方视野下采集到的视频流中截取预设时长的视频数据。
在一些实施例中,可以利用陀螺仪和加速度传感器相配合检验车身所出现的颠簸情况是否满足预设条件。比如,在陀螺仪检测到车辆地板水平变化成都超过阈值时,进一步检验加速度传感器检测到的速度变化率是否符合预设区间,若不符合预设区间,则可以判定车身出现满足预设条件的颠簸。
在另一些场景下,上述步骤S101还可以是:在自动驾驶过程中,不仅按照预设的时间周期,从行驶前方视野下采集到的视频流中截取预设时长的视频数据。而且,在出现满足预设条件的颠簸的情况下,也会触发从行驶前方视野下采集到的视频流中截取预设时长的视频数据。
可以理解地,前述自动驾驶过程,可以是全自动驾驶,也可以是部分自动驾驶。也可以是指驾驶过程中自动为驾驶者提供距离提醒的驾驶过程。
进一步地,在获取到视频数据之后,还需要从视频数据中获取目标图像。
在一些实施例中,可以是从视频数据中获取选定数量的图像帧,以作为目标图像。比如,从视频图像中获取10~15帧图像帧。降低被处理的图像帧的数量。
此外,在一些实施例中,还可以将从视频数据中提取的图像帧进行大小放缩,缩小至为原来的四分之一,从而提高了计算消失点算法的效率。与相关技术的区别是,不需要对视频的每一帧都进行消失点计算,降低处理量。
步骤S102,根据从目标图像中提取出的目标交点,利用预设的消失点提取模型,得到输出消失点。
上述目标图像为用于检测消失点的图像。上述目标交点为目标图像中所呈现的直线之间的交点。
在一些实施例中,可以检测目标图像中出现的直线条,基于检测出的直线条之间的交点确定目标交点。
在一些实施例中,可以上述步骤S101处理后得到的图像作为目标图像,然后,利用消失点提取模型输出每帧目标图像对应的消失点,以作为输出消失点。将得到的所有输出消失点进行均值化处理,以得到后续步骤S103计算所用的输出消失点。可以理解地,上述均值化处理为分别对各个方向所对应的输出消失点进行均值化处理。
可理解地,上述消失点提取模型是本申请中提供的一种检测消失点的算法,能够利用目标图像中的目标交点确定出消失点。检测精度高,且算法不复杂,方便推广。
步骤S103,根据输出消失点及实时采集到的行驶前方图像,计算自动驾驶设备与位于行驶前方的目标对象之间的距离。
上述行驶前方图像可以由单目采集设备10实时采集。在一些实施例中,上述步骤S103可以包括首先利用单目采集设备10的光线与消失点之间的连线是水平的,故,根据输出消失点的坐标来获取相机的旋转角度(偏航角和俯仰角),进一步根据相机的针孔成像原理,计算单目采集设备10的旋转矩阵。
然后,利用实时采集到的行驶前方图像进行目标对象检测。从而获取检测到目标对象的检测框的左上坐标、右下坐标和目标对象的类型。然后,将得到的左上坐标、右下坐标。通过旋转矩阵的逆变换,将得到的左上坐标、右下坐标转换到单目采集设备10的相机坐标系下。进而根据三角形形似原理,由目标对象的实际宽度或高度(先验信息)可以获得自目标对象头部到目标对象尾部的横纵距离坐标。
可以理解地,预先配置有不同类型的目标对象所对应的实际宽度或高度信息。如此,可以通过识别出的目标对象的类型获取到该目标对象所对应的实际宽度或高度。
显然,能否准确实现测距,关键在于获得准确的消失点。下面对本发明实施例提供的利用消失点提取模型所实现的消失点检测方法进行描述:
如图3所示,本发明实施例提供的消失点检测方法可以包括以下步骤:
步骤S201,基于目标图像提取目标交点。
上述目标图像为用于检测消失点的图像。上述目标交点为目标图像中所呈现的直线之间的交点。
在一些实施例中,可以检测目标图像中出现的直线条,基于检测出的直线条之间的交点确定目标交点。
步骤S202,将目标交点投影到高斯球坐标系,以得到第一方向的待选消失点。
上述高斯球坐标系是以目标图像所对应的焦点为原点建立单位球体。在一些实施例中,以目标图像的焦点为单位球的原点,构建高斯球坐标系的X轴、Y轴和Z轴,构建得到的X轴、Y轴与目标图像所对应的图像坐标系的X轴和Y轴重合,构建得到的Z轴由焦点指向目标图像中心方向。
在一些实施例中,高斯球坐标系与目标图像的图像坐标系之间存在对应关系,故可以利用目标交点在图像坐标系中的坐标信息,将目标交点投影到高斯球坐标系中。
步骤S203,在高斯球坐标系中获取与第一方向的待选消失点之间满足正交要求的其他方向的待选消失点。
上述其他方向是与第一方向不同的方向。上述其他方向实际上可以包括两个不同的方向,为了方便描述可以命名为第二方向和第三方向,如此,每一个第一方向的待选消失点均对应两个不同方向的待选消失点。三个方向上的待选消失点之间满足正交的关系。比如,第一方向为自动驾驶设备的行驶方向,那么第二方向位于图像坐标系的纵轴方向,第二方向位于图像坐标系的横轴方向,同时,第二方向和第三方向的消失点均为无穷远处的点。
步骤S204,将得到的待选消失点投影至极坐标网格中,并选出目标消失点。
上述极坐标网格为高斯球坐标系在二维图像平面上的投影。可以理解地,将高斯球坐标系投影到二维图像平面上,如此二维图像平面将会被分割为900*360个网格。
在一些实施例中,将待选消失点投影至极坐标网格后,利用投票机制选出目标消失点。
可见,本申请实施例提供的消失点检测方法,通过步骤S101和步骤S102相配合,简化了投影工作量,也避免出现遗漏待选消失点的问题,简化算法的复杂性的同时确保全局性。然后,再结合步骤S103,寻找与投影得到的待选消失点满足正交特性的点,作为其他方向上的待选消失点,确保曼哈顿世界中消失点具有正交性的特性。最后,利用步骤S104从待选消失点中选取出从而使用较小计算量的同时得到准确的消失点。
下面对本发明实施例提供的消失点检测方法的实现细节进行描述:
在一些实施例中,上述步骤S201可以是遍历从目标图像中检测到的直线,并寻找与之相交的其他直线,以得到与其相交的交点,作为目标交点。
在另一些实施例中,为了提高效率,避免不必要的计算量,如图4所示,上述步骤S201可以包括以下步骤:
子步骤S201-1,从目标图像中获取会相交的直线对。
上述直线对由两条会相交的直线组成。在一些实施例中,可以是针对目标图像进行直线检测,并从中确定出相交或者延长线会相交的直线,以得到直线对。
子步骤S201-2,从得到的直线对中,筛除与目标图像的图像坐标系之间角度不满足预设要求的直线对。
上述预设要求可以是:直线与图像坐标系之间的夹角属于选定的角度区间。换句话说,不满足预设要求的直线对为存在至少一条直线与图像坐标系之间角度不属于选定的角度区间。比如,预设条件是直线与图像坐标系x轴之间的夹角属于30°到60°之间,如果一个直线对中存在一条直线与图像坐标系x轴之间的夹角为70°,那么该直线对与目标图像的图像坐标系之间角度不满足预设要求,需将其筛除。如此,避免垂直于行驶方向的线条影响对消失点的判断,也能够较少大量分析工作。如果一个直线对中两条直线与图像坐标系x轴之间的夹角均属于30°到60°之间,那么标识该直线对与目标图像的图像坐标系之间角度满足预设要求。
子步骤S201-3,获取保留的直线对的交点。
在一些实施例中,经过子步骤S201-2筛除了后,保留下的直线对的交点均作为目标交点。
通过上述子步骤排除不必要的直线交点的投影,减轻处理量,从而提高处理效率。
在一些实施例中,第二方向上的待选消失点在高斯球坐标系中与第一方向上的待选消失点垂直的大圆上,第三方向上的待选消失点为第一方向上的待选消失点和第二方向上的待选消失点的叉乘。
故,在一些实施例中,如图5所示,上述步骤S203可以包括以下步骤:
子步骤S203-1,在高斯球坐标系中确定出与第一方向上的待选消失点垂直的目标大圆。
在一些实施例中,将第一方向的待选消失点与高斯球坐标系的原点连接起来,作为第一向量,将与第一向量垂直的大圆确定为目标大圆。
子步骤S203-2,在目标大圆上确定第二方向的待选消失点。
在一些实施例中,事实上目标大圆上每一个点均具备作为第二方向的待选消失点的资格。在一些实施例中,可以随机从目标大圆选择待选消失点。比如,如果采用一度为精度,那么在目标大圆上第二方向的待选消失点便有360种可能。
子步骤S203-3,基于第一方向上的待选消失点和第二方向上的待选消失点,计算第三方向上的待选消失点。
在一些实施例中,将第一方向上的待选消失点和第二方向上的待选消失点这两个待选消失点之间的叉乘值,作为第三方向上的待选消失点。在一些实施例中,可以确定多个可能的第二方向上的待选消失点,那么也可以随之确定多个第三方向上的待选消失点。
通过上述子步骤得到多个方向的待选消失点,相较于现有技术中检测消失点而言区别有三,一是该方法可以获得三个方向上的消失点;二是保证了消失点的正交性;三是方法的输入为两两直线的交点,将交点投影到高斯球坐标系,而不是对图像上所有直线直接投影到高斯球坐标系,降低了算法的复杂度。与现有边缘检测方法的区别是不只简单的进行直线检测,是根据正交性原理,获得了三个方向上的候选消失点,而不是一个方向的候选消失点,保证了消失点的正交性、全局性。与现有车道线求消失点方法的区别有二,一是对驾驶的环境没有任何要求,不强求车道线的存在,不强求光照条件,可根据驾驶的周围环境的静态物体(如:路边沿,树木,天线,高楼建筑物等)获得直线,完成消失点的检测;二是现有检测方法只是可以获得一个方向上的消失点,本发明可以检测三个方向上的消失点,保证了彼此的正交性。
在一些实施例中,上述步骤S204可以获取所有待选消失点在高斯球坐标系中的经纬度信息,再将待选消失点与极坐标网格中的网格一一对应起来。根据每一个网格对应的直线的长度,通过投票的方式选出目标消失点。
与相关技术相比,上述步骤S204能够提高选取消失点的效率,保证了算法的高效性,利用消失点分布在图像中心附近的事实,在图像中心建立极坐标网格,网格越靠近中心处越密集,越远离中心处越稀疏,符合消失点分布的原理,而不是简单的根据无数个圆交点个数的多少进行筛选消失点。
在一些实施例中,如图6所示,上述步骤S204中的选出目标消失点可以包括以下步骤:
子步骤S204-1,将待选消失点所对应的直线与目标网格绑定。
每一个待选消失点都是基于目标图像中的一个直线对确定出来的,故,该直线对中的两条直线便与该待选消失点对应。
上述目标网格是极坐标网格中与待选消失点对应的网格。在一些实施例中,每一个极坐标网格对应着高斯球坐标系中的一个经纬度信息。利用经纬度信息与极坐标网格的关联,将待选消失点与对应目标网格绑定。
子步骤S204-2,根据绑定于每个目标网格的直线的长度信息,计算目标网格对应的权重值。
在一些实施例中,根据每个目标网格所对应的直线的长度信息,进行叠加,以得到该目标网格的权重值。
子步骤S204-3,根据权重值,从多个目标网格中选出最优网格。
在一些实施例中,将权重值最大的目标网格确定为最优网格。
子步骤S204-4,根据与最优网格对应的待选消失点,确定出目标消失点。
在一些实施例中,上述子步骤S204-4可以是包括:
(1)在目标图像中确定出感兴趣区域。
上述感兴趣区域可以由用户预先选定,比如,可以是目标图像中的选定区域,也可以是目标图像中呈现指定目标的选定区域。
(2)将最优网格所对应的待选消失点中与感兴趣区域无关的待选消失点剔除,以得到目标消失点。
在一些实施例中,将待选消失点映射到目标图像中,以判断待选消失点是否位于目标图像的感兴趣区域。如果不属于,那么判定该待选消失点为与感兴趣区域无关的待选消失点,并将该待选消失点剔除。与现有技术的区别有二,一是一个视频获得三个方向的消失点,而不是每一帧图像都输出一个消失点;二是该方法可以输出消失点的横纵坐标轴的坐标,而检测方法只可以获得纵坐标的值。与现有高斯球算法的区别是对获得的消失点进行了筛选后处理操作,获得更精确的消失点,保证了算法的精确性。
在一些实施例中,如果得到多个第一方向的待选消失点,为了确保最后得到的三个方向的消失点,可以先将各个第一方向的待选消失点投影到极坐标网格中所对应的目标网格,并利用上述子步骤S204-1至子步骤S204-4,确定出第一方向的目标消失点。然后,将第一方向的目标消失点所对应的第二方向的待选消失点和第三方向的待选消失点确定为第二方向和第三方向的目标消失点。
在另一些实施例中,如果得到多个第一方向的待选消失点、第二方向的待选消失点和第三方向的待选消失点,也可以是将三个方向的待选消失点都投影到极坐标网格中,并利用子步骤S204-1至子步骤S204-4,确定出目标消失点。
在一些实施例中,为了提高消失点的准确性,图3、图4、图5和图6中任意一个图所示出的消失点检测方法所得到的消失点(也即目标消失点)并非最终用于测距的消失点,还可以在目标消失点的基础上确定出较为准确的输出消失点,用于测距。故,如图7所示,上述消失点检测方法还可以包括以下步骤:
步骤S301,利用目标图像中所呈现的直线进行聚类。
步骤S302,筛除没有位于直线聚类延长线上的目标消失点,以得到输出消失点。
上述步骤通过检验消失点是否在直线上,以确保计算的消失点的准确性。与所有现有方法的区别是进一步的筛选消失点,确定消失点的准确性,提高消失点的计算精度。
基于同一申请构思,本申请实施例中还提供了与自动驾驶设备测距方法对应的自动驾驶设备测距装置400,由于本申请实施例中的装置解决问题的原理与本申请实施例上述自动驾驶设备测距方法相似,因此装置的实施可以参见方法的实施。
参照图8所示,为本申请所提供的一种自动驾驶设备测距装置400的示意图,所述装置包括:获取模块401、消失点确定模块402及计算模块403。
获取模块401,用于获取于行驶前方视野下采集到的多帧目标图像。
消失点确定模块402,用于根据从所述目标图像中提取出的目标交点,利用预设的消失点提取模型,得到输出消失点;其中,所述目标交点为所述目标图像中所呈现的直线之间的交点。
计算模块403,用于根据所述输出消失点及实时采集到的行驶前方图像,计算自动驾驶设备与位于行驶前方的目标对象之间的距离。
在一些实施例中,所述消失点确定模块402包括:
投影子模块,用于将所述目标交点投影到高斯球坐标系,以得到第一方向的待选消失点;
获取子模块,用于在所述高斯球坐标系中获取与所述第一方向的待选消失点之间满足正交要求的其他方向的待选消失点;
选择子模块,用于将得到的所述待选消失点投影至极坐标网格中,并选出目标消失点,以便从所述目标消失点中确定输出消失点;其中,所述极坐标网格为所述高斯球坐标系在二维图像平面上的投影。
在一些实施例中,所述选择子模块还用于:
将所述待选消失点所对应的直线与目标网格绑定;其中,所述目标网格是所述极坐标网格中与所述待选消失点对应的网格;
根据绑定于每个所述目标网格的直线的长度信息,计算所述目标网格对应的权重值;
根据所述权重值,从多个所述目标网格中选出最优网格;
根据与所述最优网格对应的所述待选消失点,确定出目标消失点。
在一些实施例中,所述选择子模块还用于:
在所述目标图像中确定出感兴趣区域;
将所述最优网格所对应的所述待选消失点中与所述感兴趣区域无关的待选消失点剔除,以得到目标消失点。
在一些实施例中,所述消失点确定模块402还包括:
聚类子模块,用于利用所述目标图像中所呈现的直线进行聚类;
筛选子模块,用于筛除没有位于直线聚类延长线上的目标消失点,以得到输出消失点。
在一些实施例中,所述装置还包括:提取模块,用于从所述目标图像中获取会相交的直线对;从得到的所述直线对中,筛除与所述目标图像的图像坐标系之间角度不满足预设要求的直线对;获取保留的所述直线对的交点,以作为所述目标交点。
在一些实施例中,所述获取模块401用于:
在自动驾驶过程中,按照预设的时间周期,从行驶前方视野下采集到的视频流中截取预设时长的视频数据;并从所述视频数据中获取多帧所述目标图像。
在一些实施例中,所述获取模块401还用于:
在自动驾驶过程中,若检测到车身出现满足预设条件的颠簸,则触发从行驶前方视野下采集到的视频流中截取预设时长的视频数据;并从所述视频数据中获取多帧所述目标图像。
本申请实施例还提供了一种电子设备60,如图9所示,为本申请实施例提供的电子设备60结构示意图,包括:处理器61、存储器62、和总线63。所述存储器62存储有所述处理器61可执行的机器可读指令(比如,图8中的装置中获取模块401、消失点确定模块402及计算模块403对应的执行指令),当电子设备60运行时,所述处理器61与所述存储器62之间通过总线63通信。
本申请实施例还提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述消失点检测方法的步骤或者计算机程序被处理器运行时执行自动驾驶设备测距方法的步骤。
具体地,该存储介质能够为通用的存储介质,如移动磁盘、硬盘等,该存储介质上的计算机程序被运行时,能够执行上述消失点检测方法。另外,该存储介质上的计算机程序被运行时,能够执行上述自动驾驶设备测距方法。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统和装置的具体工作过程,可以参考方法实施例中的对应过程,本申请中不再赘述。在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个模块或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或模块的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,应当理解,本申请中附图仅起到说明和描述的目的,并不用于限定本申请的保护范围。另外,应当理解,示意性的附图并未按实物比例绘制。本申请中使用的流程图示出了根据本申请的一些实施例实现的操作。应该理解,流程图的操作可以不按顺序实现,没有逻辑的上下文关系的步骤可以反转顺序或者同时实施。此外,本领域技术人员在本申请内容的指引下,可以向流程图添加一个或多个其他操作,也可以从流程图中移除一个或多个操作。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。
Claims (15)
1.一种自动驾驶设备测距方法,其特征在于,包括:
获取于行驶前方视野下采集到的多帧目标图像;
根据从所述目标图像中提取出的目标交点,利用预设的消失点提取模型,得到输出消失点;其中,所述目标交点为所述目标图像中所呈现的直线之间的交点,所述输出消失点是基于所述目标交点在高斯球坐标系中投影得到的第一方向的待选消失点以及在所述高斯球坐标系中与所述第一方向的待选消失点之间满足正交要求的其他方向的待选消失点确定出的;
根据所述输出消失点及实时采集到的行驶前方图像,计算自动驾驶设备与位于行驶前方的目标对象之间的距离。
2.根据权利要求1所述的方法,其特征在于,所述根据从所述目标图像中提取出的目标交点,利用预设的消失点提取模型,得到输出消失点,包括:
将所述目标交点投影到高斯球坐标系,以得到第一方向的待选消失点;
在所述高斯球坐标系中获取与所述第一方向的待选消失点之间满足正交要求的其他方向的待选消失点;
将得到的所述待选消失点投影至极坐标网格中,并选出目标消失点,以便从所述目标消失点中确定输出消失点;其中,所述极坐标网格为所述高斯球坐标系在二维图像平面上的投影。
3.根据权利要求2所述的方法,其特征在于,所述选出目标消失点的步骤包括:
将所述待选消失点所对应的直线与目标网格绑定;其中,所述目标网格是所述极坐标网格中与所述待选消失点对应的网格;
根据绑定于每个所述目标网格的直线的长度信息,计算所述目标网格对应的权重值;
根据所述权重值,从多个所述目标网格中选出最优网格;
根据与所述最优网格对应的所述待选消失点,确定出目标消失点。
4.根据权利要求3所述的方法,其特征在于,所述根据与所述最优网格对应的所述待选消失点,确定出目标消失点的步骤包括:
在所述目标图像中确定出感兴趣区域;
将所述最优网格所对应的所述待选消失点中与所述感兴趣区域无关的待选消失点剔除,以得到目标消失点。
5.根据权利要求1-4任一项所述的方法,其特征在于,在选出目标消失点之后,所述根据从所述目标图像中提取出的目标交点,利用预设的消失点提取模型,得到输出消失点,还包括:
利用所述目标图像中所呈现的直线进行聚类;
筛除没有位于直线聚类延长线上的目标消失点,以得到输出消失点。
6.根据权利要求1所述的方法,其特征在于,所述方法还包括:基于目标图像提取目标交点;所述基于目标图像提取目标交点的步骤包括:
从所述目标图像中获取会相交的直线对;
从得到的所述直线对中,筛除与所述目标图像的图像坐标系之间角度不满足预设要求的直线对;
获取保留的所述直线对的交点,以作为所述目标交点。
7.根据权利要求1所述的方法,其特征在于,所述获取于行驶前方视野下采集到的多帧目标图像的步骤包括:
在自动驾驶过程中,按照预设的时间周期,从行驶前方视野下采集到的视频流中截取预设时长的视频数据;并从所述视频数据中获取多帧所述目标图像。
8.根据权利要求1或7所述的方法,其特征在于,所述获取于行驶前方视野下采集到的多帧目标图像的步骤包括:
在自动驾驶过程中,若检测到车身出现满足预设条件的颠簸,则触发从行驶前方视野下采集到的视频流中截取预设时长的视频数据;并从所述视频数据中获取多帧所述目标图像。
9.一种自动驾驶设备测距装置,其特征在于,包括:
获取模块,用于获取于行驶前方视野下采集到的多帧目标图像;
消失点确定模块,用于根据从所述目标图像中提取出的目标交点,利用预设的消失点提取模型,得到输出消失点;其中,所述目标交点为所述目标图像中所呈现的直线之间的交点,所述输出消失点是基于所述目标交点在高斯球坐标系中投影得到的第一方向的待选消失点以及在所述高斯球坐标系中与所述第一方向的待选消失点之间满足正交要求的其他方向的待选消失点确定出的;
计算模块,用于根据所述输出消失点及实时采集到的行驶前方图像,计算自动驾驶设备与位于行驶前方的目标对象之间的距离。
10.根据权利要求9所述的装置,其特征在于,所述消失点确定模块包括:
投影子模块,用于将所述目标交点投影到高斯球坐标系,以得到第一方向的待选消失点;
获取子模块,用于在所述高斯球坐标系中获取与所述第一方向的待选消失点之间满足正交要求的其他方向的待选消失点;
选择子模块,用于将得到的所述待选消失点投影至极坐标网格中,并选出目标消失点,以便从所述目标消失点中确定输出消失点;其中,所述极坐标网格为所述高斯球坐标系在二维图像平面上的投影。
11.根据权利要求9所述的装置,其特征在于,所述装置还包括:提取模块,用于从所述目标图像中获取会相交的直线对;从得到的所述直线对中,筛除与所述目标图像的图像坐标系之间角度不满足预设要求的直线对;获取保留的所述直线对的交点,以作为所述目标交点。
12.根据权利要求9所述的装置,其特征在于,所述获取模块用于:
在自动驾驶过程中,按照预设的时间周期,从行驶前方视野下采集到的视频流中截取预设时长的视频数据;并从所述视频数据中获取多帧所述目标图像。
13.根据权利要求9或12所述的装置,其特征在于,所述获取模块还用于:
在自动驾驶过程中,若检测到车身出现满足预设条件的颠簸,则触发从行驶前方视野下采集到的视频流中截取预设时长的视频数据;并从所述视频数据中获取多帧所述目标图像。
14.一种电子设备,其特征在于,包括:处理器、存储介质和总线,所述存储介质存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储介质之间通过总线通信,所述处理器执行所述机器可读指令,以执行如权利要求1至8任一所述自动驾驶设备测距方法。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行如权利要求1至8任一所述自动驾驶设备测距方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011445032.4A CN112525147B (zh) | 2020-12-08 | 2020-12-08 | 自动驾驶设备测距方法及相关装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011445032.4A CN112525147B (zh) | 2020-12-08 | 2020-12-08 | 自动驾驶设备测距方法及相关装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112525147A CN112525147A (zh) | 2021-03-19 |
CN112525147B true CN112525147B (zh) | 2022-11-08 |
Family
ID=75000318
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011445032.4A Active CN112525147B (zh) | 2020-12-08 | 2020-12-08 | 自动驾驶设备测距方法及相关装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112525147B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113819890B (zh) * | 2021-06-04 | 2023-04-14 | 腾讯科技(深圳)有限公司 | 测距方法、装置、电子设备及存储介质 |
CN115511831B (zh) * | 2022-09-27 | 2023-04-04 | 佳木斯大学 | 一种组织胚胎病理切片的数据分析处理系统及方法 |
CN116543032B (zh) * | 2023-07-06 | 2023-11-21 | 中国第一汽车股份有限公司 | 冲击物测距方法、装置、测距设备及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000123300A (ja) * | 1998-10-14 | 2000-04-28 | Nec Corp | 消失点による補正を伴う白線検出方法及び装置 |
CN103927754A (zh) * | 2014-04-21 | 2014-07-16 | 大连理工大学 | 一种车载摄像机的标定方法 |
CN106627462A (zh) * | 2016-12-08 | 2017-05-10 | 南京理工大学 | 一种基于移动终端的车辆防撞预警方法 |
CN108052908A (zh) * | 2017-12-15 | 2018-05-18 | 郑州日产汽车有限公司 | 车道保持方法 |
CN109141347A (zh) * | 2017-06-28 | 2019-01-04 | 京东方科技集团股份有限公司 | 车载摄像机测距方法及装置、存储介质和电子设备 |
CN109583267A (zh) * | 2017-09-28 | 2019-04-05 | 京东方科技集团股份有限公司 | 车辆用目标检测方法、车辆用目标检测装置和车辆 |
CN110044333A (zh) * | 2019-05-14 | 2019-07-23 | 芜湖汽车前瞻技术研究院有限公司 | 一种基于单目视觉的坡度检测方法和装置 |
CN110398226A (zh) * | 2019-05-21 | 2019-11-01 | 重庆邮电大学 | 一种用于先进辅助驾驶系统的单目视觉测距方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018155709A (ja) * | 2017-03-21 | 2018-10-04 | キヤノン株式会社 | 位置姿勢推定装置および位置姿勢推定方法、運転支援装置 |
-
2020
- 2020-12-08 CN CN202011445032.4A patent/CN112525147B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000123300A (ja) * | 1998-10-14 | 2000-04-28 | Nec Corp | 消失点による補正を伴う白線検出方法及び装置 |
CN103927754A (zh) * | 2014-04-21 | 2014-07-16 | 大连理工大学 | 一种车载摄像机的标定方法 |
CN106627462A (zh) * | 2016-12-08 | 2017-05-10 | 南京理工大学 | 一种基于移动终端的车辆防撞预警方法 |
CN109141347A (zh) * | 2017-06-28 | 2019-01-04 | 京东方科技集团股份有限公司 | 车载摄像机测距方法及装置、存储介质和电子设备 |
CN109583267A (zh) * | 2017-09-28 | 2019-04-05 | 京东方科技集团股份有限公司 | 车辆用目标检测方法、车辆用目标检测装置和车辆 |
CN108052908A (zh) * | 2017-12-15 | 2018-05-18 | 郑州日产汽车有限公司 | 车道保持方法 |
CN110044333A (zh) * | 2019-05-14 | 2019-07-23 | 芜湖汽车前瞻技术研究院有限公司 | 一种基于单目视觉的坡度检测方法和装置 |
CN110398226A (zh) * | 2019-05-21 | 2019-11-01 | 重庆邮电大学 | 一种用于先进辅助驾驶系统的单目视觉测距方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112525147A (zh) | 2021-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112525147B (zh) | 自动驾驶设备测距方法及相关装置 | |
US11320833B2 (en) | Data processing method, apparatus and terminal | |
CN110163930B (zh) | 车道线生成方法、装置、设备、系统及可读存储介质 | |
CN109271944B (zh) | 障碍物检测方法、装置、电子设备、车辆及存储介质 | |
CN109492507B (zh) | 红绿灯状态的识别方法及装置、计算机设备及可读介质 | |
CN113554698B (zh) | 车辆位姿信息生成方法、装置及电子设备、存储介质 | |
CN109143207A (zh) | 激光雷达内参精度验证方法、装置、设备及介质 | |
CN109300143B (zh) | 运动向量场的确定方法、装置、设备、存储介质和车辆 | |
CN109849930B (zh) | 自动驾驶汽车的相邻车辆的速度计算方法和装置 | |
KR101995223B1 (ko) | 보행자 검출 시스템 및 모듈, 방법, 컴퓨터프로그램 | |
WO2021017211A1 (zh) | 一种基于视觉的车辆定位方法、装置及车载终端 | |
CN110962844A (zh) | 一种车辆航向角修正方法及系统、存储介质及终端 | |
US20210233307A1 (en) | Landmark location reconstruction in autonomous machine applications | |
CN113838125A (zh) | 目标位置确定方法、装置、电子设备以及存储介质 | |
CN111768489A (zh) | 一种室内导航地图构建方法和系统 | |
WO2018149539A1 (en) | A method and apparatus for estimating a range of a moving object | |
CN113537047A (zh) | 障碍物检测方法、装置、交通工具及存储介质 | |
CN112700486A (zh) | 对图像中路面车道线的深度进行估计的方法及装置 | |
CN113435392A (zh) | 应用于自动泊车的车辆定位方法、装置及车辆 | |
CN113945937A (zh) | 精度检测方法、装置及存储介质 | |
CN113255444A (zh) | 图像识别模型的训练方法、图像识别方法和装置 | |
CN109345567B (zh) | 物体运动轨迹识别方法、装置、设备和存储介质 | |
CN110197104B (zh) | 基于车辆的测距方法及装置 | |
CN115493614B (zh) | 航迹线的显示方法、装置、存储介质及电子设备 | |
CN110298320B (zh) | 一种视觉定位方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |