CN112902911A - 基于单目相机的测距方法、装置、设备及存储介质 - Google Patents
基于单目相机的测距方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN112902911A CN112902911A CN201911218153.2A CN201911218153A CN112902911A CN 112902911 A CN112902911 A CN 112902911A CN 201911218153 A CN201911218153 A CN 201911218153A CN 112902911 A CN112902911 A CN 112902911A
- Authority
- CN
- China
- Prior art keywords
- distance
- target
- target object
- current frame
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/10—Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument
- G01C3/12—Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument with monocular observation at a single point, e.g. coincidence type
Landscapes
- Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Traffic Control Systems (AREA)
- Measurement Of Optical Distance (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于单目相机的测距方法、装置、设备及存储介质。该方法包括:实时获取可移动终端设备在道路中行驶时拍摄的道路影像,根据道路影像的当前帧,得到第一目标距离,该第一目标距离用于表示当前帧中待测距的目标物体与可移动的终端设备的纵向距离,根据当前帧中目标物体的图像数据,预先存储的参考帧中目标物体的图像数据和预先获取的加权融合系数,对第一目标距离进行加权融合,得到加权融合后的第二目标距离,通过目标物体在不同图像帧中的变化情况对测得的第一目标距离进行加权融合,在复杂的路况中,也能得到准确的测距结果。
Description
技术领域
本发明涉及机器视觉测距领域,尤其涉及一种基于单目相机的测距方法、装置、设备及存储介质。
背景技术
视觉测距作为机器视觉领域内重要技术之一而受到广泛的关注,其在机器人和无人驾驶领域的应用中占有重要的地位,广泛应用于机器视觉定位、视觉避障等。机器视觉测量主要分为:单目视觉测量、双目视觉测量、结构光视觉测量等。其中,单目视觉测量因架构简单,运算速度快而具有广阔的应用前景。
现有技术中,基于单目相机的测距主要采用两种方式,方式一是基于消影线的三角测距,方式二是尺度测距。方式一通过计算出测距点以及相机的消影线直接计算出距离,对于一些比较平坦的高速等场景测距比较准确;方式二根据待测距目标的物理宽度、成像宽度以及相机焦距计算得到距离,通常能够获得一个距离的参考值。
然而,方式一,在路况比较复杂的场景中,比如上坡、下坡、颠簸路段等,通过单一的消影线不能准确获取距离;并且,方式二的尺度测距往往不能准确获取待测距目标的物理宽度,而导致测距结果的不准确,可见,现有技术均不能对前方物体距离机器人本身或者车辆本身的距离进行准确的测量。
发明内容
本发明提供一种基于单目相机的测距方法、装置、设备及存储介质,在复杂路况下,也能对前方目标物体进行准确的测距。
第一方面,本发明提供一种基于单目相机的测距方法,应用于测距装置,所述测距装置安装于所述可移动的终端设备的内部,包括:
实时获取所述可移动终端设备在道路中行驶时拍摄的道路影像;
根据所述道路影像的当前帧,得到第一目标距离,所述第一目标距离用于表示所述当前帧中待测距的目标物体与所述可移动的终端设备的纵向距离;
根据所述当前帧中所述目标物体的图像数据,预先存储的参考帧数据和预先获取的加权融合系数,对所述第一目标距离进行加权融合,得到加权融合后的第二目标距离;所述参考帧数据包括所述目标物体在参考帧中的图像数据和所述参考帧中所述目标物体与所述可移动的终端设备的纵向距离。
在一种具体的实现方式中,所述根据所述道路影像的当前帧,得到第一目标距离,包括:
获取所述道路影像的当前帧的至少一条消影线;
获取所述当前帧中测距点的位置,所述测距点为所述目标物体与地面的交线上的一点;
根据所述至少一条消影线和所述测距点的位置,通过三角测距,计算得到所述第一目标距离。
在一种具体的实现方式中,所述根据所述当前帧中所述目标物体的图像数据,预先存储的参考帧数据和预先获取的加权融合系数,对所述第一目标距离进行加权融合,得到加权融合后的第二目标距离,包括:
根据所述当前帧中所述目标物体的图像数据,获取所述目标物体的第一目标尺寸;
根据所述参考帧数据中所述目标物体的第二目标尺寸和所述第一目标尺寸,得到尺寸变化率;
根据所述尺寸变化率、所述参考帧数据中所述目标物体与所述可移动的终端设备的纵向距离和预先获取的加权融合系数,对所述第一目标距离进行加权融合,得到加权融合后的第二目标距离。
在一种具体的实现方式中,所述方法还包括:
根据所述当前帧中所述目标物体的图像数据,获取尺度测距结果;
根据预设的尺度测距浮动范围,确定所述尺度测距结果的上限阈值和下限阈值;
确定所述第二目标距离是否处于所述上限阈值和所述下限阈值之间;
若所述第二目标距离处于所述上限阈值和所述下限阈值之间,则将所述第二目标距离作为第四目标距离;
若所述第二目标距离大于所述上限阈值,则将所述上限阈值作为第四目标距离;
若所述第二目标距离小于所述下限阈值,则将所述下限阈值最为第四目标距离。
可选的,所述获取道路影像的当前帧的至少一条消影线,包括:
根据深度学习算法,对所述当前帧的图像数据进行路面分割,得到具有多个分割区域的图像数据;
根据每个分割区域的车道线,获取每个分割区域的消影线。
可选的,所述根据所述至少一条消影线和所述测距点的位置,通过三角测距,计算得到第一目标距离,包括:
根据所述至少一条消影线,得到所述测距装置的俯仰角;
根据所述俯仰角、所述测距点的位置,结合所述测距装置的设置参数,通过三角测距,计算得到第一目标距离;
其中,所述测距装置的设置参数包括:安装高度、偏转角、相机焦距、光心坐标。
进一步地,所述根据所述当前帧中所述目标物体的图像数据,获取尺度测距结果,包括:
获取所述目标物体在所述当前帧中的成像宽度;
根据所述成像宽度、所述目标物体的物理宽度和所述测距装置的相机焦距,计算得到所述尺度测距结果。
第二方面,本发明提供一种测距装置,包括:
获取模块,用于实时获取所述可移动终端设备在道路中行驶时拍摄的道路影像;
处理模块,用于根据所述道路影像的当前帧,得到第一目标距离,所述第一目标距离用于表示所述当前帧中待测距的目标物体与所述可移动的终端设备的纵向距离;
所述处理模块还用于根据所述当前帧中所述目标物体的图像数据,预先存储的参考帧数据和预先获取的加权融合系数,对所述第一目标距离进行加权融合,得到加权融合后的第二目标距离;所述参考帧数据包括所述目标物体在参考帧中的图像数据和所述参考帧中所述目标物体与所述可移动的终端设备的纵向距离。
在一种具体的实现方式中,
所述获取模块还用于获取所述道路影像的当前帧的至少一条消影线;
所述获取模块还用于获取所述当前帧中测距点的位置,所述测距点为所述目标物体与地面的交线上的一点;
所述处理模块还用于根据所述至少一条消影线和所述测距点的位置,通过三角测距,计算得到所述第一目标距离。
在一种具体的实现方式中,所述处理模块具体用于:
根据所述当前帧中所述目标物体的图像数据,获取所述目标物体的第一目标尺寸;
根据所述参考帧数据中所述目标物体的第二目标尺寸和所述第一目标尺寸,得到尺寸变化率;
根据所述尺寸变化率、所述参考帧数据中所述目标物体与所述可移动的终端设备的纵向距离和预先获取的加权融合系数,对所述第一目标距离进行加权融合,得到加权融合后的第二目标距离。
在一种具体的实现方式中,所述处理模块还用于:
根据所述当前帧中所述目标物体的图像数据,获取尺度测距结果;
根据预设的尺度测距浮动范围,确定所述尺度测距结果的上限阈值和下限阈值;
确定所述第二目标距离是否处于所述上限阈值和所述下限阈值之间;
若所述第二目标距离处于所述上限阈值和所述下限阈值之间,则将所述第二目标距离作为第四目标距离;
若所述第二目标距离大于所述上限阈值,则将所述上限阈值作为第四目标距离;
若所述第二目标距离小于所述下限阈值,则将所述下限阈值最为第四目标距离。
可选的,所述获取模块具体用于:
根据深度学习算法,对所述当前帧的图像数据进行路面分割,得到具有多个分割区域的图像数据;
根据每个分割区域的车道线,获取每个分割区域的消影线。
可选的,所述处理模块具体用于:
根据所述至少一条消影线,得到所述测距装置的俯仰角;
根据所述俯仰角、所述测距点的位置,结合所述测距装置的设置参数,通过三角测距,计算得到第一目标距离;
其中,所述测距装置的设置参数包括:安装高度、偏转角、相机焦距、光心坐标。
进一步地,所述处理模块具体用于:
获取所述目标物体在所述当前帧中的成像宽度;
根据所述成像宽度、所述目标物体的物理宽度和所述测距装置的相机焦距,计算得到所述尺度测距结果。
第三方面,本发明提供一种可移动的终端设备,包括:如第二方面所述的测距装置、存储器及处理器;
所述存储器存储计算机执行指令;
所述处理器执行所述存储器存储的计算机执行指令,使得所述处理器执行如第一方面所述的基于单目相机的测距方法。
第四方面,本发明提供一种存储介质,包括:可读存储介质和计算机程序,所述计算机程序用于实现第一方面所述的基于单目相机的测距方法。
本发明实施例提供的一种基于单目相机的测距方法、装置、设备及存储介质,通过实时获取可移动终端设备在道路中行驶时拍摄的道路影像,根据道路影像的当前帧,得到第一目标距离,该第一目标距离用于表示当前帧中待测距的目标物体与可移动的终端设备的纵向距离,根据当前帧中目标物体的图像数据,预先存储的参考帧中目标物体的图像数据和预先获取的加权融合系数,对第一目标距离进行加权融合,得到加权融合后的第二目标距离,通过目标物体在不同图像帧中的变化情况对测得的第一目标距离进行加权融合,在复杂的路况中,也能得到准确的测距结果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种基于单目相机的测距方法实施例一的流程示意图;
图2为本发明实施例提供的一种基于单目相机的测距方法实施例二的流程示意图;
图3为本发明实施例提供的一种获取消影线实施例的示意图;
图4为本发明实施例提供的一种车头检测框和车尾检测框的示意图;
图5为本发明提供的一种检测框的尺寸缩放效果示意图;
图6为本发明实施例提供的一种基于单目相机的测距方法实施例三的流程示意图;
图7为本发明实施例提供的一种基于单目相机的测距方法实施例四的流程示意图;
图8为本发明实施例提供的一种基于单目相机的测距方法实施例五的流程示意图;
图9为本发明实施例提供的一种基于单目相机的测距方法实施例六的流程示意图;
图10为本发明实施例提供的一种测距装置实施例一的结构示意图;
图11为本发明一实施例提供的可移动的终端设备的硬件结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本文中使用的术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
本发明的说明书中通篇提到的“一实施例”或“另一实施例”意味着与实施例有关的特定特征、结构或特性包括在本申请的至少一个实施例中。因此,在整个说明书各处出现的“在一实施例中”或“本实施例中”未必一定指相同的实施例。需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
本发明的执行主体为一种可移动的终端设备,该终端设备以是一种车载设备,或者,可以是一种智能车辆系统,例如无人驾驶车辆,或者,可以是一种智能机器人,或者还可以是手机、笔记本、平板、智能可穿戴产品、道路检测设备等任一具有单目相机的可移动的终端设备。
本发明提供一种基于单目相机的测距方法,能够在任意路况的路面进行准确的测距,下面通过几个具体的实施例进行说明。
图1为本发明实施例提供的一种基于单目相机的测距方法实施例一的流程示意图,如图1所示,该基于单目相机的测距方法包括:
S101:实时获取可移动终端设备在道路中行驶时拍摄的道路影像。
可移动终端设备可通过安装在自身设备中的或者通过与自身设备连接的单目相机实时拍摄获取道路行驶中的道路影像,或者可以是接收其他设备发送的道路影像。
S102:根据道路影像的当前帧,得到第一目标距离。
其中,第一目标距离用于表示当前帧中待测距的目标物体与可移动的终端设备的纵向距离。
道路影像包括多个图像帧,当前帧可以是多个图像帧中的任意一帧,当前帧中的目标物体包括可移动终端设备周围的车辆、行人、路障等至少一种道路中的物体。
在本步骤中,根据当前帧,具体可以是根据当前帧中的图像数据,通过计算得到当前帧中待测距的目标物体与可移动的终端设备的纵向距离,该纵向距离为坐标系中的距离表示,相当于实际道路场景中的可移动终端设备与前方或者后方的目标物体的前后距离。
S103:根据当前帧中目标物体的图像数据,预先存储的参考帧数据和预先获取的加权融合系数,对第一目标距离进行加权融合,得到加权融合后的第二目标距离。
其中,参考帧数据包括目标物体在参考帧中的图像数据和参考帧中目标物体与可移动的终端设备的纵向距离。
一般来说,参考帧为本方案中道路影像中的一个图像帧,可选的,参考帧可以是当前帧的前一帧或者当前帧之前的任一帧,通过对比参考帧中目标物体的图像数据和当前帧中目标物体的图像数据,能够得到目标物体的变化情况,例如目标物体在不同图像帧中的尺寸变化,根据目标物体的变化情况,利用参考帧中目标物体与可移动的终端设备的纵向距离和加权融合系数,对第一目标距离进行加权融合,实现对第一目标距离的修正,以得到更加准确的第二目标距离,提高了测距结果的准确性。本方案在当前帧是第一帧的情况下,可以不存在参考帧,即对第一帧中的目标物体进行测距时可以不进行本步骤的加权融合。
可选的,加权融合系数为预先经过试验得到的。
本发明实施例提供的一种基于单目相机的测距方法,通过实时获取可移动终端设备在道路中行驶时拍摄的道路影像,根据道路影像的当前帧,得到第一目标距离,该第一目标距离用于表示当前帧中待测距的目标物体与可移动的终端设备的纵向距离,根据当前帧中目标物体的图像数据,预先存储的参考帧中目标物体的图像数据和预先获取的加权融合系数,对第一目标距离进行加权融合,得到加权融合后的第二目标距离,通过目标物体在不同图像帧中的变化情况对测得的第一目标距离进行加权融合,在复杂的路况中,也能得到准确的测距结果。
在图1所示实施例的基础上,图2为本发明实施例提供的一种基于单目相机的测距方法实施例二的流程示意图,如图2所示,根据道路影像的当前帧,得到第一目标距离,包括:
S1021:获取道路影像的当前帧的至少一条消影线。
一般来说,当前帧中包含有道路中的车道线,如图3所示,图3为本发明实施例提供的一种获取消影线实施例的示意图,行车道两侧有两条车道线,分别做两条车道线的平行线,两条平行线相交于一点,则得到消影点,进而得到一条经过消影点的水平的消影线。
进一步地,当路况复杂时,例如上坡、下坡、弯道、颠簸路段中,在图像帧中呈现的车道线不是一条平直的线,而是呈现出弧形的线,此时,仅获取一条消影线则不能满足对目标物体距离的准确计算,因此,可将当前帧划分为多个区域,根据每个区域内的车道线,获取水平的消影线。
综上所述,根据路况的不同,可获取一条至多条消影线,以便于后续步骤基于至少一条消影线进行准确的测距。
S1022:获取当前帧中测距点的位置。
所述测距点为当前帧中待测距的目标物体与地面的交线上的一点。
在本步骤中,当前帧中待测距的目标物体与地面相接触形成一条交线,将交线上的任一点作为当前帧中的测距点,可选的,将交线的中点作为测距点,并确定该测距点的位置,例如,确定该测距点在图像坐标系中的坐标(u,v)。
在一种具体的实现方式中,图4为本发明实施例提供的一种车头检测框和车尾检测框的示意图,如图4所示,对当前帧中的待测距的目标物体进行检测,得到目标物体的检测框,该检测框可以是车头检测框、车尾检测框、人物检测框、路障检测框等等,进而,可将检测框与地面交线上的一点作为测距点。在一些实施例中,若检测框与路面没有相交,或者检测框与路面的交线超出了目标物体的范围,则调整检测框进行尺寸缩放,使检测框调整为包含目标物体的最小尺寸,并与地面相交,参见图5,图5为本发明提供的一种检测框的尺寸缩放效果示意图。
S1023:根据至少一条消影线和测距点的位置,通过三角测距,计算得到第一目标距离。
所述第一目标距离用于表示所述当前帧中所述待测距的目标物体与所述可移动的终端设备的纵向距离。
在本步骤中,根据至少一条消影线和测距点的位置,通过三角测距,计算得到测距点的位置在世界坐标系中的世界坐标,世界坐标中测距点距离可移动的终端设备的纵向距离,即待测距的目标物体与可移动的终端设备的纵向距离,为第一目标距离。
在一种示例中,测距点的位置在世界坐标系中的世界坐标为(xw,yw),xw为测距点距离可移动的终端设备的水平距离,yw为测距点距离可移动终端设备的纵向距离,即yw为第一目标距离。
本实施例中,通过设计至少一条消影线,使得在复杂路况下,也能对待测距的目标物体进行准确的测距。
图6为本发明实施例提供的一种基于单目相机的测距方法实施例三的流程示意图,如图6所示,在一种具体的实现方式中,获取所述当前帧的测距点的位置,具体包括以下步骤:
S121:检测当前帧中目标物体的图像数据。
在本步骤中,检测获取当前帧中目标物体的图像数据,例如,检测车辆的车头或车尾、行人、路障等的图像数据。
可选的,获取的目标物体的图像数据,可以包括检测框信息,如车头检测框、车尾检测框、人物检测框、路障检测框等等中的至少一种。该检测框信息用于标注目标物体的边界。
S122:根据目标物体的图像数据,获取测距点的位置。
在本步骤中,根据目标物体的图像数据,得到目标物体与路面的交线,取交线上的一点作为测距点,可选的,该测距点可以是交线的中点,可选的,测距点的位置可通过图像坐标系的坐标表示,例如(u,v)。
在一种具体的实现方式中,在步骤S121中获取的目标物体的图像数据包括了检测框信息,而检测框信息包括了对目标物体的下边界的标注,相当于目标物体与路面的交线,因此,可根据检测框信息获取测距点的位置。
本实施例中,通过检测当前帧中目标物体的图像数据,并根据目标物体的图像数据,获取测距点的位置,实现了对测距点的准确获取,以便后续基于测距点完成测距的计算。
在上述实施例的基础上,图7为本发明实施例提供的一种基于单目相机的测距方法实施例四的流程示意图,如图7所示,该方法还包括以下步骤:
S201:根据当前帧中目标物体的图像数据,获取目标物体的第一目标尺寸。
在本步骤中,根据当前帧中目标物体的图像数据,获取目标物体的第一目标尺寸Z1,例如,目标物体为车辆的车尾或者车头时,第一目标尺寸Z1可以理解为车尾部或者车头部在当前帧中呈现的尺寸。
S202:根据参考帧数据中目标物体的第二目标尺寸和所述第一目标尺寸,得到尺寸变化率。
参考帧中目标物体的第二目标尺寸Z0的获取方法与当前帧中目标物体的第一目标尺寸Z1的获取过程类似,此处不再赘述。
在本步骤中,根据预先存储的参考帧中目标物体的第二目标尺寸Z0和第一目标尺寸Z1,得到尺寸变化率,尺寸变化率具体可以是Z0/Z1。
S203:根据尺寸变化率、参考帧数据中目标物体与可移动的终端设备的纵向距离和预先获取的加权融合系数,对第一目标距离进行加权融合,得到加权融合后的第二目标距离。
其中,参考帧数据中目标物体与可移动的终端设备的纵向距离D0为预先获取并存储的目标物体距离可移动的终端设备的纵向距离,参考帧数据中目标物体与可移动的终端设备的纵向距离D0的获取与本方案任一实施例所述的基于单目相机的测距方法类似,此处不再赘述。
加权融合系数α是预先通过试验获取的,在本步骤中,根据尺寸变化率Z0/Z1,参考帧数据中目标物体与可移动的终端设备的纵向距离D0,预先获取的加权融合系数α,通过公式(1),对第一目标距离yw,进行加权融合,得到加权融合后的第二目标距离D1。
D1=D0*Z0/Z1*α+(1-α)*yw (1)
本实施例中,根据参考帧数据中的目标物体的第二目标尺寸和当前帧中的目标物体的第一目标尺寸的比值得到尺寸变化率,并根据尺寸变化率,参考帧数据中目标物体与可移动的终端设备的纵向距离以及经过试验得到的加权融合系数,对第一目标距离进行加权融合,得到更可靠的第二目标距离,提高了测距结果的准确性。
在上述实施例的基础上,图8为本发明实施例提供的一种基于单目相机的测距方法实施例五的流程示意图,如图8所示,该方法还包括以下步骤:
S301:根据当前帧中目标物体的图像数据,获取尺度测距结果。
本领域技术人员应理解,该尺度测距结果为一种准确度较低但稳定性较高的测距结果,通过尺度测距结果可以对稳定性较差的三角测距结果进行约束。
在一种具体的实现方式中,图9为本发明实施例提供的一种基于单目相机的测距方法实施例六的流程示意图,如图9所示,根据当前帧中目标物体的图像数据,获取尺度测距结果,具体包括:
S3011:获取目标物体在当前帧中的成像宽度。
根据当前帧中目标物体的图像数据,获取目标物体在当前帧中的成像宽度w_ccd,具体可通过图像数据中的目标物体的宽度换算得到w_ccd,可选的,该成像宽度w_ccd为电荷耦合元件(Charge-coupled Device,CCD)成像宽度。
S3012:根据成像宽度、目标物体的物理宽度和测距装置的相机焦距,计算得到尺度测距结果。
其中,目标物体的物理宽度W为目标物体的实际宽度,例如,目标物体为卡车时,假设卡车的实际车辆宽度为2.3米,则物理宽度为2.3米,目标物体与目标物体的物理宽度W可以是预先设置的。
在本步骤中,根据成像宽度w_ccd,目标物体的物理宽度W和测距装置的相机焦距f,通过公式(2)计算得到尺度测距结果D。
D=f*W/w_ccd (2)
S302:根据预设的尺度测距浮动范围,确定尺度测距结果的上限阈值和下限阈值。
在实际应用中,由于尺度测距的准确性较低,则根据实际应用环境,预设置尺度测距结果的浮动范围,并根据预设的尺度测距浮动范围,确定尺度测距结果的上限阈值和下限阈值。例如,预设的尺度测距浮动范围为向上且向下浮动20%,假设尺度测距结果为20m,则该尺度测距结果的浮动范围为16m至24m,即上限阈值为24m,下限阈值为24m。
S303:确定第二目标距离是否处于上限阈值和下限阈值之间。
因三角测距结果的稳定性较差,例如在可移动的终端设备受路况影响发生严重的颠簸时,三角测距的结果容易受到影响,为了克服因三角测距技术本身带来的测距偏差,本方案将基于三角测距得到的第二目标距离与上限阈值和下限阈值进行比较,确定第二目标距离是否处于上限阈值和下限阈值之间,若从处于上限阈值和下限阈值之间,则表明第二目标距离是可靠的测距结果,否则,表明第二目标距离不是可靠的测距结果。
S304:若第二目标距离处于上限阈值和下限阈值之间,则将第二目标距离作为第四目标距离。
S305:若第二目标距离大于上限阈值,则将上限阈值作为第四目标距离。
S306:若第二目标距离小于下限阈值,则将下限阈值最为第四目标距离。
在步骤S304至步骤S306中,若第二目标距离处于上限阈值和下限阈值之间,则表明第二目标距离是可靠的测距结果,将第二目标距离作为第四目标距离;若第二目标距离大于上限阈值,则表明第二目标距离不是可靠的测距结果,将尺度测距结果的上限阈值作为第四目标距离,将更能准确反映目标物体与可移动的终端设备的纵向距离;类似的,若第二目标距离小于下限阈值,则表明第二目标距离不是可靠的测距结果,将尺度测距结果的下限阈值作为第四目标距离,将更能准确反映目标物体与可移动的终端设备的纵向距离。第四目标距离相对于第二目标距离来说,是更加可靠且准确的测试结果。
S307:通过卡尔曼滤波(Kalman filtering)对第四目标距离进行平滑处理,并输出第四目标距离。
在本步骤中,将第四目标距离输入Kalman滤波,对第四目标距离进行平滑处理,并将处理后的第四目标距离作为最终的测距结果进行输出。
本实施例中,通过尺度测距结果,对第二目标距离进行约束,以克服三角测距技术本身带来的测距偏差,得到第四目标距离,并对第四目标距离进行Kalman滤波,最终输出可靠且稳定的测距结果。
在一种具体的实现方式中,获取道路影像的当前帧的至少一条消影线,包括:根据深度学习算法,对当前帧的图像数据进行路面分割,得到具有多个分割区域的图像数据;根据每个分割区域的车道线,获取每个分割区域的消影线。参见图2,当路况复杂时,例如上坡、下坡、弯道、颠簸路段中,车道线不是平直的线,而是呈现出弧形的线,此时,仅获取一条消影线则不能满足对目标物体距离的准确计算,因此,根据深度学习算法将当前帧划分为多个区域,在可移动的终端设备至待测距的目标物体之间横向划分多个区域,根据每个区域内的车道线,获取水平的消影线,例如,图3所示的区域1的实线消影线,以及区域2的虚线消影线。
在一种具体的实现方式中,根据至少一条消影线和测距点的位置,通过三角测距,计算得到第一目标距离yw,包括:根据至少一条消影线,得到测距装置的俯仰角θ;根据俯仰角θ、测
距点的位置,结合测距装置的设置参数,通过三角测距(公式(3)),计算得到第一目标距离yw;其中,测距装置的设置参数包括:安装高度H、偏转角β、相机焦距(fx,fy)、相机的光心坐标(u0,v0)。
图10为本发明实施例提供的一种测距装置实施例一的结构示意图,如图10所示,该测距装置10包括:
获取模块11,用于实时获取所述可移动终端设备在道路中行驶时拍摄的道路影像;
处理模块12,用于根据所述道路影像的当前帧,得到第一目标距离,所述第一目标距离用于表示所述当前帧中待测距的目标物体与所述可移动的终端设备的纵向距离;
所述处理模块12还用于根据所述当前帧中所述目标物体的图像数据,预先存储的参考帧数据和预先获取的加权融合系数,对所述第一目标距离进行加权融合,得到加权融合后的第二目标距离;所述参考帧数据包括所述目标物体在参考帧中的图像数据和所述参考帧中所述目标物体与所述可移动的终端设备的纵向距离。
本实施例提供的一种测距装置10包括:获取模块11和处理模块12,通过实时获取可移动终端设备在道路中行驶时拍摄的道路影像,根据道路影像的当前帧,得到第一目标距离,该第一目标距离用于表示当前帧中待测距的目标物体与可移动的终端设备的纵向距离,根据当前帧中目标物体的图像数据,预先存储的参考帧中目标物体的图像数据和预先获取的加权融合系数,对第一目标距离进行加权融合,得到加权融合后的第二目标距离,通过目标物体在不同图像帧中的变化情况对测得的第一目标距离进行加权融合,在复杂的路况中,也能得到准确的测距结果。
在一种可能的设计中,所述获取模块11还用于获取所述道路影像的当前帧的至少一条消影线;
所述获取模块11还用于获取所述当前帧中测距点的位置,所述测距点为所述目标物体与地面的交线上的一点;
所述处理模块12还用于根据所述至少一条消影线和所述测距点的位置,通过三角测距,计算得到所述第一目标距离。
在一种可能的设计中,所述处理模块12具体用于:
根据所述当前帧中所述目标物体的图像数据,获取所述目标物体的第一目标尺寸;
根据所述参考帧数据中所述目标物体的第二目标尺寸和所述第一目标尺寸,得到尺寸变化率;
根据所述尺寸变化率、所述参考帧数据中所述目标物体与所述可移动的终端设备的纵向距离和预先获取的加权融合系数,对所述第一目标距离进行加权融合,得到加权融合后的第二目标距离。
在一种可能的设计中,所述处理模块12还用于:
根据所述当前帧中所述目标物体的图像数据,获取尺度测距结果;
根据预设的尺度测距浮动范围,确定所述尺度测距结果的上限阈值和下限阈值;
确定所述第二目标距离是否处于所述上限阈值和所述下限阈值之间;
若所述第二目标距离处于所述上限阈值和所述下限阈值之间,则将所述第二目标距离作为第四目标距离;
若所述第二目标距离大于所述上限阈值,则将所述上限阈值作为第四目标距离;
若所述第二目标距离小于所述下限阈值,则将所述下限阈值最为第四目标距离。
在一种可能的设计中,所述获取模块11具体用于:
根据深度学习算法,对所述当前帧的图像数据进行路面分割,得到具有多个分割区域的图像数据;
根据每个分割区域的车道线,获取每个分割区域的消影线。
在一种可能的设计中,所述处理模块12具体用于:
根据所述至少一条消影线,得到所述测距装置的俯仰角;
根据所述俯仰角、所述测距点的位置,结合所述测距装置的设置参数,通过三角测距,计算得到第一目标距离;
其中,所述测距装置的设置参数包括:安装高度、偏转角、相机焦距、光心坐标。
在一种可能的设计中,所述处理模块12具体用于:
获取所述目标物体在所述当前帧中的成像宽度;
根据所述成像宽度、所述目标物体的物理宽度和所述测距装置的相机焦距,计算得到所述尺度测距结果。
本实施例提供的测距装置,可以执行上述方法实施例的技术方案,其实现原理和技术效果类似,本实施例此处不再赘述。
本发明实施例还提供一种可移动的终端设备,参见图11,本发明实施例仅以图11为例进行说明,并不表示本发明仅限于此。
图11为本发明一实施例提供的可移动的终端设备的硬件结构示意图。本实施例提供的可移动的终端设备包括但不限于车载设备、无人驾驶车辆、移动电话、计算机、平板设备、智能测距设备、个人数字助理等。
如图11所示,本实施例提供的终端设备20可以包括:存储器201、处理器202以及测距装置204;可选的,还可以包括总线203。其中,总线203用于实现各元件之间的连接。
所述存储器201存储计算机执行指令;
所述处理器202执行所述存储器201存储的计算机执行指令,使得所述处理器执行前述任一项实施例提供的基于单目相机的测距方法。
其中,存储器201和处理器202之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可以通过一条或者多条通信总线或信号线实现电性连接,如可以通过总线203连接。存储器201中存储有实现数据访问控制方法的计算机执行指令,包括至少一个可以软件或固件的形式存储于存储器201中的软件功能模块,处理器202通过运行存储在存储器201内的软件程序以及模块,从而执行各种功能应用以及数据处理。
存储器201可以是,但不限于,随机存取存储器(Random Access Memory,简称:RAM),只读存储器(Read Only Memory,简称:ROM),可编程只读存储器(ProgrammableRead-Only Memory,简称:PROM),可擦除只读存储器(Erasable Programmable Read-OnlyMemory,简称:EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-Only Memory,简称:EEPROM)等。其中,存储器201用于存储程序,处理器202在接收到执行指令后,执行程序。进一步地,上述存储器201内的软件程序以及模块还可包括操作系统,其可包括各种用于管理系统任务(例如内存管理、存储设备控制、电源管理等)的软件组件和/或驱动,并可与各种硬件或软件组件相互通信,从而提供其他软件组件的运行环境。
处理器202可以是一种集成电路芯片,具有信号的处理能力。上述的处理器202可以是通用处理器,包括中央处理器(Central Processing Unit,简称:CPU)、网络处理器(Network Processor,简称:NP)等。可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。可以理解,图11的结构仅为示意,还可以包括比图11中所示更多或者更少的组件,或者具有与图11所示不同的配置。图11中所示的各组件可以采用硬件和/或软件实现。
本发明实施例还提供一种计算机可读存储介质,其上存储有计算机执行指令,计算机执行指令被处理器执行时可以实现上述任一方法实施例提供的基于单目相机的测距方法。
本实施例中的计算机可读存储介质可以是计算机能够存取的任何可用介质,或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备,可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如SSD)等。
本领域普通技术人员可以理解:实现上述各方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成。前述的程序可以存储于一计算机可读取存储介质中。该程序在执行时,执行包括上述各方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (16)
1.一种基于单目相机的测距方法,应用于测距装置,所述测距装置安装于所述可移动的终端设备的内部,其特征在于,包括:
实时获取所述可移动终端设备在道路中行驶时拍摄的道路影像;
根据所述道路影像的当前帧,得到第一目标距离,所述第一目标距离用于表示所述当前帧中待测距的目标物体与所述可移动的终端设备的纵向距离;
根据所述当前帧中所述目标物体的图像数据,预先存储的参考帧数据和预先获取的加权融合系数,对所述第一目标距离进行加权融合,得到加权融合后的第二目标距离;所述参考帧数据包括所述目标物体在参考帧中的图像数据和所述参考帧中所述目标物体与所述可移动的终端设备的纵向距离。
2.根据权利要求1所述的方法,其特征在于,所述根据所述道路影像的当前帧,得到第一目标距离,包括:
获取所述道路影像的当前帧的至少一条消影线;
获取所述当前帧中测距点的位置,所述测距点为所述目标物体与地面的交线上的一点;
根据所述至少一条消影线和所述测距点的位置,通过三角测距,计算得到所述第一目标距离。
3.根据权利要求1所述的方法,其特征在于,所述根据所述当前帧中所述目标物体的图像数据,预先存储的参考帧数据和预先获取的加权融合系数,对所述第一目标距离进行加权融合,得到加权融合后的第二目标距离,包括:
根据所述当前帧中所述目标物体的图像数据,获取所述目标物体的第一目标尺寸;
根据所述参考帧数据中所述目标物体的第二目标尺寸和所述第一目标尺寸,得到尺寸变化率;
根据所述尺寸变化率、所述参考帧数据中所述目标物体与所述可移动的终端设备的纵向距离和预先获取的加权融合系数,对所述第一目标距离进行加权融合,得到加权融合后的第二目标距离。
4.根据权利要求1至3任一项所述的方法,其特征在于,所述方法还包括:
根据所述当前帧中所述目标物体的图像数据,获取尺度测距结果;
根据预设的尺度测距浮动范围,确定所述尺度测距结果的上限阈值和下限阈值;
确定所述第二目标距离是否处于所述上限阈值和所述下限阈值之间;
若所述第二目标距离处于所述上限阈值和所述下限阈值之间,则将所述第二目标距离作为第四目标距离;
若所述第二目标距离大于所述上限阈值,则将所述上限阈值作为第四目标距离;
若所述第二目标距离小于所述下限阈值,则将所述下限阈值最为第四目标距离。
5.根据权利要求2所述的方法,其特征在于,所述获取道路影像的当前帧的至少一条消影线,包括:
根据深度学习算法,对所述当前帧的图像数据进行路面分割,得到具有多个分割区域的图像数据;
根据每个分割区域的车道线,获取每个分割区域的消影线。
6.根据权利要求2或5所述的方法,其特征在于,所述根据所述至少一条消影线和所述测距点的位置,通过三角测距,计算得到第一目标距离,包括:
根据所述至少一条消影线,得到所述测距装置的俯仰角;
根据所述俯仰角、所述测距点的位置,结合所述测距装置的设置参数,通过三角测距,计算得到第一目标距离;
其中,所述测距装置的设置参数包括:安装高度、偏转角、相机焦距、光心坐标。
7.根据权利要求4所述的方法,其特征在于,所述根据所述当前帧中所述目标物体的图像数据,获取尺度测距结果,包括:
获取所述目标物体在所述当前帧中的成像宽度;
根据所述成像宽度、所述目标物体的物理宽度和所述测距装置的相机焦距,计算得到所述尺度测距结果。
8.一种测距装置,其特征在于,包括:
获取模块,用于实时获取所述可移动终端设备在道路中行驶时拍摄的道路影像;
处理模块,用于根据所述道路影像的当前帧,得到第一目标距离,所述第一目标距离用于表示所述当前帧中待测距的目标物体与所述可移动的终端设备的纵向距离;
所述处理模块还用于根据所述当前帧中所述目标物体的图像数据,预先存储的参考帧数据和预先获取的加权融合系数,对所述第一目标距离进行加权融合,得到加权融合后的第二目标距离;所述参考帧数据包括所述目标物体在参考帧中的图像数据和所述参考帧中所述目标物体与所述可移动的终端设备的纵向距离。
9.根据权利要求8所述的装置,其特征在于,
所述获取模块还用于获取所述道路影像的当前帧的至少一条消影线;
所述获取模块还用于获取所述当前帧中测距点的位置,所述测距点为所述目标物体与地面的交线上的一点;
所述处理模块还用于根据所述至少一条消影线和所述测距点的位置,通过三角测距,计算得到所述第一目标距离。
10.根据权利要求8所述的装置,其特征在于,所述处理模块具体用于:
根据所述当前帧中所述目标物体的图像数据,获取所述目标物体的第一目标尺寸;
根据所述参考帧数据中所述目标物体的第二目标尺寸和所述第一目标尺寸,得到尺寸变化率;
根据所述尺寸变化率、所述参考帧数据中所述目标物体与所述可移动的终端设备的纵向距离和预先获取的加权融合系数,对所述第一目标距离进行加权融合,得到加权融合后的第二目标距离。
11.根据权利要求8至10任一项所述的装置,其特征在于,所述处理模块还用于:
根据所述当前帧中所述目标物体的图像数据,获取尺度测距结果;
根据预设的尺度测距浮动范围,确定所述尺度测距结果的上限阈值和下限阈值;
确定所述第二目标距离是否处于所述上限阈值和所述下限阈值之间;
若所述第二目标距离处于所述上限阈值和所述下限阈值之间,则将所述第二目标距离作为第四目标距离;
若所述第二目标距离大于所述上限阈值,则将所述上限阈值作为第四目标距离;
若所述第二目标距离小于所述下限阈值,则将所述下限阈值最为第四目标距离。
12.根据权利要求9所述的装置,其特征在于,所述获取模块具体用于:
根据深度学习算法,对所述当前帧的图像数据进行路面分割,得到具有多个分割区域的图像数据;
根据每个分割区域的车道线,获取每个分割区域的消影线。
13.根据权利要求9或12所述的装置,其特征在于,所述处理模块具体用于:
根据所述至少一条消影线,得到所述测距装置的俯仰角;
根据所述俯仰角、所述测距点的位置,结合所述测距装置的设置参数,通过三角测距,计算得到第一目标距离;
其中,所述测距装置的设置参数包括:安装高度、偏转角、相机焦距、光心坐标。
14.根据权利要求11所述的装置,其特征在于,所述处理模块具体用于:
获取所述目标物体在所述当前帧中的成像宽度;
根据所述成像宽度、所述目标物体的物理宽度和所述测距装置的相机焦距,计算得到所述尺度测距结果。
15.一种可移动的终端设备,其特征在于,包括:如权利要求8至14任一项所述的测距装置、存储器及处理器;
所述存储器存储计算机执行指令;
所述处理器执行所述存储器存储的计算机执行指令,使得所述处理器执行如权利要求1至7任一项所述的基于单目相机的测距方法。
16.一种存储介质,其特征在于,包括:可读存储介质和计算机程序,所述计算机程序用于实现权利要求1至7任一项所述的基于单目相机的测距方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911218153.2A CN112902911B (zh) | 2019-12-03 | 2019-12-03 | 基于单目相机的测距方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911218153.2A CN112902911B (zh) | 2019-12-03 | 2019-12-03 | 基于单目相机的测距方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112902911A true CN112902911A (zh) | 2021-06-04 |
CN112902911B CN112902911B (zh) | 2023-06-20 |
Family
ID=76103786
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911218153.2A Active CN112902911B (zh) | 2019-12-03 | 2019-12-03 | 基于单目相机的测距方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112902911B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113607064A (zh) * | 2021-08-06 | 2021-11-05 | 广联达科技股份有限公司 | 目标物体的间距测算方法、装置、设备及可读存储介质 |
CN115507752A (zh) * | 2022-09-29 | 2022-12-23 | 苏州大学 | 基于平行环境元素的单目视觉测距方法和系统 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101907459A (zh) * | 2010-07-12 | 2010-12-08 | 清华大学 | 基于单目视频的实时三维刚体目标姿态估计与测距方法 |
US20110169917A1 (en) * | 2010-01-11 | 2011-07-14 | Shoppertrak Rct Corporation | System And Process For Detecting, Tracking And Counting Human Objects of Interest |
US20120106786A1 (en) * | 2009-05-19 | 2012-05-03 | Toyota Jidosha Kabushiki Kaisha | Object detecting device |
US20130182906A1 (en) * | 2011-06-14 | 2013-07-18 | Nissan Motor Co., Ltd. | Distance measurement device and environment map generation apparatus |
US20140078258A1 (en) * | 2012-09-17 | 2014-03-20 | Nec Laboratories America, Inc. | Real-time monocular visual odometry |
WO2014199929A1 (ja) * | 2013-06-11 | 2014-12-18 | ヤマハ発動機株式会社 | 単眼モーションステレオ距離推定方法および単眼モーションステレオ距離推定装置 |
CN107290738A (zh) * | 2017-06-27 | 2017-10-24 | 清华大学苏州汽车研究院(吴江) | 一种测量前方车辆距离的方法和装置 |
CN108088414A (zh) * | 2017-12-05 | 2018-05-29 | 苏州天瞳威视电子科技有限公司 | 一种单目测距方法 |
US20180165822A1 (en) * | 2016-12-08 | 2018-06-14 | Lighmetrics Technologies Pvt. Ltd. | Methods and systems for estimating distance of an object from a moving vehicle |
CN207611140U (zh) * | 2017-06-27 | 2018-07-13 | 清华大学苏州汽车研究院(吴江) | 一种测量前方车辆距离的装置 |
CN109141347A (zh) * | 2017-06-28 | 2019-01-04 | 京东方科技集团股份有限公司 | 车载摄像机测距方法及装置、存储介质和电子设备 |
US20190080481A1 (en) * | 2017-09-08 | 2019-03-14 | Kabushiki Kaisha Toshiba | Image processing apparatus and ranging apparatus |
-
2019
- 2019-12-03 CN CN201911218153.2A patent/CN112902911B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120106786A1 (en) * | 2009-05-19 | 2012-05-03 | Toyota Jidosha Kabushiki Kaisha | Object detecting device |
US20110169917A1 (en) * | 2010-01-11 | 2011-07-14 | Shoppertrak Rct Corporation | System And Process For Detecting, Tracking And Counting Human Objects of Interest |
CN101907459A (zh) * | 2010-07-12 | 2010-12-08 | 清华大学 | 基于单目视频的实时三维刚体目标姿态估计与测距方法 |
US20130182906A1 (en) * | 2011-06-14 | 2013-07-18 | Nissan Motor Co., Ltd. | Distance measurement device and environment map generation apparatus |
US20140078258A1 (en) * | 2012-09-17 | 2014-03-20 | Nec Laboratories America, Inc. | Real-time monocular visual odometry |
WO2014199929A1 (ja) * | 2013-06-11 | 2014-12-18 | ヤマハ発動機株式会社 | 単眼モーションステレオ距離推定方法および単眼モーションステレオ距離推定装置 |
US20180165822A1 (en) * | 2016-12-08 | 2018-06-14 | Lighmetrics Technologies Pvt. Ltd. | Methods and systems for estimating distance of an object from a moving vehicle |
CN107290738A (zh) * | 2017-06-27 | 2017-10-24 | 清华大学苏州汽车研究院(吴江) | 一种测量前方车辆距离的方法和装置 |
CN207611140U (zh) * | 2017-06-27 | 2018-07-13 | 清华大学苏州汽车研究院(吴江) | 一种测量前方车辆距离的装置 |
CN109141347A (zh) * | 2017-06-28 | 2019-01-04 | 京东方科技集团股份有限公司 | 车载摄像机测距方法及装置、存储介质和电子设备 |
US20190080481A1 (en) * | 2017-09-08 | 2019-03-14 | Kabushiki Kaisha Toshiba | Image processing apparatus and ranging apparatus |
CN108088414A (zh) * | 2017-12-05 | 2018-05-29 | 苏州天瞳威视电子科技有限公司 | 一种单目测距方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113607064A (zh) * | 2021-08-06 | 2021-11-05 | 广联达科技股份有限公司 | 目标物体的间距测算方法、装置、设备及可读存储介质 |
CN115507752A (zh) * | 2022-09-29 | 2022-12-23 | 苏州大学 | 基于平行环境元素的单目视觉测距方法和系统 |
CN115507752B (zh) * | 2022-09-29 | 2023-07-07 | 苏州大学 | 基于平行环境元素的单目视觉测距方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN112902911B (zh) | 2023-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107038723B (zh) | 棒状像素估计方法和系统 | |
CN113264066B (zh) | 障碍物轨迹预测方法、装置、自动驾驶车辆及路侧设备 | |
CN102782725B (zh) | 人行横道检测装置、人行横道检测方法 | |
CN112560684B (zh) | 车道线检测方法、装置、电子设备、存储介质以及车辆 | |
US10810749B2 (en) | Image processing apparatus, moving body device control system, computer-readable medium, and image processing method | |
CN113970734B (zh) | 路侧多线激光雷达降雪噪点去除方法、装置及设备 | |
Petrovai et al. | A stereovision based approach for detecting and tracking lane and forward obstacles on mobile devices | |
CN112902911B (zh) | 基于单目相机的测距方法、装置、设备及存储介质 | |
CN112927309A (zh) | 一种车载相机标定方法、装置、车载相机及存储介质 | |
CN114919584A (zh) | 机动车定点目标测距方法、装置及计算机可读存储介质 | |
CN114332487A (zh) | 基于图像的积水预警方法、装置、设备、存储介质及产品 | |
Leu et al. | High speed stereo vision based automotive collision warning system | |
CN111598097B (zh) | 一种基于机器人视觉的仪表位置、读数识别方法和系统 | |
US10643077B2 (en) | Image processing device, imaging device, equipment control system, equipment, image processing method, and recording medium storing program | |
CN111553342A (zh) | 一种视觉定位方法、装置、计算机设备和存储介质 | |
CN114037977B (zh) | 道路灭点的检测方法、装置、设备及存储介质 | |
CN116087987A (zh) | 确定目标对象高度的方法、装置、电子设备及存储介质 | |
CN116129422A (zh) | 单目3d目标检测方法、装置、电子设备和存储介质 | |
CN113112551B (zh) | 相机参数的确定方法、装置、路侧设备和云控平台 | |
CN113033456B (zh) | 车辆车轮接地点的确定方法、装置、路侧设备及云控平台 | |
CN112630736B (zh) | 路侧雷达的参数确定方法、装置、设备及存储介质 | |
CN112507964B (zh) | 用于车道级事件的检测方法和装置、路侧设备和云控平台 | |
CN114638947A (zh) | 数据标注方法、装置、电子设备及存储介质 | |
CN114662600A (zh) | 一种车道线的检测方法、装置和存储介质 | |
JP7064400B2 (ja) | 物体検知装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |