CN113469045A - 无人集卡的视觉定位方法、系统、电子设备和存储介质 - Google Patents
无人集卡的视觉定位方法、系统、电子设备和存储介质 Download PDFInfo
- Publication number
- CN113469045A CN113469045A CN202110741222.9A CN202110741222A CN113469045A CN 113469045 A CN113469045 A CN 113469045A CN 202110741222 A CN202110741222 A CN 202110741222A CN 113469045 A CN113469045 A CN 113469045A
- Authority
- CN
- China
- Prior art keywords
- visual
- unmanned
- positioning
- correction
- card
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Navigation (AREA)
Abstract
本发明涉及港口作业技术领域,提供一种无人集卡的视觉定位方法、系统、电子设备和存储介质。视觉定位方法包括:采集视觉特征,包括车道线和贝位标识在地图坐标系中的实际位置;在无人集卡的行驶过程中,根据视觉特征在无人集卡的第一摄像头的图像坐标系中的视觉位置及实际位置,获得无人集卡的位姿偏差,对无人集卡进行定位修正,包括:根据车道线的视觉位置及车道线的实际位置,获得无人集卡的横向位姿偏差,对无人集卡进行横向定位修正;根据贝位标识的视觉位置及贝位标识的实际位置,获得无人集卡的纵向位姿偏差,对无人集卡进行纵向定位修正。本发明结合视觉地图和视觉手段对无人集卡进行横纵向的定位修正,实现无人集卡的快速精准定位。
Description
技术领域
本发明涉及港口作业技术领域,具体地说,涉及一种无人集卡的视觉定位方法、系统、电子设备和存储介质。
背景技术
港口环境下,无人集卡运动速度低,但对定位精度的要求很高。通常来说,无人集卡本身车宽约2.5米,堆场内的车道线宽度约2.8米,对横向定位的精度要求在10cm左右;同时在纵向上无人集卡需要在指定位置完成对位,对位精度在10cm才能够正常抓放箱,因此纵向定位精度也在10cm左右。
无人集卡的定位可通过GPS(Global Positioning System,全球定位系统)定位或者视觉定位实现。但由于堆场内放满集装箱,导致GPS信号弱,单靠GPS无法满足定位精度要求;而视觉定位依赖于摄像头等视觉传感器,无法保证定位结果完全可靠。
需要说明的是,上述背景技术部分公开的信息仅用于加强对本发明的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
有鉴于此,本发明提供一种无人集卡的视觉定位方法、系统、电子设备和存储介质,先基于地图坐标系建立多视觉特征的视觉地图,再结合视觉手段对无人集卡进行横纵向的定位修正,能够实现无人集卡的快速精准定位。
本发明的一个方面提供一种无人集卡的视觉定位方法,包括:采集视觉特征在地图坐标系中的实际位置,所述视觉特征包括车道线和贝位标识;在无人集卡的行驶过程中,根据所述视觉特征在所述无人集卡的第一摄像头的图像坐标系中的视觉位置及所述实际位置,获得所述无人集卡的位姿偏差,对所述无人集卡进行定位修正,包括:根据所述车道线的视觉位置及所述车道线的实际位置,获得所述无人集卡的横向位姿偏差,对所述无人集卡进行横向定位修正;根据所述贝位标识的视觉位置及所述贝位标识的实际位置,获得所述无人集卡的纵向位姿偏差,对所述无人集卡进行纵向定位修正。
在一些实施例中,所述获得所述无人集卡的横向位姿偏差,包括:自所述第一摄像头的视频流中抽取第一图像,获得所述车道线的视觉位置,并获得所述第一摄像头投影至所述地图坐标系的初始位置;在所述地图坐标系中,基于横向和航向修正所述第一摄像头的初始位置,获得当所述车道线的视觉位置匹配所述车道线的实际位置时,所述第一摄像头的初始位置的横向位置修正量和航向角修正量;将所述横向位置修正量和所述航向角修正量作为所述横向位姿偏差。
在一些实施例中,所述基于横向和航向修正所述第一摄像头的初始位置,包括:获得所述车道线的视觉位置投影至所述地图坐标系的初始位置;在所述第一摄像头的初始位置的周围,进行横向位置搜索和航向角搜索,每次搜索后根据当前搜索的横向位置搜索步长和航向角搜索角度调整所述车道线的初始位置,获得所述车道线的当前位置;当所述车道线的当前位置与所述车道线的实际位置在所述横向重合,确定所述车道线的视觉位置匹配所述车道线的实际位置。
在一些实施例中,所述对所述无人集卡进行横向定位修正,包括:获得所述第一图像的时间戳至第一当前时刻,所述无人集卡的横向位置变化量和航向角变化量;根据所述横向位姿偏差、所述横向位置变化量和所述航向角变化量,获得横向位姿剩余修正量;根据所述横向位姿剩余修正量,于所述第一当前时刻对所述无人集卡进行横向位置修正和航向角修正。
在一些实施例中,通过训练好的分割网络,自所述第一图像中分割出所述车道线的像素点,获得所述车道线的视觉位置。
在一些实施例中,所述获得所述无人集卡的纵向位姿偏差,包括:自所述第一摄像头的视频流中抽取第二图像,获得所述贝位标识的视觉位置投影至所述地图坐标系的初始位置;在所述地图坐标系中,获得所述贝位标识的初始位置至所述贝位标识的实际位置的纵向位置偏差量;至少将所述纵向位置偏差量作为所述纵向位姿偏差。
在一些实施例中,所述视觉特征还包括地面箭头,所述地面箭头的实际位置包括所述地面箭头的特征点的实际位置及其特征描述子;所述获得所述无人集卡的纵向位姿偏差,还包括:获得所述特征点的视觉位置及其特征描述子投影至所述地图坐标系的初始位置及其特征描述子;根据特征描述子进行特征点匹配,获得所述特征点的初始位置与所述特征点的实际位置重合时,所述地面箭头的偏航角修正量;将所述纵向位置偏差量及所述航向角修正量作为所述纵向位姿偏差。
在一些实施例中,所述对所述无人集卡进行纵向定位修正,包括:获得所述第二图像的时间戳至第二当前时刻,所述无人集卡的纵向位置变化量和偏航角变化量;根据所述纵向位姿偏差、所述纵向位置变化量和所述偏航角变化量,获得纵向位姿剩余修正量;根据所述纵向位姿剩余修正量,于所述第二当前时刻对所述无人集卡进行纵向位置修正和偏航角修正。
在一些实施例中,通过训练好的检测网络,自所述第二图像中检测出所述贝位标识和所述地面箭头,获得所述贝位标识的视觉位置;以及,对所述地面箭头进行特征点检测和描述子计算,获得所述特征点的视觉位置及其特征描述子。
在一些实施例中,所述的无人集卡的视觉定位方法还包括:根据所述视觉特征在所述无人集卡的第二摄像头的图像坐标系中的位置及所述视觉特征的实际位置,校验所述无人集卡的融合定位结果,包括:自所述第二摄像头的视频流中抽取画面图像,获得每个所述视觉特征的位置,并获得每个所述视觉特征的位置投影至所述地图坐标系的投影位置;根据所述地图坐标系中每个所述视觉特征的投影位置与每个所述视觉特征的实际位置之间的差值,获得所述融合定位结果的校验结果;当所述校验结果为所述融合定位结果的定位准确率大于等于通过阈值且小于最佳阈值,返回所述对所述无人集卡进行定位修正的步骤;当所述校验结果为所述融合定位结果的定位准确率小于所述通过阈值,发出告警信息;其中,所述融合定位结果包括基于所述第一摄像头对所述无人集卡进行横向定位修正和纵向定位修正的视觉定位结果。
在一些实施例中,所述第二摄像头和所述第一摄像头为所述无人集卡的不同的车载摄像头。
本发明的另一个方面提供一种无人集卡的视觉定位系统,包括:视觉地图建立模块,用于采集视觉特征在地图坐标系中的实际位置,所述视觉特征包括车道线和贝位标识;定位修正模块,用于在无人集卡的行驶过程中,根据所述视觉特征在所述无人集卡的第一摄像头的图像坐标系中的视觉位置及所述实际位置,获得所述无人集卡的位姿偏差,对所述无人集卡进行定位修正,包括:横向位姿修正单元,用于根据所述车道线的视觉位置及所述车道线的实际位置,获得所述无人集卡的横向位姿偏差,对所述无人集卡进行横向定位修正;纵向位姿修正单元,用于根据所述贝位标识的视觉位置及所述贝位标识的实际位置,获得所述无人集卡的纵向位姿偏差,对所述无人集卡进行纵向定位修正。
本发明的又一个方面提供一种电子设备,包括:一处理器;一存储器,所述存储器中存储有可执行指令;其中,所述可执行指令被所述处理器执行时,实现上述任意实施例所述的无人集卡的视觉定位方法。
本发明的再一个方面提供一种计算机可读的存储介质,用于存储程序,所述程序被处理器执行时实现上述任意实施例所述的无人集卡的视觉定位方法。
本发明与现有技术相比的有益效果至少包括:
通过采集视觉特征在地图坐标系中的实际位置,构建基于地图坐标的多视觉特征的视觉地图;在无人集卡的行驶过程中,结合视觉地图和视觉手段,通过无人集卡的摄像头采集视觉特征并与视觉地图匹配,获得无人集卡的位姿偏差,对无人集卡进行横纵向的定位修正,实现对无人集卡的快速精准定位;
进一步地,在对无人集卡进行横纵向的定位修正后,还基于可信赖的视觉相对关系和绝对的地图坐标,对融合定位结果进行校验,通过将视觉特征投影至地图坐标系后获得融合定位结果偏差的方式对无人集卡进行定位偏离告警,确保视觉定位的完全可靠。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本发明。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。显而易见地,下面描述的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出本发明一实施例中无人集卡的视觉定位方法的步骤示意图;
图2示出本发明一实施例中获得无人集卡的横向位姿偏差的步骤示意图;
图3示出本发明一实施例中获得无人集卡的横向位姿偏差的场景示意图;
图4示出本发明一实施例中获得无人集卡的纵向位姿偏差的步骤示意图;
图5示出本发明一实施例中获得无人集卡的纵向位姿偏差的场景示意图;
图6示出本发明又一实施例中无人集卡的视觉定位方法的步骤示意图;
图7示出本发明实施例中无人集卡的视觉定位系统的模块示意图;
图8示出本发明实施例中电子设备的结构示意图;
图9示出本发明实施例中计算机可读的存储介质的结构示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的实施方式。相反,提供这些实施方式使本发明全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。
附图仅为本发明的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
此外,附图中所示的流程仅是示例性说明,不是必须包括所有的步骤。例如,有的步骤可以分解,有的步骤可以合并或部分合并,且实际执行的顺序有可能根据实际情况改变。具体描述时使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。需要说明的是,在不冲突的情况下,本发明的实施例及不同实施例中的特征可以相互组合。
图1示出一实施例中无人集卡的视觉定位方法的主要步骤,参照图1所示,无人集卡的视觉定位方法包括:步骤S110,采集视觉特征在地图坐标系中的实际位置,视觉特征包括车道线和贝位标识;步骤S120,在无人集卡的行驶过程中,根据视觉特征在无人集卡的第一摄像头的图像坐标系中的视觉位置及实际位置,获得无人集卡的位姿偏差,对无人集卡进行定位修正,包括:步骤S120-2,根据车道线的视觉位置及车道线的实际位置,获得无人集卡的横向位姿偏差,对无人集卡进行横向定位修正;步骤S120-4,根据贝位标识的视觉位置及贝位标识的实际位置,获得无人集卡的纵向位姿偏差,对无人集卡进行纵向定位修正。
上述的视觉定位方法,通过采集视觉特征在地图坐标系中的实际位置,构建基于地图坐标的多视觉特征的视觉地图;在无人集卡的行驶过程中,结合视觉地图和视觉手段,通过无人集卡的摄像头采集视觉特征并与视觉地图匹配,获得无人集卡的位姿偏差,对无人集卡进行横纵向的定位修正,实现对无人集卡的快速精准定位。
下面结合具体示例,对无人集卡的视觉定位方法进行详细说明。
步骤S110中,可通过人工采集的方式,获得多个视觉特征在电子地图的地图坐标系中的实际位置,预先建立视觉地图。视觉特征是指港口环境中能用于对无人集卡进行横纵向定位的目标物,包括用于横向定位的车道线,每条车道线记录其坐标序列(对应每条车道线的连续均匀分布的一组位置点),形成车道线的实际位置;以及用于纵向定位的贝位标识,具体是指贝位在地面上的标记数字,存储其坐标(对应贝位的中心点位置),形成贝位标识的实际位置;用于纵向定位的视觉特征还包括地面箭头,存储其所有特征点(主要是角点)的坐标和相应的特征描述子,形成地面箭头的实际位置,具体将在下文中结合无人集卡的纵向定位修正进行说明。
视觉特征的实际位置,可以是三维坐标,也可以只采用横向和纵向的二维坐标,以简化计算。包含视觉特征的视觉地图用于提供绝对的地图坐标参照,供对无人集卡进行横纵向的定位修正。
步骤S120中,在无人集卡的行驶过程中,通过视觉定位与地图坐标匹配的方式,获得无人集卡的横纵向的位姿偏差并进行定位修正。
图2示出一实施例中获得无人集卡的横向位姿偏差的主要步骤,参照图2所示,获得无人集卡的横向位姿偏差,包括:步骤S210,自第一摄像头的视频流中抽取第一图像,获得车道线的视觉位置,并获得第一摄像头投影至地图坐标系的初始位置;步骤S220,在地图坐标系中,基于横向和航向修正第一摄像头的初始位置,获得当车道线的视觉位置匹配车道线的实际位置时,第一摄像头的初始位置的横向位置修正量和航向角修正量;步骤S230,将横向位置修正量和航向角修正量作为横向位姿偏差。
获得车道线的视觉位置时,采用一训练好的分割网络,自第一图像中分割出车道线的像素点,获得车道线的视觉位置,也即左右两条车道线在第一摄像头的图像坐标系中的坐标序列。分割网络采用已有的算法模型,例如基于双向循环神经网络(BRNN)实现分割的ReSeg模型、基于ReNet和空洞卷积,结合深度信息进行图像分割的LSTM-CF模型,等等,不再展开说明。
根据第一图像,还能获得第一摄像头的视觉位置,例如以第一图像的中心点在第一摄像头的图像坐标系中的坐标作为第一摄像头的视觉位置。获得第一摄像头的视觉位置后,将其投影至地图坐标系,获得第一摄像头在地图坐标系中的初始位置。
继续参照图2,基于横向和航向修正第一摄像头的初始位置,具体包括:步骤S220-2,获得车道线的视觉位置投影至地图坐标系的初始位置;步骤S220-4,在第一摄像头的初始位置的周围,进行横向位置搜索和航向角搜索,每次搜索后根据当前搜索的横向位置搜索步长和航向角搜索角度调整车道线的初始位置,获得车道线的当前位置;步骤S220-6,当车道线的当前位置与车道线的实际位置在横向重合,确定车道线的视觉位置匹配车道线的实际位置。
图3示出一实施例中获得无人集卡的横向位姿偏差的场景,结合图3所示,地图坐标系300中,标示出车道线的实际位置310、贝位标识(包括贝位01,贝位03和贝位05)的实际位置320、车道线的初始位置310’和第一摄像头的初始位置330。上述的位置均以非坐标值形式的实景方式示出,便于展示。横向X1平行于地图坐标系300的X轴方向,航向C指无人集卡在第一图像的时间戳的速度方向。
在地图坐标系300中基于横向X1和航向C修正第一摄像头的初始位置330时,在第一摄像头的初始位置330的周围,进行横向位置搜索(沿横向X1前进或后退)和航向角搜索(沿航向C前进或后退,使航向角,即航向C与横向X1的夹角θc发生变化)。当进行一次横向X1和航向C的二维搜索后,例如搜索到第一摄像头的当前位置330’,则根据当前搜索的横向位置搜索步长x’(第一摄像头的当前位置330’与第一摄像头的初始位置330之间在横向X1上的距离)和航向角搜索角度θc’(第一摄像头的当前位置330’的航向角与第一摄像头的初始位置330的航向角θc之间的夹角),其中第一摄像头的当前位置330’的航向角是第一摄像头的当前位置330’与第一摄像头的初始位置330的连线与横向X1的夹角,将车道线的初始位置310’沿横向平移横向位置搜索步长x’并绕航向转动航向角搜索角度θc’,获得车道线的当前位置。此时,若车道线的当前位置与车道线的实际位置310在横向重合,表明基于横向和航向的二维搜索完成,获得本次搜索后第一摄像头的初始位置330的横向位置修正量(需要累计所有搜索结果,本实施中即x’)和航向角修正量(同理,需累计所有搜索结果,本实施中即θc’)。获得的横向位置修正量和航向角修正量即作为横向位姿偏差。
进一步地,对无人集卡进行横向定位修正,包括:获得第一图像的时间戳至第一当前时刻,无人集卡的横向位置变化量和航向角变化量;根据横向位姿偏差、横向位置变化量和航向角变化量,获得横向位姿剩余修正量,包括横向位置剩余修正量和航向角剩余修正量;根据横向位姿剩余修正量,于第一当前时刻对无人集卡进行横向位置修正和航向角修正,完成对无人集卡的横向定位修正。其中,横向位置剩余修正量可视为横向定位修正目标,航向角剩余修正量可视为横向定位修正手段,横向定位修正完成后,可使无人集卡保持直行。
纵向定位修正时,获得无人集卡的纵向位姿偏差,包括:自第一摄像头的视频流中抽取第二图像,获得贝位标识的视觉位置投影至地图坐标系的初始位置;在地图坐标系中,获得贝位标识的初始位置至贝位标识的实际位置的纵向位置偏差量;至少将纵向位置偏差量作为纵向位姿偏差。
其中,视觉特征还包括地面箭头,地面箭头的实际位置包括地面箭头的特征点的实际位置及其特征描述子;获得无人集卡的纵向位姿偏差,还包括:获得特征点的视觉位置及其特征描述子投影至地图坐标系的初始位置及其特征描述子;根据特征描述子进行特征点匹配,获得特征点的初始位置与特征点的实际位置重合时,地面箭头的偏航角修正量;将纵向位置偏差量及航向角修正量作为纵向位姿偏差。
图4示出一实施例中获得无人集卡的纵向位姿偏差的主要步骤,图5示出该实施例中获得纵向位姿偏差的场景,图5的地图坐标系300中标示出车道线的实际位置310、对应于贝位03的贝位标识的实际位置320、以及地面箭头的实际位置440,地面箭头的特征点在地面箭头上以黑色圆点示意。上述的位置同样以实景方式示出以便于展示。纵向Y1平行于地图坐标系300的Y轴方向。
结合图4和图5所示,获得无人集卡的纵向位姿偏差,包括:步骤S410,自第一摄像头的视频流中抽取第二图像,获得贝位标识的视觉位置投影至地图坐标系300的初始位置320’,并获得特征点的视觉位置及其特征描述子投影至地图坐标系300的初始位置440’及其特征描述子。步骤S420,在地图坐标系300中,获得贝位标识的初始位置320’至贝位标识的实际位置320的纵向位置偏差量DY(即沿纵向Y1,贝位标识的初始位置320’至贝位标识的实际位置320的距离),并根据特征描述子进行特征点匹配,获得特征点的初始位置440’与特征点的实际位置440重合时,地面箭头的偏航角修正量θY(即绕纵向Y1,特征点的初始位置440’相对于特征点的实际位置440的转动角度)。步骤S430,将纵向位置偏差量DY及航向角修正量θY作为纵向位姿偏差。
在获得贝位标识的视觉位置和地面箭头的特征点的视觉位置及其特征描述子时,可通过训练好的检测网络,自第二图像中检测出贝位标识和地面箭头,获得贝位标识的视觉位置,也即贝位标识在第一摄像头的图像坐标系中的坐标;并对地面箭头进行特征点检测和描述子计算,获得特征点的视觉位置及其特征描述子,也即地面箭头的每个特征点在第一摄像头的图像坐标系中的坐标及用于描述该特征点的特征描述子。检测网络采用已有的算法模型,例如基于深度学习的目标检测模型R-CNN、Fast R-CNN、Faster R-CNN等等,不再展开说明。特征点检测和描述子计算同样采用已有的算法模型,不再展开说明。
获得地面箭头的偏航角修正量θY时,还会获得地面箭头的纵向位置修正量,也即当特征点的初始位置440’与特征点的实际位置440重合时,特征点需同时在纵向Y1进行位置修正并绕纵向Y1进行偏航角修正。可将地面箭头的纵向位置修正量与贝位标识的纵向位置偏差量求平均,作为最终的纵向位置偏差量。
进一步地,对无人集卡进行纵向定位修正,包括:获得第二图像的时间戳至第二当前时刻,无人集卡的纵向位置变化量和偏航角变化量;根据纵向位姿偏差、纵向位置变化量和偏航角变化量,获得纵向位姿剩余修正量,包括纵向位置剩余修改量和偏航角剩余修改量;根据纵向位姿剩余修正量,于第二当前时刻对无人集卡进行纵向位置修正和偏航角修正。其中,纵向位置剩余修正量可视为纵向定位修正目标,偏航角剩余修正量可视为纵向定位修正手段,纵向定位修正完成后,无人集卡可准确到达相应贝位。
第二图像的时间戳晚于第一图像的时间戳,第二当前时刻晚于第一当前时刻,也即对无人集卡进行横纵向的定位修正时,先进行横向定位修正再进行纵向定位修正,以在无人集卡的行驶过程中,先通过横向定位修正使其保持在车道线中间,再通过纵向定位修正使其准确到达相应贝位。
在无人集卡的行驶过程中,上述的定位修正过程可以阶段性地执行。例如,每当无人集卡到达一个贝位,需要前往下一贝位时,执行一次定位修正,以确保港口作业的准确持续进行。
进一步地,在一个实施例中,无人集卡的定位源除了视觉传感器,即上述的第一摄像头,还有其他传感器,例如激光雷达、里程计等,在无人集卡的自动行驶过程中,除了按照上述的方法,基于第一摄像头对无人集卡进行横纵向定位修正外,还通过其他传感器对无人集卡进行定位修正。从而,同时通过视觉定位手段,即根据视觉特征做横纵向定位修正,以及其他传感器的定位手段,实现对无人集卡的融合定位。
并且,本发明一方面结合多种定位源对无人集卡进行融合定位,另一方面,尽管多传感器融合可以提高定位精度,但相应的失效率也会提高,因为任一定位源的错误或者失效都会体现在最终的输出结果上,因此本发明还对融合定位结果进行定位偏离告警。定位偏离告警时,将视觉特征从图像坐标系投影到地图坐标系,根据投影后的视觉特征坐标和地图中预先存储的真实坐标比较,确定融合定位结果的精度,进行定位偏离告警。
图6示出又一实施例中无人集卡的视觉定位方法的步骤流程,参照图6所示,视觉定位方法还包括:步骤S610,根据视觉特征(包括上述的车道线、贝位标识和地面箭头等)在无人集卡的第二摄像头的图像坐标系中的位置及视觉特征的实际位置,校验无人集卡的融合定位结果,包括:步骤S610-2,自第二摄像头的视频流中抽取画面图像,获得每个视觉特征的位置,并获得每个视觉特征的位置投影至地图坐标系的投影位置;步骤S610-4,根据地图坐标系中每个视觉特征的投影位置与每个视觉特征的实际位置之间的差值,获得融合定位结果的校验结果;当校验结果为融合定位结果的定位准确率大于等于通过阈值且小于最佳阈值,返回步骤S120对无人集卡进行定位修正,此时还可通过降低车速、适当延迟变道/超车等机动操作的时机、调节灯光补偿周围环境的光线等一系列操作帮助提高再一次融合定位结果的精度;当校验结果为融合定位结果的定位准确率小于通过阈值,执行步骤S610-6发出告警信息,报告定位异常,提醒退出自动行驶模式。其中,融合定位结果包括基于第一摄像头对无人集卡进行横向定位修正和纵向定位修正的视觉定位结果,以及基于其他传感器对无人集卡进行定位修正的定位结果。
第二摄像头和第一摄像头优选地为无人集卡的不同的车载摄像头,以提高校验结果的准确性。在将视觉特征,例如车道线投影至地图坐标系时,可根据无人集卡与左右车道线的相对位置和根据第二摄像头的画面图像获得的第二摄像头的位置进行投影。通过将左右车道线反投影至地图坐标系,再与车道线的实际位置相比较,根据坐标相差量获得融合定位结果的准确率。通过阈值和最佳阈值可根据需要设定,例如通过阈值为90%,最佳阈值为98%。
在一个实施例中,也可以只设定通过阈值为90%。也即,获得融合定位结果的校验结果后,将校验结果与通过阈值进行比较,若校验结果小于通过阈值,则发出告警通知,报告定位异常;若校验结果大于等于通过阈值,则表明融合定位准确,可继续无人集卡的自动行驶模式。
对融合定位结果的校验可以在无人集卡行驶过程中周期性地执行,基于可信赖的视觉相对关系和绝对的地图坐标,对视觉定位的融合定位结果进行校验,实时估计视觉定位的误差,从而确保视觉定位的完全可靠,实现对无人集卡的高精度定位。
本发明实施例还提供一种无人集卡的视觉定位系统,可用于实现上述任意实施例描述的视觉定位方法。上述任意实施例描述的视觉定位方法的特征和原理均可应用至下面的视觉定位系统实施例。在下面的视觉定位系统实施例中,对已经阐明的关于视觉定位的特征和原理不再重复说明。
图7示出一实施例中无人集卡的视觉定位系统的主要模块,参照图7所示,无人集卡的视觉定位系统700包括:视觉地图建立模块710,用于采集视觉特征在地图坐标系中的实际位置,视觉特征包括车道线和贝位标识;定位修正模块720,用于在无人集卡的行驶过程中,根据视觉特征在无人集卡的第一摄像头的图像坐标系中的视觉位置及实际位置,获得无人集卡的位姿偏差,对无人集卡进行定位修正,包括:横向位姿修正单元720-2,用于根据车道线的视觉位置及车道线的实际位置,获得无人集卡的横向位姿偏差,对无人集卡进行横向定位修正;纵向位姿修正单元720-4,用于根据贝位标识的视觉位置及贝位标识的实际位置,获得无人集卡的纵向位姿偏差,对无人集卡进行纵向定位修正。
进一步地,无人集卡的视觉定位系统700还可包括实现上述视觉定位方法实施例的其他流程步骤的模块,例如还可以包括定位偏离告警模块,用于根据融合定位结果,将视觉特征投影至地图坐标系后获得融合定位结果偏差,对无人集卡进行定位偏离告警。各个模块的具体原理可参照上述各视觉定位方法实施例的描述,此处不再重复说明。
如上所述,本发明的无人集卡的视觉定位系统,能够通过采集视觉特征在地图坐标系中的实际位置,构建基于地图坐标的多视觉特征的视觉地图;在无人集卡的行驶过程中,结合视觉地图和视觉手段,通过无人集卡的摄像头采集视觉特征并与视觉地图匹配,获得无人集卡的位姿偏差,对无人集卡进行横纵向的定位修正,实现对无人集卡的快速精准定位;进一步地,在对无人集卡进行横纵向的定位修正后,还基于可信赖的视觉相对关系和绝对的地图坐标,对融合定位结果进行校验,通过将视觉特征投影至地图坐标系后获得融合定位结果偏差的方式对无人集卡进行定位偏离告警,确保视觉定位的完全可靠。
本发明实施例还提供一种电子设备,包括处理器和存储器,存储器中存储有可执行指令,可执行指令被处理器执行时,实现上述任意实施例描述的无人集卡的视觉定位方法。
如上所述,本发明的电子设备能够通过采集视觉特征在地图坐标系中的实际位置,构建基于地图坐标的多视觉特征的视觉地图;在无人集卡的行驶过程中,结合视觉地图和视觉手段,通过无人集卡的摄像头采集视觉特征并与视觉地图匹配,获得无人集卡的位姿偏差,对无人集卡进行横纵向的定位修正,实现对无人集卡的快速精准定位;进一步地,在对无人集卡进行横纵向的定位修正后,还基于可信赖的视觉相对关系和绝对的地图坐标,对融合定位结果进行校验,通过将视觉特征投影至地图坐标系后获得融合定位结果偏差的方式对无人集卡进行定位偏离告警,确保视觉定位的完全可靠。
图8是本发明实施例中电子设备的结构示意图,应当理解的是,图8仅仅是示意性地示出各个模块,这些模块可以是虚拟的软件模块或实际的硬件模块,这些模块的合并、拆分及其余模块的增加都在本发明的保护范围之内。
如图8所示,电子设备800以通用计算设备的形式表现。电子设备800的组件包括但不限于:至少一个处理单元810、至少一个存储单元820、连接不同平台组件(包括存储单元820和处理单元810)的总线830、显示单元840等。
其中,存储单元存储有程序代码,程序代码可以被处理单元810执行,使得处理单元810执行上述任意实施例描述的无人集卡的视觉定位方法的步骤。例如,处理单元810可以执行如图1所示的步骤。
存储单元820可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)8201和/或高速缓存存储单元8202,还可以进一步包括只读存储单元(ROM)8203。
存储单元820还可以包括具有一个或多个程序模块8205的程序/实用工具8204,这样的程序模块8205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线830可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备800也可以与一个或多个外部设备8000通信,外部设备8000可以是键盘、指向设备、蓝牙设备等设备中的一种或多种。这些外部设备8000使得用户能与该电子设备800进行交互通信。电子设备800也能与一个或多个其它计算设备进行通信,所示计算机设备包括路由器、调制解调器。这种通信可以通过输入/输出(I/O)接口850进行。并且,电子设备800还可以通过网络适配器860与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。网络适配器860可以通过总线830与电子设备800的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备800使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储平台等。
本发明实施例还提供一种计算机可读的存储介质,用于存储程序,程序被执行时实现上述任意实施例描述的无人集卡的视觉定位方法。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在终端设备上运行时,程序代码用于使终端设备执行上述任意实施例描述的无人集卡的视觉定位方法。
如上所述,本发明的计算机可读的存储介质能够通过采集视觉特征在地图坐标系中的实际位置,构建基于地图坐标的多视觉特征的视觉地图;在无人集卡的行驶过程中,结合视觉地图和视觉手段,通过无人集卡的摄像头采集视觉特征并与视觉地图匹配,获得无人集卡的位姿偏差,对无人集卡进行横纵向的定位修正,实现对无人集卡的快速精准定位;进一步地,在对无人集卡进行横纵向的定位修正后,还基于可信赖的视觉相对关系和绝对的地图坐标,对融合定位结果进行校验,通过将视觉特征投影至地图坐标系后获得融合定位结果偏差的方式对无人集卡进行定位偏离告警,确保视觉定位的完全可靠。
图9是本发明的计算机可读的存储介质的结构示意图。参考图9所示,描述了根据本发明的实施方式的用于实现上述方法的程序产品900,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子包括但不限于:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读的存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备,例如利用因特网服务提供商来通过因特网连接。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。
Claims (14)
1.一种无人集卡的视觉定位方法,其特征在于,包括:
采集视觉特征在地图坐标系中的实际位置,所述视觉特征包括车道线和贝位标识;
在无人集卡的行驶过程中,根据所述视觉特征在所述无人集卡的第一摄像头的图像坐标系中的视觉位置及所述实际位置,获得所述无人集卡的位姿偏差,对所述无人集卡进行定位修正,包括:
根据所述车道线的视觉位置及所述车道线的实际位置,获得所述无人集卡的横向位姿偏差,对所述无人集卡进行横向定位修正;
根据所述贝位标识的视觉位置及所述贝位标识的实际位置,获得所述无人集卡的纵向位姿偏差,对所述无人集卡进行纵向定位修正。
2.如权利要求1所述的视觉定位方法,其特征在于,所述获得所述无人集卡的横向位姿偏差,包括:
自所述第一摄像头的视频流中抽取第一图像,获得所述车道线的视觉位置,并获得所述第一摄像头投影至所述地图坐标系的初始位置;
在所述地图坐标系中,基于横向和航向修正所述第一摄像头的初始位置,获得当所述车道线的视觉位置匹配所述车道线的实际位置时,所述第一摄像头的初始位置的横向位置修正量和航向角修正量;
将所述横向位置修正量和所述航向角修正量作为所述横向位姿偏差。
3.如权利要求2所述的视觉定位方法,其特征在于,所述基于横向和航向修正所述第一摄像头的初始位置,包括:
获得所述车道线的视觉位置投影至所述地图坐标系的初始位置;
在所述第一摄像头的初始位置的周围,进行横向位置搜索和航向角搜索,每次搜索后根据当前搜索的横向位置搜索步长和航向角搜索角度调整所述车道线的初始位置,获得所述车道线的当前位置;
当所述车道线的当前位置与所述车道线的实际位置在所述横向重合,确定所述车道线的视觉位置匹配所述车道线的实际位置。
4.如权利要求2所述的视觉定位方法,其特征在于,所述对所述无人集卡进行横向定位修正,包括:
获得所述第一图像的时间戳至第一当前时刻,所述无人集卡的横向位置变化量和航向角变化量;
根据所述横向位姿偏差、所述横向位置变化量和所述航向角变化量,获得横向位姿剩余修正量;
根据所述横向位姿剩余修正量,于所述第一当前时刻对所述无人集卡进行横向位置修正和航向角修正。
5.如权利要求2所述的视觉定位方法,其特征在于,通过训练好的分割网络,自所述第一图像中分割出所述车道线的像素点,获得所述车道线的视觉位置。
6.如权利要求1所述的视觉定位方法,其特征在于,所述获得所述无人集卡的纵向位姿偏差,包括:
自所述第一摄像头的视频流中抽取第二图像,获得所述贝位标识的视觉位置投影至所述地图坐标系的初始位置;
在所述地图坐标系中,获得所述贝位标识的初始位置至所述贝位标识的实际位置的纵向位置偏差量;
至少将所述纵向位置偏差量作为所述纵向位姿偏差。
7.如权利要求6所述的视觉定位方法,其特征在于,所述视觉特征还包括地面箭头,所述地面箭头的实际位置包括所述地面箭头的特征点的实际位置及其特征描述子;
所述获得所述无人集卡的纵向位姿偏差,还包括:
获得所述特征点的视觉位置及其特征描述子投影至所述地图坐标系的初始位置及其特征描述子;
根据特征描述子进行特征点匹配,获得所述特征点的初始位置与所述特征点的实际位置重合时,所述地面箭头的偏航角修正量;
将所述纵向位置偏差量及所述航向角修正量作为所述纵向位姿偏差。
8.如权利要求7所述的视觉定位方法,其特征在于,所述对所述无人集卡进行纵向定位修正,包括:
获得所述第二图像的时间戳至第二当前时刻,所述无人集卡的纵向位置变化量和偏航角变化量;
根据所述纵向位姿偏差、所述纵向位置变化量和所述偏航角变化量,获得纵向位姿剩余修正量;
根据所述纵向位姿剩余修正量,于所述第二当前时刻对所述无人集卡进行纵向位置修正和偏航角修正。
9.如权利要求7所述的视觉定位方法,其特征在于,通过训练好的检测网络,自所述第二图像中检测出所述贝位标识和所述地面箭头,获得所述贝位标识的视觉位置;以及
对所述地面箭头进行特征点检测和描述子计算,获得所述特征点的视觉位置及其特征描述子。
10.如权利要求1-9任一项所述的视觉定位方法,其特征在于,还包括:
根据所述视觉特征在所述无人集卡的第二摄像头的图像坐标系中的位置及所述视觉特征的实际位置,校验所述无人集卡的融合定位结果,包括:
自所述第二摄像头的视频流中抽取画面图像,获得每个所述视觉特征的位置,并获得每个所述视觉特征的位置投影至所述地图坐标系的投影位置;
根据所述地图坐标系中每个所述视觉特征的投影位置与每个所述视觉特征的实际位置之间的差值,获得所述融合定位结果的校验结果;
当所述校验结果为所述融合定位结果的定位准确率大于等于通过阈值且小于最佳阈值,返回所述对所述无人集卡进行定位修正的步骤;
当所述校验结果为所述融合定位结果的定位准确率小于所述通过阈值,发出告警信息;
其中,所述融合定位结果包括基于所述第一摄像头对所述无人集卡进行横向定位修正和纵向定位修正的视觉定位结果。
11.如权利要求10所述的视觉定位方法,其特征在于,所述第二摄像头和所述第一摄像头为所述无人集卡的不同的车载摄像头。
12.一种无人集卡的视觉定位系统,其特征在于,包括:
视觉地图建立模块,用于采集视觉特征在地图坐标系中的实际位置,所述视觉特征包括车道线和贝位标识;
定位修正模块,用于在无人集卡的行驶过程中,根据所述视觉特征在所述无人集卡的第一摄像头的图像坐标系中的视觉位置及所述实际位置,获得所述无人集卡的位姿偏差,对所述无人集卡进行定位修正,包括:
横向位姿修正单元,用于根据所述车道线的视觉位置及所述车道线的实际位置,获得所述无人集卡的横向位姿偏差,对所述无人集卡进行横向定位修正;
纵向位姿修正单元,用于根据所述贝位标识的视觉位置及所述贝位标识的实际位置,获得所述无人集卡的纵向位姿偏差,对所述无人集卡进行纵向定位修正。
13.一种电子设备,其特征在于,包括:
一处理器;
一存储器,所述存储器中存储有可执行指令;
其中,所述可执行指令被所述处理器执行时,实现如权利要求1-11任一项所述的无人集卡的视觉定位方法。
14.一种计算机可读的存储介质,用于存储程序,其特征在于,所述程序被处理器执行时实现如权利要求1-11任一项所述的无人集卡的视觉定位方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110741222.9A CN113469045B (zh) | 2021-06-30 | 2021-06-30 | 无人集卡的视觉定位方法、系统、电子设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110741222.9A CN113469045B (zh) | 2021-06-30 | 2021-06-30 | 无人集卡的视觉定位方法、系统、电子设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113469045A true CN113469045A (zh) | 2021-10-01 |
CN113469045B CN113469045B (zh) | 2023-05-02 |
Family
ID=77876958
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110741222.9A Active CN113469045B (zh) | 2021-06-30 | 2021-06-30 | 无人集卡的视觉定位方法、系统、电子设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113469045B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114114369A (zh) * | 2022-01-27 | 2022-03-01 | 智道网联科技(北京)有限公司 | 自动驾驶车辆定位方法和装置、电子设备和存储介质 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105303555A (zh) * | 2015-09-18 | 2016-02-03 | 浙江工业大学 | 一种基于双目视觉的集卡定位与引导的方法及其系统 |
CN107728175A (zh) * | 2017-09-26 | 2018-02-23 | 南京航空航天大学 | 基于gnss和vo融合的无人驾驶车辆导航定位精度矫正方法 |
CN108182552A (zh) * | 2018-02-02 | 2018-06-19 | 上海西井信息科技有限公司 | 集装箱船舶的装卸货方法、系统、设备及存储介质 |
US20180292543A1 (en) * | 2017-04-11 | 2018-10-11 | Autoliv Asp, Inc. | Global navigation satellite system vehicle position augmentation utilizing map enhanced dead reckoning |
CN108875689A (zh) * | 2018-07-02 | 2018-11-23 | 上海西井信息科技有限公司 | 无人驾驶车辆对位方法、系统、设备及存储介质 |
CN109613584A (zh) * | 2018-12-27 | 2019-04-12 | 北京主线科技有限公司 | 基于uwb的无人集卡的定位定向方法 |
CN110849367A (zh) * | 2019-10-08 | 2020-02-28 | 杭州电子科技大学 | 基于融合uwb的视觉slam的室内定位与导航的方法 |
CN111137279A (zh) * | 2020-01-02 | 2020-05-12 | 广州赛特智能科技有限公司 | 港口无人集卡站点停车方法及系统 |
CN111242031A (zh) * | 2020-01-13 | 2020-06-05 | 禾多科技(北京)有限公司 | 基于高精度地图的车道线检测方法 |
US20200198149A1 (en) * | 2018-12-24 | 2020-06-25 | Ubtech Robotics Corp Ltd | Robot vision image feature extraction method and apparatus and robot using the same |
US20200218905A1 (en) * | 2019-01-08 | 2020-07-09 | Qualcomm Incorporated | Lateral and longitudinal offset tracking in vehicle position estimation |
CN111986261A (zh) * | 2020-08-13 | 2020-11-24 | 清华大学苏州汽车研究院(吴江) | 一种车辆定位方法、装置、电子设备及存储介质 |
CN112285734A (zh) * | 2020-10-30 | 2021-01-29 | 北京斯年智驾科技有限公司 | 基于道钉的港口无人集卡高精度对准方法及其对准系统 |
CN112415548A (zh) * | 2020-11-09 | 2021-02-26 | 北京斯年智驾科技有限公司 | 无人集卡的定位方法、装置、系统、电子装置和存储介质 |
CN112964260A (zh) * | 2021-02-01 | 2021-06-15 | 东风商用车有限公司 | 自动驾驶定位方法、装置、设备及存储介质 |
-
2021
- 2021-06-30 CN CN202110741222.9A patent/CN113469045B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105303555A (zh) * | 2015-09-18 | 2016-02-03 | 浙江工业大学 | 一种基于双目视觉的集卡定位与引导的方法及其系统 |
US20180292543A1 (en) * | 2017-04-11 | 2018-10-11 | Autoliv Asp, Inc. | Global navigation satellite system vehicle position augmentation utilizing map enhanced dead reckoning |
CN107728175A (zh) * | 2017-09-26 | 2018-02-23 | 南京航空航天大学 | 基于gnss和vo融合的无人驾驶车辆导航定位精度矫正方法 |
CN108182552A (zh) * | 2018-02-02 | 2018-06-19 | 上海西井信息科技有限公司 | 集装箱船舶的装卸货方法、系统、设备及存储介质 |
CN108875689A (zh) * | 2018-07-02 | 2018-11-23 | 上海西井信息科技有限公司 | 无人驾驶车辆对位方法、系统、设备及存储介质 |
US20200198149A1 (en) * | 2018-12-24 | 2020-06-25 | Ubtech Robotics Corp Ltd | Robot vision image feature extraction method and apparatus and robot using the same |
CN109613584A (zh) * | 2018-12-27 | 2019-04-12 | 北京主线科技有限公司 | 基于uwb的无人集卡的定位定向方法 |
US20200218905A1 (en) * | 2019-01-08 | 2020-07-09 | Qualcomm Incorporated | Lateral and longitudinal offset tracking in vehicle position estimation |
CN110849367A (zh) * | 2019-10-08 | 2020-02-28 | 杭州电子科技大学 | 基于融合uwb的视觉slam的室内定位与导航的方法 |
CN111137279A (zh) * | 2020-01-02 | 2020-05-12 | 广州赛特智能科技有限公司 | 港口无人集卡站点停车方法及系统 |
CN111242031A (zh) * | 2020-01-13 | 2020-06-05 | 禾多科技(北京)有限公司 | 基于高精度地图的车道线检测方法 |
CN111986261A (zh) * | 2020-08-13 | 2020-11-24 | 清华大学苏州汽车研究院(吴江) | 一种车辆定位方法、装置、电子设备及存储介质 |
CN112285734A (zh) * | 2020-10-30 | 2021-01-29 | 北京斯年智驾科技有限公司 | 基于道钉的港口无人集卡高精度对准方法及其对准系统 |
CN112415548A (zh) * | 2020-11-09 | 2021-02-26 | 北京斯年智驾科技有限公司 | 无人集卡的定位方法、装置、系统、电子装置和存储介质 |
CN112964260A (zh) * | 2021-02-01 | 2021-06-15 | 东风商用车有限公司 | 自动驾驶定位方法、装置、设备及存储介质 |
Non-Patent Citations (3)
Title |
---|
ZHIQI FENG ET AL.: ""Decision Making and Local Trajectory Planning for Autonomous Driving in Off-road Environment"", 《2020 3RD INTERNATIONAL CONFERENCE ON UNMANNED SYSTEMS (ICUS)》 * |
汪沛等: "无人驾驶技术在港口中的应用", 《港口科技》 * |
赵翔等: "基于视觉和毫米波雷达的车道级定位方法", 《上海交通大学学报》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114114369A (zh) * | 2022-01-27 | 2022-03-01 | 智道网联科技(北京)有限公司 | 自动驾驶车辆定位方法和装置、电子设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113469045B (zh) | 2023-05-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11042762B2 (en) | Sensor calibration method and device, computer device, medium, and vehicle | |
CN110163930B (zh) | 车道线生成方法、装置、设备、系统及可读存储介质 | |
US10943355B2 (en) | Systems and methods for detecting an object velocity | |
EP3361278B1 (en) | Autonomous vehicle localization based on walsh kernel projection technique | |
CN110462343A (zh) | 基于地图的用于车辆的自动图像标记 | |
CN108764187A (zh) | 提取车道线的方法、装置、设备、存储介质以及采集实体 | |
CN110415550B (zh) | 基于视觉的自动泊车方法 | |
CN109086277A (zh) | 一种重叠区构建地图方法、系统、移动终端及存储介质 | |
Shunsuke et al. | GNSS/INS/on-board camera integration for vehicle self-localization in urban canyon | |
CN112232275B (zh) | 基于双目识别的障碍物检测方法、系统、设备及存储介质 | |
US11403947B2 (en) | Systems and methods for identifying available parking spaces using connected vehicles | |
CN110119138A (zh) | 用于自动驾驶车辆的自定位方法、系统和机器可读介质 | |
CN111353453B (zh) | 用于车辆的障碍物检测方法和装置 | |
US12012102B2 (en) | Method for determining a lane change indication of a vehicle | |
US11842440B2 (en) | Landmark location reconstruction in autonomous machine applications | |
US20210180958A1 (en) | Graphic information positioning system for recognizing roadside features and method using the same | |
CN115705693A (zh) | 用于传感器数据的标注的方法、系统和存储介质 | |
CN113469045A (zh) | 无人集卡的视觉定位方法、系统、电子设备和存储介质 | |
CN116295508A (zh) | 一种基于高精地图的路侧传感器标定方法、设备和系统 | |
CN116762094A (zh) | 数据处理方法和设备 | |
CN116642511A (zh) | Ar导航图像渲染方法、装置、电子设备及存储介质 | |
CN113885496A (zh) | 智能驾驶仿真传感器模型及智能驾驶仿真方法 | |
US20240221390A1 (en) | Lane line labeling method, electronic device and storage medium | |
CN115376365B (zh) | 车辆控制方法、装置、电子设备和计算机可读介质 | |
TWI770511B (zh) | 一種影像辨識導航裝置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP01 | Change in the name or title of a patent holder |
Address after: Room 503-3, 398 Jiangsu Road, Changning District, Shanghai 200050 Patentee after: Shanghai Xijing Technology Co.,Ltd. Address before: Room 503-3, 398 Jiangsu Road, Changning District, Shanghai 200050 Patentee before: SHANGHAI WESTWELL INFORMATION AND TECHNOLOGY Co.,Ltd. |
|
CP01 | Change in the name or title of a patent holder |