CN117774986A - 一种智能网联汽车高精度地图厘米级定位方法及系统 - Google Patents

一种智能网联汽车高精度地图厘米级定位方法及系统 Download PDF

Info

Publication number
CN117774986A
CN117774986A CN202410211125.2A CN202410211125A CN117774986A CN 117774986 A CN117774986 A CN 117774986A CN 202410211125 A CN202410211125 A CN 202410211125A CN 117774986 A CN117774986 A CN 117774986A
Authority
CN
China
Prior art keywords
information
bar code
image
target
current moment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202410211125.2A
Other languages
English (en)
Other versions
CN117774986B (zh
Inventor
方驰宇
林宗坚
马照亭
赵园春
刘勇
马小龙
王柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chinese Academy of Surveying and Mapping
Original Assignee
Chinese Academy of Surveying and Mapping
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chinese Academy of Surveying and Mapping filed Critical Chinese Academy of Surveying and Mapping
Priority to CN202410211125.2A priority Critical patent/CN117774986B/zh
Publication of CN117774986A publication Critical patent/CN117774986A/zh
Application granted granted Critical
Publication of CN117774986B publication Critical patent/CN117774986B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

本发明公开一种智能网联汽车高精度地图厘米级定位方法及系统,涉及汽车定位技术领域,该方法首先对当前时刻目标图像中的条码信息进行提取,然后将提取到的目标图像对应的条码组合与目标路段的每一车道的条码序列数据进行匹配,确定目标智能网联汽车当前所在车道,然后根据智能网联汽车上相机的相机参数以及目标车道的条码序列数据确定完整条码的数量,并确定在当前时刻所属条码的当前位移,最后根据当前时刻完整条码的数量以及当前位移确定最终的厘米级定位信息,可在城市峡谷、长距离隧道、多层立交等GNNS定位困难的特殊场景下,实现智能网联汽车高精度的厘米级精度定位。

Description

一种智能网联汽车高精度地图厘米级定位方法及系统
技术领域
本发明涉及汽车定位技术领域,特别是涉及一种智能网联汽车高精度地图厘米级定位方法及系统。
背景技术
智能网联汽车行驶过程中,常采用GNSS+RTK+IMU组合导航定位方法,但是在汽车行驶至城市峡谷、长距离隧道、多层立交等特殊场景时,GNSS+RTK+IMU组合导航定位方法无法达到厘米级精度的问题。因此,亟需一种能够实现厘米级精度的智能网联汽车高精度地图厘米级定位方法及系统。
发明内容
本发明的目的是提供一种智能网联汽车高精度地图厘米级定位方法及系统,可在汽车行驶至城市峡谷、长距离隧道、多层立交等特殊场景时,实现智能网联汽车高精度的厘米级精度定位。
为实现上述目的,本发明提供了如下方案。
本发明提供一种智能网联汽车高精度地图厘米级定位方法,包括如下步骤。
获取当前时刻对应的目标图像;所述目标图像由目标智能网联汽车上的相机拍摄前方车道得到。
对所述目标图像中的条码信息进行提取,得到当前时刻所述目标图像对应的条码组合。
将当前时刻所述目标图像对应的条码组合与目标路段的每一车道的条码序列数据进行匹配,得到当前时刻所述目标智能网联汽车所在的目标车道;所述目标路段由所述目标智能网联汽车的定位信息确定;所述条码序列数据由若干不同形状的信息子码编码得到;所述目标路段中相邻车道的条码序列数据不同;每一信息子码表征目标路段的设定距离。
根据所述相机的相机参数确定当前时刻所述目标图像对应的地主点,并将所述地主点所在的条码确定为当前时刻所属条码;所述相机参数包括相机航高、相片倾角和焦距;所述地主点为延长线与所述目标图像中条码组合的交点;所述延长线为相机所在位置与所述焦距垂线的延长线。
根据当前时刻所属条码和所述目标车道的条码序列数据确定当前时刻对应的完整条码的数量;当前时刻对应的完整条码的数量为所述目标智能网联汽车在目标路段上行驶经历的条码信息子码的数量。
根据所述地主点和当前时刻所属条码的起始边界线确定在当前时刻所属条码的当前位移。
根据当前时刻对应的完整条码的数量、所述设定距离以及在当前时刻所属条码的当前位移确定所述目标智能网联汽车的厘米级定位信息。
本发明还提供了一种智能网联汽车高精度地图厘米级定位系统,包括如下模块。
目标图像获取模块,用于获取当前时刻对应的目标图像;所述目标图像由目标智能网联汽车上的相机拍摄前方车道得到。
子码提取模块,用于对所述目标图像中的条码信息进行提取,得到当前时刻所述目标图像对应的条码组合。
匹配模块,用于将当前时刻所述目标图像对应的条码组合与目标路段的每一车道的条码序列数据进行匹配,得到当前时刻所述目标智能网联汽车所在的目标车道;所述目标路段由所述目标智能网联汽车的定位信息确定;所述条码序列数据由若干不同形状的信息子码编码得到;所述目标路段中相邻车道的条码序列数据不同;每一信息子码表征目标路段的设定距离。
当前时刻所属条码确定模块,用于根据所述相机的相机参数确定当前时刻所述目标图像对应的地主点,并将所述地主点所在的条码确定为当前时刻所属条码;所述相机参数包括相机航高、相片倾角和焦距;所述地主点为延长线与所述目标图像中条码组合的交点;所述延长线为相机所在位置与所述焦距垂线的延长线。
数量确定模块,用于根据当前时刻所属条码和所述目标车道的条码序列数据确定当前时刻对应的完整条码的数量;当前时刻对应的完整条码的数量为所述目标智能网联汽车在目标路段上行驶经历的条码信息子码的数量。
当前位移确定模块,用于根据所述地主点和当前时刻所属条码的起始边界线确定在当前时刻所属条码的当前位移。
厘米级定位信息确定模块,用于根据当前时刻对应的完整条码的数量、所述设定距离以及在当前时刻所属条码的当前位移确定所述目标智能网联汽车的厘米级定位信息。
根据本发明提供的具体实施例,本发明公开了以下技术效果:本发明提供了一种智能网联汽车高精度地图厘米级定位方法及系统,首先对智能网联汽车上当前时刻目标图像中的条码信息进行提取,然后将提取到的目标图像对应的条码组合与目标路段的每一车道的条码序列数据进行匹配,确定目标智能网联汽车当前所在车道,然后根据智能网联汽车上相机的相机参数以及目标车道的条码序列数据确定当前时刻完整条码的数量,并确定在当前时刻所属条码的当前位移,最后根据当前时刻完整条码的数量以及当前位移确定最终的厘米级定位信息,可在城市峡谷、长距离隧道、多层立交等GNNS定位困难的特殊场景下,实现智能网联汽车高精度的厘米级精度定位。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例1提供的智能网联汽车高精度地图厘米级定位方法流程示意图。
图2为本发明实施例1提供的子码图形及对应的编码类型和数值示意图。
图3为本发明实施例1提供的车道条码编码示意图。
图4为本发明实施例1提供的经过第一种算法二值化后的图像效果示意图。
图5为本发明实施例1提供的第二种算法二值化后的图像效果示意图。
图6为本发明实施例1提供的单张图像几何关系结构示意图。
图7为本发明实施例1提供的顺时针旋转90度后的二值图像。
图8为本发明实施例1提供的多条车道中心线条码及定位示意图。
图9为本发明实施例1提供的目标图像对应当前位移示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种智能网联汽车高精度地图厘米级定位方法及系统,通过汽车行驶过程中拍摄的车道的目标图像中提取到的条码组合,与提前编码的在行驶目标路段车道的条码序列数据进行匹配,确定汽车行驶车道,并根据目标图像中信息子码的信息确定目标智能网联汽车的厘米级定位信息。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
实施例1。
如图1所示,本实施例提供了一种智能网联汽车高精度地图厘米级定位方法,包括以下步骤。
S1:获取当前时刻对应的目标图像;所述目标图像由目标智能网联汽车上的相机拍摄前方车道得到。
S2:对所述目标图像中的条码信息进行提取,得到当前时刻所述目标图像对应的条码组合。
S3:将当前时刻所述目标图像对应的条码组合与目标路段的每一车道的条码序列数据进行匹配,得到当前时刻所述目标智能网联汽车所在的目标车道;所述目标路段由所述目标智能网联汽车的定位信息确定;所述条码序列数据由若干不同形状的信息子码编码得到;所述目标路段中相邻车道的条码序列数据不同;每一信息子码表征目标路段的设定距离。
S4:根据所述相机的相机参数确定当前时刻所述目标图像对应的地主点,并将所述地主点所在的条码确定为当前时刻所属条码;所述相机参数包括相机航高、相片倾角和焦距;所述地主点为延长线与所述目标图像中条码组合的交点;所述延长线为相机所在位置与所述焦距垂线的延长线。
S5:根据当前时刻所属条码和所述目标车道的条码序列数据确定当前时刻对应的完整条码的数量;当前时刻对应的完整条码的数量为所述目标智能网联汽车在目标路段上行驶经历的条码信息子码的数量。
S6:根据所述地主点和当前时刻所属条码的起始边界线确定在当前时刻所属条码的当前位移。
S7:根据当前时刻对应的完整条码的数量、所述设定距离以及在当前时刻所属条码的当前位移确定所述目标智能网联汽车的厘米级定位信息。
在城市峡谷、长距离隧道、多层立交等GNSS定位困难的特殊场景,针对未达到厘米级精度的路段的每一条车道,在车道中心线上设计并绘制能长期使用的(类似现在车道边缘黄白线样式)黑白间隔条码。每个条码设计长度为50厘米,宽度为10厘米。条码中不同的图形单元,称为子码。目前设计含有六个子码。每个子码代表一种图形样式,对应于一个具体的编码值,分别以纯白色、纯黑色,以及以纯白为底色上下左右不同位置覆盖四分之一黑色块的六种图形表示。具体子码的图形及对应的编码类型和数值如图2所示。为便于应用和区分,将子码分为以下两种类型:间隔子码和信息子码。
(1)间隔子码:指图2中的子码6,即纯黑色子码并且以恒定的频率重复出现,其目的是作为左右相邻两个子码之间的间隔存在,因此称为间隔子码。
(2)信息子码:指图2中除去纯黑色子码以外的子码1—5的几种样式子码,作为主要语义信息的载体,不同组合可以提供不同的编码串,所以将这5种子码统称为信息子码。
本实施例在后续定位应用等过程中,黑色间隔子码对应的编码值5默认不再标出,该子码也不参与相关的编码匹配,只对照信息子码的个数累积到总距离中。即每两个信息子码之间设置一间隔子码。
在对汽车当前行驶路段进行定位之前,对其行驶的目标路段的每一车道进行编码,车道编码的目的在于通过识别有限个连续有效子码并对应解析其语义值,结合历史数据等辅助信息,对比预设的道路编码库,就能快速确定当前时刻汽车所在的位置。由于涉及编码的语义,就需要保证每次用于检索匹配的子码串中除间隔子码以外的5种信息子码的组合带有各自的语义信息,并且在一定的距离区间内不重复。一段车道中心线条码图形及编码设计示意图如图3所示。
由于车载相机拍摄的高度、距离以及范围有限,目前设定需要保证至少包含3个信息子码才能组成有效匹配子码串。其中,编码图形是指当前摄录的目标图像上能正常提取出来,并有效识别的连续包含了信息子码和间隔子码的一串编码,编码值就是指这串编码中信息子码按位从左到右的对应数值的拼接,基于识别计算的复杂度以及相片拍摄质量的要求,目前本实施例只取3位有效编码定位,读取出来的多余位数可以作为冗余检校用。通过三个编码位上使用样式完全相同的信息子码进行编码、三个编码位中取两个样式相同的信息子码,以及三个编码位对应取三个样式都不相同的信息子码进行编码,共得到5+60+60=125种编码组合。接下来以这125种组合为基础码段进行编码,组成车道条码串。
具体编码环节,取目标路段道路中的一条车道作为基础车道。
(1)从起点选择第一个编码组合000作为编码串的起始位,此时编码串就为000。
(2)由于共用此前编码串的后两位,此时第二个编码组合可选择的样式为00X(X=1、2、3、4);按照从小到大原则选取集合中最小的一个信息子码,则X必然为1,所以选取的第二个编码组合为001,然后挂接之前的编码串尾部,前后共用重叠的两个编码位只取一次,就得到目前编码串为0001。
(3)继续以此前编码串的最后两位为基础,则第三个可选择的编码组合样式为01X(X=0、1、2、3、4),仍然遵循最小选取原则,新编码组合即为010;挂接到已有的编码串末尾,就得到当前编码串为00010。
(4)依次将每次拼接成的新编码串最后两位数字作为下一次编码组合的固定位,再遍历搭配成不重复的最小编码样式并拼接到编码串的末尾,就可以得到125位编码。再加上最后两位的补充编码,总共127位。
上述一套完整的127个编码方案对应于127米的长度,也即是在127米的距离内,同一条车道内的编码组合不重复。由于信息子码与间隔子码成对出现,所以汽车行驶经过的信息子码的个数同样也是间隔子码的个数。
车道上每127米的长度按上述最终得到的编码方案为单元,循环往复可以实现整条车道的编码。在车辆行进过程中,工业相机摄像头按照一定频率持续摄录当前地面的条码的照片,即得到目标图像。系统通过顺序读取的历史编码串以及当前编码,就可以确定行驶的里程以及当前的位置。
另外,对于不同车道的编码,以当前车道为基准,离当前车道的左侧最近的车道,在当前编码方案每个编码位的基础上以五进制的规则加1;离当前车道的右侧最近的车道,在当前每个编码位的基础上加2。次外侧的左右两条车道则分别加3,和加4。如此,保证了包括当前基准车道在内的5条车道,对应的编码单元是唯一的。对于更多车道的情况,由于一套独立完整的编码方案至少已经隔了两条车道以上,所以可以在新的车道上重复使用编码方案。通过读取的历史编码串以及当前编码,能够判断出是否保持在当前车道或者切换到了哪条车道。
基于上述过程,可得到目标车道条码库(预制编码方案),其包括各个车道的条码序列数据。
在本实施例一个具体的示例中,S1具体包括:本实施例中拍摄目标图像的相机为工业相机,工业相机将以固定的高度和倾角装载在目标智能网联汽车上,在本实施例中工业相机安装在目标智能网联汽车车头位置,并当车辆行驶在绘制了条码的车道上时,在汽车行进的过程中持续摄录,以固定角度实时拍摄车道中心线上车道条码序列的视频或图片。基于摄像测量基本原理,相机、相片以及地面之间可以建立静止状态下的关系。实际过程中车辆在持续的运动,带动固定的相机以及摄影中心点也以同样的速度保持运动状态。但相机摄影中心点以及以它为基准的各个参数之间的相对关系是保持不变,因此可以简化地看作一台保持固定倾角的相机带动整个参考系在运动的过程中持续对地面条码进行摄录的过程。以此参考系为基础,采用MATLAB作为工具进行开发。
在一个具体的示例中,在S2对获取当前时刻对应的目标图像之前,还包括:对工业相机拍摄的原始图像进行预处理,具体如下:因为相机装载在车头中间正对着前进方向,所以有效信息即编码基本出现在相片的正中纵轴上。由于光圈阴影遮挡、路面纹理颜色,以及其他交通标志等,干扰信息也同时被摄入了相片中,这些内容都是目标对象以外的噪声。为减少类似干扰,需要将相片进行预处理。而这些处理在本阶段是获取相应的参数,但在随后的过程中每一幅相片也都需要进行类似的处理。具体内容包括,相片消除色调的灰度化处理、有效范围的裁切处理、凸显目标区域的二值化处理,以及单张相片航向偏角的纠正处理等。
(1)对原始图像进行灰度处理,得到灰度图像;所述原始图像由目标智能网联汽车上的相机拍摄前方车道得到。
一幅彩色图像的灰度处理是消除相片中色调和饱和度信息,保留亮度的同时使彩色图像的R、G、B三个分量相等的过程。灰度图像中每个像素仅具有一种样本颜色,其灰度是位于黑色与白色之间的多级色彩深度,值大的像素点较亮,反之较暗,像素值最大为255(表示白色),像素值最小为0(表示黑色)。将灰度图像以矩阵保存,矩阵中每一个元素就代表一个像素点的不同亮度或灰度级。通过对原始图像进行灰度处理,将原始图像中明亮的色调去除,同时将相片离散化,形成二维矩阵便于后续操作。
(2)对所述灰度图进行裁剪,得到裁剪图像。
目前灰度图像约为4000pixel宽,有效的编码部分只占中间极少部分,两侧都是无用的信息,所以为减少后续运算和处理的数据量,对灰度图像两侧进行首次粗略的裁切,此时左右各裁去200到500像素大小的图像,得到裁剪图像。由于已经将图像转换为了二维矩阵,因此只用删减该矩阵的边缘行列即可。
(3)对所述裁剪图像进行二值化处理,得到二值化图像。
为便于目标区域提取和分割,需要确定目标区域的边界,将整个图像处理出明显的黑白效果,从而凸显出目标的轮廓。具体就是将256个亮度等级的灰度图像通过适当的阈值选取而获得仍然可以反映图像整体和局部特征的二值化图像,所有灰度大于或等于阈值的像素被判定为属于特定物体。图4和图5即为两种二值化方法后的图像效果对比。图4是采用第一种算法二值化后的图像效果,第一种算法为默认的imbinarize()函数。图5为采用第二种算法二值化后的图像效果,其图像目标区域明显,界限清晰,即便有少量零散噪声但可以很方便的去除。第二种算法采用的是形态学图像处理中的开闭运算函数,包括imopen()函数和imclose()函数,其中,imopen()函数是对灰度图像执行形态学开运算,即先将图像进行腐蚀操作后进行膨胀操作,能够平滑图像的轮廓,消弱狭窄部分,去掉细部突出,保持面积大小不变等;imclose()函数则是对灰度图像执行形态学闭运算,即先将图像进行膨胀操作后进行腐蚀操作,能平滑图像轮廓的同时,可以融合狭窄缺口和细长弯口,去掉小洞,填补轮廓上的缝隙。
(4)对所述二值化图像进行航向纠正处理,得到纠正图像;所述纠正图像为目标图像。
相机固定于汽车头部。在汽车的行进过程中,虽然总体趋势是要求相机正对着条码延伸的方向进行摄录,但实际行进中的单幅图像难免会有角度倾斜的偏差。因此,本实施例计算出当前及每一张相片中条码的航向与实际条码方向的夹角,即航向偏角。再将相片按照偏角的相反角度予以纠正,保证条码区域位于目标图像的正中,并朝向正北方向,得到纠正图像,即进行条码信息提取的目标图像。
通过上述预处理,得到了精简并纠正后的图像二维矩阵。接下来需要验证并精化相机的内外方位元素,主要包括相机的航高、焦距等相关参数。当相机装载在汽车上后,航高以及倾角可以通过外部量测的方法得到近似的数值,确定型号的相机包括焦距(f)在内的对应参数也是基本固定的,但在具体数值上则会有细微的差别。
按照目前编码方案中需要读取至少3个信息子码的要求,安置的摄像头倾角初始的取值范围大致为至/>间,具体会由相机航高的高度而调整。而航高是由相机装置点(即相机位置点)离水平地面的高度确定,该装置点又依据采用的载体的类型,如手持相机三角架、移动推车或是汽车而确定,其中不同的车辆外形设置相机装置点也会有差别。
为了得到上述相关相机参数的精确数值,同时也是对整体方案的反向验证,所以当相机首次在汽车上固定后需要进行参数的初始化计算。虽然不具备借助工具精确量测的可行性,但可以根据单张成像相片中目标区域各条码子码与摄影中心构建的参考系,建立相互间几何关系的方程组,利用最小二乘原理,从多次迭代的估值计算度量中实现残差平方和最小化,从而得到最佳的拟合参数。
假设在静止状态下,首先从相机出发,定义相机的摄影中心点S(即相机位置点)位于相机CMOS平面上的中心,则摄影中心点到水平地面的高度称为航高(H),摄影中心点到水平地面的投影称为地底点(N);相片的几何中心称为像主点(),摄影中心与像主点连线并延长与水平地面的交点称为地主点(O),这条连线称为主光轴;主光轴与摄影中心点垂线的夹角就是相片倾角,用/>表示,f为相机焦距,如图6所示。
图6中数字1—6为图像上各个有效子码间的分界点,其影像坐标Xi可以通过图像处理直接获取;—/>为摄影中心到各子码分界点的光线与主光轴间的夹角,各个/>的值可以通过三角函数计算。
(1)。
上式(1)中,为摄影中心点到第i个子码分界点的光线与主光轴间的夹角,/>为第i个子码分界点的影像坐标。
通过外部量测,大致估计航高H估值从860mm递增,相片倾角估值约从/>递增,相片焦距f约为3000pixel起算;同时能够确定实地施工绘制的条码尺寸/>=500mm。因此,对于倾角/>与各个分界点夹角/>的关系,可以列出如下等式。
(2)。
本实施例中,设=L500/H。同时倾角/>可以用近似值/>加上一个改正数/>表示,则等式(2)可简化为公式(3)所示形式。
(3)。
(4)。
通过将等式组线性化,即将公式(3)中的i代入1-6,得到一个包括6个等式的等式组,然后根据最小二乘原理,将航高、倾角等参数的预估初始值代入并不断迭代,计算每次迭代后上式方程中的标准差。
在有限取值范围有限迭代次数的情况下,计算得到标准差项最小的那一组参数即可以认为是最佳拟合值,即得到相机参数:装载相机的航高H与倾斜角、相机实际的焦距f。
这几个参数一旦取得短期类不会发生重大变化。另外,航向偏角是针对单帧相片而言,所以每一帧都要实时矫正。接下来,要在默认上述参数已经获取得到的前提下,对单帧相片开展条码识别以及定位。在条码识别阶段包括:区域裁切,子码分割,子码识别等几个步骤。
(1)区域裁切。
所述目标图像为二值图像;S2中对所述目标图像中的条码信息进行提取,得到当前时刻所述目标图像对应的条码组合,具体包括:基于所述目标图像中的二值信息对所述目标图像进行裁切,得到多个信息子码区域图像;对每一所述信息子码区域图像的条码信息进行提取,得到每一所述信息子码区域图像对应的信息子码编码值;基于所述信息子码区域图像的裁切顺序将所有所述信息子码区域图像对应的信息子码编码值进行排列,得到当前时刻所述目标图像对应的条码组合。
在之前图像预处理环节,已经将图像进行了粗略的裁剪。在这里则要在经过了航向纠正后的相片,即目标图像中,较为精确地找到条码所在的区域,并将其裁切并提取出来。
首先,前面已经将相片转化为只含0和1的二值矩阵,定义为cag,其行数rowC和列数colC分别对应于旋转后的像素数。
接下来可以使用Radon变换,将cag直接在当前水平面()进行投影,从而得到两个向量y_value和y_key,分别为与图像矩阵cag每一列上所有的值投影到水平面上的累加,及其对应的原点在中间的径向坐标。
通过观察发现,径向坐标轴y_key两侧的y_value累加值几乎都为0,表明在两侧的每一列上的所有行都不存在大于0的有效值;但到了接近中间区域位置时,y_value累加值突然有了明显的急剧增加,表明在有值的那一列上至少有一行存在大于0的有效值。在相片上没有明显干扰噪声的情况下,就可以确定该段区域就是条码所在的目标区域。
也就是说只要找到径向坐标轴y_key某一段有值区域,就可以确定矩阵中的目标区域。根据这一特征设计函数,在径向坐标y_key上从左向右依次遍历,判断每个坐标点对应的y_value值。若从第i点坐标y_key[i]起,y_value[i]开始大于0,则记录此次i的值。然后继续判断下一个坐标点y_value[i+1]的值是否仍然大于0,若成立则再往后,直到坐标点y_value[i+n]的值不再大于0,记录i+n-1的值,表示从i到i+n-1这段为有值区域。当然在实际过程中,因局部噪声等干扰,可能会出现有多个有值区域的情况。但可以通过有值区域的宽度、有值区域总累加值等条件,进行对比和判断,从而筛选出真正的有效区域。
由于目标图像已经是二值矩阵,而且上述的径向坐标轴y_key是矩阵cag通过Radon变换按投影得到的,与矩阵cag的列数一一对应。所以只需按照计算出的径向坐标轴y_key上的有效区域对应提取该二值矩阵,可得到了只包含目标区域的新矩阵。为便于后续分割识别方便,将该新矩阵顺时针旋转/>,称为cag2。包含目标区域的水平二值图效果如图7所示。
(2)子码分割:由于带倾角拍摄的条码效果会近大远小,因此在进行上述裁切时是从所能识别的目标区域整体最宽处着手,各子码特别是信息子码周边仍有多余的部分。本实施例将利用间隔子码为纯黑色与背景融为一体的特点,对目标区域进一步分割,实现信息子码的提取。
基于前述使用Radon变换算法确定目标区域的思路,将图7在当前水平面()进行投影,得到两个向量x_value和x_key,对应上述图像矩阵cag2每一列上所有的值投影到水平面上的累加,及其对应的原点在中间的径向坐标。
然后从径向坐标轴x_key最左侧开始逐像素向右判断x_value[i]累加值,根据前文寻找目标区域的步骤,同样可以筛选出多段内部连续的区间块。下表1即为将图7处理后得到的分块情况,每行为一个有效的区间块,就对应着一个信息子码的区域。
表1 分块情况。
根据径向坐标轴x_key上的区间信息,就可以将对应找到的多个信息子码区域分割并提取出来,即得到多个信息子码区域图像。
(3)子码识别。
在分割目标区域提取出信息子码后,还需要解译该信息子码具体对应的编码值,即识别出是编码值0—5中的哪一个编码值。为此,本实施进行有效性判断、方向判断和权重判断三个步骤。
相邻两个信息子码之间设置有一间隔子码;所述间隔子码与信息子码的二值信息不同;本实施例在对每一所述信息子码区域图像的条码信息进行提取之前,还包括:对第一信息子码区域图像进行有效性判断,当所述信息子码区域图像中子码的长度与设定距离的差值在设定阈值范围内,则所述第一信息子码区域图像有效,对所述第一信息子码区域图像的条码信息进行提取;当所述信息子码区域图像中子码的长度与设定距离的差值不在设定阈值范围内,则所述第一信息子码区域图像失效,舍弃所述第一信息子码区域图像,并对第二信息子码区域图像的条码信息进行提取;所述第一信息子码区域图像为裁切顺序为第一的信息子码区域图像;所述第二信息子码区域图像为裁切顺序为第二的信息子码区域图像。
1)有效性判断:在开始子码识别前,需要保证信息子码特别是左侧第一个信息子码的有效性。
(i)情况1:目标图像左侧内的第一个子码为间隔子码,其绝大部分都在目标图像内;后续的首个信息子码完整有效,能够准确识别其子码编码。
(ii)情况2:目标图像左侧内的第一个子码为间隔子码,但其只有不超过自身设定距离二分之一的少部分落在目标图像内;后续的首个信息子码完整有效,能够准确识别其子码编码。
(iii)情况3:目标图像左侧内的第一个子码为信息子码,其绝大部分都在目标图像内,即子码的长度大于设定距离的二分之一,虽然不完整但基本有效,能够大致识别其子码编码。
(iv)情况4:目标图像左侧内的第一个子码为信息子码,但只有不超过自身设定距离二分之一的少部分落在目标图像内,不完整也无效,无法识别其子码编码。
由于目标图像上的子码都是前大后小,所以当识别出第一个子码为信息子码且区间长度还不大于第二个信息子码时,就可以判断出为情况4。前3种情况下提取出来的首个信息子码有效可用,情况4则因首个信息条码信息量过少无法识别具体编码值,所以需舍弃该子码并从下一个信息子码开始判读,或者舍弃整张目标图像。
2)方向判断和权重判断:对每一所述信息子码区域图像的条码信息进行提取,得到每一所述信息子码区域图像对应的信息子码编码值,具体包括:
对于每一所述信息子码区域图像,根据所述信息子码区域图像中第一颜色区域的面积和位置对所述信息子码区域图像的条码信息进行提取,得到所述信息子码区域图像对应的信息子码编码值;所述信息子码区域图像包括第一颜色区域和第二颜色区域。
根据所述信息子码区域图像中第一颜色区域的面积和位置对所述信息子码区域图像的条码信息进行提取,得到所述信息子码区域图像对应的信息子码编码值,具体包括:利用Radon变换算法确定所述信息子码区域图像中第一颜色区域的位置;根据所述信息子码区域图像中第一颜色区域的面积和位置对所述信息子码区域图像的条码信息进行提取,得到所述信息子码区域图像对应的信息子码编码值。
具体地,对于有效信息子码的识别而言,根据图形的特点判断出其编码类型,即信息子码编码值。
各类信息子码间最主要的区别特征就在于白色区域(白色区域为第二颜色区域)的占比,以及黑色条块(黑色条块为第一颜色区域)位于上下左右哪个位置。虽然相片上的编码目标区域整体由近及远逐渐收缩,但就单个子码而言收缩的趋势较缓。因此可以从每个信息子码二值图的中间位置剖开,计算左右两块区域白色的比例。
(i)如果左右比例基本相当,则说明是纯白色块类型,编码值就确定为0。
(ii)如果左侧比例远小于右侧,则说明有黑色块存在且位于子码左侧,编码值可能为1或者3,统一定义为13型。
(iii)如果左侧比例远大于右侧,则说明有黑色块存在且位于子码右侧,编码值可能为2或者4,统一定义为24型。
通过以上步骤可以将编码为0的信息子码识别出来,同时判断出对于非0的信息子码第一颜色区域黑色条块的方向。
在确定了信息子码第一颜色区域黑色条块左右方向后,需要进一步判定其位于上下位置的权重。可以再次使用Radon变换算法,将当前的单个信息子码在垂直方向上投影,计算该方向左右两段的灰度累加值权重比例。同时为了保证左右两段有效区域的均衡,在Radon变换前还需要将单个信息子码的二值图进一步的精确裁切并提取。Radon变换算法具体内容同前述子码分割内容相似,在此不再赘述。通过上述处理,可以得到如下结论。
(i)对于13型,如果左段比例远大于右段,则说明有第一颜色区域黑色条块存在且位于子码右侧,编码值为1,反之编码值为3。
(ii)对于24型,如果左段比例远大于右段,则说明有第一颜色区域黑色条块存在且位于子码右侧,编码值为2,反之编码值为4。
通过前面条码识别环节,得到了单张目标图像上条码承载的语义,即有效信息子码的编码串(条码组合)。根据这个条码组合,就可以从编码方案中进行匹配,从而实现所在位置的确定,并得到精确的距离。
在S3将当前时刻所述目标图像对应的条码组合与目标路段的每一车道的条码序列数据进行匹配之前,还包括:判断当前时刻所述目标图像对应的条码组合是否为首次匹配,若是,则将当前时刻所述目标图像对应的条码组合与目标路段的每一车道的条码序列数据进行匹配;若否,则获取匹配时间段内匹配完成的条码组合,并根据所述匹配时间段内匹配完成的条码组合与目标路段的每一车道的条码序列数据进行匹配;所述匹配时间段由起始时刻以及当前时刻的上一时刻确定。
开始匹配前,需要提供的参数包括:是否是首次匹配,初始所在的车道序号,是否更换过车道,本张照片识别出来的信息子码串,本次之前途经的子码串等。如果是首次匹配,直接根据车道号在指定的车道中匹配子码串,若能匹配到的首个结果就是当前汽车所在的位置,若匹配不出结果则在当前车道的两侧车道继续搜索,直至得到结果;如果非首次匹配,则需提供已经匹配完成的次数或者从起始点到上一次匹配点的子码串,在目标车道条码库中进行截取,然后再开始相同的匹配过程。
S3具体包括:在城市峡谷、长距离隧道、多层立交等GNSS定位困难的特殊场景入口,通过最近获取的有效GNSS定位信息确定当前大致位置,然后通过识别布设在路面的标识精确确定所在具体路段,也可以结合道路的道路测量单元(RSU)等设备广播的信息来确定路段。当车辆通过时,快速定位所在的道路或路段,实现车辆行驶具体道路或路段的定位,并以此位置作为车道级定位的起始基准。
将相机拍摄的实时视频帧或单张照片作为目标图像,通过图像处理等方法从中提取出有效的以间隔子码区分的信息子码,组合后,得到目标图像对应的条码组合,对比匹配预制编码方案中对应的当前路段各车道的条码序列数据,来判定车辆当前所在的车道编号,实现高精度地图上的车道定位,得到当前时刻目标智能联网汽车所在的目标车道。
具体的匹配过程:前述提前编码得到的3位有效编码方案(目标车道条码库),共由127个信息子码组成可首尾衔接的1轮编码串。只需要从最后两个补充位起将编码方案循环铺设,就可以不断的延长。
目标图像上识别出来的3位信息子码串在该方案铺设1轮中只会出现1次,利用这个特性,结合之前的历史信息,就可以匹配出当前目标图像信息子码串所在位置,以得到当前时刻目标智能联网汽车所在的目标车道。
S4-S6具体包括如下步骤。
S6根据所述地主点和当前时刻所属条码的起始边界线确定在当前时刻所属条码的当前位移,具体包括:将所述地主点到当前时刻所属条码的起始边界线的垂直距离确定为在当前时刻所属条码的当前位移。
根据当前目标图像的摄影方向线与目标图像上条码组合和像主点以及实际地面条码和地主点等之间的空间几何关系结构,可以计算出该结构中某点(比如地主点)位于当前摄录的地面条码的具体相交点位置,可以确定出当前时刻所属条码,只要内插出该地主点与条码左侧分界线的距离,就可以得到基于小数部分的当前位移。图9为前后两帧目标图像与地面条码的关系:目标图像1从摄影中心点S1出发的主光轴与地面条码相交于地主点O1,则该目标图像的小数当前位移就是L1;目标图像2从摄影中心点S2出发的主光轴与地面条码相交于地主点O2,则该目标图像的小数当前位移就是L2。具体的计算过程包括以下步骤。
(i)根据初始化阶段获取的相机航高H、目标图像倾角、焦距f等参数以及已经得到的各子码坐标点Xi,可以计算主光轴与各子码分界线夹角/>,地底点与地主点距离N1O1、N2O2以及地主点与各子码分界线的距离等等。
(ii)以目标图像最左侧信息子码为起点,判断地主点落在的所属区域是信息子码(偶数)还是间隔子码(奇数),图9中的两个地主点O1和O2正好都在间隔子码上。
(iii)计算地主点到左侧最近子码边界线距离,如图9中的L1=O1m1,L2=O2m2
(iv)利用前述对于目标图像上首个信息子码有效性的4种情况,分别结合地主点所在子码类型,判断地底点N1、N2各自到m1、m2之间的子码个数,即确定出当前时刻对应的完整条码的数量。
S5具体包括:根据计算车辆行进过程中摄取的固定长度的条码序列子码数量,可以唯一确定当前车辆从本路段起始到当前车道及位置的里程距离,实现车道内的纵向米级定位。只要从目标车道条码库匹配出当前目标图像上的条码组合,就可以取得相对于当前车道起点到当前匹配点的全部编码,即当前时刻对应的完整条码的数量。成对出现的间隔子码和信息子码长度为1米,那么只要将此时经过的全部信息子码数累加,就可以得到当前相对于起点的里程整数。多条车道中心线条码及定位示意图如图8所示。
S7中根据当前时刻对应的完整条码的数量、所述设定距离以及在当前时刻所属条码的当前位移确定所述目标智能网联汽车的厘米级定位信息,具体包括:将当前时刻对应的完整条码的数量与所述设定距离相乘,得到整数里程距离;将所述整数里程距离和在当前时刻所属条码的当前位移相加,得到所述目标智能网联汽车的厘米级定位信息。
最终,目标图像内左侧的子码数跟之前累积的子码数之和(即当前时刻对应的完整条码的数量),乘以单个子码长度(单个子码长度即设定距离),得到整数里程距离;然后将地主点在当前时刻所属条码内的当前位移L与整数里程距离相加,就可以得到当前行进的总里程,即当前时刻目标智能网联汽车的厘米级定位信息。
根据实时视频帧或单张图像,以图像处理等方法从中提取出有效的条码组合。通过像主点和像底点/>、地主点O和地底点N,以及图像中信息子码的几何位置关系等信息,内插计算得到在本张图像的距离情况,精度可以对应到厘米级。
本实施例公开了一种智能网联汽车高精度地图厘米级定位方法,包括:道路车道及里程编码,车载相机检校,目标图像预处理,子码识别,位置匹配,米级定位和厘米级定位。本发明能有效地弥补汽车行驶至城市峡谷、长距离隧道、多层立交等特殊场景下,GNSS+RTK+IMU组合导航定位无法达到厘米级精度的问题,为智能网联汽车提供高精度的厘米级定位方法和系统,推动智能网联汽车的快速发展。
实施例2。
为了执行上述实施例1对应的方法,以实现相应的功能和技术效果,下面提供一种智能网联汽车高精度地图厘米级定位系统,包括以下模块。
目标图像获取模块,用于获取当前时刻对应的目标图像;所述目标图像由目标智能网联汽车上的相机拍摄前方车道得到。
子码提取模块,用于对所述目标图像中的条码信息进行提取,得到当前时刻所述目标图像对应的条码组合。
匹配模块,用于将当前时刻所述目标图像对应的条码组合与目标路段的每一车道的条码序列数据进行匹配,得到当前时刻所述目标智能网联汽车所在的目标车道;所述目标路段由所述目标智能网联汽车的定位信息确定;所述条码序列数据由若干不同形状的信息子码编码得到;所述目标路段中相邻车道的条码序列数据不同;每一信息子码表征目标路段的设定距离。
当前时刻所属条码确定模块,用于根据所述相机的相机参数确定当前时刻所述目标图像对应的地主点,并将所述地主点所在的条码确定为当前时刻所属条码;所述相机参数包括相机航高、相片倾角和焦距;所述地主点为延长线与所述目标图像中条码组合的交点;所述延长线为相机所在位置与所述焦距垂线的延长线。
数量确定模块,用于根据当前时刻所属条码和所述目标车道的条码序列数据确定当前时刻对应的完整条码的数量;当前时刻对应的完整条码的数量为所述目标智能网联汽车在目标路段上行驶经历的条码信息子码的数量。
当前位移确定模块,用于根据所述地主点和当前时刻所属条码的起始边界线确定在当前时刻所属条码的当前位移。
厘米级定位信息确定模块,用于根据当前时刻对应的完整条码的数量、所述设定距离以及在当前时刻所属条码的当前位移确定所述目标智能网联汽车的厘米级定位信息。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。

Claims (10)

1.一种智能网联汽车高精度地图厘米级定位方法,其特征在于,包括:
获取当前时刻对应的目标图像;所述目标图像由目标智能网联汽车上的相机拍摄前方车道得到;
对所述目标图像中的条码信息进行提取,得到当前时刻所述目标图像对应的条码组合;
将当前时刻所述目标图像对应的条码组合与目标路段的每一车道的条码序列数据进行匹配,得到当前时刻所述目标智能网联汽车所在的目标车道;所述目标路段由所述目标智能网联汽车的定位信息确定;所述条码序列数据由若干不同形状的信息子码编码得到;所述目标路段中相邻车道的条码序列数据不同;每一信息子码表征目标路段的设定距离;
根据所述相机的相机参数确定当前时刻所述目标图像对应的地主点,并将所述地主点所在的条码确定为当前时刻所属条码;所述相机参数包括相机航高、相片倾角和焦距;所述地主点为延长线与所述目标图像中条码组合的交点;所述延长线为相机所在位置与所述焦距垂线的延长线;
根据当前时刻所属条码和所述目标车道的条码序列数据确定当前时刻对应的完整条码的数量;当前时刻对应的完整条码的数量为所述目标智能网联汽车在目标路段上行驶经历的条码信息子码的数量;
根据所述地主点和当前时刻所属条码的起始边界线确定在当前时刻所属条码的当前位移;
根据当前时刻对应的完整条码的数量、所述设定距离以及在当前时刻所属条码的当前位移确定所述目标智能网联汽车的厘米级定位信息。
2.根据权利要求1所述的一种智能网联汽车高精度地图厘米级定位方法,其特征在于,在获取当前时刻对应的目标图像之前,还包括:
对原始图像进行灰度处理,得到灰度图像;所述原始图像由目标智能网联汽车上的相机拍摄前方车道得到;
对所述灰度图进行裁剪,得到裁剪图像;
对所述裁剪图像进行二值化处理,得到二值化图像;
对所述二值化图像进行航向纠正处理,得到纠正图像;所述纠正图像为目标图像。
3.根据权利要求1所述的一种智能网联汽车高精度地图厘米级定位方法,其特征在于,所述目标图像为二值图像;
对所述目标图像中的条码信息进行提取,得到当前时刻所述目标图像对应的条码组合,具体包括:
基于所述目标图像中的二值信息对所述目标图像进行裁切,得到多个信息子码区域图像;
对每一所述信息子码区域图像的条码信息进行提取,得到每一所述信息子码区域图像对应的信息子码编码值;
基于所述信息子码区域图像的裁切顺序将所有所述信息子码区域图像对应的信息子码编码值进行排列,得到当前时刻所述目标图像对应的条码组合。
4.根据权利要求3所述的一种智能网联汽车高精度地图厘米级定位方法,其特征在于,相邻两个信息子码之间设置有一间隔子码;所述间隔子码与信息子码的二值信息不同;
在对每一所述信息子码区域图像的条码信息进行提取之前,还包括:
对第一信息子码区域图像进行有效性判断,当所述信息子码区域图像中子码的长度与设定距离的差值在设定阈值范围内,则所述第一信息子码区域图像有效,对所述第一信息子码区域图像的条码信息进行提取;当所述信息子码区域图像中子码的长度与设定距离的差值不在设定阈值范围内,则所述第一信息子码区域图像失效,舍弃所述第一信息子码区域图像,并对第二信息子码区域图像的条码信息进行提取;所述第一信息子码区域图像为裁切顺序为第一的信息子码区域图像;所述第二信息子码区域图像为裁切顺序为第二的信息子码区域图像。
5.根据权利要求3所述的一种智能网联汽车高精度地图厘米级定位方法,其特征在于,对每一所述信息子码区域图像的条码信息进行提取,得到每一所述信息子码区域图像对应的信息子码编码值,具体包括:
对于每一所述信息子码区域图像,根据所述信息子码区域图像中第一颜色区域的面积和位置对所述信息子码区域图像的条码信息进行提取,得到所述信息子码区域图像对应的信息子码编码值;所述信息子码区域图像包括第一颜色区域和第二颜色区域。
6.根据权利要求5所述的一种智能网联汽车高精度地图厘米级定位方法,其特征在于,根据所述信息子码区域图像中第一颜色区域的面积和位置对所述信息子码区域图像的条码信息进行提取,得到所述信息子码区域图像对应的信息子码编码值,具体包括:
利用Radon变换算法确定所述信息子码区域图像中第一颜色区域的位置;
根据所述信息子码区域图像中第一颜色区域的面积和位置对所述信息子码区域图像的条码信息进行提取,得到所述信息子码区域图像对应的信息子码编码值。
7.根据权利要求1所述的一种智能网联汽车高精度地图厘米级定位方法,其特征在于,在将当前时刻所述目标图像对应的条码组合与目标路段的每一车道的条码序列数据进行匹配之前,还包括:
判断当前时刻所述目标图像对应的条码组合是否为首次匹配,若是,则将当前时刻所述目标图像对应的条码组合与目标路段的每一车道的条码序列数据进行匹配;若否,则获取匹配时间段内匹配完成的条码组合,并根据所述匹配时间段内匹配完成的条码组合与目标路段的每一车道的条码序列数据进行匹配;所述匹配时间段由起始时刻以及当前时刻的上一时刻确定。
8.根据权利要求1所述的一种智能网联汽车高精度地图厘米级定位方法,其特征在于,根据所述地主点和当前时刻所属条码的起始边界线确定在当前时刻所属条码的当前位移,具体包括:
将所述地主点到当前时刻所属条码的起始边界线的垂直距离确定为在当前时刻所属条码的当前位移。
9.根据权利要求1所述的一种智能网联汽车高精度地图厘米级定位方法,其特征在于,根据当前时刻对应的完整条码的数量、所述设定距离以及在当前时刻所属条码的当前位移确定所述目标智能网联汽车的厘米级定位信息,具体包括:
将当前时刻对应的完整条码的数量与所述设定距离相乘,得到整数里程距离;
将所述整数里程距离和在当前时刻所属条码的当前位移相加,得到所述目标智能网联汽车的厘米级定位信息。
10.一种智能网联汽车高精度地图厘米级定位系统,其特征在于,包括:
目标图像获取模块,用于获取当前时刻对应的目标图像;所述目标图像由目标智能网联汽车上的相机拍摄前方车道得到;
子码提取模块,用于对所述目标图像中的条码信息进行提取,得到当前时刻所述目标图像对应的条码组合;
匹配模块,用于将当前时刻所述目标图像对应的条码组合与目标路段的每一车道的条码序列数据进行匹配,得到当前时刻所述目标智能网联汽车所在的目标车道;所述目标路段由所述目标智能网联汽车的定位信息确定;所述条码序列数据由若干不同形状的信息子码编码得到;所述目标路段中相邻车道的条码序列数据不同;每一信息子码表征目标路段的设定距离;
当前时刻所属条码确定模块,用于根据所述相机的相机参数确定当前时刻所述目标图像对应的地主点,并将所述地主点所在的条码确定为当前时刻所属条码;所述相机参数包括相机航高、相片倾角和焦距;所述地主点为延长线与所述目标图像中条码组合的交点;所述延长线为相机所在位置与所述焦距垂线的延长线;
数量确定模块,用于根据当前时刻所属条码和所述目标车道的条码序列数据确定当前时刻对应的完整条码的数量;当前时刻对应的完整条码的数量为所述目标智能网联汽车在目标路段上行驶经历的条码信息子码的数量;
当前位移确定模块,用于根据所述地主点和当前时刻所属条码的起始边界线确定在当前时刻所属条码的当前位移;
厘米级定位信息确定模块,用于根据当前时刻对应的完整条码的数量、所述设定距离以及在当前时刻所属条码的当前位移确定所述目标智能网联汽车的厘米级定位信息。
CN202410211125.2A 2024-02-27 2024-02-27 一种智能网联汽车高精度地图厘米级定位方法及系统 Active CN117774986B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410211125.2A CN117774986B (zh) 2024-02-27 2024-02-27 一种智能网联汽车高精度地图厘米级定位方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410211125.2A CN117774986B (zh) 2024-02-27 2024-02-27 一种智能网联汽车高精度地图厘米级定位方法及系统

Publications (2)

Publication Number Publication Date
CN117774986A true CN117774986A (zh) 2024-03-29
CN117774986B CN117774986B (zh) 2024-05-07

Family

ID=90387506

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410211125.2A Active CN117774986B (zh) 2024-02-27 2024-02-27 一种智能网联汽车高精度地图厘米级定位方法及系统

Country Status (1)

Country Link
CN (1) CN117774986B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102034078A (zh) * 2010-12-24 2011-04-27 东信和平智能卡股份有限公司 图像条码识别的编码方法
CN104748754A (zh) * 2013-12-31 2015-07-01 财团法人车辆研究测试中心 车辆定位方法及其系统
CN106934360A (zh) * 2017-03-06 2017-07-07 广州英卓电子科技有限公司 一种基于高速图像识别的车辆精确位移测量方法
CN108571971A (zh) * 2018-05-17 2018-09-25 北京航空航天大学 一种agv视觉定位系统及方法
CN112051596A (zh) * 2020-07-29 2020-12-08 武汉威图传视科技有限公司 一种基于节点编码的室内定位方法及装置
CN114827570A (zh) * 2021-01-18 2022-07-29 航天图景(北京)科技有限公司 一种基于三维场景的视频态势感知与信息融合方法及电子设备
CN115630660A (zh) * 2022-12-23 2023-01-20 湖北凯乐仕通达科技有限公司 基于卷积神经网络的条码定位方法和装置
CN115861591A (zh) * 2022-12-09 2023-03-28 南京航空航天大学 基于transformer关键纹理编码匹配的无人机定位方法
US20230360317A1 (en) * 2022-05-04 2023-11-09 Microsoft Technology Licensing, Llc Digital image sub-division
CN117195928A (zh) * 2023-09-20 2023-12-08 中科微至科技股份有限公司 一种基于深度学习的条码定位检测方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102034078A (zh) * 2010-12-24 2011-04-27 东信和平智能卡股份有限公司 图像条码识别的编码方法
CN104748754A (zh) * 2013-12-31 2015-07-01 财团法人车辆研究测试中心 车辆定位方法及其系统
CN106934360A (zh) * 2017-03-06 2017-07-07 广州英卓电子科技有限公司 一种基于高速图像识别的车辆精确位移测量方法
CN108571971A (zh) * 2018-05-17 2018-09-25 北京航空航天大学 一种agv视觉定位系统及方法
CN112051596A (zh) * 2020-07-29 2020-12-08 武汉威图传视科技有限公司 一种基于节点编码的室内定位方法及装置
CN114827570A (zh) * 2021-01-18 2022-07-29 航天图景(北京)科技有限公司 一种基于三维场景的视频态势感知与信息融合方法及电子设备
US20230360317A1 (en) * 2022-05-04 2023-11-09 Microsoft Technology Licensing, Llc Digital image sub-division
CN115861591A (zh) * 2022-12-09 2023-03-28 南京航空航天大学 基于transformer关键纹理编码匹配的无人机定位方法
CN115630660A (zh) * 2022-12-23 2023-01-20 湖北凯乐仕通达科技有限公司 基于卷积神经网络的条码定位方法和装置
CN117195928A (zh) * 2023-09-20 2023-12-08 中科微至科技股份有限公司 一种基于深度学习的条码定位检测方法

Also Published As

Publication number Publication date
CN117774986B (zh) 2024-05-07

Similar Documents

Publication Publication Date Title
KR102266830B1 (ko) 차선 결정 방법, 디바이스 및 저장 매체
CN110569704B (zh) 一种基于立体视觉的多策略自适应车道线检测方法
US8014588B2 (en) System and method for three-dimensional estimation based on image data
EP1233374A2 (en) Apparatus and method for extracting objects based on feature matching between segmented regions in images
CN107330373A (zh) 一种基于视频的违章停车监控系统
CN110136174B (zh) 一种目标对象跟踪方法和装置
CN111815742A (zh) 一种车道线生成方法及系统
CN110009675A (zh) 生成视差图的方法、装置、介质及设备
CN113689331B (zh) 一种复杂背景下的全景图像拼接方法
CN114663852A (zh) 车道线图的构建方法、装置、电子设备及可读存储介质
CN114719873B (zh) 一种低成本精细地图自动生成方法、装置及可读介质
CN111238365B (zh) 基于立体视觉的地铁列车测距和定位方法及系统
CN111723805B (zh) 一种信号灯的前景区域识别方法及相关装置
CN113537163B (zh) 一种用于车位检测的模型训练方法及系统
CN114757977A (zh) 融合改进光流和目标检测网络的移动物体轨迹提取方法
CN117774986B (zh) 一种智能网联汽车高精度地图厘米级定位方法及系统
CN106340031A (zh) 一种检测运动物体的方法和装置
JPH05303643A (ja) パターンマッチング方法
CN116129386A (zh) 可行驶区域检测方法、系统及计算机可读介质
CN116343095A (zh) 一种基于视频拼接的车辆轨迹提取方法及相关设备
CN113838129B (zh) 一种获得位姿信息的方法、装置以及系统
CN114170376B (zh) 一种针对室外大场景的多源信息融合分组式运动恢复结构方法
CN115346155A (zh) 一种面向视觉特征非连续性干扰的船舶图像航迹提取方法
CN114898321A (zh) 道路可行驶区域检测方法、装置、设备、介质及系统
KR20220023046A (ko) 다중 정합 기반 실시간 영상항법 수행 방법, 장치 및 컴퓨터 프로그램

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant