CN114724096A - 智能网联汽车用路基视觉定位图像处理算法及系统 - Google Patents

智能网联汽车用路基视觉定位图像处理算法及系统 Download PDF

Info

Publication number
CN114724096A
CN114724096A CN202011523093.8A CN202011523093A CN114724096A CN 114724096 A CN114724096 A CN 114724096A CN 202011523093 A CN202011523093 A CN 202011523093A CN 114724096 A CN114724096 A CN 114724096A
Authority
CN
China
Prior art keywords
vehicle
roadbed
camera
image
positioning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011523093.8A
Other languages
English (en)
Inventor
刘清河
张岩坤
赵立军
马琮淦
王大方
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Institute of Technology Weihai
Original Assignee
Harbin Institute of Technology Weihai
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Institute of Technology Weihai filed Critical Harbin Institute of Technology Weihai
Priority to CN202011523093.8A priority Critical patent/CN114724096A/zh
Publication of CN114724096A publication Critical patent/CN114724096A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明涉及一种对智能网联汽车的高精度定位技术和车路协同的智能网联汽车用路基视觉定位图像处理算法及系统,设有路基摄像头、边缘计算终端、路基车辆网终端和车载车联网终端,其中路基摄像头包含两个以上的摄像机,路基摄像头同步采集同一区域内不同角度的视觉图像后,将每一帧图像及图像时间标记发送给边缘计算终端;边缘计算终端运行上述智能网联汽车用路基视觉定位图像处理方法,实现对视野内所有车辆的实时定位测量和特征提取,获得高精度的车辆信息,包括位置、运行状态、车型、外观;可以实时的实现摄像头视野内的车辆位置和运行状态测量,在5G车联网的高速通讯技术的支持下,可以为智能网联汽车实时的提供高精度的定位信息服务。

Description

智能网联汽车用路基视觉定位图像处理算法及系统
技术领域:
本发明涉及智能网联汽车和智能交通系统领域,具体地说是一种对智能网联汽车的高精度定位技术和车路协同的智能网联汽车用路基视觉定位图像处理算法及系统。
背景技术:
目前,无人驾驶汽车在室外环境下的定位主要依赖于高精度GPS、多线激光雷达、摄像头等传感器进行感知定位。高精度GPS在室外空旷条件下可得到较高精度的全局定位,但在室内或者室外遮挡环境下存在局部定位精度差或丢失定位的问题,无法满足无人驾驶汽车的定位要求。
地图匹配定位技术也可用于无人驾驶汽车的定位,当车辆在结构化室外环境或者室内环境时,可提前建立该环境的二维栅格地图,车辆行驶时将激光雷达扫描点云数据与已知二维栅格地图进行地图匹配,从而得到车辆在局部环境下的高精度定位。但地图匹配需要提前对行驶环境进行建图,对行驶环境条件有要求,只能用于无人驾驶汽车局部定位。
发明内容:
本发明针对现有技术中智能网联汽车的高精度定位问题,提出了一种能够解决大范围室内外复杂场景下的车辆定位问题,同时可提高车辆的定位精度,相比传统GPS定位方法具有定位范围广、定位精度高的优点的基于路基摄像头与特征点提取匹配的智能网联汽车用路基视觉定位图像处理算法及系统。
本发明通过以下措施达到:
一种智能网联汽车用路基视觉定位图像处理算法,其特征在于,包括以下步骤:
步骤1:读取当前时刻的每个摄像头的视频图像;
步骤2:对每个摄像头的视频信息前后景分离;
步骤3:对前景图像进行特征点提取和卷积神经网络目标检测,对同一时刻(K时刻)的各个摄像头前景图像采用Oriented FAST算法进行特征点提取和卷积神经网络目标检测;
步骤4:对各摄像头图像进行特征点匹配;采用Steered BRIEF多目匹配算法对同时刻的多幅图像进行特征点匹配,图像旋转时每个关键点所在图像块中的质心也会跟着旋转从而做到这个坐标方向会随着图像旋转而旋转,也就是说实现了旋转不变性,具体公式如下,首先定义一个二进制操作:
Figure BDA0002845987140000021
其中p(x)代表在x处的强度p,因此描述子就是n个二进制操作结果的组合,如下所示:
Figure BDA0002845987140000022
对于长度为n的描述子,挑选得到n个匹配对,定义为2×n的矩阵
Figure BDA0002845987140000031
得到关键点的旋转方向后得到对应的旋转矩阵,之后构造一个旋转的匹配对矩阵
Sθ=RθS
则描述子公式如下:
gn(p,θ):=fn(p)|(xi,yi)∈Sθ
利用汉明距离小于最小距离的两倍为筛选的依据结合去除误匹配的算法实现特征点的匹配,之后对摄像头进行内外参数的标定将匹配成功的特征点进行二维到三维的转换,从而实现车辆三维空间求解进而形成对应的特征点云;由小孔成像模型可知像素坐标系与相机坐标系的转换关系如下:
Figure BDA0002845987140000032
f为焦距,dx和dy分别是每个像素在图像平面x和y方向上的物理尺寸,矩阵K即为相机的内参矩阵,其参数由相机自身的参数决定;对于现实空间中已知的坐标系上的点,通过刚体变换将其坐标转移到相机坐标系下,刚体变换包括旋转变换和平移变换,设世界坐标系中点的坐标为(XW,YW,ZW)T,相机坐标系中点的坐标为(XC,YC,ZC)T则二者之间的变换关系如下:
Figure BDA0002845987140000041
其中,R是一个3ⅹ3的旋转矩阵,t是一个3ⅹ1的平移向量,[R t]称为相机的外参矩阵,相机的外参矩阵和相机的属性没有关系,只表示坐标系的刚体变换,则像素坐标系与世界坐标系的关系为:
Figure BDA0002845987140000042
步骤5:将卷积神经网络对图像的检测结果和特征点云数据融合,去除误匹配和飞点数据;
步骤6:根据多摄像头特征点匹配的结果和摄像头内外参数进行多目视觉特征点坐标转换,获取三维空间特征点云;
步骤7:对连续的多个时刻的融合后数据进行滤波和多目标跟踪,获得视野内所有车辆的高精度定位信息、运行状态和车辆外观特征信息;
步骤8:通过车载网络终端和路基车联网终端的通讯获得视野内所有车辆的低精度GPS/BD定位信息、运行状态和车辆外观特征信息,采用最小二乘法实现所有车辆信息的匹配;
步骤9:根据匹配的结果将高精度定位信息发送给对应的车载网络终端,为车辆提供高精度定位服务。
本发明步骤3中特征点的尺度不变性由构建图像金字塔并在金字塔的每一层上检测角点来实现,而特征的旋转是由灰度质心法实现,质心是指以图像块灰度值作为权重的中心,具体的操作步骤如下:
步骤3-1:在一个小的图像块B中,定义图像块的矩为:
Figure BDA0002845987140000051
步骤3-2:通过矩找到图像块的质心:
Figure BDA0002845987140000052
步骤3-3:连接图像块的几何中心O与质心C,得到一个方向向量
Figure BDA0002845987140000056
于是特征点的方向可定义为:
θ=arctan(m01/m10)
通过提取出来的特征点便具有尺度与旋转的描述,大大提升它们在不同图像之间表述的鲁棒性。
本发明步骤2中对每个摄像头的视频信息前后景分离包括:首先对连续的三帧图片进行平滑去噪,在分别做帧差法处理,用第k帧图片减去第k-1帧图片,得到二值图像D1(x,y),再用第k+1帧图片减去第k帧图片,得到二值图像D2(x,y),最后用D1(x,y)和D2(x,y)进行“与”运算,即可得到三帧差法图像D(x,y),具体公式表示为:
Figure BDA0002845987140000053
Figure BDA0002845987140000054
Figure BDA0002845987140000055
式中,T为预先设定的阈值,根据经验选取,若T选取过大,则检测目标可能出现较大的空洞或者是漏检,若T选取过小,将会出现大量噪声。
本发明还提出了一种智能网联汽车用路基视觉定位图像处理系统,其特征在于,设有路基摄像头、边缘计算终端、路基车辆网终端和车载车联网终端,其中路基摄像头包含两个以上的摄像机,路基摄像头同步采集同一区域内不同角度的视觉图像后,将每一帧图像及图像时间标记发送给边缘计算终端;
边缘计算终端运行上述智能网联汽车用路基视觉定位图像处理方法,实现对视野内所有车辆的实时定位测量和特征提取,获得高精度的车辆信息,包括位置、运行状态、车型、外观;
路基车联网终端与视野内的所有智能网联汽车的车载网络终端实现动态组网,并接收智能网联汽车的实时低精度GPS位置、运行状态和车辆外观信息;
边缘计算终端从路基车联网终端获取组网范围内所有智能网联汽车的低精度GPS位置、运行状态和车辆外观信息,并于自身视觉测量获取的所有车辆信息进行对比和匹配,实现高精度车辆信息和智能网联汽车的配对;
根据配对的结果,路基车联网终端将每个智能网联汽车对应的高精度定位信息发送给对应的车载网络终端,为智能网联汽车提供定位服务。
本发明采用多目视觉和卷积神经网络算法,可以实时的实现摄像头视野内的车辆位置和运行状态测量。在5G车联网的高速通讯技术的支持下,可以为智能网联汽车实时的提供高精度的定位信息服务。
附图说明:
附图1是本发明的流程图。
附图2是本发明的系统图。
具体实施方式:
下面结合附图对本发明做进一步的说明。
本发明提出了一种服务于智能网联汽车的路基视觉定位系统及图像处理算法,包括路基摄像头(多个)、边缘计算终端、路基车联网终端、车载网络终端共四个部分组成。其特征在于摄像头用于获取同一区域内多角度的图像信息;边缘计算终端用于运行核心算法,用于图像处理及车辆定位;路基车联网终端和车载网络终端用于车路协同中的信息通讯;
用于车辆定位的图像信息来自于路基的多个固定摄像头,摄像头的图像采集由同一个信号同步控制。通过对同一区域的多角度图像进行特征点提取、跟踪和匹配,最终实现车辆的识别和高精度定位;
采用边缘计算实现快速的图像处理和高吞吐量的网络信息传输,以满足智能网联汽车高实时性的要求;
其核心算法实现车辆定位服务的步骤如下:
步骤1:对每个摄像头的视频信息前后景分离,取出所有前景图像数据;
步骤2:对同一时刻(K时刻)的各个摄像头前景图像进行特征点提取和卷积神经网络目标检测;
步骤3:采用多目匹配算法对同时刻的多幅图像进行特征点匹配,对匹配成功的特征点进行三维空间求解,形成特征点云;
步骤4:将卷积神经网络对图像的检测结果和特征点云数据融合,去除误匹配和飞点数据;
步骤5:对连续的多个时刻的融合后数据进行滤波和多目标跟踪,获得视野内所有车辆的高精度定位信息、运行状态和车辆外观特征等信息;
步骤6:通过车载网络终端和路基车联网终端的通讯获得视野内所有车辆的低精度GPS/BD定位信息、运行状态和车辆外观特征信息,采用最小二乘法实现所有车辆信息的匹配;
步骤7:根据匹配的结果将高精度定位信息发送给对应的车载网络终端,为车辆提供高精度定位服务。
算法的主要计算部分都运行于摄像头附近的边缘计算终端,每个边缘计算终端负责若干个摄像头,所有的边缘计算终端通过高速网络连接,形成分布式边缘计算系统,从而可以提供全路段的车辆高精度定位服务。
所述的视觉定位系统和核心算法,GPS/BD数据不是必须的。在无GPS/BD信号的隧道或遮挡场景下,依然可以通过车辆速度和外观信息等完成车辆信息和视觉定位系统信息的匹配,提供智能网联汽车的高精度定位。
实施例1:
本例提供了一种智能网联汽车用路基视觉定位图像处理算法及系统,其中系统组成如图1所示,定位系统主要由四部分组成:路基摄像头,边缘计算终端,路基车辆网终端和车载车联网终端;定位系统基本工作过程描述如下:
(1)路基摄像头同步采集同一区域内不同角度的视觉图像;
(2)摄像头将每一帧图像及图像时间标记发送给边缘计算终端;
(3)边缘计算终端运行本发明提出的核心算法,实现对视野内所有车辆的实时定位测量和特征提取,获得高精度的车辆信息,包括位置、运行状态、车型、外观等;
(4)路基车联网终端与视野内的所有智能网联汽车的车载网络终端实现动态组网,并接收智能网联汽车的实时低精度GPS位置、运行状态和车辆外观等信息;
(5)边缘计算终端从路基车联网终端获取组网范围内所有智能网联汽车的低精度GPS位置、运行状态和车辆外观信息,并于自身视觉测量获取的所有车辆信息进行对比和匹配,实现高精度车辆信息和智能网联汽车的配对;
(6)根据配对的结果,路基车联网终端将每个智能网联汽车对应的高精度定位信息发送给对应的车载网络终端,为智能网联汽车提供定位服务。
在以上的系统组成及工作过程中,其关键技术特征有以下内容:
(1)多个路基摄像头视野重叠区域为本系统可提供精确定位服务的区域;
(2)多个路基摄像头的图像采集具有同步采集能力;
(3)边缘计算终端对同时刻的多角度图像进行多目视觉运算获得特征点云,并对不同时刻的特征点云进行匹配和跟踪,从而获得高精度三维空间定位;
(4)边缘计算终端通过车联网获取智能车辆的外观特征和运行状态,并对比通过路基摄像头获取的高精度三维定位信息,从而实现车辆信息的匹配。
在本例中,路基摄像头的图像处理算法在边缘计算终端中运行,其算法流程如图2所示,具体的步骤表述如下:
步骤1:读取当前时刻的每个摄像头的视频图像;
步骤2:对每个摄像头的视频信息前后景分离。首先对连续的三帧图片进行平滑去噪,在分别做帧差法处理,用第k帧图片减去第k-1帧图片,得到二值图像D1(x,y),再用第k+1帧图片减去第k帧图片,得到二值图像D2(x,y),最后用D1(x,y)和D2(x,y)进行“与”运算,即可得到三帧差法图像D(x,y),具体公式表示为:
Figure BDA0002845987140000101
Figure BDA0002845987140000102
Figure BDA0002845987140000103
式中,T为预先设定的阈值,根据经验选取,若T选取过大,则检测目标可能出现较大的空洞或者是漏检,若T选取过小,将会出现大量噪声。
步骤3:对前景图像进行特征点提取和卷积神经网络目标检测,对同一时刻(K时刻)的各个摄像头前景图像采用Oriented FAST算法进行特征点提取和卷积神经网络目标检测,特征点的尺度不变性由构建图像金字塔并在金字塔的每一层上检测角点来实现。而特征的旋转是由灰度质心法实现,质心是指以图像块灰度值作为权重的中心,具体的操作步骤如下:
1.在一个小的图像块B中,定义图像块的矩为:
Figure BDA0002845987140000111
2.通过矩可以找到图像块的质心:
Figure BDA0002845987140000112
3.连接图像块的几何中心O与质心C,得到一个方向向量
Figure BDA0002845987140000115
于是特征点的方向可以定义为:
θ=arctan(m01/m10)
通过上述方法提取出来的特征点便具有尺度与旋转的描述,大大提升他们在不同图像之间表述的鲁棒性。
步骤4:对各摄像头图像进行特征点匹配;采用Steered BRIEF多目匹配算法对同时刻的多幅图像进行特征点匹配,图像旋转时每个关键点所在图像块中的质心也会跟着旋转从而做到这个坐标方向会随着图像旋转而旋转,也就是说实现了旋转不变性。具体公式如下,首先定义一个二进制操作:
Figure BDA0002845987140000113
其中p(x)代表在x处的强度p,因此描述子就是n个二进制操作结果的组合,如下所示:
Figure BDA0002845987140000114
对于长度为n的描述子,我们需要挑选得到n个匹配对,定义为2×n的矩阵
Figure BDA0002845987140000121
得到关键点的旋转方向后可以得到对应的旋转矩阵,之后构造一个旋转的匹配对矩阵
Sθ=RθS
则描述子公式如下:
gn(p,θ):=fn(p)|(xi,yi)∈Sθ
利用汉明距离小于最小距离的两倍为筛选的依据结合去除误匹配的算法实现特征点的匹配,之后对摄像头进行内外参数的标定将匹配成功的特征点进行二维到三维的转换,从而实现车辆三维空间求解进而形成对应的特征点云。由小孔成像模型可知像素坐标系与相机坐标系的转换关系如下:
Figure BDA0002845987140000122
f为焦距,dx和dy分别是每个像素在图像平面x和y方向上的物理尺寸,矩阵K即为相机的内参矩阵,其参数由相机自身的参数决定。
对于现实空间中已知的坐标系(世界坐标系)上的点,可以通过刚体变换将其坐标转移到相机坐标系下,刚体变换包括旋转变换和平移变换。设世界坐标系中点的坐标为(XW,YW,ZW)T,相机坐标系中点的坐标为(XC,YC,ZC)T则二者之间的变换关系如下。
Figure BDA0002845987140000131
其中,R是一个3ⅹ3的旋转矩阵,t是一个3ⅹ1的平移向量,[R t]称为相机的外参矩阵。相机的外参矩阵和相机的属性没有关系,只表示坐标系的刚体变换,则像素坐标系与世界坐标系的关系为:
Figure BDA0002845987140000132
步骤5:将卷积神经网络对图像的检测结果和特征点云数据融合,去除误匹配和飞点数据;
步骤6:根据多摄像头特征点匹配的结果和摄像头内外参数进行多目视觉特征点坐标转换,获取三维空间特征点云;
步骤7:对连续的多个时刻的融合后数据进行滤波和多目标跟踪,获得视野内所有车辆的高精度定位信息、运行状态和车辆外观特征等信息;
步骤8:通过车载网络终端和路基车联网终端的通讯获得视野内所有车辆的低精度GPS/BD定位信息、运行状态和车辆外观特征信息,采用最小二乘法实现所有车辆信息的匹配;
步骤9:根据匹配的结果将高精度定位信息发送给对应的车载网络终端,为车辆提供高精度定位服务。
本发明提出的基于路基摄像头的高精度车辆定位系统,采用多目视觉和卷积神经网络算法,可以实时的实现摄像头视野内的车辆位置和运行状态测量。在5G车联网的高速通讯技术的支持下,可以为智能网联汽车实时的提供高精度的定位信息服务。

Claims (4)

1.一种智能网联汽车用路基视觉定位图像处理算法,其特征在于,包括以下步骤:
步骤1:读取当前时刻的每个摄像头的视频图像;
步骤2:对每个摄像头的视频信息前后景分离;
步骤3:对前景图像进行特征点提取和卷积神经网络目标检测,对同一时刻(K时刻)的各个摄像头前景图像采用Oriented FAST算法进行特征点提取和卷积神经网络目标检测;
步骤4:对各摄像头图像进行特征点匹配;采用Steered BRIEF多目匹配算法对同时刻的多幅图像进行特征点匹配,图像旋转时每个关键点所在图像块中的质心也会跟着旋转从而做到这个坐标方向会随着图像旋转而旋转,也就是说实现了旋转不变性,具体公式如下,首先定义一个二进制操作:
Figure FDA0002845987130000011
其中p(x)代表在x处的强度p,因此描述子就是n个二进制操作结果的组合,如下所示:
Figure FDA0002845987130000012
对于长度为n的描述子,挑选得到n个匹配对,定义为2×n的矩阵
Figure FDA0002845987130000013
得到关键点的旋转方向后得到对应的旋转矩阵,之后构造一个旋转的匹配对矩阵
Sθ=RθS
则描述子公式如下:
gn(p,θ):=fn(p)|(xi,yi)∈Sθ
利用汉明距离小于最小距离的两倍为筛选的依据结合去除误匹配的算法实现特征点的匹配,之后对摄像头进行内外参数的标定将匹配成功的特征点进行二维到三维的转换,从而实现车辆三维空间求解进而形成对应的特征点云;由小孔成像模型可知像素坐标系与相机坐标系的转换关系如下:
Figure FDA0002845987130000021
f为焦距,dx和dy分别是每个像素在图像平面x和y方向上的物理尺寸,矩阵K即为相机的内参矩阵,其参数由相机自身的参数决定;对于现实空间中已知的坐标系上的点,通过刚体变换将其坐标转移到相机坐标系下,刚体变换包括旋转变换和平移变换,设世界坐标系中点的坐标为(XW,YW,ZW)T,相机坐标系中点的坐标为(XC,YC,ZC)T则二者之间的变换关系如下:
Figure FDA0002845987130000022
其中,R是一个3ⅹ3的旋转矩阵,t是一个3ⅹ1的平移向量,[R t]称为相机的外参矩阵,相机的外参矩阵和相机的属性没有关系,只表示坐标系的刚体变换,则像素坐标系与世界坐标系的关系为:
Figure FDA0002845987130000031
步骤5:将卷积神经网络对图像的检测结果和特征点云数据融合,去除误匹配和飞点数据;
步骤6:根据多摄像头特征点匹配的结果和摄像头内外参数进行多目视觉特征点坐标转换,获取三维空间特征点云;
步骤7:对连续的多个时刻的融合后数据进行滤波和多目标跟踪,获得视野内所有车辆的高精度定位信息、运行状态和车辆外观特征信息;
步骤8:通过车载网络终端和路基车联网终端的通讯获得视野内所有车辆的低精度GPS/BD定位信息、运行状态和车辆外观特征信息,采用最小二乘法实现所有车辆信息的匹配;
步骤9:根据匹配的结果将高精度定位信息发送给对应的车载网络终端,为车辆提供高精度定位服务。
2.根据权利要求1所述的一种智能网联汽车用路基视觉定位图像处理算法,其特征在于,步骤3中特征点的尺度不变性由构建图像金字塔并在金字塔的每一层上检测角点来实现,而特征的旋转是由灰度质心法实现,质心是指以图像块灰度值作为权重的中心,具体的操作步骤如下:
步骤3-1:在一个小的图像块B中,定义图像块的矩为:
Figure FDA0002845987130000032
步骤3-2:通过矩找到图像块的质心:
Figure FDA0002845987130000041
步骤3-3:连接图像块的几何中心O与质心C,得到一个方向向量
Figure FDA0002845987130000042
于是特征点的方向可定义为:
θ=arctan(m01/m10)
通过提取出来的特征点便具有尺度与旋转的描述,大大提升它们在不同图像之间表述的鲁棒性。
3.根据权利要求1所述的一种智能网联汽车用路基视觉定位图像处理算法,其特征在于,步骤2中对每个摄像头的视频信息前后景分离包括:首先对连续的三帧图片进行平滑去噪,在分别做帧差法处理,用第k帧图片减去第k-1帧图片,得到二值图像D1(x,y),再用第k+1帧图片减去第k帧图片,得到二值图像D2(x,y),最后用D1(x,y)和D2(x,y)进行“与”运算,即可得到三帧差法图像D(x,y),具体公式表示为:
Figure FDA0002845987130000043
Figure FDA0002845987130000044
Figure FDA0002845987130000045
式中,T为预先设定的阈值,根据经验选取,若T选取过大,则检测目标可能出现较大的空洞或者是漏检,若T选取过小,将会出现大量噪声。
4.一种智能网联汽车用路基视觉定位图像处理系统,其特征在于,设有路基摄像头、边缘计算终端、路基车辆网终端和车载车联网终端,其中路基摄像头包含两个以上的摄像机,路基摄像头同步采集同一区域内不同角度的视觉图像后,将每一帧图像及图像时间标记发送给边缘计算终端;
边缘计算终端运行如权利要求1-3中任意一项所述智能网联汽车用路基视觉定位图像处理方法,实现对视野内所有车辆的实时定位测量和特征提取,获得高精度的车辆信息,包括位置、运行状态、车型、外观;
路基车联网终端与视野内的所有智能网联汽车的车载网络终端实现动态组网,并接收智能网联汽车的实时低精度GPS位置、运行状态和车辆外观信息;
边缘计算终端从路基车联网终端获取组网范围内所有智能网联汽车的低精度GPS位置、运行状态和车辆外观信息,并于自身视觉测量获取的所有车辆信息进行对比和匹配,实现高精度车辆信息和智能网联汽车的配对;
根据配对的结果,路基车联网终端将每个智能网联汽车对应的高精度定位信息发送给对应的车载网络终端,为智能网联汽车提供定位服务。
CN202011523093.8A 2020-12-19 2020-12-19 智能网联汽车用路基视觉定位图像处理算法及系统 Pending CN114724096A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011523093.8A CN114724096A (zh) 2020-12-19 2020-12-19 智能网联汽车用路基视觉定位图像处理算法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011523093.8A CN114724096A (zh) 2020-12-19 2020-12-19 智能网联汽车用路基视觉定位图像处理算法及系统

Publications (1)

Publication Number Publication Date
CN114724096A true CN114724096A (zh) 2022-07-08

Family

ID=82230134

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011523093.8A Pending CN114724096A (zh) 2020-12-19 2020-12-19 智能网联汽车用路基视觉定位图像处理算法及系统

Country Status (1)

Country Link
CN (1) CN114724096A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115578426A (zh) * 2022-10-25 2023-01-06 哈尔滨工业大学 一种基于稠密特征匹配的室内服务机器人重定位方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115578426A (zh) * 2022-10-25 2023-01-06 哈尔滨工业大学 一种基于稠密特征匹配的室内服务机器人重定位方法
CN115578426B (zh) * 2022-10-25 2023-08-18 哈尔滨工业大学 一种基于稠密特征匹配的室内服务机器人重定位方法

Similar Documents

Publication Publication Date Title
CN111951305B (zh) 一种基于视觉和激光雷达的目标检测和运动状态估计方法
CN111436216B (zh) 用于彩色点云生成的方法和系统
WO2021223368A1 (zh) 基于视觉、激光雷达和毫米波雷达的目标检测方法
CN111882612B (zh) 一种基于三维激光检测车道线的车辆多尺度定位方法
CN110910453B (zh) 基于无重叠视域多相机系统的车辆位姿估计方法及其系统
CN108801274B (zh) 一种融合双目视觉和差分卫星定位的地标地图生成方法
CN110842940A (zh) 一种建筑测量机器人多传感器融合三维建模方法及系统
JP2020525809A (ja) 両眼画像に基づき高解像度地図を更新するためのシステムおよび方法
CN106774296A (zh) 一种基于激光雷达和ccd摄像机信息融合的障碍检测方法
CN109547769B (zh) 一种公路交通动态三维数字场景采集构建系统及其工作方法
US10872246B2 (en) Vehicle lane detection system
CN111210481A (zh) 多波段立体相机的深度估计加速方法
CN110942477B (zh) 一种利用双目相机和激光雷达深度图融合的方法
CN112731436B (zh) 基于点云上采样的多模态数据融合可行驶区域检测方法
CN113643345A (zh) 一种基于双光融合的多目道路智能识别方法
CN113989766A (zh) 道路边缘检测方法、应用于车辆的道路边缘检测设备
CN112740225A (zh) 一种路面要素确定方法及装置
CN113985405A (zh) 障碍物检测方法、应用于车辆的障碍物检测设备
CN109883433A (zh) 基于360度全景视图的结构化环境中车辆定位方法
CN116978009A (zh) 基于4d毫米波雷达的动态物体滤除方法
CN116935281A (zh) 基于雷达和视频的机动车道异常行为在线监测方法及设备
CN116385504A (zh) 一种基于无人机采集点云与图像配准的巡检、测距方法
Chellappa et al. On the positioning of multisensor imagery for exploitation and target recognition
CN114724096A (zh) 智能网联汽车用路基视觉定位图像处理算法及系统
CN117237553A (zh) 一种基于点云图像融合的三维地图测绘系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination