CN112862818A - 惯性传感器和多鱼眼相机联合的地下停车场车辆定位方法 - Google Patents

惯性传感器和多鱼眼相机联合的地下停车场车辆定位方法 Download PDF

Info

Publication number
CN112862818A
CN112862818A CN202110285104.1A CN202110285104A CN112862818A CN 112862818 A CN112862818 A CN 112862818A CN 202110285104 A CN202110285104 A CN 202110285104A CN 112862818 A CN112862818 A CN 112862818A
Authority
CN
China
Prior art keywords
vehicle
fisheye camera
time
parking lot
formula
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110285104.1A
Other languages
English (en)
Other versions
CN112862818B (zh
Inventor
黄鹤
韩硕
李博源
杜深深
唐梦成
梁成洋
张炳力
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hefei University of Technology
Original Assignee
Hefei University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hefei University of Technology filed Critical Hefei University of Technology
Priority to CN202110285104.1A priority Critical patent/CN112862818B/zh
Publication of CN112862818A publication Critical patent/CN112862818A/zh
Application granted granted Critical
Publication of CN112862818B publication Critical patent/CN112862818B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30264Parking

Abstract

本发明公开了一种惯性传感器和多鱼眼相机联合的地下停车场车辆定位方法,其步骤包括:1建立停车场全局初始三维可视化地图;2收集车辆惯性传感器数据,进行数据预处理;3收集停车场鱼眼相机图像数据,进行数据预处理;4建立定位模型联立车辆惯性数据以及鱼眼相机图像数据实现定位。本发明能扩大摄像头的视觉感知范围,减少摄像头的布置数量,从而能降低成本并提高停车场内车辆的定位精度。

Description

惯性传感器和多鱼眼相机联合的地下停车场车辆定位方法
技术领域
本发明涉及停车场室内车辆定位引导领域,尤其涉及一种惯性传感器与鱼眼相机联合定位的方法。
背景技术
随着人工智能、计算机视觉、传感技术等基础理论的持续快速发展,停车场的车辆自主引导开始走进了我们的生活,而要想实现停车场内车辆的自主引导,就需要对车辆的位置进行精确的定位,针对于地下停车场等室内环境,很难使用GPS进行定位,因为信号会被建筑物遮挡从而影响定位信号的接收与发送。因此针对停车场等室内环境的车辆定位,需要让车辆在不借助GPS信号的情况下进行自主定位。目前广泛使用的利用车辆自身所携带的传感器来实现车辆定位,其中比较有代表性的是利用惯性传感器的测量信息借助航位推算法来推算车辆位置,但是由于惯性导航技术的累积误差,导致其精度不高,但实时性较好。单独采用视觉定位时由于需要处理大量图片,所以存在数据处理效率低下而无法满足实时性要求。
发明内容
本发明是为了解决上述现有技术存在的不足之处,提出一种惯性传感器和多鱼眼相机联合的地下停车场车辆定位方法,以期能扩大摄像头的视觉感知范围,减少摄像头的布置数量,从而能降低成本并提高停车场内车辆的定位精度。
本发明为达到上述发明目的,采用如下技术方案:
本发明一种惯性传感器和多鱼眼相机联合的地下停车场车辆定位方法的特点是按如下步骤进行:
步骤1:建立停车场初始三维可视化地图;
步骤1.1:利用鱼眼相机获取一幅停车场图像,并利用式(1)对所述停车场图像中的每个像素点进行校正,得到校正后的停车场图像:
Figure BDA0002980131330000011
式(1)中,x、y分别表示所述停车场图像中一个像素点的横、纵坐标;r表示横纵坐标x和y平方的和;xdis、ydis表示校正后的停车场图像中一个像素点的横、纵坐标;k1,k2,k3表示鱼眼相机的三个内参,p1,p2表示鱼眼相机的畸变参数;
步骤1.2:在停车场中建立大地坐标系n;
步骤1.3:以大地坐标系n为基准测量所有m个鱼眼相机中心的坐标,得到鱼眼相机位置的坐标数据集
Figure BDA0002980131330000021
以及相对位置关系,其中,CCi表示第i个鱼眼相机中心的坐标,所述相对位置关系包括:旋转矩阵
Figure BDA0002980131330000022
和平移矩阵
Figure BDA0002980131330000023
Rpq表示第p个鱼眼相机和第q个鱼眼相机之间的旋转矩阵;Tpq表示第p个鱼眼相机和第q个鱼眼相机之间的平移矩阵,
Figure BDA0002980131330000024
分别表示第p个鱼眼相机和第q个鱼眼相机之间在大地坐标系n中x轴、y轴、z轴上的坐标位置;
步骤1.4:应用双目测距原理,计算两两一组鱼眼相机的深度信息,并生成点云地图Mpq
步骤1.4.1:利用式(2)计算第p个鱼眼相机和第q个鱼眼相机之间的左、右旋转矩阵
Figure BDA0002980131330000025
Figure BDA0002980131330000026
Figure BDA0002980131330000027
步骤1.4.2:利用式(3)计算第p个鱼眼相机和第q个鱼眼相机之间的标准校正矩阵
Figure BDA0002980131330000028
Figure BDA0002980131330000029
式(3)中,e1、e2、e3表示标准校正矩阵
Figure BDA00029801313300000210
中的三个向量,并有:
Figure BDA00029801313300000211
步骤1.4.3:利用式(5)得到第p个鱼眼相机和第q个鱼眼相机之间的左、右立体校正矩阵
Figure BDA00029801313300000212
Figure BDA00029801313300000213
Figure BDA00029801313300000214
步骤1.4.4:根据左、右立体校正矩阵
Figure BDA0002980131330000031
Figure BDA0002980131330000032
利用SGBM算法对校正后的停车场图像进行处理,得到深度信息,并生成第p个鱼眼相机和第q个鱼眼相机之间的点云地图Mpq
步骤1.5:以第O个鱼眼相机为基准,利用式(6)对点云地图Mpq进行坐标变换,得到点云地图数据集Mpo
Mpo=MpqRpo+Tpo (6)
式(6)中,Rpo表示第p个鱼眼相机和第O个鱼眼相机之间的旋转矩阵;Tpo表示第p个鱼眼相机和第O个鱼眼相机之间的平移矩阵;
以第O个鱼眼相机为基准对齐所有的点云地图数据集,从而得到数据集Mo,且
Figure BDA0002980131330000033
步骤1.6:将数据集Mo进行高斯滤波处理,生成去除噪点后的停车场初始三维可视化点云地图Mw0
步骤2:通过惯性传感器确定停车场内车辆相对于起点的相对位置;
步骤2.1:车辆在大地坐标系n中的初始位置设为Wg0=[xg0,yg0,zg0];
以移动车辆的质心作为坐标原点,以移动车辆水平运动方向为X轴,以垂直于X轴的方向为Y轴,建立车辆自身坐标系c;
步骤2.2:在t时刻利用惯性传感器获得在车辆自身坐标系c下的车辆加速度at,c、角速度ωt,c,t+1时刻的车辆加速度at+1,c、角速度ωt+1,c
将惯性传感器固联在车身上并与车辆自身坐标系c的三轴重合,利用式(7)得到在大地坐标系n下t时刻的车辆加速度at,n、t+1时刻车辆加速度at+1,n
Figure BDA0002980131330000034
式(7)中,Qt、Qt+1分别为t时刻和t+1时刻相应的姿态变换矩阵,Ba为测量偏差,g为重力加速度,并有:
Qt+1=Qt(ω′t,cΔt) (8)
式(8)中,Δt表示t时刻和t+1时刻之间的差值;ωt,c表示大地坐标系n下的t时刻到t+1时刻的平均角速度,并有:
Figure BDA0002980131330000041
步骤2.3:利用式(10)得到t+1时刻的速度vt+1和位置W(xt+1,yt+1,zt+1):
Figure BDA0002980131330000042
式(10)中,at,n为大地坐标系n下的t时刻到t+1时刻的平均加速度,θ为航向角,xt,yt,zt为t时刻的车辆在大地坐标系n下的坐标,当t=0时,有[xt,yt,zt]=[xg0,yg0,zg0],xt+1,yt+1,zt+1为t+1时刻的车辆在大地坐标系下的坐标,并有:
Figure BDA0002980131330000043
步骤2.4:根据式(10)得到任意时刻车辆相对于出发点的位置信息,并记车辆在任意时刻通过惯性传感器得到的定位坐标为Wg=[xg,yg,zg];
步骤3:收集停车场鱼眼相机的图像数据,并利用所述图像数据定位车辆的位置Wc=[xc,yc,zc];
步骤3.1:对鱼眼相机所获取的实时图像进行高斯滤波处理,去除图像噪点,从而得到去燥后的实时图像;
步骤3.2:按照步骤1的过程进行处理,并输出实时三维可视化点云地图Mw1
步骤3.3:比较实时三维可视化点云地图Mw1和停车场初始三维可视化点云地图Mw0,由式(12)计算得到实时运动车辆的点云数据集
Figure BDA0002980131330000044
其中,cj为点云数据集Mc中第j个三维坐标向量;h为组成云数据集Mc的三维坐标向量的个数;
Mc=Mw1-Mw0 (12)
步骤3.4:利用式(13)得到所定位的车辆位置Wc的三维坐标[xc,yc,zc],并作为重心位置:
Figure BDA0002980131330000051
步骤4:数据融合:
利用式(14)计算最终车辆位置信息WD
WD=kWg+(1-k)Wc (14)
式(14)中,k为权重,且0<k<1。
本发明所述的惯性传感器和多鱼眼相机联合的地下停车场车辆定位方法的特点是,设置阈值时间thresh和计数时间t_a;
当t_a<thresh时,设置k>中间值,表示惯性传感器的定位信息精确度更高;
当t_a>thresh时,设置k<中间值,表示鱼眼相机的定位信息精确度更高,同时重置惯性传感器以消去漂移误差;利用式(15)得到重置后的惯性传感器的初始坐标变Wg0
W′g0=WD=[xgc,ygc,zgc] (15)
式(15)中,xgc,ygc,zgc为重置时刻的车辆在大地坐标系n下的坐标。
当鱼眼相机视野内同时出现两辆以上车辆时,按如下步骤进行定位:
步骤5.1:根据车辆惯性传感器的定位坐标Wg计算所述车辆在鱼眼相机所获取的图像中的像素位置范围,从而得到图像中车辆位置的矩形框Bg
步骤5.2:使用YOLOV5的深度学习图像识别方法对鱼眼相机所拍摄的实时图像上的车辆位置进行定位,得到图像中车辆位置的识别矩形框Bc
步骤5.4:由式(16)比较所述识别矩形框Bc与所述矩形框Bg,得到误差判定结果ΔB:
ΔB=||Bg-Bc||2 (16)
步骤5.5:判断ΔB<Bmin是否成立,若成立,表示最终车辆位置信息WD准确;否则,增加k后,重新利用式(14)计算最终车辆位置信息,其中,Bmin表示阈值。
与现有技术相比,本发明的有益效果在于:
1.本发明的地下停车场车辆定位方法使用鱼眼相机和惯性传感器定位数据实现了数据融合定位,提高了地下停车场车辆定位精度,同时也实现了惯性传感器的定位误差重置,减少了惯性传感器漂移误差。
2.本发明使用鱼眼相机采集的图像实现视觉定位,相比使用普通相机实现视觉定位,该方法能够获取停车场内更大视野范围内的图像信息,避免了视野盲区,同时在一辆车被多个鱼眼相机观测到的情况下通过联合多个鱼眼相机的定位信息提高了该视觉定位方法的精度。
3.本发明利用停车场用于监控的鱼眼相机和车辆上普遍安装的惯性传感器这些已有硬件设备进行停车场车辆定位方法的设计,在不提升硬件成本的情况下提高了停车场车辆定位精度。
4.本发明设计使用YOLOV5深度学习检测方法结合惯性传感器定位的推导结果,在同一区域内同时出现两辆及以上车辆的复杂情况下仍能够实现地下停车场车辆的精准定位。
附图说明
图1为本发明惯性传感器的车辆定位原理图;
图2为本发明惯性传感器和鱼眼相机联合定位算法流程图;
图3为本发明多车辆目标工况下的定位算法流程图。
具体实施方式
本实施例中,一种惯性传感器和多鱼眼相机联合的地下停车场车辆定位方法能联合停车场内鱼眼相机的图像信息和车辆的惯性传感器信息实现车辆在地下停车场内的定位,该定位方法能大大提高定位精度,同时通过数据融合的方法克服了惯性传感器数据漂移问题和停车场内鱼眼相机的视角盲区问题,具体的说,如图2所示,是按如下步骤进行:
步骤1:建立停车场初始三维可视化地图,目的是为了获取无车辆时停车场的三维地图信息;
1.1:利用鱼眼相机获取一幅停车场图像,并利用式(1)对停车场图像中的每个像素点进行校正,得到校正后的停车场图像:
Figure BDA0002980131330000061
式(1)中,x、y表示停车场图像中一个像素点的横纵坐标;r表示横纵坐标x和y平方的和;xdis、ydis表示校正后的停车场图像中的一个像素点的横、纵坐标;k1,k2,k3表示鱼眼相机的三个内参,p1,p2表示鱼眼相机的畸变参数;
1.2:在停车场中建立大地坐标系n;
1.3:以大地坐标系n为基准测量所有m个鱼眼相机中心的坐标,得到鱼眼相机位置的坐标数据集
Figure BDA0002980131330000071
以及相对位置关系,其中,CCi表示第i个鱼眼相机中心的坐标,相对位置关系包括:旋转矩阵
Figure BDA0002980131330000072
和平移矩阵
Figure BDA0002980131330000073
Rpq表示第p个鱼眼相机和第q个鱼眼相机之间的旋转矩阵;Tpq表示第p个鱼眼相机和第q个鱼眼相机之间的平移矩阵,
Figure BDA0002980131330000074
分别表示第p个鱼眼相机和第q个鱼眼相机之间在大地坐标系n中x轴、y轴、z轴上的坐标位置;
1.4:应用双目测距原理,计算两两一组鱼眼相机的深度信息,并生成点云地图Mpq
1.4.1:利用式(2)计算第p个鱼眼相机和第q个鱼眼相机之间的左、右旋转矩阵
Figure BDA0002980131330000075
Figure BDA0002980131330000076
Figure BDA0002980131330000077
1.4.2:利用式(3)计算第p个鱼眼相机和第q个鱼眼相机之间的标准校正矩阵
Figure BDA0002980131330000078
Figure BDA0002980131330000079
式(3)中,e1、e2、e3表示标准校正矩阵
Figure BDA00029801313300000710
中的三个向量,并有:
Figure BDA00029801313300000711
1.4.3:利用式(5)得到第p个鱼眼相机和第q个鱼眼相机之间的左、右立体校正矩阵
Figure BDA00029801313300000712
Figure BDA00029801313300000713
Figure BDA00029801313300000714
1.4.4:根据左、右立体校正矩阵
Figure BDA00029801313300000715
Figure BDA00029801313300000716
利用SGBM算法对校正后的停车场图像进行处理,得到深度信息,并生成第p个鱼眼相机和第q个鱼眼相机之间的点云地图Mpq
1.5:以第O个鱼眼相机为基准,利用式(6)对点云地图Mpq进行坐标变换,得到点云地图数据集Mpo
Figure BDA0002980131330000081
式(6)中,Rpo表示第p个鱼眼相机和第O个鱼眼相机之间的旋转矩阵;Tpo表示第p个鱼眼相机和第O个鱼眼相机之间的平移矩阵;
以第O个鱼眼相机为基准对齐所有的点云地图数据集,从而得到数据集Mo,且
Figure BDA0002980131330000082
1.6:将数据集Mo进行高斯滤波处理,生成去除噪点后的停车场初始三维可视化点云地图Mw0
步骤2:通过惯性传感器确定停车场内车辆相对于起点的相对位置;
步骤2.1:停车场中由于GPS信号较弱,可以采用惯性传感器推测车辆的相对位置,主要通过惯性敏感元件三轴加速度计和三轴陀螺仪对移动车辆的实时加速度和角速度进行测量,在对姿态、位置等参量初始化的基础上,通过坐标变换和导航计算得到车辆的加速度、速度、位置等各类惯性参数,基于惯性传感器的车辆定位原理如图1所示。
步骤2.2:车辆在大地坐标系中的初始位置设为Wg0=[xg0,yg0,zg0],以移动车辆的质心作为坐标原点,以移动车辆水平运动方向为X轴,以垂直于X轴的方向为Y轴,建立车辆自身坐标系c;,
步骤2.3:在t时刻利用惯性传感器获得在车辆自身坐标系c下的车辆加速度at,c、角速度ωt,c,t+1时刻的车辆加速度at+1,c、角速度ωt+1,c
将惯性传感器固联在车身上并于车辆的三轴重合,由于惯性传感器测量的加速度数据是相对于车辆坐标系c的,所以要根据相应时刻的姿态将车辆坐标系c下的加速度转换到大地坐标系n下,利用式(7)得到在大地坐标系n下t时刻的车辆加速度at,n、t+1时刻车辆加速度at+1,n
Figure BDA0002980131330000083
式(7)中,Qt、Qt+1分别为t时刻和t+1时刻相应的姿态变换矩阵,Ba为测量偏差,g为重力加速度,并有:
Qt+1=Qt(ω′t,cΔt) (8)
式(8)中,Δt表示t时刻和t+1时刻之间的差值;ω′t,c表示大地坐标系n下的t时刻到t+1时刻的平均角速度,并有:
Figure BDA0002980131330000091
步骤2.4:利用式(10)得到t+1时刻的速度vt+1和位置W(xt+1,yt+1,zt+1):
Figure BDA0002980131330000092
式(10)中,a′t,n为大地坐标系n下的t时刻到t+1时刻的平均加速度,θ为航向角,xt,yt,zt为t时刻的车辆在大地坐标系下的坐标,当t=0时,有[xt,yt,zt]=[xg0,yg0,zg0],xt+1,yt+1,zt+1为t+1时刻的车辆在大地坐标系下的坐标,并有:
Figure BDA0002980131330000093
步骤2.5:根据式(10)得到任意时刻车辆相对于出发点的位置信息,并记车辆在任意时刻通过惯性传感器得到的位置信息为Wg=[xg,yg,zg];
步骤3:收集停车场鱼眼相机图像数据,利用图像信息定位车辆位置Wc=[xc,yc,zc];
步骤3.1:对鱼眼相机所获取的实时图像进行高斯滤波处理,去除图像噪点,从而得到去燥后的实时图像;
步骤3.2:按照步骤1的过程进行处理,并输出实时三维可视化点云地图Mw1
步骤3.2:按照步骤1的过程进行处理,并输出实时三维可视化点云地图Mw1
步骤3.3:比较实时三维可视化点云地图Mw1和停车场初始三维可视化点云地图Mw0,由式(12)计算得到实时运动车辆的点云数据集
Figure BDA0002980131330000094
其中,cj为点云数据集Mc中第j个三维坐标向量;h为组成云数据集Mc的三维坐标向量的个数;
Mc=Mw1-Mw0 (12)
步骤3.4:利用式(13)得到所定位的车辆位置Wc的三维坐标[xc,yc,zc],并作为重心位置:
Figure BDA0002980131330000101
步骤4:融合惯性传感器定位数据与鱼眼相机定位数据的融合,实现更为准确的定位,实现联合定位的算法流程图如图2所示;
步骤4.1:利用式(14)计算最终车辆位置信息WD
WD=kWg+(1-k)Wc (14)
式(14)中,k为权重,且0<k<1。
步骤4.2:设置阈值时间thresh和计数时间t_a;t_a为系统计数器计数值,随时间增加而增加。
步骤4.3当t_a<thresh时,设置k=0.8,表示惯性传感器的定位信息精确度更高;
步骤4.4当t_a>thresh时,设置k=0.2,表示鱼眼相机的定位信息精确度更高,同时重置惯性传感器以消去漂移误差;利用式(15)得到重置后的惯性传感器的初始坐标变W′g0
W′g0=WD=[xgc,ygc,zgc] (15)
式(15)中,xgc,ygc,zgc为当前时刻车辆在大地坐标系下n的坐标;
步骤5:当鱼眼相机视野内同时出现两辆以上车辆时的定位方法,如图3所示。
实际应用中鱼眼相机的视野内可能同时出现多个车辆目标,因此需要设计合理的算法处理此种情况,提高定位算法的鲁棒性和稳定性,设计算法步骤如下:
步骤5.1:使用车辆惯性传感器定位坐标Wg推导该车辆在鱼眼相机或取图像中的像素位置范围,得到使用车辆惯性传感器定位坐标Wg推导所得的图像中车辆位置的矩形框Bg
步骤5.2:使用YOLOV5的深度学习图像识别方法对鱼眼相机实时图像上的车辆位置进行定位,得到由YOLOV5识别的图像中车辆位置的识别矩形框Bc
步骤5.4:由式(16)比较YOLOV5识别的图像中车辆位置的识别矩形框Bc与使用车辆惯性传感器定位坐标Wg推导所得的图像中车辆位置的矩形框Bg,得到误差判定结果ΔB:
ΔB=||Bg-Bc||2 (16)
式(16)中,ΔB值较大说明矩形框Bc和矩形框Bg相差较大;ΔB值较小说明矩形框Bc和矩形框Bg相差较小;
步骤5.5:判断ΔB<Bmin是否成立,若成立,表示最终车辆位置信息WD准确;否则,表示此时图像定位方法失效,只信任惯性装置的定位结果,所以将步骤4.2中的k设为0.95,重新利用式(14)计算最终车辆位置信息,其中,Bmin表示阈值。

Claims (3)

1.一种惯性传感器和多鱼眼相机联合的地下停车场车辆定位方法,其特征是按如下步骤进行:
步骤1:建立停车场初始三维可视化地图;
步骤1.1:利用鱼眼相机获取一幅停车场图像,并利用式(1)对所述停车场图像中的每个像素点进行校正,得到校正后的停车场图像:
Figure FDA0002980131320000011
式(1)中,x、y分别表示所述停车场图像中一个像素点的横、纵坐标;r表示横纵坐标x和y平方的和;xdis、ydis表示校正后的停车场图像中一个像素点的横、纵坐标;k1,k2,k3表示鱼眼相机的三个内参,p1,p2表示鱼眼相机的畸变参数;
步骤1.2:在停车场中建立大地坐标系n;
步骤1.3:以大地坐标系n为基准测量所有m个鱼眼相机中心的坐标,得到鱼眼相机位置的坐标数据集
Figure FDA0002980131320000012
以及相对位置关系,其中,CCi表示第i个鱼眼相机中心的坐标,所述相对位置关系包括:旋转矩阵
Figure FDA0002980131320000013
和平移矩阵
Figure FDA0002980131320000014
Rpq表示第p个鱼眼相机和第q个鱼眼相机之间的旋转矩阵;Tpq表示第p个鱼眼相机和第q个鱼眼相机之间的平移矩阵,
Figure FDA0002980131320000015
分别表示第p个鱼眼相机和第q个鱼眼相机之间在大地坐标系n中x轴、y轴、z轴上的坐标位置;
步骤1.4:应用双目测距原理,计算两两一组鱼眼相机的深度信息,并生成点云地图Mpq
步骤1.4.1:利用式(2)计算第p个鱼眼相机和第q个鱼眼相机之间的左、右旋转矩阵
Figure FDA0002980131320000016
Figure FDA0002980131320000017
Figure FDA0002980131320000018
步骤1.4.2:利用式(3)计算第p个鱼眼相机和第q个鱼眼相机之间的标准校正矩阵
Figure FDA0002980131320000019
Figure FDA0002980131320000021
式(3)中,e1、e2、e3表示标准校正矩阵
Figure FDA0002980131320000022
中的三个向量,并有:
Figure FDA0002980131320000023
步骤1.4.3:利用式(5)得到第p个鱼眼相机和第q个鱼眼相机之间的左、右立体校正矩阵
Figure FDA0002980131320000024
Figure FDA0002980131320000025
Figure FDA0002980131320000026
步骤1.4.4:根据左、右立体校正矩阵
Figure FDA0002980131320000027
Figure FDA0002980131320000028
利用SGBM算法对校正后的停车场图像进行处理,得到深度信息,并生成第p个鱼眼相机和第q个鱼眼相机之间的点云地图Mpq
步骤1.5:以第O个鱼眼相机为基准,利用式(6)对点云地图Mpq进行坐标变换,得到点云地图数据集Mpo
Mpo=MpqRpo+Tpo (6)
式(6)中,Rpo表示第p个鱼眼相机和第O个鱼眼相机之间的旋转矩阵;Tpo表示第p个鱼眼相机和第O个鱼眼相机之间的平移矩阵;
以第O个鱼眼相机为基准对齐所有的点云地图数据集,从而得到数据集Mo,且
Figure FDA0002980131320000029
步骤1.6:将数据集Mo进行高斯滤波处理,生成去除噪点后的停车场初始三维可视化点云地图Mw0
步骤2:通过惯性传感器确定停车场内车辆相对于起点的相对位置;
步骤2.1:车辆在大地坐标系n中的初始位置设为Wg0=[xg0,yg0,zg0];
以移动车辆的质心作为坐标原点,以移动车辆水平运动方向为X轴,以垂直于X轴的方向为Y轴,建立车辆自身坐标系c;
步骤2.2:在t时刻利用惯性传感器获得在车辆自身坐标系c下的车辆加速度at,c、角速度ωt,c,t+1时刻的车辆加速度at+1,c、角速度ωt+1,c
将惯性传感器固联在车身上并与车辆自身坐标系c的三轴重合,利用式(7)得到在大地坐标系n下t时刻的车辆加速度at,n、t+1时刻车辆加速度at+1,n
Figure FDA0002980131320000031
式(7)中,Qt、Qt+1分别为t时刻和t+1时刻相应的姿态变换矩阵,Ba为测量偏差,g为重力加速度,并有:
Qt+1=Qt(ω′t,cΔt) (8)
式(8)中,Δt表示t时刻和t+1时刻之间的差值;ω′t,c表示大地坐标系n下的t时刻到t+1时刻的平均角速度,并有:
Figure FDA0002980131320000032
步骤2.3:利用式(10)得到t+1时刻的速度vt+1和位置W(xt+1,yt+1,zt+1):
Figure FDA0002980131320000033
式(10)中,a′t,n为大地坐标系n下的t时刻到t+1时刻的平均加速度,θ为航向角,xt,yt,zt为t时刻的车辆在大地坐标系n下的坐标,当t=0时,有[xt,yt,zt]=[xg0,yg0,zg0],xt+1,yt+1,zt+1为t+1时刻的车辆在大地坐标系下的坐标,并有:
Figure FDA0002980131320000034
步骤2.4:根据式(10)得到任意时刻车辆相对于出发点的位置信息,并记车辆在任意时刻通过惯性传感器得到的定位坐标为Wg=[xg,yg,zg];
步骤3:收集停车场鱼眼相机的图像数据,并利用所述图像数据定位车辆的位置Wc=[xc,yc,zc];
步骤3.1:对鱼眼相机所获取的实时图像进行高斯滤波处理,去除图像噪点,从而得到去燥后的实时图像;
步骤3.2:按照步骤1的过程进行处理,并输出实时三维可视化点云地图Mw1
步骤3.3:比较实时三维可视化点云地图Mw1和停车场初始三维可视化点云地图Mw0,由式(12)计算得到实时运动车辆的点云数据集
Figure FDA0002980131320000041
其中,cj为点云数据集Mc中第j个三维坐标向量;h为组成云数据集Mc的三维坐标向量的个数;
Mc=Mw1-Mw0 (12)
步骤3.4:利用式(13)得到所定位的车辆位置Wc的三维坐标[xc,yc,zc],并作为重心位置:
Figure FDA0002980131320000042
步骤4:数据融合:
利用式(14)计算最终车辆位置信息WD
WD=kWg+(1-k)Wc (14)
式(14)中,k为权重,且0<k<1。
2.根据权利要求1所述的惯性传感器和多鱼眼相机联合的地下停车场车辆定位方法,其特征是,设置阈值时间thresh和计数时间t_a;
当t_a<thresh时,设置k>中间值,表示惯性传感器的定位信息精确度更高;
当t_a>thresh时,设置k<中间值,表示鱼眼相机的定位信息精确度更高,同时重置惯性传感器以消去漂移误差;利用式(15)得到重置后的惯性传感器的初始坐标变W′g0
W′g0=WD=[xgc,ygc,zgc] (15)
式(15)中,xgc,ygc,zgc为重置时刻的车辆在大地坐标系n下的坐标。
3.根据权利要求1所述的惯性传感器和多鱼眼相机联合的地下停车场车辆定位方法,其特征在于,当鱼眼相机视野内同时出现两辆以上车辆时,按如下步骤进行定位:
步骤5.1:根据车辆惯性传感器的定位坐标Wg计算所述车辆在鱼眼相机所获取的图像中的像素位置范围,从而得到图像中车辆位置的矩形框Bg
步骤5.2:使用YOLOV5的深度学习图像识别方法对鱼眼相机所拍摄的实时图像上的车辆位置进行定位,得到图像中车辆位置的识别矩形框Bc
步骤5.4:由式(16)比较所述识别矩形框Bc与所述矩形框Bg,得到误差判定结果ΔB:
ΔB=||Bg-Bc||2 (16)
步骤5.5:判断ΔB<Bmin是否成立,若成立,表示最终车辆位置信息WD准确;否则,增加k后,重新利用式(14)计算最终车辆位置信息,其中,Bmin表示阈值。
CN202110285104.1A 2021-03-17 2021-03-17 惯性传感器和多鱼眼相机联合的地下停车场车辆定位方法 Active CN112862818B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110285104.1A CN112862818B (zh) 2021-03-17 2021-03-17 惯性传感器和多鱼眼相机联合的地下停车场车辆定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110285104.1A CN112862818B (zh) 2021-03-17 2021-03-17 惯性传感器和多鱼眼相机联合的地下停车场车辆定位方法

Publications (2)

Publication Number Publication Date
CN112862818A true CN112862818A (zh) 2021-05-28
CN112862818B CN112862818B (zh) 2022-11-08

Family

ID=75994967

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110285104.1A Active CN112862818B (zh) 2021-03-17 2021-03-17 惯性传感器和多鱼眼相机联合的地下停车场车辆定位方法

Country Status (1)

Country Link
CN (1) CN112862818B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113609891A (zh) * 2021-06-15 2021-11-05 北京瞭望神州科技有限公司 一种船只识别监测方法及系统
CN113959435A (zh) * 2021-09-24 2022-01-21 杭州大数云智科技有限公司 一种基于多相机模型的车载环视在线slam系统及方法

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106908038A (zh) * 2017-01-04 2017-06-30 成都通甲优博科技有限责任公司 一种基于鱼眼镜头摄像机的监测装置及监控系统
CN107600067A (zh) * 2017-09-08 2018-01-19 中山大学 一种基于多视觉惯导融合的自主泊车系统及方法
WO2018071416A1 (en) * 2016-10-11 2018-04-19 Kaarta, Inc. Laser scanner with real-time, online ego-motion estimation
CN109079799A (zh) * 2018-10-23 2018-12-25 哈尔滨工业大学(深圳) 一种基于仿生的机器人感知控制系统及控制方法
CN109141433A (zh) * 2018-09-20 2019-01-04 江阴市雷奥机器人技术有限公司 一种机器人室内定位系统及定位方法
CN208751577U (zh) * 2018-09-20 2019-04-16 江阴市雷奥机器人技术有限公司 一种机器人室内定位系统
CN109631896A (zh) * 2018-07-23 2019-04-16 同济大学 一种基于车辆视觉和运动信息的停车场自主泊车定位方法
CN110617814A (zh) * 2019-09-26 2019-12-27 中国科学院电子学研究所 单目视觉和惯性传感器融合的远距离测距系统及方法
CN111595332A (zh) * 2020-04-13 2020-08-28 宁波深寻信息科技有限公司 一种融合惯性技术与视觉建模的全环境定位方法
CN111623773A (zh) * 2020-07-17 2020-09-04 国汽(北京)智能网联汽车研究院有限公司 一种基于鱼眼视觉和惯性测量的目标定位方法及装置
CN111623765A (zh) * 2020-05-18 2020-09-04 清华大学 基于多模态数据的室内定位方法及系统

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018071416A1 (en) * 2016-10-11 2018-04-19 Kaarta, Inc. Laser scanner with real-time, online ego-motion estimation
CN106908038A (zh) * 2017-01-04 2017-06-30 成都通甲优博科技有限责任公司 一种基于鱼眼镜头摄像机的监测装置及监控系统
CN107600067A (zh) * 2017-09-08 2018-01-19 中山大学 一种基于多视觉惯导融合的自主泊车系统及方法
CN109631896A (zh) * 2018-07-23 2019-04-16 同济大学 一种基于车辆视觉和运动信息的停车场自主泊车定位方法
CN109141433A (zh) * 2018-09-20 2019-01-04 江阴市雷奥机器人技术有限公司 一种机器人室内定位系统及定位方法
CN208751577U (zh) * 2018-09-20 2019-04-16 江阴市雷奥机器人技术有限公司 一种机器人室内定位系统
CN109079799A (zh) * 2018-10-23 2018-12-25 哈尔滨工业大学(深圳) 一种基于仿生的机器人感知控制系统及控制方法
CN110617814A (zh) * 2019-09-26 2019-12-27 中国科学院电子学研究所 单目视觉和惯性传感器融合的远距离测距系统及方法
CN111595332A (zh) * 2020-04-13 2020-08-28 宁波深寻信息科技有限公司 一种融合惯性技术与视觉建模的全环境定位方法
CN111623765A (zh) * 2020-05-18 2020-09-04 清华大学 基于多模态数据的室内定位方法及系统
CN111623773A (zh) * 2020-07-17 2020-09-04 国汽(北京)智能网联汽车研究院有限公司 一种基于鱼眼视觉和惯性测量的目标定位方法及装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
PATRICK GENEVA等: "An Efficient Schmidt-EKF for 3D Visual-Inertial SLAM", 《2019 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 *
SERGIO GARCÍA等: "Indoor SLAM for Micro Aerial Vehicles Control using Monocular Camera and Sensor Fusion", 《2016 INTERNATIONAL CONFERENCE ON AUTONOMOUS ROBOT SYSTEMS AND COMPETITIONS》 *
徐伟豪: "移动机器人的视觉惯性里程计研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113609891A (zh) * 2021-06-15 2021-11-05 北京瞭望神州科技有限公司 一种船只识别监测方法及系统
CN113959435A (zh) * 2021-09-24 2022-01-21 杭州大数云智科技有限公司 一种基于多相机模型的车载环视在线slam系统及方法

Also Published As

Publication number Publication date
CN112862818B (zh) 2022-11-08

Similar Documents

Publication Publication Date Title
US10788830B2 (en) Systems and methods for determining a vehicle position
WO2021026850A1 (zh) 一种基于二维码的导航定姿定位方法和系统
JP5992184B2 (ja) 画像データ処理装置、画像データ処理方法および画像データ処理用のプログラム
JP7404010B2 (ja) 位置推定装置及び方法
CN111065043B (zh) 一种基于车路通信的隧道内车辆融合定位系统及方法
CN109976344B (zh) 巡检机器人姿态矫正方法
CN112862818B (zh) 惯性传感器和多鱼眼相机联合的地下停车场车辆定位方法
EP3155369B1 (en) System and method for measuring a displacement of a mobile platform
KR101764222B1 (ko) 고정밀 측위 시스템 및 방법
CN113137968B (zh) 基于多传感器融合的重定位方法、重定位装置和电子设备
CN114413958A (zh) 无人物流车的单目视觉测距测速方法
CN113137973A (zh) 一种图像语义特征点真值确定方法及装置
CN113740864B (zh) 基于激光三维点云的探测器软着陆末段自主位姿估计方法
CN113340272B (zh) 一种基于无人机微群的地面目标实时定位方法
CN114777768A (zh) 一种卫星拒止环境高精度定位方法、系统及电子设备
CN112819711B (zh) 一种基于单目视觉的利用道路车道线的车辆反向定位方法
CN116184430B (zh) 一种激光雷达、可见光相机、惯性测量单元融合的位姿估计算法
CN112731503A (zh) 一种基于前端紧耦合的位姿估计方法及系统
CN113504385B (zh) 复数相机测速方法及测速装置
CN112798020A (zh) 一种用于评估智能汽车定位精度的系统及方法
WO2022179047A1 (zh) 一种状态信息估计方法及装置
CN113776540B (zh) 基于视觉导航定位的车载系留无人机实时跟踪移动车辆的控制方法
Wang et al. Research on visual odometry based on large-scale aerial images taken by UAV
CN110411457B (zh) 基于行程感知与视觉融合的定位方法、系统、终端和存储介质
CN110458885B (zh) 基于行程感知与视觉融合的定位系统和移动终端

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant