CN112862818A - 惯性传感器和多鱼眼相机联合的地下停车场车辆定位方法 - Google Patents
惯性传感器和多鱼眼相机联合的地下停车场车辆定位方法 Download PDFInfo
- Publication number
- CN112862818A CN112862818A CN202110285104.1A CN202110285104A CN112862818A CN 112862818 A CN112862818 A CN 112862818A CN 202110285104 A CN202110285104 A CN 202110285104A CN 112862818 A CN112862818 A CN 112862818A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- fisheye camera
- time
- parking lot
- formula
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 230000000007 visual effect Effects 0.000 claims abstract description 24
- 239000011159 matrix material Substances 0.000 claims description 33
- 230000001133 acceleration Effects 0.000 claims description 19
- 238000012937 correction Methods 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 11
- 238000004422 calculation algorithm Methods 0.000 claims description 10
- 238000013519 translation Methods 0.000 claims description 9
- 230000009466 transformation Effects 0.000 claims description 7
- 238000001914 filtration Methods 0.000 claims description 6
- 230000005484 gravity Effects 0.000 claims description 6
- 239000013598 vector Substances 0.000 claims description 6
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000013135 deep learning Methods 0.000 claims description 4
- 230000004927 fusion Effects 0.000 claims description 3
- 230000016776 visual perception Effects 0.000 abstract description 2
- 238000007781 pre-processing Methods 0.000 abstract 2
- 230000004438 eyesight Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- BULVZWIRKLYCBC-UHFFFAOYSA-N phorate Chemical compound CCOP(=S)(OCC)SCSCC BULVZWIRKLYCBC-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G06T5/70—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30264—Parking
Abstract
本发明公开了一种惯性传感器和多鱼眼相机联合的地下停车场车辆定位方法,其步骤包括:1建立停车场全局初始三维可视化地图;2收集车辆惯性传感器数据,进行数据预处理;3收集停车场鱼眼相机图像数据,进行数据预处理;4建立定位模型联立车辆惯性数据以及鱼眼相机图像数据实现定位。本发明能扩大摄像头的视觉感知范围,减少摄像头的布置数量,从而能降低成本并提高停车场内车辆的定位精度。
Description
技术领域
本发明涉及停车场室内车辆定位引导领域,尤其涉及一种惯性传感器与鱼眼相机联合定位的方法。
背景技术
随着人工智能、计算机视觉、传感技术等基础理论的持续快速发展,停车场的车辆自主引导开始走进了我们的生活,而要想实现停车场内车辆的自主引导,就需要对车辆的位置进行精确的定位,针对于地下停车场等室内环境,很难使用GPS进行定位,因为信号会被建筑物遮挡从而影响定位信号的接收与发送。因此针对停车场等室内环境的车辆定位,需要让车辆在不借助GPS信号的情况下进行自主定位。目前广泛使用的利用车辆自身所携带的传感器来实现车辆定位,其中比较有代表性的是利用惯性传感器的测量信息借助航位推算法来推算车辆位置,但是由于惯性导航技术的累积误差,导致其精度不高,但实时性较好。单独采用视觉定位时由于需要处理大量图片,所以存在数据处理效率低下而无法满足实时性要求。
发明内容
本发明是为了解决上述现有技术存在的不足之处,提出一种惯性传感器和多鱼眼相机联合的地下停车场车辆定位方法,以期能扩大摄像头的视觉感知范围,减少摄像头的布置数量,从而能降低成本并提高停车场内车辆的定位精度。
本发明为达到上述发明目的,采用如下技术方案:
本发明一种惯性传感器和多鱼眼相机联合的地下停车场车辆定位方法的特点是按如下步骤进行:
步骤1:建立停车场初始三维可视化地图;
步骤1.1:利用鱼眼相机获取一幅停车场图像,并利用式(1)对所述停车场图像中的每个像素点进行校正,得到校正后的停车场图像:
式(1)中,x、y分别表示所述停车场图像中一个像素点的横、纵坐标;r表示横纵坐标x和y平方的和;xdis、ydis表示校正后的停车场图像中一个像素点的横、纵坐标;k1,k2,k3表示鱼眼相机的三个内参,p1,p2表示鱼眼相机的畸变参数;
步骤1.2:在停车场中建立大地坐标系n;
步骤1.3:以大地坐标系n为基准测量所有m个鱼眼相机中心的坐标,得到鱼眼相机位置的坐标数据集以及相对位置关系,其中,CCi表示第i个鱼眼相机中心的坐标,所述相对位置关系包括:旋转矩阵和平移矩阵Rpq表示第p个鱼眼相机和第q个鱼眼相机之间的旋转矩阵;Tpq表示第p个鱼眼相机和第q个鱼眼相机之间的平移矩阵,分别表示第p个鱼眼相机和第q个鱼眼相机之间在大地坐标系n中x轴、y轴、z轴上的坐标位置;
步骤1.4:应用双目测距原理,计算两两一组鱼眼相机的深度信息,并生成点云地图Mpq:
步骤1.5:以第O个鱼眼相机为基准,利用式(6)对点云地图Mpq进行坐标变换,得到点云地图数据集Mpo:
Mpo=MpqRpo+Tpo (6)
式(6)中,Rpo表示第p个鱼眼相机和第O个鱼眼相机之间的旋转矩阵;Tpo表示第p个鱼眼相机和第O个鱼眼相机之间的平移矩阵;
步骤1.6:将数据集Mo进行高斯滤波处理,生成去除噪点后的停车场初始三维可视化点云地图Mw0;
步骤2:通过惯性传感器确定停车场内车辆相对于起点的相对位置;
步骤2.1:车辆在大地坐标系n中的初始位置设为Wg0=[xg0,yg0,zg0];
以移动车辆的质心作为坐标原点,以移动车辆水平运动方向为X轴,以垂直于X轴的方向为Y轴,建立车辆自身坐标系c;
步骤2.2:在t时刻利用惯性传感器获得在车辆自身坐标系c下的车辆加速度at,c、角速度ωt,c,t+1时刻的车辆加速度at+1,c、角速度ωt+1,c;
将惯性传感器固联在车身上并与车辆自身坐标系c的三轴重合,利用式(7)得到在大地坐标系n下t时刻的车辆加速度at,n、t+1时刻车辆加速度at+1,n:
式(7)中,Qt、Qt+1分别为t时刻和t+1时刻相应的姿态变换矩阵,Ba为测量偏差,g为重力加速度,并有:
Qt+1=Qt(ω′t,cΔt) (8)
式(8)中,Δt表示t时刻和t+1时刻之间的差值;ωt′,c表示大地坐标系n下的t时刻到t+1时刻的平均角速度,并有:
步骤2.3:利用式(10)得到t+1时刻的速度vt+1和位置W(xt+1,yt+1,zt+1):
式(10)中,at′,n为大地坐标系n下的t时刻到t+1时刻的平均加速度,θ为航向角,xt,yt,zt为t时刻的车辆在大地坐标系n下的坐标,当t=0时,有[xt,yt,zt]=[xg0,yg0,zg0],xt+1,yt+1,zt+1为t+1时刻的车辆在大地坐标系下的坐标,并有:
步骤2.4:根据式(10)得到任意时刻车辆相对于出发点的位置信息,并记车辆在任意时刻通过惯性传感器得到的定位坐标为Wg=[xg,yg,zg];
步骤3:收集停车场鱼眼相机的图像数据,并利用所述图像数据定位车辆的位置Wc=[xc,yc,zc];
步骤3.1:对鱼眼相机所获取的实时图像进行高斯滤波处理,去除图像噪点,从而得到去燥后的实时图像;
步骤3.2:按照步骤1的过程进行处理,并输出实时三维可视化点云地图Mw1;
步骤3.3:比较实时三维可视化点云地图Mw1和停车场初始三维可视化点云地图Mw0,由式(12)计算得到实时运动车辆的点云数据集其中,cj为点云数据集Mc中第j个三维坐标向量;h为组成云数据集Mc的三维坐标向量的个数;
Mc=Mw1-Mw0 (12)
步骤3.4:利用式(13)得到所定位的车辆位置Wc的三维坐标[xc,yc,zc],并作为重心位置:
步骤4:数据融合:
利用式(14)计算最终车辆位置信息WD:
WD=kWg+(1-k)Wc (14)
式(14)中,k为权重,且0<k<1。
本发明所述的惯性传感器和多鱼眼相机联合的地下停车场车辆定位方法的特点是,设置阈值时间thresh和计数时间t_a;
当t_a<thresh时,设置k>中间值,表示惯性传感器的定位信息精确度更高;
当t_a>thresh时,设置k<中间值,表示鱼眼相机的定位信息精确度更高,同时重置惯性传感器以消去漂移误差;利用式(15)得到重置后的惯性传感器的初始坐标变Wg′0:
W′g0=WD=[xgc,ygc,zgc] (15)
式(15)中,xgc,ygc,zgc为重置时刻的车辆在大地坐标系n下的坐标。
当鱼眼相机视野内同时出现两辆以上车辆时,按如下步骤进行定位:
步骤5.1:根据车辆惯性传感器的定位坐标Wg计算所述车辆在鱼眼相机所获取的图像中的像素位置范围,从而得到图像中车辆位置的矩形框Bg;
步骤5.2:使用YOLOV5的深度学习图像识别方法对鱼眼相机所拍摄的实时图像上的车辆位置进行定位,得到图像中车辆位置的识别矩形框Bc;
步骤5.4:由式(16)比较所述识别矩形框Bc与所述矩形框Bg,得到误差判定结果ΔB:
ΔB=||Bg-Bc||2 (16)
步骤5.5:判断ΔB<Bmin是否成立,若成立,表示最终车辆位置信息WD准确;否则,增加k后,重新利用式(14)计算最终车辆位置信息,其中,Bmin表示阈值。
与现有技术相比,本发明的有益效果在于:
1.本发明的地下停车场车辆定位方法使用鱼眼相机和惯性传感器定位数据实现了数据融合定位,提高了地下停车场车辆定位精度,同时也实现了惯性传感器的定位误差重置,减少了惯性传感器漂移误差。
2.本发明使用鱼眼相机采集的图像实现视觉定位,相比使用普通相机实现视觉定位,该方法能够获取停车场内更大视野范围内的图像信息,避免了视野盲区,同时在一辆车被多个鱼眼相机观测到的情况下通过联合多个鱼眼相机的定位信息提高了该视觉定位方法的精度。
3.本发明利用停车场用于监控的鱼眼相机和车辆上普遍安装的惯性传感器这些已有硬件设备进行停车场车辆定位方法的设计,在不提升硬件成本的情况下提高了停车场车辆定位精度。
4.本发明设计使用YOLOV5深度学习检测方法结合惯性传感器定位的推导结果,在同一区域内同时出现两辆及以上车辆的复杂情况下仍能够实现地下停车场车辆的精准定位。
附图说明
图1为本发明惯性传感器的车辆定位原理图;
图2为本发明惯性传感器和鱼眼相机联合定位算法流程图;
图3为本发明多车辆目标工况下的定位算法流程图。
具体实施方式
本实施例中,一种惯性传感器和多鱼眼相机联合的地下停车场车辆定位方法能联合停车场内鱼眼相机的图像信息和车辆的惯性传感器信息实现车辆在地下停车场内的定位,该定位方法能大大提高定位精度,同时通过数据融合的方法克服了惯性传感器数据漂移问题和停车场内鱼眼相机的视角盲区问题,具体的说,如图2所示,是按如下步骤进行:
步骤1:建立停车场初始三维可视化地图,目的是为了获取无车辆时停车场的三维地图信息;
1.1:利用鱼眼相机获取一幅停车场图像,并利用式(1)对停车场图像中的每个像素点进行校正,得到校正后的停车场图像:
式(1)中,x、y表示停车场图像中一个像素点的横纵坐标;r表示横纵坐标x和y平方的和;xdis、ydis表示校正后的停车场图像中的一个像素点的横、纵坐标;k1,k2,k3表示鱼眼相机的三个内参,p1,p2表示鱼眼相机的畸变参数;
1.2:在停车场中建立大地坐标系n;
1.3:以大地坐标系n为基准测量所有m个鱼眼相机中心的坐标,得到鱼眼相机位置的坐标数据集以及相对位置关系,其中,CCi表示第i个鱼眼相机中心的坐标,相对位置关系包括:旋转矩阵和平移矩阵Rpq表示第p个鱼眼相机和第q个鱼眼相机之间的旋转矩阵;Tpq表示第p个鱼眼相机和第q个鱼眼相机之间的平移矩阵,分别表示第p个鱼眼相机和第q个鱼眼相机之间在大地坐标系n中x轴、y轴、z轴上的坐标位置;
1.4:应用双目测距原理,计算两两一组鱼眼相机的深度信息,并生成点云地图Mpq:
1.5:以第O个鱼眼相机为基准,利用式(6)对点云地图Mpq进行坐标变换,得到点云地图数据集Mpo:
式(6)中,Rpo表示第p个鱼眼相机和第O个鱼眼相机之间的旋转矩阵;Tpo表示第p个鱼眼相机和第O个鱼眼相机之间的平移矩阵;
1.6:将数据集Mo进行高斯滤波处理,生成去除噪点后的停车场初始三维可视化点云地图Mw0。
步骤2:通过惯性传感器确定停车场内车辆相对于起点的相对位置;
步骤2.1:停车场中由于GPS信号较弱,可以采用惯性传感器推测车辆的相对位置,主要通过惯性敏感元件三轴加速度计和三轴陀螺仪对移动车辆的实时加速度和角速度进行测量,在对姿态、位置等参量初始化的基础上,通过坐标变换和导航计算得到车辆的加速度、速度、位置等各类惯性参数,基于惯性传感器的车辆定位原理如图1所示。
步骤2.2:车辆在大地坐标系中的初始位置设为Wg0=[xg0,yg0,zg0],以移动车辆的质心作为坐标原点,以移动车辆水平运动方向为X轴,以垂直于X轴的方向为Y轴,建立车辆自身坐标系c;,
步骤2.3:在t时刻利用惯性传感器获得在车辆自身坐标系c下的车辆加速度at,c、角速度ωt,c,t+1时刻的车辆加速度at+1,c、角速度ωt+1,c;
将惯性传感器固联在车身上并于车辆的三轴重合,由于惯性传感器测量的加速度数据是相对于车辆坐标系c的,所以要根据相应时刻的姿态将车辆坐标系c下的加速度转换到大地坐标系n下,利用式(7)得到在大地坐标系n下t时刻的车辆加速度at,n、t+1时刻车辆加速度at+1,n:
式(7)中,Qt、Qt+1分别为t时刻和t+1时刻相应的姿态变换矩阵,Ba为测量偏差,g为重力加速度,并有:
Qt+1=Qt(ω′t,cΔt) (8)
式(8)中,Δt表示t时刻和t+1时刻之间的差值;ω′t,c表示大地坐标系n下的t时刻到t+1时刻的平均角速度,并有:
步骤2.4:利用式(10)得到t+1时刻的速度vt+1和位置W(xt+1,yt+1,zt+1):
式(10)中,a′t,n为大地坐标系n下的t时刻到t+1时刻的平均加速度,θ为航向角,xt,yt,zt为t时刻的车辆在大地坐标系下的坐标,当t=0时,有[xt,yt,zt]=[xg0,yg0,zg0],xt+1,yt+1,zt+1为t+1时刻的车辆在大地坐标系下的坐标,并有:
步骤2.5:根据式(10)得到任意时刻车辆相对于出发点的位置信息,并记车辆在任意时刻通过惯性传感器得到的位置信息为Wg=[xg,yg,zg];
步骤3:收集停车场鱼眼相机图像数据,利用图像信息定位车辆位置Wc=[xc,yc,zc];
步骤3.1:对鱼眼相机所获取的实时图像进行高斯滤波处理,去除图像噪点,从而得到去燥后的实时图像;
步骤3.2:按照步骤1的过程进行处理,并输出实时三维可视化点云地图Mw1;
步骤3.2:按照步骤1的过程进行处理,并输出实时三维可视化点云地图Mw1;
步骤3.3:比较实时三维可视化点云地图Mw1和停车场初始三维可视化点云地图Mw0,由式(12)计算得到实时运动车辆的点云数据集其中,cj为点云数据集Mc中第j个三维坐标向量;h为组成云数据集Mc的三维坐标向量的个数;
Mc=Mw1-Mw0 (12)
步骤3.4:利用式(13)得到所定位的车辆位置Wc的三维坐标[xc,yc,zc],并作为重心位置:
步骤4:融合惯性传感器定位数据与鱼眼相机定位数据的融合,实现更为准确的定位,实现联合定位的算法流程图如图2所示;
步骤4.1:利用式(14)计算最终车辆位置信息WD:
WD=kWg+(1-k)Wc (14)
式(14)中,k为权重,且0<k<1。
步骤4.2:设置阈值时间thresh和计数时间t_a;t_a为系统计数器计数值,随时间增加而增加。
步骤4.3当t_a<thresh时,设置k=0.8,表示惯性传感器的定位信息精确度更高;
步骤4.4当t_a>thresh时,设置k=0.2,表示鱼眼相机的定位信息精确度更高,同时重置惯性传感器以消去漂移误差;利用式(15)得到重置后的惯性传感器的初始坐标变W′g0:
W′g0=WD=[xgc,ygc,zgc] (15)
式(15)中,xgc,ygc,zgc为当前时刻车辆在大地坐标系下n的坐标;
步骤5:当鱼眼相机视野内同时出现两辆以上车辆时的定位方法,如图3所示。
实际应用中鱼眼相机的视野内可能同时出现多个车辆目标,因此需要设计合理的算法处理此种情况,提高定位算法的鲁棒性和稳定性,设计算法步骤如下:
步骤5.1:使用车辆惯性传感器定位坐标Wg推导该车辆在鱼眼相机或取图像中的像素位置范围,得到使用车辆惯性传感器定位坐标Wg推导所得的图像中车辆位置的矩形框Bg;
步骤5.2:使用YOLOV5的深度学习图像识别方法对鱼眼相机实时图像上的车辆位置进行定位,得到由YOLOV5识别的图像中车辆位置的识别矩形框Bc;
步骤5.4:由式(16)比较YOLOV5识别的图像中车辆位置的识别矩形框Bc与使用车辆惯性传感器定位坐标Wg推导所得的图像中车辆位置的矩形框Bg,得到误差判定结果ΔB:
ΔB=||Bg-Bc||2 (16)
式(16)中,ΔB值较大说明矩形框Bc和矩形框Bg相差较大;ΔB值较小说明矩形框Bc和矩形框Bg相差较小;
步骤5.5:判断ΔB<Bmin是否成立,若成立,表示最终车辆位置信息WD准确;否则,表示此时图像定位方法失效,只信任惯性装置的定位结果,所以将步骤4.2中的k设为0.95,重新利用式(14)计算最终车辆位置信息,其中,Bmin表示阈值。
Claims (3)
1.一种惯性传感器和多鱼眼相机联合的地下停车场车辆定位方法,其特征是按如下步骤进行:
步骤1:建立停车场初始三维可视化地图;
步骤1.1:利用鱼眼相机获取一幅停车场图像,并利用式(1)对所述停车场图像中的每个像素点进行校正,得到校正后的停车场图像:
式(1)中,x、y分别表示所述停车场图像中一个像素点的横、纵坐标;r表示横纵坐标x和y平方的和;xdis、ydis表示校正后的停车场图像中一个像素点的横、纵坐标;k1,k2,k3表示鱼眼相机的三个内参,p1,p2表示鱼眼相机的畸变参数;
步骤1.2:在停车场中建立大地坐标系n;
步骤1.3:以大地坐标系n为基准测量所有m个鱼眼相机中心的坐标,得到鱼眼相机位置的坐标数据集以及相对位置关系,其中,CCi表示第i个鱼眼相机中心的坐标,所述相对位置关系包括:旋转矩阵和平移矩阵Rpq表示第p个鱼眼相机和第q个鱼眼相机之间的旋转矩阵;Tpq表示第p个鱼眼相机和第q个鱼眼相机之间的平移矩阵,分别表示第p个鱼眼相机和第q个鱼眼相机之间在大地坐标系n中x轴、y轴、z轴上的坐标位置;
步骤1.4:应用双目测距原理,计算两两一组鱼眼相机的深度信息,并生成点云地图Mpq:
步骤1.5:以第O个鱼眼相机为基准,利用式(6)对点云地图Mpq进行坐标变换,得到点云地图数据集Mpo:
Mpo=MpqRpo+Tpo (6)
式(6)中,Rpo表示第p个鱼眼相机和第O个鱼眼相机之间的旋转矩阵;Tpo表示第p个鱼眼相机和第O个鱼眼相机之间的平移矩阵;
步骤1.6:将数据集Mo进行高斯滤波处理,生成去除噪点后的停车场初始三维可视化点云地图Mw0;
步骤2:通过惯性传感器确定停车场内车辆相对于起点的相对位置;
步骤2.1:车辆在大地坐标系n中的初始位置设为Wg0=[xg0,yg0,zg0];
以移动车辆的质心作为坐标原点,以移动车辆水平运动方向为X轴,以垂直于X轴的方向为Y轴,建立车辆自身坐标系c;
步骤2.2:在t时刻利用惯性传感器获得在车辆自身坐标系c下的车辆加速度at,c、角速度ωt,c,t+1时刻的车辆加速度at+1,c、角速度ωt+1,c;
将惯性传感器固联在车身上并与车辆自身坐标系c的三轴重合,利用式(7)得到在大地坐标系n下t时刻的车辆加速度at,n、t+1时刻车辆加速度at+1,n:
式(7)中,Qt、Qt+1分别为t时刻和t+1时刻相应的姿态变换矩阵,Ba为测量偏差,g为重力加速度,并有:
Qt+1=Qt(ω′t,cΔt) (8)
式(8)中,Δt表示t时刻和t+1时刻之间的差值;ω′t,c表示大地坐标系n下的t时刻到t+1时刻的平均角速度,并有:
步骤2.3:利用式(10)得到t+1时刻的速度vt+1和位置W(xt+1,yt+1,zt+1):
式(10)中,a′t,n为大地坐标系n下的t时刻到t+1时刻的平均加速度,θ为航向角,xt,yt,zt为t时刻的车辆在大地坐标系n下的坐标,当t=0时,有[xt,yt,zt]=[xg0,yg0,zg0],xt+1,yt+1,zt+1为t+1时刻的车辆在大地坐标系下的坐标,并有:
步骤2.4:根据式(10)得到任意时刻车辆相对于出发点的位置信息,并记车辆在任意时刻通过惯性传感器得到的定位坐标为Wg=[xg,yg,zg];
步骤3:收集停车场鱼眼相机的图像数据,并利用所述图像数据定位车辆的位置Wc=[xc,yc,zc];
步骤3.1:对鱼眼相机所获取的实时图像进行高斯滤波处理,去除图像噪点,从而得到去燥后的实时图像;
步骤3.2:按照步骤1的过程进行处理,并输出实时三维可视化点云地图Mw1;
步骤3.3:比较实时三维可视化点云地图Mw1和停车场初始三维可视化点云地图Mw0,由式(12)计算得到实时运动车辆的点云数据集其中,cj为点云数据集Mc中第j个三维坐标向量;h为组成云数据集Mc的三维坐标向量的个数;
Mc=Mw1-Mw0 (12)
步骤3.4:利用式(13)得到所定位的车辆位置Wc的三维坐标[xc,yc,zc],并作为重心位置:
步骤4:数据融合:
利用式(14)计算最终车辆位置信息WD:
WD=kWg+(1-k)Wc (14)
式(14)中,k为权重,且0<k<1。
2.根据权利要求1所述的惯性传感器和多鱼眼相机联合的地下停车场车辆定位方法,其特征是,设置阈值时间thresh和计数时间t_a;
当t_a<thresh时,设置k>中间值,表示惯性传感器的定位信息精确度更高;
当t_a>thresh时,设置k<中间值,表示鱼眼相机的定位信息精确度更高,同时重置惯性传感器以消去漂移误差;利用式(15)得到重置后的惯性传感器的初始坐标变W′g0:
W′g0=WD=[xgc,ygc,zgc] (15)
式(15)中,xgc,ygc,zgc为重置时刻的车辆在大地坐标系n下的坐标。
3.根据权利要求1所述的惯性传感器和多鱼眼相机联合的地下停车场车辆定位方法,其特征在于,当鱼眼相机视野内同时出现两辆以上车辆时,按如下步骤进行定位:
步骤5.1:根据车辆惯性传感器的定位坐标Wg计算所述车辆在鱼眼相机所获取的图像中的像素位置范围,从而得到图像中车辆位置的矩形框Bg;
步骤5.2:使用YOLOV5的深度学习图像识别方法对鱼眼相机所拍摄的实时图像上的车辆位置进行定位,得到图像中车辆位置的识别矩形框Bc;
步骤5.4:由式(16)比较所述识别矩形框Bc与所述矩形框Bg,得到误差判定结果ΔB:
ΔB=||Bg-Bc||2 (16)
步骤5.5:判断ΔB<Bmin是否成立,若成立,表示最终车辆位置信息WD准确;否则,增加k后,重新利用式(14)计算最终车辆位置信息,其中,Bmin表示阈值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110285104.1A CN112862818B (zh) | 2021-03-17 | 2021-03-17 | 惯性传感器和多鱼眼相机联合的地下停车场车辆定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110285104.1A CN112862818B (zh) | 2021-03-17 | 2021-03-17 | 惯性传感器和多鱼眼相机联合的地下停车场车辆定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112862818A true CN112862818A (zh) | 2021-05-28 |
CN112862818B CN112862818B (zh) | 2022-11-08 |
Family
ID=75994967
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110285104.1A Active CN112862818B (zh) | 2021-03-17 | 2021-03-17 | 惯性传感器和多鱼眼相机联合的地下停车场车辆定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112862818B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113609891A (zh) * | 2021-06-15 | 2021-11-05 | 北京瞭望神州科技有限公司 | 一种船只识别监测方法及系统 |
CN113959435A (zh) * | 2021-09-24 | 2022-01-21 | 杭州大数云智科技有限公司 | 一种基于多相机模型的车载环视在线slam系统及方法 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106908038A (zh) * | 2017-01-04 | 2017-06-30 | 成都通甲优博科技有限责任公司 | 一种基于鱼眼镜头摄像机的监测装置及监控系统 |
CN107600067A (zh) * | 2017-09-08 | 2018-01-19 | 中山大学 | 一种基于多视觉惯导融合的自主泊车系统及方法 |
WO2018071416A1 (en) * | 2016-10-11 | 2018-04-19 | Kaarta, Inc. | Laser scanner with real-time, online ego-motion estimation |
CN109079799A (zh) * | 2018-10-23 | 2018-12-25 | 哈尔滨工业大学(深圳) | 一种基于仿生的机器人感知控制系统及控制方法 |
CN109141433A (zh) * | 2018-09-20 | 2019-01-04 | 江阴市雷奥机器人技术有限公司 | 一种机器人室内定位系统及定位方法 |
CN208751577U (zh) * | 2018-09-20 | 2019-04-16 | 江阴市雷奥机器人技术有限公司 | 一种机器人室内定位系统 |
CN109631896A (zh) * | 2018-07-23 | 2019-04-16 | 同济大学 | 一种基于车辆视觉和运动信息的停车场自主泊车定位方法 |
CN110617814A (zh) * | 2019-09-26 | 2019-12-27 | 中国科学院电子学研究所 | 单目视觉和惯性传感器融合的远距离测距系统及方法 |
CN111595332A (zh) * | 2020-04-13 | 2020-08-28 | 宁波深寻信息科技有限公司 | 一种融合惯性技术与视觉建模的全环境定位方法 |
CN111623773A (zh) * | 2020-07-17 | 2020-09-04 | 国汽(北京)智能网联汽车研究院有限公司 | 一种基于鱼眼视觉和惯性测量的目标定位方法及装置 |
CN111623765A (zh) * | 2020-05-18 | 2020-09-04 | 清华大学 | 基于多模态数据的室内定位方法及系统 |
-
2021
- 2021-03-17 CN CN202110285104.1A patent/CN112862818B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018071416A1 (en) * | 2016-10-11 | 2018-04-19 | Kaarta, Inc. | Laser scanner with real-time, online ego-motion estimation |
CN106908038A (zh) * | 2017-01-04 | 2017-06-30 | 成都通甲优博科技有限责任公司 | 一种基于鱼眼镜头摄像机的监测装置及监控系统 |
CN107600067A (zh) * | 2017-09-08 | 2018-01-19 | 中山大学 | 一种基于多视觉惯导融合的自主泊车系统及方法 |
CN109631896A (zh) * | 2018-07-23 | 2019-04-16 | 同济大学 | 一种基于车辆视觉和运动信息的停车场自主泊车定位方法 |
CN109141433A (zh) * | 2018-09-20 | 2019-01-04 | 江阴市雷奥机器人技术有限公司 | 一种机器人室内定位系统及定位方法 |
CN208751577U (zh) * | 2018-09-20 | 2019-04-16 | 江阴市雷奥机器人技术有限公司 | 一种机器人室内定位系统 |
CN109079799A (zh) * | 2018-10-23 | 2018-12-25 | 哈尔滨工业大学(深圳) | 一种基于仿生的机器人感知控制系统及控制方法 |
CN110617814A (zh) * | 2019-09-26 | 2019-12-27 | 中国科学院电子学研究所 | 单目视觉和惯性传感器融合的远距离测距系统及方法 |
CN111595332A (zh) * | 2020-04-13 | 2020-08-28 | 宁波深寻信息科技有限公司 | 一种融合惯性技术与视觉建模的全环境定位方法 |
CN111623765A (zh) * | 2020-05-18 | 2020-09-04 | 清华大学 | 基于多模态数据的室内定位方法及系统 |
CN111623773A (zh) * | 2020-07-17 | 2020-09-04 | 国汽(北京)智能网联汽车研究院有限公司 | 一种基于鱼眼视觉和惯性测量的目标定位方法及装置 |
Non-Patent Citations (3)
Title |
---|
PATRICK GENEVA等: "An Efficient Schmidt-EKF for 3D Visual-Inertial SLAM", 《2019 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 * |
SERGIO GARCÍA等: "Indoor SLAM for Micro Aerial Vehicles Control using Monocular Camera and Sensor Fusion", 《2016 INTERNATIONAL CONFERENCE ON AUTONOMOUS ROBOT SYSTEMS AND COMPETITIONS》 * |
徐伟豪: "移动机器人的视觉惯性里程计研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113609891A (zh) * | 2021-06-15 | 2021-11-05 | 北京瞭望神州科技有限公司 | 一种船只识别监测方法及系统 |
CN113959435A (zh) * | 2021-09-24 | 2022-01-21 | 杭州大数云智科技有限公司 | 一种基于多相机模型的车载环视在线slam系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112862818B (zh) | 2022-11-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10788830B2 (en) | Systems and methods for determining a vehicle position | |
WO2021026850A1 (zh) | 一种基于二维码的导航定姿定位方法和系统 | |
JP5992184B2 (ja) | 画像データ処理装置、画像データ処理方法および画像データ処理用のプログラム | |
JP7404010B2 (ja) | 位置推定装置及び方法 | |
CN111065043B (zh) | 一种基于车路通信的隧道内车辆融合定位系统及方法 | |
CN109976344B (zh) | 巡检机器人姿态矫正方法 | |
CN112862818B (zh) | 惯性传感器和多鱼眼相机联合的地下停车场车辆定位方法 | |
EP3155369B1 (en) | System and method for measuring a displacement of a mobile platform | |
KR101764222B1 (ko) | 고정밀 측위 시스템 및 방법 | |
CN113137968B (zh) | 基于多传感器融合的重定位方法、重定位装置和电子设备 | |
CN114413958A (zh) | 无人物流车的单目视觉测距测速方法 | |
CN113137973A (zh) | 一种图像语义特征点真值确定方法及装置 | |
CN113740864B (zh) | 基于激光三维点云的探测器软着陆末段自主位姿估计方法 | |
CN113340272B (zh) | 一种基于无人机微群的地面目标实时定位方法 | |
CN114777768A (zh) | 一种卫星拒止环境高精度定位方法、系统及电子设备 | |
CN112819711B (zh) | 一种基于单目视觉的利用道路车道线的车辆反向定位方法 | |
CN116184430B (zh) | 一种激光雷达、可见光相机、惯性测量单元融合的位姿估计算法 | |
CN112731503A (zh) | 一种基于前端紧耦合的位姿估计方法及系统 | |
CN113504385B (zh) | 复数相机测速方法及测速装置 | |
CN112798020A (zh) | 一种用于评估智能汽车定位精度的系统及方法 | |
WO2022179047A1 (zh) | 一种状态信息估计方法及装置 | |
CN113776540B (zh) | 基于视觉导航定位的车载系留无人机实时跟踪移动车辆的控制方法 | |
Wang et al. | Research on visual odometry based on large-scale aerial images taken by UAV | |
CN110411457B (zh) | 基于行程感知与视觉融合的定位方法、系统、终端和存储介质 | |
CN110458885B (zh) | 基于行程感知与视觉融合的定位系统和移动终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |