CN109949364B - 一种基于路侧单目摄像头的车辆姿态检测精度优化方法 - Google Patents
一种基于路侧单目摄像头的车辆姿态检测精度优化方法 Download PDFInfo
- Publication number
- CN109949364B CN109949364B CN201910257098.1A CN201910257098A CN109949364B CN 109949364 B CN109949364 B CN 109949364B CN 201910257098 A CN201910257098 A CN 201910257098A CN 109949364 B CN109949364 B CN 109949364B
- Authority
- CN
- China
- Prior art keywords
- vehicle
- detection
- detection frame
- model
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
本发明涉及一种基于路侧单目摄像头的车辆姿态检测精度优化方法,包括以下步骤:步骤1:由目标检测模型取得初始的矩形检测框,得到图片坐标系下检测框的四个顶点以及捕捉到目标的种类;步骤2:分割视频画面,划分出基准区域,根据车辆所处的区域以及像素坐标系与世界坐标系的转换,得到车辆的模糊姿态模型;步骤3:基于卡尔曼滤波追踪车辆,得到每辆车辆的行驶轨迹;步骤4:基于车辆的行驶轨迹,以及车辆模糊姿态模型得到车辆精确姿态模型;步骤5:将检测框输入精确车辆姿态模型,使得检测框变为特定的检测点,将其固定到不同姿态车辆的同一位置。与现有技术相比,本发明具有目标检测准确度更高,运算简单等优点。
Description
技术领域
本发明涉及自动驾驶汽车测试技术领域,尤其是涉及一种基于路侧单目摄像头的车辆姿态检测精度优化方法。
背景技术
目标检测是一种利用深度学习网络自动分辨出现在视频或者照片上的目标物体的技术。将目标视频或者图片传入基于卷积神经网络经过训练的模型,模型将会在图像坐标系下输出目标的种类以及一个矩形检测框(矩形框框出目标的整体)。现有的目标检测模型经历rcnn、fast-rcnn、faster-rcnn、yolo、ssd、yolov3等等的开源模型已经拥有了极好的检出率以及实时率。
但随着应用场景的变化,开源模型所输出的矩形检测框已经不能满足在检测精度上的需求。例如在无人驾驶领域对虚拟bsm消息的需求,无人驾驶车辆会将自己的车辆信息编辑成bsm消息发送给所有其它的无人驾驶车辆,在bsm信息中包含有车辆位置信息,在高精地图的支持下精确度以达到了厘米级。如果想用普通车辆加目标检测技术产生虚拟bsm消息,为了匹配无人驾驶车辆的精度,则需要将检测框(对于车辆而言误差在米级)归一为检测点,在车辆不同姿态下将其标定到车辆的固定位置。现有方式多为使用双目摄像头,进而利用双目3D还原取得车辆姿态,但双目摄像头并未大量布设与路侧并且3D还原损耗的算力过高。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于路侧单目摄像头的车辆姿态检测精度优化方法。
本发明的目的可以通过以下技术方案来实现:
一种基于路侧单目摄像头的车辆姿态检测精度优化方法,包括以下步骤:
步骤1:由目标检测模型取得初始的矩形检测框,得到图片坐标系下检测框的四个顶点以及捕捉到目标的种类;
步骤2:分割视频画面,划分出基准区域,根据车辆所处的区域以及像素坐标系与世界坐标系的转换,得到车辆的模糊姿态模型;
步骤3:基于卡尔曼滤波追踪车辆,得到每辆车辆的行驶轨迹;
步骤4:基于车辆的行驶轨迹,以及车辆模糊姿态模型得到车辆精确姿态模型;
步骤5:将检测框输入精确车辆姿态模型,使得检测框变为特定的检测点,将其固定到不同姿态车辆的同一位置。
进一步地,所述的步骤2包括以下分步骤:
步骤21:建立摄像机模型并还原像素坐标,得出检测目标的真实长宽比;
步骤22:根据检测目标在世界坐标系下的长宽比与真实长宽比相对比判断得出车辆的模糊姿态模型。
进一步地,所述步骤2中的基准区域包括正向直行区域、反向直行区域、左转区域和右转区域。
进一步地,所述步骤3中的行驶轨迹,其描述公式为:
进一步地,所述步骤4包括以下分步骤:
步骤41:判断比较检测框左下角点和右下角点各自像素坐标与上一帧之间横坐标差值的大小得出对应的状态改变量;
步骤42:根据对应的状态改变量得出对应的车辆姿态更新模型并进一步结合得出车辆精确姿态模型。
进一步地,所述步骤41具体包括:
当检测框左下角点的像素坐标与上一帧之间横坐标差值A大于所述检测框右下角点的像素坐标与上一帧之间横坐标差值B时,状态改变量为A-B;
当检测框左下角点的像素坐标与上一帧之间横坐标差值A小于所述检测框右下角点的像素坐标与上一帧之间横坐标差值B时,状态改变量为B-A;
当检测框左下角点的像素坐标与上一帧之间横坐标差值A等于所述检测框右下角点的像素坐标与上一帧之间横坐标差值B时,状态改变量为0或检测框左下角点与检测框右下角点之间像素坐标的正负横坐标差值。
进一步地,所述车辆姿态更新模型,其描述公式为:
H=M/C
式中,H为状态更新量,M为状态改变量,C为检测框右下角点与检测框左下角点之间像素坐标的横坐标差值。
进一步地,所述步骤5包括以下分步骤:
步骤51:将摄像头当前帧检测框的信息传输至车辆姿态更新模型;
步骤52:添加利用优化数据处理公式实现像素坐标点的位置追踪,得出追踪点。
进一步地,该优化方法还包括步骤6:将追踪点带入GPS与像素坐标相互转化地图得出精确GPS坐标。
与现有技术相比,本发明具有以下优点:
(1)精确度高,本发明通过针对现有目标检测算法获得的检测框的四个顶点坐标先后进行帧数划分、卡尔曼滤波器处理、迭代算法更新车辆姿态信息等操作,使得检测框经过处理后的坐标信息更为准确,识别检测精确度更高。
(2)运算简单,本发明中通过对检测框的顶点坐标进行的相关数据处理包括由摄像机畸变校正得出长宽比并比较,通过卡尔曼滤波模型进行车辆状态追踪,以及进而利用先前的处理数据得出车辆精确姿态模型并在最后还原至图像像素中,以提升目标检测效果,整体计算流程简单不复杂。
附图说明
图1为本发明实施例的优化流程示意图;
图2为本发明的整体方法流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都应属于本发明保护的范围。
实施例:
如图1所示为本实施例的优化流程示意图,每一步的具体细节流程如下:
步骤1)在像素坐标系下每个点分别为Pn=(μn,νn),检测器输出的矩形检测框的四个顶点从左到右分别为P0,P1,P2,P3。利用这四个点计算出矩形检测框在像素坐标系下的长宽比T。
步骤2)初始的车辆姿态模型建立方法,分割图像为四种区域,正向直行区域Ahead,反向直行区域Aback,左转区域Aleft,右转区域Aright。利用车辆出现区域设立车辆行驶的初始状态,在此时的车辆检出框的长宽比为Tn。四种区中的长宽比分别为Thp、Tbp、Tlp、Trp。
分步骤21)建立摄像机模型,将像素坐标系还原成真实坐标系,得到检测目标的真实长宽比
参数设置:
Ow–XwYwZw:世界坐标系,描述相机设置,单位m
Oc–XcYcZc:相机坐标系光心为原点,单位m
o–xy:图像坐标系,光心为图像中点,单位mm
μν:像素坐标系,原点为图像左上角一点
p:世界坐标系上的一点,即为生活中的真实一点
ρ:点p在图像中的成像点,在图像坐标系下的坐标为(x,y),在像素坐标系下为(μ,ν)
f:相机焦距,等于o与Oc的距离,f=||o-Oc||
由摄像机畸变校正得摄像机内参矩阵与摄像机外参矩阵,其中:
内参矩阵:
外参矩阵:
将P0=(μ0,ν0)、P1=(μ1,ν1)、P2=(μ2,ν2)、P3=(μ3,ν3)四个图像坐标系下的真实点带入以下公式
得到:
Ow0,Ow1,Ow2,Ow3,即P0,P1,P2,P3在世界坐标下的对应点,从而得到检测框在世界坐标系下的长宽比。
分步骤22)设检测框在世界坐标系下的长宽比为Vcar,Vtruck,,Vbus,与物体真实状态下的长宽比为Rcar,Rtruck,Rbus
当V≈R时,此时车辆被认为正面朝向摄像头行驶,或者朝相反的方向运动。结合步骤2)中车辆出现区域确定车辆的运动方向。
当V的值满足条件时,设置为初始状态。
步骤3)当车辆运动时,该车在t时刻的状态设pt为其当前的位置,vt表示该车当前的速度。加速度ut,ut相当于是一个对车的控制量。显然,如果司机既没有踩油门也没有踩刹车,那么ut就等于0。此时车就会做匀速直线运动。由此得到车辆位状态预测公式,
简化为:
而F就是状态转移矩阵,它表示我们如何从上一状态来推测当前状态。而B则是控制矩阵,它表示控制量u如何作用于当前状态。上式中x顶上的hat表示为估计值(而非真实值)。等式左端部分的右上标“-”表示该状态是根据上一状态推测而来的;
因为不但当前物体的状态(例如位置或者速度)是会(在每个时刻间)进行传递的,而且物体状态的不确定性也是会(在每个时刻间)进行传递的。这种不确定性的传递就可以用状态转移矩阵来表示。还应该考虑到,预测模型本身也并不绝对准确的,所以我们要引入一个协方差矩阵Q来表示预测模型本身的噪声;
K称为卡尔曼系数,它也是一个矩阵,它是对残差的加权矩阵,称其为滤波增益阵。
最后,还需对最优估计值的噪声分布进行更新。所使用的公式为
通过上述的公式我们可以同时追踪不同帧上的同一目标物体,不同视频帧上的同一辆车将会被打上唯一ID。
步骤4)由唯一ID将每辆车在不同视频帧上的检测框进行记录对比他们的检测框在像素坐标上的改变,P0为检测框的左下角点,P3为检测框右下角点。它们在像素坐标下的值为(μ0,ν0)(μ3,ν3)。设它们在上一帧的值为(μ0 -,ν0 -)(μ3 -,ν3 -)。
当路侧监控摄像头布置道路正中,直面道路时的到车辆状态改变模型,状态更新量H=M/(μ3-μ0),改变方向由初始状态决定。状态改变阀值为u
如果u=μ0-μ0 ->μ3-μ3 -。记录他们的姿态改更新模型
当u=μ0-μ0 -<μ3-μ3 -
当u=μ0-μ0 -μ3-μ3 -
车辆姿态不变
步骤5)将摄像头当前帧检测框的信息传输进之前的车辆姿态更新模型,加入优化算法使检测框在像素坐标下转换为车头下前沿中心点,实现车头下前沿中心点的追踪。设
C-为到上一帧为止车辆状态C加累计更新H+C-=C+H+。由摄像头安装角度产生的误差为a,a在每种初始状态下为常量。M+为车辆从初始位置到现在位置累计的改变量。
算法公式如下
实际演示测试例如下:
步骤一布置摄像头,摄像头布设高度为六米,与地面呈现70度夹角。摄像头通过网线直接连接到服务器上。服务器通过rtsp协议获取摄像头数据。
步骤二获取的视频流传入预先训练好的深度学习目标检测网络,当测试车辆出现在视频捕捉区域以内时检测器开始工作,形成一个检测框圈出车辆整体。检测框四个顶点的值分别为左上角P1,左下角P0,右上角P2,右下角P3。取其中一个检测框为例,其大小为P1(μ1=568,ν1=786),P0(μ0=565,ν0=823),P2(μ2=609,ν2=781),P3(μ3=611,ν3=821)。
步骤三把参数带入相机模型,相机模型由图片畸变矫正得来
内参矩阵中:
fx=5.3808563111306648e+02,fy=5.3808563111306648e+02
u0=3.3835479559418872e+02,v0=2.3777463358152289e+02
外参矩阵中:
R是一个3*3的矩阵:
-0.03456、0.973435、-0.20375
0.998234、0.003445、-0.051994
-0.045538、-0.232314、-0.942441
T是一个1*3的矩阵:
-2.000423
-2.167796
0.273221
带入模型时得到真实的长宽比1.42:1。
步骤四划分区域设置阀值:
照片的区域区间划分:
Ahead=[300:800,500:1800]
Aback=[900:1700,500:1800]
Aleft=[1530:1700,1200:1800]
Aright=[300:400,1200:1800]
将P0点的像素坐标值带入区间矩阵确认位置。
带入目标物体的实际长宽比,与长高比作为阀值即为预设初始状态时的理论值:
目标物体 | 实际长高比(车宽/车高) | 实际长宽比(车长/车高) |
Car | 1.5:1 | 2:1 |
Truck | 1.2:1 | 2.5:1 |
Bus | 1.1:1 | 3:1 |
真实状况下计算出的目标,在误差为正负0.15时认为达到初始状态。
使用测试车辆为一辆普通SUV在各区域的实测值为:
这里P0(μ0=565,ν0=823),真实的长宽比1.42:1.
得到:
车辆状态 | 初始状态模型 |
迎向摄像头直行 | C1 |
步骤五将这一帧所有检出框的数据输入卡尔曼滤波追踪器:
卡尔曼滤波器的递归过程估计时刻k的状态:
X(k)=A*X(k-1)+B*u(k)这里u(k)是系统输入计算误差相关矩阵P,度量估计值的精确程度:P(k)=A*P(k-1)*A’+Q
这里,Q=E{Wj^2}是系统噪声的协方差阵,即系统框图中的Wj的协方差阵,Q应该是不断变化的,为了简化,当作一个常数矩阵。
计算卡尔曼增益,以下略去(k),即P=P(k),X=X(k):
K=P*C’*(C*P*C’+R)-1这里R=E{Vj^2},是测量噪声的协方差(阵),即系统框图中的Vj的协方差,为了简化,也当作一个常数矩阵。由于系统一般是单输入单输出,所以R是一个1x1的矩阵,即一个常数,上面的公式可以简化为:K=P*C’/(C*P*C’+R)
状态变量反馈的误差量:
e=Z(k)–C*X(k)
这里的Z(k)是带噪声的测量量更新误差相关矩阵P
P=P–K*C*P更新状态变量:
X=X+K*e=X+K*(Z(k)–C*X(k))
最后的输出:Y=C*X
更具上述过程,给每一帧上的同一辆车打上唯一ID,这样每一帧上同一辆车的数据可以相互关联起来。
步骤六将前后两帧的数据带入归一模型:
得到车头唯一点的坐标为:
P00=(μ00=525,ν00=823)
步骤七将这个点带入gps与像素坐标相互转换地图得到精确的gps坐标;
结果:
综上所述,本发明的方法流程如图2所示,包括以下步骤:
步骤1:由目标检测模型取得初始的矩形检测框,得到图片坐标系下检测框的四个顶点以及捕捉到目标的种类;
步骤2:分割视频画面,划分出基准区域,根据车辆所处的区域以及像素坐标系与世界坐标系的转换,得到车辆的模糊姿态模型;
步骤3:基于卡尔曼滤波追踪车辆,得到每辆车辆的行驶轨迹;
步骤4:基于车辆的行驶轨迹,以及车辆模糊姿态模型得到车辆精确姿态模型;
步骤5:将检测框输入精确车辆姿态模型,使得检测框变为特定的检测点,将其固定到不同姿态车辆的同一位置。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (7)
1.一种基于路侧单目摄像头的车辆姿态检测精度优化方法,其特征在于,包括以下步骤:
步骤1:由目标检测模型取得初始的矩形检测框,得到图片坐标系下检测框的四个顶点以及捕捉到目标的种类;
步骤2:分割视频画面,划分出基准区域,根据车辆所处的区域以及像素坐标系与世界坐标系的转换,得到车辆的模糊姿态模型;
步骤3:基于卡尔曼滤波追踪车辆,得到每辆车辆的行驶轨迹;
步骤4:基于车辆的行驶轨迹,以及车辆模糊姿态模型得到车辆精确姿态模型;
步骤5:将检测框输入精确车辆姿态模型,使得检测框变为特定的检测点,将其固定到不同姿态车辆的同一位置;
所述的步骤2包括以下分步骤:
步骤21:建立摄像机模型并还原像素坐标,得出检测目标的真实长宽比;
步骤22:根据检测目标在世界坐标系下的长宽比与真实长宽比相对比判断得出车辆的模糊姿态模型;
所述步骤4包括以下分步骤:
步骤41:判断比较检测框左下角点和右下角点各自像素坐标与上一帧之间横坐标差值的大小得出对应的状态改变量;
步骤42:根据对应的状态改变量得出对应的车辆姿态更新模型并进一步结合得出车辆精确姿态模型。
2.根据权利要求1所述的一种基于路侧单目摄像头的车辆姿态检测精度优化方法,所述步骤2中的基准区域包括正向直行区域、反向直行区域、左转区域和右转区域。
4.根据权利要求1所述的一种基于路侧单目摄像头的车辆姿态检测精度优化方法,所述步骤41具体包括:
当检测框左下角点的像素坐标与上一帧之间横坐标差值A大于所述检测框右下角点的像素坐标与上一帧之间横坐标差值B时,状态改变量为A-B;
当检测框左下角点的像素坐标与上一帧之间横坐标差值A小于所述检测框右下角点的像素坐标与上一帧之间横坐标差值B时,状态改变量为B-A;
当检测框左下角点的像素坐标与上一帧之间横坐标差值A等于所述检测框右下角点的像素坐标与上一帧之间横坐标差值B时,状态改变量为0或检测框左下角点与检测框右下角点之间像素坐标的正负横坐标差值。
5.根据权利要求4所述的一种基于路侧单目摄像头的车辆姿态检测精度优化方法,所述车辆姿态更新模型,其描述公式为:
H=M/C
式中,H为状态更新量,M为状态改变量,C为检测框右下角点与检测框左下角点之间像素坐标的横坐标差值。
6.根据权利要求1所述的一种基于路侧单目摄像头的车辆姿态检测精度优化方法,所述步骤5包括以下分步骤:
步骤51:将摄像头当前帧检测框的信息传输至车辆姿态更新模型;
步骤52:添加利用优化数据处理公式实现像素坐标点的位置追踪,得出追踪点。
7.根据权利要求6所述的一种基于路侧单目摄像头的车辆姿态检测精度优化方法,该优化方法还包括步骤6:将追踪点带入GPS与像素坐标相互转化地图得出精确GPS坐标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910257098.1A CN109949364B (zh) | 2019-04-01 | 2019-04-01 | 一种基于路侧单目摄像头的车辆姿态检测精度优化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910257098.1A CN109949364B (zh) | 2019-04-01 | 2019-04-01 | 一种基于路侧单目摄像头的车辆姿态检测精度优化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109949364A CN109949364A (zh) | 2019-06-28 |
CN109949364B true CN109949364B (zh) | 2023-04-11 |
Family
ID=67012419
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910257098.1A Active CN109949364B (zh) | 2019-04-01 | 2019-04-01 | 一种基于路侧单目摄像头的车辆姿态检测精度优化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109949364B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110379178B (zh) * | 2019-07-25 | 2021-11-02 | 电子科技大学 | 基于毫米波雷达成像的无人驾驶汽车智能泊车方法 |
CN111693972B (zh) * | 2020-05-29 | 2022-11-15 | 东南大学 | 一种基于双目序列图像的车辆位置与速度估计方法 |
CN112053572A (zh) * | 2020-09-07 | 2020-12-08 | 重庆同枥信息技术有限公司 | 基于视频和距离网格标定的车辆测速方法、设备及系统 |
CN115690767B (zh) * | 2022-10-26 | 2023-08-22 | 北京远度互联科技有限公司 | 车牌识别方法、装置、无人机及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101639983A (zh) * | 2009-08-21 | 2010-02-03 | 任雪梅 | 一种基于图像信息熵的多车道车流量检测方法 |
EP2431917A1 (en) * | 2010-09-21 | 2012-03-21 | Mobileye Technologies Limited | Barrier and guardrail detection using a single camera |
CN102998689A (zh) * | 2012-11-27 | 2013-03-27 | 北京星网宇达科技股份有限公司 | 基于虚拟传感器的区域判断方法 |
CN105243354A (zh) * | 2015-09-08 | 2016-01-13 | 长安大学 | 一种基于目标特征点的车辆检测方法 |
DE102016203710A1 (de) * | 2015-04-01 | 2016-10-06 | Robert Bosch Gmbh | Abstands- und Richtungsschätzung eines Zielpunkts von einem Fahrzeug unter Verwendung einer monokularen Videokamera |
CN106651953A (zh) * | 2016-12-30 | 2017-05-10 | 山东大学 | 一种基于交通指示牌的车辆位姿估计方法 |
GB201715742D0 (en) * | 2016-10-07 | 2017-11-15 | Ford Global Tech Llc | Rear obstacle detection and distance estimation |
CN108646732A (zh) * | 2018-04-20 | 2018-10-12 | 华东交通大学 | 基于驾驶人操控意图的车辆轨迹预测方法、装置及系统 |
-
2019
- 2019-04-01 CN CN201910257098.1A patent/CN109949364B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101639983A (zh) * | 2009-08-21 | 2010-02-03 | 任雪梅 | 一种基于图像信息熵的多车道车流量检测方法 |
EP2431917A1 (en) * | 2010-09-21 | 2012-03-21 | Mobileye Technologies Limited | Barrier and guardrail detection using a single camera |
CN102998689A (zh) * | 2012-11-27 | 2013-03-27 | 北京星网宇达科技股份有限公司 | 基于虚拟传感器的区域判断方法 |
DE102016203710A1 (de) * | 2015-04-01 | 2016-10-06 | Robert Bosch Gmbh | Abstands- und Richtungsschätzung eines Zielpunkts von einem Fahrzeug unter Verwendung einer monokularen Videokamera |
CN105243354A (zh) * | 2015-09-08 | 2016-01-13 | 长安大学 | 一种基于目标特征点的车辆检测方法 |
GB201715742D0 (en) * | 2016-10-07 | 2017-11-15 | Ford Global Tech Llc | Rear obstacle detection and distance estimation |
CN106651953A (zh) * | 2016-12-30 | 2017-05-10 | 山东大学 | 一种基于交通指示牌的车辆位姿估计方法 |
CN108646732A (zh) * | 2018-04-20 | 2018-10-12 | 华东交通大学 | 基于驾驶人操控意图的车辆轨迹预测方法、装置及系统 |
Non-Patent Citations (2)
Title |
---|
A monocular vision-based attitude estimation approach for small Unmanned Aerial Vehicles and its experimental verification;Yunyan Wu;《IEEE》;20170123;全文 * |
基于道路标识牌的单目相机车辆位姿估计;袁金钊;《中国优秀硕士论文电子期刊网》;20170915;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN109949364A (zh) | 2019-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109949364B (zh) | 一种基于路侧单目摄像头的车辆姿态检测精度优化方法 | |
CN110243358B (zh) | 多源融合的无人车室内外定位方法及系统 | |
CN110859044B (zh) | 自然场景中的集成传感器校准 | |
CN111595333A (zh) | 视觉惯性激光数据融合的模块化无人车定位方法及系统 | |
CN110646825B (zh) | 定位方法、定位系统及汽车 | |
CN111521195B (zh) | 一种智能机器人 | |
CN110766760B (zh) | 用于相机标定的方法、装置、设备和存储介质 | |
CN113466890B (zh) | 基于关键特征提取的轻量化激光雷达惯性组合定位方法和系统 | |
CN113740871B (zh) | 一种在高动态环境下的激光slam方法、系统设备及存储介质 | |
CN113551665A (zh) | 一种用于运动载体的高动态运动状态感知系统及感知方法 | |
CN112669354A (zh) | 一种基于车辆非完整约束的多相机运动状态估计方法 | |
CN113503873A (zh) | 一种多传感器融合的视觉定位方法 | |
JP2020106357A (ja) | 移動量推定装置 | |
CN113706633B (zh) | 一种目标对象的三维信息确定方法和装置 | |
CN115015956A (zh) | 一种室内无人车的激光与视觉slam系统 | |
CN113129373B (zh) | 一种基于卷积神经网络的室内移动机器人视觉定位方法 | |
CN116182855B (zh) | 一种弱光强环境下仿复眼偏振视觉无人机组合导航方法 | |
CN112150547B (zh) | 一种确定车体位姿的方法、装置及环视视觉里程计系统 | |
CN116804553A (zh) | 基于事件相机/imu/自然路标的里程计系统及方法 | |
CN112985388B (zh) | 基于大位移光流法的组合导航方法及系统 | |
WO2022133986A1 (en) | Accuracy estimation method and system | |
JP6992452B2 (ja) | 情報処理装置及び情報処理システム | |
CN113870367B (zh) | 相机外参的生成方法、装置、设备、存储介质和程序产品 | |
CN110906941A (zh) | 用于长距离隧道的自动驾驶地图的构建方法及系统 | |
JP4257219B2 (ja) | 走行軌跡記録装置および走行軌跡記録方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |