CN102398598B - 使用前视和后视摄像机的车道融合系统 - Google Patents

使用前视和后视摄像机的车道融合系统 Download PDF

Info

Publication number
CN102398598B
CN102398598B CN201110258002.7A CN201110258002A CN102398598B CN 102398598 B CN102398598 B CN 102398598B CN 201110258002 A CN201110258002 A CN 201110258002A CN 102398598 B CN102398598 B CN 102398598B
Authority
CN
China
Prior art keywords
track
vehicle
lane
camera
rear view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201110258002.7A
Other languages
English (en)
Other versions
CN102398598A (zh
Inventor
S·曾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of CN102398598A publication Critical patent/CN102398598A/zh
Application granted granted Critical
Publication of CN102398598B publication Critical patent/CN102398598B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/30Road curve radius

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及使用前视和后视摄像机的车道融合系统,具体地,根据本发明的教导,公开了一种用于计算车道曲率和相对于车道边界的主车辆位置和方位的方法和系统,其使用来自前视和后视摄像机的图像数据和车辆动态传感器作为输入。主车辆包括位于前面和后面处的摄像机,其目的之一是可以用于检测车道边界例如路边和车道线。主车辆还包括车辆动态传感器,其包括车速和横摆率。开发了一种方法,其计算车道曲率和相对于车道参考路线的主车辆位置,其中车道参考路线是由从前和后摄像机图像的融合所提取的车道边界得到的。本发明中提供的数学模型包括卡尔曼过滤追踪例程和粒子过滤器追踪例程。

Description

使用前视和后视摄像机的车道融合系统
技术领域
本发明总的来说涉及一种用于车辆的车道位置方法和系统,更具体地,涉及一种用于主车辆的车道位置方法和系统,其使用来自前视和后视摄像机的图像数据、来自车辆动态传感器的数据的融合来计算车道参数,包括车道曲率和相对于车道参考路线的主车辆位置以及方位。
背景技术
许多现代车辆包括用于各种目的的车载摄像机。一个普遍应用是前视摄像机,其可以提供图像以用在防撞系统、车道偏离警告系统、侧向控制系统、或者这些或其它系统的组合中。然而,可能出现阻止从前视摄像机获得良好的图像的情况。这些情况包括在近距离处的阻挡大部分摄像机视野的领先车辆、以及使摄像机图像模糊的低能见度天气情况,例如雨和雾。在这些情况下,当不能从前视摄像机获取可用的图像时,依赖于摄像机的图像作为输入的系统不能运行。
同时,许多较新的车辆还装备有后视摄像机,其通常仅用作备用辅助设备,例如为驾驶员提供视频图像以便看见车后(情况)。虽然这些后视摄像机一般具有比用于其它图像数据采集目的更充足的分辨率和视野,但是直到现在它们还没有被用来为车道位置和侧向控制应用补充来自前视摄像机的图像。
这就有机会使用来自后视摄像机的可用的图像数据,并将其与来自前视摄像机和其它传感器的图像数据结合,来提供更加稳健的侧向传感系统。得到的双摄像机系统不仅在正常情况下充分利用更多的输入数据,而且当情况不利于前视成像时提供可用的图像数据源以允许系统的运行。
发明内容
根据本发明的教导,公开了一种用于计算车道曲率和相对于车道边界的主车辆位置和方位的方法和系统,其使用来自前视和后视摄像机的图像数据、和车辆动态传感器作为输入。主车辆包括位于前面和后面处的摄像机,其目的之一是可以用于检测车道边界例如路边和车道线。主车辆还包括车辆动态传感器,其包括车速和横摆率。开发了这样的方法,其计算车道曲率和相对于车道参考路线的主车辆位置,其中车道参考路线是由从前和后摄像机图像的融合所提取的车道边界得到的。本发明中提供的数学模型包括卡尔曼过滤追踪例程和粒子过滤器追踪例程。
从下边的描述和随附权利要求并结合附图,本发明的额外特征是显而易见的。
本发明还提供以下方案:
1.一种用于确定车道中车辆位置的方法,所述方法包括:
提供来自车辆车载的前视摄像机模块的数据;
提供来自车辆车载的后视摄像机模块的数据;
提供来自车辆车载的车辆动态传感器的数据;和
将来自前视摄像机模块、后视摄像机模块和车辆动态传感器的数据融合成组合的车道几何信息集以确定车道中车辆的位置。
2.根据方案1的方法,其中,车道几何信息包括车道曲率、相对于车道切线的车辆方位、和到左车道边界和右车道边界的位移。
3.根据方案1的方法,其中,提供来自前视摄像机模块的数据包括提供来自前面的成熟的车道感测系统的前面的车道几何信息,而提供来自后视摄像机模块的数据包括提供来自后面的成熟的车道传感系统的后面的车道几何信息。
4.根据方案3的方法,其中,将来自前视摄像机模块、后视摄像机模块和车辆动态传感器的数据融合包括使用卡尔曼滤波器例程来联合地估算车道几何信息和前视摄像机模块和后视摄像机模块的未对准角度。
5.根据方案1的方法,其中,提供来自前视摄像机模块的数据包括提供来自前摄像机的前图像数据,提供来自后视摄像机模块的数据包括提供来自后摄像机的后图像数据。
6.根据方案5的方法,其中,将来自前视摄像机模块、后视摄像机模块和车辆动态传感器的数据融合包括寻找前向图像数据和后向图像数据中的高密度像素、将所述高密度像素投影在车辆坐标框架中、从高密度像素中检测路缘和车道线、将所述路缘和车道线连接成车道以及追踪车道几何信息。
7.根据方案6的方法,其中,寻找前向图像数据和后向图像数据中的高密度像素包括使用高斯金字塔例程,其中在不同的空间尺度处的二进制图像彼此相减。
8.根据方案6的方法,其中,将所述高密度像素投影在车辆坐标框架中包括使用迭代程序以移除径向和切向变形,和旋转和平移变换程序,以在车辆坐标框架中生成多个高密度像素。
9.根据方案6的方法,其中,从高密度像素中检测路缘和车道线包括使用相似图和深度优先搜索例程,其将相邻的高密度像素聚类成线。
10.根据方案9的方法,其中,从高密度像素中检测路缘和车道线还包括使用最小二乘例程使线与线段或弧相适配。
11.根据方案6的方法,其中,将所述路缘和车道线连接成车道包括使用应用于路缘和车道线的最小二乘例程寻找车道的曲率中心。
12.根据方案11的方法,其中,追踪车道几何信息包括使用直方图例程计算到左车道边界和右车道边界的位移,并且使用曲率中心计算车道曲率和相对于车道切线的车辆方位。
13.根据方案5的方法,其中,将来自前视摄像机模块、后视摄像机模块和车辆动态传感器的数据融合包括使用卡尔曼滤波器。
14.根据方案5的方法,其中,将来自前视摄像机模块、后视摄像机模块和车辆动态传感器的数据融合包括使用粒子滤波器。
15.一种用于确定车道中车辆位置的方法,所述方法包括:
提供来自车辆车载的前视摄像机的图像数据;
提供来自车辆车载的后视摄像机的图像数据;和
将来自前视摄像机和后视摄像机的图像数据融合成组合的车道几何信息集以确定车道中车辆的位置。
16.根据方案15的方法,其中,将来自前视摄像机和后视摄像机的数据融合包括寻找图像数据中的高密度像素、将所述高密度像素投影在车辆坐标框架中、从高密度像素中检测路缘和车道线、将所述路缘和车道线连接成车道以及追踪车道几何信息。
17.根据方案15的方法,,车道几何信息包括车道曲率、相对于车道切线的车辆方位、和到左车道边界和右车道边界的位移。
18.一种用于确定车道中车辆位置的系统,所述系统包括:
第一摄像机,用于捕获来自车辆的前视的图像;
第二摄像机,用于捕获来自车辆的后视的图像;和
处理器,其配置为接收来自第一摄像机和第二摄像机的图像,并使用来自第一摄像机和第二摄像机的图像的融合来计算车道几何信息。
19.根据方案18的系统,其中,处理器寻找;来自第一摄像机和第二摄像机中的图像中的高密度像素、将所述高密度像素投影在车辆坐标框架中、从所述高密度像素中检测路缘和车道线、将所述路缘和车道线连接成车道以及追踪车道几何信息。
20.根据方案18的系统,其中,车道几何信息包括车道曲率、相对于车道切线的车辆方位、以及到左车道边界和右车道边界的位移。
附图说明
图1是使用前和后摄像机及其它输入源的车辆侧向控制系统的框图;
图2是主车辆的侧向控制的双轮车模型的示图;
图3是显示了侧向控制模型的多种关键参数的主车辆的示图;
图4是示出如何实施车辆侧向控制模型的控制框图;
图5是使用双摄像机车道融合方法的车辆侧向控制的系统框图;
图6是使用来自双摄像机的输入的车道融合系统的第一实施例的框图;
图7是使用来自双摄像机的输入的车道融合系统的第二实施例的框图;
图8是示出对于已经检测到若干短线和一条长弧的场景的车道线表达的示例的示图;
图9是示出了如何计算主车辆相对于车道边界的位移的直方图;
图10是用在图7的车道追踪模块中的卡尔曼滤波器追踪方法的流程图;以及
图11是用在图7的车道追踪模块中的粒子滤波器追踪方法的流程图。
具体实施方式
下面关于使用前视和后视摄像机的车道融合系统的本发明实施方式的讨论实质上仅仅是示例性的,其决不是为了限制本发明或其应用或使用。
许多现代车辆包括前视摄像机,和在应用例如车道偏离警告和侧向控制辅助中使用来自前视摄像机的图像数据的系统。然而,来自前视摄像机的图像可能被领先车辆妨碍,或者被阳光、雾、雨、或雪遮蔽,其降低了依赖于图像的应用的可靠性。假定增加可用的后视摄像机,所述后视摄像机经常主要用作备用辅助设备,则使用后视摄像机图像数据作为前视摄像机图像数据的补充是很有意义的。与GPS和数字地图数据、车辆动态传感器、和基于雷达的或能够检测道路上主车辆前边的车辆的其它系统一起,前视和后视摄像机图像能够使用在高级应用中以提高安全和车辆控制。
在一种方法中,数据源直接用在车辆侧向控制应用中。图1是通过使用前视和后视摄像机和其它数据源用于车辆的侧向控制的系统10的框图。如下面将要讨论的,系统10使用来自前视摄像机12和后视摄像机14的图像数据。领先车辆位置系统16,其可以是长距离雷达(LRR)或其它类型的系统,追踪领先车辆的位置,以便估计道路的路线。来自基于GPS的导航系统或数字地图18的道路曲率信息为系统10提供了另一个数据源。来自前视摄像机12、后视摄像机14、领先车辆位置系统16和数字地图18的输入都由车辆侧向控制模块20使用,该控制模块20的运行将在下面详细讨论。
图2是用于车辆侧向控制的双轮车(bicycle)模型30的示图,其通过在车辆的中心线处将每个车轴的两个轮子并成一个轮得到。图3是控制模型40的示图,控制模型40向双轮车模型30增加更多细节。在图2和图3中相同的部件和尺度共用相同的参考标记,这将一起讨论。下面的表提供了图2和3中所示出的部件和尺度的索引,包括其参考标记和描述。
主车辆50是双轮车模型30和控制模型40的对象,其在车辆侧向控制模块20中使用。主车辆50在双轮车模型30中由前轮胎52、轮轮胎54和重心点56表示。主车辆50被假定装备有横摆率传感器(未示出)和对于获知其纵向和侧向速度必要的其它传感器。
假定车道参考路线60是具有曲率κ的环状车道路线的中心线,其由数字地图18估算得出。对于在双轮车模型30内所考虑的增进的侧向控制系统,主车辆50与车道参考路线60的侧向位移分别通过前视摄像机12和后视摄像机14测量为前侧向位移ΔyF和尾部侧向位移ΔyT。所述位移测量值通过在重心点56前的纵向距离dF和重心点56后的距离dT处的摄像机获得。距离dF和dT是时间变量,并且依赖于由摄像机12和14检测到的车道标记的质量、领先和跟随车辆的遮断和照明条件。
主车辆50上的领先车辆位置系统16可以检测领先目标车辆80,并提供其纵向距离XO,侧向距离YO,和航向角θO。只有主车辆50前紧邻的并且在距离阈值(例如50m)内的车辆被认为是领先目标车辆80。双轮车模型30中的其它车辆参数分别是前桥和后桥与重心点56的距离lF和lT。三个主车辆状态变量还被示出为:车辆侧向速度vyH,车辆纵向速度vxH,和车辆横摆率ωH。前轮转向角δF是由侧向控制系统20控制的自动转向系统的输入。
车辆路线100描述了主车辆50当前跟随的路线,行驶线路102表示通过主车辆50的中心线的直线。距离αO是在前向距离XO处行驶线路102与车辆路线100之间的侧向偏移。距离εO是在前向距离XO处车辆路线100与车道参考路线60之间的侧向偏移。距离αF是在前向距离dF处行驶线路102与车辆路线100之间的侧向偏移。距离εF是在前向距离dF处车辆路线100与车道参考路线60之间的侧向偏移。距离αT是在后向距离dT处行驶线路102与车辆路线100之间的侧向偏移。距离εT是在后向距离dT处车辆路线100与车道参考路线60之间的侧向偏移。
在前向距离dF处相对于车道参考路线切线的车辆方位,由角度θF表示,而在后向距离dT处相对于车道参考路线切线的车辆方位,由角度θT表示。
除了双轮车模型30和控制模型40中示出的元素和尺度外,还必须定义下面的符号:m=主车辆50的总质量;Iω=主车辆50绕重心点56的总惯性;l=前桥与后桥之间的距离,(l=lF+lT);和cF,cT=分别是前轮胎52和后轮胎4的转弯刚度。
侧向车辆动态的线性化的双轮车状态空间模型可以写为:
v · yH ω · H = - c F + c T mv xH c T l T - c F l F mv xH - v xH - l F c F + l T c T I ω v xH - l F 2 c F + l T 2 c T I ω v xH v yH ω H + c F m l F c F I ω δ F - - - ( 1 )
捕获由于主车辆50的运动造成的前视摄像机测量值的变化和道路几何图形的改变的状态空间方程式是:
Δ y · F = v xH θ F - v yH - ω H d F - - - ( 2 )
θ · F = v xH κ - ω H - - - ( 3 )
类似地,捕获由于主车辆50的运动造成的后视摄像机测量值的变化和道路几何图形的改变的状态空间方程式是:
Δ y · T = v xH θ T - v yH + ω H d T - - - ( 4 )
θ · T = v xH κ - ω H - - - ( 5 )
假定领先目标车辆80跟随车道参考路线60的中心线,因此捕获由于主车辆50的运动造成的雷达测量值的变化和道路几何图形的改变的状态空间方程式是:
Y · O = v xH θ O - v yH - ω H X O - - - ( 6 )
θ · O = v xH κ - ω H - - - ( 7 )
方程式(1)-(7)中描述的车辆侧向动态、前摄像机动态、后摄像机动态、和领先目标车辆动态可以结合成以下形式的单个动态系统:
v · yH ω · H Δ y · F θ · F Δ y · T θ · T Y · O θ · O - c F + c T mv xH c T l T - c F l F mv xH - v xH 0 0 0 0 0 0 - l F c F + l T c T I ω v xH - l F 2 c F + l T 2 c T I ω v xH 0 0 0 0 0 0 - 1 - d F 0 v xH 0 0 0 0 0 - 1 0 0 0 0 0 0 - 1 d T 0 0 0 v xH 0 0 0 - 1 0 0 0 0 0 0 - 1 - X O 0 0 0 0 0 v xH 0 - 1 0 0 0 0 0 0 v yH ω H Δ y F θ F Δ y T θ T Y O θ O
+ c F m l F c F I ω 0 0 0 0 0 0 δ F + 0 0 0 v xH κ 0 v xH κ 0 v xH κ
或者简写为:
x · = f ( x ) + g ( δ F ) - - - ( 8 )
使 y = ω · H Δ y · F θ · F Δ y · T θ · T Y · O θ · O T 表示通过横摆率传感器、前视摄像机12、后视摄像机14、和领先车辆位置系统16所观测到的动态系统的输出。该观测方程式可以写作y=o(x)。
参考图3的车道参考路线60和车辆路线100,侧向控制模块20的目标是通过调整在距离dF、dT和XO处车道参考路线60(即,ΔyF,ΔyT和YO)与车辆路线100(即,αF,αT和αO)之间的侧向差来追踪道路,其中距离dF,dT和XO是分别通过前视摄像机12、后视摄像机14和领先车辆位置系统16测量的。也就是,控制目标是最小化:
J=wFεF-wTεT+wOεO(9)
其中εF=ΔyFF,εT=ΔyTT和εO=YOO是标准化为正加权,使得wF+wT+wO=1。
那么方程式(9)可以写作:
J=h(x)(10)
反馈线性化是在控制非线性系统中使用的普遍方法。该方法包括通过改变变量和合适的控制输入提出将非线性系统变形为等效的线性系统。对于双轮车模型30来说该技术的应用不是线性化因为双轮车模型30已经是线性的。但是该技术可以应用于使得双轮车模型30独立于主车辆的纵向速度vxH
通过使方程式(10)相对于时间微分2次来线性化方程式(8)和(10)所表示的系统所需的控制率如下:
δ F = 1 L g L f 2 h ( x ) ( - L f 2 h ( x ) + u ) - - - ( 11 )
其中表示函数f的i阶李导数(Liederivative)。李导数评价一个矢量场随着另一个矢量场的流动的改变,如在数学领域所公知。
使用这个控制律得到形式为的二阶方程式。让z1=J。所得到的简化动态系统可以表示为:
z · 1 = z 2 - - - ( 12 )
z · 2 = u
使用下面的状态反馈控制律:
u=-k1z1-k2z2(13)
所述二阶系统方程式(12)可以写作其中 A = 0 1 k 1 k 2 .
因此,通过适当的选择k1和k2,可以设计出具有在左半开复平面中的特征矢量A的稳定的车道追踪系统。
如图1所示,数字地图18为侧向控制模块20提供输入,包括估算的车道曲率κ,其可以用作前馈控制策略的一部分。通过让 v · yH ω · H Δ y · F θ · F T = 0 , 追踪车道曲率κ的转向输入δfwd可以从方程式(1)-(3)计算为:
δ fwd = κ ( l - ( l F c F - l T c T ) v xH 2 m c T c F l ) - - - ( 14 )
当进入和离开曲线时,该方程式(14)的前馈分量可以加入到方程式(11)和(13)中的上述所导出控制律中以改善主车辆50的瞬态性能。
图4是表示如何实现上面描述的车辆侧向控制策略的控制框图140。该控制方法内的步骤概述如下:
1)在方框142中,数字地图18提供线路152上的车道曲率κ的估算。
2)在方框144中,车辆动态传感器提供线路154上的车辆前向速度vxH和横摆率ωH测量值。
3)在方框146中,前视摄像机12提供线路156上的车道方位θF、侧向位移ΔyF、和纵向距离的测量值,其中纵向距离的测量值取为dF
4)在方框148中,后视摄像机14提供线路158上的车道方位θT、侧向位移ΔyT、和纵向距离的测量值,其中纵向距离的测量值取为dT
5)在方框150中,领先车辆位置系统16提供线路160上的领先目标车辆位置,即纵向偏移XO,侧向偏移YO,和行驶方向θO
6)线路152-160上的输入提供给方框170,其中前馈项δfwd如在方程式(14)中所计算。
7)在方框172中,反馈线性化项δF如在方程式(11)中所计算。
8)在求和连接点174,将前馈项δfwd和反馈线性化项δF加在一起,并送入方框176中的主车辆50中的转向致动器(电动转向,或其它类型系统)。
9)在方框178中,观测器模块以线路152-160上的数据和车辆的响应作为输入使用卡尔曼滤波器、使用方程式(8)和y=o(x)来估算车辆的状态变量。
10)在方框180中,变量改变模块使用方程式(10)和(12)计算z1和z2
11)在方框182中,使用方程式(12)计算反馈项u用于线性化的动态系统。
提供一些示例进一步解释上面所述的控制方法的运行。在最佳的情况下,可以使用来自三个外部传感器的测量值;也就是,来自后视摄像机14的后向车道边界信息、来自前视摄像机12的前向车道边界信息、和来自领先车辆位置系统16的领先车辆信息。在这样的情况下,方程式(9)内的加权参数被定义为与由相应的传感器返回的测量值的质量(即,信号噪声比,或者估算值的方差)成比例。例如,让前视摄像机12、后视摄像机14和领先车辆位置系统16的测量值方差分别是σF、σT和σO。那么相应的加权计算为:
w F = Ce - σ F 2 W , w T = Ce - σ T 2 W , w O = Ce - σ O 2 W - - - ( 15 )
其中C是标准化参数,使得WF+WT+WO=1,并且W是设计者选择的带宽参数。
在领先目标车辆80遮蔽前视摄像机12的视野使得较少或没有前视车道边界信息是可用的情况下,方程式(9)的加权参数将通过降低WF的值(可能到0)和增加WT和WO的值进行调整。类似地,在没有合适的领先目标车辆80的情况下,WO的值将设为0,WF和WT的值将增加。最后,在低角度太阳或者恶劣天气遮蔽来自前视摄像机12的图像使得没有前向车道边界信息是可用的情况下,方程(9)的加权参数将通过设置WF的值为0、并且增加WT和WO的值进行调整。
使用上面描述的控制方法,可以实现稳健的车辆侧向控制系统。通过直接使用前和后摄像机图像作为输入,与其它道路曲率的指示器一起,侧向控制系统可以提供比不使用许多输入源的侧向控制系统更可靠和更稳定的性能。
车辆侧向控制的另一方法可以通过首先在数据融合模块内组合来自前视摄像机12和后视摄像机14的数据、然后使用来自侧向控制模块内融合模块的所得的车道曲率和位移信息来实现。
图5是用于使用双摄像机车道融合方法的车辆侧向控制的系统200的框图。与图1中所示的系统10相似,系统200使用来自前视摄像机12、后视摄像机14、领先车辆位置系统16、和数字地图18的数据。然而,与直接在侧向控制模块20中使用输入的系统10不同,系统200首先组合数据融合模块210内的输入。数据融合模块210的输出,包括道路曲率和相对于车道边界的车辆位移和方位,然后被提供给车辆侧向控制模块220。数据融合模块210的输出还被应用在侧向控制系统以外的应用中,例如车道偏离警告系统。
执行车道数据融合的两种方法将在下面讨论。在该讨论中,来自图2和3的多个变量和尺度将被参考。
具有车道偏离警告的传统车道信息系统通常包括前视摄像机12,其可以测量相对于前部处车道切线的车辆方位θF、在前保险杠处的前侧向位移ΔyF,以及车道曲率κ,其中距离dF被定义为从重心点56到主车辆50的前保险杠的距离。除了提供备用辅助的功能外,后视摄像机14能提供额外的车道感测测量值;相对于后部处车道切线的车辆方位θT,在后保险杠处的后侧向位移ΔyT,其中距离dT定义为从重心点56到主车辆50的后保险杠的距离。该两个额外的摄像机测量值,θT和ΔyT,在设计用于车道感测的稳健融合系统中是有价值的。在恶劣的天气和光线情况下它们特别有价值,例如前部低角度太阳,部分地雪覆盖的车道标记,由于雾引起的降低的可视度,等等,其中来自前视摄像机12的图像数量将减少。
图6是使用来自双摄像机的输入的车道融合系统240的第一实施例的框图。在系统240中,成熟的(full-fledged)前车道传感器系统242和完全成熟的后车道传感器系统244每个都包括摄像机和处理器,并且可以检测和追踪主车辆50的每一相应端处的车道边界。前车道传感器系统242和后车道传感器系统244向车道融合模块246提供其测量值,车道融合模块246计算增强的车道边界和方位信息。前车道传感器系统242以固定的采样率(例如10Hz)向融合模块246发送测量值θF、ΔyF和κ。后车道传感器系统244以同样的固定采样率发送测量值θF和ΔyT。前车道传感器系统242、后车道传感器系统244、和融合模块246通过可使用控制区域网络(CAN)或其它协议的串行网络248互连。
融合模块246获取来自前车道传感器系统242和后车道传感器系统244、车辆动态传感器250的输入,并输出增强的车道信息:相对于车道切线的车辆方位(θ),前保险杠中心到车道边界的位移(Δy),和车道曲率(κ)。如之前所提到的,车道信息可以由各种下游应用使用。
来自车辆动态传感器250的测量值包括车辆速度(vH)和横摆率(ωH)。那么下面的卡尔曼滤波器设计为融合来自前车道传感器系统242和后车道传感器系统244的信息。
使状态变量为其中κ,θ和Δy如上面所定义;分别是前车道传感器系统242和后车道传感器系统244的方位角未对准值。
状态动态方程式写作:
κ′=κ+vκ
θ′=θ-ωHΔT+κvHΔT+vθ
Δy′=Δy+vHΔTθ+vΔy(16)
或者简写为:
s′=Fs+u+Gv(17)
其中v=(vκ,vθ,vΔy)T表示零平均值高斯白噪声矢量,其对状态动态模型的不确定性进行建模; F = 1 0 0 0 0 v H ΔT 1 0 0 0 0 v H ΔT 1 0 0 0 0 0 1 0 0 0 0 0 1 , u=[0-ωHΔT000]T,和 G = 1 0 0 0 0 0 1 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 .
测量值模型可以写作:
Δ y F = Δy + w Δ y F - - - ( 18 )
κF=κ+wκ
Δ y T = Δy + w Δy T
或者简写作:
o=Hs+w(19)
其中 H = 0 1 0 1 0 0 0 1 0 0 1 0 0 0 0 0 1 0 0 1 0 0 1 0 0 , o = θ F Δy F κ F θ T Δy T T , w = w θ F w Δ y F w κ w θ T w Δ y T T 是零平均值高斯白噪声矢量,其对来自前车道传感器系统242和后车道传感器系统244的测量值的质量进行建模。
概括地说,下面的卡尔曼过滤过程联合地估算未对准角度和车道参数:
1)随机地选择小数量以初始化未对准参数融合未对准参数与来自前车道传感器242的第一测量值生成选择用于s(0)的协方差阵P(0)。
2)当新的测量值在时刻t到达时,前述状态矢量写作s(t-1);在时刻t时的预测状态可以写作以及协方差阵其中Q是噪声矢量v的协方差阵。
3)让在时刻t处的测量值为0;因此更新的状态矢量在时刻t为:
e = o - h ( s ~ ( t ) )
S = H P ~ ( t ) H T + R
K = P ~ ( t ) H T S - 1
s ^ ( t ) = s ~ ( t ) + Ke
P ( t ) = ( I - K H t ) P ~ ( t )
其中R是协方差阵。
4)输出作为融合输出。
5)转到步骤2。
使用上述程序,系统240的融合模块246计算主车辆50的组合的车道参数的集,同时确定前车道传感器系统242和后车道传感器系统244的未对准参数。
图7是使用来自双摄像机的输入的车道融合系统300的第二实施例的框图。系统300在前边和后边不包括成熟的车道传感器系统。相反,系统300包括前视摄像机302和后视摄像机304。摄像机302和304只捕获图像并将其发送到融合模块320,融合模块320将图像组合在一起、检测并追踪车道标记。
分别来自前视摄像机302和后视摄像机304的图像,提供给方框306以寻找局部高密度区域。方框306的关键思想是在不同的空间尺度中寻找稳定的局部高密度区域。该算法从建立高斯金字塔开始。在每个金字塔尺度中,图像被放大的粗级图像减掉,其进一步变模糊。然后局部最大寻找操作在不同的坐标中应用于不同的图像,并且高度小于阈值h的所有最大值都被抑制。因此在方框306中推导出可能的车道标记的二进制图像。
在方框308中,检测的路缘和线的像素投影到基于摄像机校准参数的车辆坐标系的的平面上。在方框310处,首先基于相似测量(距离)对来自方框308的投影像素的点云聚类。接近的像素聚类为单个成分。随后这些成分基于其几何形状分类。选择形状与路缘和线相匹配的成分,然后应用线拟合和弧拟合方法来适配线候选者。形状与线或弧不匹配的成分被放弃。
在方框312中,在车辆坐标系中适配的线然后联接为车道边界。在方框314中,追踪并输出车道信息。这包括:监测来自车辆动态传感器的拟合的线和数据;追踪车道边界;和估算车道信息,包括车道曲率(κ)、相对于车道切线的车辆方位(θ),和前保险杠中心到车道边界的位移(Δy)。方框308-314中使用的详细算法将在下面给出。
方框308的投影算法需要下面的摄像机内部参数:
·焦距:像素内的焦距,[fu,fv];
·光心:[cu,cv];
·偏斜系数:定义x像素轴线与y像素轴线之间的角度的偏斜系数储存在标量αc中;
·变形:图像变形系数(径向和切向变形)储存在矢量kc=(k1,k2,k3,k4,p1,p2)中,其中(k1,k2,k3,k4)是径向变形系数,(p1,p2)是切向系数。
以及摄像机外在参数:
·平移矢量T;
·旋转矩阵R;
通过摄像机校准程序估算摄像机外在参数,这些参数中很多是本领域公知的,这里不需要讨论。
用于消除变形的迭代程序概述如下。输入包括像素组S={(ui,vi)|i=1,...,N}和上面定义的摄像机内在参数。输出为经整理的像素组S′={(u′i,v′i)|i=1,...,N}。程序如下:
1)对于每一个像素si=(ui,vi),i=1,...,N;
2)重复执行下面的步骤20次:
a.让 u = u i v i 和r=||x||。
b.计算径向校正:
krad=1+k1r+k2r2+k3r3+k4r4
c.计算切向校正:
Δu = 2 p 1 u i v i + p 2 ( r 2 + 2 u i 2 ) p 1 ( r 2 + 2 v i 2 ) + 2 p 2 u i v i .
d.校正像素 u = ( u + Δu ) / k rad .
3)输出u作为最终校正的像素(u′i,v′i)。
在上述整理后或者变形消除程序后,可以应用下面的变换。输入包括上面描述的一组整理的像素S′={(u′i,v′i)|i=1,...,N}和摄像机外在参数。输出是投影在车辆框架上的检测到的车道标记点:X={(xi,yi)|i=1,...N}。变换程序如下:
1)对于每一个像素Si=(ui,vi),i=1,...,N;
a.让 u = u ′ i v ′ i 并且 K K = f u α c f u c u 0 f v c v 0 0 1 .
b.计算P=Kk[RT]。
c.让H=[p1p2p4],其中pj,j=1,...,4是列向量,j=1,...,4。
d.计算z=H-1u。
2)输出z作为车辆框架内的平面的投影像素(xi,yi)。
在方框308中应用上述整理和变换程序,以提供车辆坐标框架内的一组高亮像素,也就是,为候选路缘或车道线点的点。随后,在方框310中,像素或点聚类在一起成为路缘和车道线。假定车道标记像素组 X = { z i | z i = x i y i , i = 1 , . . . , N } , 这些像素首先聚类成线,然后这些线适配为线段或弧段。
首先,为了将邻近的像素聚类成线,构造相似图(similaritygraph)G=(V,E),其中顶点集定义为地面上的像素,即V={zi|i=1,...N},并且边缘集E定义为像素对的集,如果平面上的每个像素对的距离小于阈值(Tsep),或者每一个像素对处于图像平面内的彼此的8近邻,即E={(zi,zj)|||zi-zj||<Tsep∨Neighor(si,sj)},其中si和sj是图像平面内相应位置;而邻域(si,sj)在si和sj在彼此的8近邻时为真。在该聚类方法中,8近邻是指第二像素是在像素的大致矩形栅格中第一像素的8个最近邻(紧挨左、右、上、下、左上、右上、坐下、或右下)中的一个。
接下来,应用深度优先搜索(DFS)策略将图分为连接的成分:{X1,...,Xc}。然后将所聚类的车道线中每个与线或弧适配。
让zi=(xi,yi),i=1,...,Nc为检测到的线的像素。该线可以由线参数方程式(Ax+By=d,使得A2+B2=1)拟合。参数A、B和d可以通过最小二乘方估算,例如极小化:
| | Dβ | | 2 , D = x 1 y 1 1 x 2 y 2 1 · · · · · · · · · x N c y N c 1 , β = A B d - - - ( 20 )
其可以通过寻找具有最小特征值λm的X的特征矢量来求解:
Dβ=λmβ(21)
拟合残差定义为e=λm
线的宽度W和长度L分别计算为:
W = max i ( z i T n ) - min i ( z i T n ) , L = max i ( z i T t ) - min i ( z i T t ) - - - ( 22 )
其中n和t是线段的法向和切向矢量(单位长度),即 n = A r B r 其中然后通过将n旋转90度导出t。
线的两个端点是:
es=zm-(nTzm-d′)n(23)
ee=zM-(nTzM-d′)n
其中索引 m = arg min i = 1 , . . . , N c ( z i T t ) M = arg max i = 1 , . . . , N c ( z i T t ) .
线的方位(角度)是φ=atan2(A,B)。
如果线拟合残差大于阈值,则使用圆参数方程式(x2+y2+a1x+a2y+a3=0)再次拟合线。参数a1、a2和a3通过最小二乘可估算,例如相对于α极小化:
| | Cα - b | | 2 , C = x 1 y 1 1 x 2 y 2 1 · · · · · · · · · x N c y N c 1 , b = - ( x 1 2 + y 1 2 ) - ( x 2 2 + y 2 2 ) · · · - ( x N c 2 + y N c 2 ) , α = a 1 a 2 a 3 - - - ( 24 )
上述最小二乘方的解是α=(CTC)-1CTb。所拟合圆的半径和中心可以分别写作:
R = ( a 1 2 + a 2 2 ) / 4 - a 3
x c = - a 1 2 - - - ( 25 )
y c = - a 2 2
所拟合弧的两个端点可以计算为:
es=[xc+Rcosφmyc+Rsinφm]T(26)
ee=[xc+RcosφMyc+RsinφM]T
并且端点处线的方位(角度)是φs=φm和φe=φM,其中索引 m = arg min i = 1 , . . . , N c ( a tan ( y i - y c , x i - x c ) ) M = arg max i = 1 , . . . , N c ( a tan ( y i - y c , x i - x c ) ) .
线的宽度W和长度L分别如下计算:
W=max(||zi-c||)-min(||zi-c||)(27)
L=||es-ee||(28)
其中c=[xcyc]T表示圆的中心。
概括地说,方框310的输出是一列车道线,其与具有下面的参数的线段匹配:法向矢量(n),到原点的距离(d’),宽度(W),长度(L),方位(φ),和起点(es);或与具有下面的参数的弧段匹配:圆心(c),半径(R),宽度(W),长度(L),和两个端点位置(es和ee)。
图8是示出对于检测到如下情形时的车道线表达的例子的图400:由端点402和法向矢量502表示的线段#1,线段#2(404,504),线段#3(414,514),和具有半径420、圆心(c)422、第一端点460、和第二端点412的弧段。在方框312中使用下面的步骤将线与左右车道边界连接。
首先,纵横比(L/W)小于阈值的任何线被移除。仅保留细长的线用于进一步的处理。然后长弧段或长线段被分解为短段,并且每一段由起端点(e)和切向矢量(t)表示。例如,在图400中,线段#1的起端点和切矢量表示为(402,602);长弧分解为4个端点:(406,606),(408,608),(410,610),和(412,612)。
为了在方框314处估算整体车道几何信息(即,车道曲率κ,相对于车道切线的车辆方位θ,和到车道边界的位移Δy),需要估算中心c的位置。
给定一组(车道)线段{(ek,tk)|k=1,...,K}。对于每一段,(ek,tk),其法线(图400中的虚线)通过c,即让tk=(txk,tyk)。因此,寻找c等价于最小化下面的最小二乘:
| | Ec - γ | | , E = t x 1 t y 1 t x 2 t y 2 · · · · · · t xK t yK , γ t 1 T e 1 t 2 T e 2 · · · t K T e K - - - ( 29 )
上述最小二乘方的解是c=(ETE)-1ETγ。车道的曲率可以写作:
相对于车道切线的车辆方位(角)可以计算为:
θ=atan2(cx,cy)(31)
其中cx被示出为图400中的尺度426,cy被示出为尺度428。
图9是示出如何可计算到车道边界的位移的示例的直方图700;让{zj|j=1,...,M}表示检测到的车道线的像素。直方图700构造为描绘所有像素(即,dj=||zj-c||,j=1,...,M)到中心c的距离。直方图700具有原点702。
到左车道边界的位移yL是直方图700中的原点702到左局部峰的距离704,而到右车道边界的位移yR是从原点702到右局部峰的距离706。
方程式(29)-(31)使用来自摄像机302和304的单个帧的数据来估算车道。可以扩展该方法以包括追踪和来自车辆动态传感器的数据。提出两种这样的方法。对于这两种方法,状态变量定义为s=(κ,θ,Δy),其中变量分别定义为车道曲率(κ)、相对于车道切线的车辆方位(θ)、和到车道边界的位移(Δy)。让车辆速度(vH)和横摆率(ωH)表示来自车辆动态传感器的测量值。
对于第一种方法,使用卡尔曼追踪程序来估算车道参数。图10是卡尔曼追踪方法的流程图800。步骤如下:
1)在方框802中,使用来自系统300(方程式(29)-(31))的第一测量值初始化状态向量s(0),并选择用于s(0)的协方差阵P(0)。
2)在决策菱形框804中等待新数据到达;当新测量值在时刻t到达时,在方框806中将前述状态向量写作s(t-1);然后在方框808处在时刻t处的预测状态s(t)可写作:
κ′=κ
θ′=θ-ωHΔT+κvHΔT
Δy′=Δy+vHΔTθ
其中ΔT是时间增量,以及投影状态向量s′(t)=[κ′θ′Δy′]。
3)同样在方框808处,圆心计算为:
c ′ = 1 κ ′ sin θ ′ 1 κ ′ cos θ ′ .
4)在方框810处,提供检测到的来自摄像机302和304的线(ek,tk);然后在方框812处,使用下面的准则执行选通(gating)操作来识别所检测到的线的异常(outlier):
| ( e k - c &prime; ) T t k | | | e k - c &prime; | | < T
其中T是阈值,如果上述标准不为真则线被处理为异常。
5)在方框814处,计算当前车道几何信息;对于在方框812的选通后余留的全部线,使用方程式(29)极小化最小二乘式以寻找更新的中心的解;然后分别通过方程式(30)-(31)来计算κm和θm,并通过构建直方图来计算位移Δym
6)在方框816中,执行测量值校正;将κm、θm和Δym处理为状态变量的直接测量值;下面的测量值方程式可以写作:
&theta; m = &theta; + w &theta; m
&Delta; y m = &Delta;y + w &Delta; y m
&kappa; m = &kappa; + w &kappa; m
其中 w &theta; m w &Delta;y m w &kappa; m T 是零平均值白高斯噪声矢量,其协方差阵是方程式(29)的最小二乘式极小化的残差;然后应用卡尔曼滤波器以获取最终的输出s(t)和相应的协方差阵P(t)。
7)在方框818处,输出更新的车道几何信息,并返回决策菱形框804。
上面描述的和流程图800中的卡尔曼追踪程序表示用于计算车道曲率和车辆方位信息的第一种方法,其使用来自前视摄像机302和后视摄像机304的图像和来自车辆动态传感器的数据。第二种方法使用粒子滤波器。图11是示出粒子滤波器方法的流程图900,其使用下面的步骤来计算车道参数:
1)在方框902中,使用一组粒子(几何信息的随机样本)来初始化状态向量s(0),该一组粒子为:{(si(0),wi)|i=1,...,M},并且权重为其中i=1,...,M。
2)在决策菱形框904中等待新数据到达;当新测量数据在时刻t到达时,对于每一粒子,使用卡尔曼追踪器的步骤2)到5)计算κm、θm和Δym,也就是说:
a.在方框906中,将前述状态向量写作s(t-1)。
b.在方框908中,计算预测状态s(t);还计算圆心c′。
c.在方框910中,从两个摄像机提供检测到的线;在方框912中,执行选通操作来识别异常的线。
d.在方框914中,使用方程式(29)-(31)和直方图计算当前车道几何信息。
3)然后第i个粒子的值变成s′i(t)=(κm,θm,Δym);让Δi表示第i个粒子的残差;在方框916中,计算粒子的新权重为其中σ是预定的常数。
4)在方框918中,计算粒子集的加权平均:
s ^ ( t ) = &Sigma; i = 1 M s i ( t ) w i / &Sigma; i = 1 M w i
和输出
5)在方框920中,对更新粒子集{(s′i(t),w′i)|i=1,...,M}应用重要重采样,标准的统计程序。这在方框922处产生一组所更新车道几何信息的随机样本。
6)返回步骤2,决策菱形904。
如上面所描述和在流程图800和900中示出的,或者卡尔曼滤波器方法,或者粒子滤波器方法,可以用于使用来自前视摄像机302和后视摄像机304的图像、车辆动态传感器作为输入来用于计算车道几何信息——车道曲率κ、相对于车道切线的车辆方位、和到车道边界的位移Δy。
这里公开的方法和系统,通过使用来在后视摄像机的可用的图像数据,并将其与来自前视摄像机和其它传感器的图像数据相结合,为车道感测或侧向控制提供更加稳健的能力。该双摄像机系统不仅在正常情况下充分应用更多的输入数据,而且在前视成像不利的情况下时提供可用的图像数据源以允许系统运行。在不产生新的硬件相关的成本的情况下,车辆制造商和消费者能从这些系统中受益,其利用许多车辆中存在的后视成像能力以赋予改善的系统性能和可靠性。
前面的讨论仅仅公开和描述了本发明的示例实施方式。在不脱离由随附权利要求限定的本发明的精神和范围的情况下,本领域的技术人员将很容易从该讨论和从附图及权利要求中意识到可在其中做出各种变换、修改和改变。

Claims (19)

1.一种用于确定车道内车辆位置的方法,所述方法包括:
提供来自车辆车载的前视摄像机模块的数据;
提供来自车辆车载的后视摄像机模块的数据;
提供来自车辆车载的车辆动态传感器的数据;和
将来自前视摄像机模块、后视摄像机模块和车辆动态传感器的数据融合成组合的车道几何信息集以确定车道中车辆的位置,其中所述融合包括使用卡尔曼滤波器例程来联合地估算车道几何信息和前视摄像机模块和后视摄像机模块的未对准角度,其中卡尔曼滤波器例程包括作为状态矢量变量的车道曲率、相对于车道切线的车辆方位、前保险杠中心到车道边界的位移、和前视摄像机模块的方位未对准角度和后视摄像机模块的方位未对准角度,并同时求解全部所述状态矢量变量。
2.根据权利要求1的方法,其中,车道几何信息包括车道曲率、相对于车道切线的车辆方位、和到左车道边界和右车道边界的位移。
3.根据权利要求1的方法,其中,提供来自前视摄像机模块的数据包括提供来自前面的成熟的车道感测系统的前面的车道几何信息,而提供来自后视摄像机模块的数据包括提供来自后面的成熟的车道传感系统的后面的车道几何信息。
4.根据权利要求1的方法,其中,提供来自前视摄像机模块的数据包括提供来自前摄像机的前图像数据,提供来自后视摄像机模块的数据包括提供来自后摄像机的后图像数据。
5.根据权利要求4的方法,其中,将来自前视摄像机模块、后视摄像机模块和车辆动态传感器的数据融合包括寻找前向图像数据和后向图像数据中的高密度像素、将所述高密度像素投影在车辆坐标框架中、从高密度像素中检测路缘和车道线、将所述路缘和车道线连接成车道以及追踪车道几何信息。
6.根据权利要求5的方法,其中,寻找前向图像数据和后向图像数据中的高密度像素包括使用高斯金字塔例程,其中在不同的空间尺度处的二进制图像彼此相减。
7.根据权利要求5的方法,其中,将所述高密度像素投影在车辆坐标框架中包括使用迭代程序以移除径向和切向变形,和旋转和平移变换程序,以在车辆坐标框架中生成多个高密度像素。
8.根据权利要求5的方法,其中,从高密度像素中检测路缘和车道线包括使用相似图和深度优先搜索例程,其将相邻的高密度像素聚类成线。
9.根据权利要求8的方法,其中,从高密度像素中检测路缘和车道线还包括使用最小二乘例程使线与线段或弧相适配。
10.根据权利要求5的方法,其中,将所述路缘和车道线连接成车道包括使用应用于路缘和车道线的最小二乘例程寻找车道的曲率中心。
11.根据权利要求10的方法,其中,追踪车道几何信息包括使用直方图例程计算到左车道边界和右车道边界的位移,并且使用曲率中心计算车道曲率和相对于车道切线的车辆方位。
12.根据权利要求4的方法,其中,将来自前视摄像机模块、后视摄像机模块和车辆动态传感器的数据融合包括使用卡尔曼滤波器。
13.根据权利要求4的方法,其中,将来自前视摄像机模块、后视摄像机模块和车辆动态传感器的数据融合包括使用粒子滤波器。
14.一种用于确定车道中车辆位置的方法,所述方法包括:
提供来自车辆车载的前视摄像机的图像数据;
提供来自车辆车载的后视摄像机的图像数据;和
将来自前视摄像机和后视摄像机的图像数据融合成组合的车道几何信息集以确定车道中车辆的位置,其中所述融合包括使用卡尔曼滤波器例程来联合地估算车道几何信息和前视摄像机和后视摄像机的未对准角度,其中卡尔曼滤波器例程包括作为状态矢量变量的车道曲率、相对于车道切线的车辆方位、前保险杠中心到车道边界的位移、和前视摄像机的方位未对准角度和后视摄像机的方位未对准角度,并同时求解全部所述状态矢量变量。
15.根据权利要求14的方法,其中,将来自前视摄像机和后视摄像机的数据融合包括寻找图像数据中的高密度像素、将所述高密度像素投影在车辆坐标框架中、从高密度像素中检测路缘和车道线、将所述路缘和车道线连接成车道以及追踪车道几何信息。
16.根据权利要求14的方法,其中,车道几何信息包括车道曲率、相对于车道切线的车辆方位、和到左车道边界和右车道边界的位移。
17.一种用于确定车道中车辆位置的系统,所述系统包括:
第一摄像机,用于捕获来自车辆的前视的图像;
第二摄像机,用于捕获来自车辆的后视的图像;和
处理器,其配置为接收来自第一摄像机和第二摄像机的图像,并使用来自第一摄像机和第二摄像机的图像的融合来计算车道几何信息,其中所述融合包括使用卡尔曼滤波器例程来联合地估算车道几何信息和第一摄像机和第二摄像机的未对准角度,其中卡尔曼滤波器例程包括作为状态矢量变量的车道曲率、相对于车道切线的车辆方位、前保险杠中心到车道边界的位移、和第一摄像机的方位未对准角度和第二摄像机的方位未对准角度,并同时求解全部所述状态矢量变量。
18.根据权利要求17的系统,其中,处理器寻找来自第一摄像机和第二摄像机中的图像中的高密度像素、将所述高密度像素投影在车辆坐标框架中、从所述高密度像素中检测路缘和车道线、将所述路缘和车道线连接成车道以及追踪车道几何信息。
19.根据权利要求17的系统,其中,车道几何信息包括车道曲率、相对于车道切线的车辆方位、以及到左车道边界和右车道边界的位移。
CN201110258002.7A 2010-07-20 2011-07-20 使用前视和后视摄像机的车道融合系统 Active CN102398598B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/840069 2010-07-20
US12/840,069 US9090263B2 (en) 2010-07-20 2010-07-20 Lane fusion system using forward-view and rear-view cameras

Publications (2)

Publication Number Publication Date
CN102398598A CN102398598A (zh) 2012-04-04
CN102398598B true CN102398598B (zh) 2016-02-24

Family

ID=45443706

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201110258002.7A Active CN102398598B (zh) 2010-07-20 2011-07-20 使用前视和后视摄像机的车道融合系统

Country Status (3)

Country Link
US (1) US9090263B2 (zh)
CN (1) CN102398598B (zh)
DE (1) DE102011107190B4 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7155204B2 (ja) 2019-07-29 2022-10-18 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド ハンドルのニュートラル位置を較正するためのシステムおよび方法

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010020984A1 (de) * 2010-04-20 2011-10-20 Conti Temic Microelectronic Gmbh Verfahren zur Bestimmung des Fahrbahnverlaufes für ein Kraftfahrzeug
US9139203B2 (en) * 2011-11-04 2015-09-22 GM Global Technology Operations LLC Lane tracking system
US8948954B1 (en) * 2012-03-15 2015-02-03 Google Inc. Modifying vehicle behavior based on confidence in lane estimation
US8494716B1 (en) * 2012-06-04 2013-07-23 GM Global Technology Operations LLC Lane keeping system using rear camera
TWI625260B (zh) * 2012-11-20 2018-06-01 Method and system for detecting lane curvature by using body signal
US9063548B1 (en) 2012-12-19 2015-06-23 Google Inc. Use of previous detections for lane marker detection
DE102012024970A1 (de) * 2012-12-20 2013-07-04 Daimler Ag Verfahren zum Bestimmen einer Soll-Kurvenneigung eines Kraftfahrzeugs beim Befahren eines kurvenförmigen Fahrbahnabschnitts
US9081385B1 (en) 2012-12-21 2015-07-14 Google Inc. Lane boundary detection using images
KR101409747B1 (ko) * 2012-12-28 2014-07-02 현대모비스 주식회사 횡방향 제어 장치 및 그 제어 방법
CN110213565B (zh) * 2013-01-15 2021-03-09 移动眼视力科技有限公司 成像系统和用于深度计算的方法
DE102014205127A1 (de) 2013-04-17 2014-10-23 Ford Global Technologies, Llc Steuerung der Fahrdynamik eines Fahrzeugs mit Spurrillenausgleich
EP2799902A1 (en) * 2013-04-30 2014-11-05 Baselabs GmbH Method and apparatus for the tracking of multiple objects
DE102013217060B4 (de) * 2013-08-27 2023-08-03 Bayerische Motoren Werke Aktiengesellschaft Spurgenaue Positionierung eines Fahrzeugs
EP3041720B1 (en) * 2013-09-05 2019-12-04 Robert Bosch GmbH Enhanced lane departure warning with information from rear radar sensors
CN104036253A (zh) * 2014-06-20 2014-09-10 智慧城市系统服务(中国)有限公司 一种车道线追踪方法及系统
DE102014116037A1 (de) * 2014-11-04 2016-05-04 Connaught Electronics Ltd. Verfahren zum Betreiben eines Fahrerassistenzsystems eines Kraftfahrzeugs, Fahrerassistenzsystem und Kraftfahrzeug
CN104899858A (zh) * 2015-02-15 2015-09-09 北京联合大学 基于双摄像机图像融合的车道线识别方法
JP6501602B2 (ja) * 2015-04-23 2019-04-17 本田技研工業株式会社 レーン検出装置及びその方法、カーブ開始点検出装置及びその方法、並びに操舵アシスト装置及びその方法
JP6567659B2 (ja) * 2015-05-07 2019-08-28 株式会社日立製作所 レーン検出装置およびレーン検出方法
WO2017019022A1 (en) * 2015-07-27 2017-02-02 Ford Global Technologies, Llc Bike lane steering control methods and systems
WO2017019020A1 (en) * 2015-07-27 2017-02-02 Ford Global Technologies, Llc Bike lane detection methods and systems
US9710714B2 (en) * 2015-08-03 2017-07-18 Nokia Technologies Oy Fusion of RGB images and LiDAR data for lane classification
US9815462B2 (en) * 2015-08-27 2017-11-14 Toyota Motor Engineering & Manufacturing North America, Inc. Path determination for automated vehicles
CN105741326B (zh) * 2016-03-21 2018-12-14 西安电子科技大学 一种基于聚类融合的视频序列的目标跟踪方法
US20170300763A1 (en) * 2016-04-19 2017-10-19 GM Global Technology Operations LLC Road feature detection using a vehicle camera system
US10762358B2 (en) * 2016-07-20 2020-09-01 Ford Global Technologies, Llc Rear camera lane detection
JP6770393B2 (ja) * 2016-10-04 2020-10-14 株式会社豊田中央研究所 トラッキング装置及びプログラム
KR101905993B1 (ko) * 2016-10-31 2018-10-10 현대자동차주식회사 차량용 내장재 및 그 성형 방법
JP6336010B2 (ja) * 2016-11-16 2018-06-06 三菱電機株式会社 路上区画線認識装置、路上区画線認識方法、路上区画線認識装置を備えた運転支援装置、および路上区画線認識方法を備えた運転支援方法
CN109900295B (zh) * 2017-12-11 2022-12-09 上海交通大学 基于自主式传感器的车辆运动状态的检测方法及系统
US10921142B2 (en) 2017-12-14 2021-02-16 Waymo Llc Methods and systems for sun-aware vehicle routing
CN108764075A (zh) * 2018-05-15 2018-11-06 北京主线科技有限公司 岸桥下集装箱卡车定位的方法
US10706563B2 (en) * 2018-05-15 2020-07-07 Qualcomm Incorporated State and position prediction of observed vehicles using optical tracking of wheel rotation
JP7118836B2 (ja) * 2018-09-25 2022-08-16 フォルシアクラリオン・エレクトロニクス株式会社 区画線認識装置
JP2020050220A (ja) * 2018-09-28 2020-04-02 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh 制御装置及び制御方法
KR102636740B1 (ko) * 2018-12-17 2024-02-15 현대자동차주식회사 차량 및 그 제어방법
US10933880B2 (en) * 2019-01-17 2021-03-02 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for providing lane curvature estimates
KR102034316B1 (ko) * 2019-01-29 2019-11-08 주식회사 만도 차량 위치 보정 시스템 및 방법, 그리고 카메라
US11102488B2 (en) * 2019-05-31 2021-08-24 Ati Technologies Ulc Multi-scale metric-based encoding
CN110415298B (zh) * 2019-07-22 2023-02-03 昆山伟宇慧创智能科技有限公司 一种用于车道偏离的计算方法
CN110987463B (zh) * 2019-11-08 2020-12-01 东南大学 面向多场景的智能驾驶自主车道变换性能测试方法
US20210155158A1 (en) * 2019-11-22 2021-05-27 Telenav, Inc. Navigation system with lane estimation mechanism and method of operation thereof
CN112885074B (zh) * 2019-11-30 2023-01-13 华为技术有限公司 道路信息检测方法以及装置
CN111508255B (zh) * 2019-12-10 2022-04-15 博泰车联网科技(上海)股份有限公司 一种快递到车的车辆定位方法及快递到车系统
JP6982108B2 (ja) * 2020-01-30 2021-12-17 本田技研工業株式会社 車両制御装置、車両制御方法およびプログラム
DE102020213697A1 (de) 2020-10-30 2022-05-05 Continental Automotive Gmbh Verfahren zum Erkennen von Straßengrenzen sowie ein System zur Steuerung eines Fahrzeuges
CN114523978B (zh) * 2020-11-03 2024-01-16 上海汽车集团股份有限公司 一种后方道路模型生成方法及装置
CN112373474B (zh) * 2020-11-23 2022-05-17 重庆长安汽车股份有限公司 车道线融合及横向控制方法、系统、车辆及存储介质
US11636693B2 (en) * 2021-01-20 2023-04-25 Qualcomm Incorporated Robust lane-boundary association for road map generation
JPWO2022254788A1 (zh) * 2021-06-04 2022-12-08
CN113479191B (zh) * 2021-06-30 2023-04-07 重庆长安汽车股份有限公司 用于泊车的无车道线的车道边界检测系统、方法及车辆
WO2023092451A1 (zh) * 2021-11-26 2023-06-01 华为技术有限公司 预测可行驶车道的方法和装置
CN114396892B (zh) * 2021-12-02 2023-08-25 重庆交通大学 轨道交通曲线轨道曲率测量方法
CN113942503B (zh) * 2021-12-02 2023-06-27 天津天瞳威势电子科技有限公司 一种车道保持方法和装置
CN114332647B (zh) * 2021-12-31 2022-10-21 合肥工业大学 一种用于无人船的河道边界检测与跟踪方法及系统
JP7302693B1 (ja) 2022-03-23 2023-07-04 いすゞ自動車株式会社 運転制御装置、運転制御方法及びプログラム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5351044A (en) * 1992-08-12 1994-09-27 Rockwell International Corporation Vehicle lane position detection system
US6580389B2 (en) * 2000-08-11 2003-06-17 The Regents Of The University Of California Attitude determination using a global positioning system
US20030048357A1 (en) * 2001-08-29 2003-03-13 Geovantage, Inc. Digital imaging system for airborne applications
US6718259B1 (en) * 2002-10-02 2004-04-06 Hrl Laboratories, Llc Adaptive Kalman filter method for accurate estimation of forward path geometry of an automobile
US6930593B2 (en) * 2003-02-24 2005-08-16 Iteris, Inc. Lane tracking system employing redundant image sensing devices
US7712776B2 (en) * 2004-03-05 2010-05-11 Ford Global Technologies Method and control system for predictive deployment of side-impact restraints
DE102004024692A1 (de) 2004-05-19 2005-12-15 Daimlerchrysler Ag Verfahren und Vorrichtung zur Unterstützung des Fahrers eines Fahrzeugs
US7697766B2 (en) * 2005-03-17 2010-04-13 Delphi Technologies, Inc. System and method to determine awareness
AT502320B1 (de) 2005-07-04 2007-07-15 Advanced Comp Vision Gmbh Acv Verfahren zur fahrspurerkennung
US8108119B2 (en) * 2006-04-21 2012-01-31 Sri International Apparatus and method for object detection and tracking and roadway awareness using stereo cameras
WO2008065717A1 (fr) 2006-11-29 2008-06-05 Fujitsu Limited Système et procédé de détection de piéton
DE102007017293A1 (de) 2007-04-12 2008-10-16 Continental Automotive Gmbh Fahrspurdetektion mit Schwarz-Weiß-Kamera und Farbkamera
US8487991B2 (en) * 2008-04-24 2013-07-16 GM Global Technology Operations LLC Clear path detection using a vanishing point
US8611585B2 (en) * 2008-04-24 2013-12-17 GM Global Technology Operations LLC Clear path detection using patch approach
US8605947B2 (en) * 2008-04-24 2013-12-10 GM Global Technology Operations LLC Method for detecting a clear path of travel for a vehicle enhanced by object detection
JP5133783B2 (ja) * 2008-05-30 2013-01-30 アルパイン株式会社 車載装置
US8237716B2 (en) * 2008-09-08 2012-08-07 Fair Isaac Corporation Algorithm for drawing directed acyclic graphs
KR100966288B1 (ko) * 2009-01-06 2010-06-28 주식회사 이미지넥스트 주변 영상 생성 방법 및 장치
US20110169957A1 (en) * 2010-01-14 2011-07-14 Ford Global Technologies, Llc Vehicle Image Processing Method
US20110190972A1 (en) * 2010-02-02 2011-08-04 Gm Global Technology Operations, Inc. Grid unlock
US8260539B2 (en) * 2010-05-12 2012-09-04 GM Global Technology Operations LLC Object and vehicle detection and tracking using 3-D laser rangefinder

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7155204B2 (ja) 2019-07-29 2022-10-18 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド ハンドルのニュートラル位置を較正するためのシステムおよび方法

Also Published As

Publication number Publication date
CN102398598A (zh) 2012-04-04
DE102011107190B4 (de) 2022-03-17
US20120062747A1 (en) 2012-03-15
DE102011107190A1 (de) 2012-01-26
US9090263B2 (en) 2015-07-28

Similar Documents

Publication Publication Date Title
CN102398598B (zh) 使用前视和后视摄像机的车道融合系统
CN102700548A (zh) 具有前摄像机和后摄像机的稳健的车辆侧向控制
US11348266B2 (en) Estimating distance to an object using a sequence of images recorded by a monocular camera
US11312353B2 (en) Vehicular control system with vehicle trajectory tracking
CN108572663B (zh) 目标跟踪
US11125881B2 (en) Lidar-based trailer tracking
CN111144432B (zh) 在传感器融合系统中消除模糊检测的方法
Goldbeck et al. Lane following combining vision and DGPS
CN111458700B (zh) 车辆映射和定位的方法和系统
CN112363167A (zh) 一种基于毫米波雷达与单目相机融合的扩展目标跟踪方法
CN109964149B (zh) 用于轮式车辆的自校准感测器系统
US10832428B2 (en) Method and apparatus for estimating a range of a moving object
CN115923839A (zh) 一种车辆路径规划方法
US20200369296A1 (en) Autonomous driving apparatus and method
JP7462738B2 (ja) 車載クラスタ追跡システム
Bai et al. Drivable Area Detection and Vehicle Localization Based on Multi-Sensor Information
US20240078749A1 (en) Method and apparatus for modeling object, storage medium, and vehicle control method
CN117549907A (zh) 一种基于视觉和雷达感知的acc主目标筛选方法及系统
Ahlers et al. Laserscanner based cooperative Pre-data-fusion
WO2023126142A1 (en) Method and apparatus for generating ground truth for other road participant
AU2023224143A1 (en) Method and apparatus for modeling object, storage medium, and vehicle control method
CN118264761A (zh) 用于校准安装在车辆上的摄像头的方法和装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant