CN110161488A - 使用车辆相机系统执行视觉测距的方法和设备 - Google Patents

使用车辆相机系统执行视觉测距的方法和设备 Download PDF

Info

Publication number
CN110161488A
CN110161488A CN201910114086.3A CN201910114086A CN110161488A CN 110161488 A CN110161488 A CN 110161488A CN 201910114086 A CN201910114086 A CN 201910114086A CN 110161488 A CN110161488 A CN 110161488A
Authority
CN
China
Prior art keywords
ranging
vehicle
parameters
data
weight factor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910114086.3A
Other languages
English (en)
Inventor
维迪亚·纳里亚曼特穆拉里
布鲁诺·西利·贾尔斯科斯塔
宾杜哈西尼·赛拉玛什
尼基尔·纳格拉拉奥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of CN110161488A publication Critical patent/CN110161488A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • B60W2050/0052Filtering, filters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Mathematical Physics (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

本公开提供了“使用车辆相机系统执行视觉测距的方法和设备”。公开了用于使用单目相机执行视觉测距的方法、设备、系统和制品。示例性设备包括:方法融合器,所述方法融合器用于使用表面表征来确定视觉测距方法以计算第一测距数据;位移确定器,所述位移确定器用于基于传感器信息来计算第二测距数据;测距计算器,所述测距计算器用于基于所述第一测距数据和所述第二测距数据来计算目标对象相对于车辆的测距参数;以及车辆命令发生器,所述车辆命令发生器用于基于所述测距参数来生成车辆命令。

Description

使用车辆相机系统执行视觉测距的方法和设备
技术领域
本公开大体涉及车辆,并且更具体地涉及使用车辆相机系统执行视觉测距的方法和设备。
背景技术
诸如汽车和卡车之类的车辆通常包括相机系统,所述相机系统包括一个或多个相机以捕获所述车辆周围环境的图像或实况馈送。驾驶员可以使用车载相机系统来执行车辆操纵控制,诸如平行停车。在一些情况下,自主车辆可以使用车载相机系统来指向、引导或以其他方式移动车辆。
发明内容
示例性设备包括:方法融合器,所述方法融合器用于使用表面表征来确定视觉测距方法以计算第一测距数据;位移确定器,所述位移确定器用于基于传感器信息来计算第二测距数据;测距计算器,所述测距计算器用于基于所述第一测距数据和所述第二测距数据来计算目标对象相对于车辆的测距参数;以及车辆命令发生器,所述车辆命令发生器用于基于所述测距参数来生成车辆命令。
示例性方法包括基于对表面的表征来确定视觉测距方法以计算第一测距数据;基于传感器信息来计算第二测距数据;基于第一测距数据和第二测距数据来计算目标物体相对于车辆的测距参数;以及基于所述测距参数来生成车辆命令。
示例性非暂时性计算机可读存储介质包括指令,所述指令在被执行时使机器至少基于对表面的表征来确定视觉测距方法以计算第一测距数据;基于传感器信息来计算第二测距数据;基于所述第一测距数据和所述第二测距数据来计算目标物体相对于车辆的测距参数;以及基于测距参数来产生车辆命令。
附图说明
图1A示出可以实现本文公开的示例性目标跟踪器设备的示例性车辆。
图1B示出图1A的示例性车辆基于由图1A的示例性目标跟踪器设备生成的车辆命令来执行车辆操纵控制。
图2是包括图1A的示例性车辆的示例性目标跟踪器设备的示例性实现的车辆的示例性控制系统的框图,所述示例性控制系统可用于实现本文公开的示例。
图3是表示机器可读指令的流程图,可以执行所述机器可读指令以基于对表面的表征来计算测距参数。
图4A是表示机器可读指令的流程图,可以执行所述机器可读指令以对表面类型进行表征。
图4B是表示机器可读指令的流程图,可以执行所述机器可读指令以对表面品质进行表征。
图5是表示机器可读指令的流程图,可以执行所述机器可读指令以基于在经表征的表面上使用地面特征跟踪方法来计算方法权重因子。
图6是表示机器可读指令的流程图,可以执行所述机器可读指令以基于在经表征的表面上使用全局运动矢量方法来计算方法权重因子。
图7是表示机器可读指令的流程图,可以执行所述机器可读指令以使用基于方法权重因子的一种或多种方法来计算测距参数。
图8是表示机器可读指令的另一流程图,可以执行所述机器可读指令以使用基于方法权重因子的一种或多种方法来计算测距参数。
图9是示例处理平台的框图,所述示例处理平台被构造为执行图3至图8的指令以实现图1A和/或图2的示例性目标跟踪器设备。
附图未按比例绘制。一般地,贯穿一个或多个图示和随附书面描述将使用相同参考数字来指代相同或相似部分。
具体实施方式
驾驶员可以使用车辆相机系统来执行车辆操纵控制,诸如在路面上前进、在路面上转弯、倒车到停车位等,所述车辆相机系统包括前置相机系统、后视相机系统(例如,倒车相机系统)和/或侧视相机系统。在某些情况下,自主车辆使用前置相机系统和/或侧视相机系统来调整所述车辆相对于所述车辆前方或侧面的物体或车辆的方向和/或速度。在一些情况下,自主车辆使用倒车相机系统来执行与物体相关的车辆操纵控制(例如,自主车辆操纵控制),诸如朝向另一物体或车辆倒车。典型的倒车相机系统包括单个相机(例如,单目相机),以捕获车辆后方周围环境的图像或实况馈送。典型的前置相机系统和/或侧视相机系统包括一个或多个相机,以捕获车辆前方和/或侧面的周围环境的图像或实况馈送。
准确跟踪目标或目标物体(例如,交通信号灯、停车标志、行人、车辆等)以进行车辆操纵控制(例如,驶入高速公路上、进行转弯等)需要对与目标相对应的特征进行稳健估计,所述特征为诸如高度、横向距离、纵向距离等。在一些示例中,使用包括单目相机的倒车相机系统产生了关于估计目标特征的复杂挑战,因为缺乏使用由单目相机生成的单个相机图像产生的深度信息。在定位、地图创建和/或同时定位和地图创建(SLAM)应用中为自主车辆部署的前置相机系统存在类似的挑战。
本文公开的示例性目标跟踪器设备涉及车辆,并且更具体地涉及使用车辆相机系统执行视觉测距。通常,在此公开的示例性目标跟踪器设备利用电子控制单元(ECU)或控制器来获得车辆传感器信息和相机系统信息,以改进在深度信息不可用时对目标特征的估计。如本文所使用的,术语“电子控制单元”指的是监视和/或控制车辆的一个或多个部件(例如,电气部件、机械部件等)、电气子系统、电气系统等的嵌入式控制器或系统。
在一些公开的示例中,车辆的目标跟踪器设备通过获得和/或处理车辆传感器信息来确定与目标对象相对应的相对于所述车辆的测距参数。如在此所使用的,术语“传感器信息”和“车辆传感器信息”可互换使用,并且是指从监视车辆或车辆系统的传感器获得的数据,所述传感器为诸如光传感器、水分传感器、速度传感器、方向盘转角传感器、转矩传感器等。在一些示例中,车辆传感器信息对应于在车辆上操作的致动器的状态,所述致动器为诸如制动致动器、阀致动器、挡风玻璃刮水器致动器等。在一些示例中,车辆传感器信息包括从ECU获得的数据,诸如车辆速度、防抱死制动系统部件的状态、全球定位系统(GPS)信息等。
在一些示例中,目标跟踪器设备使用阿克曼测距方法来使用车辆传感器信息以确定与随时间车辆相对于目标对象(例如,移动物体、静止物体等)的位置变化相对应的位移信息。在一些示例中,目标跟踪器设备使用阿克曼测距方法来计算一种或多种测距参数,所述测距参数包括目标物体相对于车辆的横向位移、纵向位移、姿势等。在一些示例中,目标跟踪器设备经由控制器局域网(CAN)总线从ECU获得车辆传感器信息,诸如车辆速度和方向盘转角信息。例如,目标跟踪器设备可以随时间积分车辆速度值,并使用阿克曼几何来确定位移信息。
在一些公开的示例中,车辆的目标跟踪器设备通过获得和/或处理相机系统信息来确定与目标对象相对应的相对于所述车辆的测距参数。如本文所使用的,术语“相机系统信息”是指与由包括在车辆相机系统中的一个或多个相机捕获的图像相对应的数据。例如,相机系统信息可包括一个或多个图像、与所述一个或多个图像对应的数字数据、流式视频馈送、与流式视频馈送相对应的数据等。如本文所使用的,术语“车辆相机系统”是指包括一个或多个相机和/或一个或多个处理器的车辆的一个或多个相机系统。例如,车辆相机系统可包括倒车相机系统,所述倒车相机系统包括一个或多个相机和/或一个或多个处理器;侧视相机系统,所述侧视相机系统包括一个或多个相机和/或一个或多个处理器(例如,设置在车辆的一侧或两侧上的一个或多个相机);前置相机系统,所述前置相机系统包括一个或多个相机和/或一个或多个处理器(例如,面向车辆向前行驶方向的一个或多个相机),等等,和/或它们的组合。
在本文公开的一些示例中,目标跟踪器设备使用视觉测距方法,诸如地面特征跟踪(GFT)方法或全局运动矢量(GMV)方法,来优化和/或以其他方式改进根据阿克曼测距方法计算的测距参数。在一些示例中,视觉测距方法计算测距参数,所述测距参数包括运动(例如,环境内的对象(例如,相机)的三维(3-D)运动)、光流场等。例如,目标跟踪器设备可以使用通过GFT方法和/或GMV方法计算的测距参数来校正通过阿克曼测距方法计算的测距参数。在另一示例中,当车辆速度低于诸如1千米每小时(kph)的速度阈值时,目标跟踪器设备可以仅使用通过GFT方法和/或GMV方法确定的测距参数。例如,对于小于速度阈值的所有车辆速度,经由CAN总线获得的车辆速度数据可以被降低到0kph。在此类示例中,当车辆正在执行低速车辆操纵控制(例如,包括低蠕变速度和/或偶尔制动的操纵控制)时,诸如在拥挤的地区驾驶或停车时,对车辆速度进行归零可能使使用测距方法计算测距参数显著复杂化。
在一些公开的示例中,目标跟踪器设备通过对车辆正在上面行驶的地面(例如,路面、行驶表面、车辆表面等)进行表征来确定使用视觉测距方法。在一些示例中,目标跟踪器设备通过表征或确定地面类型来对地面进行表征。例如,目标跟踪器设备可以将地面类型表征为岩石地面(例如,被岩石或类似材料覆盖的表面)、沙质地面(例如,被沙子或类似材料覆盖的表面)、沥青地面(例如,被沥青或类似材料覆盖的表面)等。
在一些示例中,目标跟踪器设备通过表征或确定地面的品质来对所述地面进行表征。例如,目标跟踪器设备可以表征地面的光反射特性。例如,目标跟踪器设备可以通过以下方式来确定地面的光反射特性:将地面表征为表现出或具有干品质(例如,地面是干燥的)、湿品质(例如,地面是湿的,被水或类似液体覆盖等)、雪积聚品质(例如,地面被雪覆盖)等。例如,目标跟踪器设备可以确定当地面干燥时所述地面具有低的或降低的光反射特性。与GMV方法相比,通过使用GFT方法,具有降低的光反射特性的地面可以产生改善的视觉测距结果。在另一个示例中,与地面干燥时相比,当地面是湿的或被雪覆盖时,目标跟踪器设备可以确定地面具有高的或增强的光反射特性。与GFT方法相比,通过使用GMV方法,具有增强的光反射特性的地面可以产生改善的视觉测距结果。
在一些示例中,目标跟踪器设备基于地面的表征(例如,地面的表面类型、表面品质等)来确定视觉测距方法。例如,当车辆正在沥青或类似材料的表面上行驶时,目标跟踪器设备可以确定使用GFT方法。在另一示例中,目标跟踪器设备可以在地面是湿的时确定使用GMV方法。在又一个示例中,当车辆在干沥青或类似的干燥材料的表面上行驶时,目标跟踪器设备可以确定使用GFT方法。
在本文公开的一些示例中,目标跟踪器设备基于一个或多个权重因子(例如,方法权重因子)来计算测距参数。例如,目标跟踪器设备可以确定使用阿克曼测距方法和视觉测距方法来计算测距参数。例如,目标跟踪器设备可以确定将阿克曼测距数据与视觉测距数据融合。例如,目标跟踪器设备可以计算出阿克曼测距数据的方法权重因子为0.6(例如,60%)并且视觉测距数据的方法权重因子为0.4(例如,40%)。在此类示例中,目标跟踪器设备可以计算车辆的测距参数,所述车辆的测距参数基于60%的阿克曼测距数据和40%的视觉测距数据。
在一些示例中,目标跟踪器设备基于所计算的测距参数而生成车辆命令(例如,车辆操纵控制命令)。例如,目标跟踪器设备可以生成将车辆从第一位置移动到第二位置的车辆操纵控制命令。例如,车辆操纵控制命令可以指示车辆朝向或远离物体转向、移动远离所述物体,接近所述物体等。在另一个示例中,车辆操纵控制命令可以指示车辆进行倒车和停放到停车位中。在又一示例中,目标跟踪器设备可以生成将车辆的轨迹或行进路线从第一轨迹改变为第二轨迹的车辆操纵控制命令。
图1A示出示例性目标跟踪器100监视正接近第二车辆104的第一车辆102,同时在地面106上执行自主车辆操纵控制。如图1A所示,第一示例性车辆102和第二示例性车辆104正在向前方向上移动,其中第一车辆102跟随第二车辆104。图1A的第一车辆102包括四个轮子108。在所示的示例中,两个前轮108使用阿克曼转向几何结构而可操作地彼此联接。类似地,两个后轮108使用阿克曼转向几何结构而可操作地彼此联接。例如,前轮108经由车辆转向中的连杆的几何布置而可操作地彼此联接,所述几何布置允许前轮108以不同的相应半径转向。
在图1A所示的示例中,第一车辆102包括相机系统110以捕获第二车辆104的图像。在所示的示例中,相机系统110是前置相机系统。另外地或替代地,第一示例性车辆102可包括倒车相机系统、侧向相机系统等,和/或它们的组合。为了清楚起见,虽然以下结合前置相机系统描述了示例性目标跟踪器100的功能,但是所描述的功能也可以应用于倒车相机系统、侧向相机系统等,和/或它们的组合。所示示例的相机系统110包括单个相机(例如,单目相机)。或者,示例性相机系统110可包括两个或更多个相机以产生第二车辆104的立体图像。
在图1A所示的示例中,包括在第一车辆102中的相机系统110通信地(经由电缆或无线连接)耦合到电子控制单元112,以实现目标跟踪器100。在图1A所示的示例中,相机系统110经由网络114通信地耦合到电子控制单元112。在图1A所示的示例中,网络114是总线和/或计算机网络。例如,网络114可以是汽车控制网络、内部控制器总线、车辆控制网络等。例如,汽车控制网络可以利用一个或多个通信协议,诸如基于控制器局域网(CAN)总线的协议(例如,CAN、CAN灵活数据速率(FD)、自动化中的CAN(CiA)、CANopen、SAE J1939等)、基于IEEE 802.3的协议(例如,以太网)等。
另外地或替代地,图1A的网络114可以是具有通信地耦合到互联网的能力的网络。然而,示例网络114可以使用任何合适的有线和/或无线网络来实现,所述有线和/或无线网络包括例如一种或多种数据总线、一种或多种局域网(LAN)、一种或多种无线LAN、一种或多种蜂窝网络、一种或多种光纤网络、一种或多种卫星网络、一种或多种专用网络、一种或多种公共网络等。示例网络114使目标跟踪器100能够与第一车辆102的模块进行通信,所述模块为诸如相机系统110和/或计算服务器或第一车辆102外部的其他计算系统(例如,互联网提供的气象服务、GPS系统等)。如本文所使用的,短语“在通信中”涵盖通过一个或多个中介部件的直接通信和/或间接通信,并且不需要直接物理(例如,有线)通信和/或持续通信,而是包括定期间隔或非周期性间隔的选择性通信,以及一次性事件。例如,短语“在通信中”可以包括诸如安全或非安全通信、压缩或非压缩通信等的差异。
在图1A所示的示例中,目标跟踪器100基于车辆速度数据(例如,来自诸如车轮速度传感器的传感器116的测量值)或方向盘转角数据(例如,来自诸如方向盘转角传感器的传感器116的测量值)中的至少一者来确定当第一车辆102跟随和/或以其他方式接近第二车辆104时的一个或多个测距参数。图1A的传感器116表示监视第一车辆102的特征或参数的一个或多个仪器。例如,传感器116可以是加速计、湿度传感器、光传感器、水分传感器,压力传感器,速度传感器(例如,发动机转速传感器、车轮速度传感器等)、温度传感器等,或任何其他传感器。例如,车辆传感器信息可包括从传感器116获得的测量值。
在图1A所示的示例中,目标跟踪器100基于致动器118的状态来确定第二车辆104相对于第一车辆102的一个或多个测距参数。图1A的致动器118表示对第一车辆102执行一个或多个动作的一个或多个致动器。例如,致动器118可以是防抱死制动系统致动器、马达、螺线管、阀、挡风玻璃刮水器致动器等,或任何其他汽车致动器。例如,目标跟踪器100可以基于以下项来计算第二车辆104相对于第一车辆102的横向位移、纵向位移等的变化:(1)在使用车辆速度数据的时间段期间第一车辆102的速度,以及(2)在使用方向盘转角数据的时间段期间第一车辆102的方向。
图1B是图1A的第一示例性车辆102和第二示例性车辆104的平面图。图1B的第一车辆102正沿着位移矢量120接近第二车辆104。图1B的位移矢量120包括(1)沿第一轴124或纵向轴124的纵向位移矢量分量122,以及(2)沿第二轴128或横向轴128的横向位移矢量分量126。在图1B所示的示例中,第一轴124垂直于第二轴128。图1B的纵向位移矢量分量122表示第二车辆104相对于第一车辆102的纵向位移。图1B的横向位移矢量分量126表示第二车辆104相对于第一车辆102的横向位移。
如本文所用,术语“纵向位移”是指第一物体相对于第二物体的纵向轴的位置的变化。例如,如图1B所示,第一车辆102在某一时间段期间接近第二车辆104在该时间段期间沿纵向轴124产生纵向位移或第一车辆102与第二车辆104之间的距离变化。如本文所用,术语“横向位移”是指垂直于第二物体的纵向轴的距离的变化或小于垂直于第二物体的纵向轴的角度的变化。例如,如图1B所示,第一车辆102在某一时间段期间接近第二车辆104在该时间段期间沿横向轴128产生位移或第一车辆102与第二车辆104之间的距离变化。
返回到图1A,在一些示例中,目标跟踪器100基于由相机系统110捕获的图像而使用视觉测距方法来计算一个或多个测距参数。例如,目标跟踪器100可以使用GFT方法和/或GMV方法来计算第二车辆104相对于第一车辆102的测距参数,诸如横向位移、纵向位移、姿势等。如本文所使用的,术语“姿势”是指坐标系(例如,3-D坐标系)中的对象的位置和取向。例如,目标跟踪器100可以使用诸如Lucas-Kanade算法或Horn和Schunk算法之类的GFT方法,以使用由相机系统110捕获的顺序图像来跟踪地面106上的凸点。在另一示例中,目标跟踪器100可以使用GMV方法,以通过计算本质矩阵和基本矩阵来跟踪由相机系统110捕获的图像中的所有凸点,包括地面106上的凸点。
在图1A所示的示例中,目标跟踪器100对地面106进行表征以确定要部署的视觉测距方法。例如,目标跟踪器100可以通过对地面106的表面类型、表面品质等和/或它们的组合进行表征,来表征所述地面106。在图1A所示的示例中,地面106是沥青。另外地或替代地,地面106可以是湿的。另外地或替代地,地面106可以被岩石、沙子或任何其他碎片或材料覆盖。在图1A所示的示例中,目标跟踪器100将地面106的表面类型表征为被沥青覆盖的地面,并将地面106的表面品质表征为干地面。在图1A所示的示例中,目标跟踪器100基于确定地面106的表面类型和表面品质而将地面106表征为干沥青。响应于确定地面106被干沥青覆盖,示例性目标跟踪器100可以确定使用GFT方法。
在图1A所示的示例中,目标跟踪器100基于方法权重因子来计算测距参数。在一些示例中,方法权重因子表示通过用于确定测距参数的方法计算的数据或数据的一部分的百分比。例如,目标跟踪器100可以使用0.75的GFT方法权重因子和0.25的阿克曼测距方法权重因子,来基于0.75的GFT测距数据和0.25的阿克曼测距数据计算测距参数。
在图1A所示的示例中,目标跟踪器100基于所选视觉测距方法、车辆速度或地面106的表征中的至少一者来确定方法权重因子。例如,目标跟踪器100可以(1)确定使用GFT方法,(2)确定车辆速度大于1kph,以及(3)确定地面被沙子(例如,干沙子、湿沙子等)或类似材料覆盖。响应于所述确定,示例性目标跟踪器100可以计算出阿克曼测距方法权重因子为0.5,GFT方法权重因子为0.5,以及GMV方法权重因子为0。示例性目标跟踪器100可基于0.5的阿克曼测距数据和0.5的GFT测距数据来计算测距参数。
在一些示例中,目标跟踪器100基于确定一个或多个测距参数来生成车辆命令。例如,车辆命令可以是让ECU执行车辆动作的指令,所述车辆动作为诸如启用或禁用致动器(例如,图1A的致动器118)、生成警报(例如,在第一车辆102中的用户界面上的声音警报、视觉警报等等)、执行自主车辆功能(例如,自主倒车操纵控制、自主驾驶操纵控制等)。例如,目标跟踪器100可以生成命令并将所述命令发送到包括在第一车辆102中的ECU,以在没有用户帮助的情况下保持相对于第二车辆104的指定跟随距离。
图2是包括图1A的第一示例性车辆102的示例性目标跟踪器100的示例性实现的示例性车辆控制系统200的框图,所述示例性控制系统可用于实现本文公开的示例。图2的示例性目标跟踪器100包括示例性网络接口205、示例性表面评估器210、示例性位移确定器215、示例性地面特征跟踪器220、示例性全局运动矢量确定器225、示例性方法融合器230、示例性测距计算器235、示例性权重因子优化器240、示例性车辆命令发生器245,以及示例性数据库250。图2的示例性车辆控制系统200还包括图1A的示例性相机系统110、图1A的示例性网络114、示例性防抱死制动系统模块260、示例性车辆动力学模块265,以及示例性发动机控制模块270。
在图2所示的示例中,目标跟踪器100包括网络接口205,以从网络114获得信息和/或向网络114发送信息。信息可包括来自相机系统110的相机系统信息,来自防抱死制动系统模块260的车辆传感器信息,来自车辆动力学模块265的车辆传感器信息,来自发动机控制模块270的车辆传感器信息等。在所示的示例中,网络接口205实现总线服务器(例如,CAN总线链路、SAE J1939链路等),所述总线服务器从ECU(例如,实现相机系统110、防抱死制动系统模块260、车辆动力学模块265、发动机控制模块270等中的相应一者的ECU)或通信地耦合到网络114的其他装置接收信息,和/或将信息发送到所述ECU或通信地耦合到网络114的其他装置。在所示的示例中,信息被格式化为CAN总线数据包。然而,可以另外或替代地使用任何其他数据格式和/或协议,诸如CANopen协议、CiA协议、SAE J1939协议、超文本传输协议(HTTP)、HTTP安全(HTTPS)协议、简单邮件传输协议(SMTP)等。
在图2所示的示例中,目标跟踪器100包括表面评估器210以对图1A的地面106进行表征。例如,表面评估器210可以对地面106的表面类型、表面品质等进行表征。在一些示例中,表面评估器210基于传感器测量值来对地面106进行表征。例如,表面评估器210可以基于来自包括在图1A的第一车辆102中的湿度传感器的测量值指示第一车辆102周围的空气中存在水分,而确定地面106的表面品质是湿的。在另一个示例中,表面评估器210可以基于加速计传感器测量到由于地面106不平坦引起的振动,而确定地面106的表面类型是岩石地面或被岩石或类似材料覆盖。在又一个示例中,表面评估器210可以基于温度传感器指示冻结状况(例如,由第一车辆102经历的环境温度低于水的冰点)、挡风玻璃刮水器(例如,前挡风玻璃刮水器、后挡风玻璃刮水器等)被启用、防抱死制动系统被启用等,和/或它们的组合,而确定地面106的表面品质是积雪、有雪、被雪覆盖等。在另一示例中,表面评估器210可基于来自光传感器的测量值,而确定地面106的表面品质是未被照亮(例如,第一车辆102在夜间行驶、第一车辆102在隧道中等)。
在一些示例中,表面评估器210基于包括在第一车辆102中的致动器(例如,图1A的致动器118)的状态来对地面106进行表征。例如,表面评估器210可以通过以下方式来确定地面的表面品质是湿的:通过确定与挡风玻璃刮水器电联接的致动器118被启用而确定第一车辆102的挡风玻璃刮水器被启动。在另一个示例中,表面评估器210可以由于第一车辆102失去对地面106的牵引控制而确定电联接到防抱死制动系统模块260的致动器118被启用。例如,表面评估器210可以基于防抱死制动系统模块260的一个或多个部件的状态(例如,防抱死制动系统相关的致动器的状态为被启用),而将地面106的表面类型表征为被沙子或类似材料覆盖。在又一示例中,表面评估器210可以基于以下项中的至少一者而将地面106的表面品质表征为被雪或类似材料覆盖:(1)确定第一车辆102的挡风玻璃刮水器被启动,(2)监视第一车辆102的温度传感器指示冻结状况,或(3)防抱死制动系统或与防抱死制动系统相关联的部件被接合、启用等。
在一些示例中,表面评估器210通过确定第一车辆102的位置来对地面106进行表征。例如,表面评估器210可以通过以下方式来对地面106进行表征:访问互联网并查询气象服务以评估第一车辆102的当前位置所经历的天气。例如,表面评估器210可以通过从互联网气象服务获得关于第一车辆102所位于的区域的下雨天气报告而将地面106的表面品质表征为湿的。在另一示例中,表面评估器210可通过以下方式而将地面的表面类型表征为被沙子或类似材料覆盖:通过针对第一车辆102的位置查询GPS系统而确定所述第一车辆102位于沙滩上、沙漠中等。
在一些示例中,表面评估器210通过确定第一车辆102的位置以及当日时间和/或当年时间来对地面进行表征。例如,表面评估器210可以通过以下方式来对地面106进行表征:基于第一车辆102的位置和当日时间和/或当年时间来确定地面106所经历的照明条件。例如,表面评估器210可通过确定第一车辆102位于美国缅因州内、当年的时间是12月,并且当日时间是大致黄昏(例如,下午4:00、下午4:30等),而确定地面106的表面品质包括阴影或另一视觉测距方法抑制照明条件。
尽管本文描述的地面106的示例性表面类型包括岩石表面类型、沙质表面类型、沥青类型等,但是附加表面类型可以通过图2的示例性表面评估器210来表征,和/或更一般地通过图1A和/或图2的示例性目标跟踪器100来表征。尽管本文描述的地面106的示例表面品质包括干表面品质、湿表面品质、雪表面品质、暗(未被照亮)表面品质、照亮表面品质等,但是附加表面品质可以通过图2的示例性表面评估器210来表征,和/或更一般地通过图1A和/或图2的示例性目标跟踪器100来表征。
在图2所示的示例中,目标跟踪器100包括位移确定器215,以使用阿克曼测距法确定第二车辆104相对于第一车辆102的位置变化。例如,位移确定器215可以基于车辆速度或方向盘转角数据中的至少一者来计算第二车辆104相对于第一车辆102的位移。例如,位移确定器215可以从发动机控制模块270获得车辆速度数据和方向盘转角数据。在一些示例中,位移确定器215随时间积分车辆速度数据,并且使用阿克曼几何来计算第二车辆104相对于第一车辆102的横向位移、纵向位移等,和/或它们的组合。
在图2所示的示例中,目标跟踪器100包括地面特征跟踪器220,以通过基于从相机系统110获得的相机系统信息来跟踪地面106上的一个或多个凸点(例如,由地面特征跟踪算法所识别的相机图像中包括的显著或突出的特征)而确定测距参数。例如,地面特征跟踪器220可以处理相机图像,并基于使用GFT方法处理相机图像来生成测距数据。在一些示例中,地面特征跟踪器220通过使用诸如Lucas-Kanade方法或Horn-Schunk方法之类的光流技术来跟踪连续图像帧上的凸点。例如,地面特征跟踪器220可以跟踪凸点从图像帧到图像帧的运动,其中所述运动对应于第一车辆102相对于第二车辆104的运动。
在图2所示的示例中,目标跟踪器100包括全局运动矢量确定器225,以通过基于从相机系统110获得的相机系统信息来跟踪包括地面106在内的整个图像帧上的一个或多个凸点而确定测距参数。例如,全局运动矢量确定器225可以处理相机图像,并基于使用GMV方法处理相机图像来生成测距数据。在一些示例中,全局运动矢量确定器225生成本质矩阵,并基于所述本质矩阵来计算姿势。例如,全局运动矢量确定器225可以识别第二车辆104上的点M,所述点M投射到第一图像中的第一图像平面和第二图像中的第二图像平面点M可以由4×1矩阵表示,并且所述图像平面中的每个图像平面可以由3×1矩阵表示。在一些示例中,当包括在相机系统110中的相机被校准时,包括归一化坐标(例如,是相对于相机的坐标帧给出的)。
使用归一化坐标,图2的全局运动矢量确定器225可以生成极线约束,所述极线约束表示从第一图像中的第一车辆104上的第一成像点的第一光学中心到相机的第一矢量、从第二图像中的第二车辆104上的第二图像点的第二光学中心到相机的第二矢量,以及从所述第一光学中心到所述第二光学中心的第三矢量都是共面的。在归一化坐标的情况下,全局运动矢量确定器225可以如下所述将极线约束表达为等式(1):
等式(1)
在上面的等式(1)的所示示例中,R表示旋转并且t表示第一成像点与第二成像点的坐标帧之间的平移。例如,乘以R将变换成第二成像点的坐标帧。通过将[t]x定义为矩阵,使得[t]xy=t x y对于任何矢量y,全局运动矢量确定器225可以将等式(1)表示为如下所述的等式(2):
等式(2)
在所示的等式(2)的示例中,E是本质矩阵并且定义为E=[t]xR。在所示的等式(2)的示例中,全局运动矢量确定器225确定所述本质矩阵。例如,全局运动矢量确定器225可以通过确定本质矩阵来确定第二车辆104上的第一成像点和第二成像点相对于包括在第一车辆102的相机系统110中的相机的相对位置和取向。例如,全局运动矢量确定器225可以通过确定本质矩阵来计算与第二车辆104上的第一成像点和第二成像点相对应的一个或多个测距参数。
在图2所示的示例中,目标跟踪器100包括方法融合器230,以确定用于计算测距参数的一种或多种测距方法。在一些示例中,方法融合器230通过分析图1A的第一车辆102的车辆速度而确定使用阿克曼测距方法。例如,当车辆速度小于车辆速度阈值时,方法融合器230可以确定不使用由阿克曼测距方法生成的数据。例如,当0 kph的车辆速度小于1 kph的车辆速度阈值时,方法融合器230可以确定不使用阿克曼测距数据。例如,当车辆速度大于或等于1 kph时,方法融合器230可以确定使用阿克曼测距数据。
在一些示例中,方法融合器230基于地面106的表征而确定使用视觉测距方法。例如,方法融合器230可以基于地面表征而选择GFT方法、GMV方法等来来计算测距数据。例如,当表面评估器210将地面表征为湿的时,方法融合器230可以确定使用GMV方法。例如,方法融合器230可以因为来自地面106的光反射率由于下雨、下雪等增大而确定不能检测到凸点(例如,在预定的可检测性容限内可靠地检测到)。在另一个示例中,方法融合器230可以由于计算资源的可用性降低、由于GMV方法在计算上比GFT方法更昂贵,而确定使用GFT方法。
在一些示例中,方法融合器230确定由目标跟踪器100用来计算测距参数的一个或多个方法权重因子。例如,方法融合器230可以确定将由目标跟踪器100使用的阿克曼测距方法、GFT方法、GMV方法等的方法权重因子。例如,方法融合器230可以融合由阿克曼测距方法、GFT方法、GMV方法等和/或它们的组合产生的数据。
在一些示例中,方法融合器230基于车辆速度来确定方法权重因子。例如,如果车辆速度小于车辆速度阈值(例如,1kph),则可以将从网络114获得的车辆速度降低到0kph。例如,目标跟踪器100可能基于0kph的车辆速度而使用阿克曼测距方法产生不可靠的测距参数。例如,方法融合器230可以在车辆速度低于车辆速度阈值时阻止由阿克曼测距方法生成的数据被使用。例如,方法融合器230可以将车辆速度与车辆速度阈值进行比较,并基于所述比较来确定车辆速度是否满足车辆速度阈值。例如,方法融合器230可将2kph的车辆速度与1kph的车辆速度阈值进行比较,并基于所述比较而确定车辆速度满足车辆速度阈值。响应于确定车辆速度满足车辆速度阈值,方法融合器230可以确定阿克曼测距方法权重因子的非零值。响应于确定车辆速度不满足车辆速度阈值,方法融合器230可以计算出阿克曼测距方法的方法权重因子为0。
在一些示例中,方法融合器230基于以下项来确定一种或多种视觉测距方法的方法权重因子:(1)确定用于计算测距参数的视觉测距方法,和/或(2)地面106的表征。例如,当地面106是湿的时,方法融合器230可以计算出阿克曼方法权重因子为1并且GFT方法权重因子为0,因为GFT方法对地面反射率高度敏感并且可能无法很好地分析湿表面的图像。在另一个示例中,当地面106被沙子或类似材料覆盖时,方法融合器230可以计算出阿克曼方法权重因子为0.5并且GMV方法权重因子为0.5。例如,当地面被沙子覆盖时,第一车辆102可能失去对地面106的牵引控制,因此,方法融合器230可以将GMV测距数据与阿克曼测距数据融合,以校正使用阿克曼测距方法计算的测距参数中的累积漂移。
在图2所示的示例中,目标跟踪器100包括测距计算器235,以基于来自一种或多种测距方法的数据计算测距参数。在一些示例中,测距计算器235基于一个或多个方法权重因子来计算测距参数。例如,测距计算器235可以获得与阿克曼测距方法、GFT测距方法、GMV测距方法等相对应的方法权重因子。在一些示例中,测距计算器235基于所述方法权重因子来确定是否执行某一测距方法。例如,当GFT方法权重因子大于零时,测距计算器235可以执行GFT测距方法。在另一示例中,当阿克曼方法权重因子为零时,测距计算器235可以不执行阿克曼测距方法。
在一些示例中,测距计算器235基于执行一种或多种测距方法和相应的方法权重因子来确定测距参数。例如,测距计算器235可以通过确定阿克曼测距方法和GFT测距方法的方法权重因子大于零而执行阿克曼测距方法和GFT测距方法。示例性测距计算器235可以通过基于相应的方法权重因子将阿克曼测距数据与GFT测距数据融合,来计算测距参数。例如,测距计算器235可以通过以下方式而基于60%的阿克曼测距数据和40%的GFT测距数据来计算测距参数:(1)将阿克曼测距数据乘以第一方法权重因子0.6以确定第一测距数据,(2)将GFT测距数据乘以第二方法权重因子0.4以确定第二测距数据,以及(3)添加所述第一测距数据和所述第二测距数据。
在一些示例中,测距计算器235通过使用跟踪滤波器来计算测距参数。在一些示例中,跟踪滤波器是经典观测器、逆雅可比跟踪滤波器、卡尔曼滤波器(例如,线性二次估计、最佳观测器等)、最小二乘跟踪滤波器等。例如,测距计算器235可以使用卡尔曼滤波器来处理随时间观察到的一系列测量值(例如,相机系统信息、车辆传感器信息、测距参数等),其中所述测量值包括统计噪声和其他不准确之处,并且产生对未知变量的估计。在此类示例中,测距计算器235通过估计每个感兴趣的时间帧的变量的联合概率分布来生成估计。
在一些示例中,测距计算器235通过确定要执行或处理的测距方法来确定要使用的噪声模型(例如,加性高斯白噪声模型、高斯噪声模型、泊松-高斯噪声模型等)。例如,测距计算器235可以获得测距方法的方法权重因子,并且基于所述方法权重因子来确定是否要处理所述测距方法。例如,测距计算器235可以获得GFT方法权重因子0.5,并且通过确定所述GFT方法权重因子大于零来确定执行GFT方法。示例性测距计算器235可以基于确定要处理GFT方法来获得与所述GFT方法相对应的噪声模型(例如,GFT噪声模型)。响应于获得GFT噪声模型,示例性测距计算器235可以基于通过GFT方法使用GFT噪声模型计算的测距参数,执行卡尔曼滤波器来计算测距参数估计。
在一些示例中,测距计算器235确定是否继续计算测距参数。例如,当第一车辆102已完成请求测距参数的车辆动作时,测距计算器235可确定停止计算测距参数。例如,测距计算器235可以确定第一车辆102已经完成了倒车车辆操纵控制、第一车辆102已经停车等。在一些示例中,测距计算器235基于接收到相机系统信息而确定继续计算测距参数。例如,网络接口205可以继续从倒车相机接收图像,并使测距计算器235处理所述图像和基于经处理的图像计算测距参数。
在图2所示的示例中,目标跟踪器100包括权重因子优化器240,以通过实现诸如使用神经网络的机器学习技术来优化和/或以其他方式改进对测距参数的估计。例如,权重因子优化器240可以使用人工神经网络来通过以下方式逐步改善测距参数估计:通过比较测距参数估计与随时间的实际测距参数来确认来自阿克曼测距方法、视觉测距方法等的哪些信息是可靠的。例如,权重因子优化器240可以将来自可用的测距测定方法中的每一者的可靠信息融合在一起,以调整分配给测距方法中的一者或多者的方法权重因子。在此类示例中,权重因子优化器240可以确定与横向位移估计相比,对于纵向位移估计由阿克曼测距方法确定的测距参数更准确。示例性权重因子优化器240可以在确定纵向位移时增加阿克曼测距数据的方法权重因子,并且在确定横向位移时减小视觉测距方法的方法权重因子。示例性权重因子优化器240可以使用人工神经网络来随时间辨识此类模式,并基于地面106的表征、由第一车辆102执行的当前车辆动作等来调整一个或多个方法权重因子。
在图2所示的示例中,目标跟踪器100包括车辆命令发生器245,以基于由目标跟踪器100计算的测距参数来生成车辆命令。在一些示例中,车辆命令发生器245生成指示包括在第一车辆102中的一个或多个ECU执行车辆动作的车辆命令,所述车辆动作为诸如执行自主驾驶操纵控制(例如,沿着路面向前行驶、转弯、等等)、自主倒车操纵控制(例如,在没有用户输入的情况下朝向目标物体倒车)、启用致动器(例如,图1A的致动器118)、降低车辆速度等。例如,当第一车辆102与第二车辆104之间的距离减小时,车辆命令发生器245可以生成指示发动机控制模块270降低车辆速度的车辆命令。示例性车辆命令发生器245可以基于通过计算和分析由目标跟踪器100确定的测距参数而辨识出第一车辆102正越来越接近(例如,未维持指定的跟随距离)第二车辆104,而生成降低车辆速度的车辆命令。
在一些示例中,车辆命令发生器245生成指示第一车辆102从第一位置移动到第二位置的车辆命令。另外地或替代地,在一些示例中,车辆命令发生器245生成将第一车辆102的轨迹或行进路线从第一轨迹改变为第二轨迹的车辆命令。例如,车辆命令发生器245可以生成指示第一车辆102从距第二车辆104第一距离的第一位置移动到距第二车辆104第二距离的第二位置的车辆命令,其中所述第二距离大于所述第一距离(例如,第一车辆102被引导以增大相对于第二车辆104的跟随距离)。在另一示例中,车辆命令发生器245可以生成指示第一车辆102改变第一车辆102相对于第二车辆104的路径或轨迹的车辆命令。例如,车辆命令可以指示第一车辆102与第一车辆102先前使用的第二角度相比以第一角度接近第二车辆104,其中所述第一角度大于所述第二角度以避免与第二车辆104接触。
在一些示例中,车辆命令发生器245生成声音警报和/或视觉警报、警示、警告等。例如,车辆命令发生器245可以基于第一车辆102的当前车辆动作(例如,当前车辆速度、当前运动方向、当前方向盘转角等)和由目标跟踪器100计算的测距参数,而生成基于文本的警报以在包括于第一车辆102中的一个或多个显示器上的一个或多个用户界面上显示,所述基于文本的警报指示第一车辆102将与第二车辆104接触、正在保持安全的跟随距离等。
在图2所示的示例中,示例性目标跟踪器100包括数据库250以记录数据(例如,车辆传感器信息、相机系统信息、表面表征、测距数据、方法权重因子、车辆命令等)。数据库250可以由易失性存储器(例如,同步动态随机存取存储器(SDRAM)、动态随机存取存储器(DRAM)、RAMBUS动态随机存取存储器(RDRAM)等)和/或非易失性存储器(例如,快闪存储器)实施。数据库250可以另外或另选地由一个或多个双倍数据速率(DDR)存储器实施,诸如DDR、DDR2、DDR3、DDR4、移动DDR(mDDR)等。数据库250可以另外或另选地通过一个或多个大容量存储装置实施,诸如硬盘驱动器、光盘驱动器、数字通用磁盘驱动器、固态磁盘驱动器等。虽然在所示示例中,数据库250被示为单个数据库,但是数据库250可以由任何数量和/或类型的数据库来实施。此外,存储在数据库250中的数据可以是任何数据格式,举例来说,诸如二进制数据、逗号分隔数据、制表符分隔数据、结构化查询语言(SQL)结构等。
在图2所示的示例中,车辆控制系统200包括防抱死制动系统模块260,以使得图1A的车轮108能够在制动时根据驾驶员输入保持与地面106的牵引接触。防抱死制动系统模块260防止车轮108抱死(例如,停止旋转)以避免不受控制的打滑。图2的防抱死制动系统模块260从一个或多个车辆致动器或传感器(例如,(例如,图1A的传感器116、图1A的致动器118等)获得传感器信息,所述传感器为诸如车轮速度传感器、行驶高度传感器、加速计、螺线管等。防抱死制动系统模块260可以处理所述传感器信息。
在图2所示的示例中,车辆控制系统200包括车辆动力学模块265,以响应于由驾驶员提供的输入、地面106、诸如风的外部环境因素等来产生第一车辆102的移动。第一车辆102的示例性移动可以包括速度、转弯速率、纵向加速度等。图2的车辆动力学模块265可以通过将所述输入转换、缩放、变换和/或以其他方式处理为可以由示例性目标跟踪器100使用的模拟格式或数字格式来处理所述输入。
在图2所示的示例中,车辆控制系统200包括发动机控制模块270,以控制第一车辆102的马达(例如,电动马达)或内燃发动机来确保最佳的动力传动系统性能。图2的发动机控制模块270从多个各种类型的传感器获得传感器信息,所述多个各种类型的传感器测量与第一车辆102的发动机以及其他系统相关的参数。例如,发动机控制模块270可以获得车辆传感器信息,诸如车辆速度、方向盘转角信息等。图2的发动机控制模块270通过使用多维性能图(例如,查找表)来解释所述信息,并基于经解释的信息来控制发动机。示例发动机控制模块270可以通过将获得的信息转换、缩放、变换和/或以其他方式处理为可以由示例性目标跟踪器100使用的模拟格式或数字格式来处理所获得的信息。
虽然图2中示出了实施图1A的示例性目标跟踪器100的示例性方式,但是图2中示出的元件、过程和/或装置中的一个或多个可以以任何其他方式组合、划分、重新布置、省略、消除和/或实施。此外,示例性网络接口205、示例性表面评估器210、示例性位移确定器215、示例性地面特征跟踪器220、示例性全局运动矢量确定器225、示例性方法融合器230、示例性测距计算器235、示例权重因子优化器240、示例性车辆命令发生器245,和/或更一般地图1A的示例性目标跟踪器100,可以通过硬件,软件,固件,和/或硬件、软件和/或固件的任何组合来实现。因此,例如,示例性网络接口205、示例性表面评估器210、示例性位移确定器215、示例性地面特征跟踪器220、示例性全局运动矢量确定器225、示例性方法融合器230、示例性测距计算器235、示例性权重因子优化器240、示例性车辆命令发生器245、和/或更一般地示例性目标跟踪器100中的任一者,可以由一个或多个模拟电路或数字电路、逻辑电路、可编程处理器、可编程控制器、图形处理单元(GPU)、数字信号处理器(DSP)、专用集成电路(ASIC)、可编程逻辑装置(PLD)和/或现场可编程逻辑装置(FPLD)实现。当阅读本专利的设备或系统权利要求中的任一项以涵盖纯粹的软件和/或固件实现时,示例性网络接口205、示例性表面评估器210、示例性位移确定器215、示例性地面特征跟踪器220、示例性全局运动矢量确定器225、示例性方法融合器230、示例性测距计算器235、示例性权重因子优化器240和/或示例性车辆命令发生器245中的至少一者由此被明确地定义为包括非暂时性计算机可读存储装置或存储盘,诸如存储器、数字通用盘(DVD)、光盘(CD)、蓝光盘等,包括软件和/或固件。此外,除了图2中图示说明的那些之外,或者代替图2中图示说明的那些,图1A的示例性目标跟踪器100还可包括一个或多个元件、过程和/或装置,和/或可包括一个以上的任何或所有图示说明的元件、过程和装置。如本文所使用的,短语“在通信中”,包括其变体在内,涵盖通过一个或多个中介部件的直接通信和/或间接通信,并且不需要直接物理(例如,有线)通信和/或持续通信,而是另外还包括周期性间隔、预定间隔、非周期性间隔和/或一次性事件的选择性通信。
表示用于实现图1A和/或图2的示例性目标跟踪器100的示例硬件逻辑或机器可读指令的流程图示出于图3至图8中。机器可读指令可以是由处理器(诸如下面结合图9讨论的示例性处理器平台900中示出的处理器912)执行的程序或程序的一部分。所述程序可以体现在存储在非暂时性计算机可读存储介质(诸如CD-ROM、软盘、硬盘驱动器、DVD、蓝光光盘或与处理器912相关联的存储器)上的软件中,但是整个程序和/或其部分可以另选地由除处理器912之外的装置执行和/或体现在固件或专用硬件中。此外,尽管参考图3至图8中所图示说明的流程图描述了示例性程序,但是可以替代地使用实施示例性目标跟踪器100的许多其他方法。例如,可以改变框的执行顺序,和/或可以改变、消除或组合所描述的框中的一些。此外或另选地,任何或所有框可以由一个或多个硬件电路(例如,分立和/或集成的模拟和/或数字电路、FPGA、ASIC、比较器、运算放大器(op-amp)、逻辑电路等)来实施,所述一个或多个硬件电路被结构化成在不执行软件或固件的情况下执行对应的操作。
如上所述,图3至图8的示例性过程可以使用存储在非暂时性计算机和/或机器可读介质(诸如硬盘驱动器、快闪存储器、只读存储器、光盘、数字通用盘、高速缓存、随机存取存储器和/或任何其他存储装置或存储盘,其中信息被存储任何持续时间(例如,长时间、永久地、用于简短实例、用于暂时缓冲和/或用于高速缓存信息))上的可执行指令(例如,计算机和/或机器可读指令)来实施。如本文所使用,术语非暂时性计算机可读介质明确地定义为包括任何类型的计算机可读存储装置和/或存储盘,并且排除传播信号并排除传输介质。
“包括”和“包含”(及其所有形式和时态)在本文中用作开放式术语。因此,每当权利要求采用任何形式的“包括(include)”或“包含(comprise)”(例如,包含(comprises)、包括(includes)、包含(comprising)、包括(including)、具有(having)等)作为前序或在任何类型的权利要求叙述中时,应理解,可在不超出对应权利要求或叙述的范围的情况下存在附加要素、术语等。如本文所使用,当短语“至少”被用作例如权利要求的前序中的过渡术语时,它以与术语“包含(comprising)”和“包括(including)”是开放式的相同方式是开放式的。术语“和/或”当例如以诸如A、B和/或C的形式使用时是指A、B、C的任何组合或子集,诸如(1)单独的A、(2)单独的B、(3)单独的C、(4)A与B、(5)A与C,以及(6)B与C。
图3是表示示例性方法300的流程图,所述示例性方法300可以由图1A和/或图2的示例性目标跟踪器100执行以基于地面的表征来计算测距参数。示例性方法300开始于框302,此时示例性目标跟踪器100对表面类型进行表征。例如,表面评估器210可以将地面106表征为不平坦的(例如,地面106导致第一车辆102在运动时振动,从加速计获得的测量值指示不平坦表面等)。例如,表面评估器210可以将不平坦的地面表征为岩石地面或被岩石或类似材料覆盖。在另一示例中,表面评估器210可以将地面的表面类型表征为打滑的或摩擦挑战性的(friction-challenging)。例如,表面评估器210可以将打滑的地面表征为沙质的或被沙子或类似材料覆盖等。下面结合图4A描述可以用于实现框302的示例性过程。
在框304处,示例性目标跟踪器100对表面品质进行表征。例如,表面评估器210可以基于确定地面106的光反射率来表征图1A的地面106的品质。例如,表面评估器210可以基于地面106的光反射率特性与地面106干燥时地面106的光反射特性相比增加,而将地面106的品质表征为湿的或被水分、雪等覆盖。下面结合图4B来描述可用于实现框304的示例过程。
在框306处,示例性目标跟踪器100基于经表征的表面来确定视觉测距方法。例如,图2的方法融合器230可以基于表面评估器210对地面106的地面类型和/或表面品质进行表征,而确定使用视觉测距方法。例如,方法融合器230可以基于表面评估器210将地面106表征为湿沥青而确定使用GMV视觉测距方法。
在框308处,示例性目标跟踪器100确定是选择地面特征跟踪(GFT)方法还是全局运动矢量(GMV)方法。例如,方法融合器230可能已经因为表面评估器210将地面106的表面品质表征为湿的或被雪覆盖而确定使用GMV方法。
如果在框308处,示例性目标跟踪器100确定选择GFT方法,则在框310处,目标跟踪器100基于在经表征的表面上使用GFT方法来计算方法权重因子。例如,方法融合器230可以基于确定在沥青表面上使用GFT方法,而计算出阿克曼方法权重因子为0.4并且GFT方法权重因子为0.6。下面结合图5来描述可用于实现框310的示例过程。
如果在框308处,示例性目标跟踪器100确定选择了GMV方法,则控制前进到框312以在经表征的表面上使用GMV方法来计算方法权重因子。例如,方法融合器230可以基于确定在湿表面上使用GMV方法,而计算出阿克曼方法权重因子为0.5并且GMV方法权重因子为0.5。下面结合图6来描述可用于实现框312的示例过程。
在框314处,示例性目标跟踪器100基于方法权重因子而使用一种或多种方法来计算测距参数。例如,测距计算器235可以通过以下方式来计算测距参数:基于阿克曼方法权重因子为0.5、GFT方法权重因子为0.5并且GMV方法权重因子为0,而组合和/或以其他方式融合通过使用阿克曼方法生成的数据和通过使用GFT方法生成的数据。下面结合图7和/或图8来描述可用于实现框314的一些示例过程。
在框316处,示例性目标跟踪器100基于测距参数来生成车辆命令。例如,车辆命令发生器245可以通过分析计算出的测距参数,基于第二车辆104相对于图1A的第一车辆102的当前位置,而生成指示第一车辆102增大相对于图1A的第二车辆104的跟随距离的车辆命令。
在框318处,示例性目标跟踪器100发送车辆命令以使得执行车辆动作。例如,车辆命令发生器245可以将车辆命令发送到图2的发动机控制模块270,以降低第一车辆102的车辆速度、增大第一车辆102中包含的方向盘的方向盘转角等。
在框320处,示例性目标跟踪器100确定是否继续计算测距参数。例如,测距计算器235可以基于网络接口205接收到要处理的另一个相机图像或一组相机图像而继续计算测距参数。如果在框320处,示例性目标跟踪器100确定继续计算测距参数,则控制返回到框314以基于方法权重因子使用一种或多种方法继续计算测距参数,否则示例性方法300结束。
图4A是表示示例性方法400的流程图,所述示例性方法400可以由图1A和/或图2的示例性目标跟踪器100执行以对表面类型进行表征。图4A的示例过程可用于实现图3的框302的操作。
示例性方法400在框402处开始,此时示例性目标跟踪器100确定加速计传感器是否指示不平坦表面。例如,表面评估器210可以确定来自包括在第一车辆102中的加速计传感器的测量值指示第一车辆102正在经历与在诸如被岩石或类似材料覆盖的表面之类的不平坦表面上行驶一致的振动。
如果在框402处,示例性目标跟踪器100确定加速计传感器不指示不平坦表面,则控制前进到框406以确定是否接合防抱死制动系统。如果在框402处,示例性目标跟踪器100确定加速计传感器指示不平坦表面,则在框404处,目标跟踪器100将表面表征为被岩石或类似材料覆盖。例如,表面评估器210可以将地面106的表面类型表征为被岩石或类似材料覆盖。响应于将表面表征为被岩石或类似材料覆盖,示例性方法400返回到图3的示例性方法300的框304以对表面品质进行表征。
在框406处,示例性目标跟踪器100确定防抱死制动系统是否被接合。例如,表面评估器210可以确定诸如致动器、压力传感器等的防抱死制动系统部件的状态指示防抱死制动系统被接合,这可以表示图1A的车轮108当在被雪或类似材料覆盖的表面上行驶时失去牵引力控制。
如果在框406处,示例性目标跟踪器100确定防抱死制动系统未被接合,则控制前进到框410以将表面表征为被沥青或类似材料覆盖。例如,目标跟踪器100可以确定缺乏不平坦表面、打滑表面材料等,和/或它们的组合指示地面106基本上是光滑的,这可以表示地面106被沥青、混凝土或其他类似光滑的材料表面覆盖。响应于将表面表征为被沥青或类似材料覆盖,示例性方法400返回到图3的示例性方法300的框304以对表面品质进行表征。
如果在框406处,示例性目标跟踪器100确定防抱死制动系统被接合,则在框408处,目标跟踪器100将表面表征为被沙子或类似材料覆盖。例如,表面评估器210可以响应于基于防抱死系统被接合而确定车轮108正在失去牵引控制,而将地面106的表面类型表征为被沙子或类似材料覆盖。响应于将表面表征为被沙子或类似材料覆盖,示例性方法400返回到图3的示例性方法300的框304以对表面品质进行表征。
图4B是表示示例性方法420的流程图,所述示例性方法420可以由图1A和/或图2的示例性目标跟踪器100执行以对表面品质进行表征。图4B的示例过程可用于实现图3的框304的操作。
示例性方法420开始于框422,此时示例性目标跟踪器100确定光传感器是否指示干表面。例如,表面评估器210可以确定来自包括在第一车辆102中的光传感器的测量值指示图1A的地面106是干的(例如,地面106具有干表面品质)。例如,表面评估器210可以将与图1A的地面106相对应的光传感器测量值和与干地面相对应的光传感器测量值(例如,与干地面相对应的存储的光传感器测量值、参考光传感器测量值等)进行比较,并且基于所述比较确定地面106是干的。
如果在框422处,示例性目标跟踪器100确定光传感器指示干表面,则控制前进到框434以将表面表征为干的。例如,表面评估器210可以将地表面106的表面品质表征为干的。响应于将表面表征为干的,示例性方法420返回到图3的示例性方法300的框306,以基于经表征的表面来确定视觉测距方法。
如果在框422处,示例性目标跟踪器100确定光传感器不指示干表面,则在框424处,目标跟踪器100确定挡风玻璃刮水器是否被启动。例如,表面评估器210可以确定电联接到挡风玻璃刮水器的致动器的状态是被启用的,这指示第一车辆102正在经历下雨并且指示地面106的表面品质是湿的或被雪覆盖的。
如果在框424处,示例性目标跟踪器100确定挡风玻璃刮水器未被启动,则控制前进到框428以确定是否接合防抱死制动系统。如果在框424处,示例性目标跟踪器100确定挡风玻璃刮水器被启动,则在框426处,目标跟踪器100确定温度传感器是否指示冻结状况。例如,表面评估器210可以确定从监视第一车辆102所经历的环境温度的温度传感器获得的测量值指示冻结状况。
如果在框426处,示例性目标跟踪器100确定温度传感器不指示冻结状况,则控制前进到框432以将表面表征为湿的。例如,表面评估器210可以确定地面106的表面品质是湿的(例如,被水或类似的液体覆盖)。如果在框426处,示例性目标跟踪器100确定温度传感器指示冻结状况,则在框428处,目标跟踪器100确定防抱死制动系统是否被接合。例如,表面评估器210可以确定诸如致动器、压力传感器等的防抱死制动系统部件的状态指示防抱死制动系统被接合,这可以表示图1A的车轮108当在被雪或类似材料覆盖的表面上行驶时失去牵引控制。
如果在框428处,示例性目标跟踪器100确定防抱死制动系统未被接合,则控制前进到框432以将表面表征为湿的。如果在框428处,示例性目标跟踪器100确定防抱死制动系统被接合,则在框430处,目标跟踪器100将表面表征为被雪或类似材料覆盖。例如,表面评估器210可以将地表面106的表面品质表征为被雪覆盖。响应于将表面表征为被雪或类似材料覆盖,示例性方法400返回到图3的示例性方法300的框306,以基于经表征的表面来确定视觉测距方法。
图5是表示示例性方法500的流程图,所述示例性方法500可以由图1A和/或图2的示例性目标跟踪器100执行以基于在经表征的表面上使用GFT来计算方法权重因子。图5的示例过程可用于实现图3的框310的操作。
示例性方法500开始于框502,此时示例性目标跟踪器100确定表面是否是湿的。例如,由于GFT方法对来自地面106的光反射率高度敏感(所述光反射率当地面106被雪或水覆盖时可能发生),所以方法融合器230可确定当地面106是湿的(例如,湿沥青、湿沙子、湿岩石等)时不应使用GFT方法。
如果在框502处,示例性目标跟踪器100确定地面不是湿的,则控制前进到框506以确定地面是否被沙子或类似材料覆盖。如果在框502处,示例性目标跟踪器100确定地面是湿的,则在框504处,目标跟踪器100计算出GFT方法权重因子(MWF)为0并且阿克曼(ACK)MWF为1。例如,方法融合器230可以因为GFT方法可能不如ACK方法那样精确地工作而计算出GFTMWF为0并且ACK MWF为1,并且GFT测距数据不应与ACK测距数据融合。或者,示例性方法融合器230可以响应于将地面106表征为湿的而计算任何其他GFT MWF和/或ACK MWF。
在框506处,示例性目标跟踪器100确定表面是否被沙子或类似材料覆盖。例如,方法融合器230可以由于当地面106被沙子(例如,干沙子、湿沙子等)或类似材料覆盖时图1A的车轮108失去牵引控制并导致车辆速度误差随时间累积,而确定ACK方法生成较不准确的数据。示例性方法融合器230可以通过将ACK测距数据与GFT测距数据融合来提高ACK测距数据的准确性。
如果在框506处,示例性目标跟踪器100确定表面未被沙子或类似材料覆盖,则控制前进到框510以确定表面是否被岩石或类似材料覆盖。如果在框506处,示例性目标跟踪器100确定表面被沙子或类似材料覆盖,则在框508,目标跟踪器100计算出GFT MWF为0.5并且ACK MWF为0.5。例如,方法融合器230可以因为与当表面未被沙子或类似材料覆盖时产生的测距数据相比ACK方法可能不会产生准确的测距数据,而计算出GFT MWF为0.5并且ACKMWF为0.5。例如,方法融合器230可以确定将ACK测距数据与GFT测距数据融合。或者,示例性方法融合器230可以响应于将地面106表征为被沙子或类似材料覆盖而计算任何其他GFTMWF和/或ACK MWF。
在框510处,示例性目标跟踪器100确定表面是否被岩石或类似材料覆盖。例如,方法融合器230可以由于当地面106被岩石(例如,干岩石、湿岩石等)或类似材料覆盖时图1A的车轮108失去牵引控制并导致车辆速度误差随时间累积,而确定ACK方法生成较不准确的数据。示例性方法融合器230可以通过将ACK测距数据与GFT测距数据融合来提高ACK测距数据的准确性。
如果在框510处,示例性目标跟踪器100确定表面未被岩石或类似材料覆盖,则控制前进到框514以确定表面是否被沥青或类似材料覆盖。如果在框510处,示例性目标跟踪器100确定表面被岩石或类似材料覆盖,则在框512处,目标跟踪器100计算出GFT MWF大于0.5并且ACK MWF小于0.5。例如,方法融合器230可以因为与当表面未被岩石或类似材料覆盖时产生的测距数据相比ACK方法可能不会产生准确的测距数据,而计算出GFT MWF为0.75并且ACK MWF为0.25。例如,方法融合器230可以确定将ACK测距数据与GFT测距数据融合。或者,示例性方法融合器230可以响应于将地面106表征为被岩石或类似材料覆盖而计算任何其他GFT MWF和/或ACK MWF。
在框514处,示例性目标跟踪器100确定表面是否被沥青或类似材料覆盖。例如,方法融合器230可以确定当地面106被沥青或类似材料覆盖时,与GFT方法相比,ACK方法产生较不准确的横向位移测距数据。示例性方法融合器230可以通过将ACK测距数据与GFT测距数据融合来提高ACK测距数据的准确性。
如果在框514处,示例性目标跟踪器100确定表面未被沥青或类似材料覆盖,则控制前进到框518以确定车辆速度是否大于0kph。如果在框514处,示例性目标跟踪器100确定表面被沥青或类似材料覆盖,则在框516处,目标跟踪器100计算出GFT MWF大于0.5并且ACKMWF小于0.5。例如,方法融合器230可以因为当表面被沥青或类似材料覆盖时,ACK方法可能不会产生与GFT方法相比较准确的横向位移测距数据,而计算出GFT MWF为0.8并且ACK MWF为0.2。例如,方法融合器230可以确定将ACK测距数据与GFT测距数据融合。或者,示例性方法融合器230可以响应于将地面106表征为被沥青或类似材料覆盖而计算任何其他GFT MWF和/或ACK MWF。
在框518处,示例性目标跟踪器100确定车辆速度是否大于0kph。例如,方法融合器230可以确定图1A的第一车辆102的速度是0kph。示例性方法融合器230可以响应于当车辆速度小于1kph时将车辆速度降低到零,而确定不使用ACK测距数据。
如果在框518处,示例性目标跟踪器100确定车辆速度大于0kph,则示例性方法500返回到图3的示例性方法300的框314,以基于方法权重因子来使用一种或多种方法计算测距参数。
如果在框518处,示例性目标跟踪器100确定车辆速度不大于0kph,则在框520处,目标跟踪器100计算出GFT MWF为1并且ACK MWF为0。例如,方法融合器230可以因为当车辆速度为0kph时ACK方法可能产生不准确的测距数据而将ACK MWF调整为0,并且响应于将ACKMWF调整为0而将GFT MWF调整为1。响应于计算出GFT MWF为1并且ACK MWF为0,示例性方法500返回到图3的示例性方法300的框314,以基于方法权重因子来使用一种或多种方法计算测距参数。
图6是表示示例性方法600的流程图,所述示例性方法600可以由图1A和/或图2的示例性目标跟踪器100执行以基于在经表征的表面上使用GMV方法来计算方法权重因子。图6的示例过程可用于实现图3的框312的操作。
示例性方法600开始于框602,此时示例性目标跟踪器100确定表面是否是湿的。例如,方法融合器230可以由于当地面106是湿的(例如,湿沥青、湿沙子、湿岩石等)、被雪覆盖等时图1A的车轮108失去牵引控制并导致速度误差随时间推移累积,而确定ACK方法产生较不准确的数据。示例性方法融合器230可以通过将ACK测距数据与GMV测距数据融合来提高ACK测距数据的准确度。
如果在框602处,示例性目标跟踪器100确定地面不是湿的,则控制前进到框606以确定地面是否被沙子或类似材料覆盖。如果在框602处,示例性目标跟踪器100确定地面是湿的,则在框604处,目标跟踪器100计算出GMV MWF为0.5并且ACK MWF为0.5。例如,方法融合器230可以由于当地面106被雪、水等覆盖时图1A的车轮108失去牵引控制并导致车辆速度误差随时间累积,而确定ACK方法生成较不准确的数据。
在框606处,示例性目标跟踪器100确定表面是否被沙子或类似材料覆盖。例如,方法融合器230可以由于当地面106被沙子(例如,干沙子、湿沙子等)或类似材料覆盖时图1A的车轮108失去牵引控制并导致车辆速度误差随时间累积,而确定ACK方法生成较不准确的数据。示例性方法融合器230可以通过将ACK测距数据与GMV测距数据融合来提高ACK测距数据的准确性。
如果在框606处,示例性目标跟踪器100确定表面未被沙子或类似材料覆盖,则控制前进到框610以确定表面是否被岩石或类似材料覆盖。如果在框606处,示例性目标跟踪器100确定表面被沙子或类似材料覆盖,则在框608,目标跟踪器100计算出GMV MWF为0.5并且ACK MWF为0.5。例如,方法融合器230可以因为与当表面未被沙子或类似材料覆盖时产生的测距数据相比ACK方法可能不会产生准确的测距数据,而计算出GMV MWF为0.5并且ACKMWF为0.5。例如,方法融合器230可以确定将ACK测距数据与GMV测距数据融合以提高ACK测距数据的准确性。或者,示例性方法融合器230可以响应于将地面106表征为被沙子或类似材料覆盖而计算任何其他GMV MWF和/或ACK MWF。
在框610处,示例性目标跟踪器100确定表面是否被岩石或类似材料覆盖。例如,方法融合器230可以由于当地面106被岩石(例如,干岩石、湿岩石等)或类似材料覆盖时图1A的车轮108失去牵引控制并导致车辆速度误差随时间累积,而确定ACK方法生成较不准确的数据。示例性方法融合器230可以通过将ACK测距数据与GMV测距数据融合来提高ACK测距数据的准确性。
如果在框610处,示例性目标跟踪器100确定表面未被岩石或类似材料覆盖,则控制前进到框614以确定表面是否被沥青或类似材料覆盖。如果在框610处,示例性目标跟踪器100确定表面被岩石或类似材料覆盖,则在框612处,目标跟踪器100计算出GMV MWF大于0.5并且ACK MWF小于0.5。例如,方法融合器230可以因为与当表面未被岩石或类似材料覆盖时产生的测距数据相比ACK方法可能不会产生准确的测距数据,而计算出GMV MWF为0.6并且ACK MWF为0.4。例如,方法融合器230可以确定将ACK测距数据与GMV测距数据融合。或者,示例性方法融合器230可以响应于将地面106表征为被岩石或类似材料覆盖而计算任何其他GMV MWF和/或ACK MWF。
在框614处,示例性目标跟踪器100确定表面是否被沥青或类似材料覆盖。例如,方法融合器230可以确定当地面106被沥青(例如,干沥青、湿沥青等)或类似材料覆盖时,与GMV方法相比,ACK方法产生较不准确的横向位移测距数据。示例性方法融合器230可以通过将ACK测距数据与GMV测距数据融合来提高ACK测距数据的准确性。
如果在框614处,示例性目标跟踪器100确定表面未被沥青或类似材料覆盖,则控制前进到框618以确定车辆速度是否大于0kph。如果在框614处,示例性目标跟踪器100确定表面被沥青或类似材料覆盖,则在框616处,目标跟踪器100计算出GMV MWF大于0.5并且ACKMWF小于0.5。例如,方法融合器230可以因为当表面被沥青或类似材料覆盖时,ACK方法可能不会产生与GMV方法相比较准确的横向位移测距数据,而计算出GMV MWF为0.7并且ACK MWF为0.3。例如,方法融合器230可以确定将ACK测距数据与GMV测距数据融合。或者,示例性方法融合器230可以响应于将地面106表征为被沥青或类似材料覆盖而计算任何其他GMV MWF和/或ACK MWF。
在框618处,示例性目标跟踪器100确定车辆速度是否大于0kph。例如,方法融合器230可以确定图1A的第一车辆102的速度是0kph。示例性方法融合器230可以响应于当车辆速度小于1kph时将车辆速度降低到零,而确定不使用ACK测距数据。
如果在框618处,示例性目标跟踪器100确定车辆速度大于0kph,则示例性方法600返回到图3的示例性方法300的框314,以基于方法权重因子来使用一种或多种方法计算测距参数。
如果在框618处,示例性目标跟踪器100确定车辆速度不大于0kph,则在框620处,目标跟踪器100计算出GMV MWF为1并且ACK MWF为0。例如,方法融合器230可以因为当车辆速度为0kph时ACK方法可能产生不准确的测距数据而将ACK MWF调整为0,并且响应于将ACKMWF调整为0而将GMV MWF调整为1。响应于计算出GMV MWF为1并且ACK MWF为0,示例性方法600返回到图3的示例性方法300的框314,以基于方法权重因子来使用一种或多种方法计算测距参数。
图7是表示示例性方法700的流程图,所述示例性方法700可以由图1A和/或图2的示例性目标跟踪器100执行以基于方法权重因子使用一种或多种方法来计算测距参数。图7的示例过程可用于实现图3的框314的操作。
示例性方法700开始于框702、708和714,此时示例性目标跟踪器100获得方法权重因子。在框702处,示例性目标跟踪器100获得ACK方法权重因子。例如,如上面结合图5和/或图6所述,测距计算器235可以获得由方法融合器230计算的ACK方法权重因子。
在框704处,示例性目标跟踪器100确定方法权重因子是否大于零。例如,测距计算器235可以确定ACK方法权重因子大于零。如果在框704处,示例性目标跟踪器100确定方法权重因子不大于零,则控制返回到框702以获得另一ACK方法权重因子。如果在框704处,示例性目标跟踪器100确定方法权重因子大于零,则在框706处,目标跟踪器100执行ACK测距方法以计算测距参数。例如,测距计算器235可以基于第一车辆102的车辆速度信息、方向盘转角信息等,而使用ACK测距方法来计算图1A的第二车辆104相对于图1A的第一车辆102的纵向位移、横向位移等。
在框708处,示例性目标跟踪器100获得GFT方法权重因子。例如,如上面结合图5和/或图6所述,测距计算器235可以获得由方法融合器230计算的GFT方法权重因子。
在框710处,示例性目标跟踪器100确定方法权重因子是否大于零。例如,测距计算器235可以确定GFT方法权重因子大于零。
如果在框710处,示例性目标跟踪器100确定方法权重因子不大于零,则控制返回到框708以获得另一GFT方法权重因子。如果在框710处,示例性目标跟踪器100确定方法权重因子大于零,则在框712处,目标跟踪器100执行GFT测距方法以计算测距参数。例如,测距计算器235可以通过使用由图1A的相机系统110捕获的连续相机图像跟踪地面106上的凸点,而使用GFT测距方法计算第二车辆104相对于第一车辆102的纵向位移、横向位移等。
在框714处,示例性目标跟踪器100获得GMV方法权重因子。例如,如上面结合图5和/或图6所述,测距计算器235可以获得由方法融合器230计算的GMV方法权重因子。
在框716处,示例性目标跟踪器100确定方法权重因子是否大于零。例如,测距计算器235可以确定GMV方法权重因子大于零。
如果在框716处,示例性目标跟踪器100确定方法权重因子不大于零,则控制返回到框714以获得另一GMV方法权重因子。如果在框716处,示例性目标跟踪器100确定方法权重因子大于零,则在框718处,目标跟踪器100执行GMV测距方法以计算测距参数。例如,测距计算器235可以通过以下方式而使用GMV测距方法来计算第二车辆104相对于第一车辆102的纵向位移、横向位移等:通过使用由相机系统110捕获的连续相机图像生成本质矩阵,并使用所述本质矩阵在整个相机图像上跟踪凸点。
在框720处,示例性目标跟踪器100基于执行方法和对应的方法权重因子来确定测距参数。例如,测距计算器235可以使用一种或阿克曼测距方法和/或视觉测距方法来计算图1A的第二车辆104相对于图1A的第一车辆102的纵向位移、横向位移等。例如,测距计算器235可以通过仅使用阿克曼测距数据来计算测距参数。在另一示例中,测距计算器235可以通过仅使用GFT测距数据或GMV测距数据来计算测距参数。
在又一示例中,测距计算器235可通过将阿克曼测距数据与GFT测距数据、GMV测距数据等融合来计算测距参数。例如,测距计算器235可使用GFT测距方法来计算第一测距参数。示例性测距计算器235可使用阿克曼测距方法来计算第二测距参数。示例性测距计算器235可以基于第一测距参数和第二测距参数的融合来计算第三测距参数。例如,测距计算器235可以通过以下方式来计算第三测距参数:(1)将第一测距参数与GFT方法权重因子相乘,(2)将第二测距参数与阿克曼方法权重因子相乘,以及(3)计算第一测距参数与第二测距参数的总和以产生第三测距参数。
例如,测距计算器235可以基于阿克曼方法权重因子为0.6并且GFT方法权重因子为0.4,而基于60%的阿克曼测距数据和40%的GFT测距数据来计算测距参数。响应于基于执行方法和对应的方法权重因子确定测距参数,示例性方法700返回到图3的示例性方法300的框316,以基于测距参数生成车辆命令。
图8是表示示例性方法800的流程图,所述示例性方法800可以由图1A和/或图2的示例性目标跟踪器100执行以基于方法权重因子使用一种或多种方法来计算测距参数。图8的示例过程可用于实现图3的框314的操作。
示例性方法800开始于框802,此时示例性目标跟踪器100获得方法权重因子。例如,如上面结合图5和/或图6所述,测距计算器235可以获得由方法融合器230计算的一个或多个方法权重因子。例如,测距计算器235可以获得阿克曼方法权重因子、GFT方法权重因子、GMV方法权重因子等,和/或它们的组合。
在框804处,示例性目标跟踪器100基于方法权重因子来确定用于计算测距参数的方法。例如,测距计算器235可以基于非零方法权重因子来确定使用测距方法。例如,测距计算器235可以基于阿克曼方法权重因子为0.7、GFT方法权重因子为0.3并且GMV方法权重因子为0,而确定使用阿克曼测距方法和GFT测距方法。在另一示例中,测距计算器235可以基于阿克曼方法权重因子为0、GFT方法权重因子为0并且GMV方法权重因子为1,而确定使用GMV测距方法。
在框806处,示例性目标跟踪器100获得所确定的方法的噪声模型。例如,测距计算器235可以获得阿克曼噪声模型、GFT噪声模型、GMV噪声模型等,和/或它们的组合。例如,测距计算器235可响应于确定使用阿克曼测距模型和GFT测距模型来计算测距参数,而获得阿克曼噪声模型和GFT噪声模型。
在框808处,示例性目标跟踪器100执行跟踪过滤器以计算测距参数。例如,测距计算器235可以使用由阿克曼测距方法和GMV测距方法生成的测距数据来执行卡尔曼滤波器,以计算图1A的第二车辆104相对于图1A的第一车辆102的纵向位移、横向位移等。响应于执行跟踪滤波器以计算测距参数,示例性方法800返回到图3的示例性方法300的框316,以基于所述测距参数生成车辆命令。
图9是示例性处理器平台900的框图,所述示例性处理器平台900能够执行指令以实现图3至图8的方法来实现图1A和/或图2的示例性目标追踪器100。处理器平台900可以是例如服务器、个人计算机、工作站、自学习机(例如,神经网络)、移动装置(例如,手机、智能手机、诸如iPadTM的平板电脑)、个人数码助理(PDA)、头戴式耳机或其他可穿戴装置,或任何其他类型的计算装置。
所示示例的处理器平台900包括处理器912。所示示例的处理器912是硬件。例如,处理器912可以由来自任何期望的系列或制造商的一个或多个集成电路、逻辑电路、微处理器、GPU、DSP或控制器来实施。硬件处理器可以是基于半导体的(例如,基于硅的)装置。在该示例中,处理器912实现示例性表面评估器210、示例性位移确定器215、示例性地面特征跟踪器220、示例性全局运动矢量确定器225、示例性方法融合器230、示例性测距计算器235、示例权重因子优化器240和示例性车辆命令发生器245。
所示示例的处理器912包括本地存储器913(例如,高速缓存)。所示示例的处理器912经由总线918与包括易失性存储器914和非易失性存储器916的主存储器通信。易失性存储器914可以通过同步动态随机存取存储器(SDRAM)、动态随机存取存储器(DRAM)、动态随机存取存储器和/或任何其他类型的随机存取存储器装置来实施。非易失性存储器916可以由快闪存储器和/或任何其他期望类型的存储装置实施。对主存储器914、916的访问由存储器控制器控制。
图示说明的示例的处理器平台900还包括接口电路920。接口电路920可以通过任何类型的接口标准来实施,诸如以太网接口、通用串行总线(USB)、接口、近场通信(NFC)接口,和/或PCI express接口。接口电路920实现示例性网络接口205。
在所示示例中,一个或多个输入装置922连接到接口电路920。输入装置922允许用户将数据和/或命令输入到处理器912中。输入装置可以通过例如音频传感器、传声器、相机(静态或视频)、键盘、按钮、鼠标、触摸屏、轨迹板、轨迹球、等点装置(isopoint device)和/或语音识别系统来实施。
一个或多个输出装置924还连接到所示示例的接口电路920。输出装置924可以例如通过显示装置(例如,发光二极管(LED)、有机发光二极管(OLED)、液晶显示器(LCD)、阴极射线管显示器(CRT)、原地切换(in-place switching,IPS)显示器、触摸屏等)、触觉输出装置、打印机和/或扬声器来实施。因此,所示示例的接口电路920通常包括图形驱动程序卡、图形驱动程序芯片和/或图形驱动程序处理器。
所示示例的接口电路920还包括通信装置,诸如发射器、接收器、收发器、调制解调器、住宅网关、无线接入点和/或网络接口,以促进经由网络926与外部机器(例如,任何类型的计算装置)进行数据交换。通信可以经由例如以太网连接、数字用户线(DSL)连接、电话线连接、同轴电缆系统、卫星系统、直线对传式(line-of-site)无线系统、蜂窝电话系统等进行。网络926实现示例性网络114。
所示示例的处理器平台900还包括用于存储软件和/或数据的一个或多个大容量存储装置928。这种大容量存储装置928的示例包括软盘驱动器、硬盘驱动器、光盘驱动器、蓝光光盘驱动器、独立磁盘冗余阵列(RAID)系统,以及数字通用盘(DVD)驱动器。大容量存储装置928实现数据库250。
用于实施图3至图8的方法的机器可执行指令932可以存储在大容量存储装置928中、易失性存储器914中、非易失性存储器916中,和/或可卸除的非暂时性计算机可读存储介质(诸如CD或DVD)上。
从前述内容可以理解,已经公开了使用车辆相机系统执行视觉测距的示例性方法、设备和制品。准确跟踪诸如车辆的目标物体以执行自主驾驶操纵控制需要稳健地估计目标物体的特征,诸如高度、纵向距离、横向距离等。当使用单目相机来推断在此类配置中通常缺乏的深度信息时,本文公开的示例改进目标特征估计。本文公开的示例通过以下方式来校正在使用阿克曼测距方法时累积的误差:使用诸如地面特征跟踪和全局运动矢量估计之类的视觉测距方法来利用连续相机图像帧中的信息。本文公开的示例通过对车辆正行驶于的地面进行表征来确定要使用的视觉测距方法,以最小化和/或以其他方式减少计算与车辆动作相关的测距数据所需的计算量和存储资源。本文公开的示例减少了对诸如用于产生目标对象的立体图像的附加相机和用于存储和处理立体图像的附加计算和存储资源之类的附加硬件的需求。
虽然本文已公开某些示例性方法、设备和制品,但本专利的涵盖范围不限于此。相反,本专利涵盖完全属于本专利的权利要求范围内的所有方法、设备和制品。
根据本发明,提供了一种设备,所述设备具有:方法融合器,所述方法融合器用于使用表面表征来确定视觉测距方法以计算第一测距数据;位移确定器,所述位移确定器用于基于传感器信息来计算第二测距数据;测距计算器,所述测距计算器用于基于所述第一测距数据和所述第二测距数据来计算目标对象相对于车辆的测距参数;以及车辆命令发生器,所述车辆命令发生器用于基于所述测距参数来生成车辆命令。
根据一个实施例,本发明的特征还在于表面评估器,所述表面评估器用于通过确定表面的光反射率或者车辆正在行进的表面是否不平坦来确定所述表面表征。
根据一个实施例,所述视觉测距方法是地面特征跟踪方法或全局运动矢量方法中的至少一者。
根据一个实施例,所述测距参数是所述目标对象的横向位移、纵向位移或姿势中的至少一者。
根据一个实施例,所述传感器信息包括车辆速度或方向盘转角中的至少一者。
根据一个实施例,所述车辆命令包括在没有用户输入的情况下将所述车辆从第一位置移动到第二位置。
根据一个实施例,所述测距参数是第三测距参数,还包括:所述方法融合器用于:基于所述表面表征来计算所述视觉测距方法的第一权重因子,以及使用所述传感器信息计算与某一测距方法相对应的第二权重因子;并且所述测距计算器用于:将所述第一权重因子与所述第一测距数据相乘以产生第一测距参数,将所述第二权重因子与所述第二测距数据相乘以产生第二测距参数,以及基于所述第一测距参数和所述第二测距参数的融合来计算所述第三测距参数。
根据一个实施例,所述测距计算器用于:获得与所述视觉测距方法相对应的第一噪声模型;使用所述传感器信息获得与测距方法相对应的第二噪声模型;以及通过使用所述第一噪声模型和所述第二噪声模型执行跟踪滤波器来计算所述测距参数。
根据本发明,一种方法包括:基于对表面的表征来确定视觉测距方法以计算第一测距数据;基于传感器信息来计算第二测距数据;基于所述第一测距数据和所述第二测距数据来计算目标物体相对于车辆的测距参数;以及基于所述测距参数来生成车辆命令。
根据一个实施例,对所述表面进行表征包括确定所述表面的光反射率或所述表面是否不平坦。
根据一个实施例,所述视觉测距方法是地面特征跟踪方法或全局运动矢量方法中的至少一者。
根据一个实施例,所述测距参数是所述目标对象的横向位移、纵向位移或姿势中的至少一者。
根据一个实施例,所述传感器信息包括车辆速度或方向盘转角中的至少一者。
根据一个实施例,所述车辆命令包括在没有用户输入的情况下将所述车辆从第一位置移动到第二位置。
根据一个实施例,所述测距参数是第三测距参数,还包括:基于所述经表征的表面来计算所述视觉测距方法的第一权重因子;使用所述传感器信息计算与某一测距方法相对应的第二权重因子;将所述第一权重因子与所述第一测距数据相乘以产生第一测距参数;将所述第二权重因子与所述第二测距数据相乘以产生第二测距参数;以及基于所述第一测距参数和所述第二测距参数的融合来计算所述第三测距参数。
根据一个实施例,本发明的特征还在于:获得与所述视觉测距方法相对应的第一噪声模型;使用所述传感器信息获得与测距方法相对应的第二噪声模型;以及通过使用所述第一噪声模型和所述第二噪声模型执行跟踪滤波器来计算所述测距参数。
根据本发明,提供了一种非暂时性计算机可读存储介质,所述非暂时性计算机可读存储介质具有指令,所述指令当被执行时使机器至少:基于对表面的表征来确定视觉测距方法以计算第一测距数据;基于传感器信息以计算第二测距数据;基于所述第一测距数据和所述第二测距数据以计算目标物体相对于车辆的测距参数;以及基于所述测距参数来生成车辆命令。
根据一个实施例,所述传感器信息包括车辆速度或方向盘转角中的至少一者。
根据一个实施例,所述测距参数是第三测距参数,还包括指令,所述指令在被执行时使机器至少:基于所述经表征的表面来计算所述视觉测距方法的第一权重因子;使用所述传感器信息计算与某一测距方法相对应的第二权重因子;将所述第一权重因子与所述第一测距数据相乘以产生第一测距参数;将所述第二权重因子与所述第二测距数据相乘以产生第二测距参数;以及基于所述第一测距参数和所述第二测距参数的融合来计算所述第三测距参数。
根据一个实施例,本发明的特征还在于指令,所述指令当被执行时使所述机器至少:获得与所述视觉测距方法相对应的第一噪声模型;使用所述传感器信息获得与测距方法相对应的第二噪声模型;以及通过使用所述第一噪声模型和所述第二噪声模型执行跟踪滤波器来计算所述测距参数。

Claims (15)

1.一种设备,所述设备包括:
方法融合器,所述方法融合器用于使用表面表征来确定视觉测距方法以计算第一测距数据;
位移确定器,所述位移确定器用于基于传感器信息来计算第二测距数据;
测距计算器,所述测距计算器用于基于所述第一测距数据和所述第二测距数据来计算目标物体相对于车辆的测距参数;以及
车辆命令发生器,所述车辆命令发生器用于基于所述测距参数来生成车辆命令。
2.如权利要求1所述的设备,所述设备还包括表面评估器,所述表面评估器用于通过确定表面的光反射率或者车辆正在上面行驶的表面是否不平坦来确定所述表面表征。
3.如权利要求1所述的设备,其中所述视觉测距方法是地面特征跟踪方法或全局运动矢量方法中的至少一者。
4.如权利要求1所述的设备,其中所述测距参数是所述目标对象的横向位移、纵向位移或姿势中的至少一者。
5.如权利要求1所述的设备,其中所述传感器信息包括车辆速度或方向盘角度中的至少一者。
6.如权利要求1所述的设备,其中所述车辆命令包括在没有用户输入的情况下将所述车辆从第一位置移动到第二位置。
7.如权利要求1所述的设备,其中所述测距参数是第三测距参数,所述设备还包括:
所述方法融合器,所述方法融合器用于:
基于所述表面特征来计算所述视觉测距方法的第一权重因子;以及
使用所述传感器信息来计算与测距方法相对应的第二权重因子;和
测距计算器,所述测距计算器用于:
将所述第一权重因子与所述第一测距数据相乘以产生第一测距参数;
将所述第二权重因子与所述第二测距数据相乘以产生第二测距参数;以及
基于所述第一测距参数和所述第二测距参数的融合来计算所述第三测距参数。
8.如权利要求1所述的设备,其中所述测距计算器用于:
获得与所述视觉测距方法相对应的第一噪声模型;
使用所述传感器信息获得与测距方法相对应的第二噪声模型;以及
通过使用所述第一噪声模型和所述第二噪声模型来执行跟踪滤波以计算所述测距参数。
9.一种方法,所述方法包括:
基于对表面的表征来确定视觉测距方法以计算第一测距数据;
基于传感器信息来计算第二测距数据;
基于所述第一测距数据和所述第二测距数据来计算目标对象相对于车辆的测距参数;以及
基于所述测距参数来生成车辆命令。
10.如权利要求9所述的方法,其中对所述表面进行表征包括确定所述表面的光反射率或所述表面是否不平坦。
11.如权利要求9所述的方法,其中所述视觉测距方法是地面特征跟踪方法或全局运动矢量方法中的至少一者。
12.如权利要求9所述的方法,其中所述测距参数是所述目标对象的横向位移、纵向位移或姿势中的至少一者。
13.如权利要求9所述的方法,其中所述测距参数是第三测距参数,所述设备还包括:
基于所述经表征的表面来计算所述视觉测距方法的第一权重因子;
使用所述传感器信息来计算与测距方法相对应的第二权重因子;
将所述第一权重因子与所述第一测距数据相乘以产生第一测距参数;
将所述第二权重因子与所述第二测距数据相乘以产生第二测距参数;以及
基于所述第一测距参数和所述第二测距参数的融合来计算所述第三测距参数。
14.如权利要求9所述的方法,所述方法还包括:
获得与所述视觉测距方法相对应的第一噪声模型;
使用所述传感器信息获得与测距方法相对应的第二噪声模型;以及
通过使用所述第一噪声模型和所述第二噪声模型来执行跟踪滤波以计算所述测距参数。
15.一种非暂时性计算机可读介质,所述非暂时性计算机可读介质包括指令,所述指令当被执行时使机器执行如权利要求9-14中任一项所述的方法。
CN201910114086.3A 2018-02-14 2019-02-14 使用车辆相机系统执行视觉测距的方法和设备 Pending CN110161488A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/897,013 2018-02-14
US15/897,013 US10545506B2 (en) 2018-02-14 2018-02-14 Methods and apparatus to perform visual odometry using a vehicle camera system

Publications (1)

Publication Number Publication Date
CN110161488A true CN110161488A (zh) 2019-08-23

Family

ID=67400112

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910114086.3A Pending CN110161488A (zh) 2018-02-14 2019-02-14 使用车辆相机系统执行视觉测距的方法和设备

Country Status (3)

Country Link
US (1) US10545506B2 (zh)
CN (1) CN110161488A (zh)
DE (1) DE102019103369A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111401400A (zh) * 2020-02-12 2020-07-10 杭州电子科技大学 一种可编程控制器视觉功能块fbd的内部变量优化方法
CN112230240A (zh) * 2020-09-30 2021-01-15 深兰人工智能(深圳)有限公司 激光雷达与相机数据的时空同步系统、装置及可读介质
CN114987611A (zh) * 2021-03-01 2022-09-02 沃尔沃卡车集团 用于车辆的低速操纵辅助
US11506901B2 (en) 2020-07-08 2022-11-22 Industrial Technology Research Institute Method and system for simultaneously tracking 6 DoF poses of movable object and movable camera

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109572555B (zh) * 2018-11-13 2020-01-21 百度在线网络技术(北京)有限公司 一种应用于无人车的遮挡信息显示方法和系统
CN111521117B (zh) * 2019-08-21 2022-01-28 毫末智行科技有限公司 单目视觉测距方法、存储介质及单目摄像头
US11340696B2 (en) 2020-01-13 2022-05-24 Sony Interactive Entertainment Inc. Event driven sensor (EDS) tracking of light emitting diode (LED) array
CN114858134A (zh) * 2022-04-27 2022-08-05 重庆长安汽车股份有限公司 基于目标位置信息的单目摄像头测距方法及可读存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040221790A1 (en) 2003-05-02 2004-11-11 Sinclair Kenneth H. Method and apparatus for optical odometry
US20060095172A1 (en) 2004-10-28 2006-05-04 Abramovitch Daniel Y Optical navigation system for vehicles
US8725413B2 (en) 2012-06-29 2014-05-13 Southwest Research Institute Location and motion estimation using ground imaging sensor
JP2016148512A (ja) 2013-06-11 2016-08-18 ヤマハ発動機株式会社 単眼モーションステレオ距離推定方法および単眼モーションステレオ距離推定装置
EP3057061B1 (en) 2015-02-16 2017-08-30 Application Solutions (Electronics and Vision) Limited Method and device for the estimation of car egomotion from surround view images
JP6050851B2 (ja) * 2015-03-23 2016-12-21 富士重工業株式会社 ハイブリッド車
US20190066522A1 (en) * 2017-08-22 2019-02-28 Qualcomm Incorporated Controlling Landings of an Aerial Robotic Vehicle Using Three-Dimensional Terrain Maps Generated Using Visual-Inertial Odometry

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111401400A (zh) * 2020-02-12 2020-07-10 杭州电子科技大学 一种可编程控制器视觉功能块fbd的内部变量优化方法
CN111401400B (zh) * 2020-02-12 2023-06-20 杭州电子科技大学 一种可编程控制器视觉功能块fbd的内部变量优化方法
US11506901B2 (en) 2020-07-08 2022-11-22 Industrial Technology Research Institute Method and system for simultaneously tracking 6 DoF poses of movable object and movable camera
CN112230240A (zh) * 2020-09-30 2021-01-15 深兰人工智能(深圳)有限公司 激光雷达与相机数据的时空同步系统、装置及可读介质
CN114987611A (zh) * 2021-03-01 2022-09-02 沃尔沃卡车集团 用于车辆的低速操纵辅助

Also Published As

Publication number Publication date
DE102019103369A1 (de) 2019-08-14
US20190250631A1 (en) 2019-08-15
US10545506B2 (en) 2020-01-28

Similar Documents

Publication Publication Date Title
CN110161488A (zh) 使用车辆相机系统执行视觉测距的方法和设备
US10713504B2 (en) Estimating friction based on image data
US9607226B2 (en) Methods and systems for object detection using multiple sensors
CN109421742B (zh) 用于监测自主车辆的方法和设备
US9207680B1 (en) Estimating multi-vehicle motion characteristics by finding stable reference points
US9063548B1 (en) Use of previous detections for lane marker detection
US20200406894A1 (en) System and method for determining a target vehicle speed
US9285230B1 (en) Methods and systems for detecting road curbs
US9395192B1 (en) Methods and systems for road and lane boundary tracing
US9903945B2 (en) Vehicle motion estimation enhancement with radar data
CN104768822B (zh) 检测公路天气状况的方法和系统
JP7058726B2 (ja) レーダ技術を使用した自律車両の動きの検出
US20200301440A1 (en) Use Of A Reference Image To Detect A Road Obstacle
US11142209B2 (en) Vehicle road friction control
US20210229657A1 (en) Detection of vehicle operating conditions
US11400940B2 (en) Crosswind risk determination
US11222215B1 (en) Identifying a specific object in a two-dimensional image of objects
US20220111859A1 (en) Adaptive perception by vehicle sensors
CN110550041B (zh) 一种基于云端数据共享的路面附着系数估计方法
Parra-Tsunekawa et al. A kalman-filtering-based approach for improving terrain mapping in off-road autonomous vehicles
KR102044703B1 (ko) 자율주행 차량 및 그 제어 방법
KR102046994B1 (ko) 노면의 경사도 및 차량의 무게중심 실시간 측정 방법 및 그 장치
CN114758313A (zh) 实时神经网络再训练
US20240004027A1 (en) Adaptive differential quantization for ranging sensors
US11718320B1 (en) Using transmission sensor(s) in localization of an autonomous vehicle

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20190823

WD01 Invention patent application deemed withdrawn after publication