CN110914707B - 基于相机和lidar数据的车辆位置和速度估计的系统和方法 - Google Patents
基于相机和lidar数据的车辆位置和速度估计的系统和方法 Download PDFInfo
- Publication number
- CN110914707B CN110914707B CN201880027842.2A CN201880027842A CN110914707B CN 110914707 B CN110914707 B CN 110914707B CN 201880027842 A CN201880027842 A CN 201880027842A CN 110914707 B CN110914707 B CN 110914707B
- Authority
- CN
- China
- Prior art keywords
- data
- vehicle
- distance
- image data
- velocity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 41
- 238000005259 measurement Methods 0.000 claims abstract description 18
- 230000008569 process Effects 0.000 claims description 13
- 238000001514 detection method Methods 0.000 claims description 11
- 238000003384 imaging method Methods 0.000 claims description 5
- 230000011218 segmentation Effects 0.000 claims description 4
- 238000012545 processing Methods 0.000 description 53
- 238000004891 communication Methods 0.000 description 33
- 230000001413 cellular effect Effects 0.000 description 14
- 238000013480 data collection Methods 0.000 description 11
- 238000013500 data storage Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 8
- 230000000875 corresponding effect Effects 0.000 description 7
- 230000015654 memory Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 239000000446 fuel Substances 0.000 description 5
- ATUOYWHBWRKTHZ-UHFFFAOYSA-N Propane Chemical compound CCC ATUOYWHBWRKTHZ-UHFFFAOYSA-N 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 230000001276 controlling effect Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- LFQSCWFLJHTTHZ-UHFFFAOYSA-N Ethanol Chemical compound CCO LFQSCWFLJHTTHZ-UHFFFAOYSA-N 0.000 description 2
- 230000010267 cellular communication Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000003502 gasoline Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 239000001294 propane Substances 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000700605 Viruses Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 239000002828 fuel tank Substances 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000010705 motor oil Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 239000003208 petroleum Substances 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/50—Systems of measurement based on relative movement of target
- G01S17/58—Velocity or trajectory determination systems; Sense-of-movement determination systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/66—Tracking systems using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Electromagnetism (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Networks & Wireless Communication (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Traffic Control Systems (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
基于相机和LIDAR数据的车辆位置和速度估计包括:从自主车辆的子系统接收输入对象数据,该输入对象数据包括来自图像生成设备的图像数据和来自距离测量设备的距离数据;使用从图像生成设备接收的图像数据,来确定自主车辆附近的邻近对象的二维(2D)位置;使用在多个周期上从距离测量设备接收的距离数据来跟踪邻近对象的三维(3D)位置并生成跟踪数据;使用2D位置、从距离测量设备接收的距离数据和跟踪数据,来确定邻近对象的3D位置;使用3D位置和跟踪数据来确定邻近对象的速度;以及输出邻近对象相对于自主车辆的3D位置和速度。
Description
相关申请的交叉引用
本申请要求于2017年4月25日提交的美国专利申请序列号15/496,113的优先权。
版权声明
本专利文件的公开的一部分包含受版权保护的材料。版权拥有者不反对任何人按照在美国专利商标局的专利文件或记录中所显示的那样以传真形式复制本专利文件或专利公开,但在其他方面保留所有版权。以下声明适用于本文的公开内容以及形成本文档一部分的附图:版权2016-2017,TuSimple,保留所有权利。
技术领域
本专利文件总体上涉及用于轨迹规划的工具(系统、装置、方法、计算机程序产品等)、车辆控制系统和自主驾驶系统,具体地但非限制性地,涉及一种基于相机和LIDAR(光成像、检测和测距)数据进行车辆位置和速度估算的系统和方法。
背景技术
自主车辆通常被配置为基于所计算的驾驶路径来遵循轨迹。然而,当诸如障碍物之类的变量存在于行驶路径上时,自主车辆必须执行控制操作,从而可以通过改变行驶路径以避开障碍物来安全地驾驶车辆。在许多情况下,来自相机的数据可用于检测路径中的障碍物。在其他情况下,可以使用LIDAR数据。LIDAR(也称为Lidar、LiDAR和LADAR)是一种测量方法,该方法通过使用脉冲激光照射目标并用传感器测量反射脉冲来测量到目标的距离。然后可以使用激光返回时间和波长的差异来对目标进行数字表示。术语LIDAR有时被认为是“光检测与测距(Light Detection And Ranging)”(有时为“光成像、检测与测距(Light Imaging,Detection And Ranging)”)的缩写。但是,对来自相机的图像数据或来自LIDAR的距离数据进行独立分析可能会产生不准确的结果,并导致自主车辆出现危险情况。
发明内容
本文公开了用于基于相机和LIDAR数据的车辆位置和速度估计的系统和方法。具体地,本公开涉及一种用于检测和估计自主车辆附近的邻近车辆的位置以及估计邻近车辆相对于自主车辆的速度的系统和方法。该系统包括两个主要阶段:1)数据收集阶段,以及2)推理和跟踪阶段。在数据收集阶段中,安装有一个或多个相机(或其他图像生成设备)和一个或多个LIDAR传感器(或其他距离测量设备)的车辆分别以预定的时间间隔(例如,50毫秒)从由相机生成的视频流中收集多帧图像和多个LIDAR点云。在示例实施例中由推理和跟踪模块实现的推理和跟踪阶段中,可以使用来自相机的图像数据来检测邻近车辆和其他对象的二维(2D)位置。另外,可以从LIDAR点云获得与从图像数据检测到的对象相对应的距离数据。使用根据图像数据确定的邻近车辆的2D位置和使用LIDAR距离数据估计的邻近车辆的相对距离两者,推断和跟踪模块可以确定邻近车辆相对于自主车辆的精确的相对三维(3D)位置。由于以预定的采样率或周期时间(例如,50毫秒)随时间确定了多个位置估计,因此推理和跟踪模块还可以确定每个邻近车辆相对于自主车辆的估计的相对速度。在3D跟踪过程的帮助下,示例实施例的系统可以即使在接收到间歇性的、错误的或不稳定的相机图像数据或LIDAR数据时,也可以使用相机图像数据和LIDAR距离数据来确定邻近车辆的相对3D位置和速度。
附图说明
在附图的各图中以示例而非限制的方式示出了各种实施例,在附图中:
图1示出了其中可以实现示例实施例的车辆位置和速度估计模块的示例生态系统的框图;
图2和图3示出了示例实施例的车辆位置和速度估计系统的组件;
图4是示出了用于基于相机和LIDAR数据的车辆位置和速度估计的方法的示例实施例的过程流程图;以及
图5以计算机系统的示例形式示出了机器的示意图,在该计算机系统内一组指令在被执行时可以使得机器执行本文所讨论的方法中的任何一个或多个。
具体实施方式
在下面的描述中,出于解释的目的,阐述了许多具体细节以便提供对各种实施例的透彻理解。然而,对于本领域的普通技术人员而言显而易见的是,可以在没有这些具体细节的情况下实践各种实施例。
如各种示例实施例中所述,本文描述了用于基于相机和LIDAR数据的车辆位置和速度估计的系统和方法。可以在车辆生态系统101中的车载控制系统150的情况下使用本文公开的示例实施例。在一个示例实施例中,驻留在车辆105中的具有车辆位置和速度估计模块200的车载控制系统150可以像图1中所示的架构和生态系统101一样进行配置。然而,对于本领域的普通技术人员而言显而易见的是,可以在各种其他应用以及系统中实现、配置和使用本文描述和要求保护的车辆位置和速度估计模块200。
现在参考图1,框图示出了示例生态系统101,其中可以实现示例实施例的车载控制系统150和车辆位置和速度估计模块200。将在下面更详细地描述这些组件。生态系统101包括各种系统和组件,它们可以生成信息/数据和相关服务的一个或多个源和/或将其传递给车载控制系统150和车辆位置和速度估计模块200,其可以安装在车辆105中。例如,作为车辆子系统140的设备之一,安装在车辆105中的相机可以生成可由车载控制系统150接收的图像和定时数据。车载控制系统150和在其中执行的图像处理模块150可以接收该图像和定时数据输入。图像处理模块可以从图像和定时数据中提取对象数据以识别车辆105附近的对象。另外,作为车辆子系统140的设备中的另一设备,安装在车辆105中的LIDAR传感器可以生成距离数据,作为点云,其可以被车载控制系统150接收。车载控制系统150和在其中执行的LIDAR数据处理模块可以接收该距离数据和点云输入。LIDAR数据处理模块可以生成相对于在车辆105附近检测到的对象的距离数据。如下面更详细地描述的,车辆位置和速度估计模块200可以对检测到的对象的对象图像数据和对象距离数据进行处理以生成用于自主车辆105附近的每个邻近对象的位置和速度。作为车辆子系统140的子系统中的另一子系统的自主车辆控制子系统可以使用该邻近对象位置和速度数据,以将车辆105保持在与邻近对象的路径不相交的路径上。自主车辆控制子系统例如可以使用邻近对象位置和速度数据来在现实世界的驾驶环境中安全高效地导航车辆105,同时避开障碍物并安全地控制车辆。
在本文所述的示例实施例中,车载控制系统150可以与多个车辆子系统140进行数据通信,所有这些车辆子系统140可以驻留在用户的车辆105中。提供车辆子系统接口141以促进车载控制系统150和多个车辆子系统140之间的数据通信。车载控制系统150可以被配置为包括数据处理器171,以执行车辆位置和速度估计模块200,该数据处理器171用于处理从车辆子系统140中的一个或多个接收的对象数据。数据处理器171可与数据存储设备172组合,该数据存储设备172作为车载控制系统150中的计算系统170的一部分。数据存储设备172可用于存储数据、处理参数和数据处理指令。可以提供处理模块接口165以促进数据处理器171与车辆位置和速度估计模块200之间的数据通信。在各个示例实施例中,类似于车辆位置和速度估计模块200配置的多个处理模块可以被提供以供数据处理器171执行。如图1中的虚线所示,车辆位置和速度估计模块200可以集成到车载控制系统150中,可选地下载到车载控制系统150中,或与车载控制系统150分开部署。
车载控制系统150可以被配置为从与其连接的广域网120和网络资源122接收数据或向其发送数据。车载网络支持设备130和/或用户移动设备132可用于经由网络120进行通信。网络支持设备接口131可由车载控制系统150使用以促进经由车载网络支持设备130在车载控制系统150和网络120之间的数据通信。类似地,车载控制系统150可以使用用户移动设备接口133来促进通过用户移动设备132在车载控制系统150和网络120之间的数据通信。以这种方式,车载控制系统150可以获得通过网络120对网络资源122的实时访问。网络资源122可以用于获得用于由数据处理器171执行的处理模块、训练内部神经网络的数据内容、系统参数或其他数据。
生态系统101可以包括广域数据网络120。网络120代表一个或多个常规广域数据网络,例如因特网、蜂窝电话网络、卫星网络、寻呼机网络、无线广播网络、游戏网络、WiFi网络、对等网络、IP语音(VoIP)网络等。这些网络120中的一个或多个可用于将用户或客户端系统与网络资源122(例如,网站、服务器、中央控制站点等)连接起来。网络资源122可以生成和/或分发数据,该数据可以在车辆105中经由车载网络支持设备130或用户移动设备132被接收。网络资源122还可以托管网络云服务,其可以支持用于计算或协助处理对象输入或对象输入分析的功能。天线可用于经由蜂窝、卫星、无线电或其他常规信号接收机制将车载控制系统150以及车辆位置和速度估计模块200与数据网络120连接。这样的蜂窝数据网络当前可用(例如,VerizonTM、AT&TTM、T-MobileTM等)。此类基于卫星的数据或内容网络目前也可用(例如,SiriusXMTM、HughesNetTM等)。诸如AM/FM无线电网络、寻呼机网络、UHF网络、游戏网络、WiFi网络、对等网络、IP语音(VoIP)网络等的常规广播网络也是众所周知的。因此,如下面更详细地描述的,车载控制系统150和车辆位置和速度估计模块200可以经由车载网络支持设备接口131接收基于网络的数据或内容,该车载网络支持设备接口131可以用于与车载网络支持设备接收器130和网络120连接。通过这种方式,车载控制系统150和车辆位置和速度估计模块200可以支持车辆105内的各种可联网车载设备和系统。
如图1所示,车载控制系统150和车辆位置和速度估计模块200还可以从用户移动设备132接收数据、对象处理控制参数和训练内容,该用户移动设备132可以位于车辆105内部或附近。用户移动设备132可以代表标准移动设备,例如蜂窝电话、智能电话、个人数字助理(PDA)、MP3播放器、平板计算设备(例如,iPadTM)、膝上型计算机、CD播放器和其他移动设备,该移动设备可以产生、接收和/或传递用于车载控制系统150和车辆位置和速度估计模块200的数据、对象处理控制参数和内容。如图1所示,移动设备132也可以与网络云120进行数据通信。移动设备132可以从移动设备132本身的内部存储器组件或通过网络120从网络资源122获取数据和内容。另外,移动设备132本身可以包括GPS数据接收器、加速度计、WiFi三角测量或移动设备中的其他地理位置传感器或组件,其可用于在任何时间(通过移动设备)确定用户的实时地理位置。在任何情况下,如图1所示,车载控制系统150和车辆位置和速度估计模块200都可以从移动设备132接收数据。
仍然参考图1,生态系统101的示例实施例可以包括车辆操作子系统140。对于在车辆105中实现的实施例,许多标准车辆包括操作子系统,例如支持监测/控制用于发动机、制动器、变速器、电气系统、排放系统、内部环境等的子系统的电子控制单元(ECU)。例如,经由车辆子系统接口141从车辆操作子系统140(例如,车辆105的ECU)传送给车载控制系统150的数据信号可以包括关于车辆105的一个或多个组件或子系统的状态的信息。具体地,可以从车辆操作子系统140传送给车辆105的控制器局域网(CAN)总线的数据信号可以经由车辆子系统接口141由车载控制系统150来接收和处理。本文描述的系统和方法的实施例可以与使用本文定义的CAN总线或类似的数据通信总线的基本上任何机械化系统一起使用,包括但不限于工业设备、船、卡车、机械、或汽车;因此,本文使用的术语“车辆”可以包括任何此类机械化系统。本文描述的系统和方法的实施例还可以与采用某种形式的网络数据通信的任何系统一起使用;然而,不需要这种网络通信。
仍然参考图1,生态系统101以及其中的车辆操作子系统140的示例实施例可以包括支持车辆105的操作的各种车辆子系统。通常,车辆105可以采用以下形式:例如,小汽车、卡车、摩托车、公共汽车、船、飞机、直升机、割草机、推土机、雪地摩托、飞行器、休旅车、游乐园车、农用设备、建筑设备、电车、高尔夫球车、火车和手推车。其他车辆也是可能的。车辆105可被配置为完全或部分地以自主模式操作。例如,车辆105可以在自主模式下控制自己,并且可操作以确定车辆的当前状态及其环境、确定该环境中至少一个其他车辆的预测行为、确定可以与该至少一个其他车辆执行预测行为的概率相对应的置信度、以及基于所确定的信息来控制车辆105。当处于自主模式时,车辆105可以被配置为在没有人类交互的情况下进行操作。
车辆105可以包括各种车辆子系统,例如车辆驱动子系统142、车辆传感器子系统144、车辆控制子系统146和乘员接口子系统148。如上所述,车辆105还可以包括车载控制系统150、计算系统170以及车辆位置和速度估计模块200。车辆105可以包括更多或更少的子系统,并且每个子系统可以包括多个元件。此外,车辆105的每个子系统和元件可以互连。因此,车辆105的所描述的功能中的一个或多个可以被划分为附加的功能或物理组件,或者被组合为较少的功能或物理组件。在一些其他示例中,可以将其他功能和物理组件添加到图1所示的示例中。
车辆驱动子系统142可以包括可操作以为车辆105提供动力运动的组件。在示例实施例中,车辆驱动子系统142可以包括发动机或电动机、车轮/轮胎、变速器、电气子系统和电源。发动机或电动机可以是内燃发动机、电动机、蒸汽发动机、燃料电池发动机、丙烷发动机或其他类型的发动机或电动机的任何组合。在一些示例实施例中,发动机可以配置为将动力源转换成机械能。在一些示例实施例中,车辆驱动子系统142可以包括多种类型的发动机或电动机。例如,气电混合汽车可以包括汽油发动机和电动机。其他示例也是可能的。
车辆105的车轮可以是标准轮胎。车辆105的车轮可以被配置为各种形式,例如包括单轮车、自行车、三轮车或四轮车(例如,在汽车或卡车上)形式。其他车轮几何形状也是可能的,例如包括六个或更多个车轮的那些。车辆105的车轮的任何组合可以可操作以相对于其他车轮不同地旋转。车轮可以表示固定地附接到变速器的至少一个车轮、以及耦接到车轮的轮辋的至少一个轮胎,其可以与驱动表面接触。车轮可以包括金属和橡胶的组合或材料的另一组合。变速器可包括可操作以将机械动力从发动机传递给车轮的元件。为此,变速器可以包括齿轮箱、离合器、差速器和驱动轴。变速器也可以包括其他元件。驱动轴可包括可耦接至一个或多个车轮的一个或多个轮轴。电气系统可包括可操作以传送和控制车辆105中的电信号的元件。这些电信号可用于激活车辆105的灯、伺服、电动机和其他电驱动或控制设备。动力源可以表示可以全部或部分地为发动机或电动机供电的能源。即,发动机或电动机可以被配置为将动力源转换成机械能。动力源的示例包括汽油、柴油、其他基于石油的燃料、丙烷、其他基于压缩气体的燃料、乙醇、燃料电池、太阳能板、电池和其他电源的来源。动力源可以附加地或替代地包括燃料箱、电池、电容器或飞轮的任何组合。动力源也可以为车辆105的其他子系统提供能量。
车辆传感器子系统144可以包括多个传感器,其被配置为感测关于车辆105的环境或状况的信息。例如,车辆传感器子系统144可以包括惯性测量单元(TMU)、全球定位系统(GPS)收发器、RADAR单元、激光测距仪/LIDAR单元以及一个或多个相机或图像捕获设备。车辆传感器子系统144还可以包括被配置为监测车辆105的内部系统的传感器(例如,O 2监测器、燃油表、发动机油温)。其他传感器也是可能的。车辆传感器子系统144中包括的一个或多个传感器可以被配置为单独地或共同地被致动,以便修改一个或多个传感器的位置、取向或两者。
IMU可以包括被配置为基于惯性加速度感测车辆105的位置和取向变化的传感器(例如,加速度计和陀螺仪)的任何组合。GPS收发器可以是被配置为估计车辆105的地理位置的任何传感器。为此,GPS收发器可以包括可操作以提供关于车辆105相对于地表的位置的信息的接收器/发送器。RADAR单元可以表示利用无线电信号来感测车辆105的局部环境内的对象的系统。在一些实施例中,除了感测对象之外,RADAR单元还可以被配置为感测车辆105附近的对象的速度和前进方向。激光测距仪或LIDAR单元可以是被配置为使用激光或其他测距设备来感测车辆105所在环境中的对象的任何传感器。在示例实施例中,激光测距仪/LIDAR单元可包括一个或多个激光源、激光扫描仪以及一个或多个检测器以及其他系统组件。激光测距仪/LIDAR单元可以被配置为以相干(例如,使用外差检测)或非相干检测模式操作。相机可以包括一个或多个设备,该设备被配置为捕获车辆105的环境的多个图像。相机可以是静止图像相机或运动摄像机。
车辆控制系统146可以被配置为控制车辆105及其组件的操作。因此,车辆控制系统146可包括各种元件,例如转向单元、节气门、制动单元、导航单元和自主控制单元。
转向单元可以表示可操作以调节车辆105的前进方向的机构的任何组合。节气门可以被配置为控制例如发动机的操作速度,并进而控制车辆105的速度。制动单元可以包括被配置为使车辆105减速的机构的任何组合。制动单元可以以标准方式使用摩擦使车轮减速。在其他实施例中,制动单元可以将车轮的动能转换为电流。制动单元也可以采用其他形式。导航单元可以是被配置为确定车辆105的行驶路径或路线的任何系统。导航单元可以被附加地配置为在车辆105操作时动态地更新驾驶路径。在一些实施例中,导航单元可以被配置为合并来自车辆位置和速度估计模块200、GPS收发器以及一个或多个预定地图的数据,以便确定车辆105的驾驶路径。自主控制单元可以表示被配置为识别、评估、避开或以其他方式协商车辆105的环境中的潜在障碍物的控制系统。通常,自主控制单元可以被配置为在没有驾驶员的情况下控制车辆105进行操作或提供驾驶员辅助以控制车辆105。在一些实施例中,自主控制单元可以被配置为合并来自车辆位置和速度估计模块200、GPS收发器、RADAR、LIDAR、相机和其他车辆子系统的数据,以确定车辆105的行驶路径或轨迹。车辆控制系统146可以附加地或替代地包括除了示出和描述的那些组件之外的组件。
乘员接口子系统148可以被配置为允许车辆105与外部传感器、其他车辆、其他计算机系统和/或车辆105的乘员或用户之间的交互。例如,乘员接口子系统148可以包括标准视觉显示设备(例如,等离子体显示器、液晶显示器(LCD)、触摸屏显示器、平视显示器等)、扬声器或其他音频输出设备、麦克风或其他音频输入设备、导航界面以及用于控制车辆105的内部环境(例如,温度、风扇等)的界面。
在示例实施例中,乘员接口子系统148可以提供例如用于车辆105的用户/乘员与其他车辆子系统进行交互的装置。视觉显示设备可以向车辆105的用户提供信息。用户接口设备还可以可操作以经由触摸屏接受来自用户的输入。触摸屏可以被配置为经由电容感测、电阻感测或表面声波过程等来感测用户手指的位置和移动中的至少一个。触摸屏能够感测在与触摸屏表面平行或成平面的方向上、在垂直于触摸屏表面的方向上或者在这两者上的手指移动,并且还能够感测被施加到触摸屏表面的压力水平。触摸屏可以由一个或多个半透明或透明的绝缘层和一个或多个半透明或透明的导电层形成。触摸屏也可以采用其他形式。
在其他实例中,乘员接口子系统148可以提供用于车辆105与其环境内的设备进行通信的装置。麦克风可以被配置为从车辆105的用户接收音频(例如,语音命令或其他音频输入)。类似地,扬声器可以被配置为向车辆105的用户输出音频。在一个示例实施例中,乘员接口子系统148可被配置为直接地或经由通信网络与一个或多个设备无线通信。例如,无线通信系统可以使用3G蜂窝通信,例如CDMA、EVDO、GSM/GPRS,或4G蜂窝通信,例如WiMAX或LTE。备选地,无线通信系统可以例如使用与无线局域网(WLAN)通信。在一些实施例中,无线通信系统146可以例如使用红外链路、/>或/>直接与设备进行通信。在本公开的上下文中,诸如各种车辆通信系统之类的其他无线协议也是可能的。例如,无线通信系统可以包括一个或多个专用短程通信(DSRC)设备,其可以包括车辆和/或路侧站点之间的公共或私有数据通信。
车辆105的许多或全部功能可以由计算系统170控制。计算系统170可以包括至少一个数据处理器171(其可以包括至少一个微处理器),其执行存储在非暂时性计算机可读介质(例如,数据存储设备172)中的处理指令。计算系统170还可以表示多个计算设备,其可以用来控制车辆105的处于分布式方式的各个组件或子系统。在一些实施例中,数据存储设备172可以包含可由数据处理器171执行以执行车辆105的各种功能的处理指令(例如,程序逻辑),包括本文结合附图所描述的那些功能。数据存储设备172还可以包含其他指令,包括将数据发送给车辆驱动子系统140、车辆传感器子系统144、车辆控制子系统146以及乘员接口子系统148中的一个或多个、从其接收数据、与其进行交互或对其进行控制的指令。
除了处理指令之外,数据存储设备172还可以存储诸如对象处理参数、训练数据、道路地图和路径信息等信息之类的数据。车辆105和计算系统170可以在车辆105以自主、半自主和/或手动模式进行操作期间使用此类信息。
车辆105可以包括用于向车辆105的用户或乘员提供信息或从车辆105的用户或乘员接收信息的用户界面。用户界面可以控制可以在显示设备上显示的交互式图像的内容和布局或实现对可以在显示设备上显示的交互式图像的内容和布局的控制。此外,用户界面可包括在一组乘员接口子系统148内的一个或多个输入/输出设备,例如显示设备、扬声器、麦克风或无线通信系统。
计算系统170可以基于从各个车辆子系统(例如,车辆驱动子系统140、车辆传感器子系统144和车辆控制子系统146)接收的以及从乘员接口子系统148接收的输入来控制车辆105的功能。例如,计算系统170可以使用来自车辆控制系统146的输入,以便控制转向单元以避开由车辆传感器子系统144检测到的障碍物,并遵循借助于来自车辆位置和速度估计模块200的数据生成的路径或轨迹。在示例实施例中,计算系统170可操作以提供对车辆105及其子系统的许多方面的控制。
尽管图1示出了车辆105的各种组件,例如车辆子系统140、计算系统170、数据存储设备172以及车辆位置和速度估计模块200,它们被集成到车辆105中,这些组件中的一个或多个可以独立于车辆105而安装或相关联。例如,数据存储设备172可以部分地或全部地与车辆105分开地存在。因此,可以以可以分开定位或定位在一起的设备元件的形式来提供车辆105。构成车辆105的设备元件可以以有线或无线方式通信地耦合在一起。
另外,如上所述,可以通过车载控制系统150从本地和/或远程源获得其他数据和/或内容(在本文中表示为辅助数据)。辅助数据可以用于基于各种因素来增加、修改或训练车辆位置和速度估计模块200的操作,这些因素包括用户正在操作车辆的情况(例如,车辆的位置、指定的目的地、行进方向、速度、一天中的时间、车辆的状态等)以及可以从如本文所述的各种源(本地和远程)获得的各种其他数据。
在特定实施例中,车载控制系统150和车辆位置和速度估计模块200可以被实现为车辆105的车载组件。在各个示例实施例中,车载控制系统150以及与之进行数据通信的车辆位置和速度估计模块200可以被实现为集成组件或单独组件。在示例实施例中,可以通过使用经由网络120与移动设备132和/或网络资源122的数据连接来动态地升级、修改和/或扩充车载控制系统150和/或车辆位置和速度估计模块200的软件组件。车载控制系统150可以周期性地向移动设备132或网络资源122查询更新,或者可以将更新推送到车载控制系统150。
现在参考图2,该图示出了示例实施例的车辆位置和速度估计模块200的组件。在示例实施例中,车辆位置和速度估计模块200可以被配置为包括数据收集模块173和推断和跟踪模块175。如下面更详细地描述的,数据收集模块173和推断和跟踪模块175用于实现基于从包括一个或多个相机和一个或多个LIDAR传感器的车辆传感器子系统144中的一个或多个接收的输入对象数据210,来生成邻近车辆或对象相对于车辆105的估计的位置和速度。输入对象数据210可以包括来自相机的图像数据,该图像数据可以由图像处理模块进行处理以识别附近的对象(例如,在车辆105附近的移动车辆、动态主体(agent)或其他对象)。输入对象数据210还可包括来自LIDAR传感器的对象距离数据或点云,其可由LIDAR数据处理模块进行处理以确定每个邻近对象相对于车辆105的距离。数据收集模块173和推断和跟踪模块175可以被配置为由车载控制系统150的数据处理器171执行的软件模块。车辆位置和速度估计模块200的模块173和175可以接收输入对象数据210,并基于从输入对象数据210生成每个邻近对象的3D位置和速度来产生邻近对象位置和速度数据220。邻近对象位置和速度数据220可由车辆控制子系统146的自主控制子系统用于更高效、更安全地控制车辆105。作为邻近对象位置和速度数据220的生成的一部分,数据收集模块173和推断和跟踪模块175可以被配置为用推断和跟踪配置参数174进行工作,该推断和跟踪配置参数174可以用于定制和微调车辆位置和速度估计模块200的操作。推断和跟踪配置参数174可以存储在车载控制系统150的存储器172中。
在示例实施例中,车辆位置和速度估计模块200可以被配置为包括与车载控制系统150的接口,如图1所示,车辆位置和速度估计模块200可以通过该接口发送和接收数据,如本文所述。另外,车辆位置和速度估计模块200可以被配置为包括与车载控制系统150和/或其他生态系统101子系统的接口,车辆位置和速度估计模块200可以通过该接口从上述各种数据源接收辅助数据。如上所述,车辆位置和速度估计模块200还可以在未部署在车辆中并且不必在车辆中使用或与车辆一起使用的系统和平台中实现。
在如图2所示的示例实施例中,车辆位置和速度估计模块200可以被配置为包括数据收集模块173和推理和跟踪模块175以及为清楚起见未示出的其他处理模块。这些模块中的每个可以被实现为在车载控制系统150内操作的或与车载控制系统150进行数据通信的车辆位置和速度估计模块200的可执行环境中执行或激活的软件、固件或其他逻辑组件。以下结合本文提供的附图更详细地描述示例实施例的模块中的每个模块。
基于相机和LIDAR数据的邻近车辆位置和速度估计
本文公开了用于基于相机和LIDAR数据的车辆位置和速度估计的系统和方法。具体地,本文描述的示例实施例涉及一种用于检测和估计自主车辆附近的邻近车辆或其他对象的位置的系统和方法。该示例实施例还可以估计邻近车辆或对象相对于自主车辆的速度。该示例实施例还可以生成与邻近车辆或对象相对应的速度矢量。示例实施例的系统和方法可以包括两个组成部分或阶段:1)数据收集组成部分/阶段,以及2)推理和跟踪组成部分/阶段。在数据收集阶段,安装有一个或多个相机和一个或多个LIDAR传感器的车辆在预定时间或以预定的周期间隔(例如,50毫秒)分别从相机和多个LIDAR点云收集多帧图像。在示例实施例中由推理和跟踪模块实现的推理和跟踪组成部分/阶段中,可以使用来自相机的图像数据来检测邻近车辆和其他对象的二维(2D)位置。另外,可以从LIDAR点云获得与从图像数据检测到的对象相对应的距离数据。使用根据图像数据确定的邻近车辆的2D位置以及使用LIDAR距离数据估计的邻近车辆或对象的相对距离,推断和跟踪模块可以确定邻近车辆相对于自主车辆的精确相对三维(3D)位置。由于以预定的采样率或周期时间(例如,50毫秒)随时间确定多个位置估计,因此推理和跟踪模块还可以确定每个邻近车辆相对于自主车辆的估计的相对速度和速度矢量。在3D跟踪过程的帮助下,示例实施例的系统即使在接收到间歇的错误的或不稳定的相机图像数据和/或LIDAR数据的情况下,也可以使用相机图像数据和LIDAR距离数据来确定邻近车辆的相对3D位置和速度。
图3示出了示例实施例的车辆位置和速度估计模块200的组件。如图所示,车辆位置和速度估计模块200可以被配置为包括数据收集模块173和推断和跟踪模块175。车辆位置和速度估计模块200以及其中的数据收集模块173可以从包括一个或多个相机和一个或多个LIDAR传感器的车辆传感器子系统144中的一个或多个接收输入对象数据210。输入对象数据210可以包括来自由图像生成设备(例如,相机)生成的视频流的图像数据212。输入对象数据210还可以包括来自诸如LIDAR传感器设备之类的距离测量设备的距离数据213。来自输入对象数据210的图像数据212可以由图像数据处理模块214进行处理,以识别邻近车辆或其他对象(例如,移动的车辆、动态主体或在车辆105附近的其他对象)。例如,语义分割和/或对象检测的过程可以用于处理图像数据并识别图像中的对象。输入图像数据中识别的对象可以通过边界框或有助于从图像数据中提取对象数据的其他信息来指定。从图像数据提取的对象数据可用于确定对象的二维(2D)位置。对象的2D位置可用于确定对象是否在距自主车辆105的当前位置的预定距离之内,并因此是邻近对象。可以将在图像数据中识别出的邻近对象的2D位置作为输入提供给下面更详细地描述的匹配和推理处理模块218。
仍然参考图3,输入对象数据210包括来自诸如LIDAR传感器设备之类的距离测量设备的距离数据213。距离数据213可以表示为来自LIDAR的点云。可以由LIDAR距离数据处理模块215来处理来自输入对象数据210的距离数据213。LIDAR距离数据处理模块215可以使用输入距离数据213或LIDAR点云来识别车辆105附近的潜在对象(例如,移动的车辆、动态主体或车辆105附近的其他对象)。距离数据213还使LIDAR距离数据处理模块215能够以高的精确度测量从车辆105到每个潜在的邻近对象的距离。与所识别的对象有关的数据和由LIDAR距离数据处理模块215生成的对应距离测量可以被输出到对象跟踪模块217和匹配和推理处理模块218。
对象跟踪模块217负责在距离数据213的多个处理周期或收集迭代中跟踪所标识的对象。对象跟踪模块217被配置为使得在前一处理周期中找到的所标识的对象211的位置和速度与当前处理周期中识别的对象相关。以这种方式,特定对象的距离测量的变化和移动可以跨多个周期进行相关。在当前距离数据213不完整、错误或以其他方式受损的情况下,仍可以在随后的周期中检查当前距离数据213中缺少的对象是否存在。以这种方式,即使在输入对象数据210是间歇性的、错误的或不稳定的情况下,对象跟踪模块217也可以跟踪所识别的对象。一旦车辆位置和速度估计模块200针对当前周期生成了邻近对象220的位置和速度,则邻近对象的位置和速度可以被保存为来自先前周期211的位置和速度数据,并用于随后的处理周期。与所识别和跟踪的对象有关的数据及其对应的距离测量可以由对象跟踪模块217输出,并作为输入提供给匹配和推理处理模块218。
匹配和推理处理模块218负责将从图像(相机)数据212中识别出的对象与从距离(LIDAR)数据213识别出并跟踪的对象相关。给定由图像数据处理模块214识别出的邻近对象的2D位置以及由LIDAR距离数据处理模块215和对象跟踪模块217提供的所识别和跟踪对象的距离测量,匹配和推理处理模块218可以将图像数据中检测到的对象的位置与在LIDAR数据中检测到的对象进行匹配。结果,检测到的对象的2D位置可以与检测到的对象的对应距离相匹配,这可以在三维(3D)空间中呈现每个检测到的对象的位置。因此,匹配和推理处理模块218可以使用来自图像生成设备的图像数据和来自距离测量设备的距离数据的组合来确定每个邻近对象的三维(3D)位置。另外,可以在多个处理周期内生成和跟踪每个邻近对象的三维(3D)位置。可以将没有出现在跟踪数据中并因此与任何先前周期中的任何对象都不相关的新识别的对象指定为新对象,并可以发起对新对象的跟踪。匹配和推理处理模块218可以在多个周期上使用3D位置和跟踪数据,以确定每个邻近对象的速度。因此,匹配和推理处理模块218可以针对每个检测到的邻近对象来确定速度和速度矢量。可以提供与每个邻近对象的3D位置和速度相对应的数据作为本文所描述的匹配和推理处理模块218以及车辆位置和速度估计模块200的输出。
如上所述,车辆105的其他子系统可以使用每个邻近对象的3D位置和速度来执行各种附加处理功能。例如,轨迹规划模块可以使用每个邻近对象的3D位置和速度来生成不与邻近对象的路径相交或干涉的用于车辆105的路径。另外,规划模块可以使用每个邻近对象的3D位置和速度来基于邻近对象的行为来预测或推断将来的动作。将来的动作可以包括生成控制信号以修改车辆105的操作、生成对车辆105的驾驶员的警报或相对于车辆105的操作的其他动作。
现在参考图4,流程图示出了用于基于相机和LIDAR数据的车辆位置和速度估计的系统和方法1000的示例实施例。该示例实施例可以被配置用于:从自主车辆的子系统接收输入对象数据,该输入对象数据包括来自图像生成设备的图像数据和来自距离测量设备的距离数据(处理框1010);使用从图像生成设备接收的图像数据,确定自主车辆附近的邻近对象的二维(2D)位置(处理框1020);使用在多个周期上从距离测量设备接收的距离数据来跟踪邻近对象的三维(3D)位置并生成跟踪数据(处理框1030);使用2D位置、从距离测量设备接收的距离数据和跟踪数据来确定邻近对象的3D位置(处理框1040);使用3D位置和跟踪数据来确定邻近对象的速度(处理框1050);以及输出邻近对象相对于自主车辆的3D位置和速度(处理框1060)。
如本文所使用的,除非另有说明,否则术语“移动设备”包括可以与本文所述的车载控制系统150和/或车辆位置和速度估计模块200通信以获得通过任何数据通信模式传送的数据信号、消息或内容的读取或写入访问权限的任何计算或通信设备。在许多情况下,移动设备130是手持式便携式设备,例如智能电话、移动电话、蜂窝电话、平板计算机、膝上型计算机、显示寻呼机、射频(RF)设备、红外(IR)设备、全球定位设备(GPS)、个人数字助理(PDA)、手持计算机、可穿戴计算机、便携式游戏机、其他移动通信和/或计算设备或组合一个或多个前述设备的集成设备等。另外,移动设备130可以是计算设备、个人计算机(PC)、多处理器系统、基于微处理器的或可编程的消费电子设备、网络PC、诊断设备、由车辆105的制造商或服务技术人员操作的系统等,但不仅限于便携式设备。移动设备130可以接收和处理多种数据格式中的任何一种格式的数据。数据格式可以包括任何编程格式、协议或语言或被配置为以任何编程格式、协议或语言进行操作,包括但不限于JavaScript、C++、iOS、Android等。
如本文所使用的,除非另有说明,否则术语“网络资源”包括可以与本文所述的车载控制系统150和/或车辆位置和速度估计模块200通信以获得对通过任何模式的进程间或联网数据通信传送的数据信号、消息或内容的读取或写入访问权限的任何设备、系统或服务。在许多情况下,网络资源122是数据网络可访问的计算平台,包括客户端或服务器计算机、网站、移动设备、对等(P2P)网络节点等。此外,网络资源122可以是Web设备、网络路由器、交换机、网桥、网关、诊断设备、由车辆105的制造商或服务技术人员操作的系统或者是能够执行一组指令(顺序或其他方式)的任何机器,该指令指定要由该机器执行的动作。此外,虽然仅示出了单个机器,但是术语“机器”也可以被理解为包括机器的任何集合,其单独地或共同地执行一组(或多组)指令以执行本文讨论的任何一个或多个方法。网络资源122可以包括网络可传输数字内容的各个提供者或处理器中的任何一个。通常,所采用的文件格式是可扩展标记语言(XML),但是各种实施例不限于此,并且可以使用其他文件格式。例如,各种实施例可以支持除超文本标记语言(HTML)/XML之外的数据格式或除开放/标准数据格式之外的格式。本文所述的各种实施例可以支持任何电子文件格式,例如可移植文档格式(PDF)、音频(例如,运动图像专家组音频第3层-MP3等)、视频(例如,MP4等)以及由特定内容站点定义的任何专有交换格式。
与网络资源122一起使用的广域数据网络120(也称为网络云)可以被配置为将一个计算或通信设备与另一计算或通信设备耦合。可以使网络能够采用任何形式的计算机可读数据或介质来将信息从一个电子设备传送到另一电子设备。网络120可以包括互联网,以及其他广域网(WAN)、蜂窝电话网络、城域网、局域网(LAN)、其他分组交换网络、电路交换网络、例如通过通用串行总线(USB)或以太网端口的直接数据连接、其他形式的计算机可读介质或其任何组合。网络120可以包括互联网,以及其他广域网(WAN)、蜂窝电话网络、卫星网络、空中广播网络、AM/FM无线电网络、寻呼机网络、UHF网络、其他广播网络、游戏网络、WiFi网络、对等网络、IP语音(VoIP)网络、城域网、局域网(LAN)、其他分组交换网络、电路交换网络、直接数据连接(例如,通过通用串行总线(USB)或以太网端口)、其他形式的计算机可读介质或其任意组合。在一组互连的网络(包括基于不同架构和协议的网络)上,路由器或网关可以充当网络之间的链接,使得消息能够在不同网络上的计算设备之间发送。而且,网络内的通信链路通常可以包括双绞线电缆、USB、火线、以太网或同轴电缆,而网络之间的通信链路可以利用模拟或数字电话线、包括T1、T2、T3和T4的全部或部分专用数字线路、综合业务数字网(ISDN)、数字用户线(DSL)、包括卫星链路、蜂窝电话链路或本领域普通技术人员公知的其他通信链路的无线链路。此外,远程计算机和其他相关电子设备可以通过调制解调器和临时电话链路远程连接到网络。
网络120还可以包括可以进一步覆盖独立自组织网络等的各种无线子网络中的任何一个,以提供面向基础设施的连接。这样的子网络可以包括网状网络、无线LAN(WLAN)网络、蜂窝网络等。该网络还可以包括通过无线无线电链路或无线收发器连接的终端、网关、路由器等的自主系统。这些连接器可以被配置为自由随机移动并任意组织,以使网络拓扑可以快速变化。网络120还可以采用多个标准无线和/或蜂窝协议或接入技术中的一个或多个,包括结合本文附图中描述的网络接口712和网络714在本文阐述的那些。
在特定实施例中,移动设备132和/或网络资源122可以充当使得用户能够访问和使用车载控制系统150和/或车辆位置和速度估计模块200与车辆子系统的一个或多个组件交互的客户端设备。这些客户端设备132或122实际上可以包括被配置为通过诸如本文所述的网络120之类的网络发送和接收信息的任何计算设备。这样的客户端设备可以包括移动设备,例如蜂窝电话、智能电话、平板计算机、显示寻呼机、射频(RF)设备、红外(TR)设备、全球定位设备(GPS)、个人数字助理(PDA)、手持式计算机、可穿戴计算机、游戏控制台、组合一个或多个前述设备的集成设备等。客户端设备还可以包括其他计算设备,例如个人计算机(PC)、多处理器系统、基于微处理器的或可编程的消费电子产品、网络PC等。这样,客户端设备在功能和特征方面可以广泛地变化。例如,被配置为电话的客户端设备可以具有数字小键盘和几行单色LCD显示器,在其上只能显示文本。在另一示例中,支持网络的客户端设备可以具有触敏屏幕、手写笔和彩色LCD显示屏,其中可以显示文本和图形两者。此外,支持网络的客户端设备可以包括浏览器应用,该浏览器应用能够接收和发送无线应用协议消息(WAP)和/或有线应用消息等。在一个实施例中,浏览器应用被启用以采用超文本标记语言(HTML)、动态HTML、手持设备标记语言(HDML)、无线标记语言(WML)、WMLScript、JavaScriptTM、可扩展HTML(xHTML)、紧凑HTML(CHTML等)来显示和发送带有相关信息的消息。
客户端设备还可以包括至少一个客户端应用,该至少一个客户端应用被配置为经由网络传输从另一计算设备接收内容或消息。客户端应用可以包括提供和接收文本内容、图形内容、视频内容、音频内容、警报、消息、通知等的功能。此外,客户端设备还可以被配置为例如通过短消息服务(SMS)、直接消息传递(例如,Twitter)、电子邮件、多媒体消息服务(MMS)、即时消息传递(IM)、互联网中继聊天(IRC)、mIRC、Jabber、增强消息传递服务(EMS)、文本消息传递、智能消息传递、空中(OTA)消息传递等在另外的计算设备之间传送和/或接收消息等。客户端设备还可以包括无线应用设备,客户端应用被配置在该无线应用设备上,以使得该设备的用户能够经由网络无线地向/从网络资源发送和接收信息。
可以使用增强执行环境的安全性的系统来实现车载控制系统150和/或车辆位置和速度估计模块200,从而提高安全性并降低车载控制系统150和/或车辆位置和速度估计模块200以及相关服务可能被病毒或恶意软件破坏的可能性。例如,可以使用可信执行环境来实现车载控制系统150和/或车辆位置和速度估计模块200,其可以确保敏感数据以安全的方式被存储、处理和传送。
图5以计算系统700的示例形式示出了机器的示意图,在其中当一组指令被执行时和/或当处理逻辑被激活时可以使该机器执行所描述的和/或本文所要求保护的方法中的任何一个或多个。在替代实施例中,该机器作为独立设备进行操作,或者可以连接(例如,联网)到其他机器。在联网部署中,机器可以在服务器-客户端网络环境中以服务器或客户端机器的身份进行操作,或者在对等(或分布式)网络环境中作为对等机器进行操作。该机器可以是个人计算机(PC)、膝上型计算机、平板计算系统、个人数字助理(PDA)、蜂窝电话、智能电话、网络设备、机顶盒(STB)、网络路由器、交换机或网桥、或能够执行一组指令(顺序指令或其他指令)或激活指定该机器要执行的动作的处理逻辑的任何机器。此外,虽然仅示出了单个机器,但是术语“机器”也可以被理解为包括机器的任何集合,其单独地或共同地执行一组(或多组)指令或处理逻辑以执行本文描述和/或要求保护的方法中的任意一个或多个。
示例计算系统700可以包括可以通过总线或其他数据传输系统706彼此通信的数据处理器702(例如,片上系统(SoC)、通用处理核心、图形核心和可选地其他处理逻辑)和存储器704。移动计算和/或通信系统700还可包括各种输入/输出(I/O)设备和/或接口710,例如触摸屏显示器、音频插孔、语音接口以及可选地网络接口712。在示例实施例中,网络接口712可以包括一个或多个无线电收发器,其被配置为与任何一个或多个标准无线和/或蜂窝协议或接入技术(例如,第二代(2G)、2.5代、第三代(3G)、第四代(4G)和下一代蜂窝系统的无线电接入、全球移动通信系统(GSM)、通用分组无线电业务(GPRS)、增强型数据GSM环境(EDGE)、宽带码分多址(WCDMA)、LTE、CDMA2000、WLAN、无线路由器(WR)网等)兼容。网络接口712还可被配置为与各种其他有线和/或无线通信协议一起使用,包括TCP/IP、UDP、SIP、SMS、RTP、WAP、CDMA、TDMA、UMTS、UWB、WiFi、WiMax、BluetoothTM、IEEE 802.11x等。本质上,网络接口712可以实际上包括或支持任何有线和/或无线通信和数据处理机制,通过该机制,信息/数据可以通过网络714在计算系统700和另一计算或通信系统之间传送。
存储器704可以代表机器可读介质,在其上存储体现本文所描述和/或要求保护的方法或功能中的任何一个或多个的一组或多组指令、软件、固件或其他处理逻辑(例如,逻辑708)。在由移动计算和/或通信系统700执行期间,逻辑708或其一部分也可以完全或至少部分地驻留在处理器702内。这样,存储器704和处理器702也可以构成机器可读介质。逻辑708或其一部分也可以被配置为处理逻辑或逻辑,其至少一部分部分地以硬件实现。逻辑708或其一部分还可以经由网络接口712通过网络714发送或接收。虽然示例实施例的机器可读介质可以是单个介质,但是术语“机器可读介质”应当被认为包括存储一个或多个指令集的单个非暂时性介质或多个非暂时性介质(例如,集中式或分布式数据库和/或相关联的高速缓存和计算系统)。术语“机器可读介质”也可以被认为包括任何非暂时性介质,其能够存储、编码或携带一组指令以供机器执行并且使机器执行各种实施例的任何一个或多个方法,或者能够存储、编码或携带由该组指令利用或与之相关联的数据结构。因此,术语“机器可读介质”可被认为包括但不限于固态存储器、光学介质和磁性介质。
提供本公开的摘要以允许读者快速地确定技术公开的性质。提交本文档时应理解为不会将其用于解释或限制权利要求的范围或含义。另外,在前述具体实施方式中,可以看出,出于简化本公开的目的,在单个实施例中将各种特征组合在一起。本公开的方法不应被解释为反映了以下意图:所要求保护的实施例需要比每个权利要求中明确记载的特征更多的特征。相反,如所附权利要求所反映的,本发明主题在于少于单个公开实施例的所有特征。因此,所附权利要求由此并入详细描述中,其中每个权利要求独立地作为单独的实施例。
Claims (17)
1.一种系统,包括:
数据处理器;以及
车辆位置和速度估计模块,能够由所述数据处理器执行,所述车辆位置和速度估计模块被配置为针对自主车辆执行邻近对象位置和速度估计操作,所述邻近对象位置和速度估计操作被配置为:
从所述自主车辆的子系统接收输入对象数据,所述输入对象数据包括来自图像生成设备的图像数据和来自距离测量设备的距离数据,所述距离测量设备是一个或多个光成像、检测和测距LIDAR传感器;
使用从所述图像生成设备和所述图像数据的语义分割处理接收的所述图像数据,来确定所述自主车辆附近的邻近对象的二维2D位置;
使用在多个周期从所述距离测量设备接收的所述距离数据来跟踪所述邻近对象的三维3D位置,并生成跟踪数据;
将从所述图像数据中识别的所述邻近对象与从所述距离数据中识别并跟踪的所述邻近对象相关,所述相关被配置成将在所述图像数据中检测到的所述邻近对象的所述2D位置与在所述距离数据中检测到的相同的邻近对象的所述3D位置匹配;
使用所述2D位置、从所述距离测量设备接收的所述距离数据和所述跟踪数据,来确定所述邻近对象的3D位置;
使用所述3D位置和所述跟踪数据来确定所述邻近对象的速度;以及
输出所述邻近对象相对于所述自主车辆的所述3D位置和所述速度。
2.根据权利要求1所述的系统,其中,所述图像生成设备是一个或多个相机。
3.根据权利要求1所述的系统,其中,所述邻近对象位置和速度估计操作还被配置为保留来自先前周期的位置跟踪数据。
4.根据权利要求1所述的系统,其中,所述图像数据对应于来自由一个或多个相机生成的视频流的至少一帧。
5.根据权利要求1所述的系统,其中,所述距离数据对应于由所述一个或多个LIDAR传感器生成的点云。
6.根据权利要求1所述的系统,其中,所述邻近对象的所述3D位置和所述速度被输出到车辆控制子系统,使得所述自主车辆避开所述邻近对象。
7.根据权利要求1所述的系统,其中,所述邻近对象位置和速度估计操作被配置为即使在接收到间歇性的、错误的或不稳定的图像数据或距离数据时也生成所述邻近对象的所述3D位置和所述速度。
8.一种方法,包括:
从自主车辆的子系统接收输入对象数据,所述输入对象数据包括来自图像生成设备的图像数据和来自距离测量设备的距离数据,所述距离测量设备是一个或多个光成像、检测和测距LIDAR传感器;
使用从所述图像生成设备和所述图像数据的语义分割处理接收的所述图像数据,来确定所述自主车辆附近的邻近对象的二维2D位置;
使用在多个周期从所述距离测量设备接收的所述距离数据来跟踪所述邻近对象的三维3D位置,并生成跟踪数据;
将从所述图像数据中识别的所述邻近对象与从所述距离数据中识别并跟踪的所述邻近对象相关,所述相关包括:将在所述图像数据中检测到的所述邻近对象的所述2D位置与在所述距离数据中检测到的相同的邻近对象的所述3D位置匹配;
使用所述2D位置、从所述距离测量设备接收的所述距离数据和所述跟踪数据,来确定所述邻近对象的3D位置;
使用所述3D位置和所述跟踪数据来确定所述邻近对象的速度;以及
输出所述邻近对象相对于所述自主车辆的所述3D位置和所述速度。
9.根据权利要求8所述的方法,其中,所述图像生成设备是一个或多个相机。
10.根据权利要求8所述的方法,包括保留来自先前周期的位置跟踪数据。
11.根据权利要求8所述的方法,其中,所述图像数据对应于来自由一个或多个相机生成的视频流的至少一帧。
12.根据权利要求8所述的方法,其中,所述距离数据对应于由所述一个或多个LIDAR传感器生成的点云。
13.根据权利要求8所述的方法,其中,所述邻近对象的所述3D位置和所述速度被输出到车辆控制子系统,使得所述自主车辆避开所述邻近对象。
14.根据权利要求8所述的方法,包括即使当接收到间歇性的、错误的或不稳定的图像数据或距离数据时,也生成所述邻近对象的所述3D位置和所述速度。
15.一种非暂时性机器可用存储介质,包含指令,所述指令在由机器执行时,使得所述机器执行以下操作:
从自主车辆的子系统接收输入对象数据,所述输入对象数据包括来自图像生成设备的图像数据和来自距离测量设备的距离数据,所述距离测量设备是一个或多个光成像、检测和测距LIDAR传感器;
使用从所述图像生成设备和所述图像数据的语义分割处理接收的所述图像数据,来确定所述自主车辆附近的邻近对象的二维2D位置;
使用在多个周期从所述距离测量设备接收的所述距离数据来跟踪所述邻近对象的三维3D位置,并生成跟踪数据;
将从所述图像数据中识别的所述邻近对象与从所述距离数据中识别并跟踪的所述邻近对象相关,所述相关被配置成将在所述图像数据中检测到的所述邻近对象的所述2D位置与在所述距离数据中检测到的相同的邻近对象的所述3D位置匹配;
使用所述2D位置、从所述距离测量设备接收的所述距离数据和所述跟踪数据,来确定所述邻近对象的3D位置;
使用所述3D位置和所述跟踪数据来确定所述邻近对象的速度;以及
输出所述邻近对象相对于所述自主车辆的所述3D位置和所述速度。
16.根据权利要求15所述的非暂时性机器可用存储介质,其中,所述邻近对象位置和速度估计操作被配置为即使在接收到间歇性的、错误的或不稳定的图像数据或距离数据时也生成所述邻近对象的所述3D位置和所述速度。
17.根据权利要求15所述的非暂时性机器可用存储介质,其中,所述邻近对象的所述3D位置和所述速度被输出到车辆控制子系统,使得所述自主车辆避开所述邻近对象。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311407767.1A CN117452428A (zh) | 2017-04-25 | 2018-05-18 | 基于相机和lidar数据的车辆位置和速度估计的系统和方法 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/496,113 US10552691B2 (en) | 2017-04-25 | 2017-04-25 | System and method for vehicle position and velocity estimation based on camera and lidar data |
PCT/US2018/033470 WO2018201162A1 (en) | 2017-04-25 | 2018-05-18 | System and method for vehicle position and velocity estimation based on camera and lidar data |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311407767.1A Division CN117452428A (zh) | 2017-04-25 | 2018-05-18 | 基于相机和lidar数据的车辆位置和速度估计的系统和方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110914707A CN110914707A (zh) | 2020-03-24 |
CN110914707B true CN110914707B (zh) | 2023-11-07 |
Family
ID=61603195
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711020454.5A Active CN107816976B (zh) | 2017-04-25 | 2017-10-27 | 一种接近物体的位置确定方法和装置 |
CN202311407767.1A Pending CN117452428A (zh) | 2017-04-25 | 2018-05-18 | 基于相机和lidar数据的车辆位置和速度估计的系统和方法 |
CN201880027842.2A Active CN110914707B (zh) | 2017-04-25 | 2018-05-18 | 基于相机和lidar数据的车辆位置和速度估计的系统和方法 |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711020454.5A Active CN107816976B (zh) | 2017-04-25 | 2017-10-27 | 一种接近物体的位置确定方法和装置 |
CN202311407767.1A Pending CN117452428A (zh) | 2017-04-25 | 2018-05-18 | 基于相机和lidar数据的车辆位置和速度估计的系统和方法 |
Country Status (5)
Country | Link |
---|---|
US (4) | US10552691B2 (zh) |
EP (1) | EP3616020A4 (zh) |
CN (3) | CN107816976B (zh) |
AU (2) | AU2018256926B2 (zh) |
WO (1) | WO2018201162A1 (zh) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10552691B2 (en) | 2017-04-25 | 2020-02-04 | TuSimple | System and method for vehicle position and velocity estimation based on camera and lidar data |
US10752246B2 (en) | 2017-07-01 | 2020-08-25 | Tusimple, Inc. | System and method for adaptive cruise control with proximate vehicle detection |
US10737695B2 (en) * | 2017-07-01 | 2020-08-11 | Tusimple, Inc. | System and method for adaptive cruise control for low speed following |
KR102420568B1 (ko) * | 2018-04-27 | 2022-07-13 | 삼성전자주식회사 | 차량의 위치를 결정하는 방법 및 이를 위한 차량 |
CN110163904B (zh) * | 2018-09-11 | 2022-04-22 | 腾讯大地通途(北京)科技有限公司 | 对象标注方法、移动控制方法、装置、设备及存储介质 |
US10878282B2 (en) * | 2018-10-15 | 2020-12-29 | Tusimple, Inc. | Segmentation processing of image data for LiDAR-based vehicle tracking system and method |
CN113743228B (zh) * | 2018-12-10 | 2023-07-14 | 百度在线网络技术(北京)有限公司 | 基于多数据融合结果的障碍物存在性检测方法和装置 |
CN110068826B (zh) * | 2019-03-27 | 2021-05-07 | 东软睿驰汽车技术(沈阳)有限公司 | 一种测距的方法及装置 |
RU2767955C1 (ru) | 2019-05-27 | 2022-03-22 | Общество с ограниченной ответственностью "Яндекс Беспилотные Технологии" | Способы и системы для определения компьютером наличия динамических объектов |
CN110281950B (zh) | 2019-07-08 | 2020-09-04 | 睿镞科技(北京)有限责任公司 | 基于三维声像传感器的载运工具控制与可视化环境体验 |
US11300677B2 (en) * | 2019-07-08 | 2022-04-12 | GM Global Technology Operations LLC | Automated driving systems and control logic for host vehicle velocity estimation using wide aperture radar |
US11235768B2 (en) | 2019-07-25 | 2022-02-01 | Ford Global Technologies, Llc | Detection of vehicle operating conditions |
US11556000B1 (en) | 2019-08-22 | 2023-01-17 | Red Creamery Llc | Distally-actuated scanning mirror |
US11067668B1 (en) * | 2020-02-03 | 2021-07-20 | Outsight SA | System, method, and computer program product for automatically configuring a detection device |
CN112193073B (zh) * | 2020-09-30 | 2023-09-08 | 江苏悦达专用车有限公司 | 一种电动汽车整车控制器降功率处理系统 |
CN112598705B (zh) * | 2020-12-17 | 2024-05-03 | 太原理工大学 | 一种基于双目视觉的车身姿态检测方法 |
JP7494724B2 (ja) * | 2020-12-18 | 2024-06-04 | トヨタ自動車株式会社 | 自動運転車両 |
JP2022152402A (ja) * | 2021-03-29 | 2022-10-12 | 本田技研工業株式会社 | 認識装置、車両システム、認識方法、およびプログラム |
WO2023009987A1 (en) * | 2021-07-25 | 2023-02-02 | Tusimple, Inc. | Systems and methods for operating an autonomous vehicle |
CN113888903A (zh) * | 2021-11-05 | 2022-01-04 | 四川启睿克科技有限公司 | 一种头戴式车辆接近告警系统 |
CN114367110B (zh) * | 2022-01-10 | 2023-06-20 | 腾讯科技(深圳)有限公司 | 数据处理方法、装置、电子设备及存储介质 |
CN114529723A (zh) * | 2022-02-11 | 2022-05-24 | 广西大学 | 智能二维相位展开系统、应用、其训练及数据集构建方法 |
EP4312054A1 (en) * | 2022-07-29 | 2024-01-31 | GM Cruise Holdings LLC | Radar point cloud multipath reflection compensation |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102248947A (zh) * | 2010-05-12 | 2011-11-23 | 通用汽车环球科技运作有限责任公司 | 使用3-d激光测距仪的目标和车辆检测及跟踪 |
CN104964692A (zh) * | 2014-03-22 | 2015-10-07 | 福特全球技术公司 | 来自车辆的跟踪 |
CN106828492A (zh) * | 2013-05-03 | 2017-06-13 | 谷歌公司 | 对控制车辆的速度的预测性推理 |
CN107430195A (zh) * | 2015-03-25 | 2017-12-01 | 伟摩有限责任公司 | 具有多个光检测和测距装置(lidar)的车辆 |
Family Cites Families (123)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6822563B2 (en) | 1997-09-22 | 2004-11-23 | Donnelly Corporation | Vehicle imaging system with accessory control |
US5877897A (en) | 1993-02-26 | 1999-03-02 | Donnelly Corporation | Automatic rearview mirror, vehicle lighting control and vehicle interior monitoring system using a photosensor array |
US7103460B1 (en) | 1994-05-09 | 2006-09-05 | Automotive Technologies International, Inc. | System and method for vehicle diagnostics |
US7783403B2 (en) | 1994-05-23 | 2010-08-24 | Automotive Technologies International, Inc. | System and method for preventing vehicular accidents |
US7655894B2 (en) | 1996-03-25 | 2010-02-02 | Donnelly Corporation | Vehicular image sensing system |
EP1504276B1 (en) | 2002-05-03 | 2012-08-08 | Donnelly Corporation | Object detection system for vehicle |
KR100446636B1 (ko) * | 2002-11-21 | 2004-09-04 | 삼성전자주식회사 | 이동체의 움직임 및 이동체 전방에 위치한 물체의 3차원정보 측정 기능을 구비한 이동체 및 그 방법 |
US6777904B1 (en) | 2003-02-25 | 2004-08-17 | Ford Global Technologies, Llc | Method and system for controlling a motor |
US7263209B2 (en) * | 2003-06-13 | 2007-08-28 | Sarnoff Corporation | Vehicular vision system |
EP3454315A1 (en) | 2004-04-08 | 2019-03-13 | Mobileye Vision Technologies Ltd. | Collision warning system |
WO2005098751A1 (en) | 2004-04-08 | 2005-10-20 | Mobileye Technologies Limited | Crowd detection |
WO2005098739A1 (en) | 2004-04-08 | 2005-10-20 | Mobileye Technologies Limited | Pedestrian detection |
US7526103B2 (en) | 2004-04-15 | 2009-04-28 | Donnelly Corporation | Imaging system for vehicle |
US7706978B2 (en) * | 2005-09-02 | 2010-04-27 | Delphi Technologies, Inc. | Method for estimating unknown parameters for a vehicle object detection system |
US8553088B2 (en) | 2005-11-23 | 2013-10-08 | Mobileye Technologies Limited | Systems and methods for detecting obstructions in a camera field of view |
US8164628B2 (en) | 2006-01-04 | 2012-04-24 | Mobileye Technologies Ltd. | Estimating distance to an object using a sequence of images recorded by a monocular camera |
US7689559B2 (en) | 2006-02-08 | 2010-03-30 | Telenor Asa | Document similarity scoring and ranking method, device and computer program product |
US7786898B2 (en) | 2006-05-31 | 2010-08-31 | Mobileye Technologies Ltd. | Fusion of far infrared and visible images in enhanced obstacle detection in automotive applications |
US8139109B2 (en) * | 2006-06-19 | 2012-03-20 | Oshkosh Corporation | Vision system for an autonomous vehicle |
EP2383713B1 (en) | 2006-12-06 | 2013-05-29 | Mobileye Technologies Limited | Detecting and recognizing traffic signs |
US20080249667A1 (en) | 2007-04-09 | 2008-10-09 | Microsoft Corporation | Learning and reasoning to enhance energy efficiency in transportation systems |
US7839292B2 (en) | 2007-04-11 | 2010-11-23 | Nec Laboratories America, Inc. | Real-time driving danger level prediction |
US8041111B1 (en) | 2007-10-15 | 2011-10-18 | Adobe Systems Incorporated | Subjective and locatable color theme extraction for images |
EP2071515A1 (en) * | 2007-12-11 | 2009-06-17 | Honda Research Institute Europe GmbH | Visually tracking an object in real world using 2D appearance and multicue depth estimations |
US9176006B2 (en) | 2008-01-15 | 2015-11-03 | Mobileye Vision Technologies Ltd. | Detection and classification of light sources using a diffraction grating |
US9041915B2 (en) * | 2008-05-09 | 2015-05-26 | Ball Aerospace & Technologies Corp. | Systems and methods of scene and action capture using imaging system incorporating 3D LIDAR |
US9117133B2 (en) | 2008-06-18 | 2015-08-25 | Spectral Image, Inc. | Systems and methods for hyperspectral imaging |
US20100049397A1 (en) | 2008-08-22 | 2010-02-25 | Garmin Ltd. | Fuel efficient routing |
US8989972B2 (en) * | 2008-09-11 | 2015-03-24 | Deere & Company | Leader-follower fully-autonomous vehicle with operator on side |
US8055445B2 (en) * | 2008-09-24 | 2011-11-08 | Delphi Technologies, Inc. | Probabilistic lane assignment method |
US8126642B2 (en) | 2008-10-24 | 2012-02-28 | Gray & Company, Inc. | Control and systems for autonomously driven vehicles |
US9459515B2 (en) | 2008-12-05 | 2016-10-04 | Mobileye Vision Technologies Ltd. | Adjustable camera mount for a vehicle windshield |
US8812226B2 (en) * | 2009-01-26 | 2014-08-19 | GM Global Technology Operations LLC | Multiobject fusion module for collision preparation system |
US8175376B2 (en) | 2009-03-09 | 2012-05-08 | Xerox Corporation | Framework for image thumbnailing based on visual similarity |
JP2012521708A (ja) | 2009-03-26 | 2012-09-13 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 色周波数に基づく顕著性マップを用いて画像を修正する方法及び装置 |
US8271871B2 (en) | 2009-04-30 | 2012-09-18 | Xerox Corporation | Automated method for alignment of document objects |
US8392117B2 (en) | 2009-05-22 | 2013-03-05 | Toyota Motor Engineering & Manufacturing North America, Inc. | Using topological structure for path planning in semi-structured environments |
US8645480B1 (en) | 2009-07-19 | 2014-02-04 | Aaron T. Emigh | Trust representation by similarity |
JP2011176748A (ja) | 2010-02-25 | 2011-09-08 | Sony Corp | 画像処理装置および方法、並びにプログラム |
US9118816B2 (en) | 2011-12-06 | 2015-08-25 | Mobileye Vision Technologies Ltd. | Road vertical contour detection |
US9280711B2 (en) | 2010-09-21 | 2016-03-08 | Mobileye Vision Technologies Ltd. | Barrier and guardrail detection using a single camera |
US8509982B2 (en) | 2010-10-05 | 2013-08-13 | Google Inc. | Zone driving |
EP2448251B1 (en) | 2010-10-31 | 2019-09-25 | Mobileye Vision Technologies Ltd. | Bundling night vision and other driver assistance systems (DAS) using near infra red (NIR) illumination and a rolling shutter |
EP2641401B1 (en) | 2010-11-15 | 2017-04-05 | Huawei Technologies Co., Ltd. | Method and system for video summarization |
US9251708B2 (en) | 2010-12-07 | 2016-02-02 | Mobileye Vision Technologies Ltd. | Forward collision warning trap and pedestrian advanced warning system |
US8401292B2 (en) | 2011-04-26 | 2013-03-19 | Eastman Kodak Company | Identifying high saliency regions in digital images |
US9233659B2 (en) | 2011-04-27 | 2016-01-12 | Mobileye Vision Technologies Ltd. | Pedestrian collision warning system |
KR101777875B1 (ko) | 2011-04-28 | 2017-09-13 | 엘지디스플레이 주식회사 | 입체 영상 표시장치와 그 입체 영상 조절 방법 |
US9183447B1 (en) | 2011-06-09 | 2015-11-10 | Mobileye Vision Technologies Ltd. | Object detection using candidate object alignment |
DE112012003140T5 (de) | 2011-07-28 | 2014-06-26 | Honda Motor Co., Ltd. | Drahtloses Energieübertragungsverfahren |
DE102011083749B4 (de) | 2011-09-29 | 2015-06-11 | Aktiebolaget Skf | Rotorblatt einer Windkraftanlage mit einer Vorrichtung zum Erfassen eines Abstandswertes und Verfahren zum Erfassen eines Abstandswertes |
US9297641B2 (en) | 2011-12-12 | 2016-03-29 | Mobileye Vision Technologies Ltd. | Detection of obstacles at night by analysis of shadows |
FR2984254B1 (fr) | 2011-12-16 | 2016-07-01 | Renault Sa | Controle de vehicules autonomes |
JP5605381B2 (ja) | 2012-02-13 | 2014-10-15 | 株式会社デンソー | クルーズ制御装置 |
US9042648B2 (en) | 2012-02-23 | 2015-05-26 | Microsoft Technology Licensing, Llc | Salient object segmentation |
US9128185B2 (en) * | 2012-03-15 | 2015-09-08 | GM Global Technology Operations LLC | Methods and apparatus of fusing radar/camera object data and LiDAR scan points |
US9476970B1 (en) | 2012-03-19 | 2016-10-25 | Google Inc. | Camera based localization |
US9134402B2 (en) | 2012-08-13 | 2015-09-15 | Digital Signal Corporation | System and method for calibrating video and lidar subsystems |
US9025880B2 (en) | 2012-08-29 | 2015-05-05 | Disney Enterprises, Inc. | Visual saliency estimation for images and video |
US9120485B1 (en) | 2012-09-14 | 2015-09-01 | Google Inc. | Methods and systems for smooth trajectory generation for a self-driving vehicle |
US9111444B2 (en) | 2012-10-31 | 2015-08-18 | Raytheon Company | Video and lidar target detection and tracking system and method for segmenting moving targets |
US9092430B2 (en) | 2013-01-02 | 2015-07-28 | International Business Machines Corporation | Assigning shared catalogs to cache structures in a cluster computing system |
US8788134B1 (en) | 2013-01-04 | 2014-07-22 | GM Global Technology Operations LLC | Autonomous driving merge management system |
EP2946336B1 (en) | 2013-01-15 | 2023-06-21 | Mobileye Vision Technologies Ltd. | Stereo assist with rolling shutters |
US9277132B2 (en) | 2013-02-21 | 2016-03-01 | Mobileye Vision Technologies Ltd. | Image distortion correction of a camera with a rolling shutter |
US9111355B1 (en) | 2013-03-13 | 2015-08-18 | Hrl Laboratories, Llc | Selective color processing for vision systems that enables optimal detection and recognition |
US9147255B1 (en) | 2013-03-14 | 2015-09-29 | Hrl Laboratories, Llc | Rapid object detection by combining structural information from image segmentation with bio-inspired attentional mechanisms |
US9342074B2 (en) | 2013-04-05 | 2016-05-17 | Google Inc. | Systems and methods for transitioning control of an autonomous vehicle to a driver |
US9438878B2 (en) | 2013-05-01 | 2016-09-06 | Legend3D, Inc. | Method of converting 2D video to 3D video using 3D object models |
US9671243B2 (en) | 2013-06-13 | 2017-06-06 | Mobileye Vision Technologies Ltd. | Vision augmented navigation |
US9110163B2 (en) * | 2013-06-14 | 2015-08-18 | Microsoft Technology Licensing, Llc | Lidar-based classification of object movement |
US9315192B1 (en) | 2013-09-30 | 2016-04-19 | Google Inc. | Methods and systems for pedestrian avoidance using LIDAR |
US9336436B1 (en) * | 2013-09-30 | 2016-05-10 | Google Inc. | Methods and systems for pedestrian avoidance |
US9122954B2 (en) | 2013-10-01 | 2015-09-01 | Mobileye Vision Technologies Ltd. | Performing a histogram using an array of addressable registers |
US9738280B2 (en) | 2013-10-03 | 2017-08-22 | Robert Bosch Gmbh | Adaptive cruise control with on-ramp detection |
US9330334B2 (en) | 2013-10-24 | 2016-05-03 | Adobe Systems Incorporated | Iterative saliency map estimation |
US9299004B2 (en) | 2013-10-24 | 2016-03-29 | Adobe Systems Incorporated | Image foreground detection |
US8989944B1 (en) * | 2013-11-26 | 2015-03-24 | Google Inc. | Methods and devices for determining movements of an object in an environment |
US9796400B2 (en) * | 2013-11-27 | 2017-10-24 | Solfice Research, Inc. | Real time machine vision and point-cloud analysis for remote sensing and vehicle control |
EP3092599B1 (en) | 2013-12-04 | 2019-03-06 | Mobileye Vision Technologies Ltd. | Systems and methods for mimicking a leading vehicle |
US9285230B1 (en) * | 2013-12-20 | 2016-03-15 | Google Inc. | Methods and systems for detecting road curbs |
WO2015103159A1 (en) | 2013-12-30 | 2015-07-09 | Tieman Craig Arnold | Connected vehicle system with infotainment interface for mobile devices |
US9248832B2 (en) | 2014-01-30 | 2016-02-02 | Mobileye Vision Technologies Ltd. | Systems and methods for detecting traffic signal details |
US9664789B2 (en) | 2014-02-20 | 2017-05-30 | Mobileye Vision Technologies Ltd. | Navigation based on radar-cued visual imaging |
CN103793925B (zh) | 2014-02-24 | 2016-05-18 | 北京工业大学 | 融合时空特征的视频图像视觉显著程度检测方法 |
DE102014205170A1 (de) | 2014-03-20 | 2015-11-26 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Vorrichtung zum Ermitteln einer Trajektorie für ein Fahrzeug |
US9098754B1 (en) * | 2014-04-25 | 2015-08-04 | Google Inc. | Methods and systems for object detection using laser point clouds |
CN105100134A (zh) | 2014-04-28 | 2015-11-25 | 思科技术公司 | 屏幕共享缓存管理 |
WO2015177648A1 (en) | 2014-05-14 | 2015-11-26 | Ofer Springer | Systems and methods for curb detection and pedestrian hazard assessment |
US9720418B2 (en) | 2014-05-27 | 2017-08-01 | Here Global B.V. | Autonomous vehicle monitoring and control |
WO2015186002A2 (en) | 2014-06-03 | 2015-12-10 | Mobileye Vision Technologies Ltd. | Systems and methods for detecting an object |
US9457807B2 (en) | 2014-06-05 | 2016-10-04 | GM Global Technology Operations LLC | Unified motion planning algorithm for autonomous driving vehicle in obstacle avoidance maneuver |
CN104102218B (zh) * | 2014-06-30 | 2017-04-05 | 西北工业大学 | 基于视觉伺服的感知与规避方法及系统 |
US9554030B2 (en) | 2014-09-29 | 2017-01-24 | Yahoo! Inc. | Mobile device image acquisition using objects of interest recognition |
US9746550B2 (en) | 2014-10-08 | 2017-08-29 | Ford Global Technologies, Llc | Detecting low-speed close-range vehicle cut-in |
KR101664582B1 (ko) | 2014-11-12 | 2016-10-10 | 현대자동차주식회사 | 자율주행차량의 주행경로 생성장치 및 방법 |
US20160231746A1 (en) * | 2015-02-06 | 2016-08-11 | Delphi Technologies, Inc. | System And Method To Operate An Automated Vehicle |
US10115024B2 (en) | 2015-02-26 | 2018-10-30 | Mobileye Vision Technologies Ltd. | Road vertical contour detection using a stabilized coordinate frame |
JP6421684B2 (ja) | 2015-04-17 | 2018-11-14 | 井関農機株式会社 | 乗用草刈機 |
US10635761B2 (en) | 2015-04-29 | 2020-04-28 | Energid Technologies Corporation | System and method for evaluation of object autonomy |
US9711050B2 (en) * | 2015-06-05 | 2017-07-18 | Bao Tran | Smart vehicle |
US9836056B2 (en) * | 2015-06-05 | 2017-12-05 | Bao Tran | Smart vehicle |
DE102015211926A1 (de) | 2015-06-26 | 2016-12-29 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Ermitteln bzw. Bewerten einer Soll-Trajektorie eines Kraftfahrzeugs |
JP6436237B2 (ja) | 2015-07-23 | 2018-12-12 | 日本電気株式会社 | 経路切替装置、経路切替システムおよび経路切替方法 |
EP3998455A1 (en) * | 2015-08-03 | 2022-05-18 | TomTom Global Content B.V. | Methods and systems for generating and using localisation reference data |
US9587952B1 (en) | 2015-09-09 | 2017-03-07 | Allstate Insurance Company | Altering autonomous or semi-autonomous vehicle operation based on route traversal values |
US9612123B1 (en) * | 2015-11-04 | 2017-04-04 | Zoox, Inc. | Adaptive mapping to navigate autonomous vehicles responsive to physical environment changes |
US9841763B1 (en) * | 2015-12-16 | 2017-12-12 | Uber Technologies, Inc. | Predictive sensor array configuration system for an autonomous vehicle |
KR102373926B1 (ko) * | 2016-02-05 | 2022-03-14 | 삼성전자주식회사 | 이동체 및 이동체의 위치 인식 방법 |
US9568915B1 (en) | 2016-02-11 | 2017-02-14 | Mitsubishi Electric Research Laboratories, Inc. | System and method for controlling autonomous or semi-autonomous vehicle |
US9535423B1 (en) | 2016-03-29 | 2017-01-03 | Adasworks Kft. | Autonomous vehicle with improved visual detection ability |
CN107817503B (zh) * | 2016-09-14 | 2018-12-21 | 北京百度网讯科技有限公司 | 应用于激光点云数据的运动补偿方法和装置 |
KR102404155B1 (ko) * | 2016-09-28 | 2022-05-31 | 톰톰 글로벌 콘텐트 비.브이. | 위치파악 참조 데이터를 생성 및 사용하기 위한 방법 및 시스템 |
US10248872B2 (en) * | 2016-10-19 | 2019-04-02 | Texas Instruments Incorporated | Estimation of time to collision in a computer vision system |
CN106354130B (zh) * | 2016-10-31 | 2021-01-22 | 北京新能源汽车股份有限公司 | 无人驾驶汽车及其控制方法和远程监控系统 |
EP3392798A1 (en) * | 2017-04-21 | 2018-10-24 | Delphi Technologies, Inc. | A method for the semantic segmentation of an image |
US10552691B2 (en) | 2017-04-25 | 2020-02-04 | TuSimple | System and method for vehicle position and velocity estimation based on camera and lidar data |
US10558864B2 (en) * | 2017-05-18 | 2020-02-11 | TuSimple | System and method for image localization based on semantic segmentation |
US10737695B2 (en) * | 2017-07-01 | 2020-08-11 | Tusimple, Inc. | System and method for adaptive cruise control for low speed following |
US10493988B2 (en) * | 2017-07-01 | 2019-12-03 | TuSimple | System and method for adaptive cruise control for defensive driving |
US10163017B2 (en) * | 2017-09-01 | 2018-12-25 | GM Global Technology Operations LLC | Systems and methods for vehicle signal light detection |
US20180095475A1 (en) * | 2017-11-22 | 2018-04-05 | GM Global Technology Operations LLC | Systems and methods for visual position estimation in autonomous vehicles |
US10546202B2 (en) * | 2017-12-14 | 2020-01-28 | Toyota Research Institute, Inc. | Proving hypotheses for a vehicle using optimal experiment design |
-
2017
- 2017-04-25 US US15/496,113 patent/US10552691B2/en active Active
- 2017-10-27 CN CN201711020454.5A patent/CN107816976B/zh active Active
-
2018
- 2018-05-18 EP EP18791957.6A patent/EP3616020A4/en active Pending
- 2018-05-18 AU AU2018256926A patent/AU2018256926B2/en active Active
- 2018-05-18 CN CN202311407767.1A patent/CN117452428A/zh active Pending
- 2018-05-18 CN CN201880027842.2A patent/CN110914707B/zh active Active
- 2018-05-18 WO PCT/US2018/033470 patent/WO2018201162A1/en unknown
-
2020
- 2020-01-25 US US16/752,637 patent/US11557128B2/en active Active
-
2022
- 2022-12-28 US US18/090,217 patent/US11928868B2/en active Active
-
2023
- 2023-06-23 AU AU2023203964A patent/AU2023203964A1/en active Pending
-
2024
- 2024-03-05 US US18/596,354 patent/US20240212363A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102248947A (zh) * | 2010-05-12 | 2011-11-23 | 通用汽车环球科技运作有限责任公司 | 使用3-d激光测距仪的目标和车辆检测及跟踪 |
CN106828492A (zh) * | 2013-05-03 | 2017-06-13 | 谷歌公司 | 对控制车辆的速度的预测性推理 |
CN104964692A (zh) * | 2014-03-22 | 2015-10-07 | 福特全球技术公司 | 来自车辆的跟踪 |
CN107430195A (zh) * | 2015-03-25 | 2017-12-01 | 伟摩有限责任公司 | 具有多个光检测和测距装置(lidar)的车辆 |
Also Published As
Publication number | Publication date |
---|---|
US20240212363A1 (en) | 2024-06-27 |
CN110914707A (zh) | 2020-03-24 |
CN107816976B (zh) | 2020-06-16 |
CN117452428A (zh) | 2024-01-26 |
US20230162510A1 (en) | 2023-05-25 |
US10552691B2 (en) | 2020-02-04 |
EP3616020A1 (en) | 2020-03-04 |
WO2018201162A1 (en) | 2018-11-01 |
CN107816976A (zh) | 2018-03-20 |
AU2023203964A1 (en) | 2023-07-13 |
AU2018256926A1 (en) | 2019-10-31 |
AU2018256926B2 (en) | 2023-03-30 |
US20180308250A1 (en) | 2018-10-25 |
US20200160071A1 (en) | 2020-05-21 |
US11928868B2 (en) | 2024-03-12 |
EP3616020A4 (en) | 2020-12-30 |
US11557128B2 (en) | 2023-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110914707B (zh) | 基于相机和lidar数据的车辆位置和速度估计的系统和方法 | |
CN110914778B (zh) | 用于基于语义分割的图像定位的系统和方法 | |
US11948082B2 (en) | System and method for proximate vehicle intention prediction for autonomous vehicles | |
CN111344646B (zh) | 用于自主车辆的轨迹规划的基于数据驱动的预测的系统和方法 | |
US20240046489A1 (en) | System and method for online real-time multi-object tracking | |
US10953881B2 (en) | System and method for automated lane change control for autonomous vehicles | |
CN111356620B (zh) | 用于自主车辆控制以最小化能量成本的系统和方法 | |
US10953880B2 (en) | System and method for automated lane change control for autonomous vehicles | |
WO2020056431A1 (en) | System and method for three-dimensional (3d) object detection | |
US10737695B2 (en) | System and method for adaptive cruise control for low speed following | |
CN112154088B (zh) | 用于自主车辆的自动车道变更控制的系统和方法 | |
US10493988B2 (en) | System and method for adaptive cruise control for defensive driving | |
CN112272844B (zh) | 针对用于自主车辆的邻近车辆意图预测的系统和方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |