CN110895147B - 自动驾驶车辆的用相机捕获图像数据的图像数据获取逻辑 - Google Patents
自动驾驶车辆的用相机捕获图像数据的图像数据获取逻辑 Download PDFInfo
- Publication number
- CN110895147B CN110895147B CN201910434572.3A CN201910434572A CN110895147B CN 110895147 B CN110895147 B CN 110895147B CN 201910434572 A CN201910434572 A CN 201910434572A CN 110895147 B CN110895147 B CN 110895147B
- Authority
- CN
- China
- Prior art keywords
- sensor
- module
- frame
- camera
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 claims abstract description 91
- 230000005540 biological transmission Effects 0.000 claims description 15
- 230000004044 response Effects 0.000 claims description 10
- 238000012360 testing method Methods 0.000 claims description 8
- 230000008878 coupling Effects 0.000 claims description 4
- 238000010168 coupling process Methods 0.000 claims description 4
- 238000005859 coupling reaction Methods 0.000 claims description 4
- 238000001514 detection method Methods 0.000 claims description 3
- 238000005259 measurement Methods 0.000 claims description 2
- 238000000034 method Methods 0.000 description 35
- 230000008569 process Effects 0.000 description 27
- 230000015654 memory Effects 0.000 description 26
- 230000008447 perception Effects 0.000 description 24
- 238000004891 communication Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 15
- 238000012546 transfer Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 230000001133 acceleration Effects 0.000 description 6
- 230000033001 locomotion Effects 0.000 description 6
- 230000001413 cellular effect Effects 0.000 description 5
- 230000002085 persistent effect Effects 0.000 description 5
- 238000007405 data analysis Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000001788 irregular Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009429 electrical wiring Methods 0.000 description 1
- 229910000078 germane Inorganic materials 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
- 239000011800 void material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/91—Radar or analogous systems specially adapted for specific applications for traffic control
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/0278—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/01—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Electromagnetism (AREA)
- Artificial Intelligence (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
- Quality & Reliability (AREA)
- Computer Networks & Wireless Communication (AREA)
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Studio Devices (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
ADV中使用的传感器单元包括可以联接到安装在ADV上的相机的传感器接口。传感器单元还包括可以联接到主机系统的主机接口。主机系统被配置为至少基于从相机获得的图像数据来感知ADV周围的驾驶环境,并规划用于自动驾驶ADV的路径。传感器单元还包括与相机对应的一个或多个数据获取模块。每个数据获取模块包括像素对准模块和帧处理模块。像素对准模块被配置为将图像数据的像素从与相应相机关联的原始格式重新格式化为预定格式。帧处理模块被配置为基于图像数据生成图像帧并将图像帧发送到主机系统。
Description
技术领域
本公开的实施方式总体涉及操作自动驾驶车辆。更具体地,本公开的实施方式涉及用于感知自动驾驶车辆周围的驾驶环境的图像的图像数据获取。
背景技术
以自动驾驶模式运行(例如,无人驾驶)的车辆可以将乘员、尤其是驾驶员从一些驾驶相关的职责中解放出来。当以自动驾驶模式运行时,车辆可以使用车载传感器导航到各个位置,从而允许车辆在最少人机交互的情况下或在没有任何乘客的一些情况下行驶。
运动规划和控制是自动驾驶中的关键操作。运动规划和控制的准确性和效率在很大程度上取决于车辆的传感器。不同的传感器可能有不同的要求或规格。用于自动驾驶车辆的最受欢迎的传感器之一是相机。相机可以生成需要大量处理资源的大量图像数据。缺乏可以处理大量图像数据的有效相机数据获取机制。
发明内容
在本公开的一方面中,提供了一种用于自动驾驶车辆的传感器单元,所述传感器单元包括:传感器接口,联接到安装在所述自动驾驶车辆(ADV)的多个位置上的多个相机;主机接口,联接到主机系统,其中,所述主机系统被配置为至少基于从所述相机获得的图像数据来感知所述ADV周围的驾驶环境并规划用于自动驾驶所述ADV的路径;以及多个数据获取模块,每个数据获取模块对应所述多个相机中的一个,其中,所述数据获取模块中的每个包括:像素对准模块,用于将图像数据的像素从与相应相机关联的原始格式重新格式化为预定格式,以及帧处理模块,联接到所述像素对准模块,其中,所述帧处理模块被配置为基于从所述像素对准模块接收的图像数据生成图像帧并将所述图像帧发送到所述主机系统。
在本公开的另一方面中,提供了一种自动驾驶系统,包括:多个传感器,安装在自动驾驶车辆(ADV)的多个位置上;主机系统,用于基于从所述传感器获得的传感器数据来感知所述ADV周围的驾驶环境并规划用于自动驾驶所述ADV的路径;以及传感器单元,联接到所述多个传感器和所述主机系统,其中,所述传感器单元包括:传感器接口,联接到安装在所述ADV上的所述多个传感器,主机接口,联接到所述主机系统,以及多个数据获取模块,每个数据获取模块对应多个相机中的一个,其中,所述数据获取模块中的每个包括:像素对准模块,用于将图像数据的像素从与相应相机关联的原始格式重新格式化为预定格式,以及帧处理模块,联接到所述像素对准模块,其中,所述帧处理模块被配置为基于从所述像素对准模块接收的图像数据生成图像帧并将所述图像帧发送到所述主机系统。
附图说明
本公开的实施方式在附图的各图中以举例而非限制的方式示出,附图中的相同参考数字指示相同元件。
图1是示出根据一个实施方式的网络化系统的框图。
图2是示出根据一个实施方式的自动驾驶车辆的示例的框图。
图3A至3B是示出根据一个实施方式的与自动驾驶车辆一起使用的感知与规划系统的示例的框图。
图4是示出根据一个实施方式的自动驾驶系统的架构的框图。
图5A至5B是示出根据一个实施方式的传感器单元的示例的框图。
图6是示出根据一个实施方式的传感器处理模块的示例的框图。
图7是示出根据一个实施方式的图像帧的数据结构的框图。
图8是示出根据一个实施方式的获取传感器数据的过程的流程图。
图9是示出根据一个实施方式的数据处理系统的框图。
具体实施方式
将参考以下所讨论的细节来描述本公开的各种实施方式和方面,附图将示出各种实施方式。下列描述和附图是对本公开的说明,而不应当解释为限制本公开。描述了许多特定细节以提供对本公开各种实施方式的全面理解。然而,在某些情况下,并未描述众所周知的或常规的细节以提供对本公开的实施方式的简洁讨论。
本说明书中对“一个实施方式”或“实施方式”的提及意味着结合该实施方式所描述的特定特征、结构或特性可以包括在本公开的至少一个实施方式中。短语“在一个实施方式中”在本说明书中各个地方的出现不必全部指同一实施方式。
根据本发明的一个方面,在自动驾驶车辆(ADV)中使用的传感器单元包括传感器接口,该传感器接口可以联接到一个或多个图像传感器,例如安装在ADV的各个位置上的相机。传感器单元还包括可以联接到主机系统的主机接口。主机系统被配置为至少基于从相机获得的图像数据来感知ADV周围的驾驶环境,并规划用于自动驾驶ADV的路径。传感器单元还包括一个或多个数据获取模块,每个数据获取模块都对应于相机中的一个。每个数据获取模块都包括像素对准模块和帧处理模块。像素对准模块被配置为将图像数据的像素从与相应相机关联的原始格式重新格式化为预定格式。帧处理模块被配置为基于从像素对准模块接收的图像数据生成图像帧,并经由主机接口将图像帧发送到主机系统。
在一个实施方式中,每个数据获取模块还包括联接到像素对准模块的相机模拟器。相机模拟器被配置为模拟相机的操作以在无需使用相机的情况下生成模拟的图像数据。模拟的图像数据可用于在无需与实际相机联接的情况下测试像素对准模块和帧处理模块的功能。根据另一实施方式,每个数据获取模块还包括联接到帧处理模块的主机模拟器。主机模拟器可用于在无需使用主机系统的情况下通过生成模拟的主机命令和响应来模拟主机系统。模拟的主机命令和响应被用于在无需与主机系统联接的情况下测试像素对准模块和帧处理模块的功能。
根据另一实施方式,像素对准模块包括像素错误检测器,用于检查图像数据从而检测像素错误。像素错误检测器被配置为检测图像数据中是否存在足够数量的像素,或者图像数据是否违反与相应相机关联的相机传输协议。数据获取模块还可包括帧错误检测器,用于检查图像帧从而检测帧错误。帧错误检测器被配置为检测图像帧是否为诸如短帧或长帧的不规则帧。
获取模块还可以包括触发计数器,用于存储已经被发送到相机的触发信号的计数,其中触发信号被用于触发或激活相机以捕获新图像,类似于快门机制。触发计数可以被包含在响应于最新触发信号而捕获的图像帧中,该最新触发信号可以用作帧包的序列号。获取模块还可以包括时间戳生成器,用于为从相机接收的每个图像数据生成时间戳。时间戳可以代表图像数据被接收的时间。时间戳可用于调试目的。
根据本发明的另一方面,自动驾驶系统包括安装在ADV的各种位置上的多个传感器。自动驾驶系统还包括主机系统,其中主机系统包括感知模块和规划与控制模块。感知模块用于基于从传感器获得的传感器数据来感知ADV周围的驾驶环境。规划与控制模块用于基于感知数据规划路径并沿着该路径驱动ADV。自动驾驶系统还包括联接到传感器和主机系统的传感器单元。传感器单元包括传感器接口,传感器接口可以联接到一个或多个图像传感器,诸如安装在ADV的各种位置上的相机。传感器单元还包括可以联接到主机系统的主机接口。主机系统被配置为至少基于从相机获得的图像数据来感知ADV周围的驾驶环境,并规划用于自动驾驶ADV的路径。传感器单元还包括一个或多个数据获取模块,每个数据获取模块都对应于相机中的一个。每个数据获取模块都包括像素对准模块和帧处理模块。像素对准模块被配置为将图像数据的像素从与相应相机关联的原始格式重新格式化为预定格式。帧处理模块被配置为基于从像素对准模块接收的图像数据生成图像帧,并经由主机接口将图像帧发送到主机系统。传感器单元还包括如上所述的某些特征。
图1是示出根据本公开的一个实施方式的自动驾驶车辆网络配置的框图。参考图1,网络配置100包括可以通过网络102通信地联接到一个或多个服务器103至104的自动驾驶车辆101。尽管示出一个自动驾驶车辆,但多个自动驾驶车辆可以通过网络102联接到彼此和/或联接到服务器103至104。网络102可以是任何类型的网络,例如,有线或无线的局域网(LAN)、诸如互联网的广域网(WAN)、蜂窝网络、卫星网络或其组合。服务器103至104可以是任何类型的服务器或服务器群集,诸如,网络或云服务器、应用服务器、后端服务器或其组合。服务器103至104可以是数据分析服务器、内容服务器、交通信息服务器、地图和兴趣点(MPOI)服务器或者位置服务器等。
自动驾驶车辆是指可以被配置成处于自动驾驶模式下的车辆,在所述自动驾驶模式下车辆在极少或没有来自驾驶员的输入的情况下导航通过环境。这种自动驾驶车辆可以包括传感器系统,所述传感器系统具有被配置成检测与车辆运行环境有关的信息的一个或多个传感器。所述车辆和其相关联的控制器使用所检测的信息来导航通过所述环境。自动驾驶车辆101可以在手动模式下、在全自动驾驶模式下或者在部分自动驾驶模式下运行。
在一个实施方式中,自动驾驶车辆101包括,但不限于,感知与规划系统110、车辆控制系统111、无线通信系统112、用户接口系统113和传感器系统115。自动驾驶车辆101还可以包括普通车辆中包括的某些常用部件,诸如:发动机、车轮、方向盘、变速器等,所述部件可以由车辆控制系统111和/或感知与规划系统110使用多种通信信号和/或命令进行控制,该多种通信信号和/或命令例如,加速信号或命令、减速信号或命令、转向信号或命令、制动信号或命令等。
部件110至115可以经由互连件、总线、网络或其组合通信地联接到彼此。例如,部件110至115可以经由控制器局域网(CAN)总线通信地联接到彼此。CAN总线是被设计成允许微控制器和装置在没有主机的应用中与彼此通信的车辆总线标准。它是最初是为汽车内的复用电气布线设计的基于消息的协议,但也用于许多其它环境。
现在参考图2,在一个实施方式中,传感器系统115包括但不限于一个或多个相机211、全球定位系统(GPS)单元212、惯性测量单元(IMU)213、雷达单元214以及光探测和测距(LIDAR)单元215。GPS单元212可以包括收发器,所述收发器可操作以提供关于自动驾驶车辆的位置的信息。IMU 213可以基于惯性加速度来感测自动驾驶车辆的位置和定向变化。雷达单元214可以表示利用无线电信号来感测自动驾驶车辆的本地环境内的对象的系统。在一些实施方式中,除感测对象之外,雷达单元214可以另外感测对象的速度和/或前进方向。LIDAR单元215可以使用激光来感测自动驾驶车辆所处环境中的对象。除其它系统部件之外,LIDAR单元215还可以包括一个或多个激光源、激光扫描器以及一个或多个检测器。相机211可以包括用来采集自动驾驶车辆周围环境的图像的一个或多个装置。相机211可以是静物相机和/或视频相机。相机可以是可机械地移动的,例如,通过将相机安装在旋转和/或倾斜平台上。
传感器系统115还可以包括其它传感器,诸如:声纳传感器、红外传感器、转向传感器、油门传感器、制动传感器以及音频传感器(例如,麦克风)。音频传感器可以被配置成从自动驾驶车辆周围的环境中采集声音。转向传感器可以被配置成感测方向盘、车辆的车轮或其组合的转向角度。油门传感器和制动传感器分别感测车辆的油门位置和制动位置。在一些情形下,油门传感器和制动传感器可以集成为集成式油门/制动传感器。
在一个实施方式中,车辆控制系统111包括但不限于转向单元201、油门单元202(也被称为加速单元)和制动单元203。转向单元201用来调整车辆的方向或前进方向。油门单元202用来控制电动机或发动机的速度,电动机或发动机的速度进而控制车辆的速度和加速度。制动单元203通过提供摩擦使车辆的车轮或轮胎减速而使车辆减速。应注意,如图2所示的部件可以以硬件、软件或其组合实施。
回到图1,无线通信系统112允许自动驾驶车辆101与诸如装置、传感器、其它车辆等外部系统之间的通信。例如,无线通信系统112可以与一个或多个装置直接无线通信,或者经由通信网络进行无线通信,诸如,通过网络102与服务器103至104通信。无线通信系统112可以使用任何蜂窝通信网络或无线局域网(WLAN),例如,使用WiFi,以与另一部件或系统通信。无线通信系统112可以例如使用红外链路、蓝牙等与装置(例如,乘客的移动装置、显示装置、车辆101内的扬声器)直接通信。用户接口系统113可以是在车辆101内实施的外围装置的部分,包括例如键盘、触摸屏显示装置、麦克风和扬声器等。
自动驾驶车辆101的功能中的一些或全部可以由感知与规划系统110控制或管理,尤其当在自动驾驶模式下操作时。感知与规划系统110包括必要的硬件(例如,处理器、存储器、存储设备)和软件(例如,操作系统、规划和路线安排程序),以从传感器系统115、控制系统111、无线通信系统112和/或用户接口系统113接收信息,处理所接收的信息,规划从起始点到目的地点的路线或路径,随后基于规划和控制信息来驾驶车辆101。替代地,感知与规划系统110可以与车辆控制系统111集成在一起。
例如,作为乘客的用户可以例如经由用户接口来指定行程的起始位置和目的地。感知与规划系统110获得行程相关数据。例如,感知与规划系统110可以从MPOI服务器中获得位置和路线信息,所述MPOI服务器可以是服务器103至104的一部分。位置服务器提供位置服务,并且MPOI服务器提供地图服务和某些位置的POI。替代地,此类位置和MPOI信息可以本地高速缓存在感知与规划系统110的永久性存储装置中。
当自动驾驶车辆101沿着路线移动时,感知与规划系统110也可以从交通信息系统或服务器(TIS)获得实时交通信息。应注意,服务器103至104可以由第三方实体进行操作。替代地,服务器103至104的功能可以与感知与规划系统110集成在一起。基于实时交通信息、MPOI信息和位置信息以及由传感器系统115检测或感测的实时本地环境数据(例如,障碍物、对象、附近车辆),感知与规划系统110可以规划最佳路线并且根据所规划的路线例如经由控制系统111来驾驶车辆101,以安全且高效到达指定目的地。
服务器103可以是用于为各种客户端执行数据分析服务的数据分析系统。在一个实施方式中,数据分析系统103包括数据收集器121和机器学习引擎122。数据收集器121从各种车辆(自动驾驶车辆或由人类驾驶员驾驶的常规车辆)收集驾驶统计数据123。驾驶统计数据123包括指示所发出的驾驶命令(例如,油门、制动、转向命令)的信息和在不同时间点由车辆的传感器捕获的车辆的响应(例如,速度、加速度、减速度、方向)。驾驶统计数据123还可以包括描述在不同时间点处的驾驶环境的信息,诸如路线(包括起始位置和终点位置)、MPOI、道路状况、天气状况等。
基于驾驶统计数据123,机器学习引擎122出于各种目的而生成或训练一组规则、算法和/或预测模型124。在一个实施方式中,算法124可以包括用于感知、预测、决定、规划和/或控制过程的规则或算法,这将在下面进一步详细描述。然后可将算法124上载到ADV上以在自动驾驶期间实时使用。
图3A和3B是示出根据一个实施方式的与自动驾驶车辆一起使用的感知与规划系统的示例的框图。系统300可以实现为图1的自动驾驶车辆101的一部分,包括但不限于感知与规划系统110、控制系统111和传感器系统115。参考图3A至3B,感知与规划系统110包括但不限于定位模块301、感知模块302、预测模块303、决定模块304、规划模块305、控制模块306和路线模块307。
模块301至307中的一些或全部可以用软件、硬件或其组合来实现。例如,这些模块可以安装在永久性存储设备352中,加载到存储器351中,并由一个或多个处理器(未示出)执行。应注意,这些模块中的一些或全部可以与图2的车辆控制系统111的一些或全部模块通信地联接或集成。模块301至307中的一些可以集成在一起作为集成模块。
定位模块301(也被称为地图与路线模块)管理与用户的行程或路线相关的任何数据。用户可以例如经由用户接口登录并且指定行程的起始位置和目的地。定位模块301与自动驾驶车辆300的诸如地图和路线信息311的其它部件通信,以获得行程相关数据。例如,定位模块301可以从位置服务器和地图与POI(MPOI)服务器获得位置和路线信息。位置服务器提供位置服务,并且MPOI服务器提供地图服务和某些位置的POI,从而可以作为地图和路线信息311的一部分高速缓存。当自动驾驶车辆300沿着路线移动时,定位模块301也可以从交通信息系统或服务器获得实时交通信息。
基于由传感器系统115提供的传感器数据和由定位模块301获得的定位信息,感知模块302确定对周围环境的感知。感知信息可以代表普通驾驶员将在其所驾驶的车辆周围感知的内容。感知可以包括车道配置、交通灯信号、另一车辆的相对位置、行人、建筑物、人行横道或例如对象形式的其他交通相关标志(例如,停车标志,让行标志)等。车道配置包括描述车道或多条车道的信息,诸如车道的形状(例如,直线或弯曲)、车道的宽度、道路中的车道数量、单向或双向车道,合并或分叉道、出口车道等。
感知模块302可以包括计算机视觉系统或计算机视觉系统的功能,以处理和分析由一个或多个相机捕获的图像,从而识别自动车辆的环境中的对象和/或特征。对象可以包括交通信号、道路边界、其他车辆、行人和/或障碍物等。计算机视觉系统可以使用对象识别算法、视频跟踪和其他计算机视觉技术。在一些实施方式中,计算机视觉系统可以映射环境,跟踪对象,以及估计对象的速度等。感知模块302还可以基于由诸如雷达和/或LIDAR的其他传感器提供的其他传感器数据来检测对象。
对于每个对象,预测模块303预测对象在该情况下将如何行动。根据一组地图/路线信息311和交通规则312基于在时间点感知驾驶环境的感知数据来执行预测。例如,如果对象是在相反方向上的车辆并且当前驾驶环境包括交叉路口,预测模块303将预测车辆是否很可能直线前进或转弯。如果感知数据指示交叉路口没有交通信号灯,则预测模块303可预测车辆可能必须在进入交叉路口之前完全停止。如果感知数据指示车辆当前处于左转专用车道或右转专用车道,则预测模块303可预测车辆将更可能分别进行左转或右转。
对于每个对象,决定模块304做出关于如何处理对象的决定。例如,对于特定对象(例如,交叉路线中的另一车辆)以及其描述该对象的元数据(例如,速度、方向、转向角),决定模块304决定如何遭遇对象(例如,超车、让行、停止、通过)。决定模块304可以根据诸如交通规则或驾驶规则312的一组规则做出这样的决定,这些规则可以存储在永久性存储设备352中。
路线模块307被配置为提供从起始点到终点的一个或多个路线或路径。对于例如从用户接收的从起始位置到终点位置的给定旅程,路线模块307获得地图和路线信息311并确定从起始位置到达终点位置的所有可能路线或路径。路线模块307可以以地形图的形式为其决定的线路中的每一条生成从起始位置到达终点位置的参考线路。参考线路指的是理想的路线或路径,不受来自其他方面(诸如,其他车辆、障碍物或交通状况等)的干扰。也就是说,如果道路上没有其他车辆、行人或障碍物,则ADV应该完全或接近地跟随参考线路。然后将地形图提供给决定模块304和/或规划模块305。决定模块304和/或规划模块305检查所有可能的路线以根据由其他模块提供的其他数据(诸如来自定位模块301的交通状况、感知模块302感知的驾驶环境、以及预测模块303预测的交通状况)来选择和修改最佳路线之一。取决于该时间点的特定驾驶环境,用于控制ADV的实际路径或路线可以接近或不同于由路线模块307提供的参考线路。
基于对所感知的每个对象的决定,规划模块305以由路线模块307提供的参考线路为基础来规划自动驾驶车辆的路径或路线,以及驾驶参数(例如,距离、速度和/或转向角)。也就是说,对于给定对象,决定模块304决定如何处理对象,而规划模块305确定如何去执行。例如,对于给定对象,决定模块304可以决定通过对象,而规划模块305可以确定是从对象的左侧或是右侧通过。规划模块305生成规划与控制数据,包括描述车辆300将如何在下一个移动周期(例如,下一个路线/路径段)中移动的信息。例如,规划与控制数据可以指示车辆300以每小时30英里(mph)的速度移动10米,然后以25mph的速度改变到右车道。
基于规划与控制数据,控制模块306根据由规划与控制数据定义的路线或路径,通过向车辆控制系统111发送适当的命令或信号来控制和驱动自动驾驶车辆。规划与控制数据包括足够的信息以使用适当的车辆设置或沿着路径或路线的不同时间点的驾驶参数(例如,油门、制动、转向命令)将车辆从路线或路径的第一点驾驶到第二点。
在一个实施方式中,规划阶段在多个规划周期(也称为驾驶周期)中(例如,在每个100毫秒(ms)的时间间隔中)执行。对于每个规划周期或驾驶周期,将基于规划与控制数据发出一个或多个控制命令。也就是说,对于每100ms,规划模块305规划下一个路线段或路径段,例如,包括目标位置和ADV到达该目标位置所需的时间。可替换地,规划模块305可以进一步指定特定速度、方向和/或转向角等。在一个实施方式中,规划模块305针对下一预定时间段(诸如5秒)规划路线段或路径段。对于每个规划周期,规划模块305基于在先前周期中规划的目标位置来规划当前周期(诸如,接下来的5秒)的目标位置。然后,控制模块306基于当前循环的规划与控制数据生成一个或多个控制命令(例如,油门、制动、转向控制命令)。
注意,决定模块304和规划模块305可以集成为集成模块。决定模块304/规划模块305可以包括导航系统或导航系统的功能,以确定自动驾驶车辆的驾驶路径。例如,导航系统可以确定一系列速度和方向,以影响自动驾驶车辆沿着路径的运动,该运动基本上避免了所感知的障碍,同时大体沿着基于道路的路径使自动驾驶车辆向着最终终点前进。可以经由用户接口系统113根据用户输入来设置终点。导航系统可以在自动驾驶车辆运行时动态地更新驾驶路径。导航系统可以将来自GPS系统的数据与一个或多个地图合并,以确定自动驾驶车辆的驾驶路径。
图4是示出根据一个实施方式的用于自动驾驶的系统架构的框图。系统架构400可以代表如图3A和3B所示的自动驾驶系统的系统架构。参考图4,系统架构400包括但不限于应用层401、规划与控制(PNC)层402、感知层403、设备驱动器层404、固件层405和硬件层406。应用层401可以包括与自动驾驶车辆的用户或乘客交互的用户接口或配置应用程序,诸如,与用户接口系统113相关联的功能。PNC层402可以包括至少规划模块305和控制模块306的功能。感知层403可以包括至少感知模块302的功能。在一个实施方式中,存在包括预测模块303和/或决定模块304的功能的附加层。可替换地,这些功能可以被包括在PNC层402和/或感知层403中。系统架构400还包括设备驱动器层404、固件层405和硬件层406。固件层405可以代表至少传感器系统115的功能,传感器系统115可以以现场可编程门阵列(FPGA)的形式实现。硬件层406可以代表自动驾驶车辆的硬件,例如控制系统111。层401至403可以经由设备驱动器层404与固件层405和硬件层406通信。
图5A是示出根据本发明一个实施方式的传感器系统的示例的框图。参照图5A,传感器系统115包括多个传感器510和联接到主机系统110的传感器单元500。主机系统110代表如上所述的规划与控制系统,其可包括如图3A和3B中所示的模块中的至少一些。传感器单元500可以以FPGA器件或ASIC(专用集成电路)器件的形式实现。在一个实施方式中,传感器单元500除其它之外包括一个或多个传感器数据处理模块501(也简称为传感器处理模块)、数据传输模块502和传感器控制模块或逻辑503。模块501至503可以通过传感器接口504与传感器510通信,并通过主机接口505与主机系统110通信。可选地,可以利用内部或外部缓存器506来缓存数据以进行处理。
在一个实施方式中,对于接收路径或上游方向,传感器处理模块501被配置为经由传感器接口504从传感器接收传感器数据并处理传感器数据(例如,格式转换、错误检查),传感器数据可以临时地储存在缓存器506中。数据传输模块502被配置为使用与主机接口505兼容的通信协议将处理后的数据传输到主机系统110。类似地,对于传输路径或下游方向,数据传输模块502被配置为从主机系统110接收数据或命令。然后,数据由传感器处理模块501处理成与相应传感器兼容的格式。然后将处理后的数据传输到传感器。
在一个实施方式中,传感器控制模块或逻辑503被配置为响应于经由主机接口505从主机系统(例如,感知模块302)接收的命令而控制传感器510的某些操作,诸如捕获传感器数据的激活的定时。主机系统110可以配置传感器510以协作和/或同步的方式捕获传感器数据,使得传感器数据可以用于在任何时间点感知车辆周围的驾驶环境。
传感器接口504可包括以太网、USB(通用串行总线)、LTE(长期演进)或蜂窝、WiFi、GPS、相机、CAN、串行(例如,通用异步接收器发送器或UART)、SIM(用户识别模块)卡和其他通用输入/输出(GPIO)接口中的一个或多个。主机接口505可以是任何高速或高带宽接口,例如PCIe(外围组件互连或PCI Express)接口。传感器510可包括在自动驾驶车辆中使用的各种传感器,诸如相机、LIDAR设备、RADAR设备、GPS接收器、IMU、超声波传感器、GNSS(全球导航卫星系统)接收器、LTE或蜂窝SIM卡、车辆传感器(例如,油门、制动、转向传感器)和系统传感器(例如,温度、湿度、压力传感器)等。
例如,相机可以通过以太网或GPIO接口联接。GPS传感器可以通过USB或特定的GPS接口联接。车辆传感器可以通过CAN接口联接。RADAR传感器或超声波传感器可通过GPIO接口联接。LIDAR设备可以通过以太网接口联接。外部SIM模块可以通过LTE接口联接。类似地,内部SIM模块可以插入传感器单元500的SIM插口上。诸如UART的串行接口可以与控制台系统联接以用于调试目的。
注意,传感器510可以是任何类型的传感器并且可以由各种零售商或供应商提供。传感器处理模块501被配置为处理不同类型的传感器及其各自的数据格式和通信协议。根据一个实施方式,每个传感器510与特定通道相关联,用于处理传感器数据并在主机系统110和相应的传感器之间传送处理后的传感器数据。每个通道包括特定的传感器处理模块和特定的数据传输模块,这些模块已被配置或编程为处理相应的传感器数据和协议,如图5B所示。
现在参考图5B,传感器处理模块501A至501C具体被配置为分别处理从传感器510A至510C获得的传感器数据。注意,传感器510A至510C可以是相同或不同类型的传感器。传感器处理模块501A至501C可以被配置(例如,软件可配置)为处理不同类型的传感器的不同传感器过程。例如,如果传感器510A是相机,则处理模块501A可以被配置为处理与代表由相机510A捕获的图像的特定像素数据有关的像素处理操作。类似地,如果传感器510A是LIDAR设备,则处理模块501A被配置为具体地处理LIDAR数据。也就是说,根据一个实施方式,取决于特定传感器的特定类型,其相应的处理模块可以被配置为使用与传感器数据的类型相对应的特定过程或方法来处理相应的传感器数据。
类似地,数据传输模块502A至502C可以被配置为以不同的模式操作,因为不同种类的传感器数据可以是不同的大小或具有需要不同速度或定时要求的灵敏度。根据一个实施方式,数据传输模块502A至502C中的每一个可以被配置为在低延时模式、高带宽模式和存储器模式(也称为固定存储器模式)之一下工作。
当在低延时模式下工作时,根据一个实施方式,数据传输模块(例如,数据传输模块502)被配置为在没有延迟或仅有最小延迟的情况下尽快将从传感器接收的传感器数据发送到主机系统。一些传感器数据在需要尽快处理的定时方面非常敏感。这种传感器数据的示例包括车辆状态,诸如车辆速度、加速度、转向角等。
当在高带宽模式下工作时,根据一个实施方式,数据传输模块(例如,数据传输模块502)被配置为累积从传感器接收的传感器数据直到预定量,但仍位于数据传输模块与主机系统110之间的连接的带宽内。然后,累积的传感器数据以最大限度地利用数据传输模块和主机系统110之间的连接的带宽的批量传输到主机系统110。通常,高带宽模式用于产生大量传感器数据的传感器。这种传感器数据的示例包括相机像素数据。
当在存储器模式下工作时,根据一个实施方式,数据传输模块被配置为将从传感器接收的传感器数据直接写入主机系统110的映射存储器的存储器位置,类似于共享存储器页面。使用存储器模式传输的传感器数据的示例包括系统状态数据,诸如温度、风扇速度等。
根据一个实施方式,传感器510A至510C中的每一个与相应的传感器控制模块(诸如传感器控制模块503A至503C)相关联。可替换地,传感器控制模块503A至503C中的至少一些可以与由传感器510A至510C中的至少一些共享的集成传感器控制模块集成。每个传感器控制模块503A至503C被配置为与相应的传感器和主机系统110通信。响应于从主机系统110接收的命令,传感器控制模块可用于控制相应传感器的至少一些操作。
在一个实施方式中,每个传感器控制模块被配置为生成控制信号以控制相应传感器的特定操作。例如,主机系统110的感知模块或规划模块可能需要特定相机在特定时间捕获图像,作为确定和感知车辆周围的驾驶环境的一部分。主机系统可以经由主机接口505向与相机相关联的传感器控制模块发送命令,请求相机在该特定时间捕获图像。该请求还可以包括指定相机应该捕获图像的频率(例如,每秒帧数)和其他定时信息(例如,延迟偏移、脉冲宽度和极性等)的信息。基于该请求,传感器控制模块被配置为生成适当的控制信号并经由传感器接口504将控制信号发送到传感器。
注意,自动驾驶要求驾驶环境的感知尽可能清晰和精确,以便在环境中导航并避免任何碰撞。因此,主机系统可能想要以协作方式控制不同的传感器以不同的定时和方式操作。例如,安装在前面的相机可以与安装在车辆背面或侧面的相机以不同的定时工作。通过利用特定的传感器控制模块,主机系统110可以感知到车辆周围的更好和更精确的驾驶环境。
根据一个实施方式,传感器处理模块501A至501C中的每一个包括数据获取模块,数据获取模块被配置为从对应的传感器获取传感器数据。例如,对于诸如相机的图像传感器,对应的传感器处理模块包括或被实现为相机数据获取模块。
图6是示出根据一个实施方式的传感器数据获取模块的示例的框图。参考图6,在该示例中,传感器510是相机,并且传感器处理模块501是相机数据获取模块以用于从相机510获取图像/相机数据。根据一个实施方式,传感器处理模块501包括传感器接口模块601、像素对准模块(也称为像素处理模块)602、帧处理模块603和主机接口模块604。像素对准模块602被配置为以像素级处理从相机510接收的图像数据。
在一个实施方式中,像素对准模块602可以将像素数据从对应于特定类型的相机的特定格式(例如,YUV,RGB)处理为由主机系统110识别或同意的公共格式。像素对准模块602可以包括或调用像素错误检测器613以检测任何像素错误。例如,像素错误检测器613可以检测图像数据中是否存在足够数量的像素。像素错误检测器613还可以检测图像数据是否违反了相机传输协议。
在一个实施方式中,帧处理模块603被配置为接收由像素对准模块602处理的像素数据,以构建符合主机系统110的预定格式的图像帧或图像包,并使用与主机系统110相关联的预定传输协议将图像帧发送至主机系统110。帧处理模块603还可以包括或调用帧错误检测器614以检测处于帧级别的任何错误。也就是说,像素错误检测器613被配置为检查像素级别的数据完整性,而帧错误检测器614被配置为检查帧级别的数据完整性。例如,帧错误检测器614确定基于像素对准模块602提供的像素数据构造的特定图像帧是规则帧(例如,好帧)还是不规则帧(例如,短帧或长帧)。错误信息可以被包含在图像帧中作为要发送到主机系统的帧的元数据的一部分,使得主机系统可以根据元数据来处理图像帧。
根据一个实施方式,传感器接口模块601包括传感器模拟器或模拟模块611。传感器模拟器611被配置为模拟相应的传感器而不必使用实际的传感器。例如,传感器模拟器611可以生成模拟相应传感器可生成的内容的信号或数据。传感器模拟器611对与像素对准模块602和/或帧处理模块603的通信作出反应,就好像像素对准模块602和/或帧处理模块603与实际传感器通信一样。模拟的数据可用于测试或验证(例如,调试)传感器处理模块501、数据传输模块502和/或传感器控制模块503的功能,而不必使用真实传感器。
另外,在一个实施方式中,传感器接口模块601还包括时间戳生成器或逻辑615,以用于为从传感器510接收的每个图像数据生成时间戳。时间戳生成器615可以联接到时间或时钟源(例如,本地时钟或振荡器、GPS信号源(未示出))以导出时间戳。时间戳用于代表从传感器510接收图像数据的时间。时间戳信息也可以被包含在由帧处理模块603生成的图像帧中以被发送到主机系统110。对于测试或调试目的以及对驾驶环境的感知,时间戳信息是有用的。
此外,根据一个实施方式,传感器处理模块501还包括触发计数器(或时间戳生成器)616,以用于从传感器控制模块503接收触发定时信息。如上所述,传感器控制模块503被配置为生成并发送控制命令或信号以控制传感器510的工作。控制信号之一是触发信号,用于触发或激活传感器510,在该示例中传感器为相机用于在特定时间捕获图像。当传感器控制模块503向传感器510发送触发信号时,触发计数器616将被更新,例如,通过递增由触发计数器616维持的计数值来更新。因此,由触发计数器616维持的计数值代表命令发送时间,而由时间戳生成器615生成的时间戳代表图像数据的接收时间。两个时间戳之间的差异通常可以代表传感器510和/或传感器单元的操作延迟。
根据另一实施方式,主机接口模块604包括主机模拟器或模拟模块612。主机模拟器612被配置为模拟诸如主机系统110的主机,而不必使用实际主机系统。例如,主机模拟器612可以生成主机信号或数据以模拟主机系统可生成的内容。主机模拟器612对与像素对准模块602和/或帧处理模块603的通信作出反应,就好像像素对准模块602和/或帧处理模块603与实际主机系统通信一样。模拟的数据或命令可用于测试或验证(例如,调试)传感器处理模块501、数据传输模块502和/或传感器控制模块503的功能,而不必使用真实主机系统。
注意,传感器处理模块联接到数据传输模块,而不必使用或维护诸如本地存储器的本地缓存器来缓存传感器数据。数据传输模块经由诸如PCIe链路的高带宽连接联接到主机系统,使得传感器数据以高速或即时方式处理而不必使用本地存储器。
图7是示出根据一个实施方式的图像帧的数据结构的示例的框图。图像帧700可以由帧处理模块603生成并发送到主机系统110。参考图7,代表图像帧的数据结构700包括用于存储图像数据的数据区域701。数据结构700还至少包括用于存储帧元数据的元数据字段702至706。元数据包括对已经由传感器控制模块发送到传感器的多个触发信号进行计数的触发计数702。触发时间戳703是代表传感器控制模块向传感器发送触发信号的触发时间的时间戳,该触发信号触发传感器捕获图像数据701。接收时间戳704存储代表从传感器接收图像数据701的时间的时间戳。帧标记705存储描述成像器数据701的任何标记或其他属性。例如,帧标记705可以存储指示图像数据701是否是有效图像数据的信息。错误代码706用于存储指示图像帧700是正常帧还是不规则帧(例如,短帧或长帧)的代码或数据。对于短帧,处理逻辑可以填补预定像素值以填充剩余的空区域。对于长帧,处理逻辑可以将图像数据剪切并将其限制为预期的帧大小。
图8是示出根据一个实施方式的获取和处理传感器数据的过程的流程图。过程800可以由处理逻辑执行,处理逻辑可以包括软件、硬件或其组合。例如,过程800可以由如图6所示的传感器处理模块501执行。参考图8,在操作801中,处理逻辑经由传感器接口从传感器接收传感器数据。传感器数据可以是从相机接收的图像或像素数据。传感器接口还可以对所接收的传感器数据加时间戳,从而指示接收传感器数据的时间。在操作802中,处理逻辑将传感器数据(例如,原始传感器数据)从对应于特定传感器的格式(例如,YUV,RGB)处理为预定格式或与主机系统商定的格式。处理逻辑还可以对传感器数据执行错误检测。在从相机接收的像素数据的示例中,处理逻辑可以检测图像数据中是否存在足够数量的像素或者图像数据是否违反与传感器或传感器接口相关联的通信协议(例如,失败的完整性)。在操作803中,处理逻辑基于传感器数据生成帧(例如,图像帧),其中帧与主机系统兼容(例如,根据期望的帧速率)。在操作804中,处理逻辑嵌入某些帧元数据,诸如传感器触发形成(例如,命令或发送时间戳)、错误代码、接收时间戳、帧标记等。在操作805中,帧被发送到数据传输模块以进行处理,然后通过主机接口被发送到主机系统。
注意,如上所示和所述的一些或所有组件可以用软件、硬件或其组合来实现。例如,这些组件可以实现为安装并存储在永久性存储设备中的软件,该永久性存储设备可以由处理器(未示出)在存储器中加载和执行,以执行本申请中描述的过程或操作。可替换地,这些组件可以实现为可编程或嵌入到专用硬件(例如集成电路(例如,专用IC或ASIC)、数字信号处理器(DSP)或现场可编程门阵列(FPGA))中的可执行代码,这些硬件可以通过相应的驱动程序和/或操作系统从应用程序访问。此外,这些组件可以实现为处理器或处理器核心中的特定硬件逻辑,作为可由软件组件通过一个或多个特定指令访问的指令集的一部分。
图9是示出可以与本公开的一个实施方式一起使用的数据处理系统的示例的框图。例如,系统1500可以表示以上所述的执行上述过程或方法中的任一个的任何数据处理系统,例如,图1的感知与规划系统110或者服务器103至104中的任一个。系统1500可以包括许多不同的部件。这些部件可以实施为集成电路(IC)、集成电路的部分、分立电子装置或适用于电路板(诸如,计算机系统的主板或插入卡)的其它模块或者实施为以其它方式并入计算机系统的机架内的部件。
还应注意,系统1500旨在示出计算机系统的许多部件的高阶视图。然而,应当理解的是,某些实施例中可以具有附加的部件,此外,其它实施例中可以具有所示部件的不同布置。系统1500可以表示台式计算机、膝上型计算机、平板计算机、服务器、移动电话、媒体播放器、个人数字助理(PDA)、智能手表、个人通信器、游戏装置、网络路由器或集线器、无线接入点(AP)或中继器、机顶盒或其组合。此外,虽然仅示出了单个机器或系统,但是术语“机器”或“系统”还应当被理解为包括单独地或共同地执行一个(或多个)指令集以执行本文所讨论的任何一种或多种方法的机器或系统的任何集合。
在一个实施方式中,系统1500包括通过总线或互连件1510连接的处理器1501、存储器1503以及装置1505至1508。处理器1501可以表示其中包括单个处理器内核或多个处理器内核的单个处理器或多个处理器。处理器1501可以表示一个或多个通用处理器,诸如,微处理器、中央处理单元(CPU)等。更具体地,处理器1501可以是复杂指令集计算(CISC)微处理器、精简指令集计算(RISC)微处理器、超长指令字(VLIW)微处理器、或实施其它指令集的处理器、或实施指令集组合的处理器。处理器1501还可以是一个或多个专用处理器,诸如,专用集成电路(ASIC)、蜂窝或基带处理器、现场可编程门阵列(FPGA)、数字信号处理器(DSP)、网络处理器、图形处理器、通信处理器、加密处理器、协处理器、嵌入式处理器、或者能够处理指令的任何其它类型的逻辑。
处理器1501(其可以是低功率多核处理器套接口,诸如超低电压处理器)可以充当用于与所述系统的各种部件通信的主处理单元和中央集线器。这种处理器可以实施为片上系统(SoC)。处理器1501被配置成执行用于执行本文所讨论的操作和步骤的指令。系统1500还可以包括与可选的图形子系统1504通信的图形接口,图形子系统1504可以包括显示控制器、图形处理器和/或显示装置。
处理器1501可以与存储器1503通信,存储器1503在一个实施方式中可以经由多个存储器装置实施以提供给定量的系统存储。存储器1503可以包括一个或多个易失性存储(或存储器)装置,诸如,随机存取存储器(RAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、静态RAM(SRAM)或者其它类型的存储装置。存储器1503可以存储包括由处理器1501或任何其它装置执行的指令序列的信息。例如,各种操作系统、装置驱动程序、固件(例如,输入输出基本系统或BIOS)和/或应用的可执行代码和/或数据可以加载到存储器1503中并由处理器1501执行。操作系统可以是任何类型的操作系统,例如,机器人操作系统(ROS)、来自公司的操作系统、来自苹果公司的Mac/>来自/>公司的/>LINUX、UNIX,或者其它实时或嵌入式操作系统。
系统1500还可以包括IO装置,诸如装置1505至1508,包括网络接口装置1505、可选的输入装置1506,以及其它可选的IO装置1507。网络接口装置1505可以包括无线收发器和/或网络接口卡(NIC)。所述无线收发器可以是WiFi收发器、红外收发器、蓝牙收发器、WiMax收发器、无线蜂窝电话收发器、卫星收发器(例如,全球定位系统(GPS)收发器)或其它射频(RF)收发器或者它们的组合。NIC可以是以太网卡。
输入装置1506可以包括鼠标、触摸板、触敏屏幕(其可以与显示装置1504集成在一起)、指针装置(诸如,手写笔)和/或键盘(例如,物理键盘或作为触敏屏幕的一部分显示的虚拟键盘)。例如,输入装置1506可以包括联接到触摸屏的触摸屏控制器。触摸屏和触摸屏控制器例如可以使用多种触敏技术(包括但不限于电容、电阻、红外和表面声波技术)中的任一种,以及其它接近传感器阵列或用于确定与触摸屏接触的一个或多个点的其它元件来检测其接触和移动或间断。
IO装置1507可以包括音频装置。音频装置可以包括扬声器和/或麦克风,以促进支持语音的功能,诸如语音识别、语音复制、数字记录和/或电话功能。其它IO装置1507还可以包括通用串行总线(USB)端口、并行端口、串行端口、打印机、网络接口、总线桥(例如,PCI-PCI桥)、传感器(例如,诸如加速度计运动传感器、陀螺仪、磁强计、光传感器、罗盘、接近传感器等)或者它们的组合。装置1507还可以包括成像处理子系统(例如,相机),所述成像处理子系统可以包括用于促进相机功能(诸如,记录照片和视频片段)的光学传感器,诸如电荷联接装置(CCD)或互补金属氧化物半导体(CMOS)光学传感器。某些传感器可以经由传感器集线器(未示出)联接到互连件1510,而诸如键盘或热传感器的其它装置可以根据系统1500的具体配置或设计由嵌入式控制器(未示出)控制。
为了提供对诸如数据、应用、一个或多个操作系统等信息的永久性存储,大容量存储设备(未示出)也可以联接到处理器1501。在各种实施方式中,为了实现更薄且更轻的系统设计并且改进系统响应性,这种大容量存储设备可以经由固态装置(SSD)来实施。然而,在其它实施方式中,大容量存储设备可以主要使用硬盘驱动器(HDD)来实施,其中较小量的SSD存储设备充当SSD高速缓存以在断电事件期间实现上下文状态以及其它此类信息的非易失性存储,从而使得在系统活动重新启动时能够实现快速通电。另外,闪存装置可以例如经由串行外围接口(SPI)联接到处理器1501。这种闪存装置可以提供系统软件的非易失性存储,所述系统软件包括所述系统的BIOS以及其它固件。
存储装置1508可以包括计算机可访问的存储介质1509(也被称为机器可读存储介质或计算机可读介质),其上存储有体现本文所述的任何一种或多种方法或功能的一个或多个指令集或软件(例如,模块、单元和/或逻辑1528)。处理模块/单元/逻辑1528可以表示上述部件中的任一个,例如规划模块305、控制模块306或传感器单元500。处理模块/单元/逻辑1528还可以在其由数据处理系统1500、存储器1503和处理器1501执行期间完全地或至少部分地驻留在存储器1503内和/或处理器1501内,数据处理系统1500、存储器1503和处理器1501也构成机器可访问的存储介质。处理模块/单元/逻辑1528还可以通过网络经由网络接口装置1505进行传输或接收。
计算机可读存储介质1509也可以用来永久性地存储以上描述的一些软件功能。虽然计算机可读存储介质1509在示例性实施方式中被示为单个介质,但是术语“计算机可读存储介质”应当被认为包括存储所述一个或多个指令集的单个介质或多个介质(例如,集中式或分布式数据库和/或相关联的高速缓存和服务器)。术语“计算机可读存储介质”还应当被认为包括能够存储或编码指令集的任何介质,所述指令集用于由机器执行并且使得所述机器执行本公开的任何一种或多种方法。因此,术语“计算机可读存储介质”应当被认为包括但不限于固态存储器以及光学介质和磁性介质,或者任何其它非暂时性机器可读介质。
本文所述的处理模块/单元/逻辑1528、部件以及其它特征可以实施为分立硬件部件或集成在硬件部件(诸如,ASICS、FPGA、DSP或类似装置)的功能中。此外,处理模块/单元/逻辑1528可以实施为硬件装置内的固件或功能电路。此外,处理模块/单元/逻辑1528可以以硬件装置和软件部件的任何组合来实施。
应注意,虽然系统1500被示出为具有数据处理系统的各种部件,但是并不旨在表示使部件互连的任何特定架构或方式;因为此类细节和本公开的实施方式没有密切关系。还应当认识到,具有更少部件或可能具有更多部件的网络计算机、手持计算机、移动电话、服务器和/或其它数据处理系统也可以与本公开的实施方式一起使用。
前述详细描述中的一些部分已经根据在计算机存储器内对数据位的运算的算法和符号表示而呈现。这些算法描述和表示是数据处理领域中的技术人员所使用的方式,以将他们的工作实质最有效地传达给本领域中的其他技术人员。本文中,算法通常被认为是导致所期望结果的自洽操作序列。这些操作是指需要对物理量进行物理操控的操作。
然而,应当牢记,所有这些和类似的术语均旨在与适当的物理量关联,并且仅仅是应用于这些量的方便标记。除非在以上讨论中以其它方式明确地指出,否则应当了解,在整个说明书中,利用术语(诸如所附权利要求书中所阐述的术语)进行的讨论是指计算机系统或类似电子计算装置的动作和处理,所述计算机系统或电子计算装置操控计算机系统的寄存器和存储器内的表示为物理(电子)量的数据,并将所述数据变换成计算机系统存储器或寄存器或者其它此类信息存储设备、传输或显示装置内类似地表示为物理量的其它数据。
本公开的实施方式还涉及用于执行本文中的操作的设备。这种计算机程序被存储在非暂时性计算机可读介质中。机器可读介质包括用于以机器(例如,计算机)可读的形式存储信息的任何机构。例如,机器可读(例如,计算机可读)介质包括机器(例如,计算机)可读存储介质(例如,只读存储器(“ROM”)、随机存取存储器(“RAM”)、磁盘存储介质、光存储介质、闪存存储器装置)。
前述附图中所描绘的过程或方法可以由处理逻辑来执行,所述处理逻辑包括硬件(例如,电路、专用逻辑等)、软件(例如,体现在非暂时性计算机可读介质上)或两者的组合。尽管所述过程或方法在上文是依据一些顺序操作来描述的,但是应当了解,所述操作中的一些可以按不同的顺序执行。此外,一些操作可以并行地执行而不是顺序地执行。
本公开的实施方式并未参考任何特定的编程语言进行描述。应认识到,可以使用多种编程语言来实施如本文描述的本公开的实施方式的教导。
在以上的说明书中,已经参考本公开的具体示例性实施方式对本公开的实施方式进行了描述。将显而易见的是,在不脱离所附权利要求书中阐述的本公开的更宽泛精神和范围的情况下,可以对本公开作出各种修改。因此,应当在说明性意义而不是限制性意义上来理解本说明书和附图。
Claims (18)
1.一种用于自动驾驶车辆的传感器单元,所述传感器单元包括:
传感器接口,联接到安装在所述自动驾驶车辆(ADV)的多个位置上的多个相机;
主机接口,联接到主机系统,其中,所述主机系统被配置为至少基于从所述相机获得的图像数据来感知所述自动驾驶车辆周围的驾驶环境并规划用于自动驾驶所述自动驾驶车辆的路径;以及
多个数据获取模块,每个数据获取模块对应所述多个相机中的一个,其中,所述数据获取模块中的每个包括:
像素对准模块,用于将图像数据的像素从与相应相机关联的原始格式重新格式化为预定格式;
帧处理模块,联接到所述像素对准模块,其中,所述帧处理模块被配置为基于从所述像素对准模块接收的图像数据生成图像帧并将所述图像帧发送到所述主机系统;以及
帧错误检测器,配置为检测所述图像帧是短帧还是长帧,
其中,对于所述短帧,处理逻辑填补预定像素值以填充剩余的空区域,对于所述长帧,所述处理逻辑将所述图像数据剪切并将其限制为预期的帧大小。
2.根据权利要求1所述的传感器单元,其中,每个数据获取模块还包括联接到所述像素对准模块的相机模拟器,其中,所述相机模拟器被配置为模拟相机以在不使用相应相机的情况下生成模拟的图像数据。
3.根据权利要求2所述的传感器单元,其中,所述模拟的图像数据用于在无需与相机联接的情况下测试所述像素对准模块和所述帧处理模块的功能。
4.根据权利要求1所述的传感器单元,其中,每个数据获取模块还包括联接到所述帧处理模块的主机模拟器,其中,所述主机模拟器被配置为在不使用所述主机系统的情况下通过生成模拟的主机命令和响应来模拟所述主机系统。
5.根据权利要求4所述的传感器单元,其中,所述模拟的主机命令和响应用于在无需与所述主机系统联接的情况下测试所述像素对准模块和所述帧处理模块的功能。
6.根据权利要求1所述的传感器单元,其中,所述像素对准模块还包括像素错误检测器以检查图像数据,从而检测像素错误。
7.根据权利要求6所述的传感器单元,其中,所述像素错误检测器被配置为检测所述图像数据中是否存在足够数量的像素或者所述图像数据是否违反相机传输协议。
8.根据权利要求1所述的传感器单元,其中,每个数据获取模块还包括触发计数器以存储触发计数,所述触发计数对已经发送到相应相机以捕获新图像的多个触发信号进行计数。
9.根据权利要求8所述的传感器单元,其中,所述触发计数被包含在响应于最新触发信号而捕获的图像帧中。
10.根据权利要求1所述的传感器单元,其中,每个数据获取模块还包括时间戳生成器以生成对从相应相机接收所述图像数据的时间进行记录的时间戳,其中,所述时间戳被包含在待发送到所述主机系统的图像帧中。
11.根据权利要求1所述的传感器单元,其中,所述图像数据的原始格式与YUV格式和RGB格式之一兼容。
12.根据权利要求1所述的传感器单元,其中,所述传感器接口包括以太网接口,所述以太网接口与光探测和测距设备或一个或多个相机联接。
13.根据权利要求1所述的传感器单元,其中,所述传感器接口包括全球定位系统(GPS)接口,所述全球定位系统(GPS)接口联接到GPS接收器和惯性测量单元设备中的至少一个。
14.根据权利要求1所述的传感器单元,其中,所述传感器接口包括控制区域网络(CAN)接口,所述控制区域网络(CAN)接口联接到所述自动驾驶车辆的油门控制逻辑、制动控制逻辑和转向控制逻辑。
15.一种自动驾驶系统,包括:
多个传感器,安装在自动驾驶车辆(ADV)的多个位置上;
主机系统,用于基于从所述传感器获得的传感器数据来感知所述自动驾驶车辆周围的驾驶环境并规划用于自动驾驶所述自动驾驶车辆的路径;以及
传感器单元,联接到所述多个传感器和所述主机系统,其中,所述传感器单元包括:
传感器接口,联接到安装在所述自动驾驶车辆上的所述多个传感器,
主机接口,联接到所述主机系统,以及
多个数据获取模块,每个数据获取模块对应多个相机中的一个,其中,所述数据获取模块中的每个包括:
像素对准模块,用于将图像数据的像素从与相应相机关联的原始格式重新格式化为预定格式;
帧处理模块,联接到所述像素对准模块,其中,所述帧处理模块被配置为基于从所述像素对准模块接收的图像数据生成图像帧并将所述图像帧发送到所述主机系统;以及
帧错误检测器,配置为检测所述图像帧是短帧还是长帧,其中,对于所述短帧,处理逻辑填补预定像素值以填充剩余的空区域,对于所述长帧,所述处理逻辑将所述图像数据剪切并将其限制为预期的帧大小。
16.根据权利要求15所述的系统,其中每个数据获取模块还包括联接到所述像素对准模块的相机模拟器,其中所述相机模拟器被配置为模拟相机以在不使用相应相机的情况下生成模拟的图像数据。
17.根据权利要求16所述的系统,其中,所述模拟的图像数据用于在无需与相机联接的情况下测试所述像素对准模块和所述帧处理模块的功能。
18.根据权利要求15所述的系统,其中,每个数据获取模块还包括联接到所述帧处理模块的主机模拟器,其中,所述主机模拟器被配置为在不使用所述主机系统的情况下通过生成模拟的主机命令和响应来模拟所述主机系统。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/112,370 US10816979B2 (en) | 2018-08-24 | 2018-08-24 | Image data acquisition logic of an autonomous driving vehicle for capturing image data using cameras |
US16/112,370 | 2018-08-24 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110895147A CN110895147A (zh) | 2020-03-20 |
CN110895147B true CN110895147B (zh) | 2023-11-24 |
Family
ID=66951784
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910434572.3A Active CN110895147B (zh) | 2018-08-24 | 2019-05-23 | 自动驾驶车辆的用相机捕获图像数据的图像数据获取逻辑 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10816979B2 (zh) |
EP (1) | EP3620959B1 (zh) |
JP (1) | JP6998342B2 (zh) |
CN (1) | CN110895147B (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020037663A1 (en) * | 2018-08-24 | 2020-02-27 | Baidu.Com Times Technology (Beijing) Co., Ltd. | Data transfer logic for transferring data between sensors and planning and control of autonomous driving vehicle |
US12055403B2 (en) * | 2019-05-03 | 2024-08-06 | Apple Inc. | Adjusting heading sensor output based on image data |
US11153010B2 (en) * | 2019-07-02 | 2021-10-19 | Waymo Llc | Lidar based communication |
DE102020108130A1 (de) * | 2020-03-25 | 2021-09-30 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Steuereinheit zur Steuerung einer Kamera |
CN111811828B (zh) * | 2020-04-17 | 2022-05-24 | 新奇点智能科技集团有限公司 | 一种无人车驾驶测试方法、装置、系统及存储介质 |
US11302181B2 (en) * | 2020-07-16 | 2022-04-12 | Toyota Motor North America, Inc. | Methods and systems for enhancing vehicle data access capabilities |
CN112351154B (zh) * | 2020-10-28 | 2022-11-15 | 湖南汽车工程职业学院 | 无人驾驶汽车路况识别系统 |
CN112598819B (zh) * | 2020-12-17 | 2022-07-01 | 北京百度网讯科技有限公司 | 自动驾驶系统的测试方法、装置、电子设备及存储介质 |
CN113032249B (zh) * | 2021-03-05 | 2023-03-24 | 北京百度网讯科技有限公司 | 交通流量监测系统的测试方法、装置及设备 |
US11763569B2 (en) * | 2021-03-24 | 2023-09-19 | Denso International America, Inc. | System for controlling a camera supporting human review of sensor information |
US11938968B2 (en) | 2021-11-10 | 2024-03-26 | Robert Bosch Gmbh | Trajectory design for image data acquisition for object detection/recognition |
CN114882717B (zh) * | 2022-03-16 | 2024-05-17 | 仓擎智能科技(上海)有限公司 | 一种基于车路协同的物体检测系统和方法 |
US11898332B1 (en) * | 2022-08-22 | 2024-02-13 | Caterpillar Inc. | Adjusting camera bandwidth based on machine operation |
CN116485626B (zh) * | 2023-04-10 | 2024-03-12 | 北京辉羲智能科技有限公司 | 一种对传感器数据转储的自动驾驶SoC芯片 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008190868A (ja) * | 2007-01-31 | 2008-08-21 | Fuji Heavy Ind Ltd | ステレオ画像処理装置 |
JP2013239995A (ja) * | 2012-05-17 | 2013-11-28 | Clarion Co Ltd | 車載カメラシステム及びこれに用いる映像受信装置と映像送信装置 |
CN106527428A (zh) * | 2016-10-19 | 2017-03-22 | 东风汽车公司 | 基于高速公路的嵌入式集成自动驾驶控制器 |
CN107563267A (zh) * | 2016-06-30 | 2018-01-09 | 百度(美国)有限责任公司 | 在无人驾驶车辆中提供内容的系统和方法 |
CN108139756A (zh) * | 2016-08-29 | 2018-06-08 | 百度(美国)有限责任公司 | 为自动驾驶车辆构建周围环境以制定驾驶决策的方法和系统 |
Family Cites Families (49)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020063807A1 (en) * | 1999-04-19 | 2002-05-30 | Neal Margulis | Method for Performing Image Transforms in a Digital Display System |
JP4490230B2 (ja) | 2004-10-13 | 2010-06-23 | トヨタ自動車株式会社 | 幾何変換回路 |
KR100795160B1 (ko) | 2007-03-22 | 2008-01-16 | 주식회사 아트닉스 | 얼굴영역검출장치 및 검출방법 |
US8509982B2 (en) | 2010-10-05 | 2013-08-13 | Google Inc. | Zone driving |
US9830519B2 (en) * | 2012-03-01 | 2017-11-28 | Nissan Motor Co., Ltd. | Three-dimensional object detection device |
US8838322B1 (en) | 2012-08-14 | 2014-09-16 | Google Inc. | System to automatically measure perception sensor latency in an autonomous vehicle |
US9365214B2 (en) * | 2014-01-30 | 2016-06-14 | Mobileye Vision Technologies Ltd. | Systems and methods for determining the status of a turn lane traffic light |
CN108718397B (zh) * | 2014-02-04 | 2021-10-08 | 英特尔公司 | 用于在帧速率上变频中进行帧重复控制的方法及设备 |
US9892493B2 (en) * | 2014-04-21 | 2018-02-13 | Texas Instruments Incorporated | Method, apparatus and system for performing geometric calibration for surround view camera solution |
GB2532003A (en) * | 2014-10-31 | 2016-05-11 | Nokia Technologies Oy | Method for alignment of low-quality noisy depth map to the high-resolution colour image |
KR102534792B1 (ko) | 2015-02-10 | 2023-05-19 | 모빌아이 비젼 테크놀로지스 엘티디. | 자율 주행을 위한 약도 |
US9740944B2 (en) | 2015-12-18 | 2017-08-22 | Ford Global Technologies, Llc | Virtual sensor data generation for wheel stop detection |
US10114103B2 (en) | 2016-03-31 | 2018-10-30 | Uber Technologies, Inc. | System and method for sensor triggering for synchronized operation |
US9639935B1 (en) * | 2016-05-25 | 2017-05-02 | Gopro, Inc. | Apparatus and methods for camera alignment model calibration |
US10331138B2 (en) * | 2016-07-05 | 2019-06-25 | Baidu Usa Llc | Standard scene-based planning control methods for operating autonomous vehicles |
US10354408B2 (en) * | 2016-07-20 | 2019-07-16 | Harman International Industries, Incorporated | Vehicle camera image processing |
JP2018022953A (ja) | 2016-08-01 | 2018-02-08 | ソニーセミコンダクタソリューションズ株式会社 | 車載カメラ、車載用カメラ装置、並びに車載カメラの支持方法 |
US10031523B2 (en) * | 2016-11-07 | 2018-07-24 | Nio Usa, Inc. | Method and system for behavioral sharing in autonomous vehicles |
US10121262B2 (en) * | 2016-12-20 | 2018-11-06 | Canon Kabushiki Kaisha | Method, system and apparatus for determining alignment data |
US10837773B2 (en) * | 2016-12-30 | 2020-11-17 | DeepMap Inc. | Detection of vertical structures based on LiDAR scanner data for high-definition maps for autonomous vehicles |
JP6341396B1 (ja) * | 2017-02-28 | 2018-06-13 | パナソニックIpマネジメント株式会社 | 動体監視装置、サーバ装置、および動体監視システム |
EP3437022A1 (en) * | 2017-06-22 | 2019-02-06 | Baidu.com Times Technology (Beijing) Co., Ltd. | Traffic prediction based on map images for autonomous driving |
US10234302B2 (en) * | 2017-06-27 | 2019-03-19 | Nio Usa, Inc. | Adaptive route and motion planning based on learned external and internal vehicle environment |
US10031526B1 (en) * | 2017-07-03 | 2018-07-24 | Baidu Usa Llc | Vision-based driving scenario generator for autonomous driving simulation |
US10551838B2 (en) * | 2017-08-08 | 2020-02-04 | Nio Usa, Inc. | Method and system for multiple sensor correlation diagnostic and sensor fusion/DNN monitor for autonomous driving application |
US10962979B2 (en) * | 2017-09-30 | 2021-03-30 | Tusimple, Inc. | System and method for multitask processing for autonomous vehicle computation and control |
US10635116B2 (en) * | 2017-10-19 | 2020-04-28 | Ford Global Technologies, Llc | Video calibration with illumination invariant image |
US11644834B2 (en) * | 2017-11-10 | 2023-05-09 | Nvidia Corporation | Systems and methods for safe and reliable autonomous vehicles |
US11040726B2 (en) * | 2017-12-15 | 2021-06-22 | Baidu Usa Llc | Alarm system of autonomous driving vehicles (ADVs) |
US10643342B2 (en) * | 2018-02-08 | 2020-05-05 | Huawei Technologies Co., Ltd. | Group optimization depth information method and system for constructing a 3D feature map |
US10928207B2 (en) * | 2018-03-02 | 2021-02-23 | DeepMap Inc. | Camera based localization for autonomous vehicles |
US10593029B2 (en) * | 2018-03-21 | 2020-03-17 | Ford Global Technologies, Llc | Bloom removal for vehicle sensors |
WO2019191306A1 (en) * | 2018-03-27 | 2019-10-03 | Nvidia Corporation | Training, testing, and verifying autonomous machines using simulated environments |
US10943485B2 (en) * | 2018-04-03 | 2021-03-09 | Baidu Usa Llc | Perception assistant for autonomous driving vehicles (ADVs) |
US11520335B2 (en) * | 2018-04-12 | 2022-12-06 | Baidu Usa Llc | Determining driving paths for autonomous driving vehicles based on map data |
US10816984B2 (en) * | 2018-04-13 | 2020-10-27 | Baidu Usa Llc | Automatic data labelling for autonomous driving vehicles |
US10769793B2 (en) * | 2018-04-17 | 2020-09-08 | Baidu Usa Llc | Method for pitch angle calibration based on 2D bounding box and its 3D distance for autonomous driving vehicles (ADVs) |
US10860868B2 (en) * | 2018-04-18 | 2020-12-08 | Baidu Usa Llc | Lane post-processing in an autonomous driving vehicle |
US11341356B2 (en) * | 2018-06-15 | 2022-05-24 | Uatc, Llc | System and method for determining object intention through visual attributes |
US11427211B2 (en) * | 2018-06-18 | 2022-08-30 | Baidu Usa Llc | Methods for handling sensor failures in autonomous driving vehicles |
US11199842B2 (en) * | 2018-06-26 | 2021-12-14 | Baidu Usa Llc | Determining driving paths for autonomous driving using parallel processing |
US10457294B1 (en) * | 2018-06-27 | 2019-10-29 | Baidu Usa Llc | Neural network based safety monitoring system for autonomous vehicles |
US10551840B2 (en) * | 2018-07-02 | 2020-02-04 | Baidu Usa Llc | Planning driven perception system for autonomous driving vehicles |
US11042157B2 (en) * | 2018-07-23 | 2021-06-22 | Baidu Usa Llc | Lane/object detection and tracking perception system for autonomous vehicles |
US10810872B2 (en) * | 2018-07-31 | 2020-10-20 | Baidu Usa Llc | Use sub-system of autonomous driving vehicles (ADV) for police car patrol |
US10890914B2 (en) * | 2018-08-24 | 2021-01-12 | Baidu Usa Llc | Trigger logic to trigger sensors of an autonomous driving vehicle for capturing data |
US11029165B2 (en) * | 2018-10-11 | 2021-06-08 | Baidu Usa Llc | Sensor integration and synchronization unit for an autonomous driving vehicle |
US11055857B2 (en) * | 2018-11-30 | 2021-07-06 | Baidu Usa Llc | Compressive environmental feature representation for vehicle behavior prediction |
US11340094B2 (en) * | 2018-12-12 | 2022-05-24 | Baidu Usa Llc | Updating map data for autonomous driving vehicles based on sensor data |
-
2018
- 2018-08-24 US US16/112,370 patent/US10816979B2/en active Active
-
2019
- 2019-05-23 CN CN201910434572.3A patent/CN110895147B/zh active Active
- 2019-06-13 EP EP19179957.6A patent/EP3620959B1/en active Active
- 2019-07-09 JP JP2019127674A patent/JP6998342B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008190868A (ja) * | 2007-01-31 | 2008-08-21 | Fuji Heavy Ind Ltd | ステレオ画像処理装置 |
JP2013239995A (ja) * | 2012-05-17 | 2013-11-28 | Clarion Co Ltd | 車載カメラシステム及びこれに用いる映像受信装置と映像送信装置 |
CN107563267A (zh) * | 2016-06-30 | 2018-01-09 | 百度(美国)有限责任公司 | 在无人驾驶车辆中提供内容的系统和方法 |
CN108139756A (zh) * | 2016-08-29 | 2018-06-08 | 百度(美国)有限责任公司 | 为自动驾驶车辆构建周围环境以制定驾驶决策的方法和系统 |
CN106527428A (zh) * | 2016-10-19 | 2017-03-22 | 东风汽车公司 | 基于高速公路的嵌入式集成自动驾驶控制器 |
Also Published As
Publication number | Publication date |
---|---|
CN110895147A (zh) | 2020-03-20 |
JP6998342B2 (ja) | 2022-01-18 |
EP3620959B1 (en) | 2022-09-28 |
EP3620959A1 (en) | 2020-03-11 |
US10816979B2 (en) | 2020-10-27 |
US20200064837A1 (en) | 2020-02-27 |
JP2020074502A (ja) | 2020-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110895147B (zh) | 自动驾驶车辆的用相机捕获图像数据的图像数据获取逻辑 | |
CN111835496B (zh) | 在自动驾驶系统的不同计算节点之间的定时同步方案 | |
CN110895413B (zh) | 触发自动驾驶车辆的用于捕获数据的传感器的触发逻辑 | |
CN110727267B (zh) | 具有冗余超声雷达的自动驾驶车辆 | |
CN112146679B (zh) | 用于提高自动驾驶平台的传感器i/o覆盖率的柔性测试板 | |
CN112204975B (zh) | 自动驾驶车辆中视频压缩的时间戳和元数据处理 | |
CN111279280B (zh) | 用于在传感器之间传送数据的数据传送逻辑与自动驾驶车辆的规划和控制 | |
US11338823B2 (en) | Multiple sensor data storage with compressed video stream in autonomous driving vehicles | |
CN112041773B (zh) | 自动驾驶车辆的规划和控制之间的通信协议 | |
CN113728211B (zh) | 自动驾驶系统中惯性导航系统的时间确定 | |
US20240210939A1 (en) | Camera image compression for autonomous driving vehicles | |
CN111857117B (zh) | 用于在自动驾驶期间解码gps消息的gps消息解码器 | |
US20240086264A1 (en) | Hardware adaptive vehicle os design on mcu |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |