CN112166618B - 自动驾驶系统、自动驾驶系统的传感器单元、用于操作自动驾驶车辆的计算机实现的方法 - Google Patents

自动驾驶系统、自动驾驶系统的传感器单元、用于操作自动驾驶车辆的计算机实现的方法 Download PDF

Info

Publication number
CN112166618B
CN112166618B CN201980002450.5A CN201980002450A CN112166618B CN 112166618 B CN112166618 B CN 112166618B CN 201980002450 A CN201980002450 A CN 201980002450A CN 112166618 B CN112166618 B CN 112166618B
Authority
CN
China
Prior art keywords
data
sensor
video
video data
segment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201980002450.5A
Other languages
English (en)
Other versions
CN112166618A (zh
Inventor
郭双城
王帅
周胜进
万吉
刘海东
曲宁
沈洪顺
张满江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu com Times Technology Beijing Co Ltd
Baidu USA LLC
Original Assignee
Baidu com Times Technology Beijing Co Ltd
Baidu USA LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Baidu com Times Technology Beijing Co Ltd, Baidu USA LLC filed Critical Baidu com Times Technology Beijing Co Ltd
Publication of CN112166618A publication Critical patent/CN112166618A/zh
Application granted granted Critical
Publication of CN112166618B publication Critical patent/CN112166618B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41422Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance located in transportation means, e.g. personal vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4331Caching operations, e.g. of an advertisement for later insertion during playback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • H04N21/4355Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream involving reformatting operations of additional data, e.g. HTML pages on a television screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content
    • B60W2420/408
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras

Abstract

提供了包括组合来自ADV的多个传感器的数据的方法。该方法压缩来自相机的视频数据以生成压缩视频数据。压缩视频数据被分段。该方法将压缩视频数据的每个段与来自其他传感器的数据进行时间同步。然后,该方法将压缩视频数据的每个段与其他传感器的相应时间同步传感器数据组合。在一个实施方式中,压缩视频数据的每个段均为可独立解码的。在另一实施方式中,压缩视频数据的每个段均包括压缩视频单元,该压缩视频单元被前置有紧接在压缩视频单元之前的压缩视频数据的缓存部分。压缩视频单元的长度小于压缩视频数据的可独立解码段的长度,从而通过权衡在使压缩视频数据与其他传感器数据时间同步中提供更精细的间隔尺寸。

Description

自动驾驶系统、自动驾驶系统的传感器单元、用于操作自动驾 驶车辆的计算机实现的方法
技术领域
本公开的实施方式总体涉及操作自动驾驶车辆。更具体地,本公开的实施方式涉及用于自动驾驶车辆(ADV)的视频流的后处理。
背景技术
以自动驾驶模式运行(例如,无人驾驶)的车辆可以将乘员、尤其是驾驶员从一些驾驶相关的职责中解放出来。当以自动驾驶模式运行时,车辆可以使用车载传感器导航到各个位置,从而允许车辆在最少人机交互的情况下或在没有任何乘客的一些情况下行驶。
运动规划和控制是自动驾驶中的关键操作。运动规划和控制操作的准确性和效率在很大程度上依赖车辆的传感器。诸如相机、光探测和测距(LIDAR)单元、雷达等的传感器用于捕获车辆周围环境的视频和电磁图像,以进行运动规划和控制。除了将其实时用于运动规划和控制外,规定还可能要求存储传感器数据以用于事故分析和诊断目的。
基于标准的图像和视频压缩算法用于压缩相机捕获的大量图像或视频数据,以进行有效存储。尽管压缩的单个图像数据可轻松地与来自其他传感器的数据组合,但是单个图像的压缩可能无法提供足够的压缩率。另一方面,压缩的视频流提供更高的压缩率,但难以与其他传感器数据组合和同步。需要简单且有效的机制将压缩视频数据与其他传感器数据组合并在时间上同步,以实现ADV中的有效存储和实时使用。
发明内容
在本公开的一方面,提供了用于操作自动驾驶车辆(ADV)的计算机实现的方法。该方法包括:在传感器单元处将从安装在自动驾驶车辆(ADV)上的相机接收的视频数据分割成多个视频段,其中,传感器单元联接在包括相机的多个传感器与用于自动驾驶ADV的感知与规划系统之间;在时间上使视频段中的每个与从多个传感器中的第一传感器接收的传感器数据同步;将每个视频段与第一传感器的对应的时间同步传感器数据进行组合,以生成组合传感器数据;以及,将组合传感器数据传输至感知与规划系统,以用于感知在与视频段相对应的时间点处ADV周围的驾驶环境。
在本公开的另一方面,提供了自动驾驶系统的传感器单元。传感器单元包括:传感器接口,能够联接至多个传感器,传感器包括安装在自动驾驶车辆(ADV)上的相机;主机接口,能够联接至感知与规划系统;以及同步模块,联接至传感器接口和主机接口,其中,同步模块配置为将从相机接收的视频数据分割成多个视频段,使视频段中的每个均在时间上与从多个传感器中的第一传感器接收的传感器数据同步,将每个视频段与第一传感器的相应时间同步传感器数据组合,以生成组合传感器数据,并将组合传感器数据传输至感知与规划系统,以用于感知与视频段相对应的时间点处ADV周围的驾驶环境。
在本公开的另一方面,提供了自动驾驶系统。该系统包括:多个传感器,包括相机,待安装在自动驾驶车辆上;感知与规划系统;以及传感器单元,其中,传感器单元包括:联接至多个传感器的传感器接口、能够联接至感知与规划系统的主机接口、以及联接至传感器接口和主机接口的同步模块,其中同步模块配置为将从相机接收的视频数据分割成多个视频段,使视频段中的每个均在时间上与从多个传感器中的第一传感器接收的传感器数据同步,将每个视频段与第一传感器的相应时间同步传感器数据组合,以生成组合传感器数据,并将组合传感器数据传输至感知与规划系统,以用于感知与视频段相对应的时间点处ADV周围的驾驶环境。
附图说明
本公开的实施方式在附图的各图中以举例而非限制的方式示出,附图中的相同参考数字指示相似元件。
图1是示出根据一个实施方式的网络化系统的框图。
图2是示出一个实施方式的自动驾驶车辆的示例的框图。
图3A至图3B是示出根据一些实施方式的由自动驾驶车辆使用的感知与规划系统的示例的框图。
图4是示出根据一个实施方式的自动驾驶系统的架构的框图。
图5A是示出根据一个实施方式的传感器单元的示例的框图。
图5B是示出根据一个实施方式的组合来自多个传感器的数据的传感器单元的示例的框图。
图6是示出根据一个实施方式的组合压缩视频数据与来自其他传感器的数据的传感器单元的示例的框图。
图7是示出根据一个实施方式的将压缩视频数据分割成可独立解码的段以与来自其他传感器的数据进行组合和时间同步的图。
图8是示出根据一个实施方式的将压缩视频数据划分为压缩视频单元以与来自其他传感器的数据进行组合和时间同步的图,该压缩视频单元与在每个压缩视频单元之前的、缓存的压缩视频数据组合。
图9是示出根据一个实施方式的将压缩视频数据的可独立解码的段与来自其他传感器的数据进行组合和时间同步的方法的流程图。
图10是示出根据一个实施方式的将具有缓存部分的压缩视频单元与来自其他传感器的数据进行组合和时间同步的方法的流程图。
图11是示出根据一个实施方式的数据处理系统的框图。
具体实施方式
以下将参考所讨论的细节来描述本公开的各种实施方式和方面,附图将示出各个实施方式。下列描述和附图是对本公开的说明,而不应当解释为限制本公开。描述了许多特定细节以提供对本公开各种实施方式的全面理解。然而,在某些情况下,并未描述众所周知的或常规的细节以提供对本公开的实施方式的简洁讨论。
本说明书中对“一个实施方式”或“实施方式”的提及意味着结合该实施方式所描述的特定特征、结构或特性可以包括在本公开的至少一个实施方式中。短语“在一个实施方式中”在本说明书中各个地方的出现不必全部指同一实施方式。
根据一些实施方式,执行方法来操作ADV。该方法压缩从相机接收的视频数据以生成压缩视频数据。该方法将压缩视频数据分割成多个段。该方法将压缩视频数据的每个段与从其他传感器接收的数据进行时间同步,从而为其他传感器生成相应的时间同步传感器数据。然后,该方法将压缩视频数据的每个段与其他传感器的相应时间同步传感器数据组合在一起。压缩视频数据的每个段均可独立解码为未压缩视频数据。在另一实施方式中,压缩视频数据的每个段均包括压缩视频单元,该压缩视频单元被前置有紧接在压缩视频单元之前的压缩视频数据的缓存部分。压缩视频单元的长度小于压缩视频数据的可独立解码段的长度,从而在以较高开销为代价使压缩视频数据与其他传感器数据时间同步中提供更精细的间隔尺寸。
根据一方面,响应于从相机接收的视频数据(例如,视频流),将视频数据分割成多个视频段。视频段中的每个在时间上与另一传感器 (例如,LIDAR、RADAR)的传感器数据同步。然后,每个视频段均与其他传感器的对应时间同步传感器数据组合或合并,从而形成组合传感器数据(也称为组合传感器数据段)。然后,将组合传感器数据传输至感知与规划系统,以用于感知自动驾驶车辆(ADV)的驾驶环境,并规划路径以驾驶车辆在与视频段相对应的时间点处导航通过驾驶环境。
根据另一方面,可用作自动驾驶系统的部分的传感器单元包括传感器接口、主机接口和同步模块。传感器接口可联接至多个传感器,传感器包括一个或多个相机、LIDAR设备和/或RADAR设备。主机接口可通过总线(例如,PCIe总线)联接至感知与规划系统,其中,感知与规划系统配置为感知ADV周围的驾驶环境,并规划路径以导航经过驾驶环境。在一个实施方式中,同步模块通过传感器接口从相机接收视频数据,并将视频数据分割为多个视频段。然后,同步模块例如基于相关联的传感器数据的时间戳,将视频段的定时与其他传感器 (例如,LIDAR、RADAR)的相应传感器数据同步,以生成组合传感器数据。然后,将组合传感器数据从传感器单元传输至感知与规划系统以在其中使用,从而感知驾驶环境,并规划路径以驾驶车辆导航通过驾驶环境。
根据另一方面,如上所述,自动驾驶系统包括多个传感器、感知与规划系统以及联接至传感器和感知与规划系统的传感器单元。
图1是示出根据本公开的一个实施方式的自动驾驶车辆网络配置的框图。参考图1,网络配置100包括可以通过网络102通信地联接到一个或多个服务器103至104的自动驾驶车辆101。尽管示出一个自动驾驶车辆,但多个自动驾驶车辆可以通过网络102联接到彼此和/ 或联接到服务器103至104。网络102可以是任何类型的网络,例如,有线或无线的局域网(LAN)、诸如互联网的广域网(WAN)、蜂窝网络、卫星网络或其组合。服务器103至104可以是任何类型的服务器或服务器群集,诸如,网络或云服务器、应用服务器、后端服务器或其组合。服务器103至104可以是数据分析服务器、内容服务器、交通信息服务器、地图和兴趣点(MPOI)服务器或者位置服务器等。
自动驾驶车辆是指可以被配置成处于自动驾驶模式下的车辆,在所述自动驾驶模式下车辆在极少或没有来自驾驶员的输入的情况下导航通过环境。这种自动驾驶车辆可以包括传感器系统,所述传感器系统具有被配置成检测与车辆运行环境有关的信息的一个或多个传感器。所述车辆和其相关联的控制器使用所检测的信息来导航通过所述环境。自动驾驶车辆101可以在手动模式下、在全自动驾驶模式下或者在部分自动驾驶模式下运行。
在一个实施方式中,自动驾驶车辆101包括,但不限于,感知与规划系统110、车辆控制系统111、无线通信系统112、用户接口系统 113和传感器系统115。自动驾驶车辆101还可以包括普通车辆中包括的某些常用部件,诸如:发动机、车轮、方向盘、变速器等,所述部件可以由车辆控制系统111和/或感知与规划系统110使用多种通信信号和/或命令进行控制,该多种通信信号和/或命令例如,加速信号或命令、减速信号或命令、转向信号或命令、制动信号或命令等。
部件110至115可以经由互连件、总线、网络或其组合通信地联接到彼此。例如,部件110至115可以经由控制器局域网(CAN)总线通信地联接到彼此。CAN总线是被设计成允许微控制器和装置在没有主机的应用中与彼此通信的车辆总线标准。它是最初是为汽车内的复用电气布线设计的基于消息的协议,但也用于许多其它环境。
现在参考图2,在一个实施方式中,传感器系统115包括但不限于一个或多个相机211、全球定位系统(GPS)单元212、惯性测量单元(IMU)213、雷达单元214以及光探测和测距(LIDAR)单元215。 GPS系统212可以包括收发器,所述收发器可操作以提供关于自动驾驶车辆的位置的信息。IMU单元213可以基于惯性加速度来感测自动驾驶车辆的位置和定向变化。雷达单元214可以表示利用无线电信号来感测自动驾驶车辆的本地环境内的对象的系统。在一些实施方式中,除感测对象之外,雷达单元214可以另外感测对象的速度和/或前进方向。LIDAR单元215可以使用激光来感测自动驾驶车辆所处环境中的对象。除其它系统部件之外,LIDAR单元215还可以包括一个或多个激光源、激光扫描器以及一个或多个检测器。相机211可以包括用来采集自动驾驶车辆周围环境的图像的一个或多个装置。相机211可以是静物相机和/或视频相机。相机可以是可机械地移动的,例如,通过将相机安装在旋转和/或倾斜平台上。
传感器系统115还可以包括其它传感器,诸如:声纳传感器、红外传感器、转向传感器、油门传感器、制动传感器以及音频传感器(例如,麦克风)。音频传感器可以被配置成从自动驾驶车辆周围的环境中采集声音。转向传感器可以被配置成感测方向盘、车辆的车轮或其组合的转向角度。油门传感器和制动传感器分别感测车辆的油门位置和制动位置。在一些情形下,油门传感器和制动传感器可以集成为集成式油门/制动传感器。
在一个实施方式中,车辆控制系统111包括但不限于转向单元 201、油门单元202(也被称为加速单元)和制动单元203。转向单元 201用来调整车辆的方向或前进方向。油门单元202用来控制电动机或发动机的速度,电动机或发动机的速度进而控制车辆的速度和加速度。制动单元203通过提供摩擦使车辆的车轮或轮胎减速而使车辆减速。应注意,如图2所示的部件可以以硬件、软件或其组合实施。
回到图1,无线通信系统112允许自动驾驶车辆101与诸如装置、传感器、其它车辆等外部系统之间的通信。例如,无线通信系统112 可以与一个或多个装置直接无线通信,或者经由通信网络进行无线通信,诸如,通过网络102与服务器103至104通信。无线通信系统112 可以使用任何蜂窝通信网络或无线局域网(WLAN),例如,使用WiFi,以与另一部件或系统通信。无线通信系统112可以例如使用红外链路、蓝牙等与装置(例如,乘客的移动装置、显示装置、车辆101内的扬声器)直接通信。用户接口系统113可以是在车辆101内实施的外围装置的部分,包括例如键盘、触摸屏显示装置、麦克风和扬声器等。
自动驾驶车辆101的功能中的一些或全部可以由感知与规划系统 110控制或管理,尤其当在自动驾驶模式下操作时。感知与规划系统 110包括必要的硬件(例如,处理器、存储器、存储设备)和软件(例如,操作系统、规划和路线安排程序),以从传感器系统115、控制系统111、无线通信系统112和/或用户接口系统113接收信息,处理所接收的信息,规划从起始点到目的地点的路线或路径,随后基于规划和控制信息来驾驶车辆101。替代地,感知与规划系统110可以与车辆控制系统111集成在一起。
例如,作为乘客的用户可以例如经由用户接口来指定行程的起始位置和目的地。感知与规划系统110获得行程相关数据。例如,感知与规划系统110可以从MPOI服务器中获得位置和路线信息,所述 MPOI服务器可以是服务器103至104的一部分。位置服务器提供位置服务,并且MPOI服务器提供地图服务和某些位置的POI。替代地,此类位置和MPOI信息可以本地高速缓存在感知与规划系统110的永久性存储装置中。
当自动驾驶车辆101沿着路线移动时,感知与规划系统110也可以从交通信息系统或服务器(TIS)获得实时交通信息。应注意,服务器103至104可以由第三方实体进行操作。替代地,服务器103至104 的功能可以与感知与规划系统110集成在一起。基于实时交通信息、 MPOI信息和位置信息以及由传感器系统115检测或感测的实时本地环境数据(例如,障碍物、对象、附近车辆),感知与规划系统110可以规划最佳路线并且根据所规划的路线例如经由控制系统111来驾驶车辆101,以安全且高效到达指定目的地。
服务器103可以是为各种客户端执行数据分析服务的数据分析系统。在一个实施方式中,数据分析系统103包括数据收集器121和机器学习引擎122。数据收集器121从各种车辆收集驾驶统计数据123,这些车辆可以是自动驾驶车辆,也可以是人类驾驶员驾驶的常规车辆。驾驶统计数据123包括指示所发出的驾驶命令(例如,油门、制动器、转向命令)以及在不同的时间点由车辆的传感器捕获的车辆的响应(例如,速度、加速度、减速度、方向)的信息。驾驶统计数据123还可包括描述不同时间点的驾驶环境的信息,例如路线(包括起点和目的地位置)、MPOI、道路状况、天气状况等。
基于驾驶统计数据123,机器学习引擎122生成或训练用于各种目的的一组规则、算法和/或预测模型124。在一个实施方式中,算法 124可包括用于感知、预测、决定、规划和/或控制过程的规则或算法,这将在下面进一步详细描述。然后,可将算法124上传到ADV上,以在自动驾驶过程中实时使用。在一个实施方式中,算法124可将压缩视频数据与其他传感器数据以及系统日志信息进行组合和时间同步,以用于感知和控制中的实时使用以及存储。在一个实施方式中,视频数据流可被压缩并被分割成可独立解码的段。压缩视频数据中的每个可独立解码的段均与其他传感器数据进时间同步并组合。在另一实施方式中,视频数据流可被压缩并且分段成压缩视频单元。压缩视频单元不可独立地解码,但是具有与可独立解码的段相比长度较小的优点,因而可更灵活地与其他传感器数据同步并组合。为了能够进行随后的视频解码,可以将紧接在压缩视频单元之前的可编程长度的压缩视频数据进行缓存,并前置至压缩视频单元。每个压缩视频单元及其前置的缓存部分与其他传感器数据进行时间同步并组合。时间同步可依赖于标记至压缩视频和其他传感器数据的时间戳。
将压缩视频数据分割为a)可独立解码的段或b)较小的压缩视频单元及其软件可配置的前置缓存部分,并将它们与来自其他传感器的时间同步数据组合,使上层软件可以灵活地控制数据合并。应用软件可提供控制信号,用于传感器与系统日志信息之间的数据合并。可消除将压缩视频数据与其他传感器数据组合时丢失数据或数据未对准的情况。组合传感器数据可有效地存储并稍后获取以用于分析或诊断。视频解码可在独立可解码段的边界或带有其前置的缓存部分的较小压缩视频单元的边界开始。
图3A和图3B是示出根据一个实施方式的与自动驾驶车辆一起使用的感知与规划系统的示例的框图。系统300可以被实施为图1的自动驾驶车辆101的一部分,包括但不限于感知与规划系统110、控制系统111和传感器系统115。参考图3A和图3B,感知与规划系统110包括但不限于定位模块301、感知模块302、预测模块303、决策模块 304、规划模块305、控制模块306以及路线模块307。
模块301至307中的一些或全部可以在软件、硬件或其组合中实施。例如,这些模块可以安装在永久性存储装置352中、加载到存储器351中,并且由一个或多个处理器(未示出)执行。应注意,这些模块中的一些或全部可以通信地联接到图2的车辆控制系统111的一些或全部模块或者与它们集成在一起。模块301至307中的一些可以一起集成为集成模块。例如,决策模块304和规划模块305可集成为单个模块。
定位模块301确定自动驾驶车辆300的当前位置(例如利用GPS 单元212),并管理与用户的行程或路线相关的任何数据。定位模块301 (也被称为地图与路线模块)管理与用户的行程或路线相关的任何数据。用户可以例如经由用户接口登录并且指定行程的起始位置和目的地。定位模块301与自动驾驶车辆300的诸如地图和路线信息311的其它部件通信,以获得行程相关数据。例如,定位模块301可以从位置服务器和地图与POI(MPOI)服务器获得位置和路线信息。位置服务器提供位置服务,并且MPOI服务器提供地图服务和某些位置的 POI,从而可以作为地图和路线信息311的一部分高速缓存。当自动驾驶车辆300沿着路线移动时,定位模块301也可以从交通信息系统或服务器获得实时交通信息。
基于由传感器系统115提供的传感器数据和由定位模块301获得的定位信息,感知模块302确定对周围环境的感知。感知信息可以表示普通驾驶员在驾驶员正驾驶的车辆周围将感知到的东西。感知可以包括例如采用对象形式的车道配置(例如,直线车道或弯曲车道)、交通灯信号、另一车辆的相对位置、行人、建筑物、人行横道或其它交通相关标志(例如,停止标志、让行标志)等。车道配置包括描述一个或多个车道的信息,例如,车道的形状(例如,笔直或曲率)、车道的宽度、道路中有多少个车道、单向或双向车道、合并或拆分车道、出口车道等。
感知模块302可以包括计算机视觉系统或计算机视觉系统的功能,以处理并分析由一个或多个相机采集的图像,从而识别自动驾驶车辆环境中的对象和/或特征。所述对象可以包括交通信号、道路边界、其它车辆、行人和/或障碍物等。计算机视觉系统可以使用对象识别算法、视频跟踪以及其它计算机视觉技术。在一些实施方式中,计算机视觉系统可以绘制环境地图,跟踪对象,以及估算对象的速度等。感知模块302也可以基于由诸如雷达和/或LIDAR的其它传感器提供的其它传感器数据来检测对象。
针对每个对象,预测模块303预测在各种情况下对象将表现出什么。基于感知数据来中预测,该感知数据在时间点上考虑到一组地图/ 路线信息311和交通规则312来感知驾驶环境。例如,如果对象是在相反方向的车辆,并且当前驾驶环境包括交叉路口,则预测模块303 将预测该车辆可能是直线行驶还是转弯。如果感知数据指示交叉路口没有交通灯,则预测模块303可预测车辆可能必须在进入交叉路口之前完全停止。如果感知数据指示车辆当前处于仅左转车道或仅右转车道,则预测模块303可预测车辆将更可能分别左转或右转。
针对每个对象,决策模块304作出关于如何处置对象的决定。例如,针对特定对象(例如,交叉路线中的另一车辆)以及描述对象的元数据(例如,速度、方向、转弯角度),决策模块304决定如何遇到所述对象(例如,超车、让路、停止、超过)。决策模块304可以根据诸如交通规则或驾驶规则312的一套规则来做出此类决定,所述规则可存储在永久性存储装置352中。
基于针对所感知到的对象中的每个的决定,规划模块305为自动驾驶车辆规划路径或路线以及驾驶参数(例如,距离、速度和/或转弯角度)。换言之,针对给定的对象,决策模块304决定对该对象做什么,而规划模块305确定如何去做。例如,针对给定的对象,决策模块304 可以决定超过所述对象,而规划模块305可以确定在所述对象的左侧还是右侧超过。规划和控制数据由规划模块305生成,包括描述车辆 300在下一移动循环(例如,下一路线/路径段)中将如何移动的信息。例如,规划和控制数据可以指示车辆300以30英里每小时(mph)的速度移动10米,随后以25mph的速度变到右侧车道。
基于规划和控制数据,控制模块306根据由规划和控制数据限定的路线或路径通过将适当的命令或信号发送至车辆控制系统111来控制并驾驶自动驾驶车辆。所述规划和控制数据包括足够的信息,以沿着路径或路线在不同的时间点使用适当的车辆设置或驾驶参数(例如,油门、制动和转弯命令)将车辆从路线或路径的第一点驾驶到第二点。
在一个实施方式中,在多个规划周期中执行规划阶段,例如,在每个100毫秒(ms)的时间间隔中,规划周期也称为命令周期。针对每个规划周期或命令周期,将基于规划和控制数据发出一个或多个控制命令。也就是说,对于每100ms,规划模块305规划下一路线段或路径段,例如,包括目标位置和ADV到达目标位置所需的时间。替代地,规划模块305可进一步指定具体速度、方向和/或转向角等。在一个实施方式中,规划模块305规划诸如5秒的下一预定时间段的路线段或路径段。针对每个规划周期,规划模块305基于在先前周期中规划的目标位置来规划当前周期的目标位置(例如,接下来的5秒)。然后,控制模块306基于当前周期的规划和控制数据来生成一个或多个控制命令(例如,油门、制动、转向控制命令)。
应注意,决策模块304和规划模块305可以集成为集成模块。决策模块304/规划模块305可以包括导航系统或导航系统的功能,以确定自动驾驶车辆的驾驶路径。例如,导航系统可以确定用于实现自动驾驶车辆沿着以下路径移动的一系列速度和定向前进方向:所述路径在使自动驾驶车辆沿着通往最终目的地的基于车行道的路径前进的同时,基本上避免感知到的障碍物。目的地可以根据经由用户接口系统 113进行的用户输入来设定。导航系统可以在自动驾驶车辆正在运行的同时动态地更新驾驶路径。导航系统可以将来自GPS系统和一个或多个地图的数据合并,以确定用于自动驾驶车辆的驾驶路径。
决策模块304/规划模块305还可包括防撞系统或防撞系统的功能,以识别、评估并避免或以其他方式越过自动驾驶车辆的环境中的潜在障碍。例如,防撞系统可以通过操作控制系统111中的一个或多个子系统以进行迂回、转弯、制动等操作来实现自动驾驶车辆的导航改变。防撞系统可基于周围的交通模式、道路状况等自动确定可行的避障操作。防撞系统可配置为使得当其他传感器系统在与自动驾驶车辆相邻的可能冲入的区域中检测到车辆、建筑障碍物等时,不会进行转弯操作。防撞系统可自动选择既可用又使自动驾驶车辆的乘员安全最大化的操纵。防撞系统可选择预测为在自动驾驶车辆的乘客舱中引起最小的加速度的规避操作。
路线模块307配置为提供从起点到目的地点的一条或多条路线或路径。对于例如从用户处接收到的、从起始位置到目的地位置的给定行程,路线模块307获得路线和地图信息311,并确定从起始位置到达目的地位置的所有可能的路线或路径。路线模块307可为其从起始位置到达目的地位置所确定的路线中的每条生成以地形图形式的参考线。参考线是指理想的路线或路径,不受其他车辆、障碍物或交通状况等其他因素的干扰。也就是说,如果道路上没有其他车辆、行人或障碍物,则ADV应该准确或紧密跟随参考线。然后,将地形图提供给决策模块304和/或规划模块305。决策模块304和/或规划模块305 根据由其他模块提供的其他数据,检查所有可能的路线,从而选择和修改最佳路线中的一个,其中,其他数据诸如为来自定位模块301的交通状况、感知模块302感知的驾驶环境以及预测模块303预测的交通状况。用于控制ADV的实际路径或路线可能取决于时间点处的具体驾驶环境而与路线模块307提供的参考线接近或不同。
应注意,如上文示出和描述的部件中的一些或全部可以在软件、硬件或其组合中实施。例如,此类部件可以实施为安装并存储在永久性存储装置中的软件,所述软件可以通过处理器(未示出)加载在存储器中并在存储器中执行以实施贯穿本申请所述的过程或操作。替代地,此类部件可以实施为编程或嵌入到专用硬件(诸如,集成电路(例如,专用集成电路或ASIC)、数字信号处理器(DSP)或现场可编程门阵列(FPGA))中的可执行代码,所述可执行代码可以经由来自应用的相应驱动程序和/或操作系统来访问。此外,此类部件可以实施为处理器或处理器内核中的特定硬件逻辑,作为可由软件部件通过一个或多个特定指令访问的指令集的一部分。
图4是示出根据一个实施方式的用于自动驾驶的系统架构的框图。系统架构400可表示如图3A和图3B所示的自动驾驶系统的系统架构。参照图4,系统架构400包括但不限于应用层401、规划和控制 (PNC)层402、感知层403、驱动器层404、固件层405和硬件层406。应用层401可包括与自动驾驶车辆的用户或乘客交互的用户界面或配置应用,例如与用户界面系统113相关联的功能。PNC层402可至少包括规划模块305和控制模块306的功能。感知层403可包括至少感知模块302的功能。在一个实施方式中,存在包括预测模块303和/ 或决策模块304的功能的附加层。替换地,这样的功能可包括于PNC 层402和/或感知层403中。系统架构400进一步包括驱动器层404、固件层405和硬件层406。固件层405可至少表示传感器系统115的功能,其可以以现场可编程门阵列(FPGA)的形式实现。硬件层406 可表示自动驾驶车辆的硬件,诸如控制系统111。层401至层403可经由设备驱动器层404与固件层405和硬件层406通信。
图5A是示出根据本公开的一个实施方式的传感器系统的示例的框图。参照图5A,传感器系统115包括联接至主机系统110的传感器单元500和多个传感器510。主机系统110表示如上所述的规划和控制系统,其可以包括如图3A和图3B所示的模块中的至少一些。传感器单元500可以以FPGA设备或ASIC(专用集成电路)设备的形式实现。在一个实施方式中,传感器单元500除其他外还包括一个或多个传感器数据处理模块501(也简称为传感器处理模块)、数据传输模块 502和传感器控制模块或逻辑503。模块501至模块503可经由传感器接口504与传感器510通信,并经由主机接口505与主机系统110通信。可选地,内部或外部缓存器506可用于缓存数据以进行处理。
在一个实施方式中,对于接收路径或上游方向,传感器处理模块 501配置为经由传感器接口504从传感器接收传感器数据,并处理传感器数据(例如,格式转换、错误检查),这可临时存储在缓存器506 中。数据传输模块502配置为使用与主机接口505兼容的通信协议将已处理的数据传输至主机系统110。类似地,对于传输路径或下游方向,数据传输模块502配置为从主机系统110接收数据或命令。然后,通过传感器处理模块501将数据处理为与相应传感器兼容的格式。然后,将已处理的数据传输至传感器。
在一个实施方式中,传感器控制模块或逻辑503配置为响应于通过主机接口505从主机系统(例如,感知模块302)接收的命令来控制传感器510的某些操作,例如,激活捕获传感器数据的定时。主机系统110可将传感器510配置为以协作和/或同步的方式捕获传感器数据,使得可在任何时间点利用传感器数据来感知车辆周围的驾驶环境。
传感器接口504可包括以太网、USB(通用串行总线)、LTE(长期演进)或蜂窝、WiFi、GPS、相机、CAN、串行(例如,通用异步接收发送器或UART)、SIM(用户识别模块)卡和其他通用输入/输出 (GPIO)接口中的一种或多种。主机接口505可以是任何高速或高带宽接口,诸如PCIe(外围组件互连或PCI Express)接口。传感器510 可包括在自动驾驶车辆中使用的各种传感器,例如相机、LIDAR设备、 RADAR设备、GPS接收器、IMU、超声传感器、GNSS(全球导航卫星系统)接收器、LTE或蜂窝SIM卡、车辆传感器(例如油门、制动、转向传感器)和系统传感器(例如温度、湿度、压力传感器)等。
例如,相机可经由以太网或GPIO接口联接。GPS传感器可经由 USB或特定的GPS接口联接。车辆传感器可通过CAN接口联接。 RADAR传感器或超声波传感器可通过GPIO接口联接。LIDAR设备可通过以太网接口联接。外部SIM模块可通过LTE接口联接。类似地,可将内部SIM模块插入传感器单元500的SIM插槽中。诸如UART 的串行接口可与控制台系统联接以进行调试。
应注意的是,传感器510可以是任何种类的传感器,并且可由各种供应商或供货商提供。传感器处理模块501配置为处理不同类型的传感器及其各自的数据格式和通信协议。根据一个实施方式,传感器 510中的每个均与特定通道相关联,该特定通道用于处理传感器数据并在主机系统110与相应的传感器之间传输已处理的传感器数据。每个通道均包括已配置或编程为处理相应传感器数据和协议的特定传感器处理模块和特定数据传输模块,如图5B中所示。
现在参考图5B,传感器处理模块501A至501C具体配置为处理分别从传感器510A至510C获得的传感器数据。注意,传感器510A 至510C可以是相同或不同类型的传感器。传感器处理模块501A至 501C可配置(例如,软件可配置)为处理针对不同类型的传感器的不同传感器过程。例如,如果传感器510A是相机,则处理模块501A可配置为对代表由相机510A捕获的图像的特定像素数据进行像素处理操作。类似地,如果传感器510A是LIDAR装置,则处理模块501A 配置为专门处理LIDAR数据。也就是说,根据一个实施方式,取决于特定传感器的特定类型,其对应的处理模块可配置为使用对应于传感器数据的类型的特定过程或方法来处理对应的传感器数据。类似地,数据传输模块502A至502C可配置为以不同的模式操作,因为不同种类的传感器数据可能具有需要不同速度或时序要求的不同大小或灵敏度。
根据一个实施方式,可用作自动驾驶系统的部分的传感器单元 500包括传感器接口、主机接口和同步模块。传感器接口可联接至多个传感器,传感器包括一个或多个相机、LIDAR装置和/或RADAR装置。主机接口可通过总线(例如,PCIe总线)联接至感知与规划系统,其中,感知与规划系统配置为感知ADV周围的驾驶环境,并规划导航通过驾驶环境的路径。在一个实施方式中,同步模块通过传感器接口从相机接收视频数据,并将视频数据分割为多个视频段。然后,同步模块例如基于相关联的传感器数据的时间戳,将视频段的定时与其他传感器(例如,LIDAR、RADAR)的相应传感器数据同步,从而生成组合传感器数据。然后,将组合传感器数据从传感器单元传输至感知与规划系统,从而在其中使用以感知驾驶环境,并规划用于驾驶车辆以导航通过驾驶环境的路径。
图6是示出根据一个实施方式的配置为组合压缩视频数据与来自其他传感器的数据的传感器单元的示例的框图。传感器系统115代表图5B的传感器系统的一个实施方式,其中,传感器包括相机211、 LIDAR 215和雷达214。传感器组合模块600可代表传感器处理模块 501。相机211、LIDAR 215和雷达214可各自包括多个传感器,并且传感器中的每个均可与通道关联以用于提供ADV周围环境的视频或电磁数据。尽管在下面的讨论中将来自相机211的数据称为视频数据,并将对相机数据执行的操作称为视频压缩或视频处理,但应理解的是,来自相机211的数据也可表示由静态相机捕获的图像数据,并且执行的操作可为图像处理或图像压缩。
传感器组合模块600组合或合并来自相机211、LIDAR 215和雷达214的传感器数据,其可在时间上同步、压缩或不压缩。传感器数据组合操作可包括:对传感器数据的时间戳标记、来自相机211的数据的视频压缩、压缩视频数据的分段、传感器数据的时间同步、传感器数据的合并等。传感器组合模块600可包括配置为从相机211接收数据的相机接口601、配置为从LIDAR 215接收数据的LIDAR接口 603、配置为从雷达214接收数据的雷达接口605、视频编解码器607、多传感器同步模块609、主机接口505和网络接口611。在一个实施方式中,传感器组合模块600可在FPGA或ASIC中实现。相机接口601、 LIDAR接口603和雷达接口605配置为从它们各自的传感器接收数据,并且可包括以太网、USB、LTE或蜂窝、WiFi、串行(例如,UART) 和其他GPIO接口中的一种或多种。
视频编解码器607可使用H.264、H.265或其他工业标准的视频压缩算法对来自相机接口601的每个通道的视频数据的帧执行视频压缩。视频编解码器607可以以硬件、软件或硬件和软件的组合来实现。可用时间戳来标记压缩视频数据的帧,以指示相机接口601从相机211 接收到相应的未压缩视频数据的帧的时间。在视频压缩期间,视频编解码器607可访问存储器615。存储器615可包括一个或多个易失性存储(或存储器)设备,诸如随机存取存储器(RAM)、动态RAM (DRAM)、同步DRAM(SDRAM)、双倍数据速率(DDR)DRAM、静态RAM(SRAM)或其他类型的非易失性固态、光学或磁性存储设备。
LIDAR接口603可用时间戳来标记来自LIDAR 215的数据,以指示接收LIDAR数据的单元的时间。类似地,雷达接口605可用时间戳标记来自雷达214的数据,以指示接收雷达数据的单元的时间。在一个实施方式中,LIDAR数据或雷达数据可被压缩。压缩视频数据、LIDAR数据和雷达数据上的时间戳可用于对准或时间同步传感器数据以进行组合。
在一个实施方式中,为了将压缩视频数据与其他传感器数据组合,多传感器同步模块609可以将压缩视频数据分割成段,使得每个段可包括所有必要的信息,以对该段中的数据进行视频解码。可独立解码的段的长度可以是视频编解码器607的压缩算法的函数。可独立解码的段的长度也可以是软件可配置的。在一个实施方式中,段长度可包括一秒或多秒的压缩视频数据。多传感器同步模块609可基于压缩视频数据的每一可独立解码的段、LIDAR数据和雷达数据的单元的各自的时间戳,将压缩视频数据的每一可独立解码的段与LIDAR数据和雷达数据的单元时间对准。在传感器数据进行时间对准后,多传感器同步模块609可通过将压缩视频数据的每个段与LIDAR数据和雷达数据的时间对准的单元存储到存储器615中来组合传感器数据。
图7是示出根据一个实施方式的将压缩视频数据分割成可独立解码的段以与来自其他传感器的数据进行组合和时间同步的图。压缩视频数据701分割为N个可独立解码的段:段0(703)、段1(705)、段2(707)、…、段N(709)。每个段均可包括跨越若干秒的压缩视频数据的帧。如所讨论的,段长度可取决于用于生成压缩视频数据701 的视频压缩算法,并且可以是软件可配置的。每个段均可用时间戳标记,该时间戳指示从相机211接收到与该段中的压缩视频数据701相对应的未压缩视频数据的开始时间。压缩视频数据701的段0(703)通过识别LIDAR数据0(713)和雷达数据0(723)的单元与LIDAR 数据和雷达数据在时间上对准,其中,LIDAR数据0(713)和雷达数据0(723)的单元的时间戳横跨在与压缩视频数据的段0(703)和段 1(705)相关联的时间戳之间。类似地,压缩视频数据701的段1(705) 通过识别LIDAR数据1(715)和雷达数据1(725)的单元与LIDAR 数据和雷达数据在时间上对准,其中,LIDAR数据1(715)和雷达数据1(725)的单元的时间戳横跨在与压缩视频数据的段1(705)和段 2(707)相关联的时间戳之间。对于压缩视频数据701的其他段与 LIDAR数据和雷达数据的单元执行相似的时间对准。时间对准的传感器数据组合并写入至存储器615中。例如,压缩视频数据701的段0 (703)与LIDAR数据0(713)和雷达数据0(723)串联,并写入存储器615。
因为压缩视频数据701的段可独立解码,因而可在任何一个段边界从存储器615读取压缩视频数据701,以使得能够从该段边界开始进行视频解码。然后,可将来自该段的解码视频数据与时间对准的 LIDAR和雷达数据一起使用,以实现对从该段向前的传感器数据的分析或诊断。因而,对准和组合传感器数据的间隔尺寸是压缩视频数据 701的段长度。可从中读取存储的传感器数据并解码压缩视频数据的起始点的间隔尺寸也是压缩视频数据701的段长度。
在另一实施方式中,为了将压缩视频数据与其他传感器数据组合,多传感器同步模块609可将压缩视频数据分段成不可独立解码但长度小于可独立解码的段的压缩视频单元,因而可更灵活地与其他传感器数据组合和同步。为了能够进行视频解码,紧接在压缩视频单元之前的具有可编程长度的压缩视频数据可被缓存并且前置在压缩视频单元之前。缓存的压缩视频单元的长度可以是视频编解码器607的压缩算法的函数。缓存的压缩视频单元的长度也可以是软件可配置的。多传感器同步模块609可基于它们各自的时间戳将每个压缩视频单元及其前置的缓存部分与LIDAR数据和雷达数据的单元进行时间对准。在传感器数据进行时间对准之后,多传感器同步模块609可通过将每个压缩视频单元及其前置的缓存部分与LIDAR数据和雷达数据的时间对准单元存储在存储器615中,来组合传感器数据。在一个实施方式中,LIDAR数据或雷达数据也可压缩并分段为小单元,所述小单元前置有缓存部分以进行组合。由于压缩视频单元的长度小于独立可解码段的长度,因而在将压缩视频数据与其他传感器数据对准时,具有更好的间隔尺寸和更大的灵活性。然而,权衡在于前置至压缩视频单元以便能够对压缩视频单元进行视频解码的、缓存视频数据的开销。
图8是示出根据一个实施方式的将压缩视频数据划分为压缩视频单元以与来自其他传感器的数据进行组合和时间同步的图,该压缩视频单元与每个压缩视频单元之前的缓存的压缩视频数据组合。压缩视频数据被划分为N个压缩视频单元:压缩视频单元0(803)、压缩视频单元1(805)、压缩视频单元2(807)、…、压缩视频单元N(809)。视频编解码器607可将压缩视频单元生成为压缩视频数据的包。与图 9的可独立解码的段相反,压缩视频单元是不可独立解码的,并且长度较小。为了能够对压缩视频单元进行视频解码,将紧接在压缩视频单元之前的、长度为Δt的额外压缩视频数据(802)缓存并前置至压缩视频单元的开头。例如,长度为Δt的压缩视频数据(802)缓存在缓存器0(813)中,并且前置至压缩视频单元0(803)。如果压缩视频单元0(803)标记有指示从相机211接收到与压缩视频单元0相对应的未压缩视频数据的开始时间的时间戳记ts,则缓存器0(813)可在ts之前缓存Δt的压缩视频数据。因而,缓存器0(813)可存储与从(ts-Δt)到ts的时间间隔期间从相机211接收的视频数据相对应的压缩视频数据。Δt可为视频编解码器607的压缩算法的函数。Δt也可以是软件可配置的。类似地,长度为Δt的压缩视频数据(802)被缓存在缓存器1(815)中,并前置至压缩视频单元1(805)。对于其他压缩视频单元,对压缩视频数据进行类似的缓存和前置处理。
通过识别LIDAR数据0(823)和雷达数据0(833)的单元,将压缩视频单元0(803)与LIDAR数据和雷达数据进行时间对准,其中LIDAR数据0(823)和雷达数据0(833)的单元的时间戳横跨在与压缩视频单元0(803)和压缩视频单元1(805)相关联的时间戳之间。类似地,压缩视频单元1(805)与LIDAR数据1(825)和雷达数据1(835)的单元时间对准,其中LIDAR数据1(825)和雷达数据1(835)的单元的时间戳横跨在与压缩视频单元1(805)和压缩视频单元2(807)相关联的时间戳之间。对其他压缩视频单元执行与 LIDAR数据和雷达数据的单元类似的时间对准。压缩视频单元及其压缩视频数据的关联缓存与其时间对准的LIDAR和雷达数据组合在一起,并写入存储器615。例如,缓存器0(813)和压缩视频单元0(803) 中的压缩视频数据与LIDAR数据0(823)和雷达数据0(833)串联并写入存储器615。应注意,在连续的压缩视频单元及其关联的缓存器之间,压缩视频数据存在某些重叠。
可在任何压缩视频单元边界之前从Δt(802)开始从存储器615 读取存储的压缩视频单元及其相关联的视频压缩数据的缓存,以使得能够从该压缩视频单元边界开始进行视频解码。然后,可将来自压缩视频单元的解码视频数据与时间对准的LIDAR和雷达数据一起使用,以实现从该压缩视频单元向前的传感器数据的分析或诊断。因而,对准和组合传感器数据的间隔尺寸是压缩视频单元的长度。可从其读取存储的传感器数据并解码压缩视频数据的起点的间隔尺寸也是压缩视频单元的长度。因为压缩视频单元的长度小于独立可解码段的长度,所以在将压缩视频数据与其他传感器数据对准时具有更细的间隔尺寸和更大的灵活性,并且在从存储的压缩视频数据开始进行视频解码时具有更细的间隔尺寸。
再次参考图6,存储器615还可包括由处理器617执行的软件,以执行传感器系统115的各种功能。例如,处理器617可从存储器615 读取组合传感器数据,以使用与主机接口505兼容的通信协议传输至主机系统110。主机接口505可以是任何高速或高带宽接口,诸如PCIe 接口。主机系统110可表示所讨论的感知与规划系统110或控制系统 111。在一个实施方式中,处理器617可以通过网络接口611将组合传感器数据传送至数据网络613。数据网络613可表示ADV的其他系统、大容量存储设备或服务器103或104。网络接口611可以是任何有线或无线的通讯接口。在一个实施方式中,处理器617可配置为在确定哪个独立可解码段或压缩视频单元开始从存储器615访问组合传感器数据、从确定的独立可解码段的边界或压缩视频单元读取组合传感器数据,并将组合传感器数据传输至主机系统110和数据网络613时,执行缓存器管理功能。
图9是示出根据一个实施方式的将压缩视频数据的可独立解码的段与来自其他传感器的数据进行组合和时间同步的方法的流程图。传感器数据组合方法900可由处理逻辑来执行,该处理逻辑可包括软件、硬件或其组合。例如,传感器数据组合方法900可由图6的传感器系统115的处理器617或多传感器同步模块609执行。在方框901,可以将从相机接收的视频数据分段为视频段,例如基于视频数据的时序。可选地使用H.264、H.265或其他行业标准的视频压缩算法来压缩视频数据。可用时间戳来标记压缩视频数据的帧,以指示从相机接收到未压缩视频数据的相应帧的时间。视频数据可以分割成可独立解码的段,使得每个段均可包括所有必要的信息以对段中的数据进行视频解码。独立可解码段的长度可以是视频压缩算法的压缩算法的函数。独立可解码段的长度也可以是软件可配置的。
在方框903,每个视频段均在时间上与其他传感器(例如,LIDAR, RADAR)的其他传感器数据或传感器数据段同步。在方框905,处理逻辑基于它们各自的时间戳在时间上对准或同步压缩视频数据的每个可独立解码的段与诸如LIDAR数据和雷达数据的单元的其他传感器数据。例如,每个独立可解码段均可用时间戳标记,该时间戳指示从相机接收与独立可解码段中的压缩视频数据相对应的未压缩视频数据的开始时间。可通过识别其他传感器数据的单元,将可独立解码段与其他传感器数据对准,该其他传感器数据的单元的时间戳横跨在与可独立解码段相关联的时间戳和与随后的可独立解码段相关联的时间戳之间。
在907,处理逻辑将压缩视频数据的每个独立可解码段与其他时间同步传感器数据进行组合。例如,处理逻辑可将压缩视频数据的每个独立可解码段与来自其他传感器的时间对准的数据串联,并将组合传感器数据写入存储器。
图10是示出根据一个实施方式的将具有缓存部分的压缩视频单元与来自其他传感器的数据进行组合和时间同步的方法的流程图。传感器数据组合方法1000可由处理逻辑来执行,该处理逻辑可包括软件、硬件或其组合。例如,传感器数据组合方法1000可由图6的传感器系统115的处理器617或多传感器同步模块609执行。在方框1001,传感器数据组合方法1000压缩从相机接收的视频数据。可使用H.264、 H.265或其他行业标准的视频压缩算法压缩视频数据。可用时间戳 Kauai标记压缩视频数据的帧,以指示从相机接收到未压缩视频数据的相应帧的时间。
在方框1003,传感器数据组合方法1000将压缩视频数据分割成不可独立解码的但与可独立解码的分段相比其长度较小的压缩视频单元,因而可更灵活地同步并与其他传感器数据组合。压缩视频单元可由视频编解码器生成为压缩视频数据的包。
在方框1005,传感器数据组合方法1000缓存紧接在压缩视频单元之前的压缩视频数据的可编程Δt,并且将缓存的压缩视频数据前置至压缩视频单元的开头。Δt可以是视频压缩算法的函数。Δt也可以是软件可配置的。例如,如果压缩视频单元标记有表示从相机接收到与该压缩视频单元相对应的未压缩视频数据的开始时间的时间戳ts的时间戳,则缓存可存储与在从(ts–Δt)到ts的时间间隔期间从相机接收到的视频数据相对应的压缩视频数据。
在方框1007,传感器数据组合方法1000基于其各自的时间戳,将每个压缩视频单元及其前置缓存部分与其他传感器数据时间对准或同步。例如,通过识别其他传感器数据的单元来使带有时间戳的压缩视频单元与其他传感器数据时间对准,该其他传感器数据的单元的时间戳横跨在与压缩视频单元和随后的压缩视频单元相关联的时间戳之间。
在方框1009,传感器数据组合方法1000将压缩视频数据的每个压缩视频单元及其相关联的缓存与其他时间同步的传感器数据进行组合。例如,传感器数据组合数据1000可将压缩视频数据的每个压缩视频单元及其关联的缓存与来自其他传感器的时间对准的数据串联,并将组合后的数据写入存储器。
图11是示出可与本公开的一个实施方式一起使用的数据处理系统的示例的框图。例如,系统1100可以表示以上所述的执行上述过程或方法中的任一个的任何数据处理系统,例如,图3A和图3B的包括决策模块304、规划模块305的感知与规划系统110、图6的视频压缩系统610或图1的服务器103至104中的任一个。系统1100可以包括许多不同的部件。这些部件可以实施为集成电路(IC)、集成电路的部分、分立电子装置或适用于电路板的其他模块(诸如,计算机系统的主板或插入卡)或者实施为以其他方式并入计算机系统的机架内的部件。
还应注意的是,系统1100旨在示出计算机系统的许多部件的高级视图。然而,应当理解的是,某些实施方式中可以具有附加的部件,此外,其他实施方式中可以具有所示部件的不同配置。系统1100可以表示台式计算机、膝上型计算机、平板计算机、服务器、移动电话、媒体播放器、个人数字助理(PDA)、智能手表、个人通信器、游戏装置、网络路由器或集线器、无线接入点(AP)或中继器、机顶盒或其组合。此外,虽然仅示出了单个机器或系统,但是术语“机器”或“系统”还应当被理解为包括单独地或共同地执行一个(或多个)指令集以执行本文所讨论的任何一种或多种方法的机器或系统的任何集合。
在一个实施方式中,系统1100包括通过总线或互连件1110连接的处理器1101、存储器1103以及装置1105至1108。处理器1101可以表示其中包括单个处理器内核或多个处理器内核的单个处理器或多个处理器。处理器1101可以表示一个或多个通用处理器,诸如,微处理器、中央处理单元(CPU)等。更具体地,处理器1101可为复杂指令集计算(CISC)微处理器、精简指令集计算(RISC)微处理器、超长指令字(VLIW)微处理器、或实施其他指令集的处理器、或实施指令集组合的处理器。处理器1101还可为一个或多个专用处理器,诸如,专用集成电路(ASIC)、蜂窝或基带处理器、现场可编程门阵列 (FPGA)、数字信号处理器(DSP)、网络处理器、图形处理器、通信处理器、加密处理器、协同处理器、嵌入式处理器,或者能够处理指令的任何其他类型的逻辑。
处理器1101可为低功率多核处理器插座,诸如超低电压处理器,处理器1101可以充当用于与所述系统的各种部件通信的主处理单元和中央集线器。这种处理器可以实施为片上系统(SoC)。处理器1101 配置成执行用于执行本文所讨论的操作和步骤的指令。系统1100还可以包括与可选的图形子系统1104通信的图形接口,图形子系统1104 可以包括显示控制器、图形处理器和/或显示装置。
处理器1101可以与存储器1103通信,存储器1103在一个实施方式中可以经由多个存储器装置实施以提供给定量的系统存储器。存储器1103可以包括一个或多个易失性存储(或存储器)装置,诸如,随机存取存储器(RAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、静态RAM(SRAM)或者其他类型的存储装置。存储器1103可以存储包括由处理器1101或任何其他装置执行的指令序列的信息。例如,各种操作系统、装置驱动程序、固件(例如,输入输出基本系统或BIOS) 和/或应用的可执行代码和/或数据可以加载到存储器1103中并由处理器1101执行。操作系统可为任何类型的操作系统,例如,机器人操作系统(ROS)、来自
Figure GDA0002277228360000241
公司的
Figure GDA0002277228360000242
操作系统、来自苹果公司的Mac
Figure GDA0002277228360000245
来自
Figure GDA0002277228360000244
公司的
Figure GDA0002277228360000243
LINUX、UNIX,或者其他实时或嵌入式操作系统。
系统1100还可以包括I/O装置,诸如装置1105至1108,包括网络接口装置1105、可选的输入装置1106,以及其他可选的I/O装置 1107。网络接口装置1105可以包括无线收发器和/或网络接口卡 (NIC)。所述无线收发器可为WiFi收发器、红外收发器、蓝牙收发器、WiMax收发器、无线蜂窝电话收发器、卫星收发器(例如,全球定位系统(GPS)收发器)或其他射频(RF)收发器或者它们的组合。 NIC可为以太网卡。
输入装置1106可包括鼠标、触摸板、触敏屏幕(其可以与显示装置1104集成在一起)、指针装置(诸如,指示笔)和/或键盘(例如,物理键盘或作为触敏屏幕的一部分显示的虚拟键盘)。例如,输入装置 1106可以包括联接至触摸屏的触摸屏控制器。触摸屏和触摸屏控制器例如可以使用多种触敏技术(包括但不限于电容、电阻、红外和表面声波技术)中的任一种,以及用于确定与触摸屏接触的一个或多个接触点的其他接近传感器阵列或其他元件来检测其接触和移动或间断。
I/O装置1107可以包括音频装置。音频装置可以包括扬声器和/ 或麦克风,以促进支持语音的功能,诸如语音识别、语音复制、数字记录和/或电话功能。其他I/O装置1107还可以包括通用串行总线 (USB)端口、并行端口、串行端口、打印机、网络接口、总线桥(例如,PCI-PCI桥)、传感器(例如,运动传感器,诸如加速度计、陀螺仪、磁强计、光传感器、罗盘、接近传感器等)或者它们的组合。装置1107还可以包括成像处理子系统(例如,相机),所述成像处理子系统可以包括用于促进相机功能(诸如,记录照片和视频段)的光学传感器,诸如电荷联接装置(CCD)或互补金属氧化物半导体(CMOS) 光学传感器。某些传感器可以经由传感器集线器(未示出)联接至互连件1110,而诸如键盘或热传感器的其他装置可以根据系统1100的具体配置或设计由嵌入式控制器(未示出)控制。
为了提供诸如数据、应用、一个或多个操作系统等信息的永久性存储,大容量存储设备(未示出)也可以联接至处理器1101。在各种实施方式中,为了实现更薄且更轻的系统设计并且改进系统响应性,这种大容量存储设备可以经由固态装置(SSD)来实施。然而,在其他实施方式中,大容量存储设备可以主要使用硬盘驱动器(HDD)来实施,其中较小量的SSD存储设备充当SSD高速缓存以在断电事件期间实现上下文状态以及其他此类信息的非易失性存储,从而使得在系统活动重新启动时能够实现快速通电。另外,闪存装置可以例如经由串行外围接口(SPI)联接至处理器1101。这种闪存装置可以提供系统软件的非易失性存储,所述系统软件包括所述系统的BIOS以及其他固件。
存储装置1108可包括计算机可访问的存储介质1109(也被称为机器可读存储介质或计算机可读介质),其上存储有体现本文所述的任何一种或多种方法或功能的一个或多个指令集或软件(例如,模块、单元和/或逻辑1128)。处理模块/单元/逻辑1128可以表示上述部件中的任一个,例如诸如图3A和图3B中的决策模块304或规划模块305 或图6的传感器组合模块600。处理模块/单元/逻辑1128还可以在其由数据处理系统1100、存储器1103和处理器1101执行期间完全地或至少部分地驻留在存储器1103内和/或处理器1101内,数据处理系统 1100、存储器1103和处理器1101也构成机器可访问的存储介质。处理模块/单元/逻辑1128还可以通过网络经由网络接口装置1105进行传输或接收。
计算机可读存储介质1109也可以用来永久性地存储以上描述的一些软件功能。虽然计算机可读存储介质1109在示例性实施方式中被示为单个介质,但是术语“计算机可读存储介质”应当被认为包括存储所述一个或多个指令集的单个介质或多个介质(例如,集中式或分布式数据库和/或相关联的高速缓存和服务器)。术语“计算机可读存储介质”还应当被认为包括能够存储或编码指令集的任何介质,所述指令集用于由机器执行并且使得所述机器执行本公开的任何一种或多种方法。因此,术语“计算机可读存储介质”应当被认为包括但不限于固态存储器以及光学介质和磁性介质,或者任何其他非暂时性机器可读介质。
本文所述的处理模块/单元/逻辑1128、部件以及其他特征可以实施为分立硬件部件或集成在硬件部件(诸如,ASICS、FPGA、DSP或类似装置)的功能中。此外,处理模块/单元/逻辑1128可以实施为硬件装置内的固件或功能电路。此外,处理模块/单元/逻辑1128可以以硬件装置和软件部件的任何组合来实施。
应注意,虽然系统1100被示出为具有数据处理系统的各种部件,但是并不旨在表示使部件互连的任何特定架构或方式;因为此类细节和本公开的实施方式没有密切关系。还应当认识到,具有更少部件或可能具有更多部件的网络计算机、手持计算机、移动电话、服务器和/ 或其他数据处理系统也可以与本公开的实施方式一起使用。
前述详细描述中的一些部分已经根据在计算机存储器内对数据位的运算的算法和符号表示而呈现。这些算法描述和表示是数据处理领域中的技术人员所使用的方式,以将他们的工作实质最有效地传达给本领域中的其他技术人员。本文中,算法通常被认为是导致所期望结果的自洽操作序列。这些操作是指需要对物理量进行物理操控的操作。
然而,应当牢记,所有这些和类似的术语均旨在与适当的物理量关联,并且仅仅是应用于这些量的方便标记。除非在以上讨论中以其他方式明确地指出,否则应当了解,在整个说明书中,利用术语(诸如所附权利要求书中所阐述的术语)进行的讨论是指计算机系统或类似电子计算装置的动作和处理,所述计算机系统或电子计算装置操控计算机系统的寄存器和存储器内的表示为物理(电子)量的数据,并将所述数据变换成计算机系统存储器或寄存器或者其他此类信息存储设备、传输或显示装置内类似地表示为物理量的其他数据。
本公开的实施方式还涉及用于执行本文中的操作的设备。这种计算机程序被存储在非暂时性计算机可读介质中。机器可读介质包括用于以机器(例如,计算机)可读的形式存储信息的任何机构。例如,机器可读(例如,计算机可读)介质包括机器(例如,计算机)可读存储介质(例如,只读存储器(“ROM”)、随机存取存储器(“RAM”)、磁盘存储介质、光存储介质、闪存存储器装置)。
前述附图中所描绘的过程或方法可以由处理逻辑来执行,所述处理逻辑包括硬件(例如,电路、专用逻辑等)、软件(例如,体现在非暂时性计算机可读介质上)或两者的组合。尽管所述过程或方法在上文是依据一些顺序操作来描述的,但是应当了解,所述操作中的一些可以按不同的顺序执行。此外,一些操作可以并行地执行而不是顺序地执行。
本公开的实施方式并未参考任何特定的编程语言进行描述。应认识到,可以使用多种编程语言来实施如本文描述的本公开的实施方式的教导。
在以上的说明书中,已经参考本公开的具体示例性实施方式对本公开的实施方式进行了描述。将显而易见的是,在不脱离所附权利要求书中阐述的本公开的更宽泛精神和范围的情况下,可以对本公开做出各种修改。因此,应当在说明性意义而不是限制性意义上来理解本说明书和附图。

Claims (17)

1.一种用于操作自动驾驶车辆的计算机实现的方法,所述方法包括:
在传感器单元处将从安装在所述自动驾驶车辆上的相机接收的视频数据分割成多个视频段,
其中,将所述视频数据分割成多个视频段包括:将所述视频数据分割成多个视频单元,缓存紧接在所述视频单元中的每个之前的所述视频数据的长度,以及将经缓存的视频数据前置到相应视频单元的开头以生成所述多个视频段中的一个,其中所述视频单元的长度小于所述视频数据的可独立解码段的长度,
其中,所述传感器单元联接在包括所述相机的多个传感器与用于自动驾驶所述自动驾驶车辆的感知与规划系统之间;
使所述视频段中的每个在时间上与从所述多个传感器中的第一传感器接收的传感器数据同步;
将每个视频段与所述第一传感器的相应的时间同步传感器数据进行组合,以生成组合传感器数据;以及
将所述组合传感器数据传输至所述感知与规划系统,以用于感知在与所述视频段相对应的时间点处所述自动驾驶车辆周围的驾驶环境。
2.根据权利要求1所述的方法,还包括:在分割所述视频数据之前,将所述视频数据压缩为压缩视频数据,其中,所述压缩视频数据的每个段均能够独立地解码成未压缩视频数据。
3.根据权利要求2所述的方法,其中,压缩所述视频数据包括:使用预定压缩过程,以及其中,所述压缩视频数据的每个段的长度由所述预定压缩过程确定。
4.根据权利要求1所述的方法,其中,将所述视频段的每个段与相应的时间同步传感器数据组合包括:
将前置到相应视频单元的开头的、经缓存的视频数据和所述相应视频单元与所述相应的时间同步传感器数据组合。
5.如权利要求1所述的方法,其中,紧接在所述视频单元中的每个之前的视频数据的长度是能够配置的。
6.根据权利要求1所述的方法,其中,使所述视频段中的每个段在时间上与从所述第一传感器接收的传感器数据同步包括:
用相应的第一时间戳标记所述视频段的每个段;
用第二时间戳标记从所述第一传感器接收的所述传感器数据;以及
基于所述第一时间戳和所述第二时间戳识别所述相应的时间同步传感器数据。
7.根据权利要求1所述的方法,其中,所述第一传感器包括光探测和测距装置或雷达装置。
8.一种自动驾驶系统的传感器单元,所述传感器单元包括:
传感器接口,能够联接至多个传感器,所述传感器包括安装在自动驾驶车辆上的相机;
主机接口,能够联接至感知与规划系统;以及
同步模块,联接至所述传感器接口和所述主机接口,其中,所述同步模块配置为:
将从所述相机接收的视频数据分割成多个视频段,包括:将所述视频数据分割成多个视频单元,缓存紧接在所述视频单元中的每个之前的所述视频数据的长度,以及将经缓存的视频数据前置到相应视频单元的开头以生成所述多个视频段中的一个,其中所述视频单元的长度小于所述视频数据的可独立解码段的长度,
使所述视频段中的每个在时间上与从所述多个传感器中的第一传感器接收的传感器数据同步,
将每个视频段与所述第一传感器的相应的时间同步传感器数据组合,以生成组合传感器数据,以及
将所述组合传感器数据传输至所述感知与规划系统,以用于感知与所述视频段相对应的时间点处所述自动驾驶车辆周围的驾驶环境。
9.根据权利要求8所述的传感器单元,其中,在分割所述视频数据之前,所述视频数据被压缩为压缩视频数据,其中,所述压缩视频数据的每个段均能够独立地解码成未压缩视频数据。
10.根据权利要求9所述的传感器单元,其中,使用预定压缩处理来压缩所述视频数据,以及其中,所述压缩视频数据的每个段的长度由所述预定压缩过程确定。
11.根据权利要求8所述的传感器单元,其中,在将所述视频段的每个段与所述相应的时间同步传感器数据组合中,所述同步模块配置为:
将前置到相应视频单元的开头的、经缓存的视频数据和所述相应视频单元与所述相应的时间同步传感器数据组合。
12.根据权利要求8所述的传感器单元,其中,紧接在所述视频单元中的每个之前的视频数据的长度是能够配置的。
13.根据权利要求8所述的传感器单元,其中使所述视频段中的每个段在时间上与从所述第一传感器接收的传感器数据同步中,所述同步模块配置为:
用相应的第一时间戳标记所述视频段的每个段;
用第二时间戳标记从所述第一传感器接收的所述传感器数据;以及
基于所述第一时间戳和所述第二时间戳识别所述相应的时间同步传感器数据。
14.根据权利要求8所述的传感器单元,其中,所述第一传感器包括光探测和测距装置或雷达装置。
15.一种自动驾驶系统,包括:
多个传感器,包括相机,所述传感器待安装在自动驾驶车辆上;
感知与规划系统;以及
传感器单元,其中,传感器单元包括:
传感器接口,能够联接至所述多个传感器;
主机接口,能够联接至所述感知与规划系统;以及
同步模块,联接至所述传感器接口和所述主机接口,
其中,所述同步模块配置为:
将从所述相机接收的视频数据分割成多个视频段,包括:将所述视频数据分割成多个视频单元,缓存紧接在所述视频单元中的每个之前的所述视频数据的长度,以及将经缓存的视频数据前置到相应视频单元的开头以生成所述多个视频段中的一个,其中所述视频单元的长度小于所述视频数据的可独立解码段的长度,
使所述视频段中的每个在时间上与从所述多个传感器中的第一传感器接收的传感器数据同步,
将每个视频段与所述第一传感器的相应的时间同步传感器数据组合,以生成组合传感器数据,以及
将所述组合传感器数据传输至所述感知与规划系统,以用于感知与所述视频段相对应的时间点处所述自动驾驶车辆周围的驾驶环境。
16.根据权利要求15所述的系统,其中,在分割所述视频数据之前,所述同步模块还将所述视频数据压缩为压缩视频数据,其中,所述压缩视频数据的每个段均能够独立地解码成未压缩视频数据。
17.根据权利要求16所述的系统,其中,使用预定压缩处理来压缩所述视频数据,以及其中,所述压缩视频数据的每个段的长度由所述预定压缩过程确定。
CN201980002450.5A 2019-04-29 2019-04-29 自动驾驶系统、自动驾驶系统的传感器单元、用于操作自动驾驶车辆的计算机实现的方法 Active CN112166618B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2019/084995 WO2020220199A1 (en) 2019-04-29 2019-04-29 Multiple sensor data storage with compressed video stream in autonomous driving vehicles

Publications (2)

Publication Number Publication Date
CN112166618A CN112166618A (zh) 2021-01-01
CN112166618B true CN112166618B (zh) 2022-07-12

Family

ID=73028702

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980002450.5A Active CN112166618B (zh) 2019-04-29 2019-04-29 自动驾驶系统、自动驾驶系统的传感器单元、用于操作自动驾驶车辆的计算机实现的方法

Country Status (3)

Country Link
US (1) US11338823B2 (zh)
CN (1) CN112166618B (zh)
WO (1) WO2020220199A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113656364B (zh) * 2021-08-05 2024-02-20 福瑞泰克智能系统有限公司 传感器数据处理方法、装置和计算机可读存储介质
KR20240009746A (ko) * 2022-07-14 2024-01-23 현대자동차주식회사 외부 기기로부터 수신된 컨텐츠 이미지 정보를 표시하는 차량 장치 및 그 방법
CN115100491B (zh) * 2022-08-25 2022-11-18 山东省凯麟环保设备股份有限公司 一种面向复杂自动驾驶场景的异常鲁棒分割方法与系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008022501A1 (fr) * 2006-08-16 2008-02-28 Zte Corporation Procédé de diffusion en multimédia mobile de flots multividéo
CN103200204A (zh) * 2012-01-04 2013-07-10 中兴通讯股份有限公司 基于云存储的分布式转码系统及其方法
WO2017092340A1 (zh) * 2015-12-03 2017-06-08 乐视控股(北京)有限公司 一种视频压缩、播放方法以及装置
CN107707962A (zh) * 2017-09-05 2018-02-16 百度在线网络技术(北京)有限公司 一种实现视频帧数据与gps时间位置同步的方法和fpga
WO2018126067A1 (en) * 2016-12-30 2018-07-05 DeepMap Inc. Vector data encoding of high definition map data for autonomous vehicles
CN108418892A (zh) * 2018-03-20 2018-08-17 苏州天瞳威视电子科技有限公司 一种车辆及环境感知数据处理和存储的方法及装置
CN109634263A (zh) * 2018-12-29 2019-04-16 深圳市易成自动驾驶技术有限公司 基于数据同步的自动驾驶方法、终端及可读存储介质

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4174342B2 (ja) * 2003-02-19 2008-10-29 ファナック株式会社 ワーク搬送装置
JP4489013B2 (ja) * 2005-12-26 2010-06-23 株式会社東芝 情報記録装置及び記録情報管理方法
US7972045B2 (en) * 2006-08-11 2011-07-05 Donnelly Corporation Automatic headlamp control system
KR101631944B1 (ko) * 2009-10-30 2016-06-20 삼성전자주식회사 복호화 가속화를 위한 엔트로피 부호화 방법과 그 장치 및 엔트로피 복호화 방법과 그 장치
JP6122591B2 (ja) * 2012-08-24 2017-04-26 株式会社トプコン 写真測量用カメラ及び航空写真装置
JP6161402B2 (ja) * 2013-05-20 2017-07-12 キヤノン株式会社 編集装置及びその制御方法、プログラム、並びに記憶媒体
JP6306845B2 (ja) * 2013-09-12 2018-04-04 キヤノン株式会社 撮像装置及びその制御方法
US9361650B2 (en) * 2013-10-18 2016-06-07 State Farm Mutual Automobile Insurance Company Synchronization of vehicle sensor information
US20160357493A1 (en) * 2013-10-30 2016-12-08 Barco Control Rooms Gmbh Synchronization of videos in a display wall
CN104112363B (zh) * 2014-07-04 2016-05-25 西安交通大学 多传感数据时空同步方法及道路多传感数据车载采集系统
US10602157B2 (en) * 2015-09-11 2020-03-24 Facebook, Inc. Variable bitrate control for distributed video encoding
US10257586B1 (en) * 2016-12-13 2019-04-09 Alexander B. Mensh System and method for timing events utilizing video playback on a mobile device
US10296602B1 (en) * 2017-04-18 2019-05-21 X Development Llc Determining real-time timestamps for robotic sensor data
US10528794B2 (en) * 2017-06-05 2020-01-07 Motorola Solutions, Inc. System and method for tailoring an electronic digital assistant inquiry response as a function of previously detected user ingestion of related video information
WO2019079211A1 (en) * 2017-10-19 2019-04-25 DeepMap Inc. LIDAR-CAMERA CALIBRATION TO GENERATE HIGH DEFINITION MAPS
KR102202239B1 (ko) * 2018-04-02 2021-01-13 엘지전자 주식회사 헤드마운트디스플레이 분석 시스템
US10698206B2 (en) * 2018-05-31 2020-06-30 Renault Innovation Silicon Valley Three dimensional augmented reality involving a vehicle
US20200189611A1 (en) * 2018-12-12 2020-06-18 Cartica Ai Ltd Autonomous driving using an adjustable autonomous driving pattern
US10943355B2 (en) * 2019-01-31 2021-03-09 Uatc, Llc Systems and methods for detecting an object velocity

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008022501A1 (fr) * 2006-08-16 2008-02-28 Zte Corporation Procédé de diffusion en multimédia mobile de flots multividéo
CN103200204A (zh) * 2012-01-04 2013-07-10 中兴通讯股份有限公司 基于云存储的分布式转码系统及其方法
WO2017092340A1 (zh) * 2015-12-03 2017-06-08 乐视控股(北京)有限公司 一种视频压缩、播放方法以及装置
WO2018126067A1 (en) * 2016-12-30 2018-07-05 DeepMap Inc. Vector data encoding of high definition map data for autonomous vehicles
CN107707962A (zh) * 2017-09-05 2018-02-16 百度在线网络技术(北京)有限公司 一种实现视频帧数据与gps时间位置同步的方法和fpga
CN108418892A (zh) * 2018-03-20 2018-08-17 苏州天瞳威视电子科技有限公司 一种车辆及环境感知数据处理和存储的方法及装置
CN109634263A (zh) * 2018-12-29 2019-04-16 深圳市易成自动驾驶技术有限公司 基于数据同步的自动驾驶方法、终端及可读存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
多跳无线网络中具有时间意识的视频流控制协议;沈航等;《东南大学学报(自然科学版)》;20120920(第05期);全文 *

Also Published As

Publication number Publication date
WO2020220199A1 (en) 2020-11-05
CN112166618A (zh) 2021-01-01
US20210188310A1 (en) 2021-06-24
US11338823B2 (en) 2022-05-24

Similar Documents

Publication Publication Date Title
CN110377025B (zh) 用于自动驾驶车辆的传感器聚合框架
CN110727267B (zh) 具有冗余超声雷达的自动驾驶车辆
US11269352B2 (en) System for building a vehicle-to-cloud real-time traffic map for autonomous driving vehicles (ADVS)
CN111835496B (zh) 在自动驾驶系统的不同计算节点之间的定时同步方案
CN110347145B (zh) 用于自动驾驶车辆的感知辅助
CN110895147B (zh) 自动驾驶车辆的用相机捕获图像数据的图像数据获取逻辑
CN110895413B (zh) 触发自动驾驶车辆的用于捕获数据的传感器的触发逻辑
CN110349416B (zh) 用于自动驾驶车辆(adv)的基于密度的交通灯控制系统
CN110621541B (zh) 用于生成轨迹以操作自动驾驶车辆的方法和系统
US11592570B2 (en) Automated labeling system for autonomous driving vehicle lidar data
CN111076732A (zh) 基于车辆行驶的轨迹标记和生成高清地图的标记方案
US11245909B2 (en) Timestamp and metadata processing for video compression in autonomous driving vehicles
CN111712417A (zh) 用于自动驾驶车辆的、基于隧道的规划系统
CN112166618B (zh) 自动驾驶系统、自动驾驶系统的传感器单元、用于操作自动驾驶车辆的计算机实现的方法
CN111857118A (zh) 对停车轨迹分段以控制自动驾驶车辆停车
CN112041773A (zh) 自动驾驶车辆的规划和控制之间的通信协议
CN111328313A (zh) 用于自动驾驶车辆的控制占主导的三点转弯规划
CN111103876A (zh) 自动驾驶车辆的基于雷达通信的扩展感知
CN111328385A (zh) 用于自动驾驶车辆的基于螺旋路径的三点转弯规划
CN113874680A (zh) 用于惯性导航系统的双惯性测量单元
CN111279280B (zh) 用于在传感器之间传送数据的数据传送逻辑与自动驾驶车辆的规划和控制
CN113728211A (zh) 自动驾驶系统中惯性导航系统的时间确定
CN111857117A (zh) 用于在自动驾驶期间解码gps消息的gps消息解码器
US20240051569A1 (en) Long-term evolution computing platform for autonomous vehicles based on shell and nut architecture

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant