CN113642372B - 在自主驾驶车辆的操作中基于灰度图像识别对象的方法和系统 - Google Patents
在自主驾驶车辆的操作中基于灰度图像识别对象的方法和系统 Download PDFInfo
- Publication number
- CN113642372B CN113642372B CN202011551566.5A CN202011551566A CN113642372B CN 113642372 B CN113642372 B CN 113642372B CN 202011551566 A CN202011551566 A CN 202011551566A CN 113642372 B CN113642372 B CN 113642372B
- Authority
- CN
- China
- Prior art keywords
- images
- gray scale
- color images
- color
- adv
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 230000008447 perception Effects 0.000 claims abstract description 42
- 238000006243 chemical reaction Methods 0.000 claims description 22
- 238000012549 training Methods 0.000 claims description 12
- 230000015654 memory Effects 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 9
- 238000010801 machine learning Methods 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 238000007405 data analysis Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 230000002085 persistent effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 239000011248 coating agent Substances 0.000 description 2
- 238000000576 coating method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000010076 replication Effects 0.000 description 2
- 230000010267 cellular communication Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000009429 electrical wiring Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000005357 flat glass Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
- 238000002379 ultrasonic velocimetry Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0025—Planning or execution of driving tasks specially adapted for specific operations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/40—Picture signal circuits
- H04N1/40012—Conversion of colour to monochrome
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Traffic Control Systems (AREA)
Abstract
公开一种用于在自主驾驶车辆的操作中基于灰度图像识别对象的方法和系统。在一个实施例中,从安装在自主驾驶车辆(ADV)处的相机接收一个或多个第一彩色图像。基于一个或多个第一彩色图像生成一个或多个第一灰度图像,其包括将一个或多个第一彩色图像中的每个转换为第一灰度图像中的一个。基于预先训练的灰度感知模型识别一个或多个第一灰度图像中的一个或多个对象。至少部分地基于所识别的一个或多个对象,规划ADV的轨迹。基于所规划的轨迹生成控制信号以驾驶ADV。
Description
技术领域
本公开的实施例一般涉及操作自主车辆。更特别地,本公开的实施例涉及在自主驾驶车辆的操作中识别对象。
背景技术
以自主模式(例如,无人驾驶)操作的车辆可以减轻乘坐者,尤其是驾驶员的一些驾驶相关责任。当在自主模式下操作时,车辆可以使用车载传感器导航到各种位置,从而允许车辆以最小的人机交互或者在没有任何乘客的一些情况下行驶。
在自主驾驶车辆的操作中,基于车载相机捕获的图像的对象识别有时被用作感知过程的一部分。彩色图像通常包含比灰度图像更多的信息。然而,对于安装在车辆内部的相机,由于有色的车窗玻璃罩或防雾或防霜的车窗涂层,所捕获的彩色图像中的颜色可能会失真。所捕获的彩色图像中的颜色失真可能会对基于这些所捕获的彩色图像的对象识别过程产生负面影响。
发明内容
在第一方面中,提供一种用于操作自主驾驶车辆的计算机实现的方法,方法包括:
从安装在自主驾驶车辆(ADV)处的相机接收一个或多个第一彩色图像;
基于一个或多个第一彩色图像生成一个或多个第一灰度图像,包括将一个或多个第一彩色图像中的每个转换为第一灰度图像中的一个;
使用预先训练的灰度感知模型识别一个或多个第一灰度图像中的一个或多个对象;
至少部分地基于所识别的一个或多个对象,规划ADV的轨迹;以及
基于所规划的轨迹生成控制信号以驾驶ADV。
在第二方面中,提供一种非暂时性机器可读介质,具有存储在其中的指令,所述指令在由处理器执行时使得所述处理器执行如第一方面所述的方法。
在第三方面中,提供一种数据处理系统,包括:
处理器;以及
存储器,耦接到所述处理器并存储指令,所述指令在由所述处理器执行时使得所述处理器执行如第一方面所述的方法。
在第四方面中,提供一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据第一方面所述的方法。
通过本公开的方法和系统,自主驾驶车辆的操作中,在对象识别过程中直接利用灰度图像而不是彩色图像。通过减少或消除由车载相机所捕获的实时彩色图像中的颜色失真引起的对对象识别过程的潜在负面影响,这有助于改善对象识别过程。
附图说明
本公开的实施例通过示例的方式示出并且不限于附图中的图,在附图中相同的附图标记表示相似的元件。
图1是图示根据一个实施例的联网系统的框图。
图2是图示根据一个实施例的自主车辆的示例的框图。
图3A-图3B是图示根据一个实施例的与自主车辆一起使用的感知和规划系统的示例的框图。
图4是图示根据一个实施例的在自主驾驶车辆的操作中基于灰度图像识别对象中利用的各种模块的框图。
图5是图示根据一个实施例的在灰度感知模型的训练中利用的各种模块的框图。
图6是图示根据一个实施例的示例性第二彩色图像和示例性第二灰度图像的图。
图7是图示根据一个实施例的用于在自主驾驶车辆的操作中基于灰度图像识别对象的示例性方法的流程图。
图8是图示根据一个实施例的用于训练灰度感知模型的示例性方法的流程图。
图9是图示根据一个实施例的用于生成和利用灰度感知模型的示例性方法的流程图。
具体实施方式
将参考下面讨论的细节描述本公开的各个实施例和各个方面,并且附图将示出各个实施例。以下描述和附图是本公开的说明并且不应被解释为限制本公开。描述了许多具体细节以提供对本公开的各个实施例的全面理解。然而,在某些实例中,为了提供对本公开的实施例的简要讨论,没有描述公知或常规的细节。
说明书中对“一个实施例”或“实施例”的引用意味着结合该实施例描述的特定特征、结构或特性可以包括在本公开的至少一个实施例中。在说明书中的各个地方出现的短语“在一个实施例中”不一定都指同一实施例。
公开一种用于在自主驾驶车辆的操作中基于灰度图像识别对象的方法、装置和系统。根据一些实施例,从安装在自主驾驶车辆(ADV)处的相机接收一个或多个第一彩色图像。基于一个或多个第一彩色图像生成一个或多个第一灰度图像,这包括将一个或多个第一彩色图像中的每个转换为第一灰度图像中的一个。基于预先训练的灰度感知模型识别一个或多个第一灰度图像中的一个或多个对象。至少部分地基于所识别的一个或多个对象规划ADV的轨迹。基于所规划的轨迹生成控制信号以驾驶ADV。
在一个实施例中,已经基于预先标记有对象标签的多个第二彩色图像训练预先训练的灰度感知模型。特别地,每个对象标签将图像的区域与对象分类相关联。在一个实施例中,已经基于模型手动或自动地使多个第二彩色图像被预先标记有对象标签。
在一个实施例中,为了训练灰度感知模型,接收预先标记有对象标签的多个第二彩色图像。基于多个第二彩色图像生成多个第二灰度图像,这包括将多个第二彩色图像中的每个转换为多个第二灰度图像中的一个。用对象标签标记多个第二灰度图像,这包括将与多个第二彩色图像相关联的对象标签分别复制到多个第二灰度图像上。基于标记有对象标签的多个第二灰度图像生成灰度感知模型,这包括利用多个标记的第二灰度图像作为训练数据。
在一个实施例中,将与多个第二彩色图像相关联的对象标签分别复制到多个第二灰度图像上包括将多个第二彩色图像上的对象标签中的每个与多个第二灰度图像中的对应一个相关联,同时保留对象标签的图像区域和对象分类信息。
在一个实施例中,在将多个第二彩色图像中的每个转换为多个第二灰度图像中的一个中以及在将一个或多个第一彩色图像中的每个转换为第一灰度图像中的一个中利用相同的转换技术。在一个实施例中,一个或多个第一彩色图像在基于红色、绿色和蓝色(RGB)颜色模型的彩色空间中。在一个实施例中,将一个或多个第一彩色图像中的每个转换为第一灰度图像中的一个包括执行感知亮度保留转换。
图1是图示根据本公开的一个实施例的自主驾驶网络配置的框图。参考图1,网络配置100包括自主车辆101,自主驾驶车辆(ADV)101可以通过网络102通信地耦接到一个或多个服务器103-104。尽管示出一个ADV,但是多个ADV可以通过网络102彼此耦接和/或耦接到服务器103-104。网络102可以是任何类型的有线或无线网络,诸如局域网(LAN)、诸如因特网的广域网(WAN)、蜂窝网络、卫星网络、或其组合。(一个或多个)服务器103-104可以是任何类型的服务器或服务器集群,诸如Web或云服务器、应用服务器、后端服务器或其组合。服务器103-104可以是数据分析服务器、内容服务器、交通信息服务器、地图和兴趣点(MPOI)服务器或位置服务器等。
ADV指的是可以被配置为处于自主模式的车辆,在自主模式中,车辆在驾驶员很少或没有输入的情况下导航通过环境。这种ADV可以包括具有一个或多个传感器的传感器系统,一个或多个传感器被配置为检测关于车辆操作于其中的环境的信息。车辆及其相关联的控制器使用检测的信息导航通过环境。ADV 101可以以手动模式、全自主模式或部分自主模式操作。
在一个实施例中,ADV 101包括但不限于自主驾驶系统(ADS)110、车辆控制系统111、无线通信系统112、用户接口系统113、信息娱乐系统114和传感器系统115。ADV 101还可以包括在普通车辆中包括的某些常见组件,例如引擎、车轮、转向盘、变速器等,这些组件可以被车辆控制系统111和/或感知和规划系统110使用各种通信信号和/或命令(例如加速信号或命令、减速信号或命令、转向信号或命令、制动信号或命令等)控制。
组件110-115可以经由互连、总线、网络或其组合彼此通信地耦接。例如,组件110-115可以经由控制器局域网(CAN)总线彼此通信地耦接。CAN总线是一种车辆总线标准,其被设计为允许微控制器和设备在没有主机的应用中彼此通信。它是基于消息的协议,最初被设计用于汽车内的多路电气布线,但是也用于许多其他环境中。
现在参考图2,在一个实施例中,传感器系统115包括但不限于一个或多个相机211、全球定位系统(GPS)单元212、惯性测量单元(IMU)213、雷达单元214以及光检测和范围(LIDAR)单元215。GPS系统212可以包括可操作以提供关于ADV的位置的信息的收发器。IMU单元213可基于惯性加速度感测ADV的位置和朝向变化。雷达单元214可以表示使用无线电信号感测ADV的局部环境内的对象的系统。在一些实施例中,除了感测对象之外,雷达单元214还可以额外地感测对象的速度和/或前进方向。LIDAR单元215可以使用激光感测ADV所处的环境中的对象。LIDAR单元215可以包括一个或多个激光源、激光扫描器以及一个或多个检测器,以及其他系统组件。相机211可以包括一个或多个设备以捕获ADV周围的环境的图像。相机211可以是静态相机和/或摄影机。相机可以是机械可移动的,例如通过将相机安装在旋转和/或倾斜的平台上。
传感器系统115还可以包括其他传感器,诸如声纳传感器、红外传感器、转向传感器、油门传感器、制动传感器和音频传感器(例如麦克风)。音频传感器可以被配置为捕获来自ADV周围的环境的声音。转向传感器可以被配置为感测转向盘、车辆的车轮或其组合的转向角。油门传感器和制动传感器分别感测车辆的油门位置和制动位置。在一些情况下,油门传感器和制动传感器可以集成为集成的油门/制动传感器。
在一个实施例中,车辆控制系统111包括但不限于转向单元201、油门单元202(也称为加速单元)和制动单元203。转向单元201用于调节车辆的方向或前进方向。油门单元202用于控制马达或引擎的速度,马达或引擎的速度转而控制车辆的速度和加速度。制动单元203通过提供摩擦以使车辆的车轮或轮胎变慢来使车辆减速。注意,图2所示的组件可以以硬件、软件或其组合实现。
返回参考图1,无线通信系统112允许在ADV 101和外部系统,诸如设备、传感器、其他车辆等之间的通信。例如,无线通信系统112可以直接或经由通信网络与一个或多个设备(诸如通过网络102的服务器103-104)无线通信。无线通信系统112可以使用任何蜂窝通信网络或无线局域网(WLAN),例如使用WiFi与另一组件或系统通信。无线通信系统112可以例如使用红外链路、蓝牙等直接与设备(例如,乘客的移动设备、车辆101内的显示设备、扬声器)通信。用户接口系统113可以是在车辆101内实现的外围设备的部分,包括例如键盘、触摸屏显示设备、麦克风和扬声器等。
ADV 101的功能中的一些或所有可以由ADS 110控制或管理,尤其是当以自主驾驶模式操作时。ADS 110包括必要的硬件(例如,(一个或多个)处理器、存储器、存储设备)和软件(例如,操作系统、规划和路由程序),以接收来自传感器系统115、控制系统111、无线通信系统112和/或用户接口系统113的信息,处理接收到的信息,规划从起点到目的地点的路线或路径,然后基于规划和控制信息驾驶车辆101。可替换地,ADS 110可以与车辆控制系统111集成在一起。
例如,作为乘客的用户可以例如经由用户接口指定行程的起始位置和目的地。ADS110获得行程相关数据。例如,ADS 110可以从MPOI服务器获得位置和路线数据,MPOI服务器可以是服务器103-104的部分。位置服务器提供位置服务,以及MPOI服务器提供地图服务和某些位置的POI。可替换地,这种位置和MPOI信息可本地缓存在ADS 110的永久存储设备中。
当ADV 101沿着路线移动时,ADS 110还可以从交通信息系统或服务器(TIS)获得实时交通信息。注意,服务器103-104可以由第三方实体操作。可替换地,服务器103-104的功能可以与ADS 110集成在一起。基于实时交通信息、MPOI信息和位置信息,以及由传感器系统115检测或感测的实时局部环境数据(例如,障碍物、对象、附近车辆),ADS 110可规划最优路线,并且例如经由控制系统111根据规划的路线驾驶车辆101,以安全且高效地到达指定目的地。
服务器103可以是用以执行用于各种客户端的数据分析服务的数据分析系统。在一个实施例中,数据分析系统103包括数据收集器121和机器学习引擎122。数据收集器121从各种车辆(ADV或者是由人类驾驶员驾驶的常规车辆)收集驾驶统计123。驾驶统计123包括指示发出的驾驶命令(例如,油门、制动、转向命令)和由车辆的传感器在不同时间点捕获的车辆的响应(例如,速度、加速度、减速度、方向)的信息。驾驶统计123还可以包括描述不同时间点的驾驶环境的信息,诸如路线(包括起始位置和目的地位置)、MPOI、道路状况、天气状况等。
基于驾驶统计123,机器学习引擎122出于各种目的而生成或训练一组规则、算法和/或预测模型124。在一个实施例中,算法124可以包括训练模型,其可以被用于识别灰度图像。然后,算法124可以被上传到ADV上以在自主驾驶期间实时地被使用。
图3A和图3B是示出根据一个实施例的与ADV一起使用的自主驾驶系统的示例的框图。系统300可以被实现为图1的ADV 101的部分,包括但不限于ADS 110、控制系统111和传感器系统115。参考图3A-图3B,ADS 110包括但不限于定位模块301、感知模块302、预测模块303、决策模块304、规划模块305、控制模块306、路由模块307和灰度图像转换模块308。
模块301-308中的一些或全部可以以软件、硬件或其组合实现。例如,这些模块可被安装在永久存储设备352中,被加载到存储器351中,并且由一个或多个处理器(未示出)执行。注意,这些模块中的一些或全部可以通信地耦接到图2的车辆控制系统111的一些或全部模块或与图2的车辆控制系统111的一些或全部模块集成。模块301-308中的一些可以被集成在一起作为集成模块。
定位模块301确定ADV 300的当前位置(例如,利用GPS单元212)并管理与用户的行程或路线有关的任何数据。定位模块301(也称为地图和路线模块)管理与用户的行程或路线有关的任何数据。用户可以例如经由用户接口登录并指定行程的起始位置和目的地。定位模块301与ADV 300的其他组件通信,诸如地图和路线数据311,以获得与行程有关的数据。例如,定位模块301可以从位置服务器和地图与POI(MPOI)服务器获得位置和路线数据。位置服务器提供位置服务,以及MPOI服务器提供地图服务和某些位置的POI,它们可作为地图和路线数据311的部分被缓存。当ADV 300沿着路线移动时,定位模块301还可以从交通信息系统或服务器获得实时交通信息。
基于由传感器系统115提供的传感器数据和由定位模块301获得的定位信息,由感知模块302确定对周围环境的感知。感知信息可以表示普通驾驶员将感知到的驾驶员正在驾驶的车辆周围的情况。感知可以包括车道配置、交通灯信号、例如以对象形式的另一车辆、行人、建筑物、人行横道或其他交通相关标志(例如,停止标志、让路标志)等的相对位置。车道配置包括描述一个或多个车道的信息,诸如,例如车道的形状(例如,直的或弯曲的)、车道的宽度、道路中的车道数量、单向或双向车道、合并或分离车道、驶出车道等。
感知模块302可以包括计算机视觉系统或计算机视觉系统的功能,以处理和分析由一个或多个相机捕获的图像,以便识别ADV的环境中的对象和/或特征。对象可以包括交通信号、车行道边界、其他车辆、行人和/或障碍物等。计算机视觉系统可使用对象识别算法、视频跟踪和其他计算机视觉技术。在一些实施例中,计算机视觉系统可以映射环境、跟踪对象、以及估计对象的速度等。感知模块302还可基于由诸如雷达和/或LIDAR的其他传感器提供的其他传感器数据检测对象。
对于对象中的每个,预测模块303预测对象将在环境下表现什么。根据一组地图/路线信息311和交通规则312,基于在时间点处感知驾驶环境的感知数据执行预测。例如,如果对象是在相反方向上的车辆并且当前驾驶环境包括十字路口,则预测模块303将预测车辆将可能直线向前移动还是转弯。如果感知数据指示十字路口没有交通灯,则预测模块303可以预测在进入十字路口之前可能必须完全停止车辆。如果感知数据指示车辆当前处于只能向左转弯的车道或只能向右转弯的车道,则预测模块303可预测车辆将更可能分别进行左转弯或右转弯。
对于对象中的每个,决策模块304做出关于如何处理该对象的决策。例如,对于特定对象(例如,在交叉路线中的另一车辆)以及描述该对象的元数据(例如,速度、方向、转弯角度),决策模块304决定如何遇到该对象(例如,超过、让路、停止、通过)。决策模块304可根据一组规则(诸如交通规则或驾驶规则312)做出这些决策,这组规则可存储于永久存储设备352中。
路由模块307被配置为提供从起点到目的地点的一条或多条路线或路径。对于例如从用户接收到的从起始位置到目的地位置的给定行程,路由模块307获得路线和地图信息311并且确定从起始位置用以到达目的地位置的所有可能的路线或路径。路由模块307可以为其确定的从起始位置用以到达目的地位置的每条路线生成地形图形式的参考线。参考线是指没有来自诸如其他车辆、障碍物或交通状况的其他因素的任何干扰的理想路线或路径。也就是说,如果在道路上没有其他车辆、行人或障碍物,则ADV应该精确地或紧密地跟随参考线。然后,地形图被提供给决策模块304和/或规划模块305。决策模块304和/或规划模块305检查所有可能的路线,以根据由其他模块提供的其他数据(诸如来自定位模块301的交通状况、由感知模块302感知的驾驶环境和由预测模块303预测的交通状况)选择和修改最优路线中的一个。取决于在时间点处的特定驾驶环境,用于控制ADV的实际路径或路线可以接近或不同于由路由模块307提供的参考线。
基于对感知的对象中的每个的决策,规划模块305使用由路由模块307提供的参考线作为基础,规划用于ADV的路径或路线以及驾驶参数(例如,距离、速度和/或转弯角度)。也就是说,对于给定对象,决策模块304决策对该对象做什么,而规划模块305确定如何做。例如,对于给定对象,决策模块304可以决策经过对象,而规划模块305可以确定是在对象的左侧还是右侧经过。规划和控制数据由规划模块305生成,规划和控制数据包括描述车辆300在下一个移动周期(例如,下一个路线/路径段)中将如何移动的信息。例如,规划和控制数据可指示车辆300以30英里每小时(mph)的速度移动10米,然后以25mph的速度改变到右车道。
基于规划和控制数据,控制模块306通过根据由规划和控制数据限定的路线或路径向车辆控制系统111发送适当的命令或信号,控制和驾驶ADV。规划和控制数据包括足够的信息,以沿着路径或路线在不同时间点使用适当的车辆设置或驾驶参数(例如,油门、制动、转向命令)将车辆从路线或路径的第一点驾驶到第二点。
在一个实施例中,在多个规划周期(也称为驾驶周期,诸如在100毫秒(ms)的每个时间间隔中)中执行规划阶段。对于规划周期或驾驶周期中的每个,将基于规划和控制数据发出一个或多个控制命令。也就是说,对于每100ms,规划模块305规划下一个路线段或路径段,例如包括目标位置和ADV到达目标位置所需的时间。可替换地,规划模块305还可指定具体速度、方向和/或转向角等。在一个实施例中,规划模块305为下一预定的时间段(诸如5秒)规划路线段或路径段。对于每个规划周期,规划模块305基于在先前周期中规划的目标位置规划用于当前周期(例如,下一个5秒)的目标位置。然后控制模块306基于当前周期的规划和控制数据生成一个或多个控制命令(例如,油门、制动、转向控制命令)。
注意,决策模块304和规划模块305可以集成为集成模块。决策模块304/规划模块305可以包括导航系统或导航系统的功能,以确定用于ADV的驾驶路径。例如,导航系统可以确定一系列速度和方向前进方向,以影响ADV沿着基本上避开感知的障碍物的路径的移动,同时大体使ADV沿着通向最终目的地的基于车行道的路径前进。目的地可以根据经由用户接口系统113的用户输入而被设置。当ADV在操作时,导航系统可以动态地更新驾驶路径。导航系统可以并入来自GPS系统的数据和一个或多个地图,以便确定用于ADV的驾驶路径。
参考图4,示出图示根据一个实施例的在自主驾驶车辆的操作中基于灰度图像识别对象中利用的各种模块的框图。在感知模块302处从安装在自主驾驶车辆(ADV)101处的相机211接收一个或多个第一彩色图像402。在感知模块302内,在灰度图像转换模块308处基于一个或多个第一彩色图像402生成一个或多个第一灰度图像404。第一灰度图像404的生成包括在灰度图像转换模块308处将一个或多个第一彩色图像402中的每个转换为第一灰度图像404中的一个。将彩色图像转换为灰度图像是本领域公知的。可以利用诸如感知亮度保留转换的公知技术将彩色图像转换为灰度图像。在感知模块302处,基于预先训练的灰度感知模型406识别一个或多个第一灰度图像404中的一个或多个对象408。在规划模块305处,至少部分地基于所识别的一个或多个对象408为ADV 101规划轨迹。在控制模块306处基于所规划的轨迹生成控制信号以驾驶ADV 101。
在一个实施例中,已经基于预先标记有对象标签的多个第二彩色图像训练预先训练的灰度感知模型。特别地,每个对象标签将图像的区域与对象分类相关联。在一个实施例中,已经基于模型手动或自动地使多个第二彩色图像被预先标记有对象标签。
参考图5,示出图示根据一个实施例的在灰度感知模型的训练中利用的各种模块的框图500。在灰度图像转换模块504处接收预先标记有对象标签的多个第二彩色图像502。灰度图像转换模块504可以在服务器103处执行,并且类似于灰度图像转换模块308。基于多个第二彩色图像502,灰度图像转换模块504生成多个第二灰度图像506。多个第二灰度图像506的生成包括将多个第二彩色图像502中的每个转换为多个第二灰度图像506中的一个。将彩色图像转换为灰度图像在本领域中是公知的。可以利用诸如感知亮度保留转换的公知技术将彩色图像转换为灰度图像。在机器学习引擎122内,在对象标签复制模块508处用对象标签标记多个第二灰度图像506。标记多个第二灰度图像506包括将与多个第二彩色图像502相关联的对象标签分别复制到多个第二灰度图像506。特别地,对象标签复制模块508将多个第二彩色图像502上的对象标签中的每个与多个第二灰度图像506中的对应一个相关联,同时保留对象标签的图像区域和对象分类信息。灰度感知模型406是在机器学习引擎122处基于标记有对象标签的多个第二灰度图像506生成的。灰度感知模型406的生成包括利用多个标记的第二灰度图像506作为训练数据。
在一个实施例中,在将多个第二彩色图像中的每个转换为多个第二灰度图像中的一个中以及在将一个或多个第一彩色图像中的每个转换为第一灰度图像中的一个中利用相同的转换技术。例如,转换技术可以包括感知亮度保留转换。
参考图6,示出图示根据一个实施例的示例性第二彩色图像和示例性第二灰度图像的图600。应当理解的是,仅由于与专利申请相关联的技术限制,彩色图像602在本公开中看起来是灰度的。第二彩色图像602已经被预先标记有3个对象标签604。每个对象标签604将第二彩色图像602的区域与对象分类相关联。在该示例中,所有对象标签604包括“车辆”分类。其他可能的对象分类可以包括行人、自行车、工厂、交通灯等。可以已经基于模型手动或自动地生成对象标签604。因此,灰度图像转换模块504可以将第二彩色图像602转换为第二灰度图像606。然后,对象标签复制模块508可以将第二彩色图像602上的对象标签604复制到第二灰度图像606上。复制的对象标签608保留对象标签604的图像区域和对象分类信息。换句话说,对象标签608将第二灰度图像606中的对应区域与相同的“车辆”分类相关联。此后,在机器学习引擎122处,第二灰度图像606和相关联的对象标签608,以及其他类似的第二灰度图像和相关联的对象标签,可以在灰度感知模型406的生成中用作训练数据。
参考图7,示出图示根据一个实施例的用于在自主驾驶车辆的操作中基于灰度图像识别对象的示例性方法700的流程图。可以用适当的硬件、软件或其组合来实现过程700。在框710处,从安装在自主驾驶车辆(ADV)处的相机接收一个或多个第一彩色图像。在框720处,基于一个或多个第一彩色图像生成一个或多个第一灰度图像。第一灰度图像的生成包括将一个或多个第一彩色图像中的每个转换为第一灰度图像中的一个。将彩色图像转换为灰度图像在本领域中是公知的。可以利用诸如感知亮度保留转换的公知技术将彩色图像转换为灰度图像。在框730处,基于预先训练的灰度感知模型识别一个或多个第一灰度图像中的一个或多个对象。在框740处,至少部分地基于所识别的一个或多个对象规划ADV的轨迹。在框750处,基于所规划的轨迹生成控制信号以驾驶ADV。
参考图8,示出图示根据一个实施例的用于训练灰度感知模型的示例性方法800的流程图。可以用适当的硬件、软件或其组合来实现过程800。在框810处,接收预先标记有对象标签的多个第二彩色图像。在框820处,基于多个第二彩色图像生成多个第二灰度图像。多个第二灰度图像的生成包括将多个第二彩色图像中的每个转换为多个第二灰度图像中的一个。将彩色图像转换为灰度图像在本领域中是公知的。可以利用诸如感知亮度保留转换的公知技术将彩色图像转换为灰度图像。在框830处,用对象标签标记多个第二灰度图像,这包括将与多个第二彩色图像相关联的对象标签分别复制到多个第二灰度图像上。特别地,多个第二彩色图像上的对象标签中的每个与多个第二灰度图像中的相应一个相关联,同时保留对象标签的图像区域和对象分类信息。在框840处,基于标记有对象标签的多个第二灰度图像生成灰度感知模型。灰度感知模型的生成包括利用多个标记的第二灰度图像作为训练数据。
在一个实施例中,在将多个第二彩色图像中的每个转换为多个第二灰度图像中的一个中以及在将一个或多个第一彩色图像中的每个转换为第一灰度图像中的一个中利用相同的转换技术。例如,转换技术可以包括感知亮度保留转换。
参考图9,示出图示根据一个实施例的用于生成和利用灰度感知模型的示例性方法900的流程图。可以用适当的硬件、软件或其组合来实现过程900。在框910处,可以生成灰度感知模型。可以基于公知的机器学习技术生成灰度感知模型。在灰度感知模型的生成中利用的训练数据可以包括标记有对象标签的第二灰度图像。标记的第二灰度图像可以从预先标记有对象标签的第二彩色图像得出。在框920处,在自主驾驶车辆的操作中可以利用灰度感知模型识别对象。可以基于灰度感知模型识别第一灰度图像中的对象。第一灰度图像可以从由安装在自主驾驶车辆上的相机所捕获的实时第一彩色图像得出。
因此,通过本文描述的实施例,在自主驾驶车辆的操作中,在对象识别过程中直接利用灰度图像而不是彩色图像。通过减少或消除由车载相机所捕获的实时彩色图像中的颜色失真引起的对对象识别过程的潜在负面影响,这有助于改善对象识别过程。例如,当相机安装在车辆内部并且存在有色车窗玻璃罩或涂层时,可能会产生颜色失真。由此,并且特别地,交通灯检测、工厂检测和行人检测等可以得到改善,这些检测以其他方式将至少部分地依赖于关于颜色的某些假设。实施例在黑暗或多云的天气条件下也可以是有帮助的,因为所捕获的彩色图像中的颜色信息在这样的条件下质量较低。
注意,如上所示和所述的组件中的一些或所有可以用软件、硬件或其组合实现。例如,这些组件可以被实现为安装并存储在永久存储设备中的软件,软件可以由处理器(未示出)加载并执行在存储器中以执行贯穿本申请所述的过程或操作。可替换地,这些组件可被实现为被编程或嵌入到专用硬件中的可执行代码,专用硬件诸如集成电路(例如,专用IC或ASIC)、数字信号处理器(DSP)或现场可编程门阵列(FPGA),可执行代码可经由来自应用的对应驱动器和/或操作系统访问。此外,这些组件可以被实现为处理器或处理器内核中的特定硬件逻辑,作为经由一个或多个特定指令软件组件可访问的指令集的一部分。
已经关于对计算机存储器内的数据位的操作的算法和符号表示呈现了前述详细描述的一些部分。这些算法描述和表示是数据处理领域的技术人员用来最有效地将他们的工作实质传达给本领域的其他技术人员的方式。算法在这里并且通常被认为是导致期望结果的自洽操作序列。这些操作是需要对物理量进行物理操纵的那些操作。
然而,应当记住的是,所有这些和类似的术语都与适当的物理量相关联,并且仅仅是应用于这些量的方便的标记。除非特别声明,否则从以上讨论中显而易见的是,应当理解的是,在整个说明书中,使用诸如所附权利要求书中所阐述的术语的讨论指的是计算机系统或类似电子计算设备的动作和过程,所述计算机系统或类似电子计算设备将计算机系统的寄存器和存储器内的表示为物理(电子)量的数据操纵和变换成计算机系统存储器或寄存器或其他这样的信息存储、传输或显示设备内的类似地表示为物理量的其他数据。
本公开的实施例还涉及用于执行本文的操作的装置。这种计算机程序存储在非暂时性计算机可读介质中。机器可读介质包括用于以机器(例如,计算机)可读的形式存储信息的任何机制。例如,机器可读(例如,计算机可读)介质包括机器(例如,计算机)可读存储介质(例如,只读存储器(“ROM”)、随机存取存储器(“RAM”)、磁盘存储介质、光存储介质、闪存设备)。
在前述附图中描述的过程或方法可以由包括硬件(例如,电路、专用逻辑等)、固件、软件(例如,体现在非暂时性计算机可读介质上)或两者的组合的处理逻辑来执行。尽管以上关于一些顺序操作描述了过程或方法,但是应当理解的是,可以以不同的顺序执行所述的一些操作。此外,一些操作可以并行地而不是顺序地执行。
本公开的实施例不是参考任何特别编程语言描述的。将了解,可使用各种编程语言实施如本文所述的本公开的实施例的教示。
在前述说明书中,已经参考本公开的具体示例性实施例描述了本公开的实施例。显然,在不背离如所附权利要求书中所阐述的本公开的更宽的精神和范围的情况下,可以对其进行各种修改。因此,说明书和附图应被认为是说明性的而不是限制性的。
Claims (11)
1.一种用于操作自主驾驶车辆的计算机实现的方法,方法包括:
从安装在自主驾驶车辆ADV处的相机接收一个或多个第一彩色图像;
基于一个或多个第一彩色图像生成一个或多个第一灰度图像,包括将一个或多个第一彩色图像中的每个转换为第一灰度图像中的一个;
接收预先标记有对象标签的多个第二彩色图像;
基于多个第二灰度图像生成预先训练的灰度感知模型,其中,所述多个第二灰度图像是基于所述多个第二彩色图像生成的,并且所述多个第二灰度图像分别标记有从所述多个第二彩色图像复制的对象标签;
使用预先训练的灰度感知模型识别一个或多个第一灰度图像中的一个或多个对象;
至少部分地基于所识别的一个或多个对象,规划ADV的轨迹;以及
基于所规划的轨迹生成控制信号以驾驶ADV。
2.根据权利要求1所述的方法,其中每个对象标签将图像的区域与对象分类相关联。
3.根据权利要求2所述的方法,其中已经基于模型手动或自动地使多个第二彩色图像被预先标记有对象标签。
4.根据权利要求2所述的方法,其中训练预先训练的灰度感知模型包括:
基于多个第二彩色图像生成多个第二灰度图像,包括将多个第二彩色图像中的每个转换为多个第二灰度图像中的一个;
用对象标签标记多个第二灰度图像,包括将与多个第二彩色图像相关联的对象标签分别复制到多个第二灰度图像上;以及
基于标记有对象标签的多个第二灰度图像生成灰度感知模型,包括利用多个标记的第二灰度图像作为训练数据。
5.根据权利要求4所述的方法,其中将与多个第二彩色图像相关联的对象标签分别复制到多个第二灰度图像上包括将多个第二彩色图像上的对象标签中的每个与多个第二灰度图像中的对应一个相关联,同时保留对象标签的图像区域和对象分类信息。
6.根据权利要求4所述的方法,其中在将多个第二彩色图像中的每个转换为多个第二灰度图像中的一个中以及在将一个或多个第一彩色图像中的每个转换为第一灰度图像中的一个中利用相同的转换技术。
7.根据权利要求1所述的方法,其中一个或多个第一彩色图像在基于红色、绿色和蓝色(RGB)颜色模型的彩色空间中。
8.根据权利要求1所述的方法,其中将一个或多个第一彩色图像中的每个转换为第一灰度图像中的一个包括执行感知亮度保留转换。
9.一种非暂时性机器可读介质,具有存储在其中的指令,所述指令在由处理器执行时使得所述处理器执行如权利要求1-8中任一项所述的方法。
10. 一种数据处理系统,包括:
处理器;以及
存储器,耦接到所述处理器并存储指令,所述指令在由所述处理器执行时使得所述处理器执行如权利要求1-8中任一项所述的方法。
11.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-8中任一项所述的方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/859,113 US11613275B2 (en) | 2020-04-27 | 2020-04-27 | Grayscale-based camera perception |
US16/859,113 | 2020-04-27 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113642372A CN113642372A (zh) | 2021-11-12 |
CN113642372B true CN113642372B (zh) | 2024-02-20 |
Family
ID=78221654
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011551566.5A Active CN113642372B (zh) | 2020-04-27 | 2020-12-24 | 在自主驾驶车辆的操作中基于灰度图像识别对象的方法和系统 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11613275B2 (zh) |
CN (1) | CN113642372B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3896967A1 (en) * | 2020-04-17 | 2021-10-20 | Leica Microsystems CMS GmbH | Digital imaging device and method for generating a digital color image |
US11613275B2 (en) * | 2020-04-27 | 2023-03-28 | Baidu Usa Llc | Grayscale-based camera perception |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103389733A (zh) * | 2013-08-02 | 2013-11-13 | 重庆市科学技术研究院 | 一种基于机器视觉的车辆巡线方法及系统 |
CN103400150A (zh) * | 2013-08-14 | 2013-11-20 | 浙江大学 | 一种基于移动平台进行道路边缘识别的方法及装置 |
EP3007099A1 (en) * | 2014-10-10 | 2016-04-13 | Application Solutions (Electronics and Vision) Ltd. | Image recognition system for a vehicle and corresponding method |
CN109326168A (zh) * | 2018-12-06 | 2019-02-12 | 西南电子技术研究所(中国电子科技集团公司第十研究所) | 预测式驾驶辅助模拟系统 |
CN111062862A (zh) * | 2019-12-19 | 2020-04-24 | 北京澎思科技有限公司 | 基于颜色的数据增强方法和系统及计算机设备和存储介质 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7298379B2 (en) * | 2005-02-10 | 2007-11-20 | Samsung Electronics Co., Ltd. | Luminance preserving color conversion from YUV to RGB |
KR101030763B1 (ko) * | 2010-10-01 | 2011-04-26 | 위재영 | 이미지 획득 유닛, 방법 및 연관된 제어 유닛 |
US9516315B2 (en) * | 2011-10-30 | 2016-12-06 | Hd2 Technologies Pty. Ltd. | Perceptually lossless and perceptually enhanced image compression system and method |
US9767565B2 (en) * | 2015-08-26 | 2017-09-19 | Digitalglobe, Inc. | Synthesizing training data for broad area geospatial object detection |
AU2016374520C1 (en) * | 2015-12-14 | 2020-10-15 | Motion Metrics International Corp. | Method and apparatus for identifying fragmented material portions within an image |
US10867189B2 (en) * | 2017-01-04 | 2020-12-15 | Qualcomm Incorporated | Systems and methods for lane-marker detection |
US10417518B2 (en) * | 2017-03-10 | 2019-09-17 | Denso International America, Inc. | Vehicle camera system |
KR102093047B1 (ko) * | 2017-06-22 | 2020-03-24 | 바이두닷컴 타임즈 테크놀로지(베이징) 컴퍼니 리미티드 | 자율 주행을 위한 지도 이미지에 기반한 교통 예측 |
US20190042888A1 (en) * | 2017-08-02 | 2019-02-07 | Preferred Networks, Inc. | Training method, training apparatus, region classifier, and non-transitory computer readable medium |
US10169680B1 (en) * | 2017-12-21 | 2019-01-01 | Luminar Technologies, Inc. | Object identification and labeling tool for training autonomous vehicle controllers |
CN110378185A (zh) * | 2018-04-12 | 2019-10-25 | 北京图森未来科技有限公司 | 一种应用于自动驾驶车辆的图像处理方法、装置 |
CN110648375B (zh) * | 2018-06-26 | 2023-07-07 | 微软技术许可有限责任公司 | 基于参考信息的图像彩色化 |
WO2020117357A2 (en) * | 2018-10-01 | 2020-06-11 | EmergeX, LLC | Methods and systems for navigating autonomous and semi-autonomous vehicles |
US10990815B2 (en) * | 2018-12-27 | 2021-04-27 | Beijing Didi Infinity Technology And Development Co., Ltd. | Image pre-processing in a lane marking determination system |
EP3818472A1 (en) * | 2019-09-11 | 2021-05-12 | Google LLC | Image colorization using machine learning |
US11613275B2 (en) * | 2020-04-27 | 2023-03-28 | Baidu Usa Llc | Grayscale-based camera perception |
-
2020
- 2020-04-27 US US16/859,113 patent/US11613275B2/en active Active
- 2020-12-24 CN CN202011551566.5A patent/CN113642372B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103389733A (zh) * | 2013-08-02 | 2013-11-13 | 重庆市科学技术研究院 | 一种基于机器视觉的车辆巡线方法及系统 |
CN103400150A (zh) * | 2013-08-14 | 2013-11-20 | 浙江大学 | 一种基于移动平台进行道路边缘识别的方法及装置 |
EP3007099A1 (en) * | 2014-10-10 | 2016-04-13 | Application Solutions (Electronics and Vision) Ltd. | Image recognition system for a vehicle and corresponding method |
CN109326168A (zh) * | 2018-12-06 | 2019-02-12 | 西南电子技术研究所(中国电子科技集团公司第十研究所) | 预测式驾驶辅助模拟系统 |
CN111062862A (zh) * | 2019-12-19 | 2020-04-24 | 北京澎思科技有限公司 | 基于颜色的数据增强方法和系统及计算机设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113642372A (zh) | 2021-11-12 |
US11613275B2 (en) | 2023-03-28 |
US20210331704A1 (en) | 2021-10-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113128326B (zh) | 具有语义地图和lstm的车辆轨迹预测模型 | |
CN111775945B (zh) | 用于自动驾驶的用于检测最接近的路径内对象的方法和装置 | |
CN113552870B (zh) | 基于感知结果的动态速度限制调整系统及方法 | |
CN114026463B (zh) | 基于部分点云的行人速度估计方法 | |
CN113129624B (zh) | 交通堵塞情况下的最快车道确定算法 | |
CN114379590B (zh) | 紧急车辆音频和视觉检测后融合 | |
CN112825127B (zh) | 生成用于自动驾驶标记的紧密2d边界框的方法 | |
JP2023517105A (ja) | 点群の特徴に基づく障害物濾過システム | |
CN112124318A (zh) | 自主驾驶车辆的障碍物感知校准系统 | |
US20220003855A1 (en) | Point clouds based lidar recalibration system for autonomous vehicles | |
CN113642372B (zh) | 在自主驾驶车辆的操作中基于灰度图像识别对象的方法和系统 | |
EP4024365B1 (en) | Audio logging for model training and onboard validation utilizing autonomous driving vehicle | |
US11429115B2 (en) | Vehicle-platoons implementation under autonomous driving system designed for single vehicle | |
US20240020988A1 (en) | Traffic light detection and classification for autonomous driving vehicles | |
CN114763159A (zh) | 利用自主驾驶车辆的自动音频数据标记 | |
CN112837209B (zh) | 对鱼眼镜头生成具有畸变的图像的新方法 | |
CN113811793B (zh) | 基于近邻的点云过滤系统 | |
US11663913B2 (en) | Neural network with lane aggregation for lane selection prediction of moving objects during autonomous driving | |
CN116009539A (zh) | 操作自主驾驶车辆的方法和系统 | |
CN115871712A (zh) | 操作自主驾驶车辆的方法和系统 | |
CN113658443B (zh) | 用于确定即将到来的交通灯的状态的方法、装置和系统 | |
CN113815526B (zh) | 用于自动驾驶车辆的早期制动灯警告系统 | |
US11577644B2 (en) | L3-level auto-emergency light system for ego vehicle harsh brake | |
CN113060159B (zh) | 修改电动车辆的加速度特性的方法、装置和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |