CN112146680B - 基于特征图确定消失点 - Google Patents
基于特征图确定消失点 Download PDFInfo
- Publication number
- CN112146680B CN112146680B CN201911277646.3A CN201911277646A CN112146680B CN 112146680 B CN112146680 B CN 112146680B CN 201911277646 A CN201911277646 A CN 201911277646A CN 112146680 B CN112146680 B CN 112146680B
- Authority
- CN
- China
- Prior art keywords
- neural network
- image
- line
- sensors
- autonomous vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 claims abstract description 259
- 238000000034 method Methods 0.000 claims abstract description 117
- 238000012549 training Methods 0.000 claims description 53
- 238000012545 processing Methods 0.000 claims description 43
- 230000015654 memory Effects 0.000 claims description 23
- 230000004044 response Effects 0.000 claims description 5
- 230000008569 process Effects 0.000 description 86
- 230000008447 perception Effects 0.000 description 25
- 238000010586 diagram Methods 0.000 description 24
- 230000006870 function Effects 0.000 description 24
- 238000004891 communication Methods 0.000 description 13
- 238000013527 convolutional neural network Methods 0.000 description 12
- 230000033001 locomotion Effects 0.000 description 11
- 238000004422 calculation algorithm Methods 0.000 description 10
- 238000013473 artificial intelligence Methods 0.000 description 9
- 238000009472 formulation Methods 0.000 description 7
- 239000000203 mixture Substances 0.000 description 7
- 230000002085 persistent effect Effects 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 5
- 238000011176 pooling Methods 0.000 description 5
- 238000007405 data analysis Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 229910003460 diamond Inorganic materials 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009429 electrical wiring Methods 0.000 description 1
- 229910000078 germane Inorganic materials 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012887 quadratic function Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/536—Depth or shape recovery from perspective effects, e.g. by using vanishing points
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C25/00—Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
- G01C25/005—Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass initial alignment, calibration or starting-up of inertial devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/01—Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/13—Receivers
- G01S19/23—Testing, monitoring, correcting or calibrating of receiver elements
- G01S19/235—Calibration of receiver components
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0062—Adapting control system settings
- B60W2050/0075—Automatic parameter input, automatic initialising or calibrating means
- B60W2050/0083—Setting, resetting, calibration
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/027—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/0278—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/24—Character recognition characterised by the processing or recognition method
- G06V30/248—Character recognition characterised by the processing or recognition method involving plural approaches, e.g. verification by template match; Resolving confusion among similar patterns, e.g. "O" versus "Q"
- G06V30/2528—Combination of methods, e.g. classifiers, working on the same input data
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Networks & Wireless Communication (AREA)
- Multimedia (AREA)
- Automation & Control Theory (AREA)
- Evolutionary Computation (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Aviation & Aerospace Engineering (AREA)
- Electromagnetism (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Manufacturing & Machinery (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明涉及基于特征图确定消失点。在一些实现方式中,提供了一种方法。该方法包括获得描绘自动驾驶车辆(ADV)所处环境的图像。该方法还包括基于图像使用第一神经网络确定多个线指示符。多个线指示符代表环境中的一个或多个车道。该方法还包括基于多个线段使用第二神经网络确定图像内的消失点。第二神经网络通信地联接到第一神经网络。多个线指示符与消失点同时确定。该方法还包括基于消失点校准自动驾驶车辆的一个或多个传感器。
Description
技术领域
本公开的实施方式总体上涉及操作自动驾驶车辆。更具体地,本公开的实施方式涉及基于特征图确定消失点。
背景技术
以自动驾驶模式运行(例如,无人驾驶)的车辆可以将乘员、尤其是驾驶员从一些驾驶相关的职责中解放出来。当以自动驾驶模式运行时,车辆可以使用车载传感器导航到各个位置,从而允许车辆在最少人机交互的情况下或在没有任何乘客的一些情况下行驶。
运动规划和控制是自动驾驶中的关键操作。路径描述了自动驾驶车辆的运动的几何形状。各种因素都会影响任何给定路径的可取性,包括与乘客舒适度和安全性有关的因素。
发明内容
本公开的一方面提供了一种方法,所述方法包括:获取描绘自动驾驶车辆所在环境的图像,基于所述图像使用第一神经网络确定多个线指示符,其中所述多个线指示符代表所述环境中的一个或多个车道;基于多个线段使用第二神经网络确定所述图像内的消失点,其中:所述第二神经网络通信地联接到所述第一神经网络;以及所述多个线指示符与所述消失点同时确定;以及基于所述消失点校准所述自动驾驶车辆的一个或多个传感器。
本公开的另一方面提供了一种存储有指令的非暂时性机器可读介质,所述指令在由处理器执行时使所述处理器执行操作,所述操作包括:获取描绘自动驾驶车辆所在环境的图像,基于所述图像使用第一神经网络确定多个线指示符,其中所述多个线指示符代表所述环境中的一个或多个车道;基于多个线段使用第二神经网络确定所述图像内的消失点,其中:所述第二神经网络通信地联接到所述第一神经网络;以及所述多个线指示符与所述消失点同时确定;以及基于所述消失点校准所述自动驾驶车辆的一个或多个传感器。
本公开的又一方面提供了一种数据处理系统,包括:处理器;以及存储器,联接到所述处理器以存储指令,所述指令在由所述处理器执行时使所述处理器执行操作,所述操作包括:获取描绘自动驾驶车辆所在环境的图像,基于所述图像使用第一神经网络确定多个线指示符,其中所述多个线指示符代表所述环境中的一个或多个车道;基于多个线段使用第二神经网络确定所述图像内的消失点,其中:所述第二神经网络通信地联接到所述第一神经网络;以及所述多个线指示符与所述消失点同时确定;以及基于所述消失点校准所述自动驾驶车辆的一个或多个传感器。
附图说明
本公开的实施方式在附图的各图中以举例而非限制的方式示出,附图中的相同的附图标记指代相似的元件。
图1是示出根据一个实施方式的网络化系统的框图。
图2是示出根据一个实施方式的自动驾驶车辆的示例的框图。
图3A至图3B是示出根据一个实施方式的与自动驾驶车辆一起使用的感知与规划系统的示例的框图。
图4是示出根据一个实施方式的决策和规划过程的示例的框图。
图5是示出根据一个实施方式的示例性神经网络的图。
图6A是示出根据一个实施方式的示例性图像的图。
图6B是示出根据一个实施方式的示例性图像的图。
图7是示出用于确定图像中的消失点的示例性过程的流程图。
图8是示出根据一个实施方式的示例性图像的图。
图9是示出根据一个实施方式的用于检测图像中的消失点的示例性过程的流程图。
图10是示出根据一个实施方式的示例性神经网络系统的框图。
图11是示出根据一个实施方式的用于检测图像中的消失点的示例性过程的流程图。
图12是示出可以与本公开的一个实施方式一起使用的数据处理系统的示例的框图。
具体实施方式
将参考以下所讨论的细节来描述本公开的各种实施方式和方面,并且附图将示出多种实施方式。以下描述和附图是对本公开的说明,并且不应被解释为限制本公开。描述了许多特定细节以提供对本公开各种实施方式的全面理解。然而,在某些情况下,并未描述众所周知的或常规的细节以提供对本公开的实施方式的简洁讨论。
本说明书中对“一个实施方式”或“实施方式”的提及意味着结合该实施方式所描述的特定特征、结构或特性可以包括在本公开的至少一个实施方式中。短语“在一个实施方式中”在本说明书中各个地方的出现不必全部指相同的实施方式。
一些实施方式涉及一种用于自动驾驶车辆(ADV)的产生训练数据和/或训练神经网络的方法、设备和系统。神经网络可用于检测图像中的消失点。消失点可用于确定是否应重新校准ADV的传感器(例如,相机)。训练数据中的消失点应该是准确的,以使神经网络能够生成更准确的结果。但是,用户可能难以确定和/或精确地指出消失点在训练图像中的位置。因此,更精确和/或更准确地指出图像中的消失点可能是有用的。
一些实施方式还涉及训练神经网络。例如,可以训练神经网络以指出消失点在图像内的位置。神经网络通常可以将消失点的位置表示为X-Y坐标。但是,如果使用X-Y坐标,则可能会增加确定消失点时神经网络可能处理的问题和/或解空间。因此,减少神经网络可能处理的问题和/或解空间可能是有用的和/或更有效的。
一些实施方式还涉及训练神经网络和/或操作神经网络。神经网络可以彼此独立地运行。例如,第一神经网络可以对输入数据进行操作,并且第二神经网络也可以对相同的输入数据或单独的输入数据进行操作。然而,当两个神经网络均对相同的输入数据操作时,可以在第二神经网络中使用来自第一神经网络的特征图。因此,允许在第二神经网络中使用由第一神经网络生成的特征图可能是有用的。
图1是示出根据本公开的一个实施方式的自动驾驶车辆网络配置的框图。参考图1,网络配置100包括可以通过网络102通信地联接到一个或多个服务器103至104的自动驾驶车辆101。尽管示出一个自动驾驶车辆,但多个自动驾驶车辆可以通过网络102联接到彼此和/或联接到服务器103至104。网络102可以是任何类型的网络,例如,有线或无线的局域网(LAN)、诸如互联网的广域网(WAN)、蜂窝网络、卫星网络或其组合。服务器103至104可以是任何类型的服务器或服务器群集,诸如,网络或云服务器、应用服务器、后端服务器或其组合。服务器103至104可以是数据分析服务器、内容服务器、交通信息服务器、地图和兴趣点(MPOI)服务器或者位置服务器等。
自动驾驶车辆是指可以被配置成处于自动驾驶模式下的车辆,在所述自动驾驶模式下,车辆在极少或没有来自驾驶员的输入的情况下导航通过环境。这种自动驾驶车辆可以包括传感器系统,所述传感器系统具有被配置成检测与车辆运行环境有关的信息的一个或多个传感器。所述车辆和其相关联的控制器使用所检测的信息来导航通过所述环境。自动驾驶车辆101可以在手动模式下、在全自动驾驶模式下或者在部分自动驾驶模式下运行。在下文中,术语“自主车辆”和“自动驾驶车辆”(ADV)可以互换地使用。
在一个实施方式中,自动驾驶车辆101包括,但不限于,感知与规划系统110、车辆控制系统111、无线通信系统112、用户接口系统113、信息娱乐系统和传感器系统115。自动驾驶车辆101还可以包括普通车辆中包括的某些常用部件,诸如:发动机、车轮、方向盘、变速器等,所述部件可以由车辆控制系统111和/或感知与规划系统110使用多种通信信号和/或命令进行控制,该多种通信信号和/或命令例如,加速信号或命令、减速信号或命令、转向信号或命令、制动信号或命令等。
部件110至115可以经由互连件、总线、网络或其组合通信地联接到彼此。例如,部件110至115可以经由控制器局域网(CAN)总线通信地联接到彼此。CAN总线是被设计成允许微控制器和装置在没有主机的应用中与彼此通信的车辆总线标准。它最初是为汽车内的复用电气布线设计的基于消息的协议,但也用于许多其它环境。
现在参考图2,在一个实施方式中,传感器系统115包括但不限于一个或多个相机211、全球定位系统(GPS)单元212、惯性测量单元(IMU)213、雷达单元214以及光探测和测距(LIDAR)单元215。GPS系统212可以包括收发器,所述收发器可操作以提供关于自动驾驶车辆的位置的信息。IMU单元213可以基于惯性加速度来感测自动驾驶车辆的位置和定向变化。雷达单元214可以表示利用无线电信号来感测自动驾驶车辆的本地环境内的对象的系统。在一些实施方式中,除感测对象之外,雷达单元214可以另外感测对象的速度和/或前进方向。LIDAR单元215可以使用激光来感测自动驾驶车辆所处环境中的对象。除其它系统部件之外,LIDAR单元215还可以包括一个或多个激光源、激光扫描器以及一个或多个检测器。相机211可以包括用来采集自动驾驶车辆周围环境的图像的一个或多个装置。相机211可以是静物相机和/或视频相机。相机可以是可机械地移动的,例如,通过将相机安装在旋转和/或倾斜平台上。
传感器系统115还可以包括其它传感器,诸如:声纳传感器、红外传感器、转向传感器、油门传感器、制动传感器以及音频传感器(例如,麦克风)。音频传感器可以被配置成从自动驾驶车辆周围的环境中采集声音。转向传感器可以被配置成感测方向盘、车辆的车轮或其组合的转向角度。油门传感器和制动传感器分别感测车辆的油门位置和制动位置。在一些情形下,油门传感器和制动传感器可以集成为集成式油门/制动传感器。
在一个实施方式中,车辆控制系统111包括但不限于转向单元201、油门单元202(也被称为加速单元)和制动单元203。转向单元201用来调整车辆的方向或前进方向。油门单元202用来控制电动机或发动机的速度,电动机或发动机的速度进而控制车辆的速度和加速度。制动单元203通过提供摩擦使车辆的车轮或轮胎减速而使车辆减速。应注意,如图2所示的部件可以以硬件、软件或其组合实施。
回到图1,无线通信系统112允许自动驾驶车辆101与诸如装置、传感器、其它车辆等的外部系统之间的通信。例如,无线通信系统112可以与一个或多个装置直接无线通信,或者经由通信网络进行无线通信,诸如,通过网络102与服务器103至104通信。无线通信系统112可以使用任何蜂窝通信网络或无线局域网(WLAN),例如,使用WiFi,以与另一部件或系统通信。无线通信系统112可以例如使用红外链路、蓝牙等与装置(例如,乘客的移动装置、显示装置、车辆101内的扬声器)直接通信。用户接口系统113可以是在车辆101内实施的外围装置的部分,包括例如键盘、触摸屏显示装置、麦克风和扬声器等。
自动驾驶车辆101的功能中的一些或全部可以由感知与规划系统110控制或管理,尤其当在自动驾驶模式下操作时。感知与规划系统110包括必要的硬件(例如,处理器、存储器、存储设备)和软件(例如,操作系统、规划和路线安排程序),以从传感器系统115、控制系统111、无线通信系统112和/或用户接口系统113接收信息,处理所接收的信息,规划从起始点到目的地点的路线或路径,随后基于规划和控制信息来驾驶车辆101。替代地,感知与规划系统110可以与车辆控制系统111集成在一起。
例如,作为乘客的用户可以例如经由用户接口来指定行程的起始位置和目的地。感知与规划系统110获得行程相关数据。例如,感知与规划系统110可以从MPOI服务器中获得位置和路线信息,所述MPOI服务器可以是服务器103至104的一部分。位置服务器提供位置服务,并且MPOI服务器提供地图服务和某些位置的POI。替代地,此类位置和MPOI信息可以本地高速缓存在感知与规划系统110的永久性存储装置中。
当自动驾驶车辆101沿着路线移动时,感知与规划系统110也可以从交通信息系统或服务器(TIS)获得实时交通信息。应注意,服务器103至104可以由第三方实体进行操作。替代地,服务器103至104的功能可以与感知与规划系统110集成在一起。基于实时交通信息、MPOI信息和位置信息以及由传感器系统115检测或感测的实时本地环境数据(例如,障碍物、对象、附近车辆),感知与规划系统110可以规划路径或路线并且根据所规划的路线例如经由控制系统111来驾驶车辆101,以安全且高效到达指定目的地。
服务器103可为用于为各种客户端执行数据分析服务的数据分析系统。在一个实施方式中,数据分析系统103包括数据收集器121和机器学习引擎122。数据收集器121从多种车辆(自动驾驶车辆或由人类驾驶员驾驶的常规车辆)收集驾驶统计数据123。驾驶统计数据123包括表示在不同的时间点处由车辆的传感器捕获的所发出的驾驶命令(例如,油门命令、制动命令和转向命令)以及车辆的响应(例如,速度、加速度、减速度、方向)的信息。驾驶统计数据123还可包括描述不同的时间点处的驾驶环境的信息,诸如,例如,路线(包括起点位置和目的地位置)、MPOI、道路状况、天气状况等。
基于驾驶统计数据123,机器学习引擎122针对各种目的生成或训练规则集、算法和/或预测模型124。在一个实施方式中,算法124可以包括路径算法,该路径算法接收输入、约束和成本函数,并考虑与该路径相关联的舒适度以及该路径保持靠近车道中心线并远离带有缓冲区的障碍物的偏好来为ADV生成路径。路径规划的成本函数也可以作为算法124的一部分生成。然后可以将算法124上传到ADV上以在自动驾驶期间实时使用。
图3A和图3B是示出根据一个实施方式的与自动驾驶车辆一起使用的感知与规划系统的示例的框图。系统300可实施为图1的自动驾驶车辆101的一部分,包括但不限于感知与规划系统110、控制系统111和传感器系统115。参考图3A至图3B,感知与规划系统110包括但不限于定位模块301、感知模块302、预测模块303、决策模块304、规划模块305、控制模块306、路线制定模块307、静态障碍物映射器308和路径规划器309。
模块301至309中的一些或全部可以以软件、硬件或其组合实施。例如,这些模块可安装在永久性存储装置352中、加载到存储器351中,并且由一个或多个处理器(未示出)执行。应注意,这些模块中的一些或全部可通信地联接到图2的车辆控制系统111的一些或全部模块或者与它们集成在一起。模块301至309中的一些可一起集成为集成模块。
定位模块301确定自动驾驶车辆300的当前位置(例如,利用GPS单元212)并管理与用户的行程或路线相关的任何数据。定位模块301(也被称为地图与路线模块)管理与用户的行程或路线相关的任何数据。用户可以例如经由用户接口登录并且指定行程的开始位置和目的地。定位模块301与自动驾驶车辆300的诸如地图和路线信息311的其它组件通信,以获得行程相关数据。例如,定位模块301可从位置服务器和地图与POI(MPOI)服务器获得位置和路线信息。位置服务器提供位置服务,以及MPOI服务器提供地图服务和某些位置的POI,这些可作为地图和路线信息311的一部分高速缓存。当自动驾驶车辆300沿着路线移动时,定位模块301也可从交通信息系统或服务器获得实时交通信息。
基于由传感器系统115提供的传感器数据和由定位模块301获得的定位信息,感知模块302确定对周围环境的感知。感知信息可以表示普通驾驶员在驾驶员正驾驶的车辆周围将感知到的东西。感知可以包括例如采用对象形式的车道配置、交通灯信号、另一车辆的相对位置、行人、建筑物、人行横道或其它交通相关标志(例如,停止标志、让行标志)等。车道配置包括描述一个或多个车道的信息,诸如例如车道的形状(例如,直线或弯曲)、车道的宽度、道路中的车道数量、单向车道或双向车道、合流车道或分流车道、出口车道等。
感知模块302可以包括计算机视觉系统或计算机视觉系统的功能,以处理并分析由一个或多个相机采集的图像,从而识别自动驾驶车辆环境中的对象和/或特征。所述对象可以包括交通信号、道路边界、其它车辆、行人和/或障碍物等。计算机视觉系统可以使用对象识别算法、视频跟踪以及其它计算机视觉技术。在一些实施方式中,计算机视觉系统可以绘制环境地图,跟踪对象,以及估算对象的速度等。感知模块302也可以基于由诸如雷达和/或LIDAR的其它传感器提供的其它传感器数据来检测对象。
针对每个对象,预测模块303预测该对象在此情形下将表现什么。根据一组地图/路线信息311和交通规则312,基于该时间点的感知驾驶环境的感知数据来执行预测。例如,如果对象是处于相反方向的车辆并且当前驾驶环境包括十字路口,则预测模块303将预测车辆是将可能直线向前移动还是进行转弯。如果感知数据表明十字路口没有交通灯,则预测模块303可预测车辆在进入十字路口之前可能需要完全停止。如果感知数据表明车辆当前处于仅左转弯车道或仅右转弯车道,则预测模块303可分别预测车辆将更可能向左转弯或向右转弯。
针对每个对象,决策模块304作出关于如何处置对象的决定。例如,针对特定对象(例如,交叉路线中的另一车辆)以及描述对象的元数据(例如,速度、方向、转弯角度),决策模块304决定如何与所述对象相遇(例如,超车、让行、停止、经过)。决策模块304可根据诸如交通规则或驾驶规则312的规则集来作出此类决定,所述规则集可存储在永久性存储装置352中。
路线制定模块307配置成提供从起点到目的地点的一个或多个路线或路径。对于(例如,从用户接收的)从开始位置到目的地位置的给定行程,路线制定模块307获得路线和地图信息311,并且确定从开始位置至到达目的地位置的所有可能的路线或路径。路线制定模块307可以以地形图的形式生成用于其确定的从开始位置至到达目的地位置的路线中的每个的参考线。参考线指的是理想的路线或路径,而不受诸如其他车辆、障碍物或交通状况的其他事物的任何干扰。即,如果道路上不存在其他车辆、行人或障碍物,则ADV应该精确地或紧密地遵循参考线。然后,地形图被提供至决策模块304和/或规划模块305。根据由其它模块提供的其它数据(诸如,来自定位模块301的交通状况、由感知模块302感知的驾驶环境和由预测模块303预测的交通状况),决策模块304和/或规划模块305检查所有可能的路线以选择和修改最优路线中的一个。用于控制ADV的实际路径或路线可与由路线制定模块307提供的参考线接近或不同,这取决于该时间点的特定驾驶环境。
基于针对所感知到的对象中的每个的决定,规划模块305使用由路线制定模块307提供的参考线作为基础来为自动驾驶车辆规划路径或路线以及驾驶参数(例如,距离、速度和/或转弯角度)。即,针对给定的对象,决策模块304决定对该对象做什么,而规划模块305确定如何去做。例如,针对给定的对象,决策模块304可以决定超过所述对象,而规划模块305可以确定在所述对象的左侧还是右侧超过。规划和控制数据由规划模块305生成,包括描述车辆300在下一移动循环(例如,下一路线/路径段)中将如何移动的信息。例如,规划和控制数据可以指示车辆300以30英里每小时(mph)的速度移动10米,随后以25mph的速度变到右侧车道。
作为规划过程的一部分,路径规划器309可基于可存储在永久性存储装置352中的成本函数313生成多个规划的ADV状态。
基于规划和控制数据,控制模块306根据由规划和控制数据限定的路线或路径通过将适当的命令或信号发送到车辆控制系统111来控制并驾驶自动驾驶车辆。所述规划和控制数据包括足够的信息,以沿着路径或路线在不同的时间点使用适当的车辆设置或驾驶参数(例如,油门、制动和转向命令)将车辆从路线或路径的第一点驾驶到第二点。
在一个实施方式中,在多个规划周期(也被称为行驶周期)(诸如,例如,在每100毫秒(ms)的时间间隔中)中执行规划阶段。针对规划周期或行驶周期中的每一个,将基于规划数据和控制数据发出一个或多个控制命令。即,对于每个100ms,规划模块305规划下一路线段或路径段,例如,包括目标位置和ADV到达目标位置所需的时间。替代地,规划模块305还可指定具体速度、方向和/或转向角等。在一个实施方式中,规划模块305为下一预定时间段(诸如5秒)规划路线段或路径段。对于每个规划周期,规划模块305基于先前周期中规划的目标位置来规划当前周期(例如,接下来的5秒)的目标位置。然后,控制模块306基于当前周期的规划数据和控制数据生成一个或多个控制命令(例如,油门命令、制动命令、转向控制命令)。
应注意,决策模块304和规划模块305可以集成为集成模块。决策模块304/规划模块305可以包括导航系统或导航系统的功能,以确定自动驾驶车辆的驾驶路径。例如,导航系统可以确定用于影响自动驾驶车辆沿着以下路径移动的一系列速度和前进方向:所述路径在使自动驾驶车辆沿着通往最终目的地的基于车行道的路径前进的同时,基本上避免感知到的障碍物。目的地可以根据经由用户接口系统113进行的用户输入来设定。导航系统可以在自动驾驶车辆正在运行的同时动态地更新驾驶路径。导航系统可以将来自GPS系统和一个或多个地图的数据合并,以确定用于自动驾驶车辆的驾驶路径。
在一个实施方式中,在SL坐标系中规划路径。可以相对于参考线(道路/车道中心线)定义SL坐标系。纵向距离或s距离表示沿参考线切线方向的距离。相应地,横向距离或l距离表示垂直于s方向的距离。SL空间中的纵向尺寸代表特定对象距可能沿参考线行驶的车辆的当前位置的纵向距离。SL空间中的横向尺寸表示由纵向尺寸表示的特定时间或位置处的对象与参考线之间的最短距离。SL空间中的这种图被称为SL图。在一个实施方式中,横向距离可以简单地定义为距参考线的距离。因此,除了笛卡尔坐标系(XY平面)中的表示外,车辆位置(姿态)还可以在SL坐标系中表示为相对于参考线的有序对(纵向姿态/位置“s姿态”,横向姿态/位置“l姿态”)或简称为(s,l)。
在一些实施方式中,感知和规划系统110的一个或多个部件可以包括和/或可以使用一个或多个神经网络。例如,规划模块305可包括和/或可使用一个或多个神经网络来执行各种任务、功能、操作、动作等。在另一示例中,预测模块303可包括和/或可使用一个或多个神经网络来执行各种任务、功能、操作、动作等。在一个实施方式中,可包括在感知系统的一个或多个部件中和/或可以由感知系统的一个或多个部件使用的一个或多个神经网络可以检测由ADV的传感器捕获和/或生成的图像中的车道(例如,道路车道)。例如,感知模块302所使用的神经网络可以确定可以指示图像中的道路车道的线指示符。在另一示例中,可以使用神经网络来确定图像中的消失点。传感器系统(例如,图2中所示的传感器系统115)可以使用消失点来校准ADV的一个或多个传感器(例如,相机)。
如图3A中所示,系统300包括人工智能(AI)加速器360。AI加速器360可以是可以针对人工智能应用进行设计、定制和/或配置的处理装置。例如,AI加速器可用于加速人工神经网络的运行,执行机器视觉和/或机器学习操作等。AI加速器的示例可包括图形处理单元(GPU)、专用集成电路、场可编程门阵列等。
图4是示出根据一个实施方式的决策和规划过程400的示例的框图。决策和规划过程400包括定位/感知数据401、路径决策过程403、速度决策过程405、路径规划过程407、速度规划过程409、聚合器411和轨迹计算器413。
路径决策过程403和速度决策过程405可以由图3B中所示的决策模块304执行。参照图3B,决策模块304可以使用动态规划来生成粗略的路径配置(profile)作为路径规划过程407/速度规划过程409的初始约束。决策模块304可以使用路径状态机,该路径状态机提供先前的规划结果和重要信息(例如ADV是在巡航还是在改变车道以及交通规则)。根据状态、交通规则、由路线制定模块307提供的参考线以及ADV感知到的障碍物,路径决策过程403可以决定如何处理感知到的障碍物(即,忽略、超车、让路、停车、经过),作为粗略的路径配置的一部分。
例如,在一个实施方式中,由成本函数生成的粗略路径配置,成本函数由基于以下项的成本构成:路径的曲率以及从参考线和/或参考点到障碍物的距离。选择参考线上的点,并将其移动到参考线的左侧或右侧,作为表示路径候选的候选移动。每个候选运动都有相关的成本。可以顺序地使用针对最优成本的动态规划来一次一个点地对参考线上的一个或多个点的候选运动的相关成本进行求解。动态规划(或动态优化)可为一种数学优化方法,其将要解决的问题分解为一系列值函数(value function),从而仅对这些值函数中的每个求解一次并存储其解。下次出现相同的值函数时,只需简单地查找先前计算出的解而无需重新计算其解,从而节省了计算时间。
速度决策过程405可以使用速度状态机、速度交通规则以及一个或多个站点时间图。速度决策过程405可以使用动态规划来生成粗略的速度曲线作为路径规划过程407/速度规划过程409的初始约束。根据速度状态机的状态、速度交通规则、由路径决策过程403生成的粗略路径配置以及感知到的障碍物,速度决策过程405可以生成粗略速度配置以控制何时使ADV加速和/或减速。
路径规划过程407可以使用粗略的路径配置(例如,站点横向图)作为初始约束,以使用二次规划来重新计算最优参考线。二次规划涉及根据边界、线性等式和/或不等式约束来最小化或最大化目标函数(例如,具有多个变量的二次函数)。动态规划和二次规划之间的一个区别是二次规划可一次优化参考线上所有点的所有候选运动。路径规划过程407可以将平滑算法(例如B样条或回归)应用于输出站点横向图。可以利用路径成本函数使用路径成本来重新计算参考线,以优化参考点的候选运动的总成本,例如,使用二次规划(QP)优化。
速度规划过程409可以使用粗略的速度配置(例如,站点时间图)和一个或多个S-T图来确定ADV的一个或多个速度。在一些实施方式中,S-T图可以包括S-T轨迹。如下面更详细地讨论的,S-T轨迹可以指示ADV沿着路径在不同时间点行进的距离。因此,(S-T图的)S-T轨迹可用于指示或确定不同时间点的汽车速度。S-T图还可包括或指示一个或多个停车条件。例如,S-T图还可以指示ADV应停车来避开障碍物的距离和时间,障碍物诸如为行人、人行道、道路分隔线(例如,中央分隔线)、另一车辆等。尽管可以在图4中描述ST-图,但是在其他实施方式中可以使用其他类型的图(例如,SL图,使用笛卡尔坐标系的图等)。速度规划过程409还可使用一个或多个约束来确定ADV的一个或多个速度。约束可以是当速度规划过程409确定一组速度时应当满足的一个或多个条件。例如,约束可以是候选解应满足的对QP优化问题施加的条件。如下面更详细地讨论的,可以使用速度约束函数来表示一个或多个约束。
聚合器411执行聚合路径和速度规划结果的功能。例如,在一个实施方式中,聚合器411可以将二维S-T图和S-L图组合成三维SLT图。在另一实施方式中,聚合器411可以基于S-L参考线或S-T曲线上的2个连续点进行插值(或填充附加点)。在另一实施方式中,聚合器411可以将参考点从(S,L)坐标转换为(x,y)坐标。轨迹计算器413可以计算最终轨迹以控制ADV。例如,基于由聚合器411提供的SLT图,轨迹计算器413计算(x,y,T)点的列表,该(x,y,T)点的列表指示ADC通过特定的(x,y)坐标的时间。
因此,再次参考图4,路径决策过程403和速度决策过程405将考虑障碍物和/或交通状况来生成粗略的路径配置和粗略的速度配置。给定与障碍物有关的所有路径和速度决策,路径规划过程407和速度规划过程409将使用QP规划在考虑障碍物的情况下优化粗略的路径配置和速度配置,以生成具有最小路径成本和/或速度成本的最优轨迹。
图5是示出根据本公开的一个或多个实施方式的示例性神经网络500的图。神经网络500可用于对(例如,复杂的)输入与输出之间的关系进行建模,或者用于在其中可能难以容易地确定输入与输出之间的相依性的数据中找到模型。神经网络500也可以是可用于通过各种计算来确定输入数据中的特征的计算模型。例如,神经网络500可以根据定义要执行的一系列计算的结构来确定输入数据(例如,音频数据、图像数据、视频数据等)中的特征(例如,数量、形状、图案等)。
神经网络500可以是CNN。CNN可以是前馈神经网络。前馈神经网络可以是节点之间的连接不形成循环的一种神经网络。例如,信号、消息、数据、信息等从左到右、从神经网络500的输入层510(例如,从输入节点)通过隐藏层529正向流到输出层530(例如,流到输出节点)。信号、消息、数据、信息等不会通过神经网络向后传播(例如,不会从右向左传播)。CNN可以用于图像分析。连接的权重可以采取可应用于图像的不同像素的卷积滤波器的形式。尽管对于CNN本公开可能涉及图像分析,但是在其他实施方式中,CNN可以用于其他类型的数据和输入。
神经网络500包括输入层510、隐藏层529和输出层530。输入层510、隐藏层529和输出层530中的每一个包括一个或多个节点505。输入层510、隐藏层529和输出层530中的每一个可以具有不同数量的节点505。神经网络500可以是深度神经网络或深度CNN。如果隐藏层529包括多个级(例如,节点505的多个列、节点505的多个子层),则神经网络可为深度的。如图5中所示,神经网络500包括节点505的两个级(或子层)(例如,两列节点505)。
如节点505之间的箭头/线所示的,一层中的每个节点505连接到下一级(例如,下一子层)中的节点505或另一层中的节点505。例如,输入层中的节点505各自联接到隐藏层529中的至少一个节点505。神经网络500可以是全连接的神经网络。例如,在存在后续层或级的情况(例如,输出层530中的节点505未连接到其他后续节点)下,每个层或级中的每个节点505连接到后续层或级中的每个节点。
每个连接可以与权重或权重值相关(例如,可以具有权重)。权重或权重值可以限定应用于计算的系数。例如,权重或权重值可以是两个或更多个节点505之间的缩放因子。每个节点505可以表示其输入的总和,并且与连接相关的权重或权重值可以表示与该连接中的节点505的输出相乘的系数或缩放因子。节点505之间的权重可以在神经网络的训练过程期间确定、计算、生成、分配、学习等。例如,反向传播可以用于设置权重,使得神经网络500在给定标记的训练数据中的对应值的情况下产生期望的输出值。因此,隐藏层的权重可以被认为是数据中的有意义模型的编码。可以通过额外的训练来修改节点505之间的连接的权重。
尽管描绘了具有特定数量的节点505、层和连接的神经网络500,但是在其他实施方式中可以使用各种神经网络架构/配置。例如,可以使用不同的全连接的神经网络和部分连接的神经网络(例如,相邻层中的所有节点并非都连接)。
如图5中所示,神经网络500包括卷积层521、池化层522和全连接层523。尽管在图5中示出了一个卷积层和一个池化层,但是在其他实施方式中,神经网络500可以包括附加的卷积层和池化层。例如,神经网络500可以包括第一卷积层,第一卷积层可以联接到第一池化层,第一池化层可以联接到第二卷积层,第二卷积层可以联接到第二池化层,第二池化层可以联接到全连接层523。另外,基于使用神经网络500的应用,全连接层523可以是可选的。
尽管本公开可涉及卷积神经网络(CNN),但是在其他实施方式中可以使用其他类型的神经网络。例如,在其他实施方式中可以使用递归神经网络(RNN)。
图6A是示出根据一个实施方式的示例性图像600的图。图像600可以描绘诸如自动驾驶车辆和非自动驾驶车辆的车辆可位于和/或行驶的环境。例如,图像600可以描绘自动驾驶车辆可行驶通过和/或可位于的道路、高速公路等。图像600还可描绘自动驾驶车辆可位于和/或行驶的潜在环境。图像600还可以描绘自动驾驶车辆先前行驶经过或先前位于的环境。
如上所述,神经网络可用于分析图像并识别图像中的特征。例如,神经网络可用于确定和/或识别消失点、线或车道指示符等。可在部署和/或使用神经网络之前训练神经网络。例如,训练数据(例如,训练图像)可以用于训练神经网络。训练数据可以包括先前识别(例如,由用户或计算装置先前识别)的感兴趣的特征。
在一个实施方式中,计算装置(例如,服务器计算机、膝上型计算机、台式计算机、平板计算机、诸如图12中所示的系统的计算系统等)可以获得图像600(可以描绘车辆可能已位于或已经行驶过的环境)。例如,计算装置可以从数据储存(例如,存储器、硬盘驱动器、闪存驱动器等)检索或读取图像600。图像600可能是由车辆上的一个或多个传感器先前生成和/或捕获的。例如,图像600可能是由车辆上的相机(例如,视频相机、数码相机、相机传感器等)先前生成和/或捕获的。
在一个实施方式中,图像包括线指示符610(在图6A中示出为曲线)。线指示符610可以表示位于(图像600中描绘的)环境中的车道、车道线、路缘石、边界、车道分隔线/划分线、车道标记等。例如,线指示符可以是道路或街道上的车道标记/线。线指示符610可以包括曲线和/或直线。例如,线指示符610可以是曲线、直线和/或包括弯曲部分和直线部分的线。尽管在图6A中示出了四个线指示符610,但是在其他实施方式中可以包括任意数量的线指示符。
在一个实施方式中,线指示符610可以基于由用户提供的用户输入。例如,用户可以查看或检查图像600,并且可以在图像600中指出、绘制、放置、定位(position)线指示符610。线指示符610可以被添加到图像600,使得线指示符610成为图像600的一部分。例如,用户可以编辑由相机捕获、生成的原始图像,以将线指示符610添加到图像600。线指示符610还可以包括在与图像600相关的元数据中。
在另一实施方式中,线指示符610可以由计算装置生成。计算装置可以分析图像并且可以在图像600中指出、绘制、放置、定位线指示符610。例如,可以使用神经网络来分析图像600并将线指示符610添加到图像600中。线指示符610可以是图像600的一部分和/或可以包括在与图像600相关的元数据中。
在一个实施方式中,图像600可以包括在用于神经网络的训练数据中。例如,图像600可以包括在用于确定图像中的消失点的神经网络的训练数据中。图像600的实际消失点可能已经被预先确定。这允许计算装置确定由神经网络确定的消失点(例如,检测到的消失点或确定的消失点)是否准确(例如,是否与实际消失点相同或是否在实际消失点的阈值距离内)。
在一个实施方式中,计算装置可以基于线指示符610来确定(例如,生成、估算、获得、计算等)线段620。例如,计算装置可以分析线指示符610并且可以确定每个线指示符610的一个线段620。线段620可以是相应的线指示符610的最长的直线部分。线段620还可以是可与相应的线指示符的一部分拟合或匹配的最长直线。
在一个实施方式中,线段620还可以是图像600的上边界/上高度和下边界/下高度内的最长直线。线段620还可以是较接近和/或最接近图像600的下边界/下高度的最长直线。例如,计算装置可以分析线指示符610的介于高度Y1与Y8之间的部分,并确定直线是否可以与线指示符610的(介于Y1与Y8之间)的部分拟合。如果直线可以拟合到线指示符的介于Y1与Y8之间的部分上,则计算装置可以使用该直线来确定消失点,这将在下面更详细地讨论。如果直线无法拟合到线指示符610的(介于Y1与Y8之间)的部分上,则计算装置可以分析线指示符610的其他部分,直到计算装置可以识别或确定可以拟合到线指示符610的该部分且较靠近/最靠近图像的底部或下边界/下高度的最长直线。例如,计算装置可以连续地分析线指示符610的介于Y2与Y8之间的部分,线指示符610的介于Y3与Y8之间的部分,线指示符610的介于Y4与Y8之间的部分,线指示符610的介于Y5与Y8之间的部分,线指示符610的介于Y6与Y8之间的部分,以及线指示符610的介于Y7与Y8之间的部分。计算装置可以在(从部分Y1-Y8开始直到部分Y7-Y8的)直线可以拟合到其上的第一个部分处停止。
在一个实施方式中,计算装置可以基于线段620中的阈值数量的点和距离相应的线指示符610的阈值距离来确定线段620(例如,直线)是否可以拟合到线指示符610的一部分上。例如,计算装置可以将线指示符610划分为点和/或段(例如,点可以介于两个段之间)。计算装置可以确定线指示符610上的两个点之间的直线。第一点可以位于线指示符610的高度Y8处。第二点可以位于正在被分析的当前高度(例如,高度Y1至Y7中的一个)处。计算装置可以确定直线上的阈值数量的点是否不在线指示符610的阈值距离内。例如,计算装置可以确定直线上是否存在少于三个、五个或一些其他适当数量的这样的点,这些点与线指示符610的距离大于阈值距离(例如,大于五个像素、10个像素或一些其他合适的距离)。如果直线上存在小于阈值数量的点(这些点不在线指示符610的阈值距离内),计算装置可以确定直线可以拟合到线指示符610的该部分上。
图6B是示出根据一个实施方式的示例性图像600的图。图像600可以描绘诸如自动驾驶车辆和非自动驾驶车辆的车辆可位于和/或行驶的环境。图像600可能已经由车辆上的一个或多个传感器先前生成和/或捕获。图像包括线指示符610(在图6B中示出为曲线)。线指示符610可以表示位于(图像600中描绘的)环境中的车道、车道线、路缘石、边界、车道分隔线/划分线、车道标记等。如上所述,线指示符610可以基于用户提供的用户输入。如上所述,线指示符610还可以由计算装置生成(例如,自动生成)。线指示符610可以被包括作为图像600的一部分和/或可以包括在与图像600相关的元数据中。
如上所述,神经网络可用于分析图像并识别图像中的特征。可以在部署和/或使用神经网络之前训练神经网络。例如,训练数据(例如,训练图像)可以用于训练神经网络。训练数据可以包括先前识别(例如,由用户或计算装置先前识别)的感兴趣的特征。
如上所述,计算装置可以基于线指示符610来确定(例如,生成、估算、获得、计算等)线段620。线段620还可以是图像600的上边界/上高度和下边界/下高度内的最长直线。线段620还可以是较接近和/或最接近图像600的下边界/下高度的最长直线。
在一个实施方式中,计算装置可以基于线段620确定图像600中的消失点630。计算装置可以通过基于线段620确定线640来确定图像600中的消失点。每条线640可以与相应的线段620相关或可以对应于相应的线段620。计算装置可以通过将每个线段620朝向图像600的顶部或上部延伸来确定(例如,计算、生成、标识等)线640。例如,计算装置可以确定从相应线段620中的点(例如,位于线段620的第一端与第二端之间的某个点)开始并朝向图像的顶部延伸的线640,线640与线段620平行。
在一个实施方式中,计算装置可以通过确定至少两条线640在图像600中相交的位置来确定消失点630。例如,所有线640可以在图像600中的点或位置处相交。如果所有线640在图像600中的单个点或位置处相交,则(所有线640的)相交的点或位置可以是消失点。在另一示例中,线640可以不全部相交在图像中的单个点或位置处。如图6B中所示,线640不全部相交在图像600中的单个点或位置处。当线640不全部相交在图像600中的单个点或位置处时,计算装置可以使用各种技术、方法、算法等来确定消失点630。例如,计算装置可以确定(例如,识别,计算等)图像600中最接近所有线640的点或位置。在另一示例中,计算装置可以确定最多的线640相交的点或位置(例如,五分之四的线相交的位置)。
在一个实施方式中,计算装置可以更新图像600或与图像600相关的元数据以指出消失点在图像600内的位置。例如,计算装置可以编辑图像来将指示符(例如X形或十字形、点、小正方形、小菱形等)添加至图像600以指出消失点630在图像600内的位置。在另一示例中,计算装置可以生成和/或编辑与图像600相关的元数据以指出消失点630的位置。例如,计算装置可以向元数据添加横向位置(或X坐标)和纵向位置(或Y坐标)以指出消失点630。在另一示例中,计算装置可以向元数据添加相对横向位置(或相对X坐标)和相对纵向位置(或相对Y坐标)以指出消失点630。
如上所述,图像600可以被包括在训练数据中,该训练数据可以用于训练神经网络以识别图像中的消失点。例如,图像600可以被提供给神经网络,并且神经网络可以确定和/或检测消失点。可以将由神经网络确定的消失点的定位/位置与消失点630的定位/位置进行比较。计算装置可以比较图像的实际消失点与由神经网络确定的消失点之间的差异。计算装置可以基于图像的实际消失点与由神经网络确定的消失点之间的差异来调整神经网络中的权重。
可以在可能存在于神经网络的训练数据中的所有图像上重复图6A和6B中描述的方法、操作、功能、动作等。例如,计算装置可以获得描绘了ADV可位于和/或行进的附加环境的多个图像(例如,数百个图像、数千个图像或一些其他适当数量的图像)。每个图像可以包括代表附加环境中的车道的附加线指示符。如上所述,计算装置可以确定附加线指示符的附加线段。计算装置还可基于附加线段来确定图像的消失点。
如上所述,用户可能难以指出用作神经网络的训练数据的图像中的消失点。例如,用户可能无法精确点击或指出图像中的消失点。另外,用户可能难以确定图像中消失点的位置。因为图像被用于训练神经网络(例如,用作训练数据),所以指出图像中的准确消失点可能是重要和/或有用的,从而可以训练神经网络来准确地确定消失点。更准确的训练数据可以使得神经网络能够生成更准确的结果(例如,更准确的消失点)。因为用户可能难以准确地识别和/或指出图像内的消失点,所以基于车道指示符确定消失点可以使得计算装置能够更准确、快速和/或有效地确定消失点。
图7是示出用于确定图像中的消失点的示例性过程700的流程图。可以通过可以包括软件、硬件或其组合的处理逻辑来执行过程700。可以由处理逻辑执行处理700,该处理逻辑可以包括硬件(例如,电路、专用逻辑、可编程逻辑、处理器、处理装置、中央处理单元(CPU)、片上系统(SoC)等)、软件(例如,在处理装置上运行/执行的指令)、固件(例如,微代码)或其组合。在一些实施方式中,可以由处理装置、AI加速器、计算装置、ADV、规划模块(例如,图3B中示出的规划模块305)等执行过程700。
在框705处,过程700获得可以描绘ADV可能位于的环境的图像。如上所述,图像可以是用于神经网络的训练数据的一部分。该图像包括代表环境中的一个或多个车道的多个线指示符。在框710处,过程700基于多个线指示符确定多个线段。例如,如上所述,过程700可以针对每个线指示符识别出较接近/最接近图像底部的最长直线。在框715处,过程700可以基于多个线段来确定消失点。例如,在框716处,过程700可以基于多个线段确定多个线(如图6B中所示)。在框717处,过程700可以基于多个线确定消失点(如图6B中所示)。在框720处,过程700可以更新图像和/或与图像相关的元数据,以指出消失点的位置。
图8是示出根据一个实施方式的示例性图像800的图。图像800可以描绘ADV可以位于和/或行进的环境。在一个实施方式中,图像800可以是可用于训练神经网络的训练数据。在另一实施方式中,图像800可以是由ADV的一个或多个传感器生成和/或捕获的图像。图像800可以由神经网络(例如,神经网络500)处理和/或分析。例如,图像800可以用于训练神经网络。在另一示例中,图像800可以由神经网络分析,ADV可以在ADV运行时(例如,当ADV正在行驶或通过环境时)使用该神经网络。
在一个实施方式中,ADV可以获取图像800。例如,ADV的一个或多个相机可以捕获和/或生成图像800。图像800可以被提供给神经网络,该神经网络可以用于确定图像中的消失点。例如,图像800可以作为输入提供给神经网络。可以使用各种格式来表示消失点820。例如,使用X-Y坐标(例如,笛卡尔坐标)系,消失点可以表示为X-Y坐标。在一个实施方式中,如图8中所示,神经网络可以将消失点表示为到图像800的中心810的相对距离。该相对距离可以包括到中心810的相对横向距离D_X和到中心810的相对纵向距离D_Y。
在一个实施方式中,自动驾驶车辆可基于消失点820校准自动驾驶车辆的一个或多个传感器。例如,图2中所示的传感器系统115可基于消失点820校准一个或多个相机211。诸如相机的传感器可能由于ADV的运行而无法得到校准。例如,在崎岖地形上的行驶可能导致无法对相机进行校准,因为在ADV的运行期间相机的方向(例如,相机的翻滚、俯仰和偏航)可能会改变。另外,随着ADV转向、向上移动/上坡、向下移动/下坡等,相机相对于ADV的方向也可能会改变。因此,当发生这种情况时,重新校准照相机(例如,传感器)可能是有用的,以允许照相机更好地捕获用于ADV的传感器数据(例如图像、图像数据)。
在一个实施方式中,ADV可以基于消失点820来确定是否应当校准一个或多个传感器。例如,如果相机(例如,传感器)被正确地校准,则由神经网络检测到的消失点820可以位于图像800的中心810处或者位于图像800的中心810的阈值距离内。ADV可以确定消失点820与图像800的中心810相距多远。例如,ADV可以确定消失点820距图像800的中心810的相对横向距离(例如,D_X)和相对纵向距离(例如,D_Y)(例如,消失点820在横向方向或沿X轴距图像800的中心810有多远以及消失点820在纵向方向或沿Y轴距图像800的中心810有多远)。如果消失点820位于图像800的中心810的阈值距离内,则ADV可以避免校准相机(例如,可以不校准相机)。例如,因为消失点820位于图像800的中心810的阈值距离内,所以可不需要校准相机。如果消失点820不在图像800的中心810的阈值距离内,则ADV可对相机进行校准。
在一个实施方式中,可以训练神经网络以将消失点820表示为到图像800的中心810的相对距离(例如,将消失点820表示为坐标(D_X,D_Y))。如上所述,可以使用训练数据(例如,训练图像)来训练神经网络。神经网络可以处理和/或分析训练数据,并且可以生成表示为到训练图像的中心的相对距离的消失点。可以将由神经网络确定的消失点的定位/位置与训练图像中的消失点的实际定位/位置进行比较。如果由神经网络确定的消失点的定位/位置不在实际消失点的定位/位置的阈值相对距离内,则可以调整神经网络中的权重。可以基于图6A、图6B和图7中描述的方法、操作、动作、功能等来确定实际消失点。神经网络可以连续地对训练图像进行重新处理/重新分析,确定由神经网络确定的消失点是否在实际消失点的定位/位置的阈值相对距离内,并重新调整一个或多个权重直到由神经网络确定的消失点在训练图像中的实际消失点的定位/位置的阈值相对距离内。因为到图像中心的相对距离被用于确定是否训练了神经网络,所以神经网络可以配置为使用到图像中心的相对距离表示图像中的消失点。
在一个实施方式中,使用到图像中心的相对距离(例如,D_X和D_Y)可以减少神经网络可能处理的问题和/或解空间。例如,如果使用XY坐标表示消失点,则消失点可能位于的可能位置的数量可能跨越图像800的整个长度和宽度(例如,以像素为单位的长度和宽度)。然而,如果使用到图像中心的相对距离表示消失点,则可以减少神经网络要处理的问题空间(例如,可以减少一半)。另外,使用到图像中心的相对距离可以使神经网络将更多的注意力集中在图像中心周围的位置上。这可以减少神经网络处理/分析图像的时间量。
图9是示出根据一个实施方式的用于检测图像中的消失点的示例性过程900的流程图。可以通过可以包括软件、硬件或其组合的处理逻辑来执行过程900。可以通过处理逻辑来执行过程900,该处理逻辑可以包括硬件(例如,电路、专用逻辑、可编程逻辑、处理器、处理装置、中央处理单元(CPU)、片上系统(SoC)等)、软件(例如,在处理装置上运行/执行的指令)、固件(例如,微代码)或其组合。在一些实施方式中,可以通过处理装置、AI加速器、计算装置、ADV、规划模块(例如,图3B中示出的规划模块305)等执行过程900。
在框905处,过程900可以可选地训练神经网络。例如,在框906处,过程900可以获得训练图像(例如,训练数据)。在框907处,过程900可以检测训练图像中的消失点。如上所述,可以使用到图像中心的相对距离(例如,使用图8中所示的D_X和D_Y)来表示消失点。在框908处,过程900可以确定检测到的消失点与训练图像的实际消失点之间的差异。例如,过程900可以确定检测到的消失点与实际消失点之间的横向距离和/或纵向距离。如以上在图6A、图6B和图7中所讨论的,实际的消失点可以由神经网络基于图像中的线指示符预先确定。在框909处,过程900可以对神经网络的权重进行更新、调整、修改等。在框910处,过程900可以确定是否已经达到迭代的最大次数。迭代的最大次数可以是使用一个或多个训练图像来训练神经网络的次数(例如,神经网络应处理一个或多个训练图像的最大次数)。例如,迭代的最大次数可以表示神经网络应重复确定图像中消失点并更新神经网络权重(基于检测到的消失点与实际消失点之间的差异)的过程的总次数。迭代的最大次数的示例可以包括100次、5000次或一些其他适当的次数。如果尚未达到迭代的最大次数,则过程900可以前进至框906。如果已达到迭代的最大次数,则过程900可以在框911处最终确定(例如,设置)神经网络的权重。
在框915处,过程900可以使用神经网络来确定图像的消失点。例如,过程900可以将由相机(例如,传感器)生成和/或捕获的图像接收到神经网络,并且神经网络可以确定图像的消失点。可以使用到图像中心的相对距离(例如,如上所述的D_X和D_Y)来表示消失点。在框920处,过程900可以确定是否校准ADV的一个或多个传感器。例如,过程900可以确定消失点是否在图像中心的阈值距离内。如果应该校准一个或多个传感器,则在框925处,过程900可以对一个或多个传感器进行校准。如果不应该校准一个或多个传感器,则在框930处,过程900可不对传感器进行校准。
图10是示出根据一个实施方式的示例性神经网络系统1000的框图。在一个实施方式中,ADV可以使用神经网络系统1000来确定描绘ADV当前正在行驶和/或所处的环境的图像中的车道(例如,检测、识别、计算代表车道线的线指示符)。ADV还可以使用神经网络系统1000来确定描绘ADV当前正在行驶和/或所处的环境的图像中的消失点。如图10中所示,神经网络系统1000包括神经网络1010和神经网络1020。如上所述,可以在诸如图形处理单元(GPU)的处理装置和/或其他类型的人工智能加速器上执行、运行神经网络1010和1020。
在一个实施方式中,神经网络1010可以检测可能位于图像1005中的车道(图像1005描绘了ADV当前正在行驶和/或所处的环境)。神经网络1010可以分析和/或处理图像1005,并且可以输出一个或多个车道线指示符1015。例如,如以上在图6A中所讨论的,神经网络1010可以生成一个或多个线指示符1015。神经网络1010可以包括卷积层1011和卷积层1012。如上所述,神经网络1010可以包括其他层,例如输入层、输出层、池化层、附加的卷积层等。
在一个实施方式中,神经网络1010可以是基于编码器-解码器的卷积神经网络(CNN)。例如,卷积层1011可以被称为编码器,并且卷积层1012可以被称为解码器。卷积层1011可以对诸如图像1005的输入数据执行下采样功能和/或操作。卷积层1011可以用于识别图像1005中的特征。例如,卷积层1011可以使用一个或多个卷积滤波器生成特征图。卷积层1012可以对由卷积层1011生成的特征图执行上采样功能和/或操作。例如,卷积层1012可以使用特征图来重建具有诸如线指示符(指示道路、街道等上的车道线)的感兴趣特征的输入。
在一个实施方式中,神经网络1020可以确定图像1005(其描绘了ADV当前正在行驶和/或所处的环境)中的消失点。例如,神经网络1020可以确定图像1005的消失点1025。如上所述,可以使用距图像1005的中心的相对距离(例如,D_X、D_Y)来表示消失点。神经网络1020可以是卷积神经网络(CNN)。神经网络1020可以包括卷积层1021和全连接的层1023。如上所述,神经网络1020可以包括其他层,诸如输入层、输出层、池化层、附加的卷积层等。
如图10中所示,神经网络1020通信地和/或操作地联接到神经网络1010。例如,神经网络1020的卷积层1021的输入联接到神经网络1010的卷积层1011的输出。在一个实施方式中,神经网络1020可以不使用图像1005作为输入。神经网络1020可以使用由卷积层1011生成的特征图来确定消失点1025。例如,卷积层1021可以使用由卷积层1011生成的特征图来确定消失点1025。如上所述,线指示符可用于确定图像的消失点。因此,由卷积层1011生成的特征图(其可以是多维(例如,2D或3D)矢量、张量等)可以包括可以表示线指示符的数据和/或信息,该线指示符可以用于确定消失点1025。卷积层1021还可以生成与图像1005的子部分或局部部分相对应的特征图。全连接层1023可以从卷积层1021获取特征图以转变和/或组合局部特征图来确定局部特征图的全局摘要。全局摘要可以允许神经网络1020识别整个图像1005内的而不是图像1005的局部部分内的消失点。
在一个实施方式中,神经网络系统1000可以获得图像1005(其可以描绘ADV当前所处或行进的环境)。例如,神经网络系统1000可以从ADV的相机接收图像1005,或者可以从数据储存(例如,存储器)读取图像1005。神经网络系统1000可基于图像1005使用神经网络1010来确定一个或多个线指示符(其可表示环境中的一个或多个车道)。如上所述,例如,神经网络1010可处理和/或分析图像1005。神经网络系统1000还可以使用神经网络1020确定图像1005内的消失点。例如,神经网络1020可以联接到神经网络1010,并且可以使用由神经网络1010生成(例如,由卷积层1011生成)的特征图来确定消失点1025。神经网络系统1000可以同时确定一个或多个线指示符1015和消失点1025。例如,神经网络1010可以在神经网络1020执行确定消失点1025的操作的同时执行确定一个或多个线指示符1015的操作。
在一个实施方式中,ADV(例如,如图2中所示的ADV的传感器系统115)可以基于消失点1025来确定是否应当校准一个或多个传感器。例如,如果对相机(传感器)进行了适当地校准,则由神经网络检测到的消失点1025可位于图像1005的中心处或位于图像1005中心的阈值距离内。如果消失点1025位于图像1005的中心的阈值距离内,则ADV可以避免校准相机(例如,可以不校准相机)。例如,因为消失点1025位于图像1005的中心的阈值距离内,所以可以不需要校准相机。如果消失点1025不在图像1005的中心的阈值距离内,则ADV可对相机进行校准。
在一个实施方式中,ADV(例如,如图3A和3B中所示的感知和规划系统110、规划模块305)可以基于线指示符1015确定ADV通过环境的路径。例如,ADV可以识别沿由线指示符1015指示的车道的路径。ADV可以基于该路径来控制ADV。例如,感知和规划系统110(在图3A中示出)可以使ADV沿着路径行驶。
如上所述,可以在部署和/或使用神经网络之前训练神经网络。例如,在ADV使用神经网络1010和神经网络1020之前,可以使用训练数据(例如,训练图像)来训练神经网络1010和神经网络1020。当训练神经网络1010和神经网络1020时,神经网络系统1000可以允许更灵活和/或不同的训练策略。在一个实施方式中,可以与神经网络1020分开地训练神经网络1010。可以在不同的时间点训练神经网络1010和神经网络1020(例如,可以首先训练神经网络1010,并且然后可以训练神经网络1020)。在另一示例中,可以使用不同的训练数据训练神经网络1010和神经网络1020。例如,第一组训练图像可以用于训练神经网络1010,并且第二组训练图像可以用于训练神经网络1020。在另一实施方式中,可以同时训练神经网络1010和神经网络1020。例如,可以在重叠的时间段训练神经网络1010和神经网络1020(例如,可以在训练神经网络1020的同时训练神经网络1010)。在另一示例中,可以使用相同的训练数据来训练神经网络1010和神经网络1020。例如,可以使用同一组训练图像来训练神经网络1010和神经网络1020。通过允许使用不同的训练策略,神经网络系统1000允许用户使用提供更好的准确性和/或更好的推论的训练策略。例如,ADV可能够确定分别训练神经网络1010和神经网络1020是否将允许神经网络1010和1020生成比同时训练神经网络1010和1020更准确的结果。
另外,神经网络系统1000可以允许将现有的神经网络与更新的神经网络结合使用。例如,神经网络1010可以是ADV用来检测线指示符的预先存在的神经网络。因为第二神经网络1020也可以使用相同的线指示符来检测消失点,所以第二神经网络可以与第一神经网络1010联接和/或集成。这允许第二神经网络1020与现有的神经网络1010一起工作。
图11是示出用于检测消失点的示例性方法的流程图。可以通过可以包括软件、硬件或其组合的处理逻辑来执行过程1100。可以由处理逻辑执行处理1100,该处理逻辑可以包括硬件(例如,电路、专用逻辑、可编程逻辑、处理器、处理装置、中央处理单元(CPU)、片上系统(SoC)等)、软件(例如,在处理装置上运行/执行的指令)、固件(例如,微代码)或其组合。在一些实施方式中,可以通过处理装置、AI加速器、计算装置、ADV、规划模块(例如,图3B中示出的规划模块305)等执行过程1100。
在框1105处,过程1100可以可选地训练第一神经网络和第二神经网络。如上所述,可以分别或同时训练第一神经网络和第二神经网络。同样如上所述,第一神经网络可以用于确定(例如,检测、识别、产生、计算等)可以指示图像中的车道线的线指示符。第二神经网络可用于确定图像中的消失点。如图10中所示,第一神经网络可以联接到第二神经网络。在框1110处,可以获得图像。例如,图像可以由ADV的相机(例如,传感器)生成和/或捕获。处理1100可以从相机接收图像,或者可以从数据储存(例如,存储器、硬盘驱动器、闪存驱动器等)读取图像。在框1115处,过程1100可使用第一神经网络确定图像的一个或多个车道线指示符。过程1100还可以使用第二神经网络同时确定图像的消失点。例如,第一神经网络和第二神经网络两者可以同时运行(例如,第一神经网络确定线指示符的时间和第二神经网络的时间存在至少一些重叠)。如上所述,第二神经网络可以使用由第一神经网络生成的特征图。可以使用到图像中心的相对距离来表示消失点(例如,如上所述的D_X和D_Y)。在框1130处,过程1100可以确定是否校准ADV的一个或多个传感器。例如,过程1100可以确定消失点是否在图像中心的阈值距离内。如果应该校准一个或多个传感器,则在框1140处,过程1100可以校准一个或多个传感器。如果不应该校准一个或多个传感器,则在框1135处,过程1100可以避免校准传感器。
应注意,如本文中示出和描述的部件中的一些或全部可以在软件、硬件或其组合中实施。例如,此类部件可以实施为安装并存储在永久性存储装置中的软件,所述软件可以通过处理器(未示出)加载在存储器中并在存储器中执行以实施贯穿本申请所述的过程或操作。替代地,此类部件可以实施为编程或嵌入到专用硬件(诸如,集成电路(例如,专用集成电路或ASIC)、数字信号处理器(DSP)或现场可编程门阵列(FPGA))中的可执行代码,所述可执行代码可以经由来自应用的相应驱动程序和/或操作系统来访问。此外,此类部件可以实施为处理器或处理器内核中的特定硬件逻辑,作为可由软件部件通过一个或多个特定指令访问的指令集的一部分。
图12是示出可以与本公开的一个实施方式一起使用的数据处理系统的示例的框图。例如,系统1500可以表示以上所述的执行上述过程或方法中的任一个的任何数据处理系统,例如,图1的感知和规划系统110或服务器103-104中的任何一个以及图3A的路径优化器309。系统1500可以包括许多不同的部件。这些部件可以实施为集成电路(IC)、集成电路的部分、分立电子装置或适用于电路板(诸如,计算机系统的主板或插入卡)的其它模块或者实施为以其它方式并入计算机系统的机架内的部件。
还应注意,系统1500旨在示出计算机系统的许多部件的高阶视图。然而,应当理解的是,某些实施方式中可以具有附加的部件,此外,其它实施方式中可以具有所示部件的不同布置。系统1500可以表示台式计算机、膝上型计算机、平板计算机、服务器、移动电话、媒体播放器、个人数字助理(PDA)、智能手表、个人通信器、游戏装置、网络路由器或集线器、无线接入点(AP)或中继器、机顶盒或其组合。此外,虽然仅示出了单个机器或系统,但是术语“机器”或“系统”还应当被理解为包括单独地或共同地执行一个(或多个)指令集以执行本文所讨论的任何一种或多种方法的机器或系统的任何集合。
在一个实施方式中,系统1500包括通过总线或互连件1510连接的处理器1501、存储器1503以及装置1505至1508。处理器1501可以表示其中包括单个处理器内核或多个处理器内核的单个处理器或多个处理器。处理器1501可以表示一个或多个通用处理器,诸如,微处理器、中央处理单元(CPU)等。更具体地,处理器1501可以是复杂指令集计算(CISC)微处理器、精简指令集计算(RISC)微处理器、超长指令字(VLIW)微处理器、或实施其它指令集的处理器、或实施指令集组合的处理器。处理器1501还可以是一个或多个专用处理器,诸如,专用集成电路(ASIC)、蜂窝或基带处理器、现场可编程门阵列(FPGA)、数字信号处理器(DSP)、网络处理器、图形处理器、通信处理器、加密处理器、协处理器、嵌入式处理器、或者能够处理指令的任何其它类型的逻辑。
处理器1501(其可以是低功率多核处理器套接口,诸如超低电压处理器)可以充当用于与所述系统的各种部件通信的主处理单元和中央集线器。这种处理器可以实施为片上系统(SoC)。处理器1501被配置成执行用于执行本文所讨论的操作和步骤的指令。系统1500还可以包括与可选的图形子系统1504通信的图形接口,图形子系统1504可以包括显示控制器、图形处理器和/或显示装置。
处理器1501可以与存储器1503通信,存储器1503在一个实施方式中可以经由多个存储器装置实施以提供给定量的系统存储。存储器1503可以包括一个或多个易失性存储(或存储器)装置,诸如,随机存取存储器(RAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、静态RAM(SRAM)或者其它类型的存储装置。存储器1503可以存储包括由处理器1501或任何其它装置执行的指令序列的信息。例如,各种操作系统、装置驱动程序、固件(例如,输入输出基本系统或BIOS)和/或应用的可执行代码和/或数据可以加载到存储器1503中并由处理器1501执行。操作系统可以是任何类型的操作系统,例如,机器人操作系统(ROS)、来自公司的/>操作系统、来自苹果公司的/>来自/>公司的LINUX、UNIX,或者其它实时或嵌入式操作系统。
系统1500还可以包括IO装置,诸如装置1505至1508,包括网络接口装置1505、可选的输入装置1506,以及其它可选的IO装置1507。网络接口装置1505可以包括无线收发器和/或网络接口卡(NIC)。所述无线收发器可以是WiFi收发器、红外收发器、蓝牙收发器、WiMax收发器、无线蜂窝电话收发器、卫星收发器(例如,全球定位系统(GPS)收发器)或其它射频(RF)收发器或者它们的组合。NIC可以是以太网卡。
输入装置1506可以包括鼠标、触摸板、触敏屏幕(其可以与显示装置1504集成在一起)、指针装置(诸如,手写笔)和/或键盘(例如,物理键盘或作为触敏屏幕的一部分显示的虚拟键盘)。例如,输入装置1506可以包括联接到触摸屏的触摸屏控制器。触摸屏和触摸屏控制器例如可以使用多种触敏技术(包括但不限于电容、电阻、红外和表面声波技术)中的任一种,以及其它接近传感器阵列或用于确定与触摸屏接触的一个或多个点的其它元件来检测其接触和移动或间断。
IO装置1507可以包括音频装置。音频装置可以包括扬声器和/或麦克风,以促进支持语音的功能,诸如语音识别、语音复制、数字记录和/或电话功能。其它IO装置1507还可以包括通用串行总线(USB)端口、并行端口、串行端口、打印机、网络接口、总线桥(例如,PCI-PCI桥)、传感器(例如,诸如加速度计运动传感器、陀螺仪、磁强计、光传感器、罗盘、接近传感器等)或者它们的组合。装置1507还可以包括成像处理子系统(例如,相机),所述成像处理子系统可以包括用于促进相机功能(诸如,记录照片和视频片段)的光学传感器,诸如电荷联接装置(CCD)或互补金属氧化物半导体(CMOS)光学传感器。某些传感器可以经由传感器集线器(未示出)联接到互连件1510,而诸如键盘或热传感器的其它装置可以根据系统1500的具体配置或设计由嵌入式控制器(未示出)控制。
为了提供对诸如数据、应用、一个或多个操作系统等信息的永久性存储,大容量存储设备(未示出)也可以联接到处理器1501。在各种实施方式中,为了实现更薄且更轻的系统设计并且改进系统响应性,这种大容量存储设备可以经由固态装置(SSD)来实施。然而,在其它实施方式中,大容量存储设备可以主要使用硬盘驱动器(HDD)来实施,其中较小量的SSD存储设备充当SSD高速缓存以在断电事件期间实现上下文状态以及其它此类信息的非易失性存储,从而使得在系统活动重新启动时能够实现快速通电。另外,闪存装置可以例如经由串行外围接口(SPI)联接到处理器1501。这种闪存装置可以提供系统软件的非易失性存储,所述系统软件包括所述系统的BIOS以及其它固件。
存储装置1508可以包括计算机可访问的存储介质1509(也被称为机器可读存储介质或计算机可读介质),其上存储有体现本文所述的任何一种或多种方法或功能的一个或多个指令集或软件(例如,模块、单元和/或逻辑1528)。处理模块/单元/逻辑1528可以表示上述部件中的任一个,例如,规划模块305、控制模块306和路径优化器309。处理模块/单元/逻辑1528还可以在其由数据处理系统1500、存储器1503和处理器1501执行期间完全地或至少部分地驻留在存储器1503内和/或处理器1501内,数据处理系统1500、存储器1503和处理器1501也构成机器可访问的存储介质。处理模块/单元/逻辑1528还可以通过网络经由网络接口装置1505进行传输或接收。
计算机可读存储介质1509也可以用来永久性地存储以上描述的一些软件功能。虽然计算机可读存储介质1509在示例性实施方式中被示为单个介质,但是术语“计算机可读存储介质”应当被认为包括存储所述一个或多个指令集的单个介质或多个介质(例如,集中式或分布式数据库和/或相关联的高速缓存和服务器)。术语“计算机可读存储介质”还应当被认为包括能够存储或编码指令集的任何介质,所述指令集用于由机器执行并且使得所述机器执行本公开的任何一种或多种方法。因此,术语“计算机可读存储介质”应当被认为包括但不限于固态存储器以及光学介质和磁性介质,或者任何其它非暂时性机器可读介质。
本文所述的处理模块/单元/逻辑1528、部件以及其它特征可以实施为分立硬件部件或集成在硬件部件(诸如,ASICS、FPGA、DSP或类似装置)的功能中。此外,处理模块/单元/逻辑1528可以实施为硬件装置内的固件或功能电路。此外,处理模块/单元/逻辑1528可以以硬件装置和软件部件的任何组合来实施。
应注意,虽然系统1500被示出为具有数据处理系统的各种部件,但是并不旨在表示使部件互连的任何特定架构或方式;因为此类细节和本公开的实施方式没有密切关系。还应当认识到,具有更少部件或可能具有更多部件的网络计算机、手持计算机、移动电话、服务器和/或其它数据处理系统也可以与本公开的实施方式一起使用。
前述详细描述中的一些部分已经根据在计算机存储器内对数据位的运算的算法和符号表示而呈现。这些算法描述和表示是数据处理领域中的技术人员所使用的方式,以将他们的工作实质最有效地传达给本领域中的其他技术人员。本文中,算法通常被认为是导致所期望结果的自洽操作序列。这些操作是指需要对物理量进行物理操控的操作。
然而,应当牢记,所有这些和类似的术语均旨在与适当的物理量关联,并且仅仅是应用于这些量的方便标记。除非在以上讨论中以其它方式明确地指出,否则应当了解,在整个说明书中,利用术语(诸如所附权利要求书中所阐述的术语)进行的讨论是指计算机系统或类似电子计算装置的动作和处理,所述计算机系统或电子计算装置操控计算机系统的寄存器和存储器内的表示为物理(电子)量的数据,并将所述数据变换成计算机系统存储器或寄存器或者其它此类信息存储设备、传输或显示装置内类似地表示为物理量的其它数据。
本公开的实施方式还涉及用于执行本文中的操作的设备。这种计算机程序被存储在非暂时性计算机可读介质中。机器可读介质包括用于以机器(例如,计算机)可读的形式存储信息的任何机构。例如,机器可读(例如,计算机可读)介质包括机器(例如,计算机)可读存储介质(例如,只读存储器(“ROM”)、随机存取存储器(“RAM”)、磁盘存储介质、光存储介质、闪存存储器装置)。
前述附图中所描绘的过程或方法可以由处理逻辑来执行,所述处理逻辑包括硬件(例如,电路、专用逻辑等)、软件(例如,体现在非暂时性计算机可读介质上)或两者的组合。尽管所述过程或方法在上文是依据一些顺序操作来描述的,但是应当了解,所述操作中的一些可以按不同的顺序执行。此外,一些操作可以并行地执行而不是顺序地执行。
本公开的实施方式并未参考任何特定的编程语言进行描述。应认识到,可以使用多种编程语言来实施如本文描述的本公开的实施方式的教导。
在以上的说明书中,已经参考本公开的具体示例性实施方式对本发明的实施方式进行了描述。将显而易见的是,在不脱离所附权利要求书中阐述的本发明的更宽泛精神和范围的情况下,可以对本公开作出各种修改。因此,应当在说明性意义而不是限制性意义上来理解本说明书和附图。
Claims (20)
1.一种方法,包括:
获取描绘自动驾驶车辆所在环境的图像,
基于所述图像使用第一神经网络确定多个线指示符,其中所述多个线指示符代表所述环境中的一个或多个车道;
基于多个线段使用第二神经网络确定所述图像内的消失点,其中:
所述第二神经网络通信地联接到所述第一神经网络;以及
所述多个线指示符与所述消失点同时确定;以及
基于所述消失点校准所述自动驾驶车辆的一个或多个传感器。
2.根据权利要求1所述的方法,其中,所述第一神经网络的第一卷积层联接到所述第二神经网络的第二卷积层。
3.根据权利要求2所述的方法,其中,所述第一神经网络的所述第一卷积层的输出联接到所述第二神经网络的所述第二卷积层的输入。
4.根据权利要求1所述的方法,还包括:
基于所述消失点确定是否应校准所述一个或多个传感器。
5.根据权利要求4所述的方法,其中,响应于确定应校准所述一个或多个传感器来校准所述一个或多个传感器。
6.根据权利要求4所述的方法,还包括:
响应于确定不应校准所述一个或多个传感器而避免校准所述一个或多个传感器。
7.根据权利要求1所述的方法,还包括:
基于所述多个线指示符确定所述自动驾驶车辆通过所述环境的路径;以及
基于所述路径控制所述自动驾驶车辆。
8.根据权利要求1所述的方法,还包括:
训练所述第一神经网络;以及
训练所述第二神经网络。
9.根据权利要求1所述的方法,其中,所述第一神经网络与所述第二神经网络分开训练。
10.根据权利要求1所述的方法,其中,使用相同的训练数据同时训练所述第一神经网络和所述第二神经网络。
11.一种存储有指令的非暂时性机器可读介质,所述指令在由处理器执行时使所述处理器执行操作,所述操作包括:
获取描绘自动驾驶车辆所在环境的图像,
基于所述图像使用第一神经网络确定多个线指示符,其中所述多个线指示符代表所述环境中的一个或多个车道;
基于多个线段使用第二神经网络确定所述图像内的消失点,其中:
所述第二神经网络通信地联接到所述第一神经网络;以及
所述多个线指示符与所述消失点同时确定;以及
基于所述消失点校准所述自动驾驶车辆的一个或多个传感器。
12.根据权利要求11所述的非暂时性机器可读介质,其中,所述第一神经网络的第一卷积层联接到所述第二神经网络的第二卷积层。
13.根据权利要求12所述的非暂时性机器可读介质,其中,所述第一神经网络的所述第一卷积层的输出联接到所述第二神经网络的所述第二卷积层的输入。
14.根据权利要求11所述的非暂时性机器可读介质,其中,所述操作还包括:
基于所述消失点确定是否应校准所述一个或多个传感器。
15.根据权利要求14所述的非暂时性机器可读介质,其中,响应于确定应校准所述一个或多个传感器来校准所述一个或多个传感器。
16.根据权利要求14所述的非暂时性机器可读介质,其中,所述操作还包括:
响应于确定不应校准所述一个或多个传感器而避免校准所述一个或多个传感器。
17.根据权利要求11所述的非暂时性机器可读介质,其中,所述操作还包括:
基于所述多个线指示符确定所述自动驾驶车辆通过所述环境的路径;以及
基于所述路径控制所述自动驾驶车辆。
18.根据权利要求11所述的非暂时性机器可读介质,其中,所述操作还包括:
训练所述第一神经网络;以及
训练所述第二神经网络。
19.根据权利要求11所述的非暂时性机器可读介质,其中,所述第一神经网络与所述第二神经网络分开训练。
20.一种数据处理系统,包括:
处理器;以及
存储器,联接到所述处理器以存储指令,所述指令在由所述处理器执行时使所述处理器执行操作,所述操作包括:
获取描绘自动驾驶车辆所在环境的图像,
基于所述图像使用第一神经网络确定多个线指示符,其中所述多个线指示符代表所述环境中的一个或多个车道;
基于多个线段使用第二神经网络确定所述图像内的消失点,其中:
所述第二神经网络通信地联接到所述第一神经网络;以及
所述多个线指示符与所述消失点同时确定;以及
基于所述消失点校准所述自动驾驶车辆的一个或多个传感器。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/457,604 US11120566B2 (en) | 2019-06-28 | 2019-06-28 | Determining vanishing points based on feature maps |
US16/457,604 | 2019-06-28 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112146680A CN112146680A (zh) | 2020-12-29 |
CN112146680B true CN112146680B (zh) | 2024-03-29 |
Family
ID=73892164
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911277646.3A Active CN112146680B (zh) | 2019-06-28 | 2019-12-11 | 基于特征图确定消失点 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11120566B2 (zh) |
CN (1) | CN112146680B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210034253A (ko) * | 2019-09-20 | 2021-03-30 | 삼성전자주식회사 | 위치 추정 장치 및 방법 |
CN112818727A (zh) * | 2019-11-18 | 2021-05-18 | 华为技术有限公司 | 一种道路约束确定方法及装置 |
US11620903B2 (en) * | 2021-01-14 | 2023-04-04 | Baidu Usa Llc | Machine learning model to fuse emergency vehicle audio and visual detection |
CN113375687B (zh) * | 2021-05-12 | 2023-06-02 | 武汉极目智能技术有限公司 | 基于平行约束的车道线消失点补偿的方法及系统、装置 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106980814A (zh) * | 2016-01-15 | 2017-07-25 | 福特全球技术公司 | 用显著性地图的行人检测 |
CN107944375A (zh) * | 2017-11-20 | 2018-04-20 | 北京奇虎科技有限公司 | 基于场景分割的自动驾驶处理方法及装置、计算设备 |
CN108139756A (zh) * | 2016-08-29 | 2018-06-08 | 百度(美国)有限责任公司 | 为自动驾驶车辆构建周围环境以制定驾驶决策的方法和系统 |
CN108734979A (zh) * | 2017-04-20 | 2018-11-02 | 通用汽车环球科技运作有限责任公司 | 交通信号灯检测系统及方法 |
CN109215067A (zh) * | 2017-07-03 | 2019-01-15 | 百度(美国)有限责任公司 | 基于cnn和crf模型生成高分辨率3-d点云 |
WO2019023628A1 (en) * | 2017-07-27 | 2019-01-31 | Waymo Llc | NEURAL NETWORKS FOR VEHICLE TRACK PLANNING |
CN109376594A (zh) * | 2018-09-11 | 2019-02-22 | 百度在线网络技术(北京)有限公司 | 基于自动驾驶车辆的视觉感知方法、装置、设备以及介质 |
CN109426262A (zh) * | 2017-08-25 | 2019-03-05 | 福特全球技术公司 | 对深度神经网络的共享处理 |
CN109426256A (zh) * | 2017-09-05 | 2019-03-05 | 百度(美国)有限责任公司 | 自动驾驶车辆的基于驾驶员意图的车道辅助系统 |
CN109489673A (zh) * | 2017-09-13 | 2019-03-19 | 百度(美国)有限责任公司 | 用于自动驾驶车辆的数据驱动地图更新系统 |
CN109863513A (zh) * | 2016-10-17 | 2019-06-07 | 优步技术公司 | 用于自主车辆控制的神经网络系统 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8803532B2 (en) | 2011-04-06 | 2014-08-12 | General Electric Company | Apparatus and methods for testing of acoustic devices and systems |
WO2012145822A1 (en) | 2011-04-25 | 2012-11-01 | Magna International Inc. | Method and system for dynamically calibrating vehicular cameras |
US10800455B2 (en) * | 2015-12-17 | 2020-10-13 | Ford Global Technologies, Llc | Vehicle turn signal detection |
KR102628654B1 (ko) | 2016-11-07 | 2024-01-24 | 삼성전자주식회사 | 차선을 표시하는 방법 및 장치 |
US10331957B2 (en) * | 2017-07-27 | 2019-06-25 | Here Global B.V. | Method, apparatus, and system for vanishing point/horizon estimation using lane models |
WO2019071212A1 (en) * | 2017-10-06 | 2019-04-11 | Netradyne Inc. | SYSTEM AND METHOD FOR DETERMINING A CURVE |
JP7346401B2 (ja) * | 2017-11-10 | 2023-09-19 | エヌビディア コーポレーション | 安全で信頼できる自動運転車両のためのシステム及び方法 |
US11269352B2 (en) * | 2017-12-15 | 2022-03-08 | Baidu Usa Llc | System for building a vehicle-to-cloud real-time traffic map for autonomous driving vehicles (ADVS) |
US10816990B2 (en) * | 2017-12-21 | 2020-10-27 | Baidu Usa Llc | Non-blocking boundary for autonomous vehicle planning |
WO2020014683A1 (en) * | 2018-07-13 | 2020-01-16 | Kache.AI | Systems and methods for autonomous object detection and vehicle following |
KR20200030305A (ko) * | 2018-09-12 | 2020-03-20 | 삼성전자주식회사 | 영상 처리를 위한 학습 데이터 생성 방법, 영상 처리 방법, 및 그 장치들 |
US11348263B2 (en) * | 2018-10-23 | 2022-05-31 | Samsung Electronics Co., Ltd. | Training method for detecting vanishing point and method and apparatus for detecting vanishing point |
US10970878B2 (en) * | 2018-12-13 | 2021-04-06 | Lyft, Inc. | Camera calibration using reference map |
EP3671542A1 (en) * | 2018-12-18 | 2020-06-24 | Visteon Global Technologies, Inc. | Method for multilane detection using a convolutional neural network |
US11148676B2 (en) * | 2019-03-29 | 2021-10-19 | Intel Corporation | Detection of an anomalous image associated with image data from one or more cameras of a computer-aided or autonomous driving vehicle |
US10818035B1 (en) * | 2019-06-28 | 2020-10-27 | Baidu Usa Llc | Representing vanishing points using relative distances |
-
2019
- 2019-06-28 US US16/457,604 patent/US11120566B2/en active Active
- 2019-12-11 CN CN201911277646.3A patent/CN112146680B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106980814A (zh) * | 2016-01-15 | 2017-07-25 | 福特全球技术公司 | 用显著性地图的行人检测 |
CN108139756A (zh) * | 2016-08-29 | 2018-06-08 | 百度(美国)有限责任公司 | 为自动驾驶车辆构建周围环境以制定驾驶决策的方法和系统 |
CN109863513A (zh) * | 2016-10-17 | 2019-06-07 | 优步技术公司 | 用于自主车辆控制的神经网络系统 |
CN108734979A (zh) * | 2017-04-20 | 2018-11-02 | 通用汽车环球科技运作有限责任公司 | 交通信号灯检测系统及方法 |
CN109215067A (zh) * | 2017-07-03 | 2019-01-15 | 百度(美国)有限责任公司 | 基于cnn和crf模型生成高分辨率3-d点云 |
WO2019023628A1 (en) * | 2017-07-27 | 2019-01-31 | Waymo Llc | NEURAL NETWORKS FOR VEHICLE TRACK PLANNING |
CN109426262A (zh) * | 2017-08-25 | 2019-03-05 | 福特全球技术公司 | 对深度神经网络的共享处理 |
CN109426256A (zh) * | 2017-09-05 | 2019-03-05 | 百度(美国)有限责任公司 | 自动驾驶车辆的基于驾驶员意图的车道辅助系统 |
CN109489673A (zh) * | 2017-09-13 | 2019-03-19 | 百度(美国)有限责任公司 | 用于自动驾驶车辆的数据驱动地图更新系统 |
CN107944375A (zh) * | 2017-11-20 | 2018-04-20 | 北京奇虎科技有限公司 | 基于场景分割的自动驾驶处理方法及装置、计算设备 |
CN109376594A (zh) * | 2018-09-11 | 2019-02-22 | 百度在线网络技术(北京)有限公司 | 基于自动驾驶车辆的视觉感知方法、装置、设备以及介质 |
Also Published As
Publication number | Publication date |
---|---|
US11120566B2 (en) | 2021-09-14 |
US20200410703A1 (en) | 2020-12-31 |
CN112146680A (zh) | 2020-12-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6845874B2 (ja) | 自動運転車のための経路及び速度の最適化フォールバックメカニズム | |
JP6967051B2 (ja) | 自動運転車両のための人間の運転行動を模倣する2段階基準線平滑化方法 | |
CN109947090B (zh) | 用于自动驾驶车辆规划的非阻塞边界 | |
EP3524934B1 (en) | Systems and methods for determining a projection of an obstacle trajectory onto a reference line of an autonomous vehicle | |
CN110728014B (zh) | 使用具有加权几何成本的分段螺旋曲线的参考线平滑方法 | |
CN109955853B (zh) | 用于操作自动驾驶车辆的方法、系统和存储介质 | |
CN111380534B (zh) | 用于自动驾驶车辆的基于st图学习的方法 | |
JP6667686B2 (ja) | 自動運転車両のための走行軌跡生成方法、システム及び機械可読媒体 | |
CN110389580B (zh) | 用于规划自动驾驶车辆的路径的漂移校正的方法 | |
JP7108583B2 (ja) | 自動運転車両のための曲率補正経路サンプリングシステム | |
US10816985B2 (en) | Method on moving obstacle representation for trajectory planning | |
JP2019204509A (ja) | 移動障害物を回避する自動運転のための運転経路の決定 | |
CN111123906B (zh) | 不同横向加速度约束下的最优纵向轨迹生成 | |
CN112146680B (zh) | 基于特征图确定消失点 | |
CN111856923B (zh) | 加速对复杂驾驶场景的规划的参数学习的神经网络方法 | |
US10818035B1 (en) | Representing vanishing points using relative distances | |
CN111615476B (zh) | 用于自动驾驶车辆的基于螺旋曲线的竖直停车规划系统 | |
CN111615618B (zh) | 用于自动驾驶车辆的高速规划的基于多项式拟合的参考线平滑方法 | |
US11227167B2 (en) | Determining vanishing points based on lane lines | |
US11353878B2 (en) | Soft-boundary based path optimization for complex scenes for autonomous driving vehicles | |
CN112009487A (zh) | 确定自动驾驶车辆的速度 | |
CN111649751B (zh) | 一种用于参考线平滑的超自由缝合方法 | |
CN112272805B (zh) | 连接两条平滑参考线的基于多点增强的拼接方法 | |
CN112149484B (zh) | 基于车道线确定消失点 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |