CN109214987A - 从上采样的低分辨率lidar 3-d点云和摄像机图像生成高分辨率3-d点云 - Google Patents
从上采样的低分辨率lidar 3-d点云和摄像机图像生成高分辨率3-d点云 Download PDFInfo
- Publication number
- CN109214987A CN109214987A CN201810688921.XA CN201810688921A CN109214987A CN 109214987 A CN109214987 A CN 109214987A CN 201810688921 A CN201810688921 A CN 201810688921A CN 109214987 A CN109214987 A CN 109214987A
- Authority
- CN
- China
- Prior art keywords
- image
- depth map
- sampling
- point cloud
- lidar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000005070 sampling Methods 0.000 title claims abstract description 72
- 238000012552 review Methods 0.000 title description 13
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 90
- 238000000034 method Methods 0.000 claims abstract description 56
- 238000012545 processing Methods 0.000 claims description 66
- 230000008447 perception Effects 0.000 abstract description 30
- 238000003860 storage Methods 0.000 description 30
- 238000012549 training Methods 0.000 description 30
- 230000008569 process Effects 0.000 description 26
- 230000006870 function Effects 0.000 description 24
- 238000010586 diagram Methods 0.000 description 23
- 238000004891 communication Methods 0.000 description 17
- 238000003475 lamination Methods 0.000 description 14
- 238000013528 artificial neural network Methods 0.000 description 13
- 210000002569 neuron Anatomy 0.000 description 10
- 238000004422 calculation algorithm Methods 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 9
- 238000010801 machine learning Methods 0.000 description 8
- 230000008439 repair process Effects 0.000 description 8
- 238000002594 fluoroscopy Methods 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 4
- 230000004888 barrier function Effects 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 239000007787 solid Substances 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 238000005452 bending Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 210000004027 cell Anatomy 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000008602 contraction Effects 0.000 description 3
- 238000007405 data analysis Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000011248 coating agent Substances 0.000 description 2
- 238000000576 coating method Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000000638 stimulation Effects 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- FIWDKRUWYWDOEB-UHFFFAOYSA-N B.CNN Chemical compound B.CNN FIWDKRUWYWDOEB-UHFFFAOYSA-N 0.000 description 1
- 241001269238 Data Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 240000001439 Opuntia Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 241000630329 Scomberesox saurus saurus Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 210000003618 cortical neuron Anatomy 0.000 description 1
- 238000012517 data analytics Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005553 drilling Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000005036 potential barrier Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4053—Super resolution, i.e. output image resolution higher than sensor resolution
- G06T3/4076—Super resolution, i.e. output image resolution higher than sensor resolution by iteratively correcting the provisional high resolution image using the original low-resolution image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/0088—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0248—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- G06T5/60—
-
- G06T5/73—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/803—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
- G06V30/144—Image acquisition using a slot moved over the image; using discrete sensing elements at predetermined points; using automatic curve following means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/45—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
Abstract
在一个实施方式中,一种方法或系统从低分辨率的3‑D点云和摄像机捕捉的图像生成高分辨率的3‑D点云,以操作自动驾驶车辆(ADV)。该系统接收用于驾驶环境的、由摄像机捕捉的第一图像。该系统接收第二图像,该第二图像表示与驾驶环境相对应的第一点云的第一深度图。该系统以预定的比例因子对第二图像上采样,以匹配第一图像的图像比例。该系统通过对第一图像和上采样的第二图像应用卷积神经网络(CNN)模型来生成第二深度图,该第二深度图比第一深度图具有更高的分辨率,使得第二深度图表示感知ADV周围的驾驶环境的第二点云。
Description
技术领域
本公开的实施方式总体涉及操作自动驾驶车辆。更具体地,本公开的实施方式涉及从上采样的低分辨率激光雷达(LIDAR)3-D点云和摄像机图像生成高分辨率三维(3-D)点云。
背景技术
以自动驾驶模式运行(例如,无人驾驶)的车辆可以将乘员、尤其是驾驶员从一些驾驶相关的职责中解放出来。当以自动驾驶模式运行时,车辆可以使用车载传感器导航到各个位置,从而允许车辆在最少人机交互的情况下或在没有任何乘客的一些情况下行驶。
高分辨率LIDAR数据对实现用于自动驾驶车辆(ADV)应用(诸如,对象分割、检测、跟踪和分类)的实时3-D场景重建很重要。然而,高分辨率的LIDAR设备通常是昂贵的,且未必能够获得。
发明内容
在本公开的一方面,提供了一种用于操作自动驾驶车辆的计算机实施的方法,所述方法包括:
接收由第一摄像机捕捉的第一图像,所述第一图像捕捉所述自动驾驶车辆的驾驶环境的一部分;
接收第二图像,所述第二图像表示由激光雷达装置产生的、与所述驾驶环境的一部分相对应的第一点云的第一深度图;
以预定的比例因子对所述第二图像上采样,以匹配所述第一图像的图像比例;以及
通过对所述第一图像和上采样的第二图像应用卷积神经网络模型来生成第二深度图,所述第二深度图比所述第一深度图具有更高的分辨率,其中,所述第二深度图表示用于感知所述自动驾驶车辆周围的所述驾驶环境的第二点云。
在本公开的另一方面,提供了一种存储有指令的非暂时性机器可读介质,所述指令在由处理器执行时致使所述处理器执行操作,所述操作包括:
接收由第一摄像机捕捉的第一图像,所述第一图像捕捉所述自动驾驶车辆的驾驶环境的一部分;
接收第二图像,所述第二图像表示由激光雷达装置产生的、与所述驾驶环境的一部分相对应的第一点云的第一深度图;
以预定的比例因子对所述第二图像上采样,以匹配所述第一图像的图像比例;以及
通过对所述第一图像和上采样的第二图像应用卷积神经网络模型来生成第二深度图,所述第二深度图比所述第一深度图具有更高的分辨率,其中,所述第二深度图表示用于感知所述自动驾驶车辆周围的所述驾驶环境的第二点云。
在本公开的再一方面,提供了一种数据处理系统,包括:
处理器;以及
存储器,所述存储器联接至所述处理器,以存储指令,所述指令在由所述处理器执行时致使所述处理器执行操作,所述操作包括:
接收由第一摄像机捕捉的第一图像,所述第一图像捕捉所述自动驾驶车辆的驾驶环境的一部分;
接收第二图像,所述第二图像表示由激光雷达装置产生的、与所述驾驶环境的一部分相对应的第一点云的第一深度图;
以预定的比例因子对所述第二图像上采样,以匹配所述第一图像的图像比例;以及
通过对所述第一图像和上采样的第二图像应用卷积神经网络模型来生成第二深度图,所述第二深度图比所述第一深度图具有更高的分辨率,其中,所述第二深度图表示用于感知所述自动
驾驶车辆周围的所述驾驶环境的第二点云。
附图说明
本公开的实施方式在附图的各图中以举例而非限制的方式示出,附图中的相同参考数字指示相似元件。
图1是示出根据一个实施方式的网络化系统的框图。
图2是示出根据一个实施方式的自动驾驶车辆的示例的框图。
图3是示出根据一个实施方式的与自动驾驶车辆一起使用的感知与规划系统的示例的框图。
图4是示出根据一个实施方式的与自动驾驶车辆一起使用的高分辨率点云模块的示例的框图。
图5A是示出根据一个实施方式的示例性ADV的图示。
图5B和图5C示出根据一些实施方式的与自动驾驶车辆一起使用的LIDAR/全景摄像机配置的顶视图和侧视图。
图5D至图5F示出根据一些实施方式的单色/立体全景摄像机配置的示例。
图6A和图6B分别示出根据一个实施方式的推理模式和训练模式的流程图。
图6C和图6D分别示出根据一个实施方式的推理模式和训练模式的流程图。
图7A和图7B是示出根据一些实施方式的深度图生成的示例的框图。
图8是示出根据一个实施方式的卷积神经网络模型的收缩层和扩张层的图示。
图9A和图9B是示出根据一些实施方式的高分辨率深度图生成的示例的框图。
图10是示出根据一个实施方式的方法的流程图。
图11A和图11B是示出根据一些实施方式的深度图生成的示例的框图。
图12是示出根据一个实施方式的卷积神经网络模型的收缩(例如,编码器/卷积)层和扩张(例如,解码器/反卷积(deconvolutional))层的图示。
图13是示出根据一个实施方式的方法的流程图。
图14A和图14B是示出根据一些实施方式的深度图生成的示例的框图。
图15是示出根据一个实施方式的方法的流程图。
图16是示出根据一个实施方式的数据处理系统的框图。
具体实施方式
将参考以下所讨论的细节来描述本公开的各种实施方式和方面,附图将示出所述各种实施方式。下列描述和附图是对本公开的说明,而不应当解释为限制本公开。描述了许多特定细节以提供对本公开的各种实施方式的全面理解。然而,在某些情况下,并未描述众所周知的或常规的细节以提供对本公开的实施方式的简洁讨论。
本说明书中对“一个实施方式“或”实施方式“的提及意味着结合该实施方式所描述的特定特征、结构或特性可以包括在本公开的至少一个实施方式中。短语“在一个实施方式中”在本说明书中各个地方的出现不必全部指同一实施方式。
根据一些实施方式,一种方法或系统从低分辨率的3-D点云和摄像机捕捉的图像生成高分辨率的3-D点云,以操作自动驾驶车辆(ADV)。使用机器学习(深度学习)技术将低分辨率LIDAR单元与校准的多摄像机系统组合起来,以实现功能等效的高分辨率LIDAR单元,以便生成3-D点云。多摄像机系统设计成输出广角(例如,360度)单色或立体色(例如,红色、绿色和蓝色或RGB)全景图像。然后,使用可靠的数据训练端对端深度神经网络,并基于离线校准参数,应用该端对端深度神经网络,以从包括广角单色或立体全景图像的输入信号实现广角全景深度图,以及从投影到单色或立体全景图像上的低成本LIDAR实现3-D点云的深度网格。最后,可从广角全景深度图生成高分辨率的3-D点云。相同的过程适用于具有较窄视角(例如,有限范围的角度)立体摄像机和较窄视角低分辨率LIDAR的配置。
根据一个方面,该系统接收由第一摄像机捕捉的第一图像,该第一图像捕捉ADV的驾驶环境的一部分。该系统接收第二图像,该第二图像表示由激光雷达(LIDAR)装置产生的、与该驾驶环境的一部分相对应的第一点云的第一深度图。系统以预定的比例因子对第二图像下采样,直到第二图像的分辨率达到预定的阈值。系统通过对第一图像和下采样的第二图像应用卷积神经网络(CNN)模型生成第二深度图,该第二深度图比第一深度图具有更高的分辨率,使得第二深度图表示感知ADV周围的驾驶环境的第二点云。
根据另一方面,该系统接收由第一摄像机捕捉的第一图像,该第一图像捕捉ADV的驾驶环境的一部分。该系统接收第二图像,该第二图像表示由激光雷达(LIDAR)装置产生的、与该驾驶环境的一部分相对应的第一点云的第一深度图。系统以预定的比例因子对第二图像上采样,以匹配第一图像的图像比例。系统通过对第一图像和上采样的第二图像应用卷积神经网络(CNN)模型生成第二深度图,该第二深度图比第一深度图具有更高的分辨率,使得第二深度图表示用于感知ADV周围的驾驶环境的第二点云。
根据另一方面,该系统接收由第一摄像机捕捉的第一图像,该第一图像捕捉ADV的驾驶环境的一部分。该系统接收第二图像,该第二图像表示由激光雷达(LIDAR)装置产生的、与该驾驶环境的一部分相对应的第一点云的第一深度图。该系统通过对第一图像应用卷积神经网络(CNN)模型来确定第二深度图。系统通过对第一图像、第二图像和第二深度图应用条件随机域函数来生成第三深度图,该第三深度图比第一深度图具有更高的分辨率,使得第三深度图表示感知ADV周围的驾驶环境的第二点云。
图1是示出根据本公开的一个实施方式的自动驾驶车辆网络配置的框图。参考图1,网络配置100包括可以通过网络102通信地联接到一个或多个服务器103至104的自动驾驶车辆101。尽管示出一个自动驾驶车辆,但多个自动驾驶车辆可以通过网络102联接到彼此和/或联接到服务器103至104。网络102可以是任何类型的网络,例如,有线或无线的局域网(LAN)、诸如互联网的广域网(WAN)、蜂窝网络、卫星网络或其组合。服务器103至104可以是任何类型的服务器或服务器群集,诸如,网络或云服务器、应用服务器、后端服务器或其组合。服务器103至104可以是数据分析服务器、内容服务器、交通信息服务器、地图和兴趣点(MPOI)服务器或位置服务器等。
自动驾驶车辆是指可以被配置成处于自动驾驶模式下的车辆,在所述自动驾驶模式下车辆在极少或没有来自驾驶员的输入的情况下导航通过环境。这种自动驾驶车辆可以包括传感器系统,所述传感器系统具有被配置成检测与车辆运行环境有关的信息的一个或多个传感器。所述车辆和其相关联的控制器使用所检测的信息来导航通过所述环境。自动驾驶车辆101可以在手动模式下、在全自动驾驶模式下或者在部分自动驾驶模式下运行。
在一个实施方式中,自动驾驶车辆101包括,但不限于,感知与规划系统110、车辆控制系统111、无线通信系统112、用户接口系统113和传感器系统115。自动驾驶车辆101还可以包括普通车辆中包括的某些常用部件,诸如:发动机、车轮、方向盘、变速器等,所述部件可以由车辆控制系统111和/或感知与规划系统110使用多种通信信号和/或命令进行控制,该多种通信信号和/或命令例如,加速信号或命令、减速信号或命令、转向信号或命令、制动信号或命令等。
部件110至115可以经由互连件、总线、网络或其组合通信地联接到彼此。例如,部件110至115可以经由控制器局域网(CAN)总线通信地联接到彼此。CAN总线是被设计成允许微控制器和装置在没有主机的应用中与彼此通信的车辆总线标准。它是最初是为汽车内的复用电气布线设计的基于消息的协议,但也用于许多其它环境。
现在参考图2,在一个实施方式中,传感器系统115包括但不限于一个或多个摄像机211、全球定位系统(GPS)单元212、惯性测量单元(IMU)213、雷达单元214以及光探测和测距(LIDAR)单元215。GPS系统212可以包括收发器,所述收发器可操作以提供关于自动驾驶车辆的位置的信息。IMU单元213可以基于惯性加速度来感测自动驾驶车辆的位置和定向变化。雷达单元214可以表示利用无线电信号来感测自动驾驶车辆的本地环境内的对象的系统。在一些实施方式中,除感测对象之外,雷达单元214可以另外感测对象的速度和/或前进方向。LIDAR单元215可以使用激光来感测自动驾驶车辆所处环境中的对象。除其它系统部件之外,LIDAR单元215还可以包括一个或多个激光源、激光扫描器以及一个或多个检测器。摄像机211可以包括用来采集自动驾驶车辆周围环境的图像的一个或多个装置。摄像机211可以是静物摄像机和/或视频摄像机。摄像机可以是可机械地移动的,例如,通过将摄像机安装在旋转和/或倾斜平台上。
传感器系统115还可以包括其它传感器,诸如:声纳传感器、红外传感器、转向传感器、油门传感器、制动传感器以及音频传感器(例如,麦克风)。音频传感器可以被配置成从自动驾驶车辆周围的环境中采集声音。转向传感器可以被配置成感测方向盘、车辆的车轮或其组合的转向角度。油门传感器和制动传感器分别感测车辆的油门位置和制动位置。在一些情形下,油门传感器和制动传感器可以集成为集成式油门/制动传感器。
在一个实施方式中,车辆控制系统111包括但不限于转向单元201、油门单元202(也被称为加速单元)和制动单元203。转向单元201用来调整车辆的方向或前进方向。油门单元202用来控制电动机或发动机的速度,电动机或发动机的速度进而控制车辆的速度和加速度。制动单元203通过提供摩擦使车辆的车轮或轮胎减速而使车辆减速。应注意,如图2所示的部件可以以硬件、软件或其组合实施。
回到图1,无线通信系统112允许自动驾驶车辆101与诸如装置、传感器、其它车辆等外部系统之间的通信。例如,无线通信系统112可以与一个或多个装置直接无线通信,或者经由通信网络进行无线通信,诸如,通过网络102与服务器103至104通信。无线通信系统112可以使用任何蜂窝通信网络或无线局域网(WLAN),例如,使用WiFi,以与另一部件或系统通信。无线通信系统112可以例如使用红外链路、蓝牙等与装置(例如,乘客的移动装置、显示装置、车辆101内的扬声器)直接通信。用户接口系统113可以是在车辆101内实施的外围装置的部分,包括例如键盘、触摸屏显示装置、麦克风和扬声器等。
自动驾驶车辆101的功能中的一些或全部可以由感知与规划系统110控制或管理,尤其当在自动驾驶模式下操作时。感知与规划系统110包括必要的硬件(例如,处理器、存储器、存储设备)和软件(例如,操作系统、规划和路线安排程序),以从传感器系统115、控制系统111、无线通信系统112和/或用户接口系统113接收信息,处理所接收的信息,规划从起始点到目的地点的路线或路径,随后基于规划和控制信息来驾驶车辆101。替代地,感知与规划系统110可以与车辆控制系统111集成在一起。
例如,作为乘客的用户可以例如经由用户接口来指定行程的起始位置和目的地。感知与规划系统110获得行程相关数据。例如,感知与规划系统110可以从MPOI服务器中获得位置和路线信息,所述MPOI服务器可以是服务器103至104的一部分。位置服务器提供位置服务,并且MPOI服务器提供地图服务和某些位置的POI。替代地,此类位置和MPOI信息可以本地高速缓存在感知与规划系统110的永久性存储装置中。
当自动驾驶车辆101沿着路线移动时,感知与规划系统110也可以从交通信息系统或服务器(TIS)获得实时交通信息。应注意,服务器103至104可以由第三方实体进行操作。替代地,服务器103至104的功能可以与感知与规划系统110集成在一起。基于实时交通信息、MPOI信息和位置信息以及由传感器系统115检测或感测的实时本地环境数据(例如,障碍物、对象、附近车辆),感知与规划系统110可以规划最佳路线并且根据所规划的路线例如经由控制系统111来驾驶车辆101,以安全且高效到达指定目的地。
服务器103可以是数据分析系统,从而为各种客户执行数据分析服务。在一个实施方式中,数据分析系统103包括数据收集器121、机器学习引擎122、神经网络模型生成器123和神经网络/CRF模型124。数据收集器121可从配备有LIDAR传感器/摄像机的各种车辆收集不同的训练数据,其中,LIDAR传感器/摄像机通信地联接至服务器103,各种车辆为自动驾驶车辆或由人类驾驶员驾驶的普通车辆。训练数据的示例可以是用于图像识别函数的深度/图像数据,诸如对象分割、检测、跟踪和分类。训练数据可编译成类别并与地面真实标签相关联。在另一实施方式中,数据收集器121可从万维网的在线存档中下载训练数据集。
基于由数据收集器收集的训练数据,机器学习引擎122可出于各种目的生成或训练一组神经网络/CRF模型124。例如,机器学习引擎122可使用训练数据对作为神经网络/CRF模型124的一部分的CNN模型执行端对端训练,其中,训练数据诸如为RGB图像/3-D低分辨率点云和3-D高分辨率点云输入/输出对。
CNN是一种前馈人工神经网络(ANN),在该前馈人工神经网络(ANN)中,它的神经元之间的连接模式是受动物视觉皮质的组织的启发。单个的皮质神经元对被称为“接受域”的有限空间区域中的刺激做出响应。不同神经元的接收域部分地重叠,使得它们的视野平铺。单个神经元对其接收域内的刺激的响应可通过卷积运算进行数学近似。深度CNN是具有多个内层的CNN。神经网络的“内层”是指在神经网络的输入层与输出层之间的层。
ANN是基于大量神经单元或神经元的计算方法,对具有由轴突连接的大量神经元的生物大脑松散地建模。每个神经元均与许多其它神经元相连接,轴突或连接可通过学习或训练增强或抑制它们对所连接的神经元的激活状态的作用。每个单独的神经元均可具有将其所有输入的值组合在一起的函数。每个连接上和单元本身上都可能有阈值函数或限制函数:使得信号在传播到其它神经元之前必须超过限制。这些系统进行自学习和训练,而不是明确地程序化。
“训练”CNN涉及对CNN的输入层进行迭代地输入,并将期望的输出与CNN的输出层处的实际输出进行比较,以计算误差项。这些误差项用于调节CNN的隐蔽层中的权重和偏差,使得下一次输出值将更接近“正确”值。每个层的输入的分布会减慢训练(即,收敛需要较低的训练速率),并且需要仔细的参数初始化,即,将内层的激活的初始权重和偏差设置为特定的范围,以便进行收敛。“收敛”是指当误差项达到最小值时。
一旦CNN模型进行了训练,该模型可上载到诸如ADV 101的ADV中,以生成实时高分辨率3-D点云。高分辨率3-D点云可通过从摄像机捕捉的光学图像和由低成本RADAR和/或LIDAR单元捕捉的低分辨率3-D点云推理深度图而实时的生成。应注意,神经网络/CRF模型124并不限于卷积神经网络和条件随机域(CRF)模型,而是可包括径向基函数网络模型、递归神经网络模型、Kohonen自组织网络模型等。神经网络/CRF模型124可包括不同的深度CNN模型,诸如LeNetTM、AlexNetTM、ZFNetTM、GoogLeNetTM、VGGNetTM或其组合。另外,激活层处可引入归一化层,以减少训练时间和增大收敛速率。另外,随机节点处可引入退出(dropout)层,以移除节点对激活层的贡献,从而防止训练数据的过度拟合。
图3是示出根据一个实施方式的与自动驾驶车辆一起使用的感知与规划系统的示例的框图。系统300可以被实施为图1的自动驾驶车辆101的一部分,包括但不限于感知与规划系统110、控制系统111和传感器系统115。参考图3,感知与规划系统110包括但不限于定位模块301、感知模块302、预测模块303、决策模块304、规划模块305、控制模块306以及高分辨率点云模块307。
模块301至307中的一些或全部可以以软件、硬件或其组合实施。例如,这些模块可以安装在永久性存储装置352中、加载到存储器351中,并且由一个或多个处理器(未示出)执行。应注意,这些模块中的一些或全部可以通信地联接到图2的车辆控制系统111的一些或全部模块或者与它们集成在一起。模块301至307中的一些可以一起集成为集成模块。
定位模块301确定自动驾驶车辆300(例如,利用GPS单元212)的当前位置。定位模块301(也被称为地图与路线模块)管理与用户的行程或路线相关的任何数据。用户可以例如经由用户接口登录并且指定行程的起始位置和目的地。定位模块301与自动驾驶车辆300的诸如地图和路线信息311的其它部件通信,以获得行程相关数据。例如,定位模块301可以从位置服务器和地图与POI(MPOI)服务器获得位置和路线信息。位置服务器提供位置服务,并且MPOI服务器提供地图服务和某些位置的POI,从而可以作为地图和路线信息311的一部分高速缓存。当自动驾驶车辆300沿着路线移动时,定位模块301也可以从交通信息系统或服务器获得实时交通信息。
基于由传感器系统115提供的传感器数据和由定位模块301获得的定位信息,感知模块302确定对周围环境的感知。感知信息可以表示普通驾驶员在驾驶员正驾驶的车辆周围将感知到的东西。感知可以包括例如采用对象形式的车道配置(例如,直线车道或弯曲车道)、交通灯信号、另一车辆的相对位置、行人、建筑物、人行横道或其它交通相关标志(例如,停止标志、让行标志)等。
感知模块302可以包括计算机视觉系统或计算机视觉系统的功能,以处理并分析由一个或多个摄像机采集的图像,从而识别自动驾驶车辆环境中的对象和/或特征。所述对象可以包括交通信号、道路边界、其它车辆、行人和/或障碍物等。计算机视觉系统可以使用对象识别算法、视频跟踪以及其它计算机视觉技术。在一些实施方式中,计算机视觉系统可以绘制环境地图,跟踪对象,以及估算对象的速度等。感知模块302也可以基于由诸如雷达和/或LIDAR的其它传感器提供的其它传感器数据来检测对象。
针对每个对象,预测模块303预测对象在这种情况下将如何表现。预测是基于感知数据执行的,该感知数据在考虑一组地图/路线信息311和交通规则312的时间点感知驾驶环境。例如,如果对象为相反方向上的车辆且当前驾驶环境包括十字路口,则预测模块303将预测车辆是否可能会笔直向前移动或转弯。如果感知数据表明十字路口没有交通灯,则预测模块303可能会预测车辆在进入十字路口之前可能需要完全停车。如果感知数据表明车辆目前处于左转唯一车道或右转唯一车道,则预测模块303可能预测车辆将更可能分别左转或右转。
针对每个对象,决策模块304作出关于如何处置对象的决定。例如,针对特定对象(例如,交叉路线中的另一车辆)以及描述对象的元数据(例如,速度、方向、转弯角度),决策模块304决定如何与所述对象相遇(例如,超车、让行、停止、超过)。决策模块304可以根据诸如交通规则或驾驶规则312的规则集来作出此类决定,所述规则集可以存储在永久性存储装置352中。
基于针对所感知到的对象中的每个的决定,规划模块305为自动驾驶车辆规划路径或路线以及驾驶参数(例如,距离、速度和/或转弯角度)。换言之,针对给定的对象,决策模块304决定对该对象做什么,而规划模块305确定如何去做。例如,针对给定的对象,决策模块304可以决定超过所述对象,而规划模块305可以确定在所述对象的左侧还是右侧超过。规划和控制数据由规划模块305生成,包括描述车辆300在下一移动循环(例如,下一路线/路径段)中将如何移动的信息。例如,规划和控制数据可以指示车辆300以30英里每小时(mph)的速度移动10米,随后以25mph的速度变到右侧车道。
基于规划和控制数据,控制模块306根据由规划和控制数据限定的路线或路径通过将适当的命令或信号发送到车辆控制系统111来控制并驾驶自动驾驶车辆。所述规划和控制数据包括足够的信息,以沿着路径或路线在不同的时间点使用适当的车辆设置或驾驶参数(例如,油门、制动和转弯命令)将车辆从路线或路径的第一点驾驶到第二点。
在一个实施方式中,规划阶段在多个规划周期(也称作为指令周期)中执行,例如,在每个时间间隔为100毫秒(ms)的周期中执行。对于规划周期或指令周期中的每一个,将基于规划和控制数据发出一个或多个控制指令。即,对于每100ms,规划模块305规划下一个路线段或路径段,例如,包括目标位置和ADV到达目标位置所需要的时间。可替代地,规划模块305还可规定具体的速度、方向和/或转向角等。在一个实施方式中,规划模块305为下一个预定时段(诸如,5秒)规划路线段或路径段。对于每个规划周期,规划模块305基于在前一周期中规划的目标位置规划用于当前周期(例如,下一个5秒)的目标位置。控制模块306然后基于当前周期的规划和控制数据生成一个或多个控制指令(例如,油门、制动、转向控制指令)。
应注意,决策模块304和规划模块305可以集成为集成模块。决策模块304/规划模块305可以包括导航系统或导航系统的功能,以确定自动驾驶车辆的驾驶路径。例如,导航系统可以确定用于实现自动驾驶车辆沿着以下路径移动的一系列速度和前进方向:所述路径在使自动驾驶车辆沿着通往最终目的地的基于车行道的路径前进的同时,基本上避免感知到的障碍物。目的地可以根据经由用户接口系统113进行的用户输入来设定。导航系统可以在自动驾驶车辆正在运行的同时动态地更新驾驶路径。导航系统可以将来自GPS系统和一个或多个地图的数据合并,以确定用于自动驾驶车辆的驾驶路径。
决策模块304/规划模块305还可以包括防撞系统或防撞系统的功能,以识别、评估并且避免或以其它方式越过自动驾驶车辆的环境中的潜在障碍物。例如,防撞系统可以通过以下方式实现自动驾驶车辆的导航中的变化:操作控制系统111中的一个或多个子系统来采取变向操纵、转弯操纵、制动操纵等。防撞系统可以基于周围的交通模式、道路状况等自动确定可行的障碍物回避操纵。防撞系统可以被配置成使得当其它传感器系统检测到位于自动驾驶车辆将变向进入的相邻区域中的车辆、建筑障碍物等时不采取变向操纵。防撞系统可以自动选择既可使用又使得自动驾驶车辆乘员的安全性最大化的操纵。防撞系统可以选择预测使得自动驾驶车辆的乘客舱中出现最小量的加速度的避让操纵。
高分辨率点云模块307基于摄像机捕捉的图像和由雷达和/或LIDAR单元捕捉的低分辨率3-D点云生成高分辨率3-D点云。高分辨率3-D点云可由感知模块302进行使用,以感知ADV的驾驶环境。这种图像/3-D点云可由传感器系统115集聚。点云模块307可对摄像机捕捉的图像和低分辨率LIDAR数据应用一个或多个CNN模型(作为神经网络/CRF模型313的一部分),以生成更高分辨率的LIDAR点云。应注意,点云模块307和感知模块302可集成为集成式模块。
图4是示出根据一个实施方式的与自动驾驶车辆一起使用的高分辨率点云生成器的示例的框图。高分辨率点云模块307包括上采样和/或修复模块401、下采样模块402、全景模块403、条件随机域(CRF)模块404和高分辨率深度图模块405。上采样和/或修复模块401可对输入图像上采样,即,使图像尺寸增大一个因子。修复模块可应用修复算法以恢复或重构图像的丢失部分或劣化部分,如深度图中由黑色对象引入的暗点。下采样模块402可对图像下采样,即,使图像尺寸减小一个因子。全景模块403可将较窄角度的图像转换成较宽角度视图的(例如,360度视图)全景图像,或反之亦然。例如,全景模块403可将透视图像的重叠视野首先映射到圆柱坐标或球形坐标中。然后,映射的图像混合和/或拼接在一起。此处,拼接的图像显示了对于圆柱坐标的更宽程度的水平视野和有限竖直视野,或者是对球形坐标的180度的竖直视野。该投影中的全景旨在被视为仿佛该图像被卷绕成圆柱体/球体进行察看并从内部进行察看。当在2D平面上察看时,水平线呈弯曲状,而竖直线仍是竖直的。CRF模块404可对CNN模型的输出和低分辨率深度图应用CRF(例如,优化模型)模型,以进一步细化深度图的估算。最后,高分辨率深度图模块405对RGB图像/LIDAR深度图像输入应用CNN模型,以生成高分辨率LIDAR深度图像。
模块401至405中的一些或全部可以在软件、硬件或其组合中实施。例如,这些模块可安装在永久性存储装置352中,加载到存储器351中,并且由一个或多个处理器(未示出)执行。应注意,这些模块中的一些或全部可以通信地联接至图2的车辆控制系统111中的一些或全部模块,或与图2的车辆控制系统111中的一些或全部模块集成在一起。模块401至405中的一些可集成在一起作为集成式模块。例如,上采样模块401和下采样模块402可与高分辨率深度图模块405集成在一起。
图5A是示出根据一个实施方式的示例性ADV的图示。参照图5A,ADV 101包括在顶部安装的LIDAR/全景摄像机配置501。在另一实施方式中,LIDAR/全景摄影机配置501可安装在ADV 101的引擎盖或车厢上,或ADV上适于放置这种传感器单元的任何地方。
图5B和图5C示出根据一些实施方式的LIDAR/全景摄影机配置的顶视图和侧视图。参照图5B,在一个实施方式中,配置501包括低清晰度或低分辨率LIDAR单元502和立体全景摄影机504(例如,多摄像机)。在一个实施方式中,LIDAR单元502可放置在摄像机单元504的顶部上。该单元可校准为具有相似的参考点,诸如中心竖直参考线(未示出),以便LIDAR和全景摄影机围绕参考线旋转。参照图5C,在一个实施方式中,配置501包括具有单色全景摄影机506的低分辨率LIDAR单元502。类似地,LIDAR单元502可放置在摄像机单元506的顶部上,并且这些单元可校准为具有相似的参考点,诸如中心竖直参考线(未示出),以便LIDAR和全景摄影机围绕该参考线旋转。应注意,低分辨率或低清晰度LIDAR单元是指与高分辨率LIDAR单元相比较捕捉稀疏的3-D点云或具有更少点的点云的LIDAR单元。与密集的3-D点云相比较,稀疏的3-D点云包含更少的深度数据或信息。作为示例性比较,与具有以每秒二百万点捕捉较宽角度视图的较多通道数(例如,64通道)的LIDAR单元相比较,具有以每秒300,000点捕捉较宽程度视图的16通道或更少通道的LIDAR单元可为低分辨率单元。
图5D示出根据一个实施方式的单色全景摄影机配置的顶视图和侧视图。在一个实施方式中,单色全景摄影机配置506包括放置为六边形形状的六个摄像机。六边形的中心可以是用于确定摄像机焦点、视野和视角的中心参考点。每个摄像机和其相邻的摄像机都可以放置成在水平视角中间隔约60度,以获得完全更宽的水平视角(例如,360度视图)。在一个实施方式中,六个摄像机中的每个都可以捕捉到视角约为120度水平角的图像,使得由左侧摄像机和右侧相邻的摄像机捕捉到的图像之间有大约30度的重叠。该重叠可用于将捕捉的图像混合和/或拼接在一起以生成全景图像。
具有生成的圆柱形或球形全景图像(例如,全景RGB图像)后,3-D点云可投影到(2-D)圆柱形或球形图像平面上,从而与圆柱形或球形全景RGB图像对齐。例如,3-D点可投影到如下所示的2–D圆柱形(或扭曲的)图像平面上。令(u,v)是扭曲的图像平面上的像素的位置。然后,2-D柱面上的像素位置将是(r,h),其中
或
以及f为摄像机焦距。相同的3-D点可投影到如下所示的2-D球形图像平面上。
令(u,v)是扭曲的图像平面上的像素的位置。然后,2-D球面上的像素位置将是(r,h),其中
或
以及f为摄像机焦距。为了从深度图重构点云,可通过将2-D全景深度图反投影到3-D空间上执行逆向转换。可基于全景表面的像素执行三角测量。在一个实施方式中,可从摄像机图像平面上的那些像素的位置直接执行三角测量。在一些实施方式中,更多的摄像机(诸如,三个至八个摄像机)可用于全景摄影机配置506。摄像机可分别以三角形、矩形、五边形或八边形的形状进行布置。
图5E和图5F示出根据一些实施方式的立体全景摄影机配置的示例。参照图5E,在一个实施方式中,立体全景摄影机配置514(例如,图5B的摄像机配置504)包括放置为六边形形状的十二个摄像机。六边形形状的中心可以是用于确定摄像机视角的中心参考点,并作为用于立体摄像机对建立立体全景图像的基线。每个立体成对的摄像机及其相邻的立体摄像机(左摄像机和右摄像机)可呈60度间隔开。
参照图5F,在一个实施方式中,立体全景摄影机配置524(例如,图5B的摄像机配置504)包括两个单色全景摄影机配置,每个均具有放置为六边形形状的六个摄像机。此处,立体全景摄影机配置不是左右立体成对,而是竖直的顶部和底部立体成对。捕捉的立体全景图像可投影到如上所示的柱面或球面上。由立体成对的摄像机捕捉的图像随后用作为高分辨率深度图模块的输入(与低分辨率LIDAR图像一起),诸如图4的高分辨率深度图模块405,以生成高分辨率深度图或LIDAR图像。
图6A和图6B分别示出根据一个实施方式的推理模式和训练模式的流程图。图6C和图6D分别示出根据一个实施方式的推理模式和训练模式的流程图。图6A和图6B涉及从摄像机图像构建单色或立体全景图像(通过图像混合和/或拼接技术),然后将全景图像与LIDAR图像熔合,以生成高分辨率全景深度/视差图。图6C和图6D涉及将摄像机图像与LIDAR图像熔合以生成高分辨率深度/视差图,然后将深度图混合和/或拼接在一起以生成全景深度图。
参照图6A,描述了根据一个实施方式的推理模式。过程600可以由处理逻辑执行,所述处理逻辑可以包括软件、硬件或其组合。例如,过程600可由自动驾驶车辆的点云模块执行,诸如图3的点云模块307。参照图6A,在框601处,处理逻辑校准或配置摄像机装置(例如,确定用于全景配置的参考中心,确定和/或调节摄像机的焦距)。在框603处,处理逻辑生成较宽角度(例如,360度)的立体或单色、圆柱形或球形的全景图像。在框605处,处理逻辑将LIDAR 3D点云投影到全景图像上,以生成深度网格或深度图。在框607处,基于深度网格和单色/立体全景图像,处理逻辑使用编码器-解码器网络611(例如,训练的CNN/CNN+CRF模型)执行推理,以生成全景深度图。在框609处,处理逻辑将全景深度图反投影回3-D空间以生成高分辨率点云。
参照图6B,通过过程620描述了根据一个实施方式的训练模式。过程620可以由处理逻辑执行,所述处理逻辑可以包括软件、硬件或其组合。例如,过程620可由机器学习引擎执行,诸如图1的服务器103的机器学习引擎122。对于该训练模式,收集了诸如高分辨率LIDAR点云和单色/立体RGB图像的训练数据。在框621处,根据数据图像源,处理逻辑校准或至少确定用于摄像机图像的摄像机焦距。在框623处,处理逻辑基于单色/立体图像生成全景图像。在框625处,处理逻辑将LIDAR点云投影到图像平面上和/或将LIDAR图像上采样为RGB图像比例。对于单色全景,编码器-解码器网络627学习从低分辨率深度全景推理高分辨率深度全景。对于立体全景,编码器-解码器网络627学习改善与低分辨率深度全景相匹配的立体全景,其中,低分辨率深度全景从低分辨率LIDAR 3-D点云投影得来。
参照图6C,描述了根据一个实施方式的推理模式。过程640可以由处理逻辑执行,所述处理逻辑可以包括软件、硬件或其组合。例如,过程640可由自动驾驶车辆的点云模块执行,诸如图3的点云模块307。参照图6C,在框641处,处理逻辑校准或配置摄像机装置(例如,确定用于全景配置的参考中心,确定和/或调节摄像机的焦距)。在框643处,处理逻辑预处理摄像机视图,诸如将摄像机视图扭曲成立体视图或非全景圆柱形视图/球形视图。在框645处,处理逻辑将低分辨率LIDAR 3D点云投影到摄像机图像上,以生成低分辨率深度网格或深度图。在框647处,基于深度网格和单色/立体全景图像,处理逻辑使用编码器649(例如,训练的CNN/CNN+CRF模型)执行推理,以生成高分辨率深度图。在框653处,处理逻辑基于校准信息651(诸如,校准信息641)生成较宽角度的全景深度图。在框655处,处理逻辑将全景深度图反投影回3-D空间以生成高分辨率点云。
参照图6D,通过过程660描述了根据一个实施方式的训练模式。过程660可以由处理逻辑执行,所述处理逻辑可以包括软件、硬件或其组合。例如,过程660可由机器学习引擎执行,诸如图1的服务器103的机器学习引擎122。对于该训练模式,收集了一组众所周知的训练数据,诸如高分辨率LIDAR点云和单色/立体RGB图像。在框661处,根据数据图像源,处理逻辑校准或至少确定用于摄像机图像的摄像机焦距。在框663处,处理逻辑基于单色/立体图像准备用于训练的摄像机图像。在框665处,处理逻辑将LIDAR点云投影到RGB图像的图像平面上和/或将LIDAR图像上采样为RGB图像比例。对于单色摄像机图像,编码器-解码器网络667学习从低分辨率深度全景推理高分辨率深度全景。对于立体摄像机图像,编码器-解码器网络667学习改善与低分辨率深度全景相匹配的立体全景,其中,低分辨率深度全景从低分辨率LIDAR 3-D点云投影得来。
编码器/解码器网络627(例如,CNN模型)的输出与预期结果相比较,以确定编码器/解码器网络627的输出与预期结果之间的差异是否低于预定阈值。如果差异超出预定阈值,则可通过修改该模型的某些参数或系数迭代地执行上述过程。可执行重复的过程,直到该差异降到低于预定阈值,此时,认为模型的最终产品已完成。然后,基于低分辨率点云和由一个或多个摄像机捕捉的图像,该模型在ADV中实时的使用以生成高分辨率点云。
图7A和图7B是示出根据一些实施方式的深度图生成的示例的框图。参照图7A,在一个实施方式中,深度图生成器700可以包括下采样模块402和CNN模型701。CNN模型701(作为神经网络/CRF模型313的一部分)可以包括收缩层(或编码器或卷积层)713和扩张层(或解码器或反卷积层)715。图7B示出另一示例性实施方式的深度图生成器720。深度图生成器700和720可由图4的深度图模块405执行。
参照图4和图7B,生成器720接收由第一摄像机捕捉的第一图像(例如,摄像机捕捉的图像703),该第一图像捕捉ADV的驾驶环境的一部分。第一图像可以是由摄像机装置捕捉的RGB图像。生成器720接收例如低分辨率LIDAR图像707的第二图像,该第二图像表示由激光雷达(LIDAR)装置产生的、与该驾驶环境的一部分相对应的第一点云的第一深度图。下采样模块402以预定的比例因子对第二图像(例如,图像707)下采样,直到第二图像的分辨率达到预定阈值。在一个实施方式中,对第二图像下采样,直到它是密集的,即,直到第二图像的两个相邻云点中的任一个中的重叠或“间隙”的量降到低于预定阈值。生成器720通过对第一图像(例如,图像703)和下采样的第二图像应用CNN模型701来生成第二深度图(例如,高分辨率深度图709),该第二深度图(例如,图像709)比第一深度图(例如,图像707)具有更高的分辨率,使得第二深度图(例如,图像709)表示感知ADV周围的驾驶环境的第二点云。应注意,术语“图像”通常指RGB图像或LIDAR图像。术语“深度图”或“LIDAR图像”是指映射到透视图像平面或全景图像平面上的3-D点云的2-D图像。“摄像机捕捉的图像”是指由针孔摄像机装置捕捉的光学图像。
在一个实施方式中,摄像机捕捉的图像703和LIDAR图像707是扭曲或投影到圆柱形或球形图像平面上的非全景图像。在另一实施方式中,摄像机捕捉的图像703和LIDAR图像707是全景图像,诸如圆柱形或球形全景图像。在另一实施方式中,摄像机捕捉的图像703和LIDAR图像707是透视图像。此处,对于该摄像机配置,透视图像可从来自单色/立体全景摄影机配置的单个摄像机集或任何单个摄像机生成。对于单色全景摄影机配置,该配置可包括大约在同时捕捉多个图像的多个摄像机,诸如图5C的配置506。图像将通过全景模块(诸如图4的全景模块403)扭曲并混合和/或拼接在一起,以生成圆柱形或球形全景图像。
对于LIDAR配置,LIDAR图像707通过将由LIDAR检测器捕捉的3-D点云从3-D空间/平面映射到2-D图像平面而生成。此处,图像707的2-D图像平面可以是与图像703相同的图像平面。在另一实施方式中,LIDAR图像707可以是与摄像机捕捉的透视图像703相对应的透视LIDAR图像。此处,可对若干透视的成对图像703和图像707连续地应用CNN模型701,以生成透视LIDAR图像。然后,生成的透视LIDAR图像可由全景模块(诸如,图4的全景模块403)拼接或混合在一起,以生成全景LIDAR图像。在另一实施方式中,生成器720可包括多个CNN模型,并且这些模型可同时地应用于多个透视的成对图像703和图像707,以生成多个透视LIDAR图像,从而进行全景图像生成。
参照图4和图7A,在另一实施方式中,生成器700接收第三图像,例如摄像机捕捉的图像705,该摄像机捕捉的图像705由第二摄像机捕捉。生成器700的高分辨率深度图模块(诸如,图4的高分辨率深度图模块405)通过对第一图像、第三图像和上采样的第二图像应用CNN模型来生成第二深度图。此处,图像703和图像705可以是左右立体图像(例如,由图5E的配置514捕捉的图像),或竖直的顶部和底部立体图像(例如,由图5F的配置524捕捉的图像)。尽管仅示出了摄像机捕捉的两个图像,但是还可将由更多摄像机捕捉的更多图像用作为CNN模型的输入。
图8是示出根据一个实施方式的CNN模型的收缩(例如,编码器/卷积)层和扩张(例如,解码器/反卷积)层的图示。CNN模型800接收摄像机图像801、低分辨率深度图像803,并输出高分辨率深度图像825。出于说明的目的,此处使用了单个RGB图像801。然而,还可以应用从多个摄像机捕捉的多个图像,例如,在立体配置中。应注意,在该申请中,RGB图像是指彩色图像。参照图8,摄像机图像801和低分辨率深度图像803可分别表示图7B的图像703和图像707。高分辨率图像825可表示图7B的图像709。CNN模型800可包括不同的层,诸如下采样层805、卷积层(807、809)、反卷积层(811、817)、预测层(813、819、823)和串接层(815、821)。
卷积层(作为图7的收缩层713的一部分)和反卷积层(作为图7的扩张层715的一部分)可以在单个管线中进行连接。卷积层或收缩层中的每个都可对前一输入层下采样,以及扩张层或反卷积层中的每个都可对前一输入层上采样。最后一层收缩层713(例如,层809)连接至第一层扩张层715(例如,层811),以形成单个管线。预测层(813、819、823)执行单通道深度图预测,并将该预测前馈给下一层。
预测层通过减小在训练过程中传播的误差而有助于使最终的CNN输出的估计误差最小化。预测层可以像具有以下的特征的卷积层那样实施:输出图像具有与输入图像相同图像尺寸的一个输出通道。然而,预测层可包括上采样函数,以对输出图像尺寸上采样,以便匹配下一层的图像尺寸。串接层(808、815、821)执行组合函数,该组合函数组合一个或多个图像,诸如,反卷积层、卷积层和/或预测层的输出图像。卷积层/反卷积层能够使CNN通过寻找低水平特征(诸如,边缘和弯曲)来执行图像分类,从而构建更高水平的特征。下采样是指将图像的高度和/或宽度除以一个因子,诸如因子2(即,图像尺寸减少了四倍)。上采样是指将图像的高度和/或宽度乘以一个因子,诸如因子2(即,图像尺寸增大了四倍)。
参照图8,出于说明的目的,在一个实施方式中,在立体配置中图像801可包括单色RGB摄像机图像(例如,组合的3通道、192像素×96像素的图像)或多个RGB图像。低分辨率深度图像803可包括单通道(即,灰度)48像素×24像素的LIDAR图像(即,图像803是图像801比例的四分之一)。卷积层807可接收图像801,并以因子2对图像801下采样,从而输出64通道、96像素×48像素的图像。随后的卷积层可对来自对应输入的图像以一个因子进行下采样,诸如因子2。
输入的LIDAR图像803可通过下采样805进行下采样,直到它是密集的。例如,如果在像素和输出中没有间隙或具有较少的间隙,则图像就是密集的,例如,512通道、24像素×12像素的图像。串接层808可对卷积层的对应输出(例如,512通道、24像素×12像素的图像)和下采样层805的输出(例如,512通道、24像素×12像素的图像)执行组合,以产生具有较高分辨率的组合图像(例如,1024通道、24像素×12像素的图像)。应注意,为了使下采样的摄像机图像与下采样的深度图像或深度图进行组合,两个图像的尺寸或维度必须相匹配。根据已进行下采样的深度图像层的尺寸或维度,使用与深度图像的尺寸相匹配的对应卷积层将两个图像组合。卷积层809例如可具有1024通道、24像素×12像素的图像作为输入,以及2048通道、12像素×6像素的图像作为输出。
反卷积层811可具有2048通道、12像素×6像素的图像作为输入,以及1024通道、24像素×12像素的图像作为输出。预测层813可以以因子2对输入进行上采样,并且可具有2048通道、12像素×6像素的图像作为输入,以及1通道、24像素×12像素的图像作为输出。串接层815可具有三个输入,这三个输入具有相匹配的图像尺寸,诸如,来自卷积层809的输入(例如,1024通道、24像素×12像素的图像)、来自预测813的输出(例如,1通道、24像素×12像素的图像)以及来自反卷积层811的输出(例如,1024通道、24像素×12像素的图像)。因此,串接层815可输出2049通道、24像素×12像素的图像。
反卷积层817可具有1024通道、48像素×24像素的图像作为输入,以及512通道、96像素×48像素的图像作为输出。预测层819可以以因子2对先前的输入进行上采样,并且可具有1024通道、48像素×24像素的图像作为输入,以及1通道、96像素×48像素的图像作为输出。串接821可具有三个输入:来自卷积层的前馈(例如,64通道、96像素×48像素的图像)、来自预测层819的输出(例如,1通道、96像素×48像素的图像)以及来自反卷积层817的输出(例如,512通道、96像素×48像素的图像)。然后,串接821将这些输入进行组合,并输出577通道、96像素×48像素的图像。预测层823可以以因子2对输入进行上采样,并且可具有577通道、96像素×48像素的图像作为输入,以及输出1通道、96像素×48像素的深度图像作为输出825。应注意,在一些实施方式中,卷积层可配置成在随机层处的前馈。在一些实施方式中,卷积层之间插入有池化(pooling)层,以及反卷积层之间插入有上池化(unpooling)层。应注意,图8示出了一个CNN模型实施方式,但不应解释为限制。例如,在一些实施方式中,CNN模型可包括不同的激活函数(例如,ReLU、反曲、阶跃、双曲正切等)、退出层和归一化层等。
图9A和图9B是示出根据一些实施方式的高分辨率深度图生成的示例的框图。图9A的全景转换器903和地图生成器905可分别表示图6A的编码器-解码器网络611和全景生成603。图9B的全景转换器903和地图生成器905共同地可分别表示图6C的编码器-解码器网络649和全景生成653。高分辨率深度图生成器905可由高分辨率深度图模块405执行,以及全景生成器903可由图4的全景模块403执行。参照图9A,高分辨率深度图生成器905的输入联接至全景转换器903的输出。此处,输入901,诸如图7A的摄像机捕捉的图像703和705以及图7A的低分辨率LIDAR图像707,可由全景转换器903转换为全景图像。生成器905接收全景图像并生成输出905,例如生成高分辨率深度图,诸如图7A的LIDAR图像709。在该配置中,输入图像通过混合在一起进行组合,以在馈送给CNN模型之前生成全景图像,从而生成高分辨率深度图。
参照图9B,在一个实施方式中,高分辨率深度图生成器905的输出联接至全景转换器903的输入。此处,输入901,诸如图7A的摄像机捕捉的图像703和705以及图7A的低分辨率LIDAR图像707,可由生成器905通过CNN模型(作为高分辨率深度图生成器905的一部分)进行应用。输出的深度图由全景转换器903接收。转换器903将生成器905的输出转换为全景深度图,例如,输出907。在该示例中,由摄像机捕捉的原始图像馈送到CNN模型中,以分别生成单独的高分辨率深度图。然后,各个深度图通过混合而组合成高分辨率全景深度图。
图10是示出根据一个实施方式的方法的流程图。过程1000可以由处理逻辑执行,所述处理逻辑可以包括软件、硬件或其组合。例如,过程1000可由自动驾驶车辆的点云模块执行,诸如图3的点云模块307。参照图10,在框1001处,处理逻辑接收由第一摄像机捕捉的第一图像,该第一图像捕捉ADV的驾驶环境的一部分。在框1002处,处理逻辑接收第二图像,该第二图像表示由LIDAR装置产生的、与该驾驶环境的一部分相对应的第一点云的第一深度图。在框1003处,处理逻辑以预定的比例因子对第二图像下采样,直到第二图像的分辨率达到预定的阈值。在框1004处,处理逻辑通过对第一图像和下采样的第二图像应用卷积神经网络(CNN)模型生成第二深度图,第二深度图比第一深度图具有更高的分辨率,使得第二深度图表示感知ADV周围的驾驶环境的第二点云。
在一个实施方式中,处理逻辑接收由第二摄像机捕捉的第三图像,并通过对第一图像、第三图像和下采样的第二图像应用CNN模型来生成第二深度图。在一个实施方式中,第一图像包括圆柱形全景图像或球形全景图像。在另一实施方式中,圆柱形全景图像或球形全景图像是基于由若干摄像机装置捕捉的若干图像生成的。在另一实施方式中,处理逻辑通过将第二深度图投影到基于圆柱形全景图像或球形全景图像的3-D空间中来重构第二点云。
在一个实施方式中,处理逻辑将下采样的第二图像映射到第一图像的图像平面上。在一个实施方式中,第二深度图是通过将一个或多个生成的深度图进行混合而生成,使得第二深度图是全景图。
在一个实施方式中,CNN模型包括收缩层和扩张层,其中,每个收缩层均包括编码器以对相应的输入进行下采样,以及扩张层联接至收缩层,每个扩张层均包括解码器以对相应的输入进行上采样。在一个实施方式中,收缩层的信息前馈给扩张层,例如,收缩层的输出前馈给具有相匹配的图像尺寸或维度的扩张层的输入。在一个实施方式中,扩张层中的每个均包括预测层,以预测用于后续层的深度图。
图11A和图11B是示出根据一些实施方式的深度图生成的示例的框图。参照图11A,在一个实施方式中,深度图生成器1100可以包括上采样/修复模块401和CNN模型701。CNN模型701(作为神经网络/CRF模型313的一部分)可以包括收缩层(或编码器或卷积层)713和扩张层(或解码器或反卷积层)715。图11B示出另一示例性实施方式的深度图生成器1120。深度图生成器1100和1120可由图4的深度图模块405执行。
参照图4和图11B,生成器1120接收由第一摄像机捕捉的第一图像(例如,摄像机捕捉的图像703),该第一图像捕捉ADV的驾驶环境的一部分。生成器1120接收例如低分辨率LIDAR图像707的第二图像,该第二图像表示由激光雷达(LIDAR)装置产生的、与该驾驶环境的一部分相对应的第一点云的第一深度图。上采样/修复模块401以预定的比例因子对第二图像(例如,图像707)上采样,以将图像707匹配为图像703的图像比例。在一个实施方式中,对上采样的第二图像应用算法地修复函数,以恢复图像的任何缺失部分,例如,修复上采样的图像的背景部分。修复是对图像的丢失或劣化部分进行恢复或重构的过程。在另一实施方式中,修复算法可包括将LIDAR捕捉的图像与在前一时间帧中捕捉的LIDAR图像进行比较。生成器1120通过对第一图像(例如,图像703)和上采样的和/或修复的第二图像应用CNN模型701来生成第二深度图(例如,高分辨率深度图709),其中,第二深度图(例如,图像709)比第一深度图(例如,图像707)具有更高的分辨率,使得第二深度图(例如,图像709)表示感知ADV周围的驾驶环境的第二点云。
在一个实施方式中,摄像机捕捉的图像703和LIDAR图像707是全景图像,诸如圆柱形或球形全景图像。在另一实施方式中,摄像机捕捉的图像703和LIDAR图像707是透视图像。此处,对于该摄像机配置,透视图像可从来自单色/立体全景摄影机配置的单个摄像机集或单个摄像机生成。对于单色全景摄影机配置,该配置可包括大约在同时捕捉多个图像的多个透视摄像机,诸如,图5C的配置506。图像将通过全景模块混合或拼接在一起,诸如图4的全景模块403,以生成全景图像。
对于LIDAR配置,LIDAR图像707通过以下步骤生成:将由LIDAR检测器捕捉的3-D点云从3-D空间/平面映射,接着是3-D点云到2-D图像平面的转换。此处,图像707的2-D图像平面可以是与图像703相同的图像平面。在另一实施方式中,LIDAR图像707可以是与摄像机捕捉的透视图像703相对应的透视LIDAR图像。此处,可对若干透视的成对图像703和图像707连续地应用CNN模型701,以生成透视LIDAR图像。然后,生成的透视LIDAR图像可通过全景模块(诸如,图4的全景模块403)拼接或混合在一起,以生成全景LIDAR图像。在另一实施方式中,生成器1120可包括多个CNN模型,并且这些模型可同时地应用于多个透视的成对图像703和图像707,以生成多个透视LIDAR图像,从而进行全景图像生成。
参照图4和图11A,在另一实施方式中,生成器1100接收第三图像,例如摄像机捕捉的图像705,该摄像机捕捉的图像705由第二摄像机捕捉。生成器1100通过对第一图像、第三图像和上采样的和/或修复的第二图像应用CNN模型来生成第二深度图。此处,图像703和图像705可以是左右立体图像(例如,由图5E的配置514捕捉的图像),或竖直的顶部和底部立体图像(例如,由图5F的配置524捕捉的图像)。
图12是示出根据一个实施方式的CNN模型的收缩(例如,编码器/卷积)层和扩张(例如,解码器/反卷积)层的图示。CNN模型1200接收摄像机图像801、低分辨率深度图像803并输出高分辨率深度图像825。摄像机图像801和低分辨率深度图像803可分别是图11B的图像703和图像707。高分辨率深度图像825可以是图11B的图像709。CNN模型1200可包括不同的层,诸如上采样层1203、卷积层(807、809)、反卷积层(811、817)、预测层(813、819、823)和串接层(815、821)。图12在大多数方面与图8相类似,除了在CNN模型的输入层处应用LIDAR图像(例如,低分辨率深度图像803)以及串接层(例如,图8的层808)可省略之外。
参照图12,例如,摄像机图像801可包括单色RGB摄像机图像(例如,3通道、192像素×96像素)。低分辨率深度图像803可包括单通道(即,灰度)48像素×24像素的LIDAR图像(即,图像803是图像801比例的四分之一)。上采样层1203以比例因子(即,四)对图像803上采样,以便匹配图像801的图像比例,并输出一个通道、192像素×96像素的图像。上采样层1203可包括修复层,使得可应用修复算法以重构缺失的像素,其中,缺失的像素可以通过由LIDAR检测器感知的暗点/人工因素引入,诸如凹坑、阴影和/或天气现象。该上采样的/修复的图像在其由卷积层807接收之前,与单色RGB摄像机图像进行组合(将图像通道加在一起)。例如,层807的输入图像可以是具有4通道、192像素×96像素尺寸的图像。
图13是示出根据一个实施方式的方法的流程图。过程1300可以由处理逻辑执行,所述处理逻辑可以包括软件、硬件或其组合。例如,过程1300可由自动驾驶车辆的点云模块执行,诸如图3的点云模块307。参照图13,在框1301处,处理逻辑接收由第一摄像机捕捉的第一图像,该第一图像捕捉ADV的驾驶环境的一部分。在框1302处,处理逻辑接收第二图像,该第二图像表示由激光雷达(LIDAR)装置产生的、与该驾驶环境的一部分相对应的第一点云的第一深度图。在框1303处,处理逻辑以预定的比例因子对第二图像上采样,以匹配第一图像的图像比例。在框1304处,处理逻辑通过对第一图像和上采样的第二图像应用卷积神经网络(CNN)模型来生成第二深度图,该第二深度图比第一深度图具有更高的分辨率,使得第二深度图表示用于感知ADV周围的驾驶环境的第二点云。
在一个实施方式中,处理逻辑接收由第二摄像机捕捉的第三图像,并通过对第一图像、第三图像和上采样的第二图像应用CNN模型来生成第二深度图。在一个实施方式中,第一图像包括圆柱形全景图像或球形全景图像。在另一实施方式中,圆柱形全景图像或球形全景图像是基于由若干摄像机装置捕捉的若干图像生成的。在另一实施方式中,处理逻辑通过将第二深度图投影到基于圆柱形全景图像或球形全景图像的3-D空间中来重构第二点云。
在一个实施方式中,处理逻辑将上采样的第二图像映射到第一图像的图像平面上。在一个实施方式中,第二深度图是通过将一个或多个生成的深度图进行混合而生成,使得第二深度图是全景图。
在一个实施方式中,CNN模型包括收缩层和扩张层,其中,每个收缩层均包括编码器以对相应的输入进行下采样,以及扩张层联接至收缩层,每个扩张层均包括解码器以对相应的输入进行上采样。在一个实施方式中,收缩层的信息前馈给扩张层。在一个实施方式中,扩张层中的每个均包括预测层,以预测用于后续层的深度图。在一个实施方式中,对第二图像上采样包括修复第二图像。
图14A和图14B是示出根据一些实施方式的卷积神经网络模型的示例的框图。参照图14A,在一个实施方式中,深度图生成器1400可以包括上采样模块1401和CNN模型701。CNN模型701(作为神经网络/CRF模型313的一部分)可以包括收缩层(或编码器或卷积层)713和扩张层(或解码器或反卷积层)715。图14B示出另一示例性实施方式的深度图生成器1420。深度图生成器1400和1420可由图4的深度图模块405执行。
参照图4和图14B,生成器1420接收由第一摄像机捕捉的第一图像(例如,摄像机捕捉的图像703),该第一图像捕捉ADV的驾驶环境的一部分。生成器1420接收例如低分辨率LIDAR图像707的第二图像,该第二图像表示由激光雷达(LIDAR)装置产生的、与该驾驶环境的一部分相对应的第一点云的第一深度图。上采样模块1401以预定的比例因子对第二图像(例如,图像707)上采样,以匹配CNN模型701的输出图像的图像比例。生成器1420通过对第一图像(例如,图像703)应用CNN模型701来确定第二深度图(例如,CNN模型701的输出图像)。生成器1420通过对第一图像(例如,图像703)、第二图像(例如,图像707)和第二深度图(例如,CNN模型701的输出图像)应用条件随机域(CRF)模型(由CRF 1403执行,即图4的CRF404)来生成第三深度图,该第三深度图比第一深度图具有更高的分辨率,使得第三深度图表示用于感知ADV周围的驾驶环境的第二点云。
可使用诸如CRF的优化模型来细化深度/视差的估计。根据一个方面,端对端CNN模型包括CRF模型,该CRF模型包括三个成本项以优化(或最小化)总成本函数。例如,CRF成本函数可以是:
CRF(x)=∑i∈Vfi(xi)+∑ij∈Ufij(xij)+∑k∈Wgk(xk),
其中,xi是第i个像素的视差值,V是所有像素的集合,U是一组图像边缘,以及W是LIDAR图像的网格点的集合。前两项(例如,fi(xi)和fij(xij))可分别是立体匹配成本的一元项和估计对比敏感边缘权重的平滑的成对的项(即,图像像素平滑度/不连续性)。
例如,CNN-CRF模型可配置成使得一元项可基于立体左RGB图像和立体右RGB图像(诸如,图14A的图像703和图像705)的相关性(例如,基于图14A的CNN模型701的输出)进行确定,即立体匹配成本。在替代方案中,CNN-CRF模型可配置成使得一元项可基于第i个像素的视差值的“信息增益”(即,基于图14B的CNN模型701的输出)进行确定,其中,该第i个像素的视差值的“信息增益”具有来自应用于单色(或单目)RGB图像(诸如,图14B的图像703)的所有其它视差值的贡献。
平滑成对的项可基于任一对像素的表示所估计的深度图的平滑度/不连续性的视差值(例如,基于CNN模型701的输出)进行确定。这种成本项的示例在Knobelreiter等人的“End-to-End Training of Hybrid CNN-CRF Models for Stereo(对混合式立体CNN-CRF模型的端对端训练)”(2016年11月)中进行了限定,该文献的内容通过引用以其整体并入本文中。在替代实施方式中,成本项可以是在Cao等人的“Estimating Depth from MonocularImages as Classification Using Deep Fully Convolutional Residual Networks(使用深度完全卷积残余网络估计单目图像的深度进行分类)”(2016年5月)中限定的信息增益,该文献的内容通过引用以其整体并入本文中。第三项(例如,g(x))可以是成本项,该成本项表示所估计的LIDAR图像相对于低分辨率LIDAR图像的误差项(即,基于图14A至图14B的CNN模型701的输出和上采样1401的输出)。
在一个实施方式中,g(x)可限定为:
其中,阈值是诸如1.0或2.0的预定阈值,xi是第i个像素的视差值,以及dk是低分辨率LIDAR图像的视差值。应注意,f(x)和g(x)项可包括基于输入图像703的权重项,这些权重项逐像素的应用于输入图像,以突出图像的对比度。例如,CRF 1403可基于图14A至图14B的输入的RGB图像703对f(x)和/或g(x)应用权重项。
在一个实施方式中,摄像机捕捉的图像703和LIDAR图像707是全景图像,诸如圆柱形或球形全景图像。在另一实施方式中,摄像机捕捉的图像703和LIDAR图像707是透视图像。要捕捉图像703的摄像机配置可包括图5D至图5F的摄像机配置的任何摄像机。
对于LIDAR配置,LIDAR图像707通过以下步骤生成:将由LIDAR检测器捕捉的3-D点云从3-D空间/平面映射,接着是3-D点云到2-D图像平面的转换。此处,图像707的2-D图像平面可以是与图像703相同的图像平面。在另一实施方式中,LIDAR图像707可以是与摄像机捕捉的透视图像703相对应的透视LIDAR图像。如先前所描述的,可对若干透视的成对图像703和图像707连续地应用CNN模型701,以生成透视LIDAR图像。在另一实施方式中,可对多个透视的成对图像703和图像707同时地应用若干CNN模型,以生成多个透视LIDAR图像,从而进行全景图像生成。
参照图4和图14A,在另一实施方式中,生成器1400接收第三图像,例如摄像机捕捉的图像705,该摄像机捕捉的图像705由第二摄像机捕捉。生成器1400通过对第一图像和第三图像应用CNN模型来确定第二深度图。通过CRF 1403对第二深度图应用CRF模型,以生成第三深度图。此处,图像703和图像705可以是左右立体图像(例如,由图5E的配置514捕捉的图像),或竖直的顶部和底部立体图像(例如,由图5F的配置524捕捉的图像)。
图15是示出根据一个实施方式的方法的流程图。过程1550可以由处理逻辑执行,所述处理逻辑可以包括软件、硬件或其组合。例如,过程1550可由自动驾驶车辆的点云模块执行,诸如图3的点云模块307。参照图15,在框1551处,处理逻辑接收由第一摄像机捕捉的第一图像,该第一图像捕捉ADV的驾驶环境的一部分。在框1552处,处理逻辑接收第二图像,该第二图像表示由激光雷达(LIDAR)装置产生的、与该驾驶环境的一部分相对应的第一点云的第一深度图。在框1553处,处理逻辑通过对第一图像应用卷积神经网络(CNN)模型来确定第二深度图。在框1554处,处理逻辑通过对第一图像、第二图像和第二深度图应用条件随机域函数来生成第三深度图,该第三深度图比第一深度图具有更高的分辨率,使得第三深度图表示感知ADV周围的驾驶环境的第二点云。
在一个实施方式中,处理逻辑接收由第二摄像机捕捉的第三图像,并通过对第一图像和第三图像应用CNN模型来生成第三深度图。在一个实施方式中,第一图像包括圆柱形全景图像或球形全景图像。在另一实施方式中,圆柱形全景图像或球形全景图像是基于由若干摄像机装置捕捉的若干图像生成的。在另一实施方式中,处理逻辑通过将第三深度图投影到基于圆柱形全景图像或球形全景图像的3-D空间中来重构第二点云。
在一个实施方式中,处理逻辑将第三图像映射到第一图像的图像平面上。在一个实施方式中,第三深度图是通过将一个或多个生成的深度图进行混合而生成,使得第三深度图是全景图。
在一个实施方式中,CNN模型包括收缩层和扩张层,其中,每个收缩层均包括编码器以对相应的输入进行下采样,以及扩张层联接至收缩层,每个扩张层均包括解码器以对相应的输入进行上采样。在一个实施方式中,收缩层的信息前馈给扩张层。在一个实施方式中,扩张层中的每个均包括预测层,以预测用于后续层的深度图。
应注意,如上文示出和描述的部件中的一些或全部可以在软件、硬件或其组合中实施。例如,此类部件可以实施为安装并存储在永久性存储装置中的软件,所述软件可以通过处理器(未示出)加载在存储器中并在存储器中执行以实施贯穿本申请所述的过程或操作。替代地,此类部件可以实施为编程或嵌入到专用硬件(诸如,集成电路(例如,专用集成电路或ASIC)、数字信号处理器(DSP)或现场可编程门阵列(FPGA))中的可执行代码,所述可执行代码可以经由来自应用的相应驱动程序和/或操作系统来访问。此外,此类部件可以实施为处理器或处理器内核中的特定硬件逻辑,作为可由软件部件通过一个或多个特定指令访问的指令集的一部分。
图16是示出可以与本公开的一个实施方式一起使用的数据处理系统的示例的框图。例如,系统1500可以表示以上所述的执行上述过程或方法中的任一个的任何数据处理系统,例如,图1的感知与规划系统110或者服务器103至104中的任一个。系统1500可以包括许多不同的部件。这些部件可以实施为集成电路(IC)、集成电路的部分、分立电子装置或适用于电路板(诸如,计算机系统的主板或插入卡)的其它模块或者实施为以其它方式并入计算机系统的机架内的部件。
还应注意,系统1500旨在示出计算机系统的许多部件的高阶视图。然而,应当理解的是,某些实施例中可以具有附加的部件,此外,其它实施例中可以具有所示部件的不同布置。系统1500可以表示台式计算机、膝上型计算机、平板计算机、服务器、移动电话、媒体播放器、个人数字助理(PDA)、智能手表、个人通信器、游戏装置、网络路由器或集线器、无线接入点(AP)或中继器、机顶盒或其组合。此外,虽然仅示出了单个机器或系统,但是术语“机器”或“系统”还应当被理解为包括单独地或共同地执行一个(或多个)指令集以执行本文所讨论的任何一种或多种方法的机器或系统的任何集合。
在一个实施方式中,系统1500包括通过总线或互连件1510连接的处理器1501、存储器1503以及装置1505至1508。处理器1501可以表示其中包括单个处理器内核或多个处理器内核的单个处理器或多个处理器。处理器1501可以表示一个或多个通用处理器,诸如,微处理器、中央处理单元(CPU)等。更具体地,处理器1501可以是复杂指令集计算(CISC)微处理器、精简指令集计算(RISC)微处理器、超长指令字(VLIW)微处理器、或实施其它指令集的处理器、或实施指令集组合的处理器。处理器1501还可以是一个或多个专用处理器,诸如,专用集成电路(ASIC)、蜂窝或基带处理器、现场可编程门阵列(FPGA)、数字信号处理器(DSP)、网络处理器、图形处理器、通信处理器、加密处理器、协处理器、嵌入式处理器、或者能够处理指令的任何其它类型的逻辑。
处理器1501(其可以是低功率多核处理器套接口,诸如超低电压处理器)可以充当用于与所述系统的各种部件通信的主处理单元和中央集线器。这种处理器可以实施为片上系统(SoC)。处理器1501被配置成执行用于执行本文所讨论的操作和步骤的指令。系统1500还可以包括与可选的图形子系统1504通信的图形接口,图形子系统1504可以包括显示控制器、图形处理器和/或显示装置。
处理器1501可以与存储器1503通信,存储器1503在一个实施方式中可以经由多个存储器装置实施以提供给定量的系统存储。存储器1503可以包括一个或多个易失性存储(或存储器)装置,诸如,随机存取存储器(RAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、静态RAM(SRAM)或者其它类型的存储装置。存储器1503可以存储包括由处理器1501或任何其它装置执行的指令序列的信息。例如,各种操作系统、装置驱动程序、固件(例如,输入输出基本系统或BIOS)和/或应用的可执行代码和/或数据可以加载到存储器1503中并由处理器1501执行。操作系统可以是任何类型的操作系统,例如,机器人操作系统(ROS)、来自公司的操作系统、来自苹果公司的Mac /来自公司的LINUX、UNIX,或者其它实时或嵌入式操作系统。
系统1500还可以包括I/O装置,诸如装置1505至1508,包括网络接口装置1505、可选的输入装置1506,以及其它可选的I/O装置1507。网络接口装置1505可以包括无线收发器和/或网络接口卡(NIC)。所述无线收发器可以是WiFi收发器、红外收发器、蓝牙收发器、WiMax收发器、无线蜂窝电话收发器、卫星收发器(例如,全球定位系统(GPS)收发器)或其它射频(RF)收发器或者它们的组合。NIC可以是以太网卡。
输入装置1506可以包括鼠标、触摸板、触敏屏幕(其可以与显示装置1504集成在一起)、指针装置(诸如,手写笔)和/或键盘(例如,物理键盘或作为触敏屏幕的一部分显示的虚拟键盘)。例如,输入装置1506可以包括联接到触摸屏的触摸屏控制器。触摸屏和触摸屏控制器例如可以使用多种触敏技术(包括但不限于电容、电阻、红外和表面声波技术)中的任一种,以及其它接近传感器阵列或用于确定与触摸屏接触的一个或多个点的其它元件来检测其接触和移动或间断。
I/O装置1507可以包括音频装置。音频装置可以包括扬声器和/或麦克风,以促进支持语音的功能,诸如语音识别、语音复制、数字记录和/或电话功能。其它I/O装置1507还可以包括通用串行总线(USB)端口、并行端口、串行端口、打印机、网络接口、总线桥(例如,PCI-PCI桥)、传感器(例如,诸如加速度计运动传感器、陀螺仪、磁强计、光传感器、罗盘、接近传感器等)或者它们的组合。装置1507还可以包括成像处理子系统(例如,摄像机),所述成像处理子系统可以包括用于促进摄像机功能(诸如,记录照片和视频片段)的光学传感器,诸如电荷耦合装置(CCD)或互补金属氧化物半导体(CMOS)光学传感器。某些传感器可以经由传感器集线器(未示出)联接到互连件1510,而诸如键盘或热传感器的其它装置可以根据系统1500的具体配置或设计由嵌入式控制器(未示出)控制。
为了提供对诸如数据、应用、一个或多个操作系统等信息的永久性存储,大容量存储设备(未示出)也可以联接到处理器1501。在各种实施方式中,为了实现更薄且更轻的系统设计并且改进系统响应性,这种大容量存储设备可以经由固态装置(SSD)来实施。然而,在其它实施方式中,大容量存储设备可以主要使用硬盘驱动器(HDD)来实施,其中较小量的SSD存储设备充当SSD高速缓存以在断电事件期间实现上下文状态以及其它此类信息的非易失性存储,从而使得在系统活动重新启动时能够实现快速通电。另外,闪存装置可以例如经由串行外围接口(SPI)联接到处理器1501。这种闪存装置可以提供系统软件的非易失性存储,所述系统软件包括所述系统的BIOS以及其它固件。
存储装置1508可以包括计算机可访问的存储介质1509(也被称为机器可读存储介质或计算机可读介质),其上存储有体现本文所述的任何一种或多种方法或功能的一个或多个指令集或软件(例如,模块、单元和/或逻辑1528)。处理模块/单元/逻辑1528可以表示上述部件中的任一个,例如规划模块305、控制模块306和高分辨率点云模块307。处理模块/单元/逻辑1528还可以在其由数据处理系统1500、存储器1503和处理器1501执行期间完全地或至少部分地驻留在存储器1503内和/或处理器1501内,数据处理系统1500、存储器1503和处理器1501也构成机器可访问的存储介质。处理模块/单元/逻辑1528还可以通过网络经由网络接口装置1505进行传输或接收。
计算机可读存储介质1509也可以用来永久性地存储以上描述的一些软件功能。虽然计算机可读存储介质1509在示例性实施方式中被示为单个介质,但是术语“计算机可读存储介质”应当被认为包括存储所述一个或多个指令集的单个介质或多个介质(例如,集中式或分布式数据库和/或相关联的高速缓存和服务器)。术语“计算机可读存储介质”还应当被认为包括能够存储或编码指令集的任何介质,所述指令集用于由机器执行并且使得所述机器执行本公开的任何一种或多种方法。因此,术语“计算机可读存储介质”应当被认为包括但不限于固态存储器以及光学介质和磁性介质,或者任何其它非暂时性机器可读介质。
本文所述的处理模块/单元/逻辑1528、部件以及其它特征可以实施为分立硬件部件或集成在硬件部件(诸如,ASIC、FPGA、DSP或类似装置)的功能中。此外,处理模块/单元/逻辑1528可以实施为硬件装置内的固件或功能电路。此外,处理模块/单元/逻辑1528可以以硬件装置和软件部件的任何组合来实施。
应注意,虽然系统1500被示出为具有数据处理系统的各种部件,但是并不旨在表示使部件互连的任何特定架构或方式;因为此类细节和本公开的实施方式没有密切关系。还应当认识到,具有更少部件或可能具有更多部件的网络计算机、手持计算机、移动电话、服务器和/或其它数据处理系统也可以与本公开的实施方式一起使用。
前述详细描述中的一些部分已经根据在计算机存储器内对数据位的运算的算法和符号表示而呈现。这些算法描述和表示是数据处理领域中的技术人员所使用的方式,以将他们的工作实质最有效地传达给本领域中的其他技术人员。本文中,算法通常被认为是导致所期望结果的自洽操作序列。这些操作是指需要对物理量进行物理操控的操作。
然而,应当牢记,所有这些和类似的术语均旨在与适当的物理量关联,并且仅仅是应用于这些量的方便标记。除非在以上讨论中以其它方式明确地指出,否则应当了解,在整个说明书中,利用术语(诸如所附权利要求书中所阐述的术语)进行的讨论是指计算机系统或类似电子计算装置的动作和处理,所述计算机系统或电子计算装置操控计算机系统的寄存器和存储器内的表示为物理(电子)量的数据,并将所述数据变换成计算机系统存储器或寄存器或者其它此类信息存储设备、传输或显示装置内类似地表示为物理量的其它数据。
本公开的实施方式还涉及用于执行本文中的操作的设备。这种计算机程序被存储在非暂时性计算机可读介质中。机器可读介质包括用于以机器(例如,计算机)可读的形式存储信息的任何机构。例如,机器可读(例如,计算机可读)介质包括机器(例如,计算机)可读存储介质(例如,只读存储器(“ROM”)、随机存取存储器(“RAM”)、磁盘存储介质、光存储介质、闪存存储器装置)。
前述附图中所描绘的过程或方法可以由处理逻辑来执行,所述处理逻辑包括硬件(例如,电路、专用逻辑等)、软件(例如,体现在非暂时性计算机可读介质上)或两者的组合。尽管所述过程或方法在上文是依据一些顺序操作来描述的,但是应当了解,所述操作中的一些可以按不同的顺序执行。此外,一些操作可以并行地执行而不是顺序地执行。
本公开的实施方式并未参考任何特定的编程语言进行描述。应认识到,可以使用多种编程语言来实施如本文描述的本公开的实施方式的教导。
在以上的说明书中,已经参考本发明的具体示例性实施方式对本公开的实施方式进行了描述。将显而易见的是,在不脱离所附权利要求书中阐述的本公开的更宽泛精神和范围的情况下,可以对本发明作出各种修改。因此,应当在说明性意义而不是限制性意义上来理解本说明书和附图。
Claims (21)
1.一种用于操作自动驾驶车辆的计算机实施的方法,所述方法包括:
接收由第一摄像机捕捉的第一图像,所述第一图像捕捉所述自动驾驶车辆的驾驶环境的一部分;
接收第二图像,所述第二图像表示由激光雷达装置产生的、与所述驾驶环境的一部分相对应的第一点云的第一深度图;
以预定的比例因子对所述第二图像上采样,以匹配所述第一图像的图像比例;以及
通过对所述第一图像和上采样的第二图像应用卷积神经网络模型来生成第二深度图,所述第二深度图比所述第一深度图具有更高的分辨率,其中,所述第二深度图表示用于感知所述自动驾驶车辆周围的所述驾驶环境的第二点云。
2.根据权利要求1所述的方法,还包括:
接收由第二摄像机捕捉的第三图像;以及
通过对所述第一图像、所述第三图像和所述上采样的第二图像应用所述卷积神经网络模型来生成所述第二深度图。
3.根据权利要求1所述的方法,其中,所述第一图像包括圆柱形全景图像或球形全景图像。
4.根据权利要求3所述的方法,其中,所述圆柱形全景图像或所述球形全景图像是基于由多个摄像机捕捉的多个图像生成的。
5.根据权利要求3所述的方法,还包括:
通过将所述第二深度图投影到基于所述圆柱形全景图像或所述球形全景图像的3-D空间中来重构所述第二点云。
6.根据权利要求1所述的方法,还包括:
将所述上采样的第二图像映射到所述第一图像的图像平面上。
7.根据权利要求6所述的方法,其中,所述第二深度图是通过将一个或多个生成的深度图进行混合而生成,其中,所述第二深度图是全景图。
8.根据权利要求1所述的方法,其中,所述卷积神经网络模型包括:
多个收缩层,其中,每个收缩层均包括编码器以对相应的输入进行下采样;以及
多个扩张层,联接至所述多个收缩层,其中,每个扩张层均包括解码器以对相应的输入进行上采样。
9.根据权利要求8所述的方法,其中,所述多个收缩层的信息前馈给所述多个扩张层。
10.根据权利要求8所述的方法,其中,所述多个扩张层中的每个均包括预测层,以预测用于后续层的深度值。
11.根据权利要求1所述的方法,其中,对所述第二图像上采样包括修复所述第二图像。
12.一种存储有指令的非暂时性机器可读介质,所述指令在由处理器执行时致使所述处理器执行操作,所述操作包括:
接收由第一摄像机捕捉的第一图像,所述第一图像捕捉所述自动驾驶车辆的驾驶环境的一部分;
接收第二图像,所述第二图像表示由激光雷达装置产生的、与所述驾驶环境的一部分相对应的第一点云的第一深度图;
以预定的比例因子对所述第二图像上采样,以匹配所述第一图像的图像比例;以及
通过对所述第一图像和上采样的第二图像应用卷积神经网络模型来生成第二深度图,所述第二深度图比所述第一深度图具有更高的分辨率,其中,所述第二深度图表示用于感知所述自动驾驶车辆周围的所述驾驶环境的第二点云。
13.根据权利要求12所述的非暂时性机器可读介质,所述操作还包括:
接收由第二摄像机捕捉的第三图像;以及
通过对所述第一图像、所述第三图像和所述上采样的第二图像应用所述卷积神经网络模型来生成所述第二深度图。
14.根据权利要求12所述的非暂时性机器可读介质,其中,所述第一图像包括圆柱形全景图像或球形全景图像。
15.根据权利要求14所述的非暂时性机器可读介质,其中,所述圆柱形全景图像或所述球形全景图像是基于由多个摄像机装置捕捉的多个图像生成的。
16.根据权利要求14所述的非暂时性机器可读介质,所述操作还包括:
通过将所述第二深度图投影到基于所述圆柱形全景图像或所述球形全景图像的3-D空间中来重构所述第二点云。
17.一种数据处理系统,包括:
处理器;以及
存储器,所述存储器联接至所述处理器,以存储指令,所述指令在由所述处理器执行时致使所述处理器执行操作,所述操作包括:
接收由第一摄像机捕捉的第一图像,所述第一图像捕捉所述自动驾驶车辆的驾驶环境的一部分;
接收第二图像,所述第二图像表示由激光雷达装置产生的、与所述驾驶环境的一部分相对应的第一点云的第一深度图;
以预定的比例因子对所述第二图像上采样,以匹配所述第一图像的图像比例;以及
通过对所述第一图像和上采样的第二图像应用卷积神经网络模型来生成第二深度图,所述第二深度图比所述第一深度图具有更高的分辨率,其中,所述第二深度图表示用于感知所述自动驾驶车辆周围的所述驾驶环境的第二点云。
18.根据权利要求17所述的系统,所述操作还包括:
接收由第二摄像机捕捉的第三图像;以及
通过对所述第一图像、所述第三图像和所述上采样的第二图像应用所述卷积神经网络模型来生成所述第二深度图。
19.根据权利要求17所述的系统,其中,所述第一图像包括圆柱形全景图像或球形全景图像。
20.根据权利要求19所述的系统,其中,所述圆柱形全景图像或所述球形全景图像是基于由多个摄像机装置捕捉的多个图像生成的。
21.根据权利要求19所述的系统,所述操作还包括:
通过将所述第二深度图投影到基于所述圆柱形全景图像或所述球形全景图像的3-D空间中来重构所述第二点云。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/641,111 US10474161B2 (en) | 2017-07-03 | 2017-07-03 | High resolution 3D point clouds generation from upsampled low resolution lidar 3D point clouds and camera images |
US15/641,111 | 2017-07-03 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109214987A true CN109214987A (zh) | 2019-01-15 |
CN109214987B CN109214987B (zh) | 2023-06-16 |
Family
ID=64734803
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810688921.XA Active CN109214987B (zh) | 2017-07-03 | 2018-06-28 | 操作自动驾驶车辆的方法和系统 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10474161B2 (zh) |
CN (1) | CN109214987B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111182254A (zh) * | 2020-01-03 | 2020-05-19 | 北京百度网讯科技有限公司 | 一种视频处理方法、装置、设备及存储介质 |
CN111476079A (zh) * | 2019-01-23 | 2020-07-31 | 百度(美国)有限责任公司 | 将用于对象检测的地图特征与lidar合并的全面且有效的方法 |
CN111655542A (zh) * | 2019-04-23 | 2020-09-11 | 深圳市大疆创新科技有限公司 | 一种数据处理方法、装置、设备及可移动平台 |
CN112183175A (zh) * | 2019-07-02 | 2021-01-05 | 百度(美国)有限责任公司 | 用于自动驾驶的基于当前帧的对象检测自动标记先前帧中的对象的方法 |
CN113379748A (zh) * | 2020-03-09 | 2021-09-10 | 北京京东乾石科技有限公司 | 一种点云全景分割方法和装置 |
Families Citing this family (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016116859A1 (de) * | 2016-09-08 | 2018-03-08 | Knorr-Bremse Systeme für Nutzfahrzeuge GmbH | Sensoranordnung für ein autonom betriebenes Nutzfahrzeug und ein Verfahren zur Rundumbilderfassung |
JP6826421B2 (ja) * | 2016-12-02 | 2021-02-03 | 東日本旅客鉄道株式会社 | 設備巡視システム及び設備巡視方法 |
WO2018176000A1 (en) | 2017-03-23 | 2018-09-27 | DeepScale, Inc. | Data synthesis for autonomous control systems |
US10671082B2 (en) * | 2017-07-03 | 2020-06-02 | Baidu Usa Llc | High resolution 3D point clouds generation based on CNN and CRF models |
US11409692B2 (en) | 2017-07-24 | 2022-08-09 | Tesla, Inc. | Vector computational unit |
US11893393B2 (en) | 2017-07-24 | 2024-02-06 | Tesla, Inc. | Computational array microprocessor system with hardware arbiter managing memory requests |
US10671349B2 (en) | 2017-07-24 | 2020-06-02 | Tesla, Inc. | Accelerated mathematical engine |
US11157441B2 (en) | 2017-07-24 | 2021-10-26 | Tesla, Inc. | Computational array microprocessor system using non-consecutive data formatting |
US11561791B2 (en) | 2018-02-01 | 2023-01-24 | Tesla, Inc. | Vector computational unit receiving data elements in parallel from a last row of a computational array |
US11514371B2 (en) * | 2018-03-13 | 2022-11-29 | Woven Planet North America, Inc. | Low latency image processing using byproduct decompressed images |
US11215999B2 (en) | 2018-06-20 | 2022-01-04 | Tesla, Inc. | Data pipeline and deep learning system for autonomous driving |
US11067693B2 (en) * | 2018-07-12 | 2021-07-20 | Toyota Research Institute, Inc. | System and method for calibrating a LIDAR and a camera together using semantic segmentation |
US11361457B2 (en) | 2018-07-20 | 2022-06-14 | Tesla, Inc. | Annotation cross-labeling for autonomous control systems |
US11636333B2 (en) | 2018-07-26 | 2023-04-25 | Tesla, Inc. | Optimizing neural network structures for embedded systems |
US11562231B2 (en) | 2018-09-03 | 2023-01-24 | Tesla, Inc. | Neural networks for embedded devices |
EP3633404B1 (en) * | 2018-10-02 | 2022-09-07 | Ibeo Automotive Systems GmbH | Method and apparatus for optical distance measurements |
US10614579B1 (en) * | 2018-10-10 | 2020-04-07 | The Boeing Company | Three dimensional model generation using heterogeneous 2D and 3D sensor fusion |
CN115512173A (zh) | 2018-10-11 | 2022-12-23 | 特斯拉公司 | 用于使用增广数据训练机器模型的系统和方法 |
US11196678B2 (en) | 2018-10-25 | 2021-12-07 | Tesla, Inc. | QOS manager for system on a chip communications |
US20190061771A1 (en) * | 2018-10-29 | 2019-02-28 | GM Global Technology Operations LLC | Systems and methods for predicting sensor information |
US11816585B2 (en) | 2018-12-03 | 2023-11-14 | Tesla, Inc. | Machine learning models operating at different frequencies for autonomous vehicles |
US11537811B2 (en) | 2018-12-04 | 2022-12-27 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
US11610117B2 (en) | 2018-12-27 | 2023-03-21 | Tesla, Inc. | System and method for adapting a neural network model on a hardware platform |
US10408939B1 (en) * | 2019-01-31 | 2019-09-10 | StradVision, Inc. | Learning method and learning device for integrating image acquired by camera and point-cloud map acquired by radar or LiDAR corresponding to image at each of convolution stages in neural network and testing method and testing device using the same |
US10997461B2 (en) | 2019-02-01 | 2021-05-04 | Tesla, Inc. | Generating ground truth for machine learning from time series elements |
US11567514B2 (en) | 2019-02-11 | 2023-01-31 | Tesla, Inc. | Autonomous and user controlled vehicle summon to a target |
US10956755B2 (en) * | 2019-02-19 | 2021-03-23 | Tesla, Inc. | Estimating object properties using visual image data |
WO2020192039A1 (en) * | 2019-03-27 | 2020-10-01 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Three-dimensional localization using light-depth images |
US10984560B1 (en) * | 2019-03-29 | 2021-04-20 | Amazon Technologies, Inc. | Computer vision using learnt lossy image compression representations |
CN111862224B (zh) * | 2019-04-17 | 2023-09-19 | 杭州海康威视数字技术股份有限公司 | 确定相机与激光雷达之间外参的方法和装置 |
US10937178B1 (en) | 2019-05-09 | 2021-03-02 | Zoox, Inc. | Image-based depth data and bounding boxes |
US11087494B1 (en) | 2019-05-09 | 2021-08-10 | Zoox, Inc. | Image-based depth data and localization |
US10984543B1 (en) * | 2019-05-09 | 2021-04-20 | Zoox, Inc. | Image-based depth data and relative depth data |
US11222460B2 (en) * | 2019-07-22 | 2022-01-11 | Scale AI, Inc. | Visualization techniques for data labeling |
CN110443842B (zh) * | 2019-07-24 | 2022-02-15 | 大连理工大学 | 基于视角融合的深度图预测方法 |
JP7231511B2 (ja) | 2019-07-29 | 2023-03-01 | 株式会社日立製作所 | 管理装置、管理方法、および管理プログラム |
US11556000B1 (en) | 2019-08-22 | 2023-01-17 | Red Creamery Llc | Distally-actuated scanning mirror |
US11310451B1 (en) | 2019-09-05 | 2022-04-19 | Waymo Llc | Smart sensor with region of interest capabilities |
EP3822913A1 (en) * | 2019-11-14 | 2021-05-19 | Continental Automotive GmbH | Spatial aware object detection by flash lidar and camera fusion based super-resolution |
US11428550B2 (en) | 2020-03-03 | 2022-08-30 | Waymo Llc | Sensor region of interest selection based on multisensor data |
US11341650B2 (en) | 2020-03-19 | 2022-05-24 | At&T Intellectual Property I, L.P. | Method for accelerating three-dimensional object segmentation with point cloud simplifications |
CN113554742B (zh) * | 2020-04-26 | 2024-02-02 | 上海联影医疗科技股份有限公司 | 一种三维图像的重建方法、装置、设备及存储介质 |
US20220091266A1 (en) * | 2020-09-18 | 2022-03-24 | Denso International America, Inc. | Systems and methods for enhancing outputs of a lidar |
CN112346037B (zh) * | 2020-11-19 | 2023-10-31 | 中国第一汽车股份有限公司 | 车载激光雷达的标定方法、装置、设备及车辆 |
CN112489103B (zh) * | 2020-11-19 | 2022-03-08 | 北京的卢深视科技有限公司 | 一种高分辨率深度图获取方法及系统 |
CN112432636B (zh) * | 2020-11-30 | 2023-04-07 | 浙江商汤科技开发有限公司 | 定位方法及装置、电子设备和存储介质 |
AU2020281143B1 (en) * | 2020-12-04 | 2021-03-25 | Commonwealth Scientific And Industrial Research Organisation | Creating super-resolution images |
US11756283B2 (en) | 2020-12-16 | 2023-09-12 | Waymo Llc | Smart sensor implementations of region of interest operating modes |
CN113160398B (zh) * | 2020-12-25 | 2023-03-28 | 中国人民解放军国防科技大学 | 一种快速三维栅格构建系统、方法、介质、设备、无人车 |
CN113066016B (zh) * | 2021-02-18 | 2022-08-05 | 北京大学 | 一种基于图信号处理的三维动态点云修复方法 |
US11586865B2 (en) | 2021-02-18 | 2023-02-21 | Volkswagen Aktiengesellschaft | Apparatus, system and method for fusing sensor data to do sensor translation |
BE1029668B1 (nl) | 2021-12-03 | 2023-03-02 | Ivex | Methoden, systemen, opslagmedia en apparatuur voor end-to-end scenario-extractie uit 3d input puntenwolken, scenario-indeling en het genereren van sequentiële rij-eigenschappen voor de identificatie van veiligheidskritieke scenario-categorieën |
CN114239808B (zh) * | 2021-12-20 | 2023-09-01 | 湖北工业大学 | 一种基于PointCloudTransformer的多尺度优化网络方法 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013030898A (ja) * | 2011-07-27 | 2013-02-07 | Nippon Telegr & Teleph Corp <Ntt> | 画像伝送方法、画像伝送装置、画像送信装置、画像受信装置、画像送信プログラム及び画像受信プログラム |
US20130051519A1 (en) * | 2011-08-31 | 2013-02-28 | Dong Yang | Methods and apparatus for super resolution scanning for cbct system and cone-beam image reconstruction |
CN103176185A (zh) * | 2011-12-26 | 2013-06-26 | 上海汽车集团股份有限公司 | 用于检测道路障碍物的方法及系统 |
US20150015569A1 (en) * | 2013-07-15 | 2015-01-15 | Samsung Electronics Co., Ltd. | Method and apparatus for processing depth image |
US20150030072A1 (en) * | 2013-07-26 | 2015-01-29 | Hong Kong Applied Science and Technology Research Institute Company Limited | Spatial Scalable Video Coding using Non-Scalable Video CODEC |
US20150381965A1 (en) * | 2014-06-27 | 2015-12-31 | Qualcomm Incorporated | Systems and methods for depth map extraction using a hybrid algorithm |
US20160337635A1 (en) * | 2015-05-15 | 2016-11-17 | Semyon Nisenzon | Generarting 3d images using multi-resolution camera set |
CN106204489A (zh) * | 2016-07-12 | 2016-12-07 | 四川大学 | 结合深度学习与梯度转换的单幅图像超分辨率重建方法 |
CN106228512A (zh) * | 2016-07-19 | 2016-12-14 | 北京工业大学 | 基于学习率自适应的卷积神经网络图像超分辨率重建方法 |
US20170032222A1 (en) * | 2015-07-30 | 2017-02-02 | Xerox Corporation | Cross-trained convolutional neural networks using multimodal images |
CN106663320A (zh) * | 2014-07-08 | 2017-05-10 | 高通股份有限公司 | 使用全局最小化和深度内插的立体深度估计的系统和方法 |
CN106683182A (zh) * | 2017-01-12 | 2017-05-17 | 南京大学 | 一种权衡立体匹配和视觉外形的三维重建方法 |
CN106707293A (zh) * | 2016-12-01 | 2017-05-24 | 百度在线网络技术(北京)有限公司 | 用于车辆的障碍物识别方法和装置 |
GB201706499D0 (en) * | 2017-04-25 | 2017-06-07 | Nokia Technologies Oy | Three-dimensional scene reconstruction |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3858528B2 (ja) * | 1999-08-17 | 2006-12-13 | 株式会社ニコン | 電子カメラ、および画像処理プログラムを記録した記録媒体 |
JP4835176B2 (ja) * | 2006-01-31 | 2011-12-14 | 株式会社ニコン | デジタルスチルカメラ |
JP4274234B2 (ja) * | 2006-12-04 | 2009-06-03 | ソニー株式会社 | 圧縮データ量制御方法及び画像データ圧縮装置 |
JP5535099B2 (ja) * | 2011-01-26 | 2014-07-02 | 株式会社東芝 | カメラモジュール及び画像記録方法 |
US20180136332A1 (en) * | 2016-11-15 | 2018-05-17 | Wheego Electric Cars, Inc. | Method and system to annotate objects and determine distances to objects in an image |
US11157014B2 (en) * | 2016-12-29 | 2021-10-26 | Tesla, Inc. | Multi-channel sensor simulation for autonomous control systems |
US10108867B1 (en) * | 2017-04-25 | 2018-10-23 | Uber Technologies, Inc. | Image-based pedestrian detection |
CN110832349B (zh) * | 2017-05-15 | 2023-10-10 | 奥斯特公司 | 全景彩色lidar系统和用于lidar系统的方法 |
-
2017
- 2017-07-03 US US15/641,111 patent/US10474161B2/en active Active
-
2018
- 2018-06-28 CN CN201810688921.XA patent/CN109214987B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013030898A (ja) * | 2011-07-27 | 2013-02-07 | Nippon Telegr & Teleph Corp <Ntt> | 画像伝送方法、画像伝送装置、画像送信装置、画像受信装置、画像送信プログラム及び画像受信プログラム |
US20130051519A1 (en) * | 2011-08-31 | 2013-02-28 | Dong Yang | Methods and apparatus for super resolution scanning for cbct system and cone-beam image reconstruction |
CN103176185A (zh) * | 2011-12-26 | 2013-06-26 | 上海汽车集团股份有限公司 | 用于检测道路障碍物的方法及系统 |
US20150015569A1 (en) * | 2013-07-15 | 2015-01-15 | Samsung Electronics Co., Ltd. | Method and apparatus for processing depth image |
US20150030072A1 (en) * | 2013-07-26 | 2015-01-29 | Hong Kong Applied Science and Technology Research Institute Company Limited | Spatial Scalable Video Coding using Non-Scalable Video CODEC |
US20150381965A1 (en) * | 2014-06-27 | 2015-12-31 | Qualcomm Incorporated | Systems and methods for depth map extraction using a hybrid algorithm |
CN106663320A (zh) * | 2014-07-08 | 2017-05-10 | 高通股份有限公司 | 使用全局最小化和深度内插的立体深度估计的系统和方法 |
US20160337635A1 (en) * | 2015-05-15 | 2016-11-17 | Semyon Nisenzon | Generarting 3d images using multi-resolution camera set |
US20170032222A1 (en) * | 2015-07-30 | 2017-02-02 | Xerox Corporation | Cross-trained convolutional neural networks using multimodal images |
CN106204489A (zh) * | 2016-07-12 | 2016-12-07 | 四川大学 | 结合深度学习与梯度转换的单幅图像超分辨率重建方法 |
CN106228512A (zh) * | 2016-07-19 | 2016-12-14 | 北京工业大学 | 基于学习率自适应的卷积神经网络图像超分辨率重建方法 |
CN106707293A (zh) * | 2016-12-01 | 2017-05-24 | 百度在线网络技术(北京)有限公司 | 用于车辆的障碍物识别方法和装置 |
CN106683182A (zh) * | 2017-01-12 | 2017-05-17 | 南京大学 | 一种权衡立体匹配和视觉外形的三维重建方法 |
GB201706499D0 (en) * | 2017-04-25 | 2017-06-07 | Nokia Technologies Oy | Three-dimensional scene reconstruction |
Non-Patent Citations (1)
Title |
---|
王世峰等: "无人驾驶汽车环境感知技术综述", 《长春理工大学学报(自然科学版)》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111476079A (zh) * | 2019-01-23 | 2020-07-31 | 百度(美国)有限责任公司 | 将用于对象检测的地图特征与lidar合并的全面且有效的方法 |
CN111476079B (zh) * | 2019-01-23 | 2023-08-29 | 百度(美国)有限责任公司 | 将用于对象检测的地图特征与lidar合并的全面且有效的方法 |
CN111655542A (zh) * | 2019-04-23 | 2020-09-11 | 深圳市大疆创新科技有限公司 | 一种数据处理方法、装置、设备及可移动平台 |
CN112183175A (zh) * | 2019-07-02 | 2021-01-05 | 百度(美国)有限责任公司 | 用于自动驾驶的基于当前帧的对象检测自动标记先前帧中的对象的方法 |
CN111182254A (zh) * | 2020-01-03 | 2020-05-19 | 北京百度网讯科技有限公司 | 一种视频处理方法、装置、设备及存储介质 |
CN113379748A (zh) * | 2020-03-09 | 2021-09-10 | 北京京东乾石科技有限公司 | 一种点云全景分割方法和装置 |
CN113379748B (zh) * | 2020-03-09 | 2024-03-01 | 北京京东乾石科技有限公司 | 一种点云全景分割方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
US10474161B2 (en) | 2019-11-12 |
US20190004534A1 (en) | 2019-01-03 |
CN109214987B (zh) | 2023-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109214987A (zh) | 从上采样的低分辨率lidar 3-d点云和摄像机图像生成高分辨率3-d点云 | |
CN109214986A (zh) | 从下采样的低分辨率lidar 3-d点云和摄像机图像生成高分辨率3-d点云 | |
CN109215067A (zh) | 基于cnn和crf模型生成高分辨率3-d点云 | |
US20230043931A1 (en) | Multi-Task Multi-Sensor Fusion for Three-Dimensional Object Detection | |
US20230127115A1 (en) | Three-Dimensional Object Detection | |
US10671082B2 (en) | High resolution 3D point clouds generation based on CNN and CRF models | |
US11551429B2 (en) | Photorealistic image simulation with geometry-aware composition | |
US20210276587A1 (en) | Systems and Methods for Autonomous Vehicle Systems Simulation | |
US11960290B2 (en) | Systems and methods for end-to-end trajectory prediction using radar, LIDAR, and maps | |
US11064178B2 (en) | Deep virtual stereo odometry | |
WO2019099633A9 (en) | Systems and methods for generating sparse geographic data for autonomous vehicles | |
US11768292B2 (en) | Three-dimensional object detection | |
US11562490B2 (en) | Systems and methods for video object segmentation | |
CN110796692A (zh) | 用于同时定位与建图的端到端深度生成模型 | |
US11836884B2 (en) | Real-time generation of functional road maps | |
WO2019230339A1 (ja) | 物体識別装置、移動体用システム、物体識別方法、物体識別モデルの学習方法及び物体識別モデルの学習装置 | |
CN112912920A (zh) | 用于2d卷积神经网络的点云数据转换方法和系统 | |
JP2021089724A (ja) | 構造的制約及び物理的制約を伴う3d自動ラベル付け | |
CN112740268B (zh) | 目标检测方法和装置 | |
Yang et al. | Reactive obstacle avoidance of monocular quadrotors with online adapted depth prediction network | |
US20220032452A1 (en) | Systems and Methods for Sensor Data Packet Processing and Spatial Memory Updating for Robotic Platforms | |
CN114723955A (zh) | 图像处理方法、装置、设备和计算机可读存储介质 | |
CN115273002A (zh) | 一种图像处理方法、装置、存储介质及计算机程序产品 | |
US10939042B1 (en) | Simulated rolling shutter image data | |
RU2776814C1 (ru) | Способ и электронное устройство для обнаружения трехмерных объектов с помощью нейронных сетей |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |