CN109725634A - 用于自动驾驶车辆的使用分色镜的3d lidar系统 - Google Patents
用于自动驾驶车辆的使用分色镜的3d lidar系统 Download PDFInfo
- Publication number
- CN109725634A CN109725634A CN201810980801.7A CN201810980801A CN109725634A CN 109725634 A CN109725634 A CN 109725634A CN 201810980801 A CN201810980801 A CN 201810980801A CN 109725634 A CN109725634 A CN 109725634A
- Authority
- CN
- China
- Prior art keywords
- image
- target
- camera
- automatic driving
- photodetector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- KPHWPUGNDIVLNH-UHFFFAOYSA-M diclofenac sodium Chemical compound [Na+].[O-]C(=O)CC1=CC=CC=C1NC1=C(Cl)C=CC=C1Cl KPHWPUGNDIVLNH-UHFFFAOYSA-M 0.000 title claims abstract description 43
- 238000012545 processing Methods 0.000 claims abstract description 52
- 238000000034 method Methods 0.000 claims description 34
- 238000004422 calculation algorithm Methods 0.000 claims description 28
- 230000008447 perception Effects 0.000 claims description 24
- 230000003287 optical effect Effects 0.000 claims description 20
- 238000001514 detection method Methods 0.000 claims description 18
- 230000011218 segmentation Effects 0.000 claims description 10
- 230000000007 visual effect Effects 0.000 claims description 9
- 238000000638 solvent extraction Methods 0.000 claims description 6
- 238000011002 quantification Methods 0.000 claims description 4
- 238000009877 rendering Methods 0.000 abstract description 11
- 238000003860 storage Methods 0.000 description 27
- 238000004891 communication Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 9
- 230000004888 barrier function Effects 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 230000001360 synchronised effect Effects 0.000 description 5
- 238000004040 coloring Methods 0.000 description 3
- 238000007405 data analysis Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 241001269238 Data Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 241000630329 Scomberesox saurus saurus Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012517 data analytics Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000004377 microelectronic Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005036 potential barrier Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000001429 visible spectrum Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/90—Lidar systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4811—Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B26/00—Optical devices or arrangements for the control of light using movable or deformable optical elements
- G02B26/08—Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
- G02B26/10—Scanning systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/10—Beam splitting or combining systems
- G02B27/14—Beam splitting or combining systems operating by reflection only
- G02B27/141—Beam splitting or combining systems operating by reflection only using dichroic mirrors
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B7/00—Mountings, adjusting means, or light-tight connections, for optical elements
- G02B7/02—Mountings, adjusting means, or light-tight connections, for optical elements for lenses
- G02B7/04—Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0092—Image segmentation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/001—Constructional or mechanical details
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/003—Aspects relating to the "2D+depth" image format
Abstract
在一个实施方式中,三维LIDAR系统包括光源(例如,激光器),以发射光束(例如,激光束)从而感测与目标相关联的物理范围。所述系统包括相机和光检测器(例如,闪光LIDAR单元),以接收从目标反射的光束的至少一部分。所述系统包括位于目标与光检测器之间的分色镜,所述分色镜配置成将从目标反射的光束引导至光检测器以生成第一图像,其中,分色镜还将从目标反射的可见光引导至相机以生成第二图像。所述系统包括图像处理逻辑,所述图像处理逻辑联接至光检测器和相机以将第一图像和第二图像组合,从而生成3D图像。
Description
技术领域
本发明的实施方式大体涉及操作自动驾驶车辆。更具体地,本发明的实施方式涉及用于操作自动驾驶车辆的光探测与测距(LIDAR)装置。
背景技术
以自动驾驶模式运行(例如,无人驾驶)的车辆可以将乘员、尤其是驾驶员从一些驾驶相关的职责中解放出来。当以自动驾驶模式运行时,车辆可以使用车载传感器导航到各个位置,从而允许车辆在最少人机交互的情况下或在没有任何乘客的一些情况下行驶。
LIDAR技术已广泛应用于军事、地理学、海洋学,并且最近十年广泛应用于自动驾驶车辆。除了其它之外,LIDAR在自动驾驶车辆上的应用受到高成本的阻碍。LIDAR装置可以估计到对象的距离,同时扫描穿过场景,以将表示对象的反射表面的点云聚集起来。点云中的各个点可以通过以下来确定:发射激光脉冲并检测从对象反射而返回的脉冲(如果有的话),以及根据发射的脉冲与接收的反射脉冲之间的时间延迟确定到对象的距离。一个或多个激光器可以在场景中快速地和反复地扫描,以提供关于到场景中的反射对象的距离的连续实时信息。
具有机动旋转旋转器的传统机械LIDAR装置具有360度的水平视场,而相机具有更小的水平视场。使LIDAR装置与相机的视场同步需要另外的计算能力。此外,LIDAR旋转速度不时地偏差可能导致图像同步不匹配。
发明内容
根据本发明的一方面,提供了自动驾驶车辆的三维光探测与测距装置,所述光探测与测距装置包括光源、光检测器、第一相机、分色镜和图像处理逻辑,其中,光源发射光束以感测与目标相关联的物理范围,光检测器接收从目标反射的光束的至少一部分,分色镜位于目标与光检测器之间,分色镜配置成将从目标反射的光束引导至光检测器以生成第一图像,分色镜还将从目标反射的可见光引导至第一相机以生成第二图像;图像处理逻辑联接至光检测器和第一相机以将第一图像和第二图像组合从而生成三维图像,其中三维图像用于感知自动驾驶车辆周围的驾驶环境。
根据本发明的另一方面,提供了一种用于操作自动驾驶车辆的三维光探测与测距装置的机器实施方法,所述方法包括:通过光源发射光束,以感测与目标相关联的物理范围;通过位于目标与光检测器之间的分色镜将从目标反射的光束引导到光检测器,以生成第一图像;通过分色镜将从目标反射的可见光引导到第一相机,以生成第二图像;以及基于第一图像和第二图像生成三维图像,其中,三维图像用于感知自动驾驶车辆周围的驾驶环境。
根据本发明的又一方面,提供了自动驾驶车辆,所述自动驾驶车辆包括光探测与测距装置、图像处理逻辑和感知与规划系统。光探测与测距装置包括光源、光检测器、第一相机和分色镜,其中,光源发射光束以感测与目标相关联的物理范围,光检测器接收从目标反射的光束的至少一部分,分色位于目标与光检测器之间,分色镜配置成将从目标反射的光束引导至光检测器以生成第一图像,分色镜还将从目标反射的可见光引导至第一相机以生成第二图像。图像处理逻辑联接至光检测器和第一相机以将第一图像和第二图像组合从而生成三维图像。感知与规划系统联接至光探测与测距装置和图像处理逻辑,以感知自动驾驶车辆周围的驾驶环境以及控制自动驾驶车辆导航通过驾驶环境。
附图说明
本发明的实施方式在附图的各图中以举例而非限制的方式示出,附图中相同的参考数字表示相似的元件。
图1是示出根据一个实施方式的网络系统的框图。
图2是示出根据一个实施方式的自动驾驶车辆的示例的框图。
图3是示出根据一个实施方式的与自动驾驶车辆一起使用的LIDAR系统的示例的示图。
图4是示出根据另一实施方式的与自动驾驶车辆一起使用的LIDAR系统的示例的示图。
图5是示出根据一个实施方式的用于LIDAR图像和相机图像的直接映射的示图。
图6是示出根据一个实施方式的用于LIDAR图像和相机图像的间接映射的示图。
图7是示出根据一个实施方式的操作LIDAR系统的过程的流程图。
图8是示出根据一个实施方式的数据处理系统的框图。
具体实施方式
将参考以下所讨论的细节来描述本发明的各种实施方式和方面,附图将示出所述各种实施方式。下列描述和附图是对本发明的说明,而不应当解释为限制本发明。描述了许多特定细节以提供对本发明各种实施方式的全面理解。然而,在某些情况下,并未描述众所周知的或常规的细节以提供对本发明的实施方式的简洁讨论。
本说明书中对“一个实施方式”或“实施方式”的提及意味着结合该实施方式所描述的特定特征、结构或特性可以包括在本发明的至少一个实施方式中。短语“在一个实施方式中”在本说明书中各个地方的出现不必全部指同一实施方式。
根据一些实施方式,三维(3D)LIDAR系统包括光源(例如,激光器),以发射光束(例如,激光束)从而感测与目标相关联的物理范围。所述系统包括第一相机和光检测器(例如,闪光LIDAR单元),以接收从目标反射的光束的至少一部分。所述系统包括位于目标与光检测器之间的分色镜,所述分色镜配置成将从目标反射的光束引导至光检测器以生成第一图像,其中,分色镜还将从目标反射的可见光引导至第一相机以生成第二图像。可见光是指对人类可见并可以被普通相机采集到的光,而由LIDAR传感器采集到的光束通常对人类不可见并且不能被相机采集到。所述系统包括图像处理逻辑,所述图像处理逻辑联接至光检测器和第一相机,以将第一图像和第二图像组合从而在无需执行图像同步的情况下生成3D图像。第一图像可以包括描述LIDAR传感器与目标之间的距离的距离信息(例如,垂直维度),以及第二图像可以包括与目标有关的颜色信息(例如,2D水平维度)。通过将第一图像和第二图像组合,组合的图像将包括距离和颜色信息两者,它们以3D共同描述所述目标。
在一个实施方式中,3D图像通过将第一图像的一个或多个像素直接地映射到第二图像的一个或多个像素上而生成,其中,第一图像的像素密度计数不同于第二图像的像素密度计数。在另一实施方式中,3D图像通过以下过程生成:对第二图像应用语义分割算法以将第二图像中感知到的对象分类;以及基于感知到的对象,将第一图像的一个或多个像素间接地映射到第二图像的一个或多个像素上。
在一个实施方式中,3D LIDAR系统还包括位于目标与分色镜之间的变焦透镜,以放大或缩小光检测器感知到的视场。在一个实施方式中,3D LIDAR系统还包括位于目标与分色镜之间的扫描部件,以增大第一图像的像素密度计数。在一个实施方式中,3D LIDAR系统还包括相对于第一相机定位的第二相机,以形成立体相机对,所述第二相机生成用于感知与第二图像的视差的第三图像。在另一实施方式中,所述视差通过对第二图像和第三图像应用立体分割算法而感知。
图1是示出根据本发明的一个实施方式的自动驾驶车辆网络配置的框图。参考图1,网络配置100包括可以通过网络102通信地联接到一个或多个服务器103至104的自动驾驶车辆101。尽管示出一个自动驾驶车辆,但多个自动驾驶车辆可以通过网络102联接到彼此和/或联接到服务器103至104。网络102可以是任何类型的网络,例如,有线或无线的局域网(LAN)、诸如互联网的广域网(WAN)、蜂窝网络、卫星网络或其组合。服务器103至104可以是任何类型的服务器或服务器群集,诸如,网络或云服务器、应用服务器、后端服务器或其组合。服务器103至104可以是数据分析服务器、内容服务器、交通信息服务器、地图和兴趣点(MPOI)服务器或者位置服务器等。
自动驾驶车辆是指可以被配置成处于自动驾驶模式下的车辆,在所述自动驾驶模式下车辆在极少或没有来自驾驶员的输入的情况下导航通过环境。这种自动驾驶车辆可以包括传感器系统,所述传感器系统具有被配置成检测与车辆运行环境有关的信息的一个或多个传感器。所述车辆和其相关联的控制器使用所检测的信息来导航通过所述环境。自动驾驶车辆101可以在手动模式下、在全自动驾驶模式下或者在部分自动驾驶模式下运行。
在一个实施方式中,自动驾驶车辆101包括,但不限于,感知与规划系统110、车辆控制系统111、无线通信系统112、用户接口系统113和传感器系统115。自动驾驶车辆101还可以包括普通车辆中包括的某些常用部件,诸如:发动机、车轮、方向盘、变速器等,所述部件可以由车辆控制系统111和/或感知与规划系统110使用多种通信信号和/或指令进行控制,该多种通信信号和/或指令例如,加速信号或指令、减速信号或指令、转向信号或指令、制动信号或指令等。
部件110至115可以经由互连件、总线、网络或其组合通信地联接到彼此。例如,部件110至115可以经由控制器局域网(CAN)总线通信地联接到彼此。CAN总线是被设计成允许微控制器和装置在没有主机的应用中与彼此通信的车辆总线标准。它是最初为汽车内的复用电气布线设计的基于消息的协议,但也用于许多其它环境。
现在参考图2,在一个实施方式中,传感器系统115包括但不限于一个或多个相机211、全球定位系统(GPS)单元212、惯性测量单元(IMU)213、雷达单元214以及光探测与测距(LIDAR)单元215。GPS系统212可以包括收发器,所述收发器可操作以提供关于自动驾驶车辆的位置的信息。IMU单元213可以基于惯性加速度来感测自动驾驶车辆的位置和定向变化。雷达单元214可以表示利用无线电信号来感测自动驾驶车辆的本地环境内的对象的系统。在一些实施方式中,除感测对象之外,雷达单元214可以另外感测对象的速度和/或前进方向。LIDAR单元215可以使用激光来感测自动驾驶车辆所处环境中的对象。除其它系统部件之外,LIDAR单元215还可以包括一个或多个激光源、激光扫描器以及一个或多个检测器。相机211可以包括用来采集自动驾驶车辆周围环境的图像的一个或多个装置。相机211可以是静物相机和/或视频相机。相机可以是可机械地移动的,例如,通过将相机安装在旋转和/或倾斜平台上。
传感器系统115还可以包括其它传感器,诸如:声纳传感器、红外传感器、转向传感器、油门传感器、制动传感器以及音频传感器(例如,麦克风)。音频传感器可以被配置成从自动驾驶车辆周围的环境中采集声音。转向传感器可以被配置成感测方向盘、车辆的车轮或其组合的转向角度。油门传感器和制动传感器分别感测车辆的油门位置和制动位置。在一些情形下,油门传感器和制动传感器可以集成为集成式油门/制动传感器。
在一个实施方式中,车辆控制系统111包括但不限于转向单元201、油门单元202(也被称为加速单元)和制动单元203。转向单元201用来调整车辆的方向或前进方向。油门单元202用来控制电动机或发动机的速度,电动机或发动机的速度进而控制车辆的速度和加速度。制动单元203通过提供摩擦使车辆的车轮或轮胎减速而使车辆减速。应注意,如图2所示的部件可以以硬件、软件或其组合实施。
返回参考图1,无线通信系统112允许自动驾驶车辆101与诸如装置、传感器、其它车辆等外部系统之间的通信。例如,无线通信系统112可以与一个或多个装置直接无线通信,或者经由通信网络进行无线通信,诸如,通过网络102与服务器103至服务器104通信。无线通信系统112可以使用任何蜂窝通信网络或无线局域网(WLAN),例如,使用WiFi,以与另一部件或系统通信。无线通信系统112可以例如使用红外链路、蓝牙等与装置(例如,乘客的移动装置、显示装置、车辆101内的扬声器)直接通信。用户接口系统113可以是在车辆101内实施的外围装置的部分,包括例如键盘、触摸屏显示装置、麦克风和扬声器等。
自动驾驶车辆101的功能中的一些或全部可以由感知与规划系统110控制或管理,尤其当在自动驾驶模式下操作时。感知与规划系统110包括必要的硬件(例如,处理器、存储器、存储设备)和软件(例如,操作系统、规划和路线安排程序),以从传感器系统115、控制系统111、无线通信系统112和/或用户接口系统113接收信息,处理所接收的信息,规划从起始点到目的地点的路线或路径,随后基于规划和控制信息来驾驶车辆101。可替代地,感知与规划系统110可以与车辆控制系统111集成在一起。
例如,作为乘客的用户可以例如经由用户接口来指定行程的起始位置和目的地。感知与规划系统110获得行程相关数据。例如,感知与规划系统110可以从MPOI服务器中获得位置和路线信息,所述MPOI服务器可以是服务器103至104的一部分。位置服务器提供位置服务,并且MPOI服务器提供地图服务和某些位置的POI。可替代地,此类位置和MPOI信息可以本地高速缓存在感知与规划系统110的永久性存储装置中。
当自动驾驶车辆101沿着路线移动时,感知与规划系统110也可以从交通信息系统或服务器(TIS)获得实时交通信息。应注意,服务器103至104可以由第三方实体进行操作。可替代地,服务器103至104的功能可以与感知与规划系统110集成在一起。基于实时交通信息、MPOI信息和位置信息以及由传感器系统115检测或感测的实时本地环境数据(例如,障碍物、对象、附近车辆),感知与规划系统110可以规划最佳路线并且根据所规划的路线例如经由控制系统111来驾驶车辆101,以安全且高效到达指定目的地。
服务器103可以是数据分析系统,从而为各种客户执行数据分析服务。在一个实施方式中,数据分析系统103包括数据收集器121和机器学习引擎122。数据收集器121从各种车辆(自动驾驶车辆或由人类驾驶员驾驶的常规车辆)收集驾驶统计数据123。驾驶统计数据123包括与指示所发出的驾驶指令(例如,油门、制动、转向指令)以及由车辆的传感器在不同的时间点采集到的车辆的响应(例如,速度、加速、减速、方向)相关的信息。驾驶统计数据123还可以包括描述不同时间点处的驾驶环境的信息,例如路线(包括起始位置和目的地位置)、MPOI、道路状况、天气状况等。
基于驾驶统计数据123,机器学习引擎122出于各种目的执行或训练一组规则、算法和/或预测模型124。算法/模型124可以特别设计或配置用于特定的车辆或特定类型的车辆。然后,算法/模型124可以加载到相关联的ADV上,以实时地驾驶ADV。算法/模型124可以用于规划、确定路线以及控制各种驾驶场景或状况下的ADV。例如,算法/模型124包括语义分割算法,以检测用于由相机单元感知到的RGB(红色、绿色和蓝色)图像的对象。算法/模型124还可以包括将由光检测器和相机产生的图像合并以及使它们同步的算法。
图3是示出根据一个实施方式的与自动驾驶车辆一起使用的LIDAR系统的示例的示图。LIDAR装置400可以实施为图2的LIDAR单元215和/或相机211的一部分。LIDAR装置400包括LIDAR单元和相机,以感测对象和采集自动驾驶车辆的目标环境的图像。参考图3,在一个实施方式中,LIDAR装置400包括光源401(例如,激光器)、LIDAR传感器403(例如,光检测器)、分色滤光器405(例如,分色镜)、可选的孔径406、相机409和图像处理逻辑410。光源401生成激光束并引导激光束穿过孔径406到达目标407。
分色滤光器、薄膜滤光器或干涉滤光器是用于在反射其它颜色的同时选择性地让小范围颜色的光通过的非常精确的滤色器。相比之下,分色镜和分色反射器倾向于以它们反射的光的颜色为特征,而不是它们让通过的光的颜色。分色滤光器可以过滤来自白光光源的光,以产生被人类感知为高度饱和的(强烈)颜色的光。分色反射器通常用在光源后面,以将可见光向前反射,同时允许不可见的红外光(辐射的热量)在固定装置的后部消失,从而产生实际上更冷(更低温度)的一束光。这种布置允许给定的光线显著地增加它的前向强度,同时允许由固定装置的背面部分产生的热量逸出。
返回参考图3,分色滤光器405将从目标407反射的光束引导(穿行通过)到LIDAR传感器403,以生成第一图像。分色滤光器405还将可见光引导(或反射)到相机409,以生成第二图像。由于反射的光束和可见光均穿行通过相同的孔径406,因此相机409与LIDAR传感器403共享相同的视场,使得第一图像和第二图像的视场需要最小的图像同步或没有图像同步。在一个实施方式中,LIDAR传感器403和相机409相对于彼此安装至固定的位置。因此,由LIDAR传感器403和相机409采集的图像自动地同步(例如,以已知的或固定关系)。
在另一实施方式中,图像处理逻辑410联接至LIDAR传感器403和相机409,以基于相机和LIDAR传感器的已经同步的输出(例如,第一图像和第二图像)生成3D图像。应注意,分色滤光器(或分色镜)可以通过透射和反射作为波长的函数的光而使光进行光谱分离。例如,具有大致800纳米(nm)的截止波长的分色镜405可以设计成让具有高于大致850nm的频带的光穿行通过(例如,由光源401生成的905nm激光束将穿行通过该分色镜),而将具有小于大致750nm的频带的光反射(例如,大致400nm-700nm波长的可见光将被反射)。
在一个实施方式中,光源401和LIDAR传感器403可以是集成单元,例如闪光LIDAR单元。在另一实施方式中,图像处理逻辑410在LIDAR装置400的外部。例如,图2的传感器系统115可以包括图像处理逻辑410,以基于相机409和LIDAR传感器403的输出生成3D图像。可替代地,图像处理逻辑410可以实施为感知与规划系统110的软件模块和/或硬件模块。在一个实施方式中,可选地,LIDAR装置400包括位于分色滤光器405与目标407之间的变焦透镜,以放大或缩小LIDAR传感器的视场。在另一实施方式中,一个或多个分色滤光器或分色镜可以用来将一个或多个光束(例如,905nm光束和1550nm光束等)引导到一个或多个LIDAR传感器。例如,第一分色滤光器可以将具有第一波长的第一光束引导到第一LIDAR传感器,以及第二分色滤光器可以将具有第二波长的第二光束引导到第二LIDAR传感器。不同波长的激光或光束对水和大气尘粒具有不同的敏感系数,因此,多传感器设置可以提高LIDAR装置400的可靠性。
在另一实施方式中,可选地,可以在分色滤光器405与目标407之间添加扫描部件,以调整LIDAR装置的视场。扫描部件可以使LIDAR传感器403能够交错感测的数据,以增大LIDAR装置的分辨率(固有限制)。例如,具有8×32像素的输出分辨率的闪光LIDAR单元可以交错数据,以将分辨率或像素计数增大到16×32像素。在一个实施方式中,LIDAR传感器403和相机409的位置可以通过采用定制的滤光器代替分色滤光器进行调整或交换,例如,反射红外光或近红外光(例如,大致905nm)并让可见光谱中的可见光穿行通过的滤光器。
在一个实施方式中,LIDAR装置400包括具有大致45度至60度视场的LIDAR装置(例如,闪光LIDAR)。对于360度的水平视场,ADV(诸如,图1的ADV 101)可以围绕ADV的外部放置多个(例如,六个或更多个)LIDAR装置。在一个实施方式中,LIDAR装置400包括基于扫描LIDAR的微电子和机械系统(MEMS)(例如,具有MEMS镜的LIDAR),以通过扫描反射的光束进行感测。
图4是示出根据另一实施方式的与自动驾驶车辆一起使用的LIDAR系统的示例的示图。参考图4,LIDAR装置500类似于图3的LIDAR装置400。LIDAR装置500包括分色滤光器505,分色滤光器505可以定制成反射大致905nm的光并让可见光穿行通过,从而交换LIDAR传感器403和相机409的位置。另外,LIDAR装置500可以包括孔径501和相机503。相机503可以从穿行通过孔径501的可见光采集第三图像,使得相机409和相机503可以形成立体对。相机409和相机503例如可以以基线距离间隔开。基于视差信息(例如,立体图像之间的任何不匹配),可以对由相机409和相机503采集的立体图像应用立体对象分割算法,以确定立体深度图像(例如,与LIDAR传感器生成的图像相似的1D距离深度图像)。立体深度图像可以补充由LIDAR传感器403感测到的距离深度图像。在一个实施方式中,对于每个像素或其对应的像素,图像处理逻辑410可以对立体图像或立体深度图像以及LIDAR深度图像应用最低值函数。在另一实施方式中,对于每个像素或其对应的像素,图像处理逻辑可以对立体图像或立体深度图像以及LIDAR深度图像应用平均函数。
图5是示出根据一个实施方式的用于LIDAR图像和相机图像的直接映射的示图。LIDAR图像通常具有比由相机采集的图像低的分辨率。例如,LIDAR图像可以具有8×16像素的像素计数,而由相机采集的RGB图像可以具有1920×1080像素。LIDAR图像的每个像素包括指示目标与LIDAR传感器之间的距离深度的数据。RGB图像的每个像素包括表示目标的RGB值的数据。在一个实施方式中,图3的图像处理逻辑410将LIDAR图像映射到RGB图像上以生成3D图像,例如,具有具备深度信息的第三维度的RGB二维图像。例如,生成的3D图像可以包括四个通道(例如,R、G、B和深度)。参考图5,出于说明的目的,图像601是3×3像素的LIDAR图像,以及RGB图像603具有9×9像素。出于说明的目的,将对象610施加到图像601至图像603上。在此示例中,图像601具有深度为D2的一个像素605,而其余的像素具有深度D1。D1图像深度和D2图像深度可以分别表示背景和LIDAR传感器感测对象610。在一个实施方式中,由于LIDAR图像具有较低的分辨率,因此图像601的每个像素直接地映射到图像603的一个或多个像素上。如在此示例中所示出的,深度为D2的像素605映射到图像603的3×3像素607上。图像601的其余像素具有深度D1,并且映射至图像603上的对应像素。即,九个像素607中的每个将具有与像素605相同的深度。使用直接映射技术,计算加载需求是最小的,然而感知到的深度信息可能是像素化的,即,对象610的深度映射信息在对象610上轮廓处不精确。
图6是示出根据一个实施方式的用于LIDAR图像和相机图像的间接映射的示图。在一个实施方式中,图像处理逻辑410使用语义分割算法将LIDAR图像601映射到RGB图像703上。出于说明的目的,3×3像素的图像601映射到具有9×9像素的像素计数的图像703上。此处,图像703被首先应用例如深度学习算法的语义分割算法(作为图1的算法/模型124的一部分),以检测由RGB图像703感知到的对象。在此示例中,图像处理逻辑基于图像703来检测对象610。图像处理逻辑基于检测到的信息(例如,对象610)将图像601映射到图像703上。代替直接映射,用深度D2追踪对象610的轮廓。因此,使用语义分割生成的3D图像所感知到的深度信息增大了映射精度。
在一些实施方式中,LIDAR图像映射到由立体相机设置(例如,相对分开定位的两个相机)生成的立体RGB图像上。在此场景中,图像处理逻辑(诸如,图像处理逻辑410)可以首先对立体RGB图像应用立体分割算法(作为图1的算法/模型124的一部分),以生成立体深度图像(例如,与LIDAR图像相似的1D距离深度图像)。1D距离深度图像可以与RGB图像合并,以形成RGB-深度图像。RGB-深度图像可以包括四个通道(例如,三个颜色(R、G和B)通道以及由立体分割算法生成的具有距离深度的第四通道)。
此处,立体深度信息(例如,距离深度通道)具有比LIDAR图像(例如,诸如图6的图像601的示例性图像中的9个像素计数)高的分辨率(例如,诸如图6的图像703的示例性图像中的81个像素计数),而LIDAR图像通常具有较高的精度。在一个实施方式中,对于每个像素或其对应的像素,图像处理逻辑可以基于立体深度图像和LIDAR深度图像的最低值函数生成图像通道。在另一实施方式中,对于每个像素或其对应的像素,图像处理逻辑可以基于立体深度图像和LIDAR深度图像的平均函数生成图像通道。由于RGB图像包含2D颜色信息而LIDAR图像仅包含距离信息或深度信息,因此通过将RGB信息和距离信息组合来生成3DLIDAR图像。
图7是示出根据一个实施方式的操作LIDAR系统的过程的流程图。过程800可以由处理逻辑执行,所述处理逻辑可以包括硬件、软件或其组合。例如,过程800可以由如图3和图4中所示的3D LIDAR装置执行。参考图7,在操作801中,光源生成并发射光束,以感测与目标相关联的物理范围。在操作802中,位于目标与光检测器之间的分色镜将从目标反射的光束引导到光检测器以生成第一图像。在操作803中,分色镜将从目标反射的可见光引导到第一相机以生成第二图像。在操作804中,处理逻辑基于第一图像和第二图像生成3D图像。
在一个实施方式中,3D图像是通过将第一图像的一个或多个像素直接地映射到第二图像的一个或多个像素上而生成的,其中,第一图像的像素密度计数不同于第二图像的像素密度计数。在一个实施方式中,3D图像通过以下过程生成:对第二图像应用语义分割算法以将第二图像中感知到的对象分类;以及基于感知到的对象,将第一图像的一个或多个像素间接地映射到第二图像的一个或多个像素上。
在一个实施方式中,位于目标与分色镜之间的变焦透镜放大或缩小光检测器所感知到的视场。在一个实施方式中,位于目标与分色镜之间的扫描部件增大第一图像的像素密度计数。在一个实施方式中,处理逻辑感知第二图像和由第二相机生成的第三图像的视差,其中,第一相机和第二相机形成立体相机对。在另一实施方式中,通过对第二图像和第三图像应用立体分割算法来感知所述视差。
返回参考图1,根据一个实施方式,感知与规划系统110包括但不限于定位模块、感知模块、预测模块、决策模块、规划模块、路线模块和控制模块(未示出)。定位模块确定自动驾驶车辆的当前位置(例如,利用GPS单元212)以及管理与用户的行程或路线相关的任何数据。定位模块(也被称为地图与路线模块)管理与用户的行程或路线相关的任何数据。用户可以例如经由用户接口登录并指定行程的起始位置和目的地。定位模块与自动驾驶车辆的其它部件(诸如,地图和路线信息)通信,以获得行程相关数据。例如,定位模块可以从位置服务器和地图与POI(MPOI)服务器获得位置和路线信息。位置服务器提供位置服务,并且MPOI服务器提供地图服务和某些位置的POI,从而可以作为地图和路线信息的一部分高速缓存。当自动驾驶车辆沿着路线移动时,定位模块也可以从交通信息系统或服务器获得实时交通信息。
基于由传感器系统115提供的传感器数据和由定位模块获得的定位信息,感知模块确定对周围环境的感知。感知信息可以表示普通驾驶员在驾驶员正驾驶的车辆周围将感知到的东西。感知可以包括例如采用对象形式的车道配置(例如,直线车道或弯曲车道)、交通灯信号、另一车辆的相对位置、行人、建筑物、人行横道或其它交通相关标志(例如,停车标志、让行标志)等。
感知模块可以包括计算机视觉系统或计算机视觉系统的功能,以处理并分析由一个或多个相机采集的图像,从而识别自动驾驶车辆环境中的对象和/或特征。所述对象可以包括交通信号、道路边界、其它车辆、行人和/或障碍物等。计算机视觉系统可以使用对象识别算法、视频跟踪以及其它计算机视觉技术。在一些实施方式中,计算机视觉系统可以绘制环境地图,跟踪对象,以及估算对象的速度等。感知模块也可以基于由其它传感器(诸如,如上所述的雷达和/或LIDAR)提供的其它传感器数据来检测对象。
针对每个对象,预测模块预测对象在所述情况下将如何表现。预测是在考虑到一组地图/路线信息和交通规则的情况下基于感知该时间点的驾驶环境的感知数据而执行的。例如,如果对象为相反方向上的车辆且当前驾驶环境包括交叉路口,则预测模块将预测车辆将可能笔直向前移动还是转弯。如果感知数据指示交叉路口没有交通灯,则预测模块可能预测车辆在进入交叉路口之前可能需要完全停止。如果感知数据指示车辆目前处于仅左转弯车道或仅右转弯车道,则预测模块可能预测车辆将更可能分别左转弯或右转弯。
针对每个对象,决策模块作出关于如何处置对象的决定。例如,针对特定对象(例如,交叉路线中的另一车辆)以及描述对象的元数据(例如,速度、方向、转弯角度),决策模块决定如何面对所述对象(例如,超车、让行、停止、超过)。决策模块可以根据诸如交通规则或驾驶规则的规则集来作出此类决定,所述规则集可以存储在永久性存储装置中。
路线模块配置成提供从起始点到目的地点的一个或多个路线或路径。对于从起始位置到目的地位置的给定行程,例如从用户接收的给定行程,路线模块获得路线与地图信息并确定从起始位置至到达目的地位置的所有可能路线或路径。路线模块可以为每个路线生成地形图形式的参考线,它确定了从起始位置至到达目的地位置。参考线是指不受其它诸如其它车辆、障碍物或交通状况的任何干扰影响的理想路线或路径。即,如果道路上没有其它车辆、行人或障碍物,则ADV应精确地或紧密地遵循参考线。然后,将地形图提供至决策模块和/或规划模块。考虑到由其它模块提供的其它数据(诸如,来自定位模块的交通状况、由感知模块感知到的驾驶环境以及由预测模块预测的交通状况),决策模块和/或规划模块检查所有可能的路线以选择和更改最佳路线中的一个。根据该时间点的特定驾驶环境,用于控制ADV的实际路径或路线可能接近于或不同于由路线模块提供的参考线。
基于对所感知到的每个对象的决定,规划模块使用由路线模块提供的参考线作为基础,为自动驾驶车辆规划路径或路线以及驾驶参数(例如,距离、速度和/或转弯角度)。换言之,针对给定的对象,决策模块决定如何面对该对象,而规划模块确定如何去做。例如,针对给定的对象,决策模块可以决定超过所述对象,而规划模块可以确定在所述对象的左侧还是右侧超过。规划和控制数据由规划模块生成,其包括描述车辆将如何在下一移动周期(例如,下一路线/路径段)中移动的信息。例如,规划和控制数据可以指示车辆以30英里每小时(mph)的速度移动10米,随后以25mph的速度变到右车道。
基于规划和控制数据,控制模块根据由规划和控制数据限定的路线或路径通过将适当的指令或信号发送到车辆控制系统111来控制并驾驶自动驾驶车辆。所述规划和控制数据包括足够的信息,以沿着路径或路线不同的时间点使用适当的车辆设置或驾驶参数(例如,油门、制动和转弯指令)将车辆从路线或路径的第一点驾驶到第二点。
在一个实施方式中,规划阶段在多个规划周期(也称作为指令周期)中执行,例如,在每个时间间隔为100毫秒(ms)的周期中执行。对于规划周期或指令周期中的每个,将基于规划和控制数据发出一个或多个控制指令。即,对于每100ms,规划模块规划下一路线段或路径段,例如,包括目标位置和ADV到达目标位置所需要的时间。可替代地,规划模块还可以规定具体的速度、方向和/或转向角度等。在一个实施方式中,规划模块为下一预定时间段(诸如,5秒)规划路线段或路径段。对于每个规划周期,规划模块基于在前一周期中规划的目标位置规划当前周期(例如,下一个5秒)的目标位置。然后,控制模块基于当前周期的规划和控制数据生成一个或多个控制指令(例如,油门、制动、转向控制指令)。
应注意,决策模块和规划模块可以集成为集成模块。决策模块/规划模块可以包括导航系统或导航系统的功能,以确定自动驾驶车辆的驾驶路径。例如,导航系统可以确定用于实现自动驾驶车辆沿着以下路径移动的一系列速度和前进方向:所述路径在使自动驾驶车辆沿着通往最终目的地的基于车行道的路径前进的同时,基本上避免感知到的障碍物。目的地可以根据经由用户接口系统113的用户输入来设定。导航系统可以在自动驾驶车辆正在运行的同时动态地更新驾驶路径。导航系统可以将来自GPS系统的数据与一个或多个地图合并,以确定自动驾驶车辆的驾驶路径。
决策模块/规划模块还可以包括防撞系统或防撞系统的功能,以识别、评估和避免或以其它方式越过自动驾驶车辆的环境中的潜在障碍物。例如,防撞系统可以通过以下方式实现自动驾驶车辆的导航的变化:操作控制系统111中的一个或多个子系统来采取变向操纵、转弯操纵、制动操纵等。防撞系统可以基于周围的交通模式、道路状况等自动确定可行的障碍物回避操纵。防撞系统可以配置成使得当其它传感器系统检测到位于自动驾驶车辆将变向进入的相邻区域中的车辆、建筑障碍物等时不采取变向操纵。防撞系统可以自动选择既可用的又使得自动驾驶车辆乘员的安全性最大化的操纵。防撞系统可以选择预测使得自动驾驶车辆的乘客舱中出现最小量的加速度的避让操纵。
应注意,以上示出和描述的部件中的一些或全部可以以软件、硬件或其组合实施。例如,这样的部件可以实施为安装并存储在永久性存储装置中的软件,所述软件可以通过处理器(未示出)加载在存储器中并执行,以实施本申请中描述的过程或操作。可替代地,这样的部件可以实施为编程或嵌入到专用硬件(诸如,集成电路(例如,专用IC或ASIC)、数字信号处理器(DSP)或现场可编程门阵列(FPGA))中的可执行代码,所述可执行代码可以经由来自应用的相应驱动程序和/或操作系统被访问。此外,这样的部件可以实施为处理器中或处理器内核中的作为可以由软件部件经过一个或多个特定指令访问的指令集的一部分的特定硬件逻辑。
图8是示出可以与本发明的一个实施方式一起使用的数据处理系统的示例的框图。例如,系统1500可以表示以上所述的执行上述过程或方法中的任一个的任何数据处理系统,例如,图1的传感器系统115或者服务器103至服务器104中的任一个。系统1500可以包括许多不同的部件。这些部件可以实施为集成电路(IC)、集成电路的部分、分立电子装置或适用于电路板(诸如,计算机系统的主板或插入卡)的其它模块或者实施为以其它方式并入计算机系统的机架内的部件。
还应注意,系统1500旨在示出计算机系统的许多部件的高阶视图。然而,应当理解的是,某些实施例中可以具有附加的部件,此外,其它实施例中可以具有所示部件的不同布置。系统1500可以表示台式计算机、膝上型计算机、平板计算机、服务器、移动电话、媒体播放器、个人数字助理(PDA)、智能手表、个人通信器、游戏装置、网络路由器或集线器、无线接入点(AP)或中继器、机顶盒或其组合。此外,虽然仅示出了单个机器或系统,但是术语“机器”或“系统”还应当被理解为包括单独地或共同地执行一个(或多个)指令集以执行本文所讨论的任何一种或多种方法的机器或系统的任何集合。
在一个实施方式中,系统1500包括经由总线或互连件1510连接的处理器1501、存储器1503以及装置1505至1508。处理器1501可以表示其中包括单个处理器内核或多个处理器内核的单个处理器或多个处理器。处理器1501可以表示一个或多个通用处理器,诸如,微处理器、中央处理单元(CPU)等。更具体地,处理器1501可以是复杂指令集计算(CISC)微处理器、精简指令集计算(RISC)微处理器、超长指令字(VLIW)微处理器、或实施其它指令集的处理器、或实施指令集组合的处理器。处理器1501还可以是一个或多个专用处理器,诸如,专用集成电路(ASIC)、蜂窝或基带处理器、现场可编程门阵列(FPGA)、数字信号处理器(DSP)、网络处理器、图形处理器、通信处理器、加密处理器、协处理器、嵌入式处理器、或者能够处理指令的任何其它类型的逻辑。
处理器1501(其可以是低功率多核处理器套接口,诸如超低电压处理器)可以充当用于与所述系统的各种部件通信的主处理单元和中央集线器。这种处理器可以实施为片上系统(SoC)。处理器1501被配置成执行用于执行本文所讨论的操作和步骤的指令。系统1500还可以包括与可选的图形子系统1504通信的图形接口,图形子系统1504可以包括显示控制器、图形处理器和/或显示装置。
处理器1501可以与存储器1503通信,存储器1503在一个实施方式中可以经由多个存储器装置实施以提供给定量的系统存储。存储器1503可以包括一个或多个易失性存储(或存储器)装置,诸如,随机存取存储器(RAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、静态RAM(SRAM)或者其它类型的存储装置。存储器1503可以存储包括由处理器1501或任何其它装置执行的指令序列的信息。例如,各种操作系统、装置驱动程序、固件(例如,输入输出基本系统或BIOS)和/或应用的可执行代码和/或数据可以加载到存储器1503中并由处理器1501执行。操作系统可以是任何类型的操作系统,例如,机器人操作系统(ROS)、来自公司的操作系统、来自苹果公司的Mac来自公司的LINUX、UNIX或者其它实时或嵌入式操作系统。
系统1500还可以包括IO装置,诸如装置1505至1508,包括网络接口装置1505、可选的输入装置1506以及其它可选的IO装置1507。网络接口装置1505可以包括无线收发器和/或网络接口卡(NIC)。所述无线收发器可以是WiFi收发器、红外收发器、蓝牙收发器、WiMax收发器、无线蜂窝电话收发器、卫星收发器(例如,全球定位系统(GPS)收发器)或其它射频(RF)收发器或者它们的组合。NIC可以是以太网卡。
输入装置1506可以包括鼠标、触摸板、触敏屏幕(其可以与显示装置1504集成在一起)、指针装置(诸如,手写笔)和/或键盘(例如,物理键盘或作为触敏屏幕的一部分显示的虚拟键盘)。例如,输入装置1506可以包括联接到触摸屏的触摸屏控制器。触摸屏和触摸屏控制器例如可以使用多种触敏技术(包括但不限于电容、电阻、红外和表面声波技术)中的任一种以及其它接近传感器阵列或用于确定与触摸屏接触的一个或多个点的其它元件来检测其接触和移动或间断。
IO装置1507可以包括音频装置。音频装置可以包括扬声器和/或麦克风,以促进支持语音的功能,诸如语音识别、语音复制、数字记录和/或电话功能。其它IO装置1507还可以包括通用串行总线(USB)端口、并行端口、串行端口、打印机、网络接口、总线桥(例如,PCI-PCI桥)、传感器(例如,诸如加速度计的运动传感器、陀螺仪、磁强计、光传感器、罗盘、接近传感器等)或者它们的组合。装置1507还可以包括成像处理子系统(例如,相机),所述成像处理子系统可以包括用于促进相机功能(诸如,记录照片和视频片段)的光学传感器,诸如电荷耦合装置(CCD)或互补金属氧化物半导体(CMOS)光学传感器。某些传感器可以经由传感器集线器(未示出)联接到互连件1510,而诸如键盘或热传感器的其它装置可以根据系统1500的具体配置或设计由嵌入式控制器(未示出)控制。
为了提供对诸如数据、应用、一个或多个操作系统等信息的永久性存储,大容量存储设备(未示出)也可以联接到处理器1501。在各种实施方式中,为了实现更薄且更轻的系统设计并且改进系统响应性,这种大容量存储设备可以经由固态装置(SSD)来实施。然而,在其它实施方式中,大容量存储设备可以主要使用硬盘驱动器(HDD)来实施,其中较小量的SSD存储设备充当SSD高速缓存以在断电事件期间实现上下文状态以及其它此类信息的非易失性存储,从而使得在系统活动重新启动时能够实现快速通电。另外,闪存装置可以例如经由串行外围接口(SPI)联接到处理器1501。这种闪存装置可以提供系统软件的非易失性存储,所述系统软件包括所述系统的BIOS以及其它固件。
存储装置1508可以包括计算机可访问的存储介质1509(也被称为机器可读存储介质或计算机可读介质),其上存储有体现本文所述的任何一种或多种方法或功能的一个或多个指令集或软件(例如,模块、单元和/或逻辑1528)。处理模块/单元/逻辑1528可以表示上述部件中的任一个,例如,图4至图5的图像处理逻辑,图2的传感器系统115。处理模块/单元/逻辑1528还可以在其由数据处理系统1500、存储器1503和处理器1501执行期间完全地或至少部分地驻留在存储器1503内和/或处理器1501内,数据处理系统1500、存储器1503和处理器1501也构成机器可访问的存储介质。处理模块/单元/逻辑1528还可以通过网络经由网络接口装置1505进行传输或接收。
计算机可读存储介质1509也可以用来永久性地存储以上描述的一些软件功能。虽然计算机可读存储介质1509在示例性实施方式中被示为单个介质,但是术语“计算机可读存储介质”应当被认为包括存储所述一个或多个指令集的单个介质或多个介质(例如,集中式或分布式数据库和/或相关联的高速缓存和服务器)。术语“计算机可读存储介质”还应当被认为包括能够存储或编码指令集的任何介质,所述指令集用于由机器执行并且使得所述机器执行本发明的任何一种或多种方法。因此,术语“计算机可读存储介质”应当被认为包括但不限于固态存储器以及光学介质和磁性介质,或者任何其它非暂时性机器可读介质。
本文所述的处理模块/单元/逻辑1528、部件以及其它特征可以实施为分立硬件部件或集成在硬件部件(诸如,ASICS、FPGA、DSP或类似装置)的功能中。此外,处理模块/单元/逻辑1528可以实施为硬件装置内的固件或功能电路。此外,处理模块/单元/逻辑1528可以以硬件装置和软件部件的任何组合来实施。
应注意,虽然系统1500被示出为具有数据处理系统的各种部件,但是并不旨在表示使部件互连的任何特定架构或方式;因为此类细节和本发明的实施方式没有密切关系。还应当认识到,具有更少部件或可能具有更多部件的网络计算机、手持计算机、移动电话、服务器和/或其它数据处理系统也可以与本发明的实施方式一起使用。
前述详细描述中的一些部分已经根据在计算机存储器内对数据位的运算的算法和符号表示而呈现。这些算法描述和表示是数据处理领域中的技术人员所使用的方式,以将他们的工作实质最有效地传达给本领域中的其他技术人员。本文中,算法通常被认为是导致所期望结果的自洽操作序列。这些操作是指需要对物理量进行物理操控的操作。
然而,应当牢记,所有这些和类似的术语旨在与适当的物理量关联,并且仅仅是应用于这些量的方便标记。除非在以上讨论中以其它方式明确地指出,否则应当了解,在整个说明书中,利用术语(诸如所附权利要求书中所阐述的术语)进行的讨论是指计算机系统或类似电子计算装置的动作和处理,所述计算机系统或电子计算装置操控计算机系统的寄存器和存储器内的表示为物理(电子)量的数据,并将所述数据变换成计算机系统存储器或寄存器或者其它此类信息存储设备、传输或显示装置内类似地表示为物理量的其它数据。
本发明的实施方式还涉及用于执行本文中的操作的设备。这种计算机程序被存储在非暂时性计算机可读介质中。机器可读介质包括用于以机器(例如,计算机)可读的形式存储信息的任何机构。例如,机器可读(例如,计算机可读)介质包括机器(例如,计算机)可读存储介质(例如,只读存储器(“ROM”)、随机存取存储器(“RAM”)、磁盘存储介质、光存储介质、闪存存储器装置)。
前述附图中所描绘的过程或方法可以由处理逻辑来执行,所述处理逻辑包括硬件(例如,电路、专用逻辑等)、软件(例如,实施在非暂时性计算机可读介质上)或两者的组合。尽管所述过程或方法在上文是依据一些顺序操作来描述的,但是应当了解,所述操作中的一些可以按不同的顺序执行。此外,一些操作可以并行地执行而不是顺序地执行。
本发明的实施方式并未参考任何特定的编程语言进行描述。应认识到,可以使用多种编程语言来实施如本文描述的本发明的实施方式的教导。
在以上的说明书中,已经参考本发明的具体示例性实施方式对本发明的实施方式进行了描述。将显而易见的是,在不脱离所附权利要求书中阐述的本发明的更宽泛精神和范围的情况下,可以对本发明作出各种修改。因此,应当在说明性意义而不是限制性意义上来理解本说明书和附图。
Claims (21)
1.自动驾驶车辆的三维光探测与测距装置,所述光探测与测距装置包括:
光源,发射光束以感测与目标相关联的物理范围;
光检测器,接收从所述目标反射的所述光束的至少一部分;
第一相机;
分色镜,位于所述目标与所述光检测器之间,所述分色镜配置成将从所述目标反射的所述光束引导至所述光检测器以生成第一图像,其中,所述分色镜还将从所述目标反射的可见光引导至所述第一相机以生成第二图像;以及
图像处理逻辑,联接至所述光检测器和所述第一相机以将所述第一图像和所述第二图像组合从而生成三维图像,其中,所述三维图像用于感知所述自动驾驶车辆周围的驾驶环境。
2.根据权利要求1所述的装置,其中,所述三维图像通过将所述第一图像的一个或多个像素直接地映射到所述第二图像的一个或多个像素上而生成,其中,所述第一图像的像素密度计数不同于所述第二图像的像素密度计数。
3.根据权利要求1所述的装置,其中,所述三维图像通过以下过程生成:
对所述第二图像应用语义分割算法,以将所述第二图像中感知到的对象分类;以及
基于所感知到的对象,将所述第一图像的一个或多个像素间接地映射到所述第二图像的一个或多个像素上。
4.根据权利要求1所述的装置,还包括:
变焦透镜,位于所述目标与所述分色镜之间,以放大或缩小所述光检测器感知到的视场。
5.根据权利要求1所述的装置,还包括:
扫描部件,位于所述目标与所述分色镜之间,以增大所述第一图像的像素密度计数。
6.根据权利要求1所述的装置,还包括:
第二相机,相对于所述第一相机定位以形成立体相机对,所述第二相机生成用于感知与所述第二图像的视差的第三图像。
7.根据权利要求6所述的装置,其中,所述视差通过对所述第二图像和所述第三图像应用立体分割算法而感知。
8.一种用于操作自动驾驶车辆的三维光探测与测距装置的机器实施方法,所述方法包括:
通过光源发射光束,以感测与目标相关联的物理范围;
通过位于所述目标与光检测器之间的分色镜将从所述目标反射的所述光束引导到所述光检测器,以生成第一图像;
通过所述分色镜将从所述目标反射的可见光引导到第一相机,以生成第二图像;以及
基于所述第一图像和所述第二图像生成三维图像,其中,所述三维图像用于感知所述自动驾驶车辆周围的驾驶环境。
9.根据权利要求8所述的方法,其中,所述三维图像通过将所述第一图像的一个或多个像素直接地映射到所述第二图像的一个或多个像素上而生成,其中,所述第一图像的像素密度计数不同于所述第二图像的像素密度计数。
10.根据权利要求8所述的方法,其中,所述三维图像通过以下过程生成:
对所述第二图像应用语义分割算法,以将所述第二图像中感知到的对象分类;以及
基于所感知到的对象,将所述第一图像的一个或多个像素间接地映射到所述第二图像的一个或多个像素上。
11.根据权利要求8所述的方法,还包括:经由位于所述目标与所述分色镜之间的变焦透镜来放大或缩小所述光检测器感知到的视场。
12.根据权利要求8所述的方法,还包括:经由位于所述目标与所述分色镜之间的扫描部件来增大所述第一图像的像素密度计数。
13.根据权利要求8所述的方法,还包括:感知所述第二图像与由第二相机生成的第三图像的视差,其中,所述第一相机和所述第二相机形成立体相机对。
14.根据权利要求13所述的方法,其中,所述视差通过对所述第二图像和所述第三图像应用立体分割算法而感知。
15.自动驾驶车辆,包括:
光探测与测距装置,其中所述光探测与测距装置包括:
光源,发射光束以感测与目标相关联的物理范围,
光检测器,接收从所述目标反射的所述光束的至少一部分,
第一相机,以及
分色镜,位于所述目标与所述光检测器之间,所述分色镜配置成将从所述目标反射的所述光束引导至所述光检测器以生成第一图像,其中,所述分色镜还将从所述目标反射的可见光引导至所述第一相机以生成第二图像;
图像处理逻辑,联接至所述光检测器和所述第一相机,以将所述第一图像和所述第二图像组合从而生成三维图像;以及
感知与规划系统,联接至所述光探测与测距装置和所述图像处理逻辑,以感知所述自动驾驶车辆周围的驾驶环境以及控制所述自动驾驶车辆导航通过所述驾驶环境。
16.根据权利要求15所述的自动驾驶车辆,其中,所述三维图像通过将所述第一图像的一个或多个像素直接地映射到所述第二图像的一个或多个像素上而生成,其中,所述第一图像的像素密度计数不同于所述第二图像的像素密度计数。
17.根据权利要求15所述的自动驾驶车辆,其中,所述三维图像通过以下过程生成:
对所述第二图像应用语义分割算法,以将所述第二图像中感知到的对象分类;以及
基于所感知到的对象,将所述第一图像的一个或多个像素间接地映射到所述第二图像的一个或多个像素上。
18.根据权利要求15所述的自动驾驶车辆,其中,所述光探测与测距装置还包括:
变焦透镜,位于所述目标与所述分色镜之间,以放大或缩小所述光检测器感知到的视场。
19.根据权利要求15所述的自动驾驶车辆,其中,所述光探测与测距装置还包括:
扫描部件,位于所述目标与所述分色镜之间,以增大所述第一图像的像素密度计数。
20.根据权利要求15所述的自动驾驶车辆,其中,所述光探测与测距装置还包括:
第二相机,相对于所述第一相机定位以形成立体相机对,所述第二相机生成用于感知与所述第二图像的视差的第三图像。
21.根据权利要求20所述的自动驾驶车辆,其中,所述视差通过对所述第二图像和所述第三图像应用立体分割算法而感知。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/796,546 | 2017-10-27 | ||
US15/796,546 US11758111B2 (en) | 2017-10-27 | 2017-10-27 | 3D lidar system using a dichroic mirror for autonomous driving vehicles |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109725634A true CN109725634A (zh) | 2019-05-07 |
CN109725634B CN109725634B (zh) | 2023-04-28 |
Family
ID=63637683
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810980801.7A Active CN109725634B (zh) | 2017-10-27 | 2018-08-27 | 用于自动驾驶车辆的使用分色镜的3d lidar系统 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11758111B2 (zh) |
EP (1) | EP3477338A1 (zh) |
JP (1) | JP6830936B2 (zh) |
KR (1) | KR102100051B1 (zh) |
CN (1) | CN109725634B (zh) |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11758111B2 (en) | 2017-10-27 | 2023-09-12 | Baidu Usa Llc | 3D lidar system using a dichroic mirror for autonomous driving vehicles |
CN110378185A (zh) * | 2018-04-12 | 2019-10-25 | 北京图森未来科技有限公司 | 一种应用于自动驾驶车辆的图像处理方法、装置 |
WO2019236588A1 (en) | 2018-06-04 | 2019-12-12 | The Research Foundation For The State University Of New York | System and method associated with expedient determination of location of one or more object(s) within a bounded perimeter of 3d space based on mapping and navigation to a precise poi destination using a smart laser pointer device |
US10679369B2 (en) * | 2018-06-12 | 2020-06-09 | Chiral Software, Inc. | System and method for object recognition using depth mapping |
US11199413B2 (en) * | 2018-07-19 | 2021-12-14 | Qualcomm Incorporated | Navigation techniques for autonomous and semi-autonomous vehicles |
US11699207B2 (en) * | 2018-08-20 | 2023-07-11 | Waymo Llc | Camera assessment techniques for autonomous vehicles |
US11227409B1 (en) | 2018-08-20 | 2022-01-18 | Waymo Llc | Camera assessment techniques for autonomous vehicles |
US11079492B1 (en) * | 2018-09-28 | 2021-08-03 | Zoox, Inc. | Condition dependent parameters for large-scale localization and/or mapping |
US10627512B1 (en) * | 2018-11-29 | 2020-04-21 | Luminar Technologies, Inc. | Early fusion of lidar return data with camera information |
JP7298350B2 (ja) * | 2019-07-08 | 2023-06-27 | 株式会社リコー | 測距装置、情報処理装置、測距方法、車載装置、移動体、測距システム |
KR102297836B1 (ko) * | 2019-11-07 | 2021-09-03 | 네이버랩스 주식회사 | 딥 러닝 기반 가상 환경 점 군 데이터의 반사도 정보 검출 방법 및 그를 수행하는 전자 장치 |
US11763433B2 (en) * | 2019-11-14 | 2023-09-19 | Samsung Electronics Co., Ltd. | Depth image generation method and device |
US11567173B2 (en) | 2020-03-04 | 2023-01-31 | Caterpillar Paving Products Inc. | Systems and methods for increasing lidar sensor coverage |
US11598878B2 (en) * | 2020-04-07 | 2023-03-07 | Teledyne Scientific & Imaging, Llc | Vision-cued random-access lidar system and method for localization and navigation |
US20220018940A1 (en) * | 2020-07-16 | 2022-01-20 | Comotomo Corporation | Vision first light detection and ranging system |
KR102239594B1 (ko) * | 2020-09-04 | 2021-04-13 | (주)딥인사이트 | 굴곡 표현 이미지를 생성하기 위한 전자 장치 및 방법 |
CN114578380A (zh) * | 2020-12-02 | 2022-06-03 | 华为技术有限公司 | 探测装置及其控制方法、控制装置、激光雷达系统和终端 |
KR20220079100A (ko) | 2020-12-04 | 2022-06-13 | (주)에이지광학 | 차량용 라이다에 적용하기 위한 고굴절율 렌즈의 제조방법. |
KR102654614B1 (ko) * | 2020-12-11 | 2024-04-05 | 재단법인대구경북과학기술원 | 깊이 이미지 생성 장치 및 그 동작 방법 |
CN112766135B (zh) * | 2021-01-14 | 2024-03-19 | 北京航空航天大学杭州创新研究院 | 目标检测方法、装置、电子设备和存储介质 |
GB2603774A (en) * | 2021-02-11 | 2022-08-17 | Wind Farm Analytics Ltd | A Turbine Provided with Data for Parameter Improvement |
WO2022093303A1 (en) * | 2021-02-17 | 2022-05-05 | Futurewei Technologies, Inc. | Unisource multi-modal perception in autonomous vehicles |
JP2022143489A (ja) * | 2021-03-17 | 2022-10-03 | 京セラ株式会社 | 電磁波検出装置 |
DE102021120807A1 (de) * | 2021-08-10 | 2023-02-16 | OSRAM Opto Semiconductors Gesellschaft mit beschränkter Haftung | Lidar-sensorvorrichtung und messverfahren |
KR20230097572A (ko) | 2021-12-24 | 2023-07-03 | (주)에이지광학 | 차량용 라이다에 적용하기 위한 고굴절율 렌즈의 제조방법. |
JP2023137090A (ja) * | 2022-03-17 | 2023-09-29 | 株式会社東芝 | 測距装置及び測距方法 |
US11871130B2 (en) | 2022-03-25 | 2024-01-09 | Innovusion, Inc. | Compact perception device |
WO2024049500A2 (en) * | 2022-03-25 | 2024-03-07 | Innovusion, Inc. | Multimodal detection with integrated sensors |
WO2024013142A1 (en) * | 2022-07-15 | 2024-01-18 | Lightcode Photonics Oü | Image capture device with wavelength separation device |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120044476A1 (en) * | 2008-05-09 | 2012-02-23 | Ball Aerospace & Technologies Corp. | Systems and methods of scene and action capture using imaging system incorporating 3d lidar |
US20130278716A1 (en) * | 2012-04-18 | 2013-10-24 | Raytheon Company | Methods and apparatus for 3d uv imaging |
US20130342657A1 (en) * | 2012-06-15 | 2013-12-26 | Nikon Corporation | Stereo vision camera for laser radar |
CN104899855A (zh) * | 2014-03-06 | 2015-09-09 | 株式会社日立制作所 | 三维障碍物检测方法和装置 |
US9369689B1 (en) * | 2015-02-24 | 2016-06-14 | HypeVR | Lidar stereo fusion live action 3D model video reconstruction for six degrees of freedom 360° volumetric virtual reality video |
CN106080397A (zh) * | 2016-08-25 | 2016-11-09 | 北京奇虎科技有限公司 | 自适应巡航系统及车载设备 |
US9598076B1 (en) * | 2015-10-22 | 2017-03-21 | Ford Global Technologies, Llc | Detection of lane-splitting motorcycles |
EP3477338A1 (en) * | 2017-10-27 | 2019-05-01 | Baidu USA LLC | 3d lidar system using dichroic mirror for autonomous driving vehicles |
CN111366910A (zh) * | 2018-12-10 | 2020-07-03 | 百度(美国)有限责任公司 | 用于自动驾驶车辆的光探测和测距装置 |
CN111480094A (zh) * | 2017-12-13 | 2020-07-31 | 天空激光二极管有限公司 | 包括含镓和氮的激光光源的lidar系统 |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4931288B2 (ja) | 2001-06-08 | 2012-05-16 | ペンタックスリコーイメージング株式会社 | 画像検出装置と絞り装置 |
JP4006577B2 (ja) | 2002-03-13 | 2007-11-14 | オムロン株式会社 | 監視装置 |
JP4032843B2 (ja) | 2002-06-25 | 2008-01-16 | 富士重工業株式会社 | 監視システムおよび監視方法、当該監視システムにおける距離補正装置および距離補正方法 |
JP2005332404A (ja) | 2002-09-24 | 2005-12-02 | Motoi Soken:Kk | コンテンツ提供システム |
US6847728B2 (en) | 2002-12-09 | 2005-01-25 | Sarnoff Corporation | Dynamic depth recovery from multiple synchronized video streams |
JP4445763B2 (ja) | 2004-01-30 | 2010-04-07 | セコム株式会社 | 画像生成装置及び侵入者監視装置 |
JP5072195B2 (ja) | 2005-05-13 | 2012-11-14 | 三菱重工業株式会社 | 監視装置 |
JP2006323693A (ja) | 2005-05-19 | 2006-11-30 | Olympus Corp | 処理装置、画像処理方法および画像処理プログラム |
KR101467509B1 (ko) | 2008-07-25 | 2014-12-01 | 삼성전자주식회사 | 이미지 센서 및 이미지 센서 동작 방법 |
JP5584603B2 (ja) | 2010-12-06 | 2014-09-03 | 富士通テン株式会社 | 情報提供システムおよび情報提供装置 |
DE102010055865A1 (de) | 2010-12-22 | 2011-07-28 | Daimler AG, 70327 | Kameravorrichtung für einen Kraftwagen |
US10848731B2 (en) * | 2012-02-24 | 2020-11-24 | Matterport, Inc. | Capturing and aligning panoramic image and depth data |
KR101976463B1 (ko) | 2012-08-29 | 2019-05-09 | 엘지전자 주식회사 | 3차원 영상 생성 장치 및 방법 |
JP2014072586A (ja) | 2012-09-27 | 2014-04-21 | Sharp Corp | 表示装置、表示方法、テレビジョン受像機、プログラム、および、記録媒体 |
JP2014203207A (ja) | 2013-04-03 | 2014-10-27 | ソニー株式会社 | 情報処理装置、情報処理方法及びコンピュータプログラム |
US9215510B2 (en) | 2013-12-06 | 2015-12-15 | Rovi Guides, Inc. | Systems and methods for automatically tagging a media asset based on verbal input and playback adjustments |
KR101545971B1 (ko) | 2013-12-11 | 2015-08-24 | 한국생산기술연구원 | 복합 영상 센싱 시스템 |
JP6346281B2 (ja) | 2014-07-04 | 2018-06-20 | クラリオン株式会社 | 車載対話型システム、及び車載情報機器 |
US10126411B2 (en) * | 2015-03-13 | 2018-11-13 | Continental Advanced Lidar Solutions Us, Llc. | Beam steering LADAR sensor |
WO2016161104A1 (en) * | 2015-04-01 | 2016-10-06 | Vayavision, Ltd. | Generating 3-dimensional maps of a scene using passive and active measurements |
US10282591B2 (en) | 2015-08-24 | 2019-05-07 | Qualcomm Incorporated | Systems and methods for depth map sampling |
JP6637711B2 (ja) | 2015-10-09 | 2020-01-29 | キヤノン株式会社 | 符号化装置及びその制御方法、プログラム並びに記憶媒体 |
US10379540B2 (en) * | 2016-10-17 | 2019-08-13 | Waymo Llc | Light detection and ranging (LIDAR) device having multiple receivers |
US10737695B2 (en) * | 2017-07-01 | 2020-08-11 | Tusimple, Inc. | System and method for adaptive cruise control for low speed following |
US10447973B2 (en) * | 2017-08-08 | 2019-10-15 | Waymo Llc | Rotating LIDAR with co-aligned imager |
CN111366940A (zh) | 2020-04-01 | 2020-07-03 | 温州职业技术学院 | 一种便于移动的室内设计用测量装置 |
-
2017
- 2017-10-27 US US15/796,546 patent/US11758111B2/en active Active
-
2018
- 2018-08-27 CN CN201810980801.7A patent/CN109725634B/zh active Active
- 2018-09-17 EP EP18194712.8A patent/EP3477338A1/en active Pending
- 2018-09-18 KR KR1020180111845A patent/KR102100051B1/ko active IP Right Grant
- 2018-10-04 JP JP2018188878A patent/JP6830936B2/ja active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120044476A1 (en) * | 2008-05-09 | 2012-02-23 | Ball Aerospace & Technologies Corp. | Systems and methods of scene and action capture using imaging system incorporating 3d lidar |
US20130278716A1 (en) * | 2012-04-18 | 2013-10-24 | Raytheon Company | Methods and apparatus for 3d uv imaging |
US20130342657A1 (en) * | 2012-06-15 | 2013-12-26 | Nikon Corporation | Stereo vision camera for laser radar |
CN104899855A (zh) * | 2014-03-06 | 2015-09-09 | 株式会社日立制作所 | 三维障碍物检测方法和装置 |
US9369689B1 (en) * | 2015-02-24 | 2016-06-14 | HypeVR | Lidar stereo fusion live action 3D model video reconstruction for six degrees of freedom 360° volumetric virtual reality video |
US9598076B1 (en) * | 2015-10-22 | 2017-03-21 | Ford Global Technologies, Llc | Detection of lane-splitting motorcycles |
CN106080397A (zh) * | 2016-08-25 | 2016-11-09 | 北京奇虎科技有限公司 | 自适应巡航系统及车载设备 |
EP3477338A1 (en) * | 2017-10-27 | 2019-05-01 | Baidu USA LLC | 3d lidar system using dichroic mirror for autonomous driving vehicles |
US20190132572A1 (en) * | 2017-10-27 | 2019-05-02 | Baidu Usa Llc | 3d lidar system using a dichroic mirror for autonomous driving vehicles |
CN111480094A (zh) * | 2017-12-13 | 2020-07-31 | 天空激光二极管有限公司 | 包括含镓和氮的激光光源的lidar系统 |
CN111366910A (zh) * | 2018-12-10 | 2020-07-03 | 百度(美国)有限责任公司 | 用于自动驾驶车辆的光探测和测距装置 |
Also Published As
Publication number | Publication date |
---|---|
CN109725634B (zh) | 2023-04-28 |
JP2019109219A (ja) | 2019-07-04 |
KR20190047595A (ko) | 2019-05-08 |
KR102100051B1 (ko) | 2020-04-10 |
JP6830936B2 (ja) | 2021-02-17 |
EP3477338A1 (en) | 2019-05-01 |
US11758111B2 (en) | 2023-09-12 |
US20190132572A1 (en) | 2019-05-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109725634A (zh) | 用于自动驾驶车辆的使用分色镜的3d lidar系统 | |
CN112801124B (zh) | 用于运载工具的方法和系统 | |
US11204253B2 (en) | Method and apparatus for displaying virtual route | |
CN110832348B (zh) | 用于自主车辆的高清晰度地图的点云数据丰富 | |
EP3707469B1 (en) | A point clouds registration system for autonomous vehicles | |
US10031526B1 (en) | Vision-based driving scenario generator for autonomous driving simulation | |
US10331957B2 (en) | Method, apparatus, and system for vanishing point/horizon estimation using lane models | |
CN108732589A (zh) | 利用3d lidar和定位自动采集用于对象识别的训练数据 | |
CN109489673A (zh) | 用于自动驾驶车辆的数据驱动地图更新系统 | |
CN110345955A (zh) | 用于自动驾驶的感知与规划协作框架 | |
CN110389583A (zh) | 生成自动驾驶车辆的轨迹的方法 | |
CN109426256A (zh) | 自动驾驶车辆的基于驾驶员意图的车道辅助系统 | |
CN110386142A (zh) | 用于自动驾驶车辆的俯仰角校准方法 | |
US11520347B2 (en) | Comprehensive and efficient method to incorporate map features for object detection with LiDAR | |
CN108427123A (zh) | Lidar装置和用于操作lidar装置的方法 | |
CN108399218A (zh) | 基于Walsh内核投影技术的自动驾驶车辆定位 | |
CN108205830A (zh) | 识别对于无人驾驶车辆的个人驾驶偏好的方法和系统 | |
US11275673B1 (en) | Simulated LiDAR data | |
CN108604095A (zh) | 动态调整自动驾驶车辆的转向率的方法 | |
KR20200029785A (ko) | 증강 현실에서 가상 객체를 표시하기 위한 측위 방법 및 장치 | |
EP3671623B1 (en) | Method, apparatus, and computer program product for generating an overhead view of an environment from a perspective image | |
CN110349416A (zh) | 用于自动驾驶车辆(adv)的基于密度的交通灯控制系统 | |
CN109491378A (zh) | 自动驾驶车辆的基于道路分段的路线引导系统 | |
CN110096054A (zh) | 用于使用多个线程生成用于自动驾驶车辆的参考线的方法和系统 | |
CN110119138A (zh) | 用于自动驾驶车辆的自定位方法、系统和机器可读介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |