CN110799918B - 车辆用的方法、设备和计算机可读存储介质、车辆 - Google Patents
车辆用的方法、设备和计算机可读存储介质、车辆 Download PDFInfo
- Publication number
- CN110799918B CN110799918B CN201880038570.6A CN201880038570A CN110799918B CN 110799918 B CN110799918 B CN 110799918B CN 201880038570 A CN201880038570 A CN 201880038570A CN 110799918 B CN110799918 B CN 110799918B
- Authority
- CN
- China
- Prior art keywords
- sensor data
- vehicle
- camera
- lidar sensor
- lidar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 70
- 230000033001 locomotion Effects 0.000 claims abstract description 56
- 238000004590 computer program Methods 0.000 claims abstract description 11
- 238000012545 processing Methods 0.000 claims description 23
- 230000009466 transformation Effects 0.000 claims description 16
- 230000001960 triggered effect Effects 0.000 claims description 13
- 238000013528 artificial neural network Methods 0.000 description 23
- 230000006870 function Effects 0.000 description 11
- 230000001131 transforming effect Effects 0.000 description 10
- 238000001514 detection method Methods 0.000 description 8
- 238000013527 convolutional neural network Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000004927 fusion Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000013519 translation Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 3
- 230000001537 neural effect Effects 0.000 description 3
- 230000002146 bilateral effect Effects 0.000 description 2
- 238000004040 coloring Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000009897 systematic effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000001627 detrimental effect Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R11/00—Arrangements for holding or mounting articles, not otherwise provided for
- B60R11/04—Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0248—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/04—Synchronising
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R11/00—Arrangements for holding or mounting articles, not otherwise provided for
- B60R2011/0001—Arrangements for holding or mounting articles, not otherwise provided for characterised by position
- B60R2011/004—Arrangements for holding or mounting articles, not otherwise provided for characterised by position outside the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Electromagnetism (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Mechanical Engineering (AREA)
- Signal Processing (AREA)
- Optics & Photonics (AREA)
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
实施例涉及车辆用的方法、设备和计算机程序,以及车辆。所述方法包括获得(110)车辆(100)的摄像头的摄像头传感器数据。所述方法还包括:获得(120)车辆(100)的激光雷达传感器的激光雷达传感器数据。所述方法还包括:确定(150)与车辆(100)的运动相关的信息。所述方法还包括:基于与车辆(100)的运动相关的信息来确定摄像头传感器数据和激光雷达传感器数据的组合图像(160)。
Description
技术领域
实施例涉及车辆用的方法、设备和计算机程序,以及涉及车辆,更具体但非排他地,涉及确定激光雷达传感器数据和摄像头传感器数据的组合图像。
背景技术
自动驾驶和辅助驾驶是汽车研究的两个主要课题。两者的主要前提是感测车辆周围的环境,从而使得能够识别物体和其他驾驶员。一种途径是利用激光雷达传感器来感测车辆周围的物体的距离。
发明内容
需要一种改进的概念来探测车辆附近的物体,从而使得能够更精确地确定这些物体的位置。
这种需求可以由一种车辆用的方法来满足,所述方法包括:
获得车辆的摄像头的摄像头传感器数据;
获得车辆的激光雷达传感器的激光雷达传感器数据,所述激光雷达传感器数据包括距离信息的点云;
进行摄像头传感器数据和激光雷达传感器数据之间的时间同步,所述方法包括:基于时间同步来触发摄像头以捕捉摄像头传感器数据的图像,
其中,基于激光雷达传感器的旋转角度来触发时间同步的进行;
确定与车辆的运动相关的信息;和
基于与车辆的运动相关的信息并且基于摄像头传感器数据和激光雷达传感器数据之间的时间同步来确定摄像头传感器数据和激光雷达传感器数据的组合图像,其中,车辆的运动的信息用于补偿在激光雷达传感器数据的点云中的由车辆的运动导致的变形。
这种需求可以由一种计算机可读存储介质来满足,在其中存储有具有程序代码的计算机程序,当在计算机、处理器或可编程硬件组件上执行所述计算机程序时,所述程序代码用于实施按照本发明的方法。
这种需求可以由一种车辆用的设备来满足,所述设备包括:
配置成与车辆的摄像头通信以及与车辆的激光雷达传感器通信的至少一个接口;和
处理模块,所述处理模块被配置成:
获得摄像头的摄像头传感器数据,
获得激光雷达传感器的激光雷达传感器数据,所述激光雷达传感器数据包括距离信息的点云,
确定与车辆的运动相关的信息,和
进行摄像头传感器数据和激光雷达传感器数据之间的时间同步,并且基于时间同步来触发摄像头以捕捉摄像头传感器数据的图像,其中,基于激光雷达传感器的旋转角度来触发时间同步的进行,
基于与车辆的运动相关的信息并且基于摄像头传感器数据和激光雷达传感器数据之间的时间同步来确定摄像头传感器数据和激光雷达传感器数据的组合图像,其中,车辆的运动的信息用于补偿在激光雷达传感器数据的点云中的由车辆的运动导致的变形。
这种需求可以由一种包含本发明的设备的车辆来满足。
实施例涉及车辆用的方法、设备和计算机程序,以及涉及车辆。所述方法可组合(激光雷达传感器的)激光雷达传感器数据和(摄像头的)摄像头传感器数据,来确定包含(激光雷达传感器数据的)距离信息和(摄像头传感器数据的)颜色信息两者的组合图像。为了创建更精确的距离信息和颜色信息的叠加,在组合图像的确定中可以补偿车辆的运动,以便例如考虑到激光雷达传感器的旋转所需的时间。
实施例提供一种车辆用的方法。所述方法包括:获得车辆的摄像头的摄像头传感器数据。所述方法还包括:获得车辆的激光雷达传感器的激光雷达传感器数据。所述方法还包括:确定与车辆的运动相关的信息。所述方法还包括:基于与车辆的运动相关的信息来确定摄像头传感器数据和激光雷达传感器数据的组合图像。
这使得能够考虑到在激光雷达传感器的旋转期间车辆行驶的距离,从而使得能够例如借助改善的对准来更精确地确定组合图像。
在至少一些实施例中,所述方法还可包括:在组合图像的确定中,补偿车辆的运动。作为结果的组合图像在激光雷达传感器数据和摄像头传感器数据之间有更好的对准。
在至少一些实施例中,所述方法还可包括:基于与运动相关的信息来变换激光雷达传感器数据内的点云。组合图像的确定可以基于变换后的点云。在各个实施例中,基于与运动相关的信息,点云的变换把点云的至少一部分转换到点云的所述部分在获取摄像头传感器数据的对应摄像头图像时的估计位置。变换点云能使在利用摄像头传感器来获取摄像头传感器数据时的点云的距离/深度/强度值的确定成为可能。
在各个实施例中,所述方法还可包括:进行摄像头传感器数据和激光雷达传感器数据之间的时间同步。组合图像的确定可进一步基于摄像头传感器数据和激光雷达传感器数据之间的时间同步。时间同步可以使摄像头传感器数据和激光雷达传感器数据更好地对准。
在至少一些实施例中,可以基于激光雷达传感器来触发时间同步的确定。例如,时间同步可以基于激光雷达传感器的旋转角度。将激光雷达传感器、例如激光雷达传感器的旋转角度作为参考,可以使摄像头传感器数据和激光雷达传感器数据更精确地对准,因为利用摄像头传感器的对图像捕捉的触发可以更容易调整。
在各个实施例中,所述方法还可包括:确定与摄像头传感器数据内的一个或多个边缘相关的信息和与激光雷达传感器数据内的一个或多个强度不连续性相关的信息。组合图像的确定可基于与所述一个或多个边缘相关的信息和基于与所述一个或多个强度不连续性相关的信息。匹配所述边缘和强度不连续性可以使距离/深度/强度值映射到摄像头传感器数据的图像帧的像素。
在至少一些实施例中,所述方法还可包括:基于与所述一个或多个边缘相关的信息和基于与所述一个或多个强度不连续性相关的信息,来确定摄像头传感器数据和激光雷达传感器数据的校准。组合图像的确定可基于摄像头传感器数据和激光雷达传感器数据的校准。校准可以将摄像头传感器数据和激光雷达传感器数据匹配到公共坐标系。
在各个实施例中,在车辆运动时,可以进行与所述一个或多个边缘相关的信息和与所述一个或多个强度不连续性相关的信息的确定。这可以使(外部)校准的不断再调整成为可能,并可能使基于工厂的外部校准过时。
在至少一些实施例中,组合图像的确定可包括把距离值、深度值和强度值至少之一赋予组合图像的像素。例如,组合图像的确定可包括把激光雷达传感器数据的距离信息叠加到由摄像头传感器数据构成的图像上。这使得能够例如利用卷积神经网络来组合处理组合图像的距离信息和颜色信息。
实施例还提供一种计算机程序,所述计算机程序具有当在计算机、处理器或可编程硬件组件上执行所述计算机程序时,用于实施所述方法的程序代码。
实施例还提供一种车辆用的设备。所述设备包括:配置成与车辆的摄像头通信以及与车辆的激光雷达传感器通信的至少一个接口。所述设备还包括:配置成获得摄像头的摄像头传感器数据的处理模块。所述处理模块还被配置成获得激光雷达传感器的激光雷达传感器数据。所述处理模块还被配置成确定与车辆的运动相关的信息。所述处理模块还被配置成基于与车辆的运动相关的信息来确定摄像头传感器数据和激光雷达传感器数据的组合图像。
实施例还提供包含这样的设备的车辆。
附图说明
下面参考附图举例说明设备和/或方法的一些例子,附图中:
图1a表示车辆用的方法的流程图;
图1b表示车辆用的设备的方框图;
图1c表示车辆用的方法的另一流程图;
图2a和2b表示时间同步对物体检测的影响的例示;
图3a和3b表示自我运动补偿对摄像头传感器数据和激光雷达传感器数据的叠加的影响的例示;
图4a表示包含激光雷达传感器和摄像头的车辆的示意图。
具体实施方式
下面参考其中图解说明一些例子的附图,更充分地说明各个例子。附图中,为了清楚起见,可能夸大了线条、层次和/或区域的厚度。
因而,尽管另外的例子可以有各种修改和备选形式,不过,附图中表示了并且随后将详细说明其中的一些特定例子。但是,该详细说明并不把另外的例子限制于说明的特定形式。另外的例子可覆盖在本公开的范围内的所有修改、等同物和备选方案。贯穿附图的说明,相同的附图标记指的是相同或相似的元件,在提供相同或类似功能的同时,这些元件可以以相互比较时相同的方式实现,或者以修改后的形式实现。
要理解的是当一个元件被称为“连接”或“耦接”到另一个元件时,这些元件可以直接连接或耦接,或者可通过一个或多个居间元件连接或耦接。如果两个要素A和B是利用“或”组合的,则应理解为公开所有可能的组合,即仅仅A、仅仅B以及A和B。对于相同组合的另一种说法是“A和B中的至少一个”。这同样适用于不止2个要素的组合。
对于更多的例子,这里为说明特定例子而使用的术语并不是限制性的。每当使用单数形式时,如果既不明确地也不隐含地强制性定义只使用一个元件,那么另外的例子也可利用多个元件来实现相同的功能。同样地,在功能随后被描述成是利用多个元件实现的时候,另外的例子可利用一个元件或者处理实体实现相同的功能。还要理解的是当使用时,用语“包含”和/或“包括”指定所陈述的特征、整数、步骤、操作、处理、动作、元件和/或组件的存在,但是不排除一个或多个其他特征、整数、步骤、操作、处理、动作、元件、组件和/或它们的任意群组的存在或添加。
除非另有定义,否则所有术语(包括技术术语和科学术语)在本文中均按它们在示例所属领域的一般含义使用。
图1a图解说明用于车辆100的方法的流程图。图1b图解说明用于车辆100的对应设备的方框图。设备10包括配置成与车辆100的摄像头通信和与车辆100的激光雷达传感器通信的至少一个接口12。设备10还包括配置成执行图1a的方法(例如方法步骤110-170)的处理模块14。所述至少一个接口12耦接到处理模块14。在各个实施例中,所述设备10还包括激光雷达传感器和/或摄像头。图1b进一步图解说明包含设备10的车辆100的方框图。在至少一些实施例中,车辆100可以是汽车、摩托车、自动驾驶车辆、半自动驾驶车辆、船舶、火车、卡车、货车或厢式货车之一。
(图1a的)方法包括获得110车辆100的摄像头的传感器数据。所述方法还包括获得120车辆100的激光雷达传感器的激光雷达传感器数据。
在各个实施例中,摄像头可以是摄像机、高速照相机或静止图像照相机之一。摄像头传感器数据可以是摄像头的原始输出。或者,摄像头传感器数据可以是摄像头的预处理的传感器数据。例如,摄像头传感器数据可包含多个图像帧。所述多个图像帧中的一个图像帧可包括多个像素,例如,二维排列中的多个像素。例如,可以使摄像头传感器数据的帧速率和/或摄像头传感器数据内的帧的触发与激光雷达传感器的旋转速度和/或旋转角度匹配。例如,摄像头可包含摄像头传感器(例如,CMOS(互补金属氧化物半导体)传感器或CCD(电荷耦合器件))和摄像头镜头。摄像头可被配置成把摄像头传感器数据提供给设备10。例如,摄像头传感器数据可包括原始摄像头传感器数据(例如,传感器的原始输出)或预处理的摄像头传感器数据(例如,图像信息、颜色信息)。在一些实施例中,摄像头传感器数据可包含图像帧的流(例如,呈运动图像文件格式)。或者,摄像头传感器数据可包含单独的图像(图像帧)。摄像头传感器数据可包含图像信息,例如,图像信息的各个像素的颜色信息。
激光雷达(或者LiDAR)是光和雷达(无线电探测和测距)的合成词,或者是光探测和测距或光成像、探测和测距的缩写词。在至少一些实施例中,激光雷达传感器可被配置成基于发射光(例如,脉冲激光),并测量从在激光雷达传感器附近的物体反射的光的一部分来确保激光雷达传感器数据。激光雷达传感器数据可包含距离信息。在至少一些情况下,术语深度(或深度信息、深度值)和距离(或距离信息、距离值)是可以互换地使用的。例如,激光雷达传感器数据可包含距离信息的点云。例如,距离信息可包括与(例如点云的)多个点离激光雷达传感器的距离相关的信息(距离值),与由激光雷达传感器周围的物体分界的激光雷达传感器附近的空间的深度相关的信息(深度值),和/或与由激光雷达传感器发射,然后被激光雷达传感器附近的物体反射,并由激光雷达传感器测量的一部分光的强度相关的信息(强度值)。例如,强度值可指示反射发射光的所述部分的物体的距离和/或着色。点云可包括绕激光雷达传感器的旋转轴的不同竖直和/或水平角度的距离信息。例如,激光雷达传感器可被配置成以预先定义的可调旋转频率旋转。激光雷达传感器数据可包括激光雷达传感器的每次旋转或者多次旋转的子集的距离信息的点云。例如,激光雷达传感器数据的空间分辨率可能比摄像头传感器数据的空间分辨率低。
所述方法还包括:确定150与车辆100的运动相关的信息。所述方法还包括:基于与车辆的运动相关的信息,确定160摄像头传感器数据和激光雷达传感器数据的组合图像。这使得可以考虑到在激光雷达传感器旋转期间,车辆行驶的距离。
例如,与车辆的运动相关的信息可包括与车辆的移动相关的信息,例如,与车辆的速度、车辆的转向角度、车辆沿着道路的移动和车辆垂直于道路方向的移动中的至少一个相关的信息。例如,组合图像的确定160可包括:例如基于摄像头传感器数据与激光雷达传感器数据之间的时间同步,来针对组合图像进行车辆的运动的补偿。例如,所述方法还可包括:在组合图像的确定中补偿车辆的运动。作为结果的组合图像可在激光雷达传感器数据和摄像头传感器数据之间有更好的对准。例如,所述方法还可包括:基于与运动相关的信息和例如基于(由时间同步指示的)激光雷达传感器数据与摄像头传感器数据之间的预定时间偏移,来变换激光雷达传感器数据内的点云。组合图像的确定160可基于变换后的点云。对运动的补偿可变换点云,以致变换后的点云指示在特定时间点(与旋转激光雷达传感器的旋转所需的时间段相反)在车辆附近的物体的估计距离,例如,就好像激光雷达传感器在该特定时间点同时记录了全部点云一样。点云的变换可基于与运动相关的信息,例如,基于预先确定的(由时间同步指示的)激光雷达传感器数据与摄像头传感器数据之间的时间偏移,来把点云的至少一部分转换到点云的所述部分在获取摄像头传感器数据的对应摄像头图像时的估计位置。变换点云可以使在利用摄像头传感器获取摄像头传感器数据时的点云的距离/深度/强度值的确定成为可能。
在各个实施例中,所述方法还包括:进行140摄像头传感器数据和激光雷达传感器数据之间的时间同步。例如,时间同步的进行140可包括使摄像头为摄像头传感器数据进行的图像捕捉与激光雷达传感器为激光雷达传感器数据进行的点云的测量同步。另一方面或另外地,时间同步的进行140可包括确定激光雷达传感器数据与摄像头传感器数据之间的时间偏移。例如,时间同步的进行可使摄像头为摄像头传感器数据捕捉的图像的捕捉时间与激光雷达传感器为激光雷达传感器数据捕捉的点云的捕捉时间达到预先确定的时间关系。例如,组合图像的确定160可进一步基于摄像头传感器数据和激光雷达传感器数据之间的时间同步。时间同步可以使得更好地对准摄像头传感器数据和激光雷达传感器数据。例如,所述方法还可包括:基于时间同步来触发摄像头以捕捉摄像头传感器数据的图像(帧)。例如,所述方法还可包括:基于时间同步来触发激光雷达以捕捉激光雷达传感器数据的点云。
在至少一些实施例中,时间同步的进行140是基于激光雷达触发的。例如,时间同步可以基于激光雷达传感器的旋转,例如,基于旋转的频率,基于旋转的时间和/或基于旋转角度。例如,当激光雷达传感器完成或者开始激光雷达传感器的一次旋转的点云的记录时,摄像头传感器可被触发。或者,可基于激光雷达传感器的当前旋转角度来触发摄像头传感器。时间同步可以基于激光雷达传感器的旋转角度。例如,硬件传感器(例如,(感测激光雷达传感器的磁标记的)感应传感器,或者光学传感器)可被配置成检测激光雷达传感器的旋转的预定角度(例如,编码器位置),和被配置成基于检测的预定角度来触发摄像头传感器。或者,可基于旋转频率和基于激光雷达传感器的旋转的预定开始时间来确定旋转角度。可基于自旋转的预定开始时间以来的时间偏移和基于旋转频率来确定旋转角度。将激光雷达传感器、例如激光雷达传感器的旋转角度用作参考可以使得更精确地对准摄像头传感器数据和激光雷达传感器数据,因为利用摄像头传感器的图像捕捉的触发更容易调整。
例如,组合图像的确定160可包括确定激光雷达传感器数据内的距离信息与摄像头传感器数据内的颜色信息(例如图像信息或像素信息)之间的映射。例如,组合图像的确定160可包括确定摄像头传感器数据内的颜色信息的每个像素或者摄像头传感器数据内的颜色信息的裁剪部分的每个像素的距离信息。组合图像的确定160可包括向组合图像的像素/点、例如向组合图像的各个像素/点赋予距离值、深度值或强度值。这可使组合图像的确定成为可能。例如,激光雷达传感器数据可包括距离信息的点云。组合图像的确定160可包括把点云的点投影到摄像头传感器数据的摄像头平面上。例如,把点云投影到摄像头平面上可包括把点云的点平移到摄像头传感器数据的坐标系,或者平移到用于组合图像的公共坐标系。投影可使距离(或者深度、强度)值映射到摄像头传感器数据的图像帧的像素。例如,组合图像的像素/点的距离值/深度/强度值可以指示所述像素/点离车辆100(例如,离激光雷达传感器)的距离。组合图像可包含距离信息(例如,组合图像的点/像素的距离值/深度/强度值)和颜色信息(例如,组合图像的像素/点的三通道颜色信息)。这可使例如利用(卷积)神经网络的组合图像的组合处理成为可能。组合图像的确定160可包括把激光雷达传感器数据的距离信息叠加在由摄像头传感器数据构成的图像上。
在至少一些实施例中,组合图像可以基于公共坐标系,所述公共坐标系可以不同于颜色信息(或像素信息/图像信息)的坐标系以及不同于深度信息的坐标系。或者,所述公共坐标系可以是颜色信息的坐标系(例如,摄像头的摄像头坐标系)。所述公共坐标系可以是指定排列成二维队形的多个点的二维坐标系。例如,组合图像的确定160可包括确定由公共坐标系指定的多个点中的每个点的距离信息。例如,组合图像的确定160可包括把摄像头传感器数据(例如,摄像头传感器数据内的颜色信息)映射到公共坐标系(例如,映射到由公共坐标系指定的多个点)。
在至少一些实施例中,所述方法还可包括上采样组合图像内的距离信息(例如,距离值、深度值、强度值)的分辨率,以匹配组合图像内的颜色信息的空间分辨率。所述上采样可以改进神经网络的处理。例如,上采样可包括确定组合图像内的颜色信息的每个像素的距离值(或者深度值、强度值)。例如,上采样可包括确定公共坐标系内的每个点的距离值(深度值、强度值)。例如,上采样可基于激光雷达传感器数据的双边滤波。
在各个例子中,如图1c中所示,所述方法还可包括:确定130与摄像头传感器数据内的一个或多个边缘相关的信息和与激光雷达传感器数据内的一个或多个强度不连续性(或者一个或多个深度不连续性/距离不连续性)相关的信息。例如,与所述一个或多个边缘相关的信息的确定130可包括检测摄像头传感器数据内的一个或多个亮度不连续性和/或一个或多个颜色不连续性。例如,与所述一个或多个边缘相关的信息的确定可包括比较摄像头传感器数据内的相邻像素的颜色值和/或亮度值,以识别所述一个或多个边缘。与所述一个或多个强度不连续性相关的信息的确定可包括比较激光雷达传感器数据的点云内的相邻点的强度值和/或深度值,以识别所述一个或多个强度不连续性(或者深度不连续性)。所述一个或多个边缘可以与组合图像内的所述一个或多个亮度不连续性和/或所述一个或多个颜色不连续性对准。组合图像的确定160可以基于与所述一个或多个边缘相关的信息以及基于与所述一个或多个强度不连续性相关的信息。匹配边缘和强度不连续性可以使距离/深度/强度值映射到摄像头传感器数据的图像帧的像素。例如,组合图像的确定160可包括:例如在摄像头传感器数据内的多个帧中和在激光雷达传感器数据的多个点云中,减小摄像头传感器内的一个或多个边缘与激光雷达传感器数据内的一个或多个强度不连续性的叠加的失配。例如,失配的减小可包括变换(例如,移动、旋转、平移和/或缩放)激光雷达传感器数据和/或摄像头传感器数据,以改善一个或多个边缘与一个或多个强度不连续性的对准。失配的减小可包括确定平移和旋转参数,以减小摄像头传感器数据内的一个或多个边缘和激光雷达传感器数据内的一个或多个强度不连续性之间的失配。例如,平移和旋转参数的确定可基于初始猜测(例如,基于预先减小的在一个或多个边缘和一个或多个强度不连续性之间的失配),以及平移和旋转参数的随后调整。例如,可以从初始猜测逐渐调整平移和旋转参数,只要失配减小即可。校准可把摄像头传感器数据和激光雷达传感器数据匹配或投影到公共坐标系。
在各个例子中,所述方法还可包括:基于与一个或多个边缘相关的信息和基于与一个或多个强度不连续性相关的信息,来变换激光雷达传感器数据的点云。例如,点云的变换可在公共坐标系内,将一个或多个强度不连续性与一个或多个边缘(基本)对准。例如,点云的变换可把点云投影到公共坐标系,以致使一个或多个强度不连续性与一个或多个边缘基本对准。组合图像的确定160可以基于变换后的点云。变换点云(例如,缩放、移动或平移点云)可把距离/深度/强度值映射到摄像头传感器数据的图像帧的像素。
在至少一些例子中,与摄像头传感器数据内的一个或多个边缘相关的信息和与激光雷达传感器数据内的一个或多个强度不连续性相关的信息的确定130可基于摄像头传感器数据的多个帧和基于激光雷达传感器数据的多个点云。例如,所述摄像头传感器数据的多个帧和所述多个点云可以基于不断变化的景色,例如在车辆运动时。例如,可以在车辆运动时、例如在车辆运动中和/或基于不断变化的景色,进行与一个或多个边缘相关的信息和与一个或多个强度不连续性相关的信息的确定130。这可使(外部)校准的不断再调整成为可能,并可能使基于工厂的外部校准过时。例如,所述摄像头传感器数据的多个帧和所述多个点云可不基于静态景色,例如,可不基于校准棋盘。在各个实施例中,摄像头传感器数据可包含多个帧。与一个或多个边缘相关的信息的确定130可包括在多个帧内检测所述一个或多个边缘。例如,与一个或多个边缘相关的信息的确定130可提高所述多个帧的一个或多个边缘的检测精度。与一个或多个边缘相关的信息的确定130可包括在多个帧内跟踪所述一个或多个边缘。激光雷达传感器数据可包括激光雷达传感器数据的多个点云。与一个或多个强度不连续性相关的信息的确定130可包括在多个点云内检测所述一个或多个不连续。与一个或多个边缘相关的信息的确定130可包括跟踪多个点云的所述一个或多个强度不连续性。这可使更精确的对准成为可能,例如在车辆运动时。所述摄像头传感器数据的多个帧和所述多个点云可以在预定时间范围内从摄像头和激光雷达传感器获得。例如,可以在利用激光雷达传感器和摄像头记录所述摄像头传感器数据的多个帧和所述多个点云之后,进行与一个或多个边缘相关的信息的确定130。例如,所述多个帧可包括至少5(或者至少10、或者至少20、或者至少30)帧。所述多个点云可包括至少5(或者至少10、至少20、至少30)个点云。例如,可以在车辆运动中时,进行与摄像头传感器数据内的一个或多个边缘相关的信息和与激光雷达传感器数据内的一个或多个强度不连续性相关的信息的确定130。例如,组合图像的确定160可包括(逐渐)减小摄像头传感器数据的多个(图像)帧内的一个或多个边缘和激光雷达传感器数据内的多个点云的一个或多个强度不连续性的叠加的失配。或者,可以在车辆停止不动(静止)时,进行与摄像头传感器数据内的一个或多个边缘相关的信息和与激光雷达传感器数据内的一个或多个强度不连续性相关的信息的确定130。
在至少一些实施例中,所述方法还包括:基于与一个或多个边缘相关的信息和基于与一个或多个强度不连续性相关的信息,来确定摄像头传感器数据和激光雷达传感器数据的校准。例如,校准可以是摄像头传感器数据和激光雷达传感器数据的外部校准。校准可指示用于把激光雷达传感器数据和/或摄像头传感器数据投影或变换到公共坐标系的至少一个变换参数(例如,第一和第二变换参数)。校准可指示用于叠加激光雷达传感器数据和摄像头传感器数据的至少一个变换参数(例如,第一和第二变换参数),以致包含在激光雷达传感器数据内的物体的轮廓基本匹配包含在摄像头传感器数据内的该物体的轮廓。组合图像的确定160可以基于摄像头传感器数据的校准和激光雷达传感器数据的校准。例如,校准的确定可基于,例如在摄像头传感器数据内的多个帧和激光雷达传感器数据内的多个点云范围内,减小摄像头传感器数据内的一个或多个边缘与激光雷达传感器数据内的一个或多个强度不连续性的失配。例如,失配的减小可包括确定减小摄像头传感器数据内的一个或多个边缘和激光雷达传感器数据内的一个或多个强度不连续性之间的失配的平移和旋转参数。校准可把摄像头传感器数据和激光雷达传感器数据匹配到公共坐标系。
在各个实施例中,校准的确定包括确定用于把摄像头传感器数据从摄像头坐标系变换到公共坐标系的第一变换参数。校准的确定可包括确定用于把激光雷达传感器数据从激光雷达坐标系变换到公共坐标系的第二变换参数。例如,第一变换参数和/或第二变换参数可包括一组裁剪参数、缩放参数、移动参数和旋转参数中的至少一个元素。组合图像可以基于公共坐标系。例如,组合图像的确定160可包括基于第一变换参数,来把摄像头传感器数据变换或投影到公共坐标系。组合图像的确定160可包括基于第二变换参数,把激光雷达传感器数据(例如,激光雷达传感器数据内的一个或多个点云)变换或投影到公共坐标系。公共坐标系可以使例如利用(卷积)神经网络的组合图像的组合处理成为可能。
在各个实施例中,可按照预先定义的时间间隔(例如,每小时、每个预定的小时数、每天、每周)、基于车辆100的动力循环(例如,每次启动车辆100)和/或基于车辆100的运动,来进行或触发校准的确定。当可能发生校准失配时,这样的事件可触发校准。例如,如果车辆的运动违反了运动阈值,例如如果车辆遇到路面凹凸不平或者不利于校准的精度的道路状况,那么可触发校准的确定。
在至少一些实施例中,所述方法还可包括利用人工神经网络来处理组合图像170。例如,神经网络可以进行对象识别和/或识别组合图像中的感兴趣的区域。例如,人工神经网络可以是预先训练的神经网络。或者,可以至少部分基于激光雷达传感器和/或基于摄像头(例如,基于激光雷达传感器模型和/或基于摄像头传感器模型),来训练人工神经网络。人工神经网络可被配置成检测和/或分类所述组合图像内的至少一个对象。例如,人工神经网络可被配置成确定组合图像内的至少一个分类的对象的边界框。例如,人工神经网络可被配置成检测组合图像内的一个或多个类别的对象。人工神经网络可被配置成检测组合图像内的其他车辆、行人和交通标志组中的至少一个元素。另一方面或另外地,人工神经网络可被配置成分割组合图像。例如,人工神经网络可被配置成识别组合图像内的感兴趣的区域。所述方法还可包括:例如利用所述人工神经网络,利用另外的人工神经网络和/或利用处理器,来处理感兴趣的区域。在各个实施例中,所述人工神经网络和/或另外的人工神经网络可以利用专用电路,例如用于实现人工神经网络的专用集成电路,来实现。或者,人工神经网络可以用例如由处理模块的处理器执行的软件实现。
在至少一些实施例中,人工神经网络是卷积神经网络。卷积神经网络在图像数据的处理方面有许多优点。例如,组合图像可包括作为卷积神经网络的输入的以图像格式的距离信息。人工神经网络可包括多个输入。所述多个输入中的至少一个可以基于组合图像的颜色信息。所述多个输入中的至少一个可以基于组合图像的距离信息(例如,距离值、深度值或强度值)。例如,所述多个输入中的3个输入可基于组合图像的颜色信息(例如,红色、绿色和蓝色通道)。所述多个输入中的3个输入可基于组合图像的距离信息(例如,转换成3通道图像格式)。在人工神经网络中对组合图像的颜色信息和深度、距离或强度信息进行处理,可以改善物体的识别或分类,以及组合图像的分割。
在各个实施例中,所述方法还可包括把组合图像的距离信息(例如,深度/距离/强度值)变换成三通道图像格式。组合图像的处理170可以基于三通道图像格式。例如,三通道图像格式可以基于提供距离值(或深度值、强度值)与颜色值之间的线性变换的三通道颜色图,例如,JET着色或者类似于JET着色的着色。三通道图像格式基于水平差、离地高度和与重力的夹角(HHA)中的一个或多个元素。三通道图像格式可以使用预先训练的卷积神经网络来分析。
所述至少一个接口12可对应于用于在模块内、在模块之间、或者在不同实体的模块之间接收和/或发送信息(所述信息可以是与指定的代码相应的数字(比特)值)的一个或多个输入端和/或输出端。在实施例中,处理模块14可以利用一个或多个处理单元、一个或多个处理设备、任何处理用装置,比如处理器、计算机或者可借助相应适配的软件工作的可编程硬件组件来实现。换句话说,说明的处理模块14的功能也可以用随后在一个或多个可编程硬件组件上执行的软件实现。这样的硬件组件可包括通用处理器、数字信号处理器(DSP)、微控制器等。
用于提供RGB-深度融合数据的其他系统可包括组合传感器。如果涉及多个传感器,那么一些系统的问题可能是定时问题,因为不同的传感器可能在不同的频率下工作,可能需要时间来测量场景。这一点,再加上场景中的物体之间的相对运动,可能会导致较大的误差,因为不同的传感器取决于这些因素地在不同的位置看到‘同一’物体。另外,只具有绑定到RGB的稀疏深度地图对场景中的物体的机器学习或定位来说可能并不理想。
至少一些实施例可包括可通过自动校准处理而相互作用的旋转激光扫描仪(例如,激光雷达传感器)和摄像头(例如,摄像头)。为了考虑到当激光雷达移动时点云的变形,可基于车辆测程(例如,基于车辆的运动),来进行自我运动补偿(例如,补偿车辆的运动)。这可减小车辆移动时静态物体的误差。通过触发/时间同步两种传感器,动态误差和静态误差均可被减小。多传感器布置可以类似于其他系统。在至少一些实施例中,成对的点云可被上采样到与来自摄像头的RGB图像相同的密度,从而产生类似于kinect的户外场景。
在其中激光雷达以10Hz的频率旋转的例证实施例中,一次完整的测量可能需要100ms。在此期间,车辆可能移动,因此激光雷达的坐标系可能不断移动。借助自我运动补偿,(所有)被测点可被变换到一个基本激光雷达坐标系(例如,公共坐标系)。该基本激光雷达坐标系可以是参考摄像头被触发以拍摄图像的时间的坐标系。
通过改善传感器融合的质量,各个实施例可允许在检测(神经)网络、特别是分割(神经)网络中更好地利用融合数据。
通过上采样结构类似于RGB的深度图(例如,激光雷达传感器数据内的点云),至少一些实施例可以更精心地扩展深度表示(例如距离信息),例如从深度表示生成Jet特征或HHA特征(用于三通道图像格式),这些特征可以作为卷积神经网络的输入,用于特征学习。
至少一些实施例可以基于自我运动补偿、多个传感器的时间同步/触发,和深度图(例如,激光雷达传感器数据内的点云)的上采样,以匹配RGB(红、绿、蓝)密度(例如,图像信息内的空间分辨率)。
连同一个或多个前面详细说明的例子和附图一起提及和说明的各个方面和特征也可以与一个或多个其他例子组合,以便替换其他例子的类似特征,或者将该特征额外引入其他例子中。
图2a和2b表示按照一个实施例的时间同步对物体(用边界框210a;220a,210b,220b)检测的影响的例示。在至少一些实施例中,(用于传感器触发的)时间同步可用于动态场景。这可减小摄像头&LiDAR对的测量值之间(例如,摄像头传感器数据与激光雷达传感器数据之间)的时间差。在至少一些实施例中,Velodyne(例如,激光雷达传感器)可触发摄像头。图2a和2b表示按照一个实施例的朝向车辆的前方的组合图像的视图。与在表示基于激光雷达传感器数据检测的边界框210b和基于摄像头传感器数据检测的边界框220b的图2b内(有时间同步)检测的物体相比,在图2a内(无时间同步)检测的物体可能显示在基于激光雷达传感器数据检测的边界框210a和基于(RGB)摄像头传感器数据检测的边界框220a之间的较大失配。在对比测试中,与自由运行的组合图像(无时间同步)的60%相比,时间同步的组合图像的平均IoU(交并比)值为78%,与自由运行的组合图像(无时间同步)的25%相比,最小IoU为53%,d(CoM)(L2-范数)值分别为5.4像素和12.6像素。
图3a和3b表示按照一个实施例的自我运动补偿对摄像头传感器数据(310a;310b)和激光雷达传感器数据(320a;320b)的叠加的影响的例示。自我运动补偿可补偿由车辆运动引起的点云(的歪斜)。可以利用车辆测程(例如,与车辆的运动相关的信息)来移动点云,从而可提高(世界上的)静态物体的精度((世界上的)动态物体的精度更差)。图3a和3b可以表示在基于从桥下经过的公共汽车的传感器分析的组合图像中的距离信息与颜色信息之间的例证匹配。图3a表示与摄像头传感器数据310b和激光雷达传感器数据320b的有自我运动补偿的组合图像相比,在摄像头传感器数据310a与激光雷达传感器数据320a之间存在较大失配的无(来自移动中车辆)的自我运动补偿的组合图像。在对比测试中,自我运动补偿的组合图像和无自我运动补偿的组合图像的平均IoU值分别为74%和77%,最小IoU分别为78%和81%,d(CoM)(L2-范数)值分别为6.2像素和4.8像素。d(CoM)(L2-范数)指的是质心(CoM)的误差。两个对应边界框的质心(CoM)的误差用作衡量融合质量的另一指标。外部校准的误差可能引起这两个边界框间的系统偏移。尽管对于较大的边界框来说不显著,不过,这种系统误差会严重影响较小边界框的IoU。矩形边界框的CoM(cx,cy)是矩形n的中心点,利用以前的角落定义,为质心的误差(eCoM)是在摄像头图像和投影点云中的同一物体的边界框的CoM之差。
至少一些实施例可以基于自我运动补偿(基于车辆的自我运动)和摄像头与激光雷达的时间同步二者。至少一些实施例可在旋转的激光雷达与摄像头面向同一方向时触发摄像头拍摄。
在至少一些实施例中,(激光雷达传感器数据内的)点云可被上采样(处理,以按与组合图像内的颜色信息相同的空间分辨率确定距离信息)。与摄像头图像相比,LiDAR输出(例如,激光雷达传感器数据中的点云)可能是稀疏的。为了对于大多数像素获得可信的深度信息(距离信息),深度图可被上采样。在各个实施例中,双边滤波被证明适用于LiDAR数据。
(例如组合图像内的)数据融合可以以检测(神经)网络能够理解的方式对深度信息进行编码。它可包括对稀疏深度图(例如,距离信息的点云)上采样,并利用JET着色和/或HHA特征对距离信息着色。
图4a表示包含布置在车辆顶部的激光雷达传感器402和摄像头404的车辆400(可对应于车辆100)的示意图。
例子还可以是或者涉及计算机程序,所述计算机程序具有当所述计算机程序在计算机或处理器上执行时,进行上述方法中的一种或多种方法的程序代码。各个上述方法的步骤、操作或处理可由程控的计算机或处理器进行。例子还覆盖程序存储设备,比如数字数据存储介质,所述程序存储设备是机器、处理器或计算机可读的,并对机器可执行、处理器可执行或计算机可执行的指令程序进行编码。所述指令进行或导致进行上述方法的一些或全部动作。程序存储设备可包括或者可以是例如数字存储器、诸如磁盘和磁带之类的磁存储介质、硬盘驱动器,或者光学可读数字数据存储介质。进一步的例子还可以覆盖被编程以进行上述方法的动作的计算机、处理器或控制单元,或者被编程以进行上述方法的动作的(现场)可编程逻辑阵列((F)PLA)或(现场)可编程门阵列((F)PGA)。
说明和附图仅仅举例描述本公开的原理。此外,本文中列举的所有例子主要意图是明确地仅仅用于教学目的,以帮助读者理解本公开的原理,和发明人对促进现有技术所贡献的概念。本文中详述本公开的原理、方面和例子的所有陈述,及其具体例子都意图包含其等同物。
进行某种功能的表示成“用于...的装置”的功能块可以指的是配置成进行某种功能的电路。从而,“用于某事的装置”可被实现成“配置成或者适合于某事的装置”,比如配置成或者适合于相应任务的设备或电路。
附图中所示的各个元件的功能,包括标记为“装置”、“用于提供传感器信号的装置”、“用于生成传送信号的装置”等的任意功能块可以专用硬件,比如“信号提供器”、“信号处理单元”“处理器”、“控制器”等,以及能够与适当的软件联合,执行软件的硬件的形式实现。当由处理器提供时,这些功能可以由一个专用处理器、由一个共享处理器或者由多个单独的处理器提供,所述多个单独的处理器中的一些或全部可以是共享的。然而,术语“处理器”或“控制器”到目前为止不限于仅能执行软件的硬件,相反可包括数字信号处理器(DSP)硬件、网络处理器、专用集成电路(ASIC)、现场可编程门阵列(FPGA)、用于保存软件的只读存储器(ROM)、随机存取存储器(RAM)和非易失性存储器。也可包括其他常规和/或定制的硬件。
方框图例如可图解说明实现本公开的原理的高级电路图。类似地,流程图、状态转换图、伪代码等可表示各种处理、操作或步骤,这些处理、操作或步骤例如可以实质上用计算机可读介质表示,从而由计算机或处理器执行,而不论是否明确地表示了这样的计算机或处理器。
需要理解的是除非例如由于技术原因而明确或隐含地另有说明之外,否则在说明书中公开的多个动作、处理、操作、步骤或功能的公开不得被解释成是按照特定的顺序的。于是,多个动作或功能的公开不会将所述多个动作或功能限制于特定的顺序,除非这些动作或功能由于技术原因不能互换。此外,在一些例子中,一个单独的动作、功能、处理、操作或步骤可分别包括或分成多个子动作、子功能、子处理、子操作或子步骤。除非明确被排除,否则这类子动作可包括在该单独动作的公开内容中,和作为该单独动作的公开内容的一部分。
Claims (12)
1.一种车辆(100)用的方法,所述方法包括:
获得(110)车辆(100)的摄像头的摄像头传感器数据;
获得(120)车辆(100)的激光雷达传感器的激光雷达传感器数据,所述激光雷达传感器数据包括距离信息的点云;
进行(140)摄像头传感器数据和激光雷达传感器数据之间的时间同步,所述方法包括:基于时间同步来触发摄像头以捕捉摄像头传感器数据的图像,
其中,基于激光雷达传感器的旋转角度来触发时间同步的进行(140);
确定(150)与车辆(100)的运动相关的信息;和
基于与车辆(100)的运动相关的信息并且基于摄像头传感器数据和激光雷达传感器数据之间的时间同步来确定(160)摄像头传感器数据和激光雷达传感器数据的组合图像,其中,车辆的运动的信息用于补偿在激光雷达传感器数据的点云中的由车辆的运动导致的变形。
2.按照权利要求1所述的方法,还包括:在组合图像的确定(160)中,补偿车辆的运动。
3.按照权利要求1或2所述的方法,还包括:基于与车辆的运动相关的信息来变换激光雷达传感器数据内的点云,其中,组合图像的确定(160)基于变换后的点云。
4.按照权利要求3所述的方法,其中,基于与车辆的运动相关的信息,点云的变换把点云的至少一部分转换到点云的所述部分在获取摄像头传感器数据的对应摄像头图像时的估计位置。
5.按照权利要求1或2所述的方法,还包括:确定(130)与摄像头传感器数据内的一个或多个边缘相关的信息和与激光雷达传感器数据内的一个或多个强度不连续性相关的信息,其中,组合图像的确定(160)基于与所述一个或多个边缘相关的信息和基于与所述一个或多个强度不连续性相关的信息。
6.按照权利要求5所述的方法,还包括:基于与所述一个或多个边缘相关的信息和基于与所述一个或多个强度不连续性相关的信息,来确定摄像头传感器数据和激光雷达传感器数据的校准,其中,组合图像的确定(160)基于摄像头传感器数据和激光雷达传感器数据的校准。
7.按照权利要求5所述的方法,其中,在车辆运动时,进行与所述一个或多个边缘相关的信息和与所述一个或多个强度不连续性相关的信息的确定(130)。
8.按照权利要求1或2所述的方法,其中,组合图像的确定(160)包括把距离值或深度值赋予组合图像的像素。
9.按照权利要求1或2所述的方法,其中,组合图像的确定(160)包括把激光雷达传感器数据的深度信息叠加到由摄像头传感器数据构成的图像上。
10.一种计算机可读存储介质,在其中存储有具有程序代码的计算机程序,当在计算机、处理器或可编程硬件组件上执行所述计算机程序时,所述程序代码用于实施按照权利要求1至9之一所述的方法。
11.一种车辆(100)用的设备(10),所述设备(10)包括:
配置成与车辆(100)的摄像头通信以及与车辆(100)的激光雷达传感器通信的至少一个接口(12);和
处理模块(14),所述处理模块被配置成:
获得摄像头的摄像头传感器数据,
获得激光雷达传感器的激光雷达传感器数据,所述激光雷达传感器数据包括距离信息的点云,
确定与车辆(100)的运动相关的信息,和
进行(140)摄像头传感器数据和激光雷达传感器数据之间的时间同步,并且基于时间同步来触发摄像头以捕捉摄像头传感器数据的图像,其中,基于激光雷达传感器的旋转角度来触发时间同步的进行(140),
基于与车辆(100)的运动相关的信息并且基于摄像头传感器数据和激光雷达传感器数据之间的时间同步来确定摄像头传感器数据和激光雷达传感器数据的组合图像,其中,车辆的运动的信息用于补偿在激光雷达传感器数据的点云中的由车辆的运动导致的变形。
12.一种包含按照权利要求11所述的设备(10)的车辆(100)。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP17184869.0 | 2017-08-04 | ||
EP17184869.0A EP3438776B1 (en) | 2017-08-04 | 2017-08-04 | Method, apparatus and computer program for a vehicle |
PCT/EP2018/056799 WO2019025035A1 (en) | 2017-08-04 | 2018-03-19 | METHOD, APPARATUS AND COMPUTER PROGRAM FOR VEHICLE |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110799918A CN110799918A (zh) | 2020-02-14 |
CN110799918B true CN110799918B (zh) | 2023-07-07 |
Family
ID=59558260
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880038570.6A Active CN110799918B (zh) | 2017-08-04 | 2018-03-19 | 车辆用的方法、设备和计算机可读存储介质、车辆 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11131753B2 (zh) |
EP (1) | EP3438776B1 (zh) |
CN (1) | CN110799918B (zh) |
WO (1) | WO2019025035A1 (zh) |
Families Citing this family (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10436885B2 (en) * | 2017-10-19 | 2019-10-08 | DeepMap Inc. | Calibrating sensors mounted on an autonomous vehicle |
US10535138B2 (en) | 2017-11-21 | 2020-01-14 | Zoox, Inc. | Sensor data segmentation |
DE102018100315A1 (de) * | 2018-01-09 | 2019-07-11 | Connaught Electronics Ltd. | Erzeugen von Eingabedaten für ein konvolutionelles neuronales Netzwerk |
US11315321B2 (en) * | 2018-09-07 | 2022-04-26 | Intel Corporation | View dependent 3D reconstruction mechanism |
DK180555B1 (en) * | 2018-12-10 | 2021-06-17 | Motional Ad Llc | Systems and methods for validating and calibrating sensors |
KR20210152499A (ko) * | 2019-04-17 | 2021-12-15 | 더 리젠츠 오브 더 유니버시티 오브 미시건 | 다차원 물질 감지 시스템 및 방법 |
US11295161B2 (en) * | 2019-05-22 | 2022-04-05 | Zoox, Inc. | Localization using semantically segmented images |
US11003945B2 (en) | 2019-05-22 | 2021-05-11 | Zoox, Inc. | Localization using semantically segmented images |
EP3751294B8 (en) * | 2019-06-14 | 2023-09-13 | Rohde & Schwarz GmbH & Co. KG | Device and method for synchronization of sensors |
WO2021005659A1 (ja) * | 2019-07-05 | 2021-01-14 | パナソニックセミコンダクターソリューションズ株式会社 | 情報処理システム、センサシステム、情報処理方法及びプログラム |
US10841483B1 (en) | 2019-07-11 | 2020-11-17 | Denso International America, Inc. | System and method for calibrating at least one camera and a light detection and ranging sensor |
US11227194B2 (en) * | 2019-07-16 | 2022-01-18 | Baidu Usa Llc | Sensor synchronization offline lab validation system |
CN110389348B (zh) * | 2019-07-30 | 2020-06-23 | 四川大学 | 基于激光雷达与双目相机的定位与导航方法及装置 |
CN110619666B (zh) | 2019-09-20 | 2022-05-27 | 阿波罗智能技术(北京)有限公司 | 用于标定相机的方法及装置 |
US11403891B2 (en) * | 2019-11-01 | 2022-08-02 | Gm Cruise Holdings Llc | Autonomous setup and takedown of calibration environment for vehicle sensor calibration |
CN111107427B (zh) * | 2019-11-20 | 2022-01-28 | Oppo广东移动通信有限公司 | 图像处理的方法及相关产品 |
US20210185214A1 (en) * | 2019-12-13 | 2021-06-17 | Sony Corporation | Trans-spectral feature detection for volumetric image alignment and colorization |
GB202305331D0 (en) | 2019-12-18 | 2023-05-24 | Motional Ad Llc | Camera-to-lidar calibration and validation |
EP3842835A1 (en) * | 2019-12-24 | 2021-06-30 | Yandex Self Driving Group Llc | Methods and systems for online synchronization of sensors of self-driving vehicles (sdv) |
US11367347B2 (en) * | 2020-02-24 | 2022-06-21 | Ford Global Technologies, Llc | Enhanced sensor operation |
US20220003855A1 (en) * | 2020-07-01 | 2022-01-06 | Baidu Usa Llc | Point clouds based lidar recalibration system for autonomous vehicles |
FR3112215B1 (fr) * | 2020-07-01 | 2023-03-24 | Renault Sas | Système et procédé de détection d’un obstacle dans un environnement d’un véhicule |
EP3944184A1 (en) * | 2020-07-20 | 2022-01-26 | Leica Geosystems AG | Dark image enhancement |
US11693927B2 (en) * | 2020-07-24 | 2023-07-04 | Pony Ai Inc. | Generating fused sensor data through metadata association |
CN112491999B (zh) * | 2020-11-18 | 2022-10-11 | 成都佳华物链云科技有限公司 | 一种数据上报方法及装置 |
CN112861660B (zh) * | 2021-01-22 | 2023-10-13 | 上海西井科技股份有限公司 | 激光雷达阵列与相机同步装置、方法、设备及存储介质 |
SE2150236A1 (en) * | 2021-03-02 | 2022-09-03 | Klimator Ab | Method and arrangement for determining a condition of a road surface |
US11866044B2 (en) * | 2021-03-24 | 2024-01-09 | Denso International America, Inc. | Systems and methods to synchronize systems of a vehicle |
CN115431882A (zh) * | 2021-06-02 | 2022-12-06 | 北京图森智途科技有限公司 | 一种传感器支架和车辆 |
CN113486795A (zh) * | 2021-07-06 | 2021-10-08 | 广州小鹏自动驾驶科技有限公司 | 视觉识别性能测试方法、装置、系统及设备 |
CN113688900A (zh) * | 2021-08-23 | 2021-11-23 | 阿波罗智联(北京)科技有限公司 | 雷达和视觉数据融合处理方法、路侧设备及智能交通系统 |
US11764806B2 (en) | 2021-09-06 | 2023-09-19 | Nec Corporation | Data compression system and method of using |
US20230085898A1 (en) * | 2021-09-22 | 2023-03-23 | Qualcomm Incorporated | Automatic cross-sensor calibration using object detections |
US12026956B1 (en) * | 2021-10-28 | 2024-07-02 | Zoox, Inc. | Object bounding contours based on image data |
DE102021132334A1 (de) * | 2021-12-08 | 2023-06-15 | Bayerische Motoren Werke Aktiengesellschaft | Abtasten eines Umfelds eines Fahrzeugs |
WO2023162730A1 (ja) * | 2022-02-24 | 2023-08-31 | 京セラ株式会社 | 情報処理装置、情報処理方法及びプログラム |
US11403860B1 (en) * | 2022-04-06 | 2022-08-02 | Ecotron Corporation | Multi-sensor object detection fusion system and method using point cloud projection |
CN115840234B (zh) * | 2022-10-28 | 2024-04-19 | 苏州知至科技有限公司 | 雷达数据采集方法、装置和存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002277548A (ja) * | 2001-03-16 | 2002-09-25 | Mitsubishi Heavy Ind Ltd | 高精度測距レーザレーダ装置 |
CN104573646A (zh) * | 2014-12-29 | 2015-04-29 | 长安大学 | 基于激光雷达和双目相机的车前行人检测方法及系统 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080112610A1 (en) * | 2006-11-14 | 2008-05-15 | S2, Inc. | System and method for 3d model generation |
CN101949715B (zh) * | 2010-08-10 | 2012-06-20 | 武汉武大卓越科技有限责任公司 | 高精度时空数据获取的多传感器集成同步控制方法和系统 |
US10027952B2 (en) * | 2011-08-04 | 2018-07-17 | Trx Systems, Inc. | Mapping and tracking system with features in three-dimensional space |
US9128185B2 (en) * | 2012-03-15 | 2015-09-08 | GM Global Technology Operations LLC | Methods and apparatus of fusing radar/camera object data and LiDAR scan points |
CN103593858A (zh) * | 2013-11-13 | 2014-02-19 | 北京林业大学 | 一种地面激光雷达扫描数据中绿色植被滤除方法 |
US9897688B2 (en) * | 2013-11-30 | 2018-02-20 | Bae Systems Information And Electronic Systems Integration Inc. | Laser detection and image fusion system and method |
US9378554B2 (en) * | 2014-10-09 | 2016-06-28 | Caterpillar Inc. | Real-time range map generation |
US9369689B1 (en) * | 2015-02-24 | 2016-06-14 | HypeVR | Lidar stereo fusion live action 3D model video reconstruction for six degrees of freedom 360° volumetric virtual reality video |
EP4296721A3 (en) * | 2015-04-01 | 2024-03-20 | Vayavision Sensing Ltd. | Generating 3-dimensional maps of a scene using passive and active measurements |
US10282591B2 (en) * | 2015-08-24 | 2019-05-07 | Qualcomm Incorporated | Systems and methods for depth map sampling |
US10989542B2 (en) * | 2016-03-11 | 2021-04-27 | Kaarta, Inc. | Aligning measured signal data with slam localization data and uses thereof |
US11567201B2 (en) * | 2016-03-11 | 2023-01-31 | Kaarta, Inc. | Laser scanner with real-time, online ego-motion estimation |
CN106043169A (zh) * | 2016-07-01 | 2016-10-26 | 百度在线网络技术(北京)有限公司 | 环境感知设备和应用于环境感知设备的信息获取方法 |
US20180136314A1 (en) * | 2016-11-15 | 2018-05-17 | Wheego Electric Cars, Inc. | Method and system for analyzing the distance to an object in an image |
CN110235026A (zh) * | 2017-01-26 | 2019-09-13 | 御眼视觉技术有限公司 | 基于对齐的图像和激光雷达信息的车辆导航 |
US10445928B2 (en) * | 2017-02-11 | 2019-10-15 | Vayavision Ltd. | Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types |
WO2018196001A1 (en) * | 2017-04-28 | 2018-11-01 | SZ DJI Technology Co., Ltd. | Sensing assembly for autonomous driving |
US10663590B2 (en) * | 2017-05-01 | 2020-05-26 | Symbol Technologies, Llc | Device and method for merging lidar data |
WO2018213338A1 (en) * | 2017-05-15 | 2018-11-22 | Ouster, Inc. | Augmenting panoramic lidar results with color |
US20180373980A1 (en) * | 2017-06-27 | 2018-12-27 | drive.ai Inc. | Method for training and refining an artificial intelligence |
-
2017
- 2017-08-04 EP EP17184869.0A patent/EP3438776B1/en active Active
-
2018
- 2018-03-19 CN CN201880038570.6A patent/CN110799918B/zh active Active
- 2018-03-19 WO PCT/EP2018/056799 patent/WO2019025035A1/en active Application Filing
-
2020
- 2020-02-03 US US16/780,337 patent/US11131753B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002277548A (ja) * | 2001-03-16 | 2002-09-25 | Mitsubishi Heavy Ind Ltd | 高精度測距レーザレーダ装置 |
CN104573646A (zh) * | 2014-12-29 | 2015-04-29 | 长安大学 | 基于激光雷达和双目相机的车前行人检测方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
US20200174130A1 (en) | 2020-06-04 |
US11131753B2 (en) | 2021-09-28 |
EP3438776A1 (en) | 2019-02-06 |
WO2019025035A1 (en) | 2019-02-07 |
CN110799918A (zh) | 2020-02-14 |
EP3438776B1 (en) | 2022-09-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110799918B (zh) | 车辆用的方法、设备和计算机可读存储介质、车辆 | |
EP3438777B1 (en) | Method, apparatus and computer program for a vehicle | |
US11635767B2 (en) | System and method of using multi-resolution camera clusters input data for controlling autonomous vehicles | |
CN112346073B (zh) | 一种动态视觉传感器与激光雷达数据融合方法 | |
JP6825569B2 (ja) | 信号処理装置、信号処理方法、およびプログラム | |
EP3438872A1 (en) | Method, apparatus and computer program for a vehicle | |
TWI709943B (zh) | 深度估計裝置、自動駕駛車輛及其深度估算方法 | |
US10909395B2 (en) | Object detection apparatus | |
CN105814403A (zh) | 视差值导出装置、可偏移设备、机器人、视差值产生方法和计算机程序 | |
US20180276844A1 (en) | Position or orientation estimation apparatus, position or orientation estimation method, and driving assist device | |
JP2006318060A (ja) | 画像処理装置、画像処理方法、および画像処理用プログラム | |
JP7389729B2 (ja) | 障害物検知装置、障害物検知システム及び障害物検知方法 | |
US20240144507A1 (en) | Electronic device and control method | |
JP2006318059A (ja) | 画像処理装置、画像処理方法、および画像処理用プログラム | |
US11275952B2 (en) | Monitoring method, apparatus and system, electronic device, and computer readable storage medium | |
JP2006318061A (ja) | 画像処理装置、画像処理方法、および画像処理用プログラム | |
US11999374B2 (en) | Spatial aware object detection by LIDAR and camera fusion based super-resolution | |
JP7259660B2 (ja) | イメージレジストレーション装置、画像生成システム及びイメージレジストレーションプログラム | |
JP2006317193A (ja) | 画像処理装置、画像処理方法、および画像処理用プログラム | |
JP2018146495A (ja) | 物体検出装置、物体検出方法、物体検出プログラム、撮像装置、及び、機器制御システム | |
CN114842442A (zh) | 道路边界获取方法、道路边界获取装置和车辆 | |
US11893799B2 (en) | Computer vision system for object tracking and time-to-collision | |
JP7492599B2 (ja) | 車載カメラ装置 | |
US11897517B2 (en) | Information processing device, information processing method, computer program product, and vehicle control system | |
US20230154013A1 (en) | Computer vision system for object tracking and time-to-collision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |