CN115516527A - 用于生成组合场景的方法和设备 - Google Patents

用于生成组合场景的方法和设备 Download PDF

Info

Publication number
CN115516527A
CN115516527A CN202180015289.2A CN202180015289A CN115516527A CN 115516527 A CN115516527 A CN 115516527A CN 202180015289 A CN202180015289 A CN 202180015289A CN 115516527 A CN115516527 A CN 115516527A
Authority
CN
China
Prior art keywords
sensor data
points
scene
point
combined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180015289.2A
Other languages
English (en)
Inventor
O·N·普斯库尔
J·博伊森
J·维达尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microvision Inc
Original Assignee
Ibeo Automotive Systems GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ibeo Automotive Systems GmbH filed Critical Ibeo Automotive Systems GmbH
Publication of CN115516527A publication Critical patent/CN115516527A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Testing Or Calibration Of Command Recording Devices (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Multiple Motors (AREA)
  • Electrotherapy Devices (AREA)
  • Electrical Discharge Machining, Electrochemical Machining, And Combined Machining (AREA)

Abstract

本发明涉及一种用于生成(101)用于测试对象检测单元(17)的组合场景的方法(100),其中所述方法(100)包括提供(103)第一场景的第一传感器数据(11)和第二场景的第二传感器数据(12),并且其中在每种情况下第一传感器数据(11)和第二传感器数据(12)是包括多个点的点云。方法(100)包括将第一传感器数据(11)的各个点(11a)和第二传感器数据(12)的各个点(12a)分类(107)为相关或不相关,并合并(114)第一传感器数据(11)和第二传感器数据(12)以获得组合场景的第三传感器数据(28),其中仅合并第一传感器数据(11)的相关点(26)和第二传感器数据(12)的相关点(26),以形成组合场景的第三传感器数据(28)。

Description

用于生成组合场景的方法和设备
技术领域
本发明涉及用于生成用于测试对象检测单元的组合场景的方法以及设备。
背景技术
在汽车工业中,已知在真实环境中测试尽可能多的场景,以测试作为驾驶辅助系统或车辆无人驾驶导航装置一部分的对象检测单元。从现有技术中还知道,为了提供再现性和可重复性,通过环境模拟系统人为地产生这种类型的场景。
例如,DE 20 2018 105 162 U1描述用于测试技术系统或机器的测试台的这种环境模拟系统。
然而,在现有技术中没有讨论如何从记录的数据得到对对象检测单元的完整评估。
发明概述
本发明的目的是提供一种用于生成用于测试对象检测单元的组合场景的方法,与现有技术相比,该方法可以从多种场景中总结出更复杂的场景,以便能够完全测试对象检测单元。还应确保能够评估各个场景以及组合场景。
通过根据本发明的用于生成用于测试对象检测单元的组合场景的方法来实现上述目标。对象检测单元尤其是驾驶辅助系统和/或用于车辆无人驾驶导航的设备的一部分。
该方法包括提供第一场景的第一传感器数据和第二场景的第二传感器数据,其中在每种情况下第一传感器数据与第二传感器信息包括至少一个包括多个点的点云。换句话说,至少一个第一点云由第一场景提供,并且至少一个第二点云由第二场景提供。
该方法包括合并第一传感器数据和第二传感器数据以获得组合场景的第三传感器数据,其中所述方法包括将所述第一传感器数据的各个点和所述第二传感器数据的各个点分类为相关和不相关,其中仅合并所述第一传感器数据的相关点和所述第二传感器数据的相关点以形成所述组合场景的传感器数据。换句话说,第一传感器数据的每个点和第二传感器数据的每个点被分类为相关或不相关。术语“合并”的理解方式应特别明确,即场景是由单个场景形成的,换句话说,是汇集的。
术语“场景”尤其是由传感器记录的场景。该场景尤其包括至少一个对象。场景可以是动态的或静态的。该场景尤其包括动态对象的运动序列的至少一个时间点。传感器数据可以进一步描绘运动序列的时间段。然后,传感器数据由时间上相邻的时间点组成,换句话说,运动序列的快照。然后为每个快照提供时间戳。
第一场景和第二场景尤其是“简单场景”。各个传感器数据尤其仅包括少数对象,例如仅一个对象。然后,组合场景将包括多个对象。组合场景尤其是复杂场景,其在真实环境中的代表性比在“简单场景”中更难。
该方法尤其包括获取第一场景的传感器数据和获取第二场景的传感器信息。传感器数据尤其通过用于获取传感器数据的单元来获取。第一传感器数据和第二传感器数据尤其在测试台中获取,其中优选地至少一个对象(例如机器人)在其中移动。
传感器数据还可以源于真实环境,并且可以通过用于获取传感器数据的单元“输入(enter)”。换言之,这意味着车辆配备用于获取传感器数据的装置,并“捕获”,即记录了相应的场景。因此,用于确定基本真相的参考数据优选地也通过相应地布置在车辆上的参考传感器记录。因此,基本真相和传感器数据可以通过另外的摄像机进行验证。基于基本真相,可以标记传感器数据中的对象。可以进一步将点云的点指定给对象。因此,传感器数据也可以从记录的数据中“提取”。例如,可以只取被指定给一个对象的点云的点,然后仅表示与该对象相关的传感器数据。
基本真相尤其包括以下参数:场景中对象的数量和/或在每种情况下对象类别、对象缓解、相对速度、移动方向、与获取传感器数据的单元的距离、环境条件(例如雨或雾)和/或位置,优选地在用于获取场景的单元的获取区域中(例如右上角)。该信息或这些参数分别由参考数据确定,优选手动验证。
第一场景和第二场景优选不同,即特别是在以下参数中的至少一个参数上不同:场景中可以看到的对象数量、对象类别、对象缓解、相对速度、移动方向、与用于获取传感器数据的单元的距离、环境条件(例如雨或雾)和/或位置,优选地在用于获取场景的单元的获取区域中(例如右上角)。第一传感器数据和第二传感器数据优选地在不同的位置,例如在测试台内和/或在不同的时间点获取。第一场景的第一传感器数据和第二场景的第二传感器数据不是同一场景的不同视图。相反,第一传感器数据和第二传感器数据优选基于不同的场景。这意味着组合场景在第一传感器数据和第二传感器数据的记录中实际上并没有发生,而是从不同场景组合而来的。
作为合并第一传感器数据和第二传感器数据的结果,获得了组合场景的第三传感器数据,其同样表示至少一个点云。换言之,第三传感器数据是第一传感器数据和第二传感器数据的公共传感器数据,其中分类用于合并传感器数据以便获得有意义的结果。
该方法的优势在于,组合场景的传感器数据,也就是说,复杂场景中无法以这种复杂度表示、或者至少只能在测试台上花费大量精力才能表示的传感器数据,可以通过简单、易于再现场景的传感器数据进行合并得到。在现实中,这些复杂场景也无法以足够的重复性再现。因此,可以实现更高的场景覆盖率,而不必在公共道路上“驾驶”这些场景(这可能导致高风险情况),也不必在测试台上以复杂的方式重新创建这些场景。
作为分类的一部分,第一传感器数据和第二传感器数据尤其是表示在公共体素图中。后者尤其借助于体素化器来实现,其将第一传感器数据的点云的点和第二传感器数据的点云的点输入到公共体素图中。换句话说,点云的点被输入到三维空间中,该空间通过体素的定义和体素化器进行分割。点云不仅在空间中以点状方式定义,而且在每种情况下都可以指定给相应的体素。这用于在第一传感器数据的点和第二传感器数据的点之间建立空间关系。
自由体素可以被识别为自由空间。接收到的测量脉冲尤其可以分配给点云的每个点。可以将描述测量脉冲反射位置的体素分配给该点,从而也分配给测量脉冲。该接收到的测量脉冲具有能量,因此可以将能量分配给点云的每个点。可以进一步为每个体素分配位于其中的点的能量。特别是,指定给公共体素的点的能量被添加。如果能量高于先前定义的阈值,则体素被识别为被占用,因此不是自由的。如果能量低于阈值,则相应的体素被识别为自由的。
因此,自由体素可以是没有能量高于阈值的点的体素。借助体素图中的公共表示,可以识别自由空间,这在正常点云表示的情况下是不可能的。由于无法检测到由在径向上位于被占用体素后面的体素所产生的测量脉冲,因此可以进一步识别径向上位于被占用体素后面的自由体素。因此,在每种情况下位于被占用体素后面径向排列的体素中的点可以被分类为在该点不相关。
此外,各个传感器数据可以在单独的体素图中表示,然后可以将它们组合以形成公共体素图。在这种单独表示的情况下,已经可以识别自由空间。然后可以在公共体素图的表示中验证这些自由空间。
该方法还可以包括基于第一传感器数据和第二传感器数据的对象的相应标识,其中比较第一传感器数据和第二传感器数据的检测对象的位置,以便识别检测对象可能的重叠和/或掩蔽。术语“掩蔽”尤其指被对象掩蔽的区域。换言之,各个检测到的对象彼此处于空间关系中。对象优选在公共空间中表示,然后可以检测对象是否相互重叠和/或掩蔽。
对象优选地至少被识别为传感器数据的一部分,其分别具有内聚的空间形式或几何形状。出于识别目的,可以检测具有内聚几何结构的传感器数据的相应部分。在另一种情况下,也可以使用基本真相。基本真相可以包括与对象数量、相应对象类别和/或位置相关的信息。来自基本真相的这一知识可用于对象检测,例如在被检测对象的形状和/或位置与来自基本真相的相应信息之间进行比较。
比较检测到的对象的位置的一种可能性是将公共体素图的体素分配给检测到的对象。因此,根据两个传感器数据分配给对象的体素基于重叠。指定给点云对象但位于其他点云对象体素后面的体素被该其他点云中的对象掩蔽。
该方法可以包括噪声点的识别。噪声点不是源于对象,而是源于噪声。噪声点特别是通过点云和/或对应的相邻体素的相邻点的接近度比较来检测。接收能量的基本水平尤其可以通过邻近比较来确定,其中能量与该能量水平没有显著差异的点被识别为噪声点。具体而言,每个接收到的测量脉冲都有能量,因此可以将能量分配给点云的每个点。可以进一步为每个体素分配位于其中的点的能量。特别是指定给公共体素的点的能量被添加。体素的直接相邻邻域的能量可以进一步平均(以确定“基本水平”),并可以与体素的能量进行比较。如果其能量低于=例如先前指定的平均能量百分比作为的阈值),则位于体素中的所有点都可以识别为噪声点。还可以进一步指定阈值,该阈值不仅考虑直接相邻的体素。例如,可以考虑位于距体素指定距离以下的所有体素。
分类可以进一步基于所识别的对象、识别的自由空间和/或识别的噪声点进行。作为分类的一部分,相关点和非相关点尤其借助点云标记器进行标记。
例如,识别的噪声点属于非相关点。特别是,选择并分类为相关的点,在此基础上合并不同场景以获得实际组合场景的第三传感器数据。
点云的掩蔽点可以被分类为与分类不相关,其中体素图内的点被相同点云和/或其他点云的至少一个点掩蔽。
例如,被相同点云或其他点云的其他点掩盖的点可以已经根据自由空间检测分类为不相关。因此,在每种情况下首先被径向占据的体素限定位于所述点的径向后方的体素中的所有点被分类为不相关。
作为分类的一部分,当点被其他点云的对象遮挡时,可以进一步将点云的点分类为不相关。例如,源于一个点云的对象可以位于其他点云中的点的径向前方。例如,可以将这些掩蔽点指定给这些其他点的对象。然而,这些点被其他点的对象掩蔽,使得对其的考虑毫无意义,因为如果以这种方式记录,该组合场景的第三传感器数据将不包括由于掩蔽而产生的点。
作为分类的一部分,当点位于其他点云的对象内时,可以进一步将点云的点分类为不相关。这里也适用类似的逻辑。由于存在其他点云的对象,因此在组合场景中无法检测到相应的点,因此将这些点合并到公共点云中是没有意义的。
作为分类的一部分,当点源于与其他点云的第二对象重叠的第一对象时,可以将点云的点分类为不相关。在重叠的情况下,通过第一传感器数据识别的对象与通过第二传感器数据识别出的对象重叠。由于重叠,重叠对象的所有对应点的合并没有任何意义。因此,可以做出决定,仅接受其中一个对象的点进入组合场景的第三传感器数据。然后,将与第二对象重叠的其他对象的所有点分类为不相关是有意义的。
作为分类的一部分,当点出现在两个传感器数据中时,也可以将点云的点分类为不相关。例如,可以在两个传感器数据中完全相同的位置检测到对象。然后,仅将在其中一个点云中的出现两次的点分类为不相关是有意义的。
因此,掩蔽点可以理解为非相关点。它们可以在体素图内被相同和/或其他点云的至少一个点、相同或其他点云的其他点和/或其他点云的对象遮挡。它们也可以被掩蔽,因为它们位于其他点云的对象内和/或源自与其他点云中的第二对象重叠的第一对象。
非相关点可以进一步理解为冗余点,因为它们出现在第一传感器数据和第二传感器数据中和/或作为噪声点。
第一传感器数据和第二传感器数据的合并尤其包括在公共坐标系中输入被分类为相关的第一传感器数据及第二传感器数据点。合并还可以包括存储在公共数据集中。因此可以获得合并的点云,该点云表示两种场景的组合场景。
该方法还可以包括用于其他场景的上述步骤,其中合并包括第一传感器数据、第二传感器数据和其他传感器数据。
当第一传感器数据和第二传感器数据在每种情况下描绘用于描绘对象的运动序列的时间段时,上述步骤在多个时间点执行,换句话说,针对传感器数据的各个运动序列进行快照。在这种情况下,第一传感器数据和第二传感器数据在各自描绘的时间段的不同时间点包括若干点云。它们形成相应的快照。因此,第一传感器数据的相应点云始终与第二传感器数据的点云合并,由此产生组合场景中包含的对象的运动序列。因此,组合场景的第三传感器数据同样描绘一段时间,并因此可以包括多个接收点云。
在传感器数据具有不同时间段的情况下,根据合并开始的时间,它们通常可以进行不同的组合。换言之,传感器数据可以在时间尺度上彼此相对移动。始终保持相同传感器数据的快照之间的时间关系。换言之,一段时间的传感器数据既不在时间上“拉伸”也不“压缩”,而是按照记录的时间顺序和间隔与其他传感器数据相结合。合并是容易实现的,因为第一传感器数据和第二传感器数据在各自描绘的时间段的不同时间点处从多个点云组合而成,因此不同的时间组合仅意味着在时间上合并其他点云。
描述第一场景和第二场景的时间段不必具有相同的长度。例如,如果第一传感器数据和第二传感器数据具有不同的时间段,则可以简单地使用较长的时间段。当合并传感器数据的相应快照时,只有较短时间周期的传感器数据的“最后快照”可以简单地从较短时期的结束处开始使用。这与实际情况相对应,即从该时间点开始,传感器数据中以较短时间段描述的对象不再移动。或者仅仅使用较长时间段的传感器数据的快照,因为较短时间段的传感器数据的快照不再在附近,所以真正的合并实际上并没有发生。这可以指的是组合场景的时间起点。换句话说,一个场景可以更早开始并且另一个可以稍后“添加”。
例如,第一传感器数据的长度为10秒,第二传感器数据的时间长度为4秒。时间段现在可以以任何期望的方式相对于彼此移动。例如,第一传感器数据可以立即“启动”,第二传感器数据只能在第三秒后启动。这将意味着在第三秒之前仅存在第一传感器数据的前三秒的对应快照。换句话说,合并不会发生。就时间而言,两个传感器数据的快照都出现在第三秒和第七秒之间,因此它们被合并。具体而言,将第一传感器数据的第四秒到第七秒的快照与第二传感器数据的第一秒到第四秒的对应快照组合。在第七秒之后,有两种选择。可以允许第一传感器数据继续运行,即,由于第二传感器数据的相应快照不再存在,可以在不合并的情况下拍摄第一传感器数据最后三秒的快照,或者拍摄第二传感器数据第四秒的“最后快照”,并在剩余时间段内将其与第一传感器数据的对应快照合并。总体而言,第三传感器数据的前三秒因此仅含有第一传感器数据的快照,在第三秒和第七秒之间含有合并的两个传感器数据的快照,以及在在第七秒后,含有合并的第二传感器数据的“最后快照”和第一传感器数据对应快照,或者仅含有第一传感器数据的快照。
描述运动序列的第一传感器数据,以及描述静态对象的第二传感器数据(严格地说是“统计”传感器数据),也可以通过将第一传感器数据的不同时间点与“统计”第二传感器数据分别合并。
该方法尤其可以包括提供第一场景的第一基本真相和第二场景的第二基本真相。第一基本真相和第二基本真相尤其可以通过参考数据来确定,其中该方法可以包括通过用于获取这些参考数据的至少一个参考传感器来获取第一场景和第二场景。参考数据尤其是点云,因此参考传感器是激光雷达传感器。参考数据还可以是图像数据或具有相机或雷达传感器作为参考传感器的雷达数据。
第一和第二基本真相尤其用于验证第一场景和第二场景。基本真相再现了应该在相应传感器数据中可检测到的情况。该方法尤其包括验证第一场景的第一传感器数据和第二场景的第二传感器数据。
该方法尤其包括合并第一基本真相和第二基本真相,以形成组合场景的基本真相。总结特别包括对所确定的上述参数的总结。组合场景的基本真相同样用于验证组合场景的第三传感器数据。非常简单的例子如下:第一传感器数据的基本真相可以是“车辆,从左边来”,并且第二传感器数据可以是“自行车骑手,从右边来”,因此第三传感器数据的基本真相将是“车辆都从左边来并且自行车骑手都从右边来”。
该方法还可以包括测试对象检测单元,其中该测试包括提供组合场景的第三传感器数据,以及将由对象检测单元检测的对象与组合场景的基本真相比较。具体而言,对象检测单元用于确定至少一个、特别是所有上述参数,优选至少一个数量的检测对象和相应的对象类别。对象检测单元的该输出可以与基本真相比较。例如,可以比较对象检测单元是否检测到相同数量的对象和/或在每种情况下是否检测到正确的对象类别。通过对象检测确定的参数可以与基本真相的相应参数比较。
术语“测试”尤其可以理解为对象检测单元的训练。对象检测单元尤其可以包括检测模块,该检测模块包括具有权重的神经元网络。因此,第三传感器数据可用于调整神经元之间的权重,因为如上所述,将对象检测单元的输出与基本真相的等效参数进行比较。
“测试”可以进一步理解为对已调整权重的控制。在这种情况下,权重不再改变,而是根据先前训练阶段已经调整的权重来分析网络的学习进度。
该方法还可以包括生成用于生成组合场景的传感器数据的库,其中存储传感器数据和可选地存储不同场景的相应基本真相。“存储”尤其应理解为保存。存储的传感器数据尤其是预先获取的。组合场景尤其如上所述生成。通过指定以下参数,分别对存储的场景进行分类或归类,例如场景中可以看到的对象类别、对象缓解、相对速度、移动方向、与获取传感器数据的单元的距离、环境条件(例如雨或雾)和/或位置,优选地在用于获取场景的单元的获取区域中(例如右上角)。
该方法可以包括使用库以生成定义的组合场景的传感器数据。该库还可用于合并随机化传感器数据,从而生成组合场景的传感器数据。这可以以自动或手动方式进行。例如,通过所有有意义的排列,可以生成所有先前存储的场景的传感器数据的组合。例如,可以由此生成两个和/或三个存储场景的传感器数据的所有有意义的组合。因此,创建了大量不同的组合场景。特别是,场景与场景本身的组合没有意义,故需要排除相应的组合。在库的帮助下合并的组合场景的传感器数据可用于以自动化方式测试对象检测单元。组合传感器数据的相应基本真相尤其也被组合并用于测试。
有利的是,与现有技术相比,并非所有可能的场景都必须“驾驶”。术语“驾驶”描述了车辆配备相应的检测装置和参考传感器,在这种情况下需要很长的驾驶时间,以便能在实际情况下发现并捕捉所有的可能性。通过使用该库,因为可以组合存储场景中的许多场景,可以至少在很大程度上消除这种努力。
在另一方面,本发明涉及一种用于生成用于测试对象检测单元的组合场景的设备,其中该设备包括用于合并第一传感器数据和第二传感器数据以获得组合场景的第三传感器数据的单元。该设备还包括分类单元,用于将第一传感器数据的各个点和第二传感器数据的各点分类为相关和不相关。该设备优选地形成用于执行上述方法。
该设备还可以包括用于获取第一和第二传感器数据的单元,其中该单元优选为激光雷达传感器。因此,第一传感器数据和第二传感器数据的点云是激光雷达点云。该单元尤其被形成为通过包括若干发送元件的发送单元发送测量脉冲,并通过包括若干接收元件的接收单元接收反射的测量脉冲。因此,每个发送单元可以被分配给相应的接收元件和测量区域的相应三维部分,即体素。因此,接收测量脉冲产生的点可以明确地指定给一个体素。
分类单元尤其可以包括用于第一和第二传感器数据的体素化器,其表示体素图中的对应传感器数据。该设备还可以包括检测公共体素图中的自由空间的自由空间检测单元。
分类单元优选地进一步包括基于相应传感器数据检测对象的对象检测单元。该设备还可以包括对象合并单元,换句话说,用于合并检测到的对象的单元,以便可以检测到对象的重叠和/或掩蔽。
分类单元还特别包括噪声点识别单元,其被形成为直接识别噪声点。
该设备还可以包括点云标记器,其基于识别的对象、识别的自由空间和识别的噪声点将不同传感器数据的点标记为相关和不相关。该设备还可以包括用于合并第一和第二传感器数据的单元,该单元可以在公共坐标系中存储被分类为相关的第一传感器数据和第二传感器数据的点。
本发明还包括一种计算机程序产品,该产品包括计算机可读存储介质,程序存储在该存储介质上,该存储介质在将程序加载到计算机的存储器中后,使计算机能够执行上述用于对象分类和/或距离测量的方法,可选地与上述装置协作。
本发明还涉及一种计算机可读存储介质,程序存储在该存储介质上,该存储介质在将程序加载到计算机的存储器中之后,使得计算机可以执行上述方法,用于对象分类和/或距离测量,可选地与上述设备协作。
附图简述
图1显示了根据本发明的方法的示意图;
图2显示了第一传感器数据;
图3显示了第二传感器数据;
图4显示了具有图2的第一传感器数据和图3的第二传感器数据的公共体素图;
图5显示了识别噪声点后的图4的公共体素图;
图6显示了将掩蔽点分类为不相关后的图5的公共体素图;
图7显示了具有组合场景的第三传感器数据的体素图;
图8显示了根据本发明的设备;和
图9显示了集成到根据图8的设备中的根据本发明的方法的示意序列。
发明详述
图1显示了根据本发明的方法100的示意图,包括以下步骤:
方法100用于生成101用于测试117对象检测单元17的组合场景。方法100尤其可以包括生成101组合场景。
方法100包括提供103第一场景的第一传感器数据11和第二场景的第二传感器数据12。方法100可以包括先前获取102第一传感器数据11和第二传感器数据12。
方法100可以进一步包括提供105第一场景的第一基本真相和第二场景的第二基本真相,其中方法100可以还优选地包括获取104两个基本真相。
基于所提供的基本真相,可以验证106第一场景的第一传感器数据11和第二场景的第二传感器数据12。
方法100包括将第一传感器数据11的各个点11a和第二传感器数据12的各个点12a分类107为相关或不相关。对于分类,方法100可以包括公共体素图23中第一传感器数据11和第二传感器数据12的表示108,其中自由体素可以识别109为自由空间。
方法100还可以包括基于第一传感器数据11和第二传感器数据12的对象识别110。由此可以比较111检测到的对象位置,从而可以检测112对象的可能重叠和/或掩蔽。方法100可以进一步包括噪声点24的识别113。
方法100还包括合并114第一传感器数据11和第二传感器数据12,以获得组合场景的第三传感器数据28。以这种方式生成101组合场景。
合并114可以包括在公共坐标系中被分类为相关的点的输入115。
方法100还可以包括合并116第一基本真相和第二基本真相,以形成组合场景的基本真相。
该方法还可以包括测试117对象检测单元17,其中测试117可以包括提供118组合场景的第三传感器数据28,以及将对象检测单元17检测到的对象与组合场景的基本真相进行比较119。
图2显示了第一传感器数据11。因此,第一传感器数据表示点云,其中第一传感器数据的各个点11a清晰可见。
图3显示了第二传感器数据12,作为点云,它同样由各个点12a组成。
图4显示了公共体素图23,其中示出了图2的第一传感器数据11和图3的第二传感器数据12。具有体素23a的公共体素图23包括16列和16行。通过指定列/行来明确限定体素23a。
如图2和图3所示,第一传感器数据11和第二传感器数据12彼此没有空间关系。彼此之间的空间关系仅通过将点分配给体素,然后在公共体素图23中合并来建立。
为了简化说明,第一传感器数据11、第二传感器数据12和公共体素图23以及由此创建的第三传感器数据28(见图7)以二维方式显示,尽管显而易见,它们通常以三维方式存在。
位置5/8、6/4、10/7、10/8、10/9、11/6、11/10、12/11处的体素23a中的公共体素图23中的点是第一点云的点11a,而第二传感器数据12的点12a被输入到位置6/11、6/12、6/13、7/10、8/9、9/2、10/15处的体素23a中。
在图5中显示了在图4的体素图中的一些点已被识别为噪声点24之后的体素图。这与点9/2、6/4、5/8和10/15有关。这些噪声点24被分类为非相关点27。
在图5中还可以看到,第一传感器数据的点11a和第二传感器数据的点12a如何创建掩蔽区29。这是因为位置11/6、10/7和10/8处的点11a后面的所有体素23a都被掩蔽。术语“后面”是指径向布置在其后面,在体素图23中,这意味着相应的体素23a具有更高的行号。
类似地,位于位置8/9、7/10、6/11、6/12和6/13处的体素23a中的第二传感器数据12的点12a创建了相应的屏蔽区29。第一传感器数据11的三个点11a位于屏蔽区29中,并被分类为屏蔽点25。这些是位于位置10/9、11/10和12/11处的体素23a的点11a。
图6显示了在掩蔽点25被分类为不相关之后的图5的体素图。第一传感器数据11的剩余的点11a和第二传感器数据12的剩余的点12a被进一步分类为相关点26。
具有第三传感器数据28的体素图如图7所示,该体素图通过合并第一传感器数据11的分类为相关的点26和第二传感器数据12的分类为有关的点26而生成。第三传感器信息28同样表示具有对应点28a的点云,即体素23a中位于位置6/11、6/12、6/13、7/10、8/9、10/7、10/8和11/6的点28a。
图8显示了根据本发明的设备10,其可以包括用于检测第一传感器数据11和第二传感器数据12的单元13。设备10还包括分类单元15和用于合并第一传感器数据11和第二传感器数据12的单元14.
分类单元15可以包括体素化器16、自由空间识别单元19、对象检测单元17、对象合并单元18和噪声点识别单元20以及点云标记器21。体素化器16用于在公共体素图23中表示第一传感器数据11和第二传感器数据12,其中自由空间识别单元19将自由体素分类为自由空间。对象检测单元17用于检测对象,并且对象合并单元18用于将它们置于彼此的空间关系中以检测可能的掩蔽和/或重叠。噪声点识别单元20用于识别噪声点24。点云标记器21用于将第一传感器数据11和第二传感器数据12的所有点分类为相关或不相关。随后通过用于合并的单元14仅合并相关点26以形成第三传感器数据28。
根据图8集成到设备10中的方法100的示意图如图9所示。因此,设备10没有多个图示的单元,例如体素化器或对象检测单元,但它在图9中仅示意性地示出将传感器数据覆盖在设备10内。
作为输入,提供第一传感器数据11和第二传感器数据12,将其馈送至分类单元15,即首先馈送至体素化器16,然后馈送至自由空间识别单元19,以便在公共体素图23中表示第一传感器数据11和第二感测器数据12,并将自由体素识别为自由空间。
第一传感器数据11和第二传感器数据12进一步被馈送到对象检测单元17,随后被馈送至对象合并单元18,以便将检测到的对象的位置相互比较,并检测可能的重叠和/或掩蔽。
第一传感器数据和第二传感器数据被另外馈送到噪声点识别单元20,该单元可以识别噪声点24。
点云标记器21随后可以将噪声点和识别的点标记为不相关,而其余点标记为相关。相关分类点26被馈送到用于合并第一传感器数据11和第二传感器数据12的单元14,该单元将其合并以形成第三传感器数据28。
附图标记列表
100 根据本发明的方法
101 生成组合场景
102 获取第一场景的第一传感器数据和第二场景的第二传感器数据
103 提供第一场景的第一传感器数据和第二场景的第二传感器数据
104 获取第一场景的第一基本真相和第二场景的第二基本真相
105 提供第一场景的第一基本真相和第二场景的第二基本真相
106 验证第一场景的第一传感器数据和第二场景的第二传感器数据
107 将第一传感器数据的各个点和第二传感器数据的各个点分类为相关或不相关
108 在公共体素图中表示第一传感器数据和第二传感器数据
109 将自由体素识别为自由空间
110 基于第一传感器数据和第二传感器数据识别对象
111 比较第一传感器数据和第二传感器数据的检测对象的位置
112 检测可能的重叠和/或掩蔽
113 识别噪声点
114 合并第一传感器数据和第二传感器数据以获得组合场景的第三传感器数据
115 输入分类为相关的点至公共坐标系
116 合并第一基本真相和第二基本真相以形成组合场景的基本真相
117 测试对象检测单元
118 提供组合场景的第三传感器数据
119 将由对象检测单元检测的对象与组合场景的基本真相比较
10 根据本发明的设备
11 第一传感器数据
11a 第一传感器数据的点
12 第二传感器数据
12a 第二传感器数据的点
13 用于检测第一传感器数据和第二传感器数据的单元
14 用于合并第一传感器数据和第二传感器数据的单元
15 分类单元
16 体素化器
17 对象检测单元
18 对象合并单元
19 自由空间识别单元
20 噪声点识别单元
21 点云标记器
23 公共体素图
23a 体素
24 噪声点
25 掩蔽点
26 相关点
27 非相关点
28 第三传感器数据
28a 第三传感器数据的点
29 掩蔽区

Claims (15)

1.一种用于生成(101)用于测试对象检测单元(17)的组合场景的方法(100),
其中所述方法(100)包括提供(103)第一场景的第一传感器数据(11)和第二场景的第二传感器数据(12),
其中所述第一传感器数据(11)和所述第二传感器数据(12)在每种情况下都具有包括多个点的至少一个点云,
其特征在于,
所述方法(100)包括将所述第一传感器数据(11)的各个点(11a)和所述第二传感器数据(12)的各个点(12a)分类(107)为相关或不相关,
其中所述方法(100)包括合并(114)所述第一传感器数据(11)和所述第二传感器数据(12),以获得所述组合场景的第三传感器数据(28),并且其中仅合并所述第一传感器数据(11)的相关点(26)和所述第二传感器数据(12)的相关点(26),从而形成所述组合场景的第三传感器数据(28)。
2.根据权利要求1所述的方法(100),其特征在于,
所述第一传感器数据(11)和所述第二传感器数据(12)在公共体素图(23)中表示,
其中自由体素(23a)被识别为自由空间。
3.根据权利要求1或2所述的方法(100),其特征在于,
所述方法(100)包括分别基于所述第一传感器数据(11)和所述第二传感器数据(12)的对象的识别(110),
其中比较(111)所述第一传感器数据(11)和所述第二传感器数据(12)的检测对象的位置,以检测可能的重叠和/或掩蔽。
4.根据前述权利要求之一所述的方法(100),其特征在于,
所述方法包括噪声点(24)的识别(113)。
5.根据权利要求2至4之一所述的方法(100),其特征在于,
基于识别的对象、识别的自由空间和/或识别的噪声点(24)进行分类。
6.根据权利要求2至5之一所述的方法(100),其特征在于,
点云的掩蔽点(25)被分类为与所述分类不相关,
其中所述公共体素图(23a)内的掩蔽点(25)被相同和/或其他点云的至少一个点掩蔽。
7.根据前述权利要求之一所述的方法(100),其特征在于,
当点被其他点云的对象遮挡、和/或当点位于其他点云中的对象内、和/或当点源于第一对象,所述第一对象与另一个点云的第二个物体重叠,和/或当点出现在所述第一传感器数据和所述第二传感器数据中时,点云的点被分类为与所述分类不相关。
8.根据前述权利要求之一所述的方法(100),其特征在于,
合并(114)第一传感器数据(11)和第二传感器数据(12)包括在公共坐标系中输入(115)被分类为相关的点(26)。
9.根据前述权利要求之一所述的方法(100),其特征在于,
所述方法(100)包括提供(105)用于第一场景的第一基本真相和用于第二场景的第二基本真相。
10.根据权利要求9所述的方法(100),其特征在于,
所述方法(100)包括合并(116)所述第一基本真相和所述第二基本真相,以形成所述组合场景的基本真相。
11.根据权利要求9或10所述的方法(100),其特征在于,
所述方法包括测试(117)对象检测单元(17),
其中所述测试(117)包括提供(118)所述组合场景的所述第三传感器数据(28),以及将由所述对象检测单元(17)检测的对象与所述组合场景的基本真相比较(119)。
12.根据前述权利要求之一所述的方法(100),其特征在于,
所述方法(100)包括生成用于生成组合场景的传感器数据的库,
其中不同场景的传感器数据,并且可选地,与场景对应的基本真相存储在所述库中。
13.用于生成用于测试对象检测单元(17)的组合场景的设备(10),其特征在于,
所述设备(100)包括用于合并第一传感器数据(11)和第二传感器数据(12)以获得组合场景的第三传感器数据(28)的单元(14),
其中所述设备(10)包括分类单元(15),所述分类单元(15)用于将所述第一传感器数据(11)的各个点(11a)和所述第二传感器数据(12)的各个点(12a)分类(107)为相关和不相关。
14.一种计算机程序产品,包括计算机可读存储介质,程序存储在该存储介质上,在程序加载到计算机的存储器中后,使计算机能够执行根据权利要求1至12之一所述的方法(100),可选地与根据权利要求13所述的设备(10)协作。
15.一种计算机可读存储介质,其上存储有程序,在程序加载到计算机的存储器中后,使计算机能够执行根据权利要求1至12之一所述的方法,可选地与根据权利要求13所述的设备(10)协作。
CN202180015289.2A 2020-02-20 2021-02-11 用于生成组合场景的方法和设备 Pending CN115516527A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP20158378 2020-02-20
EP20158378.8 2020-02-20
PCT/EP2021/053294 WO2021165129A1 (de) 2020-02-20 2021-02-11 Verfahren und vorrichtung zum erstellen zusammengesetzter szenarien

Publications (1)

Publication Number Publication Date
CN115516527A true CN115516527A (zh) 2022-12-23

Family

ID=69723805

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180015289.2A Pending CN115516527A (zh) 2020-02-20 2021-02-11 用于生成组合场景的方法和设备

Country Status (7)

Country Link
US (1) US20220405536A1 (zh)
EP (1) EP4107654A1 (zh)
KR (1) KR20220139984A (zh)
CN (1) CN115516527A (zh)
CA (1) CA3169989A1 (zh)
IL (1) IL295643A (zh)
WO (1) WO2021165129A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11915436B1 (en) * 2021-08-30 2024-02-27 Zoox, Inc. System for aligning sensor data with maps comprising covariances

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202018105162U1 (de) 2018-09-10 2018-10-18 Edag Engineering Gmbh Umfeldsimulationssystem für einen Prüfstand zum Testen von technischen Anlagen oder Maschinen und ein solcher Prüfstand

Also Published As

Publication number Publication date
IL295643A (en) 2022-10-01
WO2021165129A1 (de) 2021-08-26
CA3169989A1 (en) 2021-08-26
KR20220139984A (ko) 2022-10-17
US20220405536A1 (en) 2022-12-22
EP4107654A1 (de) 2022-12-28

Similar Documents

Publication Publication Date Title
US11137763B2 (en) Generating and fusing traffic scenarios for automated driving systems
CN113168524B (zh) 用于测试驾驶员辅助系统的方法和设备
CN104935879B (zh) 用于活动顺序验证的基于视觉的监视系统
CN103358993B (zh) 用于识别车辆停车位线标记的系统和方法
CN111983935B (zh) 一种性能评测方法和装置
CN101689328B (zh) 图像处理设备以及图像处理方法
WO2019175285A1 (en) Vehicle localization
CN109425855A (zh) 使用模拟传感器数据扩增现实传感器记录
CN106503653A (zh) 区域标注方法、装置和电子设备
CN110543807B (zh) 验证障碍物候选的方法
CN103770704A (zh) 用于识别车辆的停车位标志线的系统和方法
US20210072397A1 (en) Generation of synthetic lidar signals
KR102082254B1 (ko) 차량 인식 시스템
CN111723724B (zh) 一种路面障碍物识别方法和相关装置
CN106096555A (zh) 三维面部检测的方法和装置
US20220405536A1 (en) Method and device for generating combined scenarios
Krajewski et al. Using drones as reference sensors for neural-networks-based modeling of automotive perception errors
US20220299627A1 (en) Apparatus and Method for Collecting and Auto-Labelling Measurement Data in Traffic Scenario
CN115937817A (zh) 一种目标检测方法、系统及挖掘机
Skruch et al. An approach for evaluating the completeness of the test scenarios for the vehicle environmental perception-based systems
US20210329219A1 (en) Transfer of additional information among camera systems
CN115236672A (zh) 障碍物信息生成方法、装置、设备及计算机可读存储介质
CN111273633A (zh) 测量、模拟、标记和评估车辆的部件和系统的设备和方法
US20230192148A1 (en) Method and system for classifying traffic situations and training method
EP4047516A1 (en) Methods and systems for determining a distance of an object

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20230419

Address after: Washington, DC

Applicant after: Microvision, Inc.

Address before: Nuremberg, Germany

Applicant before: MICROVISION, Inc.

Effective date of registration: 20230419

Address after: Nuremberg, Germany

Applicant after: MICROVISION, Inc.

Address before: Hamburg, Germany

Applicant before: IBEO AUTOMOTIVE SYSTEMS GmbH

TA01 Transfer of patent application right