CN108363065A - 物体检测系统 - Google Patents
物体检测系统 Download PDFInfo
- Publication number
- CN108363065A CN108363065A CN201810041003.8A CN201810041003A CN108363065A CN 108363065 A CN108363065 A CN 108363065A CN 201810041003 A CN201810041003 A CN 201810041003A CN 108363065 A CN108363065 A CN 108363065A
- Authority
- CN
- China
- Prior art keywords
- column
- cloud point
- image
- laser radar
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/865—Combination of radar systems with lidar systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
Abstract
一种物体检测系统(10)包括激光雷达单元(22)和控制器(30)。所述控制器(30)定义将所述视场(26)分割成柱(42)的占用网格(40),基于由所述激光雷达单元(22)通过第一扫描(58)在柱(48)中检测到的第一云点(56)确定柱(48)的第一占用状态(52),基于由第二扫描(70)在所述柱(48)内检测到的第二云点(68)确定所述柱(48)的第二占用状态(64),确定所述第一云点(56)的第一数目(74)和所述第二云点(68)的第二数目(76),以及只有当所述柱(48)被分类为由所述第一占用状态(52)或所述第二占用状态(64)占用时,才确定所述柱(48)的动态状态(12)。
Description
技术领域
本公开大体涉及物体检测系统,并且更具体地涉及一种系统,其基于由系统限定的柱的阵列中的云点中的变化确定自动化车辆附近的物体的动态状态。
背景技术
已知在自动化车辆上使用光检测和测距单元(它也可被称为“LIDAR”或“LiDAR”并且在下文中被称为激光雷达)以检测移动的物体(诸如其他车辆)和/或固定的或静态的物体(诸如指示牌、灯杆、障碍等)。由于经济型激光雷达单元的分辨率持续增加,数据处理负担也增加从而使得汽车图像数据处理控制器的成本不期望地增加。
发明内容
根据一个实施例,提供了一种确定自动化车辆附近的物体的动态状态的物体检测系统。该系统包括激光雷达单元和控制器。激光雷达单元用于检测主车辆附近的激光雷达单元的视场内的云点。控制器与激光雷达单元进行通信。控制器被配置成:限定将视场分离成柱的阵列的占用网格;基于由激光雷达单元在第一时间进行的第一扫描而在柱中检测到的第一云点的第一高度确定柱的第一占用状态,其中当第一高度大于高度阈值时第一占用状态被确定为被占用;基于由激光雷达单元在第一时间之后的第二时间进行的第二扫描而在柱中检测到的第二云点的第二高度确定柱的第二占用状态,其中当第二高度大于高度阈值时第二占用状态被确定为被占用;确定由第一扫描在柱中检测到的第一云点的第一数目;确定由第二扫描在柱中检测到的第二云点的第二数目;只有当柱被分类为由第一占用状态或第二占用状态占用时确定柱的动态状态。当第一数目和第二数目之间的计数差大于差阈值时,柱的动态状态被确定为移动的,并且当该计数差不大于差阈值并且将第一云点和第二云点对准的配准因素小于配准阈值时柱的动态状态被确定为静态的。
阅读优选实施例的下列详细描述并参考各个附图,进一步的特征和优点将更加显而易见,优选实施例只是作为非限制性示例给出的。
附图说明
现在将参考各个附图通过示例的方式来描述本发明,其中:
图1是根据一个实施例的物体检测系统的示图;
图2是根据一个实施例的由图1的系统限定的占用网格分离的交通场景的等距视图;
图3A和3B是根据一个实施例的由图1的系统限定的占用网格的俯视图;
图4A和4B是根据一个实施例的由图1的系统检测到的云点指示的表面的等距视图;
图5示出叠加在相机图像上的柱和物体两者的动态状态信息的示例;
图6示出使用激光雷达和相机两者的针对动态网格创建的柱匹配的具体说明,其中顶部行示出两次扫描的占用网格的示例,中间行示出在相同位置的两个柱内的云点的示例,并且最后一行示出叠加在相机图像上的柱;并且
图7示出叠加在图像上的雷达监测的示例,其中白色的虚线框表示来自移动物体的雷达监测,并且黑色的实线框表示固定的物体上的雷达监测。
具体实施方式
图1示出了物体检测系统10(以下称为系统10)的非限制性示例。通常,系统10确定自动化车辆(例如主车辆16)附近的物体14的动态状态12。如本文所使用的,术语“自动化车辆”可应用于当主车辆16正以自动模式(即,完全自主模式)操作的情况,其中主车辆16的人类操作者(未示出)可几乎不用做指定目的地以便操作主车辆16以外的事情。然而,完全自动化不是必需的。构想到,当主车辆16以手动模式被操作时本文中提供的教导是有用的,在手动模式下,自动化程度或等级可能仅仅是系统10向通常控制着主车辆16的转向、油门和刹车的人类操作者提供可听或可视的警告。例如,系统10可能仅仅在需要时帮助人类操作者以变道和/或避免与例如物体14(诸如其他车辆38(图2)、行人、或路标36(图2))的实例的干扰和/或碰撞。如下面将更详细解释的,动态状态12可被分类为移动的18或静态的20,但是动态状态12不限于仅有的这些分类。
继续参考图1,系统10包括用于检测在主车辆16附近的激光雷达单元22的视场26内的云点24的实例的激光雷达单元22。如本领域技术人员所理解的,激光雷达单元22跨视场26扫描激光束,并且激光束被反射和由激光雷达单元22检测到的云点24的每个实例的方向和距离被记录或存储为云点24之一的实例。
系统10也包括与激光雷达单元22通信的控制器30。激光雷达22和控制器30之间的通信可通过导线、光缆、或无线通信提供但不限于此。控制器30可包括诸如微处理器的处理器(未具体示出)或其它控制电路,诸如模拟和/或数字控制电路,包括应当为本领域技术人员熟知的用于处理数据的专用集成电路(ASIC)。控制器30可包括用以存储一个或多个例程、阈值和所捕捉的数据的存储器(未具体示出),包括非易失性存储器,诸如电可擦除可编程只读存储器(EEPROM)。一个或多个例程可以由处理器执行,以基于由控制器30从激光雷达单元22接收到的信号,执行用于确定物体14的动态状态12的步骤,如本文所描述的。
图2示出了当主车辆16配备有系统10时可能遇到的交通场景32的非限制性示例。该图示与从主车辆16被看到的或与由主车辆16上安装的相机呈现的图像相当。如之前提及的,从激光雷达单元22的市面在售的示例可获得的数据量可能比系统10用来确定或辨别视场26内的物体14何时为静态的20(例如,交通信号灯34或路标36)并且物体14中的哪些实例是移动的18(例如,其他车辆38)所需要的数据多。本文描述的系统10相对于现有可比较的系统的改进在于,由控制器30进行的激光雷达数据处理以减少控制器30上的处理负担的方式被执行,从而可以使用控制器30的更经济的配置。
为此,控制器30被配置或被编程以限定将视场26分离为柱42的阵列的占用网格40。占用网格40通常是横向水平的,即与地平面平行或与可参考主车辆16的参考坐标系44的典型的x-y-z版本中由x轴和y轴定义的平面平行,并且可被定位成有效地“悬停”在地面上。柱42然后通常被垂直地定向。图2中示出的占用网格40被示为基本上比设想用于系统10的更粗(即,单元格46更大),并且柱42的仅两种示例被示出,仅为了简化图示。作为示例而非限制,系统10的典型实施例的占用网格40的每个单元格46将是二十厘米的平方(0.2m x0.2m),并且占用网格40的每个单元格46将具有相应的柱。而且,预想到,被占用网格40覆盖的视场26的区域将大于示出的,并且柱42可高于或短于示出的。
云点24的每个实例的坐标(例如,距离、方位角、仰角)被存储,因此云点24的每个实例可以与柱48的对应实例相关联。就是说,如果云点24的实例的坐标位于由占用网格40定义的单元格46的边界确定的柱48的边界内,那么问题中的云点24的实例被分配给柱48或与柱48相关联。如果物体14时安装在杆上的交通信号34,那么由于交通信号34和支撑杆的垂直性质,可能存在与柱48相关联的云点24的许多实例。然而,如果柱48被放置成对应于其他车辆38的引擎盖50或与其他车辆38的引擎盖50对准,那么可能仅存在与柱48相关联的云点24的几个实例。
图3A示出了占用网格40在特定时刻的第一占用状态52的非限制性示例。在图2中占用网格40从对应于三维(3D)视角的等距视角观看。图3A(和图3B)示出了从上方的占用网格40的视图从而具有二维(2D)视角的俯视图。每个像素对应于占用网格40的单元格或柱,并且该单元格或柱基于柱内云点24的评估被确定为“占用的”或“空的”或一些其他状态,下面将更详细地描述。图3B示出图3A不同时刻内占用网格内的柱的状态。在这些非限制性示例中,其他车辆38正从右向左移动,并且其他车辆38相对于交通信号34和路标38的相对位置表明图2是来自图3的T1时间T1之前的时间T0,并且图3B是来自时间T1之后的时间T2。如下面将更详细解释的,系统10比较来自两个时间(例如,T1和T2)的实例的数据以确定物体14的动态状态12。
从激光雷达提供的云点24的每个实例的坐标(例如,距离、方位角、仰角)可以确定每个云点的高度以将与地面(例如道路)相关联的那些云点和与地面无关的云点(例如物体14)分离。使用高度,控制器30可基于由激光雷达单元22在第一时间60(T1)进行的第一扫描58而在柱48中检测到的第一云点56的第一高度54确定柱48的第一占用状态52。第一高度54可以是,例如,柱48内的云点24的高度的平均值,或适于从非地面点中区分作为地面点的云点24的实例。就是说,控制器30将作为道路或地面的云点24的那些实例和与道路上方的某物相关联的云点24的那些实例区分开。通过示例,当第一高度54大于高度阈值62(例如十厘米(10cm))时,第一占用状态52可被确定为“占用”(由黑色像素或单元格指示)。相比之下,当云点24位于柱48中的所有实例具有小于五厘米(5cm)的高度时,第一占用状态可被确定为“空的”。
参考图1和图3B,控制器30可随后基于由激光雷达单元在第一时间58之后的第二时间72进行的第二扫描70而在柱中检测到的第二云点68的第二高度66确定柱48的第二占用状态64,其中当第二高度66大于高度阈值62时,第二占用状态64被确定为占用(由黑色像素或单元格指示)。用于确定柱是“占用”或“空的”的上述相同规则可被再次使用以确定第二占用状态64。
在进一步追求确定占用网格40中单元格46或柱48的动态状态12中,控制器30被配置成确定由第一扫描58在柱48中检测到的第一云点56的第一数目74。就是说,控制器30对柱42的每个实例(例如在第一扫描58期间的柱48)中检测到的云点的数目进行计数。类似地,控制器30被配置成确定由第二扫描70在柱42或柱48中检测到的第二云点68的第二数目76。如在下文的描述中将会变得显而易见的,第一数目74和第二数目76的值的相对比较可以被用来确定动态状态12是移动的18或静态的20,而不是跟踪在第一时间60检测到的第一云点56到在第二时间72检测到的第二云点68的相对运动的计算更复杂的技术。
通常,只有如果或当柱48被分类为由第一占用状态52或第二占用状态64占用时,控制器30才确定柱48的动态状态。然而,认识到,当柱在第一扫描58或第二扫描70之一中被分类为“占用”并且在另一个中被分类为“空的”时,这可能指示当被分类为“占用”的柱中存在的云点24可以被动态状态12分类为移动的18。当第一数目74和第二数目76之间的计数差78大于差值阈值80(例如八(8))时,柱48的动态状态12可以被确定为移动的18。构想到,经验测试将被使用以优化差值阈值80的选择,并且差值阈值80的值将取决于激光雷达单元22的分辨率。
图4A和4B示出来自第一扫描58的柱中的云点所限定的第一表面90的非限制性示例,以及来自第二扫描70的相同柱中的云点所限定的第二表面92。配准因素82(图1)可基于为了将第一表面90与第二表面92对准需要多少第一表面90的平移和旋转来确定。为了确定配准因素82,第一表面90可以被迭代地移动直到两个表面之间的误差或不同变得小于配准阈值84,或迭代的数量达到某预定义的限制。例如,当计数差78不大于差值阈值80,并且将第一表面90(由第一云点56限定)与第二表面92(由第二云点70限定)对准的配准因素82小于配准阈值84(其值可经验性地确定)时,柱48的动态状态12可被确定为静态的20。
认识到,由于主车辆16正在行驶,柱42中的云点24的一些改变可能由激光雷达单元22的移动引起。就是说,第一云点56和第二云点70之间的一些差异可能由主车辆的移动引起而不是唯一地基于物体14的移动。因此,控制器30可被配置成基于主车辆16在第一时间60和第二时间72之间的移动将第二扫描70与第一扫描58对准。例如,主车辆16的车辆移动86可基于车轮旋转和转向角来跟踪,或者基于相对于已知的固定的或静态的物体(例如,路标36)的运动来跟踪,以确定对准因素88。对准因素88可被用于将第一云点56与第二云点70对准,这可看起来与在图4A和4B中示出的对准过程类似。
现在参考图3A和3B,每个暗化的或阴影像素对应于已被分类为占用的柱或单元格的实例。为了确定柱的哪些实例与物体16的实例相关联,当柱48A和毗邻柱48B两者都被分类为占用时,柱的实例(例如,柱48A)可与毗邻柱48B相关联以形成集群94,并且当形成集群94的柱42(即暗化像素)的多数被分类为移动18时,集群94的动态状态12被确定为移动18。就是说,如果形成集群94的一些柱42被分类为静态的20(例如,位于其他车辆38的水平区域中的柱,诸如移动不能被检测到的引擎盖中间),静态柱的这些实例可被包括在由大部分归类为移动的柱形成的集群94中。
激光雷达是激光传感器,其利用一个或多个激光束来定位其视场中的障碍物,并已知其在密集的三维(3D)云点中描绘该信息的能力。输入数据可具有圆柱或笛卡尔坐标的表示,后者允许与其他传感器更容易的融合。从激光雷达点云检测物体可以多种方式被完成。在一个实施例中,使用占用网格来检测物体。有许多可能的方法用来建立占用网格。例如占用网格可以是以车辆为中心的2.5D,或者可以是具有体素的3D。由于减少的计算成本,2.5D占用网格是最流行的。在该办法中,视场(例如100m x 100m)被分为柱(诸如20cm x20cm)。通常,每个柱包含多个激光雷达云点,在更靠近主车辆的柱中具有大量的点。使用多种测量值(诸如柱中云点的最大绝对差值以及高度值的平均值)来计算柱的占有率。柱的占有率通常被定义为范围从零到一(0-1)的优先级值。不包含任何云点的网格柱未被定义,并且可分配未知的标签。
为了将点云分割成物体,通过使用标准计算机视觉连接部件分析进一步处理占用网格柱。在这个方法中,首先通过对每柱内的占用率值的概率进行阈值处理并将所有阈值下的柱设置为零同时将其他柱设置为一来使柱二值化。连接组件算法为每个网格柱分配物体标签。在另一个实施例中,通过使用聚类方法,物体可被检测。在这个方法中,云点首先被分类为地面或非地面。通过使用例如点之间欧几里德距离测量,非地面云点进一步被分组为集群。
如上所述的得到的物体或柱仅包含占用信息。为了完成对场景中的物体的保守陈述,需要添加动态属性(诸如速度和加速度)或至少静态或移动的分类。激光雷达不能直接提供这些属性并且因此多种连续的扫描必须被处理。使用例如迭代最近点(ICP)的这些扫描的配准可以是非常昂贵的。在本公开中,通过将占用网格当作一组柱并且比较柱云点来使用占用网格使云点扫描被配准以生成动态属性。这提供比ICP或其变化在计算上更具吸引力的方法。在本公开中,柱被用于参考占用网格单元格,因为它们包含与2D信息相对的云点。
在本公开中,可在物体和柱级别两者上定义动态属性。这有助于支持不同的环境表征。作为示例,基于网格的表示需要基于柱的动态属性。在这个表示中,除了占用的概率以外,每柱还被分配了动态属性。对于基于物体的表示,为整个物体定义单个值。图5更详细地示出了这个概念。在该图中,为每个动态柱106和静态柱108生成动态属性。物体等级动态属性仅为被占用的柱生成。在该图中,物体等级动态属性也被示出。在这种情况下,动态物体110和静态物体112包括再多一个柱。
将云点分为物体可能是耗时且有误差。在许多情况下,激光雷达可能无法返回足够的云点以正确分割物体。在剩下的描述中,详细解释了柱动态状态。如果物体中的更多柱被分类为动态而不是静态,则可以通过例如分配物体动态状态属性来将相同的原理扩展到物体。
每个柱的动态状态通过分析多个激光雷达扫描来确定。激光雷达扫描视场多次,例如十次或每十分之一秒(0.1s)。在每个扫描中,大量的云点被收集。为了确定占用网格柱的动态状态,从两次连续的扫描中创建占用网格。这导致两个占用网格使用相同方法构造,而第二扫描包含柱的时间偏移信息。如果主车辆不在移动,并且场景中所有物体固定,那么两个占用网格应当匹配。然而在大多数情况下,两个占用网格不匹配,因为主车辆可能移动和/或视场中的一些物体在移动。
通过使用主车辆姿态信息,第二扫描中的柱然后被投影到前一次。主车辆姿态包括从时间t到时间t+1的主车辆的旋转和平移。主车辆姿态可以从主车辆的传感器(诸如GPS、IMU、或车轮编码器读数)中被获取。这些设备中的大多数提供六个自由度的姿态(三个旋转和三个平移)。该姿态信息被用于基于主车辆的移动将一个网格从一个实例投影到另一个实例。对于静态柱,在利用姿态信息进行调整后,来自两次扫描的信息应该匹配,而对于动态柱,两柱将包含不同信息。这是用于确定柱的动态状态的主要原理。尽管以上描述仅使用两次扫描,但在许多情况下,使用两次以上的扫描以增加动态状态确定的准确度。
两次扫描占用网格的示例在图3A和图3B中被示出。在图中,黑色方块指示被占用的柱而白色柱指示空的柱。该图包括两个静态物体(杆)和一个移动物体(车)。从图中可以看出,静态物体在姿态调节后停留在相同位置,而移动物体移动到不同位置。这是在柱动态状态确定中使用的主要原理。从图中可以看出,由于姿态变化或可能的主车辆/激光雷达的移动,静态物体不完全匹配。只有如由占用网格确定的被占用的柱进一步被处理以便柱动态状态确定。
在一个实施例中,两步程序被用来确定柱的动态状态。在第一步中,将第一扫描和第二扫描的对应柱中的云点的计数差与差值阈值比较。如果计数差大于差值阈值,那么该柱被分类为动态,因为这是点已经移动到柱中的指示。改变的方向是重要的,因为如果柱在时间t有点但是在t+1没有点,那么这指示柱内的物体在t时移走,因此在时间t的柱现在是静态的。另一方面,如果柱在时间t+1相比t具有大量云点,这指示新物体移入柱,因此在时间t+1的柱现在被分类为动态的。应当注意,差值阈值可以对所有距离是固定的,也可以在远离主车辆的区域内变化。这是因为在较远的距离内柱内云点的数量与近距离内相比时通常较小。例如,可以使用高达20m的值,然后是从20m到40m的较小的值,而在超过40m是更小的值。
如果第一扫描和第二扫描的对应柱中的云点的计数差小于差值阈值,那么第二步比较两个相关柱中的云点。两柱的比较可以用多种方法完成。例如,类似期望最大化(EM)或ICP的方法被广泛使用。这些技术确定云点从第一扫描到另一个的移动所需的旋转矩阵(R)和平移向量(T)。如果R和T小,两柱相似并且因此是静态物体的一部分。在一个实施例中,配准元素被定义为T的范数。如果配准因素低于配准阈值,那么该柱被分类为静态。其他可能的配准因素可以从旋转和平移两者中定义。图4A和图4B中示出了计算R&T的过程的描绘。在图中,第一表面90和第二表面92在图4A中被示出。这些表面代表两个连续扫描中的柱中的云点。例如使用ICP,两个表面被移动直到它们如图4B中示出那样互相靠近。该过程产生的R和T用于计算配准因素。
图6更详细地示出柱匹配的示例。在图的第一行,两个占用网格从两个连续扫描中被创建。被占用的柱116包含来自激光雷达测量的云点。姿态对准之后,占用的柱内的云点118被分析以确定柱动态状态。在图6中,中间行示出所考虑的柱的3D视图。每个柱包含多个3D点118。这个方法的重要的优点是分析柱而不是物体。这具有更快速的匹配时间以及当物体不能被正确地分割或被遮挡时起良好作用的优点。通过将相邻柱编组以将整个物体分类为动态或静态的,该原理可从柱扩展到物体。
如果柱内的点的数量小,配准因素可能无法可靠地被计算。这发生在离主车辆很远的地方,因为大多数激光雷达不提供长距离的密集点云。为了解决这个问题,云点可被插入到柱内,柱的大小可被增加到包括更多的点或其他传感器(诸如相机、或在可用时使用雷达)。在图6中,更低的行示出与激光雷达对准的两个相机图像。在120中示出了与中间行的柱对应的图像区域。然后配准因素可以从相机和激光雷达中计算。相机动态状态可以通过使用例如光流分析图像的序柱而获得。由于激光雷达不提供高密度的数据,特别是在远离主车辆的区域,而相机可以提供更密集的数据,所以与仅使用一个传感器相比,将激光雷达与相机结合的系统可以产生更准确的结果。
在一个实施例中,激光雷达和相机可以用以下方式被结合以计算每个柱的动态属性。在两个连续扫描中来自激光雷达单元的首先被占用的柱首先被识别。然后对应于两个连续图像中占用的柱的相机图像区域被识别。两个激光雷达柱中的信息和对应的相机图像区域被用于计算配准因素。对于相机,配准因素可以简单地是相机图像区域中两柱位置之间的强度差。在许多情况下,在计算配准因素中,相机可以是更有效的,尤其是当柱内点的数量少时。因此,如果两个传感器在动态属性上没有达成一致,则相机会被给予更高的优先级。对于点数小于计数阈值的柱,只有相机用于计算配准因素,因为柱中的小数量的云点倾向于产生不正确的动态属性。
在另一个实施例中,动态属性可以从雷达测量中获得。汽车雷达传感器报告若干信号,例如,距离、距离变化率、方位角、和幅度。这些雷达检测可以来自固定和动态物体两者上的散射中心。来自雷达的最准确的信号是是到物体的距离和物体的距离变化率。通过跟踪使用最新的原始雷达测量更新的算法,可以获得持续的雷达轨迹。此外,使用来自雷达、视觉和激光雷达传感器的输入的融合跟踪算法可以在移动的和静止的物体上提供融合的轨迹。使用跟踪算法的优点是附加的物体信息(例如,加速度)可以被获得。
雷达传感器信息可被用于通过将测距信息映射到占用网格来更新动态占用网格,并且允许距离变化率帮助更新网格柱是移动的还是静止的。此外,如果跟踪系统在适当的地方,则可以获得并添加雷达对象的对地(OTG)速度和加速度以增强存储在占用网格中的信息。如在图7中示出的,黑色框126是持续静止的雷达轨迹,而虚线白色框128表示持续移动的雷达轨迹。
当原始雷达检测被用于更新占用网格的动态状态时,检测的位置理想地与被标记为占用的网格柱的位置对准。由于雷达检测来源于物体上的散射中心的信号,相邻占用网格柱也可以用相同的距离变化率信息被更新。对于每个雷达监测,与距离有关的半径被计算。对于大距离值,半径将较小,因为雷达的精确度在大距离值时较小。半径也将取决于雷达类型。在由该半径和检测位置定义的圆形邻域内,来自雷达检测的信息将更新任何被占用的网格柱。雷达检测半径内所有被占用的柱将利用雷达的动态状态检测来标记。
系统10包括相机单元132,其在第一时间渲染第一图像134并在第二时间渲染第二图像136,其中第一图像134和第二图像136与激光雷达单元22的视场26对准,控制器30进一步被配置成基于第一云点56、第二云点68、第一图像134、和第二图像136确定柱的配准因素82。
系统10包括相机单元132,其在第一时间60渲染第一图像134并在第二时间72渲染第二图像136,其中第一图像134和第二图像136与激光雷达单元22的视场26对准,当第一数目74和第二数目76两者都小于计数阈值148时,第一控制器30进一步被配置成基于第一图像134和第二图像136确定柱48的配准因素82。
系统10包括激光雷达单元138,其在第一时间60检测第一目标组144并在第二时间72检测第二目标组146,其中第一目标组144和第二目标组146与激光雷达单元22的视场26对准,并且当第一数目74和第二数目76两者都小于计数阈值148时,基于追踪距离柱48的中心线最近的第一目标组144和第二目标组146内的雷达检测126和128来确定柱48的动态状态12。
系统10包括与激光雷达单元22对准的雷达单元138,并且控制器30进一步配置成从距离柱48中心最近的雷达单元138检测确定第一扫描58被占用的柱48的动态状态。
系统10包括指示雷达检测并与激光雷达单元22对准的雷达单元138,并且控制器30进一步被配置成通过在雷达检测126周围创建圆140并且用雷达检测126的动态信息142标记圆140内所有柱48,确定第一扫描58中被占用的柱的动态状态12。
尽管已经根据本发明的优选实施例描述了本发明,但是并不旨在受限于此,而是仅受随后的权利要求书中所阐述的范围限制。
Claims (7)
1.一种确定靠近自动化车辆的物体(14)的动态状态(12)的物体检测系统(10),所述系统(10)包括:
激光雷达单元(22),用于检测主车辆(16)附近的所述激光雷达单元(22)的视场(26)内的云点(118);以及
控制器(30),与所述激光雷达单元(22)进行通信,所述控制器(30)被配置成
限定将所述视场(26)分割成柱(42)的阵列的占用网格(40),
基于由所述激光雷达单元(22)在第一时间(58)进行的第一扫描(58)而在所述柱(48)中检测到的第一云点(56)的第一高度(54)确定柱(48)的第一占用状态(52),其中当所述第一高度(54)大于高度阈值(62)时所述第一占用状态(52)被确定为被占用的,
基于由所述激光雷达单元(22)在所述第一时间(58)之后的第二时间(72)进行的第二扫描(70)而在所述柱(48)中检测到的第二云点(68)的第二高度(66)确定所述柱(48)的第二占用状态(64),其中当所述第二高度(66)大于所述高度阈值(62)时所述第二占用状态(64)被确定为被占用的,
确定由所述第一扫描(58)在所述柱(48)中检测到的所述第一云点(56)的第一数目(74),
确定由所述第二扫描(70)在所述柱(48)中检测到的所述第二云点(68)的第二数目(76),
只有当所述柱(48)被分类为由所述第一占用状态(52)或所述第二占用状态(64)占用时,确定所述柱(48)的动态状态(12),其中
当所述第一数目(74)和所述第二数目(76)之间的计数差(78)大于差值阈值(80)时,所述柱(48)的所述动态状态(12)被确定为移动的,并且
当所述计数差(78)不大于所述差值阈值(80)并且将所述第一云点(56)与所述第二云点(68)对准的配准因素(82)小于配准阈值(84)时,所述柱(48)的所述动态状态(12)被确定为静态的(20)。
2.根据权利要求1所述的系统(10),其中,所述控制器(30)进一步被配置成
基于所述主车辆(16)在所述第一时间(58)和所述第二时间(72)之间的移动将所述第二扫描(70)与所述第一扫描(58)对准。
3.根据权利要求1所述的系统(10),其中所述柱(48)与毗邻柱(48B)相关联以当所述柱(48)和所述毗邻柱(48B)被分类为占用时形成集群(94),并且当形成所述集群(94)的大多数所述柱(42)被分类为移动时,所述集群(94)的所述动态状态(12)被确定为移动的。
4.根据权利要求1所述的系统(10),其中所述系统10包括相机单元(132),其在所述第一时间(58)渲染第一图像(134)并在所述第二时间(72)渲染第二图像(136),其中所述第一图像(134)和所述第二图像(136)与所述激光雷达单元(22)的所述视场(26)对准,并且所述控制器(30)进一步被配置成基于所述第一云点(56)、所述第二云点(68)、所述第一图像(134)、和所述第二图像(136)确定所述柱(48)的所述配准因素(82)。
5.根据权利要求1所述的系统(10),其中所述系统(10)包括相机单元(132),其在所述第一时间(58)渲染第一图像(134)并在所述第二时间(72)渲染第二图像(136),其中所述第一图像(134)和所述第二图像(136)与所述激光雷达单元(22)的所述视场(26)对准,并且所述控制器(30)进一步被配置成当所述第一数目(74)和所述第二数目(76)两者都小于计数阈值(148)时基于所述第一图像(134)和所述第二图像(136)确定所述柱(48)的所述配准因素(82)。
6.根据权利要求1所述的系统(10),其中所述系统(10)包括在所述第一时间(58)检测第一目标组(144)以及在所述第二时间(72)检测第二目标组(146)的雷达单元(138),其中所述第一目标组(144)和所述第二目标组(146)与所述激光雷达单元(22)的所述视场(26)对准,并且当所述第一数目(74)和所述第二数目(76)两者都小于计数阈值(148)时,基于距离所述柱(48)的中心线最近的所述第一目标组(144)和所述第二目标组(146)中的目标的追踪来确定所述柱(48)的所述动态状态(12)。
7.根据权利要求1所述的系统(10),其中所述系统(10)包括指示雷达检测(126)并与所述激光雷达单元(22)对准的雷达单元(138),并且所述控制器(30)进一步被配置成通过在雷达检测(126)周围定义圆(140)并且用所述雷达检测(126)的所述动态信息(142)标记所述圆(140)内的所有柱(42),确定所述第一扫描(58)中的被占用的柱(42)的所述动态状态(12)。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/407,419 | 2017-01-17 | ||
US15/407,419 US10838067B2 (en) | 2017-01-17 | 2017-01-17 | Object detection system |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108363065A true CN108363065A (zh) | 2018-08-03 |
CN108363065B CN108363065B (zh) | 2021-12-03 |
Family
ID=60674001
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810041003.8A Active CN108363065B (zh) | 2017-01-17 | 2018-01-16 | 物体检测系统 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10838067B2 (zh) |
EP (1) | EP3349041B1 (zh) |
CN (1) | CN108363065B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110288050A (zh) * | 2019-07-02 | 2019-09-27 | 广东工业大学 | 一种基于聚类及光流法的高光谱和LiDar图像自动化配准方法 |
CN111753623A (zh) * | 2020-03-12 | 2020-10-09 | 北京京东乾石科技有限公司 | 一种运动物体的检测方法、装置、设备及存储介质 |
CN113033586B (zh) * | 2019-12-24 | 2024-04-16 | 大富科技(安徽)股份有限公司 | 目标识别方法及设备 |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10066946B2 (en) | 2016-08-26 | 2018-09-04 | Here Global B.V. | Automatic localization geometry detection |
WO2018138584A1 (en) * | 2017-01-26 | 2018-08-02 | Mobileye Vision Technologies Ltd. | Vehicle navigation based on aligned image and lidar information |
US10969785B2 (en) * | 2017-07-24 | 2021-04-06 | Motional Ad Llc | Automated vehicle operation to compensate for sensor field-of-view limitations |
US11093759B2 (en) * | 2018-03-06 | 2021-08-17 | Here Global B.V. | Automatic identification of roadside objects for localization |
US11255975B2 (en) * | 2018-06-05 | 2022-02-22 | Pony Ai Inc. | Systems and methods for implementing a tracking camera system onboard an autonomous vehicle |
US10491885B1 (en) * | 2018-06-13 | 2019-11-26 | Luminar Technologies, Inc. | Post-processing by lidar system guided by camera information |
US11204605B1 (en) * | 2018-08-03 | 2021-12-21 | GM Global Technology Operations LLC | Autonomous vehicle controlled based upon a LIDAR data segmentation system |
EP3633404B1 (en) * | 2018-10-02 | 2022-09-07 | Ibeo Automotive Systems GmbH | Method and apparatus for optical distance measurements |
DK201970115A1 (en) * | 2018-11-08 | 2020-06-09 | Aptiv Technologies Limited | DEEP LEARNING FOR OBJECT DETECTION USING PILLARS |
US10846511B2 (en) | 2018-12-20 | 2020-11-24 | Here Global B.V. | Automatic detection and positioning of pole-like objects in 3D |
US11153010B2 (en) * | 2019-07-02 | 2021-10-19 | Waymo Llc | Lidar based communication |
US11932306B2 (en) | 2019-09-14 | 2024-03-19 | Honda Motor Co., Ltd. | Trajectory planner |
US11927674B2 (en) * | 2019-09-16 | 2024-03-12 | Honda Motor Co., Ltd. | System and method for providing a comprehensive trajectory planner for a person-following vehicle |
GB2621701A (en) | 2019-11-14 | 2024-02-21 | Motional Ad Llc | Sequential fusion for 3D object detection |
CN111198385A (zh) * | 2019-12-26 | 2020-05-26 | 北京旷视机器人技术有限公司 | 障碍物检测方法、装置、计算机设备和存储介质 |
CN111158014B (zh) * | 2019-12-30 | 2023-06-30 | 华通科技有限公司 | 多雷达综合探鸟系统 |
CN111275748B (zh) * | 2020-01-15 | 2023-04-07 | 南京航空航天大学 | 动态环境下基于激光雷达的点云配准方法 |
US11420647B2 (en) | 2020-08-13 | 2022-08-23 | Argo AI, LLC | Enhanced static object classification using lidar |
US11521394B2 (en) * | 2020-10-09 | 2022-12-06 | Motional Ad Llc | Ground plane estimation using LiDAR semantic network |
CN114419573A (zh) * | 2020-10-12 | 2022-04-29 | 北京智行者科技有限公司 | 动态占据栅格估计方法及装置 |
US11430182B1 (en) * | 2021-03-09 | 2022-08-30 | Pony Ai Inc. | Correcting or expanding an existing high-definition map |
CN112946612A (zh) * | 2021-03-29 | 2021-06-11 | 上海商汤临港智能科技有限公司 | 外参标定方法、装置、电子设备及存储介质 |
US20220317302A1 (en) * | 2021-04-01 | 2022-10-06 | Qualcomm Incorporated | Occupancy clustering according to radar data |
US20220371606A1 (en) * | 2021-05-21 | 2022-11-24 | Motional Ad Llc | Streaming object detection and segmentation with polar pillars |
US11798289B2 (en) | 2021-05-28 | 2023-10-24 | Motional Ad Llc | Streaming object detection and segmentation with polar pillars |
US11568565B2 (en) * | 2021-06-25 | 2023-01-31 | GM Global Technology Operations LLC | Rendering-based lidar and camera alignment |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090080523A1 (en) * | 2007-09-24 | 2009-03-26 | Microsoft Corporation | Remote user interface updates using difference and motion encoding |
US20100066587A1 (en) * | 2006-07-14 | 2010-03-18 | Brian Masao Yamauchi | Method and System for Controlling a Remote Vehicle |
US20110282581A1 (en) * | 2010-05-12 | 2011-11-17 | Gm Global Technology Operations, Inc. | Object and vehicle detection and tracking using 3-d laser rangefinder |
KR101115489B1 (ko) * | 2011-05-26 | 2012-02-27 | (주)아세아항측 | 항공 라이다 자료를 이용한 격자 기반의 고해상도 수치모델링 입력자료 생성 방법 및 시스템 |
CN103744086A (zh) * | 2013-12-23 | 2014-04-23 | 北京建筑大学 | 一种地面激光雷达与近景摄影测量数据的高精度配准方法 |
US20140118716A1 (en) * | 2012-10-31 | 2014-05-01 | Raytheon Company | Video and lidar target detection and tracking system and method for segmenting moving targets |
CN104656101A (zh) * | 2015-01-30 | 2015-05-27 | 福州华鹰重工机械有限公司 | 一种障碍物检测方法 |
CN104931977A (zh) * | 2015-06-11 | 2015-09-23 | 同济大学 | 一种用于智能车辆的障碍物识别方法 |
CN106054208A (zh) * | 2016-08-16 | 2016-10-26 | 长春理工大学 | 多线激光雷达车辆目标识别方法和汽车的防撞装置 |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6714663B1 (en) * | 1999-11-09 | 2004-03-30 | Lockheed Martin Corp. | Method and software-implemented apparatus for ground plane estimation in multi-dimensional data |
JP3779280B2 (ja) * | 2003-03-28 | 2006-05-24 | 富士通株式会社 | 衝突予測装置 |
US8577538B2 (en) * | 2006-07-14 | 2013-11-05 | Irobot Corporation | Method and system for controlling a remote vehicle |
DE102007013023B4 (de) | 2007-03-19 | 2017-10-05 | Sick Ag | Probabilistische Rasterkarte |
EP2243125B1 (en) * | 2007-12-13 | 2020-04-29 | Clemson University Research Foundation | Vision based real time traffic monitoring |
DE102008031681A1 (de) | 2008-07-04 | 2010-01-14 | Eads Deutschland Gmbh | LIDAR-Verfahren zur Messung von Geschwindigkeiten und LIDAR-Vorrichtung mit zeitgesteuerter Detektion |
JP4456181B1 (ja) * | 2008-10-27 | 2010-04-28 | パナソニック株式会社 | 移動体検出方法及び移動体検出装置 |
US20100204964A1 (en) * | 2009-02-09 | 2010-08-12 | Utah State University | Lidar-assisted multi-image matching for 3-d model and sensor pose refinement |
AU2009243521A1 (en) | 2009-12-04 | 2011-06-23 | The University Of Sydney | Extraction process |
US8655513B2 (en) | 2010-03-12 | 2014-02-18 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Methods of real time image enhancement of flash LIDAR data and navigating a vehicle using flash LIDAR data |
US9280711B2 (en) * | 2010-09-21 | 2016-03-08 | Mobileye Vision Technologies Ltd. | Barrier and guardrail detection using a single camera |
US8825391B1 (en) | 2011-08-04 | 2014-09-02 | Google Inc. | Building elevation maps from laser data |
US9129211B2 (en) | 2012-03-15 | 2015-09-08 | GM Global Technology Operations LLC | Bayesian network to track objects using scan points using multiple LiDAR sensors |
US9128185B2 (en) | 2012-03-15 | 2015-09-08 | GM Global Technology Operations LLC | Methods and apparatus of fusing radar/camera object data and LiDAR scan points |
US10127636B2 (en) * | 2013-09-27 | 2018-11-13 | Kofax, Inc. | Content-based detection and three dimensional geometric reconstruction of objects in image and video data |
US9110163B2 (en) | 2013-06-14 | 2015-08-18 | Microsoft Technology Licensing, Llc | Lidar-based classification of object movement |
DE102014208967A1 (de) | 2014-05-13 | 2015-11-19 | Bayerische Motoren Werke Aktiengesellschaft | Umfeldkarte für Fahrflächen mit beliebigem Höhenverlauf |
US9575184B2 (en) * | 2014-07-03 | 2017-02-21 | Continental Advanced Lidar Solutions Us, Inc. | LADAR sensor for a dense environment |
KR101644370B1 (ko) * | 2014-10-23 | 2016-08-01 | 현대모비스 주식회사 | 물체 검출 장치 및 그 동작 방법 |
JP6606181B2 (ja) * | 2014-11-06 | 2019-11-13 | ジェンテックス コーポレイション | 視程検出のためのシステムおよび方法 |
US10692395B2 (en) * | 2015-08-17 | 2020-06-23 | University Of Maryland, Baltimore | Automated surgeon performance evaluation |
US9779296B1 (en) * | 2016-04-01 | 2017-10-03 | Kofax, Inc. | Content-based detection and three dimensional geometric reconstruction of objects in image and video data |
US10066946B2 (en) * | 2016-08-26 | 2018-09-04 | Here Global B.V. | Automatic localization geometry detection |
US10436885B2 (en) * | 2017-10-19 | 2019-10-08 | DeepMap Inc. | Calibrating sensors mounted on an autonomous vehicle |
-
2017
- 2017-01-17 US US15/407,419 patent/US10838067B2/en active Active
- 2017-12-19 EP EP17208491.5A patent/EP3349041B1/en active Active
-
2018
- 2018-01-16 CN CN201810041003.8A patent/CN108363065B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100066587A1 (en) * | 2006-07-14 | 2010-03-18 | Brian Masao Yamauchi | Method and System for Controlling a Remote Vehicle |
US20090080523A1 (en) * | 2007-09-24 | 2009-03-26 | Microsoft Corporation | Remote user interface updates using difference and motion encoding |
US20110282581A1 (en) * | 2010-05-12 | 2011-11-17 | Gm Global Technology Operations, Inc. | Object and vehicle detection and tracking using 3-d laser rangefinder |
KR101115489B1 (ko) * | 2011-05-26 | 2012-02-27 | (주)아세아항측 | 항공 라이다 자료를 이용한 격자 기반의 고해상도 수치모델링 입력자료 생성 방법 및 시스템 |
US20140118716A1 (en) * | 2012-10-31 | 2014-05-01 | Raytheon Company | Video and lidar target detection and tracking system and method for segmenting moving targets |
CN103744086A (zh) * | 2013-12-23 | 2014-04-23 | 北京建筑大学 | 一种地面激光雷达与近景摄影测量数据的高精度配准方法 |
CN104656101A (zh) * | 2015-01-30 | 2015-05-27 | 福州华鹰重工机械有限公司 | 一种障碍物检测方法 |
CN104931977A (zh) * | 2015-06-11 | 2015-09-23 | 同济大学 | 一种用于智能车辆的障碍物识别方法 |
CN106054208A (zh) * | 2016-08-16 | 2016-10-26 | 长春理工大学 | 多线激光雷达车辆目标识别方法和汽车的防撞装置 |
Non-Patent Citations (2)
Title |
---|
ERIC RICHTER,ET AL.: "《Advanced Occupancy Grid Techniques for Lidar based Object Detection and Tracking》", 《PROCEEDINGS OF THE 12TH INTERNATIONAL IEEE CONFERENCE ON INTELLIGENT TRANSPORTATION SYSTEMS》 * |
杨光祖: "《基于多种激光雷达数据融合的障碍检测技术的研究》", 《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110288050A (zh) * | 2019-07-02 | 2019-09-27 | 广东工业大学 | 一种基于聚类及光流法的高光谱和LiDar图像自动化配准方法 |
CN110288050B (zh) * | 2019-07-02 | 2021-09-17 | 广东工业大学 | 一种基于聚类及光流法的高光谱和LiDar图像自动化配准方法 |
CN113033586B (zh) * | 2019-12-24 | 2024-04-16 | 大富科技(安徽)股份有限公司 | 目标识别方法及设备 |
CN111753623A (zh) * | 2020-03-12 | 2020-10-09 | 北京京东乾石科技有限公司 | 一种运动物体的检测方法、装置、设备及存储介质 |
CN111753623B (zh) * | 2020-03-12 | 2024-03-05 | 北京京东乾石科技有限公司 | 一种运动物体的检测方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US10838067B2 (en) | 2020-11-17 |
EP3349041B1 (en) | 2019-08-28 |
CN108363065B (zh) | 2021-12-03 |
EP3349041A1 (en) | 2018-07-18 |
US20180203124A1 (en) | 2018-07-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108363065A (zh) | 物体检测系统 | |
Sefati et al. | Improving vehicle localization using semantic and pole-like landmarks | |
US11763571B2 (en) | Monocular cued detection of three-dimensional structures from depth images | |
US10878288B2 (en) | Database construction system for machine-learning | |
US8180100B2 (en) | Plane detector and detecting method | |
US8154594B2 (en) | Mobile peripheral monitor | |
US11670087B2 (en) | Training data generating method for image processing, image processing method, and devices thereof | |
CN110543807B (zh) | 验证障碍物候选的方法 | |
JP5822255B2 (ja) | 対象物識別装置及びプログラム | |
US9042639B2 (en) | Method for representing surroundings | |
US7103213B2 (en) | Method and apparatus for classifying an object | |
CN111801711A (zh) | 图像标注 | |
CN109425855A (zh) | 使用模拟传感器数据扩增现实传感器记录 | |
EP1959675A2 (en) | Detection device, method and program thereof | |
JP4205825B2 (ja) | 対象物認識装置 | |
EP0747870A1 (en) | An object observing method and device with two or more cameras | |
US20090169052A1 (en) | Object Detector | |
CN110674705A (zh) | 基于多线激光雷达的小型障碍物检测方法及装置 | |
CN112346463B (zh) | 一种基于速度采样的无人车路径规划方法 | |
US20090226094A1 (en) | Image correcting device and method, and computer program | |
JP4580005B2 (ja) | 対象物認識装置 | |
KR101706455B1 (ko) | 도로표지판 검출 기반 주행 차로 추정 방법 및 장치 | |
KR102603877B1 (ko) | 차량의 정밀 측위 방법 및 장치 | |
US11348278B2 (en) | Object detection | |
CN110210280B (zh) | 一种超视距感知方法、系统、终端和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20181203 Address after: Babado J San Michaele Applicant after: Amberford Technology Co., Ltd. Address before: michigan Applicant before: Delphi Automotive Systems LLC (US) |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |