CN114084126B - 用于确定无碰撞空间的方法 - Google Patents
用于确定无碰撞空间的方法 Download PDFInfo
- Publication number
- CN114084126B CN114084126B CN202110324800.9A CN202110324800A CN114084126B CN 114084126 B CN114084126 B CN 114084126B CN 202110324800 A CN202110324800 A CN 202110324800A CN 114084126 B CN114084126 B CN 114084126B
- Authority
- CN
- China
- Prior art keywords
- host vehicle
- cells
- points
- line
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000001514 detection method Methods 0.000 claims abstract description 22
- 238000004364 calculation method Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/04—Systems determining presence of a target
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/50—Barriers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9327—Sensor installation details
- G01S2013/93271—Sensor installation details in the front of the vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Mathematical Physics (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明涉及用于确定无碰撞空间的方法。用于确定主车辆前方的无碰撞空间的计算机实施的方法借助所述主车辆的检测系统检测多个限制点,其中每个限制点均位于相对于所述车辆的相应的无障碍物距离处。在所述主车辆前方形成动态网格,其中所述动态网格是基于由所述主车辆的所述检测系统确定的所述主车辆前方的车道的路线的,并且其中所述动态网格包括多个单元。基于所述多个限制点,确定所述单元的无障碍子集,其中所述单元的所述无障碍子集限定所述主车辆前方的所述无碰撞空间。
Description
技术领域
本公开涉及一种确定主车辆前方无碰撞空间的方法。
背景技术
高级驾驶辅助系统(ADAS)已被开发出来,以支持驾驶员更安全和舒适地驾驶主车辆。为了正确地进行辅助驾驶,并且出于安全原因,需要监测主车辆前方的环境,例如以便确定主车辆前方车道中的无碰撞空间。
为了确定主车辆前方的这种无碰撞空间,通常检测一组点(例如借助主车辆的视觉系统进行检测),其中这些点中的每个点均表示相对于主车辆的距离,该距离被视为是无任何障碍的。相对于主车辆以不同角度检测到该组点中的每个点。检测到的点用直线连接,以提供多边形,并且这个多边形的内部提供无碰撞空间。
然而,这组点通常用极坐标来表示,即用范围和角度来表示,相对于主车辆的坐标系来限定范围和角度两者。因此,限定无碰撞空间的多边形也在极坐标中表示,并且只包含关于无碰撞空间的边界信息。
然而,主车辆使用的一些应用(例如,作为高级驾驶辅助系统的一部分的应用)需要所谓的基于网格的信息。详细地,必须为这些应用限定包括许多单元的离散网格,对于每个单元,必须知道其是否无任何障碍。由于限定无碰撞空间的多边形由“连续域”中的极坐标来表示,因此需要对多边形进行一些变换,以便为需要基于网格的表示的特定应用提供必要的信息。因此,具体应用的计算工作增加。
因此,需要有一种改进的方法,该方法为主车辆前方的无碰撞空间提供基于网格的表示。
发明内容
本公开提供了计算机实施方法、计算机系统和非暂时性计算机可读介质。
在一个方面,本公开涉及一种用于确定主车辆前方的无碰撞空间的计算机实施方法。根据该方法,由所述主车辆的检测系统检测多个限制点,其中每个限制点均位于相对于所述车辆的相应的无障碍物距离处。借助所述检测系统并借助所述主车辆的计算机系统在所述主车辆前方形成动态网格,其中所述动态网格基于由所述主车辆的所述检测系统确定的所述主车辆前方的车道的路线,并且其中所述动态网格包括多个单元。基于所述多个限制点,由所述计算机系统确定所述单元的无障碍子集,其中所述单元的所述无障碍子集限定所述主车辆前方的所述无碰撞空间。
值得注意的是,多个限制点和包括多个单元的动态网格被限定在平面中,该平面平行于车道的主车辆瞬时所处的部分。换句话说,当从上方观察主车辆时,所有限制点和动态网格的所有单元相对于车道都位于同一水平面内。
如本文中所使用的,计算机系统可以包括特定应用集成电路(ASIC)、电子电路、组合逻辑电路、现场可编程门阵列(FPGA)、执行代码的处理器(共享的、专用的或组)、提供所述功能的其它合适的部件或以上的一些或全部的组合(例如在片上系统中)。计算机系统还可以包括存储由处理器执行的代码的存储器(共享的、专用的或组)。
根据该方法,通过检测限制点提供的关于无碰撞空间的信息被转移到动态网格,该动态网格借助检测系统并借助主车辆的计算机系统形成在主车辆前方。因此,在进行该方法后,关于动态网格的每个单元,可以知道各个单元是否属于无碰撞空间。因此,与提供例如仅在极坐标中限制无碰撞空间的多边形相比,该方法可以为主车辆的进一步应用提供更有用的信息。例如,这种基于网格的无碰撞空间的表示可以用于确定主车辆前方的可行驶表面。
此外,该动态网格适于主车辆前方的车道的路线。因此,这样的动态网格包括减少数量的单元,因为动态网格被自动地限制在遵循车道的路线的车辆前方的所谓受关注区域内。总而言之,由于将无碰撞空间表示为动态网格内的单元的子集,因此减少了为进一步的应用提供关于车辆前方的无碰撞空间的信息的计算工作。由单元的无障碍子集提供的信息可以以直观的方式被主车辆的进一步应用所利用。对于进一步的应用来说,不需要例如表示无碰撞空间的多边形的特定的适配。
该方法可以包括以下一个或多个特征。
所述主车辆可以包括车辆坐标系统,所述多个限制点中的每一者均可以具有相对于所述车辆坐标系的预定义角度,其中对于所述多个限制点中的每一者,所述预定义角度可以是不同的。关于所述多个限制点,相邻限制点的角度之差可以具有恒定值。
可以关于所述多个限制点限定多条线段。所述多条线段中的每条线段均可以从所述车辆坐标系的原点开始,并可以在两个相邻的限制点之间结束,其中可以基于所述多条线段确定所述单元的所述无障碍子集。每条线段均可以相对于所述车辆坐标系具有角度,该角度介于所述两个相应的相邻限制点的所述预定义角度之间。
各条线段的所述角度可以是对应的相邻限制点的两个角度的平均值。每条线段均可以在相对于所述车辆坐标系的所述原点的一距离处结束,该距离可以等于所述两个相邻限制点相对于所述主车辆的最大距离。如果所述多条线段中的线段完全穿越所述动态网格的单元,则所述单元可以属于单元的所述无障碍子集。如果所述多条线段中的线段与所述单元的外轮廓至少相交两次,则所述线段可以完全穿越所述单元。
此外,形成所述主车辆前方的所述动态网格可以包括:i)由所述主车辆的所述检测系统检测所述主车辆前方的车道的路线的指示;ii)由所述主车辆的所述计算机系统,基于车道的路线的所述指示确定基础区域;以及iii)由所述计算机系统通过在相对于所述主车辆的纵向方向和横向方向上划分所述基础区域来限定所述多个单元。
可以基于所述指示由所述计算机系统沿所述车道限定条参考线,并且可以将所述参考线划分成节段,其中针对每一个所述节段,可以垂直于所述参考线限定相应的一行单元。针对每个节段,可以分别在所述节段的开始和结束处限定垂直于所述参考线的相应两条直线,并且可以将每条直线划分成预定义数量的区,其中各区的端点可以限定所述多个单元中相应一者的拐角。此外,所述动态网格的每个单元的长度和宽度可以小于所述多个限制点中的所有限制单元之间的最小距离。
根据一个实施方式,主车辆可以包括车辆坐标系,并且多个限制点中的每一者均可以具有相对于车辆坐标系的预定义角度。对于多个限制点中的每一者而言,预定义角度可以是不同的。如果被考虑的两个限制点的两个预定义角度之间没有任何其它限制点的预定义角度,则可以将两个限制点视为相邻的限制点。
此外,对于多个限制点来说,相邻限制点的这些角度之间的差值可以具有恒定值。由于限制点的预定义角度可以是不同的,因此可以适当地覆盖主车辆前方的区域,以确定无碰撞空间。如果提供相邻限制点之间具有恒定角度差值,则可以减少处理限制点的计算工作。
根据另一个实施方式,可以关于多个限制点限定多条线段,并且每条线段均可以从车辆坐标系的原点开始,并且可以在两个相邻限制点之间结束。可以基于多条线段确定单元的限定无碰撞空间的无障碍子集。
由于线段均位于两个相邻的限制点之间,因此,多条线段覆盖在主车辆前方几乎与由多个限制点限定的多边形相同的区域。因此,可以使用线段来决定动态网格的哪些单元属于无障碍子集,从而构建无碰撞空间。
每条线段均可以具有相对于车辆坐标系统的角度,该角度分别介于两个相应的相邻限制点的预定义角度之间。此外,各线段的角度可以是对应的相邻限制点的两个角度的平均值。相邻限制点之间的线段的角度的定义确保了每条线段在适当的区域内延伸,该区域是由限制点限制的。如果用相邻限制点的两个角度的平均值作为线段的角度,则可以实现对线段方向的直接定义。
此外,每条线段均可以在相对于车辆坐标系原点的一距离处结束,该距离可以等于两个相邻限制点相对于主车辆的最大距离。也就是说,每条线段的长度可以被限制在主车辆前方可被视为无障碍的区域内。因此,主车辆的安全可以得到保证。
如果多条线段中的线段完全穿越动态网格的单元,则该个单元可以属于无障碍子集。详细地,如果多条线段中的线段至少两次与单元的外轮廓相交,则该线段可以完全穿越该单元。
换句话说,动态网格的单元必须被至少一条线段完全重叠,才能属于单元的无障碍子集。如果线段在特定的单元内终止,则这个单元就不属于无障碍子集。因此,只有当特定单元位于通过由直线连接包括车辆坐标系的原点在内的多对限制点而限定的多边形内时,这些特定单元才可能属于无障碍子集。这种对单元的无障碍子集的选择使得可以提高主车辆的安全性。作为一种特殊情况,线段可以沿着单元的外轮廓的一部分延伸。在这种情况下,线段可以被视为在两个以上的点处与单元的轮廓相交,并且所考虑的单元属于无障碍子集。总之,这种选择单元的无障碍子集是一种需要较低计算量的直接手段。
根据另一个实施方式,形成主车辆前方的动态网格可以包括:可以由主车辆的检测系统检测主车辆前方的车道的路线的指示;可以由主车辆的计算机系统,基于车道的路线的指示确定基础区域;以及可以由计算机系统通过在相对于主车辆的纵向方向和横向方向上划分基础区域来限定多个单元。由于这样的动态网格反映了车道的路线,因此由于网格被限制在主车辆前方的受关注区域内,该网格的单元的数量减少。因此,可以再次减少该方法的计算工作。车道路线的指示可以包括车道的右边界和/或左边界和/或车道中央的标记。
可以基于指示由主车辆的计算机系统沿车道限定参考线,并且可以将参考线划分为节段。对于每个节段,可以限定垂直于参考线的各行单元。通过限定与参考线的节段相对应的这种单元行,可以促进动态网格的生成。
此外,对于每个节段,可以分别在节段的开始和结束处垂直于参考线限定两条相应的直线。每条直线均可以被划分为预定义数量的区,并且各节段的端点可以限定多个单元中相应单元的拐角。这样限定动态网格的各单元的拐角(即通过使用各个区的端点)可以进一步促进动态网格的生成,因此可以减少所需的计算工作。
根据另一个实施方式,动态网格的每个单元的长度和宽度可以小于多个限制点中的所有限制点之间的最小距离。也就是说,动态网格可以具有比多个限制点更高的分辨率。这可以提高当借助单元的无障碍子集限定主车辆前方的无碰撞空间时的精度。
在另一个方面,本公开涉及计算机系统,所述计算机系统构造成执行本文中所述计算机实施方法的若干或所有步骤。
计算机系统可以包括处理单元、至少一个存储器单元和至少一个非暂时性数据存储器。非暂时性数据存储器和/或存储器单元可以包括用于指示计算机执行本文中所述计算机实施方法的若干或所有步骤或方面的计算机程序。
在另一个方面,本公开涉及一种非暂时性计算机可读介质,其包括用于执行本文中所述计算机实施方法的若干或所有步骤或方面的指令。计算机可读介质可以构造成:光学介质,例如光盘(CD)或数字多功能盘(DVD);磁性介质,例如硬盘驱动器(HDD);固态驱动器(SSD);只读存储器(ROM),例如闪存;等。此外,计算机可读介质可以构造成可借助数据连接(例如互联网连接)访问的数据存储。计算机可读介质例如可以是在线数据存储库或云存储。
本公开还涉及一种计算机程序,用于指示计算机执行本文中所述的计算机实施方法的若干或全部步骤或方面。
附图说明
本文结合以下图示描述了本公开的示例性实施方式和功能,这些图示示意性地示出了:
图1描述了根据背景技术对主车辆前方的无碰撞空间的确定;
图2描绘了主车辆前方的动态网格的限定;
图3描绘了用于确定如图2中所示的动态网格的细节;
图4描述了如何确定动态网格的无障碍子集;以及
图5描绘了动态网格内表示的无碰撞空间与根据背景技术的表示的比较。
附图标记列表
11主车辆
13检测系统
14计算机系统
15限制点
17车辆坐标系
19线段
20车辆坐标系的原点
21直线
23多边形
25无碰撞空间
31动态网格
33单元
35车道
36目标车辆
37基础区域
39左边界
41右边界
43参考线
45节段
47直线
49区
51端点
53无障碍子集
55、57、59示例性单元
61中间线段
63单元的轮廓
具体实施方式
图1示意性地描绘了包括检测系统13的主车辆11,该检测系统13构造成监测主车辆11的环境。检测系统13包括视觉系统和/或RADAR或LIDAR系统。主车辆11还包括用于处理由检测系统13提供的数据的计算机系统14。
检测系统13构造成检测主车辆11前方的多个限制点15。限制点15的坐标相对于车辆坐标系17被定义为极坐标,即包括从车辆坐标系17的原点20的范围和相对于车辆坐标系17的轴之一的角度。这些极坐标表示主车辆11前方下一个障碍物的范围和角度。也就是说,主车辆11前方由限制点15限制的区域被视为无碰撞空间25。
如图1的左侧所示,根据背景技术,无碰撞空间25可以由三角形来表示,其中每个三角形均包括延伸经过相应的限制点15的基底以及从三角形的基底延伸到车辆坐标系17的原点20的两条线段19。在如图1中所示的实施例中,示出了六个限制点15,这六个限制点限定六个相应的三角形,这些三角形用于限制无碰撞空间25,其中所有三角形都包括在车辆坐标系17的原点20处结束的相应线段19之间的相同角度。
作为根据背景技术的另选,可以通过由相应的直线21连接限制点15以提供延伸经过所有限制点15并经过车辆坐标系17的原点20的多边形23来表示主车辆11前方的无碰撞空间。这在图1的右侧示出。无碰撞空间25由多边形23的内部表示。
如果如图1中所示,无碰撞空间25由三角形或多边形23表示,则关于无碰撞空间25的边界的信息仅可用于主车辆11内的应用。另一方面,主车辆11的一些应用(例如,用于确定主车辆前方的可行驶表面的应用)需要无碰撞空间25的基于网格的表示。因此,为了提供无碰撞空间25的基于网格的表示,通常需要针对每个应用对如图1中表示的无碰撞空间25分别进行变换。这增加了对这些应用中的每个应用所需的计算工作。
因此,本公开提供了一种用于确定无碰撞空间25的基于网格的表示的方法,该方法可以为进一步的应用而提供。图2和图3描绘了如何在主车辆11前方构建动态网格,而图4和图5描绘了用于确定这种动态网格内的无障碍空间的细节。
图2描绘了动态网格31的示意图。该动态网格31包括多个动态单元33,并适应主车辆11前方的车道35的路线。详细地,针对对应于主车辆11前方的受关注区域的基础区域37,由主车辆11的计算机系统14限定动态网格31。为了限定基础区域37,由主车辆11的检测系统13检测车道35的左边界39和右边界41。由于左边界39和右边界41限制车道35,因此左边界39和右边界41用作主车辆11前方的车道35的路线的指示。
作为限制主车辆11前方自由空间的障碍物的实施例,主车辆11的检测系统13检测目标车辆36的存在和位置。因此,如图1中所示,至少一个限制点15位于目标车辆36的后方。
如上所提到的,用于动态网格31的基础区域37意在覆盖主车辆11的受关注区域。为了适当地覆盖该受关注区域,左边界39和右边界41以外的一些区域被包括在基础区域37中。也就是说,相邻车道、人行道和/或如沟渠之类的其它环境的一些部分也可能与主车辆11的进一步移动有关,因此必须包括到基础区域37中。基础区域37被进一步划分为多个动态单元33,以便生成动态网格31。
图3详细描绘了如何由主车辆11的计算机系统14生成动态网31的动态单元33。限定参考线43,该参考线大致在主车辆11和目标车辆36瞬时行驶的车道35的中央延伸。参考线43由多项式表示,该多项式的系数来自于车道35的路线的指示,该指示由主车辆11的检测系统13测得,例如通过测量车道35的左边界39和右边界41的路线作为用于车道35的路线的指示。
由多项式表示的参考线43被划分成沿参考线43具有恒定长度Δ的多个节段45。对于每一节段45,分别限定垂直于参考线43延伸的两条直线47。也就是说,相邻的节段45具有共同的直线47,该直线47将在各直线47之间在参考线43两侧延伸的各个区域相互界定开。直线47还被划分成具有恒定长度δ的区49。因此,各个区49的端点51相互之间也具有恒定距离δ。
区49的端点51用于限定各个动态单元33的拐角点(参见图2)。详细地,区49的彼此相邻且属于第一直线47的两个端点51限定动态单元33的两个拐角点,而相邻直线47的区49的距第一直线47的距离最短的另外两个端点51限定动态单元33的另外两个拐角点。也就是说,每个动态单元33的四个拐角点是由区49的属于相邻直线47并且相对于彼此具有最短距离的相应端点51所限定的。
由于参考线43的曲率,动态单元33的大小在动态网格31内变更(如能在图2中辨识出的)。此外,作为另选,节段45的长度可以沿参考线41变更。例如,在靠近主车辆11时,可以使用短长度的节段45,而在其相对于主车辆11的距离增加时,节段45的长度可以增加。
在如图3所示的实施例中,每个节段45限定一行动态单元33,其中该行垂直于参考线43延伸。如果对属于特定节段45的每一行单元33使用预定义的数量的单元33,则与对应于并覆盖主车辆11前方的受关注区域的基础区域37的恒定横向延伸相对应地限定动态网格31的恒定横向宽度。
另选地,每行的单元33的数量可以被调节以适应车道35和参考线43的曲率。详细地,可以在参考线43弯曲到的第一侧(例如如图2和图3中所示的右侧)考虑较大数量的单元33,而在参考线43离开的第二侧,则考虑较少数量的单元33。图2中示出了这样的情况,其中,在车道35的右边界41以外的“内侧”存在较多的单元33,而在车道35的左边界39的“外侧”考虑了较少的单元33。
图4示出了如何确定动态网格31的单元33是否属于单元33的无障碍子集53(参见图5)。在图4中,描绘了包括车辆坐标系统17的主车辆11和三个示例性单元55、57、59,示例性单元55、57、59是形成动态网格31(参见图2)的多个单元33的子集。对于单元55、57、59中的每一者而言,描绘了轮廓63,该轮廓限定各单元的边界。
图4中还示出了三个示例性的限制点15和相应的线段19。多个限制点15限定如上所述的无碰撞空间25(参见图1)。
每个限制点15均包括相对于车辆坐标系17的原点20的一定距离和相对于车辆坐标系17的轴线之一的一定角度。在两个相邻的限制点15之间,限定有中间线段61。中间线段61开始于车辆坐标系17的原点20,并结束相邻限制点15之间,使得线段61的长度等于两个相邻限制点15相对于主车辆11(即相对于车辆坐标系17的原点20)的最大距离。
如能在图4中辨识出的,中间线段61完全穿越相对于主车辆11具有较短距离的两个下部单元57、59,而中间线段61终止于上部单元55内,该上部单元55与单元57、59相比,相对于主车辆11的距离较大。上部单元55的区域部分地位于限制点15之外(即相对于主车辆11之外)。
限定单元33的无障碍子集53(参见图5),使得只有当中间线段61之一完全穿越单元33时(即,只有当中间线段61至少两次与相应单元33的轮廓63相交时),此单元33才属于该子集53。换句话说,中间线段61必须与单元33的轮廓63的两条不同的边界线相交。在这种情况下,该单元33属于无障碍子集53。
在如图4所示的实施例中,两个下部单元57、59完全被中间线段61穿越,因此属于无障碍子集53。相反,中间线段61终止于其中的上部单元55没有被该线段61完全穿越,其轮廓63只有一侧与中间线段61相交。因此,上部单元55不属于无障碍子集53。
图5描绘了根据背景技术的由多边形23表示的无碰撞空间25(也可参见图1的右侧)与动态网格31内作为无障碍子集53的无碰撞空间25表示的比较。通过进行根据公开的方法,将针对多个限制点15限定的极坐标转移到动态网格31的单元33中,以提供单元33的无障碍子集53,该无障碍子集53在图5的右侧示出为阴影区域。
通过使用如上文在图4的背景下所述的每一对相邻限制点15之间的中间线段61,针对动态网格31的每个单元33,决定各单元33是否属于无障碍子集53。由于中间线段61和动态网格31的单元33是相互独立的,因此中间线段61和相应单元33的处理可以相互独立地进行。这减少了进行该方法所需的计算时间。
将无碰撞空间25表示为单元33的无障碍子集53可以用于需要基于网格的信息的不同应用中,例如用于确定主车辆11前方的可行驶表面的应用。这种基于网格的信息不能由根据背景技术的无碰撞空间25的表示以直观的方式提供,因为该表示基于用直线连接相邻限制点15以及车辆坐标系17的原点20的多边形23。
Claims (13)
1.一种用于确定主车辆(11)前方的无碰撞空间(25)的计算机实施的方法,该方法包括:
由所述主车辆(11)的检测系统(13)检测多个限制点(15),其中每个限制点(15)均位于相对于所述主车辆(11)而言的相应的无障碍物距离处;
由所述检测系统(13)并由所述主车辆(11)的计算机系统(14)在所述主车辆(11)前方形成动态网格(31),其中所述动态网格(31)是基于由所述主车辆(11)的所述检测系统(13)确定的所述主车辆(11)前方的车道(35)的路线的,并且其中所述动态网格(31)包括多个单元(33);
基于所述多个限制点(15),由所述计算机系统(14)确定所述单元(33)的无障碍子集(53),其中所述单元(33)的所述无障碍子集(53)限定主车辆(11)前方的所述无碰撞空间(25),
其中
所述主车辆(11)包括车辆坐标系(17),
所述多个限制点(15)中的每一个均具有相对于所述车辆坐标系(17)而言的预定义角度,
对于所述多个限制点(15)中的每一个,所述预定义角度是不同的,
其中
关于所述多个限制点(15)限定多条线段(61),
所述多条线段(61)中的每条线段(61)均从所述车辆坐标系(17)的原点(20)开始,并在两个相邻的限制点(15)之间结束,并且
基于所述多条线段(61)确定所述单元(33)的所述无障碍子集。
2.根据权利要求1所述的方法,其中
对于所述多个限制点(15),相邻限制点(15)的角度之差具有恒定值。
3.根据权利要求1或2所述的方法,其中
每条线段(61)均具有相对于所述车辆坐标系而言的角度,该角度介于两个对应的相邻限制点(15)的所述预定义角度之间。
4.根据权利要求3所述的方法,其中
各条线段(61)的所述角度是所述对应的相邻限制点(15)的两个角度的平均值。
5.根据权利要求1或2所述的方法,其中
每条线段(61)均在相对于所述车辆坐标系(17)的所述原点(20)而言的一距离处结束,该距离等于所述两个相邻限制点(15)相对于所述主车辆(11)而言的最大距离。
6.根据权利要求1或2所述的方法,其中
如果所述多条线段(61)中的线段(61)完全穿越所述动态网格(31)的单元(33),则该单元(33)属于多个单元(33)的所述无障碍子集(53)。
7.根据权利要求6所述的方法,其中
如果所述多条线段(61)中的线段(61)与所述单元(33)的外轮廓(63)至少相交两次,则所述线段(61)完全穿越该单元(33)。
8.根据权利要求1或2所述的方法,其中
形成所述主车辆(11)前方的所述动态网格(31)包括:
由所述主车辆(11)的所述检测系统(13)检测所述主车辆(11)前方的车道(35)的路线的指示(39,41);
由所述主车辆(11)的所述计算机系统(14)基于车道(35)的路线的所述指示(39,41)来确定基础区域(37);以及
由所述计算机系统(14)通过在相对于所述主车辆(11)而言的纵向方向和横向方向上划分所述基础区域(37)来限定所述多个单元(33)。
9.根据权利要求8所述的方法,其中
基于所述指示(39,41)由所述计算机系统(14)沿所述车道(35)限定条参考线(43),并且将所述参考线(43)划分成节段(45),其中针对所述节段(45)中的每一个节段,垂直于所述参考线(43)限定相应的一行单元(33)。
10.根据权利要求9所述的方法,其中
针对每个节段(45),分别在该节段(45)的开始和结束处限定垂直于所述参考线(43)的相应两条直线(47),并且将每条直线(47)划分成预定义数量的区(49),其中各个区(49)的端点(51)限定所述多个单元(33)中相应单元的拐角。
11.根据权利要求1或2所述的方法,其中
所述动态网格(31)的每个单元(33)的长度和宽度小于所述多个限制点(15)中的所有限制点(15)之间的最小距离。
12.一种计算机系统,该计算机系统构造成为执行根据权利要求1至11中的任一项所述的计算机实施的方法。
13.一种非暂时性计算机可读介质,该非暂时性计算机可读介质包括用于执行根据权利要求1至11中的任一项所述的计算机实施的方法的指令。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP20171489.6 | 2020-04-27 | ||
EP20171489.6A EP3905105A1 (en) | 2020-04-27 | 2020-04-27 | Method for determining a collision free space |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114084126A CN114084126A (zh) | 2022-02-25 |
CN114084126B true CN114084126B (zh) | 2023-12-29 |
Family
ID=70464964
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110324800.9A Active CN114084126B (zh) | 2020-04-27 | 2021-03-26 | 用于确定无碰撞空间的方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11719799B2 (zh) |
EP (1) | EP3905105A1 (zh) |
CN (1) | CN114084126B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3882813A1 (en) | 2020-03-20 | 2021-09-22 | Aptiv Technologies Limited | Method for generating a dynamic occupancy grid |
EP3905106A1 (en) | 2020-04-27 | 2021-11-03 | Aptiv Technologies Limited | Method for determining a drivable area |
EP3905105A1 (en) | 2020-04-27 | 2021-11-03 | Aptiv Technologies Limited | Method for determining a collision free space |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018138402A (ja) * | 2017-02-24 | 2018-09-06 | マツダ株式会社 | 車両運転支援システム及び方法 |
Family Cites Families (75)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7124027B1 (en) * | 2002-07-11 | 2006-10-17 | Yazaki North America, Inc. | Vehicular collision avoidance system |
US7266477B2 (en) * | 2005-06-22 | 2007-09-04 | Deere & Company | Method and system for sensor signal fusion |
DE102007013303A1 (de) * | 2007-03-16 | 2008-09-18 | Robert Bosch Gmbh | Verfahren zur Berechnung einer kollisionsvermeidenden Trajektorie für ein Fahrmanöver eines Fahrzeugs |
US7639171B2 (en) | 2007-09-27 | 2009-12-29 | Delphi Technologies, Inc. | Radar system and method of digital beamforming |
JP2009120116A (ja) * | 2007-11-16 | 2009-06-04 | Hitachi Ltd | 車両衝突回避支援装置 |
DE102009009047A1 (de) | 2009-02-16 | 2010-08-19 | Daimler Ag | Verfahren zur Objektdetektion |
DE102009022588A1 (de) | 2009-05-26 | 2010-12-02 | GM Global Technology Operations, Inc., Detroit | Verfahren und System zur Überwachung eines Umgebungsbereichs eines Fahrzeugs |
JP5206752B2 (ja) * | 2010-08-30 | 2013-06-12 | 株式会社デンソー | 走行環境認識装置 |
DE102012002695A1 (de) | 2012-02-14 | 2013-08-14 | Wabco Gmbh | Verfahren zur Ermittlung einer Notbremssituation eines Fahrzeuges |
DE102012103669A1 (de) * | 2012-04-26 | 2013-10-31 | Continental Teves Ag & Co. Ohg | Verfahren zur Darstellung einer Fahrzeugumgebung |
DE102013200387A1 (de) * | 2013-01-14 | 2014-07-17 | Robert Bosch Gmbh | Erstellung einer Hinderniskarte |
DE102013001228A1 (de) | 2013-01-25 | 2014-07-31 | Wabco Gmbh | Verfahren zum Ermitteln eines Auslösekriteriums für eine Bremsung und Notbremssystem für ein Fahrzeug |
DE102013210263A1 (de) * | 2013-06-03 | 2014-12-04 | Robert Bosch Gmbh | Belegungskarte für ein Fahrzeug |
US8930060B1 (en) * | 2013-07-15 | 2015-01-06 | Ford Global Technologies | Post-impact path assist for vehicles |
US9199668B2 (en) * | 2013-10-28 | 2015-12-01 | GM Global Technology Operations LLC | Path planning for evasive steering maneuver employing a virtual potential field technique |
CN103559791B (zh) | 2013-10-31 | 2015-11-18 | 北京联合大学 | 一种融合雷达和ccd摄像机信号的车辆检测方法 |
US9470777B2 (en) | 2014-09-19 | 2016-10-18 | Delphi Technologies, Inc. | Radar system for automated vehicle with phase change based target catagorization |
DE102015217891A1 (de) * | 2015-09-17 | 2017-03-23 | Volkswagen Aktiengesellschaft | Bestimmen einer Soll-Trajektorie für ein Fahrzeug |
US11222438B2 (en) * | 2016-05-27 | 2022-01-11 | Kabushiki Kaisha Toshiba | Information processing apparatus, vehicle, and information processing method for presence probability of object |
US11132611B2 (en) * | 2016-05-27 | 2021-09-28 | Kabushiki Kaisha Toshiba | Information processing apparatus and information processing method for determining presence probability of object |
EP3252658B1 (en) * | 2016-05-30 | 2021-08-11 | Kabushiki Kaisha Toshiba | Information processing apparatus and information processing method |
DE102016007630A1 (de) | 2016-06-23 | 2017-12-28 | Wabco Gmbh | Verfahren zum Ermitteln einer Notbremssituation eines Fahrzeuges sowie Vorrichtung zur Durchführung des Verfahrens |
US10670416B2 (en) | 2016-12-30 | 2020-06-02 | DeepMap Inc. | Traffic sign feature creation for high definition maps used for navigating autonomous vehicles |
JP6804991B2 (ja) * | 2017-01-05 | 2020-12-23 | 株式会社東芝 | 情報処理装置、情報処理方法、および情報処理プログラム |
US20180239969A1 (en) | 2017-02-23 | 2018-08-23 | Ford Global Technologies, Llc | Free Space Detection Using Monocular Camera and Deep Learning |
US10430641B2 (en) | 2017-03-08 | 2019-10-01 | GM Global Technology Operations LLC | Methods and systems for object tracking using bounding boxes |
US10656248B2 (en) | 2017-05-11 | 2020-05-19 | GM Global Technology Operations LLC | Radar post processing for sidelobe suppression |
US20180350086A1 (en) | 2017-05-31 | 2018-12-06 | Qualcomm Incorporated | System And Method Of Dynamically Filtering Depth Estimates To Generate A Volumetric Map Of A Three-Dimensional Environment Having An Adjustable Maximum Depth |
JP6808590B2 (ja) * | 2017-08-08 | 2021-01-06 | 株式会社東芝 | 情報処理装置、情報処理方法、プログラムおよび移動体 |
EP3454079B1 (en) | 2017-09-12 | 2023-11-01 | Aptiv Technologies Limited | Method to determine the suitablility of a radar target as a positional landmark |
DE102017217972A1 (de) | 2017-10-10 | 2019-04-11 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Erzeugen eines inversen Sensormodells und Verfahren zum Erkennen von Hindernissen |
DE102017126388B4 (de) | 2017-11-10 | 2020-12-03 | Valeo Schalter Und Sensoren Gmbh | Verfahren zur Bestimmung wenigstens eines Freiraums in einem Überwachungsbereich einer Entfernungsmessvorrichtung, Entfernungsmessvorrichtung und Fahrerassistenzsystem |
US10401863B2 (en) | 2017-11-22 | 2019-09-03 | GM Global Technology Operations LLC | Road corridor |
US10303492B1 (en) | 2017-12-13 | 2019-05-28 | Amazon Technologies, Inc. | Managing custom runtimes in an on-demand code execution system |
US10303178B1 (en) * | 2017-12-15 | 2019-05-28 | Waymo Llc | Collision mitigation static occupancy grid |
JP6766798B2 (ja) * | 2017-12-15 | 2020-10-14 | 株式会社デンソー | 道路地図生成システム及び道路地図生成方法 |
WO2019169358A1 (en) | 2018-03-02 | 2019-09-06 | DeepMap Inc. | Camera based localization for autonomous vehicles |
CN110494863B (zh) * | 2018-03-15 | 2024-02-09 | 辉达公司 | 确定自主车辆的可驾驶自由空间 |
JP7182895B2 (ja) * | 2018-04-13 | 2022-12-05 | 株式会社東芝 | 情報処理装置、プログラム、および情報処理方法 |
US10726567B2 (en) | 2018-05-03 | 2020-07-28 | Zoox, Inc. | Associating LIDAR data and image data |
US11372424B2 (en) * | 2018-05-10 | 2022-06-28 | GM Global Technology Operations LLC | Generalized 3D inverse sensor model |
US10642275B2 (en) * | 2018-06-18 | 2020-05-05 | Zoox, Inc. | Occulsion aware planning and control |
IT201800006594A1 (it) | 2018-06-22 | 2019-12-22 | "Procedimento per la mappatura dell’ambiente di un veicolo, corrispondenti sistema, veicolo e prodotto informatico" | |
US11530921B2 (en) * | 2018-09-28 | 2022-12-20 | Intel Corporation | Method of generating a collision free path of travel and computing system |
US11353577B2 (en) * | 2018-09-28 | 2022-06-07 | Zoox, Inc. | Radar spatial estimation |
US11208096B2 (en) | 2018-11-02 | 2021-12-28 | Zoox, Inc. | Cost scaling in trajectory generation |
DE102018127990A1 (de) * | 2018-11-08 | 2020-05-14 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Verarbeitungseinheit zur Ermittlung von Information in Bezug auf ein Objekt in einem Umfeld eines Fahrzeugs |
CN111307166B (zh) * | 2018-12-11 | 2023-10-03 | 北京图森智途科技有限公司 | 一种构建占据栅格地图的方法及其装置、处理设备 |
WO2020118545A1 (en) * | 2018-12-12 | 2020-06-18 | Intel Corporation | Time-aware occupancy grid mapping for robots in dynamic environments |
WO2020140047A1 (en) | 2018-12-28 | 2020-07-02 | Nvidia Corporation | Distance to obstacle detection in autonomous machine applications |
US11630197B2 (en) * | 2019-01-04 | 2023-04-18 | Qualcomm Incorporated | Determining a motion state of a target object |
US11195028B2 (en) * | 2019-01-04 | 2021-12-07 | Qualcomm Incorporated | Real-time simultaneous detection of lane marker and raised pavement marker for optimal estimation of multiple lane boundaries |
US11544940B2 (en) * | 2019-01-04 | 2023-01-03 | Qualcomm Incorporated | Hybrid lane estimation using both deep learning and computer vision |
US11475678B2 (en) * | 2019-01-04 | 2022-10-18 | Qualcomm Incorporated | Lane marker detection and lane instance recognition |
US20200217950A1 (en) * | 2019-01-07 | 2020-07-09 | Qualcomm Incorporated | Resolution of elevation ambiguity in one-dimensional radar processing |
US11393097B2 (en) * | 2019-01-08 | 2022-07-19 | Qualcomm Incorporated | Using light detection and ranging (LIDAR) to train camera and imaging radar deep learning networks |
US11555927B2 (en) * | 2019-02-05 | 2023-01-17 | Honda Motor Co., Ltd. | System and method for providing online multi-LiDAR dynamic occupancy mapping |
US11620478B2 (en) | 2019-02-06 | 2023-04-04 | Texas Instruments Incorporated | Semantic occupancy grid management in ADAS/autonomous driving |
US11016492B2 (en) * | 2019-02-28 | 2021-05-25 | Zoox, Inc. | Determining occupancy of occluded regions |
US11276189B2 (en) * | 2019-03-06 | 2022-03-15 | Qualcomm Incorporated | Radar-aided single image three-dimensional depth reconstruction |
DE102019205008B3 (de) | 2019-04-08 | 2020-07-02 | Zf Friedrichshafen Ag | System zur Rückwärtigen Kollisionsvermeidung |
CN111832736B (zh) | 2019-04-19 | 2024-04-12 | 伊姆西Ip控股有限责任公司 | 用于处理机器学习模型的方法、设备和计算机可读存储介质 |
US20200356415A1 (en) | 2019-05-07 | 2020-11-12 | Nutanix, Inc. | Apparatus and method for depoying a machine learning inference as a service at edge systems |
KR102061750B1 (ko) * | 2019-05-15 | 2020-01-03 | 주식회사 라이드플럭스 | 사전 정보를 이용하여 차량의 주행을 제어하는 방법 및 장치 |
US20200378766A1 (en) | 2019-05-31 | 2020-12-03 | Lyft, Inc. | Approaches for mapping geographic regions |
US11613254B2 (en) * | 2019-06-13 | 2023-03-28 | Baidu Usa Llc | Method to monitor control system of autonomous driving vehicle with multiple levels of warning and fail operations |
US11726492B2 (en) * | 2019-10-02 | 2023-08-15 | Zoox, Inc. | Collision avoidance perception system |
US11353877B2 (en) * | 2019-12-16 | 2022-06-07 | Zoox, Inc. | Blocked region guidance |
US20210188286A1 (en) | 2019-12-20 | 2021-06-24 | Baidu Usa Llc | A spline curve and spiral curve based reference line smoothing method |
CN113223317B (zh) | 2020-02-04 | 2022-06-10 | 华为技术有限公司 | 一种更新地图的方法、装置和设备 |
CN111401208B (zh) | 2020-03-11 | 2023-09-22 | 阿波罗智能技术(北京)有限公司 | 一种障碍物检测方法、装置、电子设备及存储介质 |
EP3882813A1 (en) | 2020-03-20 | 2021-09-22 | Aptiv Technologies Limited | Method for generating a dynamic occupancy grid |
EP3888988A1 (en) | 2020-03-30 | 2021-10-06 | Aptiv Technologies Limited | Method and system for determining a usable distance in front of a vehicle |
EP3905105A1 (en) | 2020-04-27 | 2021-11-03 | Aptiv Technologies Limited | Method for determining a collision free space |
EP3905106A1 (en) | 2020-04-27 | 2021-11-03 | Aptiv Technologies Limited | Method for determining a drivable area |
-
2020
- 2020-04-27 EP EP20171489.6A patent/EP3905105A1/en active Pending
-
2021
- 2021-03-11 US US17/199,358 patent/US11719799B2/en active Active
- 2021-03-26 CN CN202110324800.9A patent/CN114084126B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018138402A (ja) * | 2017-02-24 | 2018-09-06 | マツダ株式会社 | 車両運転支援システム及び方法 |
Also Published As
Publication number | Publication date |
---|---|
US11719799B2 (en) | 2023-08-08 |
CN114084126A (zh) | 2022-02-25 |
US20210333380A1 (en) | 2021-10-28 |
EP3905105A1 (en) | 2021-11-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114084126B (zh) | 用于确定无碰撞空间的方法 | |
CN109541634B (zh) | 一种路径规划方法、装置和移动设备 | |
CN113495272B (zh) | 生成动态占用网格的方法 | |
CN110687539B (zh) | 一种车位检测方法、装置、介质和设备 | |
CN107766405B (zh) | 自动车辆道路模型定义系统 | |
CN113635894B (zh) | 用于确定可行驶区域的方法 | |
EP3392093B1 (en) | Parking support method and device | |
WO2020135740A1 (zh) | 自动驾驶车辆的换道方法、系统及车辆 | |
EP4033324A1 (en) | Obstacle information sensing method and device for mobile robot | |
CN109001757B (zh) | 一种基于2d激光雷达的车位智能检测方法 | |
EP3699890A2 (en) | Information processing method and apparatus, and storage medium | |
CN108008379B (zh) | 生成表示车辆环境的物体的轮廓的折线的方法 | |
CN113984080B (zh) | 一种适用于大型复杂场景下的分层局部路径规划方法 | |
WO2021056516A1 (zh) | 目标检测方法、设备及可移动平台 | |
CN110850859A (zh) | 一种机器人及其避障方法和避障系统 | |
CN115523935A (zh) | 点云地面检测方法、装置、车辆及存储介质 | |
US20210089791A1 (en) | Vehicle lane mapping | |
CN116089557A (zh) | 数据处理方法、装置及存储介质 | |
JP7344744B2 (ja) | 路側端検出方法、及び、路側端検出装置 | |
US20220289245A1 (en) | Aiming device, drive control system, and method for calculating correction amount of sensor data | |
CN110962856B (zh) | 用于确定车辆的环境目标所处的区域的方法及装置 | |
JP7058128B2 (ja) | 情報処理装置およびプログラム | |
WO2020095673A1 (ja) | 車載制御装置 | |
CN114820416A (zh) | 车辆航向角计算方法、车辆位姿计算方法、装置及设备 | |
CN114074657B (zh) | 基于视觉的避免碰撞的系统和方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |