CN110015293A - 限界区域和运动路径的低维度求取 - Google Patents
限界区域和运动路径的低维度求取 Download PDFInfo
- Publication number
- CN110015293A CN110015293A CN201811557878.XA CN201811557878A CN110015293A CN 110015293 A CN110015293 A CN 110015293A CN 201811557878 A CN201811557878 A CN 201811557878A CN 110015293 A CN110015293 A CN 110015293A
- Authority
- CN
- China
- Prior art keywords
- knn
- equipment
- boundary line
- motion path
- bounded area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 59
- 238000012544 monitoring process Methods 0.000 claims abstract description 7
- 238000004590 computer program Methods 0.000 claims abstract description 6
- 238000013528 artificial neural network Methods 0.000 claims abstract description 5
- 230000001105 regulatory effect Effects 0.000 claims description 16
- 230000003287 optical effect Effects 0.000 claims description 9
- 230000008901 benefit Effects 0.000 claims description 2
- 238000010276 construction Methods 0.000 claims 4
- 230000006870 function Effects 0.000 description 14
- 238000012549 training Methods 0.000 description 11
- 238000000034 method Methods 0.000 description 9
- 230000008859 change Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000011218 segmentation Effects 0.000 description 6
- 238000005070 sampling Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000012552 review Methods 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 241000251468 Actinopterygii Species 0.000 description 1
- 206010057315 Daydreaming Diseases 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 239000010426 asphalt Substances 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000006116 polymerization reaction Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000012958 reprocessing Methods 0.000 description 1
- 239000012488 sample solution Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 239000002023 wood Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q9/00—Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/10—Path keeping
- B60W30/12—Lane keeping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30236—Traffic on road, railway or crossing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Navigation (AREA)
Abstract
一种用于由至少一个图像(4)求取至少一个对象的限界区域(2)和/或运动路径(3)的设备(1),所述设备包括至少一个人工神经网络KNN(5,5a,5b),该人工神经网络由多个彼此相继的层(51‑57)构成,所述KNN的第一层(51)获得所述至少一个图像(4)或所述至少一个图像的一部分作为输入,所述KNN的第二层(57)构造用于提供所述限界区域(2)的边界线(20‑22)、所述运动路径(3)的线状走向或者边界线的或运动路径的区段作为输出,所述第二层的维度小于所述第一层的维度。一种用于监测和/或控制至少一个车辆或对象的运动的辅助系统(100),该辅助系统具有所述设备(1)。所属的计算机程序产品。
Description
技术领域
本发明涉及一种借助图像来求取限界区域和运动路径的设备,该设备尤其用于陆上车辆、船舶或飞行器。本发明还涉及一种辅助系统以及一种相应的计算机程序
背景技术
对于驾驶员辅助系统或至少部分自动化的行驶而言,稳健的周围环境检测非常重要。特别重要的是确定可行驶的区域,该区域受到其他车辆或固定对象(例如墙和护栏)的限制。
近年来,已经越来越多地使用机器学习方法——尤其深度学习方法,以便可以稳健地识别周围环境特征。在此,通常基于测量数据来进行分类。一种极端情况是摄像机图像的所谓语义分割(或像素标记),在该情况下,给每个单独的像素确定一个所属的类别(例如道路、汽车、建筑物)。方面的示例是(E.Shelhamer、J.Long、T.Darrell的《FullyConvolutional Networks for Semantic Segmentation》,arXiv:1605.06211(2016年))。
US 2015/206 015 A1公开一种替代方案。在此生成一维图表,其中,每个节点对应一个图像列。基于特征识别,在图表上构建能量函数。将这种能量函数最大化,以便确定运动对象附近的空闲区域。
发明内容
在本发明的范畴内,已经研发出一种用于由至少一个图像求取至少一个对象的限界区域和/或运动路径的设备。
限界区域例如可以是如下意义上的可通行(begehbar)的或可行驶的区域:在该区域中不存在应避免与其碰撞的确定对象。然而,所述术语例如也包括绿化带或草坪区域与行车道的限界、房屋立面与窗户的限界、海洋与沙滩的限界或舷梯与水的界限。区域之间的分离也可以仅仅是语义的——例如通过实线彼此分离的两个车道。
运动路径通常说明对象相继所处的位置的序列。如果这种序列还附加地包含对象处于相应位置上的时间,则涉及的是轨迹。
在此,“可通行的或可行驶的区域”的术语不受如下事实约束:已经拍摄图像的摄像机是可移动的。摄像机同样可以是静止的并且例如监测停车场的或用于大型活动的地带的充盈度(Füllungsgrad)。
同样地,“其运动路径被确定的对象”的术语不限于安装有摄像机的对象。例如可以借助静止安装的摄像机来监测流动的交通。除了自身的运动路径以外,配备有可移动摄像机的车辆同样也可以监测陌生车辆的、行人的或任何其他对象的运动路径。
“图像”的术语不受图像拍摄的确定类型的约束并且也不受图像是光学图像的约束。因此,彩色图像、灰度图像和深度图像同等地适用。该图像例如可以由单个摄像机、立体摄像机、鱼眼摄像机或借助其他的对比机制(例如运动恢复结构(Structure-from-Motion)、激光雷达或飞行时间)来进行检测。该图像也可以由如下所检测的图像融合(Fusionierung)得出:所述图像借助不同的摄像机、由不同的视角、和/或借助不同的对比机制所检测。
所检查的限界区域无须强制性地处于车辆前方。例如可以在转弯过程或变换车道时进行检查:借助镜无法看见的“死角”在多大程度上是空的。
该设备包括由多个彼此相继的层构成的至少一个人工神经网络KNN,其中,KNN的第一层获得至少一个图像或所述至少一个图像的一部分作为输入。
KNN的第二层构造用于提供限界区域的边界线、运动路径的线状走向或边界线的或运动路径的区段作为输出。第二层的维度小于第一层的维度。
在此,术语“第一层”和“第二层”应理解为仅用于将两个层相互区分开,并且例如在如下方面进行限制:第一层是直接处于KNN的输入端上的层并且第二层是紧随其后的层。由此,在KNN中,在“第一层”和“第二层”之前还可以存在多个层并且在它们之后也可以跟随多个层。
“KNN层的维度”尤其可以理解为该层的输入或输出的维度。
“第一层的维度”例如可以理解为所输入的图像数据的维度。“第二层的维度”例如可以理解为如下参数空间的维度:在该参数空间中,求取边界线的或运动路径的参数化表达,或者,求取边界线的或运动路径的其他形式的维度。
此外,KNN也不限于仅提供边界线或运动路径。唯一的KNN中的不同的“第二层”例如也可以一次提供多个边界线或运动路径。除了边界线以外,KNN例如也可以在工作过程中沿着边界线提供不同类别的对象。
在总体上,KNN例如可以同时提供自身车道的区域、实线区域、直至路缘石的区域以及铺设沥青的区域。然后,不同的行驶功能分别可以动用合适的区域。因此,轮辋保护功能例如在路缘石前制动,而行人保护在紧急情况下也提供在路缘石或实线上的行驶。
在一种有利构型中,KNN的每个层所提供的输出至多具有与KNN的该层所获得的输入相同大小的维度。然后,在KNN中不进行(特别是计算密集的)上采样。然而,也可以提供如下应用:在所述应用中,这种开销对于临时的上采样来说是完全合理的。
已经看出,与用于管理行驶任务的信息相比,语义分割包含多得多的信息。如果高速公路由结构性边界包围,那么哪种类型的对象超出不可跨越的边界不再重要相关。因此,可以完全(ersatzlos)节省对涉及超出边界的区域的像素的详细分类的开销。
数字示例说明这种节省是相当可观的。典型的系列摄像机每秒拍摄30个如下图像:所述图像具有1280×720个像素。为了将这些像素分成10个类别的对象,必须在每个时间针对每个像素计算10个针对如下情况的概率的集合:像素属于所涉及的类别的对象。这总共是每秒超过2.76亿个概率。反之,如果例如仅寻求可通行的或可行驶的区域的边界线(该边界线由64个多边形支持点参数化),则为此仅须每秒计算至多64*30*10=19200个值,即以超过10000的因子减少。如果对于边界线没有询问哪种对象类型确切分别限界了可通行的或可行驶的区域,则能够实现进一步的节省。
在该示例中,“输入的图像像素的数量(1280×720)”可以理解为第一层的维度,而多边形支持点的数量(64)可以理解为第二层的维度。第二层的维度以超过10000的因子小于第一层的维度。
此外已经看出,在借助KNN进行完全语义分割的情况下,由于如下方式产生相当大的附加成本:首先连续地降低所输入的图像的维度,然而最后必须通过上采样重新提升到其原始大小。这种开销可以完全被节省。因此,这伴随着KNN需要少得多的存储器。
减少的计算和内存开销又导致:为了以硬件实现所述设备,具有较低能量消耗的更紧凑的硬件就是足够的。尤其对于至少部分自动化的行驶来说,这是从实验室阶段到系列应用的过渡的基本要求。
因此,尽管使用完整的图像作为输入,但这种开销是可管理的。因此,不需要为了降低复杂度而将图像划分成如下区段:这些区段被彼此单独地处理。这对于KNN的训练过程是有利的,在该训练过程中,可以分别一并学习完整的场景情境(Szenenkontext)——例如车辆在道路上行驶并且天空处于摄像机图像的上部。
最后,也可以从一开始就将KNN设计得小得多,因为待解决的问题以更紧凑的方式表述,也就是说,从一开始仅询问用于行驶的或支持行驶的辅助系统的实际所需的信息。
尤其在车辆中应用时,限界区域的或运动路径的作为(参数化的)线的紧凑表达尤其具有进一步的优点:这种表达在传输给车辆内部的其他系统时需要很少的带宽。为了节省电缆束的材料和重量,实施总线系统(例如CAN总线),所述总线系统用于车辆系统之间的通信。材料和重量节省最终是多个系统共享同一介质的结果。传输高分辨的、完全语义分割的图像在这种周围环境中消耗相对较多的带宽,使得其他系统在轮到其传输之前必须等待。
在设备中直接将图像转换成边界线或运动路径,也就是说,不存在数据的特殊的且可能不透明的预处理或再处理。反之,这也允许借助用于边界线或运动路径的“样本解决方案”来实现训练图像或训练图像序列的透明的且开销小得多的标记(Label)。替代在训练图像中借助如下类别标记每个单个的像素:KNN将会在实际运行中归类到该类别中,而是在训练图像中标记出如下边界线或运动路径就是足够的:KNN将会在实际运行中有意义地求取这些边界线或运动路径。
因此,明显简化并且加速了KNN的训练。由此,对于应用的制造商而言更实用的是,可以完全自主地执行训练,而不是使用预先训练过的KNN。因此,应用的制造商可以购买并且自由地使用硬件形式的KNN,而无须受制于存储在硬件中的训练结果的单独许可条件。
有利地,设置至少两个KNN。在此,第一KNN构造用于确定一方面的限界区域与另一方面的限制该区域的第一对象类型之间的边界线。第二KNN构造用于确定一方面的限界区域与另一方面的限制该区域的第二对象类型之间的边界线。
然后可以彼此独立地分别在识别对象类型方面专门训练两个KNN。在这种训练过程中确保:在识别一种对象类型时的学习进程不以牺牲另一对象类型的识别为代价。
KNN尤其可以彼此独立地适应于与识别不同的对象类型相关的不同要求。因此,行车道边界例如是静止的,也就是说,行车道边界不会自发地改变其外形。相反,前方行驶的车辆在转弯时或变换车道时可以自发地改变如下视角:该前方行驶的车辆由该视角被摄像机所检测到。例如当驾驶员操纵转向灯或其他的灯或在行驶期间打开敞篷车的顶篷时,该前方行驶的车辆也会改变其外形。
如果存在多个KNN,那么还可以以特别简单的方式与边界线一起求取类别,通过该对象类型,限界区域受到具体限制。不论对象涉及固定对象还是另一车辆,这例如对于规划至少部分自动化的行驶而言都是重要的。避免与固定对象发生碰撞仅取决于自身车辆的行为,而在所述对象是另一车辆的情况下则应考虑:该另一车辆例如可以自发地加速、制动或变换车道。此外,在不再能避免碰撞的情况下,可以通过如下方式减轻事故后果:通过控制干预使碰撞转向到“更合适的对象”上。因此,与楔入牵引车下(在这种情况下,变形能量集中到乘客舱上)相比,碰撞到坚固的混凝土墙上(在这种情况下,变形能量由车辆的为此设计的前部所吸收)的后果更轻。也可以通过如下方式减轻事故后果:争取实现自身车辆与碰撞对象之间的尽可能大的接触面,以便使变形能量分布在尽可能大的面上。可以认为在这方面、在准许至少部分自动化行驶时将存在监管要求,以便尤其保护“弱的”交通参与者——例如行人或骑行者。
因此,无论存在两个还是多个KNN,该设备通常都特别有利地构造用于在沿着限界区域的所求取的边界线的不同位置上分别求取如下情况的概率:限界区域在那里受到确定的对象类型的限制。
在另一特别有利的构型中,第一KNN的和第二KNN的输出被引导到至少一个聚合器中,其中,聚合器构造用于求取由两个KNN所提供的边界线的叠加的包络线(Einhüllende)作为限界区域的唯一的或附加的边界线。
这种聚合器例如能够实现以灵活的方式组合多个KNN的输出,以便对不同的问题做出响应。在此,可以多次使用KNN的同一输出。因此,例如对于在行车道边界和护栏旁边的行驶的主动控制而言,其他车辆尤其是重要相关的。反之,为了规划入口的通行高度对于装载车辆来说是否足够时,有意义的是:隐藏其他车辆,而是考虑关于限制通行高度的对象的更多信息。
通常,借助包络线的聚合能够实现:将相对较复杂的边界线的确定分解成简单得多的部分任务,这些部分任务可以由各个KNN执行。
如果仅存在唯一的KNN,那么该KNN可以固有地用作在KNN中同时求取的多个边界线的聚合器。
边界线和运动路径的灵活可组合性能够实现多种应用,而无须改变或重新训练所基于的KNN。例如可以辨识对象的高度或将对象抽象为轮廓(“边界框”)。可以在如下方面检查规划用于超车过程的运动路径或轨迹:在其他交通参与者的期望行为的范畴内,该超车过程是否是安全的。
也可以辨识对象的各个实例(Instanz),并且在由多个图像构成的序列上跟踪对象,其方式例如是:针对每个对象,沿着限界区域的边界线借助回归来确定至相应对象实例的中点的以像素为单位的(带标记的)间距。例如可以借助辨认对象实例来模仿注意力集中的人类驾驶员的行为,该驾驶员例如跟踪自身车辆周围环境内的确定的其他车辆,如果突然无法再看见所述其他车辆,则主动寻找“死角”。
特别有利地,KNN构造用于提供边界线、运动路径或相应的区段作为如下参数集合:该参数集合用于借助参数化函数示出线和/或以向量图示出线。参数化函数可以是任意的连续或不连续的函数。尤其合适的是多边形、折线、多项式、回旋体或它们的组合。借助这些函数也可以仅以几个参数总结较复杂的线的变化过程。
有利地,KNN构造用于给图像的每列或图像的所选择的列分配这些列内部的至少一个如下位置:限界区域的边界线在该位置上延伸。于是,边界线的确定从分类任务回到回归任务。
类似地,借助回归也可以确定运动路径。为此,KNN有利地构造用于给图像的每行或图像的所选择的行分配这些行内部的至少一个如下位置:运动路径在该位置上延伸。
对图像的列或行进行选择减少了所寻求的边界线或所寻求的运动路径的支持点的数量,并且因此以牺牲精度为代价减少了计算开销。
在另一有利构型中,KNN构造用于在穿过图像的至少一个路段上求取限界区域的边界线的第一次出现。特别是在管理行驶任务时,只有在预期行驶方向上最接近的边界线才是重要相关的。对于前向摄像机和向前行驶而言,从图像的下边缘出发所识别到的第一边界线例如是重要相关的。相反地,对于预期的转弯过程或变换车道而言,将如下方向改变则会是有意义的:在该方向上,在边界线的第一次出现方面对图像进行检查。
例如可以在用于监测和/或控制车辆或其他对象的运动的辅助系统中使用该设备。车辆尤其可以是如下对象:由设备对该对象的运动路径进行监测。车辆可以是陆地车辆、船舶或飞行器。辅助系统可以支持手动驾驶,但是也可以用于至少部分地自动化行驶。
在一种有利构型中,在辅助系统中设置如下比较单元:该比较单元构造用于监测由设备所求取的运动路径是否在公差带内延伸。该比较单元附加地构造用于在违反公差带时操控声学的、光学的或触觉的警报装置。
这种辅助系统例如可以是车道保持辅助装置,该车道保持辅助装置监测驾驶员是否保持在预给定的车道上。如果驾驶员例如由于注意力不集中或过度疲劳而不再遵循该车道,并且如果由设备识别出这一点,则由比较器单元操控警报装置。替代地或组合地,比较单元也可以通过操控至少一个执行器来对车辆的航线(Steuerkurs)进行干预,该执行器使车辆未来的运动路径回到公差带内。
例如可以至少部分地通过限界区域的由该设备所求取的边界线来确定公差带。此外,例如也尤其可以考虑行车道标记。在此有利的是,如之前所提及的那样,可以使用不同的KNN来识别不同的对象类型的边界线。
有利地,为了检测车辆的航线和/或车辆的速度,设置至少一个传感器和/或至少一个接口。例如可以通过转向角或舵角来检测航线。
然后,例如可以识别:车辆的运动路径是否以期望的方式对航线的变化做出反应。如果不是这种情况,则可以将这评估为车辆突然偏向一旁(ausbrechen)的迹象,并且可以相应地操控ESP系统来进行校正,从而有针对性地对各个车轮进行制动。
在一种特别有利的构型中,设置如下调节回路:在该调节回路中,由设备所求取的运动路径与所检测的航线的偏差充当调节偏差。在此,该调节回路构造用于通过操控至少一个执行器和/或至少一个光学的、声学的或触觉的显示设备来将这种调节偏差调节掉。
强侧风例如可能造成需要反向转向(gegenlenken)以将车辆保持在车道上。如果车辆现在例如驶上桥梁或者该车辆在超车时从载重货车的背风面出现,那么正在侵袭的风力可能突然发生改变并且需要反作用。借助辅助系统的这种反作用的自动化实现可以防止驾驶员受到惊吓并且在过度反应中急剧驱动车辆。
在另一有利构型中,设置如下调节回路:该调节回路构造用于将直至到达由设备所求取的边界线的剩余路段和/或剩余时间调节到期望值上和/或使其保持高于最低水平。在自适应间距调节的范畴内,例如可以遵循至前方人员的特定于路段或时间(例如2秒规则)的最小间距。可以通过操控至少一个执行器来实现调节干预,替代地或组合地,但也可以通过操控至少一个光学的、声学的或触觉的显示设备来实现调节干预,以便促使驾驶员做出反应。
KNN尤其可以完全地或部分地以软件实现。KNN例如以可配置的硬件实施,该硬件通过软件而施加有如下层结构:所述层结构具有渐进减小并且不再增大的维度。尤其也可以通过软件相应地重新配置已经存在的设备。就这点而言,相应的软件是可以独立销售的产品。因此,本发明也涉及一种具有机器可读的指令的计算机程序,当所述指令在计算机和/或控制设备上实施时,所述指令使计算机和/或控制设备升级成根据本发明的设备,和/或,所述指令促使所述计算机和/或控制设备在根据本发明的辅助系统中实施比较单元的功能和/或调节回路的功能。同样地,本发明也涉及具有所述计算机程序的机器可读的数据载体或下载产品。
附图说明
以下根据附图与本发明的优选实施例的描述共同进一步阐述改善本发明的其他措施。附图示出:
图1示出用于确定边界线20的设备1的实施例(图1a),KNN 5、5a、5b的内部结构的示意图(图1b);
图2示出用于确定自身车辆的运动路径3的设备1的实施例;
图3示出借助逐列回归求取边界线20至22(图3a),借助逐行回归求取运动路径3(图3b);
图4示出辅助系统100的示例:监测运动路径3(图4a),监测直至边界线20至22、25的路段或持续时间(图4b)。
具体实施方式
根据图1a,在向前方向上,在由安装在车辆上的摄像机所拍摄的图像4中示出具有多个对象1001a至1009的场景1000。多个车辆1001a至1001f在行车道1002上向前行驶,该行车道由左侧的结构性行车道边界1003和右侧的结构性行车道边界1004限界。附加地,可以看出森林1005、门架式标志牌1006、电塔1007a至1007d、路灯1008,以及最后也可以看出天空1009。行车道1002的处于自身车辆前方的空闲区域是可行驶的区域2。
将整个图像4同时提供给两个KNN 5a、5b。第一KNN 5a专用于在图像4中从下边缘出发求取可行驶区域2的通过如下对象确立的边界线21:该对象属于借助附图标记28标注的对象类型“行车道边界”。第二KNN 5b专用于在图像4中从下边缘出发求取可行驶区域2的由如下对象确立的边界线22:该对象属于借助附图标记29标注的对象类型“陌生车辆”。
将这两个边界线21和22提供给聚合器6,该聚合器确定这两个边界线21和22的叠加并且由此确定包络线25。包络线25是可行驶区域2的由设备1在总体上作为最终结果所提供的边界线20。
在工作过程中,也可以直接由图4求取边界线20。然后例如可以在沿着边界线20的位置20a和20b上进行分类:哪个对象类型在那里分别对于边界走向而言是决定性的。在图1所示的示例中,在点20a处确定存在如下情况的高概率:边界线20在那里由对象类型“行车道边界28”形成。反之,在点20b上则涉及对象类型“陌生车辆29”的主要概率,但是也涉及对象类型“行车道边界28”的重要相关的概率。
图1b示意性地示出KNN 5、5a、5b的内部结构。在此,KNN 5、5a、5b示例性地由七个层51至57构成,这些层在图1b中选择的视角中从上向下延伸。第一层51获得图像4作为输入。最后的层57提供可行驶的区域2的边界线20至22作为输出。层51至57的维度在图1b中通过长方体的正方形基面表明,所述基面分别象征层51至57。
从第一层51出发直至层56,在转变到最后的层57时维度保持在恒定水平之前,维度缓慢地并且越来越快地减小。相应地,由所述最后的层57提供的输出也是非常低维度的。相比之下,如果要对图像4进行完整的语义分割,则需要在层57上对所输入的图像4的原始维度进行上采样。为此所需的相当大的开销被节省。
图2示出一种用于借助KNN 5来确定自身车辆的运动路径3的设备1的实施例。例如可以将这种KNN 5与根据图1的KNN 5a、5b进行组合,以便根据同一图像4不仅确定可行驶的区域2的边界线20,而且也确定自身车辆的运动路径3。
为了专门说明运动路径3,在图2中选择了与图1所示的不同的场景1010。左侧行车道标记1011和右侧行车道标记1012限界车道1013。此外,左行车道标记1011将车道1013与对向车道1014分离。附加地,可以看出道路1011至1014、跨越的桥梁1015以及森林1016并且最后也可以看出天空1017。
将图像4作为输入提供给KNN 5。KNN 5由此求取运动路径3。
图3a示意性地示出借助逐列回归求取边界线20至22。在此,给图像4的每列41分配列41内部的至少一个位置42,所寻求的边界线20至22在该位置上延伸。为清楚起见,在图3a中仅借助附图标记41标注三个列,并且借助附图标记42标注三个位置。所求取的位置42例如可以用作用于拟合如下参数化函数的支持点(Stützpunkt):借助该参数化函数最终示出边界线20至22。
图3b示意性地示出借助逐行回归求取运动路径3。在此,给图像4的每行43分配行43内部的至少一个位置44,所寻求的运动路径3在该位置上延伸。为清楚起见,在图3b中仅借助附图标记43标注三个行,并且借助附图标记44标记三个位置。与图3a类似,位置44可以用作用于拟合如下参数化函数的支持点:借助该函数最终示出运动路径3。
图4a示出一种用于监测运动路径3的辅助系统100的实施例。在此,比较单元110检查:由设备1求取的运动路径3是否处于公差带105内,其中,例如可以至少部分地通过由设备1所求取的边界线20至22、25来确定公差带105。公差带105例如可以通过图2中绘制的行车道标记1011和1012确定。
如果违反公差带105,则操控声学的、光学的或触觉的警报装置120,以便引起可能注意力不集中的或过度疲劳的驾驶员的注意。
替代地或组合地,将由设备1所求取的运动路径3提供给调节回路160,该调节回路从传感器130和/或接口140获得关于车辆的航线151的信息。将运动路径3与航线151的偏差评估为调节偏差161。作为调节干预,通过操控165执行器170和/或其他的声学的、光学的或触觉的警报装置175将这种调节偏差161调节掉。调节偏差161的一些可能的原因是:车辆偏向一旁、打滑、滑水和强侧风。执行器例如可以对转向装置、对制动各个车轮的ESP和/或离合器产生影响。
图4b示出辅助系统100的另一实施例。该实施例构造用于监测和调节直至到达由设备1所求取的边界线20至22、25剩余路段181和/或剩余时间182,。
为此目的,不仅给辅助系统100的控制回路180提供边界线20至22、25,而且也提供运动路径3。在调节回路180的分析处理单元180a中,由边界线20至22、25以及由运动路径3求取直至到达边界线20至22、25的剩余路段181和/或剩余时间182。将剩余路段181和/或剩余时间182与这方面的期望值183和/或这方面的最低水平184进行比较。与图4a类似,作为调节回路180的调节干预,对执行器170和/或声学的、光学的或触觉的警报装置175进行操控185,以便补偿相应的缺陷。
Claims (15)
1.一种用于由至少一个图像(4)求取至少一个对象的限界区域(2)和/或运动路径(3)的设备(1),所述设备包括至少一个人工神经网络KNN(5,5a,5b),所述人工神经网络由多个彼此相继的层(51至57)构成,其中,所述KNN(5,5a,5b)的第一层(51)获得所述至少一个图像(4)或所述至少一个图像的一部分作为输入,其特征在于,所述KNN(5,5a,5b)的第二层(57)构造用于提供所述限界区域(2)的边界线(20至22)、所述运动路径(3)的线状走向或者所述边界线(20至22)的或所述运动路径(3)的区段作为输出,其中,所述第二层(57)的维度小于所述第一层(51)的维度。
2.根据权利要求1所述的设备(1),其特征在于,设置:
·至少一个第一KNN(5a),所述至少一个第一KNN构造用于确定一方面的所述限界区域(2)与另一方面的限制所述区域(2)的第一对象类型(28)之间的边界线(21);
·至少一个第二KNN(5b),所述至少一个第二KNN构造用于确定一方面的所述限界区域(2)与另一方面的限制所述区域(2)的第二对象类型(29)之间的边界线(22)。
3.根据权利要求2所述的设备(1),其特征在于,所述第一KNN(5a)和所述第二KNN(5b)的输出被引导到至少一个聚合器(6)中,其中,所述聚合器(6)构造用于求取由所述两个KNN所提供的边界线(21,22)的叠加的包络线(25)作为所述限界区域(2)的唯一的或附加的边界线(20)。
4.根据权利要求1至3中任一项所述的设备(1),其特征在于,所述KNN(5,5a,5b)构造用于提供所述边界线(20至22)、所述运动路径(3)或相应的区段作为如下参数集合:所述参数集合用于借助参数化函数示出线和/或用于以向量图示出线。
5.根据权利要求1至4中任一项所述的设备(1),其特征在于,所述KNN(5,5a,5b)构造用于给所述图像(4)的每列(41)或所述图像(4)的所选择的列(41)分配所述列(41)内部的至少一个位置(42),所述限界区域(2)的边界线(20至22)在所述位置上延伸。
6.根据权利要求1至5中任一项所述的设备(1),其特征在于,所述KNN(5,5a,5b)构造用于给所述图像(4)的每行(43)或所述图像(4)的所选择的行(43)分配所述行(43)内部的至少一个位置(44),所述运动路径(3)在所述位置上延伸。
7.根据权利要求1至6中任一项所述的设备(1),其特征在于,所述KNN(5,5a,5b)构造用于在穿过所述图像(4)的至少一个路段上求取所述限界区域(2)的边界线(20至22)的第一次出现。
8.根据权利要求1至7中任一项所述的设备(1),其特征在于,所述设备(1)附加地构造用于在沿着所述限界区域(20)的所求取的边界线(20)的不同位置(20a,20b)上分别求取如下情况的概率:所述限界区域在那里受到确定的对象类型(28,29)的限制。
9.一种辅助系统(100),所述辅助系统用于监测和/或控制至少一个车辆或对象的运动,所述辅助系统包括根据权利要求1至8中任一项所述的设备(1)。
10.根据权利要求9所述的辅助系统(100),其特征在于,设置如下比较单元(110):所述比较单元构造用于监测由所述设备(1)所求取的运动路径(3)是否在公差带(105)内延伸,并且所述比较单元构造用于在违反所述公差带(105)时操控声学的、光学的或触觉的警报装置(120)。
11.根据权利要求10所述的辅助系统(100),其特征在于,所述公差带(105)至少部分地通过所述限界区域(2)的由所述设备(1)所求取的边界线(20至22,25)所确定。
12.根据权利要求9至11中任一项所述的辅助系统(100),其特征在于,为了检测所述车辆的航线(151)和/或速度(152),设置至少一个传感器(130)和/或至少一个接口(140)。
13.根据权利要求12所述的辅助系统(100),其特征在于,设置如下调节回路(160):在所述调节回路中,由所述设备(1)所求取的运动路径(3)与所检测的航线(151)的偏差充当调节偏差(161),其中,所述调节回路(160)构造用于通过操控(165)至少一个执行器(170)和/或至少一个光学的、声学的或触觉的显示设备(175)来将所述调节偏差(161)调节掉。
14.根据权利要求9至13中任一项所述的辅助系统(100),其特征在于,设置如下调节回路(180):所述调节回路构造用于通过操控(185)至少一个执行器(170)和/或至少一个光学的、声学的或触觉的显示设备(175)来将直至到达由所述设备(1)所求取的边界线(20至22)的剩余路段(181)和/或剩余时间(182)调节到期望值(183)上和/或使其保持高于最低水平(184)。
15.一种计算机程序,所述计算机程序包含机器可读的指令,当所述指令在计算机和/或控制设备上实施时,所述指令使所述计算机和/或所述控制设备升级成根据权利要求1至8中任一项所述的设备(1),和/或,所述指令促使所述计算机和/或所述控制设备在根据权利要求9至14中任一项所述的辅助系统(100)中实施所述比较单元(110)的功能和/或所述调节回路(160,180)的功能。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017223206.4 | 2017-12-19 | ||
DE102017223206.4A DE102017223206A1 (de) | 2017-12-19 | 2017-12-19 | Niederdimensionale Ermittlung von abgegrenzten Bereichen und Bewegungspfaden |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110015293A true CN110015293A (zh) | 2019-07-16 |
CN110015293B CN110015293B (zh) | 2024-07-19 |
Family
ID=66674560
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811557878.XA Active CN110015293B (zh) | 2017-12-19 | 2018-12-19 | 限界区域和运动路径的低维度求取 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11263465B2 (zh) |
JP (1) | JP7213667B2 (zh) |
CN (1) | CN110015293B (zh) |
DE (1) | DE102017223206A1 (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019118366A1 (de) * | 2019-07-08 | 2021-01-14 | Zf Friedrichshafen Ag | Verfahren sowie Steuergerät für ein System zum Steuern eines Kraftfahrzeugs |
US20220332307A1 (en) * | 2019-08-28 | 2022-10-20 | Continental Advanced Lidar Solutions Us, Llc | Disturbance handling for trailer towing |
DE102020206990A1 (de) | 2020-06-04 | 2021-12-09 | Robert Bosch Gesellschaft mit beschränkter Haftung | Vorrichtung zur Verarbeitung von Sensordaten und Trainingsverfahren |
DE102021101188A1 (de) | 2021-01-21 | 2022-07-21 | Valeo Schalter Und Sensoren Gmbh | Fahrunterstützungssystem mit verbesserter Gegensteuerung gegen eine auf das Fahrzeug wirkende Luftströmung |
DE102021202934A1 (de) | 2021-03-25 | 2022-09-29 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfolgung mehrerer Objekte mit neuronalen Netzwerken, lokalen Speichern und einem gemeinsamen Speicher |
DE102021202933A1 (de) | 2021-03-25 | 2022-09-29 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfolgung mehrerer Objekte in Zusammenarbeit mehrerer neuronaler Netzwerke |
DE102021208830A1 (de) | 2021-08-12 | 2023-02-16 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren zur Prädiktion einer Ego-Fahrspur für ein Fahrzeug |
DE102022212709A1 (de) | 2022-11-28 | 2024-05-29 | Robert Bosch Gesellschaft mit beschränkter Haftung | Korridorbasierte Fahrzeugsteuerung |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102007015227A1 (de) * | 2007-03-29 | 2008-10-02 | Continental Automotive Gmbh | Verfahren und Anordnung zur näherungsweisen Bestimmung einer von einem Fahrzeug aktuell befahrenen Fahrspur |
EP2738752A1 (de) * | 2012-12-01 | 2014-06-04 | MAN Truck & Bus AG | Fahrerassistenzsystem zur Unterstützung eines Fahrzeugführers beim Betrieb eines Fahrzeugs, insbesondere eines Kraft- und/oder Nutzfahrzeugs |
US20170101097A1 (en) * | 2014-06-27 | 2017-04-13 | Bayerische Motoren Werke Aktiengesellschaft | Method for Producing a Model of the Surroundings of a Vehicle |
CN106663193A (zh) * | 2014-05-14 | 2017-05-10 | 御眼视觉技术有限公司 | 用于路缘检测和行人危险评估的系统和方法 |
CN106980814A (zh) * | 2016-01-15 | 2017-07-25 | 福特全球技术公司 | 用显著性地图的行人检测 |
CN107092862A (zh) * | 2017-03-16 | 2017-08-25 | 浙江零跑科技有限公司 | 一种基于卷积神经网络的车道边缘检测方法 |
CN107107909A (zh) * | 2015-02-06 | 2017-08-29 | 宝马股份公司 | 用于驾驶员辅助系统的传感器数据的处理 |
CN107169402A (zh) * | 2016-03-08 | 2017-09-15 | 福特全球技术公司 | 车辆车道定位 |
US20170336794A1 (en) * | 2015-02-10 | 2017-11-23 | Mobileye Vision Technologies Ltd. | Navigating in snow |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8209120B2 (en) * | 1997-10-22 | 2012-06-26 | American Vehicular Sciences Llc | Vehicular map database management techniques |
DE19802261A1 (de) * | 1998-01-22 | 1999-07-29 | Daimler Chrysler Ag | Verfahren zur Signalverarbeitung von Zeitfolgen digitalisierter Bilder |
DE19942223C2 (de) * | 1999-09-03 | 2003-03-13 | Daimler Chrysler Ag | Klassifikationsverfahren mit Rückweisungsklasse |
JP2005004413A (ja) | 2003-06-11 | 2005-01-06 | Nissan Motor Co Ltd | 車両用運転支援装置 |
DE102005037273A1 (de) * | 2005-08-08 | 2007-02-15 | Robert Bosch Gmbh | Spurassistenzsystem für Fahrzeuge |
JP4225352B2 (ja) | 2007-02-01 | 2009-02-18 | トヨタ自動車株式会社 | 追従制御装置 |
US9305219B2 (en) | 2014-01-23 | 2016-04-05 | Mitsubishi Electric Research Laboratories, Inc. | Method for estimating free space using a camera system |
US10212879B2 (en) | 2015-11-03 | 2019-02-26 | Nuhn Industries Ltd. | Automated manure agitation and transfer |
US9829888B2 (en) * | 2015-11-17 | 2017-11-28 | Ford Global Technologies, Llc | Distinguishing lane markings for a vehicle to follow |
-
2017
- 2017-12-19 DE DE102017223206.4A patent/DE102017223206A1/de active Pending
-
2018
- 2018-11-28 JP JP2018222086A patent/JP7213667B2/ja active Active
- 2018-12-07 US US16/213,239 patent/US11263465B2/en active Active
- 2018-12-19 CN CN201811557878.XA patent/CN110015293B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102007015227A1 (de) * | 2007-03-29 | 2008-10-02 | Continental Automotive Gmbh | Verfahren und Anordnung zur näherungsweisen Bestimmung einer von einem Fahrzeug aktuell befahrenen Fahrspur |
EP2738752A1 (de) * | 2012-12-01 | 2014-06-04 | MAN Truck & Bus AG | Fahrerassistenzsystem zur Unterstützung eines Fahrzeugführers beim Betrieb eines Fahrzeugs, insbesondere eines Kraft- und/oder Nutzfahrzeugs |
CN106663193A (zh) * | 2014-05-14 | 2017-05-10 | 御眼视觉技术有限公司 | 用于路缘检测和行人危险评估的系统和方法 |
US20170101097A1 (en) * | 2014-06-27 | 2017-04-13 | Bayerische Motoren Werke Aktiengesellschaft | Method for Producing a Model of the Surroundings of a Vehicle |
CN107107909A (zh) * | 2015-02-06 | 2017-08-29 | 宝马股份公司 | 用于驾驶员辅助系统的传感器数据的处理 |
US20170336794A1 (en) * | 2015-02-10 | 2017-11-23 | Mobileye Vision Technologies Ltd. | Navigating in snow |
CN106980814A (zh) * | 2016-01-15 | 2017-07-25 | 福特全球技术公司 | 用显著性地图的行人检测 |
CN107169402A (zh) * | 2016-03-08 | 2017-09-15 | 福特全球技术公司 | 车辆车道定位 |
CN107092862A (zh) * | 2017-03-16 | 2017-08-25 | 浙江零跑科技有限公司 | 一种基于卷积神经网络的车道边缘检测方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2019169124A (ja) | 2019-10-03 |
JP7213667B2 (ja) | 2023-01-27 |
US11263465B2 (en) | 2022-03-01 |
DE102017223206A1 (de) | 2019-06-19 |
US20190188496A1 (en) | 2019-06-20 |
CN110015293B (zh) | 2024-07-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110015293A (zh) | 限界区域和运动路径的低维度求取 | |
US10606270B2 (en) | Controlling an autonomous vehicle using cost maps | |
US11353577B2 (en) | Radar spatial estimation | |
US11740633B2 (en) | Determining occupancy of occluded regions | |
US11126180B1 (en) | Predicting an occupancy associated with occluded region | |
US11631200B2 (en) | Prediction on top-down scenes based on action data | |
US11126868B1 (en) | Detecting and responding to parking behaviors in autonomous vehicles | |
DE102020110458A1 (de) | Fahrzeugpfadvorhersage | |
DE112021000135T5 (de) | Sensorfusion für anwendungen autonomer maschinen durch maschinelles lernen | |
DE112020006410T5 (de) | Dreidimensionale kreuzungsstrukturvorhersage für anwendungen zum autonomen fahren | |
DE112020006404T5 (de) | Planung und steuerung von spurwechseln in autonomen maschinenapplikationen | |
DE102020117792A1 (de) | Wirksames einsetzen von hindernis- und spurerkennungen, um spurzuweisungen für objekte in einer umgebung zu bestimmen | |
US11513519B1 (en) | Sharing occlusion data | |
DE112019006484T5 (de) | Detektion von abständen zu hindernissen in autonomen maschinenanwendungen | |
DE112019000122T5 (de) | Echtzeiterfassung von spuren und begrenzungen durch autonome fahrzeuge | |
DE112019000279T5 (de) | Steuern autonomer fahrzeuge anhand sicherer ankunftszeiten | |
CN113056749A (zh) | 用于自主机器应用的未来对象轨迹预测 | |
CN111874006A (zh) | 路线规划处理方法和装置 | |
DE102022112748A1 (de) | Verwendung von ankunftszeitpunkten und sicherheitsprozedurenin bewegungsplanungstrajektorien für autonome fahrzeuge | |
DE112022002353T5 (de) | Verfahren und Systeme zur Trajektorienerzeugung für ein autonomes Fahrzeug beim Überfahren einer Kreuzung | |
DE112021005708T5 (de) | Verfahren und Systeme zur Verfolgung einer Fahrspur über die Zeit | |
DE102022104026A1 (de) | Erzeugung von ground-truth-daten für die wahrnehmung durch tiefe neuronale netze in anwendungen für autonomes fahren | |
Gonsalves et al. | Integrated deep learning for self-driving robotic cars | |
DE112021006099T5 (de) | Bordrückkopplungssystem für autonome Fahrzeuge | |
DE102023118419A1 (de) | Statusabschätzung und Reaktion auf aktive Schulfahrzeuge in einem selbstfahrenden System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |