CN115346193A - 一种车位检测方法及其跟踪方法、车位检测装置、车位检测设备及计算机可读存储介质 - Google Patents
一种车位检测方法及其跟踪方法、车位检测装置、车位检测设备及计算机可读存储介质 Download PDFInfo
- Publication number
- CN115346193A CN115346193A CN202211012090.7A CN202211012090A CN115346193A CN 115346193 A CN115346193 A CN 115346193A CN 202211012090 A CN202211012090 A CN 202211012090A CN 115346193 A CN115346193 A CN 115346193A
- Authority
- CN
- China
- Prior art keywords
- parking space
- branch
- data
- target
- entrance line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/586—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20164—Salient point detection; Corner detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30264—Parking
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明涉及一种车位检测方法及其跟踪方法、车位检测装置、车位检测设备及计算机可读存储介质。该车位检测方法及其跟踪方法包括S1,获取车位的环视图片,提取所述环视图片的低层语义特征和高层语义特征,对所述低层语义特征和高层语义特征进行融合,获取融合特征;S2,对所述融合特征进行解码操作,获取多组分支;S3,根据所述分支进行推理以获取全部的检出车位。本发明提出了一种车位检测方法及其跟踪方法、车位检测装置、车位检测设备及计算机可读存储介质,能提高车位检测及跟踪的准确性和鲁棒性。
Description
技术领域
本发明涉及车辆自动驾驶技术领域,尤其涉及一种车位检测方法及其跟踪方法、车位检测装置、车位检测设备及计算机可读存储介质。
背景技术
随着社会的快速发展,私家车在大城市越来越多,这使得寻找空闲的停车位变的困难。一项研究表明,超过50%的司机无法在交通密集的地区寻找到的免费停车位。此外,在所有的汽车碰撞事故中,23%的事故发生在停车场。
在这种情况下,泊车辅助系统(park assist system,PAS)应运而生,它由三部分组成:目标位置标识、路径规划和泊车引导或路径跟踪。目标位置标识作为PAS系统的重要组成部分,其任务是准确地检测出车位,并且对车位进行跟踪,将车位信息实时传递给控制系统。
根据车位检测方法,PAS技术大致分为2类:一类采用超声波传感器、激光扫描仪、立体相机、短程雷达、结构光等,这类方法要求目标停车位前、后均停有障碍物车辆,局限性较大;另一类通过识别车位图像特征确定停车位,此方法应用于泊车的低速场景,可以通过多帧检测细化识别结果,是目前停车位检测技术的发展趋势,此外,随着人们对车辆安全的重视,无数的车辆都配备了全景式监控影像系统(around view monitor,AVM),可以360度对车辆周围进行监控。因此,周围视图图像中的空闲车位检测可以充分利用车辆上的现有设备,不增加额外的设备开支。
环视图像中车位检测需要满足实时性与鲁棒性。一系列基于标志点的车位检测方法被相继提出,但这些方法利用设计的特征来检测容易受光照变化影响的标记点。为了更加鲁棒的检测标记点,近些年基于深度卷积神经网络(DCNN)的方法渐渐走入人们的视野,由于DCNN强大的特征提取能力,与传统方法相比,DCNN显著提高了车位检测的准确性。但是,它不能对车位占用情况进行判断,而且后续推断出完整的车位步骤繁琐,不稳定,如DeepPS,DMPR-PS等,都需要结合角点的距离信息来获取车位的位置信息,无法确定车位是否被占用,VPS-Net将空闲车位检测分为目标检测和分类两步,首先通过目标检测确定车位入口线的位置,然后通过分类网络判断车位是否占用,但在实际环境非常复杂,分类网络往往表现不佳。此外,近年来也提出了一些基于语义分割的方法,如VH-HFCN和DFNet。虽然这些方法在地面标记分割方面有很好的表现,但是需要后期处理才能生成车位,耗时长且不准确。因此,如何提高车位检测以及车位占用情况的准确性和鲁棒性成为亟待解决的问题。
此外,若对车位进行跟踪,DBT(Detection-Based Tracking)跟踪方法是首选,但目前DBT的跟踪框架多采用目标矩形框的参数或矩形框对应的图片特征作为输入,跟踪框架输出的也是有关矩形框的参数,因为环视图的视角问题,车位或多或少都会发生变化,变成一般的平行四边形,使用传统的矩形框跟踪框架已不在适用,无法完成跟踪,在数据关联上也无法计算,需对现有技术进行改进。
发明内容
针对现有技术的上述问题,本发明提出了一种车位检测方法及其跟踪方法、车位检测装置、车位检测设备及计算机可读存储介质,能提高车位检测及跟踪的准确性和鲁棒性。
具体地,本发明提出了一种车位检测方法,包括步骤:
S1,获取车位的环视图片,提取所述环视图片的低层语义特征和高层语义特征,对所述低层语义特征和高层语义特征进行融合,获取融合特征;
S2,对所述融合特征进行解码操作,获取多组分支,包括角度回归分支、目标定位分支、目标类别预测分支以及目标检测置信度分支,所述角度回归分支用于预测所述车位的入口线的倾斜角度,所述目标定位分支用于预测所述车位的入口线和角点的位置,所述目标类别预测分支用于预测所述目标类别,所述目标类别包括入口线和角点,所述目标检测置信度分支用于判断当前是否有入口线和角点;
S3,根据所述分支进行推理以获取全部的检出车位。
根据本发明的一个实施例,步骤S3包括步骤:
S31,合并数据,将多组所述分支的数据合并为多组数据,多组数据包括入口线数据和角点数据,所述入口线数据包括基于目标定位分支获取的入口线位置及基于角度回归分支获取的入口线的倾斜角度,所述角点数据包括基于目标定位分支获取的角点位置;
S32,数据匹配,将每个入口线数据与全部角点数据分别进行匹配,获取所有匹配结果,该匹配过程包括根据入口线和角点之间的坐标位置关系判断所述角点是否属于该入口线,若是,判断所述入口线数据和角点数据匹配,将所述角点数据加入到该入口线数据中;
S33,数据推理,基于匹配结果推理出全部的检出车位,推理过程包括基于入口线数据及角点数据推理出包含该入口线的检出车位的其余角点的位置信息。
根据本发明的一个实施例,在步骤S2中获取的多组分支还包括占用分支,所述占用分支用于预测车位的占用状态;
在步骤S31中所述入口线数据和角点数据中包含基于占用分支获取的车位占用状态;
在步骤S3中还包括步骤S34,基于入口线数据的车位占用状态判断检出车位是否可用。
根据本发明的一个实施例,在步骤S32中,计算所述入口线和角点的交叉面积,若交叉面积占角点的面积大于预设值,则认为该角点属于该入口线,二者匹配。
根据本发明的一个实施例,步骤S33包括步骤:
S331,若所述入口线数据中仅包含一个角点数据,则根据车位的纹理信息推测属于该入口线的另一个角点的位置;若所述入口线数据中包含多个角点数据,则选取两个距离最远的角点作为属于该入口线的两个角点;
S332,基于入口线的倾斜角度及属于该入口线的两个角点位置,推理出检出车位的另外两个角点的位置信息。
根据本发明的一个实施例,在步骤S31中多组数据中的每一组数据包括数据特征{x,y,w,h,confidence,class,occupy,angle};
其中,x,y,w,h基于所述目标定位分支获取,用于表示车位的入口线或角点的位置,x,y表示入口线或角点的中心位置坐标,w,h分别表示入口线或角点对应区域的宽度和长度;
class表示基于目标类别预测分支判断目标类别,若目标类别为入口线,则该组数据为入口线数据,若目标类别为角点,则该组数据为角点数据;
confidence表示基于目标检测置信度分支及目标类别以获取当前位置存在入口线或角点的可能性;
occupy表示基于占用分支获取的车位占用状态;
angle表示基于角度分支获取的入口线的倾斜角度。
根据本发明的一个实施例,获取class的步骤包括:获取所述目标类别预测分支对应的两种目标类别的分数,经比较取分数值大的作为目标类别;
和/或,获取conf的步骤包括:将所述目标检测置信度分支输出的数值分别与目标类别预测分支输出的两种目标类别的分数相乘,取乘积数值较高的值与设定阈值比较,根据比较结果判断当前位置存在入口线或角点的可能性;
和/或,获取occupy的步骤包括:读取所述占用分支中的占用和空闲两类状态的分数,取较大值作为车位占用状态,并依据车位占用状态对occupy赋值。
本发明还提供了一种车位跟踪方法,采用前述的车位检测方法获取的检测结果,包括步骤:
T1,基于权利要求1至8任一所述的车位检测方法获取当前帧的车位集合O,基于前一帧更新的轨迹集合T对当前帧进行车位预测,获取当前帧的预测轨迹集合P;
T2,获取车位集合O和预测轨迹集合P的IOU匹配结果,包括步骤:
T21,基于当前帧检测结果获取的车位集合O以及当前帧的预测轨迹集合P建立所述车位集合O与预测轨迹集合P的IOU矩阵,包括如下步骤:
T211,找出所述车位集合O中的每一个所述车位Oi和所述预测轨迹集合P中的每一个预测轨迹Pn的位置重叠区域的交点,其中,车位Oi∈车位集合O;预测轨迹Pn∈P;
所述位置重叠区域为多边形,根据所述多边形的交点分别计算所述位置重叠区域的面积,所述位置重叠区域对应的车位Oi的面积以及预测轨迹Pn的面积,根据所述位置重叠区域面积、车位Oi面积以及预测轨迹Pn面积来计算IOU值;
T212,基于所述IOU值和车位Oi、预测轨迹Pn之间的对应关系,建立所述IOU矩阵;
T22,匹配判断,获取所述IOU矩阵中符合最优匹配的一组IOU值,该组IOU值所对应的所述车位和预测轨迹作为匹配结果输出;
T3,更新所述轨迹集合T,分别根据匹配结果中的所述车位Oi更新所述预测轨迹Pn所对应的轨迹Tm,获取更新后的轨迹集合P并转入步骤T1,其中,Tm∈轨迹集合T,所述轨迹Tm的更新包括用于表示该轨迹Tm在当前帧中的实际位置信息TL的更新、用于表示该轨迹占用状态的占用状态信息TC的更新、运动模型的更新以及用于表示该轨迹有效性的生命周期的更新。
本发明还提供了一种车位检测装置,用于实现前述的车位检测方法,包括:
图片模块,用于获取车位的环视图片;
提取模块,用于提取所述环视图片的低层语义特征和高层语义特征;
融合模块,用于对所述低层语义特征和高层语义特征进行融合,获取融合特征;
解码模块,用于对所述融合特征进行解码操作,获取多组分支,包括角度回归分支、目标定位分支、目标类别预测分支以及目标检测置信度分支,所述角度回归分支用于预测所述车位的入口线的倾斜角度,所述目标定位分支用于预测所述车位的入口线和角点的位置,所述目标类别预测分支用于预测所述目标类别,所述目标类别包括入口线和角点,所述目标检测置信度分支用于判断当前是否有入口线和角点;
推理模块,用于根据所述分支进行推理以获取全部的检出车位。
本发明还提供了一种车位检测设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现前述任一项所述车位检测方法的步骤。
本发明还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现前述任一项所述车位检测方法的步骤。
本发明提供的一种车位检测方法及其跟踪方法、车位检测装置、车位检测设备及计算机可读存储介质,是基于深度学习端到端的检测方法,通过环视图片提取特征、特征融合、解码操作来获取多组分支,根据多组分支推理以获取全部的检出车位,能提高车位检测的准确性和鲁棒性,在上述车位检测方法的基础之上,同时利用了步骤T2中的IOU匹配方法,使车位跟踪结果更准确且更稳定。
应当理解,本发明以上的一般性描述和以下的详细描述都是示例性和说明性的,并且旨在为如权利要求所述的本发明提供进一步的解释。
附图说明
包括附图是为提供对本发明进一步的解释,它们被收录并构成本申请的一部分,附图示出了本发明的实施例,并与本说明书一起起到解释本发明原理的作用。附图中:
图1示出了本发明一个实施例的车位检测方法的流程框图。
图2示出了本发明一个实施例的车位检测方法的示例图。
图3是图2的线条示意图。
图4示出了本发明一个实施例的车位检测方法的步骤S3的流程框图。
图5示出了根据车位检测方法所获取的检测结果的示意图。
图6示出了本发明一个实施例的车位跟踪方法的流程框图。
图7示出了本发明一个实施例的位置重叠的车位所表示的多边形的示意图。
图8示出了本发明一个实施例的车位检测装置的结构示意图。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整的描述。显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本申请及其应用或使用的任何限制。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本申请的范围。同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。在这里示出和讨论的所有示例中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它示例可以具有不同的值。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
在本申请的描述中,需要理解的是,方位词如“前、后、上、下、左、右”、“横向、竖向、垂直、水平”和“顶、底”等所指示的方位或位置关系通常是基于附图所示的方位或位置关系,仅是为了便于描述本申请和简化描述,在未作相反说明的情况下,这些方位词并不指示和暗示所指的装置或元件必须具有特定的方位或者以特定的方位构造和操作,因此不能理解为对本申请保护范围的限制;方位词“内、外”是指相对于各部件本身的轮廓的内外。
此外,需要说明的是,使用“第一”、“第二”等词语来限定零部件,仅仅是为了便于对相应零部件进行区别,如没有另行声明,上述词语并没有特殊含义,因此不能理解为对本申请保护范围的限制。此外,尽管本申请中所使用的术语是从公知公用的术语中选择的,但是本申请说明书中所提及的一些术语可能是申请人按他或她的判断来选择的,其详细含义在本文的描述的相关部分中说明。此外,要求不仅仅通过所使用的实际术语,而是还要通过每个术语所蕴含的意义来理解本申请。
图1示出了本发明一个实施例的车位检测方法的流程框图。如图所示,本发明提供了一种车位检测方法。该车位检测方法包括步骤:
S1,获取车位的环视图片,提取所述环视图片的低层语义特征和高层语义特征,对所述低层语义特征和高层语义特征进行融合,获取融合特征。
步骤S1中,可以通过AVM(Around View Monitor,全景式监控影像系统)获取车辆周围的环视图片。通过骨干网络提取环视图片的低层语义特征和高层语义特征,该过程包括将获取的环视图片输入骨干网络,提取环视图片的低层语义特征和高层语义特征,供后面的网络使用。其中,低层语义特征分辨率更高,包含更多位置、细节信息,对应的特征为的环视图片的位置、细节信息特征;高层语义特征具有更强的语义信息,但是分辨率很低,对细节的感知能力较差,对应的特征为语义信息特征。接着,对低层语义特征和高层语义特征进行融合,获取融合特征。获取融合特征的过程包括使用卷积、相加、上采样等方法将深层信息与浅层信息结合在一起,构建尺寸不同的特征金字塔结构,不但聚合了不同层之间的特征,而且保证特征的完整性和多样性。
一般的,在步骤S1中的骨干网络采用CSPDarknet(Cross-Stage-Partial-connections Darknet),特征融合的方法采用FPN(Feature Pyramid Network)、PANet(Path Aggregation Network)、NAS-FPN(Neural Architecture Search Feature PyramidNetwork)及BiFPN(Bi-directional Feature Pyramid Network)中的一种或多种组合。容易理解的,在深度学习的很多工作中(例如目标检测、图像分割),融合不同尺度的特征是提高性能的一个重要手段。由于低层语义特征分辨率更高,包含更多位置、细节信息,但是由于经过的卷积更少,其语义性更低,噪声更多。高层语义特征具有更强的语义信息,但是分辨率很低,对细节的感知能力较差。如何将两者高效融合,取其长处,弃之糟粕,是改善分割模型的关键。目前,常用的特征融合方法有FPN、PANet、NAS-FPN及BiFPN等,这些方法使用卷积、相加、上采样等将深层信息与浅层信息结合在一起,构建尺寸不同的特征金字塔结构。
S2,对融合特征进行解码操作,获取多组分支。该多组分支包括角度回归分支(Angle regress)、目标定位分支(Location)、目标类别预测分支(Object class)以及目标检测置信度分支(Object regress)。其中,角度回归分支用于预测车位的入口线的倾斜角度,所述目标定位分支用于预测所述车位的入口线和角点的位置,所述目标类别预测分支用于预测所述目标类别,所述目标类别包括入口线和角点,所述目标检测置信度分支用于判断当前是否有入口线和角点。
较佳地,步骤S2包括使用卷积层对融合特征进行二次通道变换并提取各所述分支对应的特征。其中,各卷积层中的参数通过多次训练学习产生。
较佳地,步骤S2包括步骤:
S21,使用卷积层对融合特征进行通道变换,将通道数量统一;
S22,输入卷积层以提取各分支对应的特征;
S23,使用卷积层进行通道变换,以获取各分支对应的通道数量。
图2示出了本发明一个实施例的车位检测方法的示例图。图3是图2的线条示意图。如图3所示,黑色箭头即为车位入口线的倾斜方向,具有一倾斜角度。该倾斜角度可以在环视图图像坐标系中的任意方向为参考坐标轴,根据自定义的顺时针或逆时针的方向确定该角度值。目标定位分支用于预测车位的入口线和角点的位置,该位置通常包含入口线和角点的坐标位置信息。目标类别预测分支用于预测目标类别,类别包括入口线和角点,点P1、P2、P3、P4为车位的四个角点,虚线框301表示的是入口线的位置,实线框302、303分别表示角点P1和角点P2的位置。目标检测置信度分支用于判断当前是否有入口线和角点。
S3,根据分支进行推理以获取全部的检出车位。检出车位至少包含车位的位置信息。
图4示出了本发明一个实施例的车位检测方法的步骤S3的流程框图。如图所示,较佳地,步骤S3包括步骤:
S31,合并数据,将多组分支的数据合并为多组数据。多组数据包括入口线数据和角点数据,入口线数据包括基于目标定位分支获取的入口线位置及基于角度回归分支获取的入口线的倾斜角度,角点数据包括基于目标定位分支获取的角点位置;
S32,数据匹配,将每个入口线数据与全部角点数据分别进行匹配,获取所有匹配结果,该匹配过程包括根据入口线和角点之间的坐标位置关系判断角点是否属于该入口线,若是,判断入口线数据和角点数据匹配,将角点数据加入到该入口线数据中;
S33,数据推理,基于匹配结果推理出全部的检出车位,推理过程包括基于入口线数据及角点数据推理出包含该入口线的检出车位的其余角点的位置信息。
基于上述步骤,可实现空闲车位的位置检测,即基于输入的入口线数据和角点数据进行训练后,完成训练的模型基于获取车位的环视图片,可输出当前车辆周围的空闲车位。图5示出了根据车位检测方法所获取的检测结果的示意图。如图所示,车位检测方法输出图中的4个检出车位①~④,以用于后续车位跟踪及其他应用。
此外,在步骤S2中获取的多组分支还包括占用分支,占用分支用于预测车位的占用状态,在步骤S31中入口线数据和角点数据中包含基于占用分支获取的车位占用状态;在步骤S3中还包括步骤S34,基于车位占用状态判断检出车位是否可用。这样设置,进一步通过将目标检测、角度回归、空闲车位判断三者结合在一起,并且实现端到端的训练,可以准确实时地检测出车位的位置、方向及占用情况。即基于输入的入口线数据、角点数据以及占用状态进行进行训练后,完成训练的模型基于获取车位的环视图片,可输出当前车辆周围的车位以及车位的占位状态,即对于图5中的6个车位,输出结果为识别出4个空闲车位①~④与2个占用车位⑤⑥。
以下以多组分支还包括占用分支为例对上述步骤S31合并数据进行具体说明。
较佳地,在步骤S31中将各分支的数据合并为多组数据,每一组数据包括数据特征{x,y,w,h,confidence,class,occupy,angle};
其中,x,y,w,h基于目标定位分支获取,用于表示车位的入口线或角点的位置,x,y表示入口线或角点的中心位置坐标,w,h分别表示入口线或角点对应区域的宽度和长度;
class表示基于目标类别预测分支判断目标类别,若目标类别为入口线,则该组数据为入口线数据,若目标类别为角点,则该组数据为角点数据;
confidence表示基于目标检测置信度分支及目标类别以获取当前位置存在入口线或角点的可能性;
occupy表示基于占用分支获取的车位占用状态;
angle表示基于角度分支获取的入口线的倾斜角度。
较佳地,class是通过对目标类别预测分支的目标进行打分和比较来获取。具体来说,获取目标类别预测分支对应的两个目标类别的分数,比较两个目标类别的分数高低,取分数高的类别作为本次的目标类别。举例来说,目标类别预测分支分别输出当前目标分为入口线和角点两个类别的分数,若当前输出的入口线分数为0.2,角点分数为0.8时,比较二者分数高低,取较高的分数对应类别作为目标类别,因为角点分数大于入口线分数,则判断当前目标类别为角点;
confidence是通过目标检测置信度分支与目标类别预测分支来获取。具体来说,将目标检测置信度分支输出的数值分别与目标类别预测分支输出的两个类别的分数相乘,然后输出乘积数值较高的值,并将该输出与预先设置的阈值比较,根据比较结果判断当前是否有车位。举例来说,设定阈值为0.5,目标检测置信度分支输出的数值为0.8,将0.8与目标类别的两个类别分数,入口线分数0.2、角点分数0.8乘积后,输出较大值0.64,进一步比较0.64和阈值0.5,因为0.64大于0.5,则最终判断当前有目标,即当前位置存在角点或入口线。
occupy是通过占用分支来获取。occupy包括0和1两种状态,其中0表示空闲,1表示占用。对应的,occupy的判断包括:读取占用分支输出的分数,输出包括2类,一种代表占用,一种表示空闲,比较两类分数的大小,取较大值作为车位占用状态的输出,并依据车位占用状态对occupy赋值。举例来说,若占用分支输出包括占用分数0.2,空闲分数0.8时,比较空闲和占用大小,取较大的空闲分数0.8作为车位状态,即为空闲状态,则occupy的取值为0。
angle通过角度回归分支来获取,即直接读取角度回归分支的数据。
较佳地,在步骤S32中,计算入口线和角点的交叉面积,若交叉面积占角点的面积大于预设值,则认为该角点属于该入口线,二者匹配。参考图3,如前所述,点P1、P2为检出车位的两个角点,虚线框301表示的是入口线的位置,实线框302、303分别表示角点P1和角点P2的位置。预设值设定为0.8,角点P1实线框302的面积与入口线虚线框301形成交叉面积,若该交叉面积与角点P1实线框302的面积之比大于预设值0.8,则认为角点P1属于该入口线。角点P2实线框303的面积与入口线虚线框301的面积完全重叠,其交叉面积与角点P2实线框303的面积之比等于1,大于预设值0.8,则角点P2和交点P1属于同一入口线。
较佳地,步骤S33包括步骤:
S331,若入口线数据中仅包含一个角点数据,则根据车位的纹理信息推测属于该入口线的另一个角点的位置;仍然参考图3,若入口线数据仅仅匹配到一个交点数据,即入口线仅包含角点P1,则根据车位的纹理信息推测属于该入口线的另一个角点P2的位置。若无法推测到另一个角点位置,则不能作为检出车位输出。
若入口线数据中包含多个角点数据,则选取两个距离最远的角点作为属于该入口线的两个角点;参考图3,若入口线包含三个角点P1、P2和P5,则选取两个距离最远的角点P1和P2作为属于该入口线的两个角点。
S332,基于入口线的倾斜角度及属于该入口线的两个角点位置,推理出检出车位的另外两个角点的位置信息。参考图3,基于入口线的倾斜角度及属于该入口线的角点P1、P2推理出另外两个角点P3和P4的位置信息,从而获取该检出车位的完整位置信息。
图6示出了本发明一个实施例的车位跟踪方法的流程框图。如图所示,本发明还提供了一种车位跟踪方法。该跟踪方法采用前述的车位检测方法获取的检测结果,该跟踪方法包括步骤:
T1,基于前述的车位检测方法获取当前帧的车位集合O,基于前一帧更新的轨迹集合T对当前帧进行车位预测,获取当前帧的预测轨迹集合P;
T2,获取车位集合O和预测轨迹集合P的IOU匹配结果,包括步骤:
T21,基于当前帧检测结果获取的车位集合O以及当前帧的预测轨迹集合P建立车位集合O与预测轨迹集合P的IOU矩阵,包括如下步骤:
T211,找出车位集合O中的每一个车位Oi和预测轨迹集合P中的每一个预测轨迹Pn的位置重叠区域的交点,其中,车位Oi∈车位集合O;预测轨迹Pn∈P;
位置重叠区域为多边形,根据多边形的交点分别计算位置重叠区域的面积,位置重叠区域对应的车位Oi的面积以及预测轨迹Pn的面积,根据位置重叠区域面积、车位Oi面积以及预测轨迹Pn面积来计算IOU值;
T212,基于IOU值和车位Oi、预测轨迹Pn之间的对应关系,建立IOU矩阵;
T22,匹配判断,获取IOU矩阵中符合最优匹配的一组IOU值,该组IOU值所对应的车位和预测轨迹作为匹配结果输出;
T3,更新轨迹集合T,分别根据匹配结果中的车位Oi更新预测轨迹Pn所对应的轨迹Tm,获取更新后的轨迹集合P并转入步骤T1,其中,Tm∈轨迹集合T,轨迹Tm的更新包括用于表示该轨迹Tm在当前帧中的实际位置信息TL的更新、用于表示该轨迹占用状态的占用状态信息TC的更新、运动模型的更新以及用于表示该轨迹有效性的生命周期的更新。
本发明提供的一种车位跟踪方法,首先基于前述车位检测方法获取当前帧的车位集合O,然后利用了步骤T2中的IOU匹配方法,该匹配方法采用多边形而非矩形来计算IOU值,根据所建立的IOU矩阵获取车位集合O和预测轨迹集合P的最优匹配结果,通过匹配结果来更新预测轨迹Pn所对应的轨迹Tm。无论车位所表示的形状如何变化,其车位位置信息不会发生瞬变,使得车位跟踪预测的结果更精准且更稳定。
图7示出了本发明一个实施例的位置重叠的车位所表示的多边形的示意图。如图所示,设当前帧的车位集合O中某个车位Oi的车位位置所表示的多边形S1的四个顶点为t1、t2、m3和t4,某个预测轨迹Pn所表示的多边形S2的四个顶点为m1、n2、n3和n4。多边形S1和S2位置重叠,形成交点m2、m4。多边形S1和多边形S2位置重叠形成的多边形S3的四个顶点为m1、m2、m3和m4。
在步骤T211中,找出多边形S1和S2的交点为m2、m4,获得位置重叠形成的多边形S3的四个顶点为m1、m2、m3和m4。计算多边形S1的面积为area1、多边形S2的面积为area2,以及位置重叠的多边形S3的面积为area3。计算IOU=area3/(area1+area2-area3)。
本发明还提供了一种车位检测装置,用于实现前述的车位检测方法。图8示出了本发明一个实施例的车位检测装置的结构示意图。如图所示,车位检测装置800主要包括图片模块801、提取模块802、融合模块803、解码模块804和推理模块805。
其中,图片模块801用于获取车位的环视图片。
提取模块802用于提取环视图片的低层语义特征和高层语义特征。
融合模块803用于对低层语义特征和高层语义特征进行融合,获取融合特征。
解码模块804用于对融合特征进行解码操作,获取多组分支,包括角度回归分支、目标定位分支、目标类别预测分支以及目标检测置信度分支,所述角度回归分支用于预测所述车位的入口线的倾斜角度,所述目标定位分支用于预测所述车位的入口线和角点的位置,所述目标类别预测分支用于预测所述目标类别,所述目标类别包括入口线和角点,所述目标检测置信度分支用于判断当前是否有入口线和角点。
推理模块805用于根据分支进行推理以获取全部的检出车位。
本发明还提供了一种车位检测设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现前述任一项车位检测方法的步骤。
本发明还提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现前述任一项车位检测方法的步骤。
其中,车位检测装置、车位检测设备、计算机可读存储介质的具体实现方式和技术效果均可参见上述本发明所提供的车位检测方法的实施例,在此不再赘述。
本领域技术人员将进一步领会,结合本文中所公开的实施例来描述的各种解说性逻辑板块、模块、电路、和算法步骤可实现为电子硬件、计算机软件、或这两者的组合。为清楚地解说硬件与软件的这一可互换性,各种解说性组件、框、模块、电路、和步骤在上面是以其功能性的形式作一般化描述的。此类功能性是被实现为硬件还是软件取决于具体应用和施加于整体系统的设计约束。技术人员对于每种特定应用可用不同的方式来实现所描述的功能性,但这样的实现决策不应被解读成导致脱离了本发明的范围。
结合本文所公开的实施例描述的各种解说性逻辑模块、和电路可用通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其它可编程逻辑器件、分立的门或晶体管逻辑、分立的硬件组件、或其设计成执行本文所描述功能的任何组合来实现或执行。通用处理器可以是微处理器,但在替换方案中,该处理器可以是任何常规的处理器、控制器、微控制器、或状态机。处理器还可以被实现为计算设备的组合,例如DSP与微处理器的组合、多个微处理器、与DSP核心协作的一个或多个微处理器、或任何其他此类配置。
结合本文中公开的实施例描述的方法或算法的步骤可直接在硬件中、在由处理器执行的软件模块中、或在这两者的组合中体现。软件模块可驻留在RAM存储器、闪存、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、可移动盘、CD-ROM、或本领域中所知的任何其他形式的存储介质中。示例性存储介质耦合到处理器以使得该处理器能从/向该存储介质读取和写入信息。在替换方案中,存储介质可以被整合到处理器。处理器和存储介质可驻留在ASIC中。ASIC可驻留在用户终端中。在替换方案中,处理器和存储介质可作为分立组件驻留在用户终端中。
在一个或多个示例性实施例中,所描述的功能可在硬件、软件、固件或其任何组合中实现。如果在软件中实现为计算机程序产品,则各功能可以作为一条或更多条指令或代码存储在计算机可读介质上或藉其进行传送。计算机可读介质包括计算机存储介质和通信介质两者,其包括促成计算机程序从一地向另一地转移的任何介质。存储介质可以是能被计算机访问的任何可用介质。作为示例而非限定,这样的计算机可读介质可包括RAM、ROM、EEPROM、CD-ROM或其它光盘存储、磁盘存储或其它磁存储设备、或能被用来携带或存储指令或数据结构形式的合意程序代码且能被计算机访问的任何其它介质。任何连接也被正当地称为计算机可读介质。例如,如果软件是使用同轴电缆、光纤电缆、双绞线、数字订户线(DSL)、或诸如红外、无线电、以及微波之类的无线技术从web网站、服务器、或其它远程源传送而来,则该同轴电缆、光纤电缆、双绞线、DSL、或诸如红外、无线电、以及微波之类的无线技术就被包括在介质的定义之中。如本文中所使用的盘(disk)和碟(disc)包括压缩碟(CD)、激光碟、光碟、数字多用碟(DVD)、软盘和蓝光碟,其中盘(disk)往往以磁的方式再现数据,而碟(disc)用激光以光学方式再现数据。上述的组合也应被包括在计算机可读介质的范围内。
本领域技术人员可显见,可对本发明的上述示例性实施例进行各种修改和变型而不偏离本发明的精神和范围。因此,旨在使本发明覆盖落在所附权利要求书及其等效技术方案范围内的对本发明的修改和变型。
Claims (11)
1.一种车位检测方法,包括步骤:
S1,获取车位的环视图片,提取所述环视图片的低层语义特征和高层语义特征,对所述低层语义特征和高层语义特征进行融合,获取融合特征;
S2,对所述融合特征进行解码操作,获取多组分支,包括角度回归分支、目标定位分支、目标类别预测分支以及目标检测置信度分支,所述角度回归分支用于预测所述车位的入口线的倾斜角度,所述目标定位分支用于预测所述车位的入口线和角点的位置,所述目标类别预测分支用于预测所述目标类别,所述目标类别包括入口线和角点,所述目标检测置信度分支用于判断当前是否有入口线和角点;
S3,根据所述分支进行推理以获取全部的检出车位。
2.如权利要求1所述的车位检测方法,其特征在于,步骤S3包括步骤:
S31,合并数据,将多组所述分支的数据合并为多组数据,多组数据包括入口线数据和角点数据,所述入口线数据包括基于目标定位分支获取的入口线位置及基于角度回归分支获取的入口线的倾斜角度,所述角点数据包括基于目标定位分支获取的角点位置;
S32,数据匹配,将每个入口线数据与全部角点数据分别进行匹配,获取所有匹配结果,该匹配过程包括根据入口线和角点之间的坐标位置关系判断所述角点是否属于该入口线,若是,判断所述入口线数据和角点数据匹配,将所述角点数据加入到该入口线数据中;
S33,数据推理,基于匹配结果推理出全部的检出车位,推理过程包括基于入口线数据及角点数据推理出包含该入口线的检出车位的其余角点的位置信息。
3.如权利要求2所述的车位检测方法,其特征在于,在步骤S2中获取的多组分支还包括占用分支,所述占用分支用于预测车位的占用状态;
在步骤S31中所述入口线数据和角点数据中包含基于占用分支获取的车位占用状态;
在步骤S3中还包括步骤S34,基于入口线数据的车位占用状态判断所述检出车位是否可用。
4.如权利要求2所述的车位检测方法,其特征在于,在步骤S32中,计算所述入口线和角点的交叉面积,若交叉面积占角点的面积大于预设值,则认为该角点属于该入口线,二者匹配。
5.如权利要求2所述的车位检测方法,其特征在于,步骤S33包括步骤:
S331,若所述入口线数据中仅包含一个角点数据,则根据车位的纹理信息推测属于该入口线的另一个角点的位置;若所述入口线数据中包含多个角点数据,则选取两个距离最远的角点作为属于该入口线的两个角点;
S332,基于入口线的倾斜角度及属于该入口线的两个角点位置,推理出检出车位的另外两个角点的位置信息。
6.如权利要求4所述的车位检测方法,其特征在于,在步骤S31中多组数据中的每一组数据包括数据特征{x,y,w,h,confidence,class,occupy,angle};
其中,x,y,w,h基于所述目标定位分支获取,用于表示车位的入口线或角点的位置,x,y表示入口线或角点的中心位置坐标,w,h分别表示入口线或角点对应区域的宽度和长度;
class表示基于目标类别预测分支判断目标类别,若目标类别为入口线,则该组数据为入口线数据,若目标类别为角点,则该组数据为角点数据;
conf表示基于目标检测置信度分支及目标类别以获取当前位置存在入口线或角点的可能性;
occupy表示基于占用分支获取的车位占用状态;
angle表示基于角度分支获取的入口线的倾斜角度。
7.如权利要求6所述的车位检测方法,其特征在于,获取class的步骤包括:获取所述目标类别预测分支对应的两种目标类别的分数,经比较取分数值大的作为目标类别;
和/或,获取confidence的步骤包括:将所述目标检测置信度分支输出的数值分别与目标类别预测分支输出的两种目标类别的分数相乘,取乘积数值较高的值与设定阈值比较,根据比较结果判断当前位置存在入口线或角点的可能性;
和/或,获取occupy的步骤包括:读取所述占用分支中的占用和空闲两类状态的分数,取较大值作为车位占用状态,并依据车位占用状态对occupy赋值。
8.一种车位跟踪方法,采用如权利要求1至7所述的车位检测方法获取的检测结果,其特征在于,包括步骤:
T1,基于检测结果获取当前帧的车位集合O,基于前一帧更新的轨迹集合T对当前帧进行车位预测,获取当前帧的预测轨迹集合P;
T2,获取车位集合O和预测轨迹集合P的IOU匹配结果,包括步骤:
T21,基于当前帧检测结果获取的车位集合O以及当前帧的预测轨迹集合P建立所述车位集合O与预测轨迹集合P的IOU矩阵,包括如下步骤:
T211,找出所述车位集合O中的每一个所述车位Oi和所述预测轨迹集合P中的每一个预测轨迹Pn的位置重叠区域的交点,其中,车位Oi∈车位集合O;预测轨迹Pn∈P;
所述位置重叠区域为多边形,根据所述多边形的交点分别计算所述位置重叠区域的面积,所述位置重叠区域对应的车位Oi的面积以及预测轨迹Pn的面积,根据所述位置重叠区域面积、车位Oi面积以及预测轨迹Pn面积来计算IOU值;
T212,基于所述IOU值和车位Oi、预测轨迹Pn之间的对应关系,建立所述IOU矩阵;
T22,匹配判断,获取所述IOU矩阵中符合最优匹配的一组IOU值,该组IOU值所对应的所述车位和预测轨迹作为匹配结果输出;
T3,更新所述轨迹集合T,分别根据匹配结果中的所述车位Oi更新所述预测轨迹Pn所对应的轨迹Tm,获取更新后的轨迹集合P并转入步骤T1,其中,Tm∈轨迹集合T,所述轨迹Tm的更新包括用于表示该轨迹Tm在当前帧中的实际位置信息TL的更新、用于表示该轨迹占用状态的占用状态信息TC的更新、运动模型的更新以及用于表示该轨迹有效性的生命周期的更新。
9.一种车位检测装置,用于实现权利要求1所述的车位检测方法,其特征在于,包括:
图片模块,用于获取车位的环视图片;
提取模块,用于提取所述环视图片的低层语义特征和高层语义特征;
融合模块,用于对所述低层语义特征和高层语义特征进行融合,获取融合特征;
解码模块,用于对所述融合特征进行解码操作,获取多组分支,包括角度回归分支、目标定位分支、目标类别预测分支以及目标检测置信度分支,所述角度回归分支用于预测所述车位的入口线的倾斜角度,所述目标定位分支用于预测所述车位的入口线和角点的位置,所述目标类别预测分支用于预测所述目标类别,所述目标类别包括入口线和角点,所述目标检测置信度分支用于判断当前是否有入口线和角点;
推理模块,用于根据所述分支进行推理以获取全部的检出车位。
10.一种车位检测设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1-7中任一项所述车位检测方法的步骤。
11.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-7中任一项所述车位检测方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211012090.7A CN115346193A (zh) | 2022-08-23 | 2022-08-23 | 一种车位检测方法及其跟踪方法、车位检测装置、车位检测设备及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211012090.7A CN115346193A (zh) | 2022-08-23 | 2022-08-23 | 一种车位检测方法及其跟踪方法、车位检测装置、车位检测设备及计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115346193A true CN115346193A (zh) | 2022-11-15 |
Family
ID=83953315
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211012090.7A Pending CN115346193A (zh) | 2022-08-23 | 2022-08-23 | 一种车位检测方法及其跟踪方法、车位检测装置、车位检测设备及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115346193A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116189137A (zh) * | 2022-12-07 | 2023-05-30 | 深圳市速腾聚创科技有限公司 | 车位检测方法、电子设备及计算机可读存储介质 |
WO2024109079A1 (zh) * | 2022-11-22 | 2024-05-30 | 华为技术有限公司 | 一种车位开口检测方法及装置 |
-
2022
- 2022-08-23 CN CN202211012090.7A patent/CN115346193A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024109079A1 (zh) * | 2022-11-22 | 2024-05-30 | 华为技术有限公司 | 一种车位开口检测方法及装置 |
CN116189137A (zh) * | 2022-12-07 | 2023-05-30 | 深圳市速腾聚创科技有限公司 | 车位检测方法、电子设备及计算机可读存储介质 |
CN116189137B (zh) * | 2022-12-07 | 2023-08-04 | 深圳市速腾聚创科技有限公司 | 车位检测方法、电子设备及计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111709343B (zh) | 一种点云检测方法、装置、计算机设备和存储介质 | |
US20230144209A1 (en) | Lane line detection method and related device | |
JP3522317B2 (ja) | 車輌用走行案内装置 | |
CN112180373B (zh) | 一种多传感器融合的智能泊车系统和方法 | |
CN115346193A (zh) | 一种车位检测方法及其跟踪方法、车位检测装置、车位检测设备及计算机可读存储介质 | |
CN110497901A (zh) | 一种基于机器人vslam技术的泊车位自动搜索方法和系统 | |
Eising et al. | Near-field perception for low-speed vehicle automation using surround-view fisheye cameras | |
CN103770704A (zh) | 用于识别车辆的停车位标志线的系统和方法 | |
Jang et al. | Semantic segmentation-based parking space detection with standalone around view monitoring system | |
CN112967283A (zh) | 基于双目摄像头的目标识别方法、系统、设备及存储介质 | |
CN110992424B (zh) | 基于双目视觉的定位方法和系统 | |
CN111295666A (zh) | 一种车道线检测方法、装置、控制设备及存储介质 | |
Choi et al. | Methods to detect road features for video-based in-vehicle navigation systems | |
CN114969221A (zh) | 一种更新地图的方法及相关设备 | |
JP2023529239A (ja) | マルチモーダルエゴセントリック将来予測のためのコンピュータ実装方法 | |
CN117372991A (zh) | 基于多视角多模态融合的自动驾驶方法及系统 | |
CN116664498A (zh) | 车位检测模型的训练方法、车位检测方法、装置和设备 | |
CN111971725A (zh) | 用于确定车辆的变道说明的方法、计算机可读存储介质以及车辆 | |
JP3762406B2 (ja) | 車輌用走行案内装置 | |
Ma et al. | A multifeature-assisted road and vehicle detection method based on monocular depth estimation and refined UV disparity mapping | |
Rajasekaran et al. | Artificial Intelligence in Autonomous Vehicles—A Survey of Trends and Challenges | |
US12012102B2 (en) | Method for determining a lane change indication of a vehicle | |
CN114141055B (zh) | 一种智能泊车系统的泊车位检测装置和检测方法 | |
Li et al. | Segm: A novel semantic evidential grid map by fusing multiple sensors | |
US20230386231A1 (en) | Method for detecting three-dimensional objects in relation to autonomous driving and electronic device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |