CN117292140B - 点云数据的处理方法、装置、车辆及存储介质 - Google Patents

点云数据的处理方法、装置、车辆及存储介质 Download PDF

Info

Publication number
CN117292140B
CN117292140B CN202311345506.1A CN202311345506A CN117292140B CN 117292140 B CN117292140 B CN 117292140B CN 202311345506 A CN202311345506 A CN 202311345506A CN 117292140 B CN117292140 B CN 117292140B
Authority
CN
China
Prior art keywords
target
bev
point cloud
frame
cloud data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311345506.1A
Other languages
English (en)
Other versions
CN117292140A (zh
Inventor
刘长江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiaomi Automobile Technology Co Ltd
Original Assignee
Xiaomi Automobile Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiaomi Automobile Technology Co Ltd filed Critical Xiaomi Automobile Technology Co Ltd
Priority to CN202311345506.1A priority Critical patent/CN117292140B/zh
Publication of CN117292140A publication Critical patent/CN117292140A/zh
Application granted granted Critical
Publication of CN117292140B publication Critical patent/CN117292140B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Abstract

本公开是关于一种点云数据的处理方法、装置、车辆及存储介质。其中,该方法包括:获取多帧连续点云数据;建立鸟瞰图BEV网格;基于所述多帧连续点云数据进行聚类跟踪,获取所述多帧之中任一帧中第一聚类目标的目标特征;将所述第一聚类目标的目标特征映射至所述BEV网格,获得第一BEV特征矩阵;将所述多帧之中任一帧的第一点云数据映射至所述BEV网格,获取第二BEV特征矩阵;将所述第一BEV特征矩阵和所述第二BEV特征矩阵进行矩阵聚合,获得所述多帧之中任一帧的BEV聚合特征矩阵。通过本公开的技术方案,能够获取更为准确和多样的点云数据的BEV特征,从而增强自动驾驶系统的感知能力。

Description

点云数据的处理方法、装置、车辆及存储介质
技术领域
本公开涉及自动驾驶技术领域,尤其涉及一种点云数据的处理方法、装置、车辆及存储介质。
背景技术
相关技术中,需要对车辆传感器获取的点云数据进行特征提取获取BEV(Bird’sEye View,鸟瞰图)特征,以基于BEV特征进行目标检测。但点云数据易受电磁散射影响,导致相邻帧的点云数据之间可能存在明显的差异,且未经处理的原始点云数据中存在较多噪点,对提取得到的点云数据的BEV特征也会造成影响。
发明内容
为克服相关技术中存在的问题,本公开提供一种点云数据的处理方法、装置、车辆及存储介质。
根据本公开实施例的第一方面,提供一种点云数据的处理方法,包括:获取多帧连续点云数据;建立鸟瞰图BEV网格;基于所述多帧连续点云数据进行聚类跟踪,获取所述多帧之中任一帧中第一聚类目标的目标特征;将所述第一聚类目标的目标特征映射至所述BEV网格,获得第一BEV特征矩阵;将所述多帧之中任一帧的第一点云数据映射至所述BEV网格,获取第二BEV特征矩阵;将所述第一BEV特征矩阵和所述第二BEV特征矩阵进行矩阵聚合,获得所述多帧之中任一帧的BEV聚合特征矩阵。
在一种实现方式中,所述基于所述多帧连续点云数据进行聚类跟踪,获取所述多帧之中任一帧中第一聚类目标的目标特征,包括:分别对每帧所述点云数据进行聚类,获取每帧所述点云数据中的聚类目标;将所述多帧连续点云数据中的聚类目标进行匹配,获取所述多帧连续点云数据中的聚类目标之间的匹配关系;基于所述匹配关系对所述多帧之中任一帧中的第一聚类目标进行目标跟踪,获取所述第一聚类目标的目标特征。
在一种实现方式中,所述将所述第一聚类目标的目标特征映射至所述BEV网格,获得第一BEV特征矩阵,包括:基于所述第一聚类目标的目标特征,从所述BEV网格中确定所述第一聚类目标所处的第一目标网格;将所述第一聚类目标的目标特征映射至所述第一目标网格,生成所述第一BEV特征矩阵。
在一种可选地实现方式中,所述目标特征包括以下至少一项:所述第一聚类目标的中心点;所述第一聚类目标的朝向角;所述第一聚类目标的长度;所述第一聚类目标的宽度;所述第一聚类目标的高度;所述第一聚类目标的目标类型;所述第一聚类目标的生命周期;所述第一聚类目标的存在性概率;所述第一聚类目标的二维速度矢量;所述第一聚类目标的运动状态;所述第一聚类目标的可穿越类型;所述第一聚类目标的镜像概率。
可选地,所述基于所述第一聚类目标的目标特征,从所述BEV网格中确定所述第一聚类目标所处的第一目标网格,包括:基于所述第一聚类目标的中心点、所述第一聚类目标的朝向角、所述第一聚类目标的长度和所述第一聚类目标的宽度,在所述BEV网格所在平面上生成所述第一聚类目标对应的目标框;获取所述目标框与所述BEV网格中每个网格的重叠率;将所述BEV网格中所述重叠率大于或等于重叠率阈值的网格作为所述第一目标网格。
可选地,所述方法还包括:将所述第一目标网格对应的重叠率作为所述第一目标网格的网格特征。
在一种实现方式中,所述将所述多帧之中任一帧的第一点云数据映射至所述BEV网格,获取第二BEV特征矩阵,包括:基于所述第一点云数据,确定所述第一点云数据对应的雷达点在所述BEV网格中所处的第二目标网格;对所述第一点云数据进行增强重组,获取所述雷达点的雷达点特征;基于所述雷达点特征进行特征编码,获取点云特征;将所述点云特征映射至所述第二目标网格,获取所述第二BEV特征矩阵。
根据本公开实施例的第二方面,提供一种点云数据的处理装置,包括:获取模块,用于获取多帧连续点云数据;第一处理模块,用于建立鸟瞰图BEV网格;第二处理模块,用于基于所述多帧连续点云数据进行聚类跟踪,获取所述多帧之中任一帧中第一聚类目标的目标特征;第三处理模块,用于将所述第一聚类目标的目标特征映射至所述BEV网格,获得第一BEV特征矩阵;第四处理模块,用于将所述多帧之中任一帧的第一点云数据映射至所述BEV网格,获取第二BEV特征矩阵;特征聚合模块,用于将所述第一BEV特征矩阵和所述第二BEV特征矩阵进行矩阵聚合,获得所述多帧之中任一帧的BEV聚合特征矩阵。
在一种实现方式中,所述第二处理模块具体用于:分别对每帧所述点云数据进行聚类,获取每帧所述点云数据中的聚类目标;将所述多帧连续点云数据中的聚类目标进行匹配,获取所述多帧连续点云数据中的聚类目标之间的匹配关系;基于所述匹配关系对所述多帧之中任一帧中的第一聚类目标进行目标跟踪,获取所述第一聚类目标的目标特征。
在一种实现方式中,所述第三处理模块具体用于:基于所述第一聚类目标的目标特征,从所述BEV网格中确定所述第一聚类目标所处的第一目标网格;将所述第一聚类目标的目标特征映射至所述第一目标网格,生成所述第一BEV特征矩阵。
在一种可选地实现方式中,所述目标特征包括以下至少一项:所述第一聚类目标的中心点;所述第一聚类目标的朝向角;所述第一聚类目标的长度;所述第一聚类目标的宽度;所述第一聚类目标的高度;所述第一聚类目标的目标类型;所述第一聚类目标的生命周期;所述第一聚类目标的存在性概率;所述第一聚类目标的二维速度矢量;所述第一聚类目标的运动状态;所述第一聚类目标的可穿越类型;所述第一聚类目标的镜像概率。
可选地,所述第三处理模块具体用于:基于所述第一聚类目标的中心点、所述第一聚类目标的朝向角、所述第一聚类目标的长度和所述第一聚类目标的宽度,在所述BEV网格所在平面上生成所述第一聚类目标对应的目标框;获取所述目标框与所述BEV网格中每个网格的重叠率;将所述BEV网格中所述重叠率大于或等于重叠率阈值的网格作为所述第一目标网格。
可选地,所述第三处理模块还用于:将所述第一目标网格对应的重叠率作为所述第一目标网格的网格特征。
在一种实现方式中,所述第四处理模块具体用于:基于所述第一点云数据,确定所述第一点云数据对应的雷达点在所述BEV网格中所处的第二目标网格;对所述第一点云数据进行增强重组,获取所述雷达点的雷达点特征;基于所述雷达点特征进行特征编码,获取点云特征;将所述点云特征映射至所述第二目标网格,获取所述第二BEV特征矩阵。
根据本公开实施例的第三方面,提供一种车辆,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如前述第一方面所述的方法。
根据本公开实施例的第四方面,提供一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行如前述第一方面所述的方法。
根据本公开实施例的第五方面,本公开提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现第一方面所述方法的步骤。
本公开的实施例提供的技术方案可以包括以下有益效果:可以对多帧连续点云数据进行聚类跟踪,获取任一帧中聚类目标的目标特征,并将该目标特征映射至BEV网格以获取第一BEV特征矩阵,并对点云数据进行特征提取,以将提取的点云特征映射至BEV网格,获取第二BEV特征矩阵。以将第一BEV特征矩阵和第二BEV特征矩阵进行聚合,得到BEV聚合特征矩阵。能够获取更为准确和多样的点云数据的BEV特征,从而增强自动驾驶系统的感知能力。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
图1是根据一示例性实施例示出的一种点云数据的处理方法的流程图。
图2是根据一示例性实施例示出的另一种点云数据的处理方法的流程图。
图3是根据一示例性实施例示出的又一种点云数据的处理方法的流程图。
图4是根据一示例性实施例示出的一种第一目标网格的确定方法的示意图。
图5是根据一示例性实施例示出的又一种点云数据的处理方法的流程图。
图6是根据一示例性实施例示出的点云数据的处理方案的示意图。
图7是根据一示例性实施例示出的一种点云数据的处理装置的框图。
图8是根据一示例性实施例示出的一种车辆的示意图。
图9是根据一示例性实施例示出的一种车辆的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
本公开中涉及的第一、第二等各种数字编号仅为描述方便进行的区分,并不用来限制本公开实施例的范围,也不表示先后顺序。
图1是根据一示例性实施例示出的一种点云数据的处理方法的流程图,如图1所示,该方法可以包括但不限于以下步骤。
步骤S101:获取多帧连续点云数据。
举例而言,获取车辆的激光雷达在一段连续时间内采集的多帧连续点云数据。
步骤S102:建立BEV(Bird’s Eye View,鸟瞰图)网格。
举例而言,将上述车辆作为二维坐标系的坐标原点,以车辆所处的路面作为BEV平面建立BEV网格。
步骤S103:基于多帧连续点云数据进行聚类跟踪,获取多帧之中任一帧中第一聚类目标的目标特征。
举例而言,基于多帧连续点云数据进行聚类生成聚类目标,并对生成的聚类目标进行跟踪,以对聚类目标进行特征提取,获取多帧之中任一帧中第一聚类目标的目标特征。
其中,在本公开的实施例中,上述第一目标多帧之中任一帧中的聚类目标。
在一种可选地实现方式中,上述目标特征包括以下至少一项:第一聚类目标的中心点;第一聚类目标的朝向角;第一聚类目标的长度;第一聚类目标的宽度;第一聚类目标的高度;第一聚类目标的目标类型;第一聚类目标的生命周期;第一聚类目标的存在性概率;第一聚类目标的二维速度矢量;第一聚类目标的运动状态;第一聚类目标的可穿越类型;第一聚类目标的镜像概率。
其中,上述第一聚类目标的目标类型可以包括但不限于:车辆、行人、障碍物等。
步骤S104:将第一聚类目标的目标特征映射至BEV网格,获得第一BEV特征矩阵。
举例而言,基于第一聚类目标的目标特征生成相应的目标特征向量,将该目标特征向量作为BEV网格中第一聚类目标对应的网格在一个维度的网格特征的特征向量,生成第一BEV特征矩阵。
作为一种示例,以第一聚类目标的目标特征生成T维目标特征向量,BEV网格包含M行且每行包括N个网格为例。则可生成M*N*T维的第一BEV特征矩阵。其中,M、N和T为正整数。
步骤S105:将多帧之中任一帧的第一点云数据映射至BEV网格,获取第二BEV特征矩阵。
举例而言,提取第一点云数据的特征生成对应的特征向量,并将该特征向量作为BEV网格中第一点云数据对应的网格在一个维度的网格特征的特征向量,生成第二BEV特征矩阵。
作为一种示例,以第一点云数据对应P维特征向量,BEV网格包含M行且每行包括N个网格为例。则可生成M*N*P维的第二BEV特征矩阵。其中,M、N和P为正整数。
其中,在本公开的实施例中,上述多帧之中任一帧与前述第一聚类目标对应的帧相同。
步骤S106:将第一BEV特征矩阵和第二BEV特征矩阵进行矩阵聚合,获得多帧之中任一帧的BEV聚合特征矩阵。
作为一种示例,以第一BEV特征矩阵为M*N*T维特征矩阵,第二BEV特征矩阵为M*N*P维特征矩阵为例。则将第一BEV特征矩阵和第二BEV特征矩阵进行矩阵聚合,获得M*N*(T+P)维的BEV聚合特征矩阵。其中,M和N为BEV网格的行数和列数,T为目标特征对应特征向量的维度,P为点云数据的特征对应的特征向量的维度,。
通过实施本公开实施例,可以对多帧连续点云数据进行聚类跟踪,获取任一帧中第一聚类目标的目标特征,并将该目标特征映射至BEV网格以获取第一BEV特征矩阵,并将同一帧的点云数据映射至BEV网格,获取第二BEV特征矩阵。以将第一BEV特征矩阵和第二BEV特征矩阵进行聚合,得到BEV聚合特征矩阵。能够获取更为准确和多样的BEV特征,从而增强自动驾驶系统的感知能力。
在一种实现方式中,可以分别对每帧点云数据进行聚类得到的聚类目标,并根据每帧点云数据的聚类目标对任一帧中的第一聚类目标进行跟踪,获取第一聚类目标的目标特征。作为一种示例,请参见图2,图2是根据一示例性实施例示出的另一种点云数据的处理方法的流程图,如图2所示,该方法可以包括但不限于以下步骤。
步骤S201:获取多帧连续点云数据。
在本公开的实施例中,步骤S201可以分别采用本公开的各实施例中的任一种方式实现,本公开实施例并不对此作出限定,也不再赘述。
步骤S202:建立BEV网格。
在本公开的实施例中,步骤S202可以分别采用本公开的各实施例中的任一种方式实现,本公开实施例并不对此作出限定,也不再赘述。
步骤S203:分别对每帧点云数据进行聚类,获取每帧点云数据对应的聚类目标。
举例而言,分别对每帧点云数据进行聚类分析,获取每帧点云数据对应的聚类目标。
步骤S204:将多帧连续点云数据中的聚类目标进行匹配,获取多帧连续点云数据中的聚类目标之间的匹配关系。
举例而言,基于聚类目标的目标特征将多帧连续点云数据中的聚类目标进行匹配,将不同帧中代表同一实际目标的聚类目标作为相匹配的聚类目标,从而获取多帧连续点云数据中不同帧的聚类目标之间的匹配关系。
步骤S205:基于匹配关系对多帧之中任一帧中的第一聚类目标进行目标跟踪,获取第一聚类目标的目标特征。
举例而言,基于前述匹配关系确定多帧之中任一种中的第一聚类目标相匹配的其他帧中的聚类目标,从而确定第一聚类目标的运动轨迹,以对第一聚类目标进行目标跟踪和特征提取,获取第一聚类目标的目标特征。
步骤S206:将第一聚类目标的目标特征映射至BEV网格,获得第一BEV特征矩阵。
在本公开的实施例中,步骤S206可以分别采用本公开的各实施例中的任一种方式实现,本公开实施例并不对此作出限定,也不再赘述。
步骤S207:将多帧之中任一帧的第一点云数据映射至BEV网格,获取第二BEV特征矩阵。
在本公开的实施例中,步骤S207可以分别采用本公开的各实施例中的任一种方式实现,本公开实施例并不对此作出限定,也不再赘述。
步骤S208:将第一BEV特征矩阵和第二BEV特征矩阵进行矩阵聚合,获得多帧之中任一帧的BEV聚合特征矩阵。
在本公开的实施例中,步骤S208可以分别采用本公开的各实施例中的任一种方式实现,本公开实施例并不对此作出限定,也不再赘述。
通过实施本公开实施例,可以分别对每帧点云数据进行聚类得到的聚类目标,并根据每帧点云数据的聚类目标对任一帧中的第一聚类目标进行跟踪,获取第一聚类目标的目标特征,并将该目标特征映射至BEV网格以获取第一BEV特征矩阵,并将同一帧的点云数据映射至BEV网格,获取第二BEV特征矩阵。以将第一BEV特征矩阵和第二BEV特征矩阵进行聚合,得到BEV聚合特征矩阵。能够获取更为准确和多样的BEV特征,从而增强自动驾驶系统的感知能力。
在一种实现方式中,可以根据聚类目标的目标特征,确定BEV网格中聚类目标所在的网格,进而生成BEV网格特征矩阵。作为一种示例,请参见图3,图3是根据一示例性实施例示出的又一种点云数据的处理方法的流程图,如图3所示,该方法可以包括但不限于以下步骤。
步骤S301:获取多帧连续点云数据。
在本公开的实施例中,步骤S301可以分别采用本公开的各实施例中的任一种方式实现,本公开实施例并不对此作出限定,也不再赘述。
步骤S302:建立BEV网格。
在本公开的实施例中,步骤S302可以分别采用本公开的各实施例中的任一种方式实现,本公开实施例并不对此作出限定,也不再赘述。
步骤S303:基于多帧连续点云数据进行聚类跟踪,获取多帧之中任一帧中第一聚类目标的目标特征。
在本公开的实施例中,步骤S303可以分别采用本公开的各实施例中的任一种方式实现,本公开实施例并不对此作出限定,也不再赘述。
步骤S304:基于第一聚类目标的目标特征,从BEV网格中确定第一聚类目标所处的第一目标网格。
举例而言,基于第一聚类目标的目标特征确定第一聚类目标在BEV网格所在平面上所处的位置,将该位置对应的BEV网格作为第一目标网格。
可选地,上述基于第一聚类目标的目标特征,从BEV网格中确定第一聚类目标所处的第一目标网格,可以包括以下步骤:
步骤A1:基于第一聚类目标的中心点、第一聚类目标的朝向角、第一聚类目标的长度和第一聚类目标的宽度,在BEV网格所在平面上生成第一聚类目标对应的目标框。
举例而言,基于第一聚类目标的中心点、第一聚类目标的朝向角、第一聚类目标的长度和第一聚类目标的宽度,在BEV网格所处的平面内生成代表第一聚类目标位置的目标框。
步骤A2:获取目标框与BEV网格中每个网格的重叠率。
举例而言,分别计算获取目标框覆盖在BEV网格中每个网格的面积,占每个网格总面积的比率,作为目标框与BEV网格中每个网格的重叠率。
步骤A3:将BEV网格中重叠率大于或等于重叠率阈值的网格作为第一目标网格。
举例而言,将BEV网格中与目标框的重叠率大于重叠率阈值(例如,10%)的网格,作为第一目标网格。
请参见图4,图4是根据一示例性实施例示出的一种第一目标网格的确定方法的示意图。如图4所示,以激光雷达所在车辆作为二维坐标系的坐标原点建立BEV网格,并根据第一聚类目标的目标特征,生成代表第一聚类目标的目标框,并从BEV网格中确定出与该目标框的重叠率大于重叠率阈值的网格,作为第一目标网格。
需要说明的是,在本公开的实施例中,第一聚类目标为至少一个,图4中以包括一个聚类目标为例。
可选地,上述方法还包括:将第一目标网格对应的重叠率作为第一目标网格的网格特征。
具体而言,将第一目标网格与目标框的重叠率,作为第一目标网格的一个网格特征。
需要说明的是,若将第一目标网格对应的重叠率作为第一目标网格的网格特征。则最终生成的第一BEV特征矩阵为M*N*(T+1)维的矩阵。其中,M和N分别为BEV网格的行数和列数,T为目标特征对应的特征向量的维度,M、N和T为正整数。
步骤S305:将第一聚类目标的目标特征映射至第一目标网格,生成第一BEV特征矩阵。
举例而言,基于第一聚类目标的目标特征生成相应的目标特征向量,将该目标特征向量作为第一目标网格在一个维度的特征向量,生成第一BEV特征矩阵。
作为一种示例,以BEV网格为M行N列网格,第一聚类目标的目标特征生成T维目标特征向量为例,则可生成M*N*T维的第一BEV特征矩阵。其中,M、N和T为正整数。
步骤S306:将多帧之中任一帧的第一点云数据映射至BEV网格,获取第二BEV特征矩阵。
在本公开的实施例中,步骤S306可以分别采用本公开的各实施例中的任一种方式实现,本公开实施例并不对此作出限定,也不再赘述。
步骤S307:将第一BEV特征矩阵和第二BEV特征矩阵进行矩阵聚合,获得多帧之中任一帧的BEV聚合特征矩阵。
在本公开的实施例中,步骤S307可以分别采用本公开的各实施例中的任一种方式实现,本公开实施例并不对此作出限定,也不再赘述。
通过实施本公开实施例,可以对多帧连续点云数据进行聚类跟踪,获取任一帧中聚类目标的目标特征,并根据聚类目标的目标特征,确定聚类目标所在的第一目标网格,以将该目标特征映射至第一目标网格以获取第一BEV特征矩阵,并将同一帧的点云数据映射至BEV网格,获取第二BEV特征矩阵。以将第一BEV特征矩阵和第二BEV特征矩阵进行聚合,得到BEV聚合特征矩阵。能够获取更为准确和多样的BEV特征,从而增强自动驾驶系统的感知能力。
在一种实现方式中,可以将点云数据对应的雷达点应设置BEV网格,以生成BEV网格特征矩阵。作为一种示例,请参见图5,图5是根据一示例性实施例示出的又一种点云数据的处理方法的流程图,如图5所示,该方法可以包括但不限于以下步骤。
步骤S501:获取多帧连续点云数据。
在本公开的实施例中,步骤S501可以分别采用本公开的各实施例中的任一种方式实现,本公开实施例并不对此作出限定,也不再赘述。
步骤S502:建立BEV网格。
在本公开的实施例中,步骤S502可以分别采用本公开的各实施例中的任一种方式实现,本公开实施例并不对此作出限定,也不再赘述。
步骤S503:基于多帧连续点云数据进行聚类跟踪,获取多帧之中任一帧中第一聚类目标的目标特征。
在本公开的实施例中,步骤S503可以分别采用本公开的各实施例中的任一种方式实现,本公开实施例并不对此作出限定,也不再赘述。
步骤S504:将第一聚类目标的目标特征映射至BEV网格,获得第一BEV特征矩阵。
在本公开的实施例中,步骤S504可以分别采用本公开的各实施例中的任一种方式实现,本公开实施例并不对此作出限定,也不再赘述。
步骤S505:基于第一点云数据,确定第一点云数据对应的雷达点在BEV网格中所处的第二目标网格。
举例而言,基于第一点云数据中包含的点云坐标,确定BEV网格中存在第一点云数据对应的雷达点的第二目标网格。
步骤S506:对第一点云数据进行增强重组,获取雷达点的雷达点特征。
步骤S507:基于雷达点特征进行特征编码,获取点云特征。
举例而言,对非线性的雷达点特征进行特征编码,生成线性的点云特征。
步骤S508:将点云特征映射至第二目标网格,获取第二BEV特征矩阵。
举例而言,基于点云特征生成相应的点云特征向量,将该点云特征向量作为第二目标网格在一个维度的特征向量,从而生成三维的第二BEV特征矩阵。
作为一种示例,以BEV网格为M行N列网格,点云特征对应P维点云特征向量为例,则可生成M*N*P维的第二BEV特征矩阵。
步骤S509:将第一BEV特征矩阵和第二BEV特征矩阵进行矩阵聚合,获得多帧之中任一帧的BEV聚合特征矩阵。
在本公开的实施例中,步骤S509可以分别采用本公开的各实施例中的任一种方式实现,本公开实施例并不对此作出限定,也不再赘述。
通过实施本公开实施例,可以对多帧连续点云数据进行聚类跟踪,获取任一帧中聚类目标的目标特征,并将该目标特征映射至BEV网格以获取第一BEV特征矩阵,并对点云数据进行特征提取,以将提取的点云特征映射至BEV网格,获取第二BEV特征矩阵。以将第一BEV特征矩阵和第二BEV特征矩阵进行聚合,得到BEV聚合特征矩阵。能够获取更为准确和多样的BEV特征,从而增强自动驾驶系统的感知能力。
请参见图6,图6是根据一示例性实施例示出的点云数据的处理方案的示意图。如图6所示,在该处理方案中,可以采用现有技术中的点云数据的处理方法进行点云特征提取,以将点云特征映射为第一BEV特征,并对点云数据进行聚类跟踪,以生成并跟踪聚类目标,并对聚类目标进行特征提取,并将聚类目标对应的目标特征映射为第二BEV特征,最终将第一BEV特征和第二BEV特征进行特征聚合,生成可以用于与图像的BEV特征进行进一步聚合的聚合BEV特征。
在本公开的一些实施例中,在获得上述BEV融合特征矩阵后,可以对同一车辆的图像传感器器获取的同一时段图像数据进行处理,获得图像数据对应的图像BEV特征矩阵,以将BEV融合特征矩阵与图像BEV特征矩阵进行融合得到联合BEV特征,再使用联合BEV编码器基于联合BEV特征进行目标检测。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图7是根据一示例性实施例示出的一种点云数据的处理装置的框图。如图7所示,该装置700包括:获取模块701,用于获取多帧连续点云数据;第一处理模块702,用于建立BEV网格;第二处理模块703,用于基于多帧连续点云数据进行聚类跟踪,获取多帧之中任一帧中第一聚类目标的目标特征;第三处理模块704,用于将第一聚类目标的目标特征映射至BEV网格,获得第一BEV特征矩阵;第四处理模块705,用于将多帧之中任一帧的第一点云数据映射至BEV网格,获取第二BEV特征矩阵;特征聚合模块706,用于将第一BEV特征矩阵和第二BEV特征矩阵进行矩阵聚合,获得多帧之中任一帧的BEV聚合特征矩阵。
在一种实现方式中,第二处理模块703具体用于:分别对每帧点云数据进行聚类,获取每帧点云数据中的聚类目标;将多帧连续点云数据中的聚类目标进行匹配,获取多帧连续点云数据中的聚类目标之间的匹配关系;基于匹配关系对多帧之中任一帧中的第一聚类目标进行目标跟踪,获取第一聚类目标的目标特征。
在一种实现方式中,第三处理模块704具体用于:基于第一聚类目标的目标特征,从BEV网格中确定第一聚类目标所处的第一目标网格;将第一聚类目标的目标特征映射至第一目标网格,生成第一BEV特征矩阵。
在一种可选地实现方式中,目标特征包括以下至少一项:第一聚类目标的中心点;第一聚类目标的朝向角;第一聚类目标的长度;第一聚类目标的宽度;第一聚类目标的高度;第一聚类目标的目标类型;第一聚类目标的生命周期;第一聚类目标的存在性概率;第一聚类目标的二维速度矢量;第一聚类目标的运动状态;第一聚类目标的可穿越类型;第一聚类目标的镜像概率。
可选地,第三处理模块704具体用于:基于第一聚类目标的中心点、第一聚类目标的朝向角、第一聚类目标的长度和第一聚类目标的宽度,在BEV网格所在平面上生成第一聚类目标对应的目标框;获取目标框与BEV网格中每个网格的重叠率;将BEV网格中重叠率大于或等于重叠率阈值的网格作为第一目标网格。
可选地,第三处理模块704还用于:将第一目标网格对应的重叠率作为第一目标网格的网格特征。
在一种实现方式中,第四处理模块705具体用于:基于第一点云数据,确定第一点云数据对应的雷达点在BEV网格中所处的第二目标网格;对第一点云数据进行增强重组,获取雷达点的雷达点特征;基于雷达点特征进行特征编码,获取点云特征;将点云特征映射至第二目标网格,获取第二BEV特征矩阵。
通过本公开实施例的装置,可以对多帧连续点云数据进行聚类跟踪,获取任一帧中聚类目标的目标特征,并将该目标特征映射至BEV网格以获取第一BEV特征矩阵,并对点云数据进行特征提取,以将提取的点云特征映射至BEV网格,获取第二BEV特征矩阵。以将第一BEV特征矩阵和第二BEV特征矩阵进行聚合,得到BEV聚合特征矩阵。能够获取更为准确和多样的BEV特征,从而增强自动驾驶系统的感知能力。
请参见图8,图8是根据一示例性实施例示出的一种车辆的示意图。如8所示,该车辆800包括点云数据的处理装置。其中,点云数据的处理装置的功能和结构描述可参见上述图7实施例所述的点云数据的处理装置的功能和结构描述,本公开在此不再赘述。
图9是根据一示例性实施例示出的一种车辆的框图。
参照图9,车辆900可以包括以下一个或多个组件:处理组件902,存储器904,电力组件906,多媒体组件908,输入/输出(I/O)接口910,以及通信组件912。
处理组件902通常控制车辆900的整体操作,诸如与显示,数据通信和记录操作相关联的操作。处理组件902可以包括一个或多个处理器920来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件902可以包括一个或多个模块,便于处理组件902和其他组件之间的交互。例如,处理组件902可以包括多媒体模块,以方便多媒体组件908和处理组件902之间的交互。
存储器904被配置为存储各种类型的数据以支持在设备900的操作。这些数据的示例包括用于在车辆900上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器904可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电力组件906为车辆900的各种组件提供电力。电力组件906可以包括电源管理系统,一个或多个电源,及其他与为车辆900生成、管理和分配电力相关联的组件。
多媒体组件908包括在所述车辆900和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。
输入/输出接口910为处理组件902和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。
通信组件912被配置为便于车辆900和其他设备之间有线或无线方式的通信。车辆900可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件912经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件912还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,车辆900可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器904,上述指令可由车辆900的处理器920执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
本公开还提供一种计算机程序产品,该计算机程序产品被计算机执行时实现上述任一方法实施例的功能。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明的其它实施方案。本公开旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本发明的真正范围和精神由下面的权利要求指出。
应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本发明的范围仅由所附的权利要求来限制。

Claims (10)

1.一种点云数据的处理方法,其特征在于,包括:
获取多帧连续点云数据;
建立鸟瞰图BEV网格;
基于所述多帧连续点云数据进行聚类跟踪,获取所述多帧之中任一帧中第一聚类目标的目标特征;
将所述第一聚类目标的目标特征映射至所述BEV网格,获得第一BEV特征矩阵;
将所述多帧之中任一帧的第一点云数据映射至所述BEV网格,获取第二BEV特征矩阵;其中,所述第一BEV特征矩阵和所述第二BEV特征矩阵为所述多帧之中同一帧对应的两个特征矩阵;
将所述第一BEV特征矩阵和所述第二BEV特征矩阵进行矩阵聚合,获得所述多帧之中任一帧的BEV聚合特征矩阵。
2.如权利要求1所述的方法,其特征在于,所述基于所述多帧连续点云数据进行聚类跟踪,获取所述多帧之中任一帧中第一聚类目标的目标特征,包括:
分别对每帧所述点云数据进行聚类,获取每帧所述点云数据中的聚类目标;
将所述多帧连续点云数据中的聚类目标进行匹配,获取所述多帧连续点云数据中的聚类目标之间的匹配关系;
基于所述匹配关系对所述多帧之中任一帧中的第一聚类目标进行目标跟踪,获取所述第一聚类目标的目标特征。
3.如权利要求1所述的方法,其特征在于,所述将所述第一聚类目标的目标特征映射至所述BEV网格,获得第一BEV特征矩阵,包括:
基于所述第一聚类目标的目标特征,从所述BEV网格中确定所述第一聚类目标所处的第一目标网格;
将所述第一聚类目标的目标特征映射至所述第一目标网格,生成所述第一BEV特征矩阵。
4.如权利要求3所述的方法,其特征在于,所述目标特征包括以下至少一项:
所述第一聚类目标的中心点;
所述第一聚类目标的朝向角;
所述第一聚类目标的长度;
所述第一聚类目标的宽度;
所述第一聚类目标的高度;
所述第一聚类目标的目标类型;
所述第一聚类目标的生命周期;
所述第一聚类目标的存在性概率;
所述第一聚类目标的二维速度矢量;
所述第一聚类目标的运动状态;
所述第一聚类目标的可穿越类型;
所述第一聚类目标的镜像概率。
5.如权利要求4所述的方法,其特征在于,所述基于所述第一聚类目标的目标特征,从所述BEV网格中确定所述第一聚类目标所处的第一目标网格,包括:
基于所述第一聚类目标的中心点、所述第一聚类目标的朝向角、所述第一聚类目标的长度和所述第一聚类目标的宽度,在所述BEV网格所在平面上生成所述第一聚类目标对应的目标框;
获取所述目标框与所述BEV网格中每个网格的重叠率;
将所述BEV网格中所述重叠率大于或等于重叠率阈值的网格作为所述第一目标网格。
6.如权利要求5所述的方法,其特征在于,所述方法还包括:
将所述第一目标网格对应的重叠率作为所述第一目标网格的网格特征。
7.如权利要求1所述的方法,其特征在于,所述将所述多帧之中任一帧的第一点云数据映射至所述BEV网格,获取第二BEV特征矩阵,包括:
基于所述第一点云数据,确定所述第一点云数据对应的雷达点在所述BEV网格中所处的第二目标网格;
对所述第一点云数据进行增强重组,获取所述雷达点的雷达点特征;
基于所述雷达点特征进行特征编码,获取点云特征;
将所述点云特征映射至所述第二目标网格,获取所述第二BEV特征矩。
8.一种点云数据的处理装置,其特征在于,包括:
获取模块,获取多帧连续点云数据;
第一处理模块,用于建立鸟瞰图BEV网格;
第二处理模块,用于基于所述多帧连续点云数据进行聚类跟踪,获取所述多帧之中任一帧中第一聚类目标的目标特征;
第三处理模块,用于将所述第一聚类目标的目标特征映射至所述BEV网格,获得第一BEV特征矩阵;
第四处理模块,用于将所述多帧之中任一帧的第一点云数据映射至所述BEV网格,获取第二BEV特征矩阵;其中,所述第一BEV特征矩阵和所述第二BEV特征矩阵为所述多帧之中同一帧对应的两个特征矩阵;
特征聚合模块,用于将所述第一BEV特征矩阵和所述第二BEV特征矩阵进行矩阵聚合,获得所述多帧之中任一帧的BEV聚合特征矩阵。
9.一种车辆,其特征在于,所述车辆包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至7中任一项所述的方法。
10.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行如权利要求1至7中任一项所述的方法。
CN202311345506.1A 2023-10-17 2023-10-17 点云数据的处理方法、装置、车辆及存储介质 Active CN117292140B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311345506.1A CN117292140B (zh) 2023-10-17 2023-10-17 点云数据的处理方法、装置、车辆及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311345506.1A CN117292140B (zh) 2023-10-17 2023-10-17 点云数据的处理方法、装置、车辆及存储介质

Publications (2)

Publication Number Publication Date
CN117292140A CN117292140A (zh) 2023-12-26
CN117292140B true CN117292140B (zh) 2024-04-02

Family

ID=89253344

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311345506.1A Active CN117292140B (zh) 2023-10-17 2023-10-17 点云数据的处理方法、装置、车辆及存储介质

Country Status (1)

Country Link
CN (1) CN117292140B (zh)

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110991526A (zh) * 2019-11-29 2020-04-10 上海有个机器人有限公司 一种非迭代式点云匹配方法、介质、终端和装置
CN111583337A (zh) * 2020-04-25 2020-08-25 华南理工大学 一种基于多传感器融合的全方位障碍物检测方法
CN111771229A (zh) * 2019-01-30 2020-10-13 百度时代网络技术(北京)有限公司 用于自动驾驶车辆的点云重影效果检测系统
EP3779501A1 (en) * 2019-08-15 2021-02-17 Volvo Car Corporation Vehicle systems and methods utilizing lidar data for road condition estimation
EP3907472A1 (en) * 2020-05-05 2021-11-10 Bayerische Motoren Werke Aktiengesellschaft Detecting lane markings based on lidar data
CN113971221A (zh) * 2020-07-22 2022-01-25 上海商汤临港智能科技有限公司 一种点云数据的处理方法、装置、电子设备及存储介质
WO2022017136A1 (zh) * 2020-07-22 2022-01-27 上海商汤临港智能科技有限公司 点云数据处理的方法及装置、电子设备及存储介质
CN114140470A (zh) * 2021-12-07 2022-03-04 群周科技(上海)有限公司 一种基于直升机机载激光雷达的地物语义分割方法
CN114818916A (zh) * 2022-04-25 2022-07-29 电子科技大学 一种基于毫米波雷达多帧点云序列的道路目标分类方法
CN114973178A (zh) * 2022-06-30 2022-08-30 小米汽车科技有限公司 模型训练方法、物体识别方法、装置、车辆及存储介质
CN115100616A (zh) * 2022-06-23 2022-09-23 重庆长安汽车股份有限公司 点云目标检测方法、装置、电子设备及存储介质
CN115097419A (zh) * 2022-05-09 2022-09-23 上海人工智能创新中心 一种激光雷达到imu的外参标定方法及装置
CN115436910A (zh) * 2022-08-31 2022-12-06 苏州轻棹科技有限公司 一种对激光雷达点云进行目标检测的数据处理方法和装置
CN115797454A (zh) * 2023-02-08 2023-03-14 深圳佑驾创新科技有限公司 一种鸟瞰图视角下多摄像机融合感知方法及装置
CN115965842A (zh) * 2022-12-27 2023-04-14 苏州轻棹科技有限公司 一种基于图像和点云融合的目标检测方法和系统
CN116152702A (zh) * 2022-12-21 2023-05-23 北京百度网讯科技有限公司 点云标签的获取方法、装置、电子设备和自动驾驶车辆
CN116189147A (zh) * 2023-02-23 2023-05-30 大连理工大学 一种基于yolo的三维点云低功耗快速目标检测方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11410546B2 (en) * 2020-05-18 2022-08-09 Toyota Research Institute, Inc. Bird's eye view based velocity estimation
US11527084B2 (en) * 2020-07-10 2022-12-13 Huawei Technologies Co., Ltd. Method and system for generating a bird's eye view bounding box associated with an object
US11501490B2 (en) * 2020-07-28 2022-11-15 Toyota Research Institute, Inc. Systems and methods for multi-resolution fusion of pseudo-LiDAR features
KR20230111037A (ko) * 2022-01-17 2023-07-25 현대자동차주식회사 라이다 기반 객체 감지 방법 및 장치

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111771229A (zh) * 2019-01-30 2020-10-13 百度时代网络技术(北京)有限公司 用于自动驾驶车辆的点云重影效果检测系统
EP3779501A1 (en) * 2019-08-15 2021-02-17 Volvo Car Corporation Vehicle systems and methods utilizing lidar data for road condition estimation
CN110991526A (zh) * 2019-11-29 2020-04-10 上海有个机器人有限公司 一种非迭代式点云匹配方法、介质、终端和装置
CN111583337A (zh) * 2020-04-25 2020-08-25 华南理工大学 一种基于多传感器融合的全方位障碍物检测方法
EP3907472A1 (en) * 2020-05-05 2021-11-10 Bayerische Motoren Werke Aktiengesellschaft Detecting lane markings based on lidar data
CN113971221A (zh) * 2020-07-22 2022-01-25 上海商汤临港智能科技有限公司 一种点云数据的处理方法、装置、电子设备及存储介质
WO2022017136A1 (zh) * 2020-07-22 2022-01-27 上海商汤临港智能科技有限公司 点云数据处理的方法及装置、电子设备及存储介质
CN114140470A (zh) * 2021-12-07 2022-03-04 群周科技(上海)有限公司 一种基于直升机机载激光雷达的地物语义分割方法
CN114818916A (zh) * 2022-04-25 2022-07-29 电子科技大学 一种基于毫米波雷达多帧点云序列的道路目标分类方法
CN115097419A (zh) * 2022-05-09 2022-09-23 上海人工智能创新中心 一种激光雷达到imu的外参标定方法及装置
CN115100616A (zh) * 2022-06-23 2022-09-23 重庆长安汽车股份有限公司 点云目标检测方法、装置、电子设备及存储介质
CN114973178A (zh) * 2022-06-30 2022-08-30 小米汽车科技有限公司 模型训练方法、物体识别方法、装置、车辆及存储介质
CN115436910A (zh) * 2022-08-31 2022-12-06 苏州轻棹科技有限公司 一种对激光雷达点云进行目标检测的数据处理方法和装置
CN116152702A (zh) * 2022-12-21 2023-05-23 北京百度网讯科技有限公司 点云标签的获取方法、装置、电子设备和自动驾驶车辆
CN115965842A (zh) * 2022-12-27 2023-04-14 苏州轻棹科技有限公司 一种基于图像和点云融合的目标检测方法和系统
CN115797454A (zh) * 2023-02-08 2023-03-14 深圳佑驾创新科技有限公司 一种鸟瞰图视角下多摄像机融合感知方法及装置
CN116189147A (zh) * 2023-02-23 2023-05-30 大连理工大学 一种基于yolo的三维点云低功耗快速目标检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Fast vehicle detection based on colored point cloud with bird’s eye view representation;Lele Wang et al.;《Scientific Reports 》;20230508;全文 *
应用于激光雷达感知的目标检测和跟踪算法研究与设计;张搏;《中国优秀硕士学位论文全文数据库信息科技辑》;20220515(第5期);全文 *

Also Published As

Publication number Publication date
CN117292140A (zh) 2023-12-26

Similar Documents

Publication Publication Date Title
US10911818B2 (en) Electronic device and method for controlling the same
JP2022507077A (ja) 区画線属性検出方法、装置、電子機器及び可読記憶媒体
CN109034136B (zh) 图像处理方法、装置、摄像设备及存储介质
CN110059623B (zh) 用于生成信息的方法和装置
US11092690B1 (en) Predicting lidar data using machine learning
US20220044558A1 (en) Method and device for generating a digital representation of traffic on a road
US20210334986A1 (en) Method for detecting vehicle lane change, roadside device, and cloud control platform
CN103632153A (zh) 一种基于区域的图像显著图提取方法
CN110689014B (zh) 感兴趣区域的检测方法、装置、电子设备及可读存储介质
CN105469054A (zh) 正常行为的模型构建方法及异常行为的检测方法
CN117292140B (zh) 点云数据的处理方法、装置、车辆及存储介质
CN109934072B (zh) 人员统计方法及装置
CN111651547B (zh) 高精度地图数据的获取方法、装置及可读存储介质
CN113011298A (zh) 截断物体样本生成、目标检测方法、路侧设备和云控平台
CN111310595B (zh) 用于生成信息的方法和装置
CN115619904A (zh) 图像处理方法、装置及设备
CN116188587A (zh) 定位方法、装置及车辆
CN112929601A (zh) 一种车辆监控视频传输系统及传输方法
US11190908B2 (en) Visualization of spatio-temporal location
CN113065392A (zh) 一种机器人的跟踪方法和装置
JP2022551671A (ja) オブジェクトの表示方法、装置、電子機器及びコンピュータ可読型記憶媒体
CN107526479B (zh) 一种传感器采集的环境量的显示方法、装置及系统
CN116434016B (zh) 图像信息增强方法、模型训练方法、装置、设备及介质
CN117831224B (zh) 基于毫米雷达的跌倒报警方法、装置、设备及介质
CN112700657B (zh) 用于生成检测信息的方法、装置、路侧设备和云控平台

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant