CN111009011B - 车辆方向角的预测方法、装置、系统以及存储介质 - Google Patents

车辆方向角的预测方法、装置、系统以及存储介质 Download PDF

Info

Publication number
CN111009011B
CN111009011B CN201911188168.9A CN201911188168A CN111009011B CN 111009011 B CN111009011 B CN 111009011B CN 201911188168 A CN201911188168 A CN 201911188168A CN 111009011 B CN111009011 B CN 111009011B
Authority
CN
China
Prior art keywords
data
point cloud
dimensional
direction angle
dimensional point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911188168.9A
Other languages
English (en)
Other versions
CN111009011A (zh
Inventor
胡小波
陈十力
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LeiShen Intelligent System Co Ltd
Original Assignee
LeiShen Intelligent System Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LeiShen Intelligent System Co Ltd filed Critical LeiShen Intelligent System Co Ltd
Priority to CN201911188168.9A priority Critical patent/CN111009011B/zh
Publication of CN111009011A publication Critical patent/CN111009011A/zh
Application granted granted Critical
Publication of CN111009011B publication Critical patent/CN111009011B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/06Topological mapping of higher dimensional structures onto lower dimensional surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例公开了一种车辆方向角的预测方法,该方法包括:获取待分析的三维点云数据,其中包括回波强度信息;将三维点云数据转换为在预设平面上的二维伪彩图;根据三维点云数据生成原始深度图和原始回波强度图中的至少一个;将原始深度图和原始回波强度图中的至少一个与二维伪彩图作为输入数据输入预设的神经网络模型;神经网络模型至少能根据输入数据确定输出数据,输出数据包括车辆的位置、类型和方向角;根据方向角确定空间坐标系下的三维方位角。本发明将三维点云数据转换为二维图像,保留的深度信息和回波强度信息可以得出方向角,减小了数据计算量,准确得到车辆的三维方位角。此外,还提出了车辆方向角的预测装置、系统及存储介质。

Description

车辆方向角的预测方法、装置、系统以及存储介质
技术领域
本发明涉及计算机技术领域,尤其涉及一种车辆方向角的预测方法、装置、系统以及存储介质。
背景技术
三维激光扫描仪或照相式扫描仪得到的点云数据,点数量比较大并且比较密集,能反映真实场景的情况,并且可以通过点云数据来确定场景内的物体的信息,例如位置信息等。在利用激光雷达对车道上的车辆进行扫描监控情况下,获取车辆的点云数据,通常通过该点云数据可以确定车辆的位置和种类信息,但是无法准确预测车辆的方向角。
现有的技术通常先对点云数据进行分割和聚类得到车辆轮廓外形的点云数据,再根据轮廓外形的点云数据来判断车辆方向角。然而根据轮廓外形来判断方向角需要点云数据具有较好的区分度以及完整的轮廓信息。在实际的雷达扫描过程中,极有可能出现点云数据难以分割或者分全的情况,导致车辆只有部分轮廓外形的点云数据,使得车辆方向角预测的不准确。
因此,亟需一种能准确预测车辆方向角的方案。
发明内容
基于此,有必要针对上述问题,提出了一种车辆方向角的预测方法、装置、系统及存储介质。
一种车辆方向角的预测方法,所述方法包括:
获取待分析的三维点云数据,所述三维点云数据包括回波强度信息;
将所述三维点云数据转换为在预设平面上的二维伪彩图;根据所述三维点云数据生成原始深度图和原始回波强度图中的至少一个;
将所述原始深度图和所述原始回波强度图中的至少一个与所述二维伪彩图作为输入数据,输入预设的神经网络模型;所述神经网络模型至少能够根据所述输入数据确定输出数据,所述输出数据包括车辆的位置、类型和方向角;
根据所述方向角确定空间坐标系下的三维方位角。
在一个实施例中,所述输入至预设的神经网络模型的步骤之前,还包括:构建神经网络模型;所述神经网络模型中至少包括用于对车辆的位置、类型以及方向角进行预测的分支;获取带有位置标签、类型标签以及方向角标签的三维点云训练数据,将根据该三维点云训练数据确定的原始深度训练图和原始回波强度训练图中的至少一个与二维伪彩训练图作为输入训练数据输入至所述神经网络模型中;利用所述神经网络模型对所述输入训练数据进行预测得到所述车辆的位置预测值、类型预测值和方向角预测值作为输出训练数据;根据所述位置预测值与所述位置标签中的位置之间的损失值、所述类型预测值与所述类型标签中的类型之间的损失值、所述方向角预测值与所述方向角标签中的方向角之间的损失值对所述神经网络模型进行修正。
在一个实施例中,所述将带有位置标签、类型标签以及方向角标签的三维点云训练数据作为输入训练数据输入至所述神经网络模型中的步骤还包括:对所述输入训练数据中的方向角标签进行编码操作,转换为具有预设输出格式的方向角数据;所述利用所述神经网络模型对所述输入数据进行预测得到所述车辆的位置预测值、类型预测值和方向角预测值作为输出训练数据的步骤还包括:将所述输出训练数据中的具有预设输出格式的方向角数据进行解码操作确定方向角预测值后输出。
在一个实施例中,所述获取待分析的三维点云数据的步骤包括:对三维点云数据进行预处理,所述预处理包括移除三维点云数据中的地面和/或预设区域的三维点云数据。
在一个实施例中,所述将所述输入数据输入至预设的神经网络模型中进行预测的步骤之前,还包括:获取所述输入数据中预设的目标监控区域内的数据作为输入数据。
在一个实施例中,所述将所述三维点云数据转换为在预设平面上的二维伪彩图的步骤还包括:根据所述目标监控区域的二维伪彩图确定预设的像素值区间下的二维伪彩图。
在一个实施例中,所述根据所述三维点云数据生成原始深度图和原始回波强度图中的至少一个的步骤包括:根据三维点云数据中的每个点云数据相对于预设平面的深度信息生成对应的原始深度图;和/或,根据三维点云数据中的每个点云数据的回波强度信息生成对应的原始回波强度图。
一种车辆方向角的预测装置,所述装置包括:
获取模块,用于获取待分析的三维点云数据,所述三维点云数据包括回波强度信息;
转换模块,用于将所述三维点云数据转换为在预设平面上的二维伪彩图;根据所述三维点云数据生成原始深度图和原始回波强度图中的至少一个;
计算模块,用于将所述原始深度图和所述原始回波强度中的至少一个与所述二维伪彩图作为输入数据,输入预设的神经网络模型;所述神经网络模型至少能够根据所述输入数据确定输出数据,所述输出数据包括车辆的位置、类型和方向角;
确定模块,用于根据所述方向角确定空间坐标系下的三维方位角。
在一个实施例中,所述装置还包括训练模块,所述训练模块包括:构建单元,用于构建神经网络模型;所述神经网络模型中至少包括用于对车辆的位置、类型以及方向角进行预测的分支;输入单元,用于获取带有位置标签、类型标签以及方向角标签的三维点云训练数据,将根据该三维点云训练数据确定的原始深度训练图和原始回波强度训练图中的至少一个与二维伪彩训练图作为输入训练数据输入至所述神经网络模型中;输出单元,用于利用所述神经网络模型对所述输入训练数据进行预测得到所述车辆的位置预测值、类型预测值和方向角预测值作为输出训练数据;损失计算单元,用于根据所述位置预测值与所述位置标签中的位置之间的损失值、所述类型预测值与所述类型标签中的类型之间的损失值、所述方向角预测值与所述方向角标签中的方向角之间的损失值对所述神经网络模型进行修正。
在一个实施例中,所述输入单元还包括:编码子单元,用于对所述输入训练数据中的方向角标签进行编码操作,转换为具有预设输出格式的方向角数据;所述输出单元还包括:解码子单元,将所述输出训练数据中的具有预设输出格式的方向角数据进行解码操作确定方向角预测值后输出。
在一个实施例中,所述获取模块包括:预处理单元,用于对三维点云数据进行预处理,所述预处理包括移除三维点云数据中的地面和/或预设区域的三维点云数据。
在一个实施例中,所述计算模块还包括:获取所述输入数据中预设的目标监控区域内的数据作为输入数据。
在一个实施例中,所述转换模块还包括:根据所述目标监控区域的二维伪彩图确定预设的像素值区间下的二维伪彩图。
在一个实施例中,所述转换模块包括:深度转换单元,用于根据三维点云数据中的每个点云数据相对于预设平面的深度信息生成对应的原始深度图;和/或,强度转换单元,用于根据三维点云数据中的每个点云数据的回波强度信息生成对应的原始回波强度图。
一种激光雷达系统,激光雷达和处理设备,所述处理设备包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行以下步骤:
获取待分析的三维点云数据,所述三维点云数据包括回波强度信息;
将所述三维点云数据转换为在预设平面上的二维伪彩图;根据所述三维点云数据生成原始深度图和原始回波强度图中的至少一个;
将所述原始深度图和所述原始回波强度图中的至少一个与所述二维伪彩图作为输入数据,输入预设的神经网络模型;所述神经网络模型至少能够根据所述输入数据确定输出数据,所述输出数据包括车辆的位置、类型和方向角;
根据所述方向角确定空间坐标系下的三维方位角。
一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行以下步骤:
获取待分析的三维点云数据,所述三维点云数据包括回波强度信息;
将所述三维点云数据转换为在预设平面上的二维伪彩图;根据所述三维点云数据生成原始深度图和原始回波强度图中的至少一个;
将所述原始深度图和所述原始回波强度图中的至少一个与所述二维伪彩图作为输入数据,输入预设的神经网络模型;所述神经网络模型至少能够根据所述输入数据确定输出数据,所述输出数据包括车辆的位置、类型和方向角;
根据所述方向角确定空间坐标系下的三维方位角。
采用本发明的车辆方向角的预测方法、装置、系统以及存储介质,使用三维激光扫描仪或照相式扫描仪获取待分析的三维点云数据,所述三维点云数据包括回波强度信息;将获取得到的三维点云数据转换为在预设平面上的二维伪彩图;根据所述三维点云数据生成原始深度图和原始回波强度图中的至少一个;将所述原始深度图和所述原始回波强度图中的至少一个与所述二维伪彩图输入预设的神经网络模型,通过神经网络模型进行计算输出车辆的位置、类型和方向角;最后根据所述方向角确定空间坐标系下的三维方位角。本发明提供的车辆方向角的预测方法、装置、系统以及存储介质将数据处理量较大的三维点云数据转换为数据处理量较小的二维图像,并且二维图像的保留的深度信息和回波强度信息能有效得出车辆的方向角,因此在减小了数据计算量的同时,还准确得到车辆的三维方位角。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
其中:
图1为一个实施例中方向角的预测方法的流程图;
图2为一个实施例中三维点云数据的示意图;
图3为一个实施例中预处理后的三维点云数据的示意图;
图4为一个实施例中深度伪彩图的示意图;
图5为一个实施例中深度灰度图的示意图;
图6为一个实施例中强度灰度图的示意图;
图7为一个实施例中预测输出标记有方向角的深度伪彩图的示意图;
图8为一个实施例中方向角的预测装置的结构框图;
图9为一个实施例中方向角的训练装置的结构框图;
图10为一个实施例中训练模块的结构框图;
图11为一个实施例中转换模块的结构框图;
图12为一个实施例中计算模块的结构框图;
图13为一个实施例中执行前述车辆方向角的预测方法的计算机设备的结构框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在一个实施例中,提供了一种车辆方向角的预测方法,通过对三维点云数据的获取和分析,对车辆的方向角进行预测。该方法可以应用于车辆的自主导航系统。
如图1所示,在一个实施例中,提供了一种车辆方向角的预测方法。该方法具体包括如下步骤S102-S108:
步骤S102,获取待分析的三维点云数据,所述三维点云数据包括回波强度信息。
具体的,待分析的三维点云数据为三维激光扫描仪(例如激光雷达)或照相式扫描仪对包含车辆的地面扫描得到的数据,如图2所示。三维点云数据是指在三维坐标系中物体的点数据的集合。获取到的三维点云数据还可以携带有对应的回波强度信息。这些点数据通常用三维坐标来表示,可以粗略的表示三维坐标系中物体的外表面形状,具体形状需要对点云数据进行处理分析得到。可以利用三维点云数据以及其携带的回波强度信息对点云数据进行分割,从而识别出车辆的形状、几何位置等。回波强度信息表示三维点云数据中从不同物体反射回到激光雷达的反射光的强度信息。
在对三维点云数据进行分析之前,可以对三维点云数据进行筛选过滤,可以减少后期的数据处理量。
在一个实施例中,对三维点云数据进行预处理,所述预处理包括移除三维点云数据中的地面和/或预设区域的三维点云数据。
其中,预设区域可以是周边固定建筑区域,或者扫描探测到的区域中不需要进行监控的区域。图3是对地面进行滤除后所得的三维点云图。通过对三维点云数据进行预处理,移除部分不需要进行监控的区域,能够减少后续处理过程的数据量,提高了点云数据处理速度。具体地,在进行地面滤除时,可以根据激光雷达的高度来确定。
步骤S104,将所述三维点云数据转换为在预设平面上的二维伪彩图;根据所述三维点云数据生成原始深度图和原始回波强度图中的至少一个。
具体的,预设平面是一个二维的平面,例如,以X、Y轴为坐标系的平面,也即水平面作为预设平面。将三维点云数据转换在预设平面上的二维伪彩图是将三维的数据转换到预设平面生成二维图像,将另一维度的数据作为点云深度信息。生成的二维图像利用点云深度信息,将其值映射到0~255灰度值区间,并通过伪彩色处理的方法将灰度图变为彩色图,从而得到二维平面下的伪彩图,这样能够识别更多的细节,增强图像分辨性。图4为转换后的二维平面下的伪彩色图的示意图,其中图中没有示出真实的颜色,实际操作中是针对不同的点云数据其深度信息不同,则会有不同的颜色进行对应。原始深度图为包含三维点云数据的深度信息的二维灰度图像,如图5所示。原始回波强度图为包含三维点云数据的回波强度信息的二维灰度图像,如图6所示。
在数据处理时,由于三维点云数据量过大,需要对三维点云数据进行简化处理,可以将三维点云数据转换为二维图像,减小数据处理量,降低数据处理的复杂度。
在一个实施例中,根据三维点云数据中的每个点云数据相对于预设平面的深度信息生成对应的原始深度图;和/或根据三维点云数据中的每个点云数据的回波强度信息生成对应的原始回波强度图。
具体的,深度信息表示三维点云数据中所展示的场景与激光雷达的距离信息。待分析的三维点云数据中每个点云数据的数据格式可以由x、y、z、r表示,其中x、y确定二维的平面,z为深度值,r代表回波强度值。将所述三维点云数据沿着x、y平面投影生成鸟瞰图,并将z维度坐标信息作为所述鸟瞰图的深度信息。将所述三维点云数据沿着x、y平面投影生成鸟瞰图,并将r的坐标信息作为所述鸟瞰图的回波强度信息。
根据三维点云数据的深度信息和预设的灰度值区间,确定与深度信息对应的灰度值,根据该灰度值生成原始深度图;根据三维点云数据的回波强度信息和预设的灰度值区间,确定与回波强度信息对应的灰度值,根据该灰度值生成原始回波强度图。其中,预设的灰度值区间为二维图像灰度值的取值范围,取值范围一般为0到255。
步骤S106,将所述原始深度图和所述原始回波强度中的至少一个与所述二维伪彩图作为输入数据,输入预设的神经网络模型;所述神经网络模型至少能够根据所述输入数据确定输出数据,所述输出数据包括车辆的位置、类型和方向角。
在本步骤中,通过神经网络模型对原始深度图和原始回波强度中的至少一个与二维伪彩图进行计算,将原始深度图和原始回波强度中的至少一个与二维伪彩图输入神经网络模型,然后根据神经网络模型的计算得到的结果确定车辆的位置、类型和方向角的信息。其中,车辆的位置信息为车辆当前的位置信息,可以为车辆的经纬度信息。车辆的类型信息可以为车辆的车型的信息,示例性的,车辆的类型为小型车、中型车或者大型车等。车辆的方向角信息是车辆当前在某个坐标系下的前进方向的角度信息。车辆的方向角信息可以在二维伪彩图中表示,如图7所示。
具体的,预设的神经网络模型为由大量的、简单的处理单元广泛地互相连接而形成的,并且在本申请中能对二维图像进行处理的复杂网络系统。在本实施例中神经网络模型可以通过二维图像中物体的外形轮廓等信息检测出车辆,即为二维图像中的待预测方向角的车辆。进一步的,在本实施例中,为了对车辆的方向角进行计算,预设的神经网络模型在位置判断、类型判断的基础上,增加了方向角预测分支,以实现对车辆的方向角的预测。
在一个实施例中,提供了一种对神经网络模型进行训练的方法,所述方法包括:构建神经网络模型;所述神经网络模型中至少包括用于对车辆的位置、类型以及方向角进行预测的分支;获取带有位置标签、类型标签以及方向角标签的三维点云训练数据,将根据该三维点云训练数据确定的原始深度训练图和原始回波强度训练图中的至少一个与二维伪彩训练图作为输入训练数据输入至所述神经网络模型中;利用所述神经网络模型对所述输入训练数据进行预测得到所述车辆的位置预测值、类型预测值和方向角预测值作为输出训练数据;根据所述位置预测值与所述位置标签中的位置之间的损失值、所述类型预测值与所述类型标签中的类型之间的损失值、所述方向角预测值与所述方向角标签中的方向角之间的损失值对所述神经网络模型进行修正。
具体的,位置标签为预先确定的车辆位置的参考位置信息;类型标签为预先确定的车辆类型的参考类型信息;方向角标签包括方向角的数值区间,确定了数值区间内最小值代表的方向和最大值代表的方向,还包括三维点云数据中车辆的参考方向角信息。位置预测值经过神经网络模型计算后得到车辆的位置信息;类型预测值经过神经网络模型计算后得到车辆的类型信息;方向角预测值经过神经网络模型计算后得到车辆的方向角信息。
二维伪彩训练图是将三维点云训练数据转换在预设平面上的二维伪彩图;原始深度训练图为包含三维点云训练数据的深度信息的二维灰度图像;原始回波强度训练图为包含三维点云数据的回波强度信息的二维灰度图像。
所述位置预测值与所述位置标签中的位置之间的损失值是指车辆位置预测值和位置标签中的位置坐标的误差;所述类型预测值与所述类型标签中的类型之间的损失值是判断类型输出的准确性。
方向角预测值与所述方向角标签中的方向角之间的损失值是用来判断车辆的方向角预测值与方向角标签中的方向角之间的差距,可以通过均方差损失函数计算方向角预测值与方向角标签中的方向角之间的损失值,其中,通过均方差损失函数计算损失值MSE的公式如下所示:
其中,yi为方向角标签中的方向角,为车辆的方向角预测值,n为车辆的方向角预测值或者方向角标签中的方向角的个数。本实施例可以通过对损失值的计算及时对神经网络模型进行训练和修正,可以使得神经网络模型的输出结果更加准确。
由于所述输入训练数据计算量较大,可以对其中的方向角数据进行编码与解码操作,将空间角度转换为机器所能够识别的数据格式,并起到压缩数据量,简化神经网络模型训练时的数据处理过程和传输过程。
在一个实施例中,对所述输入训练数据中的方向角标签进行编码操作,转换为具有预设输出格式的方向角数据;将所述输出训练数据中的具有预设输出格式的方向角数据进行解码操作确定方向角预测值后输出。
其中,预设输出格式可以是二进制、十进制、八进制、十六进制等,具有预设输出格式的数据可以是二进制、十进制、八进制、十六进制等的数据,具有预设输出格式的数据可以简化模型的数据处理过程。
编码操作是将数据根据预设的编码规则转换成预设输出格式的数据,示例性的,可以将0°到360°的数值转化为用0到10的数值表示。方向角数据和具有预设输出格式的方向角数据之间存在对应关系,这种关系可以是线性关系。预设的编码规则是指数据和具有预设输出格式的数据之间互相转换的规则。解码操作是将具有预设输出格式的方向角数据还原成原始格式的方向角数据,例如,将上述0到10的数值还原为用0°到360°的数值表示。
神经网络模型在训练以及后续的预测过程中如果直接采用空间方向角度,会导致处理和传输速度较慢,因而可以先对方向角进行编码操作,再对数据进行解码操作。本实施例根据编码规则可以对数据格式或者数值范围进行转换,进而可以实现对数据进行压缩,可以简化模型的数据处理过程,可以使得大量的数据在神经网络模型在训练过程中的处理和传输有较快的速度。
上一个实施例是对神经网络的训练和修正,下述的实施例是实际运用中神经网络模型的计算方法。在输入数据输入至神经网络模型之前,可以对输入数据中的图像进行范围的限定,截取部分图像在神经网络模型中进行计算。
在一个实施例中,将所述输入数据输入至预设的神经网络模型中进行预测之前,还可以获取所述输入数据中预设的目标监控区域内的数据作为输入数据。
其中,目标监控区域是输入数据的约束范围,具体在生成输入数据的二维图像的时候约束图像的大小,将点云数据的x,y维数据限定在某个范围内。减小输入数据的数据量,减轻后续神经网络模型对输入数据的计算量。
根据目标监控区域的范围生成的输入数据,其中可以根据像素值范围生成二维伪彩图。
在一个实施例中,根据所述目标监控区域的二维伪彩图确定预设的像素值下的二维伪彩图。
具体的,预设的像素值代表了二维伪彩图中某一小方块的平均亮度信息,或者说是该小方块的平均反射(透射)密度信息。像素值可以用一个数表示,例如“0.3兆像素”数码相机有额定30万像素;也可以用一对数字表示,例如640x480显示器。本实施例进一步对二维伪彩图进行处理,可以通过设定合适像素值大小减小输入数据的数据处理和传输的量。
在神经网络训练过程中对角度数据进行编码和解码操作减轻数据处理和传输的压力,在实际预测过程中数据量更加丰富,因此也进行了编码和解码操作。
在一个实施例中,在神经网络实际预测过程中,会根据输入数据确定一个具有预设输出格式的角度数据,因此需要对该角度数据进行解码仪转换为预设平面下的二维方向角。解码操作在前面模型训练过程已经提交,本处不赘述。
步骤S108,根据所述方向角确定空间坐标系下的三维方位角。
具体的,在获取车辆的方向角后,该方向角为一个二维图像中车辆的方向角,如果要把输出的车辆方向角有更广泛的应用,例如用于车辆的自主导航系统,可以将车辆的方向角转换为空间坐标系下的三维方位角。
三维方位角可以是车辆的方向角在三维空间坐标系下的方位角,也可以是激光雷达坐标系下的方位角。三维方位角为三维空间下的角度,车辆的方向角为二维平面的角度。在实际应用中,三维方位角能有更广泛的应用,例如,在车辆进行自主导航系统控制的时候,车辆行驶的道路可能在不同的高度,比如在立交桥上,二维的方向角使得不同道路上的车辆重合,自主导航系统会出现错误判断,这时候通过三维方向角可以对车辆进行精确的导航。
如图8所示,在一个实施例中,提供了一种车辆方向角的预测装置,所述装置包括:
获取模块802,用于获取待分析的三维点云数据,所述三维点云数据包括回波强度信息;
转换模块804,用于将所述三维点云数据转换为在预设平面上的二维伪彩图;根据所述三维点云数据生成原始深度图和原始回波强度图中的至少一个;
计算模块806,用于将所述原始深度图和所述原始回波强度中的至少一个与所述二维伪彩图作为输入数据,输入预设的神经网络模型;所述神经网络模型至少能够根据所述输入数据确定输出数据,所述输出数据包括车辆的位置、类型和方向角;
确定模块808,用于根据所述方向角确定空间坐标系下的三维方位角。
如图9所示,在一个实施例中,所述装置还包括训练模块809,如图10所示,所述训练模块809包括:构建单元,用于构建神经网络模型;所述神经网络模型中至少包括用于对车辆的位置、类型以及方向角进行预测的分支;输入单元,用于获取带有位置标签、类型标签以及方向角标签的三维点云训练数据,将根据该三维点云训练数据确定的原始深度训练图和原始回波强度训练图中的至少一个与二维伪彩训练图作为输入训练数据输入至所述神经网络模型中;输出单元,用于利用所述神经网络模型对所述输入训练数据进行预测得到所述车辆的位置预测值、类型预测值和方向角预测值作为输出训练数据;损失计算单元,用于根据所述位置预测值与所述位置标签中的位置之间的损失值、所述类型预测值与所述类型标签中的类型之间的损失值、所述方向角预测值与所述方向角标签中的方向角之间的损失值对所述神经网络模型进行修正。
在一个实施例中,所述输入单元还包括:编码子单元,用于对所述输入训练数据中的方向角标签进行编码操作,转换为具有预设输出格式的方向角数据;所述输出单元还包括:解码子单元,将所述输出训练数据中的具有预设输出格式的方向角数据进行解码操作确定方向角预测值后输出。
在一个实施例中,所述获取模块802包括:预处理单元,用于对三维点云数据进行预处理,所述预处理包括移除三维点云数据中的地面和/或预设区域的三维点云数据。
在一个实施例中,所述计算模块806还包括:获取所述输入数据中预设的目标监控区域内的数据作为输入数据。
在一个实施例中,所述转换模块804还包括:根据所述目标监控区域的二维伪彩图确定预设的像素值区间下的二维伪彩图。
如图11所示,在一个实施例中,所述转换模块804包括:深度转换单元,用于根据三维点云数据中的每个点云数据相对于预设平面的深度信息生成对应的原始深度图;和/或,强度转换单元,用于根据三维点云数据中的每个点云数据的回波强度信息生成对应的原始回波强度图。
如图12所示,在一个实施例中,所述计算模块806还包括:编码单元,用于获取所述输入数据的角度区间,对所述角度区间上的数据进行编码操作,转换为具有预设输出格式的角度数据;解码单元,用于将所述输出数据中的具有预设输出格式的角度数据进行解码操作确定方向角。
图13示出了一个实施例中激光雷达系统中的处理设备的内部结构图。该处理设备具体可以是终端,也可以是服务器。如图13所示,该处理设备包括通过系统总线连接的处理器、存储器和网络接口。其中,存储器包括非易失性存储介质和内存储器。该处理设备的非易失性存储介质存储有操作系统,还可存储有计算机程序,该计算机程序被处理器执行时,可使得处理器实现车辆方向角的预测方法。该内存储器中也可储存有计算机程序,该计算机程序被处理器执行时,可使得处理器执行车辆方向角的预测方法。本领域技术人员可以理解,图13中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提出了一种激光雷达系统,激光雷达和处理设备,所述处理设备包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行以下步骤:获取待分析的三维点云数据,所述三维点云数据包括回波强度信息;将所述三维点云数据转换为在预设平面上的二维伪彩图;根据所述三维点云数据生成原始深度图和原始回波强度图中的至少一个;将所述原始深度图和所述原始回波强度图中的至少一个与所述二维伪彩图作为输入数据,输入预设的神经网络模型;所述神经网络模型至少能够根据所述输入数据确定输出数据,所述输出数据包括车辆的位置、类型和方向角;根据所述方向角确定空间坐标系下的三维方位角。
在一个实施例中,所述输入至预设的神经网络模型的步骤之前,还包括:构建神经网络模型;所述神经网络模型中至少包括用于对车辆的位置、类型以及方向角进行预测的分支;获取带有位置标签、类型标签以及方向角标签的三维点云训练数据,将根据该三维点云训练数据确定的原始深度训练图和原始回波强度训练图中的至少一个与二维伪彩训练图作为输入训练数据输入至所述神经网络模型中;利用所述神经网络模型对所述输入训练数据进行预测得到所述车辆的位置预测值、类型预测值和方向角预测值作为输出训练数据;根据所述位置预测值与所述位置标签中的位置之间的损失值、所述类型预测值与所述类型标签中的类型之间的损失值、所述方向角预测值与所述方向角标签中的方向角之间的损失值对所述神经网络模型进行修正。
在一个实施例中,所述将带有位置标签、类型标签以及方向角标签的三维点云训练数据作为输入训练数据输入至所述神经网络模型中的步骤还包括:对所述输入训练数据中的方向角标签进行编码操作,转换为具有预设输出格式的方向角数据;所述利用所述神经网络模型对所述输入数据进行预测得到所述车辆的位置预测值、类型预测值和方向角预测值作为输出训练数据的步骤还包括:将所述输出训练数据中的具有预设输出格式的方向角数据进行解码操作确定方向角预测值后输出。
在一个实施例中,所述获取待分析的三维点云数据的步骤包括:对三维点云数据进行预处理,所述预处理包括移除三维点云数据中的地面和/或预设区域的三维点云数据。
在一个实施例中,所述将所述输入数据输入至预设的神经网络模型中进行预测的步骤之前,还包括:获取所述输入数据中预设的目标监控区域内的数据作为输入数据。
在一个实施例中,所述将所述三维点云数据转换为在预设平面上的二维伪彩图的步骤还包括:根据所述目标监控区域的二维伪彩图确定预设的像素值区间下的二维伪彩图。
在一个实施例中,所述根据所述三维点云数据生成原始深度图和原始回波强度图中的至少一个的步骤包括:根据三维点云数据中的每个点云数据相对于预设平面的深度信息生成对应的原始深度图;和/或,根据三维点云数据中的每个点云数据的回波强度信息生成对应的原始回波强度图。
在一个实施例中,提出了一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行以下步骤:获取待分析的三维点云数据,所述三维点云数据包括回波强度信息;将所述三维点云数据转换为在预设平面上的二维伪彩图;根据所述三维点云数据生成原始深度图和原始回波强度图中的至少一个;将所述原始深度图和所述原始回波强度图中的至少一个与所述二维伪彩图作为输入数据,输入预设的神经网络模型;所述神经网络模型至少能够根据所述输入数据确定输出数据,所述输出数据包括车辆的位置、类型和方向角;根据所述方向角确定空间坐标系下的三维方位角。
在一个实施例中,所述输入至预设的神经网络模型的步骤之前,还包括:构建神经网络模型;所述神经网络模型中至少包括用于对车辆的位置、类型以及方向角进行预测的分支;获取带有位置标签、类型标签以及方向角标签的三维点云训练数据,将根据该三维点云训练数据确定的原始深度训练图和原始回波强度训练图中的至少一个与二维伪彩训练图作为输入训练数据输入至所述神经网络模型中;利用所述神经网络模型对所述输入训练数据进行预测得到所述车辆的位置预测值、类型预测值和方向角预测值作为输出训练数据;根据所述位置预测值与所述位置标签中的位置之间的损失值、所述类型预测值与所述类型标签中的类型之间的损失值、所述方向角预测值与所述方向角标签中的方向角之间的损失值对所述神经网络模型进行修正。
在一个实施例中,所述将带有位置标签、类型标签以及方向角标签的三维点云训练数据作为输入训练数据输入至所述神经网络模型中的步骤还包括:对所述输入训练数据中的方向角标签进行编码操作,转换为具有预设输出格式的方向角数据;所述利用所述神经网络模型对所述输入数据进行预测得到所述车辆的位置预测值、类型预测值和方向角预测值作为输出训练数据的步骤还包括:将所述输出训练数据中的具有预设输出格式的方向角数据进行解码操作确定方向角预测值后输出。
在一个实施例中,所述获取待分析的三维点云数据的步骤包括:对三维点云数据进行预处理,所述预处理包括移除三维点云数据中的地面和/或预设区域的三维点云数据。
在一个实施例中,所述将所述输入数据输入至预设的神经网络模型中进行预测的步骤之前,还包括:获取所述输入数据中预设的目标监控区域内的数据作为输入数据。
在一个实施例中,所述将所述三维点云数据转换为在预设平面上的二维伪彩图的步骤还包括:根据所述目标监控区域的二维伪彩图确定预设的像素值区间下的二维伪彩图。
在一个实施例中,所述三维点云数据包括深度信息,所述根据所述三维点云数据生成原始深度图和原始回波强度图中的至少一个的步骤包括:根据三维点云数据中的每个点云数据相对于预设平面的深度信息生成对应的原始深度图;和/或,根据三维点云数据中的每个点云数据的回波强度信息生成对应的原始回波强度图。
采用本发明的车辆方向角的预测方法、装置、设备以及存储介质,使用三维激光扫描仪或照相式扫描仪获取待分析的三维点云数据,所述三维点云数据包括回波强度信息;将获取得到的三维点云数据转换为在预设平面上的二维伪彩图;根据所述三维点云数据生成原始深度图和原始回波强度图中的至少一个;将所述原始深度图和所述原始回波强度图中的至少一个与所述二维伪彩图输入预设的神经网络模型,通过神经网络模型进行计算输出车辆的位置、类型和方向角;最后根据所述方向角确定空间坐标系下的三维方位角。本发明提供的车辆方向角的预测方法、装置、设备以及存储介质将数据处理量较大的三维点云数据转换为数据处理量较小的二维图像,并且二维图像的保留的深度信息和回波强度信息能有效得出车辆的方位角信息,因此在减小了数据计算量的同时,还准确得到车辆的三维方位角。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。请输入具体实施内容部分。

Claims (10)

1.一种车辆方向角的预测方法,其特征在于,所述方法包括:
获取待分析的三维点云数据,所述三维点云数据包括回波强度信息;
将所述三维点云数据转换为在预设平面上的二维伪彩图;根据所述三维点云数据生成原始深度图和原始回波强度图中的至少一个;将三维点云数据转换在预设平面上的二维伪彩图是将三维的数据转换到预设平面生成二维图像,将另一维度的数据作为点云深度信息,生成的二维图像利用点云深度信息,将其值映射到0~255灰度值区间,并将灰度图变为彩色图,从而得到所述二维伪彩图;
将所述原始深度图和所述原始回波强度图中的至少一个与所述二维伪彩图作为输入数据,输入预设的神经网络模型;所述神经网络模型至少能够根据所述输入数据确定输出数据,所述输出数据包括车辆的位置、类型和方向角;
根据所述方向角确定空间坐标系下的三维方位角。
2.根据权利要求1所述的方法,其特征在于,所述输入至预设的神经网络模型的步骤之前,还包括:
构建神经网络模型;所述神经网络模型中至少包括用于对车辆的位置、类型以及方向角进行预测的分支;
获取带有位置标签、类型标签以及方向角标签的三维点云训练数据,将根据该三维点云训练数据确定的原始深度训练图和原始回波强度训练图中的至少一个与二维伪彩训练图作为输入训练数据输入至所述神经网络模型中;
利用所述神经网络模型对所述输入训练数据进行预测得到所述车辆的位置预测值、类型预测值和方向角预测值作为输出训练数据;
根据所述位置预测值与所述位置标签中的位置之间的损失值、所述类型预测值与所述类型标签中的类型之间的损失值、所述方向角预测值与所述方向角标签中的方向角之间的损失值对所述神经网络模型进行修正。
3.根据权利要求2所述的方法,其特征在于,所述获取带有位置标签、类型标签以及方向角标签的三维点云训练数据,将根据该三维点云训练数据确定的原始深度训练图和原始回波强度训练图中的至少一个与二维伪彩训练图作为输入训练数据输入至所述神经网络模型中的步骤还包括:
对所述输入训练数据中的方向角标签进行编码操作,转换为具有预设输出格式的方向角数据;
所述利用所述神经网络模型对所述输入数据进行预测得到所述车辆的位置预测值、类型预测值和方向角预测值作为输出训练数据的步骤还包括:
将所述输出训练数据中的具有预设输出格式的方向角数据进行解码操作确定方向角预测值后输出。
4.根据权利要求1所述的方法,其特征在于,所述获取待分析的三维点云数据的步骤包括:
对三维点云数据进行预处理,所述预处理包括移除三维点云数据中的地面和/或预设区域的三维点云数据。
5.根据权利要求1所述的方法,其特征在于,所述输入至预设的神经网络模型的步骤之前,还包括:获取所述输入数据中预设的目标监控区域内的数据作为输入数据。
6.根据权利要求5所述的方法,其特征在于,所述将所述三维点云数据转换为在预设平面上的二维伪彩图的步骤还包括:根据所述目标监控区域的二维伪彩图确定预设的像素值区间下的二维伪彩图。
7.根据权利要求1所述的方法,其特征在于,所述根据所述三维点云数据生成原始深度图和原始回波强度图中的至少一个的步骤包括:
根据三维点云数据中的每个点云数据相对于预设平面的深度信息生成对应的原始深度图;和/或
根据三维点云数据中的每个点云数据的回波强度信息生成对应的原始回波强度图。
8.一种车辆方向角的预测装置,其特征在于,所述装置包括:
获取模块,用于获取待分析的三维点云数据,所述三维点云数据包括回波强度信息;
转换模块,用于将所述三维点云数据转换为在预设平面上的二维伪彩图;根据所述三维点云数据生成原始深度图和原始回波强度图中的至少一个;将三维点云数据转换在预设平面上的二维伪彩图是将三维的数据转换到预设平面生成二维图像,将另一维度的数据作为点云深度信息,生成的二维图像利用点云深度信息,将其值映射到0~255灰度值区间,并将灰度图变为彩色图,从而得到所述二维伪彩图;
计算模块,用于将所述原始深度图和所述原始回波强度中的至少一个与所述二维伪彩图作为输入数据,输入预设的神经网络模型;所述神经网络模型至少能够根据所述输入数据确定输出数据,所述输出数据包括车辆的位置、类型和方向角;
确定模块,用于根据所述方向角确定空间坐标系下的三维方位角。
9.一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行如权利要求1至7中任一项所述方法的步骤。
10.一种激光雷达系统,激光雷达和处理设备,所述处理设备包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如权利要求1至7中任一项所述方法的步骤。
CN201911188168.9A 2019-11-28 2019-11-28 车辆方向角的预测方法、装置、系统以及存储介质 Active CN111009011B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911188168.9A CN111009011B (zh) 2019-11-28 2019-11-28 车辆方向角的预测方法、装置、系统以及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911188168.9A CN111009011B (zh) 2019-11-28 2019-11-28 车辆方向角的预测方法、装置、系统以及存储介质

Publications (2)

Publication Number Publication Date
CN111009011A CN111009011A (zh) 2020-04-14
CN111009011B true CN111009011B (zh) 2023-09-19

Family

ID=70113562

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911188168.9A Active CN111009011B (zh) 2019-11-28 2019-11-28 车辆方向角的预测方法、装置、系统以及存储介质

Country Status (1)

Country Link
CN (1) CN111009011B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112288897B (zh) * 2020-09-30 2022-08-30 深圳市金溢科技股份有限公司 基于深度学习的车载单元定位方法以及路侧单元
WO2022104774A1 (zh) * 2020-11-23 2022-05-27 华为技术有限公司 目标检测方法和装置
CN115412717B (zh) * 2021-05-26 2024-05-17 荣耀终端有限公司 一种点云方位角信息的预测编解码方法及装置
CN115412721B (zh) * 2021-05-26 2024-05-28 荣耀终端有限公司 一种点云二维规则化平面投影方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107025642A (zh) * 2016-01-27 2017-08-08 百度在线网络技术(北京)有限公司 基于点云数据的车辆轮廓检测方法和装置
CN109375237A (zh) * 2018-12-12 2019-02-22 北京华科博创科技有限公司 一种全固态面阵三维成像激光雷达系统
CN109493407A (zh) * 2018-11-19 2019-03-19 腾讯科技(深圳)有限公司 实现激光点云稠密化的方法、装置及计算机设备
CN110286387A (zh) * 2019-06-25 2019-09-27 深兰科技(上海)有限公司 应用于自动驾驶系统的障碍物检测方法、装置及存储介质
CN110400337A (zh) * 2019-07-10 2019-11-01 北京达佳互联信息技术有限公司 图像处理方法、装置、电子设备及存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109840448A (zh) * 2017-11-24 2019-06-04 百度在线网络技术(北京)有限公司 用于无人驾驶车辆的信息输出方法和装置
US10776983B2 (en) * 2018-02-27 2020-09-15 Nvidia Corporation Analysis of point cloud data using depth and texture maps

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107025642A (zh) * 2016-01-27 2017-08-08 百度在线网络技术(北京)有限公司 基于点云数据的车辆轮廓检测方法和装置
CN109493407A (zh) * 2018-11-19 2019-03-19 腾讯科技(深圳)有限公司 实现激光点云稠密化的方法、装置及计算机设备
CN109375237A (zh) * 2018-12-12 2019-02-22 北京华科博创科技有限公司 一种全固态面阵三维成像激光雷达系统
CN110286387A (zh) * 2019-06-25 2019-09-27 深兰科技(上海)有限公司 应用于自动驾驶系统的障碍物检测方法、装置及存储介质
CN110400337A (zh) * 2019-07-10 2019-11-01 北京达佳互联信息技术有限公司 图像处理方法、装置、电子设备及存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
VoxelNet: End-to-End Learning for Point Cloud Based 3D Object Detection;Yin Zhou 等;arXiv;第1-10页 *
基于激光雷达的远距离运动车辆位姿估计;张名芳;付锐;石涌泉;程文冬;;公路交通科技(12);第135-143页 *

Also Published As

Publication number Publication date
CN111009011A (zh) 2020-04-14

Similar Documents

Publication Publication Date Title
CN111009011B (zh) 车辆方向角的预测方法、装置、系统以及存储介质
CN111797650B (zh) 障碍物的识别方法、装置、计算机设备和存储介质
EP3876141A1 (en) Object detection method, related device and computer storage medium
WO2022083402A1 (zh) 障碍物检测方法、装置、计算机设备和存储介质
CN109737874B (zh) 基于三维视觉技术的物体尺寸测量方法及装置
CN109099915B (zh) 移动机器人定位方法、装置、计算机设备和存储介质
KR102249769B1 (ko) 2차원 영상의 픽셀별 3차원 좌표값 추정 방법 및 이를 이용한 자율주행정보 추정 방법
CN112106111A (zh) 一种标定方法、设备、可移动平台及存储介质
CN110827202A (zh) 目标检测方法、装置、计算机设备和存储介质
CN115797454B (zh) 一种鸟瞰图视角下多摄像机融合感知方法及装置
CN113743385A (zh) 一种无人船水面目标检测方法、装置及无人船
CN114998856B (zh) 一种多相机图像的3d目标检测方法、装置、设备及介质
CN113421330A (zh) 车路协同的道路三维场景构建方法、装置、设备及介质
CN114119992A (zh) 基于图像与点云融合的多模态三维目标检测方法及装置
CN116188893A (zh) 基于bev的图像检测模型训练及目标检测方法和装置
CN115147328A (zh) 三维目标检测方法及装置
CN113421217A (zh) 可行驶区域检测方法和装置
CN114662587A (zh) 一种基于激光雷达的三维目标感知方法、装置及系统
CN114821497A (zh) 目标物位置的确定方法、装置、设备及存储介质
CN113256709A (zh) 目标检测方法、装置、计算机设备以及存储介质
CN113240750A (zh) 三维空间信息测算方法及装置
CN117132649A (zh) 人工智能融合北斗卫星导航的船舶视频定位方法及装置
CN116630216A (zh) 基于雷达和影像的目标融合方法、装置、设备及存储介质
CN116152714A (zh) 目标跟踪方法、系统及电子设备
CN115240168A (zh) 感知结果获取方法、装置、计算机设备、存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant