CN115376321A - 智慧交通下的智能汽车的目标检测方法及其系统 - Google Patents

智慧交通下的智能汽车的目标检测方法及其系统 Download PDF

Info

Publication number
CN115376321A
CN115376321A CN202211018023.6A CN202211018023A CN115376321A CN 115376321 A CN115376321 A CN 115376321A CN 202211018023 A CN202211018023 A CN 202211018023A CN 115376321 A CN115376321 A CN 115376321A
Authority
CN
China
Prior art keywords
angle
feature
feature vector
image
vectors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202211018023.6A
Other languages
English (en)
Inventor
李玮涛
沈琦超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Chaoyang Technology Co ltd
Original Assignee
Hangzhou Chaoyang Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Chaoyang Technology Co ltd filed Critical Hangzhou Chaoyang Technology Co ltd
Priority to CN202211018023.6A priority Critical patent/CN115376321A/zh
Publication of CN115376321A publication Critical patent/CN115376321A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Electromagnetism (AREA)
  • Image Analysis (AREA)

Abstract

本申请涉及智慧交通的领域,其具体地公开了一种智慧交通下的智能汽车的目标检测方法及其系统,其通过卷积神经网络模型挖掘出被测目标的图像的局部高维特征分布以得到图像特征向量,并且使用基于上下文的编码器模型对深度点云数据中的每个数据点的五维坐标进行全局性关联特征的提取,进一步将获得的所述每一组第一到第五特征向量基于浅层映射网络进行3D空间数据的优化,以将点的体函数表示优化为向量函数,从而得到角度特征向量,这样就可以使用图神经网络来融合这两个特征向量以综合所述激光雷达获取的目标深度点云数据和所述RGB相机获取的目标图像来对被测目标的类别进行检测,以提高对于智能汽车的分类检测的准确度。

Description

智慧交通下的智能汽车的目标检测方法及其系统
技术领域
本发明涉及智慧交通的领域,且更为具体地,涉及一种智慧交通下的智能汽车的目标检测方法及其系统。
背景技术
智能车辆是一个集环境感知、规划决策、多等级辅助驾驶等功能于一体的综合系统,它集中运用了计算机、现代传感、信息融合、通讯、人工智能及自动控制等技术,是典型的高新技术综合体。现在对智能车辆的研究主要致力于提高汽车的安全性、舒适性,以及提供优良的人车交互界面。近年来,智能车辆己经成为世界车辆工程领域研究的热点和汽车工业增长的新动力,很多发达国家都将其纳入到各自重点发展的智能交通系统当中。
目前,智能汽车上都配备有传感器感知系统,以用来避免发生车辆的碰撞,进而保护人们的生命安全。但是,现今针对智能汽车单一传感器的环境感知具有局限性,这样就会导致智能汽车的避障不准确,从而发生意外的交通事故,给人们的生命财产带来损失。因此,为了提高对于目标检测的准确度,期望一种智慧交通下的智能汽车的目标检测方法。
目前,深度学习以及神经网络已经广泛应用于计算机视觉、自然语言处理、语音信号处理等领域。此外,深度学习以及神经网络在图像分类、物体检测、语义分割、文本翻译等领域,也展现出了接近甚至超越人类的水平。
深度学习以及神经网络的发展为智慧交通中的智能汽车的目标检测提供了新的解决思路和方案。
发明内容
为了解决上述技术问题,提出了本申请。本申请的实施例提供了一种智慧交通下的智能汽车的目标检测方法及其系统,其通过卷积神经网络模型挖掘出被测目标的图像的局部高维特征分布以得到图像特征向量,并且使用基于上下文的编码器模型对深度点云数据中的每个数据点的五维坐标进行全局性关联特征的提取,进一步将获得的所述每一组第一到第五特征向量基于浅层映射网络进行3D空间数据的优化,以将点的体函数表示优化为向量函数,从而得到角度特征向量,这样就可以使用图神经网络来融合这两个特征向量以综合所述激光雷达获取的目标深度点云数据和所述RGB相机获取的目标图像来对被测目标的类别进行检测,以提高对于智能汽车的分类检测的准确度。
根据本申请的一个方面,提供了一种智慧交通下的智能汽车的目标检测方法,其包括:
通过部署于智能汽车的激光雷达获得被测目标的深度点云数据以及通过部署于所述智能汽车的RGB相机获取所述被测目标的图像;
将所述被测目标的图像通过卷积神经网络以获得图像特征向量;
获取所述深度点云数据中每个数据点的五维坐标
Figure BDA0003813076430000021
其中θ表示数据点相对于视线轴线的角度,
Figure BDA0003813076430000022
表示数据点在视平面上的角度;
将所述深度点云数据中所有数据点的五维坐标分别输入上下文编码器以获得N组第一到第三位置特征向量和N组第四和第五特征向量,其中,所述N为所述深度点云数据中数据点的数量;
将所述N组第一到第三位置特征向量中每一组第一到第三位置特征向量级联后分别输入第一全连接神经网络以获得对应于每一组第一到第三位置特征向量的一个空间坐标值以获得N个空间坐标值;
将所述N组第四和第五特征向量中每一组第四和第五特征向量级联后分别输入第二全连接神经网络以获得对应于每一组第四和第五特征向量的第一角度值和第二角度值;
基于每一组所述空间坐标值、所述第一角度值和所述第二角度值获得一个角度特征值以生成由N个角度特征值组成的角度特征向量,其中,所述角度特征值为所述第一角度值乘以所述空间坐标值加上所述第二角度值的正弦函数值;
构造所述图像特征向量和所述角度特征向量的高斯密度图,其中,所述高斯密度图的均值向量为所述图像特征向量和所述角度特征向量之间的均值向量,所述高斯密度图的协方差矩阵中各个位置的值为所述图像特征向量和所述角度特征向量中相应位置的特征值之间的方差;
对所述高斯密度图进行高斯离散化以获得分类矩阵;以及
将所述分类矩阵通过分类器以获得分类结果,所述分类结果为所述被测目标的类别标签。
根据本申请的另一方面,提供了一种智慧交通下的智能汽车的目标检测系统,其包括:
图像获取单元,用于通过部署于智能汽车的激光雷达获得被测目标的深度点云数据以及通过部署于所述智能汽车的RGB相机获取所述被测目标的图像;
卷积单元,用于将所述图像获取单元获得的所述被测目标的图像通过卷积神经网络以获得图像特征向量;
五维坐标获取单元,用于获取所述深度点云数据中每个数据点的五维坐标
Figure BDA0003813076430000031
其中θ表示数据点相对于视线轴线的角度,
Figure BDA0003813076430000032
表示数据点在视平面上的角度;
上下文编码单元,用于将所述五维坐标获取单元获得的所述深度点云数据中所有数据点的五维坐标分别输入上下文编码器以获得N组第一到第三位置特征向量和N组第四和第五特征向量,其中,所述N为所述深度点云数据中数据点的数量;
空间坐标值生成单元,用于将所述上下文编码单元获得的所述N组第一到第三位置特征向量中每一组第一到第三位置特征向量级联后分别输入第一全连接神经网络以获得对应于每一组第一到第三位置特征向量的一个空间坐标值以获得N个空间坐标值;
角度值生成单元,用于将所述上下文编码单元获得的所述N组第四和第五特征向量中每一组第四和第五特征向量级联后分别输入第二全连接神经网络以获得对应于每一组第四和第五特征向量的第一角度值和第二角度值;
角度特征向量计算单元,用于基于每一组所述空间坐标值生成单元获得的所述空间坐标值、所述角度值生成单元获得的所述第一角度值和所述角度值生成单元获得的所述第二角度值获得一个角度特征值以生成由N个角度特征值组成的角度特征向量,其中,所述角度特征值为所述第一角度值乘以所述空间坐标值加上所述第二角度值的正弦函数值;
高密密度图构造单元,用于构造所述卷积单元获得的所述图像特征向量和所述角度特征向量计算单元获得的所述角度特征向量的高斯密度图,其中,所述高斯密度图的均值向量为所述图像特征向量和所述角度特征向量之间的均值向量,所述高斯密度图的协方差矩阵中各个位置的值为所述图像特征向量和所述角度特征向量中相应位置的特征值之间的方差;
高斯离散化单元,用于对所述高密密度图构造单元获得的所述高斯密度图进行高斯离散化以获得分类矩阵;以及
分类单元,用于将所述高斯离散化单元获得的所述分类矩阵通过分类器以获得分类结果,所述分类结果为所述被测目标的类别标签。
根据本申请的再又一方面,提供了一种计算机可读介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行如上所述的智慧交通下的智能汽车的目标检测方法。
与现有技术相比,本申请提供的智慧交通下的智能汽车的目标检测方法及其系统,其通过卷积神经网络模型挖掘出被测目标的图像的局部高维特征分布以得到图像特征向量,并且使用基于上下文的编码器模型对深度点云数据中的每个数据点的五维坐标进行全局性关联特征的提取,进一步将获得的所述每一组第一到第五特征向量基于浅层映射网络进行3D空间数据的优化,以将点的体函数表示优化为向量函数,从而得到角度特征向量,这样就可以使用图神经网络来融合这两个特征向量以综合所述激光雷达获取的目标深度点云数据和所述RGB相机获取的目标图像来对被测目标的类别进行检测,以提高对于智能汽车的分类检测的准确度。
附图说明
通过结合附图对本申请实施例进行更详细的描述,本申请的上述以及其他目的、特征和优势将变得更加明显。附图用来提供对本申请实施例的进一步理解,并且构成说明书的一部分,与本申请实施例一起用于解释本申请,并不构成对本申请的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1为根据本申请实施例的智慧交通下的智能汽车的目标检测方法的应用场景图;
图2为根据本申请实施例的智慧交通下的智能汽车的目标检测方法的流程图;
图3为根据本申请实施例的智慧交通下的智能汽车的目标检测方法的系统架构示意图;
图4为根据本申请实施例的智慧交通下的智能汽车的目标检测系统的框图;
具体实施方式
下面,将参考附图详细地描述根据本申请的示例实施例。显然,所描述的实施例仅仅是本申请的一部分实施例,而不是本申请的全部实施例,应理解,本申请不受这里描述的示例实施例的限制。
场景概述
如前所述,智能汽车上都配备有传感器感知系统,以用来避免发生车辆的碰撞,进而保护人们的生命安全。但是,现今针对智能汽车单一传感器的环境感知具有局限性,这样就会导致智能汽车的避障不准确,从而发生意外的交通事故,给人们的生命财产带来损失。因此,为了提高对于目标检测的准确度,期望一种智慧交通下的智能汽车的目标检测方法。
目前,深度学习以及神经网络已经广泛应用于计算机视觉、自然语言处理、语音信号处理等领域。此外,深度学习以及神经网络在图像分类、物体检测、语义分割、文本翻译等领域,也展现出了接近甚至超越人类的水平。
深度学习以及神经网络的发展为智慧交通中的智能汽车的目标检测提供了新的解决思路和方案。
应可以理解,由于传统的汽车避障只是针对智能汽车的单一传感器来进行环境的感知与避障,这就具有局限性,也就会使得对于目标的检测准确度不高。因此在本申请中期望构建一种融合RGB图像和激光雷达的目标检测方法,而这本质上是一个分类的问题,也就是,通过激光雷达获取的目标的深度点云数据与通过RGB相机获取的目标图像来综合对被测目标的类别进行检测。
基于此,在本申请的技术方案中,在通过部署于智能汽车的激光雷达获得被测目标的深度点云数据以及通过部署于智能汽车的RGB相机获取所述被测目标的图像之后,将被测目标的图像通过卷积神经网络中进行处理,以提取出被测目标图像的局部高维特征分布,以获得图像特征向量。
接着,获得深度点云数据中的每个数据点的五维坐标
Figure BDA0003813076430000051
其中θ表示点相对于视线轴线的角度,
Figure BDA0003813076430000052
表示点在视平面上的角度。进一步将所有点,例如n个点的五维坐标输入上下文编码器中进行上下文编码,得到具有全局性数据关联信息的n个第一到第三位置特征向量和n个第四和第五角度特征向量。
然后,使用每一组第一到第五特征向量基于浅层映射网络进行3D空间数据的优化,也就是,将点的体函数表示(即上述五维坐标表示)优化为向量函数,即,输入为3D位置坐标信息和方向角度信息,输出为角度信息。具体地,将第一到第三特征向量级联后输入第一全连接神经网络回归得到空间坐标值p,再将第四和第五特征向量级联后输入第二全连接神经网络回归得到第一和第二角度值α和β,再经过sin(α·p+β)得到角度特征值。
这样,对于n个点,可以组成长度为n的角度特征向量。然后,再将图像特征向量和角度特征向量通过高斯密度图进行融合处理,以通过高斯密度图来作为卷积神经网络的学习目标,来随着模型学习更新参数而生成不同目标尺度的高维特征间的更优的概率分布。最后,将所述高斯密度图进行高斯离散化后以在数据特征增广时不产生信息损失,从而得到分类矩阵,再将其通过分类器,以获得所述被测目标的类别标签的分类结果。
基于此,本申请提出了一种智慧交通下的智能汽车的目标检测方法,其包括:通过部署于智能汽车的激光雷达获得被测目标的深度点云数据以及通过部署于所述智能汽车的RGB相机获取所述被测目标的图像;将所述被测目标的图像通过卷积神经网络以获得图像特征向量;获取所述深度点云数据中每个数据点的五维坐标
Figure BDA0003813076430000061
其中θ表示数据点相对于视线轴线的角度,
Figure BDA0003813076430000062
表示数据点在视平面上的角度;将所述深度点云数据中所有数据点的五维坐标分别输入上下文编码器以获得N组第一到第三位置特征向量和N组第四和第五特征向量,其中,所述N为所述深度点云数据中数据点的数量;将所述N组第一到第三位置特征向量中每一组第一到第三位置特征向量级联后分别输入第一全连接神经网络以获得对应于每一组第一到第三位置特征向量的一个空间坐标值以获得N个空间坐标值;将所述N组第四和第五特征向量中每一组第四和第五特征向量级联后分别输入第二全连接神经网络以获得对应于每一组第四和第五特征向量的第一角度值和第二角度值;基于每一组所述空间坐标值、所述第一角度值和所述第二角度值获得一个角度特征值以生成由N个角度特征值组成的角度特征向量,其中,所述角度特征值为所述第一角度值乘以所述空间坐标值加上所述第二角度值的正弦函数值;构造所述图像特征向量和所述角度特征向量的高斯密度图,其中,所述高斯密度图的均值向量为所述图像特征向量和所述角度特征向量之间的均值向量,所述高斯密度图的协方差矩阵中各个位置的值为所述图像特征向量和所述角度特征向量中相应位置的特征值之间的方差;对所述高斯密度图进行高斯离散化以获得分类矩阵;以及,将所述分类矩阵通过分类器以获得分类结果,所述分类结果为所述被测目标的类别标签。
图1图示了根据本申请实施例的智慧交通下的智能汽车的目标检测方法的应用场景图。如图1所示,在该应用场景中,首先,通过部署于智能汽车(例如,如图1中所示意的B)的激光雷达(例如,如图1中所示意的T)获得被测目标(例如,如图1中所示意的D)的深度点云数据,以及通过部署于所述智能汽车的RGB相机(例如,如图1中所示意的C)获取所述被测目标的图像,这里,所述被测目标可以为别的车辆、石壁、树木等。然后,将获得的所述深度点云数据以及所述被测目标的图像输入至部署有智慧交通下的智能汽车的目标检测算法的服务器中(例如,如图1中所示意的S),其中,所述服务器能够以智慧交通下的智能汽车的目标检测算法对所述深度点云数据以及所述被测目标的图像进行处理,以生成用于表示所述被测目标的类别标签的分类结果。
在介绍了本申请的基本原理之后,下面将参考附图来具体介绍本申请的各种非限制性实施例。
示例性方法
图2图示了智慧交通下的智能汽车的目标检测方法的流程图。如图2所示,根据本申请实施例的智慧交通下的智能汽车的目标检测方法,包括:S110,通过部署于智能汽车的激光雷达获得被测目标的深度点云数据以及通过部署于所述智能汽车的RGB相机获取所述被测目标的图像;S120,将所述被测目标的图像通过卷积神经网络以获得图像特征向量;S130,获取所述深度点云数据中每个数据点的五维坐标
Figure BDA0003813076430000071
其中θ表示数据点相对于视线轴线的角度,
Figure BDA0003813076430000072
表示数据点在视平面上的角度;S140,将所述深度点云数据中所有数据点的五维坐标分别输入上下文编码器以获得N组第一到第三位置特征向量和N组第四和第五特征向量,其中,所述N为所述深度点云数据中数据点的数量;S150,将所述N组第一到第三位置特征向量中每一组第一到第三位置特征向量级联后分别输入第一全连接神经网络以获得对应于每一组第一到第三位置特征向量的一个空间坐标值以获得N个空间坐标值;S160,将所述N组第四和第五特征向量中每一组第四和第五特征向量级联后分别输入第二全连接神经网络以获得对应于每一组第四和第五特征向量的第一角度值和第二角度值;S170,基于每一组所述空间坐标值、所述第一角度值和所述第二角度值获得一个角度特征值以生成由N个角度特征值组成的角度特征向量,其中,所述角度特征值为所述第一角度值乘以所述空间坐标值加上所述第二角度值的正弦函数值;S180,构造所述图像特征向量和所述角度特征向量的高斯密度图,其中,所述高斯密度图的均值向量为所述图像特征向量和所述角度特征向量之间的均值向量,所述高斯密度图的协方差矩阵中各个位置的值为所述图像特征向量和所述角度特征向量中相应位置的特征值之间的方差;S190,对所述高斯密度图进行高斯离散化以获得分类矩阵;以及,S200,将所述分类矩阵通过分类器以获得分类结果,所述分类结果为所述被测目标的类别标签。
图3图示了根据本申请实施例的智慧交通下的智能汽车的目标检测方法的架构示意图。如图3所示,在所述智慧交通下的智能汽车的目标检测方法的网络架构中,首先,将获得的所述被测目标的图像(例如,如图3中所示意的P1)通过卷积神经网络(例如,如图3中所示意的CNN)以获得图像特征向量(例如,如图3中所示意的VF1);接着,获取所述深度点云数据(例如,如图3中所示意的P2)中每个数据点的五维坐标
Figure BDA0003813076430000081
(例如,如图3中所示意的P3);然后,将所述深度点云数据中所有数据点的五维坐标分别输入上下文编码器(例如,如图3中所示意的E)以获得N组第一到第三位置特征向量(例如,如图3中所示意的V1)和N组第四和第五特征向量(例如,如图3中所示意的V2);接着,将所述N组第一到第三位置特征向量中每一组第一到第三位置特征向量级联后分别输入第一全连接神经网络(例如,如图3中所示意的DNN1)以获得对应于每一组第一到第三位置特征向量的一个空间坐标值以获得N个空间坐标值(例如,如图3中所示意的SCV);然后,将所述N组第四和第五特征向量中每一组第四和第五特征向量级联后分别输入第二全连接神经网络(例如,如图3中所示意的DNN2)以获得对应于每一组第四和第五特征向量的第一角度值(例如,如图3中所示意的AV1)和第二角度值(例如,如图3中所示意的AV2);接着,基于每一组所述空间坐标值、所述第一角度值和所述第二角度值获得一个角度特征值以生成由N个角度特征值组成的角度特征向量(例如,如图3中所示意的VF);然后,构造所述图像特征向量和所述角度特征向量的高斯密度图(例如,如图3中所示意的GD);接着,对所述高斯密度图进行高斯离散化以获得分类矩阵(例如,如图3中所示意的M);以及,最后,将所述分类矩阵通过分类器(例如,如图3中所示意的分类器)以获得分类结果,所述分类结果为所述被测目标的类别标签。
在步骤S110和步骤S120中,通过部署于智能汽车的激光雷达获得被测目标的深度点云数据以及通过部署于所述智能汽车的RGB相机获取所述被测目标的图像,并将所述被测目标的图像通过卷积神经网络以获得图像特征向量。如前所述,应可以理解,由于传统的汽车避障只是针对智能汽车的单一传感器来进行环境的感知与避障,这就具有局限性,也就会使得对于目标的检测准确度不高。因此,在本申请的技术方案中,期望构建一种融合RGB图像和激光雷达的目标检测方法,而这本质上是一个分类的问题,也就是,通过所述激光雷达获取的目标的深度点云数据与通过所述RGB相机获取的目标图像来综合对所述被测目标的类别进行检测。
也就是,具体地,在本申请的技术方案中,首先,通过部署于智能汽车的激光雷达获得被测目标的深度点云数据,以及通过部署于所述智能汽车的RGB相机获取所述被测目标的图像,这里,所述被测目标可以为别的车辆、石壁、树木等。然后,将所述被测目标的图像通过卷积神经网络中进行特征提取,以提取出所述被测目标图像的局部高维特征分布,从而获得图像特征向量。相应地,在一个具体示例中,所述卷积神经网络的各层在层的正向传递中对输入数据进行卷积处理、沿通道维度的池化处理和激活处理以由所述卷积神经网络的最后一层生成所述图像特征向量,其中,所述卷积神经网络的第一层的输入为所述被测目标的图像。
在步骤S130和步骤S140中,获取所述深度点云数据中每个数据点的五维坐标
Figure BDA0003813076430000092
其中θ表示数据点相对于视线轴线的角度,
Figure BDA0003813076430000093
表示数据点在视平面上的角度,并将所述深度点云数据中所有数据点的五维坐标分别输入上下文编码器以获得N组第一到第三位置特征向量和N组第四和第五特征向量,其中,所述N为所述深度点云数据中数据点的数量。也就是,在本申请的技术方案中,在获得所述被测目标的深度点云数据后,为了转化为需要可处理的数据类型,以获得更为准确地检测结果,因此,进一步获得所述深度点云数据中的每个数据点的五维坐标
Figure BDA0003813076430000091
这里,θ表示点相对于视线轴线的角度,
Figure BDA0003813076430000101
表示点在视平面上的角度。然后,将所述深度点云数据中所有数据点,例如N个点的五维坐标分别输入上下文编码器中进行全局性信息的上下文编码,以获得具有全局性数据关联信息的N组第一到第三位置特征向量和N组第四和第五特征向量。这里,所述N为所述深度点云数据中数据点的数量。
具体地,在本申请实施例中,将所述深度点云数据中所有数据点的五维坐标分别输入上下文编码器以获得N组第一到第三位置特征向量和N组第四和第五特征向量的过程,包括:首先,使用所述基于上下文的编码器模型的嵌入层分别将所述深度点云数据中所有数据点的五维坐标转化为输入向量以获得输入向量的序列。然后,使用所述基于上下文的编码器模型的转换器分别对所述输入向量的序列进行基于全局的上下文语义编码以获得N组第一到第三位置特征向量和N组第四和第五特征向量。应可以理解,由于基于转换器的编码器模型能够基于上下文对所述输入向量进行编码处理,因此所获得的特征向量具有全局性的数据关联特征信息。
在步骤S150和步骤S160中,将所述N组第一到第三位置特征向量中每一组第一到第三位置特征向量级联后分别输入第一全连接神经网络以获得对应于每一组第一到第三位置特征向量的一个空间坐标值以获得N个空间坐标值,并将所述N组第四和第五特征向量中每一组第四和第五特征向量级联后分别输入第二全连接神经网络以获得对应于每一组第四和第五特征向量的第一角度值和第二角度值。应可以理解,由于所述激光雷达的坐标系和所述RGB相机的坐标系存在差异,这个会导致高维特征分布在高维空间中存在不对齐的问题,因此,在本申请的技术方案中,进一步使用所述N组中每一组的第一到第五特征向量基于浅层映射网络进行3D空间数据的优化,也就是,将所述点的体函数表示(即上述五维坐标表示)优化为向量函数,即,输入为所述3D位置坐标信息和所述方向角度信息,输出为角度信息。
具体地,在本申请的技术方案中,首先将所述N组第一到第三特征向量级联后分别输入第一全连接神经网络中进行处理,以获得对应于所述每一组第一到第三位置特征向量的一个空间坐标值以获得N个空间坐标值p。然后,再将所述N组第四和第五特征向量级联后输入第二全连接神经网络回归得到第一和第二角度值α和β。
具体地,在本申请实施例中,将所述N组第一到第三位置特征向量中每一组第一到第三位置特征向量级联后分别输入第一全连接神经网络以获得对应于每一组第一到第三位置特征向量的一个空间坐标值以获得N个空间坐标值的过程,包括:以如下公式将所述N组第一到第三位置特征向量中每一组第一到第三位置特征向量级联后分别输入第一全连接神经网络以获得对应于每一组第一到第三位置特征向量的一个空间坐标值以获得N个空间坐标值;其中,所述公式为:
Figure BDA0003813076430000111
其中X是所述N组第一到第三位置特征向量中每一组第一到第三位置特征向量,Y是所述N个坐标值,W是权重矩阵,B是偏置向量,
Figure BDA0003813076430000112
表示矩阵乘,p(·)为激活函数。
在步骤S170中,基于每一组所述空间坐标值、所述第一角度值和所述第二角度值获得一个角度特征值以生成由N个角度特征值组成的角度特征向量,其中,所述角度特征值为所述第一角度值乘以所述空间坐标值加上所述第二角度值的正弦函数值。应可以理解,为了将点的体函数表示(即上述五维坐标表示)优化为向量函数,以使用所述每一组第一到第五特征向量基于浅层映射网络进行3D空间数据的优化,进而便于后续的数据融合,以提高分类的准确性。因此,在本申请的技术方案中,还需要进一步基于每一组所述空间坐标值、所述第一角度值和所述第二角度值获得一个角度特征值以生成由N个角度特征值组成的角度特征向量
具体地,在本申请实施例中,基于每一组所述空间坐标值、所述第一角度值和所述第二角度值获得一个角度特征值以生成由N个角度特征值组成的角度特征向量的过程,包括:基于每一组所述空间坐标值、所述第一角度值和所述第二角度值以如下公式获得一个角度特征值以生成由N个角度特征值组成的角度特征向量;
其中,所述公式为:
sin(α·p+β)
其中,p表示对应于每一组所述第一到第三位置特征向量的一个空间坐标值,α表示对应于每一组所述第四特征向量的第一角度值,β表示对应于每一组所述第五特征向量的第二角度值。
在步骤S180中,构造所述图像特征向量和所述角度特征向量的高斯密度图,其中,所述高斯密度图的均值向量为所述图像特征向量和所述角度特征向量之间的均值向量,所述高斯密度图的协方差矩阵中各个位置的值为所述图像特征向量和所述角度特征向量中相应位置的特征值之间的方差。应可以理解,由于所述图像数据和所述角度数据在尺度和格式上的差异,会使得这两个特征向量在高维特征空间中对应着不同的特征分布流形,并且这些特征分布的流形本身的形状不规则且位置散布,因此如果仅通过级联的方式来对这两个特征向量进行融合,会使得获得的特征分布流形的边界复杂且不规则,进而降低后续分类的准确性。因此,在本申请的技术方案中,将所述图像特征向量和所述角度特征向量通过高斯密度图进行融合处理,以通过高斯密度图来作为卷积神经网络的学习目标,来随着模型学习更新参数而生成不同目标尺度的高维特征间的更优的概率分布。
具体地,在本申请实施例中,构造所述图像特征向量和所述角度特征向量的高斯密度图的过程,包括:以如下公式构造所述图像特征向量和所述角度特征向量的高斯密度图;其中,所述公式为:
Figure BDA0003813076430000121
x表示合成后的高斯向量,μi表示所述图像特征向量和所述角度特征向量的每个位置的特征值的均值,且σi表示所述图像特征向量和所述角度特征向量的每个位置的特征值的方差。
在步骤S190和步骤S200中,对所述高斯密度图进行高斯离散化以获得分类矩阵,并将所述分类矩阵通过分类器以获得分类结果,所述分类结果为所述被测目标的类别标签。也就是,在本申请的技术方案中,进一步再将所述高斯密度图进行高斯离散化后以在数据的特征融合增广时不产生信息损失,从而得到分类矩阵。然后,再将所述分类矩阵通过分类器中,以获得用于表示所述被测目标的类别标签的分类结果。在一个具体示例中,所述分类器以如下公式对所述分类矩阵进行处理以生成分类结果,其中,所述公式为:softmax{(Wn,Bn):…:(W1,B1)|project(F)},其中project(F)表示将所述分类矩阵投影为向量,W1至Wn为各层全连接层的权重矩阵,B1至Bn表示各层全连接层的偏置矩阵。
综上,本申请实施例的智慧交通下的智能汽车的目标检测方法被阐明,其通过卷积神经网络模型挖掘出被测目标的图像的局部高维特征分布以得到图像特征向量,并且使用基于上下文的编码器模型对深度点云数据中的每个数据点的五维坐标进行全局性关联特征的提取,进一步将获得的所述每一组第一到第五特征向量基于浅层映射网络进行3D空间数据的优化,以将点的体函数表示优化为向量函数,从而得到角度特征向量,这样就可以使用图神经网络来融合这两个特征向量以综合所述激光雷达获取的目标深度点云数据和所述RGB相机获取的目标图像来对被测目标的类别进行检测,以提高对于智能汽车的分类检测的准确度。
示例性系统
图4图示了根据本申请实施例的智慧交通下的智能汽车的目标检测系统的框图。如图4所示,根据本申请实施例的智慧交通下的智能汽车的目标检测系统400,包括:图像获取单元410,用于通过部署于智能汽车的激光雷达获得被测目标的深度点云数据以及通过部署于所述智能汽车的RGB相机获取所述被测目标的图像;卷积单元420,用于将所述图像获取单元410获得的所述被测目标的图像通过卷积神经网络以获得图像特征向量;五维坐标获取单元430,用于获取所述深度点云数据中每个数据点的五维坐标
Figure BDA0003813076430000131
其中θ表示数据点相对于视线轴线的角度,
Figure BDA0003813076430000132
表示数据点在视平面上的角度;上下文编码单元440,用于将所述五维坐标获取单元430获得的所述深度点云数据中所有数据点的五维坐标分别输入上下文编码器以获得N组第一到第三位置特征向量和N组第四和第五特征向量,其中,所述N为所述深度点云数据中数据点的数量;空间坐标值生成单元450,用于将所述上下文编码单元430获得的所述N组第一到第三位置特征向量中每一组第一到第三位置特征向量级联后分别输入第一全连接神经网络以获得对应于每一组第一到第三位置特征向量的一个空间坐标值以获得N个空间坐标值;角度值生成单元460,用于将所述上下文编码单元430获得的所述N组第四和第五特征向量中每一组第四和第五特征向量级联后分别输入第二全连接神经网络以获得对应于每一组第四和第五特征向量的第一角度值和第二角度值;角度特征向量计算单元470,用于基于每一组所述空间坐标值生成单元450获得的所述空间坐标值、所述角度值生成单元460获得的所述第一角度值和所述角度值生成单元460获得的所述第二角度值获得一个角度特征值以生成由N个角度特征值组成的角度特征向量,其中,所述角度特征值为所述第一角度值乘以所述空间坐标值加上所述第二角度值的正弦函数值;高密密度图构造单元480,用于构造所述卷积单元420获得的所述图像特征向量和所述角度特征向量计算单元470获得的所述角度特征向量的高斯密度图,其中,所述高斯密度图的均值向量为所述图像特征向量和所述角度特征向量之间的均值向量,所述高斯密度图的协方差矩阵中各个位置的值为所述图像特征向量和所述角度特征向量中相应位置的特征值之间的方差;高斯离散化单元490,用于对所述高密密度图构造单元480获得的所述高斯密度图进行高斯离散化以获得分类矩阵;以及,分类单元500,用于将所述高斯离散化单元490获得的所述分类矩阵通过分类器以获得分类结果,所述分类结果为所述被测目标的类别标签。
在一个示例中,在上述智慧交通下的智能汽车的目标检测系统400中,所述卷积单元420,进一步用于:所述卷积神经网络的各层在层的正向传递中对输入数据进行卷积处理、沿通道维度的池化处理和激活处理以由所述卷积神经网络的最后一层生成所述图像特征向量,其中,所述卷积神经网络的第一层的输入为所述被测目标的图像。
在一个示例中,在上述智慧交通下的智能汽车的目标检测系统400中,所述上下文编码单元440,进一步用于:使用所述基于上下文的编码器模型的嵌入层分别将所述深度点云数据中所有数据点的五维坐标转化为输入向量以获得输入向量的序列;以及,使用所述基于上下文的编码器模型的转换器分别对所述输入向量的序列进行基于全局的上下文语义编码以获得N组第一到第三位置特征向量和N组第四和第五特征向量。
在一个示例中,在上述智慧交通下的智能汽车的目标检测系统400中,所述空间坐标值生成单元450,进一步用于:以如下公式将所述N组第一到第三位置特征向量中每一组第一到第三位置特征向量级联后分别输入第一全连接神经网络以获得对应于每一组第一到第三位置特征向量的一个空间坐标值以获得N个空间坐标值;其中,所述公式为:
Figure BDA0003813076430000141
其中X是所述N组第一到第三位置特征向量中每一组第一到第三位置特征向量,Y是所述N个坐标值,W是权重矩阵,B是偏置向量,
Figure BDA0003813076430000142
表示矩阵乘,p(·)为激活函数。
在一个示例中,在上述智慧交通下的智能汽车的目标检测系统400中,所述角度特征向量计算单元470,进一步用于:基于每一组所述空间坐标值、所述第一角度值和所述第二角度值以如下公式获得一个角度特征值以生成由N个角度特征值组成的角度特征向量;
其中,所述公式为:
sin(α·p+β)
其中,p表示对应于每一组所述第一到第三位置特征向量的一个空间坐标值,α表示对应于每一组所述第四特征向量的第一角度值,β表示对应于每一组所述第五特征向量的第二角度值。
在一个示例中,在上述智慧交通下的智能汽车的目标检测系统400中,所述高密密度图构造单元480,进一步用于:以如下公式构造所述图像特征向量和所述角度特征向量的高斯密度图;其中,所述公式为:
Figure BDA0003813076430000151
x表示合成后的高斯向量,μi表示所述图像特征向量和所述角度特征向量的每个位置的特征值的均值,且σi表示所述图像特征向量和所述角度特征向量的每个位置的特征值的方差。
在一个示例中,在上述智慧交通下的智能汽车的目标检测系统400中,所述分类单元500,进一步用于:所述分类器以如下公式对所述分类矩阵进行处理以生成分类结果,其中,所述公式为:softmax{(Wn,Bn):…:(W1,B1)|Project(F)},其中Project(F)表示将所述分类矩阵投影为向量,W1至Wn为各层全连接层的权重矩阵,B1至Bn表示各层全连接层的偏置矩阵。
这里,本领域技术人员可以理解,上述智慧交通下的智能汽车的目标检测系统400中的各个单元和模块的具体功能和操作已经在上面参考图1到图3的智慧交通下的智能汽车的目标检测方法的描述中得到了详细介绍,并因此,将省略其重复描述。
如上所述,根据本申请实施例的智慧交通下的智能汽车的目标检测系统400可以实现在各种终端设备中,例如智慧交通下的智能汽车的目标检测算法的服务器等。在一个示例中,根据本申请实施例的智慧交通下的智能汽车的目标检测系统400可以作为一个软件模块和/或硬件模块而集成到终端设备中。例如,该智慧交通下的智能汽车的目标检测系统400可以是该终端设备的操作系统中的一个软件模块,或者可以是针对于该终端设备所开发的一个应用程序;当然,该智慧交通下的智能汽车的目标检测系统400同样可以是该终端设备的众多硬件模块之一。
替换地,在另一示例中,该智慧交通下的智能汽车的目标检测系统400与该终端设备也可以是分立的设备,并且该智慧交通下的智能汽车的目标检测系统400可以通过有线和/或无线网络连接到该终端设备,并且按照约定的数据格式来传输交互信息。
示例性计算机程序产品和计算机可读存储介质
除了上述方法和设备以外,本申请的实施例还可以是计算机程序产品,其包括计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本申请各种实施例的智慧交通下的智能汽车的目标检测方法中的功能中的步骤。
所述计算机程序产品可以以一种或多种程序设计语言的任意组合来编写用于执行本申请实施例操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。
此外,本申请的实施例还可以是计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的智慧交通下的智能汽车的目标检测方法中的步骤。
所述计算机可读存储介质可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的系统、系统或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
以上结合具体实施例描述了本申请的基本原理,但是,需要指出的是,在本申请中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本申请的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本申请为必须采用上述具体的细节来实现。
本申请中涉及的器件、装置、设备、系统的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、系统。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
还需要指出的是,在本申请的装置、设备和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本申请的等效方案。
提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本申请。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本申请的范围。因此,本申请不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本申请的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。

Claims (10)

1.一种智慧交通下的智能汽车的目标检测方法,其特征在于,包括:
通过部署于智能汽车的激光雷达获得被测目标的深度点云数据以及通过部署于所述智能汽车的RGB相机获取所述被测目标的图像;
将所述被测目标的图像通过卷积神经网络以获得图像特征向量;
获取所述深度点云数据中每个数据点的五维坐标
Figure FDA0003813076420000011
其中θ表示数据点相对于视线轴线的角度,
Figure FDA0003813076420000012
表示数据点在视平面上的角度;
将所述深度点云数据中所有数据点的五维坐标分别输入上下文编码器以获得N组第一到第三位置特征向量和N组第四和第五特征向量,其中,所述N为所述深度点云数据中数据点的数量;
将所述N组第一到第三位置特征向量中每一组第一到第三位置特征向量级联后分别输入第一全连接神经网络以获得对应于每一组第一到第三位置特征向量的一个空间坐标值以获得N个空间坐标值;
将所述N组第四和第五特征向量中每一组第四和第五特征向量级联后分别输入第二全连接神经网络以获得对应于每一组第四和第五特征向量的第一角度值和第二角度值;
基于每一组所述空间坐标值、所述第一角度值和所述第二角度值获得一个角度特征值以生成由N个角度特征值组成的角度特征向量,其中,所述角度特征值为所述第一角度值乘以所述空间坐标值加上所述第二角度值的正弦函数值;
构造所述图像特征向量和所述角度特征向量的高斯密度图,其中,所述高斯密度图的均值向量为所述图像特征向量和所述角度特征向量之间的均值向量,所述高斯密度图的协方差矩阵中各个位置的值为所述图像特征向量和所述角度特征向量中相应位置的特征值之间的方差;
对所述高斯密度图进行高斯离散化以获得分类矩阵;以及
将所述分类矩阵通过分类器以获得分类结果,所述分类结果为所述被测目标的类别标签。
2.根据权利要求1所述的智慧交通下的智能汽车的目标检测方法,其中,将所述被测目标的图像通过卷积神经网络以获得图像特征向量,包括:
所述卷积神经网络的各层在层的正向传递中对输入数据进行卷积处理、沿通道维度的池化处理和激活处理以由所述卷积神经网络的最后一层生成所述图像特征向量,其中,所述卷积神经网络的第一层的输入为所述被测目标的图像。
3.根据权利要求2所述的智慧交通下的智能汽车的目标检测方法,其中,将所述深度点云数据中所有数据点的五维坐标分别输入上下文编码器以获得N组第一到第三位置特征向量和N组第四和第五特征向量,其中,所述N为所述深度点云数据中数据点的数量,包括:
使用所述基于上下文的编码器模型的嵌入层分别将所述深度点云数据中所有数据点的五维坐标转化为输入向量以获得输入向量的序列;以及
使用所述基于上下文的编码器模型的转换器分别对所述输入向量的序列进行基于全局的上下文语义编码以获得N组第一到第三位置特征向量和N组第四和第五特征向量。
4.根据权利要求3所述的智慧交通下的智能汽车的目标检测方法,其中,将所述N组第一到第三位置特征向量中每一组第一到第三位置特征向量级联后分别输入第一全连接神经网络以获得对应于每一组第一到第三位置特征向量的一个空间坐标值以获得N个空间坐标值,包括:
以如下公式将所述N组第一到第三位置特征向量中每一组第一到第三位置特征向量级联后分别输入第一全连接神经网络以获得对应于每一组第一到第三位置特征向量的一个空间坐标值以获得N个空间坐标值;
其中,所述公式为:
Figure FDA0003813076420000021
其中X是所述N组第一到第三位置特征向量中每一组第一到第三位置特征向量,Y是所述N个坐标值,W是权重矩阵,B是偏置向量,
Figure FDA0003813076420000022
表示矩阵乘,p(·)为激活函数。
5.根据权利要求4所述的智慧交通下的智能汽车的目标检测方法,其中,基于每一组所述空间坐标值、所述第一角度值和所述第二角度值获得一个角度特征值以生成由N个角度特征值组成的角度特征向量,包括:
基于每一组所述空间坐标值、所述第一角度值和所述第二角度值以如下公式获得一个角度特征值以生成由N个角度特征值组成的角度特征向量;
其中,所述公式为:
sin(α·p+β)
其中,p表示对应于每一组所述第一到第三位置特征向量的一个空间坐标值,α表示对应于每一组所述第四特征向量的第一角度值,β表示对应于每一组所述第五特征向量的第二角度值。
6.根据权利要求5所述的智慧交通下的智能汽车的目标检测方法,其中,构造所述图像特征向量和所述角度特征向量的高斯密度图,包括:
以如下公式构造所述图像特征向量和所述角度特征向量的高斯密度图;
其中,所述公式为:
Figure FDA0003813076420000031
x表示合成后的高斯向量,μi表示所述图像特征向量和所述角度特征向量的每个位置的特征值的均值,且σi表示所述图像特征向量和所述角度特征向量的每个位置的特征值的方差。
7.根据权利要求6所述的智慧交通下的智能汽车的目标检测方法,其中,将所述分类矩阵通过分类器以获得分类结果,所述分类结果为所述被测目标的类别标签,包括:
所述分类器以如下公式对所述分类矩阵进行处理以生成分类结果,其中,所述公式为:softmax{(Wn,Bn):…:(W1,B1)|Project(F)},其中Project(F)表示将所述分类矩阵投影为向量,W1至Wn为各层全连接层的权重矩阵,B1至Bn表示各层全连接层的偏置矩阵。
8.一种智慧交通下的智能汽车的目标检测系统,其特征在于,包括:
图像获取单元,用于通过部署于智能汽车的激光雷达获得被测目标的深度点云数据以及通过部署于所述智能汽车的RGB相机获取所述被测目标的图像;
卷积单元,用于将所述图像获取单元获得的所述被测目标的图像通过卷积神经网络以获得图像特征向量;
五维坐标获取单元,用于获取所述深度点云数据中每个数据点的五维坐标
Figure FDA0003813076420000032
其中θ表示数据点相对于视线轴线的角度,
Figure FDA0003813076420000033
表示数据点在视平面上的角度;
上下文编码单元,用于将所述五维坐标获取单元获得的所述深度点云数据中所有数据点的五维坐标分别输入上下文编码器以获得N组第一到第三位置特征向量和N组第四和第五特征向量,其中,所述N为所述深度点云数据中数据点的数量;
空间坐标值生成单元,用于将所述上下文编码单元获得的所述N组第一到第三位置特征向量中每一组第一到第三位置特征向量级联后分别输入第一全连接神经网络以获得对应于每一组第一到第三位置特征向量的一个空间坐标值以获得N个空间坐标值;
角度值生成单元,用于将所述上下文编码单元获得的所述N组第四和第五特征向量中每一组第四和第五特征向量级联后分别输入第二全连接神经网络以获得对应于每一组第四和第五特征向量的第一角度值和第二角度值;
角度特征向量计算单元,用于基于每一组所述空间坐标值生成单元获得的所述空间坐标值、所述角度值生成单元获得的所述第一角度值和所述角度值生成单元获得的所述第二角度值获得一个角度特征值以生成由N个角度特征值组成的角度特征向量,其中,所述角度特征值为所述第一角度值乘以所述空间坐标值加上所述第二角度值的正弦函数值;
高密密度图构造单元,用于构造所述卷积单元获得的所述图像特征向量和所述角度特征向量计算单元获得的所述角度特征向量的高斯密度图,其中,所述高斯密度图的均值向量为所述图像特征向量和所述角度特征向量之间的均值向量,所述高斯密度图的协方差矩阵中各个位置的值为所述图像特征向量和所述角度特征向量中相应位置的特征值之间的方差;
高斯离散化单元,用于对所述高密密度图构造单元获得的所述高斯密度图进行高斯离散化以获得分类矩阵;以及
分类单元,用于将所述高斯离散化单元获得的所述分类矩阵通过分类器以获得分类结果,所述分类结果为所述被测目标的类别标签。
9.根据权利要求8所述的智慧交通下的智能汽车的目标检测系统,其中,所述卷积单元,进一步用于:
所述卷积神经网络的各层在层的正向传递中对输入数据进行卷积处理、沿通道维度的池化处理和激活处理以由所述卷积神经网络的最后一层生成所述图像特征向量,其中,所述卷积神经网络的第一层的输入为所述被测目标的图像。
10.根据权利要求8所述的智慧交通下的智能汽车的目标检测系统,其中,所述上下文编码单元,进一步用于:
使用所述基于上下文的编码器模型的嵌入层分别将所述深度点云数据中所有数据点的五维坐标转化为输入向量以获得输入向量的序列;以及,使用所述基于上下文的编码器模型的转换器分别对所述输入向量的序列进行基于全局的上下文语义编码以获得N组第一到第三位置特征向量和N组第四和第五特征向量。
CN202211018023.6A 2022-08-24 2022-08-24 智慧交通下的智能汽车的目标检测方法及其系统 Withdrawn CN115376321A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211018023.6A CN115376321A (zh) 2022-08-24 2022-08-24 智慧交通下的智能汽车的目标检测方法及其系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211018023.6A CN115376321A (zh) 2022-08-24 2022-08-24 智慧交通下的智能汽车的目标检测方法及其系统

Publications (1)

Publication Number Publication Date
CN115376321A true CN115376321A (zh) 2022-11-22

Family

ID=84067279

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211018023.6A Withdrawn CN115376321A (zh) 2022-08-24 2022-08-24 智慧交通下的智能汽车的目标检测方法及其系统

Country Status (1)

Country Link
CN (1) CN115376321A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116500379A (zh) * 2023-05-15 2023-07-28 珠海中瑞电力科技有限公司 一种sts装置电压跌落精准定位方法
CN117765499A (zh) * 2023-12-30 2024-03-26 武汉奥思工业设计有限公司 一种车辆辅助驾驶智能决策方法及系统

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116500379A (zh) * 2023-05-15 2023-07-28 珠海中瑞电力科技有限公司 一种sts装置电压跌落精准定位方法
CN116500379B (zh) * 2023-05-15 2024-03-08 珠海中瑞电力科技有限公司 一种sts装置电压跌落精准定位方法
CN117765499A (zh) * 2023-12-30 2024-03-26 武汉奥思工业设计有限公司 一种车辆辅助驾驶智能决策方法及系统

Similar Documents

Publication Publication Date Title
CN115376321A (zh) 智慧交通下的智能汽车的目标检测方法及其系统
KR102126724B1 (ko) 포인트 클라우드 데이터를 복구하기 위한 방법 및 장치
US11645848B2 (en) Method and device for classifying objects
CN110097553A (zh) 基于即时定位建图与三维语义分割的语义建图系统
Wang et al. Nearest neighbor-based contrastive learning for hyperspectral and LiDAR data classification
CN112233097A (zh) 基于空时域多维融合的道路场景他车检测系统和方法
CN112418351B (zh) 基于全局与局部上下文感知的零样本学习图像分类方法
CN113076891B (zh) 基于改进高分辨率网络的人体姿态预测方法及系统
Farag et al. Deep learning versus traditional methods for parking lots occupancy classification
CN110991377A (zh) 一种基于单目视觉神经网络的汽车安全辅助系统前方目标识别方法
CN116167989A (zh) 铝杯的智能化生产方法及其系统
CN116279504A (zh) 基于ar的车辆速度辅助系统及其方法
Lechgar et al. Detection of cities vehicle fleet using YOLO V2 and aerial images
CN115588126A (zh) 一种融合GAM、CARAFE和SnIoU的车辆目标检测方法
CN115221281A (zh) 知识产权检索系统及其检索方法
CN114049362A (zh) 一种基于transformer的点云实例分割方法
CN110543818A (zh) 基于权图匹配的红绿灯跟踪方法、装置、介质及设备
CN114821508A (zh) 基于隐式上下文学习的道路三维目标检测方法
CN114757819A (zh) 一种结构引导的风格偏差校正型风格迁移方法及系统
CN115830625A (zh) 基于FractalNet网络改进的手势图像特征提取方法
CN112800995A (zh) 使用多尺度特征加权的智能颗粒大小检测方法
Gao et al. Vehicle detection in high resolution image based on deep learning
CN114119615A (zh) 一种融合空间注意力和自注意变换网络的雷达分割方法
CN113723511B (zh) 一种基于遥感电磁辐射和红外图像的目标检测方法
CN112926361B (zh) 一种流形上的智能目标识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20221122