CN116844134A - 目标检测方法、装置、电子设备、存储介质及车辆 - Google Patents
目标检测方法、装置、电子设备、存储介质及车辆 Download PDFInfo
- Publication number
- CN116844134A CN116844134A CN202310803199.0A CN202310803199A CN116844134A CN 116844134 A CN116844134 A CN 116844134A CN 202310803199 A CN202310803199 A CN 202310803199A CN 116844134 A CN116844134 A CN 116844134A
- Authority
- CN
- China
- Prior art keywords
- feature
- target object
- features
- fused
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 134
- 238000000034 method Methods 0.000 claims description 43
- 230000004927 fusion Effects 0.000 claims description 26
- 238000010586 diagram Methods 0.000 claims description 25
- 238000004590 computer program Methods 0.000 claims description 18
- 238000000605 extraction Methods 0.000 claims description 11
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 238000013473 artificial intelligence Methods 0.000 abstract description 7
- 230000004438 eyesight Effects 0.000 abstract description 4
- 238000013135 deep learning Methods 0.000 abstract description 3
- 230000003190 augmentative effect Effects 0.000 abstract description 2
- 238000004891 communication Methods 0.000 description 23
- 238000012545 processing Methods 0.000 description 20
- 238000005516 engineering process Methods 0.000 description 14
- 230000007613 environmental effect Effects 0.000 description 14
- 238000013459 approach Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003924 mental process Effects 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000004297 night vision Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/143—Sensing or illuminating at different wavelengths
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Abstract
本公开提供了一种目标检测方法、装置、电子设备、存储介质及车辆,涉及人工智能技术领域,具体为计算机视觉、增强现实、虚拟现实、深度学习等技术领域,可应用于自动驾驶、智能交通等场景。实现方案为:获取与目标对象有关的第一感测数据和第二感测数据,第一感测数据和第二感测数据分别包括用于对目标对象进行目标检测的语义信息和位置信息;对第一感测数据进行特征提取,以获得与目标对象的语义信息相关联的第一特征;基于第二感测数据,对目标对象进行第一目标检测,以获得与目标对象的位置信息和类别信息相关联的第二特征;对第一特征和第二特征进行融合,以得到经融合的特征;以及基于经融合的特征,对目标对象进行第二目标检测。
Description
技术领域
本公开涉及人工智能技术领域,具体为计算机视觉、增强现实、虚拟现实、深度学习等技术领域,可应用于自动驾驶、智能交通等场景,尤其涉及一种目标检测方法、装置、电子设备、计算机可读存储介质、计算机程序产品和自动驾驶车辆。
背景技术
人工智能是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,既有硬件层面的技术也有软件层面的技术。人工智能硬件技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理等技术;人工智能软件技术主要包括计算机视觉技术、语音识别技术、自然语言处理技术以及机器学习/深度学习、大数据处理技术、知识图谱技术等几大方向。
近年来,人工智能的兴起也逐渐被应用于自动驾驶技术,为自动驾驶技术的落地提供了技术支持。在自动驾驶中,需要对道路中出现的目标物(例如车辆、行人等)进行准确的目标检测,这是业界或研究学者一直以来关注的热点问题之一。由于自动驾驶车辆一般配备有诸多种类的传感器(例如图像传感器、毫米波雷达、激光雷达等)以辅助车辆对环境进行感知,因此如何更为有效地将这些传感器采集的数据进行处理仍然是重要且关键的。
在此部分中描述的方法不一定是之前已经设想到或采用的方法。除非另有指明,否则不应假定此部分中描述的任何方法仅因其包括在此部分中就被认为是现有技术。类似地,除非另有指明,否则此部分中提及的问题不应认为在任何现有技术中已被公认。
发明内容
本公开提供了一种目标检测方法、装置、电子设备、计算机可读存储介质、计算机程序产品和自动驾驶车辆。
根据本公开的一方面,提供了一种目标检测方法,包括:获取与目标对象有关的第一感测数据和第二感测数据,其中,第一感测数据包括用于对目标对象进行目标检测的语义信息,第二感测数据包括用于对目标对象进行目标检测的位置信息;对第一感测数据进行特征提取,以获得与目标对象的语义信息相关联的第一特征;基于第二感测数据,对目标对象进行第一目标检测,以获得与目标对象的位置信息和类别信息相关联的第二特征;对第一特征和第二特征进行融合,以得到经融合的特征;以及基于经融合的特征,对目标对象进行第二目标检测。
根据本公开的另一方面,提供了一种目标检测装置,包括:数据获取模块,被配置为获取与目标对象有关的第一感测数据和第二感测数据,其中,第一感测数据包括用于对目标对象进行目标检测的语义信息,第二感测数据包括用于对目标对象进行目标检测的位置信息;第一特征获取模块,被配置为对第一感测数据进行特征提取,以获得与目标对象的语义信息相关联的第一特征;第二特征获取模块,被配置为基于第二感测数据,对目标对象进行第一目标检测,以获得与目标对象的位置信息和类别信息相关联的第二特征;特征融合模块,被配置为对第一特征和第二特征进行融合,以得到经融合的特征;以及目标检测模块,被配置为基于经融合的特征,对目标对象进行第二目标检测。
根据本公开的另一方面,提供了一种电子设备,包括至少一个处理器;以及与所述至少一个处理器通信连接的存储器,其中,存储器存储有能够被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上所述的方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使计算机执行如上所述的方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,其中,所述计算机程序在被处理器执行时实现如上所述的方法。
根据本公开的另一方面,提供了自动驾驶车辆,包括如上所述的电子设备。
根据本公开的一个或多个实施例,可以提升目标检测的精度和鲁棒性。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图示例性地示出了实施例并且构成说明书的一部分,与说明书的文字描述一起用于讲解实施例的示例性实施方式。所示出的实施例仅出于例示的目的,并不限制权利要求的范围。在所有附图中,相同的附图标记指代类似但不一定相同的要素。
图1示出了根据本公开实施例的可以在其中实施本文描述的各种方法的示例性系统的示意图;
图2示出了根据本公开实施例的目标检测方法的流程图;
图3示出了根据本公开实施例的执行第一目标检测的过程的流程图;
图4示出了根据本公开实施例的目标对象的高斯分布图的示意图;
图5示出了根据本公开实施例的目标检测方法的示意图;
图6示出了根据本公开一个实施例的目标检测装置的结构框图;
图7示出了根据本公开另一个实施例的目标检测装置的结构框图;
图8示出了能够用于实现本公开实施例的示例性电子设备的结构框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
在本公开中,除非另有说明,否则使用术语“第一”、“第二”等来描述各种要素不意图限定这些要素的位置关系、时序关系或重要性关系,这种术语只是用于将一个要素与另一要素区分开。在一些示例中,第一要素和第二要素可以指向该要素的同一实例,而在某些情况下,基于上下文的描述,它们也可以指代不同实例。
在本公开中对各种所述示例的描述中所使用的术语只是为了描述特定示例的目的,而并非旨在进行限制。除非上下文另外明确地表明,如果不特意限定要素的数量,则该要素可以是一个也可以是多个。此外,本公开中所使用的术语“和/或”涵盖所列出的项目中的任何一个以及全部可能的组合方式。
在相关技术中,已经逐渐提出了对各种不同传感器所采集的数据进行融合以提升目标检测精度的方法。
一种传统方法是将通过图像传感器采集的图像数据与通过雷达(例如毫米波雷达、激光雷达)采集的点云数据进行卡尔曼滤波加权融合。这种方法虽然在一定程度上提升了目标检测精度,但由于卡尔曼滤波通常需要对于传感器的感知误差有一个先验估计,并且权重的设定通常也依赖于实验或者经验,导致该方法仍然在实践中存在较大缺陷。
另一种传统方法是在图像(图像数据)和雷达(点云数据)两种模态下分别进行特征提取,然后对提取出的两种模态下的特征进行融合。然而,这种方法存在的问题是,由于雷达模态存在大量的噪声,通常在特征提取之后的融合特征中依然存在大量的噪声,因此会影响最终的目标检测结果。尤其是在某些极端天气下,由于噪声的加剧,导致目标检测的鲁棒性变差。
至少针对上述技术问题,本公开的实施例提供了一种目标检测方法和装置,其能够更为有效地对两种传感器模态下的感测数据进行融合,提升目标检测的精度和鲁棒性。
在详细描述本公开实施例的方法和装置之前,首先结合图1描述可以将本文描述的方法和装置在其中实施的示例性系统。
图1示出了根据本公开实施例的可以将本文描述的各种方法和装置在其中实施的示例性系统100的示意图。参考图1,该系统100包括机动车辆110、服务器120以及将机动车辆110耦接到服务器120的一个或多个通信网络130。
在本公开的实施例中,机动车辆110可以包括根据本公开实施例的计算设备和/或被配置以用于执行根据本公开实施例的方法。
服务器120可以运行能够执行目标检测方法的一个或多个服务或软件应用。在某些实施例中,服务器120还可以提供其他服务或软件应用,这些服务或软件应用可以包括非虚拟环境和虚拟环境。在图1所示的配置中,服务器120可以包括实现由服务器120执行的功能的一个或多个组件。这些组件可以包括可由一个或多个处理器执行的软件组件、硬件组件或其组合。机动车辆110的用户可以依次利用一个或多个客户端应用程序来与服务器120进行交互以利用这些组件提供的服务。应当理解,各种不同的系统配置是可能的,其可以与系统100不同。因此,图1是用于实施本文所描述的各种方法的系统的一个示例,并且不旨在进行限制。
服务器120可以包括一个或多个通用计算机、专用服务器计算机(例如PC(个人计算机)服务器、UNIX服务器、中端服务器)、刀片式服务器、大型计算机、服务器群集或任何其他适当的布置和/或组合。服务器120可以包括运行虚拟操作系统的一个或多个虚拟机,或者涉及虚拟化的其他计算架构(例如可以被虚拟化以维护服务器的虚拟存储设备的逻辑存储设备的一个或多个灵活池)。在各种实施例中,服务器120可以运行提供下文所描述的功能的一个或多个服务或软件应用。
服务器120中的计算单元可以运行包括上述任何操作系统以及任何商业上可用的服务器操作系统的一个或多个操作系统。服务器120还可以运行各种附加服务器应用程序和/或中间层应用程序中的任何一个,包括HTTP服务器、FTP服务器、CGI服务器、JAVA服务器、数据库服务器等。
在一些实施方式中,服务器120可以包括一个或多个应用程序,以分析和合并从机动车辆110接收的数据馈送和/或事件更新。服务器120还可以包括一个或多个应用程序,以经由机动车辆110的一个或多个显示设备来显示数据馈送和/或实时事件。
网络130可以是本领域技术人员熟知的任何类型的网络,其可以使用多种可用协议中的任何一种(包括但不限于TCP/IP、SNA、IPX等)来支持数据通信。仅作为示例,一个或多个网络130可以是卫星通信网络、局域网(LAN)、基于以太网的网络、令牌环、广域网(WAN)、因特网、虚拟网络、虚拟专用网络(VPN)、内部网、外部网、区块链网络、公共交换电话网(PSTN)、红外网络、无线网络(包括例如蓝牙、WiFi)和/或这些与其他网络的任意组合。
系统100还可以包括一个或多个数据库150。在某些实施例中,这些数据库可以用于存储数据和其他信息。例如,数据库150中的一个或多个可用于存储诸如音频文件和视频文件的信息。数据存储库150可以驻留在各种位置。例如,由服务器120使用的数据存储库可以在服务器120本地,或者可以远离服务器120且可以经由基于网络或专用的连接与服务器120通信。数据存储库150可以是不同的类型。在某些实施例中,由服务器120使用的数据存储库可以是数据库,例如关系数据库。这些数据库中的一个或多个可以响应于命令而存储、更新和检索到数据库以及来自数据库的数据。
在某些实施例中,数据库150中的一个或多个还可以由应用程序使用来存储应用程序数据。由应用程序使用的数据库可以是不同类型的数据库,例如键值存储库,对象存储库或由文件系统支持的常规存储库。
机动车辆110可以包括传感器111用于感知周围环境。传感器111可以包括下列传感器中的一个或多个:视觉摄像头、红外摄像头、超声波传感器、毫米波雷达以及激光雷达(LiDAR)。不同的传感器可以提供不同的检测精度和范围。摄像头可以安装在车辆的前方、后方或其他位置。视觉摄像头可以实时捕获车辆内外的情况并呈现给驾驶员和/或乘客。此外,通过对视觉摄像头捕获的画面进行分析,可以获取诸如交通信号灯指示、交叉路口情况、其他车辆运行状态等信息。红外摄像头可以在夜视情况下捕捉物体。超声波传感器可以安装在车辆的四周,用于利用超声波方向性强等特点来测量车外物体距车辆的距离。毫米波雷达可以安装在车辆的前方、后方或其他位置,用于利用电磁波的特性测量车外物体距车辆的距离。激光雷达可以安装在车辆的前方、后方或其他位置,用于检测物体边缘、形状信息,从而进行物体识别和追踪。由于多普勒效应,雷达装置还可以测量车辆与移动物体的速度变化。
机动车辆110还可以包括通信装置112。通信装置112可以包括能够从卫星141接收卫星定位信号(例如,北斗、GPS、GLONASS以及GALILEO)并且基于这些信号产生坐标的卫星定位模块。通信装置112还可以包括与移动通信基站142进行通信的模块,移动通信网络可以实施任何适合的通信技术,例如GSM/GPRS、CDMA、LTE等当前或正在不断发展的无线通信技术(例如5G技术)。通信装置112还可以具有车联网或车联万物(Vehicle-to-Everything,V2X)模块,被配置用于实现例如与其它车辆143进行车对车(Vehicle-to-Vehicle,V2V)通信和与基础设施144进行车辆到基础设施(Vehicle-to-Infrastructure,V2I)通信的车与外界的通信。此外,通信装置112还可以具有被配置为例如通过使用IEEE802.11标准的无线局域网或蓝牙与用户终端145(包括但不限于智能手机、平板电脑或诸如手表等可佩戴装置)进行通信的模块。利用通信装置112,机动车辆110还可以经由网络130接入服务器120。
机动车辆110还可以包括控制装置113。控制装置113可以包括与各种类型的计算机可读存储装置或介质通信的处理器,例如中央处理单元(CPU)或图形处理单元(GPU),或者其他的专用处理器等。控制装置113可以包括用于自动控制车辆中的各种致动器的自动驾驶系统。自动驾驶系统被配置为经由多个致动器响应来自多个传感器111或者其他输入设备的输入而控制机动车辆110(未示出的)动力总成、转向系统以及制动系统等以分别控制加速、转向和制动,而无需人为干预或者有限的人为干预。控制装置113的部分处理功能可以通过云计算实现。例如,可以使用车载处理器执行某一些处理,而同时可以利用云端的计算资源执行其他一些处理。控制装置113可以被配置以执行根据本公开的方法。此外,控制装置113可以被实现为根据本公开的机动车辆侧(客户端)的计算设备的一个示例。
下文将结合附图详细描述根据本公开实施例的目标检测方法和装置的各个方面。
图2示出了根据本公开实施例的目标检测方法200的流程图。如图2所示,目标检测方法200包括步骤S202、S204、S206、S208和S210。
在步骤S202,获取与目标对象有关的第一感测数据和第二感测数据。第一感测数据包括用于对目标对象进行目标检测的语义信息。第二感测数据包括用于对目标对象进行目标检测的位置信息。
在示例中,目标对象(也可称为目标物)可以是指自动驾驶车辆通过各种类型的传感器感知环境时所感测到的对象或物体,例如行人或其他机动车或非机动车等。
在示例中,如结合图1所描述的,自动驾驶车辆可以配备诸如图像传感器、红外传感器、超声波传感器、激光雷达、毫米波雷达等诸多类型的传感器。取决于这些传感器自身的数据采集原理,可以通过这些传感器之中的一种传感器(例如图像传感器、红外传感器等)所采集的感测数据或多种传感器所采集的感测数据的集合来获得用于对目标对象进行目标检测的语义信息。例如,语义信息可以包括用于反映目标对象的外观、形状、尺寸、类别等固有属性的信息。相应地,本公开实施例中通过上述一种或多种传感器获取的包括语义信息的感测数据被称为第一感测数据。类似地,也可以通过自动驾驶车辆所配备的传感器之中的另外一种传感器(例如超声波传感器、激光雷达、毫米波雷达等)所采集的感测数据或另外多种传感器所采集的感测数据的集合来获得用于对目标对象进行目标检测的位置信息。例如,位置信息可以包括用于反映目标对象的距离、角度、运动速度等空间属性的信息。
在步骤S204,对第一感测数据进行特征提取,以获得与目标对象的语义信息相关联的第一特征。
在示例中,如前所述,第一感测数据可以包括通过诸如图像传感器或红外传感器等传感器所采集的数据。取决于这些传感器的数据采集原理,第一感测数据包含了用于对目标对象进行目标检测的语义信息。相应地,可以对第一感测数据进行特征提取以得到对于上述语义信息的表达,即第一特征。注意的是,考虑到特征提取技术是本领域技术人员已知的,本文省略了对其详细技术细节的阐述,以避免混淆本公开的主旨。
在步骤S206,基于第二感测数据,对目标对象进行第一目标检测,以获得与目标对象的位置信息和类别信息相关联的第二特征。
如前所述,第二感测数据可以包括通过诸如超声波传感器、激光雷达、毫米波雷达等传感器所采集的数据。取决于这些传感器的数据采集原理,第二感测数据包含了用于对目标对象进行目标检测的位置信息。然而,由于这些传感器所采集的数据固有地携带大量环境噪声,一旦这些环境噪声在未被去除的情况下引入到后续处理中,将会影响甚至破坏最终的目标检测结果。
因此,在本公开的实施例中,提出了基于第二感测数据对目标对象进行“第一目标检测”,即辅助性目标检测任务。也就是,将第一目标检测作为整体的目标检测方法200中初步的目标检测任务,用以去除第二感测数据固有携带的环境噪声,以使得后续处理能够在不包含环境噪声的情况下进行。
同时,由于执行了目标检测,还可以获得目标对象的类别信息。因此,通过执行第一目标检测获得的第二特征能够与目标对象的位置信息和类别信息二者相关联。换言之,通过基于第二感测数据对目标对象进行第一目标检测,能够知晓目标对象属于何种类别及其对应的位置。
如前所述,与第一感测数据相关联的语义信息也可以包括目标对象的类别信息,即,借助于第一感测数据也能够知晓目标对象属于何种类别。然而,取决于对应的传感器,第一感测数据并不能提供目标对象准确的位置信息。这意味着在通过第一感测数据和第二感测数据均能获得目标对象的类别的基础上,即使基于第一感测数据所得到的第一特征缺乏目标对象的位置信息,也能够利用与基于第二感测数据所得到的位置信息的融合而实现特征增强。
在步骤S208,对第一特征和第二特征进行融合,以得到经融合的特征。
相应地,经融合的特征能够包含目标对象的语义信息和位置信息二者,且同时不包含固有的环境噪声,因此能够为实现准确的目标检测提供便利。
在步骤S210,基于经融合的特征,对目标对象进行第二目标检测。
在本公开的实施例中,“第二目标检测”是相对于作为辅助性目标检测任务的“第一目标检测”而言的主要目标检测任务,即整体的目标检测方法200中主要的目标检测任务。
在示例中,可以通过第二目标检测获得指示目标对象的检测框和对应的类别。
根据本公开的实施例,提供了一种目标检测方法,其能够更为有效地对两种传感器模态下的感测数据进行融合,提升目标检测的精度和鲁棒性。其中,如前所述,通过基于与目标对象的位置信息有关的第二感测数据进行辅助性目标检测任务(即本文中的“第一目标检测”),可以去除第二感测数据固有携带的环境噪声,以使得后续处理能够在不包含环境噪声的情况下进行。由此,即使基于第一感测数据所得到的第一特征缺乏目标对象的位置信息,也能够利用与基于第二感测数据所得到的位置信息的融合而实现特征增强,从而提升目标检测的精度和鲁棒性。
此外,由于本公开实施例的目标检测方法不涉及如前所述的传统卡尔曼滤波加权融合方式,因此也能够避免对经验相关的先验参数的依赖,使得方法的实施更具普适性。
以下结合实施例详细描述本公开方法的各个方面。
图3示出了根据本公开实施例的执行第一目标检测的过程300的流程图。
在一些实施例中,如图3所示的执行第一目标检测的过程300可以对应于如图2所示的步骤S206,其可以包括步骤S302和S304。
在步骤S302中,可以基于第二感测数据,对目标对象进行与位置信息有关的高斯分布预测以及与类别信息有关的类别预测,以获得包括目标对象的位置信息和类别信息的高斯分布图。高斯分布图可以指示特定类别的目标对象存在于特定位置上的概率。
根据本公开实施例的目标对象的高斯分布图的示例将在下文中结合图4进一步描述。
在步骤S304中,可以基于高斯分布图,获取与目标对象的位置信息和类别信息相关联的第二特征。
相比于如前所述的传统方法,本公开实施例的方法增加了作为辅助性目标检测任务的第一目标检测,其在本实施例中被具体实施为对目标对象的位置信息的高斯分布预测以及对目标对象的类别信息的类别预测。
以此方式,借助于获得包括目标对象的位置信息和类别信息的高斯分布图,可以间接地去除第二感测数据固有携带的环境噪声,使得基于第二感测数据得到的与目标对象的位置信息有关的第二特征将在不包含环境噪声的情况下与第一特征进行融合。
图4示出了根据本公开实施例的目标对象的高斯分布图400的示意图。
在图4中,为了便于说明,以基于毫米波雷达所获得的雷达RA图410作为第二感测数据为例,进行高斯分布图400的描述。
作为参考,雷达RA图(也称为RA Map)通常以纵轴表示距离(R,Range),以横轴表示方位角(A,Azimuth),且图中的每个像素可以代表多普勒回波的强度。如前所述,尽管通过雷达RA图可以获得目标对象的相对精准的距离信息,但同时大量环境噪声也包含在其中。
因此,本公开的实施例提出了基于第二感测数据(诸如雷达RA图410),通过进行高斯分布预测和类别预测,获得指示特定类别的目标对象存在于特定位置上的概率的高斯分布图。也就是,借助于获得高斯分布图,间接地去除了雷达RA图中原本携带的大量环境噪声,以使得后续处理将在不包含环境噪声的情况下进行。
如图4所示,由于雷达RA图410中包含大量环境噪声,使得从显示出的雷达RA图410中不能清楚地确定目标对象存在的位置。然而,在执行本实施例的高斯分布预测和类别预测后,以目标对象是车辆为例,可以从显示出的高斯分布图400中清楚地确定六个车辆分别存在的位置401、402、403、404、405和406。即,高斯分布图400可以指示特定类别的目标对象存在于特定位置上的概率。
相应地,在高斯分布图400的基础上,可以获得不包含环境噪声的与目标对象的位置信息和类别信息相关联的第二特征,使得后续处理能够在不包含环境噪声的情况下进行。
在一些实施例中,与语义信息相关联的第一特征和与目标对象的位置信息和类别信息相关联的第二特征可以均包括通道维度上的特征。
相应地,如图2所示的步骤S208可以包括:将第一特征中通道维度上的特征与第二特征中通道维度上的特征进行融合,以生成在通道维度上经融合的特征,其中,经融合的特征包括该在通道维度上经融合的特征。
在本公开的实施例中,由于第一特征和第二特征分别来自于两种不同传感器模态,使得这两种特征就其通道维度上的特征可能存在差异。因此,将第一特征中通道维度上的特征与第二特征中通道维度上的特征进行融合,以生成在通道维度上经融合的特征,从而使经融合的特征包括该在通道维度上经融合的特征,以此方式实现对两种不同传感器模态的有机融合,提升目标检测的精度和鲁棒性。
在一些实施例中,第二特征中通道维度上的特征可以与目标对象的类别信息相关联。
在本公开的实施例中,第二特征与目标对象的位置信息和类别信息相关联,而各个类别的目标对象可以具有对应的第二特征。这种针对不同类别的对应性,可以通过通道维度上的特征来表示。也就是,特定类型的目标对象可以具有特定的在通道维度上的特征。以此方式,可以便利于执行后续的特征融合,以使得可以通过将两种不同传感器模态下的特征进行融合,来提升目标检测的精度和鲁棒性。
在一些实施例中,如图2所示的步骤S208可以包括:将第一特征和第二特征分别转换到BEV(Bird’s Eye View,鸟瞰图)空间下,以生成相应的第一BEV特征和第二BEV特征;以及对第一BEV特征和第二BEV特征进行融合,以得到经融合的BEV特征。
在本公开的实施例中,得益于BEV空间自身的特点,将不同模态下的特征转换到BEV空间下能够更易于实现多模态的融合,从而为特征融合提供便利。
在一些实施例中,如图2所示的步骤S210可以包括:基于经融合的特征,获取用于指示目标对象的检测框和目标对象对应的类别。
在示例中,目标对象对应的类别可以包含目标对象属于该类别的概率(例如表示为小于1的小数)。
在本公开的实施例中,通过经融合的特征实现对于目标对象最终的目标检测,能够借助两种传感器模态下的感测数据各自的优势进行特征增强,提升目标检测的精度和鲁棒性。
在一些实施例中,第一感测数据可以包括基于图像传感器获取的二维图像,第二感测数据可以包括基于毫米波雷达获取的雷达RA图。
在示例中,上文已结合图4描述了基于毫米波雷达所获得的雷达RA图作为第二感测数据的例子。毫米波雷达在自动驾驶系统中起着关键的作用,利用毫米波雷达,自动驾驶系统可以准确地对车辆所处环境的动、静态物体进行感知和追踪,特别是在基于相机的视觉感知系统失效的极端天气场景下(诸如夜晚、雨、雾、雪天等),毫米波雷达可以准确地感知某个目标对象(诸如车辆,行人等)在毫米波雷达坐标系中的位置、大小及姿态。
如前所述,毫米波雷达采集的数据通常是以雷达RA图的形式进行显示和处理的。虽然毫米波雷达包含了目标对象的相对精准的距离信息,但是由于数据中存在很多环境噪声,且包含的语义信息也非常有限,因此基于单一模态的目标检测往往不能带来理想的检测结果。因此,在本公开的实施例中,在毫米波雷达模态的基础上融合图像传感器模态,使得能够基于两种不同模态下的经融合的特征进行最终的目标检测,以此来提升目标检测的精度和鲁棒性。
在一些实施例中,如图2所示的步骤S204可以包括:提取二维图像的二维图像特征作为第一特征。
在示例中,可以通过用于提取二维图像特征的骨干网络(Backbone)来执行特征提取的操作。注意的是,考虑到上述骨干网络是本领域技术人员已知的,本文省略了对其详细技术细节的阐述,以避免混淆本公开的主旨。
在示例中,提取出的第一特征可以被表示为B(Batch Size,批处理大小)、C(Channel,通道)、H(Height,高度)、W(Width,宽度)。
在示例中,可以进一步通过Scatter2BEV模块将第一特征转换到BEV空间下。注意的是,考虑到Scatter2BEV模块是本领域技术人员已知的,本文省略了对其详细技术细节的阐述,以避免混淆本公开的主旨。
在本公开的实施例中,通过提取二维图像的二维图像特征作为第一特征,能够充分利用图像传感器模态下采集的图像数据所包含的丰富语义信息,以使其与提供准确位置信息的第二特征进行融合,由此将两种不同传感器模态更为有机地结合在一起。
在一些实施例中,如图2所示的步骤S204可以包括:将雷达RA图输入U-Net网络以生成第二特征。
在示例中,借助于U-Net网络所提供的图像分割功能,可以利用U-Net网络基于雷达RA图实现对目标对象的辅助性目标检测任务,即本文中的“第一目标检测”。注意的是,考虑到U-Net网络是本领域技术人员已知的,本文省略了对其详细技术细节的阐述,以避免混淆本公开的主旨。
在示例中,生成的第二特征可以被表示为B、C、R(Range,距离)、A(Azimuth,方位角)。
在示例中,可以进一步通过RA2BEV模块将第二特征转换到BEV空间下。注意的是,考虑到RA2BEV模块是本领域技术人员已知的,本文省略了对其详细技术细节的阐述,以避免混淆本公开的主旨。
在示例中,可以使用Concat(Concatenate,拼接)融合方式将两种模态下的BEV特征进行融合,以得到经融合的BEV特征。之后,可以基于该经融合的BEV特征,对目标对象进行最终的目标检测,即本文中的“第二目标检测”,以获取用于指示目标对象的检测框和目标对象对应的类别。
在本公开的实施例中,通过将雷达RA图输入U-Net网络以生成第二特征,能够实现对目标对象的辅助性目标检测任务,即本文中的“第一目标检测”,进而获得不包含环境噪声的第二特征,由此使得后续处理能够在不包含环境噪声的情况下进行。
图5示出了根据本公开实施例的目标检测方法500的示意图。
为了便于说明,图5以第一感测数据为二维图像、第二感测数据为雷达RA图为例进行描述。如图5所示,第一感测数据501例如可以是基于图像传感器获取的二维图像,第二感测数据502例如可以是基于毫米波雷达获取的雷达RA图。
如前所述,取决于采集第一感测数据501的传感器的数据采集原理,第一感测数据501可以包括丰富的语义信息。尽管图5是以通过图像传感器采集的二维图像为例进行描述的,但是本领域技术人员可以理解,第一感测数据501也可以是通过例如红外传感器采集的红外图像,这对于夜晚的场景可能更为有利。类似地,取决于采集第二感测数据502的传感器的数据采集原理,第二感测数据502可以包括准确的位置信息。尽管图5是以通过毫米波雷达采集的雷达RA图为例进行描述的,但是本领域技术人员可以理解,第二感测数据502也可以是通过例如激光雷达采集的相应数据。
如图5所示,可以通过例如二维骨干网络503提取作为第一感测数据501的二维图像的二维图像特征作为第一特征505。然后,可以将第一特征505通过Scatter2BEV模块转换到BEV空间下,以生成第一BEV特征507。
另一方面,可以将雷达RA图502输入例如U-Net网络504以生成第二特征506。第二特征506中通道维度上的特征可以与目标对象的类别信息相关联,因此在图5中表示为C_cls。然后,可以将第二特征506通过RA2BEV模块转换到BEV空间下,以生成第二BEV特征508。
随后,可以将第一BEV特征507和第二BEV特征508进行融合,以得到经融合的BEV特征510。为此,可以将第一BEV特征507中通道维度上的特征与第二BEV特征508中通道维度上的特征进行融合,以生成在通道维度上经融合的特征,其在图5中表示为C+C_cls。在示例中,当得到在通道维度上经融合的特征之后,可以进一步进行二维卷积(Conv2d)并经过通道注意力层(channel attention layer),以得到经融合的BEV特征510。
之后,可以将经融合的BEV特征510输入检测头以得到用于指示目标对象的检测框(3D_bbox)和目标对象对应的类别(cls)。
图6示出了根据本公开一个实施例的目标检测装置600的结构框图。
如图6所示,目标检测装置600包括数据获取模块602、第一特征获取模块604、第二特征获取模块606、特征融合模块608以及目标检测模块610。
数据获取模块602被配置为获取与目标对象有关的第一感测数据和第二感测数据。第一感测数据包括用于对目标对象进行目标检测的语义信息,第二感测数据包括用于对目标对象进行目标检测的位置信息。
第一特征获取模块604被配置为对第一感测数据进行特征提取,以获得与目标对象的语义信息相关联的第一特征。
第二特征获取模块606被配置为基于第二感测数据,对目标对象进行第一目标检测,以获得与目标对象的位置信息和类别信息相关联的第二特征。
特征融合模块608被配置为对第一特征和第二特征进行融合,以得到经融合的特征。
目标检测模块610被配置为基于经融合的特征,对目标对象进行第二目标检测。
由于数据获取模块602、第一特征获取模块604、第二特征获取模块606、特征融合模块608以及目标检测模块610的操作可以分别与结合图2所述的步骤S202、S204、S206、S208以及S210相对应,因此这里不再赘述其各个方面的细节。
图7示出了根据本公开另一个实施例的目标检测装置700的结构框图。
如图7所示,目标检测装置700可以包括数据获取模块702、第一特征获取模块704、第二特征获取模块706、特征融合模块708以及目标检测模块710。
上述模块的操作可以与如图6所示的数据获取模块602、第一特征获取模块604、第二特征获取模块606、特征融合模块608以及目标检测模块610相同。
在一些实施例中,第二特征获取模块706可以包括:预测任务执行模块7060,被配置为基于第二感测数据,对目标对象进行与位置信息有关的高斯分布预测以及与类别信息有关的类别预测,以获得包括目标对象的位置信息和类别信息的高斯分布图,其中,高斯分布图指示特定类别的目标对象存在于特定位置上的概率;以及预测结果获取模块7062,被配置为基于高斯分布图,获取与目标对象的位置信息和类别信息相关联的第二特征。
在一些实施例中,第一特征和第二特征均包括通道维度上的特征。特征融合模块708可以包括:第一融合执行模块7080,被配置为将第一特征中通道维度上的特征与第二特征中通道维度上的特征进行融合,以生成在通道维度上经融合的特征,其中,经融合的特征包括在通道维度上经融合的特征。
在一些实施例中,第二特征中通道维度上的特征可以与目标对象的类别信息相关联。
在一些实施例中,特征融合模块708可以包括:特征转换模块7082,被配置为将第一特征和第二特征分别转换到BEV空间下,以生成相应的第一BEV特征和第二BEV特征;以及第二融合执行模块7084,被配置为对第一BEV特征和第二BEV特征进行融合,以得到经融合的BEV特征。
在一些实施例中,目标检测模块710可以包括:检测执行模块7100,被配置为基于经融合的特征,获取用于指示目标对象的检测框和目标对象对应的类别。
在一些实施例中,第一感测数据可以包括基于图像传感器获取的二维图像,第二感测数据可以包括基于毫米波雷达获取的雷达RA图。
在一些实施例中,第一特征获取模块704可以包括:特征提取模块7040,被配置为提取二维图像的二维图像特征作为第一特征。
在一些实施例中,第二特征获取模块706可以包括:特征生成模块7064,被配置为将雷达RA图输入U-Net网络以生成第二特征。
根据本公开实施例的目标检测装置,通过基于与目标对象的位置信息有关的第二感测数据进行辅助性目标检测任务,可以去除第二感测数据固有携带的环境噪声,以使得后续处理能够在不包含环境噪声的情况下进行。由此,即使基于第一感测数据所得到的第一特征缺乏目标对象的位置信息,也能够利用与基于第二感测数据所得到的位置信息的融合而实现特征增强,从而提升目标检测的精度和鲁棒性。
根据本公开的实施例,还提供了一种电子设备,包括至少一个处理器;以及与所述至少一个处理器通信连接的存储器,其中,存储器存储有能够被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上所述的方法。
根据本公开的实施例,还提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使计算机执行如上所述的方法。
根据本公开的实施例,还提供了一种计算机程序产品,包括计算机程序,其中,所述计算机程序在被处理器执行时实现如上所述的方法。
根据本公开的实施例,还提供了一种自动驾驶车辆,包括如上所述的电子设备。
参考图8,现将描述可以作为本公开的服务器或客户端的电子设备800的结构框图,其是可以应用于本公开的各方面的硬件设备的示例。电子设备旨在表示各种形式的数字电子的计算机设备,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图8所示,电子设备800包括计算单元801,其可以根据存储在只读存储器(ROM)802中的计算机程序或者从存储单元808加载到随机访问存储器(RAM)803中的计算机程序,来执行各种适当的动作和处理。在RAM 803中,还可存储电子设备800操作所需的各种程序和数据。计算单元801、ROM 802以及RAM 803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。
电子设备800中的多个部件连接至I/O接口805,包括:输入单元806、输出单元807、存储单元808以及通信单元809。输入单元806可以是能向电子设备800输入信息的任何类型的设备,输入单元806可以接收输入的数字或字符信息,以及产生与电子设备的用户设置和/或功能控制有关的键信号输入,并且可以包括但不限于鼠标、键盘、触摸屏、轨迹板、轨迹球、操作杆、麦克风和/或遥控器。输出单元807可以是能呈现信息的任何类型的设备,并且可以包括但不限于显示器、扬声器、视频/音频输出终端、振动器和/或打印机。存储单元808可以包括但不限于磁盘、光盘。通信单元809允许电子设备800通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据,并且可以包括但不限于调制解调器、网卡、红外通信设备、无线通信收发机和/或芯片组,例如蓝牙设备、802.11设备、WiFi设备、WiMax设备、蜂窝通信设备和/或类似物。
计算单元801可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元801的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元801执行上文所描述的各个方法和处理,例如目标检测方法。例如,在一些实施例中,目标检测方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元808。在一些实施例中,计算机程序的部分或者全部可以经由ROM 802和/或通信单元809而被载入和/或安装到电子设备800上。当计算机程序加载到RAM 803并由计算单元801执行时,可以执行上文描述的目标检测方法的一个或多个步骤。备选地,在其他实施例中,计算单元801可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行目标检测方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、互联网和区块链网络。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客
户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行、也可以顺序地或以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
虽然已经参照附图描述了本公开的实施例或示例,但应理解,上述的方法、系统和设备仅仅是示例性的实施例或示例,本发明的范围并不由这些实施例或示例限制,而是仅由授权后的权利要求书及其等同范围来限定。实施例或示例中的各种要素可以被省略或者可由其等同要素替代。此外,可以通过不同于本公开中描述的次序来执行各步骤。进一步地,可以以各种方式组合实施例或示例中的各种要素。重要的是随着技术的演进,在此描述的很多要素可以由本公开之后出现的等同要素进行替换。
Claims (22)
1.一种目标检测方法,包括:
获取与目标对象有关的第一感测数据和第二感测数据,其中,所述第一感测数据包括用于对所述目标对象进行目标检测的语义信息,所述第二感测数据包括用于对所述目标对象进行目标检测的位置信息;
对所述第一感测数据进行特征提取,以获得与所述目标对象的所述语义信息相关联的第一特征;
基于所述第二感测数据,对所述目标对象进行第一目标检测,以获得与所述目标对象的所述位置信息和类别信息相关联的第二特征;
对所述第一特征和所述第二特征进行融合,以得到经融合的特征;以及
基于所述经融合的特征,对所述目标对象进行第二目标检测。
2.根据权利要求1所述的方法,其中,所述基于所述第二感测数据,对所述目标对象进行第一目标检测,以获得与所述目标对象的所述位置信息和类别信息相关联的第二特征,包括:
基于所述第二感测数据,对所述目标对象进行与所述位置信息有关的高斯分布预测以及与所述类别信息有关的类别预测,以获得包含所述目标对象的所述位置信息和所述类别信息的高斯分布图,其中,所述高斯分布图指示特定类别的所述目标对象存在于特定位置上的概率;以及
基于所述高斯分布图,获取与所述目标对象的所述位置信息和所述类别信息相关联的所述第二特征。
3.根据权利要求1或2所述的方法,其中,所述第一特征和所述第二特征均包括通道维度上的特征,并且
其中,所述对所述第一特征和所述第二特征进行融合,以得到经融合的特征,包括:
将所述第一特征中通道维度上的特征与所述第二特征中通道维度上的特征进行融合,以生成在通道维度上经融合的特征,其中,所述经融合的特征包括所述在通道维度上经融合的特征。
4.根据权利要求3所述的方法,其中,所述第二特征中通道维度上的特征与所述目标对象的所述类别信息相关联。
5.根据权利要求1至4中任一项所述的方法,其中,所述对所述第一特征和所述第二特征进行融合,以得到经融合的特征,包括:
将所述第一特征和所述第二特征分别转换到鸟瞰图BEV空间下,以生成相应的第一BEV特征和第二BEV特征;以及
对所述第一BEV特征和第二BEV特征进行融合,以得到经融合的BEV特征。
6.根据权利要求1至5中任一项所述的方法,其中,所述基于所述经融合的特征,对所述目标对象进行第二目标检测,包括:
基于所述经融合的特征,获取用于指示所述目标对象的检测框和所述目标对象对应的类别。
7.根据权利要求1至6中任一项所述的方法,其中,所述第一感测数据包括基于图像传感器获取的二维图像,所述第二感测数据包括基于毫米波雷达获取的雷达RA图。
8.根据权利要求7所述的方法,其中,所述对所述第一感测数据进行特征提取,以获得与所述语义信息相关联的第一特征,包括:
提取所述二维图像的二维图像特征作为所述第一特征。
9.根据权利要求7或8所述的方法,其中,所述基于所述第二感测数据,对所述目标对象进行第一目标检测,以获得与所述目标对象的所述位置信息和类别信息相关联的第二特征,包括:
将所述雷达RA图输入U-Net网络以生成所述第二特征。
10.一种目标检测装置,包括:
数据获取模块,被配置为获取与目标对象有关的第一感测数据和第二感测数据,其中,所述第一感测数据包括用于对所述目标对象进行目标检测的语义信息,所述第二感测数据包括用于对所述目标对象进行目标检测的位置信息;
第一特征获取模块,被配置为对所述第一感测数据进行特征提取,以获得与所述目标对象的所述语义信息相关联的第一特征;
第二特征获取模块,被配置为基于所述第二感测数据,对所述目标对象进行第一目标检测,以获得与所述目标对象的所述位置信息和类别信息相关联的第二特征;
特征融合模块,被配置为对所述第一特征和所述第二特征进行融合,以得到经融合的特征;以及
目标检测模块,被配置为基于所述经融合的特征,对所述目标对象进行第二目标检测。
11.根据权利要求10所述的装置,其中,所述第二特征获取模块包括:
预测任务执行模块,被配置为基于所述第二感测数据,对所述目标对象进行与所述位置信息有关的高斯分布预测以及与所述类别信息有关的类别预测,以获得包括所述目标对象的所述位置信息和所述类别信息的高斯分布图,其中,所述高斯分布图指示特定类别的所述目标对象存在于特定位置上的概率;以及
预测结果获取模块,被配置为基于所述高斯分布图,获取与所述目标对象的所述位置信息和所述类别信息相关联的所述第二特征。
12.根据权利要求10或11所述的装置,其中,所述第一特征和所述第二特征均包括通道维度上的特征,并且
其中,所述特征融合模块包括:
融合执行模块,被配置为将所述第一特征中通道维度上的特征与所述第二特征中通道维度上的特征进行融合,以生成在通道维度上经融合的特征,其中,所述经融合的特征包括所述在通道维度上经融合的特征。
13.根据权利要求12所述的装置,其中,所述第二特征中通道维度上的特征与所述目标对象的所述类别信息相关联。
14.根据权利要求10至13中任一项所述的装置,其中,所述特征融合模块包括:
特征转换模块,被配置为将所述第一特征和所述第二特征分别转换到鸟瞰图BEV空间下,以生成相应的第一BEV特征和第二BEV特征;以及
融合执行模块,被配置为对所述第一BEV特征和第二BEV特征进行融合,以得到经融合的BEV特征。
15.根据权利要求10至13中任一项所述的装置,其中,所述目标检测模块包括:
检测执行模块,被配置为基于所述经融合的特征,获取用于指示所述目标对象的检测框和所述目标对象对应的类别。
16.根据权利要求10至15中任一项所述的装置,其中,所述第一感测数据包括基于图像传感器获取的二维图像,所述第二感测数据包括基于毫米波雷达获取的雷达RA图。
17.根据权利要求16所述的装置,其中,所述第一特征获取模块包括:
特征提取模块,被配置为提取所述二维图像的二维图像特征作为所述第一特征。
18.根据权利要求16或17所述的装置,其中,所述第二特征获取模块包括:
特征生成模块,被配置为将所述雷达RA图输入U-Net网络以生成所述第二特征。
19.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;
其中,所述存储器存储有能够被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行根据权利要求1-9中任一项所述的方法。
20.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使计算机执行根据权利要求1-9中任一项所述的方法。
21.一种计算机程序产品,包括计算机程序,其中,所述计算机程序在被处理器执行时实现根据权利要求1-9中任一项所述的方法。
22.一种自动驾驶车辆,包括根据权利要求19所述的电子设备。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310803199.0A CN116844134A (zh) | 2023-06-30 | 2023-06-30 | 目标检测方法、装置、电子设备、存储介质及车辆 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310803199.0A CN116844134A (zh) | 2023-06-30 | 2023-06-30 | 目标检测方法、装置、电子设备、存储介质及车辆 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116844134A true CN116844134A (zh) | 2023-10-03 |
Family
ID=88173823
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310803199.0A Pending CN116844134A (zh) | 2023-06-30 | 2023-06-30 | 目标检测方法、装置、电子设备、存储介质及车辆 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116844134A (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114399738A (zh) * | 2021-12-29 | 2022-04-26 | 三一专用汽车有限责任公司 | 目标检测方法及车辆 |
CN114528941A (zh) * | 2022-02-21 | 2022-05-24 | 北京百度网讯科技有限公司 | 传感器数据融合方法、装置、电子设备及存储介质 |
CN114545424A (zh) * | 2022-02-22 | 2022-05-27 | 北京百度网讯科技有限公司 | 障碍物识别、模型训练方法、装置、设备及存储介质 |
CN115273034A (zh) * | 2022-08-08 | 2022-11-01 | 江苏智行未来汽车研究院有限公司 | 一种基于车载多传感器融合的交通目标检测与跟踪方法 |
US20220351398A1 (en) * | 2021-09-29 | 2022-11-03 | Beijing Baidu Netcom Science Technology Co., Ltd. | Depth detection method, method for training depth estimation branch network, electronic device, and storage medium |
-
2023
- 2023-06-30 CN CN202310803199.0A patent/CN116844134A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220351398A1 (en) * | 2021-09-29 | 2022-11-03 | Beijing Baidu Netcom Science Technology Co., Ltd. | Depth detection method, method for training depth estimation branch network, electronic device, and storage medium |
CN114399738A (zh) * | 2021-12-29 | 2022-04-26 | 三一专用汽车有限责任公司 | 目标检测方法及车辆 |
CN114528941A (zh) * | 2022-02-21 | 2022-05-24 | 北京百度网讯科技有限公司 | 传感器数据融合方法、装置、电子设备及存储介质 |
CN114545424A (zh) * | 2022-02-22 | 2022-05-27 | 北京百度网讯科技有限公司 | 障碍物识别、模型训练方法、装置、设备及存储介质 |
CN115273034A (zh) * | 2022-08-08 | 2022-11-01 | 江苏智行未来汽车研究院有限公司 | 一种基于车载多传感器融合的交通目标检测与跟踪方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113887400B (zh) | 障碍物检测方法、模型训练方法、装置及自动驾驶车辆 | |
CN114179832A (zh) | 用于自动驾驶车辆的变道方法 | |
CN115019060A (zh) | 目标识别方法、目标识别模型的训练方法及装置 | |
CN114047760B (zh) | 路径规划方法、装置、电子设备及自动驾驶车辆 | |
CN115082690B (zh) | 目标识别方法、目标识别模型训练方法及装置 | |
CN116678424A (zh) | 高精度车辆定位、矢量化地图构建及定位模型训练方法 | |
CN114394111B (zh) | 用于自动驾驶车辆的变道方法 | |
CN114549961B (zh) | 目标对象的检测方法、装置、设备以及存储介质 | |
CN113850909B (zh) | 点云数据处理方法、装置、电子设备及自动驾驶设备 | |
CN115675528A (zh) | 基于相似场景挖掘的自动驾驶方法和车辆 | |
CN113920174A (zh) | 点云配准方法、装置、设备、介质和自动驾驶车辆 | |
CN116844134A (zh) | 目标检测方法、装置、电子设备、存储介质及车辆 | |
CN115019278B (zh) | 一种车道线拟合方法、装置、电子设备和介质 | |
CN115583243B (zh) | 确定车道线信息的方法、车辆控制方法、装置和设备 | |
CN117315402A (zh) | 三维对象检测模型的训练方法及三维对象检测方法 | |
CN116311943B (zh) | 交叉路口的平均延误时间的估算方法及装置 | |
CN116859724B (zh) | 时序自回归同时决策和预测的自动驾驶模型及其训练方法 | |
CN114179834B (zh) | 车辆停靠方法、装置、电子设备、介质及自动驾驶车辆 | |
CN117710939A (zh) | 信号灯检测方法、装置、系统及自动驾驶车辆 | |
CN116580367A (zh) | 数据处理方法、装置、电子设备和存储介质 | |
CN115830558A (zh) | 车道线修正方法、装置、电子设备及存储介质 | |
CN117035032A (zh) | 融合文本数据和自动驾驶数据进行模型训练的方法和车辆 | |
CN114842451A (zh) | 车道线拟合方法及装置、电子设备、介质及车辆 | |
CN117542042A (zh) | 三维对象检测方法及装置、电子设备和存储介质 | |
CN113869214A (zh) | 交通信号灯图像的处理方法、装置和边缘计算设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |