CN117994614A - 目标检测方法及装置 - Google Patents
目标检测方法及装置 Download PDFInfo
- Publication number
- CN117994614A CN117994614A CN202211329771.6A CN202211329771A CN117994614A CN 117994614 A CN117994614 A CN 117994614A CN 202211329771 A CN202211329771 A CN 202211329771A CN 117994614 A CN117994614 A CN 117994614A
- Authority
- CN
- China
- Prior art keywords
- feature map
- aerial view
- point cloud
- image
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 111
- 230000004927 fusion Effects 0.000 claims abstract description 51
- 238000010586 diagram Methods 0.000 claims abstract description 28
- 238000000605 extraction Methods 0.000 claims description 18
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 claims description 17
- 238000000034 method Methods 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 12
- 238000013507 mapping Methods 0.000 claims description 5
- 230000001131 transforming effect Effects 0.000 claims description 3
- 240000004050 Pentaglottis sempervirens Species 0.000 description 10
- 238000013527 convolutional neural network Methods 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000009466 transformation Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Image Processing (AREA)
Abstract
本公开提出一种目标检测方法及装置,其中,目标检测方法包括获取目标车辆周围的环视图像以及所述目标车辆周围的点云信息;根据环视图像,生成点云坐标系下的第一鸟瞰特征图;对点云信息进行特征提取,以得到第二鸟瞰特征图;对第一鸟瞰特征图和第二鸟瞰特征图进行融合,以得到融合特征图;根据融合特征图,对目标车辆周围进行目标检测,由此,将目标车辆周围的环视图像和点云信息转换为鸟瞰图视角下的特征图,并利用环视图像和点云信息对应的鸟瞰图视角下的特征图融合后的特征图进行目标识别,可实现在特征融合时环视图像和点云信息在鸟瞰图视角下的对齐,加强对目标的信息的表达,提高目标检测准确率。
Description
技术领域
本公开涉及图像处理技术领域,尤其涉及一种目标检测方法及装置。
背景技术
目前,随着自动驾驶相关技术的发展,自动驾驶车辆逐渐走入人们的视野。其中,自动驾驶车辆的自动驾驶功能对于改善个人出行方式,推动汽车产业升级,减少交通事故等具有重要意义。
为了保证自动驾驶车辆在自动行驶过程中的安全性,如何准确地检测车辆周围的目标(如,障碍物)是非常重要的。
发明内容
本公开旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本公开的第一个目的在于提出一种目标检测方法,以实现根据环视图像对应的点云坐标下的第一鸟瞰特征图以及点云信息对应的第二鸟瞰特征图融合得到的融合特征图进行目标检测,由此,将目标车辆周围的环视图像和点云信息转换为鸟瞰图视角下的特征图,并利用环视图像和点云信息对应的鸟瞰图视角下的特征图融合后的特征图进行目标识别,可加强对目标信息的表达,提高目标检测准确率。
本公开的第二个目的在于提出一种目标检测装置。
本公开的第三个目的在于提出一种电子设备。
本公开的第四个目的在于提出一种无人车。
本公开的第五个目的在于提出一种计算机可读存储介质。
本公开的第六个目的在于提出一种计算机程序产品。
为达上述目的,本公开第一方面实施例提出了一种目标检测方法,包括:获取目标车辆周围的环视图像以及所述目标车辆周围的点云信息;根据所述环视图像,生成点云坐标系下的第一鸟瞰特征图;对所述点云信息进行特征提取,以得到第二鸟瞰特征图;对所述第一鸟瞰特征图和所述第二鸟瞰特征图进行融合,以得到融合特征图;根据所述融合特征图,对所述目标车辆周围进行目标检测。
本公开实施例的目标检测方法,通过获取目标车辆周围的环视图像以及所述目标车辆周围的点云信息;根据环视图像,生成点云坐标系下的第一鸟瞰特征图;对点云信息进行特征提取,以得到第二鸟瞰特征图;对第一鸟瞰特征图和第二鸟瞰特征图进行融合,以得到融合特征图;根据融合特征图,对目标车辆周围进行目标检测,该方法根据环视图像对应的点云坐标下的第一鸟瞰特征图以及点云信息对应的第二鸟瞰特征图融合得到的融合特征图进行目标检测,由此,将目标车辆周围的环视图像和点云信息转换为鸟瞰图视角下的特征图,并利用环视图像和点云信息对应的鸟瞰图视角下的特征图融合后的特征图进行目标识别,可实现在特征融合时环视图像和点云信息在鸟瞰图视角下的对齐,加强对目标信息的表达,提高目标检测准确率。
为达上述目的,本公开第二方面实施例提出了一种目标检测装置,包括:获取模块,用于获取目标车辆周围的环视图像以及所述目标车辆周围的点云信息;生成模块,用于根据所述环视图像,生成点云坐标系下的第一鸟瞰特征图;提取模块,用于对所述点云信息进行特征提取,以得到第二鸟瞰特征图;融合模块,用于对所述第一鸟瞰特征图和所述第二鸟瞰特征图进行融合,以得到融合特征图;检测模块,用于根据所述融合特征图,对所述目标车辆周围进行目标检测。
为达上述目的,本公开第三方面实施例提出了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时,实现如本公开第一方面实施例所述的目标检测方法。
为达上述目的,本公开第四方面实施例提出了一种无人车,包括:车载雷达、车载相机及本公开第三方面实施例提出的电子设备,其中,所述车载雷达用于获取所述无人车周围的点云信息,所述车载相机用于获取所述无人车周围的环视图像。
为达上述目的,本公开第五方面实施例提出了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现如本公开第一方面实施例所述的目标检测方法。
为达上述目的,本公开第六方面实施例提出了一种计算机程序产品,当所述计算机程序产品中的指令处理器执行时,实现如本公开第一方面实施例所述的目标检测方法。
本公开附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本公开的实践了解到。
附图说明
本公开上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本公开实施例所提供的一种目标检测方法的流程示意图;
图2为本公开实施例所提供的另一种目标检测方法的流程示意图;
图3为本公开实施例所提供的另一种目标检测方法的流程示意图;
图4为本公开实施例所提供的另一种目标检测方法的流程示意图;
图5为本公开实施例所提供的另一种目标检测方法的流程示意图;
图6为本公开实施例所提供的目标检测方法的流程示意图;
图7为本公开实施例所提供的一种目标检测装置的结构示意图;
图8是根据一示例性实施例示出的一种用于目标检测的电子设备的框图;
图9是根据一示例性实施例示出的一种无人车的示意图。
具体实施方式
下面详细描述本公开的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本公开,而不能理解为对本公开的限制。
目标(如,障碍物)检测任务是自动驾驶系统中一项不可或缺的任务,它收集不同传感器的信息,通过检测任务识别具体目标的类别和位置,并将该信息传递给下游模块,以此来指导无人车的规划和避障。目前,目标检测方式大多是基于3D激光雷达或者是2D相机的数据信息。由于雷达对目标的定位识别以及图像较为稠密的目标的信息,越来越多的研究倾向于将两者结合起来进行目标检测,以提高目标检测的准确率。相关技术中,采用雷达信息投影到图像坐标系的方式来进行两种信息的融合。或者是借助于2D任务的结果来对点云进行渲染,以此来得到不同传感器的数据进行融合,加强对物体的表达,提高检测效率。
由于相机成像的角度和雷达成像的角度不一致,导致常见的多传感器的融合方法存在信息无法对齐的现象。因为相机是透视的成像方式,所以图像的信息大多数存在对目标遮挡的现象,同时目标的尺寸也存在问题;而雷达对目标的位置上的识别具有优势,所以大多的目标检测方法采用鸟瞰视图(Bird’s Eye View,简称BEV)的视角来进行目标检测,但是由于两个数据源无法在视角上的对齐,将给目标检测带来较大的难度。针对两个数据源无法在视角上对齐的情况,相关技术中,采用一种借助其他任务进行融合的方法,比如借助于2D任务的结果去渲染点云,以增加点云的表达能力,类似在2D上进行像素级别的语义分割结果或者是实例分割结果,来粘贴到对应的点云位置,又或者是从卷积神经网络(Convolutional Neural Networks,简称CNN)得到的图像上的特征结果去修饰点云,这种方式仅保留了图像上对于目标的类别信息或者是深层网络的高级别语义信息,从而损失了很多原始的图像信息,比如物体的颜色,纹理等特征,降低了检测网络的表达能力。
针对上述问题,本公开提出一种目标检测方法及装置。需要说明的是,本公开实施例的目标检测方法可应用于本公开实施例的目标检测装置,该装置可被配置于电子设备中。其中,该电子设备可以是移动终端,例如,手机、平板电脑、个人数字助理等具有各种操作系统的硬件设备。
下面参考附图描述本公开实施例的目标检测方法及装置。
图1为本公开实施例所提供的一种目标检测方法的流程示意图。
如图1所示,该目标检测方法可包括如下步骤:
步骤101,获取目标车辆周围的环视图像以及目标车辆周围的点云信息。
在本公开实施例中,可根据车身(如,无人车)周围多个角度的车载图像,生成环视图像,并获取目标车辆的车载雷达采集的目标车辆周围的点云信息。
步骤102,根据环视图像,生成点云坐标系下的第一鸟瞰特征图。
为了提高目标检测的准确性,可采用BEV视角进行障碍物检测,作为一种示例,可根据环视图像,生成对应的点云坐标系下的第一鸟瞰特征图。比如,可采用卷积神经网络或特征提取算法对环视图像进行特征提取,得到对应的特征图,并根据环视图像对应的特征图,生成对应的点云坐标系下的第一鸟瞰特征图。
步骤103,对点云信息进行特征提取,以得到第二鸟瞰特征图。
在本公开实施例中,可采用卷积神经网络或特征提取算法对点云信息进行特征提取,从而可得到对应的第二鸟瞰特征图。
步骤104,对第一鸟瞰特征图和第二鸟瞰特征图进行融合,以得到融合特征图。
在本公开实施例中,为了加强对目标信息的表达,以提高目标检测的准确性,可将第一鸟瞰特征图和第二鸟瞰特征图进行融合,得到融合特征图。比如,可将第一鸟瞰特征图和第二鸟瞰特征图进行堆叠操作,其中,需要说明的是,第一鸟瞰特征图和第二鸟瞰特征图的尺寸一致,通道数可不一致。
步骤105,根据融合特征图,对目标车辆周围进行目标检测。
作为一种可能的实现方式,可采用目标检测模型或者目标检测算法进行目标检测。
比如,将融合特征图输入至经过训练的目标检测模型中,目标检测模型可根据融合特征进行目标的类别和位置预测,并输出目标的预测类别和预测位置,其中,经过训练的目标检测模型已学习得到融合特征图和目标的预测类别和预测位置之间的对应关系。
又比如,目标检测算法根据融合特征进行目标的类别和位置预测。
综上,通过获取目标车辆周围的环视图像以及所述目标车辆周围的点云信息;根据环视图像,生成点云坐标系下的第一鸟瞰特征图;对点云信息进行特征提取,以得到第二鸟瞰特征图;对第一鸟瞰特征图和第二鸟瞰特征图进行融合,以得到融合特征图;根据融合特征图,对目标车辆周围进行目标检测,该方法根据环视图像对应的点云坐标下的第一鸟瞰特征图以及点云信息对应的第二鸟瞰特征图融合得到的融合特征图进行目标检测,由此,将目标车辆周围的环视图像和点云信息转换为鸟瞰图视角下的特征图,并利用环视图像和点云信息对应的鸟瞰图视角下的特征图融合后的特征图进行目标识别,可实现在特征融合时环视图像和点云信息在鸟瞰图视角下的对齐,加强对障碍物信息的表达,提高目标检测准确率。
为了实现特征融合时环视图像和点云信息在鸟瞰图视角下的对齐,如图2所示,图2为本公开实施例所提供的另一种目标检测方法的流程示意图,在本公开实施例中,可根据环视图像,生成点云坐标系下的第一鸟瞰特征图,作为一种示例,可对环视图像进行特征提取,得到对应的特征图,并根据环视图像对应的特征图,生成对应的点云坐标系下的第一鸟瞰特征图,图2所示实施例可包括如下步骤:
步骤201,获取目标车辆周围的环视图像以及目标车辆周围的点云信息。
步骤202,对环视图像进行特征提取,以得到第一特征图。
为了便于对环视图像进行分析,作为一种示例,可采用卷积神经网络对环视图像进行特征提取,得到环视图像对应的第一特征图;作为另一种示例,可利用特征提取算法对环视图像进行特征提取,得到第一特征图。其中,第一特征图可表示为(B,W,H,C),其中,B表示批量大小,W、H和C分别表示图像的宽、高和通道数。
步骤203,根据第一特征图,生成点云坐标系下的第一鸟瞰特征图。
为了实现在特征融合时环视图像和点云信息在鸟瞰图视角下的对齐,作为本公开实施例的一种可能的实现方式,可根据第一特征图,生成点云坐标系下的第一鸟瞰特征图。其中,第一鸟瞰特征图可为立体的特征图,第一鸟瞰特征图可表示为(B,W′,H′,C′),其中,B表示批量大小,C′是通道数,H′和W′是高和宽。
需要了解的是,由于点云信息中的点是稀疏的,环视图像中的像素点是稠密的,为了实现特征融合时环视图像和点云信息在鸟瞰图视角下的对齐,可将第一特征图中的各点转换至点云坐标系下,并从转换后的特征图中进行特征选择,并将选择的特征进行保留,未被选择的特征进行舍弃。
可选地,根据图像坐标系与点云坐标系之间的映射关系,将第一特征图中的各点变换至点云坐标系下,以得到第二特征图;将第二特征图输入注意力网络,以得到第二特征图中各像素点的注意力权重;根据第二特征图中各像素点的注意力权重,从第二特征图的各像素点中选择目标像素点;根据目标像素点,生成第一鸟瞰特征图。
也就是说,可利用图像坐标系与点云坐标系之间的映射关系,将第一特征图中的各点变换至点云坐标系下,得到第二特征图,接着,作为一种示例,利用注意力网络从第二特征图中进行特征选择,可将第二特征图输入注意力网络,以得到第二特征图中各像素点的注意力权重,并利用第二特征图中各像素点的注意力权重的大小,从第二特征图的各像素点中选择目标像素点,如,选择注意力权重大于设定阈值的各像素点作为目标像素点,或者,按照各像素点的注意力权重从大到小进行排序,选择排序在前的设定个数的像素点作为目标像素点,进而,将第二特征图中除目标像素点之外的其他像素点进行舍弃,可生成第一鸟瞰特征图。
需要了解的是,将第一特征图中的各点变换至点云坐标系下,得到第二特征图时,第二特征图中的一个点可对应到第一特征图中的一个像素的位置,可得到该像素的深度信息,但是第二特征图中的点是稀疏的,第一特征图中的像素是稠密的,所以第一特征图中只有和第二特征图中的点对应上的像素才可确定深度信息,即第一特征图中大部分的像素是无法求得深度信息的。
可选地,可表现为如下公式:
其中,Px、Py和Pz可分别表示第二特征图中一个点的坐标位置,K可表示相机的内参矩阵,R和T可分别表示点云坐标系到图像坐标系的平移变换矩阵和旋转变换矩阵,u、v和zc可表示第一特征图中像素点的坐标位置,zc可表示第一特征图中像素点的深度信息。
因此,作为一种示例,可将第二特征图进行网格划分,并确定每个网格中的每个点在第一特征图上对应的像素点,那么可利用注意力网络从像素点周围的某一个邻域(如,a*b)的特征中选取重要的特征,作为该第二特征图中该网格的特征,进而,根据第二特征图中多个网格的特征,生成第一鸟瞰特征图。
步骤204,对点云信息进行特征提取,以得到第二鸟瞰特征图。
步骤205,对第一鸟瞰特征图和第二鸟瞰特征图进行融合,以得到融合特征图。
步骤206,根据融合特征图,对目标车辆周围进行目标检测。
需要说明的是,步骤201、步骤204至步骤206的执行过程可以分别采用本公开的各实施例中的任一种方式实现,本公开实施例并不对此作出限定,也不再赘述。
综上,通过对环视图像进行特征提取,以得到第一特征图;根据第一特征图,生成点云坐标系下的第一鸟瞰特征图,由此,可有效地生成点云坐标系下的第一鸟瞰特征图。
为了提高目标检测效率,如图3所示,图3为本公开实施例所提供的另一种目标检测方法的流程示意图,在本公开实施例中,可对点云信息进行网格化,并对多个网格中点云信息进行特征提取和处理,以得到第二鸟瞰特征图,图3所示实施例可包括如下步骤:
步骤301,获取目标车辆周围的环视图像以及所述目标车辆周围的点云信息。
步骤302,根据环视图像,生成点云坐标系下的第一鸟瞰特征图。
步骤303,对点云信息进行网格划分,以得到多个网格点云信息。
为了便于点云信息的分析和处理,可对点云信息进行网格划分,可得到多个网格点云信息。
步骤304,对多个网格点云信息特征提取,以得到第三特征图。
作为一种示例,可采用卷积网络或者特征提取算法针对每个网格中的点云信息进行特征提取,从而,根据多个网格点云信息中的提取到的特征,生成第三特征图。
步骤305,对第三特征图进行下采样,以得到第二鸟瞰特征图。
为了降低计算复杂度,同时提高目标检测效率和准确性,可对第三特征图的垂直(Z轴)方向进行下采样(比如,最大池化操作),以得到第二鸟瞰特征图。其中,需要说明的是,第二鸟瞰特征图与第一鸟瞰特征图的大小可一致,通道数可不一致,因此,第二鸟瞰特征图可表示为(B,W′,H′,C″),其中,B表示批量大小,C″是通道数,H′和W′是高和宽。
步骤306,对第一鸟瞰特征图和第二鸟瞰特征图进行融合,以得到融合特征图。
步骤307,根据融合特征图,对目标车辆周围进行目标检测。
需要说明的是,步骤301至302、步骤306至步骤307的执行过程可以分别采用本公开的各实施例中的任一种方式实现,本公开实施例并不对此作出限定,也不再赘述。
综上,通过对点云信息进行网格划分,以得到多个网格点云信息;对多个网格点云信息特征提取,以得到第三特征图;对第三特征图进行最大池化操作,以得到第二鸟瞰特征图,由此,可提高点云信息的分析和处理效率,同时降低了计算复杂度,并提高目标检测效率和准确性。
为了加强目标的信息,如图4所示,图4为本公开实施例所提供的另一种目标检测方法的流程示意图,在本公开实施例中,可对第一鸟瞰特征图与所述第二鸟瞰特征图进行像素对齐,并将像素对齐后的第一鸟瞰特征图和第二鸟瞰特征图进行拼接,从而得到融合特征图,图4所示实施例可包括如下步骤:
步骤401,获取目标车辆周围的环视图像以及目标车辆周围的点云信息。
步骤402,根据环视图像,生成点云坐标系下的第一鸟瞰特征图。
步骤403,对点云信息进行特征提取,以得到第二鸟瞰特征图。
步骤404,将第一鸟瞰特征图与第二鸟瞰特征图进行像素对齐,以得到像素对齐后的第一鸟瞰特征图和第二鸟瞰特征图。为了提高目标检测的准确性,可加强特征图中目标的信息,作为一种示例,在第一鸟瞰特征图的尺寸与第二鸟瞰特征图的尺寸匹配时,可将第一鸟瞰特征图与第二鸟瞰特征图进行像素对齐,得到像素对齐后的第一鸟瞰特征图和第二鸟瞰特征图。
为了提升融合的有效性,对第一鸟瞰特征图和所述第二鸟瞰特征图进行融合,以得到融合特征图之前,在第一鸟瞰特征图的尺寸和第二鸟瞰特征图的尺寸不匹配时,可对第一鸟瞰特征图的尺寸进行调整和/或第二鸟瞰特征图的尺寸进行调整,以使调整后的第一鸟瞰特征图的尺寸与调整后的第二鸟瞰特征图的尺寸大小相同。
作为一种示例,对第一鸟瞰特征图的尺寸进行调整,以使调整后的第一鸟瞰特征图的尺寸与第二鸟瞰特征图的尺寸匹配。
作为另一种示例,对第二鸟瞰特征图的尺寸进行调整,以使调整后的第二鸟瞰特征图的尺寸与第一鸟瞰特征图的尺寸匹配。
作为另一种示例,对第一鸟瞰特征图的尺寸和第二鸟瞰特征图的尺寸进行调整,以使调整后的第二鸟瞰特征图的尺寸与调整后的第一鸟瞰特征图的尺寸匹配。
步骤405,将像素对齐后的第一鸟瞰特征图和第二鸟瞰特征图进行拼接,以得到融合特征图。
作为一种示例,可在通道维度,将像素对齐后的第一鸟瞰特征图和第二鸟瞰特征图进行拼接,将拼接后的特征图作为融合特征图。
步骤406,根据融合特征图,对目标车辆周围进行目标检测。
需要说明的是,步骤401至403、步骤406的执行过程可以分别采用本公开的各实施例中的任一种方式实现,本公开实施例并不对此作出限定,也不再赘述。
综上,通过将第一鸟瞰特征图与第二鸟瞰特征图进行像素对齐,以得到像素对齐后的第一鸟瞰特征图和第二鸟瞰特征图;将像素对齐后的第一鸟瞰特征图和第二鸟瞰特征图进行拼接,以得到融合特征图,由此,可实现目标的信息的加强,提高目标检测的准确性。
为了准确地获取目标车辆周围的环视图像以及目标车辆周围的点云信息,如图5所示,图5为本公开实施例所提供的另一种目标检测方法的流程示意图,在本公开实施例中,可通过目标车辆的多个车载摄像头获取车身周围的车载图像,并将多个车载摄像头采集的车载图像进行拼接,得到环视图像,同时,还可获取目标车辆的车载雷达采集的点云信息,图5所示实施例可包括如下步骤:
步骤501,获取目标车辆的多个车载摄像头采集的车身周围的车载图像。
为了准确地检测车辆周围的目标,可获取车身周围多个角度的图像,在本公开实施例中,可通过目标车辆的多个车载摄像头采集车身周围的多个角度的图像,并将车身周围多个角度的图像作为车载图像。
步骤502,将多个车载摄像头采集的车载图像进行拼接,以得到目标车辆周围的环视图像。
进而,可将多个摄像头采集的多个角度的图像进行拼接,从而可得到目标车辆周围的360度的环视图像。
步骤503,采用目标车辆的车载雷达对车身周围进行点云信息采集,以得到点云信息。
由于雷达对目标的定位识别准确性较高,因此,为了进一步提高目标检测的准确性,可采用目标车辆的车载雷达对车身周围进行点云信息采集,从而可获取到车身周围的点云信息。其中,车载雷达可包括:激光雷达和补盲雷达,补盲雷达可用于辅助激光雷达获取点云信息。
步骤504,根据环视图像,生成点云坐标系下的第一鸟瞰特征图。
步骤505,对点云信息进行特征提取,以得到第二鸟瞰特征图。
步骤506,对第一鸟瞰特征图和第二鸟瞰特征图进行融合,以得到融合特征图。
步骤507,根据融合特征图,对目标车辆周围进行目标检测。
综上,通过获取目标车辆的多个车载摄像头采集的车身周围的车载图像;将多个车载摄像头采集的车载图像进行拼接,以得到目标车辆周围的环视图像;采用目标车辆的车载雷达对车身周围进行点云信息采集,以得到点云信息,由此,可有效地获取车身周围的环视图像和点云信息。
在本公开的任一实施例中,如图6所示,还可基于如下步骤实现本公开实施例的目标检测方法:
步骤1、针对图像数据的操作:
(a)、根据不同视角里相机之间的标定参数,将所有相机在同一时刻的图片拼接起来,得到一张该时刻的环视图像;
(b)、将环视图像的信息输入到一个卷积神经网络中进行图像特征的提取;
(c)图像坐标系到点云坐标系(雷达BEV坐标系)的转换:将图像特征通过标定参数转换到点云坐标系下,转换方式如下:
其中,Px、Py和Pz分别代表点云中一个点的坐标位置,K代表相机的内参矩阵,R和T分别代表点云坐标系到图像坐标系的平移变换矩阵和旋转变换矩阵,这两个变换矩阵是根据图像和点云的标定外参确定的;u,v和zc分别代表点云投影到图像坐标系后的坐标位置;
(d)将转换后得到的点云坐标系下的特征图输入注意力网络,以得到该特征图中各像素点的注意力权重;根据该特征图中各像素点的注意力权重,从该特征图的各像素点中选择目标像素点;根据目标像素点,可得到BEV视图,即鸟瞰图视角下的特征图;其中,鸟瞰图视角下的特征图可表示为(B,W′,H′,C′),其中,B表示批量大小,C′是通道数,H′和W′是高和宽;
此外,由图像坐标系到点云坐标系的转换公式可以看出,点云中的一个点能对应到图像中的一个像素的位置,并且能得到该像素的深度信息(zc),但是点云的点是稀疏的,图像的像素是稠密的,所以图像中只有能和点云中的点对应上的像素才能知道深度信息,即图像中大部分的像素是无法求得深度信息的。基于此,还可将点云坐标系下的特征图进行网格划分,并确定每个网格中的每个点在图像坐标系的特征图上对应的像素点,那么可利用注意力网络从该像素点周围的某一个邻域(如,a*b)的特征中选取重要的特征,作为该网格的特征,根据各网格的特征,生成鸟瞰图视角下的特征图;
2、使用3D点云检测(如,PointPillar)的表征方式将点云在3D坐标系下做体素化操作(网格化),输入是原始点云信息(N,x,y,z,r),做完体素化后采用卷积网络进行特征提取,在Z轴方向使用一个最大池化(Maxpooling)操作,可得到BEV视图,即点云坐标系下的特征图(B,W′,H′,C″);
3、根据第1步的d和第2步的到的特征图,大小一致,通道数可以不一致,将这两个特征图做堆叠操作,C维度上的拼接,得到融合后的特征图,然后进入的检测网络中,得到最终的检测结果。
本公开实施例的目标检测方法,通过获取目标车辆周围的环视图像以及所述目标车辆周围的点云信息;根据环视图像,生成点云坐标系下的第一鸟瞰特征图;对点云信息进行特征提取,以得到第二鸟瞰特征图;对第一鸟瞰特征图和第二鸟瞰特征图进行融合,以得到融合特征图;根据融合特征图,对目标车辆周围进行目标检测,该方法根据环视图像对应的点云坐标下的第一鸟瞰特征图以及点云信息对应的第二鸟瞰特征图融合得到的融合特征图进行目标检测,由此,将目标车辆周围的环视图像和点云信息转换为鸟瞰图视角下的特征图,并利用环视图像和点云信息对应的鸟瞰图视角下的特征图融合后的特征图进行目标识别,可实现特征融合时环视图像和点云信息在鸟瞰图视角下的对齐,加强对目标的信息的表达,提高目标检测准确率。
为了实现上述实施例,本公开还提出一种目标检测装置。
图7为本公开实施例所提供的一种目标检测装置的结构示意图。
如图7所示,该目标检测装置700包括:获取模块710、生成模块720、提取模块730、融合模块740和检测模块750。
其中,获取模块710,用于获取目标车辆周围的环视图像以及所述目标车辆周围的点云信息;生成模块720,用于根据环视图像,生成点云坐标系下的第一鸟瞰特征图;提取模块730,用于对点云信息进行特征提取,以得到第二鸟瞰特征图;融合模块740,用于对第一鸟瞰特征图和第二鸟瞰特征图进行融合,以得到融合特征图;检测模块750,用于根据融合特征图,对目标车辆周围进行目标检测。
作为本公开实施例的一种可能的实现方式,生成模块720,用于对环视图像进行特征提取,以得到第一特征图;根据第一特征图,生成点云坐标系下的第一鸟瞰特征图。
作为本公开实施例的一种可能的实现方式,生成模块720,还用于根据图像坐标系与点云坐标系之间的映射关系,将第一特征图中的各点变换至点云坐标系下,以得到第二特征图;将第二特征图输入注意力网络,以得到第二特征图中各像素点的注意力权重;根据第二特征图中各像素点的注意力权重,从第二特征图的各像素点中选择目标像素点;根据目标像素点,生成第一鸟瞰特征图。
作为本公开实施例的一种可能的实现方式,提取模块730,对点云信息进行网格划分,以得到多个网格点云信息;对多个网格点云信息特征提取,以得到第三特征图;对第三特征图进行下采样,以得到第二鸟瞰特征图。
作为本公开实施例的一种可能的实现方式,融合模块740,用于将第一鸟瞰特征图与第二鸟瞰特征图进行像素对齐,以得到像素对齐后的第一鸟瞰特征图和第二鸟瞰特征图;将像素对齐后的第一鸟瞰特征图和第二鸟瞰特征图进行拼接,以得到融合特征图。
作为本公开实施例的一种可能的实现方式,目标检测装置700包括:调整模块。
其中,调整模块,用于对第一鸟瞰特征图的尺寸进行调整,以使调整后的第一鸟瞰特征图的尺寸与第二鸟瞰特征图的尺寸匹配;或者,对第二鸟瞰特征图的尺寸进行调整,以使调整后的第二鸟瞰特征图的尺寸与第一鸟瞰特征图的尺寸匹配;或者,对第一鸟瞰特征图的尺寸和第二鸟瞰特征图的尺寸进行调整,以使调整后的第一鸟瞰特征图的尺寸与调整后的第二鸟瞰特征图的尺寸匹配。
作为本公开实施例的一种可能的实现方式,获取模块710,用于获取所述目标车辆的多个车载摄像头采集的车身周围的车载图像;将多个车载摄像头采集的车载图像进行拼接,以得到目标车辆周围的环视图像;采用目标车辆的车载雷达对车身周围进行点云信息采集,以得到点云信息。
作为本公开实施例的一种可能的实现方式,检测模块750,用于将融合特征图输入至经过训练的目标检测模型中,以使目标检测模型根据所述融合特征进行目标的类别和位置预测,以输出目标的预测类别和预测位置,其中,经过训练的目标检测模型已学习得到融合特征图和目标的预测类别和预测位置之间的对应关系。
本公开实施例的目标检测装置,通过获取目标车辆周围的环视图像以及所述目标车辆周围的点云信息;根据环视图像,生成点云坐标系下的第一鸟瞰特征图;对点云信息进行特征提取,以得到第二鸟瞰特征图;对第一鸟瞰特征图和第二鸟瞰特征图进行融合,以得到融合特征图;根据融合特征图,对目标车辆周围进行目标检测,该方法根据环视图像对应的点云坐标下的第一鸟瞰特征图以及点云信息对应的第二鸟瞰特征图融合得到的融合特征图进行目标检测,由此,将目标车辆周围的环视图像和点云信息转换为鸟瞰图视角下的特征图,并利用环视图像和点云信息对应的鸟瞰图视角下的特征图融合后的特征图进行目标识别,可实现在特征融合时环视图像和点云信息在鸟瞰图视角下的对齐,加强对目标的信息的表达,提高目标检测准确率。
需要说明的是,前述对目标检测方法实施例的解释说明也适用于该实施例的目标检测装置,此处不再赘述。
为了实现上述实施例,本申请还提出一种电子设备,如图8所示,图8是根据一示例性实施例示出的一种用于目标检测的电子设备的框图。
如图8所示,上述电子设备800包括:
存储器810及处理器820,连接不同组件(包括存储器810和处理器820)的总线830,存储器810存储有计算机程序,当处理器820执行所述程序时实现本公开实施例所述的目标检测方法。
总线830表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
电子设备800典型地包括多种电子设备可读介质。这些介质可以是任何能够被电子设备800访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
存储器810还可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)840和/或高速缓存存储器850。电子设备800可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统860可以用于读写不可移动的、非易失性磁介质(图8未显示,通常称为“硬盘驱动器”)。尽管图8中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线830相连。存储器810可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本公开各实施例的功能。
具有一组(至少一个)程序模块870的程序/实用工具880,可以存储在例如存储器810中,这样的程序模块870包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块870通常执行本公开所描述的实施例中的功能和/或方法。
电子设备800也可以与一个或多个外部设备890(例如键盘、指向设备、显示器等)通信,还可与一个或者多个使得用户能与该电子设备800交互的设备通信,和/或与使得该电子设备800能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口892进行。并且,电子设备800还可以通过网络适配器893与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图8所示,网络适配器893通过总线830与电子设备800的其它模块通信。应当明白,尽管图8中未示出,可以结合电子设备800使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理器820通过运行存储在存储器810中的程序,从而执行各种功能应用以及数据处理。
需要说明的是,本实施例的电子设备的实施过程和技术原理参见前述对本公开实施例的目标检测的解释说明,此处不再赘述。
为了实现上述实施例,本申请还提出一种无人车,包括:车载雷达、车载相机及上述实施例提出的电子设备,其中,车载雷达用于获取无人车周围的点云信息,车载相机用于获取无人车周围的环视图像。
举例而言,如图9所示,图9是根据一示例性实施例示出的一种无人车的示意图,无人车可包括:车载雷达、车载相机和电子设备(图9中未示出),车载雷达可包括激光雷达901、左侧补盲雷达902、右侧补盲雷达903和后侧补盲雷达904,左侧补盲雷达902、右侧补盲雷达903和后侧补盲雷达904可用于辅助激光雷达901获取车辆周围的点云信息,车载相机905可用于获取无人车周围的点云信息,电子设备,可包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行程序时,实现如本公开实施例的目标检测方法。
作为本公开实施例的一种可能的实现方式,无人车还可包括:显示交互模块906、货箱907和底盘908。
其中,显示交互模块906,用于地图和车辆仪表的显示、以及接收来自车辆驾驶员的操作,货箱907,用于存放物品;底盘908,用于支撑、安装无人车发动机及其各部件、总成,形成无人车的整体造型,并接受发动机的动力,使无人车产生运动,以保证无人车正常行驶。
为了实现上述实施例,本申请还提出一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述实施例所述的目标检测方法。
为了实现上述实施例,本公开还提供一种计算机程序产品,当所述计算机程序产品中的指令处理器执行时,执行上述实施例所述的目标检测方法。
在本说明书的描述中,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本申请的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本申请的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本申请的限制,本领域的普通技术人员在本申请的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (14)
1.一种目标检测方法,其特征在于,包括:
获取目标车辆周围的环视图像以及所述目标车辆周围的点云信息;
根据所述环视图像,生成点云坐标系下的第一鸟瞰特征图;
对所述点云信息进行特征提取,以得到第二鸟瞰特征图;
对所述第一鸟瞰特征图和所述第二鸟瞰特征图进行融合,以得到融合特征图;
根据所述融合特征图,对所述目标车辆周围进行目标检测。
2.根据权利要求1所述的方法,其特征在于,所述根据所述环视图像,生成点云坐标系下的第一鸟瞰特征图,包括:
对所述环视图像进行特征提取,以得到第一特征图;
根据所述第一特征图,生成点云坐标系下的第一鸟瞰特征图。
3.根据权利要求2所述的方法,其特征在于,所述根据所述第一特征图,生成点云坐标系下的第一鸟瞰特征图,包括:
根据图像坐标系与点云坐标系之间的映射关系,将第一特征图中的各点变换至所述点云坐标系下,以得到第二特征图;
将所述第二特征图输入注意力网络,以得到所述第二特征图中各像素点的注意力权重;
根据所述第二特征图中各像素点的注意力权重,从所述第二特征图的各像素点中选择目标像素点;
根据所述目标像素点,生成第一鸟瞰特征图。
4.根据权利要求1所述的方法,其特征在于,所述对所述点云信息进行特征提取,以得到第二鸟瞰特征图,包括:
对所述点云信息进行网格划分,以得到多个网格点云信息;
对所述多个网格点云信息特征提取,以得到第三特征图;
对所述第三特征图进行下采样,以得到第二鸟瞰特征图。
5.根据权利要求1所述的方法,其特征在于,所述对所述第一鸟瞰特征图和所述第二鸟瞰特征图进行融合,以得到融合特征图,包括:
将所述第一鸟瞰特征图与所述第二鸟瞰特征图进行像素对齐,以得到像素对齐后的第一鸟瞰特征图和第二鸟瞰特征图;
将像素对齐后的第一鸟瞰特征图和第二鸟瞰特征图进行拼接,以得到融合特征图。
6.根据权利要求5所述的方法,其特征在于,所述对所述第一鸟瞰特征图和所述第二鸟瞰特征图进行融合,以得到融合特征图之前,还包括:
对所述第一鸟瞰特征图的尺寸进行调整,以使调整后的第一鸟瞰特征图的尺寸与所述第二鸟瞰特征图的尺寸匹配;
或者,
对所述第二鸟瞰特征图的尺寸进行调整,以使调整后的第二鸟瞰特征图的尺寸与所述第一鸟瞰特征图的尺寸匹配;
或者,
对所述第一鸟瞰特征图的尺寸和所述第二鸟瞰特征图的尺寸进行调整,以使调整后的第一鸟瞰特征图的尺寸与调整后的第二鸟瞰特征图的尺寸匹配。
7.根据权利要求1所述的方法,其特征在于,所述获取目标车辆周围的环视图像以及所述目标车辆周围的点云信息,包括:
获取所述目标车辆的多个车载摄像头采集的车身周围的车载图像;
将所述多个车载摄像头采集的车载图像进行拼接,以得到所述目标车辆周围的环视图像;
采用所述目标车辆的车载雷达对所述车身周围进行点云信息采集,以得到所述点云信息。
8.根据权利要求7中任一项所述的方法,其特征在于,所述根据所述融合特征图,对所述目标车辆周围进行目标检测,包括:
将所述融合特征图输入至经过训练的目标检测模型中,以使所述目标检测模型根据所述融合特征进行目标的类别和位置预测,以输出所述目标的预测类别和预测位置,其中,所述经过训练的目标检测模型已学习得到融合特征图和目标的预测类别和预测位置之间的对应关系。
9.一种目标检测装置,其特征在于,包括:
获取模块,用于获取目标车辆周围的环视图像以及所述目标车辆周围的点云信息;
生成模块,用于根据所述环视图像,生成点云坐标系下的第一鸟瞰特征图;
提取模块,用于对所述点云信息进行特征提取,以得到第二鸟瞰特征图;
融合模块,用于对所述第一鸟瞰特征图和所述第二鸟瞰特征图进行融合,以得到融合特征图;
检测模块,用于根据所述融合特征图,对所述目标车辆周围进行目标检测。
10.根据权利要求9所述的装置,其特征在于,所述生成模块,用于:
对所述环视图像进行特征提取,以得到第一特征图;
根据所述第一特征图,生成点云坐标系下的第一鸟瞰特征图。
11.根据权利要求10所述的装置,其特征在于,所述生成模块,还用于:
根据图像坐标系与点云坐标系之间的映射关系,将第一特征图中的各点变换至所述点云坐标系下,以得到第二特征图;
将所述第二特征图输入注意力网络,以得到所述第二特征图中各像素点的注意力权重;
根据所述第二特征图中各像素点的注意力权重,从所述第二特征图的各像素点中选择目标像素点;
根据所述目标像素点,生成第一鸟瞰特征图。
12.一种电子设备,其特征在于,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时,实现如权利要求1-8中任一项所述的目标检测方法。
13.一种无人车,其特征在于,包括:车载雷达、车载相机及如权利要求12所述的电子设备,其中,所述车载雷达用于获取所述无人车周围的点云信息,所述车载相机用于获取所述无人车周围的环视图像。
14.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-8中任一项所述的目标检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211329771.6A CN117994614A (zh) | 2022-10-27 | 2022-10-27 | 目标检测方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211329771.6A CN117994614A (zh) | 2022-10-27 | 2022-10-27 | 目标检测方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117994614A true CN117994614A (zh) | 2024-05-07 |
Family
ID=90899802
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211329771.6A Pending CN117994614A (zh) | 2022-10-27 | 2022-10-27 | 目标检测方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117994614A (zh) |
-
2022
- 2022-10-27 CN CN202211329771.6A patent/CN117994614A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109461211B (zh) | 基于视觉点云的语义矢量地图构建方法、装置和电子设备 | |
CN110163930B (zh) | 车道线生成方法、装置、设备、系统及可读存储介质 | |
US12080025B2 (en) | Camera-only-localization in sparse 3D mapped environments | |
EP4213068A1 (en) | Target detection method and apparatus based on monocular image | |
CN110969064B (zh) | 一种基于单目视觉的图像检测方法、装置及存储设备 | |
WO2023221566A1 (zh) | 一种基于多视角融合的3d目标检测方法及装置 | |
US20220319146A1 (en) | Object detection method, object detection device, terminal device, and medium | |
CN111860072A (zh) | 泊车控制方法、装置、计算机设备及计算机可读存储介质 | |
US20230215041A1 (en) | Pose estimation refinement for aerial refueling | |
US11544898B2 (en) | Method, computer device and storage medium for real-time urban scene reconstruction | |
WO2024087962A1 (zh) | 车厢姿态识别系统、方法、电子设备及存储介质 | |
US20210064872A1 (en) | Object detecting system for detecting object by using hierarchical pyramid and object detecting method thereof | |
US20220301176A1 (en) | Object detection method, object detection device, terminal device, and medium | |
CN113537047A (zh) | 障碍物检测方法、装置、交通工具及存储介质 | |
CN115410167A (zh) | 目标检测与语义分割方法、装置、设备及存储介质 | |
CN116978010A (zh) | 图像标注方法和装置、存储介质和电子设备 | |
CN111401190A (zh) | 车辆检测方法、装置、计算机设备和存储介质 | |
CN116309943B (zh) | 一种停车场语义地图路网构建方法、装置及电子设备 | |
CN114503044B (zh) | 用于在3d点云中自动标记对象的系统和方法 | |
CN112241963A (zh) | 基于车载视频的车道线识别方法、系统和电子设备 | |
CN112639822A (zh) | 一种数据处理方法及装置 | |
CN114648639B (zh) | 一种目标车辆的检测方法、系统及装置 | |
CN116468796A (zh) | 生成来自鸟瞰视角的表示的方法、车辆对象识别系统及存储介质 | |
CN112668596A (zh) | 三维物体识别方法及装置、识别模型训练方法及装置 | |
CN117994614A (zh) | 目标检测方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |