CN111797915A - 目标检测方法、装置、电子设备及计算机可读存储介质 - Google Patents
目标检测方法、装置、电子设备及计算机可读存储介质 Download PDFInfo
- Publication number
- CN111797915A CN111797915A CN202010593960.9A CN202010593960A CN111797915A CN 111797915 A CN111797915 A CN 111797915A CN 202010593960 A CN202010593960 A CN 202010593960A CN 111797915 A CN111797915 A CN 111797915A
- Authority
- CN
- China
- Prior art keywords
- detection type
- target detection
- data
- reference data
- point cloud
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 358
- 238000000034 method Methods 0.000 claims abstract description 26
- 230000004927 fusion Effects 0.000 claims description 38
- 238000013528 artificial neural network Methods 0.000 claims description 32
- 238000004590 computer program Methods 0.000 claims description 9
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 6
- 230000036544 posture Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000007500 overflow downdraw method Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 235000002566 Capsicum Nutrition 0.000 description 1
- 239000006002 Pepper Substances 0.000 description 1
- 235000016761 Piper aduncum Nutrition 0.000 description 1
- 235000017804 Piper guineense Nutrition 0.000 description 1
- 244000203593 Piper nigrum Species 0.000 description 1
- 235000008184 Piper nigrum Nutrition 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000006798 recombination Effects 0.000 description 1
- 238000005215 recombination Methods 0.000 description 1
- 150000003839 salts Chemical class 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Traffic Control Systems (AREA)
Abstract
本公开的实施例公开了一种目标检测方法、装置、电子设备及计算机可读存储介质。该方法包括:获取相机采集的图像数据,以及获取雷达采集的点云数据;获取检测类型参考数据;其中,检测类型参考数据包括以下至少一项:相机和雷达所在的可移动设备所处场景的场景数据、可移动设备的速度、最接近可移动设备的目标障碍物与可移动设备之间的距离;确定与检测类型参考数据相匹配的目标检测类型;根据图像数据和点云数据,得到目标检测类型对应的目标检测结果。本公开的实施例中的目标检测策略能够适配多种情况,从而克服了现有技术中的目标检测策略存在的局限性,另外,本公开的实施例还能够提高目标检测结果的准确性和可靠性。
Description
技术领域
本公开涉及自动驾驶技术领域,尤其涉及一种目标检测方法、装置、电子设备及计算机可读存储介质。
背景技术
对于自动驾驶系统而言,目标检测是非常重要的环节。目前,常用的目标检测策略为:基于雷达采集的稀疏的点云数据实现三维目标检测。然而,该目标检测策略需要花费较长的时间,无法适配对检测速度要求较高的情况,因此,该目标检测策略存在较强的局限性。
发明内容
为了解决上述技术问题,提出了本公开。本公开的实施例提供了一种目标检测方法、装置、电子设备及计算机可读存储介质。
根据本公开实施例的一个方面,提供了一种目标检测方法,包括:
获取相机采集的图像数据,以及获取雷达采集的点云数据;
获取检测类型参考数据;其中,所述检测类型参考数据包括以下至少一项:所述相机和所述雷达所在的可移动设备所处场景的场景数据、所述可移动设备的速度、最接近所述可移动设备的目标障碍物与所述可移动设备之间的距离;
确定与所述检测类型参考数据相匹配的目标检测类型;
根据所述图像数据和所述点云数据,得到所述目标检测类型对应的目标检测结果。
根据本公开实施例的另一个方面,提供了一种目标检测装置,包括:
第一获取模块,用于获取相机采集的图像数据,以及获取雷达采集的点云数据;
第二获取模块,用于获取检测类型参考数据;其中,所述检测类型参考数据包括以下至少一项:所述相机和所述雷达所在的可移动设备所处场景的场景数据、所述可移动设备的速度、最接近所述可移动设备的目标障碍物与所述可移动设备之间的距离;
确定模块,用于确定与所述检测类型参考数据相匹配的目标检测类型;
第三获取模块,用于根据所述图像数据和所述点云数据,得到所述目标检测类型对应的目标检测结果。
根据本公开实施例的再一个方面,提供了一种电子设备,包括:
处理器;
用于存储所述处理器可执行指令的存储器;
所述处理器,用于从所述存储器中读取所述可执行指令,并执行所述指令以实现上述目标检测方法。
根据本公开实施例的又一个方面,提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序用于执行上述目标检测方法。
本公开的实施例中,在获取相机采集的图像数据,以及获取雷达采集的点云数据之后,可以获取包括相机和雷达所在的可移动设备所处场景的场景数据、可移动设备的速度、最接近可移动设备的目标障碍物与可移动设备之间的距离中的至少一项的检测类型参考数据,检测类型参考数据可以对当前的实际情况进行有效地表征。之后,可以确定与检测类型参考数据相匹配的目标检测类型,并根据图像数据和点云数据,得到目标检测类型对应的目标检测结果。可见,采用本公开的实施例中的目标检测策略,能够根据当前的实际情况,以合适的目标检测类型进行目标检测,因此,本公开的实施例中的目标检测策略能够适配多种情况,从而克服了现有技术中的目标检测策略存在的局限性。另外,本公开的实施例中同时依据图像数据和点云数据来得到目标检测结果,而不仅仅依据点云数据,这样,与现有技术相比,本公开的实施例能够提高目标检测结果的准确性和可靠性。
下面通过附图和实施例,对本公开的技术方案做进一步的详细描述。
附图说明
通过结合附图对本公开实施例进行更详细的描述,本公开的上述以及其他目的、特征和优势将变得更加明显。附图用来提供对本公开实施例的进一步理解,并且构成说明书的一部分,与本公开实施例一起用于解释本公开,并不构成对本公开的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1是本公开一示例性实施例提供的目标检测方法的流程示意图。
图2是毫米波雷达探测距离的示意图。
图3是本公开一示例性实施例中第一神经网络的网络架构图。
图4是本公开一示例性实施例中第二神经网络的网络架构图。
图5是本公开一示例性实施例提供的目标检测装置的结构示意图。
图6是本公开一示例性实施例提供的电子设备的结构图。
具体实施方式
下面,将参考附图详细地描述根据本公开的示例实施例。显然,所描述的实施例仅仅是本公开的一部分实施例,而不是本公开的全部实施例,应理解,本公开不受这里描述的示例实施例的限制。
应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本公开的范围。
本领域技术人员可以理解,本公开实施例中的“第一”、“第二”等术语仅用于区别不同步骤、设备或模块等,既不代表任何特定技术含义,也不表示它们之间的必然逻辑顺序。
还应理解,在本公开实施例中,“多个”可以指两个或两个以上,“至少一个”可以指一个、两个或两个以上。
还应理解,对于本公开实施例中提及的任一部件、数据或结构,在没有明确限定或者在前后文给出相反启示的情况下,一般可以理解为一个或多个。
另外,本公开中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本公开中字符“/”,一般表示前后关联对象是一种“或”的关系。
还应理解,本公开对各个实施例的描述着重强调各个实施例之间的不同之处,其相同或相似之处可以相互参考,为了简洁,不再一一赘述。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本公开及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
本公开实施例可以应用于终端设备、计算机系统、服务器等电子设备,其可与众多其它通用或专用计算系统环境或配置一起操作。适于与终端设备、计算机系统、服务器等电子设备一起使用的众所周知的终端设备、计算系统、环境和/或配置的例子包括但不限于:个人计算机系统、服务器计算机系统、瘦客户机、厚客户机、手持或膝上设备、基于微处理器的系统、机顶盒、可编程消费电子产品、网络个人电脑、小型计算机系统、大型计算机系统和包括上述任何系统的分布式云计算技术环境,等等。
终端设备、计算机系统、服务器等电子设备可以在由计算机系统执行的计算机系统可执行指令(诸如程序模块)的一般语境下描述。通常,程序模块可以包括例程、程序、目标程序、组件、逻辑、数据结构等等,它们执行特定的任务或者实现特定的抽象数据类型。计算机系统/服务器可以在分布式云计算环境中实施,分布式云计算环境中,任务是由通过通信网络链接的远程处理设备执行的。在分布式云计算环境中,程序模块可以位于包括存储设备的本地或远程计算系统存储介质上。
示例性方法
图1是本公开一示例性实施例提供的目标检测方法的流程示意图。图1所示的方法可以包括步骤101、步骤102、步骤103和步骤104,下面对各步骤分别进行说明。
步骤101,获取相机采集的图像数据,以及获取雷达采集的点云数据。
这里,相机可以为单目相机;雷达可以为毫米波雷达(Radio Detection andRanging,RADAR)或者激光雷达(Light Detection and Ranging,LiDAR)。
需要说明的是,毫米波雷达主要有以下特点:一、通过无线电波探测目标障碍物的距离(或者距离范围)和运动特征(例如速度、角度等特征),距离范围可以为图2中的long-range mode(即长范围模式)下的距离范围,或者为图2中的mid-range mode(即中等范围模式)下的距离范围;二、使用反射的无线电波来探测目标障碍物后面的目标障碍物;三、成本较低,对信号处理的要求较低。
为了便于理解,本公开的实施例中均以相机为单目相机,雷达为毫米波雷达的情况为例进行说明。
在步骤101中,可以按照设定的时间间隔,获取相机采集的图像数据以及雷达采集的点云数据。可选地,设定时间间隔可以为5秒、10秒、15秒等;图像数据可以为RGB图像信息,RGB代表红(Red)、绿(Green)、蓝(Blue)三个通道的颜色。
步骤102,获取检测类型参考数据;其中,检测类型参考数据包括以下至少一项:相机和雷达所在的可移动设备所处场景的场景数据、可移动设备的速度、最接近可移动设备的目标障碍物与可移动设备之间的距离。
这里,可移动设备可以为汽车,例如为纯电动汽车或者混合电动汽车,当然,可移动设备的类型并不局限于此,在此不再一一列举。
需要说明的是,可移动设备所处场景的场景数据包括但不限于场景类型、光线强度等;其中,场景类型包括但不限于高速公路类型、停车场类型等,这时,场景类型可以基于全球定位系统(Global Positioning System,GPS)获取;光线强度可以调用设置于可移动设备的光线传感器获取。另外,可移动设备的速度可以调用设置于可移动设备的速度传感器获取;最接近可移动设备的目标障碍物与可移动设备之间的距离可以通过对相机采集的图像数据进行深度估计获得。
步骤103,确定与检测类型参考数据相匹配的目标检测类型。
这里,目标检测类型具体可以分为二维目标检测类型和三维目标检测类型两种情况;其中,三维也可以称为3D,二维也可以称为2D。需要指出的是,二维目标检测类型与三维目标检测类型两者相比较时,二维目标检测类型具有检测速度快的优点,三维目标检测类型具有检测精度高、检测结果全面的优点。
需要说明的是,步骤103的实现形式多样,下面进行举例介绍。
在第一种实现形式中,检测类型参考数据包括场景数据,且场景数据包括场景类型;
步骤103,包括:
在检测类型参考数据中的场景类型为停车场类型的情况下,确定与检测类型参考数据相匹配的目标检测类型为三维目标检测类型;
在检测类型参考数据中的场景类型为高速公路类型的情况下,确定与检测类型参考数据相匹配的目标检测类型为二维目标检测类型。
一般而言,在处于高速公路上时,可移动设备的速度较快,安全风险较大;在处于停车场时,可移动设备的速度较慢,安全风险较小。基于此,在检测类型参考数据中的场景类型为停车场类型的情况下,确定出的目标检测类型可以为三维目标检测类型,这样能够保证后续目标检测的检测精度和检测结果全面性,以在安全风险较小的情况下,将更为全面可靠的目标检测结果用于可移动设备的自动驾驶,从而保证自动驾驶效果。在检测类型参考数据中的场景类型为高速公路类型的情况下,确定出的目标检测类型可以为二维目标检测类型,这样能够保证后续目标检测的检测速度,以便及时地将目标检测结果用于可移动设备的自动驾驶,从而保证可移动设备的安全行驶。
在第二种实现形式中,检测类型参考数据包括场景数据,且场景数据包括光线强度;
步骤103,包括:
在检测类型参考数据中的光线强度小于预设强度的情况下,确定与检测类型参考数据相匹配的目标检测类型为三维目标检测类型;
在检测类型参考数据中的光线强度大于或等于预设强度的情况下,确定与检测类型参考数据相匹配的目标检测类型为二维目标检测类型。
一般而言,在光线较好时,可移动设备的速度较快,安全风险较大;在光线较差时,可移动设备的速度较慢,安全风险较小。基于此,在检测类型参考数据中的光线强度小于预设强度的情况下,确定出的目标检测类型可以为三维目标检测类型,这样能够保证后续目标检测的检测精度和检测结果全面性,以在安全风险较小的情况下,将更为全面可靠的目标检测结果用于可移动设备的自动驾驶,从而保证自动驾驶效果。在检测类型参考数据中的光线强度大于或等于预设强度的情况下,确定出的目标检测类型可以为二维目标检测类型,这样能够保证后续目标检测的检测速度,以便及时地将目标检测结果用于可移动设备的自动驾驶,从而保证可移动设备的安全行驶。
在第三种实现形式中,检测类型参考数据包括速度;
步骤103,包括:
在检测类型参考数据中的速度小于预设速度的情况下,确定与检测类型参考数据相匹配的目标检测类型为三维目标检测类型;
在检测类型参考数据中的速度大于或等于预设速度的情况下,确定与检测类型参考数据相匹配的目标检测类型为二维目标检测类型。
一般而言,在可移动设备的速度较快时,安全风险较大;在可移动设备的速度较慢时,安全风险较小。基于此,在检测类型参考数据中的速度小于预设速度的情况下,确定出的目标检测类型可以为三维目标检测类型,这样能够保证后续目标检测的检测精度和检测结果全面性,以在安全风险较小的情况下,将更为全面可靠的目标检测结果用于可移动设备的自动驾驶,从而保证自动驾驶效果。在检测类型参考数据中的速度大于或等于预设速度的情况下,确定出的目标检测类型可以为二维目标检测类型,这样能够保证后续目标检测的检测速度,以便及时地将目标检测结果用于可移动设备的自动驾驶,从而保证可移动设备的安全行驶。
在第四种实现形式中,检测类型参考数据包括距离;
步骤103,包括:
在检测类型参考数据中的距离小于预设距离的情况下,确定与检测类型参考数据相匹配的目标检测类型为三维目标检测类型;
在检测类型参考数据中的距离大于或等于预设距离的情况下,确定与检测类型参考数据相匹配的目标检测类型为二维目标检测类型。
这里,预设距离可以为15米、20米或者25米,当然,预设距离的取值并不局限于此,具体可以根据实际情况来确定,本公开的实施例对此不做任何限定。
一般而言,在目标障碍物距离可移动设备较近时,可移动设备的速度较慢,安全风险较小;在目标障碍物距离可移动设备较远时下,可移动设备的速度较快,安全风险较大。基于此,在检测类型参考数据中的距离小于预设距离的情况下,确定出的目标检测类型可以为三维目标检测类型,这样能够保证后续目标检测的检测精度和检测结果全面性,以在安全风险较小的情况下,将更为全面可靠的目标检测结果用于可移动设备的自动驾驶,从而保证自动驾驶效果。在检测类型参考数据中的距离大于或等于预设距离的情况下,确定出的目标检测类型可以为二维目标检测类型,这样能够保证后续目标检测的检测速度,以便及时地将目标检测结果用于可移动设备的自动驾驶,从而保证可移动设备的安全行驶。
可见,以上四种实现形式均可以根据实际情况,进行2D目标检测逻辑和3D目标检测逻辑的转换,从而在安全性较高的前提下,确定出能够保证检测精度和检测结果全面性的目标检测类型,进而保证自动驾驶效果,并在安全性较低的前提下,确定出能够保证检测速度的目标检测类型,进而保证行驶安全性。
步骤104,根据图像数据和点云数据,得到目标检测类型对应的目标检测结果。
在目标检测类型为二维目标检测类型的情况下,根据图像数据和点云数据得到的目标检测结果可以为二维目标检测结果,二维目标检测结果可以包括目标类别、目标位置等。具体地,二维目标检测位置可以包括位于可移动设备前方的物体(或者行人)的位置和类别,以及位于可移动设备后方的物体(或者行人)的位置和类别等。
在目标检测类型为三维目标检测类型的情况下,根据图像数据和点云数据得到的目标检测结果可以为三维目标检测结果,三维目标检测结果可以包括目标类别、目标位置、目标姿态、目标运动方向等。具体地,三维目标检测结果可以包括位于可移动设备前方的物体的位置、姿态、运动方向,位于位于可移动设备后方的行人的位置、姿态、运动方向等。
本公开的实施例中,在获取相机采集的图像数据,以及获取雷达采集的点云数据之后,可以获取包括相机和雷达所在的可移动设备所处场景的场景数据、可移动设备的速度、最接近可移动设备的目标障碍物与可移动设备之间的距离中的至少一项的检测类型参考数据,检测类型参考数据可以对当前的实际情况进行有效地表征。之后,可以确定与检测类型参考数据相匹配的目标检测类型,并根据图像数据和点云数据,得到目标检测类型对应的目标检测结果。可见,采用本公开的实施例中的目标检测策略,能够根据当前的实际情况,以合适的目标检测类型进行目标检测,因此,本公开的实施例中的目标检测策略能够适配多种情况,从而克服了现有技术中的目标检测策略存在的局限性。另外,本公开的实施例中同时依据图像数据和点云数据来得到目标检测结果,而不仅仅依据点云数据,这样,与现有技术相比,本公开的实施例能够提高目标检测结果的准确性和可靠性。
在一个可选示例中,根据图像数据和点云数据,得到目标检测类型对应的目标检测结果,包括:
在目标检测类型为三维目标检测类型的情况下,将图像数据和点云数据输入三维目标检测类型对应的第一神经网络,以得到第一神经网络输出的三维目标检测结果;
在目标检测类型为二维目标检测类型的情况下,将图像数据和点云数据输入二维目标检测类型对应的第二神经网络,以得到第二神经网络输出的二维目标检测结果。
需要说明的是,第一神经网络可以预先利用大量包括图像数据和点云数据的样本数据训练得到,第一神经网络用于根据输入的图像数据和点云数据,输出三维目标检测结果;第二神经网络也可以预先利用大量包括图像数据和点云数据的样本数据训练得到,第二神经网络用于根据输入的图像数据和点云数据,输出二维目标检测结果。
可选地,在第一神经网络和第二神经网络的训练过程中,均可以通过数据增强操作,对样本数据进行扩充;其中,数据增强操作包括但不限于缩放、平移、旋转、翻转、添加盐和胡椒噪声、透视变换等。
可选地,第一神经网络和第二神经网络均可以为深度神经网络。
这里,第一神经网络的网络架构可以如图3所示。由图3可知,第一神经网络中可以包括多个组件,例如包括融合模块(即Fusion block)、卷积神经网络(ConvolutionalNeural Networks,ConvNet)、深度估计器件(即Depth Estimator)、区域生成网络(RegionProposal Network,RPN)、分类&检测层(即Classfication&Detection Layer)等;其中,融合模块用于图像数据和点云数据的融合;卷积神经网络可以使用vgg(其是由牛津大学视觉组参与研发的一种卷积神经网络)或resNet(即残差网络)转移学习进行预处理并生成转换特征图;深度估计器件用于估计深度信息;区域生成网络可以创建有希望的感兴趣区域(Region Of Interest,ROI),并从头网生成的特征图中裁剪出相应区域;分类&检测层用于生成3D目标检测结果。容易看出,图3中的第一神经网络可以通过对现有的Faster RCNN网络进行一些修改得到。
这里,第二神经网络的网络架构可以如图4所示。由图4可知,第二神经网络中可以包括多个组件,例如包括融合模块(即Fusion block)、特征提取层(即FeatureExtraction)、分类&检测层(即Classfication&Detection Layer);其中,融合模块用于图像数据和点云数据的数据融合,特征提取层用于特征提取,分类&检测层用于生成2D目标检测结果。
本公开的实施例中,在确定出目标检测类型之后,只需将图像数据和点云数据提供给对应的神经网络,对应的神经网络即可进行运算处理,从而便捷可靠地得到相应的目标检测结果。
在一个可选示例中,根据图像数据和点云数据,得到目标检测类型对应的目标检测结果,包括:
采用目标检测类型对应的融合方式,将图像数据和点云数据进行融合,以得到融合结果;
根据融合结果,得到目标检测类型对应的目标检测结果。
在一种具体实施方式中,采用目标检测类型对应的融合方式,将图像数据和点云数据进行融合,以得到融合结果,包括:
在目标检测类型为三维目标检测类型的情况下,将图像数据转换为相应的点云数据,将转化得到的点云数据与雷达采集的点云数据进行融合,以得到融合结果;
在目标检测类型为二维目标检测类型的情况下,将图像数据的数据通道与点云数据的数据通道进行特征连接,并将特征连接结果作为融合结果。
如果目标检测类型为三维目标检测类型,可以由图3中的深度估计器件对图像数据进行深度估计,以得到相应的深度图,之后,可以获取相机的标定参数,并利用相机的标定参数,对得到的深度图进行逆透视变换,以得到相应的点云数据,该点云数据即为图像数据经转换得到的点云数据;其中,标定参数可以包括内参数和外参数,内参数可以包括焦距、偏心距和畸变系数等,外参数可以包括相机相对于世界坐标系的姿态。
在经转换得到点云数据之后,可以将转化得到的点云数据与雷达采集的点云数据一并提供给图3中的融合模块,以使图3中的融合模块输出融合结果。可选地,图3中的融合模块采用的算法可以K最近邻(k-Nearest Neighbor,KNN)分类算法或流形学习(即manifold learning)。
再之后,通过图3中的各个组件的协作,基于图3中的融合模块输出的融合结果,以及图像数据,图3中的第一神经网络即可输出三维目标检测结果。
如果目标检测类型为二维目标检测类型,可以由图4中的融合模块将图像数据的R通道、G通道、B通道,以及点云数据的距离通道、速度通道进行特征连接,以得到特征连接结果,图4中的融合模块可以输出作为融合结果的特征连接结果。之后,通过图4中的各个组件的协作,图4中的第二神经网络即可输出二维目标检测结果。
可见,本公开的实施例中,可以根据确定出的目标检测类型,以合适的方式进行数据融合,以便基于数据融合结果,得到相应的目标检测结果。
综上,本公开的实施例提供了一种基于深度学习的目标检测方法,该方法可以采用毫米波雷达输出的信号和相机采集的RGB图像视频序列作为输入来预测其它车辆和行人的位置,姿态、运动方向等,以实现相机和雷达的优势互补,从而位置和姿态检测的有效性和精度。此外,本公开的实施例还能够自适应地进行2D目标检测和3D目标检测的切换。
本公开的实施例提供的任一种目标检测方法可以由任意适当的具有数据处理能力的设备执行,包括但不限于:终端设备和服务器等。或者,本公开实施例提供的任一种目标检测方法可以由处理器执行,如处理器通过调用存储器存储的相应指令来执行本公开实施例提及的任一种目标检测方法。下文不再赘述。
示例性装置
图5是本公开一示例性实施例提供的目标检测装置的结构示意图,图5所示的装置包括第一获取模块501、第二获取模块502、确定模块503和第三获取模块504。
第一获取模块501,用于获取相机采集的图像数据,以及获取雷达采集的点云数据;
第二获取模块502,用于获取检测类型参考数据;其中,检测类型参考数据包括以下至少一项:相机和雷达所在的可移动设备所处场景的场景数据、可移动设备的速度、最接近可移动设备的目标障碍物与可移动设备之间的距离;
确定模块503,用于确定与检测类型参考数据相匹配的目标检测类型;
第三获取模块504,用于根据图像数据和点云数据,得到目标检测类型对应的目标检测结果。
在一个可选示例中,第三获取模块504,包括:
融合子模块,用于采用目标检测类型对应的融合方式,将图像数据和点云数据进行融合,以得到融合结果;
第一获取子模块,用于根据融合结果,得到目标检测类型对应的目标检测结果。
在一个可选示例中,融合子模块,包括:
第一融合单元,用于在目标检测类型为三维目标检测类型的情况下,将图像数据转换为相应的点云数据,将转化得到的点云数据与雷达采集的点云数据进行融合,以得到融合结果;
第二融合单元,用于在目标检测类型为二维目标检测类型的情况下,将图像数据的数据通道与点云数据的数据通道进行特征连接,并将特征连接结果作为融合结果。
在一个可选示例中,第三获取模块504,包括:
第二获取子模块,用于在目标检测类型为三维目标检测类型的情况下,将图像数据和点云数据输入三维目标检测类型对应的第一神经网络,以得到第一神经网络输出的三维目标检测结果;
第三获取子模块,用于在目标检测类型为二维目标检测类型的情况下,将图像数据和点云数据输入二维目标检测类型对应的第二神经网络,以得到第二神经网络输出的二维目标检测结果。
在一个可选示例中,检测类型参考数据包括场景数据,且场景数据包括场景类型;
确定模块503,包括:
第一确定子模块,用于在检测类型参考数据中的场景类型为停车场类型的情况下,确定与检测类型参考数据相匹配的目标检测类型为三维目标检测类型;
第二确定子模块,用于在检测类型参考数据中的场景类型为高速公路类型的情况下,确定与检测类型参考数据相匹配的目标检测类型为二维目标检测类型。
在一个可选示例中,检测类型参考数据包括场景数据,且场景数据包括光线强度;
确定模块503,包括:
第三确定子模块,用于在检测类型参考数据中的光线强度小于预设强度的情况下,确定与检测类型参考数据相匹配的目标检测类型为三维目标检测类型;
第四确定子模块,用于在检测类型参考数据中的光线强度大于或等于预设强度的情况下,确定与检测类型参考数据相匹配的目标检测类型为二维目标检测类型。
在一个可选示例中,检测类型参考数据包括速度;
确定模块503,包括:
第五确定子模块,用于在检测类型参考数据中的速度小于预设速度的情况下,确定与检测类型参考数据相匹配的目标检测类型为三维目标检测类型;
第六确定子模块,用于在检测类型参考数据中的速度大于或等于预设速度的情况下,确定与检测类型参考数据相匹配的目标检测类型为二维目标检测类型。
在一个可选示例中,检测类型参考数据包括距离;
确定模块503,包括:
第七确定子模块,用于在检测类型参考数据中的距离小于预设距离的情况下,确定与检测类型参考数据相匹配的目标检测类型为三维目标检测类型;
第八确定子模块,用于在检测类型参考数据中的距离大于或等于预设距离的情况下,确定与检测类型参考数据相匹配的目标检测类型为二维目标检测类型。
示例性电子设备
下面,参考图6来描述根据本公开实施例的电子设备。该电子设备可以是第一设备和第二设备中的任一个或两者、或与它们独立的单机设备,该单机设备可以与第一设备和第二设备进行通信,以从它们接收所采集到的输入信号。
图6图示了根据本公开实施例的电子设备600的框图。
如图6所示,电子设备600包括一个或多个处理器601和存储器602。
处理器601可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其他形式的处理单元,并且可以控制电子设备600中的其他组件以执行期望的功能。
存储器602可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器601可以运行所述程序指令,以实现上文所述的本公开的各个实施例的目标检测方法以及/或者其他期望的功能。在所述计算机可读存储介质中还可以存储诸如输入信号、信号分量、噪声分量等各种内容。
在一个示例中,电子设备600还可以包括:输入装置603和输出装置604,这些组件通过总线系统和/或其他形式的连接机构(未示出)互连。
例如,在电子设备600是第一设备或第二设备时,该输入装置603可以是麦克风或麦克风阵列。在电子设备600是单机设备时,该输入装置603可以是通信网络连接器,用于从第一设备和第二设备接收所采集的输入信号。
此外,该输入装置603还可以包括例如键盘、鼠标等等。
该输出装置604可以向外部输出各种信息。该输出装置604可以包括例如显示器、扬声器、打印机、以及通信网络及其所连接的远程输出装置等等。
当然,为了简化,图6中仅示出了该电子设备600中与本公开有关的组件中的一些,省略了诸如总线、输入/输出接口等等的组件。除此之外,根据具体应用情况,电子设备600还可以包括任何其他适当的组件。
示例性计算机程序产品和计算机可读存储介质
除了上述方法和设备以外,本公开的实施例还可以是计算机程序产品,其包括计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本公开各种实施例的目标检测方法中的步骤。
所述计算机程序产品可以以一种或多种程序设计语言的任意组合来编写用于执行本公开实施例操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。
此外,本公开的实施例还可以是计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本公开各种实施例的目标检测方法中的步骤。
所述计算机可读存储介质可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
以上结合具体实施例描述了本公开的基本原理,但是,需要指出的是,在本公开中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本公开的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本公开为必须采用上述具体的细节来实现。
本说明书中各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似的部分相互参见即可。对于系统实施例而言,由于其与方法实施例基本对应,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本公开中涉及的器件、装置、设备、系统的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、系统。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
可能以许多方式来实现本公开的方法和装置。例如,可通过软件、硬件、固件或者软件、硬件、固件的任何组合来实现本公开的方法和装置。用于所述方法的步骤的上述顺序仅是为了进行说明,本公开的方法的步骤不限于以上具体描述的顺序,除非以其它方式特别说明。此外,在一些实施例中,还可将本公开实施为记录在记录介质中的程序,这些程序包括用于实现根据本公开的方法的机器可读指令。因而,本公开还覆盖存储用于执行根据本公开的方法的程序的记录介质。
还需要指出的是,在本公开的装置、设备和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本公开的等效方案。
提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本公开。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本公开的范围。因此,本公开不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本公开的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。
Claims (10)
1.一种目标检测方法,其特征在于,包括:
获取相机采集的图像数据,以及获取雷达采集的点云数据;
获取检测类型参考数据;其中,所述检测类型参考数据包括以下至少一项:所述相机和所述雷达所在的可移动设备所处场景的场景数据、所述可移动设备的速度、最接近所述可移动设备的目标障碍物与所述可移动设备之间的距离;
确定与所述检测类型参考数据相匹配的目标检测类型;
根据所述图像数据和所述点云数据,得到所述目标检测类型对应的目标检测结果。
2.根据权利要求1所述的方法,其特征在于,所述根据所述图像数据和所述点云数据,得到所述目标检测类型对应的目标检测结果,包括:
采用所述目标检测类型对应的融合方式,将所述图像数据和所述点云数据进行融合,以得到融合结果;
根据所述融合结果,得到所述目标检测类型对应的目标检测结果。
3.根据权利要求2所述的方法,其特征在于,所述采用所述目标检测类型对应的融合方式,将所述图像数据和所述点云数据进行融合,以得到融合结果,包括:
在所述目标检测类型为三维目标检测类型的情况下,将所述图像数据转换为相应的点云数据,将转化得到的点云数据与所述雷达采集的点云数据进行融合,以得到融合结果;
在所述目标检测类型为二维目标检测类型的情况下,将所述图像数据的数据通道与所述点云数据的数据通道进行特征连接,并将特征连接结果作为融合结果。
4.根据权利要求1所述的方法,其特征在于,所述根据所述图像数据和所述点云数据,得到所述目标检测类型对应的目标检测结果,包括:
在所述目标检测类型为三维目标检测类型的情况下,将所述图像数据和所述点云数据输入所述三维目标检测类型对应的第一神经网络,以得到所述第一神经网络输出的三维目标检测结果;
在所述目标检测类型为二维目标检测类型的情况下,将所述图像数据和所述点云数据输入所述二维目标检测类型对应的第二神经网络,以得到所述第二神经网络输出的二维目标检测结果。
5.根据权利要求1所述的方法,其特征在于,所述检测类型参考数据包括所述场景数据,且所述场景数据包括场景类型;
所述确定与所述检测类型参考数据相匹配的目标检测类型,包括:
在所述检测类型参考数据中的所述场景类型为停车场类型的情况下,确定与所述检测类型参考数据相匹配的目标检测类型为三维目标检测类型;
在所述检测类型参考数据中的所述场景类型为高速公路类型的情况下,确定与所述检测类型参考数据相匹配的目标检测类型为二维目标检测类型。
6.根据权利要求1所述的方法,其特征在于,所述检测类型参考数据包括所述场景数据,且所述场景数据包括光线强度;
所述确定与所述检测类型参考数据相匹配的目标检测类型,包括:
在所述检测类型参考数据中的所述光线强度小于预设强度的情况下,确定与所述检测类型参考数据相匹配的目标检测类型为三维目标检测类型;
在所述检测类型参考数据中的所述光线强度大于或等于预设强度的情况下,确定与所述检测类型参考数据相匹配的目标检测类型为二维目标检测类型。
7.根据权利要求1所述的方法,其特征在于,所述检测类型参考数据包括所述速度;
所述确定与所述检测类型参考数据相匹配的目标检测类型,包括:
在所述检测类型参考数据中的所述速度小于预设速度的情况下,确定与所述检测类型参考数据相匹配的目标检测类型为三维目标检测类型;
在所述检测类型参考数据中的所述速度大于或等于预设速度的情况下,确定与所述检测类型参考数据相匹配的目标检测类型为二维目标检测类型。
8.一种目标检测装置,其特征在于,包括:
第一获取模块,用于获取相机采集的图像数据,以及获取雷达采集的点云数据;
第二获取模块,用于获取检测类型参考数据;其中,所述检测类型参考数据包括以下至少一项:所述相机和所述雷达所在的可移动设备所处场景的场景数据、所述可移动设备的速度、最接近所述可移动设备的目标障碍物与所述可移动设备之间的距离;
确定模块,用于确定与所述检测类型参考数据相匹配的目标检测类型;
第三获取模块,用于根据所述图像数据和所述点云数据,得到所述目标检测类型对应的目标检测结果。
9.一种电子设备,包括:
处理器;
用于存储所述处理器可执行指令的存储器;
所述处理器,用于从所述存储器中读取所述可执行指令,并执行所述指令以实现上述权利要求1至7中任一项所述的目标检测方法。
10.一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序用于执行上述权利要求1至7任一项所述的目标检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010593960.9A CN111797915A (zh) | 2020-06-24 | 2020-06-24 | 目标检测方法、装置、电子设备及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010593960.9A CN111797915A (zh) | 2020-06-24 | 2020-06-24 | 目标检测方法、装置、电子设备及计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111797915A true CN111797915A (zh) | 2020-10-20 |
Family
ID=72803842
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010593960.9A Pending CN111797915A (zh) | 2020-06-24 | 2020-06-24 | 目标检测方法、装置、电子设备及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111797915A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112560972A (zh) * | 2020-12-21 | 2021-03-26 | 北京航空航天大学 | 基于毫米波雷达先验定位和视觉特征融合的目标检测方法 |
CN112740268A (zh) * | 2020-11-23 | 2021-04-30 | 华为技术有限公司 | 目标检测方法和装置 |
CN113792661A (zh) * | 2021-09-15 | 2021-12-14 | 北京市商汤科技开发有限公司 | 图像检测方法、装置、电子设备以及存储介质 |
CN117690164A (zh) * | 2024-01-30 | 2024-03-12 | 成都欣纳科技有限公司 | 基于边缘计算的机场飞鸟识别驱赶方法及系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5285523A (en) * | 1990-09-25 | 1994-02-08 | Nissan Motor Co., Ltd. | Apparatus for recognizing driving environment of vehicle |
KR20170116305A (ko) * | 2016-04-08 | 2017-10-19 | 한국전자통신연구원 | 코파일럿 차량을 위한 이종 다중 센서의 추적정보 융합기반 주변 장애물 인식 장치 |
CN108229366A (zh) * | 2017-12-28 | 2018-06-29 | 北京航空航天大学 | 基于雷达和图像数据融合的深度学习车载障碍物检测方法 |
CN109345510A (zh) * | 2018-09-07 | 2019-02-15 | 百度在线网络技术(北京)有限公司 | 物体检测方法、装置、设备、存储介质及车辆 |
CN110363820A (zh) * | 2019-06-28 | 2019-10-22 | 东南大学 | 一种基于激光雷达、图像前融合的目标检测方法 |
CN110765894A (zh) * | 2019-09-30 | 2020-02-07 | 杭州飞步科技有限公司 | 目标检测方法、装置、设备及计算机可读存储介质 |
CN111179329A (zh) * | 2019-12-31 | 2020-05-19 | 智车优行科技(上海)有限公司 | 三维目标检测方法、装置及电子设备 |
-
2020
- 2020-06-24 CN CN202010593960.9A patent/CN111797915A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5285523A (en) * | 1990-09-25 | 1994-02-08 | Nissan Motor Co., Ltd. | Apparatus for recognizing driving environment of vehicle |
KR20170116305A (ko) * | 2016-04-08 | 2017-10-19 | 한국전자통신연구원 | 코파일럿 차량을 위한 이종 다중 센서의 추적정보 융합기반 주변 장애물 인식 장치 |
CN108229366A (zh) * | 2017-12-28 | 2018-06-29 | 北京航空航天大学 | 基于雷达和图像数据融合的深度学习车载障碍物检测方法 |
CN109345510A (zh) * | 2018-09-07 | 2019-02-15 | 百度在线网络技术(北京)有限公司 | 物体检测方法、装置、设备、存储介质及车辆 |
CN110363820A (zh) * | 2019-06-28 | 2019-10-22 | 东南大学 | 一种基于激光雷达、图像前融合的目标检测方法 |
CN110765894A (zh) * | 2019-09-30 | 2020-02-07 | 杭州飞步科技有限公司 | 目标检测方法、装置、设备及计算机可读存储介质 |
CN111179329A (zh) * | 2019-12-31 | 2020-05-19 | 智车优行科技(上海)有限公司 | 三维目标检测方法、装置及电子设备 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112740268A (zh) * | 2020-11-23 | 2021-04-30 | 华为技术有限公司 | 目标检测方法和装置 |
CN112740268B (zh) * | 2020-11-23 | 2022-06-07 | 华为技术有限公司 | 目标检测方法和装置 |
CN112560972A (zh) * | 2020-12-21 | 2021-03-26 | 北京航空航天大学 | 基于毫米波雷达先验定位和视觉特征融合的目标检测方法 |
CN113792661A (zh) * | 2021-09-15 | 2021-12-14 | 北京市商汤科技开发有限公司 | 图像检测方法、装置、电子设备以及存储介质 |
CN113792661B (zh) * | 2021-09-15 | 2024-06-11 | 北京市商汤科技开发有限公司 | 图像检测方法、装置、电子设备以及存储介质 |
CN117690164A (zh) * | 2024-01-30 | 2024-03-12 | 成都欣纳科技有限公司 | 基于边缘计算的机场飞鸟识别驱赶方法及系统 |
CN117690164B (zh) * | 2024-01-30 | 2024-04-30 | 成都欣纳科技有限公司 | 基于边缘计算的机场飞鸟识别驱赶方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3662446B1 (en) | Generating an environment map around a mobile object with high accuracy | |
CN111797915A (zh) | 目标检测方法、装置、电子设备及计算机可读存储介质 | |
Wang et al. | RODNet: A real-time radar object detection network cross-supervised by camera-radar fused object 3D localization | |
Ouaknine et al. | Multi-view radar semantic segmentation | |
US11747444B2 (en) | LiDAR-based object detection and classification | |
CN109583416B (zh) | 伪车道线识别方法及系统 | |
US12073575B2 (en) | Object-centric three-dimensional auto labeling of point cloud data | |
US11450120B2 (en) | Object detection in point clouds | |
CN113096151B (zh) | 对目标的运动信息进行检测的方法和装置、设备和介质 | |
CN114782785A (zh) | 多传感器信息融合方法及装置 | |
CN114495064A (zh) | 一种基于单目深度估计的车辆周围障碍物预警方法 | |
US20220044068A1 (en) | Processing perspective view range images using neural networks | |
CN115876198A (zh) | 基于数据融合的目标检测及预警方法、设备、系统和介质 | |
Mekala et al. | Deep learning inspired object consolidation approaches using lidar data for autonomous driving: a review | |
Guo et al. | Feature‐based detection and classification of moving objects using LiDAR sensor | |
Dai et al. | Enhanced Object Detection in Autonomous Vehicles through LiDAR—Camera Sensor Fusion. | |
CN117173657A (zh) | 一种面向自动驾驶感知模型的预训练方法 | |
Liu et al. | Camera–Radar Fusion with Modality Interaction and Radar Gaussian Expansion for 3D Object Detection | |
Agarwal et al. | A Monocular Camera Depth Estimate Approximation using Deep learning | |
US20240303838A1 (en) | Absolute depth estimation from a single image using online depth scale transfer | |
US20240290057A1 (en) | Processing apparatus and method performed by processing apparatus | |
Yan et al. | Adaptive learning point cloud and image diversity feature fusion network for 3D object detection | |
CN110706374B (zh) | 运动状态预测方法、装置、电子设备及车辆 | |
Wang et al. | Fast vehicle detection based on colored point cloud with bird’s eye view representation | |
US20230009766A1 (en) | Method and Processing Unit for Processing Sensor Data of Several Different Sensors with an Artificial Neural Network in a Vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20201020 |