CN109541632B - 一种基于四线激光雷达辅助的目标检测漏检改进方法 - Google Patents

一种基于四线激光雷达辅助的目标检测漏检改进方法 Download PDF

Info

Publication number
CN109541632B
CN109541632B CN201811160652.6A CN201811160652A CN109541632B CN 109541632 B CN109541632 B CN 109541632B CN 201811160652 A CN201811160652 A CN 201811160652A CN 109541632 B CN109541632 B CN 109541632B
Authority
CN
China
Prior art keywords
detection
image
radar
target detection
data points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811160652.6A
Other languages
English (en)
Other versions
CN109541632A (zh
Inventor
庞彦伟
修宇璇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN201811160652.6A priority Critical patent/CN109541632B/zh
Publication of CN109541632A publication Critical patent/CN109541632A/zh
Application granted granted Critical
Publication of CN109541632B publication Critical patent/CN109541632B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于四线激光雷达辅助的目标检测漏检改进方法,包括:选取适当的目标检测网络,在数据集上进行训练;同时获取一张车载相机拍摄的待检测图像I和与其对应的一帧激光雷达点云数据C;将待检测图像I输入目标检测网络中,得到单纯的基于图像的目标检测结果;针对激光雷达点云数据C中全部数据点,基于雷达坐标系到像素坐标系的变换矩阵;对每个包含雷达数据点的检测框,更新其置信概率;输出检测结果。

Description

一种基于四线激光雷达辅助的目标检测漏检改进方法
技术领域
本发明涉及智能驾驶、计算机视觉和深度学习领域,特别涉及一种基于四线激光雷达辅助的目标检测漏检改进方法。相比于单纯基于车载相机图像的目标检测方法,本方法能够有效地降低目标检测的漏检率。
背景技术
近年来,Faster-RCNN[1]、特征金字塔网络(feature pyramid network,FPN)[2]和SSD[3]等深度神经网络已经在目标检测任务上表现出了很好的性能。然而,在智能驾驶汽车的实际应用场景下,会遇到一些车载相机成像质量较差的情况,对深度神经网络的目标检测造成比较严重的干扰。例如,在夜晚条件下,光照较差,车辆和行人等目标的明暗对比度较低、成像较为模糊,因此增加了神经网络的辨识难度。此外,夜间行车时,对向来车的车灯(特别是远光灯)会使车载相机出现“眩光”现象;前方车辆也会反射本车车灯的灯光,当这种反射现象较为严重的时候,会消除前方车辆的某些细节信息。此外,由于车载相机成像存在透视效应,距离车辆越远的物体在图像上越小。相应地,车载相机图像中包含该目标的像素值较少,所能提供的信息也较少。因此,较远的目标对于深度神经网络来说属于较难识别的对象,深度神经网络得到的置信概率不高。这些情况都会降低深度神经网络的性能,使神经网络的检测结果出现漏检。
从理论上说,这种现象是车载相机的成像这一环节造成的,因此单纯地通过改进深度神经网络的结构很难解决这个问题,即,如果成像的时候就没有提供充足的信息,无论如何改进神经网络都无法弥补这样的信息损失。
参考文献:
[1]Ren S,He K,Girshick R,et al.Faster r-cnn:Towards real-time objectdetection with region proposal networks[C]//Advances in Neural InformationProcessing Systems,Montreal,Canada,2015:91-99.
[2]Lin T Y,Dollár P,Girshick R,et al.Feature Pyramid Networks forObject Detection[C]//Proceedings of IEEE Conference on Computer Vision andPattern Recognition,Honolulu,USA,2017:936-944.
[3]Liu W,Anguelov D,Erhan D,et al.SSD:Single Shot MultiBoxDetector.European Conference on Computer Vision.Springer,Cham,2016:21-37.
发明内容
本发明的目的是克服现有的单纯基于车载相机拍摄的图像的目标检测方法在成像条件较差的情况下漏检率较高的问题,提出了一种基于四线激光雷达辅助的目标检测漏检改进方法,通过将四线激光雷达的点云投影到图像上并增强包含雷达数据点的检测框的置信概率,以弥补现有方法对复杂成像条件下的目标的漏检问题。技术方案如下:
一种基于四线激光雷达辅助的目标检测漏检改进方法,包括下列步骤:
步骤1:选取适当的目标检测网络,在数据集上进行训练;
步骤2:同时获取一张车载相机拍摄的待检测图像I和与其对应的一帧激光雷达点云数据C,在待检测图像I中,以左上角顶点为原点,水平向右方向为u轴,垂直向下方向为v轴,建立像素坐标系OI-uv,设像素点在该坐标系下的坐标为(u,v),激光雷达的点云数据C是一个N×3的三维矩阵,其中每一行代表一个雷达点,将第i行对应的雷达数据点记为Ci,每个雷达数据点通常有三个属性,即激光雷达坐标系OC-xyz下数据点的三维坐标(xi,yi,zi),即有:
Figure GDA0003520485670000021
步骤3:将待检测图像I输入目标检测网络中,得到单纯的基于图像的目标检测结果;设图像I中共有K个目标检测结果,则可将全部检测框记为
Figure GDA0003520485670000022
其中Lk表示第k个目标检测框,将第k个目标检测框Lk在像素坐标系OI-uv下的四个坐标记为
Figure GDA0003520485670000023
对应的置信概率记为P(Lk);
步骤4:针对激光雷达点云数据C中全部数据点Ci,i=1,2,…,N,基于雷达坐标系OC-xyz到像素坐标系OI-uv的变换矩阵,计算每一个雷达数据点在图像上的坐标;将雷达数据点Ci投影像素坐标系OI-uv下的像素坐标记为(ui,vi);
步骤5:如果雷达数据点Ci对应的像素坐标(ui,vi)满足
Figure GDA0003520485670000024
Figure GDA0003520485670000025
则认为检测框Lk包含雷达数据点Ci,即有:
Figure GDA0003520485670000026
对全部N个雷达数据点Ci,i=1,2,…,N和全部K个目标检测框
Figure GDA0003520485670000027
进行匹配,选出包含雷达数据点的M个检测框
Figure GDA0003520485670000028
其中,将第m个包含雷达数据点的检测框记为Lm
步骤6:对每个包含雷达数据点的检测框
Figure GDA0003520485670000031
将其在步骤2中单纯通过图像得到的置信概率记为Pold(Lm),更新其置信概率P(Lm)=sigmoid(Pold(Lm)+C),其中C为一个常数,要求C>0;其他K-M个不包含雷达数据点的检测框的置信概率不变;
步骤7:设定置信概率阈值为Pthreshold,如果检测框Lk的置信概率P(Lk)大于该阈值,则认为该检测框是有效的,予以保留;如果检测框Lk的置信概率P(Lk)小于等于该阈值,则丢弃该检测框,遍历全部的K个检测框
Figure GDA0003520485670000032
保留P(Lk)>Pthreshold的检测框作为最终输出的检测结果。
本发明根据四线激光雷达点云与车载相机图像融合的结果,增强包含雷达数据点的检测框的置信概率,以减少深度神经网络目标检测的漏检情况。将本发明应用在实际的无人驾驶汽车系统中,能够有效降低雨雪、雾霾以及夜间行车等复杂环境下目标识别的漏检率,从而提升无人驾驶汽车在恶劣条件下的安全性。
附图说明
图1展示了四线激光雷达与车载相机进行配准和融合的点云热图示例
图2(a)“眩光”现象对识别置信度的影响;(b)夜晚明暗对比度较低对识别置信度的影响说明了成像质量较差情况下检测结果的置信概率较低,说明了距离较远的目标检测得到的置信概率较低
图3的四个图为表征了距离较远的目标检测得到的置信概率较低的示意图
图4展示了传统的R-Tree结构示意图
图5展示了本专利提出的二层R-Tree示意图
图6展示了四线激光雷达辅助增强前后置信概率的对比
图7展示了置信概率增强前后目标检测结果的对比(阈值为0.7)
具体实施方式
下面结合附图对本发明作进一步的描述。
四线激光雷达的基本探测原理是由激光器发射激光信号,通过接收和测量被目标反射的激光信号来获取目标的相关信息。四线激光雷达的工作原理决定了它不会受到阴影和光照等的影响,是车载相机的一个很好的补充。因此,本发明通过四线激光雷达提供额外的信息,将四线激光雷达的数据点云与对车载相机拍摄的图像进行融合,以降低目标检测的漏检率。
为了能够将四线激光雷达的点云数据投影到车载相机拍摄的图像上,需要对四线激光雷达和车载相机进行配准和标定,计算得到从雷达坐标系到相机拍摄的图像坐标系的变换矩阵;然后根据坐标变换矩阵将四线激光雷达的点云数据投影到车载相机拍摄的图像上。
首先通过标定得到相机的内参,即相机的横纵焦距fu和fv,以及相机的光学中心(cu,cv)。由此可以得到相机坐标系OC-xyz与图像坐标系OI-uv之间的坐标变换,如式(1)所示。
Figure GDA0003520485670000041
其中,相机坐标系OC-xyz以车载相机的光学中心为坐标原点,向右为x轴正方向,向前为y轴正方向;图像坐标系OI-uv以拍摄图像的图像左上角点为原点,向右为u轴正方向,向下为v轴正方向。c1,s1,c2,s2分别为cosα,sinα,cosβ,sinβ;α,β分别为相机的俯仰角和偏航角,通过车载相机的装配方案或实际测量得到。h为相机高度,k=c1s2x+c1c2y+s1h。
由于无人驾驶汽车上的四线激光雷达与车载相机的位置是相对固定的,四线激光雷达得到的点云坐标可以通过一个“旋转-平移”变换投影到相机坐标系OC-xyz下,如式(2)所示。
Figure GDA0003520485670000042
其中,R∈{Rx,Ry,Rz},Rx,Ry,Rz分别为绕轴的旋转矩阵,T是平移矩阵,其具体公式如式(3)所示。
Figure GDA0003520485670000043
综上所述,四线激光雷达的数据点首先经过旋转和平移,变换到相机坐标系下;然后通过投影矩阵变换到图像坐标系上;最终形成如图1所示的点云热图,完成了车载相机与激光雷达的数据融合。
图1显示了四线激光雷达与车载相机进行配准和融合之后得到的点云热图示例。其中,雷达数据点的颜色代表了该点到车身的相对距离:颜色越偏红表示到车身的距离越近,越偏蓝则表示到车身的距离越远。
基于融合后的数据进行的实验表明,在成像条件十分恶劣的情况下,深度神经网络产生漏检的一个原因是检测框的置信概率不高,会被阈值滤掉。如图2和图3所示,由于被检测目标受到“眩光”现象、明暗对比不高以及距离较远等问题的影响,深度神经网络会给输出的检测框设定一个较低的置信概率。由于目标检测通常选用较高的阈值(在本例中选用0.7),这些置信概率较低的检测框会被滤掉,进而造成漏检。
根据四线激光雷达的工作原理,有理由认为包含雷达数据点的检测框有很大概率是一个真实的目标,因此,本发明提升这些包含雷达数据点的检测框的置信概率。由于解析得到的四线激光雷达数据点具有无序性,不能直接得到检测框与雷达数据点的空间对应关系。针对这个问题,通常采用循环遍历的方法。即针对每一个检测框遍历所有的雷达数据点,判断每一个雷达数据点是否在检测框内。但是,这种方法存在较为严重的效率问题,其分析如下:
设一张车载相机拍摄的图像I中包含M个物体检测框和N个雷达数据点。循环遍历的方法实质上针对每一个物体检测框都对所有的雷达数据点进行了一次空间结构关系的索引,其时间复杂度为Ο(MN)。然而,一张图像上物体检测框与雷达数据点的相对的空间结构关系是固定的,从理论上说,可以通过一次统一的对检测框和数据点的遍历得到,因此理论上最优的计算复杂度应该为Ο(M+N)。另一方面,图像I中包含的雷达数据点的数量N是固定的,但由于不同交通场景下的目标(人、车等)的数量相差很大,物体检测框的数量M变化也比较大。这就意味着这种算法的计算复杂度很不稳定。
因此,本发明提出了一种改进的R-Tree算法,以完成检测框与雷达数据点的空间索引。传统的R-Tree是一个自适应调整高度的动态平衡树,其构成方式是:从叶子结点开始,每一个结点的父亲结点在空间上完全包含其所有的子结点。这样逐层上溯,形成一个完整的、描述了不同层次的结点之间的空间包含关系的数据结构。其基本结构如图4所示。但是,传统的R-Tree的高度是不固定的,因此需要大量的动态调整操作。由于物体检测框与雷达数据点的匹配任务只需要保存检测框与雷达数据点的包含关系,不需要记录检测框之间的相互包含关系,因此本专利可以将传统的高度可变的R-Tree结构优化为高度固定为2层的R-Tree结构。其中,R-Tree的第一层保存物体检测框,第二层保存雷达数据点。如果物体检测框包含雷达数据点,该数据点对应的在R-Tree的第二层中存储的叶子节点,恰好是R-Tree中第一层中对应的物体检测框结点的子结点,其结构如图5所示。
针对每一张给定的图像和对应的雷达数据云,按照如上文所述的规则建立一个R-Tree。在建立R-Tree的过程中,仅针对所有的检测框和雷达数据点进行了一次遍历,因此时间复杂度为Ο(M+N)。而在查询的过程中,每一个检测框只需要进行一次查询即可得到它的叶子节点,也就是其所包含的全部雷达数据点。由此建立了检测框和雷达数据点的空间关联。
在建立检测框和雷达数据点的空间关联之后,本发明采用某种适当的变换函数对包含雷达数据点的检测框置信概率的增强。由激光雷达的工作原理,可以假设点云所对应的位置是目标,因此可以增强包含雷达数据点的检测框的置信概率,以弥补深度神经网络在复杂环境下识别置信概率较低的问题。本发明以式(4)所示的函数说明置信概率的变换过程。式(4)所示函数将置信概率加一个较大的常数,再经过sigmoid变换来提高包含雷达数据点的目标检测框的置信概率。显然,本发明不限制置信概率变换函数的形式,仅要求其的定义域为(-∞,+∞),值域为(0,1),且为单调递增函数。式(4)所示函数仅是一个示例。
Pnew=sigmoid(Pold+C) (4)
图6展示了根据式(4)进行变换前后置信概率的对比,采用C=2的参数设置。其中,左侧为增强后的检测结果和置信概率,右侧为增强前的检测结果和置信概率。每张图像的左上角为感兴趣区域的局部放大,重点强调了难例的置信概率在增强前后的对比。可以看出,经过四线激光雷达辅助的概率增强,置信概率较低的检测框得到了显著的增强,所以能够超过阈值(0.7)并得以保留。
图7对比了置信概率增强前后最终的检测结果(以0.7为阈值)。可以看出,单纯基于图像的方法在目标遮挡、目标较远以及目标明暗对比度较低等情况下都会发生漏检。在四线激光雷达辅助的置信概率增强之后,这些目标都能够被检测出来。
具体地,本发明的具体实施方式包含以下几个步骤:
步骤1:选取适当的目标检测网络,在数据集上进行训练。
步骤2:将待检测图像I输入目标检测网络中,得到单纯基于图像的目标检测结果
Figure GDA0003520485670000061
其中Lk表示第k个目标检测框。其对应的置信概率记为P(Lk)。
步骤3:基于雷达坐标系到相机坐标系的变换矩阵,计算每一个雷达数据点在图像上的坐标(ui,vi)。
步骤4:基于R-Tree算法对雷达数据点和目标检测框进行匹配,选出包含雷达数据点的全部检测框
Figure GDA0003520485670000062
步骤5:对每个
Figure GDA0003520485670000063
更新其置信概率Pnew=sigmoid(Pold+C)。在实际的代码实现中,通常采用C=2的参数设置。
步骤6:遍历每个检测框
Figure GDA0003520485670000064
保留P(Lk)>Pthreshold的检测框作为最终的检测结果。在实际的代码实现中,通常采用Pthreshold=0.7的参数设置。
步骤7:方法结束。

Claims (1)

1.一种基于四线激光雷达辅助的目标检测漏检改进方法,包括下列步骤:
步骤1:选取适当的目标检测网络,在数据集上进行训练;
步骤2:同时获取一张车载相机拍摄的待检测图像I和与其对应的一帧激光雷达点云数据C,在待检测图像I中,以左上角顶点为原点,水平向右方向为u轴,垂直向下方向为v轴,建立像素坐标系OI-uv,设像素点在该坐标系下的坐标为(u,v),激光雷达的点云数据C是一个N×3的三维矩阵,其中每一行代表一个雷达点,将第i行对应的雷达数据点记为Ci,每个雷达数据点通常有三个属性,即激光雷达坐标系OC-xyz下数据点的三维坐标(xi,yi,zi),即有:
Figure FDA0003520485660000011
步骤3:将待检测图像I输入目标检测网络中,得到单纯的基于图像的目标检测结果;设图像I中共有K个目标检测结果,则可将全部检测框记为
Figure FDA0003520485660000012
其中Lk表示第k个目标检测框,将第k个目标检测框Lk在像素坐标系OI-uv下的四个坐标记为
Figure FDA0003520485660000013
对应的置信概率记为P(Lk);
步骤4:针对激光雷达点云数据C中全部数据点Ci,i=1,2,…,N,基于雷达坐标系OC-xyz到像素坐标系OI-uv的变换矩阵,计算每一个雷达数据点在图像上的坐标;将雷达数据点Ci投影像素坐标系OI-uv下的像素坐标记为(ui,vi);
步骤5:如果雷达数据点Ci对应的像素坐标(ui,vi)满足
Figure FDA0003520485660000014
Figure FDA0003520485660000015
则认为检测框Lk包含雷达数据点Ci,即有:
Figure FDA0003520485660000016
对全部N个雷达数据点Ci,i=1,2,…,N和全部K个目标检测框
Figure FDA0003520485660000017
进行匹配,选出包含雷达数据点的M个检测框
Figure FDA0003520485660000018
其中,将第m个包含雷达数据点的检测框记为Lm
步骤6:对每个包含雷达数据点的检测框
Figure FDA0003520485660000019
将其在步骤2中单纯通过图像得到的置信概率记为Pold(Lm),更新其置信概率P(Lm)=sigmoid(Pold(Lm)+C),其中C为一个常数,要求C>0;其他K-M个不包含雷达数据点的检测框的置信概率不变;
步骤7:设定置信概率阈值为Pthreshold,如果检测框Lk的置信概率P(Lk)大于该阈值,则认为该检测框是有效的,予以保留;如果检测框Lk的置信概率P(Lk)小于等于该阈值,则丢弃该检测框,遍历全部的K个检测框
Figure FDA0003520485660000021
保留P(Lk)>Pthreshold的检测框作为最终输出的检测结果。
CN201811160652.6A 2018-09-30 2018-09-30 一种基于四线激光雷达辅助的目标检测漏检改进方法 Active CN109541632B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811160652.6A CN109541632B (zh) 2018-09-30 2018-09-30 一种基于四线激光雷达辅助的目标检测漏检改进方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811160652.6A CN109541632B (zh) 2018-09-30 2018-09-30 一种基于四线激光雷达辅助的目标检测漏检改进方法

Publications (2)

Publication Number Publication Date
CN109541632A CN109541632A (zh) 2019-03-29
CN109541632B true CN109541632B (zh) 2022-06-03

Family

ID=65843516

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811160652.6A Active CN109541632B (zh) 2018-09-30 2018-09-30 一种基于四线激光雷达辅助的目标检测漏检改进方法

Country Status (1)

Country Link
CN (1) CN109541632B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111856445B (zh) * 2019-04-11 2023-07-04 杭州海康威视数字技术股份有限公司 一种目标检测方法、装置、设备及系统
CN110246159B (zh) * 2019-06-14 2023-03-28 湖南大学 基于视觉和雷达信息融合的3d目标运动分析方法
CN110441789B (zh) * 2019-06-27 2022-12-30 南京莱斯信息技术股份有限公司 一种非均匀线程激光雷达目标识别方法
CN111179329B (zh) * 2019-12-31 2023-09-08 智车优行科技(上海)有限公司 三维目标检测方法、装置及电子设备
CN112215861A (zh) * 2020-09-27 2021-01-12 深圳市优必选科技股份有限公司 一种足球检测方法、装置、计算机可读存储介质及机器人
CN113095288A (zh) * 2021-04-30 2021-07-09 浙江吉利控股集团有限公司 障碍物漏检修复方法、装置、设备及存储介质
CN117679643A (zh) * 2024-01-05 2024-03-12 天津大学 用于脊髓损伤康复的多脊髓节段协同电刺激方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103226833A (zh) * 2013-05-08 2013-07-31 清华大学 一种基于三维激光雷达的点云数据分割方法
CN103256939A (zh) * 2013-04-15 2013-08-21 李德毅 智能车辆利用变粒度路权雷达图进行信息融合的方法
CN107976688A (zh) * 2016-10-25 2018-05-01 菜鸟智能物流控股有限公司 一种障碍物的检测方法及相关装置
CN108489496A (zh) * 2018-04-28 2018-09-04 北京空间飞行器总体设计部 基于多源信息融合的非合作目标相对导航运动估计方法及系统
CN108519605A (zh) * 2018-04-09 2018-09-11 重庆邮电大学 基于激光雷达和摄像机的路沿检测方法
CN108564615A (zh) * 2018-04-20 2018-09-21 驭势(上海)汽车科技有限公司 模拟激光雷达探测的方法、装置、系统及存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170016177A (ko) * 2015-08-03 2017-02-13 엘지전자 주식회사 차량 및 그 제어방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103256939A (zh) * 2013-04-15 2013-08-21 李德毅 智能车辆利用变粒度路权雷达图进行信息融合的方法
CN103226833A (zh) * 2013-05-08 2013-07-31 清华大学 一种基于三维激光雷达的点云数据分割方法
CN107976688A (zh) * 2016-10-25 2018-05-01 菜鸟智能物流控股有限公司 一种障碍物的检测方法及相关装置
CN108519605A (zh) * 2018-04-09 2018-09-11 重庆邮电大学 基于激光雷达和摄像机的路沿检测方法
CN108564615A (zh) * 2018-04-20 2018-09-21 驭势(上海)汽车科技有限公司 模拟激光雷达探测的方法、装置、系统及存储介质
CN108489496A (zh) * 2018-04-28 2018-09-04 北京空间飞行器总体设计部 基于多源信息融合的非合作目标相对导航运动估计方法及系统

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
A flexible new technique for camera calibration;Zhengyou Zhang;《IEEE Transactions on Pattern Analysis and Machine Intelligence》;20001130;第22卷(第11期);全文 *
一种处理激光雷达数据的聚类分析方法;吴维一等;《计算机仿真》;20070831;第24卷(第08期);全文 *
基于多线激光雷达的障碍检测与环境重建;于春和等;《浙江大学学报(工学版)》;20060630;第40卷(第06期);全文 *
基于激光传感器的无人驾驶汽车动态障碍物检测及表示方法;辛煜等;《机器人》;20141130;第36卷(第06期);全文 *

Also Published As

Publication number Publication date
CN109541632A (zh) 2019-03-29

Similar Documents

Publication Publication Date Title
CN109541632B (zh) 一种基于四线激光雷达辅助的目标检测漏检改进方法
CN110569704B (zh) 一种基于立体视觉的多策略自适应车道线检测方法
CN109146929B (zh) 一种基于事件触发相机与三维激光雷达融合系统下的物体识别与配准方法
CN111694010B (zh) 一种基于视觉与激光雷达融合的路侧车辆识别方法
US11948333B2 (en) Disparity image fusion method for multiband stereo cameras
CN111882612B (zh) 一种基于三维激光检测车道线的车辆多尺度定位方法
CN113111887B (zh) 一种基于相机和激光雷达信息融合的语义分割方法及系统
CN112505065B (zh) 一种实现室内无人机对大部件表面缺陷进行检测的方法
CN110070025B (zh) 基于单目图像的三维目标检测系统及方法
CN112581612A (zh) 基于激光雷达和环视摄像头融合的车载栅格地图生成方法及系统
CN114413881B (zh) 高精矢量地图的构建方法、装置及存储介质
CN113935428A (zh) 基于图像识别的三维点云聚类识别方法及系统
CN113327296B (zh) 基于深度加权的激光雷达与相机在线联合标定方法
Li et al. A feature pyramid fusion detection algorithm based on radar and camera sensor
CN114782729A (zh) 一种基于激光雷达与视觉融合的实时目标检测方法
CN115876198A (zh) 基于数据融合的目标检测及预警方法、设备、系统和介质
CN116109601A (zh) 一种基于三维激光雷达点云的实时目标检测方法
CN116612468A (zh) 基于多模态融合与深度注意力机制的三维目标检测方法
CN117173399A (zh) 一种跨模态交叉注意力机制的交通目标检测方法及系统
Gu et al. Radar-enhanced image fusion-based object detection for autonomous driving
CN116403186A (zh) 基于FPN Swin Transformer与Pointnet++ 的自动驾驶三维目标检测方法
CN114581748A (zh) 基于机器学习的多智能体感知融合系统及其实现方法
Ma et al. Disparity estimation based on fusion of vision and LiDAR
Yao et al. Robust Method for Static 3D Point Cloud Map Building using Multi-View Images with Multi-Resolution
CN112233079A (zh) 多传感器图像融合的方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant