CN110456363B - 三维激光雷达点云和红外图像融合的目标检测及定位方法 - Google Patents
三维激光雷达点云和红外图像融合的目标检测及定位方法 Download PDFInfo
- Publication number
- CN110456363B CN110456363B CN201910520060.9A CN201910520060A CN110456363B CN 110456363 B CN110456363 B CN 110456363B CN 201910520060 A CN201910520060 A CN 201910520060A CN 110456363 B CN110456363 B CN 110456363B
- Authority
- CN
- China
- Prior art keywords
- target
- infrared
- radar
- laser radar
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种三维激光雷达点云和红外图像融合的目标检测及定位方法,建立红外相机与三维激光雷达的坐标转换关系;红外相机采集红外图像,获得红外图像目标候选区域;三维激光雷达采集雷达数据,获得雷达目标候选区域及其中心点坐标;利用坐标转换关系将雷达目标候选区域投影到红外图像中,得到雷达聚类目标区域;将交并比达到设定门限的红外‑雷达公共区域作为最终目标区域保留下来;从最终目标区域中提取区域长宽比、最大温度和温度离散度组成聚合多特征输入分类器对红外目标进行分类,分类结果结合所述目标定位信息,得到红外目标检测及定位结果。使用本发明融合红外图像和三维激光雷达点云,能够实现夜间障碍物检测及定位。
Description
技术领域
本发明涉及无人运动平台自主导航技术领域,尤其涉及一种三维激光雷达点云和红外图像融合的目标检测及定位方法。
背景技术
无人运动平台在民用、军事、科研等各领域的应用前景日益广阔,想要实现自主运动离不开环境感知技术,夜间障碍物探测是无人平台全天候工作的重要组成部分。
可见光相机受到光照的影响大,无法在夜间进行目标识别,而红外相机的被动感光特性使其不受光照等因素的影响,可用于夜间障碍物检测。然而仅依赖红外图像无法获得目标位置,进而为无人平台提供更丰富的环境信息。激光雷达点云可以反应位置信息,环境适应性强,因此融合红外图像和三维激光雷达点云有望实现夜间障碍物检测及定位。
发明内容
有鉴于此,本发明提供了一种三维激光点云和红外图像融合的目标检测及定位方法,融合红外图像和三维激光雷达点云,实现夜间障碍物探测。
为了解决上述技术问题,本发明是这样实现的:
一种三维激光点云和红外图像融合的目标检测及定位方法,包括:
步骤一:建立红外相机与三维激光雷达的坐标转换关系;
步骤二:红外相机采集红外图像,采用聚类的方式进行图像分割,获得红外图像目标候选区域;
步骤三:利用三维激光雷达采集雷达数据,使用激光雷达点云层次聚类,获得雷达目标候选区域,以及每个区域中心点坐标;步骤二和步骤三不分先后;
步骤四:利用步骤一得到的坐标转换关系将所述雷达目标候选区域投影到红外图像中,得到雷达聚类目标区域;将红外图像目标候选区域与雷达聚类目标区域进行匹配融合,将交并比达到设定门限的红外-雷达公共区域作为最终目标区域保留下来,最终目标区域对应的雷达聚类目标区域的中心点坐标即为目标定位信息;
步骤五:从保留的最终目标区域中提取区域长宽比R、最大温度Tmax和温度离散度DFeature组成聚合多特征输入分类器对红外目标进行分类,分类结果结合所述目标定位信息,得到红外目标检测及定位结果;
所述最大温度Tmax为融合区域内像素值最大的n个点的平均像素值对应的相机温度Tmax,温度离散度DFeature为融合区域灰度直方图的方差DFeature。
优选地,所述步骤一为:以可见光相机作为标定的中间变量,分别标定红外相机与可见光相机、三维激光雷达与可见光相机,获得红外相机和可见光相机的坐标转换关系、三维激光雷达和可见光相机的坐标转换关系;利用这两个坐标转换关系得到红外相机与三维激光雷达的坐标转换关系为:
其中,空间点在红外相机坐标系下的坐标为PCr=(xCr,yCr,zCr),在激光雷达坐标系下对应点的坐标为(xl,yl,zl),RT为红外相机到可见光相机的旋转矩阵,TT红外相机到可见光相机的平移矩阵,Rc与Tc分别为激光雷达坐标系到可见光相机坐标系下的转换矩阵和平移向量。
优选地,所述步骤二包括:
步骤1)、选取多个场景图像,统计每个场景中灰度直方图的峰值和谷值,峰值均值作为聚类中心上界限thres_u,谷值均值作为聚类中心下界限thres_d;设迭代初始值s=1;
步骤2)、给定聚类类别数C,图像像素点总数N,设定迭代停止阈值ε;
步骤3)、用值在[thres_d,thres_u]之间随机数初始化聚类中心ci,i=1,…,C,用值在[0,1]之间的随机数初始化C×N的隶属度矩阵U;
步骤4)、更新隶属度矩阵U(s+1):
步骤5)、更新聚类中心矩阵c(s+1):
其中,ci表示聚类中心矩阵c中第i个元素;
步骤6)若||c(s+1)-c(s)||<ε,终止迭代,跳转到步骤7),否则令s自加1,返回步骤4)继续迭代;
步骤7)利用迭代完成后获得的隶属度矩阵U和聚类中心c,得到分割后的图像,获得图像目标候选区域。
优选地,步骤四确定最终目标区域及其目标定位信息的过程为:
第一步:设红外图像目标候选区域有ni个,记为R1i,i=1,2,…,ni;激光雷达聚类目标区域有nl个,记为R2j,每个区域中心点的坐标(x,y,z)记为Pj,j=1,2,…,nl;针对每个红外图像目标候选区域R1i,分别计算该区域与各激光雷达聚类目标区域R2j的面积交并比,并取最大值,记为ri;
第二步:保留ri值大于设定阈值的红外-雷达目标公共区域作为最终目标区域,最终目标区域对应的激光雷达聚类目标区域的中心点坐标即为目标的定位信息。
有益效果:
1.本发明首次提出了融合红外图像和三维激光雷达点云实现目标检测及定位的方法。与传统红外小目标检测不同,本发明能够检测十米范围内的行人和车辆,并得到其精确的位置信息,同时实现检测及定位。
2.本发明创新的提出了聚合多特征进行目标区域分类识别。根据红外图像成像特点,利用不同目标温度差异性,摒弃传统的HoG、Harr等特征,设计了区域长宽比、最大温度和温度离散度三种聚合的多特征来描述目标区域,大大提高分类的准确度和实时性。
3.本发明提出了一种操作简单、成本低廉的红外相机与三维激光雷达标定方法。与当前已有的标定算法相比,本发明使用可见光相机作为标定的中间桥梁,使用纸质的标定板通过相对简单的标定过程即可获得两传感器坐标系间的转换关系。
4、受到传感器视场的限制,红外图像的分割结果不一定能够投影到雷达点云中,因此本发明在步骤三将三维激光雷达目标候选区域投影至红外图像中,利用联合标定得到的坐标转换关系可以实现这一功能,从而为后续的融合提供基础。
附图说明
图1为本发明流程图。
图2为红外相机与可见光相机坐标系之间的关系示意图。
具体实施方式
下面结合附图并举实施例,对本发明进行详细描述。
本发明提供了一种三维激光雷达点云和红外图像融合的目标检测及定位方法,如图1所示,其包括如下步骤:
步骤一:建立红外相机与三维激光雷达的坐标转换关系。
本发明提供了一种成本低廉的坐标转换关系构建方法,使用可见光相机作为标定的中间变量,标定红外相机与可见光相机,获得红外相机和可见光相机的坐标转换关系,标定三维激光雷达与可见光相机,获得三维激光雷达和可见光相机的坐标转换关系;利用这两个坐标转换关系得到红外相机与三维激光雷达的坐标转换关系。具体来说:
对于红外相机与可见光相机的标定,使红外相机和可见光相机光轴平行放置,红外相机和可见光相机的模型可简化为平行光轴模型,如图2所示。设一空间点P(xw,yw,zw),在可见光相机坐标系下的坐标为PCl=(xCl,yCl,zCl),在红外相机坐标系下的坐标为PCr=(xCr,yCr,zCr),可见光相机标定得到的平移矩阵记为Tl,旋转矩阵记为Rl;红外相机标定得到的平移矩阵记为Tr,旋转矩阵记为Rr。则有:
联立式(1)和(2),消去xW、yW、zW,可以得到:
利用张氏棋盘法进行标定。针对红外相机的成像特性,本发明制作了低成本的标定板。将提前加热并且按照棋盘格裁剪成镂空形状的白色纸贴在低温黑色板上。根据板子和纸的温度,红外图像上纸为白色而电脑为黑色,在可见光图像中的颜色与红外图像相对应。这样即可满足图像标定的要求,又可以大大缩小标定成本。
对三维激光雷达和可见光相机的标定,制作两块大小相同的方形板,在每个板子左上角粘贴不同的二维码。使激光雷达和可见光相机均能够完全检测到完整的二维码。按顺序依次选择图像中二维码边缘点与雷达点云中的对应点,进行迭代,相机的标定参数得到雷达和图可见光相机之间的转换关系。
其中,Rc与Tc分别为激光雷达坐标系到可见光相机坐标系下的转换矩阵和平移向量,(xcl,ycl,zcl)为空间点在可见光相机坐标系下坐标,(xl,yl,zl)为空间点在在激光雷达坐标系下对应点的坐标。
对红外相机和三维激光雷达之间的标定,根据式(4)和(5),可以得到红外相机和激光雷达的转换关系为:
步骤二、红外目标分割。
红外相机采集红外图像,采用聚类的方式进行图像分割,获得红外图像目标候选区域。具体过程如下:
首先进行图像预处理,选取具有代表性的L个场景,L为正整数,统计每个场景中灰度直方图的峰值μl和谷值bl,l=1,…,L。粗初始化聚类中心范围的下界限thres_d为:
上界限thres_u为:
然后用核函数代替欧式距离进行聚类,目标函数可以表示为:
约束条件为:
其中:U是隶属度矩阵,c为聚类中心矩阵,X为输入图像,C为类别数,N为图像中像素点总数,xk为X中的元素,表示第k个像素点像素值;ci为聚类中心矩阵c中的元素,表示第i类的聚类中心;m∈[1,+∞)是一个加权指数;μik∈[0,1]是隶属度矩阵U中第i行第k列的元素,表示xk属于第i类的隶属度。Φ指的是特征映射,根据核函数的特性,有:
选取高斯核函数:
则有:
K(x,x)=1 (13)
将联立式(9)(12)(13),目标函数可简化为:
设置λk为拉格朗日乘子,根据拉格朗日乘子法,有:
则隶属度更新矩阵为:
聚类中心矩阵为:
红外图像分割算法步骤可简述为:
1)选取L张场景图像,统计每个场景中灰度直方图的峰值和谷值,峰值均值作为聚类中心上界限thres_u,谷值均值作为聚类中心下界限thres_d,从而得到粗初始化聚类中心上下界thres_u和thres_d,设迭代初始值s=1。
2)给定聚类类别数C(2≤C≤N),设定迭代停止阈值ε以及聚类中心上下界。
3)用值在[thres_d,thres_u]之间随机数初始化聚类中心ci,i=1,…,C;用值在[0,1]之间的随机数初始化隶属度矩阵U,使其满足式(10),因为隶属度表明每个像素值属于一类的可能性,因此和为1,每一个隶属度都应该大于0。
4)用式(16)更新隶属度矩阵U(s+1)。上角标s和s+1表示迭代轮次。
5)利用式(17)更新聚类中心矩阵c(s+1)。
6)若||c(s+1)-c(s)||<ε,终止迭代,跳转到步骤7),否则令s自加1,返回步骤4)继续迭代。
7)迭代完成后获得的隶属度矩阵U和聚类中心矩阵c,进行图像分割,得到分割后的图像,即获得图像目标候选区域。
步骤三、激光雷达点云目标检测;
由于需要实现障碍物定位,因此利用激光点云完成检测任务的同时要保留障碍物的位置信息,而聚类算法根据点云位置、强度等信息进行分割,能够满足系统要求。因此首先使用直通滤波器滤除无用点以及离群点,然后使用激光雷达点云层次聚类,获得雷达目标候选区域,以及每个区域中心点对应的在x轴、y轴和z轴方向上的位置信息。
上述步骤二和步骤三不限定先后顺序,较佳地,可以并行执行,从而提高处理效率。
步骤四、红外相机与激光雷达信息融合处理;
受到传感器视场的限制,红外图像的分割结果不一定能够投影到雷达点云中,因此本发明将三维激光雷达目标候选区域投影至红外图像中,利用步骤一联合标定得到的坐标转换关系可以实现这一功能。这时可以融合红外分割和雷达检测结果检测目标。
将三维激光雷达目标候选区域投影至红外图像中之后,利用红外图像目标候选区域与雷达聚类目标区域之间的融合信息确定保留哪些融合区域作为最终的目标区域。本发明是根据两类区域的交并比实现最终目标区域的确定。其过程分三步实现:
第一步:找到与红外目标相对应的激光雷达区域。
设红外图像目标区域有ni个,记为R1i,i=1,2,…,ni;激光雷达目标区域有nl个,记为R2j,步骤三得到的每个区域中心点的坐标(x,y,z)记为Pj,j=1,2,…,nl,针对每个红外图像目标候选区域R1i,分别计算该区域与各激光雷达聚类目标区域R2j的面积交并比,获得nl个交并比,取最大值,作为第i个红外图像目标区域的融合信息,记为ri。设qi为匹配编号,记为<i,j>。则有:
[ri qi]=max{Pi1,Pi2,…,Pij}i=1,2,…,ni (18)
第二步:去除非目标区域。
第一步中计算得到的交并比Pij,若只有激光雷达或者红外相机检测到目标,而另一传感器没有检测到,则针对R1i计算得到的交并比最大值ri应为零,必然不存在目标。而若ri过小,也认为是检测错误。因此融合区域中是否存在目标应由ri决定,有:
其中,thresh_ratio为交并比门限值。
若ri值大于设定阈值thresh_ratio,则红外图像目标区域中存在目标,根据对应关系qi找到对应的激光雷达目标区域,两者相交的部分为最终目标区域,雷达目标区域中心点坐标Pj即为定位结果。
步骤五、目标区域分类识别;
设计红外图像聚合多特征,对得到的匹配融合区域(即最终目标区域)进行分类。
由于在融合区域内进行分类,因此必然存在目标,而行人和车辆为道路交通的主要参与者,故将目标分为三类:行人、车辆和其他。由于行人与车辆的长宽形态不同,一般来说在图像中行人高度大于宽度,车辆长度接近或大于高度,这一点可以用来区分车辆与行人。然而在不同角度,无法完全保证障碍物长宽比在一定范围内,因此需要考虑其他因素。行人温度变化在30-37℃之间,图像中像素差异不大,而车辆的发动机部分温度在80-95℃之间,车灯根据材质的不同有的在80℃左右,有的能达到200℃以上,排气管的温度则更高,车身等其他部分温度与环境接近(5-35℃),整体温度差异大,在图像中像素变化明显。行人红外图像像素值分布集中在低像素值处,高于150的像素较少。而车辆像素值分散,且高温像素值较多,甚至有较多点像素值为255。根据红外相机的温度标定结果,可以知道温度-像素值的对应关系。因此对融合区域提取3种特征:区域长宽比R,最大温度Tmax,温度离散度DFeature。
区域长宽比R:为融合区域在图像中的高度h与宽度l的比值。
R=h/l (20)
最大温度Tmax:找到融合区域内像素值最大的前n个点,计算平均值Pmax。
根据相机温度标定结果找到像素值Pmax对应的温度Tmax。
其中N为融合区域像素点个数,X={x1,x2,…,xN-i}为去除i个最大值后的像素值集合。
温度离散度DFeature:为融合区域灰度直方图的方差。记融合区域像素总数为N,灰度为rk的像素数为nk,则概率密度函数为p(rk)=nk/N。直方图平均灰度为:
直方图标准差为:
其中,sqrt()表示平方根函数。
因此本步骤,从保留的最终目标区域中提取上述聚合多特征,输入SVM分类器进行分类,从而得到红外目标类型。步骤四得到的目标的定位信息Pj即为红外目标定位结果。
可见,本发明提供了一种红外图像和激光雷达点云融合方法实现目标检测及定位方案,标定流程简单成本低廉,检测定位精度高实时性好,具有很强的操作性和可靠性。
综上所述,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (3)
1.一种三维激光雷达点云和红外图像融合的目标检测及定位方法,其特征在于,包括:
步骤一:建立红外相机与三维激光雷达的坐标转换关系;
步骤二:红外相机采集红外图像,采用聚类的方式进行图像分割,获得红外图像目标候选区域;
所述步骤二包括:
步骤1)、选取多个场景图像,统计每个场景中灰度直方图的峰值和谷值,峰值均值作为聚类中心上界限thres_u,谷值均值作为聚类中心下界限thres_d;设迭代初始值s=1;
步骤2)、给定聚类类别数C,图像像素点总数N,设定迭代停止阈值ε;
步骤3)、用值在[thres_d,thres_u]之间随机数初始化聚类中心ci,i=1,…,C,用值在[0,1]之间的随机数初始化C×N的隶属度矩阵U;
步骤4)、更新隶属度矩阵U(s+1):
步骤5)、更新聚类中心矩阵c(s+1):
其中,ci表示聚类中心矩阵c中第i个元素;
步骤6)若||c(s+1)-c(s)||<ε,终止迭代,跳转到步骤7),否则令s自加1,返回步骤4)继续迭代;
步骤7)利用迭代完成后获得的隶属度矩阵U和聚类中心c,得到分割后的图像,获得图像目标候选区域;
步骤三:利用三维激光雷达采集雷达数据,使用激光雷达点云层次聚类,获得雷达目标候选区域,以及每个区域中心点坐标;步骤二和步骤三不分先后;
步骤四:利用步骤一得到的坐标转换关系将所述雷达目标候选区域投影到红外图像中,得到雷达聚类目标区域;将红外图像目标候选区域与雷达聚类目标区域进行匹配融合,将交并比达到设定门限的红外-雷达公共区域作为最终目标区域保留下来,最终目标区域对应的雷达聚类目标区域的中心点坐标即为目标定位信息;
步骤五:从保留的最终目标区域中提取区域长宽比R、最大温度Tmax和温度离散度DFeature组成聚合多特征输入分类器对红外目标进行分类,分类结果结合所述目标定位信息,得到红外目标检测及定位结果;
所述最大温度Tmax为融合区域内像素值最大的n个点的平均像素值对应的相机温度Tmax,温度离散度DFeature为融合区域灰度直方图的方差DFeature。
3.如权利要求1所述的方法,其特征在于,步骤四确定最终目标区域及其目标定位信息的过程为:
第一步:设红外图像目标候选区域有ni个,记为R1i,i=1,2,…,ni;激光雷达聚类目标区域有nl个,记为R2j,每个区域中心点的坐标(x,y,z)记为Pj,j=1,2,…,nl;针对每个红外图像目标候选区域R1i,分别计算该区域与各激光雷达聚类目标区域R2j的面积交并比,并取最大值,记为ri;
第二步:保留ri值大于设定阈值的红外-雷达目标公共区域作为最终目标区域,最终目标区域对应的激光雷达聚类目标区域的中心点坐标即为目标的定位信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910520060.9A CN110456363B (zh) | 2019-06-17 | 2019-06-17 | 三维激光雷达点云和红外图像融合的目标检测及定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910520060.9A CN110456363B (zh) | 2019-06-17 | 2019-06-17 | 三维激光雷达点云和红外图像融合的目标检测及定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110456363A CN110456363A (zh) | 2019-11-15 |
CN110456363B true CN110456363B (zh) | 2021-05-18 |
Family
ID=68480746
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910520060.9A Active CN110456363B (zh) | 2019-06-17 | 2019-06-17 | 三维激光雷达点云和红外图像融合的目标检测及定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110456363B (zh) |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111144315A (zh) * | 2019-12-27 | 2020-05-12 | 北京三快在线科技有限公司 | 目标检测方法、装置、电子设备和可读存储介质 |
CN111398961B (zh) * | 2020-03-17 | 2022-07-15 | 北京百度网讯科技有限公司 | 用于检测障碍物的方法和装置 |
CN111508020B (zh) * | 2020-03-23 | 2024-05-07 | 北京国电富通科技发展有限责任公司 | 融合图像与激光雷达的电缆三维位置计算方法、装置 |
CN111680537A (zh) * | 2020-03-31 | 2020-09-18 | 上海航天控制技术研究所 | 一种基于激光红外复合的目标检测方法及系统 |
CN111582256B (zh) * | 2020-04-26 | 2024-05-14 | 智慧互通科技股份有限公司 | 一种基于雷达和视觉信息的停车管理方法及装置 |
CN111709988B (zh) * | 2020-04-28 | 2024-01-23 | 上海高仙自动化科技发展有限公司 | 一种物体的特征信息的确定方法、装置、电子设备及存储介质 |
CN111738097B (zh) * | 2020-05-29 | 2024-04-05 | 理光软件研究所(北京)有限公司 | 一种目标分类方法、装置、电子设备和可读存储介质 |
CN111709923B (zh) * | 2020-06-10 | 2023-08-04 | 中国第一汽车股份有限公司 | 一种三维物体检测方法、装置、计算机设备和存储介质 |
CN111880196A (zh) * | 2020-06-29 | 2020-11-03 | 安徽海博智能科技有限责任公司 | 一种无人矿车抗干扰方法、系统及计算机设备 |
CN112270694B (zh) * | 2020-07-07 | 2023-04-18 | 中国人民解放军61540部队 | 基于激光雷达扫描图进行城市环境动态目标检测的方法 |
CN111951306B (zh) * | 2020-08-31 | 2024-06-07 | 华通科技有限公司 | 一种激光雷达与图像视频融合的目标检测方法 |
CN112066994B (zh) * | 2020-09-28 | 2022-07-22 | 河海大学常州校区 | 一种消防机器人局部自主导航方法及系统 |
CN112740225B (zh) * | 2020-09-30 | 2022-05-13 | 华为技术有限公司 | 一种路面要素确定方法及装置 |
CN112215905A (zh) * | 2020-10-22 | 2021-01-12 | 北京易达恩能科技有限公司 | 移动式红外测温系统的自动标定方法 |
CN112464812B (zh) * | 2020-11-27 | 2023-11-24 | 西北工业大学 | 一种基于车辆的凹陷类障碍物检测方法 |
CN112528773B (zh) * | 2020-11-27 | 2023-04-07 | 深兰科技(上海)有限公司 | 障碍物信息融合方法、装置、电子设备和存储介质 |
CN112766061A (zh) * | 2020-12-30 | 2021-05-07 | 罗普特科技集团股份有限公司 | 一种多模态无监督的行人像素级语义标注方法和系统 |
CN112651380A (zh) * | 2021-01-13 | 2021-04-13 | 深圳市一心视觉科技有限公司 | 人脸识别方法、人脸识别装置、终端设备及存储介质 |
CN112686206A (zh) * | 2021-01-20 | 2021-04-20 | 塞尔昂(上海)工业技术有限公司 | 一种智能斗齿监测系统 |
CN113778078A (zh) * | 2021-03-05 | 2021-12-10 | 北京京东乾石科技有限公司 | 定位信息生成方法、装置、电子设备和计算机可读介质 |
CN113034615B (zh) * | 2021-03-30 | 2023-05-23 | 南方电网电力科技股份有限公司 | 一种用于多源数据融合的设备标定方法及相关装置 |
CN113111887B (zh) * | 2021-04-26 | 2022-04-15 | 河海大学常州校区 | 一种基于相机和激光雷达信息融合的语义分割方法及系统 |
CN113192091B (zh) * | 2021-05-11 | 2021-10-22 | 紫清智行科技(北京)有限公司 | 一种基于激光雷达与相机融合的远距离目标感知方法 |
CN113655477B (zh) * | 2021-06-11 | 2023-09-01 | 成都圭目机器人有限公司 | 一种采用浅层对地雷达自动检测地质病害的方法 |
CN113390514B (zh) * | 2021-06-16 | 2022-11-11 | 中国人民解放军军事科学院国防工程研究院 | 一种基于多传感器阵列的三维红外温度测量方法 |
CN113608355B (zh) * | 2021-08-06 | 2023-07-21 | 湖南龙特科技有限公司 | 一种基于毫米波雷达和红外热成像仪的交互式显示方式 |
CN113850995B (zh) * | 2021-09-14 | 2022-12-27 | 华设设计集团股份有限公司 | 一种基于隧道雷视数据融合的事件检测方法、装置及系统 |
WO2023040737A1 (zh) * | 2021-09-17 | 2023-03-23 | 中国第一汽车股份有限公司 | 目标位置确定方法、装置、电子设备以及存储介质 |
CN114332748B (zh) * | 2021-11-08 | 2024-10-15 | 西安电子科技大学 | 基于多源特征联合网络与变换图像自生成的目标检测方法 |
CN114743169A (zh) * | 2022-04-11 | 2022-07-12 | 南京领行科技股份有限公司 | 一种对象的异常检测方法、装置、电子设备及存储介质 |
CN116091883B (zh) * | 2023-04-10 | 2023-07-18 | 深圳市普雷德科技有限公司 | 基于多源信息融合的目标检测识别方法、系统及存储介质 |
CN117911734B (zh) * | 2024-01-12 | 2024-07-26 | 哈尔滨工业大学 | 一种基于图像聚类离散度计算的红外检测数据预融合处理方法 |
CN118155038B (zh) * | 2024-05-11 | 2024-10-18 | 中国第一汽车股份有限公司 | 多目标轨迹检测方法、装置、设备和存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000184368A (ja) * | 1998-12-14 | 2000-06-30 | Matsushita Electric Ind Co Ltd | センサー信号重畳車載カメラシステム |
CN108241871A (zh) * | 2017-12-27 | 2018-07-03 | 华北水利水电大学 | 基于多特征的激光点云与影像融合数据分类方法 |
CN108334819A (zh) * | 2017-01-17 | 2018-07-27 | 德尔福技术有限公司 | 用于自动化车辆的地面分类器系统 |
CN108509918A (zh) * | 2018-04-03 | 2018-09-07 | 中国人民解放军国防科技大学 | 融合激光点云与图像的目标检测与跟踪方法 |
CN109271944A (zh) * | 2018-09-27 | 2019-01-25 | 百度在线网络技术(北京)有限公司 | 障碍物检测方法、装置、电子设备、车辆及存储介质 |
US10535138B2 (en) * | 2017-11-21 | 2020-01-14 | Zoox, Inc. | Sensor data segmentation |
-
2019
- 2019-06-17 CN CN201910520060.9A patent/CN110456363B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000184368A (ja) * | 1998-12-14 | 2000-06-30 | Matsushita Electric Ind Co Ltd | センサー信号重畳車載カメラシステム |
CN108334819A (zh) * | 2017-01-17 | 2018-07-27 | 德尔福技术有限公司 | 用于自动化车辆的地面分类器系统 |
US10535138B2 (en) * | 2017-11-21 | 2020-01-14 | Zoox, Inc. | Sensor data segmentation |
CN108241871A (zh) * | 2017-12-27 | 2018-07-03 | 华北水利水电大学 | 基于多特征的激光点云与影像融合数据分类方法 |
CN108509918A (zh) * | 2018-04-03 | 2018-09-07 | 中国人民解放军国防科技大学 | 融合激光点云与图像的目标检测与跟踪方法 |
CN109271944A (zh) * | 2018-09-27 | 2019-01-25 | 百度在线网络技术(北京)有限公司 | 障碍物检测方法、装置、电子设备、车辆及存储介质 |
Non-Patent Citations (1)
Title |
---|
基于红外CCD与激光测距仪融合的行人检测技术研究;余燕;《中国优秀硕士学位论文全文数据库信息科技辑》;20081115;第4-7页、第32-47页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110456363A (zh) | 2019-11-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110456363B (zh) | 三维激光雷达点云和红外图像融合的目标检测及定位方法 | |
CN110244322B (zh) | 基于多源传感器的路面施工机器人环境感知系统及方法 | |
Uzkent et al. | Aerial vehicle tracking by adaptive fusion of hyperspectral likelihood maps | |
Xia et al. | Geometric primitives in LiDAR point clouds: A review | |
CN106096561B (zh) | 基于图像块深度学习特征的红外行人检测方法 | |
Gudigar et al. | A review on automatic detection and recognition of traffic sign | |
Bar Hillel et al. | Recent progress in road and lane detection: a survey | |
CN111666805B (zh) | 用于自动驾驶的类别标记系统 | |
Zhou et al. | Self‐supervised learning to visually detect terrain surfaces for autonomous robots operating in forested terrain | |
CN111626217A (zh) | 一种基于二维图片和三维点云融合的目标检测和追踪方法 | |
CN113706480B (zh) | 一种基于关键点多尺度特征融合的点云3d目标检测方法 | |
Li et al. | Classification of urban point clouds: A robust supervised approach with automatically generating training data | |
CN105160649A (zh) | 基于核函数非监督聚类的多目标跟踪方法及系统 | |
Tumen et al. | Recognition of road type and quality for advanced driver assistance systems with deep learning | |
CN110992424B (zh) | 基于双目视觉的定位方法和系统 | |
CN114782729A (zh) | 一种基于激光雷达与视觉融合的实时目标检测方法 | |
CN105989334A (zh) | 基于单目视觉的道路检测方法 | |
Tang et al. | Multiple-kernel based vehicle tracking using 3D deformable model and camera self-calibration | |
Liu et al. | Autonomous road detection and modeling for UGVs using vision-laser data fusion | |
Zhang et al. | Gc-net: Gridding and clustering for traffic object detection with roadside lidar | |
Lu et al. | A cross-scale and illumination invariance-based model for robust object detection in traffic surveillance scenarios | |
CN114973031B (zh) | 一种无人机视角下的可见光-热红外图像目标检测方法 | |
Yu et al. | Obstacle detection with deep convolutional neural network | |
CN118298399A (zh) | 一种基于YOLOv8模型优化的夜间车辆目标检测方法 | |
Huang et al. | Why semantics matters: A deep study on semantic particle-filtering localization in a LiDAR semantic pole-map |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |