CN109375191B - 共照射源3d激光雷达和2d探测器超空间分辨率信息获取方法及装置 - Google Patents

共照射源3d激光雷达和2d探测器超空间分辨率信息获取方法及装置 Download PDF

Info

Publication number
CN109375191B
CN109375191B CN201811088093.2A CN201811088093A CN109375191B CN 109375191 B CN109375191 B CN 109375191B CN 201811088093 A CN201811088093 A CN 201811088093A CN 109375191 B CN109375191 B CN 109375191B
Authority
CN
China
Prior art keywords
array
voxel
resolution
target
receiver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811088093.2A
Other languages
English (en)
Other versions
CN109375191A (zh
Inventor
陈广东
黄雨泽
王媛
万思钰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN201811088093.2A priority Critical patent/CN109375191B/zh
Publication of CN109375191A publication Critical patent/CN109375191A/zh
Application granted granted Critical
Publication of CN109375191B publication Critical patent/CN109375191B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

本发明公开了一种共照射源3D激光雷达和2D探测器超空间分辨率信息获取方法及装置,共照射源回波通过半反半透镜进行分光,分别投射到接收端的3D激光雷达阵列和2D焦平面阵列上,构成独立2/3D融合接收机。2D信息辅助下,对于3D激光雷达像元应用智能算法进行高分辨率体素估计。组成共照射源2/3D融合接收机阵列,获取各2/3D融合接收机全像元对应目标体素。校正各接收机与基准机位输出体素亮度视差,叠加为合成体素数组。将合成体素数组沿距离维的向量数值最大的元素归一化为1,其余为零,得到高分辨率的目标轮廓三维体素数组,即为高分辨率的3D目标像。本发明适用于扫描和非扫描3D激光雷达,体积小、造价低、信息采集全、可靠性高。

Description

共照射源3D激光雷达和2D探测器超空间分辨率信息获取方法 及装置
技术领域
本发明涉及一种3D重建方法,尤其涉及一种共照射源3D激光雷达和2D探测器超空间分辨率获取方法、装置。
背景技术
3D非扫描激光雷达能通过单脉冲获取目标三维信息,具有成像速度快,重量轻,体积小等优势,因此成为激光雷达的主要发展方向。3D非扫描激光雷达能通过单脉冲获取目标三维信息,但由于每个像素都需要对目标进行测距,因此APD(AvalanchePhotoDiode,雪崩光电二极管)阵列大小受到极大限制。由于受到工艺的限制,目前基于APD阵列的3D非扫描激光雷达阵列大小受到极大限制。在国内,目前市场上只能得到小面阵APD,像素间的间隔只能达到300um左右,很难满足空间充分采样条件。而2D焦平面阵列成像由于每个像素没有距离信息的要求,其空间分辨率可以达到很高,像素间隔可以很容易达到50um,基本满足空间充分采样条件。因此,可以将2D焦平面阵列强度图像数据与含有距离信息的3D非扫描激光雷达空间欠采样目标数据进行融合,从而提高3D非扫描激光雷达空间欠采样目标距离估计精度。
扫描激光雷达具有视场角大的优点,但牺牲了稳定性,刷新速度等性能,激光雷达主要有两种工作模式,第一种模式是触发模式,即探测阵列的每个像素通过设定阈值单独触发,这种模式受回波波形的干扰较大,但不需预先知道目标距离范围;第二种模式是采样模式,即所有像素在距离门范围内对回波信号进行同时采样(即全波形测距),这种模式可以连续的捕获目标和背景的细节信息。二种模式激光雷达只利用了反射最强距离门信息,而其他距离门信息被丢弃了。而配合高空间分辨率的2D强度图像,这些信息可用来提升激光雷达空间分辨率。优化系统整体性能。
中国发明专利(CN103033166B)公开了一种基于合成孔径聚焦图像的目标测距方法,该方法利用利用合成孔径聚焦成像的原理进行目标测距,合成孔径叠加像具有超分辨率重建潜力。
发明内容
发明目的:为了克服现有技术中存在的不足,本发明提供一种共照射源3D激光雷达和2D探测器超空间分辨率信息获取方法及装置,基于成像激光雷达回波信号模型,通过将高空间分辨率的2D强度图像与低空间分辨率的3D图像数据融合,得到高分辨率的3D目标像。
技术方案:为实现上述目的,本发明采用的技术方案为:
一种共照射源3D激光雷达和2D探测器超空间分辨率信息获取方法,包括以下步骤:
步骤1,共照射源回波信号通过半反半透镜进行分光,将接收光学系统的回波信号分为两部分,分别投射到接收端的3D激光雷达APD阵列和2D焦平面阵列上,构成独立2/3D融合接收机。
步骤2,在2D焦平面阵列得到的2D信息辅助下,对于3D激光雷达APD阵列得到的像元应用智能算法进行高分辨率体素估计,获得高分辨率体素估计值后,可算出每一个APD阵列中像元对应目标体素亮度Bm,n,d
步骤3,组合3D激光雷达各像元对应目标体素,获得全像元对应目标体素,该全局体素亮度三维数组即为独立2/3D融合接收机输出体素亮度。
步骤4,组成共照射源2/3D融合接收机阵列,获取各2/3D融合接收机全像元对应目标体素,
步骤5,区分距离,在不同距离层,校正各接收机与基准机位输出体素亮度视差,叠加为合成体素数组。
步骤6,将合成体素数组沿距离维的向量数值最大的元素归一化为1,其余为零,得到高分辨率的目标轮廓三维体素数组,该高分辨率的目标轮廓三维体素数组即为高分辨率的3D目标像。
优选的:所述步骤1中得到的独立2/3D融合接收机如下:
对于APD阵列中每一个像元,在高分辨率的2D像中包含M×N个像素Im,n,m=1,…,M;n=1,…,N。APD阵列中每一个像元可采集出来自D个距离门的反射光能量Rd,d=1,…,D。这样每一个像元对应目标体素亮度Bm,n,d为一M×N×D维数组。Im,n为2D探测器接收数据,Rd为3D激光雷达接收数据,存在如下关系:
Figure BDA0001803664870000021
Figure BDA0001803664870000022
由于照射后,目标只在轮廓表面有强反射,所以理想情况下,对于特定的m,n,体素向量vec(Bm,n,d)只有一个元素为非零值,其余都为零,且此非零值为Im,n,设对于特定的m,n,轮廓表面处于距离Tmn处,求Tmn转化为优化问题。
优选的:所述步骤2中智能算法的为遗传算法,复制Rdc=Rd后,执行步骤如下:
步骤a,首先在距离Tmn的值域d=1,…,D范围内任意产生P组群体,每组中包含M×N个初始参数Tmn
步骤b,将每组参数进行如下计算,
Figure BDA0001803664870000031
根据此时的Rd,d=1,…,D,计算目标函数
Figure BDA0001803664870000032
后一项是M×N个Tmn梯度平滑约束,k是该项的权系数。采用期望值模型选择机制复制使目标函数值较小的那些组,淘汰使目标函数值较大的组,将选择后的组各参数Tmn进行二进制编码后串接,每个Tmn作为遗传码的一个基因段。
步骤c,依据交叉概率配对需要交叉的两组二进制串,采用一点交叉策略进行交叉。
步骤d,根据变异概率,对交叉后的二进制串的一位取反。
步骤e,将每组二进制串转化为真实的参数Tmn,作为遗传算法下一次进化的初始参数,转到步骤b再次进行全局搜索。
步骤f如果达到遗传算法的终止进化代数,则种群进化终止,否则恢复Rd=Rdc,重复步骤b-e。
对于3D激光雷达像元与高分辨率2D像融合,应用遗传算法进行高分辨率体素估计,多激光雷达像元可用同一种群进行不同条件的进化,速度快。
优选的:所述步骤4中对于独立2/3D融合接收机输出高分辨率体素亮度错误,用多接收机阵列加以抑制。
优选的:所述步骤5中区分距离,在不同距离层,校正各接收机与基准机位输出体素亮度视差,叠加为合成体素数组的方法:获取2/3D接收机机位与基准机位在不同距离的视差,根据视差校正各接收机输出体素亮度矩阵,即根据不同距离门视差平移体素数组的该距离层,校正视差后,将接收机阵列的各体素数组叠加为合成体素数组。
优选的:所述步骤6中得到高分辨率的目标轮廓三维体素数组的方法:所述各融合接收机输出体素反映的目标轮廓进化正确为大概率事件,在叠加合成的高分辨率的体素数组中,各沿距离维的向量,数值最大的元素为目标唯一轮廓位置,将该元素归一化为1,其余为零,对高分辨率的体素数组中各沿距离维的向量进行同样的检测处理后,就得到高分辨率的目标轮廓三维体素数组。
优选的:用于扫描激光3D雷达超分辨率3D目标轮廓重建。
一种共照射源3D激光雷达和2D探测器超空间分辨率信息获取装置,包括共照射源2/3D融合接收机阵列,各接收机包含3D激光雷达和2D焦平面传感器,共照射源2/3D融合接收机阵列包含一共用脉冲激光源,经发射光学系统准直、整形和扩束后照射到目标场景上,接收光学系统收集目标回波信号,通过半反半透镜进行分光,将接收光学系统的回波信号分为两部分,分别投射到接收端的APD阵列和2D焦平面阵列上,读出集成电路对APD阵列中每一个像元的数据进行并行处理,每个像元单独测量激光脉冲的往返时间、目标方位、目标强度信息,从而得到低分辨率目标的3D图像。2D焦平面阵列对选通门范围内的目标成高分辨率的强度像,数据处理单元对3D图像和强度像进行处理,得到高分辨率的3D目标像。
优选的:3D描激光雷达为采样模式工作的3D非扫描激光雷达系统。
本发明相比现有技术,具有以下有益效果:
1)对低分辨率3D激光雷达各像元独立实现与高分辨率2D像融合,获取像元对应目标体素。因此计算只涉及局部数据,在融合时应用智能算法对高分辨率体素进行估计,易于实现,且误差不会扩散。适用于扫描和非扫描3D激光雷达。
2)对于3D激光雷达像元与高分辨率2D像融合,应用遗传算法进行高分辨率体素估计,多激光雷达像元可用同一种群进行不同条件的进化,速度快。
3)组成共照射源2/3D融合接收机阵列,获取各2/3D融合接收机全像元对应目标体素。校正各接收机与基准机位输出体素亮度矩阵视差,叠加为合成体素数组。将合成体素数组沿距离维的向量数值最大的元素归一化为1,其余为零,得到高分辨率的目标轮廓三维体素数组。信息采集全面,可设置合理的高低分辨率体素比,保障高分辨率目标轮廓可靠性。
4)组成共照射源2/3D融合接收机阵列采用中心对称结构,本发明可抑制共模误差和噪声干扰。
5)组成共照射源2/3D融合接收机阵列密布在大圆面阵内,视差基线长度较小,可避免桶型失真校正,遮挡问题。
6)体积小造价低。
附图说明
图1为3D非扫描激光雷达/2D焦平面阵列成像原理示意图
图2为共照射源2/3D融合接收机阵列
具体实施方式
下面结合附图和具体实施例,进一步阐明本发明,应理解这些实例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
一种共照射源非扫描3D激光雷达和2D探测器超空间分辨率获取装置,如图1、2所示,包括:共照射源2/3D融合接收机阵列,各接收机包含3D非扫描激光雷达/2D焦平面传感器,共照射源2/3D融合接收机阵列包含一共用脉冲激光源,经发射光学系统准直、整形和扩束后照射到目标场景上,接收光学系统收集目标回波信号,通过半反半透镜进行分光,将接收光学系统的回波信号分为两部分,分别投射到接收端的APD(AvalanchePhotoDiode,雪崩光电二极管)阵列和2D焦平面阵列上,读出集成电路对APD阵列中每一个像元的数据进行并行处理,每个像元单独测量激光脉冲的往返时间、目标方位、目标强度信息,从而得到低分辨率目标的3D图像。2D焦平面阵列对选通门范围内的目标成高分辨率的强度像,数据处理单元对距离像和强度像进行处理,得到高分辨率的3D目标像。
一种共照射源3D激光雷达和2D探测器超空间分辨率信息获取方法,如图1、2所示,包括以下步骤:
步骤1,共照射源回波通过半反半透镜进行分光,将接收光学系统的回波信号分为两部分,分别投射到接收端的3D激光雷达阵列和2D焦平面阵列上,构成独立2/3D融合接收机。
车载导航成像激光雷达的成像过程可以近似为非相干照明成像过程,提出的算法适用于采样模式工作的3D非扫描激光雷达系统,不必考虑波动效应,仅需考虑几何光学模型,3D非扫描激光雷达/2D焦平面阵列双接收成像原理如图1所示:
脉冲激光经发射光学系统准直、整形和扩束后照射到目标场景上,接收光学系统收集目标回波信号,通过半反半透镜进行分光,将接收光学系统的回波信号分为两部分,分别投射到接收端的APD(AvalanchePhotoDiode,雪崩光电二极管)阵列和2D焦平面阵列上,读出集成电路对APD阵列中每一个像元的数据进行并行处理,每个像元单独测量激光脉冲的往返时间、目标方位、目标强度信息,从而得到低分辨率目标的3D图像。2D焦平面阵列对选通门范围内的目标成高分辨率的强度像,数据处理单元对距离像和强度像进行处理,得到高分辨率的3D目标像。典型的基于APD阵列的3D非扫描激光雷达主要有两种工作模式,第一种模式是触发模式,即探测阵列的每个像素通过设定阈值单独触发,这种模式受回波波形的干扰较大,但不需预先知道目标距离范围;第二种模式是采样模式,即所有像素在距离门范围内对回波信号进行同时采样(即全波形测距),这种模式可以连续的捕获目标和背景的细节信息,本发明提出的算法适用于采样模式工作的3D非扫描激光雷达系统。
对于APD阵列中每一个像元,在高分辨率的2D像中包含M×N个像素Im,n,m=1,…,M;n=1,…,N。APD阵列中每一个像元可采集出来自D个距离门的反射光能量Rd,d=1,…,D。这样每一个像元对应目标体素亮度Bm,n,d为一M×N×D维数组。Im,n和Rd为两种探测器接收数据。存在如下关系:
Figure BDA0001803664870000061
Figure BDA0001803664870000062
由于照射后,目标只在轮廓表面有强反射,所以理想情况下,对于特定的m,n,体素向量vec(Bm,n,d)只有一个元素为非零值,其余都为零,且此非零值为Im,n,设对于特定的m,n,轮廓表面处于距离Tmn处,求Tmn转化为优化问题,因此计算只涉及局部数据,求Tmn的优化问题可在小数据量范围进行,易于实现,且误差不会扩散。利用遗传算法的全局优化特性以及解决多参数问题的良好特性,在有效估计Tmn时大大提高了运算速度。
步骤2,在2D焦平面阵列得到的2D信息辅助下,对于3D激光雷达APD阵列得到的像元应用智能算法进行高分辨率体素估计,智能算法有遗传算法、蚁群算法、粒子群算法、鸟群算法以、鱼群算法等,本实施例采用遗传算法对高分辨率体素估计,复制Rdc=Rd后,执行步骤如下:
步骤a,首先在Tmn的值域d=1,…,D范围内任意产生P组群体,每组中包含M×N个初始参数Tmn
步骤b,将每组参数进行如下计算,
Figure BDA0001803664870000063
Figure BDA0001803664870000071
根据此时的Rd,d=1,…,D,计算目标函数
Figure BDA0001803664870000072
后一项是M×N个Tmn梯度平滑约束,k是该项的权系数。经典的梯度算法通常用区域卷积来计算,有Sobel算子、Robinson算子、Laplace算子等。采用期望值模型选择机制复制使目标函数值较小的那些组,淘汰使目标函数值较大的组,将选择后的组各参数Tmn进行二进制编码后串接,每个Tmn作为遗传码的一个基因段。
步骤c,依据交叉概率配对需要交叉的两组二进制串,采用一点交叉策略进行交叉。
步骤d,根据变异概率,对交叉后的二进制串的一位取反。
步骤e,将每组二进制串转化为真实的参数Tmn,作为遗传算法下一次进化的初始参数,转到步骤b再次进行全局搜索。
步骤f,如果达到遗传算法的终止进化代数,则种群进化终止,否则恢复Rd=Rdc,重复步骤b-e。
对于3D激光雷达像元与高分辨率2D像融合,应用遗传算法进行高分辨率体素估计,多激光雷达像元可用同一种群进行不同条件的进化,速度快。
遗传算法具有很强的全局搜索能力,但局部搜索能力不足,通常情况下,它可以很快达到最优解的附近,这时,大部分基因进化正确成为大概率事件。获得Tmn估计值后,可算出每一个APD阵列中像元对应目标体素亮度Bm,n,d
步骤3组合3D激光雷达各像元对应目标体素,获得全像元对应目标体素。对于3D激光雷达像元与高分辨率2D像融合,应用遗传算法进行高分辨率体素估计,多激光雷达像元可用同一种群进行不同条件的进化,速度快。
组合APD阵列各像元对应目标体素,可获得全像元对应目标体素,该全局体素亮度三维数组即为独立2/3D融合接收机输出体素亮度。
步骤4,组成共照射源2/3D融合接收机阵列,获取各2/3D融合接收机全像元对应目标体素。
对于独立2/3D融合接收机输出高分辨率体素亮度错误,用多接收机阵列加以抑制。共照射源2/3D融合接收机阵列如图2所示,该阵列光学系统与合成孔径阵列一致,虚拟基准机位位于图2的中心,图2的中心也是激光源位置。虚拟基准机位没有接收机并不影响作为基准机位进行视差校正。
步骤5区分距离,在不同距离层,校正各接收机与基准机位输出体素亮度视差,叠加为合成体素数组。
根据镜头参数和图2几何关系可以得出每个2/3D接收机机位与基准机位在不同距离的视差。根据视差校正各接收机输出体素亮度矩阵,即根据不同距离门视差平移体素数组的该距离层。校正视差后,将接收机阵列的各体素数组叠加为合成体素数组。
步骤6,将合成体素数组沿距离维的向量数值最大的元素归一化为1,其余为零,得到高分辨率的目标轮廓三维体素数组。
因各融合接收机输出体素反映的目标轮廓进化正确为大概率事件,所以叠加合成的高分辨率的体素数组中,各沿距离维的向量,数值最大的元素为目标唯一轮廓位置,将该元素归一化为1,其余为零,对高分辨率的体素数组中各沿距离维的向量进行同样的检测处理后,就得到高分辨率的目标轮廓三维体素数组,该高分辨率的目标轮廓三维体素数组即为高分辨率的3D目标像。独立2/3D接收机超分辨率亮度体素误差与阵列中2/3D接收机数量关系可由多次试验经验得出。
合成三维体素数组要求获得同一目标不同机位的三维体素数组,对2/3D接收机差异、噪声等有较强的适应能力。此外,需要特别指出的是,一些研究者提出将图像超分辨率重建技术与合成三维体素数组技术相结合,以突破2/3D接收机设备固有分辨率限制,得到更高分辨率合成三维体素数组。
完整的立体视觉还包括三维建模的平滑和精细化工作,但在自动驾驶车辆导航中可省略。本发明的共发射源接收阵列可工作于扫描状态,即适用于扫描激光3D雷达超分辨率3D目标轮廓重建。
以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (9)

1.一种共照射源3D激光雷达和2D探测器超空间分辨率信息获取方法,其特征在于,包括以下步骤:
步骤1,共照射源回波信号通过半反半透镜进行分光,将接收光学系统的回波信号分为两部分,分别投射到接收端的3D激光雷达APD阵列和2D焦平面阵列上,构成独立2/3D融合接收机;
步骤2,在2D焦平面阵列得到的2D信息辅助下,对于3D激光雷达APD阵列得到的像元应用智能算法进行高分辨率体素估计,获得高分辨率体素估计值后,可算出每一个APD阵列中像元对应目标体素亮度Bm,n,d
步骤3,组合3D激光雷达各像元对应目标体素,获得全像元对应目标体素,即全局体素亮度三维数组,该全局体素亮度三维数组即为独立2/3D融合接收机输出体素亮度;
步骤4,组成共照射源2/3D融合接收机阵列,获取各2/3D融合接收机全像元对应目标体素,
步骤5,区分距离,在不同距离层,校正各接收机与基准机位输出体素亮度视差,叠加为合成体素数组;
步骤6,将合成体素数组沿距离维的向量数值最大的元素归一化为1,其余为零,得到高分辨率的目标轮廓三维体素数组,该高分辨率的目标轮廓三维体素数组即为高分辨率的3D目标像。
2.根据权利要求1所述共照射源3D激光雷达和2D探测器超空间分辨率信息获取方法,其特征在于:所述步骤1中得到的独立2/3D融合接收机如下:
对于APD阵列中每一个像元,在高分辨率的2D像中包含M×N个像素Im,n,m=1,…,M;n=1,…,N;APD阵列中每一个像元可采集出来自D个距离门的反射光能量Rd,d=1,…,D;这样每一个像元对应目标体素亮度Bm,n,d为一M×N×D维数组;Im,n为2D探测器接收数据,Rd为3D激光雷达接收数据,存在如下关系:
Figure FDA0003642031360000011
Figure FDA0003642031360000012
由于照射后,目标只在轮廓表面有强反射,所以理想情况下,对于特定的m,n,体素向量vec(Bm,n,d)只有一个元素为非零值,其余都为零,且此非零值为Im,n,设对于特定的m,n,轮廓表面处于距离Tmn处,求Tmn转化为优化问题,因此计算只涉及局部数据,求Tmn的优化问题可在小数据量范围进行,易于实现,且误差不会扩散。
3.根据权利要求1所述共照射源3D激光雷达和2D探测器超空间分辨率信息获取方法,其特征在于:所述步骤2中智能算法的为遗传算法,复制Rdc=Rd后,执行步骤如下:
步骤a,首先在距离Tmn的值域d=1,…,D范围内任意产生P组群体,每组中包含M×N个初始参数Tmn
步骤b,将每组参数进行如下计算,
Figure FDA0003642031360000021
根据此时的Rd,d=1,…,D,计算目标函数
Figure FDA0003642031360000022
后一项是M×N个Tmn梯度平滑约束,k是该项的权系数;采用期望值模型选择机制复制使目标函数值较小的那些组,淘汰使目标函数值较大的组,将选择后的组各参数Tmn进行二进制编码后串接,每个Tmn作为遗传码的一个基因段;
步骤c,依据交叉概率配对需要交叉的两组二进制串,采用一点交叉策略进行交叉;
步骤d,根据变异概率,对交叉后的二进制串的一位取反;
步骤e,将每组二进制串转化为真实的参数Tmn,作为遗传算法下一次进化的初始参数,转到步骤b再次进行全局搜索;
步骤f如果达到遗传算法的终止进化代数,则种群进化终止,否则恢复Rd=Rdc,重复步骤b-e,对于3D激光雷达像元与高分辨率2D像融合,应用遗传算法进行高分辨率体素估计,多激光雷达像元可用同一种群进行不同条件的进化,速度快。
4.根据权利要求1所述共照射源3D激光雷达和2D探测器超空间分辨率信息获取方法,其特征在于:所述步骤4中对于独立2/3D融合接收机输出高分辨率体素亮度错误,用多接收机阵列加以抑制,独立2/3D接收机超分辨率亮度体素误差与阵列中2/3D接收机数量关系可由多次试验经验得出。
5.根据权利要求1所述共照射源3D激光雷达和2D探测器超空间分辨率信息获取方法,其特征在于:所述步骤5中区分距离,在不同距离层,校正各接收机与基准机位输出体素亮度视差,叠加为合成体素数组的方法:获取2/3D接收机机位与基准机位在不同距离的视差,根据视差校正各接收机输出体素亮度矩阵,即根据不同距离门视差平移体素数组的该距离层,校正视差后,将接收机阵列的各体素数组叠加为合成体素数组。
6.根据权利要求1所述共照射源3D激光雷达和2D探测器超空间分辨率信息获取方法,其特征在于:所述步骤6中得到高分辨率的目标轮廓三维体素数组的方法:所述各融合接收机输出体素反映的目标轮廓进化正确为大概率事件,在叠加合成的高分辨率的体素数组中,各沿距离维的向量,数值最大的元素为目标唯一轮廓位置,将该元素归一化为1,其余为零,对高分辨率的体素数组中各沿距离维的向量进行同样的检测处理后,就得到高分辨率的目标轮廓三维体素数组。
7.根据权利要求1所述共照射源3D激光雷达和2D探测器超空间分辨率信息获取方法,其特征在于:用于扫描激光3D雷达超分辨率3D目标轮廓重建。
8.一种采用权利要求1至7任一所述的共照射源3D激光雷达和2D探测器超空间分辨率信息获取方法的装置,其特征在于:包括共照射源2/3D融合接收机阵列,各接收机包含3D激光雷达和2D焦平面传感器,共照射源2/3D融合接收机阵列包含一共用脉冲激光源,经发射光学系统准直、整形和扩束后照射到目标场景上,接收光学系统收集目标回波信号,通过半反半透镜进行分光,将接收光学系统的回波信号分为两部分,分别投射到接收端的APD阵列和2D焦平面阵列上,读出集成电路对APD阵列中每一个像元的数据进行并行处理,每个像元单独测量激光脉冲的往返时间、目标方位、目标强度信息,从而得到低分辨率目标的3D图像;2D焦平面阵列对选通门范围内的目标成高分辨率的强度像,数据处理单元对3D图像和强度像进行处理,得到高分辨率的3D目标像。
9.根据权利要求8所述装置,其特征在于:3D描激光雷达为采样模式工作的3D非扫描激光雷达系统。
CN201811088093.2A 2018-09-18 2018-09-18 共照射源3d激光雷达和2d探测器超空间分辨率信息获取方法及装置 Active CN109375191B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811088093.2A CN109375191B (zh) 2018-09-18 2018-09-18 共照射源3d激光雷达和2d探测器超空间分辨率信息获取方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811088093.2A CN109375191B (zh) 2018-09-18 2018-09-18 共照射源3d激光雷达和2d探测器超空间分辨率信息获取方法及装置

Publications (2)

Publication Number Publication Date
CN109375191A CN109375191A (zh) 2019-02-22
CN109375191B true CN109375191B (zh) 2022-09-20

Family

ID=65405573

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811088093.2A Active CN109375191B (zh) 2018-09-18 2018-09-18 共照射源3d激光雷达和2d探测器超空间分辨率信息获取方法及装置

Country Status (1)

Country Link
CN (1) CN109375191B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111308497A (zh) * 2020-03-06 2020-06-19 深圳市方腾网络技术有限公司 一种3d激光雷达及激光雷达实现方法
CN113447933A (zh) * 2020-03-24 2021-09-28 上海禾赛科技有限公司 激光雷达的探测单元、激光雷达及其探测方法
CN114488176A (zh) * 2020-10-23 2022-05-13 睿镞科技(北京)有限责任公司 3d图像传感器测距系统及使用该系统进行测距的方法
CN113109833A (zh) * 2021-04-02 2021-07-13 北京理明智能科技有限公司 一种基于可见光与激光雷达融合的仿生三维成像系统及方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103412313A (zh) * 2013-07-30 2013-11-27 桂林理工大学 低空轻小型面阵激光雷达测量系统
CN103576145A (zh) * 2012-07-30 2014-02-12 中国科学院电子学研究所 机载合成孔径激光雷达系统及成像方法
CN104483676A (zh) * 2014-12-04 2015-04-01 北京理工大学 一种3d/2d非扫描激光雷达复合成像装置
AU2017213589A1 (en) * 2012-09-04 2017-08-31 Digital Signal Corporation System and method for increasing resolution of a three-dimensional image of a target
CN107851176A (zh) * 2015-02-06 2018-03-27 阿克伦大学 光学成像系统及其方法
CN108375773A (zh) * 2018-02-10 2018-08-07 高若谦 一种多通道激光雷达三维点云测量系统及测量方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103576145A (zh) * 2012-07-30 2014-02-12 中国科学院电子学研究所 机载合成孔径激光雷达系统及成像方法
AU2017213589A1 (en) * 2012-09-04 2017-08-31 Digital Signal Corporation System and method for increasing resolution of a three-dimensional image of a target
CN103412313A (zh) * 2013-07-30 2013-11-27 桂林理工大学 低空轻小型面阵激光雷达测量系统
CN104483676A (zh) * 2014-12-04 2015-04-01 北京理工大学 一种3d/2d非扫描激光雷达复合成像装置
CN107851176A (zh) * 2015-02-06 2018-03-27 阿克伦大学 光学成像系统及其方法
CN108375773A (zh) * 2018-02-10 2018-08-07 高若谦 一种多通道激光雷达三维点云测量系统及测量方法

Also Published As

Publication number Publication date
CN109375191A (zh) 2019-02-22

Similar Documents

Publication Publication Date Title
CN109375191B (zh) 共照射源3d激光雷达和2d探测器超空间分辨率信息获取方法及装置
US11624835B2 (en) Processing of LIDAR images
CN105160702B (zh) 基于LiDAR点云辅助的立体影像密集匹配方法及系统
CN111090103A (zh) 水下小目标动态精细检测三维成像装置及方法
CN104541302B (zh) 距离提示对象分割系统和方法
CN106405572B (zh) 基于空间编码的远距离高分辨率激光主动成像装置及方法
CN109375237A (zh) 一种全固态面阵三维成像激光雷达系统
CN111492265A (zh) 基于3d激光雷达测量的多分辨率、同时定位和地图绘制
CN106772431A (zh) 一种结合tof技术和双目视觉的深度信息获取装置及其方法
Rishav et al. DeepLiDARFlow: A deep learning architecture for scene flow estimation using monocular camera and sparse LiDAR
CN113504547A (zh) 基于扫描光场的视觉雷达成像系统和方法
CN112470026A (zh) 激光雷达及其探测方法、存储介质和探测系统
CN108876861B (zh) 一种地外天体巡视器的立体匹配方法
CN107861252A (zh) 一种成像装置及方法
Gao et al. A general deep learning based framework for 3D reconstruction from multi-view stereo satellite images
US20220092804A1 (en) Three-dimensional imaging and sensing using a dynamic vision sensor and pattern projection
US11609332B2 (en) Method and apparatus for generating image using LiDAR
Mharolkar et al. RGBDTCalibNet: End-to-end Online Extrinsic Calibration between a 3D LiDAR, an RGB Camera and a Thermal Camera
JP2006323693A (ja) 処理装置、画像処理方法および画像処理プログラム
Walz et al. Gated Stereo: Joint Depth Estimation from Gated and Wide-Baseline Active Stereo Cues
CN116630528A (zh) 基于神经网络的静态场景重建方法
CN110533733A (zh) 一种基于计算鬼成像的自动搜索目标深度的方法
KR20230036651A (ko) 라이다 데이터의 다중 좌표계 특징을 사용한 객체 검출 시스템 및 방법
US20220284543A1 (en) Signal processing apparatus and signal processing method
Ma et al. Disparity estimation based on fusion of vision and LiDAR

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant