CN108596117A - 一种基于二维激光测距仪阵列的场景监控方法 - Google Patents

一种基于二维激光测距仪阵列的场景监控方法 Download PDF

Info

Publication number
CN108596117A
CN108596117A CN201810396678.4A CN201810396678A CN108596117A CN 108596117 A CN108596117 A CN 108596117A CN 201810396678 A CN201810396678 A CN 201810396678A CN 108596117 A CN108596117 A CN 108596117A
Authority
CN
China
Prior art keywords
laser range
laser
data
range finder
scanning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810396678.4A
Other languages
English (en)
Other versions
CN108596117B (zh
Inventor
胡钊政
李招康
孙莹妹
张汝峰
李玉婷
谢静茹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hebei University of Technology
Original Assignee
Hebei University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hebei University of Technology filed Critical Hebei University of Technology
Priority to CN201810396678.4A priority Critical patent/CN108596117B/zh
Publication of CN108596117A publication Critical patent/CN108596117A/zh
Application granted granted Critical
Publication of CN108596117B publication Critical patent/CN108596117B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

本发明涉及一种基于二维激光测距仪阵列的场景监控方法,该方法利用多激光实现场景监控,克服天气等环境的影响,监控范围广,运算速度快,主要包括多激光数据融合和目标检测(图4为摘要附图)。在多激光联合标定时,提出基于虚拟二面体的多激光联合标定方法,比取点进行标定,准确性高且操作简单实用性强,只需要一个平面标定板,而多点标定法对于标定物的粗细有要求,所以此方法特别适合实际应用场合。在目标提取方面,改进单高斯背景建模,使其适应于激光数据。激光测距仪的测量误差与距离值的大小有关,在判断是背景还是前景时与固定阈值相比,单高斯背景建模具有自适应性。与直方图法相比可以克服部分静止行人造成的影响。

Description

一种基于二维激光测距仪阵列的场景监控方法
技术领域
本发明涉及场景监控技术领域,具体的说是一种基于二维激光测距仪阵列的场景监控方法。
背景技术
分析或监控人员活动,如统计乘客数量或测量轨迹等,在各个领域应用都非常广泛,例如建筑安全、商场管理、火车站等等。到目前为止,视频数据的分析一直是监控的主要方法。在视频监控系统中,摄像机被放置在特定的位置以减少遮挡。而这样设置摄像机,图像的分辨率和视角相当有限,具有较少图像像素的运动对象可能在跟踪中丢失。而且,照明和天气条件的不断变化使视觉系统的可靠性和鲁棒性下降。实现全方位监控需使用多台摄像机。比如,传统的摄像机视场角50度,360度无死角就需要8个摄像机。并且来自不同摄像机的数据难以组合,需在不同的视角坐标系之间进行精确的校准和复杂的计算,很难满足实时性的要求。二维激光测距仪,利用人眼安全激光(1A级,近红外光谱)对周围环境进行剖面测量,受环境因素干扰小,并且价格低廉,精度高,测量范围广,测距速度快,数据量小,适合快速处理。它在智能驾驶、移动机器人自主导航、道路检测、移动物体检测和跟踪领域发挥着越来越重要的作用。
单个二维激光测距仪,容易由于遮挡等原因捕捉不到目标,且测量范围有限。本发明采用多个激光测距仪进行监控,提高了目标被检测到的概率,同时也能扩大监控范围。在完成多激光数据融合的过程中,CN101387700公开了一种利用在同一平面内任意地点、方向放置的激光扫描仪测量到的激光点的方向向量与移动目标的平面模型相匹配的特性,对多激光扫描数据进行融合,此方法需要预先定义一个移动目标的平面轮廓模型,当移动目标多样化时会增大算法的复杂性。CN102253391A公开了一种基于多激光雷达的行人目标跟踪方法,使用多点法实现多激光之间的标定,但是此方法实验取点较难,如果标定杆过粗则会使激光点的对应不准确,增大标定误差,如果太细容易产生漏扫现象。为了提高旋转矩阵的精度,标定物之间需要保持较大的距离要求两激光之间具有较大的重叠区。激光测距仪的扫描光束之间具有一定间隔,且随着距离的增大发散,也会导致漏扫现象。采用直方图法获取背景数据,出现频率最高的为背景点数据,容易将长时间静止的行人确定为背景数据,降低了准确性。综上所述,目前尚无成熟的方法实现多激光联合标定和目标检测。
发明内容
针对现有技术的不足,本发明所要解决的技术问题是,提供一种基于二维激光测距仪阵列的场景监控方法,该方法利用多激光实现场景监控,克服天气等环境的影响,监控范围广,运算速度快,主要包括多激光数据融合和目标检测。
本发明解决所述技术问题采用的技术方案是:提供一种基于二维激光测距仪阵列的场景监控方法,该方法的步骤如下:
第一步:多个二维激光测距仪的布置:根据实验场景的情况布置多个激光测距仪,多个激光测距仪之间具有公共扫描区域,多个二维激光测距仪位于同一个扫描平面,且布置时不存在扫描盲区;
第二步:多激光联合标定:
启动多个二维激光测距仪对外部环境进行扫描,二维激光测距仪采用区域平面内扫描并离散采样的方式采集每个激光测距仪极坐标系下的点云数据(ρii),将该极坐标系下的点云数据通过转换到直角坐标系下,得到每个激光测距仪直角坐标系下的点云数据(xi,yi);每个激光测距仪分别用S1、S2、S3、…、Sm表示,m为激光测距仪的总个数;每个激光测距仪在平面标定板上形成的点云数据分别为P1i=(x1i,y1i)T、P2i=(x2i,y2i)T、…、Pmi=(xmi,ymi)T
假定要将S2,…,Sm的激光直角坐标系统一到S1的激光直角坐标系下,且S1分别与S2,…,Sm都有公共区域,则将平面标定板放置于S1与S2都能扫描到的位置,移动选取平面标定板的两个不平行位置,产生虚拟二面体,求出旋转矩阵R和平移向量T,完成S1与S2之间的标定;同理将平面标定板放置于S1与Si都能扫描到的区域,完成S1与Si之间的标定,i=2、3、…、m,从而完成m个二维激光测距仪的标定;
若两个二维激光测距仪没有公共扫描部分,则利用两个二维激光测距仪与第三方二维激光测距仪的位置关系。在m个二维激光测距仪进行标定时,要将S2,…,Sm的激光坐标系统一到S1的激光坐标系下,S1与Si没有公共扫描区域,无法直接进行标定,寻找分别与S1与Si具有公共扫描区域的Sj,j≠i,且j=2、3、…、m,将平面标定板放置于Si与Sj都能扫描到的位置,移动选取平面标定板的两个不平行位置,产生虚拟二面体,求出将Si统一到Sj时的旋转矩阵Rij和平移向量Tij,完成Si与Sj之间的标定,同理求出将Sj统一到S1时的旋转向量Rj1和平移向量Tj1,完成Sj与S1的标定,则将Si统一到S1时的旋转向量为Rj1*Rij,平移向量为Rj1*Tij+Tj1
第三步:采用改进的单高斯背景建模完成目标检测:
已知激光测距仪检测不到同一角度下,且位于背景之后的目标,背景数据值大于前景数据值,对每个激光测距仪进行背景建模;给定第一帧的测量数据为初始背景值,然后采集下一时刻的测量数据,若下一时刻的测量数据大于初始背景值,则用下一时刻的测量数据代替此时的背景值,同时记录此测量数据出现的帧数、角度数、距离值三个因素;若此时的测量数据并不是最大值,即其是伪背景,则将此时测量数据按照其对应的帧数将角度数、距离值恢复到运动前景数据中,完成背景建模;具体过程是:
3.1按照下式进行初始化:
μ0(θ)=x0(θ),σ0(θ)=std_init,σ0 2(θ)=std_init*std_init,
其中,x0(θ)是第一帧的距离测量数据,std_init考虑测距的波动;单高斯背景建模的参数分别是均值μ和标准差σ,θ为极坐标系下的点云数据对应的角度;
3.2对于t时刻的距离值xt(θ),用下式判断为背景值还是前景值,
其中,λ为常数,0表示xt(θ)为背景值,1表示为前景值,μt-1为t-1时刻的均值,σt-1为t-1时刻的标准差;
3.3判断完是背景值还是前景值后,对背景数据再次进行更新,若μt-1(θ)-xt(θ)<-λσt-1(θ),则令μt(θ)=xt(θ),σt(θ)=std_init;若|μt-1(θ)-xt(θ)|<λσt-1(θ),则μt(θ)=(1-β)μt-1(θ)+βxt(θ),β值的范围为0<β<1。
3.4对每帧新数据进行上述步骤3.2和步骤3.3,直至结束;
第四步:数据融合:
将来自各激光测距仪的有效数据通过第三步完成背景数据和前景数据的提取;利用第二步的标定结果将来自于各激光的背景数据进行融合,构成整个监控区域的背景,前景数据进行融合丰富了前景数据的信息,实现对特定前景场景的监控。
与现有技术相比本发明的进步如下:
(1)在多激光联合标定时,提出基于虚拟二面体的多激光标定方法,比取点进行标定,准确性高且操作简单实用性强,只需要一个平面标定板,而多点标定法对于标定物的粗细有要求,所以此方法特别适合实际应用场合。
(2)在目标提取方面,改进单高斯背景建模,使其适应于激光数据。激光测距仪的测量误差与距离值的大小有关,在判断是背景还是前景时与固定阈值相比,单高斯背景建模具有自适应性。与直方图法相比可以克服部分静止行人造成的影响,例如直方图法是采用出现频率较高的数据为背景数据,如果在采集数据时期,行人长时间静止于某地会造成误判,而改进的单高斯背景建模法可以减少这种误判的发生。
附图说明
下面结合附图和实施例对本发明进一步说明。
图1为两个激光测距仪S1,S2在两个不同的时间对同一个平面标定板在不同位置进行数据采集的示意图。
图2为不同位置的两个标定板构成的虚拟二面体模型。
图3为本发明提供的基于虚拟二面体的多激光联合标定方法过程图(以两个激光测距仪为例)。
图4为本发明方法的步骤流程示意框图。
图5为本发明实施例1的激光布置示意图。
图6(a)为S1激光测距仪在无运动目标时的激光扫描结果图;
图6(b)为S2激光测距仪在无运动目标时的激光扫描结果图;
图6(c)为S3激光测距仪在无运动目标时的激光扫描结果图;
图6(d)是通过本发明提出的基于虚拟二面体的多激光联合标定方法将来自三个激光测距仪的数据进行融合后的结果图;
图7为某一时刻对目标数据进行融合的提取结果示意图,(*表示S3扫描数据的目标检测结果通过标定转到S2,+表示S2的目标检测结果)。
图8为应用本发明方法得到的数据融合图。
图9为多点标定法和本申请的多激光联合标定法的标定误差的对比折线图。
图10为直方图法和本申请的单高斯背景建模法的背景数据提取结果对比图。
具体实施方式
下面将结合附图及实施例来说明本发明,但并不以此作为对本申请保护范围的限定。
本发明基于二维激光测距仪阵列的场景监控方法,该方法的步骤是:
第一步:多个二维激光测距仪的布置:根据实验场景的情况布置多个激光测距仪,多个激光测距仪之间具有公共扫描区域,多个二维激光测距仪位于同一个扫描平面,且布置时不存在扫描盲区;扫描平面距离地面15厘米左右,此高度能保证在大多数情况下能获得行人脚部的距离信息。
第二步:多激光联合标定。
2.1将平面标定板放置于两个二维激光测距仪都能扫描到的位置,启动激光测距仪对外部环境进行扫描,二维激光测距仪采用区域平面内扫描并离散采样的方式采集每个激光测距仪极坐标系下的点云数据(ρii),将该极坐标系下的点云数据通过转换到直角坐标系下,得到每个激光测距仪直角坐标系下的点云数据(xi,yi);每个激光测距仪分别用S1、S2、S3、…、Sm表示,m为激光测距仪的总个数;每个激光测距仪在相应平面标定板上形成的点云数据分别为P1i=(x1i,y1i)T、P2i=(x2i,y2i)T、…、Pmi=(xmi,ymi)T
将S2激光直角坐标系下的点云数据统一到S1。激光直角坐标系下分别将S1、S2在平面标定板上形成的两类点云数据通过最小二乘法进行直线拟合,设S1在平面标定板上形成的点云数据拟合后获得的直线方程为y1=k11x1+b11,S2为y2=k21x2+b21。k11表示S1在平面标定板的第一个位置拟合直线的斜率,k21表示S2在平面标定板的第一个位置拟合直线的斜率。下标的第一个数字表示激光测距仪的序号,第二个数字表示位置。分别求出两条直线与x轴正方向的夹角α1121,其中,α11=arctan(k11),α21=arctan(k21)。令α1=α1121
2.2移动平面标定板,使其与第一次位置不平行。
设第二次移动平面标定板后S1在平面标定板上形成的点云数据拟合后获得的直线方程为y1=k12x1+b12,S2在平面标定板上形成的点云数据拟合后获得的直线方程为y2=k22x2+b22;分别求出这两条直线与x轴正方向的夹角α1222,其中,α12=arctan(k12),α22=arctan(k22);令α2=α1222,则旋转角度
若α>0,则旋转矩阵R为:
若α<0,则旋转矩阵R为:
S1与S2分别在平面标定板的两个不同位置扫描的点云数据所拟合获得的两条直线的交点是同一个点即图2中的c点,利用这个性质可以求出平移向量。设S1在两个不同位置扫描点所拟合的两条直线的交点为C1=(xa,ya)T,S2在两个不同位置扫描点所拟合的两条直线的交点为C2=(xb,yb)T,平移向量设为T=(tx,ty)T,则有
其中,r11,r12,r13,r14表示旋转矩阵R中的元素,已知旋转矩阵和两直线交点可以求出平移向量。
上述是以两个激光测距仪为例说明的,需要对m个二维激光测距仪进行标定时,原理和两个二维激光测距仪是一样的,
假定要将S2,…,Sm的激光直角坐标系统一到S1的激光直角坐标系下,且S1分别与S2,…,Sm都有公共区域,则将平面标定板放置于S1与S2都能扫描到的位置,移动选取平面标定板的两个不平行位置,产生虚拟二面体,求出旋转矩阵R和平移向量T,完成S1与S2之间的标定;同理将平面标定板放置于S1与Si都能扫描到的区域,完成S1与Si之间的标定,i=2、3、…、m,从而完成m个二维激光测距仪的标定;
若两个二维激光测距仪没有公共扫描部分则利用两个二维激光测距仪与第三方二维激光测距仪的位置关系,例如在m个二维激光测距仪进行标定时,要将S2,…,Sm的激光坐标系统一到S1的激光坐标系下,S1与Si没有公共扫描区域,无法直接进行标定,寻找分别与S1与Si具有公共扫描区域的Sj,j≠i,且j=2、3、…、m,将平面标定板放置于Si与Sj都能扫描到的位置,移动选取平面标定板的两个不平行位置,产生虚拟二面体,求出将Si统一到Sj时的旋转矩阵Rij和平移向量Tij,完成Si与Sj之间的标定,同理求出将Sj统一到S1时的旋转向量Rj1和平移向量Tj1,完成Sj与S1的标定,则将Si统一到S1时的旋转向量为Rj1*Rij,平移向量为Rj1*Tij+Tj1
上述实现两个二维激光测距仪的标定过程,如果把平面标定板放在三个或多个不同,且互不平行的位置,就可以产生更多的虚拟二面体,从而产生更多的约束条件来提高精度。假设平面标定板放置在n个位置则会产生n个旋转角度和n(n-1)/2个平移向量,n不小于3,
则优化后旋转角度的表达式为:
平移向量的表达式为:
上述两个公式针对于n个平面均不平行的情况,C1k表示在S1的激光直角坐标系下S1扫描第k个虚拟二面体所形成的交点,C2k表示在S2的激光直角坐标系下S2扫描第k个虚拟二面体所形成的交点。如果在多个不同位置放置平面标定板时出现了平行位置也是可以的,为多个平行位置时,只挑选其中的一个平行位置与其他不平行位置构成虚拟二面体即可,理论上只要有一组虚拟二面体就可以求出外部参数。
第三步:采用改进的单高斯背景建模完成目标检测:
已知激光测距仪检测不到同一角度下,且位于背景之后的目标,背景数据值大于前景数据值,对每个激光测距仪进行背景建模;给定第一帧的测量数据为初始背景值,然后采集下一时刻的测量数据,若下一时刻的测量数据大于初始背景值,则用下一时刻的测量数据代替此时的背景值,同时记录此测量数据出现的帧数、角度数、距离值三个因素;若此时的测量数据并不是最大值,即其是伪背景,则将此时测量数据按照对应的帧数将角度数、距离值恢复到运动前景数据中,完成背景建模;具体过程是:
3.1按照下式进行初始化:
μ0(θ)=x0(θ),σ0(θ)=std_init,σ0 2(θ)=std_init*std_init,
其中,x0(θ)是第一帧的距离测量数据,std_init考虑测距的波动,实验中设置为8~20;单高斯背景建模的参数分别是均值μ和标准差σ,θ为极坐标系下的点云数据对应的角度。
3.2对于t时刻的距离值xt(θ),用下式判断为背景值还是前景值,
其中,λ为常数,0表示xt(θ)为背景值,1表示为前景值,μt-1为t-1时刻的均值,σt-1为t-1时刻的标准差;
3.3判断完是背景值还是前景值后,对背景数据再次进行更新,若μt-1(θ)-xt(θ)<-λσt-1(θ),则令μt(θ)=xt(θ),σt(θ)=std_init;若|μt-1(θ)-xt(θ)|<λσt-1(θ),则
μt(θ)=(1-β)μt-1(θ)+βxt(θ),
β值范围为0<β<1,它的作用是控制高斯模型更新的速度,β值越大则背景数据的均值和方差更新速度快,背景更新越快,反之,更新速度慢。
3.4对每帧新数据进行上述步骤3.2和步骤3.3,直至结束。上述的更新过程针对背景数据进行的,如果是前景数据则不进行更新了,背景数据的更新过程就是改变μ,σ值。
第四步:数据融合
在实际应用中,来自各激光测距仪的有效数据通过第三步完成背景数据和前景数据的提取。利用第二步的标定结果将来自于各激光的背景数据融合,构成整个监控区域的背景,前景数据进行融合丰富了前景数据的信息,同时多个激光联合可以减少前景遮挡造成的影响,例如由于遮挡某方向上的激光测距仪没有得到被遮挡物的距离信息,另一方向上不属于遮挡关系,可以得到其距离信息。至此,前景的位置信息得以确定,在接下来的研究中可以对特定前景进行跟踪等后续研究。
实施例1
本实施例中,有三个二维激光测距仪,激光测距仪安装于据地面15厘米左右,S1放置于卫生间入口处,S2置于走廊一侧尽头,S3置于楼梯入口处按图5进行布置。S1,S3为RPLIDARA1二维激光测距仪,扫描角度为360度,角度分辨率小于等于1度,扫描的最远距离为6米。S2为UXM-30LXH-EWA二维激光测距仪,扫描角度为190度,角度分辨率为0.125度,扫描的最远距离为120米。
本实施例基于二维激光测距仪阵列的场景监控方法的步骤如下:
第一步:将激光测距仪S1,S2,S3布置于距地面15厘米左右的同一平面上,此高度能保证在大多数情况下二维激光测距仪能获得行人脚部的距离信息。按图5进行放置,使得在监控区域内不存在扫描盲区,在本实施例中S1与S2有公共扫描区域,S3与S2有公共扫描区域。
第二步:多激光联合标定。
2.1将平面标定板放置于S1,S2两个激光测距仪都能扫描到的位置,启动激光测距仪对外部环境进行扫描,将S1,S3统一在S2所在的激光坐标系内,两个二维激光测距仪S1,S2在平面标定板上形成的点云数据分别为P1i=(x1i,y1i)T,P2i=(x2i,y2i)T,将S1坐标系下的点云数据统一到S2坐标系下。激光直角坐标系下分别将S1、S2在平面标定板上形成的两类点云数据通过最小二乘法进行直线拟合,S1在平面标定板上形成的点云数据拟合后获得的直线方程为y1=k11x1+b11,本实施例中y1=1.0428x1+2207.8671,S2为y2=k21x2+b21,本实施例中y2=-1.1599x2+1191.2840。分别求出两条直线与x轴正方向的夹角α11=arctan(1.0428)=46.2006,α21=arctan(-1.1599)=-49.2332。令α1=α2111=-95.4338,
2.2移动平面标定板,使其与第一次位置不平行。
第二次移动平面标定板后S1在平面标定板上形成的点云数据拟合后获得的直线方程为y1=1.2354x+2887.8510,S2在平面标定板上形成的点云数据拟合后获得的直线方程为y2=-0.9811x+2020.7627;分别求出这两条直线与x轴正方向的夹角α12=arctan(1.2354)=51.0111,α22=arctan(-0.9811)=-44.4530;令α2=α2212=-95.4641,则旋转角度
由于α<0,则旋转矩阵R为:
S1在平面标定板的两个不同位置扫描的点云数据所拟合获得的两条直线的交点是(-3531.0134,-1474.3187),S2在平面标定板的两个不同位置扫描的点云数据所拟合获得的两条直线的交点是(-4639.6480,6572.6650),利用S1与S2分别在平面标定板的两个不同位置扫描的点云数据所拟合获得的两条直线的交点是同一个点c这个性质可以求出平移向量。设平移向量设为T=(tx,ty)T,则有
求得tx=-3507.2983,ty=2917.6105
这两步完成了将S1所在的激光直角坐标系统一到S2。接下来将S3统一到S2,执行上述2.1,2.2两步,S3在平面标定板上形成的点云数据拟合后获得的直线方程为y3=2.0161x3+2696.8130,S2为y2=-1.2944x2+7320.5。分别求出两条直线与x轴正方向的夹角α31=arctan(2.0161)=63.6182,α21=arctan(-1.2944)=-52.3123。令α1=α2131=-115.9305,
移动平面标定板,使其与第一次位置不平行。第二次移动平面标定板后S3在平面标定板上形成的点云数据拟合后获得的直线方程为y3=0.5997x3+1332.2504,S2在平面标定板上形成的点云数据拟合后获得的直线方程为y2=-11.3702x-943.4285;分别求出这两条直线与x轴正方向的夹角α32=arctan(0.5997)=30.9519,α22=arctan(-11.3811)=-84.9738。令α2=α2232=-115.9257,则旋转角度
α<0,则旋转矩阵R为:
S3在平面标定板的两个不同位置扫描的点云数据所拟合获得的两条直线的交点是(-963.4163,754.4710),S2在平面标定板的两个不同位置扫描的点云数据所拟合获得的两条直线的交点是(-820.1780,8382.1594),求出平移向量。平移向量设为T=(tx,ty)T,则有
求得tx=-1919.9481,ty=7845.6054
第三步:采用改进的单高斯背景建模完成目标检测:
已知激光测距仪检测不到同一角度下,且位于背景之后的目标,背景数据值大于前景数据值,对每个激光测距仪进行背景建模;给定第一帧的测量数据为初始背景值,然后采集下一时刻的测量数据,若下一时刻的测量数据大于初始背景值,则用下一时刻的测量数据代替此时的背景值,同时记录此测量数据出现的帧数、角度数、距离值三个因素;若此时的测量数据并不是最大值,即其是伪背景,则将此时测量数据按照对应的帧数将角度数、距离值恢复到运动前景数据中,完成背景建模;具体过程是:
3.1按照下式进行初始化:
μ0(θ)=x0(θ),σ0(θ)=std_init,σ0 2(θ)=std_init*std_init,
其中,x0(θ)是第一帧的距离测量数据,std_init考虑测距的波动,本实施例中设置为8;单高斯背景建模的参数分别是均值μ和标准差σ,θ为极坐标系下的点云数据对应的角度。
3.2对于t时刻的距离值xt(θ),用下式判断为背景值还是前景值,
其中,λ为常数,0表示xt(θ)为背景值,1表示为前景值,μt-1为t-1时刻的均值,σt-1为t-1时刻的标准差;
3.3判断完是背景值还是前景值后,对背景数据再次进行更新,若μt-1(θ)-xt(θ)<-λσt-1(θ),则令μt(θ)=xt(θ),σt(θ)=std_init;若|μt-1(θ)-xt(θ)|<λσt-1(θ),则
μt(θ)=(1-β)μt-1(θ)+βxt(θ),
β值范围为0<β<1,它的作用是控制高斯模型更新的速度,β值越大则背景数据的均值和方差更新速度快,背景更新越快,反之,更新速度慢。
3.4对每帧新数据进行上述步骤3.2和步骤3.3,直至结束。上述的更新过程针对背景数据进行的,如果是前景数据则不进行更新了,背景数据的更新过程就是改变μ,σ值。
图6(a)-图6(c)是S1,S2,S3在无运动目标时的扫描结果,图6(d)是通过本发明提出的基于虚拟二面体的多激光联合标定方法将来自三个激光测距仪的数据进行融合后的结果。可看出融合效果很好。图7是使用改进的单高斯背景建模法进行目标检测后,对目标数据进行融合的结果。图中*是来自S3的数据+是S2的数据。从图中可以看出多激光比单激光的信息丰富,增大了目标被检测到的概率。经过应用本发明方法所实现的多激光数据融合和目标检测的结果如图8,将图(6)d和图7结合在一张图上,此图可以清晰的展示数据融合和目标提取的结果。
实施例2
本实施例为多点标定法和基于虚拟二面体的多激光标定法的对比试验和直方图法与单高斯背景建模法的比较。在标定过程中需要求解的是旋转向量和平移向量共有六个未知数。每一个对应点可以提供两个方程,所以至少需要三个对应点,在实验中用圆柱形标定杆,圆柱形标定杆的直径不同分别为1厘米和1.5厘米,1厘米基本取不到点,1.5厘米取点困难,忽有忽无(主要是因为RPLIDARA1扫描间隔不是严格1度,在每个扫描周期内的扫描角度不是完全一致的)取点困难。做了六次对比试验,对比标准是对于同一墙体两激光测距仪数据融合后,对墙体部分点云数据进行直线拟合,拟合后两直线所成角度。第三次试验多点标定法误差较大的原因是三次取点的距离差异较小。在实验过程中,有时圆柱形标定杆的位置会产生漏扫现象,完成三次取点需要变换不止三次位置。本实施例多激光联合标定法的平均角度误差为0.18426,多点标定法0.20572,误差的折线图如图9所示,原始数据如表1所示。
表1
在提取背景数据时,直方图法默认背景是出现频率最高的数据,采用在一段时间内扫描监控区域,在每一角度下构建直方图,取出现频率最高的距离数据为背景,以此获取背景数据。但是,在提取背景数据期间,若行人长时间停留于某地,利用直方图法会发生错判。如图10,利用直方图法得出错误的背景距离9200毫米,而本发明单高斯背景建模法能正确得出背景数据10310毫米。

Claims (3)

1.一种基于二维激光测距仪阵列的场景监控方法,该方法的步骤如下:
第一步:多个二维激光测距仪的布置:根据实验场景的情况布置多个激光测距仪,多个激光测距仪之间具有公共扫描区域,多个二维激光测距仪位于同一个扫描平面,且布置时不存在扫描盲区;
第二步:多激光联合标定:
启动多个二维激光测距仪对外部环境进行扫描,二维激光测距仪采用区域平面内扫描并离散采样的方式采集每个激光测距仪极坐标系下的点云数据(ρii),将该极坐标系下的点云数据通过转换到直角坐标系下,得到每个激光测距仪直角坐标系下的点云数据(xi,yi);每个激光测距仪分别用S1、S2、S3、…、Sm表示,m为激光测距仪的总个数;每个激光测距仪在平面标定板上形成的点云数据分别为P1i=(x1i,y1i)T、P2i=(x2i,y2i)T、…、Pmi=(xmi,ymi)T
假定要将S2,…,Sm的激光直角坐标系统一到S1的激光直角坐标系下,且S1分别与S2,…,Sm都有公共区域,则将平面标定板放置于S1与S2都能扫描到的位置,移动选取平面标定板的两个不平行位置,产生虚拟二面体,求出旋转矩阵R和平移向量T,完成S1与S2之间的标定;同理将平面标定板放置于S1与Si都能扫描到的区域,完成S1与Si之间的标定,i=2、3、…、m,从而完成m个二维激光测距仪的标定;
若两个二维激光测距仪没有公共扫描部分则利用两个二维激光测距仪与第三方二维激光测距仪的位置关系,在m个二维激光测距仪进行标定时,要将S2,…,Sm的激光坐标系统一到S1的激光坐标系下,S1与Si没有公共扫描区域,无法直接进行标定,寻找分别与S1与Si具有公共扫描区域的Sj,j≠i,且j=2、3、…、m,将平面标定板放置于Si与Sj都能扫描到的位置,移动选取平面标定板的两个不平行位置,产生虚拟二面体,求出将Si统一到Sj时的旋转矩阵Rij和平移向量Tij,完成Si与Sj之间的标定,同理求出将Sj统一到S1时的旋转向量Rj1和平移向量Tj1,完成Sj与S1的标定,则将Si统一到S1时的旋转向量为Rj1*Rij,平移向量为Rj1*Tij+Tj1
第三步:采用改进的单高斯背景建模完成目标检测:
已知激光测距仪检测不到同一角度下,且位于背景之后的目标,背景数据值大于前景数据值,对每个激光测距仪进行背景建模;给定第一帧的测量数据为初始背景值,然后采集下一时刻的测量数据,若下一时刻的测量数据大于初始背景值,则用下一时刻的测量数据代替此时的背景值,同时记录此测量数据出现的帧数、角度数、距离值三个因素;若此时的测量数据并不是最大值,即其是伪背景,则将此时测量数据按照其对应的帧数将角度数、距离值恢复到运动前景数据中,完成背景建模;具体过程是:
3.1按照下式进行初始化:
μ0(θ)=x0(θ),σ0(θ)=std_init,σ0 2(θ)=std_init*std_init,
其中,x0(θ)是第一帧的距离测量数据,std_init考虑测距的波动;单高斯背景建模的参数分别是均值μ和标准差σ,θ为极坐标系下的点云数据对应的角度;
3.2对于t时刻的距离值xt(θ),用下式判断为背景值还是前景值,
其中,λ为常数,0表示xt(θ)为背景值,1表示为前景值,μt-1为t-1时刻的均值,σt-1为t-1时刻的标准差;
3.3判断完是背景值还是前景值后,对背景数据再次进行更新,若μt-1(θ)-xt(θ)<-λσt-1(θ),则令μt(θ)=xt(θ),σt(θ)=std_init;若|μt-1(θ)-xt(θ)|<λσt-1(θ),则μt(θ)=(1-β)μt-1(θ)+βxt(θ),β值的范围为0<β<1;
3.4对每帧新数据进行上述步骤3.2和步骤3.3,直至结束;
第四步:数据融合:
将来自各激光扫描仪的有效数据通过第三步完成背景数据和前景数据的提取;利用第二步的标定结果将来自于各激光的背景数据进行融合,构成整个监控区域的背景,前景数据进行融合丰富了前景数据的信息,实现对特定前景场景的监控。
2.根据权利要求1所述的基于二维激光测距仪阵列的场景监控方法,其特征在于,S1与S2之间的标定的具体过程是:
2.1将S2激光直角坐标系下的点云数据统一到S1激光直角坐标系下:分别将S1、S2在平面标定板上形成的两类点云数据通过最小二乘法进行直线拟合,
设S1在平面标定板上形成的点云数据拟合后获得的直线方程为y1=k11x1+b11,S2在平面标定板上形成的点云数据拟合后获得的直线方程为y2=k21x2+b21
其中,k11表示S1在平面标定板的第一个位置拟合直线的斜率,k21表示S2在平面标定板的第一个位置拟合直线的斜率,k中下标的第一个数字表示激光测距仪的序号,第二个数字表示在平面标定板上的位置;
分别求出上述两条直线与x轴正方向的夹角α1121,其中,α11=arctan(k11),α21=arctan(k21);令α1=α1121
2.2移动平面标定板,使其与第一次位置不平行:
设第二次移动平面标定板后S1在平面标定板上形成的点云数据拟合后获得的直线方程为y1=k12x1+b12,S2在平面标定板上形成的点云数据拟合后获得的直线方程为y2=k22x2+b22;分别求出这两条直线与x轴正方向的夹角α1222,其中,α12=arctan(k12),α22=arctan(k22);令α2=α1222,则旋转角度
若α>0,则旋转矩阵R为:
若α<0,则旋转矩阵R为:
S1与S2分别在平面标定板的两个不同位置扫描的点云数据所拟合获得的两条直线的交点是同一个点c;设S1在两个不同位置扫描点所拟合的两条直线的交点为C1=(xa,ya)T,S2在两个不同位置扫描点所拟合的两条直线的交点为C2=(xb,yb)T,平移向量设为T=(tx,ty)T,则有
其中,r11,r12,r21,r22表示旋转矩阵R中的元素。
3.根据权利要求1所述的基于二维激光测距仪阵列的场景监控方法,其特征在于,两个二维激光测距仪的标定过程中,平面标定板放置n个互不平行的位置时,n不小于3,则会产生n个旋转角度和n(n-1)/2个平移向量,
则优化后旋转角度的表达式为:
平移向量的表达式为:
其中,C1k表示在S1的激光直角坐标系下S1扫描第k个虚拟二面体所形成的交点,C2k表示在S2的激光直角坐标系下S2扫描第k个虚拟二面体所形成的交点。
CN201810396678.4A 2018-04-28 2018-04-28 一种基于二维激光测距仪阵列的场景监控方法 Expired - Fee Related CN108596117B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810396678.4A CN108596117B (zh) 2018-04-28 2018-04-28 一种基于二维激光测距仪阵列的场景监控方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810396678.4A CN108596117B (zh) 2018-04-28 2018-04-28 一种基于二维激光测距仪阵列的场景监控方法

Publications (2)

Publication Number Publication Date
CN108596117A true CN108596117A (zh) 2018-09-28
CN108596117B CN108596117B (zh) 2021-03-02

Family

ID=63610934

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810396678.4A Expired - Fee Related CN108596117B (zh) 2018-04-28 2018-04-28 一种基于二维激光测距仪阵列的场景监控方法

Country Status (1)

Country Link
CN (1) CN108596117B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109765567A (zh) * 2019-02-12 2019-05-17 华北水利水电大学 基于长方体标定物的二维激光测距仪定位方法
CN112937633A (zh) * 2021-02-02 2021-06-11 常州路航轨道交通科技有限公司 一种便携式轮对参数检测仪
CN113447936A (zh) * 2020-12-07 2021-09-28 兰剑智能科技股份有限公司 Agv智能叉车及地堆库存区域站台状态的检测方法、装置
CN113847872A (zh) * 2020-06-28 2021-12-28 中铁上海工程局集团有限公司 一种基于激光测距的离散单点位移静态监测装置及方法
CN114295071A (zh) * 2021-08-16 2022-04-08 云南特可科技有限公司 一种获取目标形态的多维测量方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101387700A (zh) * 2008-10-12 2009-03-18 北京大学 基于多激光扫描仪的数据融合方法及系统
CN102253391A (zh) * 2011-04-19 2011-11-23 浙江大学 一种基于多激光雷达的行人目标跟踪方法
CN103837869A (zh) * 2014-02-26 2014-06-04 北京工业大学 基于向量关系的单线激光雷达和ccd相机标定方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101387700A (zh) * 2008-10-12 2009-03-18 北京大学 基于多激光扫描仪的数据融合方法及系统
CN102253391A (zh) * 2011-04-19 2011-11-23 浙江大学 一种基于多激光雷达的行人目标跟踪方法
CN103837869A (zh) * 2014-02-26 2014-06-04 北京工业大学 基于向量关系的单线激光雷达和ccd相机标定方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
YAN-RONG HOU等: "Moving Target Detection in the Robot System Based on Omni-Vision and Laser Rangefinder", 《IEEE》 *
黄大卫: ""复杂场景下的运动目标检测算法研究"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109765567A (zh) * 2019-02-12 2019-05-17 华北水利水电大学 基于长方体标定物的二维激光测距仪定位方法
CN109765567B (zh) * 2019-02-12 2023-05-16 华北水利水电大学 基于长方体标定物的二维激光测距仪定位方法
CN113847872A (zh) * 2020-06-28 2021-12-28 中铁上海工程局集团有限公司 一种基于激光测距的离散单点位移静态监测装置及方法
CN113447936A (zh) * 2020-12-07 2021-09-28 兰剑智能科技股份有限公司 Agv智能叉车及地堆库存区域站台状态的检测方法、装置
CN112937633A (zh) * 2021-02-02 2021-06-11 常州路航轨道交通科技有限公司 一种便携式轮对参数检测仪
CN114295071A (zh) * 2021-08-16 2022-04-08 云南特可科技有限公司 一种获取目标形态的多维测量方法

Also Published As

Publication number Publication date
CN108596117B (zh) 2021-03-02

Similar Documents

Publication Publication Date Title
CN108596117A (zh) 一种基于二维激光测距仪阵列的场景监控方法
Ellis Performance metrics and methods for tracking in surveillance
CN109059954B (zh) 支持高精度地图车道线实时融合更新的方法和系统
Rottensteiner et al. The ISPRS benchmark on urban object classification and 3D building reconstruction
CN101828191B (zh) 用于人类可读仪器、信号器和控制器的光学识别、解释和数字化的系统
Wen et al. Spatial-related traffic sign inspection for inventory purposes using mobile laser scanning data
Hinz et al. Automatic car detection in high resolution urban scenes based on an adaptive 3D-model
US20160283774A1 (en) Cloud feature detection
CN112798811B (zh) 速度测量方法、装置和设备
US20220198749A1 (en) System and method for monitoring forest gap using lidar survey data
CN106296708B (zh) 车辆追踪方法和装置
CN104376577A (zh) 基于粒子滤波的多摄像头多目标跟踪算法
CN113743385A (zh) 一种无人船水面目标检测方法、装置及无人船
Crispel et al. All-sky photogrammetry techniques to georeference a cloud field
CN112257549A (zh) 一种基于计算机视觉的楼面危险检测预警方法及系统
Wang et al. A novel quality control model of rainfall estimation with videos–A survey based on multi-surveillance cameras
Jing et al. Efficient point cloud corrections for mobile monitoring applications using road/rail-side infrastructure
Öktem et al. Stereophotogrammetry of oceanic clouds
Reiterer et al. A 3D optical deformation measurement system supported by knowledge-based and learning techniques
Shen et al. Knowledge-based road extraction from high resolution remotely sensed imagery
Wang et al. Near-infrared surveillance video-based rain gauge
CN112541403B (zh) 一种利用红外摄像头的室内人员跌倒检测方法
Hinz Integrating local and global features for vehicle detection in high resolution aerial imagery
CN114219825A (zh) 一种多个光电分布式部署下目标接力跟踪方法及系统
Katai-Urban et al. Reconstructing atmospheric cloud particles from multiple fisheye cameras

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20210302