CN113253289A - 基于激光雷达与视觉结合的无人机探测跟踪系统实现方法 - Google Patents
基于激光雷达与视觉结合的无人机探测跟踪系统实现方法 Download PDFInfo
- Publication number
- CN113253289A CN113253289A CN202011429648.2A CN202011429648A CN113253289A CN 113253289 A CN113253289 A CN 113253289A CN 202011429648 A CN202011429648 A CN 202011429648A CN 113253289 A CN113253289 A CN 113253289A
- Authority
- CN
- China
- Prior art keywords
- target
- unmanned aerial
- aerial vehicle
- radar
- computer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/04—Systems determining the presence of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/66—Tracking systems using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Abstract
本发明提供一款基于激光雷达与视觉结合的无人机探测跟踪系统实现方法,涉及安防技术领域。通过雷达,光电设备,计算机三者之间的相互配合,粒子滤波的计算,对雷达确定的入侵的无人机进行预测与跟踪,直至无人机飞出禁飞区。本发明填补了现有技术无法对小型无人机进行高精度探测并追踪的现状。本发明的有益效果为:做到有效监控无人机入侵并实时跟踪,可有效运用在航空乃至军事领域中;用于对重要赛事、突发事件、大型活动安保、边防巡逻中危险的小目标的监控和防御。
Description
技术领域
本发明涉及安防技术领域
技术背景
随着现代电子通信技术及航空技术的飞速发展,各类小型无人机的发展十分 强劲,并呈现出种类日益增多、性能不断提升、使用领域不断扩展、使用门槛越 来越低和可获得渠道日益增多等特点。针对目前无人机传统雷达很难识别,无人 机“黑飞”导致的坠落伤人、损坏电力设备和逼停航班的事情屡屡发生。在此背 景下,对在重要区域和敏感区域对无人机的探测与跟踪的研究刻不容缓。
发明内容
为解决很难对无人机精确探测并追踪的问题,本发明提供一款基于激光雷达与视觉结合的无人机探测跟踪系统实现方法。
步骤一、雷达探测禁飞区,若探测到无人机或障碍物目标,将确定无人机的初始最准区域,将坐标传输给计算机,计算机对雷达输出的三维点云坐标进行转换,转换成以光电设备为参考系对应的区域坐标。光电设备根据坐标与目标在三维空间中的对应关系,转向目标方向。
步骤二、光电设备进行光学缩放,实现对目标的高清晰成像。
步骤三、光电设备暂停对雷达探测到的点云坐标的响应,开启移动侦测并将画面实时回传给计算机。
步骤四、计算机在光电设备的初始对准区域附近搜索目标。搜索过程中,通过自动识别的方式确定可疑目标,若目标选择失败,则光电设备通过移动侦测判别是否有移动的物体。若存在,计算机继续选择目标,反之,回到(一),雷达探测无人机;若选择目标成功,光电设备关闭移动侦测。
步骤五、调用粒子滤波程序,将画面作为粒子滤波输入参数,并使计算机生成新的画面,展现粒子滤波程序处理后的结果,显示视频经粒子滤波程序处理后的预测及目标跟踪效果。
步骤六、背景画面静止,确定的目标移动,光电设备传给计算机画面中的目标可能会出现在图像边缘或者移出图像。这时,计算机给雷达发送目标丢失的信号,雷达探测是否还有无人机。当探测到无人机时,重新获取目标区域的点云坐标,光电设备根据区域坐标重新探测到丢失的无人机,并进行光学缩放。该过程使得画面中重新出现探测目标,粒子滤波程序在获得目标之后可以正常运行。按照上述的情况,不断重复(目标丢失→找回目标)的过程,直到雷达无法探测到丢失的无人机。此时说明在禁飞区没有无人机侵入。
步骤七、雷达继续不间断探测无人机。
无人机探测跟踪的实现需要用到三台设备:雷达(FMCW激光雷达或激光面阵雷达),计算机,光电设备(摄像机)。计算机用于图像显示以及进行运算处理;雷达用于对目标的大致方位的探测,获取目标的区域的点云坐标;光电设备根据区域坐标进行目标追踪,画面回传。
整个无人机探测与跟踪系统的流程如图1所示。
发明效果:
采用本发明提供一款基于激光雷达与视觉结合的无人机探测跟踪系统实现方法,做到有效监控无人机入侵,并实时对其进行跟踪,解决很难对无人机精确探测并追踪的问题。
附图说明
图1为对无人机探测与跟踪的整个过程的流程图
具体实施方式
具体实施方式一:结合图1说明本实施方法
步骤一、雷达探测禁飞区,若探测到无人机或障碍物目标,将确定无人机的初始最准区域,将坐标传输给计算机,计算机对雷达输出的三维点云坐标进行转换,转换成以光电设备为参考系对应的区域坐标。光电设备根据坐标与目标在三维空间中的对应关系,转向目标方向。
步骤二、光电设备进行光学缩放,实现对目标的高清晰成像。
步骤三、光电设备暂停对雷达探测到的点云坐标的响应,开启移动侦测并将画面实时回传给计算机。
步骤四、计算机在光电设备的初始对准区域附近搜索目标。搜索过程中,通过自动识别的方式确定可疑目标,若目标选择失败,则光电设备通过移动侦测判别是否有移动的物体。若存在,计算机继续选择目标,反之,回到(一),雷达探测无人机;若选择目标成功,光电设备关闭移动侦测。
步骤五、调用粒子滤波程序,将画面作为粒子滤波输入参数,并使计算机生成新的画面,展现粒子滤波程序处理后的结果,显示视频经粒子滤波程序处理后的预测及目标跟踪效果。
步骤六、背景画面静止,确定的目标移动,光电设备传给计算机画面中的目标可能会出现在图像边缘或者移出图像。这时,计算机给雷达发送目标丢失的信号,雷达探测是否还有无人机。当探测到无人机时,重新获取目标区域的点云坐标,光电设备根据区域坐标重新探测到丢失的无人机,并进行光学缩放。该过程使得画面中重新出现探测目标,粒子滤波程序在获得目标之后可以正常运行。按照上述的情况,不断重复(目标丢失→找回目标)的过程,直到雷达无法探测到丢失的无人机。此时说明在禁飞区没有无人机侵入。
步骤七、雷达继续不间断探测无人机。
具体实施方式二:本实施方式与具体实施方式一不同的是:所述步骤一雷达坐标与光电坐标之间的转换。
雷达探测禁飞区,若探测到无人机或障碍物目标,将确定无人机的初始最准区域。该区域的中心坐标即可认为是目标以雷达为参考系的三维坐标,并将目标坐标传输给计算机。
计算机对雷达输出的三维坐标进行转换,转换成以光电设备为原点的坐标系中对应的坐标。其坐标系的转换过程主要包括旋转和平移两部分,具体实现步骤如下:
矩阵的转化主要为绕z,y,x旋转并平移T得到雷达坐标系。雷达坐标系和光电设备坐标系的转换的数学模型如下:
其中,Rr为旋转矩阵,Tr为平移矩阵,Xc,Yc,Zc是目标在光电设备坐标系中的三维坐标,Xr,Yr,Zr是目标在雷达坐标系中的三维坐标。
对旋转矩阵的求解:按z轴旋转、之后y轴旋转、之后x轴旋转,(其中对于z,y,x方向的旋转角度符号判断都是按照右手系定则,大拇指指向轴线方向,四指方向为旋转的正方向。)最终得到光电设备坐标系,得到的角度分别是yaw、 pitch、roll。旋转部分的数学模型如下:
R旋转矩阵的详细计算如下:
T旋转矩阵如下:
平移变换指的是光电设备坐标系原点在雷达坐标系旋转到与光电设备坐标系相同方向(即两坐标系的x,y,z轴分别互相平行)后的坐标系下的坐标,这里的变换矩阵指的是在雷达坐标系变换为与光电设备坐标系相同方向(即两坐标系的x,y,z轴分别互相平行)后,光电设备坐标系原点在变换后雷达坐标系中的坐标位置。因此平移矩阵的具体数值根据实际情况而定,具体数值由基于GPS 技术测得的雷达坐标向量与光电设备坐标向量的关系得出。
其它步骤及参数与具体实施方式一相同。
具体实施方式三:本实施方式与具体实施方式一或二不同的是:所述步骤二中的光学缩放的具体过程。
由于实际架设条件限制,雷达和光电往往安装在不同的位置,在光电进行目标捕获、跟踪时,由于目标尺寸、距离不同,目标在光电设备视野中所占比例有很大差异。为此,采用目标“距离分段标定法”。首先根据目标的不同距离,对光电设备的焦距进行标定。距离记为S,焦距值记为L,距离值S为X轴、传感器焦距值为Y轴,拟合成曲线公式:
L=F(s) (7)
当雷达引导光电设备时,根据目标的距离S,光电设备依据已经标定好的视场角或焦距与距离对应关系,自动变化焦距,转为计算后的得到的焦距值L。X, Y轴面保持不变。
其它步骤及参数与具体实施方式一或二相同
具体实施方式四:本实施方式与具体实施方式一、二或三不同的是:所述步骤五粒子滤波与滤波结果的表现形式。粒子滤波原理如下:
(1)t-1时刻:
1)初始化阶段
2)计算权重阶段
根据t-1时刻图像中确定的目标,选取目标区域,转换到hsv空间下。对已经选定的目标区域粒子分布直方图与初始化粒子分布直方图的相似性进行分析,分布直方图的相似性越大,说明该粒子群距离选定的目标越接近。
(i)加权:
其中ωi t-1和ωi t分别为第i个粒子t-1时刻和t时刻的对应权值。q为重要密度函数,p为后验概率密度函数。
根据上式,将对相似度越大的粒子赋以更大的权值。
(ii)选优:
对全部的粒子按照权值进行排序,选取前Np粒子。
(iii)权值归一化:
根据上式,对选出的Np个粒子的权值进行归一化处理。
3)重采样阶段
舍弃权重较小的粒子后,为了维持粒子数Ns不变,要复制权重高的粒子Np,最后得到新的粒子集合,此时的粒子群集中到已选定的目标区域,完成重采样过程。
4)预测阶段
根据此时的权重分配以及给定的状态转移矩阵,可以预测下一时刻粒子群的位置
(2)t时刻:
1)更新权重阶段
根据t时刻图像中选定目标的位置,计算新的粒子分布直方图与t-1时刻粒子分布直方图的相似性,并对相似性进行归一化处理。据此在t时刻,更新粒子权值,相关性计算公式:
归一化计算公式:
则可以得到t时刻未知参数x的最小均方估计为:
距离选定的目标越接近,得到更新后的权重就会越大。
2)重采样阶段。
3)预测阶段
根据此时的权重分配以及给定的状态转移矩阵M,预测未知参数xi t+1,进而预测下一时刻粒子群的位置,也就是要得到的跟踪成果。
引入自回归模型(Autoregressive Model)求解状态转移矩阵M的原理如下:
AR模型作为时间序列模型之一,可以利用观测点前若干时刻的变量的线性组合来描述观测点后若干时刻变量的值,属于线性回归模型。
(i)ARModel定义:
该模型认为,任意时刻的观测值xt取决于前面p个时刻的观测值加上一个误差,相关公式如下:
其中,εt是具备均值为0,方差为σε的白噪声,Φ1,...,Φp对应t-1,...,t-p时刻时间序列的自相关系数,Φ0是常系数。
(ii)ARModel的状态空间形式:
令:
zt=xt,wt=εt,Ht=(xt-1,xt-2,...,xt-p)
ξt=(Φ1,Φ2,...,Φp),Ht=Id,Vt=0
则公式(13)中AR(p)模型可以写成一下的状态空间模型:
系统方程:ξt+1=Ft+1ξt+wt (14)
观测方程:zt=Htξt+vt (15)
4)循环阶段
接下来进入t+1时刻,不断重复t时刻的工作,重复地进行权重更新,重采样以及预测阶段,直到最终粒子的相似度基本吻合,预测误差较小,此时,根据进而不断预测目标下一时刻的去向。
画面处理、粒子滤波、滤波结果并画面显示功能均由一个程序完成。程序开始后,先用winspy.exe查找出需要被程序处理的窗口属性,然后将窗口属性输入程序中,重新编译运行,弹出新的经程序处理后的窗口。新窗口中的画面与原窗口的画面同步显示并在新窗口实时显示程序结果直至程序运行结束。
其它步骤及参数与具体实施方式一、二或三相同。
Claims (4)
1.一款基于激光雷达与视觉结合的无人机探测跟踪系统实现方法,具体是按照以下进行的:
步骤一、雷达探测禁飞区,若探测到无人机或障碍物目标,将确定无人机的初始最准区域,将坐标传输给计算机,计算机对雷达输出的三维点云坐标进行转换,转换成以光电设备为参考系对应的区域坐标。光电设备根据坐标与目标在三维空间中的对应关系,转向目标方向。
步骤二、光电设备进行光学缩放,实现对目标的高清晰成像。
步骤三、光电设备暂停对雷达探测到的点云坐标的响应,开启移动侦测并将画面实时回传给计算机。
步骤四、计算机在光电设备的初始对准区域附近搜索目标。搜索过程中,通过自动识别的方式确定可疑目标,若目标选择失败,则光电设备通过移动侦测判别是否有移动的物体。若存在,计算机继续选择目标,反之,回到(一),雷达探测无人机;若选择目标成功,光电设备关闭移动侦测。
步骤五、调用粒子滤波程序,将画面作为粒子滤波输入参数,并使计算机生成新的画面,展现粒子滤波程序处理后的结果,显示视频经粒子滤波程序处理后的预测及目标跟踪效果。
步骤六、背景画面静止,确定的目标移动,光电设备传给计算机画面中的目标可能会出现在图像边缘或者移出图像。这时,计算机给雷达发送目标丢失的信号,雷达探测是否还有无人机。当探测到无人机时,重新获取目标区域的点云坐标,光电设备根据区域坐标重新探测到丢失的无人机,并进行光学缩放。该过程使得画面中重新出现探测目标,粒子滤波程序在获得目标之后可以正常运行。按照上述的情况,不断重复(目标丢失→找回目标)的过程,直到雷达无法探测到丢失的无人机。此时说明在禁飞区没有无人机侵入。
步骤七、雷达继续不间断探测无人机。
3.根据权利要求1所述的一款基于激光雷达与视觉结合的无人机探测跟踪系统实现方法,其特征在于,步骤二光电设备进行光学缩放:
采用目标“距离分段标定法”,拟合成曲线公式:
L=F(s)
距离记为S,焦距值记为L,距离值S为X轴、传感器焦距值为Y轴。光电设备自动变化焦距,转为计算后的得到的焦距值L。X,Y轴面保持不变。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011429648.2A CN113253289A (zh) | 2020-12-07 | 2020-12-07 | 基于激光雷达与视觉结合的无人机探测跟踪系统实现方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011429648.2A CN113253289A (zh) | 2020-12-07 | 2020-12-07 | 基于激光雷达与视觉结合的无人机探测跟踪系统实现方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113253289A true CN113253289A (zh) | 2021-08-13 |
Family
ID=77180938
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011429648.2A Pending CN113253289A (zh) | 2020-12-07 | 2020-12-07 | 基于激光雷达与视觉结合的无人机探测跟踪系统实现方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113253289A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114219825A (zh) * | 2022-02-23 | 2022-03-22 | 济南和普威视光电技术有限公司 | 一种多个光电分布式部署下目标接力跟踪方法及系统 |
CN115390582A (zh) * | 2022-07-15 | 2022-11-25 | 江西理工大学 | 一种基于点云的多旋翼无人机跟踪拦截方法及系统 |
CN116299424A (zh) * | 2023-05-10 | 2023-06-23 | 武汉能钠智能装备技术股份有限公司四川省成都市分公司 | 一种无人机识别系统及方法 |
-
2020
- 2020-12-07 CN CN202011429648.2A patent/CN113253289A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114219825A (zh) * | 2022-02-23 | 2022-03-22 | 济南和普威视光电技术有限公司 | 一种多个光电分布式部署下目标接力跟踪方法及系统 |
CN115390582A (zh) * | 2022-07-15 | 2022-11-25 | 江西理工大学 | 一种基于点云的多旋翼无人机跟踪拦截方法及系统 |
CN116299424A (zh) * | 2023-05-10 | 2023-06-23 | 武汉能钠智能装备技术股份有限公司四川省成都市分公司 | 一种无人机识别系统及方法 |
CN116299424B (zh) * | 2023-05-10 | 2023-07-18 | 武汉能钠智能装备技术股份有限公司四川省成都市分公司 | 一种无人机识别系统及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113253289A (zh) | 基于激光雷达与视觉结合的无人机探测跟踪系统实现方法 | |
CN110866887A (zh) | 一种基于多传感器的目标态势融合感知方法和系统 | |
CN111461023A (zh) | 基于三维激光雷达的四足机器人自主跟随领航员的方法 | |
CN111326023A (zh) | 一种无人机航线预警方法、装置、设备及存储介质 | |
CN112991391A (zh) | 一种基于雷达信号和视觉融合的车辆检测与跟踪方法 | |
CN114495064A (zh) | 一种基于单目深度估计的车辆周围障碍物预警方法 | |
CN111913177A (zh) | 对目标物探测方法、装置以及存储介质 | |
CN112683228A (zh) | 单目相机测距方法及装置 | |
CN115034324B (zh) | 一种多传感器融合感知效能增强方法 | |
CN117115784A (zh) | 目标数据融合的车辆检测方法及检测装置 | |
CN113378638A (zh) | 基于人体关节点检测和d-gru网络的轮机员异常行为识别方法 | |
CN112802100A (zh) | 一种入侵检测方法、装置、设备和计算机可读存储介质 | |
Liu et al. | A joint optical flow and principal component analysis approach for motion detection | |
CN116862832A (zh) | 一种基于三维实景模型的作业人员定位方法 | |
CN111311640A (zh) | 一种基于运动估计的无人机识别跟踪方法 | |
CN115965847A (zh) | 交叉视角下多模态特征融合的三维目标检测方法和系统 | |
CN112734794B (zh) | 一种基于深度学习的运动目标跟踪与定位方法 | |
Zhang et al. | Deep learning based multi-modal sensing for tracking and state extraction of small quadcopters | |
WO2021258282A1 (zh) | 目标检测设备及方法、成像装置和可移动平台 | |
AlSaadi et al. | Analysis of different background subtraction methods applied on drone imagery under various weather conditions in the UAE region | |
Braga et al. | Determining the trajectory of unmanned aerial vehicles by a novel approach for the particle filter | |
CN117523428B (zh) | 基于飞行器平台的地面目标检测方法和装置 | |
CN116740334B (zh) | 一种基于双目视觉和改进yolo的无人机入侵检测定位方法 | |
Jin | Real Time Detection Algorithm for Escape Ladders based on YOLOv5s | |
Lin | Real-Time Multitarget Tracking for Panoramic Video Based on Dual Neural Networks for Multisensor Information Fusion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication |