CN111896973B - 基于主被动融合的超远距离目标三维运动轨迹预测方法 - Google Patents
基于主被动融合的超远距离目标三维运动轨迹预测方法 Download PDFInfo
- Publication number
- CN111896973B CN111896973B CN202010685740.9A CN202010685740A CN111896973B CN 111896973 B CN111896973 B CN 111896973B CN 202010685740 A CN202010685740 A CN 202010685740A CN 111896973 B CN111896973 B CN 111896973B
- Authority
- CN
- China
- Prior art keywords
- target
- active
- distance
- track
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 91
- 238000000034 method Methods 0.000 title claims abstract description 38
- 230000004927 fusion Effects 0.000 title claims abstract description 21
- 238000001514 detection method Methods 0.000 claims abstract description 84
- 230000003287 optical effect Effects 0.000 claims abstract description 26
- 238000005259 measurement Methods 0.000 claims abstract description 15
- 238000000605 extraction Methods 0.000 claims abstract description 10
- 238000012545 processing Methods 0.000 claims abstract description 9
- 238000012546 transfer Methods 0.000 claims abstract description 9
- 239000000284 extract Substances 0.000 claims description 12
- 238000001914 filtration Methods 0.000 claims description 11
- 239000011159 matrix material Substances 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 11
- 238000005070 sampling Methods 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 claims description 3
- 239000008384 inner phase Substances 0.000 claims description 3
- 238000007499 fusion processing Methods 0.000 claims description 2
- 238000011426 transformation method Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 9
- 230000005484 gravity Effects 0.000 description 5
- 238000011160 research Methods 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 4
- 238000012634 optical imaging Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 239000013307 optical fiber Substances 0.000 description 3
- 230000035945 sensitivity Effects 0.000 description 3
- 230000010287 polarization Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 229910052731 fluorine Inorganic materials 0.000 description 1
- 125000001153 fluoro group Chemical group F* 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/50—Systems of measurement based on relative movement of target
- G01S17/58—Velocity or trajectory determination systems; Sense-of-movement determination systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Multimedia (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
本发明提供一种基于主被动融合的超远距离目标三维运动轨迹预测方法,基于主动探测子系统和被动探测子系统所得信息进行主被动融合,包括光学望远镜采取凝视转移的工作方式对探测天区进行扫描搜索目标;提取出目标的二维运动轨迹,望远镜进入凝视跟踪模式;经过像平面上目标轨迹预测处理实现目标的粗跟踪,并控制激光光束指向装置搜索捕获目标,对目标进行连续测距测速,同时光学望远镜不断跟踪拍摄图像,对目标轨迹进行修正;提取到目标附近的点云数据,采用信号光子提取方式得到目标与系统之间的距离和相对运动速度,融合得到目标的三维轨迹参数信息,对目标的三维空间运动轨迹进行预测,同时通过预测的目标位置调整激光指向。
Description
技术领域
本发明涉及单光子激光探测领域,尤其涉及一种基于主被动融合的超远距离运动目标的三维运动轨迹预测方法。
背景技术
随着激光雷达技术的发展,运动目标跟踪和超远距离探测成了当前激光雷达研究的热点目标,超远距离处小目标反射信号极弱,常规线性体制的激光雷达探测器灵敏度较低,难以实现对目标的探测。光子计数体制的激光雷达灵敏度可达量子级别,因此能在更低的激光能量条件下实现对远距离的高重频探测,且随着激光能量的减小,系统集成度也更高。
为了进行超远距离的探测,光子计数雷达系统需要压缩激光发散角来获取更高的能量密度,百公里的探测距离单个激光光斑的典型值为米量级,与目标面积相当甚至小于目标面积,故无法完成对目标的搜索;而光学成像系统视场大,百公里的距离量级上具有千米级别的视场范围,此时目标可以等效为一个点。高速运动目标在成像视场内形成一定轨迹,通过提取目标的运动轨迹可以获得目标的方位角和俯仰角信息,但成像系统不能确定目标在空间的准确位置。当前有研究将光子计数激光雷达和光学成像系统集成,但是只能提供二维平面的目标追踪,而本发明提出,将两者的信息进行主被动融合,可以精准探测超远距离处的高速运动目标,预测目标在三维空间中的运动轨迹。
发明内容
本发明目的是克服现有技术缺陷,提供一种基于主被动融合的超远距离运动目标的运动轨迹探测方法。
本发明技术方案提供一种基于主被动融合的超远距离目标三维运动轨迹预测方法,基于主动探测子系统和被动探测子系统所得信息进行主被动融合,实现精准探测超远距离处的高速运动目标,预测目标在三维空间中的运动轨迹,所述主动探测子系统设置有激光器、单光子探测器和主控芯片,所述被动探测子系统设置有光学望远镜和CCD相机,主被动融合过程包括以下步骤,
步骤1,接收所需探测天区的观测指令,被动探测子系统中光学望远镜视场指向对应区域,并采取凝视转移的工作方式对探测天区进行扫描搜索目标;
步骤2,当飞行目标掠过光学望远镜的视场,并在CCD相机上留下一段目标运动轨迹,主控芯片提取出目标的二维运动轨迹,望远镜进入凝视跟踪模式;主控芯片对目标轨迹图像进行处理,提取到目标运动的方位角、俯仰角及横向速度信息,并实时传输给外设的姿态控制部件;
步骤3,经过像平面上目标轨迹预测处理,实现目标的粗跟踪,并控制激光光束指向装置搜索捕获目标,对目标进行连续的测距测速;同时被动探测子系统中光学望远镜通过不断跟踪拍摄图像,对目标轨迹进行修正;经过粗跟踪后,主动探测子系统提取到目标附近的点云数据,基于单光子探测器采用信号光子提取方式得到目标与系统之间的距离和相对运动速度,通过对主被动探测体制所获得的数据进行融合,得到目标的三维轨迹参数信息;
步骤4,主控芯片根据主动探测子系统的距离数据和被动探测子系统的二维运动轨迹数据对目标的三维空间运动轨迹进行预测,同时通过预测的目标位置调整激光指向,并缩小单光子探测器的距离门,减小噪声的干扰。
而且,步骤1中,光学望远镜视场对探测天区进行扫描搜索目标的实现方式为,根据先验知识得到目标有可能出现的最远距离dt和最大运动速度vt,根据dt和vt选择合适的曝光时间和视场转移范围以获得更好的信噪比和探测效果,
假设目标运动速度为vt,望远镜视场角为αt,激光发散角为αr,超远距离处目标视为点目标,假设目标为圆形点目标,目标掠过激光光斑的最大时间为:
目标掠过望远镜视场的最大时间为:
目标掠过激光光斑的时间忽略不计,而在远距离的范围上望远镜的视场很大,Tt>>Tr,相机的单次曝光时间Te必须小于Tt,望远镜视场转移速度ve必须大于vt。
而且,步骤2中目标二维运动轨迹的提取实现方式如下,
认为在较小的时间间隔内目标的运动轨迹近似为直线,假设在T时间内,目标在CCD上水平运动了X个像素,垂直运动了Y个像素,每个像素的视场角为δ,则物体运动的角速度wd为:
该角速度认为是物体三维运动矢量在像平面上的投影,同时得到该条直线与X方向的夹角β:
为了能够顺利提取物体运动的角速度和运动轨迹,合理设置光学望远镜参数使目标在像面上的成像不会分布在数个像素上而是尽量集中在一个像素之内,这样当系统和目标处于相对运动状态时,目标轨迹像将更为锐利,更加容易计算得到wd和β。
而且,步骤3中,进行目标在像平面上的运动轨迹预测和粗跟踪,实现方式如下,
将角速度wd和轨迹的夹角β作为目标初始信息,然后通过卡尔曼滤波预测下一时刻目标像素的位置信息,同时输出角度信息;
不考虑目标与系统的距离,假设目标呈匀速直线运动,则当前目标在像平面上的位置和运动速度表示为:
通过卡尔曼滤波预测得到T0时刻后目标的角度信息,并且将角度信息反馈给光束偏转装置,控制激光束对该区域进行扫描,捕获目标,其中,T0为预测的时间。
而且,步骤3中,为了能够在短时间内增加激光束对目标的捕获扫描概率,采用视场编码扫描方法如下,
设定激光束能够在CCD相机的整个视场里偏转,偏转分辨率为每个像素所对应的视场角度,给CCD相机的每个像素进行编码,每个像素所对应的单位视场共同构成了整个CCD相机的视场,在视场的二维平面内,每一个像素的位置都对应一个二维的角度信息;
当确定目标最有可能出现在某一像素对应区域位置时,输出该像素所对应角度信息,控制激光束对该区域进行照准;
以CCD相机视场中心作为坐标轴中心的基准点,将视场分割为四个象限,当对CCD相机所采集的图像进行分析后,能够得到终点像素的位置信息;
找到目标可能出现的最大概率点后,激光束采用线型螺旋扫描方式,对预测区域进行扫描。
而且,步骤3中,所述信号光子提取方式是指,采用霍夫直线变换的方法提取信号光子,通过坐标系的转换,提取出的参数坐标系下直线方程为:
相对运动速度为:
而且,步骤4中,对目标的三维空间运动轨迹进行预测实现方式如下,
本发明的优点在于通过主被动融合的方式完成了对超远距离外的目标探测同时通过卡尔曼滤波预测和霍夫线性变换实现了对运动目标的三维运动轨迹的预测和跟踪。实验证明,应用本发明技术方案可以达到180KM外的速度为2马赫的目标的预测跟踪。
附图说明
图1是本发明实施例的系统整体框图;
图2是本发明实施例的工作流程图;
图3是本发明实施例的搜索目标示意图;
图4是本发明实施例CCD所呈轨迹像示意图;
图5是本发明实施例视场分割示意图;
图6是本发明实施例螺旋扫描方式示意图;
图7是本发明实施例跟随目标示意图;
图8是本发明实施例二维轨迹预测下距离点云示意图;
图9是本发明实施例霍夫变换示意图;
图10是本发明实施例球坐标示意图;
图11是本发明实施例精跟踪距离门设置示意图。
具体实施方式
下面将结合附图和实施例具体说明本发明技术方案以及本发明所涉及的技术原理。
参见图1,本发明所采用系统为一种基于主被动融合的超远距离运动目标观测系统,包括:单光子激光雷达主动探测部分为主动探测子系统,其由激光器,光电二极管探测器,滤光片,偏振分光棱镜,光电二极管,第一半波片,准直光纤,第二半波片,振镜,透镜,反光镜,单光子探测器,时间飞行仪和主控芯片组成;光学望远镜被动探测部分为被动探测子系统,其由共轴光学望远镜,凹面镜,第三半波片,分光镜和CCD相机(实施例采用科研级CCD)组成。
所述的激光器在主控芯片的控制下出光,激光器和主控芯片通过导线连接;激光器出射的激光通过滤光片、偏振分光棱镜后,一部分激光入射至光电二极管中,另一部分经第一半波片后耦合至准直光纤中;光电二极管产生的电信号作为系统的起始信号输入至时间飞行仪中,时间飞行仪和光电二极管采用导线连接;准直光纤出射的激光经过第二半波片后入射至振镜的反射面上,振镜扫描过程由主控芯片控制且通过导线与主控芯片进行连接;振镜反射的激光通过透镜的发散后,由反光镜反射到目标表面上。
光学望远镜的出射激光照射至目标并反射后,回波激光由光学望远镜接收,接收的激光能量通过凹面镜通过第三半波片聚集在分光镜上,分光后一部分耦合至CCD相机中,另一部分通过光纤耦合至单光子探测器中;单光子探测器的输出信号作为停止信号输入至时间飞行仪中,时间飞行仪和单光子探测器通过导线进行连接。CCD相机连接到主控芯片,将图像上传。
作为优选,激光器、所有光学器件、单光子探测器均采用1064nm波段的器件,用于减小环境光噪声对系统的影响,使系统获得更高的信噪比。
作为优选,光电二极管采用超快速,低抖动的光电二级管探测器,以获得高质量的起始信号,减小系统噪声。
作为优选,时间飞行仪采用FPGA与TDC芯片组合的模式,以获得更高的测距精度。时间飞行仪和主控芯片直接建立连接,可采用USB2.0方式传递数据。
作为优选,主控芯片可利用计算机实现,具体实施时,可以将除主控芯片以外的主动探测子系统其他部分和被动探测子系统封装,并外设相应的姿态控制部件,计算机单独设置以便用户操作。主控芯片连接姿态控制部件,可构成本发明系统的处理及控制部分。
作为优选,振镜采用高精度的MEMS,且激光可以在整个光学望远镜的视场内进行扫描,以获得更高的激光指向精度。
作为优选,光学望远镜采用卡塞格林反射式的结构设计,且具有一定的视场角,用于发现和跟踪目标。具体实施时,可设置万象结转台以切换视场。
作为优选,分光镜将大部分回波信号耦合至科研级CCD中,将小部分信号耦合至单光子探测器中,防止噪声过于强大。CCD是指电荷耦合器件,是一种用电荷量表示信号大小,用耦合方式传输信号的探测元件。本发明的CCD相机优选采用科学级CCD,能够达到25万-1600万像素,可根据用户的应用需要,采用不同分辨率的系统,系统灵敏性高,可用于尖端科技研究。
上述集成系统中,光学成像是被动探测部分,用于对目标的跟踪和运动轨迹的预测。通过对被动探测子系统中目标运动轨迹的分析,计算得到目标相对于集成系统的方位角、俯仰角以及角速度,并基于探测结果预测目标未来的运动轨迹;光子计数激光雷达为主动探测子系统,用于获取目标和雷达之间的距离,在被动探测子系统的引导下将探测激光光束指向目标,由测距结果给出目标的距离信息和运动速度。被动探测子系统解算的目标方位角、俯仰角和角速度与光子计数激光雷达解算的距离值可用于计算空中目标的三维运动轨迹,从而实现对目标运动轨迹的追踪和预警。
本发明的工作流程图如图2所示,首先,接收到所需探测天区的观测指令,主控芯片配合姿态控制部件将被动探测子系统中望远镜视场指向对应区域,并采取凝视转移的工作方式对探测天区进行扫描搜索目标。若提取到目标轨迹,则望远镜进入凝视跟踪模式。
经过对目标轨迹图像进行处理,配合姿态传感器数据,可以提取到目标方位角、俯仰角及横向速度信息,并实时传输给处理及控制部分。经过目标二维轨迹预测算法的处理,实现目标的粗跟踪,并控制激光光束指向装置搜索、捕获目标,在搜索目标时单光子系统距离门设置在公里级别,捕获目标后通过霍夫变换从噪声中提取出信号光子,并计算出目标相对于系统的距离和运动速度,并通过球坐标系下的三维轨迹预测,引导系统指向目标下一次出现的位置,并缩小系统距离门长度,减小噪声和其他飞行目标的干扰,完成目标运动轨迹预测和精跟踪功能。
下面结合图3至图11介绍本发明的具体实施方式为基于主被动融合的超远距离运动目标的运动轨迹预测方法。
步骤1:接收所需探测天区的观测指令,被动式探测望远镜视场指向对应区域,并采取凝视转移的工作方式对探测天区进行扫描搜索目标:为了能够使得目标能够成清晰的轨迹像,使望远镜工作在“凝视转移模式”下,即望远镜能够对一个天区范围内进行凝视成像,拍摄完一帧图像后由万象结转台将望远镜快速切换到相邻的下一个探测视场,这样整个天区的扫描即由多幅凝视成像拼接而成。
图3为系统搜索目标示意图,在步骤1中需要一定的先验知识得到目标有可能出现的最远距离dt和最大运动速度vt,根据dt和vt选择合适的曝光时间和视场转移范围以获得更好的信噪比和探测效果。假设目标运动速度为vt,望远镜视场角为αt,激光发散角为αr,超远距离处目标可视为点目标,假设目标为圆形点目标,目标掠过激光光斑的最大时间为:
目标掠过望远镜视场的最大时间为:
通常激光发散角非常小,目标掠过激光光斑的时间可以忽略不计,而在远距离的范围上望远镜的视场很大,Tt>>Tr。所以相机的单次曝光时间Te必须小于Tt,望远镜视场转移速度ve必须大于vt。
步骤2:飞行目标掠过光学望远镜的视场,并在CCD相机上留下一段目标运动轨迹,此时主控芯片提取出目标的二维运动轨迹,望远镜进入凝视跟踪模式。主控芯片经过对目标轨迹图像进行处理,可以提取到目标运动的方位角、俯仰角及横向速度信息,并实时传输给外设的姿态控制部件。
实施例步骤2中,目标二维运动轨迹的提取方式实现如下:
图4为CCD在一次采样时间T内所成的轨迹像,在步骤2中,本发明认为在一小段时间内目标的运动轨迹近似为直线,假设在一次采样时间T内,目标在CCD上水平运动了X个像素,垂直运动了Y个像素,每个像素的视场角为δ,则物体运动的角速度wd为:
该角速度可以认为是物体三维运动矢量在像平面上的投影。同时也可以得到该条直线与水平方向的夹角β:
为了能够顺利提取物体运动的角速度和运动轨迹,具体实施时,优选通过合理设置光学望远镜参数使目标在像面上的成像不会分布在数个像素上而是尽量集中在一个像素之内,这样当系统和目标处于相对运动状态时,目标轨迹像将更为锐利,更加容易计算得到wd和β。由于每个像素会覆盖一定区域,这里并不能确定在初始像素和终点像素对应区域内目标的具体位置,存在一定误差。但当曝光时间T越长,目标穿过的像素点越多,则图像分析所得wd和β的结果也就越精确,但不得超过目标在视场内的存在时间。
步骤3:经过像平面上目标轨迹预测方法的处理,实现目标的粗跟踪,并控制激光光束指向装置搜索、捕获目标,对目标进行连续的测距、测速。同时被动探测子系统中光学望远镜通过不断跟踪拍摄图像,对目标轨迹进行修正。经过一段时间的粗跟踪后,主动探测子系统提取到目标附近的点云数据,基于单光子探测器和时间飞行仪采用信号光子提取方式得到目标与系统之间的距离和相对运动速度,通过对主被动探测体制所获得的数据(目标在被动探测子系统像平面的位置与速度数据和主动探测子系统所得距离和速度数据)进行融合,得到目标的三维轨迹参数信息。
在步骤3中,所述目标轨迹预测方法,是指对目标的二维运动轨迹进行预测,将角速度wd和轨迹的夹角作为目标初始信息,然后通过卡尔曼滤波预测下一时刻目标像素的位置信息,同时输出角度信息。本发明提供优选的目标轨迹预测方法实现如下:
若不考虑目标与系统的距离,假设目标呈匀速直线运动,则当前目标在像平面上的位置和运动速度可以表示为:
通过卡尔曼滤波预测可以得到T0时刻后目标的角度信息,并且将角度信息反馈给MEMS光束偏转装置,控制激光束对该区域进行扫描,捕获目标。其中,T0为预测的时间。
由于目标轨迹、相对角速度和轨迹斜率的提取都存在一定误差,所以得到的目标出现区域是最大概率区域,目标还可能出现在周边的像素对应区域。由此,具体实施时,建议合理设置激光束的发散角,使光束横截面积为多个像素对应区域大小,这样就留有余量,增大光束对目标的捕获概率。
在得到被动式探测图像后,下一步要使主动式探测激光束可以对目标进行捕获、跟踪、瞄准。被动式探测望远镜覆盖的面积较大,而且目标划过视场的时间较短(有效时间数秒),激光束对整个视场进行扫描并捕获目标的概率很小。为了能够在短时间内增加激光束对目标的捕获扫描概率。本发明进一步提出一种视场编码扫描的方法:
设定激光束可以在CCD相机的整个视场里偏转,偏转分辨率即为每个像素所对应的视场角度。给相机的每个像素进行编码,每个像素所对应的单位视场共同构成了整个相机的视场。那么,在视场的二维平面内,每一个像素的位置都可以对应一个二维的角度信息。当步骤3确定目标最有可能出现在某一像素对应区域位置时,即可向主控芯片输出该像素所对应角度信息,控制激光束对该区域进行照准。以相机视场中心作为坐标轴中心的基准点,将视场分割为如图5所示的四个象限,若读取为第二象限的某一个像素A位置信息为(m,-n),则输出的对应角度信息为(mβ,-nβ)。这样,当对相机对所采集的图像进行分析后,可以得到终点像素的位置信息。
由于CCD有一个很短的读出时间tr,目标还会前行几个像素的距离,但从图像中可以提取包括了目标的相对角速度wd和轨迹的斜率β的目标初始信息,采用卡尔曼目标轨迹预测方法预测目标的轨迹,然后提取下一时刻目标像素的位置信息,同时输出角度信息。
找到目标可能出现的最大概率点后,激光束对该区域进行扫描。为了增大目标的捕获概率,应尽可能使目标轨迹周边的覆盖区域大,本发明进一步提出采用一种如图6所示的线型螺旋扫描方式,即控制主动探测子系统出射激光围绕预测目标位置处进行小范围的圆周运动。
在激光束对目标进行扫描捕获的过程中,被动探测子系统成像同时多次曝光,对目标轨迹和位置进行修正。当主动探测子系统的单光子探测器接收到回波信号即捕获目标后,可以慢慢减小光轴的圆周扫描半径,由扫描捕获阶段过渡到粗跟踪探测阶段。接收到激光回波信号后,记录此时的激光偏转的方位角、俯仰角和距离信息,并开始跟随目标。
图7为系统跟随目标示意图,例如本系统重心与目标的高程差为ΔH为7km,目标相对于系统做直线运动,初始距离R为15km,方向垂直于系统与目标初始位置的连线,且高度保持不变,距离门宽度为1km,观测时间为10s。
当系统捕获到目标后单光子探测器开始输出信号,由于单光子探测器是概率探测器件,只能输出信号的有无,不能输出信号的大小,同时由于噪声的干扰单光子探测器的输出的点云信号中包含大量噪声光子,如图8所示,需要将信号光子从点云中提取出来。一般的人造飞行器(比如客机)的运动方向不可能发生急速改变,在某一小段时间内一定呈近似直线运动。所以本发明提出采用霍夫直线变换的方法提取信号光子,霍夫变换原理如图9所示,通过直角坐标系到极坐标的转换,提取出的参数坐标系下直线方程为:
相对运动速度为:
具体实施时,由于存在噪声的干扰,会可能提取到多条直线,可结合一定的先验知识选取真实目标运动曲线。
通过此步骤得到得到目标t时刻与系统重心之间的方位角和俯仰角以及物体与系统重心的距离,在球坐标系下可以表示为其中R0(t)为当前目标与系统的距离,θ0(t)为当前目标与系统之间的俯仰角,为当前目标与系统的方位角。
步骤4:主控芯片根据主动探测子系统的距离数据和被动探测子系统的二维运动轨迹数据对目标的三维空间运动轨迹进行预测。同时通过预测的目标位置调整激光指向,并缩小单光子探测器的距离门,减小噪声的干扰。
通过被动探测子系统实现了对目标在像平面上的二维粗跟踪,但是由于没有像平面的准确位置信息,还需要主动探测子系统在特定角度上继续搜索目标。从图8可以看出,由于不清楚目标的具体位置,所以为了搜索目标位置主动探测子系统需要设置很宽的距离门,导致点云中包含了大量的无用的噪声数据,而且如果出现其他非目标飞行物,由于缺乏目标的真实距离数据,系统有可能会跟随错误目标,导致真正的目标丢失。
图10为球坐标系示意图,图中x,y,z为直角坐标系,R,θ,为球坐标系,假设系统重心位于球坐标系的原点,目标的初始方位角θ0,初始俯仰角可以通过系统的激光指向角得到,初始距离R0可以通过单光子测距得到。步骤4中假设目标初始位置的三维球坐标为其中R0为单光子探测器的初始测距值,则目标的三维位置矩阵可以表示为:
式中θ0(t)和是目标t时刻在以系统为原点的球坐标系下的角度方位,R0(t)是目标t时刻的距离值,wd cosβ(t)和wd sinβ(t)分别为θ和方向上的角速度,vc(t)是目标相对于系统的运动速度。那么,目标的运动模型方程满足:
式中:F为状态转移矩阵;Xt为t时刻目标位置;为t+T0时刻目标位置;G为噪声增益矩阵;Gwt为高斯过程噪声增益矩阵,根据外界环境情况确定取值,均值为零,协方差矩阵为Q的多元正态分布,表示由t时刻到t+T0时刻的不确定程度。上式体现了目标运动由t时刻到t+T0时刻的状态变化过程。
目标的测量模型可表示为:
zt=Hxt+vt
式中:zt为t时刻目标的测量状态;xt为目标的真实状态;H为测量矩阵;vt为测量过程噪声,同样为零均值的高斯白噪声,且其协方差矩阵为R。
目标由于为三维方向的线性运动,状态变量包括位置和速度,若忽略噪声,则其状态转移矩阵F为:
测量矩阵H为:
以上,目标运动模型描述了在真实情况下,目标由上一时刻到当前时刻的过程变化;观测模型描述了在当前时刻下,目标的观测状态是目标的真实状态加上噪声所组成的。
卡尔曼滤波预测的本质是根据观测值来不断的修正最优预测值,从而使得预测值能够越来越接近真实值的迭代过程。
通过上述卡尔曼滤波算法,得到预测T0时间间隔后的目标位置的球坐标为 同时为了减小背景光噪声干扰和提高程序运行速度,可根据预测位置重新设置单光子探测器的距离门。假设通过预测值得到的目标相对于系统的运动速度为vc(t+T0),则在下一个采样间隔T内系统的距离门宽度可以设置为dt+1=vc(t+T0)×T,如图11所示,其中,S是目标相对于总体系统的直线距离,T1是主动探测子系统的一次累计时间。相对于二维粗跟踪,目标三维轨迹跟踪时由于距离门变窄,噪声点云会明显减少,而且不易受其他非飞行目标的干扰。
本发明的优点在于通过主被动融合的方式完成了对超远距离外的目标探测同时通过卡尔曼滤波预测和霍夫线性变换实现了对运动目标的三维运动轨迹的预测和跟踪。
具体实施时,以上流程可采用计算机软件方式实现自动运行流程。运行流程的系统装置也应当在本发明的保护范围内。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。
Claims (7)
1.一种基于主被动融合的超远距离目标三维运动轨迹预测方法,其特征在于:基于主动探测子系统和被动探测子系统所得信息进行主被动融合,实现精准探测超远距离处的高速运动目标,预测目标在三维空间中的运动轨迹,所述主动探测子系统设置有激光器、单光子探测器和主控芯片,所述被动探测子系统设置有光学望远镜和CCD相机,主被动融合过程包括以下步骤,
步骤1,接收所需探测天区的观测指令,被动探测子系统中光学望远镜视场指向对应区域,并采取凝视转移的工作方式对探测天区进行扫描搜索目标;
步骤2,当飞行目标掠过光学望远镜的视场,并在CCD相机上留下一段目标运动轨迹,主控芯片提取出目标的二维运动轨迹,望远镜进入凝视跟踪模式;主控芯片对目标轨迹图像进行处理,提取到目标运动的方位角、俯仰角及横向速度信息,并实时传输给外设的姿态控制部件;
步骤3,经过像平面上目标轨迹预测处理,实现目标的粗跟踪,并控制激光光束指向装置搜索捕获目标,对目标进行连续的测距测速;同时被动探测子系统中光学望远镜通过不断跟踪拍摄图像,对目标轨迹进行修正;经过粗跟踪后,主动探测子系统提取到目标附近的点云数据,基于单光子探测器采用信号光子提取方式得到目标与系统之间的距离和相对运动速度,通过对主被动探测体制所获得的数据进行融合,得到目标的三维轨迹参数信息;
步骤4,主控芯片根据主动探测子系统的距离数据和被动探测子系统的二维运动轨迹数据对目标的三维空间运动轨迹进行预测,同时通过预测的目标位置调整激光指向,并缩小单光子探测器的距离门,减小噪声的干扰。
2.根据权利要求1所述基于主被动融合的超远距离目标三维运动轨迹预测方法,其特征在于:步骤1中,光学望远镜视场对探测天区进行扫描搜索目标的实现方式为,根据先验知识得到目标有可能出现的最远距离dt和最大运动速度vt,根据dt和vt选择合适的曝光时间和视场转移范围以获得更好的信噪比和探测效果,
假设目标运动速度为vt,望远镜视场角为αt,激光发散角为αr,超远距离处目标视为点目标,假设目标为圆形点目标,目标掠过激光光斑的最大时间为:
目标掠过望远镜视场的最大时间为:
目标掠过激光光斑的时间忽略不计,而在远距离的范围上望远镜的视场很大,Tt>>Tr,相机的单次曝光时间Te必须小于Tt,望远镜视场转移速度ve必须大于vt。
3.根据权利要求2所述基于主被动融合的超远距离目标三维运动轨迹预测方法,其特征在于:步骤2中目标二维运动轨迹的提取实现方式如下,
认为在较小的时间间隔内目标的运动轨迹近似为直线,假设在T时间内,目标在CCD上水平运动了X个像素,垂直运动了Y个像素,每个像素的视场角为δ,则物体运动的角速度wd为:
该角速度认为是物体三维运动矢量在像平面上的投影,同时得到该条直线与X方向的夹角β:
为了能够顺利提取物体运动的角速度和运动轨迹,合理设置光学望远镜参数使目标在像面上的成像不会分布在数个像素上而是尽量集中在一个像素之内,这样当系统和目标处于相对运动状态时,目标轨迹像将更为锐利,更加容易计算得到wd和β。
4.根据权利要求3所述基于主被动融合的超远距离目标三维运动轨迹预测方法,其特征在于:步骤3中,进行目标在像平面上的运动轨迹预测和粗跟踪,实现方式如下,
将角速度wd和轨迹的夹角β作为目标初始信息,然后通过卡尔曼滤波预测下一时刻目标像素的位置信息,同时输出角度信息;
不考虑目标与系统的距离,假设目标呈匀速直线运动,则当前目标在像平面上的位置和运动速度表示为:
通过卡尔曼滤波预测得到T0时刻后目标的角度信息,并且将角度信息反馈给光束偏转装置,控制激光束对该区域进行扫描,捕获目标,其中,T0为预测的时间。
5.根据权利要求4所述基于主被动融合的超远距离目标三维运动轨迹预测方法,其特征在于:步骤3中,为了能够在短时间内增加激光束对目标的捕获扫描概率,采用视场编码扫描方法如下,
设定激光束能够在CCD相机的整个视场里偏转,偏转分辨率为每个像素所对应的视场角度,给CCD相机的每个像素进行编码,每个像素所对应的单位视场共同构成了整个CCD相机的视场,在视场的二维平面内,每一个像素的位置都对应一个二维的角度信息;
当确定目标最有可能出现在某一像素对应区域位置时,输出该像素所对应角度信息,控制激光束对该区域进行照准;
以CCD相机视场中心作为坐标轴中心的基准点,将视场分割为四个象限,当对CCD相机所采集的图像进行分析后,能够得到终点像素的位置信息;
找到目标可能出现的最大概率点后,激光束采用线型螺旋扫描方式,对预测区域进行扫描。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010685740.9A CN111896973B (zh) | 2020-07-16 | 2020-07-16 | 基于主被动融合的超远距离目标三维运动轨迹预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010685740.9A CN111896973B (zh) | 2020-07-16 | 2020-07-16 | 基于主被动融合的超远距离目标三维运动轨迹预测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111896973A CN111896973A (zh) | 2020-11-06 |
CN111896973B true CN111896973B (zh) | 2023-01-17 |
Family
ID=73190942
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010685740.9A Expired - Fee Related CN111896973B (zh) | 2020-07-16 | 2020-07-16 | 基于主被动融合的超远距离目标三维运动轨迹预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111896973B (zh) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112748443B (zh) * | 2020-12-24 | 2023-05-09 | 华中光电技术研究所(中国船舶重工集团公司第七一七研究所) | 一种动态目标三维成像装置及方法 |
CN112904362A (zh) * | 2021-01-18 | 2021-06-04 | 中山大学 | 一种单光子探测成像一体化载荷系统及控制方法 |
CN113095576B (zh) * | 2021-04-16 | 2022-12-09 | 西安交通大学 | 一种基于多探测器的自动报靶预测算法 |
CN113376648B (zh) * | 2021-04-26 | 2023-02-03 | 上海航天控制技术研究所 | 基于激光雷达探测的高速非合作目标轨迹提取方法 |
CN113689474B (zh) * | 2021-08-26 | 2023-05-02 | 安徽工程大学 | 基于凝视跟踪一维高速运动目标系统的跟踪方法 |
CN114142943B (zh) * | 2021-10-09 | 2023-04-28 | 网络通信与安全紫金山实验室 | 单光子测距跟瞄及少光子通信一体化接收装置及方法 |
CN114157349B (zh) * | 2021-12-22 | 2023-11-24 | 中国电子科技集团公司第三十四研究所 | 一种无线光通信终端大角度范围快速捕获方法 |
CN114545428B (zh) * | 2022-03-02 | 2024-02-02 | 中国科学院光电技术研究所 | 基于单像素-单光子探测器跟踪测距激光雷达装置及方法 |
CN114549592B (zh) * | 2022-04-24 | 2022-08-05 | 之江实验室 | 一种非合作抛体的轨迹预测与捕获方法和装置 |
CN114882077A (zh) * | 2022-07-12 | 2022-08-09 | 中国工程物理研究院应用电子学研究所 | 一种目标实时跟踪控制方法及系统 |
CN115628740B (zh) * | 2022-08-11 | 2024-06-14 | 中国电子科技集团公司第十一研究所 | 动基座单探测器型复合轴激光指向系统的指向控制方法 |
CN116184427B (zh) * | 2022-12-21 | 2023-12-29 | 湖南迈克森伟电子科技有限公司 | 基于激光距离传感技术的距离探测系统 |
CN115877328B (zh) * | 2023-03-06 | 2023-05-12 | 成都鹰谷米特科技有限公司 | 一种阵列雷达的信号收发方法及阵列雷达 |
CN116202534B (zh) * | 2023-05-06 | 2023-07-21 | 山东浪潮科学研究院有限公司 | 一种隧道内定位方法、装置、设备及存储介质 |
CN117148279B (zh) * | 2023-09-05 | 2024-07-05 | 中国电子科技集团公司第三十八研究所 | 单光子激光雷达实时信号检测方法、系统和电子设备 |
CN117169915B (zh) * | 2023-09-05 | 2024-02-23 | 山西大学 | 一种远距离实时跟踪单光子特征识别和成像系统 |
CN117788583B (zh) * | 2023-12-27 | 2024-09-17 | 广东省公路建设有限公司 | 一种基于双目视觉的悬索桥索夹滑移检测方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105222772A (zh) * | 2015-09-17 | 2016-01-06 | 泉州装备制造研究所 | 一种基于多源信息融合的高精度运动轨迹检测系统 |
CN107977987A (zh) * | 2017-11-20 | 2018-05-01 | 北京理工大学 | 一种无人机载多目标探测跟踪、指示系统及方法 |
CN108089196A (zh) * | 2017-12-14 | 2018-05-29 | 中国科学院光电技术研究所 | 一种光学主被动融合的非合作目标位姿测量装置 |
CN110579775A (zh) * | 2019-10-10 | 2019-12-17 | 华中光电技术研究所(中国船舶重工集团有限公司第七一七研究所) | 超远程单光子三维激光雷达扫描成像系统 |
CN110675431A (zh) * | 2019-10-08 | 2020-01-10 | 中国人民解放军军事科学院国防科技创新研究院 | 一种融合图像和激光点云的三维多目标跟踪方法 |
CN110806586A (zh) * | 2020-01-08 | 2020-02-18 | 杭州爱莱达科技有限公司 | 无扫描线性调频连续波测速测距激光三维成像方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070222971A1 (en) * | 2006-03-22 | 2007-09-27 | Etienne Brauns | Apparatus to measure absolute velocity and acceleration |
-
2020
- 2020-07-16 CN CN202010685740.9A patent/CN111896973B/zh not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105222772A (zh) * | 2015-09-17 | 2016-01-06 | 泉州装备制造研究所 | 一种基于多源信息融合的高精度运动轨迹检测系统 |
CN107977987A (zh) * | 2017-11-20 | 2018-05-01 | 北京理工大学 | 一种无人机载多目标探测跟踪、指示系统及方法 |
CN108089196A (zh) * | 2017-12-14 | 2018-05-29 | 中国科学院光电技术研究所 | 一种光学主被动融合的非合作目标位姿测量装置 |
CN110675431A (zh) * | 2019-10-08 | 2020-01-10 | 中国人民解放军军事科学院国防科技创新研究院 | 一种融合图像和激光点云的三维多目标跟踪方法 |
CN110579775A (zh) * | 2019-10-10 | 2019-12-17 | 华中光电技术研究所(中国船舶重工集团有限公司第七一七研究所) | 超远程单光子三维激光雷达扫描成像系统 |
CN110806586A (zh) * | 2020-01-08 | 2020-02-18 | 杭州爱莱达科技有限公司 | 无扫描线性调频连续波测速测距激光三维成像方法及装置 |
Non-Patent Citations (1)
Title |
---|
对地观测星载激光测高仪在轨姿态系统误差检校方法;马跃等;《红外与激光工程》;20150831;第44卷(第8期);2401-2405 * |
Also Published As
Publication number | Publication date |
---|---|
CN111896973A (zh) | 2020-11-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111896973B (zh) | 基于主被动融合的超远距离目标三维运动轨迹预测方法 | |
CN108490446B (zh) | 一种光电三坐标搜索跟踪装置及方法 | |
US9759605B2 (en) | Low-orbit satellite-borne image-spectrum associated detection method and payload | |
US7417717B2 (en) | System and method for improving lidar data fidelity using pixel-aligned lidar/electro-optic data | |
CN108037499B (zh) | 一种光电毫米波三坐标搜索跟踪装置及方法 | |
CN106707261B (zh) | 一种大气探测激光雷达ccd成像自动对光方法 | |
EP0603003A1 (en) | An integrated LADAR/FLIR sensor | |
Opromolla et al. | Visual-based obstacle detection and tracking, and conflict detection for small UAS sense and avoid | |
US20090201486A1 (en) | Scanned laser detection and ranging apparatus | |
CN108008375B (zh) | 一种光电毫米波搜索跟踪装置及方法 | |
JP6233606B2 (ja) | 目標識別レーザ観測システム | |
CN102324962A (zh) | 一种卫星光通信捕获跟踪处理方法 | |
CN109573088A (zh) | 一种舰载无人机光电引导着舰系统及着舰方法 | |
CN104977708A (zh) | 多光谱共口径光学系统 | |
US20210231945A1 (en) | Hybrid lidar system | |
CN114296072B (zh) | 一种反无人机多光谱探测跟踪方法 | |
CN106569206A (zh) | 一种基于微波光学复合的目标探测方法 | |
CN112098343A (zh) | 基于etl新型自对焦一体化高光谱成像探测系统 | |
CN108305290B (zh) | 一种动目标的精确测谱方法 | |
CN111693966B (zh) | 一种天文定位的激光雷达的视场匹配装置及方法 | |
González et al. | Vision-based UAV detection for air-to-air neutralization | |
CN111595444B (zh) | 一种运动目标光谱跟踪测量遥感系统以及方法 | |
CN109407166A (zh) | 一种激光自动扫描探测方法及装置 | |
Pack et al. | Eyesafe ladar testbed with coaxial color imager | |
CN113188508B (zh) | 高精度测角和测距望远镜系统以及测角和测距方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20230117 |