CN112444374A - 一种基于光学跟踪测量设备伺服系统的跟踪评估方法 - Google Patents

一种基于光学跟踪测量设备伺服系统的跟踪评估方法 Download PDF

Info

Publication number
CN112444374A
CN112444374A CN202010986767.1A CN202010986767A CN112444374A CN 112444374 A CN112444374 A CN 112444374A CN 202010986767 A CN202010986767 A CN 202010986767A CN 112444374 A CN112444374 A CN 112444374A
Authority
CN
China
Prior art keywords
tracking
target
azimuth
miss distance
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010986767.1A
Other languages
English (en)
Other versions
CN112444374B (zh
Inventor
胡长德
海书亮
刘强
刘浩
耿华芳
李竟然
丁萌
李子杨
朱荣臻
李�荣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pla Strategic Support Force Aerospace Engineering University Sergeant School
Original Assignee
Pla Strategic Support Force Aerospace Engineering University Sergeant School
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pla Strategic Support Force Aerospace Engineering University Sergeant School filed Critical Pla Strategic Support Force Aerospace Engineering University Sergeant School
Priority to CN202010986767.1A priority Critical patent/CN112444374B/zh
Publication of CN112444374A publication Critical patent/CN112444374A/zh
Application granted granted Critical
Publication of CN112444374B publication Critical patent/CN112444374B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M11/00Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
    • G01M11/02Testing optical properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于光学跟踪测量设备伺服系统的跟踪评估方法,该方法包括:基于目标特性及所述目标所处的背景特性,选择跟踪方式,所述跟踪方式包括电视自动跟踪方式和多传感器融合跟踪方式;基于选择的跟踪方式进行目标跟踪,获取在目标跟踪过程中N帧连续跟踪图像;基于所述N帧连续跟踪图像,获取目标的中心偏离视场中心的方位脱靶量ΔAi和俯仰脱靶量ΔEi;基于方位脱靶量ΔAi和俯仰脱靶量ΔEi,获取方位脱靶量均值
Figure DDA0002689309640000011
俯仰脱靶量均值
Figure DDA0002689309640000012
方位脱靶量均值标准差σA和俯仰脱靶量标准差σE;评估目标跟踪精度。本发明可根据不同的目标类型选择自动跟踪精度更高的方式去跟踪目标,能够对不同的光学跟踪测量设备的伺服系统跟踪精度进行评估。

Description

一种基于光学跟踪测量设备伺服系统的跟踪评估方法
技术领域
本说明书涉及目标跟踪领域,特别是一种基于光学跟踪测量设备伺服系统的跟踪评估方法。
背景技术
光电跟踪测量设备能够动态、实时地跟踪目标并记录下跟踪期间每一时刻目标运动的连续序列图像,同时具有测量精度高、所受干扰少、能够获取目标辐射特性参数等优点,因而在航空、航天、靶场测控系统等军事及科研领域中有着十分广泛的应用。而这一切的前提是对目标的成功捕获,随着自动跟踪技术的发展和提高,电视自动跟踪(包括形心、质心、相关、边缘等方式)、融合跟踪越来越多的在任务中使用,电视跟踪技术是指利用电视摄像机摄取场景的可见光图像,由图像处理和跟踪算法对所研究场景内的给定子图区域进行匹配和定位,以及由随动系统实现实时自动瞄准过程的技术。电视跟踪采用的算法有波门视频跟踪、边角跟踪、形心跟踪和相关跟踪等。上述这些算法在抗干扰性能、算法复杂性、实用性、自适应能力、对图像尺寸溢出波门的适应性等指标上各有其优缺点,可在跟踪过程中的不同阶段选用。对于同样的飞行器目标,或者对于不同的设备在同样的跟踪方式下,为了达到自动选择精度更高的跟踪方式的目的,就需要对光学跟踪测量设备伺服系统的跟踪精度进行精确的评估。
发明内容
本说明书实施例的目的在于,提供了一种基于光学跟踪测量设备伺服系统的跟踪评估方法,能够更准确评估电视自动跟踪系统的跟踪精度,更准确评估多传感器融合跟踪系统的跟踪精度,能够对不同的光学跟踪测量设备的伺服系统跟踪精度进行评估,能够根据不同的目标类型选择自动跟踪精度更高的方式去跟踪目标。
为达到上述目的,一方面,本说明书实施例提供了一种基于光学跟踪测量设备伺服系统的跟踪评估方法,包括:
基于目标特性及所述目标所处的背景特性,选择跟踪方式,所述跟踪方式包括电视自动跟踪方式和多传感器融合跟踪方式;
基于选择的跟踪方式进行目标跟踪,获取在目标跟踪过程中N帧连续跟踪图像;
基于所述N帧连续跟踪图像,获取目标的中心偏离视场中心的方位脱靶量ΔAi和俯仰脱靶量ΔEi,其中i为自然数且1≤i≤N;
基于方位脱靶量ΔAi和俯仰脱靶量ΔEi,获取方位脱靶量均值
Figure BDA0002689309620000021
俯仰脱靶量均值
Figure BDA0002689309620000022
方位脱靶量均值标准差σA和俯仰脱靶量标准差σE
基于所述方位脱靶量均值标准差σA和俯仰脱靶量标准差σE,评估目标跟踪精度。
由以上本说明书实施例提供的技术方案可见,本发明能够更准确评估电视自动跟踪系统的跟踪精度,更准确评估多传感器融合跟踪系统的跟踪精度,能够对不同的光学跟踪测量设备的伺服系统跟踪精度进行评估,能够根据不同的目标类型选择自动跟踪精度更高的方式去跟踪目标。
附图说明
图1为本说明书一些实施例的基于光学跟踪测量设备伺服系统的跟踪评估方法的流程图。
图2为相关技术中的电视自动跟踪原理框图。
图3为第i帧图像目标方位俯仰角、实测值与视场示意图。
具体实施方式
为了使本技术领域的人员更好地理解本说明书中的技术方案,下面将结合本说明书实施例中的附图,对本说明书实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本说明书保护的范围。
如图1所示,本说明书一些实施例中提供了一种基于光学跟踪测量设备伺服系统的跟踪评估方法,该方法包括以下步骤:
S102、基于目标特性及所述目标所处的背景特性,选择跟踪方式,所述跟踪方式包括电视自动跟踪方式和多传感器融合跟踪方式;
S104、基于选择的跟踪方式进行目标跟踪,获取在目标跟踪过程中N帧连续跟踪图像;
S106、基于所述N帧连续跟踪图像,获取目标的中心偏离视场中心的方位脱靶量ΔAi和俯仰脱靶量ΔEi,其中i为自然数且1≤i≤N;
S108、基于方位脱靶量ΔAi和俯仰脱靶量ΔEi,获取方位脱靶量均值
Figure BDA0002689309620000031
俯仰脱靶量均值
Figure BDA0002689309620000032
方位脱靶量均值标准差σA和俯仰脱靶量标准差σE;基于所述方位脱靶量均值标准差σA和俯仰脱靶量标准差σE,评估目标跟踪精度。
在本说明书一些实施例中,当目标与背景的对比度强时,选择电视跟踪模式;所述电视跟踪模式包括质心跟踪模式、形心跟踪模式、相关跟踪模式和人工跟踪模式。
在本说明书一些实施例中,当目标为几何对称图形时,选择形心跟踪模式,所述几何对称图形包括圆、椭圆和矩形等;当目标为亮度非均匀分布的灰度目标时,选择质心跟踪模式,所述目标包括火箭、曳光管火团、距离较远的弹;当目标属于不规则目标时,选择相关跟踪模式,所述不规则目标包括飞机、舰艇等;当目标图像背景复杂或判读效率和判读速度无法满足要求时,选择人工跟踪模式。
在本说明书一些实施例中,当选择形心跟踪模式时,进行亚像素定位,采用最大类间方差方法进行二值化处理,并且对边界毛刺进行滤波处理;当选择相关跟踪模式时,在目标区域上选定特征点,将所述选定特征点在所述目标区域里按目标大小可调的窗口保存作为匹配模板,基于所述匹配模板进行判读。
在本说明书一些实施例中,当目标图像包含丰富的特征信息且只依赖目标单一特征及单一传感器进行闭环跟踪难以保证复杂背景下的跟踪稳定性时,选择多传感器融合跟踪方式。
在本说明书一些实施例中,当选择多传感器融合跟踪方式时,主要包括以下步骤:基于多特征融合获取目标可信度,具体为,基于图像处理器计算并给出跟踪窗口对象的统计特征,基于所述统计特征和融合计算机,进行多特征融合得到跟踪窗口对象是目标的可信度;基于多传感器数据融合,获取目标运动航迹,具体为,融合计算机基于获取的各传感器的所述目标可信度,对图像处理器计算并给出的跟踪对象位置、编码器信息进行多传感器数据融合,获取目标运动航迹。
在本说明书一些实施例中,当传感器的所述目标可信度低时,停止所述传感器的数据进行航迹更新和航迹融合;当传感器的所述目标可信度不确定时,维持所述传感器的数据的航迹更新但停止航迹融合;当传感器的所述目标可信度高时,维持所述传感器的数据的航迹更新和航迹关联。
在本说明书一些实施例中,在多传感器数据融合前进行时间对齐,具体为,设置接收编码器数据时刻为伺服系统工作时间基准;基于卡尔曼滤波器的预测方程和误差协方差矩阵同步其它传感器的观测数据到所述时间基准。
在本说明书一些实施例中,获取电视传感器tj时刻得到的真点迹x(tj);基于所述卡尔曼滤波器的预测方程得到tj时刻的目标滤波点迹
Figure BDA0002689309620000041
经过一个电视采样周期T后,获取电视传感器得到的tj+T时刻的目标点迹x(tj+T);基于所述卡尔曼滤波器的预测方程得到tj+T时刻的目标预测点迹
Figure BDA0002689309620000042
以所述目标预测点迹
Figure BDA0002689309620000043
为中心,设置矩形关联门,若所述目标点迹x(tj+T)落在关联门内,则认为所述目标点迹x(tj+T)是真点迹,否则认为所述目标点迹x(tj+T)是假点迹。
在本说明书一些实施例中,所述基于所述N帧连续跟踪图像,获取目标的中心偏离视场中心的方位脱靶量ΔAi和俯仰脱靶量ΔEi,具体为,获取在目标跟踪过程中N帧连续跟踪图像,每帧所述图像之间的时间间隔均为Δt,获取跟踪设备的视场大小X0×Y0和像素数M0×N0,其中,X0为方位方向视场大小,Y0为俯仰方向视场大小,M0为方位像素数,N0为俯仰像素数;获取所述N帧连续跟踪图像的视场中心的实测方位值Ai和实测俯仰值Ei,其中i为自然数且1≤i≤N;获取所述N帧连续跟踪图像中的目标方位值Ai目和目标俯仰值Ei目;获取所述被跟踪目标偏离视场中心的方位方向偏移像素数ΔMi和俯仰方向偏移像素数ΔNi,其中所述ΔMi和所述ΔNi在以视场中心为原点所形成的虚拟坐标系中有正负之分;基于所述方位方向偏移像素数ΔMi和所述俯仰方向偏移像素数ΔNi,计算目标的中心偏离视场中心的方位脱靶量ΔAi和俯仰脱靶量ΔEi,具体为:
Figure BDA0002689309620000044
Figure BDA0002689309620000045
在本说明书一些实施例中,所述基于方位脱靶量ΔAi和俯仰脱靶量ΔEi,获取方位脱靶量均值
Figure BDA0002689309620000046
俯仰脱靶量均值
Figure BDA0002689309620000047
方位脱靶量均值标准差σA和俯仰脱靶量标准差σE,具体为,
计算N帧判读数据的方位脱靶量均值
Figure BDA0002689309620000048
和俯仰脱靶量均值
Figure BDA0002689309620000049
Figure BDA0002689309620000051
其中i为自然数且1≤i≤N;
计算方位脱靶量均值标准差和俯仰脱靶量标准差;
Figure BDA0002689309620000052
在本说明书一些实施例中,所述基于所述方位脱靶量均值标准差σA和俯仰脱靶量标准差σE,评估目标跟踪精度,具体为,基于σA数值大小、σE数值大小以及(σAE)数值大小来进行跟踪精度评估,σA数值、σE数值以及(σAE)数值越小,跟踪精度越高。
结合图1至图3细化解释本发明方案如下:
电视自动跟踪时,电视系统将视场中目标某一位置(形心、质心、相关)与视场中心位置的偏差形成脱靶量传送给伺服控制器。控制器对接收的脱靶量进行位置回路和速度回路的调节运算后产生控制信号送往功率级。此外在电视跟踪时由于脱靶量的滞后,通常在需要的情况下还会在速度回路中加入速度滞后补偿甚至加速度滞后补偿环节,以弥补脱靶量的滞后影响,提高跟踪精度。电视自动跟踪控制原理框图如图2所示。
虽然引入了速度滞后补偿甚至加速度滞后补偿环节,电视自动跟踪仍然无法做到目标某一位置(形心、质心、相关)处于视场中心,因此通过自动事后数据图像进行判读,就可获得电视自动跟踪方式下光学跟踪测量设备伺服系统的跟踪精度,判读方式必须与电视自动跟踪方式一样。可采用程序自动判读,也可以通过人工方式进行判读。
判读过程原理如下:获取在目标跟踪过程中N帧连续跟踪图像,每帧所述图像之间的时间间隔均为Δt,获取跟踪设备的视场大小X0×Y0和像素数M0×N0,其中,X0为方位方向视场大小,Y0为俯仰方向视场大小,M0为方位像素数,N0为俯仰像素数,所述结果参数包括在所述N帧连续跟踪图像的视场中心的实测方位值Ai和实测俯仰值Ei,其中i为自然数且1≤i≤N。所述目标参数包括在所述N帧连续跟踪图像中的所述被跟踪目标上某一点(形心、质心、相关)的目标方位值Ai目和目标俯仰值Ei目。获取所述被跟踪目标偏离视场中心的方位方向偏移像素数ΔMi和俯仰方向偏移像素数ΔNi,其中所述ΔMi和所述ΔNi在以视场中心为原点所形成的虚拟坐标系中有正负之分,如图3所示。基于所述方位方向偏移像素数ΔMi和所述俯仰方向偏移像素数ΔNi,计算所述被跟踪目标的中心偏离视场中心的方位脱靶量ΔAi和俯仰脱靶量ΔEi,具体为:
Figure BDA0002689309620000061
所述目标方位值Ai目和所述目标俯仰值Ei目基于所述实测方位值Ai和实测俯仰值Ei得出,具体为Ai目=Ai+ΔAi,Ei目=Ei+ΔEi
针对各判读方式详细阐述如下:
1.形心判读
在图像质量好、目标与背景对比度强的情况下,脱靶量判读通常采用自动判读的方式。在目标为圆、椭圆和矩形等中心对称时,通常采用形心方式进行亚像素定位。采用改进的最大类间方差方法进行二值化处理,并且对边界毛刺进行滤波处理,此种方法的判读精度可达到0.25个像素,并且此种方法处理速度较快。
2.质心判读
对于曳光管火团、方位标、距离较远的弹等对称目标适合采用质心法,对于飞机、舰艇等不规则目标适合于采用相关方法,由于靶场图像背景比较复杂,因此,对于整幅图像进行处理必然受到复杂背景的干扰,因此,应当仅仅对包含目标的小区域进行处理,以提高定位精度,在目标区域的确定方法上采用大角度引导的方法,即将已判读的综合角度进行拟合,预测下一个点的综合角度,然后,对此点的角度值进行反算,以求出此点的脱靶量值,以此点为中心取一定区域进行定位处理。
3.相关判读
由于目标喷火等情况的影响,目标点不一定是目标区域的质心。这时,可由具有经验的操作员在目标区域上选定特征点,将此点在目标区域里按目标大小可调的窗口保存作为匹配模板,以后的判读则根据此匹配模板进行。为了提高匹配速度,进行先大范围搜索,确定区域后小范围精确搜索的金字塔式搜索方式。采用相关算法,定位目标特征点,此种算法复杂计算量大,速度慢,定位精度达0.25个像素。
4.人工判读
在目标图像背景复杂情况下,图像处理算法很难准确实现目标与背景分割,或因处理消耗时间过长使判读效率降低,而且判读精度也达不到测量要求。此时可采用人工判读方式,由操作员利用鼠标在目标图像上选择特征点作为测点,实现“可见即可判”。在目标背景复杂时采用人工方式定位,在目标放大情况下,定位精度可达0.25个像素。
下面针对多传感器融合跟踪方式细化解释如下:
随着武器试验任务要求的不断提高,对光学跟踪测量系统具备复杂背景下跟踪能力的需求也越来越强烈,只依赖目标单一特征(如灰度、边缘)及单一传感器进行闭环跟踪难以保证复杂背景下的跟踪稳定性,比如使用形心方式进行目标跟踪时,航道上的云层很容易被误判成目标而造成跟踪中断。事实上,目标图像包含着丰富的特征信息,如灰度、尺寸、形状、颜色等,综合这些多特征信息对目标识别结果进行判断,可以有效降低将背景对象误当作目标的概率。另外,大多数现代光电跟踪测量系统都安装有多个传感器,它们在不同光谱段完成目标探测,综合多个传感器的目标探测结果,可以进一步提高复杂背景目标跟踪能力。目前,光电设备大多可以采用多特征多传感器数据融合,通过数据融合,有效提高复杂背景下目标跟踪稳定性。
数据融合过程分为两个层次:特征层和决策层。在特征层面上,对于每单个传感器,图像处理器计算并给出跟踪窗口对象灰度、尺寸、高阶矩、直方图统计特征等信息,融合计算机据此进行多特征融合得到跟踪窗口对象是目标的可信度并送至决策层。在决策层面上,融合计算机依据各传感器目标的可信度,对图像处理器计算并给出的跟踪对象位置、编码器信息进行多传感器数据融合,得到稳定的目标运动航迹用于伺服系统闭环跟踪,同时计算下一时刻目标在各传感器视场预期位置并送至图像处理器用于确定跟踪窗口。
多传感器融合则是对多个传感器数据进一步进行融合处理,它根据多特征融合判决结果,对各传感器的探测目标建立并维持相应航迹,之后经过航迹关联将相似的航迹按某种方式综合起来得到稳定的目标运动航迹。当存在目标的实时引导信息或理论弹道引导信息时,多传感器融合还进行引导数据实时修正,可以在多个传感器均无法探测目标情形能利用引导信息维持目标航迹以便重新快速捕获目标。
多传感器融合需要利用多特征融合判决结果,在目标可信度低时,对该传感器数据停止航迹更新和参与航迹融合;在目标可信度不确定时,对该传感器数据维持航迹更新但不参与航迹融合;在目标可信度高时,对该传感器数据维持航迹更新并参与航迹关联。多传感器融合在建立并维持目标航迹主要步骤有:时间同步及量纲对准、数据关联、状态估计、航迹关联、引导数据修正,细化解释如下:
1.时间同步及量纲对准
伺服系统接收电视处理器等多传感器数据源和引导信息源,但各传感器的工作频率及处理时间不同,观测的数据存在时间差,因此在融合前必须进行时间对齐。考虑到编码器的采样频率最高,忽略数据传输延迟,以接收编码器数据时刻为伺服系统工作时间基准,其它传感器的观测数据同步到该时间基准上来,同步方法采用卡尔曼滤波器的预测方程和误差协方差矩阵。
假定在ti时刻得到第k个电视传感器在tj时刻的脱靶量Δkj,则可将tj时刻的编码器值与脱靶量相加后得到带有观测误差的目标位置值xk(tj),利用卡尔曼滤波方程求得该时刻目标状态的滤波估计
Figure BDA0002689309620000081
后,则目标状态估计的同步方程:
Figure BDA0002689309620000082
协方差的同步方程:
Figure BDA0002689309620000083
根据上述两式得到
Figure BDA0002689309620000084
和Pk(ti|tj)后,即可根据加权航迹融合算法,忽略各传感器之间的互协方差,得到目标的融合轨迹:
Figure BDA0002689309620000085
Figure BDA0002689309620000086
量纲对准就是把各传感器的数据进行量纲统一,量纲统一基准为角秒。
2.数据关联
数据关联就是把来自多个传感器的观测点迹按最大概率归类到几个不同的事件集合中。由于经纬仪上的多个传感器通常是对同一个目标进行跟踪,因此只有一个事件集合也就是目标点迹形成的航迹,数据关联问题也就变得十分简单,实质上就是判断观测点迹是航迹上的真点迹还是噪声造成的假点迹,如果是真点迹则更新目标的航迹,如果是假点迹则予以剔除。
同样假定电视传感器tj时刻得到的点迹x(tj)为真点迹,则根据卡尔曼滤波方程可得到tj时刻的目标滤波点迹
Figure BDA00026893096200000810
经过一个电视采样周期T后,电视传感器得到tj+T时刻的目标点迹x(tj+T),这时就需要判断该时刻点迹是否为真点迹。具体做法是利用卡尔曼预测方程得到tj+T时刻的目标预测点迹
Figure BDA0002689309620000087
然后以该预测点迹为中心,设置一关联门,目标点迹落在关联门内,则认为是真点迹,否则认为是假点迹。为简单起见,通常选取矩形关联门,此时判定准则为:
Figure BDA0002689309620000088
Figure BDA0002689309620000089
针对跟踪精度评估而言,多传感器融合跟踪方式的跟踪精度评估方法同电视自动跟踪方式的跟踪精度评估方法。即:由上述判读连续N帧跟踪目标的中心偏离视场中心的数据:方位脱靶量ΔAi和俯仰脱靶量ΔEi。首先计算N帧判读数据的方位脱靶量均值
Figure BDA0002689309620000091
和俯仰脱靶量均值
Figure BDA0002689309620000092
其中
Figure BDA0002689309620000093
其中i为自然数且1≤i≤N。而后计算方位脱靶量均值标准差和俯仰脱靶量标准差,
Figure BDA0002689309620000094
最后根据σA数值大小、σE数值大小以及(σAE)数值大小来评判电视自动跟踪方式或多传感器融合跟踪方式的跟踪精度评估,标准差越小,跟踪误差越小,跟踪精度越高。
虽然上文描述的过程流程包括以特定顺序出现的多个操作,但是,应当清楚了解,这些过程可以包括更多或更少的操作,这些操作可以顺序执行或并行执行(例如使用并行处理器或多线程环境)。本发明是参照根据本发明实施例的方法的流程图和/或方框图来描述的。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于方法实施例而言,由于其基本相似于装置实施例,所以描述的比较简单,相关之处参见装置实施例的部分说明即可。以上仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。

Claims (12)

1.一种基于光学跟踪测量设备伺服系统的跟踪评估方法,其特征在于,所述方法包括:
基于目标特性及所述目标所处的背景特性,选择跟踪方式,所述跟踪方式包括电视自动跟踪方式和多传感器融合跟踪方式;
基于选择的跟踪方式进行目标跟踪,获取在目标跟踪过程中N帧连续跟踪图像;
基于所述N帧连续跟踪图像,获取目标的中心偏离视场中心的方位脱靶量ΔAi和俯仰脱靶量ΔEi,其中i为自然数且1≤i≤N;
基于方位脱靶量ΔAi和俯仰脱靶量ΔEi,获取方位脱靶量均值
Figure FDA0002689309610000011
俯仰脱靶量均值
Figure FDA0002689309610000012
方位脱靶量均值标准差σA和俯仰脱靶量标准差σE
基于所述方位脱靶量均值标准差σA和俯仰脱靶量标准差σE,评估目标跟踪精度。
2.根据权利要求1所述的基于光学跟踪测量设备伺服系统的跟踪评估方法,其特征在于,
当目标与背景的对比度强时,选择电视跟踪模式;
所述电视跟踪模式包括质心跟踪模式、形心跟踪模式、相关跟踪模式和人工跟踪模式。
3.根据权利要求2所述的基于光学跟踪测量设备伺服系统的跟踪评估方法,其特征在于,
当目标为几何对称图形时,选择形心跟踪模式,所述几何对称图形包括圆、矩形;
当目标为亮度非均匀分布的灰度目标时,选择质心跟踪模式,所述目标包括火箭、曳光管火团、距离较远的弹;
当目标属于不规则目标时,选择相关跟踪模式,所述不规则目标包括飞机、舰艇;
当目标图像背景复杂或判读效率和判读速度无法满足要求时,选择人工跟踪模式。
4.根据权利要求3所述的基于光学跟踪测量设备伺服系统的跟踪评估方法,其特征在于,
当选择形心跟踪模式时,进行亚像素定位,采用最大类间方差方法进行二值化处理,并且对边界毛刺进行滤波处理;
当选择相关跟踪模式时,在目标区域上选定特征点,将所述选定特征点在所述目标区域里按目标大小可调的窗口保存作为匹配模板,基于所述匹配模板进行判读。
5.根据权利要求1所述的基于光学跟踪测量设备伺服系统的跟踪评估方法,其特征在于,
当目标图像包含丰富的特征信息且只依赖目标单一特征及单一传感器进行闭环跟踪难以保证复杂背景下的跟踪稳定性时,选择多传感器融合跟踪方式。
6.根据权利要求5所述的基于光学跟踪测量设备伺服系统的跟踪评估方法,其特征在于,
当选择多传感器融合跟踪方式时,主要包括以下步骤:
基于多特征融合获取目标可信度,具体为,基于图像处理器计算并给出跟踪窗口对象的统计特征,基于所述统计特征和融合计算机,进行多特征融合得到跟踪窗口对象是目标的可信度;
基于多传感器数据融合,获取目标运动航迹,具体为,融合计算机基于获取的各传感器的所述目标可信度,对图像处理器计算并给出的跟踪对象位置、编码器信息进行多传感器数据融合,获取目标运动航迹。
7.根据权利要求6所述的基于光学跟踪测量设备伺服系统的跟踪评估方法,其特征在于,
当传感器的所述目标可信度低时,停止所述传感器的数据进行航迹更新和航迹融合;当传感器的所述目标可信度不确定时,维持所述传感器的数据的航迹更新但停止航迹融合;当传感器的所述目标可信度高时,维持所述传感器的数据的航迹更新和航迹关联。
8.根据权利要求7所述的基于光学跟踪测量设备伺服系统的跟踪评估方法,其特征在于,
在多传感器数据融合前进行时间对齐,具体为,
设置接收编码器数据时刻为伺服系统工作时间基准;
基于卡尔曼滤波器的预测方程和误差协方差矩阵同步其它传感器的观测数据到所述时间基准。
9.根据权利要求8所述的基于光学跟踪测量设备伺服系统的跟踪评估方法,其特征在于,
获取电视传感器tj时刻得到的真点迹x(tj);
基于所述卡尔曼滤波器的预测方程得到tj时刻的目标滤波点迹
Figure FDA0002689309610000021
经过一个电视采样周期T后,获取电视传感器得到的tj+T时刻的目标点迹x(tj+T);
基于所述卡尔曼滤波器的预测方程得到tj+T时刻的目标预测点迹
Figure FDA0002689309610000022
以所述目标预测点迹
Figure FDA0002689309610000031
为中心,设置矩形关联门,若所述目标点迹x(tj+T)落在关联门内,则认为所述目标点迹x(tj+T)是真点迹,否则认为所述目标点迹x(tj+T)是假点迹。
10.根据权利要求1所述的基于光学跟踪测量设备伺服系统的跟踪评估方法,其特征在于,
所述基于所述N帧连续跟踪图像,获取目标的中心偏离视场中心的方位脱靶量ΔAi和俯仰脱靶量ΔEi,具体为,
获取在目标跟踪过程中N帧连续跟踪图像,每帧所述图像之间的时间间隔均为Δt,获取跟踪设备的视场大小X0×Y0和像素数M0×N0,其中,X0为方位方向视场大小,Y0为俯仰方向视场大小,M0为方位像素数,N0为俯仰像素数;
获取所述N帧连续跟踪图像的视场中心的实测方位值Ai和实测俯仰值Ei,其中i为自然数且1≤i≤N;
获取所述N帧连续跟踪图像中的目标方位值Ai目和目标俯仰值Ei目
获取所述被跟踪目标偏离视场中心的方位方向偏移像素数ΔMi和俯仰方向偏移像素数ΔNi,其中所述ΔMi和所述ΔNi在以视场中心为原点所形成的虚拟坐标系中有正负之分;
基于所述方位方向偏移像素数ΔMi和所述俯仰方向偏移像素数ΔNi,计算目标的中心偏离视场中心的方位脱靶量ΔAi和俯仰脱靶量ΔEi,具体为:
Figure FDA0002689309610000032
11.根据权利要求1所述的基于光学跟踪测量设备伺服系统的跟踪评估方法,其特征在于,
所述基于方位脱靶量ΔAi和俯仰脱靶量ΔEi,获取方位脱靶量均值
Figure FDA0002689309610000033
俯仰脱靶量均值
Figure FDA0002689309610000034
方位脱靶量均值标准差σA和俯仰脱靶量标准差σE,具体为,
计算N帧判读数据的方位脱靶量均值
Figure FDA0002689309610000041
和俯仰脱靶量均值
Figure FDA0002689309610000042
Figure FDA0002689309610000043
其中i为自然数且1≤i≤N;
计算方位脱靶量均值标准差和俯仰脱靶量标准差;
Figure FDA0002689309610000044
12.根据权利要求11所述的基于光学跟踪测量设备伺服系统的跟踪评估方法,其特征在于,
所述基于所述方位脱靶量均值标准差σA和俯仰脱靶量标准差σE,评估目标跟踪精度,具体为,基于σA数值大小、σE数值大小以及(σAE)数值大小来进行跟踪精度评估,σA数值、σE数值以及(σAE)数值越小,跟踪精度越高。
CN202010986767.1A 2020-09-18 2020-09-18 一种基于光学跟踪测量设备伺服系统的跟踪评估方法 Active CN112444374B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010986767.1A CN112444374B (zh) 2020-09-18 2020-09-18 一种基于光学跟踪测量设备伺服系统的跟踪评估方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010986767.1A CN112444374B (zh) 2020-09-18 2020-09-18 一种基于光学跟踪测量设备伺服系统的跟踪评估方法

Publications (2)

Publication Number Publication Date
CN112444374A true CN112444374A (zh) 2021-03-05
CN112444374B CN112444374B (zh) 2022-10-11

Family

ID=74735491

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010986767.1A Active CN112444374B (zh) 2020-09-18 2020-09-18 一种基于光学跟踪测量设备伺服系统的跟踪评估方法

Country Status (1)

Country Link
CN (1) CN112444374B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113446902A (zh) * 2021-07-07 2021-09-28 中国人民解放军32382部队 一种自动对消测角误差的防空导弹的外弹道监测系统
CN114281110A (zh) * 2021-11-27 2022-04-05 中国航空工业集团公司洛阳电光设备研究所 一种基于路径预测的伺服记忆跟踪实现方法
CN115359048A (zh) * 2022-10-19 2022-11-18 中国工程物理研究院应用电子学研究所 一种基于闭环跟瞄的实时动态对准测量方法及跟瞄装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4539590A (en) * 1983-03-08 1985-09-03 Gage Richard J Method and apparatus for processing optical tracking signals
CN102096925A (zh) * 2010-11-26 2011-06-15 中国科学院上海技术物理研究所 一种机动目标的实时闭环预测跟踪方法
CN106227035A (zh) * 2016-09-05 2016-12-14 中国科学院光电技术研究所 一种运动平台小型光电系统高精度跟瞄控制方法
CN110032220A (zh) * 2019-04-08 2019-07-19 中国科学院光电技术研究所 一种基于传感器与模型融合的加速度前馈方法
CN110428008A (zh) * 2019-08-02 2019-11-08 深圳市唯特视科技有限公司 一种基于多融合传感器的目标探测与识别装置和方法
CN111664867A (zh) * 2020-04-26 2020-09-15 中国人民解放军战略支援部队航天工程大学士官学校 一种目标跟踪结果的评估方法、装置、设备及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4539590A (en) * 1983-03-08 1985-09-03 Gage Richard J Method and apparatus for processing optical tracking signals
CN102096925A (zh) * 2010-11-26 2011-06-15 中国科学院上海技术物理研究所 一种机动目标的实时闭环预测跟踪方法
CN106227035A (zh) * 2016-09-05 2016-12-14 中国科学院光电技术研究所 一种运动平台小型光电系统高精度跟瞄控制方法
CN110032220A (zh) * 2019-04-08 2019-07-19 中国科学院光电技术研究所 一种基于传感器与模型融合的加速度前馈方法
CN110428008A (zh) * 2019-08-02 2019-11-08 深圳市唯特视科技有限公司 一种基于多融合传感器的目标探测与识别装置和方法
CN111664867A (zh) * 2020-04-26 2020-09-15 中国人民解放军战略支援部队航天工程大学士官学校 一种目标跟踪结果的评估方法、装置、设备及存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
单海蛟等: "多传感器自主跟踪中的数据融合方法", 《液晶与显示》 *
廖莎等: "星载光电跟踪系统跟踪精度分析", 《现代电子技术》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113446902A (zh) * 2021-07-07 2021-09-28 中国人民解放军32382部队 一种自动对消测角误差的防空导弹的外弹道监测系统
CN114281110A (zh) * 2021-11-27 2022-04-05 中国航空工业集团公司洛阳电光设备研究所 一种基于路径预测的伺服记忆跟踪实现方法
CN114281110B (zh) * 2021-11-27 2023-12-22 中国航空工业集团公司洛阳电光设备研究所 一种基于路径预测的伺服记忆跟踪实现方法
CN115359048A (zh) * 2022-10-19 2022-11-18 中国工程物理研究院应用电子学研究所 一种基于闭环跟瞄的实时动态对准测量方法及跟瞄装置
CN115359048B (zh) * 2022-10-19 2023-01-31 中国工程物理研究院应用电子学研究所 一种基于闭环跟瞄的实时动态对准测量方法及跟瞄装置

Also Published As

Publication number Publication date
CN112444374B (zh) 2022-10-11

Similar Documents

Publication Publication Date Title
CN112444374B (zh) 一种基于光学跟踪测量设备伺服系统的跟踪评估方法
US11392146B2 (en) Method for detecting target object, detection apparatus and robot
CN101676744B (zh) 一种复杂背景低信噪比下弱小目标高精度跟踪方法
CN107817679B (zh) 基于红外与可见光融合跟踪的舰船水炮控制系统及方法
CN100565244C (zh) 多模多目标精密跟踪装置和方法
CN101511022B (zh) 一种机载视频压缩与目标跟踪联合实现方法
CN105225251B (zh) 基于机器视觉的超视距海上运动目标快速识别与定位装置及方法
AU2013343222A1 (en) Cloud feature detection
CN102447835A (zh) 无盲区多目标协同跟踪方法及系统
CN112991391A (zh) 一种基于雷达信号和视觉融合的车辆检测与跟踪方法
US8831284B2 (en) Object identification from image data captured from a mobile aerial platforms
CN111709968B (zh) 一种基于图像处理的低空目标探测跟踪方法
CN109697428B (zh) 基于rgb_d和深度卷积网络的无人机识别定位系统
CN201114551Y (zh) 多模多目标精密跟踪装置
CN110889353B (zh) 基于主焦点大视场光电望远镜的空间目标识别方法
CN113610896B (zh) 一种简易火控瞄具中目标提前量测量方法及系统
Wang et al. Video SAR ground moving target indication based on multi-target tracking neural network
CN117173215B (zh) 一种跨摄像头的内河航船全程轨迹识别方法及系统
CN109781259B (zh) 一种图谱关联的精准测量空中运动小目标红外光谱的方法
CN117409340B (zh) 无人机集群多视角融合航拍港口监控方法、系统、介质
Zhi et al. Research on a Miss Distance Measurement Method Based on UAV
EP2333721A1 (en) Image processing for change detection
CN115220005B (zh) 基于多源信息融合的光电跟踪设备自动目标识别方法
US20220197281A1 (en) Intelligent decision-making method and system for unmanned surface vehicle
CN115775258A (zh) 一种空间目标运动轨迹光学测量与关联方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant