CN109903305B - 基于空中三维定位的线型目标落点定位方法 - Google Patents
基于空中三维定位的线型目标落点定位方法 Download PDFInfo
- Publication number
- CN109903305B CN109903305B CN201910065478.5A CN201910065478A CN109903305B CN 109903305 B CN109903305 B CN 109903305B CN 201910065478 A CN201910065478 A CN 201910065478A CN 109903305 B CN109903305 B CN 109903305B
- Authority
- CN
- China
- Prior art keywords
- target
- image
- linear
- positioning
- track
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Abstract
本发明是基于空中三维定位的线型目标落点定位方法。适用于基于双站成像观测的线型目标落点定位系统,可避免因目标落地爆炸使落地像素点定位不准而引入的测量误差。它首先进行图像TopHat变换、背景抑制、滤波增强;然后进行图像阈值分割,并剔除线型特性较弱的连通区域;采用Hough算法检测图像中疑似线型目标,进行轨迹关联,对符合目标运动特性的轨迹进行跟踪,定位到目标落地帧,输出落地前图像中线型目标的起止像素点的方位角、俯仰角;最后基于双站测向交会模型,对落地前的目标进行空中三维定位,建立其三维空间直线方程;最后根据靶标GPS信息,预测目标落点位置,实现目标落点三维定位。
Description
技术领域
本发明涉及光电测量技术领域,是一种基于空中三维定位的线型目标落点定位方法。
背景技术
空中线型目标落点位置信息的获取,在很多应用场景中都具有重要意义,尤其对军事训练而言。以对地打靶为例,载机平台搭载炸弹发射装置,按照训练计划进行飞行训练,依据军事学习理论及作战策略,在空人员选择合适的位置,对准地面靶标发射炸弹,炸弹在空中快速飞行,最后在地球引力的作用下落至靶场地面上。此时,采用各种技术手段获取炸弹落点位置、进行报靶,成为评估训练中作战方法、作战策略的有效途径。通过报靶、评估,为打靶训练提供量化指标,可帮助作战人员及时进行相应调整,以优化训练效果,节省训练成本。
基于成像观测系统获取空中投掷目标落点位置,最直观、最直接的传统实现方法是,首先采用图像算法在目标落地后的观测图像中,检测目标落点像素位置;然后基于多个测站目标落点像素位置,采用测向交会等数学模型,推导目标落点的三维空间位置。
然而,对于机载炸弹对地打靶等军事训练应用而言,炸弹目标落地后发生爆炸,这将导致基于上述传统方法无法在左右两站图像中较精确地定位落地目标的像素位置,以此估算出目标落点的三维空间位置会存在很大误差。
发明内容
本发明为解决现有存在的问题,提供了一种基于空中三维定位的线型目标落点定位方法,本发明提供了以下技术方案:
一种基于空中三维定位的线型目标落点定位方法,包括以下步骤:
步骤一:基于测站S1和测站S2采集的场景图像,采用多帧累积平均的背景建模法,对场景图像的背景分量进行动态估计,建立背景图像模型;
步骤二:对测站S1和S2采集的场景图像和动态背景图像进行形态学TopHat变换,增强背景图像中弱小线型空中目标,采用背景差法进行背景抑制,提高图像信杂比;
步骤三:考虑目标的线型几何特征,采用中值滤波与双边滤波方法进行组合滤波,滤除图像噪声;
步骤四:采用阈值分割法,对图像进行二值化,计算二值化图像连通区域的椭圆偏心率特征E,根据连通区域的椭圆偏心率特征E的阈值判断,剔除线型特征较弱的连通区域,留下线型特征较强的连通区域;
步骤五:采用Hough检测算法,检测二值图像中疑似线型目标;
步骤六:轨迹关联通过轨迹匹配、轨迹更新、轨迹预测和轨迹检测,剔除不满足目标运动特性的虚假线型目标,并跟踪目标轨迹;
步骤七:采用双站测向交会法,对落地前一帧中线型目标的起止像素点P1、P2分别进行三维空间定位,对落地前一帧图像中空中线型目标的三维空间定位。
优选地,所述步骤一具体为:
第一步:背景图像初始化,以测站S1和S2采集相机开机后采集到的第一帧图像对背景图像进行初始化,通过下式表达:
BImg=Img (1)
其中,Img表示相机采集的场景图像,BImg表示背景图像;
第二步:采用多帧累积平均背景建模法,建立背景图像动态模型,基于当前新采集的图像帧,对背景图像迭代更新,通过下式表达:
其中,NumF表示背景累积迭代估计的图像帧数。
优选地,所述步骤二具体为:
第一步:基于图像中线型弱小目标的形状和灰度特征,选择相应的TopHat变换结构元素,对当前场景图像和背景图像分别进行TopHat变换,增强背景图像中弱小线型空中目标,通过下式表达:
thImg=Img-open(Img,element) (3)
thBImg=BImg-open(bgImg,element) (4)
其中,thImg与thBImg分别表示TopHat算法增强的场景图像与背景图像,open()表示图像形态学处理中的开运算,element表示开运算中的结构元素;
第二步:基于背景估计的结果,在TopHat变换增强的基础上,采用背景差法进行背景抑制,增强图像,通过下式表达:
Img=thImg-thBImg (5)
第三步:对场景图像中线型目标的检测结果,判断是否需要对背景图像进行再次更新,用以下一帧图像的算法处理,若场景图像中检测到疑似线型目标,则保持建立的背景图像模型不变;若未检测到疑似线型目标,则将背景模型更新为场景图像,作为下一帧图像算法处理的背景图像输入,通过下式表示:
优选地,所述步骤三中采用中值滤波与双边滤波两种保边滤波方法进行图像组合滤波,在滤除图像噪声的同时,保留目标的线型几何特征,双边滤波计算过程通过下式表达:
优选地,所述步骤四具体为:
第一步:采用阈值分割法,对图像进行二值化,获取场景二值图像;
第二步:对二值图像进行连通区域椭圆拟合,获取拟合椭圆的长轴长度a、短轴长度b;
第三步:计算连通区域椭圆离心率E,其取值范围为[0,1],计算过程通过下式表达:
第四步:剔除椭圆离心率小于阈值的连通区域,对于长线段目标,其拟合椭圆的长轴长度a>>短轴长度b,离心率E无限接近1;对于圆形目标,其拟合椭圆的长轴长度a=短轴长度b,离心率E=0;目标线型程度越强,其椭圆离心率E越大,反之则椭圆离心率E越小,故以椭圆偏心率为连通区域线型程度衡量标准,可剔除线型特性较弱的连通区域,降低虚警率。
优选地,所述步骤六具体为:
第一步:轨迹匹配,对每一条新生成及已跟踪的轨迹,遍历线型目标检测结果,进行轨迹匹配;
第二步:轨迹更新,根据匹配结果更新轨迹;
第三步:轨迹预测,根据目标运动速度进行轨迹预测;
第四步:轨迹检测,根据轨迹跟踪结果进行轨迹检测,当轨迹检测发现,当图像帧中某个目标轨迹从跟踪成功状态跳转至跟踪失败状态,则认为目标在图像帧中落地,输出测站S1落地前一帧中型线型目标起止像素点的方位角与俯仰角P1和P2分别为线型目标起始像素点。
优选地,所述步骤七具体为:
第一步:基于目标起始像素点P1的双站观测数据,实现对P1的三维空间定位,通过下式表达:
其中,(x1,y1,z1)与(x2,y2,z2)分别表示测站S1、测站S2在世界坐标系下的三维坐标,由高精度GPS仪器测量的GPS坐标经投影映射生成;tand、sind分别表示三角正切、三角正弦函数,输入单位为角度;(P1x,P1y,P1z)为P1点在世界坐标系下的三维坐标,表示对线型目标起点的三维定位结果;
第二步:基于目标起始像素点P2的双站S1和S2观测数据,实现对P2的三维空间定位,定位计算过程通过下式表示:
其中,(P2x,P2y,P2z)为P2点在世界坐标系下的三维坐标,表示对线型目标终点的三维定位结果;
第三步:基于空中线型目标起止像素点的三维空间定位结果,实现对线型目标的三维空间定位,建立其空间直线方程,通过下式表示:
其中,(x,y,z)表示该空间直线上任一空间点的三维坐标;
第四步:基于靶场靶标GPS坐标中的高程值zG,对目标落点位置(X,Y,Z)进行预测,实现对线型目标落点定位,通过下式表示:
Z=zG (12)
本发明具有以下有益效果:
本发明不仅能获取常规空中线型目标的落点空间位置,而且能获取炸弹等特殊空中线型目标的落点空间位置,是一种适用性更强的目标落点位置获取方法,可广泛应用于基于双站成像观测的线型目标落点定位系统,如对地打靶的报靶系统等,思想巧妙、易于实现。
附图说明
图1是基于空中三维定位的线型目标落点定位方法流程图。
具体实施方式
以下结合具体实施例,对本发明进行了详细说明。
具体实施例一:
本发明提供一种基于空中三维定位的线型目标落点定位方法,包括以下步骤:
步骤一:基于测站S1和测站S2采集的场景图像,采用多帧累积平均的背景建模法,对场景图像的背景分量进行动态估计,建立背景图像模型;
步骤二:对测站S1和S2采集的场景图像和动态背景图像进行形态学TopHat变换,增强背景图像中弱小线型空中目标,采用背景差法进行背景抑制,提高图像信杂比;
步骤三:考虑目标的线型几何特征,采用中值滤波与双边滤波方法进行组合滤波,滤除图像噪声;
步骤四:采用阈值分割法,对图像进行二值化,计算二值化图像连通区域的椭圆偏心率特征E,根据连通区域的椭圆偏心率特征E的阈值判断,剔除线型特征较弱的连通区域,留下线型特征较强的连通区域;
步骤五:采用Hough检测算法,检测二值图像中疑似线型目标;
步骤六:轨迹关联通过轨迹匹配、轨迹更新、轨迹预测和轨迹检测,剔除不满足目标运动特性的虚假线型目标,并跟踪目标轨迹;
步骤七:采用双站测向交会法,对落地前一帧中线型目标的起止像素点P1、P2分别进行三维空间定位,对落地前一帧图像中空中线型目标的三维空间定位。
具体实施例二:
根据图1所示,基于空中三维定位的线型目标落点定位方法流程图,目标落点位置预测,基于左右两个测站S1、S2采集的视频流观测数据,按照该图描述的处理流程,实现对目标落点位置的预测,获取目标落点位置。
步骤一:基于测站采集的图像,采用多帧累积平均的背景建模法,对场景的背景分量进行动态估计,建立背景图像模型,具体方法步骤如下:
(1-1)背景图像初始化,以相机开机后采集到的第一帧图像对背景图像进行初始化:
BImg=Img (1)
式(1)中Img表示相机开机后采集的第一帧图像,BImg表示背景图像;
(1-2)背景图像更新,采用多帧累积平均背景建模法,建立背景图像动态模型,基于当前新采集的图像帧,对背景图像进行迭代更新:
式中NumF表示背景累积迭代估计的图像帧数,Img表示测站相机当前采集的场景图像;
步骤二:对测站采集的场景图像以及动态背景图像进行形态学TopHat变换,增强背景中弱小线型空中目标,然后采用背景差法,进行背景抑制,提高图像信杂比,具体步骤如下:
(2-1)基于图像中线型弱小目标的形状、灰度特征,选择合适的TopHat变换结构元素,对当前场景图像和背景图像分别进行TopHat变换,增强背景中弱小线型空中目标:
thImg=Img-open(Img,element)
thBImg=BImg-open(BImg,element (3)
式(3)中thImg与thBImg分别表示TopHat算法增强的场景图像与背景图像,open()表示图像形态学处理中的开运算,element表示开运算中的结构元素;
(2-2)基于背景估计的结果,在TopHat变换增强的基础上,采用易于实现的背景差法进行背景抑制,增强图像:
Img=thImg-thBImg (4)
(2-3)最后基于步骤(5)对场景图像中疑似线型目标的检测结果,判断是否需要对背景图像进行再次更新,用以下一帧图像的算法处理,具体地,若该场景图像中检测到疑似线型目标,则保持基于多帧累积平均运算所建立的背景图像模型不变,作为下一帧场景图像算法处理的背景图像输入;若该场景图像中未检测到疑似线型目标,则将背景模型更新为当前场景图像,作为下一帧图像算法处理的背景图像输入:
步骤三:考虑到目标的线型几何特征,采用中值滤波与双边滤波两种保边滤波方法进行组合滤波,滤除图像噪声,提高图像信噪比,其中中值滤波主要对图像中椒盐噪声等大幅度噪声分量进行滤除,双边滤波主要对图像中小幅度高斯噪声分量进行滤除,双边滤波计算过程如下:
步骤四:采用阈值分割法,对图像进行二值化,据连通区域的椭圆偏心率特征E进行阈值判断,剔除线型特征较弱的连通区域,仅保留下线型特征较强的连通区域,以降低虚警率,具体步骤如下:
(4-1)采用阈值分割法,对图像进行二值化,获取场景二值图像;
(4-2)对二值图像进行连通区域椭圆拟合,获取拟合椭圆的长轴长度a、短轴长度b;
(4-3)计算连通区域椭圆离心率E,其取值范围为[0,1],计算过程通过下式表达:
(4-4)剔除椭圆离心率小于阈值的连通区域,对于长线段目标,其拟合椭圆的长轴长度a>>短轴长度b,离心率E无限接近1;对于圆形目标,其拟合椭圆的长轴长度a=短轴长度b,离心率E=0;目标线型程度越强,其椭圆离心率E越大,反之则椭圆离心率E越小,故以椭圆偏心率为连通区域线型程度衡量标准,可剔除线型特性较弱的连通区域,降低虚警率;
步骤五:采用Hough检测算法,检测二值图像中疑似线型目标;
步骤六:轨迹关联,通过轨迹匹配、轨迹更新、轨迹预测及轨迹检测四个处理步骤,剔除不满足目标运动特性的虚假线型目标,并跟踪目标轨迹,若该图像帧中某个目标轨迹从跟踪成功状态跳转至跟踪失败状态,则认为目标在该图像帧中落地,输出测站1落地前一帧中线型目标起止像素点的方位角与俯仰角其中S1表示测站1,P1、P2分别线型目标起止像素点;同样地,基于上述处理步骤,可以获取测站2落地前一帧中线型目标起止像素点的方位角与俯仰角其中S2表示测站2,测站1与2表示左右两个不同测站;
步骤七:采用双站测向交会法,对落地前一帧中线型目标的起止像素点P1、P2分别进行三维空间定位,进而实现对落地前一帧图像中空中线型目标的三维空间定位,具体实现方法如下:
(7-1)基于目标起点P1的双站观测数据,实现对P1的三维空间定位:
式(7)中(x1,y1,z1)与(x2,y2,z2)分别表示测站S1、测站S2在世界坐标系下的三维坐标,可由高精度GPS仪器测量的GPS坐标经投影映射生成;tand、sind分别表示三角正切、三角正弦函数,输入单位为角度;(P1x,P1y,P1z)为P1点在世界坐标系下的三维坐标,表示对线型目标起点的三维定位结果;
(7-2)基于目标终点P2的双站观测数据,实现对P2的三维空间定位:
式(8)中(P2x,P2y,P2z)为P2点在世界坐标系下的三维坐标,表示对线型目标终点的三维定位结果;
(7-3)基于空中线型目标起点、终点的三维空间定位结果,实现对线型目标的三维空间定位,(x,y,z)表示该空间直线上任一空间点的三维坐标,建立其空间直线方程:
(7-4)基于靶场靶标GPS坐标中的高程值zG,对目标落点位置(X,Y,Z)进行预测,实现对线型目标落点定位:
Z=zG (11)
以上所述仅是基于空中三维定位的线型目标落点定位方法的优选实施方式,基于空中三维定位的线型目标落点定位方法的保护范围并不仅局限于上述实施例,凡属于思路下的技术方案均属于本发明的保护范围。应当指出,对于本技术领域的技术人员来说,在不脱离本发明原理前提下的若干改进和变化,这些改进和变化也应视为本发明的保护范围。
Claims (7)
1.一种基于空中三维定位的线型目标落点定位方法,其特征是:包括以下步骤:
步骤一:基于测站S1和测站S2采集的场景图像,采用多帧累积平均的背景建模法,对场景图像的背景分量进行动态估计,建立背景图像模型;
步骤二:对测站S1和S2采集的场景图像和动态背景图像进行形态学TopHat变换,增强背景图像中弱小线型空中目标,采用背景差法进行背景抑制,提高图像信杂比;
步骤三:考虑目标的线型几何特征,采用中值滤波与双边滤波方法进行组合滤波,滤除图像噪声;
步骤四:采用阈值分割法,对图像进行二值化,计算二值化图像连通区域的椭圆偏心率特征E,根据连通区域的椭圆偏心率特征E的阈值判断,剔除线型特征较弱的连通区域,留下线型特征较强的连通区域;
步骤五:采用Hough检测算法,检测二值图像中疑似线型目标;
步骤六:轨迹关联通过轨迹匹配、轨迹更新、轨迹预测和轨迹检测,剔除不满足目标运动特性的虚假线型目标,并跟踪目标轨迹;
步骤七:采用双站测向交会法,对落地前一帧中线型目标的起止像素点P1、P2分别进行三维空间定位,对落地前一帧图像中空中线型目标的三维空间定位。
3.根据权利要求1所述的一种基于空中三维定位的线型目标落点定位方法,其特征是:所述步骤二具体为:
第一步:基于图像中线型弱小目标的形状和灰度特征,选择相应的TopHat变换结构元素,对当前场景图像和背景图像分别进行TopHat变换,增强背景图像中弱小线型空中目标,通过下式表达:
thImg=Img-open(Img,element) (3)
thBImg=BImg-open(bgImg,element) (4)
其中,thImg与thBImg分别表示TopHat算法增强的场景图像与背景图像,open()表示图像形态学处理中的开运算,element表示开运算中的结构元素;
第二步:基于背景估计的结果,在TopHat变换增强的基础上,采用背景差法进行背景抑制,增强图像,通过下式表达:
Img=thImg-thBImg (5)
第三步:对场景图像中线型目标的检测结果,判断是否需要对背景图像进行再次更新,用以下一帧图像的算法处理,若场景图像中检测到疑似线型目标,则保持建立的背景图像模型不变;若未检测到疑似线型目标,则将背景模型更新为场景图像,作为下一帧图像算法处理的背景图像输入,通过下式表示:
5.根据权利要求1所述的一种基于空中三维定位的线型目标落点定位方法,其特征是:所述步骤四具体为:
第一步:采用阈值分割法,对图像进行二值化,获取场景二值图像;
第二步:对二值图像进行连通区域椭圆拟合,获取拟合椭圆的长轴长度a、短轴长度b;
第三步:计算连通区域椭圆离心率E,其取值范围为[0,1],计算过程通过下式表达:
第四步:剔除椭圆离心率小于阈值的连通区域,对于长线段目标,其拟合椭圆的长轴长度a>>短轴长度b,离心率E无限接近1;对于圆形目标,其拟合椭圆的长轴长度a=短轴长度b,离心率E=0;目标线型程度越强,其椭圆离心率E越大,反之则椭圆离心率E越小,故以椭圆偏心率为连通区域线型程度衡量标准,可剔除线型特性较弱的连通区域,降低虚警率。
7.根据权利要求1所述的一种基于空中三维定位的线型目标落点定位方法,其特征是:所述步骤七具体为:
第一步:基于目标起始像素点P1的双站观测数据,实现对P1的三维空间定位,通过下式表达:
其中,(x1,y1,z1)与(x2,y2,z2)分别表示测站S1、测站S2在世界坐标系下的三维坐标,由高精度GPS仪器测量的GPS坐标经投影映射生成;tand、sind分别表示三角正切、三角正弦函数,输入单位为角度;(P1x,P1y,P1z)为P1点在世界坐标系下的三维坐标,表示对线型目标起点的三维定位结果;
第二步:基于目标起始像素点P2的双站S1和S2观测数据,实现对P2的三维空间定位,定位计算过程通过下式表示:
其中,(P2x,P2y,P2z)为P2点在世界坐标系下的三维坐标,表示对线型目标终点的三维定位结果;
第三步:基于空中线型目标起止像素点的三维空间定位结果,实现对线型目标的三维空间定位,建立其空间直线方程,通过下式表示:
其中,(x,y,z)表示该空间直线上任一空间点的三维坐标;
第四步:基于靶场靶标GPS坐标中的高程值zG,对目标落点位置(X,Y,Z)进行预测,实现对线型目标落点定位,通过下式表示:
Z=zG (12)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910065478.5A CN109903305B (zh) | 2019-01-24 | 2019-01-24 | 基于空中三维定位的线型目标落点定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910065478.5A CN109903305B (zh) | 2019-01-24 | 2019-01-24 | 基于空中三维定位的线型目标落点定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109903305A CN109903305A (zh) | 2019-06-18 |
CN109903305B true CN109903305B (zh) | 2023-02-21 |
Family
ID=66944116
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910065478.5A Active CN109903305B (zh) | 2019-01-24 | 2019-01-24 | 基于空中三维定位的线型目标落点定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109903305B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110782493B (zh) * | 2019-10-21 | 2022-09-20 | 大连理工大学 | 一种基于多方向投影的轨迹曲线计算落点位置的定位方法 |
CN111090931B (zh) * | 2019-12-05 | 2023-08-08 | 中国航空工业集团公司沈阳飞机设计研究所 | 一种面目标区域打击规划方法 |
CN112435249B (zh) * | 2020-11-30 | 2024-04-16 | 天津津航技术物理研究所 | 一种基于周扫红外搜索系统的动态小目标检测方法 |
CN112529954A (zh) * | 2020-12-03 | 2021-03-19 | 广州小鹏自动驾驶科技有限公司 | 基于异构双目摄像设备的悬浮对象位置确定方法、装置 |
CN112907755B (zh) * | 2021-01-22 | 2022-04-15 | 贝壳找房(北京)科技有限公司 | 三维房屋模型中的模型展示方法及装置 |
CN114842164B (zh) * | 2022-06-17 | 2023-04-07 | 中国人民解放军陆军炮兵防空兵学院 | 一种基于三维地理模型的炸点坐标计算方法及系统 |
CN117315498A (zh) * | 2023-10-10 | 2023-12-29 | 中国人民解放军战略支援部队航天工程大学 | 一种基于空间目标检测结果的虚警判别方法 |
CN117553756B (zh) * | 2024-01-10 | 2024-03-22 | 中国人民解放军32806部队 | 基于目标跟踪的脱靶量计算方法、装置、设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090262977A1 (en) * | 2008-04-18 | 2009-10-22 | Cheng-Ming Huang | Visual tracking system and method thereof |
CN101567087A (zh) * | 2009-05-25 | 2009-10-28 | 北京航空航天大学 | 复杂天空背景下红外序列图像弱小目标检测与跟踪方法 |
CN107202982A (zh) * | 2017-05-22 | 2017-09-26 | 徐泽宇 | 一种基于无人机位姿计算的信标布置及图像处理方法 |
CN108596942A (zh) * | 2018-03-21 | 2018-09-28 | 黄启萌 | 一种利用单摄像机精准判断球类落点的系统和方法 |
-
2019
- 2019-01-24 CN CN201910065478.5A patent/CN109903305B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090262977A1 (en) * | 2008-04-18 | 2009-10-22 | Cheng-Ming Huang | Visual tracking system and method thereof |
CN101567087A (zh) * | 2009-05-25 | 2009-10-28 | 北京航空航天大学 | 复杂天空背景下红外序列图像弱小目标检测与跟踪方法 |
CN107202982A (zh) * | 2017-05-22 | 2017-09-26 | 徐泽宇 | 一种基于无人机位姿计算的信标布置及图像处理方法 |
CN108596942A (zh) * | 2018-03-21 | 2018-09-28 | 黄启萌 | 一种利用单摄像机精准判断球类落点的系统和方法 |
Non-Patent Citations (4)
Title |
---|
"GB-SAR在线性构筑物变形监测中的应用";郭鹏;《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》;20190105;全文 * |
"Lane Detection Algorithm Based on Density Clustering and RANSAC ";Jitong Wang 等;《IEEE》;20180609;全文 * |
"基于机器视觉的靶场飞行器姿态测量方法研究";赵立荣;《中国博士学位论文全文数据库 工程科技Ⅱ辑》;20180105;全文 * |
"基于速度估计的双Hough变换运动轨迹检测算法";胡静 等;《华中科技大学学报(自然科学版)》;20130131;第41卷(第1期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN109903305A (zh) | 2019-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109903305B (zh) | 基于空中三维定位的线型目标落点定位方法 | |
CN110275153B (zh) | 一种基于激光雷达的水面目标检测与跟踪方法 | |
CN108734103B (zh) | 卫星视频中运动目标的检测与跟踪方法 | |
US20100027840A1 (en) | System and method for bullet tracking and shooter localization | |
CN109840880A (zh) | 一种路面识别方法和装置 | |
CN111326023A (zh) | 一种无人机航线预警方法、装置、设备及存储介质 | |
US9031285B2 (en) | Detection of floating objects in maritime video using a mobile camera | |
US11132802B2 (en) | Method of detecting moving objects from a temporal sequence of images | |
US20100074473A1 (en) | System and method of extracting plane features | |
CN111709968A (zh) | 一种基于图像处理的低空目标探测跟踪方法 | |
CN111027496A (zh) | 基于空时联合局部对比度的红外弱小目标检测方法 | |
CN105374049B (zh) | 一种基于稀疏光流法的多角点跟踪方法及装置 | |
CN112683228A (zh) | 单目相机测距方法及装置 | |
CN112991401A (zh) | 车辆运行轨迹追踪方法、装置、电子设备和存储介质 | |
Soetedjo et al. | Developing of low cost vision-based shooting range simulator | |
CN108876807B (zh) | 一种实时星载卫星图像运动对象检测跟踪方法 | |
Brunner et al. | Combining multiple sensor modalities for a localisation robust to smoke | |
CN110287957B (zh) | 一种低慢小目标的定位方法及定位装置 | |
CN112955712A (zh) | 目标跟踪方法、设备及存储介质 | |
CN109918968B (zh) | 一种舰船目标检测方法 | |
Lapandic et al. | Framework for automated reconstruction of 3D model from multiple 2D aerial images | |
CN112802112B (zh) | 视觉定位方法、装置、服务器及存储介质 | |
CN112595312B (zh) | 一种大视场星敏感器伪星目标滤除方法及系统 | |
CN110910379A (zh) | 一种残缺检测方法及装置 | |
RU2611696C1 (ru) | Способ определения интенсивности осадков в реальном времени в авиационных системах улучшенного видения |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |