CN110579744A - 一种基于dom卫片的场景建模仿真方法 - Google Patents
一种基于dom卫片的场景建模仿真方法 Download PDFInfo
- Publication number
- CN110579744A CN110579744A CN201910817204.7A CN201910817204A CN110579744A CN 110579744 A CN110579744 A CN 110579744A CN 201910817204 A CN201910817204 A CN 201910817204A CN 110579744 A CN110579744 A CN 110579744A
- Authority
- CN
- China
- Prior art keywords
- satellite
- dom
- imaging
- axis
- coordinate system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
- G01S7/4052—Means for monitoring or calibrating by simulation of echoes
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明公开了基于DOM卫片的场景建模仿真方法,包括如下步骤:S1:当导弹飞行至成像匹配区时,以成像匹配区的中心点为原点,建立卫片坐标系和椭圆平面坐标系;S2:将波束覆盖区网格化,计算波束覆盖区的所有格点的椭圆平面坐标;S3:将所有格点的椭圆平面坐标转换为卫片坐标;S4:提供带地理信息的DOM卫片,结合中心点地理坐标,计算中心点在DOM卫片上的基准像素坐标;S5:结合基准像素坐标,将所有格点的卫片坐标转换为像素坐标;S6:根据所有格点的像素坐标,获取DOM卫片上对应的图像灰度信息,得到成像匹配区在DOM卫片上的映射图像;S7:重复S1~S6,直至得到所有的成像匹配区在DOM卫片上的映射图像,完成导弹的场景建模仿真。本发明覆盖全、精度高。
Description
技术领域
本发明涉及雷达导引头半实物仿真试验技术领域,具体涉及一种基于DOM卫片的场景建模仿真方法。
背景技术
合成孔径雷达(synthetic aperture radar,SAR)具有全天时、全天候、远距离、高分辨成像等特点,将SAR与精确制导技术相结合已成为近年来的研究热点。
导弹在末制导阶段,因惯导长时间累积误差,导致弹体的实际位置和惯导指示位置存在较大偏差,从而影响了导弹上雷达导引头对目标的精确定位,降低了导弹的打击精度。
为了解决上述问题,可以采用合成孔径雷达进行制导,即在导弹上采用合成孔径雷达作为成像传感器,将导弹上雷达导引头获取的地面场景的二维高分辨实时SAR图像与导弹上的基准图像进行景象匹配,可以得到目标点在基准图像中的位置,并由几何关系,得到导弹与目标点的精确距离,再利用多个成像匹配区域,形成几何构型,进而解算出导弹的真实位置信息,达到修正导弹惯导积累误差、提高导引头制导精度的目的。
上述方法中,雷达导引头在研制阶段,需要对导弹飞行路线上预先规划的不同成像匹配区的地物场景进行大量的仿真试验,验证弹载平台下导引头对不同成像匹配区的成像质量、成像匹配区的地物特征以及图像匹配算法对不同成像匹配区特征的适应性。
目前,通常采用机载挂飞试验获取成像匹配区的地物特征,挂飞试验不但费用高、周期长、效率低,且导弹飞行路线上规划的成像匹配区一般分布较远,导致挂飞试验覆盖性不全;同时导引头在弹载平台上对成像匹配区的照射距离和角度也与挂飞试验存在较大差异,无法精确获得真实飞行试验时对应的成像区域。
发明内容
针对现有技术中存在的缺陷,本发明的目的在于提供一种基于DOM卫片的场景建模仿真方法,具有覆盖全、精度高的优点。
为达到以上目的,本发明采取的技术方案是:
一种基于DOM卫片的场景建模仿真方法,包括如下步骤:
S1:当导弹飞行至预先规划的成像匹配区时,以所述成像匹配区的中心点为原点,建立卫片坐标系和雷达波束覆盖在所述成像匹配区所得到的波束覆盖区的椭圆平面坐标系;
S2:将所述波束覆盖区进行网格化,根据椭圆方程,计算所述波束覆盖区的所有格点在椭圆平面坐标系下的椭圆平面坐标;
S3:将所有格点的椭圆平面坐标转换为卫片坐标系下的卫片坐标;
S4:提供带地理信息的数字正射影像图DOM卫片,结合所述中心点地理坐标的经纬度,计算所述中心点在所述DOM卫片上的基准像素坐标;
S5:结合所述基准像素坐标,将所有格点的卫片坐标转换为像素坐标;
S6:根据所有格点的像素坐标,获取所述DOM卫片上对应的图像灰度信息,得到所述成像匹配区在DOM卫片上的映射图像;
S7:重复S1~S6,直至得到所有的成像匹配区在DOM卫片上的映射图像,完成导弹在所有成像匹配区的场景建模仿真。
进一步地,根据椭圆方程,计算所述波束覆盖区的所有格点在椭圆平面坐标系下的椭圆平面坐标,具体包括如下步骤:
当导弹飞行至成像匹配区时,以所述导弹对应于地球椭圆表面的弹下点为原点o建立成像坐标系o-xyz,弹体与弹下点连线为y轴,x轴与y轴垂直且指向速度矢量在所述成像匹配区所在平面的投影方向,z轴与x轴和y轴满足右手法则;
获取雷达的波束俯仰角β、横向波束宽度θa,纵向波束宽度θw,雷达到所述中心点的斜距Rs,导弹的弹体高度H,所述中心点地理坐标的高度Hp,其中,波束俯仰角β为雷达波束矢量与xoz平面的夹角,弹体高度H所在的参考坐标系为所述成像坐标系o-xyz;
根据如下公式(1)、(2)和(3),计算所述格点在椭圆平面坐标系下的椭圆平面坐标(xp,zp):
其中,函数abs为绝对值函数。
进一步地,将实际地物场景方向定义为:上北下南、左西右东;记所述卫片坐标系为c-x'y'z',在所述卫片坐标系c-x'y'z'中,所述卫片坐标系的原点c为所述成像匹配区的中心点,x'轴指向正东向,y'轴指天,z'轴与x'轴和y'轴满足右手法则;
记所述椭圆平面坐标系为p-xpypzp,在所述椭圆平面坐标系p-xpypzp中,所述椭圆平面坐标系的原点p为所述成像匹配区的中心点,所述雷达波束的指向在所述成像匹配区所在平面的投影方向与xp轴重合,yp轴指天,zp轴与xp轴和yp轴满足右手法则。
进一步地,所述步骤S3具体包括如下步骤:
当导弹飞行至成像匹配区时,以所述导弹对应于地球椭圆表面的弹下点为原点o建立成像坐标系o-xyz,弹体与弹下点连线为y轴,x轴与y轴垂直且指向速度矢量在所述成像匹配区所在平面的投影方向,z轴与x轴和y轴满足右手法则;
获取雷达的波束方位角α和导弹的航向角γ,其中,波束方位角α为雷达波束的指向在所述成像匹配区所在平面的投影方向与x轴的夹角,航向角γ为导弹速度矢量在所述成像匹配区所在平面的投影与正北向夹角;
根据如下公式(4)计算所述格点的卫片坐标(xc,zc):
其中,(xp,zp)为所述格点的椭圆平面坐标,Rwp为成像坐标系到椭圆坐标系的转换矩阵,且Rcx为卫片坐标系到成像坐标系的转换矩阵,且
进一步地,步骤S4具体包括如下步骤:
调用matlab工具箱函数geotiffinfo,读取所述DOM卫片的地理信息;
获取所述中心点的经度Bp和纬度Lp;
调用函数projfwd,对所述中心点的经度Bp和纬度Lp进行转换,得到所述中心点的大地坐标;
调用函数map2pix,对所述中心点的大地坐标进行转换,得到所述中心点的大地坐标对应的像素值;
调用函数round,对所述中心点的大地坐标对应的像素值进行四舍五入取整,得到所述中心点在所述DOM卫片上的基准像素坐标。
进一步地,将所有格点的卫片坐标转换为像素坐标时,采用的转换公式为:
其中,(m,n)为所述格点的像素坐标,(xc,zc)为所述格点的卫片坐标,(m0,n0)为所述中心点在DOM卫片上的基准像素坐标,res为DOM卫片的分辨率,函数round为四舍五入取整函数。
进一步地,所述DOM卫片的分辨率不大于雷达波束的成像精度。
进一步地,将所述波束覆盖区进行网格化时,网格的精度不大于雷达波束的成像精度。
进一步地,所述DOM卫片的拍摄时间接近导弹进行飞行的时间。
进一步地,所述DOM卫片所覆盖的范围包含所有的成像匹配区。
与现有技术相比,本发明的优点在于:
本发明以DOM卫片为基础,结合导弹实际飞行弹道轨迹,与预先规划的多个成像匹配区,进行雷达导引头成像匹配区的精确建模仿真。相比机载挂飞试验,本发明可以在实验室环境下真实模拟实际飞行条件下雷达导引头对各个成像匹配区的成像,覆盖全、精度高、费用低、周期短、效率高,为后续完成图像匹配算法验证提供基础。
本发明成像坐标系根据导弹飞行至成像匹配区不同位置,进行实时调整,能有效避免远距离飞行时地球曲率带来的平面等效误差,提高仿真精度。
本发明成像匹配区的卫片坐标系原点与波束照射中心的椭圆平面坐标系原点重合,可以直接将椭圆平面坐标系旋转至成像匹配区的卫片坐标系,完成成像匹配区内波束覆盖区的椭圆场景与DOM卫片之间的映射。
附图说明
图1为本发明实施例提供的基于DOM卫片的场景建模仿真方法流程图;
图2为本发明实施例提供的成像坐标系与卫片坐标系示意图;
图3为本发明实施例提供的成像坐标系与椭圆平面坐标系示意图;
图4为本发明实施例提供的卫片坐标系与成像坐标系旋转关系示意图;
图5为本发明实施例提供的波束覆盖区在DOM卫片上的映射图像。
具体实施方式
本发明实施例提供了一种基于DOM卫片的场景建模仿真方法,解决了现有技术中采用机载挂飞试验获取成像匹配区的地物特征时,存在费用高、周期长、效率低、覆盖性不全、精度低的问题。
为解决上述技术问题,本发明实施例的技术方案总体思路如下:
以数字正射影像图(DOM,Digital Orthophoto Map)卫片(DOM卫片是指通过雷达微波遥感获得的地面数字正射影像图)为基础,结合导弹实际飞行弹道轨迹,与预先规划的多个成像匹配区,进行雷达导引头成像匹配区的精确建模仿真。相比机载挂飞试验,本发明可以在实验室环境下真实模拟实际飞行条件下雷达导引头对各个成像匹配区的成像,覆盖全、精度高、费用低、周期短、效率高,为后续完成图像匹配算法验证提供基础。本发明中提到的成像坐标系根据导弹飞行至成像匹配区不同位置,进行实时调整,能有效避免远距离飞行时地球曲率带来的平面等效误差,提高仿真精度;成像匹配区的卫片坐标系原点与波束照射中心的椭圆平面坐标系原点重合,可以直接将成像由椭圆平面坐标系旋转至成像匹配区的卫片坐标系,完成成像匹配区内波束覆盖区的椭圆场景与DOM卫片之间的映射。
为使本发明要解决的技术问题、技术方案和优点更加清楚,下面将结合说明书附图以及具体的实施例对本发明的技术方案进行详细的说明。
参见图1所示,本发明实施例提供了一种基于DOM卫片的场景建模仿真方法,包括如下步骤:
B1:提供带地理信息的数字正射影像图DOM卫片,DOM卫片所覆盖的范围包含预先规划的所有的成像匹配区,设成像匹配区的数量为M,M≥2,按照导弹飞临的先后顺序,对所有成像匹配区进行标号;
DOM卫片文件后缀为*.tif,包含有地面场景的地理信息,DOM卫片的分辨率不大于雷达波束的成像精度,一般为3m。同时,为了所选择的DOM卫片的拍摄时间尽可能接近导弹进行飞行的时间,其好处是仿真获得的场景图像越接近实际飞行状态,验证精度越高,波段越接近雷达工作频段,可信度越高。
B2:令当前成像匹配区的序号N=1;
B3:当导弹飞行至成像匹配区N时,以成像匹配区N的中心点为原点,建立卫片坐标系c-x'y'z'和雷达波束覆盖在成像匹配区N所得到的波束覆盖区的椭圆平面坐标系p-xpypzp;以弹下点为原点o,建立成像坐标系o-xyz;
参见图2和图3所示,本发明实施例中,当导弹飞行至某一个成像匹配区时,需建立如下三个坐标系:
(1)成像坐标系o-xyz:成像坐标系的原点o为导弹对应于地球椭圆表面的弹下点,弹体与弹下点连线为y轴,x轴与y轴垂直且指向速度矢量在该成像匹配区所在平面的投影方向,z轴与x轴和y轴满足右手法则。惯导提供的弹体位置、速度、加速度、波束方位角、航向角、波束俯仰角等参数所在的参考坐标系均为成像坐标系。
(2)卫片坐标系c-x'y'z':将实际地物场景方向定义为上北下南、左西右东,卫片坐标系的原点c为该成像匹配区的中心点,x'轴指向正东向,y'轴指天,z'轴与x'轴和y'轴满足右手法则。
(3)椭圆平面坐标系为p-xpypzp:椭圆平面坐标系的原点p为该成像匹配区的中心点,雷达波束的指向在该成像匹配区所在平面的投影方向与xp轴重合,yp轴指天,zp轴与xp轴和yp轴满足右手法则。
参见图3和图4所示,本发明实施例中,包括如下名词解释:
(1)波束方位角α:雷达波束的指向在成像匹配区所在平面的投影方向与成像坐标系x轴的夹角,从坐标原点往x轴方向看,左正右负,范围±180°。
(2)波束俯仰角β:雷达波束矢量与成像坐标系xoz平面的夹角上正下负,范围±90°。
(3)航向角γ:导弹速度矢量在成像匹配区所在平面的投影与卫片坐标系中正北向夹角,顺时针为正,逆时针为负,范围为-180°~+180°。
B4:将波束覆盖区进行网格化,网格的精度不大于雷达波束的成像精度,根据椭圆方程,计算波束覆盖区的所有格点在椭圆平面坐标系p-xpypzp下的椭圆平面坐标(xp,zp);
步骤B4具体包括如下步骤:
B40:获取雷达的波束俯仰角β、横向波束宽度θa,纵向波束宽度θw,雷达到中心点的斜距Rs,导弹的弹体高度H,中心点的地理坐标(Bp,Lp,Hp),其中,Bp为经度、Lp为纬度、Hp为高度;
B41:根据如下公式(1)、(2)和(3),计算每一个格点在椭圆平面坐标系p-xpypzp下的椭圆平面坐标(xp,zp):
其中,函数abs为绝对值函数。
B5:将所有格点的椭圆平面坐标(xp,zp)转换为卫片坐标系c-x'y'z'下的卫片坐标(xc,zc);
步骤B5具体包括如下步骤:
B50:获取雷达的波束方位角α和导弹的航向角γ;
B51:计算并得到成像坐标系o-xyz到椭圆平面坐标系p-xpypzp的转换矩阵Rwp。
参见图3所示,从成像坐标系o-xyz到椭圆平面坐标系p-xpypzp的转换方法是绕y轴顺时针选择角度α,因此,
B52:计算并得到卫片坐标系c-x'y'z'到成像坐标系o-xyz的转换矩阵Rcx。
参见图4所示,从卫片坐标系c-x'y'z'到成像坐标系o-xyz的转换方法是绕y'轴逆时针旋转角度因此,
B53:根据如下公式(4)计算格点的卫片坐标(xc,zc):
其中,(xp,zp)为格点的椭圆平面坐标。
B6:结合中心点地理坐标的经纬度,计算中心点在DOM卫片上的基准像素坐标(m0,n0);
步骤B6具体包括如下步骤:
B60:调用matlab工具箱函数geotiffinfo,读取DOM卫片的地理信息;
info=geotiffinfo(file_tif),其中,file_tif为DOM卫片文件名,后缀为*.tif,info为函数返回结构体,包含返回的DOM卫片地理参数信息;
B61:获取中心点的经度Bp和纬度Lp;
B62:调用函数projfwd,对中心点的经度Bp和纬度Lp进行转换,得到中心点的大地坐标(x地,y地);
(x地,y地)=projfwd(info,Bp,Lp);
B63:调用函数map2pix,对中心点的大地坐标(x地,y地)进行转换,得到中心点的大地坐标(x地,y地)对应的像素值;
(x像素值,y像素值)=map2pix(info.RefMatrix,x地,y地),x像素值和y像素值分别为x地和y地对应的像素值;
B64:调用函数round,对中心点的大地坐标(x地,y地)对应的像素值进行四舍五入取整,得到中心点在DOM卫片上的基准像素坐标(m0,n0);
m0=round(x像素值),n0=round(y像素值),函数round为四舍五入取整函数。
B7:结合基准像素坐标(m0,n0),将所有格点的卫片坐标(xc,zc)转换为像素坐标(m,n);
将格点的卫片坐标(xc,zc)转换为像素坐标(m,n)时,采用的转换公式为:
其中,res为DOM卫片的分辨率。
B8:根据所有格点的像素坐标(m,n),获取DOM卫片上对应的图像灰度信息,得到成像匹配区N中波束覆盖区在DOM卫片上的映射图像,参见图5所示,根据格点的像素坐标(m,n),在DOM卫片上找到该格点的映射点,并获取该映射点的灰度信息,将所有的格点的映射点的灰度信息按格点组合,得到映射图像;
B9:令N=N+1,进入B10;
B10:若N≤M,则返回步骤B3,否则,进入B11;
B11:结束,说明已经得到所有的成像匹配区张工波束覆盖区在DOM卫片上的映射图像,完成导弹在所有成像匹配区的场景建模仿真。
本发明不局限于上述实施方式,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围之内。本说明书中未作详细描述的内容属于本领域专业技术人员公知的现有技术。
Claims (10)
1.一种基于DOM卫片的场景建模仿真方法,其特征在于,包括如下步骤:
S1:当导弹飞行至预先规划的成像匹配区时,以所述成像匹配区的中心点为原点,建立卫片坐标系和雷达波束覆盖在所述成像匹配区所得到的波束覆盖区的椭圆平面坐标系;
S2:将所述波束覆盖区进行网格化,根据椭圆方程,计算所述波束覆盖区的所有格点在椭圆平面坐标系下的椭圆平面坐标;
S3:将所有格点的椭圆平面坐标转换为卫片坐标系下的卫片坐标;
S4:提供带地理信息的数字正射影像图DOM卫片,结合所述中心点地理坐标的经纬度,计算所述中心点在所述DOM卫片上的基准像素坐标;
S5:结合所述基准像素坐标,将所有格点的卫片坐标转换为像素坐标;
S6:根据所有格点的像素坐标,获取所述DOM卫片上对应的图像灰度信息,得到所述成像匹配区在DOM卫片上的映射图像;
S7:重复S1~S6,直至得到所有的成像匹配区在DOM卫片上的映射图像,完成导弹在所有成像匹配区的场景建模仿真。
2.如权利要求1所述的基于DOM卫片的场景建模仿真方法,其特征在于,根据椭圆方程,计算所述波束覆盖区的所有格点在椭圆平面坐标系下的椭圆平面坐标,具体包括如下步骤:
当导弹飞行至成像匹配区时,以所述导弹对应于地球椭圆表面的弹下点为原点o建立成像坐标系o-xyz,弹体与弹下点连线为y轴,x轴与y轴垂直且指向速度矢量在所述成像匹配区所在平面的投影方向,z轴与x轴和y轴满足右手法则;
获取雷达的波束俯仰角β、横向波束宽度θa,纵向波束宽度θw,雷达到所述中心点的斜距Rs,导弹的弹体高度H,所述中心点地理坐标的高度Hp,其中,波束俯仰角β为雷达波束矢量与xoz平面的夹角,弹体高度H所在的参考坐标系为所述成像坐标系o-xyz;
根据如下公式(1)、(2)和(3),计算所述格点在椭圆平面坐标系下的椭圆平面坐标(xp,zp):
其中,函数abs为绝对值函数。
3.如权利要求1所述的基于DOM卫片的场景建模仿真方法,其特征在于:
将实际地物场景方向定义为:上北下南、左西右东;记所述卫片坐标系为c-x'y'z',在所述卫片坐标系c-x'y'z'中,所述卫片坐标系的原点c为所述成像匹配区的中心点,x'轴指向正东向,y'轴指天,z'轴与x'轴和y'轴满足右手法则;
记所述椭圆平面坐标系为p-xpypzp,在所述椭圆平面坐标系p-xpypzp中,所述椭圆平面坐标系的原点p为所述成像匹配区的中心点,所述雷达波束的指向在所述成像匹配区所在平面的投影方向与xp轴重合,yp轴指天,zp轴与xp轴和yp轴满足右手法则。
4.如权利要求3所述的基于DOM卫片的场景建模仿真方法,其特征在于,所述步骤S3具体包括如下步骤:
当导弹飞行至成像匹配区时,以所述导弹对应于地球椭圆表面的弹下点为原点o建立成像坐标系o-xyz,弹体与弹下点连线为y轴,x轴与y轴垂直且指向速度矢量在所述成像匹配区所在平面的投影方向,z轴与x轴和y轴满足右手法则;
获取雷达的波束方位角α和导弹的航向角γ,其中,波束方位角α为雷达波束的指向在所述成像匹配区所在平面的投影方向与x轴的夹角,航向角γ为导弹速度矢量在所述成像匹配区所在平面的投影与正北向夹角;
根据如下公式(4)计算所述格点的卫片坐标(xc,zc):
其中,(xp,zp)为所述格点的椭圆平面坐标,Rwp为成像坐标系到椭圆坐标系的转换矩阵,且Rcx为卫片坐标系到成像坐标系的转换矩阵,且
5.如权利要求1所述的基于DOM卫片的场景建模仿真方法,其特征在于,步骤S4具体包括如下步骤:
调用matlab工具箱函数geotiffinfo,读取所述DOM卫片的地理信息;
获取所述中心点的经度Bp和纬度Lp;
调用函数projfwd,对所述中心点的经度Bp和纬度Lp进行转换,得到所述中心点的大地坐标;
调用函数map2pix,对所述中心点的大地坐标进行转换,得到所述中心点的大地坐标对应的像素值;
调用函数round,对所述中心点的大地坐标对应的像素值进行四舍五入取整,得到所述中心点在所述DOM卫片上的基准像素坐标。
6.如权利要求1所述的基于DOM卫片的场景建模仿真方法,其特征在于,将所有格点的卫片坐标转换为像素坐标时,采用的转换公式为:
其中,(m,n)为所述格点的像素坐标,(xc,zc)为所述格点的卫片坐标,(m0,n0)为所述中心点在DOM卫片上的基准像素坐标,res为DOM卫片的分辨率,函数round为四舍五入取整函数。
7.如权利要求1所述的基于DOM卫片的场景建模仿真方法,其特征在于:所述DOM卫片的分辨率不大于雷达波束的成像精度。
8.如权利要求1所述的基于DOM卫片的场景建模仿真方法,其特征在于:将所述波束覆盖区进行网格化时,网格的精度不大于雷达波束的成像精度。
9.如权利要求1所述的基于DOM卫片的场景建模仿真方法,其特征在于:所述DOM卫片的拍摄时间接近导弹进行飞行的时间。
10.如权利要求1所述的基于DOM卫片的场景建模仿真方法,其特征在于:所述DOM卫片所覆盖的范围包含所有的成像匹配区。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910817204.7A CN110579744B (zh) | 2019-08-30 | 2019-08-30 | 一种基于dom卫片的场景建模仿真方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910817204.7A CN110579744B (zh) | 2019-08-30 | 2019-08-30 | 一种基于dom卫片的场景建模仿真方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110579744A true CN110579744A (zh) | 2019-12-17 |
CN110579744B CN110579744B (zh) | 2021-05-07 |
Family
ID=68812305
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910817204.7A Active CN110579744B (zh) | 2019-08-30 | 2019-08-30 | 一种基于dom卫片的场景建模仿真方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110579744B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111157020A (zh) * | 2020-01-07 | 2020-05-15 | 湖北航天技术研究院总体设计所 | 一种基于dem数据修正导航系统导航高程的方法 |
CN117077438A (zh) * | 2023-10-12 | 2023-11-17 | 西安羚控电子科技有限公司 | 基于图像整合与提取的合成孔径雷达仿真方法及装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102176013A (zh) * | 2010-12-17 | 2011-09-07 | 北京航空航天大学 | 一种弹载非理想凝视聚束式sar混合度提取方法 |
US8193967B2 (en) * | 2008-12-10 | 2012-06-05 | The United States Of America As Represented By The Secretary Of The Army | Method and system for forming very low noise imagery using pixel classification |
CN103207387A (zh) * | 2013-03-26 | 2013-07-17 | 北京理工雷科电子信息技术有限公司 | 一种机载相控阵pd雷达杂波的快速模拟方法 |
CN106501784A (zh) * | 2016-11-03 | 2017-03-15 | 中国科学院电子学研究所 | 一种弹载合成孔径雷达仿真测试装置 |
CN108387897A (zh) * | 2018-02-12 | 2018-08-10 | 西安电子科技大学 | 基于改进高斯牛顿-遗传混合算法的弹体定位方法 |
CN108594223A (zh) * | 2018-03-26 | 2018-09-28 | 西南电子技术研究所(中国电子科技集团公司第十研究所) | 机载sar图像目标定位方法 |
CN109471101A (zh) * | 2018-10-19 | 2019-03-15 | 湖北航天技术研究院总体设计所 | 一种弹载sar图像校正方法 |
-
2019
- 2019-08-30 CN CN201910817204.7A patent/CN110579744B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8193967B2 (en) * | 2008-12-10 | 2012-06-05 | The United States Of America As Represented By The Secretary Of The Army | Method and system for forming very low noise imagery using pixel classification |
CN102176013A (zh) * | 2010-12-17 | 2011-09-07 | 北京航空航天大学 | 一种弹载非理想凝视聚束式sar混合度提取方法 |
CN103207387A (zh) * | 2013-03-26 | 2013-07-17 | 北京理工雷科电子信息技术有限公司 | 一种机载相控阵pd雷达杂波的快速模拟方法 |
CN106501784A (zh) * | 2016-11-03 | 2017-03-15 | 中国科学院电子学研究所 | 一种弹载合成孔径雷达仿真测试装置 |
CN108387897A (zh) * | 2018-02-12 | 2018-08-10 | 西安电子科技大学 | 基于改进高斯牛顿-遗传混合算法的弹体定位方法 |
CN108594223A (zh) * | 2018-03-26 | 2018-09-28 | 西南电子技术研究所(中国电子科技集团公司第十研究所) | 机载sar图像目标定位方法 |
CN109471101A (zh) * | 2018-10-19 | 2019-03-15 | 湖北航天技术研究院总体设计所 | 一种弹载sar图像校正方法 |
Non-Patent Citations (1)
Title |
---|
高桂清等: "弹道导弹被动段雷达截面积仿真计算研究", 《系统仿真学报》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111157020A (zh) * | 2020-01-07 | 2020-05-15 | 湖北航天技术研究院总体设计所 | 一种基于dem数据修正导航系统导航高程的方法 |
CN111157020B (zh) * | 2020-01-07 | 2021-06-15 | 湖北航天技术研究院总体设计所 | 一种基于dem数据修正导航系统导航高程的方法 |
CN117077438A (zh) * | 2023-10-12 | 2023-11-17 | 西安羚控电子科技有限公司 | 基于图像整合与提取的合成孔径雷达仿真方法及装置 |
CN117077438B (zh) * | 2023-10-12 | 2024-01-26 | 西安羚控电子科技有限公司 | 基于图像整合与提取的合成孔径雷达仿真方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN110579744B (zh) | 2021-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109507665B (zh) | 一种基于星载ais实时信息引导的星上自主成像方法 | |
CN102741706B (zh) | 地理参照图像区域的方法 | |
CN107490364A (zh) | 一种大角度倾斜成像航空相机对地目标定位方法 | |
CN110220491B (zh) | 一种无人机的光学吊舱安装误差角估算方法 | |
CN107132542B (zh) | 一种基于光学和多普勒雷达的小天体软着陆自主导航方法 | |
CN105698762A (zh) | 一种单机航迹上基于不同时刻观测点的目标快速定位方法 | |
CN106373159A (zh) | 一种简化的无人机多目标定位方法 | |
CN109471101A (zh) | 一种弹载sar图像校正方法 | |
CN110579744B (zh) | 一种基于dom卫片的场景建模仿真方法 | |
CN105180963A (zh) | 基于在线标校的无人机遥测参数修正方法 | |
CN110542407A (zh) | 一种航拍图像任意像素点定位信息获取方法 | |
CN108627142A (zh) | 一种结合离线高程和机载光电吊舱的目标定位方法 | |
CN115511956A (zh) | 一种无人机成像定位方法 | |
CN113409400A (zh) | 一种基于自动跟踪的机载光电系统目标地理定位方法 | |
RU2513900C1 (ru) | Способ и устройство определения координат объектов | |
CN106353756A (zh) | 基于图像匹配的下降轨聚束合成孔径雷达定位方法 | |
CN110017833B (zh) | 基于像元类地模型的全屏像点地理坐标定位方法 | |
CN105182315A (zh) | 获取大摆角光学遥感卫星的遥感图像地面分辨率的方法 | |
KR102028323B1 (ko) | 영상 레이더의 영상 보정 장치 및 시스템 | |
CN115932823B (zh) | 基于异源区域特征匹配的飞行器对地面目标定位方法 | |
CN109471103B (zh) | 一种弹载双基sar数据融合定位误差修正方法 | |
CN108489483B (zh) | 一种船载星光定向仪单星次优修正算法 | |
CN114353831B (zh) | 一种船载usb测角误差修正模型及其实现方法 | |
CN113418448B (zh) | 一种破片分布检测系统和方法 | |
CN116309798A (zh) | 一种无人机成像定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |