CN101685154A - 一种双/多基地逆合成孔径雷达图像融合方法 - Google Patents

一种双/多基地逆合成孔径雷达图像融合方法 Download PDF

Info

Publication number
CN101685154A
CN101685154A CN 200810223234 CN200810223234A CN101685154A CN 101685154 A CN101685154 A CN 101685154A CN 200810223234 CN200810223234 CN 200810223234 CN 200810223234 A CN200810223234 A CN 200810223234A CN 101685154 A CN101685154 A CN 101685154A
Authority
CN
China
Prior art keywords
target
image
subtense angle
distance
theta
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN 200810223234
Other languages
English (en)
Other versions
CN101685154B (zh
Inventor
叶春茂
许稼
彭应宁
王秀坛
左渝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN 200810223234 priority Critical patent/CN101685154B/zh
Publication of CN101685154A publication Critical patent/CN101685154A/zh
Application granted granted Critical
Publication of CN101685154B publication Critical patent/CN101685154B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明公开一种双/多基地逆合成孔径雷达(ISAR)图像融合方法,包括:对各基地接收的目标回波信号等分,获取两幅距离-多普勒(RD)图像。通过在各个基地获取的目标RD图像上提取三个以上较稳定的特显点,估计任意两幅RD图像之间的视角差。组合这些视角差,得到目标转速估计和双/多基地之间视角差的估计。获得目标转速估计后,即可以估计目标的等效旋转中心。在所目标运动信息已知后,可以得到各基地数据的定标RD图像;也可以得到各基地数据的极坐标成像结果或卷积/逆投影成像结果;可以得到双/多基地数据级融合的成像结果。

Description

一种双/多基地逆合成孔径雷达图像融合方法
技术领域
本发明涉及雷达技术领域,更具体地,本发明涉及一种双/多基地逆合成孔径雷达图像融合处理方法。
背景技术
逆合成孔径雷达(ISAR)可以提供非合作运动目标(例如飞机、舰船)的二维图像,从而增强后续的目标识别能力。ISAR通过发射宽带信号提供沿雷达视线方向(距离向)的高分辨能力,通过对雷达和目标之间相对视角的变化进行相干积累提供横向分辨能力。当所成图像积累的目标视角变化较小时,采用高效的FFT处理即可获得目标的距离-多普勒(RD)图像。
根据ISAR成像原理,在积累的目标视角变化较小时,所成图像的横向分辨率有限。虽然可以采用超分辨技术提高横向分辨率,但是提高有限,也无法提高后续对目标的识别能力。双/多基地雷达配置可以针对目标提供多视角的观测,如果能将各个视角下观测数据融合处理,则可望在较短的积累时间内得到高分辨的目标图像,并提高后续的目标识别水平。
目前针对双/多基地ISAR的研究多侧重于成像原理特性的分析,实际上,要对所获得的多视角数据融合,必须已知各段数据之间的视角差、目标转速、目标旋转中心等信息。对于非合作运动目标成像而言,必须从观测数据中估计这些信息。而现有的逆合成孔径雷达对目标回波信号的分析都是针对距离单元内的回波进行的,而散射点回波驻留在同一距离单元内的时间有限(特别是对于高分辨雷达);因而,信号的高阶相位系数通常很小,参数提取困难,参数提取的计算量较大,精度较低。
发明内容
为克服现有雷达图像的横向分辨率低而多视角图像合成时成像信息提取困难并且不准确的缺陷,本发明提出了一种基于相邻RD图像中亚像素级散射中心位置提取的视角差、目标转速及目标等效旋转中心的图像融合方法。
根据本发明的一个方面,本发明提供一种双/多基地逆合成孔径雷达图像融合方法,包括:
步骤10)、根据从所述双/多基地逆合成孔径雷达中的每一个接收到的目标回波数据,各获得两幅等分辨率的距离-多普勒图像;
步骤20)、在所有距离-多普勒图像的每一个中提取至少三个散射中心位置,并对所述散射中心进行关联;
步骤30)、在所有距离-多普勒图像的任意两幅中选取三个不在同一条直线上的相关联的散射中心进行组合,获得所述两幅距离-多普勒图像之间视角差的估计;
步骤40)、通过所述多幅距离-多普勒图像之间视角差的组合,获取所述双/多基地逆合成孔径雷达之间的视角差、目标转速及等效旋转中心的估计;
步骤50)、根据所述双/多基地之间的视角差、目标转速及等效旋转中心的估计,对各基地所获的距离-多普勒图像横向定标,获得所述双/多基地观测的目标融合成像。
在另一实施例中,所述步骤50)包括:根据所述双/多基地之间的视角差、目标转速及等效旋转中心的估计,获得不同观测视角下的高度聚焦图像,得到所述双/多基地观测的目标融合成像。
其中,步骤10)中,对各基地逆合成孔径雷达接收到的目标回波数据进行脉冲平分,获得具有相同视角积累量的距离-多普勒图像,其中,所述各基地获得的所有距离-多普勒图像等分辨率。
其中,步骤20)中,确定散射中心附近T分贝二维主瓣的宽度,一般情况下,T的取值为6,确定散射中心所在的区域,对所述区域内的数据在两个方向上分别进行加权处理,在所有距离-多普勒图像的每一个中提取至少三个亚像素级的散射中心位置,所述散射中心位置为:
x est = Σ i Σ j x i f 2 ( x i , y j ) Σ i Σ j f 2 ( x i , y j ) ; y est = Σ i Σ j y i f 2 ( x i , y j ) Σ i Σ j f 2 ( x i , y j ) ;
其中,xi和yj表示像素的位置,f(xi,yj)表示该像素的幅度。
其中,步骤20)中,采用最近邻方法关联相邻图像中所提取的散射中心。
其中,步骤30)中,在所述两幅距离-多普勒图像中任意选取三个不在同一条直线上的相关联的散射中心进行组合,通过所述三个散射中心在两次距离-多普勒成像中的位置差,获得所述两幅距离-多普勒图像之间视角差的估计。
其中,步骤30)中,收发机A或接收机B中所成两次距离-多普勒图像之间的视角差矩阵为:
H A ( t m 1 , t m 2 ) = G A ( t m 2 ) G A - 1 ( t m 1 ) = SR A ( t m 2 ) R A - 1 ( t m 1 ) S - 1
= cos Δ θ A ( t m 1 , t m 2 ) - ( η a / η r ) sin Δθ A ( t m 1 , t m 2 ) ( η r / η a ) sin Δθ A ( t m 1 , t m 2 ) cos Δθ A ( t m 1 , t m 2 )
相应的视角差估计为:
ΔθA(tm1,tm2)=0.5*acos(ted(HA(tm1,tm2)))
               =0.5*acos(ted(HA(tm1,tm2))-det(HA(tm1,tm2))+1)
其中,ΔθA(tm1,tm2)=ωo(tm2-tm1)为两幅距离-多普勒图像之间的视角差,ωo为目标等效转速,tm1和tm2是两次成像时刻。GA(tm1)和GA(tm2)分别是两个时刻获得的由距离-多普勒图像中三个散射中心的位置构成的观测矩阵,S=diag(1/ηr,1/ηa)为距离-多普勒图像的尺度矩阵,ηr和ηa分别表示距离向和跨距离向尺度因子,
Figure A20081022323400085
表示旋转矩阵。
其中,步骤30)中,对于自发自收的双/多基地配置方式,双基地之间两次距离-多普勒成像之间的视角差矩阵为:
H AB ( t mh , t mk ) = G A ( t mh ) G B - 1 ( t mk )
= cos Δ θ AB ( t mh , t mk ) - ( η a / η r ) sin Δθ AB ( t mh , t mk ) ( η r / η a ) sin Δθ AB ( t mh , t mk ) cos Δθ AB ( t mh , t mk )
相应的视角差估计为:
ΔθA(tm1,tm2)=0.5*acos(ted(HAB(tmh,tmk)))
               =0.5*acos(ted(HAB(tmh,tmk))-det(HAB(tmh,tmk))+1)
其中,ΔθAB(tmh,tmk)=ωo(tmh-tmk)-βD为双基地雷达图像之间的视角差;βD=βAB为两部雷达之间的视角差。
其中,步骤30)中,对于一发双/多收的双/多基地配置方式,接收机所获图像和收发机所获图像之间的视角差矩阵为:
H AB ( t mh , t mk ) = G A ( t mh ) G B - 1 ( t mk )
= 1 cos β D cos Δ θ AB ( t mh , t mk ) - ( η a / η r ) sin Δθ AB ( t mh , t mk ) ( η r / η a ) sin Δθ AB ( t mh , t mk ) cos Δθ AB ( t mh , t mk )
相应的视角差估计为:
Δ θ AB ( t mh , t mk ) = 0.5 * a cos ( ted ( H AB ( t mh , t mk ) ) det ( H AB ( t mh , t mk ) ) )
= a sin ( det ( H AB ( t mh , t mk ) ) - ted ( H AB ( t mh , t mk ) ) 2 * det ( H AB ( t mh , t mk ) ) )
其中,两幅距离-多普勒图像之间的视角差为ΔθAB(tmh,tmk)=ωo(tmh-tmk)-βD,此时βD=(βAB)/2为接收机与发射机之间的视角差。
其中,步骤40)中,由接收机或发射机获取的两幅距离-多普勒图像的视角差,结合两次成像的时间间隔,获得目标转速的估计。
其中,步骤40)中,通过接收机和发射机在相同时刻获得的距离-多普勒图像之间的视角差,得到接收机和发射机之间的视角差估计;结合接收机和发射机在不同时刻获得的距离-多普勒图像之间的视角差,得到目标的转速估计。
其中,步骤40)中,获取接收机或发射机中的两幅距离-多普勒图像之间的视角差矩阵HA(tm1,tm2)的估计之后,可以得到目标旋转中心的估计:
X AO Y AO = ( I - H A ( t m 1 , t m 2 ) ) - 1 { X A ( t m 2 ) Y A ( t m 2 ) - H A ( t m 1 , t m 2 ) X A ( t m 1 ) Y A ( t m 1 ) }
其中,(XAO,YAO)为等效旋转中心,(XA(tm1),YA(tm1))和(XA(tm2),YA(tm2))为某给定散射中心在两幅距离-多普勒图像中的位置。
其中,步骤50)中,根据所述目标转速估计和系统参数获得距离-多普勒图像的距离向和跨距离向尺度因子,对接收机和发射机中获得的距离-多普勒图像定标。
其中,步骤50)中,根据所述目标转速和等效旋转中心估计以及系统参数对接收机和发射机中接收到的数据进行极坐标格式算法成像或卷积/逆投影成像,获得高精度聚焦的图像。
通过应用本发明,对双/多基地ISAR系统接收机和发射机中获得的目标回波数据进行分段成像,通过在图像域提取亚像素级的散射中心位置,获取任意两次RD图像之间的视角差。通过多幅RD图像之间视角差关系的组合,可以获得双/多基地ISAR视角差的估计、目标转速估计和目标等效旋转中心估计。从而可以获得多视角下的目标不同姿态图像;获得定标的RD图像;获得更好聚焦的目标图像以及获得双/多基地数据级融合的成像结果。
附图说明
图1为双基地ISAR对旋转体成像的几何模型示意图;
图2为散射点目标模型示意图;
图3为根据本发明的实施例的目标转速估计方法流程图;
图4为双基地ISAR所获的多幅RD图像之间的视角差关系示意图;
图5为ISAR信号处理流程示意图;
图6为为多幅RD图像中散射中心位置的提取和关联结果示意图;
图7为多幅RD图像中散射中心位置示意图;
图8为双基地ISAR所获的未定标RD图像;
图9为双基地ISAR所获的定标RD图像;
图10为双基地ISAR所获的卷积/逆投影成像结果示意图;
图11为双基地ISAR数据级融合的成像结果示意图;
图12为雷达数据支撑区示意图。
具体实施方式
下面结合附图并且以自发自收双基地ISAR配置为主的实施例,详细说明本发明提供的一种双/多基地逆合成孔径雷达(ISAR)图像融合处理方法。
在根据本发明的一个实施例中,图1示出双基地ISAR对旋转体成像的几何模型,本例中假设采用自发自收的双基地ISAR系统具有相同的基带信号带宽和载波频率等系统参数,同时发射正交波形,所述两部雷达分别位于目标空间的以目标为原点的极坐标(RAO,βA)和(RBO,βB)的位置,目标旋转中心构成的平面与匀速转动目标的旋转轴垂直。
图2示出散射点目标模型,在本实施例中,目标模型的主要仿真参数包括:雷达系统载波频率为5.52GHz,发射机发射线性调频信号,带宽300MHz(对于自发自收的雷达系统,假设波形正交),采用匹配滤波方式获得脉冲压缩信号,并经正交I/Q双通道采样,采样频率400MHz;等效脉冲重复频率300Hz;两部雷达之间的视角差为4度,并同时获取1024个脉冲进行处理。
图3为根据本发明的实施例的双/多基地逆合成孔径雷达图像融合方法流程图,如图3所示,该方法包括:对各基地接收到的目标回波数据分别成像,每一基地获得两幅等分辨率的原始图像,对所获得的图像数据进行平动补偿,形成多RD图像;在各基地所获的所有RD图像中提取至少三个亚像素级的散射中心位置,并对散射中心进行关联;任意选择两幅RD图像,并在其中任意选取三个不在同一条直线上的散射中心进行组合,通过这三个散射中心在两次RD成像中的位置差,获得这两幅RD图像之间视角差的估计;通过多幅RD图像之间视角差的组合,获取双/多基地之间视角差、目标转速及等效旋转中心的估计;根据运动估计结果可对各基地所获的RD图像横向定标、也可以获得不同观测视角下的高度聚焦图像,还可以获得多基地观测的数据级融合成像结果。
如图4所示,分别在时间轴上等分两部雷达接收到的原始数据,各自得到两幅RD图像,例如,雷达A接收到的数据为A1和A2,雷达B接收到的数据为B1和B2,具体获取和应用在下文中表述。
图5示出根据本发明的实施例的ISAR信号处理流程,如图5所示,首先通过对两部ISAR系统接收到的信号回波做平动补偿去除目标相对于雷达的平动成分,通常,在较短的观测间隔内,ISAR目标可被视为如图1所示平面匀速旋转体模型。对目标的平动补偿通常分两步进行,包括回波包络对齐和平动初相校正。现有较稳健的包络对齐方法主要有基于相邻脉冲积累的回波相关法、全局最小熵法等;较稳健的平动初相校正方法主要有多普勒质心跟踪(DopplerCentroid Tracking,DCT)法及其改进算法,如基于圆移位处理的多普勒质心跟踪(Circular Shifting based DCT,CS-DCT)法等。
在平面波照射下,通过处理目标的宽带回波获得沿雷达视线方向(距离向)的高分辨;通过对回波相干积累处理回波的多普勒频率信息,从而形成跨距离向高分辨图像。
返回参见图1,设经过平动补偿之后目标以ωo匀速转动,则目标上一点(xo,yo)到雷达A和雷达B的天线相位中心(APC)的瞬时距离可分别表示为:
R A ( t m ) = R AO 2 + r o 2 - 2 R AO r o cos ( θ o + ω o t m - β A ) (1)
≈ R AO - r o cos ( θ o + ω o t m - β A )
R B ( t m ) = R BO 2 + r o 2 - 2 R BO r o cos ( θ o + ω o t m - β B ) (2)
≈ R BO - r o cos ( θ o + ω o t m - β B )
ISAR的RD成像原理,实际就是散射中心相对于雷达延时和多普勒测量。则散射中心在雷达A所成的离散RD图像中的位置可分别表示为:
XA(tm)=-fs(2RA/c)≈XAO+rocos(θootmA)/ηr
Y A ( t m ) = M f r 2 λ d R A d t m ≈ r o sin ( θ o + ω o t m - β A ) / η a - - - ( 3 )
其中,fs为系统采样频率;c为光速,近似为300000000米/秒,fr为脉冲重频;λ为载波波长;M为RD图像积累脉冲数。XAO=-RAOr为恒定项,ηr和ηa分别为RD图像的距离向和跨距离向尺度因子(scaling factor,SF)。对于通过匹配滤波进行脉冲压缩的方式:
η r = c 2 f s η a = λ f r 2 M ω o - - - ( 4 )
对于通过解调频(dechirp)方式进行脉冲压缩的情况:
η r = f s N c 2 γ = cf s T p 2 NB η a = λ f r 2 M ω o - - - ( 5 )
其中,γ为线性调频信号的调频率,N为一次脉冲的采样点数,B为LFM信号带宽,Tp为脉冲持续时间。
将式(3)中的映射关系表示成矩阵形式可以得到
X A ( t m ) Y A ( t m ) = X AO 0 + SR A ( t m ) x o y o - - - ( 6 )
其中,S为对角形式的尺度变换矩阵,RA为随脉冲时间变化的旋转矩阵
S = 1 / η r 1 / η a - - - ( 7 )
R A ( t m ) = cos ( ω o t m - β A ) - sin ( ω o t m - β A ) sin ( ω o t m - β A ) cos ( ω o t m - β A ) - - - ( 8 )
同理,该散射中心在雷达B所成的离散RD图像中的位置为
X B ( t m ) Y B ( t m ) = X BO 0 + SR B ( t m ) x o y o - - - ( 9 )
其中,XBO=-RBOr为恒定项,时变的旋转矩阵RB
R B ( t m ) = cos ( ω o t m - β B ) - sin ( ω o t m - β B ) sin ( ω o t m - β B ) cos ( ω o t m - β B ) - - - ( 10 )
对于雷达A发射信号,雷达B仅作为接收机的情况,此时,散射中心在接收机B所成的离散RD图像中的位置映射为:
X B ( t m ) = - f s ( R A + R B ) / c ≈ X BO + r o cos ( θ o + ω o t m - β S ) cos β D η r (11)
Y B ( t m ) = M f r 1 λ d ( R A + R B ) d t m ≈ cos β D η a r o sin ( θ o + ω o t m - β S )
其中,恒定项
Figure A20081022323400141
表示旋转中心的距离,βS和βD表示接收机和发射机之间的视角关系:
β S = β A + β B 2 β D = β A - β B 2 - - - ( 12 )
表达成矩阵形式,可以得到:
X B ( t m ) Y B ( t m ) = X BO 0 + ( cos β D ) SR B x o y o - - - ( 13 )
其中,时变的旋转矩阵RB为:
R B = cos ( ω o t m - β S ) - sin ( ω o t m - β S ) sin ( ω o t m - β S ) cos ( ω o t m - β S ) - - - ( 14 )
散射中心位置提取、关联
在所获取的多幅RD图像中提取亚像素级散射中心的位置可以采用加权求重心的方式获得。
首先对获取的目标RD图像进行二维插值以提高散射中心位置提取的精度。通常为减少计算量,可以通过FFT实现二维sinc插值。选择目标图像中较强的散射中心,通过计算该散射中心附近T dB二维主瓣的宽度,T一般取值为6,确定散射中心所在的主要区域,对该区域内的数据在两个方向上分别进行如下的加权处理,从而获得更精确的散射中心位置信息。
x est = Σ i Σ j x i f 2 ( x i , y j ) Σ i Σ j f 2 ( x i , y j ) y est = Σ i Σ j y i f 2 ( x i , y j ) Σ i Σ j f 2 ( x i , y j ) - - - ( 15 )
其中,xi和yj表示像素的位置,f(xi,yj)表示该像素的幅度。
散射中心关联可采用最近邻(nearest neighboring,NN)方法实现。由于散射中心位置在相邻两幅图像之间的变化很小,NN方法即可保证散射中心关联效果。本例中,在所成的四幅RD图像中一共提取了9个散射中心,其位置提取及关联结果如图6所示。
散射中心三三组合,可以获取任意两幅RD图像之间的视角差估计。
假设能在两部ISAR所成的RD图像中提取三个散射中心(xi,yi),(xk,yk)和(xh,yh)的位置,如图7所示,则对于雷达A,根据式(6)可以得到如下观测矩阵:
GA(tm)=SRA(tm)C    (16)
其中,GA(tm)为A雷达获得的观测矩阵,C为由三个散射中心确定的构造矩阵:
G A ( t m ) = X Ai ( t m ) - X Ah ( t m ) X Ai ( t m ) - X Ak ( t m ) Y Ai ( t m ) - Y Ah ( t m ) Y Ai ( t m ) - Y Ak ( t m ) - - - ( 17 )
C = x i - x h x i - x k y i - y h y i - y k = x 1 x 2 y 1 y 2 - - - ( 18 )
对于雷达B,同理可以得到如下的观测矩阵:
GB(tm)=SRB(tm)C    (19)
其中,雷达B获得的观测矩阵GB(tm)为:
G B ( t m ) = X Bi ( t m ) - X Bh ( t m ) X Bi ( t m ) - X Bk ( t m ) Y Bi ( t m ) - Y Bh ( t m ) Y Bi ( t m ) - Y Bk ( t m ) - - - ( 20 )
对于一发双收的配置形式,对于接收机,根据式(13)可得:
GB(tm)=(cosβD)SRB(tm)C    (21)
其中,接收机获得的观测矩阵GB(tm)符合式(20)的形式。
假设能获得两部雷达在tm1和tm2时刻所成的RD图像,仍然以雷达A为例,根据式(16)可以得到:
G A ( t m 2 ) = SR A ( t m 2 ) R A - 1 ( t m 1 ) S - 1 G A ( t m 1 ) - - - ( 22 )
则如果观测矩阵GA(tm1)的逆矩阵存在(也就是说三个散射中心不在同一条直线上),则可得到两次成像的视角差矩阵HA(tm1,tm2)为:
H A ( t m 1 , t m 2 ) = G A ( t m 2 ) G A - 1 ( t m 1 ) = SR A ( t m 2 ) R A - 1 ( t m 1 ) S - 1
(23)
= cos Δ θ A ( t m 1 , t m 2 ) - ( η a / η r ) sin Δθ A ( t m 1 , t m 2 ) ( η r / η a ) sin Δθ A ( t m 1 , t m 2 ) cos Δθ A ( t m 1 , t m 2 )
其中,ΔθA(tm1,tm2)为两次成像之间的视角差。
ΔθA(tm1,tm2)=ωo(tm2-tm1)    (24)
对于形如
Figure A20081022323400163
的矩阵,定义函数ted()如下
ted(M)=m11m22+m21m22    (25)
根据式(23),显然可得
det(HA(tm1,tm2))=1    ted(HA(tm1,tm2))=cos(2ΔθA(tm1,tm2))    (26)
则雷达A两次所成的RD图像之间视角差可估计如下
ΔθA(tm1,tm2)=0.5*acos(ted(HA(tm1,tm2)))
                                                     (27)
               =0.5*acos(ted(HA(tm1,tm2))-det(HA(tm1,tm2))+1)
根据(23)~(27)同样可以得到雷达B的两次成像结果之间的视角差。
根据式(6)~(10)可以得到自发自收双基地A和B之间观测矩阵存在如下的关系:
G A ( t mh ) = SR A ( t mh ) R B - 1 ( t mk ) S - 1 G B ( t mk ) , h , k = 1,2 - - - ( 28 )
同理,当观测矩阵GB(tmk)可逆时,可得到两次RD成像之间的视角差矩阵为:
H AB ( t mh , t mk ) = G A ( t mh ) G B - 1 ( t mk )
= cos Δ θ AB ( t mh , t mk ) - ( η a / η r ) sin Δθ AB ( t mh , t mk ) ( η r / η a ) sin Δθ AB ( t mh , t mk ) cos Δθ AB ( t mh , t mk ) - - - ( 29 )
其中,视角差ΔθAB(tmh,tmk)为:
ΔθAB(tmh,tmk)=(ωotmhA)-(ωotmkB)
                                                (30)
                =ωo(tmh-tmk)-βDI
其中,βDI=βBA为两部雷达之间的视角差;根据式(27),同样可以得到双基地RD图像之间的视角差估计。
对于一发双收的双基地ISAR形式,根据式(6)~(8)和式(13)~(14)可以获知接收机和收发机中得到的RD图像视角差矩阵存在如下的关系:
G A ( t mh ) = 1 cos β D SR A ( t mh ) R B - 1 ( t mk ) S - 1 G B ( t mk ) , h , k = 1,2 - - - ( 31 )
同理,当观测矩阵GB(tmk)可逆时,得到:
H AB ( t mh , t mk ) = G A ( t mh ) G B - 1 ( t mk )
(32)
= 1 cos β D cos Δ θ AB ( t mh , t mk ) - ( η a / η r ) sin Δθ AB ( t mh , t mk ) ( η r / η a ) sin Δθ AB ( t mh , t mk ) cos Δθ AB ( t mh , t mk )
其中,视角差ΔθAB(tmh,tmk)为:
ΔθAB(tmh,tmk)=(ωotmhA)-(ωotmkS)
                                                (33)
                =ωo(tmh-tmk)-βD
根据式(33),可以得到:
( H AB ( t mh , t mk ) ) = 1 cos 2 β D (34)
ted ( H AB ( t mh , t mk ) ) = 1 cos 2 β D cos ( 2 Δ θ AB ( t mh , t mk ) )
此时两幅图像之间的视角差估计为:
Δ θ AB ( t mh , t mk ) = 0.5 * a cos ( ted ( H AB ( t mh , t mk ) ) det ( H AB ( t mh , t mk ) ) ) (35)
= a sin ( det ( H AB ( t mh , t mk ) ) - ted ( H AB ( t mh , t mk ) ) 2 * det ( H AB ( t mh , t mk ) ) )
对所提取的散射中心组合的进行优化是上述视角差估计精度的保证,主要目标是为保证观测矩阵的非病态性,即需要删除三个散射中心位于一条直线附近的组合。
通过多幅RD图像之间的视角差估计,得到目标转速,等效旋转中心和双基地视角差的估计。
其中,对目标的转速估计可以通过收发机或者接收机中得到的两幅RD图像的视角差,结合两次成像的时间差获得。对目标转速的估计也可以通过双基地在相同时刻和不同时刻的视角差估计结果组合估计。
返回参见图4,通过A1和A2以及B1和B2之间的视角差,结合系统的脉冲参数,就可以得到目标的转速。另外,通过A1和B1,A2和B1以及A1和B2,A2和B2之间的视角差,同样可以获取A1和A2之间的视角差,得到目标的转速估计。同理,采用这样的组合方法可以得到B1和B2之间的视角差。
得到了目标的转速估计后,即可获得收发机/接收机中两次RD成像之间的视角差矩阵,目标等效旋转中心的估计实际是要估计XAO和XAO,根据表达式(6)~(14),以雷达A为例可得:
X A ( t m 2 ) - X AO Y A ( t m 2 ) - Y AO = SR A ( t m 2 ) R A - 1 ( t m 1 ) S - 1 X A ( t m 1 ) - X AO Y A ( t m 1 ) - Y AO (36)
= H A ( t m 1 , t m 2 ) X A ( t m 1 ) - X AO Y A ( t m 1 ) - Y AO
其中YAO≈0,从而得到等效旋转中心(XAO,YAO)的估计如下:
X AO Y AO = ( I - H A ( t m 1 , t m 2 ) ) - 1 { X A ( t m 2 ) Y A ( t m 2 ) - H A ( t m 1 , t m 2 ) X A ( t m 1 ) Y A ( t m 1 ) } - - - ( 37 )
同理可以得到雷达B中观测的目标等效旋转中心(XBO,YBO)估计,也就是说,当获得目标转速之后,才能估计目标等效旋转中心的位置。
根据相同时刻两部雷达之间所成RD图像的视角差估计,就可以得到两部雷达之间的视角差估计,如图4,A1和B1以及A2和B2之间的视角差就是双基地ISAR观测目标的视角差。
本实验中,双基地ISAR对目标的观测时间大约为3.413秒,对应的目标转角约为2.9335度。根据雷达系统仿真参数和所积累的时间间隔,易知单基地ISAR所成图像的距离向和跨距离向理论分辨率分别为0.5米和0.531米。
根据本发明的方法,所成RD图像之间的视角差如表1所示。即,A1和A2之间的视角差约为1.4849度,B1和B2之间的视角差约为1.4562度。通过如图4所示的组合方式得到A1和A2之间的视角差估计分别为1.4876度和1.4885度;B1和B2之间的视角差估计分别为1.4704度和1.4695度。综上结果,最终得到的目标转角估计约为2.9524度,从而目标的转速估计约为0.0151rad./sec.。
表1 RD图像间视角差估计结果
Figure A20081022323400191
同样,从表1中可以看出,通过A1和B1及A2和B2得到的双基地视角差估计分别约为4.0424度和4.0605度,即平均视角差估计约为4.0514度。
输出定标图像结果
根据所估计的目标转速,即可对单基地雷达所获取的图像为定标的RD图像,如图8,对此图像进行定标,获取如图9所示的定标RD图像。同时,也可以采用极坐标格式算法(PFA)或卷积反投影算法(CBP)获得更为精细的目标图像,如图10。结合双基地ISAR系统之间的视角差,根据本文所述的图像数据级融合原理,即可获得关于目标的具有更高分辨率的融合图像,如图11所示。
其中,根据图1中的模型,在忽略幅度项时,雷达系统A接收到的基带信号可以表达为
G A ( f , t m ) = ∫ - ∞ ∞ ∫ - ∞ ∞ ρ ( x , y ) exp { j 4 π c ( f b + f c ) ( r cos ( θ - β A + ω o t m ) ) } dxdy - - - ( 38 )
= ∫ - ∞ ∞ ∫ - ∞ ∞ ρ ( x , y ) exp [ j 2 π ( x f x + y f y ) ] dxdy
其中,ρ(x,y)是二维的目标散射密度函数,x=rcos(θ-βA),y=rsin(θ-βA)定义了以雷达A为基准的物理平面,
Figure A20081022323400203
Figure A20081022323400204
定义了空间谱平面,f=fb+fc,fb为基带信号频率,fc为载波频率。
同理,雷达系统B接收到的基带信号为
G B ( f , t m ) = ∫ - ∞ ∞ ∫ - ∞ ∞ ρ ( x , y ) exp { j 4 π c ( f b + f c ) ( r cos ( θ - β B + ω o t m ) ) } dxdy
= ∫ - ∞ ∞ ∫ - ∞ ∞ ρ ( x , y ) exp { j 4 πf c ( x cos ( β DI + ω o t m ) - y sin ( β DI + ω o t m ) ) } dxdy - - - ( 39 )
= ∫ - ∞ ∞ ∫ - ∞ ∞ ρ ( x , y ) exp [ j 2 π ( u f x + v f y ) ] dxdy
其中βDI=βAB两部雷达对目标观测的视角差,u,v定义了以雷达B为基准的物理平面。
u v = cos β DI - sin β DI sin β DI cos β DI x y - - - ( 40 )
可见,雷达B所成图像相对于雷达A所成图像有一定的旋转,该旋转量(姿态差)取决于两部雷达之间的视角差。
实际中,雷达系统的带宽和对目标的观测视角都是有限的,因此,数据的支撑区也是有限的,如图12所示。要实现两部雷达接收数据的融合,需要将两部雷达观测数据相干累加起来
g ( x , y ) = ∫ S ∫ A G A ( f , t m ) exp [ - j 2 π ( x f x + y f y ) ] d f x df y
+ T f _ id { ∫ S ∫ B G B ( f , t m ) exp [ - j 2 π ( u f x + v f y ) ] d f x d f y } - - - ( 41 )
其中,Tf_id()表示如式(40)所示的由(u,v)平面到(x,y)平面的变换。
对于一发双收的配置形式,接收机中接收的基带信号可以表示为
G B ( f , t m ) = ∫ - ∞ ∞ ∫ - ∞ ∞ ρ ( x , y ) exp { j 4 π c ( f b + f c ) ( r cos ( θ - β A + ω o t m + β D ) cos β D ) } dxdy
= ∫ - ∞ ∞ ∫ - ∞ ∞ ρ ( x , y ) exp { j 4 πf c cos β D ( x cos ( β D + ω o t m ) - y sin ( β D + ω o t m ) ) } dxdy - - - ( 42 )
= ∫ - ∞ ∞ ∫ - ∞ ∞ ρ ( x , y ) exp [ j 2 π ( u f x + v f y ) ] dxdy
其中βD=(βAB)/2表示收发机和接收机之间的视角差。u,v定义了以接收机为基准的物理平面。
u v = ( cos β D ) cos β D - sin β D sin β D cos β D x y - - - ( 43 )
此时,要实现收发机和接收机中数据的融合,也需要将两部雷达观测数据相干累加起来
g ( x , y ) = ∫ S ∫ A G A ( f , t m ) exp [ - j 2 π ( x f x + y f y ) ] d f x d f y
+ T fusion { ∫ S ∫ B G B ( f , t m ) exp [ - j 2 π ( u f x + v f y ) ] d f x df y } - - - ( 44 )
其中,Tfusion(·)表示实现从(u,v)平面到(x,y)平面的变换。
因此,只有在获得目标的相对转速、两部雷达之间的视角差等信息,才能融合双/多基地的数据,形成更高分辨率的图像。
从图8~图11所示的成像结果可以看出,单基地的CBP成像结果较之RD成像结果有明显的改善;而双基地数据融合结果相较于单基地成像结果也有明显改善。为定量说明成像效果,表2给出了几种成像方式所获图像的对比度;表3给出了几个散射中心的距离向分辨率(Range Resolution,RR)和跨距离向分辨率(Cross Range Resolution,CRR)计算结果。可见,由于双基地之间视角差较小,双基地融合主要提高了所成图像的跨距离向分辨率。
表2图像对比度比较
Figure A20081022323400221
表3散射中心分辨率比较
Figure A20081022323400222
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非对其限制,并且在应用上可以延伸到其他的修改、变化、应用和实施例,同时认为所有这样的修改、变化、应用、实施例都在本发明的精神和范围内。

Claims (10)

1、一种双/多基地逆合成孔径雷达图像融合方法,包括:
步骤10)、根据从所述双/多基地逆合成孔径雷达中的每一个接收到的目标回波数据,各获得两幅等分辨率的距离-多普勒图像;
步骤20)、在所有距离-多普勒图像的每一个中提取至少三个散射中心位置,并对所述散射中心进行关联;
步骤30)、在所有距离-多普勒图像的任意两幅中选取三个不在同一条直线上的相关联的散射中心进行组合,获得所述两幅距离-多普勒图像之间视角差的估计;
步骤40)、通过所述多幅距离-多普勒图像之间视角差的组合,获取所述双/多基地逆合成孔径雷达之间的视角差、目标转速及等效旋转中心的估计,得到所述双/多基地观测的目标融合成像。
2、权利要求1的方法,其中,步骤40)中获取目标融合图像包括:根据所述双/多基地之间的视角差、目标转速及等效旋转中心的估计,对各基地所获的距离-多普勒图像横向定标;或者获取不同观测视角下的高度聚焦图像,以得到所述双/多基地观测的目标融合成像。
3、权利要求1的方法,其中,步骤10)中,对各基地逆合成孔径雷达接收到的目标回波数据进行脉冲平分,获得具有相同视角积累量的距离-多普勒图像,其中,所述各基地获得的所有距离-多普勒图像等分辨率。
4、权利要求1的方法,其中,步骤20)中,确定散射中心附近T分贝二维主瓣的宽度,一般情况下,T的取值为6,确定散射中心所在的区域,对所述区域内的数据在两个方向上分别进行加权处理,在所有距离-多普勒图像的每一个中提取至少三个亚像素级的散射中心位置,所述散射中心位置为:
x est = Σ i Σ j x i f 2 ( x i , y j ) Σ i Σ j f 2 ( x i , y j ) ; y est = Σ i Σ j y i f 2 ( x i , y j ) Σ i Σ j f 2 ( x i , y j ) ;
其中,xi和yj表示像素的位置,f(xi,yj)表示该像素的幅度;
进一步,采用最近邻方法关联相邻图像中所提取的散射中心。
5、权利要求4的方法,其中,步骤30)中,在所述两幅距离-多普勒图像中任意选取三个不在同一条直线上的相关联的散射中心进行组合,通过所述三个散射中心在两次距离-多普勒成像中的位置差,获得所述两幅距离-多普勒图像之间视角差的估计。
6、权利要求5的方法,其中,步骤30)中,收发机A或接收机B中所成两次距离-多普勒图像之间的视角差矩阵为:
H A ( t m 1 , t m 2 ) = G A ( t m 2 ) G A - 1 ( t m 1 ) = SR A ( t m 2 ) R A - 1 ( t m 1 ) S - 1
= cos Δ θ A ( t m 1 , t m 2 ) - ( η a / η r ) sin Δ θ A ( t m 1 , t m 2 ) ( η r / η a ) sin Δ θ A ( t m 1 , t m 2 ) cos Δ θ A ( t m 1 , t m 2 )
相应的视角差估计为:
ΔθA(tm1,tm2)=0.5*acos(ted(HA(tm1,tm2)))
               =0.5*acos(ted(HA(tm1,tm2))-det(HA(tm1,tm2))+1)
其中,ΔθA(tm1,tm2)=ωo(tm2-tm1)为两幅距离-多普勒图像之间的视角差,ωo为目标等效转速,tm1和tm2是两次成像时刻。GA(tm1)和GA(tm2)分别是两个时刻获得的由距离-多普勒图像中三个散射中心的位置构成的观测矩阵,S=diag(1/ηr,1/ηa)为距离-多普勒图像的尺度矩阵,ηr和ηa分别表示距离向和跨距离向尺度因子,
Figure A2008102232340003C5
表示旋转矩阵。
7、权利要求5的方法,其中,步骤30)还包括:
对于自发自收的双/多基地配置方式,双基地之间两次距离-多普勒成像之间的视角差矩阵为:
H AB ( t mh , t mk ) = G A ( t mh ) G B - 1 ( t mk )
= cos Δ θ AB ( t mh , t mk ) - ( η a / η r ) sin Δ θ AB ( t mh , t mk ) ( η r / η a ) sin Δ θ AB ( t mh , t mk ) cos Δ θ AB ( t mh , t mk )
相应的视角差估计为:
ΔθA(tm1,tm2)=0.5*acos(ted(HAB(tmh,tmk)))
               =0.5*acos(ted(HAB(tmh,tmk))-det(HAB(tmh,tmk))+1)
其中,ΔθAB(tmh,tmk)=ωo(tmh-tmk)-βD为双基地雷达图像之间的视角差;βD=βAB为两部雷达之间的视角差;
对于一发双/多收的双/多基地配置方式,接收机所获图像和收发机所获图像之间的视角差矩阵为:
H AB ( t mh , t mk ) = G A ( t mh ) G B - 1 ( t mk )
= 1 cos β D cos Δ θ AB ( t mh , t mk ) - ( η a / η r ) sin Δ θ AB ( t mh , t mk ) ( η r / η a ) sin Δ θ AB ( t mh , t mk ) cos Δ θ AB ( t mh , t mk )
相应的视角差估计为:
Δ θ AB ( t mh , t mk ) = 0.5 * a cos ( ted ( H AB ( t mh , t mk ) ) det ( H AB ( t mh , t mk ) ) )
= a sin ( det ( H AB ( t mh , t mk ) ) - ted ( H AB ( t mh , t mk ) ) 2 * det ( H AB ( t mh , t mk ) ) )
其中,两幅距离-多普勒图像之间的视角差为ΔθAB(tmh,tmk)=ωo(tmh-tmk)-βD,此时βD=(βAB)/2为接收机与发射机之间的视角差。
8、权利要求1的方法,其中,步骤40)中,由接收机或发射机获取的两幅距离-多普勒图像的视角差,结合两次成像的时间间隔,获得目标转速的估计,其中,通过接收机和发射机在相同时刻获得的距离-多普勒图像之间的视角差,得到接收机和发射机之间的视角差估计;结合接收机和发射机在不同时刻获得的距离-多普勒图像之间的视角差,得到目标的转速估计。
9、权利要求8的方法,其中,步骤40)中,获取接收机或发射机中的两幅距离-多普勒图像之间的视角差矩阵HA(tm1,tm2)的估计之后,可以得到目标旋转中心的估计:
X AO Y AO = ( I - H A ( t m 1 , t m 2 ) ) - 1 { X A ( t m 2 ) Y A ( t m 2 ) - H A ( t m 1 , t m 2 ) X A ( t m 1 ) Y A ( t m 1 ) }
其中,(XAO,YAO)为等效旋转中心,(XA(tm1),YA(tm1))和(XA(tm2),YA(tm2))为某给定散射中心在两幅距离-多普勒图像中的位置。
10、权利要求2的方法,其中,步骤40)中,根据所述目标转速估计和系统参数获得距离-多普勒图像的距离向和跨距离向尺度因子,对接收机和发射机中获得的距离-多普勒图像定标;或者根据所述目标转速和等效旋转中心估计以及系统参数对接收机和发射机中接收到的数据进行极坐标格式算法成像或卷积/逆投影成像,获得高精度聚焦的图像。
CN 200810223234 2008-09-27 2008-09-27 一种双/多基地逆合成孔径雷达图像融合方法 Expired - Fee Related CN101685154B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 200810223234 CN101685154B (zh) 2008-09-27 2008-09-27 一种双/多基地逆合成孔径雷达图像融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 200810223234 CN101685154B (zh) 2008-09-27 2008-09-27 一种双/多基地逆合成孔径雷达图像融合方法

Publications (2)

Publication Number Publication Date
CN101685154A true CN101685154A (zh) 2010-03-31
CN101685154B CN101685154B (zh) 2012-12-26

Family

ID=42048405

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 200810223234 Expired - Fee Related CN101685154B (zh) 2008-09-27 2008-09-27 一种双/多基地逆合成孔径雷达图像融合方法

Country Status (1)

Country Link
CN (1) CN101685154B (zh)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102288963A (zh) * 2011-07-21 2011-12-21 西安电子科技大学 基于子孔径参数估计的双基地isar图像融合方法
CN102944875A (zh) * 2012-11-21 2013-02-27 西安电子科技大学 Isar图像距离单元选择横向定标方法
CN103048646A (zh) * 2011-10-14 2013-04-17 三星泰科威株式会社 基于雷达的监视系统和方法
CN103257340A (zh) * 2012-02-21 2013-08-21 中国科学院电子学研究所 一种利用雷达卫星标定多台地面接收机幅度一致性的方法
CN103530627A (zh) * 2013-10-23 2014-01-22 东南大学 基于二维散射中心集网格模型的isar图像恢复方法
CN104820221A (zh) * 2015-04-27 2015-08-05 电子科技大学 多基合成孔径雷达的目标三维定位方法
CN106324597A (zh) * 2016-07-29 2017-01-11 西安电子科技大学 基于pfa的大转角isar雷达的平动补偿和成像方法
CN104240212B (zh) * 2014-09-03 2017-03-29 西安电子科技大学 基于目标特征的isar图像融合方法
CN108107427A (zh) * 2018-04-26 2018-06-01 南京航空航天大学 基于超分辨技术的机载/弹载阵列雷达前视成像方法
CN108318877A (zh) * 2017-11-27 2018-07-24 西安电子科技大学 基于多基地雷达的杂波子空间下目标检测方法
CN110632597A (zh) * 2019-10-14 2019-12-31 南京航空航天大学 微波光子逆合成孔径雷达成像方法及装置
CN110780298A (zh) * 2019-11-01 2020-02-11 西安电子科技大学 基于变分贝叶斯学习的多基isar融合成像方法
CN111896959A (zh) * 2020-08-11 2020-11-06 中国科学院空天信息创新研究院 双基sar相位同步精度提升方法、装置、电子设备及介质
CN112069651A (zh) * 2020-07-23 2020-12-11 西安空间无线电技术研究所 一种基于isar成像的自旋稳定目标旋转轴估计方法
CN116184405A (zh) * 2023-02-03 2023-05-30 中国人民解放军陆军工程大学 一种isar双站雷达融合成像回波生成方法及系统
EP4166984A4 (en) * 2020-06-30 2023-08-30 Huawei Technologies Co., Ltd. METHOD AND APPARATUS FOR DISTRIBUTED MICROWAVE RADAR IMAGING

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000231571A (ja) * 1999-02-10 2000-08-22 Mitsubishi Electric Corp Isar画像検索装置
US6646593B1 (en) * 2002-01-08 2003-11-11 Science Applications International Corporation Process for mapping multiple-bounce ghosting artifacts from radar imaging data
CN100573189C (zh) * 2006-12-27 2009-12-23 西安电子科技大学 基于多特显点的干涉式逆合成孔径雷达成像方法

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102288963B (zh) * 2011-07-21 2013-06-12 西安电子科技大学 基于子孔径参数估计的双基地isar图像融合方法
CN102288963A (zh) * 2011-07-21 2011-12-21 西安电子科技大学 基于子孔径参数估计的双基地isar图像融合方法
CN103048646A (zh) * 2011-10-14 2013-04-17 三星泰科威株式会社 基于雷达的监视系统和方法
CN103257340A (zh) * 2012-02-21 2013-08-21 中国科学院电子学研究所 一种利用雷达卫星标定多台地面接收机幅度一致性的方法
CN103257340B (zh) * 2012-02-21 2015-02-04 中国科学院电子学研究所 一种利用雷达卫星标定多台地面接收机幅度一致性的方法
CN102944875A (zh) * 2012-11-21 2013-02-27 西安电子科技大学 Isar图像距离单元选择横向定标方法
CN102944875B (zh) * 2012-11-21 2014-07-23 西安电子科技大学 Isar图像距离单元选择横向定标方法
CN103530627A (zh) * 2013-10-23 2014-01-22 东南大学 基于二维散射中心集网格模型的isar图像恢复方法
CN103530627B (zh) * 2013-10-23 2016-09-07 东南大学 基于二维散射中心集网格模型的isar图像恢复方法
CN104240212B (zh) * 2014-09-03 2017-03-29 西安电子科技大学 基于目标特征的isar图像融合方法
CN104820221B (zh) * 2015-04-27 2017-06-06 电子科技大学 多基合成孔径雷达的目标三维定位方法
CN104820221A (zh) * 2015-04-27 2015-08-05 电子科技大学 多基合成孔径雷达的目标三维定位方法
CN106324597B (zh) * 2016-07-29 2019-01-11 西安电子科技大学 基于pfa的大转角isar雷达的平动补偿和成像方法
CN106324597A (zh) * 2016-07-29 2017-01-11 西安电子科技大学 基于pfa的大转角isar雷达的平动补偿和成像方法
CN108318877B (zh) * 2017-11-27 2021-12-17 西安电子科技大学 基于多基地雷达的杂波子空间下目标检测方法
CN108318877A (zh) * 2017-11-27 2018-07-24 西安电子科技大学 基于多基地雷达的杂波子空间下目标检测方法
CN108107427A (zh) * 2018-04-26 2018-06-01 南京航空航天大学 基于超分辨技术的机载/弹载阵列雷达前视成像方法
CN110632597A (zh) * 2019-10-14 2019-12-31 南京航空航天大学 微波光子逆合成孔径雷达成像方法及装置
CN110632597B (zh) * 2019-10-14 2022-01-07 南京航空航天大学 微波光子逆合成孔径雷达成像方法及装置
CN110780298A (zh) * 2019-11-01 2020-02-11 西安电子科技大学 基于变分贝叶斯学习的多基isar融合成像方法
EP4166984A4 (en) * 2020-06-30 2023-08-30 Huawei Technologies Co., Ltd. METHOD AND APPARATUS FOR DISTRIBUTED MICROWAVE RADAR IMAGING
CN112069651A (zh) * 2020-07-23 2020-12-11 西安空间无线电技术研究所 一种基于isar成像的自旋稳定目标旋转轴估计方法
CN112069651B (zh) * 2020-07-23 2024-04-09 西安空间无线电技术研究所 一种基于isar成像的自旋稳定目标旋转轴估计方法
CN111896959A (zh) * 2020-08-11 2020-11-06 中国科学院空天信息创新研究院 双基sar相位同步精度提升方法、装置、电子设备及介质
CN116184405A (zh) * 2023-02-03 2023-05-30 中国人民解放军陆军工程大学 一种isar双站雷达融合成像回波生成方法及系统

Also Published As

Publication number Publication date
CN101685154B (zh) 2012-12-26

Similar Documents

Publication Publication Date Title
CN101685154B (zh) 一种双/多基地逆合成孔径雷达图像融合方法
CN101738614B (zh) 基于时空图像序列的isar目标转动估计方法
US7038612B2 (en) Method for SAR processing without INS data
CN112444811B (zh) 一种综合mimo雷达和isar的目标检测和成像方法
Rigling et al. Polar format algorithm for bistatic SAR
CN102288963B (zh) 基于子孔径参数估计的双基地isar图像融合方法
CN101498788B (zh) 一种逆合成孔径雷达的目标转角估计和横向定标方法
CN110146889B (zh) 基于最优回波子区域选择的大转角isar成像方法
CN105487060B (zh) 一种双通道四斜率调制的多目标提取方法
CA2043212C (en) Method for resolving ambiguity in the determination of antenna angle of view and doppler frequency in synthetic aperture radar
CN102707269B (zh) 一种机载雷达距离走动校正方法
CN108469608A (zh) 一种运动平台雷达多普勒质心精确估计方法
CN103576130B (zh) 一种进动锥体的三维成像方法
CN106526583B (zh) 一种基于天线方向图信息的地面运动目标定位方法
CN102121990B (zh) 基于空时分析的逆合成孔径雷达的目标转速估计方法
CN102141611B (zh) 斜视合成孔径雷达多普勒模糊数快速测定方法
CN106707284A (zh) 一种用于双基地逆合成孔径雷达的成像方法
RU2416105C1 (ru) Способ определения параметров движения воздушных объектов в обзорных радиолокаторах за счет использования когерентных свойств отраженных сигналов
CN115685200A (zh) 一种高精度大前斜视sar成像运动补偿与几何校正方法
Kusk et al. SAR focusing of P-band ice sounding data using back-projection
CN108983193A (zh) 快速非搜索的地面运动目标参数估计方法
CN116559905A (zh) 一种双基sar海面舰船运动目标无畸变三维图像重构方法
CN101738615B (zh) 一种逆合成孔径雷达的目标转速估计方法
CN112748432B (zh) 机载sar交替执行条带模式与广域mti模式的方法及装置
CN114185047A (zh) 一种基于最优极坐标变换的双基sar动目标重聚焦方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20121226

Termination date: 20140927

EXPY Termination of patent right or utility model