CN112099004A - 一种机载干涉合成孔径雷达复杂场景高程反演方法及系统 - Google Patents
一种机载干涉合成孔径雷达复杂场景高程反演方法及系统 Download PDFInfo
- Publication number
- CN112099004A CN112099004A CN202010919915.8A CN202010919915A CN112099004A CN 112099004 A CN112099004 A CN 112099004A CN 202010919915 A CN202010919915 A CN 202010919915A CN 112099004 A CN112099004 A CN 112099004A
- Authority
- CN
- China
- Prior art keywords
- information
- coordinate
- height
- coherence
- complex
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
- G01S13/90—Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C5/00—Measuring height; Measuring distances transverse to line of sight; Levelling between separated points; Surveyors' levels
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
- G01S13/90—Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
- G01S13/9021—SAR image post-processing techniques
- G01S13/9023—SAR image post-processing techniques combined with interferometric techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
- G01S13/90—Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
- G01S13/9094—Theoretical aspects
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/418—Theoretical aspects
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明提供了一种机载干涉合成孔径雷达复杂场景高程反演方法及系统,其方法包括:获取对飞模式中相反角度下待探的同一测复杂场景的多个单视复图像对;根据所有的单视复图对分别得到每个单视复图像对的不同的坐标系下的坐标信息、每个坐标信息含有对应一个第一高度信息;对所有的单视复图像对的每个坐标信息,分别映射在同一个坐标系下坐标转换,得到转换后的每个坐标信息及其对应的第一高度信息转换后的第二高度信息;对多个坐标转换后的各个坐标信息以及第二高度信息分别进行网格化处理,生成分别含有第三高度信息的各个坐标信息;根据预设的融合策略,对含有第三高度信息的多个坐标信息进行像素融合处理,生成待探测复杂场景的高度反演信息。
Description
技术领域
本发明涉及机载干涉合成孔径雷达领域,尤其涉及一种机载干涉合成孔径雷达复杂场景高程反演方法及系统。
背景技术
复杂场景高程反演是机载干涉合成孔径雷达需要解决的关键问题,在复杂场景(复杂场景指地形地貌较为复杂,地形起伏较大的场景。)条件下,常规的干涉处理无法满足高精度的高程反演。同时叠掩和阴影等低相干区域在复杂场景较为突出,给干涉处理步骤造成了很大困难,传统的干涉处理在低相干区域无法获取有效的高程数据,易造成了场景内高程数据的缺失。
目前的处理复杂场景高程反演的方法主要采用单次飞行模式,然后进行传统的干涉处理进行高程反演,然后对低相干区域的高程信息直接进行插值处理,导致低相干区域的高程精度低,无法满足高精度的地理测绘需求。
发明内容
本发明所要解决的技术问题是针对现有技术的不足,提供一种机载干涉合成孔径雷达复杂场景高程反演方法及系统。
本发明解决上述技术问题的技术方案如下:一种机载干涉合成孔径雷达复杂场景高程反演方法,其包括:获取对飞模式中相反角度下待探的同一测复杂场景的多个单视复图像对;
根据所有的单视复图对分别得到每个单视复图像对的在同一复杂场景的不同的坐标系下的坐标信息、每个坐标信息含有对应一个第一高度信息;
对所有的单视复图像对的分别在所述同一复杂场景下的每个坐标信息,分别映射在同一个坐标系下坐标转换,得到转换后的每个坐标信息及其对应的第一高度信息转换后的第二高度信息;
对多个所述坐标转换后的各个坐标信息以及第二高度信息分别进行网格化处理,生成分别含有第三高度信息的各个坐标信息;
根据预设的融合策略,对含有第三高度信息的多个坐标信息进行像素融合处理,生成待探测复杂场景的高度反演信息。
本发明的有益效果是:通过对飞模式和干涉处理获取不同角度下的同一复杂场景的高度信息,然后通过低相干区域识别以及融合策略,能够有效提高低相干区域的高程精度,从而提高复杂场景的高程反演精度。提高低相干区域的高程精度,满足高精度的地理测绘需求。
此外,本发明还提供了一种机载干涉合成孔径雷达复杂场景高程反演系统,基于上述任意一项所述的一种机载干涉合成孔径雷达复杂场景高程反演方法,该高程反演系统包括:
采集模块,用于获取对飞模式中相反角度下待探的同一测复杂场景的多个单视复图像对;
处理模块,用于根据所有的单视复图对分别得到每个单视复图像对的在同一复杂场景的不同的坐标系下的坐标信息、每个坐标信息含有对应一个第一高度信息;
对所有的单视复图像对的分别在所述同一复杂场景下的每个坐标信息,分别映射在同一个坐标系下坐标转换,得到转换后的每个坐标信息及其对应的第一高度信息转换后的第二高度信息;
处理模块,还用于对多个所述坐标转换后的各个坐标信息以及第二高度信息分别进行网格化处理,生成分别含有第三高度信息的各个坐标信息;
处理模块,还用于根据预设的融合策略,对含有第三高度信息的多个坐标信息进行像素融合处理,生成待探测复杂场景的高度反演信息。
另外,本发明还提供了一种计算机可读存储介质,其包括指令,当所述指令在计算机上运行时,使所述计算机执行根据上述任意一项所述的方法。
本发明的有益效果是:通过对飞模式和干涉处理获取不同角度下的同一复杂场景的高度信息,然后通过相应的处理以及融合策略,能够有效提高低相干区域的高程精度,从而提高复杂场景的高程反演精度。提高低相干区域的高程精度,满足高精度的地理测绘需求。
本发明附加的方面的优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明实践了解到。
附图说明
图1为本发明复杂场景高程反演方法的实施例提供的流程示意图之一。
图2为本发明复杂场景高程反演方法的其他实施例提供的整体示意图。
图3为本发明复杂场景高程反演方法的其他实施例提供的数据融合方法示意图。
图4为本发明复杂场景高程反演方法的其他实施例提供的对飞航迹示意图。
图5(a)至图5(f)为本发明复杂场景高程反演方法的其他实施例提供的对飞模式下两次飞行取得的单视复图像对、干涉条纹图像、相干系数图像示意图。
图6(a)至图6(b)为本发明复杂场景高程反演方法的其他实施例提供的两次飞行获取的低相干区域识别示意图。
图7(a)至图7(b)为本发明复杂场景高程反演方法的其他实施例提供的统一坐标后的两次飞行获取的高程信息示意图。
图8为本发明复杂场景高程反演方法的其他实施例提供的最终获取的高程信息示意图。
图9为本发明复杂场景高程反演方法的其他实施例提供的两次航迹获取的控制点高程与最终获取的控制点高程信息对比图。
图10为本发明复杂场景高程反演方法的实施例提供的流程示意图之二。
图11为本发明实施例提供的机载干涉合成孔径雷达复杂场景高程反演系统的结构示意图。
具体实施方式
以下结合附图对本发明的原理和特征进行描述,所举实例只用于解释本发明,并非用于限定本发明的范围。
如图1-图11所示,图1为本发明复杂场景高程反演方法的实施例提供的流程示意图之一;图2为本发明复杂场景高程反演方法的其他实施例提供的整体示意图,其中,SLC代表单视复图像对,SLC1和SLC2为第一次飞行获取的单视复图像,构成单视复图像对,SLC3和SLC4为第二次飞行获取的单视复图像,构成单视复图像对,DSM代表数字表面模型;图3为本发明复杂场景高程反演方法的其他实施例提供的数据融合方法示意图,NaN值代表无效值;图4为本发明复杂场景高程反演方法的其他实施例提供的对飞航迹示意图;图5(a)-(f)为本发明复杂场景高程反演方法的其他实施例提供的对飞模式下两次飞行取得的单视复图像对、干涉条纹图像、相干系数图像示意图;图6(a)-(b)为本发明复杂场景高程反演方法的其他实施例提供的两次飞行获取的低相干区域识别示意图;图7(a)-(b)为本发明复杂场景高程反演方法的其他实施例提供的统一坐标后的两次飞行获取的高程信息示意图;图8为本发明复杂场景高程反演方法的其他实施例提供的最终获取的高程信息示意图;图9为本发明复杂场景高程反演方法的其他实施例提供的两次航迹获取的控制点高程与最终获取的控制点高程信息对比图;图10为本发明复杂场景高程反演方法的实施例提供的流程示意图之二。图11为本发明实施例提供的机载干涉合成孔径雷达复杂场景高程反演系统的结构示意图。
本发明实施例提供了一种机载干涉合成孔径雷达复杂场景高程反演方法,其包括:如图1所示,
步骤S1:获取对飞模式中相反角度下待探的同一测复杂场景的多个单视复图像对;
步骤S2:根据所有的单视复图对分别得到每个单视复图像对的在同一复杂场景的不同的坐标系下的坐标信息、每个坐标信息含有对应一个第一高度信息;
步骤S3:对所有的单视复图像对的分别在所述同一复杂场景下的每个坐标信息,分别映射在同一个坐标系下坐标转换,得到转换后的每个坐标信息及其对应的第一高度信息转换后的第二高度信息;
步骤S4:对多个所述坐标转换后的各个坐标信息以及第二高度信息分别进行网格化处理,生成分别含有第三高度信息的各个坐标信息;
步骤S5:根据预设的融合策略,对含有第三高度信息的多个坐标信息进行像素融合处理,生成待探测复杂场景的高度反演信息。
通过对飞模式和干涉处理获取不同角度下的同一复杂场景的高度信息,然后通过低相干区域识别以及融合策略,能够有效提高低相干区域的高程精度,从而提高复杂场景的高程反演精度。提高低相干区域的高程精度,满足高精度的地理测绘需求。
飞行方向需要相反,相反的角度是指对飞的轨迹形成的角度。每次飞行获取两幅单视复图像,称为单视复图像对,进行后续的干涉处理,两次飞行共获取两对单视复图像对。
本发明公开了一种机载干涉合成孔径雷达复杂场景高程反演方法,涉及机载干涉合成孔径雷达领域。该方法包括:采用对飞模式获取相反角度下的同一复杂场景的单视复图像对;每次飞行获取复杂场景场景的m个控制点地理坐标;每次飞行结合控制点坐标和单视复图像对进行干涉处理,得到两次飞行同一场景的高程信息和坐标信息;分别对两次飞行获取的干涉图像进行低相干区域识别;统一两次飞行获取的坐标信息,同时对获取的高度信息进行规则网格化处理;利用识别的低相干区域和融合策略对两次飞行获取的高度信息进行融合;对融合后的无效区域进行填充处理,最终得到观测复杂场景的高度信息。本发明提供的复杂场景高程反演方法,提高了复杂场景条件下高程数据的精度和完整性。
采用对飞模式获取相反角度下的同一复杂场景的单视复图像对;
每次飞行获取复杂场景的m个地面控制点的地理坐标,m≥3;
每次飞行结合控制点坐标和单视复图像对进行干涉处理,得到两次飞行同一场景的高程信息和坐标信息;
分别对两次飞行获取的干涉图像进行低相干区域识别;
统一两次飞行获取的坐标信息,同时对获取的高度信息进行规则网格化处理;
利用识别的低相干区域和融合策略对两次飞行获取的高度进行融合;
对融合后的无效区域进行填充处理,最终得到观测复杂场景的高度反演信息。
采用对飞模式获取相反角度下的同一复杂场景的原始回波,然后对原始回波进行成像,得到单视复图像对。每次飞行获取两幅单视复图像,称为单视复图像对,进行后续的干涉处理,两次飞行共获取两对单视复图像对。
根据所有的单视复图对分别得到每个单视复图像对的在同一复杂场景的坐标信息的步骤,包括:
根据预设条件,获取复杂场景的3个以上的地面控制点的地理坐标,一同作为当前的单视复图像对的在同一复杂场景的坐标信息。
每次飞行选取至少3个地面控制点,提高了干涉定标的精度。
所述预设条件为各个地面控制点的位置各不相同,所述预设条件通过下述公式运算:
其中,xi为第M个地面控制点在WGS84坐标系下的经度坐标,yi为第M个地面控制点在WGS84坐标系下的纬度坐标,M为正整数,第M个控制点的高度hi为WGS84坐标系下的地面椭球高度值,每次飞行分别在地面布设K个地面控制点,并且K≥3。
通过公式计算预设条件,提高精准度。
公式表明只要不是同一个点就可以,且尽量在地势平坦区域选点。
如果0<K<3,则经过干涉处理的高程精度会受到影响。
统一两次飞行获取的坐标信息,同时对获取的高度信息进行规则网格化处理,具体包括:以一次飞行获取场景的坐标信息为基准,将第二次飞行获取的坐标信息通过坐标转换进行坐标统一,根据该次飞行获取的载机(场景)坐标系坐标转换为经纬度坐标,然后再利用经纬度坐标转换为基准飞行载机(场景)坐标系下的坐标。
分别在相同的坐标系以相同网格大小(0.3m×0.3m网格)对获取的高度信息进行三维插值(matlab中griddata函数),使得在同一坐标下的高度能够直接进行处理。
所述像素融合处理的步骤,包括:
在所述多个单视复图像对中,识别每个单视复图像对的图像中的低相干区域;
在当前的单视复图像对中,如果每个像素点均属于该单视复图像对中的低相干区域时,将当前像素点的第三高度信息设置为无效值;并确定当前像素点在第二次飞行所获取的相干系数值,并与预设阈值进行比较,
当所述当前像素点的相干系数值大于或等于所述预设阈值时,所述像素点的第三高度信息设置为所述第二次飞行中所获取该像素点的第三高度信息;当所述当前像素点的相干系数值小于预设阈值时,所述像素点的第三高度信息设置为无效值;
当所述多个单视复图像对的每个像素点均不属于各自识别的低相干区域时,根据对所述获取的相干系数值和每个像素点的第三高度信息来进行加权计算,生成待探测复杂场景的高度反演信息;其中,每个像素点对应一个所述坐标信息。
通过多种条件分别对不同的高度信息进行相应的处理,提高精准性。
根据对所述获取的相干系数值和每个像素点的第三高度信息来进行加权计算,生成待探测复杂场景的高度反演信息的步骤,通过下述公式计算:
其中,h1代表第一次飞行获取的像素高度值,γ1为第一次飞行获取的像素相干系数值,h2代表第二次飞行获取的像素高度值,γ2为第二次飞行获取的像素相干系数值,h′代表加权计算后得到的待探测复杂场景的高度反演信息。
通过公式将对飞模式获取的相干系数值和高度值来进行加权计算,提高低相干区域的高程精度,满足高精度的地理测绘需求。
利用识别的低相干区域和相应的融合策略对两次飞行获取的高度进行融合;
首先对一次飞行下识别的低相干区域所对应的高度值设置为无效值,然后识别该区域是否在第二次飞行所识别的低相干区域内,如果在低相干区域内,则设置为无效值,如果不在低相干区域内,则获取第二次飞行的高度值进行替代。
对于两次飞行识别均为非低相干的区域,结合形态学处理后的相干系数图像对高度值进行加权处理,具体为
其中,h1代表第一次飞行获取的像素高度值,γ1为第一次飞行获取的像素相干系数值,h2代表第二次飞行获取的像素高度值,γ2为第二次飞行获取的像素相干系数值,h′代表加权计算后得到的高度值。
对融合后的无效区域进行填充处理,最终得到观测复杂场景的高度信息。
对于两次飞行都为低相干的区域则利用周围正常区域的高度值进行三维插值(matlab中griddata函数)处理,弥补两次飞行都为低相干的区域,从而实现场景内所有像素的高程反演。
所述识别识别每个单视复图像对的图像中的低相干区域的步骤,包括:
计算每个所述单视复图像对中相位图像的残差点,生成关于残差点二值分布的第一低相干区域;
获取每个根据所述单视复图像对的模得到的一个幅度图像以及设置的幅度阈值;
根据幅度阈值对每个幅度图像进行低相干区域判断处理,筛选低于阈值的至少一个第二低相干区域;
根据预设的相干系数阈值对每个所述单视复图像对进行低相干区域筛选,得到至少一个基于相干系数阈值判断的第三低相干区域;
对多个所述第一低相干区域、多个所述第二低相干区域以及多个所述第三低相干区域进行位置融合处理,生成关于二值图像的第四低相干区域;
对每个所述第四低相干区域进行形态学开运算,生成第五低相干区域。
分别根据幅度图像幅值低、相干系数值低、残差点数目密集等三个特点进行划分,获取三个不同的低相干区域,然后将他们进行与运算,得到同时满足三个条件的低相干区域,然后进行形态学开闭操作,滤除掉低相干区域以外的杂乱区域。提高精准性,提高低相干区域的高程精度,满足高精度的地理测绘需求。
每个图像出一个;每对图像出第一低相干图像对。
所述每个所述单视复图像对中相位图像的残差点通过下述公式计算:
其中,W(·)表示模值为2π的缠绕算子,φ表示滤波后的相位图像,i代表图像像素的行坐标,j代表图像像素的列坐标;ij前面表示的控制点,请区分开。
对所述第四低相干区域进行形态学开运算通过下述公式计算:
其中,Fig5为一个第五低相干区域,Fig4为一个第四低相干区域,B为第四低相干区域中3行3列的行列式的值为1的结构元,开运算操作为先腐蚀后膨胀操作,⊙表示利用B对第四低相干区域进行腐蚀,表示利用B对第四低相干区域腐蚀后的结果作膨胀运算。
通过公式分别根据幅度图像幅值低、相干系数值低、残差点数目密集等三个特点进行划分,获取三个不同的低相干区域,然后将他们进行与运算,得到同时满足三个条件的低相干区域,然后进行形态学开闭操作,滤除掉低相干区域以外的杂乱区域。提高精准性,提高低相干区域的高程精度,满足高精度的地理测绘需求。
根据多个控制点地理坐标对多个单视复图像对进行干涉处理包括:图像配准处理、相位滤波处理、相位解缠处理、干涉定标处理以及相高转换处理。
得到两次飞行同一场景的高度图像和各自的坐标信息,提高干涉处理的高程精度。
具体地,每次飞行根据m个的地面控制点和所得到的单视复图像对进行干涉处理,具体包括:
每次飞行获取的单视复图像对经过图像配准、相位滤波、相位解缠、干涉定标、相高转换等干涉处理步骤,得到场景下的高度图像和各自的坐标信息,两次飞行能够获取两幅高度图像和对应的坐标信息。
根据每次飞行获取的相位滤波后的相位图像、单视复图像对、相干系数图像等按照一定的算法求取各自的低相干区域。
具体算法流程如下:首先计算相位图像的残差点,得到残差点二值分布图像Fig1;
计算残差点的公式如下:
Q=W{φ(i+1,j)-φ(i,j)}+W{φ(i+1,j+1)-φ(i+1,j)}+W{φ(i,j+1)-φ(i+1,j+1)}+W{φ(i,j)-φ(i,j+1)}
其中,W(·)表示模值为2π的缠绕算子,φ表示滤波后的相位图像,i代表图像像素的行坐标,j代表图像像素的列坐标。
其次取单视复图像对的模,得到幅度图像,然后根据低相干区域幅值低的特点,设置幅度阈值(一般可设置为幅度图像中最大值的1/6~1/10),幅度图像大于等于该阈值的设为1,小于阈值的设为0,据此得到基于幅度阈值判断的低相干区域识别图像Fig2;
然后根据低相干区域相干系数低的特点,设置阈值(设置范围为大于0小于0.5),相干系数图像大于等于该阈值的设置为1,小于该阈值的设置为0,据此得到基于相干系数阈值判断的低相干区域识别图像Fig3;
此时Fig1(即第一低相干区域)、Fig2(即第二低相干区域)、Fig3(即第三低相干区域)均为二值图像,将三种图像进行逻辑与运算,得到新的二值图像Fig4(即第四低相干区域),将该二值图像分别进行二值形态学开运算,得到最终的低相干区域识别图像Fig5(即第五低相干区域)。
如图10所示,为本发明复杂场景高程反演方法的实施例提供的流程示意图,该高程反演方法包括:
S11,采用对飞模式获取不同角度下的同一复杂场景的单视复图像对。
采用对飞模式获取相反角度下的同一复杂场景的原始回波,然后对原始回波进行成像,得到单视复图像对。每次飞行获取两幅单视复图像,称为单视复图像对,进行后续的干涉处理,两次飞行共获取两对单视复图像对。
需要说明的是,回波信号是由机载合成孔径雷达在预设时间段内探测得到的。同时每次飞行获取的回波数据经过成像处理后得到两幅单视复图像对,以便后续进行干涉处理,得到高度图像。需要说明的是,复杂场景指地形地貌较为复杂,地形起伏较大的场景。
S21,每次飞行获取复杂场景场景的m个地面控制点的地理坐标。
需要说明的是,地面控制点是在已知的成像场景中选取的。每次飞行分别在地势相对平坦的区域布设K个不同的地面控制点。
优选地,每次飞行可以选取3个地面控制点,能够保证干涉定标的精度,如果0<K<3,则经过干涉处理的高程精度会受到影响。
S31,每次飞行结合控制点坐标和单视复图像对进行干涉处理,得到两次飞行同一场景的高程信息和坐标信息。
需要说明的是,每次飞行根据m个的地面控制点和所得到的单视复图像对进行干涉处理,具体包括:每次飞行获取的单视复图像对经过图像配准、相位滤波、相位解缠、干涉定标、相高转换等干涉处理步骤,得到场景下的高度图像和各自的坐标信息,两次飞行能够获取两幅高度图像和对应的坐标信息,详见图2中从SLC图像至相高转换的处理流程。
需要说明的是,m个地面控制点主要用于干涉定标步骤中,主要是为了提高干涉处理的高程精度。
S41,分别对两次飞行获取的干涉图像进行低相干区域识别。需要说明的是,干涉图像在该步骤中包含单视复图像对、干涉条纹图像、相干系数图像,示例可见图5(a)-(f)。同时低相干区域识别需要对每次飞行获取的干涉图像进行处理。
应理解,低相干区域在合成孔径雷达单视复图像对中表现为幅度较低,在相干系数图中表现为相干系数值较低,且低相干区域的残差点数目密集。
优选地,可根据上述三个特点进行低相干区域的识别,首先分别根据幅度图像幅值低、相干系数值低、残差点数目密集等三个特点进行划分,获取三个不同的低相干区域,然后将他们进行与运算,得到同时满足三个条件的低相干区域,然后进行形态学开操作,滤除掉低相干区域以外的杂乱区域。
具体算法流程如下:首先计算相位图像的残差点,得到残差点二值分布图像Fig1(即第一低相干区域);
计算残差点的公式如下:
Q=W{φ(i+1,j)-φ(i,j)}+W{φ(i+1,j+1)-φ(i+1,j)}+W{φ(i,j+1)-φ(i+1,j+1)}+W{φ(i,j)-φ(i,j+1)}
其中,W(·)表示模值为2π的缠绕算子,φ表示滤波后的相位图像,i代表图像像素的行坐标,j代表图像像素的列坐标。
其次取单视复图像对的模,得到幅度图像,然后根据低相干区域幅值低的特点,设置阈值(一般可设置为幅度图像中最大值的1/6~1/10),幅度图像大于等于该阈值的设为1,小于阈值的设为0,据此得到基于幅度阈值判断的低相干区域识别图像Fig2(即第二低相干区域);
然后根据低相干区域相干系数低的特点,设置阈值(设置范围为大于0小于0.5),相干系数图像大于等于该阈值的设置为1,小于该阈值的设置为0,据此得到基于相干系数阈值判断的低相干区域识别图像Fig3(即第三低相干区域);
此时Fig1、Fig2、Fig3均为二值图像,将三种图像进行逻辑与运算,得到新的二值图像Fig4(即第四低相干区域),将该二值图像分别进行形态学开运算,得到最终的低相干区域识别图像Fig5(即第五低相干区域)。
两次飞行经过上述处理操作得到两幅低相干区域识别图。
S51,统一两次飞行获取的坐标信息,同时对获取的高度信息进行规则网格化处理。
以一次飞行获取场景的坐标信息为基准,将第二次飞行获取的坐标信息通过坐标转换进行坐标统一,根据该次飞行获取的载机(场景)坐标系坐标转换为经纬度坐标,然后再利用经纬度坐标转换为基准飞行载机(场景)坐标系下的坐标。
分别在相同的坐标系以相同网格大小(0.3m×0.3m网格)对获取的高度信息进行三维插值(matlab中griddata函数),使得在同一坐标下的高度能够直接进行处理。
应理解,两次飞行统一坐标后,每个像素点的坐标值并不能完全相同,无法一一对应,因此需要根据坐标范围进行网格化(0.3m×0.3m网格)处理,使得每个像素点的坐标能够完全一致,此时相应的高度也需要随着坐标的变化进行相应的转换,因此需要对坐标和高度进行三维插值操作。
需要说明的是三维插值后需要进行对两次飞行插值后的高度信息和坐标信息不相同的区域进行裁剪,使得两次飞行的高度和坐标信息能够一一对应。
S61,利用识别的低相干区域和融合策略对两次飞行获取的高度信息进行融合。
首先,如图3所示,需要判断两次飞行获取的图像像素点是否属于各自识别的低相干区域,如果均为低相干区域,则该像素点的高度值暂设置为无效值(即NaN值);如果只有一次飞行的像素点在低相干区域,则继续判断该像素点在第二次飞行所获取的相干系数值的大小,如果像素点的相干系数值大于或等于设置的阈值(阈值的大小由实际干涉合成孔径雷达系统的经验值来定,取值范围为0.6~0.85),则该像素点的高度值为第二次飞行所获取的高度值,如果像素点的相干系数值小于设置的阈值,则该像素点的高度值暂设置为NaN值;如果该像素点在均不属于各自的低相干区域,则结合两次飞行获取的相干系数值和高度值来进行加权计算,计算公式如下:
其中,h1代表第一次飞行获取的像素高度值,γ1为第一次飞行获取的像素相干系数值,h2代表第二次飞行获取的像素高度值,γ2为第二次飞行获取的像素相干系数值,h′代表加权计算后得到的高度值。
需要说明的是该步骤的相干系数值为对原始相干系数图(用Coe表示)进行灰度形态学处理(灰度形态学开运算和闭运算)后的结果。
灰度形态学开运算如公式(4)所示,得到的图像用Coe1表示,灰度形态学闭运算如下所示:
S71,对融合后的无效区域进行填充处理,最终得到观测复杂场景的高度信息。
对于两次飞行都为低相干的区域,则利用周围正常区域的高度值进行三维插值(matlab(matrix&laboratory,散乱点插值函数)中griddata(数据网格化)函数)处理,弥补高度值为NaN的区域,从而实现场景内所有像素的高程反演。
需要说明的是,由于结合了两次飞行的高度数据,S6步骤后的高度数据中NaN值所占的比例小。
下面对本发明提出的高程反演方法进行实测验证,通过机载毫米波干涉合成孔径雷达两次飞行获取的实测数据进行说明,实验参数如表1所示。两次飞行的航迹如图4所示,可得出两次飞行的方向相反,照射同一区域。
表1实验参数表
第一次飞行的地面控制点(Ground Control Point,GCP)高度信息如表2所示。
表2地面控制点高度信息
首先,先对各自飞行获取的数据进行常规InSAR(Synthetic Aperture RadarInterferometry,合成孔径雷达干涉)数据处理(图像配准、干涉图生成、干涉图滤波、相位解缠、干涉定标、相高转换等)得到各自的数字表面模型(Digital Surface Model,DSM)和对应的坐标信息。
两次飞行获取的干涉图像如图5(a)-(f)所示,从两次飞行获取的干涉条纹图可以看出,干涉条纹较为密集,相位解缠难度也较大,叠掩和阴影区域较多,单方向飞行InSAR无法在阴影和叠掩等低相干区域获取有效的高程信息,从而无法获取完整的高程数据,此时要想获取完整的高程数据,需要利用对飞模式对叠掩和阴影等低相干区域进行弥合处理。同时图5(b)中的黑色框A1区域大部分为正常的区域,相关系数也较高,因此可用该区域的高程来对图5(a)中黑色框A1区域阴影等低相干区域的高程进行弥合。
两次飞行利用滤波后的相位图像、单视复图像对、相干系数图等评判依据获取的两幅低相干区域如图6(a)-(b)所示,图像中像素值为1代表该像素为低相干区域,0值代表正常区域。可发现两幅图与图5中单视复图像对、相干系数图像中的低相干区域相吻合。
然后对两幅DSM图像和坐标信息进行坐标变化,同时对统一后的坐标和高度值进行三维插值,再进行多余区域裁剪,得到坐标完全一致的两幅高度数据图,如图7(a)-(b)所示,表2中的控制点如图7中星号点所示。从图7可以看出,两者的坐标系已统一,各个像素点能够一一对应,图7(b)中的黑色框A2区域高程能够对图7(a)中的黑色框A2对应的高程进行弥合,图7(b)中的黑色框B区域高程能够对图7(a)中的黑色框B区域对应的高程进行弥合,同理,图7(a)中的黑色框C区域高程能够对图7(b)中的黑色框C区域对应的高程进行弥合。而单一角度的飞行由于低相干区域的存在则容易有较大面积的高程无效值存在,无法保证高程数据的完整性,从而体现出对飞数据融合高程信息的优势。
经过图3的融合策略和图2中的无效区域插值可得到最终的高程数据,结果如图8所示,结果显示图8中黑色框A2、黑色框B和黑色框C区域的高程数据均较各自飞行获取的高程结果均有大幅改善,验证了对飞数据弥合阴影、叠掩等低相干区域方法的有效性。
同时进行定量分析,统计两次飞行经干涉处理得到的地面控制点高程信息和两次飞行高程融合后的地面控制点高程信息,如表3所示,与实际地面控制点的高程差如图9所示。
表3干涉处理获取的地面控制点高度信息
从表3、图9可以看出,本发明的高程反演方法能够得到高精度的高程信息,同时叠掩、阴影等低相干区域的高程信息明显得到改善,提高了高程数据的完整性,具有良好的工程实用价值,适用于实际干涉合成孔径雷达测绘处理。
如图11所示,此外,本发明还提供了一种机载干涉合成孔径雷达复杂场景高程反演系统,基于上述任意一项所述的一种机载干涉合成孔径雷达复杂场景高程反演方法,该高程反演系统包括:
采集模块,用于获取对飞模式中相反角度下待探的同一测复杂场景的多个单视复图像对;
处理模块,用于根据所有的单视复图对分别得到每个单视复图像对的在同一复杂场景的不同的坐标系下的坐标信息、每个坐标信息含有对应一个第一高度信息;
对所有的单视复图像对的分别在所述同一复杂场景下的每个坐标信息,分别映射在同一个坐标系下坐标转换,得到转换后的每个坐标信息及其对应的第一高度信息转换后的第二高度信息;
处理模块,还用于对多个所述坐标转换后的各个坐标信息以及第二高度信息分别进行网格化处理,生成分别含有第三高度信息的各个坐标信息;
处理模块,还用于根据预设的融合策略,对含有第三高度信息的多个坐标信息进行像素融合处理,生成待探测复杂场景的高度反演信息。
通过对飞模式和干涉处理获取不同角度下的同一复杂场景的高度信息,然后通过相应的处理以及融合策略,能够有效提高低相干区域的高程精度,从而提高复杂场景的高程反演精度。提高低相干区域的高程精度,满足高精度的地理测绘需求。
另外,本发明还提供了一种计算机可读存储介质,其包括指令,当指令在计算机上运行时,使计算机执行根据上述任意一项所述的方法。
通过对飞模式和干涉处理获取不同角度下的同一复杂场景的高度信息,然后通过相应的处理以及融合策略,能够有效提高低相干区域的高程精度,从而提高复杂场景的高程反演精度。提高低相干区域的高程精度,满足高精度的地理测绘需求。
本发明实施例提供一种机载干涉合成孔径雷达复杂场景高程反演方法及一种存储介质。
本发明解决上述技术问题的技术方案如下:
一种机载干涉合成孔径雷达复杂场景高程反演方法,包括:
采用对飞模式获取相反角度下的同一复杂场景的单视复图像对;
每次飞行获取复杂场景场景的m个控制点地理坐标;
每次飞行结合控制点坐标和单视复图像对进行干涉处理,得到两次飞行同一场景的高程信息和坐标信息;
分别对两次飞行获取的干涉图像进行低相干区域识别;
统一两次飞行获取的坐标信息,同时对获取的高度信息进行规则网格化处理;
利用识别的低相干区域和融合策略对两次飞行获取的高度信息进行融合;
对融合后的无效区域进行填充处理,最终得到观测复杂场景的高度信息。
本发明的有益效果是:本发明提供的复杂场景高程反演方法,通过对飞模式和干涉处理获取不同角度下的同一复杂场景的高度信息,然后通过低相干区域识别、坐标转换、数据融合等策略,能够有效提高低相干区域的高程精度,从而提高复杂场景的高程反演精度,同时保证了观测场景高程数据的完整性,适用于实际干涉合成孔径雷达测绘处理。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (9)
1.一种机载干涉合成孔径雷达复杂场景高程反演方法,其特征在于,包括:
获取对飞模式中相反角度下待探的同一测复杂场景的多个单视复图像对;
根据所有的单视复图对分别得到每个单视复图像对的在同一复杂场景的不同的坐标系下的坐标信息、每个坐标信息含有对应一个第一高度信息;
对所有的单视复图像对的分别在所述同一复杂场景下的每个坐标信息,分别映射在同一个坐标系下坐标转换,得到转换后的每个坐标信息及其对应的第一高度信息转换后的第二高度信息;
对多个所述坐标转换后的各个坐标信息以及第二高度信息分别进行网格化处理,生成分别含有第三高度信息的各个坐标信息;
根据预设的融合策略,对含有第三高度信息的多个坐标信息进行像素融合处理,生成待探测复杂场景的高度反演信息。
2.根据权利要求1所述的一种机载干涉合成孔径雷达复杂场景高程反演方法,其特征在于,所述根据所有的单视复图对分别得到每个单视复图像对的在同一复杂场景的坐标信息,包括:
根据预设条件,获取复杂场景的3个以上的地面控制点的地理坐标,一同作为当前的单视复图像对的在同一复杂场景的坐标信息,直到每个单视复图像对全部确定自身的坐标信息。
4.根据权利要求1所述的一种机载干涉合成孔径雷达复杂场景高程反演方法,其特征在于,所述像素融合处理的步骤,包括:
在所述多个单视复图像对中,识别每个单视复图像对的图像中的低相干区域;
在当前的单视复图像对中,如果每个像素点均属于该单视复图像对中的低相干区域时,将当前像素点的第三高度信息设置为无效值;并确定当前像素点在第二次飞行所获取的相干系数值,并与预设阈值进行比较,
当所述当前像素点的相干系数值大于或等于所述预设阈值时,所述像素点的第三高度信息设置为所述第二次飞行中所获取该像素点的第三高度信息;当所述当前像素点的相干系数值小于预设阈值时,所述像素点的第三高度信息设置为无效值;
当所述多个单视复图像对的每个像素点均不属于各自识别的低相干区域时,对所述获取的相干系数值和每个像素点的第三高度信息进行加权计算,生成待探测复杂场景的高度反演信息;其中,每个像素点对应一个含有所述第三高度信息的坐标信息。
6.根据权利要求4所述的一种机载干涉合成孔径雷达复杂场景高程反演方法,其特征在于,所述识别每个单视复图像对的图像中的低相干区域的步骤,包括:
计算每个所述单视复图像对中相位图像的残差点,生成关于残差点二值分布的第一低相干区域;
获取每个根据所述单视复图像对的模得到的一个幅度图像以及设置的幅度阈值;
根据幅度阈值对每个幅度图像进行低相干区域判断处理,筛选低于阈值的至少一个第二低相干区域;
根据预设的相干系数阈值对每个所述单视复图像对进行低相干区域筛选,得到至少一个基于相干系数阈值判断的第三低相干区域;
对多个所述第一低相干区域、多个所述第二低相干区域以及多个所述第三低相干区域进行位置融合处理,生成关于二值图像的第四低相干区域;
对每个所述第四低相干区域进行形态学开运算,生成第五低相干区域。
8.一种机载干涉合成孔径雷达复杂场景高程反演系统,其特征在于,基于上述权利要求1至7任意一项所述的一种机载干涉合成孔径雷达复杂场景高程反演方法,该高程反演系统包括:
采集模块,用于获取对飞模式中相反角度下待探的同一测复杂场景的多个单视复图像对;
处理模块,用于根据所有的单视复图对分别得到每个单视复图像对的在同一复杂场景的不同的坐标系下的坐标信息、每个坐标信息含有对应一个第一高度信息;
对所有的单视复图像对的分别在所述同一复杂场景下的每个坐标信息,分别映射在同一个坐标系下坐标转换,得到转换后的每个坐标信息及其对应的第一高度信息转换后的第二高度信息;
处理模块,还用于对多个所述坐标转换后的各个坐标信息以及第二高度信息分别进行网格化处理,生成分别含有第三高度信息的各个坐标信息;
处理模块,还用于根据预设的融合策略,对含有第三高度信息的多个坐标信息进行像素融合处理,生成待探测复杂场景的高度反演信息。
9.一种计算机可读存储介质,其特征在于,包括指令,当所述指令在计算机上运行时,使所述计算机执行根据权利要求1至7任意一项所述的方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910839000 | 2019-09-05 | ||
CN2019108390003 | 2019-09-05 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112099004A true CN112099004A (zh) | 2020-12-18 |
CN112099004B CN112099004B (zh) | 2022-03-08 |
Family
ID=73757685
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010919915.8A Active CN112099004B (zh) | 2019-09-05 | 2020-09-04 | 一种机载干涉合成孔径雷达复杂场景高程反演方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112099004B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117609411A (zh) * | 2023-12-08 | 2024-02-27 | 苏州空天信息研究院 | 一种用于多源地理高程信息的集成与融合系统及方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5863122A (en) * | 1995-11-14 | 1999-01-26 | Tamminga; Jacob R. | Vertical feed mixer with auger having corners |
US20050045816A1 (en) * | 2003-08-26 | 2005-03-03 | Shimadzu Corporation | Mass spectrometer with an ion trap |
CN102854506A (zh) * | 2012-09-10 | 2013-01-02 | 电子科技大学 | 一种基于后向投影算法的动基线干涉sar基线补偿方法 |
CN103336278A (zh) * | 2013-05-13 | 2013-10-02 | 西安电子科技大学 | 多视角观测下前视三维sar成像方法 |
CN105023254A (zh) * | 2015-07-22 | 2015-11-04 | 北京航空航天大学 | 一种合成孔径雷达图像的高度重建方法 |
CN105277928A (zh) * | 2015-09-28 | 2016-01-27 | 北京无线电测量研究所 | 一种稠密大气内无推力高速飞行目标类别辨识系统及方法 |
CN106908781A (zh) * | 2017-02-27 | 2017-06-30 | 中国科学院电子学研究所 | 基于单通道圆迹sar的直线运动动目标的速度矢量获取方法 |
CN108279406A (zh) * | 2018-04-16 | 2018-07-13 | 北京无线电测量研究所 | 一种雷达的解耦合方法、装置、系统及存储介质 |
WO2018153734A1 (en) * | 2017-02-22 | 2018-08-30 | Aeromobil R&D, S. R. O. | Wing folding |
CN109752698A (zh) * | 2018-12-12 | 2019-05-14 | 北京无线电测量研究所 | 一种机载合成孔径雷达的惯性导航误差估算方法 |
-
2020
- 2020-09-04 CN CN202010919915.8A patent/CN112099004B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5863122A (en) * | 1995-11-14 | 1999-01-26 | Tamminga; Jacob R. | Vertical feed mixer with auger having corners |
US20050045816A1 (en) * | 2003-08-26 | 2005-03-03 | Shimadzu Corporation | Mass spectrometer with an ion trap |
CN102854506A (zh) * | 2012-09-10 | 2013-01-02 | 电子科技大学 | 一种基于后向投影算法的动基线干涉sar基线补偿方法 |
CN103336278A (zh) * | 2013-05-13 | 2013-10-02 | 西安电子科技大学 | 多视角观测下前视三维sar成像方法 |
CN105023254A (zh) * | 2015-07-22 | 2015-11-04 | 北京航空航天大学 | 一种合成孔径雷达图像的高度重建方法 |
CN105277928A (zh) * | 2015-09-28 | 2016-01-27 | 北京无线电测量研究所 | 一种稠密大气内无推力高速飞行目标类别辨识系统及方法 |
WO2018153734A1 (en) * | 2017-02-22 | 2018-08-30 | Aeromobil R&D, S. R. O. | Wing folding |
CN106908781A (zh) * | 2017-02-27 | 2017-06-30 | 中国科学院电子学研究所 | 基于单通道圆迹sar的直线运动动目标的速度矢量获取方法 |
CN108279406A (zh) * | 2018-04-16 | 2018-07-13 | 北京无线电测量研究所 | 一种雷达的解耦合方法、装置、系统及存储介质 |
CN109752698A (zh) * | 2018-12-12 | 2019-05-14 | 北京无线电测量研究所 | 一种机载合成孔径雷达的惯性导航误差估算方法 |
Non-Patent Citations (6)
Title |
---|
CHENG HU: "EXPERIMENTAL DESIGN AND DATA PROCESSING OF TWIN GEO SAR INTERFEROMETRY BASED ON BEIDOU IGSO SATELLITES", 《2017 IEEE INTERNATIONAL GEOSCIENCE AND REMOTE SENSING SYMPOSIUM (IGARSS)》 * |
HONGYANG AN: "Flight Parameter Design for Translational Invariant Bistatic Forward-looking SAR Based on Multiobjective Particle Swarm Optimization", 《2016 CIE INTERNATIONAL CONFERENCE ON RADAR (RADAR)》 * |
刘炜: "基于多维谱峰联合搜索的无人机控制抗扰动算法", 《电子测量技术》 * |
李慧敏: "基于微波遥感数据的森林参数反演", 《中国优秀博硕士学位论文全文数据库(硕士) 农业科技辑》 * |
李芳芳: "机载双天线InSAR对飞数据处理与分析", 《雷达学报》 * |
汪丙南: "联合对飞数据的单控制点机载干涉SAR定标算法", 《测绘学报》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117609411A (zh) * | 2023-12-08 | 2024-02-27 | 苏州空天信息研究院 | 一种用于多源地理高程信息的集成与融合系统及方法 |
CN117609411B (zh) * | 2023-12-08 | 2024-06-11 | 苏州空天信息研究院 | 一种用于多源地理高程信息的集成与融合系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112099004B (zh) | 2022-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2022022694A1 (zh) | 自动驾驶环境感知方法及系统 | |
CN107145874B (zh) | 复杂背景sar图像中的舰船目标检测与鉴别方法 | |
CN109840553B (zh) | 耕地作物类型的提取方法及系统、存储介质、电子设备 | |
Schumann et al. | The utility of spaceborne radar to render flood inundation maps based on multialgorithm ensembles | |
CN110728658A (zh) | 一种基于深度学习的高分辨率遥感影像弱目标检测方法 | |
CN110472553A (zh) | 图像和激光点云融合的目标追踪方法、计算装置和介质 | |
CN112162297B (zh) | 一种剔除激光点云地图中动态障碍伪迹的方法 | |
CN106709914A (zh) | 一种基于双级dem海陆库的sar图像船舶检测虚警剔除方法 | |
CN109741446B (zh) | 一种三维数字地球动态生成精细海岸地形的方法 | |
CN112487912B (zh) | 基于改进YOLOv3的任意方向舰船检测方法 | |
CN112649802B (zh) | 高分辨传感器弱小多目标检测前跟踪方法 | |
CN109597074B (zh) | 一种sar影像几何定位参数校正方法及系统 | |
CN113960595A (zh) | 一种地表形变监测方法及系统 | |
CN114689015B (zh) | 一种提高光学卫星立体影像dsm高程精度的方法 | |
CN108919319A (zh) | 海岛礁卫星影像无地面控制点定位方法及系统 | |
CN111080682A (zh) | 点云数据的配准方法及装置 | |
Steiner et al. | Ego-motion estimation using distributed single-channel radar sensors | |
CN112099004B (zh) | 一种机载干涉合成孔径雷达复杂场景高程反演方法及系统 | |
CN113970734A (zh) | 路侧多线激光雷达降雪噪点去除方法、装置及设备 | |
CN107463944B (zh) | 一种利用多时相高分辨率sar图像的道路信息提取方法 | |
CN116148842A (zh) | 一种视觉和成像毫米波雷达点云融合方法、系统和设备 | |
CN117423002A (zh) | 一种基于dem的小尺度潮滩图像处理方法 | |
CN117197182B (zh) | 雷视标定方法、设备及存储介质 | |
Zhang et al. | FRS-Net: An efficient ship detection network for thin-cloud and FOG-covered high-resolution optical satellite imagery | |
CN114037968A (zh) | 基于深度雷达点云和图像数据融合的车道线检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |