CN116740332B - 基于区域检测的星上空间目标部件中心定位和测角方法 - Google Patents

基于区域检测的星上空间目标部件中心定位和测角方法 Download PDF

Info

Publication number
CN116740332B
CN116740332B CN202310641681.9A CN202310641681A CN116740332B CN 116740332 B CN116740332 B CN 116740332B CN 202310641681 A CN202310641681 A CN 202310641681A CN 116740332 B CN116740332 B CN 116740332B
Authority
CN
China
Prior art keywords
image
target
centroid
coordinates
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310641681.9A
Other languages
English (en)
Other versions
CN116740332A (zh
Inventor
汪玲
谢菲
郑淑娴
张翔
王波
刘寒寒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN202310641681.9A priority Critical patent/CN116740332B/zh
Publication of CN116740332A publication Critical patent/CN116740332A/zh
Application granted granted Critical
Publication of CN116740332B publication Critical patent/CN116740332B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C1/00Measuring angles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/34Smoothing or thinning of the pattern; Morphological operations; Skeletonisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了基于区域检测的星上空间目标部件中心定位和测角方法,涉及可见光信号处理技术领域。该方法包括:对图像进行平滑降噪和对比度增强等预处理,排除噪声和光照条件导致的成像质量低的影响;通过求邻域平均的方法获得图像的局部自适应阈值,实现前景与背景的分割;检测图像中的连通域并提取感兴趣区域,对其进行参数调整后的阈值分割、形态学开运算和闭运算,将各部件分开,得到各部件所在区域;通过形心提取算法获得各个部件的形心,利用其相对位置识别各部件。本发明充分考虑到了目标抵近过程中像素数逐渐递增导致的参数自适应问题,提高了形心检测的精度,实现了对空间面目标从远到近的自适应部件识别及中心定位方法。

Description

基于区域检测的星上空间目标部件中心定位和测角方法
技术领域
本发明属于可见光图像处理领域,特别涉及基于区域检测的星上空间目标部件中心定位和测角方法。
背景技术
随着航天技术的蓬勃发展,太空成为重要战略资源,航天强国开始重视各种空间活动。空间活动主要包括在轨服务、交会对接、空间目标监视、空间攻防、空间飞行器绕飞等,要执行这些空间任务,首先需要了解目标的形态特征,也就是测量目标飞行器相对于追踪飞行器的位置与姿态。光学成像系统能够提供高分辨率图像,展示丰富的纹理信息,研究者们可以通过视觉测量手段解决空间目标位姿测量等问题。视觉测量技术作为空间目标感知的一种有效手段,具备对空间目标各关键部件,如帆板、天线等的识别能力,近年来在该领域已经取得了很多研究成果。
现有较成熟的视觉测量方法主要是针对合作目标,即安装有专用视觉测量标志器的目标。美国的轨道快车、日本的ETS-VII(engineering test satellite,工程实验卫星)等都在追踪星上安装了可见光相机,在目标飞行器上安装了用于测量的发光标志器作为目标识别与测量的标志。对于没有安装测量标志器的非合作目标,测量难度远大于合作目标位姿测量,如何在目标运动和空间结构未知的情况下精确获取目标的相对位置和姿态信息是主要难点。Inaba等假定目标模型已知,即目标飞行器外形、尺寸及质量等都已知,提出了一种对非合作目标的在轨识别与捕获方法。德国宇航中心正在开展的德国轨道服务任务重点研究非合作目标的识别、接近与捕获等技术,由于算法复杂度高,难以在卫星平台上实时处理,必须将空间的图片下传到地面服务器上运行,再将结果上传回卫星。这类方法受传输时延、传输可靠性影响,系统不稳定,无法完成全自动的在轨实时测量。徐文福等提出一种基于双目视觉的非合作飞行器相对位姿测量方法,该方法以太阳能帆板支架作为识别对象,极大地提高了测量自主性,但需要人机交互为追踪飞行器提供人工处理信息完成特征提取和位姿解算。徐培智等对该方法做出改进,测量目标更加具体化,并采用物理仿真进行验证,但该方法并未考虑姿态翻滚等测量条件。上述研究内容实时性与精确性有待提高。
发明内容
本发明所要解决的技术问题是:提供基于区域检测的星上空间目标部件中心定位和测角方法,充分利用了目标卫星的典型部件结构,用于抵近过程中的中心定位,实现对模型已知的非合作目标从远到近抵近过程中各部件的视线角测量。
本发明为解决上述技术问题采用以下技术方案:
本发明提出了基于区域检测的星上空间目标部件中心定位和测角方法,包括以下步骤:
S1、对空间目标观测图像进行降噪和对比度增强处理。
S2、计算局部自适应阈值,利用局部自适应阈值分割步骤S1处理后的图像中的初始目标与背景。
S3、通过种子填充法,获得阈值分割图像中的各连通域。
S4、为防止图像中除了目标还有其他的区域,比如深空背景中的星星和地杂光,统计各连通域的面积,即具有同样标签的连通域所占像素数。设定整个图像面积的0.1%作为面积阈值,当连通域的面积小于该阈值时,则将该连通域内的像素置为黑色背景(灰度值为0);采用闭运算,将目标区域连接为一个连通域,面积最大的连通域选为最终目标区域,去除非最大的区域。
S5、随着目标抵近,目标所占像素数增多,当像素数达到一定量级,各部件逐渐清晰,可通过形态学处理区分各部件。利用形态学处理区分各部件,当最终目标区域的面积小于设定的需要进行部件分割的面积阈值时,则将该最终目标区域的形心作为目标区域形心,将形心坐标转换为目标在相机坐标系下的方位角和俯仰角,完成目标中心定位和测角,反之则进行步骤S6。
S6、根据目标位于的连通域的边缘点集,利用最小面积法获得连通域的外接矩形,提取ROI图像块,并对其进行阈值分割。
S7、利用形态学开运算和闭运算,将各部件分开之间的连接断开并填充部件中的空洞,得到部件间各自独立的区域。
S8、对步骤S7所得的结果进行连通域检测,获取各部件所在区域,计算各区域的形心坐标,并根据各区域形心的相对位置识别帆板和本体。
S9、根据投影变换将各部件的形心坐标转换为视线角。
进一步的,步骤S1中,在图像的采集过程中,由于受到目标部件之间相互遮挡以及光照条件多变等因素的影响,经常会使场景的光照不均匀,主要表现为图像中亮的区域光线足够或者过强,而暗的区域照度不足,导致一些重要的细节信息无法凸显甚至被掩盖掉,严重影响了图像的视觉效果和应用价值,所以利用高斯滤波和自动伽马矫正,对空间目标观测图像进行降噪和对比度增强处理,具体步骤为:
S101、利用高斯滤波进行降噪处理时,以高斯分布取权重矩阵,利用该矩阵对空间目标观测图像进行卷积,输出的图像中每一个像素都取周边像素的加权平均值,完成高斯滤波;将权重矩阵的“中心点”作为原点,邻域内其他点按照高斯分布计算初始权重,二维高斯分布为:
其中,σ是高斯分布的标准差,决定了平滑效果,即标准差越大平滑效果越明显。
得到高斯权重矩阵G后,将空间目标观测图像I与G进行卷积操作,具体公式为:
其中,表示卷积运算,IG为卷积输出图像。
S102、对降噪后的图像,利用自动伽马矫正实现对比度增强。自动伽马矫正根据平均亮度自动调节伽马增强指数,伽马增强后的图像平均亮度应该向该参考值接近,通过以下方式计算得到伽马增强指数:
其中,γ表示伽马增强指数;RefAveBRT表示平均亮度;X表示归一化去噪后图像的平均值,采用Min-Max归一化标准。
进一步的,步骤S2中,分割图像中初始目标和背景的具体内容为:
对输入图像当前像素点所在局部窗口内(2r+1)×(2r+1)个邻域像素求均值,乘以敏感度系数后的值作为当前像素点的分割阈值,窗口以步长为1移动,从上到下从左到右遍历图像计算所有像素的局部均值,即得到局部自适应阈值,具体公式如下:
其中,(x,y)表示像素点的坐标位置;Thresh(x,y)表示像素点的分割阈值;T为敏感度,通过信息熵表示;IE是增强后图像;r是计算局部窗口的半径,半径尺寸影响阈值分割的效果。
尽量采用小的窗口尺寸,能尽可能多的保留目标信息,使检测的目标连通域能连成一体,从而根据该连通域边缘坐标提取ROI。高敏感度导致更多的像素归为前景,为了能够完整地分割出目标,本发明采用信息熵作为敏感度。图像信息熵从信息论的角度衡量图像中信息的多少,将信息熵作为敏感度,可根据图像中信息的多少自适应地确定分割阈值。该阈值分割方法简单有效,便于硬件实现。
比较每个像素点的灰度值与计算得到的局部自适应阈值,当灰度值低于阈值时,则将该点置为黑色,归类为初始目标;反之将该点置为白色,归类为初始背景:
其中,BW是阈值分割后的二值图像。
进一步的,步骤S3中,利用种子填充法进行连通域检测的具体内容为:遍历图像,搜索像素不为0的点作为初始种子,并向其邻域搜索,相同灰度值的像素则标记为相同的连通域标签,持续在邻域搜索直到周围没有相同灰度值的像素时,则得到一个完整的连通域;按照同样的方法,针对其他的不在已搜索到的连通域中的种子继续搜索相应的连通域,直到检测出整幅图的所有连通域。
进一步的,步骤S6中,通过获得连通域的外接矩形的四个角点坐标,从原始空间目标观测图像中提取ROI图像块,将其作为阈值分割的输入,采用较大的窗口尺寸,完成阈值分割。其中设置阈值计算的局部窗口半径r为H*0.4向下取整后的值,则窗口尺寸为(2r+1)*(2r+1),其中H是ROI的高度。该尺寸随着ROI尺寸的变化而变化。
进一步的,步骤S7中,对阈值分割后的像先进行开运算,能平滑物体的轮廓、断开较窄的狭颈并消除细的突出物,比如帆板和本体之间的连接三脚架。开运算是图像依次经过腐蚀、膨胀处理后的结果。接着对开运算后的结果进行闭运算,用来填补目标部件中的空洞及填补轮廓线中的断裂。闭运算是先做膨胀处理,再用腐蚀处理,闭运算可以表示为(A+R)-R。随着目标抵近,形态学开运算和闭运算的矩形结构元素尺寸也随着ROI尺寸的变化而变化,以保证各独立部件能被完整地区分开。
根据经验,设置开运算的矩形结构元素尺寸高度和宽度的系数分别为0.001和0.004,即矩形结构元素的m和n分别为0.001*W和0.004*H向上取整后的值,那么矩形结构元素尺寸为(2m+1)*(2n+1),其中W和H分别是ROI的宽度和高度,该结构元素表示为:
与上述确定开运算矩形结构元素尺寸的方式相同,通过设置闭运算矩形结构元素的高度和宽度的系数,自适应地改变结构元素尺寸。闭运算的高度和宽度的系数分别被设置为0.001和0.001。
进一步的,步骤S8中,计算形心坐标的具体公式为:
其中,Si为第i个区域;xi和yi分别表示第i个连通域的水平和垂直方向坐标,xc和yc分别表示形心的水平和垂直方向坐标,Ni是第i个连通域所占像素总数。
将各区域形心的相对位置与目标结构相对应,形心处于图像中心两侧的是卫星帆板区域,形心处于两帆板形心之间的是本体区域。
进一步的,步骤S9中,根据图像平面中的形心坐标、相机提供的像元尺寸和焦距参数,利用投影变换将帆板形心从图像坐标系O-uv变换到成像坐标系的坐标(yt,zt),具体公式为:
其中,(u0,v0)表示图像平面中心坐标,(ut,vt)为目标形心坐标,dx和dy分别是水平方向和垂直方向的像元尺寸。
对于焦距为f的相机,目标在成像坐标系OR-xy中的坐标(yt,zt)与在相机坐标系OP-XPYPZP下的三维坐标的关系表示为:
在相机坐标系下目标视线角以矢量的形式表示为将该矢量单位化后表示为ip=[if,iy,iz],在相机坐标下由视线角信息表示,具体公式为:
其中,α表示方位角,β表示俯仰角。随着目标抵近可实时定位目标部件形心。
本发明还提出一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现前文所述的基于区域检测的星上空间目标部件中心定位和测角方法的步骤。
本发明还提出一种计算机可读的存储介质,所述计算机可读的存储介质存储有计算机程序,所述计算机程序被处理器运行时执行前文所述的基于区域检测的星上空间目标部件中心定位和测角方法的步骤。
本发明采用以上技术方案与现有技术相比,具有以下技术效果:
(1)实际太空环境复杂,目标边缘轮廓的提取精度受光照条件影响,存在无法适应光照过强或过暗的问题。本发明采用对比度增强预处理后,利用局部自适应阈值进行阈值分割,可以有效避免因为图像中各部件亮度不均而分割不准确的问题。
(2)通过提取ROI,并对其进行阈值分割,连通域检测和形态学开运算等操作,局部处理的操作有效提升了检测精度和算法速度。
(3)根据ROI尺寸计算各形态学操作的尺寸,在保障精度的条件下,能自适应地完成目标抵近过程中的测量任务。
附图说明
图1是本发明的整体实施流程图。
图2是本发明高斯滤波前后的对比示意图。
图3是本发明实施例中进行对比度增强前后的对比示意图。
图4是本发明实施例中进行局部自适应阈值分割前后的对比示意图。
图5是本发明实施例中进行连通域检测效果对比示意图。
图6是本发明实施例中进行点目标形心定位和测角的结果示意图。
图7是本发明实施例中进行ROI提取和阈值分割的结果示意图。
图8是本发明实施例中进行ROI图像开运算和闭运算的结果示意图。
图9是本发明实施例中进行ROI图像连通域检测的结果示意图。
图10是本发明实施例在相机坐标系下目标所在位置的方位角和俯仰角定义示意图。
图11是本发明实施例中进行目标部件形心定位和测角的示意图。
图12是本发明实施例中blender仿真数据集测试结果示例。
图13是本发明实施例中实拍数据集中相对距离200m,光圈F=2.8并且曝光时间分别为2.574ms、10.7ms、48.3ms和69ms测试结果及放大示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图及具体实施例对本发明进行详细描述。
本发明基于区域检测的星上空间目标部件中心定位和测角方法,应用于空间目标观测图像,如图1所示,包括以下步骤:
S1、对空间目标观测图像进行降噪和对比度增强处理,具体步骤为:
S101、利用高斯滤波进行降噪处理时,以高斯分布取权重矩阵,将卷积核的“中心点”作为原点,邻域内其他点按照其在正态曲线上的位置,分配权重,就可以得到一个加权平均值,每一个像素都取周边像素的加权平均值。
二维高斯分布为:
其中,σ是高斯分布的标准差,决定了平滑效果,即标准差越大平滑效果越明显。
本实施例中,选择高斯滤波窗口尺寸为5*5,标准差σ=1.4。根据高斯分布函数得到初始权重后经过归一化得到最终的高斯滤波权重矩阵,卷积核半径为2时的归一化权重矩阵如下:
得到高斯权重矩阵G后,如上式所示,将空间目标观测图像I与G进行卷积操作,具体公式为:
其中,表示卷积运算,IG为卷积输出图像。
以空间目标模型二在距离相机42m观测图像为例,图2展示了高斯滤波结果图,图2的(a)为原始图像,图2的(b)为高斯滤波后图像。通过对比高斯滤波前后的图像,可以看出滤波后的图像经过滤波后目标灰度变化更平滑,去除了目标表面的噪声。
S102、对降噪后的图像,利用自动伽马矫正实现对比度增强,对空间目标观测图像进行幂律变换,用于平滑地扩展较暗的细节。伽马增强指数γ小于1时,会拉伸图像中灰度级较低的区域,同时会压缩灰度级较高的部分;γ值大于1时,会拉伸图像中灰度级较高的区域,同时会压缩灰度级较低的部分。在本实施例中,由于目标材质特殊导致其反射强度较弱,图像的灰度值整体偏小,则设定一副合理图像的所有归一化后的参考平均亮度RefAveBRT为0.1,则伽马增强指数的计算公式为:
其中,γ表示伽马增强指数;RefAveBRT表示平均亮度;X表示归一化去噪后图像的平均值,采用Min-Max归一化标准。
则增强后图像为:
IEIGγ
如图3所示,图3的(a)是对比度增强前图像IG,可以看出,增强前图像整体较暗,除卫星主体较亮外,卫星帆板亮度几乎等同背景亮度。图3的(b)是对比度增强后的图像IE,可以看出,增强后的图像使目标整体明显变亮,主体和帆板均清晰可见,相较于背景具有显著的差别。同时保留了清晰的目标边缘,并且没有产生多余的噪声。
S2、计算局部自适应阈值,由于目标和背景处于不同灰度级范围,所以利用局部自适应阈值分割步骤S1中处理后的图像中的目标与背景,具体内容为:
计算局部自适应阈值,具体公式如下:
其中,(x,y)表示像素点的坐标位置;Thresh(x,y)表示像素点的分割阈值;T为敏感度,通过信息熵表示;IE是增强后图像;r是计算局部窗口的半径,半径尺寸影响阈值分割的效果。
在本实施中,设置为r=5,邻域尺寸为11*11。
遍历图像计算一个移动的平均值,比较每个像素点的灰度值和阈值,当灰度值低于阈值时,则将该点置为黑色,即归类为目标;反之将该点置为白色,即归类为前景:
其中,BW是阈值分割后的二值图像,图像中目标像素的灰度值被置为1(白色),背景像素的灰度值被置为0(黑色)。
如图4所示,图4的(a)是阈值分割前图像IE,图4的(b)是阈值分割后的图像BW。可以看出选用较小的窗口尺寸,能将目标完整的从背景中分割出来。
S3、通过种子填充法,获得阈值分割图像中的各连通域,具体内容为:
遍历图像,搜索像素不为0的点作为初始种子,并向其邻域搜索,相同灰度值的像素则标记为相同的连通域标签,持续在邻域搜索直到周围没有相同灰度值的像素时,则得到一个完整的连通域;按照同样的方法,针对其他的不在已搜索到的连通域中的种子继续搜索相应的连通域,直到检测出整幅图的所有连通域。
如图5所示,图5的(a)是区域检测前图像BW,图5的(b)是区域检测后的标签,不同区域采用不同标签值表示,也就是说将标签可视化在图5的(b)中,不同区域的灰度值不同,可以看出图像中检测出多个区域,其中区域面积最大的是空间目标。
S4、统计各连通域的面积,也就是其所占像素数,面积最大的(像素数最多)的连通域是目标所在连通域。因为深空背景中星星和地杂光相比于整个目标所占面积非常小,所以为了排除深空背景中星星的干扰,本实施例中设定面积阈值为4194。当连通域的面积小于该阈值,则将该连通域内的像素置为背景(灰度值为0)。接着采用闭运算,目的是将目标区域连接为一个连通域。将面积最大的连通域选为最终目标区域,即可彻底排除星星和地杂光。
本实施例中,整个图像分辨率为2048*2048。
S5、随着目标抵近,目标所占像素数增多,当像素数达到一定量级,各部件逐渐清晰,可通过形态学处理区分各部件。当目标面积小于设定的需要进行部件分割的面积阈值时,则将该区域的形心作为目标区域形心,将形心坐标转换为目标在相机坐标系下的方位角和俯仰角,完成目标中心定位和测角,反之则进行步骤S6。
在本实施例中,该面积阈值定为500。如图6所示,图6的(a)是目标面积小于500的空间点目标观测图,可以看出各部件区分不明显。图6的(b)是点目标形心检测结果,其中在最上面的标注“Relative distance”是指当前目标与相机的相对距离,“Number ofpixels”是指当前检测出的目标所占像素数,“TargetElevationAngle”是指检测的目标中心的俯仰角,“TargetAzimuthAngle”是指检测的目标中心的方位角。可以看出,本发明在本实施例中检测的点目标距离相机1120m,空间所占面积(像素数)为415,检测得到的目标中心在图像中坐标为(891,947),经投影转换后输出的俯仰角和方位角分别为:-2.8803°和-4.9856°。图6的(c)是检测结果放大图。
S6、根据目标所在连通域的边缘点集,利用最小面积法获得连通域的外接矩形,通过外接矩形的四个角点坐标,从原始空间目标观测图像中提取ROI,ROI是含有空间目标的矩形块;对ROI进行局部自适应阈值分割;其中设置阈值计算的局部窗口半径r为H*0.4向下取整后的值,那么窗口尺寸为(2r+1)*(2r+1),其中H是ROI的高度。
在本实施例中,原始目标观测图像尺寸为2048*2048,提取的ROI尺寸为414*1339。那么阈值分割的窗口尺寸为331*331。如图7所示,图7的(a)是提取ROI图像,ROI图像是包含了空间目标的矩形块。图7的(b)是对图7的(a)进行自适应局部阈值分割后的二值图像,由于采用了较大的窗口尺寸,可以看出分割出的目标各部件区分更明显,各部件之间的边缘更清楚。
S7、利用形态学开运算和闭运算,将各部件分开,得到部件间各自独立的区域。
对阈值分割后图像先进行开运算,能平滑物体的轮廓、断开较窄的狭颈并消除细的突出物,比如帆板和本体之间的连接三脚架。接着进行闭运算,用来填补目标部件中的空洞及填补轮廓线中的断裂。
设置开运算的矩形结构元素尺寸高度和宽度的系数分别为0.001和0.004,即矩形结构元素宽度m和高度n分别为0.001*W和0.004*H向上取整后的值,那么矩形结构元素尺寸为(2m+1)*(2n+1),其中W和H分别是ROI的宽度和高度。与上述确定开运算矩形结构元素尺寸的方式相同,闭运算的高度和宽度的系数分别被设置为0.001和0.001。
在本实施例中,提取的ROI尺寸为414*1339,开运算的矩形结构元素尺寸为3*13,闭运算的矩形结构元素尺寸为3*7,如图8所示,图8的(a)是对图7的(b)进行开运算结果,可以看出这一步将图7的(b)中帆板和本体之间连接的三脚架消除了。图8的(b)是对图8的(a)进行闭运算结果,可以看出这一步填充了各部件区域内的空洞和轮廓线中的断裂。如此便获得了各部件完整的区域,可以用来进行下一步区域的形心计算。
S8、对上述步骤所得结果进行阈值分割图像中的各连通域,获取各部件所在区域。计算各区域的形心坐标,并根据各区域形心的相对位置识别帆板和本体。对于分割出的第i个目标区域Si,计算区域的形心作为该区域的中心,计算表达式为:
其中Si为第i个区域;xi和yi分别表示第i个连通域的水平和垂直方向坐标,(xc,yc)是经过连通域检测以后确定特征点所在区域并计算得到形心,Ni是第i个连通域所占像素总数。因为模型结构已知,所以形心处于图像中心两侧的则是卫星帆板区域,形心处于两帆板形心之间的则是本体区域。
在本实施例中,对图8的(b)进行连通域检测获得所有连通域,并计算这些连通域对应形心。如图9所示,共检测出四个连通域。从左往右,从上到下对应形心坐标分别为(254,81),(647,111),(657,333),(1083,113)。根据已知模型特点,右帆板的形心应该离ROI图像右边缘中心点(207,1339)最近,主体次之,左帆板最远。根据此原理可以将各区域与卫星部件一一对应。
S9、根据投影变换将各部件的形心坐标转换为视线角,具体是指根据上述步骤得到的在图像平面中的形心坐标和相机提供的像元尺寸和焦距,利用投影变换计算形心在相机坐标系下的坐标。
投影变化的具体内容为:首先,为了描述相机姿态,建立相机坐标系。以相机光学镜头中心与光轴的焦点为坐标原点,以光轴方向为XP轴,与相机感光传感器成像平面平行的平面内建立YP轴与ZP轴,将该坐标系记作OP-XPYPZP。感光传感器将采集到的信号量化为灰度值后以数组的形式存储,建立描述数组中元素位置的坐标系O-uv。以传感器平面的左上角为原点,在成像平面与相机坐标系ZP平行同向建立u轴,与YP轴平行同向建立v轴。坐标系内的值以像素为单位,坐标(um,vn)表示像素数组中位于um行vn列的位置。为了以物理单位描述像素的位置,并通过算法提高精度,建立成像平面坐标系OR-xy。该坐标系以光轴与成像平面的交点为原点OR,在成像平面内建立与u轴平行同方的x轴,与v轴平行同向的y轴。相机坐标系OP-XPYPZP与传感器像素坐标系OR-xy及成像平面坐标系O-uv间的关系如图10所示,图中f表示焦距,dx与dy分别表示感光传感器在x轴与y轴方向上的单位像元尺寸。在不考虑镜头畸变的情况下,依据几何关系,将帆板形心从图像坐标系O-uv变换到成像坐标系的坐标OR-xy,具体公式为:
其中,u0和v0表示图像平面中心坐标,(ut,vt)为目标形心坐标,dx和dy分别是水平方向和垂直方向的像元尺寸。
对于焦距为f的相机,目标在成像坐标系OR-xy中的坐标(yt,zt)与在相机坐标系OP-XPYPZP下的三维坐标的关系表示为:
则在相机坐标系下目标视线角以矢量的形式表示为将该矢量单位化后表示为ip=[if,iy,iz],在相机坐标下由方位角α和俯仰角β表示。如图10所示,单位向量ip与方位角和俯仰角满足关系:
由上式计算得到相机坐标系下目标部件形心所在位置,方位角和俯仰角组成视线角信息,根据该信息实现目标部件形心定位。
本实施例中,通过步骤S1~S8得到各部件的中心坐标,左帆板中心为(450,972),右帆板中心坐标为(1279,1004),主体的中心坐标为(843,1002)。拍摄使用相机焦距为8mm,像元尺寸为6.5μm*6.5μm。如图11所示为本实施例的各部件视线角检测结果,其中在最上面的标注“Relative distance”是指当前目标与相机的相对距离,“Number of pixels”是指当前检测出的目标所占像素数,“BodyElevationAngle”是指本体中心的俯仰角,“BodyAzimuthAngle”是指本体中心的方位角,“LeftElevationAngle”是指左帆板中心的俯仰角。“LeftAzimuthAngle”是指左帆板中心的方位角,“RightElevationAngle”是指右帆板中心的俯仰角,“RightAzimuthAngle”是指右帆板中心的方位角。从图中可以看出当距离相机为21.5m时,检测得到的部件中心坐标经过步骤S9的投影变换后,目标左帆板的方位角和俯仰角分别为-21.9094°和-1.8997°,右帆板的方位角和俯仰角为12.0175°和-0.72848°,主体的方位角和俯仰角为-6.2136°和-0.7404°。
为了验证本发明提出的方法的有效性,通过人工从图像中提取目标各部件的中心坐标作为真实值(u_truth,v_truth),计算对应的真实方位角α_truth和俯仰角β_truth,算出测角误差,具体公式为:
为了验证基于区域检测的星上实时空间目标部件识别及中心定位方法的有效性,分别在可见光blender仿真数据集和实测数据集上进行实验验证。
通过blender模拟实际太空背景和目标模型一,生成了目标从500m至5m抵近过程的仿真图。仿真实验数据集由100张仿真空间目标图像组成,即每隔5m产生一张仿真空间目标图像,模拟的相机焦距为9.01mm,视场角为65°。针对这些图片进行距离变化的测角实验,500m~5m的平均测角误差统计如表1所示,相对距离处于500m,400m,180m和60m时的测试结果如图12所示。
表1 65°视场角下500m~5m抵近过程平均测角误差
采集实测数据时需要模拟在轨任务的太空环境,通过吸光性强的黑色背景幕布模拟深空黑暗环境,拍摄目标模型二时采用与实际尺寸比例为1:35的目标模型。最后在搭建的光学暗室下,采集实测图像。为充分测试算法性能,在暗室中模拟不同场景进行拍照,包括不同光圈、不同曝光时间下的卫星,具体设置如表2所示:
表2实拍场景设置
如图13所示,当光圈小且曝光时间少时,光照强度弱,本发明通过伽马自动矫正将图像的平均亮度提升。当光圈大且曝光时间长时,光照强度强,本发明可通过伽马自动矫正将图像的平均亮度降低。当光圈F=2.8,曝光时间分别为2.574ms,20.7ms,48.3ms和69ms时的测试结果如图13所示,其中左侧一列是对应不同曝光时间拍摄图的检测结果,为了看清楚对目标区域的检测效果,右侧一列是将对应左侧图像中的目标放大后效果图。当曝光时间变化时,本发明可以适应光照强度分布不均应的情况,有效地完成中心定位。
表3距离200m时不同光圈和曝光时间下平均测角误差
本发明采用区域检测的方法进行空间目标太阳能帆板位置的检测,首先利用降噪和对比度增强,有效的保证了算法在复杂多变观测环境下的鲁棒性。在分析目标特性的基础上,使用衡量信息量的信息熵作为阈值分割的敏感度,分割空间目标图像中复杂的部件结构,避免因为阈值选择不当造成部件检测错误。本发明采用相对简单的计算公式和流程,时间复杂度小,处理频率快。本发明在Matlab R2021b中实现,并运行在一台具有i7-7800XCPU和16GB RAM的PC上,经测试算法平均处理频率达8Hz,能够满足实时性要求。
本发明实施例还提出一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序。需要说明的是,上述系统中的各个模块对应本发明实施例所提供的方法的具体步骤,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本发明实施例所提供的方法。
本发明实施例还提出一种计算机可读的存储介质,所述计算机可读的存储介质存储有计算机程序。需要说明的是,上述系统中的各个模块对应本发明实施例所提供的方法的具体步骤,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本发明实施例所提供的方法。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围内。

Claims (9)

1.基于区域检测的星上空间目标部件中心定位和测角方法,其特征在于,包括以下步骤:
S1、对空间目标观测图像进行降噪和对比度增强处理;
S2、计算局部自适应阈值,利用局部自适应阈值分割步骤S1处理后的图像中的初始目标与背景;
S3、获得阈值分割图像中的各连通域;
S4、统计各连通域的面积,当连通域的面积小于阈值时,则将该连通域内的像素置为黑色背景;采用闭运算,将目标区域连接为一个连通域,面积最大的连通域选为最终目标区域;
S5、利用形态学处理区分各部件,当最终目标区域的面积小于设定的需要进行部件分割的面积阈值时,则将该最终目标区域的形心作为目标区域形心,完成目标中心定位和测角;反之则进行步骤S6;
S6、根据目标位于连通域的边缘点集,获得连通域的外接矩形,提取ROI图像块,并对其进行阈值分割;
S7、利用形态学开运算和闭运算,将各部件之间的连接断开并填充部件中的空洞,得到部件间各自独立的区域,包括以下内容:
对经过阈值分割后的二值图像先进行开运算,平滑物体的轮廓、断开较窄的狭颈并消除细的突出物;对开运算后的结果进行闭运算,填补目标部件中的空洞及填补轮廓线中的断裂;设置开运算的矩形结构元素尺寸为:高度的半径尺寸m是W乘以一定系数并向上取整后的值,宽度的半径尺寸n是H乘以一定系数并向上取整后的值,则矩形结构元素尺寸为(2m+1)*(2n+1),其中W和H分别是ROI的宽度和高度;该结构元素表示为:
与上述确定开运算矩形结构元素尺寸的方式相同,闭运算的矩形结构元素尺寸为:高度的半径尺寸m是W乘以一定系数并向上取整后的值,宽度的半径尺寸n是H乘以一定系数并向上取整后的值,矩形结构元素尺寸为(2m+1)*(2n+1),通过设置闭运算矩形结构元素的高度和宽度的系数,自适应地改变结构元素尺寸;
S8、对步骤S7所得的结果进行连通域检测,获取各部件所在的区域,计算各区域的形心坐标,并根据各区域形心的相对位置识别帆板和本体,获得帆板和本体部件的形心坐标;
S9、根据投影变换将各部件的形心坐标转换为视线角。
2.根据权利要求1所述的基于区域检测的星上空间目标部件中心定位和测角方法,其特征在于,步骤S1中,利用高斯滤波和自动伽马矫正,对空间目标观测图像进行降噪和对比度增强处理,具体步骤为:
S101、以高斯分布取权重矩阵,利用该矩阵对空间目标观测图像进行卷积,输出的图像中每一个像素都取周边像素的加权平均值,完成高斯滤波;将权重矩阵的“中心点”作为原点,邻域内其他点按照高斯分布计算初始权重,二维高斯分布为:
其中,σ是高斯分布的标准差;
得到高斯权重矩阵G后,将空间目标观测图像I与G进行卷积操作,具体公式为:
其中,表示卷积运算,IG为卷积输出图像;
S102、对降噪后的图像,利用自动伽马矫正实现对比度增强,根据平均亮度自动调节伽马增强指数,具体公式为:
其中,γ表示伽马增强指数;RefAveBRT表示平均亮度;X表示归一化去噪后图像的平均值,采用Min-Max归一化标准。
3.根据权利要求1所述的基于区域检测的星上空间目标部件中心定位和测角方法其特征在于,步骤S2中,分割图像中初始目标和背景的具体内容为:
对输入图像当前像素点所在局部窗口内(2r+1)×(2r+1)个邻域像素求均值,乘以敏感度系数后的值作为当前像素点的分割阈值,窗口以步长为1移动,从上到下从左到右遍历图像计算所有像素的局部均值,即得到局部自适应阈值,具体公式如下:
其中,(x,y)表示像素点的坐标位置;Thresh(x,y)表示像素点的局部自适应分割阈值;T为敏感度,通过信息熵表示;IE是增强后图像;r是计算局部窗口的半径;
比较每个像素点的灰度值与计算得到的局部自适应阈值,当灰度值低于阈值时,则将该点置为黑色,归类为初始目标;反之将该点置为白色,归类为初始背景:
其中,BW是阈值分割后的二值图像。
4.根据权利要求1所述的基于区域检测的星上空间目标部件中心定位和测角方法,其特征在于,步骤S3中,利用种子填充法进行连通域检测的具体内容为:遍历图像,搜索像素不为0的点作为初始种子,并向其邻域搜索,相同灰度值的像素则标记为相同的连通域标签,持续在邻域搜索直到周围没有相同灰度值的像素时,则得到一个完整的连通域;按照同样的方法,针对其它的不在已搜索到的连通域中的种子继续搜索相应的连通域,直到检测出整幅图的所有连通域。
5.根据权利要求1所述的基于区域检测的星上空间目标部件中心定位和测角方法,其特征在于,步骤S6中,通过获得连通域的外接矩形的四个角点坐标,从原始空间目标观测图像中提取ROI图像块,将其作为阈值分割的输入,完成阈值分割;
其中,设置阈值计算的局部窗口半径r为H*0.4向下取整后的值,窗口尺寸为(2r+1)*(2r+1),H是ROI的高度。
6.根据权利要求1所述的基于区域检测的星上空间目标部件中心定位和测角方法,其特征在于,步骤S8中,计算形心坐标的具体公式为:
其中,Si为第i个区域;xi和yi分别表示第i个连通域的水平和垂直方向坐标,xc和yc分别表示形心的水平和垂直方向坐标,Ni是第i个连通域所占像素总数;
将各区域形心的相对位置与目标结构相对应,形心处于图像中心两侧的是卫星帆板区域,形心处于两帆板形心之间的是本体区域。
7.根据权利要求1所述的基于区域检测的星上空间目标部件中心定位和测角方法,其特征在于,步骤S9中,根据图像平面中的形心坐标、相机提供的像元尺寸和焦距参数,利用投影变换将帆板形心从图像坐标系O-uv变换到成像坐标系的坐标(yt,zt),具体公式为:
其中,(u0,v0)表示图像平面中心坐标,(ut,vt)表示目标形心坐标,dx和dy分别是水平方向和垂直方向的像元尺寸;
对于焦距为f的相机,目标在成像坐标系OR-xy中的坐标(yt,zt)与在相机坐标系OP-XPYPZP下的三维坐标的关系表示为:
在相机坐标系下目标视线角以矢量的形式表示为将该矢量单位化后表示为ip=[if,iy,iz],在相机坐标下由视线角信息表示,具体公式为:
其中,α表示方位角,β表示俯仰角。
8.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
9.一种计算机可读的存储介质,所述计算机可读的存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器运行时执行所述权利要求1至7中任一项所述的方法。
CN202310641681.9A 2023-06-01 2023-06-01 基于区域检测的星上空间目标部件中心定位和测角方法 Active CN116740332B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310641681.9A CN116740332B (zh) 2023-06-01 2023-06-01 基于区域检测的星上空间目标部件中心定位和测角方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310641681.9A CN116740332B (zh) 2023-06-01 2023-06-01 基于区域检测的星上空间目标部件中心定位和测角方法

Publications (2)

Publication Number Publication Date
CN116740332A CN116740332A (zh) 2023-09-12
CN116740332B true CN116740332B (zh) 2024-04-02

Family

ID=87907235

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310641681.9A Active CN116740332B (zh) 2023-06-01 2023-06-01 基于区域检测的星上空间目标部件中心定位和测角方法

Country Status (1)

Country Link
CN (1) CN116740332B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117911419A (zh) * 2024-03-20 2024-04-19 东北大学 中厚板转钢角度增强检测方法及装置、介质、设备

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105335967A (zh) * 2015-10-16 2016-02-17 中国人民解放军国防科学技术大学 基于局部最大类间方差和数学形态学的手背静脉纹路提取方法
CN106548481A (zh) * 2016-10-18 2017-03-29 电子科技大学 一种原木横截面信息的实时采集与处理方法
CN109087276A (zh) * 2018-05-17 2018-12-25 苏州斯玛维科技有限公司 基于smt料盘的x射线图像的元器件自动计数和定位方法
WO2019000653A1 (zh) * 2017-06-30 2019-01-03 清华大学深圳研究生院 一种图像目标识别方法及装置
CN109859247A (zh) * 2019-02-19 2019-06-07 南京理工大学 近地面场景红外小目标检测方法
CN110031843A (zh) * 2019-05-09 2019-07-19 中国科学院自动化研究所 基于roi区域的sar图像目标定位方法、系统、装置
CN110617802A (zh) * 2019-07-26 2019-12-27 北京控制工程研究所 一种星载动目标检测及速度估计方法
CN110936020A (zh) * 2018-09-21 2020-03-31 大族激光科技产业集团股份有限公司 修复焊缝轨迹的方法、装置、激光焊接设备及存储介质
CN111583227A (zh) * 2020-05-08 2020-08-25 华侨大学 一种荧光细胞自动计数方法、装置、设备和介质
WO2021098163A1 (zh) * 2019-11-18 2021-05-27 南京莱斯电子设备有限公司 一种基于角点的空中目标探测方法
CN114842041A (zh) * 2022-03-30 2022-08-02 成都唐源电气股份有限公司 一种基于嵌入式的钢轨廓形检测光条提取方法
CN115019024A (zh) * 2022-04-29 2022-09-06 苏州市路远智能装备有限公司 一种qfp的视觉识别方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103714541B (zh) * 2013-12-24 2015-07-08 华中科技大学 一种利用山体轮廓区域约束识别定位建筑物的方法
US20180239982A1 (en) * 2014-11-18 2018-08-23 Elwha Llc Satellite with machine vision

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105335967A (zh) * 2015-10-16 2016-02-17 中国人民解放军国防科学技术大学 基于局部最大类间方差和数学形态学的手背静脉纹路提取方法
CN106548481A (zh) * 2016-10-18 2017-03-29 电子科技大学 一种原木横截面信息的实时采集与处理方法
WO2019000653A1 (zh) * 2017-06-30 2019-01-03 清华大学深圳研究生院 一种图像目标识别方法及装置
CN109087276A (zh) * 2018-05-17 2018-12-25 苏州斯玛维科技有限公司 基于smt料盘的x射线图像的元器件自动计数和定位方法
CN110936020A (zh) * 2018-09-21 2020-03-31 大族激光科技产业集团股份有限公司 修复焊缝轨迹的方法、装置、激光焊接设备及存储介质
CN109859247A (zh) * 2019-02-19 2019-06-07 南京理工大学 近地面场景红外小目标检测方法
CN110031843A (zh) * 2019-05-09 2019-07-19 中国科学院自动化研究所 基于roi区域的sar图像目标定位方法、系统、装置
CN110617802A (zh) * 2019-07-26 2019-12-27 北京控制工程研究所 一种星载动目标检测及速度估计方法
WO2021098163A1 (zh) * 2019-11-18 2021-05-27 南京莱斯电子设备有限公司 一种基于角点的空中目标探测方法
CN111583227A (zh) * 2020-05-08 2020-08-25 华侨大学 一种荧光细胞自动计数方法、装置、设备和介质
CN114842041A (zh) * 2022-03-30 2022-08-02 成都唐源电气股份有限公司 一种基于嵌入式的钢轨廓形检测光条提取方法
CN115019024A (zh) * 2022-04-29 2022-09-06 苏州市路远智能装备有限公司 一种qfp的视觉识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
UAV-based bridge geometric shape measurement using automatic bridge component detection and distributed multi-view reconstruction;Yan Xu et.al;《Automation in Construction》;第140卷;1-16 *
基于前视声呐的水下潜坝目标三维信息重建方法研究;李豪;《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》;全文 *

Also Published As

Publication number Publication date
CN116740332A (zh) 2023-09-12

Similar Documents

Publication Publication Date Title
CN111626290B (zh) 一种复杂海面环境下的红外舰船目标检测识别方法
CN111862201B (zh) 一种基于深度学习的空间非合作目标相对位姿估计方法
CN107679537B (zh) 一种基于轮廓点orb特征匹配的无纹理空间目标姿态估计算法
WO2016015547A1 (zh) 一种基于机器视觉的飞机入坞引导和机型识别的方法及系统
CN112257605B (zh) 基于自标注训练样本的三维目标检测方法、系统及装置
CN116740332B (zh) 基于区域检测的星上空间目标部件中心定位和测角方法
CN113781562B (zh) 一种基于道路模型的车道线虚实配准和自车定位方法
CN113610889A (zh) 一种人体三维模型获取方法、装置、智能终端及存储介质
CN113066050B (zh) 一种基于视觉的空投货台航向姿态解算方法
Li et al. Road markings extraction based on threshold segmentation
CN112927251B (zh) 基于形态学的场景稠密深度图获取方法、系统及装置
CN113743385A (zh) 一种无人船水面目标检测方法、装置及无人船
CN113686314A (zh) 船载摄像头的单目水面目标分割及单目测距方法
Fu et al. An anisotropic Gaussian filtering model for image de-hazing
CN114022554A (zh) 一种基于yolo的按摩机器人穴位检测与定位方法
CN115222884A (zh) 一种基于人工智能的空间对象分析及建模优化方法
CN114972646A (zh) 一种实景三维模型独立地物的提取与修饰方法及系统
CN113379789B (zh) 一种复杂环境下运动目标跟踪方法
Guo et al. Visibility detection approach to road scene foggy images
EP4009275A1 (en) Golf ball top-view detection method and system, and storage medium
CN111735447B (zh) 一种仿星敏式室内相对位姿测量系统及其工作方法
CN110211148B (zh) 一种基于目标状态预估的水下图像预分割方法
CN105488780A (zh) 一种用于工业生产线的单目视觉测距追踪装置及其追踪方法
CN115841632A (zh) 输电线路提取方法、装置以及双目测距方法
CN105551013B (zh) 基于运动平台参数的sar图像序列配准方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant