CN116109706A - 基于先验几何约束的空间目标反演方法、装置和设备 - Google Patents

基于先验几何约束的空间目标反演方法、装置和设备 Download PDF

Info

Publication number
CN116109706A
CN116109706A CN202310393217.2A CN202310393217A CN116109706A CN 116109706 A CN116109706 A CN 116109706A CN 202310393217 A CN202310393217 A CN 202310393217A CN 116109706 A CN116109706 A CN 116109706A
Authority
CN
China
Prior art keywords
feature points
semantic feature
space
coordinate system
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310393217.2A
Other languages
English (en)
Other versions
CN116109706B (zh
Inventor
王壮
王粲雨
蒋李兵
杨庆伟
任笑圆
许兆胜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National University of Defense Technology
Original Assignee
National University of Defense Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National University of Defense Technology filed Critical National University of Defense Technology
Priority to CN202310393217.2A priority Critical patent/CN116109706B/zh
Publication of CN116109706A publication Critical patent/CN116109706A/zh
Application granted granted Critical
Publication of CN116109706B publication Critical patent/CN116109706B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/24Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for cosmonautical navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/904SAR modes
    • G01S13/9064Inverse SAR [ISAR]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Geometry (AREA)
  • Electromagnetism (AREA)
  • Astronomy & Astrophysics (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出了基于先验几何约束的空间目标反演方法、装置和设备,通过预先构建的多尺度卷积神经网络提取空间目标图像的语义特征点,根据空间目标图像中空间目标的结构信息,从语义特征点中选择多个与结构信息关联的语义特征点,其中,语义特征点至少包含当前特征点在空间目标图像中的位置信息以及空间信息。将语义特征点代入由结构信息构建的关键点深度解算方程,得到三维语义特征点,根据预先构建的参考坐标系,将三维语义特征点转化至参考坐标系中,并建立空间目标的本体系,基于本体系中的语义特征点,进行三维目标姿态以及尺寸的反演。采用本方法提高了空间目标的特征提取和三维信息反演的稳定性与精确度。

Description

基于先验几何约束的空间目标反演方法、装置和设备
技术领域
本申请涉及空间目标反演技术领域,特别是涉及一种基于先验几何约束的空间目标反演方法、装置和设备。
背景技术
随着航空航天技术的发展,对于空间目标的探测与识别技术是发掘和利用空间的重要基础,主流空间目标识别技术有雷达目标识别和光学目标识别,利用外部传感器对空间目标进行在轨姿态与结构尺寸分析,确定可能对航天系统构成的威胁的目标的尺寸、形状和轨道参数等重要目标特性。在军事航天领域,需要获取空间目标的三维姿态来确定其在轨工作状态和传感器指向等信息,同时需要获取空间目标的三维结构以判断目标载荷性能与作战能力。在民用领域,对于失效的航天器进行状态分析、陨落预报以及在轨捕获和修复等任务的开展都需要目标三维信息做支撑。
传统空间目标三维信息分析方式,通常基于多视图几何原理解析二维图像获取目标三位信息,提取目标特征进行匹配关联,进而利用对极几何或者矩阵分解的方法获得目标关键点三维坐标。然而在空间监视图像中,由于成像条件限制,在光学图像和雷达图像中提取的特征质量模糊且匹配困难,其中先验模型算法对于成像过程中空间目标受遮挡的情况会造成误匹配,ISAR成像过程中的散射点角闪烁、角度敏感性等特点将极大地影响ISAR图像特征提取性能,且噪声点较多,导致后续反演空间目标的三维信息精确度降低。
基于以上空间目标三维信息分析过程中的问题,需要一种能够精确、稳定的提取空间目标三维信息的特征点,并且解决光学和雷达两种传感器获取的图像特征匹配不稳定的方法。
发明内容
基于此,有必要针对上述技术问题,提供一种能够稳定提取空间目标在轨姿态与结构尺寸的基于先验几何约束的空间目标反演方法、装置和设备。
一种基于先验几何约束的空间目标反演方法,该方法包括如下步骤:
通过预先构建的多尺度卷积神经网络提取空间目标图像的语义特征点。
语义特征点至少包含当前特征点在空间目标图像中的位置信息以及空间信息,其中,多尺度卷积神经网络中不同尺度分别提取位置信息和空间信息。
根据空间目标图像中空间目标的结构信息,从语义特征点中选择多个与结构信息关联的语义特征点。
根据结构信息,构建关键点深度解算方程,将语义特征点代入关键点深度解算方程,得到三维语义特征点。
获取空间目标图像的成像平面,根据预先构建的参考坐标系,确定成像平面向参考坐标系的转化的转换矩阵,根据转换矩阵,将三维语义特征点转化至参考坐标系中。
根据参考坐标系中的语义特征点,建立空间目标的本体系,基于本体系中的语义特征点,进行三维目标姿态以及尺寸的反演。
在其中一个实施例中,还包括:通过预先构建的多尺度卷积神经网络提取空间目标图像的语义特征点。
多尺度卷积神经网络包括:沙漏网络、预处理网络和预测网络。
预处理网络用于对空间目标图像进行预处理后得到空间目标图像的特征图,根据沙漏网络中不同尺度对空间目标图像的特征图提取像素级的语义特征点、语义特征点的位置信息以及空间信息,并将其聚合成空间目标图像的语义特征点,通过预测网络对语义特征点进行概率排布形成概率图像;概率图像是由包含位置信息以及空间信息的语义特征点构成。
在其中一个实施例中,还包括:将空间目标图像的特征图分别输入沙漏网络中不同尺度的通道,分别输出像素级的语义特征点的位置信息以及空间信息。
将语义特征点位置信息以及空间信息进行上采样或下采样为相同尺度的特征,并聚合为包含位置信息以及空间信息的语义特征点。
根据沙漏网络中不同尺度对空间目标图像的特征图提取像素级语义特征点。
在其中一个实施例中,还包括:根据空间目标图像中空间目标的结构信息,构建空间目标的几何结构约束关系。
结构信息表示空间目标在轨道运行过程中结构关系保持不变。
根据几何结构约束关系在语义特征点中筛选出多组对应的显著语义特征点。
在其中一个实施例中,还包括:根据几何结构约束关系中的轴线分配深度值,采取两视图重建几何原理确定轴线的深度矩阵。
从多幅空间目标图像中提取显著语义特征点,根据显著语义特征点的坐标,构建航迹矩阵。
根据深度矩阵与航迹矩阵,构建关键点深度解算方程,通过最小二乘法和随机抽样一致性检验方法求解关键点深度解算方程,得到语义特征点的三维坐标。
在其中一个实施例中,还包括:当采用光学传感器拍摄空间目标图像时,根据光学传感器的底片提取投影矢量,以及确定视线方向矢量,根据投影矢量、视线方向矢量以及光学传感器所在测量站的测量信息,确定成像平面在测量站坐标系的坐标表示。
根据传感器拍摄时刻与其相邻时刻两张空间目标图像,确定LVLH参考坐标系在测量站坐标系下的坐标转换矩阵。
当采用ISAR传感器拍摄所述空间目标图像时,根据雷达波束的俯仰角、方位角以及雷达和目标间距的测量信息,确定所在ISAR成像的有效转动量在los向量上的投影矢量,根据有效转动量和坐标转换矩阵确定参考系下的有效旋转矢量,根据有效旋转矢量、距离维投影矢量以及横向投影矢量,确定成像平面在参考坐标系下的坐标表示。
根据光学传感器确定的成像平面的坐标和坐标转换矩阵,将三维语义特征点转换至参考坐标系中;根据ISAR传感器确定的成像平面在参考坐标系下的坐标,将三维语义特征点转换至参考坐标系中。
在其中一个实施例中,还包括:通过设置的一致性门限值对整体航迹矩阵分解得到随机子矩阵,利用最小二乘法求解随机子矩阵对应的关键点深度解算方程,得到随机子矩阵对应的子失配量和子深度值,根据迭代次数将子深度值代入整体航迹矩阵,保留整体失配量矩阵中小于一致性门限值的有效元素,并记录其对应的子深度值,根据预设的迭代次数得到有效元素组成的有效航迹矩阵,进而得到语义特征点的三维坐标。
在其中一个实施例中,还包括:根据参考坐标系中的三维语义特征点、语义特征点的位置信息以及空间信息,确定空间目标的本体系,通过空间目标的本体系相对LVLH参考坐标系的旋转矩阵得到三维欧拉角,根据所述三维欧拉角按照旋转顺序将三维语义特征点转化至轨道坐标系中,唯一确定本体系中语义特征点的在轨姿态。
分析本体系中的语义特征点的相对位置和相对距离,结合本体系中语义特征点的在轨姿态,从而得到空间目标的姿态以及结构尺寸。
一种基于先验几何约束的空间目标反演装置,所述装置包括:
语义特征点提取模块,用于通过预先构建的多尺度卷积神经网络提取空间目标图像的语义特征点。
语义特征点至少包含当前特征点在空间目标图像中的位置信息以及空间信息,其中,多尺度卷积神经网络中不同尺度分别提取位置信息和空间信息。
语义特征点优化模块,用于根据空间目标图像中空间目标的结构信息,从语义特征点中选择多个与结构信息关联的语义特征点。
三维转换模块,用于根据结构信息,构建关键点深度解算方程,将语义特征点代入关键点深度解算方程,得到三维语义特征点。
坐标系转换模块,用于获取空间目标图像的成像平面,根据预先构建的参考坐标系,确定成像平面向参考坐标系的转化的转换矩阵,根据转换矩阵,将三维语义特征点转化至参考坐标系中。
空间目标反演模块:用于根据参考坐标系中的语义特征点,建立空间目标的本体系,基于本体系中的语义特征点,进行三维目标姿态以及尺寸的反演。
一种基于先验几何约束的空间目标反演的计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
通过预先构建的多尺度卷积神经网络提取空间目标图像的语义特征点。
语义特征点至少包含当前特征点在空间目标图像中的位置信息以及空间信息,其中,多尺度卷积神经网络中不同尺度分别提取位置信息和空间信息。
根据空间目标图像中空间目标的结构信息,从语义特征点中选择多个与结构信息关联的语义特征点。
根据结构信息,构建关键点深度解算方程,将语义特征点代入关键点深度解算方程,得到三维语义特征点。
获取空间目标图像的成像平面,根据预先构建的参考坐标系,确定成像平面向参考坐标系的转化的转换矩阵,根据转换矩阵,将三维语义特征点转化至参考坐标系中。
根据参考坐标系中的语义特征点,建立空间目标的本体系,基于本体系中的语义特征点,进行三维目标姿态以及尺寸的反演。
相对于现有技术,本发明能够获得以下技术效果:
上述基于先验几何约束的空间目标反演方法、装置和设备,通过构建多尺度卷积神经网络从空间目标图像中提取语义特征点,利用多尺度卷积神经网络对多幅空间目标图像在不同尺度下进行语义特征的提取,确保提取到的空间目标图像中的语义特征点中包含该点的位置信息和结构信息,相较于传统的特征算子,本发明提取到的语义特征点反映了空间目标的结构信息,相对本体的位置固定不变,受图像中目标区域纹理与光照影响较小,且无需匹配关联,作为后续反演过程输入的数据稳定性更高。进一步的,空间目标的结构形态决定其特有的结构信息,基于空间目标本身固有结构信息,对语义特征点进行进一步筛选,可以提高语义特征点提取过程的精度。其次,引入深度值参数,根据空间目标的结构信息构建关键点深度求解方程,获取对应的语义特征点的三维数据信息,将二维语义特征点的平面坐标矩阵转换成三维坐标系,进而反映出空间目标的三维结构特性,降低了对特征点的数量要求的同时,即使空间目标收到局部遮挡,也可以利用结构信息获取包含位置信息和空间信息的语义特征点的三维坐标,从而保障三维语义特征点数据具备良好的精度和较高的鲁棒性。然后,通过构建的参考坐标系,将三维语义特征点转化至参考坐标系中,使本发明可以同时应用在光学传感器和ISAR传感器设备上,同时对雷达和光学图像皆适用,对于极大光学监视设备的焦径比具备更好的适用性。输入经参考坐标系转换后的三维语义特征点包括其位置信息和三维坐标数据信息,根据结构信息分析三维语义特征点,得到三维目标的结构尺寸,通过分析本体系得到三维目标的在轨姿态。由此可见,在反演过程中,基于语义特征点包含的数据具备较高的准确性和鲁棒性,因此可以更精确的反演出空间目标的三维姿态和结构尺寸。由此可见,与现有的空间目标姿态与尺寸估计算法相比,本发明可以更精确的反演出空间目标的三维姿态和结构尺寸,且提高了空间目标反演结果的稳定性与精确度。
附图说明
图1为一个实施例中基于先验几何约束的空间目标反演方法的流程示意图;
图2为一个实施例中多尺度卷积神经网络结构的示意图;
图3为一个实施例中空间目标几何约束示意图;
图4为一个实施例中一个实施例中先验几何约束在两视图成像序列图像的示意图,其中图4(a)为视图成像序列图像结果1,图4(b)为视图成像序列图像结果2;
图5为一个实施例中随机一致性抽样算法的示意图;
图6为一个实施例中空间目标成像平面参考坐标系及其在轨姿态示意图,其中图6(a)为空间目标监视任务中的坐标系,图6(b)为空间目标俯仰的在轨姿态,图6(c)为空间目标滚转的在轨姿态,图6(d)为空间目标偏航的在轨姿态;
图7为一个实施例中光学传感器成像平面计算模型的示意图;
图8为一个实施例中ISAR成像平面计算模型及等效旋转矢量的示意图,其中图8(a)为ISAR成像平面计算模型,图8(b)为ISAR成像等效旋转矢量示意图;
图9为一个实施例中仿真的天宫一号空间站可观测弧段示意图,其中图9(a)为传感器俯仰角可观测弧段,图9(b)为传感器方位角可观测弧段,图9(c)为目标距离可观测弧段;
图10为一个实施例中天宫一号空间站可观测弧段内光学图像的仿真结果;
图11为一个实施例中天宫一号空间站可观测弧段内ISAR图像的仿真结果;
图12为一个实施例中基于先验几何约束的空间目标反演装置的结构框图;
图13为一个实施例中基于先验几何约束的空间目标反演的计算机设备的内部结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有付出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在实际场景下,存在测量站、空间目标、捕获空间目标图像的传感器以及计算机终端设备组成的基地系统,其中,空间目标可以是在空轨道运行的卫星、空间站、载人飞船等航天器,也可以是定向轨道运行的飞行器、导弹等,该基地系统至少包括空间目标监视系统、空间目标探测系统以及空间目标跟踪系统,利用测量站内的传感器在当前时刻下,对空间目标的光波或者雷达回波的信号感知,生成反映空间目标当前时刻的轮廓结构和主体结构信息的二维图像,在不同时刻下,同一个特征点随着目标姿态的变动,其相对轨道位置和相对目标本体的位置均发生了改变。基于此场景下,实现准确、稳定的反演出空间目标三维结构信息和三维姿态,需要采取本发明基于先验几何约束的空间目标反演方法,具体实施步骤如下:
进一步的,根据参考坐标系中的语义特征点,建立空间目标的本体系,基于本体系中的语义特征点,进行三维目标姿态以及尺寸的反演。值得说明的是,利用坐标转换得到的参考坐标系下的语义特征点的三维坐标构建本体坐标系,可见,本体坐标系包括语义特征点的位置信息和空间信息,计算本体坐标系与参考坐标系之间的相对旋转矩阵,其中,旋转矩阵体现了空间目标的三维语义特征点的在轨姿态,旋转矩阵里的每一个元素表示对应三维语义特征点在该方向上的旋转角度,因此,将本体坐标系中的语义特征点数据输入后,可以反演出空间目标的在轨姿态,结合几何约束条件,分析本体坐标系中的语义特征点相对空间目标主体的位置信息和彼此的距离信息。
在一个实施例中,如图1所示,提供了一种基于先验几何约束的空间目标反演方法,以该方法应用于上述场景中,包括以下步骤:
步骤102,通过预先构建的多尺度卷积神经网络提取空间目标图像的语义特征点。
通过预先构建的多尺度卷积神经网络,在当前时刻下,测量站中传感器捕获到的空间目标二维图像中的语义特征点进行数据提取。
语义特征点至少包含当前特征点在空间目标图像中的位置信息以及空间信息,其中,多尺度卷积神经网络中不同尺度分别提取位置信息和空间信息。
同一个特征点随着目标姿态的变动,其相对轨道位置和相对目标本体的位置均会发生改变,相较于传统特征算子而言,本发明提取到的语义特征点对应着目标三维结构上具有实际意义的点,反映了目标的结构信息,相对本体的位置固定不变,受图像中目标区域纹理与光照影响较小,且无需匹配关联,作为后续反演过程的输入数据稳定性更高。
步骤104,根据空间目标图像中空间目标的结构信息,从语义特征点中选择多个与结构信息关联的语义特征点。
空间目标的结构受其功能用途等因素存在多种结构形态,然而空间目标的结构形态决定其特有的结构信息,引入结构信息对语义特征点进行进一步限定,可以提高语义特征点提取过程的精度。
步骤106,根据结构信息构建关键点深度解算方程,将语义特征点代入关键点深度解算方程,得到三维语义特征点。
引入深度值参数,将二维语义特征点的平面坐标矩阵转换成三维坐标系,进而反映出空间目标的三维结构特性。
步骤108,获取空间目标图像的成像平面,根据预先构建的参考坐标系,确定成像平面向参考坐标系的转化的转换矩阵,根据转换矩阵,将三维语义特征点转化至所述参考坐标系中。
空间目标的成像平面为传感器在测量站坐标系下的矢量坐标构成的,三维语义特征点需要通过参考系坐标转换,得到包含轨道坐标系的三维语义特征点,因此,选定参考坐标系才可以确定成像平面向参考坐标系的转化的转换矩阵,其中,参考坐标系可以为惯性系(ECI)、地心地固系(ECEF)以及轨道坐标系(LVLH)。由此可见,参考坐标系作为三维语义特征点坐标与传感器的成像平面坐标的转化媒介,在实际场景应用中,由于成像方式不同,本发明可以同时应用在光学传感器和ISAR传感器设备上,同时对雷达和光学图像皆适用,对于极大光学监视设备的焦径比,本发明具备更好的适用性。
步骤110,根据参考坐标系中的语义特征点,建立空间目标的本体系,基于本体系中的语义特征点,进行三维目标姿态以及尺寸的反演。
输入经参考坐标系转换后的三维语义特征点包括其位置信息和三维坐标数据信息,根据结构信息分析三维语义特征点,得到三维目标的结构尺寸,通过分析本体系得到三维目标的在轨姿态。由此可见,在反演过程中,基于语义特征点包含的数据具备较高的准确性和鲁棒性,因此可以更精确的反演出空间目标的三维姿态和结构尺寸。
上述基于先验几何约束的空间目标反演方法、装置和设备,通过构建多尺度卷积神经网络从空间目标图像中提取语义特征点,利用多尺度卷积神经网络对多幅空间目标图像在不同尺度下进行语义特征的提取,确保提取到的空间目标图像中的语义特征点中包含该点的位置信息和结构信息,相较于传统的特征算子,本发明提取到的语义特征点反映了空间目标的结构信息,相对本体的位置固定不变,受图像中目标区域纹理与光照影响较小,且无需匹配关联,作为后续反演过程输入的数据稳定性更高。进一步的,空间目标的结构形态决定其特有的结构信息,基于空间目标本身固有结构信息,对语义特征点进行进一步筛选,可以提高语义特征点提取过程的精度。其次,引入深度值参数,根据空间目标的结构信息构建关键点深度求解方程,获取对应的语义特征点的三维数据信息,将二维语义特征点的平面坐标矩阵转换成三维坐标系,进而反映出空间目标的三维结构特性,降低了对特征点的数量要求的同时,即使空间目标收到局部遮挡,也可以利用结构信息获取包含位置信息和空间信息的语义特征点的三维坐标,从而保障三维语义特征点数据具备良好的精度和较高的鲁棒性。然后,通过构建的参考坐标系,将三维语义特征点转化至参考坐标系中,使本发明可以同时应用在光学传感器和ISAR传感器设备上,同时对雷达和光学图像皆适用,对于极大光学监视设备的焦径比具备更好的适用性。输入经参考坐标系转换后的三维语义特征点包括其位置信息和三维坐标数据信息,根据结构信息分析三维语义特征点,得到三维目标的结构尺寸,通过分析本体系得到三维目标的在轨姿态。由此可见,在反演过程中,基于语义特征点携带数据具备较高的准确性和鲁棒性,因此可以更精确的反演出空间目标的三维姿态和结构尺寸。由此可见,与现有的空间目标姿态与尺寸估计算法相比,本发明可以更精确的反演出空间目标的三维姿态和结构尺寸,且提高了空间目标反演结果的稳定性与精确度。
在其中一个实施例中,通过预先构建的多尺度卷积神经网络提取空间目标图像的语义特征点。多尺度卷积神经网络包括:沙漏网络、预处理网络和预测网络。预处理网络用于对空间目标图像进行预处理后得到空间目标图像的特征图,根据沙漏网络中不同尺度对空间目标图像的特征图提取像素级的语义特征点、语义特征点的位置信息以及空间信息,并将其聚合成空间目标图像的语义特征点,通过预测网络对语义特征点进行概率排布形成概率图像。进一步的说明,概率图像是由包含位置信息以及空间信息的语义特征点构成。
值得说明的是,对于ISAR传感器获取到的空间目标图像可以通过预处理网络做归一化以及其他预处理,然后将预处理后的图像传输至沙漏网络中,在沙漏网络中构建残差网络(Residual Network,以下简称ResNet)作为像素级的特征提取器,用于提取像素级语义特征点及其二维信息,将沙漏网络提取到的语义特征点及其二维信息聚合并调整到不同的分辨率下,得到空间目标图像的语义特征点及其二维信息,预测网络接收到将以上特征聚合为语义特征点可能出现的概率分布,形成包含位置信息以及空间信息的语义特征点构成的概率图像。
具体的,如图2所示,在训练多尺度卷积神经网络时,输入未经过定标的ISAR传感器捕捉到的空间目标图像,首先采用物理光学法仿真空间目标3D模型的宽带回波信号,进而利用距离-多普勒算法对回波进行成像,采用均方根误差作为训练损失,表示为:
其中,分别代表第i个提取到的像素级语义特征点的横坐标与纵坐标,表示第i个提取到的像素级语义特征点对应的空间目标真值,N表示像素级语义特征点的数量。
由此可见,由传感器捕捉到的空间目标图像中每一层图像尺度包含不同语义特征点对应的位置信息和空间信息,其中,尺度越小提取到的语义特征点对应的位置信息越精确,并且空间目标的语义特征点与目标整体结构的相对位置存储在多个层级的线索中,需要利用多尺度卷积神经网络在不同尺度下认知变量信息,从而保留了语义特征点的位置信息和空间信息,使得语义特征点不论空间目标在轨如何运动,都可以精准而稳定的从传感器获取的空间目标图像中,提取到当前时刻下语义特征点的位置信息和空间信息。
在其中一个实施例中,将空间目标图像的特征图分别输入所述沙漏网络中不同尺度的通道,分别输出所述像素级的语义特征点的位置信息以及空间信息。将语义特征点位置信息以及空间信息进行上采样或下采样为相同尺度的特征,并聚合为包含位置信息以及空间信息的语义特征点。根据沙漏网络中不同尺度对空间目标图像的特征图提取像素级语义特征点。
值得说明的是,如图2所示,沙漏网络主要由残差模块、最大池化层以及上采样层组成,网络的拓扑结构是对称的,每一个下采样层都对应一个上采样层,其中,最大池化层内上方与下方的值分别代表输入与输出通道,最大池化层外底部的“K”与“S”值分别表示该池化核的尺寸与步长,上采样层下方的“K”值代表上采样倍数。在每次最大池化之前,网络中将会引出另一条支路,利用额外的卷积层对空间目标图像的特征图进行处理,以此旁路结构可以防止沙漏网络在特征提取过程中过度拟合,并将之与后续处理中具有相同分辨率的特征图连接起来。因此,为了将相邻分辨率下的像素级的语义特征点、语义特征点的位置信息以及空间信息聚合起来得到空间目标图像的语义特征点,对低分辨率特征图进行最近邻插值,并与之前尺度下得到的相同分辨率特征图进行组合,可以更高效且稳定的提取到像素级的语义特征点。
由此可见,相比于传统ISAR图像散射点,语义特征点携带其位置信息和空间信息,能够对应目标结构上的具体实际的点,可以避免因电磁特性造成的一系列特征提取模糊与匹配跟踪误差大的问题,使得多尺度卷积神经网络成为一种有潜力的ISAR图像语义特征点提取方法。
在其中一个实施例中,根据空间目标图像中空间目标的结构信息,构建空间目标的几何结构约束关系。结构信息表示空间目标在轨道运行过程中结构关系保持不变。根据几何结构约束关系在语义特征点中筛选出多组对应的显著语义特征点。
进一步的,如图3所示,对于绝大多数的空间目标都具有6个语义特征点,即帆板的四个角点以及主体的两个端点,可见,空间目标存在固定的几何结构约束关系,即空间目标的主体对称轴以及帆板转轴是相互垂直的,基于多尺度卷积神经网络提取到的语义特征点为帆板的四个角点、主体的顶点以及主体的底短点,其中帆板短边的两个角点的中心点来等效帆板轴两个端点,将两个端点与主体的顶底端点组成显著语义特征点,如图3所示,显著语义特征点指P1、P2、P3、P4,根据几何结构约束关系对多幅概率图像筛选出多组显著语义特征点。
由此可见,相对于对极几何五点算法而言,降低了对语义特征点的数量需求,使得显著语义特征点在三维重构过程适应更多应用场景,加之从传感器获取的多幅空间目标图像中挑选出符合几何约束条件的语义特征点,并同时获取其对应的位置信息和空间信息,筛选掉不符合其几何形态的语义特征点,确保提取出来的语义特征点的唯一性和稳定性,对于局部受遮挡的空间目标获取的轮廓不清晰的目标图像,可以借此类语义特征点实现空间目标结构形态的重构,从而提高后续空间目标反演过程中,输入的语义特征点数据信息的准确度。
在其中一个实施例中,根据几何结构约束关系中的轴线分配深度值,采取两视图重建几何原理确定轴线的深度矩阵。从多幅空间目标图像中提取显著语义特征点,根据显著语义特征点的坐标,构建航迹矩阵。根据深度矩阵与航迹矩阵,构建关键点深度解算方程,通过最小二乘法和随机抽样一致性检验方法求解关键点深度解算方程,得到语义特征点的三维坐标。
具体的,基于多视图几何原理中的两视图重建方法,如图4所示,在两张光学图像中同时提取四个显著语义特征点,四个点可以构成空间中表示主轴与表示帆板轴的两个向量,则目标的两个轴存在的几何结构约束等量关系表示为:
其中,分别为图4(a)中所示目标图像与图4(b)中所示目标图像中提取到的目标主轴与帆板轴在空间中的真实数值向量值,通过给每一个轴线分配一个深度值,用表示,将深度值与结构约束关系以矩阵方程的形式表示,得到等量约束关系,通过求解目标的深度值d,将图像中提取到的轴线与空间中实际的轴对应起来,利用最小二乘算法求解伪逆,可得到目标的深度值,为了提高关键点深度解算方程的求解过程的鲁棒性,在最小二乘法基础上结合随机一致性抽样检验原理,估算出目标的深度矩阵,进而获得目标语义特征点的三维坐标
由此可见,基于空间目标的结构信息存在的几何约束条件,将几何约束条件作为先验几何约束等量关系引入到对极几何五点法上,构建关于语义特征点的深度方程组,简化运算的同时,结合随机一致性抽样检验原理,提高了方法的可靠性,可以更加稳定的求解到每幅图像中语义特征点的三维坐标。
在其中一个实施例中,当采用光学传感器拍摄空间目标图像时,根据光学传感器的底片提取投影矢量,以及确定视线方向矢量,根据投影矢量、视线方向矢量以及光学传感器所在测量站的测量信息,确定成像平面在测量站坐标系的坐标表示。
根据传感器拍摄时刻与其相邻时刻两张空间目标图像,确定LVLH(localvertical-local horizontal,局部垂直-局部水平)参考坐标系在测量站坐标系下的坐标转换矩阵。
当采用ISAR传感器拍摄所述空间目标图像时,根据雷达波束的俯仰角、方位角以及雷达和目标间距的测量信息,确定所在ISAR成像的有效转动量在los向量上的投影矢量,根据有效转动量和坐标转换矩阵确定参考系下的等效旋转矢量,根据等效旋转矢量、距离维投影矢量以及横向投影矢量,确定成像平面在参考坐标系下的坐标表示。
根据光学传感器确定的成像平面的坐标和坐标转换矩阵,将三维语义特征点转换至参考坐标系中;根据ISAR传感器确定的成像平面在参考坐标系下的坐标,将三维语义特征点转换至参考坐标系中。值得说明的是,考虑到实际应用场景,当前大部分重点监视的低轨卫星都采用对地定向姿控模式,因此本发明采用LVLH坐标系,如图6(a)所示,空间目标坐标系原点位于航天器重心,y轴由地心指向目标,z轴平行于轨道平面法向,x方向由右手定则决定,对近圆轨道,x方向可视为运行方向。
值得说明的是,由于受成像机理不同的影响,对于成像平面的计算方式存在差异。对于光学传感器而言,如图7所示,光学传感器成像平面与车站坐标系相对关系中,相机的成像平面坐标系由三个矢量构成,其中矢量分别表示传感器底片两条边对应的投影横向矢量和纵向矢量,表示视线方向的法向量,在实际中,可认为视线方向始终由相机光心指向目标。三个矢量分别表示测量站当地的正东、正北及天顶方向,即ENZ坐标系下的三个矢量,光学成像望远镜的俯仰角定义为与水平面的夹角,方位角则定义为在水平面上的投影与正北方向的夹角。由此可以推导出,在t时刻捕捉到空间目标的图像的成像平面法向量可表示为:
则纵向矢量表示为:
横向矢量表示为:
因此,光学传感器成像平面坐标系三个基向量在测量站坐标系下的坐标转换矩阵为:
进一步的,根据t时刻和相邻时刻的两幅目标图像,得到两个相邻时刻的目标位置和对应的测量站位置,根据两个位置信息确定目标轨道平面,其中是一个很小的时间间隔。如图6(a)所示,LVLH参考坐标系的在测量站ENZ坐标系下的y轴坐标表示为:
其中,为ENZ坐标系下目标的位置,即los矢量,为t时刻目标到测量站的位置,为地心位置,为地球半径,对上式归一化即可得到目标LVLH参考坐标系的y轴矢量,LVLH参考坐标系的y轴表示目标到地心的连线方向。通过两个相邻时刻的目标位置差分得到测量站坐标系下t时刻目标的运行方向,即:
因此,t时刻下,LVLH参考坐标系的法向量和x轴的矢量分别表示为:
其中z轴为轨道平面的负法线方向,故LVLH参考坐标系在测量站坐标系下的坐标转换矩阵表示为:
由此可见,成像平面坐标系到参考坐标系的坐标转换公式表示为:
根据获取到的目标在像平面坐标系下的语义关键点三维坐标为,则在参考坐标系下的三维语义特征点坐标表示为:
另外进一步的,ISAR成像平面的反演与空间目标的运动状态相关,对于大多数低轨空间目标而言,其在轨姿态方式为对地定向,即其本体结构上的某一个轴始终指向地心,基于此情况下,空间目标相对于LVLH参考坐标系保持相对稳定。参考坐标系到测量站坐标系的转换矩阵推导方法与光学传感器的坐标转换方法相同,如图8(a)所示,ISAR在t时刻的测量信息包含雷达波束的俯仰角、方位角以及雷达和目标间的距离,分别被表示为以及,根据ISAR成像原理,为了计算成像平面,需要推导目标ISAR成像的有效转动量。如图8(b)所示,对t时刻ISAR获取的图像而言,其成像平面由距离维投影矢量与方位维投影矢量张成,其中,距离维投影矢量与雷达视线平行,即,横向投影矢量可记作。有效转动量是空间目标与雷达的相对旋转在los方向上的投影,根据雷达视线相对于目标的旋转,将los转换至LVLH参考坐标系,得到:
在目标LVLH参考坐标系下,los的旋转角速度可以被表示为:
总的相对旋转角速度可以表示为:
等效旋转角速度是在los上的投影分量,可以表示为:
由上述对地定向假设,认为目标在参考坐标系下处于稳定状态,因此其自旋轴参数可认为等于0,那么t时刻ISAR成像平面坐标系在LVLH参考坐标系下,可表示为:
则在LVLH参考坐标系下目标的语义特征点三维坐标可表示为:
;
在其中一个实施例中,通过设置的一致性门限值对整体航迹矩阵分解得到随机子矩阵,利用最小二乘法求解随机子矩阵对应的关键点深度解算方程,得到随机子矩阵对应的子失配量和子深度值,根据迭代次数将子深度值代入整体航迹矩阵,保留整体失配量矩阵中小于一致性门限值的有效元素,并记录其对应的子深度值,根据预设的迭代次数得到有效元素组成的有效航迹矩阵,进而得到语义特征点的三维坐标。值得说明的是,如图5所示,对一致性门限以及小于门限的数据数量将被赋予初始值,算法迭代次数被设为I,利用多尺度卷积神经网络提取到的语义特征点,根据几何结构约束关系,将筛选出来的显著语义特征点的点集坐标组成初始的航迹矩阵,对最小二乘法求解关键点深度解算方程进行迭代运算。
具体的,首先在中随机选择m幅图像中的航迹数据并组成子矩阵。例如,第m1幅、第m2幅、以及第mm幅图像被选中,子矩阵可以表示为:
其中,中的元素是中具有对应下标的元素,进而利用式分解计算,得到失配量,在第i次迭代中优化得到的参数记为,i为迭代次数。进一步的,在第i次迭代中,解出的深度值参数进行全局一致性检验。将代入由整体航迹矩阵构成的约束关系矩阵函数,计算整体失配量中小于的元素个数被记为,将进行比较,如果,则用替换,其他相关参数也将被一并记录。因此,迭代运算和一致性检验运算被迭代I次,对应中大于的元素的行将被删除,剩下的行将被组成有效航迹矩阵,最终选出符合程度最高的数据确定所对应的那一组参数的深度值矩阵,利用计算得到语义特征点的三维坐标。
由此可见,随机一致性抽样检验原理的引入,在提高基于先验几何约束的空间目标反演方法的精确度的同时,还提升了方法在实际应用上的运行效率。
在其中一个实施例中,根据参考坐标系中的三维语义特征点、语义特征点的位置信息以及空间信息,确定空间目标的本体系,通过空间目标的本体系相对LVLH参考坐标系的旋转矩阵得到三维欧拉角,根据所述三维欧拉角按照旋转顺序将三维语义特征点转化至轨道坐标系中,唯一确定本体系中语义特征点的在轨姿态。
分析本体系中的语义特征点的相对位置和相对距离,结合本体系中语义特征点的在轨姿态在轨姿态,从而得到空间目标的姿态以及结构尺寸。值得说明的是,如图6(b)、图6(c)、图6(d)所示,采用欧拉角的向量反应空间目标的在轨姿态,按照滚转-俯仰-偏航的旋转顺序,分别求解欧拉角在LVLH参考坐标系下的x轴、y轴与z轴的旋转角,即滚转角、俯仰角、偏航角。根据空间目标的尾部到顶部轴线与参考坐标系的x轴重合以及帆板轴与参考坐标系y轴重合,设定的空间目标的初始姿态,因此,可以直观且唯一地确定目标姿态。进而根据帆板的左右语义特征点,可以判断目标帆板的长度,而根据主体顶部与底部的关键点,可以确定目标主体的长度。
在具体的实施例中,基于本发明仿真了一个真实的空间目标成像场景,选取天宫一号空间站作为空间目标,利用其轨道根数仿真了一段可观测区间,如图9(a)、图9(b)和图9(c)所示,进而根据该观测区间内目标相对于传感器的姿态变化,如图10与图11所示,分别结合光学与ISAR成像原理,仿真了一组序列图像。在进行实验时,采用SIFT特征、对极几何的方法与主散射点以及因子分解法结合的方法作为传统技术方法,将本发明反演结果和传统技术方法反演结果分别与天宫一号当前观测时段三维姿态和尺寸进行误差比对,如表(1)所示:
表(1)不同方法对天宫一号的空间姿态和尺寸的反演的误差评估结果
由此可见,相较于SIFT特征而言,语义特征点包含三维位置信息和在轨姿态信息,故而本发明输入的反演数据相对精准;相较于对极几何方法与主散射点对空间目标图像的处理,先验几何约束与随机一致性抽样的处理过程更加高效精确;相较于因子分解法,三维语义特征点在参考系下的坐标转换处理方法更为简便,数据处理较为稳定,进而获得的天宫一号的三维姿态和尺寸结果鲁棒性较好,因此,本发明在具体场景应用中,其稳定性和精度上要远高于传统技术手段。
应该理解的是,虽然图1-2的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1-2中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图12所示,提供了一种基于先验几何约束的空间目标反演装置,包括:语义特征点提取模块1202、语义特征点优化模块1204、三维转换模块1206、坐标系转换模块1208和空间目标反演模块1210,其中:
语义特征点提取模块1202,用于通过预先构建的多尺度卷积神经网络提取空间目标图像的语义特征点;所述语义特征点至少包含当前特征点在空间目标图像中的位置信息以及空间信息,其中,多尺度卷积神经网络中不同尺度分别提取位置信息和语义信息。
语义特征点优化模块1204,用于根据空间目标图像中空间目标的结构信息,从语义特征点中选择多个与结构信息关联的语义特征点。
三维转换模块1206,用于根据结构信息,构建关键点深度解算方程,将语义特征点代入关键点深度解算方程,得到三维语义特征点。
坐标系转换模块1208,用于获取空间目标图像的成像平面,根据预先构建的参考坐标系,确定成像平面向参考坐标系的转化的转换矩阵,根据转换矩阵,将三维语义特征点转化至参考坐标系中。
空间目标反演模1210,用于根据参考坐标系中的语义特征点,建立空间目标的本体系,基于本体系中的语义特征点,进行三维目标姿态以及尺寸的反演。
关于基于先验几何约束的空间目标反演装置的具体限定可以参见上文中对于基于先验几何约束的空间目标反演方法的限定,在此不再赘述。上述基于先验几何约束的空间目标反演装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种基于先验几何约束的空间目标反演的计算机设备,该计算机设备可以是终端,其内部结构图可以如图13所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种基于先验几何约束的空间目标反演方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图12-13中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种基于先验几何约束的空间目标反演的计算机设备,包括存储器和处理器,该存储器存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
通过预先构建的多尺度卷积神经网络提取空间目标图像的语义特征点;语义特征点至少包含当前特征点在空间目标图像中的位置信息以及空间信息,其中,多尺度卷积神经网络中不同尺度分别提取位置信息和空间信息。
根据空间目标图像中空间目标的结构信息,从语义特征点中选择多个与结构信息关联的语义特征点。
根据结构信息,构建关键点深度解算方程,将语义特征点代入关键点深度解算方程,得到三维语义特征点。
获取空间目标图像的成像平面,根据预先构建的参考坐标系,确定成像平面向参考坐标系的转化的转换矩阵,根据转换矩阵,将三维语义特征点转化至参考坐标系中。
根据参考坐标系中的语义特征点,建立空间目标的本体系,基于本体系中的语义特征点,进行三维目标姿态以及尺寸的反演。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请的保护范围应以所附权利要求为准。

Claims (10)

1.基于先验几何约束的空间目标反演方法,其特征在于,所述方法包括:
通过预先构建的多尺度卷积神经网络提取空间目标图像的语义特征点;所述语义特征点至少包含当前特征点在所述空间目标图像中的位置信息以及空间信息,其中,所述多尺度卷积神经网络中不同尺度分别提取所述位置信息和所述空间信息;
根据所述空间目标图像中空间目标的结构信息,从所述语义特征点中选择多个与所述结构信息关联的语义特征点;
根据所述结构信息,构建关键点深度解算方程,将所述语义特征点代入所述关键点深度解算方程,得到三维语义特征点;
获取所述空间目标图像的成像平面,根据预先构建的参考坐标系,确定所述成像平面向参考坐标系的转化的转换矩阵,根据所述转换矩阵,将所述三维语义特征点转化至所述参考坐标系中;
根据所述参考坐标系中的语义特征点,建立空间目标的本体系,基于本体系中的语义特征点,进行三维目标姿态以及尺寸的反演。
2.根据权利要求1所述的方法,其特征在于,通过预先构建的多尺度卷积神经网络提取空间目标图像的语义特征点,包括:
通过预先构建的多尺度卷积神经网络提取空间目标图像的语义特征点;所述多尺度卷积神经网络包括:沙漏网络、预处理网络和预测网络;
所述预处理网络用于对所述空间目标图像进行预处理后得到所述空间目标图像的特征图,根据所述沙漏网络中不同尺度对所述空间目标图像的特征图提取像素级的语义特征点、语义特征点的位置信息以及空间信息,并将其聚合成空间目标图像的语义特征点,通过所述预测网络对所述语义特征点进行概率排布形成概率图像;所述概率图像是由包含所述位置信息以及空间信息的语义特征点构成。
3.根据权利要求2所述的方法,其特征在于,根据所述沙漏网络中不同尺度对所述空间目标图像的特征图提取像素级语义特征点,还包括:
将所述空间目标图像的特征图分别输入所述沙漏网络中不同尺度的通道,分别输出所述像素级的语义特征点的位置信息以及空间信息;
将所述语义特征点位置信息以及空间信息进行上采样或下采样为相同尺度的特征,并聚合为包含位置信息以及空间信息的语义特征点;
根据所述沙漏网络中不同尺度对所述空间目标图像的特征图提取像素级语义特征点。
4.根据权利要求1所述的方法,其特征在于,根据所述空间目标图像中空间目标的结构信息,从所述语义特征点中选择多个与所述结构信息关联的语义特征点,包括:
根据所述空间目标图像中空间目标的结构信息,构建所述空间目标的几何结构约束关系;所述结构信息表示空间目标在轨道运行过程中结构关系保持不变;
根据所述几何结构约束关系在所述语义特征点中筛选出多组对应的显著语义特征点。
5.根据权利要求4所述的方法,其特征在于,根据所述结构信息,构建关键点深度解算方程,将所述语义特征点代入所述关键点深度解算方程,得到三维语义特征点的步骤包括:
根据所述几何结构约束关系中的轴线分配深度值,采取两视图重建几何原理确定所述轴线的深度矩阵;
从多幅所述空间目标图像中提取所述显著语义特征点,根据所述显著语义特征点的坐标,构建航迹矩阵;
根据所述深度矩阵与所述航迹矩阵,构建关键点深度解算方程;
通过最小二乘法和随机抽样一致性检验方法求解所述关键点深度解算方程,得到所述语义特征点的三维坐标。
6.根据权利要求1所述的方法,其特征在于,获取所述空间目标图像的成像平面,根据预先构建的参考坐标系,确定所述成像平面向参考坐标系的转化的转换矩阵,根据所述转换矩阵,将所述三维语义特征点转化至所述参考坐标系中的步骤包括:
当采用光学传感器拍摄所述空间目标图像时,根据所述光学传感器的底片提取投影矢量,以及确定视线方向矢量,根据所述投影矢量、所述视线方向矢量以及所述光学传感器所在测量站的测量信息,确定成像平面在测量站坐标系的坐标表示;
根据传感器拍摄时刻与其相邻时刻两张空间目标图像,确定LVLH参考坐标系在测量站坐标系下的坐标转换矩阵;
当采用ISAR传感器拍摄所述空间目标图像时,根据雷达波束的俯仰角、方位角以及雷达和目标间距的测量信息,确定所在ISAR成像的有效转动量在los向量上的投影矢量,根据所述有效转动量和所述坐标转换矩阵确定所述参考系下的等效旋转矢量,根据等效旋转矢量、距离维投影矢量以及横向投影矢量,确定成像平面在参考坐标系下的坐标表示;
根据光学传感器确定的成像平面的坐标和所述坐标转换矩阵,将所述三维语义特征点转换至参考坐标系中;根据ISAR传感器确定的成像平面在参考坐标系下的坐标,将所述三维语义特征点转换至参考坐标系中。
7.根据权利要求5所述的方法,其特征在于,通过最小二乘法和随机抽样一致性检验方法求解所述关键点深度解算方程,得到所述语义特征点的三维坐标的步骤包括:
通过设置的一致性门限值对整体航迹矩阵分解得到随机子矩阵,利用最小二乘法求解所述随机子矩阵对应的关键点深度解算方程,得到所述随机子矩阵对应的子失配量和子深度值,根据迭代次数将子深度值代入整体航迹矩阵,保留整体失配量矩阵中小于所述一致性门限值的有效元素,并记录其对应的子深度值,根据预设的迭代次数得到有效元素组成的有效航迹矩阵,进而得到所述语义特征点的三维坐标。
8.根据权利要求6所述的方法,其特征在于,根据光学传感器确定的成像平面的坐标和所述坐标转换矩阵,将所述三维语义特征点转换至参考坐标系下;根据ISAR传感器确定的成像平面在参考坐标系下的坐标,将所述三维语义特征点转换至参考坐标系中的步骤包括:
根据所述参考坐标系中的三维语义特征点、语义特征点的位置信息以及语义信息,确定空间目标的本体系,通过所述空间目标的本体系相对LVLH参考坐标系的旋转矩阵得到三维欧拉角,根据所述三维欧拉角按照旋转顺序将所述三维语义特征点转化至轨道坐标系中,唯一确定本体系中语义特征点的在轨姿态;
分析所述本体系中的语义特征点的相对位置和相对距离,结合所述本体系中语义特征点的在轨姿态在轨姿态,从而得到所述空间目标的姿态以及结构尺寸。
9.一种基于先验几何约束的空间目标反演装置,其特征在于,所述装置包括:
语义特征点提取模块,用于通过预先构建的多尺度卷积神经网络提取空间目标图像的语义特征点;所述语义特征点至少包含当前特征点在所述空间目标图像中的位置信息以及空间信息,其中,所述多尺度卷积神经网络中不同尺度分别提取所述位置信息和所述空间信息;
语义特征点优化模块,用于根据所述空间目标图像中空间目标的结构信息,从所述语义特征点中选择多个与所述结构信息关联的语义特征点;
三维转换模块,用于根据所述结构信息,构建关键点深度解算方程,将所述语义特征点代入所述关键点深度解算方程,得到三维语义特征点;
坐标系转换模块,用于获取所述空间目标图像的成像平面,根据预先构建的参考坐标系,确定所述成像平面向参考坐标系的转化的转换矩阵,根据所述转换矩阵,将所述三维语义特征点转化至所述参考坐标系中;
空间目标反演模块:用于根据所述参考坐标系中的语义特征点,建立空间目标的本体系,基于本体系中的语义特征点,进行三维目标姿态以及尺寸的反演。
10.一种基于先验几何约束的空间目标反演的计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至8中任一项所述方法的步骤。
CN202310393217.2A 2023-04-13 2023-04-13 基于先验几何约束的空间目标反演方法、装置和设备 Active CN116109706B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310393217.2A CN116109706B (zh) 2023-04-13 2023-04-13 基于先验几何约束的空间目标反演方法、装置和设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310393217.2A CN116109706B (zh) 2023-04-13 2023-04-13 基于先验几何约束的空间目标反演方法、装置和设备

Publications (2)

Publication Number Publication Date
CN116109706A true CN116109706A (zh) 2023-05-12
CN116109706B CN116109706B (zh) 2023-06-23

Family

ID=86258357

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310393217.2A Active CN116109706B (zh) 2023-04-13 2023-04-13 基于先验几何约束的空间目标反演方法、装置和设备

Country Status (1)

Country Link
CN (1) CN116109706B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116363217A (zh) * 2023-06-01 2023-06-30 中国人民解放军国防科技大学 空间非合作目标位姿测量方法、装置、计算机设备及介质
CN116908852A (zh) * 2023-09-06 2023-10-20 中国人民解放军国防科技大学 一种雷达目标语义信息快速标注方法、系统及装置

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5475422A (en) * 1993-06-21 1995-12-12 Nippon Telegraph And Telephone Corporation Method and apparatus for reconstructing three-dimensional objects
US20170008650A1 (en) * 2013-12-28 2017-01-12 Huazhong University Of Science And Technology Attitude estimation method and system for on-orbit three-dimensional space object under model restraint
US20190012807A1 (en) * 2017-07-04 2019-01-10 Baidu Online Network Technology (Beijing) Co., Ltd.. Three-dimensional posture estimating method and apparatus, device and computer storage medium
CN109636905A (zh) * 2018-12-07 2019-04-16 东北大学 基于深度卷积神经网络的环境语义建图方法
CN112946646A (zh) * 2021-01-29 2021-06-11 西安电子科技大学 基于isar图像解译的卫星目标姿态和尺寸估计方法
CN114114267A (zh) * 2022-01-24 2022-03-01 中国人民解放军32035部队 一种基于自旋空间目标模型投影匹配的目标姿态估计方法
US20220068018A1 (en) * 2019-01-02 2022-03-03 Gritworld GmbH Method for 3d reconstruction of an object
CN114663593A (zh) * 2022-03-25 2022-06-24 清华大学 三维人体姿态估计方法、装置、设备及存储介质
CN114942431A (zh) * 2022-04-29 2022-08-26 西安电子科技大学 光雷同步观测的空间目标瞬时姿态估计方法
US20220301222A1 (en) * 2021-03-19 2022-09-22 National Taiwan University Indoor positioning system and indoor positioning method
CN115409910A (zh) * 2021-05-28 2022-11-29 阿里巴巴新加坡控股有限公司 一种语义地图构建方法、视觉定位方法及相关设备
CN115760944A (zh) * 2022-11-29 2023-03-07 长春理工大学 融合多尺度特征的无监督单目深度估计方法
WO2023031620A1 (en) * 2021-09-02 2023-03-09 SLAMcore Limited Incremental dense 3-d mapping with semantics

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5475422A (en) * 1993-06-21 1995-12-12 Nippon Telegraph And Telephone Corporation Method and apparatus for reconstructing three-dimensional objects
US20170008650A1 (en) * 2013-12-28 2017-01-12 Huazhong University Of Science And Technology Attitude estimation method and system for on-orbit three-dimensional space object under model restraint
US20190012807A1 (en) * 2017-07-04 2019-01-10 Baidu Online Network Technology (Beijing) Co., Ltd.. Three-dimensional posture estimating method and apparatus, device and computer storage medium
CN109636905A (zh) * 2018-12-07 2019-04-16 东北大学 基于深度卷积神经网络的环境语义建图方法
US20220068018A1 (en) * 2019-01-02 2022-03-03 Gritworld GmbH Method for 3d reconstruction of an object
CN112946646A (zh) * 2021-01-29 2021-06-11 西安电子科技大学 基于isar图像解译的卫星目标姿态和尺寸估计方法
US20220301222A1 (en) * 2021-03-19 2022-09-22 National Taiwan University Indoor positioning system and indoor positioning method
CN115409910A (zh) * 2021-05-28 2022-11-29 阿里巴巴新加坡控股有限公司 一种语义地图构建方法、视觉定位方法及相关设备
WO2023031620A1 (en) * 2021-09-02 2023-03-09 SLAMcore Limited Incremental dense 3-d mapping with semantics
CN114114267A (zh) * 2022-01-24 2022-03-01 中国人民解放军32035部队 一种基于自旋空间目标模型投影匹配的目标姿态估计方法
CN114663593A (zh) * 2022-03-25 2022-06-24 清华大学 三维人体姿态估计方法、装置、设备及存储介质
CN114942431A (zh) * 2022-04-29 2022-08-26 西安电子科技大学 光雷同步观测的空间目标瞬时姿态估计方法
CN115760944A (zh) * 2022-11-29 2023-03-07 长春理工大学 融合多尺度特征的无监督单目深度估计方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
BINCHAO YANG ET AL.: "SAM-Net: Semantic probabilistic and attention mechanisms of dynamic objects for self-supervised depth and camera pose estimation in visual odometry applications", 《PATTERN RECOGNITION LETTERS》, pages 126 - 135 *
XIAOYUAN REN ET AL.: "3D Wireframe Modeling and Viewpoint Estimation for Multi-Class Objects Combining Deep Neural Network and Deformable Model Matching", 《APPLIED SCIENCES》, pages 1 - 14 *
李孟锡 等: "基于HOURGLASS 网络语义关键点提取的光学 图像空间目标姿态估计方法", 《信号处理》, vol. 37, pages 1653 - 1662 *
杨步一 等: "单幅图像刚体目标姿态估计方法综述", 《中国图象图形学报》, vol. 26, pages 334 - 354 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116363217A (zh) * 2023-06-01 2023-06-30 中国人民解放军国防科技大学 空间非合作目标位姿测量方法、装置、计算机设备及介质
CN116363217B (zh) * 2023-06-01 2023-08-11 中国人民解放军国防科技大学 空间非合作目标位姿测量方法、装置、计算机设备及介质
CN116908852A (zh) * 2023-09-06 2023-10-20 中国人民解放军国防科技大学 一种雷达目标语义信息快速标注方法、系统及装置
CN116908852B (zh) * 2023-09-06 2023-12-08 中国人民解放军国防科技大学 一种雷达目标语义信息快速标注方法、系统及装置

Also Published As

Publication number Publication date
CN116109706B (zh) 2023-06-23

Similar Documents

Publication Publication Date Title
CN116109706B (zh) 基于先验几何约束的空间目标反演方法、装置和设备
Sharma et al. Pose estimation for non-cooperative rendezvous using neural networks
CN109974693B (zh) 无人机定位方法、装置、计算机设备及存储介质
US9466143B1 (en) Geoaccurate three-dimensional reconstruction via image-based geometry
US10438408B2 (en) Resolution adaptive mesh for performing 3-D metrology of an object
CN111862126A (zh) 深度学习与几何算法结合的非合作目标相对位姿估计方法
CN112085844A (zh) 面向野外未知环境的无人机影像快速三维重建方法
MX2013003853A (es) Modelado tridimensional rápido.
CN111815707A (zh) 点云确定方法、点云筛选方法、装置、计算机设备
US20220309708A1 (en) System and method for automated estimation of 3d orientation of a physical asset
CN115423863B (zh) 相机位姿估计方法、装置及计算机可读存储介质
Tang et al. Surveying, geomatics, and 3D reconstruction
CN111721283B (zh) 定位算法的精度检测方法、装置、计算机设备和存储介质
Hu et al. Planetary3D: A photogrammetric tool for 3D topographic mapping of planetary bodies
Bechini et al. Robust Monocular Pose Initialization via Visual and Thermal Image Fusion
Kim et al. Digital surface model generation for drifting Arctic sea ice with low-textured surfaces based on drone images
Su et al. Accurate Pose Tracking for Uncooperative Targets via Data Fusion of Laser Scanner and Optical Camera
Bulyshev et al. A super-resolution algorithm for enhancement of FLASH LIDAR data
Lu et al. Satmvs: A novel 3d reconstruction pipeline for remote sensing satellite imagery
US11776148B1 (en) Multi-view height estimation from satellite images
Xiong et al. An SRTM assisted image matching algorithm for long-strip satellite imagery
US20220188996A1 (en) Feature-free photogrammetric 3d imaging with cameras under unconstrained motion
CN116342795A (zh) 基于isar像序列的神经网络三维重构方法和装置
Zhong et al. Application of Photogrammetric Computer Vision and Deep Learning in High-Resolution Underwater Mapping: A Case Study of Shallow-Water Coral Reefs
Haitz et al. The Potential of Neural Radiance Fields and 3D Gaussian Splatting for 3D Reconstruction from Aerial Imagery

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant