CN117274374A - 空间暗弱目标自主导航的一种快速识别与高精度提取方法 - Google Patents

空间暗弱目标自主导航的一种快速识别与高精度提取方法 Download PDF

Info

Publication number
CN117274374A
CN117274374A CN202310798223.6A CN202310798223A CN117274374A CN 117274374 A CN117274374 A CN 117274374A CN 202310798223 A CN202310798223 A CN 202310798223A CN 117274374 A CN117274374 A CN 117274374A
Authority
CN
China
Prior art keywords
image
target
point
extracting
template
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310798223.6A
Other languages
English (en)
Inventor
鄂薇
王大轶
李嘉兴
侯博文
朱卫红
董天舒
孙博文
李茂登
葛东明
徐超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Spacecraft System Engineering
Original Assignee
Beijing Institute of Spacecraft System Engineering
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Spacecraft System Engineering filed Critical Beijing Institute of Spacecraft System Engineering
Priority to CN202310798223.6A priority Critical patent/CN117274374A/zh
Publication of CN117274374A publication Critical patent/CN117274374A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/24Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for cosmonautical navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/02Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by astronomical means
    • G01C21/025Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by astronomical means with the use of startrackers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/183Compensation of inertial measurements, e.g. for temperature effects
    • G01C21/188Compensation of inertial measurements, e.g. for temperature effects for accumulated errors, e.g. by coupling inertial systems with absolute positioning systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Astronomy & Astrophysics (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明空间暗弱目标自主导航的一种快速识别与高精度提取方法,包括:图像叠加;恒星识别;掩膜处理;构建匹配模板;卷积处理;分割阈值处理;连通域检测;提取目标区域和获得目标点位置。本发明在星敏感器性能有限条件下,实现了复杂空间背景下的空间暗弱目标快速识别与高精度提取。

Description

空间暗弱目标自主导航的一种快速识别与高精度提取方法
技术领域
本发明涉及空间暗弱目标自主导航的一种快速识别与高精度提取方法,属于航天器总体技术领域。
技术背景
空间目标在航天领域中一般多指大气层外绕地球飞行的人造轨道飞行器,包括服役中与失效的卫星、箭体与空间碎片。据美国空间目标监测网统计,地球轨道上已编目的空间目标总数约为17800个,这其中还不包含尺寸小于10cm的空间目标,尺寸在1~10cm的空间目标约500,000个,而直径小于1cm的目标数量在1亿个以上,并且空间目标的数量还在持续快速增长,伴随而来的是空间资源的紧张与空间安全形势的逐步恶化。
为了能够持续监测空间目标,维护太空资产安全,国外发射了很多专门用于空间目标观测的航天器。利用单个航天器对目标的可见弧段较短、重访周期长,不能长时间持续对空间目标进行跟踪;利用多个航天器组网观测能够提升对空间目标的观测效能,但组网星座成本高。星敏感器作为航天器上普遍配置的姿态测量单元,如果通过算法开发,利用星敏感器获取的图像信息进行空间目标运动状态测量,就能够使现有的航天器普遍具备空间目标监视与编目的能力。
受到星敏感器性能的限制,远距离空间目标在图像上暗弱,在复杂的恒星背景下难以快速识别提取,从而无法为空间目标的轨道估计提供测量数据。因此,有必要提供一种能够在星敏感器性能受限的条件实现空间暗弱目标快速识别与提取的方法,以提升航天器对空间目标的感知能力。
发明内容
本发明的技术解决问题是:克服现有技术的不足,提供了空间暗弱目标自主导航的一种快速识别与高精度提取方法,在星敏感器性能有限条件下,实现复杂空间背景下的空间暗弱目标快速识别与高精度提取,提升航天器对空间目标的感知能力。
本发明目的通过以下技术方案予以实现:
空间暗弱目标自主导航的一种快速识别与高精度提取方法,包括:
1)获得连续采样获得的n幅图像Ik,k=1,2,…,n;
2)获得n幅图像Ik的叠加图像
3)进行星表匹配,在I1中提取出恒星图像坐标集{Psi(xsi,ysi)};
4)根据恒星图像坐标集{Psi(xsi,ysi)},对叠加图像Io进行掩膜处理,剔除恒星,获取恒星掩膜后图像
5)获得归一化条纹单元匹配模板
6)利用归一化条纹单元匹配模板对恒星掩膜后图像/>进行卷积处理,获得恒星掩膜后图像/>的卷积图像F;
7)获取叠加图像I0的背景噪声的均值μB和方差σB
8)根据叠加图像I0的背景噪声的均值μB和方差σB,获得卷积图像F的背景噪声的均值μBO和方差σBO
9)对卷积图像F进行自适应阈值分割,获得去除背景噪声后的二值图像FB
10)对去除背景噪声后的二值图像FB进行连通域检测,获得多个连通域{Qi},i=1,…q;其中,q为连通域的总数;
11)对连通域{Qi}进行细化处理,每个连通域对应获得一条单像素宽度的线段,然后对线段进行端点检测,获取线段两个端点的坐标作为粗略图像坐标;
12)根据粗略图像坐标和点目标模板,获得每个连通域对应目标的起点和终点位置,完成目标识别提取方法。
优选地,所述归一化条纹单元匹配模板MU,具体为:
其中,σ为点目标的弥散半径,L为条纹单元模板长度,ΔL为点目标移动步长,ΔL小于图像像素的边长,(xM,yM)为条纹单元模板中的图像坐标。
优选地,叠加图像I0的背景噪声符合高斯分布。
优选地,所述卷积图像F的背景噪声的均值μBO和方差σBO,具体为:
优选地,进行自适应阈值分割的方法,具体为:
其中,F(x,y)表示卷积图像F中图像位置(x,y)的像素值;FB(x,y)为二值图像FB中图像位置(x,y)的二值结果。
优选地,获得每个连通域对应目标的起点和终点位置的方法,具体为:
121)利用粗略图像坐标,第一幅图像I1中提取两个一定大小的区域;
122)利用粗略图像坐标,在最后一幅图像In中提取两个一定大小的区域;
123)构建点目标模板S;利用点目标模板S对第一幅图像I1中提取两个一定大小的区域分别进行卷积计算,获得图像中每个像素点的卷积结果;获得卷积结果最大值对应的像素点,作为目标起点;
124)利用点目标模板S对最后一幅图像In中提取两个一定大小的区域分别进行卷积计算,获得图像中每个像素点的卷积结果;获得卷积结果最大值对应的像素点,作为目标终点。
优选地,第一幅图像I1中提取两个一定大小的区域包括与线段起始端点对应的区域和与结束端点对应的区域/>
最后一幅图像In中提取两个一定大小的区域包括与线段起始端点对应的区域和与结束端点对应的区域/>
优选地,所述点目标模板S,具体为:
其中,(xP,yP)为点目标模板坐标。
本发明相比于现有技术具有如下有益效果:
(1)本发明方法以航天器上普遍安装的星敏感器作为空间目标感知测量的敏感器,在星敏感器进行姿态确定的同时,利用其获得的图像进行空间目标感知测量,能够使已经在轨运行的普通航天器具备对空间目标感知测量能力;
(2)本发明方法在暗弱目标识别过程中,避免了生成不同长度的条纹模板,从而降低了匹配模板与图像卷积次数,提高了暗弱目标的识别速度;
(3)本发明方法在暗弱目标提取过程中,采用单帧图像与叠加图像交叉对比的方法,能够确定空间目标在叠加图像上的运动时序,获取条纹端点准确的图像坐标,提高了暗弱目标质心的提取精度。
附图说明
图1为本发明方法的流程框图;
图2(a)为本发明一实施例中星敏感器在0~2s间获取的初始时刻图像I1
图2(b)为本发明一实施例中星敏感器在0~2s间获取的结束时刻图像In
图2(c)为本发明一实施例中星敏感器在0~2s间获取的叠加图像Io
图3为本发明一实施例中暗弱点目标区域识别结果图;
图4为本发明一实施例中暗弱点目标提取结果图。
具体实施方式
如图1所示,本发明一种基于星敏感器的空间暗弱目标快速识别与提取方法,包括如下步骤:
(1)星敏感器原始图像序列叠加,令星敏感器的曝光时间为ts,星敏感器在ti~tj时间段内共采集到n幅图像,每幅图像表示为Ik,k=1,2,…,n。其中,I1对应时刻ti采集的图像,In对应时刻tj采集的图像。在ti~tj时间段采集到原始图像的叠加图像表示为利用存储器保存I1,Io,In三幅图像。由于恒星与空间目标的运动不同,当星敏感器对恒星定向观测时,恒星在叠加图像上呈现为点状,空间目标在叠加图像上呈现为条纹状,叠加图像上能够在形态上将空间目标与恒星进行区分。
(2)对单幅星敏感器原始图像进行恒星识别,进行星表匹配,在I1中提取出恒星图像坐标集{Psi(xsi,ysi)}。(3)根据步骤(2)中识别出的恒星图像坐标集,对步骤(1)中的叠加图像Io进行恒星掩膜,去除叠加图像I0中的恒星,消除恒星对空间暗弱目标识别的干扰。以Psi(xsi,ysi)为中心,以r为半径在图像对掩膜处理,恒星掩膜后图像表示为:
其中,θ∈[0,2π],(x,y)为图像坐标。
(4)构建空间目标的条纹单元匹配模板,条纹单元匹配模板MU表示为:
其中,L为条纹单元模板长度,α为条纹单元模板的方向,α∈[0,π),ΔL为点目标移动步长,ΔL小于像素的边长,σ为点目标的弥散半径,该值与光学系统参数相关,可取σ=2,(xM,yM)为条纹单元模板中的图像坐标。L可以被ΔL整除。
因此,条纹单元匹配模板的大小为(6σ+Lcosα)×(6σ+Lsinα),对条纹单元匹配模板进行归一化处理,归一化条纹单元匹配模板MU表示为:
(5)利用步骤(4)建立的归一化条纹单元匹配模板对步骤(3)中的叠加图像进行遍历卷积计算,获得恒星掩膜后图像的卷积图像F,表示为:
其中,为卷积操作符。
(6)假设叠加图像I0的背景噪声符合高斯分布,背景噪声分布Y表示为:
其中,μB为叠加图像I0背景噪声的均值,σB为叠加图像I0背景噪声的方差,N()表示高斯分布。
(7)获取条纹单元匹配模板与背景噪声卷积后的强度分布。条纹单元匹配模板与背景卷积后的卷积图像F,背景噪声分布为表示为:
其中,μBO为卷积后背景噪声的均值,μBO=μB,σBO为卷积后背景噪声的方差,
(8)对步骤(5)中卷积计算后的图像进行自适应阈值分割。令自适应阈值设置为μBO+3σBO,能够将99.73%的背景信号去除,去除背景噪声后的二值图像FB为;
其中,F(x,y)表示卷积图像F中图像位置(x,y)的像素值;FB(x,y)为每个图像位置(x,y)的二值结果。
(9)对步骤(8)中获取到的二值图像FB进行连通域检测,每个连通域代表一个空间目标所在图像区域,连通域表示为{Qi},i=1,…q,其中q为连通域个数,即空间目标的个数。(10)对步骤(9)获取的连通域{Qi}进行细化处理,每个连通域对应获得一条单像素宽度的线段,然后对线进行端点检测,获取条纹状空间目标两个端点的粗略图像坐标其中,图像坐标的上角标s代表起始端点(线段靠近与原点的一端作为起始端点),上角标e代表结束端点,对连通域进行编号,下角标i代表连通域的编号。
(11)以步骤(10)获取的粗略坐标位置分别为中心,在步骤(1)中获取的单幅图像I1中提取m×m大小的区域,m=20σ,提取区域和/>表示为:
(12)以步骤(10)获取的粗略坐标位置分别为中心,在步骤(1)中获取的单幅图像In中提取m×m大小的区域,m=20σ,提取区域和/>表示为表示为
(13)构建点目标模板S,点目标模板S的尺寸为6σ×6σ,点目标模板S表示为
其中,(xP,yP)为点目标模板坐标。
(14)利用点目标模板S对步骤(11)中获取的和/>每个像素分别进行卷积计算,获得每个像素的卷积结果作为输出相应;获取/>和/>区域中输出响应最大值对应的图像坐标,该坐标p1imax是I1中空间目标的图像坐标I1中有两个区域,输出1个最大点。p1imax表示为
(15)利用点目标模板S对步骤(12)中获取的和/>进行卷积计算,分别获取/>区域中输出响应最大值对应的图像坐标该坐标pnimax是In中空间目标的图像坐标2个区域出1个坐标。pnimax表示为
(16)重复步骤(10)~(15),可以将图像中全部连通域{Qi}进行处理,从而将全部的空间目标识别并提取出。
基于以上步骤,给出一组仿真算例,令星敏感器的曝光时间为ts=0.2s,星敏感器在0~2s时间段内共采集到10幅图像,每幅图像的噪声为μB=10,σB=10,初始时刻图像I1、结束时刻图像In、叠加图像Io如图2所示。
令条纹单元模板长度为L=10pixel,ΔL=0.1为点目标移动步长,条纹单元模板的方向α∈[0,π],步长为π/18,点目标的弥散半径σ=2。利用条纹单元模板对叠加图像进行处理,识别出的目标所在图像区域如图3所示。利用识别出的区域进行目标提取,提取出的目标图像位置与真实位置对比如图4所示,其中☆标记为目标的提取位置,○标记为目标的真实位置,提取误差为[-1.85,0.47]。
本发明方法利用航天器上普遍安装的星敏感器进行空间目标感知测量,通过对原始的星敏感器采集到的图像进行图像处理,获取空间目标的测角信息,能够在星敏感器正常工作的同时,具备空间目标的感测测量能力。
本发明方法利用序列图像堆叠的方法,增强空间暗弱目标的信号强度,并根据恒星与空间目标在图像坐标系下不同的运动特性,构建了空间暗弱目标匹配单元模板,降低了匹配模板与图像卷积次数,提高了暗弱目标的识别速度。
本发明方法采用单帧图像与叠加图像交叉对比的方法,能够确定空间目标在叠加图像上的运动方向,获取条纹端点准确的提高了暗弱目标质心的提取精度。
本发明虽然已以较佳实施例公开如上,但其并不是用来限定本发明,任何本领域技术人员在不脱离本发明的精神和范围内,都可以利用上述揭示的方法和技术内容对本发明技术方案做出可能的变动和修改,因此,凡是未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化及修饰,均属于本发明技术方案的保护范围。在不冲突的情况下,本申请实施例以及实施例中的技术特征可以相互组合。
本发明说明书中未作详细描述的内容属本领域技术人员的公知技术。

Claims (8)

1.空间暗弱目标自主导航的一种快速识别与高精度提取方法,其特征在于,包括:
1)获得连续采样获得的n幅图像Ik,k=1,2,…,n;
2)获得n幅图像Ik的叠加图像
3)进行星表匹配,在I1中提取出恒星图像坐标集{Psi(xsi,ysi)};
4)根据恒星图像坐标集{Psi(xsi,ysi)},对叠加图像Io进行掩膜处理,剔除恒星,获取恒星掩膜后图像
5)获得归一化条纹单元匹配模板
6)利用归一化条纹单元匹配模板对恒星掩膜后图像/>进行卷积处理,获得恒星掩膜后图像/>的卷积图像F;
7)获取叠加图像I0的背景噪声的均值μB和方差σB
8)根据叠加图像I0的背景噪声的均值μB和方差σB,获得卷积图像F的背景噪声的均值μBO和方差σBO
9)对卷积图像F进行自适应阈值分割,获得去除背景噪声后的二值图像FB
10)对去除背景噪声后的二值图像FB进行连通域检测,获得多个连通域{Qi},i=1,…q;其中,q为连通域的总数;
11)对连通域{Qi}进行细化处理,每个连通域对应获得一条单像素宽度的线段,然后对线段进行端点检测,获取线段两个端点的坐标作为粗略图像坐标;
12)根据粗略图像坐标和点目标模板,获得每个连通域对应目标的起点和终点位置,完成目标识别提取方法。
2.根据权利要求1所述的空间暗弱目标自主导航的一种快速识别与高精度提取方法,其特征在于,所述归一化条纹单元匹配模板具体为:
其中,σ为点目标的弥散半径,L为条纹单元模板长度,ΔL为点目标移动步长,ΔL小于图像像素的边长,(xM,yM)为条纹单元模板中的图像坐标。
3.根据权利要求2所述的空间暗弱目标自主导航的一种快速识别与高精度提取方法,其特征在于,叠加图像I0的背景噪声符合高斯分布。
4.根据权利要求3所述的空间暗弱目标自主导航的一种快速识别与高精度提取方法,其特征在于,所述卷积图像F的背景噪声的均值μBO和方差σBO,具体为:
μBO=μB
5.根据权利要求4所述的空间暗弱目标自主导航的一种快速识别与高精度提取方法,其特征在于,进行自适应阈值分割的方法,具体为:
其中,F(x,y)表示卷积图像F中图像位置(x,y)的像素值;FB(x,y)为二值图像FB中图像位置(x,y)的二值结果。
6.根据权利要求2~5任意之一所述的空间暗弱目标自主导航的一种快速识别与高精度提取方法,其特征在于,获得每个连通域对应目标的起点和终点位置的方法,具体为:
121)利用粗略图像坐标,第一幅图像I1中提取两个一定大小的区域;
122)利用粗略图像坐标,在最后一幅图像In中提取两个一定大小的区域;
123)构建点目标模板S;利用点目标模板S对第一幅图像I1中提取两个一定大小的区域分别进行卷积计算,获得图像中每个像素点的卷积结果;获得卷积结果最大值对应的像素点,作为目标起点;
124)利用点目标模板S对最后一幅图像In中提取两个一定大小的区域分别进行卷积计算,获得图像中每个像素点的卷积结果;获得卷积结果最大值对应的像素点,作为目标终点。
7.根据权利要求6所述的空间暗弱目标自主导航的一种快速识别与高精度提取方法,其特征在于,第一幅图像I1中提取两个一定大小的区域包括与线段起始端点对应的区域和与结束端点对应的区域/>
最后一幅图像In中提取两个一定大小的区域包括与线段起始端点对应的区域和与结束端点对应的区域/>
8.根据权利要求6所述的空间暗弱目标自主导航的一种快速识别与高精度提取方法,其特征在于,所述点目标模板S,具体为:
其中,(xP,yP)为点目标模板坐标。
CN202310798223.6A 2023-06-30 2023-06-30 空间暗弱目标自主导航的一种快速识别与高精度提取方法 Pending CN117274374A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310798223.6A CN117274374A (zh) 2023-06-30 2023-06-30 空间暗弱目标自主导航的一种快速识别与高精度提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310798223.6A CN117274374A (zh) 2023-06-30 2023-06-30 空间暗弱目标自主导航的一种快速识别与高精度提取方法

Publications (1)

Publication Number Publication Date
CN117274374A true CN117274374A (zh) 2023-12-22

Family

ID=89214919

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310798223.6A Pending CN117274374A (zh) 2023-06-30 2023-06-30 空间暗弱目标自主导航的一种快速识别与高精度提取方法

Country Status (1)

Country Link
CN (1) CN117274374A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117727063A (zh) * 2024-02-07 2024-03-19 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 一种基于图注意力网络的星图识别方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117727063A (zh) * 2024-02-07 2024-03-19 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 一种基于图注意力网络的星图识别方法
CN117727063B (zh) * 2024-02-07 2024-04-16 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 一种基于图注意力网络的星图识别方法

Similar Documents

Publication Publication Date Title
Yang et al. Deep concrete inspection using unmanned aerial vehicle towards cssc database
RU2609434C2 (ru) Выявление расположения и местоположения объектов
CN107063228B (zh) 基于双目视觉的目标姿态解算方法
US8532402B2 (en) Image registration
CN111210477B (zh) 一种运动目标的定位方法及系统
CN109708648B (zh) 一种空间运动点目标的分类辨识方法
CN111260773A (zh) 小障碍物的三维重建方法、检测方法及检测系统
CN111738032B (zh) 一种车辆行驶信息确定方法及装置、车载终端
CN117274374A (zh) 空间暗弱目标自主导航的一种快速识别与高精度提取方法
Li et al. Space target detection in complicated situations for wide-field surveillance
Sablina et al. An approach to the image superimposition problem in multispectral computer vision systems
CN111583342A (zh) 一种基于双目视觉的目标快速定位方法及装置
CN112697044B (zh) 一种基于无人机平台的静态刚性物体视觉测量方法
Neulist et al. Segmentation, classification, and pose estimation of military vehicles in low resolution laser radar images
CN116978009A (zh) 基于4d毫米波雷达的动态物体滤除方法
JP2000275338A (ja) 目標識別装置および目標識別方法
CN116030349A (zh) 一种光学遥感影像船只检测方法
CN116563377A (zh) 一种基于半球投影模型的火星岩石测量方法
CN115861659A (zh) 对象匹配方法、装置、设备及计算机存储介质
CN116524340A (zh) 基于稠密点重建的auv近端对接单目位姿估计方法及装置
CN109815966A (zh) 一种基于改进sift算法的移动机器人视觉里程计实现方法
CN107808160B (zh) 三维建筑物提取方法和装置
Karagiannis et al. Automated photogrammetric image matching with SIFT algorithm and Delaunay triangulation
CN114170376B (zh) 一种针对室外大场景的多源信息融合分组式运动恢复结构方法
CN111932635B (zh) 采用二维与三维视觉处理相结合的图像标定方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination