CN116105694B - 一种多手段光学载荷复合的空间目标三维视觉测量方法 - Google Patents
一种多手段光学载荷复合的空间目标三维视觉测量方法 Download PDFInfo
- Publication number
- CN116105694B CN116105694B CN202211586181.1A CN202211586181A CN116105694B CN 116105694 B CN116105694 B CN 116105694B CN 202211586181 A CN202211586181 A CN 202211586181A CN 116105694 B CN116105694 B CN 116105694B
- Authority
- CN
- China
- Prior art keywords
- target
- navigation system
- dimensional
- information
- visible light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003287 optical effect Effects 0.000 title claims abstract description 13
- 239000002131 composite material Substances 0.000 title claims abstract description 8
- 238000000691 measurement method Methods 0.000 title claims abstract description 8
- 238000005259 measurement Methods 0.000 claims abstract description 29
- 238000005516 engineering process Methods 0.000 claims abstract description 13
- 238000001514 detection method Methods 0.000 claims abstract description 11
- 238000003384 imaging method Methods 0.000 claims description 19
- 238000000034 method Methods 0.000 claims description 12
- 230000000007 visual effect Effects 0.000 claims description 10
- 238000003032 molecular docking Methods 0.000 claims description 5
- 238000013329 compounding Methods 0.000 claims description 3
- 238000013461 design Methods 0.000 claims description 2
- 239000012634 fragment Substances 0.000 abstract description 2
- 238000013459 approach Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000192 social effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/02—Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C1/00—Measuring angles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Electromagnetism (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Navigation (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
本发明公开了一种多手段光学载荷复合的空间目标三维视觉测量方法,涉及航天测量技术领域。其技术方案要点是,S1:远距离捕获跟踪测量;S2:近距离三维视觉测量;S3:近距离三维重建;S4:超近距离位姿测量与特征识别。本发明可广泛应用于空间故障航天器、空间碎片等目标的智能控制和测量导航技术,满足空间目标不同距离段的探测需求和导航任务。
Description
技术领域
本发明涉及航天测量技术领域,更具体地说,它涉及一种多手段光学载荷复合的空间目标三维视觉测量方法。
背景技术
随着空间技术和应用的快速发展,失效卫星和太空垃圾的数量逐年增多,不仅造成了巨大的经济损失和社会影响,还占用了宝贵的地球轨道资源,并且对在轨服役卫星和国际空间站的安全构成了严重的威胁。在轨维修、营救、装配和空间碎片移除等在轨服务技术已成为航天领域重要的前沿问题。在轨服务的一个关键在于如何飞行器接近过程中如何快速准确识别目标卫星,确定两航天器的相对位置和姿态。由于太空环境的复杂性和空间目标的特征不确定性,单一的探测手段因自身能力约束,不能完全覆盖飞行器从远到近长距离阶段,无法满足飞行器不同距离段的高精度三维视觉测量与导航要求,极大增加了在轨任务的风险。将可见光相机、外相机、激光测距仪和激光成像雷达多种探测手段结合,充分发挥各自的优势,可实现对目标的由远及近无缝衔接三维视觉测量与导航,更可靠高效地完成在轨服务任务。
发明内容
本发明的目的是提供一种多手段光学载荷复合的空间目标三维视觉测量方法,利用可见光相机、外相机、激光测距仪和激光成像雷达多种探测手段结合无缝衔接,以实现实时连续地为飞行器提供稳定准确的相对导航信息的目的。
本发明的上述技术目的是通过以下技术方案得以实现的:一种多手段光学载荷复合的空间目标三维视觉测量方法,包括如下步骤方法:
S1:远距离捕获跟踪测量;当被测目标距导航系统200km-20km时,利用远距离可见光相机探测弱目标,为导航系统提供目标的角度信息;
S2:近距离三维视觉测量;当被测目标距导航系统20km-120m时,利用可见光相机、红外相机和激光测距仪多手段探测目标,为导航系统提供目标的三维位姿信息;
S3:近距离三维重建;当被测目标距导航系统120m时,利用三维重建可见光相机探测目标,为导航系统提供目标三维重建模型;
S4:超近距离位姿测量与特征识别;当被测目标距导航系统120m—1m时,利用激光成像雷达和双目视觉相机探测目标,为导航系统提供目标的三维位姿信息和局部特征信息。
本发明进一步设置为:所述步骤S1中,当被测空间目标距导航系统200km-20km时,处于远距离捕获跟踪测量阶段,空间目标可视为点目标,利用大口径、小视场的可见光相机发现目标,识别目标后持续跟踪,计算目标的角度信息。
本发明进一步设置为:所述步骤S2中,当被测空间目标距导航系统20km-120m时,处于近距离三维视觉测量阶段,目标主体由点目标变化到2°。
本发明进一步设置为:所述步骤S2中,利用可见光相机、红外相机和激光测距仪共光轴设计、主被动结合探测跟踪,为导航系统提供目标的三维位姿信息的具体方法如下:
A.利用可见光相机和红外相机结合的手段大范围搜索识别目标,进行全天时自主跟踪,获取目标的相对角位置信息;
B.搜索跟踪到目标后,导航系统根据捕获到的目标在可见光相机和红外相机视场中的位置,驱动指向镜改变激光测距仪的视轴,激光测距仪自主进入稳定跟踪状态,调整指向使目标始终位于跟踪单元的视场中心。通过伺服控制单元的角位置传感器和目标在探测单元视场位置,获取目标的相对角位置信息,通过激光测量获得目标的相对距离信息和姿态信息。
本发明进一步设置为:所述步骤S3中,当被测空间目标距导航系统120m时,处于近距离三维重建阶段,利用三维重建可见光相机多角度成像,对目标详查,获取绕目标一圈的成像信息并将图像传送到地面进行三维重建,为导航系统提供目标高精度三维重建模型。
本发明进一步设置为:所述步骤S4中,当被测空间目标距导航系统120m-1m时,处于超近距离位姿测量与特征识别阶段,利用激光成像雷达和双目视觉相机,为导航系统提供目标的三维位姿信息和局部特征信息,其具体方法为:
(1).当被测目标距导航系统120m-20m时,利用激光成像雷达对目标快速扫描,获取目标的三维点云信息,与参考点云进行粗配准,计算目标的初始相对位置和姿态信息;精配准采用ICP算法,跟粗配准结果计算更精确的相对位姿信息,为导航系统提供目标的高精度实时三维位姿信息;
(2).当被测目标距导航系统20m-1m时,利用大视场双目可见光相机,对目标进行高分辨多成像,识别目标表面的关键特征,通过特征识别技术、立体匹配技术和三维重建技术建立目标模型;利用立体视差原理计算目标的相对位姿信息、为导航系统提供目标的三维位姿信息和局部特征信息。
本发明进一步设置为:为导航系统提供目标的三维位姿信息和局部特征信息,所述方法(2)中,识别目标表面的关键特征,所述关键特征为对接环、接插件标志点、边框和太阳帆板。
综上所述,本发明具有以下有益效果:本发明针对航天在轨服务领域中,飞行器接近过程中如何快速准确识别目标卫星,确定两航天器相对位置和姿态的难题,利用可见光相机、外相机、激光测距仪和激光成像雷达多种探测手段结合,实现200km-1m距离段无缝衔接三维视觉测量与特征识别,为飞行器提供稳定准确的相对导航信息。本发明可广泛应用于空间故障航天器、空间碎片等目标的智能控制和测量导航技术,满足空间目标不同距离段的探测需求和导航任务。
附图说明
图1是本发明实施例一种多手段光学载荷复合的空间目标三维视觉测量方法流程示意图;
具体实施方式
以下结合附图1对本发明作进一步详细说明。
实施例:一种多手段光学载荷复合的空间目标三维视觉测量方法,如图1所示,包括如下步骤方法:
S1:远距离捕获跟踪测量阶段,当被测目标距导航系200km-20km时,利用远距离可见光相机探测弱目标,为导航系统提供目标的角度信息。
在具体实施时,该阶段的空间目标可视为点目标,利用大口径、小视场的可见光相机发现目标,识别目标后持续跟踪,计算目标的角度信息。
S2:近距离三维视觉测量阶段,当被测目标距导航系统20km-120m时,利用可见光相机、红外相机和激光测距仪多手段探测目标,为导航系统提供目标的三维位姿信息。
在具体实施时,该阶段的空间目标由点目标变化到2°,此范围内导航系统对目标的测量精度要求较高。首先利用可见光相机和红外相机结合的手段大范围搜索识别目标,进行全天时自主导航,获取目标的相对角位置信息;搜索跟踪到目标后,导航系统根据捕获到的目标在可见光相机和红外相机视场中的位置,驱动指向镜改变激光测距仪的视轴,激光测距仪自主进入稳定跟踪状态,调整指向使目标始终位于跟踪单元的视场中心。通过伺服控制单元的角位置传感器和目标在探测单元视场位置,获取目标的相对角位置信息,通过激光测量获得目标的相对距离信息和姿态信息。
S3:近距离三维重建阶段,当被测目标距导航系统120m时,利用三维重建可见光相机探测目标,为导航系统提供目标三维重建模型。
在具体实施时,利用三维重建可见光相机多角度成像,对目标详查,获取绕目标一圈的成像信息。图像传送到地面进行三维重建,为导航系统提供目标高精度三维重建模型。
S4:超近距离位姿测量与特征识别阶段,当被测目标距导航系统120m-1m时,利用激光成像雷达和双目视觉相机探测目标,为导航系统提供目标的三维位姿信息和局部特征信息。
本实施中,当被测目标距导航系统120m-20m时,利用激光成像雷达对目标快速扫描,获取目标的三维点云信息,与参考点云进行粗配准,计算目标的初始相对位置和姿态信息;精配准采用ICP算法,根粗配准结果计算更精确的相对位姿信息,为导航系统提供目标的高精度实时三维位姿信息;当距离20m-1m时,利用大视场双目可见光相机,对目标进行高分辨多成像,识别目标表面的关键特征(对接环、接插件标志点、边框和太阳帆板等),通过特征识别技术、立体匹配技术和对接环重建技术建立目标模型;利用立体视差原理计算目标的相对位姿信息、为导航系统提供目标的三维位姿信息和局部特征信息。
本具体实施例仅仅是对本发明的解释,其并不是对本发明的限制,本领域技术人员在阅读完本说明书后可以根据需要对本实施例做出没有创造性贡献的修改,但只要在本发明的权利要求范围内都受到专利法的保护。
Claims (3)
1.一种多手段光学载荷复合的空间目标三维视觉测量方法,其特征是:包括如下步骤方法:
S1:远距离捕获跟踪测量;当被测目标距导航系统200km-20km时,利用远距离可见光相机探测弱目标,为导航系统提供目标的角度信息;
S2:近距离三维视觉测量;当被测目标距导航系统20km-120m时,利用可见光相机、红外相机和激光测距仪多手段探测目标,为导航系统提供目标的三维位姿信息;当被测空间目标距导航系统20km-120m时,处于近距离三维视觉测量阶段,目标主体由点目标变化到2°;所述步骤S2中,利用可见光相机、红外相机和激光测距仪共光轴设计、主被动结合探测跟踪,为导航系统提供目标的三维位姿信息的具体方法如下:
A.利用可见光相机和红外相机结合的手段大范围搜索识别目标,进行全天时自主跟踪,获取目标的相对角位置信息;
B.搜索跟踪到目标后,导航系统根据捕获到的目标在可见光相机和红外相机视场中的位置,驱动指向镜改变激光测距仪的视轴,激光测距仪自主进入稳定跟踪状态,调整指向使目标始终位于跟踪单元的视场中心;通过伺服控制单元的角位置传感器和目标在探测单元视场位置,获取目标的相对角位置信息,通过激光测量获得目标的相对距离信息和姿态信息;
S3:近距离三维重建;当被测目标距导航系统120m时,利用三维重建可见光相机探测目标,为导航系统提供目标三维重建模型;所述步骤S3中,当被测空间目标距导航系统120m时,处于近距离三维重建阶段,利用三维重建可见光相机多角度成像,对目标详查,获取绕目标一圈的成像信息并将图像传送到地面进行三维重建,为导航系统提供目标高精度三维重建模型;
S4:超近距离位姿测量与特征识别;当被测目标距导航系统120m—1m时,处于超近距离位姿测量与特征识别阶段,利用激光成像雷达和双目视觉相机探测目标,为导航系统提供目标的三维位姿信息和局部特征信息的方法如下:
(1).当被测目标距导航系统120m-20m时,利用激光成像雷达对目标快速扫描,获取目标的三维点云信息,与参考点云进行粗配准,计算目标的初始相对位置和姿态信息;精配准采用ICP算法,跟粗配准结果计算更精确的相对位姿信息,为导航系统提供目标的高精度实时三维位姿信息;
(2).当被测目标距导航系统20m-1m时,利用大视场双目可见光相机,对目标进行高分辨成像,识别目标表面的关键特征,通过特征识别技术、立体匹配技术和对接环重建技术建立目标模型;利用立体视差原理计算目标的相对位姿信息、为导航系统提供目标的三维位姿信息和局部特征信息。
2.根据权利要求1所述的一种多手段光学载荷复合的空间目标三维视觉测量方法,其特征是:所述步骤S1中,当被测空间目标距导航系统200km-20km时,处于远距离捕获跟踪测量阶段,空间目标可视为点目标,利用大口径、小视场的可见光相机发现目标,识别目标后持续跟踪,计算目标的角度信息。
3.根据权利要求1所述的一种多手段光学载荷复合的空间目标三维视觉测量方法,其特征是:所述步骤S4中,为导航系统提供目标的三维位姿信息和局部特征信息,所述方法(2)中,识别目标表面的关键特征,所述关键特征为对接环、接插件标志点、边框和太阳帆板。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211586181.1A CN116105694B (zh) | 2022-12-09 | 2022-12-09 | 一种多手段光学载荷复合的空间目标三维视觉测量方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211586181.1A CN116105694B (zh) | 2022-12-09 | 2022-12-09 | 一种多手段光学载荷复合的空间目标三维视觉测量方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116105694A CN116105694A (zh) | 2023-05-12 |
CN116105694B true CN116105694B (zh) | 2024-03-12 |
Family
ID=86257071
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211586181.1A Active CN116105694B (zh) | 2022-12-09 | 2022-12-09 | 一种多手段光学载荷复合的空间目标三维视觉测量方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116105694B (zh) |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004028728A (ja) * | 2002-06-25 | 2004-01-29 | Fuji Heavy Ind Ltd | 地形認識装置および地形認識方法 |
CN101839721A (zh) * | 2010-03-12 | 2010-09-22 | 西安电子科技大学 | 自主交会对接中的视觉导航方法 |
CN102288178A (zh) * | 2011-03-28 | 2011-12-21 | 南京航空航天大学 | 空天目标中远距离相对导航装置及其导航方法 |
CN103499818A (zh) * | 2013-10-10 | 2014-01-08 | 中国科学院上海技术物理研究所 | 一种红外与激光复合探测系统 |
CN104482934A (zh) * | 2014-12-30 | 2015-04-01 | 华中科技大学 | 一种多传感器融合的超近距离自主导航装置与方法 |
GB201611076D0 (en) * | 2016-06-24 | 2016-08-10 | Sensewhere Ltd | Detecting the position of a user and directing a passenger vehicle to pick up the user responsive thereto |
CN106441311A (zh) * | 2016-07-15 | 2017-02-22 | 上海宇航系统工程研究所 | 一种基于激光成像雷达的非合作航天器相对位姿测量方法 |
CN108089196A (zh) * | 2017-12-14 | 2018-05-29 | 中国科学院光电技术研究所 | 一种光学主被动融合的非合作目标位姿测量装置 |
CN108562274A (zh) * | 2018-04-20 | 2018-09-21 | 南京邮电大学 | 一种基于标志器的非合作目标位姿测量方法 |
CN111102981A (zh) * | 2019-12-09 | 2020-05-05 | 北京空间机电研究所 | 一种基于ukf的高精度卫星相对导航方法 |
CN112684429A (zh) * | 2020-12-03 | 2021-04-20 | 中国科学院光电技术研究所 | 一种适用于空间交会对接激光雷达的远近场目标识别方法 |
CN114396948A (zh) * | 2022-01-13 | 2022-04-26 | 中国科学院微小卫星创新研究院 | 适用于验证多视觉系统自主导航的高精度地面试验系统 |
CN114494287A (zh) * | 2021-12-31 | 2022-05-13 | 南京理工大学 | 一种远距离激光雷达点云数据处理方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7142981B2 (en) * | 2003-08-05 | 2006-11-28 | The Boeing Company | Laser range finder closed-loop pointing technology of relative navigation, attitude determination, pointing and tracking for spacecraft rendezvous |
US11630197B2 (en) * | 2019-01-04 | 2023-04-18 | Qualcomm Incorporated | Determining a motion state of a target object |
-
2022
- 2022-12-09 CN CN202211586181.1A patent/CN116105694B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004028728A (ja) * | 2002-06-25 | 2004-01-29 | Fuji Heavy Ind Ltd | 地形認識装置および地形認識方法 |
CN101839721A (zh) * | 2010-03-12 | 2010-09-22 | 西安电子科技大学 | 自主交会对接中的视觉导航方法 |
CN102288178A (zh) * | 2011-03-28 | 2011-12-21 | 南京航空航天大学 | 空天目标中远距离相对导航装置及其导航方法 |
CN103499818A (zh) * | 2013-10-10 | 2014-01-08 | 中国科学院上海技术物理研究所 | 一种红外与激光复合探测系统 |
CN104482934A (zh) * | 2014-12-30 | 2015-04-01 | 华中科技大学 | 一种多传感器融合的超近距离自主导航装置与方法 |
GB201611076D0 (en) * | 2016-06-24 | 2016-08-10 | Sensewhere Ltd | Detecting the position of a user and directing a passenger vehicle to pick up the user responsive thereto |
CN106441311A (zh) * | 2016-07-15 | 2017-02-22 | 上海宇航系统工程研究所 | 一种基于激光成像雷达的非合作航天器相对位姿测量方法 |
CN108089196A (zh) * | 2017-12-14 | 2018-05-29 | 中国科学院光电技术研究所 | 一种光学主被动融合的非合作目标位姿测量装置 |
CN108562274A (zh) * | 2018-04-20 | 2018-09-21 | 南京邮电大学 | 一种基于标志器的非合作目标位姿测量方法 |
CN111102981A (zh) * | 2019-12-09 | 2020-05-05 | 北京空间机电研究所 | 一种基于ukf的高精度卫星相对导航方法 |
CN112684429A (zh) * | 2020-12-03 | 2021-04-20 | 中国科学院光电技术研究所 | 一种适用于空间交会对接激光雷达的远近场目标识别方法 |
CN114494287A (zh) * | 2021-12-31 | 2022-05-13 | 南京理工大学 | 一种远距离激光雷达点云数据处理方法 |
CN114396948A (zh) * | 2022-01-13 | 2022-04-26 | 中国科学院微小卫星创新研究院 | 适用于验证多视觉系统自主导航的高精度地面试验系统 |
Non-Patent Citations (6)
Title |
---|
Flight Demonstration of Autonomous Noncooperative Rendezvous in Low Earth Orbit;Gaias, Gabriella等;JOURNAL OF GUIDANCE CONTROL AND DYNAMICS;20180630;第41卷(第6期);1337-1354 * |
在轨服务若干关键技术研究进展;肖余之等;上海航天(中英文)(第3期);85-95 * |
空间交会对接测量系统及其发展趋势;魏祥泉等;载人航天;20040205(第1期);23-25 * |
空间非合作目标相对导航技术研究;李文跃等;航空兵器(第3期);14-17, 50 * |
非合作目标智能感知技术研究进展与展望;牟金震等;中国空间科学技术;20211225;第41卷(第6期);1-16 * |
非合作航天器关键特征的双目视觉位姿测量;胡亮等;中国激光;20220930;第49卷(第17期);56-64 * |
Also Published As
Publication number | Publication date |
---|---|
CN116105694A (zh) | 2023-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105487082B (zh) | 一种用于远距离目标探测的激光雷达 | |
Opromolla et al. | A review of cooperative and uncooperative spacecraft pose determination techniques for close-proximity operations | |
Johnson et al. | Overview of terrain relative navigation approaches for precise lunar landing | |
CN108089196B (zh) | 一种光学主被动融合的非合作目标位姿测量装置 | |
CN104482934B (zh) | 一种多传感器融合的超近距离自主导航装置与方法 | |
Peng et al. | An efficient pose measurement method of a space non-cooperative target based on stereo vision | |
CN102928861B (zh) | 机载设备用目标定位方法及装置 | |
CN101592490B (zh) | 一种自适应控阵星敏感器 | |
CN103852082B (zh) | 一种星间测量和陀螺的姿态轨道一体化滤波估计方法 | |
Yang et al. | Panoramic UAV surveillance and recycling system based on structure-free camera array | |
CN110412868A (zh) | 一种使用星间光学图像的非合作航天器轨道确定方法 | |
CN104764449B (zh) | 一种基于星历修正的捕获段深空探测器自主天文导航方法 | |
JP2015170364A (ja) | 仮想参照画像を用いた位置及び向きの検出のための方法 | |
CN104613929A (zh) | 基于机器视觉自动准直立方镜的方法 | |
CN112461204B (zh) | 卫星对动态飞行目标多视角成像联合计算航行高度的方法 | |
CN104330076A (zh) | 一种新型自动空中三角测量软件 | |
CN104570147A (zh) | 一种基于单目相机和主动结构光的障碍探测方法 | |
Masson et al. | Airbus DS Vision Based Navigation solutions tested on LIRIS experiment data | |
Xiao-Hong et al. | UAV's automatic landing in all weather based on the cooperative object and computer vision | |
CN116105694B (zh) | 一种多手段光学载荷复合的空间目标三维视觉测量方法 | |
CN106643742A (zh) | 一种卫星自主连续观测小行星的方法 | |
Liebe et al. | Spacecraft hazard avoidance utilizing structured light | |
CN113532372A (zh) | 一种天基双星交会测角测距装置及其使用方法 | |
CN117848354B (zh) | 空间目标多模态信息融合光电探测定位定轨装置和方法 | |
Haiyang et al. | Research on Object Positioning Algorithm Based on Hybrid Monocular-Binocular |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |