CN111563878A - 一种空间目标定位方法 - Google Patents
一种空间目标定位方法 Download PDFInfo
- Publication number
- CN111563878A CN111563878A CN202010229184.4A CN202010229184A CN111563878A CN 111563878 A CN111563878 A CN 111563878A CN 202010229184 A CN202010229184 A CN 202010229184A CN 111563878 A CN111563878 A CN 111563878A
- Authority
- CN
- China
- Prior art keywords
- neural network
- image
- training
- coordinates
- binocular vision
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000013528 artificial neural network Methods 0.000 claims abstract description 49
- 238000012549 training Methods 0.000 claims abstract description 43
- 238000012360 testing method Methods 0.000 claims abstract description 22
- 238000012545 processing Methods 0.000 claims abstract description 13
- 210000002569 neuron Anatomy 0.000 claims description 19
- 238000006073 displacement reaction Methods 0.000 claims description 16
- 238000001514 detection method Methods 0.000 claims description 13
- 210000004027 cell Anatomy 0.000 claims description 11
- 230000006870 function Effects 0.000 claims description 11
- 238000007781 pre-processing Methods 0.000 claims description 7
- 238000001914 filtration Methods 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 5
- 230000000007 visual effect Effects 0.000 claims description 3
- 230000004807 localization Effects 0.000 claims 5
- 230000008569 process Effects 0.000 abstract description 9
- 238000004364 calculation method Methods 0.000 abstract description 4
- 238000005259 measurement Methods 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 235000002566 Capsicum Nutrition 0.000 description 2
- 239000006002 Pepper Substances 0.000 description 2
- 241000722363 Piper Species 0.000 description 2
- 235000016761 Piper aduncum Nutrition 0.000 description 2
- 235000017804 Piper guineense Nutrition 0.000 description 2
- 235000008184 Piper nigrum Nutrition 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000013178 mathematical model Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 150000003839 salts Chemical class 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000005311 autocorrelation function Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000012938 design process Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20164—Salient point detection; Corner detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02E—REDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
- Y02E10/00—Energy generation through renewable energy sources
- Y02E10/50—Photovoltaic [PV] energy
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种空间目标定位方法,旨在解决现有技术中存在的摄像机标定过程计算量大、加工成本大、实时性差、不适合空间复杂环境下应用的技术问题。本发明利用太阳能电池板上的正交角点生成与双目视觉系统左右相机拍摄图像逐像素对应的密集标记点数据,获取的数据分为训练集和测试集两部分。然后,构建合适的BP神经网络,利用训练集对所构建的BP神经网络进行重复训练学习,利用测试集对训练学习结果进行误差测试直至收敛。最后,基于上述BP神经网络的训练结果拟合双目视觉测量计算模型,进而可通过空间双目视觉系统左右相机拍摄的目标点图像二维像素坐标直接得到空间目标点的三维世界坐标,从而能准确地对空间特征目标点进行定位。
Description
技术领域
本发明属于空间目标位姿测量方法,具体涉及一种空间目标定位方法。
背景技术
精确测量空间目标的相对位置和姿态(统称为位姿)是完成空间交会对接、在轨捕获与维护等及航天任务的关键,由于系统相对简单可靠、体积小、质量轻、成本低等优势,基于机器视觉的位姿测量方法在空间非合作目标位姿测量领域广泛应用。而对机器视觉系统在轨实时标定从而得到其准确的内外参数信息是基于机器视觉的位姿测量方法的前提。
摄像机标定是完成视觉任务的关键步骤之一,摄像机标定是指恢复单目摄像机或立体摄像机内部和外部参数的过程,本质上是寻找可以将场景中的3D点和它们在摄像机上的成像联系起来的模型参数。传统的摄像机标定过程需要估算大量的参数,计算量较大;而且通常需要高精度的二维或者三维靶标,其加工成本大,实时性差,不适合空间复杂环境下应用,事实上,由于光学成像系统本质上是非常复杂的非线性系统,其标定过程很难用非常精确的纯几何模型描述,这也是相机标定问题本质性的困难。
发明内容
本发明提供了一种空间目标定位方法,旨在解决现有技术中存在的摄像机标定过程计算量大、加工成本大、实时性差、不适合空间复杂环境下应用的技术问题。
本发明的一种空间目标定位方法,其特殊之处在于,包括以下步骤:
步骤1)建立双目视觉系统,在双目视觉系统的视场内设置多个拍摄位置,将卫星模型放置于一维位移台上,使一维位移台位于某一拍摄位置处;
步骤2)采用所述双目视觉系统获取卫星模型上的太阳能电池板的初始图像;
步骤3)对初始图像进行预处理;
步骤4)对预处理后的图像进行角点检测,提取每幅图像中每个角点的图像像素坐标;
步骤5)控制一维位移台,将卫星模型沿着一维位移台移动至下一拍摄位置;
步骤6)重复步骤2)至步骤4)得到下一个拍摄位置处卫星模型太阳能电池板上的图像中每个角点的图像像素坐标;
步骤7)重复步骤5)和步骤6),得到每个拍摄位置处卫星模型太阳能电池板上图像中每个角点的图像像素坐标,并建立世界坐标系,从而得到每个拍摄位置处每个角点在世界坐标系下的三维坐标;
步骤8)将所有像素坐标和三维坐标分别分为训练集和测试集,利用训练集对BP神经网络进行重复训练学习,利用测试集对训练学习的BP神经网络进行误差测试;
若误差达标,保存训练完成的BP神经网络;
若误差不达标,增加拍摄位置,重复步骤5)至步骤6),得到上述增加拍摄位置处卫星模型太阳能电池板上的图像中每个角点的图像像素坐标以及世界坐标系下的三维坐标;将上述增加拍摄位置处的像素坐标和三维坐标分别添加到训练集和测试集中,再次对BP神经网络进行重复训练学习和误差测试,直至达标,保存训练完成的BP神经网络;
步骤9)安装在航天器上的双目视觉系统在太空任意位置拍摄目标航天器的图像,通过训练完成的BP神经网络得到航天器图像中目标点的世界坐标系三维坐标,从而实现空间目标定位。
进一步地,步骤1)中所述双目视觉系统的左右相机型号相同且相互平行放置。
进一步地,步骤3)中所述的预处理包括彩色图像灰度化处理、图像滤波、直方图均衡化、边缘锐化和/或图像去噪处理。
进一步地,步骤3)中所述去噪处理是采用中值滤波的算法进行去噪处理。
进一步地,步骤4)中所述角点检测是基于Harris角点检测方法进行角点检测。
进一步地,步骤8)中所述BP神经网络采用三层BP神经网络,包括输入层、输出层和隐含层;
所述输入层有4个神经元;
所述输出层有3个神经元;
所述隐含层有8个神经元。
进一步地,所述神经元的激活函数为对数函数。
进一步地,步骤8)中对BP神经网络进行训练学习的速率范围为0.01~0.8。
进一步地,步骤8)中对BP神经网络进行训练学习的速率范围为0.15。
进一步地,步骤8)中所述误差为利用所述BP神经网络计算得到的标记点空间坐标与标记点实际空间坐标的均方差。
本发明的有益效果是:
本发明利用太阳能电池板上的正交角点生成与双目视觉系统左右相机拍摄图像逐像素对应的密集标记点数据,获取的数据分为训练集和测试集两部分。然后,构建合适的BP神经网络,利用训练集对所构建的BP神经网络进行重复训练学习,利用测试集对训练学习结果进行误差测试直至收敛。最后,基于上述BP神经网络的训练结果拟合双目视觉测量计算模型,进而可通过空间双目视觉系统左右相机拍摄的目标点图像二维像素坐标直接得到空间目标点的三维世界坐标,从而能准确地对空间特征目标点进行定位。本方法跳出了传统相机标定过程中使用的针孔成像模型的桎梏,使用BP神经网络来模拟相机成像这一非常复杂的非线性过程,不仅适用于常见的光轴轴对称分布的光学系统,也适用于离轴式等非轴对称光学系统。
附图说明
图1为本发明一种空间目标定位方法实施例的流程图;
图2为本实施例中双目视觉系统结构示意图;
图3为本实施例中卫星模型及其太阳能电池板表面正交金属肋条结构示意图;
图4为本实施例中世界坐标系示意图;
图5为本实施例中采用的BP神经网络的结构示意图。
图中标号的说明:
1-双目视觉系统,2-卫星模型,3-太阳能电池板,4-一维位移台,5-BP神经网络。
具体实施方式
下面结合附图对本发明作进一步详细说明。
本发明公开了一种空间目标定位方法。下面将结合附图对本发明中的技术方案进行清楚、完整地描述,其中所述仅是本发明的一种实施方案而已,并非对本发明做任何形式的限制,故依据本发明的技术实质对以上实施方案所作的任何简单修改,等同变化或修改,均仍属于本发明技术方案的范围内。
实施例:
如图1所示,本实施例一种空间目标定位方法,包括以下步骤:
步骤一,如图2所示,建立双目视觉系统1,其中左右相机型号相同且平行放置,相机位置固定,卫星模型2放置于一维位移台4上某一任意位置,该位置记为位置0,记录其位移量设为Z0,此时采用该双目视觉系统1获取卫星模型2上的太阳能电池板3的图像。
步骤二,对步骤一中双目视觉系统1中左右相机拍摄的两幅太阳能电池板3的图像分别进行预处理。预处理主要包括彩色图像灰度化处理、图像滤波、直方图均衡化、边缘锐化和\或图像去噪处理。
针对本实施例中太阳能电池板3图案的预处理,需要消除的主要是脉冲噪声。而椒盐噪声是脉冲噪声的最主要的类型,其表现为某一像素的灰度值相对于其邻域内其他像素灰度值差异较大,在图像中出现黑白亮暗的斑点。椒盐噪声严重影响了图像的质量,同时给后续的图像处理过程增加了很大的难度。考虑到图像邻域像素高度相关,本实施例采用中值滤波的算法去除噪声。
步骤三,对步骤二中预处理后的图像进行角点检测。太阳能电池板3上的正交肋条产生大量角点,采用基于Harris角点检测方法进行角点检测,提取每幅图像中每个角点的图像像素坐标。
如图3所示,太阳能电池板3表面往往布置有大量相互正交的金属肋条,从而产生大量角点,Harris算子是Harris等人提出的一种利用图像的灰度信息来提取角点的算子。对任意一幅图像,角点与图像灰度的自相关函数曲率特性有关。对图像中的任意一点,如果它的水平曲率和垂直曲率值都高于局部邻域中其他点,则认为该点是角点。Harris角点检测算法简单、稳定性高、鲁棒性好、抗噪能力强,特别适合空间环境下对相关算法的要求,因此,本实施例采用基于Harris角点检测方法进行角点检测,提取每幅图像中每个角点的图像坐标。
步骤四,控制一维位移台4,将卫星模型2沿着一维位移台1移动至下一位置,该位置记为位置1,记录其位移量设为Z1,重复步骤一至步骤三同样内容的操作。若最终卫星模型2沿着一维位移台4移动n个位置,则记录每个位置处的位移量依次为Z0,Z1,Z2……Zn。并采用所述双目视觉系统1获取卫星模型2上的太阳能电池板3在n个位置处的图像,最终得到n个位置处双目视觉系统1左右相机拍摄得到的n对图像,利用步骤二和步骤三中所述的图像预处理方法和角点检测方法,得到每个位置处每个角点在双目视觉系统1左右相机拍摄得到的图像中的像素坐标。
另一方面,如图4所示,以位置Z0处太阳能电池板3最左下角点作为世界坐标系坐标原点,则其在世界坐标系中的三维坐标为(0,0,Z0),由于太阳能电池板3上的正交肋条往往为规则分布,设相邻正交肋条之间沿着两个方向的间距分别为Δx和Δy,则在位置Z0处,对图4中所示的Pmn点而言,其在本实施例所定义的世界坐标系中的三维坐标即为(Δxm,Δyn,Z0),以此类推,可得到Z0,Z1,Z2……Zn每个位置处每个角点在世界坐标系下的三维坐标。
以上得到的每个位置处每个角点在双目视觉系统1左右相机拍摄得到的图像中的像素坐标以及世界坐标系下的三维坐标将作为步骤五中训练BP神经网络5的数据来源。
步骤五,将步骤四中获取的数据分为训练集和测试集两部分,利用训练集对所构建的BP神经网络5进行重复训练学习,利用测试集对训练学习结果进行误差测试,若收敛,保存训练完成的BP神经网络5并执行步骤六,若不收敛,返回步骤四并增加拍摄位置从而增加BP神经网络5的训练集数据量。
下面详述本实施例中采用的BP神经网络的设计过程。
1、人工BP神经网络层数的选取:
人工BP神经网络是近年来发展起来的一门新兴技术,它可以处理那些难以用数学模型描述的系统,具有很强的自适应、自学习能力。已经证明如果三层前馈型BP神经网络隐含层神经元个数可以自由设定,则它可以实现以任意精度近似任何连续函数,故本实施例采用三层BP神经网络,其网络结构见附图5。
2、输入层和输出层的设计:
如图5所示,本实施例中输入层就是前述步骤三和步骤四得到的双目视觉系统得到的左右两幅图像各个角点在图像中的像素坐标,输出层则为步骤四得到中该点在世界坐标系下的三维坐标。因此,本实施例中输入层有4个神经元,输出层有3个神经元。
3、隐含层神经元个数的选择
为了网络训练精度的提高,可以通过采用一个隐含层,而增加其神经元个数的方法来获得,这在结构实现上,要比增加更多的隐含层要简单方便的多。隐含层神经元的个数一般选择输入层神经元数目的二倍加一,本实施例中通过对隐含层神经元数量的调试比较选择隐含层神经元个数为8。
4、激活函数的选择:
为了保证每个神经元的权值都能够在它们的激活函数变化最大之处进行调节,本实施例选用对数函数为激活函数。
5、学习速率的选择:
学习速率决定每一次循环训练中所产生的权值变化量。大的学习速率可能导致系统的不稳定,但是小的学习速率将导致训练时间长,收敛速度很慢,不过能保证BP神经网络的误差值不会跳出误差表面的低谷而最终趋于最小误差值。所以在一般情况下,倾向选择较小的学习速率以保证系统的稳定性,学习速率一般选择范围在0.01~0.8之间,本实施例选择0.15。
6、误差函数的选择
将上述步骤四收集到的数据,即双目视觉系统得到的左右两幅图像各个角点在图像中的像素坐标和该点在世界坐标系下的三维坐标,划分为训练数据集与测试数据集,训练数据集载入到BP神经网络模型中训练学习,测试数据集对训练结果做误差测试,其中误差为利用本实施例中构造的BP神经网络计算得到的角点空间坐标与角点实际空间坐标的均方差,可由下式得到:
其中,Api=(xpi,ypi,zpi)为角点Api世界坐标系下三维坐标的计算值,Ari=(xri,yri,zri)为角点Ari世界坐标系下三维坐标的真实值。
训练直到实测误差的平均值低于给定期望误差时,训练结束。若误差的平均值无法收敛在给定期望误差内,则重复步骤一至步骤四,收集更多数据以降低误差。本实施例中期望误差为1e-8。
步骤六,利用上述双目视觉系统1,在任意位置拍摄目标卫星模型2的图像,提取左右图像中目标点的图像像素坐标作为输入,利用步骤五训练得到的BP神经网络5,即可得到该点的世界坐标系下的三维坐标,从而实现空间目标定位。
人工BP神经网络是近年来发展起来的一门新兴技术,它可以处理一些难以用数学模型描述的非线性系统,具有很强的自适应和自主学习能力。已经证明如果三层前馈型BP神经网络隐含层神经元个数可以自由设定,则它可以实现以任意精度近似任何连续函数。从数学机理角度,BP神经网络和相机标定的工作机制是相似的,都是从一些已知数据去获得系数参数,并由此参数计算未知的数据。同时,使用BP神经网络来确定畸变模型,该畸变可以是任意模型,避免了传统方法的处理数据的缺陷,也更加适合真实的情况。
Claims (10)
1.一种空间目标定位方法,其特征在于,包括以下步骤:
步骤1)建立双目视觉系统,在双目视觉系统的视场内设置多个拍摄位置,将卫星模型放置于一维位移台上,使一维位移台位于某一拍摄位置处;
步骤2)采用所述双目视觉系统获取卫星模型上的太阳能电池板的初始图像;
步骤3)对初始图像进行预处理;
步骤4)对预处理后的图像进行角点检测,提取每幅图像中每个角点的图像像素坐标;
步骤5)控制一维位移台,将卫星模型沿着一维位移台移动至下一拍摄位置;
步骤6)重复步骤2)至步骤4)得到下一个拍摄位置处卫星模型太阳能电池板上的图像中每个角点的图像像素坐标;
步骤7)重复步骤5)和步骤6),得到每个拍摄位置处卫星模型太阳能电池板上图像中每个角点的图像像素坐标,并建立世界坐标系,从而得到每个拍摄位置处每个角点在世界坐标系下的三维坐标;
步骤8)将所有像素坐标和三维坐标分别分为训练集和测试集,利用训练集对BP神经网络进行重复训练学习,利用测试集对训练学习的BP神经网络进行误差测试;
若误差达标,保存训练完成的BP神经网络;
若误差不达标,增加拍摄位置,重复步骤5)至步骤6),得到上述增加拍摄位置处卫星模型太阳能电池板上的图像中每个角点的图像像素坐标以及世界坐标系下的三维坐标;将上述增加拍摄位置处的像素坐标和三维坐标分别添加到训练集和测试集中,再次对BP神经网络进行重复训练学习和误差测试,直至达标,保存训练完成的BP神经网络;
步骤9)安装在航天器上的双目视觉系统在太空任意位置拍摄目标航天器的图像,通过训练完成的BP神经网络得到航天器图像中目标点的世界坐标系三维坐标,从而实现空间目标定位。
2.根据权利要求1所述的一种空间目标定位方法,其特征在于:
步骤1)中所述双目视觉系统的左右相机型号相同且相互平行放置。
3.根据权利要求1或2所述的一种空间目标定位方法,其特征在于:
步骤3)中所述的预处理包括彩色图像灰度化处理、图像滤波、直方图均衡化、边缘锐化和/或图像去噪处理。
4.根据权利要求3所述的一种空间目标定位方法,其特征在于:
步骤3)中所述去噪处理是采用中值滤波的算法进行去噪处理。
5.根据权利要求4所述的一种空间目标定位方法,其特征在于:
步骤4)中所述角点检测是基于Harris角点检测方法进行角点检测。
6.根据权利要求1至5任一所述的一种空间目标定位方法,其特征在于:
步骤8)中所述BP神经网络采用三层BP神经网络,包括输入层、输出层和隐含层;
所述输入层有4个神经元;
所述输出层有3个神经元;
所述隐含层有8个神经元。
7.根据权利要求6所述的一种空间目标定位方法,其特征在于:
所述神经元的激活函数为对数函数。
8.根据权利要求7所述的一种空间目标定位方法,其特征在于:
步骤8)中对BP神经网络进行训练学习的速率范围为0.01~0.8。
9.根据权利要求8所述的一种空间目标定位方法,其特征在于:
步骤8)中对BP神经网络进行训练学习的速率范围为0.15。
10.根据权利要求9所述的一种空间目标定位方法,其特征在于:
步骤8)中所述误差为利用所述BP神经网络计算得到的标记点空间坐标与标记点实际空间坐标的均方差。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010229184.4A CN111563878B (zh) | 2020-03-27 | 2020-03-27 | 一种空间目标定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010229184.4A CN111563878B (zh) | 2020-03-27 | 2020-03-27 | 一种空间目标定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111563878A true CN111563878A (zh) | 2020-08-21 |
CN111563878B CN111563878B (zh) | 2023-04-11 |
Family
ID=72074171
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010229184.4A Active CN111563878B (zh) | 2020-03-27 | 2020-03-27 | 一种空间目标定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111563878B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112348890A (zh) * | 2020-10-27 | 2021-02-09 | 深圳技术大学 | 一种空间定位方法、装置及计算机可读存储介质 |
CN112611331A (zh) * | 2021-01-04 | 2021-04-06 | 中国神华能源股份有限公司国华电力分公司 | 一种位移监测装置及测量方法 |
CN113554700A (zh) * | 2021-07-26 | 2021-10-26 | 贵州电网有限责任公司 | 一种不可见光瞄准方法 |
CN113724309A (zh) * | 2021-08-27 | 2021-11-30 | 杭州海康威视数字技术股份有限公司 | 图像生成方法、装置、设备及存储介质 |
CN114494455A (zh) * | 2022-01-07 | 2022-05-13 | 西北工业大学 | 一种大视角下的位移高精度测量方法 |
CN115456928A (zh) * | 2022-10-21 | 2022-12-09 | 中国科学院长春光学精密机械与物理研究所 | 空间目标仿真数据集构建方法 |
CN115471556A (zh) * | 2022-09-22 | 2022-12-13 | 南京博视医疗科技有限公司 | 一种单目相机图像目标点三维定位方法及装置 |
CN116363205A (zh) * | 2023-03-30 | 2023-06-30 | 中国科学院西安光学精密机械研究所 | 基于深度学习的空间目标位姿解算方法及计算机程序产品 |
CN116805157A (zh) * | 2023-08-25 | 2023-09-26 | 中国人民解放军国防科技大学 | 无人集群自主动态评估方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015024407A1 (zh) * | 2013-08-19 | 2015-02-26 | 国家电网公司 | 基于电力机器人的双目视觉导航系统及方法 |
CN108498089A (zh) * | 2018-05-08 | 2018-09-07 | 北京邮电大学 | 一种基于深度神经网络的无创连续血压测量方法 |
CN109448061A (zh) * | 2018-10-09 | 2019-03-08 | 西北工业大学 | 一种无需摄像机标定的水下双目视觉定位方法 |
-
2020
- 2020-03-27 CN CN202010229184.4A patent/CN111563878B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015024407A1 (zh) * | 2013-08-19 | 2015-02-26 | 国家电网公司 | 基于电力机器人的双目视觉导航系统及方法 |
CN108498089A (zh) * | 2018-05-08 | 2018-09-07 | 北京邮电大学 | 一种基于深度神经网络的无创连续血压测量方法 |
CN109448061A (zh) * | 2018-10-09 | 2019-03-08 | 西北工业大学 | 一种无需摄像机标定的水下双目视觉定位方法 |
Non-Patent Citations (2)
Title |
---|
傅其凤等: "双目视觉摄像机神经网络标定方法", 《工程图学学报》 * |
邹强等: "基于BP网络的机载摄像机标定应用", 《中国科技信息》 * |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112348890B (zh) * | 2020-10-27 | 2024-01-23 | 深圳技术大学 | 一种空间定位方法、装置及计算机可读存储介质 |
CN112348890A (zh) * | 2020-10-27 | 2021-02-09 | 深圳技术大学 | 一种空间定位方法、装置及计算机可读存储介质 |
CN112611331A (zh) * | 2021-01-04 | 2021-04-06 | 中国神华能源股份有限公司国华电力分公司 | 一种位移监测装置及测量方法 |
CN113554700A (zh) * | 2021-07-26 | 2021-10-26 | 贵州电网有限责任公司 | 一种不可见光瞄准方法 |
CN113554700B (zh) * | 2021-07-26 | 2022-10-25 | 贵州电网有限责任公司 | 一种不可见光瞄准方法 |
CN113724309A (zh) * | 2021-08-27 | 2021-11-30 | 杭州海康威视数字技术股份有限公司 | 图像生成方法、装置、设备及存储介质 |
CN113724309B (zh) * | 2021-08-27 | 2024-06-14 | 杭州海康威视数字技术股份有限公司 | 图像生成方法、装置、设备及存储介质 |
CN114494455A (zh) * | 2022-01-07 | 2022-05-13 | 西北工业大学 | 一种大视角下的位移高精度测量方法 |
CN114494455B (zh) * | 2022-01-07 | 2024-04-05 | 西北工业大学 | 一种大视角下的位移高精度测量方法 |
CN115471556A (zh) * | 2022-09-22 | 2022-12-13 | 南京博视医疗科技有限公司 | 一种单目相机图像目标点三维定位方法及装置 |
CN115471556B (zh) * | 2022-09-22 | 2023-11-14 | 南京博视医疗科技有限公司 | 一种单目相机图像目标点三维定位方法及装置 |
CN115456928A (zh) * | 2022-10-21 | 2022-12-09 | 中国科学院长春光学精密机械与物理研究所 | 空间目标仿真数据集构建方法 |
CN116363205A (zh) * | 2023-03-30 | 2023-06-30 | 中国科学院西安光学精密机械研究所 | 基于深度学习的空间目标位姿解算方法及计算机程序产品 |
CN116805157B (zh) * | 2023-08-25 | 2023-11-17 | 中国人民解放军国防科技大学 | 无人集群自主动态评估方法及装置 |
CN116805157A (zh) * | 2023-08-25 | 2023-09-26 | 中国人民解放军国防科技大学 | 无人集群自主动态评估方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111563878B (zh) | 2023-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111563878B (zh) | 一种空间目标定位方法 | |
CN105976353B (zh) | 基于模型和点云全局匹配的空间非合作目标位姿估计方法 | |
CN110866969B (zh) | 基于神经网络与点云配准的发动机叶片重构方法 | |
CN109712172A (zh) | 一种初始位姿测量结合目标追踪的位姿测量方法 | |
CN106651942A (zh) | 基于特征点的三维旋转运动检测与旋转轴定位方法 | |
CN110334701B (zh) | 数字孪生环境下基于深度学习和多目视觉的数据采集方法 | |
US12073582B2 (en) | Method and apparatus for determining a three-dimensional position and pose of a fiducial marker | |
CN111897349A (zh) | 一种基于双目视觉的水下机器人自主避障方法 | |
CN113393439A (zh) | 一种基于深度学习的锻件缺陷检测方法 | |
CN113706619B (zh) | 一种基于空间映射学习的非合作目标姿态估计方法 | |
CN109631912A (zh) | 一种深空球形目标被动测距方法 | |
CN113240749B (zh) | 一种面向海上舰船平台无人机回收的远距离双目标定与测距方法 | |
CN110060304B (zh) | 一种生物体三维信息采集方法 | |
CN116309879A (zh) | 一种机器人辅助的多视角三维扫描测量方法 | |
CN107895145A (zh) | 基于卷积神经网络结合超高斯去噪估测手指受力的方法 | |
CN116363205A (zh) | 基于深度学习的空间目标位姿解算方法及计算机程序产品 | |
CN110517323A (zh) | 基于机械手单相机多目视觉的三维定位系统及方法 | |
CN111203881B (zh) | 一种基于加权最小二乘法的在线反馈手眼标定方法 | |
CN113674218A (zh) | 焊缝特征点提取方法、装置、电子设备与存储介质 | |
CN113628170A (zh) | 一种基于深度学习的激光线提取方法及系统 | |
CN116758149A (zh) | 一种基于无人机系统的桥梁结构位移检测方法 | |
CN112712566A (zh) | 基于结构参数在线校正的双目立体视觉传感器测量方法 | |
CN117197241A (zh) | 一种基于多目视觉的机器人末端绝对位姿高精度跟踪方法 | |
CN111680552B (zh) | 一种特征部位智能识别方法 | |
CN110246189B (zh) | 一种基于多相机全连接组合的三维坐标计算方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |