CN106447725A - 基于轮廓点混合特征匹配的空间目标姿态估计方法 - Google Patents
基于轮廓点混合特征匹配的空间目标姿态估计方法 Download PDFInfo
- Publication number
- CN106447725A CN106447725A CN201610498801.4A CN201610498801A CN106447725A CN 106447725 A CN106447725 A CN 106447725A CN 201610498801 A CN201610498801 A CN 201610498801A CN 106447725 A CN106447725 A CN 106447725A
- Authority
- CN
- China
- Prior art keywords
- profile
- point
- projected image
- attitude
- input picture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种基于轮廓点混合特征匹配的空间目标姿态估计方法,属于数字图像处理技术领域。本发明在三维模型先验的基础上,充分利用投影图像轮廓中所包含的数据信息,利用混合特征匹配建立从输入图像到目标三维模型的2D‑3D特征对应关系,并通过迭代的方式同步完成特征对应关系的确定和目标三维姿态参数的估计。通过构造轮廓点的混合特征向量并调整位置分量与曲率分量的权重系数,更准确地反映特征空间的结构,从而提高了算法的适用范围,即便初始姿态与真实姿态相差较大,算法依然具有较高的精确性;对投影图像轮廓点进行筛选,减小计算复杂度,执行速度较快,具有较高的效率,能够满足实时性要求。
Description
技术领域
本发明涉及三维立体视觉的数字图像处理技术领域,具体涉及一种基于轮廓点混合特征匹配的空间目标姿态估计方法。
背景技术
近年来,光学成像系统在空间目标上的应用十分广泛,许多实际功能如自动交会对接、在轨自服务等都需要确定空间目标的姿态参数,因此将姿态估计方法应用于空间目标是有迫切需求的。另一方面,随着高质量光学成像系统的快速发展,包含更多空间目标细节信息的图像数据可以用来作为姿态估计的输入,有利于提高姿态估计的精度。
完整的姿态估计方法需要解决两方面的问题:首先需要确定从输入图像到目标三维模型的特征对应关系,然后基于对应关系对投影误差函数进行优化实现对目标姿态参数的估计。对于后一问题,国内外学者已经提出了很多有效的算法;而针对于前一问题,即如何确定输入图像到目标三维模型的特征对应关系,目前的姿态估计算法大致可以分为三类:(1)第一类方法直接将姿态估计问题分为两个子问题,首先通过提取特征点、特征线或是特征区域,在二维图像和三维模型之间以特征匹配的方式建立对应关系,再基于得到的对应关系进行姿态参数的估计。这类方法只适用于一些限定的应用场景,而在无约束的三维环境下,没有哪一种特征提取算子是完全稳定和可靠的。(2)第二类方法借助于图像识别的方式来回避建立2D-3D特征对应关系的问题。该类方法预先生成一些目标三维模型不同姿态下的投影图像,然后以某种标准计算输入图像与预先生成的投影图像的相似度,以相似度最高的投影图像所对应的姿态作为目标的姿态结果。这类方法可以粗略地估计姿态参数,但由于不存在严格的投影对应关系方程,因此无法得到目标姿态参数的准确估计值,而且预先生成的投影轮廓数量会随着姿态估计参数精度要求的提高而呈指数级增长。(3)第三类方法采用迭代机制来同时确定特征对应关系并估计姿态参数。与前两类方法对比,第三类方法的优势在于不依赖于特征提取算子的能力并且不需要预先生成大量投影图像,因此也是目前姿态估计问题研究的热点。但采用迭代机制的方法也有共同的缺点就是会受到算法收敛速度和收敛半径的限制,并且初始值往往对算法效果影响较大。
发明内容
(一)要解决的技术问题
本发明要解决的技术问题是:如何以较小的计算量、较快的运行速度、较高的精确度实现空间目标姿态估计。
(二)技术方案
为了解决上述技术问题,本发明提供了一种基于轮廓点混合特征匹配的空间目标姿态估计方法,包括以下步骤:
步骤1、输入空间目标的三维模型和待估计姿态下所成的单目图像;其中三维模型包含空间目标的顶点坐标以及结构信息,输入的单目图像为灰度图像;
步骤2、根据空间目标的位置姿态确定投影图像;
步骤3、对输入图像和投影图像进行预处理,并提取轮廓;
步骤4、根据投影时的颜色信息对投影图像轮廓点进行筛选;
步骤5、分别构造输入图像轮廓与投影图像轮廓的轮廓点混合特征向量;
步骤6、基于轮廓点的混合特征匹配建立输入图像轮廓和投影图像轮廓之间的2D-2D点对应关系;
步骤7、基于颜色索引建立输入图像轮廓到空间目标三维模型之间的2D-3D点对应关系;
步骤8、基于输入图像轮廓到空间目标三维模型之间的2D-3D点对应关系解算姿态参数;
步骤9、根据终止条件判断是当前输出姿态参数还是返回步骤2进行下一次迭代计算。
优选地,步骤4中根据投影时的颜色信息对投影图像轮廓点进行筛选时使用三维模型中的顶点三维坐标进行计算。
优选地,步骤5具体为:轮廓点混合特征由像素点位置和曲率组成,通过式(1)构造轮廓点的混合特征向量:
f=(f1,f2,f3)T=(ω1x,ω2y,ω3k)T (1)
其中,f1,f2,f3表示特征分量,x,y分别表示输入图像轮廓或投影图像轮廓的轮廓点的横、纵坐标,k是轮廓曲线在对应轮廓点处的曲率,ω1,ω2,ω3是权重系数,权重系数的确定方式为:当输入图像轮廓与投影图像轮廓所对应的姿态相差小于或等于一定值时,仅使用轮廓点的横、纵坐标特征建立点对应关系;当输入图像轮廓与投影图像轮廓所对应的姿态相差大于所述一定值时,依靠轮廓点的横、纵坐标和曲率特征建立点对应关系。
优选地,步骤6中以混合特征向量空间欧式距离最小为准则建立输入图像轮廓到投影图像轮廓之间的2D-2D点对应关系。
(三)有益效果
本发明以在未给定任何先验特征对应关系情况下基于单目视觉的空间目标姿态估计为研究对象,提出了基于轮廓点混合特征匹配的空间目标姿态估计方法。在三维模型先验的基础上,充分利用投影图像轮廓中所包含的数据信息,利用混合特征匹配建立从输入图像到目标三维模型的2D-3D特征对应关系,并通过迭代的方式同步完成特征对应关系的确定和目标三维姿态参数的估计。通过构造轮廓点的混合特征向量并调整位置分量与曲率分量的权重系数,更准确地反映特征空间的结构,从而提高了算法的适用范围,即便初始姿态与真实姿态相差较大,算法依然具有较高的精确性;对投影图像轮廓点进行筛选,减小计算复杂度,执行速度较快,具有较高的效率,能够满足实时性要求。
附图说明
图1为本发明实施例的方法流程框图;
图2为本发明实施例的方法的实验效果图。
具体实施方式
为使本发明的目的、内容、和优点更加清楚,下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。
本发明实施例提出的基于轮廓点混合特征匹配的空间目标姿态估计方法具体实现流程如图1所示,各部分具体实施细节如下:
步骤1、输入空间目标的三维模型和待估计姿态下所成的单目图像。其中三维模型需要包含空间目标的顶点坐标以及结构信息,不需要材质和纹理信息。输入的单目图像为灰度图像,相面中空间目标所占区域大小约为单目图像大小的十分之一。
步骤2、根据空间目标的位置姿态确定投影图像。利用OpenGL仿真成像系统模拟相机成像过程,忽略了相机的畸变等因素的影响。首先从输入的三维模型中读取顶点坐标及其对应的法向量,以三角面片的形式在OpenGL仿真成像系统中重建出空间目标的三维结构,再由空间目标的姿态参数确定其相对于相机的旋转量和平移量,从而得到投影图像。首次迭代过程的初始位置姿态可以在一定范围内随机选择,在之后的迭代过程中每一次迭代的初始位置姿态是上一次迭代的计算结果。
步骤3、对输入图像和投影图像进行预处理,并提取轮廓。预处理包括平滑去噪,形态学滤波消除孔洞。预处理之后提取输入图像与投影图像的外部轮廓,所得到的轮廓为单像素宽的连续曲线。
步骤4、根据投影时的颜色信息对投影图像轮廓点进行筛选。在利用OpenGL仿真成像系统对投影图像进行渲染时,为三维模型的每一个顶点赋予不同的RGB颜色值,将OpenGL的颜色模式设置为渐变模式,则位于两个顶点之间的轮廓点的RGB颜色值是根据到相邻两个顶点的距离通过线性插值计算得到的。在本发明方法的实现中,轮廓点的index值按照下式计算得到:
index=R·65536+G·256+B
其中R、G、B分别表示红、绿、蓝三种颜色值。由于顶点的index值为十的倍数,这样根据投影图像点的RGB颜色值计算出index值,通过判断其是否是十的倍数就可以找到对应于三维模型顶点的轮廓点。通过对轮廓点进行筛选可以大大减少算法的计算量,加快算法的计算速度,并且使用三维模型中准确度最高的顶点三维坐标进行计算,避免了通过插值运算计算投影图像轮廓点反向投影时所对应的三维坐标,有利于提高本发明方法的计算精度。
步骤5、分别构造输入图像轮廓与投影图像轮廓的轮廓点混合特征向量。在本方法中,轮廓点的混合特征由像素点位置和曲率组成。通过下式构造轮廓点的混合特征向量:
f=(f1,f2,f3)T=(ω1x,ω2y,ω3k)T (1)
其中,f1,f2,f3表示特征分量,x,y分别表示输入图像轮廓或投影图像轮廓的轮廓点的横、纵坐标,k是轮廓曲线在对应轮廓点处的曲率。由于数字图像中的轮廓是离散的像素点,难以计算某一点处的曲率,因此作为变通,选择USAN值代表曲率特征。USAN值描述的是以轮廓点为中心的圆形模板中轮廓内的点数量与轮廓外的点数量的比值,它实现方式简单并且具有旋转不变性。ω1,ω2,ω3是权重系数,可以通过改变权重系数来修改特征分量间的相互影响以更准确地反映特征空间的结构。当输入图像轮廓与投影图像轮廓所对应的姿态相差较小时,仅使用轮廓点的横、纵坐标特征就可以建立较为准确的点对应关系(通过实验证实,当输入图像轮廓与投影图像轮廓所对应的姿态的欧拉角相差小于或等于15度时,仅使用轮廓点的横、纵坐标特征就可以建立较为准确的点对应关系);但是当输入图像轮廓与投影图像轮廓所对应的姿态相差较大时,仅依靠轮廓点的横、纵坐标特征则较难建立准确的点对应关系,此时需要凸显曲率特征的作用(通过实验证实,当输入图像轮廓与投影图像轮廓所对应的姿态的欧拉角相差大于15度时,需要凸显曲率特征的作用)。在算法实现过程中,令轮廓点横、纵坐标特征的权重系数为1,则曲率特征的权重系数选择既要足够大(取6-8之间),使得其在输入图像轮廓与投影图像轮廓所对应的姿态相差较大时也能建立准确的匹配关系;又要保证其在输入图像轮廓与投影图像轮廓所对应的姿态相差较小时不会掩盖轮廓点的横、纵坐标特征的作用。
步骤6、基于轮廓点的混合特征匹配建立输入图像轮廓和投影图像轮廓之间的2D-2D点对应关系。设Ci表示输入图像轮廓点的混合特征向量的集合,Cp表示投影图像轮廓点的混合特征向量的集合。给定一个筛选得到的投影图像轮廓点F的混合特征向量f=(f1,f2,f3)T,则它在输入图像轮廓上的对应点F'的混合特征向量f'=(f1',f2',f3')T可以描述如下:
J表示输入图像轮廓点上任意一个轮廓点,j表示输入图像轮廓点上任意一个轮廓点的混合特征向量,上式以混合特征向量空间欧式距离最小为准则建立输入图像轮廓到投影图像轮廓之间的2D-2D点对应关系。
步骤7、基于颜色索引建立输入图像轮廓到空间目标三维模型之间的2D-3D点对应关系。步骤6可以得到输入图像轮廓到投影图像轮廓之间的2D-2D点对应关系,本步骤再以投影图像像素点的RGB颜色值作为索引,找到与之对应的空间目标三维模型的顶点。由此可以建立输入图像轮廓到空间目标三维模型之间的2D-3D点对应关系。
步骤8、基于输入图像轮廓到空间目标三维模型之间的2D-3D点对应关系解算姿态参数。本步骤采用正交迭代算法解决已知2D-3D点对应关系情况下的姿态估计问题,算法的思路是构建三维点到图像点对应视线的距离误差函数,通过迭代地最小化误差函数得到旋转矩阵和平移向量。假设由上文所述建立2D-3D点对应关系的方法可以得到n对2D-3D对应点,xp表示图像平面上的二维点,xv表示物体坐标系下的三维点坐标。则设第i对2D-3D对应点之间的误差可以表示为:
其中xvi是第i对2D-3D对应关系中的三维点在物体坐标系下的三维坐标,是第i个图像二维点的视线投影矩阵,I为单位矩阵,R为旋转矩阵,t为平移向量,定义如下:
xpi是第i对2D-3D对应关系中的三维点在图像平面坐标系下的二维坐标,取优化目标函数为所有2D-3D对应点对的误差平方和:
可以看出优化目标函数是平移向量t的二次函数,因此对于一个给定的旋转矩阵R,平移向量t的最优值可以直接计算得到:
由(6)式可知平移向量t的最优值是旋转矩阵R的函数,则将优化目标函数改写为:
现在优化目标函数只有一个变量即旋转矩阵R,可以求得最优解。可以利用SVD分解迭代地求解旋转矩阵R的最优值。
下面描述利用SVD分解迭代地求解旋转矩阵R的最优值的过程:
为描述方便起见,将三维点在图像点对应视线上的投影点定义为q,则有:
则三维点集{xvi}和{qi(R)}之间的协方差矩阵M(R)为:
其中:
旋转矩阵R可以迭代地计算得到,具体过程如下:首先假设第k’次迭代计算出的旋转矩阵R的值为R(k'),则有:
旋转矩阵R的下一个计算值,R(k'+1),由下式确定:
设(U,S,V)是协方差矩阵M的一个SVD分解,即M=USVT,那么式(14)的解为:
R(k+1)=VUT (15)
最终可以得到优化目标函数的最优解为:
结合利用式(6)确定的平移向量t的最优值,则得到了六自由度的姿态参数。
步骤9、根据终止条件判断是当前输出姿态参数还是进行下一次
迭代计算。为了度量迭代收敛结果的好坏,定义相似度函数为:
其中Cin表示从输入图像提取得到的二值图像,Cpr表示从投影图像提取出的二值图像。area()表示求出二值图像的像素值为1的区域的面积(单位是像素个数),表示异或操作。如果姿态估计结果(当前输出姿态参数)接近目标的真实姿态,那么经过异或操作之后的值应该接近于0。如果Judgement值小于预设阈值或迭代次数超过预设限制,则输出姿态参数作为最终结果;否则进行下一次迭代计算。
可以看出,本发明采用基于轮廓的姿态估计方法属于采用迭代机制来同时确定特征对应关系并估计姿态参数的方法。该方法通过在输入图像轮廓与空间目标三维模型之间建立2D-3D点对应关系,利用基于点特征对应的姿态估计算法迭代地解算姿态参数。现有算法在建立输入图像轮廓与投影图像轮廓之间的2D-2D点对应关系时是采用距离图匹配的方法,即对于投影图像轮廓上的每一个点,选取输入轮廓上与其欧氏距离最近的点作为其匹配点,其在输入图像与投影图像相似度较高时比较适用,但当两者相差较大时,仅利用轮廓点位置信息的距离图匹配方法难以取得好的匹配效果。而本发明采用轮廓点的混合局部特征代替距离图建立2D-3D点对应关系。由于距离图只利用了轮廓点的最基本的位置信息,因此本发明的方法构建更高维的特征向量进行匹配,能够提高对应关系的准确性并且对平移量的影响具有一定的鲁棒性。
现有算法为投影图像上的所有轮廓点都找出输入图像轮廓上的对应点建立2D-2D点对应关系,再通过插值运算将投影图像轮廓点映射到三维空间。该方法计算量大,而且由于涉及插值运算会引入计算误差。为了避免插值运算,本发明选择目标三维模型中给出具有准确三维坐标值的顶点,找到其在输入图像轮廓上的对应点建立2D-3D点对应关系。这样处理可以减少算法的计算量并避免插值运算带来的误差。本发明的实验结果如图2所示。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。
Claims (4)
1.一种基于轮廓点混合特征匹配的空间目标姿态估计方法,其特征在于,包括以下步骤:
步骤1、输入空间目标的三维模型和待估计姿态下所成的单目图像;其中三维模型包含空间目标的顶点坐标以及结构信息,输入的单目图像为灰度图像;
步骤2、根据空间目标的位置姿态确定投影图像;
步骤3、对输入图像和投影图像进行预处理,并提取轮廓;
步骤4、根据投影时的颜色信息对投影图像轮廓点进行筛选;
步骤5、分别构造输入图像轮廓与投影图像轮廓的轮廓点混合特征向量;
步骤6、基于轮廓点的混合特征匹配建立输入图像轮廓和投影图像轮廓之间的2D-2D点对应关系;
步骤7、基于颜色索引建立输入图像轮廓到空间目标三维模型之间的2D-3D点对应关系;
步骤8、基于输入图像轮廓到空间目标三维模型之间的2D-3D点对应关系解算姿态参数;
步骤9、根据终止条件判断是当前输出姿态参数还是返回步骤2进行下一次迭代计算。
2.如权利要求1所述的方法,其特征在于,步骤4中根据投影时的颜色信息对投影图像轮廓点进行筛选时使用三维模型中的顶点三维坐标进行计算。
3.如权利要求1所述的方法,其特征在于,步骤5具体为:轮廓点混合特征由像素点位置和曲率组成,通过式(1)构造轮廓点的混合特征向量:
f=(f1,f2,f3)T=(ω1x,ω2y,ω3k)T (1)
其中,f1,f2,f3表示特征分量,x,y分别表示输入图像轮廓或投影图像轮廓的轮廓点的横、纵坐标,k是轮廓曲线在对应轮廓点处的曲率,ω1,ω2,ω3是权重系数,权重系数的确定方式为:当输入图像轮廓与投影图像轮廓所对应的姿态相差小于或等于一定值时,仅使用轮廓点的横、纵坐标特征建立点对应关系;当输入图像轮廓与投影图像轮廓所对应的姿态相差大于所述一定值时,依靠轮廓点的横、纵坐标和曲率特征建立点对应关系。
4.如权利要求1或2或3所述的方法,其特征在于,步骤6中以混合特征向量空间欧式距离最小为准则建立输入图像轮廓到投影图像轮廓之间的2D-2D点对应关系。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610498801.4A CN106447725B (zh) | 2016-06-29 | 2016-06-29 | 基于轮廓点混合特征匹配的空间目标姿态估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610498801.4A CN106447725B (zh) | 2016-06-29 | 2016-06-29 | 基于轮廓点混合特征匹配的空间目标姿态估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106447725A true CN106447725A (zh) | 2017-02-22 |
CN106447725B CN106447725B (zh) | 2018-02-09 |
Family
ID=58183792
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610498801.4A Active CN106447725B (zh) | 2016-06-29 | 2016-06-29 | 基于轮廓点混合特征匹配的空间目标姿态估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106447725B (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107679537A (zh) * | 2017-05-09 | 2018-02-09 | 北京航空航天大学 | 一种基于轮廓点orb特征匹配的无纹理空间目标姿态估计算法 |
CN109064514A (zh) * | 2018-07-03 | 2018-12-21 | 北京航空航天大学 | 一种基于投影点坐标回归的六自由度位姿估计算法 |
CN109697734A (zh) * | 2018-12-25 | 2019-04-30 | 浙江商汤科技开发有限公司 | 位姿估计方法及装置、电子设备和存储介质 |
CN109827578A (zh) * | 2019-02-25 | 2019-05-31 | 中国人民解放军军事科学院国防科技创新研究院 | 基于轮廓相似性的卫星相对姿态估计方法 |
CN109872343A (zh) * | 2019-02-01 | 2019-06-11 | 视辰信息科技(上海)有限公司 | 弱纹理物体姿态跟踪方法、系统及装置 |
CN109903313A (zh) * | 2019-02-28 | 2019-06-18 | 中国人民解放军国防科技大学 | 一种基于目标三维模型的实时位姿跟踪方法 |
CN110134234A (zh) * | 2019-04-24 | 2019-08-16 | 彼乐智慧科技(北京)有限公司 | 一种三维物体定位的方法及装置 |
CN110390717A (zh) * | 2019-07-02 | 2019-10-29 | 北京字节跳动网络技术有限公司 | 3d模型重建方法、装置及电子设备 |
CN110516684A (zh) * | 2018-05-21 | 2019-11-29 | 北京京东尚科信息技术有限公司 | 用于确定无人机姿态信息的方法和装置 |
CN111750849A (zh) * | 2020-06-05 | 2020-10-09 | 武汉大学 | 多视角下的目标轮廓定位定姿平差方法及系统 |
WO2021036395A1 (zh) * | 2019-08-27 | 2021-03-04 | 杭州群核信息技术有限公司 | Pbr实时渲染材质的转换方法、装置、系统及渲染方法 |
CN113673457A (zh) * | 2021-08-26 | 2021-11-19 | 北京环境特性研究所 | 模拟测量图像处理方法、装置、计算设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101907459A (zh) * | 2010-07-12 | 2010-12-08 | 清华大学 | 基于单目视频的实时三维刚体目标姿态估计与测距方法 |
CN105046251A (zh) * | 2015-08-04 | 2015-11-11 | 中国资源卫星应用中心 | 一种基于环境一号卫星遥感影像的自动正射校正方法 |
-
2016
- 2016-06-29 CN CN201610498801.4A patent/CN106447725B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101907459A (zh) * | 2010-07-12 | 2010-12-08 | 清华大学 | 基于单目视频的实时三维刚体目标姿态估计与测距方法 |
CN105046251A (zh) * | 2015-08-04 | 2015-11-11 | 中国资源卫星应用中心 | 一种基于环境一号卫星遥感影像的自动正射校正方法 |
Non-Patent Citations (2)
Title |
---|
冷大炜,马洪兵,孙卫东: "基于2D-3D泛轮廓点对应的三维刚体目标的迭代姿态估计", 《中国科学院研究生院学报》 * |
冷大炜: "基于单目视觉的三维刚体目标测量技术研究", 《清华大学工学博士学位论文》 * |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107679537A (zh) * | 2017-05-09 | 2018-02-09 | 北京航空航天大学 | 一种基于轮廓点orb特征匹配的无纹理空间目标姿态估计算法 |
CN107679537B (zh) * | 2017-05-09 | 2019-11-19 | 北京航空航天大学 | 一种基于轮廓点orb特征匹配的无纹理空间目标姿态估计算法 |
CN110516684A (zh) * | 2018-05-21 | 2019-11-29 | 北京京东尚科信息技术有限公司 | 用于确定无人机姿态信息的方法和装置 |
CN110516684B (zh) * | 2018-05-21 | 2022-04-12 | 北京京东尚科信息技术有限公司 | 用于确定无人机姿态信息的方法和装置 |
CN109064514A (zh) * | 2018-07-03 | 2018-12-21 | 北京航空航天大学 | 一种基于投影点坐标回归的六自由度位姿估计算法 |
CN109697734A (zh) * | 2018-12-25 | 2019-04-30 | 浙江商汤科技开发有限公司 | 位姿估计方法及装置、电子设备和存储介质 |
CN109697734B (zh) * | 2018-12-25 | 2021-03-09 | 浙江商汤科技开发有限公司 | 位姿估计方法及装置、电子设备和存储介质 |
CN109872343A (zh) * | 2019-02-01 | 2019-06-11 | 视辰信息科技(上海)有限公司 | 弱纹理物体姿态跟踪方法、系统及装置 |
CN109827578A (zh) * | 2019-02-25 | 2019-05-31 | 中国人民解放军军事科学院国防科技创新研究院 | 基于轮廓相似性的卫星相对姿态估计方法 |
CN109827578B (zh) * | 2019-02-25 | 2019-11-22 | 中国人民解放军军事科学院国防科技创新研究院 | 基于轮廓相似性的卫星相对姿态估计方法 |
CN109903313A (zh) * | 2019-02-28 | 2019-06-18 | 中国人民解放军国防科技大学 | 一种基于目标三维模型的实时位姿跟踪方法 |
CN109903313B (zh) * | 2019-02-28 | 2022-04-26 | 中国人民解放军国防科技大学 | 一种基于目标三维模型的实时位姿跟踪方法 |
CN110134234A (zh) * | 2019-04-24 | 2019-08-16 | 彼乐智慧科技(北京)有限公司 | 一种三维物体定位的方法及装置 |
CN110134234B (zh) * | 2019-04-24 | 2022-05-10 | 山东文旅云智能科技有限公司 | 一种三维物体定位的方法及装置 |
CN110390717A (zh) * | 2019-07-02 | 2019-10-29 | 北京字节跳动网络技术有限公司 | 3d模型重建方法、装置及电子设备 |
CN110390717B (zh) * | 2019-07-02 | 2023-03-31 | 北京字节跳动网络技术有限公司 | 3d模型重建方法、装置及电子设备 |
WO2021036395A1 (zh) * | 2019-08-27 | 2021-03-04 | 杭州群核信息技术有限公司 | Pbr实时渲染材质的转换方法、装置、系统及渲染方法 |
CN111750849A (zh) * | 2020-06-05 | 2020-10-09 | 武汉大学 | 多视角下的目标轮廓定位定姿平差方法及系统 |
CN111750849B (zh) * | 2020-06-05 | 2022-02-01 | 武汉大学 | 多视角下的目标轮廓定位定姿平差方法及系统 |
CN113673457A (zh) * | 2021-08-26 | 2021-11-19 | 北京环境特性研究所 | 模拟测量图像处理方法、装置、计算设备及存储介质 |
CN113673457B (zh) * | 2021-08-26 | 2023-06-30 | 北京环境特性研究所 | 模拟测量图像处理方法、装置、计算设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN106447725B (zh) | 2018-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106447725B (zh) | 基于轮廓点混合特征匹配的空间目标姿态估计方法 | |
CN107679537B (zh) | 一种基于轮廓点orb特征匹配的无纹理空间目标姿态估计算法 | |
US8447098B1 (en) | Model-based stereo matching | |
EP2731075B1 (en) | Backfilling points in a point cloud | |
CN104616286B (zh) | 快速的半自动多视图深度修复方法 | |
US8406509B2 (en) | Three-dimensional surface generation method | |
CN103426200B (zh) | 基于无人机航拍序列图像的树木三维重建方法 | |
CN104899563A (zh) | 一种二维人脸关键特征点定位方法及系统 | |
CN101866497A (zh) | 基于双目立体视觉的智能三维人脸重建方法及系统 | |
CN110853151A (zh) | 一种基于视频的三维立体点集恢复方法 | |
CN110070598A (zh) | 用于3d扫描重建的移动终端及其进行3d扫描重建方法 | |
CN105184857A (zh) | 基于点结构光测距的单目视觉重建中尺度因子确定方法 | |
US20030206652A1 (en) | Depth map creation through hypothesis blending in a bayesian framework | |
Jaegle et al. | Fast, robust, continuous monocular egomotion computation | |
CN104200453B (zh) | 基于图像分割和可信度的视差图像校正方法 | |
CN105258680B (zh) | 一种目标位姿测量方法和装置 | |
CN106447763A (zh) | 一种融合稀疏形变模型与主成分回归算法的颜面照片三维重建方法 | |
CN113393524A (zh) | 一种结合深度学习和轮廓点云重建的目标位姿估计方法 | |
CN114332125A (zh) | 点云重建方法、装置、电子设备和存储介质 | |
CN107330930A (zh) | 三维图像深度信息提取方法 | |
CN111197976A (zh) | 一种顾及弱纹理区域多阶段匹配传播的三维重建方法 | |
CN112037282B (zh) | 一种基于关键点以及骨架的飞机姿态估计方法及系统 | |
Coorg | Pose imagery and automated three-dimensional modeling of urban environments | |
CN105931231A (zh) | 一种基于全连接随机场联合能量最小化的立体匹配方法 | |
CN115375816A (zh) | 可微渲染方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |