CN108573500B - 一种直接估计车载相机运动参数的方法 - Google Patents

一种直接估计车载相机运动参数的方法 Download PDF

Info

Publication number
CN108573500B
CN108573500B CN201810373960.0A CN201810373960A CN108573500B CN 108573500 B CN108573500 B CN 108573500B CN 201810373960 A CN201810373960 A CN 201810373960A CN 108573500 B CN108573500 B CN 108573500B
Authority
CN
China
Prior art keywords
image
camera
motion parameters
motion
axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201810373960.0A
Other languages
English (en)
Other versions
CN108573500A (zh
Inventor
袁泽剑
胡本翼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Jiaotong University
Original Assignee
Xian Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Jiaotong University filed Critical Xian Jiaotong University
Priority to CN201810373960.0A priority Critical patent/CN108573500B/zh
Publication of CN108573500A publication Critical patent/CN108573500A/zh
Application granted granted Critical
Publication of CN108573500B publication Critical patent/CN108573500B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种直接估计车载相机运动参数的方法,估算出相机与静态场景之间的相对运动参数。利用几何约束构建的光流向量与运动参数之间的关系,通过引入光度约束将运动参数的求解转换成直接形式,然后对相机的自运动参数进行估计。本发明建立了相机运动与图像的直接模型,直接利用图像的灰度信息求解自运动参数,避免了特征的的选取和跟踪,有效的节省了大量的计算资源。本发明IRLS算法通过反复的迭代加权,对有效信息赋予较大的计算权重,降低了干扰信息对计算结果的影响。本发明通过回溯验证将计算结果作为尺度变换后的初始解,重新开始新一轮迭代并引入判断估算结果正确与否的标准,确保了本发明估算结果的可靠性。

Description

一种直接估计车载相机运动参数的方法
技术领域
本发明属于计算机视觉领域,涉及一种直接估计车载相机运动参数的方法。
背景技术
相机自运动估计即是从相机运动前后的连续视频帧中估计出相机与静态场景之间的相对运动,这是计算机视觉领域的热门研究内容。相机的自运动参数估计在自动驾驶、辅助驾驶、自主导航等领域具有广泛的应用。
如何在充满了大量干扰信息的现实场景中准确估计相机的自运动参数,如何减少运动估计的计算量,这些一直是计算机视觉领域的难题。尽管在过去的几十年里,研究人员开展了大量相关工作的研究,但相机自运动参数的估计仍然是一个十分具有挑战性的难题。
实现运动估计的传统方法主要是光流法,其实现途径是利用图像上能够表征运动形式的特征点,计算对应的光流向量,继而求解隐含的运动参数。然而在实际运用的过程中,特征点的选取和匹配通常要求场景具有丰富且显著的特征,其次繁杂的计算也给传统方法在实际的应用中带来了很大的限制。这些问题至今没有很好的解决办法,因此传统的光流方法在实际应用中受到了很大的限制。
与传统方法不同,八十年代末期Horn首先提出直接方法。直接方法的特点是直接利用前后两帧连续图像本身固有的性质,迭代求解运动参数,不需要额外的场景约束,从而避免了特征点的选取、追踪与光流向量的计算,节省了大量的计算资源。但是这一方法的鲁棒性不强,容易受到外界干扰信息的影响,因此现存方法还很难实现较为准确的自运动参数估计。
发明内容
本发明的目的在于克服上述现有技术的缺点,提供一种直接估计车载相机运动参数的方法,该方法能够估算出相机与静态场景之间的相对运动参数。其输入量是两幅连续帧图像,输出为相机自运动参数的估计值。
为达到上述目的,本发明采用以下技术方案予以实现:
一种直接估计车载相机运动参数的方法,包括以下步骤:
步骤1:根据三维坐标系O(x,y,z)建立运动模型;
步骤2:读入连续帧图像It、It+dt,并对其做适当的尺度变换;
步骤3:对当前帧图像进行仿射变换;
步骤4:计算图像的误差熵Ep和纹理度Tp,确立图像匹配的置信程度;
步骤5:利用IRLS算法迭代求解运动参数,检验估算结果的可靠性;
步骤6:回溯验证;
采用回溯验证的方法,在原尺度图像上进行运算求解自运动参数,并将仿射变换结果与后一帧对比,若结果收敛且两幅图像误差可接受,则认为本次估计可靠;否则,修改迭代次数和阈值,以期得到正确的估算结果。
本发明进一步的改进在于:
步骤1中建立运动模型的具体方法如下:
假设车载相机在静态场景中进行运动,其运动分量包含两部分:平移运动T=(tx,ty,tz)T和旋转运动W=(wx,wy,wz)T,那么每一个像素点p=(x,y)T处的光流向量表示为如下形式:
Figure BDA0001639392470000021
Figure BDA0001639392470000031
其中,u和v分别是光流向量沿着图像x轴和y轴的分量;tx、ty和tz分别相机沿着x轴、y轴和z轴平移的速度,f是成像系统的焦距;z是像素点p=(x,y)T处的景物深度;wx、wy和wz分别相机绕着x轴、y轴和z轴旋转的速度;
引入针孔相机模型求解景物深度的等效表达式,上式简化为如下形式:
Figure BDA0001639392470000032
Figure BDA0001639392470000033
其中,ρ和α分别是相机安装时的俯仰角和航向角;H是相机中心点到道路平面的距离;V是相机沿着主光轴平移的速度;
引入光度约束,得到求解运动参数的直接形式:
Figure BDA0001639392470000034
其中,
Figure BDA0001639392470000035
Figure BDA00016393924700000310
是二维灰度图像It沿着x轴和y轴的梯度,
Figure BDA0001639392470000036
是灰度-时间变化率,du、dv和dt分别是光流向量和时间的微分形式。
步骤4中,误差熵定义如下:
Figure BDA0001639392470000037
其中,Np是一个图像区域中像素点的数目,i,j是下标索引,分别对应图像中第i,j个像素点,Gτ是高斯核函数,It(i)是当前帧第i个像素点的灰度值,
Figure BDA0001639392470000038
是It(i)经过仿射变换之后的图像,It(j)是当前帧第j个像素点的灰度值,
Figure BDA0001639392470000039
是仿射变换后图像第i个像素点的灰度值;
纹理度定义如下:
Figure BDA0001639392470000041
其中,eDp是以Dp为参数的指数函数,Dp是图像的梯度信息,定义如下:
Figure BDA0001639392470000042
其中,β和γ分别用来调整灰度图像沿x轴和y轴的梯度分量在梯度信息中所占的比重大小,
Figure BDA0001639392470000043
Figure BDA0001639392470000044
是二维灰度图像It沿着x轴和y轴的梯度;
计算过程中的权重向量Qp定义如下:
Qp=ε·Ep+σ·Tp
其中,ε和σ是用来调整误差熵和纹理度所占比重的系数。
步骤5中,利用IRLS算法迭代求解运动参数采用以下公式:
Figure BDA0001639392470000045
其中,dw是经过一次计算后得到的运动参数增量,Nr是整个感兴趣区域中像素点的数目,
Figure BDA0001639392470000046
Figure BDA0001639392470000047
是图片在第p点处的梯度,
Figure BDA0001639392470000048
是图片在第p点处的雅各比矩阵,
Figure BDA0001639392470000049
是当前帧仿射变换后的图像与下一帧图像在第p个像素点上的灰度值的差值。
步骤6中,修改迭代次数和阈值的具体方法如下:
若结果不收敛或两幅图像匹配时误差较大,减小检验阈值并增大迭代次数,以期得到正确的估算结果。
与现有技术相比,本发明具有以下有益效果:
本发明以连续帧图像为直接研究对象,引入几何约束和光度约束建立相机运动模型。首先,本发明建立了相机运动与图像的直接模型,直接利用图像的灰度信息求解自运动参数,避免了特征的的选取和跟踪,有效的节省了大量的计算资源。其次,本发明同时选取了误差熵和纹理度作为衡量图像匹配过程中每个像素的置信程度的标准,能真实而有效的反应每个像素对运动估计的贡献情况。本发明IRLS算法通过反复的迭代加权,对有效信息赋予较大的计算权重,降低了干扰信息对计算结果的影响。最后,本发明通过回溯验证将计算结果作为尺度变换后的初始解,重新开始新一轮迭代并引入判断估算结果正确与否的标准,确保了本发明估算结果的可靠性。
附图说明
图1为本发明模型相关变量示意图;
图2为本发明由粗到细的图像金字塔策略示意图;
图3为本发明算法的流程图。
具体实施方式
下面结合附图对本发明做进一步详细描述:
参见图1和图2,本发明旨在估算出相机与静态场景之间的相对运动参数。其输入量是两幅连续帧图像,输出为相机自运动参数的估计值。首先介绍本发明涉及的运动模型:
假设车载相机在静态场景中进行一般运动,其运动分量包含两部分:即平移运动T=(tx,ty,tz)T和旋转运动W=(wx,wy,wz)T,那么每一个像素点p=(x,y)T处的光流向量可表示为如下形式:
Figure BDA0001639392470000051
Figure BDA0001639392470000052
其中,u和v分别是光流向量沿着图像x轴和y轴的分量;f是成像系统的焦距;z是像素点p=(x,y)T处的景物深度。
考虑实际场景,由于车载相机运动的特殊性,我们可以忽略相机的横滚角,进一步的,我们引入针孔相机模型求解景物深度的等效表达式,上式可简化为如下形式:
Figure BDA0001639392470000061
Figure BDA0001639392470000062
其中,ρ和α分别是相机安装时的俯仰角和航向角;H是相机中心点到道路平面的距离。
引入光度约束,我们得到求解运动参数的直接形式:
Figure BDA0001639392470000063
其中,
Figure BDA0001639392470000064
Figure BDA0001639392470000065
是二维灰度图像It沿着x轴和y轴的梯度,
Figure BDA0001639392470000066
是灰度-时间变化率,du、dv和dt分别是光流向量和时间的微分形式。
本发明主要利用几何约束构建的光流向量与运动参数之间的关系,通过引入光度约束将运动参数的求解转换成直接形式,然后对相机的自运动参数进行估计。这就是本发明实现车载相机自运动参数估计的运动模型。
基于上述运动模型,下面介绍本发明估算车载相机自运动参数的具体技术方案。本发明提供一种直接估计车载相机自运动参数的方法,其步骤如下:
步骤一:读入连续帧图像It、It+dt,并对其做适当的尺度变换
引入光度约束的前提条件是相机的运动是小且连续的,但从实际应用的角度出发,我们往往无法保证相机的自运动、环境光照强度等因素满足该假设,这对方法在实际环境中的应用带来了一定的限制。因此我们采用由粗到细的图像金字塔策略对原始图片进行尺寸变换,在已经建立的参数化模型中,运动参数也随之进行相应的变换。通过这样的方式在适当的尺度上求解运动参数,并将结果回溯,使得我们的方法具有一定的普适性。
步骤二:对当前帧图像进行仿射变换
连续两帧图像之前的差异是由相机运动产生的,这其中隐含着相机的运动状态。因此,在已知相机运动参数的情况下,对当前帧图像进行相应的仿射变换,便可绘制出当前帧在已知运动状态的情况下,运动到下一帧时的情形。
步骤三:计算图像的误差熵和纹理度,确立图像匹配的置信程度。
在视频分析的感兴趣区域中,会不可避免的混杂一些无用甚至带来负影响的信息,例如其他机动车辆的遮挡、道路阴影交织的区域、天际线等等。由于这些场景与对应像素的运动关系不符合我们建立的模型,因此直接将这些异常点带入计算势必会导致错误的结果,甚至发散的结果。
因此,建立衡量图像匹配过程中每个像素的置信程度显得至关重要。
在传统方法中,研究人员往往引入均方误差作为衡量图像匹配可靠性的表现。相比传统的均方误差,误差熵更符合不是所有的随机误差都具有相同的随机程度这一事实。因此我们引用误差熵判别规则替代均方误差,误差熵定义如下:
Figure BDA0001639392470000071
其中,Np是一个图像区域中像素点的数目,Gτ是高斯核函数,
Figure BDA0001639392470000072
是It(i)经过仿射变换之后的图像。
在实际情况中,视频帧中可能出现的纯色区域,例如道路的阴影等,会使图像在仿射变换后的误差熵达到最小,从而对结果造成意外的影响,因此我们引入纹理度这一标准去衡量目标图片所含特征的多少。
Figure BDA0001639392470000081
其中,Dp是图像的梯度信息,定义如下:
Figure BDA0001639392470000082
其中,β和γ分别用来调整灰度图像沿x轴和y轴的梯度分量在梯度信息中所占的比重大小。
最终,计算过程中的权重向量定义如下:
Qp=ε·Ep+σ·Tp
其中,ε和σ是用来调整误差熵和纹理度所占比重的系数。
步骤四:利用IRLS算法迭代求解运动参数,检验估算结果的可靠性。
本发明采用迭代重复加权最小二乘(Iteratively Reweighted Least Squares,IRLS)算法来估算公式中的模型,即拟合相机的运动参数。IRLS的核心思想是对每一组约束方程赋予相应的权重,每次根据计算结果的置信程度来不断改变方程对应的权重,使得计算中可信的数据较无效的数据具有更大的权重,从而减弱干扰信息的影响。
Figure BDA0001639392470000083
步骤五:回溯验证;
通过迭代重加权的方式,大部分干扰信息已基本得到排除,如果本次相机自运动参数估计可靠,那么将图片缩放回原尺度时,在已得参数上进行迭代求解的结果应该是收敛的,且仿射变换的结果应与后一帧的结果基本相符。因此,采用回溯验证的方法,在原尺度图像上进行运算求解自运动参数,并将仿射变换结果与后一帧对比,若结果收敛且两幅图像误差可接受,则认为本次估计可靠;否则,适当修改迭代次数和阈值,以期得到正确的估算结果。
实施例:
本实施例是在Matlab R2014a语言环境下实现的。首先通过计算机读入连续帧图像,利用运动参数对当前帧图像作仿射变换,并与下一帧对比求解每个像素点的置信程度,再反复迭代求解合适的运动参数,最终通过回溯验证得到最优估计值。
如图3的流程图所示,本实施例提供一种直接估计车载相机自运动参数的方法,包括以下步骤:
步骤一:读入连续帧图像It、It+dt,并对其做适当的尺度变换
(1)在Matlab R2014a语言环境下读入连续帧图像It和It+dt
(2)调用系统函数将图像缩放至合适的尺寸。
步骤二:对当前帧图像进行仿射变换
(1)对当前帧图像的感兴趣区域建立坐标网格;
(2)依据公式计算出在当前运动参数的基础上,仿射变换后每个像素对应的位置;
(3)以变换后的坐标位置为基础进行插值,便可得到仿射后的图像。
步骤三:计算图像的误差熵和纹理度,确立图像的置信程度。
(1)将图像的感兴趣区域化成一个个比较小的子区域,以便后续分析计算。本实施例中将感兴趣区域划分成尺寸大小为20×20,共计42个子区域,每个子区域中的像素点具有相同的置信程度和权重。
(2)依据公式计算每个子区域的误差熵和纹理度,从而得到每个子区域对应的计算权重。
步骤四:利用IRLS算法迭代求解运动参数,检验估算结果的可靠性。
(1)由于IRLS算法可以有效的避开干扰项对拟合效果的影响,因此本实施例采用IRLS来求解自运动参数;
(2)每次迭代开始时,重新计算子区域的误差熵和纹理度,并以此为依据修改权重;
(3)迭代过程中,若仿射变换后的图像与后一帧的差值程度小于阈值δ,或者达到最大迭代次数m,即可跳出迭代。实验中我们设定δ=0.1,m=50。
步骤五:回溯验证;
本实施例中采用回溯验证来检验此次运动估计的可靠性。若运动结果可靠,那么以此时的结果作为初始值,在原尺度图像上进行迭代计算的结果必定是收敛且可靠的。否则,通过适当调整阈值来使得估计可靠。
本实施例的准确性和有效性已经通过合成数据集和真实数据集进行了验证,取得了很好的估计效果。实验结果显示本实施例中的方法能够在充满干扰信息的情况下给出准确的自运动参数估计结果,具有广阔的应用前景和价值。
以上内容仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明权利要求书的保护范围之内。

Claims (4)

1.一种直接估计车载相机运动参数的方法,其特征在于,包括以下步骤:
步骤1:根据三维坐标系O(x,y,z)建立运动模型;
步骤2:读入连续帧图像It、It+dt,并对其做适当的尺度变换;
步骤3:对当前帧图像进行仿射变换;
步骤4:计算图像的误差熵Ep和纹理度Tp,确立图像匹配的置信程度;误差熵定义如下:
Figure FDA0002448460340000011
其中,Np是一个图像区域中像素点的数目,i,j是下标索引,分别对应图像中第i,j个像素点,Gτ是高斯核函数,It(i)是当前帧第i个像素点的灰度值,
Figure FDA0002448460340000012
是仿射变换后图像第i个像素点的灰度值,It(j)是当前帧第j个像素点的灰度值,
Figure FDA0002448460340000013
是仿射变换后图像第j个像素点的灰度值;
纹理度定义如下:
Figure FDA0002448460340000014
其中,eDp是以自然底数e为底,Dp为指数的指数函数;Dp是图像的梯度信息,定义如下:
Figure FDA0002448460340000015
其中,β和γ分别用来调整灰度图像沿x轴和y轴的梯度分量在梯度信息中所占的比重大小,
Figure FDA0002448460340000016
Figure FDA0002448460340000017
是二维灰度图像It沿着x轴和y轴的梯度;
计算过程中的权重向量Qp定义如下:
Qp=ε·Ep+σ·Tp
其中,ε和σ是用来调整误差熵和纹理度所占比重的系数;
步骤5:利用IRLS算法迭代求解运动参数,检验估算结果的可靠性;
步骤6:回溯验证;
采用回溯验证的方法,在原尺度图像上进行运算求解自运动参数,并将仿射变换结果与后一帧对比,若结果收敛且两幅图像误差可接受,则认为本次估计可靠;否则,修改迭代次数和阈值,以期得到正确的估算结果。
2.根据权利要求1所述的直接估计车载相机运动参数的方法,其特征在于,步骤1中建立运动模型的具体方法如下:
假设车载相机在静态场景中进行运动,其运动分量包含两部分:平移运动T=(tx,ty,tz)T和旋转运动W=(wx,wy,wz)T,那么每一个像素点p=(x,y)T处的光流向量表示为如下形式:
Figure FDA0002448460340000021
Figure FDA0002448460340000022
其中,u和v分别是光流向量沿着图像x轴和y轴的分量;tx、ty和tz分别相机沿着x轴、y轴和z轴平移的速度,f是成像系统的焦距;z是像素点p=(x,y)T处的景物深度;wx、wy和wz分别相机绕着x轴、y轴和z轴旋转的速度;
引入针孔相机模型求解景物深度的等效表达式,上式简化为如下形式:
Figure FDA0002448460340000023
Figure FDA0002448460340000024
其中,ρ和α分别是相机安装时的俯仰角和航向角;H是相机中心点到道路平面的距离;V是相机沿着主光轴平移的速度;
引入光度约束,得到求解运动参数的直接形式:
Figure FDA0002448460340000031
其中,
Figure FDA0002448460340000032
Figure FDA0002448460340000033
是二维灰度图像It沿着x轴和y轴的梯度,
Figure FDA0002448460340000034
是灰度-时间变化率,du、dv和dt分别是光流向量和时间的微分形式。
3.根据权利要求1所述的直接估计车载相机运动参数的方法,其特征在于,步骤5中,利用IRLS算法迭代求解运动参数采用以下公式:
Figure FDA0002448460340000035
其中,dw是经过一次计算后得到的运动参数增量,Nr是整个感兴趣区域中像素点的数目,
Figure FDA0002448460340000036
Figure FDA0002448460340000037
是图片在第p点处的梯度,
Figure FDA0002448460340000038
是图片在第p点处的雅各比矩阵,
Figure FDA0002448460340000039
是当前帧仿射变换后的图像与下一帧图像在第p个像素点上的灰度值的差值。
4.根据权利要求1所述的直接估计车载相机运动参数的方法,其特征在于,步骤6中,修改迭代次数和阈值的具体方法如下:
若结果不收敛或两幅图像匹配时误差较大,减小检验阈值并增大迭代次数,以期得到正确的估算结果。
CN201810373960.0A 2018-04-24 2018-04-24 一种直接估计车载相机运动参数的方法 Expired - Fee Related CN108573500B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810373960.0A CN108573500B (zh) 2018-04-24 2018-04-24 一种直接估计车载相机运动参数的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810373960.0A CN108573500B (zh) 2018-04-24 2018-04-24 一种直接估计车载相机运动参数的方法

Publications (2)

Publication Number Publication Date
CN108573500A CN108573500A (zh) 2018-09-25
CN108573500B true CN108573500B (zh) 2020-07-28

Family

ID=63575236

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810373960.0A Expired - Fee Related CN108573500B (zh) 2018-04-24 2018-04-24 一种直接估计车载相机运动参数的方法

Country Status (1)

Country Link
CN (1) CN108573500B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111144441B (zh) * 2019-12-03 2023-08-08 东南大学 一种基于特征匹配的dso光度参数估计方法及装置
CN113470342B (zh) * 2020-03-30 2023-04-07 华为技术有限公司 一种自运动估计的方法及装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103310464B (zh) * 2013-06-26 2016-04-06 北京航空航天大学 一种基于法向流的直接估算相机自运动参数的方法
CN107610175A (zh) * 2017-08-04 2018-01-19 华南理工大学 基于半直接法和滑动窗口优化的单目视觉slam算法

Also Published As

Publication number Publication date
CN108573500A (zh) 2018-09-25

Similar Documents

Publication Publication Date Title
Tremblay et al. Rain rendering for evaluating and improving robustness to bad weather
CN113111974B (zh) 基于深度典型相关分析的视觉-激光雷达融合方法及系统
Galvin et al. Recovering Motion Fields: An Evaluation of Eight Optical Flow Algorithms.
CN110070598B (zh) 用于3d扫描重建的移动终端及其进行3d扫描重建方法
CN110517306B (zh) 一种基于深度学习的双目深度视觉估计的方法和系统
CN114565655B (zh) 一种基于金字塔分割注意力的深度估计方法及装置
CN104869387A (zh) 基于光流法的双目图像最大视差获取方法
CN113052109A (zh) 一种3d目标检测系统及其3d目标检测方法
JP7173471B2 (ja) 3次元位置推定装置及びプログラム
CN111798485B (zh) 一种利用imu增强的事件相机光流估计方法及系统
CN112819853B (zh) 一种基于语义先验的视觉里程计方法
EP3903232A1 (en) Realistic sensor simulation and probabilistic measurement correction
CN111709307B (zh) 一种基于分辨率增强的遥感图像小目标检测方法
CN108573500B (zh) 一种直接估计车载相机运动参数的方法
EP3185212B1 (en) Dynamic particle filter parameterization
US20220327730A1 (en) Method for training neural network, system for training neural network, and neural network
CN112233179A (zh) 一种视觉里程计测量方法
CN113762267A (zh) 一种基于语义关联的多尺度双目立体匹配方法及装置
CN117274515A (zh) 基于ORB和NeRF映射的视觉SLAM方法及系统
CN115035171A (zh) 基于自注意力导向特征融合的自监督单目深度估计方法
CN106097277A (zh) 一种基于视觉测量的绳索物质点跟踪方法
CN111369435A (zh) 基于自适应稳定模型的彩色图像深度上采样方法及系统
CN113256711B (zh) 一种单目相机的位姿估计方法及系统
Ren et al. Self-calibration method of gyroscope and camera in video stabilization
Olszewski HashCC: Lightweight Method to Improve the Quality of the Camera-less NeRF Scene Generation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20200728

CF01 Termination of patent right due to non-payment of annual fee