CN117532604B - 一种基于立体视觉的目标位姿及高阶运动信息观测方法 - Google Patents
一种基于立体视觉的目标位姿及高阶运动信息观测方法 Download PDFInfo
- Publication number
- CN117532604B CN117532604B CN202311479277.2A CN202311479277A CN117532604B CN 117532604 B CN117532604 B CN 117532604B CN 202311479277 A CN202311479277 A CN 202311479277A CN 117532604 B CN117532604 B CN 117532604B
- Authority
- CN
- China
- Prior art keywords
- target
- observation
- error
- line segment
- establishing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 230000001133 acceleration Effects 0.000 claims abstract description 22
- 238000004364 calculation method Methods 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 claims description 8
- 230000003247 decreasing effect Effects 0.000 claims description 4
- 238000012938 design process Methods 0.000 claims description 3
- 238000012905 input function Methods 0.000 claims description 3
- 230000001360 synchronised effect Effects 0.000 abstract description 5
- 230000003068 static effect Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 4
- 238000001914 filtration Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011217 control strategy Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/11—Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
- G06F17/13—Differential equations
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Operations Research (AREA)
- Algebra (AREA)
- Automation & Control Theory (AREA)
- Databases & Information Systems (AREA)
- Robotics (AREA)
- General Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
一种基于立体视觉的目标位姿及高阶运动信息观测方法,所述方法包括基于立体视觉获取目标特征点的三维空间坐标信息;根据特征点建立目标的稀疏特征线段模型,并建立观测误差模型;根据高阶微分器求解特征点、稀疏特征线段和观测误差的高阶导数,并建立惩罚函数;设计基于惩罚函数的运动参数观测器,并输出最优解。本发明可解决纯视觉条件下目标位姿及其高阶运动参数的同步观测问题,可同步观测到目标的位姿、速度和加速度信息。本发明方法具有观测维度深、观测精度高和收敛速度快的优点。
Description
技术领域
本发明属于机器人控制技术领域,具体涉及一种基于立体视觉的目标位姿及高阶运动信息观测方法。
背景技术
目标的位姿及运动信息观测是目标识别领域中的一个重要问题。迄今为止,目标的位姿估计问题得到了广泛研究,而目标的各阶次运动信息(位姿及其速度、加速度)的同步观测仍是一个开放性的问题。需要注意的是,很多操作任务面对的都是动态目标,而现有的位姿估计方法大多是针对静态目标的位姿观测,尚未触及动态目标的动力学本质属性。
在面向动态目标的操作任务中,操作机械臂需要根据目标的实时位姿、速度和加速度信息来预测其运动轨迹并制定控制策略,从而执行操作任务。因此,目标的位姿及其高阶运动信息观测对于动态操作任务来说是一项非常重要的、潜在的通用共性技术,对提升操作机械臂的操作精度和可靠性将起到关键性作用。尽管目前已有一些对运动目标运动估计的研究,但其算法架构大多是以位姿和角速度为观测变量的滤波估计模型,包括卡尔曼滤波、迭代扩展卡尔曼滤波等。这些算法架构并非在严格动力学原理下建立,而是一种基于多传感器(视觉、IMU)融合的滤波估计模型,且其仅观测目标的一阶速度信息。纯视觉条件下目标位姿及其高阶运动信息的同步观测问题尚未得到彻底解决。
发明内容
本发明为克服现有技术不足,提出一种基于立体视觉的目标位姿及高阶运动信息观测方法,该方法可解决纯视觉条件下目标位姿及其高阶运动信息的同步观测问题,可同步观测到目标的位姿、速度和加速度信息。该方法具有观测维度深、观测精度高和收敛速度快的优点。
一种基于立体视觉的目标位姿及高阶运动信息观测方法包括如下:
S1、基于立体视觉获取目标特征点的三维空间坐标信息;
S2、根据特征点建立目标的特征线段模型,并建立观测误差模型;
S3、根据高阶微分器求解特征点、特征线段和观测误差的高阶导数,并建立惩罚函数;
S4、设计基于惩罚函数的运动参数观测器,并输出最优解。
进一步地,所述步骤S1中获取N对特征点在绝对坐标系下的空间坐标,以及N对特征点在目标坐标系下的空间坐标,每对特征点包含2个特征点。
进一步地,步骤S2中2个特征点之间的空间距离为一个特征线段,N个特征线段的集合构成了所述目标的特征线段模型C和T,C表示特征线段模型在绝对坐标系下的描述,T表示特征线段模型在目标坐标系下的描述,C={Ci},Ci为第i个特征线段在绝对坐标系下的描述,T={Ti},i=1,2,...N,Ti为第i个特征线段在目标坐标系下的描述;建立观测误差模型eC=F(Φ)-C,其中F(Φ)={Fi(Φ)},F(Φ)表示根据欧拉角观测值求出的特征线段,Fi(Φ)表示根据欧拉角观测值求出的第i个特征线段,R(Φ)表示旋转矩阵,Φ为待观测目标的欧拉角。
进一步地,步骤S3中所述高阶微分器设计过程为:
S31、根据微分器输出建立误差函数,首先定义是一个与时间t有关的有界且可导的输入函数,微分器的输出为信号的估计值/>和一阶导数估计值/>则误差函数定义为/>
S32、根据误差函数建立误差的长短期计算模型∈为待设计参数;
S33、根据误差的长短期计算模型建立误差积分项h,h满足表达式式中λ,γ为待设计参数;
S34、根据误差的长短期计算模型、误差积分项建立微分器,其表达式为:
其中,n1、n2、m1、m2为待设计的参数,erf(·)为高斯误差函数,是随时间单调递减的函数,/>ρ,ξ>0为待设计参数;
采用第一个微分器中步骤S34的输出信号作为下一个微分器中步骤S31的输入信号,重复步骤S31-S34,获得信号x的高阶导数,生成高阶微分器。
进一步地,步骤S4中设计的基于惩罚函数的运动参数观测器的状态空间方程为:
式中,Y1=Φ,Y2=Φ(1),Y3=Φ(2),分别表示待观测目标的欧拉角,欧拉角变化速度,欧拉角变化加速度;Z表示惩罚函数; C表示特征线段模型,/>为雅可比矩阵,为雅可比矩阵的左伪逆矩阵,/>ι为待设计的参数。
本发明相比现有技术的有益效果是:
一、与现有大多数面向静态目标的位姿估计算法不同,本发明是面向动态目标的位姿及高阶运动信息观测算法,既能用于对运动目标的位姿及高阶运动信息观测,也能用于对静态目标的位姿估计。
二、传统的运动估计方法多是基于多传感器(视觉+IMU)融合的滤波估计模型,且仅观测到目标的速度信息。与传统方法相比,本发明基于立体视觉,即可实现对目标位姿、速度和加速度等高阶运动参数的实时同步观测,具有观测维度更深(加速度级)、收敛速度更快(<1s)、观测精度更高的优点。
三、本发明以目标动力学原理为基础,仅根据目标的特征点空间坐标信息即可实现对目标的位姿及高阶运动信息观测,因此,其应用具有通用性和可拓展性,适用于立体相机、运动捕捉系统等可获取特征点信息的任意测量系统。
附图说明
图1为本发明基于立体视觉的目标位姿及高阶运动信息观测方法的流程图;
图2为本发明中高阶微分器的实现流程图;
图3为实施例1中利用本发明方法求解动态目标位姿及高阶运动信息时所得到的观测结果图;
图4为实施例1中利用本发明方法求解动态目标位姿及高阶运动信息时所得到的观测误差图;
图5为实施例2中利用本发明方法求解静态目标位姿时所得到的观测结果图;
图6为实施例2中利用本发明方法求解静态目标位姿时所得到的观测误差图;
上述图中,x,y,z分别表示绝对坐标系的3个坐标轴。
具体实施方式
下面将结合附图对本发明技术方案的实施例进行详细的描述。除非另有说明,本申请使用的技术术语或者科学术语应当为本发明所属领域技术人员所理解的通常意义。
参见图1所示,一种基于立体视觉的目标位姿及高阶运动信息观测方法包含如下:
S1、基于立体视觉获取目标特征点的三维空间坐标信息;
S2、根据特征点建立目标的特征线段模型,并建立观测误差模型;
S3、根据高阶微分器求解特征点、特征线段和观测误差的高阶导数,并建立惩罚函数;
S4、设计基于惩罚函数的运动参数观测器,并输出最优解。
具体地,所述步骤S1中通过双目相机或RGB-D相机或者能获取目标特征点空间坐标信息的任意测量系统获得N对特征点在绝对坐标系下的空间坐标,以及N对特征点在目标坐标系下的空间坐标,每对特征点包含2个特征点。
进一步地,步骤S2中2个特征点之间的空间距离为一个特征线段,N个特征线段的集合构成了所述目标的特征线段模型C和T,C表示在绝对坐标系下描述的特征线段模型,T表示在目标坐标系下描述的特征线段模型,C={Ci},Ci为第i个特征线段在绝对坐标系下的描述,T={Ti},i=1,2,...N,Ti为第i个特征线段在目标坐标系下的描述。建立观测误差模型eC=F(Φ)-C,其中F(Φ)={Fi(Φ)},F(Φ)表示根据欧拉角观测值求出的特征线段,Fi(Φ)表示根据欧拉角观测值求出的第i个特征线段,R(Φ)表示旋转矩阵,Φ为待观测目标的欧拉角,具体是目标绕绝对坐标系x,y,z三个坐标轴旋转的角度。
通过建立特征线段的方式可以在一定程度上固化目标的几何特征和运动特征,且减小算法的计算量。
进一步地,如图2所示,步骤S3中所述高阶微分器设计过程为:
S31、根据微分器输出建立误差函数,首先定义是一个与时间t有关的有界且可导的输入函数,微分器的输出为信号的估计值/>和一阶导数估计值/>则误差函数定义为/>
S32、根据误差函数建立误差的长短期计算模型∈为待设计参数;综合考虑误差的长期、短期影响,可以有效地提高微分器的估计精度和稳定性;
S33、根据误差的长短期计算模型建立误差积分项h,h满足表达式式中λ,γ为待设计参数;误差积分项h的引入可以有效地增强微分器对噪声的鲁棒性;
S34、根据误差的长短期计算模型、误差积分项建立微分器,其表达式为:
其中,n1、n2、m1、m2为待设计的参数,erf(·)为高斯误差函数,是随时间单调递减的函数,/>ρ,ξ>0为待设计参数;/>项通过单调递减函数/>可以有效缓解未建模项和误差项所引发的扰动干涉问题。
采用第一个微分器中步骤S34的输出信号作为下一个微分器中步骤S31的输入信号,重复步骤S31-S34,获得信号x的高阶导数,生成高阶微分器。
进一步地,步骤S3中求解的特征点、特征线段和观测误差的高阶导数分别为P(k),C(k)和E(k),式中k=0,1,2,3,其中,P,P(1)和P(2)代表了目标特征点的平移运动信息(位置、速度和加速度)。
具体地,步骤S3中建立的惩罚函数其中,/>为表示观测误差的积分,λ0,λ1,λ2>0,λ0,λ1,λ2是待设计参数,/>综合考虑系统的观测误差、误差累积量和瞬时变化量,本步骤中,惩罚函数Z考虑误差的累积量能有助于提升系统观测精度,考虑误差的瞬时变化量有助于加强观测器运行的稳定性。
基于上述,步骤S4中设计的基于惩罚函数的运动参数观测器的状态空间方程为:
式中,Y1=Φ,Y2=Φ(1),Y3=Φ(2),分别表示目标的欧拉角,欧拉角变化速度,欧拉角变化加速度,Z表示惩罚函数;
为雅克比矩阵,/>为雅可比矩阵的左伪逆矩阵。C表示在绝对坐标系下描述的特征线段模型;F(Y1)表示根据欧拉角观测值求出的特征线段模型,C(k)表示特征线段的k阶微分,ι为待设计的参数。
在本步骤中,该运动参数观测器可以实时输出收敛速度快、观测精度高的最优解,包含欧拉角Φ、欧拉角变化速度Φ(1)和欧拉角变化加速度Φ(2)。
下面以实施例对本申请内容作进一步阐述:
实施例1,本实施例是利用本发明来观测运动目标的位姿及高阶运动信息:
步骤一:为了模拟出目标在三维空间中的状态,以目标的平移运动轨迹P(t)=[100sin(0.5t)+20co s(t);180cos(0.2t);80sin(0.25t)]r(mm),旋转运动轨迹Φ(t)=[10sin(0.1t)+cos(0.5t);15sin(0.3t);12sin(0.05t)]T(°)为例说明,模拟选定目标上的2对特征点(也就是4个不同线特征点),则可根据P(t)和Φ(t)计算出2对特征点在绝对坐标系下的空间坐标,以及2对特征点在目标坐标系下的空间坐标。
在实际应用中,本步骤中的特征点空间坐标是根据立体相机或其它能获取目标特征点信息的测量系统获取的(通过立体相机采集到图片,然后基于现有技术特征点识别算法识别出图片中目标上的特征点,获得特征点在相机坐标系下的描述,再基于现有相机标定技术获得相机坐标系与绝对坐标系之间的关系,进而可以获得特征点在绝对坐标系下的描述,上述设定轨迹仅是为了说明本发明的实施例,本步骤只为获取特征点的空间坐标信息;
步骤二:建立目标的特征线段模型其中Ci为第i个特征线段在绝对坐标系下描述,其中Ti为第i个特征线段在目标坐标系下描述。并建立系统的观测误差模型为eC=F(Φ)-C,其中/>Φ为待观测的欧拉角(目标绕绝对坐标系x,y,z三个坐标轴旋转的角度)。
步骤三:根据高阶微分器求出特征点、特征线段和观测误差的高阶导数分别为P(k),C(k)和E(k),k=0,1,2,3,其中,其中,P,P(1)和P(2)代表了目标特征点的平移运动信息(位置、速度和加速度)。在此步骤中,选取的微分器参数为:λ=n1=n2=1,γ=0.01,m1=m2=∈=60,ρ=300,ξ=0.001;
综合考虑系统的观测误差、误差累积量和瞬时变化量,建立了惩罚函数其中,/>本步骤中,选取的参数为λ0=4096,λ1=768,λ2=48;
步骤四:设计基于惩罚函数的运动参数观测器,其状态空间方程如下:
式中,Y1=Φ,Y2=Φ(1),Y3=Φ(2), 选取ι=0.001。
在本步骤中,运动参数观测器可以实时输出收敛速度快、观测精度高的最优解,包含欧拉角Φ、欧拉角变化速度Φ(1)和欧拉角变化加速度Φ(2)。
经过上述步骤,得到动态目标的位姿及高阶运动参数的观测结果和观测误差如图3和图4所示,包含了目标的位置、速度、加速度、欧拉角、欧拉角变化速度和欧拉角变化加速度。从图3和图4中可以看出,本发明可以迅速、高精度的观测到目标真实的位姿及高阶运动信息,包含目标的位姿(位置/姿态)、速度(速度/欧拉角变化速度)和加速度(加速度/欧拉角变化加速度)信息,具有观测维度深(能观测到加速度)、收敛速度快(<1s)和观测精度高(如图4所示)的优势。且由于本发明仅根据目标特征点的空间坐标即可即可观测到目标的位姿及高阶运动信息,因此其可以仅采用如视觉传感器获取目标的特征点空间坐标,还比如:RGB-D相机、双目相机等。同时本发明也能应用到其他能够定位目标特征点的测量系统中,比如运动捕捉系统。
实施例2,本实施例是利用本发明来观测静态目标的位姿信息。
步骤一:为了模拟出目标在三维空间中的状态,以目标的空间位置P(t)=[500428 320]T(mm)和姿态Φ(t)=[18 -16 5]T(°)为例。模拟选定目标上的2对特征点(也就是4个不同线特征点),则可根据P(t)和Φ(t)计算出2对特征点在绝对坐标系下的空间坐标,以及2对特征点在目标坐标系下的空间坐标。
在实际应用中,本步骤中的特征点空间坐标是根据立体相机或其它能获取目标特征点信息的测量系统来实时获取的,上述设定轨迹仅是为了说明本发明的实施例。
步骤二:建立目标的特征线段模型其中Ci为第i个特征线段在绝对坐标系下描述,其中Ti为第i个特征线段在目标坐标系下描述。并建立系统的观测误差模型为eC=F(Φ)-C,其中/>Φ为待观测的欧拉角,是指目标绕绝对坐标系x,y,z三个坐标轴旋转的角度。
步骤三:根据高阶微分器求出特征点、特征线段和观测误差的高阶导数分别为P(k),C(k)和E(k),k=0,1,2,3,其中,其中,P,P(1)和P(2)代表了目标特征点的平移运动信息(位置、速度和加速度)。在此步骤中,选取的微分器参数为:λ=n1=n2=1,γ=0.01,m1=m2=∈=60,ρ=300,ξ=0.001;
综合考虑系统的观测误差、误差累积量和瞬时变化量,建立了惩罚函数其中,/>本步骤中,选取的参数为λ0=4096,λ1=768,λ2=48;
步骤四:设计基于惩罚函数的运动参数观测器,其状态空间方程如下:
式中,Y1=Φ,Y2=Φ(1),Y3=Φ(2), 选取ι=0.001。
在本步骤中,运动参数观测器可以实时输出收敛速度快、观测精度高的最优解,包含欧拉角Φ欧拉角变化速度Φ(1)和欧拉角变化加速度Φ(2)。
经过上述步骤,得到静态目标的位姿观测结果和观测误差如图5和图6所示,包含了目标的位置和欧拉角,其余的速度、加速度信息均收敛至0。从图5和图6中可以看出,本发明可以迅速、高精度的观测到目标真实位姿值,其收敛时间<1s,位置观测误差均为10-5数量级。
本发明已以较佳实施案例揭示如上,然而并非用以限定本发明,任何熟悉本专业的技术人员,在不脱离本发明技术方案范围内,当可以利用上述揭示的结构及技术内容做出些许的更动或修饰为等同变化的等效实施案例,均仍属本发明技术方案范围。
Claims (6)
1.一种基于立体视觉的目标位姿及高阶运动信息观测方法,其特征在于:包括如下步骤:
S1、基于立体视觉获取目标特征点的三维空间坐标信息;
步骤S1中获取N对特征点在绝对坐标系下的空间坐标,以及N对特征点在目标坐标系下的空间坐标,每对特征点包含2个特征点;
S2、根据特征点建立目标的特征线段模型,并建立观测误差模型;
步骤S2中2个特征点之间的空间距离为一个特征线段,N个特征线段的集合构成了所述目标的特征线段模型C和T,C和T分别表示在绝对坐标系下描述的特征线段模型和在目标坐标系下描述的特征线段模型,C={Ci},T={Ti},i=1,2,…N,其中Ci为第i个特征线段在绝对坐标系下的描述,Ti为第i个特征线段在目标坐标系下的描述,并建立观测误差模型eC=F(Φ)-C,其中F(Φ)={Fi(Φ)},F(Φ)表示根据欧拉角观测值求出的特征线段,Fi(Φ)表示根据欧拉角观测值求出的第i个特征线段,R(Φ)表示旋转矩阵,Φ为待观测目标的欧拉角;
S3、根据高阶微分器求解特征点、特征线段和观测误差的高阶导数,并建立惩罚函数;
S4、设计基于惩罚函数的运动参数观测器,并输出最优解。
2.根据权利要求1所述一种基于立体视觉的目标位姿及高阶运动信息观测方法,其特征在于:步骤S3中所述高阶微分器设计过程为:
S31、根据微分器输出建立误差函数,首先定义是一个与时间t有关的有界且可导的输入函数,微分器的输出为信号的估计值/>和一阶导数估计值/>则误差函数定义为
S32、根据误差函数建立误差的长短期计算模型∈为待设计参数;
S33、根据误差的长短期计算模型建立误差积分项h,h满足表达式 式中λ,γ为待设计参数;
S34、根据误差的长短期计算模型、误差积分项建立微分器,其表达式为:
其中,n1、n2、m1、m2为待设计的参数,erf(·)为高斯误差函数,是随时间单调递减的函数,/> ρ,ξ>0为待设计参数;
采用第一个微分器中步骤S34的输出信号作为下一个微分器中步骤S31的输入信号,重复步骤S31-S34,获得信号x的高阶导数,生成高阶微分器。
3.根据权利要求1所述一种基于立体视觉的目标位姿及高阶运动信息观测方法,其特征在于:
步骤S3中求解的特征点、特征线段和观测误差的高阶导数分别为P(k),C(k)和E(k),式中k=0,1,2,3。
4.根据权利要求3所述一种基于立体视觉的目标位姿及高阶运动信息观测方法,其特征在于:步骤S3中建立的惩罚函数其中,/> 表示观测误差的积分,λ0,λ1,λ2>0,/>λ0,λ1,λ2是待设计参数。
5.根据权利要求1或4所述一种基于立体视觉的目标位姿及高阶运动信息观测方法,其特征在于:步骤S4中设计的基于惩罚函数的动力学参数观测器的状态空间方程为:
式中,Y1=Φ,Y2=Φ(1),Y3=Φ(2),分别表示目标的欧拉角,欧拉角变化速度,欧拉角变化加速度,Z表示惩罚函数;
为雅克比矩阵,/>为雅可比矩阵的左伪逆矩阵,ι为待设计的参数。
6.根据权利要求1所述一种基于立体视觉的目标位姿及高阶运动信息观测方法,其特征在于:所述步骤S1中所述基于立体视觉获取是通过双目相机或RGB-D相机获取。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311479277.2A CN117532604B (zh) | 2023-11-08 | 2023-11-08 | 一种基于立体视觉的目标位姿及高阶运动信息观测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311479277.2A CN117532604B (zh) | 2023-11-08 | 2023-11-08 | 一种基于立体视觉的目标位姿及高阶运动信息观测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117532604A CN117532604A (zh) | 2024-02-09 |
CN117532604B true CN117532604B (zh) | 2024-05-10 |
Family
ID=89785304
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311479277.2A Active CN117532604B (zh) | 2023-11-08 | 2023-11-08 | 一种基于立体视觉的目标位姿及高阶运动信息观测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117532604B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102567989A (zh) * | 2011-11-30 | 2012-07-11 | 重庆大学 | 基于双目立体视觉的空间定位方法 |
CN103033189A (zh) * | 2012-12-26 | 2013-04-10 | 北京航空航天大学 | 一种深空探测巡视器惯性/视觉组合导航方法 |
CN103400392A (zh) * | 2013-08-19 | 2013-11-20 | 山东鲁能智能技术有限公司 | 基于变电站巡检机器人的双目视觉导航系统及方法 |
CN103559711A (zh) * | 2013-11-05 | 2014-02-05 | 余洪山 | 基于三维视觉系统图像特征和三维信息的运动估计方法 |
CN104359461A (zh) * | 2014-11-06 | 2015-02-18 | 中国人民解放军装备学院 | 一种可变结构的双目视觉测量系统及参数确定方法 |
CN116342661A (zh) * | 2023-04-13 | 2023-06-27 | 东南大学 | 利用路标点偏置位姿修正的双目视觉惯性里程计方法 |
-
2023
- 2023-11-08 CN CN202311479277.2A patent/CN117532604B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102567989A (zh) * | 2011-11-30 | 2012-07-11 | 重庆大学 | 基于双目立体视觉的空间定位方法 |
CN103033189A (zh) * | 2012-12-26 | 2013-04-10 | 北京航空航天大学 | 一种深空探测巡视器惯性/视觉组合导航方法 |
CN103400392A (zh) * | 2013-08-19 | 2013-11-20 | 山东鲁能智能技术有限公司 | 基于变电站巡检机器人的双目视觉导航系统及方法 |
CN103559711A (zh) * | 2013-11-05 | 2014-02-05 | 余洪山 | 基于三维视觉系统图像特征和三维信息的运动估计方法 |
CN104359461A (zh) * | 2014-11-06 | 2015-02-18 | 中国人民解放军装备学院 | 一种可变结构的双目视觉测量系统及参数确定方法 |
CN116342661A (zh) * | 2023-04-13 | 2023-06-27 | 东南大学 | 利用路标点偏置位姿修正的双目视觉惯性里程计方法 |
Also Published As
Publication number | Publication date |
---|---|
CN117532604A (zh) | 2024-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110243358B (zh) | 多源融合的无人车室内外定位方法及系统 | |
CN108827315B (zh) | 基于流形预积分的视觉惯性里程计位姿估计方法及装置 | |
CN109991636B (zh) | 基于gps、imu以及双目视觉的地图构建方法及系统 | |
CN111795686B (zh) | 一种移动机器人定位与建图的方法 | |
Nützi et al. | Fusion of IMU and vision for absolute scale estimation in monocular SLAM | |
CN109540126A (zh) | 一种基于光流法的惯性视觉组合导航方法 | |
CN106052584B (zh) | 一种基于视觉及惯性信息融合的轨道空间线形测量方法 | |
CN110726406A (zh) | 一种改进的非线性优化单目惯导slam的方法 | |
CN108731676B (zh) | 一种基于惯性导航技术的姿态融合增强测量方法及系统 | |
CN105953796A (zh) | 智能手机单目和imu融合的稳定运动跟踪方法和装置 | |
CN111238535B (zh) | 一种基于因子图的imu误差在线标定方法 | |
CN112985450B (zh) | 一种具有同步时间误差估计的双目视觉惯性里程计方法 | |
CN107621266B (zh) | 基于特征点跟踪的空间非合作目标相对导航方法 | |
CN113252033A (zh) | 基于多传感器融合的定位方法、定位系统及机器人 | |
CN115371665B (zh) | 一种基于深度相机和惯性融合的移动机器人定位方法 | |
CN102842117A (zh) | 显微视觉系统中运动误差矫正方法 | |
CN107782309A (zh) | 非惯性系视觉和双陀螺仪多速率ckf融合姿态测量方法 | |
Tang et al. | LE-VINS: A robust solid-state-LiDAR-enhanced visual-inertial navigation system for low-speed robots | |
CN111998870B (zh) | 一种相机惯导系统的标定方法和装置 | |
CN114018291A (zh) | 一种惯性测量单元参数的标定方法、装置 | |
CN110108894A (zh) | 一种基于相位相关和光流法的多旋翼速度测量方法 | |
CN112284381B (zh) | 视觉惯性实时初始化对准方法及系统 | |
CN117532604B (zh) | 一种基于立体视觉的目标位姿及高阶运动信息观测方法 | |
CN115046543A (zh) | 一种基于多传感器的组合导航方法及系统 | |
CN114543786B (zh) | 一种基于视觉惯性里程计的爬壁机器人定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |