CN115861434B - 用于超大场景测量多视角相机的位姿估计方法 - Google Patents

用于超大场景测量多视角相机的位姿估计方法 Download PDF

Info

Publication number
CN115861434B
CN115861434B CN202211419557.XA CN202211419557A CN115861434B CN 115861434 B CN115861434 B CN 115861434B CN 202211419557 A CN202211419557 A CN 202211419557A CN 115861434 B CN115861434 B CN 115861434B
Authority
CN
China
Prior art keywords
matrix
rotation
pose
translation
exponential
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211419557.XA
Other languages
English (en)
Other versions
CN115861434A (zh
Inventor
王晓强
陶为俊
张晓东
张振海
浣沙
赵存生
李竹影
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Naval University of Engineering PLA
Original Assignee
Naval University of Engineering PLA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Naval University of Engineering PLA filed Critical Naval University of Engineering PLA
Priority to CN202211419557.XA priority Critical patent/CN115861434B/zh
Publication of CN115861434A publication Critical patent/CN115861434A/zh
Application granted granted Critical
Publication of CN115861434B publication Critical patent/CN115861434B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及图像测量技术领域,公开了一种用于超大场景测量多视角相机的位姿估计方法,包括如下步骤:将旋转矩阵和平移矩阵转换到指数映射空间;优化多视角位姿的参数;指数空间数据向旋转平移转化。本发明用于超大场景测量多视角相机的位姿估计方法,采用指数映射空间,参数少,计算量低,提高了非线性优化速度。

Description

用于超大场景测量多视角相机的位姿估计方法
技术领域
本发明涉及图像测量技术领域,具体涉及一种用于超大场景测量多视角相机的位姿估计方法。
背景技术
船舶在海洋中航行受到海水的作用而发生变形,对于单个部件的设计其刚度能够满足需要,但是船舶是一个整体性设计工程,在船舶上安装的每一个设备都将对船舶的整体性产生影响,传统方法测量难以很好的解决整体性问题,现在数字图像测量技术能够很好的解决大场景多个相机的相互测量问题,目前基于数字图像的测量方法逐渐在成为工程中的一种测量手段,其具有远距离、非接触、高精度等优势,在某些特定的情况成为了不可替代的重要方法。其测量的高精度主要依赖成熟的理论计算,其中包括对相机镜头参数的标定、畸变的纠正以及各个视角下的位姿估计理论,因此,多个相机的位姿估计算法是位移测量的关键。
然而在运动测量或者基于图像建模的应用中,多视角位姿估计需要反复进行计算,这直接影响了该方法应用的实时性。传统方法是对旋转和平移矩阵进行计算,旋转矩阵存在9个元素,并且存在6个约束,因此其变量只有3个,用9个参数加6个约束来表示3个未知量的方法使得计算量大。
关于位姿估计,现有技术主要采用5点、6点法或者张氏标定算法进行位姿估计,从而计算旋转和平移矩阵。
采用5点、6点法的论文Zuzana Kukelova,Martin Bujnak et al.《PolynomialEigenvalue Solutions to the 5-pt and 6-pt Relative Pose Problems》,xj ′TExj=0,其中基础矩阵E是3×3矩阵,而使用基础矩阵E,该矩阵自带附加的约束det(E)=0,因此使得方程数量增加。张氏标定算法《Flexible Camera Calibration By Viewing a PlaneFrom Unknown Orientations》,采用了单应性矩阵H进行计算,单应性矩阵H中包括了8个未知数,H=[h1h2h3]=λA[r1 r2 t],而方程中r1和r2正交,且r1和r2的模相等,因此可以得到约束和/>因此不论通过5点、6点法还是通过张氏标定算法,都将引入额外的约束,从而增加方程的个数,导致计算量增大。究其原因,主要是采用旋转矩阵R来描述问题时,旋转矩阵满足方程RTR=I,因此自带约束关系。
发明内容
本发明的目的就是针对上述技术的不足,提供一种用于超大场景测量多视角相机的位姿估计方法,采用指数映射空间,参数少,计算量低,提高了非线性优化速度。
为实现上述目的,本发明所设计的用于超大场景测量多视角相机的位姿估计方法,包括如下步骤:
A)将旋转矩阵和平移矩阵转换到指数映射空间:
设Rc为相机坐标系下相对世界坐标系下的旋转矩阵,Tc为相机坐标系下相对世界坐标系下的平移矩阵,将旋转矩阵Rc和平移矩阵Tc转换到指数映射空间,得到
式中,H为相机外参数,τ为向量表示,τ为反对称矩阵,取得:
式中,θ为旋转轴的旋转角度,ρ为旋转轴长度,x为x轴,y为y轴,z为z轴,是θ归一化后的向量,取得
θ、与旋转矩阵Rc的关系为:
将旋转矩阵Rc和平移矩阵Tc转化为指数映射中的θ、表示,其平移关系表示为:
Jρ=Tc
式中,I为单位矩阵,J为旋转轴矩阵表示;
B)优化多视角位姿的参数:
根据小孔成像模型,由于多个视角位姿关系是相对的,选择第一个视角H1=I,则
S1和S2为缩放系数,[u v]T为像素坐标,Kc为内参数矩阵,[X1 Y1 Z1]为世界坐标系下的坐标,H2为第二视角的透视变换矩阵,对于多视角模型,其所有相片的重投影误差最小,因此
其中f(τ)为重投影误差的优化目标函数,ui为像素坐标,i表示同一个视角下第i个数据点,j表示第j个视角,Si为数据的缩尺比例系数,m为视角数量,n为每一个视角下的数据点数量,因此上述方差是优化各个相机的位姿τ,令
式中,Pi 为数据点坐标,根据裂纹伯格-马夸尔特法:
J(τ)TJ(τ)Δτ=-J(τ)f(τ)
Δτ是待求的位姿,J(τ)是梯度矩阵,将矩阵τ写为向量形式τ,则
J(τ)TJ(τ)Δτ=-J(τ)f(τ)
其中
按照左扰动模型,利用链式法则:
将上述结果带入方程和J(τ)TJ(τ)Δτ=-J(τ)f(τ),计算得到Δτ,更新τ:
τ=τ+Δτ
C)指数空间数据向旋转平移转化:
根据求解的指数空间得到θ和ρ,根据/>将θ其变为/>根据下面公式计算旋转矩阵
平移矩阵为Tc=Jρ。
本发明与现有技术相比,具有以下优点:。
1、实现多个视角位姿的快速估计;
2、采用指数映射空间参数少,计算量低。
具体实施方式
下面结合具体实施例对本发明作进一步的详细说明。
一种用于超大场景测量多视角相机的位姿估计方法,包括如下步骤:
A)将旋转矩阵和平移矩阵转换到指数映射空间:
设Rc为相机坐标系下相对世界坐标系下的旋转矩阵,Tc为相机坐标系下相对世界坐标系下的平移矩阵,将旋转矩阵Rc和平移矩阵Tc转换到指数映射空间,得到
式中,H为相机外参数,τ为向量表示,τ为反对称矩阵,取得:
式中,θ为旋转轴的旋转角度,ρ为旋转轴长度,x为x轴,y为y轴,z为z轴,是θ归一化后的向量,取得
θ、与旋转矩阵Rc的关系为:
将旋转矩阵Rc和平移矩阵Tc转化为指数映射中的θ、表示,其平移关系表示为:
Jρ=Tc
式中,I为单位矩阵,J为旋转轴矩阵表示;
B)优化多视角位姿的参数:
根据小孔成像模型,由于多个视角位姿关系是相对的,选择第一个视角H1=I,则
S1和S2为缩放系数,[u v]T为像素坐标,Kc为内参数矩阵,[X1 Y1 Z1]为世界坐标系下的坐标,H2为第二视角的透视变换矩阵,对于多视角模型,其所有相片的重投影误差最小,因此
其中f(τ)为重投影误差的优化目标函数,ui为像素坐标,i表示同一个视角下第i个数据点,j表示第j个视角,Si为数据的缩尺比例系数,m为视角数量,n为每一个视角下的数据点数量,因此上述方差是优化各个相机的位姿τ,令
式中,Pi′为数据点坐标,根据裂纹伯格-马夸尔特法:
J(τ)TJ(τ)Δτ=-J(τ)f(τ)
Δτ是待求的位姿,J(τ)是梯度矩阵,将矩阵τ写为向量形式τ,则
J(τ)TJ(τ)Δτ=-J(τ)f(τ)
其中
按照左扰动模型,利用链式法则:
将上述结果带入方程和J(τ)TJ(τ)Δτ=-J(τ)f(τ),计算得到Δτ,更新τ:
τ=τ+Δτ
C)指数空间数据向旋转平移转化:
根据求解的指数空间得到θ和ρ,根据/>将θ其变为/>根据下面公式计算旋转矩阵
平移矩阵为Tc=Jρ。
本发明用于超大场景测量多视角相机的位姿估计方法,实现了多个视角位姿的快速估计,采用指数映射空间参数少,计算量低。

Claims (1)

1.一种用于超大场景测量多视角相机的位姿估计方法,其特征在于:包括如下步骤:
A)将旋转矩阵和平移矩阵转换到指数映射空间:
设Rc为相机坐标系下相对世界坐标系下的旋转矩阵,Tc为相机坐标系下相对世界坐标系下的平移矩阵,将旋转矩阵Rc和平移矩阵Tc转换到指数映射空间,得到
式中,H为相机外参数,τ为向量表示,τ为反对称矩阵,取得:
式中,θ为旋转轴的旋转角度,ρ为旋转轴长度,x为x轴,y为y轴,z为z轴,是θ归一化后的向量,取得
θ、与旋转矩阵Rc的关系为:
将旋转矩阵Rc和平移矩阵Tc转化为指数映射中的θ、表示,其平移关系表示为:
Jρ=Tc
式中,I为单位矩阵,J为旋转轴矩阵表示;
B)优化多视角位姿的参数:
根据小孔成像模型,由于多个视角位姿关系是相对的,选择第一个视角H1=I,则
S1和S2为缩放系数,[u v]T为像素坐标,Kc为内参数矩阵,[X1 Y1 Z1]为世界坐标系下的坐标,H2为第二视角的透视变换矩阵,对于多视角模型,其所有相片的重投影误差最小,因此
其中f(τ)为重投影误差的优化目标函数,ui为像素坐标,i表示同一个视角下第i个数据点,j表示第j个视角,Si为数据的缩尺比例系数,m为视角数量,n为每一个视角下的数据点数量,因此上述方差是优化各个相机的位姿τ,令
式中,Pi′为数据点坐标,根据裂纹伯格-马夸尔特法:
J(τ)TJ(τ)Δτ=-J(τ)f(τ)
Δτ是待求的位姿,J(τ)是梯度矩阵,将矩阵τ写为向量形式τ,则
J(τ)TJ(τ)Δτ=-J(τ)f(τ)
其中
按照左扰动模型,利用链式法则:
将上述结果带入方程和J(τ)TJ(τ)Δτ=-J(τ)f(τ),计算得到Δτ,更新τ:
τ=τ+△τ
C)指数空间数据向旋转平移转化:
根据求解的指数空间得到θ和ρ,根据/>将θ其变为/>根据下面公式计算旋转矩阵
平移矩阵为Tc=Jρ。
CN202211419557.XA 2022-11-14 2022-11-14 用于超大场景测量多视角相机的位姿估计方法 Active CN115861434B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211419557.XA CN115861434B (zh) 2022-11-14 2022-11-14 用于超大场景测量多视角相机的位姿估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211419557.XA CN115861434B (zh) 2022-11-14 2022-11-14 用于超大场景测量多视角相机的位姿估计方法

Publications (2)

Publication Number Publication Date
CN115861434A CN115861434A (zh) 2023-03-28
CN115861434B true CN115861434B (zh) 2024-03-22

Family

ID=85663343

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211419557.XA Active CN115861434B (zh) 2022-11-14 2022-11-14 用于超大场景测量多视角相机的位姿估计方法

Country Status (1)

Country Link
CN (1) CN115861434B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118216863B (zh) * 2024-05-24 2024-08-27 北京大学第三医院(北京大学第三临床医学院) 一种基于观测三维空间深度表征的紧凑型广角手术内窥镜

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019032660A (ja) * 2017-08-07 2019-02-28 国立大学法人 筑波大学 撮像システム、撮像方法
CN110443854A (zh) * 2019-08-05 2019-11-12 兰州交通大学 基于固定靶标的无公共视场相机间相对位姿标定方法
CN111161355A (zh) * 2019-12-11 2020-05-15 上海交通大学 多视图相机位姿和场景的纯位姿解算方法及系统
CN114842094A (zh) * 2022-07-04 2022-08-02 季华实验室 全色面阵相机和高光谱线阵相机联合标定方法、系统
CN114943772A (zh) * 2022-03-31 2022-08-26 中国人民解放军海军工程大学 一种增强现实视觉显示器中的相机标定方法、系统及应用

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108416840B (zh) * 2018-03-14 2020-02-18 大连理工大学 一种基于单目相机的三维场景稠密重建方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019032660A (ja) * 2017-08-07 2019-02-28 国立大学法人 筑波大学 撮像システム、撮像方法
CN110443854A (zh) * 2019-08-05 2019-11-12 兰州交通大学 基于固定靶标的无公共视场相机间相对位姿标定方法
CN111161355A (zh) * 2019-12-11 2020-05-15 上海交通大学 多视图相机位姿和场景的纯位姿解算方法及系统
CN114943772A (zh) * 2022-03-31 2022-08-26 中国人民解放军海军工程大学 一种增强现实视觉显示器中的相机标定方法、系统及应用
CN114842094A (zh) * 2022-07-04 2022-08-02 季华实验室 全色面阵相机和高光谱线阵相机联合标定方法、系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Gait Analysis Using Wearable Sensors;Weijun Tao et al.;《sensors》;第2255-2283页 *
Multi-view object pose estimation from correspondence distributions and epipolar geometry;Rasmus Laurvig Haugaard et al.;《arXiv.org》;第1-7页 *
基于双目视觉的牙龈线立体重构系统的研究;王晓强;《中国优秀博硕士学位论文全文数据库(硕士)》(第09期);第1-82页 *

Also Published As

Publication number Publication date
CN115861434A (zh) 2023-03-28

Similar Documents

Publication Publication Date Title
CN111486802B (zh) 基于自适应距离加权的旋转轴标定方法
CN107341814B (zh) 基于稀疏直接法的四旋翼无人机单目视觉测程方法
CN111369630A (zh) 一种多线激光雷达与相机标定的方法
CN107025670A (zh) 一种远心相机标定方法
CN103714535B (zh) 双目视觉测量系统中摄像机参数在线调整方法
CN111673735A (zh) 一种基于单目视觉定位的机械臂控制方法及装置
CN115861434B (zh) 用于超大场景测量多视角相机的位姿估计方法
CN114399554A (zh) 一种多相机系统的标定方法及系统
CN102096923A (zh) 鱼眼标定方法和装置
CN113658266B (zh) 一种基于固定相机和单靶标的动轴旋转角视觉测量方法
CN115861445B (zh) 一种基于标定板三维点云的手眼标定方法
CN112132874A (zh) 无标定板异源图像配准方法、装置、电子设备及存储介质
CN116129037B (zh) 视触觉传感器及其三维重建方法、系统、设备及存储介质
CN106225778A (zh) 多介质传播中随机波动的视觉定位研究
CN114549629A (zh) 水下单目视觉估计目标三维位姿的方法
CN104504691A (zh) 基于低秩纹理的摄像机位置和姿态测量方法
Chuan et al. A planar homography estimation method for camera calibration
CN111739103A (zh) 一种基于单点标定物的多相机标定系统
CN115187612A (zh) 一种基于机器视觉的平面面积测量方法、装置及系统
CN113554709A (zh) 一种基于偏振信息的相机-投影仪系统标定方法
CN109342008B (zh) 基于单应性矩阵的风洞试验模型迎角单相机视频测量方法
CN112712566B (zh) 基于结构参数在线校正的双目立体视觉传感器测量方法
CN110363801A (zh) 工件实物与工件三维cad模型的对应点匹配方法
CN109242909A (zh) 一种面向高精度二维尺寸测量的线阵相机标定算法
CN112907714A (zh) 一种基于Census变换和灰度绝对差的混合匹配双目视觉系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant