CN103903263A - 基于Ladybug全景相机图像的360度全方位测距算法 - Google Patents
基于Ladybug全景相机图像的360度全方位测距算法 Download PDFInfo
- Publication number
- CN103903263A CN103903263A CN201410114919.3A CN201410114919A CN103903263A CN 103903263 A CN103903263 A CN 103903263A CN 201410114919 A CN201410114919 A CN 201410114919A CN 103903263 A CN103903263 A CN 103903263A
- Authority
- CN
- China
- Prior art keywords
- camera
- ladybug
- coordinate system
- under
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本发明公开了一种基于Ladybug全景相机图像的360度全方位测距算法,它涉及计算机视觉领域中的图像测距技术领域。其方法步骤:读入Ladybug相机采集的各镜头图像序列;各相机分别进行姿态估计;在相邻两帧中分别选择两次待测距离起点和终点;计算起点和终点分别所属相机索引号;计算起点和终点的局部三维坐标;局部三维坐标转为统一坐标系下三维坐标;计算统一坐标系下起点和终点间虚拟距离;Xsense获取车载相机速度和加速度;拟合两帧间车载相机间距;计算比例因子;计算起点和终点间实际三维空间距离。本发明能够实现起点和终点落入不同相机下的距离测量,进而实现360度测量任意一段距离。
Description
技术领域
本发明涉及计算机视觉领域中的图像测距技术领域,具体涉及一种基于Ladybug全景相机图像的360度全方位测距算法。
背景技术
图像测距技术涉及特征点检测与匹配、摄像机标定和姿态估计、将虚拟距离转换为空间实际距离等技术。
其中“将虚拟距离转换为空间实际距离”技术一般利用地面控制点实现,本发明在未知地面控制点的情况下,利用Xsense数据计算出空间实际距离与虚拟距离间的比例因子,实现实际距离测量。
传统的图像测量一般利用某个方向上的相机图像,只能测量该方位上的实际距离。
发明内容
有鉴于现有技术的上述缺陷,本发明提供一种基于Ladybug全景相机图像的360度全方位测距算法,利用Ladybug全景相机360度全方位拍摄空间景物,将各镜头的局部坐标统一到Ladybug全局坐标系下,实现起点和终点落入不同相机下的距离测量,进而实现360度测量任意一段距离。
为实现上述目的,本发明提供了一种基于Ladybug全景相机图像的360度全方位测距算法,其特征在于,其方法步骤为:
(1)、读入Ladybug相机采集的各镜头图像序列:在Ladybug相机采集过程中,每个镜头都会采集一系列序列图像;
(2)、各相机分别进行姿态估计:在各相机的内参矩阵K已知的前提下,利用Bundle对各镜头序列图像进行相机姿态估计;
(3)、在相邻两帧中分别选择两次待测距离起点和终点:在起始帧选择一次起点p0和终点q0,在下一帧选择一次相同的起点p1和相同的终点q1;
(4)、计算起点和终点分别所属相机索引号:根据Ladybug提供的API函数获取两次起点所属的相机索引号CamIdStart和两次终点所属的相机索引号CamIdEnd;
(5)、计算起点和终点的局部三维坐标:第2步获取了相机的内外参数,根据三角测量理论和CamIdStart号相机的内外参数计算p0和p1两图像点所对应的三维空间点坐标Pstart;同理计算出q0和q1两图像点所对应的三维空间点坐标Qend;
(6)、局部三维坐标转为统一坐标系下三维坐标:将第5步中的不同的坐标系下的三维坐标Pstart和Qend转换到同一坐标系下;
(7)、计算统一坐标系下起点和终点间虚拟距离:利用向量间欧式距离计算起点和终点在统一坐标系下的间距DisVir;
(8)、Xsense获取车载相机速度和加速度:在车载Ladybug采集图像的同时,硬件Xsense会实时记录车辆在采样点上的速度和加速度,分别获取相邻两帧采样点的速度和加速度:v0,a0,vi,a1;
(9)、拟合两帧间车载相机间距:已知两点的速度和加速度:v0,a0,v2,a2,利用四阶多项式拟合相邻两帧采样点间的距离DisGap;
(10)、计算比例因子:根据车辆在两采样点间实际间距DisGap和两点相机间变换关系,计算实际距离与虚拟三维距离间的比例因子;
(11)、计算起点和终点间实际三维空间距离:根据比例因子Scale计算出起点和终点间虚拟距离DisVir对应的实际空间距离DisAct。
所述的步骤(6)的局部坐标系下坐标转为统一坐标系下坐标的具备步骤为:在Ladybug全景相机里,每个镜头相机定义了一个统一的全局坐标系,每个局部相机坐标系与Ladybug全局坐标系间存在一个唯一的变换关系,即矩阵H,该变换关系通过Ladybug提供的API函数1adybugGetCameraUnitExtrinsics()获得;
设世界坐标系下某空间点Q在某局部相机坐标下坐标为QLocal,该局部相机坐标系与Ladybug全局坐标系间变换矩阵为H,该点在Ladybug全局坐标系下坐标为QLadybug,则它们满足如下关系:
QLadybug=H·QLocal 公式1
选定的世界坐标系与镜头相机坐标系间的关系通过相机的旋转矩阵R和平移向量T获得,设点Q是世界坐标系下某空间点,R和T是某相机在世界坐标系下的位置姿态,QLocal为该点Q在该相机坐标系下的坐标,则关系如下:
根据公式1和公式2即可将不同世界坐标系下的不同空间点表示到统一Ladybug全局坐标系下。
所述步骤(10)中,计算比例因子的公式为:
Scale=DisGap′/DisGap 公式3
其中,在所述第2步的相机姿态估计中,可计算同一索引号相机在相邻两帧中各自相对世界坐标系的位置姿态,则相邻两帧相机的平移向量间的欧式距离即为该索引号相机在两帧处的虚拟间距DisGap′。
本发明的有益效果:利用Ladybug全景相机360度全方位拍摄空间景物,将各镜头的局部坐标统一到Ladybug全局坐标系下,实现起点和终点落入不同相机下的距离测量,进而实现360度测量任意一段距离。
以下将结合附图对本发明的构思、具体结构及产生的技术效果作进一步说明,以充分地了解本发明的目的、特征和效果。
附图说明
图1为本发明的技术方案流程图;
图2为本发明的各局部相机坐标系示意图;
图3为本发明的Ladybug全局坐标系示意图。
具体实施方式
参照图1-3,本具体实施方式采用以下技术方案:基于Ladybug全 景相机图像的360度全方位测距算法,其方法步骤为:
(1)、读入Ladybug相机采集的各镜头图像序列:在Ladybug相机采集过程中,每个镜头都会采集一系列序列图像;
(2)、各相机分别进行姿态估计:在各相机的内参矩阵K已知的前提下,利用Bundle对各镜头序列图像进行相机姿态估计(获得相机的旋转矩阵R和平移向量t);
(3)、在相邻两帧中分别选择两次待测距离起点和终点:在起始帧选择一次起点p0和终点q0,在下一帧选择一次相同的起点p1和相同的终点q1:
(4)、计算起点和终点分别所属相机索引号:根据Ladybug提供的API函数获取两次起点所属的相机索引号CamIdStart和两次终点所属的相机索引号CamIdEnd;
(5)、计算起点和终点的局部三维坐标:第2步获取了相机的内外参数,根据三角测量理论和CamIdStart号相机的内外参数计算p0和p1两图像点所对应的三维空间点坐标Pstart;同理计算出q0和q1两图像点所对应的三维空间点坐标Qend;
(6)、局部三维坐标转为统一坐标系下三维坐标:在第5步中,Pstart和Qend是分别在不同的坐标系下的三维坐标,因此需要将其转换到同一坐标系下,具体转换步骤如“原理说明”部分;
(7)、计算统一坐标系下起点和终点间虚拟距离:利用向量间欧式距离计算起点和终点在统一坐标系下的间距DisVir;
(8)、Xsense获取车载相机速度和加速度:在车载Ladybug采集图像的同时,硬件Xsense会实时记录车辆在采样点上的速度和加速度,分别获取相邻两帧采样点的速度和加速度:v0,a0,v1,a1;
(9)、拟合两帧间车载相机间距:已知两点的速度和加速度:v0,a0,v2,a2,利用四阶多项式拟合相邻两帧采样点间的距离DisGap;
(10)、计算比例因子:根据车辆在两采样点间实际间距DisGap和两点相机间变换关系,计算实际距离与虚拟三维距离间的比例因子Scale, 详见“原理说明”部分;
(11)、计算起点和终点间实际三维空间距离:根据比例因子Scale计算出起点和终点间虚拟距离DisVir对应的实际空间距离DisAct。
1.本具体实施方式的原理:局部坐标系下坐标转为统一坐标系下坐标;
在“本方法的技术方案”中,每次对相机进行姿态估计时,默认选定了一个世界坐标系,相机的旋转矩阵和平移向量均是在该世界坐标系中的表示,第5步中计算得到的局部三维坐标也是在该世界坐标系下的表示。因此,在对不同索引号的相机进行姿态估计时选择了不同的世界坐标系(同一索引号相机在相邻两帧处选择的世界坐标系是相同的),进而根据每个相机计算的三维坐标是在不同坐标系下的表示。
而要计算起点和终点间的距离时,起点和终点的三维坐标必须是在同一坐标系下才可根据向量间欧式距离计算三维距离。
在Ladybug全景相机里,已经为每个镜头相机定义了一个统一的全局坐标系,图2为Ladybug各镜头相机坐标系,图3为Ladybug全局坐标系。
每个局部相机坐标系与Ladybug全局坐标系间存在一个唯一的变换关系(矩阵H),该变换关系可通过Ladybug提供的API函数ladybugGetCameraUnitExtrinsics()获得。设世界坐标系下某空间点Q在某局部相机坐标下坐标为QLocal,该局部相机坐标系与Ladybug全局坐标系间变换矩阵为H,该点在Ladybug全局坐标系下坐标为QLadybug,则它们满足如下关系:
QLadybug=H·QLocal 公式1
选定的世界坐标系与镜头相机坐标系间的关系可通过相机的旋转矩阵R和平移向量T获得,设点Q是世界坐标系下某空间点,R和T是某相机在世界坐标系下的位置姿态,QLocdl为该点Q在该相机坐标系下的坐标,则关系如下:
公式2
根据公式1和公式2即可将不同世界坐标系下的不同空间点表示到统一Ladybug全局坐标系下。
2.计算比例因子
本发明的具体实施方式,第9步已经通过Xsense获取的速度和加速度拟合出了车载Ladybug中同一索引号相机在相邻两帧间的实际距离DisGap。在第2步的相机姿态估计中,可以计算同一索引号相机在相邻两帧中各自相对世界坐标系的位置姿态(平移向量T同时表示相机光心在世界坐标系下的坐标),则相邻两帧相机的平移向量间的欧式距离即为该索引号相机在两帧处的虚拟间距DisGap`,根据以下公式即可算出比例因子Scale。
Scale=DisGap`/DisGap 公式3
本具体实施方式利用Ladybug全景相机360度全方位拍摄空间景物,将各镜头的局部坐标统一到Ladybug全局坐标系下,实现起点和终点落入不同相机下的距离测量,进而实现360度测量任意一段距离。
以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术人员无需创造性劳动就可以根据本发明的构思作出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。
Claims (3)
1.基于Ladybug全景相机图像的360度全方位测距算法,其特征在于,其方法步骤为:
(1)、读入Ladybug相机采集的各镜头图像序列:在Ladybug相机采集过程中,每个镜头都会采集一系列序列图像;
(2)、各相机分别进行姿态估计:在各相机的内参矩阵K已知的前提下,利用Bundle对各镜头序列图像进行相机姿态估计;
(3)、在相邻两帧中分别选择两次待测距离起点和终点:在起始帧选择一次起点p0和终点q0,在下一帧选择一次相同的起点p1和相同的终点q1:
(4)、计算起点和终点分别所属相机索引号:根据Ladybug提供的API函数获取两次起点所属的相机索引号CamIdStart和两次终点所属的相机索引号CamIdEnd;
(5)、计算起点和终点的局部三维坐标:第2步获取了相机的内外参数,根据三角测量理论和CamIdStart号相机的内外参数计算p0和p1两图像点所对应的三维空间点坐标Pstart;同理计算出q0和q1两图像点所对应的三维空间点坐标Qend;
(6)、局部三维坐标转为统一坐标系下三维坐标:将第5步中的不同的坐标系下的三维坐标Pstart和Qend转换到同一坐标系下;
(7)、计算统一坐标系下起点和终点间虚拟距离:利用向量间欧式距离计算起点和终点在统一坐标系下的间距DisVir;
(8)、Xsense获取车载相机速度和加速度:在车载Ladybug采集图像的同时,硬件Xsense会实时记录车辆在采样点上的速度和加速度,分别获取相邻两帧采样点的速度和加速度:v0,a0,v1,a1;
(9)、拟合两帧间车载相机间距:已知两点的速度和加速度:v0,a0,v2,a2,利用四阶多项式拟合相邻两帧采样点间的距离DisGap;
(10)、计算比例因子:根据车辆在两采样点间实际间距DisGap和两点相机间变换关系,计算实际距离与虚拟三维距离间的比例因子;
(11)、计算起点和终点间实际三维空间距离:根据比例因子Scale计算出起点和终点间虚拟距离DisVir对应的实际空间距离DisAct。
2.根据权利要求1所述的基于Ladybug全景相机图像的360度全方位测距算法,其特征在于,所述的步骤(6)的局部坐标系下坐标转为统一坐标系下坐标的具备步骤为:在Ladybug全景相机里,每个镜头相机定义了一个统一的全局坐标系,每个局部相机坐标系与Ladybug全局坐标系间存在一个唯一的变换关系,即矩阵H,该变换关系通过Ladybug提供的API函数ladybugGetCameraUnitExtrinsics()获得;
设世界坐标系下某空间点Q在某局部相机坐标下坐标为QLocal,该局部相机坐标系与Ladybug全局坐标系间变换矩阵为H,该点在Ladybug全局坐标系下坐标为QLadybug,则它们满足如下关系:
QLadybug=H·QLocal 公式1
选定的世界坐标系与镜头相机坐标系间的关系通过相机的旋转矩阵R和平移向量T获得,设点Q是世界坐标系下某空间点,R和T是某相机在世界坐标系下的位置姿态,QLocal,为该点Q在该相机坐标系下的坐标,则关系如下:
根据公式1和公式2H口可将不同世界坐标系下的不同空间点表示到统一Ladybug全局坐标系下。
3.根据权利要求1所述的基于Ladybug全景相机图像的360度全方位测距算法,其特征在于,所述步骤(10)中,计算比例因子的公式为:
Scale=DisGap`/DisGap 公式3
其中,在所述第2步的相机姿态估计中,可计算同一索引号相机在相邻两帧中各自相对世界坐标系的位置姿态,则相邻两帧相机的平移向量间的欧式距离即为该索引号相机在两帧处的虚拟间距DisGap`。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410114919.3A CN103903263B (zh) | 2014-03-26 | 2014-03-26 | 一种基于Ladybug全景相机图像的360度全方位测距方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410114919.3A CN103903263B (zh) | 2014-03-26 | 2014-03-26 | 一种基于Ladybug全景相机图像的360度全方位测距方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103903263A true CN103903263A (zh) | 2014-07-02 |
CN103903263B CN103903263B (zh) | 2017-03-08 |
Family
ID=50994570
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410114919.3A Active CN103903263B (zh) | 2014-03-26 | 2014-03-26 | 一种基于Ladybug全景相机图像的360度全方位测距方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103903263B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105989354A (zh) * | 2015-05-25 | 2016-10-05 | 乐视移动智能信息技术(北京)有限公司 | 一种定位方法与系统 |
CN106803275A (zh) * | 2017-02-20 | 2017-06-06 | 苏州中科广视文化科技有限公司 | 基于相机位姿估计和空间采样的2d全景视频生成 |
CN108844505A (zh) * | 2018-05-30 | 2018-11-20 | 链家网(北京)科技有限公司 | 测算房屋空间尺寸的方法和装置 |
CN111532257A (zh) * | 2019-04-22 | 2020-08-14 | 长城汽车股份有限公司 | 用于补偿交通工具校准误差的方法和系统 |
CN113409438A (zh) * | 2020-02-28 | 2021-09-17 | 华为技术有限公司 | 一种数字摄影测量方法、电子设备及系统 |
CN113508012A (zh) * | 2018-09-04 | 2021-10-15 | 快砖知识产权私人有限公司 | 用于机器人机械的视觉系统 |
CN113899377A (zh) * | 2021-08-23 | 2022-01-07 | 武汉光庭信息技术股份有限公司 | 一种基于相机的自动泊车终点相对坐标的测量方法及系统 |
CN115561704A (zh) * | 2022-09-30 | 2023-01-03 | 中国测绘科学研究院 | 高精度地图增强封闭空间稀疏uwb基站网定位方法及系统 |
CN115561703A (zh) * | 2022-09-30 | 2023-01-03 | 中国测绘科学研究院 | 封闭空间激光雷达辅助单uwb基站三维定位方法及系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102096938A (zh) * | 2011-01-27 | 2011-06-15 | 中国科学院遥感应用研究所 | 一种可量测全景图像的构建方法 |
-
2014
- 2014-03-26 CN CN201410114919.3A patent/CN103903263B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102096938A (zh) * | 2011-01-27 | 2011-06-15 | 中国科学院遥感应用研究所 | 一种可量测全景图像的构建方法 |
Non-Patent Citations (2)
Title |
---|
SOOYEONG YI ET AL: "《Real-time Omni-directional Distance Measurement》", 《INTERNATIONAL JOURNAL OF CONTROL, AUTOMATION, AND SYSTEMS》 * |
段瑞青等: "《一种基于虚拟实景空间的测量与定位方法》", 《合肥工业大学学报(自然科学版)》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105989354A (zh) * | 2015-05-25 | 2016-10-05 | 乐视移动智能信息技术(北京)有限公司 | 一种定位方法与系统 |
CN106803275A (zh) * | 2017-02-20 | 2017-06-06 | 苏州中科广视文化科技有限公司 | 基于相机位姿估计和空间采样的2d全景视频生成 |
CN108844505A (zh) * | 2018-05-30 | 2018-11-20 | 链家网(北京)科技有限公司 | 测算房屋空间尺寸的方法和装置 |
CN113508012A (zh) * | 2018-09-04 | 2021-10-15 | 快砖知识产权私人有限公司 | 用于机器人机械的视觉系统 |
CN111532257A (zh) * | 2019-04-22 | 2020-08-14 | 长城汽车股份有限公司 | 用于补偿交通工具校准误差的方法和系统 |
CN111532257B (zh) * | 2019-04-22 | 2021-11-16 | 长城汽车股份有限公司 | 用于补偿交通工具校准误差的方法和系统 |
CN113409438A (zh) * | 2020-02-28 | 2021-09-17 | 华为技术有限公司 | 一种数字摄影测量方法、电子设备及系统 |
CN113899377A (zh) * | 2021-08-23 | 2022-01-07 | 武汉光庭信息技术股份有限公司 | 一种基于相机的自动泊车终点相对坐标的测量方法及系统 |
CN113899377B (zh) * | 2021-08-23 | 2023-10-27 | 武汉光庭信息技术股份有限公司 | 一种基于相机的自动泊车终点相对坐标的测量方法及系统 |
CN115561704A (zh) * | 2022-09-30 | 2023-01-03 | 中国测绘科学研究院 | 高精度地图增强封闭空间稀疏uwb基站网定位方法及系统 |
CN115561703A (zh) * | 2022-09-30 | 2023-01-03 | 中国测绘科学研究院 | 封闭空间激光雷达辅助单uwb基站三维定位方法及系统 |
CN115561703B (zh) * | 2022-09-30 | 2023-05-16 | 中国测绘科学研究院 | 封闭空间激光雷达辅助单uwb基站三维定位方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN103903263B (zh) | 2017-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103903263A (zh) | 基于Ladybug全景相机图像的360度全方位测距算法 | |
CN111354042B (zh) | 机器人视觉图像的特征提取方法、装置、机器人及介质 | |
CN107747941B (zh) | 一种双目视觉定位方法、装置及系统 | |
CN108986161B (zh) | 一种三维空间坐标估计方法、装置、终端和存储介质 | |
CN108765498B (zh) | 单目视觉跟踪方法、装置及存储介质 | |
CN106803271B (zh) | 一种视觉导航无人机的摄像机标定方法及装置 | |
Montiel et al. | Unified Inverse Depth Parametrization for Monocular SLAM. | |
TWI479881B (zh) | 藉由結合方位感測器讀數及影像校準估計的3d視訊穩定之系統、方法及電腦程式產品 | |
CN109712172A (zh) | 一种初始位姿测量结合目标追踪的位姿测量方法 | |
CN112880687B (zh) | 一种室内定位方法、装置、设备和计算机可读存储介质 | |
US20200334842A1 (en) | Methods, devices and computer program products for global bundle adjustment of 3d images | |
US20100204964A1 (en) | Lidar-assisted multi-image matching for 3-d model and sensor pose refinement | |
CN108519102B (zh) | 一种基于二次投影的双目视觉里程计算方法 | |
EP3296950A1 (en) | Method and device for blurring a virtual object in a video | |
CN111899282A (zh) | 基于双目摄像机标定的行人轨迹跟踪方法及装置 | |
CN110070598A (zh) | 用于3d扫描重建的移动终端及其进行3d扫描重建方法 | |
CN110139031B (zh) | 一种基于惯性感知的视频防抖系统及其工作方法 | |
CN107102165B (zh) | 一种基于粒子图像测速的表面流场测量方法 | |
CN107038753B (zh) | 立体视觉三维重建系统及方法 | |
CN103093460A (zh) | 基于平行视差的移动相机虚拟阵列标定方法 | |
CN110062916A (zh) | 用于模拟可移动平台的操作的视觉模拟系统 | |
CN112686877A (zh) | 基于双目相机的三维房屋损伤模型构建测量方法及系统 | |
JP2019032218A (ja) | 位置情報記録方法および装置 | |
CN106871900A (zh) | 船舶磁场动态检测中图像匹配定位方法 | |
WO2023005457A1 (zh) | 位姿计算方法和装置、电子设备、可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |