CN106875447A - 一种鱼眼全景相机自然环境下标定方法 - Google Patents
一种鱼眼全景相机自然环境下标定方法 Download PDFInfo
- Publication number
- CN106875447A CN106875447A CN201710033313.0A CN201710033313A CN106875447A CN 106875447 A CN106875447 A CN 106875447A CN 201710033313 A CN201710033313 A CN 201710033313A CN 106875447 A CN106875447 A CN 106875447A
- Authority
- CN
- China
- Prior art keywords
- fish eye
- eye images
- ball
- parameter
- panorama camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Processing (AREA)
Abstract
本发明公开了一种鱼眼全景相机自然环境下标定方法。包括获取双鱼眼图像,建立理论参数模型,提取鱼眼图像特征点,用最优化算法计算模型参数,将参数带入模型迭代筛选,获得鱼眼图像到球体表面的映射关系并以球体表面图像显示;本发明图像特征点提取方法能应用于大畸变的鱼眼图像,并能进一步保证提取到的特征点的准确性,本发明还提出了一种筛选特征点的迭代模型,利用本发明的方法可以准确地在自然、随机的环境下标定全景相机;不需要为了获得映射关系而搭建特殊的场景,本发明采用一种自主化的方法,自主求得每幅鱼眼图像到球体表面的映射关系,降低了全景相机使用门槛,扩大了全景相机使用范围。
Description
技术领域
本发明属于计算机图像处理应用技术领域,涉及一种鱼眼全景相机自然环境下标定方法。
背景技术
全景相机一般由两个或两个以上光学成像系统组成,然后将采集到的图像通过数学计算映射到一个球体表面上。这一过程涉及到每幅图像到球体表面的映射关系,标定的目的就是获得各图像间匹配对应的映射关系,以便在显示装置中正确显示获得的图像。
一般现有的标定方法只能标定没有畸变,或是畸变很小的图像,其方法是通过寻找图像间冗余部分的对应特征点,推算每幅图像的映射关系。但是此方法不适用鱼眼图像,畸变较大的鱼眼镜头成像图像只能在特殊布置的场景下进行标定,不能适用随机、任意的应用环境。
发明内容
为了解决鱼眼全景相机自然环境下标定问题,获得无缝、均匀的全景画面,本发明采用一种自主化的方法估计每幅鱼眼图像到球体表面的映射关系。
本发明采取的鱼眼全景相机自然环境下标定方法是通过建立理论参数模型,提取鱼眼图像特征点,利用最优化算法计算模型参数,将参数带入模型迭代筛选,求得每幅鱼眼图像到球体表面的映射关系。
本发明通过以下技术方案实现:
获取双鱼眼图像:
通过双鱼眼镜头获得双鱼眼图像F1,、F2;
建立理论参数模型:
鱼眼图像到球面坐标映射公式:鱼眼图像F(u,v),球Q,球面坐标经纬度表示Q(θ,φ)(θ∈[0,360],φ∈[0,180]);
M为映射关系矩阵;
球到平面球的平面展开映射关系公式:球Q,球面坐标经纬度表示Q(θ,φ)(θ∈[0,360],φ∈[0,180]),球Q的平面展开为S(x,y)
x=θ;
提取鱼眼图像特征点:
目前的特征点提取算法例如SFIT、SURF都不能有效的从鱼眼图像中提取特征点,本发明中通过以下公式获得:
S(x,y)-F(u,v)·Mf2s;
F(u,v)=S(x,y)·Ms2f;
其中Mf2s为鱼眼图像到球的平面展开映射参数,Ms2f为球的平面展开到鱼眼图像映射参数。
获取方法包括:先获取鱼眼图像F1、F2,通过Mf2s将F1、F2映射到球的平面展开S1、S2上,然后利用SFIT算法从S1、S2提取并匹配特征点得到PS1i(i=0,1….N)(N为自然正整数,下同)、PS2i(i=0,1….N),然后将PS1i(i=0,1….N)、PS2i(i=0,1….N)与Ms2f进行运算得到PF1i(i=0,1….N)、PF2i(i=0,1….N)。PF1i(i=0,1….N)、PF2i(i=0,1….N)即鱼眼图像上匹配的特征点。
用最优化算法计算模型参数:
[M1,M2]=L(PF1i,PF2i);i∈(0,1,2,......,N);
L为优化算法,M1、M2为优化后得到的鱼眼图像F1、F2到球体Q表面的映射关系。
将参数带入模型迭代筛选
PQ1i=PF1i·M1;i∈(0,1,2,......,N);
PQ2i=PF2i·M2;i∈(0,1,2,......,N);
δi=(PQ1i-PQ2i)2;i∈(0,1,2,......,N);
PF1k=PF1i;δi<T1,i∈(0,1,2,......,N);
PF2k=PF2i;δi<T1,i∈(0,1,2,......,N);
PQ1i、PQ2i为全景图像上坐标点、δi为对应的点坐标的欧拉距离,T1为特征点筛选阈值,PQ1i、PQ2i为每次筛选剩下的标定点。按照上面公式进行迭代,当满足下面公式停止迭代,
(PQ1i·Ms2f-PQ2i·Ms2f)2<T2
T2为停止迭代阈值。多次迭代后计算得到的M1、M2即为鱼眼图像到球体表面的映射关系。
本发明为解决现有的特征提取方法不能应用于大畸变的鱼眼图像,提出了一种鱼眼图像的特征点提取方法,该方法可以有效的提取出一对鱼眼图像中匹配的特征点,为进一步保证提取到的特征点的准确性,本发明还提出了一种筛选特征点的迭代模型,利用本发明的方法可以准确地在自然、随机的环境下标定全景相机。
本发明的有益效果是,不需要为了获得映射关系而搭建特殊的场景,适用于随机、任意的应用环境;本发明采用一种自主化的方法,自主求得每幅鱼眼图像到球体表面的映射关系,降低了全景相机使用门槛,扩大了全景相机使用范围。
附图说明
图1是本发明方法流程图。
图2是本发明获取鱼眼镜头成像示意图。
图3是本发明获取特征点示意图。
具体实施方式
下面通过实施例对本发明进行具体的描述,本实施例只用于对本发明进行进一步的说明,但不能理解为对本发明保护范围的限制,本领域的技术人员根据上述本发明的内容作出的一些非本质的改进和调整也属于本发明保护的范围。
为实现鱼眼全景相机自然环境下标定,本发明无需搭建特殊的场景,通过获得的双鱼眼图像,建立理论参数模型,提取鱼眼图像特征点,利用最优化算法计算模型参数,将参数带入模型迭代筛选,求得每幅鱼眼图像到球体表面的映射关系。
下面对本发明方法进行描述。
获取双鱼眼图像:
通过双鱼眼镜头获得双鱼眼图像F1,、F2;
建立理论参数模型:
鱼眼图像到球面坐标映射公式:鱼眼图像F(u,v),球Q,球面坐标经纬度表示Q(θ,φ)(θ∈[0,360],φ∈[0,180]);
M为映射关系矩阵;
球到平面球的平面展开映射关系公式:球Q,球面坐标经纬度表示Q(θ,φ)(θ∈[0,360],φ∈[0,180]),球Q的平面展开为S(x,y)
x=θ;
提取鱼眼图像特征点:
目前的特征点提取算法例如SFIT、SURF都不能有效的从鱼眼图像中提取特征点,本发明中通过以下公式获得:
S(x,y)=F(u,v)·Mf2s; (1)
F(u,v)=S(x,y)·Ms2f; (2)
其中Mf2s为鱼眼图像到球的平面展开映射参数,Ms2f为球的平面展开到鱼眼图像映射参数。
获取方法包括:先获取鱼眼图像F1、F2,通过Mf2s将F1、F2映射到球的平面展开S1、S2上,然后利用SFIT算法从S1、S2提取并匹配特征点得到PS1i(i=0,1….N)(N为自然正整数,下同)、PS2i(i=0,1….N),然后将PS1i(i=0,1….N)、PS2i(i=0,1….N)与Ms2f进行运算得到PF1i(i=0,1….N)、PF2i(i=0,1….N)。PF1i(i=0,1….N)、PF2i(i=0,1….N)即鱼眼图像上匹配的特征点。
用最优化算法计算模型参数:
[M1,M2]=L(PF1i,PF2i);i∈(0,1,2,......,N);
L为优化算法,M1、M2为优化后得到的鱼眼图像F1、F2到球体Q表面的映射关系。
将参数带入模型迭代筛选
PQ1i=PF1i·M1;i∈(0,1,2,......,N);
PQ2i=PF2i·M2;i∈(0,1,2,......,N);
δi=(PQ1i-PQ2i)2;i∈(0,1,2,......,N);
PF1k=PF1i;δi<T1,i∈(0,1,2,......,N);
PF2k=PF2i;δi<T1,i∈(0,1,2,......,N);
PQ1i、PQ2i为全景图像上坐标点、δi为对应的点坐标的欧拉距离,T1为特征点筛选阈值,PQ1i、PQ2i为每次筛选剩下的标定点。按照上面公式进行迭代,当满足下面公式停止迭代,
(PQ1i·Ms2f-PQ2i·Ms2f)2<T2
T2为停止迭代阈值。多次迭代后计算得到的M1、M2即为鱼眼图像到球体表面的映射关系。
具体实施举例:
结合附图1至图3;
首先通过带有鱼眼镜头的全景相机在普通环境下拍摄鱼眼图像,得到如图2的两个鱼眼图像F1,F2。
利用提取鱼眼图像特征点中公式(1)将F1和F2去畸变展开成球的平面展开图像S1、S2。
对S1和S2利用并不限于ORB特征点提取算法提取两幅图像上对应的特征点,S1图像上得到的特征点集合为PS1,S2图像上得到的特征点集合为PS2。
利用提取鱼眼图像特征点中公式(2)将PS1集合中的每个点变换为鱼眼图像F1上的点得到标定点集合PF1,将PS2集合中的每个点变换为鱼眼图像F2上的点得到标定点集合PF2,如图3。
将PF1和PF2带入算法L求得F1的参数M1、F2的参数M2。
将PF1和PF2根据M1和M2映射得到的点的欧拉距离小于T1保留得到PF12和PF22,PF12属于PF1,PF22属于PF2。
将PF12和PF22按照PF1和PF2的流程进行迭代,直到第k次迭代后PF1k和PF2k满足上述公式中停止迭代的条件,然后停止迭代。
M1k和M2k就是所求参数,然后就可以将M1k和M2k参数固化到全景相机中,将新得到的鱼眼图像F1和F2按照M1k和M2k参数去显示,整体球就是一个没有坐标错位的完整球型。
本发明为解决现有的特征提取方法不能应用于大畸变的鱼眼图像,提出了一种鱼眼图像的特征点提取方法,该方法可以有效的提取出一对鱼眼图像中匹配的特征点,为进一步保证提取到的特征点的准确性,本发明还提出了一种筛选特征点的迭代模型,利用本发明的方法可以准确的在自然、随机的环境下标定全景相机。
Claims (1)
1.一种鱼眼全景相机自然环境下标定方法,其特征在于包括以下步骤:
(1)获取双鱼眼图像
通过双鱼眼镜头获得双鱼眼图像F1,、F2;
(2)建立理论参数模型
鱼眼图像到球面坐标映射公式:鱼眼图像F(u,v),球Q,球面坐标经纬度表示Q(θ,φ)(θ∈[0,360],φ∈[0,180]);
M为映射关系矩阵;
球到平面球的平面展开映射关系公式:球Q,球面坐标经纬度表示Q(θ,φ)(θ∈[0,360],φ∈[0,180]),球Q的平面展开为S(x,y);
x=θ;
(3)提取鱼眼图像特征点
通过以下公式获得:
S(x,y)-F(u,v)·Mf2s;
F(x,v)=S(x,y)·Ms2f;
其中Mf2s为鱼眼图像到球的平面展开映射参数,Ms2f为球的平面展开到鱼眼图像映射参数;
获取方法包括:先获取鱼眼图像F1、F2,通过Mf2s将F1、F2映射到球的平面展开S1、S2上,然后利用SFIT算法从S1、S2提取并匹配特征点得到PS1i、PS2i,然后将PS1i、PS2i与Ms2f进行运算得到PF1i、PF2i;PF1i、PF2i即为鱼眼图像上匹配的特征点,其中i=0.1….N,N为自然正整数;
(4)用最优化算法计算模型参数
[M1,M2]=L(PF1i,PF2i);i∈(0,1,2,......,N);
L为优化算法,M1、M2为优化后得到的鱼眼图像F1、F2到球体Q表面的映射关系;
将参数带入模型迭代筛选;
PQ1i=PF1i·M1;i∈(0,1,2,......,N);
PQ2i=PF2i·M2;i∈(0,1,2,......,N);
δi=(PQ1i-PQ2i)2;i∈(0,1,2,......,N);
PF1k=PF1i;δi<T1,i∈(0,1,2,......,N);
PF2k=PF2i;δi<T1,i∈(0,1,2,......,N);
其中,PQ1i、PQ2i为全景图像上坐标点、δi为对应的点坐标的欧拉距离,T1为特征点筛选阈值,PQ1i、PQ2i为每次筛选剩下的标定点;
按照上述公式进行迭代,当满足下面公式停止迭代;
(PQ1i·Ms2f-PQ2i·Ms2f)2<T2
T2为停止迭代阈值;多次迭代后计算得到的M1、M2即为鱼眼图像到球体表面的映射关系;
(5)获得鱼眼图像到球体表面的映射关系并以球体表面图像显示
将M1k和M2k参数应用到全景相机中,将全景相机随机获得的鱼眼图像F1和F2按照M1k和M2k参数去显示,整体球显示为一个没有坐标错位的完整球型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710033313.0A CN106875447B (zh) | 2017-01-18 | 2017-01-18 | 一种鱼眼全景相机自然环境下标定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710033313.0A CN106875447B (zh) | 2017-01-18 | 2017-01-18 | 一种鱼眼全景相机自然环境下标定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106875447A true CN106875447A (zh) | 2017-06-20 |
CN106875447B CN106875447B (zh) | 2019-05-31 |
Family
ID=59158542
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710033313.0A Active CN106875447B (zh) | 2017-01-18 | 2017-01-18 | 一种鱼眼全景相机自然环境下标定方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106875447B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111862240A (zh) * | 2020-07-28 | 2020-10-30 | 展讯通信(上海)有限公司 | 全景相机及其标定方法、全景图像的拼接方法及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009039512A1 (en) * | 2007-09-21 | 2009-03-26 | The Trustees Of Columbia University In The City Of New York | Systems and methods for panoramic imaging |
CN102519435A (zh) * | 2011-12-21 | 2012-06-27 | 上海杰图软件技术有限公司 | 全景影像采集测量系统和全景影像空间测量方法 |
CN104392435A (zh) * | 2014-11-10 | 2015-03-04 | 中科院微电子研究所昆山分所 | 鱼眼相机标定方法及标定装置 |
-
2017
- 2017-01-18 CN CN201710033313.0A patent/CN106875447B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009039512A1 (en) * | 2007-09-21 | 2009-03-26 | The Trustees Of Columbia University In The City Of New York | Systems and methods for panoramic imaging |
CN102519435A (zh) * | 2011-12-21 | 2012-06-27 | 上海杰图软件技术有限公司 | 全景影像采集测量系统和全景影像空间测量方法 |
CN104392435A (zh) * | 2014-11-10 | 2015-03-04 | 中科院微电子研究所昆山分所 | 鱼眼相机标定方法及标定装置 |
Non-Patent Citations (1)
Title |
---|
王珂: "基于折光鱼眼全景相机的双目立体视觉标定", 《中国科技论文》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111862240A (zh) * | 2020-07-28 | 2020-10-30 | 展讯通信(上海)有限公司 | 全景相机及其标定方法、全景图像的拼接方法及存储介质 |
CN111862240B (zh) * | 2020-07-28 | 2022-10-04 | 展讯通信(上海)有限公司 | 全景相机及其标定方法、全景图像的拼接方法及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN106875447B (zh) | 2019-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107330439B (zh) | 一种图像中物体姿态的确定方法、客户端及服务器 | |
CN104333675B (zh) | 一种基于球面投影的全景电子稳像方法 | |
CN108073857B (zh) | 动态视觉传感器dvs事件处理的方法及装置 | |
CN103839277B (zh) | 一种户外大范围自然场景的移动增强现实注册方法 | |
CN108010123B (zh) | 一种保留拓扑信息的三维点云获取方法 | |
CN108053373A (zh) | 一种基于深度学习模型鱼眼图像校正方法 | |
CN111126412B (zh) | 基于特征金字塔网络的图像关键点检测方法 | |
CN106803275A (zh) | 基于相机位姿估计和空间采样的2d全景视频生成 | |
CN109241968B (zh) | 图像内容倾斜角度预测网络训练方法及修正方法、系统 | |
CN109003307B (zh) | 基于水下双目视觉测量的捕鱼网目尺寸设计方法 | |
CN113192646A (zh) | 目标检测模型构建方法及不同目标间距离监控方法、装置 | |
CN107967665B (zh) | 图像处理方法和图像处理装置 | |
CN114125269B (zh) | 一种基于深度学习的手机实时全景拍摄方法 | |
CN106993126A (zh) | 一种将镜头图像展开为全景图像的方法及装置 | |
US8903124B2 (en) | Object learning method, object tracking method using the same, and object learning and tracking system | |
CN114998773A (zh) | 适用于无人机系统航拍图像的特征误匹配剔除方法及系统 | |
CN106875447A (zh) | 一种鱼眼全景相机自然环境下标定方法 | |
CN110827375B (zh) | 一种基于微光图像的红外图像真彩着色方法及系统 | |
CN112102504A (zh) | 一种基于混合现实的三维场景和二维图像混合方法 | |
Li et al. | Monocular 3-D Object Detection Based on Depth-Guided Local Convolution for Smart Payment in D2D Systems | |
Yuan et al. | Structure flow-guided network for real depth super-resolution | |
CN116363238A (zh) | 视差图生成方法、装置、设备及计算机可读存储介质 | |
WO2020082626A1 (zh) | 一种移动设备上的实时人脸三维重建系统及方法 | |
Yang et al. | Exposing photographic splicing by detecting the inconsistencies in shadows | |
CN113066163A (zh) | 一种基于二维图像的人体体型三维重建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |