CN110533702B - 一种基于光场多层折射模型的水下双目视觉立体匹配方法 - Google Patents

一种基于光场多层折射模型的水下双目视觉立体匹配方法 Download PDF

Info

Publication number
CN110533702B
CN110533702B CN201910738197.1A CN201910738197A CN110533702B CN 110533702 B CN110533702 B CN 110533702B CN 201910738197 A CN201910738197 A CN 201910738197A CN 110533702 B CN110533702 B CN 110533702B
Authority
CN
China
Prior art keywords
coordinate system
new
camera
light
underwater
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910738197.1A
Other languages
English (en)
Other versions
CN110533702A (zh
Inventor
张旭
庄苏锋
金攀
屠大维
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Shanghai for Science and Technology
Original Assignee
University of Shanghai for Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Shanghai for Science and Technology filed Critical University of Shanghai for Science and Technology
Priority to CN201910738197.1A priority Critical patent/CN110533702B/zh
Publication of CN110533702A publication Critical patent/CN110533702A/zh
Application granted granted Critical
Publication of CN110533702B publication Critical patent/CN110533702B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/30Assessment of water resources

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明提出了一种基于光场多层折射模型的水下双目视觉立体匹配方法。属于水下计算机视觉研究领域,典型的应用是水下测距和水下物体三维重建等。本系统使用基于光场理论的多层折射理论计算得到左右相机的方向图像,该方向图像的行匹配误差在1个像素以内。基于该方向图像可直接利用空气中的立体匹配方法得到视差图。本发明不仅解决了水下图像因不同介质面的折射所导致的立体匹配失败的问题,而且保证在较高的匹配精度前提下显著提高匹配效率。

Description

一种基于光场多层折射模型的水下双目视觉立体匹配方法
技术领域
本发明属于水下计算机视觉研究领域,涉及一种基于光场多层折射模型的水下双目视觉立体匹配方法,通过建立多层折射图像模型来解决由于水的折射而引起的水下图像立体匹配失败的问题。
背景技术
使用视觉探测不仅可以直观地观察到水下环境,而且可以获得更准确的三维信息,例如目标物水下定位、三维重建等。虽然目前空气中的双目立体视觉系统技术已经较为成熟,但精密的光学仪器在水下环境中应用因成像环境特殊而存在很多难点,这时的摄像机往往需要加装防水罩,这里除了原本水对光的吸收和散射造成成像质量的下降外,最关键的是光线通过水、防水罩和空气的交界面处发生了折射,光的传播路径发生了变化,导致立体匹配环节空气中的极线约束模型(普通的摄像机成像模型)不再适用。关于这个问题,2011年Gedge J等实验证明水下极线约束变为一条曲线,并得出约束极线弯曲程度与摄像机焦距的关系。但是如果以曲线极线约束作为水下立体匹配的约束条件,则需计算每个像素点对应的极线约束曲线关系,其计算量非常大。
李雅倩等人在其论文“基于深度约束的水下稠密立体匹配[J].光子学报,2017,46(7).”中提出一种基于深度约束的半全局算法以实现水下稠密立体匹配。该方法首先采用深度约束确定匹配过程的深度约束搜索区域,然后基于深度约束区域将绝对差值和梯度计算推广到二维区域并进行加权融合。在深度约束区域内的搜索过程中,采用胜者为王的策略确定某一视差值下的最佳行差及最佳行差下的匹配代价,并将其作为能量函数的数据项应用于半全局算法中,进行匹配代价的聚合,最后采用抛物线拟合法得到亚像素级的稠密视差图。该方法虽然可以获得较好的水下匹配效果,但是该过程中计算量相当大,相当耗时,无法满足系统实时性这一要求。
张强等人在论文“基于最佳搜索域的水下图像区域匹配算法研究[J].光学学报,2014,34(6).”中针对水下双目图像匹配时不再满足空气中极线约束条件以及归一化互相关算法处理水下图像计算量大等问题,提出了一种基于最佳搜索域的水下图像区域匹配算法。该方法在得到相关标定参数、参考图和待匹配图后,运用曲线极线约束计算出与空气中极线的最大偏离值,确定最佳搜索域;用归一化互相关算法进行匹配,将原来的线性搜索改为在最佳搜索域中进行多行搜索,提高匹配精度;并应用盒滤波技术加速,提高匹配速度。该方法虽然达到了尺度不变特征变换算法的匹配精度,但在曲线约束环节其运算量很大。
发明内容
本发明为解决水下双目视觉立体匹配失败的问题,提出了一种基于光场多层折射模型的水下双目视觉立体匹配方法。
在水下拍摄环境中,成像光线依次通过水、玻璃、空气这三种介质。在已知相机内外参数的情况下,计算出水中光线的方向向量,然后在立体视觉坐标系下构造方向图像,根据方向图像直接使用空气中已有的算法进行立体匹配。
为了达到上述目的,本发明具体采用下述技术方案:
一种基于光场多层折射模型的水下双目视觉立体匹配方法,包括以下步骤:
步骤一:采用相机的多层折射立体模型,建立立体视觉坐标系。然后定义方向图像内参矩阵,在立体视觉坐标系下建立左右方向图像;
步骤二:计算左右方向图像任意像素在立体视觉坐标系下对应的光线方向向量IL_stereo、IR_stereo,并根据立体视觉坐标系与多层折射坐标系的坐标变换关系:PrrRnewPnew,计算得到光线在多层折射坐标系下的方向向量IL_reflect、IR_reflect
步骤三:根据光场表示方法,分别计算左右方向图像像点经过多层界面传播和折射后到达空气中的光线
Figure BDA0002162986930000021
并转换成光线矢量
Figure BDA0002162986930000022
步骤四:将光线矢量
Figure BDA0002162986930000023
转换到左右相机坐标系下,根据左右相机内参计算得到方向图像上任意像点对应原图像上的像素位置,并建立位置映射表;
步骤五:利用水下双目视觉测量系统获取到的水下目标图像,根据步骤四计算得到的位置映射表,使用OpenCV中Remap函数快速计算出左右方向图像;最后,针对左右方向图像利用空气中的立体匹配算法即可快速计算得到视差图。
所述步骤一中的建立立体视觉坐标系,具体包括以下步骤:
步骤1.1:以左相机光心为原点,左相机光心与右相机光心的连线方向为左立体视觉坐标系的x轴;
步骤1.2:将左多层折射坐标系的z轴(即分界面的法线)与左立体视觉坐标系x轴的叉乘作为左立体视觉坐标系y轴;
步骤1.3:将以上的x轴与y轴叉乘作为z轴;
步骤1.4:将左立体视觉坐标系平移到右相机光心,即得到右立体视觉坐标系:
PrrRnewPnew+rtnew
rRnew=[nx nr×zx nx×(nr×zx)]
rtnew=[0 0 0]T
zc=[0 0 1]T
所述步骤三中计算左右方向图像像点经过多层界面传播和折射后到达空气中的光线
Figure BDA0002162986930000031
Figure BDA0002162986930000032
并转换成光线矢量
Figure BDA0002162986930000033
具体包括以下步骤:
步骤3.1:根据光场模型,将左右方向图像的光线矢量表示为光场:
Figure BDA0002162986930000034
步骤3.2:某介质光线nLr传播距离dn,然后从介质μn进入介质μn+1中发生折射,入射光线和折射后光线表示为:
Figure BDA0002162986930000035
n+1Lr=R(sn tn μn μn+1)×T(dnnLr
其中
Figure BDA0002162986930000036
步骤3.3:根据以上两步计算左右方向图像像点经过多层界面传播和折射后到达空气中的光线
Figure BDA0002162986930000037
并转换成光线矢量
Figure BDA0002162986930000038
Figure BDA0002162986930000039
与现有技术相比,本发明具有如下显而易见的优点:
本发明方法匹配精度高,计算速度快,不仅解决了水下图像因不同介质面的折射所导致的立体匹配失败的问题,而且保证在较高的匹配精度前提下显著提高匹配效率。处理后的左右方向图像可以直接利用空气中的匹配算法进行计算,方便快捷,可移植性好。
附图说明
图1为本发明方法的具体流程图。
图2为本发明计算所得到的方向图像,其中a为右相机方向图像,b为左相机方向图像。
图3为本发明行匹配误差的仿真计算结果。
图4为本发明算法计算出来的视差图。
具体实施方式
下面结合附图对本发明的优选实施例作出详细说明。
如图1所示,一种基于光场多层折射模型的水下双目视觉立体匹配方法,包括以下步骤:
步骤一:本实施例采用中国专利CN201710702222中的“基于多层折射模型的水下立体视觉系统标定方法”中所述的相机的多层折射立体模型。相机封装在舱内后,相机坐标系z轴即相机光轴与“空气-水”分界面一般不垂直。因此建立z轴与“空气-水”分界面垂直的多层折射坐标系,采用中国专利CN201710702222中的“基于多层折射模型的水下立体视觉系统标定方法”获得法向量参数(nL,nR),根据法向量参数计算相机坐标系与多层折射坐标系的转换关系。多层折射成像坐标系与相机坐标系的关系可表示为:
PrcRrPr+ctr
cRr=[nc×zc nc×(nc×zc) nc]
ctr=[0 0 0]T
zc=[0 0 1]T
然后根据相机的多层折射模型,建立立体视觉坐标系。以左相机的光心为原点,左相机光心与右相机的光心的连线方向作为x轴,以左相机当前左相机的光场的z轴(即界面的法线)与x轴叉乘得到y轴,然后x轴与y轴叉乘得到z轴。得到立体视觉坐标系:
PrrRnewPnew+rtnew
rRnew=[nx nr×zx nx×(nr×zx)]
rtnew=[0 0 0]T
zc=[0 0 1]T
其中nx为左右相机光心构成的单位向量在多层折射坐标系下的表示。多层折射坐标系相对立体视觉坐标系的关系可表达为:PnewnewRrPr+newtr,其中:newRrrRnew -1。然后定义方向图像内参矩阵,在立体视觉坐标系下建立左右方向图像矩阵。
步骤二:计算光线在多层折射坐标系下的方向向量。首先计算左右方向图像中的任意像素在立体视觉坐标系下对应的光线的方向向量IL_stereo和IR_stereo。然后根据立体视觉坐标系与多层折射坐标系的坐标变换关系:PrrRnewPnew,得到光线在多层折射坐标系下的方向向量IL_reflect和IR_reflect
步骤三:根据光场表示方法,分别计算左右方向图像像点经过多层界面传播和折射后到空气中的光线
Figure BDA0002162986930000051
并转换成光线矢量
Figure BDA0002162986930000052
Figure BDA0002162986930000053
本实施例根据中国专利CN109490251A“基于光场多层折射模型的水下折射率自标定方法”所述的光场模型,将左右方向图像的光线矢量表示为光场:
Figure BDA0002162986930000054
光线Lr传播距离d0,然后从水进入空气中发生折射,入射光线和折射后光线可表示为:
Figure BDA0002162986930000055
1Lr=R(s0 t0 1.333 1)×T(d00Lr
其中
Figure BDA0002162986930000056
根据以上公式即可求出左右方向图像像点经过水的传播和折射后到达空气中的光线
Figure BDA0002162986930000057
Figure BDA0002162986930000058
并转换成光线矢量
Figure BDA0002162986930000059
Figure BDA00021629869300000510
步骤四:将步骤三中的光线矢量
Figure BDA00021629869300000511
转换到左右相机坐标系下,根据左右相机内参计算得到方向图像上任意像点对应原图像上的像素位置,建立x方向和y方向的映射表。
步骤五:利用水下双目视觉测量系统获取到的水下目标图像,同时辅以绿色散点激光增加水下图像的纹理性,将采集到的左右图像畸变校正后,利用opencv中的remap函数以及步骤四中的映射表,即可快速计算出左右方向图像,如图2所示。
由于行匹配效果直接影响接下来立体匹配的准确率,这里利用matlab对该环节进行仿真,仿真结果如图3所示,可以看出其行匹配误差低于0.8个像素,表明上述方法计算出来的方向图像行匹配精度很高。
最后,基于步骤五得到的左右方向图像直接利用空气中的SGBM算法即可准确快速地计算出视差图,如图4所示。水下双目视觉的立体匹配得以准确快速地实现。

Claims (2)

1.一种基于光场多层折射模型的水下双目视觉立体匹配方法,其特征在于,包括以下步骤:
步骤一:采用相机的多层折射立体模型,建立立体视觉坐标系;定义方向图像内参矩阵,在立体视觉坐标系下建立左右方向图像;
步骤二:计算左右方向图像任意像素在立体视觉坐标系下对应的光线方向向量IL_stereo、IR_stereo,并根据立体视觉坐标系与多层折射坐标系的坐标变换关系:PrrRnewPnew,计算得到光线在多层折射坐标系下的方向向量IL_reflect、IR_reflect
步骤三:根据光场表示方法,分别计算左右方向图像像点经过多层界面传播和折射后到达空气中的光线
Figure QLYQS_1
并转换成光线矢量
Figure QLYQS_2
步骤四:将光线矢量
Figure QLYQS_3
转换到左右相机坐标系下,根据左右相机内参计算得到方向图像上任意像点对应原图像上的像素位置,并建立位置映射表;
步骤五:利用水下双目视觉测量系统获取到的水下目标图像,根据步骤四计算得到的位置映射表,使用OpenCV中Remap函数快速计算出左右方向图像;最后,针对左右方向图像利用空气中的立体匹配算法快速计算得到视差图;
所述步骤一中的建立立体视觉坐标系,具体包括以下步骤:
步骤1.1:以左相机光心为原点,左相机光心与右相机光心的连线方向为左立体视觉坐标系的x轴;
步骤1.2:将左多层折射坐标系的z轴即分界面的法线与左立体视觉坐标系x轴的叉乘作为左立体视觉坐标系y轴;
步骤1.3:将以上的x轴与y轴叉乘作为z轴;
步骤1.4:将左立体视觉坐标系平移到右相机光心,即得到右立体视觉坐标系:
PrrRnewPnew+rtnew
rRnew=[nx nr×zx nx×(nr×zx)]
rtnew=[0 0 0]T
zc=[0 0 1]T
其中nx为左右相机光心构成的单位向量在多层折射坐标系下的表示;多层折射坐标系相对立体视觉坐标系的关系可表达为:PnewnewRrPr+newtr,其中:newRrrRnew -1
2.根据权利要求1所述的基于光场多层折射模型的水下双目视觉立体匹配方法,其特征在于,所述步骤三中计算左右方向图像像点经过多层界面传播和折射后到达空气中的光线
Figure QLYQS_4
Figure QLYQS_5
并转换成光线矢量
Figure QLYQS_6
具体包括以下步骤:
步骤3.1:根据光场模型,将左右方向图像的光线矢量表示为光场:
Figure QLYQS_7
步骤3.2:某介质光线nLr传播距离dn,然后从介质μn进入介质μn+1中发生折射,入射光线和折射后光线表示为:
Figure QLYQS_8
n+1Lr=R(sn tn μn μn+1)×T(dnnLr
其中
Figure QLYQS_9
步骤3.3:根据以上两步计算左右方向图像像点经过多层界面传播和折射后到达空气中的光线
Figure QLYQS_10
并转换成光线矢量
Figure QLYQS_11
Figure QLYQS_12
CN201910738197.1A 2019-08-12 2019-08-12 一种基于光场多层折射模型的水下双目视觉立体匹配方法 Active CN110533702B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910738197.1A CN110533702B (zh) 2019-08-12 2019-08-12 一种基于光场多层折射模型的水下双目视觉立体匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910738197.1A CN110533702B (zh) 2019-08-12 2019-08-12 一种基于光场多层折射模型的水下双目视觉立体匹配方法

Publications (2)

Publication Number Publication Date
CN110533702A CN110533702A (zh) 2019-12-03
CN110533702B true CN110533702B (zh) 2023-04-18

Family

ID=68662970

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910738197.1A Active CN110533702B (zh) 2019-08-12 2019-08-12 一种基于光场多层折射模型的水下双目视觉立体匹配方法

Country Status (1)

Country Link
CN (1) CN110533702B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116817794B (zh) * 2023-06-27 2024-02-13 浙江大学 一种基于结构光的水下高精度三维成像装置及方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106952341A (zh) * 2017-03-27 2017-07-14 中国人民解放军国防科学技术大学 一种基于视觉的水下场景三维点云重建方法及其系统
CN107358632A (zh) * 2017-06-29 2017-11-17 西北工业大学 应用于水下双目立体视觉的水下摄像机标定方法
CN107507242A (zh) * 2017-08-16 2017-12-22 华中科技大学无锡研究院 一种基于光场模型的多层折射系统成像模型构建方法
CN107767420A (zh) * 2017-08-16 2018-03-06 华中科技大学无锡研究院 一种水下立体视觉系统的标定方法
CN107907048A (zh) * 2017-06-30 2018-04-13 长沙湘计海盾科技有限公司 一种基于线结构光扫描的双目立体视觉三维测量方法
CN109059873A (zh) * 2018-06-08 2018-12-21 上海大学 基于光场多层折射模型的水下三维重建装置和方法
CN109152615A (zh) * 2016-05-23 2019-01-04 马科外科公司 在机器人手术过程期间识别和跟踪物理对象的系统和方法
CN109490251A (zh) * 2018-10-26 2019-03-19 上海大学 基于光场多层折射模型的水下折射率自标定方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109152615A (zh) * 2016-05-23 2019-01-04 马科外科公司 在机器人手术过程期间识别和跟踪物理对象的系统和方法
CN106952341A (zh) * 2017-03-27 2017-07-14 中国人民解放军国防科学技术大学 一种基于视觉的水下场景三维点云重建方法及其系统
CN107358632A (zh) * 2017-06-29 2017-11-17 西北工业大学 应用于水下双目立体视觉的水下摄像机标定方法
CN107907048A (zh) * 2017-06-30 2018-04-13 长沙湘计海盾科技有限公司 一种基于线结构光扫描的双目立体视觉三维测量方法
CN107507242A (zh) * 2017-08-16 2017-12-22 华中科技大学无锡研究院 一种基于光场模型的多层折射系统成像模型构建方法
CN107767420A (zh) * 2017-08-16 2018-03-06 华中科技大学无锡研究院 一种水下立体视觉系统的标定方法
CN109059873A (zh) * 2018-06-08 2018-12-21 上海大学 基于光场多层折射模型的水下三维重建装置和方法
CN109490251A (zh) * 2018-10-26 2019-03-19 上海大学 基于光场多层折射模型的水下折射率自标定方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Binocular vision-based underwater ranging methods;Shuxiang Guo等;《IEEE Xplore》;20171231;全文 *
单相机监控偏折术测量方法;李晨等;《光学学报》;20171031;第37卷(第10期);全文 *
水下同步扫描三角测距成像理论建模及仿真分析;金攀等;《应用光学》;20181115;全文 *

Also Published As

Publication number Publication date
CN110533702A (zh) 2019-12-03

Similar Documents

Publication Publication Date Title
CN109741405B (zh) 一种基于对偶结构光rgb-d相机的深度信息采集系统
CN109242908B (zh) 用于水下双目视觉测量系统的标定方法
CN107833181B (zh) 一种基于变焦立体视觉的三维全景图像生成方法
CN109544628B (zh) 一种指针式仪表的准确读数识别系统及方法
CN109579695B (zh) 一种基于异构立体视觉的零件测量方法
CN106952341B (zh) 一种基于视觉的水下场景三维点云重建方法及其系统
CN111127540B (zh) 一种三维虚拟空间自动测距方法及系统
Kunz et al. Hemispherical refraction and camera calibration in underwater vision
CN109712232B (zh) 一种基于光场的物体表面轮廓三维成像方法
CN111667536A (zh) 一种基于变焦相机深度估计的参数标定方法
Jordt Underwater 3D reconstruction based on physical models for refraction and underwater light propagation
CN111709985B (zh) 一种基于双目视觉的水下目标测距方法
CN102831601A (zh) 基于联合相似性测度和自适应支持权重的立体匹配方法
CN111429571B (zh) 一种基于时空图像信息联合相关的快速立体匹配方法
CN110728745B (zh) 一种基于多层折射图像模型的水下双目立体视觉三维重建方法
CN107358632A (zh) 应用于水下双目立体视觉的水下摄像机标定方法
CN107560554A (zh) 一种基于旋转透镜的三维信息视觉测量方法
CN109490251A (zh) 基于光场多层折射模型的水下折射率自标定方法
Xie et al. Underwater large field of view 3D imaging based on fisheye lens
CN106709955A (zh) 基于双目立体视觉的空间坐标系标定系统和方法
CN114359406A (zh) 自动对焦双目摄像头的标定、3d视觉及深度点云计算方法
CN115359127A (zh) 一种适用于多层介质环境下的偏振相机阵列标定方法
CN116579962A (zh) 一种基于鱼眼相机的全景感知方法、装置、设备及介质
CN110533702B (zh) 一种基于光场多层折射模型的水下双目视觉立体匹配方法
CN107256563B (zh) 基于差异液位图像序列的水下三维重建系统及其方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant