CN110533702B - 一种基于光场多层折射模型的水下双目视觉立体匹配方法 - Google Patents
一种基于光场多层折射模型的水下双目视觉立体匹配方法 Download PDFInfo
- Publication number
- CN110533702B CN110533702B CN201910738197.1A CN201910738197A CN110533702B CN 110533702 B CN110533702 B CN 110533702B CN 201910738197 A CN201910738197 A CN 201910738197A CN 110533702 B CN110533702 B CN 110533702B
- Authority
- CN
- China
- Prior art keywords
- coordinate system
- new
- camera
- light
- underwater
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 230000003287 optical effect Effects 0.000 title claims description 20
- 238000005259 measurement Methods 0.000 claims abstract description 3
- 239000013598 vector Substances 0.000 claims description 21
- 238000004422 calculation algorithm Methods 0.000 claims description 13
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000013507 mapping Methods 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 4
- 230000009466 transformation Effects 0.000 claims description 4
- 238000011160 research Methods 0.000 abstract description 3
- 238000005290 field theory Methods 0.000 abstract 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 238000010521 absorption reaction Methods 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 239000003570 air Substances 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/30—Assessment of water resources
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明提出了一种基于光场多层折射模型的水下双目视觉立体匹配方法。属于水下计算机视觉研究领域,典型的应用是水下测距和水下物体三维重建等。本系统使用基于光场理论的多层折射理论计算得到左右相机的方向图像,该方向图像的行匹配误差在1个像素以内。基于该方向图像可直接利用空气中的立体匹配方法得到视差图。本发明不仅解决了水下图像因不同介质面的折射所导致的立体匹配失败的问题,而且保证在较高的匹配精度前提下显著提高匹配效率。
Description
技术领域
本发明属于水下计算机视觉研究领域,涉及一种基于光场多层折射模型的水下双目视觉立体匹配方法,通过建立多层折射图像模型来解决由于水的折射而引起的水下图像立体匹配失败的问题。
背景技术
使用视觉探测不仅可以直观地观察到水下环境,而且可以获得更准确的三维信息,例如目标物水下定位、三维重建等。虽然目前空气中的双目立体视觉系统技术已经较为成熟,但精密的光学仪器在水下环境中应用因成像环境特殊而存在很多难点,这时的摄像机往往需要加装防水罩,这里除了原本水对光的吸收和散射造成成像质量的下降外,最关键的是光线通过水、防水罩和空气的交界面处发生了折射,光的传播路径发生了变化,导致立体匹配环节空气中的极线约束模型(普通的摄像机成像模型)不再适用。关于这个问题,2011年Gedge J等实验证明水下极线约束变为一条曲线,并得出约束极线弯曲程度与摄像机焦距的关系。但是如果以曲线极线约束作为水下立体匹配的约束条件,则需计算每个像素点对应的极线约束曲线关系,其计算量非常大。
李雅倩等人在其论文“基于深度约束的水下稠密立体匹配[J].光子学报,2017,46(7).”中提出一种基于深度约束的半全局算法以实现水下稠密立体匹配。该方法首先采用深度约束确定匹配过程的深度约束搜索区域,然后基于深度约束区域将绝对差值和梯度计算推广到二维区域并进行加权融合。在深度约束区域内的搜索过程中,采用胜者为王的策略确定某一视差值下的最佳行差及最佳行差下的匹配代价,并将其作为能量函数的数据项应用于半全局算法中,进行匹配代价的聚合,最后采用抛物线拟合法得到亚像素级的稠密视差图。该方法虽然可以获得较好的水下匹配效果,但是该过程中计算量相当大,相当耗时,无法满足系统实时性这一要求。
张强等人在论文“基于最佳搜索域的水下图像区域匹配算法研究[J].光学学报,2014,34(6).”中针对水下双目图像匹配时不再满足空气中极线约束条件以及归一化互相关算法处理水下图像计算量大等问题,提出了一种基于最佳搜索域的水下图像区域匹配算法。该方法在得到相关标定参数、参考图和待匹配图后,运用曲线极线约束计算出与空气中极线的最大偏离值,确定最佳搜索域;用归一化互相关算法进行匹配,将原来的线性搜索改为在最佳搜索域中进行多行搜索,提高匹配精度;并应用盒滤波技术加速,提高匹配速度。该方法虽然达到了尺度不变特征变换算法的匹配精度,但在曲线约束环节其运算量很大。
发明内容
本发明为解决水下双目视觉立体匹配失败的问题,提出了一种基于光场多层折射模型的水下双目视觉立体匹配方法。
在水下拍摄环境中,成像光线依次通过水、玻璃、空气这三种介质。在已知相机内外参数的情况下,计算出水中光线的方向向量,然后在立体视觉坐标系下构造方向图像,根据方向图像直接使用空气中已有的算法进行立体匹配。
为了达到上述目的,本发明具体采用下述技术方案:
一种基于光场多层折射模型的水下双目视觉立体匹配方法,包括以下步骤:
步骤一:采用相机的多层折射立体模型,建立立体视觉坐标系。然后定义方向图像内参矩阵,在立体视觉坐标系下建立左右方向图像;
步骤二:计算左右方向图像任意像素在立体视觉坐标系下对应的光线方向向量IL_stereo、IR_stereo,并根据立体视觉坐标系与多层折射坐标系的坐标变换关系:Pr=rRnewPnew,计算得到光线在多层折射坐标系下的方向向量IL_reflect、IR_reflect;
步骤五:利用水下双目视觉测量系统获取到的水下目标图像,根据步骤四计算得到的位置映射表,使用OpenCV中Remap函数快速计算出左右方向图像;最后,针对左右方向图像利用空气中的立体匹配算法即可快速计算得到视差图。
所述步骤一中的建立立体视觉坐标系,具体包括以下步骤:
步骤1.1:以左相机光心为原点,左相机光心与右相机光心的连线方向为左立体视觉坐标系的x轴;
步骤1.2:将左多层折射坐标系的z轴(即分界面的法线)与左立体视觉坐标系x轴的叉乘作为左立体视觉坐标系y轴;
步骤1.3:将以上的x轴与y轴叉乘作为z轴;
步骤1.4:将左立体视觉坐标系平移到右相机光心,即得到右立体视觉坐标系:
Pr=rRnewPnew+rtnew
rRnew=[nx nr×zx nx×(nr×zx)]
rtnew=[0 0 0]T
zc=[0 0 1]T
步骤3.1:根据光场模型,将左右方向图像的光线矢量表示为光场:
步骤3.2:某介质光线nLr传播距离dn,然后从介质μn进入介质μn+1中发生折射,入射光线和折射后光线表示为:
n+1Lr=R(sn tn μn μn+1)×T(dn)×nLr
与现有技术相比,本发明具有如下显而易见的优点:
本发明方法匹配精度高,计算速度快,不仅解决了水下图像因不同介质面的折射所导致的立体匹配失败的问题,而且保证在较高的匹配精度前提下显著提高匹配效率。处理后的左右方向图像可以直接利用空气中的匹配算法进行计算,方便快捷,可移植性好。
附图说明
图1为本发明方法的具体流程图。
图2为本发明计算所得到的方向图像,其中a为右相机方向图像,b为左相机方向图像。
图3为本发明行匹配误差的仿真计算结果。
图4为本发明算法计算出来的视差图。
具体实施方式
下面结合附图对本发明的优选实施例作出详细说明。
如图1所示,一种基于光场多层折射模型的水下双目视觉立体匹配方法,包括以下步骤:
步骤一:本实施例采用中国专利CN201710702222中的“基于多层折射模型的水下立体视觉系统标定方法”中所述的相机的多层折射立体模型。相机封装在舱内后,相机坐标系z轴即相机光轴与“空气-水”分界面一般不垂直。因此建立z轴与“空气-水”分界面垂直的多层折射坐标系,采用中国专利CN201710702222中的“基于多层折射模型的水下立体视觉系统标定方法”获得法向量参数(nL,nR),根据法向量参数计算相机坐标系与多层折射坐标系的转换关系。多层折射成像坐标系与相机坐标系的关系可表示为:
Pr=cRrPr+ctr
cRr=[nc×zc nc×(nc×zc) nc]
ctr=[0 0 0]T
zc=[0 0 1]T
然后根据相机的多层折射模型,建立立体视觉坐标系。以左相机的光心为原点,左相机光心与右相机的光心的连线方向作为x轴,以左相机当前左相机的光场的z轴(即界面的法线)与x轴叉乘得到y轴,然后x轴与y轴叉乘得到z轴。得到立体视觉坐标系:
Pr=rRnewPnew+rtnew
rRnew=[nx nr×zx nx×(nr×zx)]
rtnew=[0 0 0]T
zc=[0 0 1]T
其中nx为左右相机光心构成的单位向量在多层折射坐标系下的表示。多层折射坐标系相对立体视觉坐标系的关系可表达为:Pnew=newRrPr+newtr,其中:newRr=rRnew -1。然后定义方向图像内参矩阵,在立体视觉坐标系下建立左右方向图像矩阵。
步骤二:计算光线在多层折射坐标系下的方向向量。首先计算左右方向图像中的任意像素在立体视觉坐标系下对应的光线的方向向量IL_stereo和IR_stereo。然后根据立体视觉坐标系与多层折射坐标系的坐标变换关系:Pr=rRnewPnew,得到光线在多层折射坐标系下的方向向量IL_reflect和IR_reflect。
步骤三:根据光场表示方法,分别计算左右方向图像像点经过多层界面传播和折射后到空气中的光线并转换成光线矢量和本实施例根据中国专利CN109490251A“基于光场多层折射模型的水下折射率自标定方法”所述的光场模型,将左右方向图像的光线矢量表示为光场:
光线Lr传播距离d0,然后从水进入空气中发生折射,入射光线和折射后光线可表示为:
1Lr=R(s0 t0 1.333 1)×T(d0)×0Lr
步骤五:利用水下双目视觉测量系统获取到的水下目标图像,同时辅以绿色散点激光增加水下图像的纹理性,将采集到的左右图像畸变校正后,利用opencv中的remap函数以及步骤四中的映射表,即可快速计算出左右方向图像,如图2所示。
由于行匹配效果直接影响接下来立体匹配的准确率,这里利用matlab对该环节进行仿真,仿真结果如图3所示,可以看出其行匹配误差低于0.8个像素,表明上述方法计算出来的方向图像行匹配精度很高。
最后,基于步骤五得到的左右方向图像直接利用空气中的SGBM算法即可准确快速地计算出视差图,如图4所示。水下双目视觉的立体匹配得以准确快速地实现。
Claims (2)
1.一种基于光场多层折射模型的水下双目视觉立体匹配方法,其特征在于,包括以下步骤:
步骤一:采用相机的多层折射立体模型,建立立体视觉坐标系;定义方向图像内参矩阵,在立体视觉坐标系下建立左右方向图像;
步骤二:计算左右方向图像任意像素在立体视觉坐标系下对应的光线方向向量IL_stereo、IR_stereo,并根据立体视觉坐标系与多层折射坐标系的坐标变换关系:Pr=rRnewPnew,计算得到光线在多层折射坐标系下的方向向量IL_reflect、IR_reflect;
步骤五:利用水下双目视觉测量系统获取到的水下目标图像,根据步骤四计算得到的位置映射表,使用OpenCV中Remap函数快速计算出左右方向图像;最后,针对左右方向图像利用空气中的立体匹配算法快速计算得到视差图;
所述步骤一中的建立立体视觉坐标系,具体包括以下步骤:
步骤1.1:以左相机光心为原点,左相机光心与右相机光心的连线方向为左立体视觉坐标系的x轴;
步骤1.2:将左多层折射坐标系的z轴即分界面的法线与左立体视觉坐标系x轴的叉乘作为左立体视觉坐标系y轴;
步骤1.3:将以上的x轴与y轴叉乘作为z轴;
步骤1.4:将左立体视觉坐标系平移到右相机光心,即得到右立体视觉坐标系:
Pr=rRnewPnew+rtnew
rRnew=[nx nr×zx nx×(nr×zx)]
rtnew=[0 0 0]T
zc=[0 0 1]T;
其中nx为左右相机光心构成的单位向量在多层折射坐标系下的表示;多层折射坐标系相对立体视觉坐标系的关系可表达为:Pnew=newRrPr+newtr,其中:newRr=rRnew -1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910738197.1A CN110533702B (zh) | 2019-08-12 | 2019-08-12 | 一种基于光场多层折射模型的水下双目视觉立体匹配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910738197.1A CN110533702B (zh) | 2019-08-12 | 2019-08-12 | 一种基于光场多层折射模型的水下双目视觉立体匹配方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110533702A CN110533702A (zh) | 2019-12-03 |
CN110533702B true CN110533702B (zh) | 2023-04-18 |
Family
ID=68662970
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910738197.1A Active CN110533702B (zh) | 2019-08-12 | 2019-08-12 | 一种基于光场多层折射模型的水下双目视觉立体匹配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110533702B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116817794B (zh) * | 2023-06-27 | 2024-02-13 | 浙江大学 | 一种基于结构光的水下高精度三维成像装置及方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106952341A (zh) * | 2017-03-27 | 2017-07-14 | 中国人民解放军国防科学技术大学 | 一种基于视觉的水下场景三维点云重建方法及其系统 |
CN107358632A (zh) * | 2017-06-29 | 2017-11-17 | 西北工业大学 | 应用于水下双目立体视觉的水下摄像机标定方法 |
CN107507242A (zh) * | 2017-08-16 | 2017-12-22 | 华中科技大学无锡研究院 | 一种基于光场模型的多层折射系统成像模型构建方法 |
CN107767420A (zh) * | 2017-08-16 | 2018-03-06 | 华中科技大学无锡研究院 | 一种水下立体视觉系统的标定方法 |
CN107907048A (zh) * | 2017-06-30 | 2018-04-13 | 长沙湘计海盾科技有限公司 | 一种基于线结构光扫描的双目立体视觉三维测量方法 |
CN109059873A (zh) * | 2018-06-08 | 2018-12-21 | 上海大学 | 基于光场多层折射模型的水下三维重建装置和方法 |
CN109152615A (zh) * | 2016-05-23 | 2019-01-04 | 马科外科公司 | 在机器人手术过程期间识别和跟踪物理对象的系统和方法 |
CN109490251A (zh) * | 2018-10-26 | 2019-03-19 | 上海大学 | 基于光场多层折射模型的水下折射率自标定方法 |
-
2019
- 2019-08-12 CN CN201910738197.1A patent/CN110533702B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109152615A (zh) * | 2016-05-23 | 2019-01-04 | 马科外科公司 | 在机器人手术过程期间识别和跟踪物理对象的系统和方法 |
CN106952341A (zh) * | 2017-03-27 | 2017-07-14 | 中国人民解放军国防科学技术大学 | 一种基于视觉的水下场景三维点云重建方法及其系统 |
CN107358632A (zh) * | 2017-06-29 | 2017-11-17 | 西北工业大学 | 应用于水下双目立体视觉的水下摄像机标定方法 |
CN107907048A (zh) * | 2017-06-30 | 2018-04-13 | 长沙湘计海盾科技有限公司 | 一种基于线结构光扫描的双目立体视觉三维测量方法 |
CN107507242A (zh) * | 2017-08-16 | 2017-12-22 | 华中科技大学无锡研究院 | 一种基于光场模型的多层折射系统成像模型构建方法 |
CN107767420A (zh) * | 2017-08-16 | 2018-03-06 | 华中科技大学无锡研究院 | 一种水下立体视觉系统的标定方法 |
CN109059873A (zh) * | 2018-06-08 | 2018-12-21 | 上海大学 | 基于光场多层折射模型的水下三维重建装置和方法 |
CN109490251A (zh) * | 2018-10-26 | 2019-03-19 | 上海大学 | 基于光场多层折射模型的水下折射率自标定方法 |
Non-Patent Citations (3)
Title |
---|
Binocular vision-based underwater ranging methods;Shuxiang Guo等;《IEEE Xplore》;20171231;全文 * |
单相机监控偏折术测量方法;李晨等;《光学学报》;20171031;第37卷(第10期);全文 * |
水下同步扫描三角测距成像理论建模及仿真分析;金攀等;《应用光学》;20181115;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110533702A (zh) | 2019-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109741405B (zh) | 一种基于对偶结构光rgb-d相机的深度信息采集系统 | |
CN109242908B (zh) | 用于水下双目视觉测量系统的标定方法 | |
CN107833181B (zh) | 一种基于变焦立体视觉的三维全景图像生成方法 | |
CN109544628B (zh) | 一种指针式仪表的准确读数识别系统及方法 | |
CN109579695B (zh) | 一种基于异构立体视觉的零件测量方法 | |
CN106952341B (zh) | 一种基于视觉的水下场景三维点云重建方法及其系统 | |
CN111127540B (zh) | 一种三维虚拟空间自动测距方法及系统 | |
Kunz et al. | Hemispherical refraction and camera calibration in underwater vision | |
CN109712232B (zh) | 一种基于光场的物体表面轮廓三维成像方法 | |
CN111667536A (zh) | 一种基于变焦相机深度估计的参数标定方法 | |
Jordt | Underwater 3D reconstruction based on physical models for refraction and underwater light propagation | |
CN111709985B (zh) | 一种基于双目视觉的水下目标测距方法 | |
CN102831601A (zh) | 基于联合相似性测度和自适应支持权重的立体匹配方法 | |
CN111429571B (zh) | 一种基于时空图像信息联合相关的快速立体匹配方法 | |
CN110728745B (zh) | 一种基于多层折射图像模型的水下双目立体视觉三维重建方法 | |
CN107358632A (zh) | 应用于水下双目立体视觉的水下摄像机标定方法 | |
CN107560554A (zh) | 一种基于旋转透镜的三维信息视觉测量方法 | |
CN109490251A (zh) | 基于光场多层折射模型的水下折射率自标定方法 | |
Xie et al. | Underwater large field of view 3D imaging based on fisheye lens | |
CN106709955A (zh) | 基于双目立体视觉的空间坐标系标定系统和方法 | |
CN114359406A (zh) | 自动对焦双目摄像头的标定、3d视觉及深度点云计算方法 | |
CN115359127A (zh) | 一种适用于多层介质环境下的偏振相机阵列标定方法 | |
CN116579962A (zh) | 一种基于鱼眼相机的全景感知方法、装置、设备及介质 | |
CN110533702B (zh) | 一种基于光场多层折射模型的水下双目视觉立体匹配方法 | |
CN107256563B (zh) | 基于差异液位图像序列的水下三维重建系统及其方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |