CN107358632A - 应用于水下双目立体视觉的水下摄像机标定方法 - Google Patents
应用于水下双目立体视觉的水下摄像机标定方法 Download PDFInfo
- Publication number
- CN107358632A CN107358632A CN201710513576.1A CN201710513576A CN107358632A CN 107358632 A CN107358632 A CN 107358632A CN 201710513576 A CN201710513576 A CN 201710513576A CN 107358632 A CN107358632 A CN 107358632A
- Authority
- CN
- China
- Prior art keywords
- mrow
- msub
- mfrac
- underwater
- msqrt
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Lenses (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
本发明提供了一种应用于水下双目立体视觉的水下摄像机标定方法,将水中的图像转化为空气中的图像,再利用转换后的图像进行标定。由于分别在焦点位于空气和水的分界处、水面内、水面外对水下成像点和对应无水时空气成像点进行分析和建模,得到了两者的转换关系;通过将水下图像转换为无水时空气图像后再采用空气标定算法标定,不仅可以提高标定精度,还可以继续采用空气中算法进行后续处理,扩展性较强。
Description
技术领域
本发明属水下双目立体视觉技术领域,具体涉及一种应用于水下双目立体视觉的水下摄像机标定方法。
背景技术
海洋中含有极为丰富的油气资源、生物资源和空间资源等,在海洋的探索、开发过程中,必然对探测技术的鲁棒性、实时性、适用性诸多方面提出更多要求。视觉探测具有精度高、速度快、应用场景广泛等优点,已逐渐成为海洋探测的重要技术。水下双目立体视觉技术可应用于大坝缝隙检测定位、海底管道检查和水下任务执行中,一个完整的双目立体视觉系统主要由图像采集、图像预处理、摄像机标定、图像校正、立体匹配、三维几何信息获取这六大部分组成。摄像机标定是为了建立二维平面和三维空间之间的关系,在水与空气的分界处,由于两者的折射率不一样,光从水下进入摄像机时就会产生折射现象,致使空气中的摄像机标定方法不能直接应用于水下。Pessel等在文献“Pessel N,Opderbecke J,Aldon M J.Camera Self-Calibration in Underwater Environment[J].Int.conf.in,2003,7(4):189-219.”中提出的方法,没有考虑水下折射现象,直接对摄像机进行标定,标定的误差较大;Swaminathan等人在文献“R.Swaminathan,M.D.Grossberg.Non-singleViewpoint Catadioptric Cameras:Geometry and Analysis.Int.J.Comp.Vision,2006,6,pp.211-229.”中提出了非单视点模型的成像理论,但是该方法并没有建立目标三维坐标与其图像坐标的联系;王玲玲等在文献“王玲玲.基于双目立体视觉的水下三维重建[D].浙江大学,2011.”中提出将水下图像转化成空气图像后再标定的方法,但该模型忽略了成像点在图像平面的纵坐标;李洪生等在文献“李洪生.水下摄像机标定技术的研究[D].哈尔滨工业大学,2013.”中通过对水下成像过程进行建模,推导出在水下成像点的世界坐标系与图像坐标系的关系,对现有的Tsai标定法进行改进,完成了水下摄像机的标定;张强等在文献“张强,王鑫,李海滨.基于粒子群优化的水下成像系统标定[J].光子学报,2014,43(1):103-107.”中采用粒子群优化算法对水下标定评价函数进行优化,标定出了摄像机光心与防水外壳之间的距离、防水外壳的厚度;Huang等在文献“Huang L,Zhao X,Huang X,etal.Underwater camera model and its use in calibration[C]//IEEE InternationalConference on Information and Automation.IEEE,2015.”中利用平行平面板理论,先将水下折射过程近似为光线穿过一块由空气构成的平面平行板,后采用张正友平面标定方法对水下摄像机进行标定。这些方法有效地提高了水下摄像机标定精度,但在水下双目立体视觉技术中,由于额外的增加了水下摄像机玻璃罩的厚度,后期直接采用空气中的校正算法和匹配算法都会给测量结果带来误差。
发明内容
为了克服现有方法未考虑到光在水中折射、成像点在图像平面的纵坐标和水下摄像机玻璃罩厚度等问题的不足,本发明提出了一种应用于水下双目立体视觉的水下摄像机标定方法,将水中的图像转化为空气中的图像,再利用转换后的图像进行标定。
一种应用于水下双目立体视觉的水下摄像机标定方法,其特征在于步骤如下:
步骤1:在空气中采用基于平面模板的张正友标定法标定出左右摄像机光心的投影坐标(u0,v0)和每个像素的实际大小(dx,dy);
步骤2:建立摄像机焦点分别位于水和空气分界处、水面内、水面外三种情况下水下成像点和对应空气成像点的关系,即:
其中,(Xi,Yi)、(Xa,Ya)分别为水下成像点和对应空气成像点在摄像机坐标系下的坐标,nw、na分别为水和空气的折射率,f为摄像机焦距;
利用图像像素坐标系表示式(1),得到水下图像向对应空气图像的转换模型为:
其中,(ui,vi)、(ua,va)分别为水下成像点和对应空气成像点的图像像素坐标;
步骤3:在水下采集15-20组不同姿态下的标定板图像,将获取的水下标定板图像通过式(2)转化为对应无水时的空气图像;
步骤4:提取转换后水下图像的棋盘格角点,然后采用空气中标定算法得到左右摄像机的参数。
所述的步骤3中将水下图像转化成无水时空气图像时,选取后向映射方式进行灰度插值,插值算法选取双线性插值算法。
所述的步骤4中采用可以精确至亚像素级别的Harris角点检测算法提取角点,选取空气中现有的张正友平面标定法完成水下摄像机标定,得到左右摄像机的参数。
本发明的有益效果是:由于分别在焦点位于空气和水的分界处、水面内、水面外对水下成像点和对应无水时空气成像点进行分析和建模,得到了两者的转换关系;通过将水下图像转换为无水时空气图像后再采用空气标定算法标定,不仅可以提高标定精度,还可以继续采用空气中算法进行后续处理,扩展性较强。
附图说明
图1是水下摄像机结构示意图。
图2是本发明的一种应用于水下双目立体视觉的水下摄像机标定方法流程图。
图3是本发明的水下图像转换对应空气图像的流程图。
图4是采集的原图像和采用本发明转换模型转换后的水下图像。
图5是采用直接标定的结果进行立体校正后的左右水下图像。
图6是采用本发明方法标定的结果进行立体校正后的左右水下图像。
具体实施方式
下面结合附图和实施例对本发明进一步说明,本发明包括但不仅限于下述实施例。
水下摄像机一般由CCD和抗压密封外壳组成,在摄像机镜头前方会采用玻璃板密封防水,相应的结构图如图1所示。其中f为透镜焦距,d为焦点到玻璃板的距离,由于水、玻璃、空气三者的折射率不一样,当光线到达玻璃板时,也会产生折射使得成像光线在其内部会发生一段侧移,但玻璃的厚度与物距一般相差较大,因此可以不考虑玻璃对光线的影响,近似认为折射只发生在水-空气界面处即只产生一次折射。
分别在焦点位于空气和水的分界处和水面内、外时对水下成像点和对应无水时空气成像点进行分析和建模,得到两者的转换关系如下:
其中,(Xi,Yi)、(Xa,Ya)分别为水下成像点和对应空气成像点在摄像机坐标系下的坐标,nw、na分别为水和空气的折射率,f为摄像机焦距,利用图像像素坐标系表示式(3),可得到水下图像向对应空气图像的转换模型为:
其中,(ua,va)为(Xa,Ya)的像素坐标,(ui,vi)为(Xi,Yi)的像素坐标,(dx,dy)为每个像素的实际大小,可通过在空气中标定获取,(u0,v0)为图像主点坐标,即左右摄像机光心的投影坐标。
通过转换模型,单一水下图像就可向对应空气图像转换。转换后图像中的物点和像点与空气成像过程一致,因此在标定、校正匹配过程中可以直接采用空气中的算法进行处理,无需对现有算法改进。
因此,本发明的一种应用于水下双目立体视觉的水下摄像机标定方法,如图2所示,包括以下几个步骤:
步骤1:先在空气中采用基于平面的张正友平面标定法估计出水下双目立体系统的左右摄像机内参,即光心的投影坐标(u0,v0)和每个像素的实际大小(dx,dy)。
步骤2:在水下采集15-20组不同姿态下的标定板图像,利用步骤1得到的左右摄像机内参,将空气图像中的坐标作为输入,通过式(4)计算在水下图像中的对应坐标,若得到的坐标是非整数,在水下图像中利用双线性插值算法计算非整数点坐标处的灰度值,将该灰度值赋给输入空气图像坐标的灰度值,得到对应无水时的空气图像。图3是水下图像转换为对应空气图像的流程图。图4是采集的原图像和利用转换模型转换后的水下图像。
步骤3:采用可精确至亚像素级的Harris角点检测算法提取转换后标定板图像中的角点,后采用空气中现有的基于平面模板的张正友平面标定法计算出左右摄像机的参数,即内参、外参和左右摄像机之间的旋转和平移矩阵。
为了验证水下图像转换后再标定算法的准确性,利用双目系统在水下采集不同标定板姿态的图像,分别进行直接标定和转换后再标定,由于摄像机内部参数不随环境的改变而改变,利用空气中的标定结果作为真实值分析误差,左右摄像机的参数标定结果如表1和表2所示(fx和fy分别为u轴和v轴上的归一化焦距),并利用标定结果对左右摄像机采集的目标图像进行立体校正,为了更好的进行对比分析,选取立体校正图像的区域放大图如图5和图6所示。
表1左摄像机标定结果对比
表2右摄像机标定结果对比
Claims (3)
1.一种应用于水下双目立体视觉的水下摄像机标定方法,其特征在于步骤如下:
步骤1:在空气中采用基于平面模板的张正友标定法标定出左右摄像机光心的投影坐标(u0,v0)和每个像素的实际大小(dx,dy);
步骤2:建立摄像机焦点分别位于水和空气分界处、水面内、水面外三种情况下水下成像点和对应空气成像点的关系,即:
<mrow>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>X</mi>
<mi>a</mi>
</msub>
<mo>=</mo>
<mfrac>
<msub>
<mi>X</mi>
<mi>i</mi>
</msub>
<msqrt>
<mrow>
<msubsup>
<mi>X</mi>
<mi>i</mi>
<mn>2</mn>
</msubsup>
<mo>+</mo>
<msubsup>
<mi>Y</mi>
<mi>i</mi>
<mn>2</mn>
</msubsup>
</mrow>
</msqrt>
</mfrac>
<mo>&CenterDot;</mo>
<mi>f</mi>
<mo>&CenterDot;</mo>
<mi>tan</mi>
<mrow>
<mo>(</mo>
<mi>arcsin</mi>
<mo>(</mo>
<mrow>
<mfrac>
<msub>
<mi>n</mi>
<mi>a</mi>
</msub>
<msub>
<mi>n</mi>
<mi>w</mi>
</msub>
</mfrac>
<mo>&CenterDot;</mo>
<mi>sin</mi>
<mrow>
<mo>(</mo>
<mrow>
<mi>arctan</mi>
<mrow>
<mo>(</mo>
<mfrac>
<msqrt>
<mrow>
<msubsup>
<mi>X</mi>
<mi>i</mi>
<mn>2</mn>
</msubsup>
<mo>+</mo>
<msubsup>
<mi>Y</mi>
<mi>i</mi>
<mn>2</mn>
</msubsup>
</mrow>
</msqrt>
<mi>f</mi>
</mfrac>
<mo>)</mo>
</mrow>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>Y</mi>
<mi>a</mi>
</msub>
<mo>=</mo>
<mfrac>
<msub>
<mi>Y</mi>
<mi>i</mi>
</msub>
<msqrt>
<mrow>
<msubsup>
<mi>X</mi>
<mi>i</mi>
<mn>2</mn>
</msubsup>
<mo>+</mo>
<msubsup>
<mi>Y</mi>
<mi>i</mi>
<mn>2</mn>
</msubsup>
</mrow>
</msqrt>
</mfrac>
<mo>&CenterDot;</mo>
<mi>f</mi>
<mo>&CenterDot;</mo>
<mi>tan</mi>
<mrow>
<mo>(</mo>
<mi>arcsin</mi>
<mo>(</mo>
<mrow>
<mfrac>
<msub>
<mi>n</mi>
<mi>a</mi>
</msub>
<msub>
<mi>n</mi>
<mi>w</mi>
</msub>
</mfrac>
<mo>&CenterDot;</mo>
<mi>sin</mi>
<mrow>
<mo>(</mo>
<mrow>
<mi>arctan</mi>
<mrow>
<mo>(</mo>
<mfrac>
<msqrt>
<mrow>
<msubsup>
<mi>X</mi>
<mi>i</mi>
<mn>2</mn>
</msubsup>
<mo>+</mo>
<msubsup>
<mi>Y</mi>
<mi>i</mi>
<mn>2</mn>
</msubsup>
</mrow>
</msqrt>
<mi>f</mi>
</mfrac>
<mo>)</mo>
</mrow>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,(Xi,Yi)、(Xa,Ya)分别为水下成像点和对应空气成像点在摄像机坐标系下的坐标,nw、na分别为水和空气的折射率,f为摄像机焦距;
利用图像像素坐标系表示式(1),得到水下图像向对应空气图像的转换模型为:
<mrow>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>u</mi>
<mi>a</mi>
</msub>
<mo>=</mo>
<msub>
<mi>u</mi>
<mn>0</mn>
</msub>
<mo>+</mo>
<mfrac>
<mrow>
<mo>(</mo>
<msub>
<mi>u</mi>
<mi>i</mi>
</msub>
<mo>-</mo>
<msub>
<mi>u</mi>
<mn>0</mn>
</msub>
<mo>)</mo>
<mi>f</mi>
<mo>&CenterDot;</mo>
<mi>tan</mi>
<mo>(</mo>
<mi>arcsin</mi>
<mo>(</mo>
<mrow>
<mfrac>
<msub>
<mi>n</mi>
<mi>a</mi>
</msub>
<msub>
<mi>n</mi>
<mi>w</mi>
</msub>
</mfrac>
<mo>&CenterDot;</mo>
<mi>sin</mi>
<mrow>
<mo>(</mo>
<mrow>
<mi>arctan</mi>
<mrow>
<mo>(</mo>
<mfrac>
<msqrt>
<mrow>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>u</mi>
<mi>i</mi>
</msub>
<mi>d</mi>
<mi>x</mi>
<mo>-</mo>
<msub>
<mi>u</mi>
<mn>0</mn>
</msub>
<mi>d</mi>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>+</mo>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>v</mi>
<mi>i</mi>
</msub>
<mi>d</mi>
<mi>y</mi>
<mo>-</mo>
<msub>
<mi>v</mi>
<mn>0</mn>
</msub>
<mi>d</mi>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
</msqrt>
<mi>f</mi>
</mfrac>
<mo>)</mo>
</mrow>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
<msqrt>
<mrow>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>u</mi>
<mi>i</mi>
</msub>
<mi>d</mi>
<mi>x</mi>
<mo>-</mo>
<msub>
<mi>u</mi>
<mn>0</mn>
</msub>
<mi>d</mi>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>+</mo>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>v</mi>
<mi>i</mi>
</msub>
<mi>d</mi>
<mi>y</mi>
<mo>-</mo>
<msub>
<mi>v</mi>
<mn>0</mn>
</msub>
<mi>d</mi>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
</msqrt>
</mfrac>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>v</mi>
<mi>a</mi>
</msub>
<mo>=</mo>
<msub>
<mi>v</mi>
<mn>0</mn>
</msub>
<mo>+</mo>
<mfrac>
<mrow>
<mo>(</mo>
<msub>
<mi>v</mi>
<mi>i</mi>
</msub>
<mo>-</mo>
<msub>
<mi>v</mi>
<mn>0</mn>
</msub>
<mo>)</mo>
<mi>f</mi>
<mo>&CenterDot;</mo>
<mi>tan</mi>
<mo>(</mo>
<mi>arcsin</mi>
<mo>(</mo>
<mrow>
<mfrac>
<msub>
<mi>n</mi>
<mi>a</mi>
</msub>
<msub>
<mi>n</mi>
<mi>w</mi>
</msub>
</mfrac>
<mo>&CenterDot;</mo>
<mi>sin</mi>
<mrow>
<mo>(</mo>
<mrow>
<mi>arctan</mi>
<mrow>
<mo>(</mo>
<mfrac>
<msqrt>
<mrow>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>u</mi>
<mi>i</mi>
</msub>
<mi>d</mi>
<mi>x</mi>
<mo>-</mo>
<msub>
<mi>u</mi>
<mn>0</mn>
</msub>
<mi>d</mi>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>+</mo>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>v</mi>
<mi>i</mi>
</msub>
<mi>d</mi>
<mi>y</mi>
<mo>-</mo>
<msub>
<mi>v</mi>
<mn>0</mn>
</msub>
<mi>d</mi>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
</msqrt>
<mi>f</mi>
</mfrac>
<mo>)</mo>
</mrow>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
<msqrt>
<mrow>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>u</mi>
<mi>i</mi>
</msub>
<mi>d</mi>
<mi>x</mi>
<mo>-</mo>
<msub>
<mi>u</mi>
<mn>0</mn>
</msub>
<mi>d</mi>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>+</mo>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>v</mi>
<mi>i</mi>
</msub>
<mi>d</mi>
<mi>y</mi>
<mo>-</mo>
<msub>
<mi>v</mi>
<mn>0</mn>
</msub>
<mi>d</mi>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
</msqrt>
</mfrac>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>2</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,(ui,vi)、(ua,va)分别为水下成像点和对应空气成像点的图像像素坐标;
步骤3:在水下采集15-20组不同姿态下的标定板图像,将获取的水下标定板图像通过式(2)转化为对应无水时的空气图像;
步骤4:提取转换后水下图像的棋盘格角点,然后采用空气中标定算法得到左右摄像机的参数。
2.如权利要求1所述的一种应用于水下双目立体视觉的水下摄像机标定方法,其特征在于:所述的步骤3中将水下图像转化成无水时空气图像时,选取后向映射方式进行灰度插值,插值算法选取双线性插值算法。
3.如权利要求1或2所述的一种应用于水下双目立体视觉的水下摄像机标定方法,其特征在于:所述的步骤4中采用可以精确至亚像素级别的Harris角点检测算法提取角点,选取空气中现有的张正友平面标定法完成水下摄像机标定,得到左右摄像机的参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710513576.1A CN107358632B (zh) | 2017-06-29 | 2017-06-29 | 应用于水下双目立体视觉的水下摄像机标定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710513576.1A CN107358632B (zh) | 2017-06-29 | 2017-06-29 | 应用于水下双目立体视觉的水下摄像机标定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107358632A true CN107358632A (zh) | 2017-11-17 |
CN107358632B CN107358632B (zh) | 2020-01-14 |
Family
ID=60273231
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710513576.1A Expired - Fee Related CN107358632B (zh) | 2017-06-29 | 2017-06-29 | 应用于水下双目立体视觉的水下摄像机标定方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107358632B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108629748A (zh) * | 2018-04-16 | 2018-10-09 | 深圳臻迪信息技术有限公司 | 图像矫正方法、装置、电子设备以及计算机可读存储介质 |
CN109490251A (zh) * | 2018-10-26 | 2019-03-19 | 上海大学 | 基于光场多层折射模型的水下折射率自标定方法 |
CN109754428A (zh) * | 2018-11-26 | 2019-05-14 | 西北工业大学 | 一种用于水下双目视觉定位误差的测量方法 |
CN110533702A (zh) * | 2019-08-12 | 2019-12-03 | 上海大学 | 一种基于光场多层折射模型的水下双目视觉立体匹配方法 |
CN110702066A (zh) * | 2019-10-15 | 2020-01-17 | 哈尔滨工程大学 | 一种水下双目相机视觉定位方法 |
CN111784753A (zh) * | 2020-07-03 | 2020-10-16 | 江苏科技大学 | 自主水下机器人回收对接前景视场三维重建立体匹配方法 |
CN112995639A (zh) * | 2021-02-05 | 2021-06-18 | 中国科学院沈阳自动化研究所 | 一种水下目标精细三维感知方法 |
CN114429431A (zh) * | 2022-04-01 | 2022-05-03 | 西南科技大学 | 一种水下到空气中图像转化的辨识方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102221331A (zh) * | 2011-04-11 | 2011-10-19 | 浙江大学 | 一种基于不对称双目立体视觉技术的测量方法 |
CN103247053A (zh) * | 2013-05-16 | 2013-08-14 | 大连理工大学 | 基于双目显微立体视觉的零件精确定位方法 |
CN103971406A (zh) * | 2014-05-09 | 2014-08-06 | 青岛大学 | 基于线结构光的水下目标三维重建方法 |
CN104933718A (zh) * | 2015-06-23 | 2015-09-23 | 广东省自动化研究所 | 一种基于双目视觉的物理坐标定位方法 |
CN105678742A (zh) * | 2015-12-29 | 2016-06-15 | 哈尔滨工业大学深圳研究生院 | 一种水下相机标定方法 |
-
2017
- 2017-06-29 CN CN201710513576.1A patent/CN107358632B/zh not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102221331A (zh) * | 2011-04-11 | 2011-10-19 | 浙江大学 | 一种基于不对称双目立体视觉技术的测量方法 |
CN103247053A (zh) * | 2013-05-16 | 2013-08-14 | 大连理工大学 | 基于双目显微立体视觉的零件精确定位方法 |
CN103971406A (zh) * | 2014-05-09 | 2014-08-06 | 青岛大学 | 基于线结构光的水下目标三维重建方法 |
CN104933718A (zh) * | 2015-06-23 | 2015-09-23 | 广东省自动化研究所 | 一种基于双目视觉的物理坐标定位方法 |
CN105678742A (zh) * | 2015-12-29 | 2016-06-15 | 哈尔滨工业大学深圳研究生院 | 一种水下相机标定方法 |
Non-Patent Citations (3)
Title |
---|
HUANG L等: "Underwater camera model and its use in calibration", 《IEEE INTERNATIONAL CONFERENCE ON INFORMATION AND AUTOMATION》 * |
张文明等: "基于非平行系统的水下图像转化模型", 《光子学报》 * |
王玲玲: "基于双目立体视觉的水下三维重建", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108629748B (zh) * | 2018-04-16 | 2022-08-05 | 深圳臻迪信息技术有限公司 | 图像矫正方法、装置、电子设备以及计算机可读存储介质 |
CN108629748A (zh) * | 2018-04-16 | 2018-10-09 | 深圳臻迪信息技术有限公司 | 图像矫正方法、装置、电子设备以及计算机可读存储介质 |
CN109490251A (zh) * | 2018-10-26 | 2019-03-19 | 上海大学 | 基于光场多层折射模型的水下折射率自标定方法 |
CN109754428A (zh) * | 2018-11-26 | 2019-05-14 | 西北工业大学 | 一种用于水下双目视觉定位误差的测量方法 |
CN109754428B (zh) * | 2018-11-26 | 2022-04-26 | 西北工业大学 | 一种用于水下双目视觉定位误差的测量方法 |
CN110533702A (zh) * | 2019-08-12 | 2019-12-03 | 上海大学 | 一种基于光场多层折射模型的水下双目视觉立体匹配方法 |
CN110533702B (zh) * | 2019-08-12 | 2023-04-18 | 上海大学 | 一种基于光场多层折射模型的水下双目视觉立体匹配方法 |
CN110702066A (zh) * | 2019-10-15 | 2020-01-17 | 哈尔滨工程大学 | 一种水下双目相机视觉定位方法 |
CN110702066B (zh) * | 2019-10-15 | 2022-03-18 | 哈尔滨工程大学 | 一种水下双目相机视觉定位方法 |
CN111784753A (zh) * | 2020-07-03 | 2020-10-16 | 江苏科技大学 | 自主水下机器人回收对接前景视场三维重建立体匹配方法 |
CN111784753B (zh) * | 2020-07-03 | 2023-12-05 | 江苏科技大学 | 自主水下机器人回收对接前景视场三维重建立体匹配方法 |
CN112995639A (zh) * | 2021-02-05 | 2021-06-18 | 中国科学院沈阳自动化研究所 | 一种水下目标精细三维感知方法 |
CN114429431B (zh) * | 2022-04-01 | 2022-06-21 | 西南科技大学 | 一种水下到空气中图像转化的辨识方法及系统 |
CN114429431A (zh) * | 2022-04-01 | 2022-05-03 | 西南科技大学 | 一种水下到空气中图像转化的辨识方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN107358632B (zh) | 2020-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107358632A (zh) | 应用于水下双目立体视觉的水下摄像机标定方法 | |
US11982775B2 (en) | Systems and methods for augmentation of sensor systems and imaging systems with polarization | |
CN109242954B (zh) | 基于模板变形的多视角三维人体重建方法 | |
CN107635129B (zh) | 一种三维三目摄像装置及深度融合方法 | |
US10217293B2 (en) | Depth camera-based human-body model acquisition method and network virtual fitting system | |
CN109544628B (zh) | 一种指针式仪表的准确读数识别系统及方法 | |
CN104930985B (zh) | 基于时空约束的双目视觉三维形貌测量方法 | |
CN103761721B (zh) | 一种适用于空间绳系机器人的立体视觉快速图像拼接方法 | |
CN106780592A (zh) | 基于相机运动和图像明暗的Kinect深度重建算法 | |
CN111784778A (zh) | 基于线性求解非线性优化的双目相机外参标定方法和系统 | |
CN101887589A (zh) | 一种基于立体视觉的实拍低纹理图像重建方法 | |
CN110807815B (zh) | 基于两组相互正交平行线对应消失点的快速水下标定方法 | |
CN110728745B (zh) | 一种基于多层折射图像模型的水下双目立体视觉三维重建方法 | |
CN116071504A (zh) | 一种面向高分辨率图像的多视图立体重建方法 | |
CN115359127A (zh) | 一种适用于多层介质环境下的偏振相机阵列标定方法 | |
CN115330935A (zh) | 一种基于深度学习的三维重建方法及系统 | |
CN110176041B (zh) | 一种基于双目视觉算法的新型列车辅助装配方法 | |
Haner et al. | Joint Under and Over Water Calibration of a Swimmer Tracking System. | |
Lu et al. | Binocular stereo vision based on OpenCV | |
Gracias et al. | Application challenges of underwater vision | |
CN110533702B (zh) | 一种基于光场多层折射模型的水下双目视觉立体匹配方法 | |
Kong | 3D image reconstruction of marine plankton based on virtual reality | |
CN114187409A (zh) | 基于视频图像与激光雷达点云融合建立船舶模型的方法 | |
Mu et al. | Research on target ranging method based on binocular stereo vision | |
Song et al. | Comparative experiment of cloud classification and detection of aerial image by deep learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20200114 Termination date: 20200629 |