CN113129350A - 一种基于相机阵列的深度提取方法 - Google Patents

一种基于相机阵列的深度提取方法 Download PDF

Info

Publication number
CN113129350A
CN113129350A CN202110385517.7A CN202110385517A CN113129350A CN 113129350 A CN113129350 A CN 113129350A CN 202110385517 A CN202110385517 A CN 202110385517A CN 113129350 A CN113129350 A CN 113129350A
Authority
CN
China
Prior art keywords
image
camera
point
images
homologous
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110385517.7A
Other languages
English (en)
Other versions
CN113129350B (zh
Inventor
王宇
袁翔
耿浩文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changchun University of Science and Technology
Original Assignee
Changchun University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changchun University of Science and Technology filed Critical Changchun University of Science and Technology
Priority to CN202110385517.7A priority Critical patent/CN113129350B/zh
Publication of CN113129350A publication Critical patent/CN113129350A/zh
Application granted granted Critical
Publication of CN113129350B publication Critical patent/CN113129350B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

本发明提出了一种基于相机阵列的深度提取方法。首先使用相机阵列采集多幅高分辨图像。已知某三维物体的空间坐标点,可以计算其在每幅图像上的投影点坐标。同一物点经过相机投影在每幅图像上的投影点集合称为同源点。每幅图像上的同源点颜色相似度最高,即同源点颜色值的统计误差最小。根据多幅图像中同源点的视差关系,计算出参考图像各个像素点在其他图像中同源点的位置,通过寻找每个像素点对应的同源点颜色值统计误差最小的情况,即可得到参考图像与其相邻图像的视差图。

Description

一种基于相机阵列的深度提取方法
技术领域
本发明属于三维图像处理技术领域,涉及一种三维深度信息获取方法。
背景技术
目前,深度信息获取在三维立体显示、人脸识别、机器视觉等领域有着广泛的应用。目前使用较为广泛的获取深度信息的方法,是使用两个相机或者多个相机从不同视角获得图像,因为多个相机之间会有一定的间距,所以从不同视角获得的图像会存在一定的视差,其中视差可以根据已知的相机参数转换为物体的深度信息。
而传统获取视差图的方法是使用双目立体视觉,双目立体视觉根据获取的左右两幅图像,生成视差图。双目立体视觉获取视差图时只考虑左右两幅图像,生成视差图的过程中,不仅计算结果会出现错误匹配,还容易受噪声影响,无法直接得到最优视差。
本发明使用相机阵列采集三维物体的多幅视图,利用多幅视图生成视差图,降低了错误匹配的几率,同时也减少了噪声的影响。并且相机阵列每行每列相邻相机光心间距相等,使每幅图像上的同源点视差以正比例关系变化,准确获得一系列同源点的坐标。
发明内容
本发明提出了一种基于相机阵列的深度提取方法。首先使用相机阵列采集多幅高分辨图像。已知某三维物体的空间坐标点,可以计算其在每幅图像上的投影点坐标。同一物点经过相机投影在每幅图像上的投影点集合称为同源点。每幅图像上的同源点颜色相似度最高,即同源点颜色值的统计误差最小。根据多幅图像中同源点的视差关系,计算出参考图像各个像素点在其他图像中同源点的位置,通过寻找每个像素点对应的同源点颜色值统计误差最小的情况,即可得到参考图像与其相邻图像的视差图。
本发明采取的技术方案包括下列步骤:
(一)使用相机阵列采集三维物体的多幅图像,用来提取深度信息。
设相机阵列维数为(2M-1)(行)×(2N-1)(列),每个相机焦距为f,相机成像平面物理大小为cx(长)×cy(宽),每行每列相邻相机光心间距相等,大小为p。相机阵列的所有相机在一个空间直角坐标系xOy平面上,第一行第一列相机光心所处位置为坐标系xOy原点,如图1所示。使用上述相机阵列采集(2M-1)(行)×(2N-1)(列)幅图像I(m,n),m为图像所处位置的空间行坐标,n为空间列坐标,每幅图像分辨率大小为Nu(行)×Nv(列),每幅图像坐标系uOv,以图像左上角为坐标原点,u轴与x轴相互平行且正方向相同,其为每幅图像行坐标方向,v轴与y轴相互平行且正方向相同,其为每幅图像列坐标方向。
(二)根据多幅图像中同源点间的视差关系,计算参考图像中每个像素点在其他图像中的同源点坐标。
根据透镜成像原理可知,在相机阵列采集图像时,三维物体的任意一个物点经透镜成像,都可以在相机成像平面上得到该物点所成的一系列像点,即同源点。
如图2所示,设三维物体A点到相机的距离为l,A点经过第(1,n)相机投影在相机成像平面上的点为A1,n,图像坐标为(u1,vn);经过第(m,n)相机投影在相机成像平面上的点为Am,n,图像坐标为(um,vn);经过第(m+1,n)相机投影在相机成像平面上的点为Am+1,n,图像坐标为(um+1,vn)。ΔU1为图像行坐标um和um+1之间的差值,ΔUm为图像行坐标u1和um+1之间的差值。根据图2所示三角关系可以推出:
Figure BDA0003014589520000031
Figure BDA0003014589520000032
Figure BDA0003014589520000033
为相机成像平面上每个像素点的物理大小。根据公式(1)、(2)可推出ΔU1和ΔUm(m=1,2,…,2M-2)的关系式:
ΔUm=m×ΔU1 (3)
同理,设ΔV1为图像列坐标vn和vn+1之间的差值;ΔVn为图像列坐标v1和vn+1之间的差值。推出ΔV1和ΔVn(n=1,2,…,2N-2)的关系式:
ΔVn=n×ΔV1 (4)
因此,在等间距相机阵列采集的多幅图像中,一幅图像与其他图像同源点之间的视差和对应的成像相机之间的距离满足正比函数关系。
选择相机阵列的中央相机采集得到的图像I(M,N)为参考图像,对于参考图像I(M,N)的像素点i(u,v),根据公式(3)、(4)可以计算出在其他图像I(m,n)中的同源点图像坐标um,vn
um=u-βxΔU1 (5)
vn=v-βyΔV1 (6)
βx=M-m为图像I(m,n)与图像I(M,N)上的同源点行坐标间正比函数的比例系数,βy=N-n为图像I(m,n)与图像I(M,N)上的同源点列坐标间正比函数的比例系数。
(三)在视差搜索范围D内的不同视差d处,采用欧氏距离计算同源点间的颜色值误差,颜色值误差最小时对应的d值为参考图像中该像素点的视差值。
根据公式(5)、(6),计算得到参考图像I(M,N)中每个像素点在其他图像中的一系列同源点。因为每幅图像上的同源点颜色相似度最高,即同源点颜色值的统计误差最小,所以本发明采用欧氏距离方法统计同源点间的颜色值误差。在不同视差d处,I(M,N)中像素点i(u,v)与在某幅图像I(m,n)中的同源点的欧式距离表示为E(m,n),根据公式(7)计算得到:
Figure BDA0003014589520000041
将在像素点i(u,v),参考图像I(M,N)与其余图像I(m,n)计算得到的E(m,n)聚合得到最终统计误差V(u,v,d):
Figure BDA0003014589520000042
参考图像中像素点的视差值
Figure BDA0003014589520000043
可以通过在视差搜索范围D内使得V(u,v,d)最小的d值来确定,即:
Figure BDA0003014589520000044
(四)将获得的参考图像的视差图转换为深度图。
使用已知相机参数将参考图像视差图中的视差值转换为物体深度值l,以此获得深度图:
Figure BDA0003014589520000045
本发明提出一种基于相机阵列的深度提取方法,与通常采用的双目相机获得深度信息的方式相比,本发明的深度图获取方式具有如下优势:
(1)双目相机立体匹配获取深度时,对于弱纹理区域及遮挡区域效果不佳,相机阵列可以采集三维物体的多视角信息,能够将更多信息进行融合,改善深度图质量。
(2)根据多幅图像中同源点的视差关系,可以计算同源点位置坐标,不需要经过传统立体匹配方法中的大范围搜索过程。
附图说明
图1是相机阵列采集示意图;
图2是同源点关系原理图;
图3是三维物体;
图4是相机阵列采集的7*7幅图像;
图5是本发明生成的视差图;
图6是本发明生成的深度图。
具体实施方式
(一)使用相机阵列采集三维物体的多幅图像,用来提取深度信息。
本发明实施例中用3dsmax仿真采集系统。M=4,N=4,相机阵列维数为7*7,每个相机的焦距f=50mm,相机成像平面物理大小为36mm*36mm,每行每列相邻相机光心间距相等,大小为p=5mm。如图3所示为实验采集的三维物体,茶壶和花瓶前后放置在相机阵列前方,茶壶与相机阵列距离100mm,花瓶与相机阵列距离135mm。如图4所示为相机阵列采集的7*7幅图像,每幅图像的分辨率为400*400像素。
(二)根据多幅图像中同源点间的视差关系,计算参考图像中每个像素点在其他图像中的同源点坐标。
选择相机阵列的中央相机采集得到的图像I(4,4)为参考图像,对于参考图像I(4,4)的像素点i(u,v),根据公式(5)、(6)计算出在其他图像中的同源点图像坐标(um,vn)。
(三)在视差搜索范围D∈[10,30]内的不同视差d处,采用欧氏距离计算同源点间的颜色值误差,颜色值误差最小时对应的d值为参考图像中该像素点的视差值。
先由公式(7)计算在不同视差d处,图像I(4,4)中像素点i(u,v)分别与在其余图像中的同源点的欧氏距离E(m,n),根据公式(8),将图像I(4,4)中像素点i(u,v)分别与其余图像计算得到的欧氏距离E(m,n)聚合,得到最终统计误差V(u,v,d)。最后根据公式(9),在视差搜索范围D内,使V(u,v,d)最小的d值为像素点i(u,v)的视差值。
图像I(4,4)中的每个像素点重复步骤(二)、(三),得到图像I(4,4)每个像素点的视差值,即可得到参考图像I(4,4)与其相邻图像I(4,5)的视差图,视差图如图5所示。
(四)将获得的参考图像的视差图转换为深度图。
根据公式(10),使用已知相机参数将I(4,4)视差图中的视差值转换为物体深度值l,获得深度图。
深度图如图6所示,深度图中深色表示深度值较小,浅色表示深度值较大。

Claims (1)

1.一种基于相机阵列的深度提取方法,其特征在于包括下列步骤:
(一)使用相机阵列采集三维物体的多幅图像,用来提取深度信息。
设相机阵列维数为(2M-1)(行)×(2N-1)(列),每个相机焦距为f,相机成像平面物理大小为cx(长)×cy(宽),每行每列相邻相机光心间距相等,大小为p。相机阵列的所有相机在一个空间直角坐标系xOy平面上,第一行第一列相机光心所处位置为坐标系xOy原点,如图1所示。使用上述相机阵列采集(2M-1)(行)×(2N-1)(列)幅图像I(m,n),m为图像所处位置的空间行坐标,n为空间列坐标,每幅图像分辨率大小为Nu(行)×Nv(列),每幅图像坐标系uOv,以图像左上角为坐标原点,u轴与x轴相互平行且正方向相同,其为每幅图像行坐标方向,v轴与y轴相互平行且正方向相同,其为每幅图像列坐标方向。
(二)根据多幅图像中同源点间的视差关系,计算参考图像中每个像素点在其他图像中的同源点坐标。
根据透镜成像原理可知,在相机阵列采集图像时,三维物体的任意一个物点经透镜成像,都可以在相机成像平面上得到该物点所成的一系列像点,即同源点。
如图2所示,设三维物体A点到相机的距离为l,A点经过第(1,n)相机投影在相机成像平面上的点为A1,n,图像坐标为(u1,vn);经过第(m,n)相机投影在相机成像平面上的点为Am,n,图像坐标为(um,vn);经过第(m+1,n)相机投影在相机成像平面上的点为Am+1,n,图像坐标为(um+1,vn)。ΔU1为图像行坐标um和um+1之间的差值,ΔUm为图像行坐标u1和um+1之间的差值。根据图2所示三角关系可以推出:
Figure FDA0003014589510000021
Figure FDA0003014589510000022
Figure FDA0003014589510000023
为相机成像平面上每个像素点的物理大小。根据公式(1)、(2)可推出ΔU1和ΔUm(m=1,2,…,2M-2)的关系式:
ΔUm=m×ΔU1 (3)
同理,设ΔV1为图像列坐标vn和vn+1之间的差值;ΔVn为图像列坐标v1和vn+1之间的差值。推出ΔV1和ΔVn(n=1,2,…,2N-2)的关系式:
ΔVn=n×ΔV1 (4)
因此,在等间距相机阵列采集的多幅图像中,一幅图像与其他图像同源点之间的视差和对应的成像相机之间的距离满足正比函数关系。
选择相机阵列的中央相机采集得到的图像I(M,N)为参考图像,对于参考图像I(M,N)的像素点i(u,v),根据公式(3)、(4)可以计算出在其他图像I(m,n)中的同源点图像坐标um,vn
um=u-βxΔU1 (5)
vn=v-βyΔV1 (6)
βx=M-m为图像I(m,n)与图像I(M,N)上的同源点行坐标间正比函数的比例系数,βy=N-n为图像I(m,n)与图像I(M,N)上的同源点列坐标间正比函数的比例系数。
(三)在视差搜索范围D内的不同视差d处,采用欧氏距离计算同源点间的颜色值误差,颜色值误差最小时对应的d值为参考图像中该像素点的视差值。
根据公式(5)、(6),计算得到参考图像I(M,N)中每个像素点在其他图像中的一系列同源点。因为每幅图像上的同源点颜色相似度最高,即同源点颜色值的统计误差最小,所以本发明采用欧氏距离方法统计同源点间的颜色值误差。在不同视差d处,I(M,N)中像素点i(u,v)与在某幅图像I(m,n)中的同源点的欧式距离表示为E(m,n),根据公式(7)计算得到:
Figure FDA0003014589510000031
将在像素点i(u,v),参考图像I(M,N)与其余图像I(m,n)计算得到的E(m,n)聚合得到最终统计误差V(u,v,d):
Figure FDA0003014589510000032
参考图像中像素点的视差值
Figure FDA0003014589510000033
可以通过在视差搜索范围D内使得V(u,v,d)最小的d值来确定,即:
Figure FDA0003014589510000034
(四)将获得的参考图像的视差图转换为深度图。
使用已知相机参数将参考图像视差图中的视差值转换为物体深度值l,以此获得深度图:
Figure FDA0003014589510000035
CN202110385517.7A 2021-04-12 2021-04-12 一种基于相机阵列的深度提取方法 Expired - Fee Related CN113129350B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110385517.7A CN113129350B (zh) 2021-04-12 2021-04-12 一种基于相机阵列的深度提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110385517.7A CN113129350B (zh) 2021-04-12 2021-04-12 一种基于相机阵列的深度提取方法

Publications (2)

Publication Number Publication Date
CN113129350A true CN113129350A (zh) 2021-07-16
CN113129350B CN113129350B (zh) 2022-12-30

Family

ID=76775938

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110385517.7A Expired - Fee Related CN113129350B (zh) 2021-04-12 2021-04-12 一种基于相机阵列的深度提取方法

Country Status (1)

Country Link
CN (1) CN113129350B (zh)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101720047A (zh) * 2009-11-03 2010-06-02 上海大学 基于颜色分割的多目摄像立体匹配获取深度图像的方法
CN102164298A (zh) * 2011-05-18 2011-08-24 长春理工大学 全景成像系统中基于立体匹配的元素图像获取方法
US20150326801A1 (en) * 2014-05-06 2015-11-12 Kalpana Seshadrinathan Rectification techniques for heterogeneous camera arrays
CN105931190A (zh) * 2016-06-14 2016-09-07 西北工业大学 高角度分辨率光场获取装置与图像生成方法
CN107358576A (zh) * 2017-06-24 2017-11-17 天津大学 基于卷积神经网络的深度图超分辨率重建方法
CN107545586A (zh) * 2017-08-04 2018-01-05 中国科学院自动化研究所 基于光场极限平面图像局部的深度获取方法及系统
CN109147036A (zh) * 2018-08-03 2019-01-04 北京航空航天大学 一种基于深度学习的集成成像微图像阵列快速生成方法
US20190197700A1 (en) * 2017-12-21 2019-06-27 612 Authentic Media DBA CrumplePop Systems and methods to track objects in video
CN110232389A (zh) * 2019-06-13 2019-09-13 内蒙古大学 一种基于绿色作物特征提取不变性的立体视觉导航方法
CN111127572A (zh) * 2020-01-06 2020-05-08 长春理工大学 基于轴向采集方式的集成成像深度图获取方法
US20200195906A1 (en) * 2018-12-12 2020-06-18 Verizon Patent And Licensing Inc. Camera array including camera modules

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101720047A (zh) * 2009-11-03 2010-06-02 上海大学 基于颜色分割的多目摄像立体匹配获取深度图像的方法
CN102164298A (zh) * 2011-05-18 2011-08-24 长春理工大学 全景成像系统中基于立体匹配的元素图像获取方法
US20150326801A1 (en) * 2014-05-06 2015-11-12 Kalpana Seshadrinathan Rectification techniques for heterogeneous camera arrays
CN105931190A (zh) * 2016-06-14 2016-09-07 西北工业大学 高角度分辨率光场获取装置与图像生成方法
CN107358576A (zh) * 2017-06-24 2017-11-17 天津大学 基于卷积神经网络的深度图超分辨率重建方法
CN107545586A (zh) * 2017-08-04 2018-01-05 中国科学院自动化研究所 基于光场极限平面图像局部的深度获取方法及系统
US20190197700A1 (en) * 2017-12-21 2019-06-27 612 Authentic Media DBA CrumplePop Systems and methods to track objects in video
CN109147036A (zh) * 2018-08-03 2019-01-04 北京航空航天大学 一种基于深度学习的集成成像微图像阵列快速生成方法
US20200195906A1 (en) * 2018-12-12 2020-06-18 Verizon Patent And Licensing Inc. Camera array including camera modules
CN110232389A (zh) * 2019-06-13 2019-09-13 内蒙古大学 一种基于绿色作物特征提取不变性的立体视觉导航方法
CN111127572A (zh) * 2020-01-06 2020-05-08 长春理工大学 基于轴向采集方式的集成成像深度图获取方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
KYUNG-IL JOO等: "Light-Field Camera for Fast Switching of Time-Sequential Two-Dimensional and Three-Dimensional Image Capturing at Video Rate", 《IEEE TRANSACTIONS ON INDUSTRIAL ELECTRONICS》 *
王宇等: "基于深度调节方法的集成成像畸变消除", 《光学精密工程》 *
陈佃文: "基于4D光场数据的深度信息获取", 《中国优秀硕士学位论文全文数据库》 *

Also Published As

Publication number Publication date
CN113129350B (zh) 2022-12-30

Similar Documents

Publication Publication Date Title
CN104539928B (zh) 一种光栅立体印刷图像合成方法
CN102065313B (zh) 平行式相机阵列的未标定多视点图像校正方法
EP1836859B1 (en) Automatic conversion from monoscopic video to stereoscopic video
TW201724026A (zh) 基於場景之拍攝圖像而產生合併、融合三維點雲
CN110276795B (zh) 一种基于分裂迭代算法的光场深度估计方法
CN107545586B (zh) 基于光场极线平面图像局部的深度获取方法及系统
CN103702103B (zh) 基于双目相机的光栅立体印刷图像合成方法
CN106340045B (zh) 三维人脸重建中基于双目立体视觉的标定优化方法
CN109373912A (zh) 一种基于双目视觉的非接触式六自由度位移测量方法
CN111145269A (zh) 一种鱼眼相机与单线激光雷达的外方位元素的标定方法
WO2007007924A1 (en) Method for calibrating distortion of multi-view image
CN108596960B (zh) 一种光场相机的子孔径图像对齐方法
CN108805921A (zh) 图像获取系统及方法
CN115375745A (zh) 基于偏振微透镜光场影像视差角的绝对深度测量方法
CN113129350B (zh) 一种基于相机阵列的深度提取方法
CN110148216B (zh) 一种双球幕相机的三维建模方法
Yang et al. A multi-view image rectification algorithm for matrix camera arrangement.
CN111429571A (zh) 一种基于时空图像信息联合相关的快速立体匹配方法
Takahashi et al. Measurement of 3-D locations of fruit by binocular stereo vision for apple harvesting in an orchard
CN112950727B (zh) 基于仿生曲面复眼的大视场多目标同时测距方法
CN115496790A (zh) 一种大基线光场视频深度估计方法
CN111815693B (zh) 一种深度图像生成方法和装置
CN111127572A (zh) 基于轴向采集方式的集成成像深度图获取方法
CN110290373B (zh) 一种增大视角的集成成像计算重构方法
CN107610170B (zh) 多目图像重聚焦的深度获取方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20221230