CN102609977A - 基于深度融合和曲面演变的多视点三维重建方法 - Google Patents
基于深度融合和曲面演变的多视点三维重建方法 Download PDFInfo
- Publication number
- CN102609977A CN102609977A CN201210009175XA CN201210009175A CN102609977A CN 102609977 A CN102609977 A CN 102609977A CN 201210009175X A CN201210009175X A CN 201210009175XA CN 201210009175 A CN201210009175 A CN 201210009175A CN 102609977 A CN102609977 A CN 102609977A
- Authority
- CN
- China
- Prior art keywords
- depth
- curved surface
- cost
- point
- video camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 230000010354 integration Effects 0.000 title abstract 2
- 238000003384 imaging method Methods 0.000 claims description 15
- 230000000007 visual effect Effects 0.000 claims description 13
- 230000004069 differentiation Effects 0.000 claims description 12
- 238000010606 normalization Methods 0.000 claims description 4
- 238000013519 translation Methods 0.000 claims description 4
- 238000009499 grossing Methods 0.000 abstract 1
- 238000005516 engineering process Methods 0.000 description 9
- 230000008878 coupling Effects 0.000 description 4
- 238000010168 coupling process Methods 0.000 description 4
- 238000005859 coupling reaction Methods 0.000 description 4
- 230000004927 fusion Effects 0.000 description 4
- 238000004040 coloring Methods 0.000 description 2
- 230000004438 eyesight Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000000280 densification Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000003754 machining Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000004800 variational method Methods 0.000 description 1
- 230000004304 visual acuity Effects 0.000 description 1
Images
Abstract
本发明公开了一种基于深度融合和曲面演变的多视点三维重建方法。方法步骤为:首先,对由深度摄像机和可见光摄像机组成的摄像机阵列进行标定并利用标定参数将深度摄像机获得的深度图投影到阵列中的一个视点,得到该视点的初始深度图,依据初始深度图得到初始深度曲面;其次,定义基于曲面演变的能量函数,能量函数的定义包括多摄像机的颜色一致性代价,初始深度曲面的不确定度和曲面平滑项;最后,通过凸化和最小化能量函数驱动深度曲面演变得到最终深度曲面,即三维场景信息。本发明同时融合了初始深度信息和多摄像机的颜色一致性代价,是一种能有效获得场景空间信息的三维重建方法,可满足三维电视、虚拟现实等多方面应用需求。
Description
技术领域
本发明涉及三维深度信息获取系统,特别涉及一种基于深度融合和曲面演变的多视点三维重建方法。
背景技术
随着信息技术与计算机技术的发展,三维信息获取技术已成为生物医学、虚拟现实、影视娱乐等领域的关键技术,在机械加工、影视制作、文物保护、服装设计、建筑设计、城市规划、军事侦察等领域有广阔的应用前景。在上述领域中,人们对三维获取技术的要求也越来越高。而目前主要采用的有多目立体视觉技术、结构光技术、DFM(depth from motion)、SFM(structure from motion)和TOF(Time of Flight)等三维获取技术,这些技术各有优缺点,但还没有一种技术能很好地满足实时性、高精度、高分辨率和低成本的要求。TOF技术是近几年迅速发展起来的三维获取技术,其优点是精度高、实时和廉价;缺点是空间分辨率较低,对噪声敏感,在目标边缘附近的深度数据有较大的不确定性等。多目立体视觉是一种已被深入研究且应用广泛的三维获取技术,其主要缺点是立体匹配计算量大、在纹理少的区域容易产生误匹配,对于阵列摄像机系统,实现代价较高。
已有的融合TOF的深度信息和可见光摄像机的颜色信息获取三维信息的方法主要有两类。第一类是用立体匹配的方法求取的深度和TOF获得的深度进行融合,然而立体匹配在纹理稀少的区域很难获得致密的深度;第二类是以TOF的深度数据为初始值,以可见光摄像机获得的颜色信息为参考,定义基于马尔可夫随机场或双边滤波的能量函数,通过能量函数最小化修正深度值。这一类方法通常基于深度边缘和颜色边缘一致的假设,难以处理前景和背景颜色相近的复杂场景。此外能量函数通常不是凸的,这使得在初始值偏离真实值较远的情况下容易收敛到局部最优解,完整求解能量函数的复杂度较高。
发明内容
本发明的目的是克服现有技术的不足,提供一种基于深度融合和曲面演变的多视点三维重建方法。
基于深度融合和曲面演变的多视点三维重建方法的步骤如下:
1)在由一个深度摄像机和若干个可见光摄像机组成的摄像机阵列中,首先利用深度摄像机和可见光摄像机的标定参数,将深度摄像机得到的深度图像投影到摄像机阵列的某一个视点下,得到该视点下的初始深度图像,以该视点为参考系,根据该视点下的初始深度图像得到初始的深度曲面,对任意一空间点x,用二元特征函数u(x)标记点x是否在深度曲面上,令u(x)=1表示x在曲面外,u(x)=0表示x在曲面上;
2)利用标定参数获得各可见光摄像机间的颜色一致性代价,定义空间点x在摄像机i和j上成像的一致性代价cost(x)ij:
在摄像机i视野下,空间点x处的成像颜色一致性代价函数可定义为
计入统计的cost(x)ij需要满足两个条件:第一,定义αij为点x与摄像机i和j成像视线的夹角,αij需要小于设定的最大夹角αmax;第二,计算满足条件一的cost(x)ij中的最大值cost(x)i-max和最小值cost(x)i-min的差,若cost(x)i-max-cost(x)i-min大于设定的阈值η,则排除cost(x)i-max和cost(x)i-min,ωij为权重系数,根据标定得到的摄像机间距定义为
dij为摄像机i和j的间距;
在点x与摄像机i的成像视线上,计算该视线上各点的代价函数值Ci(x),记视线上最大的代价函数值为Ci(x)max;
4)定义基于颜色一致性代价的能量函数
s.t.u∈{0,1}
其中μ为常系数,ρ(x)表示各可见光摄像机视野下颜色一致性代价的均值,定义为
l为摄像机个数,核函数f(ρ(x))和g(ρ(x))分别表示点x在曲面上和曲面外的代价,核函数的值域在区间[0,1]上,定义为
g(s)=1-f(s)
σ(x)为平滑项系数,以投票权重形式定义
γ为常系数,投票值VOTEi(x)定义为
其中I为点(xt,yt,zt)在深度摄像机强度图像中的强度值,Imax和Imin分别为深度摄像机强度图像中强度值的最大值和最小值,κ为常系数;
5)对能量函数作凸化处理,将二元函数u(x)松弛到连续区间[0,1]上,以能量函数最小化为原则,利用Split Bregman迭代方法求解能量函数驱动深度曲面演变,得到全局最优解,通过定义阈值ε,得到曲面上的点和曲面外部的点,其中,曲面上的点集为
RS:{x:u(x)≤ε}
将最终曲面上的点投影到任一视点上,根据曲面各点的深度距离可获得对应视点下的深度图信息,当有多个点投影到同一点时,只取离该视点最近的点,至此,得到最终的场景空间三维信息。
本发明与现有技术相比具有的有益效果:
1)提出了一种基于深度融合和曲面演变的多视点三维重建方法,该方法能根据深度摄像机得到的深度图,和各可见光摄像机得到的颜色图,重建场景的空间深度信息;
2)本发明中的方法引入了曲面演化的思想,用空间曲面来模拟所求场景的深度曲面,并利用变分方法和主动轮廓模型进行求解。对能量函数的凸优化可确保得到全局最优解;
3)本发明中的方法利用深度摄像机获得的初始深度信息修正了代价函数,结合深度信息的不确定度定义了能量函数。所定义的能量函数,能适应于多数场景的应用。
附图说明
图1为基于深度融合和曲面演变的多视点三维重建方法实施例的总流程图。
具体实施方式
下面,结合附图和具体实施例对本发明作进一步说明。
基于深度融合和曲面演变的多视点三维重建方法的步骤如下:
1)在由一个深度摄像机和若干个可见光摄像机组成的摄像机阵列中,首先利用深度摄像机和可见光摄像机的标定参数,将深度摄像机得到的深度图像投影到摄像机阵列的某一个视点下,得到该视点下的初始深度图像,以该视点为参考系,根据该视点下的初始深度图像得到初始的深度曲面,对任意一空间点x,用二元特征函数u(x)标记点x是否在深度曲面上,令u(x)=1表示x在曲面外,u(x)=0表示x在曲面上;
2)利用标定参数获得各可见光摄像机间的颜色一致性代价,定义空间点x在摄像机i和j上成像的一致性代价cost(x)ij:
在摄像机i视野下,空间点x处的成像颜色一致性代价函数可定义为
计入统计的cost(x)ij需要满足两个条件:第一,定义αij为点x与摄像机i和j成像视线的夹角,αij需要小于设定的最大夹角αmax;第二,计算满足条件一的cost(x)ij中的最大值cost(x)i-max和最小值cost(x)i-min的差,若cost(x)i-max-cost(x)i-min大于设定的阈值η,则排除cost(x)i-max和cost(x)i-min,ωij为权重系数,根据标定得到的摄像机间距定义为
dij为摄像机i和j的间距;
在点x与摄像机i的成像视线上,计算该视线上各点的代价函数值Ci(x),记视线上最大的代价函数值为Ci(x)max;
4)定义基于颜色一致性代价的能量函数
s.t.u∈{0,1}
其中μ为常系数,ρ(x)表示各可见光摄像机视野下颜色一致性代价的均值,定义为
l为摄像机个数,核函数f(ρ(x))和g(ρ(x))分别表示点x在曲面上和曲面外的代价,核函数的值域在区间[0,1]上,定义为
g(s)=1-f(s)
σ(x)为平滑项系数,以投票权重形式定义
γ为常系数,投票值VOTEi(x)定义为
uini(x)表示初始深度曲面,为时间项系数,表示初始深度曲面的不确定度,定义为
其中I为点(xt,yt,zt)在深度摄像机强度图像中的强度值,Imax和Imin分别为深度摄像机强度图像中强度值的最大值和最小值,κ为常系数;
5)对能量函数作凸化处理,将二元函数u(x)松弛到连续区间[0,1]上,以能量函数最小化为原则,利用Split Bregman迭代方法求解能量函数驱动深度曲面演变,得到全局最优解,通过定义阈值ε,得到曲面上的点和曲面外部的点,其中,曲面上的点集为
RS:{x:u(x)≤ε}
将最终曲面上的点投影到任一视点上,根据曲面各点的深度距离可获得对应视点下的深度图信息,当有多个点投影到同一点时,只取离该视点最近的点,至此,得到最终的场景空间三维信息。
实施例
可见光摄像机采用CCD传感器,可以提供分辨率为320×240的彩色图像,用到的深度摄像机为TOF摄像机,型号为Swiss Ranger 4000,可以同时提供分辨率为176×144的深度图像和强度图像。
摄像机阵列具体的标定方法是:首先,对TOF摄像机的强度图像进行上采样,使其分辨率达到352×288;然后,采用张正友的平板摄像机标定法对每个CCD摄像机和TOF摄像机进行标定,得到各摄像机的内参数,从TOF摄像机投影到每个CCD摄像机的外参数,各CCD摄像机之间的外参数。
本实施例方法的总流程图见图1,具体做法可分为以下三步:第一步将TOF摄像机得到的深度图像投影到某一CCD摄像机视野下得到初始的深度图像,以该摄像机为参考系,由初始深度图像得到初始的空间深度曲面;第二步计算空间点在各CCD摄像机视野下的颜色一致性代价,并依据初始的空间深度曲面进行修正;第三步为迭代模块,基于颜色一致性代价和初始深度曲面建立能量函数,并通过能量函数的凸化和迭代求解驱动深度曲面的演变,得到最终的深度曲面,即最终的空间三维信息。
第一步:由于标定是在320×240的彩色图像和352×288的强度图像之间完成的,所以将TOF深度图上采样到354×288;然后利用标定时得到的参数将上采样过的TOF深度图像投影到CCD摄像机视野下,获得CCD视野下的初始深度图像。以该CCD摄像机为参考系,对应的初始深度图像为依据建立空间深度曲面。对空间各点x,用二元特征函数u(x)标记该点是否在深度曲面上,u(x)=1表示在x曲面外,u(x)=0表示x在曲面上。
第二步:利用标定参数计算空间各点在各CCD摄像机视野下的颜色一致性代价。定义空间点x在摄像机i和j上成像颜色一致性代价cost(x)ij:
在CCD摄像机i视野下,空间点x处的颜色一致性代价函数为
统计满足如下两个条件的cost(x)ij:第一,定义αij为点x与摄像机i和j成像视线的夹角,αij需要小于设定的最大夹角αmax;第二,计算满足条件一的cost(x)ij中的最大值cost(x)i-max和最小值cost(x)i-min的差,若大于设定的阈值η,则排除cost(x)i-max和cost(x)i-min。ωij为权重系数,根据标定得到的摄像机间距定义为
dij为摄像机i和j的间距。
在点x与摄像机i的成像视线上,计算该视线上各点的代价函数值Ci(x),记视线上最大的代价函数值为Ci(x)max。
依据初始深度曲面对一致性代价进行修正,比较初始深度曲面上的点xS的代价函数值Ci(xS)和对应视线上其它各点的代价函数值若且xS在摄像机i上的成像点不为图像边缘,则令该点的代价值图像边缘点可用Sobel算子等边缘检测技术得到。
第三步:定义能量函数驱动深度曲面演化。能量函数定义为
s.t.u∈{0,1}
其中μ为常系数。ρ(x)为各CCD摄像机视野下颜色一致性代价的均值。定义为
l为摄像机个数。核函数f(ρ(x))和g(ρ(x))分别表示点x在曲面上和曲面外的代价,定义为
g(s)=1-f(s)
σ(x)为平滑项系数,以投票权重形式定义
γ为常系数,投票值VOTEi(x)定义为
其中I为点(xt,yt,zt)在TOF强度图像中的强度值,Imax和Imin分别为TOF强度图像中强度值的最大值和最小值,κ为常数。
为得到全局最优解,首先对能量函数作凸化处理,将二元函数u(x)松弛到连续区间[0,1]上。以能量函数最小化为原则,利用Split Bregman迭代方法求解能量函数驱动深度曲面演变。在得到最优解后,通过定义阈值ε,得到曲面上的点和曲面外部的点。曲面上的点集为
RS:{x:u(x)≤ε}
将最终曲面上的点投影到任一视点上,根据曲面各点的深度距离可获得对应视点的深度图信息。当有多个点投影到同一点时,只取离该视点最近的点。至此,得到最终的场景空间深度信息。
Claims (1)
1.一种基于深度融合和曲面演变的多视点三维重建方法,其特征在于它的步骤如下:
1)在由一个深度摄像机和若干个可见光摄像机组成的摄像机阵列中,首先利用深度摄像机和可见光摄像机的标定参数,将深度摄像机得到的深度图像投影到摄像机阵列的某一个视点下,得到该视点下的初始深度图像,以该视点为参考系,根据该视点下的初始深度图像得到初始的深度曲面,对任意一空间点x,用二元特征函数u(x)标记点x是否在深度曲面上,令u(x)=1表示x在曲面外,u(x)=0表示x在曲面上;
2)利用标定参数获得各可见光摄像机间的颜色一致性代价,定义空间点x在摄像机i和j上成像的一致性代价cost(x)ij:
在摄像机i视野下,空间点x处的成像颜色一致性代价函数可定义为
计入统计的cost(x)ij需要满足两个条件:第一,定义αij为点x与摄像机i和j成像视线的夹角,αij需要小于设定的最大夹角αmax;第二,计算满足条件一的cost(x)ij中的最大值cost(x)i-max和最小值cost(x)i-min的差,若cost(x)i-max-cost(x)i-min大于设定的阈值η,则排除cost(x)i-max和cost(x)i-min,ωij为权重系数,根据标定得到的摄像机间距定义为
dij为摄像机i和j的间距;
在点x与摄像机i的成像视线上,计算该视线上各点的代价函数值Ci(x),记视线上最大的代价函数值为Ci(x)max;
4)定义基于颜色一致性代价的能量函数
s.t.u∈{0,1}
其中μ为常系数,ρ(x)表示各可见光摄像机视野下颜色一致性代价的均值,定义为
l为摄像机个数,核函数f(ρ(x))和g(ρ(x))分别表示点x在曲面上和曲面外的代价,核函数的值域在区间[0,1]上,定义为
g(s)=1-f(s)
σ(x)为平滑项系数,以投票权重形式定义
γ为常系数,投票值VOTEi(x)定义为
uini(x)表示初始深度曲面,为时间项系数,表示初始深度曲面的不确定度,定义为
其中I为点(xt,yt,zt)在深度摄像机强度图像中的强度值,Imax和Imin分别为深度摄像机强度图像中强度值的最大值和最小值,κ为常系数;
5)对能量函数作凸化处理,将二元函数u(x)松弛到连续区间[0,1]上,以能量函数最小化为原则,利用Split Bregman迭代方法求解能量函数驱动深度曲面演变,得到全局最优解,通过定义阈值ε,得到曲面上的点和曲面外部的点,其中,曲面上的点集为
RS:{x:u(x)≤ε}
将最终曲面上的点投影到任一视点上,根据曲面各点的深度距离可获得对应视点下的深度图信息,当有多个点投影到同一点时,只取离该视点最近的点,至此,得到最终的场景空间三维信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210009175.XA CN102609977B (zh) | 2012-01-12 | 2012-01-12 | 基于深度融合和曲面演变的多视点三维重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210009175.XA CN102609977B (zh) | 2012-01-12 | 2012-01-12 | 基于深度融合和曲面演变的多视点三维重建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102609977A true CN102609977A (zh) | 2012-07-25 |
CN102609977B CN102609977B (zh) | 2014-07-16 |
Family
ID=46527318
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210009175.XA Expired - Fee Related CN102609977B (zh) | 2012-01-12 | 2012-01-12 | 基于深度融合和曲面演变的多视点三维重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102609977B (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103049929A (zh) * | 2012-11-20 | 2013-04-17 | 浙江大学 | 基于联合优化的多摄像机动态场景3d重建方法 |
CN104482983A (zh) * | 2014-12-30 | 2015-04-01 | 中国科学院深圳先进技术研究院 | 一种测量三维料堆的方法 |
CN104535015A (zh) * | 2015-01-13 | 2015-04-22 | 速感科技(北京)有限公司 | 一种基于飞行时间法的三维扫描设备 |
CN104574432A (zh) * | 2015-02-15 | 2015-04-29 | 四川川大智胜软件股份有限公司 | 一种自动多视角人脸自拍图像的三维人脸重建方法及系统 |
CN104599284A (zh) * | 2015-02-15 | 2015-05-06 | 四川川大智胜软件股份有限公司 | 基于多视角手机自拍图像的三维人脸重建方法 |
CN106228613A (zh) * | 2016-06-12 | 2016-12-14 | 深圳超多维光电子有限公司 | 一种虚拟立体场景的构建方法、装置及立体显示设备 |
CN108182727A (zh) * | 2018-01-12 | 2018-06-19 | 武汉科技大学 | 基于多视点几何一致性的相位展开方法 |
CN108369728A (zh) * | 2015-12-22 | 2018-08-03 | 三菱电机株式会社 | 对感测到的测量值进行融合的方法和系统 |
CN108955641A (zh) * | 2018-04-23 | 2018-12-07 | 维沃移动通信有限公司 | 一种深度摄像方法、深度摄像设备及移动终端 |
CN108986155A (zh) * | 2017-06-05 | 2018-12-11 | 富士通株式会社 | 多视点图像的深度估计方法和深度估计设备 |
CN109360234A (zh) * | 2018-08-29 | 2019-02-19 | 清华大学 | 基于总体不确定度的三维场景重建方法及系统 |
CN109360268A (zh) * | 2018-09-29 | 2019-02-19 | 清华大学 | 重建动态物体的表面优化方法及装置 |
CN111489383A (zh) * | 2020-04-10 | 2020-08-04 | 山东师范大学 | 基于深度边缘点与彩色图像的深度图像上采样方法及系统 |
CN114648614A (zh) * | 2022-05-24 | 2022-06-21 | 四川中绳矩阵技术发展有限公司 | 一种目标对象的三维重现方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101321302A (zh) * | 2008-07-08 | 2008-12-10 | 浙江大学 | 基于摄像机阵列的三维实时获取系统 |
CN101556696A (zh) * | 2009-05-14 | 2009-10-14 | 浙江大学 | 基于阵列摄像机的深度图实时获取算法 |
CN102073993A (zh) * | 2010-12-29 | 2011-05-25 | 清华大学 | 一种基于摄像机自标定的抖动视频去模糊方法和装置 |
-
2012
- 2012-01-12 CN CN201210009175.XA patent/CN102609977B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101321302A (zh) * | 2008-07-08 | 2008-12-10 | 浙江大学 | 基于摄像机阵列的三维实时获取系统 |
CN101556696A (zh) * | 2009-05-14 | 2009-10-14 | 浙江大学 | 基于阵列摄像机的深度图实时获取算法 |
CN102073993A (zh) * | 2010-12-29 | 2011-05-25 | 清华大学 | 一种基于摄像机自标定的抖动视频去模糊方法和装置 |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103049929A (zh) * | 2012-11-20 | 2013-04-17 | 浙江大学 | 基于联合优化的多摄像机动态场景3d重建方法 |
CN104482983A (zh) * | 2014-12-30 | 2015-04-01 | 中国科学院深圳先进技术研究院 | 一种测量三维料堆的方法 |
CN104535015A (zh) * | 2015-01-13 | 2015-04-22 | 速感科技(北京)有限公司 | 一种基于飞行时间法的三维扫描设备 |
CN104574432A (zh) * | 2015-02-15 | 2015-04-29 | 四川川大智胜软件股份有限公司 | 一种自动多视角人脸自拍图像的三维人脸重建方法及系统 |
CN104599284A (zh) * | 2015-02-15 | 2015-05-06 | 四川川大智胜软件股份有限公司 | 基于多视角手机自拍图像的三维人脸重建方法 |
CN104574432B (zh) * | 2015-02-15 | 2017-05-24 | 四川川大智胜软件股份有限公司 | 一种自动多视角人脸自拍图像的三维人脸重建方法及系统 |
CN104599284B (zh) * | 2015-02-15 | 2017-06-13 | 四川川大智胜软件股份有限公司 | 基于多视角手机自拍图像的三维人脸重建方法 |
CN108369728A (zh) * | 2015-12-22 | 2018-08-03 | 三菱电机株式会社 | 对感测到的测量值进行融合的方法和系统 |
CN106228613A (zh) * | 2016-06-12 | 2016-12-14 | 深圳超多维光电子有限公司 | 一种虚拟立体场景的构建方法、装置及立体显示设备 |
CN106228613B (zh) * | 2016-06-12 | 2017-11-24 | 深圳超多维光电子有限公司 | 一种虚拟立体场景的构建方法、装置及立体显示设备 |
CN108986155A (zh) * | 2017-06-05 | 2018-12-11 | 富士通株式会社 | 多视点图像的深度估计方法和深度估计设备 |
CN108986155B (zh) * | 2017-06-05 | 2021-12-07 | 富士通株式会社 | 多视点图像的深度估计方法和深度估计设备 |
CN108182727A (zh) * | 2018-01-12 | 2018-06-19 | 武汉科技大学 | 基于多视点几何一致性的相位展开方法 |
CN108182727B (zh) * | 2018-01-12 | 2021-08-17 | 武汉科技大学 | 基于多视点几何一致性的相位展开方法 |
CN108955641A (zh) * | 2018-04-23 | 2018-12-07 | 维沃移动通信有限公司 | 一种深度摄像方法、深度摄像设备及移动终端 |
CN109360234A (zh) * | 2018-08-29 | 2019-02-19 | 清华大学 | 基于总体不确定度的三维场景重建方法及系统 |
CN109360268A (zh) * | 2018-09-29 | 2019-02-19 | 清华大学 | 重建动态物体的表面优化方法及装置 |
CN111489383A (zh) * | 2020-04-10 | 2020-08-04 | 山东师范大学 | 基于深度边缘点与彩色图像的深度图像上采样方法及系统 |
CN111489383B (zh) * | 2020-04-10 | 2022-06-10 | 山东师范大学 | 基于深度边缘点与彩色图像的深度图像上采样方法及系统 |
CN114648614A (zh) * | 2022-05-24 | 2022-06-21 | 四川中绳矩阵技术发展有限公司 | 一种目标对象的三维重现方法及系统 |
CN114648614B (zh) * | 2022-05-24 | 2022-07-26 | 四川中绳矩阵技术发展有限公司 | 一种目标对象的三维重现方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN102609977B (zh) | 2014-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102609977B (zh) | 基于深度融合和曲面演变的多视点三维重建方法 | |
DE112020004813B4 (de) | System zur Erweiterung von Sensorsystemen und Bildgebungssystemen mit Polarisation | |
US11350073B2 (en) | Disparity image stitching and visualization method based on multiple pairs of binocular cameras | |
CN103337095B (zh) | 一种真实空间三维地理实体的立体虚拟显示方法 | |
CN102592275B (zh) | 虚拟视点绘制方法 | |
CN103177439B (zh) | 一种基于黑白格角点匹配的自动标定方法 | |
CN103971408B (zh) | 三维人脸模型生成系统及方法 | |
CN104504671B (zh) | 一种用于立体显示的虚实融合图像生成方法 | |
CN103869486B (zh) | 集成成像三维立体显示装置及显示系统 | |
CN102005039B (zh) | 基于泰勒级数模型的鱼眼相机立体视觉深度测量方法 | |
CN101729920B (zh) | 一种自由视角立体视频显示方法 | |
CN103802725B (zh) | 一种新的车载驾驶辅助图像生成方法 | |
CN102074005B (zh) | 一种面向兴趣区域的立体匹配方法 | |
CN103646394A (zh) | 一种基于Kinect摄像机的混合视觉系统标定方法 | |
CN102325259A (zh) | 多视点视频中虚拟视点合成方法及装置 | |
CN103971404A (zh) | 一种高性价比的3d实景复制装置 | |
CN111582080A (zh) | 车辆360度环视监控实现方法及装置 | |
CN104599284A (zh) | 基于多视角手机自拍图像的三维人脸重建方法 | |
CN105389543A (zh) | 基于全方位双目视觉深度信息融合的移动机器人避障装置 | |
CN101610425A (zh) | 一种评测立体图像质量的方法和装置 | |
CN103852060A (zh) | 一种基于单目视觉的可见光图像测距方法 | |
CN104635337B (zh) | 可提高立体图像显示分辨率的蜂窝式透镜阵列设计方法 | |
CN109358430A (zh) | 一种基于二维led风扇屏的实时三维显示方法 | |
CN102521586A (zh) | 一种用于拍照手机的高分辨率三维人脸扫描方法 | |
CN105739106A (zh) | 一种体感多视点大尺寸光场真三维显示装置及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20140716 |
|
CF01 | Termination of patent right due to non-payment of annual fee |