CN106296706A - 一种联合全局建模和非局部滤波的深度计算重建方法 - Google Patents

一种联合全局建模和非局部滤波的深度计算重建方法 Download PDF

Info

Publication number
CN106296706A
CN106296706A CN201610680688.1A CN201610680688A CN106296706A CN 106296706 A CN106296706 A CN 106296706A CN 201610680688 A CN201610680688 A CN 201610680688A CN 106296706 A CN106296706 A CN 106296706A
Authority
CN
China
Prior art keywords
depth
pixel
sigma
depth map
filtering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610680688.1A
Other languages
English (en)
Other versions
CN106296706B (zh
Inventor
叶昕辰
李豪杰
樊鑫
罗钟铉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian University of Technology
Original Assignee
Dalian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian University of Technology filed Critical Dalian University of Technology
Priority to CN201610680688.1A priority Critical patent/CN106296706B/zh
Publication of CN106296706A publication Critical patent/CN106296706A/zh
Application granted granted Critical
Publication of CN106296706B publication Critical patent/CN106296706B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明为一种联合全局建模和非局部滤波的深度计算重建方法,属于图像处理领域。该方法借助于高分辨率彩色图,对初始低质量深度图通过全局方式建立深度计算重建模型,并通过非局部的定点迭代滤波方法进行深度重建。本方法程序简单,易于实现,能够获得分辨率更高的深度图像;全局建模方法利用了彩色图像全局的信息,恢复深度图像中深度边缘以及非局部的细小结构的效果好;利用求导的方式推导出定点迭代滤波算法,避免了采用最小二乘求解大规模矩阵求逆的问题,在设计和实现上保持了精简性,而且在算法上具有低复杂度。

Description

一种联合全局建模和非局部滤波的深度计算重建方法
技术领域
本发明属于图像处理领域,涉及采用全局方式对深度相机获取的深度图建模,并推导非局部定点迭代滤波算法对深度图进行优化。具体涉及一种联合全局建模和非局部滤波的深度计算重建方法。
背景技术
普通图像是三维场景在二维成像平面上的投影——这种成像方式导致了三维场景深度信息的损失。为了获取场景深度信息,人们通常对多视角图像进行立体匹配计算视差,根据多视角几何关系推导出相应的深度。这类方法存在计算复杂度大,无纹理区域难以处理等问题。随着成像技术的进步,近年面市的深度相机突破了传统三维扫描仪只能对静态小尺度场景进行深度成像的限制,可以比较方便地获得较大尺度动态三维场景的深度。目前,主要有两类:基于散斑成像的深度相机,例如微软研发的用于自然交互的第一代Kinect;基于飞行时间(Time of flight,ToF)的深度相机,例如PMD公司研发的CamCube3.0,微软研发的第二代Kinect(简称Kinect2);但是,这两类技术的深度成像质量还难以满足应用需求:TOF深度相机的深度分辨率较高,但是空间分辨率很低,与目前主流工业相机的空间分辨率还有很大的差距;Kinect深度相机的空间分辨率与普通工业相机相仿,但是在深度跳跃区域(例如物体的边缘与轮廓)产生很多空洞。这些深度成像的缺陷给实际应用带来了很大的障碍。受限于成像机理,这些深度成像方式短期内难以在成像分辨率和精度上获得进展,因此需要有效的后处理和重建技术来提高深度成像质量。
一种方法是基于全局优化的方法。Diebel等人提出了双层马尔科夫模型对深度信息和彩色信息之间的关系进行建模(J.Diebel and S.Thrun,“An application of Markovrandom fields torange sensing,”NIPS,vol.18,p.291,2005)。Ye等人利用自回归模型对含有多种混合降质模型的深度图进行建模,并采用最小二乘的方式进行求解(J.Yang,X.Ye,K.Li,C.Hou,and Y.Wang,“Color-guided depthrecovery from RGBD data usingan adaptive autoregressive model.”IEEETIP,vol.23,no.8,pp.3443–3458,2014)。这类全局建模方法在保护图像中非局部的细小结构效果很好,但是解法通常采用图割(GraphCut)、置信传播和最小二乘等,运行速度非常慢。另一种方法是联合滤波;它利用高质量彩色图来辅助深度复原。Lu等人将滤波过程转化为局部多点回归问题,采用形状自适应的局部邻域,和多点估计的聚合等。此方法采用零阶和线性关系对低分辨率深度图像块和彩色块之间建模(J.Lu,K.Shi,D.Min,L.Lin,and M.N.Do,“Cross-based localmultipointfiltering,”in Proc.CVPR,2012,pp.430–437.)。这类方法在设计和实现上保持了精简性,而且在算法上具有低复杂度。但是,局部的判断并不能提供足够的信息来恢复全局结构,而且在丰富的彩色纹理区域也会产生恢复错误。
发明内容
本发明旨在克服现有技术的不足,提供了一种联合全局建模和非局部滤波的深度计算重建方法。该方法借助于高分辨率彩色图,对初始低质量深度图通过全局方式建立深度计算重建模型,并通过非局部的定点迭代滤波方法进行深度重建。
本发明的技术方案为,一种联合全局建模和非局部滤波的深度计算重建方法,所述方法包括下列步骤:
第一步,准备初始数据;
初始数据包括低分辨率深度图和同视角的高分辨率彩色图;低分辨率深度图经双三次插值得到初始低质量深度图。
将高分辨率彩色图C转换成无向连接图G:给定一个无向连接图G=(V,E),其中V为顶点,表示彩色图像上所有的像素;E为边,包含图像中每对像素间的关系。
基于无向连接图G,构建拉普拉斯矩阵
给定边权重矩阵K,其中K中的某一位置K(p,q)表示像素p和q的相似度概率ωp,q。ωp,q可以根据像素p和q的彩色相似度,利用非局部均值滤波核来确定,方程如下:
ω p , q = exp ( - G p | P ( C p ) - P ( C q ) | σ )
其中,exp为指数函数,Gp为以像素p为中心的高斯核,核大小为ω×ω;Cp和Cq为像素p和q的彩色值,P(Cp)和P(Cq)为相应的彩色图像块;σ为控制指数函数变化的调控参数。
对于当前图G,其中的像素点p的度数定义为np,表示为所有连接到像素p的边的权重之和,具体形式如下:
n p = Σ q K ( p , q )
其中,q为所有连接到像素p的相邻像素,p的邻域大小为ω1×ω1。至此,无向图的拉普拉斯矩阵可以定义为:
其中,N为度数矩阵,仅在矩阵对角线上有值,即N(p,p)=np,其他值均为零。I为单位矩阵,W为归一化后的边权重矩阵。
第二步,根据拉普拉斯矩阵建立先验约束;
2-1)根据数据的不依赖滤波特性(即当输入理想深度图时,经过设计的滤波器得到的结果与输入理想深度图相同,深度值不变)推导出先验约束:
d*=Wd*
式中,d*为输入理想深度图的向量表达形式;
应用边权重矩阵W建立不依赖数据的滤波器;
2-2)根据2-1)中的公式,得到滤波器与拉普拉斯矩阵间的关系:
式中,I为单位矩阵;
在数据的不依赖滤波特性约束下,理想深度图与拉普拉斯矩阵作用为零。
第三步,构建全局优化方程;
3-1)将第二步得到的约束结合到深度重建框架内,得到如下优化方程:
式中,min为求取能量方程的最小值;d为待求的高质量深度图的向量表达形式;为输入的初始低质量深度图的向量表达形式;P为观测矩阵,用于指示d中深度像素值的可靠性;λ为平衡前后两项的系数,取值为0.1;||·||2为2范数。
3-2)将优化方程(3)转化为逐像素表示形式,方程如下:
m i n d Σ p h p ( d p - d p ~ ) 2 + λ Σ p ( d p - Σ p ω p , q d q ) 2
其中,hp为像素p在观测矩阵P内的对应位置的值,指示像素p是否有值;dq和dq分别为像素p和q的深度值,为像素p的初始深度值,ωp,q为像素p和q的相似度权重。
第四步,应用非局部的定点迭代滤波算法,得到高质量深度图,包括以下步骤:
4-1)对3-2)中的公式中每一像素dp求导并置零,得到如下方程:
d p = h p d p ~ + λΣ q ω p , q d q + λΣ r ω r , p ( d r - Σ q ω r , q d q ) h p + λ
其中,r为像素p邻域内的像素,ωr,p为像素r和p的相似度权重,dr为像素r的深度值。
4-2)利用4-1)中求导的结果构建定点迭代滤波算法对初始低质量深度图进行滤波,并得到最终的高质量深度图,算法流程如下:
d p ( 0 ) = d p ~ d p ( k + 1 ) = h p d p ~ + λΣ q ω p , q d q ( k ) + λΣ r ω r , p ( d r ( k ) - Σ q ω r , q d q ( k ) ) h p + λ
式中,为迭代前的深度图初始化结果,为第k+1次迭代求得的结果,k+1为迭代的次数;算法在第k次的迭代结果的基础上滤波得到第k+1次结果。
本发明的有益效果是:
本发明借助于高分辨率彩色图,对初始低质量深度图通过全局方式建立深度计算重建模型,并通过非局部的定点迭代滤波方法进行深度重建,具有以下特点:
1、程序简单,易于实现,能够获得分辨率更高的深度图像;
2、全局建模方法利用了彩色图像全局的信息,恢复深度图像中深度边缘以及非局部的细小结构的效果好;
3、利用求导的方式推导出定点迭代滤波算法,避免了采用最小二乘求解大规模矩阵求逆的问题,在设计和实现上保持了精简性,而且在算法上具有低复杂度。
附图说明(附图中不能出现彩色,只能是灰度图)
图1是实际实施流程图。
图2是深度图像的修复结果对比。
图中:(a)不同的彩色帧(b)局部滤波结果(c)全局自回归结果(d)本发明方法的结果。
具体实施方式
下面结合实施例和附图对本发明的联合全局建模和非局部滤波的深度计算重建方法做出详细说明。
一种联合全局建模和非局部滤波的深度计算重建方法,如图1所示,所述方法包括下列步骤:
第一步,准备初始数据;
初始数据包括低分辨率深度图和高分辨率彩色图;低分辨率深度图经双三次插值得到初始低质量深度图;
将高分辨率彩色图C转换成无向连接图G:给定一个无向连接图G=(V,E),其中V为顶点,表示彩色图像上所有的像素;E为边,包含图像中每对像素间的关系。
基于无向连接图G,构建拉普拉斯矩阵
给定边权重矩阵K,其中K中的某一位置K(p,q)表示像素p和q的相似度概率ωp,q。ωp,q可以根据像素p和q的彩色相似度,利用非局部均值滤波核来确定,方程如下:
ω p , q = exp ( - G p | P ( C p ) - P ( C q ) | σ )
其中,exp为指数函数,Gp为以像素p为中心的高斯核,核大小为5×5;Cp和Cq为像素p和q的彩色值,P(Cp)和P(Cq)为相应的彩色图像块;σ为控制指数函数变化的调控参数,取值为2.0。
对于当前图G,其中的像素点p的度数定义为np,表示为所有连接到像素p的边的权重之和,具体形式如下:
n p = Σ q K ( p , q )
其中,q为所有连接到像素p的相邻像素,p的邻域大小为7×7。至此,无向图的拉普拉斯矩阵可以定义为:
其中,N为度数矩阵,仅在矩阵对角线上有值,即N(p,p)=np,其他值均为零。I为单位矩阵,W为归一化后的边权重矩阵。
第二步,根据拉普拉斯矩阵建立先验约束;
2-1)根据数据的不依赖滤波特性(即当输入理想深度图时,经过设计的滤波器得到的结果与输入理想深度图相同,深度值不变)推导出先验约束:
d*=Wd*
式中,d*为输入理想深度图的向量表达形式,W为归一化后的边权重矩阵;
应用边权重矩阵W建立不依赖数据的滤波器;
2-2)根据2-1)中的公式,得到滤波器与拉普拉斯矩阵间的关系:
式中,I为单位矩阵;
在数据的不依赖滤波特性约束下,理想深度图与拉普拉斯矩阵作用为零。
第三步,构建全局优化方程;
3-1)将第二步得到的约束结合到深度重建框架内,得到如下优化方程:
式中,min为求取能量方程的最小值;d为待求的高质量深度图的向量表达形式;为输入的初始低质量深度图的向量表达形式;P为观测矩阵,用于指示d中深度像素值的可靠性;λ为平衡前后两项的系数,取值为0.1;||·||2为2范数。
3-2)将优化方程转化为逐像素表示形式,方程如下:
m i n d Σ p h p ( d p - d p ~ ) 2 + λ Σ p ( d p - Σ p ω p , q d q ) 2
其中,hp为像素p在观测矩阵P内的对应位置的值,指示像素p是否有值;dp和dq分别为像素p和q的深度值,为像素p的初始深度值,ωp,q为像素p和q的相似度权重。
第四步,应用非局部的定点迭代滤波算法,得到高质量深度图,包括以下步骤:
4-1)对3-2)中的公式中每一像素dp求导并置零得到如下方程:
d p = h p d p ~ + λΣ q ω p , q d q + λΣ r ω r , p ( d r - Σ q ω r , q d q ) h p + λ
其中,r为像素p邻域内的像素,邻域大小为7×7。
4-2)利用4-1)中求导的结果构建定点迭代滤波算法对低质量深度图进行滤波,并得到最终的高质量深度图。算法流程如下:
d p ( 0 ) = d p ~ d p ( k + 1 ) = h p d p ~ + λΣ q ω p , q d q ( k ) + λΣ r ω r , p ( d r ( k ) - Σ q ω r , q d q ( k ) ) h p + λ
其中,为迭代前的深度图初始化结果,为第k+1次迭代求得的结果,k+1为迭代的次数。算法在第k次的迭代结果的基础上滤波得到第k+1次结果。经过6次迭代,得到最终恢复结果。
本实施例对两组数据的最终恢复结果及与其他方法的比较如图2所示,其中(a)图为两组彩色视频数据中挑选出来的帧图像,(b)图为采用局部滤波方法得到的结果(J.Lu,K.Shi,D.Min,L.Lin,and M.N.Do,“Cross-based localmultipoint filtering,”inProc.CVPR,2012,pp.430–437.);(c)图为采用全局自回归建模方法得到的恢复帧结果(J.Yang,X.Ye,K.Li,C.Hou,and Y.Wang,“Color-guided depthrecovery from RGBD datausing an adaptive autoregressive model.”IEEETIP,vol.23,no.8,pp.3443–3458,2014);(d)本发明所述方法的结果。

Claims (2)

1.一种联合全局建模和非局部滤波的深度计算重建方法,其特征在于,所述方法包括下列步骤:
第一步,准备初始数据;
初始数据包括低分辨率深度图和高分辨率彩色图;低分辨率深度图经双三次插值得到初始低质量深度图;将高分辨率彩色图转换成无向连接图G;基于无向连接图G,构建拉普拉斯矩阵
第二步,根据拉普拉斯矩阵建立先验约束;
2-1)根据数据的不依赖滤波特性推导出先验约束:
d*=Wd* (1)
式中,d*为输入理想深度图的向量表达形式,W为归一化后的边权重矩阵;
应用边权重矩阵W建立不依赖数据的滤波器;
2-2)根据公式(1),得到滤波器与拉普拉斯矩阵间的关系:
式中,I为单位矩阵;
第三步,构建全局优化方程;
3-1)将第二步得到的约束结合到深度重建框架内,得到如下优化方程:
式中,min为求取能量方程的最小值,d为待求的高质量深度图的向量表达形式,为输入的初始低质量深度图的向量表达形式,P为观测矩阵,λ为平衡前后两项的系数,λ取值为0.1,||·||2为2范数;
3-2)将优化方程(3)转化为逐像素表示形式,方程如下:
m d inΣ p h p ( d p - d p ~ ) 2 + λΣ p ( d p - Σ p ω p , q d q ) 2 - - - ( 4 )
其中,hp为像素p在观测矩阵P内的对应位置的值,dp和dq分别为像素p和q的深度值,为像素p的初始深度值,ωp,q为像素p和q的相似度权重;
第四步,应用非局部的定点迭代滤波算法,得到高质量深度图。
2.根据权利要求1所述的一种联合全局建模和非局部滤波的深度计算重建方法,其特征在于,第四步应用非局部的定点迭代滤波算法,得到高质量的深度图,包括以下步骤:
4-1)对公式(4)中每一像素dp求导并置零
得到如下方程:
d p = h p d p ~ + λΣ q ω p , q d q + λΣ r ω r , p ( d r - Σ q ω r , q d q ) h p + λ - - - ( 5 )
其中,r为像素p邻域内的像素,ωr,p为像素r和p的相似度权重,dr为像素r的深度值;
4-2)利用4-1)中求导的结果构建定点迭代滤波算法对初始低质量深度图进行滤波,并得到最终的高质量深度图,算法流程如下:
d p ( 0 ) = d p ~ d p ( k + 1 ) = h p d p ~ + λΣ q ω p , q d q ( k ) + λΣ r ω r , p ( d r ( k ) - Σ q ω r , q d q ( k ) ) h p + λ
式中,为迭代前的深度图初始化结果,为第k+1次迭代求得的结果,k+1为迭代的次数;算法在第k次的迭代结果的基础上滤波得到第k+1次结果。
CN201610680688.1A 2016-08-17 2016-08-17 一种联合全局建模和非局部滤波的深度计算重建方法 Expired - Fee Related CN106296706B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610680688.1A CN106296706B (zh) 2016-08-17 2016-08-17 一种联合全局建模和非局部滤波的深度计算重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610680688.1A CN106296706B (zh) 2016-08-17 2016-08-17 一种联合全局建模和非局部滤波的深度计算重建方法

Publications (2)

Publication Number Publication Date
CN106296706A true CN106296706A (zh) 2017-01-04
CN106296706B CN106296706B (zh) 2018-12-21

Family

ID=57679542

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610680688.1A Expired - Fee Related CN106296706B (zh) 2016-08-17 2016-08-17 一种联合全局建模和非局部滤波的深度计算重建方法

Country Status (1)

Country Link
CN (1) CN106296706B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107330930A (zh) * 2017-06-27 2017-11-07 晋江市潮波光电科技有限公司 三维图像深度信息提取方法
CN110322411A (zh) * 2019-06-27 2019-10-11 Oppo广东移动通信有限公司 深度图像的优化方法、终端及存储介质
CN111145094A (zh) * 2019-12-26 2020-05-12 北京工业大学 一种基于表面法向引导与图拉普拉斯先验约束的深度图增强方法
CN113362239A (zh) * 2021-05-31 2021-09-07 西南科技大学 一种基于特征交互的深度学习图像修复方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100119160A1 (en) * 2007-04-13 2010-05-13 Mitsubishi Electric Corporation Generalized statistical template matching under geometric transformations
CN105046743A (zh) * 2015-07-01 2015-11-11 浙江大学 一种基于全局变分技术的超高分辨率三维重建方法
CN105354797A (zh) * 2015-11-25 2016-02-24 宁波工程学院 一种基于l1-l2罚函数的深度图超分辨率重建方法
CN106056622A (zh) * 2016-08-17 2016-10-26 大连理工大学 一种基于Kinect相机的多视点深度视频复原方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100119160A1 (en) * 2007-04-13 2010-05-13 Mitsubishi Electric Corporation Generalized statistical template matching under geometric transformations
CN105046743A (zh) * 2015-07-01 2015-11-11 浙江大学 一种基于全局变分技术的超高分辨率三维重建方法
CN105354797A (zh) * 2015-11-25 2016-02-24 宁波工程学院 一种基于l1-l2罚函数的深度图超分辨率重建方法
CN106056622A (zh) * 2016-08-17 2016-10-26 大连理工大学 一种基于Kinect相机的多视点深度视频复原方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
JIANGBO LU 等: "A REVISIT TO MRF-BASED DEPTH MAP SUPER-RESOLUTION AND ENHANCEMENT", 《ACOUSTICS, SPEECH AND SIGNAL PROCESSING (ICASSP)》 *
JIANGBO LU 等: "Cross-Based Local Multipoint Filtering", 《COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 *
杨宇翔 等: "基于自适应权值滤波的深度图像超分辨率重建", 《中国图象图形学报》 *
邸维巍 等: "彩色图约束的二阶广义总变分深度图超分辨率重建", 《中国图象图形学报》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107330930A (zh) * 2017-06-27 2017-11-07 晋江市潮波光电科技有限公司 三维图像深度信息提取方法
CN107330930B (zh) * 2017-06-27 2020-11-03 晋江市潮波光电科技有限公司 三维图像深度信息提取方法
CN110322411A (zh) * 2019-06-27 2019-10-11 Oppo广东移动通信有限公司 深度图像的优化方法、终端及存储介质
CN111145094A (zh) * 2019-12-26 2020-05-12 北京工业大学 一种基于表面法向引导与图拉普拉斯先验约束的深度图增强方法
CN113362239A (zh) * 2021-05-31 2021-09-07 西南科技大学 一种基于特征交互的深度学习图像修复方法

Also Published As

Publication number Publication date
CN106296706B (zh) 2018-12-21

Similar Documents

Publication Publication Date Title
US11295168B2 (en) Depth estimation and color correction method for monocular underwater images based on deep neural network
CN109410307B (zh) 一种场景点云语义分割方法
CN108520554B (zh) 一种基于orb-slam2的双目三维稠密建图方法
CN106780592A (zh) 基于相机运动和图像明暗的Kinect深度重建算法
CN107204010A (zh) 一种单目图像深度估计方法与系统
CN106296706A (zh) 一种联合全局建模和非局部滤波的深度计算重建方法
CN105956597A (zh) 一种基于卷积神经网络的双目立体匹配方法
CN106056622B (zh) 一种基于Kinect相机的多视点深度视频复原方法
CN110276768A (zh) 图像分割方法、图像分割装置、图像分割设备及介质
CN104661010A (zh) 三维立体模型的建立方法和装置
CN112308918B (zh) 一种基于位姿解耦估计的无监督单目视觉里程计方法
CN103268610A (zh) 一种折反射全向相机的统一模型及其标定方法
CN109146937A (zh) 一种基于深度学习的电力巡检影像密集匹配方法
Cheng et al. Gaussianpro: 3d gaussian splatting with progressive propagation
CN110930500A (zh) 一种基于单视角视频的动态头发建模方法
CN106127818A (zh) 一种基于单幅图像的材质外观获取系统及方法
CN113284173A (zh) 基于伪激光雷达的端到端的场景流、位姿联合学习方法
CN105787932A (zh) 基于分割交叉树的立体匹配方法
CN112819951A (zh) 一种基于深度图修复的带遮挡三维人体重建方法
Wang et al. DepthNet Nano: A highly compact self-normalizing neural network for monocular depth estimation
CN108615221A (zh) 基于剪切二维极线平面图的光场角度超分辨率方法及装置
CN116152442B (zh) 一种三维点云模型生成方法及装置
CN1917658B (zh) 一种从单目图像序列生成立体图像序列的方法
CN113808006B (zh) 一种基于二维图像重建三维网格模型的方法及装置
CN111932670B (zh) 基于单个rgbd相机的三维人体自画像重建方法及系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20181221

Termination date: 20210817

CF01 Termination of patent right due to non-payment of annual fee