CN108364308B - 一种基于跨图像置信传播的人工复眼相机深度估计方法 - Google Patents

一种基于跨图像置信传播的人工复眼相机深度估计方法 Download PDF

Info

Publication number
CN108364308B
CN108364308B CN201810052627.XA CN201810052627A CN108364308B CN 108364308 B CN108364308 B CN 108364308B CN 201810052627 A CN201810052627 A CN 201810052627A CN 108364308 B CN108364308 B CN 108364308B
Authority
CN
China
Prior art keywords
pixel
depth
sub
image
representing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201810052627.XA
Other languages
English (en)
Other versions
CN108364308A (zh
Inventor
张葛祥
吴思东
荣海娜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southwest Jiaotong University
Original Assignee
Southwest Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southwest Jiaotong University filed Critical Southwest Jiaotong University
Priority to CN201810052627.XA priority Critical patent/CN108364308B/zh
Publication of CN108364308A publication Critical patent/CN108364308A/zh
Application granted granted Critical
Publication of CN108364308B publication Critical patent/CN108364308B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于跨图像置信传播的人工复眼相机深度估计方法,包括以下步骤:人工复眼相机深度估计能量函数设计;能量函数优化;计算初始深度;初始深度图精细化;生成深度图;人工复眼图像融合;输出融合图像和深度图。本发明使人工复眼相机深度估计和重构效果更好,可用于人工复眼相机三维重建领域。

Description

一种基于跨图像置信传播的人工复眼相机深度估计方法
技术领域
本发明涉及图像处理技术领域,尤其是一种基于跨图像置信传播的人工复眼相机深度估计方法。
背景技术
视觉是大部分生物认识世界、感知世界的一个重要手段,昆虫复眼作为一种广泛存在的视觉系统,具有体积小、近距离清晰成像、视场大、对运动目标敏感等特点。虽然传统的单目相机已经能够获得高清的图像,但单目相机的体积以及焦距都很难进一步缩小。人工复眼相机作为一种新型的相机类型,通过模拟昆虫复眼成像原理,能在保持与单目相机相比拟的成像效果的同时具有更小的体积。因此人工复眼相机在大视场成像、三维重建、指纹系统等领域都具有广泛研究。其中如何从图像的二维信息中恢复环境中的第三维信息(即深度信息)是三维重建最重要的研究内容,目标深度的估计效果直接影响到三维重建的效果。
虽然目前已有大量的深度估计方法,但在人工复眼相机图像的应用中仍然存在许多问题。人工复眼相机由于其多个小视场角的低分辨率成像通道的特点,虽然相邻子眼图像间可以看作一对立体相机,但由于缺少有效的支撑信息,采用目前的全局或局部深度估计方法进行目标深度估计效果较差。因此,发明一种适用于人工复眼相机的深度估计方法具有十分重要的意义,有利于将人工复眼相机应用到实际环境中。
发明内容
本发明目的是针对一种人工复眼相机,提供一种基于跨图像置信传播的人工复眼深度估计方法,该方法根据所用人工复眼的结构特点,构建深度估计能量函数,并利用跨图像置信传播优化方法对能量函数进行优化,随后对获得的初始深度图进行精细化,完成人工复眼图像深度估计。
实现本发明目的的技术方案为:一种基于跨图像置信传播的人工复眼相机深度估计方法,包括步骤:S1、获取人工复眼图像,人工复眼相机具有M×N个子眼,单次捕捉可获得M×N个图像Iv(x,y),其中v表示子眼图像在相机中的位置;其中,M、N分别表示子眼的行和列;
S2、构建深度估计能量函数:
S21、对任意子眼图像Iv(x,y),按下式计算图像匹配代价D'p(lp):
Figure GDA0002314104470000011
其中D'p(lp)表示像素p的深度为lp时的匹配代价,如果像素p深度为lp时对应像素存在,则δi(lp)为1,否则δi(lp)为0;ε是常数以避免分母为0;Nv表示子眼图像Iv的最近4邻域图像;
Figure GDA0002314104470000012
表示子眼图像Iv与任意相邻图像Ii的匹配代价,具体计算方法为:
Figure GDA0002314104470000013
其中
Figure GDA0002314104470000014
Figure GDA0002314104470000015
分别表示截断光强度差异和截断梯度差异,λ表示对应项的权重,计算方法为:
Figure GDA0002314104470000021
其中τI和τg分别表示光强度和梯度的截断值,Iv(p)、gv(p)分别表示图像Iv中的像素p的光强度和梯度,Ii(p(lp))和gi(p(lp))分别表示图像Iv中的像素p深度为lp时在图像Ii中的对应像素的光强度和梯度;
S22、利用导向滤波器对匹配代价进行聚合,获得稳健的匹配代价Dp(lp),具体计算方法为:
Figure GDA0002314104470000022
其中k表示以像素p为中心的宽度为(2ζ+1)的方形窗内的像素点,ωp,k是取决于Iv的权重函数,ζ表示方形窗半边宽度,计算方法为:
Figure GDA0002314104470000023
其中st是以像素t为中心的宽度为(2ζ+1)的方形窗,|s|表示st内的像素数,ε1是规则化参数,Σt和U分别是3×3的协方差和单位矩阵,Iv(k)表示图像Iv中的像素k的光强度,μt表示st所在方形窗的像素光强度均值;
S23、按以下公式计算平滑项W(lp,lq):
W(lp,lq)=min{|lp-lq|,τd},其中,lp表示像素p的深度,lq表示像素p的相邻像素q的深度,τd为平滑项截断值;
S24、按以下公式计算分割先验代价Se(lp,lq):
Figure GDA0002314104470000024
其中seg(p)表示像素p的分割块标签,seg(q)表示像素q的分割块标签,λs表示相邻像素p和q属于不同分割块标签的代价;
S25、按下列公式构建深度估计能量函数EA(l):
Figure GDA0002314104470000025
其中Ev(l)表示子眼图像Iv的能量函数,计算方法为:
Figure GDA0002314104470000026
其中,Ω表示子眼图像所有像素点,N表示p、q属于相邻像素的集合;
S3、利用跨图像置信传播对能量函数进行优化:
S31、传播消息计算:
Figure GDA0002314104470000027
表示子眼图像Iv的像素p在第t次迭代时传给相邻像素q的消息,计算方法为:
Figure GDA0002314104470000031
其中,Wv(lp,lq)、
Figure GDA0002314104470000032
Sev(lp,lq)分别表示子眼图像Iv中像素p的平滑项、匹配代价、分割先验代价,N(p)\q表示除q以外的p的领域像素;
S32、跨图像消息传播:根据人工复眼子眼间几何关系,按下式将相邻子眼对应像素的消息进行融合,
Figure GDA0002314104470000033
其中p’和q(lq)分别表示p和q在相邻子眼图像Ii的对应像素,NR表示子眼图像Iv的最近4邻域子眼;
S33、融合消息归一化:为了防止对应像素的消息差异太大,将融合后的消息按下式进行归一化,
Figure GDA0002314104470000034
其中,s表示像素p的四邻域像素点;
S34、置信度计算和深度图估计:迭代计算步骤S31-S33 T次,按下式计算任意像素q深度为lq的置信度bq(lq),
Figure GDA0002314104470000035
其中,N(q)表示q的邻域像素;随后利用WTA即Winner-Takes-All方法估计任意像素q的深度l,
Figure GDA0002314104470000036
S4、深度图精细化:
S41、对子眼图像Iv的深度图lv,利用一致性检验方法获得一致的深度图
Figure GDA0002314104470000037
如果像素p的深度lp与任意4邻域子眼图像的对应像素的深度差异大于1像素,则该点像素深度标记为无效的深度值,并将该点深度赋值为-1;否则该点深度为有效深度值,保留其原深度值;
S42、利用拉普拉斯抠图,即matting Laplacian方法对
Figure GDA0002314104470000038
中的标记为无效深度值的像素点进行插值,获得优化后深度图,具体计算方法为:
假设优化后的深度图为dv,则深度优化问题为最小化以下函数,
Figure GDA0002314104470000039
其中d和
Figure GDA00023141044700000310
是dv
Figure GDA00023141044700000311
的向量表达;O是对角矩阵,如果像素p为有效深度值,则Opp为1,否则,则为0;其中,Opp表示矩阵O第p行第p列的点,λl是平衡第一项和第二项的权重;M是拉普拉斯抠图矩阵,其元素(p,q)为,
Figure GDA0002314104470000041
其中U3是3×3单位矩阵;g|s∈θg表示以g为中心的所有包含在矩形窗θg内的像素点;μg和∑g表示在矩形窗θg的3×1的均值向量和3×3的协方差矩阵;|θg|表示θg的像素个数;
Figure GDA0002314104470000043
是规则化参数;Iv(p)、Iv(q)分别表示图像Iv中像素p和q的像素值;δpq是克罗内克函数,若p=q,则δpq=1,否则δpq=0;
因此dv可以通过求解以下线性方程获得,
Figure GDA0002314104470000042
S5、根据每个子眼获取深度图,对图像进行重构,并对深度进行融合获得最后融合后的深度图和重构图像。
本发明与现有技术相比,其显著优点在于:能同时利用多个图像对目标深度进行估计,并且由于引入跨图像置信传播的方法,能够在深度估计的同时对子眼深度图进行一定的一致性检验,随后进一步利用一致性检验和图像插值方法精细化深度估计结果,能够解决人工复眼相机中子眼视场角小导致的深度估计不准确的问题。
附图说明
图1是本发明跨图像置信传播优化后的深度效果图。其中图1(a)是实验图像,图1(b)是未进行精细化的深度效果图,图1(c)是一致性检验结果图。
图2是本发明实例中所述基于跨图像置信传播的人工复眼深度估计方法的子眼深度实验效果图,其中图2(a)是代价滤波实验效果图,图2(b)是置信传播的实验效果图,图2(c)是本发明的实验效果图。
图3是本发明实例中所述基于跨图像置信传播的人工复眼深度估计方法的子眼深度融合后实验效果图,其中图3(a)是代价滤波的实验效果图,图3(b)是置信传播的实验效果图,图3(c)是本发明的实验效果图。
图4是本发明实例中所述基于跨图像置信传播的人工复眼深度估计方法的图像融合后实验效果图,其中1是代价滤波的实验效果图,2是置信传播的实验效果图,3是本发明的实验效果图。
具体实施方式
下面结合具体实施例对本发明作进一步详细描述。
一种基于跨图像置信传播的人工复眼深度估计方法,该方法根据所用人工复眼的结构特点,构建深度估计能量函数,并利用跨图像置信传播优化方法对能量函数进行优化,随后对获得的初始深度图进行精细化,完成人工复眼图像深度估计。本实施例以一种特定的人工复眼相机(电子簇眼,Electronic cluster eye)为实验对象,对目标深度信息进行估计。实例中所用电子簇眼成像通道数为17*13,由于失真影响,只采用其中心13*13个通道,本发明需采取如下步骤:
S1、利用电子簇眼采集图像,并提取电子簇眼的13*13个子眼图像Iv。提取图像包括图像大小和颜色通道等信息,每个子眼图像修正后分辨率为110*110像素。
S2、构建深度估计能量函数EA
首先计算匹配代价D'p(lp),
Figure GDA0002314104470000051
其中ε=0.0001,
Figure GDA0002314104470000052
λ=0.3,
Figure GDA0002314104470000053
τI=30/255,τg=15/255;随后对匹配代价进行聚合,
Figure GDA0002314104470000054
其中
Figure GDA0002314104470000055
窗函数st大小为21*21,ε1=0.01;然后计算平滑项W(lp,lq)=min{|lp-lq|,τd},其中τd=2.2;最后计算分割先验代价
Figure GDA0002314104470000056
其中λs=0.1。
S3、利用跨图像置信传播对能量函数进行优化。
首先初始化
Figure GDA0002314104470000057
当t=1时,
Figure GDA0002314104470000058
然后计算第t次迭代时像素p传到q的消息量,
Figure GDA0002314104470000059
接着将相邻子眼图像对应像素的消息传播到
Figure GDA00023141044700000510
Figure GDA00023141044700000511
并将消息归一化
Figure GDA00023141044700000512
其中迭代次数t为5次;最后获得每个像素不同深度的置信度
Figure GDA00023141044700000513
并利用WTA(Winner-Takes-All)方法估计每个像素的深度l,
Figure GDA00023141044700000514
得到每个子眼图像的深度图lv。针对图1(a)所用测试图像,图1(b)是在本发明在5次迭代后输出的深度图。
S4、对每个子眼深度图进行精细化处理。
首先对深度图进行一致性检验,图1(c)是一致性检验结果图,其中黑色点表示无效深度的像素,白色点表示有效深度的像素,然后利用拉普拉斯抠图方法对无效深度的像素进行插值,(
Figure GDA00023141044700000515
其中λl=0.001,获得每个子眼精细化后的深度图
Figure GDA0002314104470000061
S5、将每个子眼图Iv根据深度图
Figure GDA0002314104470000062
进行融合,同时对深度图进行融合,获得融合后的图像Itt和深度图dtt
S6、对实验结果与目前现有两种深度估计方法(置信传播方法和代价滤波方法)进行比较。
首先对每个子眼图Iv和深度图
Figure GDA0002314104470000063
将其4邻域子眼图像根据深度图卷曲到Iv中获得卷曲图像Iwarp,然后计算Iv和Iwarp的平均绝对离差来判断深度图效果,
Figure GDA0002314104470000064
其中|Ω|表示Iv中像素个数。表1是本发明实施结果与现有两种深度估计方法的平均绝对离差结果,值越小效果越好。
表1平均绝对离差结果
Figure GDA0002314104470000065
本发明以一种人工复眼相机(电子簇眼)为实验对象,发明一种基于跨图像置信传播的人工复眼深度估计方法,获得复眼图像深度信息和重构图像。本发明能有效解决电子簇眼子眼视场角小导致现有深度估计技术出现误匹配的问题。由表1可以看出,本发明具有更好的效果。图2、图3、图4是本发明实施结果和利用现有置信传播方法和代价滤波方法对测试图像1的深度估计结果的定性比较。由图2的对比图可以看出,本发明估计的深度图具有更好的一致性效果,由图3和图4的对比图可以看出,利用本发明的深度图融合的深度图具有更好的效果,同时重构的图像具有更少的伪影。

Claims (1)

1.一种基于跨图像置信传播的人工复眼相机深度估计方法,其特征在于,包括步骤:
S1、获取人工复眼图像,人工复眼相机具有M×N个子眼,单次捕捉可获得M×N个图像Iv(x,y),其中v表示子眼图像在相机中的位置;其中,M、N分别表示子眼的行和列;
S2、构建深度估计能量函数:
S21、对任意子眼图像Iv(x,y),按下式计算图像匹配代价D'p(lp):
Figure FDA0002314104460000011
其中D'p(lp)表示像素p的深度为lp时的匹配代价,如果像素p深度为lp时对应像素存在,则δi(lp)为1,否则δi(lp)为0;ε是常数以避免分母为0;Nv表示子眼图像Iv的最近4邻域图像;
Figure FDA0002314104460000012
表示子眼图像Iv与任意相邻图像Ii的匹配代价,具体计算方法为:
Figure FDA0002314104460000013
其中
Figure FDA0002314104460000014
Figure FDA0002314104460000015
分别表示截断光强度差异和截断梯度差异,λ表示对应项的权重,计算方法为:
Figure FDA0002314104460000016
其中τI和τg分别表示光强度和梯度的截断值,Iv(p)、gv(p)分别表示图像Iv中的像素p的光强度和梯度,Ii(p(lp))和gi(p(lp))分别表示图像Iv中的像素p深度为lp时在图像Ii中的对应像素的光强度和梯度;
S22、利用导向滤波器对匹配代价进行聚合,获得稳健的匹配代价Dp(lp),具体计算方法为:
Figure FDA0002314104460000017
其中k表示以像素p为中心的宽度为(2ζ+1)的方形窗内的像素点,ωp,k是取决于Iv的权重函数,ζ表示方形窗半边宽度,计算方法为:
Figure FDA0002314104460000018
其中st是以像素t为中心的宽度为(2ζ+1)的方形窗,|s|表示st内的像素数,ε1是规则化参数,Σt和U分别是3×3的协方差和单位矩阵,Iv(k)表示图像Iv中的像素k的光强度,μt表示st所在方形窗的像素光强度均值;
S23、按以下公式计算平滑项W(lp,lq):W(lp,lq)=min{|lp-lq|,τd},其中,lp表示像素p的深度,lq表示像素p的相邻像素q的深度,τd为平滑项截断值;
S24、按以下公式计算分割先验代价Se(lp,lq):
Figure FDA0002314104460000021
其中seg(p)表示像素p的分割块标签,seg(q)表示像素q的分割块标签,λs表示相邻像素p和q属于不同分割块标签的代价;
S25、按下列公式构建深度估计能量函数EA(l):
Figure FDA0002314104460000022
其中Ev(l)表示子眼图像Iv的能量函数,计算方法为:
Figure FDA0002314104460000023
其中,Ω表示子眼图像所有像素点,N表示p、q属于相邻像素的集合;
S3、利用跨图像置信传播对能量函数进行优化:
S31、传播消息计算:
Figure FDA0002314104460000024
表示子眼图像Iv的像素p在第t次迭代时传给相邻像素q的消息,计算方法为:
Figure FDA0002314104460000025
其中,
Figure FDA0002314104460000026
Sev(lp,lq)分别表示子眼图像Iv中像素p的平滑项、匹配代价、分割先验代价,N(p)\q表示除q以外的p的领域像素;
S32、跨图像消息传播:根据人工复眼子眼间几何关系,按下式将相邻子眼对应像素的消息进行融合,
Figure FDA0002314104460000027
其中p’和q(lq)分别表示p和q在相邻子眼图像Ii的对应像素,NR表示子眼图像Iv的最近4邻域子眼;
S33、融合消息归一化:为了防止对应像素的消息差异太大,将融合后的消息按下式进行归一化,
Figure FDA0002314104460000028
其中,s表示像素p的四邻域像素点;
S34、置信度计算和深度图估计:迭代计算步骤S31-S33 T次,按下式计算任意像素q深度为lq的置信度bq(lq),
Figure FDA0002314104460000029
其中,N(q)表示q的邻域像素;随后利用WTA即Winner-Takes-All方法估计任意像素q的深度l,
Figure FDA00023141044600000210
S4、深度图精细化:
S41、对子眼图像Iv的深度图lv,利用一致性检验方法获得一致的深度图
Figure FDA0002314104460000031
如果像素p的深度lp与任意4邻域子眼图像的对应像素的深度差异大于1像素,则该点像素深度标记为无效的深度值,并将该点深度赋值为-1;否则该点深度为有效深度值,保留其原深度值;
S42、利用拉普拉斯抠图,即matting Laplacian方法对
Figure FDA0002314104460000032
中的标记为无效深度值的像素点进行插值,获得优化后深度图,具体计算方法为:
假设优化后的深度图为dv,则深度优化问题为最小化以下函数,
Figure FDA0002314104460000033
其中d和
Figure FDA0002314104460000034
是dv
Figure FDA0002314104460000035
的向量表达;O是对角矩阵,如果像素p为有效深度值,则Opp为1,否则,则为0;其中,Opp表示矩阵O第p行第p列的点,λl是平衡第一项和第二项的权重;M是拉普拉斯抠图矩阵,其元素(p,q)为,
Figure FDA0002314104460000036
其中U3是3×3单位矩阵;g|s∈θg表示以g为中心的所有包含在矩形窗θg内的像素点;μg和∑g表示在矩形窗θg的3×1的均值向量和3×3的协方差矩阵;|θg|表示θg的像素个数;
Figure FDA0002314104460000037
是规则化参数;Iv(p)、Iv(q)分别表示图像Iv中像素p和q的像素值;δpq是克罗内克函数,若p=q,则δpq=1,否则δpq=0;
因此dv可以通过求解以下线性方程获得,
Figure FDA0002314104460000038
S5、根据每个子眼获取深度图,对图像进行重构,并对深度进行融合获得最后融合后的深度图和重构图像。
CN201810052627.XA 2018-01-17 2018-01-17 一种基于跨图像置信传播的人工复眼相机深度估计方法 Expired - Fee Related CN108364308B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810052627.XA CN108364308B (zh) 2018-01-17 2018-01-17 一种基于跨图像置信传播的人工复眼相机深度估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810052627.XA CN108364308B (zh) 2018-01-17 2018-01-17 一种基于跨图像置信传播的人工复眼相机深度估计方法

Publications (2)

Publication Number Publication Date
CN108364308A CN108364308A (zh) 2018-08-03
CN108364308B true CN108364308B (zh) 2020-04-07

Family

ID=63006613

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810052627.XA Expired - Fee Related CN108364308B (zh) 2018-01-17 2018-01-17 一种基于跨图像置信传播的人工复眼相机深度估计方法

Country Status (1)

Country Link
CN (1) CN108364308B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101908230A (zh) * 2010-07-23 2010-12-08 东南大学 一种基于区域深度边缘检测和双目立体匹配的三维重建方法
JP2011203811A (ja) * 2010-03-24 2011-10-13 Fujifilm Corp 画像処理装置、画像処理方法、画像処理プログラム、及び複眼デジタルカメラ
CN105308951A (zh) * 2013-06-17 2016-02-03 柯尼卡美能达株式会社 定位装置、定位方法及复眼照相机组件

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4662071B2 (ja) * 2006-12-27 2011-03-30 富士フイルム株式会社 画像再生方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011203811A (ja) * 2010-03-24 2011-10-13 Fujifilm Corp 画像処理装置、画像処理方法、画像処理プログラム、及び複眼デジタルカメラ
CN101908230A (zh) * 2010-07-23 2010-12-08 东南大学 一种基于区域深度边缘检测和双目立体匹配的三维重建方法
CN105308951A (zh) * 2013-06-17 2016-02-03 柯尼卡美能达株式会社 定位装置、定位方法及复眼照相机组件

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Artificial compound eye: a survey of the state-of-the-art;Sidong Wu,et al.;《Artif Intell Rev (2017) 》;20160901;第573-603页 *
融合自适应权重和置信传播的立体匹配算法;张永平等;《杭州电子科技大学学报》;20120430;第32卷(第2期);第10-13页 *

Also Published As

Publication number Publication date
CN108364308A (zh) 2018-08-03

Similar Documents

Publication Publication Date Title
CN108986136B (zh) 一种基于语义分割的双目场景流确定方法及系统
Kalantari et al. Learning-based view synthesis for light field cameras
Yoon et al. Light-field image super-resolution using convolutional neural network
Wu et al. Light field reconstruction using convolutional network on EPI and extended applications
CN102867288B (zh) 深度图像转换设备和方法
Yang et al. Color-guided depth recovery from RGB-D data using an adaptive autoregressive model
CN107025660B (zh) 一种确定双目动态视觉传感器图像视差的方法和装置
Petrovai et al. Exploiting pseudo labels in a self-supervised learning framework for improved monocular depth estimation
CN110853151A (zh) 一种基于视频的三维立体点集恢复方法
CN107767339B (zh) 一种双目立体图像拼接方法
Hung et al. Consistent binocular depth and scene flow with chained temporal profiles
CN106056622B (zh) 一种基于Kinect相机的多视点深度视频复原方法
CN112734914A (zh) 一种增强现实视觉的图像立体重建方法及装置
Yu et al. Split-attention multiframe alignment network for image restoration
CN114996814A (zh) 一种基于深度学习与三维重建的家具设计系统
CN109218706B (zh) 一种由单张图像生成立体视觉图像的方法
Cho et al. Learning adaptive dense event stereo from the image domain
Nouduri et al. Deep realistic novel view generation for city-scale aerial images
CN112215766B (zh) 一种图像复原与图像增强相融合的图像去雾方法及其卷积网络
Fu et al. Image stitching techniques applied to plane or 3-D models: a review
CN117315138A (zh) 基于多目视觉的三维重建方法及系统
Nie et al. Context and detail interaction network for stereo rain streak and raindrop removal
CN108364308B (zh) 一种基于跨图像置信传播的人工复眼相机深度估计方法
Le Besnerais et al. Dense height map estimation from oblique aerial image sequences
Li et al. Self-supervised light field depth estimation using epipolar plane images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20200407

Termination date: 20210117

CF01 Termination of patent right due to non-payment of annual fee