CN110490919B - 一种基于深度神经网络的单目视觉的深度估计方法 - Google Patents
一种基于深度神经网络的单目视觉的深度估计方法 Download PDFInfo
- Publication number
- CN110490919B CN110490919B CN201910603880.4A CN201910603880A CN110490919B CN 110490919 B CN110490919 B CN 110490919B CN 201910603880 A CN201910603880 A CN 201910603880A CN 110490919 B CN110490919 B CN 110490919B
- Authority
- CN
- China
- Prior art keywords
- depth
- loss function
- network
- view
- viewpoint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度神经网络的单目视觉深度估计方法,步骤如下:1)构建多尺度深度估计网络,2)构建无监督训练方案,3)利用左、右视点间深度图及基线计算之间刚性流,通过刚性流之间的差异较大的区域得到左、右视点图像之间的遮挡区域。同时在计算损失函数过程中,将遮挡区域排除在损失函数计算之外;4)输入待训练双目立体视频中的一个视点视频,输出对应左、右视点深度图,通过最优化手段降低损失函数来训练模型,以至网络达到收敛。发明所提出的模型通过输入单视点视频序列输出高质量的深度图,训练过程不需要深度图的标签提高了模型的应用范围,通过去除双目立体序列之间的遮挡区域解决深度图的边缘模糊问题并提高估计精度。
Description
技术领域
本发明属于计算机视觉领域,涉及深度估计方法,具体来说是一种基于深度神经网络的单目视觉的深度估计方法。
背景技术
从图像中估计深度在计算机视觉领域具有悠久的历史,作为一项基础工作其在诸如3D场景重建、机器人、增强现实(Augmented Reality,AR)等领域都有重要的应用。针对输入的RGB图像,估计出其每像素点的深度值,得到深度图。
传统深度估计方法大多依赖于从运动中恢复结构(structure from motion)。然而该方法依赖于对感兴趣的场景进行多次观察这一假设,限制了深度估计的应用范围。随着近年来,深度学习与神经网络在计算机视觉任务中的卓越表现,研究学者们利用神经网络来从RGB输入中回归深度图,并且取得了很好的效果。利用深度学习来进行深度估计主要有2类:有监督深度估计与无监督深度估计。有监督深度估计需要带有深度标签的数据集对网络来训练,在真实世界环境中,深度标签比较难以获得。无监督方法通过对输入视图的重建来进行监督,不需要深度标签,更适用于真实世界数据集。
现有的无监督深度估计方法,通常忽视了输入图像之间的遮挡,导致估计出的深度图在边缘区域会出现深度模糊,极大降低了估计的精确度,不利于后续对深度图的利用。
发明内容
本发明提出了一种基于深度神经网络的单目视觉的深度估计方法,采用无监督训练方式,通过引入遮挡区域检测,去除深度估计过程中重建错误的像素点,解决深度估计的边缘模糊并且提高深度估计的精度。
本发明为解决其技术问题采用如下技术方案:
构建多尺度深度估计模型,主体采用编解码网络设计。
其中编码网络部分包含多组卷积神经网络,对输入的图片进行多尺度的特征提取。
解码网络部分,采用反卷积或者上采样卷积层与卷积层交替叠加的模式,来输出多尺度深度图。
同时在编解码部分层之间存在跳层连接,用来融合高低层特征。
输入双目立体视频的左单点视图Il,深度网络同时输出左、右视图的深度Dl与Dr。同时利用左、右序列之间已知的基线运动Tl→r与Tr→l及相机内参K,可以得到左视图坐标pl在右视图坐标上的投影p′r,具体公式如下:
p′r=KTl→rDl(Pl)K-1Pl
同理得到右视图在左视图上的坐标投影p′l:
p′l=KTr→lDr(Pr)K-1Pr
得到相应的投影坐标p′r和p′l后,可以分别利用投影坐标p′r和右视图原图Ir利用可微分的双线性插值重建出左视图I′l,同理获得重建出的右视图I′r。通过构建原左、右视点图像和重建左、右视点图像之间的光度误差来构建基础监督损失Lpw。
其中Lpw为损失函数,SSIM()为结构相似度函数,Il和Ir为输入的左、右视图,I′l和Ir为重建的左、右视图。损失函数采用结构相似度和L1范数来共同计算多尺度下的误差。
其中K为相机内参,Tr→l为左、右视图之间的基线运动,Dl(Pl)为Pl坐标点处的深度,Pl为左视图上的坐标点。
其中Ml为遮挡指示器,指明左视图中被遮挡的区域。(α,β)为预设的阈值,差异大于阈值范围的将会被当作遮挡区域。计算损失函数的过程中引入遮挡区域Ml和Mr:
其中Lpw为网络最终的损失函数,Ml和Mr分别代表着左右视图中被遮挡的部分,SSIM()为结构相似度函数,s为4个分辨率图像。
输入一定分辨率下的单目视频序列,输出多分辨率的深度图。同时利用最优化的手段对损失函数进行降低,直至降低至模型收敛,得到最优化的模型参数。
本发明的优点和有益效果如下:
1、本发明提出的一种单目视觉的深度估计方法,基于无监督深度学习,训练过程中不需要深度图标签,提高了其应用范围。
2、本发明在网络结构方面采用编解码结构,编码结构能够有效提取输入图像的高低层特征,在解码部分针对提取到的特征进行反卷积处理,跳层连接能够更好的融合高低层特征进行深度的预测。
3、本发明的遮挡区域检测能够有效的计算出双目左、右图像之间的遮挡区域,并且在计算损失函数过程中将其去除,解决了深度估计边缘模糊问题。
4、本发明的整体结构以端到端的形式进行训练与测试,训练过程中利用双目立体图像对保证恢复出的深度带有真实尺度,测试阶段采用单视点连续视频序列。整体框架可以通过预训练移植到各个应用环境。
附图说明
图1为本发明实例一种基于深度神经网络的单目视觉深度估计方法的网络结构图;
图2为本发明遮挡检测示意图;
图3为本发明深度估计结果图。
具体实施方式
下面结合附图并通过具体实施例对本发明作进一步详述,以下实施例只是描述性的,不是限定性的,不能以此限定本发明的保护范围。
本发明提出了一种基于深度神经网络的单目视觉的深度估计方法,采用无监督训练方式,通过引入遮挡检测机制,去除深度估计过程中重建错误的像素点。解决深度估计的边缘模糊并且提高深度估计的精度。
具体步骤如下:
1)构建多尺度深度估计网络,如图1所示,模型基于编解码网络结构设计,包含卷积层,反卷积层等;
本发明神经网络搭建主体采取编解码结构,其中编码部分为了更好的提取输入图像的特征,由十四个卷积层组成,其中两两一组,一共有7组卷积层,除去最初的两组卷积核大小为7*7、5*5,其余卷积层的卷积核大小均为3*3。解码网络部分由七层卷积层和七层反卷积层交替叠加,解码部分的所有层的卷积大小均为3*3。为了保留全局高级特征与局部低级特征,编解码部分采用不同尺度的跳层连接,网络先在低分辨率上输出深度图,然后加入低级细节信息逐渐过渡到高分辨率下的深度估计,其中4个尺度下的深度估计分辨率之间的缩放因子为2。模型所有层的激活函数都采用修正线性单元(Relu)。
2)构建无监督训练方案,输入双目立体视频中的其中一个视点视频,神经网络输出对应左、右视点的多尺度深度图。利用左、右视点深度图及双目相机基线分别从输入的左视点图像和右视点图像重建出右视点图像和左视点图像。利用输入左、右视点图像和重建的左、右视点图像之间的光度误差构建网络的监督损失函数;
本发明中由于需要双目立体视频对模型进行训练,于是采用公开的自动驾驶数据集KITTI,目前是国际上最大的自动驾驶场景下的计算机视觉算法评测数据集。由于本发明的网络采用无监督方式进行训练,所以采用KITTI的raw数据划分,该数据划分包含42382组双目RGB图像对(不含有深度标签)。KITTI的数据原始分辨率为1242x375,为了减少模型的计算量,我们将图像缩小到512x256大小进行训练,并且对图像做随机增强,包含轻度的仿射变形、随机水平旋转、随机尺度抖动、随机对比度、亮度、饱和度和锐度等,提高数据量的同时也提高模型在过程中的泛化能力。
输入双目立体视频的左单点视图Il,深度网络同时输出左、右视图的多尺度深度Dl与Dr。同时利用左、右序列之间已知的基线运动Tl→r与Tr→l及相机内参K,通过在左、右视图之间的相机坐标系及图像坐标的投影关系可以得到左视图坐标pl在右视图坐标上的投影p′r,具体公式如下:
p′r=KTl→rDl(Pl)K-1Pl
其中公式是其次的矩阵计算。同理得到右视图在左视图上的坐标投影p′l:
p′l=KTr→lDr(Pr)K-1Pr
得到相应的投影坐标p′r和p′l后,可以分别利用投影坐标p′r和右视图原图Ir利用可微分的双线性插值重建出左视图I′l,同理获得重建出的右视图I′r。通过构建原左、右视点图像和重建左、右视点图像之间的光度误差来构建基础监督损失Lpw。
其中Lpw为损失函数,SSIM()为结构相似度函数,Il和Ir为输入的左、右视图,I′l和Ir为重建的左、右视图。。损失函数采用结构相似度和L1范数来共同计算多尺度下的误差。
3)利用左、右视点间深度图及基线计算之间刚性流,通过刚性流之间的差异较大的区域得到左、右视点图像之间的遮挡区域。同时在计算损失函数过程中,不计算遮挡区域的损失;
图2为本发明遮挡区域检测示意图
其中K为相机内参,Tr→l为左、右视图之间的基线运动,Dl(Pl)为Pl坐标点处的深度,Pl为左视图上的坐标点。
同理可得右图到左图的刚性流通过双线性插值可以重建左图到右图的刚性流遮挡区域代表左图中的部分像素点在右图中没有所对应的像素点,在双目图像对中主要是由于双目相机的基线引起的。遮挡区域在左、右图投影的过程中会产生错误的匹配,体现在刚性流上就是与之间差异较大的区域。
其中Ml为遮挡指示器,指明左视图中被遮挡的区域。其中(α,β)为预设的阈值,差异大于阈值范围的将会被当作遮挡区域。计算损失函数的过程中引入遮挡区域Ml和Mr:
其中Lpw为网络最终的损失函数,Ml和Mr分别代表着左右视图中被遮挡的部分,SSIM()为结构相似度函数,s为4个分辨率图像。
4)输入待训练双目立体视频中的一个视点视频,输出对应左、右视点深度图,按照上述步骤构建损失函数,通过最优化手段降低损失函数来训练模型,以至网络达到收敛。
图3为本发明模型深度估计结果图
输入分辨率为256x512的单目视频序列,输出多分辨率的深度图。同时利用最优化的手段对损失函数进行降低,直至降低至模型收敛,得到最优化的模型参数。
本发明利用深度学习框架Tensorflow对模型进行训练优化。具体网络参数如下所示:
参数名 | 参数值 |
优化器(optimizer) | <![CDATA[Adamβ<sub>1</sub>=0.9,β<sub>2</sub>=0.99.]]> |
学习率(learningrate) | 0.0002 |
批处理大小(batch-size) | 4 |
训练轮数(epoch) | 50 |
输入图像分辨率 | 256x512 |
深度模型在训练过程不断收敛损失函数,直至得到最优的模型。在测试阶段,本发明的深度模型输入为分辨率为256x512单目图像,可以输出分辨率为256x512、128x256、64x128、32x64这4中分辨率下的深度图。网络结构在KITTI真实数据集上进行训练,可以将收敛后的模型在其他真实数据集上进行微调直接进行深度估计,具备良好的泛化能力。
以上所述,仅为本发明专利较佳的实施例,但本发明专利的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明专利所公开的范围内,根据本发明专利的技术方案及其发明专利构思加以等同替换或改变,都属于本发明专利的保护范围。
Claims (3)
1.一种基于深度神经网络的单目视觉的深度估计方法,其特征在于:以无监督深度学习方式构建多尺度深度估计网络,通过引入双目视频序列之间的刚性流来检测左、右视图之间的遮挡区域,并且在损失函数中去除遮挡区域对深度估计性能带来的负面影响;
包括如下步骤:
(1)构建多尺度深度估计网络;
(2)构建无监督训练方案;
(3)利用左、右视点间深度图及基线计算之间刚性流,通过刚性流之间的差异较大的区域得到左、右视点图像之间的遮挡区域,同时在计算损失函数过程中,将遮挡区域排除在损失函数计算之外;
(4)输入待训练双目立体视频中的一个视点视频,输出对应左、右视点深度图,按照上述步骤构建损失函数,通过最优化手段降低损失函数来训练模型,以至网络达到收敛;
步骤(3)具体为:
其中K为相机内参,Tl→r为左、右视图之间的基线运动,Dl(Pl)为Pl坐标点处的深度,Pl为左视图上的坐标点;
其中Ml为遮挡指示器,指明左视图中被遮挡的区域,(α,β)为预设的阈值,差异大于阈值范围的将会被当作遮挡区域,计算损失函数的过程中引入遮挡区域Ml和Mr
其中Lpw为网络最终的损失函数,Ml和Mr分别代表着左右视图中被遮挡的部分,SSIM()为结构相似度函数,s为4个分辨率图像。
2.根据权利要求1所述的基于深度神经网络的单目视觉深度估计方法,其特征在于:所述的多尺度深度估计网络采用编解码网络设计,其中编码网络部分包含多组卷积神经网络,对输入的图片进行多尺度的特征提取;解码网络部分,采用反卷积或者上采样卷积层与卷积层交替叠加的模式,来输出多尺度深度图;同时在编解码部分层之间存在跳层连接,融合高低层特征。
3.根据权利要求1所述的基于深度神经网络的单目视觉深度估计方法,其特征在于:构建无监督训练方案具体为:
输入双目立体视频的左单点视图Il,深度网络同时输出左、右视图的深度Dl与Dr,同时利用左、右序列之间已知的基线运动Tl→r与Tr→l及相机内参K,得到左视图坐标Pl在右视图坐标上的投影p′r:
p′r=KTl→rDl(Pl)K-1Pl
同理得到右视图坐标Pr在左视图上的坐标投影p′l:
p′l=KTr→lDr(Pr)K-1Pr
得到相应的投影坐标p′r和p′l后,分别利用左视图投影坐标p′r和右视图原图Ir利用可微分的双线性插值重建出左视图I′l,同理获得重建出的右视图I′r;通过构建原左、右视点图像和重建左、右视点图像之间的光度误差来构建基础监督损失函数Lpw;
其中Lpw为损失函数,SSIM()为结构相似度函数,Il和Ir为输入的左、右视图,I′l和Ir为重建的左、右视图,损失函数采用结构相似度和L1范数来共同计算多尺度下的误差。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910603880.4A CN110490919B (zh) | 2019-07-05 | 2019-07-05 | 一种基于深度神经网络的单目视觉的深度估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910603880.4A CN110490919B (zh) | 2019-07-05 | 2019-07-05 | 一种基于深度神经网络的单目视觉的深度估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110490919A CN110490919A (zh) | 2019-11-22 |
CN110490919B true CN110490919B (zh) | 2023-04-18 |
Family
ID=68546630
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910603880.4A Active CN110490919B (zh) | 2019-07-05 | 2019-07-05 | 一种基于深度神经网络的单目视觉的深度估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110490919B (zh) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111027714B (zh) * | 2019-12-11 | 2023-03-14 | 腾讯科技(深圳)有限公司 | 基于人工智能的对象推荐模型训练方法、推荐方法及装置 |
CN111105432B (zh) * | 2019-12-24 | 2023-04-07 | 中国科学技术大学 | 基于深度学习的无监督端到端的驾驶环境感知方法 |
CN111310916B (zh) * | 2020-01-22 | 2022-10-25 | 浙江省北大信息技术高等研究院 | 一种区分左右眼图片的深度系统训练方法及系统 |
CN111325782A (zh) * | 2020-02-18 | 2020-06-23 | 南京航空航天大学 | 一种基于多尺度统一的无监督单目视图深度估计方法 |
CN113393510B (zh) * | 2020-03-12 | 2023-05-12 | 武汉Tcl集团工业研究院有限公司 | 一种图像处理方法、智能终端及存储介质 |
CN111899295B (zh) * | 2020-06-06 | 2022-11-15 | 东南大学 | 一种基于深度学习的单目场景深度预测方法 |
CN111739082B (zh) * | 2020-06-15 | 2022-11-18 | 大连理工大学 | 一种基于卷积神经网络的立体视觉无监督深度估计方法 |
CN111753961B (zh) * | 2020-06-26 | 2023-07-28 | 北京百度网讯科技有限公司 | 模型训练方法和装置、预测方法和装置 |
CN111784659A (zh) * | 2020-06-29 | 2020-10-16 | 北京百度网讯科技有限公司 | 图像检测的方法、装置、电子设备以及存储介质 |
CN112102388B (zh) * | 2020-09-18 | 2024-03-26 | 中国矿业大学 | 基于巡检机器人单目图像获取深度图像的方法及装置 |
CN112233160B (zh) * | 2020-10-15 | 2022-04-19 | 杭州知路科技有限公司 | 一种基于双目摄像头的实时深度及置信度的预测方法 |
CN112270692B (zh) * | 2020-10-15 | 2022-07-05 | 电子科技大学 | 一种基于超分辨的单目视频结构和运动预测的自监督方法 |
CN112543317B (zh) * | 2020-12-03 | 2022-07-12 | 东南大学 | 高分辨率单目2d视频到双目3d视频的转制方法 |
CN112700532B (zh) * | 2020-12-21 | 2021-11-16 | 杭州反重力智能科技有限公司 | 一种用于三维重建的神经网络训练方法和系统 |
CN112598721A (zh) * | 2020-12-22 | 2021-04-02 | 绍兴市北大信息技术科创中心 | 基于归一化回归函数单目深度估计系统训练方法和网络 |
CN112561979B (zh) * | 2020-12-25 | 2022-06-28 | 天津大学 | 一种基于深度学习的自监督单目深度估计方法 |
CN113313742A (zh) * | 2021-05-06 | 2021-08-27 | Oppo广东移动通信有限公司 | 图像深度估计方法、装置、电子设备及计算机存储介质 |
CN116740158B (zh) * | 2023-08-14 | 2023-12-05 | 小米汽车科技有限公司 | 图像深度确定方法、装置和存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6044181A (en) * | 1997-08-01 | 2000-03-28 | Microsoft Corporation | Focal length estimation method and apparatus for construction of panoramic mosaic images |
CN109377530A (zh) * | 2018-11-30 | 2019-02-22 | 天津大学 | 一种基于深度神经网络的双目深度估计方法 |
CN109472821A (zh) * | 2018-10-29 | 2019-03-15 | 南京怀萃智能科技有限公司 | 深度估计方法、装置、设备和存储介质 |
CN109791697A (zh) * | 2016-09-12 | 2019-05-21 | 奈安蒂克公司 | 使用统计模型从图像数据预测深度 |
-
2019
- 2019-07-05 CN CN201910603880.4A patent/CN110490919B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6044181A (en) * | 1997-08-01 | 2000-03-28 | Microsoft Corporation | Focal length estimation method and apparatus for construction of panoramic mosaic images |
CN109791697A (zh) * | 2016-09-12 | 2019-05-21 | 奈安蒂克公司 | 使用统计模型从图像数据预测深度 |
CN109472821A (zh) * | 2018-10-29 | 2019-03-15 | 南京怀萃智能科技有限公司 | 深度估计方法、装置、设备和存储介质 |
CN109377530A (zh) * | 2018-11-30 | 2019-02-22 | 天津大学 | 一种基于深度神经网络的双目深度估计方法 |
Non-Patent Citations (2)
Title |
---|
"DF-Net: Unsupervised Joint Learning of Depth and Flow using Cross-Task Consistency";Yuliang Zou et al.;《Proceedings of the European Conference on Computer Vision》;20181001;第36-53页 * |
"Unsupervised Monocular Depth Estimation with Left-Right Consistency";Clement Godard et al.;《arXiv》;20170412;第1-14页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110490919A (zh) | 2019-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110490919B (zh) | 一种基于深度神经网络的单目视觉的深度估计方法 | |
CN109377530B (zh) | 一种基于深度神经网络的双目深度估计方法 | |
CN110782490A (zh) | 一种具有时空一致性的视频深度图估计方法及装置 | |
CN112861729B (zh) | 一种基于伪深度图引导的实时深度补全方法 | |
CN110910437B (zh) | 一种复杂室内场景的深度预测方法 | |
CN112232134B (zh) | 一种基于沙漏网络结合注意力机制的人体姿态估计方法 | |
CN111612825B (zh) | 基于光流与多尺度上下文的图像序列运动遮挡检测方法 | |
CN115187638B (zh) | 一种基于光流遮罩的无监督单目深度估计方法 | |
Wei et al. | Bidirectional hybrid lstm based recurrent neural network for multi-view stereo | |
CN110889868B (zh) | 一种结合梯度和纹理特征的单目图像深度估计方法 | |
Ubina et al. | Intelligent underwater stereo camera design for fish metric estimation using reliable object matching | |
CN116563916A (zh) | 基于注意力融合的循环人脸超分辨率方法及系统 | |
CN112906675B (zh) | 一种固定场景中的无监督人体关键点检测方法及系统 | |
CN113610912B (zh) | 三维场景重建中低分辨率图像单目深度估计系统及方法 | |
Liu et al. | When epipolar constraint meets non-local operators in multi-view stereo | |
CN112116646B (zh) | 一种基于深度卷积神经网络的光场图像深度估计方法 | |
CN111652922B (zh) | 一种基于双目视觉的单目视频深度估计方法 | |
CN107358624B (zh) | 单目稠密即时定位与地图重建方法 | |
CN115330935A (zh) | 一种基于深度学习的三维重建方法及系统 | |
CN115170921A (zh) | 一种基于双边网格学习和边缘损失的双目立体匹配方法 | |
Chen et al. | Bidirectional optical flow NeRF: high accuracy and high quality under fewer views | |
CN115294182A (zh) | 一种基于双交叉注意力机制的高精度立体匹配方法 | |
Yang et al. | A feature extraction technique in stereo matching network | |
Zhang et al. | Unsupervised learning of depth estimation based on attention model from monocular images | |
CN113593007A (zh) | 一种基于变分自编码的单视图三维点云重建方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |