CN110120049B - 由单张图像联合估计场景深度与语义的方法 - Google Patents
由单张图像联合估计场景深度与语义的方法 Download PDFInfo
- Publication number
- CN110120049B CN110120049B CN201910303361.6A CN201910303361A CN110120049B CN 110120049 B CN110120049 B CN 110120049B CN 201910303361 A CN201910303361 A CN 201910303361A CN 110120049 B CN110120049 B CN 110120049B
- Authority
- CN
- China
- Prior art keywords
- depth
- network
- semantic
- branch
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
本发明属于计算机视觉和计算机图形学领域,为设计一个迭代式的网络去联合估计深度信息和语义信息,利用二者之间的互补特性改善彼此的预测结果,本发明采取的技术方案是,由单张图像联合估计场景深度与语义的方法,步骤如下:利用任何带有单目摄像头的设备进行拍照,获取得到的彩色图像作为网络的输入;2)迭代网络:将一张彩色图像输入多任务的深度卷积网络构成的对于深度估计和语义分割迭代联合优化的框架,估计出其深度和语义信息,深度信息用来重建三维场景,语义信息能够实现场景的理解。本发明主要应用于图像处理场合。
Description
技术领域
本发明属于计算机视觉和计算机图形学领域,特别涉及使用深度学习的方法去估计场景的深度信息和语义信息。
背景技术
在计算机视觉领域,单目深度估计一直是长期存在并且讨论议论较多的一个主题。深度信息在三维重建、虚拟现实、导航等应用上都有比较大的帮助。现如今,虽然有不少硬件能够直接获取到深度图,但它们都有各自的缺陷。比如3D LIDAR设备非常昂贵;基于结构光的深度摄像头像Kinect等在室外无法使用,测量距离有限并且深度图噪声比较大;双目摄像头需要利用立体匹配算法,计算量比较大,而且对于纹理不丰富的场景效果不好。单目摄像头相对来说成本最低,设备也最普及,所以从单目摄像头设计算法去估计深度是一个比较好的选择。之前的方法主要使用手动设计的特征和图模型去估计深度,但是随着深度学习的兴起,更多的注意力放在了使用深度学习的方法去估计深度。Eigen等人(D.Eigen,C.Puhrsch,and R.Fergus.Depth map prediction from a single a multi-scale deep network.In NIPS,pages2366-2374,2014.)提出了一个多尺度的卷积神经网络用于深度估计,并且取得了不错的结果。
语义分割实际上是图像分类的一种扩展。语义分割所要做的是对于给定图像的每一个像素做分类。在图像领域,语义指的是图像的内容,即对图片意思的理解。语义分割在地理信息系统、无人车驾驶、医疗影像分析还有机器人等领域中有着比较广泛的应用。如今,做语义分割最先进的方法都是基于深度学习的。Long(J.Long,E.Shelhamer,andT.Darrell.Fullyconvolutional networks for semantic segmentation.In CVPR,pages3431–3440,2015.)等人提出了使用全卷积网络去做语义分割,之后的大部分工作都是基于全卷积网络基础上的。随着深度相机的普及和RGBD数据集的出现,一些方法开始尝试将深度信息融合到网络中去估计语义信息,不再局限于只使用彩色图像去做语义分割。
发明内容
为了能够获得彩色图像所对应的深度图和语义图,本发明是设计一个迭代式的网络去联合估计深度信息和语义信息,利用二者之间的互补特性改善彼此的预测结果。为此,本发明提供了一个合成数据集,专门用来室内的三维重建和场景理解。本发明并不局限于学习深度信息与语义信息,相关的两种任务都可以。具体来说,本发明采取的技术方案是,由单张图像联合估计场景深度与语义的方法,步骤如下:
1)利用任何带有单目摄像头的设备进行拍照,获取得到的彩色图像作为网络的输入;
2)迭代网络:将一张彩色图像输入多任务的深度卷积网络构成的对于深度估计和语义分割迭代联合优化的框架,估计出其深度和语义信息,深度信息用来重建三维场景,语义信息能够实现场景的理解。
迭代网络是一个多任务的深度卷积网络,包含两个部分,深度估计子网络和语义分割子网络,具体包括以下部分:
1)深度估计子网络:包括彩色图支路和语义支路,彩色图支路是由一条主干的编解码网络和一条使结果精细化的网络组成,精细化的网络由几个连续条件随机场模块组成,用来提取主干网络中不同尺度的信息,也就是解码出来的不同尺度的信息;语义分割子网络的输出处理结果到语义支路,语义支路是由编解码网络组成,最后,两路信息通过组合用条件随机场模块组合起来,得到最后的深度估计结果;
2)语义估计子网络:包括彩色图支路和深度支路,先对来自深度估计子网络输出的深度图进行质心编码,然后输入到深度支路,彩色图的支路由空洞卷积和多孔空间金字塔池化组成,深度支路由全卷积构成,最终通过长短期记忆网络进行融合;
3)联合优化:对于每一个子网络单独训练,每一个子网络的每一条支路先分别训练,然后组合起来,微调,取深度子网络中彩色图的支路在融合前的特征作为初始化的深度,同理,也取出语义作为初始化,然后将获得的深度和彩色图送到网络中进行迭代。
联合优化具体步骤如下:对于深度估计网络的训练,首先,先单独训练彩色图输入的那一条支路,等到在验证集上的结果不再下降之后,再加入语义分割图输入的那一条支路,联合训练,由于输入彩色图的那一条支路已经训练过了,所以在彩色图输入支路上进行微调即可,主要训练输入语义的那一条支路,到在验证集上的结果基本不再下降之后,训练停止;对于训练语义分割的网络,首先对输入彩色图像的支路进行训练,饱和之后,加入输入深度图的那一条支路,联合训练;要使迭代网络运行起来,需要一个初始化的深度或者语义,具体取深度子网络中彩色图的支路在融合前的特征作为初始化的深度,同理,也取出语义作为初始化;迭代的具体过程是,获得了一个初始化的语义,要想进行迭代就通过输入彩色图和这个获得的语义到深度估计子网络中,学习得到深度图,再将这个深度图和彩色图输入到语义估计子网络中,学习语义分割图,如此进行迭代。
与已有技术相比,本发明的技术特点与效果:
首先,本发明的发明是在单目彩色图像的基础上,相比传统的单目深度估计和语义估计,本发明方法主要具有以下特点:
1、基于单目的彩色图像,利用深度卷积网络学习得到深度图和语义分割图。
2、设计了一个迭代联合优化的框架,输入一张彩色图像到网络中进行迭代,最终得到深度图以及语义分割图。这种框架不仅仅局限于深度估计和语义分割,也可以用在其它相关联的任务上。
3、提出了一个用来室内场景三维重建和理解的合成数据集,可以用来训练迭代网络。
本发明基于彩色图像,实现上简单易行,且有让人较为满意的效果。所提出的方法具有很好的扩展性。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本发明实施例基于迭代网络进行深度估计和语义分割的示意图。
图2为本发明实施例是基于NYUv2数据集(P.K.Nathan Silberman,Derek Hoiemand R.Fergus.Indoor segmentation and support inference from RGBD images.InECCV,2012.)上获得的深度估计结果与其它方法的对比示意图。从左至右依次是输入的彩色图,深度图的真值,Eigen等人(D.Eigen,C.Puhrsch,and R.Fergus.Depth mapprediction from a single image using a multi-scale deep network.In NIPS,pages2366–2374,2014.)估计出来的结果,Laina等人(I.Laina,C.Rupprecht,V.Belagiannis,F.Tombari,and N.Navab.Deeper depth prediction with fully convolutionalresidual networks.)估计得到的结果,Xu等人(D.Xu,E.Ricci,W.Ouyang,X.Wang,andN.Sebe.Multi-scale continuous CRFs as sequential deep networks for monoculardepth estimation.In CVPR,2017.)估计得到的结果以及本发明所估计得到的结果。
图3为本发明实施例是基于NYUv2数据集上获得的语义估计结果与其它方法的对比示意图。从左至右依次是输入的彩色图,语义分割图的真值,Long等人(J.Long,E.Shelhamer,and T.Darrell.Fully convolutional networks for semanticsegmentation.In CVPR,pages3431–3440,2015.)估计得到的结果,Chen等人(L.-C.Chen,G.Papandreou,I.Kokkinos,K.Murphy,and A.L.Yuille.DeepLab:Semantic imagesegmentation with deep convolutional nets,atrous convolution,and fullyconnected CRFs.IEEE Trans.PAMI,40(4):834–848,2018.)估计得到的结果,Li等人(Z.Li,Y.Gan,X.Liang,Y.Yu,H.Cheng,and L.Lin.LSTM-CF:Unifying context modelingand fusion with lstms for RGB-D scene labeling.In ECCV,pages 541–557,2016.)估计得到的结果,Zhao等人(H.Zhao,Y.Zhang,S.Liu,J.Shi,C.C.Loy,D.Lin,andJ.Jia.PSANet:Point-wise spatial attention network for scene parsing.In ECCV,2018.)估计得到的结果以及本发明估计得到的结果。
图4为所提出的数据集中的一些例子,从上到下依次是彩色图,深度图和语义分割图。
具体实施方式
本发明旨在实现只基于彩色图片,实现深度估计和语义分割估计的目的。本发明将以任何一台能够采集彩色图片的设备作为起点,利用迭代网络学习得到深度图和语义图。
本发明提出了一种通过迭代网络去联合估计深度与语义信息的方法,结合附图及实施例详细说明如下:
本发明利用某种设备所获取的彩色图像,输入到深度估计和语义分割迭代的网络中联合优化,得到该图所对应的深度图和语义分割图。如图1所示,为本发明实施例所提出的迭代网络设计,迭代网络是一个多任务的深度卷积网络,它主要包含两个部分,深度估计子网络和语义分割子网络,具体实施方案如下:
1)深度估计子网络的设计。在网络结构设计上,一共使用了两条支路,第一条支路是输入彩色图像,第二条支路是输入的语义分割图像,两条支路各自通过一个编码-解码网络,在最后,联结起来去预测深度信息。彩色图输入的支路是主支路,它是最后的深度估计主要的贡献者,语义分割的支路主要是对最后结果进行改善,主要表现在物体的边缘上,它能够输出较为精准的边缘。本发明使用了连续条件随机场去组合多个尺度的特征,彩色图的支路是由一条主干的网络(编解码网络)和一条使结果精细化的网络组成,精细化的网络主要有几个连续条件随机场模块组成,用来提取主干网络中不同尺度的信息;语义的支路是由编解码网络组成。最后,两路信息通过条件随机场模块组合起来,得到最后的深度估计结果。本方案所采用的编解码网络里用的都是卷积模块
2)语义估计子网络的设计。在网络结构设计上,一共使用了两条支路,第一条支路是输入彩色图像,第二条支路是输入深度估计图(由深度估计子网络的输出得到),两条支路各自通过一个卷积网络,在最后把两路提取出来的特征进行组合,学习出最后的语义分割结果。彩色图输入的是主要支路,它为最后的语义结果提供了较多的信息,输入深度估计的那一条支路,是对语义结果进行修缮。本发明使用了长短期记忆信息融合的模块去组合不同的特征,它能够融合不同来源的信息,比如说光度信息和深度信息。长短期记忆网络(Long Short-Term Memory Network),简称LSTM,它是在循环神经网络(RNN)的基础上提出来的,能够解决训练RNN过程中易出现的梯度消失的问题,用它来建模序列之间的相关性,在图像上用来表达相邻像素之间的相关性。本发明也把多孔空间金字塔池化模块加入到网络中,用它作为多尺度特征的提取器。在深度图送入到网络之前,先对深度图进行质心编码,然后喂给深度支路。彩色图的支路由空洞卷积和多孔空间金字塔池化组成,深度支路由全卷积构成,最终通过长短期记忆网络进行融合。
3)联合优化。要训练的网络有两个,分别是深度估计的网络和语义估计的网络。二者的训练分开进行,以深度估计网络的训练为例,首先,先单独训练彩色图输入的那一条支路,等到在验证集上的结果基本不再下降之后,再加入语义分割图输入的那一条支路,联合训练,由于输入彩色图的那一条支路已经训练过了,所以在这一条支路上进行微调即可,主要训练输入语义的那一条支路,等到在验证集上的结果基本不再下降之后,训练停止。同理,训练语义分割的网络,也是如此进行分步训练,先对输入彩色图像的支路进行训练,饱和之后,加入输入深度图的那一条支路,联合训练。这样的训练方法虽然繁琐了一些,但是每一条支路训练起来相对容易,能够达到一个比较好的训练效果。要使本发明的迭代网络运行起来,需要一个初始化的深度或者语义,本发明取深度子网络中彩色图的支路在融合前的特征作为初始化的深度,同理,也可以取出语义作为初始化。比如获得了一个初始化的语义,要想进行迭代就可以通过输入彩色图和这个获得的语义到深度估计网络中,学习得到深度图,再将这个深度图和彩色图输入到语义估计网络中,学习语义分割图,如此进行迭代。
4)训练。对于每一个子网络而言,都是单独训练的。以深度估计子网络为例,对于两路分支分别训练,然后连在一起进行微调。语义分割子网络也用同样的方式进行训练。该网络的实现是基于Caffe深度学习框架,运行在英伟达GTX 1080ti显卡上。对于深度估计子网络初试学习率设为10-11,每30轮学习率下降0.9,训练批次大小设为16。动量和权值衰减权重分别设为0.9和0.0005。对于语义分割子网络,遵循同样的训练规则,不过初始学习率设为10-4。批次大小、动量和权值衰减分别设为8,0.9和0.005。学习率每20轮下降0.9。当每个分支的预训练结束之后,然后对整个网络进行微调。
5)测试。注意到迭代网络是需要一个初始化的深度或者语义的,这可以通过彩色图支路提取的特征获得。具体而言,如果目的是获得一个初始的语义,那么可以取语义分割估计子网络中,彩色图最后一层特征最为初始化的语义,要想进行迭代就可以通过输入彩色图和这个获得的语义到深度估计网络中,学习得到深度图,再将这个深度图和彩色图输入到语义估计网络中,学习语义分割图,如此进行迭代。
Claims (2)
1.一种由单张图像联合估计场景深度与语义的方法,其特征是,步骤如下:
1)利用任何带有单目摄像头的设备进行拍照,获取得到的彩色图像作为网络的输入;
2)迭代网络:将一张彩色图像输入多任务的深度卷积网络构成的对于深度估计和语义分割迭代联合优化的框架,估计出其深度和语义信息,深度信息用来重建三维场景,语义信息能够实现场景的理解;其中,迭代网络是一个多任务的深度卷积网络,包含两个部分:深度估计子网络和语义分割子网络,具体地:
1)深度估计子网络:包括彩色图支路和语义支路,彩色图支路是由一条主干的编解码网络和一条使结果精细化的网络组成,精细化的网络由几个连续条件随机场模块组成,用来提取主干网络中不同尺度的信息,也就是解码出来的不同尺度的信息;语义分割子网络的输出处理结果到语义支路,语义支路是由编解码网络组成,最后,两路信息通过组合用条件随机场模块组合起来,得到最后的深度估计结果;
2)语义估计子网络:包括彩色图支路和深度支路,先对来自深度估计子网络输出的深度图进行质心编码,然后输入到深度支路,彩色图的支路由空洞卷积和多孔空间金字塔池化组成,深度支路由全卷积构成,最终通过长短期记忆网络进行融合;
3)联合优化:对于每一个子网络单独训练,每一个子网络的每一条支路先分别训练,然后组合起来,微调,取深度子网络中彩色图的支路在融合前的特征作为初始化的深度,同理,也取出语义作为初始化,然后将获得的深度和彩色图送到网络中进行迭代。
2.如权利要求1所述的由单张图像联合估计场景深度与语义的方法,其特征是,联合优化具体步骤如下:对于深度估计网络的训练,首先,先单独训练彩色图输入的那一条支路,等到在验证集上的结果不再下降之后,再加入语义分割图输入的那一条支路,联合训练,由于输入彩色图的那一条支路已经训练过了,所以在彩色图输入支路上进行微调即可,主要训练输入语义的那一条支路,到在验证集上的结果基本不再下降之后,训练停止;对于训练语义分割的网络,首先对输入彩色图像的支路进行训练,饱和之后,加入输入深度图的那一条支路,联合训练;要使迭代网络运行起来,需要一个初始化的深度或者语义,具体取深度子网络中彩色图的支路在融合前的特征作为初始化的深度,同理,也取出语义作为初始化;迭代的具体过程是,获得了一个初始化的语义,要想进行迭代就通过输入彩色图和这个获得的语义到深度估计子网络中,学习得到深度图,再将这个深度图和彩色图输入到语义估计子网络中,学习语义分割图,如此进行迭代。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910303361.6A CN110120049B (zh) | 2019-04-15 | 2019-04-15 | 由单张图像联合估计场景深度与语义的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910303361.6A CN110120049B (zh) | 2019-04-15 | 2019-04-15 | 由单张图像联合估计场景深度与语义的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110120049A CN110120049A (zh) | 2019-08-13 |
CN110120049B true CN110120049B (zh) | 2023-06-30 |
Family
ID=67521018
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910303361.6A Active CN110120049B (zh) | 2019-04-15 | 2019-04-15 | 由单张图像联合估计场景深度与语义的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110120049B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110796166B (zh) * | 2019-09-25 | 2022-07-26 | 浙江大学 | 一种基于注意力机制的多任务图像处理方法 |
CN111160356A (zh) * | 2020-01-02 | 2020-05-15 | 博奥生物集团有限公司 | 一种图像分割分类方法和装置 |
CN111539922B (zh) * | 2020-04-17 | 2023-03-31 | 中山大学 | 基于多任务网络的单目深度估计与表面法向量估计方法 |
CN111353505B (zh) * | 2020-05-25 | 2020-10-16 | 南京邮电大学 | 基于可联合实现语义分割和景深估计的网络模型的装置 |
CN112801074B (zh) * | 2021-04-15 | 2021-07-16 | 速度时空信息科技股份有限公司 | 一种基于交通摄像头的深度图估计方法 |
CN114882091B (zh) * | 2022-04-29 | 2024-02-13 | 中国科学院上海微系统与信息技术研究所 | 一种结合语义边缘的深度估计方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108520535A (zh) * | 2018-03-26 | 2018-09-11 | 天津大学 | 基于深度恢复信息的物体分类方法 |
CN108665496A (zh) * | 2018-03-21 | 2018-10-16 | 浙江大学 | 一种基于深度学习的端到端的语义即时定位与建图方法 |
CN108895981A (zh) * | 2018-05-29 | 2018-11-27 | 南京怀萃智能科技有限公司 | 一种三维测量方法、装置、服务器和存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10019657B2 (en) * | 2015-05-28 | 2018-07-10 | Adobe Systems Incorporated | Joint depth estimation and semantic segmentation from a single image |
-
2019
- 2019-04-15 CN CN201910303361.6A patent/CN110120049B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108665496A (zh) * | 2018-03-21 | 2018-10-16 | 浙江大学 | 一种基于深度学习的端到端的语义即时定位与建图方法 |
CN108520535A (zh) * | 2018-03-26 | 2018-09-11 | 天津大学 | 基于深度恢复信息的物体分类方法 |
CN108895981A (zh) * | 2018-05-29 | 2018-11-27 | 南京怀萃智能科技有限公司 | 一种三维测量方法、装置、服务器和存储介质 |
Non-Patent Citations (2)
Title |
---|
Exploiting Depth From Single Monocular Images for Object Detection and Semantic Segmentation;Yuanzhouhan Cao等;《IEEE Transactions on Image Processing 》;20161026;全文 * |
基于卷积神经网络的道路场景感知算法研究;唐静;《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》;20190115;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110120049A (zh) | 2019-08-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110120049B (zh) | 由单张图像联合估计场景深度与语义的方法 | |
US11238602B2 (en) | Method for estimating high-quality depth maps based on depth prediction and enhancement subnetworks | |
Meshry et al. | Neural rerendering in the wild | |
Ye et al. | Deep joint depth estimation and color correction from monocular underwater images based on unsupervised adaptation networks | |
CN107578436B (zh) | 一种基于全卷积神经网络fcn的单目图像深度估计方法 | |
Rudnev et al. | Nerf for outdoor scene relighting | |
CN111739077B (zh) | 基于深度神经网络单目水下图像深度估计和颜色矫正方法 | |
Pang et al. | Visual haze removal by a unified generative adversarial network | |
Zhang et al. | Beyond monocular deraining: Stereo image deraining via semantic understanding | |
CN113255813B (zh) | 一种基于特征融合的多风格图像生成方法 | |
Yang et al. | Kinect based real-time synthetic aperture imaging through occlusion | |
CN111951368B (zh) | 一种点云、体素和多视图融合的深度学习方法 | |
Sharma et al. | Nighttime stereo depth estimation using joint translation-stereo learning: Light effects and uninformative regions | |
CN111681177A (zh) | 视频处理方法及装置、计算机可读存储介质、电子设备 | |
Goncalves et al. | Deepdive: An end-to-end dehazing method using deep learning | |
CN116664782B (zh) | 一种基于融合体素的神经辐射场三维重建方法 | |
CN112308977A (zh) | 视频处理方法、视频处理装置和存储介质 | |
CN116012255A (zh) | 一种基于循环一致性生成对抗网络的低光图像增强方法 | |
CN110166759A (zh) | 图像的处理方法和装置、存储介质、电子装置 | |
Lu et al. | Pyramid frequency network with spatial attention residual refinement module for monocular depth estimation | |
CN104463962A (zh) | 基于gps信息视频的三维场景重建方法 | |
CN112184555B (zh) | 一种基于深度交互学习的立体图像超分辨率重建方法 | |
CN115239857B (zh) | 图像生成方法以及电子设备 | |
Zhu et al. | HDRD-Net: High-resolution detail-recovering image deraining network | |
Polasek et al. | Vision UFormer: Long-range monocular absolute depth estimation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |