CN114463172A - 一种面向视图一致性的光场图像超分辨率重建方法 - Google Patents
一种面向视图一致性的光场图像超分辨率重建方法 Download PDFInfo
- Publication number
- CN114463172A CN114463172A CN202210004978.XA CN202210004978A CN114463172A CN 114463172 A CN114463172 A CN 114463172A CN 202210004978 A CN202210004978 A CN 202210004978A CN 114463172 A CN114463172 A CN 114463172A
- Authority
- CN
- China
- Prior art keywords
- light field
- resolution
- view
- super
- field image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 230000004927 fusion Effects 0.000 claims abstract description 23
- 238000012549 training Methods 0.000 claims abstract description 14
- 230000007246 mechanism Effects 0.000 claims abstract description 11
- 238000005070 sampling Methods 0.000 claims abstract description 9
- 230000000295 complement effect Effects 0.000 claims abstract description 8
- 238000000605 extraction Methods 0.000 claims abstract description 6
- 238000007781 pre-processing Methods 0.000 claims abstract description 4
- 230000006870 function Effects 0.000 claims description 22
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 11
- 239000000126 substance Substances 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 7
- 238000011176 pooling Methods 0.000 claims description 6
- 238000005520 cutting process Methods 0.000 claims description 3
- 238000007493 shaping process Methods 0.000 claims description 3
- 230000003042 antagnostic effect Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 241000928106 Alain Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
本发明涉及一种面向视图一致性的光场图像超分辨率重建方法,该方法包括:步骤S1、获取光场图像,预处理后得到子孔径视图Iu;步骤S2、构建全对一光场图像超分辨率网络,引入注意力机制,根据视图之间的互补信息和相关性对每一个子孔径视图Iu进行超解析,包括全对一特征提取、全视图融合和上采样,得到中间高分辨率光场图像采用损失函数lintermediate训练全对一光场图像超分辨率网络;步骤S3、构建空间角度正则化网络,利用空间和角度之间的关系保留视差结构,重建中间高分辨率光场图像采用感知对抗损失函数lfinal对空间角度正则化网络进行训练,得到超分辨率光场图像Ihr。与现有技术相比,本发明图像超分辨率重建精度高的优点。
Description
技术领域
本发明涉及图像处理领域,尤其是涉及一种面向视图一致性的光场图像超分辨率重建方法。
背景技术
由于光场相机的传感器分辨率有限,光场相机面临着空间分辨率和角度分辨率之间的权衡。光场相机会出现降低视图的空间分辨率,而提高角度分辨率来采取更多的视图,因此记录的光场图像往往是低空间分辨率的。提高空间分辨率成为了光场中的主要问题。光场超分辨率重建是计算机视觉中一个长期存在的问题。
目前,光场图像超分辨率重建主要分为基于传统学习的方法和基于深度学习的方法。经典的基于传统的学习方法正在被基于深度学习的方法超越。
基于传统的学习方法通过利用跨视图冗余和视图之间的互补信息来学习从低分辨率视图到高分辨率视图的映射对于传统的方法,也被研究出很多模型来处理问题。Mattia Rossi和Pascal Frossard提出了一个新的光场超分辨率算法。利用编码在不同视图中的互补信息来提高其空间分辨率,并依赖于一个图来正则化目标光场。利用编码在不同视图中的互补信息来提高其空间分辨率,并依赖于一个图来正则化目标光场。Alain等人通过将BM3D滤波扩展到光场,提出了用于光场图像去噪和光场图像的LFBM5D。Rossi和Frossard开发了一种基于图的方法,通过图优化实现光场图像超分辨率。然而,上述方法虽然对光场结构进行了很好的编码,但是光场中的空间信息没有被充分利用。
光场图像是光场相机从不同角度拍摄同一场景所获得的图像的集合。因此,可采用基于深度学习的方法利用跨视图冗余和视图之间的互补信息来学习从低分辨率视图到高分辨率视图的映射。Yunlong Wang提出了一种嵌入隐式多尺度融合层的双向递归卷积神经网络,从同一图像块的多个尺度积累上下文信息。Nan Meng设计了一种充分利用光场的结构信息的光场空间和角度超分辨率的分层高阶框架。Yunlong Wang提出了一种端到端的学习框架,用于从稀疏输入视图直接合成密集4D光场的新视图。Y eung提出了有效和高效的端到端深度卷积神经网络模型,用于提高光场LF图像的空间分辨率。
近年来,深度学习在光场超分辨率领域取得了巨大的成就。但是仍存在针对光场图像中的信息利用不足和视差结构不能很好保存的问题。
发明内容
本发明的目的就是为了克服上述现有技术存在的对光场图像中的信息利用不足和视差结构不能很好的保存而提供了一种面向视图一致性的光场超分辨率重建方法。
本发明的目的可以通过以下技术方案来实现:
本发明提供了一种面向视图一致性的光场图像超分辨率重建方法,该方法包括以下步骤:
步骤S1、获取光场图像,预处理后得到子孔径视图Iu;
步骤S2、构建全对一光场图像超分辨率网络,引入注意力机制,根据视图之间的互补信息和相关性对每一个子孔径视图Iu进行超解析,包括全对一特征提取、全视图融合和上采样,得到中间高分辨率光场图像采用损失函数lintermediate训练全对一光场图像超分辨率网络;
优选地,所述步骤S1具体为:
通过光场相机获取多视点图像,进行数据增强操作,并把多视点图像中的每张子孔径图像剪裁成空间大小为m×m,角度分辨率为n×n的光场图像。
优选地,所述步骤S2中包括以下子步骤:
步骤S21、提取所有光场子孔径视图中的深度特征Fu:
Fu=fe(Iu)
其中,Iu为光场子孔径视图;fe为特征提取网络;
其中,ur为任意参考视图的角度位置,ua为任意其它视图的角度位置;fl为相关性学习网络,包括卷积块和引入注意力机制的CBAM注意力残差块;
步骤S25、采用损失函数lintermediate对全对一光场图像超分辨率网络进行训练。
优选地,所述相关性学习网络fl中的CBAM注意力残差块包括依次连接的中间连接一个激活层的两个卷积层、用来聚合特征映射空间信息的通道注意力模块以及空间注意力模块;所述通道注意力模块、空间注意力模块均包括平均池化层和最大池化层两路通道。
优选地,所述步骤S25中全对一光场图像超分辨率网络的损失函数表达式为:
优选地,所述步骤S3具体为:构建空间角度正则化网络,分别在二维空间卷积层和二维角度卷积层上对输出的中间高分辨率光场图像进行整形,采用感知对抗损失函数lfinal对空间角度正则化网络进行训练,得到超分辨率光场图像Ihr。
优选地,所述空间角度正则化网络还包含全局残差学习模块和局部残差学习模块。
优选地,所述感知对抗损失函数lfinal表达式为:
其中,hr为经过空间角度正则化网络后得到的超分辨率光场图像,D为对抗损失的判别器,G为对抗损失函数的生成器。
优选地,所述重建方法还包括步骤S4:使用峰值信噪比PSNR和结构相似性SSIM对光场超分辨率重建图像进行评估。
与现有技术相比,本发明具有以下优点:
1)针对现有技术中光场图像中的信息利用不足的问题,本发明通过引入注意力机制,构建全对一光场图像超分辨率网络,充分的利用视图之间的信息,提高了光场超分辨率的质量;
2)针对视差结构不能很好保存的问题,本发明设计一种空间角度相互作用机制框架整合空间角度信息应用于光场超分辨,充分利用视差信息,提高了视图的一致性;
3)本发明方法的超分辨结果质量比传统的学习方法高。
附图说明
图1为本发明的方法流程图;
图2为本发明的光场图像超分辨率方法结构示意图;
图3为全对一光场图像超分辨率网络示意图;
图4为全对一特征提取模块结构图;
图5为注意力模块结构示意图;
图6为视图融合示意图;
图7为上采样模块示意图;
图8为空间角度正则化网络示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都应属于本发明保护的范围。
实施例
如图1和图2所示,本实施例采用的光场图像超分辨率重建方法包括以下步骤:
步骤S1、获取光场图像,预处理后得到子孔径视图Iu,具体过程为:
通过光场相机获取多视点图像,进行数据增强操作,并把多视点图像中的每张子孔径图像剪裁成空间大小为64×64,角度分辨率为7×7的光场图像;
4D光场表示为L(x,u),其中x=(x,y)是空间坐标,u=(u,v)是角度坐标。光场中的每个子孔径视图表示为Iu。
步骤S2、如图3和4所示,构建全对一光场图像超分辨率网络,引入注意力机制,根据视图之间的互补信息和相关性对每一个子孔径视图Iu进行超解析,包括全对一特征提取、视图融合和上采样,融合后得到中间高分辨率光场图像具体过程为:
步骤S21、提取所有光场子孔径视图中的深度特征Fu:
Fu=fe(Iu) (1)
其中,Iu为光场子孔径视图;fe为特征提取网络,包括64个具有3×3内核的卷积层、校正线性单元(Relu)和5个残差块;fe的参数在所有网络中共享。
步骤S22、利用包含CBAM注意力残差块的相关性学习网络fl获取参考视图与其他视图特征间的相关性,将其它视图的输出特征分别与参考视图的输出特征对应,利用相关性学习网络fl学习参考视图特征其他视图对应特征之间的相关性,并将从其他视图对应特征中提取的特征融合参考视图特征中,得到融合后的图像其表达式为:
其中,ur为任意参考视图的角度位置,ua为任意其它视图的角度位置;fl为相关性学习网络,包括卷积块和引入注意力机制的CBAM注意力残差块;
如图5所示,所述相关性学习网络fl中的CBAM注意力残差块包括依次连接的中间连接一个激活层的两个卷积层、用来聚合特征映射空间信息的通道注意力模块以及空间注意力模块;所述通道注意力模块、空间注意力模块均包括平均池化层和最大池化层两路通道。
步骤S25、基于损失函数lintermediate对全对一光场图像超分辨率网络进行训练,所述损失函数lintermediate的表达式为:
步骤S3、如图8所示,构建空间角度正则化网络,利用空间和角度之间的关系保留视差结构,解决光场超分辨率重建中的视差问题,重建中间高分辨率光场图像采用感知对抗损失函数lfinal对空间角度正则化网络进行训练,得到超分辨率光场图像Ihr。具体过程为:
所述空间角度正则化网络采用了9个二维的空间-角度卷积块,通过分别在二维空间卷积层和二维角度卷积层上对中间高分辨率光场图像输出的子孔径图像进行整形,采用感知对抗损失函数lfinal对空间角度正则化网络进行训练,得到最终的超分辨率光场图像Ihr。
感知对抗损失函数lfinal表达式为:
其中,Ihr为空间角度正则化网络得到的超分辨率图像结果,D为对抗损失的判别器,G为对抗损失函数的生成器;空间卷积层和角度卷积层的卷积核大小均为3×3,每层特征图数目为64,每个卷积层的输出都连接一个激活函数。
上述空间角度正则化网络还包含全局残差学习模块和局部残差学习模块;在每个空间角度卷积层的输出中增加了从输入到输出的局部残差学习,以便于更好的传播特征,快速训练;全局残差学习则是用来缓解同网络学习输入和输出之间的残留,更容易训练。
步骤S4、本实施例采用峰值信噪比PSNR和结构相似性SSIM两种评价指标,将所得光场超分辨率结果与标注数据Ground True或其它先进网络结果进行比较,具体过程为:
峰值信噪比PSNR是信号的最大功率和信号噪声功率之比,来测量已经被压缩的重构图像的质量,通常以分贝(dB)来表示;PSNR指标越高,说明图像质量越好。PSNR表达式为:
其中,MAX是图像中像素的最大值,MSE表示两个图像之间对应像素之间插值的平方的均值;
结构相似性SSIM是衡量两幅图像相似性的指标,取值范围为0到1。将GT与超分辨率图进行比较,可以反映光场超分辨率图像的的质量;SSIM的值越大,说明图像质量越好;SSIM表达式为:
峰值信噪比PSNR的值越大,代表图像失真越小,说明重建的光场超分辨率图像质量越好。结构相似性SSIM的值越接近1表示重建的光场超分辨率图像的结构一致性越好。
综上所述,本发明基于注意力机制和正则化模块,构建基于注意力机制的全对一光场图像超分辨率网络和空间角度正则化网络来超分辨光场视图;结合了传统的基于学习的超分辨率方法和非传统的基于学习的方法,建立一种光场图像超分辨率重建方法。针对以往方法对光场图像中的信息利用不足和视差结构不能很好的保存的问题,充分学习利用视图之间的相关性;该模型利用组合几何嵌入将所有视图的信息结合起来,对每个视图进行超级分解;融合得到中间分辨率结果,后续使用正则化模块探索高分辨率空间中的空间-角度几何相干性,来解决光场LF视差结构保存的问题;并结合注意力机制和对抗损失函数,最终获得超分辨率的光场图像,对计算机视觉领域有重要意义。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (10)
2.根据权利要求1所述的一种面向视图一致性的光场图像超分辨率重建方法,其特征在于,所述步骤S1具体为:
通过光场相机获取多视点图像,进行数据增强操作,并把多视点图像中的每张子孔径图像剪裁成空间大小为m×m,角度分辨率为n×n的光场图像。
3.根据权利要求1所述的一种面向视图一致性的光场图像超分辨率重建方法,其特征在于,所述步骤S2中包括以下子步骤:
步骤S21、提取所有光场子孔径视图中的深度特征Fu:
Fu=fe(Iu)
其中,Iu为光场子孔径视图;fe为特征提取网络;
其中,ur为任意参考视图的角度位置,ua为任意其它视图的角度位置;fl为相关性学习网络,包括卷积块和引入注意力机制的CBAM注意力残差块;
步骤S25、采用损失函数lintermediate对全对一光场图像超分辨率网络进行训练。
5.根据权利要求4所述的一种面向视图一致性的光场图像超分辨率重建方法,其特征在于,所述相关性学习网络fl中的CBAM注意力残差块包括依次连接的中间连接一个激活层的两个卷积层、用来聚合特征映射空间信息的通道注意力模块以及空间注意力模块;所述通道注意力模块、空间注意力模块均包括平均池化层和最大池化层两路通道。
8.根据权利要求7所述的一种面向视图一致性的光场图像超分辨率重建方法,其特征在于,所述空间角度正则化网络还包含全局残差学习模块和局部残差学习模块。
10.根据权利要求1所述的一种面向视图一致性的光场图像超分辨率重建方法,其特征在于,所述重建方法还包括步骤S4:使用峰值信噪比PSNR和结构相似性SSIM对光场超分辨率重建图像进行评估。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210004978.XA CN114463172A (zh) | 2022-01-05 | 2022-01-05 | 一种面向视图一致性的光场图像超分辨率重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210004978.XA CN114463172A (zh) | 2022-01-05 | 2022-01-05 | 一种面向视图一致性的光场图像超分辨率重建方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114463172A true CN114463172A (zh) | 2022-05-10 |
Family
ID=81407658
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210004978.XA Pending CN114463172A (zh) | 2022-01-05 | 2022-01-05 | 一种面向视图一致性的光场图像超分辨率重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114463172A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116071484A (zh) * | 2023-03-07 | 2023-05-05 | 清华大学 | 一种大场景稀疏光场十亿像素级智能重建方法及装置 |
CN116823602A (zh) * | 2023-05-26 | 2023-09-29 | 天津大学 | 一种视差引导的光场图像的空间超分辨率重建方法 |
CN117475088A (zh) * | 2023-12-25 | 2024-01-30 | 浙江优众新材料科技有限公司 | 基于极平面注意力的光场重建模型训练方法及相关设备 |
CN117788302A (zh) * | 2024-02-26 | 2024-03-29 | 山东全维地信科技有限公司 | 一种测绘图形处理系统 |
-
2022
- 2022-01-05 CN CN202210004978.XA patent/CN114463172A/zh active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116071484A (zh) * | 2023-03-07 | 2023-05-05 | 清华大学 | 一种大场景稀疏光场十亿像素级智能重建方法及装置 |
US11908067B1 (en) | 2023-03-07 | 2024-02-20 | Tsinghua University | Method and device for gigapixel-level light field intelligent reconstruction of large-scale scene |
CN116823602A (zh) * | 2023-05-26 | 2023-09-29 | 天津大学 | 一种视差引导的光场图像的空间超分辨率重建方法 |
CN116823602B (zh) * | 2023-05-26 | 2023-12-15 | 天津大学 | 一种视差引导的光场图像的空间超分辨率重建方法 |
CN117475088A (zh) * | 2023-12-25 | 2024-01-30 | 浙江优众新材料科技有限公司 | 基于极平面注意力的光场重建模型训练方法及相关设备 |
CN117475088B (zh) * | 2023-12-25 | 2024-03-19 | 浙江优众新材料科技有限公司 | 基于极平面注意力的光场重建模型训练方法及相关设备 |
CN117788302A (zh) * | 2024-02-26 | 2024-03-29 | 山东全维地信科技有限公司 | 一种测绘图形处理系统 |
CN117788302B (zh) * | 2024-02-26 | 2024-05-14 | 山东全维地信科技有限公司 | 一种测绘图形处理系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113362223B (zh) | 基于注意力机制和双通道网络的图像超分辨率重建方法 | |
CN114463172A (zh) | 一种面向视图一致性的光场图像超分辨率重建方法 | |
Wang et al. | Ultra-dense GAN for satellite imagery super-resolution | |
CN111192200A (zh) | 基于融合注意力机制残差网络的图像超分辨率重建方法 | |
CN110599401A (zh) | 遥感图像超分辨率重建方法、处理装置及可读存储介质 | |
CN111709895A (zh) | 基于注意力机制的图像盲去模糊方法及系统 | |
CN110232653A (zh) | 快速轻型超分辨率重建密集残差网络 | |
CN110880162B (zh) | 基于深度学习的快照光谱深度联合成像方法及系统 | |
CN114119444B (zh) | 一种基于深度神经网络的多源遥感图像融合方法 | |
CN108921783B (zh) | 一种基于混合损失函数约束的卫星影像超分辨率重建方法 | |
CN112699844B (zh) | 一种基于多尺度残差层级密连接网络的图像超分辨率方法 | |
CN116152120B (zh) | 一种融合高低频特征信息的低光图像增强方法及装置 | |
CN115170915A (zh) | 一种基于端到端注意力网络的红外与可见光图像融合方法 | |
CN113139585B (zh) | 一种基于统一多尺度密集连接网络的红外与可见光图像融合方法 | |
CN117252761A (zh) | 一种跨传感器遥感图像超分辨率增强方法 | |
CN114841856A (zh) | 基于深度残差通道空间注意力的密集连接网络的图像超像素重建方法 | |
CN112785502A (zh) | 一种基于纹理迁移的混合相机的光场图像超分辨率方法 | |
CN115546442A (zh) | 基于感知一致损失的多视图立体匹配重建方法及系统 | |
CN117115359B (zh) | 一种基于深度图融合的多视图电网三维空间数据重建方法 | |
CN114359041A (zh) | 一种光场图像空间超分辨率重建方法 | |
CN117593199A (zh) | 一种基于高斯先验分布自注意力的双流遥感图像融合方法 | |
CN116823602B (zh) | 一种视差引导的光场图像的空间超分辨率重建方法 | |
CN115170985B (zh) | 一种基于阈值注意力的遥感图像语义分割网络及分割方法 | |
CN112989593B (zh) | 基于双相机的高光谱低秩张量融合计算成像方法 | |
CN115330631A (zh) | 一种基于堆叠沙漏网络的多尺度融合去雾方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |