CN110070489A - 一种基于视差注意力机制的双目图像超分辨方法 - Google Patents
一种基于视差注意力机制的双目图像超分辨方法 Download PDFInfo
- Publication number
- CN110070489A CN110070489A CN201910358741.XA CN201910358741A CN110070489A CN 110070489 A CN110070489 A CN 110070489A CN 201910358741 A CN201910358741 A CN 201910358741A CN 110070489 A CN110070489 A CN 110070489A
- Authority
- CN
- China
- Prior art keywords
- resolution
- image
- network
- binocular
- parallax
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 22
- 230000007246 mechanism Effects 0.000 title claims abstract description 10
- 238000012549 training Methods 0.000 claims abstract description 21
- 238000012360 testing method Methods 0.000 claims abstract description 5
- 238000000605 extraction Methods 0.000 claims description 10
- 239000011159 matrix material Substances 0.000 claims description 9
- 230000004927 fusion Effects 0.000 claims description 8
- 238000013461 design Methods 0.000 claims description 2
- 235000013399 edible fruits Nutrition 0.000 claims 1
- 230000008901 benefit Effects 0.000 abstract description 4
- 230000000694 effects Effects 0.000 abstract description 4
- 238000013528 artificial neural network Methods 0.000 abstract description 2
- 230000008859 change Effects 0.000 abstract description 2
- 238000013507 mapping Methods 0.000 abstract description 2
- 238000012545 processing Methods 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000005520 cutting process Methods 0.000 description 2
- 238000003475 lamination Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4023—Scaling of whole images or parts thereof, e.g. expanding or contracting based on decimating pixels or lines of pixels; based on inserting pixels or lines of pixels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4046—Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
- G06T3/4076—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution using the original low-resolution images to iteratively correct the high-resolution images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Image Analysis (AREA)
Abstract
本发明属于图像处理技术领域,具体涉及一种基于视差注意力机制的双目图像超分辨方法。包含以下步骤:S1,建立训练数据集;S2,设计网络结构;S3,对网络进行训练;S4,对网络进行测试。本发明具有以下优点:(1)与基于物理模型的双目图像超分辨方法相比,本发明不需要进行双目图像左右视图间的图像块匹配,利用深度卷积网络直接对低分辨率图像到高分辨率图像间的映射关系进行学习,大大提高了方法的速度和效率;(2)与基于神经网络的双目图像超分辨方法相比,本发明利用视差注意力机制,对双目图像中的视差变化具有更好的鲁棒性,能够对左右视图全局范围内的对应关系进行学习,实现了更好的超分辨效果。
Description
技术领域
本发明属于图像处理技术领域,具体涉及一种基于视差注意力机制的双目图像超分辨方法。
背景技术
视觉作为人类获取信息的最主要途径,对人们认知感受外在世界有着重要的意义。图像作为外在客观世界的真实写照,是视觉信息的重要载体,其清晰度对人们的视觉信息获取有着重要的影响,较低的分辨率会损失大量的图像细节,影响人们对图像信息的获取。
随着相机制造工艺水平的不断提升,图像分辨率大大提高,但在部分应用场景下,当前分辨率水平仍不足以满足应用需求,另外在部分应用场景下,由于受到传输条件、成像环境等的限制,图像的质量仍相对较差。当前来看,在硬件成本、工艺水平等问题的限制下,相机分辨率难以在短期得到大幅提升,同时受分辨率与视场范围的矛盾制约,相机分辨率不可能无限制提升。
近年来随着双摄在手机、自动驾驶等平台的广泛应用,人们可以十分方便地获取同一场景的双目图像。经过图像校正后,双目图像间存在严格的几何位置对应关系,即左视图中任意一个点在右视图中的对应点都在水平极线上,且左视图中点与右视图中对应点间的距离成为视差。视差的大小直接受场景深度影响,景深越浅,视差越大。在实际中,由于场景景深变化较大,双目图像中不同像元的视差变化通常也较大,合理利用双目左右图像间的对应关系能够有效提高超分辨性能。
发明内容
本发明所要解决的技术问题是,针对现有技术不足,提供一种基于视差注意力机制的双目图像超分辨方法,根据输入的低分辨率双目图像(包括一张左视图与一张右视图),超分辨恢复高分辨率的左视图图像。
为解决上述技术问题,本发明所采用的技术方案是:
一种基于视差注意力机制的双目图像超分辨方法,包括以下步骤:
(S1)建立训练数据集:从网上下载双目彩色图像(包括一张左视图与一张右视图)作为训练样本中的高分辨率图像集;利用双三次插值对高分辨率双目彩色图像进行降采样,得到降采样后的低分辨率双目图像;在得到的高分辨率与低分辨率双目图像中裁剪图像块,得到训练样本。
(S2)设计网络结构:所述网络结构的设计包括以下四个步骤:
(S2.1)进行特征提取。利用共享权值的多层卷积网络分别对输入网络的低分辨率双目图像中的左视图与右视图进行特征提取,得到左视图与右视图特征张量;
(S2.2)计算视差注意图。分别对(S2.1)提取的左视图、右视图特征张量进行卷积操作,得到调和后的左视图、右视图特征张量;对调和后的左视图、右视图特征张量进行批次化矩阵乘,并利用softmax层对批次化矩阵乘的结果进行处理,得到视差注意力图;
(S2.3)进行特征融合。对(S2.1)提取的右视图特征张量进行卷积操作,将卷积得到的特征张量与(S2.2)计算得到的视差注意力图进行批次化矩阵乘;将批次化矩阵乘得到的结果与(S2.1)得到的左视图特征张量进行连接,对连接得到的特征张量进行卷积操作,得到融合后的特征张量;
(S2.4)进行超分辨重建。利用多层卷积网络对(S2.3)融合得到的特征张量进行卷积操作,得到高维特征张量,利用反卷积网层对高维特征张量进行操作,恢复出高分辨率左视图图像;(S2.1)到(S2.4)的全部结构即为本发明所设计的网络结构。
(S3)对网络进行训练:将S1得到的训练样本送入S2设计好的网络中,选择优化器,设置代价函数、网络的学习率等参数,设置最大迭代次数N(例如N=100),对网络进行训练,当迭代次数达到最大迭代次数N时,结束训练,得到最终网络模型;
(S4)对网络进行测试:将低分辨率双目测试图像输入(S3)训练好的网络,输出高分辨率左视图图像。
进一步地,本发明在建立数据集后还可以对得到的训练样本进行上下翻转、左右翻转操作,实现对训练样本的数据增强。数据增强可以对训练样本进行扩充,增强网络的泛化能力。
本发明由于采取以上技术方案,与现有技术相比,具有以下优点:
(1)与基于物理模型的双目图像超分辨方法相比,本发明不需要进行双目图像左右视图间的图像块匹配,利用深度卷积网络直接对低分辨率图像到高分辨率图像间的映射关系进行学习,大大提高了方法的速度和效率;
(2)与基于神经网络的双目图像超分辨方法相比,本发明利用视差注意力机制,对双目图像中的视差变化具有更好的鲁棒性,能够对左右视图全局范围内的对应关系进行学习,实现了更好的超分辨效果。
附图说明
图1为本发明中卷积神经网络的结构示意图;
图2为本发明实施例的整体流程图;
图3(a)为本发明实施例中的低分辨率左视图图像;
图3(b)为将图3(a)利用双三次插值超分辨后的效果图;
图3(c)为将图3(a)利用本发明双目图像超分辨方法进行超分辨后的效果图。
具体实施方式
下面结合附图和实施例对本发明进行详细的描述,但本发明要求保护的范围并不局限于实施方式表述的范围。
图1为本发明中卷积神经网络的结构示意图,如图所示,本发明的卷积神经网络可以分为特征提取、视差注意力图计算、特征融合以及超分辨重建4个部分;
本发明的算法流程示意图如图2所示,具体包含以下步骤:
(S1),建立训练数据集:在网上下载高分辨率双目彩色图像(包括一张左视图与一张右视图)作为训练样本中的高分辨率图像集;利用双三次插值对高分辨率双目彩色图像进行降采样,得到降采样后的低分辨率双目图像;在得到的高分辨率与低分辨率双目图像中裁剪图像块,得到训练样本。
(S2),设计网络结构:本发明提出的网络模型主要包括4个部分:一是利用共享权值的多层卷积网络分别对输入网络的低分辨率双目图像中的左视图与右视图进行特征提取;二是根据提取的左视图、右视图特征张量计算视差注意力图;三是根据视差注意力图对左视图、右视图特征张量进行融合;四是对融合得到的特征张量进行超分辨重建,恢复出高分辨率左视图图像。具体做法如下:
(S2.1)进行特征提取。利用共享权值的多层卷及网络对输入网络的双目低分辨率图像中的左视图与右视图分别进行特征提取,得到特征张量A、B(尺寸为H*W*64),具体地:
(S2.1.1)利用一层卷积网络提取输入图像的浅层特征,该卷积层包含64个3*3的滤波器,使用带泄露修正线性单元Leaky ReLu(Leaky Rectified Linear Unit)作为激活函数;
(S2.1.2)利用4个残差模块在提取的浅层特征基础上进一步提取深层特征,每个残差模块包含两个卷积层,每个卷积层包含64个3*3的滤波器,且第一层卷积层后使用了Leaky ReLu作为激活层函数;
(S2.2)计算视差注意力图。具体包括:
(S2.2.1)利用一个共享权值的残差模块分别对(S2.1)得到的特征张量A、B进行卷积操作,得到特征张量A’、B’,其中残差模块包括2个卷积层,每个卷积层包含64个3*3的滤波器;
(S2.2.2)利用2个卷积层分别对特征张量A’与B’进行卷积操作得到调和后的特征张量Q、S,2个卷积层分别包含64个1*1滤波器;
(S2.2.3)对特征张量S进行转置,得到特征张量S’(尺寸为H*64*W),对特征张量Q与S’进行批次化矩阵乘,利用softmax函数层对结果进行处理,得到视差注意力图MB→A(尺寸为H*W*W);
(S2.3)进行特征融合。利用1个卷积层对(S2.2)中的特征张量B进行卷积操作,得到特征张量R,卷积层包含64个1*1卷积;对(S2.2)计算得到的视差注意力图MB→A与特征张量R进行批次化矩阵乘,得到特征张量O(尺寸为H*W*64);将特征张量A、特征张量O连接,利用1个卷积层对级联后的特征张量进行特征融合,卷积层包含64个1*1卷积;
(S2.4)进行超分辨重建。利用4个残差模块对(S2.3)融合后的特征张量进行卷积操作,每个残差模块包含两个卷积层,每个卷积层包含64个3*3的滤波器,且第一层卷积层后使用了Leaky ReLu激活层函数;利用反卷积层对特征张量进行反卷积操作,反卷积层包含64个3*3的滤波器;利用卷积层将特征张量映射到RGB空间,得到最终的输出图像,卷积层包含3个3*3的滤波器。
(S3),对网络进行训练:将训练样本送入设计好的网络中进行训练,选用Adam优化器,设置代价函数为左视图超分辨结果与左视图真实高分辨率图像间的均方误差,设置初始学习率为2*10-4,最大迭代次数为90epochs,且学习率每隔30epochs下降为之前的一半;
(S4),对网络进行测试:将低分辨率双目测试图像输入训练好的网络,输出高分辨率左视图图像。
具体地,(S2.2.1)到(S2.2.2)中的每一个卷积层以及残差模块第一个卷积层后都使用了Leaky ReLu激活层函数。
图3(a)为低分辨率左视图图像,(b)为双三次插值后得到的左视图图像,(c)为利用本方法超分辨后的左视图图像。通过该图中的细节放大部分可以看出,本方法能将分辨率测试纸上三条临近竖线区分开来,更好地恢复了图像中的细节部分。
Claims (3)
1.一种基于视差注意力机制的双目图像超分辨方法,其特征在于,该方法包括以下步骤:
(S1)建立训练数据集:从网上下载双目彩色图像作为训练样本中的高分辨率图像集,所述双目彩色图像包括一张左视图与一张右视图;利用双三次插值对高分辨率双目彩色图像进行降采样,得到降采样后的低分辨率双目图像;在得到的高分辨率与低分辨率双目图像中裁剪图像块,得到训练样本;
(S2)设计网络结构:所述网络结构的设计包括以下四个步骤:
(S2.1)进行特征提取,利用共享权值的多层卷积网络分别对输入网络的低分辨率双目图像中的左视图与右视图进行特征提取,得到左视图与右视图特征张量;
(S2.2)计算视差注意图,分别对(S2.1)提取的左视图、右视图特征张量进行卷积操作,得到调和后的左视图、右视图特征张量;对调和后的左视图、右视图特征张量进行批次化矩阵乘,并利用softmax层对批次化矩阵乘的结果进行处理,得到视差注意力图;
(S2.3)进行特征融合,对(S2.1)提取的右视图特征张量进行卷积操作,将卷积得到的特征张量与(S2.2)计算得到的视差注意力图进行批次化矩阵乘;将批次化矩阵乘得到的结果与(S2.1)得到的左视图特征张量进行连接,对连接得到的特征张量进行卷积操作,得到融合后的特征张量;
(S2.4)进行超分辨重建,利用多层卷积网络对(S2.3)融合得到的特征张量进行卷积操作,得到高维特征张量,利用反卷积网层对高维特征张量进行操作,恢复出高分辨率左视图图像;
(S3)对网络进行训练:将S1得到的训练样本送入S2设计好的网络中,选择优化器,设置代价函数、网络的学习率参数,设置最大迭代次数N,对网络进行训练,当迭代次数达到最大迭代次数N时,结束训练,得到最终网络模型;
(S4)对网络进行测试:将低分辨率双目测试图像输入(S3)训练好的网络,输出高分辨率左视图图像。
2.一种根据权利要求1所述基于视差注意力机制的双目图像超分辨方法,其特征在于:在(S1)建立数据集后还可以对得到的训练样本进行上下翻转、左右翻转操作,实现对训练样本的数据增强。
3.一种根据权利要求1所述基于视差注意力机制的双目图像超分辨方法,其特征在于:S3中,N=100。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910358741.XA CN110070489A (zh) | 2019-04-30 | 2019-04-30 | 一种基于视差注意力机制的双目图像超分辨方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910358741.XA CN110070489A (zh) | 2019-04-30 | 2019-04-30 | 一种基于视差注意力机制的双目图像超分辨方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110070489A true CN110070489A (zh) | 2019-07-30 |
Family
ID=67369733
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910358741.XA Pending CN110070489A (zh) | 2019-04-30 | 2019-04-30 | 一种基于视差注意力机制的双目图像超分辨方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110070489A (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110782412A (zh) * | 2019-10-28 | 2020-02-11 | 深圳市商汤科技有限公司 | 图像处理方法及装置、处理器、电子设备及存储介质 |
CN111325771A (zh) * | 2020-02-17 | 2020-06-23 | 武汉大学 | 基于影像融合框架的高分辨率遥感影像变化检测方法 |
CN111340077A (zh) * | 2020-02-18 | 2020-06-26 | 平安科技(深圳)有限公司 | 基于注意力机制的视差图获取方法和装置 |
CN111464814A (zh) * | 2020-03-12 | 2020-07-28 | 天津大学 | 一种基于视差引导融合的虚拟参考帧生成方法 |
CN111626927A (zh) * | 2020-04-09 | 2020-09-04 | 上海交通大学 | 采用视差约束的双目图像超分辨率方法、系统及装置 |
CN111915660A (zh) * | 2020-06-28 | 2020-11-10 | 华南理工大学 | 基于共享特征和注意力上采样的双目视差匹配方法及系统 |
CN112767253A (zh) * | 2021-02-05 | 2021-05-07 | 西南科技大学 | 一种多尺度特征融合的双目图像超分辨率重建方法 |
WO2021114904A1 (zh) * | 2019-12-09 | 2021-06-17 | 中科寒武纪科技股份有限公司 | 数据处理方法、装置、计算机设备和存储介质 |
CN113283848A (zh) * | 2021-07-21 | 2021-08-20 | 湖北浩蓝智造科技有限公司 | 一种货物入库检测方法、仓储入库系统及存储介质 |
CN113393382A (zh) * | 2021-08-16 | 2021-09-14 | 四川省人工智能研究院(宜宾) | 一种基于多维度视差先验的双目图片超分辨率重建方法 |
CN113538243A (zh) * | 2021-07-22 | 2021-10-22 | 西安电子科技大学 | 基于多视差注意力模块组合的超分辨图像重建方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130308877A1 (en) * | 2011-03-28 | 2013-11-21 | Tadanori Tezuka | Image processing apparatus, image processing method, computer program for processing images, and recording medium |
CN104935909A (zh) * | 2015-05-14 | 2015-09-23 | 清华大学深圳研究生院 | 一种基于深度信息的多幅图超分辨方法 |
CN106780330A (zh) * | 2016-12-08 | 2017-05-31 | 中国人民解放军国防科学技术大学 | 一种基于彩色与黑白双摄像头的超分辨率重建方法 |
CN108734290A (zh) * | 2018-05-16 | 2018-11-02 | 湖北工业大学 | 一种基于注意力机制的卷积神经网络构建方法及应用 |
CN109584161A (zh) * | 2018-11-29 | 2019-04-05 | 四川大学 | 基于通道注意力的卷积神经网络的遥感图像超分辨率重建方法 |
-
2019
- 2019-04-30 CN CN201910358741.XA patent/CN110070489A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130308877A1 (en) * | 2011-03-28 | 2013-11-21 | Tadanori Tezuka | Image processing apparatus, image processing method, computer program for processing images, and recording medium |
CN104935909A (zh) * | 2015-05-14 | 2015-09-23 | 清华大学深圳研究生院 | 一种基于深度信息的多幅图超分辨方法 |
CN106780330A (zh) * | 2016-12-08 | 2017-05-31 | 中国人民解放军国防科学技术大学 | 一种基于彩色与黑白双摄像头的超分辨率重建方法 |
CN108734290A (zh) * | 2018-05-16 | 2018-11-02 | 湖北工业大学 | 一种基于注意力机制的卷积神经网络构建方法及应用 |
CN109584161A (zh) * | 2018-11-29 | 2019-04-05 | 四川大学 | 基于通道注意力的卷积神经网络的遥感图像超分辨率重建方法 |
Non-Patent Citations (4)
Title |
---|
WANG L, WANG Y, LIANG Z, ET AL.: "Learning Parallax Attention for Stereo Image Super-Resolution", 《HTTPS://ARXIV.53YU.COM/ABS/1903.05784》 * |
李素梅; 雷国庆; 范如: "基于双通道卷积神经网络的深度图超分辨研究", 《光学学报》 * |
郭裕兰; 鲁敏; 谭志国; 万建伟: "距离图像局部特征提取方法综述", 《模式识别与人工智能》 * |
黄东军; 侯松林: "一种基于学习的非线性人脸图像超分辨率算法", 《计算机应用》 * |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110782412A (zh) * | 2019-10-28 | 2020-02-11 | 深圳市商汤科技有限公司 | 图像处理方法及装置、处理器、电子设备及存储介质 |
CN110782412B (zh) * | 2019-10-28 | 2022-01-28 | 深圳市商汤科技有限公司 | 图像处理方法及装置、处理器、电子设备及存储介质 |
WO2021114904A1 (zh) * | 2019-12-09 | 2021-06-17 | 中科寒武纪科技股份有限公司 | 数据处理方法、装置、计算机设备和存储介质 |
CN111325771A (zh) * | 2020-02-17 | 2020-06-23 | 武汉大学 | 基于影像融合框架的高分辨率遥感影像变化检测方法 |
CN111325771B (zh) * | 2020-02-17 | 2022-02-01 | 武汉大学 | 基于影像融合框架的高分辨率遥感影像变化检测方法 |
CN111340077A (zh) * | 2020-02-18 | 2020-06-26 | 平安科技(深圳)有限公司 | 基于注意力机制的视差图获取方法和装置 |
CN111340077B (zh) * | 2020-02-18 | 2024-04-12 | 平安科技(深圳)有限公司 | 基于注意力机制的视差图获取方法和装置 |
WO2021164269A1 (zh) * | 2020-02-18 | 2021-08-26 | 平安科技(深圳)有限公司 | 基于注意力机制的视差图获取方法和装置 |
CN111464814B (zh) * | 2020-03-12 | 2022-01-04 | 天津大学 | 一种基于视差引导融合的虚拟参考帧生成方法 |
CN111464814A (zh) * | 2020-03-12 | 2020-07-28 | 天津大学 | 一种基于视差引导融合的虚拟参考帧生成方法 |
CN111626927A (zh) * | 2020-04-09 | 2020-09-04 | 上海交通大学 | 采用视差约束的双目图像超分辨率方法、系统及装置 |
CN111626927B (zh) * | 2020-04-09 | 2023-05-30 | 上海交通大学 | 采用视差约束的双目图像超分辨率方法、系统及装置 |
CN111915660A (zh) * | 2020-06-28 | 2020-11-10 | 华南理工大学 | 基于共享特征和注意力上采样的双目视差匹配方法及系统 |
CN112767253B (zh) * | 2021-02-05 | 2022-05-24 | 西南科技大学 | 一种多尺度特征融合的双目图像超分辨率重建方法 |
CN112767253A (zh) * | 2021-02-05 | 2021-05-07 | 西南科技大学 | 一种多尺度特征融合的双目图像超分辨率重建方法 |
CN113283848B (zh) * | 2021-07-21 | 2021-09-28 | 湖北浩蓝智造科技有限公司 | 一种货物入库检测方法、仓储入库系统及存储介质 |
CN113283848A (zh) * | 2021-07-21 | 2021-08-20 | 湖北浩蓝智造科技有限公司 | 一种货物入库检测方法、仓储入库系统及存储介质 |
CN113538243A (zh) * | 2021-07-22 | 2021-10-22 | 西安电子科技大学 | 基于多视差注意力模块组合的超分辨图像重建方法 |
CN113393382B (zh) * | 2021-08-16 | 2021-11-09 | 四川省人工智能研究院(宜宾) | 一种基于多维度视差先验的双目图片超分辨率重建方法 |
CN113393382A (zh) * | 2021-08-16 | 2021-09-14 | 四川省人工智能研究院(宜宾) | 一种基于多维度视差先验的双目图片超分辨率重建方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110070489A (zh) | 一种基于视差注意力机制的双目图像超分辨方法 | |
AU2020103715A4 (en) | Method of monocular depth estimation based on joint self-attention mechanism | |
CN111311490B (zh) | 基于多帧融合光流的视频超分辨率重建方法 | |
Dong et al. | RRSGAN: Reference-based super-resolution for remote sensing image | |
CN111861961B (zh) | 单幅图像超分辨率的多尺度残差融合模型及其复原方法 | |
CN107123089B (zh) | 基于深度卷积网络的遥感图像超分辨重建方法及系统 | |
CN111062872A (zh) | 一种基于边缘检测的图像超分辨率重建方法及系统 | |
CN116071243B (zh) | 一种基于边缘增强的红外图像超分辨率重建方法 | |
CN109447919B (zh) | 结合多视角与语义纹理特征的光场超分辨率重建方法 | |
Cheng et al. | Zero-shot image super-resolution with depth guided internal degradation learning | |
CN110610526B (zh) | 一种基于wnet对单目人像进行分割和景深渲染的方法 | |
WO2024040973A1 (zh) | 一种基于堆叠沙漏网络的多尺度融合去雾方法 | |
CN113077505B (zh) | 一种基于对比学习的单目深度估计网络的优化方法 | |
CN103413286A (zh) | 一种基于学习的高动态范围与高分辨率图像联合重建方法 | |
CN106530256A (zh) | 一种基于改进深度学习的智能相机图像盲超分辨率系统 | |
Liu et al. | A single frame and multi-frame joint network for 360-degree panorama video super-resolution | |
CN112419150A (zh) | 一种基于双边上采样网络的任意倍数图像超分辨率重建方法 | |
CN111696033A (zh) | 基于角点引导级联沙漏网络结构学习的真实图像超分辨率模型及方法 | |
CN112017116A (zh) | 基于非对称卷积的图像超分辨率重建网络及其构建方法 | |
CN111654621B (zh) | 一种基于卷积神经网络模型的双焦相机连续数字变焦方法 | |
CN113902620A (zh) | 一种基于可变形卷积网络的视频超分辨率系统及方法 | |
CN115115516A (zh) | 基于Raw域的真实世界视频超分辨率算法 | |
CN114049251A (zh) | 一种用于ai视频分析的模糊图像超分辨率重建方法及装置 | |
Gong et al. | Learning deep resonant prior for hyperspectral image super-resolution | |
CN117437120A (zh) | 一种端到端的基于深度学习的图像拼接方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190730 |
|
RJ01 | Rejection of invention patent application after publication |