CN112767253B - 一种多尺度特征融合的双目图像超分辨率重建方法 - Google Patents

一种多尺度特征融合的双目图像超分辨率重建方法 Download PDF

Info

Publication number
CN112767253B
CN112767253B CN202110158551.0A CN202110158551A CN112767253B CN 112767253 B CN112767253 B CN 112767253B CN 202110158551 A CN202110158551 A CN 202110158551A CN 112767253 B CN112767253 B CN 112767253B
Authority
CN
China
Prior art keywords
image
resolution
tensor
feature
super
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110158551.0A
Other languages
English (en)
Other versions
CN112767253A (zh
Inventor
张红英
李雪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Horsent Wiselink Technology Co ltd
Original Assignee
Southwest University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southwest University of Science and Technology filed Critical Southwest University of Science and Technology
Priority to CN202110158551.0A priority Critical patent/CN112767253B/zh
Publication of CN112767253A publication Critical patent/CN112767253A/zh
Application granted granted Critical
Publication of CN112767253B publication Critical patent/CN112767253B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • G06T3/4076Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution using the original low-resolution images to iteratively correct the high-resolution images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明给出一种多尺度特征融合的双目图像超分辨率方法。首先,在特征提取模块采用混合跳跃式残差连接,将改进的空洞空间金字塔池化块形成回环结构,用于提取图像多尺度特征,再用扩张残差与回环结构交替级联,对提取的特征进行融合;然后,引入视差注意力模块获取双目图像中的对应关系,集成图像对的有用信息,其中,使用过渡扩张残差块学习立体匹配特征的网络能力,得到双目图像的视差图;最后,利用四个扩张残差块将低维空间映射到高维空间,通过亚像素卷积重建出超分辨率左(右)图,并将FReLU用于整个网络中提高捕获空间相关性效率。本发明利用扩张残差回环结构提取图像多尺度特征,实现了优异的超分辨率性能,具有广泛的适用性。

Description

一种多尺度特征融合的双目图像超分辨率重建方法
技术领域
本发明涉及图像处理技术,具体来讲,涉及一种采用扩张残差回环结构提取与融合多尺度特征的双目图像超分辨率重建方法。
背景技术
视觉信息是人类获取万物信息的主要来源,通过软件的方法提高原始图像分辨率的过程称为图像超分辨率(Super Resolution, SR)重建,图像超分辨率技术满足了人们观感所需,在计算机视觉领域蓬勃发展。图像超分辨率的研究从最开始基于插值的方法到现在基于学习的方法经历了飞跃性成就,从人工处理到人工智能、从浅层网络到深层网络、再从深层网络到轻量级网络,图像超分辨率技术为人类科技发展做出了卓越贡献。单幅图像超分辨率在图像超分辨率领域取得了重要成果,但输入为单帧图像也导致重建过程中特征张量缺乏更多的细节信息。为解决单幅图像超分辨率输入图像细节缺乏的问题,双目图像超分辨率应运而生,双目图像超分辨率在网络输入上比单幅图像超分辨率拥有更多的细节,由于输入是同一场景左右目的图像信息,所以相比视频超分辨率的多输入也能够避免运动模糊和压缩影响等问题。
双目图像超分辨率旨在由同一场景下不同视角的两张低分辨率(LowResolution, LR)图像重建出高分辨率(High Resolution, LR)图像,高分辨率意味着图像中的像素密度高,能够提供更多的细节,而这些细节在许多实际应用中不可或缺。随着双摄系统在大众生活中的出现,双目图像超分辨率在计算机视觉领域日益广泛应用。双目图像可以提供同一场景左右两个视角的信息,合理利用双目图像所包含的互补信息可以进一步提升图像超分辨的性能,由于输入为左右视角的两张LR图像,使得输入图像之间存在视觉、特征、景深和分辨率等差异,解决这些差异性问题,并充分利用双目图像间有效细节信息优势可以提高超分辨率性能,所以丰富的上下文特征提取与表示研究成为了双目图像超分辨率重建的研究重点。
发明内容
本发明的目的在于解决图像超分辨率重建问题,提供同一场景下左右视点的两幅低分辨率图像,通过深度学习网络直接恢复出一幅高分辨率图像的方法,经所述方法可重建出超分辨率左(右)图像。
为了实现上述目的,本发明提供一种采用扩张残差回环结构提取与融合多尺度特征的双目图像超分辨率方法,其中主要包括五个部分:第一部分是对数据集进行预处理;第二部分是对左(右)目低分辨率图像进行特征提取与融合;第三部分是对融合后的特征张量计算视差图;第四部分是超分辨率重建;第五部分是网络训练与测试,重建出最终的超分辨率左(右)图。
第一部分包括两个步骤:
步骤1,下载双目立体公开数据集,选取场景丰富、细节多样和视差波动范围合适的双目图像对作为训练集中的高分辨率图像对,然后对高分辨率图像经双三次插值降采样得到低分辨率图像作为测试集样本;
步骤2,将高分辨率与低分辨率图像裁剪成一一对应大小的图像块,对裁剪得到的高低分辨率图像对经旋转,平移等基础操作,增强训练样本集,形成最终的训练集样本;
第二部分包括两个步骤:
步骤3,将步骤2中的训练样本输入权值共享的卷积网络,通过通道数变换从RGB空间初步得到左右图的特征张量;
步骤4,对步骤3得到的特征张量采用扩张残差回环结构进行多尺度特征提取与融合,得到融合后的左右特征张量图;
第三部分包括四个步骤:
步骤5,将步骤4中得到的特征张量图经扩张残差过渡块处理,利用共享权值卷积网络得到代价聚合后的左(右)特征张量图1,并经批次化矩阵乘和softmax层得到视差图;
步骤6,将步骤5中代价聚合后的左(右)特征张量图1与右(左)到左(右)视差图批次化矩阵乘得到左(右)特征张量图2;
步骤7,对步骤5中得到的视差图经形态学操作得到有效掩码左(右)图;
步骤8,将步骤5的左(右)特征张量图1、步骤6的左(右)特征张量图2和步骤7的有效掩码左(右)图经Concatenate操作融合;
第四部分包括两个步骤:
步骤9,将四个扩张残差块级联成通道变换的扩张残差组,对步骤8中融合后的左(右)特征张量进行卷积操作;
步骤10,利用亚像素卷积层将步骤9处理后的特征张量映射到高维空间,再经卷积操作将特征张量映射到RGB空间;
第五部分包括两个步骤:
步骤11,调试从步骤3到步骤10的网络结构超参数,并得到最终的训练模型;
步骤12,将步骤1中测试集输入步骤11中的训练模型中,重建出超分辨率左(右)图像。
本发明提出一种多尺度特征融合的双目图像超分辨率方法。首先,在特征提取模块采用混合跳跃式残差连接的方式,将改进的空洞空间金字塔池化块形成回环结构,用于提取图像的多尺度特征,再用扩张残差与回环结构交替级联,对提取的特征张量进行融合;然后,引入视差注意力模块获取双目图像中的对应关系,集成图像对的有用信息,其中,使用过渡扩张残差块学习双目立体匹配特征的网络能力,得到双目图像的视差计算图;最后,利用四个扩张残差块将低维空间映射到高维空间,通过亚像素卷积重建出超分辨率左(右)图,并将FReLU激活函数运用于整个网络中提高捕获空间相关性效率。本发明利用扩张残差回环结构提取图像多尺度特征,实现了优异的超分辨率性能,运行效率高,具有较好的鲁棒性。
附图说明
图1为本发明的网络整体框架图;
图2为本发明的回环结构图;
图3为本发明的扩张残差图;
图4为原始采集的低分辨图像;
图5为利用本发明处理图4后的超分辨率左图像。
具体实施方式
为了更好的理解本发明,下面结合具体实施方式对本发明的多尺度特征融合的双目图像超分辨率重建方法进行更为详细的描述。在以下的描述中,当前已有技术的详细描述也许会淡化本发明的主题内容,这些描述在这里将被忽略。
步骤1,下载双目立体公开数据集,选取场景丰富、细节多样和视差波动范围合适的双目图像对作为训练集中的高分辨率图像对,接着将高分辨率图像经双三次插值下采样操作得到如图4所示的低分辨率图像,再由得到的低分辨率图像组成网络的测试集样本;
步骤2,裁剪高分辨率和低分辨率图像,形成一一对应的高低分辨率图像对,再经旋转和平移等预处理后组成网络训练集样本101;
图1是本发明多尺度特征融合的双目图像超分辨率重建方法的具体网络模型图,在本实施方案中,按照以下步骤进行:
步骤3,通过卷积网络和残差块从RGB空间中初步提取左(右)图像特征张量102,其中卷积层都为1*1卷积,且残差块中使用FReLU激活函数;
步骤4,采用扩张残差回环结构提取图像多尺度特征103,具体实施如下:
步骤4-1,回环结构如图2所示,由三组改进空洞空间金字塔池化块(ASPP+)通过混合跳跃残差连接构成。混合跳跃式残差由长短跳跃相结合的残差构成,长跳跃中输入与输出相连201,短跳跃中前一层的输出作为下一层的输入202,整体构成回环结构。回环结构中ASPP+包括一个1*1卷积层、三个3*3膨胀卷积层(膨胀率为2 a ,2 a+1,2 a+2)和池化层203,在膨胀率设置中a=1,ASPP+用于多尺度特征提取,每个卷积层都有64个,三个3*3膨胀卷积层使用FReLU激活函数。最后将ASPP+使用Concatenate操作融合204;
步骤4-2,扩张残差如图3所示,第一层卷积通道数变为N倍301,中间层使用FReLU激活函数302,最后一层卷积通道变回原本的通道数303,其中N=2,扩张残差块中的卷积核都为3*3,扩张残差中通道变换具有更好的特征提取与综合迭代功能;
步骤4-3,将回环结构与扩张残差块交替级联,用于更好的特征提取与融合。
步骤5,对103提取的特征利用扩张残差过渡块缓解共享层的冲突后,经权值共享卷积网络得到代价聚合后的左(右)特征张量图1 I 1 L L I 1 L R ),再将左(右)特征张量图1 I 1 L L I 1 L R )与转置后的右(左)图(I 1 L R )-1((I 1 L L )-1)批次化矩阵乘后得到视差图M R-L M L-R ),如公式(1)所示,其中
Figure DEST_PATH_IMAGE001
为批次化矩阵乘:
Figure DEST_PATH_IMAGE002
(1)
步骤6,右(左)特征张量图1 I 1 L R I 1 L L )与右(左)到左(右)视差图M R-L M L-R )批次化矩阵乘可以得到左(右)特征张量图2 I 2 L L I 2 L R ),表达式如公式(2)所示:
Figure DEST_PATH_IMAGE003
(2)
步骤7,对视差图进行形态学操作得到有效掩码左(右)图V,当视差图上的一点
Figure DEST_PATH_IMAGE004
时,有效掩码左(右)图V中一点V(i, j)就是被遮挡的,即V(i, j)为1,反之有效掩码图未被遮挡,V(i, j)为0,其表达式如式(3)所示:
Figure DEST_PATH_IMAGE005
(3)
其中,W表示双目图像的宽度;
步骤8,将步骤5得到的特征张量图1 I 1 L L I 1 L R )、步骤6得到的特征张量图2 I 2 L L I 2 L R )和步骤7得到的有效掩码左(右)图V进行Concatenate操作,得到融合后的特征张量104;
步骤9,将融合后的特征张量104输入四个级联的扩张残差块中,更好的融合不同深度的特征105,其中,扩张残差块的卷积核都为3*3,并使用FReLU激活函数:
步骤10,采用亚像素卷积层对融合后的多尺度特征105通过低维空间特征映射到高维空间特征106;
步骤11,采用1*1卷积层将重建出的特征张量映射到RGB空间中107;
步骤12,调试训练步骤3到步骤11的网络框架,设置网络模型参数,其中,初始学习率设置为0.0002,Epochs设置为120,每40个Epochs后将学习率降为原来的1/3,Bach size设置为40,训练后得到最终的训练模型;
步骤13,将低分辨率图像输入预训练好的模型中,重建出如图5中的超分辨率左图像108。
本发明根据双目图像的特点和基于深度学习的图像超分辨率方法,给出了一种多尺度特征融合的双目图像超分辨率重建方法,该方法为更充分利用双目图像的互补信息,采用回环结构和扩张残差块相结合的多尺度特征提取方法,混合残差连接从不同深度操作获取网络信息,改进空洞空间金字塔池化模块从不同层次提取图像多尺度特征,扩张残差块将提取的特征更好的融合与去噪;随后引入视差注意力模块,对前面提取的特征图计算得到视差图,更好捕获双目图像对的对应关系;最后利用四个级联的扩张残差块融合不同深度的图像特征,再利用反卷积层重建出最后的超分辨率左(右)图。本发明算法简单,可操作性强,具有广泛的适用性。
尽管上面对本发明说明性的具体实施方式进行了描述,但应当清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。

Claims (3)

1.一种多尺度特征融合的双目图像超分辨率重建方法,其特征在于,采用扩张残差回环结构提取与融合双目图像多尺度特征,包括数据集预处理、对左目和右目低分辨率图像进行特征提取与融合、对融合后的特征张量计算视差图、超分辨率重建、网络训练与测试五个部分,
第一部分包括两个步骤:
步骤1,下载双目立体公开数据集,选取场景丰富、细节多样和视差波动范围合适的双目图像对作为训练集中的高分辨率图像对,然后对高分辨率图像经双三次插值降采样得到低分辨率图像作为测试集样本;
步骤2,将高分辨率与低分辨率图像裁剪成一一对应大小的图像块,对裁剪得到的高低分辨率图像对经旋转,平移基础操作,增强训练样本集,形成最终的训练集样本;
第二部分包括两个步骤:
步骤3,将步骤2中的训练样本输入权值共享的卷积网络,通过通道数变换从RGB空间初步得到左图像特征张量和右图像特征张量;
步骤4,对步骤3得到的左图像特征张量和右图像特征张量采用扩张残差回环结构进行多尺度特征提取,得到左图特征张量和右图特征张量,具体实施如下:
步骤4-1,回环结构由三组改进空洞空间金字塔池化块ASPP+通过混合跳跃残差连接构成; 混合跳跃式残差由长短跳跃相结合的残差构成,长跳跃中输入与输出相连,短跳跃中前一层的输出作为下一层的输入,整体构成回环结构; 回环结构中ASPP+包括一个1*1卷积层、三个3*3膨胀卷积层,膨胀率分别为2a,2a+1,2a+2和池化层,在膨胀率设置中a=1,ASPP+用于多尺度特征提取,每个卷积层都有64个输出通道,三个3*3膨胀卷积层使用FReLU激活函数; 最后将ASPP+使用Concatenate操作融合;
步骤4-2,扩张残差第一层卷积通道数变为N倍,中间层使用FReLU激活函数,最后一层卷积通道变回原本的通道数,其中N=2,扩张残差块中的卷积核都为3*3;
步骤4-3,将回环结构与扩张残差块交替级联,用于特征提取与融合;
第三部分包括四个步骤:
步骤5,将步骤4中得到的左图特征张量和右图特征张量经扩张残差过渡块处理,利用权值共享卷积网络得到代价聚合后的左特征张量图1.1和右特征张量图1.2,将左特征张量图 1.1和右特征张量图1.2的转置经过批次化矩阵乘得到右到左视差图,将右特征张量图1.2和左特征张量图1.1的转置经过批次化矩阵乘得到左到右视差图;
步骤6,将步骤5中代价聚合后的右特征张量1.2与右到左视差图批次化矩阵乘得到左特征张量图2.1,将步骤5中代价聚合后的左特征张量1.1与左到右视差图批次化矩阵乘得到右特征张量图2.2;
步骤7,对步骤5中得到的右到左视差图经形态学操作得到有效掩码左图,对步骤5中得到的左到右视差图经形态学操作得到有效掩码右图;
步骤8,将步骤5的左特征张量图1.1、步骤6的左特征张量图2.1和步骤7的有效掩码左图经Concatenate操作得到融合后的左特征张量,将步骤5的右特征张量图1.2、步骤6的右特征张量图2.2和步骤7的有效掩码右图经Concatenate操作得到融合后的右特征张量;
第四部分包括两个步骤:
步骤9,将四个扩张残差块级联成通道变换的扩张残差组,对步骤8中融合后的左特征张量和右特征张量经扩张残差组操作得到左特征图和右特征图;
步骤10,利用亚像素卷积层将步骤9处理后的左特征图和右特征图映射到高维空间后,再经卷积操作将特征图映射到RGB空间;
第五部分包括两个步骤:
步骤11,调试从步骤3到步骤10的网络结构超参数,设置网络模型参数,其中,初始学习率设置为0.0002,Epochs设置为120,每40个Epochs后将学习率降为原来的1/3,Bach size设置为40,并得到最终的训练模型;
步骤12,将步骤1中测试集输入步骤11中的训练模型中,重建出超分辨率左图像和超分辨率右图像。
2.根据权利要求1所述的一种多尺度特征融合的双目图像超分辨率重建方法,其特征在于,步骤5中使用扩张残差过渡块学习网络能力。
3.根据权利要求1所述的一种多尺度特征融合的双目图像超分辨率重建方法,其特征在于,利用步骤9中使用四个扩张残差块形成通道变换的残差组融合图像不同深度的特征信息。
CN202110158551.0A 2021-02-05 2021-02-05 一种多尺度特征融合的双目图像超分辨率重建方法 Active CN112767253B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110158551.0A CN112767253B (zh) 2021-02-05 2021-02-05 一种多尺度特征融合的双目图像超分辨率重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110158551.0A CN112767253B (zh) 2021-02-05 2021-02-05 一种多尺度特征融合的双目图像超分辨率重建方法

Publications (2)

Publication Number Publication Date
CN112767253A CN112767253A (zh) 2021-05-07
CN112767253B true CN112767253B (zh) 2022-05-24

Family

ID=75705081

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110158551.0A Active CN112767253B (zh) 2021-02-05 2021-02-05 一种多尺度特征融合的双目图像超分辨率重建方法

Country Status (1)

Country Link
CN (1) CN112767253B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113344791B (zh) * 2021-07-05 2022-06-10 中山大学 基于空洞卷积和特征融合的双目超分辨率图像检测方法、系统及介质
CN113887568B (zh) * 2021-09-09 2024-02-06 西安理工大学 一种各向异性卷积的双目图像立体匹配方法
CN113822805B (zh) * 2021-10-13 2022-10-18 深圳市优像科技有限公司 图像超分辨率重建方法、中药植物叶病诊断方法及设备
CN115358931B (zh) * 2022-10-20 2023-01-03 运易通科技有限公司 一种用于仓库物流系统的图像重建方法及设备
CN115880157B (zh) * 2023-01-06 2023-05-26 中国海洋大学 一种k空间金字塔特征融合的立体图像超分辨率重建方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110070489A (zh) * 2019-04-30 2019-07-30 中国人民解放军国防科技大学 一种基于视差注意力机制的双目图像超分辨方法
CN110390696A (zh) * 2019-07-03 2019-10-29 浙江大学 一种基于图像超分辨率重建的圆孔位姿视觉检测方法
CN111626927A (zh) * 2020-04-09 2020-09-04 上海交通大学 采用视差约束的双目图像超分辨率方法、系统及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110070489A (zh) * 2019-04-30 2019-07-30 中国人民解放军国防科技大学 一种基于视差注意力机制的双目图像超分辨方法
CN110390696A (zh) * 2019-07-03 2019-10-29 浙江大学 一种基于图像超分辨率重建的圆孔位姿视觉检测方法
CN111626927A (zh) * 2020-04-09 2020-09-04 上海交通大学 采用视差约束的双目图像超分辨率方法、系统及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
SP-Flow:Self-supervised optical flow correspondence point prediction for real-time SLAM;Zixuan Qin 等;《Computer Aided Geometric Design》;20200831;第82卷;第1-13页 *
基于泰勒展开式与曲率逆向驱动的图像超分辨算法;赵小乐 等;《计算机应用》;20141210;第34卷(第12期);第3570-3575页 *

Also Published As

Publication number Publication date
CN112767253A (zh) 2021-05-07

Similar Documents

Publication Publication Date Title
CN112767253B (zh) 一种多尺度特征融合的双目图像超分辨率重建方法
Wang et al. NTIRE 2023 challenge on stereo image super-resolution: Methods and results
CN110570522B (zh) 一种多视图三维重建方法
CN112150521B (zh) 一种基于PSMNet优化的图像立体匹配方法
CN115147271A (zh) 一种用于光场超分辨率的多视图信息注意力交互网络
CN110211035A (zh) 融合互信息的深度神经网络的图像超分辨率方法
CN114841856A (zh) 基于深度残差通道空间注意力的密集连接网络的图像超像素重建方法
CN113538243B (zh) 基于多视差注意力模块组合的超分辨图像重建方法
CN114331830B (zh) 一种基于多尺度残差注意力的超分辨率重建方法
CN112785502B (zh) 一种基于纹理迁移的混合相机的光场图像超分辨率方法
CN114418850A (zh) 一种融合图卷积的有参考图像超分辨率重构方法
CN117710215B (zh) 一种基于极线分窗口注意力的双目图像超分辨率方法
CN114897680B (zh) 融合光场子孔径图像与宏像素图像的角度超分辨率方法
Chandramouli et al. A generative model for generic light field reconstruction
CN115601237A (zh) 视图间差异强化的光场图像超分辨率重构网络
CN115953294A (zh) 一种基于浅层通道分离与聚合的单图像超分辨率重建方法
CN116977168A (zh) 融合空间和角度特征的光场图像超分辨率重建方法
CN117952830B (zh) 一种基于迭代交互指导的立体图像超分辨率重建方法
CN114926337A (zh) 基于CNN和Transformer混合网络的单幅图像超分辨率重建方法及系统
CN113393382B (zh) 一种基于多维度视差先验的双目图片超分辨率重建方法
Conde et al. Real-time 4k super-resolution of compressed AVIF images. AIS 2024 challenge survey
CN114359041A (zh) 一种光场图像空间超分辨率重建方法
Ma et al. VommaNet: An End-to-End network for disparity estimation from reflective and texture-less light field images
Chai et al. Super-Resolution Reconstruction for Stereoscopic Omnidirectional Display Systems via Dynamic Convolutions and Cross-View Transformer
CN112184555B (zh) 一种基于深度交互学习的立体图像超分辨率重建方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20240612

Address after: Floor 14 and 15, Building 1, Block 2, East Tianfu Haichuangyuan, Zizhou Avenue Road, Chengdu City, Sichuan Province, 610000

Patentee after: Southwest University of Science and Technology Sichuan Tianfu New Area Innovation Research Institute

Country or region after: China

Address before: 621010, No. 59, Qinglong Avenue, Fucheng District, Sichuan, Mianyang

Patentee before: Southwest University of Science and Technology

Country or region before: China

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20240906

Address after: 11th Floor, Building 1, No. 118 Jitai Fifth Road, High tech Zone, Chengdu, Sichuan, 610000

Patentee after: CHENGDU HORSENT WISELINK TECHNOLOGY Co.,Ltd.

Country or region after: China

Address before: Floor 14 and 15, Building 1, Block 2, East Tianfu Haichuangyuan, Zizhou Avenue Road, Chengdu City, Sichuan Province, 610000

Patentee before: Southwest University of Science and Technology Sichuan Tianfu New Area Innovation Research Institute

Country or region before: China