CN105844589A - 一种基于混合成像系统的实现光场图像超分辨的方法 - Google Patents

一种基于混合成像系统的实现光场图像超分辨的方法 Download PDF

Info

Publication number
CN105844589A
CN105844589A CN201610160745.3A CN201610160745A CN105844589A CN 105844589 A CN105844589 A CN 105844589A CN 201610160745 A CN201610160745 A CN 201610160745A CN 105844589 A CN105844589 A CN 105844589A
Authority
CN
China
Prior art keywords
resolution
super
light field
point
patches
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610160745.3A
Other languages
English (en)
Other versions
CN105844589B (zh
Inventor
王兴政
吴驹东
张永兵
王好谦
李莉华
戴琼海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Weilai Media Technology Research Institute
Shenzhen Graduate School Tsinghua University
Original Assignee
Shenzhen Weilai Media Technology Research Institute
Shenzhen Graduate School Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Weilai Media Technology Research Institute, Shenzhen Graduate School Tsinghua University filed Critical Shenzhen Weilai Media Technology Research Institute
Priority to CN201610160745.3A priority Critical patent/CN105844589B/zh
Publication of CN105844589A publication Critical patent/CN105844589A/zh
Application granted granted Critical
Publication of CN105844589B publication Critical patent/CN105844589B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于混合成像系统的实现光场图像超分辨的方法,属于光场成像领域。该方法通过引入一张额外的高分辨普通图像解决了手持式光场相机空间分辨率低下的问题。它首先将场景中的点进行分成两类,第一类点对应的像素出现在光场相机所有的视点中,剩下的点归为另一类。对于第一类点,采用改善的块匹配超分辨,第二类点用字典学习超分辨。最后将两种超分辨的结果整合起来,可以得到一张清晰的高分辨图像。

Description

一种基于混合成像系统的实现光场图像超分辨的方法
技术领域
本发明涉及光场成像领域,特别涉及一种基于混合成像系统的实现光场图像超分辨的方法。
背景技术
光场成像一直就是计算摄像学研究的热点,它不仅能够应用于三维重建,而且在识别等人工智能领域也有诸多应用。特别是自从Ng提出了一种手持式光场相机之后,更是把光场成像推上了热浪的漩涡之中。但是光场采集在实际当中仍然存在诸多问题,其中最基本的问题是在传感器单元数目有限的情况下,如何折衷光场的空间分辨率和角度分辨率。
如何权衡空间分辨率和角度分辨率,之前有很多工作者从硬件基础入手对此进行研究,但是始终没有找到合适的解决办法。因此,在目前的工艺水平下,只能求助于算法,来解决手持式光场相机空间分辨率低下的问题。
目前已知的实现光场图像超分辨的方法主要分为三大类。第一类是基于先验知识或者模型通过数学分析推导,实现超分辨。Levin等人首先将基于贝叶斯的框架应用到光场上。与此同时,Bishop也在贝叶斯框架下,利用Lambertian和纹理先验信息建立了一个精确的图像公式。随后Kaushik Mitra使用高斯混合模型对光场图像的patches建模,通过贝叶斯推断获得一个高分辨率的光场。虽然说先验知识在超分辨率至关重要,但是它只能给出定性的概念,无法给出定量的描述。所以在使用过程中可以得到一定的效果,但是如果仅仅靠先验知识是无法得到显著的效果。第二种方法是目前较为流行的字典学习超分辨。字典学习方法的主要步骤分为两步:一是训练,二是重构。先用一组训练集按照某个约束训练出一对字典,然后求出已知低分辨光场图像的低分辨率字典的稀疏表示,利用这个稀疏系数和高分辨率字典重构出高分辨率光场图像。字典学习超分辨虽然可以实现较好的效果,但是它的超分辨倍数有限,对于光场中需要超分辨到较大的倍数效果一般。第三种方法是基于混合成像系统的超分辨方法。对于目前民用的手持式光场相机而言,由于相机本身空间有限,不能容纳太多的传感器单元,所以要获得角度分辨率就必然以牺牲空间分辨率为代价。
发明内容
本发明的目的在于提供一种基于混合成像系统的实现光场图像超分辨的方法,解决分辨率低的问题。
为此,本发明提出的1、一种基于混合成像系统的实现光场图像超分辨的方法,其特征在于包括如下步骤:S1、分析场景中的点,对场景中的点进行分类:对于那些没有高光没有遮挡能够出现在光场相机所有视点中的点,将其分到第一类中,对于那些出现遮挡或者是存在高光的情况的点,将其分到第二类中;S2、对于第一类中的点,利用改善过的块匹配方法将其超分辨到指定的分辨率;S3、对于第二类中的点,利用字典学习的方法超分辨到与步骤S2同样的分辨率;S4、结合步骤S2和步骤S3拼接出一张完整的高分辨的光场图像。
本发明的优点在于,本方法通过引入一张高分辨率的普通图像,结合块匹配和字典学习两种不同的手段,实现了光场图像空间分辨率显著提高。
附图说明
图1是本发明实施例在分类过程中计算L2示意图。
图2是本发明实施例改善的块匹配操作示意图。
具体实施方式
本实施例提供了一种基于混合成像系统的提高光场空间分辨率的方法。本方法通过引入一张高分辨率的普通图像,结合块匹配和字典学习两种不同的手段,实现了光场图像空间分辨率显著提高。包括以下几个步骤:1)分析场景中的点,对场景中的点进行分类。对于那些没有高光没有遮挡能够出现在光场相机所有视点中的点,将其分到第一类中,对于那些出现遮挡或者是存在高光的情况的点,将其分到第二类中。2)对于第一类中的点,利用改善过的块匹配方法将其超分辨到指定的分辨率。3)对于第二类中的点,利用字典学习的方法超分辨到与步骤2)同样的分辨率。4)结合步骤2)和步骤3)拼接出一张完整的高分辨的光场图像。
下面进行具体说明:
1、空间点的分类:
光场图像用大写的F表示,Fj表示光场中第j个视点的图像(j为正整数),高分辨率图像用H表示。H的空间分辨率是Fj的N倍。如附图1所示,图中,“光场图像”,在本文指的是用lytro光场相机拍摄的数据,可以分解出不同视点的图像,“高分辨图像”是指用单反相机拍摄的与lytro相机相同场景的图像,左边的小黑方框是从光场相机获得的数据中某一个视点下取得小patch,然后计算它的特征值(可以计算它的一阶和二阶梯度,此处我们计算它的傅里叶变换);右边大黑方框是从高分辨图像对应位置取得的patch,然后下采样(此处用bi‐cubic下采样),计算它的特征;boominthan提出了这个算法,所以此处文中使用这个人名指代这个算法,利用此算法,我们先得到一个初步的结果,也就是左边第二个小黑方框,和右边匹配上的小黑方框,然后把小黑方框中的矩阵数据拉成向量处理,计算他们的欧式距离(即2范数)。
先从Fj提取n个patches(块),记为{pi,j}i=1,2,...,n。接着对于每一个pi,j,从高分辨率图像H中搜索最佳的匹配块,其中,具体步骤如下:
1)计算搜索半径dist。以光场中第j个视点的图像的第i个patch pi,j为例,先计算它水平上的一阶梯度、二阶梯度和垂直上的一阶梯度、二阶梯度,然后求这个梯度的平均值grad,按照先验公式:
dist(|grad|)=β12·exp(|grad|/10)
其中,
β 1 ( N N ) = 5 · 10 - 3 N N + 0.09 N N - 0.044
β 2 ( N N ) = 7.3 · 10 - 4 N N + 0.3235 N N - 0.35
此处NN为要搜索最近邻的个数,是自己设定的一个参数,本例中设为9。可以计算出与patch pi,j对应的搜索半径。
2)先把高分辨率图像H分块,记为{ph,i},其中ph,i的空间分辨率是pi,j的N倍。然后将其下采样N倍得到对应的低分辨率的patches,记为{pl,i}。
3)对于pi,j,按照搜索半径dist从{pl,i}中搜索到最佳的匹配块,记为
根据上述三个步骤可计算出最佳匹配块。按照之前对于第一类的定义可知,第一类的patches所包含的信息必然可以在高分辨率图像H中可以直接找到,所以pi,j之间的二范数L2非常小;而第二类的patches恰恰相反,其二范数相比较而言,比较大。所以,按照如下公式将{pi,j}i=1,2,…,n分为两类:
A 1 = { p i , j | || p i , j - p ^ i , j || 2 < &alpha; j &sigma; j }
A 2 = { p i , j | || p i , j - p ^ i , j || 2 &GreaterEqual; &alpha; j &sigma; j }
其中,αj是一个系数,反映了一个场景中的遮挡高光等特征。σj是所有patches对的二范数的标准差。
2、改善之后的块匹配(对第一类的点):
由于所有patches进行傅里叶变换之后,主要包含的是直流信息,其他频率的信息所占的比例太少,为了突出其他频率的信息,首先对它们去均值,去均值就是对一个patch求均值,然后再用这个patch的每个像素值减去这个均值。在第2步中,对第一类点去均值,且对{pl,i}去均值。这一部分主要是对第一类的patches进行超分辨,为了区分,记这些patches为将这些patches与在第一部分求得的对应的最佳匹配块组成patches对。首先对计算其傅里叶变换,记为接着对它的最佳匹配块进行傅里叶变换,记为尽管的最佳匹配块,但是它们之间匹配的仍然不是特别好。它们的幅度谱近似相等,但是相位谱有点差异。如附图2所示,图2中,左图“光场中的某一个视点”,同图1,使我们从lytro拍摄的数据中提取的某一个视点的图像,其中的小白方框是一个patch,右图“高分辨图像”也同图1,其中白边的大方框是搜索范围,它右边的自适应搜索半径这个方框是给出的注释,中间的较大的黑方框是采用boominthan方法正在搜索的patch;左边标记具有斜纹的方框就是上面的小黑方框单独拿出来,右边标记方框是采用boominthan方法搜索到的匹配块;所谓的纹理相似是指它们的内容一样,只是存在平移变换和旋转变换(这两者合称反射变换),纹理是图像处理这一领域的术语。
在时域内,需要旋转和平移才能与更好地匹配。因为在这里使用的相机是lytro相机,它的视角非常小,所以可以忽略掉旋转角。Δx和Δy分别表示水平和垂直上的像素偏移,可知满足如下公式:
p i , j 1 ( x , y ) = p ^ i , j 1 ( x + &Delta; x , y + &Delta; y )
根据相位平移理论可得:
p i , j 1 ( x , y ) = F - 1 { F { p ^ i , j 1 ( x , y ) } e 2 &pi; i ( &Delta; x + &Delta; y ) }
因此可求得相应的像素偏移Δx和Δy。对于需要重构的高分辨patches和对应的高分辨率patch它们之间的像素偏移为N×Δx和N×Δy。由此可计算出
P i , j 1 h ( x , y ) = F - 1 { F { P ^ i , j 1 h ( x , y ) } e 2 &pi; i ( N &Delta; x + N &Delta; y ) }
至此已经获得高分辨率的patch(在最后一步利用这些patch,就能实现了超分辨到指定的分辨率了)
3、基于字典学习的方法:
对于第二类的patches,采用字典学习的方法将其超分辨。首先对高分辨率图像H下采样N倍,然后上采样N倍,得到一张相对比较模糊的图像,记为H′。然后把H和H′图像对作为训练数据集训练出一个字典,训练的方法如下:通过解下面这个稀疏编码等式:
D = arg m i n D &alpha; || T - D &alpha; || 2 2 + &lambda; || &alpha; || 1
其中D={Dh,Dl}是训练完的字典(D={Dh,Dl}(这种写法表示字典中的低分辨率patches和高分辨率patches是一一对应的),它是由高分辨率和低分辨率字典组成,T是训练数据集,α是稀疏系数。先记第二类patches为在重构阶段,对于每一个patches找到它低分辨字典Dl的稀疏表示,然后再结合高分辨率字典Dh求出它对应的高分辨率patch具体操作就是优化下面这个等式:
&beta; = arg m i n &beta; || p i , j 2 - D l &beta; || 2 2 + &lambda; || &beta; || 1
求出β之后,再用β乘以高分辨率字典Dh,即可得(这就是高分辨patch)。
综合步骤2和步骤3可对所有patches超分辨,然后再进行整合(就是把之前的高分辨patches拼接)即可得一张完整的某个视点的图像。
本实施例利用混合成像系统解决分辨率低下的问题,一方面用手持式光场相机采集低分辨率的光场图像,另一方面用单反相机采集高分辨率的普通图像,并且通过相应的算法把这两者结合起来,就可以获得高分辨率的光场图像。
本实施例至少具有如下实质性特点:
1、在光场超分辨领域,我们对场景中的点进行了分类,并且给出了分类的标准。
2、在块匹配的基础上,我们首先加入了搜索半径自适应的方法。
3、其次,在傅里叶域对最佳匹配块做了仿射变换,使其效果进一步得到提高。
4、提出了将块匹配和字典学习结合的框架。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效装置或等效方法变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (7)

1.一种基于混合成像系统的实现光场图像超分辨的方法,其特征在于包括如下步骤:
S1、分析场景中的点,对场景中的点进行分类:对于那些没有高光没有遮挡能够出现在光场相机所有视点中的点,将其分到第一类中;对于那些出现遮挡或者是存在高光的情况的点,将其分到第二类中;
S2、对于第一类中的点,利用块匹配方法将其超分辨到指定的分辨率;
S3、对于第二类中的点,利用字典学习的方法超分辨到与步骤S2同样的分辨率;
S4、结合步骤S2和步骤S3拼接出一张完整的高分辨的光场图像。
2.如权利要求1所述的基于混合成像系统的实现光场图像超分辨的方法,其特征在于步骤S1中对场景中的点进行分类的方法包括如下步骤:
S11、计算搜索半径dist;
S12、先把高分辨率图像H分块,记为{ph,i},其中ph,i的空间分辨率是pi,j的N倍;然后将其下采样N倍得到对应的低分辨率的patches,记为{pl,i};
S13、对于pi,j,按照搜索半径dist从{pl,i}中搜索到最佳的匹配块,记为
S14、按照如下公式将{pi,j}i=1,2,…,n分为两类:
A 1 = { p i , j | | | p i , j - p ^ i , j | | 2 < &alpha; j &sigma; j }
A 1 = { p i , j | | | p i , j - p ^ i , j | | 2 &GreaterEqual; &alpha; j &sigma; j } .
3.如权利要求1所述的基于混合成像系统的实现光场图像超分辨的方法,其特征在于步骤S2中,对于第一类中的点,利用块匹配方法将其超分辨到指定的分辨率的方法包括如下步骤:
针对第一类的点,将其patches记为将这些patches与在第一部分求得的对应的最佳匹配块组成patches对;首先对计算其傅里叶变换,记为接着对它的最佳匹配块进行傅里叶变换,记为 满足如下公式:
p i , j 1 ( x , y ) = p ^ i , j 1 ( x + &Delta; x , y + &Delta; y )
根据相位平移理论可得:
p i , j 1 ( x , y ) = F - 1 { F { p ^ i , j 1 ( x , y ) } e 2 &pi; i ( &Delta; x + &Delta; y ) }
因此可求得相应的像素偏移Δx和Δy,Δx和Δy分别表示水平和垂直上的像素偏移,对于需要重构的高分辨patches和对应的高分辨率patch它们之间的像素偏移为N×Δx和N×Δy;由此可计算出
P i , j 1 h ( x , y ) = F - 1 { F | P ^ i , j 1 h ( x , y ) } e 2 &pi; i ( N &Delta; x + N &Delta; y ) } .
4.如权利要求1所述的基于混合成像系统的实现光场图像超分辨的方法,其特征在于步骤S3中,对于第二类中的点,利用字典学习的方法超分辨到与步骤S2同样的分辨率的方法包括如下步骤:首先对高分辨率图像H下采样N倍,然后上采样N倍,得到一张相对比较模糊的图像,记为H′;然后把H和H′图像对作为训练数据集训练出一个字典;记第二类patches为在重构阶段,对于每一个patches找到它低分辨字典Dl的稀疏表示,然后再结合高分辨率字典Dh求出它对应的高分辨率patch
5.如权利要求4所述的基于混合成像系统的实现光场图像超分辨的方法,其特征在于:对于每一个patches求出它对应的高分辨率patch具体操作就是优化下面这个等式:
&beta; = arg m i n &beta; | | p i , j 2 - D l &beta; | | 2 2 + &lambda; | | &beta; | | 1
求出β之后,再用β乘以高分辨率字典Dh,即可得
6.如权利要求4所述的基于混合成像系统的实现光场图像超分辨的方法,其特征在于,训练出一个词典的训练的方法如下:通过解下面这个稀疏编码等式:
D = arg m i n D &alpha; | | T - D &alpha; | | 2 2 + &lambda; | | &alpha; | | 1
其中D={Dh,Dl}是训练完的字典,它是由高分辨率和低分辨率字典组成,T是训练数据集,α是稀疏系数。
7.如权利要求1所述的基于混合成像系统的实现光场图像超分辨的方法,其特征在于步骤S4中,结合步骤S2和步骤S3拼接出一张完整的高分辨的光场图像的方法包括如下步骤:把步骤S2和步骤S3所得到的高分辨patches拼接。
CN201610160745.3A 2016-03-21 2016-03-21 一种基于混合成像系统的实现光场图像超分辨的方法 Active CN105844589B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610160745.3A CN105844589B (zh) 2016-03-21 2016-03-21 一种基于混合成像系统的实现光场图像超分辨的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610160745.3A CN105844589B (zh) 2016-03-21 2016-03-21 一种基于混合成像系统的实现光场图像超分辨的方法

Publications (2)

Publication Number Publication Date
CN105844589A true CN105844589A (zh) 2016-08-10
CN105844589B CN105844589B (zh) 2018-12-21

Family

ID=56587604

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610160745.3A Active CN105844589B (zh) 2016-03-21 2016-03-21 一种基于混合成像系统的实现光场图像超分辨的方法

Country Status (1)

Country Link
CN (1) CN105844589B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107959805A (zh) * 2017-12-04 2018-04-24 深圳市未来媒体技术研究院 基于混合相机阵列的光场视频成像系统及视频处理方法
CN108401104A (zh) * 2018-02-08 2018-08-14 浙江大学 基于频带修复和超分辨的双焦相机数字变焦方法
CN110163801A (zh) * 2019-05-17 2019-08-23 深圳先进技术研究院 一种图像超分辨和着色方法、系统及电子设备
CN110823094A (zh) * 2019-11-08 2020-02-21 北京理工大学 一种点光源三维坐标测量方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102800076A (zh) * 2012-07-16 2012-11-28 西安电子科技大学 基于双字典学习的图像超分辨重建方法
CN103295197A (zh) * 2013-05-21 2013-09-11 西安电子科技大学 基于字典学习和双边正则的图像超分辨率重建方法
US20130329956A1 (en) * 2008-01-18 2013-12-12 Nederlandse Organisatie Voor Toegepast- Natuurwetenschappelijk Onderzoek Tno Method of improving the resolution of a moving object in a digital image sequence
CN104091364A (zh) * 2014-07-10 2014-10-08 西北工业大学 单幅图像超分辨重建方法
CN104159003A (zh) * 2014-08-21 2014-11-19 武汉大学 一种基于3d协同滤波与低秩矩阵重建的视频去噪方法及系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130329956A1 (en) * 2008-01-18 2013-12-12 Nederlandse Organisatie Voor Toegepast- Natuurwetenschappelijk Onderzoek Tno Method of improving the resolution of a moving object in a digital image sequence
CN102800076A (zh) * 2012-07-16 2012-11-28 西安电子科技大学 基于双字典学习的图像超分辨重建方法
CN103295197A (zh) * 2013-05-21 2013-09-11 西安电子科技大学 基于字典学习和双边正则的图像超分辨率重建方法
CN104091364A (zh) * 2014-07-10 2014-10-08 西北工业大学 单幅图像超分辨重建方法
CN104159003A (zh) * 2014-08-21 2014-11-19 武汉大学 一种基于3d协同滤波与低秩矩阵重建的视频去噪方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
刘帅 等: "一种结合稀疏表示和纹理分块的遥感影像超分辨率方法", 《武汉大学学报》 *
卢健: "图像超分辨重建中的若干问题研究", 《中国博士学位论文全文数据库 信息科技辑》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107959805A (zh) * 2017-12-04 2018-04-24 深圳市未来媒体技术研究院 基于混合相机阵列的光场视频成像系统及视频处理方法
CN107959805B (zh) * 2017-12-04 2019-09-13 深圳市未来媒体技术研究院 基于混合相机阵列的光场视频成像系统及视频处理方法
CN108401104A (zh) * 2018-02-08 2018-08-14 浙江大学 基于频带修复和超分辨的双焦相机数字变焦方法
CN108401104B (zh) * 2018-02-08 2020-11-13 浙江大学 基于频带修复和超分辨的双焦相机数字变焦方法
CN110163801A (zh) * 2019-05-17 2019-08-23 深圳先进技术研究院 一种图像超分辨和着色方法、系统及电子设备
CN110823094A (zh) * 2019-11-08 2020-02-21 北京理工大学 一种点光源三维坐标测量方法及装置
CN110823094B (zh) * 2019-11-08 2021-03-30 北京理工大学 一种点光源三维坐标测量方法及装置

Also Published As

Publication number Publication date
CN105844589B (zh) 2018-12-21

Similar Documents

Publication Publication Date Title
CN103093444B (zh) 基于自相似性和结构信息约束的图像超分辨重建方法
CN110163801B (zh) 一种图像超分辨和着色方法、系统及电子设备
CN109671023A (zh) 一种人脸图像超分辨率二次重建方法
CN102629374B (zh) 基于子空间投影和邻域嵌入的图像超分辨率重建方法
CN102982520B (zh) 一种基于轮廓先验的鲁棒性人脸超分辨率处理方法
CN105957026A (zh) 基于非局部相似图像块内部和块间隐性低秩结构的去噪方法
CN103150713A (zh) 利用图像块分类稀疏表示与自适应聚合的图像超分辨方法
CN111325165A (zh) 考虑空间关系信息的城市遥感影像场景分类方法
CN105844589A (zh) 一种基于混合成像系统的实现光场图像超分辨的方法
Chen et al. Single image super-resolution using deep CNN with dense skip connections and inception-resnet
Ma et al. Deep unfolding network for spatiospectral image super-resolution
CN108038893A (zh) 一种基于混合相机阵列的十亿像素视频的生成方法
CN103971354A (zh) 低分辨率红外图像重建高分辨率红外图像的方法
CN112163998A (zh) 一种匹配自然降质条件的单图像超分辨率分析方法
Zhao et al. Deep equilibrium models for video snapshot compressive imaging
Almasri et al. Rgb guided thermal super-resolution enhancement
Wang et al. Transform domain based medical image super-resolution via deep multi-scale network
CN104182931B (zh) 超分辨率方法和装置
Tang et al. MPCFusion: Multi-scale parallel cross fusion for infrared and visible images via convolution and vision Transformer
CN111047513A (zh) 一种用于柱面全景拼接的鲁棒性图像对齐方法及装置
CN116823647A (zh) 基于快速傅里叶变换和选择性注意力机制的图像补全方法
CN103632357B (zh) 一种基于光照分离的图像超分辨率增强方法
Wang Single image super-resolution with u-net generative adversarial networks
CN109993782B (zh) 一种环形生成对抗网络的异源遥感图像配准方法及装置
CN114494386A (zh) 一种多频谱图像监督的红外图像深度估计方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant