CN107767357B - 一种基于多方向字典的深度图像超分辨率方法 - Google Patents
一种基于多方向字典的深度图像超分辨率方法 Download PDFInfo
- Publication number
- CN107767357B CN107767357B CN201710825666.4A CN201710825666A CN107767357B CN 107767357 B CN107767357 B CN 107767357B CN 201710825666 A CN201710825666 A CN 201710825666A CN 107767357 B CN107767357 B CN 107767357B
- Authority
- CN
- China
- Prior art keywords
- resolution
- image
- depth image
- low
- dictionary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000012549 training Methods 0.000 claims abstract description 17
- 238000001914 filtration Methods 0.000 claims abstract description 9
- 238000000638 solvent extraction Methods 0.000 claims abstract description 3
- 238000000605 extraction Methods 0.000 claims description 12
- 150000001875 compounds Chemical class 0.000 claims description 6
- 238000012935 Averaging Methods 0.000 claims description 4
- 230000008707 rearrangement Effects 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 2
- 238000004422 calculation algorithm Methods 0.000 description 12
- 239000004973 liquid crystal related substance Substances 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 238000005457 optimization Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000010835 comparative analysis Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种基于多方向字典的深度图像超分辨率方法,包括以下步骤:步骤一:提取彩色图像特征,获得轮廓图;步骤二:对低分辨率深度图像进行插值,用高通滤波来表示其特征;步骤三:将低分辨率深度图像进行分块,计算每个图像块的几何方向;步骤四:进行字典训练;步骤五:根据步骤三中得到的几何方向,选择字典,重建深度图像。采用本发明的技术方案,使深度图像的分辨率得到增强,边界纹理区域清晰。
Description
技术领域
本发明涉及计算机图像处理领域,具体涉及一种基于多方向字典的深度图像 超分辨率方法。
背景技术
近些年随着飞行时间相机和微软的Kinect等3D相机的迅猛发展,深度图像 已经广泛应用于低成本的计算机视觉领域,比如机器人导航、增强现实和场景分 析等。然而,受外在条件和设备本身所限,使用这些3D相机得到的深度图像往 往存在着低分辨率、大量噪声以及在一些深度边界结构丢失的问题,导致这些深 度图像不能直接用于深度感知和3D重建。
深度图像超分辨率算法目前已经取得了很大的进展,主要分为两个方面:基 于优化的方法和基于滤波的方法。基于优化的方法可以被视为能量最小化方法, 这种方法的一个标志性工作是,使用马尔科夫随机场来生成高分辨率深度图像。 比如Park等提出了一种基于加权最小二乘法的优化框架,他们用一个附加的边 缘加权方案扩展了正则项(J.Park,H.Kim,Y.-W.Tai,M.S.Brown,and I.Kweon, “High quality depth mapupsampling for 3D-TOF cameras,”in Computer Vision (ICCV),2011IEEEInternational Conference on,2011,pp.1623-1630.)。基于滤波的 方法中,联合双边滤波是一个开创性的方法,自此一系列的滤波器,比如测地线 滤波器、引导滤波器以及它们的扩展版本面世。然而无论是优化的方法还是滤波 的方法得到的深度图像往往存在一些问题,这些问题主要集中于图像边界不清晰 和一些错误的纹理信息。最近,基于学习的深度图像超分辨率算法引起了广泛关 注,这种方法是通过学习大量低分辨率图像和高分辨率图像的相关性,从而来获 得清晰的低分辨率深度图的边界信息,比如Yang等提出了基于稀疏表示的2D 图像超分辨率逼近方法(J.Yang,J.Wright,T.Huang,and Y.Ma,“Imagesuper-resolution via sparse representation,”IEEE Trans.Image Processing,vol.19, no.11.pp.2681-2873,2010.),该方法能从一定程度上提高重建后深度图像的质量,但通过实验可以发现得到的图像纹理边界较为模糊。
综上,现有的深度图像超分辨率算法获得的结果质量较低,纹理边界区域较 为模糊,具有一定的局限性。
发明内容
本发明的目的是克服上述现有技术的缺点,提供一种质量高的深度图像超分 辨率方法,使深度图像的分辨率得到增强,边界纹理区域清晰。
本发明的深度图像超分辨算法是将图像分块进行的,对于每个图像块,通过 计算其几何方向来选择相应的字典,然后结合彩色图像纹理信息来实现超分辨率 重建。在重建过程中,使用自回归模型来加强重建约束来获得高质量的重建结果。
为实现上述目的,本发明采用如下的技术方案:
一种基于多方向字典的深度图像超分辨率方法,包括以下步骤:
步骤一:提取彩色图像特征,获得轮廓图;
步骤二:对低分辨率深度图像进行插值,用高通滤波来表示其特征;
步骤三:将低分辨率深度图像进行分块,计算每个图像块的几何方向;
步骤四:进行字典训练;
步骤五:根据步骤三中得到的几何方向,选择字典,重建深度图像。
作为优选,
步骤一的具体操作:将低分辨率深度图像插值放大到彩色图像的分辨率大 小,对于每个彩色图像块:
作为优选,
步骤二的具体操作:首先将低分辨率深度图像插值放大到彩色图像分辨率大 小,然后用一阶二阶导数作为高通滤波来表示每个块的特征:
作为优选,
步骤三的具体操作:对于低分辨率深度图像块j,计算其几何方向ω:
作为优选
步骤四的具体操作:首先收集足够多的高分辨率深度图像和对应的彩色图 像,作为字典训练的训练集,其中低分辨率的深度图像由高分辨率的深度图像通 过下采样获得。根据步骤一提取得到彩色图像轮廓图,步骤二得到低分辨率深度 图的特征,步骤三计算得到每个块的几何方向,将具有同一个方向的块收集到一 类里。训练集里的高分辨率深度图像的特征可以表示为:
Yi=Yi-mean(Yi) (4)
式中,Yi表示高分辨率深度图像块,mean()表示取平均。
字典的训练在拥有相同方向的每个类里进行,图像块S={S1,S2,…,SM}以及定 义的几何方向{θ1,θ2,…,θQ},通过步骤三,将图像块集S分为Q类,即 {S1,S2,…,SQ},然后在每一个类里训练一个字典Dω(ω=1,2,…,Q):
式中,A表示系数矩阵,λ为参数,且λ=1。
对于低分辨率深度图像、彩色图像和高分辨率深度图像,通过使其稀疏系数 保持一致来约束它们的特征,进一步得到字典:
作为优选,
步骤五的具体操作:首先对于每个低分辨率的图像块,通过自回归模型得到 约束项Z:
式中,Zx表示在位置x处的像素值,Ω表示x周围相邻的像素。
EAR(Z)表示自回归项:
式中,N(x)表示与像素x邻近的像素,ax,y表示自回归系数。
然后计算系数:
最后重建深度图像块:
将所有的图像块拼接在一起,重叠区域取平均值,就得到了重建后的深度图像。
与现有技术相比,本发明通过计算图像块的几何方向来选择相应的字典,再 用相同的稀疏系数来建立起低分辨率深度图、彩色图像和高分辨率深度图三者之 间的关系,在重建过程中使用自回归模型增加约束。其有益的效果是:深度图像 的分辨率得到显著的提升,纹理边界细节更加清晰,非纹理区域有较好的空间平 滑性。
附图说明:
图1为深度图像超分辨率框架图;
图2为部分训练图像;
图3a为测试图片ART;
图3b为图3a的对应的真实图像;
图4a第一深度图像的几何方向;
图4b第二深度图像的几何方向;
图5a为原图;
图5b为图5a的第一处局部放大图;
图5c为图5a的第二处局部放大图
图6a本发明得到的图像;
图6b为图6a的第一处局部放大图;
图6c为图6a的第二处局部放大图;
图7测试图片;
图8(a)-图8(g)为Art不同算法重建结果主观质量比较(第一图片的局部1);其中,图8(a)为第一局部原图像、图8(b)本发明的图像、图8(c)JESR图像、图8 (d)SCSR图像、图8(e)SRF图像、图8(f)双三次插值图像,图8(g)为第一图片;
图9(a)-图9(g)为Art不同算法重建结果主观质量比较(第一图片的局部2);其中,图9(a)为第二局部原图像、图9(b)本发明的图像、图9(c)JESR图像、图9 (d)SCSR图像、图9(e)SRF图像、图9(f)双三次插值图像,图9(g)为第一图片;
图10(a)-图10(g)为Reindeer不同算法重建结果主观质量比较(第二图片的局部1);其中,图10(a)为第一局部原图像、图10(b)本发明的图像、图10(c)JESR 图像、图10(d)SCSR图像、图10(e)SRF图像、图10(f)双三次插值图像,图10 (g)为第二图片;
图11(a)-图11(g)为Reindeer不同算法重建结果主观质量比较(第二图片的局部2);其中,图11(a)为第二局部原图像、图11(b)本发明的图像、图11(c)JESR图 像、图11(d)SCSR图像、图11(e)SRF图像、图11(f)双三次插值图像,图11(g) 为第二图片。
具体实施方式:
为了能够更清楚地描述本发明的技术内容,下面结合具体实例来进一步的描 述:
本发明的框架图如图1,具体实施过程分为两个阶段,字典学习阶段和超分 辨率重建阶段。
一、字典学习阶段
字典学习阶段分为四个步骤:收集训练图像集、图像特征提取、计算几何方 向以及字典训练。
1、收集训练图像
首先从标准图像中收集足够多的高分辨率深度图像和对应的彩色图像作为 字典训练的训练集,如图2,其中低分辨率的深度图像由高分辨率的深度图像下 采样得到。
2、图像特征提取
a.彩色图像轮廓提取:
将低分辨率深度图像插值放大到彩色图像的分辨率大小,对于每个彩色图像 块i:
b.低分辨率深度图像特征提取:
将低分辨率深度图像插值放大到彩色图像分辨率大小,然后用一阶二阶导数 作为高通滤波来表示每个块的特征:
c.高分辨率深度图像特征提取:
Yi=Yi-mean(Yi) (3)
式中,Yi表示高分辨率深度图像块,mean()表示取平均。
3、计算几何方向
对于每一个低分辨率深度图像块j,计算其几何方向ω:
4、字典训练
将上一步中有相同方向的块放到一个类里,字典的训练分别在每一个类里进 行。对于某个类ω中的低分辨率深度图像、彩色图像和高分辨率深度图像,通过 使其稀疏系数保持一致来约束它们的特征,进一步得到字典:
二、超分辨率重建阶段
超分辨率重建阶段包括三个步骤:图像特征提取、计算几何方向并选择字典 以及约束重建。测试图片为Art,如图3a、图3b.
1、图像特征提取
a.彩色图像轮廓提取:
将低分辨率深度图像插值放大到彩色图像的分辨率大小,对于彩色图像块i:
b.低分辨率深度图像特征提取:
将低分辨率深度图像插值放大到彩色图像分辨率大小,然后用一阶二阶导数 作为高通滤波来表示每个块的特征:
2、计算图像块的几何方向,并选择相应字典。
对于每一个低分辨率深度图像块j,计算其几何方向ω:
计算结果如图4a、图4b,然后利用得到几何方向,选择相应字典。
3、在自回归模型的约束下重建深度图像
a.计算约束项
对于每个低分辨率的图像块,通过自回归模型得到约束项Z:
式中,Zx表示在位置x处的像素值,Ω表示x周围相邻的像素。
EAR(Z)表示自回归项:
式中,N(x)表示与像素x邻近的像素,ax,y表示自回归系数。
b.计算系数:
c.重建深度图像块:
最后将所有的图像块拼接在一起,重叠区域取平均值,就得到了重建后的深 度图像。原图及局部放大图如图5a、图5b、图5c,本发明得到的图像及局部放 大图如图6a、图6b、图6c。
图像质量评价:
现在分别对Art、cones、Laundry、Midd2、Reindeer(如图7)采用本发明提 供的算法与当前主流的几种算法进行比较评价,这些算法分别是双三次插值、 SRF(J.-B.Huang,A.Singh,and N.Ahuja,“Single image super-resolution from transformed self-exemplars,”in Proc.IEEE Conf.Comput.Vis.Pattern Recognit. (CVPR),pp.5197–5206,Jul.2015)、SCSR(J.Yang,J.Wright,T.Huang,and Y.Ma, “Image super-resolutionvia sparse representation,”IEEE Trans.Image Processing, vol.19,no.11.pp.2681-2873,2010)、JESR(J.Li,T.Xue,L.Sun,and J.Liu, “Joint example-based depth mapsuper-resolution,”IEEE Int.Conf.Multimedia Expo(ICME),pp.152-157.2012)。
对图像质量客观评价指标均方根误差:
式中,R表示均方根误差,Xi表示重建后的图像像素值,Yi表示原图像素值,n表 示像素个数。均方根误差越小说明重建效果越好,即重建得到的图像分辨率越高。
表1是本发明与四种主流算法的均方根误差比较,可以看出本发明所得到的 的均方根误差最小。主观比较:如图8(a)-图8(g)、图9(a)-图9(g)、图10(a)- 图10(g)、图11(a)-图11(g),本发明得到的结果有更清晰的轮廓边缘,非纹理区 域平滑性更好。结合客观和主观比较,可以看出本发明得到的深度图像的分辨率 更高,误差更小,纹理轮廓更加清晰。
表1不同算法的客观质量比较
Claims (5)
1.一种基于多方向字典的深度图像超分辨率方法,其特征在于,包括以下步骤:
步骤一:提取彩色图像特征,获得轮廓图;
步骤二:对低分辨率深度图像进行插值,用高通滤波来表示其特征;
步骤三:将低分辨率深度图像进行分块,计算每个图像块的几何方向;
步骤四:进行字典训练;
步骤五:根据步骤三中得到的几何方向,选择字典,重建深度图像;
步骤五的具体操作:首先对于每个低分辨率的图像块,通过自回归模型得到约束项Z:
式中,Zx表示在位置x处的像素值,Ω表示x周围相邻的像素;
EAR(Z)表示自回归项:
式中,N(x)表示与像素x邻近的像素,ax,y表示自回归系数;
然后计算系数:
最后重建深度图像块:
将所有的图像块拼接在一起,重叠区域取平均值,就得到了重建后的深度图像。
5.如权利要求4所述的基于多方向字典的深度图像超分辨率方法,其特征在于,
步骤四的具体操作:步骤三计算得到每个块的几何方向,将具有同一个方向的块收集到一类里;训练集里的高分辨率深度图像的特征可以表示为:
Yi=Yi-mean(Yi) (4)
式中,Yi表示高分辨率深度图像块,mean()表示取平均;
字典的训练在拥有相同方向的每个类里进行,图像块S={S1,S2,…,SM}以及定义的几何方向{θ1,θ2,…,θQ},通过步骤三,将图像块集S分为Q类,即{S1,S2,…,SQ},然后在每一个类里训练一个字典Dω,ω=1,2,…,Q:
式中,A表示系数矩阵,λ为参数,且λ=1;
对于低分辨率深度图像、彩色图像和高分辨率深度图像,通过使其稀疏系数保持一致来约束它们的特征,进一步得到字典:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710825666.4A CN107767357B (zh) | 2017-09-14 | 2017-09-14 | 一种基于多方向字典的深度图像超分辨率方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710825666.4A CN107767357B (zh) | 2017-09-14 | 2017-09-14 | 一种基于多方向字典的深度图像超分辨率方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107767357A CN107767357A (zh) | 2018-03-06 |
CN107767357B true CN107767357B (zh) | 2021-04-09 |
Family
ID=61265176
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710825666.4A Active CN107767357B (zh) | 2017-09-14 | 2017-09-14 | 一种基于多方向字典的深度图像超分辨率方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107767357B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108986027A (zh) * | 2018-06-26 | 2018-12-11 | 大连大学 | 基于改进的联合三边滤波器的深度图像超分辨重建方法 |
US10699430B2 (en) | 2018-10-09 | 2020-06-30 | Industrial Technology Research Institute | Depth estimation apparatus, autonomous vehicle using the same, and depth estimation method thereof |
CN110223230A (zh) * | 2019-05-30 | 2019-09-10 | 华南理工大学 | 一种多前端深度图像超分辨率系统及其数据处理方法 |
CN110322411A (zh) * | 2019-06-27 | 2019-10-11 | Oppo广东移动通信有限公司 | 深度图像的优化方法、终端及存储介质 |
CN112834970B (zh) * | 2020-12-31 | 2022-12-20 | 苏州朗润医疗系统有限公司 | 一种用于磁共振成像的k空间增强提高TOF3D分辨率的方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102722865A (zh) * | 2012-05-22 | 2012-10-10 | 北京工业大学 | 一种超分辨率稀疏重建方法 |
CN102722863A (zh) * | 2012-04-16 | 2012-10-10 | 天津大学 | 采用自回归模型对深度图进行超分辨率重建的方法 |
CN103116880A (zh) * | 2013-01-16 | 2013-05-22 | 杭州电子科技大学 | 一种基于稀疏表示和多残差的图像超分辨率重建方法 |
CN104778671A (zh) * | 2015-04-21 | 2015-07-15 | 重庆大学 | 一种基于sae和稀疏表示的图像超分辨率方法 |
CN104867116A (zh) * | 2015-04-21 | 2015-08-26 | 重庆大学 | 一种基于mca和字典学习的车牌超分辨率重构方法 |
CN104867106A (zh) * | 2015-05-29 | 2015-08-26 | 清华大学深圳研究生院 | 一种深度图超分辨率方法 |
CN105335929A (zh) * | 2015-09-15 | 2016-02-17 | 清华大学深圳研究生院 | 一种深度图超分辨方法 |
CN105513033A (zh) * | 2015-12-07 | 2016-04-20 | 天津大学 | 一种非局部联合稀疏表示的超分辨率重建方法 |
CN105844635A (zh) * | 2016-03-21 | 2016-08-10 | 北京工业大学 | 一种基于结构字典的稀疏表示深度图像重建算法 |
CN106408513A (zh) * | 2016-08-25 | 2017-02-15 | 天津大学 | 深度图超分辨率重建方法 |
-
2017
- 2017-09-14 CN CN201710825666.4A patent/CN107767357B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102722863A (zh) * | 2012-04-16 | 2012-10-10 | 天津大学 | 采用自回归模型对深度图进行超分辨率重建的方法 |
CN102722865A (zh) * | 2012-05-22 | 2012-10-10 | 北京工业大学 | 一种超分辨率稀疏重建方法 |
CN103116880A (zh) * | 2013-01-16 | 2013-05-22 | 杭州电子科技大学 | 一种基于稀疏表示和多残差的图像超分辨率重建方法 |
CN104778671A (zh) * | 2015-04-21 | 2015-07-15 | 重庆大学 | 一种基于sae和稀疏表示的图像超分辨率方法 |
CN104867116A (zh) * | 2015-04-21 | 2015-08-26 | 重庆大学 | 一种基于mca和字典学习的车牌超分辨率重构方法 |
CN104867106A (zh) * | 2015-05-29 | 2015-08-26 | 清华大学深圳研究生院 | 一种深度图超分辨率方法 |
CN105335929A (zh) * | 2015-09-15 | 2016-02-17 | 清华大学深圳研究生院 | 一种深度图超分辨方法 |
CN105513033A (zh) * | 2015-12-07 | 2016-04-20 | 天津大学 | 一种非局部联合稀疏表示的超分辨率重建方法 |
CN105844635A (zh) * | 2016-03-21 | 2016-08-10 | 北京工业大学 | 一种基于结构字典的稀疏表示深度图像重建算法 |
CN106408513A (zh) * | 2016-08-25 | 2017-02-15 | 天津大学 | 深度图超分辨率重建方法 |
Non-Patent Citations (8)
Title |
---|
Color-Guided Depth Recovery From RGB-D Data Using an Adaptive Autoregressive Model;Jingyu Yang等;《IEEE TRANSACTIONS ON IMAGE PROCESSING》;20140831;第23卷(第8期);第3443-3458页 * |
Data-Driven Depth Map Refinement via Multi-scale Sparse Representation;HyeokHyen Kwon等;《2015 IEEE Conference on Computer Vision and Pattern Recognition》;20151015;第159-167页 * |
Depth Recovery Using an Adaptive Color-Guided Auto-Regressive Model;Jingyu Yang等;《ECCV 2012》;20121231;第158-171页 * |
Guided Depth Upsampling via A Cosparse Analysis Model;Xiaojin Gong等;《2014 IEEE Conference on Computer Vision and Pattern Recognition Workshops》;20141231;第738-745页 * |
Joint Example-based Depth Map Super-Resolution;Yanjie Li等;《2012 IEEE International Conference on Multimedia and Expo》;20121231;第152-157页 * |
Undersampled MRI reconstruction with patch-based directional wavelets;Xiaobo Qu等;《Magnetic Resonance Imaging》;20121231;第964-977页 * |
基于过完备字典的鲁棒性单幅图像超分辨率重建模型及算法;徐国明等;《计算机辅助设计与图形学学报》;20121231;第24卷(第12期);第1599-1605页 * |
手部深度图像去噪与超分辨率方法研究;李华阳;《中国优秀硕士学位论文全文数据库 信息科技辑》;20160315(第3期);I138-6595 * |
Also Published As
Publication number | Publication date |
---|---|
CN107767357A (zh) | 2018-03-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107767357B (zh) | 一种基于多方向字典的深度图像超分辨率方法 | |
Anwar et al. | Densely residual laplacian super-resolution | |
CN109064396B (zh) | 一种基于深度成分学习网络的单幅图像超分辨率重建方法 | |
JP4140690B2 (ja) | ピクセル画像から超解像度画像を生成する方法 | |
CN102142137B (zh) | 基于高分辨率字典的稀疏表征图像超分辨重建方法 | |
CN110136062B (zh) | 一种联合语义分割的超分辨率重建方法 | |
CN103871041B (zh) | 基于认知正则化参数构建的图像超分辨率重构方法 | |
CN109272452B (zh) | 小波域中基于集团结构子带共同学习超分辨率网络的方法 | |
CN109272447A (zh) | 一种深度图超分辨率方法 | |
CN111091503A (zh) | 基于深度学习的图像去失焦模糊方法 | |
KR101028628B1 (ko) | 영상 텍스쳐 필터링 방법, 이를 수행하는 프로그램을 기록한 기록매체 및 이를 수행하는 장치 | |
CN111340696B (zh) | 融合仿生视觉机制的卷积神经网络图像超分辨率重建方法 | |
CN114841856A (zh) | 基于深度残差通道空间注意力的密集连接网络的图像超像素重建方法 | |
Chen et al. | Single-image super-resolution using multihypothesis prediction | |
CN116188272B (zh) | 适用于多模糊核的两阶段深度网络图像超分辨率重建方法 | |
Mishra et al. | Self-FuseNet: data free unsupervised remote sensing image super-resolution | |
CN112598604A (zh) | 一种盲脸复原方法及系统 | |
CN112163996A (zh) | 一种基于图像处理的平角视频融合方法 | |
CN111179173A (zh) | 一种基于离散小波变换和坡度融合算法的图像拼接方法 | |
CN114359039A (zh) | 基于知识蒸馏的图像超分方法 | |
CN114359041A (zh) | 一种光场图像空间超分辨率重建方法 | |
CN111696167A (zh) | 自范例学习引导的单张影像超分辨率重构方法 | |
CN108846798A (zh) | 一种图像重建法 | |
Chopade et al. | Single and multi frame image super-resolution and its performance analysis: a comprehensive survey | |
Barman et al. | GPU-accelerated adaptive dictionary learning and sparse representations for multispectral image super-resolution |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |