CN107767357B - 一种基于多方向字典的深度图像超分辨率方法 - Google Patents

一种基于多方向字典的深度图像超分辨率方法 Download PDF

Info

Publication number
CN107767357B
CN107767357B CN201710825666.4A CN201710825666A CN107767357B CN 107767357 B CN107767357 B CN 107767357B CN 201710825666 A CN201710825666 A CN 201710825666A CN 107767357 B CN107767357 B CN 107767357B
Authority
CN
China
Prior art keywords
resolution
image
depth image
low
dictionary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710825666.4A
Other languages
English (en)
Other versions
CN107767357A (zh
Inventor
王瑾
许伟
王志强
朱青
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN201710825666.4A priority Critical patent/CN107767357B/zh
Publication of CN107767357A publication Critical patent/CN107767357A/zh
Application granted granted Critical
Publication of CN107767357B publication Critical patent/CN107767357B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种基于多方向字典的深度图像超分辨率方法,包括以下步骤:步骤一:提取彩色图像特征,获得轮廓图;步骤二:对低分辨率深度图像进行插值,用高通滤波来表示其特征;步骤三:将低分辨率深度图像进行分块,计算每个图像块的几何方向;步骤四:进行字典训练;步骤五:根据步骤三中得到的几何方向,选择字典,重建深度图像。采用本发明的技术方案,使深度图像的分辨率得到增强,边界纹理区域清晰。

Description

一种基于多方向字典的深度图像超分辨率方法
技术领域
本发明涉及计算机图像处理领域,具体涉及一种基于多方向字典的深度图像 超分辨率方法。
背景技术
近些年随着飞行时间相机和微软的Kinect等3D相机的迅猛发展,深度图像 已经广泛应用于低成本的计算机视觉领域,比如机器人导航、增强现实和场景分 析等。然而,受外在条件和设备本身所限,使用这些3D相机得到的深度图像往 往存在着低分辨率、大量噪声以及在一些深度边界结构丢失的问题,导致这些深 度图像不能直接用于深度感知和3D重建。
深度图像超分辨率算法目前已经取得了很大的进展,主要分为两个方面:基 于优化的方法和基于滤波的方法。基于优化的方法可以被视为能量最小化方法, 这种方法的一个标志性工作是,使用马尔科夫随机场来生成高分辨率深度图像。 比如Park等提出了一种基于加权最小二乘法的优化框架,他们用一个附加的边 缘加权方案扩展了正则项(J.Park,H.Kim,Y.-W.Tai,M.S.Brown,and I.Kweon, “High quality depth mapupsampling for 3D-TOF cameras,”in Computer Vision (ICCV),2011IEEEInternational Conference on,2011,pp.1623-1630.)。基于滤波的 方法中,联合双边滤波是一个开创性的方法,自此一系列的滤波器,比如测地线 滤波器、引导滤波器以及它们的扩展版本面世。然而无论是优化的方法还是滤波 的方法得到的深度图像往往存在一些问题,这些问题主要集中于图像边界不清晰 和一些错误的纹理信息。最近,基于学习的深度图像超分辨率算法引起了广泛关 注,这种方法是通过学习大量低分辨率图像和高分辨率图像的相关性,从而来获 得清晰的低分辨率深度图的边界信息,比如Yang等提出了基于稀疏表示的2D 图像超分辨率逼近方法(J.Yang,J.Wright,T.Huang,and Y.Ma,“Imagesuper-resolution via sparse representation,”IEEE Trans.Image Processing,vol.19, no.11.pp.2681-2873,2010.),该方法能从一定程度上提高重建后深度图像的质量,但通过实验可以发现得到的图像纹理边界较为模糊。
综上,现有的深度图像超分辨率算法获得的结果质量较低,纹理边界区域较 为模糊,具有一定的局限性。
发明内容
本发明的目的是克服上述现有技术的缺点,提供一种质量高的深度图像超分 辨率方法,使深度图像的分辨率得到增强,边界纹理区域清晰。
本发明的深度图像超分辨算法是将图像分块进行的,对于每个图像块,通过 计算其几何方向来选择相应的字典,然后结合彩色图像纹理信息来实现超分辨率 重建。在重建过程中,使用自回归模型来加强重建约束来获得高质量的重建结果。
为实现上述目的,本发明采用如下的技术方案:
一种基于多方向字典的深度图像超分辨率方法,包括以下步骤:
步骤一:提取彩色图像特征,获得轮廓图;
步骤二:对低分辨率深度图像进行插值,用高通滤波来表示其特征;
步骤三:将低分辨率深度图像进行分块,计算每个图像块的几何方向;
步骤四:进行字典训练;
步骤五:根据步骤三中得到的几何方向,选择字典,重建深度图像。
作为优选,
步骤一的具体操作:将低分辨率深度图像插值放大到彩色图像的分辨率大 小,对于每个彩色图像块:
Figure BDA0001407459250000021
式中,对于图像块i,Ci表示彩色图像的轮廓图的块,▽表示边缘提取操作,
Figure BDA0001407459250000022
表示彩色图像块,
Figure BDA0001407459250000023
表示插值后的深度图像块。
作为优选,
步骤二的具体操作:首先将低分辨率深度图像插值放大到彩色图像分辨率大 小,然后用一阶二阶导数作为高通滤波来表示每个块的特征:
Figure BDA0001407459250000024
式中,Li表示低分辨率图像块的特征,
Figure BDA0001407459250000025
表示插值后的深度图像块。
作为优选,
步骤三的具体操作:对于低分辨率深度图像块j,计算其几何方向ω:
Figure BDA0001407459250000031
式中,Gω表示沿着已定义的几何方向重新排列像素值,{θ12,…,θQ}表示自 定义的几何方向,WT表示一维正交Haar小波变换,
Figure BDA0001407459250000035
表示前25%个最大的小 波系数,xj表示低分辨率深度图像块。
作为优选
步骤四的具体操作:首先收集足够多的高分辨率深度图像和对应的彩色图 像,作为字典训练的训练集,其中低分辨率的深度图像由高分辨率的深度图像通 过下采样获得。根据步骤一提取得到彩色图像轮廓图,步骤二得到低分辨率深度 图的特征,步骤三计算得到每个块的几何方向,将具有同一个方向的块收集到一 类里。训练集里的高分辨率深度图像的特征可以表示为:
Yi=Yi-mean(Yi) (4)
式中,Yi表示高分辨率深度图像块,mean()表示取平均。
字典的训练在拥有相同方向的每个类里进行,图像块S={S1,S2,…,SM}以及定 义的几何方向{θ12,…,θQ},通过步骤三,将图像块集S分为Q类,即 {S1,S2,…,SQ},然后在每一个类里训练一个字典Dω(ω=1,2,…,Q):
Figure BDA0001407459250000032
式中,A表示系数矩阵,λ为参数,且λ=1。
对于低分辨率深度图像、彩色图像和高分辨率深度图像,通过使其稀疏系数 保持一致来约束它们的特征,进一步得到字典:
Figure BDA0001407459250000033
式中,
Figure RE-GDA0001552740080000035
分别表示相应于低分辨率深度图(l)、彩色图像(c)和高分辨 率深度图(h)在ω方向的字典,λl,λc,λh及λ为权重参数,其参数均等于1。
作为优选,
步骤五的具体操作:首先对于每个低分辨率的图像块,通过自回归模型得到 约束项Z:
Figure BDA0001407459250000041
式中,η是权重参数,且η=0.01,
Figure BDA0001407459250000042
是数据保真项
Figure BDA0001407459250000043
Figure BDA0001407459250000044
式中,Zx表示在位置x处的像素值,Ω表示x周围相邻的像素。
EAR(Z)表示自回归项:
Figure RE-GDA0001552740080000045
式中,N(x)表示与像素x邻近的像素,ax,y表示自回归系数。
然后计算系数:
Figure BDA0001407459250000046
式中,
Figure BDA0001407459250000047
是根据图像块的几何方向选择的字典,λl,λc,λh及λ为权重参 数。
最后重建深度图像块:
Figure BDA0001407459250000048
将所有的图像块拼接在一起,重叠区域取平均值,就得到了重建后的深度图像。
与现有技术相比,本发明通过计算图像块的几何方向来选择相应的字典,再 用相同的稀疏系数来建立起低分辨率深度图、彩色图像和高分辨率深度图三者之 间的关系,在重建过程中使用自回归模型增加约束。其有益的效果是:深度图像 的分辨率得到显著的提升,纹理边界细节更加清晰,非纹理区域有较好的空间平 滑性。
附图说明:
图1为深度图像超分辨率框架图;
图2为部分训练图像;
图3a为测试图片ART;
图3b为图3a的对应的真实图像;
图4a第一深度图像的几何方向;
图4b第二深度图像的几何方向;
图5a为原图;
图5b为图5a的第一处局部放大图;
图5c为图5a的第二处局部放大图
图6a本发明得到的图像;
图6b为图6a的第一处局部放大图;
图6c为图6a的第二处局部放大图;
图7测试图片;
图8(a)-图8(g)为Art不同算法重建结果主观质量比较(第一图片的局部1);其中,图8(a)为第一局部原图像、图8(b)本发明的图像、图8(c)JESR图像、图8 (d)SCSR图像、图8(e)SRF图像、图8(f)双三次插值图像,图8(g)为第一图片;
图9(a)-图9(g)为Art不同算法重建结果主观质量比较(第一图片的局部2);其中,图9(a)为第二局部原图像、图9(b)本发明的图像、图9(c)JESR图像、图9 (d)SCSR图像、图9(e)SRF图像、图9(f)双三次插值图像,图9(g)为第一图片;
图10(a)-图10(g)为Reindeer不同算法重建结果主观质量比较(第二图片的局部1);其中,图10(a)为第一局部原图像、图10(b)本发明的图像、图10(c)JESR 图像、图10(d)SCSR图像、图10(e)SRF图像、图10(f)双三次插值图像,图10 (g)为第二图片;
图11(a)-图11(g)为Reindeer不同算法重建结果主观质量比较(第二图片的局部2);其中,图11(a)为第二局部原图像、图11(b)本发明的图像、图11(c)JESR图 像、图11(d)SCSR图像、图11(e)SRF图像、图11(f)双三次插值图像,图11(g) 为第二图片。
具体实施方式:
为了能够更清楚地描述本发明的技术内容,下面结合具体实例来进一步的描 述:
本发明的框架图如图1,具体实施过程分为两个阶段,字典学习阶段和超分 辨率重建阶段。
一、字典学习阶段
字典学习阶段分为四个步骤:收集训练图像集、图像特征提取、计算几何方 向以及字典训练。
1、收集训练图像
首先从标准图像中收集足够多的高分辨率深度图像和对应的彩色图像作为 字典训练的训练集,如图2,其中低分辨率的深度图像由高分辨率的深度图像下 采样得到。
2、图像特征提取
a.彩色图像轮廓提取:
将低分辨率深度图像插值放大到彩色图像的分辨率大小,对于每个彩色图像 块i:
Figure BDA0001407459250000061
式中,Ci表示彩色图像的轮廓图的块,▽表示边缘提取操作,
Figure BDA0001407459250000062
表示彩色图像块,
Figure BDA0001407459250000063
表示插值后的深度图像块。
b.低分辨率深度图像特征提取:
将低分辨率深度图像插值放大到彩色图像分辨率大小,然后用一阶二阶导数 作为高通滤波来表示每个块的特征:
Figure BDA0001407459250000064
式中,Li表示低分辨率图像块的特征,
Figure BDA0001407459250000065
表示插值后的深度图像块。
c.高分辨率深度图像特征提取:
Yi=Yi-mean(Yi) (3)
式中,Yi表示高分辨率深度图像块,mean()表示取平均。
3、计算几何方向
对于每一个低分辨率深度图像块j,计算其几何方向ω:
Figure BDA0001407459250000066
式中,Gω表示沿着已定义的几何方向重新排列像素值,{θ12,…,θQ}表示自定义的几何方向,WT表示一维正交Haar小波变换,
Figure BDA0001407459250000067
表示前25%个最大的小波系 数,xj表示低分辨率深度图像块。
4、字典训练
将上一步中有相同方向的块放到一个类里,字典的训练分别在每一个类里进 行。对于某个类ω中的低分辨率深度图像、彩色图像和高分辨率深度图像,通过 使其稀疏系数保持一致来约束它们的特征,进一步得到字典:
Figure BDA0001407459250000071
式中,
Figure RE-GDA0001552740080000072
分别表示相应于低分辨率深度图(l)、彩色图像(c)和高分辨 率深度图(h)在ω方向的字典,λl,λc,λh及λ为权重参数(实验设置这些参数 都等于1),可采用KSVD字典解决。
二、超分辨率重建阶段
超分辨率重建阶段包括三个步骤:图像特征提取、计算几何方向并选择字典 以及约束重建。测试图片为Art,如图3a、图3b.
1、图像特征提取
a.彩色图像轮廓提取:
将低分辨率深度图像插值放大到彩色图像的分辨率大小,对于彩色图像块i:
Figure BDA0001407459250000073
式中,Ci表示彩色图像的轮廓图的块,▽表示边缘提取操作,
Figure BDA0001407459250000074
表示彩色图像块,
Figure BDA0001407459250000075
表示插值后的深度图像块。
b.低分辨率深度图像特征提取:
将低分辨率深度图像插值放大到彩色图像分辨率大小,然后用一阶二阶导数 作为高通滤波来表示每个块的特征:
Figure BDA0001407459250000076
式中,Li表示低分辨率图像块的特征,
Figure BDA0001407459250000077
表示插值后的深度图像块。
2、计算图像块的几何方向,并选择相应字典。
对于每一个低分辨率深度图像块j,计算其几何方向ω:
Figure BDA0001407459250000078
式中,Gω表示沿着已定义的几何方向重新排列像素值,{θ12,…,θQ}表示自定义的几何方向,WT表示一维正交Haar小波变换,
Figure BDA0001407459250000081
表示前25%个最大的小波系 数,xj表示低分辨率深度图像块。
计算结果如图4a、图4b,然后利用得到几何方向,选择相应字典。
3、在自回归模型的约束下重建深度图像
a.计算约束项
对于每个低分辨率的图像块,通过自回归模型得到约束项Z:
Figure BDA0001407459250000082
式中,η是参数(实验设置η=0.01),
Figure BDA0001407459250000083
是数据保真项
Figure BDA0001407459250000084
Figure BDA0001407459250000085
式中,Zx表示在位置x处的像素值,Ω表示x周围相邻的像素。
EAR(Z)表示自回归项:
Figure RE-GDA0001552740080000086
式中,N(x)表示与像素x邻近的像素,ax,y表示自回归系数。
b.计算系数:
Figure BDA0001407459250000087
式中,
Figure BDA0001407459250000088
是根据图像块的几何方向选择的字典,λl,λc,λh及λ为参数(实 验设置这些参数都等于1)。
c.重建深度图像块:
Figure BDA0001407459250000089
最后将所有的图像块拼接在一起,重叠区域取平均值,就得到了重建后的深 度图像。原图及局部放大图如图5a、图5b、图5c,本发明得到的图像及局部放 大图如图6a、图6b、图6c。
图像质量评价:
现在分别对Art、cones、Laundry、Midd2、Reindeer(如图7)采用本发明提 供的算法与当前主流的几种算法进行比较评价,这些算法分别是双三次插值、 SRF(J.-B.Huang,A.Singh,and N.Ahuja,“Single image super-resolution from transformed self-exemplars,”in Proc.IEEE Conf.Comput.Vis.Pattern Recognit. (CVPR),pp.5197–5206,Jul.2015)、SCSR(J.Yang,J.Wright,T.Huang,and Y.Ma, “Image super-resolutionvia sparse representation,”IEEE Trans.Image Processing, vol.19,no.11.pp.2681-2873,2010)、JESR(J.Li,T.Xue,L.Sun,and J.Liu, “Joint example-based depth mapsuper-resolution,”IEEE Int.Conf.Multimedia Expo(ICME),pp.152-157.2012)。
对图像质量客观评价指标均方根误差:
Figure BDA0001407459250000091
式中,R表示均方根误差,Xi表示重建后的图像像素值,Yi表示原图像素值,n表 示像素个数。均方根误差越小说明重建效果越好,即重建得到的图像分辨率越高。
表1是本发明与四种主流算法的均方根误差比较,可以看出本发明所得到的 的均方根误差最小。主观比较:如图8(a)-图8(g)、图9(a)-图9(g)、图10(a)- 图10(g)、图11(a)-图11(g),本发明得到的结果有更清晰的轮廓边缘,非纹理区 域平滑性更好。结合客观和主观比较,可以看出本发明得到的深度图像的分辨率 更高,误差更小,纹理轮廓更加清晰。
表1不同算法的客观质量比较
Figure BDA0001407459250000092

Claims (5)

1.一种基于多方向字典的深度图像超分辨率方法,其特征在于,包括以下步骤:
步骤一:提取彩色图像特征,获得轮廓图;
步骤二:对低分辨率深度图像进行插值,用高通滤波来表示其特征;
步骤三:将低分辨率深度图像进行分块,计算每个图像块的几何方向;
步骤四:进行字典训练;
步骤五:根据步骤三中得到的几何方向,选择字典,重建深度图像;
步骤五的具体操作:首先对于每个低分辨率的图像块,通过自回归模型得到约束项Z:
Figure FDA0002955599020000011
式中,η是权重参数,且η=0.01,函数
Figure FDA0002955599020000012
是数据保真项,
Figure FDA0002955599020000013
Figure FDA0002955599020000014
式中,Zx表示在位置x处的像素值,Ω表示x周围相邻的像素;
EAR(Z)表示自回归项:
Figure FDA0002955599020000015
式中,N(x)表示与像素x邻近的像素,ax,y表示自回归系数;
然后计算系数:
Figure FDA0002955599020000016
式中,
Figure FDA0002955599020000017
是根据图像块的几何方向选择的字典,λl,λc,λh及λ为参数;
最后重建深度图像块:
Figure FDA0002955599020000018
将所有的图像块拼接在一起,重叠区域取平均值,就得到了重建后的深度图像。
2.如权利要求1所述的基于多方向字典的深度图像超分辨率方法,其特征在于,
步骤一的具体操作:将低分辨率深度图像插值放大到彩色图像的分辨率大小,对于每个彩色图像块:
Figure FDA0002955599020000019
式中,对于图像块i,Ci表示彩色图像的轮廓图的块,▽表示边缘提取操作,
Figure FDA00029555990200000110
表示彩色图像块,
Figure FDA0002955599020000021
表示插值后的深度图像块。
3.如权利要求2所述的基于多方向字典的深度图像超分辨率方法,其特征在于,
步骤二的具体操作:首先将低分辨率深度图像插值放大到彩色图像分辨率大小,然后用一阶二阶导数作为高通滤波来表示每个块的特征:
Figure FDA0002955599020000022
式中,Li表示低分辨率图像块的特征,
Figure FDA0002955599020000023
表示插值后的深度图像块。
4.如权利要求3所述的基于多方向字典的深度图像超分辨率方法,其特征在于,
步骤三的具体操作:对于低分辨率深度图像块j,计算其几何方向ω:
Figure FDA0002955599020000024
式中,Gω表示沿着已定义的几何方向重新排列像素值,{θ12,…,θQ}表示自定义的几何方向,WT表示一维正交Haar小波变换,
Figure FDA0002955599020000025
表示前25%个最大的小波系数,xj表示低分辨率深度图像块。
5.如权利要求4所述的基于多方向字典的深度图像超分辨率方法,其特征在于,
步骤四的具体操作:步骤三计算得到每个块的几何方向,将具有同一个方向的块收集到一类里;训练集里的高分辨率深度图像的特征可以表示为:
Yi=Yi-mean(Yi) (4)
式中,Yi表示高分辨率深度图像块,mean()表示取平均;
字典的训练在拥有相同方向的每个类里进行,图像块S={S1,S2,…,SM}以及定义的几何方向{θ12,…,θQ},通过步骤三,将图像块集S分为Q类,即{S1,S2,…,SQ},然后在每一个类里训练一个字典Dω,ω=1,2,…,Q:
Figure FDA0002955599020000026
式中,A表示系数矩阵,λ为参数,且λ=1;
对于低分辨率深度图像、彩色图像和高分辨率深度图像,通过使其稀疏系数保持一致来约束它们的特征,进一步得到字典:
Figure FDA0002955599020000027
式中,
Figure FDA0002955599020000031
分别表示相应于低分辨率深度图l、彩色图像c和高分辨率深度图h在!方向的字典,λl,λc,λh及λ为权重参数,其参数均等于1。
CN201710825666.4A 2017-09-14 2017-09-14 一种基于多方向字典的深度图像超分辨率方法 Active CN107767357B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710825666.4A CN107767357B (zh) 2017-09-14 2017-09-14 一种基于多方向字典的深度图像超分辨率方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710825666.4A CN107767357B (zh) 2017-09-14 2017-09-14 一种基于多方向字典的深度图像超分辨率方法

Publications (2)

Publication Number Publication Date
CN107767357A CN107767357A (zh) 2018-03-06
CN107767357B true CN107767357B (zh) 2021-04-09

Family

ID=61265176

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710825666.4A Active CN107767357B (zh) 2017-09-14 2017-09-14 一种基于多方向字典的深度图像超分辨率方法

Country Status (1)

Country Link
CN (1) CN107767357B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108986027A (zh) * 2018-06-26 2018-12-11 大连大学 基于改进的联合三边滤波器的深度图像超分辨重建方法
US10699430B2 (en) 2018-10-09 2020-06-30 Industrial Technology Research Institute Depth estimation apparatus, autonomous vehicle using the same, and depth estimation method thereof
CN110223230A (zh) * 2019-05-30 2019-09-10 华南理工大学 一种多前端深度图像超分辨率系统及其数据处理方法
CN110322411A (zh) * 2019-06-27 2019-10-11 Oppo广东移动通信有限公司 深度图像的优化方法、终端及存储介质
CN112834970B (zh) * 2020-12-31 2022-12-20 苏州朗润医疗系统有限公司 一种用于磁共振成像的k空间增强提高TOF3D分辨率的方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102722865A (zh) * 2012-05-22 2012-10-10 北京工业大学 一种超分辨率稀疏重建方法
CN102722863A (zh) * 2012-04-16 2012-10-10 天津大学 采用自回归模型对深度图进行超分辨率重建的方法
CN103116880A (zh) * 2013-01-16 2013-05-22 杭州电子科技大学 一种基于稀疏表示和多残差的图像超分辨率重建方法
CN104778671A (zh) * 2015-04-21 2015-07-15 重庆大学 一种基于sae和稀疏表示的图像超分辨率方法
CN104867116A (zh) * 2015-04-21 2015-08-26 重庆大学 一种基于mca和字典学习的车牌超分辨率重构方法
CN104867106A (zh) * 2015-05-29 2015-08-26 清华大学深圳研究生院 一种深度图超分辨率方法
CN105335929A (zh) * 2015-09-15 2016-02-17 清华大学深圳研究生院 一种深度图超分辨方法
CN105513033A (zh) * 2015-12-07 2016-04-20 天津大学 一种非局部联合稀疏表示的超分辨率重建方法
CN105844635A (zh) * 2016-03-21 2016-08-10 北京工业大学 一种基于结构字典的稀疏表示深度图像重建算法
CN106408513A (zh) * 2016-08-25 2017-02-15 天津大学 深度图超分辨率重建方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102722863A (zh) * 2012-04-16 2012-10-10 天津大学 采用自回归模型对深度图进行超分辨率重建的方法
CN102722865A (zh) * 2012-05-22 2012-10-10 北京工业大学 一种超分辨率稀疏重建方法
CN103116880A (zh) * 2013-01-16 2013-05-22 杭州电子科技大学 一种基于稀疏表示和多残差的图像超分辨率重建方法
CN104778671A (zh) * 2015-04-21 2015-07-15 重庆大学 一种基于sae和稀疏表示的图像超分辨率方法
CN104867116A (zh) * 2015-04-21 2015-08-26 重庆大学 一种基于mca和字典学习的车牌超分辨率重构方法
CN104867106A (zh) * 2015-05-29 2015-08-26 清华大学深圳研究生院 一种深度图超分辨率方法
CN105335929A (zh) * 2015-09-15 2016-02-17 清华大学深圳研究生院 一种深度图超分辨方法
CN105513033A (zh) * 2015-12-07 2016-04-20 天津大学 一种非局部联合稀疏表示的超分辨率重建方法
CN105844635A (zh) * 2016-03-21 2016-08-10 北京工业大学 一种基于结构字典的稀疏表示深度图像重建算法
CN106408513A (zh) * 2016-08-25 2017-02-15 天津大学 深度图超分辨率重建方法

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
Color-Guided Depth Recovery From RGB-D Data Using an Adaptive Autoregressive Model;Jingyu Yang等;《IEEE TRANSACTIONS ON IMAGE PROCESSING》;20140831;第23卷(第8期);第3443-3458页 *
Data-Driven Depth Map Refinement via Multi-scale Sparse Representation;HyeokHyen Kwon等;《2015 IEEE Conference on Computer Vision and Pattern Recognition》;20151015;第159-167页 *
Depth Recovery Using an Adaptive Color-Guided Auto-Regressive Model;Jingyu Yang等;《ECCV 2012》;20121231;第158-171页 *
Guided Depth Upsampling via A Cosparse Analysis Model;Xiaojin Gong等;《2014 IEEE Conference on Computer Vision and Pattern Recognition Workshops》;20141231;第738-745页 *
Joint Example-based Depth Map Super-Resolution;Yanjie Li等;《2012 IEEE International Conference on Multimedia and Expo》;20121231;第152-157页 *
Undersampled MRI reconstruction with patch-based directional wavelets;Xiaobo Qu等;《Magnetic Resonance Imaging》;20121231;第964-977页 *
基于过完备字典的鲁棒性单幅图像超分辨率重建模型及算法;徐国明等;《计算机辅助设计与图形学学报》;20121231;第24卷(第12期);第1599-1605页 *
手部深度图像去噪与超分辨率方法研究;李华阳;《中国优秀硕士学位论文全文数据库 信息科技辑》;20160315(第3期);I138-6595 *

Also Published As

Publication number Publication date
CN107767357A (zh) 2018-03-06

Similar Documents

Publication Publication Date Title
CN107767357B (zh) 一种基于多方向字典的深度图像超分辨率方法
Anwar et al. Densely residual laplacian super-resolution
CN109064396B (zh) 一种基于深度成分学习网络的单幅图像超分辨率重建方法
JP4140690B2 (ja) ピクセル画像から超解像度画像を生成する方法
CN102142137B (zh) 基于高分辨率字典的稀疏表征图像超分辨重建方法
CN110136062B (zh) 一种联合语义分割的超分辨率重建方法
CN103871041B (zh) 基于认知正则化参数构建的图像超分辨率重构方法
CN109272452B (zh) 小波域中基于集团结构子带共同学习超分辨率网络的方法
CN109272447A (zh) 一种深度图超分辨率方法
CN111091503A (zh) 基于深度学习的图像去失焦模糊方法
KR101028628B1 (ko) 영상 텍스쳐 필터링 방법, 이를 수행하는 프로그램을 기록한 기록매체 및 이를 수행하는 장치
CN111340696B (zh) 融合仿生视觉机制的卷积神经网络图像超分辨率重建方法
CN114841856A (zh) 基于深度残差通道空间注意力的密集连接网络的图像超像素重建方法
Chen et al. Single-image super-resolution using multihypothesis prediction
CN116188272B (zh) 适用于多模糊核的两阶段深度网络图像超分辨率重建方法
Mishra et al. Self-FuseNet: data free unsupervised remote sensing image super-resolution
CN112598604A (zh) 一种盲脸复原方法及系统
CN112163996A (zh) 一种基于图像处理的平角视频融合方法
CN111179173A (zh) 一种基于离散小波变换和坡度融合算法的图像拼接方法
CN114359039A (zh) 基于知识蒸馏的图像超分方法
CN114359041A (zh) 一种光场图像空间超分辨率重建方法
CN111696167A (zh) 自范例学习引导的单张影像超分辨率重构方法
CN108846798A (zh) 一种图像重建法
Chopade et al. Single and multi frame image super-resolution and its performance analysis: a comprehensive survey
Barman et al. GPU-accelerated adaptive dictionary learning and sparse representations for multispectral image super-resolution

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant