CN107977930A - 一种图像超分辨方法及其系统 - Google Patents
一种图像超分辨方法及其系统 Download PDFInfo
- Publication number
- CN107977930A CN107977930A CN201711314508.9A CN201711314508A CN107977930A CN 107977930 A CN107977930 A CN 107977930A CN 201711314508 A CN201711314508 A CN 201711314508A CN 107977930 A CN107977930 A CN 107977930A
- Authority
- CN
- China
- Prior art keywords
- picture
- resolution
- image
- loss function
- convolutional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000012549 training Methods 0.000 claims abstract description 21
- 238000000605 extraction Methods 0.000 claims abstract description 9
- 239000013598 vector Substances 0.000 claims description 40
- 238000013527 convolutional neural network Methods 0.000 claims description 15
- 238000004422 calculation algorithm Methods 0.000 claims description 7
- 238000006243 chemical reaction Methods 0.000 claims description 7
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 238000012546 transfer Methods 0.000 claims description 4
- 239000012141 concentrate Substances 0.000 claims description 3
- 239000000203 mixture Substances 0.000 claims description 2
- 238000005086 pumping Methods 0.000 claims 1
- 238000005516 engineering process Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000010008 shearing Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20228—Disparity calculation for image-based rendering
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
Abstract
本申请揭示了一种图片超分辨方法,包括如下步骤:对输入图片进行预处理;使用卷积网络实现输入图片像素块的抽取和表示;使用卷积网络获得输入图片的图像细节差值;使用一个卷积层实现图片重建。该图片超分辨方法训练卷积网络只学习图片细节,从而减少了信息冗余;采用梯度剪切,把梯度控制在一定范围之内,防止梯度爆炸;进一步的,对输入图片外围进行边界填充操作,从而保证图片边缘像素也能够正确的学习出图像细节,并移除超分辨计算中通常使用的池化层,确保网络输入和输出维度一致。
Description
技术领域
本申请涉及图像处理领域,尤其涉及一种图像超分辨方法及其系统。
背景技术
超分辨技术是指将低分辨率(Low Resolution,LR)的图像通过一定的算法转化为高分辨率(High Resolution,HR)的图像。由于高分辨率图像具有更高的像素密度,更多的细节信息,更细腻的画质,因此受到人们的普通欢迎。
单张图片的超分辨技术是利用一张低分辨率的图片,使用转换算法将其转换为一张高分辨率的图片。这种转换在计算机视觉领域被广泛应用,比如安全监控领域、医学领域、图像传输领域等等,当需要看到图像中更多的细节信息时,均会使用此种转换技术。
现有的转换技术包括插值法、采样法、利用图片的先验知识或者内部图块重现的方法。进一步地,转换效果更好的现有方法还包括学习类模型的转换方法、临间嵌入法、稀疏编码方法等等,其中随机森林和卷积神经网络也被应用于该领域,从而使得转换效果大大提升。
但是现有的基于神经网络的图像超分辨率技术存在训练冗余大,只适用于单一尺度的问题,从而使得计算量急剧增加,在造成计算浪费的同时,使得其实际应用也受到了限制。
发明内容
本申请的目的在于提供一种图像超分辨率方法及其系统,从而实现一种性能更好,训练速度更快,并且多尺度,可实用的图像重建方法及其重建系统。
基于此,本申请提出一种图片超分辨方法,包括如下步骤:
对输入图片进行预处理;
使用卷积网络实现输入图片像素块的抽取和表示;
使用卷积网络获得输入图片的图像细节差值;
使用一个卷积层实现图片重建。
优选的,其中使用卷积网络实现输入图片像素块的抽取和表示包括如下子步骤:
使用该卷积网络的前i层抽取输入图片的像素块;
将抽取的像素块表示为高维向量,多个高维向量组成高维向量组;
其中卷积网络具有N层,i为小于N的整数。
优选的,其中使用残差卷积网络获得输入图片的图像细节差值。
优选的,其中对输入图片进行预处理包括如下子步骤:
输入低分辨率图片;
读取将要获得的高分辨率图片的尺寸;
将低分辨率输入图片基于二次立方插值进行放大,使得低分辨率输入图片和将要输出图片的具有一样的尺寸。
优选的,其中使用一个卷积层实现图片重建包括使用一个卷积层将图像差值与低分辨率输入图片相融合,得到高分辨率图片。
优选的,其中对输入图片预处理包括:对输入图片外围进行边界填充操作。
进一步的,本申请还提出一种构建卷积网络的方法,包括如下步骤:
构建样本训练库;
从样本训练库中读取一组低分辨率图片以及其对应的高分辨率图片;
根据低分辨率图片以及其对应的高分辨率图片计算损失函数;
根据损失函数利用反向传播算法更新卷积神经网络中各节点的权重;
循环执行上述除构建样本训练库之外的所有步骤,直到所述卷积神经网络在所述训练库上收敛或者达到预定的循环次数。
优选的,其中根据低分辨率图片以及其对应的高分辨率图片计算损失函数包括如下子步骤:
将低分辨率图片映射为一个图像特征向量,从而获得低分辨率图像特征向量集,并将低分辨率图片对应的高分辨率图片映射为一个图像特征向量,从而获得高分辨率图像特征向量集;
为低分辨率图像特征向量集中的每个图像特征向量计算实际图片差值;
使用如下公式计算实际图片差值r:
r=y-x 公式一
其中y是转换后的高分辨率图片的特征向量,x是转换前的低分辨率图片的特征向量;
依据实际图片差值和神经网络预测出的图片差值计算损失函数。
优选的,其中使用如下公式计算单个图片的损失函数s:
s=[r-f(x)]2/2 公式二
其中f(x)是神经网络预测出的图片差值;
使用如下公式计算损失函数:
损失函数S是m张图片的损失函数s的平均值,其中低分辨率图像特征向量集和高分辨率图像特征向量集中均有相同维度的图像特征向量。
优选的,其中根据损失函数利用反向传播算法更新卷积神经网络中各节点的权重包括如下子步骤:
将得到的损失函数进行反向传递,计算出各个层的参数对应的梯度;
将参数沿着梯度的反方向进行更新,从而获得每个权重的更新量;
获得所有权重的梯度的平方和的根T;
如果T大于最大阈值M,则进一步求缩放因子Y;否则不改变现有节点的梯度;
Y=M/T 公式四;
其中最大阈值M是预先设定的;
将所有的权重梯度乘以缩放因子Y,获得新的权重梯度;
使用新的权重梯度更新卷积神经网络中各节点的权重。
本申请具有如下有益技术效果:
1、训练卷积网络只学习图片细节,从而减少了信息冗余;
2、采用梯度剪切,把梯度控制在一定范围之内,防止梯度爆炸;
3、对输入图片外围进行边界填充操作,从而保证图片边缘像素也能够正确的学习出图像细节。
4、移除超分辨计算中通常使用的池化层,确保网络输入和输出维度一致。
5、使用残差卷积网络获取图像特征。残差网络大大减轻了梯度弥散问题,从而使网络可以做的更深,学习到更丰富的图像信息;
附图说明
图1示出了图片超分辨方法的主流程图;
图2示出了卷积网络的训练方法。
具体实施方式
下面将结合本申请实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请通过预先构建的卷积网络,对输入的低分辨率图片进行处理,预测出该低分辨率图片的图片细节,将获得的图片细节与低分辨率图片相融合,从而获得与之对应的高分辨率图片。
实施例1
图1示出了该方法的主流程图,包括如下步骤:
步骤S110、对输入图片进行预处理。
预处理包括对输入图片进行放大。
包括如下子步骤:
步骤S1101、输入低分辨率图片;
步骤S1102、读取将要获得的高分辨率图片的尺寸;
步骤S1103、将低分辨率输入图片基于二次立方插值进行放大,使得低分辨率输入图片和将要输出图片的具有一样的尺寸。
步骤S120、使用卷积网络实现输入图片像素块的抽取和表示。
预先构建N(N为大于1的整数)层的卷积网络,使用卷积网络实现输入图片像素块的抽取和表示,包括如下子步骤:
步骤S1201、使用该卷积网络的前i(i为小于N的整数)层抽取输入图片的像素块。
步骤S1202、将抽取的像素块表示为高维向量,多个高维向量组成高维向量组。
步骤S130、使用卷积网络获得输入图片的图像细节差值。
使用卷积网络的后N-i层完成对图像信息细节即图像细节差值的生成。包括将步骤S1202中获得的每个高维向量映射为另一个高维向量,其中映射出的高维向量包括一组特征映射,通过向量的映射,重建图像细节差值。
进一步地,使用残差卷积网络获得输入图片的图像细节差值。由于残差卷积网络增加了网络深度,从而可以学习到更丰富的图像信息。
其中残差卷积网络使用本领域公知的构造即可。
步骤S140、使用一个卷积层实现图片重建。
使用一个卷积层将非线性映射的结果输出即图像细节与低分辨率输入图片相融合,得到高分辨率图片。
实施例2
以上描述了如何使用卷积网络实现低分辨率图片转换为高分辨率图片,在当前的深度网络训练中,由于需要利用周围像素去推断中心像素,因此每当增加一个卷积网络的卷积层时,特征图的大小就会减小。例如:输入图片的尺寸是(n+1)x(n+1),网络的感受野是nxn的时候,输出图片将会是1x1,其中感受野是指卷积神经网络每一层输出的特征图(feature map)上的像素点在原始图像上映射的区域大小。
这种处理方式使得图像边界上的像素不能利用周围像素,现在的处理方法是将边界像素剪切。这显然不适合在图片的轴向区域非常大的时候,因为这时,把周围像素剪切后最终剩下的图就太小从而没有实际的价值了。为了克服此缺陷,使用如下步骤:
上述步骤S110的对输入图片预处理还包括:对输入图片外围进行边界填充操作。例如使用补零操作,对输入图片外围进行补零操作,也可进行其他操作,只要实现边界填充即可。
对输入图片外围进行边界填充的操作保证了靠近输入图片边缘的像素在使用卷机网络做超分辨运算时依然会被包含在内。
实施例3
以上通过实施例1和实施例2描述了图像超分辨方法,实现了将低分辨率图片转化为高分辨率图片,以下结合附图介绍上述实施例1中使用的卷积网络的训练方法,如图2所示,包括如下步骤:
步骤S210、构建样本训练库;
样本训练库中包括多组训练样例,每组训练样例中包含一张低分辨率图片x和一张与该低分辨率图片x对应的高分辨率图片y。
步骤S220、从样本训练库中读取一组低分辨率图片以及其对应的高分辨率图片。
步骤S230、根据低分辨率图片和高分辨率图片计算损失函数;包括如下子步骤:
步骤S2301、将低分辨率图片映射为一个图像特征向量,从而获得低分辨率图像特征向量集,并将低分辨率图片对应的高分辨率图片映射为一个图像特征向量,从而获得高分辨率图像特征向量集;
进一步的,可首先对低分辨率图片外围进行边界填充操作,再将其映射为图像特征向量。
假设获得的低分辨率图像特征向量集和高分辨率图像特征向量集中均有m个图像特征向量。
步骤S2302、为低分辨率图像特征向量集中的每个图像特征向量计算实际图片差值;
使用如下公式计算实际图片差值r:
r=y-x 公式一
其中y是转换后的高分辨率图片的特征向量,x是转换前的低分辨率图片的特征向量。
步骤S2303、依据实际图片差值和神经网络预测出的图片差值计算损失函数。
使用如下公式计算单个图片的损失函数s:
s=[r-f(x)]2/2 公式二
其中f(x)是神经网络预测出的图片差值。
使用如下公式计算损失函数
损失函数是m张图片的损失函数s的平均值,其中低分辨率图像特征向量集和高分辨率图像特征向量集中均有相同维度的图像特征向量。
步骤S240、根据损失函数利用反向传播算法更新卷积神经网络中各节点的权重。包括如下子步骤:
步骤S2401,将得到的损失函数进行反向传递,计算出各个层的参数对应的梯度;
步骤S2402、将参数沿着梯度的反方向进行更新,从而获得每个权重的梯度。
步骤S2403、获得所有权重的梯度的平方和T;
步骤S2403、如果T大于最大阈值M,则进一步求缩放因子Y;否则不改变现有节点的梯度。
Y=M/T 公式四;
其中最大阈值M是预先设定的。
步骤S2404、将所有的权重梯度乘以缩放因子Y,获得新的权重梯度。
步骤S2405、使用新的权重梯度更新卷积神经网络中各节点的权重。
采用此种自适应梯度,从而使得卷机网络收敛加快。
步骤S250、循环执行上述步骤S220-S240,直到所述卷积神经网络在所述训练库上收敛或者达到预定的循环次数。
利用损失函数和自适应梯度,从而使得卷积神经网络获得较快的收敛效率。
本申请通过使用图片差值r训练卷积神经网络,使得在卷积网络工作时仅学习图片细节,即图片差值,减少了信息冗余。
这里本发明的描述和应用是说明性的,并非想将本发明的范围限制在上述实施例中。这里所披露的实施例的变形和改变是可能的,对于那些本领域的普通技术人员来说实施例的替换和等效的各种部件是公知的。本领域技术人员应该清楚的是,在不脱离本发明的精神或本质特征的情况下,本发明可以以其它形式、结构、布置、比例,以及用其它组件、材料和部件来实现。在不脱离本发明范围和精神的情况下,可以对这里所披露的实施例进行其它变形和改变。
Claims (10)
1.一种图片超分辨方法,包括如下步骤:
对输入图片进行预处理;
使用卷积网络实现输入图片像素块的抽取和表示;
使用卷积网络获得输入图片的图像细节差值;
使用一个卷积层实现图片重建。
2.如权利要求1所述的图片超分辨方法,其中使用卷积网络实现输入图片像素块的抽取和表示包括如下子步骤:
使用该卷积网络的前i层抽取输入图片的像素块;
将抽取的像素块表示为高维向量,多个高维向量组成高维向量组;
其中卷积网络具有N层,i为小于N的整数。
3.如权利要求1所述的图片超分辨方法,其中使用残差卷积网络获得输入图片的图像细节差值。
4.如权利要求1所述的图片超分辨方法,其中对输入图片进行预处理包括如下子步骤:
输入低分辨率图片;
读取将要获得的高分辨率图片的尺寸;
将低分辨率输入图片基于二次立方插值进行放大,使得低分辨率输入图片和将要输出图片的具有一样的尺寸。
5.如权利要求1所述的图片超分辨方法,其中使用一个卷积层实现图片重建包括使用一个卷积层将图像差值与低分辨率输入图片相融合,得到高分辨率图片。
6.如权利要求1所述的图片超分辨方法,其中对输入图片预处理包括:对输入图片外围进行边界填充操作。
7.一种构建卷积网络的方法,包括如下步骤:
构建样本训练库;
从样本训练库中读取一组低分辨率图片以及其对应的高分辨率图片;
根据低分辨率图片以及其对应的高分辨率图片计算损失函数;
根据损失函数利用反向传播算法更新卷积神经网络中各节点的权重;
循环执行上述除构建样本训练库之外的所有步骤,直到所述卷积神经网络在所述训练库上收敛或者达到预定的循环次数。
8.如权利要求7所述的方法,其中根据低分辨率图片以及其对应的高分辨率图片计算损失函数包括如下子步骤:
将低分辨率图片映射为一个图像特征向量,从而获得低分辨率图像特征向量集,并将低分辨率图片对应的高分辨率图片映射为一个图像特征向量,从而获得高分辨率图像特征向量集;
为低分辨率图像特征向量集中的每个图像特征向量计算实际图片差值;
使用如下公式计算实际图片差值r:
r=y-x 公式一
其中y是转换后的高分辨率图片的特征向量,x是转换前的低分辨率图片的特征向量;
依据实际图片差值和神经网络预测出的图片差值计算损失函数。
9.如权利要求8所述的方法,其中使用如下公式计算单个图片的损失函数s:
s=[r-f(x)]2/2 公式二
其中f(x)是神经网络预测出的图片差值;
使用如下公式计算损失函数:
损失函数S是m张图片的损失函数s的平均值,其中低分辨率图像特征向量集和高分辨率图像特征向量集中均有相同维度的图像特征向量。
10.如权利要求7所述的方法,其中根据损失函数利用反向传播算法更新卷积神经网络中各节点的权重包括如下子步骤:
将得到的损失函数进行反向传递,计算出各个层的参数对应的梯度;
将参数沿着梯度的反方向进行更新,从而获得每个权重的更新量;
获得所有权重的梯度的平方和的根T;
如果T大于最大阈值M,则进一步求缩放因子Y;否则不改变现有节点的梯度;
Y=M/T 公式四;
其中最大阈值M是预先设定的;
将所有的权重梯度乘以缩放因子Y,获得新的权重梯度;
使用新的权重梯度更新卷积神经网络中各节点的权重。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711314508.9A CN107977930A (zh) | 2017-12-09 | 2017-12-09 | 一种图像超分辨方法及其系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711314508.9A CN107977930A (zh) | 2017-12-09 | 2017-12-09 | 一种图像超分辨方法及其系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107977930A true CN107977930A (zh) | 2018-05-01 |
Family
ID=62010032
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711314508.9A Pending CN107977930A (zh) | 2017-12-09 | 2017-12-09 | 一种图像超分辨方法及其系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107977930A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109068174A (zh) * | 2018-09-12 | 2018-12-21 | 上海交通大学 | 基于循环卷积神经网络的视频帧率上变换方法及系统 |
CN110060204A (zh) * | 2019-04-29 | 2019-07-26 | 江南大学 | 一种基于可逆网络的单一图像超分辨率方法 |
CN110322528A (zh) * | 2019-06-26 | 2019-10-11 | 浙江大学 | 基于3t、7t的核磁共振脑部图像血管重建方法 |
CN110430419A (zh) * | 2019-07-12 | 2019-11-08 | 北京大学 | 一种基于超分辨抗混叠的多视点裸眼三维图像合成方法 |
CN110503618A (zh) * | 2019-08-30 | 2019-11-26 | 维沃移动通信有限公司 | 图像处理方法及电子设备 |
CN110763342A (zh) * | 2019-09-30 | 2020-02-07 | 成都鼎屹信息技术有限公司 | 一种红外偏振超像元辐射光强图像分辨率还原方法 |
WO2020118829A1 (zh) * | 2018-12-12 | 2020-06-18 | 深圳先进技术研究院 | 基于决策树的pet图像超分辨重建方法、装置、设备及介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104217214A (zh) * | 2014-08-21 | 2014-12-17 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 基于可配置卷积神经网络的rgb-d人物行为识别方法 |
CN105976318A (zh) * | 2016-04-28 | 2016-09-28 | 北京工业大学 | 一种图像超分辨率重建方法 |
CN106228512A (zh) * | 2016-07-19 | 2016-12-14 | 北京工业大学 | 基于学习率自适应的卷积神经网络图像超分辨率重建方法 |
-
2017
- 2017-12-09 CN CN201711314508.9A patent/CN107977930A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104217214A (zh) * | 2014-08-21 | 2014-12-17 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 基于可配置卷积神经网络的rgb-d人物行为识别方法 |
CN105976318A (zh) * | 2016-04-28 | 2016-09-28 | 北京工业大学 | 一种图像超分辨率重建方法 |
CN106228512A (zh) * | 2016-07-19 | 2016-12-14 | 北京工业大学 | 基于学习率自适应的卷积神经网络图像超分辨率重建方法 |
Non-Patent Citations (2)
Title |
---|
CHAO DONG, ET AL.: "Learning a Deep Convolutional Network for Image Super-Resolution", 《HTTP://PERSONAL.IE.CUHK.EDU.HK/~CCLOY/FILES/ECCV_2014_DEEPRESOLUTION.PDF》 * |
JIWON KIM, ET AL.: "Accurate Image Super-Resolution Using Very Deep Convolutional Networks", 《 HTTPS://ARXIV.ORG/ABS/1511.04587》 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109068174A (zh) * | 2018-09-12 | 2018-12-21 | 上海交通大学 | 基于循环卷积神经网络的视频帧率上变换方法及系统 |
CN109068174B (zh) * | 2018-09-12 | 2019-12-27 | 上海交通大学 | 基于循环卷积神经网络的视频帧率上变换方法及系统 |
WO2020118829A1 (zh) * | 2018-12-12 | 2020-06-18 | 深圳先进技术研究院 | 基于决策树的pet图像超分辨重建方法、装置、设备及介质 |
CN110060204A (zh) * | 2019-04-29 | 2019-07-26 | 江南大学 | 一种基于可逆网络的单一图像超分辨率方法 |
CN110060204B (zh) * | 2019-04-29 | 2020-12-29 | 江南大学 | 一种基于可逆网络的单一图像超分辨率方法 |
CN110322528A (zh) * | 2019-06-26 | 2019-10-11 | 浙江大学 | 基于3t、7t的核磁共振脑部图像血管重建方法 |
CN110430419A (zh) * | 2019-07-12 | 2019-11-08 | 北京大学 | 一种基于超分辨抗混叠的多视点裸眼三维图像合成方法 |
CN110430419B (zh) * | 2019-07-12 | 2021-06-04 | 北京大学 | 一种基于超分辨抗混叠的多视点裸眼三维图像合成方法 |
CN110503618A (zh) * | 2019-08-30 | 2019-11-26 | 维沃移动通信有限公司 | 图像处理方法及电子设备 |
CN110763342A (zh) * | 2019-09-30 | 2020-02-07 | 成都鼎屹信息技术有限公司 | 一种红外偏振超像元辐射光强图像分辨率还原方法 |
CN110763342B (zh) * | 2019-09-30 | 2020-12-22 | 成都鼎屹信息技术有限公司 | 一种红外偏振超像元辐射光强图像分辨率还原方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107977930A (zh) | 一种图像超分辨方法及其系统 | |
CN110443842B (zh) | 基于视角融合的深度图预测方法 | |
CN110705448B (zh) | 一种人体检测方法及装置 | |
CN109271933A (zh) | 基于视频流进行三维人体姿态估计的方法 | |
CN109389556A (zh) | 一种多尺度空洞卷积神经网络超分辨率重构方法及装置 | |
CN107833183A (zh) | 一种基于多任务深度神经网络的卫星图像同时超分辨和着色的方法 | |
Xiao et al. | Example‐Based Colourization Via Dense Encoding Pyramids | |
CN107767413A (zh) | 一种基于卷积神经网络的图像深度估计方法 | |
CN109522874A (zh) | 人体动作识别方法、装置、终端设备及存储介质 | |
CN107968962A (zh) | 一种基于深度学习的两帧不相邻图像的视频生成方法 | |
Sun et al. | Convolutional neural network based models for improving super-resolution imaging | |
CN106599805A (zh) | 一种基于有监督数据驱动的单目视频深度估计方法 | |
CN110349087B (zh) | 基于适应性卷积的rgb-d图像高质量网格生成方法 | |
CN109783887A (zh) | 一种面向三维加工特征的智能识别与检索方法 | |
CN110570522A (zh) | 一种多视图三维重建方法 | |
CN108510504A (zh) | 图像分割方法和装置 | |
CN113379771B (zh) | 带有边缘约束的层次化人体解析语义分割方法 | |
CN113077554A (zh) | 一种基于任意视角图片的三维结构化模型重建的方法 | |
CN107871306A (zh) | 一种图片去噪的方法和装置 | |
CN106169174A (zh) | 一种图像放大方法 | |
CN109993702A (zh) | 基于生成对抗网络的满文图像超分辨率重建方法 | |
CN114677479A (zh) | 一种基于深度学习的自然景观多视图三维重建方法 | |
CN109447897A (zh) | 一种真实场景图像合成方法及系统 | |
CN116612288A (zh) | 一种多尺度轻量级实时语义分割方法、系统 | |
CN109658508B (zh) | 一种多尺度细节融合的地形合成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180501 |
|
RJ01 | Rejection of invention patent application after publication |