CN109523470A - 一种深度图像超分辨率重建方法及系统 - Google Patents
一种深度图像超分辨率重建方法及系统 Download PDFInfo
- Publication number
- CN109523470A CN109523470A CN201811392297.5A CN201811392297A CN109523470A CN 109523470 A CN109523470 A CN 109523470A CN 201811392297 A CN201811392297 A CN 201811392297A CN 109523470 A CN109523470 A CN 109523470A
- Authority
- CN
- China
- Prior art keywords
- resolution
- depth
- depth image
- image
- super
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4053—Super resolution, i.e. output image resolution higher than sensor resolution
- G06T3/4076—Super resolution, i.e. output image resolution higher than sensor resolution by iteratively correcting the provisional high resolution image using the original low-resolution image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种深度图像超分辨率重建方法和系统,为了解决深度图像导致的识别质量不好的技术问题,本发明的深度图像超分辨率重建方法通过构建深度卷积神经网络模型,对输入RGB‑D图像,利用训练得到的深度卷积神经网络对所述输入图像的深度图进行超分辨率重建,得到重建深度图像;对所述RGB‑D图像的RGB彩色图进行非局部相似块搜索,构建非局部加权矩阵;以所述重建深度图像作为初始高分辨率深度图像估计,利用所述非局部加权矩阵作进一步分辨率增强,得到最终的高分辨率深度估计图像。本发明方法能够获得很好的深度图像超分辨率效果,能够很容易地扩展到别的图像视频处理领域。
Description
技术领域
本发明涉及图像处理领域中的深度图像重建技术问题,具体涉及一种基于深度卷积神经网络与彩色图引导的深度图像超分辨率重建系统。
背景技术
RGB-D图像(RGB-D图像其实是两幅图像:一个是普通的RGB三通道彩色图像,另一个是Depth图像。Depth图像类似于灰度图像,只是它的每个像素值是传感器距离物体的实际距离。通常RGB图像和Depth图像是配准的,因而像素点之间具有一对一的对应关系)在越来越多的领域得到了应用,例如娱乐、工厂自动化、机器人、人机交互等。然而,RGB-D图像仍然存在许多问题,包括深度图像的高噪声干扰,目标边缘深度信息丢失等。这些问题使得RGB-D图像的质量变得较差。在图像识别,例如计算机视觉中的自动分析、目标识别以及姿态估计时由于深度信息导致计算机视觉效果不佳。
发明内容
本发明的目的在于针对上述缺陷,提出一种深度图像超分辨率方法和系统,通过利用,深度卷积神经网络的良好非线性拟合的优点以及RGB彩色图像的边缘细节较深度图更精确的优点,构建一种高性能的深度像超分辨率系统,能够很好地提升深度图像的质量。
一方面,本发明提出了一种基于深度卷积神经网络与彩色图引导的深度图像超分辨率重建方法,主要包括以下操作步骤:
步骤1,构建深度卷积神经网络模型,用于深度图像的超分辨率重建;
步骤2,采集RGB-D图像数据集,用于构建深度图像的高低分辨率训练样本对;
步骤3,利用所述训练样本对进行深度卷积神经网络优化训练;
步骤4,输入RGB-D图像,利用训练得到的深度卷积神经网络对所述输入图像的深度图进行超分辨率重建,得到重建深度图像;
步骤5,对所述RGB-D图像的RGB彩色图进行非局部相似块搜索,构建非局部加权矩阵;
步骤6,以所述重建深度图像作为初始高分辨率深度图像估计,利用所述非局部加权矩阵作进一步分辨率增强,得到最终的高分辨率深度估计图像。
可选地,所述步骤1中,卷积层,用于实现输入深度图像的低分辨率特征提取,堆栈K个局部残差块,用于进一步的特征提取,每一个残差块由两个卷积层与两个激励层ReLU交替堆叠实现局部残差预测,然后与残差块的输入相加得到各个残差块的输出特征。
进一步地,将每一个局部残差块的输出通过级联层进行级联,形成高维度的特征;级联后的高维度特征经过1×1的卷积层实现降维;降维的特征经过最后一个卷积层进行残差重建;最后,将低分辨率输入深度图与深度图残差估计进行相加,得到最终的高分辨率深度图估计。
进一步地,所述步骤5,利用RGB彩色图进行非局部相似块搜索,得到每一个目标像素点对应的所有相似像素,并计算这些非局部相似像素与目标像素点的相似权重,最终构建非局部加权矩阵WNL,其中权重函数采用高斯函数。
所述步骤6中,得到最终的高分辨率深度估计图像,对应的代价函数如下:
其中,X表示待估计高分辨率深度图像,X0为初始高分辨率深度图像估计,WNL为非局部加权矩阵,I为单位矩阵,α为正则化系数。
可选地,将所述深度卷积神经网络模型导入计算机视觉系统,对输入图像进行高分辨率深度估计后进行自动分析、目标识别或姿态估计。
另一方面,本发明提供一种基于深度卷积神经网络与彩色图引导的深度图像超分辨率重建系统,包括:
模型建立模块,用于构建深度卷积神经网络模型,用于深度图像的超分辨率重建;
数据采集模块,用于采集RGB-D图像数据集,用于构建深度图像的高低分辨率训练样本对,所述数据采集模块采集的训练样本输入模型建立模块进行深度卷积神经网络优化训练;
输入模块,用于输入RGB-D图像;
深度图重建模块,根据输入模块得到的RGB-D图像,将深度图D进行超分辨率重建,得到重建深度图像;将RGB彩色图进行非局部相似块搜索,构建非局部加权矩阵;以所述重建深度图像作为初始高分辨率深度图像估计,利用所述非局部加权矩阵作进一步分辨率增强,得到最终的高分辨率深度估计图像。
技术效果
本发明通过深度卷积神经网络来对深度图进行超分辨率重建,并利用RGB彩色图像的边缘细节较深度图更精确的优点,进一步增强深度图像的超分辨率估计,可有效地提高图像识别的质量和效果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明系统的工作流程示意图;
图2是本发明基于深度卷积神经网络的深度图像超分辨率重建的网络结构图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面结合附图对本发明做进一步地详细描述。
实施例1
如图1所示,其为本发明的一具体实施例,包括以下操作步骤:
1、采集大量的RGB-D图像数据集,并构建高低分辨率深度图训练样本对;
2、进行端到端的网络训练,形成训练后的基于深度卷积神经网络的超分辨率重建模型;
3、将实际获取的RGB-D图像的深度图输入该模型中,通过所述超分辨率重建模型完成深度图的超分辨率重建,并以此作为初始估计;
4、同时,将实际获取的RGB图像通过构建的非局部加权矩阵进行处理,将处理结果与初始估计的图像结合,进行进一步的分辨率增强,形成最终的高分辨率深度图估计。
步骤1中,我们采集大量的RGB-D图像数据,并对其中的深度图像进行高低分辨率深度图训练样本对的构建。
步骤2中,基于深度卷积神经网络的深度图像超分辨率网络模型,如图2所示。其中,第一个矩形框代表卷积层,用于实现输入深度图像的低分辨率特征提取;接下来,我们堆栈K(本发明中,K=10)个局部残差块(由带斜线条的矩形框表示),用于进一步的特征提取。每一个残差块首先由两个卷积层与两个激励层ReLU交替堆叠实现局部残差预测,然后与残差块的输入相加得到各个残差块的输出特征;为了进一步提升网络的性能,本发明将每一个局部残差块的输出通过级联层(Concat层,由带横线条的矩形框表示)进行级联,形成高维度的特征;级联后的高维度特征经过1×1的卷积层实现降维;降维的特征经过最后一个卷积层进行残差重建;最后,将低分辨率输入深度图与深度图残差估计进行相加,得到最终的高分辨率深度图估计。
在训练过程中,训练过程中,利用构建的基于深度卷积神经网络的深度图像超分辨率网络模型来训练得到的训练样本。优选地,采用端到端的优化训练方式。
步骤3,在采集到实际RGB-D图像后,利用训练得到的深度卷积神经网络对输入低分辨率深度图进行超分辨率重建,提升深度图的质量,得到初始高分辨率深度图像估计X0。
步骤4,利用RGB彩色图进行非局部相似块搜索,得到每一个目标像素点对应的所有相似像素,并计算这些非局部相似像素与目标像素点的相似权重,最终构建非局部加权矩阵WNL,其中权重函数采用高斯函数。将步骤3得到的高分辨率深度图X0作为初始图像,结合获取的非局部加权矩阵WNL对高分辨率深度图像进行约束,以进一步增强深度图像的分辨率,得到最终的高分辨率深度图像。其对应代价函数如下:
其中,X表示待估计高分辨率深度图像,I为单位矩阵,α为正则化系数。第一项表示最终估计的高分辨率深度图像需要与初始估计X0接近,第二项表示最终估计的高分辨率深度图像需要与非局部滤波后的结果接近。该代价函数可以通过梯度法快速求解。
优选地,可将得到的神经网络模型网络导入计算机视觉系统中,作为事先已知的模型数据,用于后期深度图像的超分辨率处理.
实施例2
一种基于深度卷积神经网络与彩色图引导的深度图像超分辨率重建系统,包括:
模型建立模块,用于构建深度卷积神经网络模型,用于深度图像的超分辨率重建;
数据采集模块,用于采集RGB-D图像数据集,用于构建深度图像的高低分辨率训练样本对,所述数据采集模块采集的训练样本输入模型建立模块进行深度卷积神经网络优化训练;
输入模块,用于输入RGB-D图像;
深度图重建模块,根据输入模块得到的RGB-D图像,将深度图D进行超分辨率重建,得到重建深度图像;将RGB彩色图进行非局部相似块搜索,构建非局部加权矩阵;以所述重建深度图像作为初始高分辨率深度图像估计,利用所述非局部加权矩阵作进一步分辨率增强,得到最终的高分辨率深度估计图像。
进一步地,得到最终的高分辨率深度估计图像,对应的代价函数如下:
其中,X表示待估计高分辨率深度图像,X0为初始高分辨率深度图像估计,WNL为非局部加权矩阵,I为单位矩阵,α为正则化系数。
优选地,所述深度图像超分辨率重建系统嵌入计算机视觉系统,可对输入图像进行高分辨率深度估计后进行自动分析、目标识别或姿态估计。
本发明方法能够获得很好的深度图像超分辨率效果。而且本方法的实质是提出了一个有效的网络结构与分辨率增强系统,能够很容易地扩展到别的图像视频处理领域。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种深度图像超分辨率重建方法,其特征在于:
步骤1,构建深度卷积神经网络模型,用于深度图像的超分辨率重建;
步骤2,采集RGB-D图像数据集,用于构建深度图像的高低分辨率训练样本对;
步骤3,利用所述训练样本对进行深度卷积神经网络优化训练;
步骤4,输入RGB-D图像,利用训练得到的深度卷积神经网络对所述输入图像的深度图进行超分辨率重建,得到重建深度图像;
步骤5,对所述RGB-D图像的RGB彩色图进行非局部相似块搜索,构建非局部加权矩阵;
步骤6,以所述重建深度图像作为初始高分辨率深度图像估计,利用所述非局部加权矩阵作进一步分辨率增强,得到最终的高分辨率深度估计图像。
2.根据权利要求1所述的深度图像超分辨率重建方法,其特征在于:
所述步骤1中,卷积层,用于实现输入深度图像的低分辨率特征提取,堆栈K个局部残差块,用于进一步的特征提取,每一个残差块由两个卷积层与两个激励层ReLU交替堆叠实现局部残差预测,然后与残差块的输入相加得到各个残差块的输出特征。
3.根据权利要求2所述的深度图像超分辨率重建方法,其特征在于:
将每一个局部残差块的输出通过级联层进行级联,形成高维度的特征;级联后的高维度特征经过1×1的卷积层实现降维;降维的特征经过最后一个卷积层进行残差重建;最后,将低分辨率输入深度图与深度图残差估计进行相加,得到最终的高分辨率深度图估计。
4.根据权利要求1所述的深度图像超分辨率重建方法,其特征在于:
所述步骤5,利用RGB彩色图进行非局部相似块搜索,得到每一个目标像素点对应的所有相似像素,并计算这些非局部相似像素与目标像素点的相似权重,最终构建非局部加权矩阵WNL,其中权重函数采用高斯函数。
5.根据权利要求4所述的深度图像超分辨率重建方法,其特征在于:
所述步骤6中,得到最终的高分辨率深度估计图像,对应的代价函数如下:
其中,X表示待估计高分辨率深度图像,X0为初始高分辨率深度图像估计,WNL为非局部加权矩阵,I为单位矩阵,α为正则化系数。
6.根据权利要求1-5中任一项所述的深度图像超分辨率重建方法,其特征在于:
将所述深度卷积神经网络模型导入计算机视觉系统,对输入图像进行高分辨率深度估计后进行自动分析、目标识别或姿态估计。
7.一种深度图像超分辨率重建系统,其特征在于,所述系统包括:
模型建立模块,用于构建深度卷积神经网络模型,用于深度图像的超分辨率重建;
数据采集模块,用于采集RGB-D图像数据集,用于构建深度图像的高低分辨率训练样本对,所述数据采集模块采集的训练样本输入模型建立模块进行深度卷积神经网络优化训练;
输入模块,用于输入RGB-D图像;
深度图重建模块,根据输入模块得到的RGB-D图像,将深度图D进行超分辨率重建,得到重建深度图像;将RGB彩色图进行非局部相似块搜索,构建非局部加权矩阵;以所述重建深度图像作为初始高分辨率深度图像估计,利用所述非局部加权矩阵作进一步分辨率增强,得到最终的高分辨率深度估计图像。
8.根据权利要求7所述的深度图像超分辨率重建系统,其特征在于:
得到最终的高分辨率深度估计图像,对应的代价函数如下:
其中,X表示待估计高分辨率深度图像,X0为初始高分辨率深度图像估计,WNL为非局部加权矩阵,I为单位矩阵,α为正则化系数。
9.根据权利要求7或8所述的深度图像超分辨率重建系统,其特征在于:所述深度图像超分辨率重建系统嵌入计算机视觉系统,可对输入图像进行高分辨率深度估计后进行自动分析、目标识别或姿态估计。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811392297.5A CN109523470B (zh) | 2018-11-21 | 2018-11-21 | 一种深度图像超分辨率重建方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811392297.5A CN109523470B (zh) | 2018-11-21 | 2018-11-21 | 一种深度图像超分辨率重建方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109523470A true CN109523470A (zh) | 2019-03-26 |
CN109523470B CN109523470B (zh) | 2023-07-25 |
Family
ID=65776825
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811392297.5A Active CN109523470B (zh) | 2018-11-21 | 2018-11-21 | 一种深度图像超分辨率重建方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109523470B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110020989A (zh) * | 2019-05-23 | 2019-07-16 | 西华大学 | 一种基于深度学习的深度图像超分辨率重建方法 |
CN110648282A (zh) * | 2019-09-29 | 2020-01-03 | 燕山大学 | 一种基于宽度神经网络的图像超分辨率重建方法及系统 |
CN110930306A (zh) * | 2019-10-28 | 2020-03-27 | 杭州电子科技大学 | 一种基于非局部感知的深度图超分辨率重建网络构建方法 |
CN111932464A (zh) * | 2020-09-18 | 2020-11-13 | 北京百度网讯科技有限公司 | 超分辨率模型使用和训练方法、装置、设备及介质 |
CN112150384A (zh) * | 2020-09-29 | 2020-12-29 | 中科方寸知微(南京)科技有限公司 | 一种基于残差网络与动态卷积网络模型融合的方法及系统 |
CN112308772A (zh) * | 2019-08-02 | 2021-02-02 | 四川大学 | 基于深度学习局部与非局部信息的超分辨率重建方法 |
CN113095106A (zh) * | 2019-12-23 | 2021-07-09 | 华为数字技术(苏州)有限公司 | 一种人体姿态估计方法、装置 |
CN113129212A (zh) * | 2019-12-31 | 2021-07-16 | 深圳市联合视觉创新科技有限公司 | 图像超分辨率重建方法、装置、终端设备及存储介质 |
CN113221626A (zh) * | 2021-03-04 | 2021-08-06 | 北京联合大学 | 一种基于Non-local高分辨率网络的人体姿态估计方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105069825A (zh) * | 2015-08-14 | 2015-11-18 | 厦门大学 | 基于深度置信网络的图像超分辨率重建方法 |
CN106952228A (zh) * | 2017-03-10 | 2017-07-14 | 北京工业大学 | 基于图像非局部自相似性的单幅图像的超分辨率重建方法 |
-
2018
- 2018-11-21 CN CN201811392297.5A patent/CN109523470B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105069825A (zh) * | 2015-08-14 | 2015-11-18 | 厦门大学 | 基于深度置信网络的图像超分辨率重建方法 |
CN106952228A (zh) * | 2017-03-10 | 2017-07-14 | 北京工业大学 | 基于图像非局部自相似性的单幅图像的超分辨率重建方法 |
Non-Patent Citations (13)
Title |
---|
JINGYU YANG等: "Color-Guided Depth Recovery From RGB-D Data Using an Adaptive Autoregressive Model", 《IEEE TRANSACTIONS ON IMAGE PROCESSING》 * |
JINGYU YANG等: "Color-Guided Depth Recovery From RGB-D Data Using an Adaptive Autoregressive Model", 《IEEE TRANSACTIONS ON IMAGE PROCESSING》, vol. 23, no. 8, 31 August 2014 (2014-08-31), pages 3443 - 3458, XP011552878, DOI: 10.1109/TIP.2014.2329776 * |
万蕾等: "沥青混合料三维离散元几何模型重构研究", 《低温建筑技术》 * |
万蕾等: "沥青混合料三维离散元几何模型重构研究", 《低温建筑技术》, no. 01, 28 January 2016 (2016-01-28), pages 9 - 11 * |
向文等: "结合结构自相似性和卷积网络的单幅图像超分辨率", 《计算机应用》 * |
向文等: "结合结构自相似性和卷积网络的单幅图像超分辨率", 《计算机应用》, no. 03, 10 March 2018 (2018-03-10), pages 246 - 250 * |
李伟等: "基于卷积神经网络的深度图像超分辨率重建方法", 《电子测量与仪器学报》 * |
李伟等: "基于卷积神经网络的深度图像超分辨率重建方法", 《电子测量与仪器学报》, no. 12, 15 December 2017 (2017-12-15), pages 43 - 53 * |
李素梅等: "基于双通道卷积神经网络的深度图超分辨研究", 《光学学报》 * |
李素梅等: "基于双通道卷积神经网络的深度图超分辨研究", 《光学学报》, vol. 38, no. 10, 31 October 2018 (2018-10-31), pages 2 - 3 * |
杨宇翔;高明煜;尹克;吴占雄;: "结合同场景立体图对的高质量深度图像重建", 中国图象图形学报, no. 01, pages 5 - 14 * |
肖亮等: "图像超分辨率重建的非局部正则化模型与算法研究", 《计算机学报》 * |
肖亮等: "图像超分辨率重建的非局部正则化模型与算法研究", 《计算机学报》, vol. 34, no. 5, 31 May 2011 (2011-05-31), pages 5 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110020989A (zh) * | 2019-05-23 | 2019-07-16 | 西华大学 | 一种基于深度学习的深度图像超分辨率重建方法 |
CN110020989B (zh) * | 2019-05-23 | 2022-06-28 | 西华大学 | 一种基于深度学习的深度图像超分辨率重建方法 |
CN112308772A (zh) * | 2019-08-02 | 2021-02-02 | 四川大学 | 基于深度学习局部与非局部信息的超分辨率重建方法 |
CN110648282A (zh) * | 2019-09-29 | 2020-01-03 | 燕山大学 | 一种基于宽度神经网络的图像超分辨率重建方法及系统 |
CN110930306A (zh) * | 2019-10-28 | 2020-03-27 | 杭州电子科技大学 | 一种基于非局部感知的深度图超分辨率重建网络构建方法 |
CN110930306B (zh) * | 2019-10-28 | 2023-09-12 | 杭州电子科技大学 | 一种基于非局部感知的深度图超分辨率重建网络构建方法 |
CN113095106A (zh) * | 2019-12-23 | 2021-07-09 | 华为数字技术(苏州)有限公司 | 一种人体姿态估计方法、装置 |
CN113129212A (zh) * | 2019-12-31 | 2021-07-16 | 深圳市联合视觉创新科技有限公司 | 图像超分辨率重建方法、装置、终端设备及存储介质 |
CN111932464A (zh) * | 2020-09-18 | 2020-11-13 | 北京百度网讯科技有限公司 | 超分辨率模型使用和训练方法、装置、设备及介质 |
CN111932464B (zh) * | 2020-09-18 | 2024-03-29 | 北京百度网讯科技有限公司 | 超分辨率模型使用和训练方法、装置、设备及介质 |
CN112150384A (zh) * | 2020-09-29 | 2020-12-29 | 中科方寸知微(南京)科技有限公司 | 一种基于残差网络与动态卷积网络模型融合的方法及系统 |
CN112150384B (zh) * | 2020-09-29 | 2024-03-29 | 中科方寸知微(南京)科技有限公司 | 一种基于残差网络与动态卷积网络模型融合的方法及系统 |
CN113221626A (zh) * | 2021-03-04 | 2021-08-06 | 北京联合大学 | 一种基于Non-local高分辨率网络的人体姿态估计方法 |
CN113221626B (zh) * | 2021-03-04 | 2023-10-20 | 北京联合大学 | 一种基于Non-local高分辨率网络的人体姿态估计方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109523470B (zh) | 2023-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109523470A (zh) | 一种深度图像超分辨率重建方法及系统 | |
CN110119780B (zh) | 基于生成对抗网络的高光谱图像超分辨重建方法 | |
CN107123089B (zh) | 基于深度卷积网络的遥感图像超分辨重建方法及系统 | |
Cai et al. | Blind inpainting using the fully convolutional neural network | |
CN112308200B (zh) | 神经网络的搜索方法及装置 | |
CN111062872A (zh) | 一种基于边缘检测的图像超分辨率重建方法及系统 | |
CN102243711B (zh) | 一种基于邻域嵌套的图像超分辨率重建方法 | |
CN109064405A (zh) | 一种基于双路径网络的多尺度图像超分辨率方法 | |
CN111402130B (zh) | 数据处理方法和数据处理装置 | |
CN109993269B (zh) | 基于注意力机制的单张图像人群计数方法 | |
CN112990077B (zh) | 基于联合学习与光流估计的面部动作单元识别方法及装置 | |
CN110189390B (zh) | 一种单目视觉slam方法及系统 | |
CN107123094A (zh) | 一种混合泊松、高斯和脉冲噪声的视频去噪方法 | |
CN111080522A (zh) | 一种基于双向对抗网络的图像超分辨率重建方法 | |
CN116152591B (zh) | 模型训练方法、红外小目标检测方法、装置及电子设备 | |
CN110288526A (zh) | 一种基于深度学习的图像重建算法提升单像素相机成像质量的优化方法 | |
CN115526777A (zh) | 一种盲超分网络建立方法、盲超分方法及存储介质 | |
CN109615576B (zh) | 基于级联回归基学习的单帧图像超分辨重建方法 | |
Babu et al. | An efficient image dahazing using Googlenet based convolution neural networks | |
Zhang et al. | Deep joint neural model for single image haze removal and color correction | |
CN111401453A (zh) | 一种马赛克图像分类识别方法及系统 | |
CN116485646A (zh) | 一种基于微注意力的轻量化图像超分辨率重建方法及装置 | |
CN116403152A (zh) | 一种基于空间上下文学习网络的人群密度估计方法 | |
Tang et al. | MPCFusion: Multi-scale parallel cross fusion for infrared and visible images via convolution and vision Transformer | |
Zhang et al. | Superresolution approach of remote sensing images based on deep convolutional neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |