CN112929622B - 一种基于深度学习的欧拉视频颜色放大方法 - Google Patents

一种基于深度学习的欧拉视频颜色放大方法 Download PDF

Info

Publication number
CN112929622B
CN112929622B CN202110162958.0A CN202110162958A CN112929622B CN 112929622 B CN112929622 B CN 112929622B CN 202110162958 A CN202110162958 A CN 202110162958A CN 112929622 B CN112929622 B CN 112929622B
Authority
CN
China
Prior art keywords
color
amplification
network
frame
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110162958.0A
Other languages
English (en)
Other versions
CN112929622A (zh
Inventor
任重
周昆
邹锦爽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN202110162958.0A priority Critical patent/CN112929622B/zh
Publication of CN112929622A publication Critical patent/CN112929622A/zh
Application granted granted Critical
Publication of CN112929622B publication Critical patent/CN112929622B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/648Video amplifiers

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Of Color Television Signals (AREA)

Abstract

本发明公开了一种基于深度学习的欧拉视频颜色放大方法,包括获得颜色放大网络和调用颜色放大网络两个步骤。首先合成一个模拟微小颜色变化图片数据集,并在该数据集上训练一个由空间分解、差分滤波、放大处理、图像重建四个模块构建的颜色放大网络;在运行时,对FIR带通滤波器进行优化,并将其替换网络的差分滤波模块。步骤二根据给定输入视频进行颜色放大处理时,先将视频分解为帧序列,通过调用颜色放大网络生成颜色放大帧序列,最后合成颜色放大视频。相比线性放大方法,本发明方法步骤一采用深度学习模型,训练过程自动化,免去了繁琐的人工设计;步骤二的处理,大大减少了噪声,在动态场景下不会产生伪影,增强了放大效果。

Description

一种基于深度学习的欧拉视频颜色放大方法
技术领域
本发明涉及图像视频处理领域,尤其涉及一种基于深度学习的欧拉视频颜色放大方法。
背景技术
一些客观存在却无法用肉眼直接观察的颜色信号中蕴藏着丰富的信息,比如皮肤颜色随着血液循环发生的周期性变化,轻微按压造成的局部皮肤颜色改变等。而欧拉视频颜色放大方法在增强肉眼难以感知的颜色变化上具有出色的效果,它能够捕捉并放大视频中微小的颜色信号,从而使其可以被人眼直接观察到,为解读这类信息提供了一种可视化方法。
但是目前已实现的方法存在着一些不足。首先,算法的空间分解过程依赖手工设计,并且无法将颜色信号与运动信号分离,导致放大颜色变化的同时运动也随之放大,后者会对颜色放大结果产生干扰。其次,已有的时域滤波手段无法兼顾静态与动态场景,在动态场景下的放大结果存在明显的伪影。第三,放大结果往往存在严重的噪声,容易失真。
发明内容
针对上述提到的问题,本发明提出了一种基于深度学习的欧拉视频颜色放大算法,本发明采用深度学习方法避免了手工设计的弊病,同时训练得到颜色放大网络在隔离颜色与运动信号方面也优于传统方法,能够避免干扰,增强放大效果;针对FIR带通滤波器存在的问题进行优化,令其同时具备处理静态场景和动态场景的能力;采用的非线性放大方法有效地降低了噪声,提高画面质量。
本发明的目的是通过以下技术方案来实现的:一种基于深度学习的欧拉视频颜色放大方法,该方法包括两个步骤:
(1)获得颜色放大网络,包括以下子步骤:
(1.1)在LBVMM数据集的基础上合成一个模拟微小颜色变化的图片数据集;
(1.2)构建颜色放大网络;
(1.3)在合成的图片数据集上进行网络的训练;
(1.4)优化FIR带通滤波器;
(1.5)使用优化的FIR带通滤波器替换训练得到的网络中的差分滤波模块;
(1.6)获得颜色放大网络。
(2)调用颜色放大网络,包括以下子步骤:
(2.1)给定输入视频并设置参数;
(2.2)将输入视频分解成帧序列;
(2.3)调用颜色放大网络处理帧序列;
(2.4)生成颜色放大帧序列;
(2.5)将颜色放大帧序列合成颜色放大视频。
所述步骤(1.1)包括以下子步骤:
(1.1.1)计算强度差:对LBVMM数据集的每组数据计算强度差;
(1.1.2)合成两帧输入:计算每组数据的颜色扰动信号,并据此得到两帧输入;
(1.1.3)随机生成放大因子:放大因子α设置为(0,100]范围内的随机值,并将根据(1.1.4)中真实放大帧的合成效果对其进行微调;
(1.1.4)合成真实放大帧:根据步骤(1.1.2)合成的两帧输入以及步骤(1.1.3)随机生成的放大因子合成真实放大帧。
所述步骤(1.2)构建的颜色放大网络,包括四个模块:空间分解模块、差分滤波模块、非线性放大模块、图像重建模块。其中,所述空间分解模块将两帧输入图像分别分解为颜色表示与运动表示;差分滤波模块计算两帧输入颜色表示的差值作为颜色信号;放大模块根据输入的放大因子完成对颜色信号的非线性放大处理;最后在图像重建模块中,运动表示与放大的颜色信号重建为颜色放大帧。
对于步骤(1.1.2)合成的两帧输入(Xa,Xb),网络的空间分解模块从中提取到的运动表示和颜色表示分别为Ma,Mb和Ca,Cb;Y是步骤(1.1.4)合成的真实放大帧,
Figure GDA0003518328190000021
是网络输出的放大结果。则网络的损失函数为
Figure GDA0003518328190000022
其中,
Figure GDA0003518328190000023
是L1损失函数,L1(Ca,Cc)+L1(Mb,Mc)是正则项,λ是正则项权重,设置为0.1。
所述步骤(1.4)中,从空间分解模块处理的颜色表示中提取ROI(region ofinterest)颜色信号,包括以下子步骤:
(1.4.1)设置FIR带通滤波器的参数,得到冲激响应(impulse response;IR);
(1.4.2)合成颜色信号:每帧颜色表示按照帧序组合得到颜色信号;
(1.4.3)在动态场景下,对颜色信号进行加窗处理,窗函数选择Hanning窗;静态场景则跳过此步骤;
(1.4.4)分别对冲激响应和颜色信号作快速傅里叶变换(FFT),转换到频域;
(1.4.5)在频域上计算冲激响应与颜色信号的乘积;
(1.4.6)对频域上的乘积作快速傅里叶逆变换(IFFT)转换回时域,得到ROI颜色信号。
进一步地,所述步骤(1.3)中,使用默认指数衰减率(即β1=0.9,β2=0.999)的Adam算法进行训练,初始学习速率设置为10-4。Batch Size设置为4,对整个数据集训练10个Epoch。
进一步地,所述步骤(2.3)为调用步骤(1.6)所述的使用优化的FIR带通滤波器的颜色放大网络,帧序列按照顺序输入网络。
进一步地,所述步骤(2.5)所述合成颜色放大视频,需要按照原始视频中的帧序合成。
本发明的有益效果是:本发明方法的执行过程是先执行步骤(1)再执行步骤(2),分阶段进行,使得网络能够在图片数据上进行训练,经过滤波器优化后又能够处理视频数据。降低了训练数据的准备难度。本发明方法从数据中学习得到颜色放大网络,避免人工设计,降低了设计难度,更加自动化;同时学习得到的网络相比传统方法,能够更好地隔离运动与颜色信号;优化的FIR带通滤波器有效避免了动态场景下的伪影,同时非线性放大的设计也大大减少了噪声,产生的颜色放大视频放大效果更强烈。本发明提供的一种基于深度学习的欧拉视频颜色放大方法,能够实现端到端的放大处理,不需要人为过多干预,应用性强,大大提高了欧拉视频颜色放大技术。
附图说明
图1为本发明一种基于深度学习的欧拉视频颜色放大方法整体流程示意图;
图2为本发明步骤(1.2)构建的颜色放大网络结构框架示意图;
图3为本发明步骤(1.3)训练颜色放大网络处理图片数据的流程图;
图4为本发明步骤(2)合成颜色放大视频的流程图;
图5为本发明在静态场景下对面部血流脉冲产生的颜色变化的放大结果以及与线性欧拉视频放大算法(EVM)的对比;
图6为本发明在动态场景下对灯泡明暗变化的放大结果以及与线性欧拉视频放大算法(EVM)的对比;
图7为本发明在动态场景下FIR带通滤波器优化前后的放大效果对比图。
具体实施方式
下面结合附图对本发明作进一步说明。
图1为本发明一种基于深度学习的欧拉视频颜色放大方法整体流程示意图,包括两个步骤:
(1)获得颜色放大网络;
(2)调用颜色放大网络。
先进行步骤(1)颜色放大网络的训练与优化,然后进行步骤(2)调用颜色放大网络完成对视频的颜色放大处理。
其中步骤(1)包括以下子步骤:
(1.1)在LBVMM数据集的基础上合成一个模拟微小颜色变化的图片数据集;
(1.2)构建颜色放大网络;
(1.3)在合成的图片数据集上进行网络的训练;
(1.4)优化FIR带通滤波器;
(1.5)使用优化的FIR带通滤波器替换训练得到的网络中的差分滤波模块;
(1.6)获得颜色放大网络。
步骤(2)包括以下子步骤:
(2.1)给定输入视频并设置参数;
(2.2)将输入视频分解成帧序列;
(2.3)调用颜色放大网络处理帧序列;
(2.4)生成颜色放大帧序列;
(2.5)将颜色放大帧序列合成颜色放大视频。
本发明方法步骤(1.1)所述的LBVMM数据集的每组数据包括四张图片数据,分别为
Figure GDA0003518328190000041
YLBVMM。本发明方法将利用LBVMM数据集每组的四张图片数据合成模拟微小颜色变化的数据集,每组数据包含放大因子α以及四张图片数据Xa、Xb、Xc、Y。该步骤对于合成每组数据包括以下子步骤:
(1.1.1)计算强度差:LBVMM数据集的每组数据中,
Figure GDA0003518328190000042
Figure GDA0003518328190000043
的强度为
Figure GDA0003518328190000044
Figure GDA0003518328190000045
计算
Figure GDA0003518328190000046
其中,
Figure GDA0003518328190000047
表示
Figure GDA0003518328190000048
Figure GDA0003518328190000049
之间的强度差;
(1.1.2)合成两帧输入:计算每组数据的颜色扰动信号
Figure GDA00035183281900000410
并据此计算得到网络的两帧输入Xa、Xb
Figure GDA00035183281900000411
其中,
Figure GDA00035183281900000412
Figure GDA00035183281900000413
分别为LBVMM数据集每组数据中的两个数据,
Figure GDA00035183281900000414
为该组数据的颜色扰动信号,由步骤(1.1.1)得到的强度差
Figure GDA00035183281900000415
以及强度差
Figure GDA00035183281900000416
的平均值
Figure GDA00035183281900000417
计算得到;
(1.1.3)随机生成放大因子α:放大因子α设置为(0,100]范围内的随机值,并将根据步骤(1.1.4)中真实放大帧的合成效果对其进行微调;
(1.1.4)合成真实放大帧:
Figure GDA0003518328190000051
同时令
Figure GDA0003518328190000052
其中,
Figure GDA0003518328190000053
为LBVMM数据集每组数据中的一个数据,
Figure GDA0003518328190000054
为步骤(1.1.2)计算得到的颜色扰动信号,α为步骤(1.1.3)随机生成的放大因子,Y即为合成的真实放大帧,合成的Xc用于后续计算损失函数。
本发明方法在步骤(1.2)构建的颜色放大网络,包括四个模块:空间分解模块、差分滤波模块、非线性放大模块、图像重建模块。其中,空间分解模块将两帧输入图像分别分解为颜色表示与运动表示,差分滤波模块计算两帧输入颜色表示的差值作为颜色信号;放大模块根据输入的放大因子完成对颜色信号的非线性放大处理;最后在图像重建模块中,运动表示与放大的颜色信号重建为颜色放大帧。
网络结构框架如图2所示。其中,空间分解模块共由4个卷积层和7个残差网络组成,每个卷积层都使用ReLU作为激活函数,跨步卷积层实现下采样,残差网络增加网络深度,同时加快收敛速度;差分滤波模块由一个减法单元构成;非线性放大模块由两个卷积层和一个残差网络构成;图像重建模块中,采用最近邻上采样,串联操作合并颜色表示与运动表示,最终通过2个卷积层完成重建。
对于步骤(1.1.2)合成的两帧输入(Xa,Xb),网络的空间分解模块从中提取到的运动表示和颜色表示分别为Ma,Mb和Ca,Cb;Y是步骤(1.1.4)合成的真实放大帧,
Figure GDA0003518328190000055
是网络输出的放大结果。则网络的损失函数为
Figure GDA0003518328190000056
其中,
Figure GDA0003518328190000057
是L1损失函数,L1(Ca,Cc)+L1(Mb,Mc)是正则项,λ是正则项权重,设置为0.1。
图3展示了本发明方法在步骤(1.3)训练过程中,网络对每组数据处理流程。
网络使用默认指数衰减率(即β1=0.9,β2=0.999)的Adam算法进行训练,初始学习速率设置为10-4。Batch Size设置为4,对整个数据集训练10个Epoch。
本发明方法步骤(1.4)所述FIR带通滤波器的优化,该步骤优化了从空间分解模块处理的颜色表示中提取ROI颜色信号的过程,包括以下子步骤:
(1.4.1)设置FIR带通滤波器的参数,得到冲激响应(impulse response;IR):参数包括滤波器阶数设置为视频帧数,截止频率根据ROI颜色信号设置,采样频率设置为视频帧率;
(1.4.2)合成颜色信号:每帧颜色表示按照帧序组合得到颜色信号;
(1.4.3)在动态场景下,对颜色信号进行加窗处理,窗函数选择Hanning窗;静态场景则跳过此步骤;
(1.4.4)分别对冲激响应和颜色信号作快速傅里叶变换(FFT),转换到频域;
(1.4.5)在频域上计算冲激响应与颜色信号的乘积;
(1.4.6)对频域上的乘积作快速傅里叶逆变换(IFFT)转换回时域,得到ROI颜色信号。
图4展示了本发明方法步骤(2)所述的产生颜色放大视频的处理流程,其中,神经网络采用本发明方法步骤(1.6)所述的使用优化的FIR带通滤波器的颜色放大网络,图4所示网络中FIR带通滤波器处理流程与本发明方法步骤(1.4)所述一致。
本发明方法步骤(2.3)调用步骤(1.6)所述的使用优化的FIR带通滤波器的颜色放大网络,帧序列按照顺序输入网络。
本发明方法步骤(2.5)所述合成颜色放大视频,需要按照原始视频中的帧序合成。
通过上述步骤,发明人在一台配备了一个Intel Core i7-8700 CPU,32GB内存,GTX 1080 Ti显卡的计算机上实现了本发明的若干实施实例。
实施例一、发明人在静态场景下测试了基于深度学习的欧拉视频颜色放大方法的有效性。如图5所示,对Face视频进行放大处理,视频中头部保持静止,从放大结果不难看出本发明放大了面部原本看不见的因血流脉冲导致的颜色变化。将本发明方法的放大结果与线性欧拉视频颜色放大方法进行对比,从时间切片图中可以看出,本发明的放大效果更为明显,噪声更少,画面更清晰。
实施例二、如图6所示,对动态场景进行放大处理,Bulb视频手持灯泡向上移动,对比本发明方法与线性欧拉视频颜色放大方法,显然本发明方法放大效果强烈。图7显示,步骤(1.4)对FIR带通滤波器的优化处理,使动态场景下不会产生伪影。

Claims (4)

1.一种基于深度学习的欧拉视频颜色放大方法,其特征在于,该方法包括两个步骤:
(1)获得颜色放大网络,包括以下子步骤:
(1.1)在LBVMM数据集的基础上合成一个模拟微小颜色变化的图片数据集;
(1.2)构建颜色放大网络;
(1.3)在合成的图片数据集上进行网络的训练;
(1.4)优化FIR带通滤波器;
(1.5)使用优化的FIR带通滤波器替换训练得到的网络中的差分滤波模块;
(1.6)获得颜色放大网络;
(2)调用颜色放大网络,包括以下子步骤:
(2.1)给定输入视频并设置参数;
(2.2)将输入视频分解成帧序列;
(2.3)调用颜色放大网络处理帧序列;
(2.4)生成颜色放大帧序列;
(2.5)将颜色放大帧序列合成颜色放大视频;
所述步骤(1.1)包括以下子步骤:
(1.1.1)计算强度差:对LBVMM数据集的每组数据计算强度差;
(1.1.2)合成两帧输入:计算每组数据的颜色扰动信号,并据此得到两帧输入;
(1.1.3)随机生成放大因子:放大因子α设置为(0,100]范围内的随机值,并将根据(1.1.4)中真实放大帧的合成效果对其进行微调;
(1.1.4)合成真实放大帧:根据步骤(1.1.2)合成的两帧输入以及步骤(1.1.3)随机生成的放大因子合成真实放大帧;
所述步骤(1.2)构建的颜色放大网络包括四个模块:空间分解模块、差分滤波模块、非线性放大模块、图像重建模块;其中,所述空间分解模块将两帧输入图像分别分解为颜色表示与运动表示;差分滤波模块计算两帧输入颜色表示的差值作为颜色信号;放大模块根据输入的放大因子完成对颜色信号的非线性放大处理;最后在图像重建模块中,运动表示与放大的颜色信号重建为颜色放大帧;
对于步骤(1.1.2)合成的两帧输入(Xa,Xb),网络的空间分解模块从中提取到的运动表示和颜色表示分别为Ma,Mb和Ca,Cb;Y是步骤(1.1.4)合成的真实放大帧,
Figure FDA0003518328180000011
是网络输出的放大结果;则网络的损失函数为
Figure FDA0003518328180000021
其中,
Figure FDA0003518328180000022
是L1损失函数,L1(Ca,Cc)+L1(Mb,Mc)是正则项,λ是正则项权重,设置为0.1;
所述步骤(1.4)中,从空间分解模块处理的颜色表示中提取ROI颜色信号,包括以下子步骤:
(1.4.1)设置FIR带通滤波器的参数,得到冲激响应;
(1.4.2)合成颜色信号:每帧颜色表示按照帧序组合得到颜色信号;
(1.4.3)在动态场景下,对颜色信号进行加窗处理,窗函数选择Hanning窗;静态场景则跳过此步骤;
(1.4.4)分别对冲激响应和颜色信号作快速傅里叶变换,转换到频域;
(1.4.5)在频域上计算冲激响应与颜色信号的乘积;
(1.4.6)对频域上的乘积作快速傅里叶逆变换转换回时域,得到ROI颜色信号。
2.如权利要求1所述的基于深度学习的欧拉视频颜色放大方法,其特征在于,所述步骤(1.3)中,使用默认指数衰减率的Adam算法进行训练,初始学习速率设置为10-4;Batch Size设置为4,对整个数据集训练10个Epoch;所述默认指数衰减率为:β1=0.9、β2=0.999。
3.如权利要求1所述的基于深度学习的欧拉视频颜色放大方法,其特征在于,所述步骤(2.3)为调用步骤(1.6)所述的使用优化的FIR带通滤波器的颜色放大网络,帧序列按照顺序输入网络。
4.如权利要求1所述的基于深度学习的欧拉视频颜色放大方法,其特征在于,所述步骤(2.5)所述合成颜色放大视频,需要按照原始视频中的帧序合成。
CN202110162958.0A 2021-02-05 2021-02-05 一种基于深度学习的欧拉视频颜色放大方法 Active CN112929622B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110162958.0A CN112929622B (zh) 2021-02-05 2021-02-05 一种基于深度学习的欧拉视频颜色放大方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110162958.0A CN112929622B (zh) 2021-02-05 2021-02-05 一种基于深度学习的欧拉视频颜色放大方法

Publications (2)

Publication Number Publication Date
CN112929622A CN112929622A (zh) 2021-06-08
CN112929622B true CN112929622B (zh) 2022-04-12

Family

ID=76170848

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110162958.0A Active CN112929622B (zh) 2021-02-05 2021-02-05 一种基于深度学习的欧拉视频颜色放大方法

Country Status (1)

Country Link
CN (1) CN112929622B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11551116B2 (en) * 2020-01-29 2023-01-10 Rohde & Schwarz Gmbh & Co. Kg Signal analysis method and signal analysis module
CN113842128B (zh) * 2021-09-29 2023-09-26 北京清智图灵科技有限公司 一种基于多重滤波与混合放大的非接触心率检测装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6343141B1 (en) * 1996-10-08 2002-01-29 Lucent Technologies Inc. Skin area detection for video image systems
US9338331B2 (en) * 2014-01-09 2016-05-10 Massachusetts Institute Of Technology Riesz pyramids for fast phase-based video magnification
US9750420B1 (en) * 2014-12-10 2017-09-05 Amazon Technologies, Inc. Facial feature selection for heart rate detection
GB201601142D0 (en) * 2016-01-21 2016-03-09 Oxehealth Ltd Method and apparatus for estimating breathing rate
US11202589B2 (en) * 2017-11-30 2021-12-21 University Of Kentucky Research Foundation System and method for assessment of retinal and choroidal blood flow noninvasively using color amplification
CN109063763A (zh) * 2018-07-26 2018-12-21 合肥工业大学 基于pca的视频微小变化放大方法
CN109259749A (zh) * 2018-08-29 2019-01-25 南京邮电大学 一种基于视觉摄像头的非接触式心率测量方法
CN110175596B (zh) * 2019-06-04 2022-04-22 重庆邮电大学 基于双流卷积神经网络的虚拟学习环境微表情识别与交互方法
CN110236508A (zh) * 2019-06-12 2019-09-17 云南东巴文健康管理有限公司 一种无创血压连续监测方法
CN111428577B (zh) * 2020-03-03 2022-05-03 电子科技大学 一种基于深度学习与视频放大技术的人脸活体判断方法
CN111429345A (zh) * 2020-03-03 2020-07-17 贵阳像树岭科技有限公司 一种超低功耗视觉计算心率及心率变异性方法

Also Published As

Publication number Publication date
CN112929622A (zh) 2021-06-08

Similar Documents

Publication Publication Date Title
CN114140353B (zh) 一种基于通道注意力的Swin-Transformer图像去噪方法及系统
CN112929622B (zh) 一种基于深度学习的欧拉视频颜色放大方法
CN110889895B (zh) 一种融合单帧重建网络的人脸视频超分辨率重建方法
CN111861902A (zh) 基于深度学习的Raw域视频去噪方法
CN111028163A (zh) 一种基于卷积神经网络的联合图像去噪与弱光增强方法
WO2007114363A1 (ja) 画像処理方法
WO2007116543A1 (ja) 画像処理方法
CN108989731B (zh) 一种提高视频空间分辨率的方法
CN112270646B (zh) 基于残差密集跳跃网络的超分辨增强方法
CN113191972B (zh) 一种轻量真实图像去噪的神经网络设计及训练方法
CN112598599B (zh) 一种高光谱图像的去噪模型训练方法及去噪方法
CN110838089B (zh) 一种基于OctBlock密集块的快速图像去噪方法
CN116894770A (zh) 图像处理方法、图像处理设备和计算机程序
CN114926336A (zh) 视频超分辨率重建方法、装置、计算机设备及存储介质
CN114692733A (zh) 端到端的抑制时域噪声放大的视频风格迁移方法、系统及存储介质
CN114022809A (zh) 基于改进自编码网络的视频运动放大方法
CN106803236A (zh) 基于模糊域奇异值分解的非均匀性校正方法
CN110177229B (zh) 基于多任务对抗学习的视频转换方法、存储介质及终端
CN111161189A (zh) 一种基于细节弥补网络的单幅图像再增强方法
CN113888405B (zh) 基于分簇自适应膨胀卷积神经网络的去噪去马赛克方法
CN115829870A (zh) 一种基于可变尺度滤波的图像去噪方法
CN115082296A (zh) 一种基于小波域图像生成框架的图像生成方法
CN115564655A (zh) 基于深度学习的视频超分辨率重建方法、系统及介质
Zhu et al. LLISP: Low-light image signal processing net via two-stage network
CN113658060A (zh) 基于分布学习的联合去噪去马赛克方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant