CN112929622B - 一种基于深度学习的欧拉视频颜色放大方法 - Google Patents
一种基于深度学习的欧拉视频颜色放大方法 Download PDFInfo
- Publication number
- CN112929622B CN112929622B CN202110162958.0A CN202110162958A CN112929622B CN 112929622 B CN112929622 B CN 112929622B CN 202110162958 A CN202110162958 A CN 202110162958A CN 112929622 B CN112929622 B CN 112929622B
- Authority
- CN
- China
- Prior art keywords
- color
- amplification
- network
- frame
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003321 amplification Effects 0.000 title claims abstract description 99
- 238000003199 nucleic acid amplification method Methods 0.000 title claims abstract description 99
- 238000000034 method Methods 0.000 title claims abstract description 51
- 238000013135 deep learning Methods 0.000 title claims abstract description 15
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 19
- 238000000354 decomposition reaction Methods 0.000 claims abstract description 15
- 238000012545 processing Methods 0.000 claims abstract description 14
- 238000001914 filtration Methods 0.000 claims abstract description 12
- 230000008569 process Effects 0.000 claims abstract description 12
- 238000012549 training Methods 0.000 claims abstract description 12
- 230000008859 change Effects 0.000 claims abstract description 9
- 230000000694 effects Effects 0.000 claims abstract description 9
- 230000004044 response Effects 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 11
- 230000003068 static effect Effects 0.000 claims description 7
- 239000000126 substance Substances 0.000 claims description 6
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 238000009432 framing Methods 0.000 claims description 3
- 239000002131 composite material Substances 0.000 claims description 2
- 238000013461 design Methods 0.000 abstract description 6
- 238000013136 deep learning model Methods 0.000 abstract 1
- 238000005457 optimization Methods 0.000 description 3
- 230000017531 blood circulation Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000007794 visualization technique Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/64—Circuits for processing colour signals
- H04N9/646—Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/64—Circuits for processing colour signals
- H04N9/648—Video amplifiers
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Processing Of Color Television Signals (AREA)
Abstract
本发明公开了一种基于深度学习的欧拉视频颜色放大方法,包括获得颜色放大网络和调用颜色放大网络两个步骤。首先合成一个模拟微小颜色变化图片数据集,并在该数据集上训练一个由空间分解、差分滤波、放大处理、图像重建四个模块构建的颜色放大网络;在运行时,对FIR带通滤波器进行优化,并将其替换网络的差分滤波模块。步骤二根据给定输入视频进行颜色放大处理时,先将视频分解为帧序列,通过调用颜色放大网络生成颜色放大帧序列,最后合成颜色放大视频。相比线性放大方法,本发明方法步骤一采用深度学习模型,训练过程自动化,免去了繁琐的人工设计;步骤二的处理,大大减少了噪声,在动态场景下不会产生伪影,增强了放大效果。
Description
技术领域
本发明涉及图像视频处理领域,尤其涉及一种基于深度学习的欧拉视频颜色放大方法。
背景技术
一些客观存在却无法用肉眼直接观察的颜色信号中蕴藏着丰富的信息,比如皮肤颜色随着血液循环发生的周期性变化,轻微按压造成的局部皮肤颜色改变等。而欧拉视频颜色放大方法在增强肉眼难以感知的颜色变化上具有出色的效果,它能够捕捉并放大视频中微小的颜色信号,从而使其可以被人眼直接观察到,为解读这类信息提供了一种可视化方法。
但是目前已实现的方法存在着一些不足。首先,算法的空间分解过程依赖手工设计,并且无法将颜色信号与运动信号分离,导致放大颜色变化的同时运动也随之放大,后者会对颜色放大结果产生干扰。其次,已有的时域滤波手段无法兼顾静态与动态场景,在动态场景下的放大结果存在明显的伪影。第三,放大结果往往存在严重的噪声,容易失真。
发明内容
针对上述提到的问题,本发明提出了一种基于深度学习的欧拉视频颜色放大算法,本发明采用深度学习方法避免了手工设计的弊病,同时训练得到颜色放大网络在隔离颜色与运动信号方面也优于传统方法,能够避免干扰,增强放大效果;针对FIR带通滤波器存在的问题进行优化,令其同时具备处理静态场景和动态场景的能力;采用的非线性放大方法有效地降低了噪声,提高画面质量。
本发明的目的是通过以下技术方案来实现的:一种基于深度学习的欧拉视频颜色放大方法,该方法包括两个步骤:
(1)获得颜色放大网络,包括以下子步骤:
(1.1)在LBVMM数据集的基础上合成一个模拟微小颜色变化的图片数据集;
(1.2)构建颜色放大网络;
(1.3)在合成的图片数据集上进行网络的训练;
(1.4)优化FIR带通滤波器;
(1.5)使用优化的FIR带通滤波器替换训练得到的网络中的差分滤波模块;
(1.6)获得颜色放大网络。
(2)调用颜色放大网络,包括以下子步骤:
(2.1)给定输入视频并设置参数;
(2.2)将输入视频分解成帧序列;
(2.3)调用颜色放大网络处理帧序列;
(2.4)生成颜色放大帧序列;
(2.5)将颜色放大帧序列合成颜色放大视频。
所述步骤(1.1)包括以下子步骤:
(1.1.1)计算强度差:对LBVMM数据集的每组数据计算强度差;
(1.1.2)合成两帧输入:计算每组数据的颜色扰动信号,并据此得到两帧输入;
(1.1.3)随机生成放大因子:放大因子α设置为(0,100]范围内的随机值,并将根据(1.1.4)中真实放大帧的合成效果对其进行微调;
(1.1.4)合成真实放大帧:根据步骤(1.1.2)合成的两帧输入以及步骤(1.1.3)随机生成的放大因子合成真实放大帧。
所述步骤(1.2)构建的颜色放大网络,包括四个模块:空间分解模块、差分滤波模块、非线性放大模块、图像重建模块。其中,所述空间分解模块将两帧输入图像分别分解为颜色表示与运动表示;差分滤波模块计算两帧输入颜色表示的差值作为颜色信号;放大模块根据输入的放大因子完成对颜色信号的非线性放大处理;最后在图像重建模块中,运动表示与放大的颜色信号重建为颜色放大帧。
对于步骤(1.1.2)合成的两帧输入(Xa,Xb),网络的空间分解模块从中提取到的运动表示和颜色表示分别为Ma,Mb和Ca,Cb;Y是步骤(1.1.4)合成的真实放大帧,是网络输出的放大结果。则网络的损失函数为其中,是L1损失函数,L1(Ca,Cc)+L1(Mb,Mc)是正则项,λ是正则项权重,设置为0.1。
所述步骤(1.4)中,从空间分解模块处理的颜色表示中提取ROI(region ofinterest)颜色信号,包括以下子步骤:
(1.4.1)设置FIR带通滤波器的参数,得到冲激响应(impulse response;IR);
(1.4.2)合成颜色信号:每帧颜色表示按照帧序组合得到颜色信号;
(1.4.3)在动态场景下,对颜色信号进行加窗处理,窗函数选择Hanning窗;静态场景则跳过此步骤;
(1.4.4)分别对冲激响应和颜色信号作快速傅里叶变换(FFT),转换到频域;
(1.4.5)在频域上计算冲激响应与颜色信号的乘积;
(1.4.6)对频域上的乘积作快速傅里叶逆变换(IFFT)转换回时域,得到ROI颜色信号。
进一步地,所述步骤(1.3)中,使用默认指数衰减率(即β1=0.9,β2=0.999)的Adam算法进行训练,初始学习速率设置为10-4。Batch Size设置为4,对整个数据集训练10个Epoch。
进一步地,所述步骤(2.3)为调用步骤(1.6)所述的使用优化的FIR带通滤波器的颜色放大网络,帧序列按照顺序输入网络。
进一步地,所述步骤(2.5)所述合成颜色放大视频,需要按照原始视频中的帧序合成。
本发明的有益效果是:本发明方法的执行过程是先执行步骤(1)再执行步骤(2),分阶段进行,使得网络能够在图片数据上进行训练,经过滤波器优化后又能够处理视频数据。降低了训练数据的准备难度。本发明方法从数据中学习得到颜色放大网络,避免人工设计,降低了设计难度,更加自动化;同时学习得到的网络相比传统方法,能够更好地隔离运动与颜色信号;优化的FIR带通滤波器有效避免了动态场景下的伪影,同时非线性放大的设计也大大减少了噪声,产生的颜色放大视频放大效果更强烈。本发明提供的一种基于深度学习的欧拉视频颜色放大方法,能够实现端到端的放大处理,不需要人为过多干预,应用性强,大大提高了欧拉视频颜色放大技术。
附图说明
图1为本发明一种基于深度学习的欧拉视频颜色放大方法整体流程示意图;
图2为本发明步骤(1.2)构建的颜色放大网络结构框架示意图;
图3为本发明步骤(1.3)训练颜色放大网络处理图片数据的流程图;
图4为本发明步骤(2)合成颜色放大视频的流程图;
图5为本发明在静态场景下对面部血流脉冲产生的颜色变化的放大结果以及与线性欧拉视频放大算法(EVM)的对比;
图6为本发明在动态场景下对灯泡明暗变化的放大结果以及与线性欧拉视频放大算法(EVM)的对比;
图7为本发明在动态场景下FIR带通滤波器优化前后的放大效果对比图。
具体实施方式
下面结合附图对本发明作进一步说明。
图1为本发明一种基于深度学习的欧拉视频颜色放大方法整体流程示意图,包括两个步骤:
(1)获得颜色放大网络;
(2)调用颜色放大网络。
先进行步骤(1)颜色放大网络的训练与优化,然后进行步骤(2)调用颜色放大网络完成对视频的颜色放大处理。
其中步骤(1)包括以下子步骤:
(1.1)在LBVMM数据集的基础上合成一个模拟微小颜色变化的图片数据集;
(1.2)构建颜色放大网络;
(1.3)在合成的图片数据集上进行网络的训练;
(1.4)优化FIR带通滤波器;
(1.5)使用优化的FIR带通滤波器替换训练得到的网络中的差分滤波模块;
(1.6)获得颜色放大网络。
步骤(2)包括以下子步骤:
(2.1)给定输入视频并设置参数;
(2.2)将输入视频分解成帧序列;
(2.3)调用颜色放大网络处理帧序列;
(2.4)生成颜色放大帧序列;
(2.5)将颜色放大帧序列合成颜色放大视频。
本发明方法步骤(1.1)所述的LBVMM数据集的每组数据包括四张图片数据,分别为YLBVMM。本发明方法将利用LBVMM数据集每组的四张图片数据合成模拟微小颜色变化的数据集,每组数据包含放大因子α以及四张图片数据Xa、Xb、Xc、Y。该步骤对于合成每组数据包括以下子步骤:
(1.1.2)合成两帧输入:计算每组数据的颜色扰动信号并据此计算得到网络的两帧输入Xa、Xb:其中,与分别为LBVMM数据集每组数据中的两个数据,为该组数据的颜色扰动信号,由步骤(1.1.1)得到的强度差以及强度差的平均值计算得到;
(1.1.3)随机生成放大因子α:放大因子α设置为(0,100]范围内的随机值,并将根据步骤(1.1.4)中真实放大帧的合成效果对其进行微调;
(1.1.4)合成真实放大帧:同时令其中,为LBVMM数据集每组数据中的一个数据,为步骤(1.1.2)计算得到的颜色扰动信号,α为步骤(1.1.3)随机生成的放大因子,Y即为合成的真实放大帧,合成的Xc用于后续计算损失函数。
本发明方法在步骤(1.2)构建的颜色放大网络,包括四个模块:空间分解模块、差分滤波模块、非线性放大模块、图像重建模块。其中,空间分解模块将两帧输入图像分别分解为颜色表示与运动表示,差分滤波模块计算两帧输入颜色表示的差值作为颜色信号;放大模块根据输入的放大因子完成对颜色信号的非线性放大处理;最后在图像重建模块中,运动表示与放大的颜色信号重建为颜色放大帧。
网络结构框架如图2所示。其中,空间分解模块共由4个卷积层和7个残差网络组成,每个卷积层都使用ReLU作为激活函数,跨步卷积层实现下采样,残差网络增加网络深度,同时加快收敛速度;差分滤波模块由一个减法单元构成;非线性放大模块由两个卷积层和一个残差网络构成;图像重建模块中,采用最近邻上采样,串联操作合并颜色表示与运动表示,最终通过2个卷积层完成重建。
对于步骤(1.1.2)合成的两帧输入(Xa,Xb),网络的空间分解模块从中提取到的运动表示和颜色表示分别为Ma,Mb和Ca,Cb;Y是步骤(1.1.4)合成的真实放大帧,是网络输出的放大结果。则网络的损失函数为其中,是L1损失函数,L1(Ca,Cc)+L1(Mb,Mc)是正则项,λ是正则项权重,设置为0.1。
图3展示了本发明方法在步骤(1.3)训练过程中,网络对每组数据处理流程。
网络使用默认指数衰减率(即β1=0.9,β2=0.999)的Adam算法进行训练,初始学习速率设置为10-4。Batch Size设置为4,对整个数据集训练10个Epoch。
本发明方法步骤(1.4)所述FIR带通滤波器的优化,该步骤优化了从空间分解模块处理的颜色表示中提取ROI颜色信号的过程,包括以下子步骤:
(1.4.1)设置FIR带通滤波器的参数,得到冲激响应(impulse response;IR):参数包括滤波器阶数设置为视频帧数,截止频率根据ROI颜色信号设置,采样频率设置为视频帧率;
(1.4.2)合成颜色信号:每帧颜色表示按照帧序组合得到颜色信号;
(1.4.3)在动态场景下,对颜色信号进行加窗处理,窗函数选择Hanning窗;静态场景则跳过此步骤;
(1.4.4)分别对冲激响应和颜色信号作快速傅里叶变换(FFT),转换到频域;
(1.4.5)在频域上计算冲激响应与颜色信号的乘积;
(1.4.6)对频域上的乘积作快速傅里叶逆变换(IFFT)转换回时域,得到ROI颜色信号。
图4展示了本发明方法步骤(2)所述的产生颜色放大视频的处理流程,其中,神经网络采用本发明方法步骤(1.6)所述的使用优化的FIR带通滤波器的颜色放大网络,图4所示网络中FIR带通滤波器处理流程与本发明方法步骤(1.4)所述一致。
本发明方法步骤(2.3)调用步骤(1.6)所述的使用优化的FIR带通滤波器的颜色放大网络,帧序列按照顺序输入网络。
本发明方法步骤(2.5)所述合成颜色放大视频,需要按照原始视频中的帧序合成。
通过上述步骤,发明人在一台配备了一个Intel Core i7-8700 CPU,32GB内存,GTX 1080 Ti显卡的计算机上实现了本发明的若干实施实例。
实施例一、发明人在静态场景下测试了基于深度学习的欧拉视频颜色放大方法的有效性。如图5所示,对Face视频进行放大处理,视频中头部保持静止,从放大结果不难看出本发明放大了面部原本看不见的因血流脉冲导致的颜色变化。将本发明方法的放大结果与线性欧拉视频颜色放大方法进行对比,从时间切片图中可以看出,本发明的放大效果更为明显,噪声更少,画面更清晰。
实施例二、如图6所示,对动态场景进行放大处理,Bulb视频手持灯泡向上移动,对比本发明方法与线性欧拉视频颜色放大方法,显然本发明方法放大效果强烈。图7显示,步骤(1.4)对FIR带通滤波器的优化处理,使动态场景下不会产生伪影。
Claims (4)
1.一种基于深度学习的欧拉视频颜色放大方法,其特征在于,该方法包括两个步骤:
(1)获得颜色放大网络,包括以下子步骤:
(1.1)在LBVMM数据集的基础上合成一个模拟微小颜色变化的图片数据集;
(1.2)构建颜色放大网络;
(1.3)在合成的图片数据集上进行网络的训练;
(1.4)优化FIR带通滤波器;
(1.5)使用优化的FIR带通滤波器替换训练得到的网络中的差分滤波模块;
(1.6)获得颜色放大网络;
(2)调用颜色放大网络,包括以下子步骤:
(2.1)给定输入视频并设置参数;
(2.2)将输入视频分解成帧序列;
(2.3)调用颜色放大网络处理帧序列;
(2.4)生成颜色放大帧序列;
(2.5)将颜色放大帧序列合成颜色放大视频;
所述步骤(1.1)包括以下子步骤:
(1.1.1)计算强度差:对LBVMM数据集的每组数据计算强度差;
(1.1.2)合成两帧输入:计算每组数据的颜色扰动信号,并据此得到两帧输入;
(1.1.3)随机生成放大因子:放大因子α设置为(0,100]范围内的随机值,并将根据(1.1.4)中真实放大帧的合成效果对其进行微调;
(1.1.4)合成真实放大帧:根据步骤(1.1.2)合成的两帧输入以及步骤(1.1.3)随机生成的放大因子合成真实放大帧;
所述步骤(1.2)构建的颜色放大网络包括四个模块:空间分解模块、差分滤波模块、非线性放大模块、图像重建模块;其中,所述空间分解模块将两帧输入图像分别分解为颜色表示与运动表示;差分滤波模块计算两帧输入颜色表示的差值作为颜色信号;放大模块根据输入的放大因子完成对颜色信号的非线性放大处理;最后在图像重建模块中,运动表示与放大的颜色信号重建为颜色放大帧;
对于步骤(1.1.2)合成的两帧输入(Xa,Xb),网络的空间分解模块从中提取到的运动表示和颜色表示分别为Ma,Mb和Ca,Cb;Y是步骤(1.1.4)合成的真实放大帧,是网络输出的放大结果;则网络的损失函数为其中,是L1损失函数,L1(Ca,Cc)+L1(Mb,Mc)是正则项,λ是正则项权重,设置为0.1;
所述步骤(1.4)中,从空间分解模块处理的颜色表示中提取ROI颜色信号,包括以下子步骤:
(1.4.1)设置FIR带通滤波器的参数,得到冲激响应;
(1.4.2)合成颜色信号:每帧颜色表示按照帧序组合得到颜色信号;
(1.4.3)在动态场景下,对颜色信号进行加窗处理,窗函数选择Hanning窗;静态场景则跳过此步骤;
(1.4.4)分别对冲激响应和颜色信号作快速傅里叶变换,转换到频域;
(1.4.5)在频域上计算冲激响应与颜色信号的乘积;
(1.4.6)对频域上的乘积作快速傅里叶逆变换转换回时域,得到ROI颜色信号。
2.如权利要求1所述的基于深度学习的欧拉视频颜色放大方法,其特征在于,所述步骤(1.3)中,使用默认指数衰减率的Adam算法进行训练,初始学习速率设置为10-4;Batch Size设置为4,对整个数据集训练10个Epoch;所述默认指数衰减率为:β1=0.9、β2=0.999。
3.如权利要求1所述的基于深度学习的欧拉视频颜色放大方法,其特征在于,所述步骤(2.3)为调用步骤(1.6)所述的使用优化的FIR带通滤波器的颜色放大网络,帧序列按照顺序输入网络。
4.如权利要求1所述的基于深度学习的欧拉视频颜色放大方法,其特征在于,所述步骤(2.5)所述合成颜色放大视频,需要按照原始视频中的帧序合成。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110162958.0A CN112929622B (zh) | 2021-02-05 | 2021-02-05 | 一种基于深度学习的欧拉视频颜色放大方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110162958.0A CN112929622B (zh) | 2021-02-05 | 2021-02-05 | 一种基于深度学习的欧拉视频颜色放大方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112929622A CN112929622A (zh) | 2021-06-08 |
CN112929622B true CN112929622B (zh) | 2022-04-12 |
Family
ID=76170848
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110162958.0A Active CN112929622B (zh) | 2021-02-05 | 2021-02-05 | 一种基于深度学习的欧拉视频颜色放大方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112929622B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11551116B2 (en) * | 2020-01-29 | 2023-01-10 | Rohde & Schwarz Gmbh & Co. Kg | Signal analysis method and signal analysis module |
CN113842128B (zh) * | 2021-09-29 | 2023-09-26 | 北京清智图灵科技有限公司 | 一种基于多重滤波与混合放大的非接触心率检测装置 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6343141B1 (en) * | 1996-10-08 | 2002-01-29 | Lucent Technologies Inc. | Skin area detection for video image systems |
US9338331B2 (en) * | 2014-01-09 | 2016-05-10 | Massachusetts Institute Of Technology | Riesz pyramids for fast phase-based video magnification |
US9750420B1 (en) * | 2014-12-10 | 2017-09-05 | Amazon Technologies, Inc. | Facial feature selection for heart rate detection |
GB201601142D0 (en) * | 2016-01-21 | 2016-03-09 | Oxehealth Ltd | Method and apparatus for estimating breathing rate |
US11202589B2 (en) * | 2017-11-30 | 2021-12-21 | University Of Kentucky Research Foundation | System and method for assessment of retinal and choroidal blood flow noninvasively using color amplification |
CN109063763A (zh) * | 2018-07-26 | 2018-12-21 | 合肥工业大学 | 基于pca的视频微小变化放大方法 |
CN109259749A (zh) * | 2018-08-29 | 2019-01-25 | 南京邮电大学 | 一种基于视觉摄像头的非接触式心率测量方法 |
CN110175596B (zh) * | 2019-06-04 | 2022-04-22 | 重庆邮电大学 | 基于双流卷积神经网络的虚拟学习环境微表情识别与交互方法 |
CN110236508A (zh) * | 2019-06-12 | 2019-09-17 | 云南东巴文健康管理有限公司 | 一种无创血压连续监测方法 |
CN111428577B (zh) * | 2020-03-03 | 2022-05-03 | 电子科技大学 | 一种基于深度学习与视频放大技术的人脸活体判断方法 |
CN111429345A (zh) * | 2020-03-03 | 2020-07-17 | 贵阳像树岭科技有限公司 | 一种超低功耗视觉计算心率及心率变异性方法 |
-
2021
- 2021-02-05 CN CN202110162958.0A patent/CN112929622B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN112929622A (zh) | 2021-06-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114140353B (zh) | 一种基于通道注意力的Swin-Transformer图像去噪方法及系统 | |
CN112929622B (zh) | 一种基于深度学习的欧拉视频颜色放大方法 | |
CN110889895B (zh) | 一种融合单帧重建网络的人脸视频超分辨率重建方法 | |
CN111861902A (zh) | 基于深度学习的Raw域视频去噪方法 | |
CN111028163A (zh) | 一种基于卷积神经网络的联合图像去噪与弱光增强方法 | |
WO2007114363A1 (ja) | 画像処理方法 | |
WO2007116543A1 (ja) | 画像処理方法 | |
CN108989731B (zh) | 一种提高视频空间分辨率的方法 | |
CN112270646B (zh) | 基于残差密集跳跃网络的超分辨增强方法 | |
CN113191972B (zh) | 一种轻量真实图像去噪的神经网络设计及训练方法 | |
CN112598599B (zh) | 一种高光谱图像的去噪模型训练方法及去噪方法 | |
CN110838089B (zh) | 一种基于OctBlock密集块的快速图像去噪方法 | |
CN116894770A (zh) | 图像处理方法、图像处理设备和计算机程序 | |
CN114926336A (zh) | 视频超分辨率重建方法、装置、计算机设备及存储介质 | |
CN114692733A (zh) | 端到端的抑制时域噪声放大的视频风格迁移方法、系统及存储介质 | |
CN114022809A (zh) | 基于改进自编码网络的视频运动放大方法 | |
CN106803236A (zh) | 基于模糊域奇异值分解的非均匀性校正方法 | |
CN110177229B (zh) | 基于多任务对抗学习的视频转换方法、存储介质及终端 | |
CN111161189A (zh) | 一种基于细节弥补网络的单幅图像再增强方法 | |
CN113888405B (zh) | 基于分簇自适应膨胀卷积神经网络的去噪去马赛克方法 | |
CN115829870A (zh) | 一种基于可变尺度滤波的图像去噪方法 | |
CN115082296A (zh) | 一种基于小波域图像生成框架的图像生成方法 | |
CN115564655A (zh) | 基于深度学习的视频超分辨率重建方法、系统及介质 | |
Zhu et al. | LLISP: Low-light image signal processing net via two-stage network | |
CN113658060A (zh) | 基于分布学习的联合去噪去马赛克方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |