CN115941934A - 基于深度卷积神经网络的多帧融合视频噪声评估方法 - Google Patents

基于深度卷积神经网络的多帧融合视频噪声评估方法 Download PDF

Info

Publication number
CN115941934A
CN115941934A CN202211482051.3A CN202211482051A CN115941934A CN 115941934 A CN115941934 A CN 115941934A CN 202211482051 A CN202211482051 A CN 202211482051A CN 115941934 A CN115941934 A CN 115941934A
Authority
CN
China
Prior art keywords
video
noise
convolution
level
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211482051.3A
Other languages
English (en)
Inventor
何刚
徐倩倩
徐莉
黄林轶
韦胜钰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
China Electronic Product Reliability and Environmental Testing Research Institute
Original Assignee
Xidian University
China Electronic Product Reliability and Environmental Testing Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University, China Electronic Product Reliability and Environmental Testing Research Institute filed Critical Xidian University
Priority to CN202211482051.3A priority Critical patent/CN115941934A/zh
Publication of CN115941934A publication Critical patent/CN115941934A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T90/00Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本发明公开了一种基于深度卷积神经网络的多帧融合视频噪声评估方法,主要解决现有评估方法在视频噪声评估中无法准确贴合现实场景、噪声覆盖范围窄及对超高清视频评估准确率低的问题;其实现方案是:通过人工退化和真实拍摄获取两种方法收集不同噪声的超高清视频,并对其进行等级划分组成训练集;设计多帧融合视频噪声评估网络,使用训练集对该网络进行训练;将待评估视频按照帧序列进行视频帧分组,将分组后的视频帧输入到训练好的网络中,输出待评估视频每帧的噪声级别;将输出最多的帧的级别作为待评估视频的级别。本发明覆盖范围广,更能贴合现实场景,不仅对视频噪声等级的评估准确率高,而且评估速度更快。可用于超高清视频噪声检测系统。

Description

基于深度卷积神经网络的多帧融合视频噪声评估方法
技术领域
本发明属于图像视频处理技术领域,更进一步涉及多帧融合视频噪声评估方法,可用于超高清视频噪声检测的系统。
背景技术
视频在获取时由于受到传感器材料属性、工作环境、电子元器件和电路结构以及在传输过程中传输介质和记录设备的干扰,噪声的产生是无法避免的。噪声的存在会扰乱可观测信息,对视频质量造成一定程度上的影响。在如今的视频行业中,许多视频都存在着不同的噪声失真,需要根据用户对视频噪声程度的观感质量应用不同的推送力度;对于视频监控来说,由于噪声程度不同对可观测信息的影响是非常大的,若采用统一的降噪处理,会造成部分可观测信息的丢失,因此根据不同噪声程度进行相对应的降噪处理是非常必要的。目前常用的评估视频噪声评估的方法是基于高斯白噪声建模或者采用数学统计分析的方式得到的,这种方法虽然能够起到一定的噪声评估的作用,但是费时费力,在应用到现实场景的时候会出现场景无法准确评估的问题,在应用到检测超高清视频噪声检测的系统中时,耗时较长且准确率较低。因此有必要建立一种能够客观、自动、耗时低的评价超高清视频噪声等级的方法。
西北工业大学在其专利号为CN201911066796.X的专利文献中公开了一种可用于图像噪声估计的评方法。该方法的实现步骤包括:采集任意场景无噪声的图像,并对其进行数据扩充,在扩充后的图片中进一步截取像素大小为200x200的纹理结构区域,将所有训练图片采用重叠方式分割为50x50的图像块,构成训练数据集,以对深度卷积神经网络进行训练。训练时,采用生成的随机数来构造噪声污染图像,每次训练随机生成噪声污染图像ti,s所对应的噪声仿真图ni,s,将噪声污染图像ti,s作为神经网络的输入,对应标签为ni,s。检测时只需要向训练好的深度卷积神经网络输入任意噪声污染的图像,得到相应的噪声图,再对噪声图进行直方图统计估计对应的噪声分布,计算均方差即可得到所对应的噪声水平。该方法虽然采用了深度神经网络来进行噪声图的预测,并通过对噪声图的分布进行统计计算得到噪声水平,在预测速度和准确度上有一定的提升。但是该方法仍存在三方面的不足:
其一,在其数据集的制作上,由于在拍摄过程中光子噪声的存在、电子元器件和电路结构的影响以及在传输过程中传输介质的干扰,并无法实现获取完全无噪的图像;
其二,在进行训练的时候,采用的是生成随机数的方法获取对应的噪声仿真图,但是真实世界中的噪声难以进行建模,且其使用生成随机数来建模噪声仿真图,用在真实场景上的准确度较差;
其三,该方法主要针对噪声图像,对超高清视频噪声进行评估其准确率低。
发明内容
本发明的目的在于提出一种基于深度卷积神经网络的多帧融合视频噪声评估方法,以解决现有技术在视频噪声评估中无法准确贴合现实场景、噪声覆盖范围窄及对超高清视频评估准确率低的问题。
本发明的技术思路是:通过人工退化和真实获取这两种方法收集不同噪声等级的超高清视频组成训练集,解决视频噪声评估中无法准确贴合现实场景的问题;通过对噪声视频划分等级,解决噪声覆盖范围不够的问题;通过设计多帧融合的深度神经分类网络,提高对超高清视频噪声评估的准确度。
根据上述思路,本发明的实现步骤包括如下:
(1)生成含有五个噪声等级类别的超高清视频训练集:
1a)从Train_91数据集中选取视频,采取高斯退化的方式对其进行退化,按照高斯噪声退化范围将视频划分为噪声污染可忽略、噪声污染轻微、噪声污染明显、噪声污染严重、噪声污染极其严重五个类别,分别对应噪声等级为0级、1级、2级、3级、4级;
1b)通过相机拍摄获取真实情况下多种含噪声视频,并以1a)退化后的视频类别为参考,对其进行噪声等级划分;
1c)将上述划分好等级的退化视频和真实视频与其各自对应的类别标签组成训练集;
(2)构建基于深度卷积神经网络的多帧融合视频噪声评估网络:
2a)建立由1个输入卷积块,2个卷积下采样块、2个卷积上采样池化块及1个输出卷积块依次级联组成的基础特征提取模块;
2b)将3个基础特征模块并联,再与1个基础特征提取模块、自适应平均池化层、全连接层依次级联,构成多帧融合视频噪声评估网络;
(3)对多帧融合视频噪声评估网络进行训练:
3a)对训练集中的每个视频选取两组五帧的视频帧先进行像素大小为224*224的裁剪,再将其存储为lmdb格式;
3b)将lmdb格式的训练集输入到多帧融合视频噪声评估网络使用随机梯度下降法对其进行迭代训练,得到训练好的多帧融合视频噪声评估网络;
(4)对超高清视频的噪声等级进行评估:
4a)对超高清视频以待评估帧为中心,取前后各两帧为一组进行分组;
4b)将分组后的视频帧按照帧序列逐组输入到训练好的多帧融合视频噪声评估网络中,输出待评估帧的评估类别,统计出现最多的评估类别,得到超高清视频噪声等级。
本发明与现有技术相比,具有以下优点:
第一,由于本发明生成的训练集采用了人工退化和真实获取两种制作方式,既解决了数据集过小的问题,又解决了数据集对真实场景贴合不足的问题,使得本发明在客观评估视频噪声质量的时候针对造成噪声的污染程度覆盖范围更广,准确率更高,更能贴合实际中出现的真实噪声情况。
第二,由于本发明将超高清视频图像划分为噪声污染可忽略、噪声污染轻微、噪声污染明显、噪声污染严重、噪声污染极其严重五个类别,涵盖多种场景下视频噪声情况,所训练的神经网络学习到了不同噪声等级之间差距,使得本发明在客观评估视频噪声质量时的结果涵盖范围更加广泛、精确。
第三,由于本发明对提取噪声特征时,采用了多帧融合输入,在对当前帧进行评估的时候参考到前后两帧的帧信息,使得网络能够获取更多信息,克服了视频中存在的干扰造成的对噪声评估出现差错的问题,使得网络的预测精度更高;同时采用深度神经网络,提高了超高清视频图像的评估效率。
附图说明
图1为本发明的实现流程图。
图2是本发明中构建的多帧融合视频噪声评估网络结构图。
具体实施方式
以下结合附图对本发明的实施例和效果作详细描述。
参照图1,本实例的实现步骤如下:
步骤1,建立超高清噪声视频数据的训练集。
本步骤的频数数据集是采用人工退化和真实获取两种方法获取,具体实现如下:
1.1)人工退化获取频数数据集,并进行类别划分,标定噪声级别:
1.1.1)从Train_91数据集中进行视频采集,其包含:人物,动物,植物,运功场景,静止场景这些常见的视频,使用python内嵌的函数生成符合高斯分布的噪声矩阵,将其添加到原图像上,进行高斯噪声退化;
1.1.2)对从Train_91所筛选出来的视频,按照高斯噪声退化范围对其进行噪声等级划分,即将高斯噪声在0-5范围的退化规定为噪声污染可忽略,标记为0级;将高斯噪声在5-10范围的退化规定为噪声污染轻微,标记为1级;将高斯噪声在10-15范围的退化规定为噪声污染明显,标记为2级;将高斯噪声在15-20范围的退化规定为噪声污染严重,标记为3级将高斯噪声在20-30范围的退化规定为噪声污染极其严重,标记为4级。
1.2)获取的真实视频数据集并进行类别划分,标定噪声级别:
1.2.1)使用相机拍摄不同场景下的马路,校园,景区,人物、动物、运动及静止多种场景下的视频,并通过调节相机的ISO、曝光设置获得不同噪声的超高清真实视频数据集;
1.2.2)组织N>8名标注人员对获取的真实视频进行等级标注,即在光线充足的环境下使用PotPlayer播放视频,及分辨率为1920×1080的显示器对真实视频进行播放,标注人员先从人工退化好的视频中挑选作为参考的退化视频,再以该视频为参考标准由每位标注人员在统一参考标准下对真实视频进行噪声等级划分与标注,以将真实视频划分为噪声污染可忽略、噪声污染轻微、噪声污染明显、噪声污染严重、噪声污染极其严重五个级别,并将其分别对应为0级、1级、2级、3级、4级五个等级标签;
1.2.3)选取多数人对视频等级标注的结果作为真实视频数据最终的噪声等级;
1.3)将上述步骤1.1)划分好等级的退化视频和步骤1.2)化分好等级真实视频与其各自对应的类别标签组成训练集。
步骤2,构建基于深度卷积神经网络的多帧融合视频噪声评估网络。
参照图2,本步骤的具体实现如下:
2.1)构建基础的特征提取模块:
选取1个输入卷积块,其包括两层卷积层,每层卷积层的卷积核大小为3x3,步长为1,填充为1,激活函数采取Relu;该第一卷积层的输入输出通道为(9,90),第二卷积层的输入输出通道为(90,32)。
选取2个卷积下采样块,每个卷积下采样块均包括三层卷积层,每层的卷积层的卷积核大小均为3x3,步长为1,填充为1;该第一个卷积下采样块的三层卷积层输入输出通道分别为(32,64),(64,64),(64,64);该第二个卷积下采样块的三层卷积层的输入输出通道分别为(64,128),(128,128),(128,128)。
选取2个卷积上采样池化块,每个卷积上采样池化块均包括三层卷积层和一层像素重组上采样层,每层卷积层的卷积核大小为3x3,步长为1,填充为1,像素重组上采样层的上采样因子为2;该第一个卷积下采样块的三层卷积层的输入输出通道分别为(128,128),(128,128),(128,256);该第二个卷积下采样块的三层卷积层的输入输出通道分别为(64,64),(64,64),(64,128)。
选取1个输出卷积块,包括两层卷积层,每层卷积层的卷积核大小为3x3,步长为1,填充为1;该第一卷积层输入输出通道为(32,32),该第二卷积层输入输出通道为(32,3)。
将上述一个输入卷积块、两个卷积下采样块,两个卷积上采样块和一个输出卷积块依次级联组成基础特征提取模块;
2.2)构建多帧融合视频噪声评估网络:
选取4个2.1)构建的基础的特征提取模块;
选取1个自适应平均池化层,其参数设置为1x1;
选取1个全连接层,其输入通道为3,输出通道为5;
将上述3个基础特征模块并联,再与1个基础特征提取模块、自适应平均池化层、全连接层依次级联,构成多帧融合视频噪声评估网络。
步骤3,训练多帧融合视频噪声评估网络。
3.1)配置训练环境,安装网络训练所需要的python库;
3.2)设置批处理大小为16,初始学习率为0.001,权重衰减规则设置为每前20个训练周期学习率保持不变,从第20个训练周期后学习率×0.1,求解器选择SGD,训练周期设置为150,网络的损失函数设为交叉熵损失函数:
Figure BDA0003960702990000051
其中L表示损失值;i表示每个训练批次中图像的索引值;N表示批处理大小,本实施例中N设置为16;j表示噪声等级分类的类别索引值;M表示噪声等级分类的总类别,本实施例中M设置为5;pij表示每个训练批次中网络输出的第i个图像的噪声等级类别等于第j个噪声等级类别的概率;yij为0或1,如果每个训练批次中第i个图像的真实噪声等级类别等于第j个真实噪声等级类别,则yij为1,否则,yij为0;
3.3)对训练集中的每个视频选取两组五帧的视频帧先进行像素大小为224*224的裁剪,再将其存储为lmdb格式;
3.4)使用随机梯度下降法训练多帧融合视频噪声评估网络:
3.4.1)在每个训练周期中,先将lmdb格式的训练集按批处理大小分批次输入网络中进行前向传播,计算输出值与目标值的损失值;
3.4.2)根据所计算出的损失值,使用随机梯度下降法SGD对网络参数进行更新;
3.4.3)重复3.4.1)至3.4.2)直至损失函数收敛或达到设定的训练周期,得到训练好的多帧融合视频噪声评估网络。
步骤4,对噪声等级未知的超高清视频进行评估。
4.1)获取含噪的超高清视频:
获取人工退化的含噪的超高清视频:从网上获取超高清视频20个,采用步骤1.1.1)中所述的高斯退化方法,在进行退化时,随机设置退化范围,得到噪声等级未知的人工退化的含噪的超高清视频;
获取真实拍摄的含噪的超高清视频:通过设置相机的不同的参数,例如ISO值、曝光时间来获得真实的含噪的超高清视频;
4.2)将4.1)获取的两类含噪超高清视频以待评估帧为中心,取前后各两帧为一组进行分组,将分组后的视频帧按照帧序列逐组输入到训练好的多帧融合视频噪声评估网络中,输出待评估帧的评估等级;
4.3)根据网络输出待评估帧的评估等级,统计出现最多的评估帧的等级,得到超高清视频的噪声等级,完成对多帧融合视频噪声的评估。
本发明的效果可通过以下仿真实验进一步说明:
1.仿真实验条件:
本发明的仿真实验的硬件平台为:CPU为Intel i9 9820x,内存16GB,GPU为
Figure BDA0003960702990000061
GTX 1080Ti;
本发明的仿真实验的软件平台为:Linux操作系统和python 3.6;
本发明的仿真实验的超高清含噪视频通过人工退化和相机拍摄两种方式获得,共制作收集视频65个,其中人工退化的噪声视频共40个,相机拍摄的噪声视频共30个,每个视频的帧数150帧到500帧不等,帧率25fps到60fps不等,分辨率包括720p、1080p、2K、4K,视频涵盖大部分常见场景;使用获得的超高清噪声视频来检验本发明构建的基于深度卷积神经网络的多帧融合视频噪声评估网络对噪声视频等级评估的准确度。
2.仿真内容及其结果分析:
仿真1,在上述仿真条件下,采用本发明方法构建超高清噪声视频数据的测试集,并对构建的噪声视频数据的测试集中的每一个视频的噪声等级进行评估,计算测试集的平均噪声等级评估准确率,得到本发明所构建的基于深度卷积神经网络的多帧融合视频噪声评估网络在视频噪声等级测试集的5个噪声等级类别上的预测准确率,如表1所示;
表1视频噪声等级测试集预测准确率一览表
类别 准确率
0级:噪声污染可忽略 0.97
1级:噪声污染轻微 0.96
2级:噪声污染明显 0.94
3级:噪声污染严重 0.95
4级:噪声污染极其严重 0.94
由表1可见,本发明构建的基于深度卷积神经网络的多帧融合视频噪声评估网络在超高清视频测试集五个等级的噪声等级评估中准确率都在94%及以上,有较高的等级评估准确率。
仿真2,在上述仿真条件下,用本发明构建分辨率分别为720p、1080p、2K和4K的多分辨率噪声视频测试集,并利用python的time函数计算测试集每一帧的评估用时,得到在不同分辨率视频上的平均单帧用时,如表2所示;
表2本发明在不同分辨率视频上的平均单帧用时一览
视频分辨率 平均单帧用时
1280×720(720p) 0.03s
1920×1080(1080p) 0.03s
2560×1440(2K) 0.04s
3840×2160(4K) 0.12s
由表2可见,本发明构建的基于深度卷积神经网络的多帧融合视频噪声评估网络对多分辨率超高清视频评估耗时短,对4K的超高清视频评估每帧处理时间只需0.12秒,说明本发明能够对大分辨率视频噪声等级进行准确快速的评估;
上述仿真结果表明,本发明既可以保证对噪声等级评估的准确率又可以保证处理速度,且均达到了较好评估的效果。

Claims (8)

1.一种基于深度卷积神经网络的多帧融合视频噪声评估方法,其特征在于,包括如下步骤:
(1)生成含有五个噪声等级类别的超高清视频训练集:
1a)从Train_91数据集中选取视频,采取高斯退化的方式对其进行退化,按照高斯噪声退化范围将视频划分为噪声污染可忽略、噪声污染轻微、噪声污染明显、噪声污染严重、噪声污染极其严重五个类别,分别对应类别标签0、1、2、3、4;
1b)通过相机拍摄获取真实情况下多种含噪声视频,并以1a)退化后的视频类别为参考,对其进行噪声等级划分;
1c)将上述划分好等级的退化视频和真实视频与其各自对应的类别标签组成训练集;
(2)构建基于深度卷积神经网络的多帧融合视频噪声评估网络:
2a)建立由1个输入卷积块,2个卷积下采样块、2个卷积上采样池化块及1个输出卷积块依次级联组成的基础特征提取模块;
2b)将3个基础特征模块并联,再与1个基础特征提取模块、自适应平均池化层、全连接层依次级联,构成多帧融合视频噪声评估网络;
(3)对多帧融合视频噪声评估网络进行训练:
3a)对训练集中的每个视频选取两组五帧的视频帧先进行像素大小为224*224的裁剪,再将其存储为lmdb格式;
3b)将lmdb格式的训练集输入到多帧融合视频噪声评估网络使用随机梯度下降法对其进行迭代训练,得到训练好的多帧融合视频噪声评估网络;
(4)对超高清视频的噪声等级进行评估:
4a)对超高清视频以待评估帧为中心,取前后各两帧为一组进行分组;
4b)将分组后的视频帧按照帧序列逐组输入到训练好的多帧融合视频噪声评估网络中,输出待评估帧的评估类别,统计出现最多的评估类别,得到超高清视频噪声等级。
2.根据权利要求1所述的方法,其特征在于,2a)中的输入卷积块,包括两层卷积层,每层卷积层的卷积核大小为3x3,步长为1,填充为1;其第一卷积层的输入输出通道为(9,90),第二卷积层的输入输出通道为(90,32)。
3.根据权利要求1所述的方法,其特征在于,2a)中的两个卷积下采样块的结构参数如下:
两个卷积下采样块均包括三层卷积层,且每层的卷积层的卷积核大小为3x3,步长为1,填充为1;
第一个卷积下采样块的三层卷积层输入输出通道分别为(32,64),(64,64),(64,64);
第二个卷积下采样块的三层卷积层的输入输出通道分别为(64,128),(128,128),(128,128)。
4.根据权利要求1所述的方法,其特征在于,2a)中的两个卷积上采样池化块,结构参数如下:
两个卷积上采样池化块均包括三层卷积层和一层像素重组上采样层,每层卷积层的卷积核大小为3x3,步长为1,填充为1,像素重组上采样层的上采样因子为2;
第一个卷积下采样块的三层卷积层的输入输出通道分别为(128,128),(128,128),(128,256);
第二个卷积下采样块的三层卷积层的输入输出通道分别为(64,64),(64,64),(64,128)。
5.根据权利要求1所述的方法,其特征在于,2a)的输出卷积块,包括两层卷积层,每层卷积层的卷积核大小为3x3,步长为1,填充为1;其第一卷积层输入输出通道为(32,32),第二卷积层输入输出通道为(32,3)。
6.根据权利要求1所述的方法,其特征在于,3b)中基于lmdb格式的训练集,采用随机梯度下降法对多帧融合视频噪声评估网进行迭代训练,实现如下:
3b1)设置批处理大小为16,初始学习率为0.001,权重衰减规则设置为每前20个训练周期学习率保持不变,从第20个训练周期后学习率×0.1,求解器选择SGD,训练周期设置为150,网络的损失函数设为交叉熵损失函数;
3b2)在每个训练周期中,先将训练集按批处理大小分批次输入网络中进行前向传播,计算输出值与目标值的损失值;
3b3)根据3b2)所计算出的损失值,使用SGD法对网络参数进行更新;
3b4)重复3b2)到3b3)直至损失函数收敛或达到设定的训练周期,得到训练好的多帧融合视频噪声评估网络。
7.根据权利要求1所述的方法,其特征在于,1a)中对从Train_91所筛选出来的视频,按照高斯噪声退化范围对其进行噪声等级划分,实现如下:
将高斯噪声在0-5范围的退化规定为噪声污染可忽略,标记为0级,
将高斯噪声在5-10范围的退化规定为噪声污染轻微,标记为1级,
将高斯噪声在10-15范围的退化规定为噪声污染明显,标记为2级,
将高斯噪声在15-20范围的退化规定为噪声污染严重,标记为3级,
将高斯噪声在20-30范围的退化规定为噪声污染极其严重,标记为4级。
8.根据权利要求1所述的方法,其特征在于,1b)中取真实情况下多种含噪声视频以1a)退化后的视频类别为参考进行噪声等级标注,实现如下
1b1)设定N个标记人员先从1a)人工退化好的视频中挑选作为参考的退化视频,再以该参考视频为参考标准对待标注视频进行噪声等级划分,N大于8;
1b2)选取多数人对视频等级标注的结果作为视频最终的噪声等级。
CN202211482051.3A 2022-11-24 2022-11-24 基于深度卷积神经网络的多帧融合视频噪声评估方法 Pending CN115941934A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211482051.3A CN115941934A (zh) 2022-11-24 2022-11-24 基于深度卷积神经网络的多帧融合视频噪声评估方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211482051.3A CN115941934A (zh) 2022-11-24 2022-11-24 基于深度卷积神经网络的多帧融合视频噪声评估方法

Publications (1)

Publication Number Publication Date
CN115941934A true CN115941934A (zh) 2023-04-07

Family

ID=86651752

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211482051.3A Pending CN115941934A (zh) 2022-11-24 2022-11-24 基于深度卷积神经网络的多帧融合视频噪声评估方法

Country Status (1)

Country Link
CN (1) CN115941934A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117201768A (zh) * 2023-11-08 2023-12-08 深圳市达瑞电子科技有限公司 一种高清视频文件的图像噪声检测方法及系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117201768A (zh) * 2023-11-08 2023-12-08 深圳市达瑞电子科技有限公司 一种高清视频文件的图像噪声检测方法及系统

Similar Documents

Publication Publication Date Title
Athar et al. A comprehensive performance evaluation of image quality assessment algorithms
Li et al. No-reference image quality assessment with deep convolutional neural networks
CN112052755B (zh) 基于多路注意力机制的语义卷积高光谱图像分类方法
CN111428625A (zh) 一种基于深度学习的交通场景目标检测方法及系统
CN108039044B (zh) 基于多尺度卷积神经网络的车辆智能排队的系统及方法
CN110569747A (zh) 一种利用图像金字塔与Faster-RCNN快速统计大田水稻稻穗数的方法
CN110992366B (zh) 一种图像语义分割方法、装置及存储介质
CN112233067A (zh) 一种热轧钢卷端面质量检测方法及系统
CN111311595B (zh) 图像质量的无参考质量评价方法及计算机可读存储介质
CN112036454B (zh) 一种基于多核密集连接网络的图像分类方法
CN108053025B (zh) 多柱神经网络医学影像分析方法及装置
Li et al. Image quality assessment using deep convolutional networks
CN115941934A (zh) 基于深度卷积神经网络的多帧融合视频噪声评估方法
CN111539314A (zh) 面向云雾遮挡的海面目标显著性检测方法
Xu et al. Remote-sensing image usability assessment based on ResNet by combining edge and texture maps
CN115097398A (zh) 基于跨域信号低损恢复网络的雷达抗干扰信号恢复方法
CN115908142A (zh) 一种基于视觉识别的接触网微小部件验损方法
CN111160100A (zh) 一种基于样本生成的轻量级深度模型航拍车辆检测方法
CN110728269A (zh) 一种高铁接触网支柱杆号牌识别方法
CN112528058B (zh) 基于图像属性主动学习的细粒度图像分类方法
CN111651954B (zh) 基于深度学习对smt电子元件三维重建的方法
CN110930314B (zh) 图像条带噪声抑制方法及其装置、电子设备、存储介质
Tiwari A pattern classification based approach for blur classification
CN116485766A (zh) 一种基于改进yolox的粮食不完善粒检测和计数方法
CN112990350B (zh) 目标检测网络训练方法及基于目标检测网络煤矸识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination