CN116563755B - 基于屏摄图像的真实世界Raw视频去噪数据集生成方法 - Google Patents

基于屏摄图像的真实世界Raw视频去噪数据集生成方法 Download PDF

Info

Publication number
CN116563755B
CN116563755B CN202310446179.2A CN202310446179A CN116563755B CN 116563755 B CN116563755 B CN 116563755B CN 202310446179 A CN202310446179 A CN 202310446179A CN 116563755 B CN116563755 B CN 116563755B
Authority
CN
China
Prior art keywords
frame
video
noisy
clean
data set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310446179.2A
Other languages
English (en)
Other versions
CN116563755A (zh
Inventor
岳焕景
曹聪
廖磊
杨敬钰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN202310446179.2A priority Critical patent/CN116563755B/zh
Publication of CN116563755A publication Critical patent/CN116563755A/zh
Application granted granted Critical
Publication of CN116563755B publication Critical patent/CN116563755B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/0895Weakly supervised learning, e.g. semi-supervised or self-supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Color Television Image Signal Generators (AREA)
  • Processing Of Color Television Signals (AREA)

Abstract

本发明公开了基于屏摄图像的真实世界Raw视频去噪数据集生成方法,涉及图像信号处理技术领域。基于屏摄图像的真实世界Raw视频去噪数据集生成方法,包括如下步骤:S1、构建低光环境及采集系统;S2、基于屏摄图像采集真实带噪‑干净Raw视频帧数据对;S3、带噪帧与干净帧间进行亮度矫正和空间对齐;S4、对视频帧进行色彩修正生成Raw视频去噪数据集;本发明基于屏摄图像提出了真实世界Raw视频去噪数据集采集和处理方法,所制作的数据集为Raw视频去噪算法的训练和评估提供了基准数据集。

Description

基于屏摄图像的真实世界Raw视频去噪数据集生成方法
技术领域
本发明涉及图像信号处理技术领域,尤其涉及一种基于屏摄图像的真实世界Raw视频去噪数据集生成方法。
背景技术
视频去噪旨在利用连续视频帧间的关联信息提高去噪效果,但是ISP过程让RGB域上的噪声十分复杂,并不利于噪声的有效去除。因此,直接对Raw视频进行去噪能极大地提升去噪性能。近年来,越来越多的视频去噪方法选择在Raw域上对噪声进行去除。由于缺乏真实数据,这些Raw视频去噪方法往往使用仿真噪声数据。但是仿真数据与真实采集的数据间存在很大差异,因此使用仿真数据的Raw视频去噪方法在真实数据上的表现还有待提升。
另一方面,有视频去噪工作利用定格动画的拍摄方式制作了第一个真实世界Raw视频去噪数据集。但是定格动画的拍摄方式限制了采集视频的内容,从而导致数据集缺乏户外、街景、运动等视频内容,并且数据量很低,不能广泛地覆盖地真实世界的视频形式。
为了解决上述问题,本发明提出一种基于屏摄图像的真实世界Raw视频去噪数据集生成方法。
发明内容
本发明的目的在于提出一种基于屏摄图像的真实世界Raw视频去噪数据集生成方法以解决背景技术中所提出的问题。本发明基于屏摄图像对已有的多样化视频在Raw域上的进行重新采集,能克服采集内容上的限制。为了获得高质量的干净-带噪数据对,本发明提出了亮度矫正、空间对齐使干净帧与带噪帧保持一致,并利用色彩修正克服数据集整体存在的色彩偏蓝问题。
为了实现上述目的,本发明采用了如下技术方案:
基于屏摄图像的真实世界Raw视频去噪数据集生成方法,具体包括以下步骤:
S1、构建屏幕图像采集系统:利用显示器和拍摄设备组成图像采集模块,将图像采集模块置于暗室中,通过调整显示器屏幕亮度来模拟真实低光环境,通过此设计,能够有效避免环境光对图像采集的影响;所述拍摄设备包括但不限于手机相机、工业相机和单反相机;由于显示器的发光网格和拍摄设备彩色滤光片阵列间的混叠效应,捕捉到的屏幕内容可能会引入摩尔纹,因此采集屏幕图像时,调整拍摄设备与显示器之间的距离以及拍摄设备焦距,避免出现摩尔纹和模糊;
S2、基于屏摄图像采集真实带噪-干净Raw视频帧数据对:选取高质量视频逐帧播放在显示器屏幕上,分别拍摄静止屏幕画面的带噪视频帧和干净视频帧,组成真实带噪-干净Raw视频帧数据对;
S3、对带噪帧与干净帧间进行亮度矫正和空间对齐:带噪帧与干净帧的亮度差异由不连续的ISO和曝光时长产生,将干净帧乘以亮度矫正系数,使干净帧与带噪帧保持相同的亮度;由于采集设备的微小运动,通过DeepFlow技术,将干净帧与带噪帧对齐,消除干净帧与带噪帧之间的空间错位;
S4、对视频帧进行色彩修正生成Raw视频去噪数据集:由于显示器屏幕的蓝光效应,捕捉到的视频帧色彩将发生偏离,因此需要参考原始视频的色彩对视频帧进行修正;对原始视频通过逆向ISP方法UIP处理得到Raw格式视频帧,处理后的视频帧按照顺序组合成视频,生成Raw视频去噪数据集。
优选地,利用拍摄设备对S2中所播放的视频进行采集时,将拍摄设备随机选定一个ISO,根据屏幕亮度确定短曝光时长;带噪帧通过所选定的ISO和短曝光时长连续捕捉,干净帧通过低ISO和长曝光时长捕捉;连续捕捉若干次带噪帧以丰富噪声样本的多样性。
优选地,所述S3进一步包括以下内容:
考虑到采集设备放置在暗室中并且采集时屏幕亮度不发生改变,因此捕捉到视频帧的亮度只与ISO增益和曝光时间有关,具体公式表示为:
B=G×E
式中,B表示视频帧像素的亮度;G、E分别表示ISO增益和曝光时间;
假设用Bc,Gc和Ec来表示干净帧的亮度、ISO增益和曝光时间,用Bn,Gn和En来表示带噪帧的亮度、ISO增益和曝光时间;在不改变带噪帧中噪声分布的前提下,通过将干净帧与亮度补偿系数Gcor相乘进行校正,使干净帧具有与有带噪帧相同的亮度,该过程的公式表示为:
Bc×Gcor=Bn
对于Raw图像,经过黑色校正后的像素值与B呈线性关系,通过像素值平均值来估计Raw图像的平均亮度,Gcor变形可得:
式中,表示带噪帧在空间位置(i,j)上的像素值,/>表示干净帧在空间位置(i,j)上的像素值;bl表示Raw图像的黑级。
优选地,所述S4具体包括以下内容:
通过不同通道的色温来描述由于屏幕蓝光造成的色彩偏移,具体为:
式中,Ki表示色温;分别表示Raw图像RGGB四个通道各自像素的平均值;/>表示/>的平均值,i∈{r,g1,g2,b};
正确的通道色温通过UIP方法中的逆向ISP过程获得,通过将拍摄的RGB视频重置为Raw视频从而获得采集前RGGB通道的正确色温;以R通道色温为基准,色彩矫正过程的公式表示为:
式中,xg1、xg2、xb表示计算获得的通道矫正系数。
与现有技术相比,本发明提供了基于屏摄图像的真实世界Raw视频去噪数据集生成方法,具备以下有益效果:
(1)本发明基于屏摄图像提出了真实世界Raw视频去噪数据集生成方法,具体包括数据集的采集和处理方法,所制作的数据集为Raw视频去噪算法的训练和评估提供了基准数据集。
(2)本发明为生成高质量的干净-带噪Raw视频数据对,提出了亮度矫正,空间对齐,色彩修正的处理方法,所制作的数据集优于现有的真实世界Raw视频去噪数据集;经过本发明的研究探索,能够启发更多Raw视频去噪算法的研究。
附图说明
图1为本发明实施例1中提到的屏幕图像采集系统以及所采集的干净、带噪视频帧示意图;
图2为本发明实施例1中所使用的拍摄视频源。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。
实施例1:
请参阅图1,本发明提出基于屏摄图像的真实世界Raw视频去噪数据集生成方法,包括以下步骤:
S1、构建低光环境及采集系统:为了避免环境光的影响,采集系统放置在暗室中,通过调整显示器屏幕亮度来模拟真实低光环境;采集系统由显示器和拍摄设备组成,鉴于不同设备捕获的噪声差别很大,拍摄设备使用传感器为IMX385的监控相机;由于显示器的发光网格和相机彩色滤光片阵列间的混叠效应,捕捉到的屏幕内容可能会引入摩尔纹,需调整相机和显示器距离以及相机焦距,以避免摩尔纹和模糊出现;
S2、基于屏摄图像采集真实带噪-干净Raw视频帧数据对:将选取的高质量视频逐帧播放在显示器屏幕上,分别拍摄静止屏幕画面的带噪视频帧和干净视频帧,组成真实带噪-干净Raw视频帧数据对;如图2所示,拍摄视频源来自DAVIS、UVG和Adobe240fps数据集中各100、16和4个高质量视频;DAVIS视频的帧率在30fps左右,UVG视频的帧率为50或120fps,Adobe240fps视频的帧率为240fps;在120个视频中,58个视频的分辨率为4K(3840×2160)或更高,53个视频的分辨率为1080p(1920×1080),4个视频的分辨率为720p(1080×720),5个视频的分辨率在4K和1080p之间,每个视频只抓取了其中的25帧;为了保证重拍视频的高质量,显示器采用高动态范围的4K屏幕来显示丰富的细节和色彩;对于每个播放的视频,将从相机设置(1600,3200,6400,12800,25600)中随机选定一个ISO,并根据屏幕亮度确定短曝光时长;为了更好地拍摄带噪帧,相机周围的亮度被控制在约1lux;带噪帧通过选定的ISO和短曝光时长连续捕捉10次(以丰富噪声样本的多样性),干净帧通过低ISO和长曝光时长捕捉;在5个不同的ISO级别下,共捕获了120对动态干净-带噪视频,即一个ISO值对应24个视频;这120个场景被分为训练集(90个场景)和测试集(30个场景);
S3、带噪帧与干净帧间进行亮度矫正和空间对齐:带噪帧与干净帧的亮度差异由不连续的ISO和曝光时长产生,可通过对干净帧乘以亮度矫正系数使干净帧与带噪帧保持相同的亮度;由于采集设备的微小运动,带噪帧和干净帧间常存在空间错位,可通过DeepFlow技术将干净帧与带噪帧对齐;
考虑到采集设备放置在暗室中并且采集时屏幕亮度不发生改变,因此捕捉到视频帧的亮度只与ISO增益和曝光时间有关,具体公式表示为:
B=G×E
式中,B表示视频帧像素的亮度;G、E分别表示ISO增益和曝光时间;
假设用Bc,Gc和Ec来表示干净帧的亮度、ISO增益和曝光时间,用Bn,Gn和En来表示带噪帧的亮度、ISO增益和曝光时间;在不改变带噪帧中噪声分布的前提下,通过将干净帧与亮度补偿系数Gcor相乘进行校正,使干净帧具有与有带噪帧相同的亮度,该过程的公式表示为:
Bc×Gcor=Bn
对于Raw图像,经过黑色校正后的像素值与B呈线性关系,通过像素值平均值来估计Raw图像的平均亮度,Gcor变形可得:
式中,表示带噪帧在空间位置(i,j)上的像素值,/>表示干净帧在空间位置(i,j)上的像素值;bl表示Raw图像的黑级;
需要注意的是,过曝的像素值被剪切到白级,与B不是线性关系;当Gcor小于1时,直接对干净帧Gcor会导致矫正后的干净帧过曝区域像素值小于白级,与带噪帧产生较大的差异;因此在采集过程中,需要调整曝光时间和屏幕亮度,使捕获的干净帧略暗于带噪帧;
S4、对视频帧进行色彩修正生成Raw视频去噪数据集:由于显示器屏幕的蓝光效应,捕捉到的视频帧色彩将发生偏离,因此需要参考原始视频的色彩对视频帧进行修正;原始视频的Raw格式通过逆向ISP方法UIP处理得到;修正后的视频帧按照顺序组合成视频,生成Raw视频去噪数据集;
更具体的,通过不同通道的色温来描述由于屏幕蓝光造成的色彩偏移,具体为:
式中,Ki表示色温;分别表示Raw图像RGGB四个通道各自像素的平均值;/>表示/>的平均值,i∈{r,g1,g2,b};
正确的通道色温通过UIP方法中的逆向ISP过程获得,通过将拍摄的RGB视频重置为Raw视频从而获得采集前RGGB通道的正确色温;以R通道色温为基准,色彩矫正过程的公式表示为:
式中,xg1、xg2、xb表示计算获得的通道矫正系数。
实施例2:
基于实施例1但有所不同之处在于:
本发明选取了不同先进方法在在本数据集和CRVDindoor数据集上进行训练,在CRVDoutdoor数据集上进行测试。CRVDindoor是raw域视频去噪的重要的基准数据集,包括共55个视频序列(其中11个室内场景,每个室内场景包括5个噪声水平)。
CRVDindoor数据集通过拍摄定格玩具的思路制成,是第一个真实世界Raw视频去噪数据集。但是由于定格动画的局限性,该数据集的运动特征与现实世界差异过大;由于室内场景的有限性,该数据集的场景过于单一,不能广泛地覆盖真实世界的视频形式。本发明基于屏摄图像对已有的多样化视频在Raw域上进行重新采集,能够克服采集内容上的限制。
通过分别在上述两个数据集上进行有监督和无监督训练,客观评估结果通过CRVDoutdoor数据集测试得出。具体结果请参阅表1,表2。
表1
表2
如表1、表2所示,表中展示了在无参考图像质量评估指标NRQM,NIQE,PI,BRISQUE上的定量对比结果,表1、表2分别对应有监督和自监督学习。其中NRQM指标数值越大越好,NIQE,PI,BRISQUE指标数值越小越好,表中最优的结果用加粗标出。从表中可以看出对于相同的模型RViDeformer-L,无论自监督训练还是有监督训练,其在本数据集(ReCRVD)上可以取得更好的训练结果。表1中对于其他性能较差的模型,其在本数据集上的训练结果甚至可能优于性能较好的模型,即RViDeformer-L,在CRVD数据集的训练结果。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。

Claims (4)

1.基于屏摄图像的真实世界Raw视频去噪数据集生成方法,其特征在于,具体包括以下步骤:
S1、构建屏幕图像采集系统:利用显示器和拍摄设备组成图像采集模块,将图像采集模块置于暗室中,通过调整显示器屏幕亮度来模拟真实低光环境;所述拍摄设备包括但不限于手机相机、工业相机和单反相机;采集屏幕图像时,调整拍摄设备与显示器之间的距离以及拍摄设备焦距,避免出现摩尔纹和模糊;
S2、基于屏摄图像采集真实带噪-干净Raw视频帧数据对:选取高质量视频逐帧播放在显示器屏幕上,分别拍摄静止屏幕画面的带噪视频帧和干净视频帧,组成真实带噪-干净Raw视频帧数据对;
S3、对带噪帧与干净帧间进行亮度矫正和空间对齐:将干净帧乘以亮度矫正系数,使干净帧与带噪帧保持相同的亮度;通过DeepFlow技术,将干净帧与带噪帧对齐,消除干净帧与带噪帧之间的空间错位;
S4、对视频帧进行色彩修正生成Raw视频去噪数据集:参考原始视频的色彩对视频帧进行修正,将原始视频通过逆向ISP方法UIP处理得到Raw格式视频帧,修正后的视频帧按照顺序组合成视频,生成Raw视频去噪数据集。
2.根据权利要求1所述的基于屏摄图像的真实世界Raw视频去噪数据集生成方法,其特征在于,利用拍摄设备对S2中所播放的视频进行采集时,将拍摄设备随机选定一个ISO,根据屏幕亮度确定短曝光时长;带噪帧通过所选定的ISO和短曝光时长连续捕捉,干净帧通过低ISO和长曝光时长捕捉;连续捕捉若干次带噪帧以丰富噪声样本的多样性。
3.根据权利要求1所述的基于屏摄图像的真实世界Raw视频去噪数据集生成方法,其特征在于,所述S3进一步包括以下内容:
考虑到采集设备放置在暗室中并且采集时屏幕亮度不发生改变,因此捕捉到视频帧的亮度只与ISO增益和曝光时间有关,具体公式表示为:
B=G×E
式中,B表示视频帧像素的亮度;GE分别表示ISO增益和曝光时间;
假设用B cG cE c来表示干净帧的亮度、ISO增益和曝光时间,用B nG nE n来表示带噪帧的亮度、ISO增益和曝光时间;在不改变带噪帧中噪声分布的前提下,通过将干净帧与亮度补偿系数G cor相乘进行校正,使干净帧具有与有带噪帧相同的亮度,过程的公式表示为:
B c×G cor =B n
对于Raw图像,经过黑色校正后的像素值与B呈线性关系,通过像素值平均值来估计Raw图像的平均亮度,G cor变形可得:
式中,表示带噪帧在空间位置(i, j)上的像素值,/>表示干净帧在空间位置(i,j)上的像素值;bl表示Raw图像的黑级。
4.根据权利要求1所述的基于屏摄图像的真实世界Raw视频去噪数据集生成方法,其特征在于,所述S4具体包括以下内容:
通过不同通道的色温来描述由于屏幕蓝光造成的色彩偏移,具体为:
式中,K i表示色温;分别表示Raw图像RGGB四个通道各自像素的平均值;/>表示/>的平均值,i∈{rg1,g2,b};
正确的通道色温通过UIP方法中的逆向ISP过程获得,通过将拍摄的RGB视频重置为Raw视频从而获得采集前RGGB通道的正确色温;以R通道色温为基准,色彩矫正过程的公式表示为:
式中,x g1x g1x b表示计算获得的通道矫正系数。
CN202310446179.2A 2023-04-23 2023-04-23 基于屏摄图像的真实世界Raw视频去噪数据集生成方法 Active CN116563755B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310446179.2A CN116563755B (zh) 2023-04-23 2023-04-23 基于屏摄图像的真实世界Raw视频去噪数据集生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310446179.2A CN116563755B (zh) 2023-04-23 2023-04-23 基于屏摄图像的真实世界Raw视频去噪数据集生成方法

Publications (2)

Publication Number Publication Date
CN116563755A CN116563755A (zh) 2023-08-08
CN116563755B true CN116563755B (zh) 2023-11-07

Family

ID=87495697

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310446179.2A Active CN116563755B (zh) 2023-04-23 2023-04-23 基于屏摄图像的真实世界Raw视频去噪数据集生成方法

Country Status (1)

Country Link
CN (1) CN116563755B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113066027A (zh) * 2021-03-31 2021-07-02 天津大学 面向Raw域的屏摄图像摩尔纹去除方法
RU2764395C1 (ru) * 2020-11-23 2022-01-17 Самсунг Электроникс Ко., Лтд. Способ и устройство для совместного выполнения дебайеризации и устранения шумов изображения с помощью нейронной сети

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2764395C1 (ru) * 2020-11-23 2022-01-17 Самсунг Электроникс Ко., Лтд. Способ и устройство для совместного выполнения дебайеризации и устранения шумов изображения с помощью нейронной сети
CN113066027A (zh) * 2021-03-31 2021-07-02 天津大学 面向Raw域的屏摄图像摩尔纹去除方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Joint denoising and HDR for RAW video sequences;A. Buades;《ResearchGate》;1-18 *
LED显示屏校正精度与效率提升的实现;杨泽辉;《中国优秀硕士论文全文数据库信息科技辑》;I135-415 *

Also Published As

Publication number Publication date
CN116563755A (zh) 2023-08-08

Similar Documents

Publication Publication Date Title
US20220044363A1 (en) Techniques for Controlled Generation of Training Data for Machine Learning Enabled Image Enhancement
CN107045715B (zh) 一种单幅低动态范围图像生成高动态范围图像的方法
CN111327824B (zh) 拍摄参数的选择方法、装置、存储介质及电子设备
EP4187484A1 (en) Cbd-net-based medical endoscopic image denoising method
CN111724317A (zh) Raw域视频去噪监督数据集构造方法
CN107682594A (zh) 图像处理装置、摄像装置、图像处理方法和存储介质
CN106506983A (zh) 一种适用于ldr视频的hdr视频生成方法
WO2010118658A1 (zh) 一种视频处理方法及装置
CN114862698A (zh) 一种基于通道引导的真实过曝光图像校正方法与装置
CN103237168A (zh) 一种基于综合增益的高动态范围图像视频处理方法
CN112288646A (zh) 堆叠降噪方法、装置、电子设备及存储介质
CN113034392A (zh) 一种基于U-net的HDR去噪和去模糊方法
Eilertsen The high dynamic range imaging pipeline
CN116563755B (zh) 基于屏摄图像的真实世界Raw视频去噪数据集生成方法
Yue et al. Rvideformer: Efficient raw video denoising transformer with a larger benchmark dataset
US20220261944A1 (en) Light-field messaging
CN109636740B (zh) 一种红外图像多尺度智能化非均匀性校正方法
KR20080037965A (ko) 동영상 촬영장치의 제어방법 및 이를 채용한 동영상촬영장치
JP7565445B2 (ja) 水中画像、水中ビデオのカラー復元方法、及び装置
US20240187715A1 (en) Mobile Device Support for Capture and Synthesis of Extreme Low-Light Video
CN109410308A (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
JP2011041143A (ja) 画像処理装置
CN115205731A (zh) 一种视频降噪装置、方法及终端
Dakkar et al. VStab-QuAD: A New Video-Stabilization Quality Assessment Database
Yue et al. Hdr video reconstruction with a large dynamic dataset in raw and srgb domains

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant