CN112053291B - 基于深度学习的弱光视频降噪方法及装置 - Google Patents

基于深度学习的弱光视频降噪方法及装置 Download PDF

Info

Publication number
CN112053291B
CN112053291B CN202010698138.9A CN202010698138A CN112053291B CN 112053291 B CN112053291 B CN 112053291B CN 202010698138 A CN202010698138 A CN 202010698138A CN 112053291 B CN112053291 B CN 112053291B
Authority
CN
China
Prior art keywords
denoising
target detection
picture
frame
deep learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010698138.9A
Other languages
English (en)
Other versions
CN112053291A (zh
Inventor
索津莉
杨润钊
张博
戴琼海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN202010698138.9A priority Critical patent/CN112053291B/zh
Publication of CN112053291A publication Critical patent/CN112053291A/zh
Application granted granted Critical
Publication of CN112053291B publication Critical patent/CN112053291B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度学习的弱光视频降噪方法及装置,其中,该方法包括:在待处理视频的每帧图片中,利用目标检测模型,获取多个带有类别标签的目标检测框;通过非全局搜索算法,对于每帧图片中的每类目标检测框区域中的像素点所对应的图片块,在相邻帧的同类目标检测框区域中计算各个像素点的多个与其相似的图片块组成图片块集合;将得到的图片块集合中的中心像素聚集起来构成特征向量,将特征向量输入去噪模型后得到目标检测框对应的去噪图像。该方法运用深度学习中卷积神经网络的方法构建一个高效的弱光视频去噪模型,实现从弱光视频中检测目标,并对目标区域进行去噪。

Description

基于深度学习的弱光视频降噪方法及装置
技术领域
本发明涉及计算机视觉技术领域,特别涉及一种基于深度学习的弱光视频降噪方法及装置。
背景技术
图像传感器的进步提高了摄像机的采集质量。但是,如果曝光时间有限,在弱光照条件下将会不可避免地降低信噪比,从而导致噪声水平过高,这会对视频的质量产生负面影响,并阻碍其在许多应用中的使用。因此,去噪在视频处理中是非常重要的技术。
CNN已成功应用于多种视频处理任务,例如视频帧合成及超分辨率,但到目前为止,它们在视频去噪中的应用还受到限制。在Applications of Digital ImageProcessing期刊上发表的Deep RNNs for video denoising,提出了一种循环架构,但是其去噪性能依然低于最新的技术。
就去噪质量而言,目前最佳的技术是通过基于patch的方法实现的。他们极大地利用了视频的自相似性,即大多数patch在周围时空上都有几个相似的patch。使用这些相似的patch对每个patch进行去噪,尽管这些视频降噪算法性能很好,但它们通常有着过高的计算成本,通常不适合高分辨率视频处理。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的一个目的在于提出一种基于深度学习的弱光视频降噪方法,该方法运用深度学习中卷积神经网络的方法构建一个高效的弱光视频去噪模型,实现从弱光视频中检测目标,并对目标区域进行去噪。
本发明的另一个目的在于提出一种基于深度学习的弱光视频降噪装置。
为达到上述目的,本发明一方面实施例提出了一种基于深度学习的弱光视频降噪方法,包括:
在待处理视频的每帧图片中,利用目标检测模型,获取多个带有类别标签的目标检测框;
通过非全局搜索算法,对于每帧图片中的每类目标检测框区域中的像素点所对应的图片块,在相邻帧的同类目标检测框区域中计算各个像素点的多个与其相似的图片块组成图片块集合;
将得到的图片块集合中的中心像素聚集起来构成特征向量,将所述特征向量输入去噪模型后得到目标检测框对应的去噪图像。
本发明实施例的基于深度学习的弱光视频降噪方法,通过FasterRCNN对每帧图片获取多个带有类别标签的检测框,通过去噪模型对相邻帧的同类检测框进行去噪,运用深度学习中卷积神经网络的方法构建一个高效的弱光视频去噪模型,实现从弱光视频中检测目标,并对目标区域进行去噪,使用多个去噪模型对不同类别的检测区域分别进行去噪,可以得到更好的去噪效果。
另外,根据本发明上述实施例的基于深度学习的弱光视频降噪方法还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述目标检测模型由FasterRCNN构成。
进一步地,在本发明的一个实施例中,所述去噪模型由非局部patch搜索算法和多个CNN组成的去噪网络构成。
进一步地,在本发明的一个实施例中,根据去噪质量的要求对所述目标检测模型和所述去噪模型的参数进行调整。
进一步地,在本发明的一个实施例中,所述参数包括相邻帧的个数、相似图片块的个数以及深度学习超参数。
为达到上述目的,本发明另一方面实施例提出了一种基于深度学习的弱光视频降噪装置,包括:
处理模块,用于在待处理视频的每帧图片中,利用目标检测模型,获取多个带有类别标签的目标检测框;
计算模块,用于通过非全局搜索算法,对于每帧图片中的每类目标检测框区域中的像素点所对应的图片块,在相邻帧的同类目标检测框区域中计算各个像素点的多个与其相似的图片块组成图片块集合;
去噪模块,用于将得到的图片块集合中的中心像素聚集起来构成特征向量,将所述特征向量输入去噪模型后得到目标检测框对应的去噪图像。
本发明实施例的基于深度学习的弱光视频降噪装置,通过FasterRCNN对每帧图片获取多个带有类别标签的检测框,通过去噪模型对相邻帧的同类检测框进行去噪,运用深度学习中卷积神经网络的方法构建一个高效的弱光视频去噪模型,实现从弱光视频中检测目标,并对目标区域进行去噪,使用多个去噪模型对不同类别的检测区域分别进行去噪,可以得到更好的去噪效果。
另外,根据本发明上述实施例的基于深度学习的弱光视频降噪装置还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述目标检测模型由FasterRCNN构成。
进一步地,在本发明的一个实施例中,所述去噪模型由非局部patch搜索算法和多个CNN组成的去噪网络构成。
进一步地,在本发明的一个实施例中,根据去噪质量的要求对所述目标检测模型和所述去噪模型的参数进行调整。
进一步地,在本发明的一个实施例中,所述参数包括相邻帧的个数、相似图片块的个数以及深度学习超参数。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本发明一个实施例的基于深度学习的弱光视频降噪方法流程图;
图2为根据本发明一个实施例的基于深度学习的弱光视频降噪方法流程框图;
图3为根据本发明一个实施例的基于深度学习的弱光视频降噪方法流程示意图;
图4为根据本发明一个实施例的基于深度学习的弱光视频降噪装置结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参照附图描述根据本发明实施例提出的基于深度学习的弱光视频降噪方法及装置。
首先将参照附图描述根据本发明实施例提出的基于深度学习的弱光视频降噪方法。
图1为根据本发明一个实施例的基于深度学习的弱光视频降噪方法流程图。
如图1所示,该基于深度学习的弱光视频降噪方法包括以下步骤:
S1,在待处理视频的每帧图片中,利用目标检测模型,获取多个带有类别标签的目标检测框。
目标检测模型由FasterRCNN构成,对每帧图片获取多个带有类别标签的检测框。
具体地,对于待处理视频,使用FasterRCNN对每帧图片获取多个带有类别标签的检测框
Figure BDA0002592023580000041
Figure BDA0002592023580000042
其中,
Figure BDA0002592023580000043
表示第t帧中类别为k的检测框区域,
Figure BDA0002592023580000044
表示第t帧及前后l帧中类别为k的检测框区域构成的集合,
Figure BDA0002592023580000045
S2,通过非全局搜索算法,对于每帧图片中的每类目标检测框区域中的像素点所对应的图片块,在相邻帧的同类目标检测框区域中计算各个像素点的多个与其相似的图片块组成图片块集合。
去噪模型由非局部patch搜索算法和多个CNN组成的去噪网络构成,对相邻帧的同类检测框进行去噪。
具体地,通过非局部搜索算法,对每帧的每类目标检测框区域
Figure BDA0002592023580000046
中的像素点所对应的
Figure BDA0002592023580000047
在相邻帧的同类目标检测框区域
Figure BDA0002592023580000048
中计算n个最相似的
Figure BDA0002592023580000049
其中,
Figure BDA00025920235800000410
表示以第t帧中类别为k的检测区域的x像素为中心的patch,;
Figure BDA00025920235800000411
表示区域
Figure BDA00025920235800000412
内与
Figure BDA00025920235800000413
最相似的n个patch构成的集合,
Figure BDA00025920235800000414
S3,将得到的图片块集合中的中心像素聚集起来构成特征向量,将特征向量输入去噪模型后得到目标检测框对应的去噪图像。
具体地,将
Figure BDA00025920235800000415
的中心像素聚集起来构成特征向量
Figure BDA00025920235800000416
传入去噪网络后得到目标检测框对应的去噪图像
Figure BDA00025920235800000417
其中,
Figure BDA00025920235800000418
在本发明的实施例中,根据去噪质量的要求调整模型的参数,包括相邻帧的个数l、相似patch的个数n以及深度学习超参数——初始学习率、批处理大小以及稀疏性约束项参数等对网络进行训练。
如图2和图3所示,弱视频去噪模型以GPU为计算平台,采用CUDA作为GPU并行计算框架,选取PyTorch作为CNN框架,主要包括FasterRCNN的目标检测、非局部搜索和去噪网络的噪声提取。通过上述三部分最终实现视频去噪。
根据本发明实施例提出的基于深度学习的弱光视频降噪方法,通过FasterRCNN对每帧图片获取多个带有类别标签的检测框,通过去噪模型对相邻帧的同类检测框进行去噪,运用深度学习中卷积神经网络的方法构建一个高效的弱光视频去噪模型,实现从弱光视频中检测目标,并对目标区域进行去噪,使用多个去噪模型对不同类别的检测区域分别进行去噪,可以得到更好的去噪效果。
其次参照附图描述根据本发明实施例提出的基于深度学习的弱光视频降噪装置。
图4为根据本发明一个实施例的基于深度学习的弱光视频降噪装置结构示意图。
如图4所示,该基于深度学习的弱光视频降噪装置包括:处理模块100、计算模块200和去噪模块300。
处理模块100,用于在待处理视频的每帧图片中,利用目标检测模型,获取多个带有类别标签的目标检测框。
计算模块200,用于通过非全局搜索算法,对于每帧图片中的每类目标检测框区域中的像素点所对应的图片块,在相邻帧的同类目标检测框区域中计算各个像素点的多个与其相似的图片块组成图片块集合。
去噪模块300,用于将得到的图片块集合中的中心像素聚集起来构成特征向量,将特征向量输入去噪模型后得到目标检测框对应的去噪图像。
进一步地,在本发明的一个实施例中,目标检测模型由FasterRCNN构成。
进一步地,在本发明的一个实施例中,去噪模型由非局部patch搜索算法和多个CNN组成的去噪网络构成。
进一步地,在本发明的一个实施例中,根据去噪质量的要求对目标检测模型和去噪模型的参数进行调整。
进一步地,在本发明的一个实施例中,参数包括相邻帧的个数、相似图片块的个数以及深度学习超参数。
需要说明的是,前述对基于深度学习的弱光视频降噪方法实施例的解释说明也适用于该实施例的装置,此处不再赘述。
根据本发明实施例提出的基于深度学习的弱光视频降噪装置,通过FasterRCNN对每帧图片获取多个带有类别标签的检测框,通过去噪模型对相邻帧的同类检测框进行去噪,运用深度学习中卷积神经网络的方法构建一个高效的弱光视频去噪模型,实现从弱光视频中检测目标,并对目标区域进行去噪,使用多个去噪模型对不同类别的检测区域分别进行去噪,可以得到更好的去噪效果。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (6)

1.一种基于深度学习的弱光视频降噪方法,其特征在于,包括以下步骤:
在待处理视频的每帧图片中,利用目标检测模型,获取多个带有类别标签的目标检测框,所述目标检测模型由FasterRCNN构成;
通过非全局搜索算法,对于每帧图片中的每类目标检测框区域中的像素点所对应的图片块,在相邻帧的同类目标检测框区域中计算各个像素点的多个与其相似的图片块组成图片块集合;
将得到的图片块集合中的中心像素聚集起来构成特征向量,将所述特征向量输入去噪模型后得到目标检测框对应的去噪图像,所述去噪模型由非局部patch搜索算法和多个CNN组成的去噪网络构成。
2.根据权利要求1所述的基于深度学习的弱光视频降噪方法,其特征在于,
根据去噪质量的要求对所述目标检测模型和所述去噪模型的参数进行调整。
3.根据权利要求2所述的基于深度学习的弱光视频降噪方法,其特征在于,所述参数包括相邻帧的个数、相似图片块的个数以及深度学习超参数。
4.一种基于深度学习的弱光视频降噪装置,其特征在于,包括:
处理模块,用于在待处理视频的每帧图片中,利用目标检测模型,获取多个带有类别标签的目标检测框,所述目标检测模型由FasterRCNN构成;
计算模块,用于通过非全局搜索算法,对于每帧图片中的每类目标检测框区域中的像素点所对应的图片块,在相邻帧的同类目标检测框区域中计算各个像素点的多个与其相似的图片块组成图片块集合;
去噪模块,用于将得到的图片块集合中的中心像素聚集起来构成特征向量,将所述特征向量输入去噪模型后得到目标检测框对应的去噪图像,所述去噪模型由非局部patch搜索算法和多个CNN组成的去噪网络构成。
5.根据权利要求4所述的基于深度学习的弱光视频降噪装置,其特征在于,
根据去噪质量的要求对所述目标检测模型和所述去噪模型的参数进行调整。
6.根据权利要求5所述的基于深度学习的弱光视频降噪装置,其特征在于,
所述参数包括相邻帧的个数、相似图片块的个数以及深度学习超参数。
CN202010698138.9A 2020-07-20 2020-07-20 基于深度学习的弱光视频降噪方法及装置 Active CN112053291B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010698138.9A CN112053291B (zh) 2020-07-20 2020-07-20 基于深度学习的弱光视频降噪方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010698138.9A CN112053291B (zh) 2020-07-20 2020-07-20 基于深度学习的弱光视频降噪方法及装置

Publications (2)

Publication Number Publication Date
CN112053291A CN112053291A (zh) 2020-12-08
CN112053291B true CN112053291B (zh) 2023-04-18

Family

ID=73601881

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010698138.9A Active CN112053291B (zh) 2020-07-20 2020-07-20 基于深度学习的弱光视频降噪方法及装置

Country Status (1)

Country Link
CN (1) CN112053291B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109035172A (zh) * 2018-08-08 2018-12-18 华中科技大学 一种基于深度学习的非局部均值超声图像去噪方法
CN110503140A (zh) * 2019-08-09 2019-11-26 哈尔滨工业大学 基于深度迁移学习与邻域降噪的分类方法
CN111028163A (zh) * 2019-11-28 2020-04-17 湖北工业大学 一种基于卷积神经网络的联合图像去噪与弱光增强方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103686194B (zh) * 2012-09-05 2017-05-24 北京大学 基于非局部均值的视频去噪方法和装置
US10469876B2 (en) * 2016-12-22 2019-11-05 Mediatek Inc. Non-local adaptive loop filter combining multiple denoising technologies and grouping image patches in parallel

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109035172A (zh) * 2018-08-08 2018-12-18 华中科技大学 一种基于深度学习的非局部均值超声图像去噪方法
CN110503140A (zh) * 2019-08-09 2019-11-26 哈尔滨工业大学 基于深度迁移学习与邻域降噪的分类方法
CN111028163A (zh) * 2019-11-28 2020-04-17 湖北工业大学 一种基于卷积神经网络的联合图像去噪与弱光增强方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
DVDNET: A Fast Network for Deep Video Denoising;Matias Tassano等;《2019 IEEE International Conference on Image Processing(ICIP)》;20190826;第1805-1809页 *
Joint Non-Gaussian Denoising and Superresolving of Raw High Frame Rate Videos;Jinli Suo;《 IEEE TRANSACTIONS ON IMAGE PROCESSING》;20140109;第23卷(第3期);第1154-1168页 *
Patch-Based Video Denoising With Optical Flow Estimation;Antoni Buades等;《IEEE TRANSACTIONS ON IMAGE PROCESSING》;20160407;第25卷(第6期);第2573-2586页 *
基于非局部自相似性的谱聚类图像去噪算法;柯祖福等;《计算机科学》;20170515;第44卷(第05期);第299-303页 *

Also Published As

Publication number Publication date
CN112053291A (zh) 2020-12-08

Similar Documents

Publication Publication Date Title
CN110782399B (zh) 一种基于多任务cnn的图像去模糊方法
Li et al. An all-in-one network for dehazing and beyond
Davy et al. A non-local CNN for video denoising
CN107025632B (zh) 一种图像超分辨率重建方法及系统
US9589328B2 (en) Globally dominant point spread function estimation
CN110942436B (zh) 一种基于图像质量评价的图像去模糊方法
CN110490822B (zh) 图像去运动模糊的方法和装置
CN106169173B (zh) 一种图像插值方法
CN106251297A (zh) 一种改进的基于多幅图像模糊核估计的盲超分辨率重建算法
CN113327206B (zh) 基于人工智能的输电线智能巡检系统的图像模糊处理方法
CN107133923A (zh) 一种基于自适应梯度稀疏模型的模糊图像非盲去模糊方法
CN115661669A (zh) 一种基于视频监控的耕地违法占用监测方法及系统
CN106846250B (zh) 一种基于多尺度滤波的超分辨率重建方法
Chen et al. Nonuniformly dehaze network for visible remote sensing images
CN113706393A (zh) 视频增强方法、装置、设备及存储介质
Chang et al. Beyond camera motion blur removing: How to handle outliers in deblurring
CN112053291B (zh) 基于深度学习的弱光视频降噪方法及装置
CN113838104A (zh) 基于多光谱与多模态图像一致性增强网络的配准方法
CN117422653A (zh) 一种基于权重共享和迭代数据优化的低光照图像增强方法
Wang et al. An optimization method for motion blur image restoration and ringing suppression via texture mapping
CN107945196B (zh) 一种用于航拍校正图像拼接的图像边沿检测方法
CN115205148A (zh) 基于双路径残差网络的图像去模糊方法
CN115564671A (zh) 基于长短曝光图像对的自监督图像复原系统
CN110121016B (zh) 一种基于双重曝光先验的视频去模糊方法及装置
Esmaeilzehi et al. DSegAN: A deep light-weight segmentation-based attention network for image restoration

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant