CN111626956A - 图像去模糊方法和装置 - Google Patents
图像去模糊方法和装置 Download PDFInfo
- Publication number
- CN111626956A CN111626956A CN202010455735.9A CN202010455735A CN111626956A CN 111626956 A CN111626956 A CN 111626956A CN 202010455735 A CN202010455735 A CN 202010455735A CN 111626956 A CN111626956 A CN 111626956A
- Authority
- CN
- China
- Prior art keywords
- image
- target image
- fuzzy
- blurred
- generator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 81
- 238000012545 processing Methods 0.000 claims abstract description 47
- 230000006870 function Effects 0.000 claims description 72
- 230000015654 memory Effects 0.000 claims description 20
- 230000007246 mechanism Effects 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 5
- 239000000126 substance Substances 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 9
- 238000012549 training Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000004590 computer program Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 230000002159 abnormal effect Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G06T5/70—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
本申请公开了一种图像去模糊方法和装置,涉及计算机视觉技术领域。具体实现方案为:对第一模糊目标图像进行图像处理,得到第二模糊目标图像;其中,第一模糊目标图像基于真实采集的模糊目标图像得到;将第一模糊目标图像输入生成式对抗网络的图像生成器,得到图像生成器输出的第一清晰目标图像;将第二模糊目标图像输入图像生成器,得到图像生成器输出的第二清晰目标图像;其中,图像生成器对第一清晰目标图像和第二清晰目标图像采用距离损失函数进行约束;基于第一清晰目标图像和第二清晰目标图像,确定增强的清晰目标图像。该方案可以避免生成式对抗网络学习到输入的模糊目标图像以外的内容,确保清晰图像的内容不发生改变,提高了输出的清晰图像与模糊目标图像的一致性和准确度。
Description
技术领域
本公开涉及计算机技术领域,具体涉及计算机视觉技术领域,尤其涉及图像去模糊方法和装置。
背景技术
人脸去模糊技术(Face Deblurring)是指从模糊的人脸图像生成清晰的人脸图像的技术。随着人脸识别技术的发展,人脸识别的精度越来越受到人脸图像质量的影响。
研究表明:不同人的非常模糊的人脸图像之间的相似度,有很大可能会高于相同人的一张相对清晰人脸与一张模糊人脸的相似度。上述情况在实际场景中非常常见,比如人证核验的场景、安防场景,部分底库照片非常清晰,而抓拍的图片非常模糊。为了解决这些问题,需要使人脸识别技术对模糊人脸图像鲁棒。其中一种方式就是人脸去模糊,生成清晰人脸。
目前,基于生成式对抗网络(GAN)实现的人脸去模糊的方案,主要集中于解决运动模糊,且模糊人脸大多由清晰人脸人工生成,从而得到同一人脸的模糊-清晰人脸对,进而采用模糊-清晰人脸对训练生成式对抗网络。
发明内容
本公开实施例提供了图像去模糊方法和装置。
第一方面,本公开实施例提供了一种图像去模糊方法,方法包括:对第一模糊目标图像进行图像处理,得到第二模糊目标图像;其中,第一模糊目标图像基于真实采集的模糊目标图像得到;将第一模糊目标图像输入生成式对抗网络的图像生成器,得到图像生成器输出的第一清晰目标图像;将第二模糊目标图像输入图像生成器,得到图像生成器输出的第二清晰目标图像;其中,图像生成器对第一清晰目标图像和第二清晰目标图像采用距离损失函数进行约束;基于第一清晰目标图像和第二清晰目标图像,确定增强的清晰目标图像。
第二方面,本公开实施例提供了一种图像去模糊装置,装置包括:模糊图像处理模块,被配置成对第一模糊目标图像进行图像处理,得到第二模糊目标图像;其中,第一模糊目标图像基于真实采集的模糊目标图像得到;第一图像输入模块,被配置成将第一模糊目标图像输入生成式对抗网络的图像生成器,得到图像生成器输出的第一清晰目标图像;第二图像输入模块,被配置成将第二模糊目标图像输入图像生成器,得到图像生成器输出的第二清晰目标图像;其中,图像生成器对第一清晰目标图像和第二清晰目标图像采用距离损失函数进行约束;清晰图像确定模块,被配置成基于第一清晰目标图像和第二清晰目标图像,确定增强的清晰目标图像。
第三方面,本公开的实施例提供了一种电子设备/服务器/智能终端,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行如第一方面中任一实施例的方法。
第四方面,本公开的实施例提供了一种存储有计算机指令的非瞬时计算机可读存储介质,计算机指令用于使计算机执行如第一方面任一实施例中的方法。
本公开实施例提供的图像去模糊方法和装置,首先对第一模糊目标图像进行图像处理,得到第二模糊目标图像;其中,第一模糊目标图像基于真实采集的模糊目标图像得到;之后,将第一模糊目标图像输入生成式对抗网络的图像生成器,得到图像生成器输出的第一清晰目标图像;之后,将第二模糊目标图像输入图像生成器,得到图像生成器输出的第二清晰目标图像;其中,图像生成器对第一清晰目标图像和第二清晰目标图像采用距离损失函数进行约束;最后,基于第一清晰目标图像和第二清晰目标图像,确定增强的清晰目标图像。
在这一过程中,由于采用了真实采集的模糊人脸图像而非人工生成的模糊人脸图像,与现有技术中采用清晰图像-基于清晰图像生成的模糊图像对作为样本训练生成式对抗网络相比,提高了生成式对抗网络根据真实采集的模糊人脸图像生成清晰人脸图像的清晰度和准确度,提高了生成式对抗网络的泛化能力;此外,由于对于图像生成器所生成的第一清晰图像和第二清晰图像采用了距离损失函数作为约束,对生成的两张清晰图像进行了额外监督,可以避免生成式对抗网络学习到输入的模糊目标图像以外的内容,确保清晰图像的内容不发生改变,提高了输出的清晰图像与模糊目标图像的一致性和准确度。最后,将两张对第一清晰目标图像和第二清晰目标图像进行融合,可以扩大融合后的增强的清晰目标图像所含有的时间空间信息,减少不确定性,增加可靠性,改进图像生成器的鲁棒性能。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
通过阅读参照以下附图所作的对非限制性实施例详细描述,本公开的其它特征、目的和优点将会变得更明显:
图1是本公开可以应用于其中的示例性系统架构图;
图2是根据本公开实施例的图像去模糊方法的一个实施例的流程示意图;
图3是根据本公开实施例的图像去模糊方法的一个示例性应用场景;
图4a是根据本公开实施例的图像去模糊方法的又一个实施例的流程示意图;
图4b是根据本公开实施例的图像去模糊方法的一些实施例的图像处理架构图。;
图5是根据本公开实施例的图像去模糊装置的一个实施例的示例性结构图;
图6是本公开的用来实现本申请实施例的图像去模糊方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。本领域技术人员还将理解的是,虽然本文中可使用用语“第一”、“第二”等来描述各种模糊目标图像、清晰目标图像、模糊核、重建的模糊目标图像、重建损失函数、图像输入模块、模糊核输出模块等,但是这些模糊目标图像、清晰目标图像、模糊核、重建的模糊目标图像、重建损失函数、图像输入模块、模糊核输出模块不应被这些用语限制。这些用语仅用于将一个模糊目标图像、清晰目标图像、模糊核、重建的模糊目标图像、重建损失函数、图像输入模块、模糊核输出模块与其它模糊目标图像、清晰目标图像、模糊核、重建的模糊目标图像、重建损失函数、图像输入模块、模糊核输出模块区分开。
图1示出了可以应用本公开的图像去模糊方法或图像去模糊装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种应用,例如图像采集应用、音频播放应用、流媒体处理应用、多方交互应用、人工智能应用、游戏应用等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是支持文档处理应用的各种电子设备,包括但不限于智能终端、平板电脑、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成例如用来提供分布式服务的多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103提供支持的后台服务器。后台服务器可以对接收到的请求等数据进行分析等处理,并将处理结果反馈给终端设备。
需要说明的是,服务器可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成例如用来提供分布式服务的多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
在实践中,本公开实施例所提供的图像去模糊方法可以由终端设备101、102、103或服务器105执行,图像去模糊装置也可以设置于终端设备101、102、103或服务器105中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
现有技术针对响应时间指标进行监控的技术方案,采用的是恒定阈值的方式,通过观察历史指标数据波动的变化范围,设置一个固定的阈值,一旦指标数据超过这个固定阈值表示此时指标数据出现了异常。这种设置阈值的技术方案需要耗费大量的人力通过观察不同系统响应时间指标的历史数据的波动设置不同阈值,整个监控配置过程繁琐并且低效。
请参考图2,图2示出了根据本公开的图像去模糊方法的一个实施例的流程200。该图像去模糊方法包括以下步骤:
步骤201,对第一模糊目标图像进行图像处理,得到第二模糊目标图像。
在本实施例中,图像去模糊方法的执行主体(例如图1所示的终端或服务器)可以从本地或远程设备获取第一模糊目标图像。这里的第一模糊目标图像,可以基于真实采集的模糊目标图像得到。
真实采集的模糊目标图像,可以为真实拍摄、扫描得到的模糊图像,该模糊图像中包括模糊的目标。例如,真实采集的模糊目标图像可以为真实采集的以下至少一项:模糊人脸图像;模糊人物图像;模糊景物图像;模糊车辆图像;模糊动物图像;模糊植物图像等。
具体地,第一模糊目标图像可以直接采用真实采集的模糊目标图像,也可以对真实采集的模糊目标图像进行处理,得到第一模糊目标图像。
在一些示例中,第一模糊目标图像可以为:采用目标对齐模型从真实采集的模糊目标图像中提取的模糊目标区域。目标对齐模型,可以根据输入的目标图像,自动定位出目标关键特征点,如目标的关键点以及目标的各部件轮廓点等。例如采用人脸对齐模型,可以提取出模糊人脸区域。在这里,可以采用目标对齐模型提取出模糊目标区域,之后对模糊目标区域进行全局的去模糊训练。
在又一些示例中,第一模糊目标图像为可以为采用注意力机制从真实采集的模糊目标图像中学习得到的模糊目标区域。在这里,如果真实采集的模糊目标图像除了目标还有其他背景信息,可以利用注意力机制学习到目标的区域,之后对目标的区域进行去模糊学习。
在另一些示例中,第一模糊目标图像可以为对真实采集的模糊目标图像进行多区域采样后得到的各个区域的模糊目标图像。在这里,由于目标区域的模糊具有局部重复性,可以对目标进行多区域采样,对采样后的区域进行去模糊训练,可以大大减少训练样本。
上述执行主体在对第一模糊目标图像进行图像处理时,可以采用现有技术或未来发展的技术中基于第一张模糊图像得到第二张模糊图像的方法来进行图像处理,具体的图像处理方式,本申请对此不做限定。例如,图像处理可以为以下至少一项:采用随机生成的模糊核进行卷积、几何旋转、镜像和下采样等。
步骤202,将第一模糊目标图像输入生成式对抗网络的图像生成器,得到图像生成器输出的第一清晰目标图像。
在本实施例中,上述执行主体可以将第一模糊目标图像输入生成式对抗网络(GAN)的图像生成器,得到图像生成器输出的第一清晰目标图像。
该生成式对抗网络,是指以生成式对抗网络(GAN,Generative AdversarialNetworks)为基础发展而成的深度学习模型。例如,生成式对抗网络GAN、循环一致生成式对抗网络CycleGan、人脸高精度属性编辑模型AttGAN、星型生成式对抗网络StarGAN、空间变换器生成式对抗网络STGAN、对偶学习的生成对抗网络DualGAN、DiscoGAN等。
该生成式对抗网络,通常包括图像生成器G(generator)和图像鉴别器(Discriminator)。有两个数据域分别为X,Y。G负责将X域中的数据模仿成真实数据并把它们藏在真实数据中,而D负责将伪造数据和真实数据分开。经过二者的博弈以后,G的伪造技术越来越厉害,D的鉴别技术也越来越厉害。直到D再也分不出数据是真实的还是G生成的数据的时候,对抗的过程达到一个动态的平衡。
训练生成式对抗网络需要两个损失函数:图像生成器的重建损失函数和图像判别器的判别损失函数。其中,图像生成器的重建损失函数用于确定生成的图片与原图是否尽可能的相似;图像判别器的判别损失函数用于将生成的假图片和原始真图片输入至图像判别器中,得到公式为0,1的二分类的损失。
图像生成器由编码器、转换器和解码器构成。编码器采用卷积神经网络从输入的图像中提取特征。例如,将图像压缩成256个64*64的特征向量。转换器通过组合图像的不相近特征,将图像在DA域中的特征向量转换为DB域中的特征向量。例如,可以使用6层Reset模块,每个Reset模块是一个由两个卷积层构成的神经网络层,从而达到在转换时同时保留原始图像特征的目标。解码器利用反卷积层(decovolution)完成从特征向量中还原出低级特征的工作,最后得到生成的图像。
图像鉴别器将一张图像作为输入,并尝试预测其为原始图像或是生成器的输出图像。鉴别器本身属于卷积网络,需要从图像中提取特征,再通过添加产生一维输出的卷积层来确定提取的特征是否属于特定类别。
步骤203,将第二模糊目标图像输入图像生成器,得到图像生成器输出的第二清晰目标图像。
在本实施例中,上述执行主体可以将第一模糊目标图像输入上述生成式对抗网络(GAN)的图像生成器,得到图像生成器输出的第二清晰目标图像。
生成清晰目标图像时,除了图像生成器的重建损失函数能够对模糊目标图像分布和清晰目标图像的分布进行一定的监督以外,对于图像生成器基于第一模糊目标图像、第二模糊目标图像生成的第一清晰目标图像和第二清晰目标图像,为了保证生成的目标为同一个目标,需要采用距离损失函数,对第一清晰目标图像和第二清晰目标图像是否是来自同一个目标进行监督。
也即,图像生成器对第一清晰目标图像和第二清晰目标图像采用距离损失函数进行约束。该距离损失函数,为衡量第一清晰目标图像和第二清晰目标图像之间的误差的损失函数,可以采用现有技术或未来发展的技术中的损失函数来实现,本申请对此不做限定。例如,可以采用L1损失(绝对误差)函数、L2损失(平方误差)函数或其它损失函数作为距离损失函数。
采用该距离损失函数,可以计算第一清晰目标图像和第二清晰目标图像之间的像素级差异,之后基于该距离损失函数的反馈,调整图像生成器的参数以改变图像生成器所输出的第一清晰目标图像和第二清晰目标图像之间的误差,直至误差小于预设阈值,此时认为第一清晰目标图像和第二清晰目标图像来自同一个目标。
本领域技术人员可以理解的是,生成式对抗网络可以在训练阶段和应用阶段,图像生成器均对第一清晰目标图像和第二清晰目标图像采用距离损失函数进行约束,最后得到来自同一个目标的第一清晰目标图像和第二清晰目标图像。
步骤204,基于第一清晰目标图像和第二清晰目标图像,确定增强的清晰目标图像。
在本实施例中,上述执行主体可以对于图像生成器生成的第一清晰目标图像和第二清晰目标图像进行处理,最大限度的提取各自信道中的有利信息,从而得到增强的清晰目标图像。
在一个具体的示例中,可以对于两张清晰目标图像的特征进行匹配,之后再进行两张清晰目标图像之间的图像配准,并对配准后的两张清晰目标图像中的目标进行图像融合,从而得到增强的清晰目标图像。
本公开上述实施例的图像去模糊方法,与现有技术中采用清晰图像-基于清晰图像生成的模糊图像对作为样本训练生成式对抗网络相比,提高了生成式对抗网络根据真实采集的模糊人脸图像生成清晰人脸图像的清晰度和准确度,提高了生成式对抗网络的泛化能力;此外,由于对图像生成器所生成的第一清晰图像和第二清晰图像采用了距离损失函数作为约束,对生成的两张清晰图像进行了额外监督,可以避免生成式对抗网络学习到输入的模糊目标图像以外的内容,确保清晰图像的内容不发生改变,提高了输出的清晰图像与模糊目标图像的一致性和准确度。最后,将第一清晰目标图像和第二清晰目标图像进行融合,可以扩大融合后的增强的清晰目标图像所含有的时间空间信息,减少不确定性,增加可靠性,改进图像去模糊方法的鲁棒性能。
以下结合图3,描述本公开的图像去模糊方法的示例性应用场景。
如图3所示,图3示出了根据本公开的图像去模糊方法的一个示例性应用场景。
如图3所示,图像去模糊方法300运行于电子设备310中,可以包括:
首先,对第一模糊目标图像301进行图像处理,得到第二模糊目标图像302;其中,第一模糊目标图像301基于真实采集的模糊目标图像303得到;
之后,将第一模糊目标图像301输入生成式对抗网络(GAN)的图像生成器304,得到图像生成器304输出的第一清晰目标图像305;
之后,将第二模糊目标图像302输入图像生成器304,得到图像生成器输出的第二清晰目标图像306;其中,图像生成器304采用第一清晰目标图像和第二清晰目标图像之间的距离损失函数307进行约束;
最后,基于第一清晰目标图像305和第二清晰目标图像306,确定增强的清晰目标图像308。
应当理解,上述图3中所示出的图像去模糊方法的应用场景,仅为对于图像去模糊方法的示例性描述,并不代表对该方法的限定。例如,上述图3中示出的各个步骤,可以进一步采用更为细节的实现方法。也可以在上述图3的基础上,进一步增加对第一清晰目标图像和第二清晰目标图像进行约束的步骤。
进一步参考图4a,图4a示出了根据本公开实施例的确定目标训练数据的一个实施例的示意性流程图。
如图4a所示,本实施例的图像去模糊方法400,可以包括:
步骤401,对第一模糊目标图像进行图像处理,得到第二模糊目标图像。
在本实施例中,图像去模糊方法的执行主体(例如图1所示的终端或服务器)可以从本地或远程设备获取第一模糊目标图像。这里的第一模糊目标图像,可以基于真实采集的模糊目标图像得到。
真实采集的模糊目标图像,可以为真实拍摄、扫描得到的模糊图像,该模糊图像中包括模糊的目标。例如,真实采集的模糊目标图像可以为真实采集的以下至少一项:模糊人脸图像;模糊人物图像;模糊景物图像;模糊车辆图像;模糊动物图像;模糊植物图像等。
上述执行主体在对第一模糊目标图像进行图像处理时,可以采用现有技术或未来发展的技术中基于第一张模糊图像得到第二张模糊图像的方法来进行图像处理,具体的图像处理方式,本申请对此不做限定。例如,图像处理可以为以下至少一项:采用随机生成的模糊核进行卷积、几何旋转、镜像和下采样等。
步骤402,将第一模糊目标图像输入生成式对抗网络的图像生成器,得到图像生成器输出的第一清晰目标图像。
在本实施例中,上述执行主体可以将第一模糊目标图像输入生成式对抗网络(GAN)的图像生成器,得到图像生成器输出的第一清晰目标图像。
步骤403,将第二模糊目标图像输入图像生成器,得到图像生成器输出的第二清晰目标图像。
在本实施例中,上述执行主体可以将第一模糊目标图像输入上述生成式对抗网络(GAN)的图像生成器,得到图像生成器输出的第二清晰目标图像。
生成清晰目标图像时,除了图像生成器的重建损失函数能够对模糊目标图像分布和清晰目标图像的分布进行一定的监督以外,对于图像生成器基于第一模糊目标图像、第二模糊目标图像生成的第一清晰目标图像和第二清晰目标图像,为了保证生成的目标为同一个目标,需要采用距离损失函数,对第一清晰目标图像和第二清晰目标图像是否是来自同一个目标进行监督。
也即,图像生成器对第一清晰目标图像和第二清晰目标图像采用距离损失函数进行约束。该距离损失函数,为衡量第一清晰目标图像和第二清晰目标图像之间的误差的损失函数,可以采用现有技术或未来发展的技术中的损失函数来实现,本申请对此不做限定。例如,可以采用L1损失(绝对误差)函数、L2损失(平方误差)函数或其它损失函数作为距离损失函数。
应当理解,上述步骤401-步骤403中的操作和特征,分别与步骤201-203中的操作和特征相对应,因此,上述在步骤201-203中对于操作和特征的描述,同样适用于步骤401-步骤403,在此不再赘述。
步骤404,将第一模糊目标图像输入生成式对抗网络的模糊核生成器,得到模糊核生成器输出的第一模糊核。
在本实施例中,生成式对抗网络在包括图像生成器之外,还包括模糊核生成器。该模糊核生成器基于输入的第一模糊目标图像,估计该第一模糊目标图像的模糊核,并显示估计的模糊核。
该估计模糊核的方法,可以采用现有技术或未来发展的技术中估计模糊核的方法,本申请对此不做限定。例如,采用模糊核预测框架IKC预测模糊核;采用运动模糊核(motion blur kernel,简称MBK)估计模糊核等。
步骤405,对第一模糊核进行图像处理,得到预测模糊核。
在本实施例中,上述执行主体在对第一模糊核进行图像处理时,可以采用上述步骤401中对第一模糊目标图像进行图像处理的方式来对第一模糊核进行图像处理。
在一些具体的示例中,若步骤401中采用随机生成的模糊核对第一模糊目标图像进行卷积,得到第二模糊目标图像,那么此处可以对第一模糊核采用上述随机生成的模糊核进行卷积,得到预测模糊核;若步骤401中对第一模糊目标图像进行了几何旋转得到第二模糊目标图像,那么此处可以对第一模糊核进行上述几何旋转,得到预测模糊核。
步骤406,将第二模糊目标图像输入模糊核生成器,得到模糊核生成器输出的第二模糊核。
在本实施例中,上述模糊核生成器可以基于输入的第二模糊目标图像,估计该第二模糊目标图像的模糊核,并显示估计的模糊核。
步骤407,模糊核生成器对于预测模糊核与第二模糊核采用一致性约束。
在本实施例中,由于模糊核的生成没有监督,可以利用模糊核的一致性来进行学习。由于预测模糊核是对基于第一模糊目标图像生成的模糊核进行图像处理得到的,与第二模糊核先对第一模糊目标图像进行图像处理后生成的模糊核应当具有一致性。模糊核生成器对于预测模糊核与第二模糊核采用一致性约束,对模糊核的生成进行了监督,也可以对后续的去模糊步骤进行了约束。
采用该一致性约束,可以计算预测模糊核与第二模糊核之间的差异,并基于该差异的反馈,调整模糊核生成器的参数,直至该差异小于预置阈值,以保证模糊核生成器所输出的模糊核的准确性。
可以理解的是,步骤401至步骤407可以为一个图像去模糊方法,该图像去模糊方法与图2中所述的图像去模糊方法相比,可以显示模糊核并提高了采用模糊核生成器所生成的模糊核的准确度,从而可以提高采用该模糊核生成器所估计的模糊核进行的去模糊的结果的准确性。
采用该模糊核生成器估计输入的模糊目标图像的模糊核,之后根据该估计的模糊核进行模糊目标图像的去模糊的方法,可以为现有技术中的基于模糊核去模糊的方法,本申请对此不做限定。以下步骤408给出了一个可选的基于模糊核生成器所生成的模糊核去模糊的方法。
步骤408,对于图像生成器和模糊核生成器,采用以下重建损失函数进行约束:基于第一重建的模糊目标图像和第一模糊目标图像确定的第一重建损失函数;其中,第一重建的模糊目标图像采用第一模糊核对第一清晰目标图像进行卷积得到;基于第二重建的模糊目标图像和第二模糊目标图像确定的第二重建损失函数;其中,第二重建的模糊目标图像采用第二模糊核对第二清晰目标图像进行卷积得到。
在本实施例中,对于第一模糊目标图像,采用图像生成器输出的第一清晰目标图像和模糊核生成器输出的第一模糊核,可以重建一张模糊目标图像,也即得到第一重建的模糊目标图像。基于该第一重建的模糊目标图像和第一模糊目标图像,可以确定第一重建损失函数,以判断第一重建的模糊目标图像和第一模糊目标图像是否尽可能的相似。
对于第二模糊目标图像,采用图像生成器输出的第二清晰目标图像和模糊核生成器输出的第二模糊核,也可以重建一张模糊目标图像,也即得到第二重建的模糊目标图像。基于该第二重建的模糊目标图像和第二模糊目标图像,可以确定第二重建损失函数,以判断第二重建的模糊目标图像和第二模糊目标图像是否尽可能的相似。
基于第一重建损失函数和第二重建损失函数的反馈,可以调整图像生成器和模糊核生成器的参数,直至两个重建损失函数分别小于预定阈值,此时认为第一重建的模糊目标图像和第一模糊目标图像、第二重建的模糊目标图像和第二模糊目标图像的相似度达到要求。采用第一重建损失函数和第二重建损失函数,可以优化模糊核生成器和图像生成器的模型参数,从而提高模糊核生成器所生成的模糊核的准确度,提高图像生成器所生成的图像的准确度。
步骤409,基于第一清晰目标图像和第二清晰目标图像,确定增强的清晰目标图像。
在本实施例中,上述执行主体可以对于图像生成器生成的第一清晰目标图像和第二清晰目标图像进行处理,最大限度的提取各自信道中的有利信息,从而得到增强的清晰目标图像。
在一个具体的示例中,可以对于两张清晰目标图像的特征进行匹配,之后再进行两张清晰目标图像之间的图像配准,并对配准后的两张清晰目标图像中的目标进行图像融合,从而得到增强的清晰目标图像。该增强的清晰目标图像包括两张清晰目标图像所含有的时间空间信息,减少不确定性,增加可靠性,改进图像去模糊方法的鲁棒性能。
在本实施例的一些可选实现方式中,模糊核生成器的至少部分输入特征采用图像生成器的编码器的至少部分输出特征。
在本实现方式中,模糊核的生成与清晰图像的生成都需要利用到输入的模糊目标图像的特征,因此模糊核生成器与图像生成器的两者的深度网络中的浅层网络会共用。然后利用不同的分支(模糊核生成器分支与图像生成器分支)分别去学习模糊核与清晰图像。通过模糊核生成器的至少部分输入特征采用图像生成器的编码器的至少部分输出特征,可以提高生成模糊核的效率。
本公开上述实施例的图像去模糊方法,与图2中的去模糊方法不同的是,可以显示模糊核,并提高模糊核生成器所生成的模糊核的准确性,从而可以提高基于该模糊核生成器所估计的模糊核进行图像去模糊的准确性。在一些实施例中,基于可选的步骤408,对于图像生成器和模糊核生成器采用第一重建损失函数和第二重建损失函数进行约束,可以优化模糊核生成器和图像生成器的模型参数,从而提高模糊核生成器所生成的模糊核的准确度,提高图像生成器所生成的图像的准确度。
进一步参考图4b,图4b示出了图像去模糊方法的一些实施例的图像处理架构图。在图4b中,包括以下步骤:
首先,将第一模糊目标图像B、采用随机生成的模糊核K对第一模糊目标图像B进行卷积,记作B⊙K,得到的第二模糊目标图像B′。
之后,将第一模糊目标图像B、第二模糊目标图像B′分别输入图像生成器Gs,可以得到Gs输出的第一清晰目标图像Se和第二清晰目标图像S′e,并在生成的第一清晰目标图像Se和第二清晰目标图像S′e之间采用距离损失函数||Se-S′e||2进行约束;
之后,将第一模糊目标图像B、第二模糊目标图像B′分别输入模糊核生成器Gk,可以得到Gk输出的第一模糊核Ke和第二模糊核K′e;
之后,采用随机生成的模糊核K,对第一模糊核Ke进行卷积,得到预测模糊核K⊙Ke,其中,⊙表示卷积,并计算预测模糊核K⊙Ke与第二模糊核K′e的差值,并将该差值的平方||K⊙Ke-K′e||2作为预测模糊核与第二模糊核之间的一致性约束。
之后,对于图像生成器Gs和模糊核生成器Gk,采用以下重建损失函数进行约束:基于第一重建的模糊目标图像Ke⊙Se与第一模糊目标图像B确定的第一重建损失函数||Ke⊙Se-B||2;其中,第一重建的模糊目标图像Ke⊙Se采用第一模糊核Ke对第一清晰目标图像Se进行卷积得到;基于第二重建的模糊目标图像K′e⊙S′e与第二模糊目标图像B′确定的第二重建损失函数||K′e⊙S′e-B′||2;其中,第二重建的模糊目标图像K′e⊙S′e采用第二模糊核K′e对第二清晰目标图像S′e进行卷积得到。其中,模糊核生成器Gk的至少部分输入特征采用图像生成器Gs的编码器的至少部分输出特征。
最后,基于第一清晰目标图像Se和第二清晰目标图像S′e,生成增强的清晰目标图像。
进一步参考图5,本实施例的图像去模糊装置500,可以包括:模糊图像处理模块501,被配置成对第一模糊目标图像进行图像处理,得到第二模糊目标图像;其中,第一模糊目标图像基于真实采集的模糊目标图像得到;第一图像输入模块502,被配置成将第一模糊目标图像输入生成式对抗网络的图像生成器,得到图像生成器输出的第一清晰目标图像;第二图像输入模块503,被配置成将第二模糊目标图像输入图像生成器,得到图像生成器输出的第二清晰目标图像;其中,图像生成器对第一清晰目标图像和第二清晰目标图像采用距离损失函数进行约束;清晰图像确定模块504,被配置成基于第一清晰目标图像和第二清晰目标图像,确定增强的清晰目标图像。
在本实施例的一些可选实现方式中,第一图像输入模块502和第二图像输入模块503中的生成式对抗网络还包括:模糊核生成器;装置还包括(图中未示出):第一模糊核输出模块,被配置成将第一模糊目标图像输入模糊核生成器,得到模糊核生成器输出的第一模糊核;模糊核处理模块,被配置成对第一模糊核进行图像处理,得到预测模糊核;第二模糊核输出模块,被配置成将第二模糊目标图像输入模糊核生成器,得到模糊核生成器输出的第二模糊核;模糊核约束模块,被配置成模糊核生成器对于预测模糊核与第二模糊核采用一致性约束。
在本实施例的一些可选实现方式中,装置还包括(图中未示出):重建约束模块,被配置成:对于图像生成器和模糊核生成器,采用以下重建损失函数进行约束:基于第一重建的模糊目标图像和第一模糊目标图像确定的第一重建损失函数;其中,第一重建的模糊目标图像采用第一模糊核对第一清晰目标图像进行卷积得到;基于第二重建的模糊目标图像和第二模糊目标图像确定的第二重建损失函数;其中,第二重建的模糊目标图像采用第二模糊核对第二清晰目标图像进行卷积得到。
在本实施例的一些可选实现方式中,模糊核生成器的至少部分输入特征采用图像生成器的编码器的至少部分输出特征。
在本实施例的一些可选实现方式中,图像处理包括以下至少一项:采用随机生成的模糊核进行卷积;几何旋转;镜像;以及下采样。
在本实施例的一些可选实现方式中,模糊图像处理模块中的第一模糊目标图像基于真实采集的模糊目标图像得到包括以下任意一项:第一模糊目标图像为采用目标对齐模型从真实采集的模糊目标图像中提取的模糊目标区域;第一模糊目标图像为采用注意力机制从真实采集的模糊目标图像中学习得到的模糊目标区域;第一模糊目标图像为对真实采集的模糊目标图像进行多区域采样后得到的各个区域的模糊目标图像。
在本实施例的一些可选实现方式中,模糊图像处理模块中的真实采集的模糊目标图像为真实采集的以下至少一项:模糊人脸图像;模糊人物图像;模糊景物图像;模糊车辆图像;模糊动物图像;以及模糊植物图像。
应当理解,装置500中记载的各个单元与参考图2-图4b描述的方法中记载的各个步骤相对应。由此,上文针对方法描述的操作和特征同样适用于装置500及其中包含的各个单元,在此不再赘述。
如图6所示,是根据本申请实施例的图像去模糊方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图6所示,该电子设备包括:一个或多个处理器601、存储器602,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图6中以一个处理器601为例。
存储器602即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的图像去模糊方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的图像去模糊方法。
存储器602作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的图像去模糊方法对应的程序指令/模块(例如,图5所示的模糊图像处理模块501、第一图像输入模块502、第二图像输入模块503、清晰图像确定模块504)。处理器601通过运行存储在存储器602中的非瞬时软件程序、指令以及单元,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的图像去模糊方法。
存储器602可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据图像去模糊方法的电子设备的使用所创建的数据等。此外,存储器602可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器602可选包括相对于处理器601远程设置的存储器,这些远程存储器可以通过网络连接至图像去模糊方法的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
图像去模糊方法的电子设备还可以包括:输入装置603和输出装置604。处理器601、存储器602、输入装置603和输出装置604可以通过总线或者其他方式连接,图6中以通过总线连接为例。
输入装置603可接收输入的数字或字符信息,以及产生与图像去模糊方法的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置604可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
根据本申请实施例的技术方案,由于系统检测阈值为预设的异常概率值在概率密度函数中所对应的目标训练数据,且概率密度函数基于剔除异常的历史响应时间后所确定的目标训练数据拟合得到,保证了预先确定的系统检测阈值的准确性,从而可以准确及时地发现系统异常情况,减少系统故障带来的一系列损失。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (16)
1.一种图像去模糊方法,所述方法包括:
对第一模糊目标图像进行图像处理,得到第二模糊目标图像;其中,所述第一模糊目标图像基于真实采集的模糊目标图像得到;
将所述第一模糊目标图像输入生成式对抗网络的图像生成器,得到所述图像生成器输出的第一清晰目标图像;
将所述第二模糊目标图像输入所述图像生成器,得到所述图像生成器输出的第二清晰目标图像;其中,所述图像生成器对所述第一清晰目标图像和所述第二清晰目标图像采用距离损失函数进行约束;
基于所述第一清晰目标图像和所述第二清晰目标图像,确定增强的清晰目标图像。
2.根据权利要求1所述的方法,其中,所述生成式对抗网络还包括:模糊核生成器;
所述方法还包括:
将所述第一模糊目标图像输入所述模糊核生成器,得到所述模糊核生成器输出的第一模糊核;
对所述第一模糊核进行所述图像处理,得到预测模糊核;
将所述第二模糊目标图像输入所述模糊核生成器,得到所述模糊核生成器输出的第二模糊核;
所述模糊核生成器对于所述预测模糊核与所述第二模糊核采用一致性约束。
3.根据权利要求2所述的方法,其中,所述方法还包括:对于所述图像生成器和所述模糊核生成器,采用以下重建损失函数进行约束:
基于第一重建的模糊目标图像和所述第一模糊目标图像确定的第一重建损失函数;其中,所述第一重建的模糊目标图像采用所述第一模糊核对所述第一清晰目标图像进行卷积得到;
基于第二重建的模糊目标图像和所述第二模糊目标图像确定的第二重建损失函数;其中,所述第二重建的模糊目标图像采用所述第二模糊核对所述第二清晰目标图像进行卷积得到。
4.根据权利要求2或3任意一项所述的方法,其中,所述模糊核生成器的至少部分输入特征采用所述图像生成器的编码器的至少部分输出特征。
5.根据权利要求1或2所述的方法,其中,所述图像处理包括以下至少一项:
采用随机生成的模糊核进行卷积;几何旋转;镜像;以及下采样。
6.根据权利要求1所述的方法,其中,所述第一模糊目标图像基于真实采集的模糊目标图像得到包括以下任意一项:
所述第一模糊目标图像为采用目标对齐模型从真实采集的模糊目标图像中提取的模糊目标区域;
所述第一模糊目标图像为采用注意力机制从真实采集的模糊目标图像中学习得到的模糊目标区域;
所述第一模糊目标图像为对真实采集的模糊目标图像进行多区域采样后得到的各个区域的模糊目标图像。
7.根据权利要求1所述的方法,其中,所述真实采集的模糊目标图像为真实采集的以下至少一项:
模糊人脸图像;模糊人物图像;模糊景物图像;模糊车辆图像;模糊动物图像;以及模糊植物图像。
8.一种图像去模糊装置,所述装置包括:
模糊图像处理模块,被配置成对第一模糊目标图像进行图像处理,得到第二模糊目标图像;其中,所述第一模糊目标图像基于真实采集的模糊目标图像得到;
第一图像输入模块,被配置成将所述第一模糊目标图像输入生成式对抗网络的图像生成器,得到所述图像生成器输出的第一清晰目标图像;
第二图像输入模块,被配置成将所述第二模糊目标图像输入所述图像生成器,得到所述图像生成器输出的第二清晰目标图像;其中,所述图像生成器对所述第一清晰目标图像和所述第二清晰目标图像采用距离损失函数进行约束;
清晰图像确定模块,被配置成基于所述第一清晰目标图像和所述第二清晰目标图像,确定增强的清晰目标图像。
9.根据权利要求8所述的装置,其中,所述第一图像输入模块和所述第二图像输入模块中的所述生成式对抗网络还包括:模糊核生成器;
所述装置还包括:
第一模糊核输出模块,被配置成将所述第一模糊目标图像输入所述模糊核生成器,得到所述模糊核生成器输出的第一模糊核;
模糊核处理模块,被配置成对所述第一模糊核进行所述图像处理,得到预测模糊核;
第二模糊核输出模块,被配置成将所述第二模糊目标图像输入所述模糊核生成器,得到所述模糊核生成器输出的第二模糊核;
模糊核约束模块,被配置成所述模糊核生成器对于所述预测模糊核与所述第二模糊核采用一致性约束。
10.根据权利要求9所述的装置,其中,所述装置还包括:重建约束模块,被配置成:对于所述图像生成器和所述模糊核生成器,采用以下重建损失函数进行约束:
基于第一重建的模糊目标图像和所述第一模糊目标图像确定的第一重建损失函数;其中,所述第一重建的模糊目标图像采用所述第一模糊核对所述第一清晰目标图像进行卷积得到;
基于第二重建的模糊目标图像和所述第二模糊目标图像确定的第二重建损失函数;其中,所述第二重建的模糊目标图像采用所述第二模糊核对所述第二清晰目标图像进行卷积得到。
11.根据权利要求9或10任意一项所述的装置,其中,所述模糊核生成器的至少部分输入特征采用所述图像生成器的编码器的至少部分输出特征。
12.根据权利要求8或9所述的装置,其中,所述图像处理包括以下至少一项:
采用随机生成的模糊核进行卷积;几何旋转;镜像;以及下采样。
13.根据权利要求8所述的装置,其中,所述模糊图像处理模块中的所述第一模糊目标图像基于真实采集的模糊目标图像得到包括以下任意一项:
所述第一模糊目标图像为采用目标对齐模型从真实采集的模糊目标图像中提取的模糊目标区域;
所述第一模糊目标图像为采用注意力机制从真实采集的模糊目标图像中学习得到的模糊目标区域;
所述第一模糊目标图像为对真实采集的模糊目标图像进行多区域采样后得到的各个区域的模糊目标图像。
14.根据权利要求8所述的装置,其中,所述模糊图像处理模块中的所述真实采集的模糊目标图像为真实采集的以下至少一项:
模糊人脸图像;模糊人物图像;模糊景物图像;模糊车辆图像;模糊动物图像;以及模糊植物图像。
15.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的方法。
16.一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行权利要求1-7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010455735.9A CN111626956B (zh) | 2020-05-26 | 2020-05-26 | 图像去模糊方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010455735.9A CN111626956B (zh) | 2020-05-26 | 2020-05-26 | 图像去模糊方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111626956A true CN111626956A (zh) | 2020-09-04 |
CN111626956B CN111626956B (zh) | 2023-08-08 |
Family
ID=72260006
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010455735.9A Active CN111626956B (zh) | 2020-05-26 | 2020-05-26 | 图像去模糊方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111626956B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112383678A (zh) * | 2020-10-27 | 2021-02-19 | 南京交通职业技术学院 | 一种运动模糊图像清晰装置 |
CN112529816A (zh) * | 2020-12-22 | 2021-03-19 | 西安诺瓦星云科技股份有限公司 | 数据处理方法、装置、存储介质及计算机设备 |
CN113496472A (zh) * | 2021-06-24 | 2021-10-12 | 中汽创智科技有限公司 | 图像去雾模型构建、道路图像去雾方法、装置及车辆 |
CN115114395A (zh) * | 2022-04-15 | 2022-09-27 | 腾讯科技(深圳)有限公司 | 内容检索及模型训练方法、装置、电子设备和存储介质 |
CN115760589A (zh) * | 2022-09-30 | 2023-03-07 | 浙江大学 | 一种用于运动模糊图像的图像优化方法及装置 |
CN116051390A (zh) * | 2022-08-15 | 2023-05-02 | 荣耀终端有限公司 | 运动模糊程度检测方法和设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140307950A1 (en) * | 2013-04-13 | 2014-10-16 | Microsoft Corporation | Image deblurring |
CN108416752A (zh) * | 2018-03-12 | 2018-08-17 | 中山大学 | 一种基于生成式对抗网络进行图像去运动模糊的方法 |
CN110675329A (zh) * | 2019-08-06 | 2020-01-10 | 厦门大学 | 基于视觉语义引导的图像去模糊方法 |
-
2020
- 2020-05-26 CN CN202010455735.9A patent/CN111626956B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140307950A1 (en) * | 2013-04-13 | 2014-10-16 | Microsoft Corporation | Image deblurring |
CN108416752A (zh) * | 2018-03-12 | 2018-08-17 | 中山大学 | 一种基于生成式对抗网络进行图像去运动模糊的方法 |
CN110675329A (zh) * | 2019-08-06 | 2020-01-10 | 厦门大学 | 基于视觉语义引导的图像去模糊方法 |
Non-Patent Citations (6)
Title |
---|
吴迪;赵洪田;郑世宝;: "密集连接卷积网络图像去模糊" * |
孙季丰;朱雅婷;王恺;: "基于DeblurGAN和低秩分解的去运动模糊" * |
王健;王凯;刘刚;周文青;周子凯;: "基于生成对抗网络和RetinaNet的销钉缺陷识别" * |
缪弘;张文强;: "基于深度卷积神经网络的视觉SLAM去模糊系统" * |
罗琪彬;蔡强;: "采用双框架生成对抗网络的图像运动模糊盲去除" * |
裴慧坤;颜源;林国安;江万寿;: "基于生成对抗网络的无人机图像去模糊方法" * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112383678A (zh) * | 2020-10-27 | 2021-02-19 | 南京交通职业技术学院 | 一种运动模糊图像清晰装置 |
CN112383678B (zh) * | 2020-10-27 | 2022-05-27 | 南京交通职业技术学院 | 一种运动模糊图像清晰装置 |
CN112529816A (zh) * | 2020-12-22 | 2021-03-19 | 西安诺瓦星云科技股份有限公司 | 数据处理方法、装置、存储介质及计算机设备 |
CN113496472A (zh) * | 2021-06-24 | 2021-10-12 | 中汽创智科技有限公司 | 图像去雾模型构建、道路图像去雾方法、装置及车辆 |
CN115114395A (zh) * | 2022-04-15 | 2022-09-27 | 腾讯科技(深圳)有限公司 | 内容检索及模型训练方法、装置、电子设备和存储介质 |
CN115114395B (zh) * | 2022-04-15 | 2024-03-19 | 腾讯科技(深圳)有限公司 | 内容检索及模型训练方法、装置、电子设备和存储介质 |
CN116051390A (zh) * | 2022-08-15 | 2023-05-02 | 荣耀终端有限公司 | 运动模糊程度检测方法和设备 |
CN116051390B (zh) * | 2022-08-15 | 2024-04-09 | 荣耀终端有限公司 | 运动模糊程度检测方法和设备 |
CN115760589A (zh) * | 2022-09-30 | 2023-03-07 | 浙江大学 | 一种用于运动模糊图像的图像优化方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111626956B (zh) | 2023-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yu et al. | A survey on deepfake video detection | |
US10943145B2 (en) | Image processing methods and apparatus, and electronic devices | |
CN111626956A (zh) | 图像去模糊方法和装置 | |
D'Avino et al. | Autoencoder with recurrent neural networks for video forgery detection | |
Zhou et al. | Semantic-supervised infrared and visible image fusion via a dual-discriminator generative adversarial network | |
CN112529073A (zh) | 模型训练方法、姿态估计方法、装置及电子设备 | |
WO2021041176A1 (en) | Shuffle, attend, and adapt: video domain adaptation by clip order prediction and clip attention alignment | |
CN108229418B (zh) | 人体关键点检测方法和装置、电子设备、存储介质和程序 | |
Zhao et al. | Tracking objects as pixel-wise distributions | |
Poyser et al. | On the impact of lossy image and video compression on the performance of deep convolutional neural network architectures | |
CN111598164A (zh) | 识别目标对象的属性的方法、装置、电子设备和存储介质 | |
CN109389096B (zh) | 检测方法和装置 | |
WO2022068320A1 (en) | Computer automated interactive activity recognition based on keypoint detection | |
US11170512B2 (en) | Image processing apparatus and method, and image processing system | |
CN111507262B (zh) | 用于检测活体的方法和装置 | |
CN112584076B (zh) | 视频的插帧方法、装置及电子设备 | |
CN113191495A (zh) | 超分模型的训练及人脸识别方法、装置、介质及电子设备 | |
Yuan et al. | Single image dehazing via NIN-DehazeNet | |
CN112270246B (zh) | 视频行为识别方法及装置、存储介质、电子设备 | |
CN111914676A (zh) | 人体摔倒检测方法、装置、电子设备和存储介质 | |
Venkatesvara Rao et al. | Real-time video object detection and classification using hybrid texture feature extraction | |
Khan et al. | Review on moving object detection in video surveillance | |
Kushwaha et al. | Adaptive real-time motion segmentation technique based on statistical background model | |
CN111967299B (zh) | 无人机巡检方法、装置、设备及存储介质 | |
CN114841870A (zh) | 图像处理方法、相关装置和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |