CN109472260A - 一种基于深度神经网络的移除图像内台标和字幕的方法 - Google Patents
一种基于深度神经网络的移除图像内台标和字幕的方法 Download PDFInfo
- Publication number
- CN109472260A CN109472260A CN201811286931.7A CN201811286931A CN109472260A CN 109472260 A CN109472260 A CN 109472260A CN 201811286931 A CN201811286931 A CN 201811286931A CN 109472260 A CN109472260 A CN 109472260A
- Authority
- CN
- China
- Prior art keywords
- image
- training
- deviation
- region
- pout
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
- G06V20/635—Overlay text, e.g. embedded captions in a TV program
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度神经网络的移除图像内台标和字幕的方法,涉及图像修复技术领域,本发明包括如下步骤:S1、建立图像修复模型;S2、训练集图像预处理;S3、处理训练数据:将训练图像作为真实图像Pt;将训练图像中Mask1区域内的像素点RGB值置为0,作为训练图像P1;将训练图像中Mask2区域内的像素点RGB值置为0,作为训练图像P2;S4、训练图像修复模型,得到训练好的图像修复模型;S5、图像修复:将需要去除台标和字幕的图像或视频预处理后,输入训练好的图像修复模型中,将图像修复模型输出的图像与原图像结合,得到最终图像输出,本发明基于深度学习思想,实现自动、快速去除图像中的台标和字幕,处理过程清晰明确,修复实时性强,适用范围广。
Description
技术领域
本发明涉及图像修复技术领域,更具体的是涉及一种基于深度神经网络的移除图像内台标和字幕的方法。
背景技术
随着互联网和移动互联网的高速发展,网络上的图片、视频的总量和播放时长不断上升,在2017年仅仅是YouTube上的日视频播放总量就已经超过10亿小时。某些视频画面中存在台标和字幕,由于年代久远或其他种种原因无法得到原始视频画面,如何在现有视频画面中实时、快速地去除台标和字幕等区域,以降低台标或字幕对内容的不利干扰,使观众获得良好的视觉体验是当前亟待解决的问题。
现有的图像修复方法包括以下三种:
1、手工添加马赛克
通过视频编辑软件在台标和字幕区域直接添加马赛克以遮挡原有内容,这种方法虽然方式简单,但是视觉效果上受到了极大的影响,与原有初衷大相径庭,并不是一种合理的解决方法;
2、基于图像块的图像修复
这种方法通过收集待修复区域附近的小图像块来合成修复区域的纹理,这种方法的缺点也很明显:通过这种方式无法得到图像的整体语义,也就无法对修复区域进行语义层面的修复,因此修复复杂场景的能力较差,所需的计算量往往也很大;
3、基于数据库的图像修复
这种方法假定数据库中存在与待修复图像相似的内容,用视觉上足够相似的样本来估计当前图像中的待修补区域,当数据库内存在相似样本时图像修复的效果很好,但是当数据库中不存在相似样本时,修补结果可能就与真实情况大相径庭,极大地限制了可能的应用场景。
发明内容
本发明的目的在于:为了解决现有的图像修复方法修复影音图像中复杂场景的能力较差,所需计算量大,并且应用场景具有局限性的问题,本发明提供一种基于深度神经网络的移除图像内台标和字幕的方法,结合卷积神经网络和生成对抗网络的特性,构造图像修复模型,并对图像修复模型进行大量数据训练,然后将需要移除台标和字幕的视频帧带入图像修复模型进行计算,自动得到去除台标和字幕的图像帧,修复实时性强,适用范围广。
本发明为了实现上述目的具体采用以下技术方案:
一种基于深度神经网络的移除图像内台标和字幕的方法,包括如下步骤:
S1、建立图像修复模型:由类“U-net”网络和GAN组成图像修复模型,类“U-net”网络作为GAN的Generator;
S2、训练集图像预处理:将训练集中的图像裁剪或缩放至限定大小,得到训练图像,根据通常情况下台标和字幕所在区域,将训练图像在逻辑上划分为区域1、区域2和区域3,其中区域1为台标所在区域,区域2为字幕所在区域,并在区域1和区域2中分别生成对应的Mask1和Mask2;
S3、处理训练数据:将未经处理的训练图像作为真实图像Pt;将训练图像中Mask1区域内的像素点RGB值置为0,作为训练图像P1;将训练图像中Mask2区域内的像素点RGB值置为0,作为训练图像P2;
S4、训练图像修复模型:分别将训练图像P1和训练图像P2输入类“U-net”网络中进行计算,得到各自的输出图像Pout,分别将输出图像Pout和真实图像Pt划分为Mask区和不变区两部分,然后将输出图像Pout的Mask区与真实图像Pt的不变区组合为组合图像Pc;
将组合图像Pc和输出图像Pout的Mask区拼接起来作为GAN中的判别器的输入,基于真实图像Pt、输出图像Pout和组合图像Pc计算总偏差L,利用随机梯度下降法对图像修复模型的网络参数进行训练更新,直至判别器无法迭代、无法辨别图像真伪;
再从训练集中另外选取图像,重复执行S2至S4,得到训练好的图像修复模型;
S5、图像修复:将需要去除台标和字幕的图像或视频预处理后,输入训练好的图像修复模型中,将图像修复模型输出的图像与原图像结合,得到最终图像输出。
进一步的,所述S4中类“U-net”网络由卷积层和反卷积层构成,类“U-net”网络对训练图像P1和训练图像P2的处理流程包括下采样过程和上采样过程,所述下采样过程由步长为2的卷积核进行特征尺寸缩小,上采样过程由步长为1/2的卷积核进行特征尺寸放大。
进一步的,所述类“U-net”网络对训练图像P1和训练图像P2进行计算时,每一卷积和反卷积操作后都有一个ReLU激活函数。
进一步的,所述S4中的总偏差L由外部偏差L1、内部偏差L2、可感知偏差L3、风格偏差L4、内部间隔偏差L5和GAN判别式损失L6加权求和得到,
外部偏差L1为真实图像Pt的不变区像素点与输出图像Pout的不变区像素点差异;
内部偏差L2为真实图像Pt的Mask区像素点与输出图像Pout的Mask区像素点差异;
可感知偏差L3和风格偏差L4:将真实图像Pt、输出图像Pout和组合图像Pc输入提前训练好的用于计算偏差的VGGNet19模型,分别获取真实图像Pt、输出图像Pout和组合图像Pc在VGGNet19模型中conv3_4、conv4_4和conv5_4层后的高层特征图Pt(_3、_4、_5)、Pout(_3、_4、_5)和Pc(_3、_4、_5)共9张特征图,由上述9张特征图求得可感知偏差L3和风格偏差L4;
内部间隔偏差L5为输出图像Pout的Mask区像素矩阵中所有像素点与相应右邻点的差值以及与相应下邻点的差值的和;
GAN判别式损失L6:将输出图像Pout的Mask区缩放到与GAN网络结构适配的尺寸,并将缩放后的Mask区与组合图像Pc输入GAN中,训练GAN网络,GAN的损失即为判别式损失。
进一步的,所述可感知偏差L3和风格偏差L4的计算具体为:
可感知偏差L3:计算Pc(_3、_4、_5)和Pt(_3、_4、_5)对应下角标的差值,具体为Pc_3与Pt_3、Pc_4与Pt_4和Pc_5与Pt_5的差值,共三组;计算Pout(_3、_4、_5)和Pt(_3、_4、_5)对应下角标的差值,具体为Pout_3与Pt_3、Pout_4与Pt_4和Pout_5与Pt_5的差值,共三组,将上述六组差值相加便得到可感知偏差L3;
风格偏差L4:计算Pout(_3、_4、_5)和Pt(_3、_4、_5)的自协方差矩阵,并计算Pout(_3、_4、_5)和Pt(_3、_4、_5)对应下角标的自协方差矩阵差值,共三组;计算Pc(_3、_4、_5)和Pt(_3、_4、_5)的自协方差矩阵,并计算Pc(_3、_4、_5)和Pt(_3、_4、_5)对应下角标的自协方差矩阵差值,共三组,并将上述六组自协方差矩阵差值相加得到风格偏差L4。
进一步的,所述S5具体包括如下步骤:
S5.1、视频预处理:若需要去除台标和字幕的是视频,则解码视频内容,得到按帧分隔的视频图像;
S5.2、指定修补区域:人工或自动指定待处理图像或视频图像中的待修补区域,裁剪出待处理图像或视频图像中包含待修补区域的切片,裁剪出的切片大小与S2中的训练图像大小一致,并将待修补区域的像素点亮度值置为0,得到待修补切片;
S5.3、输入图像修复模型:将待修补切片输入训练好的图像修复模型中,得到修复分片;
S5.4、输出修复结果:将修复分片与S5.2中待处理图像或视频图像中切片外的图像结合,得到最终图像输出。
本发明的有益效果如下:
1、本发明基于深度学习思想,结合CNN中的类“U-net”网络和GAN等神经网络结构实现自动、快速去除图像中的台标和字幕,处理过程清晰明确,特征图经过激活层后,会变的更加稀疏,本发明计算可感知偏差L3和风格偏差L4时选择在VGGNet19的某些激活层前提取特征,因而可以获得更多的特征信息,能为计算可感知偏差L3和风格偏差L4时提供更多的信息,使得偏差计算更为准确,神经网络的拟合能力更强。
2、现有的深度卷积神经网络中,卷积层和激活层往往跟着BN层以加快网络学习速率,本发明在网络结构合理设计整体框架,在网络中去除了BN层,使得图像修复模型输出结果的视觉效果更真实;且由于设计了轻量级的网络结构,使得在实际的修复过程中消耗的时间更少,可以做到在720P幅面上做到每秒钟处理25帧图像。
3、本发明针对图像中台标和字幕的可能位置,合理规划了Mask区域在图像中的生成位置,使得图像修复模型针对台标和字幕的位置进行图像修复,使得用更少的训练样本即可达到较好的修复结果,训练针对性更强。
附图说明
图1是本发明的方法流程图。
图2是本发明对训练图像的划分示意图。
图3是本发明训练图像P1的示意图。
图4是本发明训练图像P2的示意图。
图5是本发明图像修复模型的网络结构示意图。
图6是本发明组合图像Pc的合成示意图。
图7是本发明裁剪切片的示意图。
图8是本发明由修补切片得到修复分片的示意图。
具体实施方式
为了本技术领域的人员更好的理解本发明,下面结合附图和以下实施例对本发明作进一步详细描述。
实施例1
如图1所示,本实施例提供一种基于深度神经网络的移除图像内台标和字幕的方法,包括如下步骤:
S1、建立图像修复模型:由类“U-net”网络和GAN组成图像修复模型,类“U-net”网络作为GAN的Generator;
S2、训练集图像预处理:将训练集中的图像裁剪或缩放至限定大小,得到训练图像,本实施例中,限定训练图像长宽为512*512mm,根据通常情况下台标和字幕所在区域,将训练图像在逻辑上划分为如图2所示的区域1、区域2和区域3,其中区域1为常规情况下台标所在区域,区域2为常规情况下字幕所在区域,并在区域1和区域2中分别生成对应的Mask1和Mask2,设所述Mask1的大小范围K*K,Mask2的大小范围L*L;
S3、处理训练数据:将训练图像作为真实图像Pt;如图3所示,将训练图像中Mask1区域内的像素点RGB值置为0,作为训练图像P1;如图4所示,将训练图像中Mask2区域内的像素点RGB值置为0,作为训练图像P2;
S4、训练图像修复模型:如图5所示,分别将训练图像P1和训练图像P2输入类“U-net”网络中进行计算,得到各自的输出图像Pout,如图6所示,分别将输出图像Pout和真实图像Pt划分为Mask区和不变区两部分,然后将输出图像Pout的Mask区与真实图像Pt的不变区组合为组合图像Pc;
将组合图像Pc和输出图像Pout的Mask区作为GAN中的判别器的输入,基于真实图像Pt、输出图像Pout和组合图像Pc计算总偏差L,利用随机梯度下降法对图像修复模型的网络参数进行训练更新,直至判别器无法迭代、无法辨别图像真伪;
所述S4中的总偏差L由外部偏差L1、内部偏差L2、可感知偏差L3、风格偏差L4、内部间隔偏差L5和GAN判别式损失L6加权求和得到,权重按照实际情况设定,
外部偏差L1为真实图像Pt的不变区像素点与输出图像Pout的不变区像素点差异;
内部偏差L2为真实图像Pt的Mask区像素点与输出图像Pout的Mask区像素点差异;
可感知偏差L3和风格偏差L4:将真实图像Pt、输出图像Pout和组合图像Pc输入提前训练好的用于计算偏差的VGGNet19模型,分别获取真实图像Pt、输出图像Pout和组合图像Pc在VGGNet19模型中conv3_4、conv4_4和conv5_4层后的高层特征图Pt(_3、_4、_5)、Pout(_3、_4、_5)和Pc(_3、_4、_5)共9张特征图,由上述9张特征图求得可感知偏差L3和风格偏差L4;
可感知偏差L3:计算Pc(_3、_4、_5)和Pt(_3、_4、_5)对应下角标的差值,具体为Pc_3与Pt_3、Pc_4与Pt_4和Pc_5与Pt_5的差值,共三组;计算Pout(_3、_4、_5)和Pt(_3、_4、_5)对应下角标的差值,具体为Pout_3与Pt_3、Pout_4与Pt_4和Pout_5与Pt_5的差值,共三组,将上述六组差值相加便得到可感知偏差L3;
风格偏差L4:计算Pout(_3、_4、_5)和Pt(_3、_4、_5)的自协方差矩阵,并计算Pout(_3、_4、_5)和Pt(_3、_4、_5)对应下角标的自协方差矩阵差值,共三组;计算Pc(_3、_4、_5)和Pt(_3、_4、_5)的自协方差矩阵,并计算Pc(_3、_4、_5)和Pt(_3、_4、_5)对应下角标的自协方差矩阵差值,共三组,并将上述六组自协方差矩阵差值相加得到风格偏差L4;
内部间隔偏差L5为输出图像Pout的Mask区像素矩阵中所有像素点与相应右邻点的差值以及与相应下邻点的差值的和;
GAN判别式损失L6:将输出图像Pout的Mask区缩放到合适尺寸,此处的合适尺寸根据实际情况进行选择,例如可取64*64,它与GAN网络结构相关,使得最终特征层大小为1*1,并将缩放后的Mask区与组合图像Pc输入GAN中,训练GAN网络,GAN的判别式损失;
再从训练集中另外选取图像,重复执行S2至S4,修补画面效果与训练集中的图像丰富性正相关,得到训练好的图像修复模型;
S5、图像修复:将需要去除台标和字幕的图像或视频预处理后,输入训练好的图像修复模型中,将图像修复模型输出的图像与原图像结合,得到最终图像输出,具体包括如下步骤:
S5.1、视频预处理:若需要去除台标和字幕的是视频,则解码视频内容,得到按帧分隔的视频图像;
S5.2、指定修补区域:人工或自动指定待处理图像或视频图像中的待修补区域,如图7所示,裁剪出待处理图像或视频图像中包含待修补区域的切片,裁剪出的切片大小与S2中的训练图像大小一致,并将待修补区域的像素点亮度值置为0,得到待修补切片;
S5.3、输入图像修复模型:如图8所示,将待修补切片输入训练好的图像修复模型中,得到修复分片;
S5.4、输出修复结果:将修复分片与S5.2中待处理图像或视频图像中切片外的图像结合,得到最终图像输出。
实施例2
本实施例在实施例的基础之上进一步优化,具体是:
所述S4中类“U-net”网络由卷积层和反卷积层构成,类“U-net”网络对训练图像P1和训练图像P2的处理流程包括下采样过程和上采样过程,所述下采样过程由步长为2的卷积核进行特征尺寸缩小,上采样过程由步长为1/2的卷积核进行特征尺寸放大;所述类“U-net”网络对训练图像P1和训练图像P2进行计算时,每一卷积和反卷积操作后都有一个ReLU激活函数。
以上所述,仅为本发明的较佳实施例,并不用以限制本发明,本发明的专利保护范围以权利要求书为准,凡是运用本发明的说明书及附图内容所作的等同结构变化,同理均应包含在本发明的保护范围内。
Claims (6)
1.一种基于深度神经网络的移除图像内台标和字幕的方法,其特征在于,包括如下步骤:
S1、建立图像修复模型:由类“U-net”网络和GAN组成图像修复模型,类“U-net”网络作为GAN的Generator;
S2、训练集图像预处理:将训练集中的图像裁剪或缩放至限定大小,得到训练图像,根据通常情况下台标和字幕所在区域,将训练图像划分为区域1、区域2和区域3,其中区域1为台标所在区域,区域2为字幕所在区域,并在区域1和区域2中分别对应生成Mask1和Mask2;
S3、处理训练数据:将未经处理的训练图像作为真实图像Pt;将训练图像中Mask1区域内的像素点RGB值置为0,作为训练图像P1;将训练图像中Mask2区域内的像素点RGB值置为0,作为训练图像P2;
S4、训练图像修复模型:分别将训练图像P1和训练图像P2输入类“U-net”网络中进行计算,得到各自的输出图像Pout,分别将输出图像Pout和真实图像Pt划分为Mask区和不变区两部分,然后将输出图像Pout的Mask区与真实图像Pt的不变区组合为组合图像Pc;
将组合图像Pc和输出图像Pout的Mask区拼接起来作为GAN中的判别器的输入,基于真实图像Pt、输出图像Pout和组合图像Pc计算总偏差L,利用随机梯度下降法对图像修复模型的网络参数进行训练更新,直至判别器无法迭代;
再从训练集中另外选取图像,重复执行S2至S4,得到训练好的图像修复模型;
S5、图像修复:将需要去除台标和字幕的图像或视频预处理后,输入训练好的图像修复模型中,将图像修复模型输出的图像与原图像结合,得到最终图像输出。
2.根据权利要求1所述的一种基于深度神经网络的移除图像内台标和字幕的方法,其特征在于,所述S4中类“U-net”网络由卷积层和反卷积层构成,类“U-net”网络对训练图像P1和训练图像P2的处理流程包括下采样过程和上采样过程,所述下采样过程由步长为2的卷积核进行特征尺寸缩小,上采样过程由步长为1/2的卷积核进行特征尺寸放大。
3.根据权利要求2所述的一种基于深度神经网络的移除图像内台标和字幕的方法,其特征在于,所述类“U-net”网络对训练图像P1和训练图像P2进行计算时,每一卷积和反卷积操作后都有一个ReLU激活函数。
4.根据权利要求1所述的一种基于深度神经网络的移除图像内台标和字幕的方法,其特征在于,所述S4中的总偏差L由外部偏差L1、内部偏差L2、可感知偏差L3、风格偏差L4、内部间隔偏差L5和GAN判别式损失L6加权求和得到,
外部偏差L1为真实图像Pt的不变区像素点与输出图像Pout的不变区像素点差异;
内部偏差L2为真实图像Pt的Mask区像素点与输出图像Pout的Mask区像素点差异;
可感知偏差L3和风格偏差L4:将真实图像Pt、输出图像Pout和组合图像Pc输入提前训练好的用于计算偏差的VGGNet19模型,分别获取真实图像Pt、输出图像Pout和组合图像Pc在VGGNet19模型中conv3_4、conv4_4和conv5_4层后的高层特征图Pt(_3、_4、_5)、Pout(_3、_4、_5)和Pc(_3、_4、_5)共9张特征图,由上述9张特征图求得可感知偏差L3和风格偏差L4;
内部间隔偏差L5为输出图像Pout的Mask区像素矩阵中所有像素点与相应右邻点的差值以及与相应下邻点的差值的和;
GAN判别式损失L6:将输出图像Pout的Mask区缩放到与GAN网络适配的尺寸,并将缩放后的Mask区与组合图像Pc输入GAN中,训练GAN网络,GAN的损失即为判别式损失。
5.根据权利要求4所述的一种基于深度神经网络的移除图像内台标和字幕的方法,其特征在于,所述可感知偏差L3和风格偏差L4的计算具体为:
可感知偏差L3:计算Pc(_3、_4、_5)和Pt(_3、_4、_5)对应下角标的三组差值,计算Pout(_3、_4、_5)和Pt(_3、_4、_5)对应下角标的三组差值,将六组差值相加便得到可感知偏差L3;
风格偏差L4:计算Pout(_3、_4、_5)和Pt(_3、_4、_5)的自协方差矩阵,并计算Pout(_3、_4、_5)和Pt(_3、_4、_5)对应下角标的三组自协方差矩阵差值;计算Pc(_3、_4、_5)和Pt(_3、_4、_5)的自协方差矩阵,并计算Pc(_3、_4、_5)和Pt(_3、_4、_5)对应下角标的三组自协方差矩阵差值,将六组自协方差矩阵差值相加便得到风格偏差L4。
6.根据权利要求1所述的一种基于深度神经网络的移除图像内台标和字幕的方法,其特征在于,所述S5具体包括如下步骤:
S5.1、视频预处理:若需要去除台标和字幕的是视频,则解码视频内容,得到按帧分隔的视频图像;
S5.2、指定修补区域:人工或自动指定待处理图像或视频图像中的待修补区域,裁剪出待处理图像或视频图像中包含待修补区域的切片,裁剪出的切片大小与S2中的训练图像大小一致,并将待修补区域的像素点亮度值置为0,得到待修补切片;
S5.3、输入图像修复模型:将待修补切片输入训练好的图像修复模型中,得到修复分片;
S5.4、输出修复结果:将修复分片与S5.2中待处理图像或视频图像中切片外的图像结合,得到最终图像输出。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811286931.7A CN109472260B (zh) | 2018-10-31 | 2018-10-31 | 一种基于深度神经网络的移除图像内台标和字幕的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811286931.7A CN109472260B (zh) | 2018-10-31 | 2018-10-31 | 一种基于深度神经网络的移除图像内台标和字幕的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109472260A true CN109472260A (zh) | 2019-03-15 |
CN109472260B CN109472260B (zh) | 2021-07-27 |
Family
ID=65666174
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811286931.7A Active CN109472260B (zh) | 2018-10-31 | 2018-10-31 | 一种基于深度神经网络的移除图像内台标和字幕的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109472260B (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110636373A (zh) * | 2019-10-18 | 2019-12-31 | 厦门美图之家科技有限公司 | 图像处理方法、装置及电子设备 |
CN110660033A (zh) * | 2019-09-25 | 2020-01-07 | 北京奇艺世纪科技有限公司 | 一种字幕的去除方法、装置及电子设备 |
CN110895697A (zh) * | 2019-11-13 | 2020-03-20 | 三峡大学 | 变压器铭牌信息采集方法及智能采集系统 |
CN111105377A (zh) * | 2019-12-19 | 2020-05-05 | 西南石油大学 | 一种对微电阻率成像图像的修复方法 |
CN111460219A (zh) * | 2020-04-01 | 2020-07-28 | 百度在线网络技术(北京)有限公司 | 视频处理方法及装置、短视频平台 |
CN111583087A (zh) * | 2020-05-06 | 2020-08-25 | 杭州趣维科技有限公司 | 一种图像去水印方法 |
CN111612715A (zh) * | 2020-05-20 | 2020-09-01 | 北京字节跳动网络技术有限公司 | 图像修复方法、装置和电子设备 |
CN111860472A (zh) * | 2020-09-24 | 2020-10-30 | 成都索贝数码科技股份有限公司 | 电视台标检测方法、系统、计算机设备及存储介质 |
CN111918144A (zh) * | 2020-08-12 | 2020-11-10 | 桂林电子科技大学 | 一种基于深度学习的去除视频水印的方法 |
WO2021035228A3 (en) * | 2020-12-03 | 2021-09-16 | Futurewei Technologies, Inc. | System and methods for photo in-painting of unwanted objects with auxiliary photos on smartphone |
WO2021230863A1 (en) * | 2020-05-13 | 2021-11-18 | Google Llc | Image replacement inpainting |
CN115334334A (zh) * | 2022-07-13 | 2022-11-11 | 北京优酷科技有限公司 | 视频插帧方法及装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102289663A (zh) * | 2011-07-29 | 2011-12-21 | 四川长虹电器股份有限公司 | 一种基于颜色和形状的台标识别方法 |
CN102511047A (zh) * | 2010-05-14 | 2012-06-20 | 联发科技(新加坡)私人有限公司 | 视频节目的字幕消除方法以及相关视频显示系统 |
US20160180168A1 (en) * | 2013-10-29 | 2016-06-23 | Bank Of America Corporation | Data lifting for exception processing |
CN105869140A (zh) * | 2015-11-24 | 2016-08-17 | 乐视致新电子科技(天津)有限公司 | 图像处理方法和装置 |
CN106454411A (zh) * | 2016-10-27 | 2017-02-22 | 北京小米移动软件有限公司 | 台标处理方法和装置 |
CN106910176A (zh) * | 2017-03-02 | 2017-06-30 | 中科视拓(北京)科技有限公司 | 一种基于深度学习的人脸图像去遮挡方法 |
CN108038823A (zh) * | 2017-12-06 | 2018-05-15 | 厦门美图之家科技有限公司 | 图像型变网络模型的训练方法、图像型变方法及计算设备 |
-
2018
- 2018-10-31 CN CN201811286931.7A patent/CN109472260B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102511047A (zh) * | 2010-05-14 | 2012-06-20 | 联发科技(新加坡)私人有限公司 | 视频节目的字幕消除方法以及相关视频显示系统 |
CN102289663A (zh) * | 2011-07-29 | 2011-12-21 | 四川长虹电器股份有限公司 | 一种基于颜色和形状的台标识别方法 |
US20160180168A1 (en) * | 2013-10-29 | 2016-06-23 | Bank Of America Corporation | Data lifting for exception processing |
CN105869140A (zh) * | 2015-11-24 | 2016-08-17 | 乐视致新电子科技(天津)有限公司 | 图像处理方法和装置 |
CN106454411A (zh) * | 2016-10-27 | 2017-02-22 | 北京小米移动软件有限公司 | 台标处理方法和装置 |
CN106910176A (zh) * | 2017-03-02 | 2017-06-30 | 中科视拓(北京)科技有限公司 | 一种基于深度学习的人脸图像去遮挡方法 |
CN108038823A (zh) * | 2017-12-06 | 2018-05-15 | 厦门美图之家科技有限公司 | 图像型变网络模型的训练方法、图像型变方法及计算设备 |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110660033A (zh) * | 2019-09-25 | 2020-01-07 | 北京奇艺世纪科技有限公司 | 一种字幕的去除方法、装置及电子设备 |
CN110660033B (zh) * | 2019-09-25 | 2022-04-22 | 北京奇艺世纪科技有限公司 | 一种字幕的去除方法、装置及电子设备 |
CN110636373B (zh) * | 2019-10-18 | 2022-02-01 | 厦门美图之家科技有限公司 | 图像处理方法、装置及电子设备 |
CN110636373A (zh) * | 2019-10-18 | 2019-12-31 | 厦门美图之家科技有限公司 | 图像处理方法、装置及电子设备 |
CN110895697B (zh) * | 2019-11-13 | 2023-05-05 | 三峡大学 | 变压器铭牌信息采集方法及智能采集系统 |
CN110895697A (zh) * | 2019-11-13 | 2020-03-20 | 三峡大学 | 变压器铭牌信息采集方法及智能采集系统 |
CN111105377A (zh) * | 2019-12-19 | 2020-05-05 | 西南石油大学 | 一种对微电阻率成像图像的修复方法 |
CN111105377B (zh) * | 2019-12-19 | 2022-05-06 | 西南石油大学 | 一种对微电阻率成像图像的修复方法 |
CN111460219B (zh) * | 2020-04-01 | 2023-07-14 | 百度在线网络技术(北京)有限公司 | 视频处理方法及装置、短视频平台 |
CN111460219A (zh) * | 2020-04-01 | 2020-07-28 | 百度在线网络技术(北京)有限公司 | 视频处理方法及装置、短视频平台 |
CN111583087B (zh) * | 2020-05-06 | 2023-09-05 | 杭州小影创新科技股份有限公司 | 一种图像去水印方法 |
CN111583087A (zh) * | 2020-05-06 | 2020-08-25 | 杭州趣维科技有限公司 | 一种图像去水印方法 |
JP2023500203A (ja) * | 2020-05-13 | 2023-01-05 | グーグル エルエルシー | 画像置換修復 |
WO2021230863A1 (en) * | 2020-05-13 | 2021-11-18 | Google Llc | Image replacement inpainting |
KR20220062336A (ko) * | 2020-05-13 | 2022-05-16 | 구글 엘엘씨 | 이미지 교체 복원 |
KR102626274B1 (ko) * | 2020-05-13 | 2024-01-17 | 구글 엘엘씨 | 이미지 교체 복원 |
JP7457800B2 (ja) | 2020-05-13 | 2024-03-28 | グーグル エルエルシー | 画像置換修復 |
CN111612715B (zh) * | 2020-05-20 | 2022-09-23 | 北京字节跳动网络技术有限公司 | 图像修复方法、装置和电子设备 |
CN111612715A (zh) * | 2020-05-20 | 2020-09-01 | 北京字节跳动网络技术有限公司 | 图像修复方法、装置和电子设备 |
CN111918144A (zh) * | 2020-08-12 | 2020-11-10 | 桂林电子科技大学 | 一种基于深度学习的去除视频水印的方法 |
CN111860472A (zh) * | 2020-09-24 | 2020-10-30 | 成都索贝数码科技股份有限公司 | 电视台标检测方法、系统、计算机设备及存储介质 |
WO2021035228A3 (en) * | 2020-12-03 | 2021-09-16 | Futurewei Technologies, Inc. | System and methods for photo in-painting of unwanted objects with auxiliary photos on smartphone |
CN115334334A (zh) * | 2022-07-13 | 2022-11-11 | 北京优酷科技有限公司 | 视频插帧方法及装置 |
CN115334334B (zh) * | 2022-07-13 | 2024-01-09 | 北京优酷科技有限公司 | 视频插帧方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN109472260B (zh) | 2021-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109472260A (zh) | 一种基于深度神经网络的移除图像内台标和字幕的方法 | |
CN109785258B (zh) | 一种基于多判别器生成对抗网络的人脸图像修复方法 | |
CN107577985B (zh) | 基于循环生成对抗网络的人脸头像卡通化的实现方法 | |
CN107767413B (zh) | 一种基于卷积神经网络的图像深度估计方法 | |
US8692830B2 (en) | Automatic avatar creation | |
CN108805839A (zh) | 基于卷积神经网络的联合估计图像去雾方法 | |
CN102271262B (zh) | 用于3d显示的基于多线索的视频处理方法 | |
CN104113789A (zh) | 一种基于深度学习的视频摘要在线生成方法 | |
CN109829868B (zh) | 一种轻量级深度学习模型图像去雾方法、电子设备及介质 | |
CN110223251B (zh) | 适用于人工与自然光源的卷积神经网络水下图像复原方法 | |
CN108961227A (zh) | 一种基于空域和变换域多特征融合的图像质量评价方法 | |
CN105763829A (zh) | 一种图像处理方法及电子设备 | |
CN108377355A (zh) | 一种视频数据处理方法、装置及设备 | |
Geng et al. | A stereoscopic image quality assessment model based on independent component analysis and binocular fusion property | |
CN106934790A (zh) | 一种图像清晰度的评价方法、自动聚焦的方法及相应装置 | |
CN104361583B (zh) | 一种确定非对称失真立体图像客观质量的方法 | |
CN104954778A (zh) | 一种基于感知特征集的立体图像质量客观评价方法 | |
CN110276831A (zh) | 三维模型的建构方法和装置、设备、计算机可读存储介质 | |
CN102999911B (zh) | 一种基于能量图的立体图像质量客观评价方法 | |
Zhou et al. | Underwater image enhancement method based on color correction and three-interval histogram stretching | |
CN103780903B (zh) | 一种立体相机近距会聚拍摄质量客观评价方法 | |
CN103914835A (zh) | 一种针对模糊失真立体图像的无参考质量评价方法 | |
Zhang et al. | Ddh-qa: A dynamic digital humans quality assessment database | |
CN103841411A (zh) | 一种基于双目信息处理的立体图像质量评价方法 | |
Chu et al. | Saliency structure stereoscopic image quality assessment method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |