CN109492627A - 一种基于全卷积网络的深度模型的场景文本擦除方法 - Google Patents

一种基于全卷积网络的深度模型的场景文本擦除方法 Download PDF

Info

Publication number
CN109492627A
CN109492627A CN201910056611.0A CN201910056611A CN109492627A CN 109492627 A CN109492627 A CN 109492627A CN 201910056611 A CN201910056611 A CN 201910056611A CN 109492627 A CN109492627 A CN 109492627A
Authority
CN
China
Prior art keywords
network
picture
neural network
textual
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910056611.0A
Other languages
English (en)
Other versions
CN109492627B (zh
Inventor
金连文
张帅涛
刘禹良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN201910056611.0A priority Critical patent/CN109492627B/zh
Publication of CN109492627A publication Critical patent/CN109492627A/zh
Application granted granted Critical
Publication of CN109492627B publication Critical patent/CN109492627B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

本发明提出一种基于全卷积网络的深度模型的场景文本擦除方法,包括以下步骤:收集并合成对应的文本与非文本图片、构建一个条件生成对抗全卷积隐藏神经网络模型用于完成自然场景文本自动擦除任务,并进行模型训练和测试网络,输入一张自然场景文本图像,利用全卷积隐藏神经网络模型返回预测结果;本发明通过将文本检测以及图片填补的机制隐式的融入到全卷积隐藏神经网络模型的训练当中,在全卷积隐藏神经网络模型训练阶段利用判别器辅助训练生成器,从而保证全卷积隐藏神经网络模型回归的预测值更加接近于真实,在全卷积隐藏神经网络模型的训练过程中利用对抗式生成网络提高网络的擦除效果,从而可以生成高品质的非文本图片预测。

Description

一种基于全卷积网络的深度模型的场景文本擦除方法
技术领域
本发明涉及模式识别与人工智能领域,尤其涉及一种基于全卷积网络的深度模型的场景文本擦除方法。
背景技术
在我们的日常生活当中,自然场景文字无处不在,文字是人类交流的基本工具,对人类理解信息有着至关重要的作用,与此同时,各种隐私信息,比如身份证号码、手机号码、车牌号码以及家庭住址等也暴露在自然场景文本当中,随着自然场景文本检测与识别技术的发展,如此重要的隐私信息很容易被机器自动收集用于欺诈、营销或其他非法活动,如何隐藏这些暴露于自然场景之中的隐私信息成为了研究的热点。
对于隐藏自然场景文本问题,传统的方法通常对图像做文本检测,然后人工设计一些规则滤除一些负样本,接着将文本区域移除,最后通过图像填补算法来补全移除的文本区域,这种方法一方面高度依赖文本检测的准确性,另一方面对人工设计的规则以及填补算法要求较高,其次单张图片处理的效率与文本区域成反比,只能解决一些干净,清晰,分布规则的简单图像。
目前关于场景文本擦除的研究倾向于图像填补算法上,假设用户提供要移除目标的掩码,而获取对应的掩码也是一个极具挑战的任务,如果我们不能获取非常整齐的掩码,那么填补算法会试图补回目标,会产生相反的效果。因此,本发明提出一种基于全卷积网络的深度模型的场景文本擦除方法,以解决现有技术中的不足之处。
发明内容
针对上述问题,本发明通过将文本检测以及图片填补的机制隐式的融入到全卷积隐藏神经网络模型的训练当中,在全卷积隐藏神经网络模型训练阶段利用判别器辅助训练生成器,从而保证全卷积隐藏神经网络模型回归的预测值更加接近于真实,在全卷积隐藏神经网络模型的训练过程中利用对抗式生成网络提高网络的擦除效果,从而可以生成高品质的非文本图片预测,同时,本发明方法创建的深度全卷积隐藏神经网络模型是灵活的,可以通过不同基本网络结构实现的,实现方法方便简单,具有较强的实用性。
本发明提出一种基于全卷积网络的深度模型的场景文本擦除方法,包括以下步骤:
步骤一:数据采集,收集并合成对应的文本与非文本图片,并人工标注成对的真实自然场景数据;
步骤二:训练网络,首先构建一个条件生成对抗全卷积隐藏神经网络模型用于完成自然场景文本自动擦除任务,然后将成对图片输入到全卷积隐藏神经网络模型,计算相对应的代价函数,再将自然场景文本图片输入到全卷积隐藏神经网络模型中,利用多个重组的回归损失和对抗性损失作为监督信号,以交替训练的优化方式来训练全卷积隐藏神经网络模型直至收敛;
步骤三:测试网络,输入一张自然场景文本图像,利用全卷积隐藏神经网络模型返回预测结果。
进一步改进在于:所述步骤一中合成的一定数量的成对的自然场景文本与非文本图片需要被划分成训练集和测试集,训练集用于训练全卷积隐藏神经网络模型,测试集用于测试全卷积隐藏神经网络模型的性能。
进一步改进在于:所述步骤二中条件生成对抗全卷积隐藏神经网络模型由三个子网络组成,具体为生成器网络、判别器网络和损失网络,所述生成器网络是基于全卷积神经网络的结构进行设计的,它的输入是一张自然场景图片。
进一步改进在于:所述判别器网络是由多个卷积层加正则化层以及激活层组成,将输入图片与预测结果一起送入判别器网络,经过卷积层提取高维特征之后,接入激活函数层,最终输出关于对应感受野图片块真假的预测分数。
进一步改进在于:所述损失网络由VGG网络组成,所述VGG网络由多个卷积层、正则化层、激活函数层以及池化层叠加而成,将对应的预测图片和真实标签图片一起送入损失网络,可以进行优化两张图片在高维特征上的距离。
进一步改进在于:所述步骤二中将成对图片输入到全卷积隐藏神经网络中时,首先由卷积特征抽取支路网络抽取高维特征进行文本与非文本特征的区分,接受由反卷积支路去预测对应的非文本特征。
进一步改进在于:所述步骤二中将成对图片输入到全卷积隐藏神经网络中的过程中,由于特征经过低维到高维再到低维的转换,一些细节信息会被丢失,因此还需要用侧向连接模块将对应大小分别来自于卷积支路和反卷积支路的特征进行融合,对这两个特征向量进行按元素相加之后送入下一个反卷积模块,直到最后输出一个关于非文本的自然场景图片的预测结果。
进一步改进在于:所述步骤二中代价函数由重组损失函数和对抗损失函数组成,具体如公式(1)所示:
其中,λe,λi,λt表示各个损失函数的权重;
重组损失函数的各个分项是基于欧式距离损失函数进行设计的,具体如公式(2)所示:
其中,为多尺度回归损失,表示对应第i个反卷积层预测出来的输出,表示与第i个反卷积层输出大小相同的掩码以及真实的非文本图片,α表示文本与非文本区域之间的权重平衡因子,n代表选择用来做预测的层数;
语义损失计算公式如公式(3)所示:
其中,代表将预测的图片分为两个部分,文本区域与非文本区域,文本区域设置成预测出来的特征,非文本区域设置成对应的真实特征,n代表选择用来输出特征的层数,N代表预测的总的层数,代表对应的真实的非文本图片,代表对应的预测的非文本图片,表示经过VGG网络第n个层之后的特征图;
纹理损失计算公式如公式(4)所示:
其中,HnWnCn代表高维特征图的形状,代表将预测的图片分为两个部分,文本区域与非文本区域,文本区域设置成预测出来的特征,非文本区域设置成对应的真实特征,表示经过VGG网络第n个卷积层层之后的特征图,N代表用来输出特征的总的层数;
去噪损失计算公式如公式(5)所示:
其中,i,j代表预测图片上的像素点,是通过控制相邻像素之间的差值来进行去噪从而提高图片的品质。
进一步改进在于:所述步骤二中使用反向传播算法对该条件生成对抗全卷积隐藏神经网络模型进行训练的具体过程为:使用反向传播算法,从最后一层计算传递梯度,逐层传递,更新所有的参数权重,达到训练网络的目的,训练采用交替训练的优化方式,首先初始化所有的网络结构,接着固定生成器网络训练判别器网络,然后反过来使用固定判别器网络训练生成器网络和损失网络,接着再次固定生成器网络训练判别器网络,以此类推直至模型收敛。
进一步改进在于:所述步骤三中先将一张自然场景文本图片输入到全卷积隐藏神经网络模型的生成器网络中,生成器网络的输出即为最后的预测结果和全卷积隐藏神经网络模型预测的对应的非文本图片。
本发明的有益效果为:通过将文本检测以及图片填补的机制隐式的融入到全卷积隐藏神经网络模型的训练当中,在全卷积隐藏神经网络模型训练阶段利用判别器辅助训练生成器,从而保证全卷积隐藏神经网络模型回归的预测值更加接近于真实,通过人工标注一定数量的配对的自然场景文本图片与非文本图片数据可以增加全卷积隐藏神经网络模型的泛化性能,在全卷积隐藏神经网络模型的训练过程中利用对抗式生成网络提高网络的擦除效果,从而可以生成高品质的非文本图片预测,同时,本发明方法创建的深度全卷积隐藏神经网络模型是灵活的,可以通过不同基本网络结构实现的,实现方法方便简单,具有较强的实用性。
附图说明
图1为本发明方法流程示意图。
图2为本发明全卷积隐藏神经网络模型示意图。
图3为本发明全卷积隐藏神经网络模型网络优化方式示意图。
具体实施方式
为了使发明实现的技术手段、达成目的与功效易于明白了解,下面结合具体实施方式,进一步阐述本发明。
根据图1、2、3示,本实施例提出一种基于全卷积网络的深度模型的场景文本擦除方法,包括以下步骤:
步骤一:数据采集,收集并合成对应的文本与非文本图片,并人工标注成对的真实自然场景数据,合成的一定数量的成对的自然场景文本与非文本图片需要被划分成训练集和测试集,训练集用于训练全卷积隐藏神经网络模型,测试集用于测试全卷积隐藏神经网络模型的性能;
步骤二:训练网络,首先构建一个条件生成对抗全卷积隐藏神经网络模型用于完成自然场景文本自动擦除任务,条件生成对抗全卷积隐藏神经网络模型由三个子网络组成,具体为生成器网络、判别器网络和损失网络,生成器网络是基于全卷积神经网络的结构进行设计的,它的输入是一张自然场景图片;
判别器网络是由多个卷积层加正则化层以及激活层组成,将输入图片与预测结果一起送入判别器网络,经过卷积层提取高维特征之后,接入激活函数层,最终输出关于对应感受野图片块真假的预测分数;
损失网络由VGG网络组成,VGG网络由多个卷积层、正则化层、激活函数层以及池化层叠加而成,将对应的预测图片和真实标签图片一起送入损失网络,可以进行优化两张图片在高维特征上的距离计算相对应的代价函数;
然后将成对图片输入到全卷积隐藏神经网络模型,首先由卷积特征抽取支路网络抽取高维特征进行文本与非文本特征的区分,接受由反卷积支路去预测对应的非文本特征,将成对图片输入到全卷积隐藏神经网络中的过程中,由于特征经过低维到高维再到低维的转换,一些细节信息会被丢失,因此还需要用侧向连接模块将对应大小分别来自于卷积支路和反卷积支路的特征进行融合,对这两个特征向量进行按元素相加之后送入下一个反卷积模块,直到最后输出一个关于非文本的自然场景图片的预测结果,再将自然场景文本图片输入到全卷积隐藏神经网络模型中,代价函数由重组损失函数和对抗损失函数组成,具体如公式(1)所示:
其中,λe,λi,λt表示各个损失函数的权重;
重组损失函数的各个分项是基于欧式距离损失函数进行设计的,具体如公式(2)所示:
其中,为多尺度回归损失,表示对应第i个反卷积层预测出来的输出,表示与第i个反卷积层输出大小相同的掩码以及真实的非文本图片,α表示文本与非文本区域之间的权重平衡因子,n代表选择用来做预测的层数;
语义损失计算公式如公式(3)所示:
其中,代表将预测的图片分为两个部分,文本区域与非文本区域,文本区域设置成预测出来的特征,非文本区域设置成对应的真实特征,n代表选择用来输出特征的层数,N代表预测的总的层数,代表对应的真实的非文本图片,代表对应的预测的非文本图片,表示经过VGG网络第n个层之后的特征图;
纹理损失计算公式如公式(4)所示:
其中,HnWnCn代表高维特征图的形状,代表将预测的图片分为两个部分,文本区域与非文本区域,文本区域设置成预测出来的特征,非文本区域设置成对应的真实特征,表示经过VGG网络第n个卷积层层之后的特征图,N代表用来输出特征的总的层数;
去噪损失计算公式如公式(5)所示:
其中,i,j代表预测图片上的像素点,是通过控制相邻像素之间的差值来进行去噪从而提高图片的品质;
最后利用多个重组的回归损失和对抗性损失作为监督信号,以交替训练的优化方式来训练全卷积隐藏神经网络模型直至收敛,具体过程为:使用反向传播算法,从最后一层计算传递梯度,逐层传递,更新所有的参数权重,达到训练网络的目的,训练采用交替训练的优化方式,首先初始化所有的网络结构,接着固定生成器网络训练判别器网络,然后反过来使用固定判别器网络训练生成器网络和损失网络,接着再次固定生成器网络训练判别器网络,以此类推直至模型收敛;
步骤三:测试网络,先将一张自然场景文本图片输入到全卷积隐藏神经网络模型的生成器网络中,生成器网络的输出即为最后的预测结果和全卷积隐藏神经网络模型预测的对应的非文本图片。
通过将文本检测以及图片填补的机制隐式的融入到全卷积隐藏神经网络模型的训练当中,在全卷积隐藏神经网络模型训练阶段利用判别器辅助训练生成器,从而保证全卷积隐藏神经网络模型回归的预测值更加接近于真实,通过人工标注一定数量的配对的自然场景文本图片与非文本图片数据可以增加全卷积隐藏神经网络模型的泛化性能,在全卷积隐藏神经网络模型的训练过程中利用对抗式生成网络提高网络的擦除效果,从而可以生成高品质的非文本图片预测,同时,本发明方法创建的深度全卷积隐藏神经网络模型是灵活的,可以通过不同基本网络结构实现的,实现方法方便简单,具有较强的实用性。
以上显示和描述了本发明的基本原理、主要特征和优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。

Claims (10)

1.一种基于全卷积网络的深度模型的场景文本擦除方法,其特征在于,包括以下步骤:
步骤一:数据采集,收集并合成对应的文本与非文本图片,并人工标注成对的真实自然场景数据;
步骤二:训练网络,首先构建一个条件生成对抗全卷积隐藏神经网络模型用于完成自然场景文本自动擦除任务,然后将成对图片输入到全卷积隐藏神经网络模型,计算相对应的代价函数,再将自然场景文本图片输入到全卷积隐藏神经网络模型中,利用多个重组的回归损失和对抗性损失作为监督信号,以交替训练的优化方式来训练全卷积隐藏神经网络模型直至收敛;
步骤三:测试网络,输入一张自然场景文本图像,利用全卷积隐藏神经网络模型返回预测结果。
2.根据权利要求1所述的一种基于全卷积网络的深度模型的场景文本擦除方法,其特征在于:所述步骤一中合成的一定数量的成对的自然场景文本与非文本图片需要被划分成训练集和测试集,训练集用于训练全卷积隐藏神经网络模型,测试集用于测试全卷积隐藏神经网络模型的性能。
3.根据权利要求1所述的一种基于全卷积网络的深度模型的场景文本擦除方法,其特征在于:所述步骤二中条件生成对抗全卷积隐藏神经网络模型由三个子网络组成,具体为生成器网络、判别器网络和损失网络,所述生成器网络是基于全卷积神经网络的结构进行设计的,它的输入是一张自然场景图片。
4.根据权利要求3所述的一种基于全卷积网络的深度模型的场景文本擦除方法,其特征在于:所述判别器网络是由多个卷积层加正则化层以及激活层组成,将输入图片与预测结果一起送入判别器网络,经过卷积层提取高维特征之后,接入激活函数层,最终输出关于对应感受野图片块真假的预测分数。
5.根据权利要求3所述的一种基于全卷积网络的深度模型的场景文本擦除方法,其特征在于:所述损失网络由VGG网络组成,所述VGG网络由多个卷积层、正则化层、激活函数层以及池化层叠加而成,将对应的预测图片和真实标签图片一起送入损失网络,可以进行优化两张图片在高维特征上的距离。
6.根据权利要求1所述的一种基于全卷积网络的深度模型的场景文本擦除方法,其特征在于:所述步骤二中将成对图片输入到全卷积隐藏神经网络中时,首先由卷积特征抽取支路网络抽取高维特征进行文本与非文本特征的区分,接受由反卷积支路去预测对应的非文本特征。
7.根据权利要求6所述的一种基于全卷积网络的深度模型的场景文本擦除方法,其特征在于:所述步骤二中将成对图片输入到全卷积隐藏神经网络中的过程中,由于特征经过低维到高维再到低维的转换,一些细节信息会被丢失,因此还需要用侧向连接模块将对应大小分别来自于卷积支路和反卷积支路的特征进行融合,对这两个特征向量进行按元素相加之后送入下一个反卷积模块,直到最后输出一个关于非文本的自然场景图片的预测结果。
8.根据权利要求1所述的一种基于全卷积网络的深度模型的场景文本擦除方法,其特征在于:所述步骤二中代价函数由重组损失函数和对抗损失函数组成,具体如公式(1)所示:
其中,λe,λi,λt表示各个损失函数的权重;
重组损失函数的各个分项是基于欧式距离损失函数进行设计的,具体如公式(2)所示:
其中,为多尺度回归损失,表示对应第i个反卷积层预测出来的输出,表示与第i个反卷积层输出大小相同的掩码以及真实的非文本图片,α表示文本与非文本区域之间的权重平衡因子,n代表选择用来做预测的层数;
语义损失计算公式如公式(3)所示:
其中,代表将预测的图片分为两个部分,文本区域与非文本区域,文本区域设置成预测出来的特征,非文本区域设置成对应的真实特征,n代表选择用来输出特征的层数,N代表预测的总的层数,代表对应的真实的非文本图片,代表对应的预测的非文本图片,表示经过VGG网络第n个层之后的特征图;
纹理损失计算公式如公式(4)所示:
其中,HnWnCn代表高维特征图的形状,代表将预测的图片分为两个部分,文本区域与非文本区域,文本区域设置成预测出来的特征,非文本区域设置成对应的真实特征,表示经过VGG网络第n个卷积层层之后的特征图,N代表用来输出特征的总的层数;
去噪损失计算公式如公式(5)所示:
其中,i,j代表预测图片上的像素点,是通过控制相邻像素之间的差值来进行去噪从而提高图片的品质。
9.根据权利要求1所述的一种基于全卷积网络的深度模型的场景文本擦除方法,其特征在于:所述步骤二中使用反向传播算法对该条件生成对抗全卷积隐藏神经网络模型进行训练的具体过程为:使用反向传播算法,从最后一层计算传递梯度,逐层传递,更新所有的参数权重,达到训练网络的目的,训练采用交替训练的优化方式,首先初始化所有的网络结构,接着固定生成器网络训练判别器网络,然后反过来使用固定判别器网络训练生成器网络和损失网络,接着再次固定生成器网络训练判别器网络,以此类推直至模型收敛。
10.根据权利要求1所述的一种基于全卷积网络的深度模型的场景文本擦除方法,其特征在于:所述步骤三中先将一张自然场景文本图片输入到全卷积隐藏神经网络模型的生成器网络中,生成器网络的输出即为最后的预测结果和全卷积隐藏神经网络模型预测的对应的非文本图片。
CN201910056611.0A 2019-01-22 2019-01-22 一种基于全卷积网络的深度模型的场景文本擦除方法 Active CN109492627B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910056611.0A CN109492627B (zh) 2019-01-22 2019-01-22 一种基于全卷积网络的深度模型的场景文本擦除方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910056611.0A CN109492627B (zh) 2019-01-22 2019-01-22 一种基于全卷积网络的深度模型的场景文本擦除方法

Publications (2)

Publication Number Publication Date
CN109492627A true CN109492627A (zh) 2019-03-19
CN109492627B CN109492627B (zh) 2022-11-08

Family

ID=65714792

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910056611.0A Active CN109492627B (zh) 2019-01-22 2019-01-22 一种基于全卷积网络的深度模型的场景文本擦除方法

Country Status (1)

Country Link
CN (1) CN109492627B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110619885A (zh) * 2019-08-15 2019-12-27 西北工业大学 基于深度完全卷积神经网络的生成对抗网络语音增强方法
CN111080155A (zh) * 2019-12-24 2020-04-28 武汉大学 一种基于生成对抗网络的空调用户调频能力评估方法
CN111193657A (zh) * 2019-12-12 2020-05-22 广州啦咔网络科技有限公司 聊天表情回复方法、装置及存储介质
CN111860434A (zh) * 2020-07-31 2020-10-30 贵州大学 机器人视觉隐私行为识别与保护方法
CN112465931A (zh) * 2020-12-03 2021-03-09 科大讯飞股份有限公司 图像文本抹除方法、相关设备及可读存储介质
CN113065407A (zh) * 2021-03-09 2021-07-02 国网河北省电力有限公司 基于注意力机制和生成对抗网络的财务票据印章擦除方法
CN113469878A (zh) * 2021-09-02 2021-10-01 北京世纪好未来教育科技有限公司 一种文本擦除方法及其模型的训练方法、装置、存储介质
CN113657396A (zh) * 2021-08-17 2021-11-16 北京百度网讯科技有限公司 训练方法、译文展示方法、装置、电子设备以及存储介质
CN113781356A (zh) * 2021-09-18 2021-12-10 北京世纪好未来教育科技有限公司 图像去噪模型的训练方法、图像去噪方法、装置及设备
CN114913588A (zh) * 2022-06-20 2022-08-16 电子科技大学 一种应用于复杂场景下的人脸图像修复及识别方法
CN117132994A (zh) * 2023-08-17 2023-11-28 华南理工大学 一种基于生成对抗网络的手写文字擦除方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107203606A (zh) * 2017-05-17 2017-09-26 西北工业大学 基于卷积神经网络的自然场景下文本检测与识别方法
US20180075581A1 (en) * 2016-09-15 2018-03-15 Twitter, Inc. Super resolution using a generative adversarial network
CN108399419A (zh) * 2018-01-25 2018-08-14 华南理工大学 基于二维递归网络的自然场景图像中中文文本识别方法
CN108509596A (zh) * 2018-04-02 2018-09-07 广州市申迪计算机系统有限公司 文本分类方法、装置、计算机设备和存储介质
CN108764268A (zh) * 2018-04-02 2018-11-06 华南理工大学 一种基于深度学习的图文多模态情感识别方法
CN109086756A (zh) * 2018-06-15 2018-12-25 众安信息技术服务有限公司 一种基于深度神经网络的文本检测分析方法、装置及设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180075581A1 (en) * 2016-09-15 2018-03-15 Twitter, Inc. Super resolution using a generative adversarial network
CN107203606A (zh) * 2017-05-17 2017-09-26 西北工业大学 基于卷积神经网络的自然场景下文本检测与识别方法
CN108399419A (zh) * 2018-01-25 2018-08-14 华南理工大学 基于二维递归网络的自然场景图像中中文文本识别方法
CN108509596A (zh) * 2018-04-02 2018-09-07 广州市申迪计算机系统有限公司 文本分类方法、装置、计算机设备和存储介质
CN108764268A (zh) * 2018-04-02 2018-11-06 华南理工大学 一种基于深度学习的图文多模态情感识别方法
CN109086756A (zh) * 2018-06-15 2018-12-25 众安信息技术服务有限公司 一种基于深度神经网络的文本检测分析方法、装置及设备

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110619885B (zh) * 2019-08-15 2022-02-11 西北工业大学 基于深度完全卷积神经网络的生成对抗网络语音增强方法
CN110619885A (zh) * 2019-08-15 2019-12-27 西北工业大学 基于深度完全卷积神经网络的生成对抗网络语音增强方法
CN111193657A (zh) * 2019-12-12 2020-05-22 广州啦咔网络科技有限公司 聊天表情回复方法、装置及存储介质
CN111080155A (zh) * 2019-12-24 2020-04-28 武汉大学 一种基于生成对抗网络的空调用户调频能力评估方法
CN111080155B (zh) * 2019-12-24 2022-03-15 武汉大学 一种基于生成对抗网络的空调用户调频能力评估方法
CN111860434A (zh) * 2020-07-31 2020-10-30 贵州大学 机器人视觉隐私行为识别与保护方法
CN112465931A (zh) * 2020-12-03 2021-03-09 科大讯飞股份有限公司 图像文本抹除方法、相关设备及可读存储介质
CN113065407A (zh) * 2021-03-09 2021-07-02 国网河北省电力有限公司 基于注意力机制和生成对抗网络的财务票据印章擦除方法
WO2023019995A1 (zh) * 2021-08-17 2023-02-23 北京百度网讯科技有限公司 训练方法、译文展示方法、装置、电子设备以及存储介质
CN113657396A (zh) * 2021-08-17 2021-11-16 北京百度网讯科技有限公司 训练方法、译文展示方法、装置、电子设备以及存储介质
CN113657396B (zh) * 2021-08-17 2024-02-09 北京百度网讯科技有限公司 训练方法、译文展示方法、装置、电子设备以及存储介质
CN113469878A (zh) * 2021-09-02 2021-10-01 北京世纪好未来教育科技有限公司 一种文本擦除方法及其模型的训练方法、装置、存储介质
CN113781356A (zh) * 2021-09-18 2021-12-10 北京世纪好未来教育科技有限公司 图像去噪模型的训练方法、图像去噪方法、装置及设备
CN114913588A (zh) * 2022-06-20 2022-08-16 电子科技大学 一种应用于复杂场景下的人脸图像修复及识别方法
CN114913588B (zh) * 2022-06-20 2023-04-25 电子科技大学 一种应用于复杂场景下的人脸图像修复及识别方法
CN117132994A (zh) * 2023-08-17 2023-11-28 华南理工大学 一种基于生成对抗网络的手写文字擦除方法

Also Published As

Publication number Publication date
CN109492627B (zh) 2022-11-08

Similar Documents

Publication Publication Date Title
CN109492627A (zh) 一种基于全卷积网络的深度模型的场景文本擦除方法
CN109461157A (zh) 基于多级特征融合及高斯条件随机场的图像语义分割方法
CN104376326B (zh) 一种用于图像场景识别的特征提取方法
CN107704877A (zh) 一种基于深度学习的图像隐私感知方法
CN108805188A (zh) 一种基于特征重标定生成对抗网络的图像分类方法
CN108549893A (zh) 一种任意形状的场景文本端到端识别方法
CN109902798A (zh) 深度神经网络的训练方法和装置
CN110263912A (zh) 一种基于多目标关联深度推理的图像问答方法
CN108062551A (zh) 一种基于邻接矩阵的图特征提取系统、图分类系统和方法
CN107529650A (zh) 网络模型的构建和闭环检测方法、相应装置及计算机设备
CN106650725A (zh) 基于全卷积神经网络的候选文本框生成和文本检测方法
CN110084603A (zh) 训练欺诈交易检测模型的方法、检测方法以及对应装置
CN106991382A (zh) 一种遥感场景分类方法
CN109063724A (zh) 一种增强型生成式对抗网络以及目标样本识别方法
CN106548159A (zh) 基于全卷积神经网络的网纹人脸图像识别方法与装置
CN110097178A (zh) 一种基于熵注意的神经网络模型压缩与加速方法
CN109711426A (zh) 一种基于gan和迁移学习的病理图片分类装置及方法
CN109464803A (zh) 虚拟对象控制、模型训练方法、装置、存储介质和设备
CN110188733A (zh) 基于3d区域卷积神经网络的时序行为检测方法及系统
CN106372597B (zh) 基于自适应上下文信息的cnn交通检测方法
CN110458165A (zh) 一种引入注意力机制的自然场景文本检测方法
CN110334578A (zh) 图像级别标注自动提取高分遥感影像建筑物的弱监督方法
CN109376683A (zh) 一种基于稠密图的视频分类方法和系统
CN106651915A (zh) 基于卷积神经网络的多尺度表达的目标跟踪方法
CN109376763A (zh) 基于多样本推理神经网络的样本分类方法、系统及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant