CN109492627B - 一种基于全卷积网络的深度模型的场景文本擦除方法 - Google Patents

一种基于全卷积网络的深度模型的场景文本擦除方法 Download PDF

Info

Publication number
CN109492627B
CN109492627B CN201910056611.0A CN201910056611A CN109492627B CN 109492627 B CN109492627 B CN 109492627B CN 201910056611 A CN201910056611 A CN 201910056611A CN 109492627 B CN109492627 B CN 109492627B
Authority
CN
China
Prior art keywords
network
text
full convolution
neural network
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910056611.0A
Other languages
English (en)
Other versions
CN109492627A (zh
Inventor
金连文
张帅涛
刘禹良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN201910056611.0A priority Critical patent/CN109492627B/zh
Publication of CN109492627A publication Critical patent/CN109492627A/zh
Application granted granted Critical
Publication of CN109492627B publication Critical patent/CN109492627B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

本发明提出一种基于全卷积网络的深度模型的场景文本擦除方法,包括以下步骤:收集并合成对应的文本与非文本图片、构建一个条件生成对抗全卷积隐藏神经网络模型用于完成自然场景文本自动擦除任务,并进行模型训练和测试网络,输入一张自然场景文本图像,利用全卷积隐藏神经网络模型返回预测结果;本发明通过将文本检测以及图片填补的机制隐式的融入到全卷积隐藏神经网络模型的训练当中,在全卷积隐藏神经网络模型训练阶段利用判别器辅助训练生成器,从而保证全卷积隐藏神经网络模型回归的预测值更加接近于真实,在全卷积隐藏神经网络模型的训练过程中利用对抗式生成网络提高网络的擦除效果,从而可以生成高品质的非文本图片预测。

Description

一种基于全卷积网络的深度模型的场景文本擦除方法
技术领域
本发明涉及模式识别与人工智能领域,尤其涉及一种基于全卷积网络的深度模型的场景文本擦除方法。
背景技术
在我们的日常生活当中,自然场景文字无处不在,文字是人类交流的基本工具,对人类理解信息有着至关重要的作用,与此同时,各种隐私信息,比如身份证号码、手机号码、车牌号码以及家庭住址等也暴露在自然场景文本当中,随着自然场景文本检测与识别技术的发展,如此重要的隐私信息很容易被机器自动收集用于欺诈、营销或其他非法活动,如何隐藏这些暴露于自然场景之中的隐私信息成为了研究的热点。
对于隐藏自然场景文本问题,传统的方法通常对图像做文本检测,然后人工设计一些规则滤除一些负样本,接着将文本区域移除,最后通过图像填补算法来补全移除的文本区域,这种方法一方面高度依赖文本检测的准确性,另一方面对人工设计的规则以及填补算法要求较高,其次单张图片处理的效率与文本区域成反比,只能解决一些干净,清晰,分布规则的简单图像。
目前关于场景文本擦除的研究倾向于图像填补算法上,假设用户提供要移除目标的掩码,而获取对应的掩码也是一个极具挑战的任务,如果我们不能获取非常整齐的掩码,那么填补算法会试图补回目标,会产生相反的效果。因此,本发明提出一种基于全卷积网络的深度模型的场景文本擦除方法,以解决现有技术中的不足之处。
发明内容
针对上述问题,本发明通过将文本检测以及图片填补的机制隐式的融入到全卷积隐藏神经网络模型的训练当中,在全卷积隐藏神经网络模型训练阶段利用判别器辅助训练生成器,从而保证全卷积隐藏神经网络模型回归的预测值更加接近于真实,在全卷积隐藏神经网络模型的训练过程中利用对抗式生成网络提高网络的擦除效果,从而可以生成高品质的非文本图片预测,同时,本发明方法创建的深度全卷积隐藏神经网络模型是灵活的,可以通过不同基本网络结构实现的,实现方法方便简单,具有较强的实用性。
本发明提出一种基于全卷积网络的深度模型的场景文本擦除方法,包括以下步骤:
步骤一:数据采集,收集并合成对应的文本与非文本图片,并人工标注成对的真实自然场景数据;
步骤二:训练网络,首先构建一个条件生成对抗全卷积隐藏神经网络模型用于完成自然场景文本自动擦除任务,然后将成对图片输入到全卷积隐藏神经网络模型,计算相对应的代价函数,再将自然场景文本图片输入到全卷积隐藏神经网络模型中,利用多个重组的回归损失和对抗性损失作为监督信号,以交替训练的优化方式来训练全卷积隐藏神经网络模型直至收敛;
步骤三:测试网络,输入一张自然场景文本图像,利用全卷积隐藏神经网络模型返回预测结果。
进一步改进在于:所述步骤一中合成的一定数量的成对的自然场景文本与非文本图片需要被划分成训练集和测试集,训练集用于训练全卷积隐藏神经网络模型,测试集用于测试全卷积隐藏神经网络模型的性能。
进一步改进在于:所述步骤二中条件生成对抗全卷积隐藏神经网络模型由三个子网络组成,具体为生成器网络、判别器网络和损失网络,所述生成器网络是基于全卷积神经网络的结构进行设计的,它的输入是一张自然场景图片。
进一步改进在于:所述判别器网络是由多个卷积层加正则化层以及激活层组成,将输入图片与预测结果一起送入判别器网络,经过卷积层提取高维特征之后,接入激活函数层,最终输出关于对应感受野图片块真假的预测分数。
进一步改进在于:所述损失网络由VGG网络组成,所述VGG网络由多个卷积层、正则化层、激活函数层以及池化层叠加而成,将对应的预测图片和真实标签图片一起送入损失网络,可以进行优化两张图片在高维特征上的距离。
进一步改进在于:所述步骤二中将成对图片输入到全卷积隐藏神经网络中时,首先由卷积特征抽取支路网络抽取高维特征进行文本与非文本特征的区分,接受由反卷积支路去预测对应的非文本特征。
进一步改进在于:所述步骤二中将成对图片输入到全卷积隐藏神经网络中的过程中,由于特征经过低维到高维再到低维的转换,一些细节信息会被丢失,因此还需要用侧向连接模块将对应大小分别来自于卷积支路和反卷积支路的特征进行融合,对这两个特征向量进行按元素相加之后送入下一个反卷积模块,直到最后输出一个关于非文本的自然场景图片的预测结果。
进一步改进在于:所述步骤二中代价函数由重组损失函数和对抗损失函数组成,具体如公式(1)所示:
Figure BDA0001952689000000041
其中,λe,λi,λt表示各个损失函数的权重;
重组损失函数的各个分项是基于欧式距离损失函数进行设计的,具体如公式(2)所示:
Figure BDA0001952689000000042
其中,
Figure BDA0001952689000000043
为多尺度回归损失,
Figure BDA0001952689000000044
表示对应第i个反卷积层预测出来的输出,
Figure BDA0001952689000000045
表示与第i个反卷积层输出大小相同的掩码以及真实的非文本图片,α表示文本与非文本区域之间的权重平衡因子,n代表选择用来做预测的层数;
语义损失
Figure BDA0001952689000000046
计算公式如公式(3)所示:
Figure BDA0001952689000000047
其中,
Figure BDA0001952689000000048
代表将预测的图片分为两个部分,文本区域与非文本区域,文本区域设置成预测出来的特征,非文本区域设置成对应的真实特征,n代表选择用来输出特征的层数,N代表预测的总的层数,
Figure BDA0001952689000000049
代表对应的真实的非文本图片,
Figure BDA00019526890000000410
代表对应的预测的非文本图片,
Figure BDA0001952689000000051
表示经过VGG网络第n个层之后的特征图;
纹理损失
Figure BDA0001952689000000052
计算公式如公式(4)所示:
Figure BDA0001952689000000053
Figure BDA0001952689000000054
其中,HnWnCn代表高维特征图的形状,
Figure BDA0001952689000000055
代表将预测的图片分为两个部分,文本区域与非文本区域,文本区域设置成预测出来的特征,非文本区域设置成对应的真实特征,
Figure BDA0001952689000000056
表示经过VGG网络第n个卷积层层之后的特征图,N代表用来输出特征的总的层数;
去噪损失
Figure BDA0001952689000000057
计算公式如公式(5)所示:
Figure BDA0001952689000000058
其中,i,j代表预测图片
Figure BDA0001952689000000059
上的像素点,是通过控制相邻像素之间的差值来进行去噪从而提高图片的品质。
进一步改进在于:所述步骤二中使用反向传播算法对该条件生成对抗全卷积隐藏神经网络模型进行训练的具体过程为:使用反向传播算法,从最后一层计算传递梯度,逐层传递,更新所有的参数权重,达到训练网络的目的,训练采用交替训练的优化方式,首先初始化所有的网络结构,接着固定生成器网络训练判别器网络,然后反过来使用固定判别器网络训练生成器网络和损失网络,接着再次固定生成器网络训练判别器网络,以此类推直至模型收敛。
进一步改进在于:所述步骤三中先将一张自然场景文本图片输入到全卷积隐藏神经网络模型的生成器网络中,生成器网络的输出即为最后的预测结果和全卷积隐藏神经网络模型预测的对应的非文本图片。
本发明的有益效果为:通过将文本检测以及图片填补的机制隐式的融入到全卷积隐藏神经网络模型的训练当中,在全卷积隐藏神经网络模型训练阶段利用判别器辅助训练生成器,从而保证全卷积隐藏神经网络模型回归的预测值更加接近于真实,通过人工标注一定数量的配对的自然场景文本图片与非文本图片数据可以增加全卷积隐藏神经网络模型的泛化性能,在全卷积隐藏神经网络模型的训练过程中利用对抗式生成网络提高网络的擦除效果,从而可以生成高品质的非文本图片预测,同时,本发明方法创建的深度全卷积隐藏神经网络模型是灵活的,可以通过不同基本网络结构实现的,实现方法方便简单,具有较强的实用性。
附图说明
图1为本发明方法流程示意图。
图2为本发明全卷积隐藏神经网络模型示意图。
图3为本发明全卷积隐藏神经网络模型网络优化方式示意图。
具体实施方式
为了使发明实现的技术手段、达成目的与功效易于明白了解,下面结合具体实施方式,进一步阐述本发明。
根据图1、2、3示,本实施例提出一种基于全卷积网络的深度模型的场景文本擦除方法,包括以下步骤:
步骤一:数据采集,收集并合成对应的文本与非文本图片,并人工标注成对的真实自然场景数据,合成的一定数量的成对的自然场景文本与非文本图片需要被划分成训练集和测试集,训练集用于训练全卷积隐藏神经网络模型,测试集用于测试全卷积隐藏神经网络模型的性能;
步骤二:训练网络,首先构建一个条件生成对抗全卷积隐藏神经网络模型用于完成自然场景文本自动擦除任务,条件生成对抗全卷积隐藏神经网络模型由三个子网络组成,具体为生成器网络、判别器网络和损失网络,生成器网络是基于全卷积神经网络的结构进行设计的,它的输入是一张自然场景图片;
判别器网络是由多个卷积层加正则化层以及激活层组成,将输入图片与预测结果一起送入判别器网络,经过卷积层提取高维特征之后,接入激活函数层,最终输出关于对应感受野图片块真假的预测分数;
损失网络由VGG网络组成,VGG网络由多个卷积层、正则化层、激活函数层以及池化层叠加而成,将对应的预测图片和真实标签图片一起送入损失网络,可以进行优化两张图片在高维特征上的距离计算相对应的代价函数;
然后将成对图片输入到全卷积隐藏神经网络模型,首先由卷积特征抽取支路网络抽取高维特征进行文本与非文本特征的区分,接受由反卷积支路去预测对应的非文本特征,将成对图片输入到全卷积隐藏神经网络中的过程中,由于特征经过低维到高维再到低维的转换,一些细节信息会被丢失,因此还需要用侧向连接模块将对应大小分别来自于卷积支路和反卷积支路的特征进行融合,对这两个特征向量进行按元素相加之后送入下一个反卷积模块,直到最后输出一个关于非文本的自然场景图片的预测结果,再将自然场景文本图片输入到全卷积隐藏神经网络模型中,代价函数由重组损失函数和对抗损失函数组成,具体如公式(1)所示:
Figure BDA0001952689000000081
其中,λe,λi,λt表示各个损失函数的权重;
重组损失函数的各个分项是基于欧式距离损失函数进行设计的,具体如公式(2)所示:
Figure BDA0001952689000000082
其中,
Figure BDA0001952689000000083
为多尺度回归损失,
Figure BDA0001952689000000084
表示对应第i个反卷积层预测出来的输出,
Figure BDA0001952689000000085
表示与第i个反卷积层输出大小相同的掩码以及真实的非文本图片,α表示文本与非文本区域之间的权重平衡因子,n代表选择用来做预测的层数;
语义损失
Figure BDA0001952689000000086
计算公式如公式(3)所示:
Figure BDA0001952689000000087
其中,
Figure BDA0001952689000000088
代表将预测的图片分为两个部分,文本区域与非文本区域,文本区域设置成预测出来的特征,非文本区域设置成对应的真实特征,n代表选择用来输出特征的层数,N代表预测的总的层数,
Figure BDA0001952689000000091
代表对应的真实的非文本图片,
Figure BDA0001952689000000092
代表对应的预测的非文本图片,
Figure BDA0001952689000000093
表示经过VGG网络第n个层之后的特征图;
纹理损失
Figure BDA0001952689000000094
计算公式如公式(4)所示:
Figure BDA0001952689000000095
Figure BDA0001952689000000096
其中,HnWnCn代表高维特征图的形状,
Figure BDA0001952689000000097
代表将预测的图片分为两个部分,文本区域与非文本区域,文本区域设置成预测出来的特征,非文本区域设置成对应的真实特征,
Figure BDA0001952689000000098
表示经过VGG网络第n个卷积层层之后的特征图,N代表用来输出特征的总的层数;
去噪损失
Figure BDA0001952689000000099
计算公式如公式(5)所示:
Figure BDA00019526890000000910
其中,i,j代表预测图片
Figure BDA00019526890000000911
上的像素点,是通过控制相邻像素之间的差值来进行去噪从而提高图片的品质;
最后利用多个重组的回归损失和对抗性损失作为监督信号,以交替训练的优化方式来训练全卷积隐藏神经网络模型直至收敛,具体过程为:使用反向传播算法,从最后一层计算传递梯度,逐层传递,更新所有的参数权重,达到训练网络的目的,训练采用交替训练的优化方式,首先初始化所有的网络结构,接着固定生成器网络训练判别器网络,然后反过来使用固定判别器网络训练生成器网络和损失网络,接着再次固定生成器网络训练判别器网络,以此类推直至模型收敛;
步骤三:测试网络,先将一张自然场景文本图片输入到全卷积隐藏神经网络模型的生成器网络中,生成器网络的输出即为最后的预测结果和全卷积隐藏神经网络模型预测的对应的非文本图片。
通过将文本检测以及图片填补的机制隐式的融入到全卷积隐藏神经网络模型的训练当中,在全卷积隐藏神经网络模型训练阶段利用判别器辅助训练生成器,从而保证全卷积隐藏神经网络模型回归的预测值更加接近于真实,通过人工标注一定数量的配对的自然场景文本图片与非文本图片数据可以增加全卷积隐藏神经网络模型的泛化性能,在全卷积隐藏神经网络模型的训练过程中利用对抗式生成网络提高网络的擦除效果,从而可以生成高品质的非文本图片预测,同时,本发明方法创建的深度全卷积隐藏神经网络模型是灵活的,可以通过不同基本网络结构实现的,实现方法方便简单,具有较强的实用性。
以上显示和描述了本发明的基本原理、主要特征和优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。

Claims (6)

1.一种基于全卷积网络的深度模型的场景文本擦除方法,其特征在于,包括以下步骤:
步骤一:数据采集,收集并合成对应的文本与非文本图片,并人工标注成对的真实自然场景数据;
步骤二:训练网络,首先构建一个条件生成对抗全卷积隐藏神经网络模型用于完成自然场景文本自动擦除任务,然后将成对图片输入到全卷积隐藏神经网络模型,计算相对应的代价函数,再将自然场景文本图片输入到全卷积隐藏神经网络模型中,利用多个重组的回归损失和对抗性损失作为监督信号,以交替训练的优化方式来训练全卷积隐藏神经网络模型直至收敛;
步骤三:测试网络,输入一张自然场景文本图像,利用全卷积隐藏神经网络模型返回预测结果;
所述步骤二中条件生成对抗全卷积隐藏神经网络模型由三个子网络组成,具体为生成器网络、判别器网络和损失网络,所述生成器网络是基于全卷积神经网络的结构进行设计的,它的输入是一张自然场景图片;
所述步骤二中将成对图片输入到全卷积隐藏神经网络中时,首先由卷积特征抽取支路网络抽取高维特征进行文本与非文本特征的区分,接着由反卷积支路去预测对应的非文本特征;由于特征经过低维到高维再到低维的转换,一些细节信息会被丢失,因此还需要用侧向连接模块将对应大小分别来自于卷积特征抽取支路和反卷积支路的特征进行融合,对来自所述卷积特征抽取支路的特征向量和来自所述反卷积支路的特征向量进行按元素相加之后送入下一个反卷积模块,直到最后输出一个关于非文本的自然场景图片的预测结果。
2.根据权利要求1所述的一种基于全卷积网络的深度模型的场景文本擦除方法,其特征在于:所述步骤一中合成的一定数量的成对的自然场景文本与非文本图片需要被划分成训练集和测试集,训练集用于训练全卷积隐藏神经网络模型,测试集用于测试全卷积隐藏神经网络模型的性能。
3.根据权利要求1所述的一种基于全卷积网络的深度模型的场景文本擦除方法,其特征在于:所述判别器网络是由多个卷积层加正则化层以及激活层组成,将输入图片与预测结果一起送入判别器网络,经过卷积层提取高维特征之后,接入激活函数层,最终输出关于对应感受野图片块真假的预测分数。
4.根据权利要求1所述的一种基于全卷积网络的深度模型的场景文本擦除方法,其特征在于:所述损失网络由VGG网络组成,所述VGG网络由多个卷积层、正则化层、激活函数层以及池化层叠加而成,将对应的预测图片和真实标签图片一起送入损失网络,可以进行优化两张图片在高维特征上的距离。
5.根据权利要求1所述的一种基于全卷积网络的深度模型的场景文本擦除方法,其特征在于:所述步骤二中使用反向传播算法对该条件生成对抗全卷积隐藏神经网络模型进行训练的具体过程为:使用反向传播算法,从最后一层计算传递梯度,逐层传递,更新所有的参数权重,达到训练网络的目的,训练采用交替训练的优化方式,首先初始化所有的网络结构,接着固定生成器网络训练判别器网络,然后反过来使用固定判别器网络训练生成器网络和损失网络,接着再次固定生成器网络训练判别器网络,以此类推直至模型收敛。
6.根据权利要求1所述的一种基于全卷积网络的深度模型的场景文本擦除方法,其特征在于:所述步骤三中先将一张自然场景文本图片输入到全卷积隐藏神经网络模型的生成器网络中,生成器网络的输出即为最后的预测结果和全卷积隐藏神经网络模型预测的对应的非文本图片。
CN201910056611.0A 2019-01-22 2019-01-22 一种基于全卷积网络的深度模型的场景文本擦除方法 Active CN109492627B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910056611.0A CN109492627B (zh) 2019-01-22 2019-01-22 一种基于全卷积网络的深度模型的场景文本擦除方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910056611.0A CN109492627B (zh) 2019-01-22 2019-01-22 一种基于全卷积网络的深度模型的场景文本擦除方法

Publications (2)

Publication Number Publication Date
CN109492627A CN109492627A (zh) 2019-03-19
CN109492627B true CN109492627B (zh) 2022-11-08

Family

ID=65714792

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910056611.0A Active CN109492627B (zh) 2019-01-22 2019-01-22 一种基于全卷积网络的深度模型的场景文本擦除方法

Country Status (1)

Country Link
CN (1) CN109492627B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110619885B (zh) * 2019-08-15 2022-02-11 西北工业大学 基于深度完全卷积神经网络的生成对抗网络语音增强方法
CN111193657A (zh) * 2019-12-12 2020-05-22 广州啦咔网络科技有限公司 聊天表情回复方法、装置及存储介质
CN111080155B (zh) * 2019-12-24 2022-03-15 武汉大学 一种基于生成对抗网络的空调用户调频能力评估方法
CN111860434B (zh) * 2020-07-31 2021-05-25 贵州大学 机器人视觉隐私行为识别与保护方法
CN112465931A (zh) * 2020-12-03 2021-03-09 科大讯飞股份有限公司 图像文本抹除方法、相关设备及可读存储介质
CN113065407B (zh) * 2021-03-09 2022-07-12 国网河北省电力有限公司 基于注意力机制和生成对抗网络的财务票据印章擦除方法
CN113657396B (zh) * 2021-08-17 2024-02-09 北京百度网讯科技有限公司 训练方法、译文展示方法、装置、电子设备以及存储介质
CN113469878B (zh) * 2021-09-02 2021-11-12 北京世纪好未来教育科技有限公司 一种文本擦除方法及其模型的训练方法、装置、存储介质
CN113781356A (zh) * 2021-09-18 2021-12-10 北京世纪好未来教育科技有限公司 图像去噪模型的训练方法、图像去噪方法、装置及设备
CN114913588B (zh) * 2022-06-20 2023-04-25 电子科技大学 一种应用于复杂场景下的人脸图像修复及识别方法
CN117132994A (zh) * 2023-08-17 2023-11-28 华南理工大学 一种基于生成对抗网络的手写文字擦除方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018053340A1 (en) * 2016-09-15 2018-03-22 Twitter, Inc. Super resolution using a generative adversarial network
CN107203606A (zh) * 2017-05-17 2017-09-26 西北工业大学 基于卷积神经网络的自然场景下文本检测与识别方法
CN108399419B (zh) * 2018-01-25 2021-02-19 华南理工大学 基于二维递归网络的自然场景图像中中文文本识别方法
CN108764268A (zh) * 2018-04-02 2018-11-06 华南理工大学 一种基于深度学习的图文多模态情感识别方法
CN108509596B (zh) * 2018-04-02 2021-06-04 广州市申迪计算机系统有限公司 文本分类方法、装置、计算机设备和存储介质
CN109086756B (zh) * 2018-06-15 2021-08-03 众安信息技术服务有限公司 一种基于深度神经网络的文本检测分析方法、装置及设备

Also Published As

Publication number Publication date
CN109492627A (zh) 2019-03-19

Similar Documents

Publication Publication Date Title
CN109492627B (zh) 一种基于全卷积网络的深度模型的场景文本擦除方法
CN109840531B (zh) 训练多标签分类模型的方法和装置
EP3757905A1 (en) Deep neural network training method and apparatus
CN111402143B (zh) 图像处理方法、装置、设备及计算机可读存储介质
CN111340013B (zh) 人脸识别方法、装置、计算机设备及存储介质
WO2023185785A1 (zh) 一种图像处理方法、模型训练方法及相关装置
KR20160083127A (ko) 얼굴 이미지 인식 방법 및 시스템
CN112084917A (zh) 一种活体检测方法及装置
CN111553267B (zh) 图像处理方法、图像处理模型训练方法及设备
CN113822209B (zh) 高光谱图像识别方法、装置、电子设备及可读存储介质
WO2021137946A1 (en) Forgery detection of face image
CN110222718B (zh) 图像处理的方法及装置
CN115565238B (zh) 换脸模型的训练方法、装置、设备、存储介质和程序产品
US20230377097A1 (en) Laparoscopic image smoke removal method based on generative adversarial network
CN112836625A (zh) 人脸活体检测方法、装置、电子设备
CN112017162B (zh) 病理图像处理方法、装置、存储介质和处理器
CN111067522A (zh) 大脑成瘾结构图谱评估方法及装置
KR20220056707A (ko) 얼굴의 정렬 형태에 강인한 얼굴 인식 방법 및 그 장치
CN115424056A (zh) 模型训练方法和装置、图像分类方法、设备和介质
CN114764870A (zh) 对象定位模型处理、对象定位方法、装置及计算机设备
CN110414593B (zh) 图像处理方法及装置、处理器、电子设备及存储介质
CN116798041A (zh) 图像识别方法、装置和电子设备
CN111626212A (zh) 图片中对象的识别方法和装置、存储介质及电子装置
CN111914809A (zh) 目标对象定位方法、图像处理方法、装置和计算机设备
CN113657293B (zh) 活体检测方法、装置、电子设备、介质及程序产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant