CN115439857B - 一种基于复杂背景图像的倾斜字符识别方法 - Google Patents

一种基于复杂背景图像的倾斜字符识别方法 Download PDF

Info

Publication number
CN115439857B
CN115439857B CN202211367911.9A CN202211367911A CN115439857B CN 115439857 B CN115439857 B CN 115439857B CN 202211367911 A CN202211367911 A CN 202211367911A CN 115439857 B CN115439857 B CN 115439857B
Authority
CN
China
Prior art keywords
layer
character
image
convolution
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211367911.9A
Other languages
English (en)
Other versions
CN115439857A (zh
Inventor
刘逢刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuchang University of Technology
Original Assignee
Wuchang University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuchang University of Technology filed Critical Wuchang University of Technology
Priority to CN202211367911.9A priority Critical patent/CN115439857B/zh
Publication of CN115439857A publication Critical patent/CN115439857A/zh
Application granted granted Critical
Publication of CN115439857B publication Critical patent/CN115439857B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/146Aligning or centring of the image pick-up or image-field
    • G06V30/1475Inclination or skew detection or correction of characters or of image to be recognised
    • G06V30/1478Inclination or skew detection or correction of characters or of image to be recognised of characters or characters lines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/16Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/16Image preprocessing
    • G06V30/164Noise filtering
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Character Discrimination (AREA)

Abstract

本发明公开了一种基于复杂背景图像的倾斜字符识别方法,涉及深度学习及图像识别技术领域,本方法包括如下步骤:(1)获取待识别的图像。(2)采用预处理模块过滤掉图片背景冗余信息。(3)通过字符检测模块精确的定位到字符区域。(4)通过字符矫正模块对字符区域进行矫正,得到矫正后的字符图像。(5)通过字符识别模块对矫正后的字符图像进行字符预测。解决了现有技术中对于复杂背景图像的倾斜字符往往识别效果较差或者无法识别的问题,提升了基于复杂背景图像的倾斜字符识别的准确率。

Description

一种基于复杂背景图像的倾斜字符识别方法
技术领域
本发明属于深度学习及图像识别领域,主要涉及一种基于复杂背景图像的倾斜字符识别方法。
背景技术
当今社会随着科技的进步,以及互联网和社交网络的兴起,使得手机、平板等数字图像捕获设备几乎普及到每个人手中。人们在生活学习和物质生产中产生了海量的图像数据,如聊天记录、影视剧、街景图像、网页截图、清单明细等,生活学习和物质生产也对自然场景中的文字检测技术表达出强烈的需求。
由于应用前景广泛,自然场景文字识别任务吸引了许多科研机构和技术公司的目光。近年来,借着计算机视觉理论和技术发展的东风,研究人员在自然场景文字识别问题上不断取得突破,计算机识别自然场景图片中文字的能力也不断提高,但在自然场景中的文字往往呈现为不规则的分布状态,包括图片背景的复杂性,文字本身的多样性,图片质量的不确定性,这些因素对文字识别模型提出了很高的挑战容易出现误判率较高的识别结果,现有的检测与识别技术对于自然场景图像识别率低,识别速度慢都没有得到有效的解决,因此还不足以满足人们的需求,亟需一种新的技术去迭代当前技术,对文字识别任务而言,寻找高效的文字识别模型和文字不规则分布是亟待解决的难题。
公开号为CN104978576A的中国专利公开了“一种文字识别方法及装置”通过对图像进行二值化处理,确定由前景像素点构成的连通域,并根据各连通域的宽度,对各连通域进行形态学滤波,得到滤波图像,根据滤波图像中的前景像素点进行文字识别,但该方法需要依赖文字内部的颜色具有高度的趋同性才能保持良好的检测结果。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供了一种基于复杂背景图像的倾斜字符识别方法,其目的在于提升基于复杂背景图像的倾斜字符识别的准确率,更好的满足人们对于文字识别的需求。
为实现上述目的,按照本发明的一个方面,提供了一种基于复杂背景图像的倾斜字符识别方法,包括如下步骤:
(1)获取待识别的图像;
(2)采用预处理模块过滤掉图片背景冗余信息;
(3)通过字符检测模块精确的定位到字符区域;
(4)通过字符矫正模块对字符区域进行矫正,得到矫正后的字符图像;
(5)通过字符识别模块对矫正后的字符图像进行字符预测。
进一步的,所述步骤(2)包括:
首先对图像进行预处理,预处理分为两步,首先通过脉冲检测器实现噪声检测,然后根据检测结果通过标准中值滤波器和中心加权中值滤波器进行滤波操作以去除噪声;然后将预处理的图像进行小波分解得到4个与原图尺寸大小一样并且频率为f1、f2、f3、f4的子带图,而后将这四个子带图分别保存下来送入到卷积神经网络中完成各自的训练,以此得到4个卷积神经网络模型,实现在频率为f1、f2、f3、f4的子带图上对各自含有的噪声成分进行剔除;最后再通过小波逆变换重构将四部分子带图重新合成得到最终的去噪结果。
进一步的,所述卷积神经网络引入了空洞卷积,在不增加参数量的前提下扩展卷积核的感受野,引入残差模块缓解网络退化和梯度消失问题;首先通过多尺度特征提取模块对图像进行浅层特征提取,多尺度特征提取模块分为四个分支,第一个分支由1×1卷积和Prelu层构成,第二个分支由3×3卷积和Prelu层构成,第三个分支由3×3且扩张率为2的空洞卷积和Prelu层构成,第四个分支由3×3且扩张率为3的空洞卷积和Prelu层构成,最后将4条支路进行拼接输出;然后通过5个卷积残差模块进行深度残差学习,卷积残差模块分为残差部分和跳跃连接,残差部分包括两个3×3的卷积层,卷积层后使用批归一化层和PReLU 层,跳跃连接采用恒等映射,输入跳过两层卷积层将信息传递到输出处,卷积残差模块采用恒等映射的方式进行局部跳跃连接;最后使用一个卷积层用于特征图重建,得到图像的噪声,然后从噪声图像中移除噪声得到干净图像。
进一步的,步骤(3)中的字符检测模块是为了更加精确的定位到字符区域,输入为待矫正图像,字符检测模块分为三个阶段,在第一个阶段中,输入为待矫正的图片,首先对图像进行1次卷积和最大池化操作,再经过五个多深度融合残差块操作,其中多深度融合残差块分为三条支路,左边路径由1×1卷积和BN层构成,中间路径由1×1卷积、LN层、3×3卷积、GELU层、1×1卷积所构成,右边路径由两个3×3卷积、LN层、3×3卷积、GELU层和一个1×1卷积构成,最后将三条支路进行联合输出,并将输出的特征图转换为特征序列;在第二阶段中,输入为特征序列,首先通过双层双向LSTM用来捕获特征序列之间的长期依赖关系从而得到序列来预测控制点,最后利用全连接层得到参数,输出为所有字符的控制点的预测,并将参数转换为文字区域矫正过程所需的变换矩阵Aβ
进一步的,字符检测模块所使用的损失函数如下:
Figure 733578DEST_PATH_IMAGE001
其中,a表示预测点与真实点之间的差值,S为控制点个数,
Figure 100002_DEST_PATH_IMAGE002
为预测控制点的坐标,qi为真实的坐标。
进一步的,步骤(4)中的字符矫正模块包含网格生成器和差分图像采样,网格生成器是利用输出变换矩阵Aβ将输入图和输出图坐标相对应,可视为将图像进行空间矩阵变换处理的坐标系;差分图像采样是将空间矩阵变换后的输出图进行整流采样处理,结合图像输入图进行插值计算,通过特征映射判断输入图中的文字/非文字区域,非文字区域直接采取置0处理,得到特征图像,然后计算得出倾斜文字的矫正结果。
进一步的,网格生成器首先通过变换矩阵Aβ生成一个网格,网格上任意一个位置都有两个值,表示其对应输入图的坐标,利用该网格在输入图上进行采样获得输出图,要获取输出图某一个位置上的值,首先通过网格找到原图对应的坐标,再通过差分图像采样得到原图对应坐标的值,最后填充到输出图上,对输出图的每个位置进行如上操作则可得到完整的输出图。
进一步的,步骤(5)中的字符识别模块由基于稠密卷积和混合注意力的编码器和由基于多重注意力机制的解码器所构成,用于输出预测的字符序列,最后使用损失函数对参数进行优化;
其中编码器首先通过7×7的卷积层,然后采用三个稠密卷积模块,稠密卷积模块由1×1和3×3的卷积堆叠而成,稠密卷积模块每一层的输出都会作为接下来任何一层的输入,每一层的输入也会是前面所有层的输出的总和;稠密卷积模块通过过渡层连接,过渡层的意义在于保证每个稠密块之间通道数达到一致,过渡层由批量标准化层、1×1卷积层和2×2平均池化层组成;然后采用通道注意力模块,使字符识别模块能更加准确地关注到图片中关键特征的类型,完成特征的自适应学习,该通道注意力模块首先进行平均池化和最大池化,再利用共享的全连接层对两个结果分别进行处理,将处理的结果进行相加,最后通过sigmoid函数计算相应的权重系数并与原特征图相乘得到第一目标特征图;最后采用空间注意力模块,使字符识别模块更多的关注到主要特征在图片中的位置,该空间注意力模块首先在通道上进行平均池化和最大池化,并把结果叠加起来,再利用一个卷积层调整通道数,最后通过sigmoid函数得到相应的权重系数并与第一目标特征图相乘得到第二目标特征图,并在第二目标特征图进行位置编码输入到解码器;
其中解码器为自循环结构,首先是将输入的字符转化为字符向量矩阵,并使用位置编码让输入数据携带位置信息;然后通过三个子模块,包括用于输出字符的掩码多头注意力模块、用于链接输入图片与输出字符的多头注意力模块和用于加深模型的前馈网络,三个子模块后均连接一个Add&Norm层,Add表示残差连接用于防止网络退化,Norm表示Layer Normalization,用于对每一层的激活值进行归一化,最后通过一个线性层和Softmax 层进行字符的预测。
进一步的,前馈网络包含两个全连接层,并在第一层全连接层之后连接一个ReLU激活函数。
进一步的,损失函数为每个字符类别保留一个深度的动态特征中心并在训练过程中不断调整,使得每个样本与中心之间的距离尽可能小,着重学习分类困难样本的特征,从而降低错检率,损失函数的公式为:
Figure 978614DEST_PATH_IMAGE003
式中β表示超参数,超参数通过实验获得,M表示每个样本子集的大小,xi表示前馈网络中全连接层之前的特征,cyi表示第yi个类别的特征中心。
总体而言,通过本发明所构思的以上技术方案与现有技术相比,能够取得下列有益效果:
(1)提出了一种有效的字符识别模块,字符识别模块由编码器和解码器构成,其中编码器由稠密卷积和混合注意力机制构成,能得出更丰富全面的语义信息以及帮助模型从空间轴和通道轴上关注到关键特征;其中基于自注意力机制的解码器块可以学习更多的长期依赖关系和全局上下文信息,提升模型效果。
(2)在计算损失函数时,字符检测模块所使用的损失函数更能抗干扰,容易收敛,字符识别模块所使用的损失函数为每个类保留一个深度的动态特征中心并在训练过程中不断调整,使得每个样本与中心之间的距离尽可能小以获得具有高度判别性的特征。
(3)本发明首先通过预处理模块过滤掉图片背景冗余信息,然后通过字符分布关键点信息,计算字符倾斜信息,得到矫正后的字符图像,最后使用基于稠密卷积和混合注意力的编码器和基于多重注意力机制的解码器输出预测的字符序列,该模型能够降低复杂背景下的字符倾斜分布对识别结果的影响,具有更佳的文字识别性能。
附图说明
图1为本发明实施例提供的一种基于复杂背景图像的倾斜字符识别方法的流程示意图;
图2为本发明实施例提供的一种基于复杂背景图像的倾斜字符识别方法的字符识别模块的网络结构图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
如图1所示,是实施例提供的一种基于复杂背景图像的倾斜字符识别方法的流程示意图;实施例提供的一种基于复杂背景图像的倾斜字符识别方法包括如下步骤:
(1)获取待识别的图像;
(2)采用预处理模块过滤掉图片背景冗余信息;
首先对图像进行预处理,预处理主要分为两步,首先通过脉冲检测器实现噪声检测,然后根据之前的检测结果通过标准中值滤波器和中心加权中值滤波器进行滤波操作以去除噪声;然后将预处理的图像进行小波分解得到4个与原图尺寸大小一样并且频率为f1、f2、f3、f4的子带图,而后将这四个子带图分别保存下来送入到卷积神经网络中完成各自的训练,以此得到4个卷积神经网络模型,实现在频率为f1、f2、f3、f4的子带图上对各自含有的噪声成分进行剔除;最后再通过小波逆变换重构将四部分子带图重新合成得到最终的去噪结果。
其中卷积神经网络引入了空洞卷积可以在不增加参数量的前提下扩展卷积核的感受野,引入了残差模块缓解网络退化和梯度消失等问题。首先通过多尺度特征提取模块对图像进行浅层特征提取,多尺度特征提取模块分为四个分支,第一个分支由1×1卷积和Prelu层构成,第二个分支由3×3卷积和Prelu层构成,第三个分支由3×3且扩张率为2的空洞卷积和Prelu层构成,第四个分支由3×3且扩张率为3的空洞卷积和Prelu层构成,最后将4条支路进行拼接输出;然后通过5个卷积残差模块进行深度残差学习,卷积残差模块分为残差部分和跳跃连接,残差部分包括两个3×3的卷积层,卷积层后使用批归一化层和PReLU 层,跳跃连接采用恒等映射,输入跳过两层卷积层将信息传递到输出处,卷积残差模块采用恒等映射的方式进行局部跳跃连接;最后使用一个卷积层用于特征图重建,得到图像的噪声,然后从噪声图像中移除噪声得到干净图像。
(3)通过字符检测模块精确的定位到字符区域
其中字符检测模块不是为了获得更加精确的文本行检测结果,而是为了更加精确的定位到字符区域,网络输入为待矫正图像,字符检测模块分为三个阶段,在第一个阶段中,输入为待矫正的图片,首先对图像进行1次卷积和最大池化操作,再经过五个多深度融合残差块操作,其中多深度融合残差块分为三条支路,左边路径由1×1卷积和BN层构成,中间路径由1×1卷积、LN层、3×3卷积、GELU层、1×1卷积所构成,右边路径由两个3×3卷积、LN层、3×3卷积、GELU层和一个1×1卷积构成,最后将三条支路进行联合输出,并将输出的特征图转换为特征序列。在第二阶段中,输入为特征序列,首先通过双层双向LSTM用来捕获特征序列之间的长期依赖关系从而得到序列来预测控制点,最后利用全连接层得到参数,网络输出为所有字符的控制点的预测,并将参数转换为文字区域矫正过程所需的变换矩阵Aβ
其中字符检测模块所使用的损失函数更能抗干扰,容易收敛,损失函数如下:
Figure 100002_DEST_PATH_IMAGE004
其中,a表示预测点与真实点之间的差值,S为控制点个数,
Figure 23931DEST_PATH_IMAGE005
为预测控制点的坐标,qi为真实的坐标。
(4)通过字符矫正模块对字符区域进行矫正,得到矫正后的字符图像。
其中字符矫正模块包含网格生成器和差分图像采样。网格生成器是利用输出变换矩阵Aβ将输入图和输出图坐标相对应,可视为将图像进行空间矩阵变换处理的坐标系。差分图像采样是将空间矩阵变换后的输出图进行整流采样处理,结合图像输入图进行插值计算,通过特征映射判断输入图中的文字/非文字区域,非文字区域直接采取置0处理,得到特征图像,然后计算得出倾斜文字的矫正结果。
其中网格生成器首先通过变换矩阵Aβ生成一个网格,网格上任意一个位置都有两个值,表示其对应输入图的坐标,利用该网格在输入图上进行采样获得输出图,要获取输出图某一个位置上的值,首先通过网格找到原图对应的坐标,再通过差分图像采样得到原图对应坐标的值,最后填充到输出图上,对输出图的每个位置进行如上操作则可得到完整的输出图。
(5)通过字符识别模块对矫正后的字符图像进行字符预测。
如图2所示,其中字符识别模块由基于稠密卷积和混合注意力的编码器和基于多重注意力机制的解码器所构成,用于输出预测的字符序列,每个字符对应一个动态特征中心,最后使用损失函数对动态特征中心进行优化。
其中编码器首先通过7×7的卷积层,然后采用三个稠密卷积模块,稠密卷积模块由1×1和3×3的卷积堆叠而成,稠密卷积模块每一层的输出都会作为接下来任何一层的输入,每一层的输入也会是前面所有层的输出的总和,这样每一层都可以学习到前面所学习的特征图,就不需要再去重新学习多余的特征图了,带来的卷积网络参数相对以前也会变的更少,稠密卷积模块通过过渡层连接,过渡层的意义在于保证每个稠密块之间通道数达到一致,过渡层由批量标准化层、1×1卷积层和2×2平均池化层组成;然后采用通道注意力模块,使模型能更加准确地关注到图片中关键特征的类型,完成特征的自适应学习,该通道注意力模块首先进行平均池化和最大池化,再利用共享的全连接层对两个结果分别进行处理,将处理的结果进行相加,最后通过sigmoid函数计算相应的权重系数并与原特征图相乘得到第一目标特征图;最后采用空间注意力模块,使模型更多的关注到主要特征在图片中的位置,该空间注意力模块首先在通道上进行平均池化和最大池化,并把结果叠加起来,再利用一个卷积层调整通道数,最后通过sigmoid函数得到相应的权重系数并与第一目标特征图相乘得到第二目标特征图,并在第二目标特征图进行位置编码输入到解码器。
其中解码器为自循环结构,首先是输入和输入嵌入,解码器输入<start>表示开始预测,之后把解码器的输出作为解码器的输入,输入嵌入是将输入的字符转化为字符向量矩阵,最后使用位置编码能让输入数据携带位置信息;然后通过三个子模块,包括用于输出字符的掩码多头注意力模块、用于链接输入图片与输出字符的多头注意力模块和用于加深模型的前馈网络。其中掩码多头注意力可以防止网络在进行训练时提前知道后面字符的信息;其中多头注意力是一种以自注意力为基础的机制,它将输入序列的不同位置联系起来并学习其相关性,多头注意力的输入由解码器的输出和掩码多头注意力的输出组成,前馈网络包含两个全连接层,并在第一层之后连接一个ReLU激活函数。在三个子模块后均连接一个Add&Norm层,Add表示残差连接用于防止网络退化,Norm表示 Layer Normalization,用于对每一层的激活值进行归一化,最后通过一个线性层和Softmax 层进行字符的预测。
其中损失函数能为每个字符类别保留一个深度的动态特征中心并在训练过程中不断调整,使得每个样本与中心之间的距离尽可能小,着重学习分类困难样本的特征,从而降低错检率。损失函数的公式为:
Figure 100002_DEST_PATH_IMAGE006
式中β表示超参数,超参数通过实验获得,M表示每个样本子集的大小,xi表示前馈网络中全连接层之前的特征,cyi表示第yi个类别的特征中心。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。

Claims (9)

1.一种基于复杂背景图像的倾斜字符识别方法,其特征在于,包括如下步骤:
(1)获取待识别的图像;
(2)采用预处理模块过滤掉图片背景冗余信息;
(3)通过字符检测模块精确的定位到字符区域;
(4)通过字符矫正模块对字符区域进行矫正,得到矫正后的字符图像;
(5)通过字符识别模块对矫正后的字符图像进行字符预测;
步骤(5)中的字符识别模块由基于稠密卷积和混合注意力的编码器和由基于多重注意力机制的解码器所构成,用于输出预测的字符序列,最后使用损失函数对参数进行优化;
其中编码器首先通过7×7的卷积层,然后采用三个稠密卷积模块,稠密卷积模块由1×1和3×3的卷积堆叠而成,稠密卷积模块每一层的输出都会作为接下来任何一层的输入,每一层的输入也会是前面所有层的输出的总和;稠密卷积模块通过过渡层连接,过渡层的意义在于保证每个稠密块之间通道数达到一致,过渡层由批量标准化层、1×1卷积层和2×2平均池化层组成;然后采用通道注意力模块,使字符识别模块能更加准确地关注到图片中关键特征的类型,完成特征的自适应学习,该通道注意力模块首先进行平均池化和最大池化,再利用共享的全连接层对两个结果分别进行处理,将处理的结果进行相加,最后通过sigmoid函数计算相应的权重系数并与原特征图相乘得到第一目标特征图;最后采用空间注意力模块,使字符识别模块更多的关注到主要特征在图片中的位置,该空间注意力模块首先在通道上进行平均池化和最大池化,并把结果叠加起来,再利用一个卷积层调整通道数,最后通过sigmoid函数得到相应的权重系数并与第一目标特征图相乘得到第二目标特征图,并在第二目标特征图进行位置编码输入到解码器;
其中解码器为自循环结构,首先是将输入的字符转化为字符向量矩阵,并使用位置编码让输入数据携带位置信息;然后通过三个子模块,包括用于输出字符的掩码多头注意力模块、用于链接输入图片与输出字符的多头注意力模块和用于加深模型的前馈网络,三个子模块后均连接一个Add&Norm层,Add表示残差连接用于防止网络退化,Norm表示 LayerNormalization,用于对每一层的激活值进行归一化,最后通过一个线性层和Softmax 层进行字符的预测。
2.根据权利要求1所述的一种基于复杂背景图像的倾斜字符识别方法,其特征在于,所述步骤(2)包括:
首先对图像进行预处理,预处理分为两步,首先通过脉冲检测器实现噪声检测,然后根据检测结果通过标准中值滤波器和中心加权中值滤波器进行滤波操作以去除噪声;然后将预处理的图像进行小波分解得到4个与原图尺寸大小一样并且频率为f1、f2、f3、f4的子带图,而后将这四个子带图分别保存下来送入到卷积神经网络中完成各自的训练,以此得到4个卷积神经网络模型,实现在频率为f1、f2、f3、f4的子带图上对各自含有的噪声成分进行剔除;最后再通过小波逆变换重构将四部分子带图重新合成得到最终的去噪结果。
3.根据权利要求2所述的一种基于复杂背景图像的倾斜字符识别方法,其特征在于:所述卷积神经网络引入了空洞卷积,在不增加参数量的前提下扩展卷积核的感受野,引入残差模块缓解网络退化和梯度消失问题;首先通过多尺度特征提取模块对图像进行浅层特征提取,多尺度特征提取模块分为四个分支,第一个分支由1×1卷积和Prelu层构成,第二个分支由3×3卷积和Prelu层构成,第三个分支由3×3且扩张率为2的空洞卷积和Prelu层构成,第四个分支由3×3且扩张率为3的空洞卷积和Prelu层构成,最后将4条支路进行拼接输出;然后通过5个卷积残差模块进行深度残差学习,卷积残差模块分为残差部分和跳跃连接,残差部分包括两个3×3的卷积层,卷积层后使用批归一化层和 PReLU 层,跳跃连接采用恒等映射,输入跳过两层卷积层将信息传递到输出处,卷积残差模块采用恒等映射的方式进行局部跳跃连接;最后使用一个卷积层用于特征图重建,得到图像的噪声,然后从噪声图像中移除噪声得到干净图像。
4.根据权利要求1所述的一种基于复杂背景图像的倾斜字符识别方法,其特征在于:步骤(3)中的字符检测模块是为了更加精确的定位到字符区域,输入为待矫正图像,字符检测模块分为三个阶段,在第一个阶段中,输入为待矫正的图片,首先对图像进行1次卷积和最大池化操作,再经过五个多深度融合残差块操作,其中多深度融合残差块分为三条支路,左边路径由1×1卷积和BN层构成,中间路径由1×1卷积、LN层、3×3卷积、GELU层、1×1卷积所构成,右边路径由两个3×3卷积、LN层、3×3卷积、GELU层和一个1×1卷积构成,最后将三条支路进行联合输出,并将输出的特征图转换为特征序列;在第二阶段中,输入为特征序列,首先通过双层双向LSTM用来捕获特征序列之间的长期依赖关系从而得到序列来预测控制点,最后利用全连接层得到参数,输出为所有字符的控制点的预测,并将参数转换为文字区域矫正过程所需的变换矩阵Aβ
5.根据权利要求4所述的一种基于复杂背景图像的倾斜字符识别方法,其特征在于:字符检测模块所使用的损失函数如下:
Figure DEST_PATH_IMAGE002
其中,a表示预测点与真实点之间的差值,S为控制点个数,
Figure DEST_PATH_IMAGE004
为预测控制点的坐标,qi为真实的坐标。
6.根据权利要求4所述的一种基于复杂背景图像的倾斜字符识别方法,其特征在于:步骤(4)中的字符矫正模块包含网格生成器和差分图像采样,网格生成器是利用输出变换矩阵Aβ将输入图和输出图坐标相对应,可视为将图像进行空间矩阵变换处理的坐标系;差分图像采样是将空间矩阵变换后的输出图进行整流采样处理,结合图像输入图进行插值计算,通过特征映射判断输入图中的文字/非文字区域,非文字区域直接采取置0处理,得到特征图像,然后计算得出倾斜文字的矫正结果。
7.根据权利要求6所述的一种基于复杂背景图像的倾斜字符识别方法,其特征在于:网格生成器首先通过变换矩阵Aβ生成一个网格,网格上任意一个位置都有两个值,表示其对应输入图的坐标,利用该网格在输入图上进行采样获得输出图,要获取输出图某一个位置上的值,首先通过网格找到原图对应的坐标,再通过差分图像采样得到原图对应坐标的值,最后填充到输出图上,对输出图的每个位置进行如上操作则可得到完整的输出图。
8.根据权利要求1所述的一种基于复杂背景图像的倾斜字符识别方法,其特征在于:前馈网络包含两个全连接层,并在第一层全连接层之后连接一个ReLU激活函数。
9.根据权利要求1所述的一种基于复杂背景图像的倾斜字符识别方法,其特征在于:
损失函数为每个字符类别保留一个深度的动态特征中心并在训练过程中不断调整,使得每个样本与中心之间的距离尽可能小,着重学习分类困难样本的特征,从而降低错检率,损失函数的公式为:
Figure DEST_PATH_IMAGE006
式中β表示超参数,超参数通过实验获得,M表示每个样本子集的大小,xi表示前馈网络中全连接层之前的特征,cyi表示第yi个类别的特征中心。
CN202211367911.9A 2022-11-03 2022-11-03 一种基于复杂背景图像的倾斜字符识别方法 Active CN115439857B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211367911.9A CN115439857B (zh) 2022-11-03 2022-11-03 一种基于复杂背景图像的倾斜字符识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211367911.9A CN115439857B (zh) 2022-11-03 2022-11-03 一种基于复杂背景图像的倾斜字符识别方法

Publications (2)

Publication Number Publication Date
CN115439857A CN115439857A (zh) 2022-12-06
CN115439857B true CN115439857B (zh) 2023-03-24

Family

ID=84253120

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211367911.9A Active CN115439857B (zh) 2022-11-03 2022-11-03 一种基于复杂背景图像的倾斜字符识别方法

Country Status (1)

Country Link
CN (1) CN115439857B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116524521B (zh) * 2023-06-30 2023-09-15 武汉纺织大学 一种基于深度学习的英文字符识别方法和系统
CN116563875B (zh) * 2023-07-05 2023-09-08 四川集鲜数智供应链科技有限公司 一种具有加密功能的智能图文识别方法及系统
CN117315664B (zh) * 2023-09-18 2024-04-02 山东博昂信息科技有限公司 一种基于图像序列的废钢斗号码识别方法
CN117037173B (zh) * 2023-09-22 2024-02-27 武汉纺织大学 一种二阶段的英文字符检测与识别方法及系统
CN117095412B (zh) * 2023-10-19 2023-12-15 四川泓宝润业工程技术有限公司 天然气数字仪表字符检测与识别方法、装置和存储介质
CN117290461B (zh) * 2023-11-24 2024-02-06 湖南君安科技有限公司 融合aspp模块与跨模态交互的多模态对话生成方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104978576B (zh) * 2014-04-02 2019-01-15 阿里巴巴集团控股有限公司 一种文字识别方法及装置
US10304193B1 (en) * 2018-08-17 2019-05-28 12 Sigma Technologies Image segmentation and object detection using fully convolutional neural network
CN110796138A (zh) * 2019-10-15 2020-02-14 湖北工业大学 一种基于显性矫正机制的不规则场景文字识别方法
CN113361432B (zh) * 2021-06-15 2022-03-15 电子科技大学 一种基于深度学习的视频文字端到端检测与识别的方法

Also Published As

Publication number Publication date
CN115439857A (zh) 2022-12-06

Similar Documents

Publication Publication Date Title
CN115439857B (zh) 一种基于复杂背景图像的倾斜字符识别方法
CN109598268B (zh) 一种基于单流深度网络的rgb-d显著目标检测方法
CN110084734B (zh) 一种基于物体局部生成对抗网络的大数据权属保护方法
CN110223292B (zh) 图像评估方法、装置及计算机可读存储介质
CN111242844B (zh) 图像处理方法、装置、服务器和存储介质
CN112967178B (zh) 一种图像转换方法、装置、设备及存储介质
CN111464881B (zh) 基于自优化机制的全卷积视频描述生成方法
CN112507617A (zh) 一种SRFlow超分辨率模型的训练方法及人脸识别方法
CN115393396B (zh) 一种基于掩码预训练的无人机目标跟踪方法
CN111724400A (zh) 视频自动抠像方法及系统
CN110599411A (zh) 一种基于条件生成对抗网络的图像修复方法及系统
CN112633234A (zh) 人脸去眼镜模型训练、应用方法及其装置、设备和介质
CN116205820A (zh) 图像增强方法、目标识别方法、设备及介质
Zhang et al. Fchp: Exploring the discriminative feature and feature correlation of feature maps for hierarchical dnn pruning and compression
CN110570375A (zh) 一种图像处理方法、装置、电子设置以及存储介质
CN113569814A (zh) 一种基于特征一致性的无监督行人重识别方法
CN112016592B (zh) 基于交叉领域类别感知的领域适应语义分割方法及装置
Wang et al. Face hallucination using multisource references and cross‐scale dual residual fusion mechanism
CN110942463B (zh) 一种基于生成对抗网络的视频目标分割方法
CN116704506A (zh) 一种基于交叉环境注意力的指代图像分割方法
Wang et al. Hacloudnet: A ground-based cloud image classification network guided by height-driven attention
CN112215868A (zh) 基于生成对抗网络的去除手势图像背景的方法
CN117557782B (zh) 一种多尺度特征融合和边界信息注意的视频显著目标检测方法
Hao et al. DGC‐UWnet: Underwater image enhancement based on computation‐efficient convolution and channel shuffle
CN112598043B (zh) 一种基于弱监督学习的协同显著性检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant