CN110276418A - 基于图片的字体识别方法、装置、电子设备及存储介质 - Google Patents
基于图片的字体识别方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN110276418A CN110276418A CN201910563421.8A CN201910563421A CN110276418A CN 110276418 A CN110276418 A CN 110276418A CN 201910563421 A CN201910563421 A CN 201910563421A CN 110276418 A CN110276418 A CN 110276418A
- Authority
- CN
- China
- Prior art keywords
- picture
- sample
- neural networks
- advance
- convolutional neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
- G06V20/63—Scene text, e.g. street names
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/24—Character recognition characterised by the processing or recognition method
- G06V30/242—Division of the character sequences into groups prior to recognition; Selection of dictionaries
- G06V30/244—Division of the character sequences into groups prior to recognition; Selection of dictionaries using graphical properties, e.g. alphabet type or font
- G06V30/245—Font recognition
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Character Discrimination (AREA)
- Image Analysis (AREA)
Abstract
本公开关于一种基于图片的字体识别方法、装置、电子设备及存储介质,通过将待处理图片进行处理,分别得到两种不同分辨率的图片,将两种不同分辨率的图片分别输入两个独立的卷积神经网络进行特征提取,可以同等对待不同分辨率的图片,使网络对较低分辨率的图片也有很好的解析力,提高了模糊图片中对字体的识别效果,最终提高了模糊图片的识别准确率,利用预先训练的深度学习网络获取图片中字体的特征信息,捕捉到模糊图片中的字体局部关键信息,提高模糊图片中字体识别的准确率。
Description
技术领域
本公开涉及文字识别技术领域,尤其涉及基于图片的字体识别方法、装置、电子设备及存储介质。
背景技术
随着图文能够提供给用户更多精彩的信息,如何从图文中识别出字体以便于提升用户体验已成为当前研究的热点。目前,现有的文字识别技术为通过提取文字图片的特征,输入递归神经网络,解析得到字体识别结果,此方法对于清晰的文字图片识别结果较好,但是对于模糊的文字图片,由于汉字有一万多个,很多字形相近,图片模糊后文字特征不明显,导致识别结果较差,使得字体识别的准确率较低。
发明内容
本公开提供一种基于图片的字体识别方法、装置、电子设备、存储介质及包含指令的计算机程序产品,以实现解决模糊图片中的字体识别,提高模糊图片中字体识别的准确率。
本公开的技术方案如下:
根据本公开实施例的第一方面,本公开提供一种基于图片的字体识别方法,包括:
获取待处理图片,得到所述待处理图片的宽度和高度;
对所述待处理图片进行缩放处理,分别得到第一图片和第二图片,其中所述第二图片的分辨率低于所述第一图片的分辨率;
将所述第一图片输入预先训练的第一卷积神经网络进行下采样,得到第一图片的特征图,将所述第二图片输入预先训练的第二卷积神经网络进行下采样,得到第二图片的特征图;
将所述第二图片的特征图输入到反卷积层进行上采样,得到第二图片上采样后的特征图;
将所述第一图片的特征图和所述第二图片上采样后的特征图进行连接,得到目标特征图;
将所述目标特征图输入到预先训练的深度学习网络模型中,识别所述待处理图片中的字体。
可选的,所述预先训练好的第一卷积神经网络对所述第一图片的下采样倍数和所述预先训练好的第二卷积神经网络对所述第二图片的下采样倍数相同。
可选的,所述预先训练的深度学习网络为双向长短期记忆神经网络BI-LSTM模型。
可选的,所述预先训练的第一卷积神经网络、预先训练的第二卷积神经网络和预先训练的双向长短期记忆神经网络BI-LSTM模型的训练步骤,包括:
获取样本图片,标定所述样本图像中的文字,其中,所述样本图片为模糊文字图片;
获取第一卷积神经网络、第二卷积神经网络及BI-LSTM网络组成的级联模型;
将所述样本图片进行缩放处理,得到第一样本图片和第二样本图片,其中所述第二样本图片的分辨率低于所述第一样本图片的分辨率;
将所述第一样本图片和所述第二样本图片分别输入到第一卷积神经网络和第二卷积神经网络,分别对所述训练样本中的模糊文字图片进行特征提取,分别得到第一样本图片的特征图和第二样本图片的特征图,预先训练的第一卷积神经网络和预先训练的第二卷积神经网络;
将所述第二样本图片的特征图输入到反卷积层进行上采样,得到第二样本图片上采样后的特征图;
将所述第一样本图片的特征图和所述第二样本图片上采样后的特征图进行连接,得到目标样本特征图;
将目标样本特征图输入所述BI-LSTM模型进行训练,得到预先训练的BI-LSTM模型。
根据本公开实施例的第二方面,提供一种基于图片的字体识别装置,包括:
采集模块,被配置为获取待处理图片,得到所述待处理图片的宽度和高度;
缩放模块,被配置为对所述待处理图片进行缩放处理,分别得到第一图片和第二图片,其中所述第二图片的分辨率低于所述第一图片的分辨率;
特征提取模块,被配置为将所述第一图片输入预先训练的第一卷积神经网络进行下采样,得到第一图片的特征图,将所述第二图片输入预先训练的第二卷积神经网络进行下采样,得到第二图片的特征图;
反卷积模块,被配置为将所述第二图片的特征图输入到反卷积层进行上采样,得到第二图片上采样后的特征图;
连接模块,被配置为将所述第一图片的特征图和所述第二图片上采样后的特征图进行连接,得到目标特征图;
识别模块,被配置为将所述目标特征图输入到预先训练的深度学习网络模型中,识别所述待处理图片中的字体。
可选的,所述预先训练好的第一卷积神经网络对所述第一图片的下采样倍数和所述预先训练好的第二卷积神经网络对所述第二图片的下采样倍数相同。
可选的,所述预先训练的深度学习网络为双向长短期记忆神经网络BI-LSTM模型。
可选的,所述装置还包括:训练模块,所述训练模块被配置为:
获取样本图片,标定所述样本图像中的文字,其中,所述样本图片为模糊文字图片;
获取第一卷积神经网络、第二卷积神经网络及BI-LSTM网络组成的级联模型;
将所述样本图片进行缩放处理,得到第一样本图片和第二样本图片,其中所述第二样本图片的分辨率低于所述第一样本图片的分辨率;
将所述第一样本图片和所述第二样本图片分别输入到第一卷积神经网络和第二卷积神经网络,分别对所述训练样本中的模糊文字图片进行特征提取,分别得到第一样本特征图和第二样本特征图,预先训练的第一卷积神经网络和预先训练的第二卷积神经网络;
将第一样本特征图和第二样本特征图输入所述BI-LSTM模型进行训练,得到预先训练的BI-LSTM模型。
根据本公开实施例的第三方面,提供一种电子设备,包括:处理器、通信接口、存储器和通信总线,其中,
所述处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,被配置为存放计算机程序;
处理器,被配置为执行存储器上所存放的程序时,实现上述第一方面任一项所述的基于图片的字体识别方法。
根据本公开实施例的第四方面,提供一种存储介质,所述存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面任一所述的基于图片的字体识别的方法。
根据本公开实施例的第五方面,提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述第一方面任一所述的基于图片的字体识别的方法。
本公开的实施例提供的基于图片的字体识别方法、装置、电子设备、存储介质及包含指令的计算机程序产品,至少带来以下有益效果:
通过将待处理图片进行处理,分别得到两种不同分辨率的图片,将两种不同分辨率的图片分别输入两个独立的卷积神经网络进行特征提取,可以同等对待不同分辨率的图片,使网络对较低分辨率的图片也有很好的解析力,提高模糊图片中对字体的识别效果,最终提高模糊图片的识别准确率,利用预先训练的深度学习网络模型,可以充分获取图片中字体的特征信息,捕捉到模糊图片中的字体局部关键信息,提高模糊图片中字体识别的准确率。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理,并不构成对本公开的不当限定。
图1为本公开实施例的基于图片的字体识别方法的第一种示意图;
图2为本公开实施例的基于图片的字体识别方法的第二种示意图;
图3为本公开实施例的基于图片的字体识别装置的一种示意图;
图4为本公开实施例的电子设备的一种示意图。
具体实施方式
为了使本领域普通人员更好地理解本公开的技术方案,下面将结合附图,对本公开实施例中的技术方案进行清楚、完整地描述。
需要说明的是,本公开的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本公开的实施例能够以除了在这里图示或描述的那些以外的顺序实施。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。本公开实施例公开了一种基于图片的字体识别方法、装置、电子设备、存储介质及包含指令的计算机程序产品,以下分别进行说明。
图1为本公开实施例的基于图片的字体识别方法的第一种示意图,如图1所示,基于图片的字体识别方法包括以下步骤:
在步骤110中,获取待处理图片,得到上述待处理图片的宽度和高度。
本公开实施例的基于图片的字体识别方法可以通过电子设备实现,具体的,该电子设备可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,服务器。
电子设备获取待处理图片,得到上述待处理图片的宽度和高度,例如上述待处理图片的宽度为W,上述待处理图片的高度H。
在步骤120中,对上述待处理图片进行缩放处理,分别得到第一图片和第二图片,其中上述第二图片的分辨率低于上述第一图片的分辨率。
按照规则对上述待处理图片进行缩放处理,使得上述第二图片的分辨率低于上述第一图片的分辨率。例如,设定上述第一图片的高度为h,宽度按照和高度等比例进行缩放,即宽度为W*h/H,设定上述第二图片的高度为h/2,宽度按照和高度等比例进行缩放,即宽度为W*h/H/2,为了方便运算,提高识别效率,h为2的幂。
在步骤130中,将上述第一图片输入预先训练的第一卷积神经网络进行下采样,得到第一图片的特征图,将上述第二图片输入预先训练的第二卷积神经网络进行下采样,得到第二图片的特征图。
将上述第一图片和上述第二图片分别输入预先训练的第一卷积神经网络和预先训练的第二卷积神经网络进行下采样,例如预先训练的第一卷积神经网络为VGG(VisualGeometry Group Network,VGG模型)16、InceptionV1、InceptionV2、resnet或Inception-resnet等网络,预先训练的第二卷积神经网络为VGG16、InceptionV1、InceptionV2、resnet或Inception-resnet等网络,分别得到第一图片的特征图,第二图片的特征图,例如第一图片的特征图为高度为2,宽度为W*2/H,通道数为c,第二图片的特征图为高度为1,宽度为W/H,通道数为c。输入两种分辨率的图像到神经网络中,使网络对较低分辨率的图像也有很好的解析力,从而提高文字识别准确率。
在一种可能的实施方式中,上述预先训练好的第一卷积神经网络对上述第一图片的下采样倍数和上述预先训练好的第二卷积神经网络对上述第二图片的下采样倍数相同。
采用相同的下采样倍数对上述第一图片和上述第二图片进行特征提取,可以使得模型计算时间缩小,提高识别效率。
在步骤140中,将上述第二图片的特征图输入到反卷积层进行上采样,得到第二图片上采样后的特征图。
经过反卷积层进行上采样后的第二图片,分辨率得以提高,例如第二图片上采样后的特征图为高度为2,宽度为W*2/H,通道数为c,有利于模型的训练和字体识别。
在步骤150中,将上述第一图片的特征图和上述第二图片上采样后的特征图进行连接,得到目标特征图。
将上述第一图片的特征图和上述第二图片上采样后的特征图进行连接,连接算法可以为concat算法,也可以是add算法,max算法等,例如上述第一图片的特征图和上述第二图片上采样后的特征图经过concat算法连接后,得到高度为2,宽度为W*2/H,通道数为2*c的目标特征图,这样在模型计算的时候,对不同通道的特征进行独立传播,不会对对方造成影响,提高模糊图片中字体识别的准确率。
在步骤160中,将上述目标特征图输入到预先训练的深度学习网络模型中,识别上述待处理图片中的字体。
预先训练的深度学习网络模型可以为预先训练的卷积神经网络或者递归神经网络中的任一种。通过预先训练的深度学习网络模型可以捕捉到模糊图片中的字体局部关键信息,提高模糊图片中字体识别的准确率。
在一种可能的实施方式中,上述预先训练的深度学习网络模型为双向长短期记忆神经网络BI-LSTM(Bi-direction Long Short-Term Memory,双向长短期记忆神经网络)模型。
通过BI-LSTM模型,将正向LSTM输出的隐状态特征与反向LSTM输出的隐态特征进行按位拼接,得到完整的隐状态特征,这样可以充分获取图片中字体的特征信息,捕捉到模糊图片中的字体局部关键信息,提高模糊图片中字体识别的准确率。
本实施例中,上述预先训练的第一卷积神经网络、预先训练的第二卷积神经网络和预先训练的双向长短期记忆神经网络BI-LSTM模型的训练步骤,包括:
步骤一,获取样本图片,标定上述样本图像中的文字,其中,上述样本图片为模糊文字图片。
上述样本图像中的文字进行标定,可以利于后续模型的训练。
步骤二,获取第一卷积神经网络、第二卷积神经网络及BI-LSTM网络组成的级联模型。
构建第一卷积神经网络、第二卷积神经网络及BI-LSTM网络组成的级联模型,对样本图片进行处理,识别样本图片中的字体,得到训练的第一卷积神经网络、第二卷积神经网络及BI-LSTM网络组成的级联模型。
步骤三,将上述样本图片进行缩放处理,得到第一样本图片和第二样本图片,其中上述第二样本图片的分辨率低于上述第一样本图片的分辨率。
上述第二样本图片的分辨率低于上述第一样本图片的分辨率可以使输入上述第一卷积神经网络、第二卷积神经网络及BI-LSTM网络组成的级联模型的图片有两种分辨率,可以充分获取图片中字体的特征信息,捕捉到模糊图片中的字体局部关键信息,提高模糊图片中字体识别的准确率。
步骤四,将上述第一样本图片和上述第二样本图片分别输入到第一卷积神经网络和第二卷积神经网络,分别对上述训练样本中的模糊文字图片进行特征提取,分别得到第一样本图片的特征图和第二样本图片的特征图,预先训练的第一卷积神经网络和预先训练的第二卷积神经网络。
第一卷积神经网络可以为VGG16、InceptionV1、InceptionV2、resnet、Inception-resnet等网络,第二卷积神经网络可以为VGG16、InceptionV1、InceptionV2、resnet、Inception-resnet等网络,分别得到第一样本图片的特征图,第二样本图片的特征图。
步骤五,将上述第二样本图片的特征图输入到反卷积层进行上采样,得到第二样本图片上采样后的特征图。
经过反卷积层进行上采样后的第二样本图片,分辨率得以提高,有利于模型的训练和字体识别。
步骤六,将上述第一样本图片的特征图和上述第二样本图片上采样后的特征图进行连接,得到目标样本特征图。
为了得到BI-LSTM网络的输入,需要将上述第一样本图片的特征图和上述第二样本图片上采样后的特征图进行连接,连接算法可以为concat算法,也可以是add算法,max算法等。这样在模型计算的时候,对不同通道的特征进行独立传播,不会对对方造成影响,提高模糊图片中字体识别的准确率。
步骤七,将目标样本特征图输入上述BI-LSTM模型进行训练,得到预先训练的BI-LSTM模型。
经过深度学习,获得的BI-LSTM模型,可以充分获取图片中字体的特征信息,捕捉到模糊图片中的字体局部关键信息,提高模糊图片中字体识别的准确率。
图2为本公开实施例的基于图片的字体识别方法的第二种示意图,如图2所示,基于图片的字体识别方法包括以下步骤:
获取待处理图片,上述待处理图片的宽度为W,上述待处理图片的高度H。按照规则对上述待处理图片进行缩放处理,分别得到第一图片和第二图片,使得上述第二图片的分辨率低于上述第一图片的分辨率。设定上述第一图片的高度为h,宽度按照和高度等比例进行缩放,即宽度为W*h/H,设定上述第二图片的高度为h/2,宽度按照和高度等比例进行缩放,即宽度为W*h/H/2,为了方便运算,提高识别效率,h为2的幂。
将上述第一图片和上述第二图片分别输入预先训练的第一卷积神经网络和预先训练的第二卷积神经网络进行下采样,例如预先训练的第一卷积神经网络为VGG(VisualGeometry Group Network,VGG模型)16、InceptionV1、InceptionV2、resnet或Inception-resnet等网络,预先训练的第二卷积神经网络为VGG16、InceptionV1、InceptionV2、resnet或Inception-resnet等网络,分别得到第一图片的特征图,第二图片的特征图,上述第一图片的特征图为高度为2,宽度为W*2/H,通道数为c,上述第二图片的特征图为高度为1,宽度为W/H,通道数为c。
将上述第二图片的特征图输入到反卷积层进行上采样,得到第二图片上采样后的特征图,经过反卷积层进行上采样后的第二图片,分辨率得以提高,第二图片上采样后的特征图为高度为2,宽度为W*2/H,通道数为c,有利于模型的训练和字体识别。
将上述第一图片的特征图和上述第二图片上采样后的特征图进行连接,得到目标特征图,连接算法可以为concat算法,也可以是add算法,max算法等,例如上述第一图片的特征图和上述第二图片上采样后的特征图经过concat算法连接后,得到高度为2,宽度为W*2/H,通道数为2*c的目标特征图。
将上述目标特征图输入到预先训练的深度学习网络模型,预先训练的深度学习网络模型可以为预先训练的卷积神经网络或者递归神经网络中的任一种,比如预先训练的双向长短期记忆神经网络BI-LSTM模型中,识别上述待处理图片中的字体。
图3为本公开实施例的基于图片的字体识别装置的一种示意图,参见图3,该装置包括:采集模块310,缩放模块320,特征提取模块330,反卷积模块340,连接模块350,识别模块360。
该采集模块310被配置为获取待处理图片,得到上述待处理图片的宽度和高度;
该缩放模块320被配置为对上述待处理图片进行缩放处理,分别得到第一图片和第二图片,其中上述第二图片的分辨率低于上述第一图片的分辨率;
该特征提取模块330被配置为将上述第一图片输入预先训练的第一卷积神经网络进行下采样,得到第一图片的特征图,将上述第二图片输入预先训练的第二卷积神经网络进行下采样,得到第二图片的特征图;
该反卷积模块340被配置为将上述第二图片的特征图输入到反卷积层进行上采样,得到第二图片上采样后的特征图;
该连接模块350被配置为将上述第一图片的特征图和上述第二图片上采样后的特征图进行连接,得到目标特征图;
该识别模块360被配置为将上述目标特征图输入到预先训练的双向长短期记忆神经网络BI-LSTM模型中,识别上述待处理图片中的字体。
在一种可能的实施方式中,上述装置还包括:训练模块,上述训练模块被配置为:
获取样本图片,标定上述样本图像中的文字,其中,上述样本图片为模糊文字图片;
获取第一卷积神经网络、第二卷积神经网络及BI-LSTM网络组成的级联模型;
将上述样本图片进行缩放处理,得到第一样本图片和第二样本图片,其中上述第二样本图片的分辨率低于上述第一样本图片的分辨率;
将上述第一样本图片和上述第二样本图片分别输入到第一卷积神经网络和第二卷积神经网络,分别对上述训练样本中的模糊文字图片进行特征提取,分别得到第一样本特征图和第二样本特征图,预先训练的第一卷积神经网络和预先训练的第二卷积神经网络;
将第一样本特征图和第二样本特征图输入上述BI-LSTM模型进行训练,得到预先训练的BI-LSTM模型。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图4为本公开实施例的电子设备的一种示意图,参见图4,例如,电子设备800可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图4,电子设备800可以包括以下一个或多个组件:处理组件802,存储器804,电源组件806,多媒体组件808,音频组件810,输入/输出(I/O)的接口812,传感器组件814,以及通信组件816。
处理组件802通常控制电子设备800的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件802可以包括一个或多个处理器820来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理组件802可以包括多媒体模块,以方便多媒体组件808和处理组件802之间的交互。
存储器804被配置为存储各种类型的数据以支持在电子设备800的操作。这些数据的示例包括用于在电子设备800上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件806为电子设备800的各种组件提供电力。电源组件806可以包括电源管理系统,一个或多个电源,及其他与为电子设备800生成、管理和分配电力相关联的组件。
多媒体组件808包括在所述电子设备800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当电子设备800处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当电子设备800处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器804或经由通信组件816发送。在一些实施例中,音频组件810还包括一个扬声器,用于输出音频信号。
I/O接口812为处理组件802和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件814包括一个或多个传感器,用于为电子设备800提供各个方面的状态评估。例如,传感器组件814可以检测到电子设备800的打开/关闭状态,组件的相对定位,例如所述组件为电子设备800的显示器和小键盘,传感器组件814还可以检测电子设备800或电子设备800一个组件的位置改变,用户与电子设备800接触的存在或不存在,电子设备800方位或加速/减速和电子设备800的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件816被配置为便于电子设备800和其他设备之间有线或无线方式的通信。电子设备800可以接入基于通信标准的无线网络,如WiFi,运营商网络(如2G、3G、4G或5G),或它们的组合。在一个示例性实施例中,通信组件816经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件816还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,电子设备800可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述实施例中任一所述的基于图片的字体识别方法。
在本公开实施例中,还提供了一种存储介质,该存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述实施例中任一所述的基于图片的字体识别方法。在示例性实施例中,还提供了一种包括指令的存储介质,例如包括指令的存储器804,上述指令可由电子设备800的处理器820执行以完成上述方法。可选地,例如,存储介质可以是非临时性计算机可读存储介质,例如,所述存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
在本公开实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例中任一所述的基于图片的字体识别方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (10)
1.一种基于图片的字体识别方法,其特征在于,包括:
获取待处理图片,得到所述待处理图片的宽度和高度;
对所述待处理图片进行缩放处理,分别得到第一图片和第二图片,其中所述第二图片的分辨率低于所述第一图片的分辨率;
将所述第一图片输入预先训练的第一卷积神经网络进行下采样,得到第一图片的特征图,将所述第二图片输入预先训练的第二卷积神经网络进行下采样,得到第二图片的特征图;
将所述第二图片的特征图输入到反卷积层进行上采样,得到第二图片上采样后的特征图;
将所述第一图片的特征图和所述第二图片上采样后的特征图进行连接,得到目标特征图;
将所述目标特征图输入到预先训练的深度学习网络模型中,识别所述待处理图片中的字体。
2.根据权利要求1所述的方法,其特征在于,所述预先训练好的第一卷积神经网络对所述第一图片的下采样倍数和所述预先训练好的第二卷积神经网络对所述第二图片的下采样倍数相同。
3.根据权利要求1所述的方法,其特征在于,所述预先训练的深度学习网络为双向长短期记忆神经网络BI-LSTM模型。
4.根据权利要求3所述的方法,其特征在于,所述预先训练的第一卷积神经网络、预先训练的第二卷积神经网络和预先训练的双向长短期记忆神经网络BI-LSTM模型的训练步骤,包括:
获取样本图片,标定所述样本图像中的文字,其中,所述样本图片为模糊文字图片;
获取第一卷积神经网络、第二卷积神经网络及BI-LSTM网络组成的级联模型;
将所述样本图片进行缩放处理,得到第一样本图片和第二样本图片,其中所述第二样本图片的分辨率低于所述第一样本图片的分辨率;
将所述第一样本图片和所述第二样本图片分别输入到第一卷积神经网络和第二卷积神经网络,分别对所述训练样本中的模糊文字图片进行特征提取,分别得到第一样本图片的特征图和第二样本图片的特征图,预先训练的第一卷积神经网络和预先训练的第二卷积神经网络;
将所述第二样本图片的特征图输入到反卷积层进行上采样,得到第二样本图片上采样后的特征图;
将所述第一样本图片的特征图和所述第二样本图片上采样后的特征图进行连接,得到目标样本特征图;
将目标样本特征图输入所述BI-LSTM模型进行训练,得到预先训练的BI-LSTM模型。
5.一种基于图片的字体识别装置,其特征在于,包括:
采集模块,被配置为获取待处理图片,得到所述待处理图片的宽度和高度;
缩放模块,被配置为对所述待处理图片进行缩放处理,分别得到第一图片和第二图片,其中所述第二图片的分辨率低于所述第一图片的分辨率;
特征提取模块,被配置为将所述第一图片输入预先训练的第一卷积神经网络进行下采样,得到第一图片的特征图,将所述第二图片输入预先训练的第二卷积神经网络进行下采样,得到第二图片的特征图;
反卷积模块,被配置为将所述第二图片的特征图输入到反卷积层进行上采样,得到第二图片上采样后的特征图;
连接模块,被配置为将所述第一图片的特征图和所述第二图片上采样后的特征图进行连接,得到目标特征图;
识别模块,被配置为将所述目标特征图输入到预先训练的深度学习网络模型中,识别所述待处理图片中的字体。
6.根据权利要求5所述的装置,其特征在于,所述预先训练好的第一卷积神经网络对所述第一图片的下采样倍数和所述预先训练好的第二卷积神经网络对所述第二图片的下采样倍数相同。
7.根据权利要求5所述的装置,其特征在于,所述预先训练的深度学习网络为双向长短期记忆神经网络BI-LSTM模型。
8.根据权利要求7所述的装置,其特征在于,所述装置还包括:训练模块,所述训练模块被配置为:
获取样本图片,标定所述样本图像中的文字,其中,所述样本图片为模糊文字图片;
获取第一卷积神经网络、第二卷积神经网络及BI-LSTM网络组成的级联模型;
将所述样本图片进行缩放处理,得到第一样本图片和第二样本图片,其中所述第二样本图片的分辨率低于所述第一样本图片的分辨率;
将所述第一样本图片和所述第二样本图片分别输入到第一卷积神经网络和第二卷积神经网络,分别对所述训练样本中的模糊文字图片进行特征提取,分别得到第一样本特征图和第二样本特征图,预先训练的第一卷积神经网络和预先训练的第二卷积神经网络;
将第一样本特征图和第二样本特征图输入所述BI-LSTM模型进行训练,得到预先训练的BI-LSTM模型。
9.一种电子设备,其特征在于,包括:处理器、通信接口、存储器和通信总线,其中,
所述处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,被配置为存放计算机程序;
处理器,被配置为执行存储器上所存放的程序时,实现权利要求1-4中任一项所述的基于图片的字体识别方法。
10.一种存储介质,其特征在于,所述存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1-4任一所述的基于图片的字体识别的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910563421.8A CN110276418A (zh) | 2019-06-26 | 2019-06-26 | 基于图片的字体识别方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910563421.8A CN110276418A (zh) | 2019-06-26 | 2019-06-26 | 基于图片的字体识别方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110276418A true CN110276418A (zh) | 2019-09-24 |
Family
ID=67963338
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910563421.8A Pending CN110276418A (zh) | 2019-06-26 | 2019-06-26 | 基于图片的字体识别方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110276418A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110688949A (zh) * | 2019-09-26 | 2020-01-14 | 北大方正集团有限公司 | 字体识别方法和装置 |
CN110825900A (zh) * | 2019-11-07 | 2020-02-21 | 重庆紫光华山智安科技有限公司 | 特征重构层的训练方法、图像特征的重构方法及相关装置 |
CN112699875A (zh) * | 2020-12-31 | 2021-04-23 | 阳光保险集团股份有限公司 | 一种文字识别方法、装置、电子设备及存储介质 |
CN113191316A (zh) * | 2021-05-21 | 2021-07-30 | 上海商汤临港智能科技有限公司 | 图像处理方法、装置、电子设备及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105447457A (zh) * | 2015-11-15 | 2016-03-30 | 安徽清新互联信息科技有限公司 | 一种基于自适应特征的车牌字符识别方法 |
CN106557768A (zh) * | 2016-11-25 | 2017-04-05 | 北京小米移动软件有限公司 | 对图片中的文字进行识别的方法及装置 |
CN106682569A (zh) * | 2016-09-28 | 2017-05-17 | 天津工业大学 | 一种基于卷积神经网络的快速交通标识牌识别方法 |
CN107506729A (zh) * | 2017-08-24 | 2017-12-22 | 中国科学技术大学 | 一种基于深度学习的能见度检测方法 |
CN107679531A (zh) * | 2017-06-23 | 2018-02-09 | 平安科技(深圳)有限公司 | 基于深度学习的车牌识别方法、装置、设备及存储介质 |
CN107871101A (zh) * | 2016-09-23 | 2018-04-03 | 北京眼神科技有限公司 | 一种人脸检测方法及装置 |
US20190102653A1 (en) * | 2017-09-29 | 2019-04-04 | Konica Minolta Laboratory U.S.A., Inc. | Local connectivity feature transform of binary images containing text characters for optical character/word recognition |
CN109871843A (zh) * | 2017-12-01 | 2019-06-11 | 北京搜狗科技发展有限公司 | 字符识别方法和装置、用于字符识别的装置 |
-
2019
- 2019-06-26 CN CN201910563421.8A patent/CN110276418A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105447457A (zh) * | 2015-11-15 | 2016-03-30 | 安徽清新互联信息科技有限公司 | 一种基于自适应特征的车牌字符识别方法 |
CN107871101A (zh) * | 2016-09-23 | 2018-04-03 | 北京眼神科技有限公司 | 一种人脸检测方法及装置 |
CN106682569A (zh) * | 2016-09-28 | 2017-05-17 | 天津工业大学 | 一种基于卷积神经网络的快速交通标识牌识别方法 |
CN106557768A (zh) * | 2016-11-25 | 2017-04-05 | 北京小米移动软件有限公司 | 对图片中的文字进行识别的方法及装置 |
CN107679531A (zh) * | 2017-06-23 | 2018-02-09 | 平安科技(深圳)有限公司 | 基于深度学习的车牌识别方法、装置、设备及存储介质 |
CN107506729A (zh) * | 2017-08-24 | 2017-12-22 | 中国科学技术大学 | 一种基于深度学习的能见度检测方法 |
US20190102653A1 (en) * | 2017-09-29 | 2019-04-04 | Konica Minolta Laboratory U.S.A., Inc. | Local connectivity feature transform of binary images containing text characters for optical character/word recognition |
CN109871843A (zh) * | 2017-12-01 | 2019-06-11 | 北京搜狗科技发展有限公司 | 字符识别方法和装置、用于字符识别的装置 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110688949A (zh) * | 2019-09-26 | 2020-01-14 | 北大方正集团有限公司 | 字体识别方法和装置 |
CN110825900A (zh) * | 2019-11-07 | 2020-02-21 | 重庆紫光华山智安科技有限公司 | 特征重构层的训练方法、图像特征的重构方法及相关装置 |
CN112699875A (zh) * | 2020-12-31 | 2021-04-23 | 阳光保险集团股份有限公司 | 一种文字识别方法、装置、电子设备及存储介质 |
CN113191316A (zh) * | 2021-05-21 | 2021-07-30 | 上海商汤临港智能科技有限公司 | 图像处理方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111310616B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
CN110569777B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
CN110276418A (zh) | 基于图片的字体识别方法、装置、电子设备及存储介质 | |
CN110909815B (zh) | 神经网络训练、图像处理方法、装置及电子设备 | |
CN107944447B (zh) | 图像分类方法及装置 | |
CN110188236A (zh) | 一种音乐的推荐方法、装置及系统 | |
CN109934275B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
CN107527059A (zh) | 文字识别方法、装置及终端 | |
CN110532956B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
CN110717399A (zh) | 人脸识别方法和电子终端设备 | |
CN111259967A (zh) | 图像分类及神经网络训练方法、装置、设备及存储介质 | |
CN110399934A (zh) | 一种视频分类方法、装置及电子设备 | |
CN109039877A (zh) | 一种显示未读消息数量的方法、装置、电子设备及存储介质 | |
CN108021932A (zh) | 数据检测方法、装置及电子设备 | |
CN112101216A (zh) | 人脸识别方法、装置、设备及存储介质 | |
CN105335714A (zh) | 照片处理方法、装置和设备 | |
CN104899588B (zh) | 识别图像中的字符的方法及装置 | |
CN105094364B (zh) | 词汇显示方法和装置 | |
CN113807253A (zh) | 人脸识别方法及装置、电子设备和存储介质 | |
CN110633715B (zh) | 图像处理方法、网络训练方法及装置、和电子设备 | |
CN110781842A (zh) | 图像处理方法及装置、电子设备和存储介质 | |
CN109409414B (zh) | 样本图像确定方法和装置、电子设备及存储介质 | |
CN105426904B (zh) | 照片处理方法、装置和设备 | |
CN111797746B (zh) | 人脸识别方法、装置及计算机可读存储介质 | |
CN111860552B (zh) | 基于核自编码器的模型训练方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |