CN116563854A - 基于双通道的文本识别方法、装置、设备及存储介质 - Google Patents
基于双通道的文本识别方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN116563854A CN116563854A CN202310531143.4A CN202310531143A CN116563854A CN 116563854 A CN116563854 A CN 116563854A CN 202310531143 A CN202310531143 A CN 202310531143A CN 116563854 A CN116563854 A CN 116563854A
- Authority
- CN
- China
- Prior art keywords
- character
- channel
- characters
- character string
- string
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 81
- 230000006403 short-term memory Effects 0.000 claims abstract description 18
- 230000007787 long-term memory Effects 0.000 claims abstract description 16
- 238000006243 chemical reaction Methods 0.000 claims abstract description 15
- 230000006870 function Effects 0.000 claims description 48
- 230000015654 memory Effects 0.000 claims description 39
- 230000009466 transformation Effects 0.000 claims description 27
- 238000012549 training Methods 0.000 claims description 22
- 238000012545 processing Methods 0.000 claims description 15
- 230000009977 dual effect Effects 0.000 claims description 11
- 230000007774 longterm Effects 0.000 claims description 4
- 230000000295 complement effect Effects 0.000 abstract description 9
- 238000010801 machine learning Methods 0.000 abstract description 3
- 238000013461 design Methods 0.000 description 16
- 238000013527 convolutional neural network Methods 0.000 description 13
- 102100032202 Cornulin Human genes 0.000 description 12
- 101000920981 Homo sapiens Cornulin Proteins 0.000 description 12
- 238000010586 diagram Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 12
- 238000013528 artificial neural network Methods 0.000 description 11
- 230000003287 optical effect Effects 0.000 description 9
- 238000012360 testing method Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 7
- 238000012015 optical character recognition Methods 0.000 description 7
- 238000004590 computer program Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000000306 recurrent effect Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 101100352902 Dictyostelium discoideum canA gene Proteins 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- -1 but not limited to Substances 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 101150033714 mtcA1 gene Proteins 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
- G06V30/1444—Selective acquisition, locating or processing of specific regions, e.g. highlighted text, fiducial marks or predetermined fields
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/18—Extraction of features or characteristics of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/19173—Classification techniques
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Probability & Statistics with Applications (AREA)
- Character Discrimination (AREA)
Abstract
本申请提供一种基于双通道的文本识别方法、装置、设备及存储介质,涉及机器学习技术领域。该方法包括:获取双通道模型的长短期记忆网络通道输出的第一字符串,以及双通道模型的变换通道输出的第二字符串;获取差异字符的占比;若差异字符的占比小于预设阈值,则逐一对比第一字符得分和对应的第二字符得分,将字符得分高的字符作为第三字符;输出多个第三字符组成的第三字符串。本申请的方法,根据字符得分互补长短期记忆网络通道输出的第一字符串和变换通道输出的第二字符串,确定字符得分更高的第三字符串,提高了识别文本的准确率。
Description
技术领域
本申请涉及机器学习技术,尤其涉及一种基于双通道的文本识别方法、装置、设备及存储介质。
背景技术
光学字符识别(Optical Character Recognition,OCR),是指通过电子设备(例如扫描仪或者数码相机)获取载体(例如纸张或者屏幕)上的文本,再采用文本识别方法识别文本的过程。
主流的文本识别方法为基于卷积神经网络(Convolutional Neural Networks,CNN)的长短期记忆网络(Long Short-Term Memory,LSTM),即卷积递归神经网络(Convolution Recurrent Neural Network,CRNN)。CRNN的优点为可以直接使用序列标签学习,不受序列长度约束,包含参数少,以及内存要求小等;CRNN的缺点为算法效果一般,泛化能力较差,以及对于生僻字、形近字、标点符号等识别不准确等。
另一种文本识别方法为基于变换(Transformer)的文本识别,Transformer的优点为位置关联操作不受限,建模能力强,通用性强,可扩展性强,以及能更好的进行并行运算等;Transformer的缺点为局部信息获取不强,位置信息编码存在问题,以及顶层梯度消失等。
CRNN和基于Transformer的文本识别的识别文本准确率均无法满足使用要求,互补CRNN和基于Transformer的文本识别以提高识别文本的准确率是目前急需解决的问题。
发明内容
本申请提供一种基于双通道的文本识别方法、装置、设备及存储介质,用以解决卷积神经网络和基于变换的文本识别的识别文本准确率均无法满足使用要求,互补卷积神经网络和基于变换的文本识别以提高识别文本的准确率的问题。
第一方面,本申请提供一种基于双通道的文本识别方法,包括:
获取双通道模型的长短期记忆网络通道输出的第一字符串,以及双通道模型的变换通道输出的第二字符串,第一字符串包括多个第一字符,以及每个第一字符对应的第一字符得分,第二字符串包括多个第二字符,以及每个第二字符对应的第二字符得分,字符得分用于指示字符的准确率;
获取差异字符的占比,差异字符是根据第一字符串和第二字符串中相同位置的字符是否相同确定的;
若差异字符的占比小于预设阈值,则逐一对比第一字符得分和对应的第二字符得分,将字符得分高的字符作为第三字符;
输出多个第三字符组成的第三字符串。
在一种可能的设计中,获取差异字符的占比,包括:
获取差异字符;
根据第一字符串和第二字符串,确定总字符数量;
根据总字符数量和差异字符的字符数量,确定差异字符的占比。
在一种可能的设计中,获取差异字符,包括:
若第一字符串中的第一目标字符与第二字符串中的第二目标字符不同,则将第一目标字符和第二目标字符作为差异字符,第一目标字符和第二目标字符在各自的字符串中位置相同。
在一种可能的设计中,获取差异字符的占比之前,还包括:
若第一字符的数量与第二字符的数量不同,则根据第一字符串和第二字符串,确定缺失字符的位置,缺失字符是根据第一字符的位置和相应的第二字符的位置是否相同确定的;
将缺失字符的位置对应的字符设置为空字符,并将空字符对应的字符得分设置为零。
在一种可能的设计中,该方法还包括:
若差异字符的占比不小于预设阈值,则根据多个第一字符得分和多个第二字符得分,确定第一字符串的第一字符平均得分,以及第二字符串的第二字符平均得分;
根据第一字符平均得分和第二字符平均得分,确定第三字符串,第三字符串为第一字符串和第二字符串中字符平均得分高的字符串。
在一种可能的设计中,获取双通道模型的长短期记忆网络通道输出的第一字符串,以及双通道模型的变换通道输出的第二字符串,包括:
处理预置的识别图片,得到第一特征序列;
将第一特征序列同时发送至长短期记忆网络通道和变换通道,得到长短期记忆网络通道输出的第一字符串,以及变换通道输出的第二字符串。
在一种可能的设计中,获取双通道模型的长短期记忆网络通道输出的第一字符串,以及双通道模型的变换通道输出的第二字符串之前,该方法还包括:
构建双通道模型,获取预设的双通道模型参数,并根据双通道模型参数处理预置的训练图片,得到第二特征序列,双通道模型包括长短期记忆网络通道和变换通道;
将第二特征序列同时发送至长短期记忆网络通道和变换通道,得到长短期记忆网络通道输出的归一化指数损失函数,以及变换通道输出的连续时序分类损失函数;
根据归一化指数损失函数和连续时序分类损失函数,确定联合损失函数;
根据联合损失函数调整双通道模型参数,以进行双通道模型的迭代训练,直到迭代次数达到预设的最大迭代次数。
第二方面,本申请提供一种基于双通道的文本识别装置,包括:
获取模块,用于获取双通道模型的长短期记忆网络通道输出的第一字符串,以及双通道模型的变换通道输出的第二字符串,第一字符串包括多个第一字符,以及每个第一字符对应的第一字符得分,第二字符串包括多个第二字符,以及每个第二字符对应的第二字符得分,字符得分用于指示字符的准确率;
获取模块,还用于获取差异字符的占比,差异字符是根据第一字符串和第二字符串中相同位置的字符是否相同确定的;
对比模块,用于若差异字符占比小于预设阈值,则逐一对比第一字符得分和对应的第二字符得分,将字符得分高的字符作为第三字符;
输出模块,用于输出多个第三字符组成的第三字符串。
第三方面,本申请提供一种电子设备,包括:处理器,以及与处理器通信连接的存储器;
存储器存储计算机执行指令;
处理器执行存储器存储的计算机执行指令,以实现一种基于双通道的文本识别方法。
第四方面,本申请提供一种计算机可读存储介质,计算机可读存储介质中存储有计算机执行指令,计算机执行指令被处理器执行时用于实现一种基于双通道的文本识别方法。
第五方面,本申请提供一种计算机程序产品,包括计算机程序,计算机程序被处理器执行时用于实现一种基于双通道的文本识别方法。
本申请提供的一种基于双通道的文本识别方法、装置、设备及存储介质,根据字符得分互补长短期记忆网络通道输出的第一字符串和变换通道输出的第二字符串,确定字符得分更高的第三字符串,实现了如下技术效果:互补卷积神经网络和基于变换的文本识别,提高了识别文本的准确率;通过字符得分指示字符的准确率,以便于第一字符和第二字符的对比,并确定第三字符;在第一字符的数量与第二字符的数量相同,且差异字符的占比小于预设阈值时,确定字符得分高的字符作为第三字符,提高了每个字符的字符得分,进而提高了识别文本的准确率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的基于双通道的文本识别方法的系统架构示意图;
图2为本申请实施例提供的基于双通道的文本识别方法的应用场景框架图;
图3为本申请实施例提供的基于双通道的文本识别方法的流程示意图一;
图4为本申请实施例提供的基于双通道的文本识别方法的流程示意图二;
图5为本申请实施例提供的缺失字符补充的原理示意图一;
图6为本申请实施例提供的字符对比的原理示意图二;
图7为本申请实施例提供的基于双通道的文本识别方法的流程示意图三;
图8为本申请实施例提供的基于双通道的文本识别装置的结构示意图;
图9为本申请实施例提供的电子设备硬件的结构示意图。
附图标记:
11-载体;12-光学设备;13-服务器主机;
20-基于双通道的文本识别装置;21-获取模块;22-对比模块;23-输出模块;
30-电子设备;31-处理器;32-存储器;33-通信部件;34-总线。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
在本申请的实施例中,采用了“第一”、“第二”等字样对功能和作用基本相同的相同项或相似项进行区分。例如,第一芯片和第二芯片仅仅是为了区分不同的芯片,并不对其先后顺序进行限定。本领域技术人员可以理解“第一”、“第二”等字样并不对数量和执行次序进行限定,并且“第一”、“第二”等字样也并不限定一定不同。需要说明的是,本申请实施例中,“示例性的”或者“例如”等词用于表示作例子、例证或说明。本申请中被描述为“示例性的”或者“例如”的任何实施例或设计方案不应被解释为比其他实施例或设计方案更优选或更具优势。确切而言,使用“示例性的”或者“例如”等词旨在以具体方式呈现相关概念。本申请实施例中,“至少一个”是指一个或者多个,“多个”是指两个或两个以上。
本申请所涉及的用户信息(包括但不限于用户设备信息、用户个人信息等)和数据(包括但不限于用于分析的数据、存储的数据、展示的数据等),均为经用户授权或者经过各方充分授权的信息和数据,并且相关数据的收集、使用和处理需要遵守相关法律法规和标准,并提供有相应的操作入口,供用户选择授权或者拒绝。
需要说明的是,本申请实施例中的“在……时”,可以为在某种情况发生的瞬时,也可以为在某种情况发生后的一段时间内,本申请实施例对此不作具体限定。此外,本申请实施例提供的基于双通道的文本识别仅作为示例,基于双通道的文本识别还可以包括更多或更少的内容。
为了便于清楚描述本申请实施例的技术方案,以下,对本申请实施例中所涉及的部分术语和技术进行简单介绍:
卷积神经网络(Convolutional Neural Networks,CNN):是指一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks),是深度学习(deeplearning)的代表算法之一。
长短期记忆网络(Long Short-Term Memory,LSTM):是指一种时间循环神经网络,是为了解决一般的循环神经网络(Recurrent Neural Network,RNN)存在的长期依赖问题而专门设计出来的,所有的RNN都具有一种重复神经网络模块的链式形式。
变换(Transformer):是指一个利用注意力机制来提高模型训练速度的模型。Transformer可以说是完全基于自注意力机制的一个深度学习模型,因为它适用于并行化计算,和它本身模型的复杂程度导致它在精度和性能上都要高于之前流行的RNN循环神经网络。
归一化指数损失函数(Softmax loss):是由Softmax和交叉熵(cross-entropyloss)loss组合而成,在图像分类和分割任务中都被广泛使用。
连续时序分类损失函数(Ctc loss):是一种解码方式,用来将激活函数的输出矩阵转换为序列。
特征序列(Feature Sequence):特征序列中的每一个特征向量是从特征图中从左向右排列的。
特征图(Feature Maps):是指一个二维图片。在输入层(Input Layer),灰度图片由一个特征图组成,彩色图片由三个特征图(红绿蓝)组成。
主流的文本识别方法为基于CNN的LSTM,即CRNN,另一种文本识别方法为基于Transformer的文本识别。这两种文字识别方法均能识别图片上的文本,输出字符串。
在自建测试集上,测试发现CRNN输出的字符串测试集准确率为95.6%,基于Transformer的文本识别输出的字符串测试集准确率为96.4%。使用这两种文字识别方法输出的字符串,可能会出现一个或多个字符识别错误或识别缺失的情况;还可能会出现大多数字符识别错误,导致字符串不可用的情况。
在识别图片相同时,CRNN输出的字符串的内容,与基于Transformer的文本识别输出的字符串的内容大抵相同,并且,缺失的字符大抵也不在同一字符位置。因此,分别从CRNN输出的字符串和基于Transformer的文本识别输出的字符串中,获取相同位置准确度更高的字符,将这些字符组成新的字符串,并输出该字符串,可以提高识别文本的准确率。
基于此,本申请实施例提供一种基于双通道的文本识别方法、装置、设备及存储介质,可用于机器学习技术领域,旨在解决现有技术的如上技术问题。在本申请实施例中,根据字符得分互补长短期记忆网络通道输出的第一字符串和变换通道输出的第二字符串,确定字符得分更高的第三字符串,提高了识别文本的准确率。
图1为本申请实施例提供的基于双通道的文本识别方法的系统架构示意图。需要注意的是,图1所示仅为可以应用本申请实施例的系统架构的示例,以帮助本领域技术人员理解本申请的技术内容,但并不意味着本申请实施例不可以用于其他设备、系统、环境或场景。
如图1所示,该方法所在的系统架构包括载体11、光学设备12和服务器主机13。载体11上记载有文本,光学设备12将载体11上文本所在的区域导出为识别图片发送至服务器主机13,服务器主机13处理识别图片,识别并输出载体11上记载的文本。光学设备12通过各种方式获取载体11上记载的文本,例如扫描、拍摄或截屏等;光学设备12和服务器主机13之间可以包括各种连接类型,例如有线或无线通信链路等等。
在本申请实施例中,载体11可以是各种文本载体,包括但不限于纸张和屏幕等。纸张或屏幕上记载有文本,文本以字符串的形式展示。字符串由多个字符组成,字符的类型包括但不仅限于文字符、英文字符、数字字符和其他美国信息交换标准代码(AmericanStandard Code for Information Interchange,ASCⅡ)字符等。字符的字体、间距和顺序等字符的类型之外的参数,本实施例不进行限定。
光学设备12可以是各种光学字符识别设备,包括但不限于扫描仪、数码相机、个人电脑等。扫描仪通过扫描方式,或数码相机通过拍摄方式获取纸张上记载的文本,个人电脑通过截屏方式获取屏幕上记载的文本,之后将之导出为图片格式,发送给服务器主机13,图片格式包括但不限于JPG格式、PNG格式和IMG格式等。
服务器主机13可以是训练、运行双通道模型,输出字符串的服务器(仅为示例)。服务器可以获取识别图片,根据识别图片进行文本识别,并输出识别文本;还可以在数据库随机获取训练图片,根据训练图片进行双通道模型的训练,数据库可以搭载在本地服务器,也可以搭载在外部服务器上。
例如,纸张上记载有文本,通过扫描仪扫描纸张后,扫描到纸张上文本所在的区域,并导出为IMG格式的识别图片,随后扫描仪将识别图片发送给服务器;服务器运行双通道模型以处理识别图片,输出字符串,字符串的内容即纸张上记载的文本的内容。
图2为本申请实施例提供的基于双通道的文本识别方法的应用场景框架图。如图2所示,光学字符识别设备(如光学设备12)获取文本载体(如载体11)上记载的文本,导出为IMG格式的识别图片,并将识别图片发送给服务器(如服务器主机13)。
服务器运行双通道模型,处理该识别图片,得到识别图片对应的第一特征序列,将第一特征序列发送至双通道模型的LSTM通道,得到LSTM通道输出的第一字符串CSLSTM;同时将特征序列发送至双通道模型的Transformer通道,得到Transformer通道输出的第二字符串CSTr。
第一字符串CSLSTM包括j1个第一字符CHLSTM,以及每个第一字符CHLSTM对应的字符得分FRLSTM,第i个第一字符CHLSTM-i对应的第i个第一字符得分为FRLSTM-i;第二字符串CSTr包括j2个第二字符CHTr,以及每个第二字符CHTr对应的字符得分FRTr,第i个第二字符CHTr-i对应的第i个第二字符得分为FRTr-i;其中,i、j1和j2均为正整数,i≤j1,i≤j2。
或者,服务器(如服务器主机13)从数据库随机获取训练图片,处理该训练图片,得到训练图片对应的第二特征序列,将第二特征序列发送至双通道模型的LSTM通道,得到LSTM通道输出的Softmax loss;同时将特征序列发送至双通道模型的Transformer通道,得到Transformer通道输出的Ctc loss。并根据Softmax loss和Ctc loss确定联合损失函数,调整卷积神经网络参数,以进而进行双通道模型的迭代训练,直到迭代次数达到预设的最大迭代次数。
下面以具体地实施例对本申请的技术方案以及本申请的技术方案如何解决上述技术问题进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。
图3为本申请实施例提供的基于双通道的文本识别方法的流程示意图一。如图3所示,该方法包括:
S101、获取双通道模型的长短期记忆网络通道输出的第一字符串,以及双通道模型的变换通道输出的第二字符串;
具体来说,双通道模型包括LSTM通道和Transformer通道,LSTM通道是CRNN文本识别时输出识别文本的通道,Transformer通道是基于Transformer的文本识别时输出识别文本的通道。由于识别图片相同,因此第一字符串CSLSTM的内容与第二字符串CSTr的内容相同。但是由于识别准确率的原因,第一字符串CSLSTM的内容与第二字符串CSTr的内容可能不相同,因此需要获取第i个第一字符CHLSTM-i对应的字符得分FRLSTM-i和第i个第二字符CHTr-i对应的字符得分FRTr-i,以互补第一字符串CSLSTM和第二字符串CSTr。
S102、获取差异字符的占比;
具体来说,差异字符是根据第一字符串和第二字符串中相同位置的字符是否相同确定的。第一字符串CSLSTM和第二字符串CSTr中,相同位置的第一字符CHLSTM和第二字符CHTr不同时,将该第一字符CHLSTM和第二字符CHTr作为差异字符,字符串中不同位置上均有可能存在一组差异字符。因此,可以理解的是,当j1不等于j2时,无法获取到准确的差异字符的占比。
S103、若差异字符的占比小于预设阈值,则逐一对比第一字符得分和对应的第二字符得分,将字符得分高的字符作为第三字符;
具体来说,若差异字符的占比小于预设阈值,说明第一字符串和第二字符串内容偏差不大,两个字符串均可用,可以通过字符得分对比确定输出的字符。字符得分对比过程中,从第一个字符开始对比,直至所有的字符都完成对比。若j1=j2=j,则得到j个第三字符CHOUT,其中第i个字符得分对比的流程为:
首先,获取第i个第一字符CHLSTM-i对应的第i个第一字符得分FRLSTM-i,以及第i个第二字符CHTr-i对应的第i个第二字符得分FRTr-i。
其次,对比第i个第一字符得分FRLSTM-i和第i个第二字符得分FRTr-i;
若FRLSTM-i>FRTr-i,则将第i个第一字符CHLSTM-i作为第i个第三字符CHOUT-i;
若FRLSTM-i<FRTr-i,则将第i个第二字符CHTr-i作为第i个第三字符CHOUT-i;
若FRLSTM-i=FRTr-i,则第i个第一字符CHLSTM-i和第i个第二字符CHTr-i均可以作为第i个第三字符CHOUT-i。
S104、输出多个第三字符组成的第三字符串;
具体来说,字符得分对比完成后,得到顺序排列的j个第三字符CHOUT:CHOUT-1、CHOUT-2、...、CHOUT-i、...CHOUT-j,将j个第三字符CHOUT组成第三字符串CSOUT,输出第三字符串CSOUT。第三字符串CSOUT是由字符得分高的字符组成的,因此,第三字符串CSOUT的准确率大于第一字符串CSLSTM的准确率和第二字符串CSTr的准确率。
本实施例提供的一种基于双通道的文本识别方法,根据字符得分互补长短期记忆网络通道输出的第一字符串和变换通道输出的第二字符串,确定字符得分更高的第三字符串,实现了如下技术效果:互补卷积神经网络和基于变换的文本识别,提高了识别文本的准确率;通过字符得分指示字符的准确率,以便于第一字符和第二字符的对比,并确定第三字符;在第一字符的数量与第二字符的数量相同,且差异字符的占比小于预设阈值时,确定字符得分高的字符作为第三字符,提高了每个字符的字符得分,进而提高了识别文本的准确率。
图4为本申请实施例提供的基于双通道的文本识别方法的流程示意图二。如图4所示,本实施例在图3实施例的基础上,对一种基于双通道的文本识别方法进行详细说明,本实施例提供的一种基于双通道的文本识别方法,包括:
S201、处理预置的识别图片,得到第一特征序列;
具体来说,获取光学字符识别设备发送的识别图片,该识别图片是光学字符识别设备处理文本载体上的识别文本后导出的。将识别图片统一尺寸,并将识别图片加载到网络的网络层执行卷积操作、池化操作和批归一化操作等操作,以不断地进行特征提起,得到第一特征序列。
S202、将第一特征序列同时发送至长短期记忆网络通道和变换通道,得到长短期记忆网络通道输出的第一字符串,以及变换通道输出的第二字符串;
具体来说,将第一特征序列发送至LSTM通道,LSTM通道输出第一字符串CSLSTM;同时将第一特征序列发送至Transformer通道,Transformer通道输出的第二字符串CSTr。
第一字符串CSLSTM包括j1个第一字符CHLSTM,以及每个第一字符CHLSTM对应的字符得分FRLSTM,第i个第一字符CHLSTM-i对应的第i个第一字符得分为FRLSTM-i;第二字符串CSTr包括j2个第二字符CHTr,以及每个第二字符CHTr对应的字符得分FRTr,第i个第二字符CHTr-i对应的第i个第二字符得分为FRTr-i。
S203、判断第一字符的数量与第二字符的数量是否相同;
若否,说明存在缺失字符,需要在缺失字符的位置填充空字符,因此执行S204;
若是,说明不存在缺失字符,可以直接根据字符得分确定第三字符,因此执行S206。
S204、根据第一字符串和第二字符串,确定缺失字符的位置;
具体来说,若j1≠j2,则无法获取到准确的差异字符的占比。需要确定缺失字符的位置,并在缺失字符的位置填充字符,使j1=j2=j,以获取准确的差异字符的占比。
缺失字符是根据第一字符的位置和相应的第二字符的位置是否相同确定的。通常情况下,通过编程语言确定两个字符串中的缺失字符,主流的编程语言均可执行此操作。
S205、将缺失字符的位置对应的字符设置为空字符,并将空字符对应的字符得分设置为零;
具体来说,确定了缺失字符的位置后,将缺失字符的位置对应的字符设置为空字符,确保了j1=j2。同时,将空字符对应的字符得分设置为零,这是因为空字符肯定不是识别文本中的内容,若设置为零之外的数值,会影响第三字符串的准确率。
下面将通过一个例子对本实施例进行解释。
图5为本申请实施例提供的缺失字符补充的原理示意图一。如图5所示:
第一字符串CSLSTM的内容为‘文字别’;
CHLSTM-1为‘文’,FRLSTM-1为‘0.8’;
CHLSTM-2为‘字’,FRLSTM-2为‘0.9’;
CHLSTM-3为‘别’,FRLSTM-3为‘0.9’;
第二字符串CSTr的内容为‘文字识别’;
CHTr-1为‘文’,FRTr-1i为‘0.9’;
CHTr-2为‘字’,FRTr-2为‘0.8’;
CHTr-3为‘识’,FRTr-3为‘0.9’;
CHTr-4为‘别’,FRTr-4为‘0.9’;
使用Python中diff库判断出CHLSTM-2和CHLSTM-3中间缺失字符,故在CHLSTM-2和CHLSTM-3之间插入第一字符串的第一个缺失字符CHLSTM-La1,将CHLSTM-La1设置为‘null’,并将CHLSTM-La1对应的第一字符串的第一个缺失字符得分FRLSTM-La1设置为‘0’。
设置完成后,第一字符串CSLSTM的内容变更为‘文字_别’
CHLSTM-1为‘文’,FRLSTM-1为‘0.8’;
CHLSTM-2为‘字’,FRLSTM-2为‘0.9’;
CHLSTM-La1为‘null’,FRLSTM-La1为‘0’;
CHLSTM-3为‘别’,FRLSTM-3为‘0.9’。
S206、判断第一字符串中的第一目标字符与第二字符串中的第二目标字符是否相同;
若是,说明第一目标字符和第二目标字符不是差异字符,将下一个第一字符作为第一目标字符,并将下一个第二字符作为第二目标字符,即执行S208;
若否,说明第一目标字符和第二目标字符是差异字符,则执行S207;
S207、将第一目标字符和第二目标字符作为差异字符;
具体来说,第一目标字符和第二目标字符在各自的字符串中位置相同。因此,将第i个第一字符CHLSTM-i作为第一目标字符,并将第i个第二字符CHTr-i作为作为第二目标字符,判断CHLSTM-i和CHTr-i是否相同;若相同,不将CHLSTM-i和CHTr-i作为差异字符;若不同,将CHLSTM-i作为差异字符CHDLSTM-i,并将CHTr-i作为差异字符CHDTr-i。
S208、更换目标字符,直到所有位置的字符均完成对比;
具体来说,首先将第一个第一字符作为第一目标字符,并将第一个第二字符作为第二目标字符,进行目标字符的对比;对比完成后,将下一个第一字符作为第一目标字符,并将下一个第二字符作为第二目标字符,直到所有第一字符均作为过第一目标字符,且所有第二字符均作为过第二目标字符。
S209、根据第一字符串和第二字符串,确定总字符数量;
具体来说,从i=1开始判断,直到i=j为止,得到了k个差异字符CHD,其中,k为偶数,kmin=0,kmax=2j。
S210、根据总字符数量和差异字符的字符数量,确定差异字符的占比;
具体来说,第一字符串CSLSTM的第一字符CHLSTM的数量为j1=j,第二字符串CSTr的第二字符CHTr的数量为j2=j,因此总字符数量为2j。
差异字符CHD的字符数量为k,差异字符占比
PID=j/k*100%。
当kmin=0时,差异字符占比PID=0;当kmax=2j时,差异字符占比为PID=1。
S211、判断差异字符的占比是否小于预设阈值;
若是,则通过逐一对比第一字符得分和对应的第二字符得分,确定第三字符,即执行S212;
若否,则通过对比第一字符平均得分和第二字符平均得分,确定第三字符串,即执行S213。
S212、逐一对比第一字符得分和对应的第二字符得分,将字符得分高的字符作为第三字符;
S212与S103的类似,本实施例不再赘述字符对比的原理。
下面将通过一个例子对本实施例进行解释。
图6为本申请实施例提供的字符对比的原理示意图二。如图6所示:
第一字符串CSLSTM的内容为‘文字炽别’
CHLSTM-1为‘文’,FRLSTM-1为‘0.8’;
CHLSTM-2为‘字’,FRLSTM-2为‘0.9’;
CHLSTM-3为‘炽’,FRLSTM-3为‘0.4’;
CHLSTM-4为‘别’,FRLSTM-4为‘0.9’;
第二字符串CSTr的内容为‘文字识别’;
CHTr-1为‘文’,FRTr-1为‘0.9’;
CHTr-2为‘字’,FRTr-2为‘0.8’;
CHTr-3为‘识’,FRTr-3为‘0.9’;
CHTr-4为‘别’,FRTr-4为‘0.9’。
设定预设阈值为50%。
第一字符串CSLSTM和第二字符串CSTr中,差异字符CHD的字符数量k=2,总字符数量为8,差异字符占比PID=j/k*100%=25%,小于预设阈值的50%。因此对比FRLSTM-i和FRTr-i,将字符得分高的字符作为第三字符。
FRLSTM-1<FRTr-1,因此将CHTr-1作为CHOUT-1,CHOUT-1为‘文’;
FRLSTM-2>FRTr-2,因此将CHLSTM-2作为CHOUT-2,CHOUT-2为‘字’;
FRLSTM-3<FRTr-3,因此将CHTr-3作为CHOUT-3,CHOUT-3为‘识’;
FRLSTM-4=FRTr-4,因此将CHLSTM-4作为CHOUT-1,CHOUT-1为‘别’;
第三字符串CSOUT的内容为‘文字识别’。
执行完S212之后,继续执行S215。
S213、根据多个第一字符得分和多个第二字符得分,确定第一字符串的第一字符平均得分,以及第二字符串的第二字符平均得分;
具体来说,差异字符的占比不小于预设阈值时,说明第一字符串和第二字符串内容偏差过大,准确率小的字符串可能不可用。因此通过对比两个字符串的字符平均得分,确定第三字符串。
S214、根据第一字符平均得分和第二字符平均得分,确定第三字符串;
具体来说,字符平均得分高的字符串更准确,因此直接将该字符串作为第三字符串。
下面将通过一个例子对本实施例进行解释。如图6所示:
第一字符串CSLSTM的内容为‘文字炽别’
CHLSTM-1为‘文’,FRLSTM-1为‘0.8’;
CHLSTM-2为‘字’,FRLSTM-2为‘0.9’;
CHLSTM-3为‘炽’,FRLSTM-3为‘0.4’;
CHLSTM-4为‘别’,FRLSTM-4为‘0.9’;
第二字符串CSTr的内容为‘文字识别’;
CHTr-1为‘文’,FRTr-1为‘0.9’;
CHTr-2为‘字’,FRTr-2为‘0.8’;
CHTr-3为‘识’,FRTr-3为‘0.9’;
CHTr-4为‘别’,FRTr-4为‘0.9’。
设定预设阈值为20%。
第一字符串CSLSTM和第二字符串CSTr中,差异字符CHD的字符数量k=2,总字符数量为8,差异字符占比PID=j/k*100%=25%,不小于预设阈值的20%。因此对比第一字符串CSLSTM的第一字符平均得分FRavLSTM和第二字符串CSTr的第二字符平均得分FRavTr。
FRavLSTM<FRavTr,则将第二字符串CSTr作为第三字符串CSOUT,第三字符串CSOUT的内容为‘文字识别’。
S215、输出多个第三字符组成的第三字符串;
具体来说,在自建测试集上,测试发现双通道模型输出的字符串测试集准确率为97.2%,高于CRNN输出的字符串95.6%的测试集准确率,以及基于Transformer的文本识别输出的字符串96.4的测试集准确率。基于双通道的文本识别方法,可以有效的提升识别文本的准确率。
在一种可能的设计中,进行文本识别之前,会对双通道模型进行迭代训练。
图7为本申请实施例提供的基于双通道的文本识别方法的流程示意图三。如图7所示,该方法还包括:
S301、构建双通道模型,获取预设的双通道模型参数,并根据双通道模型参数处理预置的训练图片,得到第二特征序列;
具体来说,模型训练时,会将大量的训练数据送到神经网络中。训练过程是监督学习的过程,神经网络依赖于每次识别的结果计算损失函数,根据损失函数确定修正系数,并反向传递修正系数,以调整模型参数。为了尽可能的提升识别准确率,在训练过程中引入LSTM通道和Transformer通道组成的双通道模型联合训练并计算联合损失函数以优化模型参数。
构建双通道模型后,初始化双通道模型参数,在卷积层加载预设的双通道模型参数,其中双通道模型参数包括学习率和最大迭代次数。
S301中获取第二特征序列的原理与S201的类似,本实施例不再赘述。
S302、将第二特征序列同时发送至长短期记忆网络通道和变换通道,得到长短期记忆网络通道输出的归一化指数损失函数,以及变换通道输出的连续时序分类损失函数;
S302与S202的类似,本实施例不再赘述。
S303、根据归一化指数损失函数和连续时序分类损失函数,确定联合损失函数;
具体来说,LSTM通道输出归一化指数损失函数Lsm,Transformer通道输出连续时序分类损失函数Lctc。将两个损失函数相加,得到联合损失函数Lsum,即Lctc=Lsm+Lctc。
S304、根据联合损失函数调整双通道模型参数;
具体来说,得到新的联合损失函数后,根据联合损失函数确定修正系数,以确定新的双通道模型参数。在卷积层、池化层和批归一化层反向调整双通道模型参数后,完成本次迭代训练,开始下一次迭代训练,直到迭代次数达到预设的最大迭代次数。
本实施例提供的一种基于双通道的文本识别方法,根据字符得分互补长短期记忆网络通道输出的第一字符串和变换通道输出的第二字符串,确定字符得分更高的第三字符串,实现了如下技术效果:互补卷积神经网络和基于变换的文本识别,提高了识别文本的准确率;通过字符得分指示字符的准确率,以便于第一字符和第二字符的对比,并确定第三字符;在第一字符的数量与第二字符的数量相同时,且差异字符的占比小于预设阈值时,确定字符得分高的字符作为第三字符,提高了每个字符的字符得分,进而提高了识别文本的准确率;在第一字符的数量与第二字符的数量相同,且差异字符的占比不小于预设阈值时,确定字符平均得分高的自渡船作为第三字符串,避免了准确率过低的字符串不可用的情况;在第一字符的数量与第二字符的数量不同时,将缺失字符的位置对应的字符设置为空字符,并将空字符对应的字符得分设置为零,避免了字符缺失导致无法获取到准确差异字符的占比的问题;通过归一化指数损失函数和连续时序分类损失函数确定联合损失函数,以调整双通道模型参数,进行双通道模型的迭代训练,提高了双通道模型文本识别的准确率。
本发明实施例可以根据上述方法示例对电子设备或主控设备进行功能模块的划分,例如,可以对应各个功能划分各个功能模块,也可以将两个或两个以上的功能集成在一个处理单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。需要说明的是,本发明实施例中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
图8为本申请实施例提供的基于双通道的文本识别装置的结构示意图。如图8所示,本申请实施例提供的一种基于双通道的文本识别装置20,包括:获取模块21、对比模块22和输出模块23。
获取模块21,用于获取双通道模型的长短期记忆网络通道输出的第一字符串,以及双通道模型的变换通道输出的第二字符串,第一字符串包括多个第一字符,以及每个第一字符对应的第一字符得分,第二字符串包括多个第二字符,以及每个第二字符对应的第二字符得分,字符得分用于指示字符的准确率;
获取模块21,还用于获取差异字符的占比,差异字符是根据第一字符串和第二字符串中相同位置的字符是否相同确定的;
对比模块22,用于若差异字符占比小于预设阈值,则逐一对比第一字符得分和对应的第二字符得分,将字符得分高的字符作为第三字符;
输出模块23,用于输出多个第三字符组成的第三字符串。
在一种可能的设计中,获取模块21包括:第一确定模块和第二确定模块;
获取模块,用于获取差异字符;
第一确定模块,用于根据第一字符串和第二字符串,确定总字符数量;
第二确定模块,用于根据总字符数量和差异字符的字符数量,确定差异字符的占比。
在一种可能的设计中,获取模块21,用于若第一字符串中的第一目标字符与第二字符串中的第二目标字符不同,则将第一目标字符和第二目标字符作为差异字符,第一目标字符和第二目标字符在各自的字符串中位置相同。
在一种可能的设计中,基于双通道的文本识别装置20还包括:第三确定模块和设置模块;
第二确定模块,用于若第一字符的数量与第二字符的数量不同,则根据第一字符串和第二字符串,确定缺失字符的位置,缺失字符是根据第一字符的位置和相应的第二字符的位置是否相同确定的;
设置模块,用于将缺失字符的位置对应的字符设置为空字符,并将空字符对应的字符得分设置为零。
在一种可能的设计中,第三确定模块,用于若差异字符的占比不小于预设阈值,则根据多个第一字符得分和多个第二字符得分,确定第一字符串的第一字符平均得分,以及第二字符串的第二字符平均得分;
对比模块22,用于根据第一字符平均得分和第二字符平均得分,确定第三字符串,第三字符串为第一字符串和第二字符串中字符平均得分高的字符串。
在一种可能的设计中,基于双通道的文本识别装置20还包括:处理模块和传输模块;
处理模块,用于处理预置的识别图片,得到第一特征序列;
传输模块,用于将第一特征序列同时发送至长短期记忆网络通道和变换通道,得到长短期记忆网络通道输出的第一字符串,以及变换通道输出的第二字符串。
在一种可能的设计中,基于双通道的文本识别装置20还包括:第四确定模块和调整模块;
处理模块,用于构建双通道模型,获取预设的双通道模型参数,并根据双通道模型参数处理预置的训练图片,得到第二特征序列,双通道模型包括长短期记忆网络通道和变换通道;
传输模块,用于将第二特征序列同时发送至长短期记忆网络通道和变换通道,得到长短期记忆网络通道输出的归一化指数损失函数,以及变换通道输出的连续时序分类损失函数;
第四确定模块,用于根据归一化指数损失函数和连续时序分类损失函数,确定联合损失函数;
调整模块,用于根据联合损失函数调整双通道模型参数,以进行双通道模型的迭代训练,直到迭代次数达到预设的最大迭代次数。
本实施例提供的一种基于双通道的文本识别装置,可执行上述实施例的一种基于双通道的文本识别方法,其实现原理和技术效果类似,本实施例此处不再赘述。
在前述的一种基于双通道的文本识别方法的具体实现中,各模块可以被实现为处理器,处理器可以执行存储器中存储的计算机执行指令,使得处理器执行上述一种基于双通道的文本识别方法。
图9为本申请实施例提供的电子设备硬件的结构示意图。如图9所示,该电子设备30包括:至少一个处理器31和存储器32。该电子设备30还包括通信部件33。其中,处理器31、存储器32以及通信部件33通过总线34连接。
在具体实现过程中,至少一个处理器31执行存储器32存储的计算机执行指令,使得至少一个处理器31执行如上电子设备侧所执行的一种基于双通道的文本识别方法。
处理器31的具体实现过程可参见上述方法实施例,其实现原理和技术效果类似,本实施例此处不再赘述。
在上述实施例中,应理解,处理器可以是中央处理单元(英文:CentralProcessing Unit,简称:CPU),还可以是其他通用处理器、数字信号处理器(英文:DigitalSignal Processor,简称:DSP)、专用集成电路(英文:Application Specific IntegratedCircuit,简称:ASIC)等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合发明所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。
存储器可能包含高速RAM存储器,也可能还包括非易失性存储NVM,例如至少一个磁盘存储器。
总线可以是工业标准体系结构(Industry Standard Architecture,ISA)总线、外部设备互连(Peripheral Component,PCI)总线或扩展工业标准体系结构(ExtendedIndustry Standard Architecture,EISA)总线等。总线可以分为地址总线、数据总线、控制总线等。为便于表示,本申请附图中的总线并不限定仅有一根总线或一种类型的总线。
上述针对电子设备以及主控设备所实现的功能,对本发明实施例提供的方案进行了介绍。可以理解的是,电子设备或主控设备为了实现上述功能,其包含了执行各个功能相应的硬件结构和/或软件模块。结合本发明实施例中所公开的实施例描述的各示例的单元及算法步骤,本发明实施例能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。本领域技术人员可以对每个特定的应用来使用不同的方法来实现所描述的功能,但是这种实现不应认为超出本发明实施例的技术方案的范围。
本申请还提供一种计算机可读存储介质,计算机可读存储介质中存储有计算机执行指令,当处理器执行计算机执行指令时,实现如上一种基于双通道的文本识别方法。
上述的计算机可读存储介质,上述可读存储介质可以是由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。可读存储介质可以是通用或专用计算机能够存取的任何可用介质。
一种示例性的可读存储介质耦合至处理器,从而使处理器能够从该可读存储介质读取信息,且可向该可读存储介质写入信息。当然,可读存储介质也可以是处理器的组成部分。处理器和可读存储介质可以位于专用集成电路(Application Specific IntegratedCircuits,简称:ASIC)中。当然,处理器和可读存储介质也可以作为分立组件存在于电子设备或主控设备中。
本申请还提供了一种计算机程序产品,计算机程序产品包括:计算机程序,计算机程序存储在可读存储介质中,电子设备的至少一个处理器可以从可读存储介质读取计算机程序,至少一个处理器执行计算机程序使得电子设备执行上述任一实施例提供的方案。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成。前述的程序可以存储于一计算机可读取存储介质中。该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
至此,已经结合附图所示的优选实施方式描述了本申请的技术方案,但是,本领域技术人员容易理解的是,本申请的保护范围显然不局限于这些具体实施方式,以上各实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述各实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的范围。
Claims (10)
1.一种基于双通道的文本识别方法,其特征在于,所述方法,包括:
获取双通道模型的长短期记忆网络通道输出的第一字符串,以及所述双通道模型的变换通道输出的第二字符串,所述第一字符串包括多个第一字符,以及每个第一字符对应的第一字符得分,所述第二字符串包括多个第二字符,以及每个第二字符对应的第二字符得分,所述字符得分用于指示字符的准确率;
获取差异字符的占比,所述差异字符是根据所述第一字符串和所述第二字符串中相同位置的字符是否相同确定的;
若所述差异字符的占比小于预设阈值,则逐一对比所述第一字符得分和对应的所述第二字符得分,将字符得分高的字符作为第三字符;
输出多个第三字符组成的第三字符串。
2.根据权利要求1所述的方法,其特征在于,所述获取差异字符的占比,包括:
获取差异字符;
根据所述第一字符串和所述第二字符串,确定总字符数量;
根据所述总字符数量和所述差异字符的字符数量,确定所述差异字符的占比。
3.根据权利要求2所述的方法,其特征在于,所述获取差异字符,包括:
若所述第一字符串中的第一目标字符与所述第二字符串中的第二目标字符不同,则将所述第一目标字符和所述第二目标字符作为差异字符,所述第一目标字符和所述第二目标字符在各自的字符串中位置相同。
4.根据权利要求1-3任一项所述的方法,其特征在于,所述获取差异字符的占比之前,还包括:
若所述第一字符的数量与所述第二字符的数量不同,则根据所述第一字符串和所述第二字符串,确定缺失字符的位置,所述缺失字符是根据所述第一字符的位置和相应的所述第二字符的位置是否相同确定的;
将所述缺失字符的位置对应的字符设置为空字符,并将所述空字符对应的字符得分设置为零。
5.根据权利要求4所述的方法,其特征在于,所述方法还包括:
若所述差异字符的占比不小于所述预设阈值,则根据多个第一字符得分和多个第二字符得分,确定第一字符串的第一字符平均得分,以及第二字符串的第二字符平均得分;
根据所述第一字符平均得分和所述第二字符平均得分,确定第三字符串,所述第三字符串为所述第一字符串和第二字符串中字符平均得分高的字符串。
6.根据权利要求1所述的方法,其特征在于,所述获取双通道模型的长短期记忆网络通道输出的第一字符串,以及所述双通道模型的变换通道输出的第二字符串,包括:
处理预置的识别图片,得到第一特征序列;
将所述第一特征序列同时发送至所述长短期记忆网络通道和所述变换通道,得到所述长短期记忆网络通道输出的第一字符串,以及所述变换通道输出的第二字符串。
7.根据权利要求1所述的方法,其特征在于,所述获取双通道模型的长短期记忆网络通道输出的第一字符串,以及所述双通道模型的变换通道输出的第二字符串之前,所述方法还包括:
构建双通道模型,获取预设的双通道模型参数,并根据所述双通道模型参数处理预置的训练图片,得到第二特征序列,所述双通道模型包括所述长短期记忆网络通道和所述变换通道;
将所述第二特征序列同时发送至所述长短期记忆网络通道和所述变换通道,得到所述长短期记忆网络通道输出的归一化指数损失函数,以及所述变换通道输出的连续时序分类损失函数;
根据所述归一化指数损失函数和所述连续时序分类损失函数,确定联合损失函数;
根据所述联合损失函数调整所述双通道模型参数,以进行双通道模型的迭代训练,直到迭代次数达到预设的最大迭代次数。
8.一种基于双通道的文本识别装置,其特征在于,包括:
获取模块,用于获取双通道模型的长短期记忆网络通道输出的第一字符串,以及所述双通道模型的变换通道输出的第二字符串,所述第一字符串包括多个第一字符,以及每个第一字符对应的第一字符得分,所述第二字符串包括多个第二字符,以及每个第二字符对应的第二字符得分,所述字符得分用于指示字符的准确率;
获取模块,还用于获取差异字符的占比,所述差异字符是根据所述第一字符串和所述第二字符串中相同位置的字符是否相同确定的;
对比模块,用于若所述差异字符占比小于预设阈值,则逐一对比所述第一字符得分和对应的所述第二字符得分,将字符得分高的字符作为第三字符;
输出模块,用于输出多个第三字符组成的第三字符串。
9.一种电子设备,其特征在于,包括:处理器,以及与所述处理器通信连接的存储器;
所述存储器存储计算机执行指令;
所述处理器执行所述存储器存储的计算机执行指令,以实现如权利要求1至7任一项所述的一种基于双通道的文本识别方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机执行指令,所述计算机执行指令被处理器执行时用于实现如权利要求1至7任一项所述的一种基于双通道的文本识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310531143.4A CN116563854A (zh) | 2023-05-11 | 2023-05-11 | 基于双通道的文本识别方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310531143.4A CN116563854A (zh) | 2023-05-11 | 2023-05-11 | 基于双通道的文本识别方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116563854A true CN116563854A (zh) | 2023-08-08 |
Family
ID=87496029
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310531143.4A Pending CN116563854A (zh) | 2023-05-11 | 2023-05-11 | 基于双通道的文本识别方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116563854A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117077085A (zh) * | 2023-10-17 | 2023-11-17 | 中国科学技术大学 | 大模型结合双路记忆的多模态有害社交媒体内容识别方法 |
-
2023
- 2023-05-11 CN CN202310531143.4A patent/CN116563854A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117077085A (zh) * | 2023-10-17 | 2023-11-17 | 中国科学技术大学 | 大模型结合双路记忆的多模态有害社交媒体内容识别方法 |
CN117077085B (zh) * | 2023-10-17 | 2024-02-09 | 中国科学技术大学 | 大模型结合双路记忆的多模态有害社交媒体内容识别方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200364478A1 (en) | Method and apparatus for liveness detection, device, and storage medium | |
WO2022017245A1 (zh) | 一种文本识别网络、神经网络训练的方法以及相关设备 | |
WO2020119301A1 (zh) | 二维码识别方法、装置及设备 | |
CN113591546B (zh) | 语义增强型场景文本识别方法及装置 | |
CN108229591B (zh) | 神经网络自适应训练方法和装置、设备、程序和存储介质 | |
US20230086552A1 (en) | Image processing method and apparatus, device, storage medium, and computer program product | |
CN114066902A (zh) | 一种基于卷积和transformer融合的医学图像分割方法、系统、装置 | |
CN109829453A (zh) | 一种卡证中文字的识别方法、装置以及计算设备 | |
CN110232326B (zh) | 一种三维物体识别方法、装置及存储介质 | |
US11734341B2 (en) | Information processing method, related device, and computer storage medium | |
TWI803243B (zh) | 圖像擴增方法、電腦設備及儲存介質 | |
CN111104941B (zh) | 图像方向纠正方法、装置及电子设备 | |
CN113033305B (zh) | 活体检测方法、装置、终端设备和存储介质 | |
CN116563854A (zh) | 基于双通道的文本识别方法、装置、设备及存储介质 | |
US12118702B2 (en) | Artificial intelligence architectures for determining image authenticity | |
WO2022126917A1 (zh) | 基于深度学习的人脸图像评估方法、装置、设备及介质 | |
CN111783767A (zh) | 文字识别方法、装置、电子设备及存储介质 | |
CN110348025A (zh) | 一种基于字形的翻译方法、装置、存储介质及电子设备 | |
CN115862040A (zh) | 文本纠错方法、装置、计算机设备及可读存储介质 | |
CN111062927A (zh) | 一种无人机图像质量检测的方法、系统及设备 | |
CN115619729A (zh) | 人脸图像质量评估方法、装置及电子设备 | |
JP6926279B1 (ja) | 学習装置、認識装置、学習方法、認識方法、プログラム、及び再帰型ニューラルネットワーク | |
CN112288748B (zh) | 一种语义分割网络训练、图像语义分割方法及装置 | |
CN114118412A (zh) | 证件识别模型训练及证件识别的方法、系统、设备及介质 | |
CN112287932B (zh) | 一种确定图像质量的方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |