CN114998881A - 深度学习模型的训练方法、文本识别方法、装置和设备 - Google Patents
深度学习模型的训练方法、文本识别方法、装置和设备 Download PDFInfo
- Publication number
- CN114998881A CN114998881A CN202210596310.9A CN202210596310A CN114998881A CN 114998881 A CN114998881 A CN 114998881A CN 202210596310 A CN202210596310 A CN 202210596310A CN 114998881 A CN114998881 A CN 114998881A
- Authority
- CN
- China
- Prior art keywords
- text
- decoding
- module
- determining
- sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013136 deep learning model Methods 0.000 title claims abstract description 83
- 238000000034 method Methods 0.000 title claims abstract description 76
- 238000012549 training Methods 0.000 title claims abstract description 46
- 239000013598 vector Substances 0.000 claims description 24
- 238000004590 computer program Methods 0.000 claims description 11
- 238000012545 processing Methods 0.000 abstract description 10
- 238000012015 optical character recognition Methods 0.000 abstract description 6
- 238000013135 deep learning Methods 0.000 abstract description 4
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 21
- 238000004891 communication Methods 0.000 description 10
- 230000000694 effects Effects 0.000 description 10
- 238000000605 extraction Methods 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000005452 bending Methods 0.000 description 2
- 238000013145 classification model Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/19173—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/24—Character recognition characterised by the processing or recognition method
- G06V30/242—Division of the character sequences into groups prior to recognition; Selection of dictionaries
- G06V30/246—Division of the character sequences into groups prior to recognition; Selection of dictionaries using linguistic properties, e.g. specific for English or German language
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Character Discrimination (AREA)
Abstract
本公开提供了一种深度学习模型的训练方法,涉及人工智能技术领域,尤其涉及深度学习、图像处理和计算机视觉技术领域,可应用于OCR等场景。具体实现方案为:获取样本图像,其中,样本图像设置有标签,标签指示样本图像中的文本信息以及文本信息的语种信息;将样本图像输入到深度学习模型,得到针对多个解码分支的文本识别结果,其中,多个解码分支与多个语种各自对应;根据标签指示的语种信息,从多个解码分支的文本识别结果中确定目标文本识别结果;以及根据标签指示的文本信息与目标文本识别结果之间的差异,调整深度学习模型的参数。本公开还提供了一种文本识别方法、装置、电子设备和存储介质。
Description
技术领域
本公开涉及人工智能技术领域,尤其涉及深度学习、图像处理和计算机视觉技术领域,可应用于OCR等场景。更具体地,本公开提供了一种深度学习模型的训练方法、文本识别方法、装置、电子设备和存储介质。
背景技术
自然场景中的图像可以包含多语种文本信息。例如,一个图像中可以包含英语、西班牙语、俄语等多语种文本信息,或者,多个图像中各自包含一个语种的文本信息。在图像中的文本语种未知,或者包含多语种的情况下,文本识别成为难点。
发明内容
本公开提供了一种深度学习模型的训练方法、文本识别方法、装置、电子设备和存储介质。
根据第一方面,提供了一种深度学习模型的训练方法,该方法包括:获取样本图像,其中,样本图像设置有标签,标签指示样本图像中的文本信息以及文本信息的语种信息;将样本图像输入到深度学习模型,得到针对多个解码分支的文本识别结果,其中,多个解码分支与多个语种各自对应;根据标签指示的语种信息,从多个解码分支的文本识别结果中确定目标文本识别结果;以及根据标签指示的文本信息与目标文本识别结果之间的差异,调整深度学习模型的参数。
根据第二方面,提供了一种文本识别方法,该方法包括:获取待识别图像,待识别图像包括待识别文本;将待识别图像输入到深度学习模型,得到针对多个解码分支的文本序列,其中,文本序列包括至少一个字符以及至少一个字符各自的概率;以及根据概率,从多个解码分支的文本序列中确定目标文本序列,作为待识别文本的识别结果;其中,深度学习模型是根据上述深度学习模型的训练方法训练得到的。
根据第三方面,提供了一种深度学习模型的训练装置,该装置包括:第一获取模块,用于获取样本图像,其中,样本图像设置有标签,标签指示样本图像中的文本信息以及文本信息的语种信息;第一识别模块,用于将样本图像输入到深度学习模型,得到针对多个解码分支的文本识别结果,其中,多个解码分支与多个语种各自对应;第一确定模块,用于根据标签指示的语种信息,从多个解码分支的文本识别结果中确定目标文本识别结果;以及调整模块,用于根据标签指示的文本信息与目标文本识别结果之间的差异,调整深度学习模型的参数。
根据第四方面,提供了一种文本识别装置,该装置包括:第二获取模块,用于获取待识别图像,待识别图像包括待识别文本;第二识别模块,用于将待识别图像输入到深度学习模型,得到针对多个解码分支的文本序列,其中,文本序列包括至少一个字符以及至少一个字符各自的概率;以及第二确定模块,用于根据概率,从多个解码分支的文本序列中确定目标文本序列,作为待识别文本的识别结果;其中,深度学习模型是根据上述深度学习模型的训练装置训练得到的。
根据第五方面,提供了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行根据本公开提供的方法。
根据第六方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,该计算机指令用于使计算机执行根据本公开提供的方法。
根据第七方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据本公开提供的方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开的一个实施例的可以应用深度学习模型的训练方法以及文本识别方法的示例性系统架构示意图;
图2是根据本公开的一个实施例的深度学习模型的训练方法的流程图;
图3是根据本公开的一个实施例的深度学习模型的训练方法的原理图;
图4是根据本公开的一个实施例的基于全字典进行分类和识别的方法的流程图;
图5A~5D是根据本公开的一个实施例的样本图像的示意图;
图6A是根据本公开的一个实施例的文本识别方法的流程图;
图6B是根据本公开的另一个实施例的文本识别方法的流程图;
图7是根据本公开的一个实施例的深度学习模型的训练装置的框图;
图8是根据本公开的一个实施例的文本识别装置的框图;
图9是根据本公开的一个实施例的深度学习模型的训练方法和/或文本识别方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
OCR(Optical Character Recognition,光学字符识别)是一种可以将图像信息转换为更易编辑和存储的文本信息的技术。文本识别是OCR的一个子任务,其任务目标为识别一个固定区域中的文本内容。例如,针对包含文本信息的图像,可以将图像中包含文本信息的目标区域作为前景区域,除目标区域外的其他区域作为图像的背景区域,文本识别的目标即是识别出图像前景区域中的文本内容。
自然场景中的图像可以包含多语种文本信息,不同语种的字符特征既对立又统一。对立性在于例如英文字母a和法语字母à等相似字母需要被区分开。统一性在于例如法语、意大利语等也包含英文字母a等,且印欧语系的字符排列顺序都为左右顺序。
针对图像中的文本语种未知,或者包含多语种的情况下的文本识别,可以采取语种分类模型联合多个文本识别模型的方式来实现,多个文本识别模型是对应多个语种设置的。例如,待识别图像先经过语种分类模型,识别出待识别图像中包含的文本的语种信息,再根据识别出的语种信息,选择对应语种的文本识别模型进行文本识别。但是,由于语种种类繁多,随着支持语种数量的增加,所需文本识别模型的个数和计算资源也随之增加。并且印欧语系的相似字符较多,以法语、意大利为例,文本行字母可能全是英文字母,或只有少数法语、意大利语的独有字母,很难从视觉上与英文区分开。语种分类错误会串接错误语种的文本识别模型,影响最终的识别精度。
针对图像中的文本语种未知,或者包含多语种的情况下的文本识别,还可以使用混合语种的语料,基于统一的模型结构,来训练多语种混合识别模型。多语种混合识别模型可以直接预测出不同语种的字符,但是,印欧语系相似字符较多,形近字符的识别会互相干扰。并且使用多语种语料混合训练,每个语种独有的字母成为低频字母,造成识别更加困难。
本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
在本公开的技术方案中,在获取或采集用户个人信息之前,均获取了用户的授权或同意。
图1是根据本公开一个实施例的可以应用深度学习模型的训练方法以及文本识别方法的示例性系统架构示意图。需要注意的是,图1所示仅为可以应用本公开实施例的系统架构的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他设备、系统、环境或场景。
如图1所示,根据该实施例的系统架构100可以包括多个终端设备101、网络102和服务器103。网络102用以在终端设备101和服务器103之间提供通信链路的介质。网络102可以包括各种连接类型,例如有线和/或无线通信链路等等。
用户可以使用终端设备101通过网络102与服务器103进行交互,以接收或发送消息等。终端设备101可以是各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机等等。
本公开实施例所提供的深度学习模型的训练方法以及文本识别方法中的至少之一一般可以由服务器103执行。相应地,本公开实施例所提供的深度学习模型的训练装置以及文本识别装置一般可以设置于服务器103中。本公开实施例所提供的深度学习模型的训练方法以及文本识别方法也可以由不同于服务器103且能够与终端设备101和/或服务器103通信的服务器或服务器集群执行。相应地,本公开实施例所提供的深度学习模型的训练装置以及文本识别装置也可以设置于不同于服务器103且能够与终端设备101和/或服务器103通信的服务器或服务器集群中。
图2是根据本公开的一个实施例的深度学习模型的训练方法的流程图。
如图2所示,该深度学习模型的训练方法200可以包括操作S210~操作S240。
在操作S210,获取样本图像。
例如,样本图像可以是深度学习模型的训练数据,训练数据中的样本图像可以包含多个语种的文本信息。例如,不同样本图像可以包含彼此不同语种的文本信息,同一样本图像也可以包含多语种文本信息。
样本图像的标签可以包括样本图像中的文本信息以及文本信息所属于的语种信息。例如,样本图像A包含文本信息“你好吗”,样本图像A的标签包括文本信息“你好吗”以及语种信息“汉语”。样本图像B包含文本信息“spring”,样本图像B的标签包括文本信息“spring”以及语种信息“英语”。
例如,样本图像可以包含小语种文本信息(例如,西班牙语、葡萄牙语、意大利语、土耳其语等等),也可以包含常规语种文本信息(例如英语、汉语等)。可以将包含小语种文本信息的样本图像称为小语种样本图像,将包含除小语种外的其他语种文本信息的样本图像称为常规语种样本图像。
需要说明的是,本公开对样本图像的划分方式不做限制,例如,样本图像的划分还可以依据汉语、藏语、蒙语等语种类型进行划分,以上划分方式仅为示例,可以依据实际应用场景进行调整。
在训练数据中,小语种样本图像的占比一般较常规语种样本图像的占比小,如果单独使用小语种样本图像进行针对小语种文本识别的训练,模型性能可能会较差。
因此,本公开实施例可以将小语种样本图像和常规语种样本图像一起作为训练数据,基于小语种字符与常规语种字符之间的相似性,增强小语种样本的前景区域与背景区域的区分,从而提高文本识别精度。
在操作S220,将样本图像输入到深度学习模型,得到针对多个解码分支的文本识别结果。
其中,多个解码分支与多个语种各自对应。例如,多个语种可以包括英语、汉语、西班牙语、葡萄牙语、意大利语、土耳其语等18个语种,可以对样本图像的文本信息进行针对上述18个语种分支的文本识别,得到18个文本识别结果。
针对样本图像中的文本信息,可以通过多个解码分支分别进行针对不同语种的单独解码,能够减少不同语种之间的混合干扰,达到了对不同语种的文本隔离解码的效果。
在操作S230,根据标签指示的语种信息,从多个解码分支的文本识别结果中确定目标文本识别结果。
例如,上述多个解码分支是针对不同语种分别进行文本识别的,得到的多个文本识别结果一般不同。例如,针对样本图像A,样本图像A的标签包括文本信息“你好吗”以及语种信息“汉语”。将样本图像A输入到深度学习网络,第一解码分支对应英语语种,可以输出“你好吗e”,第二解码分支对应汉语语种,可以输出“你好吗E”,第三解码分支对应法语语种,可以输出“你好吗à”,......,等等。
例如,样本图像A的标签包含语种信息“汉语”,多个解码分支中,第二解码分支对应汉语,被确定为目标解码分支,第二解码分支输出的“你好吗E”被确定为目标文本识别结果。
在操作S240,根据标签指示的文本信息与目标文本识别结果之间的差异,调整深度学习模型的参数。
例如,可以计算目标文本识别结果“你好吗E”与标签中的文本信息“你好吗”之间的均方差或交叉熵等误差,作为深度学习模型的损失。根据深度学习模型的损失来调整深度学习网络的参数。
本公开的实施例通过针对多个解码分支分别进行不同语种的文本识别训练,使得深度学习模型能够针对多语种文本信息进行识别。
例如,深度学习模型的结构可以包括编码模块以及与多个解码分支各自对应的多个解码分支模块,多个解码分支的文本识别结果是由多个解码分支模块各自对应输出的。样本图像输入到深度学习模型的编码模块,编码模块通过对样本图像进行编码,得到针对样本图像中的文本信息的文本特征序列。将文本特征序列传输给各个解码分支模块,各个解码分支模块分别进行针对各自对应语种的解码操作,得到针对各自对应语种的文本识别结果。
例如,基于上述深度学习模型的结构,上述操作S230具体可以包括:根据样本图像的标签指示的语种信息,从多个解码分支模块中确定目标解码分支模块;以及确定目标解码分支模块输出的文本识别结果,作为目标文本识别结果。
例如,样本图像可以包括小语种样本图像和常规语种样本图像,小语种样本图像可以为包含小语种文本信息的样本图像,常规语种样本图像可以为包含除小语种外的其他语种文本信息的样本图像。上述操作S220具体可以包括:将小语种样本图像和常规语种样本图像输入到编码模块进行编码,得到混合文本特征序列;以及将混合文本特征序列输入到多个解码分支模块进行解码,得到针对多个解码分支的文本识别结果。
上述操作S240具体可以包括:根据样本图像的标签指示的文本信息与目标文本识别结果之间的差异,调整深度学习模型中的编码模块以及目标解码分支模块的参数。
下面参考图3,结合具体例子对本公开提供的深度学习模型的训练方法进行详细说明。
图3是根据本公开的一个实施例的深度学习模型的训练方法的原理图。
如图3所示,实施例300包括深度学习模型,深度学习模型可以包括编码模块310以及与多个解码分支各自对应的多个解码分支模块320。
例如,编码模块310可以包括CNN(Convolutional Neural Networks,卷积神经网络)子模块和EAM(External-Attention,外部注意力机制)子模块。其中,CNN子模块用于对样本图像进行特征提取,例如,样本图像301输入到CNN子模块,得到多个特征图。EAM子模块基于外部注意力机制,相较于自注意力机制引入了外部记忆单元,相较于自注意力机制仅计算同一个样本图像所有位置的特征之间的关系,EAM子模块通过计算输入样本图像的特征与外部记忆单元存储的其他样本图像的特征之间的关系,来确定不同样本图像的特征之间的关系,进而提高特征提取的效果。例如,多个样本图像301的特征图输入到EAM子模块,得到多个样本图像301的文本特征序列311。
例如,样本图像301可以包括小语种样本图像和常规语种样本图像,小语种样本图像和常规语种样本图像一起作为训练数据输入到编码模块310,经CNN子模块和EAM子模块的特征提取,可以得到混合语种的文本特征序列311(简称为混合文本特征序列311)。例如,混合文本特征序列311可以包括针对小语种样本的文本特征序列(小语种文本特征序列),以及包括针对常规语种样本的文本特征序列(常规语种文本特征序列)。
由于小语种样本图像中的小语种文本字符和常规语种样本图像中的常规语种文本字符之间具有共性,通过EAM子模块学习二者之间的相似性关系,可以增强低频出现的小语种文本字符的特征提取,提高小语种文本的识别精度。
如图3所示,多个解码分支模块320可以包括第一解码分支模块320_1、第二解码分支模块320_2、......、第N解码分支模块320_N,其中,N可以为大于2的整数,例如,N=18。
例如,多个解码分支模块320各自对应多个语种,分别用于针对各自对应的语种进行文本识别。为实现多个解码分支模块320分别针对不同语种进行文本识别的效果,多个解码分支模块320可以是各自以输出对应语种的文本为目标进行训练的。例如,第一解码分支模块320_1可以对应英语语种,第一解码分支模块320_1可以是以输出英文文本为目标进行训练的,第二解码分支模块320_2可以对应汉语语种,第二解码分支模块320_2可以是以输出中文文本为目标进行训练的,......,等等。
混合文本特征序列311传输到多个解码分支模块320,多个解码分支模块320各自输出文本识别结果。例如,样本图像301可以包括小语种样本图像和常规语种样本图像,样本图像301输入到编码模块310,得到混合文本特征序列311,混合文本特征序列311包括小语种文本特征序列和常规语种文本特征序列。混合文本特征序列311输入到多个解码分支模块320,针对混合文本特征序列311中的常规语种文本特征序列,第一解码分支模块320_1进行针对英语语种的分类和识别,得到第一文本识别结果;第二解码分支模块320_2进行针对汉语语种的分类和识别,得到第二文本识别结果;......;等等。在上述前向计算过程中,每个解码分支模块均参与计算。
为达到多个解码分支模块320各自以输出对应语种的文本为目标进行训练的目的,在参数反传时,可以根据标签中的语种信息,确定对应语种的解码分支模块作为目标解码分支模块,计算标签中的文本信息与目标解码分支模块输出的文本识别结果之间的差异,作为目标解码分支模块的损失,且使用目标解码分支模块的损失仅用来调整编码模块310和目标解码分支模块的参数。
例如,样本图像301包含的常规语种样本图像的标签为“英语”和“spring”。可以确定对应英语语种的第一解码分支模块320_1为目标解码分支模块,计算第一解码分支模块320_1的第一识别结果(例如“spoing”)与“spring”之间的均方差或交叉熵等误差,作为第一解码分支模块320_1的损失,可以称为第一损失32_1,根据第一损失32_1调整编码模块310和第一解码分支模块320_1的参数。
利用第一损失32_1仅调整编码模块310和第一解码分支模块320_1的参数,可以使得英语语种的样本图像和除英语语种外的其他语种的样本图像共享编码模块310的参数,有利于小语种样本中与英语字符具有相似性的小语种字符的特征提取,提高特征提取效果。并且,能够达到第一解码分支模块320_1以输出英语语种的文本为目标进行训练的效果。
类似地,各对应语种的损失调整对应语种的解码分支模块的参数,达到多个解码分支模块各自以输出对应语种的文本为目标进行训练的效果,能够实现不同语种文本的隔离解码,减少不同语种之间的混合干扰,提高模型的文本识别精度。
每个解码分支模块可以包括FC(Fully Connected,全连接)分类子模块和CTC(Connectionist Temporal Classification,连接时序分类)子模块。
例如,针对混合文本特征序列311中的常规语种文本特征序列,第一解码分支模块320_1中的FC分类子模块基于全字典进行分类,得到全字典分类结果,传输到CTC子模块进行去重和对齐,得到文本识别结果。
其中,全字典为多个语种的预设字符的集合,例如,18个语种各自设置有一个字典,每个语种的字典包括该语种的所有字符的集合,则全字典即是该18个语种的字典的集合,包含了18个语种的所有字符。全字典中字符的类别数即全字典中的字符数。可以用字符的下标表示,例如[你1,好2,吗3,他4,......]。
例如,针对常规语种文本特征序列,FC分类子模块对常规语种文本特征序列进行全字典分类的结果是序列“1233_45......”,传输给CTC子模块进行去重和对齐,得到序列“123_45......”,其中“1”表示全字典中的“你”,“2”代表全字典中的“好”,......,则最终文本识别结果为“你好吗,他是......”。
多个解码分支模块320中每个解码分支模块均基于全字典进行分类和识别,采用全字典而不是各自对应语种的字典的原因是在保证每个解码分支模块对自身对应语种分类的准确性的同时,考虑到自动语种分类的误差,对其他语种的文本识别也有一定兼容性。
图4是根据本公开的一个实施例的基于全字典进行分类和识别的方法的流程图。
如图4所示,该基于全字典进行分类和识别方法包括操作S421~S423。
在操作S421,将混合文本特征序列输入到解码分支模块,得到与n个第一特征各自对应的n个全字典向量。
在操作S422,针对每个第一特征,确定该第一特征属于全字典向量中每个字符的概率,并确定概率最高的字符作为第一特征的识别结果。
在操作S423,确定n个第一特征的识别结果,作为该解码分支模块的文本识别结果。
例如,混合文本特征序列包括n个第一特征,n为大于或等于1的整数。每个第一特征可以识别出一个字符,针对每个第一特征,解码分支模块将该第一特征与全字典中的所有字符进行映射,计算出该第一特征属于每个字符的概率,概率最高的字符即是该第一特征的识别结果,n个第一特征的识别结果组成文本识别结果。
例如,多个解码分支模块作为整个模型的输出,输出的数据维度可以是[multi-head_num,seq_length,num_class],其中,multi-head_num表示解码分支模块的个数。seq_length表示待识别的混合文本特征序列的长度,例如seq_length=n,表示混合文本特征序列包括n个第一特征,每个第一特征可以识别出一个字符。num_class表示全字典中字符数。维度是[multi-head_num,seq_length,num_class]的输出数据可以转换为multi-head_num个维度是[seq_length*num_class]的矩阵,即每一个解码分支模块输出一个维度是[seq_length*num_class]矩阵,该矩阵可以识别出一个文本序列。
例如,针对每个解码分支模块输出的维度是[seq_length*num_class]矩阵,可以转换为n(例如seq_length=n)个维度是[num_class]的向量,即全字典向量,n个全字典向量与n个第一特征各自对应,每个全字典向量可以确定一个字符,即对应第一特征的识别结果。
例如,针对每个解码分支模块,对混合文本序列中的每个第一特征进行全字典映射,确定该第一特征属于全字典中每个字符的概率,所有字符的概率和为1,概率最大的字符即是该第一特征的识别结果,所有第一特征的识别结果组成该解码分支模块的文本识别结果。
本公开实施例基于全字典进行字符的分类和识别,能够对语种分类误差具有一定兼容性。
图5A~5D是根据本公开的一个实施例的样本图像的示意图。
例如,样本图像可以包含多个语种的文本信息。在获得样本图像之后,可以将样本图像中包含文本信息的前景区域截取出来,得到文本行图像,作为上述深度学习模型的训练数据。
例如,可以对文本行图像进行弯曲、模糊、倾斜和光照等数据增强操作,以扩大数据量。如图5A~5D所示,图5A是对文本行图像进行倾斜和光照操作后的效果,图5B是正常的文本行图像,图5C是是对文本行图像进行弯曲操作的效果,图5D是对文本行图像进行弯曲和模糊操作的效果。
本公开实施例对文本行图像进行数据增强操作,能够扩大数据量,提高深度学习模型的识别效果。
图6A是根据本公开的一个实施例的文本识别方法的流程图。
如图6A所示,该文本识别方法600包括操作S601~S603。
在操作S601,获取待识别图像。
其中,待识别图像包括待识别文本。待识别文本可以是已知的指定语种的文本,例如实际应场景中,目标是识别出待识别图像中的中文文本,则指定语种为汉语。
待识别文本也可以是未知语种的文本,例如,待识别图像包含一个或多个未知语种的文本。
在操作S602,将待识别图像输入到深度学习模型,得到针对多个解码分支的文本序列。
例如,深度学习模型是根据上述深度学习模型的训练方法进行训练得到的。包括多个解码分支模块,多个解码分支模块分别进行各自对应语种的文本识别。
例如,多个解码分支的文本序列可以包括针对英语语种的“你好吗e”,针对汉语语种的“你好吗”,以及针对法语语种的“你好吗à”,......,等等。
针对每个解码分支模块输出的文本序列,该解码分支模块还输出该文本序列中每个字符的概率,该概率是解码分支模块基于全字典进行分类得到的。
在操作S603,根据概率,从多个解码分支的文本序列中确定目标文本序列,作为待识别文本的识别结果。
例如,在实际需求是识别指定语种文本的情况下,可以直接从多个文本序列中确定识别结果。例如,指定输出汉语语种的文本序列,则文本序列“你好吗”为待识别图像的文本识别结果。
在语种未知或待识别图像包含多语种文本的情况下,可以计算每个文本序列中所有字符的概率平均值,取平均概率最大的文本序列作为最终的文本识别结果。
例如,针对文本序列“你好吗e”,计算序列中字符“你”、字符“好”、字符“吗”以及字符“e”的概率之和,再求平均,得到文本序列“你好吗e”的平均概率(例如0.5)。类似地,可以得到文本序列“你好吗”的平均概率(例如,0.9),文本序列“你好吗à”的平均概率(例如0.2),......,等等。可以确定平均概率最高的文本序列(例如“你好吗”)为最终识别结果。
本公开实施例通过使用多个解码分支针对不同语种分别进行文本识别,能够减少不同语种之间的混合干扰,提高多语种文本识别的精度。
图6B是根据本公开的另一个实施例的文本识别方法的流程图。
如图6B所示,该文本识别方法包括操作S610~S630。
在操作S610,将待识别图像输入到编码模块,得到待识别图像的文本特征序列。
例如,待识别图像包含文本信息,编码模块对待识别图像进行特征提取,得到多个特征图,根据多个特征图之间的关系,提取出文本特征,得到待识别图像的文本特征序列。
在操作S620,包括操作S621~操作S623。
在操作S621,针对每个解码分支模块,将m个第二特征输入到该解码分支模块,得到与m个第二特征各自对应的m个全字典向量,全字典向量为针对多个语种的预设字符的集合。
在操作S622,针对每个第二特征,确定该第二特征属于全字典向量中每个字符的概率,并确定概率最高的字符作为第二特征的识别结果。
在操作S623,确定m个第二特征的识别结果,作为与该解码分支模块对应的文本序列。
例如,待识别图像的文本特征序列包括m个第二特征,m为大于或等于1的整数。每个第二特征基于全字典分类可以确定出一个字符。
例如,针对每个第二特征,将该第二特征进行全字典映射,计算该第二特征属于全字典中每个字符的概率,所有字符概率和为1。将概率最高的字符作为该第二特征的识别结果。m个第二特征的识别结果即为文本特征序列的文本识别结果。
在操作S630,从多个解码分支的文本序列中确定目标文本序列,作为待识别文本的识别结果。
操作S630的实现方式与操作S603的实现方式类似,这里不再详细描述。
图7是根据本公开的一个实施例的深度学习模型的训练装置的框图。
如图7所示,该深度学习模型的训练装置700包括第一获取模块701、第一识别模块702、第一确定模块703和调整模块704。
第一获取模块701用于获取样本图像,其中,样本图像设置有标签,标签指示样本图像中的文本信息以及文本信息的语种信息。
第一识别模块702用于将样本图像输入到深度学习模型,得到针对多个解码分支的文本识别结果,其中,多个解码分支与多个语种各自对应。
第一确定模块703用于根据标签指示的语种信息,从多个解码分支的文本识别结果中确定目标文本识别结果。
调整模块704用于根据标签指示的文本信息与目标文本识别结果之间的差异,调整深度学习模型的参数。
根据本公开的实施例,深度学习模型包括与多个解码分支各自对应的多个解码分支模块,多个解码分支的文本识别结果是由多个解码分支模块各自对应输出的;第一确定模块703包括第一确定单元和第二确定单元。
第一确定单元用于根据标签指示的语种信息,从多个解码分支模块中确定目标解码分支模块。
第二确定单元,用于确定目标解码分支模块输出的文本识别结果,作为目标文本识别结果。
根据本公开的实施例,调整模块704用于根据标签指示的文本信息与目标文本识别结果之间的差异,调整目标解码分支模块的参数。
根据本公开的实施例,样本图像包括小语种样本图像和常规语种样本图像,小语种样本图像为包含小语种文本信息的样本图像,常规语种样本图像为包含除小语种外的其他语种文本信息的样本图像;深度学习模型还包括编码模块;第一识别模块702包括第一编码单元和第一解码单元。
第一编码单元用于将小语种样本图像和常规语种样本图像输入到编码模块进行编码,得到混合文本特征序列。
第一解码单元用于将混合文本特征序列输入到多个解码分支模块进行解码,得到针对多个解码分支的文本识别结果。
根据本公开的实施例,调整模块704用于根据标签指示的文本信息与目标文本识别结果之间的差异,调整编码模块和目标解码分支模块的参数。
根据本公开的实施例,混合文本特征序列包括n个第一特征,n为大于或等于1的整数;第一识别模块702包括第一识别单元、第二识别单元以及第三识别单元。
第一识别单元用于将混合文本特征序列输入到该解码分支模块进行解码,得到与n个第一特征各自对应的n个全字典向量,全字典向量为针对多个语种的预设字符的集合。
第二识别单元用于针对每个第一特征,确定该第一特征属于全字典向量中每个字符的概率,并确定概率最高的字符作为第一特征的识别结果。
第三识别单元用于确定n个第一特征的识别结果,作为该解码分支模块的文本识别结果。
图8是根据本公开的一个实施例的文本识别装置的框图。
如图8所示,该文本识别800可以包括第二获取模块801、第二识别模块802以及第二确定模块803。
第二获取模块801用于获取待识别图像,待识别图像包括待识别文本。
第二识别模块802用于将待识别图像输入到深度学习模型,得到针对多个解码分支的文本序列,其中,文本序列包括至少一个字符以及至少一个字符各自的概率。
第二确定模块803用于根据概率,从多个解码分支的文本序列中确定目标文本序列,作为待识别文本的识别结果。
其中,深度学习模型是根据上述深度学习模型的训练装置训练得到的。
根据本公开的实施例,多个解码分支与多个语种各自对应,深度学习模型包括编码模块和与多个解码分支各自对应的多个解码分支模块。第二识别模块802包括第二编码单元和第二解码单元。第二编码单元例如可以执行上文参考图6B描述的操作S610,第二解码单元例如可以执行上文参考图6B描述的操作S620,在此不再赘述。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图9示出了可以用来实施本公开的实施例的示例电子设备900的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图9所示,设备900包括计算单元901,其可以根据存储在只读存储器(ROM)902中的计算机程序或者从存储单元908加载到随机访问存储器(RAM)903中的计算机程序,来执行各种适当的动作和处理。在RAM 903中,还可存储设备900操作所需的各种程序和数据。计算单元901、ROM 902以及RAM 903通过总线904彼此相连。输入/输出(I/O)接口905也连接至总线904。
设备900中的多个部件连接至I/O接口905,包括:输入单元906,例如键盘、鼠标等;输出单元907,例如各种类型的显示器、扬声器等;存储单元908,例如磁盘、光盘等;以及通信单元909,例如网卡、调制解调器、无线通信收发机等。通信单元909允许设备900通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元901可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元901的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元901执行上文所描述的各个方法和处理,例如深度学习模型的训练方法和/或文本识别方法。例如,在一些实施例中,深度学习模型的训练方法和/或文本识别方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元908。在一些实施例中,计算机程序的部分或者全部可以经由ROM 902和/或通信单元909而被载入和/或安装到设备900上。当计算机程序加载到RAM 903并由计算单元901执行时,可以执行上文描述的深度学习模型的训练方法和/或文本识别方法的一个或多个步骤。备选地,在其他实施例中,计算单元901可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行深度学习模型的训练方法和/或文本识别方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (21)
1.一种深度学习模型的训练方法,包括:
获取样本图像,其中,所述样本图像设置有标签,所述标签指示所述样本图像中的文本信息以及所述文本信息的语种信息;
将所述样本图像输入到深度学习模型,得到针对多个解码分支的文本识别结果,其中,所述多个解码分支与多个语种各自对应;
根据所述标签指示的语种信息,从所述多个解码分支的文本识别结果中确定目标文本识别结果;以及
根据所述标签指示的文本信息与所述目标文本识别结果之间的差异,调整所述深度学习模型的参数。
2.根据权利要求1所述的方法,其中,所述深度学习模型包括与所述多个解码分支各自对应的多个解码分支模块,所述多个解码分支的文本识别结果是由所述多个解码分支模块各自对应输出的;
所述根据所述标签指示的语种信息,从所述多个解码分支的文本识别结果中确定目标文本识别结果包括:
根据所述标签指示的语种信息,从所述多个解码分支模块中确定目标解码分支模块;以及
确定所述目标解码分支模块输出的文本识别结果,作为所述目标文本识别结果;
所述根据所述标签指示的文本信息与所述目标文本识别结果之间的差异,调整所述深度学习模型的参数包括:
根据所述标签指示的文本信息与所述目标文本识别结果之间的差异,调整所述目标解码分支模块的参数。
3.根据权利要求2所述的方法,其中,所述样本图像包括小语种样本图像和常规语种样本图像,所述小语种样本图像为包含小语种文本信息的样本图像,所述常规语种样本图像为包含除小语种外的其他语种文本信息的样本图像;所述深度学习模型还包括编码模块;
所述将所述样本图像输入到深度学习模型,得到针对多个解码分支的文本识别结果包括:
将所述小语种样本图像和常规语种样本图像输入到所述编码模块进行编码,得到混合文本特征序列;以及
将所述混合文本特征序列输入到所述多个解码分支模块进行解码,得到所述针对多个解码分支的文本识别结果。
4.根据权利要求3所述的方法,其中,所述根据所述标签指示的文本信息与所述目标文本识别结果之间的差异,调整所述深度学习模型的参数包括:
根据所述标签指示的文本信息与所述目标文本识别结果之间的差异,调整所述编码模块和所述目标解码分支模块的参数。
5.根据权利要求3所述的方法,其中,所述混合文本特征序列包括n个第一特征,n为大于或等于1的整数;所述将所述混合文本特征序列输入到所述多个解码分支模块进行解码,得到所述针对多个解码分支的文本识别结果包括:针对每个解码分支模块,
将所述混合文本特征序列输入到该解码分支模块进行解码,得到与n个第一特征各自对应的n个全字典向量,所述全字典向量为针对所述多个语种的预设字符的集合;
针对每个第一特征,确定该第一特征属于所述全字典向量中每个字符的概率,并确定概率最高的字符作为所述第一特征的识别结果;以及
确定所述n个第一特征的识别结果,作为该解码分支模块的文本识别结果。
6.一种文本识别方法,包括:
获取待识别图像,所述待识别图像包括待识别文本;
将所述待识别图像输入到深度学习模型,得到针对多个解码分支的文本序列,其中,所述文本序列包括至少一个字符以及所述至少一个字符各自的概率;以及
根据所述概率,从所述多个解码分支的文本序列中确定目标文本序列,作为所述待识别文本的识别结果;
其中,所述深度学习模型是根据权利要求1至5中任一项所述的方法训练的。
7.根据权利要求6所述的方法,其中,所述多个解码分支与多个语种各自对应,所述深度学习模型包括编码模块和与所述多个解码分支各自对应的多个解码分支模块;所述将所述待识别图像输入到深度学习模型,得到针对多个解码分支的文本序列包括:
将所述待识别图像输入到编码模块进行编码,得到所述待识别图像的文本特征序列,所述待识别图像的文本特征序列包括m个第二特征,m为大于或等于1的整数;
针对每个解码分支模块,
将所述m个第二特征输入到该解码分支模块进行解码,得到与所述m个第二特征各自对应的m个全字典向量,所述全字典向量为针对所述多个语种的预设字符的集合;
针对每个第二特征,确定该第二特征属于所述全字典向量中每个字符的概率,并确定概率最高的字符作为所述第二特征的识别结果;以及
确定所述m个第二特征的识别结果,作为与该解码分支模块对应的文本序列。
8.根据权利要求6所述的方法,其中,所述多个解码分支与多个语种各自对应;所述方法还包括:
从所述多个语种中确定目标语种信息;以及
根据所述目标语种信息,从所述针对多个解码分支的文本序列中确定目标文本序列,作为所述待识别文本的识别结果。
9.根据权利要求6所述的方法,其中,所述根据所述概率,从所述针对多个解码分支的文本序列中确定目标文本序列,作为所述待识别文本的识别结果包括:
针对每个文本序列,确定该文本序列中的至少一个字符的平均概率,作为所述文本序列的概率;
确定概率最高的文本序列,作为所述待识别文本的识别结果。
10.一种深度学习模型的训练装置,包括:
第一获取模块,用于获取样本图像,其中,所述样本图像设置有标签,所述标签指示所述样本图像中的文本信息以及所述文本信息的语种信息;
第一识别模块,用于将所述样本图像输入到深度学习模型,得到针对多个解码分支的文本识别结果,其中,所述多个解码分支与多个语种各自对应;
第一确定模块,用于根据所述标签指示的语种信息,从所述多个解码分支的文本识别结果中确定目标文本识别结果;以及
调整模块,用于根据所述标签指示的文本信息与所述目标文本识别结果之间的差异,调整所述深度学习模型的参数。
11.根据权利要求10所述的装置,其中,所述深度学习模型包括与所述多个解码分支各自对应的多个解码分支模块,所述多个解码分支的文本识别结果是由所述多个解码分支模块各自对应输出的;所述第一确定模块包括:
第一确定单元,用于根据所述标签指示的语种信息,从所述多个解码分支模块中确定目标解码分支模块;以及
第二确定单元,用于确定所述目标解码分支模块输出的文本识别结果,作为所述目标文本识别结果;
所述调整模块,用于根据所述标签指示的文本信息与所述目标文本识别结果之间的差异,调整所述目标解码分支模块的参数。
12.根据权利要求11所述的装置,其中,其中,所述样本图像包括小语种样本图像和常规语种样本图像,所述小语种样本图像为包含小语种文本信息的样本图像,所述常规语种样本图像为包含除小语种外的其他语种文本信息的样本图像;所述深度学习模型还包括编码模块;所述第一识别模块包括:
第一编码单元,用于将所述小语种样本图像和常规语种样本图像输入到所述编码模块进行编码,得到混合文本特征序列;以及
第一解码单元,用于将所述混合文本特征序列输入到所述多个解码分支模块进行解码,得到所述针对多个解码分支的文本识别结果。
13.根据权利要求12所述的装置,其中,所述调整模块,用于根据所述标签指示的文本信息与所述目标文本识别结果之间的差异,调整所述编码模块和所述目标解码分支模块的参数。
14.根据权利要求12所述的装置,其中,所述混合文本特征序列包括n个第一特征,n为大于或等于1的整数;所述第一识别模块包括:
第一识别单元,用于针对每个解码分支模块,将所述混合文本特征序列输入到该解码分支模块进行解码,得到与n个第一特征各自对应的n个全字典向量,所述全字典向量为针对所述多个语种的预设字符的集合;
第二识别单元,用于针对每个第一特征,确定该第一特征属于所述全字典向量中每个字符的概率,并确定概率最高的字符作为所述第一特征的识别结果;以及
第三识别单元,用于确定所述n个第一特征的识别结果,作为该解码分支模块的文本识别结果。
15.一种文本识别装置,包括:
第二获取模块,用于获取待识别图像,所述待识别图像包括待识别文本;
第二识别模块,用于将所述待识别图像输入到深度学习模型,得到针对多个解码分支的文本序列,其中,所述文本序列包括至少一个字符以及所述至少一个字符各自的概率;以及
第二确定模块,用于根据所述概率,从所述多个解码分支的文本序列中确定目标文本序列,作为所述待识别文本的识别结果;
其中,所述深度学习模型是根据权利要求10至14中任一项所述的装置训练的。
16.根据权利要求15所述的装置,其中,所述多个解码分支与多个语种各自对应,所述深度学习模型包括编码模块和与所述多个解码分支各自对应的多个解码分支模块;所述第二识别模块包括:
第二编码单元,用于将所述待识别图像输入到编码模块进行编码,得到所述待识别图像的文本特征序列,所述待识别图像的文本特征序列包括m个第二特征,m为大于或等于1的整数;
第二解码单元,用于针对每个解码分支模块,将所述m个第二特征输入到该解码分支模块进行解码,得到与所述m个第二特征各自对应的m个全字典向量,所述全字典向量为针对所述多个语种的预设字符的集合;针对每个第二特征,确定该第二特征属于所述全字典向量中每个字符的概率,并确定概率最高的字符作为所述第二特征的识别结果;以及确定所述m个第二特征的识别结果,作为与该解码分支模块对应的文本序列。
17.根据权利要求15所述的装置,其中,所述多个解码分支与多个语种各自对应;所述装置还包括:
第三确定模块,用于从所述多个语种中确定目标语种信息;以及
第四确定模块,用于根据所述目标语种信息,从所述针对多个解码分支的文本序列中确定目标文本序列,作为所述待识别文本的识别结果。
18.根据权利要求15所述的装置,其中,所述第二确定模块包括:
第三确定单元,用于针对每个文本序列,确定该文本序列中的至少一个字符的平均概率,作为所述文本序列的概率;
第四确定单元,用于确定概率最高的文本序列,作为所述待识别文本的识别结果。
19.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1至9中任一项所述的方法。
20.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1至9中任一项所述的方法。
21.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1至9中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210596310.9A CN114998881B (zh) | 2022-05-27 | 2022-05-27 | 深度学习模型的训练方法、文本识别方法、装置和设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210596310.9A CN114998881B (zh) | 2022-05-27 | 2022-05-27 | 深度学习模型的训练方法、文本识别方法、装置和设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114998881A true CN114998881A (zh) | 2022-09-02 |
CN114998881B CN114998881B (zh) | 2023-11-07 |
Family
ID=83028538
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210596310.9A Active CN114998881B (zh) | 2022-05-27 | 2022-05-27 | 深度学习模型的训练方法、文本识别方法、装置和设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114998881B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115690793A (zh) * | 2023-01-03 | 2023-02-03 | 北京百度网讯科技有限公司 | 文字识别模型及其识别方法、装置、设备和介质 |
CN116012650A (zh) * | 2023-01-03 | 2023-04-25 | 北京百度网讯科技有限公司 | 文字识别模型训练及其识别方法、装置、设备和介质 |
CN116050465A (zh) * | 2023-02-09 | 2023-05-02 | 北京百度网讯科技有限公司 | 文本理解模型的训练方法和文本理解方法、装置 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110197658A (zh) * | 2019-05-30 | 2019-09-03 | 百度在线网络技术(北京)有限公司 | 语音处理方法、装置以及电子设备 |
CN112883967A (zh) * | 2021-02-24 | 2021-06-01 | 北京有竹居网络技术有限公司 | 图像字符识别方法、装置、介质及电子设备 |
CN113066480A (zh) * | 2021-03-26 | 2021-07-02 | 北京达佳互联信息技术有限公司 | 语音识别方法、装置、电子设备及存储介质 |
CN113591566A (zh) * | 2021-06-28 | 2021-11-02 | 北京百度网讯科技有限公司 | 图像识别模型的训练方法、装置、电子设备和存储介质 |
CN113782013A (zh) * | 2021-09-15 | 2021-12-10 | 北京百度网讯科技有限公司 | 语音识别及模型训练的方法、设备、存储介质及程序产品 |
CN113963359A (zh) * | 2021-12-20 | 2022-01-21 | 北京易真学思教育科技有限公司 | 文本识别模型训练方法、文本识别方法、装置及电子设备 |
US20220139369A1 (en) * | 2020-12-01 | 2022-05-05 | Beijing Baidu Netcom Science Technology Co., Ltd. | Method for recognizing chinese-english mixed speech, electronic device, and storage medium |
CN114495112A (zh) * | 2022-01-20 | 2022-05-13 | 北京字节跳动网络技术有限公司 | 图像中文本的处理方法、装置、可读介质和电子设备 |
-
2022
- 2022-05-27 CN CN202210596310.9A patent/CN114998881B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110197658A (zh) * | 2019-05-30 | 2019-09-03 | 百度在线网络技术(北京)有限公司 | 语音处理方法、装置以及电子设备 |
US20220139369A1 (en) * | 2020-12-01 | 2022-05-05 | Beijing Baidu Netcom Science Technology Co., Ltd. | Method for recognizing chinese-english mixed speech, electronic device, and storage medium |
CN112883967A (zh) * | 2021-02-24 | 2021-06-01 | 北京有竹居网络技术有限公司 | 图像字符识别方法、装置、介质及电子设备 |
CN113066480A (zh) * | 2021-03-26 | 2021-07-02 | 北京达佳互联信息技术有限公司 | 语音识别方法、装置、电子设备及存储介质 |
CN113591566A (zh) * | 2021-06-28 | 2021-11-02 | 北京百度网讯科技有限公司 | 图像识别模型的训练方法、装置、电子设备和存储介质 |
CN113782013A (zh) * | 2021-09-15 | 2021-12-10 | 北京百度网讯科技有限公司 | 语音识别及模型训练的方法、设备、存储介质及程序产品 |
CN113963359A (zh) * | 2021-12-20 | 2022-01-21 | 北京易真学思教育科技有限公司 | 文本识别模型训练方法、文本识别方法、装置及电子设备 |
CN114495112A (zh) * | 2022-01-20 | 2022-05-13 | 北京字节跳动网络技术有限公司 | 图像中文本的处理方法、装置、可读介质和电子设备 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115690793A (zh) * | 2023-01-03 | 2023-02-03 | 北京百度网讯科技有限公司 | 文字识别模型及其识别方法、装置、设备和介质 |
CN116012650A (zh) * | 2023-01-03 | 2023-04-25 | 北京百度网讯科技有限公司 | 文字识别模型训练及其识别方法、装置、设备和介质 |
CN115690793B (zh) * | 2023-01-03 | 2023-06-06 | 北京百度网讯科技有限公司 | 文字识别模型及其识别方法、装置、设备和介质 |
CN116012650B (zh) * | 2023-01-03 | 2024-04-23 | 北京百度网讯科技有限公司 | 文字识别模型训练及其识别方法、装置、设备和介质 |
CN116050465A (zh) * | 2023-02-09 | 2023-05-02 | 北京百度网讯科技有限公司 | 文本理解模型的训练方法和文本理解方法、装置 |
CN116050465B (zh) * | 2023-02-09 | 2024-03-19 | 北京百度网讯科技有限公司 | 文本理解模型的训练方法和文本理解方法、装置 |
Also Published As
Publication number | Publication date |
---|---|
CN114998881B (zh) | 2023-11-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114372477B (zh) | 文本识别模型的训练方法、文本识别方法及装置 | |
KR20210154069A (ko) | 모델을 트레이닝하는 방법, 장치, 기기 및 저장 매체 | |
CN114998881B (zh) | 深度学习模型的训练方法、文本识别方法、装置和设备 | |
CN113792854A (zh) | 一种模型训练及字库建立方法、装置、设备及存储介质 | |
KR20210132578A (ko) | 지식 그래프를 구축하는 방법, 장치, 기기 및 저장 매체 | |
CN114861889B (zh) | 深度学习模型的训练方法、目标对象检测方法和装置 | |
CN112926306A (zh) | 文本纠错方法、装置、设备以及存储介质 | |
US20220027575A1 (en) | Method of predicting emotional style of dialogue, electronic device, and storage medium | |
EP4057283A2 (en) | Method for detecting voice, method for training, apparatuses and smart speaker | |
US12118770B2 (en) | Image recognition method and apparatus, electronic device and readable storage medium | |
CN113657395B (zh) | 文本识别方法、视觉特征提取模型的训练方法及装置 | |
CN114724168A (zh) | 深度学习模型的训练方法、文本识别方法、装置和设备 | |
CN112528641A (zh) | 建立信息抽取模型的方法、装置、电子设备和可读存储介质 | |
CN115062718A (zh) | 语言模型训练方法、装置、电子设备及存储介质 | |
CN113743101A (zh) | 文本纠错方法、装置、电子设备和计算机存储介质 | |
CN113408306A (zh) | 翻译方法及分类模型的训练方法、装置、设备和存储介质 | |
US20230342561A1 (en) | Machine translation method and apparatus, device and storage medium | |
US20230153550A1 (en) | Machine Translation Method and Apparatus, Device and Storage Medium | |
CN114419327B (zh) | 图像检测方法和图像检测模型的训练方法、装置 | |
CN114973333A (zh) | 人物交互检测方法、装置、设备以及存储介质 | |
CN115909376A (zh) | 文本识别方法、文本识别模型训练方法、装置及存储介质 | |
CN115565186A (zh) | 文字识别模型的训练方法、装置、电子设备和存储介质 | |
CN113239273A (zh) | 用于生成文本的方法、装置、设备以及存储介质 | |
US12106062B2 (en) | Method and apparatus for generating a text, and storage medium | |
CN113723120B (zh) | 参考信息的展示方法、装置和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |