CN113920527A - 一种文本识别方法、装置、计算机设备及存储介质 - Google Patents
一种文本识别方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN113920527A CN113920527A CN202111193518.8A CN202111193518A CN113920527A CN 113920527 A CN113920527 A CN 113920527A CN 202111193518 A CN202111193518 A CN 202111193518A CN 113920527 A CN113920527 A CN 113920527A
- Authority
- CN
- China
- Prior art keywords
- text
- image data
- image
- text recognition
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 238000001514 detection method Methods 0.000 claims abstract description 105
- 238000012545 processing Methods 0.000 claims abstract description 67
- 238000007781 pre-processing Methods 0.000 claims description 24
- 102100032202 Cornulin Human genes 0.000 claims description 15
- 101000920981 Homo sapiens Cornulin Proteins 0.000 claims description 15
- 239000011159 matrix material Substances 0.000 claims description 14
- 238000004364 calculation method Methods 0.000 claims description 13
- 230000009467 reduction Effects 0.000 claims description 8
- 238000012216 screening Methods 0.000 claims description 7
- 230000006870 function Effects 0.000 claims description 6
- 230000000694 effects Effects 0.000 abstract description 8
- 238000005516 engineering process Methods 0.000 abstract description 5
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000012015 optical character recognition Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 11
- 238000012935 Averaging Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000010606 normalization Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 5
- 230000002035 prolonged effect Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012805 post-processing Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 239000000047 product Substances 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Character Discrimination (AREA)
Abstract
本申请实施例属于人工智能中的图像处理技术领域,涉及一种应用于海量图像的文本识别方法、装置、计算机设备及存储介质。此外,本申请还涉及区块链技术,用户的文本识别结果可存储于区块链中。本申请通过对待识别文本图像进行预处理,从数据量层面上减少模型的计算量,从而提升模型的处理时间,并将进行文本行检测的文本检测模型的骨干网替换为mobilenet网络,从而在保证模型的检测性能差异不大的情况下进一步提升模型的处理效率,最终极大提升文本识别的处理效率,在处理海量图像的情况下,仍然保持高效且精准的识别效果。
Description
技术领域
本申请涉及人工智能中的图像处理技术领域,尤其涉及一种应用于海量图像的文本识别方法、装置、计算机设备及存储介质。
背景技术
光学字符识别,简称OCR,是一种可以把影像转化成文字的图像识别技术。随着社会经济和互联网的迅猛发展,利用信息技术来优化产品、升级用户体验,这在各行各业都得到广泛应用。特别地,在金融行业,比如保险领域,使用OCR技术把许多业务影像资料(比如投保单、核保资料、理赔文件等)转化成文字并做结构化存储,是有着极大的需求的。而且,如何快速地处理海量的图片,且能对每张图片的文字都精确而全面地识别,这是对OCR识别的重要挑战和难点。
现有一种光学字符识别方法,即先从输入的图片做文本行检测,把图片内的所有文本行一一检测出来,再根据文本识别模块,从前一模块中得到的文本行集合作为识别模型的输入,依次进行文字识别,得到该图片的所有文本信息。
然而,申请人发现在实际应用中,光学字符识别技术往往需要处理的是海量的图片,而通过传统的光学字符识别方法对每张图片的文字都进行全面精确的识别时,会出现效率较低的情况,由此可见,传统的光学字符识别方法无法适用于快速且精准的处理海量图像的情况。
发明内容
本申请实施例的目的在于提出一种应用于海量图像的文本识别方法、装置、计算机设备及存储介质,以解决传统的光学字符识别方法无法适用于快速且精准的处理海量图像的问题。
为了解决上述技术问题,本申请实施例提供一种应用于海量图像的文本识别方法,采用了如下所述的技术方案:
获取待识别文本图像;
对所述待识别文本图像进行预处理操作,得到预处理图像数据;
将所述预处理图像数据输入至基于可微二值化网络算法的文本检测模型进行文本行检测操作,得到文本块图像数据,所述文本检测模型的骨干网为mobilenet网络;
将所述文本块图像数据输入至基于CRNN算法的文本识别模型进行文本识别操作,得到文本识别结果。
为了解决上述技术问题,本申请实施例还提供一种应用于海量图像的文本识别装置,采用了如下所述的技术方案:
获取模块,用于获取待识别文本图像;
预处理模块,用于对所述待识别文本图像进行预处理操作,得到预处理图像数据;
文本行检测模块,用于将所述预处理图像数据输入至基于可微二值化网络算法的文本检测模型进行文本行检测操作,得到文本块图像数据,所述文本检测模型的骨干网为mobilenet网络;
文本识别模块,用于将所述文本块图像数据输入至基于CRNN算法的文本识别模型进行文本识别操作,得到文本识别结果。
为了解决上述技术问题,本申请实施例还提供一种计算机设备,采用了如下所述的技术方案:
包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如上所述的应用于海量图像的文本识别方法的步骤。
为了解决上述技术问题,本申请实施例还提供一种计算机可读存储介质,采用了如下所述的技术方案:
所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如上所述的应用于海量图像的文本识别方法的步骤。
与现有技术相比,本申请实施例主要有以下有益效果:
本申请提供了一种应用于海量图像的文本识别方法,包括:获取待识别文本图像;对所述待识别文本图像进行预处理操作,得到预处理图像数据;将所述预处理图像数据输入至基于可微二值化网络算法的文本检测模型进行文本行检测操作,得到文本块图像数据,所述文本检测模型的骨干网为mobilenet网络;将所述文本块图像数据输入至基于CRNN算法的文本识别模型进行文本识别操作,得到文本识别结果。本申请通过对待识别文本图像进行预处理,从数据量层面上减少模型的计算量,从而提升模型的处理时间,并将进行文本行检测的文本检测模型的骨干网替换为mobilenet网络,从而在保证模型的检测性能差异不大的情况下进一步提升模型的处理效率,最终极大提升文本识别的处理效率,在处理海量图像的情况下,仍然保持高效且精准的识别效果。
附图说明
为了更清楚地说明本申请中的方案,下面将对本申请实施例描述中所需要使用的附图作一个简单介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请可以应用于其中的示例性系统架构图;
图2是本申请实施例一提供的应用于海量图像的文本识别方法的实现流程图;
图3是图2中步骤S202的一种具体实施方式的流程图;
图4是图2中步骤S203的一种具体实施方式的流程图;
图5是图2中步骤S204的一种具体实施方式的流程图;
图6是本申请实施例一提供的应用于海量图像的文本识别装置的结构示意图:
图7是图6中预处理模块620的一种具体实施方式的结构示意图;
图8是根据本申请的计算机设备的一个实施例的结构示意图。
具体实施方式
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同;本文中在申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请;本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
为了使本技术领域的人员更好地理解本申请方案,下面将结合附图,对本申请实施例中的技术方案进行清楚、完整地描述。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving PictureExpertsGroup Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(MovingPictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的页面提供支持的后台服务器。
需要说明的是,本申请实施例所提供的应用于海量图像的文本识别方法一般由服务器/终端设备执行,相应地,应用于海量图像的文本识别装置一般设置于服务器/终端设备中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了本申请实施例一提供的应用于海量图像的文本识别方法的实现流程图,为了便于说明,仅示出与本申请相关的部分。
上述的应用于海量图像的文本识别方法,包括以下步骤:步骤S201、步骤S202、步骤S203以及步骤S204。
步骤S201:获取待识别文本图像。
在本申请实施例中,获取待识别文本图像可以是通过摄像设备对待识别的银行卡进行拍照以获取该待识别文本图像;该待识别文本图像还可以是通过用户终端发送已经拍摄好的图像以获取该待识别文本图像,应当理解,此处对获取待识别文本图像的举例仅为方便理解,不用于限定本申请。
步骤S202:对待识别文本图像进行预处理操作,得到预处理图像数据。
在本申请实施例中,预处理操作可以是对待识别文本图像进行灰度处理,得到灰度图像数据;对灰度图像数据进行分辨率标准化处理得到的。
步骤S203:将预处理图像数据输入至基于可微二值化网络(differentablebinarizationnet,dbnet)算法的文本检测模型进行文本行检测操作,得到文本块图像数据,文本检测模型的骨干网为mobilenet网络。
在本申请实施例中,文本行检测操作可以是获取文本检测模型输出的与待识别文本图像中各个像素点相对应的文本检测概率;根据文本检测概率以及预设像素阈值对待识别文本图像的像素点进行筛选操作,得到文本检测图像;根据opencv工具包对文本检测图像进行连通域计算,得到连通域集;根据findcontours函数分别计算连通域集中每个连通域的最小外接矩阵,并将最小外接矩阵的各个顶点作为文本块图像数据。
步骤S204:将文本块图像数据输入至基于CRNN算法的文本识别模型进行文本识别操作,得到文本识别结果。
在本申请实施例中,文本识别操作可以是根据标准分辨率对文本块图像进行标准化处理,并组合得到符合标准分辨率的标准文本块组合;将标准文本块组合依据TensorRT的批处理操作输入至文本识别模型,得到输出文本组合;对输出文本组合进行还原操作,得到文本识别结果。
本申请提供了一种应用于海量图像的文本识别方法,包括:获取待识别文本图像;对待识别文本图像进行预处理操作,得到预处理图像数据;将预处理图像数据输入至基于可微二值化网络算法的文本检测模型进行文本行检测操作,得到文本块图像数据,文本检测模型的骨干网为mobilenet网络;将文本块图像数据输入至基于CRNN算法的文本识别模型进行文本识别操作,得到文本识别结果。本申请通过对待识别文本图像进行预处理,从数据量层面上减少模型的计算量,从而提升模型的处理时间,并将进行文本行检测的文本检测模型的骨干网替换为mobilenet网络,从而在保证模型的检测性能差异不大的情况下进一步提升模型的处理效率,最终极大提升文本识别的处理效率,在处理海量图像的情况下,仍然保持高效且精准的识别效果。
继续参阅图3,示出了图2中步骤S202的一种具体实施方式的流程图,为了便于说明,仅示出与本申请相关的部分。
在本实施例的一些可选的实现方式中,上述步骤S202具体包括:步骤S301以及步骤S302。
步骤S301:对待识别文本图像进行灰度处理,得到灰度图像数据。
在本申请实施例中,用户上传的一般会是彩色图片,但本发明在后续采用算法处理的必须是灰度图,所以会把输入图片转为灰度图的操作。
在本申请实施例中,该灰度处理指的是将待识别文本的3个通道(RGB)转换成为1个通道的形式,具体的,该灰度处理可以是:
(1)平均法,即将同一个像素位置的三个通道RGB值进行平均化,该平均化表示为:
其中,x,y分别表示像素点I的二维坐标值;
(2)最大最小平均法,即取同一个像素位置的RGB中亮度最大的和最小的进行平均;
(3)加权平均法,表示为:
I(x,y)=α×IR(x,y)+β×IG(x,y)+ρ×IB(x,y)
其中,α、β、ρ分别表示加权参数,具体的,该α、β、ρ可以分别是人的亮度感知系统调节出来的参数0.3、0.59、0.11。
步骤S302:对灰度图像数据进行分辨率标准化处理,得到预处理图像数据。
在本申请实施例中,分辨率标准化处理指的是对图像的分辨率进行同一比例的调整,具体的,该分辨率标准化处理可以统一缩放到[600,1000]之间。
在本申请实施例中,在把输入图片送进文本检测模型进行文本行检测前,我们对输入图片做预处理,且对分辨率进行缩放,这样做的目的是从数据量的层面,减少模型的计算量,从而提升模型处理时间。
在本实施例的一些可选的实现方式中,在上述步骤S302中,具体还包括下述步骤:
若分辨率标准化处理后的灰度图像数据未满足预设的宽度标准值或者长度标准值,则将未满足所述宽度标准值或者所述长度标准值的区域部分进行黑边填充,得到所述预处理图像数据。
在本申请实施例中,黑边填充的来源是来带识别文本图像的颜色三通道的黑边,以补够该宽度标准值或者长度标准值,使得在后续的批处理中,每一批输入的图片都是相同的规格。
继续参阅图4,示出了图2中步骤S203的一种具体实施方式的流程图,为了便于说明,仅示出与本申请相关的部分。
在本实施例的一些可选的实现方式中,上述步骤S203具体包括:步骤S401、步骤S402、步骤S403以及步骤S404。
步骤S401:获取文本检测模型输出的与待识别文本图像中各个像素点相对应的文本检测概率。
在本申请实施例中,文本检测模型输出的结果是图片里的每个像素点的概率(0~1),比如一张100像素x100像素的图片,经dbnet计算完后,输出的是这10000个像素点对应的属于文本的概率值,即10000个像素点中有多少是对应着图片中文本的,有多少是对应着图片中空白部分或非文本部分。
步骤S402:根据文本检测概率以及预设像素阈值对待识别文本图像的像素点进行筛选操作,得到文本检测图像。
在本申请实施例中,用户可以根据具体情况预先设置该像素阈值,通过概率值把上述10000个像素点分成文本像素点和非文本像素点,非文本像素点可以是属于图片中空白部分的像素点,这样,就能形成该文本检测图像。
步骤S403:根据opencv工具包对文本检测图像进行连通域计算,得到连通域集。
在本申请实施例中,OpenCV是一个基于BSD许可(开源)发行的跨平台计算机视觉和机器学习软件库,可以运行在Linux、Windows、Android和MacOS操作系统上。[1]它轻量级而且高效——由一系列C函数和少量C++类构成,同时提供了Python、Ruby、MATLAB等语言的接口,实现了图像处理和计算机视觉方面的很多通用算法。
步骤S404:根据findcontours函数分别计算连通域集中每个连通域的最小外接矩阵,并将最小外接矩阵的各个顶点作为文本块图像数据。
在本申请实施例中,文本检测模型输出的文本行为包括至少一个文字的文本行,可以理解为文字外轮廓图像或文字行/列的外轮廓图像。一种可能的实施方式中,文本行也可以为从目标图片中分割出的包括文字的子图像。
在本申请实施例中,文本行是以特定内容为单位的边界框,其中,特定内容可以是单词、一行文字或单个字等。文本检测模型可以基于待识别图片中文本的类型,生成不同的文本行。例如,当图片中包含英文文本,则文本检测模型可以对图片的英文文本以单词为单位逐行分别进行框定,生成多个文本行,可以理解的,该实施例确定的文本行中的文本为单个英文单词。又例如,当待识别图片中包含中文,则文本检测模型可以对图片的中文文本以行为单位进行框定,生成多个文本行,可以理解的,该实施例确定的文本行中的文本为一行中文文本。又例如,当待识别图片中包含中文,则文本检测模型可以对图片的中文文本以单个字为单位进行框定,生成多个文本行,可以理解的,该实施例确定的文本行中的文本为一个字。
在本申请实施例中,由于文本图像中的文本内容是基于直线方式进行规律的排版,区别在于文本内容之间的间隙大小,因此,计算得到连通域的最小外接矩阵的形状一般为四边矩形或者稍微扭曲的矩形,因此最小外接矩阵的各个顶点可以作为文本块图像数据的文本框的四个顶点位置。
在本实施例的一些可选的实现方式中,文本识别模型为省略BiLSTM网络的CNN网络。
在本申请实施例中,把原CRNN的循环神经网络部分(BiLSTM)去掉,只保留了CNN的骨干网部分,以此对网络结构进行瘦身,提升模型的处理时间。
在本实施例的一些可选的实现方式中,将对网络输出数据进行计算处理的计算模型集成到模型的后半部分,从而简化了后处理操作,并且减少了输出结果的数据流,从而在实际部署中的减少了数据流的传输,节约带宽,在高并发下防止网络拥塞。
继续参阅图5,示出了图2中步骤S204的一种具体实施方式的流程图,为了便于说明,仅示出与本申请相关的部分。
在本实施例的一些可选的实现方式中,上述步骤S204具体包括:步骤S501、步骤S502以及步骤S503。
步骤S501:根据标准分辨率对文本块图像进行标准化处理,并组合得到符合标准分辨率的标准文本块组合。
在本申请实施例中,由于文本检测模型检测出来的文本行是矩形文本行,会有这个矩形行四个顶点的坐标信息,可以从这些顶点的数值去算出这个文本行的宽高。
在本申请实施例中,由于TensorRT的批处理的要求是每一批图像的分辨率要保持一致,即上述标准分辨率,而文本检测模型检测出来的文本块图像分辨率是各式各样的,那就需要对所有检测出来的文本块图像做缩放操作,同时,由于各个文本块图像的宽度不同,而标准分辨率要求的宽高,因此需要对缩放后的文本块图像按照标准分辨率的宽度进行组合,以满足标准分辨率的要求。
在本实施例的一些可选的实现方式中,上述对缩放后的文本块图像按照标准分辨率的宽度进行组合的过程中,难免会出现组合后的文本块组合小于标准分辨率的宽度,而对于缺少的部分,可添加相应宽度的黑边以进行填充,从而进一步满足标准分辨率的要求。
步骤S502:将标准文本块组合依据TensorRT的批处理操作输入至文本识别模型,得到输出文本组合。
在本申请实施例中,TensorRT是一个高性能的深度学习推理(Inference)优化器,可以为深度学习应用提供低延迟、高吞吐率的部署推理。TensorRT可用于对超大规模数据中心、嵌入式平台或自动驾驶平台进行推理加速。TensorRT现已能支持TensorFlow、Caffe、Mxnet、Pytorch等几乎所有的深度学习框架,将TensorRT和NVIDIA的GPU结合起来,能在几乎所有的框架中进行快速和高效的部署推理。
步骤S503:对输出文本组合进行还原操作,得到文本识别结果。
在本申请实施例中,在上述文本行检测操作得到的文本块图像数据携带有各个文本块图像数据对应于待识别文本图像的二维位置信息,同时,在组合上述标准化处理后的文本块图像时会标记有各个文本块图像对应于待识别文本图像的二维位置信息,因此,该还原操作指的是将输出文本组合中各个输出文本根据各个文本块图像标记的二维位置信息在该待识别文本图像中进行标记,以得到该文本识别结果。
在本申请实施例中,采用TensorRT的一些特性对模型进行加速,以及我们在文本识别模块设计的文本框组合的方式进行变相的批处理,使得整个OCR的实现效率提升30%。
综上所述,本申请提供了一种应用于海量图像的文本识别方法,包括:获取待识别文本图像;对待识别文本图像进行预处理操作,得到预处理图像数据;将预处理图像数据输入至基于可微二值化网络算法的文本检测模型进行文本行检测操作,得到文本块图像数据,文本检测模型的骨干网为mobilenet网络;将文本块图像数据输入至基于CRNN算法的文本识别模型进行文本识别操作,得到文本识别结果。本申请通过对待识别文本图像进行预处理,从数据量层面上减少模型的计算量,从而提升模型的处理时间,并将进行文本行检测的文本检测模型的骨干网替换为mobilenet网络,从而在保证模型的检测性能差异不大的情况下进一步提升模型的处理效率,最终极大提升文本识别的处理效率,在处理海量图像的情况下,仍然保持高效且精准的识别效果。同时,在把输入图片送进文本检测模型进行文本行检测前,我们对输入图片做预处理,且对分辨率进行缩放,这样做的目的是从数据量的层面,减少模型的计算量,从而提升模型处理时间;把原CRNN的循环神经网络部分(BiLSTM)去掉,只保留了CNN的骨干网部分,以此对网络结构进行瘦身,提升模型的处理时间;将对网络输出数据进行计算处理的计算模型集成到模型的后半部分,从而简化了后处理操作,并且减少了输出结果的数据流,从而在实际部署中的减少了数据流的传输,节约带宽,在高并发下防止网络拥塞;采用TensorRT的一些特性对模型进行加速,以及我们在文本识别模块设计的文本框组合的方式进行变相的批处理,使得整个OCR的实现效率提升30%,最终,整个OCR解决方案的平均每张图片处理耗时从原来的8秒左右缩短至160毫秒左右。
需要强调的是,为进一步保证上述文本识别结果的私密和安全性,上述文本识别结果还可以存储于一区块链的节点中。
本申请所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
本申请可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机可读指令来指令相关的硬件来完成,该计算机可读指令可存储于一计算机可读取存储介质中,该计算机可读指令在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
实施例二
进一步参考图6,作为对上述图2所示方法的实现,本申请提供了一种应用于海量图像的文本识别装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图6所示,本实施例的应用于海量图像的文本识别装置600包括:获取模块610、预处理模块620、文本行检测模块630以及文本识别模块640。
其中:
获取模块610,用于获取模块,用于获取待识别文本图像;
预处理模块620,用于对待识别文本图像进行预处理操作,得到预处理图像数据;
文本行检测模块630,用于将预处理图像数据输入至基于可微二值化网络算法的文本检测模型进行文本行检测操作,得到文本块图像数据,文本检测模型的骨干网为mobilenet网络;
文本识别模块640,用于将文本块图像数据输入至基于CRNN算法的文本识别模型进行文本识别操作,得到文本识别结果。
在本申请实施例中,获取待识别文本图像可以是通过摄像设备对待识别的银行卡进行拍照以获取该待识别文本图像;该待识别文本图像还可以是通过用户终端发送已经拍摄好的图像以获取该待识别文本图像,应当理解,此处对获取待识别文本图像的举例仅为方便理解,不用于限定本申请。
在本申请实施例中,预处理操作可以是对待识别文本图像进行灰度处理,得到灰度图像数据;对灰度图像数据进行分辨率标准化处理得到的。
在本申请实施例中,文本行检测操作可以是获取文本检测模型输出的与待识别文本图像中各个像素点相对应的文本检测概率;根据文本检测概率以及预设像素阈值对待识别文本图像的像素点进行筛选操作,得到文本检测图像;根据opencv工具包对文本检测图像进行连通域计算,得到连通域集;根据findcontours函数分别计算连通域集中每个连通域的最小外接矩阵,并将最小外接矩阵的各个顶点作为文本块图像数据。
在本申请实施例中,文本识别操作可以是根据标准分辨率对文本块图像进行标准化处理,并组合得到符合标准分辨率的标准文本块组合;将标准文本块组合依据TensorRT的批处理操作输入至文本识别模型,得到输出文本组合;对输出文本组合进行还原操作,得到文本识别结果。
本申请提供了一种应用于海量图像的文本识别装置600,包括:获取模块610,用于获取模块,用于获取待识别文本图像;预处理模块620,用于对待识别文本图像进行预处理操作,得到预处理图像数据;文本行检测模块630,用于将预处理图像数据输入至基于可微二值化网络算法的文本检测模型进行文本行检测操作,得到文本块图像数据,文本检测模型的骨干网为mobilenet网络;文本识别模块640,用于将文本块图像数据输入至基于CRNN算法的文本识别模型进行文本识别操作,得到文本识别结果。本申请通过对待识别文本图像进行预处理,从数据量层面上减少模型的计算量,从而提升模型的处理时间,并将进行文本行检测的文本检测模型的骨干网替换为mobilenet网络,从而在保证模型的检测性能差异不大的情况下进一步提升模型的处理效率,最终极大提升文本识别的处理效率,在处理海量图像的情况下,仍然保持高效且精准的识别效果。
继续参阅图7,示出了图6中预处理模块620的一种具体实施方式的结构示意图,为了便于说明,仅示出与本申请相关的部分。
在本实施例的一些可选的实现方式中,上述预处理模块620包括:灰度处理子模块621以及分辨率标准化处理子模块622。其中:
灰度处理子模块621,用于对待识别文本图像进行灰度处理,得到灰度图像数据;
分辨率标准化处理子模块622,用于对灰度图像数据进行分辨率标准化处理,得到预处理图像数据。
在本申请实施例中,用户上传的一般会是彩色图片,但本发明在后续采用算法处理的必须是灰度图,所以会把输入图片转为灰度图的操作。
在本申请实施例中,该灰度处理指的是将待识别文本的3个通道(RGB)转换成为1个通道的形式,具体的,该灰度处理可以是:
(1)平均法,即将同一个像素位置的三个通道RGB值进行平均化,该平均化表示为:
其中,x,y分别表示像素点I的二维坐标值;
(2)最大最小平均法,即取同一个像素位置的RGB中亮度最大的和最小的进行平均;
(3)加权平均法,表示为:
I(x,y)=α×IR(x,y)+β×IG(x,y)+ρ×IB(x,y)
其中,α、β、ρ分别表示加权参数,具体的,该α、β、ρ可以分别是人的亮度感知系统调节出来的参数0.3、0.59、0.11。
在本申请实施例中,分辨率标准化处理指的是对图像的分辨率进行同一比例的调整,具体的,该分辨率标准化处理可以统一缩放到[600,1000]之间。
在本申请实施例中,在把输入图片送进文本检测模型进行文本行检测前,我们对输入图片做预处理,且对分辨率进行缩放,这样做的目的是从数据量的层面,减少模型的计算量,从而提升模型处理时间。
在本实施例的一些可选的实现方式中,上述文本行检测模块630包括:文本概率获取子模块、筛选操作子模块、连通域计算子模块以及外接矩阵计算子模块。其中:
文本概率获取子模块,用于获取文本检测模型输出的与待识别文本图像中各个像素点相对应的文本检测概率;
筛选操作子模块,用于根据文本检测概率以及预设像素阈值对待识别文本图像的像素点进行筛选操作,得到文本检测图像;
连通域计算子模块,用于根据opencv工具包对文本检测图像进行连通域计算,得到连通域集;
外接矩阵计算子模块,用于根据findcontours函数分别计算连通域集中每个连通域的最小外接矩阵,并将最小外接矩阵的各个顶点作为文本块图像数据。
在本实施例的一些可选的实现方式中,文本识别模型为省略BiLSTM网络的CNN网络。
在本实施例的一些可选的实现方式中,上述文本识别模块640包括:标准化处理子模块、数据输入子模块以及还原操作子模块。其中:
标准化处理子模块,用于根据标准分辨率对文本块图像进行标准化处理,并组合得到符合标准分辨率的标准文本块组合;
数据输入子模块,用于将标准文本块组合依据TensorRT的批处理操作输入至文本识别模型,得到输出文本组合;
还原操作子模块,用于对输出文本组合进行还原操作,得到文本识别结果。
综上所述,本申请提供了一种应用于海量图像的文本识别装置600,包括:获取模块610,用于获取模块,用于获取待识别文本图像;预处理模块620,用于对待识别文本图像进行预处理操作,得到预处理图像数据;文本行检测模块630,用于将预处理图像数据输入至基于可微二值化网络算法的文本检测模型进行文本行检测操作,得到文本块图像数据,文本检测模型的骨干网为mobilenet网络;文本识别模块640,用于将文本块图像数据输入至基于CRNN算法的文本识别模型进行文本识别操作,得到文本识别结果。本申请通过对待识别文本图像进行预处理,从数据量层面上减少模型的计算量,从而提升模型的处理时间,并将进行文本行检测的文本检测模型的骨干网替换为mobilenet网络,从而在保证模型的检测性能差异不大的情况下进一步提升模型的处理效率,最终极大提升文本识别的处理效率,在处理海量图像的情况下,仍然保持高效且精准的识别效果。同时,在把输入图片送进文本检测模型进行文本行检测前,我们对输入图片做预处理,且对分辨率进行缩放,这样做的目的是从数据量的层面,减少模型的计算量,从而提升模型处理时间;把原CRNN的循环神经网络部分(BiLSTM)去掉,只保留了CNN的骨干网部分,以此对网络结构进行瘦身,提升模型的处理时间;将对网络输出数据进行计算处理的计算模型集成到模型的后半部分,从而简化了后处理操作,并且减少了输出结果的数据流,从而在实际部署中的减少了数据流的传输,节约带宽,在高并发下防止网络拥塞;采用TensorRT的一些特性对模型进行加速,以及我们在文本识别模块设计的文本框组合的方式进行变相的批处理,使得整个OCR的实现效率提升30%,最终,整个OCR解决方案的平均每张图片处理耗时从原来的8秒左右缩短至160毫秒左右。
为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图8,图8为本实施例计算机设备基本结构框图。
所述计算机设备200包括通过系统总线相互通信连接存储器210、处理器220、网络接口230。需要指出的是,图中仅示出了具有组件210-230的计算机设备200,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器210至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器210可以是所述计算机设备200的内部存储单元,例如该计算机设备200的硬盘或内存。在另一些实施例中,所述存储器210也可以是所述计算机设备200的外部存储设备,例如该计算机设备200上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。当然,所述存储器210还可以既包括所述计算机设备200的内部存储单元也包括其外部存储设备。本实施例中,所述存储器210通常用于存储安装于所述计算机设备200的操作系统和各类应用软件,例如应用于海量图像的文本识别方法的计算机可读指令等。此外,所述存储器210还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器220在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器220通常用于控制所述计算机设备200的总体操作。本实施例中,所述处理器220用于运行所述存储器210中存储的计算机可读指令或者处理数据,例如运行所述应用于海量图像的文本识别方法的计算机可读指令。
所述网络接口230可包括无线网络接口或有线网络接口,该网络接口230通常用于在所述计算机设备200与其他电子设备之间建立通信连接。
本申请提供的计算机设备,本申请通过对待识别文本图像进行预处理,从数据量层面上减少模型的计算量,从而提升模型的处理时间,并将进行文本行检测的文本检测模型的骨干网替换为mobilenet网络,从而在保证模型的检测性能差异不大的情况下进一步提升模型的处理效率,最终极大提升文本识别的处理效率,在处理海量图像的情况下,仍然保持高效且精准的识别效果。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,所述计算机可读指令可被至少一个处理器执行,以使所述至少一个处理器执行如上述的应用于海量图像的文本识别方法的步骤。
本申请提供的计算机可读存储介质,本申请通过对待识别文本图像进行预处理,从数据量层面上减少模型的计算量,从而提升模型的处理时间,并将进行文本行检测的文本检测模型的骨干网替换为mobilenet网络,从而在保证模型的检测性能差异不大的情况下进一步提升模型的处理效率,最终极大提升文本识别的处理效率,在处理海量图像的情况下,仍然保持高效且精准的识别效果。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。
Claims (10)
1.一种应用于海量图像的文本识别方法,其特征在于,包括下述步骤:
获取待识别文本图像;
对所述待识别文本图像进行预处理操作,得到预处理图像数据;
将所述预处理图像数据输入至基于可微二值化网络算法的文本检测模型进行文本行检测操作,得到文本块图像数据,所述文本检测模型的骨干网为mobilenet网络;
将所述文本块图像数据输入至基于CRNN算法的文本识别模型进行文本识别操作,得到文本识别结果。
2.根据权利要求1所述的应用于海量图像的文本识别方法,其特征在于,所述对所述待识别文本图像进行预处理操作,得到预处理图像数据的步骤,具体包括下述步骤:
对所述待识别文本图像进行灰度处理,得到灰度图像数据;
对所述灰度图像数据进行分辨率标准化处理,得到所述预处理图像数据。
3.根据权利要求2所述的应用于海量图像的文本识别方法,其特征在于,所述对所述灰度图像数据进行分辨率标准化处理,得到所述预处理图像数据的步骤,具体包括下述步骤:
若分辨率标准化处理后的灰度图像数据未满足预设的宽度标准值或者长度标准值,则将未满足所述宽度标准值或者所述长度标准值的区域部分进行黑边填充,得到所述预处理图像数据。
4.根据权利要求1所述的应用于海量图像的文本识别方法,其特征在于,所述将所述预处理图像数据输入至基于可微二值化网络算法的文本检测模型进行文本行检测操作,得到文本块图像数据的步骤,具体包括下述步骤:
获取所述文本检测模型输出的与所述待识别文本图像中各个像素点相对应的文本检测概率;
根据所述文本检测概率以及预设像素阈值对所述待识别文本图像的像素点进行筛选操作,得到文本检测图像;
根据opencv工具包对所述文本检测图像进行连通域计算,得到连通域集;
根据findcontours函数分别计算所述连通域集中每个连通域的最小外接矩阵,并将最小外接矩阵的各个顶点作为所述文本块图像数据。
5.根据权利要求1所述的应用于海量图像的文本识别方法,其特征在于,所述文本识别模型为省略BiLSTM网络的CNN网络。
6.根据权利要求1所述的应用于海量图像的文本识别方法,其特征在于,所述将所述文本块图像数据输入至基于CRNN算法的文本识别模型进行文本识别操作,得到文本识别结果的步骤,具体包括下述步骤:
根据标准分辨率对所述文本块图像进行标准化处理,并组合得到符合所述标准分辨率的标准文本块组合;
将所述标准文本块组合依据TensorRT的批处理操作输入至所述文本识别模型,得到输出文本组合;
对所述输出文本组合进行还原操作,得到所述文本识别结果。
7.一种应用于海量图像的文本识别装置,其特征在于,包括:
获取模块,用于获取待识别文本图像;
预处理模块,用于对所述待识别文本图像进行预处理操作,得到预处理图像数据;
文本行检测模块,用于将所述预处理图像数据输入至基于可微二值化网络算法的文本检测模型进行文本行检测操作,得到文本块图像数据,所述文本检测模型的骨干网为mobilenet网络;
文本识别模块,用于将所述文本块图像数据输入至基于CRNN算法的文本识别模型进行文本识别操作,得到文本识别结果。
8.根据权利要求7所述的应用于海量图像的文本识别装置,其特征在于,所述预处理模块包括:
灰度处理子模块,用于对所述待识别文本图像进行灰度处理,得到灰度图像数据;
分辨率标准化处理子模块,用于对所述灰度图像数据进行分辨率标准化处理,得到所述预处理图像数据。
9.一种计算机设备,其特征在于,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如权利要求1至6中任一项所述的应用于海量图像的文本识别方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如权利要求1至6中任一项所述的应用于海量图像的文本识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111193518.8A CN113920527B (zh) | 2021-10-13 | 2021-10-13 | 一种文本识别方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111193518.8A CN113920527B (zh) | 2021-10-13 | 2021-10-13 | 一种文本识别方法、装置、计算机设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113920527A true CN113920527A (zh) | 2022-01-11 |
CN113920527B CN113920527B (zh) | 2024-09-17 |
Family
ID=79240138
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111193518.8A Active CN113920527B (zh) | 2021-10-13 | 2021-10-13 | 一种文本识别方法、装置、计算机设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113920527B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111783761A (zh) * | 2020-06-30 | 2020-10-16 | 苏州科达科技股份有限公司 | 证件文本的检测方法、装置及电子设备 |
CN112560845A (zh) * | 2020-12-23 | 2021-03-26 | 京东方科技集团股份有限公司 | 字符识别方法、装置、智能取餐柜、电子设备及存储介质 |
CN112926565A (zh) * | 2021-02-25 | 2021-06-08 | 中国平安人寿保险股份有限公司 | 图片文本的识别方法、系统、设备和存储介质 |
-
2021
- 2021-10-13 CN CN202111193518.8A patent/CN113920527B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111783761A (zh) * | 2020-06-30 | 2020-10-16 | 苏州科达科技股份有限公司 | 证件文本的检测方法、装置及电子设备 |
CN112560845A (zh) * | 2020-12-23 | 2021-03-26 | 京东方科技集团股份有限公司 | 字符识别方法、装置、智能取餐柜、电子设备及存储介质 |
CN112926565A (zh) * | 2021-02-25 | 2021-06-08 | 中国平安人寿保险股份有限公司 | 图片文本的识别方法、系统、设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113920527B (zh) | 2024-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11275961B2 (en) | Character image processing method and apparatus, device, and storage medium | |
CN108229299B (zh) | 证件的识别方法和装置、电子设备、计算机存储介质 | |
CN113486828B (zh) | 图像处理方法、装置、设备和存储介质 | |
CN112686243A (zh) | 智能识别图片文字的方法、装置、计算机设备及存储介质 | |
CN112330331A (zh) | 基于人脸识别的身份验证方法、装置、设备及存储介质 | |
CN110942004A (zh) | 基于神经网络模型的手写识别方法、装置及电子设备 | |
CN110738203A (zh) | 字段结构化输出方法、装置及计算机可读存储介质 | |
CN113763249A (zh) | 文本图像超分辨率重建方法及其相关设备 | |
CN112926565B (zh) | 图片文本的识别方法、系统、设备和存储介质 | |
CN110795714A (zh) | 一种身份验证方法、装置、计算机设备及存储介质 | |
US20230196805A1 (en) | Character detection method and apparatus , model training method and apparatus, device and storage medium | |
CN114049646B (zh) | 一种银行卡识别方法、装置、计算机设备及存储介质 | |
CN113673519A (zh) | 基于文字检测模型的文字识别方法及其相关设备 | |
JP2023119593A (ja) | ドキュメント画像の認識方法、装置、記憶媒体、及び電子装置 | |
CN112395834A (zh) | 基于图片输入的脑图生成方法、装置、设备及存储介质 | |
CN113221897B (zh) | 图像矫正方法、图像文本识别方法、身份验证方法及装置 | |
CN112232336A (zh) | 一种证件识别方法、装置、设备及存储介质 | |
CN112651399B (zh) | 检测倾斜图像中同行文字的方法及其相关设备 | |
CN112149523B (zh) | 基于深度学习和并查集算法识别并抽取图片的方法及装置 | |
CN112633200A (zh) | 基于人工智能的人脸图像比对方法、装置、设备及介质 | |
CN113011132B (zh) | 竖排文字识别方法、装置、计算机设备和存储介质 | |
CN113920527B (zh) | 一种文本识别方法、装置、计算机设备及存储介质 | |
CN113807343B (zh) | 文字识别方法、装置、计算机设备及存储介质 | |
CN115620315A (zh) | 手写文本检测方法、装置、服务器和存储介质 | |
CN115019321A (zh) | 一种文本识别、模型训练方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |