CN111428723B - 字符识别方法及装置、电子设备、存储介质 - Google Patents

字符识别方法及装置、电子设备、存储介质 Download PDF

Info

Publication number
CN111428723B
CN111428723B CN202010253622.0A CN202010253622A CN111428723B CN 111428723 B CN111428723 B CN 111428723B CN 202010253622 A CN202010253622 A CN 202010253622A CN 111428723 B CN111428723 B CN 111428723B
Authority
CN
China
Prior art keywords
character
image
network
position information
recognized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010253622.0A
Other languages
English (en)
Other versions
CN111428723A (zh
Inventor
张耀营
鄢丽萍
高文强
马祥
徐众
孟小路
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Jieruisi Intelligent Technology Co ltd
Original Assignee
Suzhou Jieruisi Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Jieruisi Intelligent Technology Co ltd filed Critical Suzhou Jieruisi Intelligent Technology Co ltd
Priority to CN202010253622.0A priority Critical patent/CN111428723B/zh
Publication of CN111428723A publication Critical patent/CN111428723A/zh
Application granted granted Critical
Publication of CN111428723B publication Critical patent/CN111428723B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • G06V30/153Segmentation of character regions using recognition of characters or words
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Character Discrimination (AREA)

Abstract

本申请提供一种字符识别方法及装置、电子设备、计算机可读存储介质,方法包括:采集待识别图像;将所述待识别图像作为已训练的目标检测网络的输入,获得所述目标检测网络输出的所述待识别图像的字符位置信息;从所述待识别图像中裁切出与所述字符位置信息对应的待识别子图像;将所述待识别子图像作为已训练的分类网络的输入,获得所述分类网络输出的所述待识别子图像中的字符;依据所述字符位置信息排序对应于每一字符位置信息的字符,得到字符识别结果。本申请通过依据深度学习的方法以定位加分类的方式,提高了复杂背景下字符识别正确率。

Description

字符识别方法及装置、电子设备、存储介质
技术领域
本申请涉及图像处理技术领域,特别涉及一种字符识别方法及装置、电子设备、计算机可读存储介质。
背景技术
光学字符识别(OCR,Optical Character Recognition)是指电子设备通过检测图像上字符暗、亮的模式确定其形状,从而将形状翻译成计算机文字的过程。光学字符识别被广泛地应用于生产和生活的各类场景中。简单背景下的光学字符识别的正确率已经可以满足应用的需求,而对于复杂背景,识别正确率仍有较大的提升空间。
发明内容
本申请实施例的目的在于提供一种字符识别方法及装置、电子设备、计算机可读存储介质,用于提高复杂背景下的字符识别正确率。
一方面,本申请提供了一种字符识别方法,包括:
采集待识别图像;
将所述待识别图像作为已训练的目标检测网络的输入,获得所述目标检测网络输出的所述待识别图像的字符位置信息;
从所述待识别图像中裁切出与所述字符位置信息对应的待识别子图像;
将所述待识别子图像作为已训练的分类网络的输入,获得所述分类网络输出的所述待识别子图像中的字符;
依据所述字符位置信息排序对应于每一字符位置信息的字符,得到字符识别结果。
在一实施例中,所述将所述待识别图像作为已训练的目标检测网络的输入,获得所述目标检测网络输出的所述待识别图像中的字符位置信息,包括:
将所述待识别图像作为所述目标检测网络的输入,通过所述目标检测网络将所述待识别图像划分为多个单元格、对每一单元格计算得到边界框预测结果;其中,所述边界框预测结果包括中心点相对坐标、边界框置信度;
筛选所述边界框置信度大于第一阈值的边界框预测结果,作为边界框识别结果;
基于所述边界框识别结果对应单元格的位置信息,将所述边界框识别结果中的中心点相对坐标调整为中心点坐标,得到所述字符位置信息。
在一实施例中,所述目标检测网络,通过如下方式训练得到:
将第一训练集中第一样本图像作为深度学习网络的输入,获得所述第一样本图像中的字符位置预测结果;其中,所述第一样本图像携带字符位置标签;
通过所述字符位置预测结果和所述字符位置标签计算置信度评分;
依据所述字符位置预测结果和所述字符位置标签之间的差异,以及所述置信度评分,调整所述深度学习网络的网络参数;
重复上述过程,直至所述深度学习网络收敛,得到所述目标检测网络。
在一实施例中,所述从所述待识别图像裁切与所述字符位置信息对应的待识别子图像,包括:
基于所述字符位置信息、预设裁切宽度和预设裁切高度,对所述待识别图像进行裁切,得到待识别子图像。
在一实施例中,所述分类网络,通过如下方式训练得到:
将第二训练集中第二样本图像作为深度学习网络的输入,获得对应于所述第二样本图像的分类结果;其中,所述第二样本图像携带字符标签;
通过所述字符标签和所述分类结果之间的差异,调整所述深度学习网络的网络参数;
重复上述过程,直至所述深度学习网络收敛,得到所述分类网络。
在一实施例中,所述依据所述字符位置信息排序对应于每一字符位置信息的字符,得到字符识别结果,包括:
依据所述字符位置信息确定字符之间的相对位置关系;
基于所述相对位置关系和预设字符次序对字符进行排序,将排序后的字符串作为字符识别结果。
在一实施例中,在将排序后的字符串作为字符识别结果之前,所述方法还包括:
判断排序后的字符串中是否存在预设单位字符;
若存在,基于所述单位字符拆分所述字符串,得到至少两个字符串。
另一方面,本申请还提供了一种字符识别装置,包括:
采集模块,用于采集待识别图像;
定位模块,用于将所述待识别图像作为已训练的目标检测网络的输入,获得所述目标检测网络输出的所述待识别图像的字符位置信息;
裁切模块,用于从所述待识别图像中裁切出与所述字符位置信息对应的待识别子图像;
识别模块,用于将所述待识别子图像作为已训练的分类网络的输入,获得所述分类网络输出的所述待识别子图像中的字符;
排序模块,用于依据所述字符位置信息排序对应于每一字符位置信息的字符,得到字符识别结果。
进一步,本申请还提供了一种电子设备,所述电子设备包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为执行上述字符识别方法。
另外,本申请还提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序可由处理器执行以完成上述字符识别方法。
在本申请实施例中,通过目标检测网络识别出待识别图像中的字符位置信息后,裁切出与字符位置信息对应的待识别子图像,减少了图像中复杂背景对分类网络的干扰,使得分类网络可以关注待识别子图像中的信息,分类计算出字符,依据字符位置信息对字符排序后,获得字符识别结果;本申请通过依据深度学习的方法以定位加分类的方式,提高了复杂背景下字符识别正确率。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图作简单地介绍。
图1为本申请一实施例提供的应用场景示意图;
图2为本申请一实施例提供的电子设备的结构示意图;
图3为本申请一实施例提供的字符识别方法的流程示意图;
图4为本申请一实施例提供的目标检测网络的训练方法的流程示意图;
图5为本申请一实施例提供的分类网络的训练方法的流程示意图;
图6为本申请一实施例提供的字符识别装置的框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述。
相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本申请的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
图1为本申请一实施例提供的字符识别方法的应用场景示意图。如图1所示,该应用场景包括服务端30和客户端20,服务端30可以是服务器、服务器集群或者云计算中心,服务端30可以对客户端20采集的电子器件表面的图像执行字符识别的业务。客户端20可以是摄像头、智能手机、平板电脑等智能设备。
如图2所示,本实施例提供一种电子设备1,包括:至少一个处理器11和存储器12,图2中以一个处理器11为例。处理器11和存储器12通过总线10连接,存储器12存储有可被处理器11执行的指令,指令被处理器11执行,以使电子设备1可执行下述的实施例中方法的全部或部分流程。在一实施例中,电子设备1可以是上述服务端30。
存储器12可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(Static Random Access Memory,简称SRAM),电可擦除可编程只读存储器(Electrically Erasable Programmable Read-Only Memory,简称EEPROM),可擦除可编程只读存储器(Erasable Programmable Read Only Memory,简称EPROM),可编程只读存储器(Programmable Red-Only Memory,简称PROM),只读存储器(Read-Only Memory,简称ROM),磁存储器,快闪存储器,磁盘或光盘。
本申请还提供了一种计算机可读存储介质,存储介质存储有计算机程序,计算机程序可由处理器11执行以完成本申请提供的字符识别方法。
图3为本申请一实施例提供的字符识别方法的流程示意图,如图3所示,该方法可以包括以下步骤310-步骤350。
步骤310:采集待识别图像。
其中,待识别图像可以包括拍摄现实场景、事物的照片,待识别图像中存在字符,字符可以包括英文字母和数字。
在一实施例中,电子器件表面可以经镭射雕刻在标示牌上形成指示功率、电感等参数的字符。在该实施例中,服务端可以控制相机拍摄电子器件上指定区域,获得待识别图像。其中,待识别图像包括指定区域内镭射形成的多个字符。
步骤320:将所述待识别图像作为已训练的目标检测网络的输入,获得所述目标检测网络输出的所述待识别图像的字符位置信息。
其中,目标检测网络可以是YOLOv1(You Only Look Once)网络、YOLOv2网络、YOLOv3网络中的任意一种,字符位置信息用以表征待识别图像中字符的位置。
在一实施例中,服务端可以将待识别图像作为上述目标检测网络的输入,通过目标检测网络将待识别图像划分为多个单元格(grid cell)、对每一单元格计算边界框(bounding box)的预测结果,上述预测结果包括中心点相对坐标、边界框的宽度和高度、边界框置信度。边界框预测结果可表示为(x,y,w,h,c),(x,y)表示中心点相对坐标,w表示边界框的宽度,h表示边界框的高度,c表示边界框置信度。
其中,中心点相对坐标是边界框的中心点,相对于该中心点所处的单元格的左上角坐标的偏移值。单元格所在坐标系中,单元格的宽度和长度经归一化处理,因此,上述偏移值处于0到1之间。边界框的宽度w是相对于待识别图像的宽度的比值,处于0到1之间;边界框的高度h是相对于待识别图像的高度的比值,处于0到1之间。边界框置信度c表示预测出的边界框内存在字符的概率,处于0到1之间。
服务端可以筛选边界框置信度大于第一阈值的边界框预测结果,作为边界框识别结果。其中,第一阈值用于区分可能真实存在字符的边界框,可以是经验值0.7。
服务端可以基于边界框识别结果对应单元格的位置信息,将边界框识别结果中的中心点相对坐标调整为中心点坐标,得到字符位置信息。其中,单元格的位置信息可以是单元格的左上角坐标;中心点坐标是边界框中心点在单元格所处坐标系中的坐标位置;字符位置信息表示字符在待识别图像中所处的位置,可以包括中心点坐标、边界框的宽度和高度。
比如:边界框识别结果对应单元格的左上角坐标为(4,5),中心点相对坐标为(0.4,0.5),调整后的中心点坐标为(4.4,5.5)。
步骤330:从所述待识别图像中裁切出与所述字符位置信息对应的待识别子图像。
其中,待识别子图像指待识别图像中需接受进一步识别的局部图像。
服务端可以依据字符位置信息中的中心点坐标确定待识别子图像的中心点,并基于字符位置信息中边界框的宽度和高度确定待识别子图像所占图像区域,并裁切出待识别子图像。
在一实施例中,为避免通过多个字符位置信息中的宽度和高度裁切出尺寸不一的待识别子图像,减少后续修正待识别子图像的尺寸的操作,服务端可以基于字符位置信息中的中心点坐标确定待识别子图像的中心点,并基于预设裁切宽度和裁切高度确定待识别子图像所占的图像区域,并裁切待识别子图像。其中,裁切宽度是需要裁切的待识别子图像的宽度,裁切高度是需要裁切的待识别子图像的高度。
步骤340:将所述待识别子图像作为已训练的分类网络的输入,获得所述分类网络输出的所述待识别子图像中的字符。
其中,分类网络可以是Resnet50网络。
服务端对待识别图像进行裁切后,可能得到多个待识别子图像。服务端可以将每一待识别子图像分别输入分类网络,通过分类网络对待识别子图像进行分类计算,得到待识别子图像中的字符。逐个分类后,获得多个字符。
步骤350:依据所述字符位置信息排序对应于每一字符位置信息的字符,得到字符识别结果。
其中,上述字符识别结果为排序后形成的字符串。
在一实施例中,服务端可以依据字符位置信息确定各字符之间的相对位置关系,并基于上述相对位置关系和预设字符次序对字符进行排序,得到排序后的字符串。其中,字符次序可以按照实际应用场景进行配置,比如,可以是自左往右,自上而下。
在一实施例中,字符和其对应的字符位置信息可以包括:1和(3.2,3.0)、0和(3.8,3.0)、u和(4.5,3.0)、H(5.2,3.0)、5和(3.2,4.0)、9和(3.8,4.0)、2和(4.5,4.0)、3和(5.2,4.0)、M和(5.8,4.0)、D和(6.4,4.0)。服务端可以基于上述字符位置信息确定以下相对位置关系:1在0、u、H左边,1在5、9、2、3、M、D上面;0在u、H左边,0在5、9、2、3、M、D上面;u在H左边,u在5、9、2、3、M、D上面;H在5、9、2、3、M、D上面;5在9、2、3、M、D左边;9在2、3、M、D左边;2在3、M、D左边;3在M、D左边;M在D左边。
服务端可以依据上述相对位置关系和自左往右,自上而下的次序,排序得到字符串10uH5923MD。
在一实施例中,在一些应用场景中,待识别图像中的字符存在特定含义。比如,电子器件上的字符形成的字符串可能表示器件参数。在这种情况下,为获得更好的字符识别结果,服务端可以对排序得到的字符串进行拆分。
服务端可以判断上述字符串中是否存在预设单位字符。其中,单位字符是表示参数单位的字符,比如,电流的单位字符为A、mA,电压的单位字符为V,功率的单位字符为W、mV。
可基于字符识别的应用场景配置单位字符库,单位字符库中包含场景下常用的单位字符。服务端可以将单位字符库中的单位字符逐个查找上述字符串,若查到,说明存在单位字符。如果字符串中查找到的字符与至少两个单位字符相同,以最长的单位字符为准。比如:字符串中包含mA,这里的字符A即与单位字符A、单位字符mA匹配,此时确定存在单位字符mA。
若存在单位字符,服务端可以基于单位字符拆分字符串,得到至少两个字符串,并将多个字符串作为字符识别结果。
查找到单位字符后,服务端可以将单位字符和单位字符前的若干字符作为一个字符串,从而拆分出至少两个字符串。比如:对于字符串10uH5923ND,服务端可以查找到单位字符uH和ND,从而拆分出字符串10uH和5923ND。
在一实施例中,执行步骤320之前,首先需训练上述目标检测网络。
参见图4,为本申请一实施例提供的目标检测网络的训练方法的流程示意图,如图4所示,该方法包括以下步骤410至步骤440。
步骤410:将第一训练集中第一样本图像作为深度学习网络的输入,获得所述第一样本图像中的字符位置预测结果;其中,所述第一样本图像携带字符位置标签。
其中,第一训练集指包括大量第一样本图像的集合,第一样本图像指包含若干字符,且标注了字符位置标签的图像。字符位置标签表示第一样本图像中字符的位置信息。深度学习网络为未经训练的YOLOv1(You Only Look Once)网络、YOLOv2网络、YOLOv3网络中的任意一种。
字符位置标签可表示为(x1,y1,w1,h1),(x1,y1)表示第一样本图像中实际框(ground truth)的中心点相对坐标,w1表示实际框的宽度,h1表示实际框的高度。其中,实际框表示第一样本图像中实际存在字符的外围框。
服务端通过目标检测网络计算出第一样本图像中的字符位置预测结果。该字符位置预测结果可表示为(x2,y2,w2,h2,c2),(x2,y2)表示第一样本图像中边界框的中心点相对坐标,w2表示边界框的宽度,h2表示边界框的高度,c2表示该边界框的置信度。
步骤420:通过所述字符位置预测结果和所述字符位置标签计算置信度评分。
服务端可以通过字符位置预测结果和字符位置标签计算置信度评分。其中,置信度评分为边界框的置信度和边界框与实际框的交并比(Intersection over Union,IoU)之间的乘积;交并比为边界框和实际框的交集面积,与边界框和实际框的并集面积之间的比值。
交并比可以衡量预测出的边界框的准确度,交并比为1,说明预测出的边界框与实际框完全重合,此时准确度最高,交并比为0,说明预测出的边界框与实际框完全不重合,此时准确度最低。
服务端可以通过字符位置预测结果和字符位置标签,确定边界框和实际框的交集面积和并集面积,计算出交并比。将交并比和字符位置预测结果中的置信度相乘,获得置信度评分。
步骤430:依据所述字符位置预测结果和所述字符位置标签之间的差异,以及所述置信度评分,调整所述深度学习网络的网络参数。
其中,字符位置预测结果与字符位置标签之间的差异,包括边界框的中心点相对坐标和实际框的中心点相对坐标之间的差异、边界框的宽度与实际框的宽度之间的差异、边界框的高度与实际框的高度之间的差异。
服务端可以构造损失函数,该损失函数的值随字符位置预测结果与字符位置标签之间的差异的减小而减小,随置信度评分的增加而减小。
服务端可以调整深度学习网络的网络参数,并根据调整参数后的深度学习网络对第一样本图像进行预测,重新获得损失函数的值,根据损失函数的值的变化继续调整深度学习网络的网络参数。
步骤440:重复上述过程,直至所述深度学习网络收敛,得到所述目标检测网络。
服务端重复上述过程,通过大量第一样本图像训练深度学习网络后,损失函数的值小于第一期望值。该第一期望值表示深度学习网络的定位准确性满足实用要求。此时,深度学习网络收敛,可作为目标检测网络。
在一实施例中,执行步骤340之前,可以对上述分类网络进行训练。
参见图5,为本申请一实施例提供的分类网络的训练方法的流程示意图,如图5所示,该方法包括以下步骤510至步骤530。
步骤510:将第二训练集中第二样本图像作为深度学习网络的输入,获得对应于所述第二样本图像的分类结果;其中,所述第二样本图像携带字符标签。
其中,第二训练集指包括大量第二样本图像的集合,第二样本图像指包含唯一字符,且携带字符标签的图像。字符标签表示第二样本图像内的字符;在一实施例中,字符标签可以是对字符进行独热编码形成的多维向量,比如,如果需对26个英文字母和10个数字进行识别,则字符标签可以是36维向量,与第二样本图像中存在的字符对应的元素为1,其它元素为0。深度学习网络为未经训练的Resnet50网络。
服务端通过上述深度学习网络对第二样本图像进行分类计算,获得分类结果。该分类结果为36维向量,向量的每一元素为0到1之间的数字,用以表示第二样本图像中存在该元素对应的字符的概率。
步骤520:通过所述字符标签和所述分类结果之间的差异,调整所述深度学习网络的网络参数。
服务端可以构造损失函数,该损失函数的值随字符标签与分类结果之间的差异的减小而减小。服务端调整深度学习的网络参数,并根据调整参数后的深度学习网络对第一样本图像进行分类,重新获得损失函数的值,根据损失函数的值的变化继续调整深度学习网络的网络参数。
步骤530:重复上述过程,直至所述深度学习网络收敛,得到所述分类网络。
服务端重复上述过程,通过大量第二样本图像训练深度学习网络后,损失函数的值小于第二期望值。该第二期望值表示深度学习网络的分类准确性满足实用要求。此时,深度学习网络收敛,可作为分类网络。
图6是本发明一实施例提供的字符识别装置的框图,如图6所示,该装置可以包括:采集模块610、定位模块620、裁切模块630、识别模块640、排序模块650。
采集模块610,用于采集待识别图像。
定位模块620,用于将所述待识别图像作为已训练的目标检测网络的输入,获得所述目标检测网络输出的所述待识别图像的字符位置信息。
裁切模块630,用于从所述待识别图像中裁切出与所述字符位置信息对应的待识别子图像。
识别模块640,用于将所述待识别子图像作为已训练的分类网络的输入,获得所述分类网络输出的所述待识别子图像中的字符。
排序模块650,用于依据所述字符位置信息排序对应于每一字符位置信息的字符,得到字符识别结果。
在一实施例中,定位模块620,进一步用于:
将所述待识别图像作为所述目标检测网络的输入,通过所述目标检测网络将所述待识别图像划分为多个单元格、对每一单元格计算得到边界框预测结果;其中,所述边界框预测结果包括中心点相对坐标、边界框置信度;
筛选所述边界框置信度大于第一阈值的边界框预测结果,作为边界框识别结果;
基于所述边界框识别结果对应单元格的位置信息,将所述边界框识别结果中的中心点相对坐标调整为中心点坐标,得到所述字符位置信息。
在一实施例中,所述装置还包括训练模块(图中未示出),用于:
将第一训练集中第一样本图像作为深度学习网络的输入,获得所述第一样本图像中的字符位置预测结果;其中,所述第一样本图像携带字符位置标签;
通过所述字符位置预测结果和所述字符位置标签计算置信度评分;
依据所述字符位置预测结果和所述字符位置标签之间的差异,以及所述置信度评分,调整所述深度学习网络的网络参数;
重复上述过程,直至所述深度学习网络收敛,得到所述目标检测网络。
在一实施例中,裁切模块630,进一步用于:
基于所述字符位置信息、预设裁切宽度和预设裁切高度,对所述待识别图像进行裁切,得到待识别子图像。
在一实施例中,所述装置还包括训练模块(图中未示出),用于:
将第二训练集中第二样本图像作为深度学习网络的输入,获得对应于所述第二样本图像的分类结果;其中,所述第二样本图像携带字符标签;
通过所述字符标签和所述分类结果之间的差异,调整所述深度学习网络的网络参数;
重复上述过程,直至所述深度学习网络收敛,得到所述分类网络。
在一实施例中,排序模块650,进一步用于:
依据所述字符位置信息确定字符之间的相对位置关系;
基于所述相对位置关系和预设字符次序对字符进行排序,将排序后的字符串作为字符识别结果。
在一实施例中,排序模块650,进一步用于:
判断排序后的字符串中是否存在预设单位字符;
若存在,基于所述单位字符拆分所述字符串,得到至少两个字符串。
上述装置中各个模块的功能和作用的实现过程具体详见上述字符识别方法中对应步骤的实现过程,在此不再赘述。
在本申请所提供的几个实施例中,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本申请的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本申请各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。

Claims (8)

1.一种字符识别方法,其特征在于,包括:
采集待识别图像;
将所述待识别图像作为已训练的目标检测网络的输入,获得所述目标检测网络输出的所述待识别图像的字符位置信息;其中,所述字符位置信息对应于单一字符;
从所述待识别图像中裁切出与所述字符位置信息对应的待识别子图像;
将所述待识别子图像作为已训练的分类网络的输入,获得所述分类网络输出的所述待识别子图像中的字符;
依据所述字符位置信息确定字符之间的相对位置关系;
基于所述相对位置关系和预设字符次序对字符进行排序,判断排序后的字符串中是否存在预设单位字符;其中,若所述字符串的字符与至少两个单位字符匹配,以最长的单位字符为准;
若存在,基于所述单位字符拆分所述字符串,得到至少两个字符串,将拆分得到的字符串作为字符识别结果。
2.根据权利要求1所述的方法,其特征在于,所述将所述待识别图像作为已训练的目标检测网络的输入,获得所述目标检测网络输出的所述待识别图像中的字符位置信息,包括:
将所述待识别图像作为所述目标检测网络的输入,通过所述目标检测网络将所述待识别图像划分为多个单元格、对每一单元格计算得到边界框预测结果;其中,所述边界框预测结果包括中心点相对坐标、边界框置信度;
筛选所述边界框置信度大于第一阈值的边界框预测结果,作为边界框识别结果;
基于所述边界框识别结果对应单元格的位置信息,将所述边界框识别结果中的中心点相对坐标调整为中心点坐标,得到所述字符位置信息。
3.根据权利要求1所述的方法,其特征在于,所述目标检测网络,通过如下方式训练得到:
将第一训练集中第一样本图像作为深度学习网络的输入,获得所述第一样本图像中的字符位置预测结果;其中,所述第一样本图像携带字符位置标签;
通过所述字符位置预测结果和所述字符位置标签计算置信度评分;
依据所述字符位置预测结果和所述字符位置标签之间的差异,以及所述置信度评分,调整所述深度学习网络的网络参数;
重复上述过程,直至所述深度学习网络收敛,得到所述目标检测网络。
4.根据权利要求1所述的方法,其特征在于,所述从所述待识别图像裁切与所述字符位置信息对应的待识别子图像,包括:
基于所述字符位置信息、预设裁切宽度和预设裁切高度,对所述待识别图像进行裁切,得到待识别子图像。
5.根据权利要求1所述的方法,其特征在于,所述分类网络,通过如下方式训练得到:
将第二训练集中第二样本图像作为深度学习网络的输入,获得对应于所述第二样本图像的分类结果;其中,所述第二样本图像携带字符标签;
通过所述字符标签和所述分类结果之间的差异,调整所述深度学习网络的网络参数;
重复上述过程,直至所述深度学习网络收敛,得到所述分类网络。
6.一种字符识别装置,其特征在于,包括:
采集模块,用于采集待识别图像;
定位模块,用于将所述待识别图像作为已训练的目标检测网络的输入,获得所述目标检测网络输出的所述待识别图像的字符位置信息;其中,所述字符位置信息对应于单一字符;
裁切模块,用于从所述待识别图像中裁切出与所述字符位置信息对应的待识别子图像;
识别模块,用于将所述待识别子图像作为已训练的分类网络的输入,获得所述分类网络输出的所述待识别子图像中的字符;
排序模块,用于依据所述字符位置信息确定字符之间的相对位置关系;基于所述相对位置关系和预设字符次序对字符进行排序,判断排序后的字符串中是否存在预设单位字符;其中,若所述字符串的字符与至少两个单位字符匹配,以最长的单位字符为准;若存在,基于所述单位字符拆分所述字符串,得到至少两个字符串,将拆分得到的字符串作为字符识别结果。
7.一种电子设备,其特征在于,所述电子设备包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为执行权利要求1-5任意一项所述的字符识别方法。
8.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序可由处理器执行以完成权利要求1-5任意一项所述的字符识别方法。
CN202010253622.0A 2020-04-02 2020-04-02 字符识别方法及装置、电子设备、存储介质 Active CN111428723B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010253622.0A CN111428723B (zh) 2020-04-02 2020-04-02 字符识别方法及装置、电子设备、存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010253622.0A CN111428723B (zh) 2020-04-02 2020-04-02 字符识别方法及装置、电子设备、存储介质

Publications (2)

Publication Number Publication Date
CN111428723A CN111428723A (zh) 2020-07-17
CN111428723B true CN111428723B (zh) 2021-08-24

Family

ID=71552039

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010253622.0A Active CN111428723B (zh) 2020-04-02 2020-04-02 字符识别方法及装置、电子设备、存储介质

Country Status (1)

Country Link
CN (1) CN111428723B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112101346A (zh) * 2020-08-27 2020-12-18 南方医科大学南方医院 一种基于目标检测的验证码识别方法及装置
CN112198327A (zh) * 2020-09-22 2021-01-08 桂林优利特医疗电子有限公司 一种基于机器视觉的医疗器械进样检测系统及方法
CN112132139A (zh) * 2020-09-22 2020-12-25 深兰科技(上海)有限公司 字符识别方法和装置
CN112435222A (zh) * 2020-11-11 2021-03-02 深圳技术大学 一种电路板检测方法、装置及计算机可读存储介质
CN112464798A (zh) * 2020-11-24 2021-03-09 创新奇智(合肥)科技有限公司 文本识别方法及装置、电子设备、存储介质
CN112580657B (zh) * 2020-12-23 2022-11-01 陕西天诚软件有限公司 一种自学习字符识别方法
CN112766266B (zh) * 2021-01-29 2021-12-10 云从科技集团股份有限公司 基于分阶段概率统计的文本方向矫正方法、系统及装置
CN112883965A (zh) * 2021-02-08 2021-06-01 中兴盛达电气技术(郑州)有限公司 包装器皿上的日期检测方法、电子设备和计算机可读存储介质
CN113011274B (zh) * 2021-02-24 2024-04-09 南京三百云信息科技有限公司 图像识别方法、装置、电子设备及存储介质
CN113111871B (zh) * 2021-04-21 2024-04-19 北京金山数字娱乐科技有限公司 文本识别模型的训练方法及装置、文本识别方法及装置
CN113239854B (zh) * 2021-05-27 2023-12-19 北京环境特性研究所 一种基于深度学习的船舶身份识别方法及系统

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6582464B2 (ja) * 2015-03-17 2019-10-02 大日本印刷株式会社 情報入力装置、およびプログラム
CN106934800B (zh) * 2017-02-28 2020-04-07 北京科技大学 一种基于yolo9000网络的金属板带表面缺陷检测方法及装置
CN110717366A (zh) * 2018-07-13 2020-01-21 杭州海康威视数字技术股份有限公司 文本信息的识别方法、装置、设备及存储介质
CN109741739A (zh) * 2018-12-21 2019-05-10 上海拍拍贷金融信息服务有限公司 一种应用处理方法及装置
CN109753961A (zh) * 2018-12-26 2019-05-14 国网新疆电力有限公司乌鲁木齐供电公司 一种基于图像识别的变电站间隔单元解锁方法与系统
CN109829453B (zh) * 2018-12-29 2021-10-12 天津车之家数据信息技术有限公司 一种卡证中文字的识别方法、装置以及计算设备
CN109961008A (zh) * 2019-02-13 2019-07-02 平安科技(深圳)有限公司 基于文字定位识别的表格解析方法、介质及计算机设备
CN110443140B (zh) * 2019-07-05 2023-10-03 平安科技(深圳)有限公司 文本定位的方法、装置、计算机设备及存储介质

Also Published As

Publication number Publication date
CN111428723A (zh) 2020-07-17

Similar Documents

Publication Publication Date Title
CN111428723B (zh) 字符识别方法及装置、电子设备、存储介质
CN110738207B (zh) 一种融合文字图像中文字区域边缘信息的文字检测方法
US7899249B2 (en) Media material analysis of continuing article portions
CN110717366A (zh) 文本信息的识别方法、装置、设备及存储介质
CN105447522A (zh) 一种复杂图像文字识别系统
CN112508975A (zh) 一种图像识别方法、装置、设备及存储介质
CN111340023B (zh) 文本识别方法及装置、电子设备、存储介质
RU2697649C1 (ru) Способы и системы сегментации документа
CN112307919B (zh) 一种基于改进YOLOv3的单证图像中数字信息区域识别方法
CN112861917B (zh) 基于图像属性学习的弱监督目标检测方法
CN110728307A (zh) 自生成数据集与标签实现x光影像图小样本字符识别方法
CN112861842A (zh) 基于ocr的案件文本识别方法及电子设备
CN116342525A (zh) 基于Lenet-5模型的SOP芯片引脚缺陷检测方法及系统
CN109635796B (zh) 调查问卷的识别方法、装置和设备
CN114463767A (zh) 信用证识别方法、装置、计算机设备和存储介质
CN113780116A (zh) 发票分类方法、装置、计算机设备和存储介质
CN111832497B (zh) 一种基于几何特征的文本检测后处理方法
CN113468979A (zh) 文本行语种识别方法、装置、电子设备
CN113128604A (zh) 页面元素的识别方法、装置、电子设备及存储介质
CN117372956A (zh) 一种变电站屏柜设备状态检测方法及装置
CN112733741A (zh) 交通标识牌识别方法、装置和电子设备
CN114387600A (zh) 文本特征识别方法、装置、计算机设备和存储介质
CN114743045A (zh) 一种基于双分支区域建议网络的小样本目标检测方法
CN113468977A (zh) 文本行语种识别方法、装置、电子设备
CN112633116A (zh) 一种智能解析pdf图文的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP02 Change in the address of a patent holder
CP02 Change in the address of a patent holder

Address after: 215100 No. 9, Zhufeng Road, Mudu Town, Wuzhong District, Suzhou City, Jiangsu Province

Patentee after: Suzhou jieruisi Intelligent Technology Co.,Ltd.

Address before: 215100 No.15, Mudu Town, Wuzhong District, Suzhou City, Jiangsu Province

Patentee before: Suzhou jieruisi Intelligent Technology Co.,Ltd.