CN113553883B - 一种票据图像识别方法、装置及电子设备 - Google Patents
一种票据图像识别方法、装置及电子设备 Download PDFInfo
- Publication number
- CN113553883B CN113553883B CN202010334996.5A CN202010334996A CN113553883B CN 113553883 B CN113553883 B CN 113553883B CN 202010334996 A CN202010334996 A CN 202010334996A CN 113553883 B CN113553883 B CN 113553883B
- Authority
- CN
- China
- Prior art keywords
- field
- information
- character
- type
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Character Discrimination (AREA)
Abstract
本发明实施例提供了一种票据图像识别方法、装置及电子设备,包括:根据识别得到的各文字和文字的位置信息,以及像素点的预测方位信息,对待识别票据图像中各文字进行位置匹配,得到待识别票据图像中包含的各字段,以及基于预设的匹配策略,从各字段中,确定出与预设的类型字段对应的信息字段,由于票据图像中弯曲、褶皱对单个文字的识别不会产生影响,因此以每个文字为识别基础,可以保证每个文字识别的准确性,并通过预先训练完成的深度神经网络模型,确定出票据图像中包含的各字段,从而避免了弯曲、褶皱对字段识别的影响,进而可以提高票据图像中票据信息录入的准确性。
Description
技术领域
本发明涉及图像识别技术领域,特别是涉及一种票据图像识别方法、装置及电子设备。
背景技术
在企业ERP(Enterprise Resource Planning,企业资源计划)、财务系统、医疗HIS(HospitalInformationSystem,医院信息系统)等应用领域,往往需要将企业、机构运转过程中产生的发票、收据、表单等票据中记录的信息以结构化数据的形式录入到相关系统,以便后续使用。
例如,为了实现财务报销,需要统计用于报销的发票中记录的相关信息,如图2所示,为一种增值税发票的示意图,通常需要将图2所示的增值税发票中的发票代码、发票号码、价税合计等关键信息输入到财务报销系统中,以供财务报销系统计算。
现有技术中,存在结合文本检测技术实现自动录入票据信息的技术方案,其主要通过扫描获取票据图像,并通过整段、或整行识别的方式来记录票据图像包含的票据信息。
发明人在实现本发明的过程中发现,现有技术至少存在如下问题:
在实际应用的过程中,票据可能由于保存不完善等原因,导致票据出现弯曲、褶皱等问题,而弯曲、褶皱会对现有技术中通过整段、或整行识别的方式产生影响,容易造成识别出错,导致录入的票据信息准确较低。
发明内容
本发明实施例的目的在于提供一种票据图像识别方法,以在票据图像的票据信息录入过程中,提高票据图像中票据信息录入的准确性。具体技术方案如下:
本发明实施例提供一种票据图像识别方法,包括:
对待识别票据图像进行文字识别,得到所述待识别票据图像包含的各文字,以及每个所述文字的位置信息;
将所述待识别票据图像输入预先训练完成的深度神经网络模型,得到所述待识别票据图像包含的每个像素点的预测方位信息,其中,所述待识别票据图像中一个像素点所属的文字,与该像素点的所述预测方位信息所表示位置的像素点所属的文字属于同一字段,所述深度神经网络模型为基于票据图像样本、以及所述票据图像样本中文字样本的位置信息预先训练完成的;
基于每个所述像素点的预测方位信息,以及每个所述文字的位置信息,对所述待识别票据图像中各文字进行位置匹配,得到所述待识别票据图像中包含的各字段;
基于预设的匹配策略,从所述各字段中,确定出与预设的类型字段对应的信息字段,其中,所述类型字段表示与其对应字段所属的信息类型,所述信息字段表示票据信息。
进一步的,所述基于每个所述像素点的预测方位信息,以及每个所述文字的位置信息,对所述待识别票据图像中各文字进行位置匹配,得到所述待识别票据图像中包含的各字段,包括:
基于每个所述像素点的预测方位信息,以及每个所述文字的位置信息,确定每个所述文字的预测方位信息,所述文字的位置信息为文字区域的对角坐标,所述文字区域为矩形区域;
基于每个所述文字的预测方位信息,以及每个所述文字的位置信息,对所述待识别票据图像中各文字进行位置匹配,得到所述待识别票据图像中包含的各字段。
进一步的,所述基于每个所述像素点的预测方位信息,以及每个所述文字的位置信息,确定每个所述文字的预测方位信息,包括:
针对每个所述文字,基于该文字的位置信息,确定该文字的文字区域所包含的像素点;
计算该文字的文字区域所包含的像素点的所述预测方位信息的平均值,作为该文字的预测方位信息。
进一步的,所述预测方位信息为预测角度和预测距离;
所述基于每个所述文字的预测方位信息,以及每个所述文字的位置信息,对所述待识别票据图像中各文字进行位置匹配,得到所述待识别票据图像中包含的各字段,包括:
针对每个所述文字,基于该文字的位置信息,确定该文字的文字区域的中心点;
以该文字的中心点为基准点,按照该文字的预测角度和预测距离,在所述待识别票据图像中确定像素点,作为该文字的中心点的匹配点;
基于每个所述文字的位置信息,当一个文字的中心点的匹配点位于另一个文字的文字区域内时,确定该两个文字属于同一字段,得到所述待识别票据图像中包含的各字段。
进一步的,所述基于预设的匹配策略,从所述各字段中,确定出与预设的类型字段对应的信息字段,包括:
获取关键词表,其中,所述关键词表中记录有预设的关键词,以及与所述关键词对应的类型字段;
针对每个字段,当该字段包含有所述关键词时,确定该字段为信息字段,且该信息字段对应的类型字段为所包含的关键词对应的类型字段。
进一步的,所述基于预设的匹配策略,从所述各字段中,确定出与预设的类型字段对应的信息字段,包括:
获取类型字段表,其中,所述类型字段表中记录有预设的各类型字段;
确定所述各字段中未记录在所述类型字段表中的字段,作为预分类字段;
将每个预分类字段输入预先建立的文本分类模型,得到每个所述预分类字段的分类结果,一个所述预分类字段的所述分类结果包括:类型概率和删除概率,所述类型概率为该预分类字段为信息字段,且对应的字段类型为所述各类型字段中每种类型字段的概率,所述删除概率为该预分类字段属于待删除的类型字段的概率,所述待删除的类型字段为除预设的类型字段对应的信息字段之外的字段,其中,所述文本分类模型为基于字段样本,以及所述字段样本的类别标识预先训练完成的;
根据每个所述预分类字段的分类结果,从各预分类字段中,确定出与预设的类型字段对应的信息字段。
进一步的,所述根据每个所述预分类字段的分类结果,从各预分类字段中,确定出与预设的类型字段对应的信息字段,包括:
从各预分类字段中,确定出所述删除概率小于预设概率阈值的预分类字段,作为信息字段;
基于确定出的每个信息字段为所述各类型字段中每种类型字段的类型概率,确定每个所述信息字段对应的类型字段。
进一步的,所述基于确定出的每个信息字段为所述各类型字段中每种类型字段的类型概率,确定每个所述信息字段对应的类型字段,包括:
按照确定出的每个信息字段为所述各类型字段中每种类型字段的类型概率的大小,从所述各类型字段中,确定出前预设数量个类型字段,作为与每个所述信息字段对应的预选类型字段,所述预先类字段包括实际类型字段和虚拟类型字段,所述实际类型字段为所述各字段中包含的字段,所述虚拟类型字段为所述各字段中未包含的字段;
基于每个所述文字的位置信息,确定每个所述信息字段的位置信息,以及每个所述信息字段对应的每个实际类型字段的位置信息;
基于每个所述信息字段的位置信息和所述每个信息字段对应每个所述实际类型字段的位置信息,确定每个所述信息字段与对应的每个所述实际类型信息之间连线的角度,作为每个所述信息字段与对应的每个所述实际类型信息对应的角度信息;
聚类分析每个所述信息字段与对应的每个所述实际类型信息对应的角度信息,确定出角度占比最多的角度区间;
当每个所述信息字段与对应的每个所述实际类型字段之间连线的角度,存在位于所述角度区间的角度时,确定位于所述角度区间的角度对应的实际类型字段,作为与每个所述信息字段对应的类型字段;
当每个所述信息字段与对应的每个所述实际类型字段之间连线的角度,不存在位于所述角度区间的角度时,在每个所述信息字段对应的虚拟类型字段中,确定出概率最大的虚拟类型字段,作为与每个所述信息字段对应的类型字段。
进一步的,所述深度神经网络模型的训练步骤包括:
针对每个所述文字样本,基于该文字样本的位置信息,确定该文字样本的中心点;
基于该文字样本的中心点,以及该文字样本对应的参考文字样本的中心点,确定该文字样本的中心点对应的方位信息,作为该文字样本所在文本区域内每个像素点的方位信息,其中,每个所述文字样本对应的参考文字样本为与每个所述文字样本属于同一字段的文字样本,所述方位信息表示每个所述文字样本的中心点与对应的参考文字样本的中心点之间连线的角度和距离;
基于所述票据图像样本、以及每个所述文字样本所在文本区域内每个像素点的方位信息,对所述深度神经网络模型进行训练。
进一步的,所述基于所述票据图像样本、以及每个所述文字样本所在文本区域内每个像素点的方位信息,对所述深度神经网络模型进行训练,包括:
将所述票据图像样本输入所述深度神经网络模型,得到所述票据图像样本包含的每个像素点的预测方位信息;
基于所述票据图像样本包含的每个像素点的预测方位信息,确定每个所述文字样本所在文本区域内每个像素点的预测方位信息;
基于每个所述文字样本所在文本区域内每个像素点的方位信息和预测方位信息,计算所述深度神经网络模型的损失函数值;
根据所述损失函数值,判断所述深度神经网络模型是否收敛,当所述深度神经网络模型未收敛时,根据所述损失函数值调整所述深度神经网络模型参数,并进行下一次训练,当所述深度神经网络模型收敛时,得到训练完成的所述深度神经网络模型。
本发明实施例还提供一种票据图像识别装置,所述装置包括:
图像识别模块,用于对待识别票据图像进行文字识别,得到所述待识别票据图像包含的各文字,以及每个所述文字的位置信息;
图像输入模块,用于将所述待识别票据图像输入预先训练完成的深度神经网络模型,得到所述待识别票据图像包含的每个像素点的预测方位信息,其中,所述待识别票据图像中一个像素点所属的文字,与该像素点的所述预测方位信息所表示位置的像素点所属的文字属于同一字段,所述深度神经网络模型为基于票据图像样本、以及所述票据图像样本中文字样本的位置信息预先训练完成的;
文字匹配模块,用于基于每个所述像素点的预测方位信息,以及每个所述文字的位置信息,对所述待识别票据图像中各文字进行位置匹配,得到所述待识别票据图像中包含的各字段;
信息字段确定模块,用于基于预设的匹配策略,从所述各字段中,确定出与预设的类型字段对应的信息字段,其中,所述类型字段表示与其对应字段所属的信息类型,所述信息字段表示票据信息。
进一步的,所述文字匹配模块,具体用于基于每个所述像素点的预测方位信息,以及每个所述文字的位置信息,确定每个所述文字的预测方位信息,所述文字的位置信息为文字区域的对角坐标,所述文字区域为矩形区域,并且基于每个所述文字的预测方位信息,以及每个所述文字的位置信息,对所述待识别票据图像中各文字进行位置匹配,得到所述待识别票据图像中包含的各字段。
进一步的,所述文字匹配模块,具体用于针对每个所述文字,基于该文字的位置信息,确定该文字的文字区域所包含的像素点,并且计算该文字的文字区域所包含的像素点的所述预测方位信息的平均值,作为该文字的预测方位信息。
进一步的,所述预测方位信息为预测角度和预测距离;
所述文字匹配模块,具体用于针对每个所述文字,基于该文字的位置信息,确定该文字的文字区域的中心点,并且以该文字的中心点为基准点,按照该文字的预测角度和预测距离,在所述待识别票据图像中确定像素点,作为该文字的中心点的匹配点,以及基于每个所述文字的位置信息,当一个文字的中心点的匹配点位于另一个文字的文字区域内时,确定该两个文字属于同一字段,得到所述待识别票据图像中包含的各字段。
进一步的,所述信息字段确定模块,具体用于获取关键词表,其中,所述关键词表中记录有预设的关键词,以及与所述关键词对应的类型字段,并且针对每个字段,当该字段包含有所述关键词时,确定该字段为信息字段,且该信息字段对应的类型字段为所包含的关键词对应的类型字段。
进一步的,所述信息字段确定模块,具体用于获取类型字段表,其中,所述类型字段表中记录有预设的各类型字段,并且确定所述各字段中未记录在所述类型字段表中的字段,作为预分类字段,以及将每个预分类字段输入预先建立的文本分类模型,得到每个所述预分类字段的分类结果,一个所述预分类字段的所述分类结果包括:类型概率和删除概率,所述类型概率为该预分类字段为信息字段,且对应的字段类型为所述各类型字段中每种类型字段的概率,所述删除概率为该预分类字段属于待删除的类型字段的概率,所述待删除的类型字段为除预设的类型字段对应的信息字段之外的字段,其中,所述文本分类模型为基于字段样本,以及所述字段样本的类别标识预先训练完成的,以及根据每个所述预分类字段的分类结果,从各预分类字段中,确定出与预设的类型字段对应的信息字段。
进一步的,所述信息字段确定模块,具体用于从各预分类字段中,确定出所述删除概率小于预设概率阈值的预分类字段,作为信息字段,并且基于确定出的每个信息字段为所述各类型字段中每种类型字段的类型概率,确定每个所述信息字段对应的类型字段。
进一步的,所述信息字段确定模块,具体用于按照确定出的每个信息字段为所述各类型字段中每种类型字段的类型概率的大小,从所述各类型字段中,确定出前预设数量个类型字段,作为与每个所述信息字段对应的预选类型字段,所述预先类字段包括实际类型字段和虚拟类型字段,所述实际类型字段为所述各字段中包含的字段,所述虚拟类型字段为所述各字段中未包含的字段,并且基于每个所述文字的位置信息,确定每个所述信息字段的位置信息,以及每个所述信息字段对应的每个实际类型字段的位置信息,以及基于每个所述信息字段的位置信息和所述每个信息字段对应每个所述实际类型字段的位置信息,确定每个所述信息字段与对应的每个所述实际类型信息之间连线的角度,作为每个所述信息字段与对应的每个所述实际类型信息对应的角度信息,以及聚类分析每个所述信息字段与对应的每个所述实际类型信息对应的角度信息,确定出角度占比最多的角度区间,以及当每个所述信息字段与对应的每个所述实际类型字段之间连线的角度,存在位于所述角度区间的角度时,确定位于所述角度区间的角度对应的实际类型字段,作为与每个所述信息字段对应的类型字段,以及当每个所述信息字段与对应的每个所述实际类型字段之间连线的角度,不存在位于所述角度区间的角度时,在每个所述信息字段对应的虚拟类型字段中,确定出概率最大的虚拟类型字段,作为与每个所述信息字段对应的类型字段。
进一步的,所述装置还包括:
中心点确定模块,用于针对每个所述文字样本,基于该文字样本的位置信息,确定该文字样本的中心点;
方位信息确定模块,用于基于该文字样本的中心点,以及该文字样本对应的参考文字样本的中心点,确定该文字样本的中心点对应的方位信息,作为该文字样本所在文本区域内每个像素点的方位信息,其中,每个所述文字样本对应的参考文字样本为与每个所述文字样本属于同一字段的文字样本,所述方位信息表示每个所述文字样本的中心点与对应的参考文字样本的中心点之间连线的角度和距离;
模型训练模块,用于基于所述票据图像样本、以及每个所述文字样本所在文本区域内每个像素点的方位信息,对所述深度神经网络模型进行训练。
进一步的,所述模型训练模块,具体用于将所述票据图像样本输入所述深度神经网络模型,得到所述票据图像样本包含的每个像素点的预测方位信息,并且基于所述票据图像样本包含的每个像素点的预测方位信息,确定每个所述文字样本所在文本区域内每个像素点的预测方位信息,以及基于每个所述文字样本所在文本区域内每个像素点的方位信息和预测方位信息,计算所述深度神经网络模型的损失函数值,以及根据所述损失函数值,判断所述深度神经网络模型是否收敛,当所述深度神经网络模型未收敛时,根据所述损失函数值调整所述深度神经网络模型参数,并进行下一次训练,当所述深度神经网络模型收敛时,得到训练完成的所述深度神经网络模型。
本发明实施例还提供一种电子设备,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现上述任一票据图像识别方法的步骤。
本发明实施还提供了一种计算机可读存储介质,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述任一票据图像识别方法的步骤。
本发明实施例还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述任一票据图像识别方法。
本发明实施例提供的一种票据图像处理方法、装置及电子设备,方案中,对待识别票据图像进行文字识别,得到待识别票据图像包含的各文字,以及每个文字的位置信息,并且将待识别票据图像输入预先训练完成的深度神经网络模型,得到待识别票据图像包含的每个像素点的预测方位信息,以及基于每个像素点的预测方位信息,以及每个文字的位置信息,对待识别票据图像中各文字进行位置匹配,得到待识别票据图像中包含的各字段,以及基于预设的匹配策略,从各字段中,确定出与预设的类型字段对应的信息字段,其中,类型字段表示与其对应字段所属的信息类型,信息字段表示票据信息,由于票据图像中弯曲、褶皱对单个文字的识别不会产生影响,因此以每个文字为识别基础,可以保证每个文字识别的准确性,并通过预先训练完成的深度神经网络模型,确定出票据图像中包含的各字段,从而避免了弯曲、褶皱对字段识别的影响,进而可以提高票据图像中票据信息录入的准确性。
当然,实施本发明的任一产品或方法并不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。
图1为本发明一个实施例提供的票据图像识别方法的流程图;
图2为一种增值税发票的示意图;
图3为一种出租车专用发票的数字图像;
图4为本发明一个实施例提供的文字示意图;
图5为本发明一个实施例提供的第一种待识别票据图像的示意图;
图6为本发明一个实施例提供的一种文字匹配方法的流程图;
图7为本发明一个实施例提供的一种预测方位信息确定方法的流程图;
图8为本发明一个实施例提供的一种字段确定方法的流程图;
图9为本发明一个实施例提供的第一种信息字段确定方法的流程图;
图10为本发明一个实施例提供的第二种信息字段确定方法的流程图;
图11为本发明一个实施例提供的第三种信息字段确定方法的流程图;
图12为本发明一个实施例提供的第四种信息字段确定方法的流程图;
图13为本发明一个实施例提供的第二种待识别票据图像的示意图;
图14为本发明一个实施例提供的连线示意图;
图15为本发明一个实施例提供的简化连线示意图;
图16为本发明一个实施例提供的深度神经网络模型的训练的流程图;
图17a为本发明一个实施例提供的一种票据图像样本中文字样本的示意图;
图17b为本发明一个实施例提供的另一种票据图像样本中文字样本的示意图;
图18为本发明一个实施例提供的票据图像识别装置的结构示意图;
图19为本发明一个实施例提供的深度神经网络装置的训练的结构示意图;
图20为本发明实施例提供的电子设备的结构示意图。
具体实施方式
为了给出在票据图像的票据信息录入过程中,提高票据图像中票据信息录入的准确性的实现方案,本发明实施例提供了一种票据图像识别方法、装置及电子设备,以下结合说明书附图对本发明的实施例进行说明。并且在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
在本发明的一个实施例中,提供一种票据图像识别方法,如图1所示,该方法包括以下步骤:
S101:对待识别票据图像进行文字识别,得到待识别票据图像包含的各文字,以及每个文字的位置信息。
本步骤中,待识别票据图像可以是发票、收据、表单等票据,通过拍照、扫描等技术手段获取的数字图像,具体的,可以通过高拍仪、手机拍摄,或通过扫描仪扫描获取,例如,如图2所示的一种增值税发票的图像,以及如图3所示的一种出租车专用发票的数字图像。
在一个实施例中,可以先检测待识别票据图像中存在文字的文字区域,再识别文字区域所包含的文字。
可选的,可以通过YOLO(You Only Look Once,你只需要看一遍)算法、Faster-RCNN(Faster-Region Convolutional Neural Networks,快速区域卷积神经网络)、EAST(Efficient Accurate Scene Text,高效准确的场景文本)算法等检测技术检测待识别票据图像中存在文字的文字区域。
可选的,对文字区域所包含的文字的识别可以为通过现有技术训练分类网络的方式实现,在此不再赘述。
在一个实施例中,识别出的文字的位置信息可以为文字所在文本区域的中心点坐标,在如图4所示的文字示意图中,矩形框所在的区域为文字所在的文本区域,矩形框位于以X轴和Y轴组成的坐标系统中,其中,O点为坐标轴零点坐标为(0,0),其中C1为文本区域的中心点,则该文字的位置信息可以以C1点的坐标表示,如(x1,y1)。
可选的,当文本区域为矩形区域时,文字的位置信息还可以为文字所在矩形区域对角坐标,例如,在如图4所示的文字示意图中,C2和C3为文字所在矩形区域对角点,可以确定C2和C3的坐标,作为该文字的位置信息,如{(x2,y2)、(x3,y3)},或以另外一对对角点(图中未示出)的坐标表示。
可选的,在文本区域为矩形区域的情况下,还可以以矩形框的长、宽(图中未示出)以及矩形框四个角中任意一个角的坐标(如C2)表示,此时,可以表示为{长、宽、(x2,y2)}。
S102:将待识别票据图像输入预先训练完成的深度神经网络模型,得到待识别票据图像包含的每个像素点的预测方位信息。
本步骤中,待识别票据图像中一个像素点所属的文字,与该像素点的预测方位信息所表示位置的像素点所属的文字属于同一字段,深度神经网络模型为基于票据图像样本、以及票据图像样本中文字样本的位置信息预先训练完成的。
可选的,一个像素点的预测方位信息可以表示与该像素点的对应的一个位置,例如,如图5所示,为本发明实施例示出的一种待识别票据图像的示意图,图中每个小方格表示一个像素点,图中灰色区域表示文字所在的文字区域,q、i、和p分别为票据图像中一个像素点,将该待识别票据图像输入深度神经网络模型,得到该待识别票据图像中每个像素点对应的预测方位值,示例性的,对于像素点q,其预测方位信息所表示的位置可能位于像素点i,也可能位于像素点p,当位于像素点i时,表示像素点i所属的文字与像素点q所属的文字属于同一字段,在本实例中,像素点i并为属于任何一个实际存在文字(即没有实际存在的文字包含像素点i,因此,可用理解为,像素点i所属的文字为实际并不存在的虚拟文字,该虚拟文字是深度神经网络模型预测经过运算“预测”的,当位于像素点p时,则表示像素点q所属的文字与像素点q所属的文字属于同一字段,即图5所示待识别票据图像中两个灰度区域的文字属于同一字段。
在一个实施例中,预测方位信息可以表示位置关系,可选的,可以为角度、距离,如(θ,L),其中θ表示像素点与其预测方位信息所表示位置处的像素点连线与基准方向的夹角,L表示该两个像素点的距离,可选的,对于文字来说,与其属于同一文段的且相邻的文字至多为两个,因此,为了方便的计算,一个像素点的预测方位信息可以包括两组,其中,对于左右排序的字段,一组表示与左边文字所包含像素点的位置关系,一组表示与右边文字所包含像素点的位置关系,对于上下排序的字段,一组表示与位于上方文字所包含像素点的位置关系,一组表示与位于下方文字所包含像素点的位置关系,此时预测方位信息可以表示为(θ1,L1,θ2,L2),其中,θ1和L1为一组,θ2和L2为一组。
为了进一步的便于计算,可以进一步的将角度通过该角度的正弦值和余弦值表示,例如,(sinθ1,cosθ1,L1,sinθ2,cosθ2,L2),其中,sinθ1、cosθ1和L1为一组,sinθ2、cosθ2和L2为一组。
在一个实施例中,可以将票据图像样本输入深度神经网络模型,以票据图像样本中文字样本的位置信息作为真值标定,以训练深度神经网络模型。
在一个实施例中,本步骤可以与步骤S101同步执行,也可以步骤S101执行之后或执行之前执行。
S103:基于每个像素点的预测方位信息,以及每个文字的位置信息,对待识别票据图像中各文字进行位置匹配,得到待识别票据图像中包含的各字段。
本步骤中,由前述内容可知,一个像素点的预测方位信息可以表示一个位置,其可以为该像素点与该位置所属像素点的位置关系,因此,基于每个像素点的预测方位信息,可以确定每个像素点对应的一个位置。
在一个实施例中,对于任意两个文字,当属于其中一个文字的像素点的预测方位信息所表示的位置与另一个文字的位置信息所表示的位置相匹配时,可以确定该两个文字属于同一文段,进一步的还可以确定该两个文字相邻,并且还可以根据该两个文字的位置信息,确定该两个文字在文段中的先后顺序,从而得到待识别票据图像中包含的各字段。
在一个实施例中,为了确保匹配结果的准确性,还可以综合属于同一个文字的像素点的预测方位信息进行判断,可选的,可以基于一个文字包含的各像素点的预测方位信息与另一个文字的位置信息所表示的位置相匹配的比例,例如,一个文字包含的像素点中有60%像素点的预测方位信息所表示的位置于另一个文字的位置信息相匹配时,则可以确定该两个文字属于同一文段。
在一个实施例中,对于任意两个文字,仅当两个文字中的任意一个文字包含的像素点的预测方位信息所表示的位置均与另一个文字的位置信息所表示的位置相匹配时,确定该两个文字属于同一文段。
可知的,在一个文段中,每个文字在文段中的位置是固定的,每个文字都存在与其对应的前一个文字和后一个文字(段首前一个文字为空、段尾后一个文字为空),因此,为了更准确的得到待识别票据图像中包含的各字段,可以通过文字包含的像素点的预测方位进一步的验证,此时,每个像素点可以有两组预测方位信息,分别为第一预设方位信息和第二预测方位信息。
可选的,对于任意两个文字,以第一文字和第二文字表示,当第一文字包含的像素点的第一预测方位信息所表示的位置于第二文字的位置信息所表示的位置相匹配,且第二文字包含的像素点的第二预测方位信息所表示的位置信息与第一文字的位置信息所表示的位置相匹配时,确定第一文字和第二文字属于同一个字段,且相邻。
S104:基于预设的匹配策略,从各字段中,确定出与预设的类型字段对应的信息字段。
本步骤中,上述类型字段表示与其对应字段所属的信息类型,信息字段表示票据信息。
示例性的,一张票据图像的类型字段可以为发票金额、发票代码、发票号码等字段,例如,在如图2所示的增值税票据图像中,类型字段包括:发票代码、发票号码、开票日期、校验码、机器编号、名称、纳税人识别号等,在如图3所示的一种出租车专用发票的图像中,类型字段包括:代码、号码、监督电话、税务登记证号码、车号、证号等,而信息字段则可以是对应上述类型字段的票据信息,例如在如图3所示出租车专用发票的图像中,代码对应的“135021610881”、金额对应的“58.30元”等。
在实际使用的过程中,实际可能只需要记录部分预设的类型字段,以及与其对于的信息字段,例如,对于如图3所示出租车专用发票的图像中,预设的类型字段可以包括代码、金额,而其余的如监督电话等字段类型对应的信息字段并不需要记录,因此,可以基于预设的匹配策略,从各字段中,确定出与预设的类型字段对应的信息字段。
其中,预设的匹配策略可以是根据应用场景,以及实际需求来确定,可选的,可以通过建立关键词表的方式实现,其中,关键词表中记录有关键词,通过在各字段中确定包括关键词的字段,来确定与预设的类型字段对应的信息字段。
示例性的,当需要确定出待视频票据图像中记录的时间信息时,预设的类型字段可以为日期,关键词为“年”、“月”或“日”等,将其写入关键词表,当各字段中某个字段中包含“年”、“月”或“日”时,则可以确定该字段为对应日期的信息字段。
可选的,还可以结合各字段的各特征,来确定字段是否为对应预设的类型字段的信息字段,例如通过字段包含的文字的数量、字段包含的文字规律、字段颜色信息、组成字段的各文字分布规律、是否包含特征字符等特征来确定。
可选的,对于一张票据来说,其票据中包含的各类型字段时可以提前已知的,如图2所示增值税的票据图像中,发明代码等类型字段为固定的,因此,还可以通过预选训练的文本分类模型来确定,将各字段中每个字段输入预先训练完成的文本分类模型,得到文本分类模型输出的该字段对应各类型字段的概率,从而可以结合该字段对应各类型字段的概率大小,来确定该字段对应的类型字段,并进一步的确定该字段对应的类型字段是否为预设的类型字段。
本发明实施例提供的上述票据图像识别方法中,对待识别票据图像进行文字识别,得到待识别票据图像包含的各文字,以及每个文字的位置信息,并且将待识别票据图像输入预先训练完成的深度神经网络模型,得到待识别票据图像包含的每个像素点的预测方位信息,以及基于每个像素点的预测方位信息,以及每个文字的位置信息,对待识别票据图像中各文字进行位置匹配,得到待识别票据图像中包含的各字段,以及基于预设的匹配策略,从各字段中,确定出与预设的类型字段对应的信息字段,其中,类型字段表示与其对应字段所属的信息类型,信息字段表示票据信息,由于票据图像中弯曲、褶皱对单个文字的识别不会产生影响,因此以每个文字为识别基础,可以保证每个文字识别的准确性,并通过预先训练完成的深度神经网络模型,确定出票据图像中包含的各字段,从而避免了弯曲、褶皱对字段识别的影响,进而可以提高票据图像中票据信息录入的准确性。
在本发明的另一个实施例中,还提供一种文字匹配方法,以实现上述步骤S103,如图6所示,该方法包括以下步骤:
S601:基于每个像素点的预测方位信息,以及每个文字的位置信息,确定每个文字的预测方位信息。
本步骤中,上述文字的位置信息为文字区域的对角坐标,文字区域为矩形区域,例如,如图4所示,图中矩形框为文字区域,其对角可以为点C2和C3的坐标,如{(x2,y2)、(x3,y3)},其中(x2,y2)为点C2的坐标,(x3,y3)为点C3的坐标。
根据每个文字所在文字区域的对角坐标,可以确定每个文字所在文字区域内每个像素点的坐标的取值范围,进而确定出每个文字所在文字区域内包含的每个像素点,进一步的,结合待识别票据图像中每个像素点的预测方位信息,可以确定每个文字所在文字区域内每个像素点的预测方位信息,从而可以进一步的可以确定出每个文字的预测方位信息。
S602:基于每个文字的预测方位信息,以及每个文字的位置信息,对待识别票据图像中各文字进行位置匹配,得到待识别票据图像中包含的各字段。
本步骤中,对于任意两个文字,当其中一个文字的预测方位信息所表示的位置落入另一个文字所在文字区域内时,可以确定该两个为属于同一字段的两个文字。
在本发明一个实施例中,对应任意两个文字,仅当两个文字的预测方位信息所表示的位置均落入对方所在文字区域内,确定该两个为属于同一字段的两个文字。
在本发明一个实施例中,每个文字可以有两组预测方位信息,分别为第一预设方位信息和第二预测方位信息。
可选的,同一文段中,一个文字的第一预测方位信息所表示的位置落入该文字前一个文字所在文字区域内,一个文字的第二预测方位信息所表示的位置落入该文字后一个文字所在文字区域内,则对于任意两个文字,第一文字和第二文字,当第一文字的第一预测方位信息所表示的位置落入第二文字所在文字区域内,且第二文字的第二预测方位信息所表示的位置落入第一文字所在文字区域内时,可以确定该两个文字属于同一字段,且第二文字为第一文字的前一个文字。
进一步的,当各文字均完成位置匹配后,根据匹配结果,确定各字段。
本发明实施例提供的上述文字匹配方法中,可以基于每个像素点的预测方位信息,以及每个文字的位置信息,确定每个文字的预测方位信息,并且基于每个文字的预测方位信息,以及每个文字的位置信息,对待识别票据图像中各文字进行位置匹配,得到待识别票据图像中包含的各字段,由于通过每个文字的预测方位信息进行位置匹配,可以排除个别像素点的预测方位信息错误对匹配结果的影响,进而提高了对文字进行位置匹配的准确信。
在本发明的另一个实施例中,还提供一种预测方位信息确定方法,以实现上述步骤S601,如图7所示,该方法包括以下步骤:
S701:针对每个文字,基于该文字的位置信息,确定该文字的文字区域所包含的像素点。
本步骤中,由于位置信息为文字所在文字区域的对角坐标,因此,可以基于该对角坐标,确定每个文字的文字区域所包含的像素点。
示例性的,如图4所示,图中矩形框为文字区域,其对角可以为点C2和C3的坐标,如{(x2,y2)、(x3,y3)},其中(x2,y2)为点C2的坐标,(x3,y3)为点C3的坐标,则当一个像素点的X轴坐标x和Y轴坐标y,满足下述条件时,该像素点包含在该文字区域:x2≤x≤x3,且y3≤y≤y2。
S702:计算该文字的文字区域所包含的像素点的预测方位信息的平均值,作为该文字的预测方位信息。
本步骤中,将该文字的文字区域所包含的像素点的预测方位信息的平均值作为该文字的预测方位信息,可以避免由于个别像素点的预测方位信息出错,导致后续进行文字匹配时出错。
本发明实施例提供的上述文字匹配方法中,可以针对每个文字,基于该文字的位置信息,确定该文字的文字区域所包含的像素点,并且计算该文字的文字区域所包含的像素点的预测方位信息的平均值,作为该文字的预测方位信息,由于将每个文字所在文字区域内包含的每个像素点的预测方位信息的平均值作为每个文字的预测方位信息,可以避免由于个别像素点的预测方位信息的出错导致的文字匹配的出错,提高了文字匹配的准确性。
在本发明的另一个实施例中,预测方位信息为预测角度和预测距离,此时还提供一种字段确定方法,可以在步骤S601或步骤S702之后执行,以实现步骤S602,如图8所示,该方法包括以下步骤:
S801:针对每个文字,基于该文字的位置信息,确定该文字的文字区域的中心点。
本步骤中,由于位置信息为文字所在文字区域的对角坐标,因此,可以基于该对角坐标,确定每个文字的文字区域的中心点。
示例性的,如图4所示,图中矩形框为文字区域,其对角可以为点C2和C3的坐标,如{(x2,y2)、(x3,y3)},中心点为C1,则中心点C1的X轴坐标x1=(x2+x3)/2,中心点C1的Y轴坐标y1=(y2+y3)/2,从而可以根据文字所在文字区域的对角坐标确定文字区域的中心点。
S802:以该文字的中心点为基准点,按照该文字的预测角度和预测距离,在待识别票据图像中确定像素点,作为该文字的中心点的匹配点。
本步骤中,设该文字的中心点为P,P点的坐标为(P.x,P.y),该文字的预测方位信息为(θ,L),其中,θ可以表示预测角度,L可以表示预测距离,则该文字的中心点的匹配点的X轴坐标为P.x+L*cosθ该文字的中心点的匹配点的Y轴坐标为P.y+L*sinθ,即该文字的中心点的匹配点的坐标为(P.x+L*cosθ,P.y+L*sinθ)。
为了进一步的便于计算,预测方位信息可以表示成(sinθ,cosθ,L)的形式,此时,可以直接通过深度神经网络模型预测的sinθ和cosθ进行计算,避免了计算角度θ的正弦值和余弦值。
可选的,预测方位信息可以表示成(sinθ1,cosθ1,L1,sinθ2,cosθ2,L2)的形式,其中,sinθ1、cosθ1和L1表示同一组预测角度和预测距离,sinθ2、cosθ2和L2表示另一组预测角度和预测距离,即像素点的预测方位信息对应两个位置,且可以表示一左一右文字,也可以表示一上一下的文字,此时,其计算方式与上述类似,在此不再赘述。
S803:基于每个文字的位置信息,当一个文字的中心点的匹配点位于另一个文字的文字区域内时,确定该两个文字属于同一字段,得到待识别票据图像中包含的各字段。
本步骤中,还可以进一步的提高匹配的准确信,可选的,在确定一个文字的中心点的匹配点位于另一个文字的文字区域内时,可以进一步的确定另一个的文字的中心点的匹配点是否位于该文字的文字区域内,若位于,则确定该两个文字属于同一字段。
在一个实施例中,每个文字的中心点可以两个匹配点,分别为第一匹配点和第二匹配点。
可选的,对于任意两个文字,第一文字和第二文字,当第一文字的中心点的第一匹配点位于第二文字的文字区域内,且第二文字的中心点的第二匹配点落入第一文字所在文字区域内时,可以确定该两个文字属于同一字段,且第二文字为第一文字的前一个文字。
可选的,还可以将每个文字所在的文字区域按照比例缩小,得到一个更小范围的区域,作为每个文字的中心区域,缩小比例可以根据实际需求确定,例如70%。
此时,仅当一个文字的中心点的匹配点位于另一个的中心区域内时,确定该两个文字属于同一字段。
本发明实施例提供的上述字段确定方法中,可以针对每个文字,基于该文字的位置信息,确定该文字的文字区域的中心点,并且以该文字的中心点为基准点,按照该文字的预测角度和预测距离,在待识别票据图像中确定像素点,作为该文字的中心点的匹配点,以及基于每个文字的位置信息,当一个文字的中心点的匹配点位于另一个文字的文字区域内时,确定该两个文字属于同一字段,得到待识别票据图像中包含的各字段,可以提高文字匹配的准确信。
在本发明的另一个实施例中,还提供一种信息字段确定方法,以实现步骤S104,如图9所示,该方法包括以下步骤:
S901:获取关键词表,其中,关键词表中记录有预设的关键词,以及与关键词对应的类型字段。
本步骤中,关键词表中记录的预设的关键词是需要的类型字段对应的信息字段对应的关键词。
示例性的,当需要确定出待视频票据图像中记录的时间信息时,预设的类型字段可以为日期,关键词为“年”、“月”或“日”等,将其写入关键词表。或者,当需要确定出待视频票据图像中记录的金额时,关键词可以为“元”、“圆”等,关键词对应的类型字段为金额。
S902:针对每个字段,当该字段包含有关键词时,确定该字段为信息字段,且该信息字段对应的类型字段为所包含的关键词对应的类型字段。
本步骤中,示例性的,关键词表中记录有关键词“年”,其对应的类型字段为日期时,当各字段中存在字段“2017年11月2日”,则确定该字段为对应日期的信息字段。
本发明实施例提供的上述信息字段确定方法中,可以获取关键词表,其中,关键词表中记录有预设的关键词,以及与关键词对应的类型字段,并且针对每个字段,当该字段包含有关键词时,确定该字段为信息字段,且该信息字段对应的类型字段为所包含的关键词对应的类型字段,通过关键词表可以快速的确定出对应预设类型的信息字段。
在本发明的另一个实施例中,还提供第二种信息字段确定方法,以实现步骤S104,如图10所示,该方法包括以下步骤:
S1001:获取类型字段表,其中,类型字段表中记录有预设的各类型字段。
本步骤中,预设的各类型字段可以为用户感兴趣的字段,例如“上车”“下车”“车号”“里程”“金额”等。
S1002:确定各字段中未记录在类型字段表中的字段,作为预分类字段。
本步骤中,对于一张待识别票据图像,其包含的各字段可以包括待识别票据图像中所存在的所有的类型字段,还包括待识别票据图像中记录表示票据信息的信息字段,以及既不是类型字段也不是信息字段的字段,例如说明字段,而对于一张待识别票据图像来说,用户感兴趣的、所需的仅为待识别票据图像中所存在部分类型字段、以及该部分类型字段对应的信息字段,以及部分不存在类型字段的信息字段。
示例性的,如图4所示示意图中,待识别票据图像中各字段可以包括{厦门市出租汽车专用发票、代码、135021610881、号码、10259982、监督电话、上车、(K0680)21:27、下车、21:54、金额、58.30元},其中用户预设的类型字段为{票据头、代码、号码、上车、下车、金额},则可以得到{厦门市出租汽车专用发票、135021610881、10259982、监督电话、(K0680)21:27、21:54、58.30元}作为各预分类字段。
S1003:将每个预分类字段输入预先建立的文本分类模型,得到每个预分类字段的分类结果。
本步骤中,一个预分类字段的分类结果包括:类型概率和删除概率,类型概率为该预分类字段为信息字段,且对应的字段类型为各类型字段中每种类型字段的概率,删除概率为该预分类字段属于待删除的类型字段的概率,待删除的类型字段为除预设的类型字段对应的信息字段之外的字段,其中,文本分类模型为基于字段样本,以及字段样本的类别标识预先训练完成的。
示例性的,如图4所示示意图中,类型字段表中记录的预设的类型字段为{票据头、代码、号码、上车、下车、金额},将{厦门市出租汽车专用发票、135021610881、10259982、监督电话、(K0680)21:27、21:54、58.30元}中每个预分类字段输入文本分类模型,得到每个预分类字段对应的字段类型为个类型字段中每种类型字段的概率,以及属于待删除的类型字段的概率,示例性的,将“58.30元”输入到文本分类模型,得到“58.30元”为票据头、代码、号码、上车、下车、金额中每一个字段的概率,以及“58.30元为待删除的类型字段的概率,例如“58.30元”对应的概率分别为票据头9%、代码15%、号码10%、上车15%、下车16%、金额30%、待删除的类型字段5%。
S1004:根据每个预分类字段的分类结果,从各预分类字段中,确定出与预设的类型字段对应的信息字段。
本步骤中,可以判断每个预分类字段的类型概率和删除概率中是否存在大于第一预设阈值的,若存在,则确定是否为删除概率最大,若是,则将该预设类型字段删除,否则,将其对应最大概率所对应的类型字段。
可选的,针对每个预分类字段,还可以判断删除概率是否大于第二阈值,若大于,则删除该预分类字段,将剩余的预分类字段,根据每个预分类字段类型概率,从各预分类字段中,确定出与预设的类型字段对应的信息字段。
本发明实施例提供的上述信息字段确定方法中,可以获取类型字段表,其中,类型字段表中记录有预设的各类型字段,并且确定各字段中未记录在类型字段表中的字段,作为预分类字段,以及将每个预分类字段输入预先建立的文本分类模型,得到每个预分类字段的分类结果,以及根据每个预分类字段的分类结果,从各预分类字段中,确定出与预设的类型字段对应的信息字段,由于通过文本分类模型确定对应预设的类型字段的信息字段,可以使得类型字段与信息字段匹配的准确率更高。
在本发明的另一个实施例中,还提供第三种信息字段确定方法,以实现步骤S1004,如图11所示,该方法包括以下步骤:
S1101:从各预分类字段中,确定出删除概率小于预设概率阈值的预分类字段,作为信息字段。
本步骤中,可从各预分类字段中,确定出删除概率小于预设概率阈值的预分类字段,作为信息字段。
示例性的,对于{厦门市出租汽车专用发票、135021610881、10259982、监督电话、(K0680)21:27、21:54、58.30元}每个预分类字段,其删除概率分别为{6%、5%、7%、40%、5%、6%、5%、},预设概率阈值可以为根据实际需求和经验确定的,例如,预设概率阈值为30,则可以确定{厦门市出租汽车专用发票、135021610881、10259982、(K0680)21:27、21:54、58.30元}为信息字段。
S1102:基于确定出的每个信息字段为各类型字段中每种类型字段的类型概率,确定每个信息字段对应的类型字段。
本步骤中,可以将概率最大的类型字段确定为与信息字段对应的类型字段。
示例性的,信息字段“58.30元”对应的各类型字段的概率分别为票据头9%、代码15%、号码10%、上车15%、下车16%、金额30%、则信息字段“58.30元”与类型字段“金额”对应。
本发明实施例提供的上述另一种信息字段确定方法中,从各预分类字段中,确定出删除概率小于预设概率阈值的预分类字段,作为信息字段,并且基于确定出的每个信息字段为各类型字段中每种类型字段的类型概率,确定每个信息字段对应的类型字段,由于通过,确定出删除概率小于预设概率阈值的预分类字段从而排除了待删除的类型字段,因此,可以快速的确定出所需的信息字段。
在本发明的另一个实施例中,还提供第四种信息字段确定方法,以实现步骤S1102,如图12所示,该方法包括以下步骤:
S1201:按照确定出的每个信息字段为各类型字段中每种类型字段的类型概率的大小,从各类型字段中,确定出前预设数量个类型字段,作为与每个信息字段对应的预选类型字段。
本步骤中,预先类字段包括实际类型字段和虚拟类型字段,实际类型字段为各字段中包含的字段,虚拟类型字段为各字段中未包含的字段。
示例性的,预设数量为可以根据实际需求来确定,例如为2,则确定出的每个信息字段概率最大的前2个的类型字段。
对于如图4所示示意图中的各信息字段{厦门市出租汽车专用发票、135021610881、10259982、(K0680)21:27、21:54、58.30元},可以得到前2个的类型字段分别为:“厦门市出租汽车专用发票”对应票据头和金额,“135021610881”对应代码和号码,“10259982”对应号码和代码,“(K0680)21:27”对应上车和下车,“21:54”对应下车和金额,“58.30元”对应金额和下次。
其中{代码、号码、上车、下车、金额}为实际类型字段、{票据头}为虚拟类型字段。
S1202:基于每个文字的位置信息,确定每个信息字段的位置信息,以及每个信息字段对应的每个实际类型字段的位置信息。
本步骤中,组成信息字段和每个实际类型字段的文字的位置信息已知,因此,可以基于每个文字的位置信息,确定每个信息字段的位置信息,以及每个信息字段对应的每个实际类型字段的位置信息。
可选的,每个信息字段的位置信息可以为信息字段的中心点,和每个信息字段对应的每个实际类型字段的位置信息可以为实际类型字段的中心点。
S1203:基于每个信息字段的位置信息和每个信息字段对应每个实际类型字段的位置信息,确定每个信息字段与对应的每个实际类型信息之间连线的角度,作为每个信息字段与对应的每个实际类型信息对应的角度信息。
本步骤中,如图13所示的第二种待识别票据图像的示意图,其中虚线框为虚拟类型字段,其不存在实际的位置,基于每个信息字段的位置信息和每个信息字段对应每个实际类型字段的位置信息,确定每个信息字段与对应的每个实际类型信息之间连线,得到如图14所示的连线示意图,连线的角度可以为连线与基准线(图中未示出)之间的夹角,图14中为了更清楚显示连线示意图,隐去了矩形框中的文字,图14中,每个矩形框所表示的含义与图13对应位置矩形框相同。
S1204:聚类分析每个信息字段与对应的每个实际类型信息对应的角度信息,确定出角度占比最多的角度区间。
本步骤中,从如图15所示的简化连线示意图可以看出,角度占比最多的角度区间为图15示出的连线的角度所在的最小角度区间。
S1205:判断每个信息字段与对应的每个实际类型字段之间连线的角度,是否存在位于角度区间的角度。
本步骤中,若是,执行步骤S1206,否则,执行步骤S1207。
S1206:确定位于角度区间的角度对应的实际类型字段,作为与每个信息字段对应的类型字段。
本步骤中,通过图15可以看出,“135021610881”对应的实际类型信息为对应代码,“10259982”对应的实际类型信息为号码,“(K0680)21:27”对应的实际类型信息为上车,“21:54”对应的实际类型信息为下车,“58.30元”对应的实际类型信息为金额。
S1207:在每个信息字段对应的虚拟类型字段中,确定出概率最大的虚拟类型字段,作为与每个信息字段对应的类型字段。
本步骤中,当每个信息字段与对应的每个实际类型字段之间连线的角度,不存在位于角度区间的角度时,说明信息字段对应的实际类型字段并不能与其进行对应,因此,需要从虚拟类型字段中选取,进而,可以在每个信息字段对应的虚拟类型字段中,确定出概率最大的虚拟类型字段,作为与每个信息字段对应的类型字段。
本发明实施例提供的上述又一种信息字段确定方法中,可以按照确定出的每个信息字段为各类型字段中每种类型字段的类型概率的大小,从各类型字段中,确定出前预设数量个类型字段,作为与每个信息字段对应的预选类型字段,并且基于每个文字的位置信息,确定每个信息字段的位置信息,以及每个信息字段对应的每个实际类型字段的位置信息,以及基于每个信息字段的位置信息和每个信息字段对应每个实际类型字段的位置信息,确定每个信息字段与对应的每个实际类型信息之间连线的角度,作为每个信息字段与对应的每个实际类型信息对应的角度信息,以及聚类分析每个信息字段与对应的每个实际类型信息对应的角度信息,确定出角度占比最多的角度区间,以及当每个信息字段与对应的每个实际类型字段之间连线的角度,存在位于角度区间的角度时,确定位于角度区间的角度对应的实际类型字段,作为与每个信息字段对应的类型字段,以及当每个信息字段与对应的每个实际类型字段之间连线的角度,不存在位于角度区间的角度时,在每个信息字段对应的虚拟类型字段中,确定出概率最大的虚拟类型字段,作为与每个信息字段对应的类型字段,由于通过综合角度去确定与信息字段匹配的类型字段,因此,可以提高信息字段与类型字段匹配的准确性。
在本发明的另一个实施例中,还提供一种深度神经网络模型的训练方法,以得到步骤S102中所使用的深度神经网络模型,如图16所示,该方法包括以下步骤:
S1601:针对每个文字样本,基于该文字样本的位置信息,确定该文字样本的中心点。
本步骤中,文字样本的中心点可以基于前述方法,在此不再赘述。
如图17a所示的,为票据图像样本中一种文字样本的示意图,中心点A、B、C、D、E、F和G所在文字区域内的文字属于同一字段。
如图17b所示的,为票据图像样本中另一种文字样本的示意图,中心点a、b、c、d和e所在文字区域内的文字属于同一字段。
S1602:基于该文字样本的中心点,以及该文字样本对应的参考文字样本的中心点,确定该文字样本的中心点对应的方位信息,作为该文字样本所在文本区域内每个像素点的方位信息。
本步骤中,每个文字样本对应的参考文字样本为与每个文字样本属于同一字段的文字样本,方位信息表示每个文字样本的中心点与对应的参考文字样本的中心点之间连线的角度和距离。
例如,对应中心点E所在位置的文字样本,其参考文字样本可以为中心点D所在位置的文字样本,或中心点F所在位置的文字样本,或两者皆是。
当参考文字样本为中心点D所在位置的文字样本时,通过中心点E和中心点D的坐标,可以计算出线段DE的与X轴的夹角θ,并可以计算出线段DE的长度LDE,同理可以计算出线段EF的与X轴的夹角β,并可以计算出线段EF的长度LEF。
当方位信息包括两组角度和距离时,中心点E的方位信息可以表示为(θ,LDE,β,LEF),或者(sinθ,cosθ,LDE,sinβ,cosβ,LEF)。
S1603:基于票据图像样本、以及每个文字样本所在文本区域内每个像素点的方位信息,对深度神经网络模型进行训练。
本步骤中,可以将每个文字样本所在文本区域内每个像素点的方位信息作为真值标定,对深度神经网络模型的参数进行调整。
可选的,将票据图像样本输入深度神经网络模型,得到票据图像样本包含的每个像素点的预测方位信息,并且基于票据图像样本包含的每个像素点的预测方位信息,确定每个文字样本所在文本区域内每个像素点的预,以及基于每个文字样本所在文本区域内每个像素点的方位信息和预测方位信息,计算深度神经网络模型的损失函数值,以及根据损失函数值,判断深度神经网络模型是否收敛,当深度神经网络模型未收敛时,根据损失函数值调整深度神经网络模型参数,并进行下一次训练,当深度神经网络模型收敛时,得到训练完成的深度神经网络模型。
本发明实施例提供的上述一种信深度神经网络模型的训练方法中,可以针对每个文字样本,基于该文字样本的位置信息,确定该文字样本的中心点,并且基于该文字样本的中心点,以及该文字样本对应的参考文字样本的中心点,确定该文字样本的中心点对应的方位信息,作为该文字样本所在文本区域内每个像素点的方位信息,以及基于票据图像样本、以及每个文字样本所在文本区域内每个像素点的方位信息,对深度神经网络模型进行训练,由于通过方位信息对深度神经网络模型进行训练,可以使得深度神经网络模型输出待识别票据图像每个像素点的预测方位值。
基于同一发明构思,根据本发明实施例提供的票据图像识别方法,本发明实施例还提供了一种票据图像识别装置,如图18所示,该装置包括:
图像识别模块1801,用于对待识别票据图像进行文字识别,得到待识别票据图像包含的各文字,以及每个文字的位置信息;
图像输入模块1802,用于将待识别票据图像输入预先训练完成的深度神经网络模型,得到待识别票据图像包含的每个像素点的预测方位信息,其中,待识别票据图像中一个像素点所属的文字,与该像素点的预测方位信息所表示位置的像素点所属的文字属于同一字段,深度神经网络模型为基于票据图像样本、以及票据图像样本中文字样本的位置信息预先训练完成的;
文字匹配模块1803,用于基于每个像素点的预测方位信息,以及每个文字的位置信息,对待识别票据图像中各文字进行位置匹配,得到待识别票据图像中包含的各字段;
信息字段确定模块1804,用于基于预设的匹配策略,从各字段中,确定出与预设的类型字段对应的信息字段,其中,类型字段表示与其对应字段所属的信息类型,信息字段表示票据信息。
进一步的,文字匹配模块1803,具体用于基于每个像素点的预测方位信息,以及每个文字的位置信息,确定每个文字的预测方位信息,文字的位置信息为文字区域的对角坐标,文字区域为矩形区域,并且基于每个文字的预测方位信息,以及每个文字的位置信息,对待识别票据图像中各文字进行位置匹配,得到待识别票据图像中包含的各字段。
进一步的,文字匹配模块1803,具体用于针对每个文字,基于该文字的位置信息,确定该文字的文字区域所包含的像素点,并且计算该文字的文字区域所包含的像素点的预测方位信息的平均值,作为该文字的预测方位信息。
进一步的,预测方位信息为预测角度和预测距离;
文字匹配模块1803,具体用于针对每个文字,基于该文字的位置信息,确定该文字的文字区域的中心点,并且以该文字的中心点为基准点,按照该文字的预测角度和预测距离,在待识别票据图像中确定像素点,作为该文字的中心点的匹配点,以及基于每个文字的位置信息,当一个文字的中心点的匹配点位于另一个文字的文字区域内时,确定该两个文字属于同一字段,得到待识别票据图像中包含的各字段。
进一步的,信息字段确定模块1804,具体用于获取关键词表,其中,关键词表中记录有预设的关键词,以及与关键词对应的类型字段,并且针对每个字段,当该字段包含有关键词时,确定该字段为信息字段,且该信息字段对应的类型字段为所包含的关键词对应的类型字段。
进一步的,信息字段确定模块1804,具体用于获取类型字段表,其中,类型字段表中记录有预设的各类型字段,并且确定各字段中未记录在类型字段表中的字段,作为预分类字段,以及将每个预分类字段输入预先建立的文本分类模型,得到每个预分类字段的分类结果,一个预分类字段的分类结果包括:类型概率和删除概率,类型概率为该预分类字段为信息字段,且对应的字段类型为各类型字段中每种类型字段的概率,删除概率为该预分类字段属于待删除的类型字段的概率,待删除的类型字段为除预设的类型字段对应的信息字段之外的字段,其中,文本分类模型为基于字段样本,以及字段样本的类别标识预先训练完成的,以及根据每个预分类字段的分类结果,从各预分类字段中,确定出与预设的类型字段对应的信息字段。
进一步的,信息字段确定模块1804,具体用于从各预分类字段中,确定出删除概率小于预设概率阈值的预分类字段,作为信息字段,并且基于确定出的每个信息字段为各类型字段中每种类型字段的类型概率,确定每个信息字段对应的类型字段。
进一步的,信息字段确定模块1804,具体用于按照确定出的每个信息字段为各类型字段中每种类型字段的类型概率的大小,从各类型字段中,确定出前预设数量个类型字段,作为与每个信息字段对应的预选类型字段,预先类字段包括实际类型字段和虚拟类型字段,实际类型字段为各字段中包含的字段,虚拟类型字段为各字段中未包含的字段,并且基于每个文字的位置信息,确定每个信息字段的位置信息,以及每个信息字段对应的每个实际类型字段的位置信息,以及基于每个信息字段的位置信息和每个信息字段对应每个实际类型字段的位置信息,确定每个信息字段与对应的每个实际类型信息之间连线的角度,作为每个信息字段与对应的每个实际类型信息对应的角度信息,以及聚类分析每个信息字段与对应的每个实际类型信息对应的角度信息,确定出角度占比最多的角度区间,以及当每个信息字段与对应的每个实际类型字段之间连线的角度,存在位于角度区间的角度时,确定位于角度区间的角度对应的实际类型字段,作为与每个信息字段对应的类型字段,以及当每个信息字段与对应的每个实际类型字段之间连线的角度,不存在位于角度区间的角度时,在每个信息字段对应的虚拟类型字段中,确定出概率最大的虚拟类型字段,作为与每个信息字段对应的类型字段。
基于同一发明构思,根据本发明实施例提供的信深度神经网络模型的训练方法,本发明实施例还提供了一种深度神经网络模型的训练装置,如图19所示,该装置包括:
中心点确定模块1901,用于针对每个文字样本,基于该文字样本的位置信息,确定该文字样本的中心点;
方位信息确定模块1902,用于基于该文字样本的中心点,以及该文字样本对应的参考文字样本的中心点,确定该文字样本的中心点对应的方位信息,作为该文字样本所在文本区域内每个像素点的方位信息,其中,每个文字样本对应的参考文字样本为与每个文字样本属于同一字段的文字样本,方位信息表示每个文字样本的中心点与对应的参考文字样本的中心点之间连线的角度和距离;
模型训练模块1903,用于基于票据图像样本、以及每个文字样本所在文本区域内每个像素点的方位信息,对深度神经网络模型进行训练。
进一步的,模型训练模块1903,具体用于将票据图像样本输入深度神经网络模型,得到票据图像样本包含的每个像素点的预测方位信息,并且基于票据图像样本包含的每个像素点的预测方位信息,确定每个文字样本所在文本区域内每个像素点的预测方位信息,以及基于每个文字样本所在文本区域内每个像素点的方位信息和预测方位信息,计算深度神经网络模型的损失函数值,以及根据损失函数值,判断深度神经网络模型是否收敛,当深度神经网络模型未收敛时,根据损失函数值调整深度神经网络模型参数,并进行下一次训练,当深度神经网络模型收敛时,得到训练完成的深度神经网络模型。
本发明实施例还提供了一种电子设备,如图20所示,包括处理器2001、通信接口2002、存储器2003和通信总线2004,其中,处理器2001,通信接口2002,存储器2003通过通信总线2004完成相互间的通信,
存储器2003,用于存放计算机程序;
处理器2001,用于执行存储器2003上所存放的程序时,实现如下步骤:
对待识别票据图像进行文字识别,得到所述待识别票据图像包含的各文字,以及每个所述文字的位置信息;
将所述待识别票据图像输入预先训练完成的深度神经网络模型,得到所述待识别票据图像包含的每个像素点的预测方位信息,其中,所述待识别票据图像中一个像素点所属的文字,与该像素点的所述预测方位信息所表示位置的像素点所属的文字属于同一字段,所述深度神经网络模型为基于票据图像样本、以及所述票据图像样本中文字样本的位置信息预先训练完成的;
基于每个所述像素点的预测方位信息,以及每个所述文字的位置信息,对所述待识别票据图像中各文字进行位置匹配,得到所述待识别票据图像中包含的各字段;
基于预设的匹配策略,从所述各字段中,确定出与预设的类型字段对应的信息字段,其中,所述类型字段表示与其对应字段所属的信息类型,所述信息字段表示票据信息。
上述电子设备提到的通信总线可以是外设部件互连标准(Peripheral ComponentInterconnect,PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述电子设备与其他设备之间的通信。
存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcessing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
在本发明提供的又一实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述任一票据图像识别方法的步骤。
在本发明提供的又一实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例中任一票据图像识别方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置、电子设备、计算机可读存储介质、计算机程序产品而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。
Claims (11)
1.一种票据图像识别方法,其特征在于,包括:
对待识别票据图像进行文字识别,得到所述待识别票据图像包含的各文字,以及每个所述文字的位置信息;
将所述待识别票据图像输入预先训练完成的深度神经网络模型,得到所述待识别票据图像包含的每个像素点的预测方位信息,其中,所述待识别票据图像中一个像素点所属的文字,与该像素点的所述预测方位信息所表示位置的像素点所属的文字属于同一字段,所述深度神经网络模型为基于票据图像样本、以及所述票据图像样本中文字样本的位置信息预先训练完成的;
基于每个所述像素点的预测方位信息,以及每个所述文字的位置信息,对所述待识别票据图像中各文字进行位置匹配,得到所述待识别票据图像中包含的各字段;
基于预设的匹配策略,从所述各字段中,确定出与预设的类型字段对应的信息字段,其中,所述类型字段表示与其对应字段所属的信息类型,所述信息字段表示票据信息。
2.根据权利要求1所述的方法,其特征在于,所述基于每个所述像素点的预测方位信息,以及每个所述文字的位置信息,对所述待识别票据图像中各文字进行位置匹配,得到所述待识别票据图像中包含的各字段,包括:
基于每个所述像素点的预测方位信息,以及每个所述文字的位置信息,确定每个所述文字的预测方位信息,所述文字的位置信息为文字区域的对角坐标,所述文字区域为矩形区域;
基于每个所述文字的预测方位信息,以及每个所述文字的位置信息,对所述待识别票据图像中各文字进行位置匹配,得到所述待识别票据图像中包含的各字段。
3.根据权利要求2所述的方法,其特征在于,所述基于每个所述像素点的预测方位信息,以及每个所述文字的位置信息,确定每个所述文字的预测方位信息,包括:
针对每个所述文字,基于该文字的位置信息,确定该文字的文字区域所包含的像素点;
计算该文字的文字区域所包含的像素点的所述预测方位信息的平均值,作为该文字的预测方位信息。
4.根据权利要求2或3所述的方法,其特征在于,所述预测方位信息为预测角度和预测距离;
所述基于每个所述文字的预测方位信息,以及每个所述文字的位置信息,对所述待识别票据图像中各文字进行位置匹配,得到所述待识别票据图像中包含的各字段,包括:
针对每个所述文字,基于该文字的位置信息,确定该文字的文字区域的中心点;
以该文字的中心点为基准点,按照该文字的预测角度和预测距离,在所述待识别票据图像中确定像素点,作为该文字的中心点的匹配点;
基于每个所述文字的位置信息,当一个文字的中心点的匹配点位于另一个文字的文字区域内时,确定该两个文字属于同一字段,得到所述待识别票据图像中包含的各字段。
5.根据权利要求1-3任一项所述的方法,其特征在于,所述基于预设的匹配策略,从所述各字段中,确定出与预设的类型字段对应的信息字段,包括:
获取类型字段表,其中,所述类型字段表中记录有预设的各类型字段;
确定所述各字段中未记录在所述类型字段表中的字段,作为预分类字段;
将每个预分类字段输入预先建立的文本分类模型,得到每个所述预分类字段的分类结果,一个所述预分类字段的所述分类结果包括:类型概率和删除概率,所述类型概率为该预分类字段对应的字段类型为所述各类型字段中每种类型字段的概率,所述删除概率为该预分类字段属于待删除的类型字段的概率,所述待删除的类型字段为除预设的类型字段对应的信息字段之外的字段,其中,所述文本分类模型为基于字段样本,以及所述字段样本的类别标识预先训练完成的;
根据每个所述预分类字段的分类结果,从各预分类字段中,确定出与预设的类型字段对应的信息字段。
6.根据权利要求5所述的方法,其特征在于,所述根据每个所述预分类字段的分类结果,从各预分类字段中,确定出与预设的类型字段对应的信息字段,包括:
从各预分类字段中,确定出所述删除概率小于预设概率阈值的预分类字段,作为信息字段;
基于确定出的每个信息字段为所述各类型字段中每种类型字段的类型概率,确定每个所述信息字段对应的类型字段。
7.根据权利要求6所述的方法,其特征在于,所述基于确定出的每个信息字段为所述各类型字段中每种类型字段的类型概率,确定每个所述信息字段对应的类型字段,包括:
按照确定出的每个信息字段为所述各类型字段中每种类型字段的类型概率的大小,从所述各类型字段中,确定出前预设数量个类型字段,作为与每个所述信息字段对应的预选类型字段,所述预选类型字段包括实际类型字段和虚拟类型字段,所述实际类型字段为所述各字段中包含的字段,所述虚拟类型字段为所述各字段中未包含的字段;
基于每个所述文字的位置信息,确定每个所述信息字段的位置信息,以及每个所述信息字段对应的每个实际类型字段的位置信息;
基于每个所述信息字段的位置信息和所述每个信息字段对应每个所述实际类型字段的位置信息,确定每个所述信息字段与对应的每个所述实际类型信息之间连线的角度,作为每个所述信息字段与对应的每个所述实际类型信息对应的角度信息;
聚类分析每个所述信息字段与对应的每个所述实际类型信息对应的角度信息,确定出角度占比最多的角度区间;
当每个所述信息字段与对应的每个所述实际类型字段之间连线的角度,存在位于所述角度区间的角度时,确定位于所述角度区间的角度对应的实际类型字段,作为与每个所述信息字段对应的类型字段;
当每个所述信息字段与对应的每个所述实际类型字段之间连线的角度,不存在位于所述角度区间的角度时,在每个所述信息字段对应的虚拟类型字段中,确定出概率最大的虚拟类型字段,作为与每个所述信息字段对应的类型字段。
8.根据权利要求1所述的方法,其特征在于,所述深度神经网络模型的训练步骤包括:
针对每个所述文字样本,基于该文字样本的位置信息,确定该文字样本的中心点;
基于该文字样本的中心点,以及该文字样本对应的参考文字样本的中心点,确定该文字样本的中心点对应的方位信息,作为该文字样本所在文本区域内每个像素点的方位信息,其中,每个所述文字样本对应的参考文字样本为与每个所述文字样本属于同一字段的文字样本,所述方位信息表示每个所述文字样本的中心点与对应的参考文字样本的中心点之间连线的角度和距离;
基于所述票据图像样本、以及每个所述文字样本所在文本区域内每个像素点的方位信息,对所述深度神经网络模型进行训练。
9.根据权利要求8所述的方法,其特征在于,所述基于所述票据图像样本、以及每个所述文字样本所在文本区域内每个像素点的方位信息,对所述深度神经网络模型进行训练,包括:
将所述票据图像样本输入所述深度神经网络模型,得到所述票据图像样本包含的每个像素点的预测方位信息;
基于所述票据图像样本包含的每个像素点的预测方位信息,确定每个所述文字样本所在文本区域内每个像素点的预测方位信息;
基于每个所述文字样本所在文本区域内每个像素点的方位信息和预测方位信息,计算所述深度神经网络模型的损失函数值;
根据所述损失函数值,判断所述深度神经网络模型是否收敛,当所述深度神经网络模型未收敛时,根据所述损失函数值调整所述深度神经网络模型参数,并进行下一次训练,当所述深度神经网络模型收敛时,得到训练完成的所述深度神经网络模型。
10.一种票据图像识别装置,其特征在于,包括:
图像识别模块,用于对待识别票据图像进行文字识别,得到所述待识别票据图像包含的各文字,以及每个所述文字的位置信息;
图像输入模块,用于将所述待识别票据图像输入预先训练完成的深度神经网络模型,得到所述待识别票据图像包含的每个像素点的预测方位信息,其中,所述待识别票据图像中一个像素点所属的文字,与该像素点的所述预测方位信息所表示位置的像素点所属的文字属于同一字段,所述深度神经网络模型为基于票据图像样本、以及所述票据图像样本中文字样本的位置信息预先训练完成的;
文字匹配模块,用于基于每个所述像素点的预测方位信息,以及每个所述文字的位置信息,对所述待识别票据图像中各文字进行位置匹配,得到所述待识别票据图像中包含的各字段;
信息字段确定模块,用于基于预设的匹配策略,从所述各字段中,确定出与预设的类型字段对应的信息字段,其中,所述类型字段表示与其对应字段所属的信息类型,所述信息字段表示票据信息。
11.一种电子设备,其特征在于,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现权利要求1-9任一所述的方法步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010334996.5A CN113553883B (zh) | 2020-04-24 | 2020-04-24 | 一种票据图像识别方法、装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010334996.5A CN113553883B (zh) | 2020-04-24 | 2020-04-24 | 一种票据图像识别方法、装置及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113553883A CN113553883A (zh) | 2021-10-26 |
CN113553883B true CN113553883B (zh) | 2023-04-07 |
Family
ID=78101377
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010334996.5A Active CN113553883B (zh) | 2020-04-24 | 2020-04-24 | 一种票据图像识别方法、装置及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113553883B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110516672A (zh) * | 2019-08-29 | 2019-11-29 | 腾讯科技(深圳)有限公司 | 卡证信息识别方法、装置及终端 |
CN110569850A (zh) * | 2019-08-20 | 2019-12-13 | 北京旷视科技有限公司 | 字符识别模板匹配方法、装置和文本识别设备 |
CN110569846A (zh) * | 2019-09-16 | 2019-12-13 | 北京百度网讯科技有限公司 | 图像文字识别方法、装置、设备及存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107689070B (zh) * | 2017-08-31 | 2021-06-04 | 平安科技(深圳)有限公司 | 图表数据结构化提取方法、电子设备及计算机可读存储介质 |
CN109472257B (zh) * | 2017-09-07 | 2021-01-29 | 阿里巴巴(中国)有限公司 | 一种字符版面确定方法及装置 |
CN107798299B (zh) * | 2017-10-09 | 2020-02-07 | 平安科技(深圳)有限公司 | 票据信息识别方法、电子装置及可读存储介质 |
CN110942061A (zh) * | 2019-10-24 | 2020-03-31 | 泰康保险集团股份有限公司 | 文字识别方法、装置、设备和计算机可读介质 |
CN110866495B (zh) * | 2019-11-14 | 2022-06-28 | 杭州睿琪软件有限公司 | 票据图像识别方法及装置和设备、训练方法和存储介质 |
CN110991456B (zh) * | 2019-12-05 | 2023-07-07 | 北京百度网讯科技有限公司 | 票据识别方法及装置 |
-
2020
- 2020-04-24 CN CN202010334996.5A patent/CN113553883B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110569850A (zh) * | 2019-08-20 | 2019-12-13 | 北京旷视科技有限公司 | 字符识别模板匹配方法、装置和文本识别设备 |
CN110516672A (zh) * | 2019-08-29 | 2019-11-29 | 腾讯科技(深圳)有限公司 | 卡证信息识别方法、装置及终端 |
CN110569846A (zh) * | 2019-09-16 | 2019-12-13 | 北京百度网讯科技有限公司 | 图像文字识别方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113553883A (zh) | 2021-10-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109887153B (zh) | 一种财税处理方法和处理系统 | |
US12067060B2 (en) | Automatic document negotiation | |
CN111931664A (zh) | 混贴票据图像的处理方法、装置、计算机设备及存储介质 | |
CN113723347B (zh) | 信息提取的方法、装置、电子设备及存储介质 | |
JP5845728B2 (ja) | コンテンツ・プライバシー保護のためのマイクロタスクを生成する技術 | |
CN110874618B (zh) | 基于小样本的ocr模板学习方法、装置、电子设备及介质 | |
JP5927809B2 (ja) | タスク値付け技術 | |
CN113255642B (zh) | 一种用于人伤理赔的医疗票据信息整合方法 | |
CN106504079A (zh) | 一种综合式财务管理方法及其管理平台 | |
WO2021259096A1 (zh) | 身份认证方法、装置、电子设备及存储介质 | |
US9767088B2 (en) | Stroke autocompletion in a form | |
US20140233837A1 (en) | Systems and methods for storing image properties for recreating an image | |
US20150220778A1 (en) | Smart optical input/output (i/o) extension for context-dependent workflows | |
US9031308B2 (en) | Systems and methods for recreating an image using white space and check element capture | |
CN112580707A (zh) | 图像识别方法、装置、设备及存储介质 | |
CN110599319B (zh) | 自动审计方法、装置、终端及存储介质 | |
CN109858373A (zh) | 一种基于深度学习的发票识别验真方法及系统 | |
JP2017527894A (ja) | 手書きを使用するユーザ識別登録の管理 | |
CN110647824A (zh) | 基于计算机视觉技术的增值税发票版面提取方法 | |
CN113066223A (zh) | 发票自动验证方法及装置 | |
CN113553883B (zh) | 一种票据图像识别方法、装置及电子设备 | |
CN111368709A (zh) | 图片文本的识别方法、装置、设备及可读存储介质 | |
CN110717732A (zh) | 一种信息认证方法及系统 | |
CN115690819A (zh) | 一种基于大数据的识别方法及其系统 | |
CN115880702A (zh) | 数据处理方法、装置、设备、程序产品及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |