CN111914597B - 一种文档对照识别方法、装置、电子设备和可读存储介质 - Google Patents
一种文档对照识别方法、装置、电子设备和可读存储介质 Download PDFInfo
- Publication number
- CN111914597B CN111914597B CN201910385293.2A CN201910385293A CN111914597B CN 111914597 B CN111914597 B CN 111914597B CN 201910385293 A CN201910385293 A CN 201910385293A CN 111914597 B CN111914597 B CN 111914597B
- Authority
- CN
- China
- Prior art keywords
- document
- compared
- electronic
- character
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 53
- 238000004891 communication Methods 0.000 claims description 19
- 238000013528 artificial neural network Methods 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 8
- 230000008569 process Effects 0.000 description 10
- 238000012549 training Methods 0.000 description 7
- 238000002372 labelling Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000007639 printing Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
- G06V30/41—Analysis of document content
- G06V30/418—Document matching, e.g. of document images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
- G06V30/41—Analysis of document content
- G06V30/413—Classification of content, e.g. text, photographs or tables
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Character Discrimination (AREA)
Abstract
本发明提供了一种文档对照识别方法、装置、电子设备和可读存储介质,该文档对照识别方法包括:获取待对照文档的图像和参考文档的电子文档;基于预先训练的区域识别模型,识别待对照文档的图像中的每一行字符区域;基于预先训练的字符识别模型,识别每一行字符区域中的字符内容,得到识别后的字符;获取识别后的字符的位置信息;生成待对照文档的电子文档;对待对照文档的电子文档和参考文档的电子文档进行内容对比;根据对比结果,判断待对照文档与参考文档是否有差异点。本发明可以准确识别待对照文档中的信息并且可以将识别后的信息与参考文档中的内容进行对照,进而判断待对照文档中的内容与参考文档中的内容是否一致。
Description
技术领域
本发明涉及机器学习技术领域,特别涉及一种文档对照识别方法、装置、电子设备和可读存储介质。
背景技术
在日常生活中,经常需要对两份文档进行对比,比如将发表的文章和原稿进行对比,将两份论文进行对比、将两份合同进行对比等,现有技术中对两份文档的对比主要依靠人工完成,这大大增加了人工成本,此外,准确率也难以得到保证。
以合同为例,在签订合同的过程中,通常由双方协商确定合同的内容并由一方根据协商确定的内容进行合同的拟定,一方拟定完合同后发送给另一方进行确认,另一方确认后对合同进行打印盖章,并将打印盖完章的合同邮寄给拟定合同的一方,或者将打印盖完章的合同以照片或扫描件的形式传输给拟定合同的一方。由于,在此过程中,另一方有可能对合同的内容进行修改,为了安全起见,拟定合同的一方需要对另一方盖完章后的合同进行对照,以判断盖完章后的合同与原始合同是否一致,现有技术主要依靠人工对比的方式进行判断,这大大增加了人工成本,且人工对比过程中可能会由于人员疲劳、粗心等因素造成对比结果不准确的问题出现。
发明内容
本发明的目的在于提供一种文档对照识别方法、装置、电子设备和可读存储介质,可以准确识别待对照文档中的信息并且可以将识别后的信息与参考文档中的内容进行对照,进而判断待对照文档中的内容与参考文档中的内容是否一致。
为达到上述目的,本发明提供一种文档对照识别方法,包括:
获取待对照文档的图像和参考文档的电子文档;
基于预先训练的区域识别模型,识别所述待对照文档的图像中的每一行字符区域,所述区域识别模型为基于神经网络的模型;
基于预先训练的字符识别模型,识别所述每一行字符区域中的字符内容,得到识别后的字符,所述字符识别模型为基于神经网络的模型;
获取所述识别后的字符的位置信息;
根据所述位置信息以及所述识别后的字符,生成待对照文档的电子文档;
对所述待对照文档的电子文档和所述参考文档的电子文档进行内容对比;以及
根据对比结果,判断所述待对照文档与所述参考文档是否有差异点,并根据所述差异点的位置信息对所述差异点进行定位。
可选的,所述参考文档的类型为word文档、可编辑文字的PDF文档、excel文档、ppt文档或txt文档。
可选的,所述参考文档的类型为不可编辑文字的PDF文档、图片文档或纸质文档,所述参考文档的电子文档的获取步骤与所述待对照文档的电子文档的获取步骤相同。
可选的,所述方法还包括:根据所述差异点所在的位置信息,输出所述待对照文档的图像的对应内容与所述参考文档的电子文档或所述参考文档的图像的对应内容进行对照显示。
可选的,所述输出所述待对照文档的图像的对应内容与所述参考文档的电子文档或所述参考文档的图像的对应内容进行对照显示,包括:
根据所述差异点的类型,对所述待对照文档的图像的对应内容以及所述参考文档的电子文档或所述参考文档的图像的对应内容进行相应的标注。
可选的,所述根据对比结果,判断所述待对照文档与所述参考文档是否有差异点,包括:
若所述对比结果为所述待对照文档的电子文档相对于所述参考文档的电子文档的内容有所增加、有所删除或有所修改,则判断所述待对照文档与所述参考文档有差异点。
可选的,对所述待对照文档的电子文档和所述参考文档的电子文档进行内容对比,包括:根据所述参考文档和所述待对照文档的内容顺序,按字符对所述参考文档的电子文档和所述待对照文档的电子文档进行相互查询对比。
可选的,所述方法还包括:根据所述差异点所在的位置信息,对所述参考文档的电子文档和所述待对照文档的电子文档的后续对比对象的位置信息进行调整。
可选的,所述字符识别模型是基于空洞卷积和注意力模型建立的模型。
可选的,所述字符识别模型包括针对打印字体的识别模型和针对手写字体的识别模型,所述针对打印字体的识别模型和所述针对手写字体的识别模型分别经过各自独立的训练而成。
为达到上述目的,本发明还提供一种文档对照识别装置,包括:
第一获取模块,用于获取待对照文档的图像和参考文档的电子文档;
第一识别模块,用于基于预先训练的区域识别模型,识别所述待对照文档的图像中的每一行字符区域,所述区域识别模型为基于神经网络的模型;
第二识别模块,用于基于预先训练的字符识别模型,识别所述每一行字符区域中的字符内容,得到识别后的字符,所述字符识别模型为基于神经网络的模型;
第二获取模块,用于获取所述识别后的字符的位置信息;
生成模块,用于根据所述位置信息以及所述识别后的字符,生成待对照文档的电子文档;
对比模块,用于对所述待对照文档的电子文档和所述参考文档的电子文档进行内容对比;以及
判断模块,用于根据对比结果,判断所述待对照文档与所述参考文档是否有差异点,并根据所述差异点的位置信息对所述差异点进行定位。
可选的,所述参考文档的类型为word文档、可编辑文字的PDF文档、excel文档、ppt文档或txt文档。
可选的,所述参考文档的类型为不可编辑文字的PDF文档、图片文档或纸质文档,所述参考文档的电子文档的获取步骤与所述待对照文档的电子文档的获取步骤相同。
可选的,所述装置还包括:输出模块,用于根据所述差异点所在的位置信息,输出所述待对照文档的图像的对应内容与所述参考文档的电子文档或所述参考文档的图像的对应内容进行对照显示。
可选的,所述对比模块,具体用于根据所述参考文档的内容顺序和所述待对照文档的内容顺序,按字符对所述参考文档的电子文档和所述待对照文档的电子文档进行相互查询对比。
可选的,所述装置还包括:调整模块,用于根据所述差异点所在的位置信息,对所述参考文档的电子文档和所述待对照文档的电子文档的后续对比对象的位置信息进行调整。
可选的,所述字符识别模型是基于空洞卷积和注意力模型建立的模型。
可选的,所述字符识别模型包括针对打印字体的识别模型和针对手写字体的识别模型,所述针对打印字体的识别模型和所述针对手写字体的识别模型分别经过各自独立的训练而成。
本发明还提供一种电子设备,包括处理器、通信接口、存储器和通信总线,其中,处理器、通信接口、存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现上述任一项所述的文档对照识别方法的步骤。
本发明还提供一种可读存储介质,所述可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述任一项所述的文档对照识别方法的步骤。
与现有技术相比,本发明通过获取待对照文档的图像和参考文档的电子文档,通过预先训练的区域识别模型,识别待对照文档的图像中的每一行字符区域,通过预先训练的字符识别模型,识别每一行字符区域中的字符内容,由于区域识别模型和字符识别模型均为基于神经网络的模型,从而可以快速且准确地识别待对照文档的图像中的信息进而得到待对照文档的电子文档,此外本发明通过将待对照文档的电子文档与参考文档的电子文档的内容进行对比,从而可以快速且准确地判断出待对照文档与参考文档中的内容是否一致。
附图说明
图1为本发明一实施方式的文档对照识别方法的流程示意图;
图2为本发明的文档对照识别输出结果的一具体示例;
图3为本发明的文档对照识别输出结果的另一具体示例;
图4为本发明一实施方式的文档对照识别装置的结构示意图;
图5为本发明一实施方式提供的电子设备的结构框图。
其中,附图标记如下:
待对照文档-111,参考文档-112;第一获取模块-201;第一识别模块202;第二识别模块-203;第二获取模块-204;生成模块-205;对比模块-206;判断模块-207;处理器-301;通信接口-302;存储器-303;通信总线-304。
具体实施方式
以下结合附图1至5和具体实施方式对本发明提出的文档对照识别方法、装置、电子设备和可读存储介质作进一步详细说明。根据下面说明和权利要求书,本发明的优点和特征将更清楚。需要说明的是,本说明书所附图式所绘示的结构、比例、大小等,均仅用以配合说明书所揭示的内容,以供熟悉此技术的人士了解与阅读,并非用以限定本发明实施的限定条件,故不具技术上的实质意义,任何结构的修饰、比例关系的改变或大小的调整,在不影响本发明所能产生的功效及所能达成的目的下,均应仍落在本发明所揭示的技术内容能涵盖的范围内。
为解决现有技术问题,本发明实施方式提供了一种文档对照识别方法、装置、电子设备和可读存储介质。
需要说明的是,本发明实施方式的文档对照识别方法可应用于本发明实施方式的文档对照识别装置,该文档对照识别装置可被配置于电子设备上。其中,该电子设备可以是个人计算机、移动终端等,该移动终端可以是手机、平板电脑等具有各种操作系统的硬件设备。此外,需要说明的是,本文中的电子文档是指word文档、可编辑文字的PDF文档、excel文档、ppt文档或txt文档等可进行文字编辑的电子文件。
图1是本发明一实施方式提供的文档对照识别方法的流程示意图,请参考图1,本发明提供的文档对照识别方法可以包括如下步骤:
步骤S101:获取待对照文档的图像和参考文档的电子文档。
待对照文档的类型可以是纸质文档,待对照文档的图像可以通过拍照或者扫描的方式形成,待对照文档的类型也可以是不可编辑文字的PDF文档或图片文档,此时待对照文档的图像可以直接获取。除此之外,所述待对照文档的类型也可以是word文档、可编辑文字的PDF文档、excel文档、ppt文档或txt文档等可进行文字编辑的电子文件,此时由于待对照文档本身就是一个电子文档,待对照文档的电子文档可以直接获取,由此在此步骤中可以不必再获取待对照文档的图像,而是直接获取待对照文档的电子文档,然后直接将所述待对照文档的电子文档与所述参考文档的电子文档进行内容对比,而不再执行步骤S102-S105。
参考文档的类型可以是word文档、可编辑文字的PDF文档、excel文档、ppt文档或txt文档等可进行文字编辑的电子文件,此时,由于参考文档本身就是一个电子文档,参考文档的电子文档可以直接获取。参考文档的类型也可以是不可编辑文字的PDF文档、图片文档或纸质文档,此时,可以获取参考文档的图像,通过对参考文档的图像进行识别处理后得到参考文档的电子文档。
步骤S102:基于预先训练的区域识别模型,识别所述待对照文档的图像中的每一行字符区域,所述区域识别模型为基于神经网络的模型。
所述区域识别模型可以通过如下过程得到:对文档图像样本集中的每个文档图像样本进行标注处理,以标注出每个文档图像样本中的每一行字符区域,每一行字符区域包括每一空行区域;以及通过经过标注处理的文档图像样本集,对神经网络进行训练,以得到区域识别模型。
所述区域识别模型可以是基于深度卷积神经网络或深度残差网络建立的模型。具体的,基于预先训练的区域识别模型,识别所述待对照文档的图像中的每一行字符区域,包括:首先,所述区域识别模型从所述待对照文档的图像中提取二维特征向量;然后,在二维特征向量的每一个网格生成不同形状的锚点,使用标注框将识别出的区域进行标注,得到识别出的每一行字符区域。另外,在使用标注框将识别出的区域进行标注之后,还可以将标注框与生成的锚点做回归处理,以使标注框贴近每一行字符区域的实际位置。
步骤S103:基于预先训练的字符识别模型,识别所述每一行字符区域中的字符内容,得到识别后的字符,所述字符识别模型为基于神经网络的模型。
所述字符识别模型可以通过如下过程得到:对区域识别模型训练过程中所标注的每一行字符区域进行标注处理,以标注出每个区域内的字符;以及通过经过标注处理的各个区域,对神经网络进行训练,以得到字符识别模型,所述字符识别模型可以识别出每一行字符区域内的空格和/或空行,其中,识别后的空格可以用空格符表示,识别后的空行可以用换行符表示。
当然,字符识别模型的训练集也可以与区域识别模型的训练集不同,本发明对此不做限定。
所述字符识别模型可以是基于空洞卷积和注意力模型建立的模型。具体的,基于预先训练的字符识别模型,识别所述每一行字符区域中的字符内容,可以包括:所述字符识别模型采用空洞卷积对每一行字符区域的图片进行特征提取;通过注意力模型对提取到的特征解码成字符,得到每一行字符区域中的字符内容。
所述待对照文档中的字符可以是打印字体的字符,也可以是手写字体的字符,由于打印字体和手写字体对应的字符集存在差异,若使用同一字符模型来识别打印字体和手写字体,则会降低字符识别的准确率。因此,为了提高字符识别的准确率,针对不同字体采用不同的字符识别模型,所述字符识别模型可以包括针对打印字体的识别模型和针对手写字体的识别模型,所述针对打印字体的识别模型和所述针对手写字体的识别模型分别经过各自独立的训练而成,针对手写字体和打印字体可以采用不同的字符训练集来训练相应的字符识别模型。
步骤S104:获取所述识别后的字符的位置信息。
所述位置信息可以包括页数信息、行数信息和列数信息。由于待对照文档可能为多页,待对照文档的图像可能包括多张图片,由此,在识别出所述待对照文档的每一张图片的每一行字符区域中的字符后,需要记录所述识别后的字符在所述待对照文档中的哪一页、位于该页的哪一行以及位于该行的哪一列等位置信息,从而便于后续对所述待对照文档和所述参考文档的内容进行对比。
步骤S105:根据所述位置信息以及所述识别后的字符,生成待对照文档的电子文档。
由此,可以根据所述识别后的字符的位置信息将所述待对照文档的每一页的识别后的字符进行合并,从而可以得到所述待文档的电子文档。
当所述参考文档的类型是不可编辑文字的PDF文档、图片文档或纸质文档时,所述参考文档的电子文档的获取步骤与所述待对照文档的电子文档的获取步骤相同,即所述参考文档的电子文档可以通过如下步骤获得:
获取所述参考文档的图像;
基于所述预先训练的区域识别模型,识别所述参考文档的图像中的每一行字符区域;
基于所述预先训练的字符识别模型,识别所述每一行字符区域中的字符内容,得到识别后的字符;
获取所述识别后的字符的位置信息;
根据所述位置信息以及所述识别后的字符,生成所述参考文档的电子文档。
步骤S106:对所述待对照文档的电子文档和所述参考文档的电子文档进行内容对比。
具体地,所述对所述待对照文档的电子文档和所述参考文档的电子文档进行内容对比,可以包括:根据所述参考文档和所述待对照文档的内容顺序,按字符对所述参考文档的电子文档和所述待对照文档的电子文档进行相互查询对比。在此步骤中,空行和空格同样需要进行对比。
步骤S107:根据对比结果,判断所述待对照文档与所述参考文档是否有差异点,并根据所述差异点的位置信息对所述差异点进行定位。
具体地,所述根据对比结果,判断所述待对照文档与所述参考文档是否有差异点,可以包括:
若所述对比结果为所述待对照文档的电子文档相对于所述参考文档的电子文档的内容有所增加、有所删除或有所修改,则判断所述待对照文档与所述参考文档有差异点;
若所述对比结果为所述待对照文档的电子文档与所述参考文档的电子文档的内容相同,则判断所述待对照文档与所述参考文档无差异点。
由此,通过采用本发明提供的文档对照识别方法,可以准确识别待对照文档中的信息并且可以将识别后的信息与参考文档中的内容进行对照,进而判断待对照文档中的内容与参考文档中的内容是否一致。
优选的,所述文档对照识别方法还可以包括如下步骤:
若有差异点,则根据所述差异点所在的位置信息,输出所述待对照文档的电子文档或所述待对照文档的的图像的对应内容与所述参考文档的电子文档或所述参考文档的图像的对应内容进行对照显示。
由此可以根据所述差异点在所述待对照文档中的页数、行数和列数等信息以及根据所述差异点在所述参考文档中的页数、行数和列数等信息,输出所述待对照文档的电子文档或所述待对照文档的图像的对应页中的对应内容以及所述参考文档的电子文档或所述参考文档的图像的对应页中的对应内容进行对照显示。当所述待对照文档为word文档、可编辑文字的PDF文档、excel文档、ppt文档或txt文档等可进行文字编辑的电子文件时,则输出所述待对照文档的电子文档的对应内容进行对照显示;当所述待对照文档为不可编辑文字的PDF文档、图片文档或纸质文档时,则输出所述待对照文档的图像的对应内容进行对照显示。同理,当所述参考文档为word文档、可编辑文字的PDF文档、excel文档、ppt文档或txt文档等可进行文字编辑的电子文件时,则输出所述参考文档的电子文档的对应内容进行对照显示;当所述参考文档为不可编辑文字的PDF文档、图片文档或纸质文档时,则输出所述参考文档的图像的对应内容进行对照显示。
具体地,所述输出所述待对照文档的电子文档或所述待对照文档的图像的对应内容与所述参考文档的电子文档或所述参考文档的图像的对应内容进行对照显示的显示方式,可以分为上下对照或者左右对照的方式,例如所述待对照文档的电子文档或所述带对照文档的图像的对应内容显示在所述参考文档的电子文档或所述参考文档的图像的对应内容的右侧、左侧、上方或者下方。图2和图3示出了文档识别后输出结果的示意图,如图2所示,所述待对照文档111的图像显示在所述参考文档112的电子文档的右侧,如图3所示,所述待对照文档111的图像显示在所述参考文档112的电子文档的上方。
为了便于区分差异点的和观察差异点所处的位置,在输出所述待对照文档的电子文档或所述待对照文档的图像的对应内容与所述参考文档的电子文档或所述参考文档的图像的对应内容进行对照显示时,可根据所述差异点的类型,对所述待对照文档的电子文档或所述待对照文档的图像的对应内容以及所述参考文档的电子文档或所述参考文档的图像的对应内容进行相应的标注。例如,当所述差异点为所述待对照文档相对于所述参考文档的内容有所增加时,对所述待对照文档的电子文档或所述待对照文档的图像的对应内容采用突出显示的方式进行标注,例如可通过对所述待对照文档的电子文档或所述待对照文档的图像的对应内容采用标红的方式进行突出显示,对所述参考文档的电子文档或所述参考文档的图像的对应内容采用问号进行标注,例如可以采用红色问号对所述参考文档的电子文档或所述参考文档的图像的对应内容进行标注;当所述差异点为所述待对照文档相对于所述参考文档的内容有所删除时,对所述待对照文档的电子文档或所述待参照文档的图像的对应内容采用问号进行标注,例如,可采用灰色问号对所述待对照文档的电子文档或所述待对照文档的图像的对应内容进行标注,对所述参考文档的电子文档或所述参考文档的图像的对应内容采用突出显示的方式进行标注,例如,可以通过对所述参考文档的电子文档或所述参考文档的图像的对应内容采用标灰的方式进行突出显示;当所述差异点为所述待对照文档相对于所述参考文档的内容有所修改时,对所述待对照文档的电子文档或所述待对照文档的图像的对应内容以及所述参考文档的电子文档或所述参考文档的图像的对应内容均采用突出显示的方式进行标注,例如可以通过对所述参考文档的电子文档或所述参考文档的图像的对应内容以及所述待对照文档的电子文档或所述待对照文档的图像的对应内容均采用标灰的方式进行突出显示。
此外,在输出所述待对照文档的电子文档或所述待对照文档的图像的对应内容与所述参考文档的电子文档或所述参考文档的图像的对应内容进行对照显示时,还可以根据各个差异点的位置信息,按照各个差异点所出现的顺序,对差异点进行编号。
在输出所述待对照文档的电子文档或所述待对照文档的图像的对应内容与所述参考文档的电子文档或所述参考文档的图像的对应内容进行对照显示时,如果某一个差异点跨页了,即某一个差异点分布于两页文档上,则在进行对照显示时,将这两页文档的对应内容均显示出来,以完整显示差异点的内容。
优选的,为了进一步提高本发明的对照识别的准确性,所述文档对照识别方法还可以包括如下步骤:
根据所述差异点所在的位置信息,对所述参考文档电子文档和所述待对照文档的电子文档的后续对比对象的位置信息进行调整。
在对所述待对照文档的电子文档和所述参考文档的电子文档进行内容对比的过程中,如果所述参考文档的某一行中的字符或者某一段字符在所述待对照文档中被删除了,则此时,根据所述参考文档的内容按照顺序查询到当前字符并未在所述待对照文档的电子文档的相应位置处出现,则认为该字符在所述待对照文档中被删除了。如果所述待对照文档相对于所述参考文档,在某一行或某一段中增加了新的字符,则此时,根据所述待对照文档的内容按照顺序查询到当前字符并未在所述参考文档的电子文档的相应位置处出现,则认为该字符是增加的。由于当所述待对照文档相对于所述参考文档增加或删除了某些字符,会导致所述待对照文档的电子文档中后续需要进行对比的字符的位置相对于所述参考文档的电子文档中该字符的位置发生变化,因此需要对所述参考文档的电子文档和所述待对照文档的电子文档的后续对比对象的位置信息进行调整。比如,按照所述参考文档的内容顺序,应该将所述待对照文档的电子文档中的第1页第3行第5个字符和所述参考文档的电子文档中的第1页第3行第5个字符进行对比的,结果发现所述待对照文档的电子文档中的第1页第3行新增了10个字符,则后续需要将所述参考文档的电子文档中的第1页第3行第5个字符和所述待对照文档的电子文档中的第1页第3行第15个字符进行对比,依次类推,每当发现一次所述待对照文档相对于所述参考文档新增或删除了一个或两个以上的字符,则对所述参考文档的电子文档和所述待对照文档的电子文档的后续对比对象的位置信息进行一次调整。
与上述的文档对照识别方法相对应,本发明还提供一种文档对照识别装置,如图4所示,所述文档对照识别装置包括:
第一获取模块201,用于获取待对照文档的图像和参考文档的电子文档;
第一识别模块202,用于基于预先训练的区域识别模型,识别所述待对照文档的图像中的每一行字符区域,所述区域识别模型为基于神经网络的模型;
第二识别模块203,用于基于预先训练的字符识别模型,识别所述每一行字符区域中的字符内容,得到识别后的字符,所述字符识别模型为基于神经网络的模型;
第二获取模块204,用于获取所述识别后的字符的位置信息;
生成模块205,用于根据所述位置信息以及所述识别后的字符,生成待对照文档的电子文档;
对比模块206,用于对所述待对照文档的电子文档和所述参考文档的电子文档进行内容对比;以及
判断模块207,用于根据对比结果,判断所述待对照文档与所述参考文档是否有差异点,并根据所述差异点的位置信息对所述差异点进行定位。
由此,通过采用本发明提供的文档对照识别装置,可以准确识别待对照文档中的信息并且可以将识别后的信息与参考文档中的内容进行对照,进而判断待对照文档中的内容与参考文档中的内容是否一致。
所述参考文档的类型可以为word文档、可编辑文字的PDF文档、excel文档、ppt文档或txt文档。
所述参考文档的类型还可以为不可编辑文字的PDF文档、图片文档或纸质文档,所述参考文档的电子文档的获取步骤与所述待对照文档的电子文档的获取步骤相同。
优选的,所述装置还包括:输出模块,用于根据所述差异点所在的位置信息,输出所述待对照文档的电子文档或所述待对照文档的的图像的对应内容与所述参考文档的电子文档或所述参考文档的图像的对应内容进行对照显示。
优选的,所述输出模块,具体用于:
在输出所述待对照文档的电子文档或所述待对照文档的图像的对应内容与所述参考文档的电子文档或所述参考文档的图像的对应内容进行对照显示时,根据所述差异点的类型,对所述待对照文档的电子文档或所述待对照文档的图像的对应内容以及所述参考文档的电子文档或所述参考文档的图像的对应内容进行相应的标注。
可选的,所述判断模块207,具体用于:
若所述对比结果为所述待对照文档的电子文档相对于所述参考文档的电子文档的内容有所增加、有所删除或有所修改,则判断所述待对照文档与所述参考文档有差异点;以及
若所述对比结果为所述待对照文档的电子文档与所述参考文档的电子文档的内容相同,则判断所述待对照文档与所述参考文档无差异点。
优选的,所述对比模块206,具体用于根据所述参考文档的内容顺序和所述待对照文档的内容顺序,按字符对所述参考文档的电子文档和所述待对照文档的电子文档进行相互查询对比。
优选的,所述装置还包括:调整模块,用于根据所述差异点所在的位置信息,对所述参考文档的电子文档和所述待对照文档的电子文档的后续对比对象的位置信息进行调整。
优选的,所述字符识别模型是基于空洞卷积和注意力模型建立的模型。
优选的,所述字符识别模型包括针对打印字体的识别模型和针对手写字体的识别模型,所述针对打印字体的识别模型和所述针对手写字体的识别模型分别经过各自独立的训练而成。
本发明还提供了一种电子设备,如图5所示,所述电子设备包括处理器301、通信接口302、存储器303和通信总线304,其中,处理器301、通信接口302、存储器303通过通信总线304完成相互间的通信,
存储器303,用于存放计算机程序;
处理器301,用于执行存储器303上所存放的程序时,实现如下步骤:
获取待对照文档的图像和参考文档的电子文档;
基于预先训练的区域识别模型,识别所述待对照文档的图像中的每一行字符区域,所述区域识别模型为基于神经网络的模型;
基于预先训练的字符识别模型,识别所述每一行字符区域中的字符内容,得到识别后的字符,所述字符识别模型为基于神经网络的模型;
获取所述识别后的字符的位置信息;
根据所述位置信息以及所述识别后的字符,生成待对照文档的电子文档;
对所述待对照文档的电子文档和所述参考文档的电子文档进行内容对比;以及
根据对比结果,判断所述待对照文档与所述参考文档是否有差异点,并根据所述差异点的位置信息对所述差异点进行定位。
由此,本发明提供的电子设备,可以准确识别待对照文档中的信息并且可以将识别后的信息与参考文档中的内容进行对照,进而判断待对照文档中的内容与参考文档中的内容是否一致。
关于该方法各个步骤的具体实现以及相关解释内容可以参见上述图1所示的方法实施方式,在此不做赘述。
另外,处理器301执行存储器303上所存放的程序而实现的文档对照识别方法的其他实现方式,与前述方法实施方式部分所提及的实现方式相同,这里也不再赘述。
上述电子设备提到的通信总线可以是外设部件互连标准(PeripheralComponentInterconnect,PCI)总线或扩展工业标准结构(Extended IndustryStandardArchitecture,EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述电子设备与其他设备之间的通信。
所称处理器可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable GateArray,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器是所述电子设备的控制中心,利用各种接口和线路连接整个电子设备的各个部分。
所述存储器可用于存储所述计算机程序,所述处理器通过运行或执行存储在所述存储器内的计算机程序,以及调用存储在存储器内的数据,实现所述电子设备的各种功能。
所述存储器可以包括包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
本发明还提供了一种可读存储介质,该可读存储介质内存储有计算机程序,该计算机程序被处理器执行时实现如下步骤:
获取待对照文档的图像和参考文档的电子文档;
基于预先训练的区域识别模型,识别所述待对照文档的图像中的每一行字符区域,所述区域识别模型为基于神经网络的模型;
基于预先训练的字符识别模型,识别所述每一行字符区域中的字符内容,得到识别后的字符,所述字符识别模型为基于神经网络的模型;
获取所述识别后的字符的位置信息;
根据所述位置信息以及所述识别后的字符,生成待对照文档的电子文档;
对所述待对照文档的电子文档和所述参考文档的电子文档进行内容对比;以及
根据对比结果,判断所述待对照文档与所述参考文档是否有差异点,并根据所述差异点的位置信息对所述差异点进行定位。
所述可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备,例如可以是但不限于电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。
综上所述,与现有技术相比,本发明通过获取待对照文档的图像和参考文档的电子文档,通过预先训练的区域识别模型,识别待对照文档的图像中的每一行字符区域,通过预先训练的字符识别模型,识别每一行字符区域中的字符内容,由于区域识别模型和字符识别模型均为基于神经网络的模型,从而可以快速且准确地识别待对照文档的图像中的字符内容进而得到待对照文档的电子文档,此外本发明通过将待对照文档的电子文档与参考文档的电子文档的内容进行对比,从而可以根据对比结果快速且准确地判断出待对照文档与参考文档中的内容是否一致。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
上述描述仅是对本发明较佳实施方式的描述,并非对本发明范围的任何限定,本发明领域的普通技术人员根据上述揭示内容做的任何变更、修饰,均属于权利要求书的保护范围。显然,本领域的技术人员可以对发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包括这些改动和变型在内。
Claims (16)
1.一种文档对照识别方法,其特征在于,包括:
获取待对照文档的图像和参考文档的电子文档;
基于预先训练的区域识别模型,识别所述待对照文档的图像中的每一行字符区域,所述区域识别模型为基于神经网络的模型;
基于预先训练的字符识别模型,识别所述每一行字符区域中的字符内容,得到识别后的字符,所述字符识别模型为基于神经网络的模型,所述字符识别模型能够识别出每一行字符区域内的空格和/或空行;
获取所述识别后的字符的位置信息,所述位置信息包括页数信息、行数信息和列数信息;
根据所述位置信息以及所述识别后的字符,生成待对照文档的电子文档;
对所述待对照文档的电子文档和所述参考文档的电子文档进行内容对比;以及
根据对比结果,判断所述待对照文档与所述参考文档是否有差异点,并根据所述差异点的位置信息对所述差异点进行定位;
所述对所述待对照文档的电子文档和所述参考文档的电子文档进行内容对比,包括:
根据所述参考文档和所述待对照文档的内容顺序,按字符对所述参考文档的电子文档和所述待对照文档的电子文档进行相互查询对比;
所述方法还包括:
根据所述差异点所在的位置信息,对所述参考文档的电子文档和所述待对照文档的电子文档的后续对比对象的位置信息进行调整。
2.如权利要求1所述的文档对照识别方法,其特征在于,所述参考文档的类型为word文档、可编辑文字的PDF文档、excel文档、ppt文档或txt文档。
3.如权利要求1所述的文档对照识别方法,其特征在于,所述参考文档的类型为不可编辑文字的PDF文档、图片文档或纸质文档,所述参考文档的电子文档的获取步骤与所述待对照文档的电子文档的获取步骤相同。
4.如权利要求2或3所述的文档对照识别方法,其特征在于,所述方法还包括:
根据所述差异点所在的位置信息,输出所述待对照文档的图像的对应内容与所述参考文档的电子文档或所述参考文档的图像的对应内容进行对照显示。
5.如权利要求4所述的文档对照识别方法,其特征在于,所述输出所述待对照文档的图像的对应内容与所述参考文档的电子文档或所述参考文档的图像的对应内容进行对照显示,包括:
根据所述差异点的类型,对所述待对照文档的图像的对应内容以及所述参考文档的电子文档或所述参考文档的图像的对应内容进行相应的标注。
6.如权利要求1所述的文档对照识别方法,其特征在于,所述根据对比结果,判断所述待对照文档与所述参考文档是否有差异点,包括:
若所述对比结果为所述待对照文档的电子文档相对于所述参考文档的电子文档的内容有所增加、有所删除或有所修改,则判断所述待对照文档与所述参考文档有差异点。
7.如权利要求1所述的文档对照识别方法,其特征在于,所述字符识别模型是基于空洞卷积和注意力模型建立的模型。
8.如权利要求7所述的文档对照识别方法,其特征在于,所述字符识别模型包括针对打印字体的识别模型和针对手写字体的识别模型,所述针对打印字体的识别模型和所述针对手写字体的识别模型分别经过各自独立的训练而成。
9.一种文档对照识别装置,其特征在于,包括:
第一获取模块,用于获取待对照文档的图像和参考文档的电子文档;
第一识别模块,用于基于预先训练的区域识别模型,识别所述待对照文档的图像中的每一行字符区域,所述区域识别模型为基于神经网络的模型;
第二识别模块,用于基于预先训练的字符识别模型,识别所述每一行字符区域中的字符内容,得到识别后的字符,所述字符识别模型为基于神经网络的模型,所述字符识别模型能够识别出每一行字符区域内的空格和/或空行;
第二获取模块,用于获取所述识别后的字符的位置信息,所述位置信息包括页数信息、行数信息和列数信息;
生成模块,用于根据所述位置信息以及所述识别后的字符,生成待对照文档的电子文档;
对比模块,用于对所述待对照文档的电子文档和所述参考文档的电子文档进行内容对比;以及
判断模块,用于根据对比结果,判断所述待对照文档与所述参考文档是否有差异点,并根据所述差异点的位置信息对所述差异点进行定位;
所述对比模块,具体用于根据所述参考文档和所述待对照文档的内容顺序,按字符对所述参考文档的电子文档和所述待对照文档的电子文档进行相互查询对比;
所述装置还包括:
调整模块,用于根据所述差异点所在的位置信息,对所述参考文档的电子文档和所述待对照文档的电子文档的后续对比对象的位置信息进行调整。
10.如权利要求9所述的文档对照识别装置,其特征在于,所述参考文档的类型为word文档、可编辑文字的PDF文档、excel文档、ppt文档或txt文档。
11.如权利要求10所述的文档对照识别装置,其特征在于,所述参考文档的类型为不可编辑文字的PDF文档、图片文档或纸质文档,所述参考文档的电子文档的获取步骤与所述待对照文档的电子文档的获取步骤相同。
12.如权利要求10或11所述的文档对照识别装置,其特征在于,所述装置还包括:
输出模块,用于根据所述差异点所在的位置信息,输出所述待对照文档的图像的对应内容与所述参考文档的电子文档或所述参考文档的图像的对应内容进行对照显示。
13.如权利要求9所述的文档对照识别装置,其特征在于,所述字符识别模型是基于空洞卷积和注意力模型建立的模型。
14.如权利要求13所述的文档对照识别装置,其特征在于,所述字符识别模型包括针对打印字体的识别模型和针对手写字体的识别模型,所述针对打印字体的识别模型和所述针对手写字体的识别模型分别经过各自独立的训练而成。
15.一种电子设备,其特征在于,包括处理器、通信接口、存储器和通信总线,其中,处理器、通信接口、存储器通过通信总线完成相互间的通信;
所述存储器,用于存放计算机程序;
所述处理器,用于执行存储器上所存放的程序时,实现权利要求1-8中任一项所述的方法步骤。
16.一种可读存储介质,其特征在于,所述可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1-8中任一项所述的方法步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910385293.2A CN111914597B (zh) | 2019-05-09 | 2019-05-09 | 一种文档对照识别方法、装置、电子设备和可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910385293.2A CN111914597B (zh) | 2019-05-09 | 2019-05-09 | 一种文档对照识别方法、装置、电子设备和可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111914597A CN111914597A (zh) | 2020-11-10 |
CN111914597B true CN111914597B (zh) | 2024-03-15 |
Family
ID=73242269
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910385293.2A Active CN111914597B (zh) | 2019-05-09 | 2019-05-09 | 一种文档对照识别方法、装置、电子设备和可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111914597B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112632952A (zh) * | 2020-12-08 | 2021-04-09 | 中国建设银行股份有限公司 | 一种对比文件的方法和装置 |
CN112395852A (zh) * | 2020-12-22 | 2021-02-23 | 江西金格科技股份有限公司 | 多文件格式版式文档的对比方法 |
CN112560767A (zh) * | 2020-12-24 | 2021-03-26 | 南方电网深圳数字电网研究院有限公司 | 文档签名识别方法、装置及计算机可读存储介质 |
CN113836096A (zh) * | 2021-09-27 | 2021-12-24 | 北京来也网络科技有限公司 | 基于rpa和ai的文件比对方法、装置、设备、介质及系统 |
CN113836092B (zh) * | 2021-09-27 | 2024-06-21 | 北京来也网络科技有限公司 | 基于rpa和ai的文件比对方法、装置、设备及存储介质 |
CN114385849A (zh) * | 2022-03-24 | 2022-04-22 | 北京惠朗时代科技有限公司 | 一种差异显示方法、装置、设备及存储介质 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2354966A2 (en) * | 2010-02-05 | 2011-08-10 | Palo Alto Research Center Incorporated | System and method for visual document comparison using localized two-dimensional visual fingerprints |
CN102193764A (zh) * | 2010-03-11 | 2011-09-21 | 英华达(上海)电子有限公司 | 显示和处理多个文档的电子系统及方法 |
CN102262619A (zh) * | 2010-05-31 | 2011-11-30 | 汉王科技股份有限公司 | 文档的文字提取方法和装置 |
CN103324666A (zh) * | 2013-05-14 | 2013-09-25 | 亿赞普(北京)科技有限公司 | 一种基于微博数据的话题跟踪方法及装置 |
CN103914639A (zh) * | 2014-04-02 | 2014-07-09 | 北京中软冠群软件技术有限公司 | 一种文档追踪方法及装置 |
CN105320933A (zh) * | 2014-07-11 | 2016-02-10 | 柯尼卡美能达株式会社 | 电子文档生成系统以及电子文档生成装置 |
CN106980604A (zh) * | 2017-03-30 | 2017-07-25 | 理光图像技术(上海)有限公司 | 合同内容校阅装置 |
CN108805098A (zh) * | 2018-06-21 | 2018-11-13 | 云城(北京)数据科技有限公司 | 纸面文档与电子文档的比对方法、装置和系统 |
CN109117848A (zh) * | 2018-09-07 | 2019-01-01 | 泰康保险集团股份有限公司 | 一种文本行字符识别方法、装置、介质和电子设备 |
JP2019008697A (ja) * | 2017-06-28 | 2019-01-17 | コニカミノルタ株式会社 | 電子文書作成装置、電子文書作成方法及び電子文書作成プログラム |
CN109710907A (zh) * | 2018-12-20 | 2019-05-03 | 平安科技(深圳)有限公司 | 一种电子文档的生成方法及设备 |
-
2019
- 2019-05-09 CN CN201910385293.2A patent/CN111914597B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2354966A2 (en) * | 2010-02-05 | 2011-08-10 | Palo Alto Research Center Incorporated | System and method for visual document comparison using localized two-dimensional visual fingerprints |
CN102193764A (zh) * | 2010-03-11 | 2011-09-21 | 英华达(上海)电子有限公司 | 显示和处理多个文档的电子系统及方法 |
CN102262619A (zh) * | 2010-05-31 | 2011-11-30 | 汉王科技股份有限公司 | 文档的文字提取方法和装置 |
CN103324666A (zh) * | 2013-05-14 | 2013-09-25 | 亿赞普(北京)科技有限公司 | 一种基于微博数据的话题跟踪方法及装置 |
CN103914639A (zh) * | 2014-04-02 | 2014-07-09 | 北京中软冠群软件技术有限公司 | 一种文档追踪方法及装置 |
CN105320933A (zh) * | 2014-07-11 | 2016-02-10 | 柯尼卡美能达株式会社 | 电子文档生成系统以及电子文档生成装置 |
CN106980604A (zh) * | 2017-03-30 | 2017-07-25 | 理光图像技术(上海)有限公司 | 合同内容校阅装置 |
JP2019008697A (ja) * | 2017-06-28 | 2019-01-17 | コニカミノルタ株式会社 | 電子文書作成装置、電子文書作成方法及び電子文書作成プログラム |
CN108805098A (zh) * | 2018-06-21 | 2018-11-13 | 云城(北京)数据科技有限公司 | 纸面文档与电子文档的比对方法、装置和系统 |
CN109117848A (zh) * | 2018-09-07 | 2019-01-01 | 泰康保险集团股份有限公司 | 一种文本行字符识别方法、装置、介质和电子设备 |
CN109710907A (zh) * | 2018-12-20 | 2019-05-03 | 平安科技(深圳)有限公司 | 一种电子文档的生成方法及设备 |
Non-Patent Citations (2)
Title |
---|
基于结构化局部边缘模式的文档图像分类;石蒙蒙;《厦门大学学报》;20130528;第52卷(第03期);349-335 * |
学术文献抄袭检测研究进展;王晓笛;王效岳;白如江;;图书情报工作;20130420(第08期);143-150 * |
Also Published As
Publication number | Publication date |
---|---|
CN111914597A (zh) | 2020-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111914597B (zh) | 一种文档对照识别方法、装置、电子设备和可读存储介质 | |
CN111476227B (zh) | 基于ocr的目标字段识别方法、装置及存储介质 | |
CN109710590B (zh) | 一种错题本生成方法及装置 | |
CN109993112B (zh) | 一种图片中表格的识别方法及装置 | |
US9626555B2 (en) | Content-based document image classification | |
CN110097329B (zh) | 信息审核方法、装置、设备及计算机可读存储介质 | |
WO2022057707A1 (zh) | 文本识别方法、图像识别分类方法、文档识别处理方法 | |
WO2021212658A1 (zh) | Ocr图像样本生成、印刷体验证方法、装置、设备及介质 | |
US20210192129A1 (en) | Method, system and cloud server for auto filing an electronic form | |
US20190384971A1 (en) | System and method for optical character recognition | |
JP6795195B2 (ja) | 文字種推定システム、文字種推定方法、および文字種推定プログラム | |
WO2014086277A1 (zh) | 方便电子化的专业笔记本及其页码自动识别方法 | |
CN111291741B (zh) | 单据识别方法、装置、计算机设备和存储介质 | |
CN110866457A (zh) | 一种电子保单的获得方法、装置、计算机设备和存储介质 | |
CN112784220B (zh) | 一种纸质合同防篡改校验方法及系统 | |
CN111858977B (zh) | 票据信息采集方法、装置、计算机设备和存储介质 | |
CN110889341A (zh) | 基于ai的表单图像识别方法、装置、计算机设备和存储介质 | |
CN114821612B (zh) | 一种证券期货场景下pdf文档的信息抽取方法和系统 | |
CN111178365A (zh) | 图片文字的识别方法、装置、电子设备及存储介质 | |
CN112396057B (zh) | 一种字符识别方法、装置及电子设备 | |
JP2008282094A (ja) | 文字認識処理装置 | |
CN111414914A (zh) | 图像识别方法、装置、计算机设备和存储介质 | |
CN116384344A (zh) | 一种文档转换方法、装置及存储介质 | |
CN110909733A (zh) | 基于ocr图片识别的模版定位方法、装置和计算机设备 | |
KR100957508B1 (ko) | 광학 문자 인식 시스템 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |