CN112565549A - 一种书册图像扫描方法 - Google Patents
一种书册图像扫描方法 Download PDFInfo
- Publication number
- CN112565549A CN112565549A CN202011564028.XA CN202011564028A CN112565549A CN 112565549 A CN112565549 A CN 112565549A CN 202011564028 A CN202011564028 A CN 202011564028A CN 112565549 A CN112565549 A CN 112565549A
- Authority
- CN
- China
- Prior art keywords
- image
- book
- paging
- page
- page image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000005457 optimization Methods 0.000 claims abstract description 9
- 238000007781 pre-processing Methods 0.000 claims abstract description 4
- 238000012549 training Methods 0.000 claims description 14
- 238000012360 testing method Methods 0.000 claims description 11
- 238000013527 convolutional neural network Methods 0.000 claims description 9
- 239000000463 material Substances 0.000 claims description 7
- 238000004458 analytical method Methods 0.000 claims description 5
- 238000002939 conjugate gradient method Methods 0.000 claims description 5
- 230000007797 corrosion Effects 0.000 claims description 5
- 238000005260 corrosion Methods 0.000 claims description 5
- 238000013135 deep learning Methods 0.000 claims description 5
- 238000003860 storage Methods 0.000 claims description 5
- 230000003044 adaptive effect Effects 0.000 claims description 3
- 230000006870 function Effects 0.000 claims description 3
- 238000004519 manufacturing process Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 4
- 238000005520 cutting process Methods 0.000 description 3
- 230000007547 defect Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 2
- 238000002945 steepest descent method Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 239000006227 byproduct Substances 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 229910052799 carbon Inorganic materials 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003628 erosive effect Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/04—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/04—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
- H04N1/203—Simultaneous scanning of two or more separate pictures, e.g. two sides of the same sheet
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Character Input (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种书册图像扫描方法,包括以下步骤:S1、输入书本图像;S2、使用折痕识别模型识别书本图像的分页折痕,得到分页坐标,沿分页折痕分割书本图像,调整角度输出页面图像;S3、页面图像预处理,识别页面图像的文本轮廓;S4、将文本轮廓组成样本跨度,在每个跨度生成代表点,创建初始参数估计,实现投影到图像平面,使用最小优化算法优化参数,使重投影的误差变小,得到优化参数后,重新映射图像,展平页面图像;S5、输出结果图。
Description
技术领域
本发明涉及图像识别处理领域,具体为一种书册图像扫描方法。
背景技术
高拍仪是超便携低碳办公用品,也是一款办公领域革新性产品,能完成一秒钟高速扫描,具有OCR文字识别功能,可以将扫描的图片识别转换成可编辑的word文档,大大提高办公效率。然而目前市场上的高拍仪针对书籍拍摄存在一些不足,如拍摄畸变,书页没有展平等困难,极度影响拍摄扫描的结果,从而进一步影响OCR文字识别的精度。
现有的高拍仪多为一体式,书籍材料图像分页一般采用产品设定的辅助分割线处理,用户需要再指定位置放置文本才能分页,并且需对其分割线才能分割准确,方式较为局限。
如现有技术一种书籍高拍仪(CN211063657U),针对书籍的分页折痕和扭曲等问题,针对性改进高拍仪,但是存在通用性较低、大量更换高拍仪的成本过高的问题。
因此,针对现有高拍仪提供一种书籍材料图像处理方法成了亟需解决的难题。
发明内容
本发明的发明目的在于提供一种通用性强、成本低的书册图像扫描方法,用于解决现有技术书籍材料图像分页困难和图像扭曲的问题。
本发明解决上述技术问题所采取的技术方案如下:
一种书册图像扫描方法,包括以下步骤:
S1、输入书本图像;
S2、使用折痕识别模型识别书本图像的分页折痕,得到分页坐标,沿分页折痕分割书本图像,调整角度输出页面图像;
S3、页面图像预处理,识别页面图像的文本轮廓;
S4、将文本轮廓组成样本跨度,在每个跨度生成代表点,创建初始参数估计,实现投影到图像平面,使用最小优化算法优化参数,使重投影的误差变小,得到优化参数后,重新映射图像,展平页面图像;
S5、输出结果图。
进一步的,所述步骤S1之前包括步骤S0:
采集各种需要分页的文字材料并标注分页折痕制作训练集和测试集,使用卷积神经网络和训练集建立折痕识别模型,通过测试集和深度学习网络调优折痕识别模型参数使其拟合数据。
进一步的,所述卷积神经网络为YOLO。
进一步的,在训练过程中,将损失函数设置为:
loss=lbox+lobj+lcls
其中,xywh部分带来的误差,记为lbox:
置信度带来的误差,记为lobj:
类别带来的误差,记为lcls:
进一步的,所述步骤S3包括以下子步骤:
S3a、计算页面图像的文本内容区域确定页面边界;
S3b、通过自适应阈值对页面图像进行二值化、膨胀、腐蚀和连通区域分析,检测文本轮廓。
进一步的,所述最小优化算法为共轭梯度法。
进一步的,所述步骤S5还包括页面图像二值化去底色。
进一步的,所述书册图像扫描方法用于高拍仪或窗口政务输入仪或政务一体机。
一种终端设备,包括处理器和储存端,所述存储端用于存储程序代码,所述处理器用于执行所述书册图像扫描方法。
应用本发明的技术方案,针对书本图像具有分页折痕、左右结构的特点,针对性处理;首先通过卷积神经网络建立折痕识别模型,用于识别书本图像的分页折痕辅助书本图像左右分页,通过大量的测试集进行深度学习,优化折痕识别模型的参数,提高识别精度,减少使用者的操作,无需刻意对准,通过折痕识别模型自动识别书本图像折痕并沿折痕分页,提高操作效率;对于分页后的分页图像,通过对其进行文字内容分析并重投影新的图像,良好解决文字扭曲情况,在去灰底后即实现扫描效果;通过分压、扭曲矫正和去底等操作,无需大量的文字识别录入,即在不拆散书本的前提下,实现书本图像的扫描录入,极大的提高了图像的扫描质量,也避免出现文字识别错误的情况,最大程度的保留书本的文字内容和排版。
发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书以及附图中所特别指出的结构来实现和获得。
附图说明
下面结合附图对本发明进行详细的描述,以使得本发明的上述优点更加明确。
图1是本发明一种书册图像扫描方法的流程图;
图2是本发明一种书册图像扫描方法的分页流程图;
图3是本发明一种书册图像扫描方法的页面展平流程图;
图4是本发明一种书册图像扫描方法的折痕识别示意图;
图5是本发明一种书册图像扫描方法的跨度代表点示意图;
图6是本发明一种书册图像扫描方法的参数估计点示意图;
图7是本发明一种书册图像扫描方法的页面图像展平去底色示意图。
具体实施方式
为使得本发明的发明目的、特征、优点能够更加的明显和易懂,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,下面所描述的实施例仅仅是本发明一部分实施例,而非全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
如图1-7所示,一种书册图像扫描方法,包括以下步骤:
S1、输入书本图像;
S2、使用折痕识别模型识别书本图像的分页折痕,得到分页坐标,沿分页折痕分割书本图像,调整角度输出页面图像;
S3、页面图像预处理,识别页面图像的文本轮廓;
S4、将文本轮廓组成样本跨度,在每个跨度生成代表点,创建初始参数估计,实现投影到图像平面,使用最小优化算法优化参数,使重投影的误差变小,得到优化参数后,重新映射图像,展平页面图像;
S5、输出结果图。
其中,所述输入书本图像可以通过从数据库中提取或者直接拍照的方式输入;通过识别书本图像中间的分页折痕,定位左右分页的位置,根据分页折痕裁剪书本图像,并根据边缘特征调整角度,输出裁剪后的页面图像,即实现自动识别裁剪书本图像,无需刻意手动对准,提高操作效率;对于裁剪后的页面图像仍然存在页面扭曲的问题,展平页面图像消除扭曲,对于书籍、证件等有装订线的书册,通过本算法可以在不拆卸书册的前提下完成分页和展平。
本实施案例中,所述步骤S1之前包括步骤S0:采集各种需要分页的文字材料并标注分页折痕制作训练集和测试集,使用卷积神经网络和训练集建立折痕识别模型,通过测试集和深度学习网络调优折痕识别模型参数使其拟合数据。
配合大量的手动标注的书本图像的分页折痕训练集,通过卷积神经网络建立折痕识别模型,用于识别书本图像中间的分页折痕;通过折痕识别模型识别书本图像的分页折痕得到分页坐标,取坐标的中间值,避免切割到文字内容,沿分页折痕方向切割书本图像,将书本图像一分为二;根据切割后的图像的边缘特征微调角度,输出切割后的页面图像。
本实施案例中,所述步骤S2a包括采集各种需要分页的文字材料标注分页折痕制作训练集和测试集,使用卷积神经网络和训练集建立折痕识别模型,通过测试集和深度学习网络调优折痕识别模型参数使其拟合数据。通过大量的训练集和测试集配合深度学习,提高折痕识别模型的识别精度,通过在测试集和训练集中加入大量的干扰因针对不同的使用场景,模拟不同大小不同角度的书本图像,结合深度学习网络提高折痕识别模型的识别精度。
本实施案例中,所述卷积神经网络为YOLO。YOLO(You Only Look Once)是一种基于深度神经网络的对象识别和定位算法,其最大的特点是运行速度很快,可以用于实时系统,YOLO的核心思想就是利用整张图作为网络的输入,直接在输出层回归bounding box(边界框)的位置及其所属的类别,将一幅图像分成SxS个网格(grid cell),如果某个object的中心落在这个网格中,则这个网格就负责预测这个object。现在YOLO已经发展到v3版本,yolov3-tiny总共有24网络层,其中包含两个yolo层,分别是yolo16和yolo23,其大小分别为13x13和26x26,此外,每个yolo层也对应有3个anchors,分别是1:1,1:2和2:1,总共有6个anchors值,在输入为416×416时,每个cell的三个anchor box为,每次对应的感受野不同,32倍降采样的感受野最大,适合检测大的目标,anchor box为(116,90),(156,198),(373,326),16倍适合检测小的目标,anchor box为(30,61),(62,45),(59,119)。
训练的loss分为三个部;
loss=lbox+lobj+lcls;
1.xywh部分带来的误差,也就是bbox带来的loss,记为lbox;
2.置信度带来的误差,也就是obj带来的loss,记为lobj;
3.类别带来的误差,也就是class带来的loss,记为lcls;
本实施案例中,所述步骤S3包括以下子步骤:
S3a、计算页面图像的文本内容区域确定页面边界;
S3b、通过自适应阈值对页面图像进行二值化、膨胀、腐蚀和连通区域分析,检测文本轮廓。
膨胀:对二值化物体边界点扩充,将与物体接触的所以背景点合并到该物体中,使边界向外扩张。如果两个物体之间的距离比较近,会把两个物体连通到一起,对填补图像分割后物体的空洞有用。
腐蚀:消除物体边界点,使边界点向内部收缩,可以把小于结构元素的物体去除。选取不同大小的结构元素,去除不同大小的物体。如两个物体间有细小的连通,通过腐蚀可以将两个物体分开。
通过页面图像进行二值化、膨胀、腐蚀和连通区域分析,去除页面图像噪声,得到连通的文字内容,方便检查文本轮廓。
本实施案例中,所述步骤S4包括以下子步骤:
S4a、将文本轮廓组成样本跨度,在每个跨度生成代表点;
S4b、创建初始参数估计,实现投影到图像平面;
S4c、使用最小优化算法优化参数,使重投影的误差变小;
S4d、得到优化参数后,重新映射图像。
共轭梯度法是介于最速下降法与牛顿法之间的一个方法,它仅需利用一阶导数信息,但克服了最速下降法收敛慢的缺点,又避免了牛顿法需要存储和计算Hesse矩阵并求逆的缺点,共轭梯度法不仅是解决大型线性方程组最有用的方法之一,也是解大型非线性最优化最有效的算法之一。在各种优化算法中,共轭梯度法是非常重要的一种。其优点是所需存储量小,具有步收敛性,稳定性高,而且不需要任何外来参数。把文本内容分成几行,因此将每一行文本看成是一条曲线,这里假设扭曲后变成三次样条曲线f(x)=a*x3+b*x2+c*x+d,由两个系数α和β控制,代入f(0)=0,f(1)=0,f’(0)=α,f’(1)=β,得到a=α+β,b=-2*α-β,c=α,d=0。
其中,根据检查到的文本轮廓,将文本轮廓组成样本跨度,页面图像上在每个跨度生成代表点;然后创建初始参数估计,实现投影到图像平面,页面图像上生成参数估计点;通过优化参数重新投影,实现消除页面扭曲,展平文字内容。
本实施案例中,还包括步骤S5、页面图像二值化去底色。最后将页面图像二值化去底色,得到背景干净无噪点,左右分压无折痕、无扭曲变形的扫描结果,将书本图像转为文字图片。
本实施案例中,所述书册图像扫描方法用于高拍仪。所述方法适用于现有的高拍仪,无需硬件更换,节约较低,通用性强,使用者无需刻意摆放书本位置用于辅助分页,通过折痕识别模型自动识别,完成分页。
一种终端设备,包括处理器和储存端,所述存储端用于存储程序代码,所述处理器用于执行所述书册图像扫描方法。所述方法避免大量的文字识别换算,计算量较小,除了适用于高拍仪,还可以适用于手机等设备处理书本图像的扫描工作。
最后应说明的是:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种书册图像扫描方法,其特征在于,包括以下步骤:
S1、输入书本图像;
S2、使用折痕识别模型识别书本图像的分页折痕,得到分页坐标,沿分页折痕分割书本图像,调整角度输出页面图像;
S3、页面图像预处理,识别页面图像的文本轮廓;
S4、将文本轮廓组成样本跨度,在每个跨度生成代表点,创建初始参数估计,实现投影到图像平面,使用最小优化算法优化参数,使重投影的误差变小,得到优化参数后,重新映射图像,展平页面图像;
S5、输出结果图。
2.根据权利要求1所述书册图像扫描方法,其特征在于,所述步骤S1之前包括步骤S0:
采集各种需要分页的文字材料并标注分页折痕制作训练集和测试集,使用卷积神经网络和训练集建立折痕识别模型,通过测试集和深度学习网络调优折痕识别模型参数使其拟合数据。
3.根据权利要求1所述书册图像扫描方法,其特征在于,所述卷积神经网络为YOLO。
5.根据权利要求1所述书册图像扫描方法,其特征在于,所述步骤S3包括以下子步骤:
S3a、计算页面图像的文本内容区域确定页面边界;
S3b、通过自适应阈值对页面图像进行二值化、膨胀、腐蚀和连通区域分析,检测文本轮廓。
6.根据权利要求1所述书册图像扫描方法,其特征在于,所述最小优化算法为共轭梯度法。
7.根据权利要求1所述书册图像扫描方法,其特征在于,所述步骤S5还包括页面图像二值化去底色。
8.根据权利要求1-7任一项所述书册图像扫描方法,其特征在于,所述书册图像扫描方法用于高拍仪或窗口政务输入仪或政务一体机。
9.一种终端设备,其特征在于,包括处理器和储存端,所述存储端用于存储程序代码,所述处理器用于执行如权利要求1-7任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011564028.XA CN112565549A (zh) | 2020-12-25 | 2020-12-25 | 一种书册图像扫描方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011564028.XA CN112565549A (zh) | 2020-12-25 | 2020-12-25 | 一种书册图像扫描方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112565549A true CN112565549A (zh) | 2021-03-26 |
Family
ID=75032536
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011564028.XA Pending CN112565549A (zh) | 2020-12-25 | 2020-12-25 | 一种书册图像扫描方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112565549A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114458979A (zh) * | 2022-02-10 | 2022-05-10 | 珠海读书郎软件科技有限公司 | 一种用于辅助分页识别的智能台灯、识别方法及其存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002150280A (ja) * | 2000-09-04 | 2002-05-24 | Fujitsu Ltd | 歪み補正方式 |
US20030142884A1 (en) * | 2002-01-31 | 2003-07-31 | Cariffe Alan Eddy | Binding curvature correction |
US6885479B1 (en) * | 1999-07-09 | 2005-04-26 | Hewlett-Packard Development Company, L.P. | Curled surface imaging system |
US20100073735A1 (en) * | 2008-05-06 | 2010-03-25 | Compulink Management Center, Inc. | Camera-based document imaging |
WO2016024375A1 (ja) * | 2014-08-12 | 2016-02-18 | ソニー株式会社 | 画像処理装置及び画像処理方法 |
US20180060701A1 (en) * | 2016-08-31 | 2018-03-01 | Adobe Systems Incorporated | Deep-learning network architecture for object detection |
US20190279414A1 (en) * | 2018-03-08 | 2019-09-12 | Adobe Inc. | Digital image editing for images of folded objects |
-
2020
- 2020-12-25 CN CN202011564028.XA patent/CN112565549A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6885479B1 (en) * | 1999-07-09 | 2005-04-26 | Hewlett-Packard Development Company, L.P. | Curled surface imaging system |
JP2002150280A (ja) * | 2000-09-04 | 2002-05-24 | Fujitsu Ltd | 歪み補正方式 |
US20030142884A1 (en) * | 2002-01-31 | 2003-07-31 | Cariffe Alan Eddy | Binding curvature correction |
US20100073735A1 (en) * | 2008-05-06 | 2010-03-25 | Compulink Management Center, Inc. | Camera-based document imaging |
CN102084378A (zh) * | 2008-05-06 | 2011-06-01 | 计算机连接管理中心公司 | 基于照相机的文档成像 |
WO2016024375A1 (ja) * | 2014-08-12 | 2016-02-18 | ソニー株式会社 | 画像処理装置及び画像処理方法 |
US20180060701A1 (en) * | 2016-08-31 | 2018-03-01 | Adobe Systems Incorporated | Deep-learning network architecture for object detection |
US20190279414A1 (en) * | 2018-03-08 | 2019-09-12 | Adobe Inc. | Digital image editing for images of folded objects |
Non-Patent Citations (1)
Title |
---|
苏超,王国中: "课堂场景下学习者情感识别研究", 《智能计算机与应用》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114458979A (zh) * | 2022-02-10 | 2022-05-10 | 珠海读书郎软件科技有限公司 | 一种用于辅助分页识别的智能台灯、识别方法及其存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111814722B (zh) | 一种图像中的表格识别方法、装置、电子设备及存储介质 | |
CN111325203B (zh) | 一种基于图像校正的美式车牌识别方法及系统 | |
CN108918536B (zh) | 轮胎模具表面字符缺陷检测方法、装置、设备及存储介质 | |
CN111626279B (zh) | 一种负样本标注训练方法及高度自动化的票据识别方法 | |
CN109472249A (zh) | 一种确定书写体优劣等级的方法及装置 | |
CN110647885B (zh) | 基于图片识别的试卷拆分方法、装置、设备以及介质 | |
CN110647795A (zh) | 一种表格识别方法 | |
CN114005123A (zh) | 一种印刷体文本版面数字化重建系统及方法 | |
CN113065396A (zh) | 基于深度学习的扫描档案图像的自动化归档处理系统及方法 | |
CN112883795B (zh) | 一种基于深度神经网络的表格快速自动提取方法 | |
CN109741273A (zh) | 一种手机拍照低质图像的自动处理与评分方法 | |
CN113592735A (zh) | 文本页面图像还原方法及系统、电子设备和计算机可读介质 | |
CN111414905B (zh) | 一种文本检测方法、文本检测装置、电子设备及存储介质 | |
CN110414517B (zh) | 一种用于配合拍照场景的快速高精度身份证文本识别算法 | |
CN112565549A (zh) | 一种书册图像扫描方法 | |
CN107067399A (zh) | 一种试卷图像分割处理方法 | |
CN112801923A (zh) | 文字处理方法、系统、可读存储介质及计算机设备 | |
CN112668567A (zh) | 一种基于深度学习的图像裁剪算法 | |
CN111950556A (zh) | 一种基于深度学习的号牌印刷质量检测方法 | |
JP5211449B2 (ja) | 認識距離を調整するプログラム、装置および方法、ならびに文字列を認識するプログラム | |
CN116935421A (zh) | 图片表格识别方法及图片表格识别装置 | |
CN113657162A (zh) | 一种基于深度学习的票据ocr识别方法 | |
CN113628113A (zh) | 一种图像拼接方法及其相关设备 | |
CN107045635A (zh) | 一种网上阅卷系统的试卷图像分页分题处理方法 | |
CN114565749A (zh) | 一种电力建设现场签证文档关键内容识别方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: 518000 1402, building 3, Shenzhen new generation industrial park, No. 136, Zhongkang Road, Meidu community, Meilin street, Futian District, Shenzhen, Guangdong Province Applicant after: Shenzhen Taiji Shuzhi Technology Co.,Ltd. Address before: 518000 Two 26G Baihua Apartments on Baihua Erlu, Futian District, Shenzhen City, Guangdong Province Applicant before: Shenzhen Taiji Yun Soft Technology Co.,Ltd. |
|
CB02 | Change of applicant information | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210326 |
|
RJ01 | Rejection of invention patent application after publication |