CN1147652A - 文字辨识系统数据库的组建方法 - Google Patents
文字辨识系统数据库的组建方法 Download PDFInfo
- Publication number
- CN1147652A CN1147652A CN96106617A CN96106617A CN1147652A CN 1147652 A CN1147652 A CN 1147652A CN 96106617 A CN96106617 A CN 96106617A CN 96106617 A CN96106617 A CN 96106617A CN 1147652 A CN1147652 A CN 1147652A
- Authority
- CN
- China
- Prior art keywords
- reference model
- character
- sample
- training sample
- class
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000010276 construction Methods 0.000 title claims description 16
- 238000012549 training Methods 0.000 claims abstract description 84
- 239000013598 vector Substances 0.000 claims abstract description 66
- 230000008859 change Effects 0.000 claims abstract description 31
- 238000000034 method Methods 0.000 claims description 53
- 238000012545 processing Methods 0.000 claims description 41
- 238000010606 normalization Methods 0.000 claims description 22
- 238000013528 artificial neural network Methods 0.000 claims description 8
- 230000003247 decreasing effect Effects 0.000 claims description 8
- 230000008676 import Effects 0.000 claims description 7
- 239000000284 extract Substances 0.000 claims description 6
- 230000036961 partial effect Effects 0.000 claims description 4
- 230000008520 organization Effects 0.000 claims description 2
- 230000006870 function Effects 0.000 description 19
- 238000005457 optimization Methods 0.000 description 14
- 230000009471 action Effects 0.000 description 8
- 238000007689 inspection Methods 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 230000002159 abnormal effect Effects 0.000 description 6
- 238000011002 quantification Methods 0.000 description 6
- 238000012937 correction Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000001537 neural effect Effects 0.000 description 4
- 241001269238 Data Species 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 101000654316 Centruroides limpidus Beta-toxin Cll2 Proteins 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000003467 diminishing effect Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000009931 harmful effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000012535 impurity Substances 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000002203 pretreatment Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/28—Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Character Discrimination (AREA)
Abstract
一种文字辨识系统数据库的组建方法,该系统主要包括信号输入装置、中央处理单元、主存储器、磁盘存储器及图象/声音输出介面;其数据库的组建方法包括以下步骤:输入每类字的训练样本;对每一训练样本抽取特征向量;对每类字元选取适当的参考模型个数及初始位置以及当训练样本比接近其真实字元的参考模型更接近某一错误字元的参考模型时,相关的参考模型的特征值向量被适当改变。
Description
本发明涉及一套利用事先建构好的标准模型来辨认经由光学扫描器所输入的手写或印刷字形的系统与方法。特别是一种文字辨识系统数据库的组建方法。
字形识别通常被用于处理欲输入的人类眼睛可阅读的文字(那就是机器印刷或人类手写字形)。例如,许多电脑是以键盘敲打输入数据,其它电脑系统则以光学扫描机接收文件式输入数据。更有一些电脑系统是以光笔和数字板接收手写输入信号。这样的文字和手写输入装置可能为了各种原因而被提供出来。例如,使用者较习惯用手写方式输入而不愿使用键盘式输入。另外,键盘需要占用很大的空间,这使得它不能安装在小型、可携式电脑上(例如个人数字辅助器)。图1显示一套传统文字辨识系统10,其包括一个数字板和光笔18,一个光学扫描器16,或者两者都有。假如是前者,使用者将在数字板表面移动光笔,以图形表现的二维化数据。亦即,假如使用笔和纸,此动作将在纸上产生符号,而数字板及光笔18则以数字形式产生点数化影像。若辨识系统包含一个光学扫描器16,则可置放存有手写或机器印刷文字的纸张于其上,并产生以图形表现纸张上文字的二维化数据。
数字板及光笔18或光学扫描器16数据输至输出输入介面14,而介面再将数据转输至系统10的总线12。文字辨识系统10包括一处理器(processor)或中央处理单元(CPU)20,一个主记忆体22,一个磁盘存储器24及一个视听输出装置26。任何一个装置20、22、24、26均连接到总线12以传输数据并从其他的装置或输出输入介面接收数据。视听输出装置26是以图象或声音的形式将信号传达给使用者。为此,视听输出装置26可以为一个阴极射线管、液晶显示器LCD显示板或扩音器。主存储器22及磁碟存储器24是做数据及程序储存用,而处理器20用来产生数据,处理器20在连接其他装置如12、14、16、18、22、24及26执行步骤以从输入的数据辨识文字。
图2说明一个以图1的文字辨识系统10来执行的传统手写辨识过程。第一步骤32将接收输入的手写或机器印刷文字,例如,数字板18及光笔将使用者所写一个或更多的文字传输到输出输入介面14。或者,使用者将已有手写或机器印刷文字的纸张输入到光学扫描器16。再依序移转这些文字数据到输出输入介面14,而介面将经由系统总线12移转文字数据到,相应装置,如主存储器22。
在步骤34中,处理器20将事先储存在主存储器22的输入文字数据进行处理。例如,处理器20可以经由丢弃小于最小临界值的小区块图象来除去杂信,处理器20也可能对输入字形图象做平滑化处理。接下来,在步骤36中,处理器20可选择性地将输入字形图象细化,然后将细化后的图象转换成具平均笔画宽度的图象。在步骤38中,处理器20分割文字图象成为大小不同的小区域范围以进行文字特征抽取。在此,“特征”代表任何有助于分辨不同文字的定量图象图形特性。在美国专利申请序号08/313,686中描述一种根据输入字形图象分布来进行文字分割的方法。例如,输入文字为手写数字“8”,则此输入方案“8”的图形可能被分割成如图3,4或5所示部分。在图形3中,8个区域321,322,326,327,341,342,346和347被形成。在图形4中,8个区域352,354,356,358,372,374,376和378被形成。在图5中,4个区域332,334,336和338被形成。
在步骤40中,处理器20对每个输入图象抽取特征向量。美国专利申请序号08/313,686提供由图3到图5所分割的图象文字特征范例。这些说明性的特征被简单地描述如下。事实上,对每个文字图象同样方式的文字特征向量将被抽取出来。
图6表示可用来描述笔画密度函数(SDF)的特征抽取法。首先处理器20在每一个待产生密度函数的区域中投射某一数目的扫描线,然后再计算在这区域中扫描线穿过文字笔画的次数。最后此区域的密度函数特征即为总穿越次数除以扫描线数目。
图7描述周边背景面积(PBA)特征的抽取方法。首先处理器20计算下列方程式: 此处n为水平垂直轴点数指标,其值由1到输入文字在此n所对应轴的最大维次N。λn为于指标n由字形图象的外框矩形在水平或垂直方向扫描直到碰到第一个笔画点的空白点素数长度值。就如图7所示,处理器20从相对应的座标轴垂直地测量λn,变数m为一数值用来指示那一特殊区域正在计算PBA值。Xm表示这个区域m的水平长度,而Ym表示区域m的垂直长度。
处理器20对每一区域321,322,326,327,341,342,346和347计算其垂直方向的PBA,同时对区域352,354,356,358,372,374,376和378计算水平方向的PBA。所以,共有16个特征值被抽取出来。
参考图8,轮廓线特征(CLL)可由公式(2)计算得到,
Δλn=λn+1-λn 对每一个Δλn<0
(2) ,封每一個Δλn>0
其中变数m’n’Xm’Ym’和λn已描述于PBA特征抽取段落中。处理器20对每一垂直和水平区域324,328,344和348得出的二个CLL(即CCL1和CLL2)特征值。所以,亦有16个特征值被抽取出来。
参考图4,倾斜度特征(Gradient)被抽取出来。首先,处理器20对输入图象的第i行及第j列的图象点计算出其方向码Dirij。变数i和j分别表示水平轴(X)和垂直轴(y)的位置指标。这方向码为对应此图象点的法线向量。如图9所示,共有8个可能的方向码,每一个对应45度的角度,那就是0对应从337.5度到22.5度,1对应从22.5度到67.5度,2对应从67.5度到112.5度,3对应从112.5到157.5度,4对应从157.5度到202.5度,5对应从202.5度到247.5度,6对应从247.5度到292.5度,7对应从292.5度到337.5度。所以,处理器20以下列公式对每一区域产生一个长度向量
Len(Dirij): ,封每一Dirij
(3c)
此处Bddm(Dirij)代表于第m区域中与方向Dirij垂直的边界宽度,而X和Y是经由下列二个3×3矩阵与图象做运算产生。
X
Y(3d)处理器20以这二个矩阵对输入图象做运算则可获得Len和Dirij。然后再以方程式(3c)计算出每一区域中每一方向的长度值。
-1 | 0 | 1 |
-1 | * | 1 |
-1 | 0 | 1 |
1 | 1 | 1 |
0 | * | 0 |
-1 | -1 | -1 |
例如:倾斜度特征可从8个区域352,354,356,358,372,374,376和378抽取出来,而每一个区域包含有8个方向码的长度特征,故将产生64个特征值。
在对一输入图象进行特征抽取以后,处理器20执行步骤42。在此步骤中,处理器20以先前制做出来的每一字参考特征值向量与目前输入文字所抽取出来的特征值向量进行比对。这些参考特征值可能被存放于磁盘存储器24或主存储器22中,这些参考特征值将被组织在一参考特征值数据库中,简称数据库。这数据库对系统10要辨识的每一文字至少包含有一个特征值向量。例如,当系统10为辨识英文字母时,每一字母有至少有一参考特征值向量。根据这些比对,处理器20可决定出那一文字的参考特值向量与输入文字的特征值向量最接近,则以此字为最终辨识的结果。
很多对改善文字辨识的方法已经被提出来,例如美国专利:
5,151,950,5,050,219,
5,034,989,4,903,312,
4,731,857,4,718,103,
4,685,142,4,284,975,
以及
D.Lee&N.Sirhari,Handprinted DigitalRecognition:A Comparison of Algorithms,ThirdInternational Workshop on Frontiers In HandwritingRecognition p.153-162(1993),G.Srikantan,GradientRepresentation for Handwritten CharacterRecognition,Third International Workshop onFrontiers In Handwriting Recognition,p.318-24(1993)and L.Tu,W.Lin,Y.Chan&I.Shyu,APC BasedHandwritten Chinese Character Recognition System,Third International Workshop on Frontiers InHandwriting Recognition,p.349-54(1993)。
如上所述,一个典型的文字辨识系统10是比较输入字形所抽取的特征值和事先所预存的各类文字参考模型特征值数据库。这样的数据库可经由许多方法来组成。例如,美国专利序号第5,050,219提出一种以树状结构来组织文字辨识特征数据库。在这树状结构中每个终结节点代表一类欲辨识的字元。而每一个非终结的节点代表一组仍需与输入字形以某种事先已决定的特征做比较的特定文字群,然后根据比较的结果,这树状数据库将前进至其某一个子节点。在这比较过程中,除非已到达某一终结节点,这树状数据库将一直前进,继续处理下一个节点。而最后其终结节点所对应的字元即是辨识的结果。
其它的文字辨识特征数据库是平面式的,这样的数据库对辨识范围的每一类文字至少包含一个参考模型特征值向量。输入文字的特征向量将与数据库中每一参考模型特征向量做比较,然后取与输入文字特征最接近的参考模型特征向量所对应的文字类别为最终的辨识结果。
一般而言,求取参考模型字元特征是由下述步骤来完成。起初,对每一类字元,以图1中的系统10收集很多辨识范围内的字形输入样本。然后对每一样本进行特征抽取。接下来为了存储器空间的考虑,对处理器20每类字元特征值将以一个或少数几个参考模型来代表,而这些参考模型特征值为最终被存放于前述字元数据库中的数据。举例来说,处理器20可能对每一类字元的训练样本计算其平均特征向量,然后以此向量当作此字元的参考模型特征向量而存放于字元数据库内。事实上,这些参考模型特征向量是用来代表字元以进行比对用的。与此相关的有美国专利序号08/313,683,其提出求取每类字元特征值向量的一种处理法则。
上述方法所求出的参考模型特征值向量可能不是最佳的。例如,对所求出的参考模型,某一类字元的训练样一可能会比对自己的参考模型更接近其它字元的参考模型。一般来说,一个参考模型与输入字元的对应程度是以此二物体的特征值向量在每个维次上的距离总和来计算。然后这个距离总和即被拿来当做这二向量的距离指标。当一个训练字形样本被说成与某一参考模型最接近即是表示此二对应特征值向量的距离最小。为了表示上的方便,真实字元类别代表一个输入字元图象的真正归属字元类别,而最佳比对字元类别则为与输入字元图象最接近的参考模型所对应的字元类别。在一个非最佳化的参考模型特征向量数据库中,最佳比对字元类别并不为真实字元类别的字元训练样本数目可能会高得不可接受。若如此,这代表辨识系统不具有好的辨识效能。
为了避免这个问题,参考模型特征值向量需要被最佳求取。在这最佳化的处理过程中,参考模型特征值向量是不断的被调整来减少最佳比对字元类别不为真实字元类别的字元训练样本数目。
第一个习知的参考模型最佳化处理为K平均值(K-means)法则。可参看Devijer和Kittler于1982年所著的“图形识别:一种统计方法”的第409页。根据这个法则,处理器20对每个训练样本执行下述步骤。处理器20指定每个训练样本一个与其最接近的字元类别。代表此字元类别的参考模型中有与该训练样本的特征值向量距离最小者。对某一训练样本,假如其最接近的字元类别不为上次训练所指定的字元类别时,处理器20将产生一个信号表示已发生字元类别的变更。然后处理器20将根据新的字元类别指定,重新计算每类字元的参考模型。处理器20将再重复上述动作一直等到对所有训练样本已不再发生字元类别变更的情形。
第二个习知的参考模型最佳化处理方法为线性向量量化法(Linear Vector Quantization或是LVQ2),请参考1990年由T.Kobonen的文章”自我组织地图法“The Self Organixzation Map”,其为了要解释这个最佳化处理过程,一些符号介绍于下
N 特征元素总数。
i 特征元素指标,其中1≤i≤N。
X 一个训练样本的特征值向量,其元素表示为X1……XN。
K 训练样本字元类别总数。
CK 第k个字元类别。
Bk 第k个字元类别的参考模型总数。
j 参考模型指标。
j
rk j 第k类字元的第j个参考模型的特征值向量,其元素表示为rkl j,....,rkN j。
D(rk j,X)rk j 和X的距离。
qk 在第k类字元中,与输入样本特征值向量量X最接近的参考模型指标。
I 输入样本X的真实字元类别。
M 与输入样本特征最接近的字元类别,那就是与X最接近的参考模型所归属的字元类别。
距离测量D(rk j,X)计算方式为
下列公式是用来决定在第k类字元的参考模型中与输入字元特征X最接近者的指标qk
并且最接近字元类别M及此类别中最接近X的参考模型qM满足
于LVQ2的处理方式中。处理器20对每个训练样本特征值向量执行以下步骤。首先,它找出与X最接近的字元类别M和最接近的参考模型qM。若是M等于X的真实字元类别I,则没有任何参考模型被更动。然而若M不等于1,则有二个参考模型qM和q1需要被更动,使得的qM的参考模型能远离X,而q1的参考模型能更加接近X。以数学符号表示则为
其中a为学习参数系数,可为固定或可变值。
一般而言,LVQ2得到比K-means效果更好的参考模型。然而,改善参考模型一直是重要的研究方向。特别的是,LVQ2本质上存在有三个严重的缺点:
(1)其最佳化方程式7(a)和7(b)并不直接与错误辨识的个数产生关系;
(2)当含有不正常的训练样本时,可能导至参考模型被剧烈变更,造成辨识效能的降低;
(3)LVQ2对每个维次的特征一视同仁,保有相同的加权值。但事实上,某些维次的特征在辨识方面可能会比其它维次特征重要。
本发明的目的在于提供一种能避免上述缺点,具有最佳化参考模型的文字识别系统及方法。
本发明是采用一种比较式分类检查法(Competitive Classifcation Learning或简称CCL)来产生最佳化的参考模型特征值向量。这个CCL法能被一具有一个或多个处理器系统来执行,且此系统具有与处理器相连接的存储器,以及一个文字信息输入装置(例如数字板和光笔)。在处理过程中,首先由输入装置接收输入字形信息,然后利用一个或多个处理器进行计算所有字元参考模型与输入字形特征值向量的距离。并且找出最佳比对字元类别。对所有训练样本,处理器抽取其特征值向量,然后以每类字元的样本最少为一个参考模型来代表。根据CCL法,处理器将逐渐调整参考模型的特征值使得所对应的文字识别系统产生更佳的辨识结果。
在本质上,CCL最佳模型建构法具有下列优点:
(1)参考模型是被逐渐调整以减少辨识错误的机会。
(2)不正常的训练样本不会影响参考模型的辨识能力的好坏。
(3)对具有分辨能力特征元素能给予较大的加权值,反之,对较不具分辨能力的特征元素给予较小的加权值。
为了满足这些优点,处理器针对每个训练样本执行下列步骤:
(a)以方程式(8)计算每一个参考模型rk j与输入样本特征值向量X间的距离yk j, 其中,
N 为特征维次数目
X 为输入样本的特征值向量,其元素为X1,…X1,…,XN
K 为字元样本的总字元类别数目
rk j 为第k类字元的第j个参考模型的特征值向量,其元素为:rkl j,...rki j....,rkN j
yk j 为第k类字元的第j个参考模型与输入样本的特征值向量间距离。
θ1 为第i个特征元素的正规化因子;
(b)以方程式(9)计算输入样本与每类字元的最近参考模型距离,
其中,
Bk为第k类字元的参考模型总数;
Zk为输入样本与最接近的第k类的参考模型的间的特征值向量距离。
(C)以方程式(9a)和(9b)分别计算OM和OI。 (9a)
其中,
I 为输入样本的真实字元类别
M 为与输入样本最接近的字元类别
BM 为字元类别I中的参考模型总个数
BI 为字元类别M中的参考模型总个数
OM 为输入样本与其最接近的字元类别M中的所有参考模型间的最短距离。
OI 为输入样本与其真实字元类别I中的所有参考模型间的最短距离。
qk为第k类参考模型中与输入样本特征X最接近的参考模型指标;
(d)假如最接近的字元类别M与真实的字元类别I是相同时,则所有字元类别的参考模型均不被改变;反之,则有二个模型qM与qI的值特征值向量会被改变,且其改变量为
此外,每个特征元素的正规化系数θi则根据公式(10)来做改变, 其中,
n 为所有训练样本已被反复训练的次数
A(n) 为一随着反复次数n改变的单调递减频宽函数
η(n) 为特征检查参数
μ(n) 为正规化因子检查参数频宽参数A(n)有时也被称为S型函数
exp[(OM-OI)/A(n)]能接收的信号宽度,此宽度控制了该S型函数的有效区域大小。那就是一个大的A(n)值使得一个S型函数上升曲线缓慢,而A(n)值小时则S型函数具有快速的上升曲线。而检查参数η(n)和μ(n)被设计成当n等于0时具有大的值而随着训练次数n的增加而逐渐变小。
在公式(10a)和(10b)中,检查参数η(n)和数μ(n)与参考模型的改变量有关。η(n)和μ(n)的逐渐变小造成参考模型的变量随着反复训练次数n增加而变小。特别的是对应一个已知的OM和OI,当n增大时,则参考模型的改变量将会变小。其实,这是一个所期待的行为。因为当n逐渐增大时(经过多次的反复训练处理后),参考模型已经快要收敛到他们最好的位置,此时应该避免参考模型做出剧烈的改变。若不是如此,大的改变量很可能使参考模型远离了他们的最佳位置,造成检查过程又需重新开始。
由始参考模型的修正量与项目exp[(OM-OI)/A(n)]有关,这使得不正常的训练样本对参考模型所产生的影响可降至最低。当OM≠OI,但是OM非常接近OI时,exp[(OM-OI)/A(n)]趋近于1,此时参考模型会有较大的改变量。当OM的值与OI差距很大时,exp[(OM-OI)/A(n)]趋近于0,则参考模型的改变量会很小。所以,当OM≠OI且OM值远小于OI值时,参考模型只有很小的改变量。此种情况所对应的情形是训练样本不但远离其真实字元类别的参考模型,而且又是接近其它字元类别的参考模型。然而,当这种情况发生时,这个训练样本极可能是一个不正常的样本(例如由于人工疏忽而标志不正确的字元类别)。所以,这个发明所提出的参考模型改变量方式具有降低不正常训练样本所产生的影向。
在方程式(8),距离计算时每个特征元素i使用了一个正规化参数θi°在方程式(11)中,有二个项目控制了θi的调整量,那就是
。这第一个项目是输入样本与其真实字元类别中最接近的参考模型的特征值差距,而第二个项目为输入样本与最接近的参考模型间的特征值差距。当OM≠OI且第一个项目大于第二个项目时,QI值将被增加以致于在计算距离时能降低这第i个特征元素所产生的影响。另外,当OM≠OI且第一个项目值比第二个项目小时,Qi值将被减小使得第i个特征元素对距离计算的影响力可增大。如此一来,有分辨能力的特征值元素将在计算两个特征值向量的距离时具有较大的影响力。
本发明的文字识别系统包括由多个互相连接的处理节点所构成的神经网络处理器,而且这些处理节点是被组织成四个阶层。第一个阶层称为输入层,它是由N个节点所组成,而每个节点收取输入样本的一个特征元素的值。第二阶层称为第一隐藏层,它包含J个节点,而J的值等于所有字元的参考模型个数。那就是 每一个第一隐藏层的节点对应一个参考模型,而且它与输入层的每个节点相连。所以对字元K而言,在第一隐藏层中将有Bk个节点与之对应,而且每一个节点对应它的一个参考模型。在动作上,字元k的第j个第一隐藏层的节点计算输入样本和这个参考模型间的距离Yk j。此神经网络的第三阶层称为第二隐藏层,它包含有K个节点,且每个节点代表某一类字元的参考模型中与输入样本间的最小距离。在图形表示上,每一第k个第二隐藏层的节点只与那些代表字元k的参考模型所对应的第一隐藏层节点相接,并且这些连接系数值均为1。在动作上,每一第k个第二隐藏层的节点收取Bk个距离值(其值为yk l,....,
),然后由其中决定最小的距离值Zk,并且此最小值是由那一个第一隐藏层节点所产生的。最后,第四层为输出层,它由二个节点所组成,而每一节点与所有第二隐藏层节点相连。输出层中的第一个节点记录在所有字元中最小的Zk值,并且这最小的Zk值是由那一类字元M所产出。输出层中第二个节点记录输入样本的真实字元类别I以及字元类别所对应的第二隐藏层节点的输出值ZI。因此,这神经网络处理器能容易找出M,I,OM(即输出层第一个节点的距离输出值)和OI(即输出层第二个节点的距离输出值)。
本发明的文字识别系统具有如下效果:
本发明揭露一套能产生针对辨识目的最佳化参考模型的系统与处理流程。本发明的最佳化处理过程可得到具有较佳辨识能力的参考模型数据库。本发明系统的文字辨识率高。
结合附图及实施例对本发明的要点说明如下:
附图简述:
图1是传统的文字辨识系统的电路方框图;
图2是传统文字处理的流程图;
图3到图5为单一文字区域切割的示意图;
图6到图9为文字特征抽取的范例示意图;
图10为本发明的文字辨识系统的电路方框图;
图11为本发明所需的文字识别处理流程图;
图12为本发明实施例的最佳化参考模型处理流程图;
图13为本发明的神经网络处理器示意图。
图10说明一文字辨识系统100。就象前述系统10,系统100有一个与文字输入装置(例如光学扫描机116或是光笔及数字板118)相连接的输入/输出介面。光学扫描机116能够扫描纸张上的印刷或手写文字,并且产生这些文字的数字化图象数据。这光笔和数字板能够收取人为输入的手写文字笔迹数据并且产生这些输入文字的图象信息。所产生的文字信息可经由输入/输出介面114和系统总线112传送至主存储器122或是磁盘存储器124。处理器120能处理图象数据,特别是它能比较每个输入样本与所有参考模型特征值,并决定出与输入样本最接近的参考模型。事实上,输入文字最终是被辨认为与最近参考模型型的字元类别。所辨识出来的文字类别然后能经由声音/图象的输出介面126而被输出。
系统100或是其它相似的系统能够产生参考模型数据库。这可从图11所描述的处理流程来完成。根据第一步骤202,文字训练样本经由扫描机或光笔及数字板被输入。输入样本的图象数据被储存于存储器122或124。然后在步骤204输入样本经由处理器120执行前处理动作进行杂信去除。
在步骤206中,处理器120先将每个输入样本图象骨干化,然后再转换这骨干图象成具均匀笔划宽度的字形图象。在步骤208中,处理器120将输入样本做区域分割。在步骤210,处理器120从每个已分割的输入样本进行特征抽取。在步骤212,处理器120组织文字训练样本成为不同的族群。这个动作可经由许多方法完成。例如在美国专利序号08/313-686中,为了能更佳的表达一般为非均匀的文字分布,每个字元类别的训练样本被区分成数个群团。这些参考模型的特征值可由其所对应群团的特征平均值表示。另外一种选择的方法是每个群团被区分成多个子群,则每个子群的特征平均值可充当参考模型特征值向量。
在选择了参考模型个数及其初始特征值向量后,处理器120执行步骤216来使参考模型最佳化。这一点在以下篇幅中将有很仔细的介绍。在参考模型最佳化后,处理器120将组织一套参考模型数据库以供辨识用。这数据库是被储存在主存储器122或是磁盘存储器124内。
一种根据上述发明的原则而具体化的最佳处理法称为“比较式分类检查法”(Competieive Classification Learning或是简称CCL)介绍于下。根据本发明,一些原则已经被纳入其最佳化的处理过程中,为了要解释这些原则,首先需要来定义一些名词:
n 为目前反复训练次数,而在每次反复训练中,所有训练样本均被处理过。
yk j 是第k类字元的第j个参考模型与输入样本间的距离。
θi 是特征元素i的正规化因子。
Zk 是第k类字元中参考模型与输入样本间最近的距离。
J 是所有字元所包含的参考模型总个数。
Bk 是在第k类字元的参考模型个数。
M 是与输入样本最接近的字元类别。
OI 是第I类字元的参考模型与输入样本间的最小距离。
OM 是第M类字元的参考模型与输入样本间的最小距离。
M 是输入样本最接近的字元类别。
I 是输入样本的真实字元类别
CCL 在计算距离时将每个特征元素i的正规化因子纳入计算中,这一点是与LVQ2不太相同的。所以,每个特征元素对距离计算的比重均可能不同。以数学公式表示时,CCL所采用的距离计算式为 正规化因子的值在训练阶段中将被改变使得较具有分辨性的特征元素其正规化因子值较小。这造成此种特征元素对距离计算具有较大的影响力。E为一错误函数,它代表根据所建构的字元参考模型辨识系统将得到错误辨识个数的大小。E的计算方法与反复检查次数n以及OI和OM间的差距有关,如式(12)所示: 其中A(n)是一个大于0且随着n值的增加而变小的函数,也就是0<A(n)<A(n+1)。A(n)有时被称为S型函数exp[(OM-OI)/A(n)]的可接受领域宽度,此宽度是用来控制S型函数的活动区域范围。对一个训练样本而言,当A(n)趋近于0时,若OI=OM,则E的值为0;若OM≠OI,则E值几乎为1。这也就是说根据目前所建构的参考模型,若OI=OM(表示输入样本被正确地辩认),则错误函数E值增加为0;反之,若OM≠OI(表示输入样本被错误地辨认),则错误函数E值增加几乎为1。可知,此处所定义的错误函与辩认时错误的样本个数有很密切且直接的关系。
CCL演绎法是以将E值求出最小值的过程中来逐渐调整参考模型特征值向量。所以定义下列反复式的参数调整方式: 和 其中α(n)和β(n)为单调递减的函数。那就是0<α(n)<α(n+1),而且0<β(n)<β(n+1)。这样的检查参数函数是由实验来决定的。
应用链结法则(chain rule),则方程式(13)变成 这一部分可被改写成同样的,第二部份可用链结法则而成 这第一个偏导数为第二个偏导数为 组合上述的偏导数,方程式(13)变成其中, 以相似的推导过程于方程式(14)得 且
所以,方程式(14)变成此时
为使此参考模型最佳化能收敛,η(n)和μ(n)均被设定为单调递减函数。
方程式(15)和(16)是以本发明的实施例的参考模型特征值及正规化因子调整法。参考图12,CCL最佳化处理过程描述如下。在步骤302,处理器120设定某些参数的初始值。这些参数包括每一个正规化因子θi,频宽参数A(0),和η(0)和μ(0),变数“error”(错误计数器)和n(反复训练次数)被设为0。接下来,处理器120针对每个训练样本执行步骤304-318。在步骤304中,处理器120选择下一个输入样本来进行处理。在步骤306,处理器120以公式(8)计算正被处理的样本与第k字元的第j个参考模型间的距离yk j。在步骤308中,处理器120决定每一字元k中与处理样本X最接近的参考模型指标qk。这个动作是以方程式(9)来完成。
在步骤310,处理器120决定与处理样本X最接近字元类别M,并且设定此距离为OM,同时设定处理样本与其真实字元中最接近的参考模型间的距离ZI给OI。那就是处理器120执行下述的设定 O1=Z1 (9b)
在步骤310中,处理器比较OI值与OM值。假如OI=OM,那么,没有任何字元的参考模型会因目前的这一个训练样本而被改变。然而假如OI≠OM,则处理器120执行步骤314。在步骤314中,处理器120更改二个参考模型的特征值向量(一为最接近字元中的
,一为真实字元中的
)。那就是对每一i值(1≤i≤N), 另外,处理器120也以方程式(16)来更改每一个正规化因子θi的值。处理器120也增加1到错误计数器。按着处理器120执行步骤315。在步骤315中,处理器120会根据是否所有训练样本在此次反复检查中均已被处理而有二种反应。若是所有训练样本均已被处理则处理器120执行步骤316,否则处理器120选择下一个训练样本。然后跳回步骤306。
在步骤316中处理器加1到训练次数n,在步骤317中处理器120决定是否要停止检查过程或者要跳回步骤304而继续检查。处理器120有二个判断条件来决定检查是否应继续进行。第一个条件为是否反复训练次数n已超过预先设定的最大训练次数(iter-thresh),第二个条件为是否此次反复训练过程中错误个数小于预先设定的最小错误个数(err-thresh)。假如此二条件均没有满足,则处理器120执行步骤318来降低A(n),η(n)和μ(n)值然后返回步骤304。若此二条件有一个或一个以上被满足,则处理器120停止并跳出此训练过程。
在方程式(15),(10a)和(10b)对参考模型的更改中有二个项目需要特别解释其物理意义。第一个项目是Xi-rki j,它使得参考模型特征值的修正量与此参考模型和处理样本在第i个特征空间的距离成正比。第二个项目是
,它造成参考模型特征值的修正量与OM-OI和频宽参数A(n)有关。而且这个频宽参数A(n)被设计成单调递减函数。这使得当n增加时,对同一(OM-OI)值而言,
会变小。所以当n值大时,参考模型特徵值的修正量趋于小值。这也符合我们直觉的想法,即在反覆检查中,参考模型会逐渐收敛至其最佳位置,所以当n大时,应该避免参考模型被的大改变以免破坏原先检查的成果。
更值得一提的是这个修正量与值OM-OI相关,如此一来可降低正常训练样本对参考模型的不良影响。明显地,当OI≠OM时,则参考模型会被更改。然而这个更改量会随着OM逼近OI而变大,亦随着OM值远离OI而变小。这是一个理想的行为现象。因为当OM值是远小于OI时,表示此训练样本非常接近某一错误字元M的某一参考模型,而远离其真正字元的所有参考模型。当此现象发生时,此训练样本极可能属于不正常的训练样本,所以它并不适合用来训练参考模型。以上探讨可知方程式(15),(10a)和(10b)使得不正常的训练样本对参考模型的更改量降至最小。方程式(8)中计算在训练样本X与一参考模型rk j间的距离时,每一特征元素i对应有一个正规化因子θi。所以这些特征元素是具有不同的比重。特别的是方程式(16)控制θi的更正量与
成正比。当
大时,则此时正规化因子θ1将被增大。这也造成第i个特征元素对距离计算的影响力变小。相反的,当
比
小时,则正规化因子θi会被减小。这使得第i个特征元素对距离计算的影响力变大。
再来思考方程式(8)和(16)的内含意义。除非M≠I,正规化因子不会被改变。假设在某一次反覆训练时,某一训练样本的M不等于I。若是
比
大,此时代表对第i个特征元素而言,训练样本与其真实字元间的距离大于训练样本与错误字元M间的距离。这表示第i个特征元素的分辨能力不好。因为第i个特征元素使得训练样本比接近其真实字元更接近错误字元M。所以这个特征元素应以增大其正规化因子来降低其距离计算的影响力。
根据本发明,CCL参考模型构标准模构建法能得到对辨认较有用的参考模型。下表综合式的表示本发明的改进程度。
方法名称 | 数目 | 每类文字参考模型个数(BK) | 错误个数(测试样本) | 辨识率 |
K平均值法 | 50 | 1 | 151(5000) | 96.98% |
线性向量量化法(LVQ2) | 50 | 1 | 99(5000) | 98.02% |
比较分类检查法(CCL) | 50 | 1 | 75(5000) | 98.50% |
K平均值法 | 50 | 2 | 108(5000) | 97.84% |
线性向量量化法(LVQ2) | 50 | 2 | 76(5000) | 98.48% |
比较分类检查法(CCL) | 50 | 2 | 54(5000) | 98.92% |
K平均值法 | 200 | 1 | 1226(5000) | 93.87% |
线性向量量化法(LVQ2) | 200 | 1 | 760(5000) | 96.20% |
比较分类检查法(CCL) | 200 | 1 | 580(5000) | 97.10% |
K平均值法 | 200 | 2 | 949(5000) | 95.25% |
线性向量量化法(LVQ2) | 200 | 2 | 623(5000) | 96.88% |
比较分类检查法(CCL) | 200 | 2 | 540(5000) | 97.30% |
K平均值法 | 400 | 1 | 3321(5000) | 91.70% |
线性向量量化法(LVQ2) | 400 | 1 | 2031(5000) | 94.92% |
比较式分类检查法(CCL) | 400 | 1 | 1639(5000) | 95.91% |
上表中,BK是每个字元的参考模型个数,而文字数目是为可辨认字元的总数。对每个例子而,每类字元拥有200个样本,其中100个为训练样本,而另外100个为测试样本。由上表可知,由本发明所实现的CLL处理方法可得到具有最佳辨识能力的参考模型。
参考图形13,一个神经纲络处理器400是用来说明如何执行上述最佳化处理过程。这样的神经纲路处理器可和图形10中的处理器120设计在一起。或者,假如处理器120是一个事先已设计好的微处理器,这个神经纲路处理器400可与处理器120及存储器122和124经由数据总线112相连结。
在解说上,神经纲路处理器400被构造成4个阶层410,420,430和440。最低阶层410称做为输入层,它具有N个处理节点410-1,420-2,…,410-i,…,410-N,N是特徵元素的总个数。
每一个输入层处理节点410-i对应第i个元素。下个阶层420也被称做为第一隐藏层,它具有
个处理节点,410-1-1,…,420-1-B1,…,420-K-1,…,420-K-BK,…420-K-1,…,420-K-BK。每一个第一隐藏层处理节点420-K-J对应一个第K类字元的第J个参考模型,它与输入层的所有节点均连接。再下一个阶层430被称为第二隐藏层类别的总个数。每一个第二隐藏层处理节点430-K对应第K类的字元,而它只连接所有对应第K类字元参考模型的第一隐藏层处理节点420-K-1,…,420-K-BK。最后一介440被称为输出层,它具有二个处理节点440-I和440-M。处理节点440-I对应输入样本的真实字元类别I,而处理节点440-M对应最接近输入样本的字元类别M。
一个训练样本的特徵值向量可输入神经网络处理器400。特别是第i个特徵元素的值先被载入第i个输入层处理节点410-i。然后输入会处理节点410-1,…,410-N同时输出他们所记录的特徵值至第一隐藏层的每一个处理节点420-1-1,…,420-K-BK。
每一个第一隐藏层处理节点420-k-j根据方程式(8)计算输入样本与第K类字元的第j个参考模型间的距离Yk j。第一隐藏层处理节点420-1-I,…,420-K-Bk分别地输出距离值
。每一个第二隐藏层处理节点430-K接收代表字元K的Bk个第一隐藏层节点所产生的距离当做输入,而选择其中最小的一个距离值当做输出并且记录这最小的距离是由那一个第一隐藏层节点所产出的。事实上,这个距离就是输入样本与第K字元最接近参考模型间的距离。接着第二隐藏层处理节点430-1,…430-K输出距离Z1,…,ZK至每一个输出层处理节点440-I和440-M。处理节点440-M从Z1,…,ZK中选择输出出最小值并以变数OM代表,此时M即表示这最小的值是由字元M所产生的,可知
。处理节点440-I从Z1,...ZK中选择输入样本的真实字元所对应的距离值ZI,并且以变数OI代表。此时I即为输入样本的真实字元,所以OI=ZI。
因此,此神经网络处理器400以一个并行结构可快速且有效率的对每一输入样本决定出OM,OI,M和I。就像以上所述,假如OI≠OM,参考模型和正规化因子将被更变。变更的结果然后被载入适当的第一隐藏层节点参数中。
简言之,一套为了文字辨识的系统和处理流程在此被揭示。为了产生适当参考模型的目的,训练样本被输入及辨识。本发明提供一种能增加参考模型辨识率的最佳化更改处理方法。这更改的处理方法具有下列三个理想的特性:
(1)对于与错误字元非常接近而远离其真实字元的正常样本,参考模型特徵值向量产生的更正量很小。这是以增加OM-OI而会降低更正量的结果来达到。
(2)参考模型特徵向量的更正具有减少辨错误的功能。这个更正量会随着反覆训练次数的增多而递减的A(n)和η(n)和μ(n)的影响而逐渐变小。所以本参考模型建构法具有收敛性。
(3)计算距离时,较具分辨性的特徵元素具有较大的比重。为了这个目的,每一个第i个特徵元素对应一个正规化因子θi。而正规化因子于OM≠OI时会被调整,使得当 时,θ1变大(即降低第i个特徵元素的影响力),而当
时,θi变小(即增大第i个特徵元素的影响力),此处,
为输入样本和其真实字元I中最接近的参考模型的第i个特徵元素的欧拉(Eucler)距离。
为输入样本和其最近字元M的最接近参考模型于第i个特徵元素的欧拉距离。
最后,以上的讨论只是本发明的较佳实施例,不离开本发明构思的修改皆应涵盖在本权利范围内。
Claims (11)
1、一种文字辨识系统数据库的组建方法,其特征在于,包括以下步骤:
输入每类字的训练样本;
对每一训练样本抽取特征向量;
对每类字元,选取适当的参考模型个数及初始位置;以及
当训练样本比接近其真实字元的参考模型更接近某一错误字元的参考模型时,相关的参考模型的特征值向量会被适当的改变。
2、一种文字辨识数据库的组建方法,其特征在于,包括以下步骤:
输入每类字元的训练样本;
对每一个训练样本抽取特征,并将抽取的特征组织成特征值向量;
对每类字元,选取至少一个参考模型的初始位置;对每一训练样本,当它比接近其真实字元的参考模型更接近错误字元M时,相关的参考模型特征值向量会依据值OM-OI来做适当的改变,其中:
OM为训练样本和错误字元M的最接近参考模型间的距离值;
OI为训练样本和其真实字元I的最接近参考模型间的距离值。
3、一种文字辨识系统数据库的组建方法,其特征在于,包括以下步骤:
输入各类字元的训练样本;
对每一个训练样本抽取特征,并组织成特征值向量;
对每一类字元,选取至少一个参考模型的初始位置;以及
对每一训练样本,当它比接近其真实字元的参考模型更接近某一错误字元时,相关的参考模型特征值向量会依据特征正规化因子做适当的改变。
4、根据权利要求1至3中任一项所述的文字辨识系统数据库的组建方法,其特征在于,每一字元具有至少一个参考模型,所述参考模型的组建方法,包括下列步骤:
对每一个训练样本,以一个处理器决定出包含与其最接近的参考模型的字元类别M,而若最接近的字元类别M并不是真实字元类别I时,根据值
改变部分参考模型特征值向量,其中:
n为反覆训练次数;
OM为此训练样本和字元M中最接近的参考模型间的距离;
OI为此训练样本和其真实字元I中最接近的参考模型间的距离;以及
A(n)为一单调递减的频宽函数。
6、根据权利要求4所述的方法,其特征在于,所述每一训练样本有一特征值向量X,它是由特征元素Xi组成,其中i是一个参数指标,其值由1到特征维次个数N;其步骤包括:
用处理器决定计算输入样本X与一参考模型rk j的距离yk j是以
来衡量;以及θ1是所述的的第i个特征元素的正规化因子。
7、根据权利要求6所述的方法,其特征在于,所述参考模型的改变步骤进一步包括:
如用处理器运作对正规化因子θi所做的改变藉由:
其中μ(n)为一单调递减函数。
8、根据权利要求6所述的方法,其特征在于,所述决定输入样本最接近的字元M的步骤如下:
以所述处理器从每一字元的BK个参考模型找出与此输入样本最接近的参考模型及距离ZK,以
来衡量。
9、根据权利要求8所述的方法,其特征在于,以所述处理器的找出此输入样本最接近的字元M,即
同时,以变数O1表示输入样本与真实字元I的最接近参考模型间的距离,即O1=Z1。
10、根据权利要求1至3中任一项所述的文字辨识系统数据库的组建方法,其特征在于,每一字元具有至少一个参考模型,所述参考模型的组建方法,包括下列步骤:此系统在建构参考模型时包含每一个训练样本,以一个处理器决定出包括与其最接近的参考模型的字元M,假如M不等于其真实字元I时,则根据项目: 来改变参考模型特征值量,其中:
n是反复训练次数;
OM是输入样本与最接近元M间的距离;
OI是输入样本与其真实字元I间的距离;以及
A(η)是一大于0的单调递减函数。
11、一种文字辨识系统的字元参考模型,其特征在于,其中每一字元具有至少一个参考模型,字元参考模型包括一个由多阶层组成的神经网络处理器,第一阶层由多个处理节点组成,所述神经网络处理器包括:
一个具有N个节点的输入层,每一节点接受一个特征元素的输入并且直接传送出去;
一个具有
个节点的第一隐藏层,此层的每一节点对应一个参考模型,所以与输入层的所有节点均相连,且所对应参考模型的特征值储存在此节点与输入节点的连线上,此层各节点的输出为输入样本与此节点所对应的参考模型间的距离yk j,按下式计算: 其中:
N是特征元素的个数;
θi是第i个特征元素的正规化因子;
一个具有K个节点的第二隐藏层的每一个节点输出一类字元参考模型中与输入样本的最小距离,因而此层的每一个节点只有与其对应字元参考模型的第一稳藏节点相连结,且其输出其中最小的距离,并记录此最小距离是由那一参考模型所产生;以及一个具有二个节点的输出层,其中一个节点记录与输入样本最接近的字元类别M及其间距离,另一个节点记录此输入样本的真实字元类别及其间的距离。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US08/497,030 | 1995-06-30 | ||
US08/497,030 US5802207A (en) | 1995-06-30 | 1995-06-30 | System and process for constructing optimized prototypes for pattern recognition using competitive classification learning |
Publications (2)
Publication Number | Publication Date |
---|---|
CN1147652A true CN1147652A (zh) | 1997-04-16 |
CN1091905C CN1091905C (zh) | 2002-10-02 |
Family
ID=23975182
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN96106617A Expired - Fee Related CN1091905C (zh) | 1995-06-30 | 1996-06-07 | 文字辨识系统数据库的组建方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US5802207A (zh) |
CN (1) | CN1091905C (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101819632B (zh) * | 2005-08-25 | 2012-07-11 | 普驰有限责任公司 | 用于内容识别的系统和方法 |
CN107220655A (zh) * | 2016-03-22 | 2017-09-29 | 华南理工大学 | 一种基于深度学习的手写、印刷文本的分类方法 |
WO2019232861A1 (zh) * | 2018-06-04 | 2019-12-12 | 平安科技(深圳)有限公司 | 手写模型训练方法、文本识别方法、装置、设备及介质 |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5940535A (en) * | 1996-10-31 | 1999-08-17 | Industrial Technology Research Institute | Method and apparatus for designing a highly reliable pattern recognition system |
WO1999034316A2 (en) * | 1997-12-29 | 1999-07-08 | Glickman Jeff B | Energy minimization for classification, pattern recognition, sensor fusion, data compression, network reconstruction and signal processing |
US6993186B1 (en) | 1997-12-29 | 2006-01-31 | Glickman Jeff B | Energy minimization for classification, pattern recognition, sensor fusion, data compression, network reconstruction and signal processing |
US6636631B2 (en) * | 1998-06-04 | 2003-10-21 | Matsushita Electric Industrial Co., Ltd. | Optical character reading method and system for a document with ruled lines and its application |
US6185332B1 (en) | 1999-04-22 | 2001-02-06 | Faxtrieve, Inc. | Character recognition technique |
US6501857B1 (en) * | 1999-07-20 | 2002-12-31 | Craig Gotsman | Method and system for detecting and classifying objects in an image |
JP3449348B2 (ja) * | 2000-09-29 | 2003-09-22 | 日本電気株式会社 | 相関行列学習方法および装置ならびに記憶媒体 |
CA2375355A1 (en) * | 2002-03-11 | 2003-09-11 | Neo Systems Inc. | Character recognition system and method |
US6970877B2 (en) * | 2002-06-28 | 2005-11-29 | Microsoft Corporation | Reducing and controlling sizes of prototype-based recognizers |
US6988107B2 (en) * | 2002-06-28 | 2006-01-17 | Microsoft Corporation | Reducing and controlling sizes of model-based recognizers |
US7222126B2 (en) * | 2002-07-30 | 2007-05-22 | Abel Wolman | Geometrization for pattern recognition, data analysis, data merging, and multiple criteria decision making |
US8170341B2 (en) * | 2009-01-23 | 2012-05-01 | Nec Corporation | Image signature extraction device |
US20130044927A1 (en) * | 2011-08-15 | 2013-02-21 | Ian Poole | Image processing method and system |
US8494276B2 (en) * | 2011-09-23 | 2013-07-23 | International Business Machines Corporation | Tactile input recognition using best fit match |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3979722A (en) * | 1974-05-31 | 1976-09-07 | Nippon Electric Company, Ltd. | Automatic character recognition device employing dynamic programming |
US4177448A (en) * | 1978-06-26 | 1979-12-04 | International Business Machines Corporation | Character recognition system and method multi-bit curve vector processing |
JPS5580183A (en) * | 1978-12-12 | 1980-06-17 | Nippon Telegr & Teleph Corp <Ntt> | On-line recognition processing system of hand-written character |
US4658429A (en) * | 1983-12-29 | 1987-04-14 | Hitachi, Ltd. | System and method for preparing a recognition dictionary |
JPS60217477A (ja) * | 1984-04-12 | 1985-10-31 | Toshiba Corp | 手書き文字認識装置 |
US4731857A (en) * | 1984-06-29 | 1988-03-15 | International Business Machines Corporation | Recognition system for run-on handwritten characters |
JPS6282486A (ja) * | 1985-10-08 | 1987-04-15 | Hitachi Ltd | オンライン手書き図形認識装置 |
GB2190778B (en) * | 1986-05-19 | 1990-04-25 | Ricoh Kk | Character recognition with variable subdivisions of a character region |
FR2604004B1 (fr) * | 1986-09-11 | 1990-05-11 | Anatex | Procede de reconnaissance d'ecriture manuscrite |
US5034989A (en) * | 1987-12-11 | 1991-07-23 | Loh Shiu Chang | On-line handwritten character recognition apparatus with non-ambiguity algorithm |
US5303311A (en) * | 1990-03-12 | 1994-04-12 | International Business Machines Corporation | Method and apparatus for recognizing characters |
US5151950A (en) * | 1990-10-31 | 1992-09-29 | Go Corporation | Method for recognizing handwritten characters using shape and context analysis |
JP3088171B2 (ja) * | 1991-02-12 | 2000-09-18 | 三菱電機株式会社 | 自己組織型パタ−ン分類システム及び分類方法 |
US5285505A (en) * | 1991-03-11 | 1994-02-08 | International Business Machines Corporation | Method and apparatus for improving prototypes of similar characters in on-line handwriting recognition |
US5361379A (en) * | 1991-10-03 | 1994-11-01 | Rockwell International Corporation | Soft-decision classifier |
US5422961A (en) * | 1992-04-03 | 1995-06-06 | At&T Corp. | Apparatus and method for improving recognition of patterns by prototype transformation |
US5479570A (en) * | 1992-10-06 | 1995-12-26 | Matsushita Electric Industrial Co., Ltd. | Learning and recognition machine |
US5561741A (en) * | 1994-07-22 | 1996-10-01 | Unisys Corporation | Method of enhancing the performance of a neural network |
-
1995
- 1995-06-30 US US08/497,030 patent/US5802207A/en not_active Expired - Lifetime
-
1996
- 1996-06-07 CN CN96106617A patent/CN1091905C/zh not_active Expired - Fee Related
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101819632B (zh) * | 2005-08-25 | 2012-07-11 | 普驰有限责任公司 | 用于内容识别的系统和方法 |
CN107220655A (zh) * | 2016-03-22 | 2017-09-29 | 华南理工大学 | 一种基于深度学习的手写、印刷文本的分类方法 |
WO2019232861A1 (zh) * | 2018-06-04 | 2019-12-12 | 平安科技(深圳)有限公司 | 手写模型训练方法、文本识别方法、装置、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
US5802207A (en) | 1998-09-01 |
CN1091905C (zh) | 2002-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN1091905C (zh) | 文字辨识系统数据库的组建方法 | |
CN109190722B (zh) | 基于满文字符图片的字体风格迁移变换方法 | |
CN1492377A (zh) | 表格处理系统及方法 | |
US8285049B2 (en) | Corrections for recognizers | |
Kovalevsky | Image pattern recognition | |
US8977054B2 (en) | Candidate identification by image fingerprinting and model matching | |
CN1276389C (zh) | 图形对照装置及其图形对照方法 | |
CN1190205A (zh) | 表意字符的递增输入方法 | |
CN1625741A (zh) | 可以通过手写检索查询来检索的电子文件管理系统 | |
CN1141666C (zh) | 利用标准笔划识别输入字符的在线字符识别系统 | |
US20180165413A1 (en) | Gene expression data classification method and classification system | |
CN1834992A (zh) | 检测文档图像中的字符的方向 | |
US20240037969A1 (en) | Recognition of handwritten text via neural networks | |
CN1097883A (zh) | 字典检索装置 | |
CN1828632A (zh) | 目标检测装置、学习装置、目标检测系统及目标检测方法 | |
CN1571977A (zh) | 字符识别 | |
CN1324068A (zh) | 基于部首样式的草体汉字手写注释的检索 | |
JP6690089B2 (ja) | 帳票認識方法、帳票認識装置、及び帳票認識プログラム | |
CN112214576B (zh) | 舆情分析方法、装置、终端设备及计算机可读存储介质 | |
US20210390299A1 (en) | Techniques to determine document recognition errors | |
CN1643540A (zh) | 比较图案 | |
CN1215438C (zh) | 图形对照设备,图形对照方法 | |
Wick et al. | Staff, symbol and melody detection of medieval manuscripts written in square notation using deep fully convolutional networks | |
EP2518656B1 (en) | Taxonomic classification system | |
CN1549192A (zh) | 手写字体的计算机识别与自动输入方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C06 | Publication | ||
PB01 | Publication | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20021002 Termination date: 20150607 |
|
EXPY | Termination of patent right or utility model |