KR0170656B1 - Method and apparatus of recognizing script character - Google Patents

Method and apparatus of recognizing script character Download PDF

Info

Publication number
KR0170656B1
KR0170656B1 KR1019940020288A KR19940020288A KR0170656B1 KR 0170656 B1 KR0170656 B1 KR 0170656B1 KR 1019940020288 A KR1019940020288 A KR 1019940020288A KR 19940020288 A KR19940020288 A KR 19940020288A KR 0170656 B1 KR0170656 B1 KR 0170656B1
Authority
KR
South Korea
Prior art keywords
character
characters
representative
vector
feature
Prior art date
Application number
KR1019940020288A
Other languages
Korean (ko)
Inventor
김수형
도정인
김준호
이상규
Original Assignee
김광호
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김광호, 삼성전자주식회사 filed Critical 김광호
Priority to KR1019940020288A priority Critical patent/KR0170656B1/en
Priority to TW84106312A priority patent/TW417055B/en
Priority to CN95107775A priority patent/CN1081366C/en
Priority to JP7185824A priority patent/JP2997403B2/en
Application granted granted Critical
Publication of KR0170656B1 publication Critical patent/KR0170656B1/en

Links

Landscapes

  • Character Discrimination (AREA)

Abstract

본 발명은 손으로 쓴 필기체 한글문자를 인식하기 위한 방법 및 장치에 관한 것으로 방법은 I ×J 크기로 문자영상을 입력하는 단계와, 상기 입력된 문자영상의 패턴에 대한 대분류 특징으로서 유한개의 좌표로 구성된 특징벡터를 통계적방법으로 계산하는 단계와, 인식대상문자들에 대응하는 대표벡터 집합내에서 상기 계산된 특징벡터와 가장 유사한 대표벡터를 찾는 단계와, 상기 찾아진 대표벡터에 해당하는 문자와 이 문자를 포함하는 후보문자군을 구하는 단계와, 상기 인식 대상문자들의 모든 후보문자패턴에 대한 유한개의 좌표로 구성된 특징 벡터를 사용하여 구성한 신경망을 통해 상기 구해진 후보문자군 중에서 하나의 문자를 최종 인식결과로 출력하는 단계를 구비한다.The present invention relates to a method and apparatus for recognizing handwritten handwritten Hangul characters, the method comprising the steps of inputting a character image in the size I × J, and as a large classification feature for the pattern of the input character image in a finite number of coordinates Calculating the constructed feature vector by a statistical method, finding a representative vector most similar to the calculated feature vector in the representative vector set corresponding to the recognition target characters, and a character corresponding to the found representative vector; Obtaining a candidate character group including a character, and performing final recognition of one character among the obtained candidate character groups through a neural network constructed by using a feature vector composed of finite number of coordinates for all candidate character patterns of the recognition target characters. And outputting to.

따라서, 본 발명은 한글 필기체 문자를 무제약으로 인식할 수 있다.Therefore, the present invention can recognize Korean handwritten characters as unrestricted.

Description

필기체문자 인식방법 및 장치Handwriting Character Recognition Method and Device

제1도는 본 발명에 의한 필기체 문자인식시스템의 블럭도.1 is a block diagram of a handwritten character recognition system according to the present invention.

제2도는 입력문자영상의 대분류부의 특징추출을 설명하기 위한 도면.2 is a view for explaining feature extraction of a large classification unit of an input text image.

제3도는 입력문자영상의 대분류부의 후보문자군을 형성하는 방법을 설명하기 위한 도면.3 is a diagram for explaining a method of forming a candidate character group of a large classification unit of an input character image.

제4도는 입력문자영상의 상세분류부의 수평 및 수직 특징을 추출하는 것을 설명하기 위한 도면.4 is a view for explaining the extraction of the horizontal and vertical features of the detail classification unit of the input text image.

제5도는 상세분류부의 신경망구성을 설명하기 위한 도면.5 is a view for explaining the neural network configuration of the detailed classification.

제6도는 본 발명에 의한 필기체문자인식을 수행한 결과의 일실시예를 나타낸 도면.6 is a view showing an embodiment of the result of performing handwritten character recognition according to the present invention.

본 발명은 필기체 문자 인식 방법 및 장치에 관한 것으로서, 특히 필기체 한글문자의 인식방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for recognizing handwritten characters, and more particularly, to a method and apparatus for recognizing handwritten Hangul characters.

광학문자인식(OCR : Optical Character Recognition)이란 스캐너를 통해 입력된 문서영상에서 문자에 해당하는 부분의 내용을 인식하는 기술을 말한다. 통계에 의하면 컴퓨터를 사용하는 시간 중 65% 이상의 시간을 기존 문서의 내용을 입력하거나 신규로 발생되는 정보를 입력하는데 사용하고 있다고 한다. 따라서, 이러한 정보 입력작업을 OCR 을 이용하여 자동화할 경우 시간적, 인력적, 경제적인 측면에서 막대한 이익을 창출할 수 있다. 이러한 OCR 기술은 인쇄체문서를 인식하는 경우와 필기체문자를 인식하는 경우로 크게 구분되어 연구개발되고 있다.Optical Character Recognition (OCR) refers to a technology for recognizing the content of a part of a document image input through a scanner. According to statistics, more than 65% of the time you spend using the computer to enter the contents of existing documents or to generate new information. Thus, automating these information input tasks using OCR can generate enormous benefits in terms of time, personnel and economics. The OCR technology has been largely classified into a case of recognizing a printed document and a case of recognizing handwritten characters.

인쇄체문자를 인식하는 기술은 급속한 발전을 지속하고 있으나 필기체문자의 인식은 불특정 다수의 필기자 및 불규칙한 필기습관에 의한 필기문자의 다양성때문에 우수한 필기체 문자의 인식장치의 출현이 곤란하였다.The technology of recognizing printed characters continues to develop rapidly, but the recognition of handwritten characters has been difficult due to the diversity of handwritten characters due to unspecified handwritten characters and irregular handwriting habits.

필기체문자를 인식하기 위한 대표적인 기법으로는 원형정합(Template Matching)방법, NNC(Nearst Neighbor Classification) 방법, 구조적 방법, 인공 신경망 방법, 은닉 마르코프 모델을 이용한 방법 등이 있으나 이들 대부분은 인식 대상 문자수가 적은 숫자나 영문 필기체를 위한 방법으로 한글에 그대로 적용하기는 어렵다. 따라서, 현재 활발하게 연구되고 있는 연속필기 영숫자 및 필기 한자의 인식은 여러가지 인식기법을 결합한 방식을 택하고 있다((1)T. H. Hilderbrandt and W. Liu. Optical reconition of handwritten Chinese Characters : advances since 1980, Pattern Recognition, Vol. 26. No.2. 1983. 205-225 (2) E. Cohen, J.J. Hull and S. N. Srihaari, Understanding handwritten text in a structured environment : determining ZIP codes from addresses, in Character and handwritting Recognition : Expanding Frontiers, P. S. P. Wang ed.,Worid Scientific Pubishing Company. 1991, 221-264).Representative techniques for recognizing handwritten characters include Template Matching, Near Neighbor Classification (NNC), Structural, Artificial Neural Network, and Hidden Markov Models. It is difficult to apply it to Hangul as a method for numbers or English cursive. Therefore, the recognition of continuous handwritten alphanumeric and handwritten kanji, which is currently being actively studied, takes a combination of various recognition techniques ((1) TH Hilderbrandt and W. Liu.Optical reconition of handwritten Chinese Characters: advances since 1980, Pattern Recognition, Vol. 26. No. 2. 1983. 205-225 (2) E. Cohen, JJ Hull and SN Srihaari, Understanding handwritten text in a structured environment: determining ZIP codes from addresses, in Character and handwritting Recognition: Expanding Frontiers , PSP Wang ed., World Scientific Pubishing Company. 1991, 221-264).

NNC 방법은 유한개의 인식 대상 문자에 대한 대표적 특징을 임의로 구한 후, 입력문자 패턴을 인식할 때에는 입력 문자 패턴으로부터 추출한 특징값과 가장 근사한 대표값들을 찾아 해당하는 문자 또는 문자 집합을 구하는 패턴인식방법이다. 일반적으로 NNC 방법은 다른 패턴인식방법들에 비해 구현이 용이하고 융통성과 처리속도 측면에서 성능이 우수하기 때문에 한글이나 한자와 같이 인식대상문자수가 많은 경우에 효과적으로 사용될 수 있다.The NNC method is a pattern recognition method that arbitrarily obtains a representative feature for a finite number of characters to be recognized, and then, when recognizing an input character pattern, finds a representative character that is the closest to the feature value extracted from the input character pattern and obtains a corresponding character or character set. . In general, the NNC method is easier to implement than other pattern recognition methods, and has excellent performance in terms of flexibility and processing speed. Therefore, the NNC method can be effectively used when the number of characters to be recognized is large.

지금까지 발표된 대부분의 한글인식방법 및 장치들은 또박또박 쓰여진 정서체나 초성, 중성, 종성을 연결되지 않게 필기한 자소 분리체, 또는 초, 중성과 종성을 상하로 분리하여 작성한 샘물체에 국한되고 있다. 또한, 상용한글 2350자 모두를 인식대상으로 하지 않고 통상적으로 자주 쓰이는 한글 100자 내지 1000자를 선정하여 이들 만을 대상으로 인식하고 있어서 일반적인 환경에 적응하기 곤란하였다.Most Korean recognition methods and devices that have been published so far are limited to sentimental fonts written in Baktobak, or phoneme separators that are not connected to Choseong, Neutral, and Jongsung, or spring objects created by separating Cho, Jung and Jongseong up and down. . In addition, it is difficult to adapt to the general environment because it selects 100 to 1000 characters that are commonly used and does not recognize all of the 2350 characters of Korean.

상용한글의 문자수는 2350자로서 인식의 대상이 방대하고 필기 문자의 다양성을 흡수할 수 있어야 한다. 다라서, 종래에 제안된 방법으로는 우수한 성능을 가진 인식장치를 제공하기가 어려워 새로운 인식방법이 요구되어 왔다.The number of common Hangul characters is 2350 characters, and the subject of recognition should be enormous and absorb the variety of handwritten characters. Therefore, it is difficult to provide a recognition device with superior performance in the conventionally proposed method, and a new recognition method has been required.

본 발명의 목적은 이와같은 종래 기술의 문제점을 해결하기 위하여 인식성능이 우수한 필기체 한글문자의 인식방법 및 장치를 제공하는데 있다.An object of the present invention is to provide a method and apparatus for recognizing handwritten Hangul characters excellent in recognition performance in order to solve such a problem of the prior art.

상기 목적을 달성하기 위한 본 발명의 방법은 I×J 크기로 문자영상을 입력하는 단계, 상기 입력된 문자영상의 패턴에 대한 대분류 특징으로서 유한개의 좌표로 구성된 특징벡터를 통계적방법으로 계산하는 단계, 인식대상문자들에 대응하는 대표벡터 집합내에서 상기 계산된 특징벡터와 가장 유사한 대표벡터를 찾는 단계, 상기 찾아진 대표벡터에 해당하는 문자와 이 문자를 포함하는 후보문자군을 구하는 단계, 및 상기 인식대상문자들의 모든 후보문자패턴에 대한 유한개의 좌표로 구성된 특징벡터를 사용하여 구성한 신경망을 통해 상기 구해진 후보문자군 중에서 하나의 문제를 최종 인식결과로 출력하는 단계를 구비한 것을 특징으로 한다.The method of the present invention for achieving the above object comprises the steps of inputting a character image in I × J size, calculating a feature vector consisting of finite coordinates as a statistical classification for the pattern of the input character image by a statistical method, Finding a representative vector most similar to the calculated feature vector in the representative vector set corresponding to the recognition target characters, obtaining a character corresponding to the found representative vector and a candidate character group including the character; and And outputting, as a final recognition result, one problem from the obtained candidate character group through a neural network constructed by using a feature vector consisting of finite number of coordinates for all candidate character patterns of recognition characters.

본 발명의 장치는 필기체 문자영상을 입력하는 입력부, 입력된 문자영상을 전처리하여 한 문자씩 출력하는 전처리부, 인식대상문자들을 각각의 대표문자로 하고 이 대표문자를 포함하는 후보문자군들을 저장한 후보문자군기억부, 상기 각 대표문자에 대응하는 특징 벡터들을 저장하는 대표벡터기억부, 상기 전처리부를 거쳐서 입력된 문자패턴의 특징벡터를 구하고 구해진 특징벡터와 가장 유사한 대표벡터를 상기 대표벡터기억부로부터 찾아내고 찾아진 대표벡터에 대한 대표문자와 이를 포함하는 후보문자군을 상기 후보문자기억부로부터 찾아내는 대분류부, 상기 후보문자군 기억부에 저장된 모든 후보문자패턴에 대한 유한개의 좌표로 구성된 특징벡터를 사용하여 구성한 신경망부, 상기 신경망부를 통해 상기 대분류부에서 찾아진 후보문자군 중에서 하나의 문자를 최종 인식결과로 인식한 후에 상기 전처리부의 다음 문자출력을 제어하는 상세분류부를 구비한 것을 특징으로 한다.The apparatus of the present invention includes an input unit for inputting a handwritten character image, a preprocessor for preprocessing the inputted character image and outputting one character at a time, and storing the candidate character groups including the representative characters as respective representative characters. A candidate character group memory unit, a representative vector memory unit for storing feature vectors corresponding to each representative character, a feature vector of a character pattern input through the preprocessor, and a representative vector most similar to the obtained feature vector; Characteristic vector composed of finite coordinates for all candidate character patterns stored in the candidate character group storage unit, a large classification unit for finding a representative character and a candidate character group including the same, and a representative character group found from the candidate character memory unit. A neural network part constructed using the candidate character group found in the main classification part through the neural network part After recognizing one of the characters as a final recognition result characterized in that it comprises a detailed classification unit for controlling the output of the next character of the preprocessor.

따라서, 본 발명은 입력된 필기체 문자패턴을 대분류에 의해 대응되는 후보문자군을 찾고 있어서, 미리 학습된 신경망을 통하여 후보문자군 중 하나의 문자를 최종 인식결과로 출력함으로써 한글 필기체의 인식에 있어서 무제약의 문자인식이 가능하다.Accordingly, the present invention is to find a candidate character group corresponding to the input cursive character pattern by a large classification, and outputs one character of the candidate character group as the final recognition result through a pre-learned neural network. Character recognition is possible.

첨부한 도면을 참조하여 본 발명을 보다 상세하게 설명하고자 한다. 본 발명의 방법은 I×J 크기로 문자영상을 입력하고 상기 입력된 문자영상의 패턴에 대한 대분류 특징으로서 유한개의 좌표로 구성된 특징벡터를 통계적방법으로 계산하고 인식대상문자들에 대응하는 대표벡터 집합내에서 상기 계산된 특징벡터와 가장 유사한 대표벡터를 찾아내며, 상기 찾아진 대표벡터에 해당하는 문자와 이 문자를 대표로 하는 후보문자군을 구해서 상기 인식대상문자들의 모든 후보문자패턴에 대한 유한개의 좌표로 구성된 특징벡터를 사용하여 구성한 신경망을 통해 상기 구해진 후보문자군 중에서 하나의 문자를 최종 인식결과로 인식하게 된다.The present invention will be described in more detail with reference to the accompanying drawings. The method of the present invention inputs a character image having an I × J size, calculates a feature vector composed of finite coordinates as a statistical classification method for the pattern of the input character image by a statistical method, and represents a representative vector set corresponding to the recognition target characters. Find a representative vector that is most similar to the calculated feature vector, and obtain a character corresponding to the found representative vector and a candidate character group that represents the character, and obtain a finite coefficient for all candidate character patterns of the recognition target characters. Through the neural network constructed using the feature vector composed of the coordinates, one character from the obtained candidate character group is recognized as the final recognition result.

제1도는 본 발명에 의한 필기체 문자인식장치의 블럭도를 나타낸다. 제1도의 장치는 필기체 문자영상을 입력하는 입력부(10)와, 입력부(10)를 통해 입력된 문자영상을 전처리하여 한 문자씩 출력하는 전처리부(20)와, 인식대상문자들을 각각의 대표문자로 하고 이 대표문자를 포함하는 후보문자군들을 저장한 후보문자군기억부(30), 상기 후보문자군기억부(30)에 기억된 후보문자군들의 각 대표문자에 대응하는 특징벡터들을 저장하는 대표벡터기억부(40), 상기 전처리부(20)를 거쳐서 입력된 문자패턴의 특징벡터를 구하고 구해진 특징벡터와 가장 유사한 대표벡터를 상기 대표벡터기억부(40)로부터 찾아내고 찾아진 대표벡터에 대한 대표문자와 이를 포함하는 후보문자군을 상기 후보문자기억부(30)로부터 찾아내는 대분류부(50), 상기 후보문자군 기억부(30)에 저장된 모든 후보문자패턴에 대한 유한개의 좌표로 구성된 특징벡터를 사용하여 구성한 신경망부(60), 상기 신경망부(60)를 통해 상기 대분류부(50)에서 찾아진 후보문자군 중에서 하나의 문자를 최종 인식결과로 인식한 후에 상기 전처리부(20)의 다음 문자출력을 제어하는 상세분류부(70)를 포함한다.1 is a block diagram of a handwritten character recognition apparatus according to the present invention. The apparatus of FIG. 1 includes an input unit 10 for inputting a handwritten character image, a preprocessing unit 20 for preprocessing the character image input through the input unit 10, and outputting each character one by one; A candidate character group storage unit 30 storing candidate character groups including the representative character, and storing feature vectors corresponding to each representative character of candidate character groups stored in the candidate character group memory unit 30; The feature vector of the character pattern inputted through the representative vector memory unit 40 and the preprocessor 20 is found, and the representative vector most similar to the obtained feature vector is found from the representative vector memory unit 40, Characteristic consisting of finite coordinates for all candidate character patterns stored in the candidate character group storage unit 30, the major classification unit 50 for finding a representative character and a group of candidate characters including the same from the candidate character memory unit 30 Beck The character of the candidate character group found in the large classification unit 50 through the neural network unit 60 and the neural network unit 60 configured as a final recognition result after the recognition of the preprocessing unit 20 And a detail classification unit 70 for controlling the next character output.

입력부(10)는 영상스캐너 또는 CCD 카메라와 같은 이미지픽업 장치로 구성되고 사람이 종이위에 손으로 작성한 필기체문자를 컴퓨터가 판독가능한 이진영상의 문자패턴으로 변환하여 입력한다.The input unit 10 is composed of an image pickup device such as an image scanner or a CCD camera, and converts handwritten characters written on a paper by a person into a character pattern of a computer-readable binary image.

전처리부(20)는 입력부(10)에서 생성한 입력패턴으로부터 문자패턴 이외의 잡음성분을 제거하고 각각의 한글문자를 분리하여 한 문자씩 출력한다. 전처리부의 구성을 간략하게 하기 위해서 문서를 구성할 때 사람이 기재하는 영역을 제외한 그림이나 설명문등은 입력부(10)가 감지하지 못하는 색을 사용하여 인쇄처리하는 것이 바람직하다.The preprocessing unit 20 removes noise components other than the character pattern from the input pattern generated by the input unit 10 and outputs each character by separating each Hangul character. In order to simplify the configuration of the preprocessor, it is preferable to print a picture or description except for an area written by a person using a color that the input unit 10 does not detect when constructing a document.

대분류부(50)에서는 다음과 같은 방법으로 전처리부(20)로부터 입력된 입력문자패턴의 특징벡터를 구한다.The large classification unit 50 obtains the feature vector of the input character pattern input from the preprocessor 20 in the following manner.

문자패턴에 대한 대분류 특징으로서 유한개의 좌표로 구성된 벡터를 통계적 방법으로 계산한다. 특징벡터를 구하기 위해서는 먼저 I × J 크기의 입력 영상을 M × N 크기의 셀로 분할(I≥M, J≥N 이고, I, J, M, N 은 0보다 큰 정수)하되, 필기자의 다양성을 흡수하기 위해 비선형적인 방식을 적용한다(Y. Yamashita, K. Higuchi, Y. Yamada and Y. Haga, classification of handprinted Kanji characters by the structured segment matching method, pattern recognition letter, vol. 1, 1983, 475-479). 즉, 입력영상을 수직방향의 M개의 스트립으로 분할하되 각 스트립내에서 검은 화소의 갯수가 균일하도록 한다. 마찬가지 방법으로 수평방향으로도 N개의 스트립으로 분할하면 입력영상이 MN 개의 셀로 분할된다. 각 셀에 대해 두가지 특징값, 즉 수직 방향성분 값 FV과 수평방향성분값 FH을 다음과 같이 계산한다.As a large classification feature for character patterns, a vector of finite coordinates is computed by a statistical method. To obtain the feature vector, first divide the input image of size I × J into cells of size M × N (where I≥M, J≥N, and I, J, M, N are integers greater than 0). Apply non-linear methods to absorb (Y. Yamashita, K. Higuchi, Y. Yamada and Y. Haga, classification of handprinted Kanji characters by the structured segment matching method, pattern recognition letter, vol. 1, 1983, 475-. 479). That is, the input image is divided into M strips in the vertical direction, but the number of black pixels is uniform in each strip. In the same manner, when the N-strip is divided in the horizontal direction, the input image is divided into MN cells. For each cell, two feature values, ie vertical component value F V and horizontal component value F H , are calculated as follows.

BP: 입력 영상내의 전체 검은 화소의 갯수B P : Number of all black pixels in the input image

BV: 셀내에 존재하는 수직방향 성분에 속하는 검은 화소의 갯수B V : Number of black pixels belonging to the vertical component existing in the cell

BH: 셀내에 존재하는 수평방향 성분에 속하는 검은 화소의 갯수B H : Number of black pixels belonging to the horizontal component existing in the cell

여기서, 수직ㆍ수평방향성분이란 수직수평각 방향의 런 (run : 연속되는 흑화소의 길이)들 중 그 길이가 임계치 T 보다 큰 런들의 집합을 말한다. 임계치 T 는 문자 획 두께 W 에 따라 동적으로 설정하되, 예를 들면 문자획 두께의 2.5배로 설정한다. 문자획 두께는 W 는 입력영상내에서 검은 화소의 갯수 BP와 2×2 윈도우내의 모든 화소가 검은 경우의 수 WP를 기반으로 하여 다음과 같이 계산한다.Here, the vertical and horizontal components refer to a set of runs whose length is larger than the threshold T among runs in the vertical horizontal angle direction. The threshold T is set dynamically according to the character stroke thickness W, but is set to 2.5 times the character stroke thickness, for example. The character stroke thickness is calculated as follows based on the number B P of black pixels in the input image and the number W P of all pixels in the 2 × 2 window in the input image.

그러므로, 임계치 T 는 다음과 같이 얻어진다.Therefore, the threshold T is obtained as follows.

지금까지 설명한 방법에 의해 입력문자영상으로부터 2MN 개의 특징값을 구하는 실행예가 제2도에 도시되어 있다. 또한, 입력영상을 45도로 회전시킨 패턴에 대해서는 위와 동일한 방법을 적용하여 또 다른 2MN 개의 특징값을 계산한다. 45도의 회전된 영상에서 추출한 수평 및 수직 성분은 원래 영상으로부터 사선 및 역사선성분에 해당한다. 결과적으로 4MN 개의 값으로 구성된 특징벡터를 계산한다.An example of the execution of obtaining 2MN feature values from the input text image by the method described so far is shown in FIG. In addition, another 2MN feature values are calculated by applying the same method to the pattern in which the input image is rotated by 45 degrees. Horizontal and vertical components extracted from a 45 degree rotated image correspond to diagonal and inverse line components from the original image. As a result, the feature vector consisting of 4MN values is calculated.

대표벡터기억부(40)에는 상술한 바와같이 인식대상문자 예를들면, 한글 필기체인 경우에는 2350자의 각 대표문자에 대한 특징벡터들이 동일한 방법으로 구해져서 저장된 것이다.As described above, the representative vector memory unit 40 obtains and stores the feature vectors for each representative character of 2350 characters in the case of a Korean handwriting.

그러므로, 대분류부(50)에서는 대표벡터기억부(40)에 저장된 대표벡터 집합내에서 구해진 특징벡터와 가장 유사한 것을 찾는다.Therefore, the large classification unit 50 finds the most similar to the feature vector obtained in the representative vector set stored in the representative vector storage unit 40.

입력문자패턴에서 추출한 특징벡터를 V= v1, v2, v3, ........vn라 하고 대표벡터집합내의 임의의 대표벡터를 Mi= mi1, mi2, mi3, ..... , min이라 하면, V 와 Mi사이의 유사도 Si는 특징공간상에서의 거리로 측정하며 그 공식은 다음과 같다.The feature vector extracted from the input character pattern is V = v 1 , v 2 , v 3 , ........ v n , and any representative vector in the representative vector set is M i = m i1 , m i2 , m If i3 , ....., m in , the similarity S i between V and M i is measured as the distance in the feature space and the formula is:

여기서, n 은 4MN 이다. 그러므로, Si의 값이 작을수록 두 벡터의 유사도는 높은 것으로 간주되어 가장 높은 유사도를 갖는 대표벡터를 찾는다.Where n is 4MN. Therefore, the smaller the value of S i, the higher the similarity of the two vectors is considered, and find the representative vector having the highest similarity.

후보문자군기억부(30)에서는 인식대상문자들의 후보문자군들을 저장하는바, 다음과 같이 후보문자군들이 정해진다. 후보문자군을 정하는 방법으로 대분류 1 위의 오인식 유형에 의한 방법을 사용한다. 즉, 대분류부에 의해 특정문자 Ci로 인식되는 문자 중에는 Ci이외의 다른문자 Ci가 포함되는 경우가 가끔 발생한다. 제3도에 도시된 바와같이 문자 '사', '자'의 일부 패턴들은 문자 '가'의 대표벡터와의 유사도가 해당 문자의 대표벡터와의 유사도보다 높아서 '가'로 오인식되는 현상이 발생한다. 이들 오인식 문자들에 관한 정보를 각 문자별로 모으고, 이 문자들을 빈도수 순으로 정렬하여, 이들 중 상위 몇개를 선택하면 Ci에 대한 후보문자군을 구성할 수 있다. 결과적으로 이렇게 하여 사전에 구성된 후보문자군들을 후보문자군 기억부(30)에 저장해 놓는다. 본 발명의 실시예에서는 인식대상문자 각각에 대하여 후보문자군에 대한 인식 정인식률이 99% 이상을 유지하되, 각 문자군의 크기가 20자를 넘지 않도록 제한하였다.The candidate character group storage unit 30 stores candidate character groups of the recognition target characters, and the candidate character groups are determined as follows. As a method of selecting a candidate character group, the method by the misperception type above the main classification 1 is used. That is, it sometimes occurs that when the characters to be recognized during a particular letter C i, a different character other than the C i C i comprised by a large category unit. As shown in FIG. 3, some patterns of the letters 'sa' and 'ja' have a higher degree of similarity with the representative vector of the letter 'a' than the representative vector of the letter, so that the pattern is incorrectly recognized as 'a'. do. Information about these misrecognized characters can be gathered by character, sorted by frequency, and a few of them selected to form a candidate character set for C i . As a result, the candidate character groups previously constructed in this way are stored in the candidate character group storage unit 30. In the embodiment of the present invention, while the recognition recognition rate for the candidate character group is maintained at 99% or more for each character to be recognized, the size of each character group is limited not to exceed 20 characters.

이상과 같이 대분류부(30)에서는 입력문자패턴의 특징벡터를 구한 다음에 대표벡터기억부(40)를 참조하여 가장 유사한 대표벡터를 찾고, 찾아진 대표벡터에 대한 문자와 이 문자를 포함하는 후보문자군을 후보문자군기억부(30)를 참조하면 찾는 과정을 수행한다.As described above, the large classification unit 30 obtains the feature vector of the input character pattern, finds the most similar representative vector by referring to the representative vector memory unit 40, and finds the character for the found representative vector and the candidate including the letter. Referring to the character group candidate character group storage unit 30 performs a search process.

신경망부(60)는 대분류가 출력한 후보문자군들로부터 하나의 문자를 최종적으로 찾아내기 위한 것으로서 다음과 같이 구성된다.The neural network unit 60 is configured to finally find one character from the candidate character groups outputted by the major classification, and is configured as follows.

문자패턴에 대한 신경망 특징으로서 유한개의 좌표로 구성된 벡터를 통계적 방법으로 계산한다. 신경망에 사용되는 특징을 추출하기 위하여 상술한 바와같이 수평 및 수직 두 방향에 대해 문자영상을 N × M 으로 비선형 분할한 후에 각 셀내의 검은화소가 속하는 수평런과 수직런의 비율을 구해 셀특징값을 계산한다. 신경망을 위한 특징추출의 실시예가 제4도에 도시되어 있다. 먼저, 수평 및 수직 방향에 각각에 대해 문자영상을 N × M 으로 비선형분할한 후, 각각의 검은화소 Pxㆍy(0≤x≤W, 0≤y≤H : W 는 문자영상의 폭이고 H는 문자영상의 높이)가 속하는 수평런의 길이 RLHxㆍy와 수직런의 길이 RLVxㆍy를 구한다. 다음에는 각각의 Pxㆍy에서 가로방향 기여도 DCHxㆍy와 세로방향의 기여도 DCVxㆍy를 다음과 같이 구한다.As a neural network feature for a character pattern, a vector consisting of finite coordinates is calculated by a statistical method. In order to extract the features used for neural networks, as described above, after nonlinear division of the character image into two horizontal and vertical directions by N × M, the ratio of the horizontal run and the vertical run to the black pixels in each cell is obtained. Calculate An embodiment of feature extraction for a neural network is shown in FIG. First, nonlinear division of the character image into N x M in the horizontal and vertical directions, respectively, and then each black pixel P xy (0≤x≤W, 0≤y≤H: W is the width of the character image) H is obtained by calculating the length RLH x · y of the horizontal run to which the height of the character image) and the length RLV x · y of the vertical run. Next, the horizontal contribution DCH x · y and the vertical contribution DCV x · y at each P x · y are obtained as follows.

마지막으로 비선형 분할된 N × M 셀내에 존재하는 모든 검은화소에 대한 DCHxㆍy, DCVxㆍy의 평균값을 구해 2(N × M)차원의 특징벡터를 계산한다. 또한, 지금까지의 설명한 방법을 검은화소가 아닌 백화소에 대해서도 적용하여 또 다른 2(N×M)차원의 특징벡터를 계산하여 최종적으로 4(N×M)차원의 특징벡터를 구한다.Finally, the average values of DCH x · y and DCV x · y for all black pixels existing in the non-linear divided N × M cells are calculated to calculate a feature vector in two (N × M) dimensions. In addition, the method described so far is applied to white pixels instead of black pixels to calculate another 2 (N × M) dimension vector to finally obtain a 4 (N × M) dimension vector.

본 발명에서 채택한 신경망구조는 제5도와 같다. 여기서, 입력노드는 입력문자영상에서 추출한 특징값의 갯수에 해당하는 4(N×M)개가 있고 출력층은 인식대상문자수만큼의 노드로 구성되며 중간노드의 갯수는 출력노드수 × 2 + 1 개로 구성된다. 여기서, 입력층과 중간층에 각각 1개씩의 오차보정노드를 사용했다. 제5도와 같은 신경망으로 필기체한글문자를 인식하는 실행예가 제6도에 도시되어 있다.The neural network structure adopted in the present invention is shown in FIG. Here, the input node has 4 (N × M) corresponding to the number of feature values extracted from the input text image, and the output layer is composed of as many nodes as the number of characters to be recognized, and the number of intermediate nodes is the number of output nodes × 2 + 1 It is composed. Here, one error correction node was used for the input layer and the intermediate layer, respectively. An example of recognizing handwritten Hangul characters with a neural network as shown in FIG. 5 is shown in FIG.

신경망부(60)은 상술한 신경망들로 구성되는데, 신경망부를 구성하는 신경망의 갯수는 후보군자군 기억부 내의 후보문자군의 갯수와 같다. 신경망부(60)는 학습을 통하여 인식의 정도를 증가시킬 수 있다.The neural network unit 60 is composed of the neural networks described above, and the number of neural networks constituting the neural network portion is equal to the number of candidate character groups in the candidate group memory. The neural network unit 60 may increase the degree of recognition through learning.

상세분류부(70)에서는 대분류부(50)에서 찾아낸 입력문자패턴에 대응하는 후보문자군으로부터 신경망부(60)를 통해서 최종적으로 하나의 문자를 찾아내어서 필기체문자를 인식하게 된다. 인식이후에는 전처리부(20)에 제어신호를 제공하여 다음에 인식하고자 하는 문자패턴을 대분류에 공급하도록 한다.The detailed classification unit 70 finally recognizes the handwritten character by finding one character from the group of candidate characters corresponding to the input character pattern found by the large classification unit 50 through the neural network unit 60. After the recognition, a control signal is provided to the preprocessor 20 to supply the character pattern to be recognized next.

본 발명에서는 완성형 한글 2,350자 집합 또는 그 부분집합에 해당하는 필기체문자들을 인식대상으로 한다. 발명된 방법 및 장치의 성능실험을 위해 통상적으로 자주 쓰이는 한글 990자를 대상으로 하여 인식시스템을 구성했다. 구성된 시스템의 구성요소는 990개의 7×7×4차원 대표벡터, 평균 5.7자의 후보문자로 구성되는 990개의 후보문자군, 평균크기가 (7×7×4) ×12.4 × 5.7인 990개의 신경망, 입력부 전처리부, 대분류부 및 상세분류부이다. 구성된 시스템을 포항공대에서 공개한 필기문자데이타(김대환, 방승양, 한글 필기체 영상 데이타베이스 PE92의 소개, 1992년도 제4회 한글 및 한국어 정보처리 학술발표논문집, 567-575)의 전체 99000자 중 70%에 해당하는 63000자를 학습시키고 나머지 29700자로 인식해 보았을 때 약 90%의 정인식률을 얻었다.In the present invention, handwritten characters corresponding to the complete Hangul 2,350 character set or a subset thereof are recognized. For the performance test of the method and apparatus of the invention, a recognition system was constructed for 990 Korean characters. The components of the system consist of 990 7 × 7 × 4 dimensional representative vectors, 990 candidate character groups consisting of 5.7 candidate characters on average, 990 neural networks with average size of (7 × 7 × 4) × 12.4 × 5.7, Input section Preprocessing section, large classification section and detail classification section. 70% of 99000 characters of handwritten character data (Kim Dae-hwan, Bang Seung-yang, Introduction of Hangul Handwritten Image Database PE92, 4th Hangul and Korean Information Processing Paper presented in 1992, 567-575) When we learned that 63000 characters corresponding to and recognized the remaining 29700 characters, the recognition rate was about 90%.

본 발명의 필기체 한글문자의 인식방법 및 장치로는 사람이 임의의 필기도구를 사용하여 임의의 양식을 갖는 종이 위에 무제약으로 작성한 한글문자를 자동으로 인식함으로써 다량의 필기전표를 컴퓨터에 자동입력하거나 다량의 우편물을 자동으로 분류하는등의 작업이 가능하다. 따라서, 수작업에 의존하는 기존 문서의 내용 및 신규로 발생되는 정보의 입력작업을 자동화 하여 시간, 인력 및 금전적 측면에서 막대한 이익을 창출할 수 있다.The method and apparatus for recognizing handwritten Hangul characters of the present invention automatically inputs a large amount of handwritten slips into a computer by automatically recognizing a Hangul character written by a person on a paper having an arbitrary form using an arbitrary writing tool. You can sort the mail automatically. Therefore, it is possible to automate the input of the contents of existing documents and the newly generated information that rely on manual labor, and generate huge profits in terms of time, personnel, and money.

Claims (8)

I × J 크기로 문자영상을 입력하는 단계, 상기 입력된 문자영상의 패턴에 대한 대분류 특징으로서 유한개의 좌표로 구성된 특징벡터를 통계적방법으로 계산하는 단계, 인식대상문자들에 대응하는 대표벡터 집합내에서 상기 계산된 특징벡터와 가장 유사한 대표벡터를 찾는 단계, 상기 찾아진 대표벡터에 해당하는 문자와 이 문자를 포함하는 후보문자군을 구하는 단계, 및 상기 인식대상문자들의 모든 후보문자패턴에 대한 유한개의 좌표로 구성된 특징벡터을 사용하여 구성한 신경망을 통해 상기 구해진 후보문자군 중에서 하나의 문자를 최종 인식결과로 출력하는 단계를 구비한 것을 특징으로 하는 필기체 문자인식 방법.Inputting a character image having an I × J size, calculating a feature vector consisting of finite coordinates as a large classification feature for the pattern of the input character image by a statistical method, and in a representative vector set corresponding to the recognition target characters. Finding a representative vector most similar to the calculated feature vector, obtaining a character corresponding to the found representative vector and a candidate character group including the character, and finitely identifying all candidate character patterns of the recognition target characters. And outputting one character from the obtained candidate character group as a final recognition result through a neural network constructed using a feature vector composed of two coordinates. 제1항에 있어서, 상기 특징벡터를 계산하는 방법은 I×J 크기의 입력영상을 수직방향의 M 개의 스트립으로 분할하고 수평방향으로 N개의 스트립으로 분할하여 M×N 크기의 셀로 비선형 분할(I≥M , J≥N 이고, I, J, M, N 은 0보다 큰 정수)하는 단계, 분할된 각셀에 대해 수직 방향성분값 FV과 수평방향성분값 FH을 다음 식The method of claim 1, wherein the method of calculating the feature vector divides an I × J sized input image into M strips in a vertical direction and N strips in a horizontal direction, thereby performing nonlinear division into M × N cells. ≥M, J≥N, and I, J, M, and N are integers greater than 0), and the vertical component value F V and the horizontal component value F H for each divided cell FV= BV/ BP F V = B V / B P FH= BH/ BP F H = B H / B P BP: 입력 영상내의 전체 검은 화소의 갯수B P : Number of all black pixels in the input image BV: 셀내에 존재하는 수직방향 성분에 속하는 검은 화소의 갯수B V : Number of black pixels belonging to the vertical component existing in the cell BH: 셀내에 존재하는 수평방향 성분에 속하는 검은 화소의 갯수에 의해 2MN개의 특징값 계산하는 단계, 입력영상을 45도로 회전시킨 패턴에 대해서도 위와 동일한 방법을 적용하여 또 다른 2MN 개의 특징값을 계산하는 단계, 및 상기 수직, 수평, 사선 및 역사선에 대한 4MN개의 특징값을 입력문자패턴의 특징벡터로 제공하는 단계로 이루어진 것을 특징으로 하는 필기체 문자 인식 방법.B H : Computing 2MN feature values by the number of black pixels belonging to the horizontal component existing in the cell.Calculate another 2MN feature values by applying the same method to the pattern rotated 45 degrees. And providing 4MN feature values for the vertical, horizontal, oblique, and inverted lines as feature vectors of an input character pattern. 제2항에 있어서, 상기 수직, 수평 방향성분이란 수직수평각 방향의 런(run : 연속되는 흑화소의 길이)들 중 그 길이가 임계치 T 보다 큰 런들의 집합인 것을 특징으로 하는 필기체 문자 인식 방법.The handwritten character recognition method of claim 2, wherein the vertical and horizontal components are a set of runs whose length is larger than a threshold T among runs in a vertical horizontal angle direction. 제3항에 있어서, 상기 임계치 T 는 문자 획 두께 W 에 따라 동적으로 설정하되, T=2.5 ×W에 의해 구하는 것을 특징으로 하는 필기체 문자인식방법.The method of claim 3, wherein the threshold value T is dynamically set according to the character stroke thickness W, and is obtained by T = 2.5 × W. 제4항에 있어서, 상기 문자획 두께는 입력영상내에서 검은 화소의 갯수 BP와 2×2 윈도우내의 모든 화소가 검은 경우의 수 WP를 기반으로 하여 다음 식The method of claim 4, wherein the thickness of the character stroke is based on the number B P of black pixels in the input image and the number W P of all pixels in the 2x2 window being black. W = BP/ (BP- WP)W = B P / (B P -W P ) 에 의해 구하는 것을 특징으로 하는 필기체 문자 인식방법.The handwritten character recognition method characterized by the above-mentioned. 제1항에 있어서, 상기 후보문자군은 특정문자 Ci로 인식되는 문자 중에는 어떤 문자 Cj의 대표벡터까지의 거리가 해당 문자의 대표벡터까지의 거리보다 가까워서 Ci로 오인식되는 문자들에 관한 정보를 각 문자별로 모으고, 이 문자들을 빈도수 순으로 정렬하여, 이들 중 상위 몇개를 선택하여 Ci에 대한 후보문자군을 구성하는 것을 특징으로 하는 필기체 문자 인식방법.The method of claim 1, wherein the candidate character group is related to characters that are misrecognized as C i because the distance to the representative vector of a certain character C j is closer than the distance to the representative vector of the corresponding character among characters recognized as a specific character C i . And collecting information by each character, sorting the characters in order of frequency, and selecting a few of them to form a candidate character group for C i . 제1항에 있어서, 상기 신경망을 구성하기 위한 특징벡터는 수평 및 수직 두 방향에 대해 문자영상을 N×M 으로 비선형 분할하는 과정, 각각의 검은화소 Pxㆍy(0≤x≤W, 0≤y≤H : W 는 문자영상의 폭이고 H 는 문자영상의 높이)가 속하는 수평런의 길이 RLHxㆍy와 수직런의 길이 RLVxㆍy를 구하는 과정, 다음에는 각각의 Pxㆍy에서 가로방향 기여도 DCHxㆍy와 세로방향의 기여도 DCVxㆍy를 다음 식The method of claim 1, wherein the feature vector for constructing the neural network is a process of non-linear division of a character image into N × M in two horizontal and vertical directions, each of the black pixels P xy (0 ≦ x ≦ W, 0). ≤y≤H: W is the width of the character image, and H is the height of the character image), the process of calculating the length RLH x and y and the length x and y in the vertical run of the RLV horizontal run belongs, then each of x and P y In the transverse contribution DCH xy and the longitudinal contribution DCV xy in 에 의해 구하는 과정, 마지막으로 비선형 분할된 N × M 셀내에 존재하는 모든 검은화소에 대한 DCHxㆍy, DCVxㆍy의 평균값을 구해 2(N×M)차원의 특징벡터를 계산하는 과정, 및 지금까지의 과정을 검은화소가 아닌 백화소에 대해서도 적용하여 또 다른 2(N×M)차원의 특징벡터를 계산하여 최종적으로 4(N×M)차원의 특징벡터를 구하는 것을 특징으로 하는 필기체 문자인식방법.Finally, a process of calculating feature vectors in two (N × M) dimensions by calculating the average values of DCH x · y and DCV x · y for all black pixels in nonlinear segmented N × M cells. And applying the above process to the white pixel instead of the black pixel to calculate another 2 (N × M) -dimensional feature vector to finally obtain a 4 (N × M) -dimensional feature vector. Character recognition method. 손으로 쓴 필기체 문자를 이진문자영상으로 입력하는 입력부, 입력된 문자영상을 전처리하여 한 문자씩 출력하는 전처리부, 인식대상문자들을 각각의 대표문자로 하고 이 대표문자를 포함하는 후보문자군들을 저장한 후보문자군기억부, 상기 후보문자군들의 각 대표문자에 대응하는 특징벡터들을 저장하는 대표벡터기억부, 상기 전처리부를 거쳐서 입력된 문자패턴의 특징벡터를 구하고 구해진 특징벡터와 가장 유사한 대표벡터를 상기 대표벡터기억부로부터 찾아내고 찾아진 대표벡터에 대한 대표문자와 이를 포함하는 후보문자군을 상기 후보문자기억부로부터 찾아내는 대분류부, 상기 후보문자군 기억부에 저장된 모든 후보문자패턴에 대한 유한개의 좌표로 구성된 특징벡터를 사용하여 구성한 신경망부, 및 상기 신경망부를 통해 상기 대분류부에서 찾아진 후보문자군 중에서 하나의 문자를 최종 인식결과로 인식한 후에 상기 전처리부의 다음 문자출력을 제어하는 상세분류부를 구비한 것을 특징으로 하는 필기체 문자인식 장치.Input unit for inputting handwritten handwritten characters into binary character image, Preprocessing unit for preprocessing inputted character image and outputting one character at a time, Recognition target characters as respective representative characters and storing candidate character groups including these representative characters A candidate character group memory unit, a representative vector memory unit for storing feature vectors corresponding to each representative character of the candidate character groups, a feature vector of a character pattern input through the preprocessing unit is obtained, and a representative vector most similar to the obtained feature vector is obtained. A large classification unit for finding a representative character and a candidate character group including the found representative character group from the representative vector memory unit from the representative vector memory unit, and a finite number of all candidate character patterns stored in the candidate character group storage unit. A neural network constructed using a feature vector composed of coordinates, and the large classification through the neural network Handwritten character recognition apparatus of one character from the candidate character group which is found characterized by comprising a detailed classification for controlling the next character output the pre-treatment portion after the final recognition result from the recognition.
KR1019940020288A 1994-08-17 1994-08-17 Method and apparatus of recognizing script character KR0170656B1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1019940020288A KR0170656B1 (en) 1994-08-17 1994-08-17 Method and apparatus of recognizing script character
TW84106312A TW417055B (en) 1994-08-17 1995-06-20 Method and apparatus for recognizing handwritten characters
CN95107775A CN1081366C (en) 1994-08-17 1995-06-28 Method and apparatus for recognizing handwritten characters
JP7185824A JP2997403B2 (en) 1994-08-17 1995-07-21 Handwritten character recognition method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019940020288A KR0170656B1 (en) 1994-08-17 1994-08-17 Method and apparatus of recognizing script character

Publications (1)

Publication Number Publication Date
KR0170656B1 true KR0170656B1 (en) 1999-03-30

Family

ID=19390547

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019940020288A KR0170656B1 (en) 1994-08-17 1994-08-17 Method and apparatus of recognizing script character

Country Status (4)

Country Link
JP (1) JP2997403B2 (en)
KR (1) KR0170656B1 (en)
CN (1) CN1081366C (en)
TW (1) TW417055B (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100440189C (en) * 2003-06-04 2008-12-03 无敌科技(西安)有限公司 Language studying system combining graphic depiction and its operational method
CN1317673C (en) * 2004-03-18 2007-05-23 致伸科技股份有限公司 System and method for distinguishing words and graphics in an image using neural network
KR100638585B1 (en) * 2005-03-23 2006-10-26 엔에이치엔(주) Apparatus And Method For Inputting A Character
US7929769B2 (en) * 2005-12-13 2011-04-19 Microsoft Corporation Script recognition for ink notes
US7817857B2 (en) * 2006-05-31 2010-10-19 Microsoft Corporation Combiner for improving handwriting recognition
CN101561712B (en) * 2008-04-14 2012-01-25 崔学仙 Method for inputting Korea character using Korean character keyboard
CN102663388B (en) * 2012-03-27 2014-01-08 复旦大学 Method for segmenting handwritten character from background image
CN104751263A (en) * 2013-12-31 2015-07-01 南京理工大学常熟研究院有限公司 Metrological calibration service oriented intelligent client grade classification method
CN105938558B (en) * 2015-03-06 2021-02-09 松下知识产权经营株式会社 Learning method
CN106022273A (en) * 2016-05-24 2016-10-12 华东理工大学 Handwritten form identification system of BP neural network based on dynamic sample selection strategy

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5191622A (en) * 1987-07-17 1993-03-02 Hitachi, Ltd. Hand-written character recognition apparatus with a personal dictionary preparation function

Also Published As

Publication number Publication date
TW417055B (en) 2001-01-01
CN1118902A (en) 1996-03-20
JP2997403B2 (en) 2000-01-11
JPH0869506A (en) 1996-03-12
CN1081366C (en) 2002-03-20

Similar Documents

Publication Publication Date Title
Suen et al. Building a new generation of handwriting recognition systems
Schomaker et al. Automatic writer identification using fragmented connected-component contours
CN110210413A (en) A kind of multidisciplinary paper content detection based on deep learning and identifying system and method
Perwej et al. Machine recognition of hand written characters using neural networks
Shi et al. Segmentation and recognition of connected handwritten numeral strings
Dash et al. A hybrid feature and discriminant classifier for high accuracy handwritten Odia numeral recognition
Shelke et al. A novel multi-feature multi-classifier scheme for unconstrained handwritten devanagari character recognition
KR0170656B1 (en) Method and apparatus of recognizing script character
Fujisawa et al. Directional pattern matching for character recognition revisited
Jyothi et al. Innovative feature sets for machine learning based Telugu character recognition
Sathya Narayanan et al. RETRACTED ARTICLE: An efficient recognition system for preserving ancient historical documents of English characters
Aravinda et al. Template matching method for Kannada handwritten recognition based on correlation analysis
Ronee et al. Handwritten character recognition using piecewise linear two-dimensional warping
Pan et al. Isolated handwritten Farsi numerals recognition using sparse and over-complete representations
Pandya Comparing handwritten character recognition by AdaBoostClassifier and KNeighborsClassifier
Oladele et al. Offline yorùbá handwritten word recognition using geometric feature extraction and support vector machine classifier
Sudarsan et al. A novel approach for handwriting recognition in malayalam manuscripts using contour detection and convolutional neural nets
Jameel et al. A REVIEW ON RECOGNITION OF HANDWRITTEN URDU CHARACTERS USING NEURAL NETWORKS.
Imani et al. offline Handwritten Farsi cursive text recognition using Hidden Markov Models
Mashiyat et al. Bangla off-line handwritten character recognition using superimposed matrices
Rocha et al. A solution to the problem of touching and broken characters
Tripathi et al. Character recognition: a neural network approach
Koundal et al. Punjabi optical character recognition: a survey
Mozaffari et al. A Hybrid Structural/Statistical Classifier for Handwritten Farsi/Arabic Numeral Recognition.
Madhvanath et al. Perceptual features for off-line handwritten word recognition: a framework for heuristic prediction, representation and matching

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20060928

Year of fee payment: 9

LAPS Lapse due to unpaid annual fee