KR100200871B1 - 이항 인식에 기반한 문자 인식 방법 및 장치 - Google Patents
이항 인식에 기반한 문자 인식 방법 및 장치 Download PDFInfo
- Publication number
- KR100200871B1 KR100200871B1 KR1019950069752A KR19950069752A KR100200871B1 KR 100200871 B1 KR100200871 B1 KR 100200871B1 KR 1019950069752 A KR1019950069752 A KR 1019950069752A KR 19950069752 A KR19950069752 A KR 19950069752A KR 100200871 B1 KR100200871 B1 KR 100200871B1
- Authority
- KR
- South Korea
- Prior art keywords
- character
- recognized
- recognition
- neural network
- characters
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Character Discrimination (AREA)
Abstract
두 개의 문자만을 대상으로 식별하는 신경망 인식기들을 이용하여 어떤 종류의 문자라도 인식할 수 있는 방법 및 장치가 개시된다.
본 발명에 따른 문자 인식 방법은 피인식 대상 문자 영상 F를 N개의 인식 대상 문자 집합 (X1,X2,,,,XN)의 각 문자들과 비교하고 이들 중에서 가장 높은 유사도를 보이는 문자 X1을 인식된 문자로서 제공하는 문자 인식 방법에 있어서, 소정의 규칙에 의해 배열된 인식 대상 문자 X1과 X2 중 피인식 대상 문자 영상 F와 유사도가 높은 문자를 선택하고, 여기서 선택된 문자와 X3중 피인식 대상 문자 F와 유사도가 높은 문자를 선택하는 과정을 XN까지 반복하여 최종 선택된 문자를 인식된 결과로서 출력하는 것을 특징으로 한다.
본 발명에 따른 문자 인식 방법 및 장치는 두 가지 문자를 인식하는 이항 인식기를 기반으로 인쇄체 및 필기체 문자를 모두 인식할 수 있고, 인식 장치를 구축함에 있어서 특정 응용 분야에 맞도록 최적의 성능을 내도록 구현할 수 있는 융통성과 인식 대상이 달라져도 쉽게 장치의 변경이 가능한 확장성을 갖는다.
Description
제1도는 본 발명에 따른 이항 인식에 기반한 문자 인식 방법을 보이는 흐름도이다.
제2도는 본 발명에 따른 이항 인식에 기반한 문자 인식 장치의 구성을 보이는 블록도이다.
제3도는 제2도에 도시된 신경망 기억부에 구비된 신경망의 구조를 보이는 도면이다.
본 발명은 문자 인식 방법 및 장치에 관한 것으로서 더욱 상세하게는 두 개의 문자만을 대상으로 식별하는 신경망 인식기들을 이용하여 어떤 종류의 문자라도 인식할 수 있는 방법 및 장치에 관한 것이다.
광학 문자 인식(Optical Character Recognition; OCR)이란 스캐너(scanner)나 카메라 등의 광학 장치에 의해 디지털 형태로 입력된 영상에서 문자에 해당되는 부분의 내용을 인식하는 기술을 말한다.
이러한 광학 문자 인식 기술은 출판 기기에 의해 인쇄된 문자를 인식하는 인쇄체 문자 인식과 사람에 의해 작성된 문자를 인식하는 필기체 문자 인식으로 크게 구분될 수 있다. 또한, 인식하려는 문자(이하 인식 대상 문자라 칭함)의 종류에 따라 숫자 인식, 영문 인식, 일어 인식, 한글 인식, 한자 인식 등으로 구분되며 여러 가지 종류의 문자가 동시에 존재하는 혼용 문자 인식도 있다.
인식 대상 문자의 수가 적은 숫자나 영문자를 인식하기 위한 대표적인 방법으로는 원형 정합(Template Matching) 방법, NNC(Nearest Neighbor Classification) 방법, 구조적 방법(Structural Method), 인공신경망(Artificial Neural Network) 기법 등이 있고, 연속 필기된 영문단어(cursive script)를 인식하기 위한 대표적인 방법으로는 은닉 마르코프 모델(Hidden Marcov Modol)을 이용한 방법 등이 있으며, 인식 대상 문자 수가 많은 한글이나 한자를 인식하기 위해 상기한 여러 가지 인식 기법을 다단계로 결합한 방식이 주로 사용되고 있다.
지금까지 알려진 대부분의 인식 방법들이 인식 대상 문자 수가 적은 영문이나 숫자에만 효과적으로 사용될 수 있는 반면 인식 대상 문자 수가 많은 한글이나 한자에 실용성이 없어 적용하기 어려웠다.
또한, 지금까지의 알려진 대부분의 인식기는 특정 언어의 특정 문제에 해당되는 문자들만을 인식할 수 있기 때문에 여러 종류의 문자가 혼재된 문서에 대해서는 적용하기 어려웠다. 특히, 한글은 24개의 자소를 조합하여 11,000자 이상의 문자가 형성되는 관계로 유사한 문자 쌍이 많아 이들을 분별하는 고성능의 인식 방법이 아직 존재하지 않고, 더욱이 한글과 한자나 영문자가 혼재하는 필기체 문서의 경우에는 인식 대상 문자 수가 많아지고 불특정 다수의 다양성을 흡수해야 하는 등의 어려움이 있어 이를 인식하기 위한 효과적인 방법 및 장치의 개발을 위해서는 많은 연구와 노력이 요구된다.
본 발명은 상기의 요구에 부응하기 위하여 창출된 것으로서 모든 종류의 인쇄 서체 및 필기체 문자를 인식할 수 있고, 모든 언어 및 이들이 혼재된 문서를 인식할 수 있는 방법을 제공하는 것을 그 목적으로 한다.
본 발명의 다른 목적은 상기의 문서 인식 방법에 적합한 장치를 제공하는 것에 있다.
상기의 목적을 달성하는 본 발명에 따른 문자 인식 방법은
피인식 대상 문자 영상 F를 N개의 인식 대상 문자 집합(X1,X2,,,,XN)의 각 문자들과 비교하여 이들 중에서 가장 높은 유사도를 보이는 문자 X1을 인식된 문자로서 제공하는 문자 인식 방법에 있어서,
인식 대상 문자 집합에 포함된 문자들과 피인식 대상 문자 영상과의 유사도를 계산하고, 계산된 유사도의 순서에 따라 인식 대상 문자 집합의 순서를 재배치하는 과정; 및
상기 재배치과정에 의해 재배치된 인식 대상 문자 X1과 X2중 피인식 대상 문자 영상 F와 유사도가 높은 문자를 선택하고, 여기서 선택된 문자와 X3중 피인식 대상 문자 F와 유사도가 높은 문자를 선택하는 과정을 XN까지 반복하여 최종 선택된 문자를 인식된 결과로서 출력하는 문자 인식 과정을 포함하는 것을 특징으로 한다.
상기의 다른 목적을 달성하는 본 발명에 따른 문자 인식 장치는
피인식 대상 문자 영상 F를 N개의 인식 대상 문자 집합(X1,X2,,,,XN)의 각 문자들과 비교하고 이들 중에서 가장 높은 유사도를 보이는 문자 X1을 인식된 문자로서 제공하는 문자 인식 장치에 있어서,
문서를 이진 영상의 형태로 변환시켜 주는 입력부;
상기 입력부에서 생성한 이진 영상으로부터 각각의 문자를 분리하여 출력하는 전처리부;
인식 대상 문자 집합 (X1,X2,,,,XN)의 각 문자쌍들에 대해 학습된 신경망들을 구비하는 신경망 기억부;
상기 신경망 기억부에서 인식 대상 문자 X1과 X2의 쌍에 상응하는 신경망을 이용하여 피인식 대상 문자 F에 보다 높은 유사도를 보이는 문자를 선택하고, 여기서 선택된 문자와 X3의 쌍에 상응하는 신경망을 이용하여 피인식 대상 문자 영상 F와 높은 유사도를 보이는 문자를 선택하는 과정을 XN을 포함하는 신경망까지 반복하여 최종 선택된 문자 X1을 인식 결과로서 출력하는 인식부를 포함함을 특징으로 한다. 이하 첨부된 도면을 참조하여 본 발명을 상세히 설명한다.
본 발명은 가장 간단한 문자 인식 문제 즉, 두 개의 문자를 식별하는 문제에 대한 고성능의 이항 인식기(binary classifier)를 개발하고, 이들 이항 인식기를 직렬 접속하는 방식으로 좀더 복잡한 문자 인식 장치를 구성하는 방법을 개시한다.
제1도는 본 발명에 따른 문자 인식 방법을 보이는 흐름도이다. 제1도에 도시된 흐름도에 있어서 F'는 피인식 대상 문자 영상을 나타내고, Xi(i=1,2,,,,N)는 모든 가능한 피인식 대상 문자의 집합(집합의 원소는 N개)을 나타낸다.
그리고, BinRec(a,b,F')함수는 주어진 문자 영상 F'가 인식 대상 문자 a와 인식 대상 문자 b의 두가지 중에서 어느 쪽과 더 유사한 지를 결정하는 함수로서 인식기로 구현된다.
이항 인식기에 의한 인식 방법에 대한 기본 개념은 H.Takahashi and T.D. Griffin, Recognition enhancement by linear tournament verification, Proc. 2nd Int. Conf. Document Analysis and Recognition, Oct. 1993. Japan, pp.585-588에 개시된 바 있다.
제1도에 있어서, 100단계는 winner를 인식 대상 문자 집합의 첫번째 원소인 X1으로 설정하고 변수 i를 2로 초기화한다.
110단계에서는 변수 i가 집합의 원소 수인 N보다 큰 가를 판별한다. 변수 i가 N보다 크면 종료하고, 그렇지 않으면 120단계로 진행한다.
120단계는 이항 인식 방법에 의해 winner와 Xi중에서 F'에 보다 큰 유사도를 보이는 것을 선택한다. 선택된 문자는 다음의 이항 인식을 위하여 winner로 대치된다.
즉, 인식 대상 문자 X1과 X2중에서 피인식 대상 문자 영상 F'와 유사도가 높은 문자를 선택하고, 여기서 선택된 문자와 X3중에서 피인식 대상 문자 영상 F'와 유사도가 높은 문자를 선택하는 가정을 XN까지 반복하여 최종 선택된 문자를 인식 결과로서 출력하는 것이다.
이러한 접근 방식에서는 개별 이항 인식기의 성능이 전체 문자 인식 장치의 성능을 좌우하게 된다. 이항 인식기는 속도가 빠르고 훈련이 용이하며 인식률이 높고 인식 대상 문자 수가 적은 경우에 효과적인 인식 기법으로 알려진 신경망 기법을 사용하여 구현한다.
제2도는 본 발명에 따른 문자 인식 장치의 구성을 보이는 블록도이다. 제2도에 도시된 장치는 입력부(20), 전처리부(22), 인식부(24), 출력부(26), 그리고 신경망 기억부(28)를 구비한다.
입력부(20)는 문자가 인쇄되어 있거나 사람에 의해 필기된 문자가 존재하는 문서를 컴퓨터가 처리할 수 있는 이진 영상(binary image)의 형태로 변환시켜 준다. 이러한 입력부(20)는 스캐너, 카메라 등의 광학장치로 구현될 수 있다.
전처리부(22)는 입력부(20)에서 생성한 이진 영상으로부터 각각의 문자를 분리하여 출력하는 것이다.
인식부(24)는 신경망 기억부(28)에 구비된 신경망을 사용하여 전처리부(22)에서 생성된 문자 패턴을 인식한다. 신경망 기억부(28)는 두가지 문자를 인식 대상으로 하여 통계적으로 훈련된 신경망의 집합으로 구성된다.
출력부(26)는 인식부(24)에서 인식한 결과를 외부에 전달하고 동시에 다음 문자 처리를 위해 제어를 전처리부(22)로 회귀시키는 것이다. 입력부(20)에서 변환한 이진 영상 내의 모든 문자에 대한 인식이 완료되면 출력부(26)가 시스템의 동작을 증지시킨다.
제2도에 도시된 장치의 동작을 상세히 설명한다. 인식부(24)는 다음과 같은 두 개의 단계로 동작한다.
전처리부(22)에서 생성한 문자 영상을 F라 하고, F의 크기를 IxJ(I,J는 각각 0보다 큰 자연수)라 하고, 전체 인식 대상 문자를 X1,X2,,,XN(여기서 N은 숫자 인식의 경우 10, 영문 인식의 경우는 대소문자를 합쳐서 52, 완성형 한글 인식의 경우 2350, 한글/영문/숫자 혼용의 경우 2412이다)라고 가정한다.
단계I에서는 IxJ크기의 문자 영상 F를 KxL의 크기를 갖는 문자 영상 F'로 정규화한다. 즉, 전처리부(22)에서 생성한 문자의 크기는 입력부(10)에서 디지털화할 당시 채택한 해상도(resolution)에 따라서 다를 수 있으므로 이들을 고정된 크기의 문자 영상으로 변환한다.
변환 시 사용된 방법은 특허 출원 번호 94-20288, 제목; 필기체 문자 인식 방법 및 장치에 상세히 개시되어 있다.
단계2에서는 단계1의 출력 F'가 N개의 인식 대상 문자 중 어느 것과 가장 유사한 지를 판별한다. 판별을 위한 방법은 제1도의 흐름도에 도시되어 있다.
여기서 이항 인식기는 신경망 기억부(28)상에 존재하는 신경망을 사용하여 구현된다. 본 발명에서 채택한 신경망의 구조는 제3도에 도시된 바와 같이 3개의 층으로 구성된 전향 신경망(Feed-forward Neural Network)이다. 여기서 입력층 노드의 개수는 KxL개이고, 출력층 노드의 개수는 2개이며, 중간층 노드의 개수는 5개이다.
특정 (Xi,Xj) 쌍에 대한 신경망을 훈련할 때는 문자 Xi와 문자 Xj에 해당하는 훈련 패턴으로부터 단계1을 통해 얻는 F'를 사용하는 데, F'가 문자 Xi로부터 얻어진 것이면 BinRec(X1,Xj,F')가 Xi를 출력하게 하고, F'가 문자 Xj로부터 얻어진 것이면 BinRec(Xi,Xj,F')가 Xj를 출력하게 하면서 신경망의 오차를 최소화시키는 오차 역전파(Error Backpropagation) 방법을 채택한다.
신경망의 특성상 동일한 F'에 대하여 BinRec(Xi,Xj,F')와 BinRec(Xj,Xi,F')가 항상 같은 결과를 출력하므로 인식 대상 문자의 수가 N개 일 때 가능한 모든 (Xi,Xj)쌍의 개수는NC2가 된다. (숫자 인식의 경우10C2= 45이고, 완성형 한글의 경우2350C2=2,760,075이다.)
따라서, 본 발명의 인식부(24)를 위해 사용되는 신경망은NC2개 이고, 이들 신경망을 사전에 훈련하고 신경망 기억부를 구성하여 단계2에서 사용한다.
본 발명의 문자 인식 장치를 구성할 때에는 장치의 실용성을 위해 다음과 같은 사항을 적용할 수도 있다.
첫째, N개의 인식 대상 문자의 순서 매김에 따라 제2도에 도시된 문자 인식 장치의 인식 성능이 달라질 수 있다. 신경망에 기반한 BinRec(Xi,Xj,F') 함수의 분별력이 100%를 보장하지 못한다면 먼저 참조하는 문자 X1이 최종 승자가 될 확률이 가장 낮고 맨 나중에 참조하는 XN이 최종 승자가 될 확률이 가장 높다.
이러한 문제를 해결하기 위해 인식할 N개의 인식 대상 문자를 입력 영상별로 일정한 유사도 기준에 의해 순서를 결정한다. 이때 사용되는 유사도는 특허 출원 94-20288 제목; 필기체 문자 인식 방법 및 장치에 개시되어 있는 대표 벡터 매칭 기법을 적용하여 계산하며, N개의 인식 대상 문자의 순서는 입력 영상 내의 문자와 유사도가 가장 낮은 문자를 X1으로 하고 입력 영상 내의 문자와 유사도가 가장 높은 문자를 XN이 되도록 함으로써 유사도가 가장 낮은 문자가 최종 승자가 될 확률을 가장 낮게 하고 유사도가 가장 높은 문자가 최종 승자가 될 확률을 가장 높게 한다.
둘째, 인식 대상 문자의 총 개수 N이 커짐에 따라 인식 속도가 저하된다. 이러한 문제를 해결하기 위해 앞서와 같은 방법으로 인색 대상 문자를 정렬한 후, 인식부(24) 내에서 유사도가 높은 몇 개의 인식 대상 문자에 대해서만 BinRec(Xi,Xj,F') 함수를 적용한다면 인식 속도를 현저히 증가시킬 수 있다.
셋째, 인식 대상 문자의 개수 N이 커짐에 따라 신경망 기억부(28)에 저장할 신경망의 개수가 기하급수적으로 증가하여 많은 기억 공간을 필요로 한다. 이러한 문제를 해결하기 위해 신경망 기억부(28)에 자주 참조되는 신경망들만을 기억하도록 한다. 자주 참조되는 신경망은 장치를 동작시키면서 통계적으로 알아 낼 수 있다. 통계에 의해 자주 사용되지 않는다고 판단되어 신경망 기억부(28)로부터 제거한 신경망이 필요한 경우가 발생하면 BinRec(Xi,Xj,F')을 사용하지 않고 인식 대상 문자의 순서에 의해 승자를 결정한다.
상술한 바와 같이 본 발명에 따른 문자 인식 방법 및 장치는 두 가지 문자만을 대상으로 하는 이항 인식기를 기반으로 인쇄체 및 필기체 문자를 모두 인식할 수 있고, 인식 장치를 구축함에 있어서 특정 응용분야에 맞도록 최적의 성능을 내도록 구현할 수 있는 융통성과 인식 대상이 달라져도 쉽게 장치의 변경이 가능한 확장성을 갖는다.
본 발명에 의한 방법으로 필기체 한글 인식 장치를 구현하여 시험 가동한 결과 90% 이상의 인식률로 초당 10자 정도를 인식함을 관측하였다.
통계에 의하면 사람이 컴퓨터를 사용하는 시간 중 65% 이상의 시간을 기존 문서의 내용을 입력하거나 신규로 발생되는 정보를 입력하는데 사용하고 있다고 한다.
따라서, 이러한 정보 입력 작업을 본 발명에 의한 장치를 이용하여 자동화할 경우 시간적, 금전적 측면에서 상당한 이익을 창출할 수 있다. 또한, 전표 입력, 문자 입력, 광파일 시스템의 자동 인데스 부여(auto indexing), 데이터 변환(image to text conversion) 등에도 응용이 가능하다.
Claims (5)
- 피인식 대상 문자 영상 F를 N개의 인식 대상 문자 집합(X1,X2,,,,XN)의 각 문자들과 비교하고 이들 중에서 가장 높은 유사도를 보이는 문자 Xi을 인식된 문자로서 제공하는 문자 인식 방법에 있어서, 인식 대상 문자 집합에 포함된 문자들과 피인식 대상 문자 영상과의 유사도를 계산하고, 계산된 유사도의 순서에 따라 인식 대상 문자 집합의 순서를 재배치하는 과정; 및 상기 재배치과정에 의해 재배치된 인식 대상 문자 X1과 X2중 피인식 대상 문자 영상 F와 유사도가 높은 문자를 선택하고, 여기서 선택된 문자와 X3중 피인식 대상 문자 F와 유사도가 높은 문자를 선택하는 과정을 XN까지 반복하여 최종 선택된 문자를 인식된 결과로서 출력하는 문자 인식 과정을 포함하는 문자 인식 방법.
- 제1항에 있어서, 상기 재배치 과정은 계산된 유사도가 소정의 임계치보다 큰 문자 영상들만을 사용하여 재배치된 문자 영상 집합을 구성하는 것을 특징으로 하는 문자 인식 방법.
- 제1항에 있어서, 인식 대상 문자의 발생 빈도를 계수하고 빈도수가 낮은 인식 대상 문자에 상응하는 이항 인식기를 신경망 기억부에서 제외시키는 취출 과정을 더 구비하는 것을 특징으로 하는 문자 인식 방법.
- 피인식 대상 문자 영상 F를 N개의 인식 대상 문자 집합 (X1,X2,...XN)의 각 문자들과 비교하고 이들 중에서 가장 높은 유사도를 보이는 문자 Xi을 인식된 문자로서 제공하는 문자 인식 장치에 있어서, 문서를 이진 영상의 형태로 변환시켜 주는 입력부; 상기 입력부에서 생성한 이진 영상으로부터 각각의 문자를 분리하여 출력하는 전처리부; 인식 대상 문자 집합 (X1,X2,,,,XN)의 각 문자쌍들에 대해 학습된 신경망들을 구비하는 신경망 기억부; 상기 신경망 기억부에서 인식 대상 문자 X1과 X2의 쌍에 상응하는 신경망을 이용하여 피인식 대상 문자 F에 보다 높은 유사도를 보이는 문자를 선택하고, 여기서 선택된 문자와 X3의 쌍에 상응하는 신경망을 이용하여 피인식 대상 문자 영상 F와 높은 유사도를 보이는 문자를 선택하는 과정을 XN을 포함하는 신경망까지 반복하여 최종 선택된 문자 Xi을 인식 결과로서 출력하는 인식부를 포함하는 문자 인식 장치.
- 제4항에 있어서, 상기 신경망 기억부에 저장된 신경망은 입력 노드의 수가 KxL이고, 출력층의 노드가 2이며 중간층의 노드가 5개인 전향 신경망임을 특징으로 하는 문자 인식 장치.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019950069752A KR100200871B1 (ko) | 1995-12-30 | 1995-12-30 | 이항 인식에 기반한 문자 인식 방법 및 장치 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019950069752A KR100200871B1 (ko) | 1995-12-30 | 1995-12-30 | 이항 인식에 기반한 문자 인식 방법 및 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR970049827A KR970049827A (ko) | 1997-07-29 |
KR100200871B1 true KR100200871B1 (ko) | 1999-06-15 |
Family
ID=19448578
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1019950069752A KR100200871B1 (ko) | 1995-12-30 | 1995-12-30 | 이항 인식에 기반한 문자 인식 방법 및 장치 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100200871B1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200055840A (ko) * | 2018-11-12 | 2020-05-22 | 전자부품연구원 | 선별적 딥러닝을 이용한 문자 인식 장치 및 방법 |
-
1995
- 1995-12-30 KR KR1019950069752A patent/KR100200871B1/ko not_active IP Right Cessation
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200055840A (ko) * | 2018-11-12 | 2020-05-22 | 전자부품연구원 | 선별적 딥러닝을 이용한 문자 인식 장치 및 방법 |
KR102331982B1 (ko) * | 2018-11-12 | 2021-11-26 | 한국전자기술연구원 | 선별적 딥러닝을 이용한 문자 인식 장치 및 방법 |
Also Published As
Publication number | Publication date |
---|---|
KR970049827A (ko) | 1997-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Bottou et al. | Global training of document processing systems using graph transformer networks | |
CN102982349B (zh) | 一种图像识别方法及装置 | |
US5825919A (en) | Technique for generating bounding boxes for word spotting in bitmap images | |
US5438630A (en) | Word spotting in bitmap images using word bounding boxes and hidden Markov models | |
US5745600A (en) | Word spotting in bitmap images using text line bounding boxes and hidden Markov models | |
Perwej et al. | Neural networks for handwritten English alphabet recognition | |
Kim et al. | Handwritten phrase recognition as applied to street name images | |
US6370269B1 (en) | Optical character recognition of handwritten or cursive text in multiple languages | |
US5440651A (en) | Pattern recognition neural network | |
Burges et al. | Off line recognition of handwritten postal words using neural networks | |
EP0032913B1 (en) | Multi-font character recognition technique | |
Badry et al. | Quranic script optical text recognition using deep learning in IoT systems | |
Lakshmi et al. | An optical character recognition system for printed Telugu text | |
Kunte et al. | An OCR system for printed Kannada text using two-stage Multi-network classification approach employing Wavelet features | |
Ali Nur et al. | Handwritten Geez Digit Recognition Using Deep Learning | |
Zhang et al. | Hybrid feature extraction and feature selection for improving recognition accuracy of handwritten numerals | |
Cao et al. | Handwritten numeral recognition with multiple features and multistage classifiers | |
KR100200871B1 (ko) | 이항 인식에 기반한 문자 인식 방법 및 장치 | |
JPH07160822A (ja) | パターン認識方法 | |
Sharma et al. | A deep cnn model for student learning pedagogy detection data collection using ocr | |
Procter et al. | Cursive handwriting recognition using hidden Markov models and a lexicon-driven level building algorithm | |
US5940533A (en) | Method for analyzing cursive writing | |
Kunte et al. | A bilingual machine-interface OCR for printed Kannada and English text employing wavelet features | |
Amin | OCR of Arabic texts | |
Elaiwat et al. | Arabic word recognition system for historical documents using multiscale representation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20080228 Year of fee payment: 10 |
|
LAPS | Lapse due to unpaid annual fee |