KR950011065B1 - A character recognition method - Google Patents

A character recognition method Download PDF

Info

Publication number
KR950011065B1
KR950011065B1 KR1019920025159A KR920025159A KR950011065B1 KR 950011065 B1 KR950011065 B1 KR 950011065B1 KR 1019920025159 A KR1019920025159 A KR 1019920025159A KR 920025159 A KR920025159 A KR 920025159A KR 950011065 B1 KR950011065 B1 KR 950011065B1
Authority
KR
South Korea
Prior art keywords
character
stroke
image
extracted
candidate
Prior art date
Application number
KR1019920025159A
Other languages
Korean (ko)
Other versions
KR940015911A (en
Inventor
정찬의
Original Assignee
엘지전자주식회사
이헌조
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자주식회사, 이헌조 filed Critical 엘지전자주식회사
Priority to KR1019920025159A priority Critical patent/KR950011065B1/en
Publication of KR940015911A publication Critical patent/KR940015911A/en
Application granted granted Critical
Publication of KR950011065B1 publication Critical patent/KR950011065B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Character Discrimination (AREA)

Abstract

The method comprises the steps of obtaining the size of an inputted individual letter; performing a structure of the letter according to the size; extracting elements of the letter; obtaining the size of the extracted letter; comparing the size of the extracted letter with a reference value; storing the compared value in a memory; and recognizing the letter by comparing the extracted letter value with the input letter value.

Description

문자 인식방법Character recognition method

제 1 도는 일반적인 LAG기법을 설명하는 도면.1 is a diagram illustrating a general LAG technique.

제 2(a) 도-제 2(e) 도는 종래의 문자 인식방법에 의하여 판단되는 스트로크 및 자획추출을 예로들어 보인 설명도.2 (a) to 2 (e) are explanatory diagrams showing strokes and stroke extractions determined by a conventional character recognition method.

제 3(a) 도, 제 3(b) 도는 종래의 문자 인식방법에서 횡방향 스트로크와 종방향/경사방향 스트로크에 대한 영역을 보인 설명도.3 (a) and 3 (b) are explanatory views showing regions for the lateral stroke and the longitudinal / inclined direction stroke in the conventional character recognition method.

제 4 도는 본 발명의 문자인식 전체동작을 보인 흐름도.4 is a flowchart showing the overall operation of the character recognition of the present invention.

제 5(a) 도-제 5(g) 도는 본 발명에 의하여 추출되는 자획성분을 예로들어 보인 설명도.5 (a) to 5 (g) are explanatory diagrams showing an example of a trace component extracted by the present invention.

제 6 도는 본 발명에서 정의되는 방향코드를 보인 도면.6 is a view showing a direction code defined in the present invention.

제 7 도는 본 발명의 문자 인식방법이 적용되는 인식장치의 전체구성을 보인 블록도.7 is a block diagram showing the overall configuration of a recognition device to which the character recognition method of the present invention is applied.

제 8 도는 제 7 도의 DSP부의 후보문자 분류기의 구성을 보인 상세블록도.8 is a detailed block diagram showing the configuration of a candidate character classifier in the DSP section of FIG.

제 9 도는 본 발명에 의하여 후보문자를 분류하는 과정을 보인 흐름도.9 is a flowchart illustrating a process of classifying candidate characters according to the present invention.

제10(a)도, 제10(b)도는 본 발명에서 사용되는 마스크를 예로들어 보인 설명도.10 (a) and 10 (b) are explanatory views showing an example of a mask used in the present invention.

제11(a)도-제11(i)도는 본 발명에서 추출되는 자획성분을 예로들어 보인 설명도.11 (a) to 11 (i) are explanatory views showing examples of the trace components extracted in the present invention.

제12(a)도-제12(e)도는 본 발명에서 사용되는 마스크 및 특징 영역의 구획을 보인 설명도.12 (a) to 12 (e) are explanatory diagrams showing the division of a mask and a feature region used in the present invention.

* 도면의 주요부분에 대한 부호의 설명* Explanation of symbols for main parts of the drawings

11 : 호스트 컴퓨터 12, 13 : 제 1 및 제 2DSP부11: host computer 12, 13: first and second DSP unit

14, 15 : 호스트 인터페이스부 16, 17 : 로칼 메모리14, 15: host interface unit 16, 17: local memory

18 : 제어로직부 19 : 중재로직부18: Control Logistics Division 19: Mediation Logistics Division

20 : 스캔너 21 : 스캔너 인터페이스부20: Scanner 21: Scanner Interface

22 : 글로발 메모리 23 : 메모리 콘트롤러22: global memory 23: memory controller

31 : 콘트롤러 32 : 스트로크 추출부31: controller 32: stroke extraction unit

33 : 스트로크 계산부 34 : 기준 데이타부33: stroke calculation section 34: reference data section

35 : 어드레스 디코더 36 : 후보문자등록 레지스터35: address decoder 36: candidate character registration register

본 발명은 소정의 한글, 영문, 한자 및 숫자등의 각종 문자를 인식하기 위한 특징 추출단계 및 인식단계에서 후보문자를 선택하고 인식하는 문자 인사장치 및 인식방법에 관한 것으로, 특히 인식한 문자를 세선화하지 않고, 문자로부터 경사획, 수직획 및 수평획을 추출한 후 이들 추출한 획의 크기를 구하고 후보문자를 선택하여 문자를 인식하는 문자 인식방법에 관한 것이다.The present invention relates to a character greeting device and a recognition method for selecting and recognizing a candidate character in a feature extraction step and a recognition step for recognizing various characters such as predetermined Hangul, English, Chinese characters and numbers. The present invention relates to a character recognition method for recognizing a character by extracting oblique strokes, vertical strokes, and horizontal strokes from a character without line drawing, and then obtaining the size of the extracted strokes and selecting candidate characters.

일반적으로 문자의 인식을 구현함에 있어서, 문자의 자획정보를 이용한 인식방법을 설계하기 위하여 문자의 자획의 특징을 추출해야 되는 것으로 문자인식의 접근방식에 따라서 통계적 방식과 구조적 방식으로 대별된다.In general, in implementing the recognition of characters, in order to design the recognition method using the character's stroke information, it is necessary to extract the characteristics of the character's stroke, which is roughly classified into statistical and structural methods according to the character recognition approach.

통계적 방식에 의한 문자 인식방법은 통상적으로 문자의 자소를 구성하는 특성이 각기 상이한 자획성분을 추출하지 않고, 메쉬(mesh)라고 불리우는 격자모양의 방(window)을 인식한 문자에 씌우고, 각각의 메쉬내에 있는 문자의 흑화소의 수를 계산하여 그 메쉬의 특징값으로 지역하며, 각각의 메쉬의 특징값을 그 문자의 특징량으로 하여 기준데이타와 비교 및 유사도가 가장 큰 문자를 입력문자로 인식하는 것이다.In the character recognition method using a statistical method, a character which constitutes a character of a character is usually extracted from a character that recognizes a grid-shaped window called a mesh and does not extract different stroke components. It calculates the number of black pixels of the characters in the area and localizes it as the feature value of the mesh, and recognizes the character with the largest similarity and comparison with the reference data by using the feature value of each mesh as the feature amount of the letter. .

구조적 방식에 의한 인식방법은 통상적으로 문자의 자획정보를 이용하여 인식하는 것으로서 문자의 자획정보를 추출하는 방법으로는 인식할 입력문자를 세선화하고, 세선화환 영상에서 미리 정의된 방향코드를 추출하여 특정방향의 방향 성분만을 선택하는 방법을 사용하고 있다.The recognition method by the structural method is generally recognized by using the stroke information of the character. The method of extracting the stroke information of the character is thinning the input character to be recognized and extracting a predefined direction code from the thin line wreath image. The method of selecting only the aromatic component of a specific direction is used.

이러한 일반적인 방법을 이용하지 않고 자획을 추출하는 방법 즉, 입력문자의 세선화 과정을 수행함이 없이 자획을 추출하는 방법으로는 런 랭스(run-length) 기법과, LAG(Line Adjacenct Graph) 기법을 이용한 런 랭스/LAG기법이 있다.Extracting the stroke without using the general method, that is, extracting the stroke without performing the thinning process of the input character, using the run-length technique and the line adjacenct graph (LAG) technique There is a run reims / LAG technique.

이 런 랭스/LAG기법은 널리 알려진 런 랭스 기법을 이용하는 것으로서 영상을 주사하는 동안에 연속적으로 나타나는 흑화소를 런(run)이라고 하고, 런의 크기 즉, 흑화소의 수를 런 랭스라고 한다.This run length / LAG technique uses a well-known run length technique. A black pixel that appears continuously while scanning an image is called a run, and the size of the run, that is, the number of black pixels is called a run length.

LAG기법은 런 랭스 기법에 의하여 추출된 수평선상의 각각의 런들에 대하여 이들의 수평선상에서 상하로 연결될 경우에 이 런들을 연결된 하나의 그룹(group)으로 처리하는 것으로서 예를들면 제 1 도에 도시된 바와같이 2개의 런(1)(2)이 이웃하고 있는 수평선상에 있을 경우에 Ax1≤Bx2의 조건식과 Bx1≤Ax2의 조건식을 만족하는지 판단하여 두 조건식을 모두 만족할 경우 두 런(1)(2)이 서로 연결된 것으로 판단한다.The LAG technique treats each run on a horizontal line extracted by the run length technique when they are connected up and down on their horizontal line. For example, as shown in FIG. Similarly, when two runs (1) and (2) are on a neighboring horizontal line, it is determined whether the conditional expression of A x 1≤B x 2 and the conditional expression of B x 1≤A x 2 are satisfied. It is determined that the two runs 1 and 2 are connected to each other.

이러한 런 랭스/LAG기법을 이용하여 문자의 특정방향의 자획을 추출하고, 추출한 자획으로 문자를 인식하는 문자 인식방법이 대한민국 특허출원 제86-597호(공고번호 제91-5385호, 명칭 ; 스트로크 근사직선 추출에 의한 문자 인식방법)에 알려진 바 있다.The character recognition method of extracting a stroke in a specific direction of the character using the run length / LAG technique and recognizing the character by the extracted stroke is Korean Patent Application No. 86-597 (Notice No. 91-5385, Name; Stroke) Character recognition method using approximate straight line extraction).

이 종래의 기술에 의하면, 문자의 영상을 주사하는 도중에 제 2(a) 도에 도시된 바와같이 횡방향으로 일정갯수 이상으로 연결된 화소가 2주사라인 이상에 걸쳐서 종방향으로 연결된 집합체를 형성하고 있는 것이 검출될 경우에 그 화소의 집합체를 횡방향 스트로크를 판단하고, 제 2(b) 도에 도시된 바와같이, 횡방향으로 일정갯수보다 적은 갯수만으로 연결된 화소가 종방향으로 신장하는 집합체를 형성하고 있는 것이 검출될 경우에 그 화소의 집합체를 종방향 스트로크로 판단하며, 제 2(c) 도 및 제 2(d) 도에 도시된 바와같이 횡방향으로 일정갯수보다 적은 갯수만으로 연결된 화소가 좌측하강 및 우측하강 경사방향으로 신장하는 집합체를 형성하고 있는 것이 검출될 경우에 그 화소의 집합체를 좌측하강 경사방향 스트로크 및 우측하강 경사방향 스트로크로 판단하여 특정방향의 자획을 추출하는 것으로 추출한 각각의 방향별 추출자획을 예로들어 보이면 제 2(e) 도에 도시된 바와같다.According to this conventional technique, during scanning of an image of a character, as shown in FIG. 2 (a), pixels connected in a predetermined number or more in the lateral direction form an aggregate connected in the longitudinal direction over two or more scanning lines. Is detected, the lateral stroke is determined in the aggregate of the pixels, and as shown in FIG. 2 (b), the aggregated pixels are formed to extend in the longitudinal direction with only a smaller number than the predetermined number in the lateral direction. When it is detected that the aggregate of the pixels is determined as the longitudinal stroke, as shown in Figs. 2 (c) and 2 (d), the pixels connected with only fewer than a certain number in the lateral direction fall left. And when it is detected that the aggregate extends in the right downward slope direction, the aggregate of the pixels is moved to the left downward slope direction stroke and the right downward slope direction string. Chroman determined by visible instance of each extracted character stroke direction by the extracted by the extracting character stroke of a specific example of the direction the same as claim 2 (e) shown in Fig.

그리고 제 3(a) 도에 도시된 바와같은 횡방향 스트로크에 대한 영역과, 제 3(b) 도에 도시된 바와 같은 종방향/경사방향 스트로크에 대한 영역의 분할된 각각의 영역에서 상기의 각각의 방향별로 추출한 스트로크의 수를 산출하여 후보문자를 선택하고, 문자를 식별하였다. 그러나 상기와 같이 스트로크의 수를 산출하여 후보문자를 선택하는 종래의 문자 인식방법을 한글과 같이 모아쓰기를 하여 두개 이상의 자소가 서로 연결되는 경우가 빈번하게 발생되는 문자를 인식할 경우에 후보문자의 수가 증가하게 되고, 이로 인하여 문자를 인식하는데 많은 시간이 소요됨은 물론 문자의 인식률이 저하되는 등의 문제점이 있었다.And in each of the divided regions of the region for the lateral stroke as shown in FIG. 3 (a) and the region for the longitudinal / inclined stroke as shown in FIG. 3 (b). By selecting the number of strokes extracted for each direction of the candidate, the candidate character was selected, and the character was identified. However, in the case of recognizing a character in which two or more phonemes are frequently connected to each other by using a conventional character recognition method of calculating a number of strokes and selecting candidate characters as in Korean, the character of the candidate character is frequently recognized. The number is increased, which causes a lot of time to recognize the character as well as the recognition rate of the character is lowered.

본 발명은 상기와 같은 종래의 제반 문제점들을 해결하기 위하여 창안한 것으로서, 추출하고자 하는 자획에 대응하는 특정방향으로의 영상의 밝기변화를 검출하여 원하는 방향의 자획을 추출하는 것으로 경사획을 추출할 수 있는 특정한 3방향으로의 밝기변화가 검출된 영상들을 논리적으로 조합하여 빗침과 내림의 두 경사획을 추출하고, 각각의 영상의 수직 및 수평 방향으로의 밝기가 검출된 영상으로부터 상기의 추출한 빗침과 내림의 두 경사획의 영상을 논리적으로 처리하여 각각의 획을 추출하며, 문자의 영역을 8개의 특정영역으로 나누고, 각각의 특징 영역에서 스트로크를 선택하여 이들의 길이를 정규화한 후 절대값(magnitude)을 계산하여 이 절대값으로 후보문자를 선택하며, 문자의 인식을 위하여 2개의 특정량을 사용하고, 하나의 특징량에 의해 선택된 후보문자에 대하여 다른 하나의 특징량으로 인식결과를 검증함과 아울러 인식의 신뢰도를 표시하는 문자 인식방법을 제공하는데 그 목적이 있는 것으로 이를 첨부된 제 4 도 내지 제12도의 도면을 참조하여 상세히 설명한다.The present invention was devised to solve the above-mentioned problems, and it is possible to extract gradient strokes by extracting the traces of a desired direction by detecting the brightness change of the image in a specific direction corresponding to the traces to be extracted. Two gradient strokes of combing and down are extracted by logically combining the images of which brightness change in a specific three direction is detected, and the extracted comb and down from the image of detecting brightness in the vertical and horizontal directions of each image. Logically process the images of the two oblique strokes in to extract the respective strokes, divide the character area into eight specific areas, select the stroke in each feature area, normalize their length, and then measure the absolute value. Select the candidate character by this absolute value, use two specific quantities to recognize the characters, The object of the present invention is to provide a character recognition method for verifying a recognition result with another feature amount and displaying reliability of the candidate character selected by referring to FIGS. 4 to 12. It explains in detail.

제 4 도는 본 발명에 의하여 문자를 인식하는 전체동작을 보인 흐름도이다. 이에 도시된 바와같이 입력되는 문자열에서 예를들면 제 5(a) 도에 도시된 바와같이 인식할 각각의 개별문자를 절출하여 문자의 크기를 구하고, 절출한 문자에 대하여 제 5(b) 도에 도시된 바와같이 정규화(normalization)하며, 정규화한 문자에 대하여 제 5(c) 도-제 5(g)도에 도시된 바와같이 자획 성분을 특징으로 추출한다.4 is a flowchart showing the overall operation of recognizing characters according to the present invention. As shown in Fig. 5 (a), the individual characters to be recognized are cut out to obtain the size of the characters as shown in Fig. 5 (a), and the cutout characters are shown in Fig. 5 (b). As shown in FIG. 5, normalization is performed, and the trace component is extracted as a feature of the normalized characters as shown in FIGS. 5 (c) and 5 (g).

즉, 본 발명에서는 자획의 방향을 제 6 도에 도시된 바와같이, N, NE, E, SE, S, SW, W 및 NW의 8개의 방향으로 구분하고, 자획성분을 특징으로 추출하기 위하여 제 5(c) 도-제 5(e) 도에 도시된 바와같이 SW방향, S방향 및 SE방향의 방향별 획성분을 추출하며, 이들 추출한 방향별 획성분을 논리적으로 결합하여 제 5(f) 도 및 제 5(g) 도에 도시된 바와같이 빗침획과 내림획의 두개의 경사획을 추출하며, 수직방향으로의 영상의 밝기변화를 검출하여 만들어진 영상에 대하여 상기의 추출한 빗침획 및 내림획의 영상을 논리적으로 적용하여 수평획을 추출하고, 수평방향으로의 영상의 밝기변화를 검출하여 만들어진 영상에 대하여 빗침획 및 내림획의 영상을 논리적으로 적용하여 수직획을 추출한다.That is, in the present invention, the direction of the stroke is divided into eight directions of N, NE, E, SE, S, SW, W, and NW, as shown in FIG. 5 (c) As shown in Fig. 5 (e), the extraction of the stroke components in the directions of the SW direction, the S direction, and the SE direction is performed, and logically combining these extracted direction components, the fifth (f) As shown in FIG. 5 and FIG. 5 (g), two oblique strokes of the incidence and the down stroke are extracted, and the extracted incidence and the down stroke are extracted for the image generated by detecting the brightness change of the image in the vertical direction. The horizontal stroke is extracted by logically applying the image, and the vertical stroke is extracted by logically applying the image of the rain and down strokes to the image made by detecting the brightness change of the image in the horizontal direction.

이와같이 하여 각각의 방향별 획성분이 추출되면, 분할된 문자영역내에서 추출된 방향별 자획의 크기를 산출한 후 기준데이타와 매칭 및 비교하여 후보문자를 선택하고, 이 후보문자들로부터 추출한 특징량과 입력문자의 특징량을 비교하여 문자를 인식하고, 결과를 저장하게 된다.In this way, when the stroke components for each direction are extracted, the size of the strokes for each direction extracted in the segmented text area is calculated, the candidate characters are selected by matching and comparing with the reference data, and the feature quantities extracted from these candidate characters. Compares the feature quantities of the input character with the character to recognize the character and save the result.

한편, 제 7 도는 본 발명의 문자 인식방법이 적용된은 인식장치의 전체구성을 보인 블록도로서 이에 도시된 바와같이, 문자인식의 전체동작을 제어하는 호스트 컴퓨터(11)와, 상호간에 독립적으로 동작하면서 문서의 영역분할 및 개별문자의 절출과정과 문자의 인식과정을 선택적으로 수행하는 제1 및 제2DSP(Digital Singal Processing)부(12)(13)와, 상기 호스트 컴퓨터(11)와 제1 및 제2DSP부(12)(13)간의 신호를 인터페이스하는 호스트 인터페이스부(14)(15)와, 상기 제1 및 제2DSP부(12)(13)에 종속되어 데이타를 저장 및 출력하는 로칼 메모리(16)(17)와, 상기 제1 및 제2DSP부(12)(13)가 문서의 영역분할 및 개별문자의 절출과정과 문자의 인식과정을 선택적으로 수행하게 제어하는 제어로직부(18) 및 중재로직부(19)와, 문서의 영상을 입력하는 스캔너(20)와, 상기 스캔너(20) 및 제1DSP부(12)의 사이의 신호를 인터페이스하는 스캔너 인터페이스부(21)와, 입력된 문서영상을 저장하는 글로발(global) 메모리(22)와, 상기 글로발 메모리(22)의 동작을 제어하는 메모리 콘트롤러(23)로 구성하였다.On the other hand, Figure 7 is a block diagram showing the overall configuration of the recognition device to which the character recognition method of the present invention is applied, as shown in the figure, the host computer 11 for controlling the overall operation of the character recognition, and operates independently of each other First and second DSP (Dingal Singal Processing) units 12 and 13 for selectively dividing a document, dividing individual characters and recognizing characters, and the host computer 11 and the first and second A host memory 14 and 15 for interfacing signals between the second DSP units 12 and 13, and a local memory dependent on the first and second DSP units 12 and 13 to store and output data; 16) (17), and the control logic unit 18 for controlling the first and second DSP units 12 and 13 to selectively perform the area division of documents, the process of cutting out individual characters, and the process of recognizing characters. The arbitration logic unit 19, a scanner 20 for inputting an image of a document, the scanner 20, and the first D Scanner interface unit 21 for interfacing signals between the SP units 12, a global memory 22 for storing the input document image, and a memory for controlling the operation of the global memory 22. It consisted of the controller 23.

이와같이 구성된 문자 인식장치는 스캔너(20)로부터 스캔너 인터페이스부(21)를 통해 입력되는 문서의 영상이 글로발 메모리(22)에 저장되고, 제1DSP부(12) 또는 제2DSP부(13)에 의해 문자열 분리 및 개별문자의 절출이 수행되고, 그 결과를 글로발 메모리(22)의 특정 영역에 저장하게 된다.In the character recognition apparatus configured as described above, an image of a document input from the scanner 20 through the scanner interface unit 21 is stored in the global memory 22 and is stored in the first DSP unit 12 or the second DSP unit 13. By this, character string separation and individual character extraction are performed, and the result is stored in a specific area of the global memory 22.

여기서, 제1 및 제2DSP부(12)(13)는 제어로직부(18) 및 중재로직부(19)에 의해 조정되어 동시에 서로 다른 동작을 수행하는 것으로 예를들면 제1DSP부(12)가 문서의 영역분할과 개별문자의 절출과정을 수행할 경우에 제2DSP부(13)는 문자의 인식과정을 수행하게 되고, 또는 제1 및 제2DSP부(12)(13)가 상기의 동작을 서로 반대로 수행할 수도 있다.Here, the first and second DSP units 12 and 13 are adjusted by the control logic unit 18 and the arbitration logic unit 19 to perform different operations at the same time. For example, the first DSP unit 12 When performing the area division of the document and the process of cutting out the individual characters, the second DSP unit 13 performs the character recognition process, or the first and second DSP units 12 and 13 perform the above operations. You can also do the reverse.

그러므로 제1DSP부(12)가 문자의 인식과정을 수행하도록 하는 기능이 부여될 경우에 제2DSP부(13)는 글로발 메모리(22)의 특정 영역에서 개별문자의 영상정보를 얻은 후 그 영역에 해당하는 글로발(22)의 영상 데이타를 로칼 메모리(17)로 옮겨와 영상데이타의 특징추출 및 후보 분류를 수행하게 되고, 최종적으로 인식된 결과는 로칼 메모리(17)의 인식 결과부에 저장하게 된다.Therefore, when the function of allowing the first DSP unit 12 to perform the character recognition process is granted, the second DSP unit 13 obtains the image information of the individual character from the specific region of the global memory 22 and then corresponds to the region. The image data of the globular 22 is transferred to the local memory 17 to perform feature extraction and candidate classification of the image data, and the finally recognized result is stored in the recognition result unit of the local memory 17.

그리고 제 8 도는 제 7 도의 제1 및 제2DSP부(12)(13)에서 후보문자를 분류하는 후보문자 분류기의 구성을 보인 상세 블록도로서 이에 도시된 바와같이, 후보문자 분류의 전체동작을 제어하는 콘트롤러(31)와, 각각의 특징 영역별 스트로크 추출기(FS1-FS8)에 의해 해당영역에서와 스트로크를 선택하는 스트로크 추출부(32)와, 상기 스트로크 추출부(32)에서 선택한 스트로크의 길이를 정규화하여 스트로크의 절대값을 계산하는 스트로크 계산부(33)와, 기준데이타를 저장 및 상기 스트로크 계산부(33)로 출력하는 기준데이타부(34)와, 상기 스트로크 계산부(33)가 출력하는 어드레스 신호를 디코딩하는 어드레스 디코더(35)와, 상기 스트로크 계산부(33)가 출력하는 후보문자를 상기 어드레스 디코더(35)의 출력신호에 따라 저장하는 후모문자등록 레지스터(36)로 구성하였다.FIG. 8 is a detailed block diagram showing the configuration of the candidate character classifier for classifying candidate characters in the first and second DSP units 12 and 13 of FIG. 7, and as shown therein, the overall operation of candidate character classification is controlled. The controller 31, the stroke extractor 32 for selecting the stroke in the corresponding region by the stroke extractors FS1-FS8 for each feature region, and the length of the stroke selected by the stroke extractor 32. A stroke calculation unit 33 for normalizing the absolute value of the stroke, a reference data unit 34 for storing and outputting the reference data to the stroke calculation unit 33, and outputting the stroke calculation unit 33 An address decoder 35 for decoding an address signal and a trailing-character registration register 36 for storing candidate characters output by the stroke calculator 33 in accordance with the output signal of the address decoder 35. The.

이와같이 구성된 후보문자 분류기는 제 9 도에 도시된 흐름도에 따라서 동작하는 것으로서 콘트롤러(31)의 제어에 따라 스트로크 추출부(32)는 각각의 특징 영역별로 분류된 스트로크 추출기(FS1-FS8)에 의해 해당영역의 스트로크를 선택하고, 선택한 스트로크들은 스트로크 계산부(33)에서 길이 정규화 과정으로 스트로크 절대값이 계산되며, 계산된 스트로크 절대값을 기준데이타부(34)에서 해당되는 특징 영역에 따라 출력되는 기준데이타와 비교 및 계산하여 입력문자가 속하게 될 종류(class)를 분류하며, 그 결과는 어드레스 디코더(35)의 출력신호에 따라 후보문자등록 레지스터(36)에 저장한다.The candidate character classifier configured as described above operates according to the flowchart shown in FIG. 9, and under the control of the controller 31, the stroke extractor 32 corresponds to the stroke extractors FS1-FS8 classified for each feature region. The stroke of the area is selected, and the selected strokes are calculated by the stroke calculation unit 33 in the length normalization process, and the absolute value of the stroke is calculated, and the reference is output based on the corresponding characteristic area in the reference data unit 34 based on the calculated stroke absolute value. The class to which the input character belongs is classified by comparison and calculation with data, and the result is stored in the candidate character registration register 36 according to the output signal of the address decoder 35.

이러한 하드웨어의 구성을 이용하는 본 발명의 문자 인식방법을 상세히 설명한다.The character recognition method of the present invention using such a hardware configuration will be described in detail.

먼저, 본 발명의 자획 추출방법에 이용되고 있는 기본원리를 설명하면, 본 발명에서의 자획 추출방법은 추출하고자 하는 자획에 대응하는 특정 방향으로의 영상의 밝기변화를 검출함으로써 원하는 방향의 자획을 추출한다.First, the basic principle used in the stroke extraction method of the present invention will be described. In the present invention, the stroke extraction method extracts a stroke in a desired direction by detecting a change in brightness of an image in a specific direction corresponding to the stroke to be extracted. do.

공간영역(spatial domain)에서의 영상 처리방법은 다음의 식(I)로 표현할 수 있다.An image processing method in a spatial domain can be expressed by the following equation (I).

g(X, Y)-T{f(X, Y)} (I)g (X, Y) -T {f (X, Y)} (I)

여기서, f(X, Y)는 입력영상이고, T는 입력영상에 화소단위로 적용도는 트랜스폼(transform) 또는 매핑(mapping) 등의 변환을 행하는 연산자(operator)로 정의되는 것으로 입력영상에서 미리 정의된 주변화소들의 값에 의해 결졍되며, g(X, Y)는 입력영상 f(X, Y)에 소정의 연산 또는 처리(operation) T가 가해져 얻어진 영상을 나타낸다.Here, f (X, Y) is an input image, and T is defined as an operator that converts a transform or mapping such as a pixel unit to an input image. Determined by a value of a predefined peripheral pixel, g (X, Y) represents an image obtained by applying a predetermined operation or operation T to the input image f (X, Y).

이 접근방식에서는 2차원 배열(array)로 표현되는 템플리트(template), 필터(filter)및 윈도우 등의 마스크(mask)의 이용을 근본으로 하고 있는 것으로 마스크를 구성하고 있는 배열의 각각의 원소들은 영상에서 주어진 특징을 검출하기 위하여 미리 정의된 계수(coefficient 또는 weight)를 갖게 된다.This approach is based on the use of masks, such as templates, filters, and windows, represented as two-dimensional arrays. Each element of the array that makes up the mask is an image. We have a predefined coefficient (coefficient or weight) to detect a given feature in.

제10(a)도는 본 발명에서 사용하는 3×3마스크의 예를 보인 것으로서 여기서 w1-w9는 마스크의 각각의 계수를 나타내고, 제10(b)도는 이 마스크가 입력영상에 적용될 때 대응되는 화소를 나타낸 것이다.FIG. 10 (a) shows an example of a 3x3 mask used in the present invention, where w 1 -w 9 represent respective coefficients of the mask, and FIG. 10 (b) corresponds to when the mask is applied to the input image. The pixel to be shown is shown.

그러므로 상기한 마스크를 이용하여 얻을 수 있는 영상 g(X, Y)는 다음의 수식으로 일반화될 수 있다.Therefore, the image g (X, Y) obtained by using the mask may be generalized by the following equation.

g(x, y)=T[f(x, y)]g (x, y) = T [f (x, y)]

=w1f(x-1, y-1)+w2f(x-1, y)+w3f(x-1, y+1), w4f(x, y-1)+w5f(x, y)+w6f(x, y+1)+w7f(x+1, y-1)+w8f(x+1, y), w9f(x+1, y+1)= w 1 f (x-1, y-1) + w 2 f (x-1, y) + w 3 f (x-1, y + 1), w 4 f (x, y-1) + w 5 f (x, y) + w 6 f (x, y + 1) + w 7 f (x + 1, y-1) + w 8 f (x + 1, y), w 9 f (x + 1 , y + 1)

이 계수와 대응하는 화소값을 컬럼 벡터(columm vector)로 표현하면,If the pixel value corresponding to this coefficient is expressed as a column vector,

와 같고 이 두 벡터를 내적(inner product)하면,Is equal to the inner product of these two vectors,

WTX=w1x1+w2x2+…+w9x9 W T X = w 1 x 1 + w 2 x 2 +... + w 9 x 9

를 얻을 수 있다. 즉 식(I)은 다음의 식(II)로 표현할 수 있다.Can be obtained. That is, Formula (I) can be expressed by the following Formula (II).

G(x, y)G (x, y)

=T[f(x, y)]= T [f (x, y)]

=WTX (II)= W T X (II)

여기서, x2, x2, …,x9는 마스크내의 계수 w의 좌표에 대응하는 화소의 값을 나타내고, WT는 W의 전치(transpose)를 나타낸다.Where x 2 , x 2 ,... , x 9 represents the value of the pixel corresponding to the coordinate of the coefficient w in the mask, and W T represents the transpose of W.

본 발명에서는 상기의 식(II)를 특정 방향별로 영상의 밝기변화를 검출하기 위하여 다음의 식을 정의하고, 그에 적합한 벡터계수를 설정하여 원하는 방향의 자획성분을 추출한다.In the present invention, the following formula is defined in order to detect the brightness change of the image for each specific direction by the above formula (II), and the appropriate vector coefficient is set to extract the trace component in the desired direction.

Gh=WTh XGh = W T h X

Gv=WTv XGv = W T v X

Gt=WTt XGt = W T t X

여기서 Gh, Gv 및 Gt는 각기 수평, 수직 및 경사방향의 그래디인트(gradient)이고, WTh, WTv 및 WTt는 각 방향에 대응하는 계수로 이루어진 벡터이다. 경사방향의 획 추출을 위해서 3방향으로의 방향성 변화량 검출을 하게 되는데 이때 3방향을 각각 W, SW, SE라 하며, 이는Where Gh, Gv and Gt are gradients in the horizontal, vertical and oblique directions, respectively, and W T h, W T v and W T t are vectors of coefficients corresponding to each direction. In order to extract the stroke in the inclined direction, the direction change in three directions is detected. In this case, the three directions are referred to as W, SW, and SE, respectively.

Gt=WTs X (III)Gt = W T s X (III)

=WTsw X (IV)= W T sw X (IV)

=WTse X (V)= W T se X (V)

로 정의하고, 이때의 각각의 계수 벡터는Where each coefficient vector is

WTs=w4+w6+w7+w8+w9-2w5-(w1+w2+w3)W T s = w 4 + w 6 + w 7 + w 8 + w 9 -2w 5- (w 1 + w 2 + w 3 )

WTsw=w1+w4+w7+w8+w9-2w5-(w2+w3+w6)W T sw = w 1 + w 4 + w 7 + w 8 + w 9 -2w 5- (w 2 + w 3 + w 6 )

WTse=w3+w6+w7+w8+w9-2w5-(w1+w2+w4)W T se = w 3 + w 6 + w 7 + w 8 + w 9 -2w 5- (w 1 + w 2 + w 4 )

로 지정한다.Specify with.

수평/수직획 추출을 위한 벡터는 각각Vectors for horizontal and vertical stroke extraction are

Gh=WTh X (VI)Gh = W T h X (VI)

=Wtv X (VII)= W t v X (VII)

로 정의하고 계수 벡터는And the coefficient vector is

WTh=w5-w2 W T h = w 5 -w 2

WTv=w5-w4 W T v = w 5 -w 4

로 지정한다.Specify with.

다음에는 각각의 자획별 추출과정을 설명한다.The following describes the extraction process for each stroke.

먼저, 획성분의 추출식인 식(III)-식(V)를 적용한 3개의 밝기변화가 검출된 영상을 구한다.First, an image in which three brightness changes are detected by applying equations (III) to (V), which is an extraction formula of stroke components, is obtained.

제 5 도의 (c)-(e)는 각기 상기의 식(III)-식(V)의 방향별 획성분 추출식에 의해서 구한 SW, S 및 SE방향의 획성분을 구하여 보인 영상이다.(C)-(e) of FIG. 5 are images obtained by obtaining stroke components in the SW, S, and SE directions, respectively, obtained by the above-described stroke component extraction formulas of the formulas (III)-(V).

본 발명에서는 상기와 같은 과정을 통해 구한 3개의 영상에 대하여 다음과 같은 방법을 적용하여 빗침 및 내림의 좌우 2개의 경사획과 수평 및 수직성분의 획을 추출한다.In the present invention, the following three methods are applied to the three images obtained through the above process to extract two oblique strokes and two horizontal and vertical component strokes.

[1. 빗침획 추출][One. Rain Intrusion Extraction]

빗침획은 상기 과정에서 얻는 S 및 SW방향의 두 영상에 대해 동일좌표의 화소값을 다음과 같은 논리적 연산(logical operation)을 적용하여 추출한다.The non-obvious extraction extracts pixel values of the same coordinates for two images in the S and SW directions obtained by the above process by applying the following logical operation.

구하고자 하는 빗침획 영상을 B(x, y)라 하면,If the non-invasive image to be obtained is B (x, y),

B(x, y)=S(x, y)*SW(x, y)B (x, y) = S (x, y) * SW (x, y)

와 같이 표현되고, 상기의 식을 적용함으로써 빗침획 영상을 구한다.It is expressed as follows, and a non-deviating image is obtained by applying the above equation.

제 5(f) 도는 상기와 같은 방법에 의해 추출된 빗침획의 예이다.Fig. 5 (f) is an example of rain capture extracted by the above method.

상기와 같은 결과는 특정방향 즉, S, SW, SE의 방향으로부터 구한 것이지만, 다른 일정한 방향의 영상으로부터도 동일한 결과를 얻을 수 있는 것으로 제 6 도에서 N, NW, NE방향의 조합과, W, NW, SW 방향의 조합과, E, NE, SE방향의 조합에서도 동일한 결과를 얻을 수 있다.The above results are obtained from specific directions, i.e., directions of S, SW and SE, but the same result can be obtained from images of other constant directions. In FIG. 6, the combinations of N, NW and NE directions, W, The same result can be obtained in the combination of the NW and SW directions and the combination of the E, NE and SE directions.

[2. 내림획 추출][2. Descending stroke extraction]

내림획은 빗침획 추출과정과 동일한 과정을 수행하게 되는데, 다만 S방향과 SE방향이 두 영상에 대해 동일한 논리적 연산을 적용한다.Descending stroke performs the same process as the extraction process of rain shedding, except that the S and SE directions apply the same logical operation to the two images.

구하고자 하는 내림획 영상을 N(x, y)라 하면,If the downstroke image to be obtained is N (x, y),

N(x, y)=S(x, y)*SE(x, y)N (x, y) = S (x, y) * SE (x, y)

와 같이 표현되고 이와같은 식을 적용함으로써 내림획 영상을 구한다.It is expressed as follows and by applying this equation, we get the down image.

상기와 같은 방법에 의한 내림획의 추출 예를 제 5(g) 도에 보였다.An example of extracting the downstroke by the above method is shown in FIG. 5 (g).

그리고 SW(x, y)와 SE(x, y)의 두 영상에 대해 상기와 같은 방법을 적용하여도 동일한 효과를 얻을 수 있다.The same effect can be obtained by applying the above method to two images of SW (x, y) and SE (x, y).

[3. 수평획 추출][3. Horizontal Stroke Extraction]

수평획은 영상에서 수직방향으로의 영상의 밝기변화를 검출함으로써 추출될 수 있으며 y방향으로의 영상 밝기변화는 상기 식(VI)과 그 계수 벡터를 이용한다.The horizontal stroke can be extracted by detecting a change in the brightness of the image in the vertical direction in the image, and the change in the brightness of the image in the y direction uses the above formula (VI) and its coefficient vector.

그러나 수직방향으로의 밝기변환 검출시에는 제11(c)도와 같이 경사획 성분도 함께 추출되므로 이를 효과적으로 제거해 주어야만 명확한 수평획 성분의 검출이 가능하다. 먼저, 식(VI)과 그 계수 벡터로부터 y방향으로의 밝기변화가 검출된 영상 HT(x, y)를 얻고 이 영상에 내포된 빗침획 성분을 제거하기 위해However, when detecting the brightness conversion in the vertical direction, the oblique stroke component is also extracted as shown in FIG. 11 (c), so that the horizontal stroke component can be clearly detected only by effectively removing it. First, in order to obtain the image H T (x, y) from which the brightness change in the y direction is detected from the equation (VI) and its coefficient vector, and to remove the non-invasive components contained in the image.

H"(x, y)=HT(x, y)*B(x, y)H "(x, y) = H T (x, y) * B (x, y)

와 같은 수직방향으로의 방향성 획성분이 추출된 영상 HT(x, y)와 빗침획 영상 B(x, y)을 논리곱으로 처리함으로써 제11(d)도에 도시된 바와같이 빗침획이 제거된 영상 H"(x, y)를 얻을 수 있다.By processing the image H T (x, y) extracted from the directional stroke component in the vertical direction as shown in FIG. The removed image H "(x, y) can be obtained.

[3. 수평획 추출][3. Horizontal Stroke Extraction]

수평획은 영상에서 수직방향으로의 영상의 밝기변화를 검출함으로써 추출될 수 있으며 y방향으로의 영상 밝기변화는 상기 식(VI)과 그 계수 벡터를 이용한다.The horizontal stroke can be extracted by detecting a change in the brightness of the image in the vertical direction in the image, and the change in the brightness of the image in the y direction uses the above formula (VI) and its coefficient vector.

그러나 수직방향으로의 발기변호 검출시에는 제11(c)도와 경사획 성분도 함께 추출되므로 이를 효과적으로 제거해 주어야만 명확한 수평획 성분의 검출이 가능하다.However, when detecting the erectile in the vertical direction, since the eleventh (c) and the oblique stroke component are also extracted, the horizontal stroke component can be clearly detected only by effectively removing it.

먼저, 식(VI)과 그 계수 벡터로부터 y방향으로의 밝기변화가 검출된 영상 HT(x, y)를 얻고 이 영상에 내포된 빗침획 성분을 제거하기 위해First, in order to obtain the image H T (x, y) from which the brightness change in the y direction is detected from the equation (VI) and its coefficient vector, and to remove the non-invasive components included in the image

H"(x, y)-HT(x, y)*B(x, y)H "(x, y) -H T (x, y) * B (x, y)

와 같은 수직방향으로의 방향성 획성분이 추출된 영상 HT(x, y)와 빗침획 영상 B(x, y)을 논리곱으로 처리함으로써 제11(d)도에 도시된 바와같이 빗침획이 제거된 영상 H"(x, y)를 얻을 수 있다.By processing the image H T (x, y) extracted from the directional stroke component in the vertical direction as shown in FIG. The removed image H "(x, y) can be obtained.

그러나 영상 H"(x, y)에는 여전히 내림획 성분이 잔존하므로 이 역시 제거되야 하며 상기 빗침획 성분제거와 유사하게However, the image H "(x, y) still has a downstroke component, which must also be removed, similar to the non-invasive component removal.

H(x, y)=H"(x, y)*N(x, y)H (x, y) = H "(x, y) * N (x, y)

함으로써 제11(e)도에 도시된 바와같이 내림획 마저 제거된 수평획만 존재하는 영상 H(x, y)를 얻게 된다.As a result, as shown in FIG. 11 (e), an image H (x, y) having only horizontal strokes from which even down strokes are removed is obtained.

[4. 수직획 추출][4. Vertical stroke extraction]

수직획 추출과정은 상기 수평획 추출과정과 유사하며 다만 영상에서 수평방향으로의 영상의 밝기변화를 검출한다는 것과 그에 따른 수평방향으로의 영상 밝기변화 검출을 위해 식(VII)과 그 계수 벡터를 이용한다는 차이점이 있다.The vertical stroke extraction process is similar to the horizontal stroke extraction process except that equation (VII) and its coefficient vector are used to detect the change in brightness of the image in the horizontal direction from the image, and to detect the change in brightness in the horizontal direction. There is a difference.

수평획 추출시와 마찬가지로 수평방향으로의 밝기변화 검출시 제11(f)도에 도시된 바와같이 경사획 성분이 함께 추출되므로 이를 제거해 주어야만 명확한 수직획 성분의 검출이 가능하다.As in the case of the horizontal stroke extraction, the gradient stroke components are extracted together as shown in FIG. 11 (f) when the brightness change in the horizontal direction is detected.

먼저 식(VII)과 그 계수 벡터로부터 수평방향으로의 밝기변화가 검출된 영상 V'(x, y)를 얻고 이 영상에 내포된 빗침획 성분을 제거하기 위해First, to obtain the image V '(x, y) in which the brightness change in the horizontal direction is detected from Equation (VII) and its coefficient vector, and to remove the invasive components included in the image.

V"(x, y)=V'(x, y)*B(x, y)V "(x, y) = V '(x, y) * B (x, y)

와 같은 수평방향으로의 방향성 획성분이 추출된 영상 V'(x, y)와 빗침획 영상 B(x, y)을 논리곱으로 처리함으로써 제11(g)도에 도시된 바와같이 빗침획이 제거된 영상 V"(x, y)를 얻을 수 있다.By processing the image V '(x, y) extracted from the directional stroke component in the horizontal direction as shown in FIG. The removed image V ″ (x, y) can be obtained.

그러나 영상 V"(x, y)에는 여전히 내림획 성분이 잔존하므로 이 역시 제거되어야 하며 상기 빗침획 성분제거와 유사하게However, the image V "(x, y) still has a downstroke component, so it must be removed as well.

V(x, y)=V'(x, y)*N(x, y)V (x, y) = V '(x, y) * N (x, y)

함으로써 제11(h)도에 도시된 바와같이 내림획마저 제거된 수직획만 존재하는 영상 V(x, y)를 얻는다.As a result, as shown in FIG. 11 (h), an image V (x, y) having only vertical strokes from which even down strokes are removed is obtained.

다음에는 후보문자를 분류하는 과정을 상세히 설명한다.Next, the process of classifying candidate characters will be described in detail.

[1. 자획별 영역분할][One. Area Division by Stroke]

먼저 입력문자의 크기를 제12(a)도에 도시된 바와같이 가로×세로를 M×M으로 문자 크기를 정규화한 후 이를 등간격으로 L등분 예를들면 5등분하여 영역의 크기를 지정한 후 영역을 지정하는 것으로 초성의 빗침영역은 제12(b)도에 도시된 바와같이 지정하고, 종성의 빗침영역은 제12(c)도에 도시된 바와같이 지정하며, 수평획 및 수직획의 영역은 제12(d)도 및 제12(e)도에 도시된 바와같이 지정하여 8개의 특징 영역이 존재한다.First, the size of the input character is normalized to the size of the horizontal × vertical M × M as shown in Fig. 12 (a), and then the size of the region is divided into L equal parts, for example, by 5 equal intervals. The initial combing area is designated as shown in Fig. 12 (b), and the final combing area is designated as shown in Fig. 12 (c), and the horizontal and vertical stroke areas are As shown in FIGS. 12 (d) and 12 (e), eight feature areas exist.

[2. 각 영역별 스트로크 추출][2. Stroke Extraction by Each Area]

해당 영역에 속하는 스트로크만을 추출하는 이 과정은 각 영역에 지정된 스트로크 추출부(32)의 스트로크 추출기(FS1-FS8)에 의해 선택되는 것으로 해당 영역의 지정은 영역을 지정하는 콘트롤러(31)에 의해 이루어지고, 선택된 스트로크들의 데이타는 스트로크 계산부(33)로 전송된다.This process of extracting only the strokes belonging to the corresponding area is selected by the stroke extractors FS1-FS8 of the stroke extracting section 32 assigned to each area. The designation of the corresponding area is made by the controller 31 which designates the area. The data of the selected strokes is transmitted to the stroke calculator 33.

[3. 스트로크의 길이 정규화][3. Normalize Stroke Length]

추출되는 스트로크의 길이는 항상 일정하지 않으므로 종류를 분류할 경우에 에러를 발생할 수 있고, 또한 구축된 기준값의 정확도를 저하시킬 우려가 있으므로 이를 방지하기 위하여 스트로크의 길이를 정규화하는 것으로 스트로크의 길이에 대응하는 계수(weight)를 곱하여 정규화한다.Since the length of the extracted stroke is not always constant, an error may occur when classifying the type, and there is a possibility that the accuracy of the constructed reference value may be lowered. Therefore, the stroke length is normalized to prevent this. It is normalized by multiplying by the weight.

[4. 스트로크의 절대값 계산][4. Calculation of absolute value of stroke]

스트로크의 절대값은 다음의 식(VIII)-식(X)에 의해 처리된다.The absolute value of the stroke is processed by the following equation (VIII) -expression (X).

여기서, i=0, 1, …,n으로 각 특징 영역에서의 스트로크의 수이고, d=3으로 수평 및 수직획 영역에서의 부분영역(subregion)이며, Wi는 각각의 스트로크에 대응하는 계수이다.Where i = 0, 1,... where n is the number of strokes in each feature region, d = 3 is the subregion in the horizontal and vertical stroke regions, and Wi is the coefficient corresponding to each stroke.

상기의 식(VIII)-식(X)은 각기 빗침, 수평 및 수직 스트로크의 절대값 계산식으로 사용된다.Equations (VIII)-(X) above are used as formulas for calculating the absolute values of the combing, horizontal and vertical strokes, respectively.

[5. 종류분류 및 후보문자 선택][5. Classification and Candidate Character Selection]

상기 과정에서 계산된 절대값과 기준값을 비교하여 입력문자의 종류를 결정한다.The type of the input character is determined by comparing the absolute value and the reference value calculated in the above process.

즉, 각 특징 영역별로 계산된 절대값과 해당 영역에 대응하는 기준값을 비교하여 각 영역별로 입력문자의 동일한 종류에 속한 문자를 후보문자로 선택하고, 선택한 후보문자들은 후보문자 등록 레지스터(36)에 저장한다.That is, by comparing the absolute value calculated for each feature region with the reference value corresponding to the region, a character belonging to the same type of input character for each region is selected as a candidate character, and the selected candidate characters are stored in the candidate character registration register 36. Save it.

이때 후보문자는 분류도로서 저장되는데 분류도는 2개의 값으로 표현된다.At this time, the candidate character is stored as a classification diagram, which is represented by two values.

후보문자가 8개의 특징 영역의 종류에서 얼마나 중복되어 분포하는가를 나타내는 중복분포율과 얼마나 정확하게 분류되었는가를 예측하는 분류확률의 값을 후보문자등록 레지스터(36)의 해당 후보문자의 메모리 영역에 저장한다.A duplicate distribution ratio indicating how duplicated the candidate characters are distributed in the eight types of feature areas and a classification probability value for predicting how accurately the candidate characters are classified are stored in the memory area of the candidate character of the candidate character registration register 36.

[6. 인식][6. recognition]

이 단계는 후보문자 가운데 입력문자와 가장 유사한 특징량을 갖는 후보문자를 입력문자로 인식하는 과정으로, 인식의 정확도를 높이기 위해 2단계의 검증을 수행하고, 또한 인식결과에 대한 신뢰도 RF를 0과 1의 이치값(binary value)으로 지정해준다.This step recognizes the candidate characters with the most similar feature as the input characters among the candidate characters as input characters, and performs two stages of verification to increase the accuracy of recognition. It is specified as a binary value of 1.

인식 신뢰도 RF를 지정하는 이유는 인간 또는 컴퓨터에 의한 인식결과의 오류수정에 검색시간 단축 및 편리성을 위한 것이다.The reason for specifying the recognition reliability RF is to reduce the search time and convenience in the error correction of the recognition result by human or computer.

먼저 비교에 이용도는 특징량은 다음과 같다.First, the use of the feature amount for comparison is as follows.

(1) 단위 면적당 방향 특징량(1) Directional feature amount per unit area

입력문자로부터 추출한 수평, 수직, 빗침의 3방향별 자획성분의 영상을 N×N의 메쉬 영역으로 분할한 후 각 메쉬에서의 특징량을 후보문자들의 대응되는 메쉬영역에서의 특징량과 비교하여 특징량의 차이가 가장 작은 후보문자를 골라내어 이를 인식결과로 지정한다.After splitting the image of the three-way trace component extracted from the input characters into N × N mesh areas, the feature amount in each mesh is compared with the feature amount in the corresponding mesh area of the candidate characters. Candidate characters with the smallest difference are selected and designated as recognition results.

여기서 사용되는 특징량은 메쉬당 각 방향별 흑화소의 수다.The feature amount used here is the number of black pixels in each direction per mesh.

특징량은Feature

여기서, βh, βv 및 βb는 수평, 수직 및 빗침방향의 특징량의 차이고, HR, VR 및 BR은 각기 저장되어 있는 후보문자의 특징량이며, HI, VI 및 BI는 입력문자의 특징량이다.Here, βh, βv, and βb are differences in the feature amounts in the horizontal, vertical, and comb directions, HR, VR, and BR are the feature amounts of candidate characters stored, respectively, and HI, VI, and BI are the feature amounts of the input characters.

그러므로 소정의 후보문자와 입력문자의 특징량의 차(Dm)는 다음의 식과 같다.Therefore, the difference Dm between the characteristic amounts of the predetermined candidate characters and the input characters is as follows.

Dm=βh+βv+βbDm = βh + βv + βb

여기서, m=1, 2, …, k로 후보문자의 수이다.Where m = 1, 2,... , k is the number of candidate characters.

(2) 단위 면적당 흑화소의 비율(2) Ratio of black pixel per unit area

정규화된 입력문자를 N×N의 메쉬로 영역을 분할하여 각 메쉬내에서의 흑화소의 수를 계산하고 이를 전체 흑화소의 수로 나눈값을 각 메쉬의 특징량으로 지정한다.The normalized input character is divided into N × N meshes to calculate the number of black pixels in each mesh, and the value divided by the total number of black pixels is designated as the feature amount of each mesh.

입력문자의 총 화소수를 Ti라 하고 각 메쉬의 흑화소 수를 MI(i, j)라 하면 각 메쉬의 흑화소의 비율은If the total number of pixels of the input character is Ti and the number of black pixels of each mesh is MI (i, j), the ratio of the black pixels of each mesh is

Ri=MI(i, j)/TrRi = MI (i, j) / Tr

이고, 마찬가지로 각 메쉬당 흑화소의 비율은Similarly, the ratio of black pixels per mesh

Rr=MR(i. j)/TrRr = MR (i. J) / Tr

로 표현된다.It is expressed as

여기서, MR(i, j)는 후보문자의 각 메쉬의 흑화소의 수이고, Tr은 후보문자의 총 흑화소의 수이다.Here, MR (i, j) is the number of black pixels of each mesh of the candidate characters, and Tr is the total number of black pixels of the candidate characters.

따라서, 입력문자의 후보문자와의 특징량의 차는 다음의 식으로 정의된다.Therefore, the difference of the feature amounts of the input characters from the candidate characters is defined by the following equation.

여기서 m=1, 2, …, k개의 후보문자 수를 나타낸다.Where m = 1, 2,... denotes the number of k candidate characters.

그리고 인식과정은 상기에서 추출한 특징량을 순차적으로 비교하여 이루어지는 것으로서 각 후보 문자들에 대해 단위 면적당 방향 특징량 Dm을 구하고, 후보문자들은 Dm값의 크기순으로 정렬(sorting)하며, Dm이 가장 작은 후보문자를 선택한 후, 선택한 후보문자의 Dm이 임계값 α1보다 작으면 이 후보문자를 입력문자로 인식을 인식하고, 인식의 신뢰도 RF=1로 지정하며, Dm이 임계값 α1과 같거나 크면, Dm이 가장 작은 후보문자에 대해 2번째 인식 특징량인 단위 면적당 흑화소의 비 Rm을 구하며, Rm이 임계값 α2보다 작으면, 이 후보문자를 입력문자로 인식하고 인식의 신뢰도 RF=1로 지정하며, 이 Rm이 임계값보다 같거나 크면, 이 후보문자를 입력문자로 인식하되 인식의 신뢰도 RF=0로 지정한다.The recognition process is performed by sequentially comparing the extracted feature quantities, obtaining the direction feature amounts Dm per unit area for each candidate character, sorting the candidate characters in order of the size of the Dm value, and having the smallest Dm. After selecting the candidate character, if the Dm of the selected candidate character is smaller than the threshold value α1, the candidate character is recognized as an input character, and the recognition reliability is set to RF = 1, and if Dm is equal to or larger than the threshold value α1, Obtain the ratio Rm of the black pixels per unit area, which is the second recognition feature, for the smallest candidate character Dm. If Rm is less than the threshold α2, the candidate character is recognized as the input character and the reliability of recognition is set to RF = 1. If Rm is equal to or greater than the threshold, the candidate character is recognized as an input character, but the reliability of recognition is set to RF = 0.

이상에서 같이 본 발명은 특정 방향으로의 영상의 밝기변화를 검출하는 단순한 기법을 이용하여 문자를 인식하므로 시스템의 구성을 단순화 할 수 있고, 이로 인하여 처리시간이 단축될 뿐만 아니라 잡음에 대해서도 기존의 방법보다 강하며, 2단계에 걸친 인식결과의 검증으로 인식의 정확도를 향상시키며, 인식의 신뢰도를 표현하여 인식오류의 수정시 검색시간이 단축되고, 편리하게 수정할 수 있다.As described above, the present invention can simplify the configuration of the system by recognizing characters using a simple technique of detecting the change in brightness of the image in a specific direction, which not only reduces the processing time but also the existing method for noise. It is stronger and improves the accuracy of recognition by verifying the recognition result in two stages, and expresses the reliability of recognition, so that the retrieval time can be shortened and it can be conveniently modified.

Claims (10)

입력된 개별문자를 절출하여 그 크기를 구하는 제 1 과정과, 크기에 따른 문자의 정규화를 수행하는 제 2 과정과, 정규화된 문자영상으로부터 각각의 방향별 자획성분을 추출하는 제 3 과정과, 문자를 특징 영역으로 나누고 각 특징 영역에서의 상기 추출한 자획의 크기를 구하는 제 4 과정과, 상기 제 4 과정에서 구한 자획의 크기를 기준값과 비교하여 후보문자를 선택하고 메모리에 저장하는 제 5 과정과, 제 5 과정에서 추출한 후보문자의 특징량과 입력문자의 특징량을 비교하여 문자 인식하는 제 6 과정으로 됨을 특징으로 하는 문자 인식방법.A first process of extracting the inputted individual characters to obtain a size thereof, a second process of normalizing the characters according to the size, a third process of extracting the trace components of each direction from the normalized character image, and the characters A fourth process of dividing a into feature regions and obtaining the size of the extracted stroke in each feature region, a fifth process of selecting candidate characters and storing the candidate characters in a memory by comparing the size of the strokes obtained in the fourth process with a reference value; And a sixth step of character recognition by comparing the feature amount of the candidate character extracted in the fifth step with the feature amount of the input character. 제 1 항에 있어서, 제 3 과정은 정규화된 문자영상의 특정방향으로의 밝기변화로 방향성 자획성분을 추출하고, 추출한 방향성 자획성분을 논리결합하여 빗침, 내림, 수평 및 수직 방향별 자획성분을 추출하는 것을 특징으로 하는 문자 인식방법.The method of claim 1, wherein the third process extracts a directional stroke component by changing brightness of a normalized text image in a specific direction, and extracts a stroke component by combing, lowering, horizontal and vertical directions by logically combining the extracted directional stroke components. Character recognition method characterized in that. 제 2 항에 있어서, 빗침방향 자획성분 B(x, y)는 다음의 논리식으로 추출함을 특징으로 하는 문자 인식방법.The character recognition method according to claim 2, wherein the comb direction trace component B (x, y) is extracted by the following logical expression. B(x, y)=S(x, y)*SW(x, y)B (x, y) = S (x, y) * SW (x, y) 여기서, S(x, y) 및 SW(x, y)는 각기 S 및 SW 방향의 영상에 대한 동일 좌표의 화소값이다.Here, S (x, y) and SW (x, y) are pixel values of the same coordinates for the image in the S and SW directions, respectively. 제 2 항에 있어서, 내림방향 자획성분 N(x, y)는 다음의 논리식으로 추출함을 특징으로 하는 문자 인식방법.3. The character recognition method according to claim 2, wherein the downcoming stroke component N (x, y) is extracted by the following logical expression. N(x, y)=S(x, y)*SE(x, y)N (x, y) = S (x, y) * SE (x, y) 여기서, S(x, y) 및 SE(x, y)는 각기 S 및 SE 방향의 영상에 대한 동일 좌표의 화소값이다.Here, S (x, y) and SE (x, y) are pixel values of the same coordinates for the images in the S and SE directions, respectively. 제 2 항에 있어서, 수평방향 자획성분은 수직방향의 획성분이 추출된 영상에 빗침획 영상 및 내림획 영상을 논리곱하여 추출함을 특징으로 하는 문자 인식방법.The character recognition method of claim 2, wherein the horizontal stroke component is extracted by multiplying the non-fraction image and the down stroke image by the image from which the vertical stroke component is extracted. 제 2 항에 있어서, 수직방향 자획성분은 수평방향의 획성분이 추출된 영상에 빗침획 영상 및 내림획 영상을 논리곱하여 추출함을 특징으로 하는 문자 인식방법.The character recognition method of claim 2, wherein the vertical stroke component is extracted by performing an AND operation on the image of the horizontal stroke component extracted from the non-fraction image and the down stroke image. 제 1 항에 있어서, 제 4 과정은 입력문자의 영역을 8개의 특징 영역으로 나누고, 각 특징 영역에서의 스트로크만을 추출하여 길이를 정규화하며, 정규화된 자획의 길이를 모두 합하여 그 특징 영역의 절대값으로 지정함을 특징으로 하는 문자 인식방법.The method of claim 1, wherein the fourth process divides the input character region into eight feature regions, extracts only the strokes in each feature region, normalizes the length, and adds the normalized stroke lengths to add the absolute value of the feature region. Character recognition method characterized in that specified as. 제 7 항에 있어서, 각 특징 영역에서 추출한 스트로크에 그의 크기에 대응하는 계수(weight)를 곱하여 길이를 정규화함을 특징으로 하는 문자 인식방법.8. The character recognition method according to claim 7, wherein the length is normalized by multiplying a stroke extracted from each feature region by a weight corresponding to its size. 제 1 항에 있어서, 제 5 과정은 특징 영역별로 구한 절대값과 해당영역에 대응하는 기준값을 비교하여 각 영역별로 입력문자와 동일한 종류에 속하는 문자를 후보문자로 선택 및 저장함을 특징으로 하는 문자 인식방법.The character recognition method of claim 1, wherein the fifth process compares an absolute value obtained for each feature region with a reference value corresponding to the corresponding region, and selects and stores a character belonging to the same type as the input character for each region as a candidate character. Way. 제 1 항에 있어서, 제 6 과정은 각 후보문자에 대한 단위 면적당 방향 특정량 Dm을 구하여 그 크기순으로 정렬 및 Dm이 가장 작은 후보문자를 선택하는 제 1 단계와, 선택한 후보문자의 Dm이 임계값 α1보다 작으면 이 후보문자를 입력문자로 인식을 인식하고, 인식의 신뢰도 RF=1로 지정하는 제 2 단계와, Dm이 임계값 α1과 같거나 크면, Dm이 가장 작은 후보문자에 대해 2번째 인식 특징량인 단위 면적당 흑화소의 비 Rm을 구하는 제 3 단계와, 2번째 인식 특징량인 단위 면적당 흑화소의 비 Rm을 Rm이 임계값 α2보다 작으면, 이 후보문자를 입력문자로 인식하고 인식의 신뢰도 RF=1로 지정하는 제 4 단계와, Rm이 임계값보다 같거나 크면 후보문자를 입력문자로 인식하고 인식 신뢰도 RF=0으로 지정하는 제 5 단계로 됨을 특징으로 하는 문자 인식방법.The method of claim 1, wherein the sixth step is a first step of obtaining a direction-specific amount Dm per unit area for each candidate character, sorting by size, and selecting candidate characters having the smallest Dm, and Dm of the selected candidate character being critical. A second step of recognizing this candidate character as an input character if it is smaller than the value α1, and specifying the reliability of the recognition RF = 1, and if Dm is equal to or greater than the threshold value α1, 2 for Dm is the smallest candidate character. The third step of calculating the ratio Rm of the black pixels per unit area, which is the first recognition feature amount, and the ratio Rm of the black pixels per unit area, the second recognition feature amount, if Rm is smaller than the threshold value α2, recognizes and recognizes this candidate character as an input character. And a fourth step of designating the reliability of RF = 1 and a fifth step of designating the candidate character as an input text if Rm is equal to or greater than a threshold.
KR1019920025159A 1992-12-23 1992-12-23 A character recognition method KR950011065B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019920025159A KR950011065B1 (en) 1992-12-23 1992-12-23 A character recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019920025159A KR950011065B1 (en) 1992-12-23 1992-12-23 A character recognition method

Publications (2)

Publication Number Publication Date
KR940015911A KR940015911A (en) 1994-07-22
KR950011065B1 true KR950011065B1 (en) 1995-09-27

Family

ID=19346337

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019920025159A KR950011065B1 (en) 1992-12-23 1992-12-23 A character recognition method

Country Status (1)

Country Link
KR (1) KR950011065B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100745753B1 (en) * 2005-11-21 2007-08-02 삼성전자주식회사 Apparatus and method for detecting a text area of a image

Also Published As

Publication number Publication date
KR940015911A (en) 1994-07-22

Similar Documents

Publication Publication Date Title
US5524065A (en) Method and apparatus for pattern recognition
Babu et al. Vehicle number plate detection and recognition using bounding box method
EP3401842B1 (en) Text image processing method and apparatus
EP1282076B1 (en) Self-adaptive binarization of digital images
US5889885A (en) Method and apparatus for separating foreground from background in images containing text
JP3259993B2 (en) Word form measurement method and image signal processing method
EP0649113A2 (en) Multifont optical character recognition using a box connectivity approach
JPH05242292A (en) Separating method
JPH05225378A (en) Area dividing system for document image
Verma et al. Removal of obstacles in Devanagari script for efficient optical character recognition
Hallur et al. Handwritten Kannada numerals recognition using deep learning convolution neural network (DCNN) classifier
Vijay Kumar et al. Machine recognition of printed Kannada text
EP0471472B1 (en) Image processing method and apparatus therefor
KR950011065B1 (en) A character recognition method
Edan Cuneiform symbols recognition based on k-means and neural network
JPH05334490A (en) Table recognizing device
CN109800758A (en) A kind of natural scene character detecting method of maximum region detection
Naz et al. Challenges in baseline detection of cursive script languages
JPH05225394A (en) Candidate-character classifying method for character recognizing system
KR940007935B1 (en) Candidate classification method for recognizing character
JP4194309B2 (en) Document direction estimation method and document direction estimation program
JP2832928B2 (en) Character recognition method
JP2766205B2 (en) Character recognition device
Soni et al. Text region extraction from scene images using agf and mser
KR101312306B1 (en) Apparatus for recognizing signs, Method thereof, and Method for recognizing image

Legal Events

Date Code Title Description
A201 Request for examination
G160 Decision to publish patent application
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20050607

Year of fee payment: 11

LAPS Lapse due to unpaid annual fee