KR200331199Y1 - apparatus for generating character attractor - Google Patents
apparatus for generating character attractor Download PDFInfo
- Publication number
- KR200331199Y1 KR200331199Y1 KR20-2003-0024169U KR20030024169U KR200331199Y1 KR 200331199 Y1 KR200331199 Y1 KR 200331199Y1 KR 20030024169 U KR20030024169 U KR 20030024169U KR 200331199 Y1 KR200331199 Y1 KR 200331199Y1
- Authority
- KR
- South Korea
- Prior art keywords
- character
- attractor
- feature
- characters
- present
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/32—Digital ink
- G06V30/333—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/32—Digital ink
- G06V30/333—Preprocessing; Feature extraction
- G06V30/347—Sampling; Contour coding; Stroke extraction
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Character Discrimination (AREA)
Abstract
본 고안은 문자 어트랙터 생성장치를 개시한다. 본 고안의 생성장치는 문자이미지를 입력하기 위한 이미지 스캐너와, 상기 입력된 문자 이미지를 전처리하기 위한 전처리기와, 상기 전처리된 문자 이미지로부터 m개의 1차 특징을 추출하기 위한 특징 추출기와, 상기 추출된 m 특징값들을 다음 어트랙트 변환함수 H'(Xk+1, Yk+1)에 의해 문자 어트랙터로 변환하는 문자 어트랙터를 포함한다.The present invention discloses a character attractor generation device. The apparatus of the present invention includes an image scanner for inputting a text image, a preprocessor for preprocessing the input text image, a feature extractor for extracting m primary features from the preprocessed text image, and the extracted m A character attractor that transforms feature values into a character attractor by the following attract conversion function H '(X k + 1 , Y k + 1 ).
H'(Xk+1, Yk+1) = {yk+ 1 - a(xk+ cfi)2, b(xk+ cfi)}H '(X k + 1 , Y k + 1 ) = (y k + 1-a (x k + cf i ) 2 , b (x k + cf i )}
여기서, k = 0, 1 2, 3, ---, nWhere k = 0, 1 2, 3, ---, n
i = 1, 2, 3, ---, mi = 1, 2, 3, ---, m
a = 0.55, b = 0.3a = 0.55, b = 0.3
따라서, 본 고안에서는 오분류 빈도가 높은 혼동문자들을 고정도로 인식할 수 있다.Therefore, in the present invention, confused characters with high misclassification frequency can be recognized with high accuracy.
Description
본 고안은 문자 어트랙터 생성장치에 관한 것으로서 특히 유사한 문자들 사이의 특징 패턴의 미세한 차이를 인식하기 위하여 미세한 차이를 고감도 식별할 수 있는 카오스 이론의 스트레인지 어트랙터(Strange Attractor)를 생성하는 에농 함수를 이용하여, 문자 어트랙터를 생성할 수 있는 문자 어트랙터 생성장치에 관한 것이다.The present invention relates to an apparatus for generating a character attractor, in particular, an Eron function that generates a Strate Attractor of Chaos Theory, which can highly sensitively identify a minute difference in order to recognize a minute difference of a feature pattern among similar characters. The present invention relates to a character attractor generating apparatus capable of generating a character attractor.
문자 인식 기술은 스캐너나 펜 입력기기 등을 이용하여 입력된 문서 영상으로부터 각종 문자 정보를 분리, 인식하는 수단을 제공함으로써, 수작업에 의존하던 자료 입력 방식을 자동화할 수 있다.Character recognition technology can automate the data input method, which was dependent on manual operation, by providing a means for separating and recognizing various character information from an input document image using a scanner or a pen input device.
따라서 한글, 한자, 영어 등의 문자 인식에 관한 많은 고안이 있었으며, 신문이나 잡지 보고서 등의 복잡한 문서를 인식하기 위한 고안도 활발히 진행되고 있다. 지금까지 고안된 대표적인 문자 인식 방법으로는 저장된 문자 영상과의 정합정도를 인식하는 원형 정합법(Template Matching Method), 문자 영상의 특징 벡터의 유클리디안 거리로 인식하는 통계적 방법(Statistical Method), 그리고 문자를 구성하는 요소들의 구조적 연관성을 비교하여 인식하는 구조적 방법(StructuralMethod) 등이 있다.Therefore, there have been many devises regarding the recognition of characters such as Hangul, Chinese characters, and English, and the devises for recognizing complex documents such as newspapers and magazine reports are also actively underway. Representative character recognition methods designed up to now include the Template Matching Method for recognizing the degree of matching with the stored character image, the Statistical Method for recognizing the Euclidean distance of the feature vector of the character image, and the character. There is a structural method (Structural Method) that recognizes by comparing the structural association of the elements constituting the.
1990년대에 와서는 한글 문자를 인식하는데, 어느 정도의 변형이나 불완전한 입력에 대해서도 잘 작동하는 신경망을 사용하려는 여러 시도가 있었다.In the 1990s, there have been several attempts to use neural networks to recognize Hangul characters, which work well to some degree of variation or incomplete input.
하지만 한글은 가능한 문자의 수가 큰 규모일 뿐만 아니라, 비교적 적은 수의 기본 자모가 서로 결합하여 문자를 만들기 때문에 문자간에 유사성이 커서 한글 문자 인식은 매우 어려운 문제이다. 이러한 유사성이 큰 문자는 오인식을 발생시키는 혼동문자로서, 종래에는 오인식된 문자를 수정하는 후처리 과정에서 처리를 하거나 혼동문자 인식부를 따로 두어 해결하였다, 또한 종래에는 한글 찾기순 상위 990자를 대상으로 문자의 망특징 히스토그램 값을 이용하여 어트랙터를 구성하고, 어트랙터의 차원값을 구한 다음, 문자 자체의 박스 카운팅차원(Box-Counting Dimension)을 함께 특징으로 사용하여 96.03%의 인식율을 보였다.However, because Hangul is not only a large number of possible characters, but also a relatively small number of basic letters combine to form letters, it is very difficult to recognize Hangul characters because of the similarity between them. Such a similar character is a confusing character that generates a misunderstanding, and is conventionally solved by a post-processing process of correcting a misrecognized character or by setting a confusing character recognition unit. The attractor was constructed by using the histogram value of the network feature, the dimension value of the attractor was used, and the box-counting dimension of the letter itself was used as a feature to show the recognition rate of 96.03%.
기존 고안의 문자 인식 방법은 주로문자 영상의 망특징 또는 투영 특징, 교차 거리 특징 등을 추출하여 신경망을 이용하여 인식하는 방법이 대부분이다.The character recognition method of the existing design is mainly a method of extracting the network feature, the projection feature, the cross-distance feature, etc. of the character image and recognizing it using a neural network.
하지만 이들 대부분이 신경망의 일반화 능력에 너무 의존하였기 때문에 한글과 같이 문자의 모양이 단순하면서도 유사성이 많은 혼동문자에 대해서는 많은 오인식을 유발하였다. 따라서 이러한 혼동 문자를 인식하기 위해서는 새로운 문자 특징 추출 방법이 필요하다.However, since most of them depended on the generalization ability of neural networks, they caused many misunderstandings for confused characters with simple shapes and similarities. Therefore, a new character feature extraction method is needed to recognize such confused characters.
본 고안의 목적은 상술한 종래 기술의 문제점을 해결하기 위하여 유사한 문자들 사이의 특징 패턴의 미세한 차이를 인식하기 위하여 미세한 차이를 고감도 식별할 수 있는 카오스 이론의 스트레인지 어트랙터(Strange Attractor)를 생성하는 에농 함수를 이용하여, 문자 어트랙터를 생성할 수 있는 문자 어트랙터 생성장치를 제공하는 데 있다.An object of the present invention is to create a Strate Attractor of the Chaos Theory which can identify the minute differences with high sensitivity in order to recognize the minute differences of the feature patterns among the similar characters in order to solve the problems of the prior art described above. The present invention provides a character attractor generator capable of generating a character attractor using an Ennon function.
도 1은 본 고안에 의한 문자 어트랙터 생성장치의 블록도.1 is a block diagram of a character attractor generation device according to the present invention.
도 2는 본 고안의 한글 6형식의 구조를 설명하기 위한 도면.2 is a view for explaining the structure of the Hangul 6 form of the present invention.
도 3은 3×3마스크를 나타낸 도면.3 shows a 3x3 mask.
도 4는 연결성을 설명하기 위한 도면.4 is a diagram for explaining connectivity.
도 5는 본 고안에 의한 망특징을 추출하기 위한 서브 영역 구조를 나타낸 도면.5 is a view showing a sub-region structure for extracting network features according to the present invention.
도 6은 도 5의 망특징의 추출결과를 나타낸 그래프.6 is a graph showing the extraction results of the network features of FIG.
도 7은 본 고안에 의한 투영특징을 추출하기 위한 서브 영역 구조를 나타낸 도면.7 is a view showing a sub-region structure for extracting the projection feature according to the present invention.
도 8은 도 7의 투영특징의 추출결과를 나타낸 그래프.8 is a graph showing an extraction result of the projection feature of FIG. 7;
도 9는 본 고안에 의한 교차거리 특징을 추출하기 위한 서브 영역 구조를 나타낸 도면.9 is a view showing a sub-region structure for extracting cross-distance features according to the present invention.
도 10는 도 9의 교차거리 특징의 추출결과를 나타낸 그래프.10 is a graph showing an extraction result of the cross-distance feature of FIG. 9;
도 11는 에농 시스템의 시계열과 어트랙터 궤적을 나타낸 도면.11 is a time series and attractor trajectory of an enong system.
도 12 및 도 13은 본 고안에 의한 혼동문자의 문자 어트랙터를 비교하기 위한 도면들.12 and 13 are views for comparing the character attractor of the confused characters according to the present invention.
*도면의 주요부분에 대한 부호의 설명** Description of the symbols for the main parts of the drawings *
10 : 이미지 스캐너 20 : 전처리기10: image scanner 20: preprocessor
30 : 특징 추출기 40 : 문자 어트렉터30: Feature Extractor 40: Character Attractor
상기 목적을 달성하기 위하여 본 고안의 장치는 문자 이미지를 입력하기 위한 이미지 스캐너와, 상기 입력된 문자 이미지를 전처리하기 위한 전처리기와, 상기 전처리된 문자 이미지로부터 m개의 1차 특징을 추출하기 위한 특징 추출기와, 상기 추출된 m 특징값들을 다음 어트랙트 변환함수 H'(Xk+1, Yk+1)에 의해 문자 어트랙터로 변환하는 문자 어트랙터를 포함한다.In order to achieve the above object, an apparatus of the present invention includes an image scanner for inputting a text image, a preprocessor for preprocessing the input text image, and a feature extractor for extracting m primary features from the preprocessed text image. And a character attractor for converting the extracted m feature values into a character attractor by the next attracting conversion function H '(X k + 1 , Y k + 1 ).
(여기서, k = 0, 1 2, 3, ---, n(Where k = 0, 1 2, 3, ---, n
i = 1, 2, 3, ---, mi = 1, 2, 3, ---, m
a = 0.55, b = 0.3 이다.)a = 0.55, b = 0.3)
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시예를 구체적으로 설명하고자 한다. 이 실시예는 이 기술에 숙련된 자들이 본 발명을 실시할 수 있게 충분히 상세하게 기술한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. This embodiment is described in sufficient detail to enable those skilled in the art to practice the invention.
도 1을 참조하면, 본 고안의 문자 어트렉터 생성장치는 이미지 스캐너(10), 전처리기(20), 특징 추출기(30), 문자 어트렉터(40)를 포함한다.Referring to FIG. 1, the character attractor generating apparatus of the present invention includes an image scanner 10, a preprocessor 20, a feature extractor 30, and a character attractor 40.
이미지 스캐너(10)는 일반적인 이미지 스캐너로서 문서 등에 인쇄된 문자 나 숫자 등을 스캐닝하여 문자 이미지 데이터를 생성한다.The image scanner 10 is a general image scanner to generate character image data by scanning letters or numbers printed on documents and the like.
전처리기(20)는 소프트웨어적으로 구성하거나 전처리용 전용칩으로 제공될 수 있다. 입력된 개별문자 이미지를 평활화, 선형화 및 정규화 처리를 수행한다.The preprocessor 20 may be configured in software or provided as a dedicated chip for preprocessing. Smooth, linearize, and normalize the inputted individual character image.
특징 추출기(30)는 전처리된 개별 문자 이미지로부터 특징 추출 알고리즘을 수행하여 망, 투영 및 교차거리 특징 등을 추출한다.The feature extractor 30 performs a feature extraction algorithm from the preprocessed individual character images to extract the network, projection, and cross-distance features.
문자 어트렉터(40)는 추출된 특징값들을 1차원적인 시계열로 정리하고 정리된 시계열을 변환함수를 통하여 2차원 어트렉터 궤적으로 변환한다.The character attractor 40 organizes the extracted feature values into a one-dimensional time series and converts the summarized time series into a two-dimensional attractor trajectory through a conversion function.
이하, 본 고안에 의한 문자 어트렉트 생성 알고리즘을 설명하고자 한다.Hereinafter, a description will be given of the character attack generation algorithm according to the present invention.
1. 한글의 구조 분석1. Structural Analysis of Hangul
한글은 조합 문자로서 기본 자모 24자(자음 14자, 모음 10자)가 초성, 중성, 종성으로 반복 조합되어 구성된다. 이론적으로 조합 가능한 한글 문자는 총 11,172자 이나, 실제로 많이 사용되는 자수는 1,500자 내외이다.Hangul is a combinatorial character consisting of 24 basic Jamo characters (14 consonants and 10 vowels). Theoretically, there are 11,172 Korean characters that can be combined, but there are about 1,500 embroidery characters that are used a lot.
한글은 조합 문자이면서 한자와는 달리 모음의 배치와 받침의 존재여부에 따라 문자를 6가지 형식으로 분류하고 있다. 한글 6형식은 1972년 이주근이 제안한 정의로써 초성, 중성, 종성의 배치에 따라 도 2의 6개의 형식으로 구분되어 진다.Hangul is a combination of characters, and unlike Hanja, the characters are classified into six types according to the arrangement of vowels and the presence of a support. The Hangul 6 form is a definition proposed by Lee Myung-geun in 1972, and is divided into 6 forms of FIG.
〈 표 1 〉 에서 알 수 있듯이 2형식인 가로모임 받침글자가 약 45.5%정도로 많이 쓰이고, 3형식인 세로모임 글자는 91자에 지나지 않음을 알 수 있다.As can be seen in <Table 1>, the two forms of horizontal gathering letters are used about 45.5%, and the three forms of vertical gathering letters are only 91 characters.
이처럼 한글은 위에서 언급한 6형식에 따라 자음과 모음의 배치가 정해진 글자이며 매우 과학적인 문자이나 구조적으로 유사성이 아주 높아 자소의 추출 및 인식을 행하는 데는 어려움이 많다.In this way, Hangul is a letter that is arranged with consonants and vowels according to the six forms mentioned above, and is very scientific in character, but its structural similarity is very high, making it difficult to extract and recognize phonemes.
문자의 유사성은 한 문자에 다른 문자가 완전히 포개지고 그 차가 극히 적은 것을 말하는데 이러한 유사성은 구조적 유사성과 위상적(topological) 유사성으로 나눌 수 있다. 즉, 구조적 특성의 예로 "각, 걱, 긱"은 모음에 연결된 횡선분을 제외하고는 완전히 포개어져 인식을 어렵게 하며, 또한 위상적 특성의 예로 "국" 을 180도 회전하면 "논"과 동일하므로 인식에 있어 어려움이 따른다.The similarity of letters refers to the fact that one letter is completely superimposed on another letter and the difference is very small. Such similarity can be divided into structural similarity and topological similarity. In other words, as an example of structural characteristics, "angle, spatula, gig" is completely overlapped except for the horizontal line connected to the vowel, and it is difficult to recognize. Therefore, there is a difficulty in recognition.
따라서 본 고안에서는 한글 문자의 유사성에 따라 오인식 빈도가 높은 혼동 문자를 선정하고, 이를 상기 6형식에 따라 분류한 예를 〈 표 2 〉에 나타내었다.Therefore, in the present invention, a confusion character having a high misrecognition frequency according to the similarity of the Hangul characters is selected and classified according to the above six types is shown in <Table 2>.
〈 표 2 〉에서 알 수 있듯이 KSC-5601 한글 표준 2,350자 중 혼동 문자 수는 총 305자로, 12.9%를 차지하고 있다. 〈 표 3 〉에는 본 고안에 사용될 혼동문자 그룹을 나타내었다.As shown in <Table 2>, out of 2,350 KSC-5601 Hangul standard, the total number of confusing characters is 305, accounting for 12.9%. Table 3 shows the confusing group of characters to be used in the present invention.
2. 전처리2. Pretreatment
전처리 단계는 문자 특징 추출단계에서 필요한 정보는 강화하고 불필요한 정보는 줄임으로써 문자인식오류를 최소화하는 단계이다. 따라서 전처리 단계에서는 문서 입력시 발생되는 하드웨어적인 잡영을 제거하고, 입력영상의 불완전한 패턴을 직선, 직각화하여 문자의 특징점을 보다 정확하게 찾을 수 있도록 한다. 본 고안에서는 평활화, 선형화, 정규화의 세 종류의 전처리 과정을 거친다.In the preprocessing step, the character recognition error is minimized by reinforcing the information necessary in the character feature extraction step and reducing unnecessary information. Therefore, in the preprocessing step, the hardware miscellaneous generated when the document is input is removed, and the incomplete pattern of the input image is straightened and right angled so that the feature points of the characters can be found more accurately. In this design, three kinds of preprocessing are performed: smoothing, linearization, and normalization.
2-1. 평활화2-1. Smoothing
우선 3X3 마스크에 대한 중심화소와 8방향의 이웃화소를 도 3과 같이 정의한다.First, the center pixel for the 3X3 mask and neighboring pixels in eight directions are defined as shown in FIG. 3.
중심화소 P(0)가 0인 경우에 4방향이웃화소 {P(2),P(4), P(6), P(8)} 중 흑화소의 수가 3개 이상일 경우에는 이를 잡음으로 판단하여 P(0)를 1로 설정한다.When the center pixel P (0) is 0, if there are three or more black pixels among the four-direction neighbor pixels {P (2), P (4), P (6), P (8)}, it is determined as noise. Set P (0) to 1.
중심화소 P(0)가 1인 경우에는 8방향주변화소 {P(1), P(2), … P(8)} 중에서흑화소가 2개 미만일 경우 잡음으로 판단하여 P(0)를 0로 설정하며, 2개인 경우에는 그 연결성을 고려하여 도 4에 도시한 바와 같이 보존되어야 할 얇은 선의 성분인가를 판단해서 얇은 선의 성분이면 흑화소를 그대로 유지하고 그렇지 않으면 P(0)를 0으로 설정한다.When the center pixel P (0) is 1, the eight-way main shift pixels {P (1), P (2),... If there are less than two black pixels in P (8)}, P (0) is set to 0 by judging as noise, and in case of two, is it a thin line component to be preserved as shown in FIG. 4 in consideration of its connectivity? If it is a thin line component, the black pixel is kept as it is, otherwise P (0) is set to zero.
8방향 이웃화소가 보존되어야 할 얇은 성분인가를 판단하기 위한 C값을 C = [(P(1) + P(7) + P(8)) - (P(3) + P(4) +P(5))] * [(P(1) +P(2) +P(3)) - (P(5) + P(6) + P(7))]과 같이 설정하여, C값이 0이 되는 경우는 얇은 선의 성분으로 판단하고 0이 아닌 경우에는 잡음으로 판단한다.To determine whether the 8-direction neighboring pixel is a thin component to be preserved, set the C value C = ((P (1) + P (7) + P (8))-(P (3) + P (4) + P (5))] * [(P (1) + P (2) + P (3))-(P (5) + P (6) + P (7))], so that the C value is 0 In this case, it is judged as a thin line component, and when it is not 0, it is judged as noise.
2-2. 선형화2-2. Linearization
평활화된 영상을 직선, 직각화하는 단계로 입력 영상데이터의 불완전성으로 인한 불필요한 특징점 발생을 최소화함으로써 인식률의 향상에 그 목적이 있다. 다음의 〈 표 4 〉와 같이 이웃화소들을 표현할 때, 주목점 S(n) = 1에 대해The purpose is to improve the recognition rate by minimizing unnecessary feature points due to incompleteness of the input image data. When representing neighboring pixels as shown in the following <Table 4>, for the point S (n) = 1
① R(n-2) + R(n-1) + R(n) + R(n+1) = 0① R (n-2) + R (n-1) + R (n) + R (n + 1) = 0
② S(n-2) + S(n-1) + S(n) = 1② S (n-2) + S (n-1) + S (n) = 1
③ T(n-2) + T(n-1) + T(n) = 3③ T (n-2) + T (n-1) + T (n) = 3
을 만족하면 R행에서 R(n)을 중심으로 0으로 연결되어 있고, T행에서 T(n)을 중심으로 1로 연결되어 있는 임계열 n-i, n+j를 찾는다. 이렇게 i와 j가구해지면 S(n-i)에서부터 S(n+j)까지 총화소수를 세어서 과반수면 임계열내의 모든 화소를 0으로 변환하고 그렇지 않으면 1로 변환한다.If is satisfied, the critical columns n-i and n + j are connected to R in row R and connected to 0 centered on R (n) and 1 on T (n) in row T. When i and j are found, the total pixel counts from S (n-i) to S (n + j) are converted to all pixels in the majority surface critical column to 0, otherwise to 1.
2-3. 정규화2-3. Normalization
문자의 특징 추출 전단계로써 다양한 문자의 종류와 크기에 적응할 수 있도록 하기 위해 개별 추출된 문자를 정규화 하여야 한다. 입력된 인식 대상의 문자영상을 40 x 40 크기의 영상데이터로 정규화 시킨다.Character Extraction Characters As a preliminary step, individual extracted characters should be normalized in order to be able to adapt to various character types and sizes. The text image of the input recognition object is normalized to 40 × 40 image data.
40 x 40의 크기는 일반 문서의 대부분의 문자인 10 point 크기의 문자를 300dpi의 스캐너로 입력했을 때의 크기이다.The 40 x 40 size is the size of a 10-dpi character that is most of the text of a normal document when entered with a 300 dpi scanner.
정규화 방법은 일반적으로 선형 정규화방법과 비선형 정규화방법을 고려할 수 있는데 비선형 정규화방법은 문자 영상의 변형을 방지하는 장점이 있으나 알고리즘이 매우 복잡하므로 처리 시간이 많이 소요된다. 그리고 기존의 선형정규화방법은 문자 영상 크기를 축소할 경우 획의 두께가 얇은 획들은 삭제되거나, 반대로 두꺼운 획을 갖는 복잡한 문자의 경우에는 인접한 획들이 서로 붙어서 문자의 특징을 정확하게 추출할 수 없는 단점이 있다. 따라서 본 고안에서는 개선된 선형 정규화 방법을 이용하여 안정된 정규화 패턴을 얻는다.In general, the normalization method may consider a linear normalization method and a nonlinear normalization method. The nonlinear normalization method has an advantage of preventing deformation of a character image, but the processing time is high because the algorithm is very complicated. In addition, the conventional linear normalization method deletes thin strokes when the character image is reduced in size, or conversely, in the case of a complex character having a thick stroke, adjacent strokes are attached to each other to accurately extract the characteristics of the character. have. Therefore, in the present invention, a stable normalization pattern is obtained by using an improved linear normalization method.
3. 문자의 1차 특징 추출3. Extraction of Primary Characters of Characters
문자인식방법은, 특징의 종류에 따라, 2차원문자영상을 그 자체로 이용하는방법과 문자의 모양을 잘 기술할 수 있는 특징을 추출하여 인식하는 방법으로 나눌 수 있다. 문자영상을 그대로 인식하는 방법은 특징 추출과정을 간소화시킬 수 있으며, 특징추출과정에서 생길 수 있는 정보의 손실을 막을 수 있지만, 인식 과정에서 계산량이 증가하므로 비효율적이다.The character recognition method can be divided into a method of using a two-dimensional character image by itself and a method of extracting and recognizing a feature that can describe the shape of the character well according to the type of the feature. The method of recognizing the text image as it is can simplify the feature extraction process and prevent the loss of information that may occur in the feature extraction process, but it is inefficient because the computational amount increases during the recognition process.
다양한 문자 특징추출방법에 대하여 많은 고안이 진행되어 왔으며 대표적인 특징으로 망특징, 투영특징, 교차거리특징 등이 있다.Many designs have been developed for various character feature extraction methods, and typical features include network features, projection features, and cross-distance features.
3-1. 망특징3-1. Network features
망 특징(Mesh Feature)은 문자 영상을 수직과 수평축으로 N x M 개의 부 영역으로 나눈 뒤 각 영역 안의 흑화소의 밀도를 나타내며, 이 방법은 부분적인 영상해석에 유용하다.The mesh feature divides the character image into N x M sub-areas on the vertical and horizontal axes, and then represents the density of the black pixels in each area. This method is useful for partial image analysis.
본 고안에서는 도 5와 같이 40 x 40의 정규화 데이터에 대해 다음과 같은 크기로 영역을 분할하여 전체 47개 영역에 대하여 각각의 흑화소의 수를 구한다.In the present invention, as shown in FIG. 5, the number of black pixels is obtained for all 47 regions by dividing the region into the following sizes with respect to 40 × 40 normalized data.
(1) 40 x 40 : 1개 영역(1) 40 x 40: 1 area
(2) 20 x 20 및 중앙(20 x 20) : 5개 영역(2) 20 x 20 and center (20 x 20): 5 zones
(3) 10 x 10 : 16개 영역(3) 10 x 10: 16 areas
(4) 10 x 20 : 8개 영역(4) 10 x 20: 8 areas
(5) 20 x 10 : 8개 영역(5) 20 x 10: 8 areas
(6) 가상영역을 포함한 20 x 20: 9개 영역(6) 20 x 20 including virtual areas: 9 areas
이후 위에 정의한 크기의 메쉬 내에 존재할 수 있는 총 화소수로 나누어 얻은 0과 1사이의 값을 도 6의 망 특징으로 한다.Then, a value between 0 and 1 obtained by dividing by the total number of pixels that may exist in the mesh of the size defined above is characterized by the network of FIG. 6.
3-2. 투영 특징3-2. Projection features
투영 특징(Projection Feature)은 수직 축으로 N번, 수평축으로 M번 주사했을 때, 만나는 흑화소의 개수를 누적하여 획의 특징을 나타내는 특징이다. 잡음에 영향을 덜 받으며, 동일 축 상에 존재하는 긴 획을 잘 표현한다.The projection feature is a feature that indicates the characteristics of the stroke by accumulating the number of black pixels that are encountered when scanning N times on the vertical axis and M times on the horizontal axis. It is less susceptible to noise and expresses long strokes on the same axis.
본 고안에서는 도 7과 같은 방법으로 40 x 40의 정규화 데이터에 대해 다음과 같은 크기로 영역을 분할한 후, 전체 22개의 영역으로부터 600개의 특징을 구한다. 도 8에는 구해진 투영특징의 추출결과를 시계열로 나타낸 것이다.In the present invention, after dividing the region into the following sizes for normalized data of 40 × 40 in the same manner as in FIG. 7, 600 features are obtained from 22 regions in total. 8 shows the extraction results of the obtained projection features in time series.
(1) 40 x 40 : 1개 영역 (80개)(1) 40 x 40: 1 area (80)
(2) 20 x 20 및 중앙(20 x 20) : 5개 영역 (200개)(2) 20 x 20 and center (20 x 20): 5 zones (200)
(3) 10 x 10 : 16개 영역 (320개)(3) 10 x 10: 16 areas (320)
3-3. 교차거리 특징3-3. Intersection features
교차거리 특징(Cross Distance Feature)은 수직 축으로 N번, 수평축으로 M번 주사했을 때, 최초의 흑화소를 만날 때까지의 거리를 구하는 방법이다. 이 방법은 전체적인 외형을 잘 표현하지만, 잡음 성분에 의해 민감한 반응을 보일 수도 있다. 본 고안에서는 도 9와 같은 방법을 이용하여 40 x 40의 정규화 데이터에 대해 상, 하, 좌, 우의 4 방향에서 160개의 특징을 구한다. 도 10에는 구해진 교차거리 특징의 추출결과를 시계열로 나타내 것이다.The cross distance feature is a method of determining the distance until the first black pixel is encountered after scanning N times on the vertical axis and M times on the horizontal axis. This method expresses the overall appearance well, but may be sensitive to noise. In the present invention, 160 features are obtained in four directions of up, down, left, and right with respect to 40 × 40 normalized data using the method shown in FIG. 9. In Fig. 10, the extraction results of the obtained cross-distance features are shown in time series.
3-4 1차 특징값의 재설정3-4 Resetting Primary Feature Values
문자 영상으로부터 1차 추출한 총 807개의 망, 투영, 교차거리 특징값에 대해 시스템의 기계적 잡음에 의한 영향을 줄이고, 양질의 정보를 다음 단계인 어트랙터 추출 모델에 전달하기 위해 1차 추출한 개별 문자 특징값(cfi)를 다음과 같이 단계별로 재설정 한다. 여기서 i= 1, 2, 3, .. , 807 이다.Individual character features extracted first to reduce the effects of system noise on a total of 807 network, projection, and cross-distance feature values extracted from text images, and to deliver high-quality information to the next-generation attractor extraction model. Reset the value (cfi) step by step as follows: Where i = 1, 2, 3, .., 807.
(1) cfi 〈 0.1일 경우, cfi = 0.0로 재설정(1) If cfi <0.1, reset to cfi = 0.0
(2) 0.1 cfi 〈 0,2 일 경우, cfi = 0.15로 재설정(2) If 0.1 cfi <0,2, reset to cfi = 0.15
(3) 0.2 cfi 〈 0.3 일 경우, cfi = 0.25로 재설정(3) If 0.2 cfi <0.3, reset to cfi = 0.25
(9) 0.8 cfi 〈 0.9 일 경우, cfi = 0.85로 재설정(9) If 0.8 cfi <0.9, reset to cfi = 0.85
(10) cfi 0.9 일 경우, cfi = 1.0으로 재설정 한다.(10) If cfi 0.9, reset to cfi = 1.0.
이와 같이 하여 한 개별 문자에 대해 총 807개의 특징값을 구하고 구해진 특징값을 시계열로 정리한다.In this way, a total of 807 feature values are obtained for each individual character, and the obtained feature values are arranged in time series.
4. 어트랙터 추출 모델4. Attractor Extraction Model
본 고안에서는 카오스 이론을 문자인식에 적용하기 위해 문자 영상으로부터 구한 재설정된 1차 특징을 수정된 에농 시스템에 대입하여 문자 어트랙터를 재구성한 후, 먼저 어트랙터 궤도의 분포를 정성적으로 분석함으로써 혼동문자들이 구별가능한지를 살펴본다.In this design, after reconstructing the character attractor by substituting the reconstructed primary feature obtained from the character image to the modified eneon system to apply the chaos theory to the character recognition, we first confuse it by qualitatively analyzing the distribution of the attractor trajectories. See if the characters are distinguishable.
4-1 제안된 시스템의 어트랙터 추출 모델4-1 Attractor Extraction Model of Proposed System
에농 어트랙터는 로렌츠 시스템의 동력학계(Dynamic System)를 단순화한 모델로 부메랑과 같은 모양을 하고 있다. 에농 시스템은 1차원의 동력학계에서 2차원적인 변환에 의해 고차원의 스트레인지 어트랙터를 이끌어 낸다. 또한 에농 시스템은 log 변환에서 발생하는 카오스에 대한 분석과 유사하게 단순한 반면, 로렌츠 어트랙터와 같이 좀 더 복잡한 어트랙터의 특징도 포함하고 있다. 2차원에서 발생하는 에농 시스템의 팽창과 수축(Stretch-and-Fold) 작용은 x 와 y의 2차원 좌표로 표현할 수 있다. 그러므로 에농 시스템의 변환 함수는 평면에서 발생하는 어핀 변환(Affine Transformation)과 유사하게 동작한다. 에농 시스템의 변환 함수 H(X, Y)는 다음의 수학식2과 같다.The Ennon Attractor is a boomerang-like model that simplifies the Lorentz system's dynamic system. The Ennon system derives a high-dimensional range attractor by two-dimensional transformation in one-dimensional dynamics. In addition, the Ennon system is similar to the analysis of chaos that occurs in log transformation, while also including features of more complex attractors, such as the Lorentz attractor. The stretch-and-fold action of the eneon system in two dimensions can be expressed by two-dimensional coordinates of x and y. Therefore, the Ennon system's transform function behaves similarly to Affine Transformation occurring in the plane. The conversion function H (X, Y) of the Enong system is shown in Equation 2 below.
에농 시스템은 log변환과 유사하게 임의의 상수인 a, b 그리고 시작점인(x0, y0)에 민감하게 반응한다. 다시 말해서 카오스 이론의 특징인 초기 조건에 민감한 의존성을 보여준다. 에농은 초기 조건으로 a=1.4, b=0.3 그리고 (x0, y0) = (0, 0) 으로 하였다. 시작점 (x0, y0)와 피드백에 의해 발생하는 점들로 어트랙터가 재구성된다. 이러한 피드백이 있는 변환 함수 H(Xk+1, Yk+1)는 다음의 수학식3과 같다.The Enon system is sensitive to random constants a, b and the starting point (x0, y0), similar to the log transformation. In other words, it shows a dependence sensitive to the initial conditions that characterize chaos theory. Enones were a = 1.4, b = 0.3 and (x0, y0) = (0, 0) as initial conditions. The attraction is reconstructed from the starting point (x0, y0) and the points generated by the feedback. The conversion function H (Xk + 1, Yk + 1) with such feedback is shown in Equation 3 below.
도 11에는 에농 시스템의 x, y축 시계열 데이터와 재구성된 어트랙터를 나타내었다.FIG. 11 shows the x, y-axis time series data and the reconstructed attractor of the Enon system.
본 고안에서는 망, 투영, 교차거리 특징을 이용하여 추출한 문자 영상의 1차 특징(cfi)을 반영하기 위해, 에농 어트랙터 생성 모델을 수정하여 문자 어트랙터를 재구성하였다. 수정된 에농 시스템의 변환 함수 H'(Xk+1, Yk+1)는 다음 수학식4와 같다.In this design, the character attractor was reconstructed by modifying the model that generated the Enon attractor to reflect the first feature (cfi) of the extracted text image using the network, projection, and cross-distance features. The transform function H '(Xk + 1, Yk + 1) of the modified Enon system is as shown in Equation 4 below.
여기서, k = 0, 1, 2, 3, . . ., n 이며, i =1, 2, 3, .. 807 (1차 특징 추출값)이다.Where k = 0, 1, 2, 3,. . , n, and i = 1, 2, 3, .. 807 (primary feature extraction).
4-2. 시스템의 매개변수 설정4-2. Parameters for the system
아울러, 본 고안에서는 문자특징을 잘 반영하는 시스템의 매개변수를 찾기 위해 반복 실험하였다. 실험에서는 매개변수 b를 0.3으로 고정해 놓고, a를 조정하는 방법을 선택하였다 〈 표 5 〉에는 매개변수 설정실험 결과를 나타낸다.In addition, the present invention was repeated to find the parameters of the system that well reflects the character features. In the experiment, the parameter b was fixed at 0.3, and a method of adjusting a was selected. Table 5 shows the results of the parameter setting experiment.
본 고안에서는 최적의 문자 어트랙터를 재구성하는 파라미터로 a=0.55, b=0.3을 선정하였다.In this design, we selected a = 0.55 and b = 0.3 as parameters to reconstruct the optimal character attractor.
도 12 및 도 13을 참조하면, 본 고안에 의한 혼동문자들 간의 어트랙터를 구성하는 점들이 서로 상이한 궤적을 그리고 있어 정성적으로 서로 다른 문자임을 구별할 수 있다.12 and 13, the points constituting the attractor between the confused characters according to the present invention draw a different trajectory and can be distinguished from each other qualitatively.
상술한 본 고안의 실험결과 한글 2,350자에 대하여 99.49%의 분류율을 나타내어 제안된 방법의 유효성을 보였다. 본 고안에서는 기존의 어트랙터 구성 방법과는 다른 방법으로 문자 패턴에서의 카오스 현상을 찾기 위해 노력하였다. 문자 인식 분야 뿐만 아니라 지문 인식, 얼굴 화상 인식, 서명 인식 등 개인 인증 분야에 폭 넓게 응용할 수 있을 것으로 본다.Experimental results of the present invention showed a 99.49% classification rate for 2,350 Korean characters, showing the effectiveness of the proposed method. In this design, we tried to find the chaos phenomenon in the character pattern differently from the existing method of constructing the attractor. It is expected to be widely applied to personal authentication fields such as fingerprint recognition, face image recognition and signature recognition as well as the character recognition field.
Claims (2)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20-2003-0024169U KR200331199Y1 (en) | 2003-07-25 | 2003-07-25 | apparatus for generating character attractor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20-2003-0024169U KR200331199Y1 (en) | 2003-07-25 | 2003-07-25 | apparatus for generating character attractor |
Publications (1)
Publication Number | Publication Date |
---|---|
KR200331199Y1 true KR200331199Y1 (en) | 2003-10-22 |
Family
ID=49339733
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR20-2003-0024169U KR200331199Y1 (en) | 2003-07-25 | 2003-07-25 | apparatus for generating character attractor |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR200331199Y1 (en) |
-
2003
- 2003-07-25 KR KR20-2003-0024169U patent/KR200331199Y1/en not_active IP Right Cessation
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kale et al. | Zernike moment feature extraction for handwritten Devanagari compound character recognition | |
Xiong et al. | Text-independent writer identification using SIFT descriptor and contour-directional feature | |
Cavalin et al. | A multiple feature vector framework for forest species recognition | |
EP0649113A2 (en) | Multifont optical character recognition using a box connectivity approach | |
Chen et al. | Robust text line segmentation for historical manuscript images using color and texture | |
Reta et al. | Amharic handwritten character recognition using combined features and support vector machine | |
Garlapati et al. | A system for handwritten and printed text classification | |
KR20160148563A (en) | Pattern recognition system and method using gabor functions | |
De Nardin et al. | Few-shot pixel-precise document layout segmentation via dynamic instance generation and local thresholding | |
Aravinda et al. | Template matching method for Kannada handwritten recognition based on correlation analysis | |
Al-shatnawi et al. | The Thinning Problem in Arabic Text Recognition-A Comprehensive Review | |
Bania et al. | Handwritten assamese character recognition using texture and diagonal orientation features with artificial neural network | |
Pradeep et al. | An investigation on the performance of hybrid features for feed forward neural network based English handwritten character recognition system | |
KR200331199Y1 (en) | apparatus for generating character attractor | |
Deshmukh et al. | Analysis of directional features-stroke and contour for handwritten character recognition | |
Kumawat et al. | Offline handwriting recognition using invariant moments and curve let transform with combined SVM-HMM classifier | |
Naz et al. | Challenges in baseline detection of cursive script languages | |
Kunte et al. | Wavelet descriptors for recognition of basic symbols in printed Kannada text | |
KR200331200Y1 (en) | apparatus for recognizing character using fractal dimension | |
Wadhwa et al. | Dissected Urdu Dots Recognition Using Image Compression and KNN Classifier | |
Darma | Handwritten Balinesse Character Recognition using K-Nearest Neighbor | |
Zhong et al. | Image patches analysis for text block identification | |
Mozaffari et al. | A Hybrid Structural/Statistical Classifier for Handwritten Farsi/Arabic Numeral Recognition. | |
Rodrigues et al. | Feature extraction using contour projection | |
Djeddi et al. | Signature verification for offline skilled forgeries using textural features |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
REGI | Registration of establishment | ||
LAPS | Lapse due to unpaid annual fee |