KR100456620B1 - 한글문자 인식 방법 - Google Patents

한글문자 인식 방법 Download PDF

Info

Publication number
KR100456620B1
KR100456620B1 KR10-2001-0082018A KR20010082018A KR100456620B1 KR 100456620 B1 KR100456620 B1 KR 100456620B1 KR 20010082018 A KR20010082018 A KR 20010082018A KR 100456620 B1 KR100456620 B1 KR 100456620B1
Authority
KR
South Korea
Prior art keywords
components
recognizing
hangul
direction angle
recognition
Prior art date
Application number
KR10-2001-0082018A
Other languages
English (en)
Other versions
KR20030052126A (ko
Inventor
임길택
김호연
김두식
남윤석
김혜규
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR10-2001-0082018A priority Critical patent/KR100456620B1/ko
Publication of KR20030052126A publication Critical patent/KR20030052126A/ko
Application granted granted Critical
Publication of KR100456620B1 publication Critical patent/KR100456620B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • G06V30/153Segmentation of character regions using recognition of characters or words
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Character Discrimination (AREA)

Abstract

본 발명은 한글문자 인식 방법에 관한 것으로, 스캐너 또는 카메라와 같은 영상 입력 장치로 획득된 문서 영상에 존재하는 한글 문자영상을 한글 자소의 조합에 따라 분류된 여러 결합 유형 중 하나의 유형으로 분류하는 단계와, 분류된 유형에 따라 문자를 자소 또는 결합된 자소로 구성된 구성요소들로 분리하는 단계와, 분리된 각 구성요소들을 구성요소별로 인식하는 단계를 포함하며, 인식단위를 보다 쉽게 분리해낼 수 있어 자소분리 오류를 최소화하고, 문자 영상을 이루는 화소에 방향각도를 부여함과 아울러 문자의 구성요소들을 1차적으로 인식한 후 신경망 인식기의 인식양상을 특징치로 하여 2차적으로 구성요소들을 재인식하는 과정을 수행함으로써 문자 인식률이 향상되는 이점이 있다.

Description

한글문자 인식 방법{HANGUL CHARACTER RECOGNITION METHOD}
본 발명은 한글문자 인식 방법에 관한 것으로, 더욱 상세하게는 스캐너 또는 카메라 등의 영상 입력 장치로 획득된 문서 영상에 존재하는 한글문자 영상을 인식하는 방법에 관한 것이다.
한글은 19개의 초성과 21개의 중성 및 27개의 종성들이 2차원적으로 조합되어 문자가 구성되기 때문에 인식 대상이 11,172개가 될 정도로 매우 많다. 사용빈도가 높은 문자만을 대상으로 인식하더라도 1,000∼2,000여 종류가 되므로 높은 인식률의 인식시스템을 구현하는 것은 매우 어렵다. 따라서 한글문자 인식방법은 문자단위의 인식 방법보다는 자소단위의 인식 방법이 주류를 이루고 있다.
자소단위 인식 방법은 한글문자를 구성하고 있는 자소들의 조합형태에 따라 분류된 유형정보를 기반으로 하고 있다. 한글 자소의 조합 형태는 도 1에 도시한바와 같이 6가지의 유형으로 분류될 수 있다. 자소단위 한글문자 인식방법은 자소들간의 이러한 조합 형태를 이용하여 자소 영상들을 추출해내고 이들에 대한 인식을 수행한 후 그 결과를 조합하는 것이다.
종래 기술에 따른 자소단위 한글문자 인식 방법을 도 2의 흐름도를 참조하여 설명하면 다음과 같다.
먼저, 스캐너 또는 카메라 등의 영상 입력 장치에 의해 획득된 문서영상에서 개별 문자 영상 추출 단계를 거쳐 인식대상이 되는 문자 영상을 입력받는다(S1).
단계 S1에서 입력된 문자 영상을 도 1에 도시된 한글의 6가지 유형 중 하나의 유형으로 분류한다(S2).
단계 S2의 유형분류 과정을 수행한 후 얻어지는 자소의 조합 위치 정보를 이용하여 자소별로 부분 영상을 분리한다(S3).
단계 S3에서 분리된 자소 영상들에 대해 특징치를 추출한 후, 이를 이용하여 자소를 인식하고 인식된 자소들을 단순 조합함으로써 최종 인식결과를 얻는다(S4).
상기와 같은 자소단위 한글문자 인식 방법에서 문자가 오인식되는 유형은 크게 3가지로 나뉘어질 수 있다.
첫째, 자소분리 오류에 의한 문자인식 오류이다.
자소단위 한글문자 인식 방법은 자소 인식결과를 단순 조합하므로 문자를 구성하고 있는 자소들 중 한 개의 자소라도 오인식 된다면 문자인식 오류가 필연적으로 일어나게 된다. 따라서, 문자 오인식률을 낮추기 위해서는 자소의 오분리를 우선적으로 최소화시키는 것이 필요하다.
둘째, 특징치가 부적절함으로 인해 일어나는 오류이다.
정확히 분리된 자소라고 하더라도 인식기의 입력이 되는 특징치가 자소를 정확히 구분할 수 없을 정도로 애매모호하면 아무리 우수한 인식기를 사용하더라도 인식오류가 발생한다.
자소단위의 인쇄체 한글문자 인식방법에서는 그물눈 특징치를 많이 사용하고 있다. 그물눈 특징치는 인식 대상 영역을 몇 개의 부분 영역으로 나누고 부분 영역내에 존재하는 문자의 획성분인 검은 화소의 밀도값으로 영상을 블러링(blurring)하는 특성이 있다. 이러한 특성으로 인해 "ㅇ"과 "ㅁ" 등과 같은 유사 자소 및 문자간의 구분이 어려워지기도 한다. 또한 문자 획의 두께에 민감하며 끊어지거나 잡영이 있는 경우에도 인식률이 떨어지는 단점이 있다.
셋째, 인식된 자소의 단순조합으로 인해 일어나는 오류이다.
이러한 오류가 일어나는 예를 도 3에 나타내었다. 도 3a의 경우 초성자음인 "ㄹ"과 종모음 "ㅣ"로 구성된 "리"의 문자 영상이다. 이 문자 영상에 대해 자소분리 과정을 적용하여 인식을 하면 "ㄹ"과 "ㅓ"로 인식이 되고 이들을 조합하면 "러"로 최종 인식된다.
도 3b의 경우 초성자음 "ㄷ"과 종모음 "ㅓ"로 구성된 "더"의 문자 영상이다. 이 경우도 도 3a의 경우와 마찬가지로 종모음이 "ㅕ"로 오인식이 된다. 이러한 형태의 오류는 조합되는 자소 간의 접촉이 존재하는 몇 종류의 글꼴에서는 필연적으로 발생하게 된다. 도 3b의 초성자음 영상은 "ㄷ" 또는 "ㅌ"으로 인식될 수 있다. 자소분리 과정을 통해 획득된 초성자음 영상에는 "ㄷ"을 이루는 화소들과 종모음의일부분이 포함되어있다. 이러한 화소들이 잡영으로 간주되어 제거되면 남아있는 화소들에 대한 인식이 용이하겠지만 한글 자소가 작은 획의 차이로 구분되기도 하므로 잡영 제거 과정이 입력 영상의 자소 종류를 완전히 바꾸기도 한다. 특히 끊어짐이 많거나 저해상도의 한글문자의 인식에서는 더욱 악영향을 끼치게 된다.
이러한 오류 유형은 상기한 오류 유형의 첫째인 자소분리 오류의 경우와는 분명히 구분되어야 한다. 왜냐하면 자소분리 단계에서는 문자영상을 이루는 화소들만으로 자소를 분리하므로 도 3과 같은 형태의 문자들에 대해서는 완벽한 자소의 분리가 불가능하기 때문이다. 따라서 이러한 유형에 대해서는 자소분리 오류가 일어난 경우로 판단하는 것은 타당하지 않다.
전술한 바와 같이 종래 기술에 따른 자소단위 한글 인식 방법은 한글 인식의 여러 오류 요인으로 인하여 높은 인식률의 인식시스템을 구현하는데 분명한 한계가 존재하는 문제점이 있었다.
본 발명은 이와 같은 종래의 문제점을 해결하기 위하여 제안한 것으로, 문서 영상에 존재하는 한글 문자영상을 한글 자소의 조합에 따라 분류된 여러 결합 유형 중 하나의 유형으로 분류한 후에 유형에 따라 문자를 자소 또는 결합된 자소로 구성된 구성요소들로 분리하여 각 구성요소별로 인식함으로써, 자소분리 오류를 최소화하면서 문자 인식률을 향상시키는 데 그 목적이 있다.
이와 같은 목적을 실현하기 위한 본 발명에 따른 한글문자 인식 방법은, 스캐너 또는 카메라와 같은 영상 입력 장치로 획득된 문서 영상에 존재하는 한글문자를 인식하는 방법에 있어서, 상기 문서 영상에 존재하는 한글 문자영상을 한글 자소의 조합에 따라 분류된 여러 결합 유형 중 하나의 유형으로 분류하는 제 1 단계와, 상기 분류된 유형에 따라 문자를 자소 또는 결합된 자소로 구성된 구성요소들로 분리하는 제 2 단계와, 상기 분리된 각 구성요소들을 구성요소별로 인식하는 제 3 단계와, 상기 인식된 구성요소들을 인식양상을 바탕으로 재인식하여 최종 문자인식을 수행하는 제 4 단계를 포함한다.
도 1은 종래 기술에 따른 한글문자의 6유형 분류도,
도 2는 종래 기술에 따른 한글문자 인식 방법의 흐름도,
도 3a 및 도 3b는 종래 기술에 따른 한글문자 자소 분리의 예,
도 4는 본 발명에 따른 한글문자 인식 방법의 흐름도,
도 5는 본 발명에 따른 한글문자의 6유형 분류도,
도 6은 본 발명에 따른 한글문자 인식 방법에서 각 구성요소별 인식 절차의 흐름도,
도 7a 및 도 7b는 본 발명에 따른 한글문자 인식 방법에서 화소 방향 각도의 정의를 설명하기 위한 참고도,
도 8은 본 발명에 따른 한글문자 인식 방법에서 방향각도 특징치 벡터의 추출 과정을 설명하기 위한 참고도,
도 9a는 본 발명에 따른 한글문자 인식 방법에서 도 5의 유형 1 문자에 대한 구성요소(초성자음) 인식 신경망 구조도,
도 9b는 본 발명에 따른 한글문자 인식 방법에서 도 5의 유형 1 문자에 대한 구성요소(종모음) 인식 신경망 구조도,
도 10은 본 발명에 따른 한글문자 인식 방법에서 구성요소 재인식 절차의 흐름도,
도 11은 본 발명에 따른 한글문자 인식 방법에서 인식양상 특징치 벡터의 추출 과정도,
도 12는 본 발명에 따른 한글문자 인식 방법에서 이용하는 구성요소 재인식 신경망의 구조도,
도 13은 본 발명에 따른 한글문자 인식 방법에서 도 5의 유형 1 문자에 대한 구성요소 인식 흐름도.
본 발명의 실시예로는 다수개가 존재할 수 있으며, 이하에서는 첨부한 도면을 참조하여 바람직한 실시예에 대하여 상세히 설명하기로 한다. 이 실시예를 통해 본 발명의 목적, 특징 및 이점들을 보다 잘 이해할 수 있게 된다.
본 발명에 따른 한글문자 인식 방법은 도 4의 흐름도에 나타낸 바와 같이, 스캐너 또는 카메라 등과 같은 영상 입력 장치로 획득된 문서 영상에 존재하는 한글문자 영상을 입력하는 제 1 단계(S10)와, 상기 입력된 문자영상을 한글 6가지 유형 중 하나의 유형으로 분류하는 제 2 단계(S20)와, 상기 분류된 유형정보를 기반으로 구성요소들을 분리하는 제 3 단계(S30)와, 상기 분리된 각 구성요소들을 구성요소별로 인식하는 제 4 단계(S40)와, 상기 구성요소별로 인식한 후 인식양상을 바탕으로 구성요소들을 재인식하는 제 5 단계(S50)로 구성된다.
단계 S20에서의 한글문자 유형분류는 통계적 방법 또는 신경망을 이용한 방법 등이 사용될 수 있다.
단계 S30에서의 구성요소 영상 분리는 한글 자소의 조합정보를 이용함으로써 구성요소들이 대략적으로 위치한 곳을 추정하여 영역을 추출한다.
종래의 자소단위 한글문자 인식 방법은 인식단위를 일률적으로 자소로 하였다. 따라서 한글문자를 인식하기 위해서는 문자를 구성하는 자소들을 모두 분리해야한다. 이러한 방법은 자소의 특성이 글꼴에 따라 변형이 많은 도 1의 유형 3과 6에서는 자소의 분리가 유형 1, 2, 4, 5에 비해 어렵다. 왜냐하면, 한글문자의 유형은 모음의 위치에 의해 결정되는데 유형 3과 6은 횡모음과 종모음이 결합되어 모음정보의 추출이 상대적으로 어렵기 때문이다.
이러한 종래 기술의 문제점을 보완하기 위하여 본 발명에 이용되는 한글문자의 6 유형은 도 5에 나타낸 바와 같다.
도 5에 도시한 바와 같이 본 발명에서는 유형 3과 6에 대하여 초성자음과 횡모음을 하나의 구성요소로 하여 인식한다. 즉 초성자음과 횡모음 및 종모음이 함께 조합된 한글문자는 초성자음과 횡모음의 결합 자소를 하나의 구성요소로 분리하고 나머지 자소를 각각의 구성요소로 분리하며, 이외의 한글문자는 모든 자소를 각각의 구성요소로 분리하는 것이다.
유형 1, 2, 4, 5의 한글에 대해서는 구성요소를 도 1에 도시한 바와 동일하게 자소로 한다. 즉, 유형 1, 2, 3의 한글 문자는 2개의 구성요소로 나뉘어져 인식되고 유형 4, 5, 6의 한글 문자는 3개의 구성요소로 나뉘어져 인식된다. 따라서 단계 S30에서는 유형별 구성요소의 수만큼의 구성요소 영상들이 분리된다.
단계 S40은 도 6에 나타낸 바와 같이, 단계 S30에서 추출된 구성요소에 대해 특징치를 추출하는 단계(S41)와, 추출된 특징치를 이용하여 각 구성요소를 인식하는 단계(S42)로 이루어진다.
단계 S41에서 구성요소 영상의 특징치는 화소의 방향각도를 이용하여 추출된다. 영상을 이루는 각 화소의 위치를 기준점으로 하여 인접하는 검은 화소들을 벡터의 형태로 표현하고 이 벡터들을 합하여 얻어지는 벡터의 방향각도를 해당 위치에서의 화소 방향각도로 한다.
(x,y) 위치에서의 화소 값을 f(x,y)로 표현하면, 화소의 방향각도 (x,y)는 다음의 수학식 1과 같이 정의된다.
여기서, f(x,y)는 0 ,1의 이진값 또는 명도값을 가지며, f(x+a, y+b)는 f(x,y)에서 x축으로 a, y축으로 b만큼의 거리에 위치한 화소이고, a, b는 정수값이다. w는 화소 방향각도 계산에 포함되는 인접화소들을 한정시키는 창의 크기이다. w를 3으로 두었을 때 8개의 인접하는 화소가 계산에 포함되며 5로 두었을 때는 24개의 인접화소가 계산에 포함된다.
상기와 같은 방향각도를 보다 명확하게 설명하기 위해 도 7에 w를 3으로 두었을 때 이진값을 가지는 f(x,y)경우의 예를 도시하였다.
도 7a에서는 창내에 한 개의 검은 화소가 존재하여 화소 벡터는 [1,1]T이며 방향각도는 45도이다.
도 7b에서는 297도의 방향 각도가 계산된다. 도 7에서 T는 벡터 전치(transpose)를 의미한다. Nx×Ny 크기의 영상에 대해서는 Nx×Ny 개의 화소 방향각도가 존재하는데 모두를 특징치로 하면 효율성이 좋지 못하므로 몇 개의 그룹으로 나누어 특징치 벡터를 추출한다.
특징치 벡터 추출과정의 설명의 편의를 위해 도 8에 화소 방향각도 공간에서의 변수를 도시하였다. Nx×Ny 크기의 입력 영상에 대해, Nx×Ny 개의 성분으로 이루어진 방향각도 공간을 구할 수 있다. 이 공간을 Bx×By 개의 부분영역들로 나눈 다음, 각 부분영역별로 bw(bin-width)에 의해 결정되는 L개의 빈을 할당하여 방향각도 α(x,y)를 다음의 수학식 2에 의해 계산되는 빈에 누적한다.
여기서, bw는 빈의 폭을 나타내는 각도로써, 0도 보다 크고 360도 보다 작은 값이고 L은 각 부분영역의 빈의 개수이다. Sbi는 bi번째 부분영역의 화소 집합이며, Fr(bi, n)은 α(x,y)가 저장되는 빈의 누적치로써 bi번째 부분영역의 n번째 빈에 누적된 α(x,y)들의 총 수를 나타낸다. 입력 영상의 특징치 벡터는 Fr(bi, n)을 해당 부분영역의 크기인 mx×my로 나눈 값을 성분으로 한다. 따라서, Bx×By개의 부분영역별로 L개의 빈이 있으므로 특징치 벡터의 차원은 Bx×By×L이 된다. 이러한 방향각도 특징치는 종래의 그물눈 특징치가 단순히 0과 1의 이진 값에서 추출된 정보인데 비해 본 발명의 방향각도 특징치는 화소에 방향각도를 부여함으로써 그물눈 특징치의 특성과 방향각도 특성을 동시에 가지고 있어 유사문자의 구분에 보다 유리하다.
단계 S42에서는 신경망을 이용하여 단계 S41에서 추출된 방향각도 특징치 벡터를 입력으로 하여 구성요소별로 인식한다. 구성요소 인식 신경망의 출력노드의 수는 인식대상인 구성요소의 자소(또는 결합자소; 유형 3, 6의 첫번째 구성요소의 경우, 도 5 참조)의 수와 동일하다.
보다 명확한 설명을 위해 도 9에 한글 유형 1 문자의 구성요소들을 인식하는 신경망들의 예를 도시하였다. 도 9a는 유형 1의 첫번째 구성요소인 초성자음을 인식하기 위한 신경망으로서 도시된 바와 같이 신경망의 입력으로는 초성자음 영상의 방향각도 특징치 벡터이며 신경망 출력층의 각 노드에는 한글유형 1의 초성자음 코드가 순서대로 할당된다. 즉, 초성자음 인식 신경망의 출력층 노드의 개수는 한글유형 1의 초성자음 개수와 동일한 19개이다. 도 9b는 유형 1의 두 번째 인식단위인 종모음을 인식하기 위한 신경망으로서 신경망의 입력으로는 종모음 영상의 방향각도 특징치 벡터이며 신경망 출력층의 각 노드에는 한글유형 1의 종모음 코드가 순서대로 할당된다. 즉, 종모음 인식 신경망의 출력층 노드의 개수는 한글유형 1의 종모음 개수와 동일한 9개이다. 나머지 유형의 문자에 대한 구성요소 신경망 인식기의 구조도 유형 1문자에 대한 구성요소 신경망 인식기들과 마찬가지의 방식으로 구성된다.
단계 S40에서 구성요소들을 인식하고 이들을 단순 조합하면 한 개의 구성요소라도 오인식되었을 경우 문자인식 결과가 잘못된다. 또한, 도 3에 도시한 바와 같이 자소의 접촉으로 인해 정확한 구성요소의 분리가 불가능한 경우 분리된 구성요소들을 올바르게 인식하였다고 하더라도 문자인식 결과는 잘못된다. 따라서, 입력된 각 구성요소의 정보만으로 구성요소를 인식하기보다는 문자를 구성하는 다른 구성요소들과의 상대적인 정보도 참조하여 인식을 수행함으로써 보다 높은 인식률을 얻을 수 있을 것이다.
본 발명에서는 구성요소들을 인식한 후 2차적으로 재인식하는 과정을 수행함으로써 구성요소들에 대한 인식결과들을 단순 조합함으로써 일어나는 오인식 가능성을 현저히 감소시킬 수 있다.
단계 S50에서는 도 10에 도시한 바와 같이 단계 S40에서 구성요소 신경망 인식기가 구성요소를 인식하는 과정 중에 나타나는 인식 양상들을 새로운 특징치로 하여 구성요소를 재인식하게 된다.
단계 S51은 단계 S42의 구성요소 신경망 인식기의 인식 양상을 특징치로 추출하는 단계이다. 구성요소 신경망 인식기의 출력층 노드의 출력값은 주어진 입력에 대한 각 구성요소들에 해당하는 자소(또는 결합 자소)의 확률값을 반영한다. 즉, 가장 높은 출력값을 보이는 노드에 할당된 자소(또는 결합 자소) 코드가 입력 구성요소 영상의 인식결과인 것이다. 이러한 신경망 인식기의 출력층 노드들의 출력값은 중간층 노드들의 출력값을 이용하여 계산된다. 즉, 신경망 인식기의 인식결과는 주어진 입력에 대해 중간층과 출력층 노드들이 반응하는 양상에 따라 결정된다. 본 발명에서는 이러한 구성요소 인식 신경망의 중간층 노드들의 출력값과 출력층 노드들의 출력값들을 성분으로 하는 벡터를 인식양상 특징치 벡터로 하여 단계 S51에서 추출한다.
예를 들어, 한글 유형 1 문자인식을 위해서 도 9a에 도시한 19개의 초성자소를 인식하는 초성자소 인식 신경망과 도 9b에 도시한 9개의 종모음을 인식하는 종모음 인식 신경망이 각각 30개의 중간층 노드로 구현되면, 도 11에 도시한 바와 같이 초성자소 인식 신경망의 출력층(O1)으로부터 19개의 인식양상 특징치와 중간층(M1)으로부터 30개의 인식양상 특징치가 구해지고, 종모음 인식 신경망의 출력층(O2)으로부터 9개, 중간층(M2)으로부터 30 개의 인식양상 특징치가 구해진다. 따라서 전체 88개의 인식양상 특징치를 성분으로 하는 인식양상 특징치 벡터가 추출된다.
단계 S52에서는 단계 S51에서 추출된 인식양상 특징치 벡터를 입력으로 하는 신경망을 이용하여 구성요소들에 대한 재인식이 수행된다. 구성요소 재인식 신경망의 출력노드는 해당 유형의 구성요소인 자소(또는 결합자소)의 수와 같으며 하나의 자소(또는 결합자소)가 하나의 출력노드에 할당된다. 구성요소 재인식 신경망의 출력노드의 출력값을 계산한 후 각 출력노드들 중에서 가장 출력값이 큰 노드에 할당된 구성요소에 대한 자소(또는 결합자소)들을 조합하여 얻어진다.
예로써, 한글 유형 1 문자인식을 위한 구성요소 재인식 신경망의 구조를 도 12에 도시하였다. 유형 1 문자의 구성요소의 자소(또는 결합자소) 종류는 초성자음 19개와 종모음 9개이므로 구성요소 재인식 신경망의 출력노드 개수는 28개이며, "ㄱ", "ㄲ", …, "ㅣ"가 각 출력노드에 하나씩 할당된다. 최종 인식된 결과문자는 상위 19개의 노드들 중 최고값을 출력하는 노드에 할당된 초성자음과 하위 9개의 노드들 중 최고값을 출력하는 노드에 할당된 종모음을 조합함으로써 얻어진다. 나머지 유형의 문자에 대한 구성요소 재인식 신경망 인식기의 구조도 유형 1문자에 대한 구성요소 재인식 신경망 인식기와 마찬가지의 방식으로 구성된다.
도 4의 일련의 인식 흐름 중 단계 S30에서 단계 S50까지의 흐름에 대한 보다 명확한 이해를 위해 유형 1 문자의 인식에 대해 도 13에 전체적으로 도시하였다.
상기에서는 본 발명의 일 실시예에 국한하여 설명하였으나 본 발명의 기술이 당업자에 의하여 용이하게 변형 실시될 가능성이 자명하다. 이러한 변형된 실시예들은 본 발명의 특허청구범위에 기재된 기술사상에 포함된다고 하여야 할 것이다.
전술한 바와 같이 본 발명은 초성자음과 횡모음 및 종모음이 함께 조합된 한글문자는 초성자음과 횡모음의 결합 자소를 하나의 구성요소로 인식하므로 인식단위를 보다 쉽게 분리해낼 수 있어 자소분리 오류를 최소화한다.
그리고, 방향각도 특징치는 종래 기술에서 그물눈 특징치가 단순히 0과 1의 이진 값에서 추출된 정보인데 비하여 문자 영상을 이루는 화소에 방향각도를 부여함으로써 그물눈 특징치의 특성과 방향각도 특성을 동시에 가지고 있으므로 그물눈 특징치에 비해 유사 자소 및 문자에 대한 구분력이 높아져서 보다 높은 인식률을 얻을 수 있다.
또한, 문자의 구성요소들을 1차적으로 인식한 후 신경망 인식기의 인식양상을 특징치로 하여 2차적으로 구성요소들을 재인식하는 과정을 수행함으로써 구성요소들의 인식결과들을 단순 조합하는 방법에 비하여 인식률이 높게 향상되며, 문자 품질에 따른 인식성능도 둔감한 효과가 있다.

Claims (9)

  1. 삭제
  2. 스캐너 또는 카메라와 같은 영상 입력 장치로 획득된 문서 영상에 존재하는 한글문자를 인식하는 방법에 있어서,
    상기 문서 영상에 존재하는 한글 문자영상을 한글 자소의 조합에 따라 분류된 여러 결합 유형 중 하나의 유형으로 분류하는 제 1 단계와,
    상기 분류된 유형에 따라 문자를 자소 또는 결합된 자소로 구성된 구성요소들로 분리하는 제 2 단계와,
    상기 분리된 각 구성요소들을 구성요소별로 인식하는 제 3 단계와,
    상기 인식된 구성요소들을 인식양상을 바탕으로 재인식하여 최종 문자인식을 수행하는 제 4 단계
    를 포함하는 한글문자 인식 방법.
  3. 제 2 항에 있어서,
    상기 제 2 단계는 초성자음과 횡모음 및 종모음이 함께 조합된 한글문자는 초성자음과 횡모음의 결합 자소를 하나의 구성요소로 분리하고 나머지 자소를 각각의 구성요소로 분리하며, 이외의 한글문자는 모든 자소를 각각의 구성요소로 분리하는 것을 특징으로 한 한글문자 인식 방법.
  4. 제 2 항에 있어서,
    상기 제 3 단계는 상기 제 2 단계에서 분리된 구성요소에 대해 영상별 특징치를 화소의 방향각도를 이용하여 추출하는 제 31 단계와, 상기 추출된 특징치를 이용하여 각 구성요소를 인식하는 제 32 단계를 포함하는 것을 특징으로 한 한글문자 인식 방법.
  5. 제 4 항에 있어서, 상기 화소의 방향각도는
    영상을 이루는 각 화소의 위치를 기준점으로 하여 인접하는 검은 화소들을 벡터의 형태로 표현하고 이 벡터들을 합하여 얻어지는 벡터의 방향각도를 해당 위치에서의 화소 방향각도로 하는 것을 특징으로 한 한글문자 인식 방법.
  6. 제 4 항에 있어서,
    (x,y) 위치에서의 화소 값을 f(x,y)로 표현하면, 상기 화소의 방향각도 α(x,y)는 다음의 식
    (여기서, f(x,y)는 0 ,1의 이진값 또는 명도값을 가지며, f(x+a, y+b)는 f(x,y)에서 x축으로 a, y축으로 b만큼의 거리에 위치한 화소이고, a, b는 정수값이며, w는 화소 방향각도 계산에 포함되는 인접화소들을 한정시키는 창의 크기임)
    과 같이 하여 추출하는 것을 특징으로 한 한글문자 인식 방법.
  7. 제 4 항에 있어서, 상기 특징치는
    Nx×Ny 크기의 입력 영상에 대해서 Nx×Ny 개의 성분을 가지는 방향각도 공간을 mx×my 개의 화소로 이루어진 Bx×By 개의 부분영역들로 나눈 다음, 각 부분영역별로 bw(bin-width)에 의해 결정되는 L개의 빈을 할당하여 방향각도 α(x,y)를 다음의 식
    (여기서, bw는 빈의 폭을 나타내는 각도로써, 0도 보다 크고 360도 보다 작은 값이고 L은 각 부분영역의 빈의 개수이다. Sbi는 bi번째 부분영역의 화소 집합이며, Fr(bi, n)은 α(x,y)가 저장되는 빈의 누적치로써 bi번째 부분영역의 n번째 빈에 누적된 α(x,y)들의 총 수를 나타냄)
    에 의해 계산되는 빈에 누적한 다음 각 빈의 누적치를 부분영역의 크기인 mx×my로 나눈 값을 성분으로 하는, 전체 Bx×By×L 개의 성분을 갖는 특징치 벡터를 이용하는 것을 특징으로 한 한글문자 인식 방법.
  8. 제 7 항에 있어서,
    상기 방향각도 특징치 벡터를 입력으로 하여 상기 각 구성요소를 신경망으로 인식하는 것을 특징으로 한 한글문자 인식 방법.
  9. 제 2 항에 있어서, 상기 제 4 단계는
    상기 구성요소에 대한 인식양상 특징치를 구성요소 인식 신경망의 출력층의 출력값과 중간층의 출력값을 성분으로 하는 특징치 벡터로 하여, 모든 구성요소들을 하나의 신경망 인식기로 통합하여 재인식함으로써 최종 인식결과를 생성하는 것을 특징으로 하는 한글문자 인식 방법.
KR10-2001-0082018A 2001-12-20 2001-12-20 한글문자 인식 방법 KR100456620B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2001-0082018A KR100456620B1 (ko) 2001-12-20 2001-12-20 한글문자 인식 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2001-0082018A KR100456620B1 (ko) 2001-12-20 2001-12-20 한글문자 인식 방법

Publications (2)

Publication Number Publication Date
KR20030052126A KR20030052126A (ko) 2003-06-26
KR100456620B1 true KR100456620B1 (ko) 2004-11-10

Family

ID=29576978

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2001-0082018A KR100456620B1 (ko) 2001-12-20 2001-12-20 한글문자 인식 방법

Country Status (1)

Country Link
KR (1) KR100456620B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210109894A (ko) 2020-02-28 2021-09-07 금오공과대학교 산학협력단 신경망을 이용한 텍스트 인식 시스템 및 그 방법

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100718139B1 (ko) * 2005-11-04 2007-05-14 삼성전자주식회사 영상에 포함된 문자 인식장치 및 방법
US7844114B2 (en) * 2005-12-12 2010-11-30 Microsoft Corporation Logical structure layout identification and classification for offline character recognition
KR100919497B1 (ko) * 2008-07-22 2009-09-28 엔에이치엔(주) 이미지에 포함되는 한글 문자를 인식하기 위하여 자소분할하는 방법 및 컴퓨터 판독 가능한 기록 매체
KR102142347B1 (ko) 2019-10-01 2020-08-07 주식회사 카카오뱅크 신분증 인식 방법 및 이를 제공하는 어플리케이션
KR102215593B1 (ko) * 2019-10-24 2021-02-15 주식회사 한글과컴퓨터 확률에 기초하여 이미지에 포함된 한글 문자를 인식할 수 있는 문자 인식 장치 및 그 동작 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR970068639A (ko) * 1996-03-04 1997-10-13 기타오카 다카시 디지탈화상복호장치(digital image decoding apparatus)
KR19980025571A (ko) * 1996-10-02 1998-07-15 이준 규칙적인 잡음을 이용한 한글 인식 시스템
KR19980058361A (ko) * 1996-12-30 1998-09-25 구자홍 한글 문자 인식 방법 및 시스템
KR20010024208A (ko) * 1997-09-22 2001-03-26 가나이 쓰토무 문자 인식 장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR970068639A (ko) * 1996-03-04 1997-10-13 기타오카 다카시 디지탈화상복호장치(digital image decoding apparatus)
KR19980025571A (ko) * 1996-10-02 1998-07-15 이준 규칙적인 잡음을 이용한 한글 인식 시스템
KR19980058361A (ko) * 1996-12-30 1998-09-25 구자홍 한글 문자 인식 방법 및 시스템
KR20010024208A (ko) * 1997-09-22 2001-03-26 가나이 쓰토무 문자 인식 장치

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210109894A (ko) 2020-02-28 2021-09-07 금오공과대학교 산학협력단 신경망을 이용한 텍스트 인식 시스템 및 그 방법

Also Published As

Publication number Publication date
KR20030052126A (ko) 2003-06-26

Similar Documents

Publication Publication Date Title
US11922318B2 (en) System and method of character recognition using fully convolutional neural networks with attention
US20180137349A1 (en) System and method of character recognition using fully convolutional neural networks
Perwej et al. Neural networks for handwritten English alphabet recognition
EP0649113B1 (en) Multifont optical character recognition using a box connectivity approach
Jung et al. Multifont classification using typographical attributes
EP3539052A1 (en) System and method of character recognition using fully convolutional neural networks with attention
US7512272B2 (en) Method for optical recognition of a multi-language set of letters with diacritics
JPH11120293A (ja) 文字認識/修正方式
Lehal et al. Feature extraction and classification for OCR of Gurmukhi script
KR100456620B1 (ko) 한글문자 인식 방법
Agazzi et al. Pseudo two-dimensional hidden Markov models for document recognition
US10217020B1 (en) Method and system for identifying multiple strings in an image based upon positions of model strings relative to one another
Parui et al. Offline handwritten devanagari word recognition: An hmm based approach
Amara et al. Printed PAW recognition based on planar hidden Markov models
Vijay Kumar et al. Machine recognition of printed Kannada text
US5379349A (en) Method of OCR template enhancement by pixel weighting
KR100449805B1 (ko) 붙은 필기체 숫자열의 분할인식방법
US20020126903A1 (en) Word recognizing apparatus for dynamically generating feature amount of word and method thereof
KR100199296B1 (ko) 규칙적인 잡음을 이용한 한글 인식 시스템
Ajao et al. Hidden markov model approach for offline Yoruba handwritten word recognition
KR100479349B1 (ko) 자소기반 문자인식기 성능 향상방법
Fermanian et al. Deep recognition-based character segmentation in handwritten syriac manuscripts
Gatos et al. A segmentation-free recognition technique to assist old Greek handwritten manuscript OCR
Salameh et al. hyper recognition techniques for English digits using statistical analysis of nodes and Fuzzy Logic for pattern recognition
Bohra et al. Handwritten Character Recognition for major Indian Scripts: A Survey

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121031

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20131024

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20141027

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20151028

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20171027

Year of fee payment: 14