KR100523898B1 - 이미지 프로세싱 방법 및 장치 및 기록 매체 - Google Patents

이미지 프로세싱 방법 및 장치 및 기록 매체 Download PDF

Info

Publication number
KR100523898B1
KR100523898B1 KR10-2003-7010200A KR20037010200A KR100523898B1 KR 100523898 B1 KR100523898 B1 KR 100523898B1 KR 20037010200 A KR20037010200 A KR 20037010200A KR 100523898 B1 KR100523898 B1 KR 100523898B1
Authority
KR
South Korea
Prior art keywords
image
images
zone
template
group
Prior art date
Application number
KR10-2003-7010200A
Other languages
English (en)
Other versions
KR20030076647A (ko
Inventor
즐로트닉아비아드
Original Assignee
인터내셔널 비지네스 머신즈 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인터내셔널 비지네스 머신즈 코포레이션 filed Critical 인터내셔널 비지네스 머신즈 코포레이션
Publication of KR20030076647A publication Critical patent/KR20030076647A/ko
Application granted granted Critical
Publication of KR100523898B1 publication Critical patent/KR100523898B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/412Layout analysis of documents structured with printed lines or input boxes, e.g. business forms or tables
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/1444Selective acquisition, locating or processing of specific regions, e.g. highlighted text, fiducial marks or predetermined fields
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Character Input (AREA)

Abstract

이미지 프로세싱 방법은 유사한 특성을 갖는 이미지 그룹━상기 그룹은 다수의 클래스를 포함하며, 상기 각 이미지는 상기 클래스들 중 하나에 소속되어 있으며 자신이 소속된 클래스 내의 모든 이미지에 대해서 공통인 고정부(32,34,36)와 상기 클래스 내의 다른 이미지와 자신을 구별되게 하는 가변부(42)를 포함함━을 수신하는 단계를 포함한다. 상기 이미지에서 기준 구역━상기 기준 구역에서는 상기 클래스들 중 제 1 클래스 내의 이미지의 고정부(44)가 상기 클래스들 중 제 2 클래스 내의 이미지의 고정부(46)와 일관적으로 상이함━이 파악된다. 상기 기준 구역을 기초로 하여 상기 이미지를 상기 클래스로 분류한다.

Description

이미지 프로세싱 방법 및 장치 및 기록 매체{IDENTIFICATION, SEPARATION AND COMPRESSION OF MULTIPLE FORMS WITH MUTANTS}
본 발명은 전반적으로 데이터 이미지 프로세싱에 관한 것이며, 특히 사전인쇄된 서식 문서(preprinted form documents)의 인식 및 이 문서 내부에 존재하는 정보를 추출하는 방법에 관한 것이다.
수 많은 문서 이미징 시스템에서, 여러 종류의 다수의 서식(form)들이 컴퓨터 내부로 스캐닝되며, 이어서 상기 컴퓨터는 적절한 정보를 추출하기 위해서 최종적으로 생성된 문서 이미지를 프로세싱한다. 통상적으로, 상기 서식들은 사전인쇄된 템플릿을 포함하며, 상기 템플릿은 수작업으로 채워지거나 기계 인쇄 문자(machine-printed characters)로 채워지는 필드를 보유하고 있다. 그 내부에 채워져 있는 정보를 추출하기 위해서, 컴퓨터는 먼저 템플릿을 식별해야 한다. 이를 위해서, 다양한 이미지 분석 방법이 본 기술 분야에서 알려져 있다. 그 중 하나는 본 명세서에서 참조로서 인용되는 미국 특허 5,434,933에서 개시된다.
템플릿 내에서 필드의 위치를 정확하게 파악하기 위한 통상적인 기술은, 컴퓨터가 각 문서 이미지를 상기 템플릿의 참조 이미지에 등록시키는 것이다. 일단 템플릿이 등록되면, 템플릿은 상기 문서 이미지로부터 떨어져 나오게되며 이로써 페이지 상의 적절한 위치에서는 오직 육필 또는 인쇄된 문자만 남게 된다. 가령, 미국 특허 5,182,656 및 5,191,525 및 5,793,887 및 5,631,984는 서식으로부터 그 내부에 채어져 있는 정보를 추출하기 위해서 문서 이미지를 서식 템플릿에 등록시키는 방법을 개시하며, 상기 특허 문헌들은 본 명세서에서 참조로서 인용된다. 템플릿이 떨어져 나간 후에, 이미지에서 남아 있는 문자는 통상적으로 광학 문자 인식(OCR) 또는 본 기술 분야에서 알려진 다른 기술을 사용하여 프로세싱된다. 상기 템플릿을 상기 문서 이미지로부터 떨어져 나오게 하는 단계는 이미지를 압축하여서 이미지를 저장하는데 필요한 메모리의 체적 및 상기 이미지를 전송하는데 필요한 대역폭을 감소시키는데 있어서 매우 중요하다. 가령, 미국 특허 6,020,972 및 미국 특허 5,182,656은 템플릿 식별을 기반으로 하여 문서 이미지를 압축하는 방법을 개시하며, 상기 문헌들도 본 명세서에서 참조로서 인용된다. 템플릿 그 자체는 그 내부에 정보가 채워진 서식의 이미지의 전체 그룹에 대해서 오직 한번 저장되고/되거나 전송될 필요가 있다.
본 기술 분야에서 통상적으로 알려져 있는 상기와 같은 템플릿을 등록하고 이어서 떨어져 나오게 하는 방법에서는, 압축 또는 다른 프로세싱이 수행되기 전에 템플릿이 알려질 필요가 있다. 컴퓨터는 템플릿 타입을 알아야 하거나 미리 알려진 템플릿의 집합으로부터 상기 템플릿을 선택할 수 있어야 한다. 달리 말하면, 컴퓨터는 자신이 프로세싱할 모든 서식 타입에 대한 비어 있는 적합한 템플릿을 소유하고 있어야 한다. 그러나, 모든 템플릿 또는 모든 템플릿 변형 사항이 시작 시에 알려지는 것만은 아니다. 또한, 대부분의 시스템에서는, 몇 개의 서식 타입을 제외하고, 그 외 모든 서식 타입에 대해서 단일 템플릿이 존재하지 않으며, 서식 인식을 위해서 현재 사용되고 있는 범용 특정 방법들을 어떻게 조합하여도 분별해 낼 수 없는 예측할 수 없는 템플릿 변형의 경우가 발생할 수 있다. 본 출원의 문맥에서 그리고 청구 범위에서, 상기와 같은 템플릿 변형은 "뮤턴트(mutant)로 지칭된다.
이로써, 본 기술 분야에서 알려진 서식 프로세싱 시스템에서는, 각 서식을 위해서 사용되는 템플릿을 식별하는데 있어서 상기와 같은 뮤턴트가 존재할 시에는 사람이 직접 개입하여 동작시켜야만이 템플릿을 떨어져 나오게 하는 방법을 이용할 수 있는데, 이로써 비용 및 사람의 수고가 필요하게 된다.
발명의 개요
본 발명의 바람직한 실시예에서, 문서 이미지 프로세싱 시스템은 그 내부가 채워져 있는 서식들에서 이미지를 수신하는데, 상기 서식들 중 적어도 몇몇은 미리 알려져 있지 않는 템플릿을 기반으로 한다. 상기 시스템은 본 기술 분야에서 잘 알려진 임의의 적합한 방법을 사용하여서 유사한 템플릿 특징을 갖는 그룹으로 상기 이미지를 자동적으로 정렬하고 분류한다. 그러나, 상기 각 그룹은 다수의 뮤턴트 템플릿을 포함할 수 있으며, 이들 뮤턴트 템플릿들은 하나 이상의 특징적인 면에 있어서 상이하다. 본 발명은 상기 뮤턴트를 인식하고 각 그룹 내의 이미지들을 각각이 자신의 뮤턴트 템플릿을 가지고 있는 정확한 서브그룹 또는 클래스로 상기 뮤턴트 인식 결과에 따라서 분류한다. 바람직하게는, 각 클래스 내의 뮤턴트 템플릿이 이어서 추출되어서 이미지로부터 떨어져 나가게 되며, 이로써 최적의 이미지 압축 및 이후의 프로세싱이 가능해진다.
소정의 그룹 내에서 뮤턴트들을 서로 간에 분별하기 위해서, 상기 시스템은 바람직하게는 상기 그룹 내의 이미지들을 조합시킴으로써 그레이 스케일 축적 이미지(a gray-scale accumulation image)를 생성한다. 모든 이미지에 대해서 공통적인 템플릿을 소유한 구역과 변형이 이미지 간에서 발생하는 구역을 분별하기 위해서 상기 축적 이미지가 분석된다. 이어서, 각 구역에서, 상기 변형이 템플릿의 변이 때문인지 아니면 개별 서식 내에 채워져 있는 내용 때문인지를 판정하기 위해서 상기 변형이 분석된다. 상기 소정 구역에서의 변형이 템플릿의 변이 때문이라고 판정될 때에는, 그룹 내의 이미지들은 상기 구역(이 구역을 본 명세서에서는 기준 구역이라 지칭함)에서의 자신의 내용에 따라서 뮤턴트 서브그룹으로 분류된다. 통상적으로, 하나의 기준 구역 상에서 최초의 그룹을 분류함으로써 생성된 서브그룹은 다른 기준 구역 상에서 최초의 그룹을 분류함으로써 보다 작은 서브그룹으로 하위분할될 수 있다. 이러한 분류 프로세스는 바람직하게는 거의 모든 이미지들이 뮤턴트 서브그룹으로 분할될 때까지 계속되며, 여기서 상기 뮤턴트 서브그룹 각각은 그 서브 그룹 내의 모든 이미지에 대해서 공통적인 자신의 템플릿을 소유하고 있다.
바람직하게는, 분류 단계가 완료된 후에, 각 서브그룹에서의 각각의 템플릿이 이미지들 중 하나의 이미지로부터 추출되고 이어서 서브그룹 내의 모든 이미지로부터 떨어져 나가게 된다. 이어서, 이미지가 압축, OCR 및/또는 본 기술 분야에서 알려진 다른 문서 프로세싱 방법에 의해서 자동적으로 프로세싱된다. 바람직하게는, 상기 추출된 템플릿은 다음의 서식을 처리하는데 있어서 사용하기 위해서 라이브러리(library) 내에 저장된다. 본 발명의 바람직한 실시예에 의해서 제공되는, 모든 뮤턴트를 인식 및 분류할 수 있는 능력으로 인해서, 이미지는 효율적으로 프로세싱될 수 있으며, 요구되는 저장 공간을 줄일 수 있으며 아주 많은 수의 서식들을 다루는데 있어서 수작업으로 하는데 드는 비용을 절감할 수 있다.
본 명세서에서 기술된 바람직한 실시예가 서식 문서의 이미지 프로세싱에 관한 것이지만, 본 발명의 원리는 다른 타입의 이미지 그룹으로부터 정보를 추출하는데 유사하게 사용될 수 있으며, 여기서 상기 다른 타입의 이미지 그룹에서의 이미지는 개별 가변부와 함께 공통 고정부를 포함한다.
본 발명의 바람직한 실시예에 따라서, 이미지 프로세싱 방법이 제공되는데, 상기 방법은 유사한 특성을 갖는 이미지 그룹을 수신하는 단계━상기 그룹은 다수의 클래스를 포함하며, 상기 각 이미지는 상기 클래스들 중 하나에 소속되어 있으며 자신이 소속된 클래스 내의 모든 이미지에 대해서 공통인 고정부와 상기 클래스 내의 다른 이미지와 자신을 구별되게 하는 가변부를 포함함━와, 상기 이미지에서 기준 구역을 파악하는 단계━상기 기준 구역에서는 상기 클래스들 중 제 1 클래스 내의 이미지의 고정부가 상기 클래스들 중 제 2 클래스 내의 이미지의 고정부와 일관적으로 상이함━와, 상기 기준 구역을 기초로 하여 상기 이미지를 상기 클래스로 분류하는 단계를 포함한다.
바람직하게는 상기 이미지 그룹을 수신하는 단계는 이미지의 특성을 결정하기 위해서 상기 이미지를 프로세싱하는 단계와, 상기 특성에서의 유사성을 파악함으로써 이미지를 상기 그룹 내에 포함시키기 위해서 상기 이미지를 선택하는 단계를 포함한다.
바람직하게는, 상기 특성은 컴퓨터에 의해서 인식가능한 이미지 특징부를 포함하며, 상기 이미지 그룹 수신 단계는 상기 이미지 특징부에 따라서 그룹 내의 이미지들을 상호간에 정렬시키는 단계를 포함한다. 바람직한 실시예에서, 상기 이미지는 서식 문서의 이미지를 포함하며, 상기 이미지의 고정부는 서식 템플릿을 포함하고, 상기 이미지 특징부는 상기 템플릿의 특징부를 포함한다.
바람직하게는, 상기 기준 구역을 파악하는 단계는, 그룹 내의 거의 모든 이미지가 거의 동일한 테 1 타입 구역, 상기 그룹 내의 이미지의 어떤 서브그룹 내의 이미지들은 동일하지만 다른 서브그룹 내의 이미지들은 동일하지 않는 제 2 타입 구역, 상기 그룹 내의 거의 모든 이미지가 상이한 제 3 타입 구역으로 이미지 구역을 분류하는 단계와, 상기 기준 구역으로 사용하기 위해서 상기 제 2 타입 구역들 중 한 구역을 선택하는 단계를 포함한다.
바람직하게는, 상기 다수의 이미지 구역으로 분류하는 단계는 축적 이미지를 생성하기 위해서 상기 그룹 내의 이미지들을 결합시키는 단계와, 상기 제 2 타입 구역을 찾기 위해서 상기 축적 이미지를 분석하는 단계를 포함한다. 가장 바람직하게는, 상기 축적 이미지를 분석하는 단계는 상기 축적 이미지에서의 각 구역에 대해서, 상기 구역의 밝은 부분과 어두운 부분 간의 차이를 표시하는 절대 임계치와, 상기 구역 내에서 이웃하는 픽셀들 간의 최소 유의차 (有意差, significant difference)를 표시하는 콘트라스트 임계치를 계산하는 단계와, 상기 축적 이미지의 다른 구역에 비해서 상기 절대 임계치 대 상기 콘트라스트 임계치의 비가 높은 구역을 상기 제 2 타입 구역으로서 식별하는 단계를 포함한다. 추가적으로 또는 이와 달리, 상기 기준 구역으로서 사용하기 위해서 상기 제 2 타입 구역을 선택하는 단계는 상기 그룹 내의 이미지들 간에서 대응하는 구역간을 비교함으로써 상기 축적 이미지에서의 각 구역에 대한 매칭 스코어(match score)를 생성하는 생성하는 단계와, 최고 매칭 스코어를 갖는 구역을 선택하는 단계를 포함한다.
추가적으로 또는 이와 달리, 상기 이미지를 분류하는 단계는 상기 서브그룹 내의 이미지들 중 하나를 베이스 이미지(base image)로서 선택하는 단계와, 상기 기준 구역에서 상기 베이스 이미지와 상이한 그룹 내의 이미지를 상기 서브그룹으로부터 제거하는 단계와, 상기 서브그룹 내의 이미지들에 대해서 상기 다수의 구역으로 분류하는 단계와 상기 제 2 타입 구역들 중 하나를 선택하는 단계를 반복하여서 새로운 기준 구역을 찾는 단계와, 상기 새로운 기준 구역을 기초로 하여 상기 서브그룹 내의 이미지들을 분류하는 단계를 포함한다. 바람직하게는, 상기 다수의 구역으로 분류하는 단계와 상기 제 2 타입 구역들 중 하나를 선택하는 단계와 상기 서브그룹으로부터 이미지를 제거하는 단계는, 상기 분류된 이미지(the sorted images)의 서브그룹에서 상기 제 2 타입의 구역이 거의 발견되지 않을 때까지 계속된다.
바람직한 실시예에서, 상기 이미지는 서식 문서의 이미지를 포함하고, 상기 고정부는 서식 템플릿을 포함하며, 상기 제 2 타입 구역에서는 상기 서브그룹 내의 이미지의 템플릿이 상기 서브그룹 내에 존재하지 않는 이미지의 템플릿과 상이하다.
바람직하게는, 상기 기준 구역을 파악하는 단계는 상기 클래스들 중 제 1 클래스를 포함하는 이미지의 제 1 서브그룹을 상기 클래스들 중 제 2 클래스를 포함하는 이미지의 제 2 서브그룹으로부터 제 1 기준 구역을 기초로 하여 분리하기 위해서 상기 제 1 기준 구역을 파악하는 단계를 포함하고, 상기 이미지를 분류하는 단계는 상기 제 1 서브그룹의 이미지 내에서 다른 기준 구역을 파악하는 단계와, 상기 다른 기준 구역을 기초로 하여 상기 제 1 서브그룹 내의 이미지들을 분류하는 단계를 포함한다.
바람직한 실시예에서, 상기 이미지는 서식 문서의 이미지를 포함하고, 상기 고정부는 서식 템플릿을 포함하며, 상기 가변부는 상기 템플릿 내부에 들어가는 문자를 포함하며, 상기 이미지를 분류하는 단계는 각 클래스 내의 모든 문서가 거의 동일한 템플릿을 갖도록 상기 문서들을 그룹화하는 단계를 포함한다. 바람직하게는, 상기 방법은 상기 클래스 내에서 이미지의 고정부를 파악함으로써 상기 클래스들 중 하나의 클래스에서 상기 이미지로부터 상기 템플릿을 추출하는 단계를 포함한다. 추가적으로 또는 이와 달리, 상기 방법은 템플릿을 이미지로부터 제거하여 상기 이미지 내에는 채워진 문자만이 남게 되도록 상기 이미지를 프로세싱하는 단계를 포함한다.
추가적으로 또는 이와 달리, 상기 방법은 상기 이미지를 분류하는 단계 이후에 상기 클래스들 중 제 1 클래스 내의 이미지로부터 상기 고정부를 제거하는 단계와, 상기 고정부 제거 단계 이후에 남아 있는 각 이미지의 상기 가변부를 압축하는 단계를 포함한다.
한편, 본 발명의 바람직한 실시예에서 따라서, 이미지 프로세싱 장치가 제공되며, 상기 장치는 이미지 프로세서를 포함하며, 상기 이미지 프로세서는 유사한 특성을 갖는 이미지 그룹━상기 그룹은 다수의 클래스를 포함하며, 상기 각 이미지는 상기 클래스들 중 하나에 소속되어 있으며 자신이 소속된 클래스 내의 모든 이미지에 대해서 공통인 고정부와 상기 클래스 내의 다른 이미지와 자신을 구별되게 하는 가변부를 포함함━을 수신하고, 상기 이미지에서 기준 구역━상기 기준 구역에서는 상기 클래스들 중 제 1 클래스 내의 이미지의 고정부가 상기 클래스들 중 제 2 클래스 내의 이미지의 고정부와 일관적으로 상이함━을 파악하며, 상기 기준 구역을 기초로 하여 상기 이미지를 상기 클래스로 분류한다.
또한, 본 발명의 바람직한 실시예에 따라서 컴퓨터 소프트웨어 제품이 제공되는데, 상기 제품은 프로그램 인스트럭션이 저장된 컴퓨터 판독가능한 매체를 포함하며, 상기 인스트럭션은 컴퓨터에 의해 판독될 때 상기 컴퓨터로 하여금 유사한 특성을 갖는 이미지 그룹━상기 그룹은 다수의 클래스를 포함하며, 상기 각 이미지는 상기 클래스들 중 하나에 소속되어 있으며 자신이 소속된 클래스 내의 모든 이미지에 대해서 공통인 고정부와 상기 클래스 내의 다른 이미지와 자신을 구별되게 하는 가변부를 포함함━을 수신하고, 상기 이미지에서 기준 구역━상기 기준 구역에서는 상기 클래스들 중 제 1 클래스 내의 이미지의 고정부가 상기 클래스들 중 제 2 클래스 내의 이미지의 고정부와 일관적으로 상이함━을 파악하며, 상기 기준 구역을 기초로 하여 상기 이미지를 상기 클래스로 분류하게 한다.
본 발명은 첨부 도면을 참조하여 설명되는 본 발명의 바람직한 실시예를 독해함으로써 보다 잘 이해될 것이다.
도 1은 본 발명의 바람직한 실시예에 따른, 문서 이미지 프로세싱을 위한 시스템의 도면,
도 2a 및 도 2b는 본 발명의 바람직한 실시예를 설명하는데 있어서 사용되는, 뮤턴트 서식 문서(mutant form documents)의 도면,
도 3은 본 발명의 바람직한 실시예에 따른, 문서 이미지 프로세싱 방법을 설명하는 흐름도,
도 4는 본 발명의 바람직한 실시예에 따른, 서식 문서 이미지를 분류하는 방법을 설명하는 흐름도,
도 5는 본 발명의 바람직한 실시예에 따른, 서식 문서 이미지의 그룹을 분류하는데 있어서 사용되는 기준 구역을 식별하는 방법을 설명하는 흐름도.
도 1은 본 발명의 바람직한 실시예에 따른, 서식 문서 이미지를 프로세싱하는 시스템(20)을 도시한다. 시스템(20)은 스캐너(22) 또는 본 기술 분야에서 잘 알려진 임의의 다른 타입의 이미지 캡쳐 디바이스(image capture device)를 포함하며, 이들은 통상적으로 육필로 쓰여진 문자, 타입핑된 문자, 인쇄된 문자로 채워지는 템플릿을 갖는, 사전인쇄된 서식을 포함하는 문서(24)를 수신하여 스캐닝한다. 상기 스캐너는 문서의 이미지를 캡쳐하고 이에 대응하는 이미지 데이터를 서식 이미지 프로세서(26)로 운반하며, 상기 프로세서는 통상적으로 적절한 범용 컴퓨터를 포함한다. 이와 달리, 상기 이미지는 다른 소스로부터 상기 프로세서로 입력될 수 있다.
프로세서(26)는 자신이 수신한 각 이미지에서 템플릿을 식별하고 각각의 템플릿에 따라서 이미지를 그룹화한다. 본 기술 분야에서 알려진 시스템과는 달리, 프로세서(26)는 유사하지만 동일하지 않는 뮤턴트 템플릿을 갖는 이미지 그룹을 이하에서 기술될 방법을 사용하여 그들의 템플릿에 따라서 서브그룹 또는 클래스로 분류할 수 있다. 상기 프로세서는 적절한 템플릿을 각 이미지로부터 떨어져 나오게 하며 이후에 메모리(28)에서 저장을 위해서 이미지를 압축하며/하거나 본 기술 분야에서 알려진 다른 문서 프로세싱 기능을 수행한다.
이하에서 기술된 이미지 인식, 이미지 분류, 이미지 압축 방법은 바람직하게는 프로세서(26) 상에서 실행되는 소프트웨어로 구현될 수 있다. 상기 소프트웨어는 디스켓 또는 CD-ROM과 같은 유형의 매체 상에서 공급되어 프로세서 내부로 로딩된다. 이와 달리, 상기 소프트웨어는 네트워크 접속부 또는 다른 전자적 링크를 통해서 상기 프로세서로 다운로딩될 수 있다. 이와 달리, 상기 프로세서(26)는 몇몇 또는 모든 이미지 프로세싱 단계들을 수행하기 위한 전용 하드 와이어링된 요소(dedicated, hard-wired elements) 또는 디지털 신호 프로세서를 포함할 수 있다.
도 2a 및 도 2b는 각기 서식 문서(24a,24b)을 도시하고 있으며, 이 서식 문서들은 이하에서 기술될 본 발명의 바람직한 실시예를 이해하는데 있어서 유용하다. 문서(24a,24b)는 유사하지만 동일하지 않는 뮤턴트 템플릿을 기초로 하고 있다. 각 서식(each form)은 라인(32), 박스(34), 사전인쇄된 텍스트(36), 다른 그래픽과 같은 요소로 구성된 템플릿을 포함한다. 상기 라인 및 박스는 필드를 규정하며, 상기 필드는 "ACCT" 박스 내에 도시된 그 내부의 문자(38)와 같은 문자 숫자형의 문자로 통상적으로 손으로 또는 기계로 채워진다. 본 기술 분야에서 알려진 템플릿 식별 방법에서 사용되는 문서(24a,24b)의 유사한 템플릿 요소는 아마도 프로세서(26)로 하여금 상기 문서들을 동일한 템플릿 그룹에 속한 것으로서 초기에 식별하게 한다.
한편, 문서(24a,24b)는 그들의 각각의 로고(44,46) 뿐만 아니라 서명(42)을 포함하는 서명 박스(40)의 위치가 상이하다. 서식들이 프로세서(26)에 의해서 공통 템플릿에 속한 것으로서 부정확하게 식별되면, 내부에 채워진 정보를 추출하는데 있어서 에러가 발생하여 사람이 직접적으로 수고해야 하는 단점을 낳는다. 부정확한 템플릿 식별로 인해서 템플릿은 불완전하게 이미지로부터 떨어여 나오게 되며, 이로써 문서들 중 적어도 하나의 문서의 이미지를 압축하는 단계는 보다 큰 저장 공간을 필요로 하게 된다. 또한, 압축된 이미지가 재구성될 때, 상기 이미지는 잘못된 템플릿을 포함할 것이며, 상기 재구성된 이미지를 프로세싱할 시에서 에러가 발생할 가능성이 있다. 그러나, 본 발명의 바람직한 실시예에서, 프로세서(26)는 문서(24a,24b)의 템플릿 간을 자동적으로 분별할 수 있다.
도 3은 본 발명의 바람직한 실시예에 따른, 뮤턴트 템플릿을 포함하는 문서 서식 이미지의 몸체를 프로세싱하는 방법을 설명하는 흐름도이다. 초기 분류 단계(50)에서, 프로세서(26)는 본 기술 분야에서 잘 알려진 임의의 적절한 방법을 사용하여 유사한 이미지들의 그룹으로 문서들을 분리시킨다. 가령, 프로세서는 각 이미지로부터 수평 라인과 수직 라인을 추출하고 이들 라인을 기초로 하여 이미지들을 서로 간에 매칭한다(match). 이렇게 매칭된 이미지들은 본 기술 분야에서 잘 알려진 방법에 의해서 동일한 템플릿을 갖는 것으로서 분류될 수 있다. 본 발명이 바람직한 실시예에서, 상기 이미지들은 이후의 뮤턴트 조사 및 분류를 위해서 동일한 그룹에 속한 것으로서 간단하게 분류된다. 이어서, 각 그룹 내의 이미지들은 이후 프로세싱을 위해서 상호 간에 정렬된다. 단계(50)의 세부 사항은 도 4를 참조하여 이하에 설명될 것이다.
단계(50) 이후에 임의의 소정 그룹 내의 이미지의 내용을 상세하게 분석함으로써 3 개의 주요 타입의 이미지 구역이 나타날 것이다.
1. 타입 1 : 이 타입 1 구역에서는 그룹 내의 모든 이미지가 실제로 동일하다. 이 구역은 이미지 템플릿에 속한 구역이며, 이 구역에서는 이미지들 간에서 템플릿에서의 거의 어떤 변형도 존재하지 않는다.
2. 타입 2 : 이 타입 2 구역에서는 그룹 내부의 이미지 템플릿에서의 변형으로 인해서 상기 그룹 내의 이미지들 간에 차이가 존재한다. 도 2a 및 도 2b의 실례에서, 로고(44,46) 구역은 타입 2 구역일 것이다.
3. 타입 3 : 이 타입 3 구역에서는 내부에 내용이 채워진 텍스트로 인해서 차이가 존재한다.
이후 단계의 목적은 상기 세 개의 이미지 타입 구역 간을 분별하는 것이다. 타입 2 구역이 발견될 때, 프로세서(26)는 이 구역 내의 내용에 따라서 이미지를 서브그룹 또는 뮤턴트 클래스로 분류한다. 이러한 분류 단계는 각 서브그룹이 오직 타입 1 구역과 타입 3 구역만을 포함할 때까지, 즉 모든 타입 2 구역이 거의 제거될 때까지 서브그룹를 계속 더 하위 분할하면서 계속된다.
그룹 내에서 타입 2 구역을 식별하기 위해서, 프로세서(26)는 바람직하게는 분별 단계(52)에서 이미지에서 특별한 구역을 파악한다. 이 특별한 구역은 그룹 내의 이미지들에 걸쳐서 분석된 내용이 그들이 제 2 타입 구역임을 표시하는 경향이 있는 내용을 갖는다. 이어서, 이 특별한 구역 중 하나는 기준 구역 선택 단계(54)에서 기준 구역으로서 선택된다. 이 구역은 통상적으로 내부에 채워진 내용보다도 서식 템플릿에 속하는 가장 큰 개수의 픽셀을 갖는 특별한 구역이다. 이어서, 상기 기준 구역에서 서로 매칭하는 이미지들은 동일한 뮤턴트 서브그룹에 속하며, 서로 매칭하지 않는 이미지들은 하나 이상의 다른 서브그룹에 속해야 한다. 상기 특별한 구역을 파악하고 이를 기준 구역으로 선택하기 위한 바람직한 방법이 도 5를 참조하여 이하에서 기술될 것이다.
상기 선택된 기준 구역을 기초로 하여, 그룹 내의 이미지들은 정교한 분류 단계(56)에서 서브그룹으로 분할된다. 바람직하게는, 상기 이미지들 중 하나의 이미지에서 상기 기준 구역은 베이스로서 선택되며 상기 하나의 이미지를 제외한 나머지 모든 이미지에서 대응하는 구역은 상기 베이스로 선택된 구역과 비교된다. 선택된 임계 레벨 내에서 상기 베이스와 매칭하는 모든 이미지는 등가 이미지로 간주되며 동일한 서브그룹으로 분할된다. 이 단계 이후에 남아 있는 각 서브그룹은 분류하기 전에 최초의 그룹이 포함했던 수보다 적은 상이한 뮤턴트 템플릿을 포함해야 한다. 단계(52,54,56)는 상기의 어떤 특별한 구역도 발견되지 않을 때까지 상기 서브그룹 각각에 대해서 반복된다. 이 스테이지에서, 임의의 소정 서브그룹 내부의 모든 이미지들은 단일 템플릿 뮤턴트를 공유하는 단일 등가 클래스를 구성하도록 고려될 수 있다. 서브그룹 내에서 특별한 구역을 식별하고 이미지들을 매칭하기 위한 임계 레벨은 바람직하게는 애플리케이션 요구 사항에 따라서 설정되며, 이로써 (단일 등가 클래스가 두 개로 분할되도록) 임계 레벨이 너무 낮게 설정될 때 발생될 보다 큰 프로세싱 부담에 대해서 (두 개의 비등가 클래스가 단일 서브그룹으로서 식별될 수 있도록) 임계 레벨이 너무 높게 설정될 때 발생할 수 있는 오차의 레벨을 밸런싱할 수 있다(balance).
각 등가 클래스에 대해서, 프로세서(26)는 템플릿 추출 단계(58)에서 템플릿을 구성한다. 유사한 이미지들의 그룹으로부터 템플릿을 추출하기 위한 바람직한 방법은 미국 특허 출원 번호 09/566,058에 개시되어 있으며, 이 특허는 본 출원의 양수인에게 양수되며 상기 특허 내용은 본 명세서에서 참조로서 인용된다. 간략하게 말하자면, 프로세서(26)는 클래스 내의 이미지들을 서로 간에 비교하여 이미지들 간에 비교적 변형이 존재하지 않는 이미지의 부분을 추출한다(즉, 이미지 중에서 타입 1 부분을 추출한다). 이러한 변형이 없는 부분은 공통 템플릿에 대응하며 각 서식 내부에 채워져 있는 가변 정보에 대응하지 않는다. 상기 템플릿은 바람직하게는 메모리(28)에 저장되어 시스템(20)으로 이후에 입력될 추가적인 이미지를 프로세싱하는데 사용된다.
프로세싱 단계(60)에서, 템플릿 그 자체는 바람직하게는 클래스 내의 각 이미지로부터 제거된다. 이를 위한 적절한 방법은 상술된 미국 특허 5,793,887에서 개시되어 있다. 가장 바람직하게는, 상기 템플릿 제거는 템플릿 내부로 채워진 문자의 판독가능성에 대해서 좋지 않는 영향을 최소화하도록 하는 방식으로 수행된다. 이러한 타입의 템플릿 제거 방법(drop-out method)은 가령 미국 특허 출원 09/379,244에 개시되어 있으며, 이는 본 특허 출원의 양수인에게 양수되며, 본 명세서에서 참조로서 인용된다. 상기 템플릿 제거 단계 이후의 시점에서 서식 이미지에서의 잔여 부분은 통상적으로 문자 숫자형 문자로 채워진 가변 내용이다. 이 내용은 바람직하게는 이후의 프로세싱을 위해서 압축되어 메모리(28)에 저장된다. 추가적으로 또는 이와 달리, OCR 분석이 각 서식에서의 필드의 내용을 판독하기 위해서 사용될 수 있다. 본 기술 분야에서 알려진 다른 작업 흐름 메카니즘이 분류된 이미지에 대해서 사용될 수도 있다.
도 4는 본 발명의 바람직한 실시예에 따른, 분류 단계(50)의 세부 사항을 설명하는 흐름도이다. 이 단계의 목적은 상술한 바와 같이 유사한, 상호 정렬된 이미지의 그룹을 형성하는 것이다. 상기 방법은 프로세서(26)에 의해서 수신된 내부가 채워진 서식 이미지들의 배치(batch)에 대해서 수행된다. 이전에 추출되었거나 이와 달리 시스템(20)으로 제공되어 메모리(28)에 저장되었던 템플릿을 사용하여 상기 배치 내의 몇몇 이미지들을 충분하게 정확하게 분류할 수 있다. 분류되지 않은 이미지 중에서, 제 1 서식 이미지는 템플릿 선택 단계(62)에서 템플릿으로서 기능하도록 임의적으로 선택된다. 라인(32) 및 박스(34)와 같은 상기 템플릿 서식의 특징부는 바람직하게는 인식 특징부로서 선택되며, 이 인식 특징부에 대해서 그룹 내의 나머지 분류되지 않은 서식들이 매칭될 것이다.
매칭 단계(64)에서, 상기 배치 내의 다음 서식 이미지의 특징부가 상기 템플릿 특징부와 비교된다. 상기 특징부가 사전규정된 한계치 내에서 상기 템플릿 특징부와 매칭하지 못한다면, 상기 서식은 인식 실패 단계(66)에서 분류되지 않는 배치 내에 남게 된다. 그러나, 상기 특징부가 매칭을 성공한다면, 상기 서식은 그룹화 단계(68)에서 상기 템플릿과 함께 그룹화된다. 상기 그룹 내의 모든 서식 이미지들은 정렬 단계(70)에서 상기 이미지들을 상기 템플릿과 정렬시키도록 수정된다. 바람직하게는, 상술된 미국 특허 5,182, 656 또는 미국 특허 5,793,887에 개시된 바와 같은 정밀한 등록 알고리즘이, 이후의 프로세싱을 용이하게 하도록 하기 위해서, 상기 그룹 내의 모든 이미지들을 정확하게 정렬하는데 사용된다. 상기 템플릿과 매칭하기 위해서 초과적인 수정 단계를 요구함으로써 상기 정밀한 등록에 실패한 임의의 이미지는 가령 부정확하게 분류된 바로 고려될 수 있으며 바람직하게는 상기 분류되지 않은 그룹으로 복귀된다.
단계(64)가 반복 단계(72)에서 상기 배치 내의 모든 잔여하는 비분류성 서식 이미지에 대해서 반복된다. 모든 비분류성 이미지들이 현 템플릿과 비교되어 적절하게 그의 그룹으로 할당된 후에, 프로세서(26)는 최종 분류 단계(74)에서 임의의 추가적인 비분류성 이미지가 남아 있는 여부를 결정한다. 만일 상기 비분류성 이미지가 남아 있다면, 프로세스는 단계(62)로 돌아가며, 이 단계에서는 다음의 비분류성 이미지가 새로운 템플릿으로서 취해지며, 단계(64) 내지 단계(72)가 상기 모든 이미지들이 그룹으로 분류될 때까지 계속된다.
도 5는 본 발명의 바람직한 실시예에 따른, 이미지 그룹 내에서 기준 구역을 파악하는 방법을 상세하게 설명하는 흐름도이다. 이 방법은 도 3의 단계(52,54)에 대응한다. 이 방법은 축적 단계(80)에서 시작하며, 이 축적 단계에서는 축적 이미지가 프로세싱되고 있는 그룹 또는 서브그룹 내의 모든 개별적 상호 등록된 서식 이미지들을 결합함으로써 형성된다. 바람직하게는, 상기 프로세싱되고 있는 이미지는 바이너리 이미지(binary images)이며, 상기 축적 이미지는 상기 그룹 내의 이미지들을 하나의 픽셀 씩 합산함으로써 형성된다. 이로써, 축적 이미지에서의 각 그레이 스케일 픽셀은 상기 그룹 내의 모든 이미지에서의 상기 픽셀의 위치에서 발생하는 블랙 (전경 : foreground) 픽셀의 수의 카운트를 보유한다.
상기 축적 이미지는 상기에서 규정된 바와 같이, 그룹 내의 이미지 중에서 타입 1 구역, 타입 2 구역, 타입 3 구역을 식별하도록 프로세싱된다. 바람직하게는, 이러한 식별 단계는 임계 레벨 결정 단계(82)에서 각 구역에서 절대 임계치 T 및 콘트라스트 임계치 D를 결정하는 것을 기반으로 하고 있다. 상기 임계치들 및 이들을 계산하는 방법은 미국 특허 출원 09/519,446에 규정되어 있으며, 상기 특허는 본 특허 출원의 양수인에게 양수되며 본 명세서에서 참조로서 인용되고 있다. 상기 T 및 D의 계산에 대한 바람직한 방법은 본 명세서의 부록 부분에서 제시된다. 이러한 방식으로 프로세싱될 이미지 구역의 크기 및 개수의 선택은 애플리케이션 요구 사항에 의존하며, 이로써 상술한 바와 같이 프로세싱 시간에 대해서 오차 레벨을 밸런싱한다. 선택 사양적으로, 상이한 크기의 구역이 상이한 스테이지에서 사용된다. 통상적으로, 축적 이미지에서 모든 직사각형을 프로세싱할 필요는 없다. 직사각형들 간에 50% 중첩율을 가지면서 상기 이미지를 덮는 직사각형 패턴이 일반적으로 적합하다.
절대 임계치 T는 각 구역에서 이 구역의 밝은 부분과 어두운 부분 간을 구별하도록 선택된다. 서식 템플릿에 속한 것으로 가정된 타입 1 및 타입 2 구역에서는, T는 비교적 높아야 하는데, 그 이유는 이미지의 전체 그룹 또는 큰 서브그룹에서의 동일한 위치에서 동일한 템플릿으로부터 픽셀이 축적되기 때문이다. 서식의 내부에 채워진 부분에 속한 타입 3 구역에서, 상기 절대 임계치는 낮을 것인데, 그 이유는 모든 개별 이미지가 이 구역에서는 상이한 내용을 가지기 때문이다.
콘트라스트 임계치 D는 통상적으로 에지인 이미지의 특징부가 픽셀들 간을 통과함을 표시하는 이웃하는 픽셀들 간의 최소 유의차 (有意差, significant difference)를 반영하도록 선택된다. 타입 1 구역에서, 절대 임계치와 같이 콘트라스트 임계치도 높을 것이다. 그러나, 타입 2 구역에서는, 콘트라스트 임계치는 보다 낮을 질 것인데, 그 이유는 상기 임계치는 상기 구역에서 발생하는 두 개 이상의 상이한 템플릿 특징부 간을 분별하기 때문이다. 상기 콘트라스트 임계치는 타입 3 구역에서는 상기와 마찬가지로 낮을 것이다.
상기 절대 임계치 및 상기 콘트라스트 임계치는 임계치 비율 비교 단계(84)에서 이미지 내의 특별한 구역을 파악하는데 사용된다. 상기의 분석을 기초로 할 때, 타입 2 구역은 타입 1 및 타입 3 구역보다도 매우 높은 절대 임계치 대 콘트라스트 임계치의 비를 가질 것으로 예상된다. 실제로, 임계치 비율 T2/D가 우수한 결과를 생성하였는데, 그 이유는 상기 비율이 비율 T/D의 낮은 값에서의 오차에 대한 민감성을 감소시키기 때문이다. 상기 최고 임계치 비율을 갖는 구역이 상기 특별한 구역으로서 사용되기 위해 선택된다. 통상적으로, 1500*1000 픽셀의 프로세싱 이미지에서, 각각이 100*100 픽셀인 5 개의 후보가 되는 직사각형을 검사함으로써 양호한 결과가 생성되었다.
상기 특별한 구역들로부터 기준 구역을 선택하기 위해서, 상기 축적 이미지에서의 각 특별한 구역이 매칭 단계(86)에서 고려 중인 그룹 내의 이미지에서의 대응하는 구역에 대해서 매칭된다. 이 단계의 목적은 모든 이미지에서의 모든 후부가 되는 구역 중에서 이미지 템플릿에 속하지 않은 블랙 픽셀의 최소 개수(즉, 내부에 채워진 내용을 나타내는 블랙 픽셀의 최소의 개수)를 갖는 그룹 내의 이미지들 중 하나의 이미지에서 후보가 되는 구역 중 하나를 선택하는 것이다. 상기 특정 이미지에서 선택된 후보 구역은 템플릿을 가장 진실하게 나타내는 구역으로서 간주될 수 있다. 그러므로, 상기 구역을 기준 구역으로 사용하는 것이 가장 유리하다. 바람직하게는, 상기 단계를 수행하기 위해서, 매칭 스코어가 상기 그룹 내의 각각의 이미지에서의 각 구역에 대해서 계산된다. 상기 그룹 내의 각 이미지에서의 각 후보 구역에 대한 매칭 스코어는 상기 이미지의 구역에서의 블랙 픽셀의 개수에 대해서는 이와 역전하여 단조로운 상태가 되며, 상기 블랙 픽셀에 대해서 이에 대응하는 축적 이미지에서의 픽셀이 상기 구역에 대해 결정된 절대 임계치 T보다 작은 그레이 스케일 값을 갖는다(이에 대한 이유는 상기 픽셀이 이미지의 채워진 부분에 속한 것으로 간주되기 때문이다). 상기 최고 매칭 스코어를 갖는 상기 특별한 구역은 기준 구역 선택 단계(88)에서 기준 구역으로서 선택된다. 상기 기준 구역은 상술한 바와 같이 단계(56)에서 그룹 내의 이미지들을 서브그룹으로 하위 분할하는데 사용된다.
도면에서 상세하게 도시되지 않은 본 발명의 다른 실시예에서, 뮤턴트 템플릿을 식별 및 분류하기 위해 다른 방법이 사용될 수 있다. 가령, 단계(70)에서 이미지를 서식 템플릿과 정렬시키는 단계는 상당한 양의 이미지의 국부적 왜곡을 필요로 한다. 서식을 인쇄하고 스캐닝할 때에 스큐(skew)를 보상하기 위해서 상기 상당한 양의 왜곡은 통상적인 것이다. 그러나, 상기 이미지 왜곡이 어느 임계 레벨을 초과하게 될 때, 이미지와 템플릿 간의 양립 불가능성이 나타날 수 있다. 상기 이미지 왜곡 구역은 뮤턴트를 식별하기 위해서 특별한 구역으로서 사용될 수 있다. 뮤턴트의 서브그룹이 식별된 후에, 템플릿 정렬 단계는 임의의 다른 특별한 구역이 남아 있는지의 여부를 결정하기 위해서 바람직하게는 반복 수행된다.
다른 실례로서, 템플릿이 단계(60)에서 이미지로부터 떨어져 나가게 된 후에 이미지에는 오직 내부가 채워진 텍스트만이 남게 된다. 가령, 라인, 박스, 블랙픽셀의 큰 영역과 같은 거의 템플릿형과 같은 특징부가 이미지 내의 어느 위치에서 남아 있게 되면, 상기 특징부는 또한 템플릿과의 양립 불가능성을 표시할 수 있다. 그러므로, 예비적인 템플릿 제거 단계는 단계(52)의 스테이지에서 수행될 수 있으며, 템플릿형과 같은 특징부가 남아 있는 이미지 구역은 특별한 구역으로서 사용될 수 있다. 뮤턴트를 식별하는 다른 방법은 본 기술 분야의 당업자에게 분명하며 본 발명의 범위 내에 존재하는 것으로 간주된다.
본 명세서에서 개시된 바람직한 실시예가 서식 문서 이미지(24)의 프로세싱에 대한 것이지만, 본 발명의 원리는 그룹 내의 이미지들이 개별 가변부와 함께 공통 고정부를 포함하는, 다른 타입의 이미지 그룹으로부터 정보를 추출하는데 마찬가지로 사용될 수 있다. 상기 실시예에서, 상호간에 유사한 이미지의 서브그룹이 큰 그룹으로부터 선택된다. 서브그룹 템플릿은 각 서브그룹 내의 하나 이상의 이미지를 기초로 하여 생성되며 상기 템플릿으로부터의 그들의 차이를 기초로 하여 상기 서브그룹 내의 이미지를 "공동 압축(co-compress)"하는데 사용된다. 본 기술 분야에서 잘 알려진 이동 이미지 압축 방법은 이미지 차이를 결정 및 사용하며, 상기 방법은 상기 공동 압축을 위한 기초로서 (필수적으로 연속적이지 않는 이미지 중에서) 이미지 유사성을 추구하는 것을 기초로 하기 보다는 이미지 시퀀스에서 연속적인 이미지들 간의 차이를 기초로 한다.
상술된 바람직한 실시예는 예시적으로 설명되었으며, 본 발명은 상술된 실시예로만 한정되는 것은 아니다. 이보다도, 본 발명의 범위는 상술된 다양한 특징과 종래 기술에서 개시되지 않았으며 상술한 설명을 통해서 본 기술의 당업자에게서 유도될 수 있는 본 발명의 수정 및 변경의 조합 및 하위조합을 포함한다.
부록(appendix)
이 부록 부분은 축적 이미지에서의 픽셀의 그레이 레벨 값을 기초로 하여 특히 이웃하는 픽셀의 그레이 스케일 값들 간의 갭(gap)을 기초로 하여 최적의 절대 임계치 T 와 콘트라스트 임계치 D를 계산하는 바람직한 방법에 대해 세부적으로 설명한다. 상기 값 D 및 T는 발생할 수 있는 인공 에지(artifact edge)의 개수를 줄이면서 축적 이미지 구역의 바이너리화된 버전(binarized version)으로 보존될 수 있는 상기 구역에서의 유의 에지(significant edge)의 개수를 증가시키도록 선택된다.
이로써, 본 방법을 위해서, 두 이웃하는 픽셀 간의 "유의 갭(significant gap)"를 D 보다 큰 절대 크기를 갖는 갭(gap)으로서 규정한다. 갭(gap)은 이 갭의 어느 한 측면 상에서의 픽셀이 출력 바이너리 이미지 I(T)에서 상이한 바이너리 값을 갖는다면 T를 바이너리화 임계치로서 사용하여 생성된 출력 바이너리 이미지 I(T)로 표현된다. 달리 말하면, 입력 이미지에서의 픽셀 중 하나의 픽셀(즉, 고려 중인 축적 이미지의 구역)이 T보다 큰 그레이 레벨 값을 가지고 다른 픽셀들은 T보다 작은 그레이 레벨 값을 가진다면, 상기 갭이 표현된다. 이어서, 최적의 D 및 T 값이 다음의 기준을 만족하도록 선택된 T 및 D의 메리트 함수(merit function)를 최대화시킴으로써 발견될 수 있다.
1. I(T)에서 표현되는 입력 이미지에서의 유의 갭의 수를 양으로 상관시킨다.
2. I(T)에서 표현되는 입력 이미지에서의 무의 갭(insignificant gap)의 수를 음으로 상관시킨다.
3. I(T)에서 표현되지 않는 입력 이미지에서의 유의 갭의 수를 음으로 상관시킨다.
상기 메리트 함수를 계산하기 위해서, N(T,D)가 I(T)에서 표현된 입력 이미지에서의 무의 갭의 측정된 카운트가 된다고 해보자. 바람직하게는, 상기 측정은 I(T)에서 표현된 갭이 작을 수록 상기 측정된 카운트가 크도록 수행된다. 달리 말하면, N(T,D)에서 카운트된 각 갭은 T보다 큰 그레이 레벨 값을 갖는 하나의 픽셀을 가지며 T보다 작은 그레이 레벨 값을 갖는 다른 픽셀을 갖고, 여기서 상기 그레이 레벨 값들 간의 절대 차는 D보다 크지 않다. MAX가 이미지에서 최고 그레이 레벨 값을 표시한다고 가정해보면, N(T,MAX)는 I(T)에서 표현된 모든 갭의 측정된 카운트이다. G(D)가 이미지에서 유의 갭들, 즉 픽셀 그레이 레벨 값 간의 D보다 큰 절대 차를 갖는 갭들의 수의 측정된 카운트라고 하자. 다음과 같은 식이 규정된다.
1. 굳(good)(T,D) = N(T,MAX) - N(T,D) : I(T)에서 표현된 유의 갭들의 측정된 카운트,
2. 아티팩트(artifacts)(T,D) = N(T,D) : I(T)에서 표현된 무의 갭,
3. 미싱된(missed)(T,D) = G(D) - 굳(T,D) : I(T)에서 미싱된 유의 갭.
이 규정 사항들은 상술된 세 개의 기준에 대응한다. 임의의 쌍(T,D)의 메리트 스코어는 다음과 같이 주어진다.
스코어(T,D) = 굳(T,D) - 아티팩트(T,D) - 미싱된(T,D).
최고 스코어를 보이는 쌍(T,D)가 관심 구역에 대해서 절대 임계치와 콘트라스트 임계치로 선택된다.
상기 메리트 스코어 및 T 및 D를 선택하는 방법은 예시적으로 설명되었으며, 다른 스코어 및 방법이 T 및 D를 최적화하기 위해서 사용될 수도 있다. 가령, 갭에 할당된 측정 카운트는 변할 수 있다. 또한, "갭"이 본 명세서에서는 이웃하는 픽셀들을 참조하는 것으로 규정되었지만, 픽셀이 바로 이웃할 필요는 없으며, 이 보다는 작은 거리로 떨어져 있어도 된다. 또한, 이미지에서 모든 갭들을 평가할 필요가 없으며 이보다는 대표적인 샘플이 취해질 수 있다. 또한, 갭을 평가하는 목적이 주로 바이너리 이미지로 참 에지(true edges)를 보존하는 T 및 D의 값을 선택하는 것이기 때문에, 소벨 변형(Sobel transform)과 같은 에지 오퍼레이터가 그레이 스케일 이미지에서 에지를 식별하는데 사용될 수 있다. V 형상 강도 프로파일(루프 에지(roof edge)-얇은 라인 및 텍스트 특징부에서 보통 발견됨)와 같은 그레이 스케일 이미지에서의 다른 정보 암시가 상기 목적을 위해서 유사하게 사용될 수 있다. 상한 임계치와 하한 임계치를 선택하는 다른 방법이 본 기술의 당업자에게 분명할 것이다.

Claims (34)

  1. 이미지 프로세싱 방법에 있어서,
    유사한 특성을 갖는 이미지 그룹을 수신하는 단계━상기 그룹은 다수의 클래스를 포함하며, 상기 각 이미지는 상기 클래스들 중 하나에 소속되어 있으며 자신이 소속된 클래스 내의 모든 이미지에 대해서 공통인 고정부와 상기 클래스 내의 다른 이미지와 자신을 구별되게 하는 가변부를 포함함━와,
    상기 그룹 내의 이미지들의 다수의 구역을 평가하여 상기 각각의 구역에서 상기 이미지들 간의 차이를 나타내는 분류 사항(classifications)을 상기 구역에 각각 할당하는 단계와,
    상기 분류 사항을 기초로 하여 상기 구역들 중 하나를 기준 구역으로 선택하는 단계━상기 기준 구역에서는 상기 클래스들 중 제 1 클래스 내의 이미지의 고정부가 상기 클래스들 중 제 2 클래스 내의 이미지의 고정부와 일관적으로 상이함━와,
    상기 기준 구역을 기초로 하여 상기 이미지를 상기 클래스로 분류하는(sorting) 단계를 포함하는
    이미지 프로세싱 방법.
  2. 제 1 항에 있어서,
    상기 이미지 그룹을 수신하는 단계는 이미지의 특성을 결정하기 위해서 상기 이미지를 프로세싱하는 단계와, 상기 특성에서의 유사성을 파악함으로써 이미지를 상기 그룹 내에 포함시키기 위해서 상기 이미지를 선택하는 단계를 포함하는
    이미지 프로세싱 방법.
  3. 제 1 항에 있어서,
    상기 특성은 컴퓨터에 의해서 인식가능한 이미지 특징부를 포함하며, 상기 이미지 그룹 수신 단계는 상기 이미지 특징부에 따라서 그룹 내의 이미지들을 상호간에 정렬시키는 단계를 포함하는
    이미지 프로세싱 방법.
  4. 제 3 항에 있어서,
    상기 이미지는 서식 문서의 이미지를 포함하며, 상기 이미지의 고정부는 서식 템플릿을 포함하고, 상기 이미지 특징부는 상기 템플릿의 특징부를 포함하는
    이미지 프로세싱 방법.
  5. 이미지 프로세싱 방법에 있어서,
    유사한 특성을 갖는 이미지 그룹을 수신하는 단계━상기 그룹은 다수의 클래스를 포함하며, 상기 각 이미지는 상기 클래스들 중 하나에 소속되어 있으며 자신이 소속된 클래스 내의 모든 이미지에 대해서 공통인 고정부와 상기 클래스 내의 다른 이미지와 자신을 구별되게 하는 가변부를 포함함━와,
    상기 이미지에서 기준 구역을 파악하는 단계━상기 기준 구역에서는 상기 클래스들 중 제 1 클래스 내의 이미지의 고정부가 상기 클래스들 중 제 2 클래스 내의 이미지의 고정부와 일관적으로 상이함━와,
    상기 기준 구역을 기초로 하여 상기 이미지를 상기 클래스로 분류하는 단계를 포함하며,
    상기 기준 구역을 파악하는 단계는,
    그룹 내의 거의 모든 이미지가 거의 동일한 제 1 타입 구역, 상기 그룹 내의 이미지의 어떤 서브그룹 내의 이미지들은 동일하지만 다른 서브그룹 내의 이미지들은 동일하지 않는 제 2 타입 구역, 상기 그룹 내의 거의 모든 이미지가 상이한 제 3 타입 구역으로 이미지 구역을 분류하는 단계와,
    상기 기준 구역으로 사용하기 위해서 상기 제 2 타입 구역들 중 한 구역을 선택하는 단계를 포함하는
    이미지 프로세싱 방법.
  6. 제 5 항에 있어서,
    상기 다수의 이미지 구역으로 분류하는 단계는
    축적 이미지를 생성하기 위해서 상기 그룹 내의 이미지들을 결합시키는 단계와,
    상기 제 2 타입 구역을 찾기 위해서 상기 축적 이미지를 분석하는 단계를 포함하는
    이미지 프로세싱 방법.
  7. 제 6 항에 있어서,
    상기 축적 이미지를 분석하는 단계는
    상기 축적 이미지에서의 각 구역에 대해서, 상기 구역의 밝은 부분과 어두운 부분 간의 차이를 표시하는 절대 임계치와, 상기 구역 내에서 이웃하는 픽셀들 간의 최소 유의차 (有意差, significant difference)를 표시하는 콘트라스트 임계치를 계산하는 단계와,
    상기 축적 이미지의 다른 구역에 비해서 상기 절대 임계치 대 상기 콘트라스트 임계치의 비가 높은 구역을 상기 제 2 타입 구역으로서 식별하는 단계를 포함하는
    이미지 프로세싱 방법.
  8. 제 6 항에 있어서,
    상기 기준 구역으로서 사용하기 위해서 상기 제 2 타입 구역을 선택하는 단계는
    상기 그룹 내의 이미지들 간에서 대응하는 구역간을 비교함으로써 상기 축적 이미지에서의 각 구역에 대한 매칭 스코어(match score)를 생성하는 생성하는 단계와,
    최고 매칭 스코어를 갖는 구역을 선택하는 단계를 포함하는
    이미지 프로세싱 방법.
  9. 제 5 항에 있어서,
    상기 이미지를 분류하는 단계는
    상기 서브그룹 내의 이미지들 중 하나를 베이스 이미지(base image)로서 선택하는 단계와,
    상기 기준 구역에서 상기 베이스 이미지와 상이한 그룹 내의 이미지를 상기 서브그룹으로부터 제거하는 단계와,
    상기 서브그룹 내의 이미지들에 대해서 상기 다수의 구역으로 분류하는 단계와 상기 제 2 타입 구역들 중 하나를 선택하는 단계를 반복하여서 새로운 기준 구역을 찾는 단계와,
    상기 새로운 기준 구역을 기초로 하여 상기 서브그룹 내의 이미지들을 분류하는 단계를 포함하는
    이미지 프로세싱 방법.
  10. 제 9 항에 있어서,
    상기 다수의 구역으로 분류하는 단계와 상기 제 2 타입 구역들 중 하나를 선택하는 단계와 상기 서브그룹으로부터 이미지를 제거하는 단계는, 상기 분류된 이미지(the sorted images)의 서브그룹에서 상기 제 2 타입의 구역이 거의 발견되지 않을 때까지 계속되는
    이미지 프로세싱 방법.
  11. 제 5 항에 있어서,
    상기 이미지는 서식 문서의 이미지를 포함하고, 상기 고정부는 서식 템플릿을 포함하며, 상기 제 2 타입 구역에서는 상기 서브그룹 내의 이미지의 템플릿이 상기 서브그룹 내에 존재하지 않는 이미지의 템플릿과 상이한
    이미지 프로세싱 방법.
  12. 제 5 항에 있어서,
    상기 기준 구역을 파악하는 단계는 상기 클래스들 중 제 1 클래스를 포함하는 이미지의 제 1 서브그룹을 상기 클래스들 중 제 2 클래스를 포함하는 이미지의 제 2 서브그룹으로부터 제 1 기준 구역을 기초로 하여 분리하기 위해서 상기 제 1 기준 구역을 파악하는 단계를 포함하고,
    상기 이미지를 분류하는 단계는 상기 제 1 서브그룹의 이미지 내에서 다른 기준 구역을 파악하는 단계와, 상기 다른 기준 구역을 기초로 하여 상기 제 1 서브그룹 내의 이미지들을 분류하는 단계를 포함하는
    이미지 프로세싱 방법.
  13. 제 5 항에 있어서,
    상기 이미지는 서식 문서의 이미지를 포함하고, 상기 고정부는 서식 템플릿을 포함하며, 상기 가변부는 상기 템플릿 내부에 들어가는 문자를 포함하며, 상기 이미지를 분류하는 단계는 각 클래스 내의 모든 문서가 거의 동일한 템플릿을 갖도록 상기 문서들을 그룹화하는 단계를 포함하는
    이미지 프로세싱 방법.
  14. 제 13 항에 있어서,
    상기 클래스 내에서 이미지의 고정부를 파악함으로써 상기 클래스들 중 하나의 클래스에서 상기 이미지로부터 상기 템플릿을 추출하는 단계를 포함하는
    이미지 프로세싱 방법.
  15. 제 13 항에 있어서,
    템플릿을 이미지로부터 제거하여 상기 이미지 내에는 채워진 문자만이 남게 되도록 상기 이미지를 프로세싱하는 단계를 포함하는
    이미지 프로세싱 방법.
  16. 제 5 항에 있어서,
    상기 이미지를 분류하는 단계 이후에 상기 클래스들 중 제 1 클래스 내의 이미지로부터 상기 고정부를 제거하는 단계와, 상기 고정부 제거 단계 이후에 남아 있는 각 이미지의 상기 가변부를 압축하는 단계를 포함하는
    이미지 프로세싱 방법.
  17. 제 1 항 내지 제 16 항 중 어느 한 항에 따른 방법을 수행하는 이미지 프로세서를 포함하는 이미지 프로세싱 장치.
  18. 삭제
  19. 삭제
  20. 삭제
  21. 삭제
  22. 삭제
  23. 삭제
  24. 삭제
  25. 삭제
  26. 삭제
  27. 삭제
  28. 삭제
  29. 삭제
  30. 삭제
  31. 삭제
  32. 삭제
  33. 제 1 항 내지 제 16 항 중 어느 한 항에 따른 방법을 컴퓨터에서 구현하는 프로그램을 기록한 컴퓨터 판독가능한 기록 매체.
  34. 삭제
KR10-2003-7010200A 2001-02-06 2001-08-16 이미지 프로세싱 방법 및 장치 및 기록 매체 KR100523898B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US09/777,792 US6640009B2 (en) 2001-02-06 2001-02-06 Identification, separation and compression of multiple forms with mutants
US09/777,792 2001-02-06
PCT/IL2001/000772 WO2002063546A1 (en) 2001-02-06 2001-08-16 Identification , separation and compression of multiple forms with mutants

Publications (2)

Publication Number Publication Date
KR20030076647A KR20030076647A (ko) 2003-09-26
KR100523898B1 true KR100523898B1 (ko) 2005-10-24

Family

ID=25111287

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2003-7010200A KR100523898B1 (ko) 2001-02-06 2001-08-16 이미지 프로세싱 방법 및 장치 및 기록 매체

Country Status (6)

Country Link
US (1) US6640009B2 (ko)
EP (1) EP1358622B1 (ko)
KR (1) KR100523898B1 (ko)
CN (1) CN100483442C (ko)
DE (1) DE60134271D1 (ko)
WO (1) WO2002063546A1 (ko)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6898317B2 (en) * 2001-05-07 2005-05-24 Hewlett-Packard Development Company, L.P. Method and system for fit-to-form scanning with a scanning device
US20040205530A1 (en) * 2001-06-28 2004-10-14 Borg Michael J. System and method to automatically complete electronic forms
TW533380B (en) * 2001-07-23 2003-05-21 Ulead Systems Inc Group image detecting method
US20030103071A1 (en) * 2001-09-08 2003-06-05 William Lusen User interface system for processing documents for display
US7216295B2 (en) * 2001-12-20 2007-05-08 Canon Kabushiki Kaisha Method of automatic production of image presentations
RU2003108434A (ru) * 2003-03-28 2004-09-27 "Аби Софтвер Лтд." (CY) Способ предварительной обработки изображения машиночитаемой формы нефиксированного формата
US9015573B2 (en) 2003-03-28 2015-04-21 Abbyy Development Llc Object recognition and describing structure of graphical objects
US9224040B2 (en) 2003-03-28 2015-12-29 Abbyy Development Llc Method for object recognition and describing structure of graphical objects
US20110188759A1 (en) * 2003-06-26 2011-08-04 Irina Filimonova Method and System of Pre-Analysis and Automated Classification of Documents
RU2003108433A (ru) 2003-03-28 2004-09-27 Аби Софтвер Лтд. (Cy) Способ предварительной обработки изображения машиночитаемой формы
EP1486904A1 (fr) * 2003-06-10 2004-12-15 STMicroelectronics S.A. Génération d'une image type reconstituée à partir d'un ensemble de plusieurs images représentant un même élément
RU2635259C1 (ru) * 2016-06-22 2017-11-09 Общество с ограниченной ответственностью "Аби Девелопмент" Способ и устройство для определения типа цифрового документа
US7191175B2 (en) 2004-02-13 2007-03-13 Attenex Corporation System and method for arranging concept clusters in thematic neighborhood relationships in a two-dimensional visual display space
JP2006201935A (ja) * 2005-01-19 2006-08-03 Fuji Xerox Co Ltd 画像データ処理装置
US7751622B2 (en) * 2005-08-22 2010-07-06 Carestream Health, Inc. Method and system for detection of undesirable images
CA2633535A1 (en) * 2005-10-25 2007-05-03 Charactell Ltd. Form data extraction without customization
US7978922B2 (en) * 2005-12-15 2011-07-12 Microsoft Corporation Compressing images in documents
US9740692B2 (en) 2006-08-01 2017-08-22 Abbyy Development Llc Creating flexible structure descriptions of documents with repetitive non-regular structures
US8233714B2 (en) 2006-08-01 2012-07-31 Abbyy Software Ltd. Method and system for creating flexible structure descriptions
CN101154291B (zh) * 2006-09-29 2010-05-12 国际商业机器公司 图像数据压缩方法、图像显示方法及其相应装置
GB0622863D0 (en) * 2006-11-16 2006-12-27 Ibm Automated generation of form definitions from hard-copy forms
US8019164B2 (en) * 2007-01-29 2011-09-13 Hitachi High-Technologies Corporation Apparatus, method and program product for matching with a template
JP4970301B2 (ja) * 2008-02-08 2012-07-04 シャープ株式会社 画像処理方法、画像処理装置、画像読取装置、画像形成装置、画像処理システム、プログラムおよび記録媒体
US8649600B2 (en) * 2009-07-10 2014-02-11 Palo Alto Research Center Incorporated System and method for segmenting text lines in documents
US8713018B2 (en) 2009-07-28 2014-04-29 Fti Consulting, Inc. System and method for displaying relationships between electronically stored information to provide classification suggestions via inclusion
CA3026879A1 (en) 2009-08-24 2011-03-10 Nuix North America, Inc. Generating a reference set for use during document review
JP5420363B2 (ja) * 2009-09-28 2014-02-19 大日本スクリーン製造株式会社 画像検査装置および画像検査方法、画像記録装置
US8285074B2 (en) * 2010-09-01 2012-10-09 Palo Alto Research Center Incorporated Finding low variance regions in document images for generating image anchor templates for content anchoring, data extraction, and document classification
JP5703898B2 (ja) * 2011-03-30 2015-04-22 富士通株式会社 帳票管理システム、帳票画像管理方法、及びプログラム
JP2013080326A (ja) * 2011-10-03 2013-05-02 Sony Corp 画像処理装置、画像処理方法及びプログラム
CN105447392A (zh) * 2014-08-22 2016-03-30 国际商业机器公司 用于保护特定信息的方法和系统
US10395133B1 (en) * 2015-05-08 2019-08-27 Open Text Corporation Image box filtering for optical character recognition
US11068546B2 (en) 2016-06-02 2021-07-20 Nuix North America Inc. Computer-implemented system and method for analyzing clusters of coded documents
US10482174B1 (en) * 2018-10-17 2019-11-19 Capital One Services, Llc Systems and methods for identifying form fields

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS4885047A (ko) * 1972-02-14 1973-11-12
US4955060A (en) * 1987-07-02 1990-09-04 Nippon Sheet Glass Co., Ltd. Image recognition apparatus
IL91220A (en) 1989-08-04 1995-03-30 Ibm Israel Compression of information
US5191525A (en) 1990-01-16 1993-03-02 Digital Image Systems, Corporation System and method for extraction of data from documents for subsequent processing
US5247591A (en) * 1990-10-10 1993-09-21 Interfax, Inc. Method and apparatus for the primary and secondary routing of fax mesages using hand printed characters
US5293431A (en) * 1991-09-06 1994-03-08 Opex Corporation System for orienting documents in the automated processing of bulk mail and the like
US5742879A (en) * 1992-11-16 1998-04-21 Eastman Kodak Company Method and apparatus for reproducing documents with variable information
US5434933A (en) 1993-10-09 1995-07-18 International Business Machines Corporation Image processing
US5428694A (en) * 1993-10-14 1995-06-27 International Business Machines Corporation Data processing system and method for forms definition, recognition and verification of scanned images of document forms
US5394487A (en) * 1993-10-27 1995-02-28 International Business Machines Corporation Forms recognition management system and method
WO1995014348A1 (en) 1993-11-16 1995-05-26 International Business Machines Corporation Method and apparatus for alignment of images for template elimination
CA2134255C (en) 1993-12-09 1999-07-13 Hans Peter Graf Dropped-form document image compression
US5832476A (en) * 1994-06-29 1998-11-03 Hitachi, Ltd. Document searching method using forward and backward citation tables
US5845302A (en) * 1995-12-29 1998-12-01 Moore Business Forms, Inc. Method and system for producing high-quality, highly-personalized printed documents
US5864855A (en) * 1996-02-26 1999-01-26 The United States Of America As Represented By The Secretary Of The Army Parallel document clustering process
US5719960A (en) * 1996-06-26 1998-02-17 Canon Kabushiki Kaisha System for dispatching task orders into a user network and method
GB9625284D0 (en) * 1996-12-04 1997-01-22 Canon Kk A data processing method and apparatus for identifying a classification to which data belongs
US6020972A (en) 1997-11-14 2000-02-01 Xerox Corporation System for performing collective symbol-based compression of a corpus of document images
US6061694A (en) * 1997-12-11 2000-05-09 Resqnet.Com, Inc. Message structure
US6457028B1 (en) * 1998-03-18 2002-09-24 Xerox Corporation Method and apparatus for finding related collections of linked documents using co-citation analysis

Also Published As

Publication number Publication date
KR20030076647A (ko) 2003-09-26
CN100483442C (zh) 2009-04-29
EP1358622A4 (en) 2007-04-04
WO2002063546A1 (en) 2002-08-15
EP1358622A1 (en) 2003-11-05
EP1358622B1 (en) 2008-05-28
US6640009B2 (en) 2003-10-28
CN1514985A (zh) 2004-07-21
DE60134271D1 (de) 2008-07-10
US20020106128A1 (en) 2002-08-08

Similar Documents

Publication Publication Date Title
KR100523898B1 (ko) 이미지 프로세싱 방법 및 장치 및 기록 매체
US6574375B1 (en) Method for detecting inverted text images on a digital scanning device
US6151423A (en) Character recognition with document orientation determination
US7379594B2 (en) Methods and systems for automatic detection of continuous-tone regions in document images
US8462394B2 (en) Document type classification for scanned bitmaps
US8947736B2 (en) Method for binarizing scanned document images containing gray or light colored text printed with halftone pattern
JP4771804B2 (ja) レイアウト解析プログラム、レイアウト解析装置、レイアウト解析方法
US7630544B1 (en) System and method for locating a character set in a digital image
JP2001297303A (ja) 文書画像認識方法、装置及びコンピュータ読み取り可能な記録媒体
US20020154815A1 (en) Character recognition device and a method therefore
Pal et al. Automatic separation of words in multi-lingual multi-script Indian documents
CN110598566A (zh) 图像处理方法、装置、终端和计算机可读存储介质
JP3335009B2 (ja) 画像処理方法及び画像処理装置
US20030012438A1 (en) Multiple size reductions for image segmentation
JPH05225378A (ja) 文書画像の領域分割システム
JPH06501801A (ja) 文書からの予め定められたデータを位置決定することおよび抽出することを含む文字認識方法および装置
US6975761B1 (en) Image processing for clustering related text objects
US6694059B1 (en) Robustness enhancement and evaluation of image information extraction
US5721790A (en) Methods and apparatus for separating integer and fractional portions of a financial amount
JP2003087562A (ja) 画像処理装置および画像処理方法
Ranka et al. Automatic table detection and retention from scanned document images via analysis of structural information
Devi et al. A comparative Study of Classification Algorithm for Printed Telugu Character Recognition
Aparna et al. A complete OCR system development of Tamil magazine documents
Mahastama et al. Improving Projection Profile for Segmenting Characters from Javanese Manuscripts
Sankur et al. Assessment of thresholding algorithms for document processing

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20100824

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee