KR100318413B1 - 화상인식방법,화상인식장치및기록매체 - Google Patents

화상인식방법,화상인식장치및기록매체 Download PDF

Info

Publication number
KR100318413B1
KR100318413B1 KR1019980047554A KR19980047554A KR100318413B1 KR 100318413 B1 KR100318413 B1 KR 100318413B1 KR 1019980047554 A KR1019980047554 A KR 1019980047554A KR 19980047554 A KR19980047554 A KR 19980047554A KR 100318413 B1 KR100318413 B1 KR 100318413B1
Authority
KR
South Korea
Prior art keywords
image
mask
recognition target
area
recognition
Prior art date
Application number
KR1019980047554A
Other languages
English (en)
Other versions
KR19990045078A (ko
Inventor
겐이찌 다까하시
요시노리 아와따
마나부 아까마쓰
Original Assignee
사까모도 마사모도
후지제롯쿠스 가부시끼가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 사까모도 마사모도, 후지제롯쿠스 가부시끼가이샤 filed Critical 사까모도 마사모도
Publication of KR19990045078A publication Critical patent/KR19990045078A/ko
Application granted granted Critical
Publication of KR100318413B1 publication Critical patent/KR100318413B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • G06V10/7515Shifting the patterns to accommodate for positional errors

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

본 발명은 입력 화상으로부터 특정 화상 및 상기 특정 화상을 회전하여 얻은 화상 중 적어도 1개를 포함하는 복수의 화상을 인식하는 화상 인식 방법에 있어서, 상기 방법은 각 인식 대상 화상에 대하여 윈도우 영역 상에 적어도 1개의 마스크 영역을 준비하는 단계; 각 인식 대상 화상에 대하여 마스크 영역의 입력 화상의 화소 농도치를 연산한 결과에 의거해서 인식 대상 화상의 존재 여부를 판정하는 제 1 판정 단계; 및 제 1 판정 단계의 판정 결과에 의거해서, 상기 복수의 인식 대상 화상 중 일부가 상기 윈도우 영역 내에 존재하는지의 여부를 판정하는 제 2 판정 단계를 포함하며, 상기 윈도우 영역은 1개 이상의 화소로 형성되며 2차원으로 배열된 셀로 구성되고, 상기 마스크 영역은 1개 이상의 셀로 구성되며 상기 인식 대상 화상의 특성을 나타내는 영역에 상당하는 것을 특징으로 한다.

Description

화상 인식 방법, 화상 인식 장치 및 기록 매체
본 발명은 입력 화상으로부터 특정 화상 및 그 특정 화상을 회전시켜 얻은 화상을 포함하는 복수의 인식 대상 화상을 인식하기 위한 화상 인식 방법 및 화상 인식 장치와, 상기 화상 인식 방법으로 화상 인식을 실현하기 위한 프로그램을 기록한 기록 매체의 관한 것이다.
입력 화상으로부터 특정 화상을 인식하는 방법으로서 템플릿 매칭법 (template matching method)이 널리 알려져 있다. 일반적인 템플릿 매칭법은 다음과 같다.
인식 대상 특정 화상이 기준 화상으로서 제공되고, 입력 화상이 기준 화상 상에 중첩되어, 양쪽 화상이 수평 또는 수직으로 동시에 1화소만큼 상대적으로 어긋나는 동안 화상간의 비교가 이루어진다. 전체 또는 주어진 수 이상의 화소가 일치하면 특정 화상이 입력 화상에 포함되어 있는 것으로 판정된다.
그러나, 이 방식에서는 예를 들어 특정 화상이 회전하면, 회전된 특정 화상을 포함하는 입력 화상으로부터 기준 화상과 일치하는 화상을 인식할 수 없다. 즉, 입력 화상 중의 특정 화상이 기준 화상과 방향이 다르면 특정 화상을 인식할 수 없다는 결점을 갖는다.
이러한 결점을 극복하기 위한 방법으로서 종래에는 일본 특개평5-12446호의 공보에 개시된 바와 같이, 기준 패턴(기준 화상에 상당)의 좌표를 메모리에 저장하고, 메모리에 저장된 좌표에 의거하여 기준 패턴이 회전하였을 때의 좌표를 생성하며, 생성된 좌표와 메모리에 저장된 좌표를 비교에 사용함으로써 다양한 회전 각도에서 특정 화상을 인식할 수 있는 화상 인식방법이 제안되었다.
상기 결점을 극복하기 위한 다른 방법으로, 일본 특개평8-63604호 공보에는 화상의 무게 중심을 검출하고, 무게 중심을 중심으로 하는 극좌표 데이터로 화상의 윤곽을 표시하며, 극좌표 데이터로 표시된 함수를 기준 화상의 윤곽에 따른 함수와 비교함으로써, 화상간의 형상의 유사성을 판정하는 화상 처리 방법이 개시되어 있다. 이 방법은 또한 함수 위상 편차를 특정 화상의 회전으로서 잡음으로써 회전된 특정 화상에도 대처할 수 있다.
또한 일본 특개평6-309461호 공보는 원형 윈도우의 주변 상의 화상을 주사하여 얻은 명암 화소 데이터 열을 푸리에 변환시켜서 스펙트럼 패턴을 구하고, 상기 스펙트럼 패턴을 기준 화상의 스펙트럼 패턴과 비교함으로써 특정 화상을 인식하는화상 인식 방법을 설명하고 있다. 이 방법은 또한 얻어진 스펙트럼 패턴이 주사 개시 위치(특정 화상의 회전각도)에 의존하지 않고 동일해지므로 회전된 특정 화상에도 대처할 수 있다.
그러나, 이제까지 설명한 바에 의하면, 상기 공보에 개시된 방법들은 화상 인식 시에 복잡한 연산을 수행해야 하므로 고속의 처리를 요하는 용도에는 적용할 수 없다. 처리의 고속화를 도모하기 위해 상술한 각각의 방법을 회로, 즉 하드웨어로 구현하고자 하여도, 회로 구성이 대규모화되고 복잡해진다.
특히, 최근에는 화상 안에 그 화상의 저작권 정보, 유통 경로 정보 등을 나타내는 코드 정보로서의 특정 화상을 끼워 넣거나, 이들 코드 정보를 사용하여 화상을 다루는 시스템이 제안되어 있는 바, 특정 화상을 고속으로 인식할 수 있는 염가의 화상 인식 장치의 실현이 요망되고 있다.
따라서, 본 발명의 목적은 특정 화상의 방향(회전 각도)에 무관한 인식 정확도를 가지며, 간단한 구성으로 특정 화상을 고속으로 인식할 수 있는 화상 인식 방법 및 화상 인식 장치와, 상기 화상 인식 방법에 의한 화상 인식을 실현하기 위한 프로그램을 기록한 기록 매체를 제공하는 것이다.
도 1은 본 발명의 일실시예에 의한 화상 처리 장치에 의해 제공되는 화상 처리 방법의 처리의 흐름을 나타낸 순서도.
도 2는 본 발명의 실시예에서의 특정 화상의 예를 나타낸 설명도.
도 3은 도2에서의 상기 특정 화상(인식 대상 화상)과 그 중심 위치와의 관계를 나타낸 설명도.
도 4a∼도 4c는 도 2에 나타낸 특정 화상을 회전해서 얻은 인식 대상 화상의 예를 나타낸 설명도.
도 5a∼도 5d는 도 2 및 도 4a∼도 4c에 나타낸 인식 대상 화상의 특성 영역의 예를 나타낸 설명도.
도 6은 본 발명의 동 실시예에서의 윈도우 영역의 예를 나타낸 설명도.
도 7a∼도 7d는 도 2 및 도 4a∼도 4c에 나타낸 인식 대상 화상과 윈도우 영역 상의 마스크 영역의 예를 나타낸 설명도.
도 8은 본 발명의 동 실시예에서의 입력 화상의 일례를 나타낸 설명도.
도 9는 본 발명의 동 실시예에서 윈도우 영역이 시프트 하면서 입력 화상을 주사하는 양상을 나타낸 설명도.
도 10은 본 발명의 동 실시예에서의 화상 처리 장치의 구성례를 나타낸 블록도.
도 11은 본 발명의 동 실시예에서의 화상 처리 장치의 화상 데이터 유지부의 회로 구성례를 나타낸 설명도.
도 12는 도 11에서의 상기 화상 데이터 유지부에 의해 설정된 윈도우 영역을 나타낸 설명도.
도 13a∼도 13d는 본 발명의 동 실시예에서의 상기 화상 처리 장치에서 설정되는 마스크 영역의 일 예를 나타낸 설명도.
도 14는 본 발명의 동 실시예에서의 상기 화상 처리 장치의 마스크 영역 설정부의 구성례를 나타낸 블록도.
도 15는 동화상 처리 장치의 마스크 영역 설정부의 구성과 제1 마스크 영역 연산부의 구성간의 대응 관계를 나타낸 블록도.
도 16은 본 발명의 동 실시예에서의 상기 화상 처리 장치의 제1 마스크 영역 연산부의 구성례를 나타낸 블록도.
도 17은 본 발명의 동 실시예에서의 상기 화상 처리 장치의 제1 마스크 영역 연산부의 회로 구성례를 나타낸 블록도.
도 18은 본 발명의 동 실시예에서의 상기 화상 처리 장치의 제1 마스크 영역 연산부의 구성과 제2마스크 영역 연산부의 구성간의 대응 관계를 나타낸 블록도.
도 19는 본 발명의 동 실시예에서의 상기 화상 처리 장치의 제2 마스크 영역 연산부의 회로 구성례를 나타낸 설명도.
도 20은 본 발명의 동 실시예에서의 상기 화상 처리 장치의 마스크 영역 설정부의 구성과 마스크 외부 영역 연산부의 구성간의 대응 관계를 나타낸 블록도.
도 21은 본 발명의 동 실시예에서의 상기 화상 처리 장치의 마스크 외부 영역 연산부의 회로 구성례를 나타낸 블록도.
도 22는 본 발명의 동 실시예에서의 상기 화상 처리 장치의 화상 판정부의 구성례를 나타낸 블록도.
도 23은 본 발명의 동 실시예에서의 상기 화상 처리 장치의 화상 판정부의 회로 구성례를 나타낸 설명도.
도 24는 본 발명의 동 실시예에서의 상기 화상 처리 장치의 특정 화상 인식부의 회로 구성례를 나타낸 설명도.
도 25는 본 발명의 동 실시예에서의 상기 화상 처리 장치의 특정 화상 인식부의 다른 회로 구성례를 나타낸 설명도.
도 26은 본 발명의 동 실시예에서의 상기 화상 처리 장치의 화상 데이터 유지부의 윈도우 영역 상의 데이터 예를 나타낸 설명도.
도 27a∼도 27d는 본 발명의 동 실시예에서의 상기 화상 처리 장치의 마스크 영역 설정부의 출력 데이터 예를 나타낸 설명도로서, 도 27a는 제1 마스크 영역 설정부의 마스크 영역 출력 데이터를, 도 27b는 제2 마스크 영역 설정부의 마스크 영역 출력 데이터를, 도 27c는 제3 마스크 영역 설정부의 마스크 영역 출력 데이터를 각각 나타낸 설명도.
도 28은 본 발명의 동 실시예에서의 상기 화상 처리 장치의 화상 데이터 유지부의 윈도우 영역 상의 데이터 예를 나타낸 설명도.
도 29∼도 29d는 본 발명의 동 실시예에서의 상기 화상 처리 장치의 마스크 영역 설정부의 출력 데이터 예를 나타낸 설명도로서, 도 29a~도29d는 각각 제1 마스크 영역 설정부, 제2 마스크 영역 설정부, 제3 마스크 영역 설정부, 제4 마스크 영역 설정부의 마스크 영역 출력 데이터를 각각 나타낸 설명도.
도 30은 본 발명의 동 실시예에서의 상기 화상 처리 장치에서의 처리 사이클 예를 나타낸 설명도.
도 31은 본 발명의 동 실시예에서의 상기 화상 처리 장치의 변형례의 구성을 나타낸 블록도.
본 발명의 제1 실시형태에 의하면, 입력 화상으로부터, 특정 화상 및 상기 특정 화상을 회전하여 얻은 화상들 중 적어도 1개를 포함하는 복수의 인식 대상 화상을 인식하는 화상 인식 방법에 있어서, 상기 각 인식 대상 화상마다 윈도우 영역상에 적어도 1개의 마스크 영역을 준비하는 단계; 상기 각 인식 대상 화상마다, 상기 마스크 영역 내의 상기 입력 화상의 화소 농도치를 연산한 결과에 의거해서 상기 각 인식 대상 화상의 유무를 판정하는 제1 판정 단계; 및 상기 각 인식 대상 화상마다의 상기 제1 판정 단계의 판정 결과에 의거해서 상기 복수의 인식 대상 화상 중 어느 하나가 상기 윈도우 영역 내에 존재하는지의 여부를 판정하는 제2 판정 단계를 포함하며, 상기 윈도우 영역은 1개 이상의 화소로 형성된 2차원으로 배열된 셀들로 구성되고, 상기 마스크 영역은, 1개 이상의 셀로 구성되며 인식 대상 화상의 특징을 나타내는 영역에 상당하고, 상기 복수의 인식 대상 화상은 동일한 중심 위치를 중심으로 상기 특정 화상을 임의의 각도로 회전시킴으로써 얻어지는 것을 특징으로 하는 화상 인식 방법이 제공된다. 이 경우, 대응하는 회전 각도만으로 인식 대상 화상을 정의할 수 있다.
또한, 상기 마스크 영역 내의 화소 농도치에 대한 연산 결과뿐만 아니라 상기 마스크 영역 외의 상기 윈도우 영역 내의 화소 농도치에 대한 연산 결과도 고려해서 상기 인식 대상 화상의 존재 여부를 판정하여도 좋으며, 이 경우에는 인식 정확도를 향상시킬 수 있다. 또는 상기 복수의 인식 대상 화상 중 어느 하나가 윈도우 영역 내에 존재하는지의 여부가 아니라 상기 복수의 인식 대상 화상 중의 어느 하나가 윈도우 영역 내에 존재할 가능성을 판정하여도 좋다.
또한, 상기 동일한 중심 위치와 상기 윈도우 영역의 중심 위치가 일치하도록 상기 마스크 영역을 배치하여도 좋으며, 이 경우에는 마스크 영역의 설정이 쉬어짐과 동시에 윈도우 영역의 크기를 최소화할 수 있다.
또한, 화소가 회전할 때 회전의 중심 위치로부터 떨어진 화소일수록 회전 이동 거리가 커지는 것을 감안해서, 각 마스크 영역이 윈도우 영역의 중심 위치로부터 멀어질수록 마스크 영역을 구성하는 셀 수가 증가하도록 윈도우 영역을 형성하여도 좋다. 이에 따라 오(誤)인식 발생 확률을 저감할 수 있다.
또한, 인식 대상 화상 중 어느 하나에 대해서 설정된 마스크 영역과 인식 대상 화상의 회전 각도에 의거해서 인식 대상 화상에 대한 마스크 영역을 산출하여 설정하여도 좋다. 즉, 마스크 영역을 간소하게 설정할 수 있다. 인식 대상인 복수의 특정 화상 및 상기 특정 화상들을 회전해서 얻어진 인식 대상 화상에 상당하는 마스크 영역을 단일 윈도우 영역 상에 설정하여도 좋다. 입력 화상은 이진 화상이어도 좋으며, 이 경우에는 연산 처리를 보다 간소하게 할 수 있고, 또한 시스템 규모를 축소할 수 있다.
본 발명의 제2 실시형태에 의하면, 입력 화상으로부터, 특정 화상 및 상기 특정 화상을 회전하여 얻은 화상들 중 적어도 1개를 포함하는 복수의 인식 대상 화상을 인식하기 위한 화상 인식 장치에 있어서, 상기 입력 화상을 나타내는 화상 데이터를 저장하는 화상 데이터 저장 수단; 상기 각 인식 대상 화상마다 소정의 윈도우 영역 상에 1개 이상의 마스크 영역을 설정하기 위한 설정 정보를 저장하는 마스크 영역 저장 수단; 상기 각 인식 대상 화상마다 상기 마스크 영역 내의 화상 데이터값을 연산하는 마스크 영역 연산 수단; 상기 각 인식 대상 화상마다 상기 마스크 영역 연산 수단의 연산 결과에 의거해서 인식 대상 화상의 유무를 판정하는 화상 판정 수단; 및 상기 각 인식 대상 화상마다의 상기 화상 판정 수단의 판정 결과에의거해서 상기 복수의 인식 대상 화상 중 어느 하나가 상기 윈도우 영역 내에 존재하는지의 여부를 판정하는 특정 화상 인식 수단을 구비며, 상기 복수의 인식 대상 화상은 동일한 중심 위치를 중심으로 상기 특정 화상을 임의의 각도로 회전시킴으로써 얻어지는 것을 특징으로 하는 화상 인식 장치가 제공된다. 이 경우 마스크 영역 저장 수단 자체 또는 저장 영역이 교환됨으로써 어떤 인식 대상 화상도 다룰 수 있다.
상기 화상 인식 장치는 상기 마스크 영역 외의 상기 윈도우 영역 내의 상기 화상 데이터의 값에 대해 연산을 실시하는 마스크 외부 영역 연산 수단을 더 구비하여도 좋고, 상기 화상 판정 수단은 상기 마스크 영역 연산 수단의 연산 결과 및 상기 마스크 외부 영역 연산 수단의 연산 결과에 의거해서 인식 대상 화상의 존재 여부를 각 인식 대상 화상마다 판정하여도 좋다. 또는, 상기 화상 판정 수단은 상기 마스크 영역 연산 수단의 연산 결과에 의거해서 인식 대상 화상의 존재 가능성의 여부를 각 인식 대상 화상마다 판정하여도 좋고, 또한 특정 화상 인식 수단은 상기 각 인식 대상 화상에 대한 상기 화상 판정 수단의 판정 결과에 의거해서 상기 인식 대상 화상 중 어느 하나가 상기 윈도우 영역 내에 존재하고 있을 가능성을 판정하여도 좋다.
또한, 상기 마스크 영역 저장 수단의 저장 내용을 임의로 판독 및 기입할 수 있는 경우에는 마스크 영역 설정 정보를 쉽게 바꿀 수 있다.
확실하게 각 인식 대상 화상을 인식하기 위해서는, 인식 대상 화상을 구성하는 화소의 농도치가 다양한 요인에 의해 변동하는 것을 고려해서 영역을 추출하여마스크 영역을 설정할 필요가 있다. 그러나, 전 영역에 대하여 상기 변동을 고려해서 넓은 마스크 영역을 설정하면, 특히 중심 위치 근처에서 인식 대상 화상과 유사한 화상을 인식 대상 화상으로 오인식할 가능성이 높아진다. 그래서, 윈도우 영역의 중심 위치로부터 가장 가까운 마스크 영역을 1개의 셀만으로 구성하고, 이 마스크 영역을 기준으로 해서 다른 마스크 영역을 설정함으로써, 오인식이 발생할 가능성을 저감할 수 있다.
윈도우 영역은 직사각형 또는 원형이어도 좋으며, 상기 마스크 영역을 임의로 설정하여도 좋다. 윈도우 영역이 직사각형일 경우에는 일반적으로 직사각형인 입력 화상을 빠짐 없이 주사할 수 있음과 동시에, 주사 처리를 간소하게 할 수 있다. 또 상기 윈도우 영역이 원형일 경우에는 윈도우 영역 상의 화소 위치를 극좌표로 나타낼 수 있으므로, 마스크 영역의 저장에 필요한 용량을 삭감할 수 있다. 또한, 마스크 영역을 임의로 설정할 수 있게 됨으로써, 입력 화상의 특징 등에 따라서 마스크 영역을 설정할 수 있고, 인식 정확도도 향상시킬 수 있다. 물론 모든 종류의 화상을 인식 대상 화상으로 할 수도 있다.
마스크 영역 저장 수단에 저장되는 설정 정보에는 인식 대상 화상 중의 어느 하나에 대해 설정된 마스크 영역의 설정 정보와 인식 대상 화상의 회전 각도를 포함하여도 좋다. 이 경우에는 상기 마스크 영역 설정 정보의 저장에 필요한 용량을 저감할 수 있다. 물론 화상 데이터를 이진 데이터로 해서 회로 구성 및 장치의 복잡화를 피하거나, 각 인식 대상 화상에 대해 동일 사이클로 처리를 수행함으로써 실시간 처리를 실현하여도 좋다.
본 발명의 제3 실시형태에 의하면, 입력 화상으로부터, 특정 화상 및 상기 특정 화상을 회전시켜서 얻은 화상 중 적어도 1개를 포함하는 복수의 인식 대상 화상을 인식하기 위한 프로그램을 기록한 기록 매체에 있어서, 상기 각 인식 대상 화상마다 윈도우 영역 상에 적어도 1개의 마스크 영역을 준비하는 단계; 상기 각 인식 대상 화상마다, 상기 마스크 영역 내의 상기 입력 화상의 화소 농도치를 연산한 결과에 의거해서 인식 대상 화상의 유무를 판정하는 제1 판정 단계; 및 상기 각 인식 대상 화상마다의 상기 제1 판정 단계의 판정 결과에 의거해서, 상기 복수의 인식 대상 화상 중 어느 하나가 상기 윈도우 영역 내에 존재하는지의 여부를 판정하는 제2 판정 단계를 포함하며, 상기 윈도우 영역은 1개 이상의 화소로 형성되며 2차원으로 배열된 셀들로 구성되고, 상기 마스크 영역은 1개 이상의 셀로 구성되며 인식 대상 화상의 특성을 나타내는 영역에 상당하고, 상기 복수의 인식 대상 화상은 동일한 중심 위치를 중심으로 상기 특정 화상을 임의의 각도로 회전시킴으로써 얻어지는 것을 특징으로 하는 기록 매체가 제공된다.
(발명의 실시예)
이하 도면을 참조해서 본 발명에 의한 일실시예에 의한 화상 인식 장치를 설명한다.
Ⅰ. 화상 처리 방법
먼저 본 발명의 실시예에 의한 화상 인식 장치에 의해 제공되는 화상 인식방방법(이하 화상 처리 방법이라 함)에 대해서 설명한다.
도 1은 화상 처리 방법의 흐름을 나타내는 순서도이다. 도면에 나타낸 바와같이, 먼저 스텝 S1에서는 특정 화상을 결정한다. 이 때 1개 이상의 특정 화상이 결정되어도 좋다. 다음에 스텝 S2에서는 화상 입력 방법에 따라 어떤 각도로 특정 화상을 입력할지를 결정한다. 특정 화상을 임의의 각도로 입력할 수 있는 경우에는, 특정 화상의 크기 및 입력 해상도를 고려해서 복수의 각도를 샘플링한다. 따라서, 예를 들어 스텝 S1에서 특정 화상이 n개 결정되고, 스텝 S2에서 각도가 m개 샘플링되면, 인식 화상 대상은 n×m개가 된다.
S3에서는 특정 화상의 회전의 중심 위치를 결정하고, 스텝 S4에서는 상기 중심 위치를 중심으로 해서 특정 화상을 회전시켜서 얻은 인식 대상 화상을 복수의 영역으로 분할한다. 다음에 스텝 S5에서는 인식 대상 화상의 크기 및 입력 해상도를 고려해서 윈도우 영역을 준비한다. 스텝 S6에서는 윈도우 영역의 중심 위치와 인식 대상 화상의 회전 중심 위치를 맞춘다. 스텝 S7에서는 마스크 영역이 윈도우 영역에 설정된다. 상술한 처리에 대해서 구체예를 들어서 설명한다.
도 2는 소정의 코드 정보를 갖는 특정 화상(1)을 나타내는 설명도이다. 본 화상 처리 방법에서는 특정 화상(1)뿐만 아니라 특정 화상(1)을 회전시켜 얻은 화상도 인식하기 위해서, 도 3에 나타낸 바와 같이, 특정 화상(1) 상에 회전 중심이 되는 중심 위치(2)를 설정한다. 이 중심 위치(2)를 중심으로 해서 특정 화상을 90도, 180도, 270도 회전시키면, 도 4a∼도 4c에 나타낸 바와 같이 인식 대상 화상 (3∼5)을 얻는다. 본 화상 처리 방법에서는 4개의 화상(회전 각도 0도, 90도, 180도, 270도에서 얻음)을 인식 대상으로 한다. 설명의 편의상 특정 화상(1)을 인식 대상 화상(1)이라고도 칭하기로 한다.
다음에, 본 화상 처리 방법에서는 4개의 인식 대상 화상의 각각에 대해서 인식 대상 화상의 특징을 나타내는 영역을 설정한다. 도 2 및 도 4a ∼ 도 4c에 나타낸 예에서는 흑색으로 표시된 화상(이하 흑화상이라 칭함)이 인식 대상 화상의 특징을 나타내고 있고, 이 흑화상은 6개의 흑화소로 구성되어 있으므로, 도 5a ∼도 5d에 나타낸 바와 같이, 4개의 인식 대상 화상 각각에 대하여 곡선으로 둘러싸인 6개의 영역이 설정된다.
본 화상 처리 방법에서는 입력 화상을 주사하고 입력 화상으로부터 인식 대상 화상을 인식하기 위한 격자상의 윈도우 영역(7)(도 6 참조)을 준비한다. 윈도우 영역(7)은 인식 대상 화상(1, 3∼5) 중의 1개만 들어갈 수 있는 크기로 설정되어 있다. 도 6에 나타낸 예에서는 윈도우 영역이 11×11셀의 크기로 설정되어 있다. 윈도우 영역(7)의 각 셀의 크기(해상도)는 임의이며, 특정 화상에 따라서 적정하게 설정된다.
다음에 본 화상 처리 방법에서는 도 7a∼도 7d에 나타낸 바와 같이, 각 인식 대상 화상(1, 3∼5)마다 설정된 영역(6)에 대응하는 마스크 영역(8)을 윈도우 영역(7) 상에 설정한다. 이 때, 마스크 영역(8)은 각 인식 대상 화상(1, 3∼5)의 회전 중심 위치(2)와 윈도우 영역(7)의 중심이 일치하도록 설정되어 있다. 각 인식 대상 화상(1, 3∼5)에 대한 6개의 마스크 영역(8)은 동일한 윈도우 영역(7) 상에 설정되고, 최종적으로 24개의 마스크 영역이 1개의 윈도우 영역(7) 상에 설정된다.
본 화상 처리 방법에서는 입력 화상을 주사하기 전에 상술한 처리를 수행한다. 도 1을 다시 참조해서 이후의 처리에 대해서 설명한다.
스텝 S8에서는 입력 화상이 윈도우 영역에 주사된다. 스텝 S9에서는 입력 화상이 완전히 주사되었는지의 여부를 판정한다. 입력 화상이 완전히 주사되지 않았을 경우에는, 스텝 S10으로 제어되어 각 마스크 영역의 화소 농도치에 대한 소정의 연산을 수행한다. 스텝 S11에서는 각 특정 화상에 대하여, 마스크 영역 외의 영역의 화소 농도치에 대한 소정의 연산을 수행하고, 상기 연산 결과와 스텝 S10에서의 각 마스크 영역에 대한 연산 결과에 의거해서 각 인식 대상 화상이 존재하는지의 여부 또는 존재 가능성을 판정한다. 또한 스텝 S12에서 인식 대상 화상이 존재하거나 인식 대상 화상이 존재할 확률이 높다고 판정되면, 제어는 스텝 S13으로 가서 인식 대상 화상을 검출한 것으로 하고, 그렇지 않으면 스텝 S14으로 제어되어 인식 대상 화상이 검출되지 않은 것으로 한다. 그리고 스텝 S8으로 되돌아가서 입력 화상 전체에 대한 주사가 완료될 때까지 상술한 처리를 반복한다.
상기 구체예에서의 처리에 대해 설명한다. 여기서 입력 화상은 도 8에 나타낸 입력 화상(9)이고, 도 8은 입력 화상(9)의 일례를 나타내는 설명도이다. 입력 화상(9)은 불규칙하게 배치된 흑점으로 이루어져 있는 듯이 보이지만, 인식 대상 화상(1, 3∼5)을 포함하고 있다.
본 화상 처리 방법에서는 마스크 영역(8)이 설정된 윈도우 영역(7)으로 좌상의 구석으로부터 우하의 구석으로 입력 화상(9)이 주사된다. 입력 화상(9)에 대한 윈도우 영역(7)의 위치가 주사하는 동안 변할 때마다, 각 마스크 영역(8)에 대응하는 입력 화상(9) 상의 화소 농도치에 대해 연산을 수행한다. 구체적인 주사는, 도9에 나타낸 바와 같이, 입력 화상(9)의 좌단으로부터 윈도우 영역(7)을 수평 방향으로 1화소씩 시프트하는 처리를 윈도우 영역(7)의 우단이 입력 화상(9)의 우단에 도달하기까지 반복하는 수평 방향의 주사가, 윈도우 영역(7)을 수직 방향으로 한번에 1화소씩 시프트 해가면서 반복된다. 물론 수직 방향의 주사는 윈도우 영역(7)의 하단이 입력 화상(9)의 하단에 도달할 때 종료한다.
입력 화상(9)에 대한 윈도우 영역(7)의 위치가 바뀔 때마다 수행되는 연산은, 본 화상 처리 방법에서는 각 인식 대상 화상(1, 3∼5)에 대해서, 1개의 마스크 영역(8)이 1개 이상의 흑화소를 포함하는 경우에는, 마스크 영역(8)을 '1'로 설정하는 OR 논리 연산을 수행하고, 또 6개의 마스크 영역(8)의 연산 결과가 '1'일 경우에 '1'을 출력하는 AND 논리 연산을 수행하고, 또한 입력 화상(9) 상의 마스크 영역(8)을 뺀 윈도우 영역이 모두 백화소일 경우에는 '1'을 출력하는 NOR 논리 연산을 수행한다. 그리고, 각 인식 대상 화상(1, 3∼5)에 대해서 AND 연산 결과와 NOR 연산 결과와의 AND를 취하여 이것을 판정 결과로 한다. 연산은 각 인식 대상 화상(1, 3∼5)에 대해서 병렬로 수행한다.
이상의 설명으로부터 알 수 있는 바와 같이, 본 화상 처리 방법에서는 윈도우 영역(7)의 위치가 입력 화상(9) 상의 특정 화상을 완전히 포함하는 위치가 되면, 인식 대상 화상(1, 3∼5) 에 대한 판정 결과 중 어느 1개만이 '1'이 되고, 윈도우 영역(7)이 다른 위치에 놓이면, 판정 결과는 모두 '0'이 된다. 도 8에 나타낸 입력 화상(9)의 경우에는, 먼저 시계 방향으로 270도만큼 회전한 인식 대상 화상(5)에 대한 판정 결과만이 '1'이 되고, 주사가 진행됨에 따라서 시계 방향으로90도, 180도, 0도만큼 회전한 인식 대상 화상(3, 4,1)에 대한 판정 결과가 차례로 '1'이 된다. 이와 같이 본 화상 처리 방법에서는 방향이 다른 4개의 인식 대상 화상을 입력 화상(9)으로부터 인식할 수 있다. 물론 입력 화상(9) 자체가 시계 방향으로 90도, 180도, 270도 회전하더라도, 상술한 바와 마찬가지로 4개의 인식 대상 화상을 인식할 수 있다.
또, 각 마스크 영역(8)에 대한 연산에서 OR 논리 연산을 수행하지 않고, 마스크 영역(8) 내에 위치하는 입력 화상(9) 상의 각 화소 농도치를 가산해서 화소 농도치의 합계가 소정의 임계치를 초과하였을 경우에 '1'을, 다른 경우에는 '0'을 출력하게 하여도 좋다. 요컨대 특정 화상에 노이즈가 혼입해서 일어나는 오차나 인식 정확도 등에 따라서 최적의 연산을 채택하면 된다.
그런데, 2차원 화상을 주사해서 입력 화상을 얻을 경우, 화상을 판독하는 기술에 따라서 특정 화상의 회전 각도가 임의(0도, 90도, 180도, 270도 이외의 각도)로 되는 일이 있다. 이와 같은 경우에는 본 화상 처리 방법에서는 특정 화상을 충분히 작은 각도로 회전시킴으로써 차례로 얻어지는 각 특정 화상에 대해서 마스크 영역(8)을 설정하도록 하면 된다. 즉 인식 대상 화상의 수를 늘리고, 각 인식 대상 화상에 대해서 마스크 영역(8)을 설정하면 된다.
또 본 화상 처리 방법에서 대응하는 분할 영역(6)에 대해서 각 마스크 영역 (8)을 넓게 설정하면, 인식 대상 화상이 미리 준비되어 있지 않은 임의의 회전 각도에서의 특정 화상을 인식 대상 화상으로서 인식할 수 있는 확률을 높일 수 있고, 인식 대상 화상에 노이즈가 혼입하여 일어나는 오차가 판정에 끼치는 영향을 줄일수 있다. 즉, 인식 정확도를 향상시킬 수 있다.
또한, 인식 대상 화상을 특정 화상 및 그 특정 화상을 회전하여 얻은 화상만으로 한정한 점을 살려서, 본 화상 처리 방법에 의한 인식 정확도를 향상시킬 수 있다. 예를 들어 동일 회전 각도이면 중심 위치(2)로부터의 거리가 멀어짐에 따라서 영역(6)에 대응하는 마스크 영역(8)을 보다 넓게 설정함으로써 인식 정확도를 향상시킬 수 있다.
그런데 모든 마스크 영역(8)을 영역(6)에 대해서 넓게 설정하면, 특히 회전에 따른 화소의 이동 거리가 작은 중심 위치(2)에 가까운 위치에서는 오차의 범위를 넘은 위치에 존재하는 화소까지도 인식 대상 화상의 화소로서 인식될 우려가 있어, 인식 대상 화상과 유사한 화상을 잘못하여 인식 대상 화상으로서 인식해 버리는 오인식이 발생할 가능성이 높아진다. 그래서, 본 화상 처리 방법에서 동일 회전 각도에서는 회전에 의한 화소의 이동 거리가 작은 위치(즉 중심 위치(2) 및 윈도우 영역(7)의 중심 위치로부터 가장 가까운 위치)의 마스크 영역을 1개의 셀만으로 구성하고, 중심 위치(2) 및 윈도우 영역(7)의 중심 위치로부터의 거리와 윈도우 영역(7)의 해상도에 의거하여 다른 마스크 영역의 넓이를 결정하도록 하면, 인식 정확도를 향상시킬 수 있다.
또, 인식 대상 화상은 특정 화상 및 그 특정 화상을 회전하여 얻은 화상뿐이다. 따라서, 윈도우 영역의 형상을 원형으로 하면, 윈도우 영역이 차지하는 면적을 더욱 좁게 할 수 있다. 또한, 윈도우 영역이 원형이면, 전체 마스크 영역의 위치를 극좌표로 관리할 수 있다. 따라서, 회전 각도를 부여함으로써 회전하지 않은특정화상의 마스크 영역의 좌표에 의거해서 상기 회전 각도로 회전된 특정 화상의 마스크 영역의 좌표를 공지의 단순한 수식을 사용하여 산출할 수 있다.
또 본 화상 처리 방법에서, 마스크 영역을 고정하지는 않고 임의로 설정할 수 있게 하면, 입력 화상이나 특정 화상의 특성의 변화 등에 따라서 적절한 마스크 영역을 설정할 수 있다. 따라서, 인식 정확도가 향상될 수 있다. 물론 인식 대상인 특정 화상 자체를 변경할 수도 있게 된다.
또한 인식의 기준이 되는 특정 화상 및 입력 화상 중 어느 한쪽 또는 양쪽이 컬러화상이거나 흑백(gray-scale) 화상이더라도, 입력 화상을 이진화한 후에 상기 인식 처리를 수행함으로써 본 화상 처리 방법을 적용할 수 있다. 예를 들어, 본 화상 처리 방법을 적용한 장치가 원고로부터 컬러 정보나 흑백의 다치(多値) 정보를 판독할 수 있는 판독 장치를 구비하고, 입력 화상이 컬러 화상이거나 흑백 화상이었다고 해도, 이진화를 포함한 적절한 화상 처리를 수행함으로써 정상적인 인식 처리를 수행할 수 있다. 이것은 인식의 기준으로 쓰인 특정 화상이 컬러 화상이거나 흑백 화상일 경우에도 마찬가지로 들어맞는다. 따라서, 특정 화상 및 입력 화상 중 어느 한쪽 또는 양쪽이 컬러 화상이거나 흑백 화상이더라도 단순한 이진 연산을 수행함으로써 특정 화상을 인식할 수 있음과 동시에, 특정 화상의 인식 처리에서 색이나 농도 등의 형상 이외의 속성 정보에 의존하지 않는 인식 처리를 수행할 수 있다. 물론 연산 처리는 복잡해지지만, 속성 정보를 변환하는 일이 없이 특정 화상을 컬러 또는 흑백 화상인 채로 비교·인식하여도 된다. 그 구체적인 예에 대해서는 제2 변형례로서 후술하겠다.
또 본 화상 처리 방법의 설명에서는, 특정 화상과 그 특정 화상을 회전하여 얻은 화상의 인식에 대해서 설명하였다. 그러나, 다른 특정 화상과 그 특정 화상을 회전하여 얻은 화상의 각각에 대응하는 마스크 영역을 윈도우 영역(7)에 설정하고, 이들에 대해서도 병렬로 연산을 수행하도록 하면, 1개의 윈도우 영역에서 복수의 특정 화상과 그 특정 화상을 회전하여 얻은 화상들을 인식할 수 있다.
Ⅱ. 화상 처리 장치
다음에 상술한 화상 처리 방법을 실현한 본 실시예에 의한 화상 처리 장치 (이하 화상 처리 장치라 칭함)에 대해서 설명한다.
(1) 전체 구성
도 10은 본 화상 처리 장치의 기본 블록도이다. 이 도면에 나타낸 바와 같이, 본 화상 처리 장치는 입력 화상을 나타내는 이진 화상 데이터(이하, 입력 화상데이터)를 입력하고, 그 입력 화상의 대한 특정 화상에 대한 인식 결과를 나타내는 인식 결과 데이터를 출력하는 것이다. 또한, 이후의 설명에서 화상 데이터의 값은 화소 농도치로서, 여기서는 백화소에 대한 화상 데이터의 값(화소 농도치)이 0, 흑화소에 대한 화상 데이터의 값(화소 농도치)이 1인 것으로 한다.
도 10에서 10은 특정 화상의 인식에 필요한 복수 라인 분의 입력 화상 데이터를 차례로 저장하는 입력 화상 저장부, 11은 입력 화상 저장부(10)로부터 미리 설정된 윈도우 영역에 상당하는 화상 데이터를 판독하여 일시적으로 유지하는 화상데이터 유지부, 12는 마스크 영역 설정부로서, 미리 설정된 특정 화상 및 그 특정 화상을 회전하여 얻은 화상의 각각에 대해서, 화상 데이터 유지부(11)에 유지된 화상 데이터로부터 미리 설정된 복수의 마스크 영역에 포함되는 화상 데이터를 그 마스크 영역마다 마스크 영역 데이터로서 추출하고, 이와는 별도로 마스크 영역 이외의 윈도우 영역에 포함되는 화상 데이터를 각 특정 화상마다 마스크 외부 영역 데이터로서 추출한다.
13은 마스크 영역 설정부(12)에서 추출된 마스크 영역 데이터의 값에 대해서 상술한 논리 연산(예를 들어 OR) 또는 산술 연산을 실시해서 연산 결과를 출력하는 제 1 마스크 영역 연산부, 14는 마스크 영역 설정부(12)에서 추출된 마스크 외부 영역 데이터의 값에 대해서 상술한 논리 연산(예를 들어 NOR)을 실시해서 연산 결과를 출력하는 마스크 외부 영역 연산부, 15는 제 2 마스크 영역 연산부로서, 각 특정 화상마다 제 1 마스크 영역 연산부(13)의 연산 결과에 대해서 상술한 논리 연산 또는 산술 연산을 실시하여 연산 결과를 출력한다.
16은 화상 판정부로서 제 2 마스크 영역 연산부(15)의 연산 결과와 마스크 외부 영역 연산부(14)의 연산 결과에 의거해서 특정 화상의 존재 여부를 판정한다. 17은 특정 화상 인식부로서 화상 판정부(16)의 판정 결과에 의거해서 특정 화상 또는 그 특정 화상을 회전하여 얻은 화상 중의 어느 1개라도 화상 데이터 유지부(11)에 유지되어 있는 화상 데이터 중에 존재하는지의 여부를 판정하고, 판정 결과를 인식 결과 데이터로서 출력한다.
(2) 각 부의 기능 및 구성
다음에 도 10에 나타낸 각 부의 기능 및 구성에 대해서 설명한다. 이하의 설명에서 인식 대상인 특정 화상은 도 2의 인식 대상 화상(1)으로 하고, 그 특정화상을 회전하여 얻은 화상은 도 4a ∼ 도 4c의 인식 대상 화상(3), 인식 대상 화상(4), 인식 대상 화상(5)으로 하며, 본 화상 처리 장치는 입력 화상으로부터 4개의 인식 대상 화상을 인식하는 것으로 한다. 또 인식 대상 화상을 인식하기 위한 윈도우 영역의 크기를 11 ×11셀로 하고, 각 셀은 1도트에 대응하고 있는 것으로 한다. 또한 입력 화상의 해상도는 인식 대상 화상과 입력 화상과의 관계가 도 7a ∼ 도 7b에 나타낸 바와 같은 관계로 되는 해상도로 설정한다.
상술한 전제에서는 입력 화상 저장부(10)는 적어도 10라인 분의 화상 데이터를 저장할 수 있는 메모리를 구비할 필요가 있어서, 예를 들어 1라인 분의 화상 데이터를 저장할 수 있는 용량의 라인 메모리 10개와 라인 메모리 제어 회로 등으로 구성된다. 10라인 분의 화상 데이터를 저장하는 경우, 입력 화상 저장부(10)는 외부로부터 차례로 입력된 다음의 입력 화상 데이터를 포함하는 11라인 분의 입력 화상 데이터를 화상 데이터 유지부(11)에 차례로 출력한다. 이 때의 출력 순서는 입력 화상 저장부(10) 다음의 화상 데이터 유지부(11)의 기능에 따라서 적절하게 설계해야 한다. 본 실시예에서는 각 라인의 좌단의 화소에 대응하는 11개의 화소 농도치를 출력하고, 이어서 각 라인의 왼쪽으로부터 2번째 화소에 대응하는 11개의 화소농도치를 출력하는 것과 같은 출력 순서로 되어 있다. 이러한 처리에 따라 입력 화상 저장부(10)는 입력 화상의 최종 라인을 나타내는 입력 화상 데이터와 맞추어서 11라인 분의 입력 화상 데이터를 화상 데이터 유지부(11)로 차례로 출력하기까지 상기 처리를 반복함으로써 입력 화상에 대한 수직 방향의 주사를 실현하고 있다.
화상 데이터 유지부(11)는 입력 화상 저장부(10)로부터 차례로 입력되어 11라인분의 입력 화상 데이터 중, 최근의 11열 분의 화상 데이터를 유지하기 위해서, 도 11에 나타내는 11 ×11개의 플립플롭(flip-flop)으로 된 플립플롭군(18)을 포함하고 있다. 즉, 화상 데이터 유지부(11)는 도 12에 나타낸 바와 같이 11 ×11셀의 플립플롭군(18)의 윈도우 영역(19)을 형성하고, 차례로 입력되는 입력 화상 데이터 중 윈도우 영역(19) 내에 존재하는 최근의 11행 분의 화상 데이터를 일시적으로 유지함으로써, 윈도우 영역(19)에 의한 입력 화상에 대한 수평 방향의 주사를 실현하고 있다. 또한, 입력 화상 저장부(10)로부터 차례로 출력되는 입력 화상 데이터가 대응하는 라인이 변할 때마다, 즉 수직 방향의 주사가 행하여질 때마다, 화상 데이터 유지부(11)는 유지하고 있는 11행 분의 화상 데이터를 클리어한다.
마스크 영역 설정부(12)는 화상 데이터 유지부(11)의 플립플롭군(18)에 유지되어 있는 화상 데이터로부터 마스크 영역 데이터 및 마스크 외부 영역 데이터를 추출하고, 합계 4개의 특정 화상을 인식하기 위해서, 예를 들어 도 14에 나타낸 바와 같이 4개의 마스크 영역 설정부(제 1 마스크 영역 설정부(20), 제 2 마스크 영역 설정부(21), 제 3 마스크 영역 설정부(22), 제 4 마스크 영역 설정부(23))로 구성되어 있다. 또한 제1∼ 제4 마스크 영역 설정부(20∼23)는 인식 대상 화상(1, 3, 4, 5)에 각각 대응하고 있다.
여기서는 도 2의 인식 대상 화상(1) 및 도 4의 인식 대상 화상(3∼5)을 인식하기 위해서, 도 7a∼도 7d에 나타낸 바와 같이, 각 특정 화상에 대응하는 마스크 영역을 윈도우 영역(19) 상에 설정한 것으로 한다. 즉, 윈도우 영역(19) 상에는도 13a ∼ 도 13d에 나타낸 바와 같이 각 특정 화상마다 각각 6개의 마스크 영역이 설정되어 있는 것으로 한다.
이 경우, 각 마스크 영역 설정부는 윈도우 영역(19) 내의 화상 데이터로부터 자기 자신에 대응하는 특정 화상 영역에 대응해서 설정된 6개의 마스크 영역마다 윈도우 영역(19)의 데이터를 추출해서 제 1 마스크 영역 연산부(13)로 출력한다.
그러나, 화상 데이터 유지부(11) 내에 11행 분의 화상 데이터가 유지되어 있지 않는 동안은 마스크 영역 설정부(12)는 상기 처리를 수행하지 않는다.
예를 들어 도 12 및 도 13a로부터 명백한 바와 같이, 제 1 마스크 영역 설정부(20)는 윈도우 영역(19) 내의 Db2, Db3, Dc2, Dc3 상의 화상 데이터를 1개의 마스크 영역 데이터로서, Dd9, De9 상의 화상 데이터를 1개의 마스크 영역 데이터로서, De4, De5 상의 화상 데이터를 1개의 마스크 영역 데이터, Dg2, Dg3, Dh2, Dh3 상의 화상 데이터를 1개의 마스크 영역 데이터로서, Di6, Di7 상의 화상 데이터를 1개의 마스크 영역 데이터로서, Di10, Di11상의 화상 데이터를 1개의 마스크 영역 데이터로서 추출하여, 각 마스크 영역 데이터를 제1 마스크 영역 연산부(13)로 출력한다. 또한 이들 마스크 영역 데이터 이외의 윈도우 영역(19) 내의 화상 데이터를 마스크 외부 영역 데이터로서 추출하여 마스크 외부 영역 연산부(14)로 출력한다.
상술한 데이터 추출 동작은 플립플롭군(18)에 유지되어 있는 화상 데이터가 시프트될 때마다 행하여진다.
제1 마스크 영역 연산부(13)는 마스크 영역 설정부(12)로부터 출력된 복수의마스크 영역 데이터에 대해서 논리 연산 또는 산술 연산을 하는 것으로서, 예를 들어 도 15에 나타낸 바와 같이, 4개의 제1 마스크 영역 연산부(제1 마스크 영역 연산부A(24), 제1 마스크 영역 연산부B(25), 제1 마스크 영역 연산부C(26), 제1 마스크 영역 연산부D(27))로 구성된다. 각 제1 마스크 영역 연산부(A∼D)는 각각 인식 대상 화상(1, 3∼5)에 대응하게 설치된 것으로서, 마스크 영역 설정부(12)의 제1 마스크 영역 설정부(20), 제2 마스크 영역 설정부(21), 제3 마스크 영역 설정부 (22), 제4 마스크 영역 설정부(23)로부터 출력된 마스크 영역 데이터를 입력한다. 또한 여기서는 각 마스크 영역 설정부(20∼23)로부터 출력되는 마스크 영역 데이터(즉 특정 화상(1, 3∼5)에 대응한 마스크 영역 데이터)를 각각 마스크 영역 데이터 A, B, C, D로 하여, 취급하는 데이터에 따른 명칭을 각 제1 마스크 영역 연산부에 A∼D로 붙이고 있다.
상기 4개의 제1 마스크 영역 연산부는 각 특정 화상에 대해서 설정된 6개의 마스크 영역에 대응하는 6개의 영역 데이터 연산부로 각각 구성되어 있다. 예를 들어, 제1 마스크 영역 연산부 A(24)는 도 16에 나타낸 바와 같이, 영역 데이터 A 연산부 A(28), 영역 데이터 A 연산부 B(29), …, 영역 데이터 A 연산부 F(33)로 구성되어 있어, 각 마스크 영역 데이터마다 연산을 수행한다.
기본적으로는 상기 영역 데이터 연산부에서 이루어지는 연산은 각 데이터에 대한 AND 또는 OR 논리 연산이거나, 데이터의 가산이어도 좋다. 또 전체 영역 데이터 연산부가 동일한 연산을 할 필요는 없고, 또한 1개의 마스크 영역 데이터에 대해서 복수의 연산을 해서 복수의 결과를 출력하여도 좋다. 즉 어떤 연산을 할지는 입력 화상 및 인식 대상 화상의 특성, 마스크 영역의 설정 방법, 요구되는 인식 정확도 등에 의거해서 특정되어야 할 사항이다.
본 실시예에서는 각 영역 데이터 연산부에서 이루어지는 연산은 마스크 영역 설정부(12)로부터 마스크 영역 데이터에 포함되는 전체의 데이터값에 대해서 OR을 취하는 연산으로 되어 있다. 즉, 도 17에 나타낸 바와 같이, 각 영역 데이터 연산부는 복수 입력 1출력의 OR 회로로 연산한다. 그 결과, 예를 들어 영역 데이터 A 연산부 A(28)는 입력된 영역 데이터 A에 포함되는 전체의 데이터(즉 도 12 중의 Db2, Db3, Dc2, Dc3)의 값에 대해서 OR 연산을 하고, 그 결과를 1비트의 신호 (R1AA)로서 출력한다. 영역 데이터 A 연산부 B(29), 영역 데이터 A 연산부 C(30), 영역 데이터 A 연산부 D(31), 영역 데이터 A 연산부 E(32), 영역 데이터 A 연산부 F(33)에서도 영역 데이터 A 연산부 A(28)와 마찬가지 처리가 병렬로 이루어지고, 1비트의 신호(R1AB, R1AC, R1AD, R1AE, R1AF)가 출력된다.
또한, 각 제1 마스크 영역 연산부는 상술한 연산 처리를 병렬로 수행하고, 각각 6개의 연산 결과를 나타내는 신호를 출력한다. 즉 합계 24의 신호가 출력된다.
제2 마스크 영역 연산부(15)는 제1 마스크 영역 연산부(13)로부터의 마스크 영역 데이터 연산 결과에 대해서, 각 특정 화상마다 논리 연산 또는 산술 연산을 한다. 본 실시예에서는 도 18에 나타낸 바와 같이, 제2 마스크 영역 연산부(15)는 제2 마스크 영역 연산부 A(34), 제2 마스크 영역 연산부 B(35), 제2 마스크 영역 연산부 C(36), 제2 마스크 영역 연산부 D(37)로 구성되어 있다. 도 18로부터 명백한 바와 같이, 제2 마스크 영역 연산부 A(34), 제2 마스크 영역 연산부 B(35), 제2 마스크 영역 연산부 C(36), 제2 마스크 영역 연산부 D(37)는 각각 인식 대상 화상 (1), 인식 대상 화상(3), 인식 대상 화상(4), 인식 대상 화상(5)에 대응하도록 준비되고, 제1 마스크 영역 연산부 A(24)로부터의 6개의 출력, 제1 마스크 영역 연산부 B(25)로부터의 6개의 출력, 제1 마스크 영역 연산부 C(26)로부터의 6개의 출력, 제1 마스크 영역 연산부 D(27)로부터의 6개의 출력이 각각 입력된다.
본 실시예에서는 제2 마스크 영역 연산부 A(34), 제2 마스크 영역 연산부 B(35), 제2 마스크 영역 연산부 C(36), 제2 마스크 영역 연산부 D(37)는 각각 도 19에 나타낸 바와 같이 6개의 입력 데이터를 AND 연산하고, 그 결과를 1비트의 신호(R2A, R2B, R2C, R2D)로서 출력한다. 즉, 제2 마스크 영역 연산부(15)는 각 특정 화상마다 전체 6개의 마스크 영역에 대응하는 입력 화상 상에 흑화소가 존재하는지의 여부를 나타내는 신호를 출력한다.
마스크 외부 영역 연산부(14)는 마스크 영역 설정부(12)로부터의 복수의 마스크 외부 영역 데이터 연산 결과에 대해서, 논리 연산 또는 산술 연산을 하는 것으로서, 도 20에 나타낸 바와 같이, 마스크 외부 영역 연산부 A(38), 마스크 외부 영역 연산부 B(39), 마스크 외부 영역 연산부 C(40), 마스크 외부 영역 연산부 D(41)로 구성되어 있다. 도 20으로부터 명백한 바와 같이, 마스크 외부 영역 연산부 A(38), 마스크 외부 영역 연산부 B(39), 마스크 외부 영역 연산부 C(40), 마스크 외부 영역 연산부 D(41)는 각각 인식 대상 화상(1), 인식 대상 화상(3), 인식 대상 화상(4), 인식 대상 화상(5)에 대응하도록 준비되고, 제1 마스크 영역 설정부(20), 제2 마스크 영역 설정부(21), 제3 마스크 영역 설정부(22), 제4 마스크 영역 설정부(23)로부터의 각 마스크 외부 영역 데이터를 입력받아 입력 데이터에 대해서 소정의 연산을 한다.
본 실시예에서는 마스크 외부 영역 연산부 A(38), 마스크 외부 영역 연산부 B(39), 마스크 외부 영역 연산부 C(40), 마스크 외부 영역 연산부 D(41)는 각각 도 21에 나타내는 회로를 실현하도록 구성되어 있다. 즉, 마스크 외부 영역 연산부 A(38), 마스크 외부 영역 연산부 B(39), 마스크 외부 영역 연산부 C(40), 마스크 외부 영역 연산부 D(41)는 각각 입력한 복수의 마스크 외부 영역 데이터로 NOR 연산을 하고, 그 결과를 1비트의 신호(REA, REB, REC, RED)로서 출력하는 연산을 한다.
상술한 바와 같이, 각 제2 마스크 영역 연산부 및 각 마스크 외부 영역 연산부에서 이루어지는 연산은 기본적으로는 각 입력 데이터에 대해서 AND나 OR을 취하는 논리 연산이어도 좋고, 각 입력 데이터에 대해서 가산을 하는 산술 연산이어도 좋다. 기본적으로 각 제2 마스크 영역 연산부는 동일한 연산을 할 필요는 없고, 또한 각 마스크 외부 영역 연산부도 동일한 연산을 할 필요는 없다. 즉 각 제2 마스크 영역 연산부 및 각 마스크 외부 영역 연산부의 연산 내용은 화상의 특성, 마스크 영역의 설정 방법, 인식 정확도 등에 따라서 설정해야 할 사항이다.
화상 판정부(16)는 제2 마스크 영역 연산부(15) 및 마스크 외부 영역 연산부(14)의 출력(연산 결과)에 의거해서 각 특정 화상의 존재 여부를 판정하는 것으로서, 도 22에 나타낸 바와 같이, 화상 판정부 A(42), 화상 판정부 B(43), 화상 판정부 C(44), 화상 판정부 D(45)로 구성되어 있다. 화상 판정부 A(42), 화상 판정부 B(43), 화상 판정부 C(44), 화상 판정부 D(45)는 각각 인식 대상 화상(1), 인식 대상 화상(3), 인식 대상 화상(4), 인식 대상 화상(5)에 대응하도록 준비된 것으로서, 각각 제2 마스크 영역 연산부(15)의 출력 신호(R2A) 및 마스크 외부 영역 연산부(14)의 출력 신호(REA), 제2 마스크 영역 연산부(15)의 출력 신호(R2B) 및 마스크 외부 영역 연산부(14)의 출력 신호(REB), 제2 마스크 영역 연산부(15)의 출력 신호(R2C) 및 마스크 외부 영역 연산부(14)의 출력 신호(REC), 제2 마스크 영역 연산부(15)의 출력 신호(R2D) 및 마스크 외부 영역 연산부(14)의 출력 신호 (RED)를 입력한다.
화상 판정부 A(42), 화상 판정부 B(43), 화상 판정부 C(44), 화상 판정부 D(45)는 각각 입력된 신호가 소정의 조건을 만족하였을 경우에 '특정 화상 있음'으로 판정한다. 본 실시예에서는 도 23에 나타낸 바와 같이, 화상 판정부 A(42), 화상 판정부 B(43), 화상 판정부 C(44), 화상 판정부 D(45)는 각각 2개의 입력 신호를 AND 연산하고, 그 결과를 판정 결과(JA, JB, JC, JD)로서 출력하도록 구성되어 있다. 즉, 각 특정 화상에 대해서 제2 마스크 영역 연산부(15)의 출력 신호 레벨과 마스크 외부 영역 연산부(14)의 출력 신호가 동시에 "하이"인 경우에 "특정 화상 있음"이라는 취지의 "하이" 신호가 판정 결과로서 출력된다. 또한 각 화상 판정부 A(42), 화상 판정부 B(43), 화상 판정부 C(44), 화상 판정부 D(45)는 동일 사이클로 병렬로 판정 처리를 수행한다.
또 각 화상 판정부에서 2개의 입력 신호의 값(레벨)에 의거해서 "특정 화상일 확률"을 구하여도 좋다. 예를 들어 제1 마스크 영역 연산부(13), 마스크 외부 영역 연산부(14), 제2 마스크 영역 연산부(15)에서의 연산의 전체 또는 일부를 결과가 3개의 값 이상을 얻을 수 있는 연산(예를 들어 산술 연산)으로 하고, 이들 연산 결과를 미리 설정한 임계치와 비교해서 상기 확률을 구하여도 좋다.
특정 화상 인식부(17)는 화상 판정부(16)의 출력(판정 결과(JA, JB, JC, JD))에 의거해서 특정 화상이 있는지의 여부를 최종적으로 판정한다. 도 24에 나타낸 바와 같이 판정 결과(JA, JB, JC, JD)의 OR을 취하고, 그 결과를 판정 결과로서 출력하여도 좋고, 도 25에 나타낸 바와 같이, 판정 결과(JA, JB, JC, JD) 중 어느 1개만이 "하이"일 경우에만 "하이" 신호를 판정 결과로서 출력하여도 좋다.
또한, 화상 판정부(16)의 각 출력이 "특정 화상일 확률"일 경우에, 특정 화상 인식부(17)는, 단독으로 가장 높은 확률을 나타내는 출력에 대응하는 특정 화상을 인식한 것으로 하고, 특정 화상이 있다고 판정하여도 좋다. 또한 상기 확률에 관해서 임계치를 마련하고, 상기 임계치 이상으로서 가장 높은 확률을 나타내는 출력에 대응한 특정 화상을 인식한 것으로 판정하여도 좋다. 또한, 특정 화상 인식부(17)에서 특정 화상이 있다고 판정할 경우에는 판정 결과를 나타내는 인식 결과 데이터를 출력함과 동시에, 어느 특정 화상이 있는지를 나타내는 정보를 지닌 신호를 출력하여도 좋다.
(3) 처리의 구체예
다음에, 상술한 화상 처리 장치에 의한 처리 내용에 대해서, 구체예를 들어서 설명한다. 여기서는 특정 화상을 도 5a ∼ 도 5d에 나타내는 인식 대상화상(1, 3, 4, 5)으로 하고, 입력 화상을 도 8에 나타낸 입력 화상(9)으로 하고, 각 인식 대상 화상(1, 3∼5)에 대한 마스크 영역을 도 13a∼도 13d에 나타낸 바와 같이 설정하는 것으로 한다. 또 입력 화상(9)은 어떠한 판독 장치에 의해 판독되어서 본 화상 처리 장치에 입력되거나, 또는 통신 장치를 통해서 본 화상 처리 장치에 입력되는 것으로 한다. 또한, 입력 화상(9)이 컬러 화상이거나 흑백 화상일 경우에는 소정 색 및 소정 농도로 이진화된 후에 이진 디지털 데이터로서 차례로 입력 화상 저장부(10)에 입력되는 것으로 한다. 또 제 1 마스크 영역 연산부(13)는 도 16 및 도 17에 나타낸 구성을, 마스크 외부 영역 연산부(14)는 도 20 및 도 21에 나타낸 구성을, 제2 마스크 영역 연산부(15)는 도 18 및 도 19에 나타낸 구성을, 화상 판정부(16)는 도 22 및 도 23에 나타낸 구성을 채용하고 있는 것으로 한다.
입력 화상 저장부(10)에 입력 화상(9)의 최초의 10라인 분의 입력 화상 데이터가 저장되고, 또한 11라인 째의 입력 화상 데이터가 차례로 입력되면, 입력 화상 저장부(10)는 차례로 입력되는 입력 화상 데이터와 합쳐서, 저장된 10라인 분의 화상 데이터를 차례로 출력한다. 즉 입력 화상 저장부(10)는 차례로 입력되는 입력 화상 데이터를 포함하는 11라인 분의 입력 화상 데이터를 화상 데이터 유지부(11)에 차례로 출력한다. 이 처리는 최종 라인의 입력 화상 데이터를 포함하는 11라인분의 화상 데이터를 화상 데이터 유지부(11)에 차례로 출력하기까지 반복된다. 이 결과, 도 9에 나타낸 바와 같이, 입력 화상(9)을 화상 데이터 유지부(11)의 플립플롭군(18)으로 구성된 윈도우 영역(19)으로 주사한다. 주사하는 동안 특정 화상의인식 처리가 반복된다. 여기서는 윈도우 영역(19) 내의 화상을 특정 화상으로서 인식하지 않을 경우의 인식 처리의 예와 윈도우 영역(19) 내의 화상을 특정 화상으로서 인식할 경우의 예를 들어서, 설명을 간단히 한다.
(3-1) 특정 화상으로서 인식하지 않을 경우
먼저, 윈도우 영역(19) 내의 화상을 특정 화상으로 인식하지 않을 경우의 인식 처리에 대해서 설명한다.
입력 화상(9)을 나타내는 입력 화상 데이터가 화상 데이터 유지부(11)에 차례로 입력되면, 윈도우 영역(19) 내의 화상 데이터는 도 26에 나타낸 화상 데이터로 될 경우가 있다. 여기서는 백화소를 '0', 흑화소를 '1'로 표시하고 있다.
이와 같은 상황하에서 마스크 영역 설정부(12)가 도 13a∼도 13d에 나타낸 마스크 영역의 설정에 따라서 윈도우 영역(19) 내의 화상 데이터로부터 마스크 영역 내외의 화상 데이터를 추출하면, 제1 ∼ 제4 마스크 영역 설정부(20∼23)의 추출 데이터는 도 27a∼ 도 27d에 나타낸 바와 같은 데이터가 되고, 제1 마스크 영역 연산부(13)로 출력된다. 마스크 영역 외의 화상 데이터는 마스크 영역 설정부(12)로부터 마스크 외부 영역 연산부(14)로 출력된다.
그리고 제1 마스크 영역 연산부 A(24)의 출력은 [R1AA, R1AB, R1AC, R1AD, R1AE, R1AF]=[0, 0, 0, 0, 0, 0], 제1 마스크 영역 연산부 B(25)의 출력은 [R1BA, R1BB, R1BC, R1BD, R1BE, R1BF]=[0, 0, 0, 1, 0, 1], 제1 마스크 영역 연산부 C(26)의 출력은 [R1CA, R1CB, R1CC, R1CD, R1CE, R1CF]=[0, 0, 0, 0, 0, 0], 제1 마스크 영역 연산부 D(27)의 출력은 [R1DA, R1DB, R1DC, R1DD, R1DE, R1Df]=[1, 0,0, 0, 0, 0]으로 되어, 제2 마스크 영역 연산부(15)로 각각 공급된다. 또한 제2 마스크 영역 연산부(15)의 각 출력은 모두 '0', 화상 판정부(16)의 출력은 모두 '0'이 되어, 특정 화상 인식부(17)에서 인식 대상 화상이 없다고 판정하고, 그 취지를 나타내는 인식 결과 데이터를 출력한다.
(3-2) 특정 화상으로서 인식할 경우
다음에 윈도우 영역(19) 내의 화상을 특정 화상으로 인식할 경우의 인식 처리에 대해서 설명한다.
입력 화상(9)을 나타내는 입력 화상 데이터가 화상 데이터 유지부(11)에 차례로 입력되어 오면, 윈도우 영역(19) 내의 화상 데이터가 도 28에 나타낸 화상 데이터가 될 경우가 있다. 도 28은 도 26에 나타낸 윈도우 영역(19)을 도면 중 오른쪽으로 1도트, 아래쪽으로 1도트 시프트해서 얻어진 도면으로서, 도 26의 상태로부터 주사가 진행함으로써 도 28의 상황이 얻어진다.
이러한 상황하에서는 제 1 ∼ 제 4 마스크 영역 설정부(20∼23)의 추출 데이터는 도 29a∼도 29d에 나타낸 데이터가 되고, 제 1 마스크 영역 연산부(13)로 출력된다. 또 마스크 영역 외의 화상 데이터는 마스크 영역 설정부(12)로부터 마스크 외부 영역 연산부(14)로 출력된다.
그리고, 제1 마스크 영역 연산부 A(24)의 출력은 [R1AA, R1AB, R1AC, R1AD, R1AE, R1AF]=[0, 1, 0, 0, 0, 0], 제1 마스크 영역 연산부 B(25)의 출력은 [R1BA, R1BB, R1BC, R1BD, R1BE, R1BF]=[1, 0, 0, 0, 0, 0], 제1 마스크 영역 연산부 C(26)의 출력은 [R1CA, R1CB, R1CC, R1CD, R1CE, R1CF]=[1, 0, 0, 0, 0, 0], 제1마스크 영역 연산부 D(27)의 출력은 [R1DA, R1DB, R1DC, R1DD, R1DE, R1Df]=[1, 1, 1, 1, 1, 1]이 된다. 마스크 외부 영역 연산부(14)에서는 마스크 외부 영역 연산부 D(41)의 출력(RED)만이 '1'이 된다. 그리고 화상 판정부(16)에서는 출력(JD)만이 1이 됨으로써, 인식 대상 화상(5)이 있다고 판정된다.
그리고 특정 화상 인식부(17)가 도 24 또는 도 25와 같은 구성을 채용하고 있을 경우에는 출력(J)이 '1'이 되고, 특정 화상을 인식하였다는 취지의 인식 결과 데이터가 출력된다.
(3-3) 연산 결과
상술한 인식 처리가 입력 화상(9) 내의 화상 데이터가 변할 때마다 이루어지고, 최종적으로는 인식 대상 화상(5), 인식 대상 화상(3), 인식 대상 화상(4), 인식 대상 화상(1)이 이 순서대로 인식된다.
(4) 보충
상술한 바와 같이, 본 화상 처리 장치에 의하면, 특정 화상과 그 특정 화상을 회전하여 얻은 화상의 인식 처리를 동시에 병렬로 할 수 있다.
또한 본 화상 처리 장치의 각 부의 처리가 기준 클록(CLK)에 동기하여 이루어질 경우, 도 30에 나타낸 처리 사이클이 되고, 실시간 처리를 실현할 수 있다. 물론 각 연산 속도에 문제가 없을 경우에는 복수의 연산 처리 및 판정 처리를 1클록 사이클 내에 하여도 좋다.
Ⅲ. 변형례
(1) 제1 변형례
상술한 본 화상 처리 장치의 제 1 변형례의 구성을 도 31에 나타낸다. 이 도면에 나타내는 구성이 도 10에 나타낸 구성과 다른 점은 마스크 영역 저장부(46)를 구비한 점뿐이다. 도 31에서는, 이미 설명한 것과 동일 또는 유사한 부분에 대해서는 도 10의 각 부와 동일 부호를 붙임으로써 설명을 생략한다.
도 31에서 마스크 영역 저장부(46)는 마스크 영역의 설정 정보(예를 들어 마스크 영역의 좌표치)를 저장하는 것으로서, 마스크 영역 설정부(12)는 마스크 영역 저장부(46)에 저장된 설정 정보에 의거해서 마스크 영역을 설정한다. 따라서, 마스크 영역 저장부(46) 자체를 교환 가능하게 구성함으로써, 마스크 영역의 변경을 용이하게 할 수 있게 되고, 인식 대상인 특정 화상의 변경에 대응할 수 있음은 물론이고, 인식 정확도도 향상될 수 있다.
물론 그 저장 내용을 외부로부터 판독 기입 가능하게 마스크 영역 저장부 (46)를 구성함으로써, 데이터 갱신을 가일층 용이하게 하여도 좋다. 마스크 영역 저장부(46)에 회전되어 있지 않은 특정 화상의 마스크 영역 정보와 그 특정 화상을 회전하여 인식 대상 화상을 얻을 때의 회전 각도에 관한 정보를 저장시키고, 이들 정보로부터 마스크 영역 설정부(12)는 전체의 인식 대상 화상에 대한 마스크 영역을 산출하여 설정하여도 좋다. 이 경우에는 마스크 영역 저장부(46)에 요구되는 저장 용량을 삭감할 수 있다는 이점이 있다.
(2) 제2 변형례
본 화상 처리 장치의 제2 변형례로서 입력 화상이 컬러 화상일 경우에 이진화를 하지 않고 인식 처리를 하는 예를 들겠다. 본 제2 변형례의 구성은 도 10에나타낸 구성을 이용해서 실현할 수 있는 것으로서, 여기서는 도 10 중의 참조 부호를 그대로 이용해서 각 부에 대해서 설명한다. 또 여기서는 입력 화상은 R, G, B 각색 신호가 8비트로 된 컬러 화상인 것으로 한다.
이 경우, 1개의 화소를 나타내는 데이터는 8비트×3색= 24비트가 되므로, 입력 화상 저장부(10)에서는 R, G, B 각 색신호마다 8비트의 화소 데이터의 복수라인 분을 저장할 수 있는 라인 버퍼가 필요하다. 그리고, 입력 화상 저장부(10)로부터 판독된 데이터는 화상 데이터 유지부(11)에서 플립플롭군으로 구성된 윈도우 영역에 유지된다. 윈도우 영역은 R, G, B 각 색마다의 플레인(plane)으로 나뉘어지고 각 플레인에서는 8비트의 데이터를 저장할 수 있는 8개의 플립플롭이 화소마다 할당되어 있다. 즉 윈도우 영역의 크기를 m ×n으로 하면 m ×n ×8 ×3개의 플립플롭으로 플립플롭군이 구성된다.
마스크 영역 설정부(12)에서는 화상 데이터 유지부(11)에 유지된 화상 데이터로부터 각 인식 대상 화상마다 설정된 마스크 영역별로 화상 데이터(화소 농도치)가 추출되고, 또 마스크 영역 외의 화상 데이터(화소 농도치)도 각 인식 대상 화상별로 추출된다. 제1 마스크 영역 연산부(13)는 각 마스크 영역마다 마스크 영역 설정부(12)로 추출된 각 마스크 영역에 대한 화상 데이터의 R, G, B 각 화소 농도치에 대해서 산술 연산(예를 들어 가산)을 수행한다. 그 연산 결과와 미리 설정된 소정치와 비교하고, 각 비교 결과에 의거해서 각 마스크 영역에 대한 연산 결과를 출력한다. 제2 마스크 영역 연산부(15)는 제1 마스크 영역 연산부(13)에서 얻어진 각 마스크 영역마다의 연산 결과에 대해서 각 인식 대상 화상마다 논리 연산또는 산술 연산을 실시하고, 각 인식 대상 화상에 대한 연산 결과를 출력한다.
한편, 제1 마스크 영역 연산부(13) 및 제2 마스크 영역 연산부(15)의 처리와 병렬로 마스크 외부 영역 연산부(14)는 각 특정 화상마다 마스크 영역 설정부(12)로부터 추출된 마스크 외부 영역 데이터의 R, G, B 각 화소 농도치에 대해서 개별적으로 산술 연산(예를 들어 가산)을 하고, 그 연산 결과와 소정치를 비교하고, 각 비교 결과에 의거하여 각 인식 대상 화상에 대한 연산 결과를 출력한다.
그리고 화상 판정부(16)는 제2 마스크 영역 연산부(15)의 연산 결과와 마스크 외부 영역 연산부(14)의 연산 결과에 의거해서 각 인식 대상 화상마다 화상이 존재 여부의 판정이 이루어져 판정 결과가 출력된다. 마지막으로 특정 화상 인식부(17)는 화상 판정부(16)의 각 인식 대상 화상마다의 판정 결과로부터 인식 대상 화상 중 일부가 입력 화상에 존재하는지의 여부가 판정된다.
Ⅳ . 보충
상술한 실시예 및 변형례에서는 단순한 특정 화상에 대해서 간소한 연산 처리를 하는 예를 설명하였지만, 보다 복잡한 조건에도 쉽게 적용할 수 있음은 말할 것도 없다. 특히 마스크 영역의 설정 방법이나 각종 연산 내용, 각종 판정 기준 등을 입력 화상의 특성이나 화상 입력 장치의 특성 등을 고려해서 설정함으로써, 인식 정확도를 향상시킬 수 있고, 따라서 일체의 화상에 적용할 수 있다고 할 수 있다. 또 본 발명은 특정 화상의 회전 각도가 임의일 경우에도 적용 가능한 것으로부터 명백하거니와, 다른 종류의 화상에도 적용할 수 있다. 또한 마스크 영역 외의 화소 농도치도 고려해서 판정 처리를 하는 예를 나타냈지만, 이에 한하지 않고, 입력 화상의 특성에 따라서는 마스크 영역 내의 화소 농도치만에 의거해서 판정 처리를 하도록 해도 좋다. 또 본 화상 처리 방법을 기술한 프로그램을 기록한 기록 매체로부터 그 프로그램을 판독하고, 컴퓨터 시스템으로 실행함으로써 본 화상 처리 장치에 상당하는 장치가 제공될 수도 있다.
이상 설명한 바와 같이 본 발명에 의하면, 간소한 처리 및 구성으로 특정 화상과 그 특정 화상을 회전해서 얻어지는 화상을 포함하는 복수의 인식 대상 화상을 고정확도로 실시간으로 인식할 수 있다. 또한 복수의 인식 대상 화상이 독립해서 인식되므로, 각 인식 처리를 동시에 함으로써 인식 처리를 고속으로 할 수 있다.
상술한 바와 같이, 본 특허출원서에서의 우선권 주장의 기초가 되는 모든 외국 특허 출원의 내용을 여기에 포함하고 있다.
여기에는 본 발명의 실시예의 일부만 특정하여 설명하였지만, 본 발명의 정신 및 범주에서 벗어나지 않고도 다양한 수정이 가능함은 명백하다.

Claims (24)

  1. 입력 화상으로부터, 특정 화상 및 상기 특정 화상을 회전하여 얻은 화상들 중 적어도 1개를 포함하는 복수의 인식 대상 화상을 인식하는 화상 인식 방법에 있어서,
    상기 각 인식 대상 화상마다 윈도우 영역 상에 적어도 1개의 마스크 영역을 준비하는 단계;
    상기 각 인식 대상 화상마다, 상기 마스크 영역 내의 상기 입력 화상의 화소 농도치를 연산한 결과에 의거해서 상기 각 인식 대상 화상의 유무를 판정하는 제1 판정 단계; 및
    상기 각 인식 대상 화상마다의 상기 제1 판정 단계의 판정 결과에 의거해서 상기 복수의 인식 대상 화상 중 어느 하나가 상기 윈도우 영역 내에 존재하는지의 여부를 판정하는 제2 판정 단계를 포함하며,
    상기 윈도우 영역은 1개 이상의 화소로 형성된 2차원으로 배열된 셀들로 구성되고,
    상기 마스크 영역은, 1개 이상의 셀로 구성되며 인식 대상 화상의 특징을 나타내는 영역에 상당하고,
    상기 복수의 인식 대상 화상은 동일한 중심 위치를 중심으로 상기 특정 화상을 임의의 각도로 회전시킴으로써 얻어지는 것을 특징으로 화상 인식 방법.
  2. 제1항에 있어서, 상기 제1 판정 단계는, 상기 각 인식 대상 화상마다 상기 마스크 영역 내의 상기 입력 화상의 화소 농도치에 대해서 연산한 결과와 상기 마스크 영역 내의 상기 윈도우 영역의 입력 화상의 화소 농도치에 대해서 연산한 결과에 의거해서, 상기 인식 대상 화상의 유무를 판정하는 것을 특징으로 하는 화상 인식 방법.
  3. 제1항에 있어서, 상기 제1 판정 단계는, 상기 각 인식 대상 화상마다 상기 마스크 영역 내의 상기 입력 화상의 화소 농도치에 대해서 연산한 결과에 의거해서 상기 인식 대상 화상이 존재할 가능성이 있는지의 여부를 판정하고,
    상기 제2 판정 단계는, 상기 각 인식 대상 화상마다의 상기 제1 판정 결과에 의거해서 상기 인식 대상 화상 중의 어느 하나가 상기 윈도우 영역 내에 존재할 가능성이 있는지의 여부를 판정하는 것을 특징으로 하는 화상 인식 방법.
  4. 제1항에 있어서, 상기 제2 판정 단계 후에 윈도우 영역과 상기 입력 화상간의 상대 위치를 바꾸는 단계를 더 구비한 것을 특징으로 하는 화상 인식 방법.
  5. 제1항에 있어서, 상기 동일한 중심 위치와 상기 윈도우 영역의 중심 위치를 일치시켜서 상기 마스크 영역을 배치하는 것을 특징으로 하는 화상 인식 방법.
  6. 제5항에 있어서, 상기 각 마스크 영역이 상기 윈도우 영역의 중심 위치로부터 멀어짐에 따라서 상기 마스크 영역을 구성하는 상기 셀의 수가 증가하도록 상기 윈도우 영역을 형성하는 것을 특징으로 하는 화상 인식 방법.
  7. 제1항에 있어서, 상기 인식 대상 화상에 대한 마스크 영역은, 상기 복수의 인식 대상 화상 중 어느 하나에 대해 설정된 마스크 영역과 그 인식 대상 화상의 회전 각도에 의거해서 산출되고 설정된 것을 특징으로 하는 화상 인식 방법.
  8. 입력 화상으로부터, 특정 화상 및 상기 특정 화상을 회전하여 얻은 화상들 중 적어도 1개를 포함하는 복수의 인식 대상 화상을 인식하기 위한 화상 인식 장치에 있어서,
    상기 입력 화상을 나타내는 화상 데이터를 저장하는 화상 데이터 저장 수단;
    상기 각 인식 대상 화상마다 소정의 윈도우 영역 상에 1개 이상의 마스크 영역을 설정하기 위한 설정 정보를 저장하는 마스크 영역 저장 수단;
    상기 각 인식 대상 화상마다 상기 마스크 영역 내의 상기 화상 데이터값을 연산하는 마스크 영역 연산 수단;
    상기 각 인식 대상 화상마다 상기 마스크 영역 연산 수단의 연산 결과에 의거해서 인식 대상 화상의 유무를 판정하는 화상 판정 수단; 및
    상기 각 인식 대상 화상마다의 상기 화상 판정 수단의 판정 결과에 의거해서 상기 복수의 인식 대상 화상 중 어느 하나가 상기 윈도우 영역 내에 존재하는지의 여부를 판정하는 특정 화상 인식 수단을 구비하며,
    상기 복수의 인식 대상 화상은 동일한 중심 위치를 중심으로 상기 특정 화상을 임의의 각도로 회전시킴으로써 얻어지는 것을 특징으로 하는 화상 인식 장치.
  9. 제8항에 있어서, 상기 각 인식 대상 화상마다 상기 윈도우 영역 상에 소정의 마스크 영역을 설정하는 마스크 영역 설정 수단을 더 구비하는 것을 특징으로 하는 화상 인식 장치.
  10. 제8항에 있어서, 상기 윈도우 영역 상에 상기 화상 데이터를 차례로 배치하는 주사 수단을 더 구비하는 것을 특징으로 하는 화상 인식 장치.
  11. 제8항에 있어서, 상기 각 인식 대상 화상마다 상기 마스크 영역 외부의 상기 윈도우 영역에 배치된 화상 데이터의 값을 연산하는 마스크 외부 영역 연산 수단을 더 구비하며,
    상기 화상 판정 수단은, 상기 각 인식 대상 화상마다 상기 마스크 영역 연산 수단의 연산 결과와 상기 마스크 외부 영역 연산 수단의 연산 결과에 의거해서 상기 각 인식 대상 화상이 존재하는 지의 여부를 판정하는 것을 특징으로 하는 화상 인식 장치.
  12. 제8항에 있어서, 상기 화상 판정 수단은, 상기 각 인식 대상 화상마다의 상기 마스크 영역 연산 수단의 연산 결과에 의거해서 상기 인식 대상 화상이 존재할가능성이 있는지의 여부를 판정하며,
    상기 특정 화상 인식 수단은, 상기 각 인식 대상 화상마다의 상기 화상 판정 수단의 판정 결과에 의거해서 상기 복수의 인식 대상 화상 중 어느 하나가 상기 윈도우 영역 내에 존재할 가능성이 있는지의 여부를 판정하는 것을 특징으로 하는 화상 인식 장치.
  13. 제8항에 있어서, 상기 마스크 영역 저장 수단의 저장 내용은 임의로 기입 및 판독할 수 있는 것을 특징으로 하는 화상 인식 장치.
  14. 제8항에 있어서, 상기 마스크 영역 저장 수단에 저장된 상기 설정 정보는 상기 복수의 인식 대상 화상 중 어느 하나에 대해 설정된 마스크 영역의 설정 정보와 그 인식 대상 화상의 회전 각도를 포함하는 것을 특징으로 하는 화상 인식 장치.
  15. 제8항에 있어서, 상기 동일한 중심 위치와 상기 윈도우 영역의 중심 위치를 일치시켜서 상기 마스크 영역을 배치하는 것을 특징으로 하는 화상 인식 장치.
  16. 제15항에 있어서, 상기 각 마스크 영역이 상기 윈도우 영역의 중심 위치로부터 멀어짐에 따라서 상기 마스크 영역을 구성하는 상기 셀의 수가 증가하도록 상기 윈도우 영역을 형성하는 것을 특징으로 하는 화상 인식 장치.
  17. 제15항에 있어서, 상기 윈도우 영역의 중심 위치로부터 가장 가까운 마스크 영역은 1개의 셀만으로 형성되는 것을 특징으로 하는 화상 인식 장치.
  18. 제8항에 있어서, 상기 윈도우 영역은 직사각형인 것을 특징으로 하는 화상 인식 장치.
  19. 제8항에 있어서, 상기 윈도우 영역은 원형인 것을 특징으로 하는 화상 인식 장치.
  20. 제8항에 있어서, 상기 마스크 영역은 임의로 설정될 수 있는 것을 특징으로 하는 화상 인식 장치.
  21. 제8항에 있어서, 상기 복수의 인식 대상 화상에 대응하는 상기 마스크 영역들은 단일 윈도우 영역 상에 설정되는 것을 특징으로 하는 화상 인식 장치.
  22. 제8항에 있어서, 상기 화상 데이터는 이진 데이터인 것을 특징으로 하는 화상 인식 장치.
  23. 제8항에 있어서, 상기 각 인식 대상 화상에 대한 처리는 동일한 사이클 내에서 병렬로 수행되는 것을 특징으로 하는 화상 인식 장치.
  24. 입력 화상으로부터, 특정 화상 및 상기 특정 화상을 회전시켜서 얻은 화상 중 적어도 1개를 포함하는 복수의 인식 대상 화상을 인식하기 위한 프로그램을 기록한 기록 매체에 있어서,
    상기 각 인식 대상 화상마다 윈도우 영역 상에 적어도 1개의 마스크 영역을 준비하는 단계;
    상기 각 인식 대상 화상마다, 상기 마스크 영역 내의 상기 입력 화상의 화소 농도치를 연산한 결과에 의거해서 인식 대상 화상의 유무를 판정하는 제1 판정 단계; 및
    상기 각 인식 대상 화상마다의 상기 제1 판정 단계의 판정 결과에 의거해서, 상기 복수의 인식 대상 화상 중 어느 하나가 상기 윈도우 영역 내에 존재하는지의 여부를 판정하는 제2 판정 단계를 포함하며,
    상기 윈도우 영역은 1개 이상의 화소로 형성되며 2차원으로 배열된 셀로 구성되고,
    상기 마스크 영역은 1개 이상의 셀로 구성되며 인식 대상 화상의 특성을 나타내는 영역에 상당하고,
    상기 복수의 인식 대상 화상은 동일한 중심 위치를 중심으로 상기 특정 화상을 임의의 각도로 회전시킴으로써 얻어지는 것을 특징으로 하는 기록 매체.
KR1019980047554A 1997-11-06 1998-11-06 화상인식방법,화상인식장치및기록매체 KR100318413B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP304695 1997-11-06
JP9304695A JPH11144054A (ja) 1997-11-06 1997-11-06 画像認識方法および画像認識装置ならびに記録媒体

Publications (2)

Publication Number Publication Date
KR19990045078A KR19990045078A (ko) 1999-06-25
KR100318413B1 true KR100318413B1 (ko) 2002-06-20

Family

ID=17936114

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019980047554A KR100318413B1 (ko) 1997-11-06 1998-11-06 화상인식방법,화상인식장치및기록매체

Country Status (6)

Country Link
US (1) US6337926B2 (ko)
EP (1) EP0915428B1 (ko)
JP (1) JPH11144054A (ko)
KR (1) KR100318413B1 (ko)
DE (1) DE69817973T2 (ko)
TW (1) TW388840B (ko)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10156501B2 (en) 2001-11-05 2018-12-18 Life Technologies Corporation Automated microdissection instrument for determining a location of a laser beam projection on a worksurface area
US8722357B2 (en) * 2001-11-05 2014-05-13 Life Technologies Corporation Automated microdissection instrument
AU2003260047A1 (en) * 2002-08-29 2004-03-19 Paul Rudolf Associative memory device and method based on wave propagation
CA2500805A1 (en) * 2002-09-13 2004-03-25 Arcturus Bioscience, Inc. Interactive and automated tissue image analysis
CA2580025A1 (en) 2004-09-09 2006-03-23 Molecular Devices Corporation Laser microdissection apparatus and method
EP2003611A2 (en) * 2006-03-31 2008-12-17 Olympus Corporation Information presentation system, information presentation terminal, and server
JP2010230578A (ja) * 2009-03-27 2010-10-14 Fujifilm Corp 偏芯量測定方法
US10740901B2 (en) * 2018-12-17 2020-08-11 Nvidia Corporation Encoder regularization of a segmentation model

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR930002347A (ko) * 1991-07-04 1993-02-23 엥겔하르트, 라피체 사이클릭 치환체를 함유하는 사이클로알킬트리올, 이의 제조방법, 이의 제조시의 중간 생성물, 및 항바이러스제 및 항기생충제로서 이들의 용도
US5481621A (en) * 1992-05-28 1996-01-02 Matsushita Electric Industrial Co., Ltd. Device and method for recognizing an image based on a feature indicating a relative positional relationship between patterns

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4338626A (en) * 1963-03-11 1982-07-06 Lemelson Jerome H Scanning apparatus and method
US4225850A (en) * 1978-11-15 1980-09-30 Rockwell International Corporation Non-fingerprint region indicator
JPH01220075A (ja) 1988-02-29 1989-09-01 Nippon Taisanbin Kogyo Kk 表示部読取方法
JPH0762606B2 (ja) 1988-12-09 1995-07-05 松下電器産業株式会社 パターン位置認識装置
US5274714A (en) * 1990-06-04 1993-12-28 Neuristics, Inc. Method and apparatus for determining and organizing feature vectors for neural network recognition
DE4120676C2 (de) 1991-06-22 1994-09-08 Deutsche Aerospace Verfahren und Schaltungsanordnung zur Detektion von kleinen Objekten in natürlicher Umgebung
JPH0512446A (ja) 1991-07-02 1993-01-22 Omron Corp 画像認識装置
US5261010A (en) * 1991-09-27 1993-11-09 Hughes Aircraft Comany Automatic mask threshold
JP3210767B2 (ja) 1993-04-23 2001-09-17 松下電工株式会社 画像認識方法
JPH0863604A (ja) 1994-08-23 1996-03-08 Sumitomo Metal Ind Ltd 画像処理装置および画像処理方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR930002347A (ko) * 1991-07-04 1993-02-23 엥겔하르트, 라피체 사이클릭 치환체를 함유하는 사이클로알킬트리올, 이의 제조방법, 이의 제조시의 중간 생성물, 및 항바이러스제 및 항기생충제로서 이들의 용도
US5481621A (en) * 1992-05-28 1996-01-02 Matsushita Electric Industrial Co., Ltd. Device and method for recognizing an image based on a feature indicating a relative positional relationship between patterns

Also Published As

Publication number Publication date
DE69817973T2 (de) 2004-05-19
US6337926B2 (en) 2002-01-08
KR19990045078A (ko) 1999-06-25
DE69817973D1 (de) 2003-10-16
US20010016071A1 (en) 2001-08-23
EP0915428A2 (en) 1999-05-12
EP0915428A3 (en) 1999-06-16
JPH11144054A (ja) 1999-05-28
TW388840B (en) 2000-05-01
EP0915428B1 (en) 2003-09-10

Similar Documents

Publication Publication Date Title
JP3748172B2 (ja) 画像処理装置
US4908872A (en) Method and apparatus for extracting pattern contours in image processing
US4468808A (en) Feature extraction system for digitized character information
US4183013A (en) System for extracting shape features from an image
US8265350B2 (en) Method and apparatus for detecting and processing specific pattern from image
Samra et al. Localization of license plate number using dynamic image processing techniques and genetic algorithms
CN112183233A (zh) 基于深度学习的船牌识别方法及系统
CA1255021A (en) Image describing apparatus
US4528692A (en) Character segmenting apparatus for optical character recognition
US4853971A (en) Method and apparatus for processing image data
KR100318413B1 (ko) 화상인식방법,화상인식장치및기록매체
US5687252A (en) Image processing apparatus
CN111626145B (zh) 一种简捷有效的残缺表格识别及跨页拼接方法
JP3591184B2 (ja) バーコード読み取り装置
JP2005317042A (ja) 画像処理装置
CN115439866A (zh) 一种针对三线表的表格结构识别的方法、设备和存储介质
JP2001014421A (ja) バーコード読み取り装置
CN1130666C (zh) 图形涂抹装置
US5119445A (en) Feature extracting method
Miyatake et al. Contour representation of binary images using run-type direction codes
Suzuki et al. Automatic line drawing recognition of large-scale maps
Ronse A strong chord property for 4-connected convex digital sets
JP2613211B2 (ja) 画像入力装置
KR100266309B1 (ko) 폐곡선 추출 방법
Rhee et al. Rotation-invariant recognition of character strings for Korean cadastral map digitizing

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121121

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20131118

Year of fee payment: 13

FPAY Annual fee payment

Payment date: 20141120

Year of fee payment: 14

FPAY Annual fee payment

Payment date: 20151118

Year of fee payment: 15

FPAY Annual fee payment

Payment date: 20161123

Year of fee payment: 16

FPAY Annual fee payment

Payment date: 20171114

Year of fee payment: 17

EXPY Expiration of term