KR20080095743A - Image processing program and image processing device - Google Patents

Image processing program and image processing device Download PDF

Info

Publication number
KR20080095743A
KR20080095743A KR1020080013550A KR20080013550A KR20080095743A KR 20080095743 A KR20080095743 A KR 20080095743A KR 1020080013550 A KR1020080013550 A KR 1020080013550A KR 20080013550 A KR20080013550 A KR 20080013550A KR 20080095743 A KR20080095743 A KR 20080095743A
Authority
KR
South Korea
Prior art keywords
color
information
image
pixel
background
Prior art date
Application number
KR1020080013550A
Other languages
Korean (ko)
Other versions
KR101461233B1 (en
Inventor
미네노부 세끼
에이스께 아사노
히로또 나가요시
다께시 나가사끼
히로시 신죠
Original Assignee
히타치 오므론 터미널 솔루션즈 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 히타치 오므론 터미널 솔루션즈 가부시키가이샤 filed Critical 히타치 오므론 터미널 솔루션즈 가부시키가이샤
Publication of KR20080095743A publication Critical patent/KR20080095743A/en
Application granted granted Critical
Publication of KR101461233B1 publication Critical patent/KR101461233B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Character Input (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

An image processing program and an image processing device are provided to extract a character, a stamp mark, a mark, etc. in high density from a documental image having color distortion and dim colors. An image obtaining module(101) obtains a color image or a brightness image from a paper document through a scanner or an OCR(Optical Character Reader), and a background removal data generating module(102) generates background removal data from the color image or the brightness image inputted to an CPU(Central Processing Unit). A contour color conversion data generating module(103) generates contour line color conversion data in which a contour color of an input character, a ruled line or a digit line is converted into a color of an contour inner part and to which the color image and the background removal data are inputted. A specific object discrimination module(104) generates data, which indicates an input character part based on the contour line conversion data as to the background removal data inputted to the CPU, and outputs a result as to a specific object discrimination.

Description

화상 처리 프로그램 및 화상 처리 장치{IMAGE PROCESSING PROGRAM AND IMAGE PROCESSING DEVICE} Image processing program and image processing device {IMAGE PROCESSING PROGRAM AND IMAGE PROCESSING DEVICE}

본 발명은, 예를 들면 장표 등의 문서를 광학적 문자 판독 장치(OCR: Optical Character Reader), 스캐너, 디지털 카메라 등으로 촬상하고, 생성된 문서 화상으로부터 기입 문자, 인영, 마크 등 특정 대상을 추출하는 화상 처리 방법 및 화상 처리 장치에 관한 것이다.According to the present invention, for example, a document such as a journal is photographed by an optical character reader (OCR: Optical Reader Reader), a scanner, a digital camera, or the like, and a specific object such as written characters, prints, marks, etc. is extracted from the generated document image. An image processing method and an image processing apparatus.

금융 기관이나 자치체에서는, OCR 등의 스캐너 장치를 이용하여, 장표 등의 문서 처리 업무의 효율화를 행하고 있다. OCR의 주된 기능은, 문서 화상의 생성, 문서 화상 내의 문자의 추출, 문자 인식이다. 생성되는 문서 화상의 종류로서, 2치 화상, 휘도 화상, 컬러 화상이 있다.In financial institutions and local governments, scanners such as OCR are used to increase the efficiency of document processing tasks such as forms. The main functions of the OCR are the generation of document images, extraction of characters in the document images, and character recognition. As a kind of generated document image, there are a binary image, a luminance image, and a color image.

2치 화상을 이용한 처리는, 데이터량이 적기 때문에, 처리 시간이 적어진다. 그러나, 2치 화상 처리에서는, 장표에 미리 인쇄되어 있는 프리 인쇄라고 불리는 괘선, 자릿수선, 가이드 문자, 해칭과, 손으로 쓰기 혹은 나중에 인쇄되는 기입 문자가 크게 겹치는 경우에, 그들을 구별하는 것이 어렵다. 그 때문에, 문자의 추출 결과에 노이즈가 발생하는 경우나, 추출한 문자의 일부가 누락하게 되는 경우가 있 어, 문자 인식을 잘못하게 된다고 하는 문제가 있다.In the process using the binary image, since the amount of data is small, the processing time is reduced. However, in binary image processing, it is difficult to distinguish between ruled lines, digit lines, guide letters, hatchings, and prewritten letters, which are pre-printed on a form, and when written characters that are written by hand or printed later greatly overlap. Therefore, there is a problem that noise may occur in the extraction result of the character, or a part of the extracted character may be missing, resulting in incorrect character recognition.

휘도 화상을 이용한 처리는, 흑백의 농담 화상 처리이다. 휘도 화상 처리에서는, 프리 인쇄와 기입 문자의 휘도치가 서로 다른 것을 이용하여 그들을 구별하기 때문에, 프리 인쇄와 기입 문자가 겹쳐 있던 경우에, 그들을 구별하는 것이 2치 화상 처리에 비해서 용이해진다. 단, 프리 인쇄와 기입 문자의 휘도치가 가까운 경우에는, 그들 판별 정밀도는 낮아지게 된다.The processing using the luminance image is black and white tint image processing. In the luminance image processing, since the luminance values of the preprinted and written characters are distinguished from each other by using different ones, when the preprinted and written characters overlap, it is easier to distinguish them from the binary image processing. However, when the preprinting and the luminance values of the written characters are close, their discrimination accuracy is lowered.

컬러 화상을 이용한 처리에서는, 프리 인쇄와 기입 문자를 색의 차이에 의해 구별할 수 있기 때문에, 그들을 구별하는 것이 휘도 화상 처리에 비해서 용이해진다. 컬러 화상 처리에서는, 프리 인쇄의 색을 드롭아웃함으로써 기입 문자, 인영, 마크 등을 추출한다.In the process using a color image, pre-printing and written characters can be distinguished by color difference, so that distinguishing them becomes easier than in luminance image processing. In color image processing, writing characters, printing, marks, and the like are extracted by dropping out the color of pre-printing.

그 방법에는, 「특허 문헌3」과 같이 장표 입력 전에 지정된 드롭아웃색을 드롭아웃하는 것과, 「특허 문헌1」이나 「특허 문헌2」와 같이 입력된 장표 내에 있는 괘선과 같은 특정한 형상 부분을 추출하고, 그 추출된 부분의 색과 동일한 색을 드롭아웃하는 것이 있다.The method includes dropping out the designated dropout color before entering the document as shown in "Patent Document 3", and extracting a particular shape portion such as a ruled line in the entered document as "Patent Document 1" or "Patent Document 2". And dropping out the same color as that of the extracted part.

[특허 문헌1] 일본 특개 2003-196592[Patent Document 1] Japanese Patent Laid-Open No. 2003-196592

[특허 문헌2] 일본 특개 2005-258683[Patent Document 2] Japanese Patent Laid-Open No. 2005-258683

[특허 문헌3] 일본 특개 2006-134355[Patent Document 3] Japanese Patent Laid-Open No. 2006-134355

[특허 문헌4] 일본 특개 2004-336106[Patent Document 4] Japanese Patent Laid-Open No. 2004-336106

[특허 문헌5] 일본 특개 2005-18810 [Patent Document 5] Japanese Patent Laid-Open No. 2005-18810

상기 컬러 화상 처리에서는, OCR, 스캐너, 디지탈 카메라로부터 생성되는 화상에 색 어긋남이 발생함으로써, 기입 문자나 인영 등의 특정 대상을 올바르게 추출할 수 없어, 프리 인쇄의 일부가 남게 되거나, 특정 대상의 일부가 누락되게 된다는 문제가 있다.In the color image processing, color shift occurs in an image generated from an OCR, a scanner, or a digital camera, so that a specific object such as a written character or human face cannot be extracted correctly, and a part of the pre-printing remains or a part of the specific object. There is a problem that is missing.

색 어긋남이란, 센싱되는 3원색의 색 성분, 적색 성분으로 되는 R값, 녹색 성분으로 되는 G값 및 청색 성분으로 되는 B값 중 적어도 하나의 값의 위치가 어긋나는 것이다. 색 어긋남의 발생 요인으로서는, 렌즈의 색수차, 센서의 배치 위치, 반송 속도 등을 예로 들 수 있다. 특히, 스탠드형 스캐너나 디지탈 카메라 등의 2차원 CCD를 이용한 스캐너에서는, 색 수차에 의한 색 어긋남이 많이 발생한다.The color shift means that the position of at least one of the color components of the three primary colors sensed, the R value of the red component, the G value of the green component, and the B value of the blue component are shifted. As a cause of color shift, the chromatic aberration of a lens, the arrangement position of a sensor, a conveyance speed, etc. are mentioned, for example. In particular, in a scanner using a two-dimensional CCD such as a stand-type scanner or a digital camera, color shift due to chromatic aberration occurs a lot.

색 어긋남에 의해, 프리 인쇄나 기입 문자 등의 특정 대상의 윤곽 부분에, 특정 대상의 본래의 색과는 상이한 위색이 발생하게 된다. 예를 들면, 검은 문자의 윤곽에는, 적색과 청색의 위색이 발생하는 경우나, 청색의 괘선의 윤곽에 옅은 적색의 위색이 발생하는 경우 등이 있다. 그 때문에, 색의 정보에 의해, 기입 문자와 프리 인쇄 등을 구별하는 컬러 화상 처리에 오류가 생기게 된다.Due to the color shift, a false color different from the original color of the specific object is generated in the outline portion of the specific object such as pre-printing or writing character. For example, in the outline of a black letter, there exist a case where the red and blue false color generate | occur | produce, or the case where the light red false color generate | occur | produces in the outline of a blue ruled line. Therefore, the color information causes an error in color image processing for distinguishing written characters from preprinting.

이에 대하여, 「특허 문헌4」는 렌즈의 색수차, 「특허 문헌5」는 센서의 배치 위치에 의한 색 어긋남을 없애는 것을 시도하고 있다.In contrast, Patent Document 4 attempts to eliminate chromatic aberration of the lens, and Patent Document 5 eliminates color shift due to the arrangement position of the sensor.

그러나, 어긋남량을 계측하고 보정하는 방법을 행하였다고 하여도, 화상으로부터 완전히 색 어긋남을 없애는 것은 곤란하다. 또한, 보다 고정밀도한 색 어긋남 보정은 괘선 시간이 많이 걸리는 문제도 생긴다.However, even if the method of measuring and correcting the shift amount is performed, it is difficult to completely remove the color shift from the image. In addition, more accurate color shift correction also causes a problem that requires a long time for ruled lines.

또한, 상기 컬러 화상 처리나 휘도 화상 처리에서는, 화상 내에 색 흐릿함이 발생한 경우에, 기입 문자나 인영 등의 특정 대상을 올바르게 추출할 수 없어, 프리 인쇄의 일부가 남게 되거나, 문자의 일부가 누락하게 되거나 한다는 문제가 있다.In addition, in the color image processing and the luminance image processing, when a color blur occurs in an image, a specific object such as a writing character or a printout cannot be extracted correctly, and a part of the pre-printing is left or a part of the character is missing. There is a problem.

색 흐릿함이란, 괘선이나 기입 문자의 윤곽 부분의 색이 희미해져서, 옅은 색이 발생하는 것이다. 색 흐릿함에 의해, 프리 인쇄나 기입 문자의 적색 성분, 청색 성분, 적색 성분, 명도, 채도, 색상, 휘도 등의 색 정보의 분산이 커지기 때문에, 기입 문자와 프리 인쇄를 구별하는 것이 어려워진다.With color blur, the color of the ruled line and the outline of the writing character is blurred, and light color is generated. Color blurring increases the dispersion of color information such as red component, blue component, red component, brightness, saturation, color, and luminance of preprinted and written characters, making it difficult to distinguish between written characters and preprinted text.

본 발명은 이들 문제를 감안하여 이루어진 것으로, 색 어긋남이나 색 흐릿함을 포함하는 문서 화상으로부터, 기입 문자, 인영, 마크 등의 특정 대상을 고정밀도로 추출하는 화상 처리 방법 및 화상 처리 장치를 제공하는 데에 있다.SUMMARY OF THE INVENTION The present invention has been made in view of these problems, and an object of the present invention is to provide an image processing method and an image processing apparatus for accurately extracting a specific object such as a writing character, printing, mark, etc. from a document image including color shift or color blurring. have.

전술한 목적의 달성을 위해, 본 발명은, 장표 등의 문서를 스캐너나 디지탈 카메라로 판독한 컬러 화상 혹은 휘도 화상으로부터 기입 문자, 인영, 마크 등의 특정 대상을 추출하는 화상 처리 방법으로서, 컬러 화상 혹은 휘도 화상으로부터 배경을 제거하고, 배경 이외의 부분을 나타내는 배경 제거 데이터를 생성하는 배경 제거 데이터 생성 처리와, 컬러 화상 혹은 휘도 화상 내의 상기 배경 이외 부분에서, 배경 이외 부분의 윤곽의 색 정보를 배경 이외 부분의 윤곽의 내측에 있는 화소의 색 정보로 변환한 데이터를 생성하는 윤곽색 변환 데이터 생성 처리와, 특정 대상 부분을 추출하는 특정 대상 추출 처리를 갖는 것을 특징으로 한다.In order to achieve the above object, the present invention is an image processing method for extracting a specific object such as a written character, a print, a mark, or the like from a color image or a luminance image obtained by reading a document such as a book with a scanner or a digital camera. Or background removal data generation processing for removing a background from a luminance image and generating background removal data indicating a portion other than the background, and a background of color information of an outline other than the background in a color image or a portion other than the background in the luminance image. It is characterized by having the outline color conversion data generation process which produces | generates the data converted into the color information of the pixel inside the outline of other part, and the specific object extraction process which extracts a specific object part.

또한, 상기 윤곽색 변환 데이터 생성 처리는, 컬러 화상 혹은 휘도 원화상 내의 주목 화소에 대하여, 그 근방에 있는 복수의 화소인 근방 화소를 참조하여, 주목 화소의 적색 성분, 청색 성분, 적색 성분, 명도, 채도, 색상, 휘도 등의 색 정보가, 근방 화소와 주목 화소 중에서 가장 휘도치가 낮은 화소의 색 정보로 변환된 저휘도 색 팽창 휘도 데이터를 생성하는 것을 특징으로 한다.Further, the contour color conversion data generation process refers to the neighboring pixels which are a plurality of pixels in the vicinity of the pixel of interest in the color image or the luminance original image, and the red component, blue component, red component, and brightness of the pixel of interest. And color information such as saturation, color, and luminance to generate low luminance color expansion luminance data converted into color information of the pixel having the lowest luminance value among the neighboring pixels and the pixel of interest.

상기 특정 대상 판별 처리는, 괘선 추출과, 특정 대상 후보 추출과, 괘선의 색 정보와 특정 대상의 색 정보의 추정과 특정 대상의 판별을 행하는 것을 특징으로 한다.The specific object discrimination processing is characterized in that ruled line extraction, specific object candidate extraction, estimation of color information of ruled line and color information of specific object, and determination of specific object are performed.

본 발명에 따르면, 색 어긋남이나 색 흐릿함이 있는 컬러 화상 혹은 휘도 화상이라도, 프리 인쇄, 기입 문자, 인영, 마크 등의 특정 대상을 정밀도 좋게 구별하고, 예를 들면 기입 문자만을 정밀도 좋게 추출하는 것이 가능하게 된다. 기입 문자에 한하지 않고, 인영이나 마크 등, 문서 화상 내에 있는 특정 대상을 정밀도 좋게 추출하는 것이 가능하게 된다.According to the present invention, even a color image or luminance image with color shift or color blur, it is possible to accurately distinguish certain objects such as pre-printing, writing characters, printing, marks, and the like, and to extract only writing characters with high precision. Done. It is possible not only to write characters but also to extract specific objects in a document image, such as printing and a mark, with high precision.

이하, 본 발명을 적용한 화상 처리 방법 및 화상 처리 장치에 대해서, 도면을 이용하여 상세하게 설명한다.EMBODIMENT OF THE INVENTION Hereinafter, the image processing method and image processing apparatus to which this invention is applied are demonstrated in detail using drawing.

[실시예 1]Example 1

도 2는, 본 발명의 화상 처리 장치의 일 실시 형태를 도시하는 도면이다.2 is a diagram illustrating an embodiment of the image processing apparatus of the present invention.

이는, 통신 장치(201)와 화상 취득 장치(202)와 표시 장치(203)와 외부 기억 장치(204)와 메모리(205)와 CPU(Central Processing Unit)(206)와 키보드나 마우스 등의 입력 장치(207)가 PCI 버스 등의 통신선으로 접속되어 있는 화상 처리 장치(208)이다.This includes the communication device 201, the image acquisition device 202, the display device 203, the external memory device 204, the memory 205, the CPU (Central Processing Unit) 206, and an input device such as a keyboard or a mouse. 207 is an image processing apparatus 208 connected by a communication line such as a PCI bus.

도 1에 도시하는 특정 대상 추출 처리의 구성을 갖는 프로그램은, 외부 기억 장치(204)나 메모리(205) 등의 기억 장치에 저장되고, CPU(205)에 의해 실행된다.The program having the configuration of the specific object extraction processing shown in FIG. 1 is stored in a storage device such as the external storage device 204 or the memory 205 and executed by the CPU 205.

CPU에 입력되는 문서의 컬러 화상이나 휘도 화상은, 스캐너, OCR 등의 화상 취득 장치(202)나 통신 장치(201)로부터 입력되어도 되고, 외부 기억 장치(204)에 기억되어 있어도 된다.The color image and luminance image of the document input to the CPU may be input from an image acquisition device 202 or a communication device 201 such as a scanner or an OCR, or may be stored in the external storage device 204.

특정 대상 추출 처리의 결과는, 표시 장치(203)에 출력되는 경우나 통신 장치(201)를 거쳐서 외부에 출력되는 경우나 화상 취득 처리 장치(208) 내에 있는 다른 프로그램에 이용되는 경우 등이 있다. 다른 프로그램의 예로서, 문자 인식을 행하는 프로그램이 있다.The result of the specific object extraction processing may be output to the display device 203, output to the outside via the communication device 201, or use in other programs in the image acquisition processing device 208. An example of another program is a program that performs character recognition.

도 27은, 화상 취득 장치(202)나 통신 장치(201)로부터 입력되거나, 혹은 외부 기억 장치(204)에 기억되어 있는 컬러 화상을 표시 장치(203) 상의 표시 윈도우(2701)에 표시한 예이다. 또한, 도 28은, 특정 대상 추출 처리의 결과를 표시(203) 상의 표시 윈도우(2702)에 표시한 예이다.FIG. 27 shows an example in which a color image input from the image acquisition device 202 or the communication device 201 or stored in the external storage device 204 is displayed on the display window 2701 on the display device 203. . 28 is an example which displayed the result of the specific object extraction process on the display window 2702 on the display 203.

도 1은, 본 발명을 적용한 특정 대상 추출 처리 프로그램의 구성을 도시하는 도면이다. 특정 대상 추출 처리 프로그램은, 화상 취득 모듈(101), 배경 제거 데이터 생성 모듈(102), 윤곽색 변환 데이터 생성 모듈(103), 특정 대상 판별 모듈(104) 및 제어 모듈(105)로 구성되어 있다.1 is a diagram illustrating a configuration of a specific object extraction processing program to which the present invention is applied. The specific object extraction processing program is composed of an image acquisition module 101, a background removal data generation module 102, an outline color conversion data generation module 103, a specific object determination module 104, and a control module 105. .

화상 취득 모듈(101)은, 스캐너나 OCR 등에 의해, 종이 문서 등을 화상화한 컬러 화상 또는 휘도 화상을 취득하는 화상 취득 처리를 한다.The image acquisition module 101 performs image acquisition processing for acquiring a color image or luminance image obtained by imaging a paper document or the like by a scanner, an OCR, or the like.

배경 제거 데이터 생성 모듈(102)은, CPU(206)에 입력된 컬러 화상 혹은 휘도 화상으로부터, 배경 제거 데이터를 생성하는 배경 제거 데이터 생성 처리를 한다.The background removal data generation module 102 performs background removal data generation processing for generating background removal data from a color image or a luminance image input to the CPU 206.

예를 들면, 도 3과 같은 괘선(301)과 자릿수선(302)과 해칭(303)의 프리 인쇄와 기입 문자(304)를 포함하는 컬러 화상을 취득한 경우, 배경 제거 데이터 생성 모듈(102)은, 도 4에 도시하는 괘선과 자릿수선과 기입 문자 부분을 나타내는 데이터를 생성한다.For example, when the color image including the ruled line 301, the digit line 302, and the preprinting and writing characters 304 of the hatching 303 as shown in FIG. 3 is acquired, the background removal data generation module 102 And data indicating ruled lines, digit lines, and written character portions shown in FIG. 4.

배경 제거 데이터 생성 처리는, 화상 내의 배경 부분을 제거하고, 괘선과 자릿수선의 프리 인쇄 부분과 기입 문자 부분을 추출하는 처리이다. 이를 실현하기 위해서는 다양한 방법이 있지만, 도 6에 도시하는 방법을 취한다.Background removal data generation processing is a process of removing the background part in an image, and extracting the preprinted part and writing character part of a ruled line and a digit line. There are various methods for realizing this, but the method shown in FIG.

처음에, 휘도치 데이터 생성 처리(601)에서, RGB의 3원색(R값, G값, B값)으로 나타내는 컬러 화상으로부터 휘도로 나타내는 휘도 화상을 생성한다. 다음으로, 블록 분할 처리(602)에서, 휘도 화상을 복수의 블록으로 분할한다. 마지막으로, 2치화 처리(603)에서, 블록마다 블록 내에서 휘도치가 낮은 화소를 흑, 휘도치가 높은 화소를 백으로 하는 2치 데이터를 생성한다. 이에 의해 생성된 2치 데이터는, 도 4와 같이, 검은 화소가 배경 이외의 부분을 나타내는, 배경 제거 데이터이다.First, in the luminance value data generation processing 601, a luminance image represented by luminance is generated from a color image represented by three primary colors (R value, G value, and B value) of RGB. Next, in the block division process 602, the luminance image is divided into a plurality of blocks. Finally, in the binarization processing 603, binary data is generated for each block in which a pixel having a low luminance value is black and a pixel having a high luminance value is white in a block. The binary data generated by this is background removal data in which black pixels represent portions other than the background, as shown in FIG.

윤곽색 변환 데이터 생성 모듈(103)은, 컬러 화상(604) 및 배경 제거 데이 터(605)가 입력되고, 괘선과 자릿수선과 기입 문자의 윤곽의 색을 윤곽의 내측 부분의 색으로 변환한 윤곽색 변환 데이터(1303)를 생성하는 윤곽색 변환 데이터 생성 처리를 한다. 또한, 컬러 화상(604)은 휘도 화상이어도 된다.The outline color conversion data generation module 103 receives the color image 604 and the background removal data 605, and converts the outline color of the ruled line, the digit line, and the write character into the color of the inner part of the outline. The outline color conversion data generation process of generating the conversion data 1303 is performed. In addition, the color image 604 may be a luminance image.

특정 대상 판별 모듈(104)은, CPU(206)에 입력된 배경 제거 데이터(605)에 대하여, 윤곽색 변환 데이터(1303)를 참조하여, 도 5에 도시하는 기입 문자 부분을 나타내는 데이터를 생성하는 특정 대상의 판정 처리를 행하고, 특정 대상 판별 결과(706)를 출력한다.The specific object discrimination module 104 generates data indicating the written character portion shown in FIG. 5 with reference to the contour color conversion data 1303 for the background removal data 605 input to the CPU 206. The specific object determination process is performed, and the specific object discrimination result 706 is output.

여기에서, 도 7을 이용하여 종래의 특정 대상 판별 처리의 설명을 한다. 종래의 특정 대상 판별 처리에서는, 배경 제거 데이터가 입력되고, 컬러 화상을 참조하여, 특정 대상의 판별 결과를 출력하였다.Here, with reference to Fig. 7, the conventional specific object discrimination process will be described. In the conventional specific object discrimination process, background removal data is input, and the determination result of the specific object was output with reference to the color image.

종래의 특정 대상 판별 처리를 도 7에 도시한다. 우선, 괘선 추출 처리(701')에서, 괘선 부분을 추출한다. 이 처리에서는, 배경 제거 데이터 내에 있는 흑 화소가 길고 직선적으로 연결하는 부분을 추출함으로써 괘선 부분을 추출한다. 그 결과는 도 8로 된다.The conventional specific object discrimination process is shown in FIG. First, in a ruled line extraction process 701 ', a ruled line portion is extracted. In this processing, the ruled line portion is extracted by extracting the portion where the black pixels in the background removal data are long and linearly connected. The result is FIG.

다음으로, 괘선 제거 처리(702')에서, 배경 제거 데이터로부터 괘선 부분을 제거한 괘선 제거 데이터를 생성한다. 그 결과는 도 9로 된다.Next, in ruled line removal processing 702 ', ruled line removal data from which the ruled line portion is removed from the background elimination data is generated. The result is shown in FIG.

다음으로, 특정 대상 후보 추출 처리(703')에서, 괘선 제거 데이터 내로부터, 사각형의 크기나 위치의 정보를 이용하여, 특정 대상으로 되는 기입 문자 부분의 후보로 되는 기입 문자 부분 후보를 추출한다. 그 결과는 도 10으로 된다.Next, in the specific object candidate extraction process 703 ', the writing character part candidate which becomes a candidate of the writing character part used as a specific object is extracted from the ruled line removal data using the information of the size and position of a rectangle. The result is shown in FIG.

다음으로, 괘선색과 특정 대상색의 추정 처리(704')에서, 컬러 화상(604)을 참조함으로써 괘선 부분의 색 정보인 괘선 부분색 정보와 기입 문자 후보 부분의 색 정보인 기입 문자 후보 부분색 정보를 추정한다.Next, in the estimation process 704 'of the ruled color and the specific target color, the reference character candidate partial color that is the ruled line partial color information that is the color information of the ruled line portion and the color information of the write character candidate portion by referring to the color image 604 Estimate the information.

다음으로, 특정 대상의 판별 처리(705')에서, 괘선 부분색 정보와 기입 문자 후보 부분색 정보를 이용하여, 배경 제거 데이터 내의 흑 화소 부분의 각 화소가, 기입 문자의 화소인지의 여부를 판별한다. 이 처리는, 배경 제거 데이터에 있는 흑 화소 부분의 각 화소의 위치에서, 컬러 화상의 색 정보가 괘선 부분색 정보에 속하는 것인지, 그렇지 않으면 기입 문자 후보 부분색 정보에 속하는 것인지를 판별하는 처리이다.Next, in the determination processing 705 ′ of the specific object, using the ruled partial color information and the write character candidate partial color information, it is determined whether each pixel of the black pixel portion in the background removal data is a pixel of the write character. do. This processing is processing for determining whether the color information of the color image belongs to the ruled partial color information or the writing character candidate partial color information at the position of each pixel of the black pixel portion in the background removal data.

구체적으로는, 배경 제거 데이터(605)에 있는 흑 화소 부분의 화소마다 다음의 처리를 행한다. 배경 제거 데이터(605) 내의 임의의 흑 화소 위치 (Xa, Xb)의 처리에서는, 컬러 화상(604)의 (Xa, Xb)에 있는 색 정보가, 괘선색과 특정 대상색의 추정 처리(704')에서 출력된 괘선 부분색 정보와 기입 문자 후보 부분색 정보 중 어느쪽에 가까운지를 판정한다. 그리고, (Xa, Xb)의 색 정보가 괘선 부분색 정보에 가까우면, (Xa, Xb)의 위치는 괘선 부분이며, (Xa, Xb)의 색 정보가 기입 문자 후보 부분색 정보에 가까우면, (Xa, Xb)의 위치는 기입 문자 부분이라고 판정한다.Specifically, the following processing is performed for each pixel of the black pixel portion in the background removal data 605. In the processing of arbitrary black pixel positions (Xa, Xb) in the background removal data 605, the color information in (Xa, Xb) of the color image 604 is estimated by the ruled color and the specific target color (704 '). It determines whether it is close to the ruled partial color information or the written character candidate partial color information outputted by the " If the color information of (Xa, Xb) is close to the ruled partial color information, the position of (Xa, Xb) is the ruled line, and if the color information of (Xa, Xb) is close to the write character candidate partial color information, It is determined that the position of (Xa, Xb) is the write character portion.

이 컬러 화상(604)의 색 정보로서는, RGB 3원색의 R값, G값, B값을 이용하여도 되고, 그들을 변환한 색 정보, 예를 들면 휘도치나 HSV 공간의 색상, 채도, 명도이어도 된다. 또한 그들 중에서 하나의 값만을 이용하여도 되고, 복수의 값을 이용하여도 된다. 또한, 판별 방법에는, 교사 데이터를 이용하는 다양한 판별 알 고리즘을 사용할 수 있다. 예를 들면, 뉴럴 네트워크, 선형 식별기, 마하라노비스 거리 등을 이용한다.As the color information of the color image 604, the R, G, and B values of the RGB three primary colors may be used, or color information obtained by converting them, for example, the luminance value, the hue, saturation, and brightness of the HSV space may be used. . In addition, only one value may be used among them and a plurality of values may be used. In addition, various discrimination algorithms using teacher data can be used for the discrimination method. For example, neural networks, linear identifiers, Maharanobis distances, etc. are used.

다음으로, 컬러 화상(604)을 참조하여, 특정 대상의 판정 처리를 행하고, 특정 대상 판별 결과(706')를 출력함으로써, 특정 대상 판별 처리가 종료한다.Next, with reference to the color image 604, the specific object determination process is performed and the specific object discrimination process is complete | finished by outputting the specific object discrimination result 706 '.

그러나, 종래의 특정 대상 판별 처리의 경우, 입력된 컬러 화상(604)에 색 어긋남이 있으면, 컬러 화상(604) 내의 색 정보도 어긋나므로, 괘선 부분색 정보와 기입 문자 후보 부분색 정보 중 어느쪽에 가까운지라고 하는 색 정보에 기초하는 판정 자체가 어긋날 우려가 있어, 프리 인쇄와 기입 문자를 색 정보로 구별할 수 없게 된다고 하는 문제가 있었다. 이 때문에, 종래 방법에서 얻어진 특정 대상 판별 결과에서는, 본원 발명의 판별 결과, 예를 들면 도 5와 같은 출력이 얻을 수 없는 것이 있었다.However, in the conventional specific object discrimination process, if there is a color shift in the input color image 604, the color information in the color image 604 is also shifted, so that either the ruled portion color information or the write character candidate partial color information The determination itself based on the color information of whether or not there is a possibility may be shifted, and there existed a problem that it was impossible to distinguish a preprinted and written character by color information. For this reason, in the specific object discrimination result obtained by the conventional method, there existed the output of the discrimination result of this invention, for example, as shown in FIG.

여기에서, 도 11은, 색 어긋남이 있는 화상(기입 문자)의 예이다. 도 11에서는, 본래는 흑색의 기입 문자의 윤곽에 푸른 위색과 빨간 위색이 발생하고 있다.Here, FIG. 11 is an example of the image (writing character) with color shift. In FIG. 11, blue and red false colors are generated in the outline of black written characters.

또한, 도 12도 색 어긋남이 있는 화상(괘선)의 예이다. 도 12에서는, 본래는 청색의 괘선의 윤곽에 옅은 적색의 위색이 발생하고 있다. 흑색의 기입 문자와 청색의 괘선을 포함하는 화상으로부터 색 정보를 이용하여 기입 문자만을 추출 하는 경우를 생각한다.12 is an example of an image (rulered line) with color shift. In Fig. 12, a light red false color is generated in the outline of the blue ruled line. Consider a case where only the write character is extracted using color information from an image including black write characters and blue ruled lines.

기입 문자와 괘선에 색 어긋남이 없는 경우에는, 종래의 특정 대상 판별 처리에서 기입 문자만을 추출할 수 있다. 그러나, 도 11과 도 12와 같이 색 어긋남이 있는 화상에서는, 기입 문자의 윤곽과 괘선의 윤곽 중 어느쪽에도 적색 성분이 존재하기 때문에, 괘선의 윤곽 부분이 노이즈로서 발생하는 경우나 문자의 일부가 누락하게 되는 것이 있다. 이와 같이 색 어긋남이 발생하고 있는 경우, 프리 인쇄와 기입 문자를 색 정보로 구별할 수 없게 된다고 하는 문제가 있다.If there is no color shift between the written character and the ruled line, only the written character can be extracted in the conventional specific object discrimination process. However, in the image with the color shift as shown in Figs. 11 and 12, since the red component exists in either of the outline of the writing character and the outline of the ruled line, the case where the outline of the ruled line occurs as noise or part of the character is missing. There is something to be done. When color shift occurs in this way, there is a problem that preprinting and writing characters cannot be distinguished by color information.

도 11, 도 12와 같은 화상에 대하여, 본 발명을 적용한 화상 처리 장치에서는, 윤곽색 변환 데이터 생성 처리를 행하고, 윤곽색 변환 데이터를 참조하여 특정 대상 판별 처리를 행한다.11 and 12, in the image processing apparatus to which the present invention is applied, contour color conversion data generation processing is performed, and specific object discrimination processing is performed with reference to the contour color conversion data.

전술한 윤곽색 변환 데이터 생성 모듈(103)은, 윤곽색 변환 데이터 생성 처리를 한다. 구체적으로는, 컬러 화상(604) 내의 배경 이외 부분에서, 배경 이외 부분의 윤곽의 색을, 배경 이외 부분의 윤곽의 내측에 있는 화소의 색으로 변환한 데이터를 생성시킨다. 즉, 컬러 화상 내의 괘선과 자릿수선과 기입 문자의 윤곽의 색 정보를, 그 윤곽의 내측 부분의 색 정보로 변환한 데이터를 생성한다.The above-mentioned outline color conversion data generation module 103 performs outline color conversion data generation processing. Specifically, in the portion other than the background in the color image 604, data obtained by converting the color of the outline of the portion other than the background into the color of the pixel inside the outline of the portion other than the background is generated. That is, data obtained by converting the color information of the ruled line, the number of digits, and the outline of the write character into the color information of the inner part of the outline is generated.

도 13은, 윤곽색 변환 데이터 생성 처리의 구체적인 처리 플로우의 예이다.13 is an example of a specific processing flow of contour color conversion data generation processing.

윤곽색 변환 데이터 생성 처리에서는, 통신 장치(201)나 화상 취득 장치(202)나 외부 기억 장치(204)로부터 메모리(205)를 통하여, 컬러 화상(604)과 배경 제거 데이터(605)가 입력된다.In the outline color conversion data generation processing, the color image 604 and the background removal data 605 are input from the communication device 201, the image acquisition device 202, or the external storage device 204 through the memory 205. .

그리고, 근방 휘도치 생성 처리(1301)와 저휘도 색 팽창 처리(1302)에서, 컬러 화상 내의 배경 이외의 영역에 있는 화소가 하나씩 선택되고(선택된 화소를 주목 화소라고 부름), 그 주목 화소의 색 정보가 변환된다. 이 2개의 처리는, 컬러 화상 내의 배경 이외의 영역에 있는 모든 화소가 처리될 때까지 반복된다.In the near luminance value generation processing 1301 and the low luminance color expansion processing 1302, pixels in regions other than the background in the color image are selected one by one (the selected pixels are called the pixel of interest), and the color of the pixel of interest is selected. The information is converted. These two processes are repeated until all the pixels in the area other than the background in the color image have been processed.

근방 휘도치 생성 처리(1302)에서는, 주목 화소의 근방을 둘러싸는 필드 내 의 화소(도 14의 예에서는 주목 화소를 중심으로 하는 3×3의 범위로 한 필드 내의 9화소)의 휘도치를 각각 생성한다. 이하, 필드 내의 주목 화소 이외의 화소를 근방 화소라고 칭한다. 상기 필드는, 3×3에 한정되지 않고, 예를 들면 2×2 또는 4×4이어도 된다. 또한, 주목 화소는, 필드 내에서 중심에 한정되지 않고, 필드 내 중 어느 하나의 위치에 위치하도록 필드를 설정하여도 된다.In the neighborhood luminance value generation processing 1302, luminance values of pixels in a field surrounding the vicinity of the pixel of interest (in the example of FIG. 14, 9 pixels in a field in a 3x3 range centering on the pixel of interest) are respectively generated. do. Hereinafter, pixels other than the pixel of interest in the field are called neighboring pixels. The field is not limited to 3x3, but may be 2x2 or 4x4, for example. Note that the pixel of interest is not limited to the center in the field, but the field may be set to be located at any one position in the field.

다음으로, 저휘도 색 팽창 처리(1302)에서는, 주목 화소의 색 정보(예를 들면 R값과 G값과 B값)를, 주목 화소와 근방 화소 중에서 가장 휘도치가 낮은 화소의 색 정보로 변환한다. 이는, R값, G값, B값이 어긋나게 된 윤곽부의 색 정보를, 윤곽부의 내측의 색 정보로 변환하는 것이며, 의사적으로 위색을 본래의 색 정보로 변환하는 처리로 된다.Next, in the low luminance color expansion process 1302, the color information (for example, the R value, the G value, and the B value) of the pixel of interest is converted into the color information of the pixel having the lowest luminance value among the pixel of interest and the neighboring pixel. . This converts the color information of the contour portion in which the R value, the G value, and the B value are shifted to the color information inside the contour portion, and is a process of pseudoly converting the false color into the original color information.

보다 구체적으로는, 필드 내의 주목 화소 및 근방 화소의 휘도치를 산출하고, 가장 낮은 휘도치를 갖는 화소를 추출하고, 주목 화소의 색 정보를 가장 낮은 휘도치를 갖는 화소의 색 정보로 변환한다. 만일, 주목 화소의 휘도치가 가장 낮은 휘도치이면, 주목 화소의 색 정보는, 그대로 유지된다. 이와 같이 하여, 컬러 화상(604) 내의 괘선과 자릿수선과 기입 문자의 부분에서, 색 정보가 변환된 데이터인 윤곽색 변환 데이터(1303)를 생성한다.More specifically, the luminance values of the pixel of interest and the neighboring pixels in the field are calculated, the pixel having the lowest luminance value is extracted, and the color information of the pixel of interest is converted into the color information of the pixel having the lowest luminance value. If the luminance value of the pixel of interest is the lowest luminance value, the color information of the pixel of interest is maintained as it is. In this way, outline color conversion data 1303, which is data obtained by converting color information, is generated from the ruled line, the number of digits, and the portion of the write character in the color image 604.

윤곽색 변환 데이터 생성 처리에 따르면, 예를 들면 기입 문자의 경우, 도 14에 도시한 바와 같이, 도 11에 도시되는 기입 문자의 윤곽부에 있는 휘도가 높은 적색과 청색의 위색이, 윤곽의 내측에 있는 휘도가 낮은 흑색으로 변환된다.According to the contour color conversion data generation process, for example, in the case of the write character, as shown in FIG. 14, the red and blue false colors having high luminance in the outline portion of the write character shown in FIG. The luminance at is converted to low black.

또한, 윤곽색 변환 데이터 생성 처리에 따르면, 예를 들면 괘선의 경우, 도 15에 도시한 바와 같이, 도 12에 도시되는 괘선의 윤곽부에 있는 휘도가 높은 옅은 적색의 위색이, 본 윤곽의 내측에 있는 휘도가 낮은 청색으로 변환된다.Further, according to the contour color conversion data generation process, for example, in the case of ruled lines, as shown in FIG. 15, a light red high color having a high luminance in the outline portion of the ruled lines shown in FIG. The luminance at is converted to low blue.

도 16은, 본 실시예 1에서의 특정 대상 판별 처리의 구체적인 처리 플로우의 도면이다.16 is a diagram of a specific processing flow of the specific object discrimination processing in the first embodiment.

우선, 배경 제거 데이터가 입력되고, 괘선 부분을 추출하는 괘선 추출 처리(701)를 한다.First, background removal data is input and ruled line extraction processing 701 for extracting ruled line portions is performed.

다음으로, 배경 제거 데이터로부터 괘선 부분을 제거한 괘선 제거 데이터를 생성하는 괘선 제거 처리(702)를 한다.Next, ruled line removal processing 702 for generating ruled line removal data from which the ruled line portion is removed from the background removal data is performed.

다음으로, 괘선 제거 데이터 중에서, 사각형의 크기나 위치의 정보를 이용하여, 특정 대상으로 되는 기입 문자 부분의 후보로 되는 기입 문자 부분 후보를 추출하는 특정 대상 후보 추출 처리(703)를 한다.Next, the specific object candidate extraction process 703 which extracts the writing character part candidate used as a candidate of the writing character part used as a specific object from the ruled line removal data is performed using the information of the size and position of a rectangle.

다음으로, 본 발명의 특정 대상 판별 처리에서는, 괘선색과 특정 대상색의 추정 처리(1601)와 특정 대상의 판별 처리(1602)에서, 윤곽색 변환 데이터(1303)의 RGB값을 참조한다.Next, in the specific object discrimination processing of the present invention, the RGB values of the contour color conversion data 1303 are referred to in the estimation process 1601 and the determination process 1602 of the ruled color and the specific object color.

배경색 제거 데이터의 흑 화소 영역에 상당하는 윤곽색 변환 데이터(1303)의 영역에는, 색 어긋남에 의해 발생한 위색을 갖는 화소가 적어져 있기 때문에, 특정 대상색과 괘선색의 추정이 정밀도 좋게 되고, 결과로서, 괘선과 특정 대상의 판별의 정밀도도 향상한다.In the area of the contour color conversion data 1303 corresponding to the black pixel area of the background color removal data, there are fewer pixels having a false color generated due to color shift, so that the estimation of the specific target color and the ruled color becomes more accurate, and the result is As a result, the accuracy of discriminating ruled lines and specific objects is also improved.

이와 같이, 본 발명을 적용한 화상 처리 장치(208)에서는, 괘선색과 특정 대상색의 추정(1601)과 특정 대상의 판별 처리(1602)에서, 기입 문자부를 흑색으로 하고, 괘선부를 청색으로 하여 취급할 수 있기 때문에, 기입 문자 부분을 올바르게 판별할 수 있다.As described above, in the image processing apparatus 208 to which the present invention is applied, the writing character portion is made black and the ruled portion is made blue in the estimation 1602 of the ruled color and the specific target color and the determination processing 1602 of the specific target. Because of this, the written character portion can be correctly determined.

이상, 화상 처리 장치(208)에 따르면, 윤곽색 변환 처리 후의 RGB값을 포함하는 윤곽색 변환 데이터를 참조하고 있으므로, 색 어긋남을 포함하는 컬러 화상으로부터, 특정 대상으로 되는 기입 문자를 고정밀도로 추출할 수 있다. 또한, 이 화상 처리 장치의 출력인 기입 문자 추출 결과를 입력으로 하는 문자 인식 장치는, 보다 고정밀도한 인식 결과를 얻을 수 있다. 그리고, 기입 문자를 추출하는 것을 예로 이용했지만, 인영이나 마크를 추출하는 경우도 동일하게 고정밀도한 추출이 가능하다.As mentioned above, since the image processing apparatus 208 refers to the contour color conversion data including the RGB value after the contour color conversion processing, it is possible to accurately extract the written character to be a specific object from the color image containing the color shift. Can be. In addition, the character recognition apparatus which takes as input the writing character extraction result which is the output of this image processing apparatus can obtain a more accurate recognition result. The extraction of the written characters is used as an example, but the extraction with the printed characters and marks can be similarly performed with high precision.

다음으로, 본 발명의 다른 실시 형태에 대해서 설명한다.Next, another embodiment of the present invention will be described.

[실시예 2]Example 2

도 17에 도시한 바와 같이, 특정 대상 판별부(104)에서, 괘선색의 추정만을 이용하여 특정 대상의 판별을 행하는, 특정 대상 추출 처리로 하여도 된다.As shown in Fig. 17, the specific object discrimination unit 104 may be a specific object extraction process in which the specific object is determined using only the estimation of the ruled color.

도 17에 도시하는 처리는, 괘선색의 추정 처리(1701)에서, 윤곽색 변환 데이터를 참조하여, 괘선의 색 정보만을 추정한다. 다음으로, 괘선색 부분의 제거 처리(1702)에서, 괘선의 색 정보를 이용하여, 배경 제거 데이터(605)로부터 괘선색 부분을 제거함으로써, 특정 대상으로 되는 기입 문자 부분을 판별한다.In the process shown in FIG. 17, in the process of estimating ruled line color 1701, only the color information of the ruled line is estimated with reference to the contour color conversion data. Next, in the removal processing 1702 of the ruled color portion, by using the ruled color information, the ruled color portion is removed from the background removal data 605 to determine the written character portion to be the specific object.

[실시예 3]Example 3

도 18에 도시한 바와 같이, 특정 대상 판별부(104)에서, 특정 대상색의 추정만을 이용하여, 특정 대상 판별 처리를 행하는, 특정 대상 추출 처리로 하여도 된 다.As shown in Fig. 18, the specific object discrimination unit 104 may be a specific object extraction process in which the specific object discrimination process is performed using only the estimation of the specific object color.

도 18에 도시하는 처리는, 특정 대상색의 추정 처리(1801)에서, 윤곽색 변환 데이터(1303)를 참조하여, 특정 대상 후보의 색 정보만을 추정한다. 다음으로, 특정 대상색 부분의 추출 처리(1702)에서, 특정 대상의 색 정보를 이용하여, 배경 제거 데이터(605)로부터 특정 대상으로 되는 기입 문자 부분을 추출한다.In the processing shown in FIG. 18, in the estimation process 1801 of the specific target color, only the color information of the specific target candidate is estimated with reference to the contour color conversion data 1303. Next, in the extraction processing 1702 of the specific target color portion, the write character portion to be the specific target is extracted from the background removal data 605 using the color information of the specific target.

[실시예 4]Example 4

도 19에 도시한 바와 같이, 특정 대상 판별부(104)에서 클러스터링을 이용하여, 특정 대상 판별 처리를 행하는, 특정 대상 추출 처리로 하여도 된다.As shown in Fig. 19, the specific object discrimination unit 104 may be a specific object extraction process in which specific object discrimination processing is performed using clustering.

도 19에 도시하는 처리는, 괘선 추출의 결과를 이용하지 않고, 배경 이외 부분의 색 정보만을 이용하여 판별을 행한다. 우선 클러스터링 처리(1901)에서는, 배경 이외 부분의 윤곽색 변환 데이터(1303)를 클러스터링한다. 클러스터링에는, RGB 3원색의 R값, G값, B값을 이용하여도 되고, 그들을 변환한 색 정보, 예를 들면 휘도치나 HSV 공간의 색상, 채도, 명도이어도 된다. 또한 그들 중에서 하나의 값만을 이용하여도 되고, 복수의 값을 이용해도 된다. 클러스터링의 방법에는, k-means법이나 영역 확장법이나 판별 분석 등의 방법이 있다.The process shown in FIG. 19 performs determination using only the color information of the part other than a background, without using the result of ruled line extraction. First, in the clustering process 1901, the contour color conversion data 1303 of a portion other than the background is clustered. For clustering, the R, G, and B values of the RGB three primary colors may be used, or color information obtained by converting them, for example, luminance values, hue, saturation, and brightness of the HSV space may be used. In addition, only one value may be used among them and a plurality of values may be used. The clustering method includes a k-means method, a region expansion method, a discriminant analysis method, and the like.

다음으로, 특정 대상의 클러스터의 선택 처리(1902)에서, 클러스터링에 의해 얻어진 복수의 클러스터 중에서 특정 대상의 클러스터를 선택한다. 선택의 방법에는 다양한 방법이 있지만, 예를 들면 휘도치가 높은 값을 갖는 클러스터를 선택하는 등의 방법이 있다.Next, in the selection process 1902 of the cluster of a specific target, the cluster of a specific target is selected from the plurality of clusters obtained by clustering. There are various methods for selection, but there are methods such as selecting a cluster having a high luminance value.

그리고, 특정 대상 클러스터 색부분의 추출(1903)에서, 배경 제거 데이터의 흑 화소 부분 중에서 상기 선택한 클러스터의 색 정보를 갖는 화소를 추출함으로써, 특정 대상으로 되는 기입 문자를 추출한다.Then, in the extraction 1901 of the specific target cluster color portion, a write character that is a specific target is extracted by extracting a pixel having the color information of the selected cluster from the black pixel portion of the background removal data.

[실시예 5]Example 5

도 1에 도시한 특정 대상 추출 처리 프로그램의 구성에, 색 어긋남 보정 모듈(2001)을 더 가한 특정 대상 추출 처리로 하여도 된다.It is good also as a specific object extraction process which added the color shift correction module 2001 to the structure of the specific object extraction process program shown in FIG.

이 특정 대상 추출 처리 프로그램은, 도 20에 도시하는 바와 같은 구성으로 되고, 다음에 설명하는 처리 이외에는 도 1에 도시한 실시예와 동일한 처리를 행한다.This specific target extraction processing program has the structure as shown in FIG. 20, and performs the same process as the embodiment shown in FIG. 1 except the process demonstrated next.

색 어긋남 보정 모듈(2001)은, 색 어긋남 보정 처리를 실행한다. 색 어긋남 보정 처리는, 문서 화상 취득 처리에 의해 취득된 컬러 화상(604)의 R값, G값, B값을 시프트시키거나, 혹은 확대 축소하는 등에 의해, 색의 어긋남을 경감한 데이터인 색 어긋남 보정 데이터를 생성한다.The color shift correction module 2001 performs color shift correction processing. The color shift correction process is a color shift that is data which reduced the color shift by shifting or expanding or reducing the R, G, and B values of the color image 604 obtained by the document image acquisition process. Generate calibration data.

그리고, 도 1에 도시한 구성에서는, 배경 제거 데이터 생성 처리, 윤곽색 변환 데이터 생성 처리에 입력되는 데이터는 컬러 화상(604)을 이용하고 있는 데에 대해, 도 20의 실시예에서는, 배경 제거 데이터 생성 처리, 윤곽색 변환 데이터 생성 처리에 입력되는 데이터는 색 어긋남 보정 데이터로 된다. 이에 의해, 색 어긋남의 어긋남량이 많은 화상에서도, 기입 문자 등의 특정 대상을 정밀도 좋게 추출하는 것이 가능하게 된다.Incidentally, in the configuration shown in Fig. 1, the data inputted to the background removal data generation process and the contour color conversion data generation process use the color image 604. In the embodiment of Fig. 20, the background removal data is used. The data input to the generation process and the outline color conversion data generation process are color shift correction data. This makes it possible to extract specific objects such as written characters with high accuracy even in an image having a large amount of color shift.

[실시예 6]Example 6

도 1에 도시한 특정 대상 추출 처리 프로그램의 구성에, 지정색 취득 모 듈(2101)을 더 가한 특정 대상 추출 처리로 하여도 된다.It is good also as a specific object extraction process which added the designated color acquisition module 2101 to the structure of the specific object extraction process program shown in FIG.

이 특정 대상 추출 처리는, 도 21에 도시하는 바와 같은 구성으로 되며, 다음에 설명하는 처리 이외에는 도 1에 도시한 실시예와 동일한 처리를 행한다.This specific object extraction process has the structure as shown in FIG. 21, and performs the same process as the embodiment shown in FIG. 1 except the process demonstrated next.

지정색 취득 모듈에서는, 지정색 취득 처리를 행한다. 지정색 취득 처리는, 추출하는 특정 대상으로서 지정된 색인 지정 추출 대상색 정보(2203)를 취득한다. 이 지정 추출 대상색 정보는, 유저가 미리 프로그램에서 지정하고 있는 것이나 키보드나 마우스 등의 입력 장치로부터 입력되는 것 등이 있다. 그리고, 그 색 정보는, RGB의 R값, G값, B값을 이용하여도 되고, 그들을 변환한 색 정보, 예를 들면 휘도치나 HSV 공간의 색상, 채도, 명도이어도 된다. 또한 그들 중에서 하나의 값만을 이용하여도 되고, 복수의 값을 이용해도 된다. 또한, 1개의 색을 나타내는 값이어도 되고, 색의 값의 범위를 나타내는 것이어도 된다.The designated color acquisition module performs the specified color acquisition process. The designated color acquisition process acquires the index specified extraction object color information 2203 specified as the specific object to extract. The designated extraction target color information may be one previously designated by a user or input from an input device such as a keyboard or a mouse. The color information may be an R value, a G value, or a B value of RGB, and may be color information obtained by converting them, for example, a luminance value, a hue, saturation, and brightness of an HSV space. In addition, only one value may be used among them and a plurality of values may be used. Moreover, the value which shows one color may be sufficient, and the value which shows the range of the value of a color may be sufficient.

그리고, 특정 대상 판별 처리가 도 22나 도 23과 같이 지정 추출 대상색 정보(2203)를 입력에 포함하는 처리로 된다.Then, the specific object discrimination process is a process of including the designated extraction object color information 2203 in the input as in FIG. 22 or FIG.

도 22는, 도 16의 특정 대상 판별 처리에서, 지정 추출 대상색 정보(2203)와, 괘선색과 특정 대상색의 추정(1601)의 결과를 이용하여, 특정 대상의 판별(2201)을 행한다.FIG. 22 performs determination 2201 of a specific object using the specified extraction object color information 2203 and the result of the estimation 1601 of the ruled color and the specific object color in the specific object discrimination process of FIG. 16.

도 23은, 도 19의 클러스터링(1901)을 이용한 특정 대상 판별 처리에서, 지정 추출 대상색 정보(2203)를 이용하여 특정 대상의 클러스터의 특정(2301)을 행한다.FIG. 23 specifies 2301 of a cluster of a specific object using the specified extraction object color information 2203 in the specific object discrimination process using the clustering 1901 of FIG. 19.

지금까지 설명해 온 실시예는, 색 어긋남의 문제에 대해서뿐만 아니라, 색 흐릿함의 문제에 대해서도 유효하다. 도 24는, 기입 문자의 윤곽 부분이 옅은 색으로 되어 있는 색 흐릿함의 예이다. 도 24의 화상에 대하여, 윤곽색 변환 데이터 생성 처리를 행하면 도 25에 도시하는 윤곽색 변환 데이터(1303)가 생성된다. 윤곽색 변환 데이터(1303)에서는, 입력되는 컬러 화상(604) 내가 흐려져서 옅은 색의 부분이, 짙은 색으로 변환되어 있다. 이에 의해, 색 흐릿함이 있는 화상에 대해서도 고정밀도로 특정 대상을 추출하는 것이 가능하게 된다.The embodiment described so far is effective not only for the problem of color shift but also for the problem of color blur. 24 shows an example of color blurring in which the outline portion of the written character is light colored. When the outline color conversion data generation process is performed on the image of FIG. 24, the outline color conversion data 1303 shown in FIG. 25 is generated. In the outline color conversion data 1303, the inside of the color image 604 to be input is blurred, and the light color portion is converted into a dark color. Thereby, it becomes possible to extract a specific object with high precision also about the image with color blurring.

또한, 지금까지 설명해 온 실시예는, 컬러 문서가 입력된 경우뿐만 아니라, 색 흐릿함이 발생하는 휘도 화상이 입력된 경우에 대해서도 유효하다. 휘도 화상이 입력된 경우에는, 도 1의 실시예에서, 윤곽색 변환 데이터 생성 처리를 도 26에 도시하는 처리로 함으로써 대응할 수 있다.The embodiment described so far is effective not only when a color document is input but also when a luminance image in which color blur is generated is input. In the case where a luminance image is input, in the embodiment of Fig. 1, the outline color conversion data generation processing can be made by the process shown in Fig. 26.

도 26은, 휘도 화상(2604)과 배경 제거 데이터(605)가 입력되어, 휘도 화상의 저휘도 색 팽창 처리(2601)의 처리를, 휘도 화상(2604) 내의 배경 이외의 부분에서 1화소씩 행해간다. 그리고, 배경 이외의 부분, 즉 괘선과 자릿수선과 기입 문자의 부분에서, 휘도 화상(2604) 내의 휘도치가 변환된 데이터인 윤곽색 변환 데이터(1303)를 생성한다.FIG. 26 shows the luminance image 2604 and the background removal data 605, and the low luminance color expansion process 2601 of the luminance image is performed one pixel at a portion other than the background in the luminance image 2604. Goes. Then, in the parts other than the background, that is, the ruled lines, the number of digits, and the written characters, the outline color conversion data 1303, which is data obtained by converting the luminance values in the luminance image 2604, is generated.

 휘도 화상의 저휘도 색 팽창 처리(2601)에서는, 주목 화소와 근방 화소 중에서 가장 휘도치가 낮은 화소의 휘도치를 주목 화소의 휘도치로 변환한다.In the low luminance color expansion process 2601 of the luminance image, the luminance value of the pixel having the lowest luminance value among the pixel of interest and the neighboring pixel is converted into the luminance value of the pixel of interest.

도 1은 특정 대상 추출 처리의 구성을 도시하는 도면.1 is a diagram illustrating a configuration of a specific object extraction process.

도 2는 화상 처리 장치를 도시하는 도면.2 illustrates an image processing apparatus.

도 3은 컬러 화상의 예.3 is an example of a color image.

도 4는 배경 제거 데이터.4 is background removal data.

도 5는 특정 대상의 판별 결과.5 is a determination result of a specific target.

도 6은 배경 제거 데이터 생성 처리의 예를 도시하는 도면.6 is a diagram illustrating an example of background removal data generation processing;

도 7은 종래의 특정 대상 판별 처리를 도시하는 도면.7 is a diagram illustrating a conventional specific object discrimination process.

도 8은 괘선 추출 결과.8 is a ruled line extraction result.

도 9는 괘선 제거 결과.9 is the ruled line removal result.

도 10은 특정 대상 후보 추출 결과.10 shows a specific target candidate extraction result.

도 11은 기입 문자의 색 어긋남의 예.11 is an example of color shift of a written character.

도 12는 괘선의 색 어긋남의 예.12 is an example of color misalignment of ruled lines.

도 13은 윤곽색 변환 데이터 생성 처리의 예를 도시하는 도면.13 is a diagram illustrating an example of contour color conversion data generation processing.

도 14는 도 11의 화상의 윤곽색 변환 데이터 생성 처리를 도시하는 도면.FIG. 14 is a diagram illustrating contour color conversion data generation processing of the image of FIG. 11; FIG.

도 15는 도 12의 화상의 윤곽색 변환 데이터 생성 처리를 도시하는 도면.FIG. 15 is a diagram illustrating contour color conversion data generation processing of the image of FIG. 12; FIG.

도 16은 특정 대상 판별 처리를 도시하는 도면.16 is a diagram illustrating a specific object discrimination process.

도 17은 괘선색의 추정만을 이용한 특정 대상 판별 처리를 도시하는 도면.17 is a diagram showing a specific object discrimination process using only estimation of ruled color;

도 18은 특정 대상색의 추정만을 이용한 특정 대상 판별 처리를 도시하는 도면.18 is a diagram showing a specific object discrimination process using only the estimation of the specific object color;

도 19는 클러스터링을 이용한 특정 대상 판별 처리를 도시하는 도면.19 is a diagram illustrating a specific object discrimination process using clustering.

도 20은 색 어긋남 보정을 가한 특정 대상 추출 처리 프로그램의 구성을 도시하는 도면.20 is a diagram illustrating a configuration of a specific target extraction processing program to which color shift correction is applied.

도 21은 추출 대상색 지정 기능을 갖춘 특정 대상 추출 처리 프로그램의 구성을 도시하는 도면.Fig. 21 is a diagram showing the configuration of a specific target extraction processing program with an extraction target color specifying function.

도 22는 지정 추출 대상색을 포함하는 종특정 대상 판별 처리 프로그램을 도시하는 도면.Fig. 22 is a diagram showing a species-specific object discrimination processing program including a designated extraction object color.

도 23은 지정 추출 대상색을 포함하는 클러스터링을 이용한 특정 대상 판별 처리를 도시하는 도면.Fig. 23 is a diagram showing a specific object discrimination process using clustering including a specified extraction object color.

도 24는 색 흐릿함의 예를 도시하는 도면.24 illustrates an example of color blurring.

도 25는 색 흐릿함이 있는 화상에 대한 윤곽색 변환 데이터 생성 처리의 모습을 도시하는 도면.Fig. 25 is a diagram showing a state of contour color conversion data generation processing for an image with color blurring;

도 26은 휘도 화상 입력의 윤곽색 변환 데이터 생성 처리의 예를 도시하는 도면.Fig. 26 is a diagram showing an example of contour color conversion data generation processing of luminance image input.

도 27은 컬러 화상의 표시예.27 is a display example of a color image.

도 28은 특정 대상의 판별 결과의 표시예.28 is a display example of a determination result of a specific target.

<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>

101 : 화상 취득 모듈101: image acquisition module

102 : 배경 제거 데이터 생성 모듈102: background removal data generation module

103 : 윤곽색 변환 데이터 생성 모듈103: contour color conversion data generation module

104 : 특정 대상 판별 모듈104: specific target determination module

105 : 제어 모듈105: control module

Claims (15)

입력된 화상 정보로부터 배경을 제거하고, 배경 이외의 영역을 나타내는 배경 제거 데이터를 생성하는 수단과,Means for removing the background from the input image information and generating background removal data representing an area other than the background; 입력된 화상 정보의 배경 이외의 영역에서, 특정 대상에 관한 윤곽의 화소의 색 정보를, 상기 윤곽의 내측에 있는 화소의 색 정보로 변환한 색 변환 데이터를 생성하는 수단과,Means for generating color conversion data obtained by converting color information of a pixel of a contour relating to a specific object into color information of a pixel inside the contour in an area other than the background of the input image information; 상기 배경 제거 데이터 및 상기 색 변환 데이터를 기억하는 수단과,Means for storing the background removal data and the color conversion data; 상기 배경 제거 데이터로부터 특정 대상 후보를 선택하고, 상기 색 변환 데이터를 참조하여, 특정 대상 부분을 출력하는 특정 대상 판별의 수단Means for selecting a specific target from the background removal data and for outputting a specific target portion with reference to the color conversion data; 을 포함하는 것을 특징으로 하는 화상 처리 장치.Image processing apparatus comprising a. 제1항에 있어서,The method of claim 1, 상기 화상 정보는, 화상의 컬러 화상 정보 또는 휘도 정보인 것을 특징으로 하는 화상 처리 장치.And the image information is color image information or luminance information of an image. 제1항에 있어서,The method of claim 1, 상기 색 변환 데이터를 생성하는 수단에서는,In the means for generating the color conversion data, 상기 배경 이외의 영역을 나타내는 배경 제거 데이터로부터 복수의 화소를 포함하는 필드를 선택하고,Selects a field including a plurality of pixels from background removal data representing an area other than the background, 상기 필드 내의 화소의 휘도치를 생성하고,Generate luminance values of pixels in the field, 상기 필드 내의 주목 화소의 색 정보를 상기 필드 내의 화소에서 가장 낮은 휘도치를 갖는 화소의 색 정보로 변환한 색 변환 데이터를 생성하는 것을 특징으로 하는 화상 처리 장치.And color conversion data obtained by converting color information of the pixel of interest in the field into color information of a pixel having the lowest luminance value in the pixel in the field. 제1항에 있어서,The method of claim 1, 상기 화상 정보는, 외부 기억 장치에 기억된 정보, 화상 취득 장치에 의해 취득된 정보, 또는 통신 장치로부터 입력된 정보 중 어느 하나인 것을 특징으로 하는 화상 처리 장치.And the image information is any one of information stored in an external storage device, information acquired by an image acquisition device, or information input from a communication device. 제1항에 있어서,The method of claim 1, 상기 색 변환 데이터를 생성하는 수단은,The means for generating the color conversion data, 상기 화상 정보 상의 주목 화소를 설정하고, 주목 화소의 근방을 둘러싸는 필드 내의 화소인 근방 화소를 참조하고,Setting a pixel of interest on the image information and referring to a neighboring pixel that is a pixel in a field surrounding the vicinity of the pixel of interest, 상기 주목 화소의 색 정보가, 근방 화소와 주목 화소 중에서 가장 휘도치가 낮은 화소의 색 정보로 변환된 저휘도 색 팽창 휘도 데이터를 생성하는 것을 특징으로 하는 화상 처리 장치.And low-intensity color-expanded luminance data in which color information of the pixel of interest is converted to color information of a pixel having the lowest luminance value among neighboring pixels and pixel of interest. 제1항에 있어서,The method of claim 1, 상기 색 정보는, 적색 성분, 청색 성분, 적색 성분, 명도, 채도, 색상, 휘도 중 적어도 어느 하나 이상인 것을 특징으로 하는 화상 처리 장치.And the color information is at least one of red component, blue component, red component, brightness, saturation, hue, and luminance. 제1항에 있어서,The method of claim 1, 상기 배경 제거 데이터로부터 괘선 정보를 추출하는 수단과,Means for extracting ruled line information from the background removal data; 상기 배경 제거 데이터로부터 추출한 괘선 정보를 제거하는 수단과,Means for removing ruled line information extracted from the background removal data; 상기 괘선 정보가 제거된 배경 제거 데이터로부터 특정 대상 후보를 선택하고, 상기 색 변환 데이터를 참조하여, 특정 대상 부분을 출력하는 특정 대상 판별의 수단Means for determining a specific target from which the specific target candidate is selected from the background removal data from which the ruled information is removed, and outputting a specific target portion with reference to the color conversion data; 을 더 포함하는 것을 특징으로 하는 화상 처리 장치.The image processing apparatus further comprises. 기억 수단과, 화상 취득 수단과, 연산 수단과, 표시 수단을 포함하는 처리 장치를 이용하여,By using a processing apparatus including a storage means, an image acquisition means, arithmetic means, and display means, 상기 화상 취득 수단으로부터 입력된 화상 정보로부터 배경을 제거하고, 배경 이외의 영역을 나타내는 배경 제거 데이터를 생성하는 공정과,Removing a background from the image information input from said image acquisition means, and generating background removal data representing an area other than the background; 입력된 화상 정보의 배경 이외의 영역에서, 특정 대상에 관한 윤곽의 화소의 색 정보를, 상기 윤곽의 내측에 있는 화소의 색 정보로 변환한 색 변환 데이터를 생성하는 공정과,Generating color conversion data obtained by converting color information of a pixel of a contour of a specific object into color information of a pixel inside the contour, in an area other than the background of the input image information; 상기 배경 제거 데이터 및 색 변환 데이터를 기억 수단에 기억하는 공정과,Storing the background removal data and the color conversion data in a storage means; 상기 기억 수단에 기억된 배경 제거 데이터로부터 특정 대상 후보를 선택하고, 상기 색 변환 데이터를 참조하여, 특정 대상 부분을 상기 표시 수단에 출력하 는 특정 대상 판별의 공정A process of specific object discrimination which selects a specific object candidate from the background removal data stored in said storage means, and outputs a specific object portion to said display means with reference to said color conversion data. 을 포함하는 것을 특징으로 하는 화상 처리 방법.Image processing method comprising a. 제8항에 있어서,The method of claim 8, 상기 화상 정보는, 화상의 컬러 화상 정보 또는 휘도 정보인 것을 특징으로 하는 화상 처리 방법.And the image information is color image information or luminance information of an image. 제8항에 있어서,The method of claim 8, 상기 색 변환 데이터를 생성하는 공정에서는,In the step of generating the color conversion data, 상기 배경 이외의 화상 정보를 나타내는 배경 제거 데이터로부터 복수의 화소를 포함하는 필드를 선택하고,Selecting a field including a plurality of pixels from background removal data representing image information other than the background, 필드 내의 화소의 휘도치를 생성하고,Generate the luminance values of the pixels in the field, 필드 내의 주목 화소의 휘도치를 필드 내의 화소에서 가장 낮은 휘도치로 변환된 색 변환 데이터를 생성하는 것을 특징으로 하는 화상 처리 방법.And generating color conversion data in which the luminance value of the pixel of interest in the field is converted to the lowest luminance value in the pixel in the field. 제8항에 있어서,The method of claim 8, 상기 화상 정보는, 외부 기억 장치에 기억된 정보, 화상 취득 장치에 의해 취득된 정보, 또는 통신 장치로부터 입력된 정보 중 어느 하나인 것을 특징으로 하는 화상 처리 방법.The image information is any one of information stored in an external storage device, information acquired by an image acquisition device, or information input from a communication device. 제8항에 있어서,The method of claim 8, 상기 색 변환 데이터를 생성하는 공정에서는,In the step of generating the color conversion data, 필드 내의 주목 화소에 대하여, 필드 내의 주목 화소 이외의 화소인 근방 화소를 참조하고,Regarding the pixel of interest in the field, reference is made to nearby pixels which are pixels other than the pixel of interest in the field, 상기 주목 화소의 색 정보가, 근방 화소와 주목 화소 중에서 가장 휘도치가 낮은 화소의 색 정보로 변환된 저휘도 색 팽창 휘도 데이터를 생성하는 것을 특징으로 하는 화상 처리 방법.And low-intensity color expansion luminance data in which color information of the pixel of interest is converted into color information of a pixel having the lowest luminance value among the neighboring pixel and the pixel of interest. 제8항에 있어서,The method of claim 8, 상기 색 정보는, 적색 성분, 청색 성분, 적색 성분, 명도, 채도, 색상, 휘도 중 적어도 어느 하나 이상인 것을 특징으로 하는 화상 처리 방법.And the color information is at least one of a red component, a blue component, a red component, brightness, saturation, hue, and luminance. 제8항에 있어서,The method of claim 8, 상기 배경 제거 데이터로부터 괘선 정보를 추출하는 공정과,Extracting ruled line information from the background removal data; 상기 배경 제거 데이터로부터 추출한 괘선 정보를 제거하는 공정과,Removing ruled line information extracted from the background removal data; 상기 괘선 정보가 제거된 배경 제거 데이터로부터 특정 대상 후보를 선택하고, 상기 색 변환 데이터를 참조하여, 특정 대상 부분을 출력하는 특정 대상 판별의 공정A process of determining a specific target by selecting a specific target candidate from the background removing data from which the ruled information is removed and referring to the color conversion data to output a specific target portion. 을 더 포함하는 것을 특징으로 하는 화상 처리 방법.The image processing method further comprises. 화상 처리를 하기 위해 컴퓨터를,Computer for image processing, 화상 취득 수단으로부터 입력된 화상 정보로부터 배경을 제거하고, 배경 이외의 영역을 나타내는 배경 제거 데이터를 생성하는 수단,Means for removing the background from the image information input from the image acquisition means and generating background removal data representing an area other than the background; 입력된 화상 정보의 배경 이외의 영역에서, 특정 대상에 관한 윤곽의 화소의 색 정보를, 상기 윤곽의 내측에 있는 화소의 색 정보로 변환한 색 변환 데이터를 생성하는 수단,Means for generating color conversion data obtained by converting color information of pixels of an outline relating to a specific object into color information of a pixel inside the outline, in an area other than the background of the input image information; 상기 배경 제거 데이터 및 색 변환 데이터를 기억 수단에 기억하는 수단,Means for storing said background removal data and color conversion data in a storage means, 상기 기억 수단에 기억된 배경 제거 데이터로부터 특정 대상 후보를 선택하고, 상기 색 변환 데이터를 참조하여, 특정 대상 부분을 상기 표시 수단에 출력하는 특정 대상 판별의 수단Means for determining a specific target from the background removal data stored in the storage means, and for outputting the specific target portion to the display means with reference to the color conversion data. 으로서 기능시키기 위한 화상 처리 프로그램.An image processing program for functioning as a system.
KR1020080013550A 2007-04-25 2008-02-14 Image processing device, image processing method and recording medium KR101461233B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JPJP-P-2007-00114988 2007-04-25
JP2007114988A JP4857173B2 (en) 2007-04-25 2007-04-25 Image processing apparatus, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
KR20080095743A true KR20080095743A (en) 2008-10-29
KR101461233B1 KR101461233B1 (en) 2014-11-12

Family

ID=40048876

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080013550A KR101461233B1 (en) 2007-04-25 2008-02-14 Image processing device, image processing method and recording medium

Country Status (4)

Country Link
JP (1) JP4857173B2 (en)
KR (1) KR101461233B1 (en)
CN (1) CN101295359B (en)
TW (1) TWI350997B (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2534005C2 (en) * 2013-02-01 2014-11-27 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." Method and system for converting screenshot into metafile

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5127739B2 (en) * 2009-02-06 2013-01-23 キヤノン株式会社 Image processing method, image processing apparatus, and program
JP5337563B2 (en) * 2009-04-08 2013-11-06 日立コンピュータ機器株式会社 Form recognition method and apparatus
CN101916327B (en) * 2010-07-09 2011-11-09 北京商纳科技有限公司 Method and system for generating wrong answer list
JP5867045B2 (en) * 2011-12-12 2016-02-24 富士ゼロックス株式会社 Image processing apparatus and program
JP6250793B2 (en) * 2014-04-16 2017-12-20 グローリー株式会社 Method and apparatus for removing character background from color image
JP6779688B2 (en) * 2016-07-25 2020-11-04 キヤノン株式会社 Image processing equipment, image processing method, computer program
CN106228157B (en) * 2016-07-26 2018-03-27 江苏鸿信系统集成有限公司 Coloured image word paragraph segmentation and recognition methods based on image recognition technology
CN106599818B (en) * 2016-12-07 2020-10-27 广州视源电子科技股份有限公司 Method and device for generating handwriting format file based on picture
US10602026B2 (en) * 2017-06-20 2020-03-24 Fuji Xerox Co., Ltd. Image processing apparatus, image processing method, and non-transitory computer readable medium
JP6958096B2 (en) * 2017-08-10 2021-11-02 富士フイルムビジネスイノベーション株式会社 Information processing equipment and programs
JP7059799B2 (en) * 2018-05-23 2022-04-26 富士フイルムビジネスイノベーション株式会社 Information processing equipment and programs
CN110895696A (en) * 2019-11-05 2020-03-20 泰康保险集团股份有限公司 Image information extraction method and device
CN113083804A (en) * 2021-04-25 2021-07-09 中国铁建重工集团股份有限公司 Laser intelligent derusting method and system and readable medium

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58142675A (en) * 1982-02-18 1983-08-24 Sanyo Electric Co Ltd Color picture processing system
JP3048158B2 (en) * 1988-10-04 2000-06-05 キヤノン株式会社 Color image processing equipment
JP2746692B2 (en) * 1989-10-09 1998-05-06 富士通株式会社 Color image data processing device
JPH0414960A (en) * 1990-05-09 1992-01-20 Fujitsu Ltd Color picture reader
JPH06266816A (en) * 1993-03-12 1994-09-22 Fujitsu Ltd Method and device for processing color picture
JP3923293B2 (en) * 2000-11-22 2007-05-30 シャープ株式会社 Image processing method, image processing apparatus, and image forming apparatus
JP4141310B2 (en) * 2003-04-16 2008-08-27 株式会社リコー Image processing apparatus, image processing method, and program executed by computer
JP4423076B2 (en) * 2004-03-22 2010-03-03 キヤノン株式会社 Recognition object cutting apparatus and method
JP2006042267A (en) * 2004-07-30 2006-02-09 Canon Inc Image processing method, image processor, and program
JP4127691B2 (en) * 2004-10-04 2008-07-30 株式会社東芝 Character recognition apparatus and method
TWI309026B (en) * 2005-04-12 2009-04-21 Newsoft Technology Corp Method for auto-cropping image objects and method for detecting image object contour
KR20060109211A (en) * 2005-04-15 2006-10-19 삼성전자주식회사 Av system and bitmap font outline producing method of the av system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2534005C2 (en) * 2013-02-01 2014-11-27 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." Method and system for converting screenshot into metafile

Also Published As

Publication number Publication date
TWI350997B (en) 2011-10-21
CN101295359A (en) 2008-10-29
CN101295359B (en) 2010-09-29
JP4857173B2 (en) 2012-01-18
JP2008269509A (en) 2008-11-06
TW200842734A (en) 2008-11-01
KR101461233B1 (en) 2014-11-12

Similar Documents

Publication Publication Date Title
KR20080095743A (en) Image processing program and image processing device
US8619278B2 (en) Printed matter examination apparatus, printed matter examination method, and printed matter examination system
JP5830338B2 (en) Form recognition method and form recognition apparatus
JP2009031876A (en) Image processor, image forming device and image reader therewith, image processing method, image processing program and recording medium recording image processing program
CN112446864A (en) Flaw detection method, flaw detection device, flaw detection equipment and storage medium
EP3407589B1 (en) Image processing apparatus, image processing method, and storage medium
US10887491B2 (en) Image processing apparatus for processing of highlighted regions
KR102158633B1 (en) A method for extraction of a registered seal impression from a document
CN101197913B (en) Image processing apparatus and control method
JPH11272864A (en) Optical character read method or its device
JP5975945B2 (en) Image processing device
JP2014071556A (en) Image processor, image processing method, and program
JP5929282B2 (en) Image processing apparatus and image processing program
JP6540597B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
JP7451159B2 (en) Image processing device, image processing method, and program
JP3955467B2 (en) Image processing program and image processing apparatus
JP2021077395A (en) Determination device and program
JP4571758B2 (en) Character recognition device, character recognition method, image processing device, image processing method, and computer-readable recording medium
JP2871570B2 (en) Character recognition apparatus and method
US11563871B2 (en) Information processing apparatus, control method, and product performing multiplexing processing changing a component in different color spaces with respect to printing and non-printing areas
JP2001109842A (en) Optical character, reader
EP4134868A1 (en) Information code, information code generation device, information code readout device, program, and information code utilization system
JP2851060B2 (en) Color identification device
JP2022167414A (en) Image processing device, image processing method, and program
JP2000251072A (en) Color document reader and read result display method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20171018

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20181023

Year of fee payment: 5