JP2001127999A - Device and method for processing image - Google Patents

Device and method for processing image

Info

Publication number
JP2001127999A
JP2001127999A JP30182299A JP30182299A JP2001127999A JP 2001127999 A JP2001127999 A JP 2001127999A JP 30182299 A JP30182299 A JP 30182299A JP 30182299 A JP30182299 A JP 30182299A JP 2001127999 A JP2001127999 A JP 2001127999A
Authority
JP
Japan
Prior art keywords
unit
label
area
pixel
line segment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP30182299A
Other languages
Japanese (ja)
Other versions
JP3918381B2 (en
JP2001127999A5 (en
Inventor
Toshiya Koyama
俊哉 小山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP30182299A priority Critical patent/JP3918381B2/en
Publication of JP2001127999A publication Critical patent/JP2001127999A/en
Publication of JP2001127999A5 publication Critical patent/JP2001127999A5/ja
Application granted granted Critical
Publication of JP3918381B2 publication Critical patent/JP3918381B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve a problem that a character written on a color area is not extracted as an image area separation result, since the whole area is extracted by dot concerning the character which is written on the color area such as blue by which the dot is extracted, etc., in image area separation. SOLUTION: A foreground is separated from a background by a binarizing part 11 first concerning input image data and a processing is executed to extract the segment of a width for the portion of prescribed pixels by a segment- extracting part 12. A label part 13 gives the same label to the connected pixels adopted as the foreground in the binarizing part 11, an image feature amount is calculate by a label feature amount calculating part 14 at every label area to which the same label is given and the attribute of the label area is determined by a first attribute determining part 16 from the label feature amount at every label area. Then the segment extracted by the segment extracting part 12 is corrected in a segmentcorrecting part 17 through the use of an attribute determination result by the first attribute determining part 16 at every label area labelled by the labelling part 13.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、複写機やファクシ
ミリなどの画像処理装置およびその処理方法に関し、特
に原稿に含まれる文字領域と絵柄領域を自動的に判別・
分離し、各領域に適した画像処理を行う画像処理装置お
よび画像処理方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus such as a copying machine or a facsimile, and a processing method therefor.
The present invention relates to an image processing apparatus and an image processing method that separate and perform image processing suitable for each area.

【0002】[0002]

【従来の技術】複写機やファクシミリなどの画像処理装
置において、入力された画像に文字や線画などの文字領
域と、写真や絵柄などの絵柄領域が混在していた場合、
その画像を再生するときには文字領域と絵柄領域を分離
し、文字領域には解像度を重視した処理を、絵柄領域に
は階調性を重視した処理を施すことが画像品質の面から
望ましい。また、上記のような画像データを伝送する場
合にも、文字領域と絵柄領域を分離し、それぞれに対し
て異なった手法で圧縮処理を行った方が、画像品質およ
び圧縮率の面から望ましい。
2. Description of the Related Art In an image processing apparatus such as a copying machine or a facsimile, when an input image includes a character area such as a character or a line drawing and a picture area such as a photograph or a picture,
When reproducing the image, it is desirable from the viewpoint of image quality to separate the character area from the picture area, and to perform the processing emphasizing the resolution on the character area and the processing emphasizing the gradation on the picture area. Also in the case of transmitting the image data as described above, it is desirable to separate the character area and the picture area and to perform compression processing on each of them by different methods from the viewpoint of image quality and compression ratio.

【0003】具体的には、スキャナ等によって読み取ら
れた画像、あるいはファクシミリ等で送信されてきた、
文字・線画・写真・網点等の混在した画像をハードコピ
ーする場合、文字・線画などの文字領域に対しては解像
度を重視した処理を施し、写真・網点などの絵柄領域に
対しては階調性を重視した処理を施すことにより、高画
質な再生画像を得ることが可能となる。
[0003] Specifically, an image read by a scanner or the like, or transmitted by facsimile or the like,
When making a hard copy of an image containing a mixture of characters, line drawings, photos, and halftone dots, processing that emphasizes resolution is applied to character regions such as characters and line drawings, and to image regions such as photos and halftone dots. By performing the process with emphasis on gradation, a high-quality reproduced image can be obtained.

【0004】また、文字・線画・写真・網点等の混在し
た画像を、ネットワークを介して離れた場所にある画像
出力装置に転送する場合、文字領域と絵柄領域を分離
し、それぞれの領域に対して異なった手法で圧縮処理を
行った方が、高画質で小容量の画像データを得ることが
できるため、速い転送速度・高画質な再生画像を得るこ
とができる。
When an image including characters, line drawings, photographs, halftone dots, and the like is transferred to an image output device at a remote place via a network, a character area and a picture area are separated from each other. On the other hand, when the compression processing is performed by a different method, high-quality and small-capacity image data can be obtained, so that a high-speed transfer speed and high-quality reproduced image can be obtained.

【0005】ここで、上記のような解像度重視・階調性
重視の処理を画像の各領域によって適応的に処理するた
めには、画像に含まれる文字領域・絵柄領域を精度良く
分離する必要がある。以下、文字領域・絵柄領域の分離
のことを像域分離と言う。この像域分離には関しては、
従来、種々の提案がなされている。
Here, in order to adaptively process the above-described processing with emphasis on resolution and gradation, depending on each area of an image, it is necessary to accurately separate a character area and a picture area included in the image. is there. Hereinafter, the separation between the character area and the picture area is referred to as image area separation. Regarding this image area separation,
Conventionally, various proposals have been made.

【0006】例えば、画像をある一定の大きさのブロッ
クに分割し、各分割ブロックごとにそのブロックに含ま
れる画素の最大濃度と最小濃度を求めるとともに、最大
濃度と最小濃度の差をあらかじめ決められた閾値と比較
し、当該閾値よりも大きいブロックは文字領域、小さい
ブロックは絵柄領域と判定する方法(以下、第1従来技
術と称す)や、注目画素を中心とした局所オペレータ
(フィルタ)を用い、フィルタリング結果をあらかじめ
決められた閾値と比較し、閾値よりも大きい画素は文字
領域画素、小さい画素は絵柄領域画素と判定する方法
(以下、第2従来技術と称す)などがある。
For example, an image is divided into blocks of a certain size, the maximum density and the minimum density of the pixels included in each divided block are determined, and the difference between the maximum density and the minimum density is determined in advance. In comparison with the threshold, a block larger than the threshold is determined as a character area, and a block smaller than the threshold is determined as a picture area (hereinafter referred to as a first related art), or a local operator (filter) centering on a pixel of interest. There is a method of comparing a filtering result with a predetermined threshold, and determining a pixel larger than the threshold as a character area pixel and a pixel smaller than the threshold as a picture area pixel (hereinafter, referred to as a second conventional technique).

【0007】さらに、上記のように1種類の方法、即ち
第1,第2従来技術の一方だけを用いて像域分離を行う
のではなく、文字領域を抽出する処理や絵柄領域を抽出
する処理などの複数の処理を行い、各処理結果から精度
良く像域分離を行う手法(以下、第3従来技術と称す)
も提案されている(特開平2−294885号公報参
照)。この第3従来技術について、図38を用いて簡単
に説明する。
Further, as described above, instead of performing image area separation using only one of the first and second prior arts, processing for extracting a character area or processing for extracting a picture area is performed. (Hereinafter, referred to as a third conventional technique) in which a plurality of processes such as the above are performed, and an image area is separated from each processing result with high accuracy.
Has also been proposed (see JP-A-2-294885). This third related art will be briefly described with reference to FIG.

【0008】図38において、入力された画像信号は、
文字抽出部101、網点抽出部102および輪郭抽出部
102に供給される。文字抽出部101は、入力された
画像信号から画素単位に文字領域の判定を行い、その判
定結果を出力する。網点抽出部102は、画素単位に網
点領域の判定を行い、その判定結果を出力する。文字抽
出部101と網点抽出部102の各判定結果は、論理和
演算部104において画素単位に論理和演算が行われた
後、誤判定除去部105に供給される。誤判定除去部1
05においては、文字抽出結果の補正処理が行われる。
In FIG. 38, the input image signal is
It is supplied to the character extraction unit 101, the halftone dot extraction unit 102, and the contour extraction unit 102. The character extracting unit 101 determines a character area on a pixel-by-pixel basis from an input image signal, and outputs a result of the determination. The halftone dot extraction unit 102 determines a halftone dot area for each pixel, and outputs the determination result. The determination results of the character extracting unit 101 and the halftone dot extracting unit 102 are supplied to the erroneous determination removing unit 105 after the logical OR operation is performed for each pixel in the logical OR operation unit 104. Misjudgment removal unit 1
At 05, the character extraction result is corrected.

【0009】次に、誤判定除去部105と輪郭抽出部1
03の各出力結果は、論理積演算部106において画素
単位で論理積演算が行われた後、輪郭再生成部107に
供給される。輪郭再生成部107においては、論理積演
算部106の論理積演算結果に対して文字・線画の輪郭
補正が行われる。そして、この輪郭再生成部107の出
力結果を像域分離結果とすることにより、精度の高い像
域分離を行うことができる。
Next, the erroneous judgment removing unit 105 and the contour extracting unit 1
Each output result of No. 03 is supplied to the contour regenerating unit 107 after the logical product operation is performed for each pixel in the logical product operation unit 106. In the contour regenerating unit 107, the contour of the character / line image is corrected for the result of the logical product operation of the logical product calculation unit 106. By using the output result of the contour regeneration unit 107 as the image area separation result, highly accurate image area separation can be performed.

【0010】[0010]

【発明が解決しようとする課題】しかしながら、上記第
1従来技術の場合は、ブロック単位に像域分離が行われ
るため、文字・線画の輪郭部の像域判定結果が入力画像
に忠実な判定結果とはならい。また、上記第2従来技術
の場合は、画像中に含まれるエッジを抽出する手法であ
るため、ノイズを抽出したり、絵柄中に含まれるエッジ
を抽出しやすいという課題がある。
However, in the case of the first prior art, since the image area separation is performed in block units, the image area determination result of the outline portion of the character / line drawing is faithful to the input image. It is not. Further, in the case of the second prior art, since it is a method of extracting an edge contained in an image, there is a problem that it is easy to extract noise or an edge contained in a picture.

【0011】これに対して、上記第3従来技術の場合
は、絵柄中でのエッジの誤抽出が少ない、文字・線画の
輪郭部は入力画像に忠実な抽出結果となる、など比較的
優れた手法である。しかしながら、色背景領域上に書か
れた文字が抽出できない、例えば図38における網点抽
出部102で抽出可能な水色などの色領域上に書かれた
文字などは、その領域全体が網点抽出部102もしくは
文字抽出部101で抽出されてしまうため、色領域上に
書かれた文字を像域分離結果として抽出することができ
ない、という課題がある。
On the other hand, in the case of the above third prior art, there are few erroneous extractions of edges in a picture, and the outline of a character or a line drawing has an extraction result faithful to an input image. Method. However, the characters written on the color background area cannot be extracted. For example, characters written on a color area such as light blue that can be extracted by the halftone dot extraction unit 102 in FIG. There is a problem that a character written on a color region cannot be extracted as an image area separation result because the character is extracted by the character extraction unit 102 or the character extraction unit 101.

【0012】本発明は、上記した従来技術の課題を解決
するためになされたものであり、その目的とするところ
は、背景色を問わずに入力画像に対して忠実に文字・線
画を抽出し、かつ絵柄領域中での誤抽出の無い、高精度
な像域分離処理を行うことが可能な画像処理装置および
画像処理方法を提供することにある。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems of the prior art. It is an object of the present invention to accurately extract characters and line drawings from an input image regardless of the background color. Another object of the present invention is to provide an image processing apparatus and an image processing method capable of performing high-accuracy image area separation processing without causing erroneous extraction in a picture area.

【0013】[0013]

【課題を解決するための手段】本発明による画像処理装
置は、画像データを入力する入力手段と、この入力手段
によって入力された画像データに対して前景と背景を分
離する処理を行う2値化手段と、入力画像データに対し
て所定画素数分の幅の線分を抽出する線分抽出手段と、
2値化手段によって前景とされた連結する画素に対して
同一のラベルを付与するラベリング手段と、このラベリ
ング手段において同一ラベルが付与されたラベル領域ご
とに、該ラベル領域の画像特徴量を算出するラベル特徴
量算出手段と、このラベル特徴量算出手段によって算出
されたラベル領域ごとのラベル特徴量から該ラベル領域
の属性を判定する属性判定手段と、この属性判定手段に
よるラベル領域ごとの属性判定結果を用いて、線分抽出
手段によって抽出された線分の補正を行う線分補正手段
とを具備する構成となっている。
According to the present invention, there is provided an image processing apparatus comprising: input means for inputting image data; and binarization for performing processing for separating a foreground and a background from the image data input by the input means. Means, a line segment extracting means for extracting a line segment having a width of a predetermined number of pixels from the input image data,
Labeling means for assigning the same label to the pixels connected to the foreground by the binarizing means, and for each label area to which the same label has been assigned by the labeling means, the image feature amount of the label area is calculated. Label feature calculation means, attribute determination means for determining the attribute of the label area from the label feature for each label area calculated by the label feature calculation means, and attribute determination result for each label area by the attribute determination means And a line segment correction unit that corrects the line segment extracted by the line segment extraction unit.

【0014】上記構成の画像処理装置において、先ず、
入力手段は、2値化手段および線分抽出手段に対して画
像データを入力する。すると、2値化手段は入力された
画像データを前景と背景に分離し、その分離結果をラベ
リング手段に与え、また線分抽出手段は所定画素数分の
幅の線分を抽出し、その抽出結果を線分補正手段に与え
る。ラベリング手段は、2値化手段によって前景とされ
た連結する画素に対して同一のラベルを付与してラベル
特徴量算出手段に与える。すると、ラベル特徴量算出手
段は、同一ラベルが付与されたラベル領域ごとに、該ラ
ベル領域の画像特徴量を算出して属性判定手段に与え
る。属性判定手段は、ラベル領域ごとのラベル特徴量か
ら該ラベル領域の属性を判定し、その判定結果を線分補
正手段に与える。そして、線分補正手段では、ラベル領
域ごとの属性判定結果を用いて、線分抽出手段によって
抽出された線分の補正を行う。
In the image processing apparatus having the above configuration, first,
The input unit inputs image data to the binarizing unit and the line segment extracting unit. Then, the binarization means separates the input image data into a foreground and a background, and gives the separation result to a labeling means. The line segment extraction means extracts a line segment having a width of a predetermined number of pixels, and extracts the line segment. The result is given to the line segment correcting means. The labeling means assigns the same label to the connected pixels that have been set to the foreground by the binarization means, and provides the same to the label feature quantity calculating means. Then, for each label area to which the same label has been assigned, the label feature quantity calculating means calculates the image feature quantity of the label area and gives it to the attribute determining means. The attribute determination means determines the attribute of the label area from the label feature amount for each label area, and provides the determination result to the line segment correction means. Then, the line segment correction unit corrects the line segment extracted by the line segment extraction unit using the attribute determination result for each label area.

【0015】[0015]

【発明の実施の形態】以下、本発明の実施の形態につい
て図面を参照して詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0016】図1は、本発明に係る画像処理装置の基本
的な構成の概略を示すブロック図である。図1から明ら
かなように、本発明に係る画像処理装置は、画像入力部
1、データ記憶部2、演算処理部3、係数記憶部4、階
調補正部5、色信号変換部6、空間フィルタ部7、画像
出力部8および像域分離部9を有し、これら各処理部が
バスライン10を介して相互に接続された構成となって
いる。
FIG. 1 is a block diagram showing an outline of a basic configuration of an image processing apparatus according to the present invention. As apparent from FIG. 1, the image processing apparatus according to the present invention includes an image input unit 1, a data storage unit 2, an arithmetic processing unit 3, a coefficient storage unit 4, a gradation correction unit 5, a color signal conversion unit 6, a space It has a filter unit 7, an image output unit 8, and an image area separation unit 9, and these processing units are connected to each other via a bus line 10.

【0017】上記構成の画像処理装置において、画像入
力部1はCCD撮像素子などの光電変換素子によって構
成されるイメージスキャナなどであり、原稿の画像を読
み取り、電気的なディジタル画像信号に変換して出力す
る。なお、この画像入力部1によって読み取られ、変換
されたディジタル画像信号は、解像度400dpi、各
色8ビットのRGBカラー画像信号であるものとして、
以下の説明を行う。
In the image processing apparatus having the above configuration, the image input section 1 is an image scanner or the like constituted by a photoelectric conversion element such as a CCD image pickup element, and reads an image of a document and converts it into an electric digital image signal. Output. The digital image signal read and converted by the image input unit 1 is an RGB color image signal having a resolution of 400 dpi and 8 bits for each color.
The following is described.

【0018】データ記憶部2は、画像入力部1によって
入力された画像データ、各処理部によって画像処理が行
われた画像データ、あるいは各処理部によって算出され
た処理結果などを記憶する。演算処理部3は、各装置の
制御や各部の処理の演算を行う。係数記憶部4は、各部
の処理に必要な係数を記憶しており、演算処理部3から
の指示などによってその係数が読み出される。
The data storage unit 2 stores image data input by the image input unit 1, image data on which image processing has been performed by each processing unit, processing results calculated by each processing unit, and the like. The arithmetic processing unit 3 performs control of each device and calculation of processing of each unit. The coefficient storage unit 4 stores coefficients necessary for processing of each unit, and the coefficients are read out by an instruction from the arithmetic processing unit 3 or the like.

【0019】画像入力部1から出力されデータ記憶部2
に記憶された画像データ(RGB各色8ビット)は、演
算処理部3の指示によって階調補正部5に読み出され、
この階調補正部5において画像の階調補正が行われる。
その際、演算処理部3の指示によって係数記憶部4から
入力階調補正係数が読み出され、入力階調補正係数を用
いて階調補正が行われる。階調補正部5によって階調補
正の行われた画像データは、データ記憶部2に記憶され
る。
Data storage unit 2 output from image input unit 1
The image data (8 bits for each color of RGB) stored in is stored in the gradation correction unit 5 in accordance with an instruction from the arithmetic processing unit 3,
The gradation correction section 5 performs gradation correction of the image.
At this time, an input tone correction coefficient is read from the coefficient storage unit 4 according to an instruction from the arithmetic processing unit 3, and tone correction is performed using the input tone correction coefficient. The image data on which the gradation correction has been performed by the gradation correction unit 5 is stored in the data storage unit 2.

【0020】階調補正部5から出力されデータ記憶部2
に記憶された画像データは、演算処理部3の指示によっ
て色信号変換部6に読み出され、この色信号変換部6に
おいてRGB画像信号から他の色信号(例えば、L*
* * 画像信号)に変換される。その際、演算処理部3
の指示によって係数記憶部4から、RGB画像信号から
* * * 画像信号への色信号変換係数が読み出さ
れ、その色信号変換係数を用いて色信号変換が行われ
る。色信号変換部6によって色信号変換の行われた画像
データは、データ記憶部2に記憶される。
The data storage unit 2 output from the gradation correction unit 5
Is read out by the color signal conversion unit 6 according to an instruction from the arithmetic processing unit 3, and the color signal conversion unit 6 converts the RGB image signal into another color signal (for example, L * a).
* b * image signal). At that time, the arithmetic processing unit 3
, A color signal conversion coefficient from the RGB image signal to the L * a * b * image signal is read from the coefficient storage unit 4, and the color signal conversion is performed using the color signal conversion coefficient. The image data subjected to the color signal conversion by the color signal conversion unit 6 is stored in the data storage unit 2.

【0021】色信号変換部6から出力され、データ記憶
部2に記憶された画像データ、および後述する像域分離
部9において像域分離の行われた画像データは、演算処
理部3の指示によって色信号変換部6に読み出され、像
域分離部9で像域分離の行われた画像データに応じて画
素ごとに色信号変換係数を切り替えながら、L* *
* 画像信号から出力色信号(例えば、YMCK画像信
号)に変換される。その際、演算部3の指示によって係
数記憶部4から、L* * * 画像信号からYMCK画
像信号への色信号変換係数が読み出されており、その色
信号変換係数を用いて色信号変換が行われる。色信号変
換部6によって色変換の行われた画像データは、データ
記憶部2に記憶される。
The image data output from the color signal conversion unit 6 and stored in the data storage unit 2, and the image data subjected to image area separation in an image area separation unit 9, which will be described later, are transmitted by an instruction from the arithmetic processing unit 3. L * a * b while switching the color signal conversion coefficient for each pixel in accordance with the image data read by the color signal conversion unit 6 and subjected to image area separation by the image area separation unit 9.
* Converted from an image signal to an output color signal (for example, a YMCK image signal). At this time, the color signal conversion coefficient from the L * a * b * image signal to the YMCK image signal is read from the coefficient storage unit 4 according to the instruction of the arithmetic unit 3, and the color signal conversion coefficient is used by using the color signal conversion coefficient. Conversion is performed. The image data subjected to the color conversion by the color signal conversion unit 6 is stored in the data storage unit 2.

【0022】色信号変換部6から出力されデータ記憶部
2に記憶された画像データ、および後述する像域分離部
9において像域分離の行われた画像データは、演算処理
部3の指示によって空間フィルタ部7に読み出され、像
域分離部9で像域分離の行われた画像データに応じて画
素ごとにフィルタリング係数を切り替えながら、空間フ
ィルタリング処理が施される。その際、演算処理部3の
指示によって係数記憶部4からフィルタリング係数が読
み出されており、そのフィルタリング係数を用いて空間
フィルタリング処理が行われる。空間フィルタ部7によ
って空間フィルタリング処理の行われた画像データは、
データ記憶部2に記憶される。
The image data output from the color signal conversion unit 6 and stored in the data storage unit 2 and the image data subjected to image area separation in an image area separation unit 9 described later are spatially The spatial filtering process is performed while switching the filtering coefficient for each pixel in accordance with the image data read out by the filter unit 7 and subjected to the image area separation by the image area separation unit 9. At this time, a filtering coefficient is read from the coefficient storage unit 4 according to an instruction from the arithmetic processing unit 3, and a spatial filtering process is performed using the filtering coefficient. The image data subjected to the spatial filtering process by the spatial filter unit 7 is
The data is stored in the data storage unit 2.

【0023】空間フィルタ部7から出力されデータ記憶
部2に記憶された画像データ、および後述する像域分離
部9において像域分離の行われた画像データは、演算処
理部3の指示によって階調補正部5に読み出され、像域
分離部9で像域分離の行われた画像データに応じて画素
ごとに出力階調補正係数を切り替えながら、出力階調補
正処理が行われる。その際、演算処理部3の指示によっ
て係数記憶部4から出力階調補正係数が読み出されてお
り、その出力階調補正係数を用いて出力階調補正が行わ
れる。階調補正部5によって出力階調補正の行われた画
像データは、データ記憶部2に記憶される。
The image data output from the spatial filter unit 7 and stored in the data storage unit 2, and the image data subjected to image area separation in the image area separation unit 9, which will be described later, The output gradation correction processing is performed while switching the output gradation correction coefficient for each pixel in accordance with the image data read out by the correction unit 5 and subjected to the image area separation by the image area separation unit 9. At this time, the output gradation correction coefficient is read from the coefficient storage unit 4 according to the instruction of the arithmetic processing unit 3, and the output gradation correction is performed using the output gradation correction coefficient. The image data on which the output gradation correction has been performed by the gradation correction unit 5 is stored in the data storage unit 2.

【0024】階調補正部5から出力されデータ記憶部2
に記憶されたYMCK画像データ、および後述する像域
分離部9において像域分離の行われた画像データは、演
算処理部3の指示によって画像出力部8に読み出され、
像域分離部9で像域分離の行われた画像データに応じて
画素ごとに例えばスクリーンなどが切り替えられること
によって画像が出力される。
The data storage unit 2 output from the gradation correction unit 5
Are read out to the image output unit 8 in accordance with an instruction from the arithmetic processing unit 3, and the YMCK image data stored in the
An image is output by, for example, switching a screen or the like for each pixel in accordance with the image data on which the image area separation has been performed by the image area separation unit 9.

【0025】また、色信号変換部6から出力されデータ
記憶部2に記憶されたL* * *画像データは、演算
処理部3の指示によって像域分離部9に読み出され、像
域分離処理が行われる。その際、演算処理部3の指示に
よって係数記憶部4から像域分離係数が読み出されてお
り、その像域分離係数を用いて像域分離処理が行われ
る。像域分離部9によって像域分離の行われた画像デー
タは、データ記憶部2に記憶される。このデータ記憶部
2に記憶された像域分離の行われた画像データを用い
て、色信号変換部6、空間フィルタ部7、階調補正部5
および画像出力部8での処理係数が画素ごとに切り替え
られる。
The L * a * b * image data output from the color signal conversion unit 6 and stored in the data storage unit 2 is read out to the image area separation unit 9 according to an instruction from the arithmetic processing unit 3, and the image area Separation processing is performed. At this time, an image area separation coefficient is read from the coefficient storage section 4 according to an instruction from the arithmetic processing section 3, and an image area separation process is performed using the image area separation coefficient. The image data subjected to the image area separation by the image area separation unit 9 is stored in the data storage unit 2. Using the image data having undergone image area separation stored in the data storage unit 2, a color signal conversion unit 6, a spatial filter unit 7, a gradation correction unit 5
The processing coefficient in the image output unit 8 is switched for each pixel.

【0026】次に、像域分離部9について、図2、図3
および図4を用いて説明する。図2は、本発明の第1実
施形態に係る像域分離部9の構成を示すブロック図であ
る。また、図3および図4は、この第1実施形態に係る
像域分離部9における処理過程での画像変化の一例を示
す図である。図2から明らかなように、第1実施毛形態
に係る像域分離部9は、2値化部11、線分抽出部1
2、ラベリング部13、ラベル特徴量算出部14、小領
域除去部15、第1属性判定部16および線分補正部1
7を有する構成となっている。
Next, the image area separating section 9 will be described with reference to FIGS.
This will be described with reference to FIG. FIG. 2 is a block diagram illustrating a configuration of the image area separation unit 9 according to the first embodiment of the present invention. FIGS. 3 and 4 are diagrams showing an example of an image change in a process in the image area separating section 9 according to the first embodiment. As is clear from FIG. 2, the image area separating unit 9 according to the first embodiment includes a binarizing unit 11 and a line segment extracting unit 1.
2, labeling unit 13, label feature amount calculating unit 14, small area removing unit 15, first attribute determining unit 16, and line segment correcting unit 1.
7 is provided.

【0027】上記構成の像域分離部9において、2値化
部11は、データ記憶部2に記憶されている画像デー
タ、即ち解像度400dpi、各画素8ビットのL*
* *画像信号を読み出し、2値化処理を行う。以降、
この画像データのことを、L** * 原画像データと
呼ぶこととする。なお、L* * * 原画像データは、
後述する線分抽出部12およびラベル特徴量抽出部14
でも読み出される。
In the image area separating section 9 having the above-described configuration, the binarizing section 11 performs image data stored in the data storage section 2, that is, a resolution of 400 dpi and L * a of 8 bits for each pixel.
* b * Image signal is read out and binarized. Or later,
This image data is referred to as L * a * b * original image data. Note that the L * a * b * original image data is
Line segment extraction unit 12 and label feature amount extraction unit 14 to be described later
Even read.

【0028】2値化部11では、読み出されたL* *
* 原画像データから前景領域、例えば白背景上の文字
・線分、着色された領域、あるいは写真・絵柄領域など
を抽出し、抽出された画素を高レベル(論理“1”)、
抽出されなかった画素を低レベル(論理“0”)とする
各画素1ビットの画素信号が出力される。図3の場合を
例にとると、図3(a)の画像が2値化部11に入力さ
れたとすると、図3(c)のように2値化された画像が
出力される。2値化部11の詳細については後述する。
In the binarization unit 11, the read L * a *
b * Extract a foreground area, for example, a character / line segment, a colored area, a photograph / picture area, etc. on a white background from the original image data, and set the extracted pixels to a high level (logic “1”).
A 1-bit pixel signal is output for each pixel in which the unextracted pixels are set to a low level (logic “0”). Taking the case of FIG. 3 as an example, if the image of FIG. 3A is input to the binarization unit 11, a binarized image is output as shown in FIG. 3C. Details of the binarization unit 11 will be described later.

【0029】2値化部11から出力された2値化画像信
号は、ラベリング部13に入力される。ラベリング部1
3では、連結する抽出画素の領域ごとに1つのラベルを
付与する処理が行われる。ラベリングの方法としては公
知の技術が用いられる。図3および図4で説明すると、
図3(c)の2値化画像がラベリング部13に入力さ
れ、図4(a)のようにラベル番号1からラベル番号N
までのラベルが付与される。なお、以降、連結領域ごと
にラベルの付与された画像をラベリング画像と称するも
のとする。
The binarized image signal output from the binarizing section 11 is input to a labeling section 13. Labeling unit 1
In step 3, a process of assigning one label to each region of the extracted pixels to be connected is performed. A well-known technique is used as a labeling method. Referring to FIGS. 3 and 4,
The binarized image shown in FIG. 3C is input to the labeling unit 13, and as shown in FIG.
Labels up to are given. Hereinafter, an image to which a label is added for each connected region is referred to as a labeling image.

【0030】ラベリング部13から出力されたラベリン
グ画像は、ラベル特徴量算出部14と線分補正部17に
入力される。ラベル特徴量算出部14では、ラベリング
部13から出力されたラベリング画像とL* * *
画像データから、ラベル領域ごとの特徴量を算出する処
理が行われる。図3および図4で説明すると、図4
(a)のラベルの付与された画像データがラベル特徴量
算出部14に入力され、また図3(a)の画像のL*
* * 原画像データも参照されて、図5に示すようなラ
ベルごとの特徴量が算出される。
The labeling image output from the labeling unit 13 is input to the label feature amount calculation unit 14 and the line segment correction unit 17. The label feature amount calculation unit 14 performs a process of calculating a feature amount for each label region from the labeling image output from the labeling unit 13 and the L * a * b * original image data. Referring to FIGS. 3 and 4, FIG.
The image data with the label shown in FIG. 3A is input to the label feature amount calculation unit 14, and the L * a of the image shown in FIG.
With reference to the * b * original image data, a feature amount for each label as shown in FIG. 5 is calculated.

【0031】本実施形態では、特徴量として、該当ラベ
ル付与画素数・外接矩形位置・外接矩形サイズ・画素密
度(=該当ラベル付与画素数/外接矩形面積)・平均値
・分散値・クラス分割値頻度・クラス分割などを算出し
ているが、他の特徴量を算出して、後述する第1属性判
定部16での判定処理に用いても構わない。ラベル特徴
量算出部14の詳細については後述する。
In the present embodiment, the number of relevant labels, the number of circumscribed rectangles, the size of circumscribed rectangles, the pixel density (= the number of applicable pixels to be labeled / circumscribed rectangle area), the average value, the variance value, and the class division value are used as the feature values. Although the frequency / class division and the like are calculated, other feature amounts may be calculated and used for the determination process in the first attribute determination unit 16 described later. Details of the label feature amount calculation unit 14 will be described later.

【0032】ラベル特徴量算出部14で算出されたラベ
ルごとの特徴量は、ラベリング部13でラベルの付与さ
れたラベリング画像と共に小領域除去部15に入力さ
れ、ラベルごとに算出された領域サイズを所定閾値と比
較し、当該閾値以下の領域サイズのラベルを除去する。
The feature amount for each label calculated by the label feature amount calculating unit 14 is input to the small area removing unit 15 together with the labeling image to which the label is added by the labeling unit 13, and the area size calculated for each label is calculated. A label having an area size equal to or smaller than the predetermined threshold is removed by comparison with a predetermined threshold.

【0033】図4の場合は、閾値を例えば、外接矩形幅
=外接矩形高=80とすると、図4(a)のラベリング
画像から、ラベル番号4〜ラベル番号Nの領域が除去さ
れ、図4(b)のようなラベリング画像が得られる。す
なわち、文字と推定される領域を外接矩形サイズから判
定し、あらかじめ除去することで、後述の第1属性判定
部16での処理を軽くすることができる。
In the case of FIG. 4, if the threshold value is, for example, circumscribed rectangle width = circumscribed rectangle height = 80, the regions of label numbers 4 to N are removed from the labeling image of FIG. A labeling image as shown in (b) is obtained. That is, by determining the area estimated to be a character from the circumscribed rectangle size and removing the area in advance, the processing in the first attribute determination unit 16 described below can be reduced.

【0034】小領域除去部15から出力された小領域の
除去されたラベルごとの特徴量は、第1属性判定部16
に入力され、ラベル領域ごとにその属性、例えば写真・
絵柄領域、均一色領域などを判定する。図3および図4
の場合、ラベル番号1とラベル番号3は均一色領域、ラ
ベル番号2は絵柄領域と判定される。第1属性判定部1
6の詳細については後述する。第1属性判定部16から
出力されたラベル領域ごとの属性判定結果は、線分補正
部17に入力される。
The feature quantity of each label from which the small area has been removed, which has been output from the small area removing section 15, is calculated by the first attribute determining section 16.
And the attributes of each label area, such as
A picture area, a uniform color area, and the like are determined. 3 and 4
In the case of, label number 1 and label number 3 are determined to be a uniform color area, and label number 2 is determined to be a picture area. First attribute determination unit 1
Details of 6 will be described later. The attribute determination result for each label area output from the first attribute determination unit 16 is input to the line segment correction unit 17.

【0035】一方、L* * * 原画像データは線分抽
出部12にも入力され、画像中に含まれる文字や線分が
抽出される。そしてこのとき抽出された画素は高レベ
ル、抽出されなかった画素は低レベルとする各画素1ビ
ットの画像信号が出力される。図3の場合、図3(a)
の画像から文字や罫線、あるいは絵柄中に存在する線分
が抽出され、図3(b)のような画像が得られる。線分
抽出部12の詳細については後述する。線分抽出部12
から出力された画像信号は線分補正部17に入力され
る。
On the other hand, the L * a * b * original image data is also input to the line segment extraction unit 12, where characters and line segments contained in the image are extracted. Then, a 1-bit image signal is output for each pixel, in which pixels extracted at this time are at a high level and pixels not extracted are at a low level. In the case of FIG. 3, FIG.
Characters, ruled lines, or line segments existing in the pattern are extracted from the image of FIG. 3 to obtain an image as shown in FIG. Details of the line segment extraction unit 12 will be described later. Line segment extraction unit 12
Are output to the line segment correction unit 17.

【0036】線分補正部17では、ラベリング部13か
ら入力されるラベリング画像、および第1属性判定部1
6から入力されるラベル領域ごとの属性判定結果を用い
て、線分抽出部12から入力される線分抽出画像の補正
を行う。図3および図4の場合、図3(b)の線分抽出
画像と、図4(b)の小領域の除去されたラベリング画
像、およびラベル領域ごとの属性判定結果から、写真・
絵柄領域と判定されたラベル領域に存在する線分は除去
し、均一色領域中に存在する線分だけを残すような補正
が行われる。その結果、図4(c)のような画像が得ら
れる。線分補正部17の詳細については後述する。線分
補正部17から出力される画像データが、像域分離部9
で像域分離の行われた画像データとして、データ記憶部
2に記憶される。
In the line segment correction section 17, the labeling image input from the labeling section 13 and the first attribute determination section 1
The line segment extraction image input from the line segment extraction unit 12 is corrected using the attribute determination result for each label area input from the line extraction unit 6. In the case of FIG. 3 and FIG. 4, the photograph / photograph is obtained from the line segment extraction image of FIG. 3B, the labeling image from which the small area is removed in FIG. 4B, and the attribute determination result for each label area.
The line segment existing in the label area determined to be the picture area is removed, and correction is performed so that only the line segment existing in the uniform color area is left. As a result, an image as shown in FIG. Details of the line segment correction unit 17 will be described later. The image data output from the line segment correction unit 17 is output to the image area separation unit 9.
Are stored in the data storage unit 2 as image data subjected to image area separation.

【0037】なお、上述した説明では、2値化部11か
らラベリング部13に、ラベリング部13からラベル特
徴量算出部14および線分補正部17に、ラベル特徴量
算出部14から小領域除去部15に、小領域除去部15
から第1属性判定部16に、第1属性判定部16から線
分補正部17に、線分抽出部12から線分補正部17
に、画像データや算出した特徴量などが入力されるよう
に説明したが、処理結果をデータ記憶部2に記憶、続い
てその処理結果を読み出して次の処理を行うようにして
も構わない。
In the above description, the binarizing section 11 sends the labeling section 13, the labeling section 13 sends the label feature calculating section 14 and the line segment correcting section 17, and the label feature calculating section 14 sends the small area removing section. 15, a small area removing unit 15
To the first attribute determination unit 16, the first attribute determination unit 16 to the line segment correction unit 17, and the line segment extraction unit 12 to the line segment correction unit 17.
In the above description, the image data and the calculated feature amount are input. However, the processing result may be stored in the data storage unit 2 and then the processing result may be read to perform the next processing.

【0038】2値化部11の詳細について、図6を用い
て説明する。図6は、2値化部11の構成の一例を示す
ブロック図である。本例に係る2値化部11は、シャド
ー抽出部18、網点抽出部19および論理和演算部20
を有する構成となっており、読み出した画像データ(L
* * * 原画像データ)のうち、L* 原画像データだ
けを用いて2値化処理を行う。
The details of the binarizing section 11 will be described with reference to FIG. FIG. 6 is a block diagram illustrating an example of the configuration of the binarization unit 11. The binarization unit 11 according to the present example includes a shadow extraction unit 18, a halftone dot extraction unit 19, and a logical sum operation unit 20.
And the read image data (L
* a * b * original image data), the binarization process is performed using only the L * original image data.

【0039】この2値化部11において、L* 原画像デ
ータはシャドー抽出部18と網点抽出部19に入力され
る。シャドー抽出部18では入力された画像信号から、
濃度の濃い領域、例えば黒や青や赤などの文字・線分、
あるいは絵柄中でも髪の毛や赤い花や緑の葉など比較的
濃度の濃い領域が抽出され、各画素1ビットの画像信
号、本例の場合は、抽出された画素は高レベルの信号、
抽出されなかった画素は低レベルの信号が出力される。
このシャドー抽出部18の詳細については後述する。シ
ャドー抽出部18から出力された画像信号は、論理和演
算部20に入力される。
In the binarizing section 11, the L * original image data is inputted to the shadow extracting section 18 and the halftone dot extracting section 19. In the shadow extraction unit 18, from the input image signal,
Areas with high density, such as characters and line segments such as black, blue, and red,
Alternatively, a relatively dense area such as hair, red flowers, green leaves, etc. is extracted even in a picture, and an image signal of 1 bit for each pixel. In this example, the extracted pixel is a high-level signal.
Pixels that are not extracted are output as low-level signals.
The details of the shadow extraction unit 18 will be described later. The image signal output from the shadow extraction unit 18 is input to a logical sum operation unit 20.

【0040】また、網点抽出部19では、入力された画
像信号から画像中に含まれる網点領域の抽出が行われ、
各画素1ビットの画像信号、本例の場合は、抽出された
画素は高レベルの信号、抽出されなかった画素は低レベ
ルの信号が出力される。網点抽出部19から出力された
画像信号は論理和演算部20に入力される。
The halftone dot extracting section 19 extracts a halftone dot region included in the image from the input image signal.
In this case, a high-level signal is output for an extracted pixel, and a low-level signal is output for a pixel that has not been extracted. The image signal output from the halftone dot extraction unit 19 is input to the logical sum operation unit 20.

【0041】網点抽出部19としては、本願発明者が既
に提案済みの画像処理装置に記載のもの(特開平11−
73503号公報参照)を用いることができる。ここで
はその詳細については記載しないが、概略は、入力画像
データの2値化を行い、2値画像データの高レベルとな
っている画素(または、低レベルとなっている画素)
が、注目画素を中心としたN1×N1(例えば、N1=
13)の広範囲領域の中で周期構造をなしているか否か
を判定した後、その判定結果に対してN2×N2(例え
ば、N2=25)の広範囲の領域を用いて網点領域を判
定・抽出するというものである。
As the halftone dot extracting section 19, the one described in the image processing apparatus already proposed by the present inventor (Japanese Patent Laid-Open No.
No. 73503) can be used. Although the details are not described here, the outline is that the input image data is binarized, and the high-level pixels (or the low-level pixels) of the binary image data are obtained.
Is N1 × N1 (for example, N1 =
13) After determining whether or not a periodic structure is formed in the wide area, the halftone dot area is determined using the wide area of N2 × N2 (for example, N2 = 25). It is to extract.

【0042】シャドー抽出部18から出力された画像デ
ータと、網点抽出部19から出力された画像データは共
に論理和演算部20に入力され、それぞれ座標位置の同
じ画素単位の論理和演算が行われる。論理和演算部20
において、シャドー抽出部18および網点抽出部19か
らの各出力画像データに対して画素単位に論理和演算を
行うことにより、文字や線分などはシャドー抽出部18
で抽出された結果と同等の信号が論理和演算部20から
出力される。
The image data output from the shadow extracting unit 18 and the image data output from the halftone dot extracting unit 19 are both input to a logical sum operation unit 20, and the logical sum operation is performed on the same pixel unit at the same coordinate position. Will be OR operation unit 20
In the above, by performing a logical OR operation on each output image data from the shadow extracting unit 18 and the halftone dot extracting unit 19 on a pixel-by-pixel basis, characters, line segments, etc.
A signal equivalent to the result extracted in step (1) is output from the logical sum operation unit 20.

【0043】一方、絵柄領域に関しては、その領域の大
部分が網点抽出部19によって抽出されるが、髪の毛な
どの濃度の非常に濃い領域は網点の周期構造が無くなっ
ており、網点抽出部19では抽出できない。しかしなが
ら、そのような濃度の非常に濃い領域は、シャドー抽出
部18によって抽出することが可能であるため、論理和
演算部20からは絵柄領域全体も抽出された結果が出力
される。
On the other hand, for the picture area, most of the area is extracted by the halftone dot extracting section 19, but in the area where the density of the hair is extremely high, the periodic structure of the halftone dots is lost and the halftone dot extraction is performed. The part 19 cannot extract it. However, such a region having a very high density can be extracted by the shadow extracting unit 18, and the result of extracting the entire pattern region is output from the logical sum operation unit 20.

【0044】図7を用いて説明すると、図7(a)のよ
うな画像が2値化部11に入力された場合、即ちシャド
ー抽出部18と網点抽出部19に入力された場合には、
図7(b)のような画像がシャドー抽出部18から出力
され、また図7(c)のような画像が網点抽出部19か
ら出力される。そして、それぞれの画像が論理和演算部
20に入力されることで、図7(d)のような画像が論
理和演算部20から出力される。
Referring to FIG. 7, when an image as shown in FIG. 7A is input to the binarizing unit 11, that is, when it is input to the shadow extracting unit 18 and the halftone extracting unit 19, ,
An image as shown in FIG. 7B is output from the shadow extracting unit 18, and an image as shown in FIG. 7C is output from the halftone dot extracting unit 19. Then, by inputting each image to the logical sum operation unit 20, an image as shown in FIG.

【0045】シャドー抽出部18の詳細について、図8
を用いて説明する。図8は、シャドー抽出部18の構成
の一例を示すブロック図である。図8において、シャド
ー抽出部18に入力された画像データは、3×3画素平
均値算出部21と、5×5画素平均値算出部22に入力
される。3×3画素平均値算出部21では、注目画素を
中心とした3×3画素の平均値が算出される。この3×
3画素平均値算出部21で算出された結果は後述する比
較部25に出力され、この比較部25において後述する
リミッタ24の出力結果との比較が行われる。
FIG. 8 shows details of the shadow extracting unit 18.
This will be described with reference to FIG. FIG. 8 is a block diagram illustrating an example of the configuration of the shadow extracting unit 18. 8, the image data input to the shadow extracting unit 18 is input to a 3 × 3 pixel average value calculation unit 21 and a 5 × 5 pixel average value calculation unit 22. The 3 × 3 pixel average value calculation unit 21 calculates an average value of 3 × 3 pixels centering on the target pixel. This 3x
The result calculated by the three-pixel average value calculation unit 21 is output to a comparison unit 25 described later, and the comparison unit 25 compares the result with the output result of a limiter 24 described later.

【0046】5×5画素平均値算出部22では、注目画
素を中心とした5×5画素の平均値が算出される。この
5×5画素平均値算出部22で算出された結果は加減算
部23に送られ、この加減算部23において、経験的に
任意に設定されて別途入力される所定値VALUEとの
加減算が行われる。加減算部23の演算結果はリミッタ
24に出力され、このリミッタ24において、経験的に
任意に設定されて別途入力される上限値UPPERと下
限値LOWERの間に値が制限される。
The 5 × 5 pixel average value calculator 22 calculates the average value of 5 × 5 pixels centering on the target pixel. The result calculated by the 5 × 5 pixel average value calculation unit 22 is sent to the addition / subtraction unit 23, and the addition / subtraction unit 23 performs addition / subtraction with a predetermined value VALUE which is arbitrarily set empirically and input separately. . The operation result of the addition / subtraction unit 23 is output to a limiter 24, in which the value is limited between an upper limit value UPPER and a lower limit value LOWER which are arbitrarily set empirically and input separately.

【0047】すなわち、加減算部23の演算結果が上限
値UPPERよりも大きいときは当該上限値UPPER
が、下限値LOWERよりも小さいときは当該下限値L
OWERが、それ以外のときは加減算部23の演算結果
がそのままリミッタ24から出力される。リミッタ24
からの出力は比較部25に入力され、先述した3×3画
素平均値算出部21の演算結果との比較が行われる。そ
して、3×3画素平均値算出部21の演算結果がリミッ
タ24からの出力よりも大きいときは高レベルの信号
が、小さいかもしくは等しいときは低レベルの信号が出
力される。
That is, when the operation result of the addition / subtraction unit 23 is larger than the upper limit value UPPER, the upper limit value UPPER
Is smaller than the lower limit LOWER, the lower limit L
Otherwise, the operation result of the addition / subtraction unit 23 is output from the limiter 24 as it is. Limiter 24
Is input to the comparison unit 25, and is compared with the calculation result of the 3 × 3 pixel average value calculation unit 21 described above. When the calculation result of the 3 × 3 pixel average value calculation unit 21 is larger than the output from the limiter 24, a high-level signal is output. When the calculation result is small or equal, a low-level signal is output.

【0048】図9は、シャドー抽出部18の構成の他の
例を示すブロック図であり、図中、図8と同一の処理を
行う処理部分に対しては同一符号を付してある。図9に
おいて、シャドー抽出部18に入力された画像データ
は、3×3画素平均値算出部21、5×5画素平均値算
出部22およびセレクタ26に入力される。3×3画素
平均値算出部21は、注目画素を中心とした3×3画素
の平均値を算出する。この3×3画素平均値算出部21
の算出結果は後述する比較部25に出力され、この比較
部25において後述するリミッタ24の出力結果との比
較が行われる。3×3画素平均値算出部21の算出結果
はセレクタ26にも入力される。
FIG. 9 is a block diagram showing another example of the configuration of the shadow extracting unit 18. In the figure, the same reference numerals are given to the processing parts that perform the same processing as in FIG. In FIG. 9, the image data input to the shadow extraction unit 18 is input to a 3 × 3 pixel average value calculation unit 21, a 5 × 5 pixel average value calculation unit 22, and a selector 26. The 3 × 3 pixel average value calculation unit 21 calculates an average value of 3 × 3 pixels centering on the target pixel. This 3 × 3 pixel average value calculation unit 21
Is output to a comparison unit 25 described later, and the comparison unit 25 compares the calculation result with an output result of a limiter 24 described later. The calculation result of the 3 × 3 pixel average value calculation unit 21 is also input to the selector 26.

【0049】5×5画素平均値算出部22では、注目画
素を中心とした5×5画素の平均値が算出される。この
5×5画素平均値算出部22で算出された結果は加減算
部23に送られ、この加減算部23において、後述する
加減算値演算部27の出力結果との加減算が行われる。
加減算部23の演算結果はリミッタ24に出力され、こ
のリミッタ24において、別途入力される上限値UPP
ERと下限値LOWERの間に値が制限される。5×5
画素平均値算出部22の算出結果はセレクタ26にも入
力される。
The 5 × 5 pixel average value calculator 22 calculates the average value of 5 × 5 pixels centering on the target pixel. The result calculated by the 5 × 5 pixel average value calculation unit 22 is sent to the addition / subtraction unit 23, which performs addition / subtraction with the output result of the addition / subtraction value calculation unit 27 described later.
The operation result of the addition / subtraction unit 23 is output to a limiter 24, where the upper limit value
The value is limited between ER and lower limit LOWER. 5x5
The calculation result of the pixel average value calculation unit 22 is also input to the selector 26.

【0050】セレクタ26では、入力される3×3画素
平均値算出部21、5×5画素平均値算出部22および
色信号変換部3(図1参照)の出力結果(注目画素値)
のいずれか1つを、図示しない外部からの入力信号によ
って選択し、その結果を加減算値演算部27に入力す
る。加減算値演算部27では、加減算部23において5
×5画素平均値算出部22と加減算する値を、セレクタ
26からの出力結果から演算する。
In the selector 26, the input 3 × 3 pixel average value calculation unit 21, the 5 × 5 pixel average value calculation unit 22 and the output result (target pixel value) of the color signal conversion unit 3 (see FIG. 1)
Is selected by an external input signal (not shown), and the result is input to the addition / subtraction value calculation unit 27. In the addition / subtraction value calculation unit 27, 5
The value to be added or subtracted from the × 5 pixel average value calculation unit 22 is calculated from the output result from the selector 26.

【0051】すなわち、入力値に対して複数の所定の値
を加減乗除することによって出力値を算出する。また、
加減算値演算部27はLUT(Look Up Table) で構成す
ることも可能である。この場合、入力値に応じて出力値
を比較的自由に設定する(LUTに記憶させておく)こ
とが可能となる。加減算部23、リミッタ24、比較器
25については前述したので、ここでの説明は省略す
る。
That is, the output value is calculated by adding, subtracting, multiplying, and dividing a plurality of predetermined values with respect to the input value. Also,
The addition / subtraction value calculation unit 27 can be configured by an LUT (Look Up Table). In this case, the output value can be set relatively freely (stored in the LUT) according to the input value. The addition / subtraction unit 23, the limiter 24, and the comparator 25 have been described above, and thus description thereof will be omitted.

【0052】上述したように、シャドー抽出部18では
3×3画素平均値算出部21の出力結果とリミッタ24
の出力結果を比較することにより、濃度の濃い画素は抽
出、濃度の薄い画素は非抽出とすることが可能になる。
また、注目画素周辺の比較的狭い領域の画素値平均を、
それよりも広い領域の画素値の平均に所定の演算を行っ
た値と比較する構成となっているため、文字・線分の細
部構造を保存した領域の抽出が可能となっている。
As described above, in the shadow extracting section 18, the output result of the 3 × 3 pixel average value calculating section 21 and the limiter 24 are output.
By comparing the output results of (1) and (2), it is possible to extract pixels having a high density and not extract pixels having a low density.
Also, average the pixel values of a relatively narrow area around the pixel of interest,
Since the average value of pixel values in a wider area is compared with a value obtained by performing a predetermined operation, it is possible to extract an area in which the detailed structure of characters and line segments is preserved.

【0053】2値化部11の他の例について、図10の
フローチャートを用いて説明する。本例でも、2値化部
11に入力されたL* * * 原画像データのうちL*
原画像データを用いて2値化処理を行う。なお、本例に
おいて、L* が小さいほど明るく(白く)、大きいほど
暗い(黒い)とする。
Another example of the binarization unit 11 will be described with reference to the flowchart of FIG. Also in this example, L * a * b * of the L * a * b * original image data input to the binarization unit 11 is L *.
Binarization processing is performed using the original image data. In this example, the smaller L * is, the brighter (whiter), and the larger the L * , the darker (black).

【0054】図10のフローチャートに沿って説明する
と、先ず、L* 原画像全体に対してノイズの除去や画像
入力時のばらつきを低減するために平滑化処理を行う
(ステップS101)。この平滑化処理としては、注目
画素を中心とした3×3画素フィルタリング係数を用い
たフィルタリング処理で構わない。フィルタリング係数
の例として、3×3画素全て1/9などが考えられる。
Referring to the flowchart of FIG. 10, first, a smoothing process is performed on the entire L * original image in order to remove noise and reduce variations at the time of image input (step S101). As the smoothing process, a filtering process using a 3 × 3 pixel filtering coefficient centering on the target pixel may be used. As an example of the filtering coefficient, 1/9 of all 3 × 3 pixels can be considered.

【0055】続いて、2値化閾値を決定するために、平
滑化処理の行われたL* 画像データから、画素値のヒス
トグラムを作成する(ステップS102)。生成された
*画像データのヒストグラムの例を図11に示す。な
お、ここでヒストグラムを作成する際は、全画素のヒス
トグラムを作成しても構わないし、画素を間引きながら
ヒストグラムを作成しても構わない。
Subsequently, in order to determine a binarization threshold, a histogram of pixel values is created from the smoothed L * image data (step S102). FIG. 11 shows an example of a histogram of the generated L * image data. When creating a histogram here, a histogram of all pixels may be created, or a histogram may be created while thinning out pixels.

【0056】画素値のヒストグラムを作成したら、続い
て、作成されたヒストグラムから2値化閾値を決定す
る。先ず、図11において、所定閾値の画素値TH10
1以下で最も頻度の多い画素値MAXを検出する(ステ
ップS103)。次に、MAXとTH101の間で最も
頻度の少ない画素値VAL1,VAL2を検出する(ス
テップS104)。
After the histogram of the pixel values is created, subsequently, a binarization threshold is determined from the created histogram. First, in FIG. 11, a pixel value TH10 of a predetermined threshold value
The most frequent pixel value MAX equal to or less than 1 is detected (step S103). Next, the pixel values VAL1 and VAL2 with the least frequency between MAX and TH101 are detected (step S104).

【0057】次に、ステップS104の検出結果、最も
頻度の少ない画素値が複数あった場合には、そのうちの
画素値の小さい方(VAL1)を2値化閾値とする(ス
テップS105)。最後に、ステップS105で求めら
れた2値化閾値VAL1を用いて、L* 原画像データを
2値化する(ステップS106)。本例では、L* 画素
値が2値化閾値VAL1よりも小さいときには低レベ
ル、等しいかもしくは大きいときには高レベルの信号を
出力する。
Next, as a result of the detection in step S104, if there are a plurality of pixel values with the least frequency, the smaller one of the pixel values (VAL1) is set as the binarization threshold (step S105). Finally, the L * original image data is binarized using the binarization threshold value VAL1 obtained in step S105 (step S106). In this example, a low level signal is output when the L * pixel value is smaller than the binarization threshold value VAL1, and a high level signal is output when the L * pixel value is equal to or larger than the threshold value VAL1.

【0058】ラベル特徴量算出部14の詳細について説
明する。ラベル特徴量算出部14では、ラベル領域ごと
の特徴量を算出するが、本例では、特徴量として外接矩
形位置・外接矩形サイズ・画素密度(=ラベル付与画素
数/外接矩形面積)・平均値・分散値・クラス分割値頻
度・クラス分散比を求める。ただし、外接矩形位置・外
接矩形サイズ・画素密度・平均値・分散値に関しては周
知なのでここでは説明を省略し、クラス分割値頻度・ク
ラス分散比に関してのみ説明する。
The details of the label feature amount calculation unit 14 will be described. The label feature amount calculation unit 14 calculates the feature amount for each label region. In this example, the feature amount is the circumscribed rectangle position, the circumscribed rectangle size, the pixel density (= the number of labeled pixels / the circumscribed rectangle area), and the average value. -Variance value-Class division value frequency-Class variance ratio is calculated. However, since the circumscribed rectangle position, the circumscribed rectangle size, the pixel density, the average value, and the variance value are well known, the description is omitted here, and only the class division value frequency and the class variance ratio will be described.

【0059】本例でも、L* * * 原画像データのう
ちL* 原画像データを用いてラベル特徴量の算出を行
う。なお、先にも述べたように、1画素あたりの階調数
は8ビット、即ち画素値は0〜255で表されるものと
する。以下、クラス分割値頻度・クラス分散比に関し
て、図12のフローチャートに沿って説明する。
Also in this example, the label feature amount is calculated using the L * a * b * original image data among the L * a * b * original image data. Note that, as described above, the number of gradations per pixel is 8 bits, that is, the pixel value is represented by 0 to 255. Hereinafter, the class division value frequency / class variance ratio will be described with reference to the flowchart of FIG.

【0060】先ず、L* 原画像全体に対して、ノイズの
除去や画像入力時のばらつきを低減するために平滑化処
理を行う(ステップS201)。平滑化処理としては、
注目画素を中心とした3×3画素フィルタリング係数を
用いたフィルタリング処理で構わない。フィルタリング
係数の例としては、3×3画素全て1/9などが考えら
れる。次いで、特徴量算出のために、平滑化処理の行わ
れたL* 画像データから、ラベルごとに画素値のヒスト
グラムを作成する(ステップS202)。そして、判別
分析法の手法を用いることにより、クラス分割値頻度・
クラス分散比を求める。
First, a smoothing process is performed on the entire L * original image in order to remove noise and reduce variations during image input (step S201). As the smoothing process,
A filtering process using a 3 × 3 pixel filtering coefficient centering on the target pixel may be used. As an example of the filtering coefficient, 1/9 of all 3 × 3 pixels can be considered. Next, a histogram of pixel values is created for each label from the L * image data that has been subjected to the smoothing process for calculating the feature amount (step S202). Then, by using the method of the discriminant analysis method, the class division value frequency
Find the class dispersion ratio.

【0061】この判別分析法の手法において、先ず、ク
ラス分散比の最大var_max、仮の分割画素値tを
初期化する(ステップS203)。次いで、クラス0、
即ち画素値が0〜t−1の間の画素数p0、画素値の平
均値ave0、画素値の分散var0を計算する(ステ
ップS204)。次いで、クラス1、即ち画素値がt〜
255の間の画素数p1、画素値の平均値ave1、画
素値の分散var1を計算する(ステップS205)。
次いで、対象ラベル領域全体の画素数p、画素値の平均
ave、画素謡の分散varを計算する(ステップS2
06)。
In this discriminant analysis method, first, the maximum var_max of the class variance ratio and the temporary divided pixel value t are initialized (step S203). Then class 0,
That is, the number of pixels p0, the average value ave0 of the pixel values, and the variance var0 of the pixel values between the pixel values 0 to t-1 are calculated (step S204). Next, class 1, that is, when the pixel value is t ~
The pixel number p1, the average value ave1 of the pixel values, and the variance var1 of the pixel values during the period 255 are calculated (step S205).
Next, the number p of pixels, the average ave of pixel values, and the variance var of pixel songs are calculated for the entire target label area (step S2).
06).

【0062】次に、下記式(1)を用いて、クラス内分
散var_Wを求める(ステップS207)。 var_W=var0×p0/p+var1×p1/p …(1) 次いで、下記式(2)を用いて、クラス間分散var_
Bを求める(ステップS208)。 var_B=(p0/p)×(p1/p)×(ave0−ave1) ×(ave0−ave1) …(2) 次いで、下記式(3)を用いて、クラス分散比var_
Rを求める(ステップS209)。 var_R=var_B/var_W …(3)
Next, the intra-class variance var_W is obtained using the following equation (1) (step S207). var_W = var0 × p0 / p + var1 × p1 / p (1) Then, using the following equation (2), the inter-class variance var_
B is obtained (step S208). var_B = (p0 / p) × (p1 / p) × (ave0−ave1) × (ave0−ave1) (2) Next, using the following equation (3), the class dispersion ratio var_
R is obtained (step S209). var_R = var_B / var_W (3)

【0063】次に、クラス分散比var_Rとクラス分
散比の最大var_maxとを比較し(ステップS21
0)、クラス分散比var_Rがクラス分散比の最大v
ar_maxよりも小さい場合は、クラス分散比var
_Rの値をクラス分散比の最大var_max、仮分割
画素値tの値を最大クラス分散比を与える分割画素値t
_maxに転記する(ステップS211)。
Next, the class dispersion ratio var_R is compared with the maximum class dispersion ratio var_max (step S21).
0), the class dispersion ratio var_R is the maximum class dispersion ratio v
If smaller than ar_max, the class dispersion ratio var
The value of _R is the maximum var_max of the class dispersion ratio, and the value of the temporary divided pixel value t is the divided pixel value t that gives the maximum class dispersion ratio.
_Max (step S211).

【0064】クラス分散比var_Rがクラス分散比の
最大var_maxよりも大きいかもしくは等しい場
合、またはステップS211を経た後は仮分割画素値t
を1増分(t←t+1)する(ステップS212)。そ
して、仮分割画素値tを256と比較し(ステップS2
13)、t<256であればステップS204に戻り、
t≧256の場合には、ヒストグラムより最大クラス分
散比を与える分割画素値t_maxでの頻度、即ちクラ
ス分割値頻度f_maxを求める(ステップS21
4)。
When the class variance ratio var_R is greater than or equal to the maximum var_max of the class variance ratio, or after passing through step S211, the provisionally divided pixel value t
Is incremented by one (t ← t + 1) (step S212). Then, the temporary divided pixel value t is compared with 256 (step S2).
13) If t <256, the process returns to step S204,
If t ≧ 256, the frequency at the divided pixel value t_max giving the maximum class variance ratio, that is, the class division value frequency f_max is obtained from the histogram (step S21).
4).

【0065】なお、本例では、L* 画像データだけを用
いて特徴量を算出しているが、L** * 画像データ
を用いて3種類ずつの特徴量を算出したり、あるいは3
次元的に特徴量を算出しても構わない。また、ヒストグ
ラムをクラス0とクラス1の2つに分割する特徴量を求
めているが、3つ以上に分割する特徴量を求めても良
い。
In the present embodiment, the feature amount is calculated using only the L * image data, but three types of feature amounts are calculated using the L * a * b * image data, or
The feature amount may be calculated dimensionally. In addition, although the feature amount for dividing the histogram into two, class 0 and class 1, is obtained, the feature amount for dividing the histogram into three or more may be obtained.

【0066】第1属性判定部16の詳細について、図1
3のフローチャートを用いて説明する。第1属性判定部
16では、ラベル特徴量算出部14で算出された特徴量
を用いて、ラベル領域ごとの属性を判定する。本例で
は、特徴量として該当ラベル付与画素数・分散値・クラ
ス分割値頻度・クラス分散比を用い、属性として、写真
・絵柄領域、均一色領域かを判定するものとする。
The details of the first attribute judging section 16 are described in FIG.
This will be described with reference to the flowchart of FIG. The first attribute determination unit 16 determines an attribute for each label area using the feature amount calculated by the label feature amount calculation unit 14. In this example, it is assumed that the number of pixels with corresponding labels, the variance value, the frequency of class division values, and the class variance ratio are used as the feature amounts, and whether the attribute is a photograph / pattern region or a uniform color region is determined as the attribute.

【0067】図13のフローチャートに沿って説明する
と、先ず、該当ラベル領域の分散値を、所定の閾値TH
201と比較する(ステップS301)。このとき、分
散値が閾値TH201よりも大きいかもしくは等しいと
判定した場合には、該当ラベル領域のクラス分散比を、
所定の閾値TH202と比較する。そして、小さいと判
定した場合は、該当ラベル領域の属性を均一色領域と判
定する(ステップS303)。
Referring to the flowchart of FIG. 13, first, the variance value of the label area is set to a predetermined threshold value TH.
201 (step S301). At this time, when it is determined that the variance value is greater than or equal to the threshold value TH201, the class variance ratio of the corresponding label area is set to:
A comparison is made with a predetermined threshold value TH202. If it is determined that the label area is small, the attribute of the label area is determined to be a uniform color area (step S303).

【0068】ステップS302において、該当ラベル領
域のクラス分散比が閾値TH202よりも大きいかもし
くは等しいと判定した場合には、該当ラベル領域のクラ
ス分割値頻度を、該当ラベル付与画素数に所定の係数T
H203を乗じた値と比較し(ステップS304)、小
さいと判定した場合は、該当ラベル領域の属性を写真・
絵柄領域と判定する(ステップS305)。
If it is determined in step S302 that the class dispersion ratio of the corresponding label area is greater than or equal to the threshold value TH202, the class division value frequency of the corresponding label area is set to a predetermined coefficient T
The value of the label area is compared with the value obtained by multiplying by H203 (step S304).
It is determined as a picture area (step S305).

【0069】ステップS304において、該当ラベル領
域のクラス分割値頻度を、該当ラベル付与画素数に係数
TH203を乗じた値よりも小さいと判定した場合に
は、ステップS303に進んで該当ラベル領域の属性を
均一色領域と判定し、大きいかもしくは等しいと判定し
た場合には、ステップS305に進んで該当ラベル領域
の属性を写真・絵柄領域と判定する。
If it is determined in step S304 that the class division value frequency of the corresponding label area is smaller than the value obtained by multiplying the number of pixels having the corresponding label by the coefficient TH203, the flow advances to step S303 to change the attribute of the relevant label area. If it is determined that the label region is a uniform color region and it is determined that the label region is large or equal, the process advances to step S305 to determine that the attribute of the label region is a photograph / picture region.

【0070】ステップS303またはS305の処理を
経た後は、すべてのラベル領域の属性判定が終了したか
否かを判定し(ステップS306)、終了した場合に
は、第1属性判定部16での処理を終了し、まだ属性判
定の行われていないラベル領域が存在する場合には、ス
テップS301に戻り、上記の一連の判定処理を繰り返
す。
After the processing in step S303 or S305, it is determined whether or not the attribute determination for all the label areas has been completed (step S306). Is completed, and if there is a label area for which attribute determination has not been performed, the process returns to step S301, and the above-described series of determination processing is repeated.

【0071】上述したように、第1属性判定部16で
は、ラベルごとの分散・クラス分割値頻度・クラス分散
比を用いて該当ラベル領域の属性を判定する。すなわ
ち、分散値が小さい場合には、該当ラベル領域がほぼ単
一の色で構成されていると考えられることから、均一色
領域と判定する。また、分散値が大きくても、クラス分
散比が大きく、かつヒストグラムを分割する分割値での
頻度が小さい場合には、ヒストグラムの形状が双峰性に
なっている、すなわち、均一色上に文字・線が書かれて
いる領域と考えられることから、該領域を均一色領域と
判定する。それ以外の場合は、写真・絵柄領域と判定す
る。
As described above, the first attribute judging section 16 judges the attribute of the corresponding label area using the variance, the class division value frequency, and the class variance for each label. That is, when the variance value is small, it is considered that the corresponding label area is composed of substantially a single color, so that the label area is determined to be a uniform color area. Even if the variance value is large, if the class variance ratio is large and the frequency at which the histogram is divided is small, the histogram has a bimodal shape. -Since the area is considered to be a line-drawn area, the area is determined to be a uniform color area. Otherwise, it is determined to be a photo / picture area.

【0072】つぎに、線分抽出部12の詳細について説
明する。その構成の一例を示す図14において、線分抽
出部12に入力された画像データは、第1縮小部30−
1〜第N縮小部30−Nに入力され、画像データの縮小
処理が行われる。例えば、第1縮小部30−1では、画
像の縦・横方向それぞれ1/2の縮小が行われる。ま
た、第2縮小部30−2では、画像の縦・横方向それぞ
れ1/4の縮小が行われる。同様にして、第N縮小部3
0−Nでは、画像の縦・横方向それぞれ1/(2N)の
縮小が行われる。第1縮小部30−1〜第N縮小部30
−Nにおける画像縮小方式としては、単純間引き法、4
点間補間法、16点間補間法、投影法、中央値採用法な
ど、公知の縮小方式で良い。
Next, details of the line segment extraction unit 12 will be described. In FIG. 14 showing an example of the configuration, the image data input to the line segment extraction unit 12 is divided into a first reduction unit 30-
The image data is input to the first to N-th reduction units 30-N, and the image data is reduced. For example, in the first reduction unit 30-1, the image is reduced by half in both the vertical and horizontal directions. In the second reduction unit 30-2, the image is reduced by 1/4 in both the vertical and horizontal directions. Similarly, the N-th reduction unit 3
In 0-N, the image is reduced by 1 / (2N) in both the vertical and horizontal directions. 1st reduction unit 30-1 to Nth reduction unit 30
As the image reduction method in −N, a simple thinning method, 4
A well-known reduction method such as an inter-point interpolation method, a 16-point interpolation method, a projection method, and a median value adoption method may be used.

【0073】第1縮小部30−1〜第N縮小部30−N
によって縮小された画像データは各々線抽出部31−1
〜線抽出部31−Nに入力される。また、線分抽出部1
2に入力された画像データは、線抽出部31ー0にも入
力される。線抽出部31−0〜線抽出部31−Nでは、
入力された画像データから所定範囲の幅を有する線分の
抽出が行われる。本例の場合は、第1縮小部30−1〜
第N縮小部30−Nによって画像データはそれぞれ1/
2,1/4,1/6,…,1/(2N)に縮小が行われ
るため、線抽出部31−0〜線抽出部31−Nでは、1
画素および2画素幅の線分を抽出する。線抽出部31−
0〜線抽出部31−Nの詳細については後述する。
The first reducing section 30-1 to the N-th reducing section 30-N
The image data reduced by the line extraction unit 31-1
To the line extraction unit 31-N. In addition, the line segment extraction unit 1
2 is also input to the line extraction unit 31-0. In the line extraction units 31-0 to 31-N,
A line segment having a predetermined range of width is extracted from the input image data. In the case of this example, the first reduction units 30-1 to 30-1
Each of the image data is divided by 1 / N by the N-th reduction unit 30-N.
Since the reduction is performed to 2, 1/4, 1/6,..., 1 / (2N), the line extraction units 31-0 to 31-N generate 1
A pixel and a line segment having a width of 2 pixels are extracted. Line extraction unit 31-
Details of the 0 to line extraction unit 31-N will be described later.

【0074】一方、線分抽出部12に入力された画像デ
ータは、エッジ抽出部32にも入力される。エッジ抽出
部32では画像データ中に含まれるエッジ画素を抽出
し、そのエッジ抽出結果は第1拡大部33−1〜第N拡
大部33−Nに出力される。エッジ袖出部32の詳細に
ついては後述する。
On the other hand, the image data input to the line segment extraction unit 12 is also input to the edge extraction unit 32. The edge extraction unit 32 extracts edge pixels included in the image data, and outputs the edge extraction results to the first enlargement unit 33-1 to the N-th enlargement unit 33-N. The details of the edge sleeve portion 32 will be described later.

【0075】線抽出部31−1〜線抽出部31−Nから
出力された画像データは各々第1拡大部33−1〜第N
拡大部33−Nに入力され、またエッジ抽出部32から
出力された画像データも第1拡大部33−1〜第N拡大
部33−Nに入力される。第1拡大部33−1〜第N拡
大部33−Nでは、エッジ抽出部32から入力された画
像データに基づき、線抽出部31−1〜線抽出部31−
Nから入力された画像データの拡大処理を行う。第1拡
大部33−1〜第N拡大部33−Nでの拡大率は、それ
ぞれ第1縮小部30−1〜第N縮小部30−Nでの縮小
率の逆数、即ち本例では縦・横方向共、2,4,6,
…,2N値とする。なお、第1拡大部33−1〜第N拡
大部33−Nの詳細については後述する。
The image data output from the line extracting units 31-1 to 31-N are respectively stored in the first expanding units 33-1 to N-th.
The image data output from the enlargement unit 33-N and output from the edge extraction unit 32 are also input to the first enlargement unit 33-1 to the N-th enlargement unit 33-N. In the first enlargement unit 33-1 to the N-th enlargement unit 33-N, based on the image data input from the edge extraction unit 32, the line extraction units 31-1 to 31-N
The image data input from N is enlarged. The enlargement ratio in the first enlargement unit 33-1 to the N-th enlargement unit 33-N is the reciprocal of the reduction ratio in the first reduction unit 30-1 to the N-th reduction unit 30-N, that is, 2,4,6
.., 2N values. The details of the first to third enlargement units 33-1 to 33-N will be described later.

【0076】第1拡大部33−1〜第N拡大部33−N
および、前述の線抽出部31−0からの出力結果の画像
データは論理和演算部34に入力され、画素単位に論理
和演算が行われる。論理和演算部34からの出力結果の
画像データは、線分抽出部12の出力結果となる。
The first expanding section 33-1 to the N-th expanding section 33-N
The image data of the output result from the above-described line extraction unit 31-0 is input to the logical sum operation unit 34, and the logical sum operation is performed for each pixel. The image data of the output result from the OR operation unit 34 is the output result of the line segment extraction unit 12.

【0077】つづいて、線抽出部31−0〜線抽出部3
1−Nについて説明する。前述したように、本例では、
1画素および2画素幅の線分を抽出する処理としている
が、このサイズに限らず他の線幅をも抽出する処理とし
ても溝わない。また、ここでの説明では、線抽出部31
−0〜線抽出部31−Nはすべて同じ処理であるとし
て、線抽出部31−0についてのみ説明するが、線抽出
部31−0〜線抽出部31−Nをそれぞれ異なる処理と
して線分抽出するようにしても構わない。図15は、線
抽出部31−0の構成の一例を示すブロック図である。
Subsequently, the line extracting units 31-0 to 31-3
1-N will be described. As mentioned above, in this example,
Although the processing is to extract a line segment having a width of one pixel and two pixels, the processing is not limited to this size, and the processing of extracting other line widths is not limited. In the description here, the line extraction unit 31
It is assumed that all of the line extraction units 31-0 to 31-N are the same processing, and only the line extraction unit 31-0 will be described. You may do it. FIG. 15 is a block diagram illustrating an example of a configuration of the line extracting unit 31-0.

【0078】図15において、線抽出部31−0に入力
された画像信号は、1画素の線幅を持つ横線を検出する
1画素横線検出部41、1画素の線幅を持つ縦線を検出
する1画素縦線検出部42、1画素の線幅を持つ左上が
りの斜線を検出する1画素左斜線検出部43、1画素の
線幅を持つ右上がりの斜線を検出する1画素右斜線検出
部44、2画素の線幅を持つ横線を検出する2画素横線
検出部45、2画素の線幅を持つ縦線を検出する2画素
縦線検出部46、2画素の線幅を持つ左上がりの斜線を
検出する2画素左斜線検出部47、2画素の線幅を持つ
右上がりの斜線を検出する2画素右斜線検出部48に入
力される。
In FIG. 15, the image signal input to the line extracting unit 31-0 is a one-pixel horizontal line detecting unit 41 for detecting a horizontal line having a line width of one pixel, and detecting a vertical line having a line width of one pixel. One-pixel vertical line detector 42, one-pixel left diagonal line detector 43 that detects an upward diagonal line having a line width of one pixel, and one-pixel right diagonal line detection that detects a diagonally right upward line having a line width of one pixel Unit 44, a two-pixel horizontal line detection unit 45 that detects a horizontal line having a line width of two pixels, a two-pixel vertical line detection unit 46 that detects a vertical line having a line width of two pixels, and an ascending left line having a line width of two pixels Is input to a two-pixel right diagonal line detection unit 48 that detects a diagonally rising line with a line width of two pixels.

【0079】1画素横線検出部41、1画素縦線検出部
42、1画素左斜線検出部43、1画素右斜線検出部4
4、2画素横線検出部45、2画素縦線検出部46、2
画素左斜線検出部47、2画素右斜線検出部48の詳細
については後述する。これら検出部41〜48によって
検出されたそれぞれ1画素幅の横・縦・左上がりの斜線
・右上がりの斜線および、2画素幅の横・縦・左上がり
の斜線・右上がりの斜線の検出結果は、論理和演算部4
9に入力され、画素ごとに検出結果の論理和演算が行わ
れる。そして、この論理和演算部49で行われた論理和
演算の結果を線抽出部31−0での線抽出結果として出
力する。
One pixel horizontal line detector 41, one pixel vertical line detector, one pixel left oblique line detector 43, one pixel right oblique line detector 4
4, 2 pixel horizontal line detection unit 45, 2 pixel vertical line detection unit 46, 2
The details of the pixel left diagonal line detection unit 47 and the two pixel right diagonal line detection unit 48 will be described later. Detected results of horizontal, vertical, left-upward diagonal lines and right-upward diagonal lines and 1-pixel-wide horizontal, vertical, upward-leftward diagonal lines, and right-upward diagonal lines detected by the detection units 41 to 48, respectively. Is the logical sum operation unit 4
9 and a logical sum operation of the detection result is performed for each pixel. Then, the result of the logical sum operation performed by the logical sum operation unit 49 is output as the line extraction result by the line extraction unit 31-0.

【0080】つぎに、1画素横線検出部41に関して、
図16および図17を用いて説明する。図16は、1画
素幅の各線検出部で検出する線の種類を説明する図であ
る。1画素横線検出部41は、3×3画素マトリクスを
用いて図16(b)に示すような1画素幅の横線を検出
する。1画素横線検出部41の構成の一例を示す図17
において、入力された画像データは、第1行平均値算出
部51、第2行平均値算出部52、第3行平均値算出部
53、第2行最小値算出部54、第1行最大値算出部5
5、第3行最大値算出部56にそれぞれ入力される。
Next, regarding the one-pixel horizontal line detection unit 41,
This will be described with reference to FIGS. FIG. 16 is a diagram illustrating the types of lines detected by each line detection unit having a width of one pixel. The one-pixel horizontal line detection unit 41 detects a one-pixel-wide horizontal line as shown in FIG. 16B using a 3 × 3 pixel matrix. FIG. 17 illustrates an example of the configuration of the one-pixel horizontal line detection unit 41.
, The input image data includes a first row average value calculation section 51, a second row average value calculation section 52, a third row average value calculation section 53, a second row minimum value calculation section 54, and a first row maximum value. Calculation unit 5
5, and is input to the third row maximum value calculation unit 56, respectively.

【0081】第1行平均値算出部51では、3×3画素
マトリクスの1行目3画素の画素値の平均、即ち図16
(a)に示すA、B、Cの画素値の平均を求める。今
後、各画素の画素値をPA ,PB ,PC のように、平均
をAVE(PA ,PB ,PC )のように表す。また、第
2行平均値算出部52ではAVE(PD 、PE 、PF
を、第3行平均値算出部53ではAVE(PG ,PH
I )を求める。
The first row average value calculation unit 51 calculates the average of the pixel values of the three pixels in the first row of the 3 × 3 pixel matrix, that is, FIG.
The average of the pixel values of A, B, and C shown in FIG. , The pixel value of each pixel as P A, P B, P C , average AVE (P A, P B, P C) expressed as. In the second row average value calculation unit 52, AVE (P D , P E , P F )
AVE (P G , P H ,
P I ).

【0082】第2行最小値算出部54では、D、E、F
の画素値の最小値を求める。今後、複数画素の最小値を
MIN(PD ,PE ,PF )のように表す。第1行最大
値算出部55では、A,B,Cの画素値の最大値を求め
る。今後、複数画素の最大値をMAX(PA ,PB ,P
C )のように表す。また、第3行最大値算出部56では
MAX(PG ,PH ,PI )を求める。
In the second row minimum value calculating section 54, D, E, F
Is obtained. From now on, the minimum value of a plurality of pixels will be expressed as MIN (P D , P E , P F ). The first row maximum value calculation unit 55 determines the maximum value of the pixel values of A, B, and C. In the future, the maximum value of a plurality of pixels will be MAX (P A , P B , P
C ). Further, the third row maximum value calculation section 56 calculates MAX (P G , P H , P I ).

【0083】第2行平均値算出部52の演算結果と第1
行平均値算出部51の演算結果は共に減算部57−1に
入力され、第2行平均値算出部52の演算結果から第1
行平均値算出部51の演算結果を減算する処理が行われ
る。また、第2行平均値算出部52の演算結果と第3行
平均値算出部53の演算結果は共に減算部57−2に入
力され、第2行平均値算出部52の演算結果から第3行
平均値算出部53の演算結果を減算する処理が行われ
る。
The calculation result of the second row average value calculation section 52 and the first
The calculation results of the row average value calculation unit 51 are both input to the subtraction unit 57-1, and the first row
A process of subtracting the calculation result of the row average value calculation unit 51 is performed. The calculation result of the second row average value calculation section 52 and the calculation result of the third row average value calculation section 53 are both input to the subtraction section 57-2, and the third row average value calculation section 52 calculates the third A process of subtracting the calculation result of the row average value calculation unit 53 is performed.

【0084】減算部57−1での演算結果は比較部58
−1に入力されて所定の閾値TH1との比較が行われ、
減算部57−1での演算結果の方が閾値TH1よりも大
きい場合には高レベルが、等しいかもしくは小さい場合
には低レベルが比較部58−1から出力される。また、
減算部57−2での演算結果は比較部58−2に入力さ
れて所定の閾値TH1との比較が行われ、減算部57−
2での演算結果の方が閾値TH1よりも大きい場合には
高レベルが、等しいかもしくは小さい場合には低レベル
が比較部58−2から出力される。
The operation result of the subtraction section 57-1 is compared with the comparison section 58.
-1 is input and compared with a predetermined threshold value TH1.
The high level is output from the comparison section 58-1 when the operation result of the subtraction section 57-1 is larger than the threshold value TH1, and the low level is output when the result is equal to or smaller than the threshold value TH1. Also,
The operation result in the subtraction unit 57-2 is input to the comparison unit 58-2, and is compared with a predetermined threshold value TH1, and the subtraction unit 57-2
The high level is output from the comparing unit 58-2 when the result of the calculation at 2 is larger than the threshold value TH1, and the low level is output when the result is equal to or smaller than the threshold value TH1.

【0085】第2行最小値算出部54での演算結果は比
較部58−3に入力されて所定の閾値TH2との比較が
行われ、第2行最小値算出部54での演算結果の方が閾
値TH2よりも大きい場合には高レベルが、等しいかも
しくは小さい場合には低レベルが比較部58−3から出
力される。
The calculation result of the second row minimum value calculation section 54 is input to the comparison section 58-3, and is compared with a predetermined threshold value TH2. Is larger than the threshold value TH2, the high level is output from the comparison unit 58-3 when the value is equal to or smaller than the threshold value TH2.

【0086】第1行最大値算出部55での演算結果は比
較部58−4に入力されて所定の閾値TH3との比較が
行われ、第1行最大値算出部55での演算結果の方が閾
値TH3よりも小さい場合には高レベルが、大きいかも
しくは等しい場合は低レベルが比較部58−4から出力
される。また、第3行最大値算出部56での演算結果は
比較部58−5に入力されて所定の閾値TH3との比較
が行われ、第3行最大値抽出部56での演算結果の方が
閾値TH3よりも小さい場合には高レベルが、大きいか
もしくは等しい場合には低レベルが比較部58−5から
出力される。
The calculation result of the first row maximum value calculation unit 55 is input to the comparison unit 58-4, and is compared with a predetermined threshold value TH3. Is smaller than the threshold value TH3, the high level is output from the comparing section 58-4 if the level is larger or equal. The calculation result in the third row maximum value calculation unit 56 is input to the comparison unit 58-5 and compared with a predetermined threshold value TH3, and the calculation result in the third row maximum value extraction unit 56 is The high level is output from the comparing section 58-5 when the level is smaller than the threshold value TH3, and the low level is output when the level is higher or equal to the threshold value TH3.

【0087】比較部58−1〜58−5の比較結果は全
て論理積演算部59に入力され、この論理積演算部59
において比較部58−1〜58−5の比較結果の論理積
が演算される。論理積演算部59から出力された結果が
1画素横線検出部41の出力結果となり、高レベルの場
合は図16(b)に示すような1画素幅の横線があると
判定され、逆に低レベルの場合は1画素幅の横線が無い
と判定される。
All the comparison results of the comparison units 58-1 to 58-5 are input to the AND operation unit 59, and the AND operation unit 59
Then, the logical product of the comparison results of the comparison units 58-1 to 58-5 is calculated. The result output from the AND operation unit 59 is the output result of the one-pixel horizontal line detection unit 41. When the result is high, it is determined that there is a one-pixel width horizontal line as shown in FIG. In the case of the level, it is determined that there is no horizontal line of one pixel width.

【0088】すなわち、1画素横線検出部41では、下
記式(1)〜(5)がすべて成立するときには、図16
(b)に示すような1画素幅の横線があると判定し、図
16(a)のD・E・Fに対応する画素値としてそれぞ
れ高レベルを出力し、逆に式(1)〜式(5)が1つで
も成立しないときには、図16(b)に示すような1画
素幅の横線は無いと判定し、それぞれ低レベルを出力す
る。
That is, in the one-pixel horizontal line detecting section 41, when all of the following equations (1) to (5) are satisfied, FIG.
It is determined that there is a horizontal line having a width of one pixel as shown in FIG. 16B, and high levels are output as pixel values corresponding to D, E, and F in FIG. If at least one of (5) is not satisfied, it is determined that there is no horizontal line having a width of one pixel as shown in FIG.

【0089】 AVE(PD ,PE ,PF )−AVE(PA ,PB ,PC )>TH1… (1) AVE(PD ,PE ,PF )−AVE(PG ,PH ,PI )>TH1… (2) MIN(PD ,PE ,PF )>TH2 … (3) MAX(PA ,PB ,PC )<TH3 … (4) MAX(PG ,PH ,PI )<TH3 … (5)AVE (P D , P E , P F ) −AVE (P A , P B , P C )> TH1 (1) AVE (P D , P E , P F ) −AVE (P G , P H , P I )> TH 1 (2) MIN (P D , P E , P F )> TH 2 (3) MAX (P A , P B , P C ) <TH 3 (4) MAX (P G , P H , P I ) <TH3 (5)

【0090】つぎに、1画素縦線検出部42について説
明する。この1画素縦線検出部42は、3×3画素マト
リクスを用いて図16(c)に示すような1画素幅の縦
線を検出する。図18に、1画素縦線検出部42の構成
例を示す。その構成は、図17の1画素横線検出部41
に対して、第1行平均値算出部51、第2行平均値算出
部52、第3行平均値算出部53、第2行最小値算出部
54、第1行最大値算出部55および第3行最大値算出
部56が、第1列平均値算出部61、第2列平均値算出
部62、第3列平均値算出部63、第2列最小値算出部
64、第1列最大値算出部65および第3列最大値算出
部66に代わっただけであり、基本的に同じであるため
その詳細については説明を省略する。
Next, the one-pixel vertical line detector 42 will be described. The one-pixel vertical line detection unit 42 detects a one-pixel width vertical line as shown in FIG. 16C using a 3 × 3 pixel matrix. FIG. 18 shows a configuration example of the one-pixel vertical line detection unit 42. The configuration is the same as the one-pixel horizontal line detection unit 41 shown in FIG.
In contrast, the first row average value calculation section 51, the second row average value calculation section 52, the third row average value calculation section 53, the second row minimum value calculation section 54, the first row maximum value calculation section 55, and the The three-row maximum value calculation unit 56 includes a first column average value calculation unit 61, a second column average value calculation unit 62, a third column average value calculation unit 63, a second column minimum value calculation unit 64, and a first column maximum value. Only the calculation unit 65 and the third column maximum value calculation unit 66 are replaced with each other, and are basically the same.

【0091】そこで、ここでは、式を用いて説明するも
のとする。1画素縦線検出部42では、下記式(6)〜
式(10)がすべて成立するときは、図16(c)に示
すような1画素幅の縦線があると判定し、図16(a)
のB・E・Hに対応する画素値としてそれぞれ高レベル
を出力し、逆に(式6)〜(式10)が1つでも成立し
ないときは、図16(c)に示すような1画素幅の縦線
は無いと判定し、それぞれ低レベルを出力する。
Therefore, here, the description will be made using equations. In the one-pixel vertical line detection unit 42, the following equations (6) to
When all the expressions (10) are satisfied, it is determined that there is a vertical line having a width of one pixel as shown in FIG.
When a high level is output as a pixel value corresponding to B, E, and H, and when even one of (Equation 6) to (Equation 10) does not hold, one pixel as shown in FIG. It is determined that there is no vertical vertical line, and a low level is output for each.

【0092】 AVE(PB ,PE ,PH )一AVE(PA ,PD ,PG )>TH4… (6) AVE(PB ,PE ,PH )−AVE(PC ,PF ,PI )>TH4… (7) MIN(PB ,PE ,PH )>TH5 … (8) MAX(PA ,PD ,PG )<TH6 … (9) MAX(PC ,PF ,PI )<TH6 …(10)[0092] AVE (P B, P E, P H) one AVE (P A, P D, P G)> TH4 ... (6) AVE (P B, P E, P H) -AVE (P C, P F , P I )> TH 4 (7) MIN (P B , P E , P H )> TH 5 (8) MAX (P A , P D , P G ) <TH 6 (9) MAX (P C , P F , P I ) <TH6 (10)

【0093】つぎに、1画素左斜線検出部43について
説明する。1画素左斜線検出部43は、3×3画素マト
リクスを用いて図16(d)に示すような1画素幅の左
上がり斜線を検出する。図19に、1画素縦線検出部4
2の構成例を示す。その構成は、図17の1画素横線検
出部41に対して、第1行平均値算出部51、第2行平
均値算出部52、第3行平均値算出部53、第2行最小
値算出部54、第1行最大値算出部55および第3行最
大値算出部56が、左下3画素平均値算出部71、左上
・右下斜め方向3画素平均値算出部72、右上3画素平
均値算出部73、左上・右下斜め方向3画素最小値算出
部74、左下3画素最大値算出部75および右上3画素
最大値算出部76に代わっただけであり、基本的に同じ
であるためその詳細については説明を省略する。
Next, the one-pixel left-slanting-line detector 43 will be described. The one-pixel left diagonal line detection unit 43 detects an upward diagonal line with a one-pixel width as shown in FIG. 16D using a 3 × 3 pixel matrix. FIG. 19 shows one-pixel vertical line detection unit 4.
2 shows a configuration example. The configuration is different from the one-pixel horizontal line detection unit 41 of FIG. 17 in that a first row average value calculation unit 51, a second row average value calculation unit 52, a third row average value calculation unit 53, and a second row minimum value calculation unit The unit 54, the first row maximum value calculation unit 55, and the third row maximum value calculation unit 56 include a lower left three pixel average value calculator 71, an upper left and lower right diagonal three pixel average value calculator 72, and an upper right three pixel average value Only the calculation unit 73, the upper left / lower right diagonal three-pixel minimum value calculator 74, the lower left three-pixel maximum value calculator 75, and the upper right three-pixel maximum value calculator 76 are replaced. A detailed description is omitted.

【0094】そこで、ここでは、式を用いて説明するも
のとする。1画素左斜線検出部43では、下記式(1
1)〜式(15)がすべて成立するときは、図16
(d)に示すような1画素幅の左上がり斜線があると判
定し、図16(a)のA・E・Iに対応する画素値とし
てそれぞれ高レベルを出力し、逆に式(11)〜式(1
5)が1つでも成立しないときは、図16(d)に示す
ような1画素幅の左上がり斜線は無いと判定し、それぞ
れ低レベルを出力する。
Therefore, here, the description will be made using equations. In the one-pixel left-slanting-line detecting unit 43, the following equation (1)
When all of the expressions (1) to (15) hold, FIG.
It is determined that there is a one-pixel-wide diagonal line as shown in FIG. 16D, and high levels are output as pixel values corresponding to A, E, and I in FIG. ~ Equation (1
If at least one of 5) is not satisfied, it is determined that there is no oblique line rising to the left of one pixel width as shown in FIG.

【0095】 AVE(PA ,PE ,PI )−AVE(PD ,PG ,PH )>TH7…(11) AVE(PA ,PE ,PI )−AVE(PB ,PC ,PF )>TH7…(12) MIN(PA ,PE ,PI )>TH8 …(13) MAX(PD ,PG ,PH )<TH9 …(14) MAX(PB ,PC ,PF )<TH9 …(15)AVE (P A , P E , P I ) −AVE (P D , P G , P H )> TH7 (11) AVE (P A , P E , P I ) −AVE (P B , P C, P F)> TH7 ... (12) MIN (P A, P E, P I)> TH8 ... (13) MAX (P D, P G, P H) <TH9 ... (14) MAX (P B, P C , P F ) <TH9 (15)

【0096】つぎに、1画素右斜線検出部44について
説明する。1画素右斜線検出部44は、3×3画素マト
リクスを用いて図16(e)に示すような1画素幅の右
上がり斜線を検出する。図20に、1画素右斜線検出部
44の構成例を示す。その構成は、図17の1画素横線
検出部41に対して、第1行平均値算出部51、第2行
平均値算出部52、第3行平均値算出部53、第2行最
小値算出部54、第1行最大値算出部55および第3行
最大値算出部56が、左上3画素平均値算出部81、右
上・左下斜め方向3画素平均値算出部82、右下3画素
平均値算出部83、右上・左下斜め方向3画素最小値算
出部84、左上3画素最大値算出部85および右下3画
素最大値算出部86に代わっただけであり、基本的に同
じであるためその詳細については説明を省略する。
Next, the one-pixel oblique line detector 44 will be described. The one-pixel right diagonal line detection unit 44 detects an upward diagonal line with a one-pixel width as shown in FIG. 16E using a 3 × 3 pixel matrix. FIG. 20 shows a configuration example of the one-pixel oblique line detection unit 44. The configuration is different from the one-pixel horizontal line detection unit 41 of FIG. 17 in that a first row average value calculation unit 51, a second row average value calculation unit 52, a third row average value calculation unit 53, and a second row minimum value calculation unit The unit 54, the first row maximum value calculation unit 55, and the third row maximum value calculation unit 56 include an upper left three pixel average value calculator 81, an upper right and lower left diagonal three pixel average value calculator 82, and a lower right three pixel average value. Only the calculation unit 83, the upper right / lower left diagonal three-pixel minimum value calculator 84, the upper left three-pixel maximum value calculator 85, and the lower right three-pixel maximum value calculator 86 are replaced. A detailed description is omitted.

【0097】そこで、ここでは、式を用いて説明するも
のとする。1画素右斜線検出部44では、下記式(1
6)〜式(20)がすべて成立するときは、図16
(e)に示すような1画素幅の右上がり斜線があると判
定し、図16(a)のC・E・Gに対応する画素値とし
てそれぞれ高レベルを出力し、逆に式(16)〜式(2
0)が1つでも成立しないときは、図16(e)に示す
ような1画素幅の右上がり斜線は無いと判定し、それぞ
れ低レベルを出力する。
Therefore, here, the description will be made using equations. The one-pixel oblique line detection unit 44 calculates the following equation (1)
When all the expressions (6) to (20) hold, FIG.
It is determined that there is an oblique line rising to the right with a width of one pixel as shown in (e), and a high level is output as a pixel value corresponding to C, E, G in FIG. ~ Equation (2
If at least one of 0) does not hold, it is determined that there is no oblique line rising to the right with one pixel width as shown in FIG.

【0098】 AVE(PC ,PE ,PG )−AVE(PA ,PB ,PD )>TH10…(16) AVE(PC ,PE ,PG )−AVE(PF ,PH ,PI )>TH10…(17) MIN(PC ,PE ,PG )>TH11 …(18) MAX(PA ,PB ,PD )<TH12 …(19) MAX(PF ,PH ,PI )<TH13 …(20)AVE (P C , P E , P G ) −AVE (P A , P B , P D )> TH10 (16) AVE (P C , P E , P G ) −AVE (P F , P G ) H , P I )> TH 10 (17) MIN (P C , P E , P G )> TH 11 (18) MAX (P A , P B , P D ) <TH 12 (19) MAX (P F , P H , P I ) <TH13 (20)

【0099】つぎに、2画素横線検出部45に関して、
図21および図22を用いて説明する。図21は、2画
素幅の各線検出部で検出する線の種類を説明する図であ
る。2画素横線検出部45は、4×4画素マトリクスを
用いて図21(b)に示すような2画素幅の横線を検出
する。2画素横線検出部45の構成の一例を示す図22
において、入力された画像データは、第1行平均値算出
部91、第2・3行平均値算出部92、第4行平均値算
出部93、第2・3行最小値算出部94、第1行最大値
算出部95、第4行最大値算出部96にそれぞれ入力さ
れる。
Next, regarding the two-pixel horizontal line detection unit 45,
This will be described with reference to FIGS. FIG. 21 is a diagram illustrating the types of lines detected by each line detection unit having a width of two pixels. The two-pixel horizontal line detection unit 45 detects a horizontal line having a width of two pixels as shown in FIG. 21B using a 4 × 4 pixel matrix. FIG. 22 showing an example of the configuration of the two-pixel horizontal line detection unit 45.
, The input image data is divided into a first row average value calculation section 91, a second and third row average value calculation section 92, a fourth row average value calculation section 93, a second and third row minimum value calculation section 94, It is input to the one-row maximum value calculation unit 95 and the fourth-row maximum value calculation unit 96, respectively.

【0100】第1行平均値算出部91では、4×4画素
マトリクスの1行目4画素の画素値の平均、即ち図21
(a)に示すJ、K、L、Mの画素値の平均AVE(P
J ,PK ,PL ,PM )を求める。また、第2・3行平
均値算出部92ではAVE(PN ,PO ,PP ,PQ
R ,PS ,PT ,PU )を、第4行平均値算出部93
ではAVE(PV ,PW ,PX ,PY )を求める。
In the first row average value calculation section 91, the average of the pixel values of the four pixels in the first row of the 4 × 4 pixel matrix, that is, FIG.
The average AVE (P) of the pixel values of J, K, L and M shown in FIG.
J, P K, P L, the P M) seek. In the second / third row average value calculation unit 92, AVE (P N , P O , P P , P Q ,
P R , P S , P T , P U ) by the fourth row average value calculation unit 93
Then, AVE (P V , P W , P X , P Y ) is obtained.

【0101】第2・3行最小値算出部94では、N,
O,P,Q,R,S,T,Uの各画素値の最小値MIN
(PN ,PO ,PP ,PQ ,PR ,PS ,PT ,PU
を求める。第1行最大値算出部95では、J,K,L,
Mの各画素値の最大値MAX(PJ ,PK ,PL
M )を求める。また、第4行最大値算出部96では、
MAX(PV ,PW ,PX ,PY )を求める。
In the second / third row minimum value calculating section 94, N,
Minimum value MIN of each pixel value of O, P, Q, R, S, T, U
(P N , P O , P P , P Q , P R , P S , P T , P U )
Ask for. In the first row maximum value calculation unit 95, J, K, L,
The maximum value MAX (P J , P K , P L ,
P M ). In the fourth row maximum value calculation unit 96,
MAX (P V , P W , P X , P Y ) is obtained.

【0102】第2・3行平均値算出部92の演算結果と
第1行平均値算出部91の演算結果は共に減算部97−
1に入力され、第2・3行平均値算出部92の演算結果
から第1行平均値算出部91の演算結果を減算する処理
が行われる。また、第2・3行平均値算出部92の演算
結果と第4行平均値算出部93の演算結果は共に減算部
97−2に入力され、第2・3行平均値算出部92の演
算結果から第4行平均値算出部93の演算結果を減算す
る処理が行われる。
The calculation result of the second and third row average value calculation section 92 and the calculation result of the first row average value calculation section 91 are both subtracted by the subtraction section 97-
1 and a process of subtracting the calculation result of the first row average value calculation unit 91 from the calculation result of the second and third row average value calculation unit 92 is performed. Both the calculation result of the second and third row average value calculation section 92 and the calculation result of the fourth row average value calculation section 93 are input to the subtraction section 97-2, and the calculation of the second and third row average value calculation section 92 is performed. A process of subtracting the calculation result of the fourth row average value calculation unit 93 from the result is performed.

【0103】減算部97−1での演算結果は比較部98
−1に入力されて所定の閾値TH13との比較が行わ
れ、減算部97−1での演算結果の方が閾値TH13よ
りも大きい場合には高レベルが、等しいかもしくは小さ
い場合には低レベルが比較部98−1から出力される。
また、減算部97−2での演算結果は比較部98−2に
入力されて所定の閾値TH13との比較が行われ、減算
部97−2での演算結果の方が閾値TH13よりも大き
い場合には高レベルが、等しいかもしくは小さい場合に
は低レベルが比較部98−2から出力される。
The operation result of subtraction section 97-1 is compared with comparison section 98.
-1 is input and compared with a predetermined threshold value TH13. When the operation result of the subtraction unit 97-1 is larger than the threshold value TH13, the high level is set. Is output from the comparing section 98-1.
Also, the operation result of the subtraction unit 97-2 is input to the comparison unit 98-2 and compared with a predetermined threshold value TH13, and the operation result of the subtraction unit 97-2 is larger than the threshold value TH13. The high level is output from the comparator 98-2 when the level is equal or lower.

【0104】第2・3行最小値算出部94での演算結果
は比較部98−3に入力されて所定の閾値TH14との
比較が行われ、第2・3行最小値算出部94での演算結
果の方が閾値TH14よりも大きい場合には高レベル
が、等しいかもしくは小さい場合には低レベルが比較部
98−3から出力される。
The calculation result of the second / third row minimum value calculating section 94 is input to the comparing section 98-3, and is compared with a predetermined threshold value TH14. When the operation result is larger than the threshold value TH14, the high level is output from the comparison unit 98-3 when the operation result is equal to or smaller than the threshold value TH14.

【0105】第1行最大値算出部95での演算結果は比
較部98−4に入力されて所定の閾値TH15との比較
が行われ、第1行最大値算出部95での演算結果の方が
閾値TH15よりも小さい場合には高レベルが、大きい
かもしくは等しい場合には低レベルが比較部98−4か
ら出力される。また、第4行最大値算出部96での演算
結果は比較部98−5に入力されて所定の閾値TH15
との比較が行われ、第4行最大値算出部96での演算結
果の方が閾値TH15よりも小さい場合には高レベル
が、大きいかもしくは等しい場合には低レベルが比較部
98−5から出力される。
The calculation result of the first row maximum value calculation unit 95 is input to the comparison unit 98-4, where it is compared with a predetermined threshold value TH15. Is smaller than the threshold value TH15, the high level is output from the comparing section 98-4 when the level is larger or equal. The calculation result in the fourth row maximum value calculation unit 96 is input to the comparison unit 98-5, and is input to the predetermined threshold TH15.
The high level is obtained when the operation result of the fourth row maximum value calculation unit 96 is smaller than the threshold value TH15, and the low level is obtained when the operation result is larger or equal to the threshold value. Is output.

【0106】比較部98−1〜98−5の比較結果は全
て論理積演算部99に入力され、この論理積演算部99
において比較部98−1〜98−5の比較結果の論理積
が演算される。論理積演算部99から出力された結果が
2画素横線検出部45の出力結果となり、高レベルの場
合は図21(b)に示すような2画素幅の横線があると
判定され、逆に低レベルの場合は2画素幅の横線が無い
と判定される。
All the comparison results of the comparison units 98-1 to 98-5 are input to the AND operation unit 99, and the AND operation unit 99
, The logical product of the comparison results of the comparison units 98-1 to 98-5 is calculated. The result output from the logical product operation unit 99 is the output result of the two-pixel horizontal line detection unit 45. When the result is high, it is determined that there is a two-pixel width horizontal line as shown in FIG. In the case of the level, it is determined that there is no horizontal line having a width of two pixels.

【0107】すなわち、2画素横線検出部45では、下
記式(21)〜式(25)がすべて成立するときは、図
21(b)に示すような2画素幅の横線があると判定
し、図21(a)のN・O・P・Q・R・S・T・Uに
対応する画素値としてそれぞれ高レベルを出力し、逆に
式(21)〜式(25)が1つでも成立しないときは、
図21(b)に示すような2画素幅の横線は無いと判定
し、それぞれ低レベルを出力する。
That is, when all of the following equations (21) to (25) hold, the two-pixel horizontal line detector 45 determines that there is a horizontal line having a two-pixel width as shown in FIG. A high level is output as a pixel value corresponding to N, O, P, Q, R, S, T and U in FIG. 21 (a), and conversely, even one of equations (21) to (25) holds. If not,
It is determined that there is no horizontal line having a width of two pixels as shown in FIG.

【0108】 AVE(PN ,PO ,PP ,PQ ,PR ,PS ,PT ,PU ) −AVE(PJ ,PK ,PL ,PM )>TH13 …(21) AVE(PN ,PO ,PP ,PQ ,PR ,PS ,PT ,PU ) −AVE(PV ,PW ,PX ,PY )>TH13 …(22) MIN(PN ,PO ,PP ,PQ ,PR ,PS ,PT ,PU ) >TH14 …(23) MAX(PJ ,PK ,PL ,PM )<TH15 …(24) MAX(PV ,PW ,PX ,PY )<TH15 …(25)AVE (P N , P O , P P , P Q , P R , P S , P T , P U ) −AVE (P J , P K , P L , P M )> TH13 (21) AVE (P N , P O , P P , P Q , P R , P S , P T , P U ) −AVE (P V , P W , P X , P Y )> TH 13 (22) MIN (P N, P O, P P, P Q, P R, P S, P T, P U)> TH14 ... (23) MAX (P J, P K, P L, P M) <TH15 ... (24) MAX (P V , P W , P X , P Y ) <TH15 (25)

【0109】つぎに、2画素縦線検出部46について説
明する。2画素縦線検出部46は、4×4画素マトリク
スを用いて図21(c)に示すような2画素幅の縦線を
検出する。
Next, the two-pixel vertical line detector 46 will be described. The two-pixel vertical line detector 46 detects a two-pixel vertical line as shown in FIG. 21C using a 4 × 4 pixel matrix.

【0110】図23に、2画素縦線検出部46の構成例
を示す。その構成は、図22の2画素横線検出部45に
対して、第1行平均値算出部91、第2・3行平均値算
出部92、第4行平均値算出部93、第2・3行最小値
算出部94、第1行最大値算出部95および第4行最大
値算出部96が、第1列平均値算出部101、第2・3
列平均値算出部102、第4列平均値算出部103、第
2・3列最小値算出部104、第1列最大値算出部10
5および第4列最大値算出部106に代わっただけであ
り、基本的に同じであるためその詳細については説明を
省略する。
FIG. 23 shows an example of the configuration of the two-pixel vertical line detector 46. The configuration is different from the two-pixel horizontal line detection unit 45 in FIG. 22 in that a first row average value calculation unit 91, a second and third row average value calculation unit 92, a fourth row average value calculation unit 93, a second and third The row minimum value calculation unit 94, the first row maximum value calculation unit 95, and the fourth row maximum value calculation unit 96 include a first column average value calculation unit 101,
Column average value calculation section 102, fourth column average value calculation section 103, second and third column minimum value calculation section 104, first column maximum value calculation section 10
Only the fifth and fourth column maximum value calculation units 106 have been replaced, and are basically the same.

【0111】そこで、ここでは、式を用いて説明するも
のとする。2画素縦線検出部46では、下記式(26)
〜式(30)がすべて成立するときは、図21(c)に
示すような2画素幅の縦線があると判定し、図21
(a)のK・L・O・P・S・T・W・Xに対応する画
素値としてそれぞれ高レベルを出力し、逆に式(26)
〜式(30)が1つでも成立しないときは、図21
(c)に示すような2画素幅の縦線は無いと判定し、そ
れぞれ低レベルを出力する。
Therefore, here, the description will be made using equations. In the two-pixel vertical line detector 46, the following equation (26) is used.
When all of the expressions (30) are satisfied, it is determined that there is a vertical line having a width of two pixels as shown in FIG.
A high level is output as a pixel value corresponding to K, L, O, P, S, T, W, and X in FIG.
When even one of the expressions (30) is not satisfied, FIG.
It is determined that there is no vertical line having a width of two pixels as shown in (c), and a low level is output for each.

【0112】 AVE(PK ,PL ,PO ,PP ,PS ,PT ,PW ,PX ) −AVE(PJ ,PN ,PR ,PV )>TH16 …(26) AVE(PK ,PL ,PO ,PP ,PS ,PT ,PW ,PX ) −AVE(PM ,PQ ,PU ,PY )>TH16 …(27) MIN(PK ,PL ,PO ,PP ,PS ,PT ,PW ,PX ) >TH17 …(28) MAX(PJ ,PN ,PR ,PV )<TH18 …(29) MAX(PM ,PQ ,PU ,PY )<TH18 …(30)AVE (P K , P L , P O , P P , P S , P T , P W , P X ) −AVE (P J , P N , P R , P V )> TH 16 (26) AVE (P K , P L , P O , P P , P S , P T , P W , P X ) −AVE (P M , P Q , P U , P Y )> TH 16 (27) MIN (P K , P L , P O , P P , P S , P T , P W , P X )> TH 17 (28) MAX (P J , P N , P R , P V ) <TH 18 (29) MAX (P M , P Q , P U , P Y ) <TH18 (30)

【0113】つぎに、2画素左斜線検出部47について
説明する。2画素左斜線検出部47は、4×4画素マト
リクスを用いて図21(d)に示すような2画素幅の左
上がりの斜線を検出する。
Next, the two-pixel left oblique line detecting section 47 will be described. The two-pixel left oblique line detection unit 47 detects an obliquely upward diagonal line having a two-pixel width as shown in FIG. 21D using a 4 × 4 pixel matrix.

【0114】図24に、2画素左斜線検出部47の構成
例を示す。その構成は、図22の2画素横線検出部45
に対して、第1行平均値算出部91、第2・3行平均値
算出部92、第4行平均値算出部93、第2・3行最小
値算出部94、第1行最大値算出部95および第4行最
大値算出部96が、左下3画素平均値算出部111、左
上・右下斜方向10画素平均値算出部112、右上3画
素平均値算出部113、左上・右下斜方向10画素最小
値算出部114、左下3画素最大値算出部115および
右上3画素最大値算出部116に代わっただけであり、
基本的に同じであるためその詳細については説明を省略
する。
FIG. 24 shows an example of the configuration of the two-pixel left oblique line detecting section 47. The configuration is the same as that of the two-pixel horizontal line detector 45 shown in FIG.
The first row average value calculation section 91, the second and third row average value calculation section 92, the fourth row average value calculation section 93, the second and third row minimum value calculation section 94, the first row maximum value calculation The unit 95 and the fourth row maximum value calculation unit 96 include a lower left three pixel average value calculator 111, an upper left / lower right lower 10 pixel average value calculator 112, an upper right three pixel average value calculator 113, an upper left / lower right tilt Only the direction 10 pixel minimum value calculation unit 114, the lower left 3 pixel maximum value calculation unit 115, and the upper right 3 pixel maximum value calculation unit 116 are replaced.
The details are omitted because they are basically the same.

【0115】そこで、ここでは、式を用いて説明するも
のとする。2画素左斜線検出部47では、下記式(3
1)〜式(35)がすべて成立するときは、図21
(d)に示すような2画素幅の左上がりの斜線があると
判定し、図21(a)のJ・K・N・O・P・S・T・
U・X・Yに対応する画素値としてそれぞれ高レベルを
出力し、逆に式(31)〜式(35)が1つでも成立し
ないときは、図21(d)に示すような2画素幅の左上
がりの斜線は無いと判定し、それぞれ低レベルを出力す
る。
Therefore, here, description will be made using an equation. In the two-pixel left oblique line detection unit 47, the following equation (3)
When all of 1) to (35) hold, FIG.
It is determined that there is a two-pixel-width oblique line rising to the left as shown in FIG. 21D, and JKNOPSTST in FIG.
A high level is output as a pixel value corresponding to U, XY, and Y. On the contrary, when even one of Expressions (31) to (35) does not hold, a two-pixel width as shown in FIG. It is determined that there is no oblique line rising to the left, and each outputs a low level.

【0116】 AVE(PJ ,PK ,PN ,PO ,PP ,PS ,PT ,PU ,PX ,PY ) −AVE(PR ,PV ,PW )>TH19 …(31) AVE(PJ ,PK ,PN ,PO ,PP ,PS ,PT ,PU ,PX ,PY ) −AVE(PL ,PM ,PQ )>TH19 …(32) MIN(PJ ,PK ,PN ,PO ,PP ,PS ,PT ,PU ,PX ,PY ) >TH20 …(33) MAX(PR ,PV ,PW )<TH21 …(34) MAX(PL ,PM ,PQ )<TH21 …(35)AVE (P J , P K , P N , P O , P P , P S , P T , P U , P X , P Y ) −AVE (P R , P V , P W )> TH 19 ... (31) AVE (P J, P K, P N, P O, P P, P S, P T, P U, P X, P Y) -AVE (P L, P M, P Q)> TH19 ... (32) MIN (P J, P K, P N, P O, P P, P S, P T, P U, P X, P Y)> TH20 ... (33) MAX (P R, P V, P W) <TH21 ... (34) MAX (P L, P M, P Q) <TH21 ... (35)

【0117】つぎに、2画素右斜線検出部48について
説明する。2画素右斜線検出部48は、4×4画素マト
リクスを用いて図21(e)に示すような2画素幅の右
上がりの斜線を検出する。
Next, the two-pixel oblique line detection unit 48 will be described. The two-pixel right diagonal line detection unit 48 detects a two-pixel width diagonally rightward diagonal line as shown in FIG. 21E using a 4 × 4 pixel matrix.

【0118】図25に、2画素右斜線検出部48の構成
例を示す。その構成は、図22の2画素横線検出部45
に対して、第1行平均値算出部91、第2・3行平均値
算出部92、第4行平均値算出部93、第2・3行最小
値算出部94、第1行最大値算出部95および第4行最
大値算出部96が、左上3画素平均値算出部121、右
上・左下斜方向10画素平均値算出部122、右下3画
素平均値算出部123、右上・左下斜方向10画素最小
値算出部124、左上3画素最大値算出部125および
右下3画素最大値算出部126に代わっただけであり、
基本的に同じであるためその詳細については説明を省略
する。
FIG. 25 shows a configuration example of the two-pixel oblique line detection unit 48. The configuration is the same as that of the two-pixel horizontal line detector 45 shown in FIG.
The first row average value calculation section 91, the second and third row average value calculation section 92, the fourth row average value calculation section 93, the second and third row minimum value calculation section 94, the first row maximum value calculation The unit 95 and the fourth row maximum value calculation unit 96 include an upper-left three-pixel average value calculator 121, an upper-right / lower-left lower direction 10-pixel average value calculator 122, a lower-right three-pixel average value calculator 123, and an upper-right / lower-left lower direction Only the 10 pixel minimum value calculation unit 124, the upper left 3 pixel maximum value calculation unit 125, and the lower right 3 pixel maximum value calculation unit 126 are replaced.
The details are omitted because they are basically the same.

【0119】そこで、ここでは、式を用いて説明するも
のとする。2画素右斜線検出部48では、下記式(3
6)〜式(40)がすべて成立するときは、図21
(e)に示すような2画素幅の右上がりの斜線があると
判定し、図21(a)のL・M・O・P・Q・R・S・
T・V・Wに対応する画素値としてそれぞれ高レベルを
出力し、逆に式(36)〜式(40)が1つでも成立し
ないときは、図21(e)に示すような2画素幅の右上
がりの斜線は無いと判定し、それぞれ低レベルを出力す
る。
Therefore, here, the description will be made using equations. The two-pixel oblique line detection unit 48 calculates the following equation (3)
When all of the expressions 6) to (40) hold, FIG.
It is determined that there is a two-pixel-width upward diagonal line as shown in (e), and L, M, O, P, Q, R, S, and L in FIG.
A high level is output as a pixel value corresponding to TVW. Conversely, if at least one of Equations (36) to (40) does not hold, a two-pixel width as shown in FIG. It is determined that there is no oblique line rising to the right, and each outputs a low level.

【0120】 AVE(PL ,PM ,PO ,PP ,PQ ,PR ,PS ,PT ,PV ,PW ) −AVE(PJ ,PK ,PN )>TH22 …(36) AVE(PL ,PM ,PO ,PP ,PQ ,PR ,PS ,PT ,PV ,PW ) −AVE(PU ,PX ,PY )>TH22 …(37) MIN(PL ,PM ,PO ,PP ,PQ ,PR ,PS ,PT ,PV ,PW ) >TH23 …(38) MAX(PJ ,PK ,PN )<TH24 …(39) MAX(PU ,PX ,PY )<TH24 …(40)AVE (P L , P M , P O , P P , P Q , P R , P S , P T , P V , P W )-AVE (P J , P K , P N )> TH 22 ... (36) AVE (P L , P M , P O , P P , P Q , P R , P S , P T , P V , P W )-AVE (P U , P X , P Y )> TH22 ... (37) MIN (P L , P M , P O , P P , P Q , P R , P S , P T , P V , P W )> TH23 (38) MAX (P J , P K , P N) <TH24 ... (39) MAX (P U, P X, P Y) <TH24 ... (40)

【0121】つづいて、線抽出部31−0〜線抽出部3
1−Nの他の例について説明する。前述したように、本
実施形態では、1画素および2画素幅の線分を抽出する
処理としているが、このサイズに限らず他の線幅をも抽
出する処理としても構わない。また、ここでの説明で
は、線抽出部31−0〜線抽出部31−Nはすべて同じ
処理であるとして、線抽出部31−0についてのみ説明
するが、線抽出部31−0〜線抽出部31−Nをそれぞ
れ異なる処理として線を抽出しても構わない。図26
は、線抽出部31−0の構成の他の例を示すブロック図
である。
Subsequently, the line extracting units 31-0 to 3-3
Another example of 1-N will be described. As described above, in the present embodiment, the line segment having a width of one pixel and two pixels is extracted. However, the present invention is not limited to this size, and may be a process of extracting another line width. In this description, it is assumed that all the line extraction units 31-0 to 31-N perform the same processing, and only the line extraction unit 31-0 will be described. Lines may be extracted as different processes in the units 31-N. FIG.
FIG. 14 is a block diagram illustrating another example of the configuration of the line extraction unit 31-0.

【0122】図26において、線抽出部31−0に入力
された画像信号は、1画素の線幅を持つ横線を検出する
1画素横線左検出部131と1画素横線右検出部13
2、1画素の線幅を持つ縦線を検出する1画素縦線上検
出部133と1画素縦線下検出部134、1画素の線幅
を持つ左上がりの斜線を検出する1画素左斜線上検出部
135と1画素左斜線下検出部136、1画素の線幅を
持つ右上がりの斜線を検出する1画素右斜線上検出部1
37と1画素右斜線下検出部138、2画素の線幅を持
つ横線を検出する2画素横線左検出部139と2画素横
線右検出部140、2画素の線幅を持つ縦線を検出する
2画素縦線上検出部141と2画素縦線下検出部14
2、2画素の線幅を持つ左上がりの斜線を検出する2画
素左斜線上検出部143と2画素左斜線下検出部14
4、2画素の線幅を持つ右上がりの斜線を検出する2画
素右斜線上検出部145と2画素右斜線下検出部146
にそれぞれ入力される。
In FIG. 26, the image signal input to the line extracting unit 31-0 includes a one-pixel horizontal line left detecting unit 131 and a one-pixel horizontal line right detecting unit 13 for detecting a horizontal line having a line width of one pixel.
2, a one-pixel vertical line upper detector 133 for detecting a vertical line having a line width of one pixel and a one-pixel vertical line lower detector 134 for detecting a left-upward diagonal line having a line width of one pixel; Detecting unit 135 and one-pixel left-below-line detecting unit 136, one-pixel right-behind-line detecting unit 1 for detecting a right-upward diagonal line having a line width of one pixel
37 and 1 pixel right diagonal under line detection section 138 and 2 pixel horizontal line left detection section 139 and 2 pixel horizontal line right detection section 140 which detect a horizontal line having a line width of 2 pixels. A vertical line having a line width of 2 pixels is detected. Two-pixel vertical line above detector 141 and two-pixel vertical line below detector 14
A two-pixel left diagonal upper detecting unit 143 and a two-pixel left diagonal lower detecting unit 14 for detecting a diagonally rising line having a line width of 2, 2 pixels
4, a two-pixel right oblique line upper detecting unit 145 and a two-pixel right oblique line lower detecting unit 146 for detecting an upward diagonal line having a line width of two or two pixels
Respectively.

【0123】1画素横線左検出部131、1画素横線右
検出部132、1画素縦線上検出部133、1画素縦線
下検出部134、1画素左斜線上検出部135、1画素
左斜線下検出部136、1画素右斜線上検出部137、
1画素右斜線下検出部138、2画素横線左検出部13
9、2画素横線右検出部140、2画素縦線上検出部1
41、2画素縦線下検出部142、2画素左斜線上検出
部143、2画素左斜線下検出部144、2画素右斜線
上検出部145、2画素右斜線下検出部146の詳細に
ついては後述する。
One-pixel horizontal line left detector 131, one-pixel horizontal line right detector 132, one-pixel vertical line upper detector 133, one-pixel vertical line lower detector 134, one-pixel upper left line detector 135, one-pixel lower left line A detection unit 136, a detection unit 137 on the right diagonal line of one pixel,
One pixel right diagonal line under detection unit 138, two pixel horizontal line left detection unit 13
9, 2 pixel horizontal line right detector 140, 2 pixel vertical line detector 1
41, a two-pixel vertical line under detection unit 142, a two-pixel left diagonal under-detection unit 143, a two-pixel left diagonal under-detection unit 144, a two-pixel right diagonal under-detection unit 145, and a two-pixel right diagonal under-line detection unit 146 It will be described later.

【0124】これら検出部131〜146によって検出
されたそれぞれ1画素幅の横・縦・左上がりの斜線、右
上がりの斜線および、2画素幅の横・縦・左上がりの斜
線、右上がりの斜線の検出結果は、論理和演算部147
に入力され、画素ごとに検出結果の論理和演算が行われ
る。そして、この論理和演算部147で行われた論理和
演算の結果を線抽出部31−0での線抽出結果として出
力する。
The horizontal / vertical / left-upward diagonal lines, rightward-upward diagonal lines, 1-pixel-wide horizontal / vertical / leftward-upward diagonal lines, and rightward-upward diagonal lines detected by the detection units 131 to 146, respectively. Is detected by the logical sum operation unit 147.
And a logical sum operation of the detection result is performed for each pixel. Then, the result of the OR operation performed by the OR operation unit 147 is output as a line extraction result by the line extraction unit 31-0.

【0125】つぎに、1画素横線左検出部131に関し
て図16を用いて説明する。1画素横線左検出部131
は、3×3画素マトリクスを用いて図16(f)に示す
ような1画素幅の横線を検出する。今、3×3画素を図
16(a)に示すようにA〜Iで呼ぶこととし、それぞ
れの画素値をPA 〜PI とする。このとき、1画素横線
左検出部131では、下記式(41)〜式(45)がす
べて成立するときは、図16(f)に示すような1画素
幅の横線があると判定し、図16(a)のD・Eに対応
する画素値としてそれぞれ高レベルを出力し、逆に式
(41)〜式(45)が1つでも成立しないときは、図
16(f)に示すような1画素幅の横線は無いと判定
し、それぞれ低レベルを出力する。
Next, the one-pixel horizontal line left detector 131 will be described with reference to FIG. 1-pixel horizontal line left detector 131
Detects a horizontal line having a width of one pixel as shown in FIG. 16F using a 3 × 3 pixel matrix. Now, 3 × 3 pixels are called A to I as shown in FIG. 16A, and their pixel values are P A to P I. At this time, when all of the following equations (41) to (45) hold, the one-pixel horizontal line left detection unit 131 determines that there is a horizontal line of one pixel width as shown in FIG. 16 (a), a high level is output as a pixel value corresponding to D · E. Conversely, when even one of the equations (41) to (45) does not hold, the state shown in FIG. It is determined that there is no horizontal line having a width of one pixel, and a low level is output.

【0126】 AVE(PD ,PE )−AVE(PA ,PB )>TH41 …(41) AVE(PD ,PE )−AVE(PG ,PH )>TH41 …(42) MIN(PD ,PE )>TH42 …(43) MAX(PA ,PB )<TH43 …(44) MAX(PG ,PH )<TH43 …(45) なお、ここで、AVE( ),MIN( ),MAX
( )はそれぞれ、( )内の画素値の平均値、最小
値、最大値を表す。またTH41〜TH44はそれぞ
れ、あらかじめ定められた所定の閾値とする。
[0126] AVE (P D, P E) -AVE (P A, P B)> TH41 ... (41) AVE (P D, P E) -AVE (P G, P H)> TH41 ... (42) MIN (P D, P E)> TH42 ... (43) MAX (P A, P B) <TH43 ... (44) MAX (P G, P H) <TH43 ... (45) Note that, where, AVE (), MIN (), MAX
() Indicates the average value, the minimum value, and the maximum value of the pixel values in (), respectively. In addition, TH41 to TH44 are respectively predetermined thresholds.

【0127】1画素横線左検出部131で上記のような
処理を行うこととすることにより、図16(b)に図示
したような横線の検出も可能であり、また横線の右端の
検出も可能となる。
By performing the above-described processing in the one-pixel horizontal line left detection unit 131, the horizontal line as shown in FIG. 16B can be detected, and the right end of the horizontal line can also be detected. Becomes

【0128】つぎに、1画素横線右検出部132に関し
て図16を用いて説明する。1画素横線右検出部132
は、3×3画素マトリクスを用いて図16(j)に示す
ような1画素幅の横線を検出する。この1画素横線右検
出部132では、下記式(46)〜式(50)がすべて
成立するときは、図16(j)に示すような1画素幅の
横線があると判定し、図16(a)のE・Fに対応する
画素値としてそれぞれ高レベルを出力し、逆に式(4
6)〜式(50)が1つでも成立しないときは、図16
(j)に示すような1画素幅の横線は無いと判定し、そ
れぞれ低レベルを出力する。
Next, the one-pixel horizontal line right detector 132 will be described with reference to FIG. 1 pixel horizontal line right detection unit 132
Detects a horizontal line of one pixel width as shown in FIG. 16 (j) using a 3 × 3 pixel matrix. When the following equations (46) to (50) are all satisfied, the one-pixel horizontal line right detection unit 132 determines that there is a one-pixel width horizontal line as shown in FIG. a) outputs a high level as a pixel value corresponding to EF in FIG.
When even one of the expressions 6) to (50) does not hold, FIG.
It is determined that there is no horizontal line having a width of one pixel as shown in (j), and a low level is output for each.

【0129】 AVE(PE ,PF )−AVE(PB ,PC )>TH44 …(46) AVE(PE ,PF )−AVE(PH ,PI )>TH44 …(47) MIN(PE ,PF )>TH45 …(48) MAX(PB ,PC )<TH46 …(49) MAX(PH ,PI )<TH46 …(50)AVE (P E , P F ) -AVE (P B , P C )> TH44 ... (46) AVE (P E , P F ) -AVE (P H , P I )> TH44 ... (47) MIN (P E , P F )> TH 45 (48) MAX (P B , P C ) <TH 46 (49) MAX (P H , P I ) <TH 46 (50)

【0130】つぎに、1画素縦線上検出部133に関し
て図16を用いて説明する。1画素縦線上検出部133
は、3×3画素マトリクスを用いて図16(g)に示す
ような1画素幅の縦線を検出する。1画素縦線検出部1
33では、下記式(51)〜式(55)がすべて成立す
るときは、図16(g)に示すような1画素幅の縦線が
あると判定し、図16(a)のB・Eに対応する画素値
としてそれぞれ高レベルを出力し、逆に式(51)〜式
(55)が1つでも成立しないときは、図16(g)に
示すような1画素幅の縦線は無いと判定し、それぞれ低
レベルを出力する。
Next, the one-pixel vertical line detection section 133 will be described with reference to FIG. One pixel vertical line detection unit 133
Detects a vertical line having a width of one pixel as shown in FIG. 16 (g) using a 3 × 3 pixel matrix. 1 pixel vertical line detector 1
In 33, when all of the following equations (51) to (55) hold, it is determined that there is a vertical line of one pixel width as shown in FIG. 16 (g), and BE in FIG. Is output as a pixel value corresponding to the above, and conversely, when even one of the equations (51) to (55) does not hold, there is no vertical line of one pixel width as shown in FIG. And outputs a low level.

【0131】 AVE(PB ,PE )−AVE(PA ,PD )>TH47 …(51) AVE(PB ,PE )−AVE(PC ,PF )>TH47 …(52) MIN(PB ,PE )>TH48 …(53) MAX(PA ,PD )<TH49 …(54) MAX(PC ,PF )<TH49 …(55)AVE (P B , P E ) −AVE (P A , P D )> TH47 (51) AVE (P B , P E ) −AVE (P C , P F )> TH47 (52) MIN (P B, P E)> TH48 ... (53) MAX (P A, P D) <TH49 ... (54) MAX (P C, P F) <TH49 ... (55)

【0132】つぎに、1画素縦線下検出部134に関し
て図16を用いて説明する。1画素縦線下検出部134
は、3×3画素マトリクスを用いて図16(k)に示す
ような1画素幅の縦線を検出する。1画素縦線検出部1
34では、下記式(56)〜式(60)がすべて成立す
るときは、図16(k)に示すような1画素幅の縦線が
あると判定し、図16(a)のE・Hに対応する画素値
としてそれぞれ高レベルを出力し、逆に式(56)〜式
(60)が1つでも成立しないときは、図16(k)に
示すような1画素幅の縦線は無いと判定し、それぞれ低
レベルを出力する。
Next, the one-pixel vertical line under detection unit 134 will be described with reference to FIG. One pixel vertical line under detector 134
Detects a vertical line having a width of one pixel as shown in FIG. 16K using a 3 × 3 pixel matrix. 1 pixel vertical line detector 1
In 34, when all of the following equations (56) to (60) hold, it is determined that there is a vertical line of one pixel width as shown in FIG. 16 (k), and E · H in FIG. Is output as a pixel value corresponding to the above, and when at least one of the expressions (56) to (60) does not hold, there is no vertical line of one pixel width as shown in FIG. And outputs a low level.

【0133】 AVE(PE ,PH )−AVE(PD 、PG )>TH50 …(56) AVE(PE ,PH )−AVE(PF ,PI )>TH50 …(57) MIN(PE ,PH )>TH51 …(58) MAX(PD ,PG )<TH52 …(59) MAX(PF ,PI )<TH52 …(60)AVE (P E , P H ) −AVE (P D , P G )> TH50 (56) AVE (P E , P H ) −AVE (P F , P I )> TH50 (57) MIN (P E , P H )> TH 51 (58) MAX (P D , P G ) <TH 52 (59) MAX (P F , P I ) <TH 52 (60)

【0134】つぎに、1画素左斜線上検出部135に関
して図16を用いて説明する。1画素左斜線上検出部1
35は、3×3画素マトリクスを用いて図16(h)に
示すような1画素幅の左上がり斜線を検出する。この1
画素左斜線上検出部135では、下記式(61)〜式
(65)がすべて成立するときは、図16(h)に示す
ような1画素幅の左上がり斜線があると判定し、図16
(a)のA・Eに対応する画素値としてそれぞれ高レベ
ルを出力し、逆に式(61)〜式(65)が1つでも成
立しないときは、図16(h)に示すような1画素幅の
左上がり斜線は無いと判定し、それぞれ低レベルを出力
する。
Next, the one-pixel left oblique line detection section 135 will be described with reference to FIG. 1 pixel left oblique line detection unit 1
Reference numeral 35 detects a left-upward diagonal line having a width of one pixel as shown in FIG. 16H using a 3 × 3 pixel matrix. This one
When all of the following equations (61) to (65) hold, the pixel left diagonal on-detection unit 135 determines that there is a left-up diagonal line of one pixel width as shown in FIG.
A high level is output as a pixel value corresponding to A · E in (a). Conversely, if at least one of Equations (61) to (65) does not hold, 1 as shown in FIG. It is determined that there is no diagonal line of the pixel width rising to the left, and a low level is output for each.

【0135】 AVE(PA ,PE )−AVE(PD ,PG ,PH )>TH53 …(61) AVE(PA ,PE )−AVE(PB ,PC ,PF )>TH53 …(62) MIN(PA ,PE )>TH54 …(63) MAX(PD ,PG ,PH )<TH55 …(64) MAX(PB ,PC ,PF )<TH55 …(65)AVE (P A , P E ) −AVE (P D , P G , P H )> TH53 (61) AVE (P A , P E ) −AVE (P B , P C , P F )> TH53 ... (62) MIN (P A, P E)> TH54 ... (63) MAX (P D, P G, P H) <TH55 ... (64) MAX (P B, P C, P F) <TH55 ... (65)

【0136】つぎに、1画素左斜線下検出部136に関
して図16を用いて説明する。1画素左斜線下検出部1
36は、3×3画素マトリクスを用いて図16(l)に
示すような1画素幅の左上がり斜線を検出する。この1
画素左斜線下検出部136では、下記式(66)〜式
(70)がすべて成立するときは、図16(l)に示す
ような1画素幅の左上がり斜線があると判定し、図16
(a)のE・Iに対応する画素値としてそれぞれ高レベ
ルを出力し、逆に式(66)〜式(70)が1つでも成
立しないときは、図16(l)に示すような1画素幅の
左上がり斜線は無いと判定し、それぞれ低レベルを出力
する。
Next, the one-pixel left oblique line under detection unit 136 will be described with reference to FIG. 1 pixel left oblique line under detection unit 1
Reference numeral 36 uses a 3 × 3 pixel matrix to detect a left-upward diagonal line having a width of one pixel as shown in FIG. This one
When all of the following equations (66) to (70) hold, the pixel left oblique line under detection unit 136 determines that there is an obliquely upward diagonal line of one pixel width as shown in FIG.
A high level is output as a pixel value corresponding to E · I in (a). Conversely, when even one of the equations (66) to (70) does not hold, 1 as shown in FIG. It is determined that there is no diagonal line of the pixel width rising to the left, and a low level is output for each.

【0137】 AVE(PE ,PI )−AVE(PD ,PG ,PH )>TH56 …(66) AVE(PE ,PI )−AVE(PB ,PC ,PF )>TH56 …(67) MIN(PE ,PI )>TH57 …(68) MAX(PD ,PG ,PH )<TH58 …(69) MAX(PB ,PC ,PF )<TH58 …(70)AVE (P E , P I ) −AVE (P D , P G , P H )> TH56 (66) AVE (P E , P I ) −AVE (P B , P C , P F )> TH56 ... (67) MIN (P E , P I )> TH 57 ... (68) MAX (P D , P G , P H ) <TH58 ... (69) MAX (P B , P C , P F ) <TH58 ... (70)

【0138】つぎに、1画素右斜線上検出部137に関
して図16を用いて説明する。1画素右斜線上検出部1
37は、3×3画素マトリクスを用いて図16(i)に
示すような1画素幅の右上がり斜線を検出する。この1
画素右斜線上検出部137では、下記式(71)〜式
(75)がすべて成立するときは、図16(i)に示す
ような1画素幅の右上がり斜線があると判定し、図16
(a)のC・Eに対応する画素値としてそれぞれ高レベ
ルを出力し、逆に式(71)〜式(75)が1つでも成
立しないときは、図16(i)に示すような1画素幅の
右上がり斜線は無いと判定し、それぞれ低レベルを出力
する。
Next, the one-pixel right oblique line detector 137 will be described with reference to FIG. 1 pixel right oblique line detector 1
Reference numeral 37 uses a 3 × 3 pixel matrix to detect an oblique line rising to the right with a width of one pixel as shown in FIG. This one
When the following equations (71) to (75) are all satisfied, the pixel right oblique line detection unit 137 determines that there is a right-upward oblique line of one pixel width as shown in FIG.
A high level is output as a pixel value corresponding to CE in (a). Conversely, if even one of the equations (71) to (75) does not hold, 1 as shown in FIG. It is determined that there is no diagonal line with the pixel width rising to the right, and a low level is output for each.

【0139】 AVE(PC ,PE )−AVE(PA ,PB ,PD )>TH59 …(71) AVE(PC ,PE )−AVE(PF ,PH ,PI )>TH59 …(72) MIN(PC ,PE )>TH60 …(73) MAX(PA ,PB ,PD )<TH61 …(74) MAX(PF ,PH ,PI )<TH61 …(75)AVE (P C , P E ) −AVE (P A , P B , P D )> TH59 (71) AVE (P C , P E ) −AVE (P F , P H , P I )> TH59 ... (72) MIN (P C, P E)> TH60 ... (73) MAX (P A, P B, P D) <TH61 ... (74) MAX (P F, P H, P I) <TH61 ... (75)

【0140】つぎに、1画素右斜線下検出部138に関
して図16を用いて説明する。1画素右斜線下検出部1
38は、3×3画素マトリクスを用いて図16(m)に
示すような1画素幅の右上がり斜線を検出する。この1
画素右斜線下検出部138では、下記式(76)〜式
(80)がすべて成立するときは、図16(m)に示す
ような1画素幅の右上がり斜線があると判定し、図16
(a)のE・Gに対応する画素値としてそれぞれ高レベ
ルを出力し、逆に式(76)〜式(80)が1つでも成
立しないときは、図16(m)に示すような1画素幅の
右上がり斜線は無いと判定し、それぞれ低レベルを出力
する。
Next, the one-pixel right oblique line under detection unit 138 will be described with reference to FIG. 1 pixel right oblique line under detection unit 1
Numeral 38 detects a right-upward oblique line having a width of one pixel as shown in FIG. 16 (m) using a 3 × 3 pixel matrix. This one
When the following formulas (76) to (80) are all satisfied, the pixel lower right oblique line detection unit 138 determines that there is a right-upward oblique line of one pixel width as shown in FIG.
A high level is output as a pixel value corresponding to E · G in (a). Conversely, if at least one of Equations (76) to (80) does not hold, 1 as shown in FIG. It is determined that there is no diagonal line with the pixel width rising to the right, and a low level is output for each.

【0141】 AVE(PE ,PG )−AVE(PA ,PB ,PD )>TH62 …(76) AVE(PE ,PG )−AVE(PF ,PH ,PI )>TH62 …(77) MIN(PE ,PG )>TH63 …(78) MAX(PA ,PB ,PD )<TH64 …(79) MAX(PF ,PH ,PI )<TH64 …(80)AVE (P E , P G ) −AVE (P A , P B , P D )> TH62 (76) AVE (P E , P G ) −AVE (P F , P H , P I )> TH62 ... (77) MIN (P E, P G)> TH63 ... (78) MAX (P A, P B, P D) <TH64 ... (79) MAX (P F, P H, P I) <TH64 ... (80)

【0142】つぎに、2画素横線左検出部139に関し
て、図21を用いて説明する。2画素横線左検出部13
9は、4×4画素マトリクスを用いて図21(f)に示
すような2画素幅の横線を検出する。今、4×4画素を
図21(a)に示すようにJ〜Yで呼ぶこととし、それ
ぞれの画素値をPJ 〜PY とする。この2画素横線左検
出部139では、下記式(81)〜式(85)がすべて
成立するときは、図21(f)に示すような2画素幅の
横線があると判定し、図21(a)のN・O・P・R・
S・Tに対応する画素値としてそれぞれ高レベルを出力
し、逆に式(81)〜式(85)が1つでも成立しない
ときは、図21(f)に示すような2画素幅の横線は無
いと判定し、それぞれ低レベルを出力する。
Next, the two-pixel horizontal line left detector 139 will be described with reference to FIG. 2 pixel horizontal line left detector 13
No. 9 detects a horizontal line having a width of two pixels as shown in FIG. 21F using a 4 × 4 pixel matrix. Now, 4 × 4 pixels are called J to Y as shown in FIG. 21A, and their pixel values are set to P J to P Y. When all of the following equations (81) to (85) hold, the two-pixel horizontal line left detection unit 139 determines that there is a horizontal line having a two-pixel width as shown in FIG. a) N ・ O ・ P ・ R ・
A high level is output as a pixel value corresponding to S · T. Conversely, when even one of the equations (81) to (85) does not hold, a horizontal line having a width of two pixels as shown in FIG. Is determined to be absent, and a low level is output for each.

【0143】 AVE(PN ,PO ,PP ,PR ,PS ,PT ) −AVE(PJ ,PK ,PL )>TH65 …(81) AVE(PN ,PO ,PP ,PR ,PS ,PT ) −AVE(PV ,PW ,PX )>TH65 …(82) MIN(PN ,PO ,PP ,PR ,PS ,PT )>TH66 …(83) MAX(PJ ,PK ,PL )<TH67 …(84) MAX(PV ,PW ,PX )<TH67 …(85)AVE (P N , P O , P P , P R , P S , P T ) −AVE (P J , P K , P L )> TH65 (81) AVE (P N , P O , P P , P R , P S , P T ) −AVE (P V , P W , P X )> TH65 (82) MIN (P N , P O , P P , P R , P S , P T )> TH66 ... (83) MAX (P J, P K, P L) <TH67 ... (84) MAX (P V, P W, P X) <TH67 ... (85)

【0144】つぎに、2画素横線右検出部180に関し
て図21を用いて説明する。2画素横線右検出部180
は、4×4画素マトリクスを用いて図21(j)に示す
ような2画素幅の横線を検出する。この2画素横線右検
出部180では、下記式(86)〜式(90)がすべて
成立するときは、図21(j)に示すような2画素幅の
横線があると判定し、図21(a)のO・P・Q・S・
T・Uに対応する画素値としてそれぞれ高レベルを出力
し、逆に式(86)〜式(90)が1つでも成立しない
ときは、図21(j)に示すような2画素幅の横線は無
いと判定し、それぞれ低レベルを出力する。
Next, the two-pixel horizontal line right detector 180 will be described with reference to FIG. 2 pixel horizontal line right detector 180
Detects a horizontal line having a width of two pixels as shown in FIG. 21 (j) using a 4 × 4 pixel matrix. When the following formulas (86) to (90) are all satisfied, the two-pixel horizontal line right detection unit 180 determines that there is a horizontal line having a two-pixel width as shown in FIG. a) O ・ P ・ Q ・ S ・
A high level is output as a pixel value corresponding to TU, and conversely, when even one of the equations (86) to (90) does not hold, a horizontal line having a width of two pixels as shown in FIG. Is determined to be absent, and a low level is output for each.

【0145】 AVE(PO ,PP ,PQ ,PS ,PT ,PU ) −AVE(PK ,PL ,PM )>TH68 …(86) AVE(PO ,PP ,PQ ,PS ,PT ,PU ) −AVE(PW ,PX ,PY )>TH68 …(87) MIN(PO ,PP ,PQ ,PS ,PT ,PU )>TH69 …(88) MAX(PK ,PL ,PM )<TH70 …(89) MAX(PW ,PX ,PY )<TH70 …(90)AVE (P O , P P , P Q , P S , P T , P U ) −AVE (P K , P L , P M )> TH68 (86) AVE (P O , P P , P Q , P S , P T , P U ) −AVE (P W , P X , P Y )> TH68 (87) MIN (P O , P P , P Q , P S , P T , P U )> TH69 (88) MAX (P K , P L , P M ) <TH 70 (89) MAX (P W , P X , P Y ) <TH 70 (90)

【0146】つぎに、2画素縦線上検出部181に関し
て図21を用いて説明する。2画素縦線上検出部181
は、4×4画素マトリクスを用いて図21(g)に示す
ような2画素幅の縦線を検出する。この2画素縦線上横
出部181では、下記式(91)〜式(95)がすべて
成立するとき、図21(g)に示すような2画素幅の縦
線があると判定し、図21(a)のK・L・O・P・S
・Tに対応する画素値としてそれぞれ高を出力し、逆に
式(91)〜式(95)が1つでも成立しないときは、
図16(g)に示すような2画素幅の縦線は無いと判定
し、それぞれ低レベルを出力する。
Next, the two-pixel vertical line detection unit 181 will be described with reference to FIG. 2-pixel vertical line detection unit 181
Detects a vertical line having a width of two pixels as shown in FIG. 21 (g) using a 4 × 4 pixel matrix. When the following formulas (91) to (95) are all satisfied, the two-pixel vertical-line horizontal protruding portion 181 determines that there is a vertical line having a two-pixel width as shown in FIG. (A) KLOPS
When a high value is output as a pixel value corresponding to T, and conversely, even if even one of Equations (91) to (95) does not hold,
It is determined that there is no vertical line having a width of two pixels as shown in FIG.

【0147】 AVE(PK ,PL ,PO ,PP ,PS ,PT ) −AVE(PJ ,PN ,PR )>TH71 …(91) AVE(PK ,PL ,PO ,PP ,PS ,PT ) −AVE(PM ,PQ ,PU )>TH71 …(92) MIN(PK ,PL ,PO ,PP ,PS ,PT )>TH72 …(93) MAX(PJ ,PN ,PR )<TH73 …(94) MAX(PM ,PQ ,PU )<TH73 …(95)AVE (P K , P L , P O , P P , P S , P T ) −AVE (P J , P N , P R )> TH 71 (91) AVE (P K , P L , P O , P P , P S , P T ) −AVE (P M , P Q , P U )> TH 71 (92) MIN (P K , P L , P O , P P , P S , P T )> TH72 ... (93) MAX (P J, P N, P R) <TH73 ... (94) MAX (P M, P Q, P U) <TH73 ... (95)

【0148】つぎに、2画素縦線下検出部182に関し
て図21を用いて説明する。2画素縦線下検出部182
は、4×4画素マトリクスを用いて図21(k)に示す
ような2画素幅の縦線を検出する。この2画素縦線下検
出部182では、下記式(96)〜式(100)がすべ
て成立するときは、図21(k)に示すような2画素幅
の縦線があると判定し、図21(a)のO・P・S・T
・W・Xに対応する画素値としてそれぞれ高レベルを出
力し、逆に式(96)〜式(100)が1つでも成立し
ないときには、図21(k)に示すような2画素幅の縦
線は無いと判定し、それぞれ低レベルを出力する。
Next, the two-pixel vertical line under detection unit 182 will be described with reference to FIG. 2-pixel vertical line under detector 182
Detects a vertical line having a width of two pixels as shown in FIG. 21K using a 4 × 4 pixel matrix. When all of the following equations (96) to (100) are satisfied, the two-pixel vertical line under detection unit 182 determines that there is a two-pixel width vertical line as shown in FIG. OPST of 21 (a)
A high level is output as a pixel value corresponding to W · X, and conversely, when at least one of Equations (96) to (100) does not hold, a vertical pixel having a width of two pixels as shown in FIG. It is determined that there are no lines, and each outputs a low level.

【0149】 AVE(PO ,PP ,PS ,PT ,PW ,PX ) −AVE(PN ,PR ,PV )>TH74 …(96) AVE(PO ,PP ,PS ,PT ,PW ,PX ) −AVE(PQ ,PU ,PY )>TH74 …(97) MIN(PO ,PP ,PS ,PT ,PW ,PX )>TH75 …(98) MAX(PN ,PR ,PV )<TH76 …(99) MAX(PQ ,PU ,PY )<TH76 …(100)AVE (P O , P P , P S , P T , P W , P X ) −AVE (P N , P R , P V )> TH74 (96) AVE (P O , P P , P S , P T , P W , P X ) −AVE (P Q , P U , P Y )> TH74 (97) MIN (P O , P P , P S , P T , P W , P X )> TH75 ... (98) MAX (P N, P R, P V) <TH76 ... (99) MAX (P Q, P U, P Y) <TH76 ... (100)

【0150】つぎに、2画素左斜線上検出部183に関
して図21を用いて説明する。2画素左斜線上横出部1
83は、4×4画素マトリクスを用いて図21(h)に
示すような2画素幅の左上がり斜線を検出する。この2
画素左斜線上検出部183では、下記式(101)〜式
(105)がすべて成立するときには、図21(h)に
示すような2画素幅の左上がり斜線があると判定し、図
21(a)のJ・K・N・O・P・S・Tに対応する画
素値としてそれぞれ高レベルを出力し、逆に式(10
1)〜式(105)が1つでも成立しないときは、図2
1(h)に示すような2画素幅の左上がり斜線は無いと
判定し、それぞれ低レベルを出力する。
Next, the two-pixel left oblique line detection unit 183 will be described with reference to FIG. 2 pixels left diagonal horizontal side 1
Reference numeral 83 denotes a two-pixel wide leftward oblique line as shown in FIG. 21H using a 4 × 4 pixel matrix. This 2
When all of the following equations (101) to (105) are satisfied, the pixel left oblique line detection unit 183 determines that there is an obliquely upward diagonal line having a width of two pixels as shown in FIG. a) outputs a high level as a pixel value corresponding to J, K, N, O, P, S, T, respectively.
When even one of the expressions (1) to (105) does not hold, FIG.
It is determined that there is no two-pixel-width diagonal line as shown in FIG.

【0151】 AVE(PJ ,PK ,PN ,PO ,PP ,PS ,PT ) −AVE(PR ,PV ,PW ,PX )>TH77…(101) AVE(PJ ,PK ,PN ,PO ,PP ,PS ,PT ) −AVE(PL ,PM ,PQ ,PU )>TH77…(102) MIN(PJ ,PK ,PN ,PO ,PP ,PS ,PT )>TH78 …(103) MAX(PR ,PV ,PW ,PX )<TH79 …(104) MAX(PL ,PM ,PQ ,PU )<TH79 …(105)[0151] AVE (P J, P K, P N, P O, P P, P S, P T) -AVE (P R, P V, P W, P X)> TH77 ... (101) AVE (P J , P K , P N , P O , P P , P S , P T ) −AVE (P L , P M , P Q , P U )> TH77 ... (102) MIN (P J , P K , P N , P O , P P , P S , P T )> TH 78 (103) MAX (P R , P V , P W , P X ) <TH 79 (104) MAX (P L , P M , P Q) , P U ) <TH79 (105)

【0152】つぎに、2画素左斜線下検出部184に関
して図21を用いて説明する。2画素左斜線下検出部1
84は、4×4画素マトリクスを用いて図21(l)に
示すような2画素幅の左上がり斜線を検出する。この2
画素左斜線下検出部184では、下記式(106)〜式
(110)がすべて成立するときには、図21(l)に
示すような2画素幅の左上がり斜線があると判定し、図
21(a)のO・P・S・T・U・X・Yに対応する画
素値としてそれぞれ高レベルを出力し、逆に式(10
6)〜式(110)が1つでも成立しないときは、図2
1(l)に示すような2画素幅の左上がり斜線は無いと
判定し、それぞれ低レベルを出力する。
Next, the two-pixel left oblique line under detection unit 184 will be described with reference to FIG. 2-pixel left oblique line under detection unit 1
Numeral 84 detects an oblique line rising to the left with a width of two pixels as shown in FIG. 21 (l) using a 4 × 4 pixel matrix. This 2
When all of the following equations (106) to (110) hold, the pixel left oblique line under detection unit 184 determines that there is an obliquely upward diagonal line having a width of two pixels as shown in FIG. a) output high levels as pixel values corresponding to O, P, S, T, U, X, Y, respectively.
6) When even one of the expressions (110) does not hold, FIG.
It is determined that there is no left-upward diagonal line having a width of two pixels as shown in 1 (l), and outputs a low level, respectively.

【0153】 AVE(PO ,PP ,PS ,PT ,PU ,PX ,PY ) −AVE(PN ,PR ,PV ,PW )>TH80…(106) AVE(PO ,PP ,PS ,PT ,PU ,PX ,PY ) −AVE(PK ,PL ,PM ,PQ )>TH80…(107) MIN(PO ,PP ,PS ,PT ,PU ,PX ,PY )>TH81 …(108) MAX(PN ,PR ,PV ,PW )<TH82 …(109) MAX(PK ,PL ,PM ,PQ )<TH82 …(110)[0153] AVE (P O, P P, P S, P T, P U, P X, P Y) -AVE (P N, P R, P V, P W)> TH80 ... (106) AVE (P O , P P , P S , P T , P U , P X , P Y ) −AVE (P K , P L , P M , P Q )> TH80 ... (107) MIN (P O , P P , P S , P T , P U , P X , P Y )> TH 81 (108) MAX (P N , P R , P V , P W ) <TH 82 (109) MAX (P K , P L , P M) , P Q ) <TH82 (110)

【0154】つぎに、2画素右斜線上検出部185に関
して図21を用いて説明する。2画素右斜線上検出部1
85は、4×4画素マトリクスを用いて図21(i)に
示すような2画素幅の右上がり斜線を検出する。この2
画素右斜線上検出部185では、下記式(111)〜式
(115)がすべて成立するときには、図21(i)に
示すような2画素幅の右上がり斜線があると判定し、図
21(a)のL・M・O・P・Q・S・Tに対応する画
素値としてそれぞれ高レベルを出力し、逆に式(11
1)〜式(115)が1つでも成立しないときは、図2
1(i)に示すような2画素幅の右上がり斜線は無いと
判定し、それぞれ低レベルを出力する。
Next, the two-pixel right oblique line detector 185 will be described with reference to FIG. 2-pixel right oblique line detector 1
Reference numeral 85 uses a 4 × 4 pixel matrix to detect a diagonally right-upward diagonal line having a width of two pixels as shown in FIG. This 2
When all of the following equations (111) to (115) are satisfied, the pixel right diagonal on-line detection unit 185 determines that there is a diagonally right diagonal line having a width of two pixels as shown in FIG. a) outputs a high level as a pixel value corresponding to L, M, O, P, Q, S, and T, and conversely, formula (11)
If any one of 1) to (115) does not hold, FIG.
It is determined that there is no upward slanting line having a width of two pixels as shown in 1 (i), and outputs a low level, respectively.

【0155】 AVE(PL ,PM ,PO ,PP ,PQ ,PS ,PT ) −AVE(PJ ,PK ,PN ,PR )>TH83…(111) AVE(PL ,PM ,PO ,PP ,PQ ,PS ,PT ) −AVE(PW ,PU ,PX ,PY )>TH83…(112) MIN(PL ,PM ,PO ,PP ,PQ ,PS ,PT )>TH84 …(113) MAX(PJ ,PK ,PN ,PR )<TH85 …(114) MAX(PW ,PU ,PX ,PY )<TH85 …(115)AVE (P L , P M , P O , P P , P Q , P S , P T ) −AVE (P J , P K , P N , P R )> TH83 (111) AVE (P L , P M , P O , P P , P Q , P S , P T ) −AVE (P W , P U , P X , P Y )> TH83 (112) MIN (P L , P M , P O , P P , P Q , P S , P T )> TH 84 (113) MAX (P J , P K , P N , P R ) <TH 85 (114) MAX (P W , P U , P X) , P Y ) <TH85 (115)

【0156】最後に、2画素右斜線下検出部186に関
して図21を用いて説明する。2画素右斜線下検出部1
86は、4×4画素マトリクスを用いて図21(m)に
示すような2画素幅の右上がり斜線を検出する。この2
画素右斜線下検出部186では、下記式(116)〜式
(120)がすべて成立するときには、図21(m)に
示すような2画素幅の右上がり斜線があると判定し、図
21(a)のO・P・R・S・T・V・Wに対応する画
素値としてそれぞれ高レベルを出力し、逆に式(11
6)〜式(120)が1つでも成立しないときは、図2
1(m)に示すような2画素幅の右上がり斜線は無いと
判定し、それぞれ低レベルを出力する。
Finally, the two-pixel lower right oblique line detector 186 will be described with reference to FIG. 2-pixel right oblique line under detection unit 1
Reference numeral 86 uses a 4 × 4 pixel matrix to detect a diagonally rightward diagonal line having a width of two pixels as shown in FIG. This 2
When all of the following expressions (116) to (120) are satisfied, the pixel right oblique line lower detection unit 186 determines that there is an upward diagonal line having a width of two pixels as shown in FIG. a) outputs a high level as a pixel value corresponding to O, P, R, S, T, V, W, and conversely, formula (11)
6) When even one of the expressions (120) does not hold, FIG.
It is determined that there is no diagonal line rising to the right with a width of two pixels as shown in FIG.

【0157】 AVE(PO ,PP ,PR ,PS ,PT ,PV ,PW ) −AVE(PJ ,PK ,PL ,PN )>TH86…(116) AVE(PO ,PP ,PR ,PS ,PT ,PV ,PW ) −AVE(PQ ,PU ,PX ,PY )>TH86…(117) MIN(PO ,PP ,PR ,PS ,PT ,PV ,PW )>TH87 …(118) MAX(PJ ,PK ,PL ,PN )<TH88 …(119) MAX(PQ ,PU ,PX ,PY )<TH88 …(120)[0157] AVE (P O, P P, P R, P S, P T, P V, P W) -AVE (P J, P K, P L, P N)> TH86 ... (116) AVE (P O , P P , P R , P S , P T , P V , P W ) −AVE (P Q , P U , P X , P Y )> TH86 (117) MIN (P O , P P , P R, P S, P T, P V, P W)> TH87 ... (118) MAX (P J, P K, P L, P N) <TH88 ... (119) MAX (P Q, P U, P X , P Y ) <TH88 (120)

【0158】図27は、エッジ抽出部32の構成の一例
を示すブロック図である。図27において、エッジ抽出
部32に入力された画像データは、3×3フィルタ演算
部151と浮動2値化部153に入力される。3×3フ
ィルタ演算部151に入力された画像データは、あらか
じめ設定された3×3フィルタ係数とのフィルタリング
処理が行われて、その演算結果は比較部152に出力さ
れる。上記3×3フィルタ係数としては、エッジ部を強
調するものが望まく、一例として、図28に記載したよ
うなフィルタ係数が挙げられる。
FIG. 27 is a block diagram showing an example of the configuration of the edge extraction unit 32. 27, the image data input to the edge extraction unit 32 is input to the 3 × 3 filter operation unit 151 and the floating binarization unit 153. The image data input to the 3 × 3 filter operation unit 151 is subjected to a filtering process with a preset 3 × 3 filter coefficient, and the operation result is output to the comparison unit 152. As the 3 × 3 filter coefficient, one that emphasizes an edge portion is desired, and as an example, a filter coefficient as shown in FIG. 28 is cited.

【0159】比較部152に入力された3×3フィルタ
演算部151の演算結果は、あらかじめ設定された閾値
TH30との比較演算が行われ、3×3フィルタ演算部
151の演算結果が閾値TH30より大きい場合は高レ
ベルの信号が、等しいかもしくは小さい場合には低レベ
ルの信号が出力される。比較部152からの出力信号は
論理積演算部155に入力される。
The operation result of the 3 × 3 filter operation unit 151 input to the comparison unit 152 is compared with a preset threshold value TH30, and the operation result of the 3 × 3 filter operation unit 151 is calculated based on the threshold value TH30. If it is larger, a high-level signal is output, and if it is equal or smaller, a low-level signal is output. The output signal from the comparison unit 152 is input to the AND operation unit 155.

【0160】一方、浮動2値化部153に入力された画
像データは、浮動2値化処理が行われる。そして、その
処理結果は5×5排他的論理和演算部154に入力され
る。浮動2値化部153の詳細ついては後述する。
On the other hand, the image data input to the floating binarizing section 153 is subjected to a floating binarizing process. Then, the processing result is input to the 5 × 5 exclusive OR operation unit 154. Details of the floating binarization unit 153 will be described later.

【0161】5×5排他的論理和演算部154に入力さ
れた画像データは、注目画素を中心とした5×5画素の
排他的論理和演算が行われる。すなわち、5×5=25
画素すべてが高レベルの信号もしくは低レベルの信号の
ときは低レベルの信号が、1画素でも異なるときは高レ
ベルの信号が演算結果として得られる。5×5排他的論
理和演算部154の演算結果は、論理積演算部155に
入力される。そして、論理和演算部155において、比
較部152からの出力信号と論理積演算部155からの
出力信号とが画素ごとに論理積演算され、その演算結果
がエッジ抽出部32の出力結果として出力される。
The image data input to the 5 × 5 exclusive OR operation unit 154 is subjected to an exclusive OR operation of 5 × 5 pixels centering on the target pixel. That is, 5 × 5 = 25
When all the pixels are high-level signals or low-level signals, a low-level signal is obtained as a calculation result, and when even one pixel is different, a high-level signal is obtained. The operation result of the 5 × 5 exclusive OR operation unit 154 is input to the AND operation unit 155. Then, in the OR operation unit 155, the output signal from the comparison unit 152 and the output signal from the AND operation unit 155 are AND-operated for each pixel, and the operation result is output as the output result of the edge extraction unit 32. You.

【0162】浮動2値化部153の詳細について、同じ
く図27を用いて説明する。浮動2値化部153に入力
された画像データは、比較部159と、3×3平均値演
算部156に入力される。3×3平均値演算部156で
は、注目画素を中心とした3×3画素値の平均値が計算
され、その結果は加算部157に出力される。加算部1
57に入力された3×3平均値演算結果は、あらかじめ
設定された加算値Vallとの加算演算が行われ、その
結果はリミット処理部158に出力される。
The details of the floating binarization section 153 will be described with reference to FIG. The image data input to the floating binarization unit 153 is input to the comparison unit 159 and the 3 × 3 average value calculation unit 156. The 3 × 3 average value calculation unit 156 calculates the average value of the 3 × 3 pixel values centered on the target pixel, and outputs the result to the addition unit 157. Adder 1
The calculation result of the 3 × 3 average value input to 57 is added to a predetermined addition value Val, and the result is output to the limit processing unit 158.

【0163】リミット処理部158にはあらかじめ上限
および下限のリミット値が設定されており、加算部15
7から入力された演算結果を、上記上限および下限のリ
ミット値の範囲に制限する。すなわち、加算部157か
ら入力された演算結果が上限リミット値よりも大きい場
合には上限リミット値を、下限リミット値よりも小さい
場合には下限リミット値を、そのどちらでもない場合に
は加算部157から入力された演算結果を、リミット処
理部158の演算結果として出力する。
In the limit processing section 158, upper and lower limit values are set in advance.
7 is limited to the range of the upper and lower limit values. That is, the upper limit value is set when the calculation result input from the adding unit 157 is larger than the upper limit value, the lower limit value is set when the calculated result is smaller than the lower limit value, and the adding unit 157 is used when neither is the case. Is output as the calculation result of the limit processing unit 158.

【0164】リミット処理部158から出力された演算
結果は比較部159に入力され、他方比較部159に入
力された画像データ、即ち浮動2値化部153に入力さ
れた画像データとの比較演算が行われる。浮動2値化部
153に入力された画像データが比較部159の演算結
果よりも大きい場合は高レベルの信号が、等しいかもし
くは小さい場合には低レベルの信号が出力される。比較
部152からの出力信号は5×5排他的論理和演算部1
54に入力される。
The calculation result output from the limit processing unit 158 is input to a comparison unit 159, and the comparison operation with the image data input to the comparison unit 159, that is, the image data input to the floating binarization unit 153, is performed. Done. When the image data input to the floating binarization unit 153 is larger than the operation result of the comparison unit 159, a high-level signal is output, and when the image data is equal or smaller, a low-level signal is output. The output signal from the comparison unit 152 is the 5 × 5 exclusive OR operation unit 1
Input to 54.

【0165】なお、エッジ抽出部32における処理につ
いては、上記説明した処理以外にも公知の技術を用いる
ようにしても構わないが、線分などの輪郭をできるだけ
忠実に抽出する処理が望ましい。
As the processing in the edge extracting section 32, a known technique other than the above-described processing may be used. However, it is desirable that the processing of extracting the outline of a line segment or the like be as accurate as possible.

【0166】つづいて、第1拡大部33−1〜第N拡大
部33−Nの詳細について、図29および図30を用い
て説明する。なお、第1拡大部33−1〜第N拡大部3
3−Nはそれぞれほぼ同様の処理を行うので、ここでは
第1拡大部33−1を例にとって説明する。図29は第
1拡大部33−1での処理内容を説明する図であり、図
30は第1拡大部33−1での拡大条件判定を説明する
図である。
The details of the first to N-th enlargement units 33-1 to 33-N will be described with reference to FIGS. 29 and 30. In addition, the 1st expansion part 33-1-the Nth expansion part 3
Since 3-N performs almost the same processing, the first enlargement unit 33-1 will be described here as an example. FIG. 29 is a diagram for explaining the processing content in the first enlargement unit 33-1. FIG. 30 is a diagram for explaining the enlargement condition determination in the first enlargement unit 33-1.

【0167】第1拡大部33−1には、線抽出部33ー
1で線抽出の行われた画像データとエッジ抽出部32で
エッジ抽出の行われた画像データが入力される。線抽出
部31−1から出力される画像データは、本例の場合、
元の画像データ、即ち線分抽出部12に入力された画像
データと比較して縦・横それぞれ1/2に縮小されてい
るため、第1拡大部33−1では入力された線抽出部3
1−1で線抽出の行われた画像データを縦・横それぞれ
2倍に拡大する処理を行う。
The first magnifying unit 33-1 receives the image data from which the line has been extracted by the line extracting unit 33-1 and the image data from which the edge has been extracted by the edge extracting unit 32. The image data output from the line extracting unit 31-1 is:
Since the original image data, that is, the image data input to the line segment extraction unit 12 has been reduced by 1 / each in the vertical and horizontal directions, the input line extraction unit 3
In step 1-1, the image data subjected to the line extraction is enlarged twice vertically and horizontally.

【0168】しかしながら、線抽出部31−1で線抽出
の行われた画像データに対して単純に拡大処理を行う
と、階段状のがたついた結果となってしまう。これを図
29を用いて説明すると、図29(e)のような画像が
線分抽出部12に入力された場合、線抽出部31−1で
は図29(a)のような抽出結果が得られる。これを単
純に縦・横それぞれ2倍に拡大する処理を行うと、図2
9(c)のような結果となるが、これは図29(e)と
比較して階段状のがたつきが大きい結果となり、入力画
像に忠実な線分抽出となっていない。
However, if the enlargement process is simply performed on the image data from which the line has been extracted by the line extracting unit 31-1, the result will be a step-like rattling. This will be described with reference to FIG. 29. When an image as shown in FIG. 29E is input to the line segment extraction unit 12, the line extraction unit 31-1 obtains an extraction result as shown in FIG. Can be When this process is simply performed to enlarge the image twice vertically and horizontally, FIG.
Although the result is as shown in FIG. 9 (c), the result is that the step-like rattling is larger than that of FIG. 29 (e), and the line segment faithful to the input image is not extracted.

【0169】そこで、第1拡大部33−1では、エッジ
抽出部32でエッジ抽出の行われた画像データを参照し
ながら、線抽出部31−1で線抽出の行われた画像デー
タに対して拡大処理を行う。その際、図30に記載のよ
うな条件判定により第1拡大部33−1からの出力を決
定する。例えば、線抽出部31ー1から入力された画像
データのある画素が低レベル(LOW)の場合、第1拡
大部33−1からの出力は2×2画素すべて低レベルと
なる。
Therefore, the first enlarging unit 33-1 refers to the image data from which the edge has been extracted by the edge extracting unit 32 while referring to the image data from which the line has been extracted by the line extracting unit 31-1. Perform enlargement processing. At this time, the output from the first enlargement unit 33-1 is determined by the condition determination as shown in FIG. For example, when a certain pixel of the image data input from the line extraction unit 31-1 is at a low level (LOW), the output from the first enlargement unit 33-1 is at a low level for all 2 × 2 pixels.

【0170】一方、線抽出邸31−1から入力された画
像データのある画素が高レベル(HIGH)の場合は、
前記画素の周辺画素の値、およびエッジ抽出部32から
の入力値により条件判定を行い、第1拡大部33−1か
らの出力が決定される。上記のような条件判定によって
線抽出部31−1で線抽出の行われた画像データの拡大
処理を行うことにより、図29(a)のような線抽出部
31−1からの入力画像データと、図29(b)のよう
なエッジ抽出部32からの入力画像データに基づいて、
図29(d)のような拡大処理の行われた画像データが
得られる。
On the other hand, when a certain pixel of the image data input from the line extraction house 31-1 is at a high level (HIGH),
Condition determination is performed based on the values of the peripheral pixels of the pixel and the input value from the edge extraction unit 32, and the output from the first enlargement unit 33-1 is determined. By performing the enlarging process of the image data subjected to the line extraction by the line extracting unit 31-1 according to the above condition determination, the input image data from the line extracting unit 31-1 as shown in FIG. , Based on the input image data from the edge extraction unit 32 as shown in FIG.
Image data subjected to the enlargement processing as shown in FIG. 29D is obtained.

【0171】線分補正部17の詳細について、図31の
フローチャートを用いて説明する。線分補正部17で
は、ラベリング部13から入力されるラベリング画像
と、第1属性判定部16から入力されるラベルごとの属
性判定結果から、線分抽出部12から入力される線分抽
出画像を画素単位に補正する。
The details of the line segment correction section 17 will be described with reference to the flowchart of FIG. The line segment correction unit 17 extracts the line segment extraction image input from the line segment extraction unit 12 from the labeling image input from the labeling unit 13 and the attribute determination result for each label input from the first attribute determination unit 16. Correct on a pixel-by-pixel basis.

【0172】図31のフローチャートに沿って説明する
と、最初に、ラベリング画像から対象画素に付与された
ラベル番号を調べる(ステップS401)。そして、ラ
ベル番号の有無の判定を行い(ステップS402)、付
与されていた場合は、ラベルごとの属性判定結果から該
ラベル番号の属性を調べ(ステップS403)、属性の
判定を行う(ステップS404)。その属性が写真・絵
柄領域の場合には、注目画素が線分抽出部12で抽出さ
れている場合でも、抽出結果を補正する。すなわち、注
目画素は線分ではないとして、線分補正部17の補正結
果として注目画素を低レベル(LOW)とする(ステッ
プS405)。
Referring to the flowchart of FIG. 31, first, the label number assigned to the target pixel is checked from the labeling image (step S401). Then, it is determined whether or not the label number exists (step S402). If the label number has been assigned, the attribute of the label number is checked from the attribute determination result for each label (step S403), and the attribute is determined (step S404). . If the attribute is a photograph / picture area, the extraction result is corrected even when the pixel of interest is extracted by the line segment extraction unit 12. That is, it is determined that the target pixel is not a line segment, and the target pixel is set to a low level (LOW) as a correction result of the line segment correction unit 17 (step S405).

【0173】一方、ステップS402で対象画素にラベ
ル番号が付与されていないと判定した場合、又はステッ
プS404で注目画素の属性が均一色領域であると判定
した場合は、線分抽出部12の抽出結果を用いる(ステ
ップS406)。すなわち、線分抽出結果が低レベルの
場合は低レベルを、高レベルの場合には均一色領域中に
書かれた文字・線分と判定し、線分補正部17の補正結
果として注目画素を低レベルとする。
On the other hand, if it is determined in step S402 that no label number has been assigned to the target pixel, or if it is determined in step S404 that the attribute of the pixel of interest is a uniform color area, the line segment extraction unit 12 The result is used (step S406). That is, when the line segment extraction result is low level, the low level is determined, and when the line extraction result is high level, the character / line segment written in the uniform color area is determined. Set to low level.

【0174】ステップS405又はステップS406の
処理の終了後、1つの画素の補正が終了したので、注目
画素を次の画素に移す(ステップS407)。次いで、
全画素に対して補正処理が終了したか否かを判定し(ス
テップS408)、終了した場合には線分補正部17で
の処理を終了し、補正処理の終了していない画素が存在
する場合にはステップSS401へ戻って上述した処理
を繰り返す。そして、この線分補正部17から出力され
る画像を、像域分離部9から出力される像域分離画像と
する。
After the completion of the processing in step S405 or S406, since the correction of one pixel has been completed, the pixel of interest is moved to the next pixel (step S407). Then
It is determined whether or not the correction processing has been completed for all the pixels (step S408). When the correction processing has been completed, the processing in the line segment correction unit 17 is completed, and there is a pixel for which the correction processing has not been completed. Then, the process returns to step SS401 to repeat the above-described processing. The image output from the line segment correction unit 17 is defined as an image area separation image output from the image area separation unit 9.

【0175】上述したように、本発明の第1実施形態に
係る像域分離部9によれば、2値化画像に対してラベリ
ングを行い、ラベル領域ごとに特徴量を算出し、その算
出した特徴量からラベル領域の属性を判定して入力画像
から抽出した線分を補正する構成としたことにより、文
字・線画・写真・網点等の混在した画像に対して、入力
画像に忠実に文字・線画を抽出し、かつ写真・絵柄領域
中での誤抽出の無い、高精度な像域分離処理を行うこと
ができるため、良好な再生画像を得ることが可能とな
る。
As described above, according to the image area separation unit 9 according to the first embodiment of the present invention, labeling is performed on a binarized image, and a feature amount is calculated for each label area. By adopting a configuration in which the attribute of the label area is determined from the feature amount and the line segment extracted from the input image is corrected, characters that are mixed with characters, line drawings, photographs, halftone dots, etc. A high-precision image area separation process that extracts a line drawing and does not cause erroneous extraction in a photograph / pattern region can be performed, so that a good reproduced image can be obtained.

【0176】次に、本発明の第2実施形態に係る像域分
離部9について図面を参照しながら説明する。なお、以
下の説明の中で、第1実施形態の説明と処理内容が同様
の処理部に関しては同一番号を付加し、その説明を省略
する。
Next, an image area separating section 9 according to a second embodiment of the present invention will be described with reference to the drawings. In the following description, the same reference numerals are given to the processing units having the same processing contents as those of the first embodiment, and the description thereof will be omitted.

【0177】図32は、本発明の第2実施形態に係る像
域分離部9の構成を示すブロック図である。図32にお
いて、2値化部11は、データ記憶部2に記憶されてい
る画像データ(解像度400dpi、各画素8ビットの
* * * 画像信号)を読み出し、2値化処理を行
う。以降、この画像データのことをL* * * 原画像
と呼ぶ。なお、L* * * 原画像は、後述する線分抽
出部12、ラベル特徴量算出部14−1、14−2およ
びエッジ抽出部61からも読み出される。
FIG. 32 is a block diagram showing the structure of the image area separating section 9 according to the second embodiment of the present invention. In FIG. 32, a binarizing unit 11 reads out image data (resolution of 400 dpi, L * a * b * image signal of 8 bits for each pixel) stored in the data storage unit 2, and performs binarization processing. Hereinafter, this image data is referred to as an L * a * b * original image. The L * a * b * original image is also read out from a line segment extraction unit 12, label feature amount calculation units 14-1 and 14-2, and an edge extraction unit 61, which will be described later.

【0178】2値化部11では、読み出された画像デー
タ(L* * * 原画像)から、前景領域、例えば白背
景上の文字・線分、着色された領域、あるいは写真・絵
柄領域などを抽出し、抽出した画素は高レベル、抽出し
なかった画素は低レベルとする、各画素1ビットの画像
信号が出力される。2値化部11の詳細については既に
説明しているので、ここでの説明は省略する。
The binarizing section 11 converts the read image data (L * a * b * original image) into a foreground area, for example, a character / line segment on a white background, a colored area, or a photograph / picture An area or the like is extracted, and an extracted pixel is set to a high level, and an unextracted pixel is set to a low level. An image signal of 1 bit for each pixel is output. Since the details of the binarization unit 11 have already been described, the description here is omitted.

【0179】図33〜図35を例にとると、図33
(a)の画像が2値化部11に入力されたとすると、図
33(b)のように2値化された画像が出力される。2
値化部11から出力された2値画像信号は、ラベリング
部13−1に入力され、連結する抽出画素の領域ごとに
1つのラベルが付与される。
Taking FIGS. 33 to 35 as an example, FIG.
Assuming that the image of (a) is input to the binarization unit 11, a binarized image is output as shown in FIG. 2
The binary image signal output from the binarizing unit 11 is input to the labeling unit 13-1, and one label is assigned to each of the connected extracted pixel regions.

【0180】ラベリングの方法としては公知の技術で構
わない。図33で説明すると、図33(b)の2値化画
像がラベリング部13−1に入力され、図33(c)の
ようにラベル番号P1からラベル番号Pnまでのラベル
が付与される。なお、以降、連結領域ごとにラベルの付
与された画像をラベリング画像と称し、さらにラベリン
グ部13−1で得られたラベリング画像を以降、親ラベ
リング画像と呼び、またそれぞれのラベル領域を親ラベ
ル領域と呼ぶこととする。
A known technique may be used as a labeling method. Referring to FIG. 33, the binarized image of FIG. 33B is input to the labeling unit 13-1, and labels from label number P1 to label number Pn are given as shown in FIG. Hereinafter, an image to which a label is added for each connected region is referred to as a labeling image, a labeling image obtained by the labeling unit 13-1 is hereinafter referred to as a parent labeling image, and each label region is referred to as a parent label region. Shall be called.

【0181】ラペリング部13−1から出力された親ラ
ベリング画像は、ラベル特徴量算出部14−1と線分補
正部17に入力される。ラベル特徴算出部14−1で
は、ラベリング部13−1から出力された親ラベリング
画像と、L* * * 原画像から、親ラベル領域ごとの
特徴量が算出される。
The parent labeling image output from the labeling unit 13-1 is input to the label feature amount calculation unit 14-1 and the line segment correction unit 17. The label feature calculation unit 14-1 calculates a feature amount for each parent label area from the parent labeling image output from the labeling unit 13-1 and the L * a * b * original image.

【0182】図33で説明すると、図33(c)のラベ
ルの付与された親ラベリング画像がラベル特徴算出部1
4−1に入力され、また図33(a)のL* * *
画像データも参照されて、親ラベルごとの特徴量が算出
される。なお、本実施形態では、特徴量として、該当ラ
ベル付与画素数・外接矩形位置・外接矩形サイズ・画素
密度(=該当ラベル付与画素数/外接矩形面積)・平均
値・分散値・クラス分割値頻度・クラス分割などを算出
しているが、他の特徴量を算出して、後述する第2属性
判定部65での判定処理に用いても構わない。
Referring to FIG. 33, the parent labeling image to which the label shown in FIG.
4-1 is input, and the L * a * b * original image data of FIG. 33A is also referred to to calculate the feature amount for each parent label. In the present embodiment, as the feature amount, the number of applicable label-assigned pixels, the circumscribed rectangle position, the circumscribed rectangle size, the pixel density (= the number of applicable label-assigned pixels / the circumscribed rectangular area), the average value, the variance value, and the class division value frequency Although the class division and the like are calculated, other feature amounts may be calculated and used for the determination process in the second attribute determination unit 65 described later.

【0183】ラベル特徴算出部14−1の詳細について
はラベル特徴量算出部14と同様なので、その説明は省
略する。ラベル特徴算出部14−1で算出された親ラベ
ルごとの特徴量は、ラベリング部13−1でラベルの付
与された親ラベリング画像と共に小領域除去部15−1
に入力され、親ラベルごとに算出された領域サイズを所
定閾値と比較し、閾値以下の領域サイズの親ラベルを除
去する。
The details of the label feature calculator 14-1 are the same as those of the label feature calculator 14, so that the description thereof will be omitted. The feature amount for each parent label calculated by the label feature calculation unit 14-1 is stored in the small area removal unit 15-1 together with the parent labeling image to which the label is added by the labeling unit 13-1.
Is compared with a predetermined threshold value, and a parent label having a region size equal to or smaller than the threshold value is removed.

【0184】図33の場合、閾値を例えば、外接矩形幅
=外接矩形高=80とすると、図33(c)の親ラベリ
ング画像から、ラベル番号P4〜ラベル番号Pnの領域
が除去され、図33(d)のような親ラベリング画像が
得られる。すなわち、文字と推定される領域を外接矩形
サイズから判定し、あらかじめ除去することで、後段の
各種処理部での処理を軽くすることができる。小領域抽
出部15−1で小領域の除去された親ラベリング画像
は、後述するエッジ・線分除去部63および包含関係判
定部64に入力される。
In the case of FIG. 33, assuming that the threshold value is, for example, circumscribed rectangle width = circumscribed rectangle height = 80, the areas of label numbers P4 to Pn are removed from the parent labeling image of FIG. A parent labeling image as shown in (d) is obtained. That is, by determining the area estimated to be a character from the circumscribed rectangle size and removing the area in advance, it is possible to reduce the processing in the various processing units in the subsequent stages. The parent labeling image from which the small area has been removed by the small area extracting section 15-1 is input to an edge / line segment removing section 63 and an inclusion relation determining section 64, which will be described later.

【0185】一方、エッジ抽出部61は、データ記憶部
2に記憶されているL* * * 原画像データのうちL
* 原画像を読み込み、エッジ抽出処理を行う。エッジ抽
出部61におけるエッジ抽出処理は公知の技術で構わ
ず、例えば注目画素を中心として3×3画素サイズのフ
ィルタリング処理を行い、その演算結果を所定の閾値と
比較して、閾値より大きいかまたは等しいときはエッジ
と判定して高レベルの信号を出力し、閾値よりも小さい
場合は非エッジと判定して低レベルの信号を出力する。
On the other hand, the edge extraction unit 61 determines the L * a * b * of the L * a * b * original image data stored in the data storage unit 2.
* Read the original image and perform edge extraction processing. The edge extraction processing in the edge extraction unit 61 may be a known technique. For example, a 3 × 3 pixel size filtering processing is performed around the pixel of interest, and the calculation result is compared with a predetermined threshold value. If they are equal, it is determined to be an edge, and a high-level signal is output. If less than the threshold, it is determined to be non-edge and a low-level signal is output.

【0186】なお、3×3フィルタ係数としては、その
一例として、中心が8、周囲が−1の係数などが挙げら
れる。図33および図34で説明すると、図33(a)
の原画像から、図34(a)のエッジ抽出画像が得られ
る。エッジ抽出部61から出力されたエッジ抽出画像
は、画像合成部62に入力される。
The 3 × 3 filter coefficients include, for example, a coefficient having a center of 8 and a periphery of −1. Referring to FIGS. 33 and 34, FIG.
34 (a) is obtained from the original image of FIG. The edge extraction image output from the edge extraction unit 61 is input to the image synthesis unit 62.

【0187】また、線分抽出部12も、データ記憶部2
に記憶されているL* * * 原画像のうちL* 原画像
を読み込み、線分抽出処理を行う。線分抽出部12の詳
細については既に説明したので省略するが、図33およ
び図34で説明すると、図33(a)の原画像から、図
34(b)の線分抽出画像が得られる。線分抽出部12
から出力された線分抽出画像も、画像合成部62に入力
される。
[0187] The line segment extracting section 12 is also provided in the data storage section 2.
Load the L * original image among the stored L * a * b * original image, performs the line segment extraction processing. Details of the line segment extraction unit 12 have already been described, and thus description thereof will be omitted. However, referring to FIGS. 33 and 34, a line segment extraction image of FIG. 34B is obtained from the original image of FIG. Line segment extraction unit 12
Are also input to the image synthesizing unit 62.

【0188】画像合成部62には、エッジ抽出部61と
線分抽出部12から、エッジ抽出画像と線分抽出画像が
入力され、同じ座標位置の画素同士の論理和が演算さ
れ、膨張処理部66に出力される。膨張処理部66で
は、画像合成部63から入力されたエッジ抽出画像と線
分抽出画像の論理和画像に対して、注目画素を中心とし
たN×Nのサイズでの膨張処理を行う。すなわち、注目
画素を中心とするN×Nの範囲に1つでも高レベルの画
素が存在すれば高レベルの信号を、すべて低レベルの画
素の場合のみ低レベルの信号を、注目画素に対する新た
な信号として出力する。
The image synthesizing unit 62 receives the edge extracted image and the line segment extracted image from the edge extracting unit 61 and the line segment extracting unit 12, calculates the logical sum of the pixels at the same coordinate position, and executes the expansion processing unit. It is output to 66. The dilation processing unit 66 performs dilation processing of the logical sum image of the edge extracted image and the line segment extracted image input from the image synthesizing unit 63 in an N × N size centering on the target pixel. That is, if at least one high-level pixel exists in the N × N range around the target pixel, a high-level signal is output. Output as a signal.

【0189】ここで膨張処理を行う理由は、この後、後
述のエッジ・線分除去部63でエッジ・線分を除去し、
その画像に対してラベリング、特徴量抽出をするが、エ
ッジ・線分の周辺画素は、画像入力時にエッジ・線分の
影響を受けやすく、正確な特徴量を得ることが困難であ
る。そこであらかじめエッジ・線分抽出領域を膨張、そ
の膨張領域を除去することにより、エッジ・線分の影響
を受けない正確な特徴量を得ることが可能となる。した
がって、膨張処理部66で膨張処理を行うサイズNは、
エッジ・線分の影響を除去できる程度、例えばN=5程
度のサイズで良い。
The reason why the expansion processing is performed here is that an edge / line segment is removed by an edge / line segment removing unit 63 described later.
Although labeling and feature extraction are performed on the image, the peripheral pixels of the edge / line are easily affected by the edge / line at the time of image input, and it is difficult to obtain an accurate feature. Therefore, by expanding the edge / line segment extraction region in advance and removing the expanded region, it is possible to obtain an accurate feature amount that is not affected by the edge / line segment. Therefore, the size N at which the expansion processing is performed by the expansion processing unit 66 is:
The size may be such that the effects of edges and line segments can be removed, for example, N = 5.

【0190】図34で説明すると、図34(a)のエッ
ジ抽出画像と図34(b)の線分抽出画像から合成、膨
張処理を行うことにより、図34(c)の画像が得られ
る。エッジ・線分除去部63には、小領域除去部15−
1によって小領域の除去された親ラベリング画像と、膨
張処理部66から出力されたエッジ・線分合成画像が膨
張された画像入力され、親ラベリング画像からエッジ・
線分合成画像の膨張された画像の高レベルの画素が除去
される。
Referring to FIG. 34, an image shown in FIG. 34 (c) is obtained by combining and expanding the edge extracted image shown in FIG. 34 (a) and the line segment extracted image shown in FIG. 34 (b). The edge / line segment removing unit 63 includes a small area removing unit 15-
1, the parent labeling image from which the small area has been removed, and the expanded image of the combined edge / line segment image output from the dilation processing unit 66 are input.
High level pixels of the dilated image of the line segment composite image are removed.

【0191】すなわち、エッジ・線分合成画像の膨張さ
れた画像の注目画素が高レベルの場合、親ラペリング画
像から同一座標位置にあるラベル番号を除去し、付与ラ
ベル無しとする。図33および図34で説明すると、図
33(d)の小領域除去された親ラベリング画像から、
図34(c)のエッジ・線分合成画像が除去され、図3
4(d)のエッジ・線分除去ラペリング画像が得られ
る。エッジ・線分の除去された親ラベリング画像はラベ
リング部13−2に入力される。
That is, when the target pixel of the expanded image of the edge / line combined image is at a high level, the label number at the same coordinate position is removed from the parent rappelling image, and no label is assigned. Referring to FIG. 33 and FIG. 34, from the parent labeling image from which the small area has been removed in FIG.
The combined edge / line image shown in FIG. 34C is removed, and FIG.
An edge / line segment removal rappelling image of 4 (d) is obtained. The parent labeling image from which the edges and line segments have been removed is input to the labeling unit 13-2.

【0192】ラベリング部13−2では、小領域除去部
15−1にて小領域が除去され、かつエッジ・線分除去
部63にてエッジ・線分の除去された親ラベリング画像
に対して、連結する領域に対して同一ラベルを付与する
ように、再度ラベリング処理を行う。ここでのラベリン
グ処理も公知の技術を用いて構わない。ここで得られた
ラベリング画像を以降、子ラベリング画像と呼ぶことと
する。
In the labeling section 13-2, the parent labeling image from which the small area has been removed by the small area removing section 15-1 and the edge / line segment has been removed by the edge / line segment removing section 63 is The labeling process is performed again so that the same label is assigned to the connected regions. A well-known technique may be used for the labeling process. The labeling image obtained here is hereinafter referred to as a child labeling image.

【0193】図34および図35で説明すると、図34
(d)の小領域およびエッジ・線分の除去された画像に
対し再度ラベリングを行い、図35(a)のラベル番号
C1からラベル番号Cmまでのラベルが付与された子ラ
ベリング画像が得られる。なお、図35(a)にはラベ
ル番号C1からラベル番号Cm以外の小さいラベル領
域、たとえば“8”の文字の線で囲まれた2箇所の円形
領域なども存在するが、図35(a)ではラベル番号の
表示は省略している。
Referring to FIG. 34 and FIG. 35, FIG.
Labeling is again performed on the image from which the small area and the edge / line segment have been removed in (d), and a child labeling image to which labels from label number C1 to label number Cm are given in FIG. 35A is obtained. Although FIG. 35A also shows small label areas other than the label numbers C1 to Cm, for example, two circular areas surrounded by a line of the character “8”, FIG. In the figure, label numbers are omitted.

【0194】ラベリング部13−2によってラベリング
された子ラベリング画像は、ラベル特徴量算出部14−
2に入力される。ラベル特徴量算出部14−2では、ラ
ベリング部13−2から子ラベリング画像が入力される
とともに、画像記憶部2からL* * * 原画像データ
を読み出し、子ラベルごとの特徴量が算出される。ラベ
ル特徴算出部14−2の詳細についても、ラベル特徴量
算出部14と同様なのでその説明は省略する。
The child labeling image labeled by the labeling unit 13-2 is output to the label feature amount calculation unit 14-.
2 is input. The label feature amount calculation unit 14-2 receives the child labeling image from the labeling unit 13-2, reads the L * a * b * original image data from the image storage unit 2, and calculates the feature amount for each child label. Is done. The details of the label feature calculation unit 14-2 are also the same as those of the label feature amount calculation unit 14, and a description thereof will be omitted.

【0195】ラベル特徴算出部14−2で算出された子
ラベル領域ごとの特徴量は、ラベリング部13−2でラ
ベルの付与された子ラベリング画像と共に小領域除去部
15−2に入力され、子ラベルごとに算出された領域サ
イズを所定閾値と比較し、閾値以下の領域サイズの子ラ
ベルを除去する。図35(a)の場合は、ラベル番号の
記述が省略された微小領域が小領域除去部15−2で除
去される領域に相当する。なお、小領域除去の方法は、
前述の小領域除去部15−1と同様で構わないが、小領
域と判定する閾値は、小領域除去部15−1のときより
も小さい方が望ましい。
The feature amount of each child label area calculated by the label feature calculation section 14-2 is input to the small area removing section 15-2 together with the child labeling image to which the label is added by the labeling section 13-2. The region size calculated for each label is compared with a predetermined threshold, and child labels having a region size equal to or smaller than the threshold are removed. In the case of FIG. 35 (a), the minute area in which the description of the label number is omitted corresponds to the area to be removed by the small area removing unit 15-2. In addition, the method of small area removal is
It may be the same as that of the small area removing unit 15-1 described above, but it is desirable that the threshold value for determining a small area is smaller than that of the small area removing unit 15-1.

【0196】小領域除去のなされた子ラベリング画像
は、包含関係判定部64と第1属性判定部16に入力さ
れる。包含関係判定部64には、小領域除去部15−1
で小領域の除去された親ラベリング画像と、小領域除去
部15−2で小領域の除去された子ラベリング画像が入
力され、その包含関係、即ちどの親ラベル領域が分割さ
れて、どの子ラベル領域が生成されているのかが判定さ
れる。
The child labeling image from which the small areas have been removed is input to the inclusion relation determining unit 64 and the first attribute determining unit 16. The inclusion relation determining unit 64 includes a small area removing unit 15-1.
The parent labeling image from which the small region has been removed and the child labeling image from which the small region has been removed by the small region removing unit 15-2 are input, and their inclusion relation, that is, which parent label region is divided and which child label is It is determined whether an area has been generated.

【0197】また、図示してはいないが、包含関係判定
部64にラベル特徴量算出部14−2,14−2で算出
したラベル特徴量を入力して、包含関係判定処理を効率
化することも可能である。包含関係判定部64において
判定された親ラベル領域と子ラベル領域の包含関係は第
2属性判定部65に入力される。包含関係判定部64の
詳細は後述する。
Although not shown, the label feature amount calculated by the label feature amount calculation units 14-2 and 14-2 is input to the inclusion relationship determination unit 64 to improve the efficiency of the inclusion relationship determination process. Is also possible. The inclusion relationship between the parent label region and the child label region determined by the inclusion relationship determination unit 64 is input to the second attribute determination unit 65. Details of the inclusion relation determination unit 64 will be described later.

【0198】一方、ラベル特徴算出部14−2において
算出された子ラベル領域ごとの特徴量は第1属性判定部
16に入力され、算出された特徴量を用いて、子ラベル
領域ごとの属性を判定する。本実施形態では、特徴量と
して該当ラベル付与画素数・分散値・クラス分割値頻度
・クラス分散比を用い、属性として写真・絵柄領域、均
一色領域かを判定する。
On the other hand, the feature amount for each child label area calculated by the label feature calculation section 14-2 is input to the first attribute determination section 16, and the attribute for each child label area is determined using the calculated feature amount. judge. In the present embodiment, the number of pixels having the corresponding label, the variance value, the frequency of the class division value, and the class variance are used as the feature amounts, and it is determined whether the attribute is a photograph / picture region or a uniform color region.

【0199】なお、第1属性判定部16の詳細について
は既に説明しているので、ここでの説明は省略するが、
子ラベル領域ごとにラベル特徴算出部14−2で特徴量
を算出、第1属性判定部16で属性を判定することで、
例えば、それぞれのセルの色が異なる表などが存在した
場合、罫線でセルが区切られているため、セルの1つ1
つが子ラベル領域となり、セル単位で特徴量算出・属性
判定を行うことになるため、高精度な属性判定が可能と
なる。
Since the details of the first attribute judging section 16 have already been described, a description thereof will be omitted here.
The label feature calculation unit 14-2 calculates the feature amount for each child label area, and the first attribute determination unit 16 determines the attribute,
For example, if there is a table or the like in which each cell has a different color, the cells are separated by ruled lines.
One is a child label area, and the feature amount calculation / attribute determination is performed on a cell-by-cell basis, thus enabling highly accurate attribute determination.

【0200】また、罫線が無いような表などでも、セル
同士の境界はエッジ抽出部61で抽出することができ、
同様にセルの1つ1つが子ラベル領域となり、セル単位
で特徴量算出・属性判定を行うことが可能となる。第1
属性判定部16で判定された子ラベルに対する属性判定
結果は、第2属性判定部65に入力される。
Even in a table having no ruled line, a boundary between cells can be extracted by the edge extracting unit 61.
Similarly, each cell becomes a child label area, and it becomes possible to perform feature amount calculation and attribute determination in cell units. First
The attribute determination result for the child label determined by the attribute determination unit 16 is input to the second attribute determination unit 65.

【0201】第2属性判定部65では、包含関係判定部
64から入力された親ラベル領域と子ラベル領域の包含
関係と、第1属性判定部16から入力された子ラベル領
域に対する属性判定結果とを用いて、親ラベル領域の属
性を判定する。本実施形態では、属性として写真・絵柄
領域、均一色領域かを判定する。第2属性判定部65で
の親ラベルに対する属性判定結果は、線分補正部17に
入力される。第2属性判定部65の詳細は後述する。
The second attribute judging section 65 checks the inclusion relation between the parent label area and the child label area inputted from the inclusion relation judging section 64, the attribute judgment result for the child label area inputted from the first attribute judging section 16, and Is used to determine the attribute of the parent label area. In the present embodiment, it is determined whether the attribute is a photograph / pattern area or a uniform color area. The attribute determination result for the parent label in the second attribute determination section 65 is input to the line segment correction section 17. The details of the second attribute determination unit 65 will be described later.

【0202】線分補正部17では、ラベリング部13−
1から入力される親ラペリング画像と、第2属性判定部
65から入力される親ラベルごとの属性判定結果から、
線分抽出部12から入力される線分抽出画像を画素単位
に補正する。線分補正部17の詳細に関しては前述して
いるので詳しい説明は省略するが、簡単に述べると、写
真・絵柄領域と判定された親ラベル領域に含まれる線分
は削除し、それ以外の線分はそのままにする。線分補正
部17から出力される画像は、像域分離部9から出力さ
れる画像として、画像記憶部2に記憶される。
In the line segment correction section 17, the labeling section 13-
From the parent rappelling image input from No. 1 and the attribute determination result for each parent label input from the second attribute determination unit 65,
The line segment extraction image input from the line segment extraction unit 12 is corrected for each pixel. Since the details of the line segment correction unit 17 have been described above, a detailed description thereof will be omitted. However, in brief, line segments included in the parent label area determined to be a photograph / picture area are deleted, and other lines are deleted. Leave the minutes alone. The image output from the line correction unit 17 is stored in the image storage unit 2 as an image output from the image area separation unit 9.

【0203】包含関係判定部64の詳細について、図3
3〜図35および図36を用いて説明する。包含関係判
定部64には、小領域除去部15−1から出力された親
ラベリング画像と、小領域除去部15−2から出力され
た子ラベリング画像が入力され、親ラベル領域と子ラベ
ル領域の包含関係が判定される。
The details of the inclusion relation judging section 64 are shown in FIG.
This will be described with reference to FIGS. The parent labeling image output from the small area removing section 15-1 and the child labeling image output from the small area removing section 15-2 are input to the inclusion relation determining section 64, and the parent label area and the child label area are output. An inclusion relationship is determined.

【0204】すなわち、子ラベル領域の全画素が、親ラ
ベル領域に含まれているときは、親ラベル領域と子ラベ
ル領域は包含関係が有ると判定する。図33(d)と図
35(a)の場合は、子ラベル番号C1の子ラベル領域
は、親ラベル番号P1の親ラベル領域に含まれると判定
される。同様に、子ラベル番号C14〜Cmの子ラベル
領域は、親ラベル番号P2の親ラベル領域に含まれ、子
ラベル番号C2〜C13の子ラベル領域は、親ラベル番
号P3の親ラベル領域に含まれると判定され、図36に
示すような判定結果テーブルが作成される。なお、図3
6中のNULLは、それ以上含まれる子ラベル領域が無
いことを示す。
That is, when all the pixels of the child label area are included in the parent label area, it is determined that the parent label area and the child label area have an inclusive relation. In the case of FIG. 33D and FIG. 35A, it is determined that the child label area of the child label number C1 is included in the parent label area of the parent label number P1. Similarly, the child label areas of the child label numbers C14 to Cm are included in the parent label area of the parent label number P2, and the child label areas of the child label numbers C2 to C13 are included in the parent label area of the parent label number P3. Is determined, and a determination result table as shown in FIG. 36 is created. Note that FIG.
Null in 6 indicates that there is no further child label area included.

【0205】包含関係判定部64で判定された包含関係
判定結果は、第2属性判定部65に出力される。この第
2属性判定部65の詳細について図37を用いて説明す
る。第2属性判定部65には、包含関係判定部64から
包含関係判定結果が、第1属性判定部16から子ラベル
領域の属性判定結果が入力され、親ラベル領域の属性が
判定される。
[0205] The inclusion relation determination result determined by the inclusion relation determination section 64 is output to the second attribute determination section 65. Details of the second attribute determination section 65 will be described with reference to FIG. The second attribute determination unit 65 receives the inclusion relationship determination result from the inclusion relationship determination unit 64 and the child label region attribute determination result from the first attribute determination unit 16 and determines the attribute of the parent label region.

【0206】第2属性判定部65では、親ラベル領域に
含まれる複数の子ラベル領域の属性をみて、写真・絵柄
領域と判定されている子ラベル領域の個数が所定の閾値
以上のとき、親ラベル領域を写真・絵柄領域と判定、閾
値未満の場合は、均一色領域と判定する。ただし、親ラ
ベル領域に含まれる子ラベル領域が1つの場合は、親ラ
ベル領域の属性判定結果は子ラベル領域の属性判定結果
と同一とする。また、親ラベル領域が子ラベル領域を1
つも含まないときは、親ラベル領域を均一色領域と判定
する。
The second attribute judging section 65 looks at the attributes of a plurality of child label areas included in the parent label area, and if the number of child label areas judged to be photo / picture areas is equal to or greater than a predetermined threshold value, The label area is determined to be a photograph / picture area, and if less than the threshold, it is determined to be a uniform color area. However, when the parent label area includes one child label area, the attribute determination result of the parent label area is the same as the attribute determination result of the child label area. In addition, the parent label area has one child label area.
If none is included, the parent label area is determined to be a uniform color area.

【0207】図37の場合、閾値=2としたとき、親ラ
ベル番号がP1の親ラベル領域は、子ラベル番号がC1
の子ラベル領域を1つだけ含み、かつそれが均一色領域
であるため、親ラベル番号P1の親ラベル領域を均一色
領域と判定する。また、親ラベル番号がP2の親ラベル
領域は、子ラベル番号がC14〜Cmの子ラベル領域を
含み、写真・絵柄領域の個数が2個であるため、親ラベ
ル番号P2の親ラベル領域を写真・絵柄領域と判定す
る。また、子ラベル番号がC2〜C13の子ラベル領域
を含み、写真・絵柄領域の個数が1個であるため、親ラ
ベル番号P3の親ラベル領域を均一色頓域と判定する。
In the case of FIG. 37, when the threshold value is set to 2, the parent label area having the parent label number P1 has the child label number C1.
Since only one child label area is included and is a uniform color area, the parent label area of the parent label number P1 is determined to be a uniform color area. Further, since the parent label area having the parent label number P2 includes the child label areas having the child label numbers C14 to Cm and the number of the photograph / picture areas is two, the parent label area having the parent label number P2 is photographed. -It is determined as a picture area. In addition, since the child label number includes the child label areas of C2 to C13 and the number of the photograph / picture areas is one, the parent label area of the parent label number P3 is determined to be the uniform color area.

【0208】なお、上記の説明では、写真・絵柄領域の
子ラベル領域の個数を閾値と比較して親ラベル領域の属
性を判定するとしたが、子ラベル領域の個数に対する写
真・絵柄領域判定の子ラベル領域の個数の割合を閾値と
比較する方法もある。第2属性判定部65から出力され
た親ラベル領域の属性判定結果は、線分補正部17に入
力される。
In the above description, the attribute of the parent label area is determined by comparing the number of child label areas of the photo / picture area with the threshold value. There is also a method of comparing the ratio of the number of label areas with a threshold. The attribute determination result of the parent label area output from the second attribute determination section 65 is input to the line segment correction section 17.

【0209】上述したように、本発明の第2実施形態に
係る像域分離部9によれば、2値化画像に対してラベリ
ングを行って親ラベリング画像を作成し、当該親ラベリ
ング画像から小領域やエッジ・線分を除去した後の画像
に対して再度ラベリングを行って子ラベリング画像を作
成し、さらに子ラベル領城ごとに特徴量を算出し、その
特徴量から該領域の属性を判定するとともに、親ラベル
領域と子ラベル領域の包含関係から親ラベルの属性を判
定して入力画像から抽出した線分を補正する構成とした
ことにより、文字・線画・写真・網点等の混在した画像
に対して、入力画像に忠実に文字・線画を抽出し、かつ
写真・絵柄領域中での誤抽出の無い、高精度な像域分離
処理を行うことができるため、良好な再生画像を得るこ
とが可能となる。
As described above, according to the image area separating unit 9 according to the second embodiment of the present invention, a labeling is performed on the binarized image to generate a parent labeling image, and a small labeling image is generated from the parent labeling image. Labeling is performed again on the image from which the region, edge, and line segment have been removed to create a child labeling image, and a feature value is calculated for each child label region, and the attribute of the region is determined from the feature value. In addition, by adopting a configuration in which the attribute of the parent label is determined from the inclusion relationship between the parent label area and the child label area and the line segment extracted from the input image is corrected, characters, line drawings, photographs, halftone dots, etc. are mixed. A good reproduction image can be obtained because the image and the line image can be accurately extracted from the image and a high-precision image area separation process can be performed without erroneous extraction in the photograph / pattern area. It becomes possible.

【0210】なお、上記第2実施形態では、線分抽出部
12に加えてエッジ抽出部61をも具備し、これら抽出
部12,61で抽出した線分とエッジを画像合成部62
で合成し、この合成した線分およびエッジの双方をエッ
ジ・線分除去部63で2値化画像データから除去する構
成としたが、画像合成部62で線分とエッジを合成せず
に、エッジのみを2値化画像データから除去する構成
や、エッジ抽出部61を設けずに線分のみを2値化画像
データから除去する構成などを採ることも可能である。
In the second embodiment, an edge extracting section 61 is provided in addition to the line segment extracting section 12, and the line segments and edges extracted by the extracting sections 12 and 61 are combined with the image synthesizing section 62.
And the combined line segment and edge are removed from the binarized image data by the edge / line segment removing unit 63. However, the image combining unit 62 does not combine the line segment and the edge. It is also possible to adopt a configuration in which only the edge is removed from the binarized image data, or a configuration in which only the line segment is removed from the binarized image data without providing the edge extraction unit 61.

【0211】[0211]

【発明の効果】以上説明したように、本発明によれば、
文字・線画・写真・網点等の混在した画像に対して、領
域ごとに適した再現処理を行って画像を出力する際に、
白背景のみならず、均一色背景中においても、入力画像
に忠実に文字・線画を抽出し、かつ写真・絵柄領域中で
の誤抽出の無い、高精度な画域分離処理を行うことがで
きるため、品質の高い画像を得ることができる。
As described above, according to the present invention,
When performing an appropriate reproduction process for each area on an image that contains characters, line drawings, photographs, halftone dots, etc., and outputting the image,
In addition to the white background, even in a uniform color background, characters and line drawings can be faithfully extracted from an input image, and high-precision image area separation processing can be performed without erroneous extraction in a photograph / pattern area. Therefore, a high-quality image can be obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明に係る画像処理装置の基本的な構成を
示すブロック図である。
FIG. 1 is a block diagram illustrating a basic configuration of an image processing apparatus according to the present invention.

【図2】 本発明の第1実施形態に係る像域分離部の構
成を示すブロック図である。
FIG. 2 is a block diagram illustrating a configuration of an image area separation unit according to the first embodiment of the present invention.

【図3】 第1実施形態に係る像域分離部における処理
過程での画像変化を示す図(その1)である。
FIG. 3 is a diagram (part 1) illustrating an image change in a processing process in the image area separation unit according to the first embodiment.

【図4】 第1実施形態に係る像域分離部における処理
過程での画像変化を示す図(その2)である。
FIG. 4 is a diagram (part 2) illustrating an image change in the process of processing in the image area separation unit according to the first embodiment.

【図5】 ラベルごとの特徴量を示す図である。FIG. 5 is a diagram showing a feature amount for each label.

【図6】 2値化部の構成の一例を示すブロック図であ
る。
FIG. 6 is a block diagram illustrating an example of a configuration of a binarization unit.

【図7】 2値化部での画像変化を示す図である。FIG. 7 is a diagram illustrating an image change in a binarization unit.

【図8】 シャドー抽出部の構成の一例を示すブロック
図である。
FIG. 8 is a block diagram illustrating an example of a configuration of a shadow extraction unit.

【図9】 シャドー抽出部の構成の他の例を示すブロッ
ク図である。
FIG. 9 is a block diagram illustrating another example of the configuration of the shadow extraction unit.

【図10】 2値化部の他の例に係る処理の流れを示す
フローチャートである。
FIG. 10 is a flowchart illustrating a flow of a process according to another example of the binarization unit.

【図11】 L* 画像データのヒストグラムを示す図で
ある。
FIG. 11 is a diagram showing a histogram of L * image data.

【図12】 ラベル特徴量算出部での処理の流れを示す
フローチャートである。
FIG. 12 is a flowchart illustrating a flow of a process in a label feature amount calculation unit.

【図13】 第1属性部での処理の流れを示すフローチ
ャートである。
FIG. 13 is a flowchart illustrating a flow of processing in a first attribute unit.

【図14】 線分抽出部の構成の一例を示すブロック図
である。
FIG. 14 is a block diagram illustrating an example of a configuration of a line segment extraction unit.

【図15】 線抽出部の構成の一例を示すブロック図で
ある。
FIG. 15 is a block diagram illustrating an example of a configuration of a line extracting unit.

【図16】 1画素幅の線抽出部で検出する線の種類を
説明する図である。
FIG. 16 is a diagram illustrating the types of lines detected by a line extraction unit having a width of one pixel.

【図17】 1画素横線検出部の構成の一例を示すブロ
ック図である。
FIG. 17 is a block diagram illustrating an example of a configuration of a one-pixel horizontal line detection unit.

【図18】 1画素縦線検出部の構成の一例を示すブロ
ック図である。
FIG. 18 is a block diagram illustrating an example of a configuration of a one-pixel vertical line detection unit.

【図19】 1画左斜線検出部の構成の一例を示すブロ
ック図である。
FIG. 19 is a block diagram illustrating an example of a configuration of a one-screen left diagonal line detection unit.

【図20】 1画右斜線検出部の構成の一例を示すブロ
ック図である。
FIG. 20 is a block diagram illustrating an example of a configuration of a one-screen right diagonal line detection unit.

【図21】 2画素幅の線抽出部で検出する線の種類を
説明する図である。
FIG. 21 is a diagram illustrating types of lines detected by a line extraction unit having a width of two pixels.

【図22】 2画素横線検出部の構成の一例を示すブロ
ック図である。
FIG. 22 is a block diagram illustrating an example of a configuration of a two-pixel horizontal line detection unit.

【図23】 2画素縦線検出部の構成の一例を示すブロ
ック図である。
FIG. 23 is a block diagram illustrating an example of a configuration of a two-pixel vertical line detection unit.

【図24】 2画左斜線検出部の構成の一例を示すブロ
ック図である。
FIG. 24 is a block diagram illustrating an example of a configuration of a two-screen left diagonal line detection unit.

【図25】 2画右斜線検出部の構成の一例を示すブロ
ック図である。
FIG. 25 is a block diagram illustrating an example of a configuration of a two-screen right diagonal line detection unit.

【図26】 線抽出部の構成の他の例を示すブロック図
である。
FIG. 26 is a block diagram showing another example of the configuration of the line extracting unit.

【図27】 エッジ抽出部の構成の一例を示すブロック
図である。
FIG. 27 is a block diagram illustrating an example of a configuration of an edge extraction unit.

【図28】 フィルタ係数の一例を示す図である。FIG. 28 is a diagram illustrating an example of a filter coefficient.

【図29】 第1拡大部での処理内容を説明する図であ
る。
FIG. 29 is a diagram for explaining processing contents in a first enlargement unit.

【図30】 第1拡大部での拡大条件判定を説明する図
である。
FIG. 30 is a diagram for explaining enlargement condition determination in a first enlargement unit.

【図31】 線分補正部での処理の流れを示すフローチ
ャートである。
FIG. 31 is a flowchart showing the flow of processing in a line segment correction unit.

【図32】 本発明の第2実施形態に係る像域分離部の
構成を示すブロック図である。
FIG. 32 is a block diagram illustrating a configuration of an image area separation unit according to a second embodiment of the present invention.

【図33】 第2実施形態に係る像域分離部における処
理過程での画像変化を示す図(その1)である。
FIG. 33 is a diagram (part 1) illustrating an image change in a process in the image area separation unit according to the second embodiment.

【図34】 第2実施形態に係る像域分離部における処
理過程での画像変化を示す図(その2)である。
FIG. 34 is a diagram (part 2) illustrating an image change in a process of processing in the image area separation unit according to the second embodiment.

【図35】 第2実施形態に係る像域分離部における処
理過程での画像変化を示す図(その3)である。
FIG. 35 is a diagram (part 3) illustrating an image change in a processing process in the image area separation unit according to the second embodiment.

【図36】 包含関係判定部における親ラベル領域と子
ラベル領域の関係の一例を説明する図である。
FIG. 36 is a diagram illustrating an example of a relationship between a parent label area and a child label area in an inclusion relation determination unit.

【図37】 第2属性部の子ラベル領域属性から親ラベ
ル領域属性の判定を説明する図である。
FIG. 37 is a diagram illustrating determination of a parent label area attribute from a child label area attribute of a second attribute part.

【図38】 従来技術に係る像域分離部の構成の一例を
示すブロック図である。
FIG. 38 is a block diagram illustrating an example of a configuration of an image area separation unit according to the related art.

【符号の説明】[Explanation of symbols]

1…画像入力部、2…データ記憶部、3…演算処理部、
5…階調補正部、6…色信号変換部、8…画像出力部、
9…像域分離部、11…2値化部、12…線分抽出部、
13,13−1,13−2…ラベリング部、14,14
−1,14−2…ラベル特徴量算出部、15,1−1,
15−2…小領域抽出部、16…第1属性判定部、17
…線分補正部、61…エッジ抽出部、62…画像合成
部、63…エッジ・線分除去部、64…包含関係判定
部、65…第2属性判定部
DESCRIPTION OF SYMBOLS 1 ... Image input part, 2 ... Data storage part, 3 ... Operation processing part,
5: gradation correction section, 6: color signal conversion section, 8: image output section,
9: image area separation unit, 11: binarization unit, 12: line segment extraction unit
13, 13-1, 13-2 ... labeling part, 14, 14
-1, 14-2... Label feature amount calculation unit, 15, 1-1,
15-2: small area extraction unit, 16: first attribute determination unit, 17
... Line segment corrector, 61 edge extractor, 62 image synthesizer, 63 edge / line segment remover, 64 inclusion relation determiner, 65 second attribute determiner

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B057 CA08 CA12 CA16 CB07 CB08 CB12 CB16 CE02 CE03 CE08 CE09 CH18 DA08 DB02 DB09 DC05 DC16 DC36 5C076 AA02 AA11 AA19 AA36 BA03 BA06 5C077 LL20 MP02 MP05 MP06 MP07 NP08 PP03 PP05 PP19 PP20 PP21 PP23 PP27 PP28 PP43 PP46 PP47 PP58 PP61 PP68 PQ08 PQ12 PQ19 PQ20 RR02 5L096 AA02 AA06 BA12 CA24 EA35 FA03 FA06 FA33 FA42 FA43 FA44 FA45 FA78 GA34  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 5B057 CA08 CA12 CA16 CB07 CB08 CB12 CB16 CE02 CE03 CE08 CE09 CH18 DA08 DB02 DB09 DC05 DC16 DC36 5C076 AA02 AA11 AA19 AA36 BA03 BA06 5C077 LL20 MP02 MP05 MP06 MP07 NP19 PP03 PP03 PP05 PP23 PP27 PP28 PP43 PP46 PP47 PP58 PP61 PP68 PQ08 PQ12 PQ19 PQ20 RR02 5L096 AA02 AA06 BA12 CA24 EA35 FA03 FA06 FA33 FA42 FA43 FA44 FA45 FA78 GA34

Claims (31)

【特許請求の範囲】[Claims] 【請求項1】 画像データを入力する入力手段と、 前記入力手段によって入力された画像データに対して前
景と背景を分離する処理を行う2値化手段と、 前記入力手段によって入力された画像データに対して所
定画素数分の幅の線分を抽出する線分抽出手段と、 前記2値化手段によって前景とされた連結する画素に対
して同一のラベルを付与する第1ラベリング手段と、 前記第1ラベリング手段において同一ラベルが付与され
たラベル領域ごとに、該ラベル領域の画像特徴量を算出
する第1ラベル特徴量算出手段と、 前記第1ラベル特徴量算出手段によって算出されたラベ
ル領域ごとのラベル特徴量から該ラベル領域の属性を判
定する第1属性判定手段と、 前記第1ラベリング手段によってラベリングされたラベ
ル領域ごとの前記第1属性判定手段による属性判定結果
を用いて、前記線分抽出手段によって抽出された線分の
補正を行う線分補正手段とを具備することを特徴とする
画像処理装置。
An input unit for inputting image data; a binarizing unit for performing a process of separating a foreground and a background on the image data input by the input unit; and an image data input by the input unit. A line segment extracting unit that extracts a line segment having a width of a predetermined number of pixels, a first labeling unit that assigns the same label to connected pixels that have been foreground by the binarizing unit, For each label area to which the same label is assigned by the first labeling means, a first label feature quantity calculating means for calculating an image feature quantity of the label area, and for each label area calculated by the first label feature quantity calculating means First attribute determining means for determining an attribute of the label area from the label feature amount of the first and second label attributes, and the first attribute for each label area labeled by the first labeling means An image processing apparatus comprising: a line segment correcting unit that corrects a line segment extracted by the line segment extracting unit using an attribute determination result by a determining unit.
【請求項2】 前記2値化手段によって2値化された画
像データから、前記線分抽出手段によって抽出された線
分を除去する線分除去手段と、 前記2値化手段によって前景とされた画素でかつ前記線
分除去手段によって線分の除去された連結する画素に対
して同一のラベルを付与する第2ラベリング手段と、 前記第1ラベリング手段によってラベリングされたラベ
ル領域と前記第2ラベリング手段によってラベリングさ
れたラベル領域のそれぞれの包含関係を判定する包含関
係判定手段と、 前記第2ラベリング手段によってラベリングされたラベ
ル領域に対する前記第1属性判定手段による属性判定結
果と前記包含関係判定手段による包含判定結果とから、
前記第1ラベリング手段によってラベリングされたラベ
ル領域の属性を判定する第2属性判定手段とをさらに具
備し、 前記線分補正手段は、前記第1ラベリング手段によって
ラベリングされたラベル領域ごとの前記第2属性判定手
段による属性判定結果を用いて、前記線分抽出手段によ
って抽出された線分の補正を行うことを特徴とする請求
項1記載の画像処理装置。
2. A line segment removing unit for removing a line segment extracted by the line segment extracting unit from the image data binarized by the binarizing unit; and a foreground set by the binarizing unit. A second labeling unit for assigning the same label to pixels and connected pixels from which a line segment has been removed by the line segment removing unit; a label region labeled by the first labeling unit and the second labeling unit Relationship judgment means for judging the inclusion relation of the label areas labeled by the labeling means, and the attribute judgment result by the first attribute judgment means for the label area labeled by the second labeling means and the inclusion by the inclusion relation judgment means From the judgment result,
A second attribute determining unit that determines an attribute of the label region labeled by the first labeling unit, wherein the line segment correcting unit is configured to perform the second attribute determination for each of the label regions labeled by the first labeling unit. 2. The image processing apparatus according to claim 1, wherein the line segment extracted by the line segment extracting unit is corrected using an attribute determination result by the attribute determining unit.
【請求項3】 前記入力手段によって入力された画像デ
ータに対してエッジを抽出するエッジ抽出手段と、 前記2値化手段によって2値化された画像データから、
前記エッジ抽出手段によって抽出されたエッジを除去す
るエッジ除去手段と、 前記2値化手段によって前景とされた画素でかつ前記エ
ッジ除去手段によってエッジの除去された連結する画素
に対して同一のラベルを付与する第2ラベリング手段
と、 前記第1ラベリング手段によってラベリングされたラベ
ル領域と前記第2ラベリング手段によってラベリングさ
れたラベル領域のそれぞれの包含関係を判定する包含関
係判定手段と、 前記第2ラベリング手段によってラベリングされたラベ
ル領域に対する前記第1属性判定手段による属性判定結
果と前記包含関係判定手段による包含判定結果とから、
前記第1ラベリング手段によってラベリングされたラベ
ル領域の属性を判定する第2属性判定手段とをさらに具
備し、 前記線分補正手段は、前記第1ラベリング手段によって
ラベリングされたラベル領域ごとの前記第2属性判定手
段による属性判定結果を用いて、前記線分抽出手段によ
って抽出された線分の補正を行うことを特徴とする請求
項1記載の画像処理装置。
3. An image processing apparatus comprising: an edge extracting unit configured to extract an edge from image data input by the input unit; and an image data binarized by the binarizing unit.
An edge removing unit that removes an edge extracted by the edge extracting unit; and an identical label for a pixel that has been foregrounded by the binarizing unit and that is connected to a pixel whose edge has been removed by the edge removing unit. A second labeling unit to be provided; an inclusion relationship determining unit that determines an inclusion relationship between a label region labeled by the first labeling unit and a label region labeled by the second labeling unit; and the second labeling unit. From the attribute determination result by the first attribute determination unit and the inclusion determination result by the inclusion relationship determination unit with respect to the label area labeled by
A second attribute determining unit that determines an attribute of the label region labeled by the first labeling unit, wherein the line segment correcting unit is configured to perform the second attribute determination for each of the label regions labeled by the first labeling unit. 2. The image processing apparatus according to claim 1, wherein the line segment extracted by the line segment extracting unit is corrected using an attribute determination result by the attribute determining unit.
【請求項4】 前記入力手段によって入力された画像デ
ータに対してエッジを抽出するエッジ抽出手段と、 前記線分抽出手段によって抽出された線分と前記エッジ
抽出手段によって抽出されたエッジとを合成する画像合
成手段と、 前記2値化手段によって2値化された画像データから、
前記画像合成手段によって合成されたエッジと線分とを
除去するエッジ・線分除去手段と、 前記2値化手段によって前景とされた画素でかつ前記エ
ッジ・線分除去手段によってエッジおよび線分の除去さ
れた連結する画素に対して同一のラベルを付与する第2
ラベリング手段と、 前記第1ラベリング手段によってラベリングされたラベ
ル領域と前記第2ラベリング手段によってラベリングさ
れたラベル領域のそれぞれの包含関係を判定する包含関
係判定手段と、 前記第2ラベリング手段によってラベリングされたラベ
ル領域に対する前記第1属性判定手段による属性判定結
果と前記包含関係判定手段による包含判定結果とから、
前記第1ラベリング手段によってラベリングされたラベ
ル領域の属性を判定する第2属性判定手段とをさらに具
備し、 前記成分補正手段は、前記第1ラベリング手段によって
ラベリングされたラベル領域ごとの前記第2属性判定手
段による属性判定結果を用いて、前記線分抽出手段によ
って抽出された線分の補正を行うことを特徴とする請求
項1記載の画像処理装置。
4. An edge extraction unit for extracting an edge from the image data input by the input unit, and a line segment extracted by the line segment extraction unit and an edge extracted by the edge extraction unit are combined. From the image data binarized by the binarizing unit,
An edge / line segment removing unit for removing an edge and a line segment synthesized by the image synthesizing unit; and a pixel set as a foreground by the binarizing unit and an edge and a line segment by the edge / line segment removing unit. Second to give the same label to the removed connected pixels
Labeling means; inclusion relation determining means for determining the inclusion relation of each of the label area labeled by the first labeling means and the label area labeled by the second labeling means; and labeling by the second labeling means. From the attribute determination result for the label area by the first attribute determination unit and the inclusion determination result by the inclusion relationship determination unit,
Second attribute determining means for determining an attribute of a label area labeled by the first labeling means, wherein the component correcting means comprises a second attribute for each label area labeled by the first labeling means. 2. The image processing apparatus according to claim 1, wherein the line segment extracted by the line segment extracting unit is corrected using an attribute determination result by the determining unit.
【請求項5】 前記第1ラベル特徴量算出手段によって
算出されたラベル領域ごとのラベル特徴量から、所定サ
イズ以下のラベル領域を除去する第1小領域除去手段を
さらに具備し、 前記第1属性判定手段は、前記第1小領域除去手段によ
って除去されなかったラベル領域の属性を判定すること
を特徴とする請求項1〜請求項4のいずれかに記載の画
像処理装置。
5. The apparatus according to claim 1, further comprising: a first small area removing unit configured to remove a label area having a predetermined size or less from a label feature amount for each label area calculated by the first label feature amount calculating unit. The image processing apparatus according to claim 1, wherein the determining unit determines an attribute of the label area that has not been removed by the first small area removing unit.
【請求項6】 前記第1小領域除去手段は、前記第1ラ
ベル特徴量算出手段によって算出されたラベル領域サイ
ズを所定サイズと比較し、ラベル領域サイズが所定サイ
ズ以下の領域を除去することを特徴とする請求項5記載
の画像処理装置。
6. The first small area removing means compares the label area size calculated by the first label feature quantity calculating means with a predetermined size, and removes an area whose label area size is equal to or smaller than a predetermined size. The image processing apparatus according to claim 5, wherein:
【請求項7】 前記第1ラベリング手段によってラベリ
ングされた領域ごとに画像特徴量を算出する第2ラベル
特徴量算出手段と、 前記第2ラベル特徴量算出手段によって算出されたラベ
ル領域サイズを所定サイズと比較し、ラベル領域サイズ
が所定サイズ以下の領域を除去する第2小領域除去手段
とをさらに具備することを特徴とする請求項5又は請求
項6記載の画像処理装置。
7. A second label feature value calculating means for calculating an image feature value for each area labeled by the first labeling means, and a label area size calculated by the second label feature value calculating means being a predetermined size. 7. The image processing apparatus according to claim 5, further comprising: a second small area removing unit that removes an area whose label area size is equal to or smaller than a predetermined size, as compared with.
【請求項8】 前記第2小領域除去手段によって除去す
る領域サイズは、前記第1小領域除去手段によって除去
する領域サイズと比較して、等しいかもしくは小さいこ
とを特徴とする請求項7記載の画像処理装置。
8. The apparatus according to claim 7, wherein the area size to be removed by said second small area removing means is equal to or smaller than the area size to be removed by said first small area removing means. Image processing device.
【請求項9】 前記画像合成手段によって合成して得ら
れる抽出領域を所定サイズ分だけ膨張処理する膨張処理
手段をさらに具備し、 前記エッジ・線分除去手段は、前記膨張処理手段によっ
て膨張処理された抽出領域を除去することを特徴とする
請求項4〜請求項8のいずれかに記載の画像処理装置。
9. An expansion processing means for expanding an extraction area obtained by synthesis by the image synthesis means by a predetermined size, wherein the edge / line segment removing means is expanded by the expansion processing means. The image processing apparatus according to claim 4, wherein the extracted region is removed.
【請求項10】 前記第1ラベル特徴量算出手段は、少
なくともラベル領域の画素値のクラス分割値およびクラ
ス分散比を算出することを特徴とする請求項1〜請求項
9のいずれかに記載の画像処理装置。
10. The method according to claim 1, wherein the first label feature amount calculating means calculates at least a class division value and a class variance ratio of the pixel value of the label area. Image processing device.
【請求項11】 前記第1ラベル特徴量算出手段は、少
なくともラベル領域の画素値の分散を算出することを特
徴とする請求項1〜請求項9のいずれかに記載の画像処
理装置。
11. The image processing apparatus according to claim 1, wherein said first label feature amount calculating means calculates at least a variance of a pixel value of a label area.
【請求項12】 前記第1ラベル特徴量算出手段は、少
なくともラベル領域のサイズを算出することを特徴とす
る請求項1〜請求項9のいずれかに記載の画像処理装
置。
12. The image processing apparatus according to claim 1, wherein said first label feature amount calculating means calculates at least a size of a label area.
【請求項13】 前記第2ラベル特徴量算出手段は、少
なくともラベル領域のサイズを算出することを特徴とす
る請求項7〜請求項9のいずれかに記載の画像処理装
置。
13. The image processing apparatus according to claim 7, wherein said second label feature amount calculating means calculates at least a size of a label area.
【請求項14】 前記第1属性判定手段は、判定結果と
して少なくとも写真・絵柄領域および均一色領域を含む
ことを特徴とする請求項1〜請求項13のいずれかに記
載の画像処理装置。
14. The image processing apparatus according to claim 1, wherein the first attribute determination unit includes at least a photograph / picture area and a uniform color area as a determination result.
【請求項15】 前記第2属性判定手段は、判定結果と
して少なくとも写真・絵柄領域および均一色領域を含む
ことを特徴とする請求項2〜請求項13のいずれかに記
載の画像処理装置。
15. The image processing apparatus according to claim 2, wherein the second attribute determination unit includes at least a photograph / pattern area and a uniform color area as a determination result.
【請求項16】 前記第1属性判定手段は、判定対象ラ
ベル領域の分散を用いて、判定対象ラベル領域が写真・
絵柄領域あるいは均一色領域かを判定することを特徴と
する請求項1〜請求項14のいずれかに記載の画像処理
装置。
16. The method according to claim 1, wherein the first attribute determination unit uses a variance of the label area to be determined to determine whether the label area to be determined is a photograph
The image processing apparatus according to claim 1, wherein the image processing apparatus determines whether the area is a picture area or a uniform color area.
【請求項17】 前記第1属性判定手段は、判定対象ラ
ベル領域のクラス分割値およびクラス分散比を用いて、
判定対象ラベル領域が写真・絵柄領域あるいは均一色領
域かを判定することを特徴とする請求項1〜請求項16
のいずれかに記載の画像処理装置。
17. The method according to claim 1, wherein the first attribute determining unit uses a class division value and a class distribution ratio of the label region to be determined.
17. The method according to claim 1, wherein the determination target label area is a photograph / picture area or a uniform color area.
The image processing device according to any one of the above.
【請求項18】 前記包含関係判定手段は、前記第2ラ
ベリング手段によってラベリングされた領域が、前記第
1ラベリング手段によってラベリングされた領域に包含
されるときに包含有りと判定することを特徴とする請求
項2〜請求項17のいずれかに記載の画像処理装置。
18. The method according to claim 18, wherein the inclusion relation determining means determines that there is inclusion when the area labeled by the second labeling means is included in the area labeled by the first labeling means. An image processing apparatus according to claim 2.
【請求項19】 前記第2属性判定手段は、前記包含関
係判定手段によって包含されると判定された領域のう
ち、所定閾値以上の領域が写真・絵柄ラベル領域の場合
に、包含する領域も写真・絵柄ラベル領域であると判定
することを特徴とする請求項2〜請求項18のいずれか
に記載の画像処理装置。
19. The method according to claim 19, wherein, if the area determined to be included by the inclusion relation determining means is a photo / pattern label area if the area is equal to or greater than a predetermined threshold, the second attribute determining means also determines that the area to be included is a photo. 19. The image processing apparatus according to claim 2, wherein the image processing apparatus determines that the area is a picture label area.
【請求項20】 前記第2属性判定手段は、前記包含関
係判定手段によって包含されると判定された領域のう
ち、所定閾値以上の割合の領域が写真・絵柄ラベル領域
の場合に、包含する領域も写真・絵柄ラベル領域である
と判定することを特徴とする請求項2〜請求項19のい
ずれかに記載の画像処理装置。
20. The second attribute judging unit, when the region judged to be included by the inclusion relation judging unit is a photo / pattern label region in a region having a ratio equal to or greater than a predetermined threshold value. The image processing apparatus according to any one of claims 2 to 19, wherein it is determined that the image is also a photo / picture label area.
【請求項21】 前記第1属性判定手段は、前記第2小
領域除去手段によって除去されなかったラベル領域の属
性を判定することを特徴とする請求項7〜請求項20の
いずれかに記載の画像処理装置。
21. The method according to claim 7, wherein the first attribute determining unit determines an attribute of the label area that has not been removed by the second small area removing unit. Image processing device.
【請求項22】 前記2値化手段は、前記入力手段によ
って入力さた画像データに対して濃度の濃い領域を抽出
するシャドー抽出手段と、網点で構成された領域を抽出
する網点抽出手段と、前記シャドー抽出手段および前記
網点抽出手段の各抽出結果を画素ごとに論理和演算する
論理和演算手段とを有することを特徴とする請求項1〜
請求項21のいずれかに記載の画像処理装置。
22. The binarizing means, wherein shadow extracting means for extracting a high-density area from the image data input by the input means, and halftone extracting means for extracting an area composed of halftone dots And a logical sum operation means for performing a logical sum operation on each of the extraction results of the shadow extraction means and the halftone dot extraction means for each pixel.
The image processing device according to claim 21.
【請求項23】 前記2値化手段は、前記入力手段によ
って入力さた画像データに対して画素値のヒストグラム
を作成するヒストグラム作成手段と、前記ヒストグラム
作成手段によって作成されたヒストグラムより2値化閾
値を決定する2値化閾値決定手段とを有し、前記2値化
閾値決定手段によって決定された2値化閾値を用いて、
前記入力手段によって入力さた画像データの2値化を行
うことを特徴とする請求項1〜請求項21のいずれかに
記載の画像処理装置。
23. A binarizing unit, comprising: a histogram creating unit that creates a histogram of pixel values for the image data input by the input unit; and a binarizing threshold based on the histogram created by the histogram creating unit. And a binarization threshold value determining unit that determines the threshold value, and using the binarization threshold value determined by the binarization threshold value determination unit,
22. The image processing apparatus according to claim 1, wherein binarization of the image data input by the input unit is performed.
【請求項24】 前記線分補正手段は、対象画素の属性
が写真・絵柄領域の場合は前記線分抽出手段による線分
抽出結果を補正し、対象画素の属性が均一色領域の場合
は前記線分抽出手段による線分抽出結果を補正結果とす
ることを特徴とする請求項1〜請求項23のいずれかに
記載の画像処理装置。
24. The line segment correcting unit corrects a line segment extraction result by the line segment extracting unit when the attribute of the target pixel is a photograph / pattern region, and corrects the result when the attribute of the target pixel is a uniform color region. The image processing apparatus according to any one of claims 1 to 23, wherein a line segment extraction result by the line segment extraction unit is used as a correction result.
【請求項25】 入力された画像データに対して前景と
背景を分離する処理を行う2値化ステップと、 入力された画像データに対して所定画素数分の幅の線分
を抽出する線分抽出ステップと、 前記2値化ステップで前景とされた連結する画素に対し
て同一のラベルを付与する第1ラベリングステップと、 前記第1ラベリングステップにおいて同一ラベルが付与
されたラベル領域ごとに、該ラベル領域の画像特徴量を
算出する第1ラベル特徴量算出ステップと、 前記第1ラベル特徴量算出ステップで算出されたラベル
領域ごとのラベル特徴量から該ラベル領域の属性を判定
する第1属性判定ステップと、 前記第1ラベリングステップでラベリングされたラベル
領域ごとの前記属性判定ステップでの属性判定結果を用
いて、前記線分抽出ステップで抽出された線分の補正を
行う線分補正ステップとを有することを特徴とする画像
処理方法。
25. A binarization step of performing a process of separating a foreground and a background from input image data, and a line segment extracting a line segment having a width of a predetermined number of pixels from the input image data. An extracting step, a first labeling step of assigning the same label to the connected pixels that have been set to the foreground in the binarizing step, and, for each label area to which the same label has been assigned in the first labeling step, A first label feature amount calculating step of calculating an image feature amount of the label region; and a first attribute determination of determining an attribute of the label region from the label feature amount for each label region calculated in the first label feature amount calculating step. Using the attribute determination result in the attribute determination step for each label area labeled in the first labeling step. An image processing method characterized by having a segment correction step for correcting the segment in the extracted.
【請求項26】 前記2値化ステップで2値化された画
像データから、前記線分抽出ステップで抽出された線分
を除去する線分除去ステップと、 前記2値化ステップで前景とされた画素でかつ前記線分
除去ステップで線分の除去された連結する画素に対して
同一のラベルを付与する第2ラベリングステップと、 前記第1ラベリングステップでラベリングされたラベル
領域と前記第2ラベリングステップでラベリングされた
ラベル領域のそれぞれの包含関係を判定する包含関係判
定ステップと、 前記第2ラベリングステップでラベリングされたラベル
領域に対する前記第1属性判定ステップでの属性判定結
果と、前記第1,第2ラベリングステップでラベリング
されたラベル領域のそれぞれの前記包含関係判定ステッ
プでの包含判定結果とから、前記第1ラベリングステッ
プでラベリングされたラベル領域の属性を判定する第2
属性判定ステップとをさらに有し、 前記線分補正ステップでは、前記第1ラベリングステッ
プでラベリングされたラベル領域ごとの前記第2属性判
定ステップでの属性判定結果を用いて、前記線分抽出ス
テップで抽出された線分の補正を行うことを特徴とする
請求項25記載の画像処理方法。
26. A line segment removing step for removing a line segment extracted in the line segment extracting step from the image data binarized in the binarizing step, and the image data is set as a foreground in the binarizing step. A second labeling step of assigning the same label to the pixels and connected pixels from which the line segment has been removed in the line segment removing step; and a label region labeled in the first labeling step and the second labeling step. An inclusion relation determining step of determining an inclusion relation of each of the label areas labeled in the first step; an attribute determination result in the first attribute determining step for the label area labeled in the second labeling step; 2 from the inclusion determination results in the inclusion relationship determination step for each of the label areas labeled in the two labeling steps. Determining the attribute of the label area labeled in the first labeling step
An attribute determining step, wherein in the line segment correcting step, using the attribute determination result in the second attribute determining step for each label region labeled in the first labeling step, the line segment extracting step The image processing method according to claim 25, wherein correction of the extracted line segment is performed.
【請求項27】 入力された画像データに対してエッジ
を抽出するエッジ抽出ステップと、 前記2値化ステップで2値化された画像データから、前
記エッジ抽出ステップで抽出されたエッジを除去するエ
ッジ除去ステップと、 前記2値化ステップで前景とされた画素でかつ前記エッ
ジ除去ステップでエッジの除去された連結する画素に対
して同一のラベルを付与する第2ラベリングステップ
と、 前記第1ラベリングステップでラベリングされたラベル
領域と前記第2ラベリングステップでラベリングされた
ラベル領域のそれぞれの包含関係を判定する包含関係判
定ステップと、 前記第2ラベリングステップによってラベリングされた
ラベル領域に対する前記第1属性判定ステップでの属性
判定結果と、前記第1,第2ラベリングステップでラベ
リングされたラベル領域のそれぞれの前記包含関係判定
ステップでの包含判定結果とから、前記第1ラベリング
ステップによってラベリングされたラベル領域の属性を
判定する第2属性判定ステップとをさらに有し、 前記線分補正ステップでは、前記第1ラベリングステッ
プでラベリングされたラベル領域ごとの前記第2属性判
定ステップでの属性判定結果を用いて、前記線分抽出ス
テップで抽出された線分の補正を行うことを特徴とする
請求項25記載の画像処理方法。
27. An edge extracting step of extracting an edge from the input image data; and an edge for removing the edge extracted in the edge extracting step from the image data binarized in the binarizing step. A removing step; a second labeling step of assigning the same label to the connected pixels which are foreground in the binarizing step and the edges of which are removed in the edge removing step; and the first labeling step An inclusion relation determining step of determining an inclusion relation between the label area labeled in step 2 and the label area labeled in the second labeling step; and the first attribute determining step for the label area labeled in the second labeling step. In the first and second labeling steps, A second attribute determining step of determining an attribute of the label area labeled by the first labeling step from the inclusion determination result in the inclusion relation determining step of each of the labeled label areas; In the minute correction step, the line segment extracted in the line segment extraction step is corrected using the attribute determination result in the second attribute determination step for each label area labeled in the first labeling step. 26. The image processing method according to claim 25, wherein:
【請求項28】 入力された画像データに対してエッジ
を抽出するエッジ抽出ステップと、 前記線分抽出ステップで抽出された線分と前記エッジ抽
出ステップで抽出されたエッジとを合成する画像合成ス
テップと、 前記2値化ステップで2値化された画像データから、前
記画像合成ステップで合成されたエッジと線分とを除去
するエッジ・線分除去ステップと、 前記2値化ステップで前景とされた画素でかつ前記エッ
ジ・線分除去ステップでエッジおよび線分の除去された
連結する画素に対して同一のラベルを付与する第2ラベ
リングステップと、 前記第1ラベリングステップでラベリングされたラベル
領域と前記第2ラベリングステップでラベリングされた
ラベル領域のそれぞれの包含関係を判定する包含関係判
定ステップと、 前記第2ラベリングステップでラベリングされたラベル
領域に対する前記第1属性判定ステップでの属性判定結
果と、前記第1,第2ラベリングステップでラベリング
されたラベル領域のそれぞれの前記包含関係判定ステッ
プでの包含判定結果とから、前記第1ラベリングステッ
プでラベリングされたラベル領域の属性を判定する第2
属性判定ステップとをさらに有し、 前記線分補正ステップでは、前記第1ラベリングステッ
プでラベリングされたラベル領域ごとの前記第2属性判
定ステップでの属性判定結果を用いて、前記線分抽出ス
テップで抽出された線分の補正を行うことを特徴とする
請求項25記載の画像処理方法。
28. An edge extracting step of extracting an edge from the input image data, and an image synthesizing step of synthesizing the line segment extracted in the line segment extracting step and the edge extracted in the edge extracting step. An edge / segment removing step of removing edges and line segments synthesized in the image synthesizing step from the image data binarized in the binarizing step; A second labeling step of assigning the same label to the connected pixels that have undergone the edge and line segment removal in the edge / line segment removal step, and a label area labeled in the first labeling step. An inclusion relation determining step of determining an inclusion relation of each of the label areas labeled in the second labeling step; An attribute determination result in the first attribute determination step for the label region labeled in the labeling step, and an inclusion determination result in the inclusion relationship determination step for each of the label regions labeled in the first and second labeling steps. From the second, the attribute of the label area labeled in the first labeling step is determined.
An attribute determining step, wherein in the line segment correcting step, using the attribute determination result in the second attribute determining step for each label region labeled in the first labeling step, the line segment extracting step The image processing method according to claim 25, wherein correction of the extracted line segment is performed.
【請求項29】 前記第1ラベル特徴量算出ステップで
算出されたラベル領域ごとのラベル特徴量から、所定サ
イズ以下のラベル領域を除去する第1小領域除去ステッ
プをさらに有し、 前記第1属性判定ステップでは、前記第1小領域除去ス
テップで除去されなかったラベル領域の属性を判定する
ことを特徴とする請求項25〜請求項28のいずれかに
記載の画像処理方法。
29. The method according to claim 29, further comprising: a first small area removing step of removing a label area having a predetermined size or less from the label feature quantity for each label area calculated in the first label feature quantity calculating step. 29. The image processing method according to claim 25, wherein in the determining step, an attribute of the label area not removed in the first small area removing step is determined.
【請求項30】 前記第1ラベリングステップでラベリ
ングされた領域ごとに画像特徴量を算出する第2ラベル
特徴量算出ステップと、 前記第2ラベル特徴量算出ステップで算出されたラベル
領域サイズを所定サイズと比較し、ラベル領域サイズが
所定サイズ以下の領域を除去する第2小領域除去ステッ
プとをさらに有することを特徴とする請求項25〜請求
項30のいずれかに記載の画像処理方法。
30. A second label feature amount calculating step for calculating an image feature amount for each of the regions labeled in the first labeling step; and a label area size calculated in the second label feature amount calculating step is a predetermined size. 31. The image processing method according to claim 25, further comprising: a second small area removing step of removing an area whose label area size is equal to or smaller than a predetermined size, as compared with.
【請求項31】 前記画像合成ステップで合成して得ら
れる抽出領域を所定サイズ分だけ膨張処理する膨張処理
ステップをさらに有し、 前記エッジ・線分除去ステップでは、前記膨張処理ステ
ップで膨張処理された抽出領域を除去することを特徴と
する請求項28〜請求項30のいずれかに記載の画像処
理方法。
31. A dilation processing step of dilating an extraction area obtained by synthesizing in the image synthesizing step by a predetermined size, wherein in the edge / line segment removing step, the dilation processing is performed in the dilation processing step. 31. The image processing method according to claim 28, wherein the extracted region is removed.
JP30182299A 1999-10-25 1999-10-25 Image processing apparatus and image processing method Expired - Fee Related JP3918381B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP30182299A JP3918381B2 (en) 1999-10-25 1999-10-25 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP30182299A JP3918381B2 (en) 1999-10-25 1999-10-25 Image processing apparatus and image processing method

Publications (3)

Publication Number Publication Date
JP2001127999A true JP2001127999A (en) 2001-05-11
JP2001127999A5 JP2001127999A5 (en) 2004-12-24
JP3918381B2 JP3918381B2 (en) 2007-05-23

Family

ID=17901592

Family Applications (1)

Application Number Title Priority Date Filing Date
JP30182299A Expired - Fee Related JP3918381B2 (en) 1999-10-25 1999-10-25 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP3918381B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003098119A (en) * 2001-09-26 2003-04-03 Nec Corp Method and apparatus for detecting flaw
JP2008252862A (en) * 2007-03-05 2008-10-16 Ricoh Co Ltd Image processing apparatus, image processing method, and image processing program
JP2009080760A (en) * 2007-09-27 2009-04-16 Saxa Inc Object recognition device, and object recognition method and program
US8792719B2 (en) 2011-07-29 2014-07-29 Brother Kogyo Kabushiki Kaisha Image processing device determining attributes of regions
US8830529B2 (en) 2011-07-29 2014-09-09 Brother Kogyo Kabushiki Kaisha Image processing device for accurately identifying region in image without increase in memory requirement
US8837836B2 (en) 2011-07-29 2014-09-16 Brother Kogyo Kabushiki Kaisha Image processing device identifying attribute of region included in image
US8929663B2 (en) 2011-07-29 2015-01-06 Brother Kogyo Kabushiki Kaisha Image processing device identifying region in image as one of uniform region and nonuniform region

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003098119A (en) * 2001-09-26 2003-04-03 Nec Corp Method and apparatus for detecting flaw
JP4720968B2 (en) * 2001-09-26 2011-07-13 日本電気株式会社 Scratch detection method and scratch detection device
JP2008252862A (en) * 2007-03-05 2008-10-16 Ricoh Co Ltd Image processing apparatus, image processing method, and image processing program
JP2009080760A (en) * 2007-09-27 2009-04-16 Saxa Inc Object recognition device, and object recognition method and program
US8792719B2 (en) 2011-07-29 2014-07-29 Brother Kogyo Kabushiki Kaisha Image processing device determining attributes of regions
US8830529B2 (en) 2011-07-29 2014-09-09 Brother Kogyo Kabushiki Kaisha Image processing device for accurately identifying region in image without increase in memory requirement
US8837836B2 (en) 2011-07-29 2014-09-16 Brother Kogyo Kabushiki Kaisha Image processing device identifying attribute of region included in image
US8929663B2 (en) 2011-07-29 2015-01-06 Brother Kogyo Kabushiki Kaisha Image processing device identifying region in image as one of uniform region and nonuniform region

Also Published As

Publication number Publication date
JP3918381B2 (en) 2007-05-23

Similar Documents

Publication Publication Date Title
JP4423298B2 (en) Text-like edge enhancement in digital images
US6157736A (en) Method and apparatus for automatic image segmentation using template matching filters
US6914628B1 (en) Image processing apparatus and method, and medium containing image processing control program
JPH06105160A (en) Image controller
JP3918381B2 (en) Image processing apparatus and image processing method
JP3026706B2 (en) Image processing device
AU752396B2 (en) Method and apparatus for image processing, and medium
JP2784278B2 (en) Image scaling processor
JP2000357226A (en) Method for binarizing light and shade image and recording medium where binarizing program is recorded
JPH10155139A (en) Image processor and image processing method
JP3100383B2 (en) Character region separation method and apparatus
JP3262425B2 (en) Image processing device
JP4035696B2 (en) Line segment detection apparatus and image processing apparatus
JP2001144954A (en) Image processing unit and image processing method
JP3783815B2 (en) Image processing device
JPH08251397A (en) Method and device for image processing
JPH07182503A (en) Method and device for processing image
JPH1132209A (en) Resolution converting method
JP2777378B2 (en) Halftone area detection method
JP3054315B2 (en) Image processing method and apparatus
JP2778669B2 (en) Halftone area detection method
US6778296B1 (en) Color imaging processing method with boundary detection and enhancement
JPH07262351A (en) Image processor and control method for the same
JPH05160996A (en) Image processing method
JP2000149009A (en) Image processor

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040120

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070205

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110223

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120223

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130223

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees