JP2001144954A - Image processing unit and image processing method - Google Patents

Image processing unit and image processing method

Info

Publication number
JP2001144954A
JP2001144954A JP32194399A JP32194399A JP2001144954A JP 2001144954 A JP2001144954 A JP 2001144954A JP 32194399 A JP32194399 A JP 32194399A JP 32194399 A JP32194399 A JP 32194399A JP 2001144954 A JP2001144954 A JP 2001144954A
Authority
JP
Japan
Prior art keywords
unit
pixel
image
area
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP32194399A
Other languages
Japanese (ja)
Inventor
Toshiya Koyama
俊哉 小山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP32194399A priority Critical patent/JP2001144954A/en
Publication of JP2001144954A publication Critical patent/JP2001144954A/en
Pending legal-status Critical Current

Links

Landscapes

  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve a problem of a conventional image processing unit where deterioration in image quality has been remarkable in a reproduced image because there are extracted parts and non-extracted parts in one character when thick parts and thin parts are in existence in the character in the image area separation and because a block-shaped image pattern may be wrongly extracted on the occurrence of mis-extraction in the image patterns. SOLUTION: First a shadow extract section 11 extracts an area with high gray level from input image data, a dot extract section 12 extracts an area consisting of dots, and a line segment extract section 13 extracts line segments with a width by a 1st prescribed number of pixels. Then a small area extract section 14 extracts an area with a width by a 2nd prescribed number of pixels from each area extracted by the shadow extract section 11 and the dot extract section 12, and a line segment correction section 15 corrects the line segments extracted by the line segment extract section 13 on the basis of the extracted area.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、複写機やファクシ
ミリなどの画像処理装置およびその処理方法に関し、特
に原稿に含まれる文字領域と絵柄領域を自動的に判別・
分離し、各領域に適した画像処理を行う画像処理装置お
よび画像処理方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus such as a copying machine or a facsimile, and a processing method therefor.
The present invention relates to an image processing apparatus and an image processing method that separate and perform image processing suitable for each area.

【0002】[0002]

【従来の技術】複写機やファクシミリなどの画像処理装
置において、入力された画像に文字や線画などの文字領
域と、写真や絵柄などの絵柄領域が混在していた場合、
その画像を再生するときには文字領域と絵柄領域を分離
し、文字領域には解像度を重視した処理を、絵柄領域に
は階調性を重視した処理を施すことが画像品質の面から
望ましい。また、上記のような画像データを伝送する場
合にも、文字領域と絵柄領域を分離し、それぞれに対し
て異なった手法で圧縮処理を行った方が、画像品質およ
び圧縮率の面から望ましい。
2. Description of the Related Art In an image processing apparatus such as a copying machine or a facsimile, when an input image includes a character area such as a character or a line drawing and a picture area such as a photograph or a picture,
When reproducing the image, it is desirable from the viewpoint of image quality to separate the character area from the picture area, and to perform the processing emphasizing the resolution on the character area and the processing emphasizing the gradation on the picture area. Also in the case of transmitting the image data as described above, it is desirable to separate the character area and the picture area and to perform compression processing on each of them by different methods from the viewpoint of image quality and compression ratio.

【0003】具体的には、スキャナ等によって読み取ら
れた画像、あるいはファクシミリ等で送信されてきた、
文字・線画・写真・網点等の混在した画像をハードコピ
ーする場合、文字・線画などの文字領域に対しては解像
度を重視した処理を施し、写真・網点などの絵柄領域に
対しては階調性を重視した処理を施すことにより、高画
質な再生画像を得ることが可能となる。
[0003] Specifically, an image read by a scanner or the like, or transmitted by facsimile or the like,
When making a hard copy of an image containing a mixture of characters, line drawings, photos, and halftone dots, processing that emphasizes resolution is applied to character regions such as characters and line drawings, and to image regions such as photos and halftone dots. By performing the process with emphasis on gradation, a high-quality reproduced image can be obtained.

【0004】また、文字・線画・写真・網点等の混在し
た画像を、ネットワークを介して離れた場所にある画像
出力装置に転送する場合、文字領域と絵柄領域を分離
し、それぞれの領域に対して異なった手法で圧縮処理を
行った方が、高画質で小容量の画像データを得ることが
できるため、速い転送速度・高画質な再生画像を得るこ
とができる。
When an image including characters, line drawings, photographs, halftone dots, and the like is transferred to an image output device at a remote place via a network, a character area and a picture area are separated from each other. On the other hand, when the compression processing is performed by a different method, high-quality and small-capacity image data can be obtained, so that a high-speed transfer speed and high-quality reproduced image can be obtained.

【0005】ここで、上記のような解像度重視・階調性
重視の処理を画像の各領域によって適応的に処理するた
めには、画像に含まれる文字領域・絵柄領域を精度良く
分離する必要がある。以下、文字領域・絵柄領域の分離
のことを像域分離と言う。この像域分離には関しては、
従来、種々の提案がなされている。
Here, in order to adaptively process the above-described processing with emphasis on resolution and gradation, depending on each area of an image, it is necessary to accurately separate a character area and a picture area included in the image. is there. Hereinafter, the separation between the character area and the picture area is referred to as image area separation. Regarding this image area separation,
Conventionally, various proposals have been made.

【0006】例えば、画像をある一定の大きさのブロッ
クに分割し、各分割ブロックごとにそのブロックに含ま
れる画素の最大濃度と最小濃度を求めるとともに、最大
濃度と最小濃度の差をあらかじめ決められた閾値と比較
し、当該閾値よりも大きいブロックは文字領域、小さい
ブロックは絵柄領域と判定する方法(以下、第1従来技
術と称す)や、注目画素を中心とした局所オペレータ
(フィルタ)を用い、フィルタリング結果をあらかじめ
決められた閾値と比較し、閾値よりも大きい画素は文字
領域画素、小さい画素は絵柄領域画素と判定する方法
(以下、第2従来技術と称す)などがある。
For example, an image is divided into blocks of a certain size, the maximum density and the minimum density of the pixels included in each divided block are determined, and the difference between the maximum density and the minimum density is determined in advance. In comparison with the threshold, a block larger than the threshold is determined as a character area, and a block smaller than the threshold is determined as a picture area (hereinafter referred to as a first related art), or a local operator (filter) centering on a pixel of interest. There is a method of comparing a filtering result with a predetermined threshold, and determining a pixel larger than the threshold as a character area pixel and a pixel smaller than the threshold as a picture area pixel (hereinafter, referred to as a second conventional technique).

【0007】さらに、上記のように1種類の方法、即ち
第1,第2従来技術の一方だけを用いて像域分離を行う
のではなく、文字領域を抽出する処理や絵柄領域を抽出
する処理などの複数の処理を行い、各処理結果から精度
良く像域分離を行う手法(以下、第3従来技術と称す)
も提案されている(特開平2−294885号公報参
照)。この第3従来技術について、図27を用いて簡単
に説明する。
Further, as described above, instead of performing image area separation using only one of the first and second prior arts, processing for extracting a character area or processing for extracting a picture area is performed. (Hereinafter, referred to as a third conventional technique) in which a plurality of processes such as the above are performed, and an image area is separated from each processing result with high accuracy.
Has also been proposed (see JP-A-2-294885). This third prior art will be briefly described with reference to FIG.

【0008】図27において、入力された画像信号は、
文字抽出部201、網点抽出部202および輪郭抽出部
203に供給される。文字抽出部201は、入力された
画像信号から画素単位に文字領域の判定を行い、その判
定結果を出力する。網点抽出部202は、画素単位に網
点領域の判定を行い、その判定結果を出力する。文字抽
出部201と網点抽出部202の各判定結果は、論理和
演算部204において画素単位に論理和演算が行われた
後、誤判定除去部205に供給される。誤判定除去部2
05においては、文字抽出結果の補正処理が行われる。
In FIG. 27, the input image signal is
It is supplied to a character extracting unit 201, a halftone dot extracting unit 202, and a contour extracting unit 203. The character extracting unit 201 determines a character area on a pixel-by-pixel basis from an input image signal, and outputs a result of the determination. The dot extracting unit 202 determines a dot area for each pixel and outputs a result of the determination. The determination results of the character extraction unit 201 and the halftone dot extraction unit 202 are supplied to the erroneous determination removal unit 205 after the logical sum operation unit 204 performs a logical sum operation for each pixel. Misjudgment removal unit 2
At 05, the character extraction result is corrected.

【0009】次に、誤判定除去部205と輪郭抽出部2
03の各出力結果は、論理積演算部206において画素
単位で論理積演算が行われた後、輪郭再生成部207に
供給される。輪郭再生成部207においては、論理積演
算部206の論理積演算結果に対して文字・線画の輪郭
補正が行われる。そして、この輪郭再生成部207の出
力結果を像域分離結果とすることにより、精度の高い像
域分離を行うことができる。
Next, the erroneous judgment removing unit 205 and the contour extracting unit 2
Each output result of 03 is supplied to the contour regenerating unit 207 after the logical product operation is performed by the logical product operation unit 206 on a pixel basis. In the contour regenerating section 207, the contour of the character / line image is corrected for the result of the logical product operation of the logical product calculation section 206. Then, by using the output result of the contour regeneration unit 207 as an image area separation result, highly accurate image area separation can be performed.

【0010】[0010]

【発明が解決しようとする課題】しかしながら、上記第
1従来技術の場合は、ブロック単位に像域分離が行われ
るため、文字・線画の輪郭部の像域判定結果が入力画像
に忠実な判定結果とはならい。また、上記第2従来技術
の場合は、画像中に含まれるエッジを抽出する手法であ
るため、ノイズを抽出したり、絵柄中に含まれるエッジ
を抽出しやすいという課題がある。
However, in the case of the first prior art, since the image area separation is performed in block units, the image area determination result of the outline portion of the character / line drawing is faithful to the input image. It is not. Further, in the case of the second prior art, since it is a method of extracting an edge contained in an image, there is a problem that it is easy to extract noise or an edge contained in a picture.

【0011】これに対して、上記第3従来技術の場合
は、絵柄中でのエッジの誤抽出が少ない、文字・線画の
輪郭部は入力画像に忠実な抽出結果となる、など比較的
優れた手法である。しかしながら、下記のような課題も
残されている。 太文字・太線の場合、輪郭部のみの抽出となり、文字
・線内部まで抽出が困難である。 一つの文字の中で幅の太い箇所と細い箇所が存在した
場合に、抽出される箇所とされない箇所が存在する。 絵柄中に誤抽出が発生する場合は、ブロック状の誤抽
出となることがあり、画像再現した際に画質劣化が目立
ちやすい。
On the other hand, in the case of the above third prior art, there are few erroneous extractions of edges in a picture, and the outline of a character or a line drawing has an extraction result faithful to an input image. Method. However, the following problems still remain. In the case of a bold character / bold line, only the outline is extracted, and it is difficult to extract the inside of the character / line. When a wide part and a narrow part exist in one character, there are parts that are not extracted and parts that are not extracted. When erroneous extraction occurs in a picture, erroneous extraction in a block shape may occur, and when an image is reproduced, image quality deterioration is more conspicuous.

【0012】本発明は、上記した従来技術の課題を解決
するためになされたものであり、その目的とするところ
は、入力画像に対して忠実に文字・線画を抽出し、かつ
絵柄領域中での誤抽出の無い、高精度な像域分離処理を
行うことが可能な画像処理装置および画像処理方法を提
供することにある。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems of the prior art, and it is an object of the present invention to faithfully extract a character or a line drawing from an input image and to extract a character / line drawing from a pattern area. It is an object of the present invention to provide an image processing apparatus and an image processing method capable of performing high-accuracy image area separation processing without causing erroneous extraction.

【0013】[0013]

【課題を解決するための手段】本発明による画像処理装
置は、画像データを入力する入力手段と、この入力手段
によって入力された画像データに対して濃度の濃い領域
を抽出するシャドー抽出手段と、入力画像データに対し
て網点で構成された領域を抽出する網点抽出手段と、入
力画像データに対して第1の所定画素数分の幅の線分を
抽出する線分抽出手段と、シャドー抽出手段によって抽
出された領域と網点抽出手段によって抽出された領域と
から、第2の所定画素数分の幅を有する領域を抽出する
小領域抽出手段と、この小領域抽出手段によって抽出さ
れた領域に基づいて、線分抽出手段によって抽出された
線分の補正を行う線分補正手段とを具備する構成となっ
ている。
According to the present invention, there is provided an image processing apparatus comprising: an input unit for inputting image data; a shadow extracting unit for extracting an area having a high density from the image data input by the input unit; Halftone dot extracting means for extracting an area composed of halftone dots from input image data, line segment extracting means for extracting a line segment having a width of a first predetermined number of pixels from input image data, A small region extracting unit for extracting a region having a width of a second predetermined number of pixels from the region extracted by the extracting unit and the region extracted by the halftone dot extracting unit, and a region extracted by the small region extracting unit. A line segment correction unit that corrects the line segment extracted by the line segment extraction unit based on the area.

【0014】上記構成の画像処理装置において、先ず、
入力手段は、シャドー抽出手段、網点抽出手段および線
分抽出手段に対して画像データを入力する。すると、シ
ャドー抽出手段は入力画像データに対して濃度の濃い領
域を抽出し、網点抽出手段は入力画像データに対して網
点で構成された領域を抽出し、各抽出結果を小領域抽出
手段に与える。すると、小領域抽出手段は、これら抽出
結果から第2の所定画素数分の幅を有する領域を抽出
し、その抽出結果を線分補正手段に与える。そして、線
分補正手段は、小領域抽出手段によって抽出された領域
に基づいて、線分抽出手段によって抽出された線分の補
正を行う。
In the image processing apparatus having the above configuration, first,
The input means inputs image data to the shadow extracting means, the halftone dot extracting means, and the line segment extracting means. Then, the shadow extracting means extracts a region having a high density from the input image data, the halftone extracting means extracts an area composed of halftone dots from the input image data, and outputs each extraction result to a small area extracting means. Give to. Then, the small area extracting means extracts an area having a width equal to the second predetermined number of pixels from the extraction results, and provides the extraction result to the line segment correcting means. Then, the line segment correction unit corrects the line segment extracted by the line segment extraction unit based on the region extracted by the small region extraction unit.

【0015】[0015]

【発明の実施の形態】以下、本発明の実施の形態につい
て図面を参照して詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0016】図1は、本発明に係る画像処理装置の基本
的な構成の概略を示すブロック図である。図1から明ら
かなように、本発明に係る画像処理装置は、画像入力部
1、入力階調補正部2、色信号変換部3、色信号変換部
4、墨版生成部5、空間フィルタ部6、出力階調補正部
7、画像出力部8および像域分離部9を有する構成とな
っている。
FIG. 1 is a block diagram showing an outline of a basic configuration of an image processing apparatus according to the present invention. As is apparent from FIG. 1, the image processing apparatus according to the present invention includes an image input unit 1, an input gradation correction unit 2, a color signal conversion unit 3, a color signal conversion unit 4, a black plate generation unit 5, a spatial filter unit. 6, an output gradation correction section 7, an image output section 8, and an image area separation section 9.

【0017】上記構成の画像処理装置において、画像入
力部1はCCD撮像素子などの光電変換素子によって構
成されるイメージスキャナなどであり、原稿のカラー画
像情報を色別に読み取り、電気的なディジタル画像信号
に変換して出力する。なお、この画像入力部1によって
読み取られ、変換されたディジタル画像信号は、解像度
400dpi、各色8ビットのRGBカラー画像信号で
あるものとして、以下の説明を行う。
In the image processing apparatus having the above-described configuration, the image input section 1 is an image scanner or the like constituted by a photoelectric conversion element such as a CCD image pickup element, reads color image information of a document for each color, and outputs an electrical digital image signal. And output. The following description will be made on the assumption that the digital image signal read and converted by the image input unit 1 is an RGB color image signal having a resolution of 400 dpi and 8 bits for each color.

【0018】画像入力部1から出力される画像信号(R
GB各色8ビット)は、入力階調補正部2によって階調
補正される。色信号変換部3では、階調補正のなされた
RGB画像信号が、他の色信号(例えば、L*
* * )に変換される。色信号変換部3から出力される
* * * 画像信号は色信号変換部4に供給され、そ
こで他の色信号(例えば、YMC)に変換され、さらに
墨版生成部5によってYMC画像信号から墨版が生成さ
れてYMCK画像信号に変換される。
An image signal (R) output from the image input unit 1
(8 bits for each color of GB) is subjected to gradation correction by the input gradation correction unit 2. In the color signal conversion unit 3, the RGB image signal subjected to the gradation correction is converted into another color signal (for example, L * a
* b * ). The L * a * b * image signal output from the color signal conversion unit 3 is supplied to a color signal conversion unit 4, where it is converted into another color signal (for example, YMC). A black plate is generated from the signal and converted into a YMCK image signal.

【0019】墨版生成部5には後述する像域分離部9か
らの像域判定結果も入力され、これに対応して墨版生成
係数が切り替えられる。墨版生成部5から出力されるY
MCK画像信号は空間フィルタ部6に供給され、そこで
各色ごとに空間フィルタリング処理が施される。また、
空間フィルタ部6には後述する像域分離部9からの像域
判定結果も入力され、その像域判定結果に対して、例え
ばフィルタリング係数などが切り替えられて空間フィル
タリング処理がなされる。
An image area determination result from an image area separation unit 9 described later is also input to the black plate generation unit 5, and the black plate generation coefficient is switched in accordance with the result. Y output from black plate generation unit 5
The MCK image signal is supplied to a spatial filter unit 6, where a spatial filtering process is performed for each color. Also,
An image area determination result from an image area separation unit 9 described later is also input to the spatial filter unit 6, and a spatial filtering process is performed on the image area determination result by, for example, switching a filtering coefficient.

【0020】空間フィルタリング処理がなされたYMC
K画像信号は出力階調補正部7に供給され、各色ごとに
画像出力階調特性に合うように出力階調の補正がなされ
る。また、出力階調補正部7にも後述する像域分離部9
からの像域判定結果が入力され、その像域判定結果に対
応した出力階調の補正がなされる。
YMC after spatial filtering
The K image signal is supplied to the output gradation correction unit 7, where the output gradation is corrected for each color so as to match the image output gradation characteristics. The output tone correction unit 7 also includes an image area separation unit 9 described later.
Are input, and the output gradation corresponding to the image area determination result is corrected.

【0021】出力階調が補正されたYMCK画像信号は
画像出力部8に供給される。画像出力部8にはさらに、
後述する像域分離部9からの像域判定結果も入力され、
その像域判定結果に対応して、例えばスクリーンなどが
切り替えられて画像が出力される。
The YMCK image signal whose output gradation has been corrected is supplied to an image output section 8. The image output unit 8 further includes:
The image area determination result from the image area separation unit 9 described later is also input,
In response to the image area determination result, for example, a screen is switched and an image is output.

【0022】また、色信号変換部3から出力されるL*
* * 画像信号のうち、L* 信号は像域分離部9にも
供給され、後述するように、各画素ごとに文字部あるい
は絵柄部の像域判定がなされる。この像域判定結果は、
上記の墨版生成部5、空間フィルタ部6、出力階調補正
部7および画像出力部8に供給され、前述したように、
像域判定結果に対応した処理が施される。
Further, L * output from the color signal converter 3
Among the a * b * image signals, the L * signal is also supplied to the image area separation unit 9, and as described later, the image area of the character portion or the picture portion is determined for each pixel. This image area determination result is:
The black plate generation unit 5, the spatial filter unit 6, the output gradation correction unit 7, and the image output unit 8 supply the black plate generation unit 5, and as described above,
Processing corresponding to the image area determination result is performed.

【0023】〔第1実施形態〕次に、像域分離部9につ
いて説明する。図2は、本発明の第1実施形態に係る像
域分離部9の構成を示すブロック図である。
[First Embodiment] Next, the image area separating section 9 will be described. FIG. 2 is a block diagram illustrating a configuration of the image area separation unit 9 according to the first embodiment of the present invention.

【0024】図2において、第1実施形態に係る像域分
離部9は、シャドー抽出部11、網点抽出部12、線分
抽出部13、小領域抽出部14および線分補正部15を
有する構成となっている。また、小領域抽出部14は、
論理和演算部16、収縮処理部17、膨張処理部18お
よび反転−論理積演算部19から構成されている。
In FIG. 2, the image area separating section 9 according to the first embodiment has a shadow extracting section 11, a halftone dot extracting section 12, a line segment extracting section 13, a small area extracting section 14, and a line segment correcting section 15. It has a configuration. In addition, the small area extraction unit 14
It comprises a logical sum operation unit 16, a contraction processing unit 17, an expansion processing unit 18, and an inversion-logical product operation unit 19.

【0025】上記構成の第1実施形態に係る像域分離部
9において、シャドー抽出部11では、入力された画像
信号から、濃度の濃い領域、例えば黒や青や赤などの文
字・線分、あるいは絵柄中でも髪の毛や赤い花や緑の葉
など比較的濃度の濃い領域が抽出される。このとき、抽
出された画素を高レベル(論理“1”)、抽出されなか
った画素を低レベル(論理“0”)とする各画素1ビッ
トの画像信号がシャドー抽出部11から出力される。こ
のシャドー抽出部11の詳細については後述する。シャ
ドー抽出部11から出力された画像信号は小領域抽出部
14に入力される。
In the image area separating section 9 according to the first embodiment having the above-described configuration, the shadow extracting section 11 extracts, from the input image signal, a region having a high density, for example, a character or line segment such as black, blue or red. Alternatively, a relatively dense area such as hair, red flowers, green leaves, etc. is extracted even in the picture. At this time, a 1-bit image signal for each pixel is output from the shadow extraction unit 11 with the extracted pixels at a high level (logic “1”) and the unextracted pixels at a low level (logic “0”). The details of the shadow extraction unit 11 will be described later. The image signal output from the shadow extraction unit 11 is input to the small area extraction unit 14.

【0026】また、網点抽出部12では、入力された画
像信号から、画像中に含まれる網点領域の抽出が行われ
る。このとき、抽出された画素を高レベル、抽出されな
かった画素を低レベルとする各画素1ビットの画像信号
が網点抽出部12から出力される。この網点抽出部12
から出力された画像信号は小領域抽出部14に入力され
る。
In the halftone dot extracting section 12, a halftone dot region included in the image is extracted from the input image signal. At this time, the halftone dot extraction unit 12 outputs a 1-bit image signal for each pixel in which the extracted pixels are set to the high level and the unextracted pixels are set to the low level. This dot extraction unit 12
Are output to the small area extracting unit 14.

【0027】網点抽出部12としては、本願発明者が既
に提案済みの画像処理装置(特開平11−73503号
公報参照)に記載のものを用いることができる。ここで
はその詳細については記載しないが、概略は、入力画像
データの2値化を行い、2値画像データの高レベルとな
っている画素(または、低レベルとなっている画素)
が、注目画素を中心としたN1×N1(例えば、N1=
13)の広範囲領域の中で周期構造をなしているか否か
を判定した後、その判定結果に対してN2×N2(例え
ば、N2=25)の広範囲の領域を用いて網点領域を判
定・抽出するというものである。
As the halftone dot extracting section 12, the one described in the image processing apparatus proposed by the present inventor (see Japanese Patent Application Laid-Open No. 11-73503) can be used. Although the details are not described here, the outline is that the input image data is binarized, and the high-level pixels (or the low-level pixels) of the binary image data are obtained.
Is N1 × N1 (for example, N1 =
13) After determining whether or not a periodic structure is formed in the wide area, the halftone dot area is determined using the wide area of N2 × N2 (for example, N2 = 25). It is to extract.

【0028】また、線分抽出部13では、入力された画
像信号から、画像中に含まれる文字や線分が抽出され
る。このとき、抽出された画素を高レベル、抽出されな
かった画素を低レベルとする各画素1ビットの画像信号
が線分抽出部13から出力される。この線分抽出部13
の詳細については後述する。線分抽出部13から出力さ
れた画像信号は線分補正部15に入力される。
The line segment extracting section 13 extracts characters and line segments contained in the image from the input image signal. At this time, the line segment extraction unit 13 outputs a 1-bit image signal of each pixel in which the extracted pixels are set to the high level and the unextracted pixels are set to the low level. This line segment extraction unit 13
Will be described later in detail. The image signal output from the line segment extraction unit 13 is input to the line segment correction unit 15.

【0029】小領域抽出部14において、論理和演算部
16は、シャドー抽出部11から出力された画像データ
と、網点抽出部12から出力された画像データとを2入
力とし、画素単位で論理和演算を行う。この論理和演算
の結果、文字や線分などに関しては、シャドー抽出部1
1で抽出された結果と同等の信号が論理和演算部16か
ら出力される。
In the small area extraction unit 14, the logical sum operation unit 16 receives the image data output from the shadow extraction unit 11 and the image data output from the halftone dot extraction unit 12 as two inputs, and performs logical operation on a pixel basis. Performs a sum operation. As a result of the OR operation, regarding the characters and the line segments, the shadow extracting unit 1
A signal equivalent to the result extracted in 1 is output from the logical sum operation unit 16.

【0030】一方、絵柄領域に関しては、その領域の大
部分が網点抽出部12により抽出されるが、髪の毛など
濃度の非常に濃い領域については網点の周期構造が無く
なっており、網点抽出部12では抽出できない。しかし
ながら、そのような濃度の非常に濃い領域は、シャドー
抽出部11によって抽出することが可能であるため、論
理和演算部16からは絵柄領域全体も抽出された結果が
出力される。
On the other hand, for the picture area, most of the area is extracted by the dot extraction unit 12. However, in the area of very high density such as hair, the periodic structure of the halftone dots is lost. The part 12 cannot extract it. However, such a region having a very high density can be extracted by the shadow extracting unit 11, and the logical sum operation unit 16 outputs the result of extracting the entire pattern region.

【0031】論理和演算部16から出力された画像デー
タは、収縮処理部17に供給されるとともに、2入力の
反転−論理積演算部19の一方の入力となる。収縮処理
部17では、注目画素を中心としたM1×M1(例え
ば、M1=21)画素領域での収縮処理を行う。図3
に、収縮処理部17の構成の一例を示す。
The image data output from the OR operation unit 16 is supplied to a contraction processing unit 17 and becomes one input of a two-input inversion-AND operation unit 19. The contraction processing unit 17 performs contraction processing in an M1 × M1 (for example, M1 = 21) pixel region centering on the target pixel. FIG.
An example of the configuration of the contraction processing unit 17 is shown in FIG.

【0032】図3において、論理和演算部16から出力
された画像データは、それぞれ1ライン周期遅延させる
ためのFIFO35−1〜35−20と、それぞれデー
タを1画素周期遅延させるためのF/F(フリップフロ
ップ)36−1−1〜36−21−21とによって、注
目画素を中心とする21×21画素からなり画素群にブ
ロック化される。そして、F/F36−1−1〜36−
21−21からの出力が論理積演算部37に入力され
て、論理積演算(AND処理)が行われる。すなわち、
収縮処理部17では、注目画素を中心とした21×21
=441画素すべての論理積演算が行われて、その演算
結果を注目画素に対する出力値とする。
In FIG. 3, the image data output from the logical sum operation unit 16 includes FIFOs 35-1 to 35-20 for delaying one line cycle, and F / Fs for delaying the data by one pixel cycle. (Flip-flops) 36-1-1 to 36-21-21 are divided into a pixel group including 21 × 21 pixels centered on the target pixel. And F / F36-1-1 to 36-
The output from 21-21 is input to the AND operation unit 37, and the AND operation (AND processing) is performed. That is,
In the contraction processing unit 17, 21 × 21 around the pixel of interest is used.
= 441 pixels are subjected to a logical product operation, and the calculation result is set as an output value for the target pixel.

【0033】収縮処理部17から出力された画像データ
は膨張処理部18に入力される。膨張処理部18では、
注目画素を中心としたM2×M2(例えば、M2=3
3)画素領域での膨張処理を行う。図4に、膨張処理部
18の構成の一例を示す。
The image data output from the contraction processing section 17 is input to the expansion processing section 18. In the expansion processing unit 18,
M2 × M2 centered on the target pixel (for example, M2 = 3
3) Perform expansion processing in the pixel area. FIG. 4 shows an example of the configuration of the expansion processing unit 18.

【0034】図4において、収縮処理部17から出力さ
れた画像データは、それぞれ1ライン周期遅延させるた
めのFIFO38−1〜38−32と、それぞれデータ
を1画素周期遅延させるためのF/F39−1−1〜3
9−33−33とによって、注目画素を中心とする33
×33画素からなる画素群にブロック化される。そし
て、F/F39−1−1〜39−33−33からの出力
が論理和演算部40に入力されて、論理和演算(OR処
理)が行われる。すなわち、膨張処理部18では、注目
画素を中心とした33×33=1089画素すべての論
理和演算が行われて、その演算結果を注目画素に対する
出力値とする。
In FIG. 4, the image data output from the contraction processing unit 17 are FIFOs 38-1 to 38-32 for delaying one line cycle, and F / F 39-32 for delaying the data for one pixel cycle. 1-1-3
9-33-33, 33
It is divided into a pixel group consisting of × 33 pixels. Then, the outputs from the F / Fs 39-1-1 to 39-33-33 are input to the logical sum operation unit 40, and the logical sum operation (OR processing) is performed. That is, the expansion processing unit 18 performs a logical OR operation on all 33 × 33 = 1809 pixels centering on the target pixel, and sets the calculation result as an output value for the target pixel.

【0035】膨張処理部18から出力された画像データ
は、論理和演算部16から出力される画像データと同期
がとられて、反転−論理積演算部19の他方の入力とな
る。反転−論理積演算部19では、膨張処理部18から
入力された画像データの各画素ごとにビット反転(NO
T処理)が行われた後、論理和演算部16から入力され
る画像データの対応する画素との論理積演算が行われ
る。
The image data output from the expansion processing unit 18 is synchronized with the image data output from the OR operation unit 16 and becomes the other input of the inversion-AND operation unit 19. The inversion-AND operation unit 19 performs bit inversion (NO for each pixel of the image data input from the expansion processing unit 18).
After the T process), the logical product of the image data input from the logical sum operation unit 16 and the corresponding pixel is performed.

【0036】小領域抽出部14を上述したような構成に
することにより、本例では、高レベルの画素が20画素
幅以下の領域については小領域として抽出し、21画素
幅以上の領域については抽出しないことになり、文字や
線画などの線分で構成された領域のみを抽出できること
になる。
By configuring the small area extracting section 14 as described above, in this example, an area where high-level pixels have a width of 20 pixels or less is extracted as a small area, and an area having a width of 21 pixels or more is extracted as a small area. No extraction is performed, and only an area composed of line segments such as characters and line drawings can be extracted.

【0037】反転−論理積演算部19での演算結果、即
ち小領域抽出部14からの出力結果は、線分補正部15
に入力される。線分補正部15では、小領域抽出部14
から入力された画像信号を用いて、線分抽出部13から
入力された文字・線分抽出の行われた画像信号に対して
補正処理が行われる。そして、その補正結果が像域分離
結果として線分補正部15から出力される。この線分補
正部15の詳細については後述する。
The operation result of the inversion-logical product operation unit 19, that is, the output result from the small area extraction unit 14, is output to the line segment correction unit 15
Is input to In the line segment correction unit 15, the small area extraction unit 14
The correction process is performed on the image signal from which the character / line segment extraction has been performed, which has been input from the line segment extraction unit 13, using the image signal input from the device. Then, the correction result is output from the line segment correction unit 15 as an image area separation result. Details of the line segment correction unit 15 will be described later.

【0038】線分補正部15からの出力データは、像域
分離部9での像域判定結果として、先述した墨版生成部
5、空間フィルタ部6、出力階調補正部7および画像出
力部8に供給される。そして、これら各処理部におい
て、画像変換処理や画像補正処理、または画像変換係数
や画像補正係数を切り替えることにより、先述したよう
に、像域判定結果に対応した処理が施される。
The output data from the line segment corrector 15 is used as an image area determination result in the image area separator 9 as a black plate generator 5, a spatial filter 6, an output tone corrector 7, and an image output unit. 8 is supplied. Then, in each of these processing units, as described above, a process corresponding to the image area determination result is performed by switching the image conversion process or the image correction process, or the image conversion coefficient or the image correction coefficient.

【0039】続いて、シャドー抽出部11の詳細につい
て図5を用いて説明する。図5は、シャドー抽出部11
の構成の一例を示すブロック図である。図5において、
シャドー抽出部11に入力された画像データは、3×3
画素平均値算出部21と、5×5画素平均値算出部22
に入力される。3×3画素平均値算出部21では、注目
画素を中心とした3×3画素の平均値が算出される。こ
の3×3画素平均値算出部21で算出された結果は後述
する比較部25に出力され、この比較部25において後
述するリミッタ24の出力結果との比較が行われる。
Next, details of the shadow extracting unit 11 will be described with reference to FIG. FIG. 5 shows the shadow extraction unit 11.
FIG. 3 is a block diagram showing an example of the configuration of FIG. In FIG.
The image data input to the shadow extraction unit 11 is 3 × 3
Pixel average value calculation unit 21 and 5 × 5 pixel average value calculation unit 22
Is input to The 3 × 3 pixel average value calculation unit 21 calculates an average value of 3 × 3 pixels centering on the target pixel. The result calculated by the 3 × 3 pixel average value calculation unit 21 is output to a comparison unit 25 described later, and the comparison unit 25 compares the result with an output result of a limiter 24 described later.

【0040】5×5画素平均値算出部22では、注目画
素を中心とした5×5画素の平均値が算出される。この
5×5画素平均値算出部22で算出された結果は加減算
部23に送られ、この加減算部23において、経験的に
任意に設定されて別途入力される所定値VALUEとの
加減算が行われる。加減算部23の演算結果はリミッタ
24に出力され、このリミッタ24において、経験的に
任意に設定されて別途入力される上限値UPPERと下
限値LOWERの間に値が制限される。
The 5 × 5 pixel average value calculator 22 calculates the average value of 5 × 5 pixels centering on the target pixel. The result calculated by the 5 × 5 pixel average value calculation unit 22 is sent to the addition / subtraction unit 23, and the addition / subtraction unit 23 performs addition / subtraction with a predetermined value VALUE which is arbitrarily set empirically and input separately. . The operation result of the addition / subtraction unit 23 is output to a limiter 24, in which the value is limited between an upper limit value UPPER and a lower limit value LOWER which are arbitrarily set empirically and input separately.

【0041】すなわち、加減算部23の演算結果が上限
値UPPERよりも大きいときは当該上限値UPPER
が、下限値LOWERよりも小さいときは当該下限値L
OWERが、それ以外のときは加減算部23の演算結果
がそのままリミッタ24から出力される。リミッタ24
からの出力は比較部25に入力され、先述した3×3画
素平均値算出部21の演算結果との比較が行われる。そ
して、3×3画素平均値算出部21の演算結果がリミッ
タ24からの出力よりも大きいときは高レベルの信号
が、小さいかもしくは等しいときは低レベルの信号が出
力される。
That is, when the operation result of the addition / subtraction unit 23 is larger than the upper limit UPPER,
Is smaller than the lower limit LOWER, the lower limit L
Otherwise, the operation result of the addition / subtraction unit 23 is output from the limiter 24 as it is. Limiter 24
Is input to the comparison unit 25, and is compared with the calculation result of the 3 × 3 pixel average value calculation unit 21 described above. When the calculation result of the 3 × 3 pixel average value calculation unit 21 is larger than the output from the limiter 24, a high-level signal is output. When the calculation result is small or equal, a low-level signal is output.

【0042】図6は、シャドー抽出部11の構成の他の
例を示すブロック図であり、図中、図5と同一の処理を
行う処理部分に対しては同一符号を付してある。図6に
おいて、シャドー抽出部11に入力された画像データ
は、3×3画素平均値算出部21、5×5画素平均値算
出部22およびセレクタ26に入力される。3×3画素
平均値算出部21は、注目画素を中心とした3×3画素
の平均値を算出する。この3×3画素平均値算出部21
の算出結果は後述する比較部25に出力され、この比較
部25において後述するリミッタ24の出力結果との比
較が行われる。3×3画素平均値算出部21の算出結果
はセレクタ26にも入力される。
FIG. 6 is a block diagram showing another example of the configuration of the shadow extracting unit 11. In the figure, the same reference numerals are given to the processing parts that perform the same processing as in FIG. 6, the image data input to the shadow extraction unit 11 is input to a 3 × 3 pixel average value calculation unit 21, a 5 × 5 pixel average value calculation unit 22, and a selector 26. The 3 × 3 pixel average value calculation unit 21 calculates an average value of 3 × 3 pixels centering on the target pixel. This 3 × 3 pixel average value calculation unit 21
Is output to a comparison unit 25 described later, and the comparison unit 25 compares the calculation result with an output result of a limiter 24 described later. The calculation result of the 3 × 3 pixel average value calculation unit 21 is also input to the selector 26.

【0043】5×5画素平均値算出部22では、注目画
素を中心とした5×5画素の平均値が算出される。この
5×5画素平均値算出部22で算出された結果は加減算
部23に送られ、この加減算部23において、後述する
加減算値演算部27の出力結果との加減算が行われる。
加減算部23の演算結果はリミッタ24に出力され、こ
のリミッタ24において、別途入力される上限値UPP
ERと下限値LOWERの間に値が制限される。5×5
画素平均値算出部22の算出結果はセレクタ26にも入
力される。
The 5 × 5 pixel average value calculator 22 calculates the average value of 5 × 5 pixels centering on the target pixel. The result calculated by the 5 × 5 pixel average value calculation unit 22 is sent to the addition / subtraction unit 23, which performs addition / subtraction with the output result of the addition / subtraction value calculation unit 27 described later.
The operation result of the addition / subtraction unit 23 is output to a limiter 24, where the upper limit value
The value is limited between ER and lower limit LOWER. 5x5
The calculation result of the pixel average value calculation unit 22 is also input to the selector 26.

【0044】セレクタ26では、入力される3×3画素
平均値算出部21、5×5画素平均値算出部22および
色信号変換部3(図1参照)の出力結果(注目画素値)
のいずれか1つを、図示しない外部からの入力信号によ
って選択し、その結果を加減算値演算部27に入力す
る。加減算値演算部27では、加減算部23において5
×5画素平均値算出部22と加減算する値を、セレクタ
26からの出力結果から演算する。
In the selector 26, the output results (target pixel values) of the input 3 × 3 pixel average value calculation unit 21, 5 × 5 pixel average value calculation unit 22 and color signal conversion unit 3 (see FIG. 1)
Is selected by an external input signal (not shown), and the result is input to the addition / subtraction value calculation unit 27. In the addition / subtraction value calculation unit 27, 5
The value to be added or subtracted from the × 5 pixel average value calculation unit 22 is calculated from the output result from the selector 26.

【0045】すなわち、入力値に対して複数の所定の値
を加減乗除することによって出力値を算出する。また、
加減算値演算部27はLUT(Look Up Table) で構成す
ることも可能である。この場合、入力値に応じて出力値
を比較的自由に設定する(LUTに記憶させておく)こ
とが可能となる。加減算部23、リミッタ24、比較器
25については前述したので、ここでの説明は省略す
る。
That is, the output value is calculated by adding, subtracting, multiplying and dividing a plurality of predetermined values with respect to the input value. Also,
The addition / subtraction value calculation unit 27 can be configured by an LUT (Look Up Table). In this case, the output value can be set relatively freely (stored in the LUT) according to the input value. The addition / subtraction unit 23, the limiter 24, and the comparator 25 have been described above, and thus description thereof will be omitted.

【0046】上述したように、シャドー抽出部11では
3×3画素平均値算出部21の出力結果とリミッタ24
の出力結果を比較することにより、濃度の濃い画素は抽
出、濃度の薄い画素は非抽出とすることが可能になる。
また、注目画素周辺の比較的狭い領域の画素値平均を、
それよりも広い領域の画素値の平均に所定の演算を行っ
た値と比較する構成となっているため、文字・線分の細
部構造を保存した領域の抽出が可能となっている。
As described above, in the shadow extraction unit 11, the output result of the 3 × 3 pixel average value calculation unit 21 and the limiter 24
By comparing the output results of (1) and (2), it is possible to extract pixels having a high density and not extract pixels having a low density.
Also, average the pixel values of a relatively narrow area around the pixel of interest,
Since the average value of pixel values in a wider area is compared with a value obtained by performing a predetermined operation, it is possible to extract an area in which the detailed structure of characters and line segments is preserved.

【0047】次に、線分抽出部13の詳細について説明
する。その構成の一例を示す図7において、線分抽出部
13に入力された画像データは、第1縮小部30−1〜
第N縮小部30−Nに入力され、画像データの縮小処理
が行われる。例えば、第1縮小部30−1では、画像の
縦・横方向それぞれ1/2の縮小が行われる。また、第
2縮小部30−2では、画像の縦・横方向それぞれ1/
4の縮小が行われる。同様にして、第N縮小部30−N
では、画像の縦・横方向それぞれ1/(2N)の縮小が
行われる。第1縮小部30−1〜第N縮小部30−Nに
おける画像縮小方式としては、単純間引き法、4点間補
間法、16点間補間法、投影法、中央値採用法など、公
知の縮小方式で良い。
Next, the details of the line segment extraction unit 13 will be described. In FIG. 7 showing an example of the configuration, the image data input to the line segment extraction unit 13 includes the first reduction units 30-1 to 30-1.
The image data is input to the N-th reduction unit 30-N, and the image data is reduced. For example, in the first reduction unit 30-1, the image is reduced by half in both the vertical and horizontal directions. In the second reduction unit 30-2, the vertical and horizontal directions of the image are each 1 /
4 is performed. Similarly, the N-th reduction unit 30-N
In this example, the image is reduced by 1 / (2N) in both the vertical and horizontal directions. As the image reduction method in the first reduction unit 30-1 to the N-th reduction unit 30-N, known reduction methods such as a simple thinning method, a four-point interpolation method, a sixteen-point interpolation method, a projection method, and a median value adoption method are used. Method is good.

【0048】第1縮小部30−1〜第N縮小部30−N
によって縮小された画像データは各々線抽出部31−1
〜線抽出部31−Nに入力される。また、線分抽出部1
3に入力された画像データは、線抽出部31ー0にも入
力される。線抽出部31−0〜線抽出部31−Nでは、
入力された画像データから所定範囲の幅を有する線分の
抽出が行われる。
The first reduction section 30-1 to the N-th reduction section 30-N
The image data reduced by the line extraction unit 31-1
To the line extraction unit 31-N. In addition, the line segment extraction unit 1
The image data input to 3 is also input to the line extraction unit 31-0. In the line extraction units 31-0 to 31-N,
A line segment having a predetermined range of width is extracted from the input image data.

【0049】本例の場合は、第1縮小部30−1〜第N
縮小部30−Nによって画像データはそれぞれ1/2,
1/4,1/6,…,1/(2N)に縮小が行われるた
め、線抽出部31−0〜線抽出部31−Nでは、1画素
および2画素幅の線分を抽出する。線抽出部31−0〜
線抽出部31−Nの詳細については後述する。
In the case of this example, the first reduction units 30-1 to N-th
The image data is reduced by 1/2,
Since the reduction is performed to 1/4, 1/6,..., 1 / (2N), the line extraction units 31-0 to 31-N extract a line segment having a width of one pixel and two pixels. Line extraction unit 31-0
Details of the line extracting unit 31-N will be described later.

【0050】一方、線分抽出部13に入力された画像デ
ータは、エッジ抽出部32にも入力される。エッジ抽出
部32では画像データ中に含まれるエッジ画素を抽出
し、そのエッジ抽出結果は第1拡大部33−1〜第N拡
大部33−Nに出力される。エッジ袖出部32の詳細に
ついては後述する。
On the other hand, the image data input to the line segment extraction unit 13 is also input to the edge extraction unit 32. The edge extraction unit 32 extracts edge pixels included in the image data, and outputs the edge extraction results to the first enlargement unit 33-1 to the N-th enlargement unit 33-N. The details of the edge sleeve portion 32 will be described later.

【0051】線抽出部31−1〜線抽出部31−Nから
出力された画像データは各々第1拡大部33−1〜第N
拡大部33−Nに入力され、またエッジ抽出部32から
出力された画像データも第1拡大部33−1〜第N拡大
部33−Nに入力される。第1拡大部33−1〜第N拡
大部33−Nでは、エッジ抽出部32から入力された画
像データに基づき、線抽出部31−1〜線抽出部31−
Nから入力された画像データの拡大処理を行う。
The image data output from the line extracting units 31-1 to 31-N are respectively stored in the first enlarging units 33-1 to N-th.
The image data output from the enlargement unit 33-N and output from the edge extraction unit 32 are also input to the first enlargement unit 33-1 to the N-th enlargement unit 33-N. In the first enlargement unit 33-1 to the N-th enlargement unit 33-N, based on the image data input from the edge extraction unit 32, the line extraction units 31-1 to 31-N
The image data input from N is enlarged.

【0052】第1拡大部33−1〜第N拡大部33−N
での拡大率は、それぞれ第1縮小部30−1〜第N縮小
部30−Nでの縮小率の逆数、即ち本例では縦・横方向
共、2,4,6,…,2N値とする。なお、第1拡大部
33−1〜第N拡大部33−Nの詳細については後述す
る。
The first enlargement unit 33-1 to the N-th enlargement unit 33-N
Are the reciprocals of the reduction ratios in the first reduction unit 30-1 to the N-th reduction unit 30-N, that is, in this example, the values of 2, 4, 6,. I do. The details of the first to third enlargement units 33-1 to 33-N will be described later.

【0053】第1拡大部33−1〜第N拡大部33−N
および、前述の線抽出部31−0からの出力結果の画像
データは論理和演算部34に入力され、画素単位に論理
和演算が行われる。論理和演算部34からの出力結果の
画像データは、線分抽出部13の出力結果となる。
The first expanding section 33-1 to the N-th expanding section 33-N
The image data of the output result from the above-described line extraction unit 31-0 is input to the logical sum operation unit 34, and the logical sum operation is performed for each pixel. The image data of the output result from the OR operation unit 34 is the output result of the line segment extraction unit 13.

【0054】続いて、線抽出部31−0〜線抽出部31
−Nについて説明する。前述したように、本例では、1
画素および2画素幅の線分を抽出する処理としている
が、このサイズに限らず他の線幅をも抽出する処理とし
ても溝わない。また、ここでの説明では、線抽出部31
−0〜線抽出部31−Nはすべて同じ処理であるとし、
線抽出部31−0についてのみ説明するが、線抽出部3
1−0〜線抽出部31−Nをそれぞれ異なる処理として
線分抽出するようにしても構わない。図8は、線抽出部
31−0の構成の一例を示すブロック図である。
Subsequently, the line extraction units 31-0 to 31
-N will be described. As described above, in this example, 1
Although the processing for extracting a pixel and a line segment having a width of two pixels is described, the processing is not limited to this size, and the processing for extracting another line width is not limited. In the description here, the line extraction unit 31
−0 to the line extraction unit 31-N are assumed to be the same processing,
Only the line extracting unit 31-0 will be described,
Line segments may be extracted as different processes from 1-0 to the line extraction unit 31-N. FIG. 8 is a block diagram illustrating an example of a configuration of the line extracting unit 31-0.

【0055】図8において、線抽出部31−0に入力さ
れた画像信号は、1画素の線幅を持つ横線を検出する1
画素横線検出部41、1画素の線幅を持つ縦線を検出す
る1画素縦線検出部42、1画素の線幅を持つ左上がり
の斜線を検出する1画素左斜線検出部43、1画素の線
幅を持つ右上がりの斜線を検出する1画素右斜線検出部
44、2画素の線幅を持つ横線を検出する2画素横線検
出部45、2画素の線幅を持つ縦線を検出する2画素縦
線検出部46、2画素の線幅を持つ左上がりの斜線を検
出する2画素左斜線検出部47、2画素の線幅を持つ右
上がりの斜線を検出する2画素右斜線検出部48に入力
される。
In FIG. 8, the image signal input to the line extraction unit 31-0 detects a horizontal line having a line width of one pixel.
Pixel horizontal line detecting section 41, 1-pixel vertical line detecting section 42 for detecting a vertical line having a line width of 1 pixel, 1-pixel left oblique line detecting section 43 for detecting an ascending diagonal line having a line width of 1 pixel, 1 pixel 1-pixel right diagonal line detection unit 44 for detecting a right-upward diagonal line having a line width of 2 pixels, 2-pixel horizontal line detection unit 45 for detecting a horizontal line having a line width of 2 pixels, and detecting a vertical line having a line width of 2 pixels Two-pixel vertical line detector 46, a two-pixel left diagonal line detector 47 that detects a diagonally rising diagonal line having a line width of two pixels, and a two-pixel right diagonal line detector that detects a diagonally rising line having a line width of two pixels 48.

【0056】1画素横線検出部41、1画素縦線検出部
42、1画素左斜線検出部43、1画素右斜線検出部4
4、2画素横線検出部45、2画素縦線検出部46、2
画素左斜線検出部47、2画素右斜線検出部48の詳細
については後述する。これら検出部41〜48によって
検出されたそれぞれ1画素幅の横・縦・左上がりの斜線
・右上がりの斜線および、2画素幅の横・縦・左上がり
の斜線・右上がりの斜線の検出結果は、論理和演算部4
9に入力され、画素ごとに検出結果の論理和演算が行わ
れる。そして、この論理和演算部49で行われた論理和
演算の結果を線抽出部31−0での線抽出結果として出
力する。
One pixel horizontal line detector 41, one pixel vertical line detector 42, one pixel left oblique line detector 43, one pixel right oblique line detector 4
4, 2 pixel horizontal line detection unit 45, 2 pixel vertical line detection unit 46, 2
The details of the pixel left diagonal line detection unit 47 and the two pixel right diagonal line detection unit 48 will be described later. Detected results of horizontal, vertical, left-upward diagonal lines and right-upward diagonal lines and 1-pixel-wide horizontal, vertical, upward-leftward diagonal lines, and right-upward diagonal lines detected by the detection units 41 to 48, respectively. Is the logical sum operation unit 4
9 and a logical sum operation of the detection result is performed for each pixel. Then, the result of the logical sum operation performed by the logical sum operation unit 49 is output as the line extraction result by the line extraction unit 31-0.

【0057】次に、1画素横線検出部41に関して、図
9および図10を用いて説明する。図9は、1画素幅の
各線検出部で検出する線の種類を説明する図である。1
画素横線検出部41は、3×3画素マトリクスを用いて
図9(b)に示すような1画素幅の横線を検出する。1
画素横線検出部41の構成の一例を示す図10におい
て、入力された画像データは、第1行平均値算出部5
1、第2行平均値算出部52、第3行平均値算出部5
3、第2行最小値算出部54、第1行最大値算出部5
5、第3行最大値算出部56にそれぞれ入力される。
Next, the one-pixel horizontal line detector 41 will be described with reference to FIGS. FIG. 9 is a diagram illustrating the types of lines detected by each line detecting unit having a width of one pixel. 1
The pixel horizontal line detection unit 41 detects a horizontal line having a width of one pixel as shown in FIG. 9B using a 3 × 3 pixel matrix. 1
In FIG. 10 showing an example of the configuration of the pixel horizontal line detection unit 41, the input image data is the first row average value calculation unit 5.
1, second row average value calculation section 52, third row average value calculation section 5
3. Second row minimum value calculation section 54, first row maximum value calculation section 5
5, and is input to the third row maximum value calculation unit 56, respectively.

【0058】第1行平均値算出部51では、3×3画素
マトリクスの1行目3画素の画素値の平均、即ち図9
(a)に示すA、B、Cの画素値の平均を求める。今
後、各画素の画素値をPA ,PB ,PC のように、平均
をAVE(PA ,PB ,PC )のように表す。また、第
2行平均値算出部52ではAVE(PD 、PE 、PF
を、第3行平均値算出部53ではAVE(PG ,PH
I )を求める。
The first row average value calculation section 51 calculates the average of the pixel values of the three pixels in the first row of the 3 × 3 pixel matrix, that is, FIG.
The average of the pixel values of A, B, and C shown in FIG. , The pixel value of each pixel as P A, P B, P C , average AVE (P A, P B, P C) expressed as. In the second row average value calculation unit 52, AVE (P D , P E , P F )
AVE (P G , P H ,
P I ).

【0059】第2行最小値算出部54では、D、E、F
の画素値の最小値を求める。今後、複数画素の最小値を
MIN(PD ,PE ,PF )のように表す。第1行最大
値算出部55では、A,B,Cの画素値の最大値を求め
る。今後、複数画素の最大値をMAX(PA ,PB ,P
C )のように表す。また、第3行最大値算出部56では
MAX(PG ,PH ,PI )を求める。
In the second row minimum value calculating section 54, D, E, F
Is obtained. From now on, the minimum value of a plurality of pixels will be expressed as MIN (P D , P E , P F ). The first row maximum value calculation unit 55 determines the maximum value of the pixel values of A, B, and C. In the future, the maximum value of a plurality of pixels will be MAX (P A , P B , P
C ). Further, the third row maximum value calculation section 56 calculates MAX (P G , P H , P I ).

【0060】第2行平均値算出部52の演算結果と第1
行平均値算出部51の演算結果は共に減算部57−1に
入力され、第2行平均値算出部52の演算結果から第1
行平均値算出部51の演算結果を減算する処理が行われ
る。また、第2行平均値算出部52の演算結果と第3行
平均値算出部53の演算結果は共に減算部57−2に入
力され、第2行平均値算出部52の演算結果から第3行
平均値算出部53の演算結果を減算する処理が行われ
る。
The calculation result of the second row average value calculation unit 52 and the first
The calculation results of the row average value calculation unit 51 are both input to the subtraction unit 57-1, and the first row
A process of subtracting the calculation result of the row average value calculation unit 51 is performed. The calculation result of the second row average value calculation section 52 and the calculation result of the third row average value calculation section 53 are both input to the subtraction section 57-2, and the third row average value calculation section 52 calculates the third A process of subtracting the calculation result of the row average value calculation unit 53 is performed.

【0061】減算部57−1での演算結果は比較部58
−1に入力されて所定の閾値TH1との比較が行われ、
減算部57−1での演算結果の方が閾値TH1よりも大
きい場合には高レベルが、等しいかもしくは小さい場合
には低レベルが比較部58−1から出力される。また、
減算部57−2での演算結果は比較部58−2に入力さ
れて所定の閾値TH1との比較が行われ、減算部57−
2での演算結果の方が閾値TH1よりも大きい場合には
高レベルが、等しいかもしくは小さい場合には低レベル
が比較部58−2から出力される。
The operation result of the subtraction unit 57-1 is compared with the comparison unit 58.
-1 is input and compared with a predetermined threshold value TH1.
The high level is output from the comparison section 58-1 when the operation result of the subtraction section 57-1 is larger than the threshold value TH1, and the low level is output when the result is equal to or smaller than the threshold value TH1. Also,
The operation result in the subtraction unit 57-2 is input to the comparison unit 58-2, and is compared with a predetermined threshold value TH1, and the subtraction unit 57-2
The high level is output from the comparing unit 58-2 when the result of the calculation at 2 is larger than the threshold value TH1, and the low level is output when the result is equal to or smaller than the threshold value TH1.

【0062】第2行最小値算出部54での演算結果は比
較部58−3に入力されて所定の閾値TH2との比較が
行われ、第2行最小値算出部54での演算結果の方が閾
値TH2よりも大きい場合には高レベルが、等しいかも
しくは小さい場合には低レベルが比較部58−3から出
力される。
The operation result of the second row minimum value calculation section 54 is input to the comparison section 58-3, and is compared with a predetermined threshold value TH2. Is larger than the threshold value TH2, the high level is output from the comparison unit 58-3 when the value is equal to or smaller than the threshold value TH2.

【0063】第1行最大値算出部55での演算結果は比
較部58−4に入力されて所定の閾値TH3との比較が
行われ、第1行最大値算出部55での演算結果の方が閾
値TH3よりも小さい場合には高レベルが、大きいかも
しくは等しい場合は低レベルが比較部58−4から出力
される。また、第3行最大値算出部56での演算結果は
比較部58−5に入力されて所定の閾値TH3との比較
が行われ、第3行最大値抽出部56での演算結果の方が
閾値TH3よりも小さい場合には高レベルが、大きいか
もしくは等しい場合には低レベルが比較部58−5から
出力される。
The calculation result of the first row maximum value calculation unit 55 is input to the comparison unit 58-4, and is compared with a predetermined threshold value TH3. Is smaller than the threshold value TH3, the high level is output from the comparing section 58-4 if the level is larger or equal. The calculation result in the third row maximum value calculation unit 56 is input to the comparison unit 58-5 and compared with a predetermined threshold value TH3, and the calculation result in the third row maximum value extraction unit 56 is The high level is output from the comparing section 58-5 when the level is smaller than the threshold value TH3, and the low level is output when the level is higher or equal to the threshold value TH3.

【0064】比較部58−1〜58−5の比較結果は全
て論理積演算部59に入力され、この論理積演算部59
において比較部58−1〜58−5の比較結果の論理積
が演算される。論理積演算部59から出力された結果が
1画素横線検出部41の出力結果となり、高レベルの場
合は図9(b)に示すような1画素幅の横線があると判
定され、逆に低レベルの場合は1画素幅の横線が無いと
判定される。
All the comparison results of the comparison units 58-1 to 58-5 are input to the AND operation unit 59, and the AND operation unit 59
Then, the logical product of the comparison results of the comparison units 58-1 to 58-5 is calculated. The result output from the AND operation unit 59 is the output result of the one-pixel horizontal line detection unit 41. When the result is high, it is determined that there is a one-pixel width horizontal line as shown in FIG. In the case of the level, it is determined that there is no horizontal line of one pixel width.

【0065】すなわち、1画素横線検出部41では、下
記式(1)〜(5)がすべて成立するときには、図9
(b)に示すような1画素幅の横線があると判定し、図
9(a)のD・E・Fに対応する画素値としてそれぞれ
高レベルを出力し、逆に式(1)〜式(5)が1つでも
成立しないときには、図9(b)に示すような1画素幅
の横線は無いと判定し、それぞれ低レベルを出力する。
That is, when all of the following equations (1) to (5) are satisfied, the one-pixel horizontal line detection unit 41 determines whether or not FIG.
It is determined that there is a horizontal line having a width of one pixel as shown in FIG. 9B, and a high level is output as a pixel value corresponding to D, E, and F in FIG. 9A. If at least one of (5) is not satisfied, it is determined that there is no horizontal line of one pixel width as shown in FIG.

【0066】 AVE(PD ,PE ,PF )−AVE(PA ,PB ,PC )>TH1… (1) AVE(PD ,PE ,PF )−AVE(PG ,PH ,PI )>TH1… (2) MIN(PD ,PE ,PF )>TH2 … (3) MAX(PA ,PB ,PC )<TH3 … (4) MAX(PG ,PH ,PI )<TH3 … (5)[0066] AVE (P D, P E, P F) -AVE (P A, P B, P C)> TH1 ... (1) AVE (P D, P E, P F) -AVE (P G, P H , P I )> TH 1 (2) MIN (P D , P E , P F )> TH 2 (3) MAX (P A , P B , P C ) <TH 3 (4) MAX (P G , P H , P I ) <TH3 (5)

【0067】つぎに、1画素縦線検出部42について説
明する。この1画素縦線検出部42は、3×3画素マト
リクスを用いて図9(c)に示すような1画素幅の縦線
を検出する。図11に、1画素縦線検出部42の構成例
を示す。その構成は、図10の1画素横線検出部41に
対して、第1行平均値算出部51、第2行平均値算出部
52、第3行平均値算出部53、第2行最小値算出部5
4、第1行最大値算出部55および第3行最大値算出部
56が、第1列平均値算出部61、第2列平均値算出部
62、第3列平均値算出部63、第2列最小値算出部6
4、第1列最大値算出部65および第3列最大値算出部
66に代わっただけであり、基本的に同じであるためそ
の詳細については説明を省略する。
Next, the one-pixel vertical line detector 42 will be described. The one-pixel vertical line detection unit 42 detects a one-pixel width vertical line as shown in FIG. 9C using a 3 × 3 pixel matrix. FIG. 11 shows a configuration example of the one-pixel vertical line detection unit 42. The configuration is different from the one-pixel horizontal line detection unit 41 in FIG. 10 in that a first row average value calculation unit 51, a second row average value calculation unit 52, a third row average value calculation unit 53, and a second row minimum value calculation unit Part 5
4. The first row maximum value calculation section 55 and the third row maximum value calculation section 56 include a first column average value calculation section 61, a second column average value calculation section 62, a third column average value calculation section 63, and a second column average value calculation section 63. Column minimum value calculation unit 6
4. Only the first column maximum value calculation section 65 and the third column maximum value calculation section 66 are replaced, and are basically the same.

【0068】そこで、ここでは、式を用いて説明するも
のとする。1画素縦線検出部42では、下記式(6)〜
式(10)がすべて成立するときは、図9(c)に示す
ような1画素幅の縦線があると判定し、図9(a)のB
・E・Hに対応する画素値としてそれぞれ高レベルを出
力し、逆に(式6)〜(式10)が1つでも成立しない
ときは、図9(c)に示すような1画素幅の縦線は無い
と判定し、それぞれ低レベルを出力する。
Therefore, here, the description will be made using equations. In the one-pixel vertical line detection unit 42, the following equations (6) to
When all the expressions (10) are satisfied, it is determined that there is a vertical line having a width of one pixel as shown in FIG.
A high level is output as a pixel value corresponding to E · H, and conversely, if at least one of (Equation 6) to (Equation 10) does not hold, one pixel width as shown in FIG. It is determined that there is no vertical line, and a low level is output for each.

【0069】 AVE(PB ,PE ,PH )一AVE(PA ,PD ,PG )>TH4… (6) AVE(PB ,PE ,PH )−AVE(PC ,PF ,PI )>TH4… (7) MIN(PB ,PE ,PH )>TH5 … (8) MAX(PA ,PD ,PG )<TH6 … (9) MAX(PC ,PF ,PI )<TH6 …(10)[0069] AVE (P B, P E, P H) one AVE (P A, P D, P G)> TH4 ... (6) AVE (P B, P E, P H) -AVE (P C, P F , P I )> TH 4 (7) MIN (P B , P E , P H )> TH 5 (8) MAX (P A , P D , P G ) <TH 6 (9) MAX (P C , P F , P I ) <TH6 (10)

【0070】つぎに、1画素左斜線検出部43について
説明する。1画素左斜線検出部43は、3×3画素マト
リクスを用いて図9(d)に示すような1画素幅の左上
がり斜線を検出する。図12に、1画素縦線検出部42
の構成例を示す。その構成は、図10の1画素横線検出
部41に対して、第1行平均値算出部51、第2行平均
値算出部52、第3行平均値算出部53、第2行最小値
算出部54、第1行最大値算出部55および第3行最大
値算出部56が、左下3画素平均値算出部71、左上・
右下斜め方向3画素平均値算出部72、右上3画素平均
値算出部73、左上・右下斜め方向3画素最小値算出部
74、左下3画素最大値算出部75および右上3画素最
大値算出部76に代わっただけであり、基本的に同じで
あるためその詳細については説明を省略する。
Next, the one-pixel left oblique line detecting section 43 will be described. The one-pixel left oblique line detection unit 43 detects an obliquely leftward oblique line having a one-pixel width as shown in FIG. 9D using a 3 × 3 pixel matrix. FIG. 12 shows a one-pixel vertical line detection unit 42.
An example of the configuration will be described. The configuration is different from the one-pixel horizontal line detection unit 41 in FIG. 10 in that a first row average value calculation unit 51, a second row average value calculation unit 52, a third row average value calculation unit 53, and a second row minimum value calculation unit The unit 54, the first row maximum value calculation unit 55, and the third row maximum value calculation unit 56 include a lower left three pixel average value calculator 71, an upper left
Lower right diagonal three-pixel average value calculator 72, upper right three-pixel average value calculator 73, upper left / lower right diagonal three-pixel minimum value calculator 74, lower left three-pixel maximum value calculator 75, and upper right three-pixel maximum value calculator Only the unit 76 has been replaced, and is basically the same.

【0071】そこで、ここでは、式を用いて説明するも
のとする。1画素左斜線検出部43では、下記式(1
1)〜式(15)がすべて成立するときは、図9(d)
に示すような1画素幅の左上がり斜線があると判定し、
図9(a)のA・E・Iに対応する画素値としてそれぞ
れ高レベルを出力し、逆に式(11)〜式(15)が1
つでも成立しないときは、図9(d)に示すような1画
素幅の左上がり斜線は無いと判定し、それぞれ低レベル
を出力する。
Therefore, here, the description will be made using equations. In the one-pixel left-slanting-line detecting unit 43, the following equation (1)
When all of the expressions (1) to (15) hold, FIG.
It is determined that there is a one-pixel-wide diagonal line as shown in
A high level is output as a pixel value corresponding to A.E.I in FIG. 9A. Conversely, Expressions (11) to (15) satisfy 1
If none of them is satisfied, it is determined that there is no oblique line rising to the left of one pixel width as shown in FIG.

【0072】 AVE(PA ,PE ,PI )−AVE(PD ,PG ,PH )>TH7…(11) AVE(PA ,PE ,PI )−AVE(PB ,PC ,PF )>TH7…(12) MIN(PA ,PE ,PI )>TH8 …(13) MAX(PD ,PG ,PH )<TH9 …(14) MAX(PB ,PC ,PF )<TH9 …(15)AVE (P A , P E , P I ) −AVE (P D , P G , P H )> TH 7 (11) AVE (P A , P E , P I ) −AVE (P B , P C, P F)> TH7 ... (12) MIN (P A, P E, P I)> TH8 ... (13) MAX (P D, P G, P H) <TH9 ... (14) MAX (P B, P C , P F ) <TH9 (15)

【0073】つぎに、1画素右斜線検出部44について
説明する。1画素右斜線検出部44は、3×3画素マト
リクスを用いて図9(e)に示すような1画素幅の右上
がり斜線を検出する。図13に、1画素右斜線検出部4
4の構成例を示す。その構成は、図10の1画素横線検
出部41に対して、第1行平均値算出部51、第2行平
均値算出部52、第3行平均値算出部53、第2行最小
値算出部54、第1行最大値算出部55および第3行最
大値算出部56が、左上3画素平均値算出部81、右上
・左下斜め方向3画素平均値算出部82、右下3画素平
均値算出部83、右上・左下斜め方向3画素最小値算出
部84、左上3画素最大値算出部85および右下3画素
最大値算出部86に代わっただけであり、基本的に同じ
であるためその詳細については説明を省略する。
Next, the one-pixel oblique line detector 44 will be described. The one-pixel right diagonal line detection unit 44 detects an upward diagonal line with a one-pixel width as shown in FIG. 9E using a 3 × 3 pixel matrix. FIG. 13 shows one pixel right oblique line detection unit 4.
4 shows a configuration example. The configuration is different from the one-pixel horizontal line detection unit 41 in FIG. 10 in that a first row average value calculation unit 51, a second row average value calculation unit 52, a third row average value calculation unit 53, and a second row minimum value calculation unit The unit 54, the first row maximum value calculation unit 55, and the third row maximum value calculation unit 56 include an upper left three pixel average value calculator 81, an upper right and lower left diagonal three pixel average value calculator 82, and a lower right three pixel average value. Only the calculation unit 83, the upper right / lower left diagonal three-pixel minimum value calculator 84, the upper left three-pixel maximum value calculator 85, and the lower right three-pixel maximum value calculator 86 are replaced. A detailed description is omitted.

【0074】そこで、ここでは、式を用いて説明するも
のとする。1画素右斜線検出部44では、下記式(1
6)〜式(20)がすべて成立するときは、図9(e)
に示すような1画素幅の右上がり斜線があると判定し、
図9(a)のC・E・Gに対応する画素値としてそれぞ
れ高レベルを出力し、逆に式(16)〜式(20)が1
つでも成立しないときは、図9(e)に示すような1画
素幅の右上がり斜線は無いと判定し、それぞれ低レベル
を出力する。
Therefore, here, the description will be made using equations. The one-pixel oblique line detection unit 44 calculates the following equation (1)
When all of the expressions (6) to (20) hold, FIG.
It is determined that there is a one-pixel wide diagonal line as shown in
High levels are output as pixel values corresponding to C, E, and G in FIG. 9A, and conversely, Equations (16) to (20) are 1
If none of these conditions hold, it is determined that there is no upward slanting line of one pixel width as shown in FIG.

【0075】 AVE(PC ,PE ,PG )−AVE(PA ,PB ,PD )>TH10…(16) AVE(PC ,PE ,PG )−AVE(PF ,PH ,PI )>TH10…(17) MIN(PC ,PE ,PG )>TH11 …(18) MAX(PA ,PB ,PD )<TH12 …(19) MAX(PF ,PH ,PI )<TH13 …(20)AVE (P C , P E , P G ) −AVE (P A , P B , P D )> TH10 (16) AVE (P C , P E , P G ) −AVE (P F , P H , P I )> TH 10 (17) MIN (P C , P E , P G )> TH 11 (18) MAX (P A , P B , P D ) <TH 12 (19) MAX (P F , P H , P I ) <TH13 (20)

【0076】つぎに、2画素横線検出部45に関して、
図14および図15を用いて説明する。図14は、2画
素幅の各線検出部で検出する線の種類を説明する図であ
る。2画素横線検出部45は、4×4画素マトリクスを
用いて図14(b)に示すような2画素幅の横線を検出
する。2画素横線検出部45の構成の一例を示す図15
において、入力された画像データは、第1行平均値算出
部91、第2・3行平均値算出部92、第4行平均値算
出部93、第2・3行最小値算出部94、第1行最大値
算出部95、第4行最大値算出部96にそれぞれ入力さ
れる。
Next, regarding the two-pixel horizontal line detection unit 45,
This will be described with reference to FIGS. FIG. 14 is a diagram illustrating the types of lines detected by each line detection unit having a width of two pixels. The two-pixel horizontal line detection unit 45 detects a horizontal line having a width of two pixels as shown in FIG. 14B using a 4 × 4 pixel matrix. FIG. 15 showing an example of the configuration of the two-pixel horizontal line detection unit 45.
, The input image data is divided into a first row average value calculation section 91, a second and third row average value calculation section 92, a fourth row average value calculation section 93, a second and third row minimum value calculation section 94, It is input to the one-row maximum value calculation unit 95 and the fourth-row maximum value calculation unit 96, respectively.

【0077】第1行平均値算出部91では、4×4画素
マトリクスの1行目4画素の画素値の平均、即ち図14
(a)に示すJ、K、L、Mの画素値の平均AVE(P
J ,PK ,PL ,PM )を求める。また、第2・3行平
均値算出部92ではAVE(PN ,PO ,PP ,PQ
R ,PS ,PT ,PU )を、第4行平均値算出部93
ではAVE(PV ,PW ,PX ,PY )を求める。
The first row average value calculation unit 91 calculates the average of the pixel values of the four pixels in the first row of the 4 × 4 pixel matrix, that is, FIG.
The average AVE (P) of the pixel values of J, K, L and M shown in FIG.
J, P K, P L, the P M) seek. In the second / third row average value calculation unit 92, AVE (P N , P O , P P , P Q ,
P R , P S , P T , P U ) by the fourth row average value calculation unit 93
Then, AVE (P V , P W , P X , P Y ) is obtained.

【0078】第2・3行最小値算出部94では、N,
O,P,Q,R,S,T,Uの各画素値の最小値MIN
(PN ,PO ,PP ,PQ ,PR ,PS ,PT ,PU
を求める。第1行最大値算出部95では、J,K,L,
Mの各画素値の最大値MAX(PJ ,PK ,PL
M )を求める。また、第4行最大値算出部96では、
MAX(PV ,PW ,PX ,PY )を求める。
In the second / third row minimum value calculating section 94, N,
Minimum value MIN of each pixel value of O, P, Q, R, S, T, U
(P N , P O , P P , P Q , P R , P S , P T , P U )
Ask for. In the first row maximum value calculation unit 95, J, K, L,
The maximum value MAX (P J , P K , P L ,
P M ). In the fourth row maximum value calculation unit 96,
MAX (P V , P W , P X , P Y ) is obtained.

【0079】第2・3行平均値算出部92の演算結果と
第1行平均値算出部91の演算結果は共に減算部97−
1に入力され、第2・3行平均値算出部92の演算結果
から第1行平均値算出部91の演算結果を減算する処理
が行われる。また、第2・3行平均値算出部92の演算
結果と第4行平均値算出部93の演算結果は共に減算部
97−2に入力され、第2・3行平均値算出部92の演
算結果から第4行平均値算出部93の演算結果を減算す
る処理が行われる。
The calculation result of the second and third row average value calculation section 92 and the calculation result of the first row average value calculation section 91 are both subtracted by the subtraction section 97-
1 and a process of subtracting the calculation result of the first row average value calculation unit 91 from the calculation result of the second and third row average value calculation unit 92 is performed. Both the calculation result of the second and third row average value calculation section 92 and the calculation result of the fourth row average value calculation section 93 are input to the subtraction section 97-2, and the calculation of the second and third row average value calculation section 92 is performed. A process of subtracting the calculation result of the fourth row average value calculation unit 93 from the result is performed.

【0080】減算部97−1での演算結果は比較部98
−1に入力されて所定の閾値TH13との比較が行わ
れ、減算部97−1での演算結果の方が閾値TH13よ
りも大きい場合には高レベルが、等しいかもしくは小さ
い場合には低レベルが比較部98−1から出力される。
また、減算部97−2での演算結果は比較部98−2に
入力されて所定の閾値TH13との比較が行われ、減算
部97−2での演算結果の方が閾値TH13よりも大き
い場合には高レベルが、等しいかもしくは小さい場合に
は低レベルが比較部98−2から出力される。
The operation result of the subtraction section 97-1 is compared with the comparison section 98.
-1 is input and compared with a predetermined threshold value TH13. When the operation result of the subtraction unit 97-1 is larger than the threshold value TH13, the high level is set. Is output from the comparing section 98-1.
Also, the operation result of the subtraction unit 97-2 is input to the comparison unit 98-2 and compared with a predetermined threshold value TH13, and the operation result of the subtraction unit 97-2 is larger than the threshold value TH13. The high level is output from the comparator 98-2 when the level is equal or lower.

【0081】第2・3行最小値算出部94での演算結果
は比較部98−3に入力されて所定の閾値TH14との
比較が行われ、第2・3行最小値算出部94での演算結
果の方が閾値TH14よりも大きい場合には高レベル
が、等しいかもしくは小さい場合には低レベルが比較部
98−3から出力される。
The calculation result of the second / third row minimum value calculating section 94 is input to the comparing section 98-3, and is compared with a predetermined threshold value TH14. When the operation result is larger than the threshold value TH14, the high level is output from the comparison unit 98-3 when the operation result is equal to or smaller than the threshold value TH14.

【0082】第1行最大値算出部95での演算結果は比
較部98−4に入力されて所定の閾値TH15との比較
が行われ、第1行最大値算出部95での演算結果の方が
閾値TH15よりも小さい場合には高レベルが、大きい
かもしくは等しい場合には低レベルが比較部98−4か
ら出力される。また、第4行最大値算出部96での演算
結果は比較部98−5に入力されて所定の閾値TH15
との比較が行われ、第4行最大値算出部96での演算結
果の方が閾値TH15よりも小さい場合には高レベル
が、大きいかもしくは等しい場合には低レベルが比較部
98−5から出力される。
The calculation result in the first row maximum value calculation unit 95 is input to the comparison unit 98-4, and is compared with a predetermined threshold value TH15. Is smaller than the threshold value TH15, the high level is output from the comparing section 98-4 when the level is larger or equal. The calculation result in the fourth row maximum value calculation unit 96 is input to the comparison unit 98-5, and is input to the predetermined threshold TH15.
The high level is obtained when the operation result of the fourth row maximum value calculation unit 96 is smaller than the threshold value TH15, and the low level is obtained when the operation result is larger or equal to the threshold value. Is output.

【0083】比較部98−1〜98−5の比較結果は全
て論理積演算部99に入力され、この論理積演算部99
において比較部98−1〜98−5の比較結果の論理積
が演算される。論理積演算部99から出力された結果が
2画素横線検出部45の出力結果となり、高レベルの場
合は図14(b)に示すような2画素幅の横線があると
判定され、逆に低レベルの場合は2画素幅の横線が無い
と判定される。
All the comparison results of the comparison units 98-1 to 98-5 are input to the AND operation unit 99, and the AND operation unit 99
, The logical product of the comparison results of the comparison units 98-1 to 98-5 is calculated. The result output from the AND operation unit 99 is the output result of the two-pixel horizontal line detection unit 45. When the result is high, it is determined that there is a two-pixel width horizontal line as shown in FIG. In the case of the level, it is determined that there is no horizontal line having a width of two pixels.

【0084】すなわち、2画素横線検出部45では、下
記式(21)〜式(25)がすべて成立するときは、図
14(b)に示すような2画素幅の横線があると判定
し、図14(a)のN・O・P・Q・R・S・T・Uに
対応する画素値としてそれぞれ高レベルを出力し、逆に
式(21)〜式(25)が1つでも成立しないときは、
図14(b)に示すような2画素幅の横線は無いと判定
し、それぞれ低レベルを出力する。
That is, when all of the following equations (21) to (25) hold, the two-pixel horizontal line detector 45 determines that there is a two-pixel horizontal line as shown in FIG. A high level is output as a pixel value corresponding to N, O, P, Q, R, S, T, and U in FIG. 14A, and conversely, even one of the equations (21) to (25) holds. If not,
It is determined that there is no horizontal line having a width of two pixels as shown in FIG.

【0085】 AVE(PN ,PO ,PP ,PQ ,PR ,PS ,PT ,PU ) −AVE(PJ ,PK ,PL ,PM )>TH13 …(21) AVE(PN ,PO ,PP ,PQ ,PR ,PS ,PT ,PU ) −AVE(PV ,PW ,PX ,PY )>TH13 …(22) MIN(PN ,PO ,PP ,PQ ,PR ,PS ,PT ,PU ) >TH14 …(23) MAX(PJ ,PK ,PL ,PM )<TH15 …(24) MAX(PV ,PW ,PX ,PY )<TH15 …(25)AVE (P N , P O , P P , P Q , P R , P S , P T , P U ) −AVE (P J , P K , P L , P M )> TH 13 (21) AVE (P N , P O , P P , P Q , P R , P S , P T , P U ) −AVE (P V , P W , P X , P Y )> TH 13 (22) MIN (P N, P O, P P, P Q, P R, P S, P T, P U)> TH14 ... (23) MAX (P J, P K, P L, P M) <TH15 ... (24) MAX (P V , P W , P X , P Y ) <TH15 (25)

【0086】つぎに、2画素縦線検出部46について説
明する。2画素縦線検出部46は、4×4画素マトリク
スを用いて図14(c)に示すような2画素幅の縦線を
検出する。
Next, the two-pixel vertical line detector 46 will be described. The two-pixel vertical line detection unit 46 detects a two-pixel width vertical line as shown in FIG. 14C using a 4 × 4 pixel matrix.

【0087】図16に、2画素縦線検出部46の構成例
を示す。その構成は、図15の2画素横線検出部45に
対して、第1行平均値算出部91、第2・3行平均値算
出部92、第4行平均値算出部93、第2・3行最小値
算出部94、第1行最大値算出部95および第4行最大
値算出部96が、第1列平均値算出部101、第2・3
列平均値算出部102、第4列平均値算出部103、第
2・3列最小値算出部104、第1列最大値算出部10
5および第4列最大値算出部106に代わっただけであ
り、基本的に同じであるためその詳細については説明を
省略する。
FIG. 16 shows an example of the configuration of the two-pixel vertical line detector 46. The configuration is different from the two-pixel horizontal line detection unit 45 in FIG. 15 in that a first row average value calculation unit 91, a second and third row average value calculation unit 92, a fourth row average value calculation unit 93, a second and third row average value calculation unit 93 are used. The row minimum value calculation unit 94, the first row maximum value calculation unit 95, and the fourth row maximum value calculation unit 96 include a first column average value calculation unit 101,
Column average value calculation section 102, fourth column average value calculation section 103, second and third column minimum value calculation section 104, first column maximum value calculation section 10
Only the fifth and fourth column maximum value calculation units 106 have been replaced, and are basically the same.

【0088】そこで、ここでは、式を用いて説明するも
のとする。2画素縦線検出部46では、下記式(26)
〜式(30)がすべて成立するときは、図14(c)に
示すような2画素幅の縦線があると判定し、図14
(a)のK・L・O・P・S・T・W・Xに対応する画
素値としてそれぞれ高レベルを出力し、逆に式(26)
〜式(30)が1つでも成立しないときは、図14
(c)に示すような2画素幅の縦線は無いと判定し、そ
れぞれ低レベルを出力する。
Therefore, here, the description will be made using equations. In the two-pixel vertical line detector 46, the following equation (26) is used.
When Expressions (30) hold, it is determined that there is a vertical line having a width of two pixels as shown in FIG.
A high level is output as a pixel value corresponding to K, L, O, P, S, T, W, and X in FIG.
When even one of the expressions (30) is not satisfied, FIG.
It is determined that there is no vertical line having a width of two pixels as shown in (c), and a low level is output for each.

【0089】 AVE(PK ,PL ,PO ,PP ,PS ,PT ,PW ,PX ) −AVE(PJ ,PN ,PR ,PV )>TH16 …(26) AVE(PK ,PL ,PO ,PP ,PS ,PT ,PW ,PX ) −AVE(PM ,PQ ,PU ,PY )>TH16 …(27) MIN(PK ,PL ,PO ,PP ,PS ,PT ,PW ,PX ) >TH17 …(28) MAX(PJ ,PN ,PR ,PV )<TH18 …(29) MAX(PM ,PQ ,PU ,PY )<TH18 …(30)AVE (P K , P L , P O , P P , P S , P T , P W , P X ) −AVE (P J , P N , P R , P V )> TH 16 (26) AVE (P K , P L , P O , P P , P S , P T , P W , P X ) −AVE (P M , P Q , P U , P Y )> TH 16 (27) MIN (P K , P L , P O , P P , P S , P T , P W , P X )> TH 17 (28) MAX (P J , P N , P R , P V ) <TH 18 (29) MAX (P M , P Q , P U , P Y ) <TH18 (30)

【0090】つぎに、2画素左斜線検出部47について
説明する。2画素左斜線検出部47は、4×4画素マト
リクスを用いて図14(d)に示すような2画素幅の左
上がりの斜線を検出する。
Next, the two-pixel left-slanting-line detector 47 will be described. The two-pixel left diagonal line detection unit 47 detects a two-pixel wide diagonally left diagonal line as shown in FIG. 14D using a 4 × 4 pixel matrix.

【0091】図17に、2画素左斜線検出部47の構成
例を示す。その構成は、図15の2画素横線検出部45
に対して、第1行平均値算出部91、第2・3行平均値
算出部92、第4行平均値算出部93、第2・3行最小
値算出部94、第1行最大値算出部95および第4行最
大値算出部96が、左下3画素平均値算出部111、左
上・右下斜方向10画素平均値算出部112、右上3画
素平均値算出部113、左上・右下斜方向10画素最小
値算出部114、左下3画素最大値算出部115および
右上3画素最大値算出部116に代わっただけであり、
基本的に同じであるためその詳細については説明を省略
する。
FIG. 17 shows a configuration example of the two-pixel left oblique line detection section 47. The configuration is the same as that of the two-pixel horizontal line detector 45 shown in FIG.
The first row average value calculation section 91, the second and third row average value calculation section 92, the fourth row average value calculation section 93, the second and third row minimum value calculation section 94, the first row maximum value calculation The unit 95 and the fourth row maximum value calculation unit 96 include a lower left three pixel average value calculator 111, an upper left / lower right lower 10 pixel average value calculator 112, an upper right three pixel average value calculator 113, an upper left / lower right tilt Only the direction 10 pixel minimum value calculation unit 114, the lower left 3 pixel maximum value calculation unit 115, and the upper right 3 pixel maximum value calculation unit 116 are replaced.
The details are omitted because they are basically the same.

【0092】そこで、ここでは、式を用いて説明するも
のとする。2画素左斜線検出部47では、下記式(3
1)〜式(35)がすべて成立するときは、図14
(d)に示すような2画素幅の左上がりの斜線があると
判定し、図14(a)のJ・K・N・O・P・S・T・
U・X・Yに対応する画素値としてそれぞれ高レベルを
出力し、逆に式(31)〜式(35)が1つでも成立し
ないときは、図14(d)に示すような2画素幅の左上
がりの斜線は無いと判定し、それぞれ低レベルを出力す
る。
Therefore, here, the description will be made using equations. In the two-pixel left oblique line detection unit 47, the following equation (3)
When all of 1) to (35) hold, FIG.
It is determined that there is a two-pixel-width oblique line ascending left as shown in FIG. 14D, and JKNOPTPST in FIG.
A high level is output as a pixel value corresponding to U, X, and Y, and conversely, if at least one of Expressions (31) to (35) does not hold, a two-pixel width as shown in FIG. It is determined that there is no oblique line rising to the left, and each outputs a low level.

【0093】 AVE(PJ ,PK ,PN ,PO ,PP ,PS ,PT ,PU ,PX ,PY ) −AVE(PR ,PV ,PW )>TH19 …(31) AVE(PJ ,PK ,PN ,PO ,PP ,PS ,PT ,PU ,PX ,PY ) −AVE(PL ,PM ,PQ )>TH19 …(32) MIN(PJ ,PK ,PN ,PO ,PP ,PS ,PT ,PU ,PX ,PY ) >TH20 …(33) MAX(PR ,PV ,PW )<TH21 …(34) MAX(PL ,PM ,PQ )<TH21 …(35)AVE (P J , P K , P N , P O , P P , P S , P T , P U , P X , P Y ) −AVE (P R , P V , P W )> TH 19 ... (31) AVE (P J, P K, P N, P O, P P, P S, P T, P U, P X, P Y) -AVE (P L, P M, P Q)> TH19 ... (32) MIN (P J, P K, P N, P O, P P, P S, P T, P U, P X, P Y)> TH20 ... (33) MAX (P R, P V, P W) <TH21 ... (34) MAX (P L, P M, P Q) <TH21 ... (35)

【0094】つぎに、2画素右斜線検出部48について
説明する。2画素右斜線検出部48は、4×4画素マト
リクスを用いて図14(e)に示すような2画素幅の右
上がりの斜線を検出する。
Next, the two-pixel right oblique line detecting section 48 will be described. The two-pixel right diagonal line detection unit 48 detects a diagonally right diagonal line with a two-pixel width as shown in FIG. 14E using a 4 × 4 pixel matrix.

【0095】図18に、2画素右斜線検出部48の構成
例を示す。その構成は、図15の2画素横線検出部45
に対して、第1行平均値算出部91、第2・3行平均値
算出部92、第4行平均値算出部93、第2・3行最小
値算出部94、第1行最大値算出部95および第4行最
大値算出部96が、左上3画素平均値算出部121、右
上・左下斜方向10画素平均値算出部122、右下3画
素平均値算出部123、右上・左下斜方向10画素最小
値算出部124、左上3画素最大値算出部125および
右下3画素最大値算出部126に代わっただけであり、
基本的に同じであるためその詳細については説明を省略
する。
FIG. 18 shows an example of the configuration of the two-pixel oblique line detection unit 48. The configuration is the same as that of the two-pixel horizontal line detector 45 shown in FIG.
The first row average value calculation section 91, the second and third row average value calculation section 92, the fourth row average value calculation section 93, the second and third row minimum value calculation section 94, the first row maximum value calculation The unit 95 and the fourth row maximum value calculation unit 96 include an upper-left three-pixel average value calculator 121, an upper-right / lower-left lower direction 10-pixel average value calculator 122, a lower-right three-pixel average value calculator 123, and an upper-right / lower-left lower direction Only the 10 pixel minimum value calculation unit 124, the upper left 3 pixel maximum value calculation unit 125, and the lower right 3 pixel maximum value calculation unit 126 are replaced.
The details are omitted because they are basically the same.

【0096】そこで、ここでは、式を用いて説明するも
のとする。2画素右斜線検出部48では、下記式(3
6)〜式(40)がすべて成立するときは、図14
(e)に示すような2画素幅の右上がりの斜線があると
判定し、図14(a)のL・M・O・P・Q・R・S・
T・V・Wに対応する画素値としてそれぞれ高レベルを
出力し、逆に式(36)〜式(40)が1つでも成立し
ないときは、図14(e)に示すような2画素幅の右上
がりの斜線は無いと判定し、それぞれ低レベルを出力す
る。
Therefore, here, the description will be made using equations. The two-pixel oblique line detection unit 48 calculates the following equation (3)
When all of the expressions (6) to (40) hold, FIG.
It is determined that there is a two-pixel-width oblique line rising to the right as shown in (e), and L, M, O, P, Q, R, S, and
A high level is output as a pixel value corresponding to TVW, and conversely, if at least one of Expressions (36) to (40) does not hold, a two-pixel width as shown in FIG. It is determined that there is no oblique line rising to the right, and each outputs a low level.

【0097】 AVE(PL ,PM ,PO ,PP ,PQ ,PR ,PS ,PT ,PV ,PW ) −AVE(PJ ,PK ,PN )>TH22 …(36) AVE(PL ,PM ,PO ,PP ,PQ ,PR ,PS ,PT ,PV ,PW ) −AVE(PU ,PX ,PY )>TH22 …(37) MIN(PL ,PM ,PO ,PP ,PQ ,PR ,PS ,PT ,PV ,PW ) >TH23 …(38) MAX(PJ ,PK ,PN )<TH24 …(39) MAX(PU ,PX ,PY )<TH24 …(40)AVE (P L , P M , P O , P P , P Q , P R , P S , P T , P V , P W )-AVE (P J , P K , P N )> TH 22 ... (36) AVE (P L , P M , P O , P P , P Q , P R , P S , P T , P V , P W )-AVE (P U , P X , P Y )> TH22 ... (37) MIN (P L , P M , P O , P P , P Q , P R , P S , P T , P V , P W )> TH23 (38) MAX (P J , P K , P N) <TH24 ... (39) MAX (P U, P X, P Y) <TH24 ... (40)

【0098】続いて、エッジ抽出部32の詳細について
説明する。図19は、エッジ抽出部32の構成の一例を
示すブロック図である。図19において、エッジ抽出部
32に入力された画像データは、3×3フィルタ演算部
131と浮動2値化部133に入力される。3×3フィ
ルタ演算部131に入力された画像データは、あらかじ
め設定された3×3フィルタ係数とのフィルタリング処
理が行われて、その演算結果は比較部132に出力され
る。上記3×3フィルタ係数としては、エッジ部を強調
するものが望ましく、一例として、図20に記載したよ
うなフィルタ係数が挙げられる。
Next, details of the edge extracting unit 32 will be described. FIG. 19 is a block diagram illustrating an example of the configuration of the edge extraction unit 32. 19, the image data input to the edge extraction unit 32 is input to the 3 × 3 filter operation unit 131 and the floating binarization unit 133. The image data input to the 3 × 3 filter operation unit 131 is subjected to a filtering process with a preset 3 × 3 filter coefficient, and the operation result is output to the comparison unit 132. It is desirable that the 3 × 3 filter coefficient emphasizes an edge portion. As an example, a filter coefficient as shown in FIG. 20 is given.

【0099】比較部132に入力された3×3フィルタ
演算部131の演算結果は、あらかじめ設定された閾値
TH30との比較演算が行われ、3×3フィルタ演算部
131の演算結果が閾値TH30より大きい場合は高レ
ベルの信号が、等しいかもしくは小さい場合には低レベ
ルの信号が出力される。比較部132からの出力信号は
論理積演算部135に入力される。
The operation result of the 3 × 3 filter operation unit 131 input to the comparison unit 132 is compared with a preset threshold TH30, and the operation result of the 3 × 3 filter operation unit 131 is compared with the threshold TH30. If it is larger, a high-level signal is output, and if it is equal or smaller, a low-level signal is output. The output signal from the comparison unit 132 is input to the AND operation unit 135.

【0100】一方、浮動2値化部133に入力された画
像データは、浮動2値化処理が行われる。そして、その
処理結果は5×5排他的論理和演算部134に入力され
る。浮動2値化部133の詳細ついては後述する。
On the other hand, the image data input to the floating binarizing section 133 is subjected to a floating binarizing process. Then, the processing result is input to the 5 × 5 exclusive OR operation unit 134. Details of the floating binarization unit 133 will be described later.

【0101】5×5排他的論理和演算部134に入力さ
れた画像データは、注目画素を中心とした5×5画素の
排他的論理和演算が行われる。すなわち、5×5=25
画素すべてが高レベルの信号もしくは低レベルの信号の
ときは低レベルの信号が、1画素でも異なるときは高レ
ベルの信号が演算結果として得られる。5×5排他的論
理和演算部134の演算結果は、論理積演算部135に
入力される。そして、論理積演算部135において、比
較部132からの出力信号と5×5排他的論理和演算部
134からの出力信号とが画素ごとに論理積演算され、
その演算結果がエッジ抽出部32の出力結果として出力
される。
The image data input to the 5 × 5 exclusive OR operation unit 134 is subjected to an exclusive OR operation of 5 × 5 pixels centering on the pixel of interest. That is, 5 × 5 = 25
When all the pixels are high-level signals or low-level signals, a low-level signal is obtained as a calculation result, and when even one pixel is different, a high-level signal is obtained. The operation result of the 5 × 5 exclusive OR operation unit 134 is input to the AND operation unit 135. Then, in the AND operation unit 135, the output signal from the comparison unit 132 and the output signal from the 5 × 5 exclusive OR operation unit 134 are AND-operated for each pixel,
The calculation result is output as an output result of the edge extraction unit 32.

【0102】浮動2値化部133の詳細について、同じ
く図19を用いて説明する。浮動2値化部133に入力
された画像データは、比較部139と、3×3平均値演
算部136に入力される。3×3平均値演算部136で
は、注目画素を中心とした3×3画素値の平均値が計算
され、その結果は加算部137に出力される。加算部1
37に入力された3×3平均値演算結果は、あらかじめ
設定された加算値Vallとの加算演算が行われ、その
結果はリミット処理部138に出力される。
Details of the floating binarization unit 133 will be described with reference to FIG. The image data input to the floating binarization unit 133 is input to the comparison unit 139 and the 3 × 3 average value calculation unit 136. The 3 × 3 average value calculation unit 136 calculates the average value of the 3 × 3 pixel values centered on the target pixel, and outputs the result to the addition unit 137. Adder 1
The calculation result of the 3 × 3 average value input to 37 is added to a predetermined addition value Val, and the result is output to the limit processing unit 138.

【0103】リミット処理部138にはあらかじめ上限
および下限のリミット値が設定されており、加算部13
7から入力された演算結果を、上記上限および下限のリ
ミット値の範囲に制限する。すなわち、加算部137か
ら入力された演算結果が上限リミット値よりも大きい場
合には上限リミット値を、下限リミット値よりも小さい
場合には下限リミット値を、そのどちらでもない場合に
は加算部137から入力された演算結果を、リミット処
理部138の演算結果として出力する。
The upper limit value and the lower limit value are set in advance in the limit processing section 138.
7 is limited to the range of the upper and lower limit values. That is, when the calculation result input from the adding unit 137 is larger than the upper limit value, the upper limit value is set. When the calculation result is smaller than the lower limit value, the lower limit value is set. Is output as the calculation result of the limit processing unit 138.

【0104】リミット処理部138から出力された演算
結果は比較部139に入力され、他方比較部139に入
力された画像データ、即ち浮動2値化部133に入力さ
れた画像データとの比較演算が行われる。浮動2値化部
133に入力された画像データがリミット処理部138
の演算結果よりも大きい場合は高レベルの信号が、等し
いかもしくは小さい場合には低レベルの信号が出力され
る。比較部132からの出力信号は5×5排他的論理和
演算部134に入力される。
The calculation result output from the limit processing unit 138 is input to a comparison unit 139, while the comparison operation with the image data input to the comparison unit 139, that is, the image data input to the floating binarization unit 133, is performed. Done. The image data input to the floating binarization unit 133 is output to the limit processing unit 138.
A high-level signal is output when the value is larger than the result of the calculation, and a low-level signal is output when the value is equal to or smaller than the calculation result. The output signal from the comparison unit 132 is input to the 5 × 5 exclusive OR operation unit 134.

【0105】なお、エッジ抽出部32における処理につ
いては、上記説明した処理以外にも公知の技術を用いる
ようにしても構わないが、線分などの輪郭をできるだけ
忠実に抽出する処理が望ましい。
As the processing in the edge extracting section 32, a known technique other than the above-described processing may be used, but it is preferable to extract a contour such as a line segment as faithfully as possible.

【0106】続いて、第1拡大部33−1〜第N拡大部
33−Nの詳細について、図21および図22を用いて
説明する。なお、第1拡大部33−1〜第N拡大部33
−Nはそれぞれほぼ同様の処理を行うので、ここでは第
1拡大部33−1を例にとって説明する。図21は第1
拡大部33−1での処理内容を説明する図であり、図2
2は第1拡大部33−1での拡大条件判定を説明する図
である。
Next, details of the first to N-th enlargement units 33-1 to 33-N will be described with reference to FIGS. It should be noted that the first enlargement unit 33-1 to the N-th enlargement unit 33
Since -N performs almost the same processing, the first enlargement unit 33-1 will be described here as an example. FIG. 21 shows the first
FIG. 2 is a diagram for explaining processing contents in an enlargement unit 33-1;
FIG. 2 is a view for explaining enlargement condition determination in the first enlargement unit 33-1.

【0107】第1拡大部33−1には、線抽出部31ー
1で線抽出の行われた画像データとエッジ抽出部32で
エッジ抽出の行われた画像データが入力される。線抽出
部31−1から出力される画像データは、本例の場合、
元の画像データ、即ち線分抽出部12に入力された画像
データと比較して縦・横それぞれ1/2に縮小されてい
るため、第1拡大部33−1では入力された線抽出部3
1−1で線抽出の行われた画像データを縦・横それぞれ
2倍に拡大する処理を行う。
The first magnifying unit 33-1 receives the image data from which the line has been extracted by the line extracting unit 31-1 and the image data from which the edge has been extracted by the edge extracting unit 32. The image data output from the line extracting unit 31-1 is:
Since the original image data, that is, the image data input to the line segment extraction unit 12 has been reduced by 1 / each in the vertical and horizontal directions, the input line extraction unit 3
In step 1-1, the image data subjected to the line extraction is enlarged twice vertically and horizontally.

【0108】しかしながら、線抽出部31−1で線抽出
の行われた画像データに対して単純に拡大処理を行う
と、階段状のがたついた結果となってしまう。これを図
21を用いて説明すると、図21(e)のような画像が
線分抽出部13に入力された場合、線抽出部31−1で
は図21(a)のような抽出結果が得られる。これを単
純に縦・横それぞれ2倍に拡大する処理を行うと、図2
1(c)のような結果となるが、これは図21(e)と
比較して階段状のがたつきが大きい結果となり、入力画
像に忠実な線分抽出となっていない。
However, if the enlargement processing is simply performed on the image data on which the line is extracted by the line extracting unit 31-1, the result will be a step-like rattling. This will be described with reference to FIG. 21. When an image as shown in FIG. 21E is input to the line segment extraction unit 13, the line extraction unit 31-1 obtains an extraction result as shown in FIG. Can be When this process is simply performed to enlarge the image twice vertically and horizontally, FIG.
Although the result is as shown in FIG. 1C, the result is that the step-like rattling is larger than that in FIG. 21E, and the line segment faithful to the input image is not obtained.

【0109】そこで、第1拡大部33−1では、エッジ
抽出部32でエッジ抽出の行われた画像データを参照し
ながら、線抽出部31−1で線抽出の行われた画像デー
タに対して拡大処理を行う。その際、図22に記載のよ
うな条件判定により第1拡大部33−1からの出力を決
定する。例えば、線抽出部31ー1から入力された画像
データのある画素が低レベル(LOW)の場合、第1拡
大部33−1からの出力は2×2画素すべて低レベルと
なる。
Therefore, the first enlargement unit 33-1 refers to the image data from which the edge has been extracted by the edge extraction unit 32, and refers to the image data from which the line has been extracted by the line extraction unit 31-1 Perform enlargement processing. At this time, the output from the first enlargement unit 33-1 is determined by the condition determination as described in FIG. For example, when a certain pixel of the image data input from the line extraction unit 31-1 is at a low level (LOW), the output from the first enlargement unit 33-1 is at a low level for all 2 × 2 pixels.

【0110】一方、線抽出邸31−1から入力された画
像データのある画素が高レベル(HIGH)の場合は、
前記画素の周辺画素の値、およびエッジ抽出部32から
の入力値により条件判定を行い、第1拡大部33−1か
らの出力が決定される。上記のような条件判定によって
線抽出部31−1で線抽出の行われた画像データの拡大
処理を行うことにより、図21(a)のような線抽出部
31−1からの入力画像データと、図21(b)のよう
なエッジ抽出部32からの入力画像データに基づいて、
図21(d)のような拡大処理の行われた画像データが
得られる。
On the other hand, when a certain pixel of the image data input from the line extraction house 31-1 is at a high level (HIGH),
Condition determination is performed based on the values of the peripheral pixels of the pixel and the input value from the edge extraction unit 32, and the output from the first enlargement unit 33-1 is determined. By performing the enlargement processing of the image data subjected to the line extraction by the line extraction unit 31-1 according to the above condition determination, the input image data from the line extraction unit 31-1 as shown in FIG. , Based on the input image data from the edge extraction unit 32 as shown in FIG.
Image data subjected to the enlargement processing as shown in FIG. 21D is obtained.

【0111】最後に、線分補正部15の詳細について説
明する。図23は、線分補正部15の構成の一例を示す
ブロック図である。図23において、線分補正部15に
は、小領域抽出部14の出力結果と、線分抽出部13の
出力結果とが入力される。小領域抽出部14の出力結果
は膨張処理部141に入力され、そこで入力された画像
データの膨張処理が行われる。その処理結果は、2入力
の論理積演算部142の一方の入力となる。論理積演算
部142にはその他方の入力として、線分抽出部13の
抽出結果が与えられる。これにより、論理積演算部14
2では、画素単位に論理積演算が行われる。そして、そ
の演算結果が線分補正結果として出力される。
Finally, the details of the line segment correction section 15 will be described. FIG. 23 is a block diagram illustrating an example of a configuration of the line segment correction unit 15. In FIG. 23, the output result of the small region extraction unit 14 and the output result of the line segment extraction unit 13 are input to the line segment correction unit 15. The output result of the small area extraction unit 14 is input to the expansion processing unit 141, where expansion processing of the input image data is performed. The processing result becomes one input of the two-input AND operation unit 142. The extraction result of the line segment extraction unit 13 is given to the AND operation unit 142 as the other input. Thereby, the logical product operation unit 14
In 2, the AND operation is performed for each pixel. Then, the calculation result is output as a line segment correction result.

【0112】線分補正部15を上述したような構成にす
ることにより、絵柄領域中での誤抽出がなく、かつ線分
抽出部13で抽出された文字・線画に忠実な結果が得ら
れることになる。線分補正部15の補正結果は、入力画
像データの像域分離結果として像域分離部9から出力さ
れる。
By configuring the line segment corrector 15 as described above, there is no erroneous extraction in the picture area and a result faithful to the character / line image extracted by the line extractor 13 can be obtained. become. The correction result of the line segment correction unit 15 is output from the image area separation unit 9 as an image area separation result of the input image data.

【0113】上述したように、本発明による第1実施形
態に係る像域分離部9によれば、文字・線画・写真・網
点等の混在した画像に対して、入力画像に忠実に文字・
線画を抽出し、かつ絵柄領域中での誤抽出のない、高精
度な像域分離処理を行うことにより、良好な再生画像を
得ることが可能となる。
As described above, according to the image area separating section 9 according to the first embodiment of the present invention, a character / line drawing / photograph / halftone dot and the like are mixed with a character / line image faithfully in the input image.
By extracting a line drawing and performing high-precision image area separation processing without erroneous extraction in a picture area, a good reproduced image can be obtained.

【0114】〔第2実施形態〕次に、像域分離部9の他
の実施形態について説明する。図24は、本発明の第2
実施形態に係る像域分離部9の構成を示すブロック図で
ある。
[Second Embodiment] Next, another embodiment of the image area separating section 9 will be described. FIG. 24 shows a second embodiment of the present invention.
FIG. 3 is a block diagram illustrating a configuration of an image area separation unit 9 according to the embodiment.

【0115】図24において、本実施形態に係る像域分
離部9は、シャドー抽出部151、網点抽出部152、
線分抽出部153、小領域抽出部154および線分補正
部155を有する構成となっている。また、小領域抽出
部154は、論理和演算部156、ラベリング部15
7、収縮処理部158、ラベル番号検出記憶部159、
検出ラベル番号領域除去部160、ラベル特徴量算出部
161、包含関係判定部162および2値化部163か
ら構成されている。
In FIG. 24, the image area separating section 9 according to the present embodiment includes a shadow extracting section 151, a halftone dot extracting section 152,
The configuration includes a line segment extraction unit 153, a small region extraction unit 154, and a line segment correction unit 155. The small area extraction unit 154 includes a logical sum operation unit 156 and a labeling unit 15.
7, contraction processing section 158, label number detection storage section 159,
It comprises a detected label number area removing section 160, a label feature amount calculating section 161, an inclusion relation determining section 162, and a binarizing section 163.

【0116】上記構成の第2実施形態に係る像域分離部
9において、シャドー抽出部151では、入力された画
像信号から濃度の濃い領域の抽出が行われる。そして、
シャドー抽出部151からは、抽出された画素を高レベ
ル(論理“1”)、抽出されなかった画素を低レベル
(論理“0”)とする各画素1ビットの画像信号が出力
される。このシャドー抽出部151から出力された画像
信号は小領域抽出部154に入力される。
In the image area separating section 9 according to the second embodiment having the above structure, the shadow extracting section 151 extracts a high density area from the input image signal. And
The shadow extraction unit 151 outputs a 1-bit image signal for each pixel in which the level of the extracted pixel is high (logic “1”) and the level of the unextracted pixel is low (logic “0”). The image signal output from the shadow extracting section 151 is input to the small area extracting section 154.

【0117】また、網点抽出部152では、入力された
画像信号から画像中に含まれる網点領域の抽出が行われ
る。そして、網点抽出部152からは、抽出された画素
を高レベル、抽出されなかった画素を低レベルとする各
画素1ビットの画像信号が出力される。この網点抽出部
152から出力された画像信号は小領域抽出部154に
入力される。なお、シャドー抽出部151および網点抽
出部152の具体的な構成は、第1実施形態におけるシ
ャドー抽出部11および網点抽出部12のそれと同じで
あり、その詳細な説明については、重複するのでここで
は省略する。
Further, the dot extracting section 152 extracts a dot area included in the image from the input image signal. Then, the halftone dot extraction unit 152 outputs a 1-bit image signal for each pixel in which the extracted pixels are at a high level and the unextracted pixels are at a low level. The image signal output from the dot extracting unit 152 is input to the small area extracting unit 154. Note that the specific configurations of the shadow extraction unit 151 and the halftone dot extraction unit 152 are the same as those of the shadow extraction unit 11 and the halftone dot extraction unit 12 in the first embodiment, and the detailed description thereof will be duplicated. Here, it is omitted.

【0118】線分抽出部153では、入力された画像信
号から画像中に含まれる文字や線分の抽出が行われる。
そして、線分抽出部153からは、、抽出された画素を
高レベル、抽出されなかった画素を低レベルとする各画
素1ビットの画像信号が出力される。この線分抽出部1
53の詳細については後述する。線分抽出部153から
出力された画像信号は線分補正部155に入力される。
The line segment extraction section 153 extracts characters and line segments contained in the image from the input image signal.
Then, the line segment extraction unit 153 outputs a 1-bit image signal for each pixel in which extracted pixels are set to a high level and non-extracted pixels are set to a low level. This line segment extraction unit 1
Details of 53 will be described later. The image signal output from the line segment extraction unit 153 is input to the line segment correction unit 155.

【0119】小領域抽出部154には、シャドー抽出部
151から出力された画像データおよび網点抽出部15
2から出力された画像データが入力される。この小領域
抽出部154では、絵柄領域など大きい領域は除去し、
文字や線画などの線分で構成された小領域のみを抽出す
る処理が行われる。その抽出結果の画像データは線分補
正部155に供給される。なお、小領域抽出部154の
詳細については後述する。
The small area extracting section 154 includes the image data output from the shadow extracting section 151 and the halftone dot extracting section 15.
2 is input. The small area extraction unit 154 removes a large area such as a picture area,
A process of extracting only a small area composed of line segments such as characters and line drawings is performed. The image data resulting from the extraction is supplied to the line segment correction unit 155. The details of the small area extracting unit 154 will be described later.

【0120】線分補正部155では、小領域抽出部15
4から入力された画像信号を用いて、線分抽出部153
から入力された文字・線分抽出の行われた画像信号に対
して補正処理が行われる。そして、その補正結果が像域
分離結果として出力される。線分補正部155の具体的
な構成は、第1実施形態に係る線分補正部15のそれと
同じであり、その詳細な説明については、重複するので
ここでは省略する。
In the line segment correction section 155, the small area extraction section 15
4 using the image signal input from
The correction processing is performed on the image signal from which the character / line segment extraction has been performed. Then, the correction result is output as an image area separation result. The specific configuration of the line-segment correcting unit 155 is the same as that of the line-segment correcting unit 15 according to the first embodiment.

【0121】線分補正部155の出力データは、像域分
離部9での像域判定結果として、図1における墨版生成
部5、空間フィルタ部6、出力階調補正部7および画像
出力部8に供給される。そして、これら各処理部におい
て、画像変換処理や画像補正処理、または画像変換係数
や画像補正係数を切り替えることにより、先述したよう
に、像域判定結果に対応した処理が施される。
The output data of the line segment correction unit 155 is used as an image area determination result in the image area separation unit 9 as a black plate generation unit 5, a spatial filter unit 6, an output gradation correction unit 7, and an image output unit in FIG. 8 is supplied. Then, in each of these processing units, as described above, a process corresponding to the image area determination result is performed by switching the image conversion process or the image correction process, or the image conversion coefficient or the image correction coefficient.

【0122】次に、小領域抽出部154の詳細につい
て、同じく図24を用いて説明する。この小領域抽出部
154において、論理和演算部156は、シャドー抽出
部151から出力された画像データと、網点抽出部15
2から出力された画像データとを2入力とし、画素単位
で論理和演算を行う。この論理和演算の結果、文字や線
分などに関しては、シャドー抽出部151で抽出された
結果と同等の信号が論理和演算部16から出力される。
Next, details of the small area extracting section 154 will be described with reference to FIG. In the small area extraction unit 154, the logical sum operation unit 156 includes the image data output from the shadow extraction unit 151 and the halftone extraction unit 15
The image data output from 2 is input to 2 inputs, and a logical OR operation is performed for each pixel. As a result of the OR operation, a signal equivalent to the result extracted by the shadow extraction unit 151 is output from the OR operation unit 16 for characters and line segments.

【0123】一方、絵柄領域に関しては、その領域の大
部分が網点抽出部152により抽出されるが、髪の毛な
ど濃度の非常に濃い領域については網点の周期構造が無
くなっており、網点抽出部152では抽出できない。し
かしながら、そのような濃度の非常に濃い領域は、シャ
ドー抽出部151によって抽出することが可能であるた
め、論理和演算部156からは絵柄領域全体も抽出され
た結果が出力される。
On the other hand, most of the picture area is extracted by the halftone dot extracting section 152, but in the area of very high density such as the hair, the periodic structure of halftone dots is lost. It cannot be extracted by the unit 152. However, since such a region having a very high density can be extracted by the shadow extracting unit 151, the result obtained by extracting the entire picture region is output from the logical sum operation unit 156.

【0124】論理和演算部156から出力された画像デ
ータは、ラベリング部157に入力される。ラベリング
部157は、入力された画像から、高レベル信号が連結
する領域単位にラベル付けを行う。上記高レベル信号の
連結は、上下左右の4近傍連結でも、上下左右斜め方向
の8近傍連結でも構わないが、絵柄中の孤立領域の抑制
およびラベル数の削減のためには、8近傍連結の方が望
ましい。ラベリング部157において高レベル信号の連
結領域単位にラベル付けのなされた画像信号は収縮処理
部158、検出ラベル番号領域除去部160およびラベ
ル特徴量算出部161に入力される。
The image data output from the OR operation unit 156 is input to a labeling unit 157. The labeling unit 157 labels an input image in units of regions to which high-level signals are connected. The connection of the high-level signal may be four-neighbor connection in the up, down, left, or right direction, or eight-neighbor connection in the up-down, left, right, and diagonal directions. Is more desirable. The image signal labeled by the labeling unit 157 in units of connected areas of the high-level signal is input to the contraction processing unit 158, the detected label number area removing unit 160, and the label feature amount calculating unit 161.

【0125】収縮処理部158は、入力されたラベル付
けのなされた画素信号に対して、注目画素を中心とした
M3×M3(例えば、M3=21)画素領域での収縮処
理を行う。ここでの収縮処理は、注目画素を中心とした
M3×M3領域の画素に付与されたラベル番号が全て、
注目画素に付与されたラベル番号と等しい場合のみ、上
記ラベル番号と同一番号を注目画素に対する出力値とす
る。
The contraction processing section 158 performs contraction processing on the input labeled pixel signal in an M3 × M3 (for example, M3 = 21) pixel area centering on the target pixel. In the contraction processing here, all the label numbers assigned to the pixels in the M3 × M3 area centered on the target pixel are:
Only when it is equal to the label number assigned to the target pixel, the same number as the label number is set as the output value for the target pixel.

【0126】一方、注目画素にラベル番号が付与されて
いない場合、あるいは注目画素を中心としたM3×M3
領域の画素中に1つでもラベル番号が付与されていない
画素、または注目画素と異なるラベル番号の付与されて
いる画素がある場合は、ラベル番号が無いことに相当す
る信号を出力する。収縮処理部158において収縮処理
の行われた画像信号はラベル番号検出記憶部159に出
力される。ラベル番号検出記憶部159は、入力された
画像データ中に存在するラベル番号を全て検出して記憶
する。
On the other hand, when the label number is not assigned to the pixel of interest, or when M3 × M3
If at least one of the pixels in the region does not have a label number or a pixel with a label number different from the target pixel, a signal corresponding to the absence of the label number is output. The image signal subjected to the contraction processing in the contraction processing unit 158 is output to the label number detection storage unit 159. The label number detection storage unit 159 detects and stores all the label numbers existing in the input image data.

【0127】検出ラベル番号領域除去部160には、ラ
ベリング部157から出力された画像データが入力され
る。この検出ラベル番号領域除去部160は、入力され
た画像データから1画素ごとに付与されているラベル番
号を調べ、当該ラベル番号がラベル番号検出記憶部15
9に記憶されているラベル番号に含まれているか否かを
調べる。そして、含まれている場合にはラベル番号が無
いことに相当する信号を出力し、逆に含まれていない場
合には、当該ラベル番号を注目画素に対する出力値とす
る。検出ラベル番号領域除去部160の出力は2値化部
161に供給される。
Image data output from the labeling unit 157 is input to the detection label number area removing unit 160. The detection label number area removing unit 160 checks the label number assigned to each pixel from the input image data, and stores the label number in the label number detection storage unit 15.
It is checked whether or not the label number is included in the label number stored in 9. If it is included, a signal corresponding to the absence of the label number is output. Conversely, if it is not included, the label number is set as the output value for the target pixel. The output of the detected label number area removing section 160 is supplied to a binarizing section 161.

【0128】ラベル特徴量算出部161では、ラベリン
グ部157によって異なるラベルが付加された各ラベル
付加領域ごとに、該ラベル付加領域の特徴量を算出する
処理が行われる。本実施形態では、特徴量として、画素
数、領域の位置、領域の大きさ、ラベル画素密度のうち
の少なくとも1つを算出する。その算出結果は、包含関
係判定部162に供給される。包含関係判定部162で
は、ラベリング部157によって異なるラベルが付加さ
れた各ラベル付加領域同士の包含関係の判定が行われ
る。その判定結果は、検出ラベル番号領域除去部160
に供給される。
In the label feature value calculating section 161, for each label added area to which a different label has been added by the labeling section 157, a process of calculating the feature value of the label added area is performed. In the present embodiment, at least one of the number of pixels, the position of the region, the size of the region, and the label pixel density is calculated as the feature amount. The calculation result is supplied to the inclusion relation determination unit 162. The inclusion relation determination unit 162 determines the inclusion relation between the respective label-added areas to which different labels have been added by the labeling unit 157. The determination result is output to the detected label number area removing unit 160.
Supplied to

【0129】検出ラベル番号領域除去部160は上述し
た処理に加え、ラベル番号検出記憶部159に記憶され
ているラベル番号が付加されたラベル付加領域が所定の
特徴量を有する場合には、包含関係判定部162の判定
結果に基づいて該ラベル付加領域が包含する領域をも除
去する。
In addition to the processing described above, the detected label number area removing section 160 determines whether the label added area to which the label number stored in the label number detection storage section 159 has a predetermined characteristic amount has an inclusive relation. The region included in the label addition region is also removed based on the determination result of the determination unit 162.

【0130】2値化部163は、検出ラベル番号領域除
去部160から入力された画像データの2値化を行う。
すなわち、入力された画像データの各画素にラベル番号
が付与されている場合には高レベル信号を、ラベル番号
が付与されていない場合には低レベル信号を出力する。
2値化部163の2値化出力は小領域抽出部154の出
力結果として、線分補正部155に供給される。
The binarizing section 163 binarizes the image data input from the detected label number area removing section 160.
That is, a high-level signal is output when a label number is assigned to each pixel of the input image data, and a low-level signal is output when a label number is not assigned to each pixel.
The binarized output of the binarizing section 163 is supplied to the line segment correcting section 155 as an output result of the small area extracting section 154.

【0131】小領域抽出部154を上述したような構成
にすることにより、本例では、ON画素が21画素幅以
上の領域およびその領域に連続する領域は抽出しないこ
とになり、文字や線画などの線分で構成された領域のみ
が抽出されることになる。
By configuring the small area extracting section 154 as described above, in this example, the area where the ON pixels are 21 pixels or more in width and the area continuous with the area are not extracted. Only the region constituted by the line segment is extracted.

【0132】次に、線分抽出部153の詳細について説
明する。その構成の一例を示す図25において、線分抽
出部153に入力された画像データは、第1縮小部17
0−1〜第N縮小部170−Nに入力され、画像データ
の縮小処理が行われる。例えば、第1縮小部170−1
では、画像の縦・横方向それぞれ1/2の縮小が行われ
る。また、第2縮小部170−2では、画像の縦・横方
向それぞれ1/4の縮小が行われる。同様にして、第N
縮小部170−Nでは、画像の縦・横方向それぞれ1/
(2N)の縮小が行われる。第1縮小部170−1〜第
N縮小部170−Nにおける画像縮小方式としては、単
純間引き法、4点間補間法、16点間補間法、投影法、
中央値採用法など、公知の縮小方式で良い。
Next, details of the line segment extracting section 153 will be described. In FIG. 25 showing an example of the configuration, the image data input to the line segment extraction unit 153 is
The image data is input to the 0-1 to N-th reduction units 170-N, and the image data is reduced. For example, the first reduction unit 170-1
In this case, the image is reduced by half in both the vertical and horizontal directions. In the second reduction unit 170-2, the image is reduced by 1/4 in both the vertical and horizontal directions. Similarly, the N-th
In the reduction section 170-N, 1 /
(2N) reduction is performed. The image reduction method in the first reduction unit 170-1 to the N-th reduction unit 170-N includes a simple thinning method, a four-point interpolation method, a sixteen-point interpolation method, a projection method,
A known reduction method such as a median value method may be used.

【0133】第1縮小部170−1〜第N縮小部170
−Nによって縮小された画像データは各々線抽出部17
1−1〜線抽出部171−Nに入力される。また、線分
抽出部153に入力された画像データは、線抽出部17
1ー0にも入力される。線抽出部171−0〜線抽出部
171−Nでは、入力された画像データから所定範囲の
幅を有する線分の抽出が行われる。
First reduction section 170-1 to N-th reduction section 170
Each of the image data reduced by -N
1-1 is input to the line extraction unit 171-N. The image data input to the line segment extraction unit 153 is
It is also input to 1-0. In the line extracting units 171-0 to 171-N, line segments having a predetermined range of width are extracted from the input image data.

【0134】本例の場合は、第1縮小部170−1〜第
N縮小部170−Nによって画像データはそれぞれ1/
2,1/4,1/6,…,1/(2N)に縮小が行われ
るため、線抽出部171−0〜線抽出部171−Nで
は、1画素および2画素幅の線分を抽出する。線抽出部
171−0〜線抽出部171−Nの詳細については後述
する。
In the case of this example, the image data is divided by the first reduction section 170-1 to the N-th reduction section 170-N into 1 /
Since the reduction is performed to 2, 1/4, 1/6,..., 1 / (2N), the line extraction units 171-0 to 171-N extract line segments having a width of one pixel and two pixels. I do. Details of the line extracting units 171-0 to 171-N will be described later.

【0135】一方、線分抽出部153に入力された画像
データは、エッジ抽出部172にも入力される。エッジ
抽出部172では画像データ中に含まれるエッジ画素を
抽出し、そのエッジ抽出結果は第1拡大部173−1〜
第N拡大部173−Nに出力される。エッジ袖出部17
2の具体的な構成は、第1実施形態におけるエッジ袖出
部32と同じであり、その詳細については、重複するの
でここでの説明は割愛する。
On the other hand, the image data input to the line segment extraction unit 153 is also input to the edge extraction unit 172. The edge extraction unit 172 extracts an edge pixel included in the image data, and the edge extraction result is output to the first enlargement units 173-1 to 173-1.
The signal is output to the N-th expansion unit 173-N. Edge sleeve projection 17
The specific configuration of No. 2 is the same as that of the edge sleeve portion 32 in the first embodiment, and the details thereof will not be described here because they overlap.

【0136】線抽出部171−1〜線抽出部171−N
から出力された画像データは各々第1拡大部173−1
〜第N拡大部173−Nに入力され、またエッジ抽出部
172から出力された画像データも第1拡大部173−
1〜第N拡大部173−Nに入力される。第1拡大部1
73−1〜第N拡大部173−Nでは、エッジ抽出部1
72から入力された画像データに基づき、線抽出部17
1−1〜線抽出部171−Nから入力された画像データ
の拡大処理を行う。
The line extracting units 171-1 to 171-N
Output from the first enlargement unit 173-1
The image data input to the Nth enlargement unit 173 -N and output from the edge extraction unit 172 are also input to the first enlargement unit 173 -N.
1 to the N-th enlargement unit 173-N. 1st enlarged part 1
73-1 to the N-th enlargement unit 173-N, the edge extraction unit 1
72 based on the image data input from the
1-1: Enlarging processing of image data input from the line extracting unit 171-N is performed.

【0137】第1拡大部173−1〜第N拡大部173
−Nでの拡大率は、それぞれ第1縮小部170−1〜第
N縮小部170−Nでの縮小率の逆数、即ち本例では縦
・横方向共、2,4,6,…,2N値とする。なお、第
1拡大部173−1〜第N拡大部173−Nの具体的な
構成は、第1実施形態における第1拡大部33−1〜第
N拡大部33−Nと同じであり、その詳細な説明につい
ては、重複するのでここでは省略する。
The first expanding section 173-1 to the N-th expanding section 173
The enlargement ratio at −N is the reciprocal of the reduction ratio at each of the first reduction unit 170-1 to the Nth reduction unit 170-N, that is, in this example, in both the vertical and horizontal directions, 2, 4, 6,. Value. Note that the specific configuration of the first enlarged section 173-1 to the N-th enlarged section 173-N is the same as the first enlarged section 33-1 to the N-th enlarged section 33-N in the first embodiment. The detailed description is omitted here because it is duplicated.

【0138】第1拡大部173−1〜第N拡大部173
−Nおよび、前述の線抽出部171−0からの出力結果
の画像データは論理和演算部174に入力され、画素単
位に論理和演算が行われる。論理和演算部174からの
出力結果の画像データは、線分抽出部153の出力結果
となる。
The first expanding section 173-1 to the N-th expanding section 173
−N and the image data of the output result from the line extraction unit 171-0 are input to the logical sum operation unit 174, and the logical sum operation is performed for each pixel. The image data of the output result from the logical sum operation unit 174 is the output result of the line segment extraction unit 153.

【0139】続いて、線抽出部171−0〜線抽出部1
71−Nについて説明する。前述したように、本実施形
態では、1画素および2画素幅の線分を抽出する処理と
しているが、このサイズに限らず他のサイズの線幅をも
抽出する処理としても構わない。また、ここでの説明で
は、線抽出部171−0〜線抽出部171−Nはすべて
同じ処理であるとして、線抽出部171−0についての
み説明するが、線抽出部171−0〜線抽出部171−
Nをそれぞれ異なる処理として線を抽出しても構わな
い。図26は、線抽出部171−0の構成の他の例を示
すブロック図である。
Subsequently, the line extracting unit 171-0 to the line extracting unit 1
71-N will be described. As described above, in the present embodiment, a process for extracting a line segment having a width of one pixel and two pixels is described. However, the present invention is not limited to this size, and may be a process for extracting a line width of another size. Further, in the description here, it is assumed that all the line extraction units 171-0 to 171-N perform the same processing, and only the line extraction unit 171-0 will be described. Part 171-
Lines may be extracted by using N as different processes. FIG. 26 is a block diagram illustrating another example of the configuration of the line extracting unit 171-0.

【0140】図26において、線抽出部171−0に入
力された画像信号は、1画素の線幅を持つ横線を検出す
る1画素横線左検出部181と1画素横線右検出部18
2、1画素の線幅を持つ縦線を検出する1画素縦線上検
出部183と1画素縦線下検出部184、1画素の線幅
を持つ左上がりの斜線を検出する1画素左斜線上検出部
185と1画素左斜線下検出部186、1画素の線幅を
持つ右上がりの斜線を検出する1画素右斜線上検出部1
87と1画素右斜線下検出部188、2画素の線幅を持
つ横線を検出する2画素横線左検出部189と2画素横
線右検出部190、2画素の線幅を持つ縦線を検出する
2画素縦線上検出部191と2画素縦線下検出部19
2、2画素の線幅を持つ左上がりの斜線を検出する2画
素左斜線上検出部193と2画素左斜線下検出部19
4、2画素の線幅を持つ右上がりの斜線を検出する2画
素右斜線上検出部195と2画素右斜線下検出部196
にそれぞれ入力される。
In FIG. 26, the image signal input to the line extraction unit 171-0 includes a one-pixel horizontal line left detection unit 181 and a one-pixel horizontal line right detection unit 18 for detecting a horizontal line having a line width of one pixel.
2, a one-pixel vertical line above detector 183 for detecting a vertical line having a line width of one pixel and a one-pixel vertical line lower detector 184 for detecting a left-upward diagonal line having a line width of one pixel; Detecting unit 185 and 1-pixel left oblique line lower detecting unit 186, 1-pixel right oblique line upper detecting unit 1 for detecting a right-upward oblique line having a line width of 1 pixel
87 and 1 pixel right diagonal under line detection unit 188 Detects a horizontal line having a line width of 2 pixels 2 pixel horizontal line left detection unit 189 and 2 pixel horizontal line right detection unit 190 detects a vertical line having a line width of 2 pixels Two pixel vertical line above detector 191 and two pixel vertical line below detector 19
A two-pixel left oblique line upper detecting unit 193 and a two-pixel left oblique line lower detecting unit 19 for detecting an ascending diagonal line having a line width of 2, 2 pixels
4, a two-pixel right diagonal line upper detecting unit 195 and a two-pixel right diagonal lower line detecting unit 196 for detecting an upward diagonal line having a line width of two pixels
Respectively.

【0141】1画素横線左検出部181、1画素横線右
検出部182、1画素縦線上検出部183、1画素縦線
下検出部184、1画素左斜線上検出部185、1画素
左斜線下検出部186、1画素右斜線上検出部187、
1画素右斜線下検出部188、2画素横線左検出部18
9、2画素横線右検出部190、2画素縦線上検出部1
91、2画素縦線下検出部192、2画素左斜線上検出
部193、2画素左斜線下検出部194、2画素右斜線
上検出部195、2画素右斜線下検出部196の詳細に
ついては後述する。
One pixel horizontal line left detector 181, one pixel horizontal line right detector 182, one pixel vertical line upper detector 183, one pixel vertical line lower detector 184, one pixel left diagonal upper detector 185, one pixel left diagonal lower A detection unit 186, a detection unit 187 on the right diagonal line of one pixel,
One pixel right diagonal line under detection unit 188, two pixel horizontal line left detection unit 18
9, two-pixel horizontal line right detector 190, two-pixel vertical line detector 1
91, a two-pixel vertical line under detection unit 192, a two-pixel left diagonal under-detection unit 193, a two-pixel left diagonal under-detection unit 194, a two-pixel right diagonal under-detection unit 195, and a two-pixel right diagonal under-detection unit 196 It will be described later.

【0142】これら検出部181〜196によって検出
されたそれぞれ1画素幅の横・縦・左上がりの斜線、右
上がりの斜線および、2画素幅の横・縦・左上がりの斜
線、右上がりの斜線の検出結果は、論理和演算部197
に入力され、画素ごとに検出結果の論理和演算が行われ
る。そして、この論理和演算部197で行われた論理和
演算の結果を線抽出部171−0での線抽出結果として
出力する。
The horizontal / vertical / left-up diagonal lines, right-up diagonal lines, and 2-pixel-wide horizontal / vertical / left-up diagonal lines and right-up diagonal lines detected by the detection units 181 to 196, respectively. Is detected by the OR operation unit 197
And a logical sum operation of the detection result is performed for each pixel. Then, the result of the logical sum operation performed by the logical sum operation unit 197 is output as a line extraction result by the line extraction unit 171-0.

【0143】つぎに、1画素横線左検出部181に関し
て図9を用いて説明する。1画素横線左検出部181
は、3×3画素マトリクスを用いて図9(f)に示すよ
うな1画素幅の横線を検出する。今、3×3画素を図9
(a)に示すようにA〜Iで呼ぶこととし、それぞれの
画素値をPA 〜PI とする。このとき、1画素横線左検
出部181では、下記式(41)〜式(45)がすべて
成立するときは、図9(f)に示すような1画素幅の横
線があると判定し、図9(a)のD・Eに対応する画素
値としてそれぞれ高レベルを出力し、逆に式(41)〜
式(45)が1つでも成立しないときは、図9(f)に
示すような1画素幅の横線は無いと判定し、それぞれ低
レベルを出力する。
Next, the one-pixel horizontal line left detector 181 will be described with reference to FIG. One pixel horizontal line left detector 181
Detects a horizontal line having a width of one pixel as shown in FIG. 9F using a 3 × 3 pixel matrix. Now, 3 × 3 pixels are shown in FIG.
As shown in (a), they are called A to I, and respective pixel values are P A to P I. At this time, when all of the following equations (41) to (45) hold, the one-pixel horizontal line left detecting unit 181 determines that there is a horizontal line of one pixel width as shown in FIG. 9 (a), a high level is output as a pixel value corresponding to D · E.
If even one of the expressions (45) does not hold, it is determined that there is no horizontal line having a width of one pixel as shown in FIG.

【0144】 AVE(PD ,PE )−AVE(PA ,PB )>TH41 …(41) AVE(PD ,PE )−AVE(PG ,PH )>TH41 …(42) MIN(PD ,PE )>TH42 …(43) MAX(PA ,PB )<TH43 …(44) MAX(PG ,PH )<TH43 …(45) なお、ここで、AVE( ),MIN( ),MAX
( )はそれぞれ、( )内の画素値の平均値、最小
値、最大値を表す。またTH41〜TH44はそれぞ
れ、あらかじめ定められた所定の閾値とする。
[0144] AVE (P D, P E) -AVE (P A, P B)> TH41 ... (41) AVE (P D, P E) -AVE (P G, P H)> TH41 ... (42) MIN (P D, P E)> TH42 ... (43) MAX (P A, P B) <TH43 ... (44) MAX (P G, P H) <TH43 ... (45) Note that, where, AVE (), MIN (), MAX
() Indicates the average value, the minimum value, and the maximum value of the pixel values in (), respectively. In addition, TH41 to TH44 are respectively predetermined thresholds.

【0145】1画素横線左検出部181で上記のような
処理を行うこととすることにより、図9(b)に図示し
たような横線の検出も可能であり、また横線の右端の検
出も可能となる。
By performing the above-described processing in the one-pixel horizontal line left detector 181, the horizontal line as shown in FIG. 9B can be detected, and the right end of the horizontal line can be detected. Becomes

【0146】つぎに、1画素横線右検出部182に関し
て図9を用いて説明する。1画素横線右検出部182
は、3×3画素マトリクスを用いて図9(j)に示すよ
うな1画素幅の横線を検出する。この1画素横線右検出
部182では、下記式(46)〜式(50)が全て成立
するときは、図9(j)に示すような1画素幅の横線が
あると判定し、図9(a)のE・Fに対応する画素値と
してそれぞれ高レベルを出力し、逆に式(46)〜式
(50)が1つでも成立しないときは、図9(j)に示
すような1画素幅の横線は無いと判定し、それぞれ低レ
ベルを出力する。
Next, the one-pixel horizontal line right detector 182 will be described with reference to FIG. One pixel horizontal line right detector 182
Detects a horizontal line of one pixel width as shown in FIG. 9 (j) using a 3 × 3 pixel matrix. When all of the following equations (46) to (50) hold, the one-pixel horizontal line right detection unit 182 determines that there is a horizontal line of one pixel width as shown in FIG. 9A, a high level is output as a pixel value corresponding to E · F. Conversely, if even one of the equations (46) to (50) does not hold, one pixel as shown in FIG. It is determined that there is no horizontal line of the width, and a low level is output for each.

【0147】 AVE(PE ,PF )−AVE(PB ,PC )>TH44 …(46) AVE(PE ,PF )−AVE(PH ,PI )>TH44 …(47) MIN(PE ,PF )>TH45 …(48) MAX(PB ,PC )<TH46 …(49) MAX(PH ,PI )<TH46 …(50)AVE (P E , P F ) -AVE (P B , P C )> TH44 ... (46) AVE (P E , P F ) -AVE (P H , P I )> TH44 ... (47) MIN (P E , P F )> TH 45 (48) MAX (P B , P C ) <TH 46 (49) MAX (P H , P I ) <TH 46 (50)

【0148】つぎに、1画素縦線上検出部183に関し
て図9を用いて説明する。1画素縦線上検出部183
は、3×3画素マトリクスを用いて図9(g)に示すよ
うな1画素幅の縦線を検出する。1画素縦線検出部18
3では、下記式(51)〜式(55)がすべて成立する
ときは、図9(g)に示すような1画素幅の縦線がある
と判定し、図9(a)のB・Eに対応する画素値として
それぞれ高レベルを出力し、逆に式(51)〜式(5
5)が1つでも成立しないときは、図9(g)に示すよ
うな1画素幅の縦線は無いと判定してそれぞれ低レベル
を出力する。
Next, the one-pixel vertical line detection unit 183 will be described with reference to FIG. One pixel vertical line detection unit 183
Detects a vertical line of one pixel width as shown in FIG. 9 (g) using a 3 × 3 pixel matrix. 1 pixel vertical line detector 18
In 3, when all of the following equations (51) to (55) hold, it is determined that there is a vertical line having a width of one pixel as shown in FIG. 9 (g), and B · E in FIG. Are output as the pixel values corresponding to the above, and conversely, the equations (51) to (5)
If at least one of 5) is not satisfied, it is determined that there is no vertical line having a width of one pixel as shown in FIG.

【0149】 AVE(PB ,PE )−AVE(PA ,PD )>TH47 …(51) AVE(PB ,PE )−AVE(PC ,PF )>TH47 …(52) MIN(PB ,PE )>TH48 …(53) MAX(PA ,PD )<TH49 …(54) MAX(PC ,PF )<TH49 …(55)AVE (P B , P E ) −AVE (P A , P D )> TH47 (51) AVE (P B , P E ) −AVE (P C , P F )> TH47 (52) MIN (P B, P E)> TH48 ... (53) MAX (P A, P D) <TH49 ... (54) MAX (P C, P F) <TH49 ... (55)

【0150】つぎに、1画素縦線下検出部184に関し
て図9を用いて説明する。1画素縦線下検出部184
は、3×3画素マトリクスを用いて図9(k)に示すよ
うな1画素幅の縦線を検出する。1画素縦線検出部18
4では、下記式(56)〜式(60)がすべて成立する
ときは、図9(k)に示すような1画素幅の縦線がある
と判定し、図9(a)のE・Hに対応する画素値として
それぞれ高レベルを出力し、逆に式(56)〜式(6
0)が1つでも成立しないときは、図9(k)に示すよ
うな1画素幅の縦線は無いと判定し、それぞれ低レベル
を出力する。
Next, the one-pixel vertical-line detection unit 184 will be described with reference to FIG. One pixel vertical line under detector 184
Detects a vertical line having a width of one pixel as shown in FIG. 9K using a 3 × 3 pixel matrix. 1 pixel vertical line detector 18
In 4, when all of the following equations (56) to (60) hold, it is determined that there is a vertical line having a width of one pixel as shown in FIG. 9 (k), and E · H in FIG. Are output as pixel values corresponding to the above, and conversely, equations (56) to (6)
If even one of 0) does not hold, it is determined that there is no vertical line of one pixel width as shown in FIG. 9 (k), and a low level is output for each.

【0151】 AVE(PE ,PH )−AVE(PD 、PG )>TH50 …(56) AVE(PE ,PH )−AVE(PF ,PI )>TH50 …(57) MIN(PE ,PH )>TH51 …(58) MAX(PD ,PG )<TH52 …(59) MAX(PF ,PI )<TH52 …(60)AVE (P E , P H ) −AVE (P D , P G )> TH50 (56) AVE (P E , P H ) −AVE (P F , P I )> TH50 (57) MIN (P E , P H )> TH 51 (58) MAX (P D , P G ) <TH 52 (59) MAX (P F , P I ) <TH 52 (60)

【0152】つぎに、1画素左斜線上検出部185に関
して図9を用いて説明する。1画素左斜線上検出部18
5は、3×3画素マトリクスを用いて図9(h)に示す
ような1画素幅の左上がり斜線を検出する。この1画素
左斜線上検出部185では、下記式(61)〜式(6
5)がすべて成立するときは、図9(h)に示すような
1画素幅の左上がり斜線があると判定し、図9(a)の
A・Eに対応する画素値としてそれぞれ高レベルを出力
し、逆に式(61)〜式(65)が1つでも成立しない
ときは、図9(h)に示すような1画素幅の左上がり斜
線は無いと判定し、それぞれ低レベルを出力する。
Next, the one-pixel left oblique line detection unit 185 will be described with reference to FIG. 1 pixel left oblique line detection unit 18
5 detects a left-upward diagonal line having a width of one pixel as shown in FIG. 9H using a 3 × 3 pixel matrix. The one-pixel left-slanting on-line detection unit 185 calculates the following equations (61) to (6).
When all of the conditions 5) are satisfied, it is determined that there is a left-up diagonal line having a width of one pixel as shown in FIG. 9H, and the high level is set as a pixel value corresponding to A and E in FIG. On the contrary, when even one of the expressions (61) to (65) does not hold, it is determined that there is no one-pixel wide leftward oblique line as shown in FIG. I do.

【0153】 AVE(PA ,PE )−AVE(PD ,PG ,PH )>TH53 …(61) AVE(PA ,PE )−AVE(PB ,PC ,PF )>TH53 …(62) MIN(PA ,PE )>TH54 …(63) MAX(PD ,PG ,PH )<TH55 …(64) MAX(PB ,PC ,PF )<TH55 …(65)AVE (P A , P E ) −AVE (P D , P G , P H )> TH 53 (61) AVE (P A , P E ) −AVE (P B , P C , P F )> TH53 ... (62) MIN (P A, P E)> TH54 ... (63) MAX (P D, P G, P H) <TH55 ... (64) MAX (P B, P C, P F) <TH55 ... (65)

【0154】つぎに、1画素左斜線下検出部186に関
して図9を用いて説明する。1画素左斜線下検出部18
6は、3×3画素マトリクスを用いて図9(l)に示す
ような1画素幅の左上がり斜線を検出する。この1画素
左斜線下検出部186では、下記式(66)〜式(7
0)がすべて成立するときは、図9(l)に示すような
1画素幅の左上がり斜線があると判定し、図9(a)の
E・Iに対応する画素値としてそれぞれ高レベルを出力
し、逆に式(66)〜式(70)が1つでも成立しない
ときは、図9(l)に示すような1画素幅の左上がり斜
線は無いと判定し、それぞれ低レベルを出力する。
Next, the one-pixel left oblique line under detection unit 186 will be described with reference to FIG. 1 pixel left oblique line under detection unit 18
6 uses a 3 × 3 pixel matrix to detect a left-upward diagonal line having a width of one pixel as shown in FIG. The one-pixel left-slanting under-detection unit 186 calculates the following equations (66) to (7).
When all of the conditions (0) are satisfied, it is determined that there is an obliquely upward diagonal line having a width of one pixel as shown in FIG. 9 (l), and a high level is set as a pixel value corresponding to E · I in FIG. 9 (a). On the contrary, if even one of the expressions (66) to (70) does not hold, it is determined that there is no left-up diagonal line having a width of one pixel as shown in FIG. I do.

【0155】 AVE(PE ,PI )−AVE(PD ,PG ,PH )>TH56 …(66) AVE(PE ,PI )−AVE(PB ,PC ,PF )>TH56 …(67) MIN(PE ,PI )>TH57 …(68) MAX(PD ,PG ,PH )<TH58 …(69) MAX(PB ,PC ,PF )<TH58 …(70)AVE (P E , P I ) −AVE (P D , P G , P H )> TH56 (66) AVE (P E , P I ) −AVE (P B , P C , P F )> TH56 ... (67) MIN (P E , P I )> TH 57 ... (68) MAX (P D , P G , P H ) <TH58 ... (69) MAX (P B , P C , P F ) <TH58 ... (70)

【0156】つぎに、1画素右斜線上検出部187に関
して図9を用いて説明する。1画素右斜線上検出部18
7は、3×3画素マトリクスを用いて図9(i)に示す
ような1画素幅の右上がり斜線を検出する。この1画素
右斜線上検出部187では、下記式(71)〜式(7
5)がすべて成立するときは、図9(i)に示すような
1画素幅の右上がり斜線があると判定し、図9(a)の
C・Eに対応する画素値としてそれぞれ高レベルを出力
し、逆に式(71)〜式(75)が1つでも成立しない
ときは、図9(i)に示すような1画素幅の右上がり斜
線は無いと判定し、それぞれ低レベルを出力する。
Next, the one-pixel oblique line detection unit 187 will be described with reference to FIG. One pixel right oblique line detector 18
7 detects a right-upward oblique line having a width of one pixel as shown in FIG. 9 (i) using a 3 × 3 pixel matrix. The one-pixel oblique line detection unit 187 calculates the following equations (71) to (7).
When all of the conditions 5) are satisfied, it is determined that there is an oblique line rising to the right with a width of one pixel as shown in FIG. 9 (i), and a high level is set as a pixel value corresponding to CE in FIG. 9 (a). On the contrary, if even one of the equations (71) to (75) does not hold, it is determined that there is no oblique line rising to the right with one pixel width as shown in FIG. I do.

【0157】 AVE(PC ,PE )−AVE(PA ,PB ,PD )>TH59 …(71) AVE(PC ,PE )−AVE(PF ,PH ,PI )>TH59 …(72) MIN(PC ,PE )>TH60 …(73) MAX(PA ,PB ,PD )<TH61 …(74) MAX(PF ,PH ,PI )<TH61 …(75)AVE (P C , P E ) −AVE (P A , P B , P D )> TH59 (71) AVE (P C , P E ) −AVE (P F , P H , P I )> TH59 ... (72) MIN (P C, P E)> TH60 ... (73) MAX (P A, P B, P D) <TH61 ... (74) MAX (P F, P H, P I) <TH61 ... (75)

【0158】つぎに、1画素右斜線下検出部188に関
して図9を用いて説明する。1画素右斜線下検出部18
8は、3×3画素マトリクスを用いて図9(m)に示す
ような1画素幅の右上がり斜線を検出する。この1画素
右斜線下検出部188では、下記式(76)〜式(8
0)がすべて成立するときは、図9(m)に示すような
1画素幅の右上がり斜線があると判定し、図9(a)の
E・Gに対応する画素値としてそれぞれ高レベルを出力
し、逆に式(76)〜式(80)が1つでも成立しない
ときは、図9(m)に示すような1画素幅の右上がり斜
線は無いと判定し、それぞれ低レベルを出力する。
Next, the one-pixel right oblique line lower detection section 188 will be described with reference to FIG. 1 pixel right oblique line under detection unit 18
Numeral 8 detects a right-upward oblique line having a width of one pixel as shown in FIG. 9 (m) using a 3 × 3 pixel matrix. The one pixel right oblique line under detection unit 188 calculates the following equations (76) to (8).
If all of the conditions (0) are satisfied, it is determined that there is an oblique line rising to the right with a width of one pixel as shown in FIG. 9 (m), and a high level is set as a pixel value corresponding to EG in FIG. 9 (a). On the contrary, if even one of the equations (76) to (80) does not hold, it is determined that there is no oblique line rising to the right with one pixel width as shown in FIG. I do.

【0159】 AVE(PE ,PG )−AVE(PA ,PB ,PD )>TH62 …(76) AVE(PE ,PG )−AVE(PF ,PH ,PI )>TH62 …(77) MIN(PE ,PG )>TH63 …(78) MAX(PA ,PB ,PD )<TH64 …(79) MAX(PF ,PH ,PI )<TH64 …(80)AVE (P E , P G ) −AVE (P A , P B , P D )> TH62 (76) AVE (P E , P G ) −AVE (P F , P H , P I )> TH62 ... (77) MIN (P E, P G)> TH63 ... (78) MAX (P A, P B, P D) <TH64 ... (79) MAX (P F, P H, P I) <TH64 ... (80)

【0160】つぎに、2画素横線左検出部189に関し
て、図14を用いて説明する。2画素横線左検出部18
9は、4×4画素マトリクスを用いて図14(f)に示
すような2画素幅の横線を検出する。今、4×4画素を
図14(a)に示すようにJ〜Yで呼ぶこととし、それ
ぞれの画素値をPJ 〜PY とする。この2画素横線左検
出部189では、下記式(81)〜式(85)がすべて
成立するときは、図14(f)に示すような2画素幅の
横線があると判定し、図14(a)のN・O・P・R・
S・Tに対応する画素値としてそれぞれ高レベルを出力
し、逆に式(81)〜式(85)が1つでも成立しない
ときは、図14(f)に示すような2画素幅の横線は無
いと判定し、それぞれ低レベルを出力する。
Next, the two-pixel horizontal line left detector 189 will be described with reference to FIG. 2-pixel horizontal line left detector 18
No. 9 detects a horizontal line having a width of two pixels as shown in FIG. 14F using a 4 × 4 pixel matrix. Now, 4 × 4 pixels are called J to Y as shown in FIG. 14A, and their pixel values are set to P J to P Y. When all of the following equations (81) to (85) hold, the two-pixel horizontal line left detection unit 189 determines that there is a horizontal line having a two-pixel width as shown in FIG. a) N ・ O ・ P ・ R ・
A high level is output as a pixel value corresponding to S · T. Conversely, if even one of the equations (81) to (85) does not hold, a horizontal line having a width of two pixels as shown in FIG. Are determined to be absent, and each outputs a low level.

【0161】 AVE(PN ,PO ,PP ,PR ,PS ,PT ) −AVE(PJ ,PK ,PL )>TH65 …(81) AVE(PN ,PO ,PP ,PR ,PS ,PT ) −AVE(PV ,PW ,PX )>TH65 …(82) MIN(PN ,PO ,PP ,PR ,PS ,PT )>TH66 …(83) MAX(PJ ,PK ,PL )<TH67 …(84) MAX(PV ,PW ,PX )<TH67 …(85)AVE (P N , P O , P P , P R , P S , P T ) −AVE (P J , P K , P L )> TH65 (81) AVE (P N , P O , P P , P R , P S , P T ) −AVE (P V , P W , P X )> TH65 (82) MIN (P N , P O , P P , P R , P S , P T )> TH66 ... (83) MAX (P J, P K, P L) <TH67 ... (84) MAX (P V, P W, P X) <TH67 ... (85)

【0162】つぎに、2画素横線右検出部190に関し
て図14を用いて説明する。2画素横線右検出部190
は、4×4画素マトリクスを用いて図14(j)に示す
ような2画素幅の横線を検出する。この2画素横線右検
出部190では、下記式(86)〜式(90)がすべて
成立するときは、図14(j)に示すような2画素幅の
横線があると判定し、図14(a)のO,P・Q・S・
T・Uに対応する画素値としてそれぞれ高レベルを出力
し、逆に式(86)〜式(90)が1つでも成立しない
ときは、図14(j)に示すような2画素幅の横線は無
いと判定し、それぞれ低レベルを出力する。
Next, the two-pixel horizontal line right detector 190 will be described with reference to FIG. Two pixel horizontal line right detector 190
Detects a horizontal line having a width of two pixels as shown in FIG. 14 (j) using a 4 × 4 pixel matrix. When all of the following equations (86) to (90) hold, the two-pixel horizontal line right detection unit 190 determines that there is a horizontal line having a two-pixel width as shown in FIG. a) O, P, Q, S,
A high level is output as a pixel value corresponding to TU, and conversely, if at least one of Equations (86) to (90) does not hold, a horizontal line having a width of two pixels as shown in FIG. Is determined to be absent, and a low level is output for each.

【0163】 AVE(PO ,PP ,PR ,PS ,PT ,PU ) −AVE(PK ,PL ,PM )>TH68 …(86) AVE(PO ,PP ,PR ,PS ,PT ,PU ) −AVE(PW ,PX ,PY )>TH68 …(87) MIN(PO ,PP ,PR ,PS ,PT ,PU )>TH69 …(88) MAX(PK ,PL ,PM )<TH70 …(89) MAX(PW ,PX ,PY )<TH70 …(90)[0163] AVE (P O, P P, P R, P S, P T, P U) -AVE (P K, P L, P M)> TH68 ... (86) AVE (P O, P P, P R , P S , P T , P U ) −AVE (P W , P X , P Y )> TH68 (87) MIN (P O , P P , P R , P S , P T , P U )> TH69 (88) MAX (P K , P L , P M ) <TH 70 (89) MAX (P W , P X , P Y ) <TH 70 (90)

【0164】つぎに、2画素縦線上検出部191に関し
て図14を用いて説明する。2画素縦線上検出部191
は、4×4画素マトリクスを用いて図14(g)に示す
ような2画素幅の縦線を検出する。この2画素縦線上横
出部191では、下記式(91)〜式(95)がすべて
成立するとき、図14(g)に示すような2画素幅の縦
線があると判定し、図14(a)のK・L・O・P・S
・Tに対応する画素値としてそれぞれ高レベルを出力
し、逆に式(91)〜式(95)が1つでも成立しない
ときは、図14(g)に示すような2画素幅の縦線は無
いと判定し、それぞれ低レベルを出力する。
Next, the two-pixel vertical line detector 191 will be described with reference to FIG. 2-pixel vertical line detection unit 191
Detects a vertical line having a width of two pixels as shown in FIG. 14 (g) using a 4 × 4 pixel matrix. When all of the following equations (91) to (95) hold, the two-pixel vertical line upper / lower portion 191 determines that there is a vertical line having a two-pixel width as shown in FIG. (A) KLOPS
A high level is output as a pixel value corresponding to T, and conversely, if at least one of Equations (91) to (95) does not hold, a vertical line having a width of two pixels as shown in FIG. Is determined to be absent, and a low level is output for each.

【0165】 AVE(PK ,PL ,PO ,PP ,PS ,PT ) −AVE(PJ ,PN ,PR )>TH71 …(91) AVE(PK ,PL ,PO ,PP ,PS ,PT ) −AVE(PM ,PQ ,PU )>TH71 …(92) MIN(PK ,PL ,PO ,PP ,PS ,PT )>TH72 …(93) MAX(PJ ,PN ,PR )<TH73 …(94) MAX(PM ,PQ ,PU )<TH73 …(95)AVE (P K , P L , P O , P P , P S , P T ) −AVE (P J , P N , P R )> TH 71 (91) AVE (P K , P L , P O , P P , P S , P T ) −AVE (P M , P Q , P U )> TH 71 (92) MIN (P K , P L , P O , P P , P S , P T )> TH72 ... (93) MAX (P J, P N, P R) <TH73 ... (94) MAX (P M, P Q, P U) <TH73 ... (95)

【0166】つぎに、2画素縦線下検出部192に関し
て図14を用いて説明する。2画素縦線下検出部192
は、4×4画素マトリクスを用いて図14(k)に示す
ような2画素幅の縦線を検出する。この2画素縦線下検
出部192では、下記式(96)〜式(100)がすべ
て成立するときは、図14(k)に示すような2画素幅
の縦線があると判定し、図14(a)のO・P・S・T
・W・Xに対応する画素値としてそれぞれ高レベルを出
力し、逆に式(96)〜式(100)が1つでも成立し
ないときには、図14(k)に示すような2画素幅の縦
線は無いと判定し、それぞれ低レベルを出力する。
Next, the two-pixel vertical line under detection unit 192 will be described with reference to FIG. 2-pixel vertical line under detector 192
Detects a vertical line having a width of two pixels as shown in FIG. 14K using a 4 × 4 pixel matrix. When all of the following equations (96) to (100) hold, the two-pixel vertical line under detection unit 192 determines that there is a two-pixel width vertical line as shown in FIG. 14 ・ a ・ O ・ P ・ S ・ T
A high level is output as a pixel value corresponding to W · X. Conversely, if at least one of Equations (96) to (100) does not hold, a vertical pixel having a width of two pixels as shown in FIG. It is determined that there are no lines, and each outputs a low level.

【0167】 AVE(PO ,PP ,PS ,PT ,PW ,PX ) −AVE(PN ,PR ,PV )>TH74 …(96) AVE(PO ,PP ,PS ,PT ,PW ,PX ) −AVE(PQ ,PU ,PY )>TH74 …(97) MIN(PO ,PP ,PS ,PT ,PW ,PX )>TH75 …(98) MAX(PN ,PR ,PV )<TH76 …(99) MAX(PQ ,PU ,PY )<TH76 …(100)AVE (P O , P P , P S , P T , P W , P X ) −AVE (P N , P R , P V )> TH74 (96) AVE (P O , P P , P S , P T , P W , P X ) −AVE (P Q , P U , P Y )> TH74 (97) MIN (P O , P P , P S , P T , P W , P X )> TH75 ... (98) MAX (P N, P R, P V) <TH76 ... (99) MAX (P Q, P U, P Y) <TH76 ... (100)

【0168】つぎに、2画素左斜線上検出部193に関
して図14を用いて説明する。2画素左斜線上横出部1
93は、4×4画素マトリクスを用いて図14(h)に
示すような2画素幅の左上がり斜線を検出する。この2
画素左斜線上検出部193では、下記式(101)〜式
(105)がすべて成立するときには、図14(h)に
示すような2画素幅の左上がり斜線があると判定し、図
14(a)のJ・K・N・O・P・S・Tに対応する画
素値としてそれぞれ高レベルを出力し、逆に式(10
1)〜式(105)が1つでも成立しないときは、図1
4(h)に示すような2画素幅の左上がり斜線は無いと
判定し、それぞれ低レベルを出力する。
Next, the two-pixel left oblique line detection section 193 will be described with reference to FIG. 2 pixels left diagonal horizontal side 1
Reference numeral 93 uses a 4 × 4 pixel matrix to detect a two-pixel-wide diagonally upward diagonal line as shown in FIG. This 2
When all of the following equations (101) to (105) hold, the pixel left oblique line detection unit 193 determines that there is an obliquely upward diagonal line having a width of two pixels as shown in FIG. a) outputs a high level as a pixel value corresponding to J, K, N, O, P, S, T, respectively.
1) When even one of the expressions (105) does not hold, FIG.
It is determined that there is no diagonal line rising to the left with a width of two pixels as shown in FIG.

【0169】 AVE(PJ ,PK ,PN ,PO ,PP ,PS ,PT ) −AVE(PR ,PV ,PW ,PX )>TH77…(101) AVE(PJ ,PK ,PN ,PO ,PP ,PS ,PT ) −AVE(PL ,PM ,PQ ,PU )>TH77…(102) MIN(PJ ,PK ,PN ,PO ,PP ,PS ,PT )>TH78 …(103) MAX(PR ,PV ,PW ,PX )<TH79 …(104) MAX(PL ,PM ,PQ ,PU )<TH79 …(105)[0169] AVE (P J, P K, P N, P O, P P, P S, P T) -AVE (P R, P V, P W, P X)> TH77 ... (101) AVE (P J , P K , P N , P O , P P , P S , P T ) −AVE (P L , P M , P Q , P U )> TH77 ... (102) MIN (P J , P K , P N , P O , P P , P S , P T )> TH 78 (103) MAX (P R , P V , P W , P X ) <TH 79 (104) MAX (P L , P M , P Q) , P U ) <TH79 (105)

【0170】つぎに、2画素左斜線下検出部194に関
して図14を用いて説明する。2画素左斜線下検出部1
94は、4×4画素マトリクスを用いて図14(l)に
示すような2画素幅の左上がり斜線を検出する。この2
画素左斜線下検出部194では、下記式(106)〜式
(110)がすべて成立するときには、図14(l)に
示すような2画素幅の左上がり斜線があると判定し、図
14(a)のO・P・S・T・U・X・Yに対応する画
素値としてそれぞれ高レベルを出力し、逆に式(10
6)〜式(110)が1つでも成立しないときは、図1
4(l)に示すような2画素幅の左上がり斜線は無いと
判定し、それぞれ低レベルを出力する。
Next, the two-pixel left oblique line under detection unit 194 will be described with reference to FIG. 2-pixel left oblique line under detection unit 1
Reference numeral 94 uses a 4 × 4 pixel matrix to detect an obliquely upward diagonal line having a width of 2 pixels as shown in FIG. This 2
When all of the following equations (106) to (110) are satisfied, the pixel left oblique line under detection unit 194 determines that there is an obliquely upward diagonal line having a width of 2 pixels as shown in FIG. a) output high levels as pixel values corresponding to O, P, S, T, U, X, Y, respectively.
6)-When even one of the expressions (110) does not hold, FIG.
It is determined that there is no two-pixel-width diagonal line as shown in FIG. 4 (l), and outputs a low level.

【0171】 AVE(PO ,PP ,PS ,PT ,PU ,PX ,PY ) −AVE(PN ,PR ,PV ,PW )>TH80…(106) AVE(PO ,PP ,PS ,PT ,PU ,PX ,PY ) −AVE(PK ,PL ,PM ,PQ )>TH80…(107) MIN(PO ,PP ,PS ,PT ,PU ,PX ,PY )>TH81 …(108) MAX(PN ,PR ,PV ,PW )<TH82 …(109) MAX(PK ,PL ,PM ,PQ )<TH82 …(110)[0171] AVE (P O, P P, P S, P T, P U, P X, P Y) -AVE (P N, P R, P V, P W)> TH80 ... (106) AVE (P O , P P , P S , P T , P U , P X , P Y ) −AVE (P K , P L , P M , P Q )> TH80 ... (107) MIN (P O , P P , P S , P T , P U , P X , P Y )> TH 81 (108) MAX (P N , P R , P V , P W ) <TH 82 (109) MAX (P K , P L , P M) , P Q ) <TH82 (110)

【0172】つぎに、2画素右斜線上検出部195に関
して図14を用いて説明する。2画素右斜線上検出部1
95は、4×4画素マトリクスを用いて図14(i)に
示すような2画素幅の右上がり斜線を検出する。この2
画素右斜線上検出部195では、下記式(111)〜式
(115)がすべて成立するときには、図14(i)に
示すような2画素幅の右上がり斜線があると判定し、図
14(a)のL・M・O・P・Q・S・Tに対応する画
素値としてそれぞれ高レベルを出力し、逆に式(11
1)〜式(115)が1つでも成立しないときは、図1
4(i)に示すような2画素幅の右上がり斜線は無いと
判定し、それぞれ低レベルを出力する。
Next, the two-pixel oblique line detection unit 195 will be described with reference to FIG. 2-pixel right oblique line detector 1
Reference numeral 95 denotes a diagonally right-upward diagonal line having a width of two pixels as shown in FIG. 14 (i) using a 4 × 4 pixel matrix. This 2
When all of the following expressions (111) to (115) are satisfied, the pixel right oblique line detection unit 195 determines that there is an upward diagonal line having a width of two pixels as shown in FIG. a) outputs a high level as a pixel value corresponding to L, M, O, P, Q, S, and T, and conversely, formula (11)
1) When even one of the expressions (115) does not hold, FIG.
4 (i), it is determined that there is no upward diagonal line with a width of two pixels, and outputs a low level, respectively.

【0173】 AVE(PL ,PM ,PO ,PP ,PQ ,PS ,PT ) −AVE(PJ ,PK ,PN ,PR )>TH83…(111) AVE(PL ,PM ,PO ,PP ,PQ ,PS ,PT ) −AVE(PW ,PU ,PX ,PY )>TH83…(112) MIN(PL ,PM ,PO ,PP ,PQ ,PS ,PT )>TH84 …(113) MAX(PJ ,PK ,PN ,PR )<TH85 …(114) MAX(PW ,PU ,PX ,PY )<TH85 …(115)AVE (P L , P M , P O , P P , P Q , P S , P T ) −AVE (P J , P K , P N , P R )> TH83 ... (111) AVE (P L , P M , P O , P P , P Q , P S , P T ) −AVE (P W , P U , P X , P Y )> TH83 (112) MIN (P L , P M , P O , P P , P Q , P S , P T )> TH 84 (113) MAX (P J , P K , P N , P R ) <TH 85 (114) MAX (P W , P U , P X) , P Y ) <TH85 (115)

【0174】最後に、2画素右斜線下検出部196に関
して図14を用いて説明する。2画素右斜線下検出部1
96は、4×4画素マトリクスを用いて図14(m)に
示すような2画素幅の右上がり斜線を検出する。この2
画素右斜線下検出部196では、下記式(116)〜式
(120)がすべて成立するときには、図14(m)に
示すような2画素幅の右上がり斜線があると判定し、図
14(a)のO・P・R・S・T・V・Wに対応する画
素値としてそれぞれ高レベルを出力し、逆に式(11
6)〜式(120)が1つでも成立しないときは、図1
4(m)に示すような2画素幅の右上がり斜線は無いと
判定し、それぞれ低レベルを出力する。
Finally, the two-pixel right oblique line under detection unit 196 will be described with reference to FIG. 2-pixel right oblique line under detection unit 1
Reference numeral 96 uses a 4 × 4 pixel matrix to detect a diagonally right-upward diagonal line having a width of two pixels as shown in FIG. This 2
When all of the following equations (116) to (120) hold, the pixel right diagonal underline detection unit 196 determines that there is a diagonally rightward diagonal line having a width of two pixels as shown in FIG. a) outputs a high level as a pixel value corresponding to O, P, R, S, T, V, W, and conversely, formula (11)
6) When any one of the expressions (120) does not hold, FIG.
It is determined that there is no upward slanting line having a width of two pixels as shown in FIG.

【0175】 AVE(PO ,PP ,PR ,PS ,PT ,PV ,PW ) −AVE(PJ ,PK ,PL ,PN )>TH86…(116) AVE(PO ,PP ,PR ,PS ,PT ,PV ,PW ) −AVE(PQ ,PU ,PX ,PY )>TH86…(117) MIN(PO ,PP ,PR ,PS ,PT ,PV ,PW )>TH87 …(118) MAX(PJ ,PK ,PL ,PN )<TH88 …(119) MAX(PQ ,PU ,PX ,PY )<TH88 …(120)AVE (P O , P P , P R , P S , P T , P V , P W ) −AVE (P J , P K , P L , P N )> TH86 (116) AVE (P O , P P , P R , P S , P T , P V , P W ) −AVE (P Q , P U , P X , P Y )> TH86 (117) MIN (P O , P P , P R, P S, P T, P V, P W)> TH87 ... (118) MAX (P J, P K, P L, P N) <TH88 ... (119) MAX (P Q, P U, P X , P Y ) <TH88 (120)

【0176】上述したように、本発明の第2実施形態に
係る像域分離部9によれば、文字・線画・写真・網点等
の混在した画像に対して、絵柄領域中での誤抽出が無
く、また幅の広い領域に連続した領域も抽出しないこと
により、1つの連続領域の中に抽出する箇所と抽出しな
い箇所が混在することが無くなり、かつ入力画像に忠実
に文字・線画を抽出する、高精度な像域分離処理を行う
ことにより、良好な再生画像を得ることが可能となる。
As described above, according to the image area separating unit 9 according to the second embodiment of the present invention, erroneous extraction in a picture area is performed for an image in which characters, line drawings, photographs, halftone dots, and the like are mixed. Because there is no area, and areas that are not continuous are also extracted in a wide area, there is no longer a mixture of places to be extracted and places not to be extracted in one continuous area, and character / line drawings are faithfully extracted from the input image. By performing the high-precision image area separation processing, it is possible to obtain a good reproduced image.

【0177】なお、上記第2実施形態に係る像域分離部
9において、小領域抽出部154がラベル特徴量算出部
161および包含関係判定部162を有する構成の場合
について説明したが、ラベル特徴量算出部161および
包含関係判定部162を省略することも可能である。こ
の場合にも、同様の効果を得ることができる。
In the image area separating unit 9 according to the second embodiment, a case has been described in which the small area extracting unit 154 has the label feature amount calculating unit 161 and the inclusion relation determining unit 162. The calculating unit 161 and the inclusion relation determining unit 162 can be omitted. In this case, the same effect can be obtained.

【0178】[0178]

【発明の効果】以上説明したように、本発明によれば、
文字・線画・写真・網点等の混在した画像に対して、領
域ごとに適した再現処理を行って画像を出力する際に、
入力画像に忠実に文字・線画を抽出し、かつ絵柄領域中
での誤抽出の無い、高精度な画域分離処理を行うことが
できるため、品質の高い画像を得ることができる。
As described above, according to the present invention,
When performing an appropriate reproduction process for each area on an image that contains characters, line drawings, photographs, halftone dots, etc., and outputting the image,
Since high-precision image area separation processing can be performed without extracting characters and line drawings faithfully from an input image and without erroneous extraction in a picture area, a high-quality image can be obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明に係る画像処理装置の基本的な構成を
示すブロック図である。
FIG. 1 is a block diagram illustrating a basic configuration of an image processing apparatus according to the present invention.

【図2】 本発明の第1実施形態に係る像域分離部の構
成を示すブロック図である。
FIG. 2 is a block diagram illustrating a configuration of an image area separation unit according to the first embodiment of the present invention.

【図3】 第1実施形態に係る像域分離部における収縮
処理部の構成の一例を示すブロック図である。
FIG. 3 is a block diagram illustrating an example of a configuration of a contraction processing unit in the image area separation unit according to the first embodiment.

【図4】 第1実施形態に係る像域分離部における膨張
処理部の構成の一例を示すブロック図である。
FIG. 4 is a block diagram illustrating an example of a configuration of an expansion processing unit in the image area separation unit according to the first embodiment.

【図5】 第1実施形態に係る像域分離部におけるシャ
ドー抽出部の構成の一例を示すブロック図である。
FIG. 5 is a block diagram illustrating an example of a configuration of a shadow extraction unit in the image area separation unit according to the first embodiment.

【図6】 第1実施形態に係る像域分離部におけるシャ
ドー抽出部の構成の他の例を示すブロック図である。
FIG. 6 is a block diagram illustrating another example of the configuration of the shadow extraction unit in the image area separation unit according to the first embodiment.

【図7】 第1実施形態に係る像域分離部における線分
抽出部の構成の一例を示すブロック図である。
FIG. 7 is a block diagram illustrating an example of a configuration of a line segment extraction unit in the image area separation unit according to the first embodiment.

【図8】 第1実施形態に係る像域分離部における線抽
出部の構成の一例を示すブロック図である。
FIG. 8 is a block diagram illustrating an example of a configuration of a line extraction unit in the image area separation unit according to the first embodiment.

【図9】 1画素幅の線抽出部で検出する線の種類を説
明する図である。
FIG. 9 is a diagram illustrating types of lines detected by a line extraction unit having a width of one pixel.

【図10】 1画素横線検出部の構成の一例を示すブロ
ック図である。
FIG. 10 is a block diagram illustrating an example of a configuration of a one-pixel horizontal line detection unit.

【図11】 1画素縦線検出部の構成の一例を示すブロ
ック図である。
FIG. 11 is a block diagram illustrating an example of a configuration of a one-pixel vertical line detection unit.

【図12】 1画左斜線検出部の構成の一例を示すブロ
ック図である。
FIG. 12 is a block diagram illustrating an example of a configuration of a one-screen left-diagonal-line detecting unit.

【図13】 1画右斜線検出部の構成の一例を示すブロ
ック図である。
FIG. 13 is a block diagram illustrating an example of a configuration of a one-screen right diagonal line detection unit.

【図14】 2画素幅の線抽出部で検出する線の種類を
説明する図である。
FIG. 14 is a diagram illustrating types of lines detected by a line extraction unit having a width of two pixels.

【図15】 2画素横線検出部の構成の一例を示すブロ
ック図である。
FIG. 15 is a block diagram illustrating an example of a configuration of a two-pixel horizontal line detection unit.

【図16】 2画素縦線検出部の構成の一例を示すブロ
ック図である。
FIG. 16 is a block diagram illustrating an example of a configuration of a two-pixel vertical line detection unit.

【図17】 2画左斜線検出部の構成の一例を示すブロ
ック図である。
FIG. 17 is a block diagram illustrating an example of a configuration of a two-screen left diagonal line detection unit.

【図18】 2画右斜線検出部の構成の一例を示すブロ
ック図である。
FIG. 18 is a block diagram illustrating an example of a configuration of a two-screen right diagonal line detection unit.

【図19】 エッジ抽出部の構成の一例を示すブロック
図である。
FIG. 19 is a block diagram illustrating an example of a configuration of an edge extraction unit.

【図20】 フィルタ係数の一例を示す図である。FIG. 20 is a diagram illustrating an example of a filter coefficient.

【図21】 第1拡大部での処理内容を説明する図であ
る。
FIG. 21 is a diagram for explaining processing in a first enlargement unit.

【図22】 第1拡大部での拡大条件判定を説明する図
である。
FIG. 22 is a diagram for explaining enlargement condition determination in a first enlargement unit.

【図23】 線分補正部の構成の一例を示すブロック図
である。
FIG. 23 is a block diagram illustrating an example of a configuration of a line segment correction unit.

【図24】 本発明の第2実施形態に係る像域分離部の
構成を示すブロック図である。
FIG. 24 is a block diagram illustrating a configuration of an image area separation unit according to a second embodiment of the present invention.

【図25】 第2実施形態に係る像域分離部における線
分抽出部の構成の一例を示すブロック図である。
FIG. 25 is a block diagram illustrating an example of a configuration of a line segment extraction unit in an image area separation unit according to the second embodiment.

【図26】 第2実施形態に係る像域分離部における線
抽出部の構成の一例を示すブロック図である。
FIG. 26 is a block diagram illustrating an example of a configuration of a line extraction unit in an image area separation unit according to the second embodiment.

【図27】 従来技術に係る像域分離部の構成の一例を
示すブロック図である。
FIG. 27 is a block diagram illustrating an example of a configuration of an image area separation unit according to the related art.

【符号の説明】[Explanation of symbols]

1…画像入力部、2…データ記憶部、3…演算処理部、
5…階調補正部、6…色信号変換部、8…画像出力部、
9…像域分離部、11,151…シャドー抽出部、1
2,152…網点抽出部、13,153…線分抽出部、
14,154…小領域抽出部、15,155…線分補正
部、17,158…収縮処理部、18…膨張処理部、1
57…ラベリング部、159…ラベル番号検出記憶部、
160…検出ラベル番号領域除去部、161…2値化部
DESCRIPTION OF SYMBOLS 1 ... Image input part, 2 ... Data storage part, 3 ... Operation processing part,
5: gradation correction section, 6: color signal conversion section, 8: image output section,
9: image area separation unit, 11, 151: shadow extraction unit, 1
2,152: halftone dot extraction unit, 13,153: line segment extraction unit,
14, 154: small area extraction unit, 15, 155: line segment correction unit, 17, 158: contraction processing unit, 18: dilation processing unit, 1
57: labeling unit, 159: label number detection storage unit,
160 ... detection label number area removing section, 161 ... binarization section

フロントページの続き Fターム(参考) 5C076 AA01 AA02 AA14 BA06 CA10 5C077 LL01 LL19 MP02 MP05 MP06 MP07 MP08 NN04 PP01 PP14 PP15 PP19 PP20 PP27 PP28 PP32 PP33 PP36 PP38 PP41 PP43 PP46 PP47 PP49 PP53 PP55 PP58 PP60 PP61 PP68 PQ08 PQ12 PQ20 RR18 RR19 5L096 AA07 BA17 BA18 FA03 FA19 FA42 FA43 FA44 FA54 FA78 GA12 GA21 GA23 GA34 Continued on front page F-term (reference) 5C076 AA01 AA02 AA14 BA06 CA10 5C077 LL01 LL19 MP02 MP05 MP06 MP07 MP08 NN04 PP01 PP14 PP15 PP19 PP20 PP27 PP28 PP32 PP33 PP36 PP38 PP41 PP43 PP46 PP47 PP49 PP53 PP55 PP58 PP60 P61 PP68 P08 P08 RR19 5L096 AA07 BA17 BA18 FA03 FA19 FA42 FA43 FA44 FA54 FA78 GA12 GA21 GA23 GA34

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 画像データを入力する入力手段と、 前記入力手段によって入力された画像データに対して濃
度の濃い領域を抽出するシャドー抽出手段と、 前記入力手段によって入力された画像データに対して網
点で構成された領域を抽出する網点抽出手段と、 前記入力手段によって入力された画像データに対して第
1の所定画素数分の幅の線分を抽出する線分抽出手段
と、 前記シャドー抽出手段によって抽出された領域と前記網
点抽出手段によって抽出された領域とから、第2の所定
画素数分の幅を有する領域を抽出する小領域抽出手段
と、 前記小領域抽出手段によって抽出された領域に基づい
て、前記線分抽出手段によって抽出された線分の補正を
行う線分補正手段とを具備することを特徴とする画像処
理装置。
An input unit for inputting image data; a shadow extracting unit for extracting a region having a high density from the image data input by the input unit; and a shadow extracting unit for inputting image data input by the input unit. Halftone dot extracting means for extracting a region composed of halftone dots, line segment extracting means for extracting a line segment having a width of a first predetermined number of pixels from the image data input by the input means, A small region extracting unit for extracting a region having a width of a second predetermined number of pixels from the region extracted by the shadow extracting unit and the region extracted by the halftone dot extracting unit; An image processing apparatus comprising: a line segment correction unit that corrects a line segment extracted by the line segment extraction unit based on the selected region.
【請求項2】 前記小領域抽出手段は、前記シャドー抽
出手段によって抽出された領域と前記網点抽出手段によ
って抽出された領域とを、画素単位に論理和演算を行う
論理和演算手段と、前記論理和演算手段から出力される
画像データに対して独立する領域ごとに異なるラベルを
付与するラベリング手段と、前記ラベリング手段によっ
て異なるラベルが付加された各ラベル付加領域ごとに、
該ラベル付加領域が前記第2の所定画素数分の幅から構
成される領域であるか否かを判定し、その領域に付加さ
れたラベルを検知するラベル検知手段と、前記ラベル検
知手段によって検知されたラベルに基づいてそのラベル
に対応する独立領域を除去する領域除去手段とを有する
ことを特徴とする請求項1記載の画像処理装置。
2. The small area extracting means performs a logical OR operation on a pixel-by-pixel basis between the area extracted by the shadow extracting means and the area extracted by the halftone dot extracting means; A labeling unit that assigns a different label to each independent region with respect to the image data output from the OR operation unit, and for each label added region to which a different label is added by the labeling unit,
Label detecting means for determining whether or not the label-added area is an area having the width of the second predetermined number of pixels, and detecting the label added to the area by the label detecting means; 2. The image processing apparatus according to claim 1, further comprising an area removing unit configured to remove an independent area corresponding to the label based on the label.
【請求項3】 前記小領域抽出手段はさらに、前記ラベ
リング手段によって異なるラベルが付加された各ラベル
付加領域ごとに、該ラベル付加領域の特徴量を算出する
特徴量算出手段と、前記ラベリング手段によって異なる
ラベルが付加された各ラベル付加領域同士の包含関係を
判定するラベル領域包含関係判定手段とを有し、 前記領域除去手段は、前記ラベル検知手段によって検知
されたラベルに基づいてそのラベルに対応する独立領域
と、該ラベル付加領域が所定の特徴量を有する場合に
は、前記ラベル領域包含関係判定手段の判定結果に基づ
いて該ラベル付加領域が包含する領域とを除去すること
を特徴とする請求項2記載の画像処理装置。
3. The method according to claim 1, wherein the small area extracting means further calculates, for each label added area to which a different label has been added by the labeling means, a feature amount of the label added area; A label region inclusion relationship determining unit that determines an inclusion relationship between the label added regions to which different labels are added, wherein the region removing unit corresponds to the label based on the label detected by the label detecting unit. And, if the label added area has a predetermined feature amount, the area included in the label added area is removed based on the determination result of the label area inclusion relation determining means. The image processing device according to claim 2.
【請求項4】 前記第2の所定画素数分の幅は、前記第
1の所定画素数分の幅に連動してその幅が設定されるこ
とを特徴とする請求項1、請求項2又は請求項3記載の
画像処理装置。
4. The width of the second predetermined number of pixels is set in conjunction with the width of the first predetermined number of pixels. The image processing device according to claim 3.
【請求項5】 前記ラベル特徴量算出手段によって算出
される特徴量は、画素数、領域の位置、領域の大きさ、
ラベル画素密度の少なくとも1つであることを特徴とす
る請求項3記載の画像処理装置。
5. The feature amount calculated by the label feature amount calculating means includes a number of pixels, a position of an area, a size of the area,
4. The image processing apparatus according to claim 3, wherein the density is at least one of label pixel densities.
【請求項6】 前記入力画像データに対して画像変換処
理や画像補正処理を行う際に、前記線分補正手段から出
力される画像データに基づいて、画像変換処理や画像補
正処理、または画像変換係数や画像補正係数を切り替え
ることを特徴とする請求項1又は請求項2記載の画像処
理装置。
6. When performing image conversion processing or image correction processing on the input image data, image conversion processing, image correction processing, or image conversion based on image data output from the line segment correction means. 3. The image processing apparatus according to claim 1, wherein a coefficient or an image correction coefficient is switched.
【請求項7】 入力された画像データに対して濃度の濃
い領域を抽出するシャドー抽出ステップと、 入力された画像データに対して網点で構成された領域を
抽出する網点抽出ステップと、 入力された画像データに対して第1の所定画素数分の幅
の線分を抽出する線分抽出ステップと、 前記シャドー抽出ステップで抽出された領域と前記網点
抽出ステップで抽出された領域とから、第2の所定画素
数分の幅を有する領域を抽出する小領域抽出ステップ
と、 前記小領域抽出ステップで抽出された領域に基づいて、
前記線分抽出ステップで抽出された線分の補正を行う線
分補正ステップとを有することを特徴とする画像処理方
法。
7. A shadow extraction step for extracting a region having a high density from the input image data, a halftone dot extraction step for extracting an area composed of halftone dots from the input image data, A line segment extraction step of extracting a line segment having a width of a first predetermined number of pixels from the extracted image data; and a region extracted in the shadow extraction step and a region extracted in the halftone dot extraction step. Extracting a region having a width corresponding to a second predetermined number of pixels, based on the region extracted in the small region extraction step,
A line segment correction step of correcting the line segment extracted in the line segment extraction step.
【請求項8】 入力された画像データに対して画像変換
処理や画像補正処理を行う際に、前記線分補正ステップ
で補正されて出力される画像データに基づいて、画像変
換処理や画像補正処理、または画像変換係数や画像補正
係数を切り替えることを特徴とする請求項7記載の画像
処理方法。
8. When performing image conversion processing or image correction processing on input image data, image conversion processing or image correction processing is performed based on image data corrected and output in the line segment correction step. 8. The image processing method according to claim 7, wherein an image conversion coefficient or an image correction coefficient is switched.
JP32194399A 1999-11-12 1999-11-12 Image processing unit and image processing method Pending JP2001144954A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32194399A JP2001144954A (en) 1999-11-12 1999-11-12 Image processing unit and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32194399A JP2001144954A (en) 1999-11-12 1999-11-12 Image processing unit and image processing method

Publications (1)

Publication Number Publication Date
JP2001144954A true JP2001144954A (en) 2001-05-25

Family

ID=18138166

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32194399A Pending JP2001144954A (en) 1999-11-12 1999-11-12 Image processing unit and image processing method

Country Status (1)

Country Link
JP (1) JP2001144954A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006071416A (en) * 2004-09-01 2006-03-16 Anritsu Corp Print solder inspection system
JP2008145504A (en) * 2006-12-06 2008-06-26 Nippon Telegr & Teleph Corp <Ntt> Signal feature extracting method, signal feature extracting device, signal feature extracting program, and recording medium thereof
JP2014064195A (en) * 2012-09-21 2014-04-10 Canon Inc Image area determination device, image area determination method, and image processing device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006071416A (en) * 2004-09-01 2006-03-16 Anritsu Corp Print solder inspection system
JP2008145504A (en) * 2006-12-06 2008-06-26 Nippon Telegr & Teleph Corp <Ntt> Signal feature extracting method, signal feature extracting device, signal feature extracting program, and recording medium thereof
JP2014064195A (en) * 2012-09-21 2014-04-10 Canon Inc Image area determination device, image area determination method, and image processing device

Similar Documents

Publication Publication Date Title
JP4423298B2 (en) Text-like edge enhancement in digital images
US5165072A (en) Image processing apparatus which detects a line image
CN107566684B (en) Image processing apparatus, image processing method, and storage medium
JP3918381B2 (en) Image processing apparatus and image processing method
JP6693310B2 (en) Image processing apparatus, image processing method and program
EP3407252B1 (en) Image processing apparatus, image processing method, and storage medium
JP2001144954A (en) Image processing unit and image processing method
JP3142279B2 (en) Halftone dot area separation device
JP2972172B2 (en) Halftone area detection method
JP4057662B2 (en) Image processing apparatus and image processing method
JP4035696B2 (en) Line segment detection apparatus and image processing apparatus
JP3245600B2 (en) Image processing device
JP3754736B2 (en) Image processing apparatus and method
JP3783815B2 (en) Image processing device
JP2001352453A (en) Image-reproducing device
JP3004244B2 (en) Area separation device
JP2972171B2 (en) Halftone area detection method
JP3070174B2 (en) Image forming device
JP3262834B2 (en) Color image processing equipment
JP2778669B2 (en) Halftone area detection method
JP3245586B2 (en) Pole pixel detection device
JPH08251397A (en) Method and device for image processing
JPH11234512A (en) Image processing unit
JP2724177B2 (en) Halftone area separation method
JP3596962B2 (en) Image processing device