JP3480234B2 - Image processing device - Google Patents

Image processing device

Info

Publication number
JP3480234B2
JP3480234B2 JP08615797A JP8615797A JP3480234B2 JP 3480234 B2 JP3480234 B2 JP 3480234B2 JP 08615797 A JP08615797 A JP 08615797A JP 8615797 A JP8615797 A JP 8615797A JP 3480234 B2 JP3480234 B2 JP 3480234B2
Authority
JP
Japan
Prior art keywords
attribute
image
pixel
boundary
local
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP08615797A
Other languages
Japanese (ja)
Other versions
JPH10285391A (en
Inventor
淳史 石川
順二 西垣
博 杉浦
眞司 山本
Original Assignee
ミノルタ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ミノルタ株式会社 filed Critical ミノルタ株式会社
Priority to JP08615797A priority Critical patent/JP3480234B2/en
Priority to US09/054,210 priority patent/US6157737A/en
Publication of JPH10285391A publication Critical patent/JPH10285391A/en
Application granted granted Critical
Publication of JP3480234B2 publication Critical patent/JP3480234B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、文字画像、網点画
像、又は濃淡画像(写真画像)など、種々の属性の画像
が混在する原稿画像に対し、その属性に応じた適切な画
像処理を行うことのできる画像処理装置に関し、例えば
デジタル複写機などに利用される。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention performs proper image processing according to an attribute of a document image in which images having various attributes such as a character image, a halftone image, or a grayscale image (photographic image) are mixed. The image processing apparatus that can be used is used, for example, in a digital copying machine.

【0002】[0002]

【従来の技術】複写機などで使用される原稿には、文字
画像のみの原稿、写真画像のみの原稿、網点画像のみの
原稿の他、それらが混在している原稿がしばしば用いら
れる。これら種々の画像に対する画像処理は,それぞれ
の特性に適応した処理が望ましい。
2. Description of the Related Art As an original used in a copying machine or the like, an original having only a character image, an original having only a photographic image, an original having only a halftone dot image, and an original having a mixture thereof are often used. It is desirable that the image processing for these various images should be adapted to each characteristic.

【0003】そのためには、原稿画像を、文字/写真/
網点などの属性に応じた領域に分割する領域判別を正確
に行う必要がある。従来の領域判別においては、原稿画
像内の画素毎に、注目画素とその周辺画素との間の濃度
差、注目画素を含む領域内の最大値と最小値との差、又
はヒストグラムなどの濃度情報に基づいて、注目画素の
属性を判定する方法がしばしば用いられている。また、
注目画素を含む領域内の周波数成分からその領域内の属
性を判別する方法も知られている。これらの領域判別の
ために、ニューラルネットがしばしば用いられる。
To do this, the original image is converted into characters / photos /
It is necessary to accurately determine the area to be divided into areas according to attributes such as halftone dots. In the conventional area discrimination, for each pixel in the original image, the density difference between the target pixel and its peripheral pixels, the difference between the maximum value and the minimum value in the area including the target pixel, or density information such as a histogram A method of determining the attribute of the pixel of interest based on the above is often used. Also,
There is also known a method of discriminating an attribute in a region from a frequency component in the region including the pixel of interest. Neural nets are often used to discriminate between these regions.

【0004】[0004]

【発明が解決しようとする課題】ところが、上述した従
来の領域判別方法では、原稿画像内の画素毎の属性、又
は周辺画素を含めた狭い領域の属性を判別するものであ
るため、各領域における属性に誤判別がしばしば発生す
る。
However, in the above-described conventional area discriminating method, the attribute of each pixel in the original image or the attribute of a narrow area including peripheral pixels is discriminated. Misclassifications often occur in attributes.

【0005】そのため、原稿画像における実際の1つの
属性の領域内に、異なる属性であると誤判別された複数
の属性の領域が点在することとなる可能性がある。そう
すると、実際には同一の属性の領域であるにも係わら
ず、誤判別された属性に対応する内容の複数種類の画像
処理が実行されることとなり、誤判別による画質劣化が
生じるという問題があった。
Therefore, there is a possibility that a plurality of attribute areas, which are erroneously discriminated as different attributes, may be scattered within one actual attribute area of the original image. Then, even though the areas actually have the same attribute, a plurality of types of image processing having the content corresponding to the attribute that is erroneously discriminated is executed, which causes a problem that image quality is deteriorated due to erroneous discrimination. It was

【0006】本発明は、上述の問題に鑑みてなされたも
ので、原稿画像に複数種類の画像が存在する場合であっ
ても、それぞれの画像の境界線を抽出することによって
領域判別を正確に行い、各領域に対して属性に応じた適
切な画像処理を行うことのできる画像処理装置を提供す
ることを目的とする。
The present invention has been made in view of the above-mentioned problems, and even when a document image includes a plurality of types of images, it is possible to accurately determine the area by extracting the boundary line of each image. An object of the present invention is to provide an image processing apparatus capable of performing appropriate image processing for each area according to an attribute.

【0007】[0007]

【課題を解決するための手段】請求項1の発明に係る装
置は、入力された画像について画素毎に特徴量を抽出す
る手段と、前記特徴量に基づいて画素毎に属性を判別す
る手段と、属性の境界に位置する画素に対しハフ変換を
適用して直線を検出し、検出した直線によって前記画像
を複数の局所領域に分割し、分割した各局所領域につい
て属性を判別する属性補正手段と、前記局所領域毎にそ
の属性に対応した画像処理を行う手段と、を有して構成
される。
According to another aspect of the present invention, there is provided a device for extracting a feature amount for each pixel of an input image, and a device for determining an attribute for each pixel based on the feature amount. An attribute correction unit that applies a Hough transform to pixels located at the boundary of the attribute to detect a straight line, divides the image into a plurality of local regions by the detected straight line, and determines the attribute for each of the divided local regions. And means for performing image processing corresponding to the attribute of each of the local areas.

【0008】請求項2の発明に係る装置では、前記属性
補正手段は、属性の境界に位置する画素に対しハフ変換
を適用して抽出した線分を前記画像の全体に延長した直
線によって前記画像を複数の局所領域に分割し、分割し
た各局所領域について属性を判別する。 請求項3の発明
に係る装置は、前記属性補正手段において、分割した前
記局所領域内における属性の境界に位置する画素に対し
再度ハフ変換を適用して直線を検出し、検出した直線に
よって当該局所領域を再分割する。請求項の発明に係
る装置では、前記属性補正手段は、画素毎に判別された
属性に基づいて境界に位置する画素である境界点を抽出
する手段と、直交座標平面における前記各境界点に対し
ハフ変換を適用して極座標平面上の曲線に変換する手段
と、極座標平面に変換された各曲線の交点を検出する手
段と、検出された交点の極座標を直交座標平面上の直線
に逆変換することによって境界線を生成する手段と、前
記境界線によって囲まれた領域を局所領域として抽出す
る手段と、前記局所領域毎の属性を判別する手段と、を
有して構成される。
In the apparatus according to the invention of claim 2, the attribute is
The correction means Hough transforms the pixels located at the boundary of the attribute.
To extend the line segment extracted by applying
Divide the image into multiple local regions by lines and divide
The attribute is determined for each local area. Invention of Claim 3
The device relating to
For pixels located at the boundary of the attribute in the local area
The Hough transform is applied again to detect a straight line, and the detected straight line is
Therefore, the local area is subdivided. In the apparatus according to the invention of claim 4, the attribute correction means extracts a boundary point which is a pixel located at a boundary based on the attribute determined for each pixel, and the boundary point on the orthogonal coordinate plane. On the other hand, a means for applying the Hough transform to convert to a curve on the polar coordinate plane, a means for detecting the intersection of each curve converted to the polar coordinate plane, and the inverse conversion of the polar coordinates of the detected intersection to a straight line on the orthogonal coordinate plane. By doing so, it has a unit for generating a boundary line, a unit for extracting a region surrounded by the boundary line as a local region, and a unit for discriminating an attribute for each local region.

【0009】請求項の発明に係る装置は、前記局所領
域毎の属性を、前記画素毎に判別された属性に基づいて
判別する。請求項の発明に係る装置は、前記画素毎の
属性の判別結果に対して雑音の除去の処理を行う手段を
有し、雑音の除去の処理の行われた画素に対して前記ハ
フ変換を適用する。
According to a fifth aspect of the present invention, the attribute of each of the local areas is determined based on the attribute determined for each of the pixels. The apparatus according to the invention of claim 6 has means for performing noise removal processing on the attribute discrimination result for each pixel, and performs the Hough transform on the pixel subjected to noise removal processing. Apply.

【0010】本発明による処理を図7及び図8を参照し
て説明する。図7(A)に概念的に示す原画像RFに対
し画素毎に属性判別を行うと、図7(B)に示すよう
に、領域A1であると判別された画素GA1と領域A2
であると判別された画素GA2とが混在した属性マップ
MP1が得られる。
The process according to the present invention will be described with reference to FIGS. 7 and 8. When attribute determination is performed for each pixel on the original image RF conceptually shown in FIG. 7A, as shown in FIG. 7B, the pixel GA1 and the area A2 which are determined to be the area A1 are displayed.
The attribute map MP1 in which the pixels GA2 determined to be the above are mixed is obtained.

【0011】図7(B)に示す属性マップMP1に対し
雑音除去を施すことによって、図7(C)に示す属性マ
ップMP2が得られる。図8(D)は、図7(C)に示
す属性マップMP2に対して、領域A2と非領域A2と
の境界点GBを抽出した結果を示す境界マップMP3で
ある。
By removing noise from the attribute map MP1 shown in FIG. 7B, an attribute map MP2 shown in FIG. 7C is obtained. FIG. 8D is a boundary map MP3 showing the result of extracting the boundary point GB between the area A2 and the non-area A2 with respect to the attribute map MP2 shown in FIG. 7C.

【0012】境界点GBに対しハフ変換を適用して所定
の長さ以上の線分LB3,LB4を検出した結果が、図
8(E)に示されている。線分LB3,LB4を境界線
として、4つの局所領域AL1〜4に分割されている。
これらの局所領域AL1〜4のそれぞれにおいて、属性
の判別が行われる。
FIG. 8E shows the result of detecting the line segments LB3 and LB4 having a predetermined length or more by applying the Hough transform to the boundary point GB. It is divided into four local regions AL1 to AL4 with the line segments LB3 and LB4 as boundaries.
The attributes are discriminated in each of these local areas AL1 to AL4.

【0013】図8(F)は、各局所領域AL1〜4にお
いて、画素GA1の数と画素GA2の数との多い方の画
素GAの属性を採用した結果を示す。すなわち、局所領
域AL1及び2は領域A1、局所領域AL3及び4は領
域A2となっており、これは原画像RFの実際の領域A
1,A2に近い。
FIG. 8F shows the result of adopting the attribute of the pixel GA having the larger number of pixels GA1 and pixels GA2 in each of the local areas AL1 to AL4. That is, the local areas AL1 and AL2 are areas A1, and the local areas AL3 and AL4 are areas A2, which is the actual area A of the original image RF.
1, close to A2.

【0014】なお、局所領域ALへの分割の際に、分割
された局所領域ALに対し、所定の長さ以上の線分が検
出されなくなるまで、局所領域ALへの分割を再帰的に
行うことも可能である。
When dividing the local area AL, the local area AL is divided into local areas AL recursively until no line segment having a predetermined length or more is detected. Is also possible.

【0015】本発明によると、画素毎の領域判別結果に
対してハフ変換を適用し、画像を複数の局所領域に分割
してそれぞれの局所領域について属性を決定するので、
局所領域内においては同一の属性となって均一な画像処
理が可能となり、誤判別による画質劣化が防止される。
According to the present invention, the Hough transform is applied to the region discrimination result for each pixel, the image is divided into a plurality of local regions, and the attribute is determined for each local region.
In the local area, the same attribute is given to enable uniform image processing, and image quality deterioration due to misjudgment is prevented.

【0016】[0016]

【発明の実施の形態】図1は本発明に係る画像処理部2
3を内蔵した画像読取り装置1の全体の構成を示す図で
ある。
1 is a block diagram of an image processing unit 2 according to the present invention.
3 is a diagram showing an overall configuration of an image reading device 1 having a built-in device 3. FIG.

【0017】図1において、画像読取り装置1は、本体
10、原稿カバー11、原稿載置ガラス12、露光ラン
プ13、ミラー14a,b,c、レンズ15、CCDセ
ンサ16、スライダー駆動部17、操作パネル部21、
制御部22、及び画像処理部23などから構成されてい
る。
In FIG. 1, the image reading apparatus 1 includes a main body 10, a document cover 11, a document placing glass 12, an exposure lamp 13, mirrors 14a, b, c, a lens 15, a CCD sensor 16, a slider driving unit 17, and an operation. Panel section 21,
The control unit 22 and the image processing unit 23 are included.

【0018】原稿載置ガラス12の上に載置された原稿
DRは、露光ランプ13によって照射される。原稿DR
からの反射光は、ミラー14a,b,cによってレンズ
15に導かれ、原稿DRの画像がCCDセンサ16上で
結像する。
The original document DR placed on the original document placement glass 12 is illuminated by the exposure lamp 13. Manuscript DR
The reflected light from is guided to the lens 15 by the mirrors 14a, 14b, 14c, and 14c, and the image of the document DR is formed on the CCD sensor 16.

【0019】露光ランプ13及びミラー14a,b,c
は、スライダー駆動部17によって倍率に応じた速度で
移動され、原稿載置ガラス12の上に載置された原稿D
Rをその全面にわたって走査する。
Exposure lamp 13 and mirrors 14a, b, c
Is moved by the slider driving unit 17 at a speed according to the magnification, and the document D placed on the document placing glass 12 is moved.
Scan R over its entire surface.

【0020】CCDセンサ16に入射した原稿DRの反
射光は、CCDセンサ16によって電気信号である画像
信号SPに変換され、画像処理部23に入力される。画
像処理部23において、画像信号SPに対し、種々のア
ナログ信号処理、A/D変換、及びデジタル画像処理が
順次行われる。画像処理が行われた画像データDOは、
外部機器24、例えば画像メモリ又はプリンタ部へ出力
される。
The reflected light of the document DR incident on the CCD sensor 16 is converted into an image signal SP which is an electric signal by the CCD sensor 16 and is input to the image processing section 23. In the image processing unit 23, various analog signal processing, A / D conversion, and digital image processing are sequentially performed on the image signal SP. The image data DO that has undergone image processing is
It is output to the external device 24, for example, the image memory or the printer unit.

【0021】図2は画像処理部23の構成を示すブロッ
ク図である。画像処理部23は、A/D変換部31、シ
ェーディング補正部32、LOG補正部33、画像格納
部34、領域判別部35、及び画像補正部36から構成
されている。
FIG. 2 is a block diagram showing the arrangement of the image processing section 23. The image processing unit 23 includes an A / D conversion unit 31, a shading correction unit 32, a LOG correction unit 33, an image storage unit 34, an area determination unit 35, and an image correction unit 36.

【0022】CCDセンサ16から出力された画像信号
SPは、A/D変換部31によってデジタル信号である
画像データD1に変換され、シェーディング補正部32
及びLOG補正部33を経て画像格納部34に格納され
る。画像格納部34に格納された画像データD3に基づ
いて、領域判別部35によって局所領域毎の属性が判別
され、属性情報DA2が出力される。画像補正部36に
おいては、領域判別部35における判別結果に応じてパ
ラメータが切り換えられ、画像データD3に対し局所領
域毎にその属性に対応した画像処理が行われる。
The image signal SP output from the CCD sensor 16 is converted into image data D1 which is a digital signal by the A / D converter 31, and the shading correction unit 32.
Then, the image is stored in the image storage unit 34 via the LOG correction unit 33. Based on the image data D3 stored in the image storage unit 34, the area determination unit 35 determines the attribute of each local area, and the attribute information DA2 is output. In the image correction unit 36, the parameters are switched according to the discrimination result in the region discrimination unit 35, and the image data D3 is subjected to the image processing corresponding to the attribute of each local region.

【0023】図3は領域判別部35の構成を示すブロッ
ク図である。領域判別部35は、特徴量抽出部41、属
性判別部42、演算部43、属性格納部44、及び局所
領域属性格納部45から構成される。
FIG. 3 is a block diagram showing the structure of the area discrimination section 35. The area discriminating unit 35 includes a feature amount extracting unit 41, an attribute discriminating unit 42, a calculating unit 43, an attribute storing unit 44, and a local region attribute storing unit 45.

【0024】特徴量抽出部41は、入力された画像デー
タD3について画素毎に特徴量DCを抽出する。特徴量
抽出部41として、例えばラプラシアンフィルタが用い
られる。属性判別部42は、特徴量DCに基づいて画素
毎に属性を判別し、属性情報DA1を出力する。属性情
報DA1は属性格納部44に格納される。
The feature quantity extraction unit 41 extracts the feature quantity DC for each pixel of the input image data D3. A Laplacian filter, for example, is used as the feature quantity extraction unit 41. The attribute discrimination unit 42 discriminates the attribute for each pixel based on the feature amount DC and outputs the attribute information DA1. The attribute information DA1 is stored in the attribute storage unit 44.

【0025】演算部43は、属性情報DA1に基づい
て、局所領域毎の属性を判別する演算を行って補正され
た属性情報DA2を出力する。すなわち、演算部43
は、属性情報DA1に基づいて、属性の境界に位置する
画素に対しハフ変換を適用して直線を検出し、検出した
直線によって画像データD3を複数の局所領域に分割
し、分割した各局所領域について属性を判別する。各局
所領域についての属性が属性情報DAである。局所領域
属性格納部45は属性情報DA2を格納する。演算部4
3及び属性格納部44によって、属性補正部AMが構成
されている。
The calculation unit 43 outputs the corrected attribute information DA2 by performing a calculation for discriminating the attribute for each local area based on the attribute information DA1. That is, the calculation unit 43
On the basis of the attribute information DA1, the Hough transform is applied to the pixels located at the boundary of the attribute to detect a straight line, the image data D3 is divided into a plurality of local regions by the detected straight line, and each of the divided local regions is divided. Determine the attributes for. The attribute for each local area is attribute information DA. The local area attribute storage unit 45 stores the attribute information DA2. Arithmetic unit 4
The attribute correction unit AM is configured by the 3 and the attribute storage unit 44.

【0026】したがって、画像格納部34から読み出さ
れた画像データD3は、特徴量抽出部41において画素
毎の特徴量DCが抽出され,属性判別部42において画
素毎の属性が判別され、得られた属性情報DA1が属性
格納部44に格納される。属性格納部44に格納された
属性情報DA1は演算部43により読み出され、ハフ変
換を適用して局所領域ALの抽出及びその属性の判別が
行われる。判別結果である属性情報DA2は局所領域属
性格納部45に格納される。
Therefore, in the image data D3 read from the image storage unit 34, the feature amount extraction unit 41 extracts the feature amount DC for each pixel, and the attribute determination unit 42 determines the attribute for each pixel and obtains it. The attribute information DA1 is stored in the attribute storage unit 44. The attribute information DA1 stored in the attribute storage unit 44 is read by the calculation unit 43, and Hough transformation is applied to extract the local area AL and determine its attribute. The attribute information DA2 as the determination result is stored in the local area attribute storage unit 45.

【0027】図4は属性補正部AMの構成を機能的に示
すブロック図である。属性補正部AMは、ノイズ除去処
理部51、境界点抽出部52、ハフ変換部53、交点検
出部54、逆変換部55、局所領域抽出部56、及び属
性判別部57から構成される。
FIG. 4 is a block diagram functionally showing the structure of the attribute correction unit AM. The attribute correction unit AM includes a noise removal processing unit 51, a boundary point extraction unit 52, a Hough conversion unit 53, an intersection detection unit 54, an inverse conversion unit 55, a local area extraction unit 56, and an attribute determination unit 57.

【0028】ノイズ除去処理部51は、属性情報DA1
に含まれるノイズを除去するための処理を行う。ノイズ
除去処理部51では、写真画像及び網点画像の候補領域
に対して、候補領域に含まれる小さな面積の他の画像の
候補領域を削除する。例えば、写真画像及び網点画像の
候補領域に含まれる14ポイントの文字サイズ以下の面
積領域を除去する。これによって属性情報DA1aが得
られる。
The noise removal processing section 51 uses the attribute information DA1.
Processing for removing the noise included in. The noise removal processing unit 51 deletes a candidate area of another image having a small area included in the candidate area from the candidate area of the photographic image and the halftone dot image. For example, an area area having a character size of 14 points or less, which is included in the candidate areas of the photographic image and the halftone dot image, is removed. As a result, the attribute information DA1a is obtained.

【0029】境界点抽出部52は、画素毎に判別された
属性の情報である属性情報DA1aに基づいて、境界に
位置する画素である境界点PBを抽出する。ハフ変換部
53は、直交座標平面における各境界点PBに対し、ハ
フ変換(Hough変換)を適用して極座標平面上の曲
線に変換する。交点検出部54は、極座標平面に変換さ
れた各曲線の交点PCを検出する。逆変換部55は、検
出された交点PCの極座標を直交座標平面上の直線に逆
変換することによって境界線LBを生成する。局所領域
抽出部56は、境界線LBによって囲まれた領域を局所
領域ALとして抽出する。
The boundary point extraction unit 52 extracts the boundary point PB which is a pixel located at the boundary based on the attribute information DA1a which is the information of the attribute determined for each pixel. The Hough transform unit 53 applies Hough transform (Hough transform) to each boundary point PB on the orthogonal coordinate plane to transform into a curve on the polar coordinate plane. The intersection detection unit 54 detects the intersection PC of each curve converted into the polar coordinate plane. The inverse conversion unit 55 generates the boundary line LB by inversely converting the detected polar coordinates of the intersection PC into a straight line on the orthogonal coordinate plane. The local area extraction unit 56 extracts the area surrounded by the boundary line LB as the local area AL.

【0030】属性判別部57は、局所領域AL毎の属性
を判別し、その判別結果である属性情報DA2を出力す
る。局所領域AL毎の属性の判別に当たっては、画素毎
に判別された属性が用いられる。例えば、1つの局所領
域AL内において、特定の属性の画素が50パーセント
以上あれば、その画素の属性を局所領域ALの属性とす
る。また、局所領域AL内に3種類以上の属性の画素が
混在する場合には、それらのうちの画素数の最も多い属
性を局所領域ALの属性とする。
The attribute discriminating section 57 discriminates the attribute of each local area AL and outputs the attribute information DA2 which is the discrimination result. In determining the attribute for each local area AL, the attribute determined for each pixel is used. For example, if 50% or more of pixels have a specific attribute in one local area AL, the attribute of that pixel is set as the attribute of the local area AL. When pixels of three or more attributes are mixed in the local area AL, the attribute having the largest number of pixels among them is set as the attribute of the local area AL.

【0031】図5は画像補正部36の構成を示すブロッ
ク図である。図5において、画像補正部36は、変倍/
移動処理部61、MTF補正部62、濃度補正部63、
及び2値化処理部64から構成される。これらの各部に
おいて、それぞれの処理のためのパラメータが、領域判
別部35から出力される属性情報DA2に基づいて設定
される。これによって、局所領域AL毎に、その属性に
対応した画像処理が行われる。例えば、文字領域に対し
てはエッジ強調処理、写真画像に対しては平滑化処理、
網点画像に対してはフィルタリング処理などが行われ
る。
FIG. 5 is a block diagram showing the structure of the image correction section 36. In FIG. 5, the image correction unit 36 displays
Movement processing unit 61, MTF correction unit 62, density correction unit 63,
And a binarization processing unit 64. In each of these units, the parameters for the respective processes are set based on the attribute information DA2 output from the area discrimination unit 35. As a result, image processing corresponding to the attribute is performed for each local area AL. For example, edge enhancement processing for character areas, smoothing processing for photographic images,
Filtering processing is performed on the halftone image.

【0032】次に、領域判別部35の処理動作、特に属
性情報DAの処理動作についてさらに詳しく説明する。
まず、ハフ変換について簡単に説明する。図6はハフ変
換の概念を示す図である。このうち、図6(A)はx−
y空間(直交座標平面)における各点A〜Gの位置を示
し、図6(B)は各点A〜Gをハフ変換によってρ−θ
空間(極座標平面)上に表した曲線を示す。
Next, the processing operation of the area discriminating section 35, particularly the processing operation of the attribute information DA will be described in more detail.
First, the Hough transform will be briefly described. FIG. 6 is a diagram showing the concept of Hough transform. Of these, FIG. 6 (A) shows x−
The positions of the points A to G in the y space (orthogonal coordinate plane) are shown. In FIG. 6B, the points A to G are ρ-θ by Hough transform.
The curve shown on the space (polar coordinate plane) is shown.

【0033】ハフ変換は、画像の中から、直線、円、楕
円などの図形を検出するための方法である。特に、Du
da and Hartの方法による直線検出方法がよ
く用いられており、本実施形態においてもこの方法を用
いる。この方法においては、直線を、 ρ=xcosθ+ysinθ ……(1) で表現する。ここで、ρは原点から直線へ下ろした垂線
の長さ、θは垂線とx軸のなす角度である。
The Hough transform is a method for detecting a figure such as a straight line, a circle or an ellipse from an image. In particular, Du
A straight line detection method by the method of da and Hart is often used, and this method is also used in this embodiment. In this method, the straight line is expressed by ρ = xcos θ + ysin θ (1). Here, ρ is the length of a perpendicular line drawn from the origin to a straight line, and θ is the angle between the perpendicular line and the x-axis.

【0034】図6(A)に示すx−y空間上の点、例え
ばA点(x0 ,y0 )は、(1)式によると、図6
(B)に示すρーθ空間においては、1本の正弦曲線の
軌跡ρ=x0 cosθ+y0 sinθに対応する。
A point on the xy space shown in FIG. 6A, for example point A (x0, y0), is expressed by the equation (1) as shown in FIG.
In the ρ-θ space shown in (B), it corresponds to the locus ρ = x0 cos θ + y0 sin θ of one sine curve.

【0035】これとは逆に、ρ−θ空間における1本の
正弦曲線の軌跡は、x−y空間において(x0 ,y0 )
を通る総ての直線群を表している。したがって、x−y
空間における1本の直線上の各点をそれぞれρ−θ空間
に変換した場合、これらの点からρ−θ空間上に作られ
る各正弦曲線の軌跡は一点で交わることとなる。軌跡の
交わった点を逆変換することによって、x−y空間に1
本の直線が得られる。つまり、この方法によれば、離散
的な点に基づいて、換言すれば直線にとぎれのある場合
であっても、1本の直線を検出することができる。
On the contrary, the locus of one sinusoidal curve in the ρ-θ space is (x0, y0) in the xy space.
Represents all straight lines passing through. Therefore, xy
When each point on one straight line in the space is converted into the ρ-θ space, the loci of the sinusoidal curves formed on the ρ-θ space from these points intersect at one point. By inversely transforming the points at which the trajectories intersect, it becomes 1 in the xy space.
The straight line of the book is obtained. That is, according to this method, one straight line can be detected based on the discrete points, in other words, even if the straight line has a break.

【0036】図6(A)において、x−y空間上の点
A,B,C,Dは1本の直線LB1上の点である。直線
LB1において、θはπ/4である。これらの各点をハ
フ変換によりρ−θ空間上に変換すると、図6(B)に
示すように、それぞれ正弦曲線の軌跡となり、それぞれ
の軌跡は交点αで交わる。
In FIG. 6A, points A, B, C and D on the xy space are points on one straight line LB1. On the straight line LB1, θ is π / 4. When each of these points is transformed into the ρ-θ space by the Hough transform, as shown in FIG. 6B, the loci become sinusoidal curves, and the loci intersect at the intersection α.

【0037】同様に、x−y空間上の点E,B,F,G
は1本の直線LB2上の点である。直線LB2におい
て、θはπ/2である。これらの各点をハフ変換により
ρ−θ空間上に変換すると、図6(B)に示すような正
弦曲線の軌跡となり、それぞれの軌跡は交点βで交わ
る。
Similarly, points E, B, F, G on the xy space
Is a point on one straight line LB2. On the straight line LB2, θ is π / 2. When each of these points is transformed into the ρ-θ space by the Hough transform, a locus of a sinusoidal curve as shown in FIG. 6B is obtained, and the loci intersect at the intersection point β.

【0038】このように、x−y空間において軸に平行
又は垂直な直線は、ρ−θ空間においてはθ=0、π/
2、πの位置に交点がある。したがって、θ=0、π/
2、πの位置に交点があった場合に、その交点をx−y
空間上に逆変換することによって、直線(線分)を求め
ることができる。
Thus, a straight line parallel or perpendicular to the axis in the xy space has θ = 0, π / in the ρ-θ space.
There is an intersection at the 2 and π positions. Therefore, θ = 0, π /
If there is an intersection at the position of 2 or π, the intersection is xy
A straight line (line segment) can be obtained by inversely transforming in space.

【0039】直線を求めるための具体的な手法として
は、原画像から直線の要素候補となる画素位置を検出
し、その画素位置に対応するρ−θ空間上の軌跡の各点
を求める。得られた各点によって、ρ−θ空間における
座標位置に対しカウントアップする。ある閾値以上のカ
ウント値をもつ点(極大値点)が交点であるから、その
極大値点に対し(1)式を用いて逆変換を施すことによ
って、x−y平面上の直線が抽出される。
As a concrete method for obtaining the straight line, the pixel position which is the element candidate of the straight line is detected from the original image, and each point of the locus in the ρ-θ space corresponding to the pixel position is obtained. The obtained points are counted up with respect to the coordinate position in the ρ-θ space. Since a point (maximum value point) having a count value equal to or greater than a certain threshold is an intersection point, a straight line on the xy plane is extracted by performing inverse transformation using the equation (1) on the maximum value point. It

【0040】また、その極大値点を通る軌跡に対応する
x−y平面上の座標位置に基づいて、直線(線分)の長
さが検出される。例えば、図6において、A,B,C,
Dの各点が直線上にあることが検出された場合に、これ
ら4点の中の端の点E及びGを検出し、これら2点間の
距離を測定すればよい。したがって、所定の長さ以上の
線分のみを抽出することが可能である。
Further, the length of the straight line (line segment) is detected based on the coordinate position on the xy plane corresponding to the locus passing through the maximum value point. For example, in FIG. 6, A, B, C,
When it is detected that each point of D is on a straight line, the end points E and G among these four points may be detected and the distance between these two points may be measured. Therefore, it is possible to extract only the line segment having a predetermined length or more.

【0041】次に、画像読取り装置1における属性補正
処理の動作を説明する。図7及び図8は属性補正処理の
動作を概念的に説明するための図である。図7(A)に
は、原稿DRの画像である原画像RFについて、属性の
異なる2つの領域A1及び領域A2の境界部が示されて
いる。なお、領域A1は、領域A2でない領域、つまり
非領域A2である。原画像RFに対し、画素毎に属性判
別を行うと、図7(B)に示すように、領域A1である
と判別された画素GA1と領域A2であると判別された
画素GA2とが混在した属性マップMP1が得られる。
各画素GA1は白色で、各画素GA2は灰色で、それぞ
れ示されている。
Next, the operation of the attribute correction process in the image reading apparatus 1 will be described. 7 and 8 are diagrams for conceptually explaining the operation of the attribute correction processing. FIG. 7A shows a boundary portion between two regions A1 and A2 having different attributes in the original image RF that is the image of the document DR. The area A1 is a non-area A2, that is, a non-area A2. When the attribute determination is performed on the original image RF for each pixel, as shown in FIG. 7B, the pixel GA1 determined to be the area A1 and the pixel GA2 determined to be the area A2 are mixed. The attribute map MP1 is obtained.
Each pixel GA1 is shown in white and each pixel GA2 is shown in gray.

【0042】図7(B)に示す属性マップMP1による
と、一方の領域が他方の領域に入り込んだ状態となって
おり、雑音の混じった状態である。属性マップMP1に
対し雑音除去を施すことによって、図7(C)に示す属
性マップMP2が得られる。雑音除去を施すことによっ
て、境界点の個数が減少して演算時間が低減し、且つ誤
判別も減少する。なお、雑音除去処理の方法として、あ
る所定サイズ以下の面積領域を削除する方法、ある所定
サイズのマトリクス内の属性カウント値に応じて属性マ
ップを補正する方法などがある。
According to the attribute map MP1 shown in FIG. 7B, one area has entered the other area, which is a state in which noise is mixed. By removing noise from the attribute map MP1, the attribute map MP2 shown in FIG. 7C is obtained. By performing the noise removal, the number of boundary points is reduced, the calculation time is reduced, and the misjudgment is also reduced. As a method of noise removal processing, there are a method of deleting an area region having a predetermined size or less, a method of correcting an attribute map according to an attribute count value in a matrix of a predetermined size, and the like.

【0043】図8(D)は、図7(C)に示す属性マッ
プMP2に対して、領域A2と非領域A2との境界点G
Bを抽出した結果を示す境界マップMP3である。なお
境界点GBは画素GA2について検出されており、画素
GA2について、画素GA1との境界部分が境界点GB
として抽出されている。各境界点GBは黒色で示されて
いる。
FIG. 8D shows a boundary point G between the area A2 and the non-area A2 with respect to the attribute map MP2 shown in FIG. 7C.
It is a boundary map MP3 showing the result of extracting B. The boundary point GB is detected for the pixel GA2, and the boundary portion of the pixel GA2 with the pixel GA1 is the boundary point GB.
Has been extracted as. Each boundary point GB is shown in black.

【0044】境界点GBに対しハフ変換を適用して所定
の長さ以上の線分LB3,LB4を検出した結果が、図
8(E)に示されている。線分LB3,LB4を境界線
として、4つの局所領域AL1〜4に分割されている。
これらの局所領域AL1〜4のそれぞれにおいて、属性
の判別が行われる。
FIG. 8E shows the result of detecting the line segments LB3 and LB4 having a predetermined length or more by applying the Hough transform to the boundary point GB. It is divided into four local regions AL1 to AL4 with the line segments LB3 and LB4 as boundaries.
The attributes are discriminated in each of these local areas AL1 to AL4.

【0045】図8(F)は、各局所領域AL1〜4にお
いて、画素GA1の数と画素GA2の数との多い方の画
素GAの属性を採用した結果を示す。すなわち、局所領
域AL1及び2は領域A1、局所領域AL3及び4は領
域A2となっており、これは原画像RFの実際の領域A
1,A2に近い。なお、各局所領域ALの属性を判別す
るに当たって、各局所領域AL内において、それぞれの
画素GA1,GA2の数をカウントし、カウント値の大
きい画素GAの属性を採用すればよい。
FIG. 8F shows the result of adopting the attribute of the pixel GA having the larger number of pixels GA1 and pixels GA2 in each of the local areas AL1 to AL4. That is, the local areas AL1 and AL2 are areas A1, and the local areas AL3 and AL4 are areas A2, which is the actual area A of the original image RF.
1, close to A2. In determining the attribute of each local area AL, the number of pixels GA1 and GA2 in each local area AL may be counted and the attribute of the pixel GA having a large count value may be adopted.

【0046】なお、図8における説明では、局所領域A
Lへの分割を1回のみ行ったが、画像読取り装置1にお
いては、誤判別をできるだけ低減するため、分割された
局所領域ALに対し、所定の長さ以上の線分が検出され
なくなるまで、局所領域ALへの分割を再帰的に行う。
In the description of FIG. 8, the local area A
Although the division into L is performed only once, in the image reading apparatus 1, in order to reduce erroneous determination as much as possible, until the line segment having a predetermined length or more is not detected in the divided local area AL, The division into local areas AL is performed recursively.

【0047】次に、属性補正処理における局所領域AL
の分割方法について詳しく説明する。図9は局所領域A
Lへの分割の方法を概念的に示す図、図10は局所領域
AL内における再度の分割を示す図である。
Next, the local area AL in the attribute correction processing
The division method of will be described in detail. FIG. 9 shows a local area A
FIG. 10 is a diagram conceptually showing a method of division into L, and FIG. 10 is a diagram showing re-division within the local area AL.

【0048】図9(A)に示す原画像RF1は、文字画
像領域A3及び写真画像領域A4を有している。原画像
RF1に対して、先に説明したようにハフ変換を適用し
て境界線LBを引き、図9(B)に示すように境界線L
Bで囲まれた複数の局所領域ALに分割する。ここで、
境界線LBは、所定の長さLG以上の線分を検出した場
合に、その線分を画像全体に延長したものである。さら
に、分割された局所領域AL内において、上述と同様に
再度ハフ変換を適用し、所定の長さLG以上の線分を抽
出する。抽出された線分を境界線LBとし、その局所領
域ALを再分割する。
The original image RF1 shown in FIG. 9A has a character image area A3 and a photographic image area A4. The Hough transform is applied to the original image RF1 as described above to draw the boundary line LB, and as shown in FIG.
It is divided into a plurality of local areas AL surrounded by B. here,
The boundary line LB is an extension of the line segment over the entire image when a line segment having a predetermined length LG or more is detected. Further, in the divided local area AL, the Hough transform is applied again in the same manner as described above, and a line segment having a predetermined length LG or more is extracted. The extracted line segment is used as the boundary line LB, and the local area AL is subdivided.

【0049】図10(A)には、図9(B)に示された
1つの局所領域AL0が示されている。局所領域AL0
は、境界線LB5〜8によって囲まれた領域である。局
所領域AL0内において再分割を行うことによって、2
つの境界線LB9,LB10が抽出され、これによって
図10(B)に示すように4つの局所領域AL00、A
L01、AL10、AL11に分割される。
FIG. 10 (A) shows one local area AL0 shown in FIG. 9 (B). Local area AL0
Is a region surrounded by the boundary lines LB5 to LB8. By performing subdivision in the local area AL0, 2
Boundary lines LB9 and LB10 are extracted, and as a result, four local areas AL00 and A0 are extracted as shown in FIG.
It is divided into L01, AL10, and AL11.

【0050】ここで、ハフ変換の適用により抽出される
線分の長さについて具体例を挙げると、1回目の分割に
おいては、所定の長さLG1を例えば1cmとする。こ
れは、400dpiの密度において約150dotに相
当する。その場合に、2回目の分割においては、所定の
長さLG2を、1cmよりも小さく且つ局所領域ALの
縦及び横の長さについてそれぞれ30%以上とする。な
お、所定の長さLG1を、数mm乃至数cmの範囲の適
当な値に設定してもよい。
Here, as a specific example of the length of the line segment extracted by applying the Hough transform, the predetermined length LG1 is set to, for example, 1 cm in the first division. This corresponds to about 150 dots at a density of 400 dpi. In that case, in the second division, the predetermined length LG2 is smaller than 1 cm and is 30% or more in each of the vertical and horizontal lengths of the local region AL. The predetermined length LG1 may be set to an appropriate value within the range of several mm to several cm.

【0051】分割されたそれぞれの局所領域ALにおい
て、その属性が判別される。図10(B)で明らかなよ
うに、局所領域AL0内において抽出された境界線LB
9,LB10によって分割されるのは、局所領域AL0
の内部のみである。したがって、分割する必要のない局
所領域ALには無駄な分割が行われないので、演算に要
する時間が短縮される。
The attribute of each of the divided local areas AL is determined. As is apparent from FIG. 10B, the boundary line LB extracted in the local area AL0
9 and LB10 divides the local area AL0.
Only inside. Therefore, since unnecessary division is not performed on the local area AL that does not need to be divided, the time required for calculation is shortened.

【0052】上述の実施形態によると、原画像RFに文
字/写真/網点などの複数種類の画像が存在する場合で
あっても、ハフ変換を適用してそれぞれの画像の境界線
LBを抽出することによって領域判別を正確に行い、各
局所領域ALに対して属性に応じた適切な画像処理を行
うことができる。
According to the above-described embodiment, even when the original image RF has a plurality of types of images such as characters / photographs / halftone dots, the Hough transform is applied to extract the boundary line LB of each image. By doing so, it is possible to accurately determine the area and perform appropriate image processing according to the attribute on each local area AL.

【0053】次に、属性補正処理についてフローチャー
トを参照して説明する。図11は属性補正処理の全体を
示すフローチャート、図12はハフ変換による属性判別
処理を示すフローチャート、図13は局所領域分割処理
を示すフローチャートである。
Next, the attribute correction process will be described with reference to the flowchart. FIG. 11 is a flowchart showing the entire attribute correction processing, FIG. 12 is a flowchart showing attribute discrimination processing by Hough transform, and FIG. 13 is a flowchart showing local area division processing.

【0054】図11において、各画素毎に属性を判別し
(#11)、属性マップMPを作成し(#12)、ハフ
変換による属性判別処理を行う(#13)。図12にお
いて、孤立点を除去することにより雑音を取り除いた後
(#21)、境界点GBを検出する(#22)。そして
局所領域分割処理を行い(#23)、属性を決定する
(#24)。
In FIG. 11, the attribute is discriminated for each pixel (# 11), the attribute map MP is created (# 12), and the attribute discrimination processing by Hough conversion is performed (# 13). In FIG. 12, after removing noise by removing isolated points (# 21), the boundary point GB is detected (# 22). Then, local area division processing is performed (# 23), and the attribute is determined (# 24).

【0055】図13において、ハフ変換を行い(#3
1)、一辺の長さが所定の長さLG以上である局所領域
ALに再帰的に分割する(#32)。図14は属性補正
処理の他の例を示すフローチャートである。
In FIG. 13, Hough transformation is performed (# 3
1), it recursively divides into local areas AL whose one side length is equal to or longer than a predetermined length LG (# 32). FIG. 14 is a flowchart showing another example of the attribute correction process.

【0056】図14に示すフローチャートにおいては、
文字画像の領域と写真/網点画像の領域とで属性情報D
Aの補正処理の内容が異なる。各画素毎に属性を判別し
(#41)、属性毎に属性マップMPを作成する(#4
2)。つまり、文字、写真、及び網点の各画像の候補領
域毎に属性マップMPを作成する。
In the flow chart shown in FIG. 14,
Attribute information D between the character image area and the photograph / halftone image area
The contents of the correction process of A are different. The attribute is determined for each pixel (# 41), and the attribute map MP is created for each attribute (# 4).
2). That is, the attribute map MP is created for each candidate area of each image of characters, photographs, and halftone dots.

【0057】写真又は網点の候補領域に対しては(#4
3でノー)、それぞれの属性マップMPについてノイズ
除去処理が行われる(#44)。ここでは、候補領域に
含まれる最大文字サイズ(14ポイント)よりも小さい
面積領域を除去する。これによってノイズの大半が除去
される。そして、境界点抽出処理が行われ(#45)、
局所領域分割処理が行われ(#46)、属性の決定が行
われる(#47)。
For a candidate area of a photograph or a halftone dot (# 4
No in step 3), noise removal processing is performed for each attribute map MP (# 44). Here, the area area smaller than the maximum character size (14 points) included in the candidate area is removed. This removes most of the noise. Then, boundary point extraction processing is performed (# 45),
Local area division processing is performed (# 46), and attributes are determined (# 47).

【0058】文字画像の候補領域に対しては(#43で
イエス)、写真又は網点の領域と重なる部分を削除する
(#48)。ここでの処理は、写真及び網点の領域をス
テップ#47で決定した後に行われる。残った文字画像
の領域について、モホロジー処理の1種であるクロージ
ング(Closing)処理を行う(#49)。クロー
ジング処理では、最大文字サイズ(14ポイント)相当
のディスクフィルタを用い、画像を一旦太らせた後に縮
める処理を行う。
For the candidate area of the character image (Yes in # 43), the portion overlapping the area of the photograph or halftone dot is deleted (# 48). The processing here is performed after the areas of the photograph and the halftone dot are determined in step # 47. The remaining character image area is subjected to a closing process, which is a type of morphology process (# 49). In the closing process, a disk filter corresponding to the maximum character size (14 points) is used, and the image is once thickened and then contracted.

【0059】その後、文字、写真及び網点の各画像の領
域を合成する(#50)。ここでは、画素毎の属性の判
別の精度のよい順、例えば、網点、写真、文字の順に優
先して合成する。つまり、領域が互いに重複する場合に
は、網点、写真、文字の順に優先して領域を確保する。
After that, the areas of the images of characters, photographs and halftone dots are combined (# 50). Here, the pixels are combined with priority in the order in which the attribute of each pixel is accurately determined, for example, in the order of halftone dots, photographs, and characters. That is, when the areas overlap each other, the areas are secured with priority in the order of halftone dots, photographs, and characters.

【0060】写真画像に含まれる髪の毛の画像は、画素
毎の属性判別において文字画像又は網点画像であると誤
判別されることがしばしばあるが、図14のフローチャ
ートによると、それらの領域に対してハフ変換を適用す
ることにより、そのような誤判別が補正され、正しく写
真画像であると判別される。また、文字画像は、その中
に網点画像が含まれていると誤判別されることがある
が、文字画像に対してクロージング処理を行うことによ
り、及び網点画像に対してハフ変換による属性判別処理
を行うことにより、領域が正しく判別される。
The image of hair included in the photographic image is often erroneously determined to be a character image or a halftone dot image in the attribute determination for each pixel, but according to the flowchart of FIG. By applying the Hough transform, such misjudgment is corrected, and it is correctly discriminated as a photographic image. In addition, a character image may be erroneously determined to include a halftone dot image in it, but by performing a closing process on the character image and by applying the Hough transform to the halftone dot image. By performing the discrimination processing, the region is correctly discriminated.

【0061】すなわち、図14のフローチャートによる
と、まず、原画像RFに対して、写真、網点、文字のそ
れぞれの属性を画素毎に判別して属性マップをそれぞれ
生成する。次に、それぞれの属性マップに対して、ハフ
変換による属性補正処理(#46)、ハフ変換以外の処
理による属性補正処理(#49)を行い、これによって
それぞれ補正された属性マップを得る。そして、補正さ
れた属性マップを合成する。
That is, according to the flowchart of FIG. 14, first, for the original image RF, the attributes of a photograph, a halftone dot, and a character are discriminated for each pixel, and an attribute map is generated. Next, the attribute correction process by Hough transform (# 46) and the attribute correction process (# 49) by processes other than the Hough transform are performed on each of the attribute maps to obtain the corrected attribute maps. Then, the corrected attribute map is combined.

【0062】上述の実施形態において、画像補正部3
6、属性補正部AM、又は局所領域属性格納部45の構
成、処理内容、処理順序、処理タイミング、その他、画
像読取り装置1の全体又は各部の構成などは、本発明の
主旨に沿って適宜変更することができる。
In the above embodiment, the image correction section 3
6, the configuration of the attribute correction unit AM or the local area attribute storage unit 45, the processing content, the processing order, the processing timing, and the like, the entire configuration of the image reading apparatus 1 or the configuration of each unit, etc. are appropriately changed according to the gist of the present invention can do.

【0063】[0063]

【発明の効果】請求項1乃至請求項の発明によると、
原稿画像に複数種類の画像が存在する場合であっても、
それぞれの画像の境界線を抽出することによって領域判
別を正確に行い、各領域に対して属性に応じた適切な画
像処理を行うことができる。
According to the inventions of claims 1 to 6 ,
Even if there are multiple types of images in the original image,
By extracting the boundary line of each image, it is possible to accurately perform the region discrimination and perform appropriate image processing according to the attribute on each region.

【0064】請求項の発明によると、全体の処理量が
低減され、処理に要する時間が短縮される。請求項
発明によると、演算時間が低減され誤判別も減少する。
According to the invention of claim 5 , the total processing amount is reduced and the time required for the processing is shortened. According to the invention of claim 6 , the calculation time is reduced and the erroneous discrimination is also reduced.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る画像処理部を内蔵した画像読取り
装置の全体の構成を示す図である。
FIG. 1 is a diagram showing an overall configuration of an image reading apparatus including an image processing unit according to the present invention.

【図2】画像処理部の構成を示すブロック図である。FIG. 2 is a block diagram showing a configuration of an image processing unit.

【図3】領域判別部の構成を示すブロック図である。FIG. 3 is a block diagram showing a configuration of an area determination unit.

【図4】属性補正部の構成を機能的に示すブロック図で
ある。
FIG. 4 is a block diagram functionally showing a configuration of an attribute correction unit.

【図5】画像補正部の構成を示すブロック図である。FIG. 5 is a block diagram showing a configuration of an image correction unit.

【図6】ハフ変換の概念を示す図である。FIG. 6 is a diagram showing a concept of Hough transform.

【図7】属性補正処理の動作を概念的に説明するための
図である。
FIG. 7 is a diagram for conceptually explaining the operation of an attribute correction process.

【図8】属性補正処理の動作を概念的に説明するための
図である。
FIG. 8 is a diagram for conceptually explaining an operation of an attribute correction process.

【図9】局所領域への分割の方法を概念的に示す図であ
る。
FIG. 9 is a diagram conceptually showing a method of dividing into local regions.

【図10】局所領域内における再度の分割を示す図であ
る。
FIG. 10 is a diagram showing another division within a local area.

【図11】属性補正処理の全体を示すフローチャートで
ある。
FIG. 11 is a flowchart showing an entire attribute correction process.

【図12】ハフ変換による属性判別処理を示すフローチ
ャートである。
FIG. 12 is a flowchart showing an attribute discrimination process by Hough transform.

【図13】局所領域分割処理を示すフローチャートであ
る。
FIG. 13 is a flowchart showing local area division processing.

【図14】属性補正処理の他の例を示すフローチャート
である。
FIG. 14 is a flowchart illustrating another example of attribute correction processing.

【符号の説明】[Explanation of symbols]

36 画像補正部(画像処理を行う手段) 41 特徴量抽出部(画素毎に特徴量を抽出する手段) 42 属性判別部(画素毎に属性を判別する手段) 51 ノイズ除去処理部(雑音の除去の処理を行う手
段) 52 境界点抽出部(境界点を抽出する手段) 53 ハフ変換部(極座標平面上の曲線に変換する手
段) 54 交点検出部(交点を検出する手段) 55 逆変換部(境界線を生成する手段) 56 局所領域抽出部(局所領域として抽出する手段) 57 属性判別部(局所領域毎の属性を判別する手段) AM 属性補正部(属性補正手段)
Reference Signs List 36 image correction unit (means for performing image processing) 41 feature amount extraction unit (means for extracting feature amount for each pixel) 42 attribute determination unit (means for determining attribute for each pixel) 51 noise removal processing unit (noise removal) 52 Boundary point extraction unit (Boundary point extraction unit) 53 Hough transform unit (Polar coordinate plane curve conversion unit) 54 Intersection point detection unit (Intersection point detection unit) 55 Inverse conversion unit ( Boundary line generating means) 56 Local area extracting section (extracting means as local area) 57 Attribute discriminating section (meaning for discriminating an attribute for each local area) AM attribute correcting section (attribute correcting means)

───────────────────────────────────────────────────── フロントページの続き (72)発明者 山本 眞司 愛知県豊橋市玉が崎町上原1−3,3− 402 (56)参考文献 特開 平8−202876(JP,A) 特開 平7−212579(JP,A) 特開 平2−84879(JP,A) (58)調査した分野(Int.Cl.7,DB名) H04N 1/40 - 1/409 H04N 1/46 H04N 1/60 ─────────────────────────────────────────────────── ─── Continuation of front page (72) Inventor Shinji Yamamoto 1-3, 3-402 Uehara, Tamagasaki-cho, Toyohashi-shi, Aichi (56) Reference JP-A-8-202876 (JP, A) JP-A-7 -212579 (JP, A) JP-A-2-84879 (JP, A) (58) Fields investigated (Int.Cl. 7 , DB name) H04N 1/40-1/409 H04N 1/46 H04N 1/60

Claims (6)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】入力された画像について画素毎に特徴量を
抽出する手段と、 前記特徴量に基づいて画素毎に属性を判別する手段と、 属性の境界に位置する画素に対しハフ変換を適用して直
線を検出し、検出した直線によって前記画像を複数の局
所領域に分割し、分割した各局所領域について属性を判
別する属性補正手段と、 前記局所領域毎にその属性に対応した画像処理を行う手
段と、 を有してなることを特徴とする画像処理装置。
1. A unit for extracting a feature amount for each pixel of an input image, a unit for discriminating an attribute for each pixel based on the feature amount, and a Hough transform applied to a pixel located at a boundary of the attribute. Then, a straight line is detected, the image is divided into a plurality of local regions by the detected straight line, and attribute correction means for discriminating an attribute for each divided local region, and image processing corresponding to the attribute for each local region are performed. An image processing apparatus comprising: a means for performing.
【請求項2】前記属性補正手段は、 属性の境界に位置する画素に対しハフ変換を適用して抽
出した線分を前記画像の全体に延長した直線によって前
記画像を複数の局所領域に分割し、分割した各局所領域
について属性を判別する、 請求項1記載の画像処理装置。
2.The attribute correction means, Hough transform is applied to the pixels located at the boundary of the attribute to extract
The straight line that extends the entire line of the image
The image is divided into a plurality of local areas, and each divided local area
Determine the attributes for The image processing apparatus according to claim 1.
【請求項3】前記属性補正手段において、 分割した前記局所領域内における属性の境界に位置する
画素に対し再度ハフ変換を適用して直線を検出し、検出
した直線によって当該局所領域を再分割する、 請求項1記載の画像処理装置。
3.In the attribute correction means, Located at the boundary of the attribute in the divided local area
Detect the straight line by applying Hough transform again to the pixel and detect
Subdivide the local area by the straight line, The image processing apparatus according to claim 1.
【請求項4】前記属性補正手段は、 画素毎に判別された属性に基づいて境界に位置する画素
である境界点を抽出する手段と、 直交座標平面における前記各境界点に対しハフ変換を適
用して極座標平面上の曲線に変換する手段と、 極座標平面に変換された各曲線の交点を検出する手段
と、 検出された交点の極座標を直交座標平面上の直線に逆変
換することによって境界線を生成する手段と、 前記境界線によって囲まれた領域を局所領域として抽出
する手段と、 前記局所領域毎の属性を判別する手段と、 を有してなる請求項1記載の画像処理装置。
4. The attribute correcting means extracts a boundary point which is a pixel located at a boundary based on the attribute discriminated for each pixel, and Hough transform is applied to each boundary point on the orthogonal coordinate plane. To convert it to a curve on the polar coordinate plane, to detect the intersection of each curve converted to the polar coordinate plane, and to reverse the polar coordinates of the detected intersection to a straight line on the orthogonal coordinate plane to demarcate the boundary line. The image processing apparatus according to claim 1, further comprising: a unit configured to generate an area, a unit configured to extract a region surrounded by the boundary line as a local region, and a unit configured to determine an attribute of each local region.
【請求項5】前記局所領域毎の属性を、前記画素毎に判
別された属性に基づいて判別する、 請求項1乃至請求項4のいずれかに記載の画像処理装
置。
The attributes of wherein each of the local region, determines based on the determined attributes for each of the pixels, the image processing apparatus according to any one of claims 1 to 4.
【請求項6】前記画素毎の属性の判別結果に対して雑音
の除去の処理を行う手段を有し、 雑音の除去の処理の行われた画素に対して前記ハフ変換
を適用する、 請求項1乃至請求項のいずれかに記載の画像処理装
置。
6. A method for performing noise removal processing on a result of discrimination of the attribute for each pixel, wherein the Hough transform is applied to pixels subjected to noise removal processing. 1 to the image processing apparatus according to claim 5.
JP08615797A 1997-04-04 1997-04-04 Image processing device Expired - Fee Related JP3480234B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP08615797A JP3480234B2 (en) 1997-04-04 1997-04-04 Image processing device
US09/054,210 US6157737A (en) 1997-04-04 1998-04-02 Method of and apparatus for image processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP08615797A JP3480234B2 (en) 1997-04-04 1997-04-04 Image processing device

Publications (2)

Publication Number Publication Date
JPH10285391A JPH10285391A (en) 1998-10-23
JP3480234B2 true JP3480234B2 (en) 2003-12-15

Family

ID=13878914

Family Applications (1)

Application Number Title Priority Date Filing Date
JP08615797A Expired - Fee Related JP3480234B2 (en) 1997-04-04 1997-04-04 Image processing device

Country Status (1)

Country Link
JP (1) JP3480234B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4514168B2 (en) * 2000-03-10 2010-07-28 キヤノン株式会社 Image processing system and image processing method
JP4958538B2 (en) * 2006-12-25 2012-06-20 三星電子株式会社 Image processing apparatus, image processing method, and imaging apparatus
JP5020021B2 (en) * 2007-03-15 2012-09-05 シャープ株式会社 Image processing apparatus, image forming apparatus including the same, image reading apparatus, image processing method, program, and recording medium
JP2010055399A (en) * 2008-08-28 2010-03-11 Musashi Eng Co Ltd Number of bundles detecting device and number of bundles detection method

Also Published As

Publication number Publication date
JPH10285391A (en) 1998-10-23

Similar Documents

Publication Publication Date Title
US6738154B1 (en) Locating the position and orientation of multiple objects with a smart platen
US8457403B2 (en) Method of detecting and correcting digital images of books in the book spine area
JP4261005B2 (en) Region-based image binarization system
JP2986383B2 (en) Method and apparatus for correcting skew for line scan images
JP3372282B2 (en) How to shrink a binary input image
US5418865A (en) Mark sensing on a form
EP1014677B1 (en) An artifact removal technique for skew corrected images
US5892854A (en) Automatic image registration using binary moments
EP2112620A2 (en) Image binarization using dynamic sub-image division
WO2001003416A1 (en) Border eliminating device, border eliminating method, and authoring device
US8064636B2 (en) Image processing apparatus and method of controlling the same
US9332154B2 (en) Image binarization using dynamic sub-image division
JPH0243873A (en) Marker editing method in digital copying machine
JPH0644374A (en) Method of determining whether or not input image is blank
JP3480234B2 (en) Image processing device
JP3726415B2 (en) Image processing method and apparatus
JP3733686B2 (en) Image processing method and apparatus
JP4502001B2 (en) Image processing apparatus and image processing method
JP3582988B2 (en) Non-contact image reader
JP3989341B2 (en) Image processing device
JP3983721B2 (en) Image distortion correction apparatus, image reading apparatus, image forming apparatus, and program
EP0975146B1 (en) Locating the position and orientation of multiple objects with a smart platen
JPH11288453A (en) Method and system for detecting skew angle and black boundary line of original image in scan environment for reproduction
JP7377661B2 (en) Image semantic region segmentation device, region detection sensitivity improvement method, and program
KR100537829B1 (en) Method for segmenting Scan Image

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071010

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081010

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091010

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091010

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101010

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101010

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111010

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111010

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121010

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121010

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131010

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees