JPH07288679A - Image processing unit - Google Patents

Image processing unit

Info

Publication number
JPH07288679A
JPH07288679A JP6077231A JP7723194A JPH07288679A JP H07288679 A JPH07288679 A JP H07288679A JP 6077231 A JP6077231 A JP 6077231A JP 7723194 A JP7723194 A JP 7723194A JP H07288679 A JPH07288679 A JP H07288679A
Authority
JP
Japan
Prior art keywords
block
attribute
image
area
blocks
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6077231A
Other languages
Japanese (ja)
Inventor
Takeshi Ota
健 太田
Kazushige Takano
万滋 高野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP6077231A priority Critical patent/JPH07288679A/en
Priority to US08/422,791 priority patent/US6268935B1/en
Publication of JPH07288679A publication Critical patent/JPH07288679A/en
Pending legal-status Critical Current

Links

Landscapes

  • Facsimile Image Signal Circuits (AREA)

Abstract

PURPOSE:To segment an area and to discriminate the attribute of the area with a small memory capacity at a high speed accurately by discriminating the attribute of each block based on picture element data belonging to each block and discriminating the attribute of the area larger than the block through the use of the discriminated attribute of each block. CONSTITUTION:An image sensor of an image input section 10 reads an original image for each picture element and stores it to a matrix memory 12 via a line buffer 11. Then an original image is divided into blocks of a prescribed size and a characteristic quantity specific to each block is calculated respectively by a dot detection section 13, a MAX-MIN detection section 14 and an average density detection section 15 to discriminate the attribute such as dot, photograph, character and background. After the attribute of each block is decided, a selection section 17 selects a dot block and a photograph block and they are respectively stored in dot/photograph map memories 18, 19. Then an area decided by area rectangular processing sections 22, 23 is segmented and stored in position storage memories 24, 25.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、ファクシミリやデジタ
ル複写機といった読取画像データを処理する装置等に用
いられるもので、さらに詳しくは、1画面中に文字部、
写真部、網点部等が混在する画像データの処理に用いら
れる画像処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention is used in a device for processing read image data such as a facsimile and a digital copying machine. More specifically, a character portion in one screen,
The present invention relates to an image processing device used for processing image data in which a photograph portion, a halftone portion, and the like are mixed.

【0002】[0002]

【従来技術】従来からファクシミリ等においては、文字
原稿である場合は文字に適した画像処理を施し、写真原
稿である場合は写真に適した画像処理を施して送信する
ことによって、どのような原稿であっても元の原稿に近
い再現性を得ることが行われてきた。しかし、1枚の原
稿画像中に文字や写真が混在している場合、文字や写真
領域に対して各々対応した画像処理を施すことが困難で
あるという問題があった。
2. Description of the Related Art Conventionally, in a facsimile or the like, when a document is a text document, image processing suitable for a character is performed, and when it is a photo document, image processing suitable for a photograph is performed and the original document is transmitted. Even so, reproducibility close to that of the original document has been obtained. However, when characters and photographs are mixed in one original image, it is difficult to perform corresponding image processing on the characters and photograph areas.

【0003】この問題を解決するものとして、特開昭6
1−289764号や特開平3−126180号といっ
た従来技術がある。これらは、文字や写真といった各々
の属性に対応した画像処理を施すために、あらかじめ原
稿のどの部分に文字があり、どの部分に写真があるのか
といった判別、いわゆる同じ属性の画像領域を切り出す
処理を施すことを開示している。特開昭61−2897
64号は、ファクシミリを対象にしたものであり、処理
する画像データは2値データである。そして、この2値
データのランレングスを用いて領域の切り出しを行って
いる。特開平3−126180号は、入力された画像デ
ータを最適2値化し、その2値化されたデータから情報
領域を外接矩形により切り出すものである。また、領域
内の黒画素から白画素への反転回数に基づいて属性を判
別している。
As a solution to this problem, Japanese Unexamined Patent Publication No. Sho 6-96
There are conventional techniques such as 1-289764 and JP-A-3-126180. In order to perform image processing corresponding to each attribute such as characters and photos, these processes determine in advance which part of the document contains the character and which part contains the photo, that is, the process of cutting out image areas with the same attributes. The application is disclosed. Japanese Patent Laid-Open No. 61-2897
No. 64 is intended for a facsimile, and the image data to be processed is binary data. Then, the region is cut out using the run length of the binary data. Japanese Unexamined Patent Publication (Kokai) No. 3-126180 is to optimally binarize input image data, and cut out an information area from the binarized data by a circumscribed rectangle. Further, the attribute is determined based on the number of inversions from black pixels to white pixels in the area.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、これら
の従来技術は、領域の切り出しや属性の判別を行う際に
処理するデータが原稿画像全体の画素データであるか
ら、非常に処理に時間がかかるとともに、大容量のメモ
リが必要になるといった欠点がある。また、後者のもの
は、最適2値化をすることにより情報量が欠落し、判別
率が低下するといった欠点もある。本願発明は、上記の
欠点を解消することを目的としている。つまり、領域の
切り出し及びその領域の属性の判別を、少ないメモリで
高速に、かつ、正確に行うことができる画像処理装置を
提供することが、本願発明の目的である。
However, in these conventional techniques, since the data to be processed at the time of cutting out an area or discriminating the attribute is pixel data of the entire original image, it takes a very long time to perform the processing. However, there is a drawback that a large amount of memory is required. In addition, the latter one has a defect that the amount of information is lost due to the optimum binarization and the discrimination rate is lowered. The present invention aims to eliminate the above drawbacks. That is, it is an object of the present invention to provide an image processing apparatus capable of accurately cutting out a region and discriminating an attribute of the region with a small amount of memory at high speed.

【0005】[0005]

【課題を解決するための手段】上記の目的を達成するた
め、本発明の画像処理装置は、原稿画像を画素毎に読み
取って得られた画素データに基づいて画像を処理する画
像処理装置であって、原稿画像を所定のブロックに分割
し、各ブロックに含まれる複数の画素の画素データに基
づいて、各ブロック毎に画像の属性を判別する第1判別
手段と、1つのブロックより大きな領域に含まれる複数
のブロックの属性に応じて、この領域の属性を判別する
第2判別手段とを備えている。第1判別手段は、各ブロ
ックに含まれる複数の画素の画素データから、所定の情
報を演算し、その演算結果に基づいて、各ブロック毎に
画像の属性を判別すればよい。
To achieve the above object, the image processing apparatus of the present invention is an image processing apparatus for processing an image based on pixel data obtained by reading an original image for each pixel. The original image is divided into predetermined blocks, and the first discriminating means for discriminating the image attribute of each block based on the pixel data of a plurality of pixels included in each block, and a region larger than one block. A second discriminating means for discriminating the attribute of this area according to the attributes of the plurality of blocks included therein is provided. The first determining means may calculate predetermined information from pixel data of a plurality of pixels included in each block, and determine the image attribute for each block based on the calculation result.

【0006】また、本発明の画像処理装置は、原稿画像
を画素毎に読み取って得られた画素データに基づいて画
像を処理する画像処理装置であって、原稿画像を所定の
ブロックに分割し、各ブロックに含まれる複数の画素の
画素データに基づいて、各ブロック毎に画像の属性を判
別する判別手段と、同じ属性のブロックがまとまってい
る領域を切り出す切出手段とを備えている。さらに、周
囲のブロックの属性と異なった属性を有するブロックを
検出し、検出されたブロックの属性を周囲のブロックの
属性に基づいて変換した後に、同じ属性のブロックがま
とまっている領域を切り出すようにすればよい。
The image processing apparatus of the present invention is an image processing apparatus that processes an image based on pixel data obtained by reading an original image for each pixel, and divides the original image into predetermined blocks. A determination unit that determines the attribute of the image for each block based on pixel data of a plurality of pixels included in each block, and a cutout unit that cuts out a region where blocks having the same attribute are collected are provided. Furthermore, after detecting a block having an attribute different from the attribute of the surrounding block and converting the attribute of the detected block based on the attribute of the surrounding block, a region in which blocks with the same attribute are collected is cut out. do it.

【0007】[0007]

【作用】上記構成により、各ブロックの属性がその各ブ
ロックに属する画素データに基づいて判別される。つぎ
に、判別された各ブロックの属性を用いて、ブロックよ
り大きな領域の属性が判別される。また、各ブロックの
属性が判別された後、同じ属性のブロックがまとまって
いる領域が切り出される。さらに、ブロックの属性が判
別された後、判別結果が再度確認され、誤判別と見なさ
れたブロックの属性が変更されてから処理が行われれ
ば、より正確に同じ属性のブロックがまとまっている領
域が切り出される。
With the above structure, the attribute of each block is determined based on the pixel data belonging to each block. Next, the attributes of the blocks that are larger than the blocks are determined using the determined attributes of each block. Further, after the attributes of each block are determined, an area in which blocks having the same attributes are collected is cut out. Furthermore, after the block attributes are determined, the determination result is confirmed again, and if the process is performed after the attributes of the blocks that are considered to be erroneous determinations are changed, an area in which blocks with the same attribute are gathered more accurately Is cut out.

【0008】[0008]

【実施例】以下、本発明の実施例について説明する。図
1は、本発明を適用した画像処理装置の構成を示したブ
ロック図である。なお、このブロック図には、各処理部
が記載されているが、各処理部における処理は図示して
いないCPU(中央演算装置)等によって実行される。
まず、画像入力部10において、例えば、主走査方向に
ライン状に並べられたCCD(Charge Coupled Devic
e)等のイメージセンサによって原稿画像が画素毎に読
み取られる。読み取られた画素データは、主走査方向の
1ライン単位でラインバッファ11に入力された後、マ
トリクスメモリ12に記憶される。そして順次、原稿の
副走査が進められることにより、原稿の全画素データが
マトリクスメモリ12に記憶される。なお、画素データ
は、通常256階調(8ビット)で表される。そして、
以降の処理ブロックにおいて、マトリクスメモリ12に
記憶された画素データの処理が行われ、原稿画像が網点
領域、写真領域、文字領域、背景領域といった属性に分
類される。なお、網点領域とは、新聞中の写真のように
網点により表現された画像領域であり、写真領域とは、
中間調濃度でなめらかに表現された画像領域であり、文
字領域とは主に2階調で表現された文字からなる領域で
あり、背景領域とは、原稿の地肌色と同じ色の領域であ
る。そして、本実施例では、原稿画像から網点領域、写
真領域が切り出され、それ以外の領域と区別される。さ
らに、以降の処理においては、図2に示すように、原稿
を仮想的に8×8画素の大きさのブロックに分割し、ブ
ロック単位に処理が進められる。なお、ブロックの大き
さは、8×8画素に限定されるものではなく、他の適当
な大きさ(m×n画素)でも良い。
EXAMPLES Examples of the present invention will be described below. FIG. 1 is a block diagram showing the configuration of an image processing apparatus to which the present invention is applied. Although each processing unit is described in this block diagram, the processing in each processing unit is executed by a CPU (central processing unit) or the like (not shown).
First, in the image input unit 10, for example, CCDs (Charge Coupled Devic) arranged in a line in the main scanning direction are arranged.
The original image is read pixel by pixel by the image sensor such as e). The read pixel data is input to the line buffer 11 for each line in the main scanning direction and then stored in the matrix memory 12. Then, the sub-scanning of the document is sequentially advanced so that all pixel data of the document is stored in the matrix memory 12. The pixel data is usually represented by 256 gradations (8 bits). And
In subsequent processing blocks, the pixel data stored in the matrix memory 12 is processed, and the document image is classified into attributes such as a halftone dot area, a photograph area, a character area, and a background area. The halftone dot area is an image area represented by halftone dots like a photograph in a newspaper, and the photo area is
An image area smoothly expressed by halftone density, a character area is an area mainly composed of characters expressed in two gradations, and a background area is an area having the same color as the background color of the document. . Then, in the present embodiment, the halftone dot area and the photograph area are cut out from the original image and distinguished from the other areas. Further, in the subsequent processing, as shown in FIG. 2, the document is virtually divided into blocks each having a size of 8 × 8 pixels, and the processing proceeds in block units. It should be noted that the size of the block is not limited to 8 × 8 pixels, and may be any other suitable size (m × n pixels).

【0009】まず、各ブロックの属性(網点、写真、文
字、背景)を判別するために、各ブロックに固有の特徴
量が、網点検出部13、MAX−MIN検出部14、平
均濃度検出部15の各々で算出される。網点検出部13
は、各ブロック内に存在する孤立点をカウントするもの
で、各ブロック内の全画素(64画素)に対して、図3
の孤立点カウントフィルタをかける処理がなされる。つ
まり、1ブロックに関し64回この孤立点カウントフィ
ルタを作用させ、以下の判別式を満たす画素数が網点値
Nとして出力される。 X>max(n1、n2、n3、n4) or X<min(n1、n2、n3、n4) なお、原稿の最外郭のブロックに関しては、この孤立点
カウントフィルタを作用させることができなので、それ
らのブロックの網点値Nは0とする。MAX−MIN検
出部14は、各ブロック内における画素濃度の散らばり
具合を見るもので、各ブロック内の最大濃度の画素と最
小濃度の画素間の濃度差Dが演算される。そして、平均
濃度検出部15は、各ブロックの濃度を検出するため
に、64画素の平均濃度Aが演算される。
First, in order to discriminate the attribute (halftone dot, photograph, character, background) of each block, the feature amount peculiar to each block is the halftone dot detecting section 13, MAX-MIN detecting section 14, average density detection. It is calculated by each of the units 15. Halftone dot detector 13
3 counts the isolated points existing in each block. For all the pixels (64 pixels) in each block, FIG.
The process for applying the isolated point count filter is performed. That is, the isolated point count filter is operated 64 times for one block, and the number of pixels satisfying the following discriminant is output as the halftone dot value N. X> max (n1, n2, n3, n4) or X <min (n1, n2, n3, n4) Since the outermost block of the document can be operated by this isolated point count filter, The halftone dot value N of the block is set to 0. The MAX-MIN detection unit 14 looks at the distribution of pixel densities in each block, and the density difference D between the maximum density pixel and the minimum density pixel in each block is calculated. Then, the average density detector 15 calculates the average density A of 64 pixels in order to detect the density of each block.

【0010】以上のように、原稿内の全てのブロック対
して、それぞれ3つのデータ(網点値N、濃度差D、平
均濃度A)が導き出される。これらのデータを用いるこ
とにより、各ブロックの属性を判定部16において判別
する。判別の手順としては、まず網点ブロックを決定す
る。これは、網点画像が、各属性の中で一番特徴的な画
像であり、網点値Nによってのみ確率良く判定されるか
らである(濃度差Dによる判断では、網点と文字の判別
ができない)。網点ブロックの次に文字ブロックが決定
される。文字ブロックは、通常、白黒の2値画像である
から、濃度差Dが大きいブロックを文字ブロックとして
判定する。次に、写真ブロックが決定される。写真ブロ
ックは、濃度差Dがあまり大きくないと考えられるが、
これだけであれば、背景ブロックとの区別がつかないた
め、さらに平均濃度Aがある程度濃いブロックも写真ブ
ロックとして決定する。その後、残ったブロックが背景
ブロックということになる。ただし、背景ブロックは、
通常原稿において、白もしくは色が薄いという前提であ
る。
As described above, three data (halftone dot value N, density difference D, average density A) are derived for all blocks in the document. The determination unit 16 determines the attribute of each block by using these data. As a determination procedure, first, a halftone dot block is determined. This is because the halftone dot image is the most characteristic image among the attributes and can be determined with high probability only by the halftone dot value N (in the determination based on the density difference D, the determination of the halftone dot and the character). Cannot be done). After the halftone dot block, the character block is determined. Since the character block is usually a black and white binary image, a block having a large density difference D is determined as a character block. Next, the photo block is determined. It is considered that the density difference D is not so large in the photo block,
If it is only this, it is indistinguishable from the background block, and therefore, a block in which the average density A is darker to some extent is also determined as a photographic block. After that, the remaining blocks are background blocks. However, the background block is
It is premised that the white or light color is usually present in the original document.

【0011】以上の判定を整理して表すと、以下の判定
式になる。ただし、T1〜T4は、所定の閾値である。 if N>T1 then 網点ブロック else if D>T2 then 文字ブロック else if D>T3 then 写真ブロック (T2>T
3) else if A>T4 then 写真ブロック else 背景ブロック 以上のように各ブロックの属性が決定された後、選択部
17において網点ブロックと写真ブロックが選択され、
各々網点マップメモリ18、写真マップメモリ19に2
値マップとして記憶される。つまり、網点マップメモリ
18には、網点と判断されたブロックに対して「1」が
割り当てられ、それ以外のブロックに対して「0」が割
り当てられる。また、写真マップメモリ19には、写真
と判断されたブロックに対して「1」が割り当てられ、
それ以外のブロックに対して「0」が割り当てられる。
The above judgment can be summarized and expressed as the following judgment formula. However, T1 to T4 are predetermined threshold values. if N> T1 then halftone dot block else if D> T2 then character block else if D> T3 then photo block (T2> T
3) else if A> T4 then photo block else background block After the attributes of each block are determined as described above, the halftone dot block and the photo block are selected in the selection unit 17,
2 in each of the dot map memory 18 and the photo map memory 19
It is stored as a value map. That is, in the halftone dot map memory 18, “1” is assigned to the block determined as the halftone dot, and “0” is assigned to the other blocks. Further, in the photo map memory 19, “1” is assigned to a block determined to be a photo,
“0” is assigned to the other blocks.

【0012】次に、誤判別ブロック訂正部20、21に
おいて、判定部16で判定された結果が間違っていると
思われるブロック、所謂ノイズブロックの訂正を行う。
この訂正は、注目ブロックの周囲のブロックの属性をチ
ェックし、その注目ブロックの属性が周囲のブロックの
属性からかけ離れている場合、その注目ブロックの属性
を周囲の属性に変更することで行われる。本実施例にお
いては、図4に示されるようなフィルタを用いてスムー
ジング処理を施すことによって行われる。つまり、
「0」「1」が割り当てられた網点マップ、写真マップ
に対して各々図4のフィルタを作用させ、中心の注目ブ
ロック値が5/9以上の場合そのブロックを「1」と
し、4/9以下の場合そのブロックを「0」とするよう
に訂正する。
Next, in the erroneously discriminant block correcting units 20 and 21, the block which is judged to be erroneous in the result judged by the judging unit 16, that is, a so-called noise block is corrected.
This correction is performed by checking the attributes of blocks around the block of interest, and if the attributes of the block of interest are far from the attributes of the blocks of interest, change the attributes of the block of interest to the surrounding attributes. In this embodiment, the smoothing process is performed using the filter shown in FIG. That is,
The filter of FIG. 4 is applied to the halftone dot map and the photographic map to which “0” and “1” are assigned, and when the central block value of interest is 5/9 or more, the block is set to “1” and 4 / If it is 9 or less, the block is corrected to be "0".

【0013】以上の処理により、網点ブロック、写真ブ
ロックが決定されたわけである。この後は、各領域矩形
化部22、23において決定された各ブロックのあつま
り(領域)を矩形として切り出すとともに、その位置座
標が各位置保存メモリ24、25に記憶される。以下、
網点領域矩形化部22における具体的な処理について説
明する。なお、写真領域に関する処理は、網点領域に関
する処理と同様であるので省略する。
By the above processing, the halftone dot block and the photographic block are decided. After that, the block (block) of each block determined by the region rectangularization units 22 and 23 is cut out as a rectangle, and the position coordinates thereof are stored in the position storage memories 24 and 25. Less than,
A specific process in the halftone dot area rectangularization unit 22 will be described. Note that the processing regarding the photograph area is the same as the processing regarding the halftone dot area, and is therefore omitted.

【0014】図5(a)は、網点マップ中の網点領域
(図中点々部)を示したものである。この網点領域が図
7のフローチャートの処理に沿って切り出される。ま
ず、ステップS1で、走査ライン中に網点ブロックが存
在していることを示すフラグに0(存在していない場合
フラグ=0で、存在している場合フラグ=1である)を
設定する。次に、ステップS2で網点マップメモリの第
1ラインから1ライン毎に走査していき、ライン中に網
点ブロックが存在するかどうかを調べる(ステップS
3)。ライン中に網点ブロックが存在し、フラグが0で
ある場合(ステップS5)、ステップS6でフラグを1
に設定するとともに現在の走査ラインの位置を領域開始
ラインとして記憶する。
FIG. 5A shows a halftone dot area (dots in the figure) in the halftone dot map. This halftone dot area is cut out in accordance with the processing of the flowchart of FIG. First, in step S1, a flag indicating that a halftone dot block is present in the scanning line is set to 0 (flag = 0 if not present, flag = 1 if present). Next, in step S2, scanning is performed line by line from the first line of the halftone dot map memory to check whether or not there is a halftone dot block in the line (step S2).
3). If a halftone dot block exists in the line and the flag is 0 (step S5), the flag is set to 1 in step S6.
And the current scanning line position is stored as the area start line.

【0015】その後、ライン走査が進み、ステップS3
で、網点ブロックが存在しないラインが検出され、フラ
グが1である場合(ステップS4)、現在の走査ライン
の1ライン前のラインの位置を領域終了ラインとして記
憶する。これで、図5(a)に示されるように領域開始
ラインs1と領域終了ラインe1で囲まれた領域が切り
出される。以後、走査ラインが最終ラインに到達するま
で(ステップS11)走査が進められ、網点領域が存在
する部分が全て切り出される。なお、図5(a)では、
2つ目の領域(領域開始ラインs2と領域終了ラインe
2で囲まれた領域)まで切り出されたことが示されてい
る。
Thereafter, line scanning proceeds, and step S3
Then, if a line in which a halftone dot block does not exist is detected and the flag is 1 (step S4), the position of the line one line before the current scanning line is stored as the region end line. As a result, the area surrounded by the area start line s1 and the area end line e1 is cut out as shown in FIG. After that, the scanning is advanced until the scanning line reaches the final line (step S11), and all the portions where the halftone dot areas are present are cut out. In addition, in FIG.
The second area (area start line s2 and area end line e
It is shown that it has been cut out up to the area surrounded by 2).

【0016】なお、上記のような切り出しにおいては、
切り出された領域の幅(領域開始ラインと領域終了ライ
ン間の長さ)が所定の長さより小さい場合、その切り出
された領域が訂正し切れなかった(誤判別された)網点
ブロックと見なし、切り出さないように処理している
(ステップS8、S9)。次に、上記の処理で切り出さ
れた各領域に対して、図7のフローチャートの処理と同
様の処理を、今度は90度走査方向を変えて行う。その
結果、例えば、領域開始ラインs1と領域終了ラインe
1で囲まれた領域は、図5(b)に示すように、実際の
網点領域(ラインs1、e1、s2、e2で囲まれた領
域)が切り出される。
In the above cutting,
When the width of the cut out area (the length between the area start line and the area end line) is smaller than the predetermined length, the cut out area is regarded as a halftone dot block that has not been completely corrected (misclassified), Processing is performed so as not to cut out (steps S8 and S9). Next, the same processing as the processing of the flowchart of FIG. 7 is performed on each area cut out by the above processing, this time changing the scanning direction by 90 degrees. As a result, for example, the area start line s1 and the area end line e
As shown in FIG. 5B, an actual halftone dot area (area surrounded by lines s1, e1, s2, and e2) is cut out from the area surrounded by 1.

【0017】なお、特異な例として、原稿中の網点領域
が図6(a)に示すような配置になっている場合が考え
られる。このような場合も、基本的に図7のフローチャ
ートによって処理することができる。即ち、上記のよう
に2回の処理を行った結果として切り出された領域(図
6(b)のラインs1、e1、s’2、e’2で囲まれ
た領域)に対して、同様の処理をさらに90度走査方向
を変えて(1回目と同じ方向)行うことによって、実際
の網点領域が切り出されることになる。
As a peculiar example, it is conceivable that the halftone dot areas in the document are arranged as shown in FIG. 6 (a). Even in such a case, the processing can be basically performed according to the flowchart of FIG. 7. That is, the same is applied to the regions (regions surrounded by the lines s1, e1, s'2, and e'2 in FIG. 6B) cut out as a result of performing the processing twice as described above. By further changing the scanning direction by 90 degrees (the same direction as the first time), the actual halftone dot area is cut out.

【0018】以上の通り、網点領域そして写真領域が切
り出された後、それらを合成して1つのビットマップが
合成ビットマップ形成部26で作成される。つまり、各
ブロック2ビットで、即ち、網点ブロックを「01」、
写真ブロックを「10」、その他のブロックを「00」
としてビットマップが作成される。ここで、その他のブ
ロックとは、文字ブロックと背景ブロックが対応する。
文字ブロックと背景ブロックを同一に扱うのは、文字と
文字と間も背景と見ることができ、さらに、後に行われ
る実際の画像の処理において、背景はどのような処理を
施してもあまり問題にならないためである。
As described above, after the halftone dot area and the photograph area are cut out, they are combined and one bitmap is created by the composite bitmap forming unit 26. That is, each block has 2 bits, that is, the halftone dot block is "01",
Photo block is "10", other block is "00"
A bitmap is created as. Here, the other blocks correspond to the character block and the background block.
Treating the character block and the background block as the same can be seen as the background between the characters, and in the actual image processing that will be performed later, the background is not a problem regardless of what processing is performed. This is because it does not happen.

【0019】最終的に作成された属性ブロックのビット
マップを用いて、即ち、原稿画像内の各領域の属性を把
握した上で、マトリクスメモリ12に記憶されている実
際の画素データに対して、各属性に適した処理を施すこ
とによって、高画質化を達成したり、効率のよい画像デ
ータ圧縮を行うことができる。
Using the bitmap of the finally created attribute block, that is, after grasping the attributes of each area in the original image, the actual pixel data stored in the matrix memory 12 is By performing processing suitable for each attribute, high image quality can be achieved and efficient image data compression can be performed.

【0020】上記実施例においては、マトリクスメモリ
12に一画面分の画素データを記憶した後に、属性判別
等の処理を行ったが、本願発明はこれに限定されるもの
ではない。例えば、一画面分の画素データを記憶できる
ような大きな容量のマトリクスメモリを使用しないで、
7×7の孤立点カウントフィルタを適用できる程度の大
きさ(例えば、14×14画素)の画素データを記憶で
きる程度のマトリクスメモリを使用してもよい。この場
合、14ライン×14列ずつの画素データがマトリクス
メモリに記憶される毎にリアルタイムで対応ブロックの
属性が判別され、判別結果が各属性に対応したビットマ
ップメモリに順次記憶されている。
In the above embodiment, the process of attribute discrimination and the like is performed after the pixel data for one screen is stored in the matrix memory 12, but the present invention is not limited to this. For example, without using a large-capacity matrix memory that can store pixel data for one screen,
A matrix memory that can store pixel data having a size (for example, 14 × 14 pixels) that can be applied to a 7 × 7 isolated point count filter may be used. In this case, the attribute of the corresponding block is determined in real time every time the pixel data of 14 lines × 14 columns is stored in the matrix memory, and the determination result is sequentially stored in the bitmap memory corresponding to each attribute.

【0021】ただし、この場合、ラインバッファは少な
くとも13ライン分の画素データを記憶可能な容量を持
っていなければならない。さらに、このようにして全体
画像の属性を判断した場合、その結果を用いて実際の画
素データに適当な画像処理を施す段階には、もう一度原
稿画像の読み取りが必要になる。さらに別の方法とし
て、原稿の1/4程度の画素データを記憶可能なマトリ
クスメモリを用いて処理を行うことも考えられる。この
場合、属性判別や領域の切り出し処理と同時に実際の画
像データに施す画像処理も1/4原稿の単位で行って行
けば、上述のように原稿を再度読み取り直すことなし
に、全ての処理が可能となる。
However, in this case, the line buffer must have a capacity capable of storing at least 13 lines of pixel data. Further, when the attributes of the entire image are determined in this way, it is necessary to read the original image again at the stage of performing appropriate image processing on the actual pixel data using the result. As another method, it is possible to use a matrix memory capable of storing pixel data of about 1/4 of the original document for processing. In this case, if the image processing to be performed on the actual image data at the same time as the attribute determination and the region cutting processing is performed in the unit of 1/4 original, all the processing can be performed without rereading the original as described above. It will be possible.

【0022】[0022]

【発明の効果】以上の説明から明らかなように、本発明
によれば、まず仮想のブロック単位で画像の属性判別を
行い、その後の領域の切り出しやその領域の属性判別と
いった処理を各ブロックの属性情報を用いて行う。その
ために扱うデータが全ブロック数程度と非常に少なくな
るため、使用するメモリ量が非常に少なくて済むととも
に、高速な処理が可能になる。また、各ブロックの属性
判別は、各画素データを使用して行われるため、判別の
正確さも十分に維持されている。さらに、一旦判別され
たブロックの属性は、周囲のブロックの属性を加味して
再度訂正されるため、最終的な属性判別の結果は一層正
確なものになる。
As is apparent from the above description, according to the present invention, image attribute determination is first performed in virtual block units, and thereafter, processing such as region extraction and attribute determination for that region is performed for each block. It uses attribute information. Therefore, the amount of data to be handled is very small, that is, the total number of blocks, so that the amount of memory used is very small and high-speed processing is possible. Further, since the attribute determination of each block is performed using each pixel data, the accuracy of the determination is sufficiently maintained. Further, the attribute of the block once discriminated is corrected again in consideration of the attributes of the surrounding blocks, so that the final attribute discrimination result becomes more accurate.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の画像処理装置の構成を示すブロック図FIG. 1 is a block diagram showing a configuration of an image processing apparatus of the present invention.

【図2】ブロックに分割された原稿を示す図FIG. 2 is a diagram showing a document divided into blocks.

【図3】孤立点カウントフィルタを示す図FIG. 3 is a diagram showing an isolated point count filter.

【図4】誤判別抽出用フィルタを示す図FIG. 4 is a diagram showing an erroneous discrimination extraction filter.

【図5】切り出される領域を示す模式図FIG. 5 is a schematic diagram showing a region to be cut out.

【図6】切り出される領域を示す模式図FIG. 6 is a schematic diagram showing a region to be cut out.

【図7】領域の切り出し処理を示すフローチャートFIG. 7 is a flowchart showing a region cutting process.

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 原稿画像を画素毎に読み取って得られた
画素データに基づいて画像を処理する画像処理装置にお
いて、 原稿画像を所定のブロックに分割し、各ブロックに含ま
れる複数の画素の画素データに基づいて、各ブロック毎
に画像の属性を判別する第1判別手段と、 1つのブロックより大きな領域に含まれる複数のブロッ
クの属性に応じて、この領域の属性を判別する第2判別
手段と、 を備えたことを特徴とする画像処理装置。
1. An image processing apparatus for processing an image based on pixel data obtained by reading an original image for each pixel, wherein the original image is divided into predetermined blocks, and pixels of a plurality of pixels included in each block are divided. First discriminating means for discriminating the attribute of the image for each block based on the data, and second discriminating means for discriminating the attribute of this area according to the attributes of a plurality of blocks included in an area larger than one block. An image processing apparatus comprising:
【請求項2】 第1判別手段は、各ブロックに含まれる
複数の画素の画素データから、所定の情報を演算し、そ
の演算結果に基づいて、各ブロック毎に画像の属性を判
別する請求項1記載の画像処理装置。
2. The first discriminating means calculates predetermined information from pixel data of a plurality of pixels included in each block, and discriminates an image attribute for each block based on the calculation result. 1. The image processing device according to 1.
【請求項3】 原稿画像を画素毎に読み取って得られた
画素データに基づいて画像を処理する画像処理装置にお
いて、 原稿画像を所定のブロックに分割し、各ブロックに含ま
れる複数の画素の画素データに基づいて、各ブロック毎
に画像の属性を判別する判別手段と、 同じ属性のブロックがまとまっている領域を切り出す切
出手段と、 を備えたことを特徴とする画像処理装置。
3. An image processing apparatus for processing an image based on pixel data obtained by reading an original image for each pixel, wherein the original image is divided into predetermined blocks, and pixels of a plurality of pixels included in each block are divided. An image processing apparatus comprising: a discriminating unit that discriminates an image attribute for each block based on data; and a cutting unit that cuts out a region in which blocks having the same attribute are collected.
【請求項4】 周囲のブロックの属性と異なった属性を
有するブロックを検出する検出手段と、 検出されたブロックの属性を、周囲のブロックの属性に
基づいて変換する変換手段と、を有し、 切出手段は、変換手段によって変換された後、同じ属性
のブロックがまとまっている領域を切り出す請求項3記
載の画像処理装置。
4. A detection means for detecting a block having an attribute different from an attribute of a surrounding block, and a conversion means for converting the attribute of the detected block based on the attribute of the surrounding block, The image processing apparatus according to claim 3, wherein the cutout unit cuts out an area in which blocks having the same attribute are collected after being converted by the conversion unit.
JP6077231A 1994-04-15 1994-04-15 Image processing unit Pending JPH07288679A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP6077231A JPH07288679A (en) 1994-04-15 1994-04-15 Image processing unit
US08/422,791 US6268935B1 (en) 1994-04-15 1995-04-17 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6077231A JPH07288679A (en) 1994-04-15 1994-04-15 Image processing unit

Publications (1)

Publication Number Publication Date
JPH07288679A true JPH07288679A (en) 1995-10-31

Family

ID=13628095

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6077231A Pending JPH07288679A (en) 1994-04-15 1994-04-15 Image processing unit

Country Status (1)

Country Link
JP (1) JPH07288679A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6463183B2 (en) 1998-07-03 2002-10-08 Fujitsu Limited Image data processing method and apparatus and storage medium
US6735341B1 (en) 1998-06-18 2004-05-11 Minolta Co., Ltd. Image processing device and method and recording medium for recording image processing program for same
JP2006134255A (en) * 2004-11-09 2006-05-25 Sharp Corp Image retrieving apparatus, image forming apparatus, image retrieving method, image retrieving program, and computer readable recording medium
JP2008067251A (en) * 2006-09-11 2008-03-21 Fuji Xerox Co Ltd Image attribute discriminating apparatus and image attribute discrimination program
US7365880B2 (en) 2003-04-04 2008-04-29 Kabushiki Kaisha Toshiba Image processing apparatus and image processing method
JP2010130214A (en) * 2008-11-26 2010-06-10 Ricoh Co Ltd Image processing apparatus, image processing method, and program
JP2011034391A (en) * 2009-08-03 2011-02-17 Ihi Corp Method of dividing texture regions with different granularities
JP2013031105A (en) * 2011-07-29 2013-02-07 Brother Ind Ltd Image processor and image processing program
JP2013186610A (en) * 2012-03-07 2013-09-19 Nikon Systems Inc Character extraction device and character extraction program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6735341B1 (en) 1998-06-18 2004-05-11 Minolta Co., Ltd. Image processing device and method and recording medium for recording image processing program for same
US6463183B2 (en) 1998-07-03 2002-10-08 Fujitsu Limited Image data processing method and apparatus and storage medium
US7365880B2 (en) 2003-04-04 2008-04-29 Kabushiki Kaisha Toshiba Image processing apparatus and image processing method
JP2006134255A (en) * 2004-11-09 2006-05-25 Sharp Corp Image retrieving apparatus, image forming apparatus, image retrieving method, image retrieving program, and computer readable recording medium
JP2008067251A (en) * 2006-09-11 2008-03-21 Fuji Xerox Co Ltd Image attribute discriminating apparatus and image attribute discrimination program
JP2010130214A (en) * 2008-11-26 2010-06-10 Ricoh Co Ltd Image processing apparatus, image processing method, and program
JP2011034391A (en) * 2009-08-03 2011-02-17 Ihi Corp Method of dividing texture regions with different granularities
JP2013031105A (en) * 2011-07-29 2013-02-07 Brother Ind Ltd Image processor and image processing program
JP2013186610A (en) * 2012-03-07 2013-09-19 Nikon Systems Inc Character extraction device and character extraction program

Similar Documents

Publication Publication Date Title
JPH04296163A (en) Automatic picture/character separating apparatus for image information and method thereof
JPH1084475A (en) Image area discrimination method and image-processing unit
JPH09186877A (en) Image processor
JPH07288679A (en) Image processing unit
AU758088B2 (en) Intelligent detection of text on a page
JP4920814B2 (en) Image processing method, apparatus, and recording medium
JP3604902B2 (en) Image processing device
JPH10191059A (en) Image processor
JPH0879517A (en) Method for identifying type of image
JP3073837B2 (en) Image region separation device and image region separation method
JP2000022943A (en) Device and method for discriminating image area, and recording medium recorded with image area discriminating program
US6014465A (en) Method for transforming a gray-level image into a black-and-white image
EP0767941B1 (en) Automatic determination of landscape scan in binary images
JP3725255B2 (en) Digital image processing device
JP2702133B2 (en) Image processing method
JP2824991B2 (en) Image identification method
JPS6331825B2 (en)
JP3020293B2 (en) Attribute determination method
JP2507948B2 (en) Image area identification device
JP2877548B2 (en) Document image attribute discrimination method
JPH08221515A (en) Image processor
JPH06274691A (en) Character recognizing device
JP5875551B2 (en) Image processing apparatus, image processing method, and image processing program
JPH099044A (en) Picture reader and processing method for read picture
JP2859603B2 (en) Method and apparatus for binarizing image data