JP2002142101A - Image processing device - Google Patents

Image processing device

Info

Publication number
JP2002142101A
JP2002142101A JP2000337701A JP2000337701A JP2002142101A JP 2002142101 A JP2002142101 A JP 2002142101A JP 2000337701 A JP2000337701 A JP 2000337701A JP 2000337701 A JP2000337701 A JP 2000337701A JP 2002142101 A JP2002142101 A JP 2002142101A
Authority
JP
Japan
Prior art keywords
image
character
histogram
image data
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000337701A
Other languages
Japanese (ja)
Inventor
Masaya Azuma
真哉 東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2000337701A priority Critical patent/JP2002142101A/en
Publication of JP2002142101A publication Critical patent/JP2002142101A/en
Pending legal-status Critical Current

Links

Landscapes

  • Facsimile Image Signal Circuits (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)
  • Facsimile Scanning Arrangements (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device which is capable of accurately recognizing the direction of a manuscript through simple constitution even if the manuscript contains a color image including a halftone background. SOLUTION: The signals of each color of R, G, and B of image data are binarized through a binarization processor 207. When the character image of the binarized image is represented by white pixels, an image inversion process is carried out through an image inversion processor 210. The binarized image of each channel of R, G, and B is subjected to an AND operation to eliminate only the background, and a histogram is formed of only the character images. The angle of rotation of the image is recognized by a rotational angle recognition part 212 from the histogram, the image is rotated by an image rotating part 213, and manuscript image data are outputted as they are set coincident with each other in direction.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は複写機等の画像形成
機に適用される画像処理装置に係る。特に、本発明は、
背景画像等が存在する原稿に対して、その方向認識(用
紙の向きの認識)の信頼性を向上するための対策に関す
る。
The present invention relates to an image processing apparatus applied to an image forming machine such as a copying machine. In particular, the present invention
The present invention relates to a measure for improving the reliability of the direction recognition (recognition of the paper direction) of a document having a background image or the like.

【0002】[0002]

【従来の技術】従来より、自動原稿給紙装置を備えた複
写機が知られている。この複写機において複数枚の原稿
を連続コピーする場合には、例えば給紙トレイ上に載置
された複数枚の原稿を自動原稿給紙装置によって1枚ず
つ取り出して画像を読み取り、その画像データに基づい
て記録紙への画像形成動作が順次行われる。
2. Description of the Related Art Conventionally, a copier equipped with an automatic document feeder has been known. When a plurality of originals are continuously copied by this copying machine, for example, the plurality of originals placed on a paper feed tray are taken out one by one by an automatic original feeder, and an image is read. The image forming operation on the recording paper is sequentially performed based on this.

【0003】この場合、ユーザは、給紙トレイ上に載置
する各原稿が一律に同じ方向を向いているか否かを確認
する必要がある。この確認作業を怠り、仮に、複数の原
稿の中に方向の異なる(上下が逆向きの)原稿が存在す
る場合、その原稿の複写物も方向が異なった状態で複写
されることになり、コピー動作の終了後、ユーザは、方
向が異なる複写物を探し出してその向きを修正しなけれ
ばならないことになる。特に、同時に複数部コピーを行
う場合には、各複写物セットそれぞれに対して、向きの
異なる複写物の修正を行うといった煩雑な作業が必要に
なってしまう。更に、複写機が自動ステープルユニット
を備えており、複写物の自動ステープルを行う場合に
は、一部の複写物の向きが異なったまま(他の複写物と
の上下が逆向きのまま)ステープルされてしまうことに
なり、最悪の場合にはコピーをやり直さなければならな
い事態も生じることがある。
In this case, it is necessary for the user to check whether the originals placed on the paper feed tray are uniformly oriented in the same direction. If this checking operation is neglected, and if a plurality of originals have different directions (upside down), a copy of the original will be copied in a different direction. After the operation is completed, the user has to find a copy in a different direction and correct the direction. In particular, when a plurality of copies are made at the same time, a complicated operation of correcting a copy having a different direction is required for each copy set. Furthermore, when the copying machine is provided with an automatic stapling unit and the automatic stapling of the copy is performed, the stapling of the copy is performed in a different direction (upside down with the other copy). In the worst case, copying may need to be performed again.

【0004】このような不具合を解消するため、ユーザ
が原稿の向きを確認しなくても、読み取った原稿データ
に基づいて原稿の向きを認識し、その画像出力が適切な
向きになるように、つまり、一部の原稿が逆向きである
場合には、その原稿の画像データを反転処理してコピー
動作を行う方法が特開平9−9040号公報に開示され
ている。
In order to solve such a problem, even if the user does not check the orientation of the original, the orientation of the original is recognized based on the read original data, and the image output is set to an appropriate direction. In other words, Japanese Patent Application Laid-Open No. 9-9040 discloses a method of performing a copy operation by inverting image data of a document when a part of the document is reversed.

【0005】[0005]

【発明が解決しようとする課題】原稿の向きを認識する
ための従来の手法としては、上記公報にも開示されてい
るように、原稿画像の濃度分布を示すヒストグラムを生
成し、それを用いて原稿方向を認識するのが一般的であ
る。しかしながら、この手法ではヒストグラムを正確に
生成する必要がある。例えば、原稿に微小な汚れやごみ
等といったノイズが多数点在している場合や、中間調の
背景等を含む原稿画像を読み取る場合には、このノイズ
や背景の影響により行間や文の先頭箇所などの正確な位
置が判別できなくなる恐れがある。そのため、生成され
たヒストグラムも正確さに欠けたものとなり、原稿方向
認識の信頼性を低下させることになってしまう。
As a conventional method for recognizing the orientation of a document, as disclosed in the above publication, a histogram indicating the density distribution of a document image is generated and used. Generally, the direction of the document is recognized. However, this technique requires accurate generation of the histogram. For example, when a document is scattered with a lot of noise such as minute dirt or dust, or when reading a document image including a halftone background, the line spacing or the beginning of a sentence may be affected by the noise or background. It may not be possible to determine the exact position such as For this reason, the generated histogram also lacks accuracy, and the reliability of document direction recognition is reduced.

【0006】この不具合を解消するものとして特開20
00−22899号公報に開示されている画像認識装置
がある。この公報には、文字画像のサイズを検出し、こ
の検出された文字サイズに応じて孤立点除去フィルタの
フィルタサイズを決定することにより、上記ノイズを効
率良く除去し、正確な原稿方向認識を行う技術的思想が
開示されている。
To solve this problem, Japanese Patent Laid-Open Publication No.
There is an image recognition device disclosed in JP-A-00-22899. In this publication, the size of a character image is detected, and the filter size of an isolated point removal filter is determined in accordance with the detected character size, thereby efficiently removing the noise and performing accurate document direction recognition. The technical idea is disclosed.

【0007】この公報に開示されている技術によれば、
孤立点ノイズ等を簡単な構成で効率良く除去することは
可能である。ところが、図12(a)に示されるような
中間調の背景を含むカラー画像であって、文字色の輝度
と背景の輝度とに大きな差がない場合や背景の輝度が一
様でない場合には、ヒストグラムから文字検出を行うこ
とが困難になる可能性が高い。図12(b)は、上記図
12(a)の画像から求められたヒストグラムにより2
値化された画像である。このように、従来の技術では、
上述の如き背景を含んだカラー画像に対して、文字認識
を良好に行うことができず、原稿方向認識の信頼性を十
分に得ることができない。
According to the technology disclosed in this publication,
It is possible to efficiently remove isolated point noise and the like with a simple configuration. However, in the case of a color image including a halftone background as shown in FIG. 12A, when there is no large difference between the luminance of the character color and the luminance of the background, or when the luminance of the background is not uniform, It is highly likely that character detection from the histogram becomes difficult. FIG. 12B shows two histograms obtained from the image shown in FIG.
It is a valued image. Thus, in the conventional technology,
Character recognition cannot be performed satisfactorily on a color image including the background as described above, and the reliability of document direction recognition cannot be sufficiently obtained.

【0008】上記のノイズや背景を除去する手段として
特開平7−99581号公報で提示されている方法があ
るが、この方法ではニューラルネットワークを用いた認
識処理やベクトル演算など膨大な処理が必要となり、処
理に長時間を要してしまうため実用性に欠ける。
As a means for removing the above noise and background, there is a method proposed in Japanese Patent Application Laid-Open No. 7-99581. However, this method requires enormous processing such as recognition processing using a neural network and vector calculation. However, it takes a long time for processing, and thus lacks practicality.

【0009】本発明は、かかる点に鑑みてなされたもの
であり、その目的とするところは、中間調の背景を含む
カラー画像であっても簡単な構成で正確な原稿方向認識
を行うことが可能な画像処理装置を提供することにあ
る。
SUMMARY OF THE INVENTION The present invention has been made in view of the foregoing, and an object of the present invention is to provide a simple structure for accurately recognizing the original direction even for a color image including a halftone background. It is to provide a possible image processing device.

【0010】[0010]

【課題を解決するための手段】−発明の概要− 上記の目的を達成するために、本発明は、画像データの
RGB各色の信号に対してそれぞれ2値化処理を行い、
これにより得られた各画像データを合成処理すること
で、背景画像を除去し、文字画像のみを得て原稿方向認
識を正確に行うことができるようにしている。
Means for Solving the Problems Summary of the Invention In order to achieve the above object, the present invention performs a binarization process on each of RGB signals of image data,
By synthesizing the obtained image data, the background image is removed, and only the character image is obtained so that the original direction can be accurately recognized.

【0011】−解決手段− 具体的には、文字画像を含む原稿の向きを認識するため
の画像処理装置を前提とする。この画像処理装置に対
し、領域分離手段、2値化処理手段、合成処理手段、回
転角認識手段及び回転処理手段を備えさせている。上記
領域分離手段は、原稿から読み取った画像データを文字
領域と非文字領域とに分離するものである。2値化処理
手段は、上記画像データのRGB各色の信号に対してそ
れぞれ2値化処理を行うものである。合成処理手段は、
上記2値化処理を行ったRGB各色の画像データを合成
処理するものである。回転角認識手段は、上記合成処理
した画像データに基づき画像の回転角を認識するもので
ある。回転処理手段は、上記画像の回転角に応じて画像
データを回転処理するものである。
-Solution Means- Specifically, an image processing apparatus for recognizing the orientation of a document including a character image is assumed. The image processing apparatus is provided with an area separating unit, a binarizing unit, a combining unit, a rotation angle recognizing unit, and a rotating unit. The area separating means separates the image data read from the document into a character area and a non-character area. The binarization processing means performs a binarization process on each of the RGB signals of the image data. The combination processing means
The image data of each of the RGB colors subjected to the binarization process is synthesized. The rotation angle recognizing means recognizes the rotation angle of the image based on the image data subjected to the synthesis processing. The rotation processing means rotates image data according to the rotation angle of the image.

【0012】この特定事項により、RGB各色の信号に
対してそれぞれ2値化処理を行うことにより得られた画
像データを合成処理して、背景画像を除去し、文字画像
のみを得る。そして、この文字画像に基づいて画像の回
転角を認識し、必要に応じて画像の回転処理を行う。例
えば、天地が逆の原稿であった場合には、その画像に対
して180°の回転処理を行い、画像の方向を他の原稿
画像の方向に一致させる。これにより、各原稿が一律に
同じ方向を向いていなくても全ての原稿の画像データの
方向が一致することになる。
[0012] According to this specific matter, the image data obtained by performing the binarization processing on each of the RGB signals is combined, the background image is removed, and only the character image is obtained. Then, the rotation angle of the image is recognized based on the character image, and the image is rotated if necessary. For example, if the document is upside down, the image is rotated by 180 ° to match the direction of the image with the direction of another document image. As a result, even if the originals do not all face the same direction, the directions of the image data of all the originals match.

【0013】また、領域分離手段によって分離された文
字領域及び非文字領域のうち少なくとも文字領域の画像
データを低解像度に変換する解像度変換手段を備えさ
せ、2値化処理手段が、この低解像度に変換された画像
データに対して2値化処理を行う構成とした場合には、
低解像度化に伴うデータ量の削減により、処理の高速化
と資源の節約を図ることができる。
The image processing apparatus further includes resolution conversion means for converting image data of at least a character area of the character area and the non-character area separated by the area separation means to a low resolution. When the binarization process is performed on the converted image data,
By reducing the amount of data accompanying the reduction in resolution, processing can be speeded up and resources can be saved.

【0014】上記合成処理手段の具体構成として以下の
ものが挙げられる。つまり、合成処理手段が、RGB各
色の信号に対して2値化処理手段により2値化処理され
た各画像データを論理積演算によって合成するようにし
ている。この特定事項により、文字画像の全てを黒色画
素で表すことが可能になり、文字画像のみを確実に抽出
できる信頼性の高い合成処理が実現可能となる。
The following is a specific configuration of the synthesis processing means. That is, the synthesizing processing means synthesizes each image data which has been binarized by the binarizing processing means with respect to the RGB signals for each color by a logical product operation. With this specific matter, it is possible to represent all of the character image with black pixels, and it is possible to realize a highly reliable combination process that can reliably extract only the character image.

【0015】また、原稿画像の濃度分布を示すヒストグ
ラムを画像データから生成するヒストグラム生成手段
と、2値化処理手段によって2値化処理された画像デー
タの画像形状を、上記ヒストグラムに基づいて判別する
画像形状判別手段と、上記原稿画像の平均濃度と画像形
状とに基づいて2値化処理画像データの文字画像が白色
画素で表されているか否かを判別し、文字画像が白色画
素で表されていると判別した場合、2値化画像に反転処
理を行う画像反転処理手段とを備えさえた場合には、文
字画像が白色画素で表されている場合であっても上記画
像反転処理により文字画像を黒色画素で表すことが可能
になる。このため、文字画像のみの抽出がよりいっそう
確実に行える。つまり、カラー画像においてRGB各チ
ャンネルデータをみると文字画像はどのチャンネルにお
いても輝度が一様であるのに対して中間調背景画像は一
様である場合と一様でない場合が想定される。いずれの
場合もRGB各チャンネルの背景画像の輝度がすべて文
字画像と同一であることは少なく、仮に同一であったと
しても孤立点ノイズとして点在するにとどまる場合が多
い。本発明は、このRGB各チャンネル個別に2値化処
理し、2値化処理画像の文字画像が白色画素で表されて
いるか否かを判別し、文字画像が白色画素で表されてい
れば2値化処理画像を画像反転処理する。その上でRG
B各チャンネルの2値化処理画像に対して論理積演算を
施すことで背景のみを除去し正確に文字画像のみの正確
なヒストグラムを作成することが可能になる。
A histogram generation means for generating a histogram indicating the density distribution of the original image from the image data, and an image shape of the image data binarized by the binarization processing means are determined based on the histogram. An image shape determining unit that determines whether or not the character image of the binarized image data is represented by white pixels based on the average density and the image shape of the document image, and the character image is represented by white pixels. If it is determined that the character image is represented by white pixels, the image inversion processing means for performing inversion processing on the binarized image is provided. Images can be represented by black pixels. For this reason, extraction of only a character image can be performed more reliably. In other words, looking at each of the RGB channel data in the color image, it is assumed that the luminance of the character image is uniform in any channel, while the case of the halftone background image is uniform and non-uniform. In any case, the luminance of the background image of each of the R, G, and B channels is rarely the same as that of the character image, and even if the luminance is the same, the background image is often scattered as isolated point noise. The present invention binarizes each of the RGB channels individually, determines whether the character image of the binarized image is represented by white pixels, and determines whether the character image is represented by white pixels. Image inversion processing is performed on the value-processed image. RG on it
By performing an AND operation on the binarized image of each channel B, it is possible to remove only the background and create an accurate histogram of only the character image.

【0016】ヒストグラムを利用して画像形状を判別す
る手法の具体例として以下のものが挙げられる。つま
り、ヒストグラム生成手段により生成されたヒストグラ
ムに基づいて、ヒストグラムのエッジ形状を検出して、
そのエッジの数を計数するエッジカウント手段と、エッ
ジの数を記憶するエッジ数記憶手段とを備えさせ、画像
形状判別手段が、上記記憶されたエッジ数に基づいて画
像形状の判別を行う構成としている。この特定事項によ
り、画像形状の判別を正確に行うことができ、文字画像
に基づいた画像の回転角をより正確に認識することがで
きる。
The following is a specific example of a method for determining an image shape using a histogram. That is, based on the histogram generated by the histogram generation means, the edge shape of the histogram is detected,
An edge counting means for counting the number of edges and an edge number storage means for storing the number of edges are provided, and the image shape determination means determines an image shape based on the stored edge number. I have. According to the specific items, the image shape can be accurately determined, and the rotation angle of the image based on the character image can be more accurately recognized.

【0017】回転角認識手段の具体構成として以下のも
のが挙げられる。つまり、回転角認識手段が、中間調背
景及び非文字領域が除去された画像データによって生成
された原稿の濃度分布を示すヒストグラムに基づいて文
字画像の方向を認識する構成としている。この特定事項
により、高効率で正確な文字画像の方向を認識すること
が可能となる。
The specific configuration of the rotation angle recognition means is as follows. That is, the rotation angle recognizing means recognizes the direction of the character image based on the histogram indicating the density distribution of the document generated from the image data from which the halftone background and the non-character area have been removed. With this specific matter, it is possible to recognize the direction of the character image with high efficiency and accuracy.

【0018】[0018]

【発明の実施の形態】以下、本発明の実施の形態を図面
に基づいて説明する。本形態では、自動原稿給紙装置付
きのデジタルカラー複写機に本発明を適用した場合につ
いて説明する。
Embodiments of the present invention will be described below with reference to the drawings. In this embodiment, a case will be described in which the present invention is applied to a digital color copying machine having an automatic document feeder.

【0019】図1は、本形態に係るカラー画像複写機の
画像処理を行うための構成を示すブロック図である。こ
の図1に示すように、本カラー画像複写機は、カラー画
像入力装置1、画像処理装置2及びカラー画像出力装置
3を備えている。また、画像処理装置2は、A/D変換
部21、シェーディング補正部22、入力階調補正部2
3、画像処理部24、色補正部25、黒生成下色除去部
26、空間フィルタ処理部27、出力階調補正部28及
び階調再現処理部29を備えている。
FIG. 1 is a block diagram showing a configuration for performing image processing of the color image copying machine according to the present embodiment. As shown in FIG. 1, the present color image copying machine includes a color image input device 1, an image processing device 2, and a color image output device 3. Further, the image processing apparatus 2 includes an A / D conversion unit 21, a shading correction unit 22, an input gradation correction unit 2,
3, an image processing unit 24, a color correction unit 25, a black generation and under color removal unit 26, a spatial filter processing unit 27, an output gradation correction unit 28, and a gradation reproduction processing unit 29.

【0020】カラー画像入力装置1は、例えばCCD
(Charge Coupled Device)等の撮像素子を備えたスキ
ャナ部として構成されている。そして、原稿に向かって
照射した光の反射光の像を、RGB(R:赤、G:緑、
B:青)のアナログ信号として上記CCDが読み取り、
このアナログ信号が画像処理装置2に入力されるように
なっている。
The color image input device 1 is, for example, a CCD
(Charge Coupled Device). Then, the image of the reflected light of the light irradiated toward the original is converted into RGB (R: red, G: green,
B: blue) is read by the CCD as an analog signal,
This analog signal is input to the image processing device 2.

【0021】カラー画像入力装置1によって読み取られ
たアナログ信号は、画像処理装置2内の各部21〜29
に順に送られて後述する所定の画像処理が行われ、C,
M,Y,K(C:シアン、M:マゼンタ、Y:イエロ
ー、K:ブラック)のデジタルカラー信号として、カラ
ー画像出力装置3へ出力される。そして、このカラー信
号に基づいた用紙への画像形成が行われるようになって
いる。以下、画像処理装置2内の各部21〜29につい
て説明する。
The analog signals read by the color image input device 1 are transmitted to respective units 21 to 29 in the image processing device 2.
, And predetermined image processing described later is performed.
It is output to the color image output device 3 as digital color signals of M, Y, K (C: cyan, M: magenta, Y: yellow, K: black). Then, an image is formed on a sheet based on the color signal. Hereinafter, each unit 21 to 29 in the image processing apparatus 2 will be described.

【0022】A/D変換部21は、上記RGBのアナロ
グ信号をデジタル信号に変換するものである。
The A / D converter 21 converts the RGB analog signals into digital signals.

【0023】シェーディング補正部22は、A/D変換
部21から受信したRGBのデジタル信号に対して、カ
ラー画像入力装置1の照明系、結像系、撮像系で生じる
各種の歪みを取り除く処理を施すものである。
The shading correction unit 22 performs a process for removing various types of distortion generated in the illumination system, the imaging system, and the imaging system of the color image input apparatus 1 from the RGB digital signal received from the A / D conversion unit 21. It is something to give.

【0024】入力階調補正部23は、シェーディング補
正部22にて各種の歪みが取り除かれたRGB信号(R
GBの反射率信号)に対して、カラーバランスを整える
と同時に、濃度信号など画像処理装置2に採用されてい
る画像処理システムの扱い易い信号に変換する処理を施
すようになっている。
The input tone correction section 23 outputs an RGB signal (R) from which various distortions have been removed by the shading correction section 22.
At the same time as adjusting the color balance of the (GB reflectance signal), a process of converting the signal into a signal such as a density signal that is easy to handle by the image processing system employed in the image processing apparatus 2 is performed.

【0025】画像処理部24は領域分離手段としての領
域分離処理部202と回転角認識部212とを備えてい
る(画像処理部24の内部構成を示す図2参照)。領域
分離処理部202は、入力画像中の各画素を、文字領
域、網点領域、写真領域の何れに属するか判断して上記
RGB信号を分離するものである。回転角認識部212
は、画像出力が適切な方向になるように画像データの回
転処理を施すべく、入力画像データの天地(画像の上下
方向)を判別するものである。また、この画像処理部2
4は、領域分離結果に基づき、画素がどの領域に属して
いるかを示す領域識別信号を、黒生成下色除去部26、
空間フィルタ処理部27及び階調再現処理部29へそれ
ぞれ出力すると共に、入力階調補正部23から受信した
入力信号に対し、必要に応じて回転処理を施した後、後
段の色補正部25に出力するようになっている。
The image processing section 24 includes an area separation processing section 202 as area separation means and a rotation angle recognition section 212 (see FIG. 2 showing the internal configuration of the image processing section 24). The area separation processing unit 202 separates the RGB signals by determining whether each pixel in the input image belongs to a character area, a halftone area, or a photograph area. Rotation angle recognition unit 212
Is to determine the top and bottom of the input image data (vertical direction of the image) in order to perform the rotation processing of the image data so that the image output is in an appropriate direction. The image processing unit 2
4 outputs an area identification signal indicating to which area the pixel belongs based on the area separation result,
After being output to the spatial filter processing unit 27 and the tone reproduction processing unit 29, respectively, the input signal received from the input tone correction unit 23 is subjected to a rotation process as necessary, and then sent to the subsequent color correction unit 25. Output.

【0026】黒生成下色除去部26は、色補正後のCM
Yの3色信号から黒(K)信号を生成する黒生成処理を
行うと共に、元のCMY信号から黒生成で得たK信号を
差し引いて新たなCMY信号を生成する処理を行うもの
であって、この黒生成下色除去部26により、CMYの
3色信号はCMYKの4色信号に変換される。
The black generation and under color removal unit 26 performs the color-corrected CM
A black generation process for generating a black (K) signal from the three Y color signals, and a process for generating a new CMY signal by subtracting the K signal obtained by the black generation from the original CMY signal. The black generation and under color removal unit 26 converts the CMY three-color signals into CMYK four-color signals.

【0027】黒生成処理の一例として、スケルトンブラ
ックによる黒生成を行なう方法(黒生成処理の一般的方
法)がある。この方法では、スケルトンカーブの入出力
特性をy=f(x)とし、入力されるデータをC,M,
Yとし、出力されるデータをC’,M’,Y’,K’と
し、更に、UCR(Under Co1or Removal)率をα(0
<α<1)とした場合、黒生成/下色除去処理が以下の
式により表わされる。
As an example of the black generation processing, there is a method of generating black using skeleton black (a general method of black generation processing). In this method, the input / output characteristics of the skeleton curve are set to y = f (x), and the input data is C, M,
Y, the output data are C ', M', Y ', K', and the UCR (Under Coor Removal) rate is α (0
When <α <1), the black generation / undercolor removal processing is represented by the following equation.

【0028】K’=f{min(C,M,Y)} C’=C−αK’ M’=M−αK’ Y’=Y−αK’ 空間フィルタ処理部27は、黒生成下色除去部26から
受信したCMYK信号の画像データに対して、領域識別
信号を基にデジタルフィルタによる空間フィルタ処理を
行い、空間周波数特性を補正することによって出力画像
の「ぼやけ」や粒状性劣化を防ぐように処理するもので
ある。出力階調補正部28及び階調再現処理部29も、
空間フィルタ処理部27と同様に、CMYK信号の画像
データに対して、領域識別信号を基に所定の処理を施す
ようになっている。
K ′ = f {min (C, M, Y)} C ′ = C−αK ′ M ′ = M−αK ′ Y ′ = Y−αK ′ The spatial filter processing unit 27 removes black generation and undercolor. The image data of the CMYK signal received from the unit 26 is subjected to a spatial filter process using a digital filter based on the region identification signal to correct the spatial frequency characteristics so as to prevent "blur" and deterioration of the granularity of the output image. To be processed. The output tone correction unit 28 and the tone reproduction processing unit 29 also
Similarly to the spatial filter processing unit 27, predetermined processing is performed on the image data of the CMYK signal based on the area identification signal.

【0029】例えば、領域分離処理部202において文
字として分離された領域は、特に黒文字或いは色文字の
再現性を高めるために、空間フィルタ処理部27による
空間フィルタ処理における鮮鋭強調処理によって高周波
数の強調量が大きく設定される。同時に、階調再現処理
部29においては、高域周波数の再現に適した高解像度
のスクリーンでの二値化または多値化処理が選択され
る。
For example, in order to enhance the reproducibility of a black character or a color character, a region separated as a character in the region separation processing unit 202 is emphasized at a high frequency by a sharp enhancement process in the spatial filtering process by the spatial filtering unit 27. The amount is set large. At the same time, the tone reproduction processing section 29 selects binarization or multi-value processing on a high-resolution screen suitable for reproduction of a high frequency band.

【0030】また、領域分離処理部202において網点
として分離された領域に関しては、空間フィルタ処理部
27において、入力網点成分を除去するためのローパス
・フィルタ処理が施される。そして、出力階調補正部2
8では、濃度信号などの信号をカラー画像形成部の特性
値である網点面積率に変換する出力階調補正処理を行っ
た後、階調再現処理部29で、最終的に画像を画素に分
離してそれぞれの階調を再現できるように処理する階調
再現処理(中間調生成)が施される。
Further, for the area separated as a halftone dot by the area separation processing section 202, the spatial filter processing section 27 performs a low-pass filter processing for removing an input halftone dot component. Then, the output gradation correction unit 2
In step 8, an output tone correction process for converting a signal such as a density signal into a dot area ratio, which is a characteristic value of the color image forming unit, is performed. A tone reproduction process (intermediate tone generation) is performed to separate and reproduce each tone.

【0031】更に、領域分離処理部202において写真
として分離された領域に関しては、階調再現性を重視し
たスクリーンでの二値化または多値化処理が行われる。
Further, with respect to the area separated as a photograph in the area separation processing section 202, a binarization or multi-value processing is performed on a screen which emphasizes tone reproducibility.

【0032】上述した各処理が施された画像データは、
一旦、図示しない記憶手段に記憶され、所定のタイミン
グで読み出されてカラー画像出力装置3に入力されるよ
うになっている。
The image data subjected to each of the above-described processes is
The data is temporarily stored in a storage unit (not shown), read out at a predetermined timing, and input to the color image output device 3.

【0033】本複写機は、画像データに基づいて記録媒
体(例えば紙等)上に画像形成を行うもので、例えば、
電子写真方式やインクジェット方式を用いたカラー画像
形成機として構成される。また、本発明が適用される画
像形成機としては、複写機に限定されるものではなく、
プリンタやファクシミリ装置などであってもよい。
This copying machine forms an image on a recording medium (for example, paper) based on image data.
It is configured as a color image forming machine using an electrophotographic system or an inkjet system. Further, the image forming machine to which the present invention is applied is not limited to a copying machine,
It may be a printer or a facsimile machine.

【0034】画像処理部24の詳細構成を図2に示す。
以下、この図2のブロック図及び図3〜図8のフローチ
ャートを用いて画像処理部24における画像データの処
理手順について説明する。
FIG. 2 shows the detailed configuration of the image processing section 24.
Hereinafter, the processing procedure of the image data in the image processing unit 24 will be described with reference to the block diagram of FIG. 2 and the flowcharts of FIGS.

【0035】上記入力階調補正部23より画像処理部2
4に入力されたRGB信号は高解像度画像メモリ201
に一旦格納される。図11(a)は、上記図12(a)
のオリジナル画像から得られたRGB信号に基づく各画
像を示している。その後、この高解像度画像メモリ20
1の内容を読み出し、上記領域分離処理部202で文字
領域と非文字領域(網点領域および写真領域)とに領域
分離し、文字領域部分のみを抽出する(図3のステップ
ST1)。このように、文字領域のみを処理対象とする
ことでデータ量を削減して、処理の高速化と資源の節約
とを図ることができるようにしている。
The input tone correction section 23 sends the image processing section 2
RGB signals input to the high-resolution image memory 201
Is stored once. FIG. 11A shows the above-mentioned FIG.
3 shows respective images based on the RGB signals obtained from the original image. Thereafter, the high-resolution image memory 20
1 is read out, the area separation processing unit 202 separates the area into a character area and a non-character area (halftone area and photograph area), and extracts only the character area (step ST1 in FIG. 3). As described above, by processing only the character area, the amount of data is reduced, so that the processing can be speeded up and resources can be saved.

【0036】尚、ここでの領域分離は公知の技術を用い
て行われる。例えば「画像電子学会研究会予稿90−0
6−04」に記載されている方法を用いることができ
る。
Note that the region separation here is performed using a known technique. For example, "Presentation of the Institute of Image Electronics Engineers of Japan 90-0
6-04 ".

【0037】ここでは、注目画素(処理対象画素)を中
心とした M×N(M,Nは自然数)画素のブロック内
で以下のような判定を行い、それを注目画素の領域識別
信号とする。
Here, the following determination is performed in a block of M × N pixels (M and N are natural numbers) centered on the target pixel (pixel to be processed), and this is used as a region identification signal of the target pixel. .

【0038】ブロック内の中央の9画素に対して信号レ
ベルの平均値(Dave)を求め、その平均値を用いてブ
ロック内の各画素を2値化する。また、最大画素信号レ
ベル(Dmax)、最小画素信号レベル(Dmin)も同時に
求める。網点領域では、小領域における画像信号の変動
が大きく、また、背景に比べて濃度が高い。このことを
利用し、網点領域を識別する。2値化されたデータに対
して主走査、副走査方向でそれぞれ0から1への変化点
数、1から0への変化点数を求めて、それぞれKH、KV
とし、閾値TH、TVと比較して、各変化点数が共に閾値
を上回っている場合には、それを網点領域とする。ま
た、背景との誤判定を防ぐために、上記Dmax,Dmin,
Daveを閾値B1,B2と比較する。
An average value (Dave) of the signal level is obtained for the central nine pixels in the block, and each pixel in the block is binarized using the average value. In addition, the maximum pixel signal level (Dmax) and the minimum pixel signal level (Dmin) are determined at the same time. In the halftone dot area, the fluctuation of the image signal in the small area is large, and the density is higher than the background. Utilizing this, the halftone dot area is identified. For the binarized data, the number of change points from 0 to 1 and the number of change points from 1 to 0 are obtained in the main scanning and sub-scanning directions, respectively, and K H and K V are obtained, respectively.
And then, by comparing the threshold T H, and T V, when each change points are both greater than the threshold, it halftone dot region. In order to prevent erroneous determination with the background, the above Dmax, Dmin,
Dave is compared with threshold values B 1 and B 2 .

【0039】 Dmax−Dave>B1、且つDave−Dmin>B2、且つKH>TH、且つKV>TV …網点領域と判定 上記の条件以外 …非網点領域と判定 文字領域では、最大信号レベルと最小信号レベルとの差
が大きく、濃度も高いと考えられることから、文字領域
の識別を以下のように行う。つまり、非網点領域におい
て先に求めていた最大、最小信号レベルとそれらの差分
(Dsub)を閾値PA、PB、PCと比較し、この最大、最
小信号レベル及び差分のうち何れか一つが閾値を上回っ
たならば文字領域、これら全てが閾値以下ならば写真領
域とする。
Dmax−Dave> B 1 , Dave−Dmin> B 2 , K H > T H , and K V > T V ... Judgment as a halftone area Other than the above conditions... Judgment as a non-halftone area Since the difference between the maximum signal level and the minimum signal level is large and the density is considered to be high, the character area is identified as follows. That compares maximum was obtained previously in the non-halftone dot region, a minimum signal level and their difference (Dsub) threshold P A, P B, and P C, one of the maximum, minimum signal level and the difference If one exceeds the threshold, it is a character area, and if all of them are below the threshold, it is a photographic area.

【0040】 Dmax>PA、またはDmin>PB、またはDsub>PC …文字領域と判定 上記の条件以外 …写真領域と判定 上述のようにして領域分離処理部202で領域分離処理
された文字領域部分のデータを解像度変換手段としての
解像度変換部203で低解像度に解像度変換する。たと
えば400DPIで読み込まれたデータを25DPIといった
低解像度画像データとして低解像度画像メモリ204に
格納する。原稿方向認識を行うためのヒストグラム作成
には文字画像の高さを検出できればよいので高解像度の
データは必要なく、低解像度のデータに変換してデータ
量を削減することで処理の高速化と資源の節約を図るこ
とを可能にしている。
Dmax> P A , or Dmin> P B , or Dsub> P C ... Judgment as a character area Other than the above conditions. Judgment as a photographic area Characters subjected to area separation processing by the area separation processing unit 202 as described above The data of the area portion is resolution-converted to a low resolution by a resolution conversion unit 203 as resolution conversion means. For example, data read at 400 DPI is stored in the low-resolution image memory 204 as low-resolution image data such as 25 DPI. High-resolution data is not required because the height of the character image can be detected to create a histogram for document orientation recognition, so high-speed processing and resources can be achieved by converting to low-resolution data and reducing the amount of data. It is possible to save money.

【0041】2値化処理手段としての2値化処理部20
7では、低解像度画像メモリ204のデータを読み取
り、RGB各色の信号に対してそれぞれ2値化処理を行
う(図3のステップST2)。その際の2値化手順は画
素毎の階調データと2値化のための閾値(図2中の閾値
記憶部217に記憶されている閾値)とを比較すること
により行われる。
Binarization processing section 20 as binarization processing means
In step 7, data in the low-resolution image memory 204 is read, and binarization processing is performed on each of the RGB signals (step ST2 in FIG. 3). The binarization procedure at this time is performed by comparing the gradation data for each pixel with a threshold for binarization (threshold stored in the threshold storage unit 217 in FIG. 2).

【0042】ここで2値化処理を行う際の閾値の設定は
公知の技術を用いて行う。例えば画像の濃度平均値を求
め、これを閾値とする。濃度の平均を用いるのではな
く、平均値に対して何らかの計算を施して閾値としても
よい。図11(b)は、上記RGB各チャンネル画像を
2値化することにより得られた各画像を示している。
Here, the setting of the threshold value at the time of performing the binarization processing is performed using a known technique. For example, a density average value of an image is obtained, and this is set as a threshold. Rather than using the average of the densities, some calculation may be performed on the average value to set the threshold. FIG. 11B shows images obtained by binarizing the RGB channel images.

【0043】2値化された画像を元に、ヒストグラム生
成手段としてのヒストグラム作成部205において原稿
画像の濃度分布を示すヒストグラムを作成する(図3の
ステップST3)。ヒストグラムは主走査方向あるいは
副走査方向に黒色画素数をカウントすることで生成され
る。2値化された画像は閾値の設定と文字色、背景色の
兼ね合いにより4つのパターンに分類され、作成され
る。また、ヒストグラムも4つのパターンに分類され
る。ひとつは文字画像と背景画像が分離され、文字画像
が黒色画素で表される場合(図9(a)参照)、ひとつ
は文字画像と背景画像が分離され、文字画像が白色画素
で表される場合(図9(b)参照)、ひとつは文字画像
と背景画像が明確に分離されず、文字画像が黒色画素で
表される場合(図9(d)参照)、最後が文字画像と背
景画像が明確に分離されず、文字画像が白色画素で表さ
れる場合(図9(c)参照)である。
On the basis of the binarized image, a histogram showing the density distribution of the original image is created by the histogram creating section 205 as a histogram creating means (step ST3 in FIG. 3). The histogram is generated by counting the number of black pixels in the main scanning direction or the sub-scanning direction. The binarized images are classified into four patterns according to the setting of the threshold value and the combination of the character color and the background color, and are created. The histogram is also classified into four patterns. One is where the character image and the background image are separated and the character image is represented by black pixels (see FIG. 9A). One is where the character image and the background image are separated and the character image is represented by white pixels. In the case (see FIG. 9B), one is when the character image and the background image are not clearly separated and the character image is represented by black pixels (see FIG. 9D). Are not clearly separated and the character image is represented by white pixels (see FIG. 9C).

【0044】文字色の輝度が低くかつ背景中間色の輝度
が全体的に高い場合、文字画像と背景画像とが分離さ
れ、文字画像が黒色画素に変換される。逆に文字色の輝
度が高く背景中間色の輝度が全体的に低い場合、背景画
像と文字画像が分離され、文字画像は白色画素に変換さ
れる。
When the luminance of the character color is low and the luminance of the intermediate background color is generally high, the character image and the background image are separated, and the character image is converted into black pixels. Conversely, if the luminance of the character color is high and the luminance of the intermediate background color is low overall, the background image and the character image are separated, and the character image is converted to white pixels.

【0045】この2つのパターンでは文字画像が黒色画
素で表されている場合、画像の平均濃度は低く、文字画
像が白色画素で表されている場合は画像の平均濃度は高
くなる。
In these two patterns, when the character image is represented by black pixels, the average density of the image is low, and when the character image is represented by white pixels, the average density of the image is high.

【0046】背景の中間色の輝度と文字色の輝度との差
が比較的小さい場合、背景画像と文字画像とを正確に分
離することができない。背景画像部分が大きく残る場
合、ヒストグラムエッジ(変化点)カウント処理(図
6)においてカウントされるヒストグラムエッジ(変化
点)数は少なくなる。この場合も同様に文字画像が黒色
画素で表される場合と白色画素で表される場合に大別で
きる。
When the difference between the luminance of the intermediate color of the background and the luminance of the character color is relatively small, the background image and the character image cannot be accurately separated. When the background image portion largely remains, the number of histogram edges (change points) counted in the histogram edge (change point) count process (FIG. 6) decreases. In this case, the character image can be roughly classified into a case where the character image is represented by black pixels and a case where the character image is represented by white pixels.

【0047】この2つのパターンでは、上記の場合とは
逆に、文字画像が黒色画素で表されている場合、画像の
平均濃度は高く、文字画像が白色画素で表されている場
合は画像の平均濃度は低くなる。
In the two patterns, on the contrary, when the character image is represented by black pixels, the average density of the image is high, and when the character image is represented by white pixels, The average density will be lower.

【0048】次に、ヒストグラムの形状を判別する前記
画像形状判別処理を行う(図3のステップST4)。
Next, the image shape discriminating process for discriminating the shape of the histogram is performed (step ST4 in FIG. 3).

【0049】以下、画像形状判別手段としての画像形状
判別処理部209で行われる画像形状判別処理手順につ
いて図4のフローチャートに沿って説明する。
The image shape discriminating process performed by the image shape discriminating unit 209 as the image shape discriminating means will be described below with reference to the flowchart of FIG.

【0050】生成されたヒストグラムについて主走査方
向エッジカウント処理(図4のステップST11)およ
び副走査方向エッジカウント処理(図4のステップST
12)でヒストグラムのエッジ(変化点)の数をカウン
トする。前記ヒストグラムのエッジカウント手順を図6
のフローチャートに示す。
The main scanning direction edge counting process (step ST11 of FIG. 4) and the sub-scanning direction edge counting process (step ST11 of FIG. 4) are performed on the generated histogram.
In step 12), the number of edges (change points) of the histogram is counted. FIG. 6 shows the histogram edge counting procedure.
Is shown in the flowchart of FIG.

【0051】カウント処理に際して比較対象メモリ21
5を初期化して(例えば、初期点が白であれば0、黒で
あれば1)おく(図6のステップST31)。次にヒス
トグラムの変化点の出現順序を整理する番号であるnを
「1」と設定する(図6のステップST32)。
At the time of the counting process, the comparison target memory 21
5 is initialized (for example, 0 if the initial point is white, 1 if it is black) (step ST31 in FIG. 6). Next, n, which is a number for rearranging the appearance order of the change points of the histogram, is set to “1” (step ST32 in FIG. 6).

【0052】比較対象メモリ215に格納されたデータ
とn番目のヒストグラムの変化点データ(図6のステッ
プST33)とを比較し(ステップST34)、ヒスト
グラムの変化点データの値が比較対象データよりも閾値
記憶部206の値を超えて大きければ(ステップST3
4でYES判定)、立ち上がりエッジとみなしてエッジ
カウント手段としてのヒストグラムエッジカウンタ21
4のカウンタの値をインクリメントする(ステップST
35)。カウントされたエッジ数はエッジ数記憶手段と
してのエッジ数記憶部216に格納される。この時のヒ
ストグラムの変化点データを比較対象メモリ215に格
納する(ステップST36)。エッジとみなされなかっ
た場合(ステップST34でNO判定)、次の変化点に
おけるヒストグラム変化点データを読み込み(ステップ
ST42、ST33)、上記と同様の比較を行う。な
お、これら2つのパターンの場合、図9に示すように立
ち上がりエッジと立ち下がりエッジが交互に現れること
から、交互に現れた場合のみカウントする。その後、n
の値をインクリメントして(ステップST43、ST3
7)、次のヒストグラムの変化点データを読み込み(ス
テップST38)、読み込んだヒストグラムの変化点デ
ータと比較対象データを比較し(ステップST39)、
比較対象データがヒストグラムデータよりも閾値を超え
て大きければ(ステップST39でYES判定)、立ち
下がりエッジとみなしカウンタの値をインクリメント
(ステップST40)する。この時のヒストグラムの変
化点データの値を比較対象メモリ215に格納する(ス
テップST41)。エッジとみなされなかった場合(ス
テップST39でNO判定)、nの値をインクリメン卜
して(ステップST37)ヒストグラムの変化点データ
を読み込み(ステップST38)、上記と同様の比較を
行う。また立ち上がりエッジ数、立ち下がりエッジ数、
いずれのカウントにおいても対象となるすべてのデータ
処理が終了すれば(すべての変化点についてのカウント
処理が終了した場合には)、エッジカウント処理を終了
する(ステップST43、ST44でYES判定)。
The data stored in the comparison target memory 215 is compared with the change point data of the n-th histogram (step ST33 in FIG. 6) (step ST34), and the value of the change point data of the histogram is larger than that of the comparison target data. If it is larger than the value of the threshold storage unit 206 (step ST3)
4, the histogram edge counter 21 serving as an edge counting means assuming that the edge is a rising edge.
4 is incremented (step ST
35). The counted number of edges is stored in the edge number storage unit 216 as edge number storage means. The change point data of the histogram at this time is stored in the comparison target memory 215 (step ST36). If it is not regarded as an edge (NO in step ST34), the histogram change point data at the next change point is read (steps ST42 and ST33), and the same comparison as above is performed. In the case of these two patterns, since the rising edge and the falling edge appear alternately as shown in FIG. 9, only the case where they appear alternately is counted. Then n
Is incremented (steps ST43 and ST3).
7) The next change point data of the histogram is read (step ST38), and the read change point data of the histogram is compared with the comparison target data (step ST39).
If the data to be compared is larger than the histogram data by more than the threshold (YES in step ST39), the value of the counter is regarded as a falling edge and the value of the counter is incremented (step ST40). The value of the change point data of the histogram at this time is stored in the comparison target memory 215 (step ST41). If it is not regarded as an edge (NO in step ST39), the value of n is incremented (step ST37), the change point data of the histogram is read (step ST38), and the same comparison as above is performed. The number of rising edges, the number of falling edges,
When all data processing to be performed is completed in any of the counts (when the count processing for all the change points is completed), the edge count processing is completed (YES determination in steps ST43 and ST44).

【0053】なお、本発明では閾値記憶部206の所定
値を「16」と定めている。この所定値はこの値に限る
ものではない。
In the present invention, the predetermined value of the threshold value storage unit 206 is set to “16”. This predetermined value is not limited to this value.

【0054】図4のフローチャートに戻って、画像形状
判別処理において主走査方向のエッジ数と副走査方向の
エッジ数とを比較し、より大きい方を次の処理の対象と
する(図4のステップST13)。主走査方向あるいは
副走査方向のエッジ数が所定値よりも大きい場合(ステ
ップST14あるいはステップST15でYES判
定)、すなわち上記4つのパターンのうち文字画像が正
確に分離できているパターンであるとき、エッジ判別フ
ラグを「0」とする(ステップST16)。一方、主走
査方向あるいは副走査方向のエッジ数が所定値よりも小
さい場合(ステップST14あるいはステップST15
でNO判定)、すなわち文字画像と背景画像が分離され
ないとき、エッジ判別フラグを「1」とする(ステップ
ST17、ST18)。
Returning to the flowchart of FIG. 4, in the image shape discriminating process, the number of edges in the main scanning direction and the number of edges in the sub-scanning direction are compared, and the larger one is subjected to the next process (step in FIG. 4). ST13). When the number of edges in the main scanning direction or the sub-scanning direction is larger than a predetermined value (YES in step ST14 or step ST15), that is, when the character image is one of the four patterns in which the character image can be accurately separated, the edge The determination flag is set to “0” (step ST16). On the other hand, when the number of edges in the main scanning direction or the sub-scanning direction is smaller than a predetermined value (step ST14 or step ST15).
If the character image and the background image are not separated, the edge determination flag is set to "1" (steps ST17 and ST18).

【0055】図3のフローチャートに戻って、文字画像
が白色画素であらわされていると判断された場合、画像
反転処理手段としての画像反転処理部210において画
像反転処理を行い文字画像を黒色画素で表す(図3のス
テップST5)。その際の画像反転手順は図5のフロー
チャートで示される。まず、前記エッジ判別フラグが
「1」であれば(図5のステップST21でYES判
定)、反転フラグをONとし(ステップST22)、逆
に「0」であれば(ステップST21でNO判定)、反
転フラグをOFFとする(ステップST23)。次に2
値化画像の平均濃度を求めこれを所定値と比較し、2値
化画像の平均濃度が所定値(所定濃度)よりも大きけれ
ば(ステップST24でYES判定)、反転フラグを反
転する(ステップST25)。
Returning to the flowchart of FIG. 3, when it is determined that the character image is represented by white pixels, the image inversion processing section 210 as image inversion processing means performs image inversion processing and converts the character image into black pixels. (Step ST5 in FIG. 3). The image inversion procedure at that time is shown in the flowchart of FIG. First, if the edge discrimination flag is "1" (YES in step ST21 of FIG. 5), the inversion flag is turned on (step ST22). Conversely, if the flag is "0" (NO in step ST21), The inversion flag is turned off (step ST23). Then 2
The average density of the binarized image is obtained and compared with a predetermined value. If the average density of the binarized image is larger than a predetermined value (predetermined density) (YES in step ST24), the inversion flag is inverted (step ST25). ).

【0056】以上の処理により反転フラグがONとなる
のはエッジ判別フラグが「1」かつ画像の平均濃度が所
定値よりも低い場合と、エッジ判別フラグが「0」かつ
画像の平均濃度が所定値よりも高い場合となる。前者は
文字画像が分離され文字画像が白色画素で表される場合
(図9(b)参照)、後者は文字画像が分離されず文字
画像が白色画素で表される場合である(図9(c)参
照)。反転フラグがONであれば(ステップST26で
YES判定)、画像を反転する(ステップST27)。
以上が画像反転処理手順である。
The inversion flag is turned ON by the above processing when the edge determination flag is "1" and the average density of the image is lower than a predetermined value, and when the edge determination flag is "0" and the average density of the image is predetermined. It is higher than the value. The former is a case where the character image is separated and the character image is represented by white pixels (see FIG. 9B), and the latter is a case where the character image is not separated and the character image is represented by white pixels (see FIG. c)). If the inversion flag is ON (YES in step ST26), the image is inverted (step ST27).
The above is the image inversion processing procedure.

【0057】次に、RGB各チャンネルの各画像データ
に対して図3のステップST2からステップST5まで
の処理を順次行い、低解像度画像メモリ204にデータ
を格納する。格納されたデータは合成処理手段としての
画像合成部211において論理積合成される(図3のス
テップST6)。つまり、この画像合成部211では、
上記RGB各色の信号に対して2値化処理された各画像
データが論理積演算によって合成される。これまでの処
理で文字画像はすべて黒色画素で表されているため3入
力1出力の論理積の出力においても文字画像部分は黒色
画素であらわされる。一方、背景画像はRGB各チャン
ネルそれぞれで白色画素や黒色画素で表されるため、適
切な反転処理がなされることにより論理積出力は白色画
素で表される。図11(c)は、上記各画像を合成処理
することにより得られた画像を示している。
Next, the processing from step ST2 to step ST5 in FIG. 3 is sequentially performed on the image data of each of the RGB channels, and the data is stored in the low-resolution image memory 204. The stored data is subjected to logical product synthesis in the image synthesis unit 211 as a synthesis processing unit (step ST6 in FIG. 3). That is, in the image combining unit 211,
Each image data obtained by binarizing the RGB signals is combined by a logical product operation. Since the character images are all represented by black pixels in the processing so far, the character image portion is represented by black pixels even in the output of the logical product of three inputs and one output. On the other hand, since the background image is represented by white pixels or black pixels in each of the RGB channels, the logical product output is represented by white pixels by performing an appropriate inversion process. FIG. 11C shows an image obtained by synthesizing the above images.

【0058】次に、回転角認識手段としての回転角認識
部212では読み込まれた画像データの回転角を認識す
る(図3のステップST7)。画像回転角認識処理は図
7のフローチャートで示される。まず合成出力画像デー
タのヒストグラムを作成し、そのエッジ(変化点)をカ
ウントする(図7のステップST51およびステップS
T52)。ヒストグラムエッジ(変化点)のカウント手
段は図8のフローチャートで示される。ここでは図6で
説明したエッジカウント処理とは異なり立ち上がりエッ
ジと立ち下がりエッジを個別に計上する。この図8にお
けるエッジカウント処理手順は、図6の場合と略同様で
あるので説明を省略する。図8のステップST61〜S
T70が、それぞれ図6のステップST31〜ST3
4,ST39,ST35,ST40,ST36,ST4
3,ST42に対応している。
Next, the rotation angle recognition section 212 as rotation angle recognition means recognizes the rotation angle of the read image data (step ST7 in FIG. 3). The image rotation angle recognition processing is shown in the flowchart of FIG. First, a histogram of the combined output image data is created, and its edges (change points) are counted (steps ST51 and S51 in FIG. 7).
T52). The histogram edge (change point) counting means is shown in the flowchart of FIG. Here, unlike the edge counting process described with reference to FIG. 6, the rising edge and the falling edge are separately counted. The edge count processing procedure in FIG. 8 is substantially the same as that in FIG. Steps ST61 to ST in FIG.
T70 corresponds to steps ST31 to ST3 in FIG.
4, ST39, ST35, ST40, ST36, ST4
3, ST42.

【0059】次に主走査方向のエッジ数と副走査方向の
エッジ数を比較する(図7のステップST53)。高解
像度画像メモリ201に格納されている画像が図10
(a)に示される向きであった場合、天地が正常な状態
のコピー出力を行うには回転処理を行わずそのまま出力
すればよい。この場合は主走査方向のエッジ数の方が副
走査方向のエッジ数よりも多く(ステップST53でY
ES判定)、副走査方向のヒストグラムで立ち下がりエ
ッジが多くなる(ステップST59でYES判定)。前
記高解像度画像メモリ201に格納されている画像が図
10(b)に示される向きであった場合、天地が正常な
状態のコピー出力を行うには画像に対して180°回転
処理を施せばよい。この場合は主走査方向のエッジ数の
方が副走査方向のエッジ数よりも多く(ステップST5
3でYES判定)、副走査方向のヒストグラムで立ち上
がりエッジが多くなる(ステップST58でYES判
定)。立ち上がりエッジ数と立ち下がりエッジ数の差が
あまりない場合(ステップST59でNO判定)、原稿
方向の判別ができないため回転角は0°とする。同様に
図10(c)に示される向きの場合は、90°の回転処
理を施せばよい。この場合は副走査方向のエッジ数のほ
うが主走査方向のエッジ数よりも多く(ステップST5
3でNO判定)、主走査方向のヒストグラムで立ち下が
りエッジが多くなる(ステップST57でYES判
定)。さらに、図10(d)に示される向きの場合、副
走査方向のエッジ数のほうが主走査方向のエッジ数より
も多く(ステップST53でNO判定)、主走査方向の
ヒストグラムで立ち上がりエッジが多くなる(ステップ
ST56でYES判定)。ここでも同様に立ち上がりエ
ッジ数と立ち下がりエッジ数の差があまりない場合は原
稿方向の判別ができないため回転角は0゜とする(ステ
ップST57でNO判定)。
Next, the number of edges in the main scanning direction and the number of edges in the sub-scanning direction are compared (step ST53 in FIG. 7). The image stored in the high-resolution image memory 201 is shown in FIG.
In the case where the orientation is as shown in (a), in order to perform copy output in a state where the top and bottom are in a normal state, the output may be performed without performing the rotation process. In this case, the number of edges in the main scanning direction is larger than the number of edges in the sub-scanning direction (Y in step ST53).
ES determination), the number of falling edges increases in the histogram in the sub-scanning direction (YES determination in step ST59). If the image stored in the high-resolution image memory 201 has the orientation shown in FIG. 10B, a 180 ° rotation process is performed on the image in order to perform copy output in a normal state. Good. In this case, the number of edges in the main scanning direction is larger than the number of edges in the sub-scanning direction (step ST5).
3, the rising edges increase in the histogram in the sub-scanning direction (YES in step ST58). When there is not much difference between the number of rising edges and the number of falling edges (NO in step ST59), the rotation direction is set to 0 ° because the document direction cannot be determined. Similarly, in the case of the orientation shown in FIG. 10C, a 90 ° rotation process may be performed. In this case, the number of edges in the sub-scanning direction is larger than the number of edges in the main scanning direction (step ST5).
No. 3), the number of falling edges increases in the histogram in the main scanning direction (YES in step ST57). Further, in the case of the direction shown in FIG. 10D, the number of edges in the sub-scanning direction is larger than the number of edges in the main scanning direction (NO in step ST53), and the number of rising edges in the histogram in the main scanning direction is larger. (YES determination in step ST56). Similarly, if there is not much difference between the number of rising edges and the number of falling edges, the direction of the original cannot be determined, so the rotation angle is set to 0 ° (NO in step ST57).

【0060】なお、本発明では図7のステップST5
6,ST58で判別に用いられる所定値Aを「2」、ス
テップST57,ST59で判別に用いられる所定値B
を「−2」とした。これら所定値はこの値に限るもので
はない。
In the present invention, step ST5 in FIG.
6, the predetermined value A used for determination in ST58 is "2", and the predetermined value B used for determination in steps ST57 and ST59.
Was set to "-2". These predetermined values are not limited to these values.

【0061】回転処理手段としての回転処理部213で
は高解像度画像メモリ201に格納されている画像に対
して上述の如く回転角認識部212で設定された回転角
の回転処理を実施する(図3のステップST8)。
The rotation processing section 213 as the rotation processing means performs the rotation processing of the rotation angle set by the rotation angle recognition section 212 on the image stored in the high resolution image memory 201 as described above (FIG. 3). Step ST8).

【0062】このようにして、本形態では、画像の回転
角を認識し、その回転角度に応じて画像データの回転処
理を行っている。このため、仮に、自動原稿給紙装置に
載置された複数枚の原稿の一部が逆向きであったとして
も、全ての原稿の画像データの方向を一致させることが
でき、全ての複写物の方向をあわせた状態で複写動作を
行うことが可能になる。これにより、ユーザが、自動原
稿給紙装置に載置する各原稿が一律に同じ方向を向いて
いるか否かを確認したり、コピー動作の終了後に、方向
が異なる複写物を探し出してその向きを修正するといっ
た作業は必要なくなり、ユーザの負担の軽減を図ること
ができる。
As described above, in this embodiment, the rotation angle of the image is recognized, and the rotation processing of the image data is performed according to the rotation angle. Therefore, even if a part of a plurality of documents placed on the automatic document feeder is reversed, the directions of the image data of all the documents can be matched, and all the copies can be copied. It is possible to perform the copying operation in a state where the directions are adjusted. This allows the user to check whether the originals placed on the automatic document feeder are uniformly oriented in the same direction, or to search for a copy in a different direction after the copy operation and to change the orientation. Correction work is not required, and the burden on the user can be reduced.

【0063】[0063]

【発明の効果】以上のように、本発明では、画像データ
のRGB各色の信号に対してそれぞれ2値化処理を行
い、これにより得られた各画像データを合成処理するこ
とで、背景画像を除去し、文字画像のみを得て原稿方向
認識を正確に行うことができるようにしている。このた
め、簡単な構成で背景画像および非文字領域を除去し正
確な原稿方向認識を行うことができる。その結果、ユー
ザの作業負担の軽減を図ることができ、装置の使い勝手
の向上を比較的簡素な構成で実現することができる。
As described above, in the present invention, each of the RGB signals of the image data is subjected to the binarization process, and the image data obtained thereby is synthesized, whereby the background image is obtained. Thus, the document direction can be accurately recognized by obtaining only the character image. For this reason, the background image and the non-character area can be removed with a simple configuration, and accurate document direction recognition can be performed. As a result, the work load on the user can be reduced, and the usability of the apparatus can be improved with a relatively simple configuration.

【0064】また、文字領域の画像データを低解像度に
変換して2値化処理を行う構成とした場合には、低解像
度化に伴うデータ量の削減により、処理の高速化と資源
の節約を図ることが可能となる。
When the image data in the character area is converted to a low resolution and the binarization process is performed, the amount of data accompanying the low resolution is reduced, thereby increasing the processing speed and saving resources. It becomes possible to plan.

【0065】また、2値化処理された各画像データを論
理積演算によって合成するようにした場合には、文字画
像の全てを黒色画素で表すことが可能になり、簡単な構
成で容易に中間調背景を除去することができ、文字画像
のみを確実に抽出できる信頼性の高い合成処理が実現可
能となる。
When the binarized image data are combined by a logical product operation, all of the character images can be represented by black pixels, and the intermediate configuration can be easily performed with a simple configuration. A tonal background can be removed, and a highly reliable synthesis process that can reliably extract only a character image can be realized.

【0066】更に、原稿画像の濃度分布を示すヒストグ
ラムを画像データから生成し、このヒストグラムに基づ
いて画像データの画像形状を判別し、且つ文字画像が白
色画素で表されている場合に、2値化画像に反転処理を
行うようにした場合には、文字画像が白色画素で表され
ている場合であっても、この文字画像を黒色画素で表す
ことが可能になる。このため、文字画像のみの抽出がよ
りいっそう確実に行え、原稿方向認識の信頼性の向上を
図ることができる。
Further, a histogram indicating the density distribution of the original image is generated from the image data, the image shape of the image data is determined based on the histogram, and if the character image is represented by white pixels, the binary When the inversion processing is performed on the coded image, even if the character image is represented by white pixels, the character image can be represented by black pixels. For this reason, the extraction of only the character image can be performed more reliably, and the reliability of document direction recognition can be improved.

【0067】加えて、生成されたヒストグラムに基づい
て、ヒストグラムのエッジ形状を検出し、そのエッジの
数に基づいて画像形状の判別を行う構成とした場合に
は、文字画像に基づいた画像の回転角をより正確に認識
することができる。
In addition, when the edge shape of the histogram is detected based on the generated histogram and the image shape is determined based on the number of edges, the image rotation based on the character image is performed. Corners can be more accurately recognized.

【0068】更に、原稿の濃度分布を示すヒストグラム
に基づいて文字画像の方向を認識する構成とした場合に
は、高効率で正確な文字画像の方向を認識することが可
能となる。
Furthermore, when the direction of the character image is recognized based on the histogram indicating the density distribution of the document, the direction of the character image can be recognized with high efficiency and accuracy.

【図面の簡単な説明】[Brief description of the drawings]

【図1】実施形態に係るカラー画像複写機の構成を示す
ブロック図である。
FIG. 1 is a block diagram illustrating a configuration of a color image copying machine according to an embodiment.

【図2】画像処理部の詳細構成を示すブロック図であ
る。
FIG. 2 is a block diagram illustrating a detailed configuration of an image processing unit.

【図3】原稿方向認識処理動作を示すフローチャート図
である。
FIG. 3 is a flowchart illustrating a document direction recognition processing operation.

【図4】画像形状判別処理動作を示すフローチャート図
である。
FIG. 4 is a flowchart illustrating an image shape determination processing operation.

【図5】画像反転処理動作を示すフローチャート図であ
る。
FIG. 5 is a flowchart illustrating an image inversion processing operation.

【図6】第1のヒストグラムエッジカウント処理動作を
示すフローチャート図である。
FIG. 6 is a flowchart illustrating a first histogram edge count processing operation;

【図7】画像回転角認識処理動作を示すフローチャート
図である。
FIG. 7 is a flowchart illustrating an image rotation angle recognition processing operation.

【図8】第2のヒストグラムエッジカウント処理動作を
示すフローチャート図である。
FIG. 8 is a flowchart illustrating a second histogram edge count processing operation.

【図9】非反転原稿と反転原稿との差を説明するための
図である。
FIG. 9 is a diagram for explaining a difference between a non-reversed document and a reversed document.

【図10】原稿の回転角によるヒストグラムの差を説明
するための図である。
FIG. 10 is a diagram for explaining a difference between histograms according to a rotation angle of a document.

【図11】(a)は図12(a)の画像のRGB各チャ
ンネル画像を示す図、(b)は(a)のチャンネル画像
の2値化画像を示す図、(c)は(b)の画像を論理積
演算により合成した画像を示す図である。
11A is a diagram showing RGB channel images of the image of FIG. 12A, FIG. 11B is a diagram showing a binary image of the channel image of FIG. 12A, and FIG. 11C is a diagram of FIG. FIG. 7 is a diagram showing an image obtained by combining the images of FIG.

【図12】(a)は原稿のオリジナルカラー画像の一例
を示す図、(b)は(a)の画像に対して従来の技術で
2値化処理を施した画像を示す図である。
12A is a diagram illustrating an example of an original color image of a document, and FIG. 12B is a diagram illustrating an image obtained by performing a binarization process on the image of FIG.

【符号の説明】[Explanation of symbols]

2 画像処理装置 202 領域分離処理部(領域分離手段) 203 解像度変換部(解像度変換手段) 205 ヒストグラム作成部(ヒストグラム生成手
段) 207 2値化処理部(2値化処理手段) 209 画像形状判別処理部(画像形状判別手段) 210 画像反転処理部(画像反転処理手段) 211 画像合成部(合成処理手段) 212 回転角認識部(回転角認識手段) 213 回転処理部(回転処理手段) 214 エッジカウンタ(エッジカウント手段) 216 エッジ数記憶部(エッジ数記憶手段)
2 Image Processing Apparatus 202 Region Separation Processing Unit (Region Separation Unit) 203 Resolution Conversion Unit (Resolution Conversion Unit) 205 Histogram Creation Unit (Histogram Generation Unit) 207 Binarization Processing Unit (Binarization Processing Unit) 209 Image Shape Discrimination Processing Unit (image shape discriminating unit) 210 image inversion processing unit (image inversion processing unit) 211 image synthesizing unit (synthesis processing unit) 212 rotation angle recognition unit (rotation angle recognition unit) 213 rotation processing unit (rotation processing unit) 214 edge counter (Edge counting means) 216 Edge number storage section (Edge number storage means)

フロントページの続き Fターム(参考) 5B047 AA01 AB02 AB04 CB23 DB03 DC04 DC09 5B057 CA01 CA08 CA12 CA16 CB01 CB06 CB08 CB12 CB16 CD03 CD05 CE08 CF04 DA08 DB02 DB06 DB08 DC16 DC23 5C072 BA20 RA03 UA07 UA17 UA18 UA20 5C076 AA01 AA03 AA19 AA22 AA24 AA25 AA27 BA03 BA06 CA10 CB01 5C077 MP05 MP08 PP13 PP20 PP22 PP23 PP25 PP27 PP32 PP46 PP47 PP57 PP59 PQ12 PQ17 PQ18 PQ19 PQ22 RR02 Continued on the front page F-term (reference) AA25 AA27 BA03 BA06 CA10 CB01 5C077 MP05 MP08 PP13 PP20 PP22 PP23 PP25 PP27 PP32 PP46 PP47 PP57 PP59 PQ12 PQ17 PQ18 PQ19 PQ22 RR02

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 文字画像を含む原稿の向きを認識するた
めの画像処理装置において、 上記原稿から読み取った画像データを文字領域と非文字
領域とに分離する領域分離手段と、 上記画像データのRGB各色の信号に対してそれぞれ2
値化処理を行う2値化処理手段と、 上記2値化処理を行ったRGB各色の画像データを合成
処理する合成処理手段と、 上記合成処理した画像データに基づき画像の回転角を認
識する回転角認識手段と、 上記画像の回転角に応じて画像データを回転処理する回
転処理手段とを備えていることを特徴とする画像処理装
置。
1. An image processing apparatus for recognizing a direction of a document including a character image, comprising: a region separating unit that separates image data read from the document into a character region and a non-character region; 2 for each color signal
Binarization processing means for performing the binarization processing; synthesis processing means for synthesizing the image data of each of the RGB colors which have been subjected to the binarization processing; rotation for recognizing the rotation angle of the image based on the synthesized image data An image processing apparatus comprising: a corner recognition unit; and a rotation processing unit that performs rotation processing on image data according to a rotation angle of the image.
【請求項2】 請求項1記載の画像処理装置において、 領域分離手段によって分離された文字領域及び非文字領
域のうち少なくとも文字領域の画像データを低解像度に
変換する解像度変換手段を備え、 2値化処理手段は、この低解像度に変換された画像デー
タに対して2値化処理を行う構成とされていることを特
徴とする画像処理装置。
2. The image processing apparatus according to claim 1, further comprising: resolution conversion means for converting image data of at least a character area of the character area and the non-character area separated by the area separation means to a low resolution. An image processing device configured to perform a binarization process on the image data converted to the low resolution.
【請求項3】 請求項1または請求項2記載の画像処理
装置において、 合成処理手段は、RGB各色の信号に対して2値化処理
手段により2値化処理された各画像データを論理積演算
によって合成する構成とされていることを特徴とする画
像処理装置。
3. The image processing apparatus according to claim 1, wherein the synthesizing processing unit performs a logical AND operation on each image data that has been binarized by the binarization processing unit with respect to the RGB signals. An image processing apparatus characterized in that the image processing apparatus is configured to combine images.
【請求項4】 請求項1〜請求項3のうち何れか一つに
記載の画像処理装置において、 原稿画像の濃度分布を示すヒストグラムを画像データか
ら生成するヒストグラム生成手段と、 2値化処理手段によって2値化処理された画像データの
画像形状を、上記ヒストグラムに基づいて判別する画像
形状判別手段と、 上記原稿画像の平均濃度と画像形状とに基づいて2値化
処理画像データの文字画像が白色画素で表されているか
否かを判別し、文字画像が白色画素で表されていると判
別した場合、2値化画像に反転処理を行う画像反転処理
手段とを備えていることを特徴とする画像処理装置。
4. The image processing apparatus according to claim 1, wherein a histogram indicating a density distribution of the document image is generated from the image data, and a binarization processing unit. Image shape discriminating means for discriminating the image shape of the image data binarized by the above based on the histogram; and character image of the binarized image data based on the average density and the image shape of the original image. Determining whether the character image is represented by a white pixel by determining whether or not the character image is represented by a white pixel; Image processing device.
【請求項5】 請求項4記載の画像処理装置において、 ヒストグラム生成手段により生成されたヒストグラムに
基づいて、ヒストグラムのエッジ形状を検出して、その
エッジの数を計数するエッジカウント手段と、 エッジの数を記憶するエッジ数記憶手段とを備え、 画像形状判別手段が、上記記憶されたエッジ数に基づい
て画像形状の判別を行う構成とされていることを特徴と
する画像処理装置。
5. An image processing apparatus according to claim 4, wherein an edge shape of the histogram is detected based on the histogram generated by the histogram generation means, and the number of edges is counted. An image processing apparatus comprising: edge number storage means for storing a number; and an image shape determination means configured to determine an image shape based on the stored edge number.
【請求項6】 請求項1〜請求項5のうち何れか一つに
記載の画像処理装置において、 回転角認識手段は、中間調背景及び非文字領域が除去さ
れた画像データによって生成された原稿の濃度分布を示
すヒストグラムに基づいて文字画像の方向を認識する構
成とされていることを特徴とする画像処理装置。
6. The image processing apparatus according to claim 1, wherein the rotation angle recognizing means includes a document generated from image data from which a halftone background and a non-character area have been removed. An image processing apparatus characterized in that the direction of a character image is recognized based on a histogram indicating the density distribution of the image.
JP2000337701A 2000-11-06 2000-11-06 Image processing device Pending JP2002142101A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000337701A JP2002142101A (en) 2000-11-06 2000-11-06 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000337701A JP2002142101A (en) 2000-11-06 2000-11-06 Image processing device

Publications (1)

Publication Number Publication Date
JP2002142101A true JP2002142101A (en) 2002-05-17

Family

ID=18813041

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000337701A Pending JP2002142101A (en) 2000-11-06 2000-11-06 Image processing device

Country Status (1)

Country Link
JP (1) JP2002142101A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7317835B2 (en) 2002-07-31 2008-01-08 Canon Kabushiki Kaisha Image processing method and apparatus
JP2014147069A (en) * 2013-01-29 2014-08-14 Sharp Corp Orientation determination apparatus, orientation determination method, and computer-readable record medium
EP3358816A4 (en) * 2015-09-29 2019-04-03 Kyocera Document Solutions Inc. Image-reading device and image-forming device
US10389909B2 (en) 2017-03-03 2019-08-20 Brother Kogyo Kabushiki Kaisha Image processing apparatus that specifies edge pixel in target image using minimum and maximum component values of pixel value in target image data
CN111680694A (en) * 2020-05-28 2020-09-18 中国工商银行股份有限公司 Method and device for filtering colored seal in character image

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7317835B2 (en) 2002-07-31 2008-01-08 Canon Kabushiki Kaisha Image processing method and apparatus
JP2014147069A (en) * 2013-01-29 2014-08-14 Sharp Corp Orientation determination apparatus, orientation determination method, and computer-readable record medium
US9076058B2 (en) 2013-01-29 2015-07-07 Sharp Laboratories Of America, Inc. Methods, systems and apparatus for determining orientation in a document image
EP3358816A4 (en) * 2015-09-29 2019-04-03 Kyocera Document Solutions Inc. Image-reading device and image-forming device
US10389909B2 (en) 2017-03-03 2019-08-20 Brother Kogyo Kabushiki Kaisha Image processing apparatus that specifies edge pixel in target image using minimum and maximum component values of pixel value in target image data
CN111680694A (en) * 2020-05-28 2020-09-18 中国工商银行股份有限公司 Method and device for filtering colored seal in character image

Similar Documents

Publication Publication Date Title
US8073262B2 (en) Image matching apparatus, image matching method, and image data output processing apparatus
US5995665A (en) Image processing apparatus and method
US8050501B2 (en) Image matching apparatus, image matching method, and image data output processing apparatus
US8184344B2 (en) Image processing apparatus and image processing method, computer program and storage medium
JP2002232708A (en) Image processing device, image forming device using the same, and image processing method
JP2007067932A (en) Image processing apparatus and method thereof
JP2000175031A (en) Image processing unit, image processing method and image input device
JP4115999B2 (en) Image processing apparatus, image forming apparatus, image reading processing apparatus, image processing method, image processing program, and computer-readable recording medium
JP3088010B2 (en) Line drawing separation method and apparatus
JP3334042B2 (en) IMAGE PROCESSING APPARATUS, IMAGE READING APPARATUS AND IMAGE FORMING APPARATUS EQUIPPED WITH THE SAME, IMAGE PROCESSING METHOD, AND COMPUTER-READABLE STORAGE MEDIUM CONTAINING IMAGE PROCESSING PROCEDURE
US6041205A (en) Image processing apparatus for laying out plurality of images in conformity with image orientation
US6987587B2 (en) Multiple recognition image processing apparatus
JP2002142101A (en) Image processing device
JP3313592B2 (en) Document type determination method, color image processing device
JP3754736B2 (en) Image processing apparatus and method
JP4080252B2 (en) Image processing apparatus, image forming apparatus, image processing method, program, and recording medium
JP2000295469A (en) Image forming device
JPH10108012A (en) Image area separating device
JP2002232709A (en) Image processing device, image forming device using the same, and image processing method
JP2000324338A (en) Original kind recognition device
JP2003189091A (en) Apparatus, method and program for processing image
JP2002158873A (en) Image processor, imaging apparatus, image processing method and recording medium
JP4154867B2 (en) Image area discrimination apparatus and image area discrimination program
JP2004253979A (en) Image processor and image forming apparatus
JP2001160900A (en) Color picture processor