JP2702133B2 - Image processing method - Google Patents

Image processing method

Info

Publication number
JP2702133B2
JP2702133B2 JP62328430A JP32843087A JP2702133B2 JP 2702133 B2 JP2702133 B2 JP 2702133B2 JP 62328430 A JP62328430 A JP 62328430A JP 32843087 A JP32843087 A JP 32843087A JP 2702133 B2 JP2702133 B2 JP 2702133B2
Authority
JP
Japan
Prior art keywords
edge
image
block
blocks
edge amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP62328430A
Other languages
Japanese (ja)
Other versions
JPH01173971A (en
Inventor
正 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP62328430A priority Critical patent/JP2702133B2/en
Publication of JPH01173971A publication Critical patent/JPH01173971A/en
Priority to US07/849,839 priority patent/US5157743A/en
Priority to US07/881,871 priority patent/US5384868A/en
Priority to US08/247,671 priority patent/US5659636A/en
Priority to US08/311,597 priority patent/US5721791A/en
Application granted granted Critical
Publication of JP2702133B2 publication Critical patent/JP2702133B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は画像処理方法、特に多値デイジタル画像にお
ける画像処理を行う画像処理方法に関するものである。 [従来の技術] 近年、フアクシミリ通信の普及あるいはレーザプリン
タ等の高精細プリンタの発達に伴ない、従来の文字・図
形等の線画のみならず、新聞やカタログ等の文字、写真
混在画像や文字、網点画像混在画像を通信、あるいは出
力処理する要求が強くなつてきている。一般にこの種の
処理においては、画像の2値化処理を行うのが普通であ
る。 従来中間調を含む画像を2値化する場合にはデイザ法
とよばれる2値化処理をほどこし、中間調を表現してい
る。しかし、デイザ法による階調表現には次の欠点があ
る。 (a)網点原稿に対して網点とデイザマトリツクスの間
でモアレは発生し、画像を著しく劣化させる。 (b)文字がデイザによる分断され品位が低下する。 そこで、中間調部分と、文字、網細線部分を分離し
て、前者にはデイザ処理、後者には固定しきい値の2値
化処理を行う方法がある。例えば、第8図に示すように
m×nのブロツク内で濃度最大のものをPmax、最小もの
をPminとし、 Pmax−Pmin>Tの場合 エツジ部→固定しきい値による2値化 Pmax−Pmin≦Tの場合 (3) 平坦部→デイザ法による2値化 とする方法が提案されている。 しかし、このような方法を用いても前述の欠点(b)
は改善されるが、依然として(a)の問題がのこつてい
る。(a)の問題を解決するため、平坦と判断した場
合、平滑処理を行つてからデイザ処理を行うことも考え
られるが、網点画像の平坦部においても網点の高周波の
ためにエツジ部と判断されやすく、網点部は固定しきい
値による2値化のためざらざらした画像となる。 また、網点平坦部を平坦部と判定するような条件にす
ると、今度は文字部バンドのエツジが平坦部と判定され
やすく、前記(b)の問題が解決されない。 [発明が解決しようとしている課題] 本発明は、上述従来例の欠点を除去し、文書画像,網
点画像,写真画像等の種々のタイプの画像に対し、エッ
ジを劣化させることなく、中間調を表現する画像処理方
法を提供する。 特に、従来欠点とされた網点部の網点とデイザマトリ
クスの間で生じるモアレを平滑により除去しつつ、文字
部のエツジ部を強調することにより高品位な画像を提供
する。 [課題を解決するための手段] この課題を解決するために、本発明の画像処理方法
は、画像を所定サイズのブロックに分割して、注目ブロ
ック内のエッジ量を算出し、前記注目ブロックとその周
辺のブロックとの間のブロック間のエッジ量を算出し、
前記注目ブロック内のエッジ量と前記ブロック間のエッ
ジ量とに基づいて、前記注目ブロック内の画像の特徴を
判別することを特徴とするを特徴とする。 [作用] かかる構成において、注目ブロック内のエッジ量とブ
ロック間のエッジ量とに基づいて、注目ブロック内の画
像の特徴を判別することにより、エッジを劣化させるこ
となく中間調を表現することができる。 [実施例] 以下添付図面を参照しながら本発明の実施例を詳細に
説明する。 第1図に本実施例の画像処理装置のブロツク図を示
す。画像信号は画像入力部11からラインバツフア12に入
り、4×4画素を1ブロツクとして、直交変換部13で注
目ブロツクの直交変換を行う。その後エツジ量検出部14
にて、ブロツク内でのエツジ量の判定が行われる。一方
ブロツク平均比較部15において、周辺ブロツクとの関連
の判定が行われる。ここでは、前ラインのブロツクの平
均値と前ブロツクの平均値とを記憶しておくメモリ(不
図示)が内蔵されている。エツジ量検出部14の判定結果
を2ビツトで出力し、ブロツク平均比較部15の判定結果
は1ビツトで出力し、それぞれの信号はセレクタ18へ入
力されて、2つの出力画像データの一方が選択される。 一方、画像データはラインバツフア12にたくわえられ
た後、平滑化フイルタ16により平滑化されると同時にエ
ツジ強調部17によりエツジ強調され、2種類の画像デー
タがセレクタ18へ入力される。ここで、エツジ量検出部
14,ブロツク平均比較部15の出力内容によつて一方が選
択される。選択された画像データは出力部19により出力
処理される。 まず、直交変換部13における変換処理を説明する。
尚、本実施例においてはブロツクを4×4に分割し、ア
ダマール変換を行う例を述べる。 第2図は本実施例における4×4のブロツクへの分割
を示す。第3図(a),(b)は直交変換(本実施例で
はアダマール変換)の概念図であり、第4図はシーケン
シー成分を示す図である。第3図(a),(b)及び第
4図に従つて、本実施例の直交変換の概念を説明する。 第2図では、注目ブロツクをX、前ブロツクをC、前
ラインの同位置ブロツクをB、前ラインの前ブロツクを
Aとし、P1,…,P16は注目ブロツクXの各画像濃度で8
ビツトで表わされている。 第3図(a)の4×4の画素データP1,P2,…,P16をア
ダマール変換して、第3図(b)のY11,Y12,…,Y44のシ
ーケンシー成分に変換を行う。本実施例ではY11〜Y44
10ビツトのシーケンシー成分に変換を行う。アダマール
変換はウオルシユ型を用い、Y11〜Y44はそれぞれ第4図
の対応する位置のシーケンシー成分となる。アダマール
変換された1ブロツク(4×4画素)のシーケンシー成
分Y11〜Y44によりその1ブロツクの画像データのエツジ
量を検出する。 画像のように相関の高い情報は直交変換を施すことに
より低域にパワーを集中させることができるから、シー
ケンシーの低い成分のパワーの大小により画像の性質た
とえばエツジ部、非エツジ部等を分類することができ
る。 次に、エツジ量検出部14のエツジ量検出方法の一例を
詳細に述べる。本実施例では第5図のようなエツジ量を
定義する。第5図に示す様にエツジ量を斜線で示した成
分の絶対値の和と定義し、エツジ量EDがあるスレシヨル
ド以上の場合はエツジとする。本実施例ではスレシヨル
ドT1、T2(T1<T2)の2レベルを設け, ED≦T1のとき 平坦 T1<ED≦T2のとき 弱エツジ …(1) T2<ED のとき 強エツジ と判定を行う。この判定の場合、写真画像の平坦部及び
文字画像のバツクグラウンド部等は平坦部、弱いエツジ
あるいは網点の平坦部は弱エツジ部、文字部及び画像の
エツジの強いところは強エツジ部と判定するようにT1,T
2を決めている。しかし、この判定だけでは写真のエツ
ジ等弱いエツジと網点平坦部の区別がつきにくい。 そこで、ブロツク平均比較部15において、第6図に示
すようにブロツク間の平均値を比較する。第6図におい
て、Y11〜Y44は第5図と同様に注目ブロツクXのアダマ
ール変換後の各成分の値を示す。Y11はブロツク内濃度
の平均値に比例した値を示す。 Y11a,Y11b,Y11cは、第2図で示したように隣接ブロツ
クの平均値である。本実施例においては次式が成立した
ときにブロツク間にエツジがなしと判定する。 |Y11−Y11a|≦T4 かつ |Y11−Y11b|≦T4 …(2) かつ |Y11−Y11c|≦T4 但し、T4は所定のスレツシユホールド値 これをYDEF≦T4と定義すると、ブロツク間にエツジが
ある場合は上式のいずれかが成立しない場合すなわちY
DEF>T4である。高精細な網点画像(たとえば150線や17
5線)の平坦部は、4×4ブロツク内ではエツジと判定
されるがブロツク間の平均値はあまり変らない。そこで
ブロツク内エツジ判定とブロツク間エツジ判定を用い
て、第7図の様に画像を分類することができる。すなわ
ち、(1)式の判定により平坦、弱エツジ、強エツジと
判定した後、(2)式によりブロツク間でエツジがある
かどうか判定している。(1)式,(2)式の判定方法
により、第7図〜までの分類ができる。〜の画
像の性質は以下のようになる。 平坦部…写真平坦部、文字画像背景等 ブロツク内平坦…文字部、線画のエツジに隣接する平
坦部 網点…網点の平坦部 弱エツジ…写真等の弱いエツジ ブロツク内強エツジ…文字の内部の複雑パターン等 強エツジ…文字のエツジ等 前述の分類のうち、は平坦部、はエツジ
部とみなすことが好ましい。特に、の網点平坦部はエ
ツジ部とみなすと、モアレ発生の原因となつたり、ざら
ついた画像となる。そこで本実施例においては、平坦部
であるでは平滑フイルタ16からの平滑処理の出力
を、エツジ部であるについてはエツジ強調部17か
らのエツジ強調出力を選択することにより、文字・細線
に対しては劣化を生じさせずに、網点によるモアレを抑
制し、品位を向上させている。 本実施例では、(1)式,(2)式による判定により
第7図に示すように分類し、この結果に応じて、平滑処
理あるいはエツジ強調処理を行うことにより、 (a)網点原稿に対して網点とデイザマトリツクスの間
でモアレは発生し、画像を著しく劣化させる。 (b)文字がデイザにより分断され分位が低下する等の
問題点を解決するものである。 尚、本実施例においてはエツジ部の検出においてアダ
マール変換を行つたが、第8図及び(3)式で示したよ
うにブロツク内の最大濃度と最小濃度の差を用いて行つ
てもよい。この場合第1図において、アダマール変換部
13でアダマール変換を行わずエツジ量検出部14において
(3)式の判定を行えばよい。ブロツク平均比較部15で
は平均値を計算する必要がある。このようにして第1図
と同様に実施することができる。更に、エツジ量は本例
に限らず、エツジ量検出部をラプラシアン等の他のエツ
ジ量を検出するものとしてもよい。 以上述べたように本実施例により、文字・細線を劣化
させずに中間調画像の品位を向上させることができるば
かりでなく、従来問題であつた網点画像のモアレを抑制
することが可能となつた。 [発明の効果] 本発明により、文書画像,網点画像,写真画像等の種
々のタイプの画像に対し、エッジを劣化させることな
く、中間調を表現する画像処理方法を提供できる。 特に、従来欠点とされた網点部の網点とデイザマトリ
クスの間で生じるモアレを平滑により除去しつつ、文字
部のエッジ部を強調することにより高品位な画像を提供
できる。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing method, and more particularly to an image processing method for performing image processing on a multilevel digital image. [Prior Art] In recent years, with the spread of facsimile communication or the development of high-definition printers such as laser printers, not only conventional line drawings such as characters and figures, but also characters such as newspapers and catalogs, images mixed with photographs, characters, There is an increasing demand for communication or output processing of halftone image mixed images. Generally, in this type of processing, binarization processing of an image is usually performed. Conventionally, when binarizing an image including a halftone, a binarization process called a dither method is performed to express a halftone. However, the dither method has the following disadvantages. (A) Moire is generated between a halftone dot and dither matrix for a halftone dot document, and the image is remarkably deteriorated. (B) Characters are cut by dither, and the quality is degraded. Therefore, there is a method in which a halftone portion is separated from a character and a thin line portion, and dither processing is performed in the former, and binarization processing of a fixed threshold is performed in the latter. For example, as shown in FIG. 8, P max is the maximum density and P min is the minimum density in an m × n block, and P max −P min > T. In the case of P max −P min ≦ T (3) A method of flattening → binarization by the dither method has been proposed. However, even if such a method is used, the aforementioned disadvantage (b)
Is improved, but the problem (a) still remains. In order to solve the problem (a), when it is determined that the image is flat, it is conceivable to perform the dithering after performing the smoothing process. It is easy to judge, and the halftone portion becomes a rough image due to binarization by a fixed threshold value. Further, if the condition that the halftone dot flat portion is determined as the flat portion is set, the edge of the character portion band is likely to be determined as the flat portion, and the problem (b) cannot be solved. [Problems to be Solved by the Invention] The present invention eliminates the above-mentioned drawbacks of the conventional example, and makes it possible to use various types of images, such as a document image, a halftone dot image, and a photographic image, without deteriorating the halftone. Is provided. In particular, a high-definition image is provided by emphasizing an edge portion of a character portion while removing moiré generated between a halftone dot and a dither matrix, which has been regarded as a defect in the related art, by smoothing. [Means for Solving the Problem] In order to solve this problem, an image processing method according to the present invention divides an image into blocks of a predetermined size, calculates an edge amount in a block of interest, and Calculate the edge amount between blocks with the surrounding blocks,
The feature of the image in the block of interest is determined based on the edge amount in the block of interest and the edge amount between the blocks. [Operation] In such a configuration, it is possible to express a halftone without deteriorating edges by determining features of an image in the block of interest based on the amount of edges in the block of interest and the amount of edges between blocks. it can. Embodiment An embodiment of the present invention will be described below in detail with reference to the accompanying drawings. FIG. 1 is a block diagram of the image processing apparatus according to the present embodiment. The image signal enters the line buffer 12 from the image input unit 11, and 4 × 4 pixels are regarded as one block, and the orthogonal transformation unit 13 performs orthogonal transformation of the block of interest. After that, the edge amount detector 14
At, the edge amount in the block is determined. On the other hand, the block average comparison unit 15 determines the association with the surrounding blocks. Here, a memory (not shown) for storing the average value of the previous block and the average value of the previous block is built in. The judgment result of the edge amount detection unit 14 is output in 2 bits, the judgment result of the block average comparison unit 15 is output in 1 bit, each signal is input to the selector 18, and one of the two output image data is selected. Is done. On the other hand, after the image data is stored in the line buffer 12, the image data is smoothed by the smoothing filter 16 and simultaneously edge-emphasized by the edge emphasizing unit 17, and two types of image data are input to the selector 18. Here, the edge amount detection unit
14, one of them is selected according to the output content of the block average comparison section 15. Output processing of the selected image data is performed by the output unit 19. First, a conversion process in the orthogonal transform unit 13 will be described.
In this embodiment, an example in which a block is divided into 4 × 4 and Hadamard transform is performed will be described. FIG. 2 shows the division into 4 × 4 blocks in this embodiment. 3 (a) and 3 (b) are conceptual diagrams of orthogonal transform (Hadamard transform in this embodiment), and FIG. 4 is a diagram showing a sequence component. The concept of the orthogonal transformation of the present embodiment will be described with reference to FIGS. 3 (a), (b) and FIG. In Figure 2, the target block X, the previous block C, and the same position block of the previous line B, and previous blocks of the previous line and A, P 1, ..., P 16 in each image density of the target block X 8
Expressed in bits. Figure 3 (a) pixel data P 1 of the 4 × 4, P 2, ... , and the P 16 Hadamard transform, Y 11, Y 12 of FIG. 3 (b), ..., the sequency components of Y 44 Perform the conversion. In this embodiment, Y 11 to Y 44
Convert to a 10-bit sequence component. The Hadamard transform uses a Walsh type, and Y 11 to Y 44 are sequence components at corresponding positions in FIG. The edge amount of the image data of one block is detected by the sequence components Y 11 to Y 44 of one block (4 × 4 pixels) subjected to the Hadamard transform. Since information having a high correlation such as an image can be concentrated in a low frequency region by performing an orthogonal transformation, the characteristics of the image, for example, an edge portion and a non-edge portion are classified according to the magnitude of the power of the low-sequence component. be able to. Next, an example of an edge amount detection method of the edge amount detection unit 14 will be described in detail. In this embodiment, the edge amount is defined as shown in FIG. The edge amount as shown in FIG. 5 is defined as the sum of the absolute values of the components shown by hatching in the case of more than Sureshiyorudo there is edge amount E D and edge. In the present embodiment, two levels of thresholds T 1 and T 2 (T 1 <T 2 ) are provided, and flat when E D ≦ T 1 and weak when T 1 <E D ≦ T 2 ... (1) T 2 < In case of E D It is judged as strong edge. In this case, a flat portion of a photographic image and a background portion of a character image are determined to be a flat portion, a flat portion of a weak edge or a halftone dot is determined to be a weak edge portion, and a strong portion of a character portion and an edge of an image are determined to be a strong edge portion. T 1 , T as
I have decided 2 . However, it is difficult to distinguish a weak edge such as a photograph edge from a halftone dot flat portion only by this determination. Therefore, the block average comparing section 15 compares the average values between the blocks as shown in FIG. In FIG. 6, Y 11 to Y 44 indicate the values of the respective components of the block of interest X after the Hadamard transform, as in FIG. Y 11 represents a value proportional to the average value of the concentration of block. Y 11a , Y 11b , and Y 11c are the average values of adjacent blocks as shown in FIG. In this embodiment, when the following equation is satisfied, it is determined that there is no edge between blocks. | Y 11 −Y 11a | ≦ T 4 and | Y 11 −Y 11b | ≦ T 4 … (2) and | Y 11 −Y 11c | ≦ T 4 where T 4 is a predetermined threshold value. defining the DEF ≦ T 4, if any of the above equation is not satisfied if there is edge between blocks, that is, the Y
DEF> T is four. High-definition halftone images (for example, 150 lines or 17
The flat portion (line 5) is determined to be an edge within a 4 × 4 block, but the average value between blocks does not change much. Therefore, the image can be classified as shown in FIG. 7 by using the edge judgment in the block and the edge judgment in the block. That is, after determining that the edge is flat, weak edge or strong edge by the determination of the expression (1), it is determined whether there is an edge between the blocks by the expression (2). According to the determination methods of the expressions (1) and (2), the classification shown in FIGS. Are as follows. Flat part: flat part in the block such as a photograph flat part, character image background ... flat part halftone dot adjacent to the edge of the character part or line drawing ... flat part of the halftone dot weak edge ... weak edge block in the photo etc. strong edge in the character: inside the character Strong edges such as complex patterns ... edges of characters etc. Among the above-mentioned classifications, it is preferable to regard as flat parts and as edge parts. In particular, when the halftone dot flat portion is regarded as an edge portion, it becomes a cause of generation of moire or becomes a rough image. Therefore, in this embodiment, by selecting the output of the smoothing process from the smoothing filter 16 for the flat portion and the edge-enhanced output from the edge emphasizing portion 17 for the edge portion, the character / thin line is selected. Does not cause deterioration, suppresses moiré due to halftone dots, and improves quality. In the present embodiment, classification is performed as shown in FIG. 7 based on the determinations made by equations (1) and (2), and smoothing processing or edge emphasis processing is performed according to the result. On the other hand, moiré occurs between the halftone dot and the dither matrix, which significantly deteriorates the image. (B) It is to solve the problems such as the character being divided by the dither and the quantile being lowered. In this embodiment, the Hadamard transform is performed in detecting the edge portion. However, the Hadamard transform may be performed by using the difference between the maximum density and the minimum density in the block as shown in FIG. 8 and equation (3). In this case, in FIG.
The edge amount detection unit 14 may perform the determination of Expression (3) without performing the Hadamard transform in 13. The block average comparison section 15 needs to calculate an average value. Thus, the embodiment can be implemented in the same manner as in FIG. Further, the edge amount is not limited to this example, and the edge amount detection unit may detect another edge amount such as Laplacian. As described above, according to the present embodiment, it is possible not only to improve the quality of the halftone image without deteriorating the characters and thin lines, but also to suppress the moire of the halftone dot image which has been a problem in the past. Natsuta [Effects of the Invention] According to the present invention, it is possible to provide an image processing method for expressing halftones of various types of images such as a document image, a halftone dot image, and a photographic image without deteriorating edges. In particular, it is possible to provide a high-quality image by emphasizing the edges of the character portion while smoothing the moire generated between the halftone dot and the dither matrix, which has been regarded as a defect, and smoothing the moire.

【図面の簡単な説明】 第1図は本実施例の画像処理装置のブロツク図、 第2図は本実施例における4×4のブロツクへの分割を
示す図、 第3図(a),(b)は本実施例のアダマール変換の概
念図、 第4図は本実施例のシーケンシー成分を示す図、 第5図のは本実施例のエツジ量の定義を説明する図、 第6図は本実施例のブロツク間の平均値の比較を説明す
る図、 第7図は本実施例の画像の分類を説明する図、 第8図はブロツク内の濃度最大のものと最小のものとの
差によるエツジ量の検出を説明する図である。 図中、11……画像入力部、12……ラインバツフア、13…
…直交変換部、14……エツジ量検出部、15……ブロツク
平均比較部、16……平滑化フイルタ、17……エツジ強調
部、17、18……セレクタ、19……出力部である。
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram of an image processing apparatus according to this embodiment, FIG. 2 is a diagram showing division into 4 × 4 blocks in this embodiment, and FIGS. b) is a conceptual diagram of the Hadamard transform of the present embodiment, FIG. 4 is a diagram showing a sequence component of the present embodiment, FIG. 5 is a diagram for explaining the definition of the edge amount of the present embodiment, and FIG. FIG. 7 is a diagram for explaining comparison of average values between blocks in the embodiment, FIG. 7 is a diagram for explaining classification of images in this embodiment, and FIG. 8 is a diagram based on a difference between a maximum density and a minimum density in a block. It is a figure explaining detection of an edge amount. In the figure, 11 ... an image input unit, 12 ... a line buffer, 13 ...
... Orthogonal transform unit, 14... Edge amount detection unit, 15... Block average comparison unit, 16... Smoothing filter, 17... Edge enhancement unit, 17, 18.

Claims (1)

(57)【特許請求の範囲】 1.画像を所定サイズのブロックに分割して、注目ブロ
ック内のエッジ量を算出し、 前記注目ブロックとその周辺のブロックとの間のブロッ
ク間のエッジ量を算出し、 前記注目ブロック内のエッジ量と前記ブロック間のエッ
ジ量とに基づいて、前記注目ブロック内の画像の特徴を
判別することを特徴とする画像処理方法。 2.前記注目ブロック内のエッジ量は、前記注目ブロッ
ク内の画像データに基づいて算出され、 前記ブロック間のエッジ量は、前記注目ブロックとその
周辺のブロックの画像データに基づいて算出されること
を特徴とする特許請求の範囲第1項に記載の画像処理方
法。
(57) [Claims] The image is divided into blocks of a predetermined size, an edge amount in the block of interest is calculated, and an edge amount between blocks between the block of interest and peripheral blocks is calculated. An image processing method comprising: determining a feature of an image in the block of interest based on an edge amount between the blocks. 2. The edge amount in the target block is calculated based on image data in the target block, and the edge amount between the blocks is calculated based on image data of the target block and peripheral blocks. The image processing method according to claim 1, wherein
JP62328430A 1987-10-28 1987-12-26 Image processing method Expired - Fee Related JP2702133B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP62328430A JP2702133B2 (en) 1987-12-26 1987-12-26 Image processing method
US07/849,839 US5157743A (en) 1987-10-28 1992-03-12 Image information coding apparatus
US07/881,871 US5384868A (en) 1987-10-28 1992-05-12 Image information coding apparatus
US08/247,671 US5659636A (en) 1987-10-28 1994-07-12 Image information coding apparatus
US08/311,597 US5721791A (en) 1987-10-28 1994-09-23 Image information coding apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62328430A JP2702133B2 (en) 1987-12-26 1987-12-26 Image processing method

Publications (2)

Publication Number Publication Date
JPH01173971A JPH01173971A (en) 1989-07-10
JP2702133B2 true JP2702133B2 (en) 1998-01-21

Family

ID=18210174

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62328430A Expired - Fee Related JP2702133B2 (en) 1987-10-28 1987-12-26 Image processing method

Country Status (1)

Country Link
JP (1) JP2702133B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6181819B1 (en) 1989-08-02 2001-01-30 Canon Kabushiki Kaisha Image processing apparatus including means for judging a chromatic portion of an image
JP2006215785A (en) * 2005-02-03 2006-08-17 Ricoh Co Ltd Image processing method, image processing device, image processing program and recording medium

Also Published As

Publication number Publication date
JPH01173971A (en) 1989-07-10

Similar Documents

Publication Publication Date Title
US6049635A (en) Dotted image area detecting apparatus and dotted image area detecting method
JP4170353B2 (en) Image processing method, image processing apparatus, image reading apparatus, image forming apparatus, program, and recording medium
JP4988624B2 (en) Image processing apparatus, image processing method, and recording medium
JP2001251517A (en) Image processing method, image processor and image processing system
JP3334042B2 (en) IMAGE PROCESSING APPARATUS, IMAGE READING APPARATUS AND IMAGE FORMING APPARATUS EQUIPPED WITH THE SAME, IMAGE PROCESSING METHOD, AND COMPUTER-READABLE STORAGE MEDIUM CONTAINING IMAGE PROCESSING PROCEDURE
JP4228466B2 (en) Image processing apparatus, image processing method, and computer-readable storage medium storing image processing procedure
JP2702133B2 (en) Image processing method
JP3334047B2 (en) IMAGE PROCESSING APPARATUS, IMAGE READING APPARATUS AND IMAGE FORMING APPARATUS EQUIPPED WITH THE SAME, IMAGE PROCESSING METHOD, AND COMPUTER-READABLE STORAGE MEDIUM CONTAINING IMAGE PROCESSING PROCEDURE
JP3100383B2 (en) Character region separation method and apparatus
JP3942080B2 (en) Image forming apparatus
JP2006304015A (en) Image processing apparatus, image forming apparatus, method of processing image, computer program and recording medium
JPS63114462A (en) Identifying device for image area
JP3789243B2 (en) Image processing apparatus and method
JP2002158872A (en) Image processing method, image processor and recording medium
JP3117331B2 (en) Image data processing device
JP3361355B2 (en) Image processing device
JP3093235B2 (en) Image processing method and apparatus
JP4324532B2 (en) Image processing apparatus and storage medium
JP2001119575A (en) Image processing unit
JPH05292312A (en) Dot area separator
JP3007102B2 (en) Image processing device
JP2962742B2 (en) Image processing device
JP3070174B2 (en) Image forming device
JP2003224718A (en) Image processing method and image processor
JP2000357237A (en) Image processor, image reading device and image forming device mounted with the processor, image processing method, and computer-readable storage medium stored with image processing procedure

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees