JPH04144485A - Image processor - Google Patents

Image processor

Info

Publication number
JPH04144485A
JPH04144485A JP2266675A JP26667590A JPH04144485A JP H04144485 A JPH04144485 A JP H04144485A JP 2266675 A JP2266675 A JP 2266675A JP 26667590 A JP26667590 A JP 26667590A JP H04144485 A JPH04144485 A JP H04144485A
Authority
JP
Japan
Prior art keywords
image
encoding
approximation
unit
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2266675A
Other languages
Japanese (ja)
Inventor
Eita Miyake
三宅 英太
Satoshi Minami
南 敏
No Nakamura
中村 納
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2266675A priority Critical patent/JPH04144485A/en
Publication of JPH04144485A publication Critical patent/JPH04144485A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)

Abstract

PURPOSE:To attain highly developed compression while holding high picture quality by separating an objective document image into a half tone area and a character area and using a coding system appropriate for the statistic properties of respective areas. CONSTITUTION:An input image is separated into a character area and a half tone area by an area sorting means 11 and the character area is divided into plural blocks by a blocking means 12. The 1st coding means 13 codes respective blocks by a coding system appropriate for the statistic property of the character area and the 2nd coding means 14 executes coding by a coding system appropriate for the statistic property of the half-tone area. Since the image is divided into two areas and coded by means of the coding systems appropriate for respective areas, highly developed compression can be attained while holding high picture quality and the processing time can also be shortened.

Description

【発明の詳細な説明】[Detailed description of the invention]

[産業上の利用分野] 本発明は、文字領域および中間調領域を含む多値画像を
符号化し、あるいはそのように符号化された符号を復号
する処理を行う画像処理装置に関する。
[Industrial Field of Application] The present invention relates to an image processing apparatus that encodes a multivalued image including a character region and a halftone region, or decodes a code encoded in this manner.

【従来の技術】[Conventional technology]

画像は直感的に全体を杷抑することのできる情報であり
、画像を用いたコミユニケーンコンは情報伝達機能の極
めて優れた手段として、広く一般に普及している。しか
しながら、画像情報は一般に情報量が極めて多いため、
これを原画像情報の形のままで通信網を通して遠隔地へ
伝送したり各種電子媒体に蓄積するとコストおよび処理
時間が大きな制約となってしまう。このために画像情報
を効率的に圧縮し、伝送または蓄積するための高能率符
号化方式が必要になってくる。 高能率符号化方式としては、予測符号化方式、ブロック
符号化方式(B T C:Block Truncat
ionCoding) 、直行変換符号化方式、ベクト
ル量子化方式、エントロピー?4号化方式などが知られ
ている。
Images are information that can intuitively control the whole picture, and community communication using images has become widely popular as an extremely excellent means of transmitting information. However, since image information generally has an extremely large amount of information,
If this original image information is transmitted to a remote location through a communication network or stored in various electronic media in the form of original image information, cost and processing time become major constraints. For this reason, a high-efficiency encoding method for efficiently compressing, transmitting or storing image information is required. High-efficiency coding methods include predictive coding and block truncate coding (BTC).
ionCoding), orthogonal transform coding method, vector quantization method, entropy? The No. 4 method is known.

【発明が解決しようとする課題】[Problem to be solved by the invention]

このように様々な高能率符号化方式が提案されているが
、対象とする文書画像の性質によりそれぞれ一長一短が
あり、文字、線画、中間調画像などが混在する文書の画
像を符号化するには十分ではなかった。 本発明は、画像情報を高い画品質を保持し、しかも高度
に圧縮することができ、処理時間も短い符号化/復号化
を行うことのできる画像処理装置を提供することを目的
とするものである。
Various high-efficiency encoding methods have been proposed, but each has advantages and disadvantages depending on the nature of the target document image. It wasn't enough. SUMMARY OF THE INVENTION An object of the present invention is to provide an image processing device that can encode/decode image information in a short processing time while maintaining high image quality and highly compressing the image information. be.

【課題を解決するだめの手段】[Means to solve the problem]

本発明は、多値画像を符号化する画像処理装置であって
、入力画像を文字・図形等からなる文字領域と写真等の
中間調領域との二つに分類する分類手段(第1図11)
と、この分類手段の分類の結果、文字領域に分類さλl
た領域に対し人力画像をN1×N2 (N1、N2は正
整数)画紫のブロックに分割するブロック化手段(第1
図12)と、このブロック化手段によるブロック化され
た各ブロックを符号化する第1の9n号化手段(第1図
13、第3図)と、分類手段の分類の結果、中間調領域
に分類された領域に対し781号化する第2の符号化手
段(第1図14、第5図)とをイrする。 また、本発明の多値画像を符号化する画像処理装置は、
中間調領域を符号化するために、入力画像を一定間隔で
代表値をとるサンプリング手段(第5図51)と、サン
プリングの結果から入力画像を曲面近似する近似手段(
第5図53)と、入力画像と前記近似手段の近似結果と
を比較して近似誤差を計算する計算手段(第5図54)
と、この計算手段の削算結果が所定の閾値より小さい場
合はそのまま符号化し、大きい場合は付加情報を(=1
加して符号化する?n号化手段(第5図55〜58)と
を有する。 また、本発明の画像処理装置により符号化された結果を
復号する装置は、符号化されたデータをイマ」釦情報と
曲面近似情報とに分類する手段(第11図111)と、
前記付加情報がある場合はこのイζ]加情報を用いて復
元された画像を補正する手段(第11図114〜117
)とををする。 また、本発明の一態様によれば、近似手段(第5図53
)は曲面の大きさを画像の濃度変化に応じて変化さゼ、
変化が緻しい場合は曲面を小さくし、変化が少ない単調
な場合は曲面を大きくする(−4成とすることができる
The present invention is an image processing device for encoding a multivalued image, and includes a classification means (see FIG. )
As a result of the classification by this classification means, λl is classified into the character area.
Blocking means (first
12), a first 9n encoding means (FIGS. 1 and 3) that encodes each block formed into blocks by this blocking means, and a halftone area as a result of the classification by the classification means. A second encoding means (FIG. 14, FIG. 5) that performs 781 encoding on the classified area is implemented. Further, the image processing device for encoding a multivalued image of the present invention includes:
In order to encode the halftone area, there are a sampling means (FIG. 5, 51) that takes representative values of the input image at regular intervals, and an approximation means (51) that approximates the input image to a curved surface from the sampling result.
Fig. 5 53) and calculation means for calculating an approximation error by comparing the input image and the approximation result of the approximation means (Fig. 5 54)
If the reduction result of this calculation means is smaller than a predetermined threshold, it is encoded as is, and if it is larger, additional information is added (=1
Add and encode? n encoding means (FIG. 5, 55 to 58). Further, the device for decoding the result encoded by the image processing device of the present invention includes means (111 in FIG. 11) for classifying the encoded data into “ima” button information and curved surface approximation information;
If there is the additional information, the means for correcting the restored image using the additional information (114 to 117 in FIG. 11)
). Further, according to one aspect of the present invention, the approximation means (FIG. 53
) changes the size of the curved surface according to the density change of the image,
If the changes are dense, the curved surface is made smaller, and if the changes are monotonous, the curved surface is made larger (-4 composition can be used).

【作用] 入力画像を領域分類手段により文字領域と中間調領域に
分離し、文字領域はブロック化手段によりブロックに分
割する。第1の9X1号化手段は文字領域の統、II目
的質に適した符号化方式により各ブロックの符号化を行
う。また、第2の符号化手段は中間調領域の統ill的
性質に適した符号化方式により符号化を行う。本発明は
このように画像を領域に分け、それぞれの領域に適した
符号化方式を用いて初号化するので、高い画品質で高度
の圧縮を行うことができ、処理時間も短縮することがで
きる。 また、本発明の1n号化においては、サンプリング手段
によりサンプリングし、サンプル点の画素濃度を符号化
するので、符号量を高度に圧縮することができる。さら
に近似手段が曲面近似によりサンプル点から補間した画
像と人力画像との差(近似誤差)が所定の閾値より大き
いときは、符号化手段は近似誤差を付加情報として符号
化し、前記サンプル点の画素濃度の符号化情報にイ」加
する。従って、復号に際してイ」釦情報により誤差を補
正することができるので、高品質で符号化復号化を行う
ことができる。 また、本発明はサンプル点を画像の性質に応じて濃度変
化の激しい領域には細かいサンプリング、単調な領域に
は粗いサンプリングを行うことにより、曲面近似のパン
チサイズを可変にすれば、効率的な符号化が可能となる
。 【実施例】 第2図は本発明をデジタル複写機に適用した画像処理装
置の概略の111X成を示すもので、イメージスキャナ
等の画像入力部21、画像の変換や編集その他の画像の
処理を行う画像処理部22と、プリンタ等の画像出力部
23と、画像を圧縮して効能率符号化を行い、あるいは
その逆の処理による復号化を行う詞号化/復合化部(C
ODEC)24と、符号化された画像を記憶する記憶部
25とからなっている。 第1図は本発明の符号化を行う実施例の構成を示すもの
で、入力画像を文字の図形等からなる文字領域と写真等
の中間調領域との二つに分類する領域分類部11と、こ
の領域分類部11の分類の結果、文字領域に分類された
領域に対し入力画像をN1×N2 (N1、N2は正整
数)画素のブロックに分割するブロック化部12と、こ
のブロック化部12によりブロック化された各ブロック
を符号化する文字領域符号化部13と、領域分類部11
の分類の結果、中間調領域に分類された領域に対し符号
化する中間調領域符号化部14とを備えている。領域分
類部11とブロック化部12は第2図の画像処理部22
の機能に属し、文字領域符号化部13と中間調領域符号
化部14は第2図の符号化/復号化部24の機能に属し
ている。 画像入力部21によって入力された文書画像は領域分類
部11により、文章、グラフ、線図等からなる文字領域
と、網点やデイザを用いて濃淡を表す図および写真等を
含む中間調領域に分離する。 その分離は画像の性質を利用して自動的に行っても、あ
るいはオペレータが指示するようにしてもよい。 ブロック化部301は、文字領域をN1×N2画素のブ
ロックに分割する。本実施例では4×4画素ブロックと
した。 各ブロックは文字領域符号化部13により高能率符号化
され、記憶部25により記憶される。 ここで、文字領域符号化部13について詳細に説明する
。 第3図は第1図における文字領域符号化部13を詳細に
示す図である。 文字領域符号化部13は、ブロック化部301(第2図
12)により切り出された文字領域のブロックを記憶す
るブロックメモリ302と、ブロック内の平均濃度値を
算出する平均濃度値算出部303と、ブロック内の標準
偏差を算出する標準偏差算出部304と、算出した平均
濃度値および標準偏差値を基に、画像の濃度変化を調へ
、画像の性質を判定するラベル判定部305と、ラベル
判定部305の判定の結果、そのブロックが濃度変化の
非常に緩やかな部分(ラベルの〔背景部〕)に属すると
き、そのブロックの符号化に用いる1階調ブロック近似
符号化部(1階調BTC)306と、そのブロックが濃
度変化の比較的緩やかな(ラベル■〔準背景部〕)に属
するとき、そのブロックの符号化に用いる2階調ブロッ
ク近似符号化部(2階調BTC)307と、そのブロッ
クが濃度変化の激しい部分(ラベル■〔文字部〕)に属
するとき、線形量子化する線形量子化部308と、1階
調BTC306,2階調BTC307または線形量子化
部308がらの階調情報を圧縮符号化するハフマン符号
化部309と、1階調BTC306,2階調BTC30
7および線形量子化部308からの情報をまとめて圧縮
符号化するMMR符号化部310と、初号をillみ立
てる符号組立部311からなっている。 次に、文字領域符号化部の動作について説明する。 ブロックメモリ302に記憶された文字領域のブロック
は、平均;虚度(i(i算出部303で平均濃度値Av
e算出し、(票べ11偏差算出部304で標準孤1差S
dを算出する。ラベル判定部305は平均濃度値A V
 e %標準偏差Sd1および適宜に定めたを閾値Th
l、Th2を11.に、次のように、ラベルの判定を行
う。 ラベル■(背景部):  Ave>Thlラベル■(準
背景部):Ave≧Th1、かつSd<Th2 ラベル■(文字部):Ave≧T h I sかつSd
≧Tり2 ラベル判定部305でラベル■と判定されたときは、そ
のブロックは濃度変化が緩やかで平坦な部分である。こ
の統81的に1質からブロック内を1階調で近似する。 そのため1階調ブロック近似?〕号化部306を用い、
ブロック内の平均濃度値をブロックの階調とする。 ラベル判定部305でラベル■と判定されたききは、そ
のブロックは濃度変化が平坦ではないが緩やかな部分で
ある。この統ti的性質からブロック内を2階調で近似
する。そのため2階調ブロック近似右号化部307を用
い、2つの濃度代表値からなる階調情報X。、xlと、
各画素がどちらの代表値で近似されるのかを示す分解能
情報S]lを求める。 ラベル判定部305でラベル■と判定されたときは、そ
のブロックは濃度変化が激しい部分である。 この統計的性質に適した処理として線形量子化を用いる
。すなわち、線形量子化部308により、背景部分につ
いてルベルを設定し、それ以外の部分を15等分してレ
ベルを設定した166階調量子化レベルにより、線形お
子化する。 ハフマノ初号化部309では、1階調ブロック近似符号
化部306.2階調ブロック近似符号化部307および
線形量子化部308の出力する階調情報を可変長符号割
り当てによる圧縮をするハフマン符号化を行う。 また、MMR符号化部310は、ラベル■の1階調ブロ
ック近似符号化部306からの出力に対しては各画素の
すべてにOを割当て、ラベル■の2階調ブロック近似符
号化部307により得られた分解能情報を基にし、ラベ
ル■の線形量子化部308からの出力に対しては各画素
のすべてに1を割当ててまとめてMMRn号化する。 ?’lヒ!II−γ部311はハフマノ初号化部309
およびMMR符弓化部310の出力を基に符号化出力を
生成する。第4図は−・つの文字領域を記憶部25に蓄
積するために組み立てる符号構成を示すもので、以丁の
情報を符号化する。 へ・ソダ情報H;文マ′領域の両像ライズや領域の位置 ラベノ1■  :階調情HJ G 丘ベル■  :階調情報Gおよび分解能情報P−・ベノ
1(■  “ト))副情報(−以」二のようにして符号
化された文字画像は記憶部25に記憶される。 次に、文字領域について初号化され記憶された情報の復
元は、階調情報、分解能情報から各ブロックの濃度分布
を再生することにより行う。ラベル■とラベル■のブロ
ックに関しては各ブロックを1階調、2階調(代表値)
で再生する。ラベル■に関しては、16個の代表値によ
ってそのブロックの各画素の濃度値を再現する。 次に、中間々j11領域の処理について説明する。 第5図は、第1図の中間調領域符号化部14の構成の一
例を示すもので、サンプリング部51、予測符号化部5
2、曲面近似部53、近似誤差R1算部54、非線型量
子化部55、ハフマン符号化部56、モード判定し部5
7および勢号組立部58からなっている。 この例における符号化のアルゴリズムは、まず、縦、横
、斜め方向の濃度値の相関を利用するため、サンプリン
グ部51により五の目状にサンプリングを行う。この→
ノンブリング位[γtは固定しているので、サンプル点
の位置を表す情報は不必要である。 次に、サンプル点の濃度値を、隣接するサンプル点にお
ける濃度値の分散が小さいことら、符号量の削減のため
に予測符号化部52により予測符号化を行う。 そして、隣接するサンプル点4点で囲まれた近似対象領
域を双3次パッチを用いた曲面近似部53により近似し
、領域内の原画像と近似画像との平均2乗課差を近似誤
差計算部54により各領域ごとに求める。 モード判定部57は平均2乗誤差が閾値具」―ならば徂
域内の各画素の近似誤差(付加情報)を非線型量子化部
55およびハフマン符号化部56により圧縮符号化する
。 以下、各処理についてさらに詳細に説明する。 サンプリング部51は縦、横、斜め方向の濃度値の相関
を利用するため、第6図のように五の目状にサンプリン
グを行う。サンプル点の間隔は近似する際の濃度変化が
敞しい部分でのボケを最小限に軽減するために4画素と
する。また、サンプル点の濃度値は第6図の斜線で示す
4画素の平均濃度値とする。サンプル点は画素ではなく
、画素と画素の境界に位置する。 予測符号化部52は、第7図に示す注目サンプル点の周
辺に隣接する参照サンプル点4点の平均値を予測値とし
、注目サンプル点の濃度値からこの予測値を引いて予測
誤差を求める。この予測誤差に対して、非線型量子化を
施し、19個の代表値で近似する。次に、各代表値には
ハフマン符号を割り当てて符号化する。 曲面近似部53は、サンプル点4点でか込まれた領域(
4頂点が頂点となる菱形の領域、以下、近似対象領域と
呼ぶ)を、双3次バッチを適用し近似する処理を行う。 双3vζパッチでは第8図に示す16個のサンプル点を
参照して近似対象領域を内挿する。 近似誤差d1算部54は、近似対象領域内において、ど
の程度誤差があるかを調べるために、第9図に示すよう
に領域内の原画像と近似画像の平均2乗誤差MSEを各
領域ごとに求める。 モード判定部57は、平均2乗誤差MSEが閾値TH以
」二ならモード+  ((=1加情報が必要である領域
)、閾値78未満ならモード2(付加情報が必要でない
領域)と判定する。ここで近似対象領域がどちらのモー
ドに属するかを示すモード情報MDを作成するモート情
報は0.1の2値画像であるから、符号化する際はMM
R符号化を採用する。 モード判定部57の判定がモード1であるとき、近似誤
差を非線型M子化部55およびハフマン符号化部56に
より符号化する。この実施例では非線形量子化部55は
11個の代表値で近似する。 そしてハフマン符号化部56では各代表値にハフマン符
号を割り当てて初号化する。 符号組立部58は、サンプル点の予測誤差Sと、モード
情報Mと、近似対象領域内の各画素の近似誤差、つまり
付加情報Fを第10図のような符号構成で組み立てて符
号化出力とする。初号化出力の最初にはヘッダ情報Hを
挿入する。ヘッダ情報Hは中間調領域の画像を符号化す
る際の領域の位1ξ、大きさ等の情報である。なお、付
加情報はモード1の場合のみ必要である。 以上のように、符号化した中間調領域の画像の復号は、
例えば第11図に示すようなもI4成とする復号化部に
より実行することができる。第10図のような符号(マ
1−成の?1号情報から、情報分離部IIIで予測誤差
情報S1伺加情報F1モード情報M等を分離し、それぞ
れの復号部1.12.114.117で復号する。予測
符号化符号の復号部112から出力されるサンプル点の
濃度情報に基づき曲面近似部113は双3次バッチによ
り内挿し、各画素の濃度値を求める。モード情報がモー
ド2のときは選択部118により曲面近似部113の出
力をそのまま復号出力として選択出力する。モード情報
がモードlのときは補正部]、 l 5により曲面近似
部113の出力を付加情報復号部114で復号した近似
誤差値で補正し、選択部116では補正部116の出力
を復号出力として選択出力する。 以1−の実施例(第1の実施例)において、中間調領域
のパッチサイズを−・定とした場合すなわちサンプル点
を固定的な一定間隔のものとした場合を説明したが、サ
ンプル点を画像の性質に応じて可変とし、パッチサイズ
を変えるように構成することもできる。 以下、第2の実施例としてそのパッチサイズ(従ってサ
ンプル点)の可変の方式について説明する。 この方式では、符号化する画像を多数の菱形(正方形を
傾斜させた形)、すなわちパッチに分け、各々のパッチ
を構成するのに必要な点をサンプル点として抽出し、こ
のサンプル点の濃度情報を蓄積する。復号化においては
、このサンプル点の濃度情報に双づいて、パッチ内の濃
度値を保管し、すべてのパッチについてこれを行うこと
で画像を復元する。パッチサイズの決め方は、中間調画
像には、物体表面などの濃度変化の激しい部分と背景の
ように濃度分布の単調な領域が混在していることを基礎
としている。べ3度変化の激しい領域には細かいサンプ
リング、単調な領域には粗いサンプリングを行えば効率
的な符号化が可能である。 第2の実施例が第5図に示す第1の実施例と構成(1m
能)」1異なるところは、主としてサンプリング部51
におけるサンプル点の選び方がパッチサイズに基づくこ
とであり、その他の構成はほぼ同じである。 パッチは第12図に示すように4つのサンプル点を頂点
とする菱形の領域で、画素の並びに対して45°傾いた
正方形である。また、サンプル点は第1の実施例と同様
に4画素の中心に仮想的にとることとし、この4画素の
平均値をサンプル点の濃度値とする。 パンチサイズは、最小のときでmが2であり、濃度変化
に応じて、第12図に示すようにパッチの最上部に位置
する点を固定した状態でパッチを釣鐘状に拡大し、nを
0から7の範囲で決定する。 その決定の手順は次のとおりである。 ■) 第13図に示すように、最小パッチサイ−加− ズ(n=o)状態の濃度勾配情報を基準情報として求め
る。 II)  n=1のパンチを最小パッチサイズに分割し
、各々の最小パッチについて基準情報と同様に濃度勾配
を求める。 ■) 濃度勾配の絶対値と基準情報の絶対値の差の絶対
値が閾値(THI)以上ならn=oをパッチサイズとす
る。閾値以下ならn=2として−にと同様な処理を行う
。ただし、既にパッチが当っている最小パッチが含まれ
ている場合は、濃度勾配に関係なくn=0とする。 TV)  n′?!:0から7まで変化させてパッチサ
イズの大きさを決定する。 パッチサイズが決るとサンプル点を抽出することができ
る。各サンプル点に対しては予測符号化を行う。予測符
号化は第1の実施例において述べたのと同様にして行う
ことができる。ただ、第1の実施例とは異なり、パッチ
サイズを変更しながらヅブサンプリングを行うため、二
つの問題が生ずる。すなわぢ、■予測に用いる4屯が必
ずしも存在するとは限らない、■1つも点が存在しない
場合がある。 このことを考虚して各々のttil W点に対して次の
ように処理する。 ■の問題点は、存在している点だけを使い平均値を求め
る。 ■の問題点に関しては、パッチの最」二部に位置する頂
点の値を予測値として使用する。画面最」二段の場合は
最上部に位置する頂点も値が存在しないので、使用可能
な濃度値幅の中央値を予測値とする。 符号構成は、第10図の構成にさらにパッチの最」二部
の頂点の座標およびパッチサイズの情報が加わる。
[Operation] The input image is separated into a character area and a halftone area by the area classification means, and the character area is divided into blocks by the blocking means. The first 9X1 encoding means encodes each block using an encoding method suitable for the character area standard and II objective quality. Further, the second encoding means performs encoding using an encoding method suitable for the uniform characteristics of the halftone region. In this way, the present invention divides an image into regions and initial encodes them using an encoding method suitable for each region, so it is possible to perform a high degree of compression with high image quality and reduce processing time. can. Furthermore, in the 1n encoding of the present invention, sampling is performed by the sampling means and the pixel density of the sample point is encoded, so that the amount of code can be highly compressed. Furthermore, when the difference (approximation error) between the image interpolated from the sample points by the approximation means by curved surface approximation and the human image is larger than a predetermined threshold, the encoding means encodes the approximation error as additional information, and the encoding means encodes the approximation error as additional information. Add to the density encoded information. Therefore, since errors can be corrected using the A button information during decoding, encoding and decoding can be performed with high quality. In addition, the present invention provides efficient sampling by making the punch size for curved surface approximation variable by performing fine sampling for areas with rapid density changes and coarse sampling for monotonous areas, depending on the nature of the image. Encoding becomes possible. [Embodiment] Fig. 2 shows a schematic 111X configuration of an image processing apparatus in which the present invention is applied to a digital copying machine, in which an image input unit 21 such as an image scanner, image conversion, editing, and other image processing are performed. an image processing unit 22 that performs image processing, an image output unit 23 such as a printer, and a code encoding/decoding unit (C
It consists of an ODEC) 24 and a storage section 25 that stores encoded images. FIG. 1 shows the configuration of an embodiment for encoding according to the present invention, including an area classification unit 11 that classifies an input image into two areas: a character area consisting of character figures, etc., and a halftone area, such as a photograph. , a blocking unit 12 that divides the input image into blocks of N1×N2 (N1 and N2 are positive integers) pixels for areas classified as character areas as a result of the classification by the area classification unit 11; 12, and a region classification unit 11.
As a result of the classification, the halftone region encoding unit 14 encodes the regions classified as halftone regions. The area classification unit 11 and the blocking unit 12 are the image processing unit 22 in FIG.
The character area encoding section 13 and the halftone area encoding section 14 belong to the function of the encoding/decoding section 24 shown in FIG. The document image input by the image input unit 21 is divided into a text area consisting of sentences, graphs, line diagrams, etc., and a halftone area including diagrams and photographs expressing shading using halftone dots and dithering by the area classification unit 11. To separate. The separation may be performed automatically using the properties of the image, or may be instructed by an operator. The blocking unit 301 divides the character area into blocks of N1×N2 pixels. In this embodiment, a 4×4 pixel block is used. Each block is highly efficiently encoded by the character area encoding section 13 and stored in the storage section 25. Here, the character area encoding unit 13 will be explained in detail. FIG. 3 is a diagram showing details of the character area encoding section 13 in FIG. 1. The character area encoding unit 13 includes a block memory 302 that stores blocks of character areas cut out by the blocking unit 301 (FIG. 2, 12), and an average density value calculation unit 303 that calculates the average density value within the block. , a standard deviation calculation unit 304 that calculates the standard deviation within a block, a label determination unit 305 that determines the nature of the image based on the calculated average density value and standard deviation value, and determines the nature of the image based on the average density value and standard deviation value. As a result of the determination by the determination unit 305, if the block belongs to a part where the density changes are very gradual (the [background part] of the label), the one-tone block approximation encoding unit (one-tone block approximation encoding unit) used to encode the block BTC) 306, and a two-tone block approximation encoding unit (two-tone BTC) 307 used to encode the block when the block belongs to a relatively gradual density change (label ■ [semi-background area]). , and when the block belongs to a part with a large density change (label ■ [character part]), the linear quantization unit 308 performs linear quantization, and the 1st gradation BTC 306, the 2nd gradation BTC 307, or the linear quantization unit 308 performs linear quantization. A Huffman encoding unit 309 that compresses and encodes gradation information, 1 gradation BTC 306, 2 gradation BTC 30
7 and linear quantization section 308, and a code assembling section 311 that constructs the initial code as illumination. Next, the operation of the character area encoding section will be explained. The block of the character area stored in the block memory 302 has an average density value Av
(11 deviation calculation unit 304 calculates the standard arc 1 difference S
Calculate d. The label determination unit 305 determines the average density value A V
e % standard deviation Sd1 and appropriately determined threshold Th
l, Th2 to 11. Then, the label is determined as follows. Label ■ (background part): Ave>Thl Label ■ (semi-background part): Ave≧Th1 and Sd<Th2 Label ■ (text part): Ave≧Th I s and Sd
≧Tri2 When the label determining unit 305 determines that the label is ■, the block is a flat portion with gradual density changes. Based on this uniformity, the inside of the block is approximated by one gradation based on one quality. Therefore, 1 gradation block approximation? ] Using the encoding unit 306,
The average density value within the block is taken as the gradation of the block. If the label determination unit 305 determines that the block is labeled ■, the density change in that block is not flat, but is gradual. Based on this systematic property, the inside of the block is approximated by two gradations. Therefore, the 2-gradation block approximation right-signing unit 307 is used to generate gradation information X consisting of two density representative values. , xl and
Resolution information S]l indicating which representative value each pixel is approximated by is determined. When the label determining unit 305 determines that the block is labeled as ■, the block is a portion where the density changes rapidly. Linear quantization is used as a process suitable for this statistical property. That is, the linear quantization unit 308 sets a level for the background portion, and performs linear quantization using a 166-gradation quantization level, which is obtained by dividing the other portion into 15 equal parts and setting the level. The Huffman initial coding unit 309 uses a Huffman code to compress the gradation information output from the 1st gradation block approximate encoding unit 306, the 2nd gradation block approximate encoding unit 307, and the linear quantization unit 308 by assigning a variable length code. make changes. Furthermore, the MMR encoding unit 310 assigns O to all pixels for the output from the 1-gradation block approximation encoding unit 306 with the label ■, and outputs the output from the 2-gradation block approximation encoding unit 307 with the label ■. Based on the obtained resolution information, 1 is assigned to all pixels for the output from the linear quantization unit 308 with the label ■, and the output is collectively MMRn encoded. ? 'lhi! II-γ section 311 is Huffmano initialization section 309
And an encoded output is generated based on the output of the MMR encoder 310. FIG. 4 shows a code structure assembled to store a character area of -. in the storage section 25, and encodes information of one character area. To/soda information H; both image rise of the sentence ma' area and area position label 1 ■: gradation information HJ G hill bell ■: gradation information G and resolution information P-/beno 1 (■ "g)) sub information The character image encoded as described above is stored in the storage unit 25.Next, the information initialized and stored for the character area is restored from the gradation information and resolution information. This is done by reproducing the density distribution of the block.For blocks labeled ■ and label ■, each block has 1 gradation and 2 gradations (representative values)
Play with. Regarding the label ■, the density value of each pixel of the block is reproduced using 16 representative values. Next, processing of the intermediate j11 area will be explained. FIG. 5 shows an example of the configuration of the halftone area encoding section 14 in FIG.
2. Curved surface approximation unit 53, approximation error R1 calculation unit 54, nonlinear quantization unit 55, Huffman encoding unit 56, mode determination unit 5
7 and a sign assembly section 58. In the encoding algorithm in this example, first, the sampling unit 51 performs sampling in a quincunx pattern to utilize the correlation between density values in the vertical, horizontal, and diagonal directions. This→
Since the non-bringing position [γt is fixed, information representing the position of the sample point is unnecessary. Next, the density values of the sample points are predictively encoded by the predictive coding unit 52 in order to reduce the amount of code since the variance of the density values at adjacent sample points is small. Then, the approximation target area surrounded by four adjacent sample points is approximated by the curved surface approximation unit 53 using a bicubic patch, and the approximation error is calculated as the mean square difference between the original image and the approximation image within the area. The area is determined by the section 54 for each area. If the mean square error is a threshold value, the mode determination unit 57 compresses and encodes the approximation error (additional information) of each pixel within the region by the nonlinear quantization unit 55 and the Huffman encoding unit 56. Each process will be explained in more detail below. The sampling section 51 performs sampling in a quincunx pattern as shown in FIG. 6 in order to utilize the correlation of density values in the vertical, horizontal, and diagonal directions. The interval between the sample points is set to 4 pixels in order to minimize blurring in areas where density changes are significant during approximation. Furthermore, the density value of the sample point is the average density value of the four pixels indicated by diagonal lines in FIG. Sample points are located not at pixels but at boundaries between pixels. The predictive encoding unit 52 uses the average value of four reference sample points adjacent to the sample point of interest shown in FIG. 7 as a predicted value, and subtracts this predicted value from the density value of the sample point of interest to obtain a prediction error. . This prediction error is subjected to nonlinear quantization and approximated using 19 representative values. Next, each representative value is assigned a Huffman code and encoded. The curved surface approximation unit 53 forms an area (
A process of approximating a diamond-shaped region having four vertices (hereinafter referred to as an approximation target region) by applying a bicubic batch is performed. In the bi3vζ patch, the approximation target region is interpolated with reference to the 16 sample points shown in FIG. The approximation error d1 calculation unit 54 calculates the mean squared error MSE between the original image and the approximation image for each area, as shown in FIG. to ask. The mode determination unit 57 determines that if the mean squared error MSE is less than or equal to the threshold TH, it is mode + ((=region where 1 additional information is required), and if it is less than the threshold 78, it is determined to be mode 2 (region where no additional information is required). Here, the mote information for creating the mode information MD indicating which mode the approximation target region belongs to is a binary image of 0.1, so when encoding, MM
R encoding is adopted. When the mode determination unit 57 determines mode 1, the approximation error is encoded by the nonlinear M-coding unit 55 and the Huffman encoding unit 56. In this embodiment, the nonlinear quantization unit 55 approximates using 11 representative values. Then, the Huffman encoding unit 56 assigns a Huffman code to each representative value and initializes it. The code assembling unit 58 assembles the prediction error S of the sample point, the mode information M, and the approximation error of each pixel in the approximation target area, that is, the additional information F, into a code configuration as shown in FIG. 10, and generates an encoded output. do. Header information H is inserted at the beginning of the initial encoded output. The header information H is information such as the order 1ξ and size of the area when encoding an image in the halftone area. Note that the additional information is necessary only in mode 1. As described above, decoding of encoded halftone region images is as follows:
For example, it can be executed by a decoding section having an I4 configuration as shown in FIG. The information separation unit III separates prediction error information S1, additional information F1, mode information M, etc. from the code (M1-1 information) as shown in FIG. 117. Based on the density information of the sample points output from the decoding unit 112 of the predictive coding code, the curved surface approximation unit 113 interpolates by bicubic batch to obtain the density value of each pixel. In this case, the selection unit 118 selects and outputs the output of the curved surface approximation unit 113 as it is as a decoded output.When the mode information is mode l, the correction unit], l5 selects and outputs the output of the curved surface approximation unit 113 in the additional information decoding unit 114. The correction is performed using the decoded approximation error value, and the selection unit 116 selects and outputs the output of the correction unit 116 as the decoded output.In the following embodiment 1- (first embodiment), the patch size of the halftone area is Although we have explained the case where the sample points are set at fixed intervals, it is also possible to make the sample points variable according to the properties of the image and change the patch size. As an example of 2, we will explain a method of varying the patch size (therefore, sample points). In this method, the image to be encoded is divided into a number of rhombuses (slanted squares), or patches, and each patch The points necessary to construct the sample point are extracted as sample points, and the density information of these sample points is stored.In decoding, the density value within the patch is stored based on the density information of this sample point. The image is restored by doing this for all patches.The method for determining the patch size is that halftone images contain parts with sharp density changes, such as the surface of an object, and areas with a monotonous density distribution, such as the background. Efficient encoding is possible by performing fine sampling in regions with rapid changes in the third degree and coarse sampling in monotonous regions.A second embodiment is shown in Fig. 5. First embodiment and configuration (1m
1. The difference is mainly in the sampling section 51.
The method of selecting sample points in is based on the patch size, and the other configurations are almost the same. As shown in FIG. 12, the patch is a diamond-shaped area with four sample points as vertices, and is a square that is tilted at 45 degrees with respect to the pixel arrangement. Further, as in the first embodiment, the sample point is virtually taken at the center of four pixels, and the average value of these four pixels is taken as the density value of the sample point. When the punch size is minimum, m is 2, and as shown in Figure 12, the patch is expanded into a bell shape with the topmost point of the patch fixed, and n is Determine from 0 to 7. The procedure for making that determination is as follows. (2) As shown in FIG. 13, density gradient information in the state of minimum patch size addition (n=o) is obtained as reference information. II) Divide n=1 punches into minimum patch sizes and find the density gradient for each minimum patch in the same way as the reference information. (2) If the absolute value of the difference between the absolute value of the density gradient and the absolute value of the reference information is greater than or equal to the threshold value (THI), then n=o is set as the patch size. If it is less than the threshold value, n=2 and the same process as - is performed. However, if the minimum patch that has already been patched is included, n=0 regardless of the density gradient. TV) n′? ! : Vary from 0 to 7 to determine the patch size. Once the patch size is determined, sample points can be extracted. Predictive coding is performed for each sample point. Predictive encoding can be performed in the same manner as described in the first embodiment. However, unlike the first embodiment, two problems arise because the patch sampling is performed while changing the patch size. In other words, 1) there are not always 4 tons used for prediction, 2) there are cases where there are no points at all. Taking this into consideration, each ttil W point is processed as follows. Problem (3) is to calculate the average value using only existing points. Regarding the problem (2), the value of the vertex located in the second most part of the patch is used as the predicted value. In the case of the second row at the top of the screen, the vertex located at the top also has no value, so the median value of the usable density value range is used as the predicted value. The code structure has the structure shown in FIG. 10 plus information on the coordinates of the two-most vertices of the patch and the patch size.

【発明の効果】【Effect of the invention】

本発明によれば、対象とする文書画像を中間調領域と文
字領域との2領域に分離し、各領域の統計的な性質に適
した符号化方式を用いるようにしたので、高い画品質を
保ちながら、高度の圧縮を行うことができる。 また、本発明によれば中間調領域の符号化において、サ
ンプリングされた4点でか込まれた領域を双3次パッチ
を適用して近似し、近似誤差が一定閾値以上のときには
、近似された画像の誤差情報を付加するように構成した
ので、画品質の向上を実現することができる。 さらに、中間調領域の符号化において、上記サンプリン
グの点を画像の濃度変化の激しい領域には細かいサンプ
リング、単調な領域には粗いサンプリングを行うように
した本発明の態様においては、−層効率的な符号化が可
能となる。
According to the present invention, a target document image is divided into two regions, a halftone region and a character region, and an encoding method suitable for the statistical properties of each region is used, thereby achieving high image quality. It is possible to achieve a high degree of compression while maintaining Further, according to the present invention, when encoding a halftone region, a region surrounded by four sampled points is approximated by applying a bicubic patch, and when the approximation error is greater than a certain threshold, Since image error information is added, image quality can be improved. Furthermore, in an embodiment of the present invention in which the sampling points are finely sampled in areas where the image density changes sharply and coarsely sampled in monotonous areas in encoding the halftone area, - layer efficient encoding is possible.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の実施例の画像処理装置の符号化部の構
成を示すブロック図である。 第2図は本発明をデジタル複写機に適用した画像処理装
置の概略の構成を示す図である。 第3図は第1図における文字領域符号化部の構成例を示
す図である。 第4図は文字領域符号化部の出力する符号の符号構成を
示す図である。 第5図は第1図における中間調領域符号化部の構成例を
示す図である。 第6図は固定密度サンプリングのサンプル点を示す図で
ある。 第7図は予測符号化の参照サンプル点を示す図である。 第8図は双3次パッチの座標形を示す図である。 第9図は領域内の原画像と近似画像の平均2乗誤差を説
明するための図である。 第10図は中間調領域の符号化の符号構成を示す図であ
る。 第11図は中間調領域の復号化を行うための構成を示す
図である。 第12図はパッチサイズの決定の仕方を説明するための
図である。 第13図は濃度勾配を説明するための図である。
FIG. 1 is a block diagram showing the configuration of an encoding section of an image processing apparatus according to an embodiment of the present invention. FIG. 2 is a diagram showing a general configuration of an image processing apparatus in which the present invention is applied to a digital copying machine. FIG. 3 is a diagram showing an example of the configuration of the character area encoding section in FIG. 1. FIG. 4 is a diagram showing the code structure of the code output from the character area encoding section. FIG. 5 is a diagram showing an example of the configuration of the halftone area encoding section in FIG. 1. FIG. 6 is a diagram showing sample points for fixed density sampling. FIG. 7 is a diagram showing reference sample points for predictive encoding. FIG. 8 is a diagram showing the coordinate form of a bicubic patch. FIG. 9 is a diagram for explaining the mean square error between the original image and the approximate image within a region. FIG. 10 is a diagram showing a code structure for encoding a halftone region. FIG. 11 is a diagram showing a configuration for decoding a halftone region. FIG. 12 is a diagram for explaining how to determine the patch size. FIG. 13 is a diagram for explaining the concentration gradient.

Claims (4)

【特許請求の範囲】[Claims] (1)多値画像を符号化する画像処理装置であつて、 入力画像を文字・図形等からなる文字領域と写真等の中
間調領域との二つに分類する分類手段と、この分類手段
の分類の結果、文字領域に分類された領域に対し入力画
像をN1×N2(N1、N2は正整数)画素のブロック
に分割するブロック化手段と、 このブロック化手段によるブロック化された各ブロック
を符号化する第1の符号化手段と、前記分類手段の分類
の結果、中間調領域に分類された領域に対し符号化する
第2の符号化手段とを有することを特徴とする画像処理
装置。
(1) An image processing device that encodes a multivalued image, which includes a classification means for classifying an input image into two regions: a character region consisting of characters, figures, etc., and a halftone region such as a photograph, and a classification means for classifying the input image into A blocking means for dividing an input image into blocks of N1×N2 (N1 and N2 are positive integers) pixels for regions classified as character regions as a result of the classification, and each block formed by the blocking means. An image processing apparatus comprising: a first encoding means for encoding; and a second encoding means for encoding a region classified as a halftone region as a result of classification by the classification means.
(2)多値画像を符号化する画像処理装置であつて、 入力画像を一定間隔で代表値をとるサンプリング手段と
、 サンプリングの結果から入力画像を曲面近似する近似手
段と、 入力画像と前記近似手段の近似結果とを比較して近似誤
差を計算する計算手段と、 この計算手段の計算結果が所定の閾値より小さい場合は
そのまま符号化し、大きい場合は付加情報を付加して符
号化する符号化手段と を有することを特徴とする画像処理装置。
(2) An image processing device for encoding a multivalued image, comprising: sampling means for taking representative values of an input image at regular intervals; approximation means for approximating the input image to a curved surface from the sampling results; and the input image and the approximation. A calculation means that calculates an approximation error by comparing the results of the approximation of the calculation means, and an encoding method that encodes the calculation result of the calculation means as it is if it is smaller than a predetermined threshold, and adds additional information and encodes it if it is larger. An image processing device comprising: means.
(3)請求項(2)に記載された画像処理装置により符
号化された結果を復号する装置であって、符号化された
データを付加情報と曲面近似情報とに分類する手段と、
前記付加情報がある場合はこの付加情報を用いて復元さ
れた画像を補正する手段と を有することを特徴とする画像処理装置。
(3) A device for decoding the result encoded by the image processing device according to claim (2), and means for classifying the encoded data into additional information and curved surface approximation information;
An image processing apparatus comprising: means for correcting a restored image using the additional information, if the additional information is present.
(4)近似手段は曲面の大きさを画像の濃度変化に応じ
て変化させ、変化がはげしい場合は曲面を小さくし、変
化が少ない単調な場合は曲面を大きくすることを特徴と
する請求項(2)記載の画像処理装置。
(4) The approximation means changes the size of the curved surface according to the density change of the image, and when the change is drastic, the curved surface is made smaller, and when the change is monotonous, the curved surface is made larger. 2) The image processing device described above.
JP2266675A 1990-10-05 1990-10-05 Image processor Pending JPH04144485A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2266675A JPH04144485A (en) 1990-10-05 1990-10-05 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2266675A JPH04144485A (en) 1990-10-05 1990-10-05 Image processor

Publications (1)

Publication Number Publication Date
JPH04144485A true JPH04144485A (en) 1992-05-18

Family

ID=17434135

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2266675A Pending JPH04144485A (en) 1990-10-05 1990-10-05 Image processor

Country Status (1)

Country Link
JP (1) JPH04144485A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0622745A2 (en) * 1993-04-28 1994-11-02 Kabushiki Kaisha Toshiba Character image encoding/decoding system
EP0834154A1 (en) * 1995-06-07 1998-04-08 Adobe Systems Inc. Method and apparatus for reducing storage requirements for display data
US5805303A (en) * 1995-06-20 1998-09-08 Minolta Co., Ltd. Image processing device
US5838455A (en) * 1919-05-11 1998-11-17 Minolta Co., Ltd. Image processor with image data compression capability
US5987176A (en) * 1995-06-21 1999-11-16 Minolta Co., Ltd. Image processing device
US5987175A (en) * 1995-05-18 1999-11-16 Minolta Co., Ltd. Image forming apparatus and method based on reduction images and encoding
US6459816B2 (en) 1997-05-08 2002-10-01 Ricoh Company, Ltd. Image processing system for compressing image data including binary image data and continuous tone image data by a sub-band transform method with a high-compression rate
US6603884B2 (en) 1997-05-08 2003-08-05 Ricoh Company, Ltd. Image processing system for compressing image data including binary image data and continuous tone image data by a sub-band transform method with a high-compression rate
KR100412176B1 (en) * 2002-01-24 2003-12-24 이호석 Document segmentation compression, reconstruction system and method
JP2007019687A (en) * 2005-07-06 2007-01-25 Rikogaku Shinkokai Image processing method using csrbf
KR100693296B1 (en) * 2005-06-07 2007-03-13 (주)디디오넷 Computer screen image codec apparatus and method
KR100708180B1 (en) * 2005-09-22 2007-04-17 삼성전자주식회사 Apparatus and method for compressing color or gray scale documents
US7209255B2 (en) 2002-04-01 2007-04-24 Fuji Xerox Co., Ltd. Print data transfer method for reducing first print time

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5838455A (en) * 1919-05-11 1998-11-17 Minolta Co., Ltd. Image processor with image data compression capability
EP0622745A3 (en) * 1993-04-28 1995-01-25 Tokyo Shibaura Electric Co Character image encoding/decoding system.
US5532752A (en) * 1993-04-28 1996-07-02 Kabushiki Kaisha Toshiba Character image encoding/decoding system
EP0622745A2 (en) * 1993-04-28 1994-11-02 Kabushiki Kaisha Toshiba Character image encoding/decoding system
US6047087A (en) * 1995-05-11 2000-04-04 Minolta Co., Ltd. Image processor
US5987175A (en) * 1995-05-18 1999-11-16 Minolta Co., Ltd. Image forming apparatus and method based on reduction images and encoding
EP0834154A1 (en) * 1995-06-07 1998-04-08 Adobe Systems Inc. Method and apparatus for reducing storage requirements for display data
EP0834154A4 (en) * 1995-06-07 1999-01-27 Adobe Systems Inc Method and apparatus for reducing storage requirements for display data
US5805303A (en) * 1995-06-20 1998-09-08 Minolta Co., Ltd. Image processing device
US5987176A (en) * 1995-06-21 1999-11-16 Minolta Co., Ltd. Image processing device
US6459816B2 (en) 1997-05-08 2002-10-01 Ricoh Company, Ltd. Image processing system for compressing image data including binary image data and continuous tone image data by a sub-band transform method with a high-compression rate
US6603884B2 (en) 1997-05-08 2003-08-05 Ricoh Company, Ltd. Image processing system for compressing image data including binary image data and continuous tone image data by a sub-band transform method with a high-compression rate
US6714685B2 (en) 1997-05-08 2004-03-30 Ricoh Company, Ltd. Image processing system for compressing image data including binary image data and continuous tone image data by a sub-band transform method with a high-compression rate
US6985634B2 (en) 1997-05-08 2006-01-10 Ricoh Company, Ltd. Image processing system for compressing image data including binary image data and continuous tone image data by a sub-band transform method with a high-compression rate
KR100412176B1 (en) * 2002-01-24 2003-12-24 이호석 Document segmentation compression, reconstruction system and method
US7209255B2 (en) 2002-04-01 2007-04-24 Fuji Xerox Co., Ltd. Print data transfer method for reducing first print time
KR100693296B1 (en) * 2005-06-07 2007-03-13 (주)디디오넷 Computer screen image codec apparatus and method
JP2007019687A (en) * 2005-07-06 2007-01-25 Rikogaku Shinkokai Image processing method using csrbf
KR100708180B1 (en) * 2005-09-22 2007-04-17 삼성전자주식회사 Apparatus and method for compressing color or gray scale documents

Similar Documents

Publication Publication Date Title
US6961471B2 (en) Video coding and video decoding apparatus
US6192155B1 (en) Systems and methods for reducing boundary artifacts in hybrid compression
JP2621747B2 (en) Image processing device
US7013050B2 (en) Image encoding apparatus and method, program code, and storage medium
JP2005516553A (en) Coder-matched layer separation for compound document compression
JPH04144485A (en) Image processor
JP2006502604A (en) Image compression method for arbitrarily shaped objects
US6292585B1 (en) Video coding and video decoding apparatus
JP2002238054A (en) Image-coding decoding method, image coder and image decoder
US6377706B1 (en) Compression framework incorporating decoding commands
JPH07320067A (en) Device and method for segmented image coding accompanied by no information loss
JP2007306513A (en) Method and device for image data compression
JP2000013608A (en) Image processing method
AU2002230101A2 (en) Moving picture information compressing method and its system
KR100412176B1 (en) Document segmentation compression, reconstruction system and method
JPH10336643A (en) Image coder and image decoder
EP1453322A1 (en) Moving picture information compression method and system thereof
JP3066278B2 (en) Image encoding device and image decoding device
JPH09139941A (en) Encoding/decoding device for picture signal
JP3265928B2 (en) Fractal image compression device
EP1170956A2 (en) Method and system for compressing motion image information
JPH07240920A (en) Compression and extension for digital image data
JPH07112243B2 (en) Block division sequential reproduction coding method
JP2001103315A (en) Image coding method and image coder
CN113473139A (en) Image processing method and image processing device