JP2703223B2 - Color image processing equipment - Google Patents

Color image processing equipment

Info

Publication number
JP2703223B2
JP2703223B2 JP62014263A JP1426387A JP2703223B2 JP 2703223 B2 JP2703223 B2 JP 2703223B2 JP 62014263 A JP62014263 A JP 62014263A JP 1426387 A JP1426387 A JP 1426387A JP 2703223 B2 JP2703223 B2 JP 2703223B2
Authority
JP
Japan
Prior art keywords
image
data
color
resolution
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP62014263A
Other languages
Japanese (ja)
Other versions
JPS63182781A (en
Inventor
衞 佐藤
良弘 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP62014263A priority Critical patent/JP2703223B2/en
Publication of JPS63182781A publication Critical patent/JPS63182781A/en
Application granted granted Critical
Publication of JP2703223B2 publication Critical patent/JP2703223B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明はカラー画像処理方法に関する。 [従来の技術] 従来より画像データを出力する出力装置としては、一
時的に画像を表示するモニタや永久的に画像をプリント
するプリンタなどがあった。このような装置の解像度に
ついてみると、プリンタの解像度がモニタの解像度に比
べかなり高いのが一般的である。 従って、画像データをモニタ上で編集し、編集後の画
像をできるだけ高画質でプリントする場合には、メモリ
容量を削減するために画像データを圧縮して記憶媒体に
記憶し、画像データをモニタに出力する際には、記憶さ
れた圧縮画像データを伸長したのち間引き処理を行いモ
ニタの表示解像度に変換して出力し、モニタ上で画像編
集条件を設定する。一方、画像データをプリンタに画像
出力する場合には、前記記憶媒体に記憶された圧縮画像
データを伸長し、プリンタの記録解像度に変換し、前記
画像編集条件に従って、画像編集を行い、プリント出力
していた。 [発明が解決しようとする問題点] しかしながら上記従来例では、画像編集条件の設定時
に画像データをモニタ上に出力するために、記憶媒体に
記憶された画像データを伸長し、モニタの表示解像度に
あわせて間引きするといった複数の処理を施す必要があ
り、モニタへの表示までにかなりの時間が必要であると
いう問題があった。この問題は処理データがカラー画像
データである場合、さらに深刻なものとなる。 また、上記従来例ではモニタ上への画像データを出力
する際には、圧縮画像データを伸長後、間引き処理を行
なっていたため、表示において考慮されないデータが多
数存在することになり、画像編集条件を設定するための
表示画像としては良好なものとはいえなかった。 本発明は上記従来例に鑑みてなされたもので、データ
を記憶する媒体の容量削減が可能であり、編集時のモニ
タ画像の色再現性が良好であり、高速にモニタ表示が可
能であり、かつ、高画質の画像をプリント出力すること
ができるカラー画像処理方法を提供することを目的とし
ている。 [問題点を解決するための手段] 上記目的を達成するために本発明のカラー画像処理方
法は、以下のような工程からなる。即ち、第1の解像度
のカラー画像データを複数画素からなる単位ブロック毎
に前記複数画素を考慮して圧縮し、前記第1の解像度よ
り低いデータである第2の解像度のデータであって、該
複数画素を表わす代表色データを含むブロック符号化圧
縮データを生成する生成工程と、前記生成工程により生
成された前記ブロック符号化圧縮データを記憶媒体に記
憶する記憶工程と、画像編集条件を設定する設定工程
と、前記設定工程において設定された画像編集条件に基
づいて、編集された前記代表色データを表示する表示工
程と、前記設定工程において設定された画像編集条件に
基づいて、編集、伸長され得られる第1の解像度のカラ
ー画像データをプリントアウトする処理工程とを有する
ことを特徴とするカラー画像処理方法を備える。 [実施例] 以下、添付図面に従つて本発明に係る実施例を詳細に
説明する。 尚、本実施例ではカラー画像処理装置に応用した場合
を説明する。 [構成図の説明(第1図)] 第1図は本実施例における画像処理装置のブロツク構
成図である。 図中、101は装置全体を制御する制御処理装置であ
り、102内に格納されたプログラムに従つて処理するも
のである。103はキーボード、104はポインテイングデバ
イスの1つであるマウスであり、これらは制御処理装置
101に接続されている。105は画像を読取る画像読取り装
置であり、読取られた画像データは圧縮符号化器106で
もつて圧縮符号化される(この圧縮符号化された画像デ
ータを以下、単に符号化データと言うことにする)。
尚、この圧縮符号化器106の詳細は後述する。108は符号
化データを復号する伸張復号化器であり、復号された画
像データは印刷装置107でもつて永久可視像(印刷出力
画像)を形成する。また109,110は画像メモリであつ
て、圧縮符号化器106でもつて形成された符号化データ
をシステムバス118を介して格納するものである。112は
画像メモリ109,110内の任意の領域を合成して表示装置1
13に出力する合成部であり、合成する領域は画像フラグ
メモリ111内に格納されたフラグデータによつて決定さ
れる。 [圧縮符号化の説明(第4図)] 以下、圧縮符号化器106について第4図を用いて説明
する。 図中、400は画像読取装置105により読取られた画素ブ
ロツクであり、本実施例では4×4画素とした。各画素
はそれぞれ色成分であるR(赤),G(緑),B(青)に対
してそれぞれ256階調(8ビツト)となつている。従つ
てバス451を介して入力した画素ブロツク400は合計384
ビツト(=8×16×3)のデータから構成されることに
なる。 さて、画像読取装置105から順次出力される画素ブロ
ツク400は圧縮符号化器106内の代表色抽出部401にバス4
51を介して入力され、画素ブロツク400を全体的に見た
場合の最も良く表わしている色情報を抽出する。本実施
例では各画素の色成分(R,G,B)毎の階調の平均値をと
るものとして説明するが、これに限定されるものではな
い。例えば各画素の色分布(標準偏差)から決定する様
にしても構わない。いずれにせよ、画素ブロツク400の
代表色が決定され、バス453を介して符号化データ404の
代表色情報404aとして出力される。尚、この圧縮符号化
器401が代表色を決定すると、各色成分毎の値(閾値)
をバス452に出力する。 さて、画素ブロツク400は同様にバツフアメモリ402に
も一旦入力される。尚、このバツフアメモリ402は複数
個の画素ブロツクが格納可能となつている。そして、代
表色抽出部401で代表色が抽出され、閾値がバス452を介
して2値化器403に入力されると、その閾値に対応する
画素ブロツクもバツフアメモリ402から2値化器403に入
力されて2値化される。2値化された各成分毎の4×4
のブロツクは符号化データ404の細部情報404bとして出
力さる。 更にバツフアメモリ402内に格納された画素ブロツク4
00はバス455を介して分散値算出部405に入力され、この
入力された画素ブロツク400と代表色抽出部401からのバ
ス452上に出力した各色成分毎の平均値とから分散値
σRGを算出する。例えば“R(赤)”の分散値
σは次式の様になる。 尚、式中、nは画素数(16)、ARは各画素毎のR
(赤)成分の平均値、Riは各画素の階調度を示す。 また、他のG(緑),B(青)についても全く同様の演
算で行なうことができる。この様にして求められた各色
成分毎の分散σRGはバス456を介して符号化デ
ータ404の分散情報404cとして出力され、先に説明した
代表色情報404a及び細部情報404bと共に符号化データ40
4を構成することになる。 尚、このとき細部情報404bは画素ブロツク400の各色
成分の2値化された情報であるから、合計48ビツト(=
16×3)でもつて構成され、分散値情報404cは各色成分
毎に8ビツトで示されるものとすると、符号化データ40
4は代表色情報404a(8×3ビツト)と細部情報404b(1
6×3)、分散情報404c(8×3ビツト)の合計96ビツ
トとなり、画素ブロツク400の384ビツトに対し、その大
きさは1/4に圧縮されることになる。 [装置の動作説明(第2図,第3図)] 以上の処理でもつて形成された符号化データ404は通
常の画像データと同様に表示装置に表示される。すなわ
ち、表示装置に表示しようとする場合には、代表色情報
のみを画像データとして表示するわけである。従つて表
示画面上の表示ドツト数は画像読み取り装置105で読取
られた画素数の1/16とすることができる。 以下に説明するのは、この様に圧縮し符号化したデー
タでもつて画像処理する場合に応用した例である。 今、第2図(a)に示す圧縮し符号化された画像A
(以下、単に画像Aと言う)が画像メモリ10に格納さ
れ、第2図(b)に示す圧縮し符号化された画像B(以
下、単に画像Bと言う)が画像メモリ109に格納されて
いるものとする。そして、これら画像A,Bでもつて第2
図(c)に示す圧縮し符号化された画像C(以下、単に
画像Cという)を形成するまでを説明する。オペレータ
はキーボード103或いはマウス104でもつて適当な指令を
入力し、画像メモリ109内の画像Bのみを回転、縮小処
理する。次の段階では、この様にして処理された画像B
に対する輪郭情報を表わすビツトマツプ情報をマスク情
報(“1"か“0"の情報)に変換され、画像フラグメモリ
111に格納される。尚、ここでは画像Bの輪郭情報の形
成は画像メモリ109内を走査することによつて輪郭のフ
ラグデータを画像メモリ111に形成されるとしたが、例
えばマウス104を駆動して輪郭をなぞる様にして境界を
指定する様にしても構わない。 さて、以上の様に各画像及びマスク情報がメモリ109
〜111に格納された後、画像A,Bの合成表示を開始するこ
とになる。 第3図は合成部112の内部構成を示す図である。 図中、301及び304は入力されてくる信号のどちらか一
方を選択する信号選択器であり、信号選択器301は画像
フラグメモリ111のマスク情報(信号線114に送られてく
る)に基づいて画像A,Bのどちらか一方を選択するもの
である。302は信号加算器であつて、画像A,Bの階調を加
算するものである。加算されたデータは1/2回路303でも
つて1/2(平均)される。そして、この1/2回路の出力は
信号選択器304の一方の入力側に接続されている。 従つて例えば信号線351のレベルが“0"のときには画
像フラグメモリ111内のマスク情報で選択された画像デ
ータが信号線117を介して表示装置に出力されることに
なる。このときの表示画像は第2図(c)に示す様に画
像A,Bが重畳された画像Cになる。 また、信号線351のレベルが“1"のときには、画像A,B
の階調の平均が信号線154に出力させることになり、結
局画像A,Bが透過されて合成表示されることになる。 尚、上記構成でもつて、画像を合成するときに輪郭が
目立ち過ることがある。この様なときには輪郭箇所では
平均値画像を選択する様に信号線351を制御することに
よつて達成される。すなわち、上記構成でもつて画像A,
Bの合成表示の比率は100:0→50:50→0:100%と3段階に
制御できるわけである。 また、オペレータの所望とした画像が表示されたら、
合成表示された画像Cに基づいて、実際に画像メモリ10
9内の画像Bと画像メモリ110内の画像Aとを合成し、画
像メモリ110に格納する。このとき各符号化データ内の
代表色情報404aはもちろん、細部情報404b、分散情報40
4cをも合成対象として処理する。その結果、画像Cが画
像メモリ110内に形成されることになる。 [伸張復号化の説明(第5図)] さて、最終的に画像Cを印刷出力するときには、画像
メモリ110内に格納されている画像Cの符号化データを
順次、伸長復号化器108に転送して復号する。 伸長復号化器108では入力されてくる符号化データ404
内の代表色情報404a、細部情報404b及び分散情報404cと
から4×4の階調のある画素ブロツクに復号する。 実際には、細部情報404b内の各色成分の2値化して
“1"になつた画素に対しては、その代表色情報404a内に
格納されている各色成分毎の平均階調度(AR,AG,AB)に
その各成分の分散値σRG)を加えた値にする。
また、2値化して“0"になつた画素に対して平均階調度
から分散値を引いた値にすることによつて復号処理す
る。 例えば色成分である“R(赤)”に対しては、2値化
して“1"になつた画素XRは、 XR=AR+σ … 2値化して“0"になつた画素XRは、 XR=AR−σ … で与えられる。 第5図は色成分“R"における2値化処理、復号処理の
簡単な推移を示すものである。 図中、50は画像読取装置105で読取つた色成分“R"の
画素ブロツクである。また、各画素中の数値は色成分
“R"の階調値を示している。51は画素ブロツク50内の画
素をその階調の平均値(計算するとAR≒53となる)でも
つて2値化した2値化ブロツクである。尚、この平均値
は先に説明した様に代表色抽出部401でもつて算出す
る。また、算出された各色成分の平均値と画素ブロツク
とから、先に示した分散算出式でもつて各色成分毎の
分散を分散値算出部405で算出する。また、この場合
(第5図)の分散値σ≒19となる。52は2値化ブロツ
ク51を復号したときの復号画素ブロツクである。 さて、この2値化ブロツクを復号画素ブロツク52に復
号するとき、前述した,式から、2値化ブロツク51
内の“1"となつている画素の階調値は“72(=AR+σ
=53+19)”となり、“0"となつている画素は、“34
(=AR−σ)”となり、画素ブロツク50に近似した復
号画素ブロツク52が形成される。 ところで、通常印刷時にはYMC(イエロー、マゼン
ダ、シアン)等に変換処理して印刷装置107に出力する
ことになるが、この処理は従来での変換処理を採用する
ものとして、本実施例では説明は省略する。 [他の合成表示の説明(第6図)] 上記実施例では、合成表示するときに、画像A及び画
像Bの合成表示を3段階の比率でもつて合成表示する場
合を説明したが、更に発展させた例を第6図を基に説明
する。 図中、111aは画像フラグメモリであり、今度は各画像
メモリ109,110に対し、1画素当り4ビツトで構成され
るものとする。そして、この4ビツトでもつて画像Aと
画像Bとの合成表示の比率を多段階(4ビツトでは16段
階)にしようとするわけである。また、60,61は画像フ
ラグメモリ111aからバス63を介して送られてくる4ビツ
トの値によつて、バス115,116上に出力されてくる画像
データの階調値を0.0倍〜1.0倍の間を16段階でもつて乗
算する乗算器である。また、62はそれぞれの乗算器60,6
1からの信号を加算する加算器であり、加算した結果を
表示装置113への信号線117上に出力する。 今、バス63上に(F)16、すなわち4ビツト全部がハ
イレベルのときを想定してみる。このとき乗算器60はバ
ツ115上の画像データの階調度を1.0倍、すなわちそのま
まで加算器62に出力する。一方、乗算器61への画像フラ
グメモリからのデータは反転(すなわち、(0)16)さ
れて入力されるので、バス116上の画像データの階調度
は0.0倍、すなわち加算器62への出力は“0"となる。加
算器62は入力された画像データの階調度を単に加算し表
示装置113に信号線117を介して出力するが、この場合に
はバス15上にある画像のみを表示装置113に出力するこ
とになるわけである。 以上の説明からもわかる様に、画像フラグメモリ111a
からのデータによつて、バス115,116上に出力されてく
る画像データの階調度の合成比率を多段階にして表示す
ることができることになり、例えば合成する2つの画像
の輪郭近傍の階調性を多段階に合成することにより、画
像同士の合成にかかる、輪郭部の違和感がなくなる。更
には一方の画像から他の画像に切換えるスムース画像合
成をも可能にすることになる。 [他の構成図の説明(第7図)] 第7図は第1図のブロツク構成図を更に発展させたも
のである。 図中、第1図の構成と違う点は画像メモリ109,110と
画像フラグメモリ111がシステムバス118に直接接続され
てなく、処理部701を介している点にある。 第1図の構成ではメモリ109〜111に同時にアクセスす
ることは難しく、制御処理装置101による処理に時間が
かかつてしまう。そこで、ここでは制御処理装置101を
分散して制御装置702と処理装置701とに分けた。この構
成によれば、各メモリに対するアクセス(読出し/書込
み)の並列化による効率の向上と供に、システムバス11
8の使用効率が下がるので、他の処理を制御部702が行う
ことも可能となり、システム全体の処理速度が上がるこ
とになる。 以上説明した様に本実施例によれば、カラー画像デー
タを数分の1にまで圧縮したデータでもつて表示画面上
に表示して画像処理し、印刷するときには高解像の画像
にして出力することが可能となる。 また、画像編集時には代表色情報のみを変化させるこ
とによりなされるので、画像処理の処理速度は向上する
ことになる。 更には、2つの画像同志の合成比率を多段階にするこ
とができ、合成する画像の輪郭部の違和感をなくするこ
とを可能とすると共に、一方の画像から他方の画像にス
ムースに切換える画像合成表示を可能とした。 更に、また表示画像と印刷等への出力画像とを別個に
することがないため、それぞれのメモリに対して2重の
処理をすることもなくなり、且つ少ないメモリで構成で
き、コストの低減にもなる。 尚、本実施例では2つの画像の合成比率を多段階にす
ることを説明したが、これら2つの画像を論理和、或い
は論理積等の論理演算する様にしても構わない。 更に画素ブロツクは4×4の大きさに限定されるもの
ではなく、一般にn×mの画素でもつて実現できるもの
である。 更には、例えば1つの色(例えば黒)だけの画像を処
理する装置の場合には、本実施例で説明したカラー画像
を構成する色成分の1つに注目して考えれば容易に実現
できるものである。 [発明の効果] 以上説明したように本発明によれば、モニタへの表
示、プリントアウトの2つの処理が必要となる画像デー
タを圧縮して記憶するので、記録媒体の容量を削減でき
るという効果がある。 また、画像編集条件による編集結果をプリント前に確
認するためのデータとして、ブロック符号化圧縮データ
に含まれる代表色データを用いるので、従来必要であっ
た、例えば圧縮データを伸長し、伸長後のデータを間引
くといった時間の要する処理を行う必要がなく、その結
果、従来必要であった上記のような処理を実行する処理
部の負荷を軽減でき、高速な表示が可能になる。そし
て、モノクロ画像を処理する場合に比べ、本発明のよう
なカラー画像を処理する場合には、この効果はさらに顕
著なものとなる。 さらに、表示データとしては複数画素からなる単位ブ
ロック毎にその複数画素を考慮して圧縮して得られる代
表色データを用いるので、データ量を削減し、高速表示
を実現した上で、色再現性の良好な、カラー表示が可能
となる。 さらにまた、前記の画像編集条件に基づき、編集、伸
長後され得られる高解像度である第1の解像度のカラー
画像データをプリントアウトのため処理するので、高画
質のカラー画像のプリントが可能となるという効果もあ
る。
Description: TECHNICAL FIELD The present invention relates to a color image processing method. 2. Description of the Related Art Conventionally, output devices for outputting image data include a monitor for temporarily displaying an image and a printer for permanently printing an image. Regarding the resolution of such a device, it is common that the resolution of the printer is considerably higher than the resolution of the monitor. Therefore, when editing image data on a monitor and printing the edited image with the highest possible image quality, the image data is compressed and stored on a storage medium to reduce the memory capacity, and the image data is stored on the monitor. When outputting, the stored compressed image data is decompressed, thinned out, converted to the display resolution of the monitor and output, and image editing conditions are set on the monitor. On the other hand, when outputting image data to a printer, the compressed image data stored in the storage medium is decompressed, converted to the recording resolution of the printer, image edited according to the image editing conditions, and printed out. I was [Problems to be Solved by the Invention] However, in the above conventional example, in order to output image data on a monitor when setting image editing conditions, the image data stored in the storage medium is expanded and the display resolution of the monitor is reduced. It is necessary to perform a plurality of processes such as thinning out at the same time, and there is a problem that a considerable amount of time is required until displaying on a monitor. This problem becomes more serious when the processing data is color image data. Further, in the above conventional example, when outputting image data to the monitor, since the compressed image data is decompressed and then thinned out, there is a lot of data that is not considered in the display, and the image editing conditions are changed. It was not good as a display image for setting. The present invention has been made in view of the above conventional example, it is possible to reduce the capacity of a medium for storing data, has good color reproducibility of a monitor image at the time of editing, is capable of high-speed monitor display, Another object of the present invention is to provide a color image processing method capable of printing and outputting a high-quality image. [Means for Solving the Problems] To achieve the above object, the color image processing method of the present invention comprises the following steps. That is, the color image data of the first resolution is compressed in consideration of the plurality of pixels for each unit block composed of a plurality of pixels, and is data of a second resolution which is data lower than the first resolution. A generating step of generating block-coded compressed data including representative color data representing a plurality of pixels; a storing step of storing the block-coded compressed data generated by the generating step in a storage medium; and setting image editing conditions. A setting step, a display step of displaying the edited representative color data based on the image editing conditions set in the setting step, and editing and expansion based on the image editing conditions set in the setting step. And a processing step of printing out the obtained first resolution color image data. Embodiment An embodiment according to the present invention will be described below in detail with reference to the accompanying drawings. In this embodiment, a case where the present invention is applied to a color image processing apparatus will be described. [Explanation of Configuration Diagram (FIG. 1)] FIG. 1 is a block configuration diagram of the image processing apparatus according to the present embodiment. In the figure, reference numeral 101 denotes a control processing device for controlling the entire apparatus, which performs processing according to a program stored in 102. 103 is a keyboard, 104 is a mouse which is one of pointing devices, and these are control processing devices.
Connected to 101. Reference numeral 105 denotes an image reading apparatus for reading an image, and the read image data is compression-encoded by the compression encoder 106 (this compression-encoded image data is simply referred to as encoded data hereinafter). ).
The details of the compression encoder 106 will be described later. Reference numeral 108 denotes a decompression decoder that decodes encoded data. The decoded image data forms a permanent visible image (print output image) with the printing device 107. Reference numerals 109 and 110 denote image memories for storing encoded data formed by the compression encoder 106 via a system bus 118. Reference numeral 112 denotes a display device 1 by combining arbitrary areas in the image memories 109 and 110.
13 is a synthesizing unit that outputs the image data to the area 13, and the area to be synthesized is determined by the flag data stored in the image flag memory 111. [Explanation of Compression Encoding (FIG. 4)] Hereinafter, the compression encoder 106 will be described with reference to FIG. In the figure, reference numeral 400 denotes a pixel block read by the image reading device 105, which is 4 × 4 pixels in this embodiment. Each pixel has 256 gradations (8 bits) for each of the color components R (red), G (green), and B (blue). Therefore, the total number of pixel blocks 400 input via the bus 451 is 384.
It consists of data of bits (= 8 × 16 × 3). The pixel block 400 sequentially output from the image reading device 105 is sent to the representative color extraction unit 401 in the compression encoder 106 via the bus 4.
The color information which is input through 51 and is best represented when the pixel block 400 is viewed as a whole is extracted. In the present embodiment, the description is made assuming that the average value of the gradation for each color component (R, G, B) of each pixel is taken, but the present invention is not limited to this. For example, it may be determined from the color distribution (standard deviation) of each pixel. In any case, the representative color of the pixel block 400 is determined and output as the representative color information 404a of the encoded data 404 via the bus 453. When the compression encoder 401 determines a representative color, a value (threshold) for each color component is determined.
Is output to the bus 452. The pixel block 400 is also input to the buffer memory 402 once. Note that the buffer memory 402 can store a plurality of pixel blocks. When the representative color is extracted by the representative color extracting unit 401 and the threshold is input to the binarizer 403 via the bus 452, the pixel block corresponding to the threshold is also input from the buffer memory 402 to the binarizer 403. And binarized. 4 × 4 for each binarized component
Are output as detailed information 404b of the encoded data 404. Further, the pixel block 4 stored in the buffer memory 402
00 is input to the variance value calculation unit 405 via the bus 455, and the variance value σ R , based on the input pixel block 400 and the average value of each color component output on the bus 452 from the representative color extraction unit 401, σ G and σ B are calculated. For example, the variance σ R of “R (red)” is as follows. In the equation, n is the number of pixels (16), and AR is R for each pixel.
(Red) the average value of the components, R i denotes a gradation of each pixel. The same calculation can be performed for the other G (green) and B (blue). The variances σ R , σ G , σ B for each color component obtained in this way are output as the variance information 404c of the encoded data 404 via the bus 456, and the representative color information 404a and the detailed information 404b described above are output. With encoded data 40
4 will be composed. At this time, since the detailed information 404b is binary information of each color component of the pixel block 400, a total of 48 bits (=
16 × 3), and the variance value information 404c is represented by 8 bits for each color component.
4 is representative color information 404a (8 × 3 bits) and detailed information 404b (1
6 × 3) and the shared information 404c (8 × 3 bits), for a total of 96 bits, and the size of the 384 bits of the pixel block 400 is compressed to / 4. [Explanation of Operation of Apparatus (FIGS. 2 and 3)] The encoded data 404 formed by the above processing is displayed on the display device in the same manner as ordinary image data. That is, when displaying on the display device, only the representative color information is displayed as image data. Accordingly, the number of display dots on the display screen can be set to 1/16 of the number of pixels read by the image reading device 105. The following description is an example applied to a case where image processing is performed on data that has been compressed and encoded in this manner. Now, the compressed and encoded image A shown in FIG.
(Hereinafter, simply referred to as image A) is stored in the image memory 10, and the compressed and encoded image B (hereinafter, simply referred to as image B) shown in FIG. Shall be Then, for these images A and B, the second
The process up to forming the compressed and encoded image C (hereinafter simply referred to as image C) shown in FIG. The operator inputs an appropriate command using the keyboard 103 or the mouse 104, and rotates and reduces only the image B in the image memory 109. In the next stage, the image B thus processed
Bit map information representing the contour information for the image is converted to mask information (information of "1" or "0"), and the image flag memory
Stored in 111. Here, the outline information of the image B is formed by scanning the image memory 109 to form the outline flag data in the image memory 111. However, for example, the mouse 104 is driven to trace the outline. May be used to specify the boundary. Now, as described above, each image and mask information are stored in the memory 109.
After being stored in .about.111, the composite display of the images A and B is started. FIG. 3 is a diagram showing the internal configuration of the synthesizing unit 112. In the figure, 301 and 304 are signal selectors for selecting one of the input signals, and the signal selector 301 is based on mask information (sent to the signal line 114) of the image flag memory 111. One of the images A and B is selected. Reference numeral 302 denotes a signal adder for adding the gradations of the images A and B. The added data is halved (averaged) by the 1/2 circuit 303. The output of the 1/2 circuit is connected to one input side of the signal selector 304. Therefore, for example, when the level of the signal line 351 is “0”, the image data selected by the mask information in the image flag memory 111 is output to the display device via the signal line 117. The display image at this time is an image C on which images A and B are superimposed as shown in FIG. 2 (c). When the level of the signal line 351 is “1”, the images A and B
Will be output to the signal line 154, and the images A and B will be transmitted and synthesized and displayed. Note that, even with the above configuration, the contour may be conspicuous when combining images. In such a case, it is achieved by controlling the signal line 351 so that the average value image is selected at the contour portion. In other words, the image A,
The ratio of the composite display of B can be controlled in three stages of 100: 0 → 50: 50 → 0: 100%. When the image desired by the operator is displayed,
Based on the synthesized image C, the image memory 10
The image B in the image 9 and the image A in the image memory 110 are combined and stored in the image memory 110. At this time, not only the representative color information 404a in each encoded data but also the detailed information 404b and the
4c is also processed as a synthesis target. As a result, the image C is formed in the image memory 110. [Explanation of Decompression Decoding (FIG. 5)] When the image C is finally printed out, the encoded data of the image C stored in the image memory 110 is sequentially transferred to the decompression decoder 108. And decrypt. The decompression decoder 108 inputs the encoded data 404
Is decoded into pixel blocks having 4.times.4 gradations from the representative color information 404a, detailed information 404b, and dispersion information 404c. Actually, for a pixel that has been binarized to “1” for each color component in the detailed information 404b, the average gradient (A R , A G , A B ) plus the variance σ R , σ G , σ B ) of each component.
In addition, decoding processing is performed by subtracting the variance value from the average gradient for a pixel which has been binarized to “0”. For example, for a color component "R (red)", is Natsuta pixel X R binarized to "1", X R = A R + σ R ... 2 binarized to Natsuta pixel to "0" X R is given by the X R = a R -σ R ... . FIG. 5 shows a simple transition of the binarization process and the decoding process for the color component "R". In the figure, reference numeral 50 denotes a pixel block of the color component “R” read by the image reading device 105. The numerical value in each pixel indicates the gradation value of the color component “R”. Reference numeral 51 denotes a binarization block obtained by binarizing the pixels in the pixel block 50 with the average value of the gradation (A R ≒ 53 when calculated). The average value is calculated by the representative color extracting unit 401 as described above. Further, the variance of each color component is calculated by the variance value calculation unit 405 using the variance calculation formula described above from the calculated average value of each color component and the pixel block. In this case (FIG. 5), the variance σ R ≒ 19. Reference numeral 52 denotes a decoded pixel block when the binarization block 51 is decoded. Now, when decoding this binarized block into a decoded pixel block 52, the binary block 51
Tone value of "1" and summer in which pixel in the is "72 (= A R + σ R
= 53 + 19) ”and the pixel that is“ 0 ”is“ 34 ”.
(= A RR ) ", and a decoded pixel block 52 similar to the pixel block 50 is formed. By the way, at the time of normal printing, it is converted to YMC (yellow, magenta, cyan) or the like and output to the printing device 107. However, since this process employs a conventional conversion process, a description thereof will be omitted in the present embodiment [Explanation of another combined display (FIG. 6)] In the above embodiment, combined display is performed. At the time, the case where the combined display of the image A and the image B is combined and displayed at the ratio of three steps has been described, but a further developed example will be described with reference to Fig. 6. In the figure, reference numeral 111a denotes an image flag memory. This time, it is assumed that each of the image memories 109 and 110 is composed of 4 bits per pixel, and the ratio of the composite display of the image A and the image B is multi-step (for 4 bits). 16 steps) Also, 60 and 61 increase the gradation value of the image data output on the buses 115 and 116 by a factor of 0.0 to 1.0 based on the 4-bit value sent from the image flag memory 111a via the bus 63. Is a multiplier that multiplies the values in 16 steps in total.
This is an adder for adding the signal from 1 and outputs the added result on a signal line 117 to the display device 113. Now, suppose that (F) 16 , that is, all four bits are at a high level on the bus 63. At this time, the multiplier 60 multiplies the gradation of the image data on the cross 115 by 1.0, that is, outputs it to the adder 62 as it is. On the other hand, since the data from the image flag memory to the multiplier 61 is inverted (that is, (0) 16 ) and input, the gradation of the image data on the bus 116 is 0.0 times, that is, the output to the adder 62. Becomes “0”. The adder 62 simply adds the gradation of the input image data and outputs the result to the display device 113 via the signal line 117.In this case, only the image on the bus 15 is output to the display device 113. That is. As can be seen from the above description, the image flag memory 111a
Can be displayed in multiple stages of the composition ratio of the gradations of the image data output on the buses 115 and 116. For example, the gradation near the contour of two images to be combined can be displayed. By combining the images in multiple stages, the sense of incongruity of the contour portion, which is caused by combining the images, is eliminated. Further, it is possible to perform smooth image synthesis in which one image is switched to another image. [Explanation of Other Configuration Diagrams (FIG. 7)] FIG. 7 is a further development of the block configuration diagram of FIG. In the drawing, the difference from the configuration of FIG. 1 is that the image memories 109 and 110 and the image flag memory 111 are not directly connected to the system bus 118 but are provided through a processing unit 701. In the configuration of FIG. 1, it is difficult to access the memories 109 to 111 at the same time, and the processing by the control processing device 101 takes time. Therefore, here, the control processing device 101 is distributed and divided into a control device 702 and a processing device 701. According to this configuration, the efficiency is improved by parallelizing the access (read / write) to each memory, and the system bus 11
Since the use efficiency of 8 is reduced, the control unit 702 can perform other processing, and the processing speed of the entire system increases. As described above, according to this embodiment, data obtained by compressing color image data down to a fraction is displayed on a display screen, subjected to image processing, and output as a high-resolution image when printed. It becomes possible. Further, at the time of image editing, since only the representative color information is changed, the processing speed of the image processing is improved. Further, the composition ratio of the two images can be set in multiple stages, which makes it possible to eliminate a sense of discomfort at the outline of the image to be composed, and to smoothly switch from one image to the other image. Display enabled. Further, since the display image and the output image for printing etc. are not separated from each other, there is no need to perform double processing for each memory, and it is possible to configure the memory with a small amount of memory, and to reduce the cost. Become. In the present embodiment, a description has been given of the case where the combining ratio of the two images is multi-step. However, a logical operation such as a logical sum or a logical product may be performed on the two images. Further, the pixel block is not limited to the size of 4 × 4, but can be generally realized with n × m pixels. Further, for example, in the case of an apparatus for processing an image of only one color (for example, black), it can be easily realized by focusing on one of the color components constituting the color image described in the present embodiment. It is. [Effects of the Invention] As described above, according to the present invention, image data requiring two processes of display on a monitor and printout are compressed and stored, so that the capacity of the recording medium can be reduced. There is. In addition, since the representative color data included in the block coded compressed data is used as data for confirming the editing result according to the image editing conditions before printing, conventionally required compressed data is expanded, for example, the compressed data is expanded. It is not necessary to perform time-consuming processing such as thinning out data, and as a result, the load on the processing unit that executes the above-described processing that has been conventionally required can be reduced, and high-speed display can be performed. This effect is more remarkable when processing a color image as in the present invention than when processing a monochrome image. Furthermore, since representative color data obtained by compressing a unit block consisting of a plurality of pixels in consideration of the plurality of pixels is used as display data, the data amount is reduced, high-speed display is realized, and color reproducibility is achieved. , And color display can be performed. Furthermore, the first resolution color image data, which is a high resolution obtained after editing and decompression, is processed for printout based on the image editing conditions, so that a high quality color image can be printed. There is also an effect.

【図面の簡単な説明】 第1図は本実施例における画像処理装置のブロツク構成
図、 第2図(a),(b)は合成する画像を示す図、 第2図(c)は合成後の画像を示す図、 第3図は第1図に示す合成部の内部構成図、 第4図は第1図に示す圧縮符号化器の内部構成図、 第5図は圧縮符号化されたデータが伸張復号するまでを
説明するための図、、 第6図は他の合成部を説明するための図、 第7図は本実施例に係る他の画像処理装置のブロツク構
成図である。 図中、101……制御処理装置、102……メモリ、103……
キーボード、104……マウス、105……画像読取装置、10
6……圧縮符号化器、107……印刷装置、108……伸長復
号化器、109,110……画像メモリ、111,111a……画像フ
ラグメモリ、112,112a……合成部、113……表示装置、1
14〜117……信号線、118……システムバス、301,304…
…信号選択器、302……信号加算器、303……1/2回路、4
00……画素ブロツク、401……代表色抽出器、402……バ
ツフアメモリ、403……2値化器、404……符号化デー
タ、404a……代表色情報、404b……細部情報、60,61…
…乗算器、62……加算器、701……処理装置、702……制
御装置である。
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram of an image processing apparatus according to this embodiment, FIGS. 2 (a) and 2 (b) show images to be combined, and FIG. FIG. 3 is an internal configuration diagram of the synthesizing unit shown in FIG. 1, FIG. 4 is an internal configuration diagram of the compression encoder shown in FIG. 1, and FIG. 5 is compression-encoded data. Fig. 6 is a diagram for explaining the process up to decompression decoding, Fig. 6 is a diagram for explaining another synthesizing unit, and Fig. 7 is a block diagram of another image processing apparatus according to the present embodiment. In the figure, 101 ... control processing device, 102 ... memory, 103 ...
Keyboard 104 104 Mouse 105 Image reading device 10
6 compression encoder, 107 printing device, 108 decompression decoder, 109, 110 image memory, 111, 111a image flag memory, 112, 112a synthesis unit, 113 display device, 1
14 to 117: Signal line, 118: System bus, 301, 304 ...
... Signal selector, 302 ... Signal adder, 303 ... 1/2 circuit, 4
00: Pixel block, 401: Representative color extractor, 402: Buffer memory, 403: Binarizer, 404: Encoded data, 404a: Representative color information, 404b: Detail information, 60, 61 …
.., Multiplier, 62, adder, 701, processing device, 702, control device.

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 昭52−106625(JP,A) 特開 昭55−150662(JP,A) 特開 昭60−1967(JP,A) 特開 昭61−175863(JP,A) 特開 昭61−255164(JP,A) 特開 昭55−110484(JP,A) 特開 昭60−87596(JP,A) 特開 昭61−52074(JP,A)   ────────────────────────────────────────────────── ─── Continuation of front page    (56) References JP-A-52-106625 (JP, A)                 JP-A-55-150662 (JP, A)                 JP-A-60-1967 (JP, A)                 JP-A-61-175863 (JP, A)                 JP-A-61-255164 (JP, A)                 JP-A-55-110484 (JP, A)                 JP-A-60-87596 (JP, A)                 JP-A-61-52074 (JP, A)

Claims (1)

(57)【特許請求の範囲】 1.第1の解像度のカラー画像データを複数画素からな
る単位ブロック毎に前記複数画素を考慮して圧縮し、前
記第1の解像度より低いデータである第2の解像度のデ
ータであって、該複数画素を表わす代表色データを含む
ブロック符号化圧縮データを生成する生成工程と、 前記生成工程により生成された前記ブロック符号化圧縮
データを記憶媒体に記憶する記憶工程と、 画像編集条件を設定する設定工程と、 前記設定工程において設定された画像編集条件に基づい
て、編集された前記代表色データを表示する表示工程
と、 前記設定工程において設定された画像編集条件に基づい
て、編集、伸長され得られる第1の解像度のカラー画像
データをプリントアウトする処理工程とを有することを
特徴とするカラー画像処理方法。
(57) [Claims] Color image data of a first resolution is compressed in consideration of the plurality of pixels for each unit block composed of a plurality of pixels, and data of a second resolution which is data lower than the first resolution; Generating a block-encoded compressed data including representative color data representing the following: a storage step of storing the block-encoded compressed data generated by the generating step in a storage medium; and setting an image editing condition. A display step of displaying the edited representative color data based on the image editing conditions set in the setting step; and a display step of editing and expanding based on the image editing conditions set in the setting step. And a processing step of printing out color image data of the first resolution.
JP62014263A 1987-01-26 1987-01-26 Color image processing equipment Expired - Fee Related JP2703223B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62014263A JP2703223B2 (en) 1987-01-26 1987-01-26 Color image processing equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62014263A JP2703223B2 (en) 1987-01-26 1987-01-26 Color image processing equipment

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP6197076A Division JP2737869B2 (en) 1994-08-22 1994-08-22 Image processing method

Publications (2)

Publication Number Publication Date
JPS63182781A JPS63182781A (en) 1988-07-28
JP2703223B2 true JP2703223B2 (en) 1998-01-26

Family

ID=11856204

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62014263A Expired - Fee Related JP2703223B2 (en) 1987-01-26 1987-01-26 Color image processing equipment

Country Status (1)

Country Link
JP (1) JP2703223B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2967519B2 (en) * 1988-12-16 1999-10-25 キヤノン株式会社 Image processing method
JP3256982B2 (en) * 1991-05-14 2002-02-18 富士ゼロックス株式会社 Image processing device
US5625764A (en) * 1993-03-16 1997-04-29 Matsushita Electric Industrial Co., Ltd. Weighted average circuit using digit shifting
US7130442B2 (en) 1996-10-28 2006-10-31 International Business Machines Corporation Protecting images with an image watermark

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS605104B2 (en) * 1976-03-05 1985-02-08 株式会社東芝 Video special effects equipment

Also Published As

Publication number Publication date
JPS63182781A (en) 1988-07-28

Similar Documents

Publication Publication Date Title
JP2922680B2 (en) Compressed image storage method for high-resolution computer graphics
EP0597555B1 (en) Image processing apparatus
US5680486A (en) Image processing apparatus
US5818970A (en) Image encoding apparatus
US4642680A (en) Method and system for processing image data stored in RGB form
JP2578170B2 (en) Image display device
JPH1188700A (en) Coding method of color image signal, and decoding method and color image processor thereof
JP2703223B2 (en) Color image processing equipment
CN112118449B (en) Method and device for compressing and decompressing image
JP2737869B2 (en) Image processing method
US5140314A (en) Image assembly
JP2608275B2 (en) Image processing device
JPS63184474A (en) Picture processing unit
JP2809552B2 (en) Image encoding method and image decoding method
JP3497864B2 (en) Signal processing device
JP3629509B2 (en) Shading processor
JP2858578B2 (en) Image processing device
JP3666079B2 (en) Image processing device
JP2974596B2 (en) Color image processing equipment
JP2575641B2 (en) Image editing processing method
JP2653781B2 (en) Image editing processing method
JP4192671B2 (en) Image processing apparatus and image processing method
JP2862498B2 (en) Image processing method
JPH0679322B2 (en) Image editing processor
JPH07262351A (en) Image processor and control method for the same

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees