JP2003036445A - Image processor - Google Patents
Image processorInfo
- Publication number
- JP2003036445A JP2003036445A JP2002167738A JP2002167738A JP2003036445A JP 2003036445 A JP2003036445 A JP 2003036445A JP 2002167738 A JP2002167738 A JP 2002167738A JP 2002167738 A JP2002167738 A JP 2002167738A JP 2003036445 A JP2003036445 A JP 2003036445A
- Authority
- JP
- Japan
- Prior art keywords
- image
- data
- image data
- color
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
【発明の詳細な説明】
【0001】
【産業上の利用分野】この発明は、DTP用のパソコン
等で作成され、PDLその他の画像データフォーマット
で記述されたドキュメントを、高品質に再現することが
可能な画像処理装置に関する。
【0002】
【従来の技術】(背景)近年、マルチメディアやDTP
(Desk Top Publishing) の技術的進歩によりオフィス
やその他様々な用途において、非常に複雑で精緻なドキ
ュメントが作成されるようになってきている。そして、
この種のドキュメントを、より高速に、より高画質に、
より簡単に出力したいという要求がいっそう高まってき
ているなか、各種の様々な画像処理装置が開発されてい
る。かかる画像処理装置は、PDL(Page Description
Language:ページ記述言語) 等で記述されたドキュメ
ントファイルを各種の標準インターフェイスにより受け
取り、解釈して、目的とする画像形成装置にて忠実に再
現するための処理を行なうものである。画像形成装置と
しては、一般的に電子写真方式の画像形成を行なうもの
が知られている。
【0003】また、最近では、カラーの電子写真方式の
プリンタなどが普及が目覚ましく、先ほど述べたPDL
ドキュメントファイルを解釈する画像処理装置において
も、カラープリンタに対応したものが幾つか発表されて
いる。それらの基本的な構成は、PDLドキュメントフ
ァイルを解釈して展開処理を行なう画像展開手段と、二
値または多値のフルページの画像用メモリとを有し、画
像用メモリに一時的にラスター画像を形成して、プリン
タに送る方式のものである。
【0004】ここで、画像用メモリというのは、例えば
400dpi(dot/inch)の解像度で、A3サイズ(420m
m×297mm)の1ページの画像データを想定すると、二値
では4メガバイトの容量が、また、1ピクセルを多値8
ビットとするものでは32メガバイトの容量がそれぞれ
必要である。さらにカラー画像の場合では、K(黒)、
Y(イエロー)、M(マゼンタ)およびC(シアン)の
4色の各ページを必要とするため、128メガバイトと
いう膨大な容量が画像用メモリとして必要となる。
【0005】一般的に、二値の画像メモリを有する画像
処理装置により多値画像の展開/画像生成を行なう場合
には、網点、ディザまたは誤差拡散法等の面積階調法を
用いることが多い。多値の画像を扱う画像形成装置にお
いては、1ピクセルを8ビットで表現することにより2
56階調を有し、また、カラー画像を扱う画像形成装置
においては、K(黒)、Y(イエロー)、M(マゼン
タ)およびC(シアン)の各色をそれぞれ8ビットで構
成して、1ピクセル32ビットとして扱うものが代表的
である。
【0006】(解像度について)近年では、DTPのハ
ードウェア/ソフトウェアの技術の進歩により各種入力
デバイス(スキャナやビデオスチルカメラなど)やドキ
ュメントエディタなどの登場により、様々な空間解像ま
たは階調解像度を有する画像要素を一つのドキュメント
(1ページ)の中に取り込むことが可能となり、より複
雑で高度な、そして様々な空間解像度または階調解像度
を有する画像要素を組み合わせたドキュメントが作成さ
れるようになってきた。ここで、画像要素とは、似かよ
った性質を有するデータで分類される画像ブロックをい
い、例えば、文字/線画領域、図形領域、および自然画
像領域とに分けることができる。
【0007】そして、複雑で高度な、そして様々な空間
解像度または階調解像度を有するドキュメントもPDL
を用いれば簡単に表現でき、単純なファイルとして生成
することも可能である。PDLファイル生成時におい
て、そのドキュメントの中に含まれる異なる様々な空間
解像度および階調解像度は、PDLにて取り決めによ
り、入出力装置に依存しない固有の論理的座標空間にて
記述される。一方、画像処理装置においては、それらの
PDL記述を解釈して、自身の画像処理装置が有する画
像用メモリの空間解像度および階調解像度にて展開処理
を行なう。通常、ここで展開処理を行なう空間解像度と
階調解像度とは、プリンタ等の目的とする画像形成装置
の空間解像度および階調解像度と同じである。
【0008】カラー画像などを扱う場合には、既述した
ように膨大な画像メモリを必要とするため、各種の情報
量圧縮方式を活用した画像処理方式が提案されている。
この種の提案には、例えば、特開平4−87460号に
記載のものがある。この公報に記載された方式では、基
本的にはメモリの削減をするために、DCT(Discrete
Cosine Transform:離散コサイン変換)を基本とした
JPEG(Joint Photographic Experts Group) 等の
画像圧縮方式が採用されている。また、DCTを基本と
したJPEG等の画像圧縮方式では、文字/線画のよう
な高空間解像度を必要とする領域と、自然画像のような
中間調画像の高階調解像度を必要とする領域とで圧縮効
率および画像劣化が異なってしまうという問題もあるた
め、上記公報記載の技術では、この問題を解決する提案
も同時に行なわれている。
【0009】また、特開平4−63064号には、同様
な問題を解決する方法として二値化可能な文字/線画領
域を2値画像として扱い、MMR符号化方式を用いて符
号化し、自然画の領域をDCTにて符号化して、各領域
をそれぞれ別の画像用メモリに展開または蓄積処理を行
ない、出力時にそれらをマージして、目的とする画像形
成装置に出力することにより圧縮効率を向上させ、かつ
良好な画像を得ることが可能な画像処理装置が提案され
ている。
【0010】さらに、文字/線画像領域と自然画像領域
とにおいては、基本的に空間解像度と階調解像度とが相
反する関係にあるため、文字/線画領域に対する高解像
度の二値画像用メモリと、低解像度の多値画像用メモリ
とを有し、出力時には、それぞれの画像用メモリに蓄積
された画像データをマージして出力することにより良好
な画像を得ることができる技術や、画像用メモリの削減
を行なうことができる方法などが幾つか提案されてい
る。
【0011】(カラースペースについて)また、DTP
の技術進歩により、様々なカラースペースを有する画像
要素も一つのドキュメント(1ページ)の中に取り込む
ことが可能となり、より複雑で高度なそして様々なカラ
ースペースの画像要素を有するドキュメントが作成され
るようになってきた。例えば、あるPDLでは、CIE
ベースのカラースペース(CIE1931(XYZ)空
間のXYZ、CIE1976(L*a*b*)空間のL*a
*b*、校正されたRGB空間のRGBなど)や、デバイ
スKYMC、その他の特殊なカラースペースの画像要素
を1ページのドキュメントの中に取り込むことが可能で
ある。
【0012】ここでPDLファイルとしてそれぞれ異な
るカラースペースを有する画像要素を取り込む際には、
CIEベースのカラーベースに対しては全てCIE三刺
激値であるXYZのカラースペースに変換した形で、ま
たその他のカラースペースに対してはそのままの形にて
1ページのPDLファイルに取り込まれる。
【0013】通常、このように1ページのPDLファイ
ルに複数の異なるカラースペースを有する画像要素が存
在する場合に、従来の画像処理装置は、目的としている
画像形成装置が有するカラースペースと同一のカラース
ペースに変換する処理を行なう。この際に行なわれるカ
ラースペース変換処理は、例えば、一般的なデバイスR
GBからデバイスKYMCへの完全な変換処理は、次の
ような計算式で表され、それらはソフトウェア的に行な
われる。
【0014】
【数1】
【0015】これらの式において、BG(k)とUCR
(k)とは、それぞれスミ版合成関数、UCR関数であ
り、これらの関数は、目的とする画像形成装置の有する
特性によりそれぞれ異なる。これらの式に示されるカラ
ースペース変換処理の各種演算や比較処理は、画像を構
成するすべての画像ピクセルに対して、ピクセル毎に行
なわれる。
【0016】また、互いに異なる画像入力装置により入
力された画像要素の複数を有するドキュメントであって
も、PDLを用いれば簡単に表現できて、ファイルとし
て生成することが可能である。PDLファイル生成時
に、異なる画像入力装置により入力された画像要素は、
PDLにより決められ、入出力装置に依存しない固有の
カラースペースおよびフォーマットに変換・記述され
る。そして、画像処理装置においては、それらのPDL
記述が解釈され、画像処理装置の有する画像用メモリの
空間解像度および階調解像度にて展開処理が行なわれ
る。
【0017】このように、画像処理装置では画像展開処
理において、画像処理装置固有のデバイスに依存したカ
ラースペース変換処理およびカラーマッチング処理が行
なわれ、入力画面を忠実に再現したカラー出力画像を得
るための種々の処理が行なわれることとなる。
【0018】このような処理の周知技術としては、例え
ば、特開平3−282965号公報記載のものがある。
この公報に記載の技術は、スキャナなどの入力装置によ
り入力された画像要素を、当該入力装置に依存するRG
B等のカラースペースの画像データとして受け取り、受
け取った画像データを入出力装置に依存しない三刺激値
XYZに変換し、その後、CIE1976のL*a*b*
に変換して、ガミュートマッチング処理/カラーマッチ
ング処理を行ない、画像形成を行なうために必要なY、
M、Cなどの各色インク量、K(黒)生成のための下地
除去の量および墨入れの量等を算出して生成し、階調制
御処理を行なって入力画面のカラーを忠実に再現した画
像出力を得るものである。
【0019】また前述した特定のPDLにおいても同様
な概念のカラーマッチング処理が行なわれている。すな
わち、ホストコンピュータなどの画像入出力/生成/編
集装置において、画像形成を目的とするPDLファイル
を生成する際には、ホストコンピュータ側にて各種画像
入力装置に依存したカラースペースが、デバイスに依存
しないCIEベースの三刺激値に変換され、PDLファ
イルが生成される一方、画像処理装置側において、画像
展開/生成処理を行なう際には、CIEベースのカラー
レンダリング辞書を参照して画像入出力に依存しないカ
ラースペースが、画像入出力装置に依存したカラースペ
ースへ変換されるカラースペース変換処理およびカラー
マッチング処理が行なわれる。これによって、各画像入
出力装置に依存することなく入力画像のカラーを忠実に
再現した出力画像が得られるようになっている。
【0020】また、最近各DTPソフトウェアメーカな
どから、同様の方法にてカラーマッチング処理を行なう
目的で、カラーマネージメントシステムというカラーマ
ッチングフレームワークソフトウェアが各種提供される
ようになってきた。
【0021】このようなカラーマネージメントシステム
のフレームソフトウェア自身は、デバイスプロファイル
と呼ばれる情報を、画像入出力装置に対応して保有して
おり、かかる情報により、各種画像入出力装置のデバイ
スに依存するカラースペースを、デバイスに依存しない
(例えばCIE 1976L*a*b*や、XYZなどの)
カラースペースへの変換、あるいはその逆の変換が可能
となっている。
【0022】ここで、カラーマネージメントシステム
は、デバイスプロファイルを基に、各画像入出力装置か
ら入力/出力される画像データを、各種画像入出力装置
のデバイスに依存しないカラースペースへと変換して入
出力処理することより、それぞれの画像入出力装置の間
で容易にカラーマッチング処理を行なおうとするもので
ある。
【0023】
【発明が解決しようとする課題】(解像度に関する問
題)しかし、かかる従来の画像処理装置は、基本的にP
DLの解釈処理を行なって展開処理を行なう際には、そ
の画像処理装置または画像形成装置の有する固有の空間
解像度および階調解像度でしか展開処理できない。その
画像処理装置の固有の空間解像度および階調解像度にて
展開処理を行なわれた画像データは、全て単一の空間解
像度および階調解像度として、プリンタをはじめとする
目的の画像形成装置に供給されて、画像形成装置側にて
各種画像処理が行なわれるか、またはなにも行なわれな
いで画像形成が行なわれる。
【0024】前述のように、ドキュメントを構成する画
像要素は、文字/線画領域、図形領域、および自然画像
領域とに分けることができるが、それぞれの画像要素に
必要とされる空間解像度および階調解像度は異なる。例
えば、文字/線画領域においては、高空間解像度が必要
とされるが、ほとんどの場合において二値として表現で
きるため、低階調解像度でよい。また、図形領域におい
ては、連続して同一の値が現れる確率が高いために低空
間解像度で表現すること可能であり、その空間解像度は
画像処理装置あるいはプリンタをはじめとする画像形成
装置の空間解像度よりは非常に低く、またほとんどの場
合において2値で表現可能であるので低階調解像度でよ
い。一方、自然画のような中間調画像に対しては高階調
解像度が必要であるが、高空間解像度は必要なく、また
高解像度はオーバーサンプリングとなりかえって画質を
劣化させてしまうので、中空間解像度でよい。
【0025】本来、このように、それぞれで要求の異な
る空間解像度および階調解像度を有する画像要素に対し
て、本当の意味での高画質な画像形成を行なうために
は、画像処理装置から画像形成段階まで画像要素の属性
が保存された状態で、プリンタをはじめとする目的の画
像形成装置に対してデータが送られ、それぞれの特性に
あった形式にて、それぞれの画像形成装置に依存した画
像あるいは画像形成が行なわれるべきである。
【0026】例えば、スキャナで読み取った自然画中に
7pt(ポイント)以下の小さい文字とその他の線画とが
含まれるような場合において、従来の画像処理装置で
は、文字領域の画像と自然画領域の画像とにおいてその
属性を保存して、プリンタをはじめとする画像形成装置
に伝えることができない。このため、画像形成装置が例
えば200/400線の2種類の万線スクリーンの描画
機能を有するプリンタである場合であっても、全ての領
域に対して200/400線を単一にて画像形成を行な
うために、200線固定の場合では、文字の輪郭が鮮明
でなくなったり、ハーフトーンの文字などは少しボケた
ような文字となってしまう一方、400線固定の場合で
は、自然画像の領域がオーバーサンプリングとなってし
まうとともに、一般的にハーフトーンの再現性が悪化し
てしまうという問題がある。
【0027】また、近年のコピア/プリンタなどでは、
あるドキュメントの中で領域を指定して、スクリーンの
切り替えや各種の異なる画像処理を行なわせる方法など
が幾つか考えられてはいる。しかしながら、これらは、
前述のように文字領域と自然画像領域とがオーバーラッ
プして存在する様な場合には、物理的な制限(領域を指
定するためのメモリの量)や領域指定手段の制限等によ
り指定することができない、という問題がある。
【0028】(カラースペースに関する問題)一方、従
来の画像処理装置では、基本的にPDLを解釈して展開
処理を行なう際には、すべての画像データを、処理を行
なわんとする画像処理装置あるいは画像形成装置の有す
る特定のカラースペースに変換処理しなければならず、
この際のカラースペース変換処理に大変時間を要してし
まう、という問題点がある。この問題について次に例を
挙げて説明する。
【0029】PDLで記述された各種図形要素のカラー
およびカラースペースに関しては、ほとんどの場合に、
PGBのカラースペースにて、カラーパレット等により
カラーが指定されて、1つの画像要素に対しては、その
カラーはほとんど変化しない。したがって、例えば、1
ページのドキュメントにおいて各画像要素の占める割合
が小さい場合には、カラースペース変換処理および展開
処理に、それほど時間を費やすことはない。
【0030】ところが、1ページのドキュメントのほぼ
全面がスキャナ等で読み取り入力されたラスターの自然
画像である場合などでは、画像展開時に、ほぼ1ページ
の全てのピクセルに対してカラースペース変換処理を行
なわなければならないために、1ページのドキュメント
の画像展開処理に莫大な時間が必要となって、画像処理
装置の能力は低下する。
【0031】例えば、解像度が400dpi であって、大
きさがA3サイズ1ページに要する画像用メモリは、二
値では4メガバイトもの容量が、1ピクセルが多値8bi
t では32メガバイト容量がそれぞれ必要である。さら
に、カラー画像の場合では、K、Y、M、およびCの4
色ものページを必要とするために、計128メガバイト
という膨大な画像用メモリが必要である。この場合にお
いて、処理対象となるドキュメントが、全面自然画であ
るようなときには、上述したカラースペースの変換処理
において、128百万(メガ)回もの演算を行なう必要
がある。
【0032】しかも、上述した従来の画像処理装置は、
基本的にPDLを解釈して展開処理を行なう際には、あ
る決められた画像入出力装置に対するカラーマッチング
処理しか行なうことができない。このため、一つのドキ
ュメントの中に、異なる画像入力装置により入力され、
かつ当該画像入力装置に依存した画像データが含まれる
場合などでは、その決められた画像入出力装置に対して
のみのカラーマッチング処理が行なわれて、画像要素毎
に異なるカラーマッチング処理を行なうことができない
のである。
【0033】また、前述した特定のPDLに対応する処
理装置においては、一つのドキュメントの中に、異なる
画像入力装置から入力された複数の画像要素が含まれる
場合でも、画像入力装置に関するカラーレンダリング辞
書を添付することによって、カラーマッチング処理を、
それぞれ画像要素毎に異ならせて行なうことは可能では
ある。しかし、これらのカラーマッチング処理は、カラ
ーマッチングの演算として多項式の演算方法しか提供し
ていないので、高精度のカラーマッチング処理を行なう
ことができない。高精度を求めるには、全てのカラース
ペースの変換テーブルを持つことが必要であり、これ
は、ファイルサイズの拡大につながり無駄が大きくなっ
てしまうととともに、全ての処理はソフトウェアにて行
なわれるので、当該カラーマッチング処理に莫大な時間
を要してしまう。
【0034】一方、カラーマネージメントシステムとい
うカラーマッチングフレームワークソフトウェアにおい
ても、簡単なカラーマッチング演算処理しか提供してい
ないので、高精度カラーマッチング処理を行なうことが
できない。このため、先の特定PDLに対応する処理装
置と同様に、高精度を求めるのに、全てのカラースペー
スの変換テーブルを持つことが必要であり、これは、フ
ァイルサイズの拡大につながり無駄が大きくなってしま
うととともに、全ての処理はソフトウェアにて行なわれ
るので、当該カラーマッチング処理に莫大な時間を要し
てしまう。
【0035】この発明は、上述した事情に鑑みてなされ
たもので、その目的とするところは、より品質の高い画
像形成を行なうことが可能な画像処理装置を提供するこ
とにある。
【0036】
【課題を解決するための手段】上述した問題を解決する
ために、本発明は、所定のフォーマットで記述されたフ
ァイルであって、異なる複数種類の空間解像度および階
調解像度の画像要素を有するファイルを入力する入力手
段と、前記ファイルを解釈し展開するとともに、画像要
素を分類する複数種類の属性情報を生成する展開手段
と、前記展開手段により展開されたファイルを、画像要
素が要する空間解像度および階調解像度に対応する画像
データに変換する画像データ変換手段と、前記画像デー
タを記憶する画像データ記憶手段と、前記属性情報を前
記画像データと同一の座標空間にて記憶する属性情報記
憶手段と、前記属性情報記憶手段により記憶された属性
情報および前記画像データ記憶手段により記憶された画
像データを、座標空間に対応して読み出して出力するデ
ータ出力手段と、前記データ出力手段により出力された
画像データに対して、前記データ出力手段により出力さ
れた属性情報にしたがった画像処理を行なう画像処理手
段とを具備することを特徴としている。
【0037】
【作用】この発明によれば、入力手段によって、所定の
フォーマットで記述されたファイルであって、異なる複
数種類の空間解像度および階調解像度の画像要素を有す
るファイルが入力され、次いで、このファイルが展開手
段により、解釈・展開されるとともに、画像要素を分類
する複数種類の属性情報が生成される。さらに、展開さ
れたファイルは、画像データ変換手段により、画像要素
が要する空間解像度および階調解像度に対応する画像デ
ータに変換される。この画像データと属性情報とは、画
像データ記憶手段と属性情報記憶手段とにそれぞれ記憶
される一方、データ出力手段により座標空間に対応して
読み出されて出力される。そして、画像処理手段は、そ
のときの属性情報にしたがって画像処理を、画像データ
に対して行なう。
【0038】
【実施例】以下、この発明の実施例について図面を参照
して説明する。
(第1実施例)この第1実施例に係る画像処理装置は、
画像データ処理装置1と画像形成処理装置3とに大別さ
れる。そこで、まず、画像データ処理装置1について説
明する。
【0039】(画像データ処理装置の構成)図1は、第
一の実施例に係る画像データ処理装置1の構成を示すブ
ロック図である。この図において、符号12はデータ通
信部であり、ある特定のPDLで記述されたドキュメン
トファイル(以下、単に「PDLファイル」という)を
入力する。このPDLファイルは、ホストコンピュータ
11により作成されたものである。符号13は画像展開
部であり、画像展開処理を行ない、PDLファイルを解
釈して、各画像要素のオブジェクトリストを作成する。
なお、画像展開部13は、フォント展開を行なう場合に
は、フォントメモリ14に記憶されたデータを参照して
フォント展開処理を行なう。
【0040】ここで、オブジェクトリストとは、この画
像データ処理装置1が有する画像座標空間上のどの位置
にそれぞれのオブジェクト(画像要素)が存在するか、
またどのような構成の画像要素なのか、またどのような
属性を有する画像要素なのか、さらにどのようなカラー
を持つオブジェクトなのかを示す構造体の構成になって
いる。画像座標空間上の位置は、例えば(x min、y mi
n)、(x min、y max)のように対角の座標で表現する
ことでき、構成についてはキャラクター、矩形図形、
円、線、その他の画像要素として表すことができ、ま
た、属性については文字、線画、自然画、図形要素など
により表すことができ、カラーについては画像展開部1
3が内部的に持っているカラーパレットに指示すること
でそれらの表現が可能である。
【0041】次に、符号15は画像データ変換部であ
り、画像展開部13によりオブジェクトリストに載った
画像データを各種データに展開あるいは変換する処理を
行なう。符号16は各部を制御する制御回路であり、詳
細な動作については後述する。符号17は画像記憶部で
あり、画像用メモリ18a〜18dと、タグビットメモ
リ19とに大別される。
【0042】本実施例における画像データは、各ピクセ
ルが8ビット、解像度が400dpi、かつ大きさがA
3サイズ(4メガピクセル)を想定している。このた
め、画像用メモリ18a〜18dの各々は、それぞれカ
ラーのK,Y,MおよびCに対応して画像データを記憶
し、これら容量の合計は128メガバイトとなる。一
方、タグビットメモリ19は、画像用メモリ18a〜1
8dとは同じ画像座標空間(4メガピクセル)を有する
メモリであって、それぞれの座標に対応するタグビット
を記憶するメモリである。ここで、本実施例におけるタ
グビットとは、図2に示すように、画像要素を、2ビッ
トで次の4種類に分類するものである。すなわち、タグ
ビットは、自然画像領域(3)、図形領域(2)、文字
/線画領域(1)、およびその他の領域(0)にそれぞ
れ分類する。ここで()の中の数字は、2ビット表記を
十進で示したものである。符号20は画像インターフェ
イスであり、画像形成処理装置3との間で画像データの
授受を行なう。
【0043】(本実施例における画像データの分類)こ
こで、図4を参照して、本実施例における画像データの
分類の一例を説明する。この図に示すオリジナル画像3
00は、文字/線画画像301、図形画像302、およ
び自然画像303の3つに分解でき、各画像は、それぞ
れ文字/線画領域、図形領域、および自然画領域の画像
要素に分類できる。
【0044】(画像形成処理装置の構成)次に、この第
1実施例に係る画像形成処理装置3について説明する。
図3は、画像形成処理装置3の構成を示すブロック図で
ある。この図において符号31は画像インターフェイス
であり、図1に示した画像データ処理装置1とのデータ
の授受を行なうとともに、タグビットの解釈を行なった
り、データのセレクトを行なう。
【0045】γ補正部32、カラースペース変換部3
3、フィルタ34、UCR/黒生成部35、階調生成部
36、およびスクリーン処理部37の各画像処理部は、
それぞれのタグビットの指示により、それぞれ異なる画
像処理を行なう画像処理機能と、そのための処理を行な
うためのLUT(ルック・アップ・テーブル)を有す
る。符号38はデータにしたがって画像形成を行なうた
めのレーザ駆動回路である。なお、本実施例における画
像形成では、電子写真方式、インクジェット方式、熱転
写方式、その他の各方式であっても良く、この場合に
は、符号38が適宜変更される。
【0046】また、符号39は制御部であり、この画像
形成処理装置3における同期制御、システム制御、UI
制御、画像処理制御、通信制御等の各種制御を行なうと
ともに、どのようなタグビットのときにどのような画像
処理を行なうかなどの指示もソフトウェア的に動作開始
前に指示する。
【0047】なお、この画像形成処理装置3は、画像入
力装置40を有するコピア形式のものであっても良い。
この場合に原稿は、CCD41a〜41cによりR(レ
ッド)、G(グリーン)、B(ブルー)の3色で読み込
まれ、これらの読取信号は、A/D変換部42a〜42
cによりディジタル信号に変換され、次にシェーディン
グ補正部43により画素毎の感度バラツキの補正と照明
ムラの補正とが行なわれて、最終的に出力信号線44a
〜44cを介し、R、G、Bのカラースペースを有する
データとして画像インターフェイス31に供給される。
そしてこの場合、画像インターフェイス31は、画像デ
ータ処理装置1からの画像データではなく、画像入力装
置40からのデータを選択して、画像形成処理が行なわ
れる。
【0048】次に、この第1実施例の動作について、図
5を参照して説明する。図5は、この実施例の動作を説
明するためのフローチャートである。まず、画像データ
処理装置1の動作について説明する。
【0049】(画像データ処理装置の動作)はじめに、
ステップSa1では、ホストコンピュータ11により作
成されたPDLファイルが、データ通信部12により受
信され、画像展開部13により解釈される。次のステッ
プSa2では、この画像展開部13の解釈により、オブ
ジェクトリストが生成される。この生成は、画像座標空
間の最も小さな(x=0,y=0)の位置からxの
(+)方向に1ラインだけ往動して主走査し、次に、x
方向を復動しつつy方向に復走査し、再び(x=0,y
=1)の位置からxの(+)方向に1ラインだけ往動し
主走査して、以下同様な走査がオブジェクトに対して繰
り返されることにより行なわれる。このようにして、1
ページの各ライン毎にオブジェクトが生成される。
【0050】次に、オブジェクトリストとなった画像デ
ータは、画像データ変換部15に渡され、ステップSa
3において仮想的にラスタライズ(展開)され、ステッ
プSa4において、1ページの全てのスキャンラインに
対しK,Y,M,およびCの各色毎にラスタライズされ
たバイトマップとして変換され、次のステップSa5に
おいてK、Y、MおよびCの画像用メモリ18a〜18
dの各々に一時的に蓄積される。
【0051】一方、上記処理を行なうと同時に画像デー
タ変換部15は、ステップSa7においてオブジェクト
タグ生成を行なう。前述したように、画像データ変換部
15に渡されるオブジェクトリストにより、それぞれの
属性の異なるオブジェクトの存在位置、そのオブジェク
トの属性を明確に判断することができる。この情報を基
に、画像データ変換部15は、タグビットメモリ19に
対してダグビット生成処理を行なうのである。タグビッ
ト生成にあたっては、画像データ変換部15が画像デー
タ展開/変換処理を行なうと同時に、それぞれの画像要
素の持つ特性と、その画像要素の存在する位置とを知っ
て、図2に示すタグビットファンクションテーブルによ
って示されるように、タグビットメモリ19に対してタ
グビットを書き込む(ステップSa8)。なお、展開処
理時に異なる属性の画像要素が重なって存在するような
場合においては、最上層に位置する画像要素の属性が適
応される。
【0052】このように、画像データ変換部15により
画像用メモリ18a〜18dへの画像データ展開処理、
およびタグビットメモリ19へのタグビット生成処理が
完了すると、画像インターフェイス20により目的とす
る画像形成処理装置との間で通信が行なわれ、画像出力
同期信号が通信/同期信号線23を介して供給される。
そして、画像インターフェイス20は、ステップSa6
において、画像用メモリ18a〜18dに蓄積された画
像データを読み出して、ラスターデコーディング処理を
行なうとともに、画像インターフェイス20は、制御回
路16に対して画像データ出力を指示する。これによ
り、ステップSa9において、画像用メモリ18a〜1
8d内の画像データ、およびタグビットメモリ19内の
タグビットが、画像インターフェイス20を介して画像
形成処理装置に対して出力される。その際、画像データ
およびタグビットは、それぞれ画像インターフェイス2
0により画像データ出力信号線21a〜21dおよびタ
グビット出力線22を介して通信相手先の画像形成処理
装置3に送信される。
【0053】この際、画像データとタグビットとは、画
像用メモリ18a〜18dの画像座標空間の最も小さな
位置(x=0,y=0)からx方向に1ラインごとに順
次走査される。ここで画像用メモリ18a〜18dとタ
グビットメモリ19とは互いに同じ画像座標を有し、一
面の大きさは同じであるので、出力時に画像データおよ
びタグビットは完全に同一座標データ毎に同期した形に
て画像形成処理装置に対し出力される。また、画像デー
タ処理装置内でのこれらの処理は、制御回路16によ
り、同期が取られて指示される。
【0054】(画像形成処理装置の動作)次に、画像形
成処理装置3の動作について説明する。画像入力装置4
0によるデータを用いない場合、画像インターフェイス
31は、画像データ処理装置1からの画像データを選択
し、同時に供給されたタグビットとともに後段の各画像
処理部に供給して、ステップSa10において、タグビ
ットに基づき画像要素毎の画像処理を行なう。タグビッ
トは、図2に示したように、自然画領域(3)、図形領
域(2)、文字/線画領域(1)、およびその他の領域
(0)に分類されるので、現時点において供給される画
像データがどの画像要素であるかを、その時点で供給さ
れるタグビットにより判別することができる。
【0055】これにより、スクリーン処理部37は、画
像データに対応する画像要素が、同時に供給されたタグ
ビットにより文字/線画領域(1)に分類される場合に
は、400線にて出力して、その他の領域に分類される
場合においては200線に出力されるように処理する。
【0056】これと同様にして、γ補正部32は、タグ
ビットに応じてγ補正の係数の切り替え、また、カラー
スペース変換部33は、タグビットに応じてカラースペ
ース変換処理時のLUTの切り替え、フィルタ処理部3
4は、タグビットに応じてフィルタ処理時のフィルタ係
数の切り替え、UCR/黒生成部35は、タグビットに
応じてUCR/黒生成時の係数の切り替え、階調制御部
36は、タグビットに応じて階調制御時の階調制御LU
Tの切り替えが行なわれる。すなわち、各画像処理部3
2〜37では、供給された画像データに対して、タグビ
ットで示される画像要素に最適な処理が行なわれて、こ
れらの処理結果が、レーザ駆動回路208に送られて、
ステップSa11において、画像形成が実行されるよう
になっている。
【0057】このような第1実施例によれば、1ページ
のドキュメントに複数の異なる特性を有する画像要素に
対して、その属性を保持したまま画像形成が行なわれる
ので、高画質に画像形成を行なうことが可能である。
【0058】(第1実施例の変形例)次に、かかる第1
実施例の種々の変形例について説明する。
【0059】(変形例)図6は、第1の実施例の変形
例に係るタグビットのファンクションテーブルを示す
図である。この変形例は、第1の実施例と同様な構成
のシステムであるが、タグビットは、画像要素を、3ビ
ットで次の8種類に分類するようになっている。すなわ
ち、タグビットは、図6に示されるように、カラー階調
(自然画)領域(7)、モノクロ階調(自然画)領域
(6)、バックグラウンドカラー領域(5)、フォアー
グランドカラー領域(4)、ハーフトーン文字領域
(3)、カラー文字領域(2)、黒文字領域(1)、お
よびその他の領域(0)の画像要素に分類する。したが
って、この変形例におけるタグビットメモリ19は、
3ビット×4メガピクセル(12メガビット)の大きさ
を有するメモリにより構成される。この変形例におい
ては、画像データ処理装置1と画像形成処理装置3との
動作は、第1の実施例と同様であり、対応する画像要素
の分類が異なる画像処理装置を示したものである。
【0060】(変形例)図7は、第1の実施例の変形
例に係る画像データ処理装置の構成を示すブロック図
であり、第1の実施例と同一の機能を有する要素には同
一の符号を付してある。この変形例は、第1の実施例
と同様な構成のシステムにおいて、モノクロ多値画像出
力に対応した画像用メモリ18eを有する画面データ処
理装置を示している。この変形例においては、モノク
ロ多値画像の画像データ出力に対応して、1ピクセルが
8ビット、解像度が 400dpi、大きさがA3の画像を
記憶できる32メガバイトの画像用メモリ18eを有
し、モノクロ多値の画像出力に対応した機能を、第1実
施例と同様に有した画像データ処理装置を示したもので
ある。なお、この変形例では、画像インターフェイス
20からの画像データは、カラーではなく、モノクロの
多値となるので、画像データの出力線は、画像データ出
力信号線21eの1本となる。
【0061】(変形例)図8は、第1の実施例の変形
例に係る画像データ処理装置の構成を示すブロック図
であり、第1の実施例と同一の機能を有する要素には同
一の符号を付してある。この変形例は、第1の実施例
と同様な構成のシステムにおいて、それぞれR,G,B
のカラースペースの多値画像出力に対応した画像用メモ
リ18f〜18hを有する画像処理装置を示している。
すなわち、この変形例は、R,B,Gのカラースペース
を有する画像データの出力に対応して、各ピクセルが8
ビット、解像度が 400dpi、サイズがA3の画像を記
憶できる96メガバイトの画像用メモリ18f,18
g,18hを有し、R,G,B多値の画像出力に対応し
た機能を、第1実施例と同様に有した画像データ処理装
置を示したものである。
【0062】(第2の実施例)図9は、第2の実施例に
係る画像データ処理装置の構成を示すブロック図であ
り、第1実施例と同一の機能を有する要素には同一符号
を付してある。この第2実施例における画像データ処理
装置2は、1ページの画像用メモリ18iにおいて必要
な大きさの連続的な画像メモリ空間を有するのではな
く、それよりも少量な仮想的なメモリ空間を有するとと
もに、画像を展開する際に、文字/線画領域、図形領
域、および自然画領域の各領域に対して、それぞれ最適
な符号化変換処理を行なうものである。
【0063】(第2実施例の画像データ変換部)この第
2実施例の画像データ変換部15bは、オブジェクトリ
ストにしたがって画像要素をそれぞれの属性に分類する
点については第1実施例と同様であるが、さらに、分類
した各画像要素に最適な符号化変換処理をソフトウェア
あるいはハードウェア的に行なって、この結果生成され
た中間フォーマットの画像データとともに、このデータ
を復号する際に必要となるファンクションデータを画像
記憶部17の画像用メモリ18iに記憶させる点で第1
実施例と相違する。ここで、最適な符号化変換処理と
は、例えば、文字/線画領域に対しては二値化符号化方
式を、図形領域に対してはランレングスエンコーディン
グ符号化方式を、自然画領域に対してはJPEG方式を
それぞれいう。
【0064】図10は、画像用メモリ18iのメモリマ
ップと、中間フォーマットの画像データとの関係を示す
概略図である。この図に示すように、画像用メモリ18
iには、例えばメモリマップ400で示される画像デー
タが記憶される。文字/線画データ401は、二値化符
号化方式の二値ビットマップデータフォーマット405
として記憶され、また、カラーデータ402は、二値化
符号化方式とランレングスエンコーディング符号化方式
とのカラーデータとしてFG(フォアグランド)カラー
/BG(バックグランド)の8ビットからなるカラーペ
アデータフォーマット406として記憶され、自然画デ
ータ403は、JPEG符号化方式のデータフォーマッ
ト407として記憶され、また、ファンクションデータ
404は、ファンクションデータとランレングスデータ
とからなるデータフォーマット408として記憶され
る。ここで、ファンクションデータは4ビット、ランレ
ングスデータは12ビットの計16ビットのデータフォ
ーマット408にて記憶される。
【0065】(第2実施例の画像インターフェイス)こ
の第2実施例における画像インターフェイス20bは、
画像用メモリ18iに記憶された中間フォーマットの画
像データをファンクションデータにしたがって読み出し
て復号(伸張)し、画像形成処理装置に供給するもので
ある。そこで次に、画像インターフェイス20bの構成
について説明する。図11は、画像インターフェイス2
0bの構成を示すブロック図である。
【0066】この図において、符号201はリード/ラ
イトコントローラであり、画像用メモリ18iに記憶さ
れた文字/線画データ、カラーデータ、自然画データ、
およびファンクションデータを、AR202〜205に
より参照されるアドレスにて読み出す。ここで、AR2
02〜AR205の各々は、それぞれ文字/線画データ
ポインターレジスタ、カラーデータポインターレジス
タ、自然画データポインターレジスタ、およびファンク
ションデータポインターレジスタであり、メモリのマッ
プ400(図10参照)において、非固定長で不規則に
記憶された各中間フォーマットの画像データとそのアド
レスとの対応関係を記憶しており、初期設定時には、最
初のページの各中間フォーマットの画像データが存在す
る先頭アドレスがセットされている。
【0067】符号206はマルチプレクサであり、リー
ド/ライトコントローラ201を介した制御のもと、画
像用メモリ18iから供給された中間フォーマットの画
像データを分配する。符号207〜210の各々はFI
FO(First-In First-Out)メモリであり、FIFOメ
モリ207がファンクションデータを、FIFOメモリ
208が文字/線画データを、FIFOメモリ209が
カラーデータを、またFIFOメモリ210が自然画デ
ータを、それぞれ記憶する。
【0068】符号214は通信コントローラであり、相
手先である画像形成処理装置との通信を行なう。符号2
15はファンクションコントローラであり、FIFOメ
モリ207からファンクションデータを読み込んでデコ
ードし、次にどのデータが必要か、またどのようなファ
ンクションなのかを判断して、伸張された画像データを
出力する。
【0069】(ファンクションコントローラ)次に、フ
ァンクションコントローラ215の詳細構成について図
12を参照して説明する。この図において、二値データ
レジスタ215aは、伸張器211により伸張された文
字/線画像データを一時的に記憶保持するレジスタであ
り、同様に、カラーデータレジスタ215bは遅延器2
12により遅延されたカラーデータを、自然画データレ
ジスタ215cは伸張器213により伸張された自然画
データを、それぞれ一時的に保持するレジスタである。
【0070】符号215dはファンクションデコードコ
ントローラであり、FIFOメモリ207からファンク
ションデータを読み込んでデコードするとともに、各部
をコントロールする。また、ファンクションデコードコ
ントローラ215dは、ファンクションの実行ピクセル
をカウントするカウンタを内蔵しており、ファンクショ
ンデータのランレングスフィールドで示されている同一
ファンクションの実行ピクセル数をカウントする。符号
215e、215fはそれぞれマルチプレクサでありコ
ントローラ215gを介したファンクションデコードコ
ントローラ215dの制御のもと一の入力を選択して出
力する。ここで、ファンクションデコードコントローラ
215dにおいて行なわれるデコードの内容について図
13を参照して説明する。
【0071】この図において、文字データの使用(0)
とは、文字/線画領域のデータ領域であることを示し、
特にこのビットが「0」であるときには、文字データを
使用して、文字/線画データを伸張して画像データとし
て出力する。この際の出力ピクセル数は、ファンクショ
ンデータにおけるランレングスのフィールドに示された
ピクセル分である。
【0072】次に、カラーデータ反転(1)とは、通常
のカラーデータを参照する場合には、FGカラーデータ
が文字または図形のフォアーグランドカラーとして参照
され、BGカラーデータが文字または図形のバックグラ
ウンドカラーとして参照される一方、このビットが
「1」であるときには、FGカラーデータとBGカラー
データとが、それぞれバックグラウンドカラーとフォア
ーグラウンドカラーとに反転した形にて参照することを
示す。
【0073】また、図形/自然画(2)とは、図形デー
タ領域、または自然画データの領域であることを示し、
図形データ領域の場合(このビットが「0」である場
合)には、ランレングスデコードして画像データを出力
する一方、自然画データの場合(このビットが「1」で
ある場合)には、自然画データを伸張して画像データを
出力する。ここで、ランレングスデコードするラン長
と、自然画データを伸張して出力される画像データのピ
クセル数とは、それぞれファンクションデータにおける
ランレングスのフィールドに示されたピクセル分だけ出
力される。
【0074】ところで、文字データの使用(0)と図形
/自然画(2)との指示は、文字データ使用の両方が指
示されている場合には、文字/線画データを使用して出
力し、フォアーグランドカラーおよびバックグランドカ
ラーは、それぞれFGカラーと自然画データとから選択
される。同時にカラーデータ反転(1)が指示されてい
る場合には、FGカラーと自然画データの出力は反転す
る。
【0075】また、ホワイト出力(3)とは、ホワイト
データを出力することを示しており、1ページの余白ま
たはマージンを出力する際に使用される。この際に出力
される画像データのピクセル数は、ファンクションデー
タのランレングスのフィールドに示されたピクセル分だ
け出力される。
【0076】(第2実施例の動作)第1実施例と同様
に、データ通信部12を介して受信されたホストコンピ
ュータ11からのPDLファイルは、制御回路16の制
御下、画像展開部13により画像展開処理される。この
際、画像展開部13においては、それぞれの画像要素の
オブジェクトリストが作成され、画像データ変換部15
bがこのオブジェクトリストを解釈することによって、
それぞれの属性に分類される。この第2実施例における
画像要素は、第1の実施例と同様に、文字/線画領域、
図形領域、自然画領域とに分類される。分類された各画
像要素は、画像データ変換部15bにより各画像要素に
対し最適な符号化変換処理が行なわれ、この結果生成さ
れた中間フォーマットの画像データは画像用メモリ18
iに記憶される。画像データ変換部15は、この処理を
行なうと同時に、これらの中間フォーマットの画像デー
タを復号化の際に組み合わせてラスター画像生成するた
めのファンクションデータも生成して、画像用メモリ1
8iに記憶する。
【0077】画像用メモリ18iに1ページまたは複数
ページの中間フォーマットの画像データの記憶が完了す
ると、第1の実施例と同様に、画像インターフェイス手
段20bにより画像形成処理装置との間で通信/同期信
号線23を介して通信が行なわれ、画像出力同期信号が
出力される。これとともに画像インターフェイス手段2
0bは、制御回路16に対して画像データ出力の指示す
る。これによって、画像用メモリ18iの画像データ
は、画像インターフェイス20bを介して画像形成処理
装置に対して出力される。
【0078】(画像インターフェイスの動作)次に、画
像インターフェイス20bの動作について説明する。制
御回路16により画像処理形成装置へ画像データ出力の
指示がされると、図11において、中間フォーマットの
画像データが、この画像インターフェイス20bに供給
される。そして、まず、FIFOメモリ207〜210
の各々に、それぞれのデータがFULL状態となるまで
ストアされる。すなわち、ファンクションデータがFI
FOメモリ207に、文字/線画データがFIFOメモ
リ208に、カラーデータがFIFOメモリ209に、
自然画データがFIFOメモリ210に、それぞれスト
アされる。
【0079】FULL状態になると、同期信号が、通信
コントローラ214から通信/同期信号線23を介し画
像形成処理装置に出力されて、データ出力の指示がされ
る。一方、これを受けた画像形成処理装置は、画像イン
ターフェイス20bの通信コントローラに、通信/同期
信号線13を介して画像データ出力を指示する同期信号
を出力する。そして、同期信号を受けた通信コントロー
ラ214は、ファンクションコントローラ215に対し
て、FIFOからデータを読み込む旨の指示をする。こ
の読み込み指示を受けたファンクションコントローラ2
15は、FIFOメモリ207からファンクションデー
タを読み込んで、次にどのデータが必要なのか、またど
のようなファンクションなのかを判断する。そして、フ
ァンクションコントローラ215は、ファンクションの
指示に従って画像データを出力する。
【0080】ここでFIFOメモリへのデータの読み込
みは、FULL状態ではなくなったFIFOから順に繰
り返し行なわれ、1ページの画像出力が完了するまでの
間、FULLの状態を保つようにコントロールされる。
これらの処理は、基本的に1ラインごとに行なわれて、
全ラインデータを繰り返し出力することにより1ページ
の画像データの出力が完了する。
【0081】(ファンクションコントローラの動作)次
に、図12におけるファンクションコントローラ215
の動作について説明する。ファンクションデコードコン
トローラ215dは、FIFOメモリ207から出力さ
れたファンクションデータを一時的に記憶保持し、図1
3に示されるファンクションテーブルによりファンクシ
ョンをデコードし、二値データレジスタ215a、カラ
ーデータレジスタ215b、自然画データレジスタ21
5cおよびコントローラ215gに対し指示を与える。
これにより、デコードされたファンクションが実行され
る。この際に、ファンクションの実行に必要なデータ
が、二値データレジスタ215a、カラーデータレジス
タ215bあるいは自然画データレジスタ215cのい
ずれかから読み出される。
【0082】例えば、カラーデータを出力するファンク
ションの場合にファンクションデコードコントローラ2
15dは、カラーデータレジスタ215bに指示を与え
るとともに、コントローラ215gを介してマルチプレ
クサ215e、215fがカラーデータレジスタ215
bの出力を選択するように指令する。これにより、カラ
ーデータが、カラーデータレジスタ215bより読み出
され、マルチプレクサ215e、215fを順次介して
出力されて、当該ファンクションが実行される。
【0083】そして、ファンクションデコードコントロ
ーラ215d内のカウンタにより、与えられた実行ピク
セル数だけ同一ファンクションの実行がカウントされる
と、そのファンクションの実行は終了となり、新たなフ
ァンクションデータが読み込まれとともに、次のファン
クションの実行に必要なデータが、二値データレジスタ
215a、カラーデータレジスタ215bあるいは自然
画データレジスタ215cのいずれかに読み込まれて、
次のファンクションが同様にして実行される。いうまで
もなく、実行に必要なデータは、読み込み先に対応する
FIFO208〜210のいずれかから、伸張器21
1,213あるいは遅延器212を介して該当するレジ
スタに読み込まれる。
【0084】文字/線画データの出力、自然画データの
出力、あるいはこれらの組み合わせ出力を示すファンク
ションの場合であっても同様に処理され、目的とする画
像データのラスターイメージを得ることがで可能とな
る。
【0085】コントローラ215gは、実行されるファ
ンクションにより二値データ、カラーデータ、自然画デ
ータのうちどのデータが出力されるかを認識し、目的と
する画像データのラスターイメージを生成するととも
に、図2に示したようなファンクションに対応するタグ
ビットを生成し、画像データと同期してタグビットを出
力する。
【0086】なお、この第2実施例において用いた符号
方式において、文字/線画および図形領域に対してはM
MR符号化方式を用いるとともに、自然画領域に対して
はDCT符号化方式等を用いても良い。
【0087】本実施例によれば、画像形成の際に、装置
に固有のカラースペースに依存することなく、画像要素
に対して適切な画像処理を行なうことができるととも
に、かかる変換処理をハードウェア的に行なうことがで
きるので、その分、変換処理に時間を要するという不都
合を回避することが可能となる。
【0088】(第2実施例の変形例)次に、かかる第2
実施例の変形例について説明する。
【0089】この変形例は、図14に示すように、写真
のようなハーフトーンの画像要素の領域上に、高い空間
解像度を必要とする文字等の画像要素が存在する場合
に、その下に存在する画像要素に対し、画像データ処理
装置側において画像劣化の起こらない画像スクリーン
(例えば網点や誤差拡散方等の面積階調法)にて画像生
成を行なう。一方、この変形例は、その領域に関しては
画像形成処理装置側において何も処理を行なわず、文字
等の画像要素に対してのみ画像形成処理装置にてスクリ
ーン生成処理を行なう。これにより、スクリーンが切り
替わる境界線上にて発生する画像劣化を防ぐことができ
る。
【0090】さらに、第2実施例と同様の構成におい
て、ホストコンピュータ11にて画像劣化の起こらない
低ノイズスクリーンや各種画像スクリーン角度の異なる
画像スクリーンなどを生成し、生成した画像スクリーン
をデータ通信部12を介して読み込み、各画像要素毎に
異なる画像スクリーンを指定する機能を備えても良い。
【0091】(第3実施例)次に、この発明による第3
の実施例について説明する。この第3実施例は、複数の
異なるカラースペースを有する画像要素を、画像要素毎
に管理してその属性を保存可能したものである。
【0092】図15は、この第3の実施例に係る画像デ
ータ処理装置1Cの構成を示すブロック図であり、第1
実施例における画像データ処理装置1と同一の機能を有
する要素には同一符号を付してある。この図における画
像展開部13Cは、特定のPDLで記述されたPDLフ
ァイルの画像展開処理を行なうものであり、PDLファ
イルを解釈して、各画像要素のオブジェクトリストを作
成する点では、第1実施例と同様であるが、オブジェク
トリストについては若干相違している。
【0093】すなわち、この実施例におけるオブジェク
トリストは、この画像データ処理装置1Cが有する画像
座標空間上のどの位置に画像要素が存在するか、またど
のような構成の画像要素なのか、どのようなカラーを有
するオブジェクトなのかを示すとともに、どのようなカ
ラースペースの属性を持った画像要素なのかを示す構造
体の構成になっている点で第1実施例とは相違してい
る。ここで、カラースペースの属性については、CIE
ベースの三刺激値XYZや、デバイスKYMC、デバイ
スRGBなどにより表現することが可能であるが、以下
説明の便宜上、この第3実施例では、デバイスKYMC
として説明する。
【0094】また、画像展開部13Cは、目的とする画
像形成処理装置3C(後述する)の有するカラースペー
ス以外のラスター画像要素の展開処理を行なう場合に、
そのラスター画像要素が有するカラースペースとその画
像要素の位置とをオブジェクトリストより認識して、そ
れらの画像要素の存在を示すカラースペース変換画像要
素リストを作成し、制御回路15Cに渡す。制御回路1
5Cは、各部を制御するとともに、このカラースペース
変換画像要素リストを画像データ出力時まで保持する。
【0095】ここで、カラースペース変換画像要素リス
トについて説明する。このカラースペース変換画像要素
リストは、画像データが記憶される画像用メモリ18a
〜18dとは同じ画像座標空間を有して、画像データの
各座標に対応したカラースペースビットを掲載したもの
である。
【0096】本実施例におけるカラースペースビットと
は、図16に示すように、カラースペースの変換ファン
クションを、2ビットで次の4種類に規定するものであ
る。すなわち、カラースペースビットは、デバイスKY
MC→デバイスKYMC(スルー)変換(0)、CIE
XYZ→デバイスKYMC変換(1)、デバイスYM
C→デバイスKYMC変換(2)、およびデバイスRG
B→デバイスKYMC変換(3)の各カラースペース変
換を規定する。
【0097】(第3実施例に適用される画像形成処理装
置の構成)次に、この第3実施例に適用される画像形成
処理装置3Cについて説明する。図17は、画像形成処
理装置3Cの構成を示すブロック図である。この図にお
ける画像形成処理装置3Cは、図3におけるγ補正部を
取り去ったものであり、その他の部分については同一で
あるので、説明を省略する。
【0098】(第3実施例の動作)次に、この第3実施
例の動作について説明する。まず、ホストコンピュータ
11により作成されたPDLファイルが、通信部12に
より受信され、制御回路16Cによる制御の下、画像展
開部13Cにより画像展開処理されて解釈される。次
に、画像展開部13Cにおいては、それぞれの画像要素
のオブジェクトリストが、第1実施例と同様にして作成
される。
【0099】次に、オブジェクトリストとなった画像デ
ータは、画像展開部13Cにより、仮想的にラスタライ
ズ(展開)され、オブジェクトリストに基づきラスタラ
イズされたバイトマップとして展開/変換処理が行なわ
れる。この際に、画像座標空間の最も小さな(x=0,
y=0)の位置からx方向に1スキャンラインごとにオ
ブジェクトの存在が調べられ、もしオブジェクトの存在
が確認されたならば、そのオブジェクトに対して展開処
理が行なわれ、そのx方向の1スキャンラインに必要な
データが算出されて、必要なデータが得られる。
【0100】同様な処理を1スキャンラインに存在する
全てのオブジェクトに対して行なうことにより、1スキ
ャンラインのバイトマップが得られ、その1スキャンラ
インのバイトマップが画像用メモリ18a〜18dに書
き込まれ、それから次のスキャンラインの展開処理が行
なわれる。以下同様にして1ページの全てのスキャンラ
インに対して展開処理が行なわれ、画像用メモリ18a
〜18dにラスタライズされた画像データが書き込まれ
る。
【0101】ここで、展開/変換処理に際して画像展開
部13Cは、目的とする画像形成処理装置が有するカラ
ースペース(ここではデバイスKYMC)以外のラスタ
ー画像要素の展開処理を行なう場合、すなわち、何らか
の色変換を行なう場合に、そのラスター画像要素が有す
るカラースペースおよびその画像要素の位置をオブジェ
クトリストより認識し、これらの画像要素の存在を示す
カラースペース変換画像要素リストを作成して制御回路
16Cにそのデータを供給する。これを受けて、制御回
路16Cはそのカラースペース変換画像要素リストを画
像データ出力時まで保持する。
【0102】また、画像展開部13Cは、カラースペー
ス変換画像要素リストに掲載された画像要素に対して
は、この画像データ処理装置が有するカラースペースへ
の変換処理を行なわずに、PDLファイルにて送られた
カラースペースにて展開処理を行なう。この際、3セパ
レーションのカラースペースを有する画像要素に対して
は、画像用メモリ18b〜18dにYMCに対してそれ
ぞれ展開処理が行なわれる。(例えばデバイスRGBま
たはCIE XYZの場合には、それぞれYMCの画像
用メモリ16に対して展開処理が行なわれる。)
【0103】このように、画像データ変換部15Cによ
り画像用メモリ18a〜18dへの画像データ展開処理
が完了すると、画像インターフェイス20Cにより、目
的とする画像形成処理装置3Cとの間で通信が行なわ
れ、画像出力同期信号が通信/同期信号線23を介して
供給される。これを受けると、画像インターフェイス2
0Cは、制御回路16に対して画像データ出力を指示
し、これにより、画像用メモリ18a〜18d内の画像
データが、画像インターフェイス20を介して画像形成
処理装置に対して出力される。その際、制御回路16C
は、カラースペース変換処理が必要な画像要素を出力す
るときには、画像展開処理により作成されたカラースペ
ース変換画像要素リストを参照して、そのカラースペー
ス変換処理を示すカラースペースビットの生成する旨を
画像インターフェイス20Cに指示する。これを受けた
画像インターフェイス20Cは、画像データ出力と同時
に、カラースペースビットを生成して出力する。
【0104】ここで出力される画像データおよびカラー
スペースビットは、それぞれ出力信号線21a〜21
d、22を介して画像形成処理装置3Cに対し送られ
る。この際、画像データとカラースペースビットとは、
画像用メモリ18a〜18dの画像座標空間の最も小さ
な(x=0,y=0)の位置からx方向に1スキャンラ
インごとに順次走査されて送られる、ここで画像データ
の記憶される画像用メモリ18a〜18dと、制御回路
16Cが保持しているカラースペース変換画像要素リス
トの画像座標空間とは、同じ画像座標を持ち、一面の大
きさは同じであるので、出力時に画像データおよびカラ
ースペースビットは完全に同一座標データ毎に同期した
形にて画像形成装置に対し出力される。また、これら画
像データ処理装置内での処理は、制御回路16Cによ
り、同期が取られた形にて指示される。
【0105】次に、画像形成処理装置3Cの動作につい
て説明する。画像インターフェイス31では、画像入力
装置40によるデータを用いる場合、あるいは用いない
場合に合わせてそれぞれ入力画像データが切り替えられ
る。後者の場合に画像インターフェイス31は、画像デ
ータ処理装置1Cからの画像データを選択して、同時に
供給されるカラースペースビットとともに後段の各処理
変換部に供給する。この際、画像インターフェイス31
は、カラースペースビットの解釈も行なって、この解釈
結果を制御部39に供給する。カラースペース変換部3
3は、カラースペースビットから、図16に示したテー
ブルにより分類されるカラースペース変換ファンクショ
ンを、その時点において供給される画像データに対して
実行する。
【0106】また、この画像形成処理装置3Cの各制
御、例えば、同期制御や、システム制御、UI制御、画
像処理制御、通信制御などは、制御部39により行なわ
れ、どのようなカラースペース変換処理を行なうかなど
の指示も制御部39によりソフトウェア的に動作開始前
に指示される。
【0107】(第3実施例における具体的な処理)ここ
で、図18に示したドキュメントが、この第3実施例に
よりいかに処理されるかについて説明する。この図にお
けるオリジナル画像500は、異なるカラースペースを
有する複数の画像要素、すなわち、デバイスRGBデー
タ画像要素501、デバイスYMCデータ画像要素50
2、CIE XYZデータ画像要素503のそれぞれ分
類され、それぞれの画像出力時には、それぞれの画像要
素に対してカラースペース変換処理が行なわれる。
【0108】この第3実施例においては、デバイスRG
Bデータ画像要素501の出力時には、デバイスRGB
→デバイスKYMC変換(3)のカラースペースビット
が生成されてRGB→デバイスKYMC変換処理が行な
われる一方、デバイスYMCデータ画像要素502出力
時には、デバイスYMC→デバイスKYMC変換(2)
のカラースペースビットが生成されてデバイスYMC→
デバイスKYMC変換処理が行なわれ、また、CIE
XYZデータ画像要素503の出力時には、CIE X
YZ→デバイスKYMC変換処理が行なわれ、その他の
領域に対してはデバイスKYMC→デバイスKYMC変
換(0)のカラースペースビットが生成されてデバイス
KYMC→デバイスKYMC変換(スルー)処理が行な
われることとなる。
【0109】このような第3実施例によれば、1ページ
の中の複数の異なるカラースペースの画像要素を有する
ドキュメントに対して、画像データ処理装置側にてソフ
トウェア的にカラースペース変換処理を行なわないで、
画像形成時にハードウェア的なパイプライン処理により
行なうために、カラースペース変換処理に要する時間が
従来よりも短くなり、その分、高速に画像の展開、形
成、出力を行なうことが可能となる。
【0110】(第3実施例の変形例)次に、この第3実
施例における変形例について説明する。図19は、この
変形例に係る画像データ処理装置の構成を示すブロック
図である。この図が図15に示した第3実施例と同様な
構成については、同一の符号を付与してある。
【0111】この変形例は、第3実施例とはほぼ同様な
構成ではあるが、カラーマッチング回路50が画像イン
ターフェイス20Cの出力側に設けられている点で相違
する。このカラーマッチング回路50は、デバイスKY
MCにそれぞれ対応するカラースペース変換LUTを有
しており、切替信号の指示によって、カラースペース変
換において参照されるカラースペース変換LUTを切り
替えてカラースペース変換処理およびカラーマッチング
処理を行なう。かかるカラーマッチング回路50は、汎
用的なDLUT(ダイレクト・ルック・アップ・テーブ
ル方式)によるカラーマッチング用LSI等により構成
可能である。
【0112】図20は、カラースペースビットとカラー
マッチングファンクションとの対応関係を示すテーブル
である。この変形例においては、画像データ処理装置内
部でカラースペース変換およびカラーマッチング処理が
行なわれるため、画像形成処理装置に対して送られるカ
ラースペースビットの指示では、画像形成処理装置側で
はカラースペース変換処理が行なわれずに、その他の画
像処理、例えば階調補正などが行なわれる。
【0113】この変形例では、第3実施例と同様に、画
像要素の属性を保持したまま、通常では行なわれるカラ
ースペース変換処理およびカラーマッチング処理を行な
わずに、画像展開処理が行なわれる。その後、第3実施
例と同様にして、画像データとカラースペースビットと
が画像インターフェイス20Cから出力されて、カラー
マッチング回路50に、前者は画像入力信号として、後
者はカラースペース変換LUTの切り替え信号として供
給される。
【0114】カラースペースビットは、同一座標に対応
する画像データと同期して供給されるので、画像データ
のカラースペース変換において参照されるカラースペー
ス変換LUTがリアルタイムに切り替えられ、各画像要
素毎に異なるカラースペース変換処理およびカラーマッ
チング処理が行なわれる。
【0115】次に、この変形例による処理を、図21に
示したドキュメントを用いた場合を例にとって説明す
る。図21に示されるドキュメント600は、1ページ
に、3つの異なる画像入力装置A,B,Cにより入力さ
れた画像要素を含んでいるものであり、詳細には、画像
要素601、602、603は、それぞれ画像入力装置
A,B,Cから入力されたものである。
【0116】この変形例においては、カラーマッチング
回路50によって、画像要素601の出力時にあって
は、画像入力装置A→画像出力装置のカラースペース変
換処理が行なわれ、画像要素602の出力時にあって
は、画像入力装置B→画像出力装置のカラースペース変
換処理が行なわれ、また、画像要素603の出力時にあ
っては、画像入力装置C→画像出力装置のカラースペー
ス変換処理が行なわれる一方、その他の場合には、デフ
ォルトのカラーマッチング処理が行なわれる。
【0117】この変形例によれば、異なる画像入力装置
により入力された画像要素が1つのドキュメントに含ま
れた場合でも、各画像要素の属性を保持したまま画像展
開/生成処理が行なわれ、各画像要素ごとに異なるカラ
ーマッチング処理が行なわれるので、より高品質な入力
画像のカラーを忠実に再現した画像出力を得ることが可
能となる。
【0118】
【発明の効果】以上説明した発明によれば、画像形成の
際に、装置に固有の空間解像度および階調解像度に依存
することなく、画像要素に対して適切な画像処理を行な
うことができるので、ある空間解像度および階調解像度
の画像要素が劣化するのを防止することが可能となる。DETAILED DESCRIPTION OF THE INVENTION
[0001]
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a personal computer for DTP.
Etc., PDL and other image data formats
Can be reproduced with high quality.
It relates to a possible image processing device.
[0002]
2. Description of the Related Art (Background) Recently, multimedia and DTP
(Desk Top Publishing) Technological advances in office
Very complex and precise
Documents are being created. And
This kind of document is faster, higher quality,
The demand for easier output has increased
In the meantime, various image processing devices have been developed.
You. Such an image processing apparatus uses a PDL (Page Description).
Language: page description language)
Event files via various standard interfaces
And interpret it, and faithfully reproduce it on the target image forming apparatus.
The processing for realizing this is performed. Image forming device and
In general, electrophotographic image forming
It has been known.
Recently, a color electrophotographic system has been developed.
PDL is remarkably popular with printers, etc.
In image processing devices that interpret document files
Some of them have been announced for color printers
I have. Their basic structure is a PDL document file.
Image expansion means for interpreting the file and performing expansion processing;
And a multi-valued full-page image memory.
A raster image is temporarily formed in the image memory,
It is a method of sending to the data.
Here, the image memory is, for example,
400 dpi (dot / inch) resolution, A3 size (420 m
Assuming one page of image data of m × 297mm),
Is 4 megabytes, and 1 pixel is multi-valued 8
In terms of bits, 32 MB capacity is each
is necessary. Further, in the case of a color image, K (black),
Y (yellow), M (magenta) and C (cyan)
Since each page of 4 colors is required, 128 MB
Such an enormous capacity is required as an image memory.
Generally, an image having a binary image memory
When developing / generating multi-valued images using a processing device
Area gradation method such as halftone dot, dither or error diffusion method
Often used. Image forming equipment that handles multi-valued images
By expressing one pixel with 8 bits, 2
Image forming apparatus having 56 gradations and handling color images
, K (black), Y (yellow), M (magenta)
) And C (cyan) are each composed of 8 bits.
Typically, it is treated as 32 bits per pixel
It is.
(Resolution) In recent years, DTP
Various inputs due to advances in hardware / software technology
Devices (scanners, video still cameras, etc.)
With the advent of a text editor, various spatial resolution
Or image elements with gradation resolution in one document
(1 page)
Messy, advanced and various spatial or tonal resolutions
Document that combines image elements with
It has come to be. Here, the image element is similar
Image blocks classified by data having
For example, character / line drawing area, graphic area, and natural image
It can be divided into an image area.
[0007] And complex, advanced, and various spaces
Documents with resolution or gradation resolution are also PDL
Can be easily expressed and generated as a simple file
It is also possible. Hey when creating a PDL file
Various different spaces contained in the document
Resolution and gradation resolution are agreed by PDL.
In a unique logical coordinate space independent of input / output devices.
Is described. On the other hand, in image processing devices, those
Interpret the PDL description and convert the image
Expansion processing with spatial resolution and gradation resolution of image memory
Perform Normally, the spatial resolution at which
Tone resolution is the intended image forming device such as a printer
Are the same as the spatial resolution and the gradation resolution.
When handling color images, etc.,
Requires a huge amount of image memory
An image processing method using a quantity compression method has been proposed.
Proposals of this type include, for example, JP-A-4-87460.
Some are listed. In the system described in this publication,
Basically, to reduce memory, DCT (Discrete
Cosine Transform)
JPEG (Joint Photographic Experts Group)
An image compression method is employed. In addition, DCT
In image compression methods such as JPEG, such as characters / line drawings,
Areas requiring high spatial resolution and natural images
Compression is effective for areas requiring high gradation resolution of halftone images.
There is also a problem that the rate and image degradation will differ
Therefore, the technology described in the above publication proposes a solution to this problem.
Is also taking place at the same time.
[0009] Japanese Patent Application Laid-Open No. 4-63064 discloses the same.
/ Line drawing area that can be binarized as a method to solve various problems
Area is treated as a binary image and encoded using MMR coding.
And natural image areas are encoded by DCT, and each area
Are expanded or stored in separate image memories.
No, merge them on output and get the desired image shape
Compression efficiency by outputting to
An image processing device capable of obtaining a good image has been proposed.
ing.
Further, a character / line image area and a natural image area
In both cases, spatial resolution and gradation resolution are basically
High resolution for character / line drawing area due to the opposite relationship
Degree binary image memory and low resolution multi-level image memory
When output, it is stored in each image memory.
Good by merging and outputting selected image data
Technology that can obtain complex images and reduction of image memory
Several methods have been proposed for
You.
(About color space)
With various color spaces due to technological advancement
Import elements into one document (one page)
More complex, advanced and different colors
A document with a space image element is created.
It has come to be. For example, in one PDL, CIE
Base color space (CIE1931 (XYZ) sky
XYZ between, CIE1976 (L*a*b*) L of space*a
*b*, RGB in calibrated RGB space, etc.)
SKYMC and other special color space image elements
Into a one-page document.
is there.
Here, different PDL files are used.
When capturing an image element with a color space
All CIE Sanashi for CIE based color base
Converted to the extreme XYZ color space,
For other color spaces
Imported into a one-page PDL file.
Normally, a one-page PDL file is
Image elements with multiple different color spaces
If there is, the conventional image processing device is aimed
The same color space as the color space of the image forming apparatus
A process for converting to a pace is performed. At this time,
For example, a general device R
The complete conversion process from GB to device KYMC is as follows:
They are expressed by the following formulas, and
Is
[0014]
(Equation 1)
In these equations, BG (k) and UCR
(K) means Sumi version synthesis function and UCR function, respectively.
These functions are provided by the target image forming apparatus.
It differs depending on the characteristics. The colors shown in these equations
Various operations in the space conversion processing and comparison processing
Row for each pixel for every image pixel that
Be done.
Further, the image data is input by different image input devices.
A document having a plurality of input image elements
Can be easily expressed using PDL,
Can be generated. When generating a PDL file
In addition, image elements input by different image input devices are:
It is determined by PDL and is independent of I / O device.
Converted and described in color space and format
You. And in the image processing apparatus, those PDLs
The description is interpreted and the image memory of the image processing device is
Expansion processing is performed at spatial resolution and gradation resolution.
You.
As described above, in the image processing apparatus, the image development processing
In processing, a device that depends on the device
Color space conversion and color matching
Get a color output image that faithfully reproduces the input screen
Various processes are performed.
As a well-known technique of such processing, for example,
For example, there is one described in JP-A-3-282965.
The technology described in this publication is based on an input device such as a scanner.
The input image element is converted to an RG depending on the input device.
B as color space image data.
Tristimulus values independent of the input / output device for the image data obtained
XYZ, then the CIE1976 L*a*b*
To gamut matching / color matching
Y required to perform image processing and perform image formation.
Ink amount for each color such as M and C, base for K (black) generation
Generate and calculate the amount of removal and the amount of inking, etc.
Image that faithfully reproduces the color of the input screen
This is to obtain an image output.
The same applies to the specific PDL described above.
The concept of color matching is performed. sand
That is, image input / output / generation / editing of host computer, etc.
PDL file for image formation in the collector
When generating an image, the host computer
Input device-dependent color space is device-dependent
Are converted to CIE-based tristimulus values
File is generated, while the image processing device side
When developing / generating, CIE-based color
Refers to the rendering dictionary and does not depend on image input / output.
Color space depends on the image input / output device.
Color space conversion process and color converted to source
A matching process is performed. This allows each image
Faithful color of input image without depending on output device
A reproduced output image can be obtained.
Recently, each DTP software maker has
Perform color matching in the same way
For the purpose, a color management system called color management system
Various switching framework software are provided
It has become.
Such a color management system
The frame software itself has a device profile
Information called the image input / output device
This information allows devices of various image input / output devices
Device-dependent color space
(Eg CIE 1976L*a*b*Or XYZ)
Convert to color space and vice versa
It has become.
Here, the color management system
Is an image input / output device based on the device profile
Image data input / output from various image input / output devices
Convert to a device-independent color space
By performing output processing, between each image input / output device
To easily perform color matching processing with
is there.
[0023]
[Problems to be Solved by the Invention]
Title) However, such a conventional image processing apparatus basically has a P
When performing expansion processing by interpreting DL,
Space inherent in the image processing device or image forming device
Expansion processing can be performed only at the resolution and the gradation resolution. That
With the unique spatial resolution and gradation resolution of the image processing device
Image data that has undergone expansion processing is all a single spatial solution
Printer and other resolutions for image resolution and gradation resolution
Supplied to the target image forming apparatus, and
Various image processing is performed or nothing is performed
Then, an image is formed.
As described above, the image constituting the document
Image elements are character / line drawing area, figure area, and natural image
Can be divided into regions and each image element
The required spatial resolution and gradation resolution are different. An example
For example, high spatial resolution is required in the text / line drawing area
But in most cases it is expressed as binary
Therefore, a low gradation resolution is sufficient. Also, in the figure area
Low in the sky due to the high probability that the same
Can be expressed in terms of the spatial resolution, and the spatial resolution is
Image formation including image processing devices or printers
Very low than the spatial resolution of the device and
Can be expressed in binary in the case
No. On the other hand, for a halftone image such as a natural image,
Resolution is required, high spatial resolution is not required, and
High resolution is oversampling and image quality
Since it deteriorates, a medium spatial resolution is sufficient.
Originally, as described above, the requirements differ from each other.
Image elements with different spatial and gradation resolutions
To form high quality images in the true sense
Is the attribute of the image element from the image processing device to the image formation stage
Is saved, and the desired image,
Data is sent to the image forming device, and
Images that depend on each image forming device
An image or image formation should be performed.
For example, in a natural image read by a scanner,
Small characters of 7pt (point) or less and other line drawings
In cases where it is included, conventional image processing
In the text area image and the natural image area image
Image forming devices such as printers that store attributes
Can not tell. For this reason, an image forming apparatus is an example.
For example, 200/400 line drawing of two types of line screen
Even if the printer has functions,
Image formation with a single 200/400 line
In the case of 200 lines fixed, the outline of the character is sharp.
Or halftone characters are a little blurred
In the case of 400 lines fixed,
Means that the natural image area is oversampled
And the reproducibility of halftone generally deteriorates
Problem.
In recent copiers / printers, etc.,
Specify an area in a document and
How to switch or perform various different image processing
There are some thoughts. However, these
As described above, the character area and the natural image area overlap.
If there are any physical restrictions (such as
Amount of memory for specifying
Cannot be specified.
(Problem Concerning Color Space)
In conventional image processing devices, PDL is basically interpreted and expanded
When performing processing, all image data must be processed.
It has an image processing device or image forming device
Must be converted to a specific color space,
The color space conversion process at this time took a very long time
Problem. Here's an example of this problem
I will explain it.
Color of various graphic elements described in PDL
And color space in most cases,
In the PGB color space, using a color palette, etc.
The color is specified, and for one image element,
The color hardly changes. Thus, for example, 1
Percentage of each image element in the page document
If is small, color space conversion processing and expansion
You don't spend much time on the process.
However, almost one-page document
The nature of a raster whose entire surface is read and input by a scanner, etc.
In the case of an image, when the image is developed, almost one page
Perform color space conversion processing for all pixels
One page document to have to do
It takes an enormous amount of time to develop the image
The performance of the device is reduced.
For example, if the resolution is 400 dpi,
Image memory required for one page of A3 size is two
The value is as large as 4 megabytes, but one pixel is multi-valued 8bi
t requires 32 Mbytes each. Further
In the case of a color image, four of K, Y, M, and C
128 megabytes in total to require color pages
Enormous image memory is required. In this case
And the document to be processed is
The color space conversion process described above.
Need to perform 128 million (mega) operations
There is.
In addition, the conventional image processing apparatus described above
Basically, when interpreting PDL and performing expansion processing,
Color matching for fixed image input / output devices
Only processing can be performed. Because of this, one throb
Input by a different image input device into the
And image data depending on the image input device is included.
In some cases, for a given image input / output device
Color matching is performed for each image element
Cannot perform different color matching processing
It is.
Further, the processing corresponding to the above-mentioned specific PDL is performed.
In a physical device, different
Includes multiple image elements input from image input device
Even if the color rendering term for the image input device
By attaching the letter, the color matching process
It is not possible to do it differently for each image element
is there. However, these color matching processes
-Only polynomial operation methods are provided as matching operations
Not perform high-precision color matching
I can't. For high accuracy, all color
It is necessary to have a pace conversion table, this
Increases the file size and waste increases.
And all processing is performed by software.
Immense time for the color matching process
You need.
On the other hand, a color management system is called
Color Matching Framework Software
But only simple color matching calculation processing is provided.
There is no need to perform high-precision color matching processing
Can not. For this reason, the processing device corresponding to the specific PDL is used.
As with placement, all color spaces are required for high accuracy.
Needs to have a translation table for
This leads to an increase in file size and waste increases.
All the processing is done by software,
Therefore, the color matching process takes an enormous amount of time.
Would.
The present invention has been made in view of the above circumstances.
The goal is to produce higher quality images.
To provide an image processing apparatus capable of performing image formation.
And there.
[0036]
Means for Solving the Problems The above-mentioned problems are solved.
For this reason, the present invention provides a file described in a predetermined format.
Files with different spatial resolutions and floors
Input method for inputting a file having image elements of tonal resolution
Interprets and expands the file, and
Expansion means for generating plural types of attribute information for classifying elements
And the file expanded by the expansion means
Images corresponding to the spatial resolution and gradation resolution required by the element
Image data conversion means for converting the image data into data;
Image data storage means for storing the attribute information;
Attribute information stored in the same coordinate space as the image data
Storage means and the attribute stored by the attribute information storage means
Information and images stored by the image data storage means.
Image data that is read and output in accordance with the coordinate space
Data output means, and data output by the data output means.
The image data is output by the data output means.
Image processing device that performs image processing according to the attribute information
And a step.
[0037]
According to the present invention, the input means allows the predetermined
A file written in a different format
Has several spatial and gradation resolution image elements
File is input, and then this file is extracted
Interpretation / decompression and classification of image elements
Are generated. Further expanded
The image file is converted by the image data conversion
Image data corresponding to the spatial resolution and gradation resolution required by
Is converted to data. The image data and the attribute information
Stored in image data storage means and attribute information storage means respectively
On the other hand, the data output means
Read and output. Then, the image processing means
Image processing according to the attribute information at the time of
Perform for
[0038]
BRIEF DESCRIPTION OF THE DRAWINGS FIG.
Will be explained.
(First Embodiment) An image processing apparatus according to the first embodiment
Image data processing device 1 and image forming processing device 3
It is. Therefore, first, the image data processing apparatus 1 will be described.
I will tell.
(Configuration of Image Data Processing Apparatus) FIG.
A block diagram showing the configuration of the image data processing apparatus 1 according to one embodiment.
It is a lock figure. In this figure, reference numeral 12 indicates a data communication.
Shinbe, a document written in a specific PDL
File (hereinafter simply referred to as "PDL file")
input. This PDL file is stored in the host computer
11. Symbol 13 is image development
Part, performs image expansion processing and solves the PDL file.
To create an object list for each image element.
It should be noted that the image developing unit 13 performs
Refers to the data stored in the font memory 14
Perform font expansion processing.
Here, the object list is
Which position in the image coordinate space of the image data processing device 1
Whether each object (image element) exists in
In addition, what kind of composition of the image element and what kind of
Whether the image element has attributes and what color
Is a structure that indicates whether the object has
I have. The position in the image coordinate space is, for example, (x min, y mi
n), expressed as diagonal coordinates like (x min, y max)
It can be composed of characters, rectangular shapes,
It can be represented as a circle, line, or other image element,
For attributes, characters, line drawings, nature drawings, graphic elements, etc.
The color can be represented by the image developing unit 1
Instruct the color palette that 3 has internally
These expressions are possible.
Next, reference numeral 15 denotes an image data conversion unit.
The object is listed on the object list by the image developing unit 13.
Processing to expand or convert image data into various data
Do. Reference numeral 16 denotes a control circuit for controlling each unit.
Detailed operations will be described later. Reference numeral 17 denotes an image storage unit.
Yes, image memories 18a-18d, tag bit memo
It is roughly divided into ri19.
The image data in this embodiment is
Is 8 bits, the resolution is 400 dpi, and the size is A
Three sizes (4 megapixels) are assumed. others
Therefore, each of the image memories 18a to 18d
Stores image data corresponding to color K, Y, M and C
However, the sum of these capacities is 128 megabytes. one
On the other hand, the tag bit memory 19 has the image memories 18a to 18a.
8d has the same image coordinate space (4 megapixels)
Tag bits corresponding to each coordinate in the memory
Is stored in the memory. Here, in the present embodiment,
A bit is a two-bit image element, as shown in FIG.
And classified into the following four types. That is, the tag
Bits are natural image area (3), graphic area (2), character
/ Line drawing area (1) and other area (0)
And categorize. Here, the numbers in parentheses are expressed in 2-bit notation.
It is shown in decimal. Reference numeral 20 denotes an image interface.
The image data is exchanged with the image forming processing apparatus 3.
Send and receive.
(Classification of image data in this embodiment)
Here, with reference to FIG.
An example of classification will be described. Original image 3 shown in this figure
00 is a character / line drawing image 301, a graphic image 302, and
And natural image 303. Each image is
Image of character / line drawing area, figure area, and natural image area
Can be classified into elements.
(Configuration of Image Forming Processing Apparatus)
An image forming apparatus 3 according to one embodiment will be described.
FIG. 3 is a block diagram illustrating a configuration of the image forming processing device 3.
is there. In this figure, reference numeral 31 denotes an image interface
And the data with the image data processing device 1 shown in FIG.
And interpreted tag bits
Select data.
Gamma correction unit 32, color space conversion unit 3
3, filter 34, UCR / black generator 35, gradation generator
36, and each image processing unit of the screen processing unit 37,
Depending on the instruction of each tag bit, different images
Performs image processing functions for performing image processing and processes for that purpose.
LUT (Look Up Table)
You. Reference numeral 38 indicates that an image is formed according to data.
Laser driving circuit. Note that the image in this embodiment is
In image formation, electrophotography, ink jet, heat transfer
It may be a copying method or other methods. In this case,
The symbol 38 is changed as appropriate.
Reference numeral 39 denotes a control unit.
Synchronous control, system control, UI in the forming processing apparatus 3
Control, image processing control, communication control, etc.
What kind of image and what tag bit
Instructions such as whether to perform processing are started by software
Instruct before.
Note that the image forming processing apparatus 3
It may be of a copier type having a force device 40.
In this case, the original is R (registered) by the CCDs 41a to 41c.
), G (green), B (blue)
Rarely, these read signals are output from the A / D converters 42a to 42a.
c to a digital signal.
Correction of sensitivity variation for each pixel and illumination
The unevenness is corrected, and finally the output signal line 44a
~ 44c, with R, G, B color space
The data is supplied to the image interface 31 as data.
In this case, the image interface 31 outputs the image data.
Instead of the image data from the data processing device 1, the image input device
The image forming process is performed by selecting data from the device 40.
It is.
Next, the operation of the first embodiment will be described with reference to FIG.
This will be described with reference to FIG. FIG. 5 illustrates the operation of this embodiment.
It is a flowchart for clarifying. First, the image data
The operation of the processing device 1 will be described.
(Operation of Image Data Processing Apparatus)
In step Sa1, the host computer 11 creates
The generated PDL file is received by the data communication unit 12.
And interpreted by the image developing unit 13. Next step
In step Sa2, the object is interpreted by the image
A project list is generated. This generation is based on image coordinates
From the smallest (x = 0, y = 0) position between
The main scanning is performed by moving forward by one line in the (+) direction, and then x
A backward scan is performed in the y direction while moving in the backward direction, and (x = 0, y
= 1), move one line forward in the x (+) direction
After the main scan, the same scan is repeated for the object.
It is done by being returned. Thus, 1
An object is created for each line on the page.
Next, the image data in the object list
The data is passed to the image data conversion unit 15, and
3 is virtually rasterized (developed) and
In step Sa4, all scan lines on one page
On the other hand, rasterized for each color of K, Y, M, and C
Is converted into a byte map, and the next step Sa5
K, Y, M and C image memories 18a to 18
d is temporarily stored.
On the other hand, the image data
In step Sa7, the data converter 15
Generate tags. As described above, the image data conversion unit
15 according to the object list passed to
Locations of objects with different attributes, the objects
Can be clearly determined. Based on this information
In addition, the image data conversion unit 15
On the other hand, a dug bit generation process is performed. Tag bit
When generating the image data, the image data conversion unit 15
Data development / conversion processing, and
Know the characteristics of the element and the position where the image element exists
Thus, according to the tag bit function table shown in FIG.
As shown in FIG.
The write bit is written (step Sa8). In addition,
When image elements with different attributes overlap at the same time
In some cases, the attributes of the top-level image element
Responded.
As described above, the image data conversion unit 15
Image data expansion processing to image memories 18a to 18d,
And the process of generating the tag bits in the tag bit memory 19
When completed, the image interface 20
Communication with the image forming processing apparatus
A synchronization signal is supplied via the communication / synchronization signal line 23.
Then, the image interface 20 determines in step Sa6
In the image stored in the image memories 18a to 18d.
Read the image data and perform raster decoding
At the same time, the image interface 20
It instructs the road 16 to output image data. This
In step Sa9, the image memories 18a-1
8d and the image data in the tag bit memory 19
The tag bit is used for the image
Output to the formation processing device. At that time, the image data
And the tag bit are respectively assigned to the image interface 2
0 indicates that the image data output signal lines 21a to 21d and
Image formation processing of communication partner via gbit output line 22
It is transmitted to the device 3.
At this time, the image data and the tag bit are
The smallest image coordinate space of the image memories 18a to 18d
From the position (x = 0, y = 0) in the x direction for each line
The next scan is performed. Here, the image memories 18a to 18d are
The bit memory 19 has the same image coordinates as one another.
Since the size of the surface is the same, the image data and
And tag bits are completely synchronized for the same coordinate data.
Output to the image forming processing apparatus. In addition, image data
These processes in the data processor are controlled by the control circuit 16.
And are synchronized and instructed.
(Operation of Image Forming Processing Apparatus)
The operation of the processing device 3 will be described. Image input device 4
Image data interface when not using data by 0
31 selects image data from the image data processing device 1
And each subsequent image with tag bits supplied at the same time
It is supplied to the processing unit, and in step Sa10, the tag
Image processing for each image element based on the Tag bit
As shown in FIG. 2, the natural image area (3) and the graphic area
Area (2), character / line art area (1), and other areas
(0)
Which image element the image data is
It can be determined by the tag bit to be executed.
As a result, the screen processing section 37
The image element corresponding to the image data is the tag supplied at the same time.
When classified into character / line drawing area (1) by bit
Is output at 400 lines and is classified into other areas
In some cases, processing is performed so as to output to 200 lines.
Similarly, the γ correction unit 32
Switching of gamma correction coefficient according to bit, color
The space conversion unit 33 controls the color space according to the tag bit.
LUT switching during source conversion processing, filter processing unit 3
4 is a filter section at the time of filtering according to the tag bit.
The UCR / black generator 35 switches the number of tags
Switching of UCR / coefficient at black generation, gradation control unit
Reference numeral 36 denotes a gradation control LU at the time of gradation control according to the tag bit.
Switching of T is performed. That is, each image processing unit 3
In steps 2 to 37, the tag image is added to the supplied image data.
The optimal processing is performed on the image element indicated by the
These processing results are sent to the laser drive circuit 208,
In step Sa11, image formation is performed.
It has become.
According to the first embodiment, one page
Image elements with different characteristics in different documents
On the other hand, image formation is performed while maintaining the attribute.
Therefore, it is possible to form an image with high image quality.
(Modification of First Embodiment) Next, the first
Various modifications of the embodiment will be described.
(Modification) FIG. 6 shows a modification of the first embodiment.
Shows a function table of tag bits according to an example
FIG. This modification has a configuration similar to that of the first embodiment.
However, the tag bit is used to convert image elements into three
It is classified into the following eight types according to the data. Sand
The tag bit is, as shown in FIG.
(Natural image) area (7), monochrome gradation (natural image) area
(6), background color area (5), fore
Ground color area (4), halftone character area
(3), color character area (2), black character area (1),
And image elements of other areas (0). But
Therefore, the tag bit memory 19 in this modification is
3 bits x 4 megapixels (12 megabits)
. In this variant
Between the image data processing apparatus 1 and the image forming processing apparatus 3
The operation is the same as in the first embodiment, and the corresponding image element
1 shows image processing apparatuses having different classifications.
(Modification) FIG. 7 shows a modification of the first embodiment.
FIG. 2 is a block diagram illustrating a configuration of an image data processing device according to an example.
The same elements as those in the first embodiment have the same functions.
The reference number is attached. This modification is similar to the first embodiment.
Output a monochrome multi-valued image
Screen data processing having an image memory 18e corresponding to the force
1 shows a processing device. In this variant, the monoc
B) One pixel corresponds to the image data output of the multi-valued image.
8 bit, 400 dpi resolution, A3 size image
32 megabytes of image memory 18e
The function corresponding to monochrome multi-valued image output is
This shows an image data processing device having the same as the embodiment.
is there. In this modification, the image interface
The image data from 20 is monochrome, not color
Since the value is multi-valued, the image data output line
This is one of the force signal lines 21e.
(Modification) FIG. 8 shows a modification of the first embodiment.
FIG. 2 is a block diagram illustrating a configuration of an image data processing device according to an example.
The same elements as those in the first embodiment have the same functions.
The reference number is attached. This modification is similar to the first embodiment.
In a system having the same configuration as
Memos for multi-valued image output in multiple color spaces
The image processing device having the ridges 18f to 18h is shown.
That is, this modification is based on the R, B, G color space.
Corresponding to the output of the image data having
Bit, resolution 400 dpi, size A3 image
96 megabytes of image memory 18f, 18
g, 18h, corresponding to R, G, B multi-valued image output
Data processing device having the same functions as in the first embodiment.
It shows the location.
(Second Embodiment) FIG. 9 shows a second embodiment.
FIG. 2 is a block diagram illustrating a configuration of the image data processing device.
Elements having the same functions as in the first embodiment have the same reference numerals.
Is attached. Image data processing in the second embodiment
The device 2 is required in the one-page image memory 18i.
Not have a large continuous image memory space.
And have a smaller amount of virtual memory space
When developing an image, the text / line drawing area and figure area
Area and natural image area
It performs an encoding conversion process.
(Image Data Conversion Unit of Second Embodiment)
The image data conversion unit 15b according to the second embodiment
Classify image elements into their attributes according to the list
The point is the same as that of the first embodiment.
Software that performs optimal coding and conversion processing for each image element
Or by hardware, and
Along with the image data in the intermediate format
Function data required for decoding
The first point is that the image is stored in the image memory 18i of the storage unit 17.
This is different from the embodiment. Here, the optimal encoding conversion processing and
Is, for example, a binary coding method for a character / line drawing area.
Expression for run-length encoding
Coding method, and JPEG method for natural image areas.
Say each.
FIG. 10 shows a memory map of the image memory 18i.
Shows the relationship between the format and the image data in the intermediate format.
It is a schematic diagram. As shown in this figure, the image memory 18
i represents, for example, image data indicated by the memory map 400.
Data is stored. Character / line drawing data 401 is a binary code
Binary Bitmap Data Format 405 of Encoding Method
And the color data 402 is binarized.
Coding and run-length encoding coding
(Foreground) color data as color data
/ BG (background) 8-bit color page
Data format 406, and
Data 403 is a data format of the JPEG encoding system.
And stored as function data
404 is function data and run-length data
And stored as a data format 408 comprising
You. Here, the function data is 4 bits,
Data is a total of 16 bits of 12-bit data
Stored in the memory 408.
(Image Interface of Second Embodiment)
The image interface 20b in the second embodiment of
The intermediate format image stored in the image memory 18i.
Read image data according to function data
And decodes (decompresses) it and supplies it to the image forming processor.
is there. Then, next, the configuration of the image interface 20b
Will be described. FIG. 11 shows the image interface 2
0b is a block diagram showing the configuration of FIG.
In this figure, reference numeral 201 denotes a read / write
Controller, which is stored in the image memory 18i.
Character / line drawing data, color data, natural image data,
And function data to AR202-205
Read at the address referred to. Here, AR2
02 to AR205 are character / line drawing data, respectively.
Pointer register, color data pointer register
Data pointer, natural image data pointer register, and funk
Data pointer register, which
In step 400 (see FIG. 10), irregular
The stored image data of each intermediate format and its
And the correspondence between the
Image data of each intermediate format of the first page exists
Has been set.
Reference numeral 206 denotes a multiplexer.
Under the control via the flash / light controller 201.
The intermediate format image supplied from the image memory 18i.
Distribute image data. Each of reference numerals 207 to 210 is FI
FO (First-In First-Out) memory.
Memory 207 stores function data in FIFO memory
208 is character / line drawing data, and FIFO memory 209 is
Color data is stored in the FIFO memory 210.
Data is stored.
Reference numeral 214 denotes a communication controller,
The communication with the image forming processing apparatus which is the hand is performed. Sign 2
Reference numeral 15 denotes a function controller, which is a FIFO memory.
Read function data from memory 207 and decorate
Then what data is needed and what files
Function and determine whether the image data is expanded.
Output.
(Function Controller) Next,
Diagram showing the detailed configuration of the function controller 215
This will be described with reference to FIG. In this figure, the binary data
The register 215a stores the sentence expanded by the expander 211.
This register temporarily stores character / line image data.
Similarly, the color data register 215b is
12 is transferred to the natural image data
The register 215c is a natural image expanded by the expander 213.
These registers temporarily hold data.
Reference numeral 215d denotes a function decode code.
Controller, and funk from FIFO memory 207.
Read and decode application data, and
Control. In addition, the function decode
The controller 215d is a function execution pixel.
Built-in counter that counts
Same as indicated in the run length field of the
Count the number of execution pixels of the function. Sign
215e and 215f are multiplexers, respectively.
Function decode command via controller 215g
Controller 215d to select and output one input.
Power. Where the function decode controller
Diagram of contents of decoding performed in 215d
13 will be described.
In this figure, use of character data (0)
Indicates a data area of a character / line drawing area,
Especially when this bit is “0”, character data is
To expand the character / line drawing data into image data.
Output. The number of output pixels at this time depends on the function
Data in the run length field
It is pixel equivalent.
Next, the color data inversion (1) is usually
When referring to the color data of FG color data,
Is referenced as the foreground color of a character or shape
BG color data is
This bit, while referred to as the
When it is “1”, FG color data and BG color data
The data is the background color and the foreground, respectively.
-It is necessary to refer to the inverted color
Show.
The graphic / natural image (2) is a graphic data
Data area or natural image data area,
In the case of a graphic data area (when this bit is "0")
), Run-length decode and output image data
On the other hand, in the case of natural image data (when this bit is "1"
In some cases), expand the natural image data and
Output. Here, run length for run length decoding
Of the image data output by expanding the natural image data
The number of pixels in the function data
Only the pixels shown in the run length field
Is forced.
By the way, use of character data (0) and graphic
/ Instructions for natural image (2) indicate that both character data
If indicated, output using character / line drawing data.
Force, foreground color and background color
Color can be selected from FG color and natural image data.
Is done. At the same time, color data inversion (1) is specified.
Output of FG color and natural image data
You.
The white output (3) is a white output.
Indicates that data is to be output.
Used when outputting the margin or margin. Output at this time
The number of pixels of the image data
Pixels in the run-length field
Output.
(Operation of Second Embodiment) Same as in the first embodiment.
The host computer received via the data communication unit 12
The PDL file from the computer 11 is controlled by the control circuit 16.
Under the control, the image developing unit 13 performs image developing processing. this
At this time, in the image developing unit 13, the
An object list is created, and the image data conversion unit 15
b interprets this object list,
It is classified into each attribute. In the second embodiment,
Image elements include a character / line drawing area, as in the first embodiment.
It is classified into a graphic area and a natural image area. Classified images
The image elements are converted to each image element by the image data conversion unit 15b.
The optimal encoding conversion process is performed on the
The image data in the intermediate format is stored in the image memory 18.
i. The image data conversion unit 15 performs this processing.
At the same time as these intermediate format image data
To generate a raster image by combining
Function data for the image memory 1
8i.
One or more pages are stored in the image memory 18i.
The storage of the image data in the intermediate format of the page is completed.
Then, as in the first embodiment, the image interface
Communication / synchronization signal with the image forming processing device by the stage 20b
Communication is performed via the line 23, and the image output synchronization signal is
Is output. Image interface means 2
0b indicates an instruction to output image data to the control circuit 16.
You. Thereby, the image data in the image memory 18i is stored.
Is an image forming process via the image interface 20b.
Output to the device.
(Operation of Image Interface)
The operation of the image interface 20b will be described. System
The control circuit 16 outputs image data to the image processing / forming apparatus.
When the instruction is given, in FIG.
Image data is supplied to this image interface 20b
Is done. Then, first, the FIFO memories 207 to 210
Until each data is in FULL state
Stored. That is, the function data is FI
Character / line drawing data is stored in the FIFO
In the memory 208, the color data is stored in the FIFO memory 209,
The natural image data is stored in the FIFO memory 210, respectively.
Is done.
In the FULL state, the synchronization signal is
An image is transmitted from the controller 214 via the communication / synchronization signal line 23.
The data is output to the image forming processing device and data output is instructed.
You. On the other hand, upon receiving this, the image forming processing apparatus sends the image
Communication / synchronization with the communication controller of interface 20b
Synchronization signal for instructing image data output via signal line 13
Is output. Then, the communication controller receiving the synchronization signal
LA 214 is to the function controller 215
Then, an instruction to read data from the FIFO is issued. This
Function controller 2 that has received an instruction to read
15 is a function data stored in the FIFO memory 207.
Data to determine what data is needed next,
Function is determined. And
The function controller 215 has a function
The image data is output according to the instruction.
Here, data is read into the FIFO memory.
Only the FIFOs that are no longer in FULL state
Until the image output of one page is completed.
During this time, it is controlled to keep the FULL state.
These processes are basically performed line by line.
One page by repeatedly outputting all line data
Is completed.
(Operation of Function Controller) Next
The function controller 215 in FIG.
The operation of will be described. Function decode control
The controller 215d outputs the data from the FIFO memory 207.
The temporary storage of the function data
Function table shown in Fig. 3
The binary data register 215a,
-Data register 215b, natural image data register 21
5c and the controller 215g.
This will execute the decoded function
You. At this time, the data required to execute the function
Is the binary data register 215a and the color data register
Data 215b or the natural image data register 215c.
It is read from the difference.
For example, a funk for outputting color data
Function decode controller 2
15d gives an instruction to the color data register 215b.
And multiples via the controller 215g.
215e and 215f are the color data registers 215.
Command to select the output of b. This allows
Data is read from the color data register 215b.
And sequentially through the multiplexers 215e and 215f.
It is output and the function is executed.
Then, the function decode control
The execution picture given by the counter in the
Execution of the same function is counted by the number of cells
And the execution of that function ends, and a new
As the function data is read, the next fan
The data required to execute the action is stored in the binary data register.
215a, color data register 215b or natural
Is read into any of the image data registers 215c,
The next function is performed in a similar manner. Needless to say
No, the data required for execution corresponds to the load destination
From any of the FIFOs 208 to 210, the decompressor 21
1, 213 or the corresponding register via the delay unit 212.
Is read by the star.
Output of character / line image data, natural image data
Output or a combination of these functions
The same processing is applied to the
It is possible to obtain a raster image of the image data.
You.
The controller 215g executes the file to be executed.
Data, color data, and natural image data
Of which data is output,
Generate raster images of image data
The tag corresponding to the function as shown in FIG.
Bit and generate the tag bit in synchronization with the image data.
Power.
Note that the reference numerals used in the second embodiment
In the method, M is used for character / line drawing and graphic areas.
Using MR coding method and natural image area
May use a DCT coding method or the like.
According to the present embodiment, when forming an image,
Image elements without relying on the inherent color space of
Can perform appropriate image processing on
In addition, such conversion processing can be performed by hardware.
The conversion process takes time.
Can be avoided.
(Modification of Second Embodiment) Next, the second embodiment will be described.
A modification of the embodiment will be described.
In this modified example, as shown in FIG.
High space above the area of the halftone image element like
When there are image elements such as characters that require resolution
In addition, image data processing
Image screen with no image degradation on the device side
(For example, area gradation method such as halftone dot and error diffusion method)
Performing On the other hand, this modified example
No processing is performed on the image forming
Only the image elements such as
Perform the process of generating a scene. This will cut the screen
Image degradation that occurs on alternate borders can be prevented.
You.
Further, the configuration is the same as that of the second embodiment.
Does not cause image degradation in the host computer 11
Low noise screens and different image screen angles
Generate an image screen, etc., and generate the image screen
Is read via the data communication unit 12, and for each image element
A function to specify a different image screen may be provided.
(Third Embodiment) Next, a third embodiment according to the present invention will be described.
An example will be described. In the third embodiment, a plurality of
Image elements with different color spaces
And its attributes can be saved.
FIG. 15 shows an image data according to the third embodiment.
FIG. 2 is a block diagram showing a configuration of a data processing device 1C,
It has the same function as the image data processing device 1 in the embodiment.
The same reference numerals are given to the same elements. The picture in this figure
The image development unit 13C is a PDL file described in a specific PDL.
This performs the image development processing of the file.
Interprets the file and creates an object list for each image element.
This is similar to the first embodiment except that the object
There is a slight difference for Trist.
That is, the object in this embodiment is
The list is an image included in the image data processing device 1C.
Where in the coordinate space the image element is located,
What color does the image element have, such as
Object and what kind of
Structure indicating whether the image element has the attribute of color space
It differs from the first embodiment in that it has a body configuration.
You. Here, regarding the attributes of the color space, CIE
Base tristimulus values XYZ, device KYMC, device
Can be expressed by RGB, etc.
For convenience of explanation, in the third embodiment, the device KYMC
It will be described as.
Further, the image developing section 13C outputs the target image.
Color space of image forming processing device 3C (described later)
When developing raster image elements other than
The color space of the raster image element and its image
Recognize the position of the image element from the object list and
Color space converted image required to indicate the presence of these image elements
A prime list is created and passed to the control circuit 15C. Control circuit 1
5C controls each part and this color space
The converted image element list is held until image data is output.
Here, the color space conversion image element list
Will be described. This color space converted image element
The list is an image memory 18a in which image data is stored.
18d have the same image coordinate space as the
Lists the color space bits corresponding to each coordinate
It is.
The color space bits in this embodiment are
Is a color space conversion fan as shown in FIG.
Actions are defined in the following four types with 2 bits.
You. That is, the color space bit is the device KY
MC → Device KYMC (through) conversion (0), CIE
XYZ → device KYMC conversion (1), device YM
C → device KYMC conversion (2) and device RG
B → Device KYMC conversion (3)
Exchange.
(Image Forming Processing Apparatus Applied to Third Embodiment)
Next, image formation applied to the third embodiment will be described.
The processing device 3C will be described. FIG. 17 shows an image forming process.
It is a block diagram showing the composition of 3C. In this figure
The image forming processing apparatus 3C includes a gamma correction unit in FIG.
The other parts are the same.
Since there is, description is omitted.
(Operation of Third Embodiment) Next, the third embodiment
The operation of the example will be described. First, the host computer
The PDL file created by 11 is transmitted to the communication unit 12
Received by the control circuit 16C,
The image is expanded and interpreted by the opening unit 13C. Next
In the image developing unit 13C, each image element
Object list is created in the same manner as in the first embodiment.
Is done.
Next, the image data in the object list
The data is virtually rasterized by the image developing unit 13C.
Rasterized based on the object list.
Expansion / conversion processing is performed as a
It is. At this time, the smallest (x = 0,
(y = 0) from the position in the x direction every scan line.
The existence of the object is checked and if the object exists
Is confirmed, the expansion process is performed on the object.
Required for one scan line in the x direction.
The data is calculated to obtain the required data.
A similar process exists for one scan line.
By performing for all objects,
The scan line bytemap is obtained and its one scan
Byte map is written to the image memories 18a to 18d.
And then the next scanline is expanded.
Be done. Similarly, all the scanners on one page
Of the image memory 18a.
-18d rasterized image data is written
You.
Here, image development is performed during the development / conversion processing.
The unit 13C is a unit provided in the target image forming processing apparatus.
Raster other than space (here, device KYMC)
-When developing image elements, that is,
If the raster image element has
Color space and its image element locations
And recognize the presence of these image elements
Control circuit by creating color space conversion image element list
16C. In response to this,
The path 16C displays the color space conversion image element list.
Holds until image data is output.
The image developing section 13C has a color space.
Image elements listed in the source image element list
To the color space of this image data processing device
Sent as a PDL file without conversion
Perform expansion processing in color space. At this time,
For image elements that have the color space of the
Is stored in the image memories 18b to 18d for YMC.
Each expansion process is performed. (For example, device RGB
Or in the case of CIE XYZ, the image of each YMC
Expansion processing is performed on the memory 16 for use. )
As described above, the image data conversion unit 15C
Image data expansion processing to the image memories 18a to 18d
Is completed, the image interface 20C displays
Communication with the intended image forming processing apparatus 3C
The image output synchronization signal is transmitted via the communication / synchronization signal line 23.
Supplied. When this is received, the image interface 2
0C instructs the control circuit 16 to output image data.
Accordingly, the images stored in the image memories 18a to 18d are
Data is image-formed through the image interface 20
Output to the processing device. At that time, the control circuit 16C
Outputs image elements that require color space conversion processing.
The color spectrum created by the image
The color space is referenced by referring to the color conversion image element list.
To generate a color space bit that indicates
An instruction is given to the image interface 20C. Received this
The image interface 20C simultaneously outputs image data.
To generate and output a color space bit.
Image data and color output here
The space bits are output signal lines 21a to 21a, respectively.
sent to the image forming processing device 3C via
You. At this time, the image data and the color space bits are
The smallest image coordinate space of the image memories 18a to 18d
From the position (x = 0, y = 0) in the x direction
The image data is scanned and sent sequentially for each input.
Memories 18a to 18d for storing image data and a control circuit
Color space conversion image element list held by 16C
Image coordinate space has the same image coordinates and
Since the size is the same, image data and color
-Space bits are completely synchronized for the same coordinate data
Output to the image forming apparatus. In addition, these images
Processing in the image data processing device is performed by the control circuit 16C.
And are indicated in a synchronized manner.
Next, the operation of the image forming processing apparatus 3C will be described.
Will be explained. In the image interface 31, image input
With or without data from device 40
The input image data can be switched
You. In the latter case, the image interface 31
The image data from the data processing device 1C,
Subsequent processing with supplied color space bits
Supply to the conversion unit. At this time, the image interface 31
Also interprets the color space bits,
The result is supplied to the control unit 39. Color space converter 3
3 is the table shown in FIG.
Color space conversion functions classified by
To the image data supplied at that time.
Execute.
Each control of the image forming processing apparatus 3C is performed.
For example, synchronous control, system control, UI control,
Image processing control, communication control, and the like are performed by the control unit 39.
The color space conversion process to be performed
Before the operation is started by software by the control unit 39.
Is instructed.
(Specific processing in the third embodiment)
The document shown in FIG. 18 corresponds to the third embodiment.
How it is processed will be described. In this figure
The original image 500
Having a plurality of image elements, ie, device RGB data
Image element 501, device YMC data image element 50
2, each of the CIE XYZ data image elements 503
When outputting each image,
A color space conversion process is performed on the element.
In the third embodiment, the device RG
When outputting the B data image element 501, the device RGB
→ Color space bit of device KYMC conversion (3)
Is generated and RGB → device KYMC conversion processing is performed.
While device YMC data image element 502 output
Sometimes device YMC → device KYMC conversion (2)
Is generated and the device YMC →
Device KYMC conversion processing is performed.
When the XYZ data image element 503 is output, CIE X
YZ → device KYMC conversion processing is performed.
Change device KYMC to device KYMC for area
A color space bit of exchange (0) is generated and the device
KYMC → device KYMC conversion (through) processing is performed
Will be done.
According to the third embodiment, one page
Have image elements in different color spaces in
The image data processing device
Do not perform color space conversion processing like software
Hardware-based pipeline processing during image formation
To perform the color space conversion process
It is shorter than before, and the image development and shape
And output.
(Modification of Third Embodiment) Next, the third embodiment
A modification of the embodiment will be described. FIG. 19 shows this
Block showing a configuration of an image data processing device according to a modification
FIG. This figure is similar to the third embodiment shown in FIG.
The same reference numerals are given to the configurations.
This modification is substantially the same as the third embodiment.
Although the configuration is such that the color matching circuit 50
Difference in that it is provided on the output side of the interface 20C
I do. The color matching circuit 50 includes a device KY
Color space conversion LUT corresponding to each MC
Color space is changed by the instruction of the switching signal.
Cuts the color space conversion LUT referenced in the
Color space conversion and color matching
Perform processing. Such a color matching circuit 50 is
DLUT (Direct Look Up Table)
Configuration) using color matching LSI etc.
It is possible.
FIG. 20 shows color space bits and colors.
Table showing correspondence with matching function
It is. In this modification, in the image data processing device
Color space conversion and color matching processing
Is carried out, so that the
When the error bit is specified, the image forming
Is not subjected to color space conversion processing,
Image processing such as gradation correction is performed.
In this modification, similar to the third embodiment, the image
Colors normally performed while retaining the attributes of image elements
Space conversion and color matching.
Instead, an image expansion process is performed. After that, the third implementation
As in the example, the image data and color space bits
Is output from the image interface 20C, and the color
In the matching circuit 50, the former is used as an image input signal,
Provide the color space conversion LUT switching signal.
Paid.
The color space bits correspond to the same coordinates
Is supplied in synchronization with the image data
Color space referred to in color space conversion of
The image conversion LUT is switched in real time, and each image
Color space conversion processing and color mapping
A ching process is performed.
Next, the processing according to this modification is shown in FIG.
The following is an example using the document shown.
You. The document 600 shown in FIG.
Input by three different image input devices A, B, C
Image elements that are
Elements 601, 602, and 603 are image input devices, respectively.
A, B, and C.
In this modification, color matching
When the image element 601 is output by the circuit 50,
Is the color space change from the image input device A to the image output device.
Conversion processing is performed and the image element 602 is output.
Is the color space change from the image input device B to the image output device.
Conversion processing is performed, and when the image element 603 is output,
The color space of the image input device C → the image output device
Data conversion process, while in other cases the
A default color matching process is performed.
According to this modification, a different image input device
The image element input by is included in one document
Image attributes while maintaining the attributes of each image element.
Opening / generating processing is performed, and a different color is
-Higher quality input due to matching process
An image output that faithfully reproduces the colors of the image can be obtained.
It works.
[0118]
According to the invention described above, the image forming method
Depends on the spatial resolution and gradation resolution specific to the device.
Performs appropriate image processing on image elements without performing
A certain spatial resolution and gradation resolution
Can be prevented from deteriorating.
【図面の簡単な説明】
【図1】 この発明の第1実施例における画像データ処
理装置の構成を示すブロック図である。
【図2】 同実施例におけるタグビットファンクション
テーブルを示す図である。
【図3】 同実施例に適用される画像形成装置の構成を
示すブロック図である。
【図4】 同実施例における画像要素の分類を説明する
ための図である。
【図5】 同実施例の動作を説明するための図である。
【図6】 同実施例の変形例におけるタグビットファ
ンクションテーブルを示す図である。
【図7】 同実施例の変形例における画像データ処理
装置の構成を示すブロック図である。
【図8】 同実施例の変形例における画像データ処理
装置の構成を示すブロック図である。
【図9】 この発明の第2実施例における画像データ処
理装置の構成を示すブロック図である。
【図10】 同実施例における画像用メモリのメモリマ
ップと、中間フォーマットの画像データとの関係を示す
概略図である。
【図11】 同実施例における画像インターフェイスの
構成を示すブロック図である。
【図12】 同実施例の画像インターフェイスにおける
ファンクションコントローラの構成を示すブロック図で
ある。
【図13】 同実施例におけるファンクションデコード
コントローラにおいて行なわれるデコードの内容を説明
するための図である。
【図14】 同実施例に変形例において適用されるドキ
ュメントを説明するための図である。
【図15】 この発明の第3実施例における画像データ
処理装置の構成を示すブロック図である。
【図16】 同実施例におけるカラービットファンクシ
ョンテーブルを示す図である。
【図17】 同実施例に適用される画像形成装置の構成
を示すブロック図である。
【図18】 同実施例における画像要素の分類を説明す
るための図である。
【図19】 同実施例の変形例における画像データ処理
装置の構成を示すブロック図である。
【図20】 同実施例の変形例におけるカラーマッチン
グファンクションテーブルを示すである。
【図21】 同実施例の変形例における画像要素の分類
を説明するための図である。
【符号の説明】
12……データ通信部(入力手段)、13……画像展開
部(展開手段)、15……画像データ変換部(画像デー
タ変換手段)、18a〜18d……画像用メモリ(画像
データ記憶手段)、19……タグビットメモリ(属性情
報記憶手段)、20……画像インターフェイス(データ
出力手段)、32〜37……画像処理部(画像処理手
段)。BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram showing a configuration of an image data processing device according to a first embodiment of the present invention. FIG. 2 is a diagram showing a tag bit function table in the embodiment. FIG. 3 is a block diagram illustrating a configuration of an image forming apparatus applied to the embodiment. FIG. 4 is a diagram for explaining classification of image elements in the embodiment. FIG. 5 is a diagram for explaining the operation of the embodiment. FIG. 6 is a diagram showing a tag bit function table in a modification of the embodiment. FIG. 7 is a block diagram illustrating a configuration of an image data processing device according to a modification of the embodiment. FIG. 8 is a block diagram showing a configuration of an image data processing device according to a modification of the embodiment. FIG. 9 is a block diagram illustrating a configuration of an image data processing device according to a second embodiment of the present invention. FIG. 10 is a schematic diagram showing a relationship between a memory map of an image memory and image data of an intermediate format in the embodiment. FIG. 11 is a block diagram showing a configuration of an image interface in the embodiment. FIG. 12 is a block diagram illustrating a configuration of a function controller in the image interface according to the embodiment. FIG. 13 is a diagram for explaining the contents of decoding performed by the function decode controller in the embodiment. FIG. 14 is a diagram illustrating a document applied to a modification of the embodiment. FIG. 15 is a block diagram illustrating a configuration of an image data processing device according to a third embodiment of the present invention. FIG. 16 is a diagram showing a color bit function table in the embodiment. FIG. 17 is a block diagram illustrating a configuration of an image forming apparatus applied to the embodiment. FIG. 18 is a diagram for explaining the classification of image elements in the embodiment. FIG. 19 is a block diagram showing a configuration of an image data processing device according to a modification of the embodiment. FIG. 20 is a diagram illustrating a color matching function table according to a modification of the embodiment. FIG. 21 is a diagram for explaining classification of image elements in a modification of the embodiment. [Description of Symbols] 12 Data communication unit (input means), 13 Image expansion unit (expansion means), 15 Image data conversion unit (image data conversion means), 18a to 18d Image memory ( Image data storage means), 19 ... tag bit memory (attribute information storage means), 20 ... image interface (data output means), 32-37 ... image processing unit (image processing means).
Claims (1)
ルであって、異なる複数種類の空間解像度および階調解
像度の画像要素を有するファイルを入力する入力手段
と、 前記ファイルを解釈し展開するとともに、画像要素を分
類する複数種類の属性情報を生成する展開手段と、 前記展開手段により展開されたファイルを、画像要素が
要する空間解像度および階調解像度に対応する画像デー
タに変換する画像データ変換手段と、 前記画像データを記憶する画像データ記憶手段と、 前記属性情報を前記画像データと同一の座標空間にて記
憶する属性情報記憶手段と、 前記属性情報記憶手段により記憶された属性情報および
前記画像データ記憶手段により記憶された画像データ
を、座標空間に対応して読み出して出力するデータ出力
手段と、 前記データ出力手段により出力された画像データに対し
て、前記データ出力手段により出力された属性情報にし
たがった画像処理を行なう画像処理手段とを具備するこ
とを特徴とする画像処理装置。Claims 1. An input means for inputting a file described in a predetermined format and having image elements of a plurality of different types of spatial resolution and gradation resolution, and interpreting the file. Developing means for generating a plurality of types of attribute information for classifying image elements, and converting the file expanded by the developing means into image data corresponding to the spatial resolution and gradation resolution required by the image elements Image data conversion means; image data storage means for storing the image data; attribute information storage means for storing the attribute information in the same coordinate space as the image data; and attributes stored by the attribute information storage means. Information and image data stored by the image data storage means are read and output in correspondence with a coordinate space. Image processing means for performing image processing on the image data output by the data output means in accordance with the attribute information output by the data output means. apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002167738A JP2003036445A (en) | 2002-06-07 | 2002-06-07 | Image processor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002167738A JP2003036445A (en) | 2002-06-07 | 2002-06-07 | Image processor |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP25580794A Division JP3346051B2 (en) | 1994-10-20 | 1994-10-20 | Image processing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2003036445A true JP2003036445A (en) | 2003-02-07 |
Family
ID=19195068
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002167738A Pending JP2003036445A (en) | 2002-06-07 | 2002-06-07 | Image processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2003036445A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005184848A (en) * | 2003-12-22 | 2005-07-07 | Xerox Corp | Quick processing system of raster intensive collar document and its method |
-
2002
- 2002-06-07 JP JP2002167738A patent/JP2003036445A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005184848A (en) * | 2003-12-22 | 2005-07-07 | Xerox Corp | Quick processing system of raster intensive collar document and its method |
JP4502798B2 (en) * | 2003-12-22 | 2010-07-14 | ゼロックス コーポレイション | Rapid processing system and method for raster aggregated color documents |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3063957B2 (en) | Image processing device | |
EP2481206B1 (en) | Image processing apparatus and processing method therefor | |
JP2922680B2 (en) | Compressed image storage method for high-resolution computer graphics | |
KR0156956B1 (en) | Method and device for forming image | |
JP2010103681A (en) | Image processing device and method | |
JPH01184581A (en) | Document image processor | |
JP2830690B2 (en) | Image processing device | |
US7809199B2 (en) | Image processing apparatus | |
CN101346981B (en) | Image processing apparatus, image processing method | |
JP2006121645A (en) | Image compression apparatus and image compression program | |
JP3346051B2 (en) | Image processing device | |
US6985258B1 (en) | Print system | |
JP2004201302A (en) | Image resolution conversion method | |
US7091985B1 (en) | System and method for compressing color data using expandable color palette | |
JP2003036445A (en) | Image processor | |
JP2000227848A (en) | Image processor | |
JP3695498B2 (en) | Image processing device | |
JP3738807B2 (en) | Image processing apparatus and image processing method | |
JP2001169120A (en) | Method, device, and system for image processing | |
JP5599033B2 (en) | Image processing apparatus and method, and program | |
JPH11164139A (en) | Image processor | |
JP2019111677A (en) | Image processing device, image processing device control method, image forming device and program | |
JP3829895B2 (en) | Image processing device | |
JP2010118919A (en) | Image processing system | |
JP3344255B2 (en) | Image information processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050510 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20050913 |