JP4352669B2 - Image processing system, image processing apparatus, image processing method, and program - Google Patents

Image processing system, image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP4352669B2
JP4352669B2 JP2002253470A JP2002253470A JP4352669B2 JP 4352669 B2 JP4352669 B2 JP 4352669B2 JP 2002253470 A JP2002253470 A JP 2002253470A JP 2002253470 A JP2002253470 A JP 2002253470A JP 4352669 B2 JP4352669 B2 JP 4352669B2
Authority
JP
Japan
Prior art keywords
image
unit
image data
identification information
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002253470A
Other languages
Japanese (ja)
Other versions
JP2004090340A (en
Inventor
裕義 上條
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2002253470A priority Critical patent/JP4352669B2/en
Publication of JP2004090340A publication Critical patent/JP2004090340A/en
Application granted granted Critical
Publication of JP4352669B2 publication Critical patent/JP4352669B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、画像処理装置、この画像処理装置を構成要素とする画像処理システム、画像処理装置やシステムで使用する画像処理方法、並びにプログラムに関する。より詳細には、印刷用のイメージデータを線画データと連続階調画像データとに分けるなど、画像オブジェクトごとにイメージデータを分けて取り扱う際の画像処理手法に関する。
【0002】
【従来の技術】
プリンタ装置や複写装置などの印刷機能を備えた画像形成装置が様々な分野で使用されている。また、今日では、画像形成装置がカラー化され、ユーザの様々な表現手段として利用されるようになってきている。たとえば、電子写真プロセス(ゼログラフィ)を用いたカラーページプリンタ装置は、高品質な画質あるいは高速プリンティングの点で注目されている。
【0003】
一方、印刷機能という点では、家庭内での個人ユースやオフィスでのビジネスユースといった比較的小規模(たとえば1ジョブが数枚〜数十枚程度)の印刷出力を要求されるものと、製本などの印刷業界で使用される比較的大規模(たとえば1ジョブが数千枚以上)の印刷出力を要求されるものとに大別される。前者の比較的小規模の印刷出力を要求されるものにおいては、その多くが(たとえば孔版印刷を除いて)、印刷データを受け取り版下を生成せずに印刷物を出力する。一方、後者の比較的大規模の印刷出力を要求されるものにおいては、従来は、印刷データに基づいて版下を生成し、この生成した版下を使用して印刷物を出力していた。
【0004】
ところが、今日では、DTP(DeskTop Publishing/Prepress)の普及による印刷工程の変化、いわゆる「印刷のデジタル革命」により、DTPデータから直接印刷する「ダイレクト印刷」もしくは「オンデマンド印刷」(以下オンデマンドプリンティングという)が着目されている。このオンデマンドプリンティングでは、従来の印刷(たとえばオフセット印刷)における写植などの紙焼き(印画紙)、版下、網ネガ、網ポジ、PS版などの中間成果物を生成せずに、プリプレス工程を完全にデジタル化することで電子データだけに基づいて印刷物を出力する仕組み(CTP;Computer To Print or Paper)が採られている。そして、このオンデマンドプリンティングの要求に対して、電子写真プロセスを用いた印刷機能が着目されている。
【0005】
一方、高品質を要求する印刷業者向けの画像処理システムは、文字や絵柄(グラフィックス)などの画像を総合的に統合して編集するシステムであり、特に、デスクトップパブリッシング分野はページ記述言語(PDL:Page Description Language )により可能となりつつある。
【0006】
このような印刷業者向けの画像処理システムは、文字、画像を統合的に処理する際のデータハンドリング性を向上させるべく、イメージデータを圧縮して電送することが行なわれる。
【0007】
また圧縮/伸張の処理に際しては、たとえば特開平8−6238号に記載のように、線画や文字など主に2値で現される画像オブジェクト(線画文字オブジェクトLW(Line Work ))と、背景部や写真部など主に多階調で表される画像オブジェクト(多階調画像オブジェクトCT(Continuous Tone ))など、画像オブジェクトの特性に応じてイメージデータを分けて取り扱う仕組みもある。
【0008】
しかしながら、特開平8−6238号に記載の手法では、ページ記述言語PDLから背景・線画独立に展開し、圧縮を施して出力装置へ転送するが、出力装置側では、それぞれ同一の網種(スクリーン)を掛けているなど、背景と線画とに対して同様の画像処理を加えている。
【0009】
オンデマンドプリンティングでは、一般的にゼログラフィエンジンが主流であるが、線画・文字は高精細・ハイガンマγな画像を得たく、たとえば600線などのスクリーンを選ぶことが推奨される一方で、背景部はリニアな画像を得るために200線ローテーションなどのスクリン種が推奨される。
【0010】
しかしながら、1ページ中で同一スクリーンを選んだ場合、高精細・リニアな画像が両立しない。すなわち、1ページ中で背景と線画とに対して、それぞれのオブジェクトに好適な画像処理を施すことはできていない。
【0011】
この問題を解決するために、本願出願人は、本願と同日出願に係る特願2002−252548号にて、イメージデータ生成装置では、印刷データを構成する個々の画像オブジェクトの属性ごとにイメージデータを生成して画像処理装置に送出するとともに、生成した個々のイメージデータの属性を示す情報(イメージ識別情報)をイメージデータに対応付けて画像処理装置に送出し、画像処理装置においては、イメージデータ生成装置から受け取ったイメージ識別情報に基づき、個々のイメージデータに対してそのイメージデータに適応した所定の画像処理を施す手法を提案している。
【0012】
また、この特願2002−252548号では、イメージ識別情報の電送方式として、イメージ識別情報をイメージデータの濃度情報に埋め込む方式と、たとえば疑似中間調処理に関わるスクリーンの種別を現す情報(スクリーンフラグ)などを利用するなど、イメージデータとは独立の識別情報をイメージ識別情報とする方式を提案している。
【0013】
【発明が解決しようとする課題】
ここで、イメージデータ生成装置と画像処理装置とが密に接続されたシステムでは、イメージデータ生成装置が採用しているイメージ識別情報の電送方式を画像処理装置側で事前に知っているので、多数ページのイメージデータがイメージデータ生成装置から送られても、画像処理装置は、特に不都合なく(生産を低下させることなく)そのイメージデータに対して、そのイメージデータに適応した所定の画像処理を施すことができる。
【0014】
一方、本願出願人は、たとえば特願2002−250331号、同250332号、同250333号にて、イメージデータ生成装置の機能を備えたフロントエンドプロセッサでは画像記録部(プリントエンジン)の処理特性とは独立的にイメージデータを生成し、画像処理機能やプリンタコントローラ機能を備えたバックエンドプロセッサでは画像記録部に依存した処理をしてから、処理済のイメージデータを画像記録部に送出するよう制御する仕組みを提案している。
【0015】
この構成では、フロントエンドプロセッサ側はエンジン特性に応じた煩雑な処理から開放され、イメージデータ生成側とバックエンドプロセッサやエンジン側との間が疎な(ほぼ独立した)接続関係となる一方で、バックエンドプロセッサ側は、イメージデータ生成処理から開放されるがエンジンとは密な関係にあるので、エンジン性能に応じて柔軟に処理や制御を変更することができる。そしてこれにより、フロントエンドプロセッサ側が特にエンジンの特性やノウハウを熟知していなくてもよくなるので、汎用のあるいは他社のイメージ生成エンジンが使用可能となるなど、イメージデータ生成側を切替使用可能あるいは複数台接続可能な柔軟性の高いシステムを構築することができる。
【0016】
しかしながら、特願2002−250331号などに記載のイメージデータ生成側とバックエンドプロセッサやエンジン側との間が疎な接続関係にあるシステムに、特願2002−252548号に記載の、イメージ識別情報を電送してイメージデータに適応した画像処理を施す仕組みを適用すると、新たな問題が発生する。すなわち、バックエンドプロセッサは、種々のフロントエンドプロセッサと接続可能な構成となるので、どのフロントエンドプロセッサがイメージデータを送出するのかを事前に特定することができない。
【0017】
この結果、イメージデータ生成機能を備えたフロントエンドプロセッサが採用しているイメージ識別情報の形式をバックエンドプロセッサ側で事前に知ることもできない。このため、イメージデータがフロントエンドプロセッサから送られると、その都度、たとえば接続機種の切替え時やページごとに、改めて、両者の間でイメージ識別情報の形式を確認(ネゴシエーション)し合うことが必要となり、結果として生産性が低下することになる。
【0018】
本発明は、上記事情に鑑みてなされたものであり、イメージデータ生成側と画像処理装置との間を疎な関係で接続するシステムとする場合においても生産性を低下させることなく、線画などの線画文字オブジェクトと背景部などの多階調画像オブジェクトなど、個々の画像オブジェクトに対して、それぞれに好適な画像処理を施すことのできる画像処理方法を提供することを目的とする。
【0019】
また、本発明は、本発明の画像処理方法を実施する画像処理システムや画像処理装置を提供することを目的とする。
【0020】
また本発明は、本発明の画像処理方法を実施する画像処理装置を、電子計算機を用いてソフトウェアで実現するために好適なプログラムを提供することを目的とする。
【0021】
【課題を解決するための手段】
すなわち、本発明に係る画像処理方法は、画像処理装置は、印刷データを構成する個々のイメージデータと、個々のイメージデータの属性を示すイメージ識別情報と、イメージ識別情報に係る形式情報とを対応付けてイメージデータ生成装置から受け取り、この受け取っ形式情報に基づいてイメージ識別情報の形式を特定し、特定した形式に従ってイメージ識別情報を特定し、特定したイメージ識別情報に基づいて、個々のイメージデータに対する画像を施すようにした。
【0022】
本発明に係る画像処理システムは、印刷データに基づいてイメージデータを生成するイメージデータ生成装置と、イメージデータ生成装置により生成されたイメージデータに対して画像処理を施す画像処理装置とから構成されていて、本発明に係る画像処理方法を実施するシステムである。
【0023】
この画像処理システムのイメージデータ生成装置は、印刷データを構成する個々のイメージデータを生成して画像処理装置に送出するとともに、この生成した個々のイメージデータの属性を示すイメージ識別情報とイメージデータ識別情報に係る形式情報とを個々のイメージデータに対応付けて画像処理装置に送出する
【0024】
本発明に係る画像処理処理装置は、本発明に係る画像処理方法を実施するのに好適な装置であって、印刷データを構成する個々のイメージデータとイメージデータの属性を示すイメージ識別情報とイメージ識別情報に係る形式情報とを対応付けてイメージデータ生成装置から受け取る印刷ファイル受信部と、印刷ファイル受信部が受け取った形式情報に基づいてイメージ識別情報の形式を特定し、特定した形式に従ってイメージ識別情報を特定し、特定したイメージ識別情報に基づいて、イメージデータ生成装置から受け取った個々のイメージデータに対する画像処理を施す画像処理部とを備えた。
【0025】
また従属項に記載された発明は、本発明のさらなる有利な具体例を規定する。さらに、本発明に係るプログラムは、本発明に係る画像処理装置を、電子計算機(コンピュータ)を用いてソフトウェアで実現するために好適なものである。なお、プログラムは、コンピュータ読取り可能な記憶媒体に格納されて提供されてもよいし、有線あるいは無線による通信手段を介して配信されてもよい。
【0026】
画像処理装置側で形式情報を特定できるものである限り、形式情報をイメージデータに対応付けて画像処理装置に送出する手段は、どのようなものであってもよい。たとえば、形式情報を直接的に示す識別情報を用いてもよいし、イメージデータ生成装置と形式情報とを対応付けておき、イメージデータ生成装置を識別する情報を送付することで、実質的に形式情報を送付するようにしてもかまわない。
【0027】
上記において、印刷データは、たとえばページ記述言語PDLで表されたデータのように、文字や絵柄などを明確に峻別可能なデータを意味する。「印刷データを構成するイメージデータ」は、印刷データに記述されている文字や絵柄など情報を参照して生成されたイメージデータであり、複写装置やFAX装置などのように読み取りによって得られたイメージデータを含まない。
【0029】
記において、「イメージデータに対する」とは、受け取ったイメージデータの全てに対してに限らず、受け取ったイメージデータの一部だけでもかまわない。また、「個々のイメージデータに対する画像処理を施す」とは、個々のイメージデータに応じて画像処理の特性を切り替える(調整する)ことを意味する。
【0030】
たとえば、イメージデータの属性を示す情報を参照して、出力画像の階調再現性をイメージデータに応じて補正する階調補正処理をする、複数のイメージデータの加算比率を各イメージデータに応じて調整することで合成画像を得るイメージデータ結合処理をする、または疑似中間調処理に関わるスクリーン処理において使用するスクリーン種別を各イメージデータに応じて切り替えるなどである。
【0031】
なお、テキストオブジェクトとグラフィックスオブジェクトという個々の画像オブジェクトに対応する2つの圧縮イメージデータを複数のレイアで送り、また個々の画素ごとにオブジェクト属性情報を付帯情報として対応付けて送る場合においては、レイアの情報(つまりイメージデータの属性情報)に基づいて各レイアごとに圧縮/伸張の特性を適用することは、本発明の「特定したイメージ識別情報に基づいて個々のイメージデータに対する画像処理を施す」には含まない。
【0032】
【作用】
上記構成においては、イメージデータ生成装置は、印刷データを構成する個々のイメージデータを生成するとともに、この生成した個々のイメージデータの属性を示すイメージ識別情報とイメージ識別情報に係る形式情報とをイメージデータに対応付けて画像処理装置に送出する。
【0033】
これを受けて、画像処理装置は、受け取った形式情報に基づいてイメージ識別情報の形式を特定し、この特定した形式に従ってイメージ識別情報を特定し、この特定したイメージ識別情報に基づいて(参照して)、イメージデータに対して、そのイメージデータに対する画像処理を施す。たとえば、階調補正特性の切り替えや画像統合処理(マージ)の優先情報に、あるいはエンジン側のスクリーン線種の切り替える
【0034】
画像処理装置は、イメージデータに対応付けて、すなわちイメージデータを受け取るのと略同時に形式情報を受け取ることができるので、イメージデータがフロントエンドプロセッサから送られた後に改めて両者の間でイメージ識別情報の形式を確認し合うということが不要となる。
【0035】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態について詳細に説明する。
【0036】
図1は、本発明に係る画像処理システムを適用した画像形成システムの一実施形態を示す図である。ここで、図1(A)はシステム構成の概略図、図1(B)は、ユーザインタフェース装置の詳細との関係における接続例を示す図である。
【0037】
この画像形成システムは、画像形成装置1と、この画像形成装置1に印刷データを渡し印刷指示をする端末装置であるDFE(Digital Front End Processor )装置とから構成されている。
【0038】
画像形成装置1は、電子写真プロセスを利用して画像を所定の記録媒体に記録するものである。この画像形成装置1は、クライアント端末から入力された印刷データに基づいて可視画像を所定の記録媒体上に形成する印刷装置(プリンタ)として機能するようになっている。
【0039】
すなわち、この画像形成システムにおける画像形成装置1は、IOT(Image Output Terminal)モジュール(IOT本体)2と、フィード(給紙)モジュール(FM;Feeder Module )5と、出力モジュール7と、パソコン(PC)などのユーザインタフェース装置8と、IOTモジュール2とフィードモジュール5とを連結する連結モジュール9を備えている。なお、フィードモジュール5は、多段構成としてもよい。
【0040】
また、出力モジュール7の後段に、さらにフィニッシャ(Finisher;後処理装置)モジュールを接続してもよい。フィニッシャモジュールとしては、たとえば、用紙をスタック処理をし、そのコーナ部の1個所または一辺の2個所以上を綴じるステープラを備えたもの、あるいはファイリング用のパンチ孔を穿設するパンチング機構を備えたものなどがある。このフィニッシャモジュールは、ユーザインタフェース装置8との接続が切られたオフライン状態でも使用可能とすることが望ましい。
【0041】
DFE装置は、描画機能を備えており、たとえばページ記述言語PDLで記述された印刷データを図示しないクライアント端末から順次受け取り、この印刷データに基づいてラスターイメージを生成(RIP処理;Raster Image Process)し、さらにRIP処理済みのイメージデータおよび印刷枚数や用紙サイズなどの印刷制御情報(ジョブチケット)を画像形成装置1に送る。
【0042】
DFE装置から画像形成装置1に送付される印刷データとしては、カラー印刷用の基本色である、イエロ(Y)、シアン(C)、マゼンタ(M)の3色と、ブラック(K)とを合わせた4色(YMCK)分がある。また、この4色に加えて、第5の色成分、たとえばグレイ(G)分を含めてもよい。
【0043】
IOTモジュール2は、IOTコア部20とトナー供給部22とを有する。トナー供給部22には、カラー印刷用のYMCK分のトナーカートリッジ24が搭載されるようになっている。
【0044】
IOTコア部20は、光走査装置31や感光体ドラム32などを有するプリントエンジン(印字ユニット)30を前述の色成分に対応する色ごとに備えており、このプリントエンジン30をベルト回転方向に一列に配置したいわゆるタンデム構成のものとなっている。またIOTコア部20は、プリントエンジン30を制御する電気回路あるいは各モジュール用の電源回路などを収容する電気系制御収納部39を備える。
【0045】
さらに、IOTコア部20は、画像転写方式として、感光体ドラム32上のトナー像を1次転写器35にて中間転写ベルト43に転写(1次転写)し、その後、2次転写部45にて中間転写ベルト43上のトナー像を印刷用紙に転写(2次転写)する方式を用いている。このような構成では、YMCKの各色トナーにより画像形成を各別の感光体ドラム32上に行なって、このトナー像を中間転写ベルト43に多重転写する。
【0046】
中間転写ベルト43上に転写された画像(トナー像)は、所定のタイミングでフィードモジュール5から搬送されてきた用紙上に転写され、さらに第2搬送路48で定着器(Fuser )70まで搬送され、この定着器70によってトナー像が用紙上に溶融定着される。そしてその後、排紙トレイ(スタッカ)74に一時的に保持されたりあるいは直ちに排紙処理装置72に渡され、必要に応じて所定の終末処理を経て機外へ排出される。また、両面印刷時には、印刷済みの用紙が排紙トレイ74から反転路76に引き出され、IOTモジュール2の反転搬送路49に渡される。
【0047】
描画機能を備えたDFE装置は、イメージデータ生成装置の一例であるフロントエンドプロセッサFEP(Front End Processor )部500を備えている。フロントエンドプロセッサFEP部500は、フロントエンジンによるROP(Raster OPeration)処理によりクライアント(Client)からのデータをラスタデータに変換(RIP処理)し、その変換後のラスタ画像を圧縮処理する。IOTモジュール2の高速処理に対応可能なようにRIP処理や圧縮処理が高速処理対応になっている。なお、DFE装置のフロントエンドプロセッサFEP部500は、画像形成装置1に依存した印刷制御機能を果たすプリンタコントローラ機能を備えておらず、主にRIP処理のみをする。
【0048】
ユーザインタフェース装置8は、キーボード81やマウス82などの入力デバイスを有し、ユーザに画像を提示しつつ指示入力を受け付けるGUI(Graphic User Interface)部80を備えるとともに、その本体(図示せず)内に画像形成装置1の各モジュールやDFE装置との間の接続インタフェース機能やサーバ機能をなすSys(システム制御)部85を備える。また、ユーザインタフェース装置8は、画像形成装置1に依存した印刷制御機能を果たすプリンタコントローラ機能を備えている。
【0049】
このような構成におけるユーザインタフェース装置8の画像形成装置1に依存した処理の制御機能を果たすプリンタコントローラ機能部分と、接続インタフェースに関わる部分とを、纏めてバックエンドプロセッサBEP(Back End Processor)部600という。結果として、本実施形態の構成におけるユーザインタフェース装置8は、GUI部80と、IOTコア部20などエンジン特性に応じた制御するプリンタコントローラ機能部分とを含むようになっている。なお、バックエンドプロセッサBEP部600やIOTコア部20は、画像処理装置の機能を備えている。
【0050】
フロントエンドプロセッサFEP部500にはクライアント端末から受け取った印刷データを保存しておくデータ格納部(図示せず)が用意される(後述する図2を参照)。同様に、バックエンドプロセッサBEP部600には、フロントエンドプロセッサFEP部500から受け取ったイメージデータやジョブチケットを保存しておくデータ格納部(図示せず)が用意される(後述する図2を参照)。
【0051】
DFE装置では、クライアント端末で生成されたコードデータをフロントエンジン側のRIP処理でラスタデータ化し、圧縮処理を施す。DFE装置側のフロントエンドプロセッサFEP部500と画像形成装置1側のバックエンドプロセッサBEP部600との間の電気信号の伝送は、IOTコア部20に対して比較的疎な関係にある。つまり、画像記録部としてのプリントエンジン30に対して非依存の通信インタフェース(汎用ネットワークによる疎結合)で構築される。
【0052】
たとえば、図1(A)に示すように、DFE装置とバックエンドプロセッサBEP部との間は、たとえば通信速度が1GBPS(Giga Bit Per Sec)程度の汎用の通信プロトコルによる高速有線LAN(Local Area Network)などで接続するとよい。印刷ファイルは、たとえばFTP(File Transfer Protocol)などによりフロントエンドプロセッサFEP部500からバックエンドプロセッサBEP部600へファイル転送される。
【0053】
これに対して、バックエンドプロセッサBEP部600と画像記録部を構成する(その主要部である)IOTコア部20との間の電気信号の伝送は、IOTコア部20に対して比較的密な関係にある、つまり、画像記録部としてのプリントエンジン30に依存した通信インタフェースで構築される。たとえば、専用の通信プロトコルで接続される。
【0054】
ユーザインタフェース装置8には、画像形成装置1を操作するための制御ソフトウェアが組み込まれている。このユーザインタフェース装置8は、画像処理装置IPS(Image Process System)の機能を備えたDFE装置と接続されており、たとえば、RIP(Raster Image Process)処理済みの印刷データ、および印刷枚数や用紙サイズなどの印刷制御情報をDFE装置から受け取り、要求された印刷処理を画像形成装置1に実行させる。
【0055】
図2は、DFE装置が備えるフロントエンドプロセッサFEP部500とバックエンドプロセッサBEP部600の機能役割分担の一例を纏めて示した図である。
【0056】
フロントエンドプロセッサFEP部500およびバックエンドプロセッサBEP部600には、画像バッファ(データ格納部)の一例であるハードディスク装置(HDD)が搭載される。
【0057】
フロントエンドプロセッサFEP部500は、画像圧縮やデバイス差を補正するCMS(Colour Management System;カラー管理システム)の機能など担当する一方で、バックエンドプロセッサBEP部600は、画像伸張、電子帳合い、両面制御、ジョブリカバリ、CMYKのグレイバランスの補正(キャリブレーション)機能などを担当する。
【0058】
たとえば、プリンタコントローラ機能をなすバックエンドプロセッサBEP部600は、DFE装置からのイメージデータとともに印刷制御情報(印刷コマンド)を画像形成装置1内のインタフェース部を介して受け取り、画像形成装置1に依存した印刷処理(エンジン特性に依存した処理)の制御機能を果たす。また、たとえば、コレーション(Collation ;帳合い)設定による複数部出力やプリントアウト後もう1枚欲しいときのリプリントなど、DFE装置に保持しておいたRIP処理済みのデータを利用することで、効率的な高速出力を可能としている。
【0059】
このため、バックエンドプロセッサBEP部600には、DFE装置から受け取った印刷制御情報に基づいてコマンドコード(Command Code)を生成し、画像形成装置1内の各部の処理タイミングをエンジン特性に応じて制御するコントローラが設けられる。また、バックエンドプロセッサBEP部600は、IOTモジュール2やフィードモジュール5あるいは出力モジュール7などのエンジン特性に適合するようにスプール(Spool)処理を完結させてからIOTモジュール2に画像データを渡す。バックエンドプロセッサBEP部は、エンジン特性に依存した制御処理をする。
【0060】
また、バックエンドプロセッサBEP部600は、エンジン特性に依存した紙詰まりなどのリカバリ処理を自動的に行なう。また、クライアントからの指示をフロントエンドプロセッサFEP部500で判断し、IOTコア部20や定着器70あるいはフィニッシャ部などの画像形成装置1の各部に依存せず専らフロントエンドプロセッサFEP部500のみで処理可能なものはフロントエンドプロセッサFEP部500で処理し、画像形成装置1の各部に依存するものであってバックエンドプロセッサBEP部600で行なうべき処理はバックエンドプロセッサBEP部600側へコマンドをスルーさせる。
【0061】
たとえば、DFE装置からバックエンドプロセッサBEP部600には、RIP処理が施されたラスタベース画像を含む印刷ファイルデータが送られる。印刷ファイルデータとしては、ラスタベースの画像ファイルデータの他、印刷部数、両面/片面、カラー/白黒、合成印刷、ソートの有無、ステープラの有無など印刷制御情報などが含まれる。
【0062】
そしてたとえば、回転(Rotation)、1枚の用紙内へのページ割付(N−UP)、リピート処理、用紙サイズ合わせ、デバイス差を補正するカラー管理システムCMS、解像度変換、コントラスト調整、圧縮率指定(低/中/高)などのRIP処理と関わりのある処理は、フロントエンドプロセッサFEP部500にて処理し、その制御コマンドをバックエンドプロセッサBEP部600へは通知しない(非通知)。
【0063】
一方、コレーション(帳合い)、両面印刷、スタンプ・パンチ・ステープラなどのフィニッシャ装置あるいは用紙トレーと関わりのある位置合わせ処理、排出面(上下)合わせ、グレーバランスや色ズレ補正などのキャリブレーション処理、スクリーン指定処理など、画像形成装置1の処理特性と関わりの強いもの(IOT依存の処理)に関しては、その制御コマンドをフロントエンドプロセッサFEP部500がスルーすることで、バックエンドプロセッサBEP部600にて処理する。
【0064】
なお、用紙サイズ合わせに関しては、フロントエンドプロセッサFEP部500だけでなく、バックエンドプロセッサBEP部600にても処理してもかまわない。
【0065】
このように、本実施形態の構成では、画像データが所定形式の圧縮データとして、たとえばFTP(File Transfer Protocol)などによりユーザインタフェース装置8側にファイル転送される。つまり、フロントエンドプロセッサFEP部500側は1つのジョブ(JOB)をエンジン特性に依存せずRIP処理した順にバックエンドプロセッサBEP部600側へ一方的に転送する。
【0066】
バックエンドプロセッサBEP部600では、印刷用にページ再配置をし、プリントエンジン30の処理速度に同期して制御コマンドをやり取りしながら、エンジン生産性を最大限生かす速度でページデータを所定の順にIOTコア部20に送出する。
【0067】
このプリントエンジン30などの処理特性に適応した処理(同期処理)よりもフロントエンドプロセッサFEP部500からのデータ送出の方が早ければ、バックエンドプロセッサBEP部600は、間に合わない画像データやジョブチケットをデータ格納部に一時的に保管しておく。そして、ユーザが希望する排出条件(ページ順や向き、あるいはフィニッシング処理の有無など)に合致するようにページデータを読み出し、また必要に応じて画像編集し、用紙上における画像位置の補正や、ユーザが希望する画像処理をし、処理済の画像データをIOTモジュール2側に送出する。
【0068】
これにより、フロントエンドプロセッサFEP部500と画像記録部としてのプリントエンジン30や定着器70などの出力側とが非同期の処理、バックエンドプロセッサBEP部600と出力側とは同期の処理となり、その差がデータ格納部へのデータ格納と読出しとで相殺されるようになる。また、画像データの圧縮/伸張をする場合においても、フロントエンドプロセッサFEP部500における圧縮処理とバックエンドプロセッサBEP部600における伸張処理とは非同期の処理となる。つまり、このような構成によれば、フロントエンドプロセッサFEP部500におけるRIP処理やその後の圧縮処理は、印刷ジョブ内容や画像記録部を構成するIOTコア部20や定着器70などの処理特性とは独立的に処理される。
【0069】
このように、本実施形態の構成によれば、DFE装置と画像形成装置1との関係はルーズであってよい(Loosely connection)。たとえば、DFE装置のフロントエンドプロセッサFEP部500にてRIP処理や圧縮処理をしておくだけでよい。そしてそこまでは、RIPエンジンの性能次第に任せた処理としており、特にプリントエンジン側の処理速度(同期)や制御に依存する必要は一切ない。つまり、DFE装置にての処理としては、画像形成装置1の性能の影響を受けないRIP処理や圧縮処理などの範囲に留めることができる。バックエンドプロセッサBEP部600は、画像形成装置1に合わせたページ再配置や、IOTコア部20と同期した印刷制御をする。
【0070】
これらの処理は、バックエンドプロセッサBEP部600が備えるプリンタコントローラ機能が、フロントエンドプロセッサFEP部500から渡されたジョブチケットを解釈(デコード)し、あるいはGUI部80を介したユーザ指示を受けて、各部を制御することで実現される。
【0071】
このように、本実施形態の構成によれば、DFE装置はエンジン特性に応じた煩雑な処理から開放されるので、一般的なPC(パソコン)をDFE装置として使用し、このPC上にソフトウェアを搭載することによって、フロントエンドプロセッサFEP部500の機能を果たすことができるようになる。
【0072】
加えて、エンジン特性に応じた煩雑な処理を担当するバックエンドプロセッサBEP部600側は、RIP処理から開放され、IOTモジュール2や定着器70あるいはフィニッシャなどの性能に応じて、柔軟に処理や制御を変更することができる。これにより、フロントエンドプロセッサFEP部500側が特にエンジンの特性やノウハウを熟知していなくてもよくなる。
【0073】
また、フロントエンドプロセッサFEP部500がプリントエンジン30に非依存であるため、ユーザはプリントエンジンを新規に購入しても従来のフロントエンドを流用することできる。また、他のメーカのフロントエンドとの接続も可能となる。つまり、フロントエンドプロセッサFEP部500の汎用化が実現でき、たとえば汎用印刷RIPエンジンや他社のRIPエンジンが使用可能となる。あるいは、容易にビジネス上必要なターゲットとしたいエンジンにプリンタコントローラを提供していくことが可能になる。
【0074】
また、画像形成用の画像データと画像形成条件(部数、片面/両面、、ソート有無、など)とをフロントエンドプロセッサFEP部500からバックエンドプロセッサBEP部600が受け取り、バックエンドプロセッサBEP部600にて、エンジン特性に応じて、当該装置の画像形成動作を制御することができる。バックエンドプロセッサBEP部600は標準コントローラの使用の制約がないので、このバックエンドプロセッサBEP部600による画像形成動作の制御は、DFE装置によるものよりも高速性や拡張性に富む。したがって、画像形成装置1の高速化、高機能化に柔軟に対応することが容易となる。
【0075】
図3は、従来の画像形成システムと本実施形態の画像処理システムを適用した画像形成システムとの差を説明する図である。ここで、図3(A)は従来のシステム構成を示し、図3(B)および図3(C)は本実施形態を適用したシステム構成例を示す。
【0076】
従来の構成例では、画像形成装置1の特性に合わせたRIP処理済みの画像データ(Video Data)をDFE装置からIOTモジュール2に渡す。また、画像形成装置1の高速化に際しては、高速化が進むほど、DFE装置側のコントローラにて画像形成装置1内の各部の処理タイミングを制御するのが難しくなる。このため、図3(A)に示すように、DFE装置と画像形成装置1とがほぼ密接不可分であり、個々の画像形成装置1に応じた専用のDFE装置を使用する構成とならざるを得ない。
【0077】
たとえば、ラスタデータ展開(すなわちRIP処理)や印字ユニットの制御に際し、高機能モデルのDFE装置は、高画質、高度制御を主張する業界標準コントローラを使っている。フロントエンドプロセッサFEP部側が特にエンジンの特性やノウハウを熟知していなければ、高速高機能の画像形成装置1を制御することができないが、高速高機能になるほどそれが難しくなるので、従来の構成では、画像形成装置1に合わせた専用の処理機能をなすDFE装置が必要である。このため、1台の画像形成装置1が複数のDFE装置からの印刷要求を受け付けるシステムを構築することは難しかった。
【0078】
たとえば、より高機能・高速なシステムにしようとする場合、画像形成装置1の制御方法を予め標準コントローラに知らせておき、その標準コントローラの制御の元で動作するしかない。しかしながら、高速化、高機能化させると、従来のようなコントローラや汎用のコントローラで、高速高機能の画像形成装置1の画像形成動作を制御することは難しくなる。たとえば、連続処理をしているとき、いつの時点で次のシート(印刷用紙)に対する画像形成プロセスをスタートさせるかなど、その制御がより困難になる。特に、両面印刷時には、表面の連続搬送の途中に、あるシートの裏面印刷処理を割り込ませる必要があるが、高速処理にするほどその制御は困難となる。
【0079】
これに対して、本実施形態の構成では、DFE装置側(詳しくはフロントエンドプロセッサFEP部500)は主にRIP処理機能部(イメージデータ生成機能部)を担当し、バックエンドプロセッサBEP部600がプリンタコントローラ機能を担当する構成とすることで、画像形成用のイメージデータと画像形成条件(部数、片面/両面、色、ソート有無、など)とをバックエンドプロセッサBEP部600が受け取り、バックエンドプロセッサBEP部600にて、プリントエンジンの性能や特性に応じて、当該装置の画像形成動作を制御することができる。
【0080】
バックエンドプロセッサBEP部600は、従来のDFE装置のような標準コントローラの使用の制約がないので、このバックエンドプロセッサBEP部600による画像形成動作の制御は、DFE装置によるものよりも高速性や拡張性に富む。したがって、従来の構成例に比べて、画像形成装置1の高速化、高機能化に柔軟に対応することが容易となる。
【0081】
また本実施形態の構成では、フロントエンドプロセッサFEP部500とバックエンドプロセッサBEP部600やプリントエンジンとの間が疎な接続関係(Loosely connection)であってよく、DFE装置の処理としては、画像形成装置1の処理特性の影響を受けないRIP処理などの範囲に留めることができる。
【0082】
これにより、DFE装置の処理負担が減るので、高速処理可能な汎用コントローラを備えたDFE装置を使用することができ、トータルのシステムコストを低減することができる。加えて、汎用のDFE装置を使用できるので、図3(B)に示すように、1台の画像形成装置1が複数のDFE装置からの印刷要求を受け付けるシステム、すなわちDFE装置の台数と画像形成装置の台数とがn:1のシステムを構築することもできる。
【0083】
また、図3(C)に示すように、画像形成装置1も複数台接続したシステム、すなわち、DFE装置の台数と画像形成装置の台数とがn:mのシステムを構築することもできる。この場合、バックエンドプロセッサBEP部600の後段に高速高性能の画像形成装置1と出力確認用のプルーファ(画像形成装置1の一例)など2種類の画像形成装置1を並列設置したシステム、あるいは、縦連接続して並列処理させるシステムとすることもできる。
【0084】
プルーファ接続のシステムでは、高速高機能の画像形成装置1によるダイレクト印刷に先立って、DTPデータから直接カラー校正用プリントの出力をプルーファにて行なうDDCP(Digital Direct Color Proofing )システムを構築することができる。たとえば、バックエンドプロセッサBEP部600は、印刷ジョブとしてプルーフデータを受け取るとプルーフィングに適したデータ形式(たとえば低ビデオレートなど)の画像データをプルーファに出力してカラー校正用プリント出力を指令する一方、通常の印刷ジョブを受け取ると、高速高機能マシンに高ビデオレートの画像データを出力して高速高機能の印刷指示を発する。
【0085】
なお、この図3(C)に示すシステムの場合、高速高機能マシンとプルーファあるいは縦連接続された機種との間の異なるカラー出力の微妙な差異(デバイス差)を補正するCMS(Colour Management System;カラー管理システム)を搭載することが望ましい。
【0086】
このように、n:1あるいはn:mのシステムとすることで、イメージデータ生成側を切替使用可能あるいは複数台接続可能な柔軟性の高いシステムを構築することができる。たとえば、画像形成装置1の空き状況や印刷ジョブに適合した画像形成装置を選択して、効率よい出力処理をすることができるようにもなる。
【0087】
なお、本実施形態の構成においては、画像圧縮やそれに対応する画像伸張は、ページ内における画像オブジェクトごとに個別の形式を選択可能となっている。たとえば、クライアント端末から受け取る印刷データは、文字や線画などの2値画像を表す線画文字オブジェクトLWと、写真画像や背景部などの多階調画像を表す多階調画像オブジェクトCTとから構成されている。フロントエンドプロセッサFEP部500は、この個々の画像オブジェクトの属性情報(Tag)を参照して、線画文字オブジェクトLWに着目した圧縮イメージデータと、多階調画像オブジェクトCTに着目した圧縮イメージデータと、それぞれの圧縮イメージデータの属性を示す信号、たとえば線画文字オブジェクトLWに対してはパス信号、多階調画像オブジェクトCTに対してはイメージ信号を生成する。
【0088】
たとえば、フロントエンドプロセッサFEP部500は、画像オブジェクトごとに異なる圧縮形式に対応するように、それぞれの圧縮形式で生成したイメージデータ(分離した複数のイメージデータ)をバックエンドプロセッサBEP部600に転送する。フロントエンドプロセッサFEP部500とバックエンドプロセッサBEP部600との間の転送画像フォーマットは、画像オブジェクトに関わらず、TIFF(Tagged Image File Format)フォーマットベースのものとする。勿論、他の形式の画像圧縮フォーマットを用いてもかまわない。
【0089】
圧縮イメージデータ(LW,CT)とそれぞれのデータ属性を示す信号とは、ジョブチケットなどともに1つの印刷ファイルとして纏められて(対応付けられて)、バックエンドプロセッサBEP部600に伝達される。たとえば、個々の画像オブジェクトに対応する2つの圧縮イメージデータLW,CTを2レイアで送り、また個々の画素ごとにオブジェクト属性情報(すなわちイメージ識別情報)を付帯情報として対応付けて送る。
【0090】
圧縮イメージデータの属性は、バックエンドプロセッサBEP部600側において何れか一方を判別できれば十分であるので、たとえば、LW/CTを切り替える1ビットのマスク信号(セレクト信号)としてバックエンドプロセッサBEP部600に伝達すればよい。ただし、バスバンド(Bus Band)幅の狭いシステムでは、電送ビット数を少なくするために、このマスク信号を濃度情報(たとえばLWのイメージデータ)に埋め込んで伝達する透過コード方式を採ることが好ましい(詳細は後述する)。
【0091】
また、圧縮イメージデータの属性を1ビットで判別するだけでは不十分な場合もある。たとえば、IOTコア部20側での疑似中間調処理(ハーフトーン化)にてスクリーン処理を施すが(詳細は後述する)、どのような種類のスクリーンを使用するかによって階調再現性やモアレなどの画像品質に影響を及ぼす。このため、画像オブジェクトに応じてだけでなく、個々のオブジェクトについても、スクリーン種や線数や角度などを細かに切り替えたい場合もある。このような要求に応えるには、1ビットの情報では足りないので、たとえば2ビット以上で現された専用の識別情報をイメージデータとは独立的に使用することが好ましい。
【0092】
この専用の識別情報としては、たとえば、疑似中間調処理に関わるスクリーンの種別を現す情報(以下スクリーンフラグ;Screen flag ともいう)を利用することが好ましい(詳細は後述する)。つまり、専用の識別情報は、スクリーンフラグを兼ねるものであるのがよい。こうすることで、専用の識別情報を使用する場合であっても、バックエンドプロセッサBEP部600に送出する印刷ファイルの電送ビット幅を極力少なくすることができる。なお、1ビットの識別情報(スクリーンフラグなど)を使用して、圧縮イメージデータの属性のみを峻別するものとしてもかまわない。
【0093】
なお、図3(B)に示したn:1のシステム、あるいは図3(C)に示したn:mのシステムにおいては、1つのバックエンドプロセッサBEP部600が種々のフロントエンドプロセッサFEP部500と接続可能な構成となるので、どのフロントエンドプロセッサFEP部500がイメージデータを送出するのかを事前に特定することができない。この結果、圧縮イメージデータの属性を示すイメージ識別情報をイメージデータに対応付けて送付するだけでは、イメージデータ生成機能を備えたフロントエンドプロセッサFEP部500が採用しているイメージ識別情報の形式をバックエンドプロセッサBEP部600側で事前に知ることもできないので、イメージ識別情報を正しく特定することができない。
【0094】
この問題を解決するために、本実施形態では、バックエンドプロセッサBEP部600側にて複数種のDFE装置(すなわちフロントエンドプロセッサFEP部500)に対応可能なように(たとえば異なるメーカへの対応など)、各フロントエンドプロセッサFEP部500は、LW/CTの分離情報が濃度に埋めこまれた透過コード方式を採用しているのか、イメージデータとは別にスクリーンフラグとして電送する方式を採用しているのかを示す形式情報も印刷ファイルの付加情報(たとえばヘッダ情報)に記述しておくようにする。
【0095】
たとえば、バックエンドプロセッサBEP部600に送る印刷ファイルの付加データDSELに形式情報を含める。また、スクリーンフラグ方式を採用する場合、スクリーンフラグも、この付加データDSELに含める。
【0096】
これに対応して、バックエンドプロセッサBEP部600は、フロントエンドプロセッサFEP部500から送られてきた印刷ファイルのヘッダ情報に記述されている形式情報を参照し、イメージデータの属性LW/CTを区別する信号に置き換える。たとえばLW/CT独立に2種類のスクリーンが切り替えられる信号(Tag)に置き換える。そして、透過コード方式からLW/CT独立に階調補正特性、スクリーン種、マージの優先度を決めるのか、あるいはスクリーンフラグからそれらを決めるのかを自動的に選択し、画像処理した後に、プリントエンジン30側へイメージを出力する。
【0097】
図4は、DFE装置と画像形成装置1との間のデータの流れに着目した図であって、フロントエンドプロセッサFEP部500およびバックエンドプロセッサBEP部600の一実施形態を示すブロック図である。
【0098】
線画や文字など主に2値で現される画像オブジェクト(以下線画文字オブジェクトLW(Line Work )という)と、背景部や写真部など主に多階調で表される画像オブジェクト(以下多階調画像オブジェクトCT(Continuous Tone )など、画像オブジェクトの特性に応じて、適応した処理とするようにしている。
【0099】
フロントエンドプロセッサFEP部500は、ネットワークを介して接続されたクライアント端末(図示せず)からPDLで記述された印刷データ(以下PDLデータという)を受け取り、そのPDLデータを一旦順次格納するデータ格納部502と、データ格納部502からPDLデータを読み出して解釈しページ単位のイメージデータ(ラスタデータ)を生成(ラスタライズ)するRIP処理部(ラスターイメージ処理部)510とを備える。
【0100】
RIP処理部510は、イメージデータ生成部の一例であって、ぺージ記述言語(PDL)で記述された電子データを展開してイメージデータを生成する。すなわち、RIP処理部510は、ページ記述言語PDLで表されたデータに含まれている文字や絵柄などを峻別可能な情報を参照してイメージデータを生成する。また、RIP処理部510は、イメージデータの個々の画素がテキストやグラフィックスの何れであるのかを示す属性情報を、ページ記述言語PDLで表されたデータに含まれている文字や絵柄などを峻別可能な情報を参照して生成し、イメージデータとともに後段(特にバックエンドプロセッサBEP部600)に送る。
【0101】
このため、RIP処理部510には、PDL解釈部およびイメージャとして機能するデコンポーザ、いわゆるRIPエンジンが組み込まれている。後述するように、RIP処理部510は、本実施形態特有のプリントエンジンに応じた専用RIPエンジンを搭載したものであってもよいし、汎用の印刷RIP処理エンジンを搭載したものであってもよい。なお、フロントエンドプロセッサFEP部500全体として、他社のRIP装置(DFE装置)を利用してもかまわない。
【0102】
また、フロントエンドプロセッサFEP部500は、画像オブジェクトの特性に適応した処理とするため、RIP処理部510により生成されたイメージデータを線画文字オブジェクトLWを現す線画データDLWおよび多階調画像オブジェクトCTを現す連続階調画像データDCTに分離した状態に展開するイメージデータ分離部520と、イメージデータ分離部520により分離された各イメージデータを所定のフォーマットにしたがって圧縮する圧縮処理部530とを備えている。
【0103】
圧縮処理部530は、イメージデータ分離部520からの各イメージデータを圧縮し、圧縮済のイメージデータをバックエンドプロセッサBEP部600へ即時に転送する。なお、フロントエンドプロセッサFEP部500は、印刷ジョブに付帯して受け取った印刷ジョブ内容を示すジョブチケットの内自身に不要なものは、所定のタイミングでバックエンドプロセッサBEP部600にそのまま転送する。
【0104】
この圧縮処理部530は、イメージデータ分離部520に対応して、線画文字オブジェクトLWと多階調画像オブジェクトCTとを個別に圧縮処理するため、それぞれイメージデータ分離部520により分離された、線画データDLWを圧縮処理するLW圧縮処理部532と、連続階調画像データDCTを圧縮処理するCT圧縮処理部534とを備える。
【0105】
フロントエンドプロセッサFEP部500にてページ記述言語で記述されたPDLデータは、RIP処理部510に入力された後RIP処理されてラスターイメージに変換され、さらに後段のイメージデータ分離部520にて、線画データDLWおよび連続階調画像データDCTに分離される。
【0106】
分離された線画データDLWはLW圧縮処理部532に送られ、連続階調画像データDCTはCT圧縮処理部534に送られ、それぞれに適した方法で圧縮される。
【0107】
ここで、線画に適した圧縮方法としては、G3,G4,TIFF−IT8のBL(バイナリラインアート),JBIG(Joint Bi-level Image Group)などがあり、連続階調画像に適した圧縮方法としては、TIFF6.0のPackBit,JPEG(Joint Photographic Expert Group )などがあり、共通の圧縮方法としてSH8,Lempel−Ziv,ハフマン符号化などがある。
【0108】
G3,G4,ハフマン符号化はファクシミリの分野で広く利用されている方法であり、ハフマン符号化は文字列の生起確率のバラツキを圧縮原理とするものである。
【0109】
JBIGは、伝送の初期の段階でラフではあるが全体画像を表示し、その後必要に応じて追加情報を加え、画品質の向上を図るプログレッシブビルドアップであり、白黒2値画像および中間調画像に対して統一的に適用できる。
【0110】
また、TIFF−IT8のBLはBLデータの各ラインを、背景色(黒)ランと前景色(白)ランのペアのシーケンスとして符号化するもので、各ラインは背景色ランで始まる。BLデータのランレングス符号化では2つの基本符号化構造が使用され、254画素までのランレングスを符号化するショート形式(8ビット長)を65,535画素までのランレングスを符号化するロング形式(24ビット長)があり、この2つの形式を混合使用できる。個々のラインンデータは2つのゼロのバイトで始まり、2つのゼロのバイトで終る。
【0111】
JPEGは、DCT(Discrete Cosine Transform)に基づくロスあり(lossy)の非可逆圧縮と、2次元DPCM(Differential Pulse Code Modulation)に基づくロスレス(lossless)の可逆圧縮に大きく分けられる。DCT方式はベースラインとエクテンデッド方式に分類され、ベースラインプロセスは最も簡単なDCT方式でJPEGの必須機能である。
【0112】
圧縮処理部530の後段には、LW圧縮処理部532により圧縮処理された線画データDLW1とCT圧縮処理部534により圧縮処理された連続階調画像データDCT1とをジョブチケットとともに1つの印刷ファイルに纏めてバックエンドプロセッサBEP部600にファイル転送するファイル転送部540を備える。
【0113】
このファイル転送部540には、出力側であるIOTモジュール2や出力モジュール7など画像記録部に非依存の通信インタフェースによりバックエンドプロセッサBEP部600との間の電気信号の伝送を採るインタフェース部が組み込まれている。
【0114】
フロントエンドプロセッサFEP部側の処理は、プリントエンジン30の処理速度に非同期で処理される。つまり、フロントエンドプロセッサFEP部500は、クライアント端末からPDLデータを受け取ると、順にラスタライズおよび圧縮処理をし、直ちに圧縮処理済のイメージデータをバックエンドプロセッサBEP部600に送出する。この過程で、ラスタライズや圧縮などの処理よりもクライアント端末からのPDLデータ受信処理の方が早ければ、フロントエンドプロセッサFEP部500は、間に合わないPDLデータをデータ格納部502に一時的に保管しておく。そして、受け取った順に(先入れ先出し法で)もしくは適当な順に(たとえば先入れ後出し法で)PDLデータをデータ格納部502から読み出して処理する。
【0115】
図5は、線画データDLWと連続階調画像データDCTの分離を説明する図である。ここで、図5(A)は第1の方法を示す図、図5(B)は第2の方法を示す図である。また、図5(C)および図5(D)は、線画データDLWと連続階調画像データDCTとを1つの印刷ファイルに纏める際の、線画データDLWと連続階調画像データDCTの優先度合いを説明する図である。
【0116】
図5(A)に示す第1の方法は、PDLデータ(ページ記述言語データ)から画像データを抽出して連続階調画像データDCTとし、残りのデータを線画データDLWとする。
【0117】
また、図5(B)に示す第2の方法は、RIP処理部510とイメージデータ分離部520とが連携して処理する構成となっている。すなわち、PDLデータD0を画像の配置情報D6とともに前処理部512に入力し、前処理部512はPDLデータD0の内の線画オブジェクトに対して、RIP処理機能と線画文字オブジェクトLWの分離機能とを備えたLWラスタメージ処理部523でラスター化して線画データDLWとして出力する。
【0118】
そして、画像の配置情報D6は前処理部512をそのまま通過して画像配置処理部516に入力され、画像データD8も画像配置処理部516に入力され、画像配置されたデータが、RIP処理機能と多階調画像オブジェクトCTの分離機能とを備えたCTラスタメージ処理部525でラスター化され、連続階調画像データDCTとして出力される。または、LWラスタメージ処理部525を経ないで、連続階調画像データDCTとして出力される。
【0119】
分離された2つの画像データ(線画データDLWと連続階調画像データDCT)は、それぞれ別のレイアとして配置され、1つの印刷ファイルに纏められる。ここで、線画データDLWは、階調画像を含まないパレットカラーまたは2値画像であり、連続階調画像データDCTは階調画像を含む階調データであり、線画データDLWより解像度は低い。
【0120】
ただし、線画データDLWがパレットカラーのときは、線画データの情報として最小限白/黒/透明を有する。そこでこの場合、図5(C)に示すように、線画データDLWが優先(上位)画像となる。また、線画データDLWが2値画像のときは透明の情報は持たず、連続階調画像データDCTに透明の情報を持つことになる。たとえば0=透明、1=白、…、255=黒である。この場合、図5(D)に示すように、連続階調画像データDCTが優先(上位)画像となる。
【0121】
一方、図4に示すように、バックエンドプロセッサBEP部600は、フロントエンドプロセッサFEP部500にて印刷ジョブやプリントエンジン30の処理特性とは独立的に処理された(たとえばプリントエンジン30の処理速度に非同期で処理された)圧縮済のイメージデータを含む印刷ファイル(線画データDLW1、連続階調画像データDCT1、およびジョブチケットを含む)をファイル転送部540から受け取り、受け取った印刷ファイルを画像記憶部602に格納する印刷ファイル受信部の一例である分離データ受信部601を備える。
【0122】
この分離データ受信部601には、出力側であるIOTモジュール2や出力モジュール7など画像記録部に非依存の通信インタフェースによりフロントエンドプロセッサFEP部500との間の電気信号の伝送を採るインタフェース部が組み込まれている。
【0123】
また、バックエンドプロセッサBEP部600は、画像記憶部602から圧縮済のイメージデータを読み出して、フロントエンドプロセッサFEP部500側の圧縮処理部530の圧縮処理に対応する伸張処理をし、この伸張処理済のイメージデータをIOTコア部20側に送出する伸張処理部610を備える。
【0124】
伸張処理部610は、画像記憶部602から読み出し伸張処理したイメージデータに対して、画像回転や用紙上の画像位置の調整、あるいは拡大もしくは縮小など、画像編集機能を備えている。なお、この画像編集機能なす機能部分を伸張処理部610とは独立的に設けてもかまわない。
【0125】
この伸張処理部610は、フロントエンドプロセッサFEP部500の圧縮処理部530に対応して、線画文字オブジェクトLWと多階調画像オブジェクトCTとを個別に伸張処理するため、LW圧縮処理部532により圧縮処理された線画データDLW1を伸張処理するLW伸張処理部612と、CT圧縮処理部534により圧縮処理された連続階調画像データDCT1を伸張処理するCT伸張処理部614とを備える。
【0126】
また、バックエンドプロセッサBEP部600は、IOTコア部20の処理性能に依存してバックエンドプロセッサBEP部600の各部やIOTコア部20を制御するプリンタコントローラとして機能する印刷制御部620を備える。
【0127】
なお図示していないが、印刷制御部620は、フロントエンドプロセッサFEP部500から渡されたジョブチケットを解釈(デコード)し、あるいはGUI部80を介したユーザ指示を受けて、プリントエンジン30や定着部70あるいはフィニッシャの処理特性に応じて出力形態(ページ内の画像位置、あるいはページ排出順や向きなど)を特定する出力形態特定部と、この出力形態特定部が特定した出力形態で印刷物が出力されるように、プリントエンジン30や定着部70あるいはフィニッシャなどの各部を制御する制御部とを備える。
【0128】
また、印刷制御部620は、フロントエンドプロセッサFEP部500から伝達されるイメージデータを含む印刷ファイルから、形式情報を抽出する形式情報抽出部の機能も備える。さらに、印刷制御部620は、フロントエンドプロセッサFEP部500から伝達される画像オブジェクト(すなわちイメージデータ)の属性を示すイメージ識別情報LW/CTを抽出する属性情報抽出部の機能も備える。
【0129】
印刷制御部620は、たとえば、フロントエンドプロセッサFEP部500から送られた印刷ファイルの付加データDSELに含まれている形式情報を参照して、先ずイメージデータの属性を示すイメージ識別情報に係る形式情報を特定する。そして、特定した形式情報が透過コード方式の場合には、線画文字オブジェクトLWに対応するイメージデータLWの濃度情報からイメージ識別情報LW/CTを抽出する。一方、特定した形式情報がスクリーンフラグ方式の場合、印刷ファイルの付加データDSELに含まれているスクリーンフラグを取り出して、イメージ識別情報LW/CTとする。
【0130】
なお、イメージデータの属性を示す情報をイメージデータに添付して送付する技術として、複写装置やFAX装置などにおいては、スキャナで読み取りによって得られたイメージデータとともに、原稿の領域属性情報を送付する技術がある。しかしながら、この場合、読み取ったイメージデータから個々の画素がテキスト部分なのかグラフィックス部分なのかを判別(領域判別)し、この領域判別の結果をイメージデータとともに送付するものであるので、画素の属性は必ずしも正確ではなく、領域判別の性能の影響を受ける。
【0131】
これに対して、本実施形態では、たとえばページ記述言語PDLで表されたデータのように、文字や絵柄などを明確に峻別可能なデータに基づいてイメージデータを生成するとともに、ページ記述言語PDLなどで表された文字や絵柄など情報を参照して、そのイメージの画素の属性を示す属性情報を生成するので、画素の属性は正確である。したがって、この正確な属性情報に基づいて、それぞれに応じた処理を施すことで、精度のよい処理が可能となる。
【0132】
また、バックエンドプロセッサBEP部600は、伸張処理部610の後段に、個別に伸張処理された線画データDLWおよび連続階調画像データDCTを結合することで合成画像を得るイメージデータ結合部の一例であるマージ部630を備える。
【0133】
フロントエンドプロセッサFEP部500のイメージデータ分離部520にて分離された線画データDLWは、LW圧縮処理部532で圧縮されて出力側(フロントエンドプロセッサFEP部600)のLW伸張処理部612に転送され、連続階調画像データDCTはCT圧縮処理部534で圧縮されて出力側(フロントエンドプロセッサFEP部600)のCT伸張処理部614に転送される。
【0134】
伸張処理部612,614は、それぞれの圧縮方法に合った方法でデータ伸長し、データ伸長した線画データDLW2をマージ部630のLW解像度整合部632に、データ伸長した連続階調画像データDCT2をマージ部630のCT解像度整合部634に送る。
【0135】
マージ部630は、線画文字オブジェクトLWと多階調画像オブジェクトCTとの解像度を合わせる機能部分としてLW解像度整合部632およびCT解像度整合部634を備え、さらに解像度が合わされた線画文字オブジェクトLWと多階調画像オブジェクトCTとを1つの画像に統合する(纏める)画像結合部636を備える。
【0136】
LW解像度整合部632およびCT解像度整合部634は、2つの画像オブジェクトの解像度を合わせる。たとえば、連続階調画像データDCT2の解像度が400dpi(dot per inch;1インチ当たりの画素数)で線画データDLW2の解像度1200dpiの場合、連続階調画像データDCT2を3倍拡大して2種類の画像オブジェクトの解像度を合せる。LW解像度整合部632,634で解像度(dpi)を合せられた両データは画像結合部114に送られる。
【0137】
画像結合部114は、フロントエンドプロセッサFEP部500から送られた個々の画像オブジェクトの属性を示す情報に基づいて、線画文字オブジェクトLWと多階調画像オブジェクトCTとを切り分けることで1つの画像データD2に統合する。
【0138】
たとえば、線画文字オブジェクトLWは8ビット、多階調画像オブジェクトCTも8ビットで、画像オブジェクトの属性を示す情報(セレクト信号)が1ビットであるケースを考える。単純に、これらをフロントエンドプロセッサFEP部500からバックエンドプロセッサBEP部600に伝達しようとすると、トータルで17(=8+8+1)ビットが必要となる。
【0139】
これに対して、画像オブジェクトの属性を示す情報(イメージ識別情報と等価)に係る形式情報として、透過コード方式を使用する場合、たとえば線画文字オブジェクトLWの濃度情報“0”(階調がゼロ)に、属性判別情報を割り当てる。すなわち、線画文字オブジェクトLWの濃度情報が“0”の場合には、多階調画像オブジェクトCTの濃度情報が優先され、線画文字オブジェクトLWの濃度情報が“0”以外の場合には、線画文字オブジェクトLWの濃度情報が優先されるようにする。この場合、線画文字オブジェクトLWが再現し得る階調は255階調となる。
【0140】
たとえば、LW値=“0”時には、画像結合部636は、多階調画像オブジェクトCTの画像濃度を、出力画像データD2にそのまま載せる。たとえば、LW値=“0”,CT値=“200”の画素については、CT値=“200”を出力画像データD2の値として選択する。
【0141】
一方、LW値=“0”以外のときには、LW値が“1”の場合とLW値=2〜255の場合とで処理を切り分ける。たとえば、画像結合部636は、LW値=“1”のとき、線画文字オブジェクトLWの画像データを優先して選択することで画像を統合(マージ)する。そして、階調補正処理部640における階調補正にて不要な画像成分が生じないよう(たとえばかぶり防止)、この後に、LW値=“1”を“0”に置換する。たとえば、LW値=“1”,CT値=“200”の画素については、LW値=“1”を出力画像データD2の値として選択し、その後“0”に置換する。このため、線画文字オブジェクトLWがマージ後に取り得るLW値は、0,2,3,4,…,255の255階調になる。
【0142】
また、LW値=2〜255の場合、画像結合部636は、LW画像を優先して選択し、マージ後も出力画像データD2にそのままリニアに載せる。たとえば、LW値=“255”,CT値=“0”の画素については、LW値=“255”を出力画像データD2の値として選択し、“255”のまま出力する。
【0143】
なお、IOTコア部20のパターンジェネレータ部762(後述する図7(B)を参照)から発せられるテスト信号を用いたPG冶具モードで稼動する場合は、イメージ種(画像オブジェクトの属性)に関わらず、線画文字オブジェクトLW(RAW値)で処理する。
【0144】
前述の例では、イメージ識別情報に基づいて、何れか一方の濃度情報のみを出力画像データD2に反映させるようにしていた、すなわち、2レイアで送られたイメージデータLW,CTの加算比率(いわゆる重付け)を、“100対0”にしていたが、必ずしも、このような画像統合(マージ)でなくてもよい。
【0145】
たとえば、線画文字オブジェクトLW部分はイメージデータLWの割合が多くなり、逆に多階調画像オブジェクトCT部分はイメージデータCTの割合が多くなるよう、イメージ識別情報に基づいて2レイアで送られたイメージデータLW,CTの加算比率(いわゆる重付け)を“100対0”以外のものに切り替える、つまりマージの優先度を調整するようにしてもよい。また、スキャン系画像とプリント系画像の識別を示す情報もフロントエンドプロセッサFEP部500からバックエンドプロセッサBEP部600に伝達することとし、この情報とイメージ識別情報の両者を参照して、画像統合時の重付けを調整する構成としてもよい。
【0146】
以上のように、本実施形態の構成によれば、フロントエンドプロセッサFEP部500のRIP処理部510から出力側であるバックエンドプロセッサBEP部600側に転送する画像データの圧縮において、線画文字オブジェクトLWおよび多階調画像オブジェクトCTに分離してそれぞれに適した圧縮方法を使用しているため、データの圧縮率を上げることができる。
【0147】
たとえば、A2サイズの270MBが従来(第1実施形態も)では67MBの圧縮であったが、第2実施形態では16MBまで圧縮できる。また、PDLデータのラスターイメージ処理には時間が掛かるが、オブジェクト属性に応じて分離してから個々にラスターイメージ処理(ラスタライズ)をするようにすれば、RIP処理時間を短縮することもできる。
【0148】
また、バックエンドプロセッサBEP部600は、マージ部630にて統合された画像データD2に対して、プリントエンジン30や定着器70の特性に依存した階調特性(TRC;Tone Reproduction Curve )の補正処理(TRC;Tone Reproduction Correction;色調補正制御処理)をする階調補正処理部640を備えている。
【0149】
階調補正処理部640は、YMCKの各色のデジタル画像データを、たとえばルックアップテーブルLUTを参照してガンマ(γ)補正する。また、階調補正処理部640は、プリント出力信号処理系統の内部の特性値である濃度あるいは明度を表す各色の画像データY,M,C,Kを、プリントエンジン30の特性値の面積率に応じて、色補正処理する。これらの手法に関しては公知技術であるので、その詳細説明を割愛する。
【0150】
この階調補正処理部640により処理されたYMCKデータは、インタフェース部650を介してIOTコア部20の中間調処理部に入力され、この中間調処理部にてハーフトーニング処理(疑似中間調処理)やスクリーン処理が施された後に、プリントエンジン30の光源に変調2値化信号として入力される。
【0151】
階調補正処理部640は、TRC面として、後述するスクリーン種に対応した数のものを使用する。たとえば、後述するように、スクリーンは150C(Cluster;クラスタ),200C,200R(Rotation ;ローテーション/斜交スクリーン),300,600の5種類を基本構成とするので、スクリーン種5×1面=5面(色剤ごと)を持つものとする。なお、ページ間でダイナミックに補正をかける場合を考慮し、事前展開用RAMエリアを十分に確保することが望ましい。
【0152】
本実施形態においては、階調補正処理におけるグレイバランス補正は、ジョブ前に装置内の各部の状態を診断する診断処理(Diagnostic)機能にて行なう非同期の手法を用いる。
【0153】
それぞれの色調補正制御処理TRCは画像オブジェクト単位(事実上、画素単位)で切り替え可能とし、1ページ中には最大3スクリーンが存在するため(後述のスクリーンについての説明を参照)、3種類の色調補正制御処理(3TRC)の切替えが発生する。切替えの方法は、ハードウェアHW外部タグ(Tag)による方法と、ASIC(特定用途向けIC)で実装しているエリアタグ(Area
tag)による内部Tag切替えの両方を実装する。
【0154】
ここで、外部tagの場合、線画文字オブジェクトLWのLW値=“00h”(hはヘキサデータを意味する)を参照して、色調補正制御処理TRCを切り替える場合と、スクリーンフラグを参照して切り替える場合が存在する。
【0155】
また、ルックアップテーブルLUT切替え時(SWLUT)の設定時間を考慮し、色調補正制御処理をパスさせること(TRCスルー)の実現は、LUTパラメータでスルーを構成しなくてもよいように、各面独立にスルーモードレジスタ(バイパスでも可)を設けておく。
【0156】
この階調補正処理部640においては、フロントエンドプロセッサFEP部500からバックエンドプロセッサBEP部600に伝達される画像オブジェクトの属性を示す情報に基づいて、階調補正カーブを切り替える。
【0157】
図6は、画像オブジェクト(すなわちイメージデータ)の属性を示す情報に基づいて、階調補正カーブを切り替える手法の一例を示す図である。たとえば、プリントエンジン30の階調再現特性がリニアでなく、図6(A)に示すように、やや硬調の(ガンマγが立っている)場合を考える。
【0158】
多階調画像オブジェクトCTは、階調再現性が重要視されるので、印刷出力時の階調再現性がリニアとなるように、階調補正処理部640は、図6(B)に示すように、プリントエンジン30の階調再現特性と逆特性のやや軟調の補正カーブを多階調画像オブジェクトCTに適用する。こうすることで、補正後の階調再現性は略リニアになる。
【0159】
これに対して、線画文字オブジェクトLWの場合には、コントラストが強い方が好ましい。本例においては、プリントエンジン30の階調再現特性が硬調であるので、プリントエンジン30の階調再現性をそのまま適用してもかまわない。そこで、階調補正処理部640は、図6(C)に示すように、略リニアな補正カーブを線画文字オブジェクトLWに適用する。こうすることで、補正後の階調再現性は硬調となり、コントラストの強い画像が得られるようになる。
【0160】
このように、本実施形態の構成によれば、階調補正処理部640は、フロントエンドプロセッサFEP部500から伝達されたイメージ識別情報を参照することで、1ページ内においてオブジェクト単位で階調補正特性を切り替えることができる。これにより、文字・線画と背景部のきめ細かな階調調整が達成でき、オンデマンドプリンティングとして要求される高度な印刷品質を得ることが可能となる。
【0161】
図7は、IOTコア部20における中間調処理部の一例を示す図である。ここで、図7(A)は、中間調処理部760の全体構成を示す図、図7(B)は、スクリーン処理部766の一構成例を示す図、図7(C)は、スクリーン生成の概念を説明する図である。なお、図7(B)に示すスクリーン処理部766の構成例は、スクリーン切替えの原理を説明するために用いたもので、実際のものは、この図7(B)に示したものとは異なる。
【0162】
図7(A)に示すように、IOTコア部20は、前述のプリントエンジン30の他に、中間調処理をする信号処理系統として、パターンジェネレータ部(PG)762、デジタルシグナルプロセッサ(Degital Signal processor)部764、アナログスクリーンの手法を利用するスクリーン処理部766、および電子写真プロセス用の各種部材を有するROS(Raster Output Scanner )ベースのプリントエンジン(マーキングエンジン)を制御するROS制御部768を具備した中間調処理部760をYMCKの色ごと(ハーフトーンY〜K;HalftoneY〜K)に備える。
【0163】
パターンジェネレータ部(PG)762は、IOTコア部20単体で検査をするためのテスト信号を発生する。また、1次色〜3次色のキャリブレーション処理に使用される、所定の1次色、所定の2次色、および所定の3次色(特に記憶色)を表すテストパッチデータを出力する。また、グレイバランス用のテストパッチデータも出力する。
【0164】
このパターンジェネレータ部(PG)762からのテストパッチデータと、バックエンドプロセッサBEP部600からのテストパッチを配した1ページ分の標準画像データとの違いは、ページ単位であるのか否かである。何れのデータをテスト信号として使うかは、キャリブレーションの手法に依る。ここではその詳細についての説明を割愛する。
【0165】
デジタルシグナルプロセッサ部764は、たとえば1次元ルックアップテーブルLUTを用いて入り口側との間で階調補正をする機能部分764a、ユーザの好みの階調に合わせる機能部分764b、プリントエンジン30側との間で階調補正をする機能部分764cを備える。
【0166】
クリーン処理部766は、プロセスカラーの階調トナー信号をオン/オフの2値化トナー信号に変換し出力するものであり、閾値マトリクスと階調表現されたデータ値との比較による2値化処理とエラー拡散処理を行なう。本構成例のスクリーン処理部766は、網点形状やスクリーン角設定の自由度は少ないが、解像度と階調数のトレードオフのない方式であるアナログ方式のスクリーン生成技術を利用する。
【0167】
ROS制御部768は、スクリーン処理部766によりハーフトン化された2値化トナー信号をプリントエンジン30の光源37に送り、たとえば400dpi(略16ドット/mm)に対応するように、ほぼ縦80mφ、幅60μmφの楕円形状のレーザビームをオン/オフして中間調の可視画像を用紙上に再現する。
【0168】
スクリーン処理部766は、図7(B)に示すように、デジタルシグナルプロセッサ部764からの8ビットのデジタルデータをアナログ信号に変換するD/A変換器782、D/A変換後のアナログ画像信号に対してのバッファ機能をなすバッファ部(BA;Buffer Amp)783、およびスクリーン処理用のパターン信号(本例では所定周波数の三角波)を生成するパターン生成器784a,784bを備える。パターン生成器784aは、200線用の三角波を発生し、パターン生成器784bは、400線用の三角波を発生する。
【0169】
また、スクリーン処理部766は、D/A変換後のアナログ画像信号とパターン生成器784a,784bからの三角波のDCレベルを合わせるためのDCバイアスを発生するDCバイアス部786a,786b、DCバイアス部786a,786bからのDC成分をパターン生成器784a,784bからの三角波に重畳する加算部787a,787b、D/A変換後のアナログ画像信号とDCバイアス分が重畳された三角波とを比較するコンパレータ(COMP)788a,788b、および2つのコンパレータ788a,788bの出力の何れか一方を選択して出力する選択部789を備える。
【0170】
この構成においては、図7(C)に示すように、たとえば、256階調を有するデジタル信号をD/A変換器782でD/A変換してアナログ信号化した後、このアナログ信号化した信号SAとパターン生成器784a,784bで発生された三角波信号SPa,SPbとをコンパレータ788a,788bで大小比較することで、画素ごとに256分割(すなわち256階調)のパルス幅変調信号を得る。そして、プリントエンジン30の光源37を駆動することで画像記録を行なわせる。
【0171】
この方式によってできるスクリーンは、パターン生成器784a,784bで生成可能な波形で決定されるため、通常、万線スクリーンとなり、ドット形状を自由に変えることはできない。なお、三角波のリニアリティが階調特性のリニアリティに影響を与え、周波数が高いほどリニアリティが悪いので、一般的には、線数の小さいスクリーンの方が階調特性のリニアな画像が得られる。
【0172】
なお、図7(B),(C)に示した構成は、スクリーンを切り替えるための原理を説明するものであり、本実施形態では、さらに後述するように、3種以上のスクリーンの中から、画像オブジェクトごとにスクリーンを切り替えるようにする。たとえば、IOTコア部20で選択可能なスクリーン種として、150C,200C,200R,300R,600dpi/8ビットの5種を基本とし、さらに1200dpi/1ビットや2400dpi/1ビットを拡張機能として切替え可能にしてもよい。たとえばスクリーンフラグ有りのときのみ、拡張機能を有効とする。
【0173】
ここで、DFE装置すなわちフロントエンドプロセッサFEP部500とバックエンドプロセッサBEP部600との間の信号として、スクリーンフラグ(flag)有りを指定可能なときには、画像オブジェクトごとのスクリーン指定はDFE装置上で行なわれ、DFE装置側は1ページ中で3〜4種のスクリーン種を切り替えたい場合は2ビットのスクリーンフラグビットでバックエンドプロセッサBEP部600側へスクリーン種を指示する。すなわち、基本的には、1ページ中で取り得るスクリーン種は最大4種類である。
【0174】
具体的には、先ずDFE装置は、ジョブチケットでスクリーンフラグ(tag)有りを受信する。DFE装置は、スクリーンの画像オブジェクト1(本例では線画文字オブジェクトLW)、画像オブジェクト2(本例では多階調画像オブジェクトCT)といった、それぞれのスクリーン種(150C/200C/200R/300/600)を指定し、ジョブチケットでバックエンドプロセッサBEP部600へ通知する。
【0175】
なお、ここで想定しているのは、後述する図10のように、線画文字オブジェクトLWは200C,300,600の中で1種類指定し、多階調画像オブジェクトCTは200C,200R,300,150Cの中から1種類指定可能とし、黒文字(Black text)や黒線(Black line)では1200dpi/1ビットをIOTコア部20側に指示させることも可能とする。
【0176】
なお、フロントエンドプロセッサFEP部500(DFE装置)とバックエンドプロセッサBEP部600との間では、2ビット/4種類のスクリーンが取り得ても、実際はIOTコア部20の回路上の制限から、実際には3種のスクリーンが最大である。
【0177】
IOTコア部20側に出力させるスクリーンは4ビットであり、DFE装置から指示されたスクリーンフラグビット(2ビット)からのデコードは、バックエンドプロセッサBEP部600で行なう。
【0178】
バックエンドプロセッサBEP部600はDFE装置から指定された画像オブジェクト1,2(LW/CT)のスクリーン種類をSys部85経由でIOTコア部20へ通知する。
【0179】
DFE装置からは、スクリーンビットに関して、表1に示すような意味付けを持たせることができる。そのため、バックエンドプロセッサBEP部600内部に各色ごとに2ビット→4ビットデコードのロジックRAMやレジスタを実装する。
【表1】

Figure 0004352669
【0180】
図8は、バックエンドプロセッサBEP部600におけるイメージ識別情報LW/CTのデコード手法の一例を示す図である。ここで、図8(A)は、形式情報がスクリーンフラグ方式で示される場合のバックエンドプロセッサBEP部600とIOTコア部20との間のスクリーンタグ(Screen Tag)信号の一例を示し、図8(B)は、形式情報が透過コード方式で示される場合のバックエンドプロセッサBEP部600とIOTコア部20との間のスクリーンタグ信号の一例を示す。
【0181】
図8(A)に示すように、スクリーンフラグ方式が採用される場合、フロントエンドプロセッサFEP部500側では、たとえば2ビットの属性情報を各8ビットのイメージデータとパックして(纏めて)、1つの印刷ファイルとしてバックエンドプロセッサBEP部600へ転送する。これを受けて、バックエンドプロセッサBEP部600の印刷制御部620は、それをデコードして階調補正特性の切り替えや画像統合処理(マージ)の優先情報に、あるいはエンジン側のスクリーン線種の切り替えに用いる。
【0182】
また、図8(B)に示すように、透過コード方式が採用される場合、フロントエンドプロセッサFEP部500は、線画文字オブジェクトLWに対応するイメージデータの濃度情報にイメージ識別情報LW/CTを埋め込む。これを受けて、バックエンドプロセッサBEP部600側では、フロントエンドプロセッサFEP部500から送られてきたLW側の00h(透過コード)を参照し、印刷制御部620でLW/CT独立に2種類のスクリーンが切り替えられるスクリーンタグ信号に置き換える。そして、00hならCT側の濃度を出力し、00h以外ならLW側をマージ時に選択する。また、この透過コードを参照し、LWとCT用の階調特性(TRC)を切り替える、画像統合処理(マージ)の優先度合いを切り替える、あるいはエンジン側のスクリーン線種を切り替えさせる。
【0183】
これを受けて、IOTコア部20は、バックエンドプロセッサBEP部600にてデコードされた情報を参照して、1ページ内において、個々の画像オブジェクトに応じて、スクリーン線種を切り替える。
【0184】
図9および図10は、IOTコア部20にてスクリーンを切り替える態様の一例を示す図である。ここで、図9は、バックエンドプロセッサBEP部600とIOTコア部20との間の信号として、スクリーンフラグがある場合の一例を示し、図10は、スクリーンフラグがない場合の一例を示す。
【0185】
図11は、クラスタスクリーンとローテーションスクリーンの概要を示す図である。ここで、図11(A)はクラスタスクリーンマトリクス(単位パターン×4)の例を示し、図11(B)はローテーションクリーンの例を示す。
【0186】
疑似中間調画像を生成するためのハーフトーンスクリーンとは、原画像の画素値との大小比較を行ない、その結果により2値のハーフトーン画素値を生成するための、2次元閾値値配列である。通常、この2次元閾値配列は単位パターンとして構成し、画像に対して2次元的に繰り返して適用される。
【0187】
単位パターンは、ハーフトーン階調を表現する基本単位であり、いわゆる渦巻型ディザパターンでの例では、4×4マトリクスの各セルに格納した閾値配列が単位パターンである。この場合、階調数は16である。単位パターンを複数連結することでより階調数の多いスクリーンを作成することも行なわれる。これは、クラスタタイプのスクリーンといわれ、たとえば図11(A)にて示す通りである。
【0188】
この図11(A)のスクリーンでは、階調数は64である。単位パターンが大きい程、またクラスタとしての連結数が多い程、階調数は多くなるが、基本単位は2次元的に拡大するので、解像度は低下する。すなわち、階調数と解像度は相反する関係にあり、要求仕様に基づいて最適化された関係に設計される。
【0189】
画像処理装置、たとえばゼログラフィによるプリンタ装置では、通常、網点形成法によるハーフトーン化が用いられている。ゼログラフィでは、単独のドットを複数個出力するよりも、クラスタ状に固めて出力した方が安定した画像出力が得られるという性質があり、この点で網点形成法は、ゼログラフィに適したハーフトニング法であるということができる。
【0190】
一方、直交格子または斜交格子を用いて網点の核を生成し、この核から目標の網点形状に合わせた成長を行なうことによって閾値マトリックスを生成するのがローテーションスクリーンである。ここで、空間座標に対して任意角度を持った直交格子を閾値マトリックスに利用したスクリーンが直交格子スクリーンといわれ、格子の交わり角度が90度以外のものを含む格子から作成されるスクリーン全般が斜交格子スクリーンといわれている。
【0191】
直交格子スクリーンは、斜交格子スクリーンの特別な場合、すなわち格子の交わり角度が90度の場合である。このことから、斜交格子スクリーンは、直交格子スクリーンよりも幅広いスクリーンサイズ、角度、線数の条件を満たすことは明らかである。以下特に断らない限り、直交格子スクリーンも斜交格子スクリーンに含めて考える。
【0192】
斜交格子は、空間座標のx軸、y軸に対して、それぞれ角度θと角度ωの平行直線で作成する。この場合、平行直線の線間隔は固定値をとらなくてはならないが、図11(B)に示すように、それぞれの角度が異なる線間隔L1,L2をとることは可能である。
【0193】
なお、スクリーンによっては、たとえばハイライト部やシャドー部が潰れてしまうという現象が起こることがある。このため、ハーフトーン化処理を行なう前に、この潰れなどを見込んで、階調補正処理部640にて階調補正を行なって、元の多階調画像のトーンカーブ修正を行なうようにしてもよい。
【0194】
次に、スクリーンを画像オブジェクトに応じて使い分ける手法の考え方について説明する。スクリーンとしてクラスタCを使用すると、ドットなのでスクリーン角度が90度範囲で振れる。また印字部分が集中しているのでローテーションR(ライン)よりも階調性がよい。これに対して、ローテーションR(ライン)を使用すると、ラインなのでスクリーン角度が180度で振れるのでモアレに強いが、角度方向成分が強いので中間調の細線が抜け易い。
【0195】
また150線では、ガンマγがリニアに近くエンジンの安定性がよいが、キメが粗くなり、中間調細線が消失し易い。200線では、ガンマγが若干立っているが、その他の特性は普通である。300線は、ガンマγがきつく粒状性が悪いが、キメが細かい。ただし、階調性に関しては改善の余地がある。
【0196】
各スクリーンの性質は上記の通りであるが、実際には、使っているエンジン特性ともからむので、一概には言えない部分もある。どのようなスクリーンを選択すべきかの判定に際しては、たとえば、以下の点を考慮するのがよい。
1)階調性最重視、安定性重視のプレゼンテーション原稿(プリンタのクリエーション出力)などには150C(150線クラスタ)が向いている。
2)地図のような精細画像の出力には300線が向いている。
3)印画紙写真のスキャン画像は周期構造を持たず、キメ細かさと素直なガンマγが要求されるので、200C(200線クラスタ)が向いている。
4)印刷写真のスキャン画像やプリントの混在原稿は周期構造を持っているので、モアレ懸念のため200R(200線ローテーション)が適している。
5)中間調細線を表の罫線として使用するアプリケーションソフトウェアの画像を印刷する場合は、200C(200線クラスタ)が向いている場合もある。
【0197】
なお、クラスタCとローテーションRの使い分けは難しく、エンジン特性と関係する。モアレが見え難いものであれば、クラスタCで一本化することも可能である。ただ、装置によっては、クラスタCよりもローテーションRの方が階調性がよいというケースもある。このような場合には、200Rを各モード(プリンタ/コピーとも)のメインとして使用してもよい。
【0198】
本実施形態のバックエンドプロセッサBEP部600は、画像オブジェクトの属性を示す情報をイメージデータともにフロントエンドプロセッサFEP部500から受け取る。そして、1ページ内において、たとえば、線画文字オブジェクトLWについては600線スクリーンを使用し、多階調画像オブジェクトCTについては200線スクリーンを使用するというように、画像オブジェクトごとにスクリーンを切り替えるよう、IOTコア部20を制御する。
【0199】
また、印画紙写真のスキャン画像の印刷時には、200線クラスタスクリーンを使用することで、周期構造を持たずキメ細かさと素直なガンマγの画像を出力可能とし、印刷写真のスキャン画像やプリントの混在原稿の印刷時には、モアレの生じ難い200線ローテーションスクリーンを使用することができる。
【0200】
このように、本実施形態によれば、IOTコア部20側で、画像オブジェクト単位(事実上画素単位)のスクリーン切替えが可能となり、文字・線画と背景部の階調特性やスクリーンによる高画質が達成可能となり、オンデマンドプリンティングとして要求される高度な印刷品質を得ることが可能となる。
【0201】
また、透過コード方式とスクリーンフラグ方式などイメージ識別情報の形式を峻別する形式情報を印刷ファイルに記述しておき、バックエンドプロセッサ側では受け取った印刷ファイルの記述を参照して透過コード方式とスクリーンフラグ方式とを自動的に判別することで、たとえばLW/CT独立に、階調補正特性、スクリーン種、マージの優先度を自動的に決めることができる。すなわち、システムに接続されるフロントエンド側が異なる仕様のメーカである場合に、両者間でイメージ識別情報の形式に関してのネゴシエーションを行なわなくても、イメージデータ生成装置が採用しているイメージ識別情報の形式を自動判別することができるので、生産性を低下させることなく、個々の画像オブジェクトに対して、それぞれに好適な画像処理を施すことができる。
【0202】
これにより、システムに接続されるフロントエンド側が異なる仕様のメーカであったとしても、混在してバックエンドを経由してエンジン側へイメージデータを出力することが可能となり、ビジネスチャンスの拡大とお客様の既存RIPエンジンを生かした印刷システムを構築することができるようになる。
【0203】
以上、本発明を実施形態を用いて説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。発明の要旨を逸脱しない範囲で上記実施形態に多様な変更または改良を加えることができ、そのような変更または改良を加えた形態も本発明の技術的範囲に含まれる。
【0204】
また、上記の実施形態は、クレーム(請求項)にかかる発明を限定するものではなく、また実施形態の中で説明されている特徴の組合せの全てが発明の解決手段に必須であるとは限らない。前述した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜の組合せにより種々の発明を抽出できる。実施形態に示される全構成要件から幾つかの構成要件が削除されても、効果が得られる限りにおいて、この幾つかの構成要件が削除された構成が発明として抽出され得る。
【0205】
たとえば、上記実施形態では、テキストオブジェクトとグラフィックスオブジェクトという個々の画像オブジェクトに対応する2つの圧縮イメージデータLW,CTを2レイアで送り、また個々の画素ごとにオブジェクト属性情報(すなわちイメージ識別情報)を付帯情報として対応付けて送るようにしていたが、テキストオブジェクトとグラフィックスオブジェクトとを纏めて1つのイメージデータとして送るとともに、そのイメージを構成する個々の画像オブジェクトごとにオブジェクト属性情報を付帯情報として対応付けて送るようにしてもよい。この場合においても、オブジェクト属性情報を参照して、個々の画像オブジェクトに対応するように画像処理(たとえば、階調補正処理やスクリーン種別など)の特性を切り替えるとよい。
【0206】
また、上記実施形態では、記録媒体上に可視画像を形成する主要部であるプリントエンジンとして電子写真プロセスを利用するものに対して、本発明を適用した事例を説明したが、本発明の適用範囲は、これに限定されない。たとえば感熱式、熱転写式、インクジェット式、あるいはその他の同様な従来の画像形成機構を備えたエンジンにより普通紙や感熱紙上に可視画像を形成する構成の画像形成装置を備えた画像形成システムに本発明を適用し得る。
【0207】
また、上記実施形態では、画像形成装置として、電子写真プロセスを利用したプリントエンジンを備える印刷装置(プリンタ)を例に説明したが、画像形成装置は、これに限らず、カラー複写機やファクシミリなど、記録媒体上に画像を形成するいわゆる印刷機能を有するものであればよい。
【0208】
また、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、上記実施形態で述べた効果は達成される。この場合、記憶媒体から読出されたプログラムコード自体が前述した実施形態の機能を実現することになる。また、コンピュータが読出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行ない、その処理によって前述した実施形態の機能が実現される場合であってもよい。
【0209】
さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行ない、その処理によって前述した実施形態の機能が実現される場合であってもよい。
【0210】
【発明の効果】
以上のように、本発明によれば、画像オブジェクトの属性を示す情報を、たとえば透過コード方式やスクリーンフラグ方式などで、イメージデータを生成するフロントエンドプロセッサFEP部からバックエンドプロセッサBEP部に伝達するようにした。またこのとき、透過コード方式とスクリーンフラグ方式などイメージ識別情報の形式を峻別する形式情報を印刷ファイルに記述しておき、バックエンドプロセッサ側では、受け取った印刷ファイルに記述されている形式情報を参照するようにした。
【0211】
これにより、システムに接続されるフロントエンド側が異なる仕様のメーカである場合に、両者間でイメージ識別情報の形式に関してのネゴシエーションを行なわなくても、イメージデータ生成側が採用しているイメージ識別情報の形式を自動判別することができる。
【0212】
そして、自動判別した電送方式に基づいて画像オブジェクトの属性を示すイメージ識別情報を特定し、このイメージ識別情報に基づいて、1ページ内において個々のオブジェクトごとに、たとえば階調特性を切り替えたり、IOTコア部側でオブジェクト単位のスクリーン切替えたりするようにした。
【0213】
これにより、文字・線画と背景部の階調特性やスクリーンによる高画質が達成可能となり、オンデマンドプリンティングとして要求される高度な印刷品質(画像品質)を得ることが可能となる。
【0214】
加えて、イメージデータ生成機能を有するフロントエンドプロセッサと画像処理機能を有するバックエンドプロセッサとの間でイメージ識別情報の形式に関してのネゴシエーションを行なわなくてもイメージデータ生成側が採用しているイメージ識別情報の形式を自動判別することができるので、生産性を低下させることなく、個々の画像オブジェクトに対して、それぞれに好適な画像処理を施すことができる。
【0215】
これにより、システムに接続されるフロントエンド側が異なる仕様のメーカであったとしても、混在してバックエンドを経由してエンジン側へイメージデータを出力することが可能となり、ビジネスチャンスの拡大とお客様の既存RIPエンジンを生かしたシステムを構築することができるようになる。
【図面の簡単な説明】
【図1】 本発明に係る画像形成システムの一実施形態を示す図である。
【図2】 フロントエンドプロセッサFEP部とバックエンドプロセッサBEP部の機能役割分担の一例を纏めて示した図である。
【図3】 従来の画像形成システムと本実施形態の画像処理システムを適用した画像形成システムとの差を説明する図である。
【図4】 フロントエンドプロセッサFEP部およびバックエンドプロセッサBEP部の一実施形態を示すブロック図である。
【図5】 線画データDLWと連続階調画像データDCTの分離を説明する図である。
【図6】 画像オブジェクトの属性を示す情報に基づいて、階調補正カーブを切り替える手法の一例を示す図である。
【図7】 中間調処理部の一例を示す図である。
【図8】 バックエンドプロセッサBEP部におけるイメージ識別情報のデコード手法の一例を示す図である。
【図9】 IOTコア部にてスクリーンを切り替える態様の一例を示す図である。(スクリーンフラグがある場合)
【図10】 IOTコア部にてスクリーンを切り替える態様の一例を示す図である。(スクリーンフラグがない場合)
【図11】 クラスタスクリーンとローテーションスクリーンの概要を示す図である。
【符号の説明】
1…画像形成装置、2…IOTモジュール、5…フィードモジュール、7…出力モジュール、8…ユーザインタフェース装置、9…連結モジュール、20…IOTコア部、30…プリントエンジン、31…光走査装置、32…感光体ドラム、39…電気系制御収納部、43…中間転写ベルト、45…2次転写部、70…定着器、80…GUI部、500…フロントエンドプロセッサFEP部(イメージデータ生成装置)、502…データ格納部、510…RIP処理部、516…画像配置処理部、520…イメージデータ分離部、523…LWラスターイメージ処理部、525…CTラスターイメージ処理部、530…圧縮処理部、532…LW圧縮処理部、534…CT圧縮処理部、540…ファイル転送部、550…結合部、600…バックエンドプロセッサBEP部(画像処理装置)、601…分離データ受信部(印刷ファイル受信部)、602…画像記憶部、610…伸張処理部、612…LW伸張処理部、614…CT伸張処理部、620…印刷制御部(形式情報抽出部、属性情報抽出部)、630…マージ部、632…LW解像度整合部、634…CT解像度整合部、636…画像結合部、640…階調補正処理部、760…中間調処理部、762…パターンジェネレータ部、764…デジタルシグナルプロセッサ部、766…スクリーン処理部、768…ROS制御部[0001]
BACKGROUND OF THE INVENTION
  The present invention relates to an image processing apparatus, an image processing system including the image processing apparatus as a component, an image processing method used in the image processing apparatus and system, and a program.ToRelated. More specifically, the present invention relates to an image processing method for separately handling image data for each image object, such as dividing image data for printing into line drawing data and continuous tone image data.
[0002]
[Prior art]
An image forming apparatus having a printing function such as a printer or a copying apparatus is used in various fields. Also, today, image forming apparatuses are colorized and are used as various expression means for users. For example, a color page printer apparatus using an electrophotographic process (xerography) has attracted attention in terms of high quality image quality or high speed printing.
[0003]
On the other hand, in terms of printing functions, such as personal use at home and business use in the office, which requires a relatively small print output (for example, several jobs to several tens of sheets), bookbinding, etc. The printing industry is roughly classified into those requiring a relatively large-scale print output (for example, one job is several thousand sheets or more). In the former case where a relatively small-scale print output is required, many of them (except for stencil printing, for example) receive print data and output a printed matter without generating a block. On the other hand, in the latter case where a relatively large-scale print output is required, conventionally, a template is generated based on the print data, and a printed matter is output using the generated template.
[0004]
However, today, direct printing or on-demand printing (hereinafter referred to as on-demand printing) that prints directly from DTP data due to changes in the printing process due to the spread of DTP (DeskTop Publishing / Prepress), the so-called “digital revolution in printing”. Is attracting attention. In this on-demand printing, the pre-press process is performed without generating intermediate products such as paper printing (printing paper) such as photosetting in conventional printing (for example, offset printing), block printing, net negative, net positive, and PS plate. A system (CTP: Computer To Print or Paper) that outputs printed matter based only on electronic data by being completely digitized is adopted. In response to this demand for on-demand printing, attention has been paid to a printing function using an electrophotographic process.
[0005]
On the other hand, an image processing system for a printer requiring high quality is a system that comprehensively integrates and edits images such as characters and graphics (graphics). In particular, the desktop publishing field uses a page description language (PDL). : Page Description Language) is becoming possible.
[0006]
In such an image processing system for printers, image data is compressed and transmitted in order to improve data handling when processing characters and images in an integrated manner.
[0007]
In compression / decompression processing, for example, as described in Japanese Patent Laid-Open No. 8-6238, an image object (line drawing character object LW (Line Work)) mainly expressed in binary, such as a line drawing or a character, and a background portion are used. There is also a mechanism that handles image data separately according to the characteristics of the image object, such as an image object (multi-tone image object CT (Continuous Tone)) mainly represented in multiple gradations, such as a photograph part.
[0008]
However, in the technique described in Japanese Patent Laid-Open No. 8-6238, the background / line drawing is independently developed from the page description language PDL, compressed, and transferred to the output device. On the output device side, the same network type (screen) is used. ) Is applied to the background and line drawing.
[0009]
In on-demand printing, the xerographic engine is generally the mainstream, but it is recommended to select a screen with 600 lines, for example, in order to obtain high-definition, high-gamma γ images for line drawings and characters. In order to obtain a linear image, a screen type such as 200-line rotation is recommended.
[0010]
However, when the same screen is selected in one page, high-definition and linear images are not compatible. That is, image processing suitable for each object cannot be performed on the background and line drawing in one page.
[0011]
In order to solve this problem, the applicant of the present application disclosed in Japanese Patent Application No. 2002-252548 filed on the same day as the present application, in the image data generation apparatus, the image data for each attribute of each image object constituting the print data. The information is generated and sent to the image processing apparatus, and information (image identification information) indicating the attribute of each generated image data is sent to the image processing apparatus in association with the image data, and the image processing apparatus generates image data. Based on the image identification information received from the apparatus, a method of applying predetermined image processing adapted to the image data to each image data is proposed.
[0012]
In Japanese Patent Application No. 2002-252548, as a transmission method of image identification information, a method of embedding image identification information in density information of image data, and information (screen flag) indicating, for example, a screen type related to pseudo halftone processing. For example, a method of using identification information independent of image data as image identification information has been proposed.
[0013]
[Problems to be solved by the invention]
Here, in a system in which the image data generation device and the image processing device are closely connected, since the image processing device side knows in advance the image identification information transmission method employed by the image data generation device, many Even if image data of a page is sent from the image data generation device, the image processing device performs predetermined image processing suitable for the image data on the image data without any particular inconvenience (without reducing production). be able to.
[0014]
On the other hand, the applicant of the present application, for example, in Japanese Patent Application Nos. 2002-250331, 250332, and 250333, is a processing characteristic of an image recording unit (print engine) in a front-end processor having a function of an image data generation device. Independently generates image data, and a back-end processor having an image processing function and a printer controller function performs processing depending on the image recording unit and then controls to send the processed image data to the image recording unit. Proposes a mechanism.
[0015]
In this configuration, the front-end processor side is free from complicated processing according to engine characteristics, and the image data generation side and the back-end processor or engine side have a sparse (almost independent) connection relationship, The back-end processor side is free from image data generation processing, but has a close relationship with the engine, so that processing and control can be flexibly changed according to engine performance. This eliminates the need for the front-end processor side to be particularly familiar with engine characteristics and know-how, so that the general-purpose or other company's image generation engine can be used. A highly flexible system that can be connected can be constructed.
[0016]
However, the image identification information described in Japanese Patent Application No. 2002-252548 is added to a system in which the image data generation side described in Japanese Patent Application No. 2002-250331 and the back-end processor or engine side have a loose connection relationship. When a mechanism for performing image processing adapted to image data by electric transmission is applied, a new problem occurs. That is, since the back-end processor can be connected to various front-end processors, it cannot be specified in advance which front-end processor sends image data.
[0017]
As a result, the format of image identification information adopted by the front-end processor having an image data generation function cannot be known in advance on the back-end processor side. For this reason, every time image data is sent from the front-end processor, it is necessary to confirm (negotiate) the format of the image identification information between the two again, for example, when the connected model is switched or for each page. As a result, productivity is lowered.
[0018]
The present invention has been made in view of the above circumstances, and in the case of a system in which the image data generation side and the image processing apparatus are connected in a sparse relationship, the line drawing or the like can be performed without reducing productivity. An object of the present invention is to provide an image processing method capable of performing suitable image processing on individual image objects such as a line drawing character object and a multi-tone image object such as a background portion.
[0019]
It is another object of the present invention to provide an image processing system and an image processing apparatus that implement the image processing method of the present invention.
[0020]
  The present invention also provides a program suitable for realizing an image processing apparatus for executing the image processing method of the present invention by software using an electronic computer.TheThe purpose is to provide.
[0021]
[Means for Solving the Problems]
  That is, the image processing method according to the present invention includes:The image processing deviceConfigure print dataIndividualImage data,IndividualIndicates image data attributesImage identificationInformation and,IImage identification informationIn the newsIn association with the relevant format informationFrom image data generatorReceived this receivedTheFormalityIn the newsOn the basis ofIdentify the format of the image identification information, identify the image identification information according to the identified format, and based on the identified image identification information,For image dataDoAn image was applied.
[0022]
  An image processing system according to the present invention includes an image data generation device that generates image data based on print data, and image data generated by the image data generation device.PictureAn image processing apparatus that performs image processing is a system that performs an image processing method according to the present invention.
[0023]
  The image data generation apparatus of this image processing system constitutes print dataIndividualThe image data is generated and sent to the image processing apparatus.IndividualIndicates image data attributesImage identificationInformation and image dataidentificationFormat information related to informationIndividualSend it to the image processing device in association with the image data.
[0024]
  An image processing apparatus according to the present invention is an apparatus suitable for carrying out the image processing method according to the present invention, and constitutes print data.IndividualCorresponding image data, image identification information indicating image data attributes, and format information related to image identification informationTThe print file receiving unit received from the image data generating device and the format information received by the print file receiving unit.In the newsOn the basis ofIdentify the format of the image identification information, identify the image identification information according to the identified format, and based on the identified image identification information,For image dataDoAnd an image processing unit for performing image processing.
[0025]
  In addition, the invention described in the dependent claimsMysteriousFurther advantageous specific examples are defined. Furthermore, the program according to the present invention is suitable for realizing the image processing apparatus according to the present invention by software using an electronic computer (computer). The program may be provided by being stored in a computer-readable storage medium, or may be distributed via wired or wireless communication means.
[0026]
As long as the format information can be specified on the image processing apparatus side, any means for sending the format information to the image processing apparatus in association with the image data may be used. For example, identification information directly indicating the format information may be used, or the format is substantially obtained by associating the image data generation device with the format information and sending information for identifying the image data generation device. You may send information.
[0027]
In the above, the print data means data that can clearly distinguish characters, pictures, and the like, such as data expressed in the page description language PDL. “Image data constituting print data” is image data generated by referring to information such as characters and designs described in print data, and is obtained by reading like a copying machine or a FAX machine. Does not contain data.
[0029]
UpIn the description, "Do"" Is not limited to all the received image data, but may be only a part of the received image data. Also,“IndividualAgainst image dataDo“Apply image processing”IndividualThis means switching (adjusting) the characteristics of image processing according to image data.
[0030]
For example, with reference to the information indicating the attribute of the image data, gradation correction processing for correcting the gradation reproducibility of the output image according to the image data is performed. The addition ratio of the plurality of image data is determined according to each image data. For example, image data combination processing for obtaining a composite image by adjustment is performed, or a screen type used in screen processing related to pseudo halftone processing is switched according to each image data.
[0031]
  When two compressed image data corresponding to individual image objects such as a text object and a graphics object are sent by a plurality of layers, and object attribute information is sent as associated information for each individual pixel, Applying the compression / decompression characteristics for each layer based on the information (that is, attribute information of the image data)Identified image identificationBased on informationIndividualTo image dataAgainstIt is not included in “Applying image processing”.
[0032]
[Action]
  In the above configuration, the image data generation device configures print data.IndividualGenerate the image data and this generatedIndividualThe image identification information indicating the attribute of the image data and the format information related to the image identification information are transmitted to the image processing apparatus in association with the image data.
[0033]
  In response, the image processing apparatus identifies the format of the image identification information based on the received format information, identifies the image identification information according to the identified format, and refers to (refers to) the identified image identification information. For image data,AgainstApply image processing. For example, switching of tone correction characteristics, priority information for image integration processing (merging), or switching of screen line types on the engine sideGet.
[0034]
Since the image processing apparatus can receive the format information in association with the image data, that is, almost simultaneously with the reception of the image data, after the image data is sent from the front-end processor, the image identification information is re-established between them. It is not necessary to confirm the format.
[0035]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0036]
FIG. 1 is a diagram showing an embodiment of an image forming system to which an image processing system according to the present invention is applied. Here, FIG. 1A is a schematic diagram of a system configuration, and FIG. 1B is a diagram illustrating a connection example in relation to details of a user interface device.
[0037]
The image forming system includes an image forming apparatus 1 and a DFE (Digital Front End Processor) apparatus that is a terminal apparatus that passes print data to the image forming apparatus 1 and instructs printing.
[0038]
The image forming apparatus 1 records an image on a predetermined recording medium using an electrophotographic process. The image forming apparatus 1 functions as a printing apparatus (printer) that forms a visible image on a predetermined recording medium based on print data input from a client terminal.
[0039]
That is, an image forming apparatus 1 in this image forming system includes an IOT (Image Output Terminal) module (IOT main body) 2, a feed (paper feed) module (FM) 5, an output module 7, and a personal computer (PC). ) And the like, and a connection module 9 that connects the IOT module 2 and the feed module 5. The feed module 5 may have a multi-stage configuration.
[0040]
Further, a finisher module may be connected to the subsequent stage of the output module 7. As the finisher module, for example, a stacker for sheets is provided, and a stapler for binding one or more corners of the corner portion or a punching mechanism for punching filing punch holes is provided. and so on. It is desirable that the finisher module can be used even in an offline state in which the connection with the user interface device 8 is disconnected.
[0041]
The DFE device has a drawing function. For example, the DFE device sequentially receives print data described in a page description language PDL from a client terminal (not shown), and generates a raster image (RIP process; Raster Image Process) based on the print data. Further, image data that has undergone RIP processing and print control information (job ticket) such as the number of printed sheets and paper size are sent to the image forming apparatus 1.
[0042]
The print data sent from the DFE apparatus to the image forming apparatus 1 includes three colors of yellow (Y), cyan (C), and magenta (M), which are basic colors for color printing, and black (K). There are four colors (YMCK) combined. Further, in addition to the four colors, a fifth color component, for example, gray (G) may be included.
[0043]
The IOT module 2 includes an IOT core unit 20 and a toner supply unit 22. A toner cartridge 24 for YMCK for color printing is mounted on the toner supply unit 22.
[0044]
The IOT core unit 20 includes a print engine (printing unit) 30 having an optical scanning device 31, a photosensitive drum 32, and the like for each color corresponding to the above-described color components. The print engine 30 is arranged in a row in the belt rotation direction. It has a so-called tandem configuration. The IOT core unit 20 includes an electric system control storage unit 39 that stores an electric circuit for controlling the print engine 30 or a power supply circuit for each module.
[0045]
Further, as an image transfer method, the IOT core unit 20 transfers the toner image on the photosensitive drum 32 to the intermediate transfer belt 43 by the primary transfer unit 35 (primary transfer), and then transfers it to the secondary transfer unit 45. The toner image on the intermediate transfer belt 43 is transferred to the printing paper (secondary transfer). In such a configuration, image formation is performed on each photosensitive drum 32 using the YMCK color toners, and this toner image is multiplex-transferred onto the intermediate transfer belt 43.
[0046]
The image (toner image) transferred onto the intermediate transfer belt 43 is transferred onto a sheet conveyed from the feed module 5 at a predetermined timing, and further conveyed to a fixing device (Fuser) 70 through a second conveyance path 48. The toner image is melted and fixed on the paper by the fixing device 70. Thereafter, the paper is temporarily held in a paper discharge tray (stacker) 74 or is immediately transferred to the paper discharge processing device 72, and is discharged outside the apparatus through a predetermined end process as necessary. Further, during double-sided printing, printed paper is drawn from the paper discharge tray 74 to the reverse path 76 and passed to the reverse conveyance path 49 of the IOT module 2.
[0047]
A DFE apparatus having a drawing function includes a front end processor FEP (Front End Processor) unit 500 which is an example of an image data generation apparatus. The front-end processor FEP unit 500 converts data from a client (Client) into raster data (RIP processing) by ROP (Raster OPeration) processing by the front engine, and compresses the converted raster image. RIP processing and compression processing are compatible with high-speed processing so as to be compatible with high-speed processing of the IOT module 2. Note that the front-end processor FEP unit 500 of the DFE apparatus does not have a printer controller function that performs a print control function depending on the image forming apparatus 1, and mainly performs only RIP processing.
[0048]
The user interface device 8 includes input devices such as a keyboard 81 and a mouse 82, and includes a GUI (Graphic User Interface) unit 80 that receives an instruction input while presenting an image to the user, and has a main body (not shown). 3 includes a Sys (system control) unit 85 that performs a connection interface function and a server function between each module of the image forming apparatus 1 and the DFE apparatus. The user interface device 8 has a printer controller function that performs a print control function depending on the image forming apparatus 1.
[0049]
The back-end processor BEP (Back End Processor) unit 600 collectively includes a printer controller function part that performs a process control function depending on the image forming apparatus 1 of the user interface device 8 and a connection interface part. That's it. As a result, the user interface device 8 in the configuration of the present embodiment includes a GUI unit 80 and a printer controller function unit that performs control according to engine characteristics such as the IOT core unit 20. Note that the back-end processor BEP unit 600 and the IOT core unit 20 have the functions of an image processing apparatus.
[0050]
The front end processor FEP section 500 is provided with a data storage section (not shown) for storing print data received from the client terminal (see FIG. 2 described later). Similarly, the back-end processor BEP unit 600 is provided with a data storage unit (not shown) for storing image data and job tickets received from the front-end processor FEP unit 500 (see FIG. 2 described later). ).
[0051]
In the DFE apparatus, the code data generated at the client terminal is converted into raster data by RIP processing on the front engine side, and compression processing is performed. Transmission of electrical signals between the front-end processor FEP unit 500 on the DFE apparatus side and the back-end processor BEP unit 600 on the image forming apparatus 1 side has a relatively sparse relationship with the IOT core unit 20. That is, it is constructed with a communication interface independent of the print engine 30 as an image recording unit (loose coupling by a general-purpose network).
[0052]
For example, as shown in FIG. 1A, a high-speed wired LAN (Local Area Network) using a general-purpose communication protocol with a communication speed of about 1 GBPS (Giga Bit Per Sec), for example, between the DFE device and the back-end processor BEP unit. ) Etc. The print file is transferred from the front end processor FEP unit 500 to the back end processor BEP unit 600 by, for example, FTP (File Transfer Protocol).
[0053]
On the other hand, transmission of electrical signals between the back-end processor BEP unit 600 and the IOT core unit 20 constituting the image recording unit (the main unit) is relatively dense with respect to the IOT core unit 20. It is constructed with a communication interface that has a relationship, that is, depends on the print engine 30 as an image recording unit. For example, connection is made with a dedicated communication protocol.
[0054]
Control software for operating the image forming apparatus 1 is incorporated in the user interface device 8. The user interface device 8 is connected to a DFE device having a function of an image processing device IPS (Image Process System). For example, print data that has undergone RIP (Raster Image Process) processing, and the number of printed sheets, paper size, etc. Print control information is received from the DFE apparatus, and the image forming apparatus 1 is caused to execute the requested print processing.
[0055]
FIG. 2 is a diagram collectively showing an example of functional role sharing between the front-end processor FEP unit 500 and the back-end processor BEP unit 600 included in the DFE device.
[0056]
The front-end processor FEP unit 500 and the back-end processor BEP unit 600 are equipped with a hard disk device (HDD) that is an example of an image buffer (data storage unit).
[0057]
The front-end processor FEP unit 500 is responsible for image compression and CMS (Color Management System) functions for correcting device differences, while the back-end processor BEP unit 600 is responsible for image expansion, electronic registration, double-sided printing, and the like. Responsible for functions such as control, job recovery, and CMYK gray balance correction (calibration).
[0058]
For example, the back-end processor BEP unit 600 having a printer controller function receives print control information (print command) together with image data from the DFE device via the interface unit in the image forming apparatus 1, and depends on the image forming apparatus 1. It performs the control function of the printing process (processing depending on engine characteristics). Also, by using RIP-processed data stored in the DFE device, for example, output of multiple copies by collation settings and reprinting when you want another copy after printing out, High-speed output is possible.
[0059]
For this reason, the back-end processor BEP unit 600 generates a command code based on the print control information received from the DFE apparatus, and controls the processing timing of each part in the image forming apparatus 1 according to the engine characteristics. A controller is provided. Further, the back-end processor BEP unit 600 completes the spool processing so as to match the engine characteristics of the IOT module 2, the feed module 5, or the output module 7, and then passes the image data to the IOT module 2. The back-end processor BEP unit performs control processing depending on engine characteristics.
[0060]
The back-end processor BEP unit 600 automatically performs a recovery process such as a paper jam depending on the engine characteristics. Further, the front-end processor FEP unit 500 determines an instruction from the client, and the processing is performed exclusively by the front-end processor FEP unit 500 without depending on each unit of the image forming apparatus 1 such as the IOT core unit 20, the fixing unit 70, or the finisher unit. What can be processed by the front-end processor FEP unit 500 depends on each part of the image forming apparatus 1, and processing to be performed by the back-end processor BEP unit 600 causes a command to be passed to the back-end processor BEP unit 600 side. .
[0061]
For example, print file data including a raster base image subjected to RIP processing is sent from the DFE device to the back-end processor BEP unit 600. The print file data includes raster-based image file data, print control information such as the number of copies, duplex / single-sided, color / black and white, composite printing, presence / absence of sorting, presence / absence of a stapler, and the like.
[0062]
And, for example, rotation (Rotation), page allocation (N-UP) in one sheet, repeat processing, sheet size adjustment, color management system CMS for correcting device differences, resolution conversion, contrast adjustment, compression rate designation ( Processing related to RIP processing such as (low / medium / high) is processed by the front-end processor FEP unit 500, and the control command is not notified to the back-end processor BEP unit 600 (non-notification).
[0063]
On the other hand, collation processing, double-sided printing, stamping, punching, stapler and other finisher devices or paper tray alignment processing, discharge surface (up / down) alignment, calibration processing such as gray balance and color misregistration correction For a screen specification process or the like that is strongly related to the processing characteristics of the image forming apparatus 1 (IOT-dependent process), the control command is passed to the back-end processor BEP unit 600 by the front-end processor FEP unit 500. To process.
[0064]
The paper size adjustment may be processed not only by the front-end processor FEP unit 500 but also by the back-end processor BEP unit 600.
[0065]
As described above, in the configuration of the present embodiment, image data is file-transferred to the user interface device 8 side as compressed data in a predetermined format, for example, by FTP (File Transfer Protocol). That is, the front end processor FEP unit 500 side unilaterally transfers one job (JOB) to the back end processor BEP unit 600 side in the order of RIP processing without depending on the engine characteristics.
[0066]
The back-end processor BEP unit 600 rearranges pages for printing, exchanges control commands in synchronization with the processing speed of the print engine 30, and transfers page data in a predetermined order at a speed that maximizes engine productivity. The data is sent to the core unit 20.
[0067]
If the data transmission from the front-end processor FEP unit 500 is earlier than the processing (synchronization processing) adapted to the processing characteristics of the print engine 30 or the like, the back-end processor BEP unit 600 receives image data and job tickets that are not in time. Store temporarily in the data storage. Then, the page data is read out so as to match the discharge conditions desired by the user (page order and orientation, or whether finishing processing is performed, etc.), the image is edited as necessary, the position of the image on the paper is corrected, and the user Performs the desired image processing and sends the processed image data to the IOT module 2 side.
[0068]
As a result, the front end processor FEP unit 500 and the output side of the print engine 30 as the image recording unit and the fixing device 70 are asynchronous processes, and the back end processor BEP unit 600 and the output side are synchronous processes. Will be offset by storing and reading data in the data storage unit. Even when image data is compressed / decompressed, the compression processing in the front-end processor FEP unit 500 and the decompression processing in the back-end processor BEP unit 600 are asynchronous processes. In other words, according to such a configuration, the RIP processing in the front-end processor FEP unit 500 and the subsequent compression processing are the processing characteristics of the print job contents and the IOT core unit 20 and the fixing device 70 constituting the image recording unit. Processed independently.
[0069]
Thus, according to the configuration of the present embodiment, the relationship between the DFE apparatus and the image forming apparatus 1 may be loose (Loosely connection). For example, it is only necessary to perform RIP processing and compression processing in the front-end processor FEP unit 500 of the DFE device. Until then, the processing depends on the performance of the RIP engine, and there is no need to depend on the processing speed (synchronization) or control on the print engine side. That is, the processing in the DFE apparatus can be limited to the range of RIP processing and compression processing that are not affected by the performance of the image forming apparatus 1. The back-end processor BEP unit 600 performs page rearrangement according to the image forming apparatus 1 and print control synchronized with the IOT core unit 20.
[0070]
In these processes, the printer controller function provided in the back-end processor BEP unit 600 interprets (decodes) the job ticket passed from the front-end processor FEP unit 500, or receives a user instruction via the GUI unit 80, This is realized by controlling each part.
[0071]
As described above, according to the configuration of the present embodiment, the DFE device is freed from complicated processing according to engine characteristics. Therefore, a general PC (personal computer) is used as the DFE device, and software is installed on the PC. By mounting, the function of the front-end processor FEP unit 500 can be achieved.
[0072]
In addition, the back-end processor BEP unit 600 in charge of complicated processing according to engine characteristics is released from RIP processing, and can be flexibly processed and controlled according to the performance of the IOT module 2, the fixing device 70, the finisher, and the like. Can be changed. This eliminates the need for the front-end processor FEP 500 side to be particularly familiar with engine characteristics and know-how.
[0073]
Further, since the front-end processor FEP unit 500 is independent of the print engine 30, the user can divert the conventional front-end even when purchasing a new print engine. It is also possible to connect to other manufacturers' front ends. That is, the front end processor FEP unit 500 can be generalized, and for example, a general-purpose printing RIP engine or another company's RIP engine can be used. Alternatively, it is possible to easily provide a printer controller to an engine that is desired to be a target necessary for business.
[0074]
Further, the back-end processor BEP unit 600 receives the image data for image formation and the image formation conditions (number of copies, single-sided / double-sided, sort presence / absence, etc.) from the front-end processor FEP unit 500, and the back-end processor BEP unit 600 receives them. Thus, the image forming operation of the apparatus can be controlled according to the engine characteristics. Since the back-end processor BEP unit 600 is not restricted by the use of a standard controller, the control of the image forming operation by the back-end processor BEP unit 600 is richer in speed and expandability than that by the DFE device. Therefore, it becomes easy to flexibly cope with the increase in speed and functionality of the image forming apparatus 1.
[0075]
FIG. 3 is a diagram for explaining a difference between a conventional image forming system and an image forming system to which the image processing system of the present embodiment is applied. Here, FIG. 3A shows a conventional system configuration, and FIGS. 3B and 3C show system configuration examples to which this embodiment is applied.
[0076]
In the conventional configuration example, RIP-processed image data (Video Data) matching the characteristics of the image forming apparatus 1 is passed from the DFE apparatus to the IOT module 2. Further, when the speed of the image forming apparatus 1 is increased, it becomes more difficult to control the processing timing of each part in the image forming apparatus 1 by the controller on the DFE apparatus side as the speed increases. For this reason, as shown in FIG. 3A, the DFE apparatus and the image forming apparatus 1 are almost inseparable from each other, and a dedicated DFE apparatus corresponding to each image forming apparatus 1 must be used. Absent.
[0077]
For example, when developing raster data (that is, RIP processing) and controlling a printing unit, a high-function model DFE device uses an industry standard controller that claims high image quality and advanced control. Unless the front-end processor FEP part is particularly familiar with the characteristics and know-how of the engine, the high-speed and high-function image forming apparatus 1 cannot be controlled. A DFE device having a dedicated processing function in accordance with the image forming apparatus 1 is required. For this reason, it has been difficult to construct a system in which one image forming apparatus 1 receives print requests from a plurality of DFE apparatuses.
[0078]
For example, in order to make a system with a higher function and higher speed, the control method of the image forming apparatus 1 must be informed in advance to the standard controller and operated under the control of the standard controller. However, if the speed and functionality are increased, it becomes difficult to control the image forming operation of the high speed and high function image forming apparatus 1 with a conventional controller or a general-purpose controller. For example, when continuous processing is performed, it becomes more difficult to control when to start an image forming process for the next sheet (printing paper). In particular, during double-sided printing, it is necessary to interrupt the back side printing process of a certain sheet during the continuous conveyance of the front side, but the control becomes more difficult as the speed is increased.
[0079]
On the other hand, in the configuration of this embodiment, the DFE device side (specifically, the front-end processor FEP unit 500) is mainly responsible for the RIP processing function unit (image data generation function unit), and the back-end processor BEP unit 600 is With the configuration in charge of the printer controller function, the back-end processor BEP unit 600 receives the image data for image formation and the image formation conditions (number of copies, single-sided / double-sided, color, sort presence / absence, etc.), and the back-end processor The BEP unit 600 can control the image forming operation of the apparatus according to the performance and characteristics of the print engine.
[0080]
Since the back-end processor BEP unit 600 is not restricted by the use of a standard controller as in the conventional DFE device, the control of the image forming operation by the back-end processor BEP unit 600 is faster and more extended than that by the DFE device. Rich in nature. Therefore, as compared with the conventional configuration example, it is easy to flexibly cope with the high speed and high functionality of the image forming apparatus 1.
[0081]
In the configuration of this embodiment, the front-end processor FEP unit 500, the back-end processor BEP unit 600, and the print engine may have a loose connection relationship (Loosely connection). The range of RIP processing and the like that are not affected by the processing characteristics of the apparatus 1 can be kept.
[0082]
As a result, the processing load of the DFE device is reduced, so that a DFE device including a general-purpose controller capable of high-speed processing can be used, and the total system cost can be reduced. In addition, since a general-purpose DFE device can be used, as shown in FIG. 3B, a system in which one image forming apparatus 1 receives print requests from a plurality of DFE devices, that is, the number of DFE devices and image formation. It is also possible to construct a system in which the number of devices is n: 1.
[0083]
Further, as shown in FIG. 3C, a system in which a plurality of image forming apparatuses 1 are connected, that is, a system in which the number of DFE apparatuses and the number of image forming apparatuses are n: m can be constructed. In this case, a system in which two types of image forming apparatuses 1 such as a high-speed and high-performance image forming apparatus 1 and an output confirmation proofer (an example of the image forming apparatus 1) are installed in parallel behind the back-end processor BEP unit 600, or It is also possible to configure a system in which cascade processing is performed in parallel.
[0084]
In the proofer connection system, it is possible to construct a DDCP (Digital Direct Color Proofing) system in which a color proof print is directly output from DTP data by a proofer prior to direct printing by the high-speed and high-function image forming apparatus 1. . For example, when the back-end processor BEP unit 600 receives proof data as a print job, the back-end processor BEP unit 600 outputs image data in a data format suitable for proofing (for example, a low video rate) to the proofer to instruct a print output for color proofing. When a normal print job is received, image data at a high video rate is output to a high-speed and high-function machine to issue a high-speed and high-function print instruction.
[0085]
In the case of the system shown in FIG. 3C, a CMS (Color Management System) that corrects subtle differences (device differences) in different color outputs between a high-speed and high-function machine and a proofer or longitudinally connected model. A color management system).
[0086]
In this way, by using an n: 1 or n: m system, it is possible to construct a highly flexible system in which the image data generation side can be switched or connected. For example, it is possible to select an image forming apparatus suitable for the availability of the image forming apparatus 1 and the print job, and to perform efficient output processing.
[0087]
In the configuration of the present embodiment, for image compression and corresponding image expansion, individual formats can be selected for each image object in the page. For example, print data received from a client terminal is composed of a line drawing character object LW representing a binary image such as a character or a line drawing, and a multi-tone image object CT representing a multi-tone image such as a photographic image or a background portion. Yes. The front-end processor FEP unit 500 refers to the attribute information (Tag) of each individual image object, compresses image data focused on the line drawing character object LW, compressed image data focused on the multi-tone image object CT, A signal indicating the attribute of each compressed image data, for example, a pass signal for the line drawing character object LW and an image signal for the multi-tone image object CT are generated.
[0088]
For example, the front-end processor FEP unit 500 transfers image data (a plurality of separated image data) generated in each compression format to the back-end processor BEP unit 600 so as to correspond to different compression formats for each image object. . The transfer image format between the front-end processor FEP unit 500 and the back-end processor BEP unit 600 is based on the TIFF (Tagged Image File Format) format regardless of the image object. Of course, other types of image compression formats may be used.
[0089]
The compressed image data (LW, CT) and the signals indicating the respective data attributes are collected (associated) as one print file together with the job ticket and transmitted to the back-end processor BEP unit 600. For example, two compressed image data LW and CT corresponding to individual image objects are sent in two layers, and object attribute information (that is, image identification information) is sent as associated information for each individual pixel.
[0090]
Since it is sufficient that either one of the attributes of the compressed image data can be determined on the back-end processor BEP unit 600 side, for example, the back-end processor BEP unit 600 uses a 1-bit mask signal (select signal) for switching LW / CT. Just communicate. However, in a system with a narrow bus band, it is preferable to adopt a transparent code system in which this mask signal is embedded in density information (for example, LW image data) and transmitted in order to reduce the number of transmission bits ( Details will be described later).
[0091]
In some cases, it is not sufficient to determine the attribute of compressed image data by 1 bit. For example, screen processing is performed by pseudo halftone processing (halftoning) on the IOT core unit 20 side (details will be described later), but gradation reproducibility, moire, etc. depending on what type of screen is used. Affects the image quality. For this reason, there are cases where it is desired to switch the screen type, the number of lines, the angle, etc., not only according to the image object, but also for each individual object. In order to meet such a requirement, 1-bit information is insufficient, and therefore it is preferable to use, for example, dedicated identification information represented by 2 bits or more independently of image data.
[0092]
As this dedicated identification information, it is preferable to use, for example, information indicating the type of screen related to pseudo halftone processing (hereinafter also referred to as a screen flag) (details will be described later). In other words, the dedicated identification information may also serve as a screen flag. In this way, even when dedicated identification information is used, the transmission bit width of the print file sent to the back-end processor BEP unit 600 can be reduced as much as possible. Note that only 1-bit identification information (screen flag or the like) may be used to distinguish only the attributes of the compressed image data.
[0093]
In the n: 1 system shown in FIG. 3B or the n: m system shown in FIG. 3C, one back-end processor BEP unit 600 includes various front-end processor FEP units 500. Therefore, it is not possible to specify in advance which front-end processor FEP unit 500 sends image data. As a result, the image identification information format used by the front-end processor FEP unit 500 having the image data generation function can be backed up simply by sending the image identification information indicating the attribute of the compressed image data in association with the image data. Since the end processor BEP unit 600 cannot know in advance, the image identification information cannot be correctly specified.
[0094]
In order to solve this problem, in the present embodiment, the back-end processor BEP unit 600 can support a plurality of types of DFE devices (that is, the front-end processor FEP unit 500) (for example, support for different manufacturers). ), Each front-end processor FEP section 500 adopts a transmission code method in which LW / CT separation information is embedded in the density, or a method of transmitting as a screen flag separately from the image data Is also described in the additional information (for example, header information) of the print file.
[0095]
For example, the format information is included in the additional data DSEL of the print file sent to the back-end processor BEP unit 600. When the screen flag method is adopted, the screen flag is also included in the additional data DSEL.
[0096]
In response to this, the back-end processor BEP unit 600 refers to the format information described in the header information of the print file sent from the front-end processor FEP unit 500, and distinguishes the attribute LW / CT of the image data. Replace the signal with For example, it is replaced with a signal (Tag) for switching between two types of screens independently of LW / CT. Then, it is automatically selected whether to determine gradation correction characteristics, screen type, merge priority or screen flag based on LW / CT independently from the transparent code method, and after image processing, the print engine 30 is selected. Output the image to the side.
[0097]
FIG. 4 is a block diagram showing an embodiment of the front-end processor FEP unit 500 and the back-end processor BEP unit 600, focusing on the data flow between the DFE device and the image forming apparatus 1.
[0098]
Image objects mainly expressed in binary such as line drawings and characters (hereinafter referred to as line drawing character objects LW (Line Work)) and image objects mainly expressed in multiple gradations such as background portions and photo portions (hereinafter referred to as multi gradations). The processing is adapted in accordance with the characteristics of the image object such as the image object CT (Continuous Tone).
[0099]
The front-end processor FEP unit 500 receives print data (hereinafter referred to as PDL data) described in PDL from a client terminal (not shown) connected via a network, and temporarily stores the PDL data once. 502, and a RIP processing unit (raster image processing unit) 510 that reads and interprets PDL data from the data storage unit 502 and generates (rasterizes) page-unit image data (raster data).
[0100]
The RIP processing unit 510 is an example of an image data generation unit, and generates image data by expanding electronic data described in a page description language (PDL). That is, the RIP processing unit 510 generates image data with reference to information that can distinguish characters and designs included in data represented by the page description language PDL. In addition, the RIP processing unit 510 distinguishes attribute information indicating whether each pixel of image data is text or graphics, and distinguishes characters and designs included in data expressed in the page description language PDL. It is generated with reference to possible information and sent to the subsequent stage (especially the back-end processor BEP unit 600) together with the image data.
[0101]
Therefore, the RIP processing unit 510 incorporates a decomposer that functions as a PDL interpretation unit and an imager, a so-called RIP engine. As will be described later, the RIP processing unit 510 may be mounted with a dedicated RIP engine corresponding to a print engine unique to the present embodiment, or may be mounted with a general-purpose print RIP processing engine. . Note that the RIP device (DFE device) of another company may be used for the front end processor FEP unit 500 as a whole.
[0102]
Further, the front-end processor FEP unit 500 converts the image data generated by the RIP processing unit 510 into line drawing data DLW representing the line drawing character object LW and multi-gradation image object CT in order to perform processing adapted to the characteristics of the image object. An image data separation unit 520 that develops the separated continuous tone image data DCT in a separated state, and a compression processing unit 530 that compresses each image data separated by the image data separation unit 520 in accordance with a predetermined format. .
[0103]
The compression processing unit 530 compresses each image data from the image data separation unit 520, and immediately transfers the compressed image data to the back-end processor BEP unit 600. The front-end processor FEP unit 500 transfers the unnecessary job ticket indicating the contents of the print job received accompanying the print job to the back-end processor BEP unit 600 as it is at a predetermined timing.
[0104]
The compression processing unit 530 compresses the line drawing character object LW and the multi-tone image object CT individually in correspondence with the image data separation unit 520, so that the line drawing data separated by the image data separation unit 520 respectively. An LW compression processing unit 532 that compresses DLW and a CT compression processing unit 534 that compresses continuous tone image data DCT are provided.
[0105]
The PDL data described in the page description language by the front-end processor FEP unit 500 is input to the RIP processing unit 510 and then RIP-processed to be converted into a raster image. Further, the image data separation unit 520 in the subsequent stage performs line drawing. Data DLW and continuous tone image data DCT are separated.
[0106]
The separated line drawing data DLW is sent to the LW compression processing unit 532, and the continuous tone image data DCT is sent to the CT compression processing unit 534 and compressed by a method suitable for each.
[0107]
Here, there are G3, G4, TIFF-IT8 BL (Binary Line Art), JBIG (Joint Bi-level Image Group), etc. as compression methods suitable for line drawings, and compression methods suitable for continuous tone images. Are TIFF 6.0 PackBit, JPEG (Joint Photographic Expert Group), etc., and common compression methods include SH8, Lempel-Ziv, Huffman coding, and the like.
[0108]
G3, G4, and Huffman coding are methods widely used in the field of facsimile, and Huffman coding uses a variation in occurrence probability of a character string as a compression principle.
[0109]
JBIG is a progressive buildup that displays a rough but overall image at an early stage of transmission and then adds additional information as necessary to improve image quality. It can be applied uniformly.
[0110]
The BL of TIFF-IT8 encodes each line of BL data as a sequence of pairs of a background color (black) run and a foreground color (white) run, and each line starts with a background color run. Two basic coding structures are used in the run length coding of BL data, and the short format (8 bits long) that encodes run lengths up to 254 pixels is the long format that encodes run lengths up to 65,535 pixels. (24 bits long), and the two formats can be used in combination. Each line data starts with two zero bytes and ends with two zero bytes.
[0111]
JPEG is roughly classified into lossy lossy compression based on DCT (Discrete Cosine Transform) and lossless lossless compression based on two-dimensional DPCM (Differential Pulse Code Modulation). The DCT method is classified into a baseline and an extended method, and the baseline process is the simplest DCT method and an essential function of JPEG.
[0112]
At the subsequent stage of the compression processing unit 530, the line drawing data DLW1 compressed by the LW compression processing unit 532 and the continuous tone image data DCT1 compressed by the CT compression processing unit 534 are collected together with a job ticket into one print file. A file transfer unit 540 for transferring a file to the back-end processor BEP unit 600.
[0113]
This file transfer unit 540 incorporates an interface unit for transmitting electrical signals to and from the back-end processor BEP unit 600 through a communication interface independent of the image recording unit such as the IOT module 2 and the output module 7 on the output side. It is.
[0114]
The processing on the front end processor FEP unit side is processed asynchronously with the processing speed of the print engine 30. That is, when the front-end processor FEP unit 500 receives PDL data from the client terminal, the front-end processor FEP unit 500 sequentially performs rasterization and compression processing, and immediately sends the compressed image data to the back-end processor BEP unit 600. In this process, if the PDL data reception process from the client terminal is faster than the processes such as rasterization and compression, the front-end processor FEP unit 500 temporarily stores the unsuccessful PDL data in the data storage unit 502. deep. Then, PDL data is read from the data storage unit 502 and processed in the order received (by first-in first-out method) or in an appropriate order (for example, first-in last-out method).
[0115]
FIG. 5 is a diagram for explaining the separation of the line drawing data DLW and the continuous tone image data DCT. Here, FIG. 5A is a diagram showing the first method, and FIG. 5B is a diagram showing the second method. 5C and 5D show the priority levels of the line drawing data DLW and the continuous tone image data DCT when the line drawing data DLW and the continuous tone image data DCT are combined into one print file. It is a figure explaining.
[0116]
In the first method shown in FIG. 5A, image data is extracted from PDL data (page description language data) as continuous tone image data DCT, and the remaining data is used as line drawing data DLW.
[0117]
Further, the second method shown in FIG. 5B is configured such that the RIP processing unit 510 and the image data separation unit 520 perform processing in cooperation. That is, the PDL data D0 is input to the preprocessing unit 512 together with the image arrangement information D6, and the preprocessing unit 512 performs the RIP processing function and the separation function of the line drawing character object LW on the line drawing object in the PDL data D0. Rasterization is performed by the provided LW raster image processing unit 523 and output as line drawing data DLW.
[0118]
Then, the image arrangement information D6 passes through the pre-processing unit 512 as it is and is input to the image arrangement processing unit 516, and the image data D8 is also input to the image arrangement processing unit 516. It is rasterized by a CT raster image processing unit 525 having a function for separating a multi-tone image object CT and output as continuous tone image data DCT. Alternatively, it is output as continuous tone image data DCT without passing through the LW raster image processing unit 525.
[0119]
The two separated image data (line drawing data DLW and continuous tone image data DCT) are arranged as separate layers, and are combined into one print file. Here, the line drawing data DLW is a palette color or binary image not including a gradation image, and the continuous gradation image data DCT is gradation data including a gradation image, and has a resolution lower than that of the line drawing data DLW.
[0120]
However, when the line drawing data DLW is palette color, the line drawing data information has at least white / black / transparency. Therefore, in this case, as shown in FIG. 5C, the line drawing data DLW becomes a priority (higher order) image. Further, when the line drawing data DLW is a binary image, it does not have transparency information, and the continuous tone image data DCT has transparency information. For example, 0 = transparent, 1 = white,..., 255 = black. In this case, as shown in FIG. 5D, the continuous tone image data DCT is a priority (higher order) image.
[0121]
On the other hand, as shown in FIG. 4, the back-end processor BEP unit 600 is processed by the front-end processor FEP unit 500 independently of the print job and the processing characteristics of the print engine 30 (for example, the processing speed of the print engine 30). A print file (including line drawing data DLW1, continuous tone image data DCT1, and job ticket) that includes compressed image data (asynchronously processed) from the file transfer unit 540 and receives the received print file as an image storage unit. A separation data reception unit 601 which is an example of a print file reception unit stored in 602 is provided.
[0122]
The separated data receiving unit 601 includes an interface unit that transmits electric signals to and from the front-end processor FEP unit 500 through a communication interface independent of the image recording unit such as the IOT module 2 and the output module 7 on the output side. It has been incorporated.
[0123]
Further, the back-end processor BEP unit 600 reads the compressed image data from the image storage unit 602 and performs decompression processing corresponding to the compression processing of the compression processing unit 530 on the front-end processor FEP unit 500 side. A decompression processing unit 610 is provided for sending completed image data to the IOT core unit 20 side.
[0124]
The decompression processing unit 610 has an image editing function such as image rotation, image position adjustment on paper, enlargement or reduction, and the like for image data read from the image storage unit 602 and decompressed. It should be noted that a functional part that constitutes the image editing function may be provided independently of the expansion processing unit 610.
[0125]
This decompression processing unit 610 corresponds to the compression processing unit 530 of the front-end processor FEP unit 500, and decompresses the line drawing character object LW and the multi-gradation image object CT separately, so that the LW compression processing unit 532 performs compression. An LW decompression processing unit 612 that decompresses the processed line drawing data DLW1 and a CT decompression processing unit 614 that decompresses the continuous tone image data DCT1 compressed by the CT compression processing unit 534 are provided.
[0126]
The back-end processor BEP unit 600 includes a print control unit 620 that functions as a printer controller that controls each unit of the back-end processor BEP unit 600 and the IOT core unit 20 depending on the processing performance of the IOT core unit 20.
[0127]
Although not shown, the print control unit 620 interprets (decodes) the job ticket passed from the front-end processor FEP unit 500 or receives a user instruction via the GUI unit 80 and receives the print engine 30 or fixing. The output form specifying unit for specifying the output form (image position in the page, page discharge order, orientation, etc.) according to the processing characteristics of the part 70 or the finisher, and the printed matter is output in the output form specified by the output form specifying unit As described above, a control unit that controls each unit such as the print engine 30, the fixing unit 70, and the finisher is provided.
[0128]
The print control unit 620 also has a function of a format information extraction unit that extracts format information from a print file including image data transmitted from the front end processor FEP unit 500. Furthermore, the print control unit 620 also has a function of an attribute information extraction unit that extracts image identification information LW / CT indicating the attribute of the image object (that is, image data) transmitted from the front end processor FEP unit 500.
[0129]
For example, the print control unit 620 refers to the format information included in the additional data DSEL of the print file sent from the front end processor FEP unit 500, and first format information related to image identification information indicating the attribute of the image data. Is identified. If the specified format information is the transparent code system, the image identification information LW / CT is extracted from the density information of the image data LW corresponding to the line drawing character object LW. On the other hand, when the specified format information is the screen flag method, the screen flag included in the additional data DSEL of the print file is extracted and used as the image identification information LW / CT.
[0130]
In addition, as a technique for sending information indicating image data attributes attached to image data, in a copying apparatus or a FAX apparatus, a technique for sending region attribute information of a document together with image data obtained by reading with a scanner. There is. However, in this case, it is determined whether each pixel is a text portion or a graphics portion from the read image data (region determination), and the result of the region determination is sent together with the image data. Is not necessarily accurate and is affected by the performance of area discrimination.
[0131]
On the other hand, in the present embodiment, image data is generated based on data that can clearly distinguish characters, pictures, and the like, for example, data expressed in a page description language PDL, and a page description language PDL, etc. Since the attribute information indicating the pixel attribute of the image is generated by referring to the information such as the character and the picture represented by (2), the pixel attribute is accurate. Therefore, accurate processing can be performed by performing processing corresponding to each based on the accurate attribute information.
[0132]
Further, the back-end processor BEP unit 600 is an example of an image data combining unit that obtains a composite image by combining the line drawing data DLW and continuous tone image data DCT that are individually expanded after the expansion processing unit 610. A merge unit 630 is provided.
[0133]
The line drawing data DLW separated by the image data separation unit 520 of the front end processor FEP unit 500 is compressed by the LW compression processing unit 532 and transferred to the LW decompression processing unit 612 on the output side (front end processor FEP unit 600). The continuous tone image data DCT is compressed by the CT compression processing unit 534 and transferred to the CT expansion processing unit 614 on the output side (front end processor FEP unit 600).
[0134]
The decompression processing units 612 and 614 decompress the data by a method suitable for each compression method, merge the decompressed line drawing data DLW2 into the LW resolution matching unit 632 of the merge unit 630, and merge the decompressed continuous tone image data DCT2 To the CT resolution matching unit 634 of the unit 630.
[0135]
The merge unit 630 includes an LW resolution matching unit 632 and a CT resolution matching unit 634 as functional parts for matching the resolutions of the line drawing character object LW and the multi-tone image object CT. An image combining unit 636 that integrates (combines) the image object CT into one image is provided.
[0136]
The LW resolution matching unit 632 and the CT resolution matching unit 634 match the resolutions of the two image objects. For example, when the resolution of the continuous tone image data DCT2 is 400 dpi (dot per inch) and the resolution of the line drawing data DLW2 is 1200 dpi, the continuous tone image data DCT2 is enlarged three times to obtain two types of images. Match the resolution of the object. Both data whose resolution (dpi) has been matched by the LW resolution matching units 632 and 634 are sent to the image combining unit 114.
[0137]
The image combining unit 114 separates the line drawing character object LW and the multi-tone image object CT based on the information indicating the attributes of the individual image objects sent from the front end processor FEP unit 500, thereby obtaining one piece of image data D2. To integrate.
[0138]
For example, consider a case where the line drawing character object LW is 8 bits, the multi-tone image object CT is 8 bits, and the information (select signal) indicating the attribute of the image object is 1 bit. Simply transmitting these from the front-end processor FEP unit 500 to the back-end processor BEP unit 600 requires 17 (= 8 + 8 + 1) bits in total.
[0139]
On the other hand, when the transparent code method is used as the format information relating to the information indicating the attribute of the image object (equivalent to the image identification information), for example, density information “0” (gradation is zero) of the line drawing character object LW. Is assigned attribute discrimination information. That is, when the density information of the line drawing character object LW is “0”, priority is given to the density information of the multi-tone image object CT, and when the density information of the line drawing character object LW is other than “0”, the line drawing character is displayed. The density information of the object LW is prioritized. In this case, the gradation that the line drawing character object LW can reproduce is 255 gradations.
[0140]
For example, when the LW value = “0”, the image combining unit 636 directly places the image density of the multi-tone image object CT on the output image data D2. For example, for a pixel with LW value = “0” and CT value = “200”, CT value = “200” is selected as the value of the output image data D2.
[0141]
On the other hand, when the LW value is other than “0”, the process is divided between the case where the LW value is “1” and the case where the LW value = 2 to 255. For example, when the LW value = “1”, the image combining unit 636 integrates (merges) the images by preferentially selecting the image data of the line drawing character object LW. Then, LW value = “1” is replaced with “0” so that unnecessary image components are not generated by the gradation correction in the gradation correction processing unit 640 (for example, prevention of fogging). For example, for a pixel with LW value = “1” and CT value = “200”, LW value = “1” is selected as the value of the output image data D2, and then replaced with “0”. Therefore, the LW values that the line drawing character object LW can take after merging are 255 gradations of 0, 2, 3, 4,.
[0142]
When the LW value = 2 to 255, the image combining unit 636 preferentially selects the LW image and places it linearly on the output image data D2 as it is after merging. For example, for a pixel with LW value = “255” and CT value = “0”, LW value = “255” is selected as the value of the output image data D2, and is output as “255”.
[0143]
When operating in the PG jig mode using a test signal generated from the pattern generator unit 762 of the IOT core unit 20 (see FIG. 7B described later), regardless of the image type (attribute of the image object). The line drawing character object LW (RAW value) is processed.
[0144]
In the above example, based on the image identification information, only one of the density information is reflected in the output image data D2, that is, the addition ratio of the image data LW and CT sent in two layers (so-called so-called (Weighting) is “100 to 0”, but such image integration (merging) is not necessarily required.
[0145]
For example, an image sent in two layers based on image identification information so that the proportion of the image data LW increases in the line drawing character object LW portion, and conversely the proportion of the image data CT increases in the multi-tone image object CT portion. The addition ratio (so-called weighting) of the data LW and CT may be switched to something other than “100 to 0”, that is, the merge priority may be adjusted. In addition, information indicating the identification of the scan system image and the print system image is also transmitted from the front end processor FEP unit 500 to the back end processor BEP unit 600. It is good also as a structure which adjusts weighting.
[0146]
As described above, according to the configuration of the present embodiment, in the compression of image data transferred from the RIP processing unit 510 of the front end processor FEP unit 500 to the back end processor BEP unit 600 that is the output side, the line drawing character object LW Since the compression method suitable for each of the multi-tone image objects CT is used separately, the data compression rate can be increased.
[0147]
For example, the A2 size of 270 MB has been compressed to 67 MB in the past (also in the first embodiment), but in the second embodiment, it can be compressed to 16 MB. Further, although the raster image processing of PDL data takes time, the RIP processing time can be shortened by performing raster image processing (rasterization) individually after separation according to object attributes.
[0148]
Further, the back-end processor BEP unit 600 corrects gradation characteristics (TRC: Tone Reproduction Curve) depending on the characteristics of the print engine 30 and the fixing device 70 for the image data D2 integrated by the merge unit 630. A gradation correction processing unit 640 that performs (TRC; Tone Reproduction Correction; color tone correction control processing) is provided.
[0149]
The gradation correction processing unit 640 performs gamma (γ) correction on the digital image data of each color of YMCK with reference to, for example, a lookup table LUT. Further, the gradation correction processing unit 640 converts the image data Y, M, C, and K of each color representing the density or brightness, which are the characteristic values inside the print output signal processing system, into the area ratio of the characteristic values of the print engine 30. Accordingly, color correction processing is performed. Since these methods are publicly known techniques, their detailed description is omitted.
[0150]
The YMCK data processed by the gradation correction processing unit 640 is input to the halftone processing unit of the IOT core unit 20 via the interface unit 650, and halftoning processing (pseudo halftone processing) is performed by the halftone processing unit. Or after screen processing, it is input to the light source of the print engine 30 as a modulated binary signal.
[0151]
The gradation correction processing unit 640 uses a number corresponding to the screen type described later as the TRC surface. For example, as will be described later, since the screen has five basic configurations of 150C (Cluster), 200C, 200R (Rotation), 300, 600, screen type 5 × 1 plane = 5 It shall have a surface (each colorant). It should be noted that it is desirable to secure a sufficient RAM area for pre-development in consideration of dynamic correction between pages.
[0152]
In the present embodiment, the gray balance correction in the gradation correction process uses an asynchronous method performed by a diagnostic process (Diagnostic) function for diagnosing the state of each unit in the apparatus before a job.
[0153]
Each tone correction control process TRC can be switched in units of image objects (in effect, in units of pixels), and there are a maximum of three screens in one page (see the description of screens described later). The correction control process (3TRC) is switched. There are two methods for switching: a hardware HW external tag (Tag) and an area tag (Area) implemented by an ASIC (specific application IC).
Implement both internal Tag switching by tag).
[0154]
Here, in the case of the external tag, the LW value of the line drawing character object LW = “00h” (h means hex data) is referred to, and the tone correction control processing TRC is switched and the screen flag is referred to. There are cases.
[0155]
Further, considering the setting time at the time of switching the look-up table LUT (SWLUT), the implementation of passing the color tone correction control process (TRC through) can be achieved by using each LUT parameter so that the through does not have to be configured. A through mode register (bypass is also possible) is provided independently.
[0156]
In the gradation correction processing unit 640, the gradation correction curve is switched based on the information indicating the attribute of the image object transmitted from the front end processor FEP unit 500 to the back end processor BEP unit 600.
[0157]
FIG. 6 is a diagram illustrating an example of a technique for switching the gradation correction curve based on information indicating the attribute of an image object (that is, image data). For example, let us consider a case where the tone reproduction characteristics of the print engine 30 are not linear and are slightly hard (gamma γ is standing) as shown in FIG.
[0158]
Since the gradation reproducibility of the multi-gradation image object CT is regarded as important, the gradation correction processing unit 640 is configured as shown in FIG. 6B so that the gradation reproducibility at the time of print output is linear. In addition, a slightly soft tone correction curve having characteristics opposite to the tone reproduction characteristics of the print engine 30 is applied to the multi-tone image object CT. By doing so, the gradation reproducibility after correction becomes substantially linear.
[0159]
On the other hand, in the case of the line drawing character object LW, it is preferable that the contrast is strong. In this example, since the tone reproduction characteristic of the print engine 30 is a hard tone, the tone reproducibility of the print engine 30 may be applied as it is. Therefore, the gradation correction processing unit 640 applies a substantially linear correction curve to the line drawing character object LW as shown in FIG. By doing so, the gradation reproducibility after correction becomes hard and an image with a strong contrast can be obtained.
[0160]
As described above, according to the configuration of the present embodiment, the gradation correction processing unit 640 refers to the image identification information transmitted from the front-end processor FEP unit 500 to thereby perform gradation correction on an object basis within one page. The characteristics can be switched. As a result, fine gradation adjustment of characters / line drawings and background portions can be achieved, and high print quality required for on-demand printing can be obtained.
[0161]
FIG. 7 is a diagram illustrating an example of a halftone processing unit in the IOT core unit 20. 7A is a diagram showing the overall configuration of the halftone processing unit 760, FIG. 7B is a diagram showing an example of the configuration of the screen processing unit 766, and FIG. It is a figure explaining the concept of. Note that the configuration example of the screen processing unit 766 shown in FIG. 7B is used to explain the principle of screen switching, and the actual one is different from that shown in FIG. 7B. .
[0162]
As shown in FIG. 7A, the IOT core unit 20 includes a pattern generator unit (PG) 762, a digital signal processor (digital signal processor) as a signal processing system that performs halftone processing in addition to the print engine 30 described above. ) Section 764, a screen processing section 766 that uses an analog screen technique, and a ROS control section 768 that controls a ROS (Raster Output Scanner) -based print engine (marking engine) having various members for an electrophotographic process. A halftone processing unit 760 is provided for each color of YMCK (halftone Y to K; Halftone Y to K).
[0163]
The pattern generator unit (PG) 762 generates a test signal for inspecting the IOT core unit 20 alone. Also, test patch data representing a predetermined primary color, a predetermined secondary color, and a predetermined tertiary color (particularly a memory color) used for calibration processing of the primary color to the tertiary color is output. It also outputs test patch data for gray balance.
[0164]
The difference between the test patch data from the pattern generator unit (PG) 762 and the standard image data for one page on which the test patch from the back-end processor BEP unit 600 is arranged is whether or not it is in units of pages. Which data is used as a test signal depends on the calibration method. Here, the detailed explanation is omitted.
[0165]
The digital signal processor unit 764 includes, for example, a functional part 764a that performs gradation correction with the entrance side using a one-dimensional lookup table LUT, a functional part 764b that matches a user's favorite gradation, and the print engine 30 side. A functional portion 764c that performs gradation correction in between is provided.
[0166]
The clean processing unit 766 converts the gradation toner signal of the process color into an ON / OFF binarized toner signal and outputs it, and binarization processing is performed by comparing the threshold value matrix with the data value represented by the gradation. And error diffusion processing. The screen processing unit 766 of the present configuration example uses an analog screen generation technique that is a method that does not have a trade-off between the resolution and the number of gradations, although the degree of freedom in setting the halftone dot shape and the screen angle is small.
[0167]
The ROS control unit 768 sends the binarized toner signal halftoned by the screen processing unit 766 to the light source 37 of the print engine 30 and has a width of approximately 80 mφ and a width of approximately 400 dpi (approximately 16 dots / mm), for example. A halftone visible image is reproduced on a sheet by turning on / off an elliptical laser beam of 60 μmφ.
[0168]
As shown in FIG. 7B, the screen processing unit 766 includes a D / A converter 782 for converting 8-bit digital data from the digital signal processor unit 764 into an analog signal, and an analog image signal after D / A conversion. And a pattern generator 784a, 784b for generating a pattern signal for screen processing (in this example, a triangular wave having a predetermined frequency). The pattern generator 784a generates a triangular wave for 200 lines, and the pattern generator 784b generates a triangular wave for 400 lines.
[0169]
Further, the screen processing unit 766 includes DC bias units 786a and 786b and a DC bias unit 786a that generate a DC bias for matching the analog image signal after D / A conversion and the DC level of the triangular wave from the pattern generators 784a and 784b. , 786b adders 787a and 787b that superimpose the DC component on the triangular wave from the pattern generators 784a and 784b, a comparator (COMP) that compares the analog image signal after D / A conversion and the triangular wave on which the DC bias is superimposed. ) A selection unit 789 that selects and outputs one of the outputs of 788a and 788b and the two comparators 788a and 788b.
[0170]
In this configuration, as shown in FIG. 7C, for example, a D / A converter 782 converts a digital signal having 256 gradations into an analog signal, and then converts this analog signal The SA and the triangular wave signals SPa and SPb generated by the pattern generators 784a and 784b are compared in magnitude by the comparators 788a and 788b to obtain a pulse width modulation signal of 256 divisions (that is, 256 gradations) for each pixel. Then, the image recording is performed by driving the light source 37 of the print engine 30.
[0171]
Since the screen that can be generated by this method is determined by the waveform that can be generated by the pattern generators 784a and 784b, it is usually a line screen and the dot shape cannot be freely changed. Note that the linearity of the triangular wave affects the linearity of the gradation characteristics, and the higher the frequency, the worse the linearity. In general, a screen with a smaller number of lines can provide a linear image with a gradation characteristic.
[0172]
The configurations shown in FIGS. 7B and 7C explain the principle for switching the screen. In this embodiment, as will be described later, from among three or more types of screens, Switch the screen for each image object. For example, the screen types that can be selected by the IOT core unit 20 are basically five types of 150C, 200C, 200R, 300R, and 600 dpi / 8 bits, and 1200 dpi / 1 bit and 2400 dpi / 1 bit can be switched as an extended function. May be. For example, the extended function is enabled only when there is a screen flag.
[0173]
Here, when the presence of a screen flag (flag) can be designated as a signal between the DFE device, that is, the front-end processor FEP unit 500 and the back-end processor BEP unit 600, the screen designation for each image object is performed on the DFE device. When the DFE device side wants to switch between 3 to 4 screen types in one page, it designates the screen type to the back-end processor BEP unit 600 side with a 2-bit screen flag bit. That is, basically, a maximum of four screen types can be taken in one page.
[0174]
Specifically, first, the DFE device receives the presence of a screen flag (tag) as a job ticket. The DFE apparatus has screen types (150C / 200C / 200R / 300/600) such as screen image object 1 (line drawing character object LW in this example) and image object 2 (multi-tone image object CT in this example). Is notified to the back-end processor BEP unit 600 using a job ticket.
[0175]
It is assumed here that, as shown in FIG. 10 described later, one type of line drawing character object LW is designated among 200C, 300, and 600, and multi-tone image object CT is 200C, 200R, 300, and so on. One type can be specified from 150C, and 1200 dpi / 1 bit can be instructed to the IOT core unit 20 side for black text or black line.
[0176]
It should be noted that between the front-end processor FEP unit 500 (DFE device) and the back-end processor BEP unit 600, even though 2 bits / 4 types of screens can be taken, in practice, due to circuit limitations of the IOT core unit 20, Is the largest of three screens.
[0177]
The screen output to the IOT core unit 20 side is 4 bits, and decoding from the screen flag bits (2 bits) instructed from the DFE device is performed by the back-end processor BEP unit 600.
[0178]
The back-end processor BEP unit 600 notifies the IOT core unit 20 of the screen type of the image objects 1 and 2 (LW / CT) designated from the DFE device via the Sys unit 85.
[0179]
From the DFE device, the screen bits can be given meaning as shown in Table 1. For this reason, a logic RAM or a register of 2-bit → 4-bit decoding is mounted for each color in the back-end processor BEP unit 600.
[Table 1]
Figure 0004352669
[0180]
FIG. 8 is a diagram illustrating an example of a decoding method of the image identification information LW / CT in the back-end processor BEP unit 600. Here, FIG. 8A shows an example of a screen tag signal between the back-end processor BEP unit 600 and the IOT core unit 20 when the format information is shown in the screen flag system. (B) shows an example of a screen tag signal between the back-end processor BEP unit 600 and the IOT core unit 20 when the format information is shown in a transparent code system.
[0181]
As shown in FIG. 8A, when the screen flag method is adopted, the front-end processor FEP unit 500 side packs (collects), for example, 2-bit attribute information with 8-bit image data, The data is transferred to the back end processor BEP unit 600 as one print file. In response to this, the print control unit 620 of the back-end processor BEP unit 600 decodes it and switches gradation correction characteristics, priority information for image integration processing (merging), or engine-side screen line type switching. Used for.
[0182]
As shown in FIG. 8B, when the transparent code method is adopted, the front-end processor FEP unit 500 embeds the image identification information LW / CT in the density information of the image data corresponding to the line drawing character object LW. . In response to this, the back end processor BEP unit 600 side refers to the LW side 00h (transparent code) sent from the front end processor FEP unit 500, and the print control unit 620 performs two types of LW / CT independently. Replace with a screen tag signal to switch screens. If it is 00h, the density on the CT side is output, and if it is not 00h, the LW side is selected at the time of merging. Further, the transparent code is referred to, and the gradation characteristics (TRC) for LW and CT are switched, the priority of image integration processing (merging) is switched, or the screen line type on the engine side is switched.
[0183]
In response to this, the IOT core unit 20 refers to the information decoded by the back-end processor BEP unit 600 and switches the screen line type in accordance with each image object in one page.
[0184]
FIG. 9 and FIG. 10 are diagrams illustrating an example of a mode of switching screens in the IOT core unit 20. Here, FIG. 9 shows an example when there is a screen flag as a signal between the back-end processor BEP unit 600 and the IOT core unit 20, and FIG. 10 shows an example when there is no screen flag.
[0185]
FIG. 11 is a diagram showing an outline of the cluster screen and the rotation screen. Here, FIG. 11A shows an example of a cluster screen matrix (unit pattern × 4), and FIG. 11B shows an example of rotation clean.
[0186]
The halftone screen for generating the pseudo halftone image is a two-dimensional threshold value array for comparing the pixel values of the original image with each other and generating binary halftone pixel values based on the result. . Usually, this two-dimensional threshold value array is configured as a unit pattern and is repeatedly applied two-dimensionally to an image.
[0187]
The unit pattern is a basic unit for expressing a halftone gradation. In an example of a so-called spiral dither pattern, a threshold value array stored in each cell of a 4 × 4 matrix is a unit pattern. In this case, the number of gradations is 16. A screen having a larger number of gradations can be created by connecting a plurality of unit patterns. This is called a cluster type screen, for example, as shown in FIG.
[0188]
In the screen of FIG. 11A, the number of gradations is 64. As the unit pattern is larger and the number of connected clusters is larger, the number of gradations is increased, but the basic unit is expanded two-dimensionally, so that the resolution is lowered. That is, the number of gradations and the resolution are in a contradictory relationship, and the relationship is optimized based on the required specifications.
[0189]
In an image processing apparatus, for example, a printer apparatus using xerography, halftoning by a halftone dot forming method is usually used. Xerography has the property that a stable image output can be obtained by outputting the dots in a cluster rather than outputting a single dot. In this respect, the halftone dot formation method is suitable for xerography. It can be said that it is a halftoning method.
[0190]
On the other hand, a rotation screen generates a threshold value matrix by generating a halftone dot nucleus using an orthogonal lattice or an oblique lattice and performing growth in accordance with a target halftone shape from this nucleus. Here, a screen using an orthogonal lattice having an arbitrary angle with respect to a spatial coordinate as a threshold matrix is called an orthogonal lattice screen, and all screens created from a lattice including lattice intersections other than 90 degrees are oblique. It is said to be a grid screen.
[0191]
An orthogonal grid screen is a special case of an oblique grid screen, i.e., the grid crossing angle is 90 degrees. From this, it is clear that the oblique grid screen satisfies the conditions of a wider screen size, angle, and number of lines than the orthogonal grid screen. Hereinafter, unless otherwise specified, an orthogonal lattice screen is also included in the oblique lattice screen.
[0192]
The oblique lattice is formed by parallel straight lines having an angle θ and an angle ω with respect to the x-axis and the y-axis of the space coordinates. In this case, the line interval of the parallel straight lines must take a fixed value, but as shown in FIG. 11B, it is possible to take line intervals L1 and L2 having different angles.
[0193]
Note that, depending on the screen, for example, a phenomenon that the highlight portion and the shadow portion are crushed may occur. For this reason, before the halftoning process is performed, the gradation correction processing unit 640 performs gradation correction in anticipation of the crushing and the like so as to correct the tone curve of the original multi-gradation image. Good.
[0194]
Next, the concept of the method of using the screen depending on the image object will be described. If cluster C is used as the screen, the screen angle can be swung in the range of 90 degrees because it is a dot. Further, since the printed portions are concentrated, the gradation is better than the rotation R (line). On the other hand, when the rotation R (line) is used, since the screen angle is 180 degrees, the screen angle can be swung at 180 degrees, so it is resistant to moire. However, since the angular direction component is strong, halftone fine lines are easily removed.
[0195]
In the 150 line, the gamma γ is close to linear and the engine stability is good, but the texture becomes rough and the half-thin line tends to disappear. At line 200, gamma γ stands slightly, but other characteristics are normal. The 300 line has fine gamma γ but poor graininess but fine texture. However, there is room for improvement in terms of gradation.
[0196]
The nature of each screen is as described above, but in reality, it depends on the characteristics of the engine being used, so there are some parts that cannot be generally stated. In determining which screen to select, for example, the following points should be considered.
1) 150C (150-line cluster) is suitable for presentation originals (printer creation output) that emphasize gradation and stability.
2) 300 lines are suitable for outputting fine images such as maps.
3) Since a scanned image of a photographic paper photograph does not have a periodic structure and requires fine texture and straightforward gamma γ, 200C (200-line cluster) is suitable.
4) Since scanned images of printed photographs and mixed-printed originals have a periodic structure, 200R (200-line rotation) is suitable because of concern about moire.
5) When printing an image of application software that uses halftone lines as table ruled lines, 200C (200-line cluster) may be suitable.
[0197]
Note that it is difficult to properly use the cluster C and the rotation R, which is related to engine characteristics. If the moiré is difficult to see, it can be unified by the cluster C. However, depending on the apparatus, the rotation R may have better gradation than the cluster C. In such a case, the 200R may be used as the main for each mode (both printer / copy).
[0198]
The back-end processor BEP unit 600 according to the present embodiment receives information indicating the attribute of an image object from the front-end processor FEP unit 500 together with image data. In one page, for example, the IOT is configured to switch the screen for each image object, such as using a 600-line screen for the line drawing character object LW and using a 200-line screen for the multi-tone image object CT. The core unit 20 is controlled.
[0199]
In addition, when printing scanned images of photographic paper photographs, the use of a 200-line cluster screen makes it possible to output fine and straight gamma γ images without a periodic structure, and a mixture of scanned images and prints of printed photographs. When printing an original, it is possible to use a 200-line rotation screen that hardly causes moire.
[0200]
As described above, according to the present embodiment, on the IOT core unit 20 side, screen switching can be performed in units of image objects (in effect, in units of pixels), and gradation characteristics of characters / line images and background portions and high image quality due to the screen can be achieved. It becomes possible to achieve high print quality required for on-demand printing.
[0201]
Also, format information that distinguishes the format of image identification information, such as the transparent code method and the screen flag method, is described in the print file, and the back-end processor refers to the description of the received print file and transmits the transparent code method and the screen flag. By automatically discriminating the method, for example, the gradation correction characteristics, the screen type, and the merge priority can be automatically determined independently of LW / CT. In other words, when the front-end connected to the system is a manufacturer with different specifications, the image identification information format adopted by the image data generation device is used without negotiating the format of the image identification information between the two. Therefore, it is possible to perform suitable image processing on each image object without reducing productivity.
[0202]
As a result, even if the front-end connected to the system is a manufacturer with different specifications, it is possible to output image data to the engine side via the back-end, expanding business opportunities and customer It becomes possible to construct a printing system that makes use of the existing RIP engine.
[0203]
As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. Various changes or improvements can be added to the above-described embodiment without departing from the gist of the invention, and embodiments to which such changes or improvements are added are also included in the technical scope of the present invention.
[0204]
Further, the above embodiments do not limit the invention according to the claims (claims), and all combinations of features described in the embodiments are not necessarily essential to the solution means of the invention. Absent. The embodiments described above include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. Even if some constituent requirements are deleted from all the constituent requirements shown in the embodiment, as long as an effect is obtained, a configuration from which these some constituent requirements are deleted can be extracted as an invention.
[0205]
For example, in the above embodiment, two compressed image data LW and CT corresponding to individual image objects such as a text object and a graphics object are sent in two layers, and object attribute information (that is, image identification information) for each individual pixel. Is sent as ancillary information in association with each other, but the text object and the graphics object are sent together as one image data, and the object attribute information is added as the auxiliary information for each individual image object constituting the image. You may make it send in association. Also in this case, it is preferable to switch the characteristics of image processing (for example, gradation correction processing, screen type, etc.) so as to correspond to individual image objects with reference to the object attribute information.
[0206]
Further, in the above-described embodiment, an example in which the present invention is applied to an apparatus that uses an electrophotographic process as a print engine that is a main part that forms a visible image on a recording medium has been described. Is not limited to this. For example, the present invention relates to an image forming system including an image forming apparatus configured to form a visible image on plain paper or heat-sensitive paper by an engine having a thermal, thermal transfer, ink jet, or other similar conventional image forming mechanism. Can be applied.
[0207]
In the above-described embodiment, the image forming apparatus is described as an example of a printing apparatus (printer) including a print engine using an electrophotographic process. However, the image forming apparatus is not limited to this, and may be a color copying machine, a facsimile, or the like. Anything having a so-called printing function for forming an image on a recording medium may be used.
[0208]
In addition, a storage medium in which a program code of software that realizes the functions of the above-described embodiments is supplied to a system or apparatus, and the computer (or CPU or MPU) of the system or apparatus stores the program code in the storage medium. The effect described in the above embodiment can also be achieved by reading and executing. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment. Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) operating on the computer based on the instruction of the program code. There may be a case where part or all of the actual processing is performed and the functions of the above-described embodiments are realized by the processing.
[0209]
Further, after the program code read from the storage medium is written into a memory provided in a function expansion card inserted in the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. There may be a case where the CPU or the like provided in the card or the function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.
[0210]
【The invention's effect】
As described above, according to the present invention, information indicating the attribute of an image object is transmitted from the front-end processor FEP unit that generates image data to the back-end processor BEP unit using, for example, a transparent code method or a screen flag method. I did it. At this time, format information that distinguishes the format of image identification information such as the transparent code method and the screen flag method is described in the print file, and the back-end processor refers to the format information described in the received print file. I tried to do it.
[0211]
As a result, when the front-end connected to the system is a manufacturer with different specifications, the image identification information format adopted by the image data generation side can be used without having to negotiate the format of the image identification information between the two. Can be automatically determined.
[0212]
Then, the image identification information indicating the attribute of the image object is specified based on the automatically determined transmission method. Based on this image identification information, for example, the gradation characteristic is switched for each object within one page, or the IOT is selected. Changed the screen for each object on the core side.
[0213]
As a result, the gradation characteristics of the characters / line images and the background and the high image quality by the screen can be achieved, and it is possible to obtain the high print quality (image quality) required for on-demand printing.
[0214]
In addition, the image identification information used by the image data generation side is not required to negotiate the format of the image identification information between the front end processor having the image data generation function and the back end processor having the image processing function. Since the format can be automatically discriminated, it is possible to perform suitable image processing for each image object without reducing productivity.
[0215]
As a result, even if the front-end connected to the system is a manufacturer with different specifications, it is possible to output image data to the engine side via the back-end, expanding business opportunities and customer It becomes possible to construct a system that makes use of the existing RIP engine.
[Brief description of the drawings]
FIG. 1 is a diagram showing an embodiment of an image forming system according to the present invention.
FIG. 2 is a diagram summarizing an example of functional role sharing between a front-end processor FEP unit and a back-end processor BEP unit.
FIG. 3 is a diagram illustrating a difference between a conventional image forming system and an image forming system to which the image processing system of the present embodiment is applied.
FIG. 4 is a block diagram illustrating an embodiment of a front-end processor FEP unit and a back-end processor BEP unit.
FIG. 5 is a diagram illustrating separation of line drawing data DLW and continuous tone image data DCT.
FIG. 6 is a diagram illustrating an example of a technique for switching a tone correction curve based on information indicating an attribute of an image object.
FIG. 7 is a diagram illustrating an example of a halftone processing unit.
FIG. 8 is a diagram illustrating an example of a decoding method of image identification information in a back-end processor BEP unit.
FIG. 9 is a diagram illustrating an example of a mode of switching screens in an IOT core unit. (If there is a screen flag)
FIG. 10 is a diagram illustrating an example of a mode of switching screens in an IOT core unit. (If there is no screen flag)
FIG. 11 is a diagram showing an outline of a cluster screen and a rotation screen.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Image forming apparatus, 2 ... IOT module, 5 ... Feed module, 7 ... Output module, 8 ... User interface apparatus, 9 ... Connection module, 20 ... IOT core part, 30 ... Print engine, 31 ... Optical scanning device, 32 DESCRIPTION OF SYMBOLS ... Photosensitive drum, 39 ... Electric system control accommodating part, 43 ... Intermediate transfer belt, 45 ... Secondary transfer part, 70 ... Fixing device, 80 ... GUI part, 500 ... Front end processor FEP part (image data generation apparatus), 502 ... Data storage unit, 510 ... RIP processing unit, 516 ... Image arrangement processing unit, 520 ... Image data separation unit, 523 ... LW raster image processing unit, 525 ... CT raster image processing unit, 530 ... Compression processing unit, 532 ... LW compression processing unit, 534... CT compression processing unit, 540... File transfer unit, 550. END processor BEP unit (image processing apparatus), 601... Separated data receiving unit (print file receiving unit), 602... Image storage unit, 610... Decompression processing unit, 612 ... LW decompression processing unit, 614. ... print control unit (format information extraction unit, attribute information extraction unit), 630 ... merge unit, 632 ... LW resolution matching unit, 634 ... CT resolution matching unit, 636 ... image combination unit, 640 ... gradation correction processing unit, 760 ... halftone processing unit, 762 ... pattern generator unit, 764 ... digital signal processor unit, 766 ... screen processing unit, 768 ... ROS control unit

Claims (7)

印刷データを構成する個々のイメージデータと、前記個々のイメージデータの属性を示すイメージ識別情報と、前記イメージ識別情報に係る形式情報とを対応付けて受け取り、
この受け取った前記形式情報に基づいて前記イメージ識別情報の形式を特定し、特定した形式に従って前記イメージ識別情報を特定し、特定した前記イメージ識別情報に基づいて、前記個々のイメージデータに対する画像処理を施す
ことを特徴とする画像処理方法。
Each image data constituting print data, image identification information indicating attributes of the individual image data, and format information related to the image identification information are received in association with each other;
The received based on the previous SL format information identifies the format of the image identification information to identify the image identification information in accordance with the specified format, based on the specified the image identification information, the individual pairs into image data An image processing method characterized by performing image processing.
前記形式情報は、前記イメージ識別情報を濃度情報に埋め込んで伝達する透過コード方式と、前記イメージデータとは別に疑似中間調処理に関わるスクリーンの種別を現すスクリーンフラグとして前記イメージ識別情報を電送するスクリーンフラグ方式の何れを前記イメージ識別情報が採用しているのかを示す情報であるThe format information includes a transparent code system in which the image identification information is embedded and transmitted in density information, and a screen that transmits the image identification information as a screen flag indicating a screen type related to pseudo halftone processing separately from the image data. Information indicating which of the flag methods is used by the image identification information
ことを特徴とする請求項1に記載の画像処理方法。  The image processing method according to claim 1.
印刷データに基づいてイメージデータを生成するイメージデータ生成装置と、前記イメージデータ生成装置により生成された前記イメージデータに対して画像処理を施す画像処理装置とを備え、
前記イメージデータ生成装置は、前記印刷データを構成する個々のイメージデータを生成して前記画像処理装置に送出するとともに、この生成した個々のイメージデータの属性を示すイメージ識別情報と前記イメージデータ識別情報に係る形式情報とを個々のイメージデータに対応付けて前記画像処理装置に送出し、
前記画像処理装置は、前記イメージデータ生成装置から受け取った前記形式情報に基づいて前記イメージ識別情報の形式を特定し、特定した形式に従って個々のイメージ識別情報を特定し、特定した前記イメージ識別情報に基づいて、前記イメージデータ生成装置から受け取った個々のイメージデータに対する画像処理を施す
ことを特徴とする画像処理システム。
Comprising an image data generating device for generating image data, and said image data generating apparatus image processing apparatus for performing the images processing to said image data generated by on the basis of print data,
The image data generating apparatus sends out to generate individual image data constituting the printing data to the image processing apparatus, the image data identification information and image identification information indicating the attributes of the individual image data the product And the format information according to the image processing device in association with individual image data,
The image processing apparatus, the identifying the format of the image identification information based on the previous SL format information received from the image data generating device, identifies the specific image identification information in accordance with the specified format, the image identification identified an image processing system based on the information, and characterized by applying image processing to be paired to each image data received from the image data generating device.
前記形式情報は、前記イメージ識別情報を濃度情報に埋め込んで伝達する透過コード方式と、前記イメージデータとは別に疑似中間調処理に関わるスクリーンの種別を現すスクリーンフラグとして前記イメージ識別情報を電送するスクリーンフラグ方式の何れを前記イメージ識別情報が採用しているのかを示す情報であるThe format information includes a transparent code system in which the image identification information is embedded and transmitted in density information, and a screen that transmits the image identification information as a screen flag indicating a screen type related to pseudo halftone processing separately from the image data. Information indicating which of the flag methods is used by the image identification information
ことを特徴とする請求項3に記載の画像処理システム。  The image processing system according to claim 3.
印刷データを構成する個々のイメージデータと、前記イメージデータの属性を示すイメージ識別情報と、前記イメージ識別情報に係る形式情報とを対応付けてイメージデータ生成装置から受け取る印刷ファイル受信部と、
前記印刷ファイル受信部が受け取った前記形式情報に基づいて前記イメージ識別情報の形式を特定し、特定した形式に従って前記イメージ識別情報を特定し、特定した前記イメージ識別情報に基づいて、前記イメージデータ生成装置から受け取った個々のイメージデータに対する画像処理を施す画像処理部と
を備えたことを特徴とする画像処理装置。
And individual image data constituting the printing data, and image identification information indicating the attribute of the image data, the print file receiving unit for receiving from the Image data generating apparatus in correspondence with the format information according to the image identification information,
The printing to identify the format of the image identification information based on the file receiving unit before Symbol format information received, to identify the image identification information in accordance with the specified format, based on the identified the image identification information, the image the image processing apparatus characterized by comprising an image processing unit for performing image processing for pairs to each image data received from the data generating device.
前記形式情報は、前記イメージ識別情報を濃度情報に埋め込んで伝達する透過コード方式と、前記イメージデータとは別に疑似中間調処理に関わるスクリーンの種別を現すスクリーンフラグとして前記イメージ識別情報を電送するスクリーンフラグ方式の何れを前記イメージ識別情報が採用しているのかを示す情報であるThe format information includes a transparent code system in which the image identification information is embedded and transmitted in density information, and a screen that transmits the image identification information as a screen flag indicating a screen type related to pseudo halftone processing separately from the image data. Information indicating which of the flag methods is used by the image identification information
ことを特徴とする請求項5に記載の画像処理装置。  The image processing apparatus according to claim 5.
メージデータ生成装置にて生成された印刷データを構成する個々のイメージデータに対して画像処理を施すためのプログラムであって、
コンピュータを、
前記イメージデータ生成装置から送られた個々のイメージデータの属性を示すイメージ識別情報に係る形式情報に基づいて前記イメージ識別情報の形式を特定し、特定した形式に従って前記イメージ識別情報を特定し、特定した前記イメージ識別情報に基づいて、個々のイメージデータに対する画像処理を施す画像処理部
として機能させることを特徴とするプログラム。
A program for performing the images processed for individual image data constituting the print data generated by the Image data generating device,
Computer
The format of the image identification information is specified based on the format information related to the image identification information indicating the attribute of the individual image data sent from the image data generation device, the image identification information is specified according to the specified format, and specified. on the basis of the image identification information, a program for causing to function as an image processing unit that performs image processing for pairs to each image data.
JP2002253470A 2002-08-30 2002-08-30 Image processing system, image processing apparatus, image processing method, and program Expired - Fee Related JP4352669B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002253470A JP4352669B2 (en) 2002-08-30 2002-08-30 Image processing system, image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002253470A JP4352669B2 (en) 2002-08-30 2002-08-30 Image processing system, image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2004090340A JP2004090340A (en) 2004-03-25
JP4352669B2 true JP4352669B2 (en) 2009-10-28

Family

ID=32059461

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002253470A Expired - Fee Related JP4352669B2 (en) 2002-08-30 2002-08-30 Image processing system, image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP4352669B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9162450B2 (en) * 2012-03-22 2015-10-20 Canon Kabushiki Kaisha Image processing apparatus and image processing method
CN112686808B (en) * 2020-12-22 2023-07-28 江苏迪盛智能科技有限公司 Method and device for correcting spiral line of light processing image

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2828011B2 (en) * 1996-03-22 1998-11-25 日本電気株式会社 Printer device
JP3837803B2 (en) * 1996-12-09 2006-10-25 富士ゼロックス株式会社 Printing system
JPH10191075A (en) * 1996-12-20 1998-07-21 Fuji Xerox Co Ltd Color correction device
JPH11164062A (en) * 1997-11-26 1999-06-18 Murata Mach Ltd Pictorial communication equipment and method and storage medium recording pictorial communication program
JP4428743B2 (en) * 1998-11-06 2010-03-10 キヤノン株式会社 Image processing method and apparatus, printer, image processing system, and storage medium
JP2000184205A (en) * 1998-12-18 2000-06-30 Fuji Xerox Co Ltd Image forming system and its control method
JP4035907B2 (en) * 1999-01-04 2008-01-23 富士ゼロックス株式会社 Image forming system and control method thereof
JP2001331291A (en) * 2000-05-19 2001-11-30 Canon Inc Picture processing system and data distribution processing method and recording medium
JP3487284B2 (en) * 2000-11-02 2004-01-13 セイコーエプソン株式会社 Printer system, printer driver, and printer

Also Published As

Publication number Publication date
JP2004090340A (en) 2004-03-25

Similar Documents

Publication Publication Date Title
US7809807B2 (en) Image forming system, image forming method, and server
JP3797669B2 (en) Image forming apparatus and image forming method
US20050068586A1 (en) Image processing apparatus and image processing method
US7352487B2 (en) Print control system, print control method, memory medium, and program
US20100103435A1 (en) Image processing apparatus and image processing method for processing screen-processed image
JP4402580B2 (en) Image processing system
US8270030B2 (en) Image processing apparatus and method for converting image data into a specified resolution
US8040536B2 (en) Image data communication in image processing system
US20040042038A1 (en) Image forming system and back-end processor
JP2009272774A (en) Image processor, image forming apparatus, image processing method, and computer program
US8441690B2 (en) Image processing apparatus and image processing method for processing screen-processed image
US20050206948A1 (en) Image formation assistance device, image formation assistance method and image formation assistance system
JP4352669B2 (en) Image processing system, image processing apparatus, image processing method, and program
JP4063017B2 (en) Image forming system, back-end processor, front-end processor
JP4534505B2 (en) Printing apparatus and raster image processor
JP2004094439A (en) Image processing system, image processor, image processing method, program and storage medium
JP4135439B2 (en) Image processing system, image processing apparatus, image processing method, program, and storage medium
JP4697933B2 (en) Image processing apparatus, image input / output apparatus and methods thereof
JP4379168B2 (en) Image formation support device
JP2008022082A (en) Image forming apparatus and control method thereof
JP4200913B2 (en) Image formation support system
JP2005027037A (en) Format conversion method and image processing apparatus
JP2003330667A (en) Network device controller
JP2005268916A (en) Image forming support apparatus, image forming support method, and image forming support system
JP2004094441A (en) Image processing system, image processing device, image processing method, program, and storing medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090707

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090720

R150 Certificate of patent or registration of utility model

Ref document number: 4352669

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120807

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120807

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130807

Year of fee payment: 4

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees