JP3738807B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP3738807B2
JP3738807B2 JP08056599A JP8056599A JP3738807B2 JP 3738807 B2 JP3738807 B2 JP 3738807B2 JP 08056599 A JP08056599 A JP 08056599A JP 8056599 A JP8056599 A JP 8056599A JP 3738807 B2 JP3738807 B2 JP 3738807B2
Authority
JP
Japan
Prior art keywords
image
unit
image data
signal
stored
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP08056599A
Other languages
Japanese (ja)
Other versions
JP2000278506A (en
Inventor
義弘 寺田
裕義 上條
和満 谷内
真之 久武
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP08056599A priority Critical patent/JP3738807B2/en
Publication of JP2000278506A publication Critical patent/JP2000278506A/en
Application granted granted Critical
Publication of JP3738807B2 publication Critical patent/JP3738807B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、画像データを蓄積する機能を備えた画像処理装置及び画像処理方法に関するものであり、特に、カラー画像など緻密な画像処理を必要とする画像データの処理に用いて好適な画像処理装置及び画像処理方法に関するものである。
【0002】
【従来の技術】
近年、デジタル画像の入出力機器および関連する技術の進歩・発達が著しく、それに伴って原稿をデジタル信号として読み取り、各種の画像処理を施して印字するデジタル複写機など、各種のデジタル画像を取り扱う画像処理装置が急速に普及してきている。例えばデジタル複写機においては、デジタルならではの信号処理によって、従来の光学式の複写機では不可能であった、例えば電子的なソート機能やページレイアウト編集などの、多彩かつ高度な編集機能を有するシステムも各種提案されている。
【0003】
図35は、従来の画像複写システムの一例を示すブロック図である。図中、201は画像入力部、202は画像出力部、203は画像処理部、210は画像再現部、211は階調補正部、212はセレクタ、213は空間補正部、214は階調補正部、215は中間調生成部、220は画像蓄積・編集部、221は符号化部、222は復号化部、223は変倍部、224は画像蓄積部、225はメモリコントローラ、226はページメモリ、227はバスである。
【0004】
画像入力部201は、原稿載置台、光源、CCDラインセンサ、A/D(アナログ/デジタル)変換器などから構成される。1次元のCCDラインセンサを用いる場合、CCDラインセンサ中の受光素子の並び方向(主走査方向)と直交する方向(副走査方向)に原稿を相対的に移動させることによって、反射光の強さに応じた8ビット/画素の電気信号を生成する。
【0005】
画像出力部202は、例えば電子写真方式などの記録方式によって、被記録媒体上に白黒画像のプリントを行う。
【0006】
画像処理部203は、画像入力部201が原稿を走査して出力する画像信号を受け取り、画像出力部202において原稿上の画像が良好に再現されるような信号を生成する。図35に示すように、画像処理部203は、画像再現部210と画像蓄積・編集部220を有している。画像再現部210は、画像入力部201から受け取った画像信号から、画像出力部202で画像を再現するための出力信号を生成する。また画像蓄積・編集部220は、原稿画像をページ単位で記憶し、ソートやレイアウト編集などを実現する。
【0007】
画像再現部210は階調補正部211、セレクタ212、空間補正部213、階調補正部214、中間調生成部215から構成される。階調補正部211は、画像入力部201の階調特性に応じて、画像入力部201で入力された画像信号の階調を補正する。セレクタ212は、図示しない制御部により制御され、階調補正部211から出力される画像信号あるいは画像蓄積・編集部220から読み出した画像信号のうちのいずれかを選択する。空間補正部213は、セレクタ212で選択された画像信号の空間特性を補正する。階調補正部214は、画像出力部202の階調特性に応じて画像信号の階調を補正する。中間調生成部215は、8ビット/画素の画像信号から印字用の2値信号を生成して画像出力部202に出力する。
【0008】
画像蓄積・編集部220は、符号化部221、復号化部222、変倍部223、画像蓄積部224、メモリコントローラ225、ページメモリ226より構成され、これらをバス227で結んでいる。符号化部221は、画像再現部210の階調補正部211より入力される8ビット/画素の画像信号を、例えばJPEG等に代表される、所定の多値画像圧縮方式により符号化を行う。復号化部222は、所定の多値画像圧縮方式で符号化されたデータを伸長し、画像信号を生成する。変倍部223は、画像信号に対して(主走査方向および副走査方向の)2次元の拡大及び縮小処理を行う。画像蓄積部224は、符号化部221で符号化された画像データをページ単位に蓄積する。メモリコントローラ225はページメモリ226を制御し、画像の回転やレイアウト編集等の際に用いられる。例えばページメモリ226への書き込みアドレスや読み出しアドレスを制御することによって、回転処理や鏡像処理等を実現することができる。ページメモリ226には、画像の回転やレイアウト編集等の際に一時的に画像データが格納される。
【0009】
図35に示すような構成において、例えば1枚の原稿を1部複写するような通常のコピー動作では、画像信号は画像蓄積・編集部220へは入力されない。画像入力部201で入力された画像信号は、画像再現部210の階調補正部211、空間補正部213、階調補正部214で補正処理が施され、中間調生成部215で2値化されて、画像出力部202へ出力される。
【0010】
前述のソート動作やページ編集が施される場合には、画像入力部201で入力された画像信号は、階調補正部211で階調補正処理が施された後、画像蓄積・編集部220へ出力される。画像蓄積・編集部220に入力された画像信号は、符号化部221で符号化された後、画像蓄積部224へページ単位で蓄積される。
【0011】
例えば、複数枚数の原稿を丁合モードで所定部数だけ複写する電子ソート機能を実現するには、全ての原稿を一旦画像蓄積部224へ格納した後、所定の順番で画像蓄積部224から符号化された画像データを読み出し、復号化部222で伸長し、画像再現部210へ画像信号を出力する。また、拡大・縮小や回転、各種レイアウト等の編集を実現する際には、画像蓄積部224に保持されている画像データを復号化部222で伸長し、変倍部223で拡大・縮小の処理を行ったり、メモリコントローラ225によって回転や所定位置への書き込み等を行って、ページメモリ226上に所望の画像信号を生成する。ページメモリ226上に生成された画像信号は、そのまま印刷する場合には画像再現部210へ出力され、また前述の電子ソートのような機能と組み合わせる場合には符号化部221で再び圧縮され、画像蓄積部224に蓄積される。
【0012】
画像蓄積・編集部220から画像再現部210へ入力されてくる画像信号は、セレクタ212を経由して、上述の通常のコピー動作と同様に、空間補正部213、階調補正部214での各補正処理が行われ、中間調生成部215で2値化されて、画像出力部202へ出力される。
【0013】
以上のような構成及び動作によって、上述のように高度な編集機能を実現することができる。しかしながら、例えばデジタルカラー複写機に代表されるような極めて高画質で緻密な再現処理を行う画像処理装置の場合には、以下に説明するように画像再現部の構成が非常に複雑になるため、同様の機能を実現することが困難であった。
【0014】
図36は、従来のデジタルカラー複写機の一例を示すブロック図である。図中、301は画像入力部、302は画像出力部、303は画像処理部、304は制御部、310は階調補正部、311は色補正部、312は墨版生成・下色除去部、313は画像信号変倍部、314は切換信号変倍部、315は空間補正部、316は階調補正部、317は中間調生成部、318は絵/文字分離部、319は原稿検知部である。
【0015】
画像入力部301は、原稿上の画像を例えばレッド(R)、グリーン(G)、ブルー(B)等の3原色に色分解した電気信号を生成する。画像出力部302は、例えば、イエロー(Y)、マゼンタ(M)、シアン(C)、ブラック(K)の4色のトナー等を用いて電子写真方式で印字し、フルカラーの画像を被記録媒体上に印刷する。画像処理部303は、画像入力部301で原稿を走査して出力されるRGB信号を受け取り、画像出力部302において原稿上の画像が良好に再現されるようなY、M、C、K信号を生成する。
【0016】
このシステムでは、画像入力部301と画像出力部302の副走査方向への走査は同期している。また、上述のようにY、M、C、Kの4色で印刷を行う場合には、画像入力部301は原稿を4回走査し、画像処理部303ではその入力RGB信号を受けて各回の走査ごとに例えばY→M→C→Kの順番で色信号を生成する。画像出力部302は同様に、例えばY→M→C→Kの順番で印字を行って4色のフルカラープリントが行われる。なお、制御部304は画像入力部301、画像出力部302、画像処理部303の制御を行う。
【0017】
画像処理部303中の階調補正部310は、入力されるRGBの3原色の画像信号に対して、画像入力部301の階調特性を補正する。この階調補正部310は、例えばR、G、Bのそれぞれの信号に対して予め設定された1次元のLUT(ルックアップテーブル)を参照することにより階調補正処理を実現することができる。色補正部311は、階調補正処理が施されたRGB信号から、画像出力部302で使用される色材の色特性に合致したYMC信号を生成する。この色補正部311は、例えば3行6列の行列演算により実施される公知のマスキング技術により実現することができる。
【0018】
墨版生成・下色除去部312は、色補正後のYMC信号からグレイ成分を抽出し、画像出力部302の印字サイクルに合わせてY/M/C/K信号を生成する。具体的には、Y、M、Cの最小値を基準にしてK信号を求めた後、決定されたK成分に応じてY、M、C信号から下色成分を除去する公知の墨版生成・下色除去処理を行う。
【0019】
画像信号変倍部313は、公知の線形補間により主走査方向への画像の縮小・拡大処理を行うとともに、画像入力部301における副走査方向の走査速度の制御に合わせて副走査方向の縮小・拡大処理を行い、入力画像に対する2次元の変倍処理を実現する。切換信号変倍部314は、画像信号変倍部313と同じ倍率で、後述する絵/文字分離部318から出力されるTag信号の変倍を行う。変倍処理は、例えば公知の零次ホールド法等が用いられる。
【0020】
空間補正部315は、入力されるY/M/C/K信号の空間特性を補正する。例えば注目画素を中心として、主走査方向に±3画素、副走査方向に±2画素の計35画素に対して所定係数を乗じて加算する、つまり畳み込み演算を実施することによって、入力画像の空間特性を補正する。階調補正部316は、画像出力部302の階調特性を補正する。例えば、Y/M/C/Kそれぞれの信号に対して予め設定された1次元のLUT(ルックアップテーブル)を参照することにより実現される。中間調生成部317は、画像出力部302に出力するY/M/C/K2値信号を生成する。例えば、Y/M/C/Kそれぞれの色信号に対して予め設計されたディザマトリクス閾値と入力画像信号を比較することによって、2値信号を生成する。
【0021】
原稿検知部319は、画像入力部301で読み込まれる原稿の大きさや位置を検知したり、白黒原稿かカラー原稿かを判定するなど、複写動作に必要とされる情報を原稿画像から抽出する。この抽出処理は、例えば原稿読み込み走査に先立って行われる予備走査時に行うことができ、制御部304へ抽出した情報を送出する。
【0022】
絵/文字分離部318は、原稿画像の各画素が文字であるのか絵柄であるのかを画素単位に識別する。そして、その識別結果に従って、墨版生成・下色除去部312、空間補正部315、階調補正部316、中間調生成部317において最適な処理が行われるように、画素単位に処理内容を切り換える信号を生成して出力する。以下、このように画像信号と画素単位に対応し、各画像処理内容の切り換えや変更に用いる信号のことをTag信号と記述する。この例では、絵/文字分離部318はTag−1信号、Tag−2信号、Tag−3信号、Tag−4信号を生成し、それぞれ墨版生成・下色除去部312、空間補正部315、階調補正部316、中間調生成部317へ出力する。
【0023】
また、絵/文字分離部318で生成されるTag信号の内容は、操作者が図示しない操作部より指定する、例えば「文字」、「文字/写真」、「地図」などの原稿タイプや、「白黒」、「3色カラー」、「4色カラー」などのカラーモードなどにより異なる。さらに、図示しない編集用タブレットによって入力したり、原稿に蛍光ペンで記入することによって、同一原稿内でも複数の原稿タイプやカラーモードを混在して指定する場合もある。また、原稿タイプやカラーモードのほかにも、例えば前記絵/文字分離部318において黒い文字と識別された画素はK単色で再現する等といった指定に対応するため、印字色を制御するTag信号も必要である。
【0024】
従って、絵/文字分離部318には、入力されたRGBの画像データとともに、制御部304から操作者の設定情報や画像処理部303で処理を行っている印字色の情報などが入力され、入力された情報と画素単位の絵/文字の判定結果に基づいて、前記墨版生成・下色除去部312、空間補正部315、階調補正部316、中間調生成部317を制御するTag−1信号、Tag−2信号、Tag−3信号、Tag−4信号を生成する。
【0025】
以上のような構成により、画像入力部301で読み取られた画像は、原稿タイプやカラーモード、画像中の色など、様々な情報に従って画素ごとに処理が施され、画像出力部302において被記録媒体上に印字される。このようにして、極めて高画質なカラーコピーが可能となる。
【0026】
しかしながら、図36に示すデジタルカラー複写機のような画像処理システムに、図35に示したような画像蓄積・編集部を接続しようとすると、以下のような問題が生じてくる。まず、例えば網点画・文字・線・塗り潰し・黒文字・黒線など、原稿の構成要素の全てに対して、同一の再現処理、例えば階調補正・空間補正・色補正・中間調生成などを行ったのでは、極めて高い画質を実現することはできない。従って、図36中の絵/文字分離部318やTag信号のように、原稿の構成要素ごとに再現処理を異ならせる仕組みが必要となってくる。
【0027】
しかし、例えば図36に示すデジタルカラー複写機において、Tag信号のビット数として、Tag−1信号に2ビット、Tag−2信号に2ビット、Tag−3信号に3ビット、Tag−4信号に1ビット必要だとすると、1画素当たり8ビットの制御信号が必要となる。またデジタルカラー複写機の場合には、上述のようにこれらのTag信号は印字色に応じてその内容も異なってくる。そのため、印字色である4色それぞれに対して制御信号を持つとすると、8ビット×4色=32ビット/画素のTag信号を処理・制御しなければならない。
【0028】
さらに、Tag信号は画素単位で処理の切り換えを指示するものであるため、例えば8ビット/画素あるいは32ビット/画素のTag信号に対して、画像信号と同様にJPEGのような非可逆圧縮を施すことは望ましくなく、符号化に際しては可逆の圧縮処理を採用する必要がある。そのため、Tag信号のデータ量はむしろ画像信号のデータ量よりも大きくなってしまう可能性もある。従って、図35に示した画像蓄積・編集部220を図36に示すデジタルカラー複写機のような緻密な画像処理を行う画像処理装置に接続しようとすると、画像蓄積・編集部においてこのような大容量のTag信号に対して画像信号と同様な蓄積や回転・レイアウトなどの編集が必要になる。そのため、画像蓄積・編集部が非常に大規模になるため、デジタルカラー複写機のような緻密な画像処理を行う画像処理装置に画像蓄積・編集部を設けた装置は開発されていなかった。
【0029】
緻密な画像処理を行う画像処理装置に画像蓄積・編集部を設ける一つの方策として、Tag信号生成、すなわち絵/文字分離部318よりも前の、階調補正部310や色補正部311の前後の信号を画像蓄積・編集部との入出力に使用することが考えられる。しかし、絵/文字分離部318にて行われる画像識別処理は極めて緻密な認識処理であり、例えばJPEGなどの圧縮処理の後に行うと、圧縮によるブロックノイズやモスキートノイズなどの影響によって誤った認識結果を出力し、正常なTag信号が生成されない可能性がある。また、画像信号に対して圧縮処理を行わない、或いは可逆圧縮処理を施すと、画像蓄積・編集部でハンドリングするデータ容量が非常に大きくなってしまい、結果的に画像蓄積・編集部が大規模になってしまうという問題があった。
【0030】
【発明が解決しようとする課題】
本発明は、上述した事情に鑑みてなされたもので、極めて高い画質が要求される場合でも、多彩かつ高度な編集機能を利用可能な画像処理装置及び画像処理方法を提供することを目的とするものである。
【0031】
【課題を解決するための手段】
本発明は、画像処理装置において、入力された画像データを少なくとも1ページ分蓄積する画像データ蓄積手段と、前記画像データの各ページに対応する複数の属性情報を前記画像データ蓄積手段に蓄積された当該画像データに関連付けて蓄積する属性情報蓄積手段と、前記画像データ蓄積手段に蓄積した前記画像データを読み出して各種の画像処理を行う画像後処理手段と、該画像後処理手段で画像処理を施す前記画像データに関連づけて前記属性情報蓄積手段に蓄積されている複数の属性情報に従って前記画像後処理手段を制御するための制御信号を生成する制御信号生成手段を有し、前記画像後処理手段は、前記制御信号生成手段で生成された制御信号に従って画像処理を行うことを特徴とするものである。
また画像処理方法において、入力された画像データを少なくとも1ページ分画像データ蓄積手段に蓄積し、また前記画像データの各ページに対応する複数の属性情報を前記画像データ蓄積手段に蓄積された当該画像データに関連付けて属性情報蓄積手段に蓄積し、前記画像データに関連づけて前記属性情報蓄積手段に蓄積されている複数の属性情報に従って制御信号生成手段で制御信号を生成し、前記画像データ蓄積手段に蓄積した前記画像データを読み出して前記制御信号生成手段で生成された制御信号に従って前記画像データに対して画像後処理手段で画像処理を行うことを特徴とするものである。
このように、画像データとともに、その画像データの各ページに対応する複数の属性情報を蓄積し、その複数の属性情報から制御信号を生成して各種の画像処理を行うので、少ない属性情報に従って編集処理および後段の画像処理の制御が可能になり、例えば極めて高い画質が要求される場合でも多彩かつ高度な編集機能を実現することが可能となる。
【0032】
属性情報としては、入力された画像データから抽出手段で抽出した前記編集手段における編集処理で必要な画素情報や、操作者が入力することにより設定されるページ情報などとすることができる。これらの画素情報やページ情報は、それぞれ別個に蓄積しておくことができる。このとき、属性情報蓄積手段には抽出手段で抽出した画素ごとの識別結果を示す画素情報を蓄積させ、後段の画像後処理手段に対する制御信号は、属性情報蓄積手段から少なくとも画素情報を読み出してから制御信号生成手段で生成することができる。これによって、属性情報蓄積手段に蓄積するデータ量を削減することが可能である。
【0033】
また、画像データ蓄積手段に蓄積する画像データ、および、属性情報蓄積手段に蓄積する属性情報は、それぞれの符号化手段で符号化して蓄積しておき、読み出す際にはそれぞれの復号化手段で復号して利用することができる。これによって、それぞれのデータに最適な符号化方法を適用することで蓄積するデータ量を削減することができる。
【0034】
さらに、例えば抽出手段で画素情報を抽出した後、画像データ蓄積手段に蓄積する前の画像データに対して画像処理を施す画像前処理手段を有する場合には、属性情報に対しても属性前処理手段で同様の画像処理を施してから属性情報蓄積手段に蓄積することができる。
【0035】
さらに、画像入力手段から入力された画像データに対して処理を行って画像出力手段に出力する構成では、画像入力手段における画像の走査に同期して画像データおよび属性データの蓄積を行い、また、画像出力手段に同期して画像データおよび属性データの読み出しおよび編集処理などを行うことができる。
【0036】
【発明の実施の形態】
図1は、本発明の画像処理装置の実施の一形態を示すブロック構成図である。図中、1は画像入力部、2は画像出力部、3は前段画像処理部、4は後段画像処理部、5は蓄積部、6は制御部である。図1に示す例では、ページ単位の蓄積機能を有するデジタルカラー複写機として構成した場合を示している。
【0037】
画像入力部1は、原稿上の画像をカラー画像として取得する。画像入力部1は、例えば原稿載置台、光源、ラインセンサ、A/D(アナログ/デジタル)変換器などからなる。1次元のCCDラインセンサを、ラインセンサの受光素子の並び方向(主走査方向)と直交する方向(副走査方向)に移動させることによって、原稿上の画像を読み取り、画像データとして出力する。ここでは一例として、レッド(R)、グリーン(G)、ブルー(B)の3原色に色分解した電気信号を生成して画像信号として出力する。もちろん、読取方式は任意であり、原稿を移動させて読み取る方式などでもよい。
【0038】
画像出力部2は、入力される画像データに従って被記録媒体上にカラー画像を形成する。ここでは一例として、イエロー(Y)、マゼンタ(M)、シアン(C)、ブラック(K)の4色のトナーを用い、フルカラー画像のプリントを行うものとする。また、この例では、Y→M→C→Kの順番で4回の印字動作によりフルカラープリントを行うものとする。
【0039】
前段画像処理部3及び後段画像処理部4は、画像入力部1が原稿を走査して出力する画像データを受け取り、画像出力部2において原稿の画像が良好に再現されるような画像データを生成する。ここでは、画像入力部1からRGB信号を受け取り、画像出力部2に対してY、M、C、K信号を順次生成する。なお、この前段画像処理部3及び後段画像処理部4は、画像入力部1で読み取った画像を画像出力部2で形成するまでに行われる画像処理を、後述の蓄積部105との位置関係によって分けたものである。
【0040】
蓄積部5は、前段画像処理部3が出力する画像データ及び画像処理に必要な属性情報(Tag信号)を受けてページ単位に蓄積保持する。また、画像データの出力順序の制御や画像回転・合成処理などを行い、ソーティング、両面プリントや、複数ページを1枚の中に配置して出力するNup編集などの付加機能を提供する。
【0041】
制御部6は、前段画像処理部3、後段画像処理部4、蓄積部5の制御を行う。また、画像入力部1を制御し、あるいは画像入力部1から同期信号を取得し、画像入力時に画像入力部1における画像入力動作と、前段画像処理部3、蓄積部5との同期を取ることができる。さらに、画像出力部1を制御し、あるいは画像出力部2から同期信号を取得し、蓄積部5、後段画像処理部4と、画像出力部2との同期を取ることができる。
【0042】
上述の本発明の画像処理装置の実施の一形態における動作の概要を簡単に説明する。カラー複写対象となる原稿は、画像入力部1で読み取られてR、G、Bの3原色のデジタル信号が生成される。生成されたデジタル画像信号は前段画像処理部3に入力され、ここでRGBの3原色からCIE(国際照明委員会)1976で規定される表色系L* * * で表されるデジタル信号へと変換される。また前段画像処理部3では、以降の各種の画像処理を制御するために用いられる属性信号であるTag信号の生成も行われる。前段画像処理部3で生成されたL* * * 信号及びTag信号は、蓄積部5へ出力される。このとき、画像入力部1の原稿走査動作に同期して、前段画像処理部3からL* * * 信号及びTag信号が出力され、蓄積部5に蓄積保持される。
【0043】
蓄積部5に蓄積保持されたL* * * 信号及びTag信号は、蓄積部5内で所定の画像編集、加工が行われた後、画像出力部2の印字動作に同期して、印字動作の回数、ここでは出力色の回数だけ、後段画像処理部4へ出力される。後段画像処理部4では、L* * * 信号及びTag信号から印字用のY/M/C/K信号を順次生成し、画像出力部2へ印字信号を出力する。そして画像出力部2においてY、M、C、Kの画像を順次被記録媒体上に形成し、フルカラーの画像が形成される。
【0044】
以上のような動作により、カラー原稿の複写が実現される。従って、通常のY/M/C/Kの4色によりカラー画像を再現して原稿の複写を行う場合には、一回の走査により原稿画像を蓄積部5へ取り込み、蓄積部5から画像データ及びTag信号を4回読み出すことにより印字を行うことになる。
【0045】
以下、図1に示した各部について、さらに詳細に説明する。図2は、前段画像処理部3の一例を示すブロック構成図である。図中、11は階調補正部、12は色空間変換部、13は絵/文字分離部、14は画像変倍部、15はTag変倍部、16は原稿検知部である。図2では、画像入力部1から入力されるRGB信号に対する処理を行い、L* * * 信号及びTag信号を蓄積部5へ出力する動作を説明するものである。なお、図中の実線は画像信号を、破線はTag信号を示し、各信号を示す線に斜線と共に記述される数字はそれぞれの信号における1画素あたりのビット数を示す。以降の図においても同様である。
【0046】
画像入力部1において原稿上の画像を走査し、例えば600dpi(25.4mmあたり600ドット)の画素密度でRGB各色8ビット/画素のデジタル信号が出力されるとする。階調補正部11は、画像入力部1から入力されるRGBの3原色の信号に対し、画像入力部1の階調特性を補正する。図3は、階調補正部11における階調補正処理の一例を示すグラフである。この階調補正部11では、例えば図3に示すように、R、G、Bそれぞれの信号に対して、それぞれの信号ごとに予め設定されている特性曲線に従って、階調の変換処理を行う。このような変換処理は、例えば予め設定された1次元のLUT(ルックアップテーブル)を参照することにより実現することができる。
【0047】
色空間変換部12は、階調補正部11で階調補正処理を施されたRGB信号からL* * * 信号を生成する。この色空間変換部12で生成されるL* * * 信号は、画像入力部1及び画像出力部2でそれぞれ読み取り及び出力が可能な色空間領域に合わせて、各8ビット/画素に量子化された値である。RGB信号からL* * * 信号への色空間変換処理は、例えば
【数1】

Figure 0003738807
のような演算により実現することができる。なお、この式において、変換用行列係数α11〜α39及びβ1〜β3は、画像入力部1の色読取特性により実験的に予め設計されている数値である。
【0048】
絵/文字分離部13は、各画素が絵柄を構成する画素であるのか、あるいは文字を構成する画素であるのかを識別し、その識別結果を示す信号(以下、Seg−Tag信号)を出力する。この絵/文字分離部13は、抽出手段に対応するものである。また、識別結果を示すSeg−Tag信号は、属性情報の一つである画素情報に対応するものである。
【0049】
図4は、絵/文字分離部の一例を示すブロック構成図である。図中、21は文字抽出部、22は網点抽出部、23は論理和演算部、24は収縮部、25は膨張部、26は論理積演算部、27は色/黒判定部、28は結合部である。絵/文字分離部13は、画像内の文字画素を抽出し絵柄及び背景部と分離する。上述のように、絵/文字分離部13では、入力されるL* * * 信号を受け取り、識別結果として2ビット/画素のseg−Tag信号を出力する。絵/文字分離部13では、明度信号L* は文字抽出部21及び網点描出部22へ入力される。文字抽出部21では、各画素が文字画素であるか否かを示す2値信号を生成する。文字抽出部21は、画像内の文字、線画、ソリッド(塗り潰し)など、階調レベルの高い要素を抽出する。この文字抽出部21は、例えば所定閾値による固定2値化処理結果と周辺画素平均値を閾値とする浮動2値化処理結果の論理和を求めることにより実現することができる。同様に網点抽出部22では、各画素が網点画素であるか否かを示す2値信号を生成する。この網点抽出部22は、例えば特願平9−231361号に開示されているように、2値化した画像信号の疎密や周期性により、注目画素が網点領域であるか否かを判定するように構成することができる。
【0050】
このようにして得られた各画素2値の文字信号及び網点信号の論理和を論理和演算部23で求めた後、所定サイズの収縮及び膨張処理を収縮部24、膨張部25で行う。収縮部24は、例えば31×31(副走査×主走査)サイズのウインドウを用い、ウインドウ内の画素に対して論理積演算を行うことにより収縮処理を行うことができる。また膨張部25は、例えば49×49サイズのウインドウを用い、ウインドウ内の画素に対して論理和演算を行うことにより膨張処理を行うことができる。なお、収縮部24および膨張部25において用いるウインドウのサイズは任意である。
【0051】
さらに、膨張部25により膨張処理を行った後の信号の否定と、論理和演算部23から出力される文字信号と網点信号の論理和信号との論理積を論理積演算部26で演算する。これによって、文字画素を示す1ビット/画素の文字識別信号を生成する。
【0052】
また絵/文字分離部13では、L* * * 信号は色/黒判定部27へ入力される。色/黒判定部27では、入力されるL* * * 信号と各信号に対する所定の閾値との比較によって各画素が有彩色であるか無彩色であるかを判定し、1ビット/画素の色/黒識別信号を生成する。そして、論理積演算部26から出力される文字識別信号と、色/黒判定部27から出力される色/黒識別信号を結合部28で合成し、3類型を示す2ビット/画素のSeg−Tag信号が生成される。図5は、Seg−Tag信号の一例の説明図である。Seg−Tag信号は、図5に示すように2ビット/画素の値により、文字以外、黒文字、色文字の3類型を示す。
【0053】
図2に戻り、画像変倍部14は、色空間変換部12から出力されるL* * * 信号を受けて、主走査方向に対して1次元の拡大、縮小を行う。この画像変倍部14における主走査方向の拡大、縮小と、画像入力部1における副走査方向の走査速度制御と合わせて、原稿画像の2次元の拡大、縮小が実現される。画像変倍部14における拡大、縮小は、例えば公知の線形補間演算などを用いることができる。なお、この画像変倍部14は、画像前処理手段に対応する。画像前処理手段は、画像の変倍処理以外の処理であってもよい。
【0054】
Tag信号変倍部15は、画像変倍部14にて行われる画像の拡大、縮小処理と同じ変倍率で、Tag信号に対して主走査方向の拡大、縮小処理を行う。拡大、縮小方法としては、例えば公知の単純変倍手法(零次ホールド法)などを用いて実現することができる。ここで、図2に示すArea−Tag信号は、操作者が図示しないユーザインタフェースや編集用デジタイザを使用して原稿及び複写作業に対して行った設定を示すTag信号(属性情報)である。図6は、Area−Tag信号の一例の説明図である。ここでは図6に示すように、それぞれ2ビット/画素で“カラーモード”及び“原稿タイプ”を表す信号としている。カラーモードとしては4色(YMCK)を使用した画像形成、3色(YMC)を使用した画像形成、あるいは白黒画像の形成を指定することができる。また原稿タイプとしては、文字/写真混在原稿、文字原稿、写真原稿、地図原稿などを指定することができる。Tag信号変倍部15は、絵/文字分離部13から出力されるSeg−Tag信号とともに、このArea−Tag信号に対しても、画像変倍部14と同じ変倍率で拡大、縮小処理を行う。なお、このTag信号変倍部15は、属性前処理手段に対応する。属性前処理手段は、画像の変倍処理以外の処理であってもよく、画像前処理手段と同じ処理を行うものであればよい。
【0055】
以上のような構成により、前段画像処理部3は、画像入力部1よりRGB信号を受け取り、L* * * 信号及びTag信号(Seg−Tag信号、Area−Tag信号)を出力する。
【0056】
図2の原稿検知部16は、原稿の大きさや位置を検知したり、白黒原稿かカラー原稿かを判定するなど、コピー動作に必要とされる情報を原稿画像から抽出する。例えば、原稿読み込み走査に先立って行われる予備走査時にそれらの情報を抽出し、制御部6へ必要な情報を送出することができる。
【0057】
制御部6は操作者が図示しない操作部より入力するコピー条件と、原稿検知部16により原稿画像から抽出した情報に基づいて、倍率設定や白黒/カラー判別、用紙選択、トレイ選択などの自動機能を実現する。
【0058】
図7は、後段画像処理部4の一例を示すブロック構成図である。図中、31は色空間変換部、32は空間補正部、33は階調補正部、34は中間調生成部、35はTag信号生成部である。このうち、色空間変換部31、空間補正部32、階調補正部33、中間調生成部34は画像後処理手段に対応し、Tag信号生成部35は制御信号生成手段に対応する。なお画像後処理手段はこれらの処理部のほか、他の各種の処理手段を有していてよい。
【0059】
色空間変換部31は後段画像処理部4に入力されてくるL* * * 信号から、画像出力部2で印字に使用するY/M/C/K信号を印字色サイクルに従って順次生成する。図8は、色空間変換部31の一例を示す概略構成図である。図中、41〜43は色補正部、44,45はセレクタである。色空間変換部31は、この例では色補正部41、色補正部42、色補正部43及びセレクタ44、45より構成されている。ここで、色補正部41、色補正部42、色補正部43は、それぞれ異なる色補正係数が設定されており、入力されるL* * * 信号に対してそれぞれ設定されている色補正係数に従って色補正処理を行い、Y/M/C/K信号を生成する。
【0060】
ここで、各色補正部41〜43は、例えば次のように構成することができる。まず、色補正部41が出力するY/M/C/K信号は、4色再現用の色補正が行われたY/M/C/K信号であり、原稿タイプが写真及び文字/写真の時に使用される。色補正部42が出力するY/M/C/K信号も同様に4色再現用の色補正が行われたY/M/C/K信号であるが、原稿タイプが文字及び地図の時に使用される。ここで、写真及び文字/写真用の色補正は、原稿に対して忠実な再現を与える標準的な色補正であり、また写真の再現において粒状性の低下を生じないようにYMC信号をK信号に置き換える割合(以下、UCR率と呼ぶ)が50%程度に設定される。一方、文字及び地図用の色補正は、グラフィクス原稿やビジネス文書を想定した色補正であり、原稿に対してやや鮮やかでハイコントラストな再現を行うとともに、グレイバランスを保持するように95%程度のUCR率が設定される。色補正部43が出力する信号は、Y、M、Cの3色再現用のY/M/C信号である。
【0061】
入力信号のL* は、白黒モード及び原稿中の黒文字を再現する信号として使用される。セレクタ45は、制御部6から入力される印字色サイクルを示す信号(Cycle信号)を受け、K色を印字する時にL* 信号を出力し、それ以外のY、M、C色を印字する時には「0」を出力することによって画素値をリセットする。
【0062】
セレクタ44は、後述する色空間変換切換信号(CC−Tag信号)にしたがって、色補正部41、色補正部42、色補正部43より出力されるY/M/C/K信号、及び、セレクタ45から入力されるL* 信号または「0」の4つの信号から、いずれか1つを画素毎に選択して出力する。図9は、CC−Tag信号の一例の説明図である。CC−Tag信号は、例えば2ビット/画素の信号であり、それぞれのビット値の組み合わせによって、色補正部41〜43の出力あるいはL* 信号または「0」のいずれを選択するかを示している。
【0063】
図10は、色補正部41〜43の一例を示す概略構成図、図11は、色補正部41〜43における色空間の分割方法の一例を示す説明図である。図中、51は基準データ用色補正メモリ、52は補間用領域選択信号メモリ、53〜55は補間用信号出力メモリ、56〜58は補間用乗算器、59は加算部である。ここでは一例として色補正部41について示しているが、色補正部42、色補正部43についても同様の構成である。
【0064】
色補正部41〜43は、上述のようにL* * * 信号よりY/M/C/K信号を生成するものであり、例えば特開平5−110840号公報に記載されている方式等を用いて実現することができる。この例における色補正部41〜43は、予め設定されたテーブルメモリを用いてL* * * からY/M/C/(K)を生成するものである。入力されたL* * * 信号をそれぞれ上位4ビットと下位4ビットに分け、上位ビットをアドレスとして色補正メモリを用いて、基準データを算出し、下位4ビットを用いて補間回路によりその間を補間することによって色補正を実施することができる。
【0065】
図11に示すように、色補正部41〜43では、3次元のL* * * 色空間をL* ,a* ,b* それぞれの上位4ビットにより決定される立方体に分割する。そして、その頂点座標に対応するY/M/C(/K)出力値を基準データとして記憶しておく。
【0066】
分割された立方体は、補間演算のために、図11に示すようにさらに6つの四面体に分割される。入力されるL* ,a* ,b* の値は、その上位4ビット及び下位4ビットにより規定される座標値から、どの四面体に属するかが判定される。そして属する四面体の4頂点に対応するY/M/C(/K)値を用いた補間演算が行われる。
【0067】
図10において、基準データ用色補正メモリ51はL* * * 信号の上位4ビットの組をアドレス信号として、基準データを出力する色補正メモリである。補間用領域選択信号メモリ52は、下位4ビットの組をアドレス信号として、入力されたL* ,a* ,b* の値が、図11に示す6つの四面体のいずれに属するかを判定するものである。補間用信号出力メモリ53、54、55は、上位4ビットの組及び補間用領域選択信号メモリ52の出力を受けて、補間演算用の信号を出力する。補間用乗算器56、57、58は、入力信号の下位4ビットと補間用信号出力メモリ53、54、55から出力される補間演算用の信号(補間係数)を乗算する。加算部59は、基準データ用補正メモリ51および補間用乗算器56、57、58の出力信号を加算する。
【0068】
また、基準データ用色補正メモリ51及び補間用信号出力メモリ53、54、55には、画像出力2における印字色の切り替わりを示すCycle信号が入力されている。このCycle信号に従って、Y色印字時にはY信号生成用の補正データを出力し、同様にM色/C色/K色印字時にはM信号/C信号/K信号生成用の補正データをそれぞれ出力する。色補正部41、色補正部42、色補正部43では、以上のような動作によりL* * * 信号からY/M/C(/K)信号を生成している。
【0069】
図12は、空間補正部32の一例を示す概略構成図、図13は、空間補正部32で行われる畳み込み演算処理の一例の説明図である。図中、61はラインバッファ、62〜67は補正演算部、68はセレクタである。ラインバッファ61は、後述の空間補正演算に必要とされる7ライン分の画像データを確保すべく、6ラインのデータ遅延を行う。補正演算部62〜67は、例えば畳み込み演算などによって空間補正演算を行う。例えば図13に示すように、注目画素(i,j)とすると、その周辺の(i−4,j−3)〜(i+4,j+3)の7×9(副走査方向×主走査方向)=63画素に対して、所定演算係数φ11〜φ79を用いた畳み込み演算により空間補正処理を実現することができる。ここで、演算係数φ11〜φ79は、総和が1.0となる空間補正係数である。補正演算部62〜67には、Y/M/C/K各色に対する補正係数が予め設定されており、制御部6からのCycle信号にあわせて印字色の補正係数を用いた畳み込み演算が実施される。
【0070】
図12に示すように、空間補正部32は6個の補正演算部62〜67を有し、Tag信号生成部35においてArea−Tag信号及びSeg−Tag信号から生成される3ビット/画素の空間補正切換信号(Filter−Tag信号)に基づいて、セレクタ68で6個の補正演算部62〜67の出力値を画素単位に選択して出力する。
【0071】
図14は、Filter−Tag信号の値に対する補正演算部62〜補正演算部67の選択論理及びその処理内容の一例の説明図である。図14に示すように、Filter−Tag信号の値によって、補正演算部62〜67から出力される補正演算結果のうちの1つが選択される。補正演算部62では、絵柄画像用の空間補正が行われる。原稿タイプとして写真タイプが指定された場合、および、原稿タイプとして文字/写真タイプが指定されて且つ絵/文字分離部13での識別結果であるSeg−Tag信号の値が絵柄を表す「00(文字以外)」(図5参照)の場合に、この補正演算部62の演算結果が選択される。
【0072】
補正演算部63では、文字用の空間補正が行われる。原稿タイプとして文字/写真タイプが指定されて且つ絵/文字分離部13での識別結果であるSeg−Tag信号の値が文字を表す「01(黒文字)、11(色文字)」(図5参照)の場合に、この補正演算部63の演算結果が選択される。
【0073】
補正演算部64では、ビジネス文書などに多用されるグラフィクスやソリッド(均一色)要素に対する空間補正が行われる。原稿タイプとして文字タイプが指定されて且つ絵/文字分離部13での識別結果であるSeg−Tag信号の値が「00(文字以外)」(図5参照)の場合に、この補正演算部64の演算結果が選択される。
【0074】
補正演算部65では、補正演算部63の補正よりもさらに強調の度合いが強い文字用の空間補正が行われる。原稿タイプとして文字タイプが指定されて且つ絵/文字分離部13での識別結果であるSeg−Tag信号の値が文字を表す「O1(黒文字)、11(色文字)」(図5参照)の場合に、この補正演算部65の演算結果が選択される。
【0075】
補正演算部66では、地図用の空間補正が行われる。原稿タイプとして地図タイプが指定された場合に、この補正演算部66の演算結果が選択される。
【0076】
補正演算部67では、文字や線画等が主体の白黒原稿用の空間補正が行われる。カラーモードが白黒で且つ原稿タイプとして文字タイプが指定された場合に、この補正演算部67の演算結果が選択される。空間補正は以上のような構成および動作によって実施される。
【0077】
図15は、階調補正部の一例を示す概略構成図である。図中、71〜80は補正LUT、81はセレクタである。補正LUT71〜80は、それぞれ階調補正処理を行う。例えば、1次元のテーブルを参照する公知のLUT(ルックアップテーブル)で実現することができる。補正LUT71〜80にはY/M/C/K各色に対する出力値が予め設定されており、制御部6からのCycle信号および入力画素値により、LUTの所定アドレスを参照して出力値を求める。
【0078】
図15に示すように、階調補正部33は補正LUT71〜補正LUT80とセレクタ81を有している。Tag信号発生部35においてArea−Tag信号及びSeg−Tag信号から生成される4ビット/画素の階調補正切り替え信号(TRC−Tag信号)に基づいて、セレクタ81で10個の補正演算部71〜80の出力値を画素単位に選択し、出力する。
【0079】
図16は、TRC−Tag信号の値に対する補正LUT71〜80の選択論理及びその処理内容の一例の説明図である。図16に示すように、TRC−Tag信号の値に従って補正LUT71〜80の出力信号のうちの1つがセレクタ81で選択されて出力される。ここで、補正LUT71〜補正LUT75は、カラー原稿の階調補正用のLUTであり、カラーモードが「4色(00)、3色(01)」(図6参照)の場合に使用される。また、補正LUT76〜補正LUT80は、白黒原稿又はカラー原稿の白黒再現用の補正LUTであり、カラーモードが「白黒(10)」(図6参照)の時に使用される。
【0080】
補正LUT71では、絵柄画像用の階調補正が行われる。原稿タイプとして写真タイプが指定された場合、および、原稿タイプとして文字/写真タイプが指定されて且つ絵/文字分離部13での識別結果であるSeg−Tag信号の値が絵柄を表す「00(文字以外)」(図5参照)の場合に、この補正LUT71の出力値が選択される。
【0081】
補正LUT72では、文字用の階調補正が行われる。原稿タイプとして文字/写真タイプが指定されて且つ絵/文字分離部13での識別結果であるSeg−Tag信号の値が文字を表す「01(黒文字)、11(色文字)」(図5参照)の場合に、この補正LUT72の出力値が選択される。
【0082】
補正LUT73および補正LUT74では、文字や線画の多いビジネス文書などの原稿を対象とする階調補正が行われ、補正LUT71及び補正LUT72に比べてコントラストが高めな階調補正が設定される。補正LUT73では、ビジネス文書などに多用されるグラフィクスやソリッド(均一色)要素に対する階調補正が行われる。原稿タイプとして文字タイプが指定されて且つ絵/文字分離部13での識別結果であるSeg−Tag信号の値が「00(文字以外)」(図5参照)の場合に、この補正LUT73の出力値が選択される。また補正LUT74は、文字用の階調補正LUTである。原稿タイプとして文字タイプが指定されて且つ絵/文字分離部13での識別結果であるSeg−Tag信号の値が文字を表す「01(黒文字)、11(色文字)」(図5参照)の場合に、この補正LUT74の演算結果が選択される。
【0083】
補正LUT75は、地図に代表されるような、高精細な原稿の階調補正を対象とするLUTである。原稿タイプとして地図タイプが指定された場合に、この補正LUT75の出力値が選択される。
【0084】
白黒モードが選択された場合も、上述のカラー再現の場合と同様の論理で階調補正が設定される。補正LUT76では、絵柄画像用の階調補正が行われる。原稿タイプとして写真タイプが指定された場合、および、原稿タイプとして文字/写真タイプが指定されて且つ絵/文字分離部13での識別結果であるSeg−Tag信号の値が絵柄を表す「01(文字以外)」(図5参照)の場合に、この補正LUT76の出力値が選択される。
【0085】
補正LUT77では、文字用の階調補正が行われる。原稿タイプとして文字/写真タイプが指定されて且つ絵/文字分離部13での識別結果であるSeg−Tag信号の値が絵柄を表す「01(黒文字)、11(色文字)」(図5参照)の場合に、この補正LUT77の出力値が選択される。
【0086】
補正LUT78および補正LUT79では、文字や線画の多いビジネス文書などの原稿を対象とする階調補正が行われる。補正LUT76及び補正LUT77に比べてコントラストが高めな階調補正が設定される。補正LUT78ではビジネス文書などに多用されるグラフィクスやソリッド(均一色)要素に対する階調補正が行われる。原稿タイプとして文字タイプが指定されて且つ絵/文字分離部13での識別結果であるSeg−Tag信号の値が「00(文字以外)」(図5参照)の場合に、この補正LUT78の出力値が選択される。
【0087】
補正LUT79は、文字用の階調補正LUTである。原稿タイプとして文字タイプが指定されて且つ絵/文字分離部13での識別結果であるSeg−Tag信号の値が文字を表す「01(黒文字)、11(色文字)」(図5参照)の場合に、この補正LUT79の演算結果が選択される。
【0088】
補正LUT80は、地図に代表されるような、高精細な原稿の階調補正を対象とするLUTである。原稿タイプとして地図タイプが指定された場合にこの補正LUT80の出力値が選択される。以上のような構成及び動作によって、階調補正は実施される。
【0089】
図17は、中間調生成部34の一例を示す概略構成図である。図中、91は画素値演算部、92は演算係数&パターン記憶部、93は波形パターン記憶部、94は比較部、95は参照波生成部である。図17に示す中間調生成部34は、例えば特開平9−121283号公報において提案されるような、1画素あたり8ビットのY/M/C/K信号から画像出力部2のLD(レーザーダイオード)をON/OFF制御する2値信号を生成するものである。
【0090】
画素値演算部91は、後述する演算によってY/M/C/K信号から所望のスクリーンを生成するための画素値を演算する。演算係数&パターン部92は、画素値演算部91で必要とされるパターンマトリクス及び演算係数を記憶しており、入力される中間調生成切換信号(Screen−Tag信号)および制御部6からのCycle信号に従って所定の係数及びパターンを画素値演算部91へ送出する。図18は、演算パターンマトリクスの一例の説明図である。図18に示すように、演算パターンマトリクスは公知のディザ処理において用いられる閾値マトリクスと同様なデータとすることができ、演算係数はそのパターンマトリクスにおける閾値のステップ数を示す数値である。図18では、演算係数が16個の場合と17個の場合を示している。
【0091】
波形パターン記憶部93は、演算係数&パターン記憶部92に記憶されている演算パターン及び演算係数に対応する波形パターンを記憶している。図19は、波形パターンの一例の説明図である。図19(A),(B)は、それぞれ図18(A),(B)に対応する波形パターンである。なお、波形パターンA,B,Cについては後述する。この波形パターン記憶部93も演算係数&パターン記憶部92と同様に、入力されるScreen−Tag信号および制御部6からのCycle信号に従って、画素あたり2ビットの波形パターン選択用の信号を参照波生成部95へ送出する。
【0092】
参照波生成部95は、波形パターン記憶部93に記憶されている波形パターンを示す信号に従って、参照波A、参照波B、および参照波Cのいずれかの三角波を生成し、比較部94へ送出する。図20は、参照波および出力信号の生成過程の説明図である。この参照波生成部95では、図20(A)に示す3種類の参照波、すなわち、次第に増加する参照波A、次第に減少する参照波B、三角波形の参照波Cのうちのいずれかを生成して比較部94に出力する。
【0093】
比較部94は、画素値演算部91が出力してくる8ビット/画素のデジタル画像信号をアナログ信号に変換した後、参照波生成部95から入力されてくる参照波と比較を行って、LDを制御する2値信号を出力する。図20(B)において、比較部94では画素値演算部91から出力された信号のD/A変換後の信号として、階段状の信号を示している。この信号と、参照波生成部95で生成される参照波A、参照波B、参照波Cとを比較し、参照波の方が小さい場合にON、大きい場合にOFFの信号を2値信号として出力する。これによって、図20(B)のLD点灯波形として示した2値信号が出力される。この2値信号に従ってLDを点灯制御することによって、図20(B)に出力画像として示すように、画素値演算部91から出力される画像信号に応じて幅が変化する出力画像が形成される。なお、参照波Aを用いた場合には記録される部分が左に寄り、参照波Bを用いた場合には右に寄り、参照波Cを用いた場合には中央に寄せて記録される。このようにして中間調生成部34では、このような波形パターンの制御によって、高精度な印字位置制御を実現している。
【0094】
図21は、画素値演算部91の一例を示すブロック図である。図中、101は減算器、102は乗算器、103,104は比較器、105はセレクタである。Y/M/C/Kの入力信号は減算器101に入力される。減算器101のもう一方には、演算係数&パターン記憶部92より入力信号に同期してそのマトリクスサイズに基づいて所定間隔で送出されてくる演算パターンが示す値が入力され、この値が入力信号から減じられる。次に、乗算器102で前記入力信号と演算パターンとの差分値に対して演算係数&パターン記憶部92より送出される演算係数を乗算する処理が行われる。そして、比較器103、104及びセレクタ105に入力され、比較器103では255を上回る値を持つ画素についてはセレクタ105で「255」が選択されるように制御し、比較器104では0を下回る値を有する画素についてはセレクタ105で「0」が選択されるように制御する。
【0095】
以上のような構成によって、中間調生成部34は、画素単位に演算係数や参照波を切り換えて、複数種類の線数及び角度を有する網点画像を形成することが可能になる。
【0096】
図22は、Screen−Tag信号と対応する線数およびその処理内容の一例の説明図である。なお、以下の説明においてカラーモードおよび原稿タイプの値については図6を、Seg−Tag信号については図5を参照されたい。図22に示すように、Screen−Tag信号が「00」の場合には、階調性に優れる150線のドットスクリーンが形成され、これは原稿タイプが「10(写真)」の時に選択される。
【0097】
またScreen−Tag信号が「01」の場合には、階調性に優れ、且つモアレの生じにくい200線のラインスクリーンが形成され、原稿タイプが「00(文字/写真)」で且つ絵/文字分離部13での識別結果(Seg−Tag信号)が「00(文字以外)」の場合と、カラーモードが「00(4色)及び01(3色)」で原稿タイプが「01(文字)」で且つ絵/文字分離部13での識別結果(Seg−Tag信号)が「00(文字以外)」の場合の画素に対して生成される。
【0098】
続いてscreen−Tag信号が「10」の場合には、細かな文字や線画要素の情報も欠落しない300線のラインスクリーンが形成され、これは原稿タイプが「11(地図)」の場合に選択される。
【0099】
最後にScreen−Tagが「11」の場合には、600線のラインスクリーンが形成され、これは原稿タイプが「00(文字/写真)」で且つ絵/文字分離部13での識別結果(Seg−Tag信号)が「01もしくは11(文字)」の場合とカラーモードが「10(白黒)」で原稿タイプが「01(文字)の場合の画素に対して生成される。
【0100】
図23、図24は、Tag信号生成部35において生成するTag信号の一例の説明図である。Tag信号生成部35は、蓄積部5に一旦蓄積され、後段画像処理部4に入力されてくる2つのTag信号、すなわちArea−Tag信号及びSeg−Tag信号から、色空間変換部31、空間補正部32、階調補正部33、及び中間調生成部34での処理に必要とされる画素単位の処理切換信号、各種Tag信号を生成する。ここでTag信号生成部35は、Area−Tag信号4ビット及びSeg−Tag信号2ビットの合計6ビットで示される64通りの組み合わせに応じて、色空間変換部31で使用する2ビットのCC−Tag信号、空間補正部32で使用する3ビットのFilter−Tag信号、階調補正部33で使用する4ビットのTRC−Tag信号、及び中間調生成部34で使用する2ビットのScreen−Tag信号をそれぞれ出力する。このTag信号生成部35は、例えば、予め定められたTag信号生成論理をテーブル参照することにより実現される。図23及び図24は、そのTag信号生成論理を示した表である。このTag信号生成論理に従って、入力されたArea−Tag信号及びSeg−Tag信号から、CC−Tag信号、Filter−Tag信号、TRC−Tag信号、Screen−Tag信号をそれぞれ生成して出力する。
【0101】
図25は、蓄積部5の一例を示す概略構成図である。図中、111〜113は符号化部、114〜116は復号化部、117はデータ蓄積部、118はメモリコントローラ、119はバッファメモリ、120はバスである。蓄積部5は、画像入力部1の原稿走査動作と同期して入力されてくるL* 、a* 、b* の3信号を蓄積保持し、画像出力部2の印字色数の回数だけの印字動作に同期して、蓄積保持しているL* 、a* 、b* の信号を出力する。また、図示しない操作部より指定される、例えばスタック、丁合などのソート機能や、例えば回転、Nup、シグネチャ、両面印字などのページ編集機能も、この蓄積部5によって実現される。さらに、前段画像処理部3から出力されるArea−Tag信号、Seg−Tag信号も入力される画像データと対応付けて蓄積し、また、対応する画像データが読み出されるときにこれらの信号を出力する。
【0102】
蓄積部5に入力されてくる8ビット/画素のL* * * 信号は、符号化部113へ入力される。符号化部113では、例えばJPEGなどに代表される所定の画像圧縮方式でページ単位に、また各ページにおいてL* 、a* 、b* の面単位に画像信号を符号化し、バス120を経由してデータ蓄積部117へ画像データを出力する。この符号化部113が第1の符号化手段に対応する。
【0103】
また、L* * * 信号に同期して入力される4ビット/画素のArea−Tag信号は符号化部111へ入力され、例えばランレングス符号化などの公知の可逆圧縮方式で符号化されて、バス120を経由してデータ蓄積部117に保存される。同様にL* * * 信号に同期して入力される2ビット/画素のSeg−Tag信号は符号化部112へ入力され、例えばランレングス符号化などの公知の可逆圧縮方式で符号化されて、バス120を経由してデータ蓄積部117に保存される。この符号化部111および符号化部112が第2の符号化手段に対応する。
【0104】
データ蓄積部117は、符号化部111、符号化部112、符号化部113で符号化されたL* * * の入力画像データ、Area−Tag信号、Seg−Tag信号をページ単位に記憶する。このデータ蓄積部117は、符号化された画像データ及びTag信号データを複数ページに渡って記憶する事が可能な大容量の記憶装置、例えばハードディスク装置などにより実現することができる。なお、このデータ蓄積部117は、画像データ蓄積手段、および属性データ蓄積手段の両方に対応するものである。
【0105】
復号化部116は、データ蓄積部117にページ単位に蓄積されている画像データを読み出し、画像出力部2の印字動作に同期して所定の伸長方式によりL* * * 信号を復号し、後段画像処理部4へ出力する。この復号化部116は、第1の復号手段に対応するものである。
【0106】
同様に復号化部114は、データ蓄積部117にページ単位に蓄積されているArea−Tagデータを読み出し、画像出力部2の印字動作に同期して所定の伸長方式によりArea−Tag信号を復号し、後段画像処理部4へ出力する。復号化部115は、データ蓄積部117にページ単位に蓄積されているSeg−Tagデータを読み出し、画像出力部2の印字動作に同期して所定の伸長方式によりSeg−Tag信号を復号し、後段画像処理部4へ出力する。これらの復号化部114および復号化部115は、第2の復号手段に対応するものである。
【0107】
バッファメモリ119およびメモリコントローラ118は、回転処理やNup合成、シグネチャなどのページ編集を行う際に使用される編集手段である。
【0108】
なお、図25において、符号化部111、符号化部112、符号化部113、復号化部114、復号化部115、復号化部116、データ蓄積部117、メモリコントローラ118は、バス120で結ばれている。
【0109】
以下、蓄積部5で実施されるソート機能及びページ編集機能について説明を行う。図26は、蓄積部5で実現されるソート機能の一例の説明図である。ここでは図26(A)に示すような4枚の原稿を4部コピーする場合について説明する。図26(B)は丁合モードでのコピー結果であり、図26(C)はスタックモードでのコピー結果である。
【0110】
この実施の形態では、画像入力部1において読み込まれた原稿画像は、前段画像処理部3での各種処理を受け、L* * * 信号に変換される。そしてL* * * 信号は、絵/文字分離部13で生成されるSeg−Tag信号および制御部から送出されてくるArea−Tag信号とともに、蓄積部5へ入力される。蓄積部5で、それぞれ対応する符号化部で圧縮された後、データ蓄積部117にページ単位に蓄積される。
【0111】
図26(B)に示すような丁合モードコピーの場合には、全ての原稿の読み取り動作がまず行われる。すなわち4ページの原稿(「A」、「B」、「C」、 「D」)の画像信号データ及びTag信号データがデータ蓄積部117へ蓄積される。その後、画像出力部2での印字動作に合わせて、画像信号データ及びTag信号データを所定の方式で復号化し、後段画像処理部4へ出力する。ここで、データ蓄積部117から1ページ目(A)→2ページ目(B)→3ページ目(C)→4ページ目(D)の順番で画像信号データ、Area−Tag信号データ及びSeg−Tag信号データを読み出しそれぞれ復号化部116、復号化部114及び復号化部115で復号化処理を行う。その後、画像出力部2の印字動作に同期して、L* * * 画像信号、Area−Tag信号及びSeg−Tag信号を後段画像処理部4へ出力する。
【0112】
図26(C)に示すようなスタックモードコピーの場合には、1枚目の原稿(「A」)を入力部101で読み込み、画像信号データ及びTag信号データをデータ蓄積部117へ蓄積し終えると、2枚目以降の原稿(「B」、「C」、「D」)も同様に読み込み及び蓄積を行うとともに、画像出力部2での印字動作に合わせて、1枚目の原稿(「A」)の画像信号データ及びTag信号データを所定の方式で復号化し、後段画像処理部4へ出力する。この1枚目の原稿(「A」)の画像信号データ及びTag信号データの復号化および出力を所定部数(ここでは4部)の回数だけ繰り返し行う。1枚目の原稿を所定部数だけ印字完了した後、2枚目の原稿(「B」)のデータ蓄積部117への画像信号データ及びTag信号データの蓄積が完了していれば、続いて1枚目の場合と同様に2枚目の印字を所定部数だけ行う。以上のような動作を3枚目の原稿(C)及び4枚目の原稿(D)に対しても実行することによりスタックモードコピーが可能となる。
【0113】
図27は、ページ編集機能の一つである回転処理の一例の説明図である。図中、FS方向及びSS方向とは主走査方向及び副走査方向をそれぞれ示す。以下の説明においても同様である。図27(A)は、原稿画像の向きがバラバラな状態で画像入力部1の図示しない原稿載置台上に置かれ、画像の読み込みが行われた場合を示す。このような場合には、図27(B)に示すように、画像を回転させることによって出力コピーの向きを揃える動作が行われる。この時、長辺を主走査方向として副走査方向の長さを短くするように回転処理を行うことにより、画像印字の生産性を向上させることが可能となる。図27に示す例では、画像「A」、画像「D」と画像「B」、画像「C」の向きが異なっている。この場合、主走査方向に長辺を有する画像「B」、画像「C」の向きに一致するように、画像「A」、画像「D」を回転させることによって、コピーの向きをそろえることができる。
【0114】
図28は、拡大、縮小処理を伴う回転処理の一例の説明図である。図28に示す例では、例えばA3とA4など、サイズの異なる原稿を同じ大きさの用紙へコピーする場合の読み取り及び蓄積を示している。図28(A)では、例えば2枚目及び3枚目(「B」及び「C」)はA4サイズの原稿を、1枚目及び4枚目(「A」及び「D」)はA3サイズの原稿を示す。ここで、画像入力部1の制約から1枚目及び4枚目(「A」及び「D」)は主走査方向を長辺として読み込むことができないため、前段画像処理部3の画像変倍部14で縮小処理を施し、蓄積部5においては図28(B)に示すように主走査方向と副走査方向の長さが異なる画像信号データが蓄積されることになる。
【0115】
このような場合にも、図28(C)に示すように、縮小処理によって大きさが揃えられた画像を回転させることによって、出力コピーの向きを揃える動作が行われる。この時、長辺を主走査方向として副走査方向の長さを短くするように回転処理を行うことにより画像印字の生産性を向上させることが可能となる。
【0116】
画像に対して回転処理を行うか否かは、操作者が図示しない操作部から入力するコピー条件や、前段画像処理部3内の原稿検知部16を利用して予備走査で得た原稿情報を基に、制御部6で判断して、蓄積部5での動作が制御される。
【0117】
蓄積部5における画像の回転処理は、バッファメモリ119及びメモリコントローラ118を用いて実現される。回転処理を行う原稿を印字する際には、画像出力部2での印字動作に先立って、画像信号データ及びそれに対応するArea−Tag信号データ、Seg−Tag信号データがデータ蓄積部117から読み出され、それぞれ復号化部116、復号化部114、復号化部115で復号される。その後、メモリコントローラ118で所定の回転処理が行われ、バッファメモリ119へ格納される。回転処理は、例えばバッファメモリ119への格納あるいは読み出し時のアドレス制御などによって行うことが可能である。
【0118】
バッファメモリ119は、L* * * 画像信号用の8ビット/画素のページメモリ3面と、Area−Tag信号データ及びSeg−Tag信号データ用の6ビット/画素のページメモリ1面とからなる計4面のページメモリから構成することができる。所定の回転処理が行われた後、バッファメモリ119で蓄積保持されたL* * * 画像信号データとArea−Tag信号データ及びSeg−TagのTag信号データは、画像出力部2での印字動作に同期して読み出され、復号化部116、復号化部114、復号化部115での復号処理をバイパスし、後段画像処理部4ヘ送出される。
【0119】
また、ここで丁合モードのような場合に回転処理が発生した時には、繰り返し回転処理を行うとコピーの生産性を損なってしまう。そこで、所定の回転処理が行われた後、バッファメモリ119で蓄積保持されたL* * * 画像信号データとArea−Tag信号データ及びSeg−TagのTag信号データを、それぞれ符号化部113、符号化部111及び符号化部112で再び符号化し、データ蓄積部117に格納しておくとよい。回転処理が必要とされる全ての原稿画像及びTag信号データに対する処理が完了し、データ蓄積部117への格納が完了した後は、画像出力部2での印字動作に同期して該当ページのL* * * 画像信号データ、Area−Tag信号データ及びSeg−Tag信号データが読み出され、復号化部116、復号化部114、復号化部115で復号処理が行われた後、後段画像処理部4へ送出される。
【0120】
図29は、複数ページの原稿を1枚の用紙上に配置して印字する「Nup機能」の一例の説明図である。図29(A)は原稿を示し、ここでは4枚の原稿「A」、「B」、「C」、「D」を示している。また、図29(B)は2up編集、図29(C)は4up編集をそれぞれ示している。この実施の形態におけるNup処理は、上述の回転処理と同様に、バッファメモリ119及びメモリコントローラ118を用いて実現することができる。
【0121】
図29(B)に示すような2up編集の場合には、まず1枚目及び2枚目(「A」及び「B」)の原稿が読み込まれ、それぞれの符号化された画像信号データ及びTag信号データがデータ蓄積部117へ蓄積される。次に1枚目の原稿(「A」)の画像信号データ及びArea−Tag信号データ及びSeg−Tag信号データが読み出され、復号化部116、復号化部114及び復号化部115で復号化した後、図29(B)に示すような配置となるようにメモリコントローラ118で制御してバッファメモリ119内の所定のアドレスに格納する。続いて2枚目の原稿(「B」)も同様の処理を経て、1枚目の原稿(「A」)と並んで配置されるようにバッファメモリ119内の所定のアドレスに格納される。以上の様にバッファメモリ119内に保持された1枚目及び2枚目の原稿(「A」及び「B」)のL* * * 画像データ、Area−Tag信号データ及びSeg−Tag信号データは、画像出力部2での印字動作に同期して1枚の画像及びTag信号のセットとして読み出され、復号化部116、復号化部114、復号化部115での復号処理をバイパスし、後段画像処理部4へ送出される。3枚目及び4枚目の原稿(「C」及び「D」)に対しても同様の処理が行われ、2枚の2upコピーを実現する。
【0122】
なお、上述の回転処理と同様に丁合コピー等の場合には、全てのページの2up処理を行った後、符号化を行い、データ蓄積部117へ蓄積することによって、コピーの生産性を上げることが可能である。
【0123】
図29(C)に示すように4up編集の場合にも、上述の2up編集と同様に実現できる。まず1〜4枚目全ての原稿(「A」、「B」、「C」、「D」)が読み込まれ、それぞれの符号化されたL* * * 画像信号データ及びTag信号データがデータ蓄積部117へ蓄積される。次に1枚目の原稿(「A」)のL* * * 画像データ及びArea−Tag信号データ及びSeg−Tag信号データが読み出され、復号化部116、復号化部114及び復号化部115で復号化された後、図29(C)に示すような方向及び配置となるように、メモリコントローラ118で回転処理及び書き込み制御が行われ、バッファメモリ119内の所定のアドレスに格納される。続いて2枚目、3枚目、4枚目の原稿(「B」、「C」、「D」)も同様の処理を経て、1枚目の原稿(「A」)と同様に所定の位置に所定の向きで配置されるように、バッファメモリ119内に格納される。以上のようにしてバッファメモリ119内に保持された4枚の原稿(「A」、「B」、「C」、「D」)のL* * * 画像データ、Area−Tag信号データ及びSeg−Tag信号データは、画像出力部2での印字動作に同期して1枚の画像及びTag信号のセットとして読み出され、復号化部116、復号化部114、復号化部115での復号処理をバイパスし、後段画像処理部4へ送出される。
【0124】
図30は、小冊子などを作成する際に有効な編集機能の一例の説明図である。上述のような回転処理や配置制御などを組み合わせることによって、より高度なページ編集を行うことが可能である。例えば図30に示すように、複数部数の小冊子などを作成する編集機能を実現することができる。図30(A)は8枚の原稿{原稿の読み込みは「A」、「B」、「C」、「D」、「E」、「F」、「G」、「J」の順に行われる)である。図30(B)、(C)、(D)は、各綴じ方向によって行われるページ編集の出力結果を示している。また、図(B)、(C)、(D)においてハッチングを施したページは裏面ページであることを示し、黒丸(‘●’)の点列は、製本時に例えばステープラーや糊付けなどにより綴じるための綴じ代部分を表している。なお、両面印刷は、画像出力部2において、表面印字後に用紙を所定トレイに一旦蓄積し、その後に用紙反転を行い、裏面印字を行う。用紙反転の際には、図30において各表面の右上と裏面の右下の折れのあるコーナーが一致するように反転が行われるものとする。
【0125】
図30(B)は、2ページの原稿を順番に並べる2upコピーモードで、且つ両面印刷が指定された時の各原稿の配置を示し、原稿の1枚目及び2枚目(「A」及び「B」)で構成される1ページ目の上端が綴じ代に設定されている。この場合には、蓄積部5は前述の2upと同様の処理を行うことにより、所望の出力を得ることができる。
【0126】
まず、1枚目から8枚目までの全ての原稿(「A」、「B」、「C」、「D」、「E」、「F」、「G」、「J」)を画像入力部1で読み込み、L* * * 画像データ、Area−Tag信号データ及びSeg−Tag信号データを蓄積部5へ出力する。蓄積部5では、入力されてくる画像信号及びTag信号を符号化部113、符号化部111及び符号化部112でそれぞれ所定の圧縮方式で符号化した後、データ蓄積部117へページ単位で記憶保持する。次に、1枚目の原稿(「A」)のL* * * 画像信号データ及びArea−Tag信号データ及びSeg−Tag信号データが読み出され、復号化部116、復号化部114及び復号化部115で復号化した後、図30(B)に示すような配置となるようにメモリコントローラ118で制御し、バッファメモリ119内の所定のアドレスに格納する。続いて2枚目の原稿(「B」)も同様の処理を経て、前記1枚目の原稿(「A」)と並んで配置されるようにバッファメモリ119内の所定のアドレスに格納する。以上の様にバッファメモリ119内に保持された1枚目及び2枚目の原稿(「A」及び「B」)のL* * * 画像データ、Area−Tag信号データ及びSeg−Tag信号データは、1ページの画像信号及びTag信号としてそれぞれ符号化部113、符号化部111及び符号化部112で再び符号化され、データ蓄積部117に格納される。
【0127】
以下同様の処理を3枚目及び4枚目の原稿(「C」、「D」)、5枚目及び6枚目の原稿(「E」、「F」)、7枚目及び8枚目の原稿(「G」、「J」)に対して行い、データ蓄積部117中に印字用の4ページのL* * * 画像データ、Area−Tag信号データ及びSeg−Tag信号データを保持する。全てのページ配置処理、符号化処理及びデータ蓄積部117への蓄積処理が完了した後、画像出力部2での印字動作に同期して、原稿「A」及び原稿「B」の画像から構成される1ページ目のL* * * 画像信号データ、Area−Tag信号データ及びSeg−Tag信号データが読み出され、復号化部116、復号化部114、復号化部115で復号処理が行われた後、後段画像処理部4へ送出される。以下、原稿「C」及び原稿「D」の画像から構成される2ページ目、原稿「E」及び原稿「F」の画像から構成される3ページ目、原稿「G」及び原稿「J」の画像から構成される4ページ目の出力を行い、その動作を設定された部数分繰り返すことにより、図30(B)に示すようなページ編集が可能となる。
【0128】
図30(C)は、図30(B)と同じく2upコピーモードでの両面印刷であるが、綴じ代が原稿の1枚目及び2枚目(「A」及び「B」)で構成される1ページ目の左端に設定されている。このため、小冊子となった時の天地・左右が正常となるように、裏面印刷用の2up編集時に図30(C)に示すように(表面印刷用の2up編集時と比較して)2枚の原稿の左右関係を逆に設定し、且つ両方のページの天地が反転するように180度の回転処理を施す必要がある。
【0129】
まず、1枚目から8枚目までの全ての原稿(「A」、「B」、「C」、「D」、「E」、「F」、「G」、「J」)を画像入力部1で読み込み、L* * * 画像信号データ、Area−Tag信号データ及びSeg−Tag信号データを蓄積部5へ出力する。蓄積部5では、入力されてくる画像信号及びTag信号を符号化部113、符号化部111及び符号化部112でそれぞれ所定の圧縮方式で符号化した後、データ蓄積部117へページ単位で記憶保持する。次に、1枚目の原稿(「A」)のL* * * 画像信号データ及びArea−Tag信号データ及びSeg−Tag信号データが読み出され、復号化部116、復号化部114及び復号化部115で復号化した後、図30(B)に示すような配置となるようにメモリコントローラ118で制御し、バッファメモリ119内の所定のアドレスに格納する。続いて2枚目の原稿(「B」)も同様の処理を経て、1枚目の原稿(「A」)と並んで配置されるようにバッファメモリ119内の所定のアドレスに格納される。
【0130】
以上のようにしてバッファメモリ119内に保持された1枚目及び2枚目の原稿(A及びB)のL* * * 画像信号データ、Area−Tag信号データ及びSeg−Tag信号データは、1ページの画像信号及びTag信号としてそれぞれ符号化部113、符号化部111及び符号化部112で再び符号化され、データ蓄積部117に格納される。
【0131】
続いて3枚目の原稿(「C」)のL* * * 画像信号データ及びArea−Tag信号データ及びSeg−Tag信号データが読み出され、復号化部116、復号化部114及び復号化部115で復号化した後、図30(C)に示すような配置となるようにメモリコントローラ118で回転処理及び配置制御を行い、バッファメモリ119内の所定のアドレスに格納する。4枚目の原稿(「D」)も同様にメモリコントローラ118で回転処理及び配置制御が行われ前記3枚目の原稿(「C」)と並んで配置されるようにバッファメモリ119内の所定のアドレスに格納される。このようにバッファメモリ119内に保持された3枚目及び4枚目の原稿(「C」及び「D」)のL* * * 画像信号データ、Area−Tag信号データ及びSeg−Tag信号データは、1枚目及び2枚目の原稿(「A」及び「B」)と同様に、1ページの画像信号及びTag信号としてそれぞれ符号化部113、符号化部111及び符号化部112で再び符号化され、データ蓄積部117に格納される。
【0132】
以下、5枚目及び6枚目の原稿(「E」、「F」)に対しては1枚目及び2枚目の原稿(「A」及び「B」)と同様の処理を、7枚目及び8枚目の原稿(「G」、「J」)に対して3枚目及び4枚目の原稿(「C」及び「D」)と同様の処理をそれぞれ行い、データ蓄積部117中に印字用の4ページのL* * * 画像信号データ、Area−Tag信号データ及びSeg−Tag信号データを保持する。
【0133】
全てのページ配置処理、符号化処理及びデータ蓄積部117への蓄積処理が完了した後、画像出力部2での印字動作に同期して、原稿「A」及び原稿「B」の画像から構成される1ページ目のL* * * 画像信号データ、Area−Tag信号データ及びSeg−Tag信号データが読み出され、復号化部116、復号化部114、復号化部115で復号処理が行われた後、後段画像処理部4へ送出される。以下、原稿「C」及び原稿「D」の画像から構成される2ページ目、原稿「E」及び原稿「F」の画像から構成される3ページ目、原稿「G」、原稿「J」の画像から構成される4ページ目の出力を行い、その動作を設定された部数分繰り返すことにより、図30(C)に示すようなページ編集が可能となる。
【0134】
図30(D)は、出力画像の中央を綴じる製本の場合を示している。このようなページ編集は「シグネチャ編集」と呼ばれるものであり、原稿を読み込む順番と印字する順番が全く一致しないという点で、上述の図30(B)、(C)に示したページ編集と大きく異なる。シグネチャ編集においても画像の読み込み動作は図30(B)、(C)のページ編集と同様である。まず、1枚目から8枚目までの全ての原稿「A」、「B」、「C」、「D」、「E」、「F」、「G」、「J」)を画像入力部1で読み込み、L* * * 画像信号データ、Area−Tag信号データ及びSeg−Tag信号データを蓄積部5へ出力する。蓄積部5では、入力されてくる画像信号及びTag信号を符号化部113、符号化部111及び符号化部112でそれぞれ所定の圧縮方式で符号化した後、データ蓄積部117へページ単位で記憶保持する。
【0135】
次に、図30(D)に示すように、1ページ目の出力を構成する8枚目の原稿(「J」)のL* * * 画像信号データ及びArea−Tag信号データ及びSeg−Tag信号データが読み出され、復号化部116、復号化部114及び復号化部115で復号化した後、図30(D)に示すような配置となるようにメモリコントローラ118で制御し、バッファメモリ119内の所定のアドレスに格納する。続いて1枚目の原稿(「A」)も同様の処理を経て、前記8枚目の原稿(J)と並んで配置されるようにバッファメモリ119内の所定のアドレスに格納される。以上の様にバッファメモリ119内に保持された8枚目及び1枚目の原稿(「J」及び「A」)のL* * * 画像信号データ、Area−Tag信号データ及びSeg−Tag信号データは、1ページの画像信号及びTag信号としてそれぞれ符号化部113、符号化部111及び符号化部112で再び符号化され、データ蓄積部117に格納される。
【0136】
続いて7枚目の原稿(「G」)のL* * * 画像信号データ及びArea−Tag信号データ及びSeg−Tag信号データが読み出され、復号化部116、復号化部114及び復号化部115で復号化した後、図30(D)に示すような配置となるようにメモリコントローラ118で回転処理及び配置制御を行い、バッファメモリ119内の所定のアドレスに格納する。2枚目の原稿(「B」)も同様にメモリコントローラ118で回転処理及び配置制御が行われ、7枚目の原稿(「G」)と並んで配置されるようにバッファメモリ119内の所定のアドレスに格納される。このようにバッファメモリ119内に保持された7枚目及び2枚目の原稿(「G」及び「B」)のL* * * 画像信号データ、Area−Tag信号データ及びSeg−Tag信号データは、8枚目及び1枚目の原稿(「J」及び「A」)と同様に、1ページの画像信号及びTag信号としてそれぞれ符号化部113、符号化部111及び符号化部112で再び符号化され、データ蓄積部117に格納される。
【0137】
以下、6枚目及び3枚目の原稿(「F」、「C」)に対しては8枚目及び1枚目の原稿(「J」及び「A」)と同様の処理を行う。また、5枚目及び4枚目の原稿(「E」、「D」)に対して7枚目及び2枚目の原稿(「G」及び「B」)と同様の処理を行う。そして、データ蓄積部117中に印字用の4ページのL* * * 画像信号データ、Area−Tag信号データ及びSeg−Tag信号データを保持する。
【0138】
全てのページ配置処理、符号化処理及びデータ蓄積部117への蓄積処理が完了した後、画像出力部2での印字動作に同期して、原稿「J」及び原稿「A」の画像から構成される1ページ目のL* * * 画像信号データ、Area−Tag信号データ及びSeg−Tag信号データが読み出され、復号化部116、復号化部114、復号化部115で復号処理が行われた後、後段画像処理部4へ送出される。以下、原稿「G」及び原稿「B」の画像から構成される2ページ目、原稿「F」及び原稿「C」の画像から構成される3ページ目、原稿「E」及び原稿「D」の画像から構成される4ページ目の出力を行い、その動作を設定された部数分繰り返すことにより、図30(D)に示すようなページ編集が可能となる。
【0139】
以上説明したように、蓄積部5では、Tag信号を、操作者が原稿に対してページ単位に設定する情報と、前段画像処理部3での画像識別結果とに分離して保持、蓄積する。そして、画像出力時に画像出力部2の印字色及び印字動作に合わせて、後段画像処理部4内で各処理部に必要とされる情報を生成する。これによって、蓄積部5で蓄積する情報量を削減することが可能になる。また、操作者が操作用パネルや編集用ディジタイザから入力する位置情報の精度は、通常0.25mm(100dpi)程度であるので、このように論理的に情報を分離して圧縮処理を行うことによって、符号化部111での符号化効率も大幅に向上する。
【0140】
このように、上述の実施の一形態に示すようなデジタルカラー複写機の構成により、例えば極めて高い画質が要求される場合においても、例えば電子的なソート機能やページレイアウト編集などの、多彩かつ高度な編集機能実現することが可能となる。
【0141】
なお、本実施例では、説明のため、カラーモードや原稿タイプ、絵/文字分離部における識別類型を始め、各処理部の処理順序やその処理の切り換え、および組み合わせ論理の詳細を記述したが、本発明はこれに限定されるものではないことは言うまでもない。
【0142】
図31は、本発明の画像処理装置の別の実施の形態を示すブロック構成図、図32は、同じく前段画像処理部の一例を示す概略構成図、図33は、同じく後段画像処理部の一例を示す概略構成図、図34は、同じく蓄積部の一例を示す概略構成図である。図中、図1,図2,図7,図25と同様の部分には同じ符号を付して説明を省略する。7は画像出力部、121は画像信号変倍部、122はTag信号変倍部である。
【0143】
この実施の形態では、蓄積部5がバス120上に画像信号変倍部121、Tag信号変倍部122を持つ構成を示している。画像信号変倍部121は、画像信号データに対して2次元の拡大、縮小処理を行う。拡大、縮小処理の方法は任意であり、公知の手法を用いることができる。また、Tag信号変倍部122は、画像信号変倍部121における拡大、縮小処理と同じ変倍率で、Tag信号に対して拡大、縮小処理を行う。この場合の手法も任意である。なお、蓄積部5に画像信号変倍部121、Tag信号変倍部122を設けているので、図32に示すように前段画像処理部3には画像変倍部14およびTag変倍部15を設けていない。この例の場合も、図34に示す画像信号変倍部121、Tag信号変倍部122は画像前処理手段、属性前処理手段を構成する。
【0144】
このような構成にすることによって、画像入力部1での画像入力は常に等倍で実施することが可能になる。また、制御部6及び前段画像処理部3内の原稿検知部16での原稿情報抽出結果に基づいて、画像信号変倍部121、Tag信号変倍部122で縮小、拡大処理を行うので、予備走査が不要になる。
【0145】
また、この実施の形態では、画像出力部7はYMCK4色の露光・現像・転写の電子写真プロセスを持っており、一時にフルカラー画像を印字することが可能である。従って、蓄積部5から後段画像処理部4へのL* * * 画像信号データ及びTag信号の出力は1回のみとなる。
【0146】
以上のように、画像入力及び画像出力の基本的な動作が変わっても、上述の実施の一形態における構成及び動作と本質的に変わること無く、画像処理動作を行うことが可能である。
【0147】
なお、上述の各実施の形態においては、画像入力部1からRGBの信号を受け取り、画像出力部2や画像出力部7に対してYMCKの信号を送出した。しかし本発明はこれに限られるものではなく、例えば入力側がL* * * やYMCK、その他種々の色空間であってよい。また、出力側も画像出力部2が受け取る画像データの色空間に応じた信号を出力すればよい。なお、画像出力部2は、上述の例のようにトナーを用いた電子写真方式に限られるものではなく、例えばインクジェット方式や感熱方式、熱転写方式など、種々の記録方式を用いることが可能である。
【0148】
また、上述の各実施の形態では、画像入力部1から画像が送出され、画像出力部2に対して処理後の画像を出力する構成を示したが、本発明はこれに限らず、例えばホストコンピュータに直接あるいはネットワークなどを介して接続されるプリンタとして構成することも可能である。さらには、出力する先が画像出力部2ではなく、例えばホストコンピュータであるなど、種々の形態で構成することが可能である。なお、このような場合には、前段画像処理部3、後段画像処理部4、蓄積部5で行われる各種の画像処理は、上述の機能に限られるものではなく、適宜取捨選択してもよいし、また他の機能を付加してももちろんよい。
【0149】
【発明の効果】
以上の説明から明らかなように、本発明によれば、例えばカラー複写機のような極めて高い画質が要求される画像処理システムにおいても、例えば電子的なソート機能やページレイアウト編集などの、多彩かつ高度な編集機能実現することが可能となるという効果がある。
【図面の簡単な説明】
【図1】 本発明の画像処理装置の実施の一形態を示すブロック構成図である。
【図2】 前段画像処理部3の一例を示すブロック構成図である。
【図3】 階調補正部11における階調補正処理の一例を示すグラフである。
【図4】 絵/文字分離部の一例を示すブロック構成図である。
【図5】 Seg−Tag信号の一例の説明図である。
【図6】 Area−Tag信号の一例の説明図である。
【図7】 後段画像処理部4の一例を示すブロック構成図である。
【図8】 色空間変換部31の一例を示す概略構成図である。
【図9】 CC−Tag信号の一例の説明図である。
【図10】 色補正部41〜43の一例を示す概略構成図である。
【図11】 色補正部41〜43における色空間の分割方法の一例を示す説明図である。
【図12】 空間補正部32の一例を示す概略構成図である。
【図13】 空間補正部32で行われる畳み込み演算処理の一例の説明図である。
【図14】 Filter−Tag信号の値に対する補正演算部62〜補正演算部67の選択論理及びその処理内容の一例の説明図である。
【図15】 階調補正部の一例を示す概略構成図である。
【図16】 TRC−Tag信号の値に対する補正LUT71〜80の選択論理及びその処理内容の一例の説明図である。
【図17】 中間調生成部34の一例を示す概略構成図である。
【図18】 演算パターンマトリクスの一例の説明図である。
【図19】 波形パターンの一例の説明図である。
【図20】 参照波および出力信号の生成過程の説明図である。
【図21】 画素値演算部91の一例を示すブロック図である。
【図22】 Screen−Tag信号と対応する線数およびその処理内容の一例の説明図である。
【図23】 Tag信号生成部35において生成するTag信号の一例の説明図である。
【図24】 Tag信号生成部35において生成するTag信号の一例の説明図(続き)である。
【図25】 蓄積部5の一例を示す概略構成図である。
【図26】 蓄積部5で実現されるソート機能の一例の説明図である。
【図27】 ページ編集機能の一つである回転処理の一例の説明図である。
【図28】 拡大、縮小処理を伴う回転処理の一例の説明図である。
【図29】 複数ページの原稿を1枚の用紙上に配置して印字する「Nup機能」の一例の説明図である。
【図30】 小冊子などを作成する際に有効な編集機能の一例の説明図である。
【図31】 本発明の画像処理装置の別の実施の形態を示すブロック構成図である。
【図32】 本発明の画像処理装置の別の実施の形態における前段画像処理部の一例を示す概略構成図である。
【図33】 本発明の画像処理装置の別の実施の形態における後段画像処理部の一例を示す概略構成図である。
【図34】 本発明の画像処理装置の別の実施の形態における蓄積部の一例を示す概略構成図である。
【図35】 従来の画像複写システムの一例を示すブロック図である。
【図36】 従来のデジタルカラー複写機の一例を示すブロック図である。
【符号の説明】
1…画像入力部、2…画像出力部、3…前段画像処理部、4…後段画像処理部、5…蓄積部、6…制御部、7…画像出力部、11…階調補正部、12…色空間変換部、13…絵/文字分離部、14…画像変倍部、15…Tag変倍部、16…原稿検知部、21…文字抽出部、22…網点抽出部、23…論理和演算部、24…収縮部、25…膨張部、26…論理積演算部、27…色/黒判定部、28…結合部、31…色空間変換部、32…空間補正部、33…階調補正部、34…中間調生成部、35…Tag信号生成部、41〜43…色補正部、44,45…セレクタ、51…基準データ用色補正メモリ、52…補間用領域選択信号メモリ、53〜55…補間用信号出力メモリ、56〜58…補間用乗算器、59…加算部、61…ラインバッファ、62〜67…補正演算部、68…セレクタ、71〜80…補正LUT、81…セレクタ、91…画素値演算部、92…演算係数&パターン記憶部、93…波形パターン記憶部、94…比較部、95…参照波生成部、101…減算器、102…乗算器、103,104…比較器、105…セレクタ、111〜113…符号化部、114〜116…復号化部、117…データ蓄積部、118…メモリコントローラ、119…バッファメモリ、120…バス、121…画像信号変倍部、122…Tag信号変倍部、201…画像入力部、202…画像出力部、203…画像処理部、210…画像再現部、211…階調補正部、212…セレクタ、213…空間補正部、214…階調補正部、215…中間調生成部、220…画像蓄積・編集部、221…符号化部、222…復号化部、223…変倍部、224…画像蓄積部、225…メモリコントローラ、226…ページメモリ、227…バス、301…画像入力部、302…画像出力部、303…画像処理部、304…制御部、310…階調補正部、311…色補正部、312…墨版生成・下色除去部、313…画像信号変倍部、314…切換信号変倍部、315…空間補正部、316…階調補正部、317…中間調生成部、318…絵/文字分離部、319…原稿検知部。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus and an image processing method having a function of accumulating image data, and in particular, an image processing apparatus suitable for use in processing image data requiring precise image processing such as a color image. And an image processing method.
[0002]
[Prior art]
In recent years, digital image input / output devices and related technologies have made significant progress and development. Along with this, images that handle various digital images such as digital copiers that read originals as digital signals and perform various image processing are printed. Processing equipment is rapidly spreading. For example, in a digital copying machine, a system having various advanced functions such as an electronic sorting function and page layout editing, which is impossible with a conventional optical copying machine, due to signal processing unique to digital. Various proposals have also been made.
[0003]
FIG. 35 is a block diagram showing an example of a conventional image copying system. In the figure, 201 is an image input unit, 202 is an image output unit, 203 is an image processing unit, 210 is an image reproduction unit, 211 is a gradation correction unit, 212 is a selector, 213 is a spatial correction unit, and 214 is a gradation correction unit. 215 is a halftone generation unit, 220 is an image storage / editing unit, 221 is an encoding unit, 222 is a decoding unit, 223 is a scaling unit, 224 is an image storage unit, 225 is a memory controller, 226 is a page memory, 227 is a bus.
[0004]
The image input unit 201 includes a document placement table, a light source, a CCD line sensor, an A / D (analog / digital) converter, and the like. When a one-dimensional CCD line sensor is used, the intensity of reflected light is determined by relatively moving the document in a direction (sub-scanning direction) perpendicular to the arrangement direction (main scanning direction) of the light receiving elements in the CCD line sensor. An electric signal of 8 bits / pixel corresponding to the above is generated.
[0005]
The image output unit 202 prints a monochrome image on a recording medium by a recording method such as an electrophotographic method.
[0006]
The image processing unit 203 receives an image signal output by the image input unit 201 scanning the document, and generates a signal that causes the image output unit 202 to reproduce the image on the document satisfactorily. As illustrated in FIG. 35, the image processing unit 203 includes an image reproduction unit 210 and an image accumulation / editing unit 220. The image reproduction unit 210 generates an output signal for reproducing an image by the image output unit 202 from the image signal received from the image input unit 201. The image storage / editing unit 220 stores document images in units of pages, and realizes sorting and layout editing.
[0007]
The image reproduction unit 210 includes a gradation correction unit 211, a selector 212, a space correction unit 213, a gradation correction unit 214, and a halftone generation unit 215. The gradation correction unit 211 corrects the gradation of the image signal input by the image input unit 201 according to the gradation characteristics of the image input unit 201. The selector 212 is controlled by a control unit (not shown), and selects either the image signal output from the gradation correction unit 211 or the image signal read from the image storage / editing unit 220. The spatial correction unit 213 corrects the spatial characteristics of the image signal selected by the selector 212. The tone correction unit 214 corrects the tone of the image signal according to the tone characteristics of the image output unit 202. The halftone generation unit 215 generates a binary signal for printing from the 8-bit / pixel image signal and outputs it to the image output unit 202.
[0008]
The image storage / editing unit 220 includes an encoding unit 221, a decoding unit 222, a scaling unit 223, an image storage unit 224, a memory controller 225, and a page memory 226, which are connected by a bus 227. The encoding unit 221 encodes the 8-bit / pixel image signal input from the gradation correction unit 211 of the image reproduction unit 210 by a predetermined multi-value image compression method represented by, for example, JPEG. The decoding unit 222 decompresses data encoded by a predetermined multi-level image compression method, and generates an image signal. The scaling unit 223 performs two-dimensional enlargement / reduction processing (in the main scanning direction and the sub-scanning direction) on the image signal. The image storage unit 224 stores the image data encoded by the encoding unit 221 in units of pages. A memory controller 225 controls the page memory 226 and is used for image rotation, layout editing, and the like. For example, rotation processing, mirror image processing, and the like can be realized by controlling a write address and a read address to the page memory 226. The page memory 226 temporarily stores image data during image rotation, layout editing, and the like.
[0009]
In the configuration shown in FIG. 35, for example, in a normal copy operation in which one copy of one original is copied, an image signal is not input to the image storage / edit unit 220. The image signal input by the image input unit 201 is subjected to correction processing by the gradation correction unit 211, the spatial correction unit 213, and the gradation correction unit 214 of the image reproduction unit 210, and binarized by the halftone generation unit 215. And output to the image output unit 202.
[0010]
When the above sort operation or page editing is performed, the image signal input by the image input unit 201 is subjected to gradation correction processing by the gradation correction unit 211 and then to the image storage / editing unit 220. Is output. The image signal input to the image storage / editing unit 220 is encoded by the encoding unit 221 and then stored in the image storage unit 224 in units of pages.
[0011]
For example, in order to realize an electronic sorting function for copying a predetermined number of copies in a collation mode, all originals are temporarily stored in the image storage unit 224 and then encoded from the image storage unit 224 in a predetermined order. The read image data is read out, decompressed by the decoding unit 222, and an image signal is output to the image reproduction unit 210. Further, when realizing editing such as enlargement / reduction, rotation, and various layouts, the image data held in the image storage unit 224 is expanded by the decoding unit 222, and the enlargement / reduction process is performed by the scaling unit 223. Or a rotation or writing to a predetermined position by the memory controller 225 to generate a desired image signal on the page memory 226. The image signal generated on the page memory 226 is output to the image reproduction unit 210 when it is printed as it is, and is compressed again by the encoding unit 221 when combined with a function such as the above-described electronic sort. Accumulated in the accumulation unit 224.
[0012]
The image signal input from the image storage / editing unit 220 to the image reproduction unit 210 is transmitted through the selector 212 in the spatial correction unit 213 and the gradation correction unit 214 in the same manner as the normal copy operation described above. Correction processing is performed, and the image is binarized by the halftone generation unit 215 and output to the image output unit 202.
[0013]
With the configuration and operation as described above, an advanced editing function can be realized as described above. However, in the case of an image processing apparatus that performs extremely high image quality and precise reproduction processing such as a digital color copying machine, for example, the configuration of the image reproduction unit becomes very complicated as described below. It was difficult to realize the same function.
[0014]
FIG. 36 is a block diagram showing an example of a conventional digital color copying machine. In the figure, 301 is an image input unit, 302 is an image output unit, 303 is an image processing unit, 304 is a control unit, 310 is a gradation correction unit, 311 is a color correction unit, 312 is a black plate generation / under color removal unit, 313 is an image signal scaling unit, 314 is a switching signal scaling unit, 315 is a spatial correction unit, 316 is a gradation correction unit, 317 is a halftone generation unit, 318 is a picture / character separation unit, and 319 is a document detection unit. is there.
[0015]
The image input unit 301 generates an electrical signal obtained by color-separating an image on a document into three primary colors such as red (R), green (G), and blue (B). The image output unit 302 prints, for example, four color toners such as yellow (Y), magenta (M), cyan (C), and black (K) by an electrophotographic method, and a full color image is recorded. Print on top. The image processing unit 303 receives RGB signals output by scanning the document with the image input unit 301, and outputs Y, M, C, and K signals that allow the image output unit 302 to reproduce the image on the document satisfactorily. Generate.
[0016]
In this system, scanning in the sub-scanning direction of the image input unit 301 and the image output unit 302 is synchronized. Further, as described above, when printing in four colors of Y, M, C, and K, the image input unit 301 scans the document four times, and the image processing unit 303 receives the input RGB signal and performs each time. For each scan, color signals are generated, for example, in the order of Y → M → C → K. Similarly, the image output unit 302 performs printing in the order of, for example, Y → M → C → K, and four-color full color printing is performed. Note that the control unit 304 controls the image input unit 301, the image output unit 302, and the image processing unit 303.
[0017]
A gradation correction unit 310 in the image processing unit 303 corrects the gradation characteristics of the image input unit 301 for the input RGB primary color image signals. The gradation correction unit 310 can realize gradation correction processing by referring to a one-dimensional LUT (lookup table) set in advance for each of R, G, and B signals, for example. The color correction unit 311 generates a YMC signal that matches the color characteristics of the color material used in the image output unit 302 from the RGB signal subjected to the gradation correction process. The color correction unit 311 can be realized by a known masking technique implemented by, for example, a 3 × 6 matrix operation.
[0018]
The black plate generation / under color removal unit 312 extracts a gray component from the YMC signal after color correction, and generates a Y / M / C / K signal in accordance with the print cycle of the image output unit 302. Specifically, after obtaining the K signal based on the minimum values of Y, M, and C, a known black plate generation that removes the lower color component from the Y, M, and C signals according to the determined K component・ Under color removal processing is performed.
[0019]
The image signal scaling unit 313 performs image reduction / enlargement processing in the main scanning direction by publicly known linear interpolation, and performs subtraction / reduction in the sub-scanning direction in accordance with the control of the scanning speed in the sub-scanning direction in the image input unit 301. Enlargement processing is performed to realize two-dimensional scaling processing for the input image. The switching signal scaling unit 314 scales the Tag signal output from the picture / character separation unit 318 described later at the same magnification as the image signal scaling unit 313. For the scaling process, for example, a known zero-order hold method or the like is used.
[0020]
The spatial correction unit 315 corrects the spatial characteristics of the input Y / M / C / K signal. For example, the input image space is obtained by multiplying a total of 35 pixels centering on the target pixel by ± 3 pixels in the main scanning direction and ± 2 pixels in the sub-scanning direction by adding a predetermined coefficient, that is, by performing a convolution operation. Correct the characteristics. The tone correction unit 316 corrects the tone characteristics of the image output unit 302. For example, it is realized by referring to a one-dimensional LUT (look-up table) set in advance for each signal of Y / M / C / K. The halftone generation unit 317 generates a Y / M / C / K binary signal to be output to the image output unit 302. For example, a binary signal is generated by comparing an input image signal with a dither matrix threshold designed in advance for each color signal of Y / M / C / K.
[0021]
The document detection unit 319 extracts information necessary for the copying operation from the document image, such as detecting the size and position of the document read by the image input unit 301 and determining whether the document is a monochrome document or a color document. This extraction processing can be performed, for example, during preliminary scanning performed prior to document reading scanning, and the extracted information is sent to the control unit 304.
[0022]
The picture / character separating unit 318 identifies whether each pixel of the document image is a character or a picture in units of pixels. Then, according to the identification result, the processing contents are switched for each pixel so that the black plate generation / under color removal unit 312, the space correction unit 315, the gradation correction unit 316, and the halftone generation unit 317 perform optimal processing. Generate and output a signal. Hereinafter, a signal used for switching or changing each image processing content corresponding to an image signal and a pixel unit in this way is described as a Tag signal. In this example, the picture / character separating unit 318 generates a Tag-1 signal, a Tag-2 signal, a Tag-3 signal, and a Tag-4 signal, and the black plate generation / undercolor removal unit 312, the space correction unit 315, Output to the tone correction unit 316 and the halftone generation unit 317.
[0023]
The contents of the Tag signal generated by the picture / character separation unit 318 are specified by an operator from an operation unit (not shown), for example, a document type such as “character”, “character / photo”, “map”, or “ It depends on the color mode such as “black and white”, “three colors”, “four colors”. Further, there may be a case where a plurality of document types and color modes are mixedly specified within the same document by inputting with an editing tablet (not shown) or filling in the document with a highlighter. In addition to the document type and color mode, for example, a Tag signal that controls the print color also corresponds to a designation such that a pixel identified as a black character in the picture / character separation unit 318 is reproduced in K single color. is necessary.
[0024]
Therefore, the picture / character separation unit 318 receives the input RGB image data, the operator setting information from the control unit 304, the information on the print color processed by the image processing unit 303, and the like. Tag-1 for controlling the black plate generation / undercolor removal unit 312, the space correction unit 315, the gradation correction unit 316, and the halftone generation unit 317 based on the determined information and the pixel / picture determination result Signal, Tag-2 signal, Tag-3 signal, Tag-4 signal are generated.
[0025]
With the above configuration, the image read by the image input unit 301 is processed for each pixel in accordance with various information such as the document type, color mode, and color in the image, and the image output unit 302 records the recording medium. Printed on top. In this way, an extremely high-quality color copy is possible.
[0026]
However, if an image storage / editing unit as shown in FIG. 35 is connected to an image processing system such as a digital color copying machine shown in FIG. 36, the following problems arise. First, the same reproduction processing, for example, tone correction, space correction, color correction, halftone generation, etc., is performed for all the components of the document such as halftone dots, characters, lines, fills, black characters, black lines, etc. Therefore, extremely high image quality cannot be realized. Therefore, a mechanism for making the reproduction process different for each component of the document, such as a picture / character separation unit 318 and a Tag signal in FIG. 36, is required.
[0027]
However, for example, in the digital color copying machine shown in FIG. 36, the number of bits of the Tag signal is 2 bits for the Tag-1 signal, 2 bits for the Tag-2 signal, 3 bits for the Tag-3 signal, and 1 for the Tag-4 signal. If a bit is required, a control signal of 8 bits per pixel is required. In the case of a digital color copying machine, the contents of these Tag signals vary depending on the printing color as described above. Therefore, if there are control signals for each of the four printing colors, it is necessary to process and control a Tag signal of 8 bits × 4 colors = 32 bits / pixel.
[0028]
Further, since the Tag signal is an instruction to switch processing in units of pixels, for example, the lossy compression such as JPEG is applied to the Tag signal of 8 bits / pixel or 32 bits / pixel, like the image signal. This is not desirable, and it is necessary to employ a reversible compression process for encoding. For this reason, the data amount of the Tag signal may rather be larger than the data amount of the image signal. Therefore, if the image storage / editing unit 220 shown in FIG. 35 is connected to an image processing apparatus that performs precise image processing such as the digital color copying machine shown in FIG. The capacity tag signal needs to be edited, such as accumulation, rotation, and layout, similar to the image signal. For this reason, since the image storage / editing unit becomes very large, an apparatus provided with an image storage / editing unit in an image processing apparatus that performs precise image processing such as a digital color copying machine has not been developed.
[0029]
As one measure for providing an image storage / editing unit in an image processing apparatus that performs precise image processing, before and after the tone correction unit 310 and the color correction unit 311 before the Tag signal generation, that is, the picture / character separation unit 318 Can be used for input / output with the image storage / editing unit. However, the image identification process performed by the picture / character separation unit 318 is an extremely precise recognition process. For example, if it is performed after a compression process such as JPEG, an erroneous recognition result due to the influence of block noise or mosquito noise caused by the compression. And a normal Tag signal may not be generated. Also, if compression processing is not performed on the image signal or lossless compression processing is performed, the data capacity handled by the image storage / editing unit becomes very large, resulting in a large-scale image storage / editing unit. There was a problem of becoming.
[0030]
[Problems to be solved by the invention]
The present invention has been made in view of the above-described circumstances, and an object thereof is to provide an image processing apparatus and an image processing method capable of using a variety of advanced editing functions even when extremely high image quality is required. Is.
[0031]
[Means for Solving the Problems]
According to the present invention, in an image processing apparatus, image data storage means for storing input image data for at least one page and a plurality of attribute information corresponding to each page of the image data are stored in the image data storage means. Attribute information storage means for storing in association with the image data, image post-processing means for reading the image data stored in the image data storage means and performing various image processing, and image processing by the image post-processing means Control signal generation means for generating a control signal for controlling the image post-processing means in accordance with a plurality of attribute information stored in the attribute information storage means in association with the image data; The image processing is performed according to the control signal generated by the control signal generating means.
In the image processing method, at least one page of input image data is stored in the image data storage unit, and a plurality of attribute information corresponding to each page of the image data is stored in the image data storage unit. A control signal is generated by a control signal generation unit according to a plurality of attribute information stored in the attribute information storage unit in association with the image data, and is stored in the attribute data storage unit in association with the image data. The stored image data is read out, and image processing is performed on the image data by image post-processing means in accordance with the control signal generated by the control signal generating means.
In this way, together with image data, a plurality of attribute information corresponding to each page of the image data is accumulated, and a control signal is generated from the plurality of attribute information to perform various image processing. Processing and subsequent image processing can be controlled. For example, even when extremely high image quality is required, various and advanced editing functions can be realized.
[0032]
The attribute information may be pixel information necessary for editing processing in the editing unit extracted by the extraction unit from input image data, page information set by an operator input, or the like. These pixel information and page information can be stored separately. At this time, the attribute information accumulating unit accumulates pixel information indicating the identification result for each pixel extracted by the extracting unit, and the control signal for the subsequent image post-processing unit reads at least the pixel information from the attribute information accumulating unit. It can be generated by the control signal generating means. As a result, the amount of data stored in the attribute information storage means can be reduced.
[0033]
The image data stored in the image data storage means and the attribute information stored in the attribute information storage means are encoded and stored by the respective encoding means, and decoded by the respective decoding means when read out. Can be used. Thus, the amount of data to be accumulated can be reduced by applying an optimal encoding method to each data.
[0034]
Furthermore, for example, in the case of having image preprocessing means for performing image processing on the image data before being stored in the image data storage means after the pixel information is extracted by the extraction means, the attribute preprocessing is also performed on the attribute information. The image can be stored in the attribute information storage unit after similar image processing is performed by the unit.
[0035]
Further, in the configuration in which the image data input from the image input means is processed and output to the image output means, the image data and attribute data are accumulated in synchronization with the scanning of the image in the image input means, Image data and attribute data can be read and edited in synchronization with the image output means.
[0036]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a block diagram showing an embodiment of an image processing apparatus according to the present invention. In the figure, 1 is an image input unit, 2 is an image output unit, 3 is a pre-stage image processing unit, 4 is a post-stage image processing unit, 5 is a storage unit, and 6 is a control unit. The example shown in FIG. 1 shows a case where the digital color copying machine is configured to have a page unit storage function.
[0037]
The image input unit 1 acquires an image on a document as a color image. The image input unit 1 includes, for example, a document placement table, a light source, a line sensor, an A / D (analog / digital) converter, and the like. By moving the one-dimensional CCD line sensor in a direction (sub-scanning direction) perpendicular to the arrangement direction (main scanning direction) of the light receiving elements of the line sensor, the image on the document is read and output as image data. Here, as an example, an electrical signal that is color-separated into three primary colors of red (R), green (G), and blue (B) is generated and output as an image signal. Of course, the reading method is arbitrary, and a method of reading the document by moving it may be used.
[0038]
The image output unit 2 forms a color image on a recording medium in accordance with input image data. Here, as an example, a full-color image is printed using four color toners of yellow (Y), magenta (M), cyan (C), and black (K). In this example, it is assumed that full color printing is performed by four printing operations in the order of Y → M → C → K.
[0039]
The pre-stage image processing unit 3 and the post-stage image processing unit 4 receive the image data output by the image input unit 1 scanning the document, and generate image data so that the image of the document is reproduced well in the image output unit 2. To do. Here, RGB signals are received from the image input unit 1, and Y, M, C, and K signals are sequentially generated for the image output unit 2. The pre-stage image processing unit 3 and the post-stage image processing unit 4 perform image processing performed until the image output unit 2 forms an image read by the image input unit 1 according to the positional relationship with the storage unit 105 described later. Divided.
[0040]
The accumulating unit 5 receives image data output from the pre-stage image processing unit 3 and attribute information (Tag signal) necessary for image processing, and accumulates and holds them in units of pages. It also provides additional functions such as output control of image data, image rotation / combination processing, sorting, double-sided printing, and Nup editing for arranging and outputting a plurality of pages in one sheet.
[0041]
The control unit 6 controls the pre-stage image processing unit 3, the post-stage image processing unit 4, and the storage unit 5. Further, it controls the image input unit 1 or acquires a synchronization signal from the image input unit 1, and synchronizes the image input operation in the image input unit 1 with the preceding image processing unit 3 and the storage unit 5 at the time of image input. Can do. Furthermore, the image output unit 1 can be controlled or a synchronization signal can be acquired from the image output unit 2, and the storage unit 5, the subsequent image processing unit 4, and the image output unit 2 can be synchronized.
[0042]
An outline of the operation in the embodiment of the image processing apparatus of the present invention will be briefly described. A document to be color-copied is read by the image input unit 1, and digital signals of the three primary colors R, G, and B are generated. The generated digital image signal is input to the pre-stage image processing unit 3, where the color system L defined by CIE (International Lighting Commission) 1976 from the three primary colors RGB. * a * b * Is converted into a digital signal represented by Further, the pre-stage image processing unit 3 also generates a Tag signal that is an attribute signal used to control various subsequent image processes. L generated by the pre-stage image processing unit 3 * a * b * The signal and the Tag signal are output to the storage unit 5. At this time, in synchronization with the document scanning operation of the image input unit 1, the preceding image processing unit 3 outputs L * a * b * The signal and the Tag signal are output and stored in the storage unit 5.
[0043]
L stored and stored in the storage unit 5 * a * b * After the predetermined image editing and processing are performed in the storage unit 5, the signal and the Tag signal are synchronized with the printing operation of the image output unit 2, the number of printing operations, here the number of output colors, and the subsequent image It is output to the processing unit 4. In the subsequent image processing unit 4, L * a * b * A Y / M / C / K signal for printing is sequentially generated from the signal and the Tag signal, and a printing signal is output to the image output unit 2. The image output unit 2 sequentially forms Y, M, C, and K images on the recording medium, thereby forming a full-color image.
[0044]
By the operation as described above, copying of a color original is realized. Accordingly, when copying a document by reproducing a color image with the usual four colors of Y / M / C / K and copying the document, the document image is fetched into the storage unit 5 by one scan, and the image data is read from the storage unit 5. And printing is performed by reading the Tag signal four times.
[0045]
Hereafter, each part shown in FIG. 1 is demonstrated in detail. FIG. 2 is a block configuration diagram illustrating an example of the pre-stage image processing unit 3. In the figure, 11 is a gradation correction unit, 12 is a color space conversion unit, 13 is a picture / character separation unit, 14 is an image scaling unit, 15 is a Tag scaling unit, and 16 is a document detection unit. In FIG. 2, the RGB signal input from the image input unit 1 is processed and L * a * b * The operation of outputting the signal and the Tag signal to the storage unit 5 will be described. In the figure, the solid line indicates an image signal, the broken line indicates a Tag signal, and the numbers described along with the diagonal lines in each signal line indicate the number of bits per pixel in each signal. The same applies to the subsequent drawings.
[0046]
Assume that the image input unit 1 scans an image on an original and outputs a digital signal of 8 bits / pixel for each color of RGB at a pixel density of 600 dpi (600 dots per 25.4 mm), for example. The gradation correction unit 11 corrects the gradation characteristics of the image input unit 1 with respect to RGB three primary color signals input from the image input unit 1. FIG. 3 is a graph showing an example of gradation correction processing in the gradation correction unit 11. In the gradation correction unit 11, for example, as shown in FIG. 3, gradation conversion processing is performed on each of the R, G, and B signals in accordance with a characteristic curve set in advance for each signal. Such conversion processing can be realized, for example, by referring to a preset one-dimensional LUT (lookup table).
[0047]
The color space conversion unit 12 calculates the L signal from the RGB signal that has been subjected to the gradation correction processing by the gradation correction unit 11. * a * b * Generate a signal. L generated by the color space conversion unit 12 * a * b * The signal is a value quantized to 8 bits / pixel in accordance with a color space region that can be read and output by the image input unit 1 and the image output unit 2, respectively. RGB signal to L * a * b * The color space conversion processing to the signal is, for example,
[Expression 1]
Figure 0003738807
It can be realized by such an operation. In this equation, the conversion matrix coefficients α11 to α39 and β1 to β3 are numerical values designed in advance experimentally according to the color reading characteristics of the image input unit 1.
[0048]
The picture / character separating unit 13 identifies whether each pixel is a pixel constituting a picture or a pixel constituting a character, and outputs a signal indicating the identification result (hereinafter, Seg-Tag signal). . The picture / character separating unit 13 corresponds to an extracting unit. Further, the Seg-Tag signal indicating the identification result corresponds to pixel information which is one of the attribute information.
[0049]
FIG. 4 is a block diagram showing an example of the picture / character separating unit. In the figure, 21 is a character extraction unit, 22 is a halftone dot extraction unit, 23 is an OR operation unit, 24 is a contraction unit, 25 is an expansion unit, 26 is an AND operation unit, 27 is a color / black determination unit, and 28 is It is a coupling part. The picture / character separating unit 13 extracts character pixels in the image and separates them from the design and the background part. As described above, in the picture / character separating unit 13, the input L * a * b * A signal is received, and a 2 bit / pixel seg-Tag signal is output as an identification result. In the picture / character separation unit 13, the lightness signal L * Is input to the character extraction unit 21 and the halftone dot drawing unit 22. The character extraction unit 21 generates a binary signal indicating whether each pixel is a character pixel. The character extraction unit 21 extracts elements having a high gradation level such as characters, line drawings, and solids (filled) in the image. The character extraction unit 21 can be realized, for example, by obtaining a logical sum of a fixed binarization processing result based on a predetermined threshold and a floating binarization processing result using a peripheral pixel average value as a threshold. Similarly, the halftone dot extraction unit 22 generates a binary signal indicating whether each pixel is a halftone dot pixel. For example, as disclosed in Japanese Patent Application No. 9-231361, the halftone dot extraction unit 22 determines whether the pixel of interest is a halftone dot region based on the density or periodicity of the binarized image signal. Can be configured to.
[0050]
After obtaining the logical sum of the character signal and the halftone dot signal of each pixel obtained in this way by the logical sum operation unit 23, contraction and expansion processing of a predetermined size are performed by the contraction unit 24 and the expansion unit 25. The contraction unit 24 can perform contraction processing by performing a logical product operation on pixels in the window, for example, using a 31 × 31 (sub scan × main scan) size window. The expansion unit 25 can perform expansion processing by performing a logical OR operation on pixels in the window using, for example, a 49 × 49 size window. In addition, the size of the window used in the contraction part 24 and the expansion part 25 is arbitrary.
[0051]
Further, the logical product operation unit 26 calculates the logical product of the negation of the signal after the expansion processing by the expansion unit 25 and the logical sum signal of the character signal output from the logical sum operation unit 23 and the halftone signal. . Thus, a 1-bit / pixel character identification signal indicating a character pixel is generated.
[0052]
In the picture / character separating unit 13, L * a * b * The signal is input to the color / black determination unit 27. In the color / black determination unit 27, the input L * a * b * By comparing the signal with a predetermined threshold value for each signal, it is determined whether each pixel is a chromatic color or an achromatic color, and a 1-bit / pixel color / black identification signal is generated. Then, the character identification signal output from the logical product operation unit 26 and the color / black identification signal output from the color / black determination unit 27 are combined by the combining unit 28, and Seg− of 2 bits / pixel indicating three types. A Tag signal is generated. FIG. 5 is an explanatory diagram of an example of the Seg-Tag signal. As shown in FIG. 5, the Seg-Tag signal indicates three types of black characters and color characters, other than characters, by the value of 2 bits / pixel.
[0053]
Returning to FIG. 2, the image scaling unit 14 outputs the L output from the color space conversion unit 12. * a * b * In response to the signal, one-dimensional enlargement / reduction is performed in the main scanning direction. In combination with the enlargement / reduction in the main scanning direction in the image scaling unit 14 and the scanning speed control in the sub-scanning direction in the image input unit 1, two-dimensional enlargement / reduction of the document image is realized. For the enlargement / reduction in the image scaling unit 14, for example, a known linear interpolation operation or the like can be used. The image scaling unit 14 corresponds to image preprocessing means. The image preprocessing means may be a process other than the image scaling process.
[0054]
The Tag signal scaling unit 15 performs enlargement / reduction processing in the main scanning direction on the Tag signal at the same scaling factor as the image enlargement / reduction processing performed by the image scaling unit 14. As an enlargement / reduction method, for example, a known simple scaling method (zero-order hold method) can be used. Here, the Area-Tag signal shown in FIG. 2 is a Tag signal (attribute information) indicating a setting made by the operator for a document and a copying operation using a user interface (not shown) or an editing digitizer. FIG. 6 is an explanatory diagram of an example of an Area-Tag signal. Here, as shown in FIG. 6, signals representing “color mode” and “document type” are each 2 bits / pixel. As the color mode, image formation using four colors (YMCK), image formation using three colors (YMC), or monochrome image formation can be designated. As the document type, a character / photo mixed document, a character document, a photo document, a map document, or the like can be designated. The Tag signal scaling unit 15 performs enlargement / reduction processing on the Area-Tag signal together with the Seg-Tag signal output from the picture / character separation unit 13 at the same scaling factor as the image scaling unit 14. . The Tag signal scaling unit 15 corresponds to attribute preprocessing means. The attribute preprocessing unit may be a process other than the image scaling process, and may be any process that performs the same process as the image preprocessing unit.
[0055]
With the above configuration, the pre-stage image processing unit 3 receives the RGB signal from the image input unit 1, and * a * b * A signal and a Tag signal (Seg-Tag signal, Area-Tag signal) are output.
[0056]
The document detection unit 16 in FIG. 2 extracts information necessary for the copying operation from the document image, such as detecting the size and position of the document and determining whether the document is a monochrome document or a color document. For example, such information can be extracted during preliminary scanning performed prior to document reading scanning, and necessary information can be sent to the control unit 6.
[0057]
The control unit 6 performs automatic functions such as magnification setting, monochrome / color discrimination, paper selection, and tray selection based on copy conditions input from an operation unit (not shown) by the operator and information extracted from the original image by the original detection unit 16. Is realized.
[0058]
FIG. 7 is a block configuration diagram illustrating an example of the post-stage image processing unit 4. In the figure, 31 is a color space conversion unit, 32 is a space correction unit, 33 is a gradation correction unit, 34 is a halftone generation unit, and 35 is a Tag signal generation unit. Among these, the color space conversion unit 31, the space correction unit 32, the gradation correction unit 33, and the halftone generation unit 34 correspond to an image post-processing unit, and the Tag signal generation unit 35 corresponds to a control signal generation unit. The image post-processing means may have other various processing means in addition to these processing units.
[0059]
The color space conversion unit 31 receives L input to the subsequent image processing unit 4. * a * b * From the signal, Y / M / C / K signals used for printing in the image output unit 2 are sequentially generated according to the printing color cycle. FIG. 8 is a schematic configuration diagram illustrating an example of the color space conversion unit 31. In the figure, reference numerals 41 to 43 denote color correction units, and 44 and 45 denote selectors. In this example, the color space conversion unit 31 includes a color correction unit 41, a color correction unit 42, a color correction unit 43, and selectors 44 and 45. Here, the color correction unit 41, the color correction unit 42, and the color correction unit 43 are set with different color correction coefficients, and the input L * a * b * Color correction processing is performed according to the color correction coefficient set for each signal to generate a Y / M / C / K signal.
[0060]
Here, each color correction | amendment part 41-43 can be comprised as follows, for example. First, the Y / M / C / K signal output from the color correction unit 41 is a Y / M / C / K signal that has been subjected to color correction for four-color reproduction, and the document type is a photo and text / photo. Sometimes used. Similarly, the Y / M / C / K signal output from the color correction unit 42 is a Y / M / C / K signal that has been subjected to color correction for four-color reproduction, but is used when the document type is text or map. Is done. Here, the color correction for photographs and characters / photographs is a standard color correction that gives faithful reproduction to the original, and the YMC signal is changed to the K signal so that the graininess is not deteriorated in the reproduction of the photograph. The ratio to be replaced with (hereinafter referred to as UCR rate) is set to about 50%. On the other hand, the color correction for characters and maps is a color correction that assumes a graphics manuscript or a business document. A UCR rate is set. The signal output from the color correction unit 43 is a Y / M / C signal for three-color reproduction of Y, M, and C.
[0061]
L of input signal * Is used as a signal for reproducing black and white characters in a black and white mode and a document. The selector 45 receives a signal indicating a print color cycle (Cycle signal) input from the control unit 6 and outputs L when printing K color. * When a signal is output and other Y, M, and C colors are printed, the pixel value is reset by outputting “0”.
[0062]
The selector 44 is a Y / M / C / K signal output from the color correction unit 41, the color correction unit 42, and the color correction unit 43 according to a color space conversion switching signal (CC-Tag signal) described later, and a selector. L input from 45 * One of the four signals “0” is selected and output for each pixel. FIG. 9 is an explanatory diagram of an example of the CC-Tag signal. The CC-Tag signal is, for example, a signal of 2 bits / pixel. Depending on the combination of the respective bit values, the output of the color correction units 41 to 43 or L * It indicates whether a signal or “0” is selected.
[0063]
FIG. 10 is a schematic configuration diagram illustrating an example of the color correction units 41 to 43, and FIG. 11 is an explanatory diagram illustrating an example of a color space dividing method in the color correction units 41 to 43. In the figure, 51 is a reference data color correction memory, 52 is an interpolation area selection signal memory, 53 to 55 are interpolation signal output memories, 56 to 58 are interpolation multipliers, and 59 is an adder. Here, the color correction unit 41 is shown as an example, but the color correction unit 42 and the color correction unit 43 have the same configuration.
[0064]
As described above, the color correction units 41 to 43 perform L * a * b * A Y / M / C / K signal is generated from the signal, and can be realized using, for example, the method described in Japanese Patent Laid-Open No. 5-110840. The color correction units 41 to 43 in this example use the table memory set in advance to perform L * a * b * Y / M / C / (K) is generated from the above. L entered * a * b * The signal is divided into upper 4 bits and lower 4 bits, color correction is calculated using the color correction memory using the upper bits as an address, and color correction is performed by interpolating between them using an interpolation circuit using the lower 4 bits. can do.
[0065]
As shown in FIG. 11, the color correction units 41 to 43 have a three-dimensional L * a * b * L color space * , A * , B * Divide into cubes determined by the upper 4 bits of each. Then, the Y / M / C (/ K) output value corresponding to the vertex coordinates is stored as reference data.
[0066]
The divided cube is further divided into six tetrahedrons for interpolation calculation as shown in FIG. Input L * , A * , B * Is determined from the coordinate values defined by the upper 4 bits and the lower 4 bits. Then, an interpolation operation using Y / M / C (/ K) values corresponding to the four vertices of the tetrahedron to which it belongs is performed.
[0067]
In FIG. 10, the color correction memory 51 for reference data is L * a * b * This is a color correction memory that outputs reference data using a set of upper 4 bits of a signal as an address signal. The interpolation area selection signal memory 52 uses the set of lower 4 bits as an address signal, and the input L * , A * , B * It is determined which of the six tetrahedrons shown in FIG. Interpolation signal output memories 53, 54 and 55 receive the output of the upper 4 bits and the interpolation area selection signal memory 52, and output signals for interpolation calculation. The interpolation multipliers 56, 57, and 58 multiply the lower 4 bits of the input signal by the interpolation calculation signals (interpolation coefficients) output from the interpolation signal output memories 53, 54, and 55. The adder 59 adds the output signals of the reference data correction memory 51 and the interpolation multipliers 56, 57, and 58.
[0068]
In addition, a cycle signal indicating a change in print color in the image output 2 is input to the reference data color correction memory 51 and the interpolation signal output memories 53, 54, and 55. According to this Cycle signal, correction data for Y signal generation is output during Y color printing, and similarly, correction data for M signal / C signal / K signal generation is output during M color / C color / K color printing. In the color correction unit 41, the color correction unit 42, and the color correction unit 43, the operation described above causes L * a * b * A Y / M / C (/ K) signal is generated from the signal.
[0069]
FIG. 12 is a schematic configuration diagram illustrating an example of the space correction unit 32, and FIG. 13 is an explanatory diagram of an example of a convolution calculation process performed by the space correction unit 32. In the figure, 61 is a line buffer, 62 to 67 are correction arithmetic units, and 68 is a selector. The line buffer 61 performs a data delay of 6 lines in order to secure image data for 7 lines required for a spatial correction calculation described later. The correction calculation units 62 to 67 perform space correction calculation by, for example, convolution calculation. For example, as shown in FIG. 13, if the pixel of interest is (i, j), 7 × 9 (sub-scanning direction × main scanning direction) = (i−4, j−3) to (i + 4, j + 3) around it = Spatial correction processing can be realized for 63 pixels by convolution calculation using predetermined calculation coefficients φ11 to φ79. Here, the calculation coefficients φ11 to φ79 are spatial correction coefficients with a total sum of 1.0. Correction coefficients for the Y / M / C / K colors are set in advance in the correction calculation units 62 to 67, and a convolution calculation using the correction coefficient for the print color is performed in accordance with the cycle signal from the control unit 6. The
[0070]
As shown in FIG. 12, the spatial correction unit 32 includes six correction calculation units 62 to 67, and a 3-bit / pixel space generated from the Area-Tag signal and the Seg-Tag signal in the Tag signal generation unit 35. Based on the correction switching signal (Filter-Tag signal), the selector 68 selects and outputs the output values of the six correction calculation units 62 to 67 for each pixel.
[0071]
FIG. 14 is an explanatory diagram of an example of selection logic of the correction calculation unit 62 to the correction calculation unit 67 with respect to the value of the Filter-Tag signal and the processing content thereof. As illustrated in FIG. 14, one of the correction calculation results output from the correction calculation units 62 to 67 is selected according to the value of the Filter-Tag signal. In the correction calculation unit 62, spatial correction for the pattern image is performed. When the photo type is designated as the document type, and the value of the Seg-Tag signal that is the identification result in the picture / character separation unit 13 when the character / photo type is designated as the document type and “00 ( In the case of “other than characters” ”(see FIG. 5), the calculation result of the correction calculation unit 62 is selected.
[0072]
The correction calculation unit 63 performs space correction for characters. “01 (black character), 11 (color character)” in which the character / photo type is designated as the document type and the value of the Seg-Tag signal as the identification result in the picture / character separation unit 13 represents the character (see FIG. 5). ), The calculation result of the correction calculation unit 63 is selected.
[0073]
The correction calculation unit 64 performs spatial correction on graphics and solid (uniform color) elements frequently used in business documents and the like. When the character type is designated as the document type and the value of the Seg-Tag signal, which is the identification result in the picture / character separation unit 13, is “00 (other than characters)” (see FIG. 5), the correction calculation unit 64 Is selected.
[0074]
In the correction calculation unit 65, space correction for characters that has a higher degree of emphasis than the correction calculation unit 63 performs. “O1 (black character), 11 (color character)” (see FIG. 5) in which the character type is designated as the document type and the value of the Seg-Tag signal as the identification result in the picture / character separation unit 13 represents the character. In this case, the calculation result of the correction calculation unit 65 is selected.
[0075]
In the correction calculation unit 66, spatial correction for the map is performed. When a map type is designated as the document type, the calculation result of the correction calculation unit 66 is selected.
[0076]
The correction calculation unit 67 performs space correction for a black and white original mainly composed of characters, line drawings, and the like. When the color mode is black and white and the character type is designated as the document type, the calculation result of the correction calculation unit 67 is selected. Spatial correction is performed by the above-described configuration and operation.
[0077]
FIG. 15 is a schematic configuration diagram illustrating an example of a gradation correction unit. In the figure, reference numerals 71 to 80 denote correction LUTs, and 81 denotes a selector. The correction LUTs 71 to 80 each perform gradation correction processing. For example, it can be realized by a known LUT (lookup table) referring to a one-dimensional table. Output values for the respective colors Y / M / C / K are set in advance in the correction LUTs 71 to 80, and an output value is obtained by referring to a predetermined address of the LUT based on the cycle signal and the input pixel value from the control unit 6.
[0078]
As shown in FIG. 15, the gradation correction unit 33 includes a correction LUT 71 to a correction LUT 80 and a selector 81. Based on the 4-bit / pixel gradation correction switching signal (TRC-Tag signal) generated from the Area-Tag signal and the Seg-Tag signal in the Tag signal generation unit 35, the selector 81 generates ten correction calculation units 71-71. The output value of 80 is selected for each pixel and output.
[0079]
FIG. 16 is an explanatory diagram of an example of selection logic of the correction LUTs 71 to 80 with respect to the value of the TRC-Tag signal and processing contents thereof. As shown in FIG. 16, according to the value of the TRC-Tag signal, one of the output signals of the correction LUTs 71 to 80 is selected by the selector 81 and output. Here, the correction LUT 71 to the correction LUT 75 are color original gradation correction LUTs, and are used when the color mode is “four colors (00), three colors (01)” (see FIG. 6). The correction LUT 76 to the correction LUT 80 are correction LUTs for reproducing black and white originals or color originals, and are used when the color mode is “black and white (10)” (see FIG. 6).
[0080]
In the correction LUT 71, gradation correction for the pattern image is performed. When the photo type is designated as the document type, and the value of the Seg-Tag signal that is the identification result in the picture / character separation unit 13 when the character / photo type is designated as the document type and “00 ( In the case of “other than characters)” (see FIG. 5), the output value of the correction LUT 71 is selected.
[0081]
In the correction LUT 72, gradation correction for characters is performed. “01 (black character), 11 (color character)” in which the character / photo type is designated as the document type and the value of the Seg-Tag signal as the identification result in the picture / character separation unit 13 represents the character (see FIG. 5). ), The output value of the correction LUT 72 is selected.
[0082]
In the correction LUT 73 and the correction LUT 74, gradation correction is performed on an original such as a business document having many characters and line drawings, and gradation correction with higher contrast than the correction LUT 71 and the correction LUT 72 is set. The correction LUT 73 performs gradation correction on graphics and solid (uniform color) elements that are frequently used in business documents and the like. When the character type is specified as the document type and the value of the Seg-Tag signal, which is the identification result in the picture / character separation unit 13, is “00 (other than characters)” (see FIG. 5), the output of the correction LUT 73 A value is selected. The correction LUT 74 is a character gradation correction LUT. “01 (black character), 11 (color character)” (see FIG. 5) in which the character type is designated as the document type and the value of the Seg-Tag signal as the identification result in the picture / character separation unit 13 represents the character. In this case, the calculation result of the correction LUT 74 is selected.
[0083]
The correction LUT 75 is an LUT for gradation correction of a high-definition document as represented by a map. When the map type is designated as the document type, the output value of the correction LUT 75 is selected.
[0084]
Even when the monochrome mode is selected, tone correction is set with the same logic as in the case of color reproduction described above. In the correction LUT 76, gradation correction for the pattern image is performed. When the photograph type is designated as the document type, and when the character / photo type is designated as the document type and the value of the Seg-Tag signal that is the identification result in the picture / character separation unit 13 is “01 ( In the case of “other than characters” ”(see FIG. 5), the output value of the correction LUT 76 is selected.
[0085]
In the correction LUT 77, gradation correction for characters is performed. “01 (black character), 11 (color character)” in which the character / photo type is designated as the document type and the value of the Seg-Tag signal, which is the identification result in the picture / character separating unit 13, represents the picture (see FIG. 5). ), The output value of the correction LUT 77 is selected.
[0086]
In the correction LUT 78 and the correction LUT 79, gradation correction is performed on a document such as a business document with many characters and line drawings. Gradation correction with higher contrast than that of the correction LUT 76 and the correction LUT 77 is set. The correction LUT 78 performs gradation correction for graphics and solid (uniform color) elements that are frequently used in business documents and the like. When the character type is specified as the document type and the value of the Seg-Tag signal, which is the identification result in the picture / character separation unit 13, is “00 (other than characters)” (see FIG. 5), the output of the correction LUT 78 A value is selected.
[0087]
The correction LUT 79 is a character gradation correction LUT. “01 (black character), 11 (color character)” (see FIG. 5) in which the character type is designated as the document type and the value of the Seg-Tag signal as the identification result in the picture / character separation unit 13 represents the character. In this case, the calculation result of the correction LUT 79 is selected.
[0088]
The correction LUT 80 is an LUT intended for gradation correction of a high-definition document as represented by a map. When the map type is designated as the document type, the output value of the correction LUT 80 is selected. The gradation correction is performed by the configuration and operation as described above.
[0089]
FIG. 17 is a schematic configuration diagram illustrating an example of the halftone generation unit 34. In the figure, 91 is a pixel value calculation unit, 92 is a calculation coefficient & pattern storage unit, 93 is a waveform pattern storage unit, 94 is a comparison unit, and 95 is a reference wave generation unit. The halftone generation unit 34 shown in FIG. 17 is an LD (laser diode) of the image output unit 2 from an 8-bit Y / M / C / K signal per pixel as proposed in, for example, Japanese Patent Laid-Open No. 9-121283. ) To generate a binary signal for ON / OFF control.
[0090]
The pixel value calculation unit 91 calculates a pixel value for generating a desired screen from the Y / M / C / K signal by calculation described later. The calculation coefficient & pattern unit 92 stores a pattern matrix and calculation coefficients required by the pixel value calculation unit 91, and an input halftone generation switching signal (Screen-Tag signal) and a cycle from the control unit 6. In accordance with the signal, a predetermined coefficient and pattern are sent to the pixel value calculation unit 91. FIG. 18 is an explanatory diagram of an example of a calculation pattern matrix. As shown in FIG. 18, the calculation pattern matrix can be data similar to a threshold matrix used in known dither processing, and the calculation coefficient is a numerical value indicating the number of threshold steps in the pattern matrix. FIG. 18 shows a case where there are 16 computation coefficients and a case where there are 17 computation coefficients.
[0091]
The waveform pattern storage unit 93 stores a calculation pattern stored in the calculation coefficient & pattern storage unit 92 and a waveform pattern corresponding to the calculation coefficient. FIG. 19 is an explanatory diagram of an example of a waveform pattern. FIGS. 19A and 19B are waveform patterns corresponding to FIGS. 18A and 18B, respectively. The waveform patterns A, B, and C will be described later. Similarly to the calculation coefficient & pattern storage unit 92, the waveform pattern storage unit 93 generates a reference signal for selecting a 2-bit waveform pattern per pixel in accordance with the input screen-tag signal and the cycle signal from the control unit 6. The data is sent to the unit 95.
[0092]
The reference wave generation unit 95 generates a triangular wave of any of the reference wave A, the reference wave B, and the reference wave C according to a signal indicating the waveform pattern stored in the waveform pattern storage unit 93 and sends it to the comparison unit 94 To do. FIG. 20 is an explanatory diagram of the generation process of the reference wave and the output signal. The reference wave generation unit 95 generates one of the three types of reference waves shown in FIG. 20A, that is, a reference wave A that gradually increases, a reference wave B that gradually decreases, and a reference wave C that has a triangular waveform. And output to the comparator 94.
[0093]
The comparison unit 94 converts the 8-bit / pixel digital image signal output from the pixel value calculation unit 91 into an analog signal, compares the analog signal with the reference wave input from the reference wave generation unit 95, and outputs the LD. A binary signal for controlling is output. In FIG. 20B, the comparison unit 94 shows a stepped signal as a signal after D / A conversion of the signal output from the pixel value calculation unit 91. This signal is compared with the reference wave A, reference wave B, and reference wave C generated by the reference wave generation unit 95, and a signal that is ON when the reference wave is smaller and OFF when it is larger is a binary signal. Output. As a result, the binary signal shown as the LD lighting waveform in FIG. 20B is output. By controlling the lighting of the LD in accordance with this binary signal, an output image whose width changes according to the image signal output from the pixel value calculation unit 91 is formed as shown in FIG. 20B as an output image. . When the reference wave A is used, the recorded portion is shifted to the left, when the reference wave B is used, it is shifted to the right, and when the reference wave C is used, the recorded portion is shifted to the center. In this way, the halftone generation unit 34 realizes highly accurate printing position control by controlling the waveform pattern.
[0094]
FIG. 21 is a block diagram illustrating an example of the pixel value calculation unit 91. In the figure, 101 is a subtracter, 102 is a multiplier, 103 and 104 are comparators, and 105 is a selector. The Y / M / C / K input signal is input to the subtractor 101. The other value of the subtracter 101 is input with a value indicated by a calculation pattern sent at a predetermined interval based on the matrix size in synchronization with the input signal from the calculation coefficient & pattern storage unit 92. Reduced from. Next, the multiplier 102 multiplies the difference value between the input signal and the calculation pattern by the calculation coefficient sent from the calculation coefficient & pattern storage unit 92. Then, the comparator 103 and 104 and the selector 105 are controlled so that the selector 103 selects “255” for a pixel having a value higher than 255, and the comparator 104 has a value lower than 0. The pixel 105 having the control is controlled so that “0” is selected by the selector 105.
[0095]
With the configuration described above, the halftone generation unit 34 can form a halftone image having a plurality of types of lines and angles by switching calculation coefficients and reference waves for each pixel.
[0096]
FIG. 22 is an explanatory diagram of an example of the number of lines corresponding to the Screen-Tag signal and the processing content thereof. In the following description, refer to FIG. 6 for the values of the color mode and the document type, and to FIG. 5 for the Seg-Tag signal. As shown in FIG. 22, when the Screen-Tag signal is “00”, a 150-line dot screen with excellent gradation is formed, which is selected when the document type is “10 (photo)”. .
[0097]
When the Screen-Tag signal is “01”, a 200-line line screen having excellent gradation and less moire is formed, the document type is “00 (character / photo)”, and the picture / character When the identification result (Seg-Tag signal) in the separation unit 13 is “00 (other than characters)”, the color mode is “00 (4 colors) and 01 (3 colors)”, and the document type is “01 (characters)”. ”And the identification result (Seg-Tag signal) in the picture / character separation unit 13 is“ 00 (other than characters) ”.
[0098]
Subsequently, when the screen-Tag signal is “10”, a 300-line line screen is formed in which fine character and line drawing element information is not lost. This is selected when the document type is “11 (map)”. Is done.
[0099]
Finally, when the Screen-Tag is “11”, a 600-line line screen is formed. This is because the document type is “00 (character / photo)” and the identification result in the picture / character separation unit 13 (Seg -Tag signal) is generated for pixels when “01 or 11 (character)” and when the color mode is “10 (monochrome)” and the document type is “01 (character)”.
[0100]
23 and 24 are explanatory diagrams of examples of Tag signals generated by the Tag signal generation unit 35. FIG. The Tag signal generation unit 35 temporarily stores the color space conversion unit 31 and the space correction from the two Tag signals that are once stored in the storage unit 5 and input to the subsequent image processing unit 4, that is, the Area-Tag signal and the Seg-Tag signal. The unit 32, the gradation correction unit 33, and the halftone generation unit 34 generate a pixel unit processing switching signal and various Tag signals. Here, the Tag signal generation unit 35 is a 2-bit CC− used by the color space conversion unit 31 in accordance with 64 combinations indicated by a total of 6 bits of 4 bits for the Area-Tag signal and 2 bits for the Seg-Tag signal. Tag signal, 3-bit Filter-Tag signal used in the spatial correction unit 32, 4-bit TRC-Tag signal used in the gradation correction unit 33, and 2-bit Screen-Tag signal used in the halftone generation unit 34 Are output respectively. The Tag signal generation unit 35 is realized, for example, by referring to a table of predetermined Tag signal generation logic. 23 and 24 are tables showing the Tag signal generation logic. According to the Tag signal generation logic, a CC-Tag signal, a Filter-Tag signal, a TRC-Tag signal, and a Screen-Tag signal are generated and output from the input Area-Tag signal and Seg-Tag signal, respectively.
[0101]
FIG. 25 is a schematic configuration diagram illustrating an example of the storage unit 5. In the figure, reference numerals 111 to 113 denote an encoding unit, 114 to 116 denote a decoding unit, 117 denotes a data storage unit, 118 denotes a memory controller, 119 denotes a buffer memory, and 120 denotes a bus. The storage unit 5 is input in synchronization with the document scanning operation of the image input unit 1. * , A * , B * L is stored and held in synchronization with the printing operation of the number of print colors of the image output unit 2. * , A * , B * The signal is output. In addition, the storage unit 5 also realizes a sorting function such as stack and collation, for example, and a page editing function such as rotation, Nup, signature, and double-sided printing, which are designated by an operation unit (not shown). Further, the Area-Tag signal and Seg-Tag signal output from the pre-stage image processing unit 3 are also stored in association with the input image data, and these signals are output when the corresponding image data is read out. .
[0102]
8 bits / pixel L input to the storage unit 5 * a * b * The signal is input to the encoding unit 113. In the encoding unit 113, for example, a predetermined image compression method represented by JPEG or the like is used for each page, and in each page * , A * , B * The image signal is encoded for each plane, and the image data is output to the data storage unit 117 via the bus 120. The encoding unit 113 corresponds to the first encoding unit.
[0103]
L * a * b * The 4-bit / pixel Area-Tag signal input in synchronization with the signal is input to the encoding unit 111, encoded by a known lossless compression method such as run-length encoding, and the like via the bus 120. It is stored in the data storage unit 117. Similarly L * a * b * A 2-bit / pixel Seg-Tag signal input in synchronization with the signal is input to the encoding unit 112, encoded by a known lossless compression method such as run-length encoding, and the like via the bus 120. It is stored in the data storage unit 117. The encoding unit 111 and the encoding unit 112 correspond to a second encoding unit.
[0104]
The data accumulating unit 117 includes L encoded by the encoding unit 111, the encoding unit 112, and the encoding unit 113. * a * b * Input image data, Area-Tag signal, and Seg-Tag signal are stored in units of pages. The data storage unit 117 can be realized by a large-capacity storage device capable of storing encoded image data and Tag signal data over a plurality of pages, such as a hard disk device. The data storage unit 117 corresponds to both the image data storage unit and the attribute data storage unit.
[0105]
The decryption unit 116 reads the image data stored in the data storage unit 117 in units of pages, and synchronizes with the printing operation of the image output unit 2 by a predetermined decompression method. * a * b * The signal is decoded and output to the subsequent image processing unit 4. The decoding unit 116 corresponds to the first decoding unit.
[0106]
Similarly, the decoding unit 114 reads the Area-Tag data stored in units of pages in the data storage unit 117, and decodes the Area-Tag signal by a predetermined expansion method in synchronization with the printing operation of the image output unit 2. And output to the subsequent image processing unit 4. The decoding unit 115 reads the Seg-Tag data stored in units of pages in the data storage unit 117, decodes the Seg-Tag signal by a predetermined decompression method in synchronization with the printing operation of the image output unit 2, and Output to the image processing unit 4. The decoding unit 114 and the decoding unit 115 correspond to the second decoding unit.
[0107]
The buffer memory 119 and the memory controller 118 are editing means used when performing page editing such as rotation processing, Nup composition, and signature.
[0108]
In FIG. 25, an encoding unit 111, an encoding unit 112, an encoding unit 113, a decoding unit 114, a decoding unit 115, a decoding unit 116, a data storage unit 117, and a memory controller 118 are connected by a bus 120. It is.
[0109]
Hereinafter, the sorting function and the page editing function performed in the storage unit 5 will be described. FIG. 26 is an explanatory diagram illustrating an example of a sort function realized by the storage unit 5. Here, a case where four copies of four originals as shown in FIG. FIG. 26B shows a copy result in the collation mode, and FIG. 26C shows a copy result in the stack mode.
[0110]
In this embodiment, the document image read in the image input unit 1 is subjected to various processes in the preceding image processing unit 3, * a * b * Converted to a signal. And L * a * b * The signal is input to the storage unit 5 together with the Seg-Tag signal generated by the picture / character separation unit 13 and the Area-Tag signal transmitted from the control unit. After being compressed by the corresponding encoding unit in the storage unit 5, it is stored in the data storage unit 117 in units of pages.
[0111]
In the case of collation mode copying as shown in FIG. 26B, all original reading operations are performed first. That is, image signal data and Tag signal data of a four-page document (“A”, “B”, “C”, “D”) are stored in the data storage unit 117. Thereafter, the image signal data and the Tag signal data are decoded by a predetermined method in accordance with the printing operation in the image output unit 2, and output to the subsequent image processing unit 4. Here, the image signal data, the Area-Tag signal data, and the Seg− in the order of the first page (A) → second page (B) → third page (C) → fourth page (D) from the data storage unit 117. The Tag signal data is read out, and the decoding unit 116, the decoding unit 114, and the decoding unit 115 perform decoding processing. Thereafter, in synchronization with the printing operation of the image output unit 2, L * a * b * The image signal, Area-Tag signal, and Seg-Tag signal are output to the subsequent image processing unit 4.
[0112]
In the case of stack mode copy as shown in FIG. 26C, the first original (“A”) is read by the input unit 101, and image signal data and Tag signal data are completely accumulated in the data accumulation unit 117. Similarly, the second and subsequent originals (“B”, “C”, “D”) are read and stored in the same manner, and in accordance with the printing operation in the image output unit 2, the first original (“ A ”) image signal data and Tag signal data are decoded by a predetermined method and output to the subsequent image processing unit 4. The decoding and output of the image signal data and Tag signal data of the first original (“A”) are repeated a predetermined number of copies (here, 4 copies). If printing of the predetermined number of copies of the first document is completed and image signal data and tag signal data have been stored in the data storage unit 117 of the second document (“B”), then 1 is continued. Similar to the case of the second sheet, the second sheet is printed by a predetermined number of copies. Stack mode copying can be performed by executing the above operation on the third document (C) and the fourth document (D).
[0113]
FIG. 27 is an explanatory diagram of an example of a rotation process that is one of the page editing functions. In the figure, the FS direction and the SS direction indicate a main scanning direction and a sub scanning direction, respectively. The same applies to the following description. FIG. 27A shows a case where an image is read by placing it on a document placing table (not shown) of the image input unit 1 in a state where the orientation of the document image is different. In such a case, as shown in FIG. 27B, an operation for aligning the direction of the output copy is performed by rotating the image. At this time, it is possible to improve the productivity of image printing by performing rotation processing so that the long side is the main scanning direction and the length in the sub-scanning direction is shortened. In the example shown in FIG. 27, the directions of the images “A” and “D” are different from those of the images “B” and “C”. In this case, by rotating the images “A” and “D” so as to coincide with the directions of the images “B” and “C” having long sides in the main scanning direction, the copy directions can be aligned. it can.
[0114]
FIG. 28 is an explanatory diagram of an example of a rotation process involving an enlargement / reduction process. In the example shown in FIG. 28, for example, reading and accumulation in the case of copying originals of different sizes such as A3 and A4 onto the same size paper are shown. In FIG. 28A, for example, the second and third sheets (“B” and “C”) are A4 size documents, and the first and fourth sheets (“A” and “D”) are A3 sizes. Indicates the manuscript. Here, the first and fourth sheets (“A” and “D”) cannot be read with the long side in the main scanning direction due to the restrictions of the image input unit 1, so that the image scaling unit of the preceding image processing unit 3 14, the reduction process is performed, and the storage unit 5 stores image signal data having different lengths in the main scanning direction and the sub-scanning direction as shown in FIG.
[0115]
Even in such a case, as shown in FIG. 28C, an operation for aligning the direction of the output copy is performed by rotating the image whose size has been aligned by the reduction process. At this time, it is possible to improve the productivity of image printing by performing the rotation process so that the long side is the main scanning direction and the length in the sub-scanning direction is shortened.
[0116]
Whether or not to perform rotation processing on the image depends on copy conditions input by an operator from an operation unit (not shown) and document information obtained by preliminary scanning using the document detection unit 16 in the preceding image processing unit 3. Based on this, the control unit 6 determines and the operation of the storage unit 5 is controlled.
[0117]
The image rotation processing in the storage unit 5 is realized using the buffer memory 119 and the memory controller 118. When printing a document to be rotated, the image signal data and the corresponding Area-Tag signal data and Seg-Tag signal data are read from the data storage unit 117 prior to the printing operation in the image output unit 2. Decoded by the decoding unit 116, the decoding unit 114, and the decoding unit 115, respectively. Thereafter, a predetermined rotation process is performed by the memory controller 118 and stored in the buffer memory 119. The rotation process can be performed, for example, by address control at the time of storing in or reading from the buffer memory 119.
[0118]
The buffer memory 119 is L * a * b * It is composed of a total of four page memories comprising three 8-bit / pixel page memories for image signals and one 6-bit / pixel page memory for Area-Tag signal data and Seg-Tag signal data. Can do. After a predetermined rotation process is performed, L stored and held in the buffer memory 119 * a * b * The image signal data, the Area-Tag signal data, and the Seg-Tag Tag signal data are read in synchronization with the printing operation in the image output unit 2, and are decoded by the decoding unit 116, the decoding unit 114, and the decoding unit 115. Are decoded and sent to the subsequent image processing unit 4.
[0119]
Further, when the rotation process occurs in the collation mode, the copy productivity is lost if the rotation process is repeated. Therefore, after a predetermined rotation process is performed, L stored and held in the buffer memory 119 is stored. * a * b * Image signal data, Area-Tag signal data, and Seg-Tag tag signal data may be encoded again by the encoding unit 113, the encoding unit 111, and the encoding unit 112, respectively, and stored in the data storage unit 117. . After processing for all document images and Tag signal data that require rotation processing is completed and storage in the data storage unit 117 is completed, the L of the corresponding page is synchronized with the printing operation in the image output unit 2. * a * b * Image signal data, Area-Tag signal data, and Seg-Tag signal data are read out, decoded by the decoding unit 116, the decoding unit 114, and the decoding unit 115, and then sent to the subsequent image processing unit 4. Is done.
[0120]
FIG. 29 is an explanatory diagram of an example of a “Nup function” for placing and printing a plurality of pages of a document on one sheet. FIG. 29A shows a document, and here, four documents “A”, “B”, “C”, and “D” are illustrated. FIG. 29B shows 2up editing, and FIG. 29C shows 4up editing. The Nup process in this embodiment can be realized by using the buffer memory 119 and the memory controller 118 in the same manner as the rotation process described above.
[0121]
In the case of 2up editing as shown in FIG. 29 (B), first and second (“A” and “B”) originals are first read, and the respective encoded image signal data and Tag are read. The signal data is stored in the data storage unit 117. Next, the image signal data, the Area-Tag signal data, and the Seg-Tag signal data of the first document (“A”) are read out and decoded by the decoding unit 116, the decoding unit 114, and the decoding unit 115. After that, the memory controller 118 controls the data so as to have the arrangement as shown in FIG. Subsequently, the second document (“B”) is stored in a predetermined address in the buffer memory 119 so as to be arranged alongside the first document (“A”) through the same processing. L of the first and second originals (“A” and “B”) held in the buffer memory 119 as described above. * a * b * The image data, Area-Tag signal data, and Seg-Tag signal data are read out as a set of one image and Tag signal in synchronization with the printing operation in the image output unit 2, and the decoding unit 116, the decoding unit 114, bypass the decoding process in the decoding unit 115, and send to the subsequent image processing unit 4. The same processing is performed on the third and fourth originals (“C” and “D”) to realize two 2-up copies.
[0122]
In the case of collation copying or the like as in the rotation processing described above, after performing 2up processing for all pages, encoding is performed and the data is stored in the data storage unit 117, thereby increasing copy productivity. It is possible.
[0123]
As shown in FIG. 29C, the 4up editing can be realized in the same manner as the 2up editing described above. First, all the first to fourth originals (“A”, “B”, “C”, “D”) are read and each encoded L * a * b * Image signal data and Tag signal data are stored in the data storage unit 117. Next, L of the first document ("A") * a * b * The image data, the Area-Tag signal data, and the Seg-Tag signal data are read out and decoded by the decoding unit 116, the decoding unit 114, and the decoding unit 115, and then the direction as shown in FIG. The memory controller 118 performs rotation processing and write control so as to be arranged, and the data is stored at a predetermined address in the buffer memory 119. Subsequently, the second, third, and fourth originals (“B”, “C”, and “D”) are also processed in the same manner, and the same as the first original (“A”). It is stored in the buffer memory 119 so as to be arranged at a predetermined orientation. L of the four originals (“A”, “B”, “C”, “D”) held in the buffer memory 119 as described above. * a * b * The image data, Area-Tag signal data, and Seg-Tag signal data are read out as a set of one image and Tag signal in synchronization with the printing operation in the image output unit 2, and the decoding unit 116, the decoding unit 114, bypass the decoding process in the decoding unit 115, and send to the subsequent image processing unit 4.
[0124]
FIG. 30 is an explanatory diagram of an example of an editing function effective when creating a booklet or the like. It is possible to perform more advanced page editing by combining the rotation processing and arrangement control as described above. For example, as shown in FIG. 30, an editing function for creating a plurality of booklets and the like can be realized. FIG. 30A shows eight originals {reading of originals is performed in the order of “A”, “B”, “C”, “D”, “E”, “F”, “G”, “J”. ). FIGS. 30B, 30 </ b> C, and 30 </ b> D illustrate output results of page editing performed according to each binding direction. In addition, the hatched pages in FIGS. (B), (C), and (D) indicate that they are back pages, and the dot sequence of black circles ('●') is bound by, for example, a stapler or glue at the time of binding. Represents the binding allowance portion. In double-sided printing, the image output unit 2 temporarily accumulates paper on a predetermined tray after front side printing, and then reverses the paper to perform back side printing. In the case of paper reversal, it is assumed that the reversal is performed such that the upper right corner of each front surface and the lower right corner of the back surface of FIG.
[0125]
FIG. 30B shows the arrangement of the originals in the 2up copy mode in which two pages of originals are arranged in order and when duplex printing is designated. The first and second originals (“A” and The upper end of the first page composed of “B”) is set as the binding margin. In this case, the storage unit 5 can obtain a desired output by performing the same processing as the above-described 2up.
[0126]
First, input all first to eighth originals (“A”, “B”, “C”, “D”, “E”, “F”, “G”, “J”) Read in part 1, L * a * b * Image data, Area-Tag signal data, and Seg-Tag signal data are output to the storage unit 5. In the storage unit 5, the input image signal and Tag signal are encoded by the encoding unit 113, the encoding unit 111, and the encoding unit 112 using a predetermined compression method, respectively, and then stored in the data storage unit 117 in units of pages. Hold. Next, L of the first document (“A”) * a * b * Image signal data, Area-Tag signal data, and Seg-Tag signal data are read out and decoded by the decoding unit 116, the decoding unit 114, and the decoding unit 115, and then arranged as shown in FIG. Is controlled by the memory controller 118 and stored in a predetermined address in the buffer memory 119. Subsequently, the second document (“B”) is subjected to the same processing, and stored at a predetermined address in the buffer memory 119 so as to be arranged side by side with the first document (“A”). L of the first and second originals (“A” and “B”) held in the buffer memory 119 as described above. * a * b * The image data, the Area-Tag signal data, and the Seg-Tag signal data are encoded again by the encoding unit 113, the encoding unit 111, and the encoding unit 112 as one page image signal and Tag signal, respectively, and the data storage unit 117 Stored in
[0127]
Thereafter, the same processing is performed for the third and fourth originals (“C” and “D”), the fifth and sixth originals (“E” and “F”), the seventh and eighth sheets. 4 pages L for printing in the data storage unit 117. * a * b * Image data, Area-Tag signal data, and Seg-Tag signal data are held. After all the page layout processing, encoding processing, and storage processing in the data storage unit 117 are completed, the image is composed of images of the document “A” and the document “B” in synchronization with the printing operation in the image output unit 2. L of the first page * a * b * Image signal data, Area-Tag signal data, and Seg-Tag signal data are read out, decoded by the decoding unit 116, the decoding unit 114, and the decoding unit 115, and then sent to the subsequent image processing unit 4. Is done. Hereinafter, the second page composed of images of the document “C” and the document “D”, the third page composed of images of the document “E” and the document “F”, the documents “G” and the document “J”. By outputting the fourth page composed of images and repeating the operation for the set number of copies, page editing as shown in FIG. 30B becomes possible.
[0128]
FIG. 30C shows duplex printing in the 2up copy mode as in FIG. 30B, but the binding margin is composed of the first and second sheets (“A” and “B”) of the document. It is set at the left edge of the first page. Therefore, as shown in FIG. 30 (C), two sheets are printed at the time of 2up editing for backside printing (compared to 2up editing for front side printing) so that the top / bottom / right / left sides of the booklet are normal. It is necessary to perform a 180 degree rotation process so that the left and right relations of the original are reversed and the top and bottom of both pages are reversed.
[0129]
First, input all first to eighth originals (“A”, “B”, “C”, “D”, “E”, “F”, “G”, “J”) Read in part 1, L * a * b * Image signal data, Area-Tag signal data, and Seg-Tag signal data are output to the storage unit 5. In the storage unit 5, the input image signal and Tag signal are encoded by the encoding unit 113, the encoding unit 111, and the encoding unit 112 using a predetermined compression method, respectively, and then stored in the data storage unit 117 in units of pages. Hold. Next, L of the first document (“A”) * a * b * Image signal data, Area-Tag signal data, and Seg-Tag signal data are read out and decoded by the decoding unit 116, the decoding unit 114, and the decoding unit 115, and then arranged as shown in FIG. Is controlled by the memory controller 118 and stored in a predetermined address in the buffer memory 119. Subsequently, the second document (“B”) is stored in a predetermined address in the buffer memory 119 so as to be arranged alongside the first document (“A”) through the same processing.
[0130]
L of the first and second originals (A and B) held in the buffer memory 119 as described above. * a * b * The image signal data, the Area-Tag signal data, and the Seg-Tag signal data are encoded again by the encoding unit 113, the encoding unit 111, and the encoding unit 112 as one page image signal and Tag signal, respectively, and the data storage unit 117 is stored.
[0131]
Next, L of the third original ("C") * a * b * Image signal data, Area-Tag signal data, and Seg-Tag signal data are read out and decoded by the decoding unit 116, the decoding unit 114, and the decoding unit 115, and then arranged as shown in FIG. The memory controller 118 performs rotation processing and arrangement control so that the data is stored in the buffer memory 119 at a predetermined address. Similarly, the fourth document (“D”) is subjected to rotation processing and placement control by the memory controller 118 and is arranged in a predetermined manner in the buffer memory 119 so as to be placed side by side with the third document (“C”). Stored at the address. In this way, the L of the third and fourth originals (“C” and “D”) held in the buffer memory 119. * a * b * Image signal data, Area-Tag signal data, and Seg-Tag signal data are encoded as one-page image signals and Tag signals, respectively, as with the first and second originals ("A" and "B"). The data is encoded again by the encoding unit 113, the encoding unit 111, and the encoding unit 112 and stored in the data storage unit 117.
[0132]
Hereinafter, for the fifth and sixth originals (“E” and “F”), the same processing as that for the first and second originals (“A” and “B”) is performed on seven sheets. The same processing as that of the third and fourth originals (“C” and “D”) is performed on the first and eighth originals (“G” and “J”), respectively, and the data storage unit 117 4 pages L for printing * a * b * Image signal data, Area-Tag signal data, and Seg-Tag signal data are held.
[0133]
After all the page layout processing, encoding processing, and storage processing in the data storage unit 117 are completed, the image is composed of images of the document “A” and the document “B” in synchronization with the printing operation in the image output unit 2. L of the first page * a * b * Image signal data, Area-Tag signal data, and Seg-Tag signal data are read out, decoded by the decoding unit 116, the decoding unit 114, and the decoding unit 115, and then sent to the subsequent image processing unit 4. Is done. Hereinafter, the second page composed of the images of the document “C” and the document “D”, the third page composed of the images of the document “E” and the document “F”, the document “G”, and the document “J”. By outputting the fourth page composed of images and repeating the operation for the set number of copies, page editing as shown in FIG. 30C becomes possible.
[0134]
FIG. 30D illustrates a case of bookbinding in which the center of the output image is bound. Such page editing is called “signature editing”, and is largely different from the page editing shown in FIGS. 30B and 30C described above in that the order of reading the original and the order of printing do not match at all. Different. In the signature editing, the image reading operation is the same as the page editing shown in FIGS. First, all the first to eighth originals “A”, “B”, “C”, “D”, “E”, “F”, “G”, “J”) are input to the image input unit. Read with 1, L * a * b * Image signal data, Area-Tag signal data, and Seg-Tag signal data are output to the storage unit 5. In the storage unit 5, the input image signal and Tag signal are encoded by the encoding unit 113, the encoding unit 111, and the encoding unit 112 using a predetermined compression method, respectively, and then stored in the data storage unit 117 in units of pages. Hold.
[0135]
Next, as shown in FIG. 30D, the L of the eighth original (“J”) constituting the output of the first page. * a * b * Image signal data, Area-Tag signal data, and Seg-Tag signal data are read and decoded by the decoding unit 116, the decoding unit 114, and the decoding unit 115, and then arranged as shown in FIG. Is controlled by the memory controller 118 and stored in a predetermined address in the buffer memory 119. Subsequently, the first document (“A”) is stored in a predetermined address in the buffer memory 119 so as to be arranged alongside the eighth document (J) through the same processing. As described above, L of the eighth and first originals ("J" and "A") held in the buffer memory 119 is stored. * a * b * The image signal data, the Area-Tag signal data, and the Seg-Tag signal data are encoded again by the encoding unit 113, the encoding unit 111, and the encoding unit 112 as one page image signal and Tag signal, respectively, and the data storage unit 117 is stored.
[0136]
Next, L of the seventh original (“G”) * a * b * Image signal data, Area-Tag signal data, and Seg-Tag signal data are read and decoded by the decoding unit 116, the decoding unit 114, and the decoding unit 115, and then arranged as shown in FIG. The memory controller 118 performs rotation processing and arrangement control so that the data is stored in the buffer memory 119 at a predetermined address. Similarly, the second manuscript (“B”) is subjected to rotation processing and placement control by the memory controller 118, and the predetermined number in the buffer memory 119 is arranged so as to be arranged side by side with the seventh manuscript (“G”). Stored at the address. The Lth of the seventh and second originals (“G” and “B”) held in the buffer memory 119 in this way. * a * b * Image signal data, Area-Tag signal data, and Seg-Tag signal data are respectively encoded as an image signal and Tag signal of one page, as in the case of the eighth and first originals ("J" and "A"). The data is encoded again by the encoding unit 113, the encoding unit 111, and the encoding unit 112 and stored in the data storage unit 117.
[0137]
Thereafter, the sixth and third originals (“F” and “C”) are processed in the same manner as the eighth and first originals (“J” and “A”). The fifth and fourth originals (“E” and “D”) are processed in the same manner as the seventh and second originals (“G” and “B”). Then, in the data storage unit 117, four pages for printing L * a * b * Image signal data, Area-Tag signal data, and Seg-Tag signal data are held.
[0138]
After all the page layout processing, encoding processing, and storage processing in the data storage unit 117 are completed, the document “J” and the document “A” are configured in synchronization with the printing operation in the image output unit 2. L of the first page * a * b * Image signal data, Area-Tag signal data, and Seg-Tag signal data are read out, decoded by the decoding unit 116, the decoding unit 114, and the decoding unit 115, and then sent to the subsequent image processing unit 4. Is done. Hereinafter, the second page composed of images of the document “G” and the document “B”, the third page composed of images of the document “F” and the document “C”, the documents “E” and the document “D”. By outputting the fourth page composed of images and repeating the operation for the set number of copies, page editing as shown in FIG. 30D becomes possible.
[0139]
As described above, in the storage unit 5, the Tag signal is held and stored separately into information set by the operator in units of pages for the document and the image identification result in the pre-stage image processing unit 3. Then, information required for each processing unit is generated in the subsequent image processing unit 4 in accordance with the printing color and printing operation of the image output unit 2 at the time of image output. As a result, the amount of information stored in the storage unit 5 can be reduced. Further, since the accuracy of the position information input by the operator from the operation panel or the editing digitizer is usually about 0.25 mm (100 dpi), the information is logically separated in this way and the compression process is performed. The encoding efficiency in the encoding unit 111 is also greatly improved.
[0140]
As described above, the configuration of the digital color copying machine as shown in the above-described embodiment enables a variety of advanced functions such as an electronic sorting function and page layout editing even when extremely high image quality is required. It is possible to realize a simple editing function.
[0141]
In this embodiment, for the sake of explanation, the color mode, the document type, the identification type in the picture / character separation unit, the processing order of each processing unit, the switching of the processing, and the details of the combination logic are described. It goes without saying that the present invention is not limited to this.
[0142]
FIG. 31 is a block diagram showing another embodiment of the image processing apparatus of the present invention, FIG. 32 is a schematic diagram showing an example of the former image processing unit, and FIG. 33 is an example of the latter image processing unit. FIG. 34 is a schematic configuration diagram showing an example of the storage unit. In the figure, the same parts as those in FIGS. 1, 2, 7, and 25 are denoted by the same reference numerals, and the description thereof is omitted. 7 is an image output unit, 121 is an image signal scaling unit, and 122 is a Tag signal scaling unit.
[0143]
In this embodiment, the storage unit 5 has a configuration having an image signal scaling unit 121 and a Tag signal scaling unit 122 on a bus 120. The image signal scaling unit 121 performs two-dimensional enlargement / reduction processing on the image signal data. The method of enlargement / reduction processing is arbitrary, and a known method can be used. Further, the Tag signal scaling unit 122 performs enlargement / reduction processing on the Tag signal at the same scaling factor as the enlargement / reduction processing in the image signal scaling unit 121. The method in this case is also arbitrary. In addition, since the image signal scaling unit 121 and the Tag signal scaling unit 122 are provided in the storage unit 5, the image scaling unit 14 and the Tag scaling unit 15 are provided in the preceding image processing unit 3 as shown in FIG. Not provided. Also in this example, the image signal scaling unit 121 and the Tag signal scaling unit 122 shown in FIG. 34 constitute image preprocessing means and attribute preprocessing means.
[0144]
With such a configuration, it is possible to always perform image input at the image input unit 1 at the same magnification. Further, since the image signal scaling unit 121 and the Tag signal scaling unit 122 perform the reduction / enlargement processing based on the document information extraction results in the control unit 6 and the document detection unit 16 in the pre-stage image processing unit 3, Scanning is unnecessary.
[0145]
In this embodiment, the image output unit 7 has an electrophotographic process of YMCK four-color exposure / development / transfer, and can print a full-color image at a time. Therefore, L from the storage unit 5 to the subsequent image processing unit 4 * a * b * The image signal data and the Tag signal are output only once.
[0146]
As described above, even if the basic operations of image input and image output change, the image processing operation can be performed without substantially changing the configuration and operation in the above-described embodiment.
[0147]
In each of the above-described embodiments, RGB signals are received from the image input unit 1 and YMCK signals are sent to the image output unit 2 and the image output unit 7. However, the present invention is not limited to this. For example, the input side is L * a * b * , YMCK, and other various color spaces. The output side may also output a signal corresponding to the color space of the image data received by the image output unit 2. Note that the image output unit 2 is not limited to the electrophotographic system using toner as in the above-described example, and various recording systems such as an ink jet system, a thermal system, and a thermal transfer system can be used. .
[0148]
In each of the above-described embodiments, an image is transmitted from the image input unit 1 and a processed image is output to the image output unit 2. However, the present invention is not limited to this, and for example, a host It is also possible to configure as a printer connected directly to a computer or via a network. Furthermore, the output destination is not the image output unit 2 but can be configured in various forms such as a host computer. In such a case, the various types of image processing performed by the pre-stage image processing unit 3, the post-stage image processing unit 4, and the storage unit 5 are not limited to the functions described above, and may be appropriately selected. Of course, other functions may be added.
[0149]
【The invention's effect】
As is apparent from the above description, according to the present invention, for example, in an image processing system such as a color copying machine that requires extremely high image quality, various functions such as an electronic sorting function and page layout editing are provided. There is an effect that an advanced editing function can be realized.
[Brief description of the drawings]
FIG. 1 is a block configuration diagram showing an embodiment of an image processing apparatus of the present invention.
FIG. 2 is a block configuration diagram illustrating an example of a pre-stage image processing unit 3;
FIG. 3 is a graph illustrating an example of gradation correction processing in a gradation correction unit 11;
FIG. 4 is a block diagram illustrating an example of a picture / character separating unit.
FIG. 5 is an explanatory diagram of an example of a Seg-Tag signal.
FIG. 6 is an explanatory diagram of an example of an Area-Tag signal.
7 is a block configuration diagram showing an example of a post-stage image processing unit 4. FIG.
FIG. 8 is a schematic configuration diagram illustrating an example of a color space conversion unit 31.
FIG. 9 is an explanatory diagram of an example of a CC-Tag signal.
FIG. 10 is a schematic configuration diagram illustrating an example of color correction units 41 to 43;
FIG. 11 is an explanatory diagram illustrating an example of a color space dividing method in the color correction units 41 to 43;
12 is a schematic configuration diagram showing an example of a space correction unit 32. FIG.
FIG. 13 is an explanatory diagram of an example of a convolution operation process performed in the space correction unit 32;
FIG. 14 is an explanatory diagram of an example of selection logic of the correction calculation unit 62 to the correction calculation unit 67 for the value of the Filter-Tag signal and the processing content thereof.
FIG. 15 is a schematic configuration diagram illustrating an example of a gradation correction unit.
FIG. 16 is an explanatory diagram of an example of selection logic of the correction LUTs 71 to 80 with respect to the value of the TRC-Tag signal and processing contents thereof;
FIG. 17 is a schematic configuration diagram illustrating an example of a halftone generation unit 34;
FIG. 18 is an explanatory diagram of an example of a calculation pattern matrix.
FIG. 19 is an explanatory diagram of an example of a waveform pattern.
FIG. 20 is an explanatory diagram of a generation process of a reference wave and an output signal.
21 is a block diagram illustrating an example of a pixel value calculation unit 91. FIG.
FIG. 22 is an explanatory diagram of an example of the number of lines corresponding to a Screen-Tag signal and the processing content thereof;
FIG. 23 is an explanatory diagram of an example of a Tag signal generated by the Tag signal generation unit 35;
FIG. 24 is an explanatory diagram (continuation) of an example of a Tag signal generated by the Tag signal generation unit 35;
25 is a schematic configuration diagram showing an example of a storage unit 5. FIG.
FIG. 26 is an explanatory diagram illustrating an example of a sort function realized by the storage unit 5;
FIG. 27 is an explanatory diagram of an example of a rotation process which is one of page editing functions.
FIG. 28 is an explanatory diagram of an example of a rotation process with an enlargement / reduction process;
FIG. 29 is an explanatory diagram of an example of a “Nup function” for placing and printing a plurality of pages of originals on a single sheet of paper.
FIG. 30 is an explanatory diagram showing an example of an editing function effective when creating a booklet or the like.
FIG. 31 is a block diagram showing another embodiment of the image processing apparatus of the present invention.
FIG. 32 is a schematic configuration diagram illustrating an example of a pre-stage image processing unit in another embodiment of the image processing apparatus of the present invention.
FIG. 33 is a schematic block diagram showing an example of a subsequent image processing unit in another embodiment of the image processing apparatus of the present invention.
FIG. 34 is a schematic configuration diagram showing an example of an accumulation unit in another embodiment of the image processing apparatus of the present invention.
FIG. 35 is a block diagram illustrating an example of a conventional image copying system.
FIG. 36 is a block diagram showing an example of a conventional digital color copying machine.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Image input part, 2 ... Image output part, 3 ... Pre-stage image processing part, 4 ... Subsequent image processing part, 5 ... Accumulation part, 6 ... Control part, 7 ... Image output part, 11 ... Tone correction part, 12 ... Color space conversion unit, 13 ... Picture / character separation unit, 14 ... Image scaling unit, 15 ... Tag scaling unit, 16 ... Document detection unit, 21 ... Character extraction unit, 22 ... Halftone extraction unit, 23 ... Logic Sum operation unit, 24 ... contraction unit, 25 ... expansion unit, 26 ... logical product operation unit, 27 ... color / black determination unit, 28 ... combination unit, 31 ... color space conversion unit, 32 ... space correction unit, 33 ... floor Tone correction unit, 34 ... halftone generation unit, 35 ... Tag signal generation unit, 41 to 43 ... color correction unit, 44, 45 ... selector, 51 ... color correction memory for reference data, 52 ... area selection signal memory for interpolation, 53 to 55: Signal output memory for interpolation, 56 to 58: Multiplier for interpolation, 59: Adder, 61: Line buffer , 62 to 67: Correction calculation unit, 68: Selector, 71-80: Correction LUT, 81: Selector, 91 ... Pixel value calculation unit, 92 ... Calculation coefficient & pattern storage unit, 93 ... Waveform pattern storage unit, 94 ... Comparison 95: Reference wave generator 101: Subtractor 102: Multiplier 103, 104 ... Comparator 105 ... Selector 111-113 Encoder 114-116 Decoder 117: Data storage 118: Memory controller, 119 ... Buffer memory, 120 ... Bus, 121 ... Image signal scaling unit, 122 ... Tag signal scaling unit, 201 ... Image input unit, 202 ... Image output unit, 203 ... Image processing unit, 210: Image reproduction unit, 211: Gradation correction unit, 212: Selector, 213 ... Spatial correction unit, 214 ... Gradation correction unit, 215 ... Halftone generation unit, 220 ... Image storage / editing unit, DESCRIPTION OF SYMBOLS 21 ... Encoding part, 222 ... Decoding part, 223 ... Scaling part, 224 ... Image storage part, 225 ... Memory controller, 226 ... Page memory, 227 ... Bus, 301 ... Image input part, 302 ... Image output part, DESCRIPTION OF SYMBOLS 303 ... Image processing part, 304 ... Control part, 310 ... Tone correction part, 311 ... Color correction part, 312 ... Black plate production | generation / under color removal part, 313 ... Image signal scaling part, 314 ... Switching signal scaling part 315: Spatial correction unit, 316: Tone correction unit, 317: Halftone generation unit, 318: Picture / character separation unit, 319: Document detection unit.

Claims (11)

入力された画像データを少なくとも1ページ分蓄積する画像データ蓄積手段と、前記画像データの各ページに対応する複数の属性情報を前記画像データ蓄積手段に蓄積された当該画像データに関連付けて蓄積する属性情報蓄積手段と、前記画像データ蓄積手段に蓄積した前記画像データを読み出して各種の画像処理を行う画像後処理手段と、該画像後処理手段で画像処理を施す前記画像データに関連づけて前記属性情報蓄積手段に蓄積されている複数の属性情報に従って前記画像後処理手段を制御するための制御信号を生成する制御信号生成手段を有し、前記画像後処理手段は、前記制御信号生成手段で生成された制御信号に従って画像処理を行うことを特徴とする画像処理装置。  Image data storage means for storing at least one page of input image data, and attributes for storing a plurality of attribute information corresponding to each page of the image data in association with the image data stored in the image data storage means An information storage means; an image post-processing means for reading out the image data stored in the image data storage means and performing various image processing; Control signal generating means for generating a control signal for controlling the image post-processing means in accordance with a plurality of attribute information stored in the storage means, and the image post-processing means is generated by the control signal generating means An image processing apparatus that performs image processing according to a control signal. 入力された画像データを少なくとも1ページ分蓄積する画像データ蓄積手段と、前記画像データの各ページに対応する複数の属性情報を前記画像データ蓄積手段に蓄積された当該画像データに関連付けて蓄積する属性情報蓄積手段と、前記画像データ蓄積手段に蓄積した前記画像データを読み出して各種の画像処理を行う画像後処理手段と、該画像後処理手段で画像処理を施す前記画像データに関連づけて前記属性情報蓄積手段に蓄積されている複数の属性情報の組み合わせに従って前記画像後処理手段を制御するための制御信号を生成する制御信号生成手段を有し、前記画像後処理手段は、前記制御信号生成手段で生成された制御信号に従って画像処理を行うことを特徴とする画像処理装置。  Image data storage means for storing at least one page of input image data, and attributes for storing a plurality of attribute information corresponding to each page of the image data in association with the image data stored in the image data storage means An information storage means; an image post-processing means for reading out the image data stored in the image data storage means and performing various image processing; Control signal generating means for generating a control signal for controlling the image post-processing means in accordance with a combination of a plurality of attribute information stored in the storage means, and the image post-processing means is the control signal generating means An image processing apparatus that performs image processing according to a generated control signal. さらに、前記属性情報に基づいて当該属性情報に関連付けられて前記画像データ蓄積手段に蓄積されている前記画像データに対して編集処理を行う編集手段を有することを特徴とする請求項1または請求項2に記載の画像処理装置。  2. The editing apparatus according to claim 1, further comprising an editing unit that performs an editing process on the image data stored in the image data storage unit in association with the attribute information based on the attribute information. The image processing apparatus according to 2. 前記属性情報は、操作者が入力することにより設定されるページ情報を含むことを特徴とする請求項1ないし請求項3のいずれか1項に記載の画像処理装置。  The image processing apparatus according to claim 1, wherein the attribute information includes page information set by input by an operator. 入力された画像データから前記編集手段における編集処理で必要な画素情報を抽出する抽出手段を有し、前記属性情報は、前記抽出手段で抽出した前記画素情報を含むことを特徴とする請求項1ないし請求項4のいずれか1項に記載の画像処理装置。  2. The image processing apparatus according to claim 1, further comprising: extraction means for extracting pixel information necessary for editing processing in the editing means from input image data, wherein the attribute information includes the pixel information extracted by the extraction means. The image processing apparatus according to any one of claims 4 to 4. 入力された画像データの画素ごとに識別結果を示す画素情報を抽出する抽出手段を有し、前記属性情報蓄積手段は、前記属性情報として、前記抽出手段で抽出した前記画素情報と操作者が入力することにより設定されるページ情報とを、それぞれ個別に、前記画像データ蓄積手段に蓄積した前記画像データの各ページに関連付けて蓄積することを特徴とする請求項1ないし請求項4のいずれか1項に記載の画像処理装置。  Extraction means for extracting pixel information indicating an identification result for each pixel of the input image data, and the attribute information storage means inputs the pixel information extracted by the extraction means and the operator as the attribute information 5. The page information set by doing so is stored individually in association with each page of the image data stored in the image data storage means. The image processing apparatus according to item. さらに、前記画像データ蓄積手段に蓄積する画像データを符号化する第1の符号化手段と、前記画像データ蓄積手段に蓄積されている画像データを復号する第1の復号手段と、前記属性情報蓄積手段に蓄積する属性情報を符号化する第2の符号化手段と、前記属性情報蓄積手段に蓄積されている属性情報を復号する第2の復号手段を有していることを特徴とする請求項1ないし請求項6のいずれか1項に記載の画像処理装置。  Furthermore, the first encoding means for encoding the image data stored in the image data storage means, the first decoding means for decoding the image data stored in the image data storage means, and the attribute information storage A second encoding means for encoding attribute information stored in the means, and a second decoding means for decoding attribute information stored in the attribute information storage means. The image processing apparatus according to claim 1. さらに、前記画像データ蓄積手段に蓄積する前の画像データに対して画像処理を施す画像前処理手段と、前記属性情報蓄積手段に蓄積する前の属性情報に対して前記画像前処理手段と同様の画像処理を施す属性前処理手段を有することを特徴とする請求項1ないし請求項7のいずれか1項に記載の画像処理装置。  Further, image preprocessing means for performing image processing on the image data before being stored in the image data storage means, and attribute information before being stored in the attribute information storage means, similar to the image preprocessing means. 8. The image processing apparatus according to claim 1, further comprising attribute preprocessing means for performing image processing. さらに、画像データを入力する画像入力手段と、前記編集手段によって編集処理された画像データを出力する画像出力手段を有しており、前記画像入力手段における画像データの入力と、該画像データの前記画像データ蓄積手段への蓄積および該画像データに関連づけられた属性情報の前記属性情報蓄積手段への蓄積は、前記画像入力手段における画像の走査に同期して行われ、前記画像データ蓄積手段に蓄積されている画像データの読み出し及び前記属性情報蓄積手段に前記画像データと関連付けて蓄積されている属性情報の読み出しは、前記画像出力手段に同期して必要な回数だけ行われることを特徴とする請求項1ないし請求項8のいずれか1項に記載の画像処理装置。  And an image input means for inputting image data, and an image output means for outputting the image data edited by the editing means. The input of the image data in the image input means, and the image data Storage in the image data storage means and storage of attribute information associated with the image data in the attribute information storage means is performed in synchronization with scanning of the image in the image input means and storage in the image data storage means. The reading of the image data being read and the reading of the attribute information stored in association with the image data in the attribute information storage means are performed a required number of times in synchronization with the image output means. The image processing apparatus according to any one of claims 1 to 8. 入力された画像データを少なくとも1ページ分画像データ蓄積手段に蓄積し、また前記画像データの各ページに対応する複数の属性情報を前記画像データ蓄積手段に蓄積された当該画像データに関連付けて属性情報蓄積手段に蓄積し、前記画像データに関連づけて前記属性情報蓄積手段に蓄積されている複数の属性情報に従って制御信号生成手段で制御信号を生成し、前記画像データ蓄積手段に蓄積した前記画像データを読み出して前記制御信号生成手段で生成された制御信号に従って前記画像データに対して画像後処理手段で画像処理を行うことを特徴とする画像処理方法。  The input image data is stored in the image data storage means for at least one page, and a plurality of attribute information corresponding to each page of the image data is associated with the image data stored in the image data storage means. A control signal is generated by a control signal generation unit according to a plurality of attribute information stored in the storage unit, associated with the image data, and stored in the attribute information storage unit, and the image data stored in the image data storage unit is An image processing method comprising: performing image processing on the image data by an image post-processing unit in accordance with a control signal read out and generated by the control signal generation unit. 入力された画像データを少なくとも1ページ分画像データ蓄積手段に蓄積し、また前記画像データの各ページに対応する複数の属性情報を前記画像データ蓄積手段に蓄積された当該画像データに関連付けて属性情報蓄積手段に蓄積し、前記画像データに関連づけて前記属性情報蓄積手段に蓄積されている複数の属性情報の組み合わせに従って制御信号生成手段で制御信号を生成し、前記画像データ蓄積手段に蓄積した前記画像データを読み出して前記制御信号生成手段で生成された制御信号に従って前記画像データに対して画像後処理手段で画像処理を行うことを特徴とする画像処理方法。  The input image data is stored in the image data storage means for at least one page, and a plurality of attribute information corresponding to each page of the image data is associated with the image data stored in the image data storage means. The image stored in the storage unit, the control signal generating unit generates a control signal according to a combination of a plurality of attribute information stored in the attribute information storage unit in association with the image data, and the image data stored in the image data storage unit An image processing method comprising: reading data and performing image processing on the image data by an image post-processing unit in accordance with a control signal generated by the control signal generation unit.
JP08056599A 1999-03-24 1999-03-24 Image processing apparatus and image processing method Expired - Fee Related JP3738807B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP08056599A JP3738807B2 (en) 1999-03-24 1999-03-24 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP08056599A JP3738807B2 (en) 1999-03-24 1999-03-24 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2000278506A JP2000278506A (en) 2000-10-06
JP3738807B2 true JP3738807B2 (en) 2006-01-25

Family

ID=13721869

Family Applications (1)

Application Number Title Priority Date Filing Date
JP08056599A Expired - Fee Related JP3738807B2 (en) 1999-03-24 1999-03-24 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP3738807B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008028550A (en) * 2006-07-19 2008-02-07 Ricoh Co Ltd Image processor, image processing method, and program
JP4659858B2 (en) * 2008-06-30 2011-03-30 シャープ株式会社 Image forming apparatus, program, and recording medium
JP6201001B1 (en) 2016-04-28 2017-09-20 株式会社Pfu Image processing apparatus, image processing method, and program

Also Published As

Publication number Publication date
JP2000278506A (en) 2000-10-06

Similar Documents

Publication Publication Date Title
JP4261739B2 (en) Image processing apparatus, image processing method, storage medium, and image processing system
JP4662066B2 (en) Image processing apparatus, image forming apparatus, image distribution apparatus, image processing method, program, and recording medium
JP3891654B2 (en) Image forming apparatus
JP5540553B2 (en) Image processing apparatus, image forming apparatus, image processing method, and image processing program
US7982913B2 (en) Image processing apparatus and image processing method for suppressing jaggies in the edge portions of image
JP3176052B2 (en) Image processing device
US7002709B1 (en) Image processing system, image processing method, and image input system
JP4436454B2 (en) Image processing apparatus, image processing method, program thereof, and storage medium
JP2003087563A (en) Image processing device and its control method
JP2003163801A (en) Apparatus, method, and program for image processing, and storage medium
JP2004228811A (en) Image processor, image processing method and program for computer to perform execution
US8441690B2 (en) Image processing apparatus and image processing method for processing screen-processed image
JP3767667B2 (en) Image processing device
JP4208369B2 (en) Image processing apparatus, image processing method, storage medium, and image processing system
JP3896776B2 (en) Image data encoding apparatus, image data encoding method, image forming apparatus, and recording medium
JP3738807B2 (en) Image processing apparatus and image processing method
JP2004350240A (en) Image processing apparatus and image processing method
JP3772610B2 (en) Image forming apparatus and control method thereof
JP3346051B2 (en) Image processing device
JP2001186356A (en) Picture compression device, picture compresion method and computer readable storage medium
JP4963559B2 (en) Image processing apparatus, image forming apparatus, image processing method, and program for causing computer to execute the method
JP2001309183A (en) Image processing unit and method
JP2006050666A (en) Image processing unit and method
JP2007189275A (en) Image processor
JP4474001B2 (en) Image processing apparatus and method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050720

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050920

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051012

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051025

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091111

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101111

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111111

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111111

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121111

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121111

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131111

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees