JP3904160B2 - Image structure prediction processing method - Google Patents

Image structure prediction processing method Download PDF

Info

Publication number
JP3904160B2
JP3904160B2 JP02169197A JP2169197A JP3904160B2 JP 3904160 B2 JP3904160 B2 JP 3904160B2 JP 02169197 A JP02169197 A JP 02169197A JP 2169197 A JP2169197 A JP 2169197A JP 3904160 B2 JP3904160 B2 JP 3904160B2
Authority
JP
Japan
Prior art keywords
image
color
data
gradation
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP02169197A
Other languages
Japanese (ja)
Other versions
JPH10222658A (en
Inventor
義 文 堂之前
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP02169197A priority Critical patent/JP3904160B2/en
Priority to US09/018,337 priority patent/US6522425B2/en
Publication of JPH10222658A publication Critical patent/JPH10222658A/en
Priority to US09/373,233 priority patent/US6320676B1/en
Application granted granted Critical
Publication of JP3904160B2 publication Critical patent/JP3904160B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、刷版が装着されたカラー印刷機により網点画像(網画像ともいう)によるカラー印刷物を実際に作成する前に、カラープリンタやCRTディスプレイ等の画像出力装置により校正のためのカラー印刷プルーフ(カラー印刷校正刷りともいう)を作成するシステムに適用して、モアレやローゼット等の像構造をカラー印刷プルーフに表現可能な像構造予測処理方法に関する。
【0002】
【従来の技術】
従来から、製品としての網点画像からなるカラー印刷物をカラー印刷機により作成する前に、色等の校正用のカラー印刷プルーフを、濃度階調方式(連続階調方式ともいう)により画像毎の画素を形成するカラープリンタで作成していた。
カラー印刷プルーフを作成するために、カラープリンタを使用するのは、カラープリンタが比較的簡易な構成であって廉価であり、また、カラープリンタでは、周知のように、カラー印刷機に係る製版フイルムの作成、刷版等の作成が不要であり、短時間に複数回、シート上に画像が形成されたハードコピーを容易に作成できるからである。
【0003】
図16は、カラープリンタを利用した従来の技術によるカラー印刷プルーフの作成方法のフローを示している。
まず、画像原稿2上の画像がCCDリニアイメージセンサ等を有するカラースキャナ等の画像読取装置によって二次元的に読み取られ、R(赤)、G(緑)、B(青)の各色毎の階調(連続調)画像データIaが作成される(ステップSl:画像読取工程)。
【0004】
次に、このRGBの階調画像データIaが色変換処理ルックアップテーブル等によりC(シアン)、M(マゼンタ)、Y(イエロー)、K(墨)の各色毎の4版の網点面積率データ(網%データまたは原画画素網%データともいう)。aj(j=0、1、2、3:ここで、数値0はC色に、数値1はM色に、数値2はY色に、数値3はK色に、それぞれ対応するものとする。)に変換される(ステップS2)。この変換は、後に説明するカラー印刷機との関係により種々の変換が可能であり、通常、そのカラー印刷機に対応して各印刷会社それぞれのノウハウになっている。
【0005】
このカラー印刷機により作成される画像は網点画像であり、そのため、実際にカラー印刷物を作成する際には、色変換処理後の網点面積率データajをビットマップデータに展開し、これを基に製版フイルム等の作成等を行うが、自動現像機(自現機)等が必要とされ、製版フイルム作成処理工程以降の工程が相当に煩雑である。
【0006】
そのため、カラー印刷プルーフを簡易に作成するために、上述した理由により、カラープリンタ(以下、カラーデジタルプリンタともいい、DPともいう)3が使用されている。DP3は、濃度階調方式により、例えば、3原色に対応するLED(発光ダイオード)またはレーザの発光強度と時間を画素毎にデジタル的に制御してドナーフイルムに画像を形成し、これを受像シートに転写し、そのシート上に画像を形成するものであり、刷版を作成し、これを利用して印刷するカラー印刷機に比較して相当に廉価である。また、体積も小さく、重量も軽い。
【0007】
そこで、DP3を使用するために、ステップS2で作成したCMYKの4版の網点面積率データajを、一旦、いわゆるデバイス(印刷、CRT、写真、LED等)に依存しない(デバイス非依存の)画像データ(共通色空間データとも呼ばれる)である、例えば、3刺激値データX、Y、Zに変換することが必要になる。
このため、CMYKの4版の網点面積率データajを3刺激値データX、Y、Zに変換する画像データ処理を画像データ処理部で行う(ステップS4)。この画像データ処理としては、従来、ノイゲバウア式を用いる処理が採用されている。
【0008】
この場合、予め、測色計により色毎の測色値データXi、Yi、Zi(iは、CMYKの4版の場合には、24 色=16色に対応し、i=0〜15とする。)を測定しておく(ステップS3)。この測定に際しては、まず、カラー印刷機によりカラー印刷物を作成する際の印刷紙、いわゆる本紙上に16色の各色を予め印刷する(通常、べた刷りという。)ことで、いわゆるカラーパッチを作成する。この16色とは、具体的には、C色、M色、Y色、K色のそれぞれの有無に対応しており、前部で24 色=16色になる。
【0009】
すなわち、何も印刷しないときの印刷紙の地色であるW(白)色、原色であるC、M、Yのみの各色、K(墨)色、その他、混色であるC+M、C+Y、C+K、M+Y、M+K、Y+K、C+M+Y、C+M+K、C+Y+K、M+Y+K、C+M+Y+Kの各色の合計16色(16基本色ともいう。)である。印刷紙上に形成されたこれらの反射色を測色計、例えば、分光計で測定して測色値データXi、Yi、Ziを得ておく。
【0010】
ノイゲバウア式を用いる処理では、次の(4)式に示すように、この測色値データXi、Yi、Ziのそれぞれの係数として面積率データbi(i=0〜15)が掛けられて画像データ処理後の3刺激値データX、Y、Zが作成される(ステップS4)。
X=Σi=0 15 bi・Xi
Y=Σi=0 15 bi・Yi
Z=Σi=0 15 bi・Zi …(4)
ここで、係数である16基本色の面積率データbiは、網点面積率データajから次の(5)式に示す確率計算により求められる。
【0011】
b0 =(1−c)(1−m)(1−y)(1−k)
b1 = c ・(1−m)(1−y)(1−k)
b2 =(1−c)・ m ・(1−y)(1−k)
b3 = c ・ m ・(1−y)(1−k)
b4 =(1−c)(1−m)・ y ・(1−k)
b5 = c ・(1−m)・ y ・(1−k)
b6 =(1−c)・ m ・ y ・(1−k)
b7 = c ・ m ・ y ・(1−k)
b8 =(1−c)(1−m)(1−y)・k
b9 = c ・(1−m)(1−y)・k
b10=(1−c)・ m ・(1−y)・k
b11= c ・ m ・(1−y)・k
b12=(1−c)(1−m)・ y ・k
b13= c ・(1−m)・ y ・k
b14=(1−c)・ m ・ y ・k
b15= c ・ m ・ y ・k …(5)
【0012】
(5)式では、直感的な理解が得やすいように、網点面積率データaj(j=0〜3)を、a0=c、a1=m、a2=y、a3=kと置いている。この場合、c、m、y、kは各単版の網点面積率データである。(5)式において、例えば、b3は、C+M色の面積率であるが、これは、C版の存在する確率cと、M版の存在する確率mと、Y版の存在しない確率(1−y)と、K版の存在しない確率(1−k)を確率計算的に掛け合わせることで求められる。したがって、(5)式に示すノイゲバウア式は確率論に基づく式であると解することができる。
【0013】
(4)式に基づいて作成された画像データ処理後の3刺激値データX、Y、ZがDP3に供給され、DP3では、この3刺激値データX、Y、Zをルックアップテーブル(LUT)に基づき前記レーザ等に係る3原色毎のデータ(いわゆるデバイスに依存する画像データであって固有色空間データとも呼ばれる)に色変換処理した後、シート上に画像を形成したハードコピーであるカラー印刷プルーフCPaを作成する(ステップS4)。
【0014】
【発明が解決しようとする課題】
ところが、上述のように、ノイゲバウア式を使用してDP3用の3刺激値データX、Y、Zを作成した場合には、カラー印刷機によって作成されるカラー印刷物上に形成される画像の色を測色計で測定した測色値を使用しているため、カラー印刷物の色を前記ハードコピー上の画像に忠実に再現することはできるが、カラー印刷物上に現れる像構造、例えばモアレやローゼット等の干渉縞に起因する特異パターンを前記ハードコピー上の画像に再現することができないという問題があった。
【0015】
カラー印刷物上で、これらの像構造が現れるのであれば、DP3から出力されるカラー印刷プルーフCPa上にもその像構造を忠実に再現したいという要請に基づくものであり、像構造が現れない従来の技術によるカラー印刷プルーフCPaは、この点に関して、カラー印刷物用の正確な(忠実な)プルーフであるということができない。
【0016】
なお、DP3のハードコピー上の画像に特異パターンが現れないのは、ノイゲバウア式が上述したように確率論に基づく式であることを原因とするものと考えられる。
そこで、本発明者等は、このノイゲバウア式を用いないでカラープリンタ用の入力画像データを構成する画素データを作成すれば、カラー印刷プルーフ上で、印刷物特有のモアレ、ローゼット等の像構造を正確かつ忠実に再現することができるのではないかという観点に立ち鋭意考究した結果、特願平7−5257号明細書において、印刷の色を忠実に再現できるとともに、網点画像に係るモアレ、ローゼット等の像構造をも再現することのできる技術を提案している。
【0017】
ここに開示された技術は、連続調プリンタを使って網起因の像構造をシミュレーションすることを可能にするものではあるが、処理に時間がかかるという問題があった。この技術において処理速度が遅い理由は、個々の画素に対する演算の量が多いことに起因しており、この個々の画素に対する演算の量が多いのは網点をシミュレーションするために印刷の網展開と同じ計算を1画素1画素について行っているからである。
【0018】
本発明の目的は、上記従来技術の問題点を解消し、比較的廉価で、比較的低解像度のカラープリンタ等の画像出力装置を使い、その利点である手軽さと材料、機械の安さを保ちながらも、高級機のように、高解像度のカラー印刷物上に現れる網点起因のモアレ、ローゼット等の像構造を予測し、より一層忠実に再現することを可能にするとともに、この像構造の予測処理、すなわちシミュレーション処理を高速に行うことのできる像構造予測処理方法を提供するにある。
【0019】
また、本発明の他の目的は、上記目的に加え、網点起因の像構造のシミュレーション処理の際に、印刷物の色の忠実なシミュレーションをも同時に達成することのできる像構造予測処理方法を提供するにある。
さらに、本発明の他の目的は、上記各目的に加え、印刷物の色のシミュレーション精度を上げること、および/または、モアレや、ローゼット等の像構造のシミュレーション上のコントラストの強さを印刷機や印刷物の見かけにあわせて調節することを可能にする像構造予測処理方法を提供するにある。
【0020】
【課題を解決するための手段】
上記目的を達成するために、本発明は、原画像を少なくとも3原色を含むn版の網点面積率データに変換し、これらの網点面積率データを用い、カラー印刷機により作製されるカラー印刷物のカラー印刷プルーフを画像出力装置によって出力するために、前記カラー印刷物の像構造を予測するための階調画像データに変換するに際し、
予め、各版の0%〜100%の網点面積率データをN段に分け、全Nn 色の各単色画像に対して前記像構造を予測するための前記階調画像データを求めて、前記像構造予測に必要な繰り返し画素サイズを持ち、位置パラメータとn個の色パラメータとを引き数とするルックアップテーブルを作成しておき、
前記原画像のn版の網点面積率データを前記ルックアップテーブルを参照して前記階調画像データに変換することを特徴とする像構造予測処理方法を提供するものである。
【0021】
ここで、前記原画像の各版の網点面積率データは、前記階調画像データに変換される前に、前記像構造を強調するために、印刷の線数および網角度により決定される格子の周期に依存した調整可能な重みにより近傍画素と重み付け平均されるのが好ましい。
【0022】
また、前記格子の周期に依存した重みを、前記近傍画素と同一マスクサイズの加重マトリクスの各要素に配列するとともに、この加重マトリクスの各要素に配列される重みをF(i,j,k,l)とし、E(k,l)を中心の係数が1、その他が0である、前記加重マトリクスと同サイズの係数マトリックスとし、前記重みの調整率をαとするとき、調整された前記加重マトリクスの各要素に配列される重みF’(i,j,k,l)は、下記式(1)で与えられるのが好ましい。

Figure 0003904160
ここで(i,j)は前記変換しようとする画素の前記原画像座標の位置を示し、(k,l)は前記近傍画素と同一マスクサイズの加重マトリクス座標の位置を示す。
【0023】
また、前記ルックアップテーブルの作成は、
前記単色画像の各n版分の網点面積率データのそれぞれに対して前記カラー印刷物の解像度よりも高い解像度を有する閾値マトリクスを参照し、前記n版分の網点面積率データをそれぞれビットマップデータに変換し、
このn版分のビットマップデータを同時に参照して、各n版の有無についての2n 色の各色毎の面積率を前記ビットマップデータの一定範囲毎に数え上げ、
予め求めておいた前記2n 色の各色毎の測色値データに対してこの一定範囲毎に数え上げた面積率を重み係数として第1の平均測色値データを計算し、
この第1の平均測色値データに対して、前記画像出力装置の画素より大きい範囲で順次アンチエリアジングフィルタ処理を行い前記画像出力装置の画素に対応する第2の平均測色値データに変換し、
この第2の平均測色値データを前記階調画像データとすることによって得られるのが好ましい。
【0024】
また、前記ルックアップテーブルを構成する階調画像データを前記第1の階調画像データとし、
前記各単色画像について、この第1の階調画像データに基づいて前記画像出力装置で当該単色画像のテストプルーフを出力した後、このテストプルーフの色を測色計で計測し、
得られた測色値データと前記繰り返し画素サイズの全画素に亘る前記第1の階調画像データの平均値の目標値データとを用いて前記繰り返し画素サイズの全画素の前記第1の階調画像データを色補正処理して第2の階調画像データを得、
この第2の階調画像データを用いて前記ルックアップテーブルを構成するのが好ましく、前記単色画像について、共通色空間の表色値の1つに関し、前記測色値データをXout、前記目標値データをXa、前記第1の階調画像データをXi、前記第2の階調画像データをXpiとし、前記繰り返し画素サイズをmT ×nT 画素とする時、前記色補正処理は、下記式(2)で表わされるのが好ましい。
Xpi=(Xi/Xout)×Xa(i=1〜mT ×nT ) …(2)
【0025】
また、前記ルックアップテーブルを構成する前記階調画像データを第3の階調画像データとし、
前記各単色画像について、この第3の階調画像データを前記繰り返し画素サイズの全画素に亘って平均してその平均値を求め、
前記像構造の強度を調整するために、この平均値を中心に各画素の前記第3の階調画像データと前記平均値との距離を調整して、前記像構造の強度調整処理を行い、第4の階調画像データを得、
この第4の階調画像データを用いて前記ルックアップテーブルを構成するのが好ましく、前記単色画像について、共通色空間の表色値の1つに関し、前記平均値をXave、前記第3の階調画像データをXqi、前記第4の階調画像データをXriとし、前記繰り返し画素サイズをmT ×nT 、像構造の強調割合をγとする時、前記像構造の強度調整処理は、下記式(3)で表わされるのが好ましい。
Xave=(Σi Xqi)/(mT ×nT
Xri=Xave×(Xqi/Xave)^γ) …(3)
ここで、i=1〜mT ×nT であり、Σi Xqiは、Xqiをiが1からmT ×nT までの和を表し、(Xqi/Xave)^γは、(Xqi/Xave)のγ乗を表すものとする。
【0026】
また、前記色補正処理および前記像構造の強度調整処理は、この順序で少なくとも1回行われるのが好ましい。また、前記色補正処理および前記像構造の強度調整処理は、この順序で1回行われた後、前記色補正処理のみが少なくとも1回繰り返されるのが好ましい。
【0027】
【発明の実施の形態】
本発明に係る像構造予測処理方法を添付の図面に示す好適実施例に基づいて、以下に詳細に説明する。
図1は、本発明の像構造予測処理方法を実施するカラー印刷プルーフ作成システムの一実施例および一般的なカラー印刷システムの一例のフロー図である。なお、以下に参照する図面において、図16に示す従来のカラー印刷プルーフ作成方法と対応するものには同一の符号を付け、その説明は適宜省略する。
【0028】
本発明の像構造予測処理方法を実施するカラー印刷プルーフ作成システム10の説明に先立って、まず、一般的にカラー印刷機によりカラー印刷物を作成するカラー印刷システム11を説明する。
図1において、符号11は一般的なカラー印刷システムの構成を示している。一般的なカラー印刷システム11では、画像原稿2上の画像がCCDリニアイメージセンサ等を有するカラースキャナ等の画像読取装置によって2次元的に読み取られ、R(赤)、G(緑)、B(青)の各色毎の階調画像データIaが作成される(ステップS1:画像読取工程)。この場合、CCDリニアイメージセンサ等のイメージセンサの解像度(第1の解像度)Relとしては、例えば、Re1=400dpi(Dot Per Inch)程度が選択される。ここでいう、1dot(ドット)は、1画素に対応し、256等の階調を有する濃度階調方式による画素を意味している。
【0029】
次に、このRGBの階調画像データIaを構成する各画素データが色変換ルックアップテーブル等を用いてC(シアン)、M(マゼンタ)、Y(イエロー)、K(墨)の各色毎の4版の網点面積率データ(上述したように、網%データまたは原画画素網%データともいう)ajに変換される(ステップS2:色変換工程)。この変換は、後に説明するカラー印刷機との関係により種々の変換が可能であるので、通常、そのカラー印刷機に対応して各印刷会社それぞれのノウハウになっている。なお、UCR(under−color removal)処理を行なわない場合には、RGBの階調画像データIaをC、M、Yの3版の網点面積率データajに変換すればよい。また。カラー印刷物12上に、例えば、Y色が依存しない場合には、C、Mの2版の網点面積率データajに変換すればよいことはもちろんである。
【0030】
次いで、画素単位で作成されたCMYK4版分の網点面積率データajに対して、解像度(第2の解像度)Re2がRe2=2000dpi程度(ここでは、理解を容易にするためにRe2=1600dpiとする)でCMYK4版のそれぞれに対して所定の網角度を有する4つの印刷用の閾値マトリクス(閾値テンプレートまたは網点テンプレートともいう)14を参照し、閾値マトリクス14の各要素中の各閾値と網点面積率データajの値とを図示していない比較部により比較して、値「0」または値「1」をとる2値データ、すなわちビットマップデータbjに変換する(ステップS5:比較工程)。なお、通常、網角度は、例えば、Y版用の閾値マトリクス14とM版用の閾値マトリクス14とでは45°等の角度差を有しており、実際上、網角度は、例えば、CMYKの4版では、基準に対し、それぞれ、75°、45°、0°、15°等の角度差を有している。
【0031】
図2は、このステップS5の比較工程(ビットマップ展開工程)について詳しく説明するために閾値マトリクス14等を模式的に描いた線図である。
図2において、最上段の左右に描いた2つの線図は、400dpiの網点面積率データajの1ドットが、1600dpiのビットマップデータbjの16ドットに変化されることを表している。
【0032】
網点面積率データajの1ドットが、例えば、C版であって、網点面積率データajが256階調で表され、その値がaj=77(%表示では30%に相当するが、比較処理を行う場合には、通常、77等、階調値で表される)であるとすると、これと、C版用の閾値マトリクス14とが参照される。閾値マトリクス14は、例えば、図2に示すような閾値Tがマトリクスの要素中に渦巻き状に配されている。なお、この発明とは直接的に関係ないので、詳しく説明しないが、この閾値マトリクス14は仮想的に設定したものであり、例えば、0、1、2…254、255の8ビット階調の閾値Tが中心から渦巻き状に配された1個の網点に対応する閾値、または、いわゆるスーパーセル(例えば、9個の網点に対応する1個の閾値)のそれぞれ相当する一部分を抽出して再構成したものである。
【0033】
図2において、ビットマップデータbjへの展開、すなわち、2値データ化は、周知のように、次の(6)式、(7)式に示すように行われる。
aj≧T → 1 …(6)
aj<T → 0 …(7)
このようにして図2の最下段に示すC版の当該1画素(網点面積率データajがaj=30%の画素)に対するビットマップデータbjが作成される。なお、上述のように、C版用の閾値マトリクス14に対してM、Y、K版用の閾値マトリクス14は選択可能な所定の網角度を有している。
【0034】
次に、このようにして作成したビットマップデータbjに基づき、写植機、自動現像機等による各処理を行い(ステップS6:版作成工程)、版下としての網点画像を有する4版の製版フイルム16、PS版(刷版ともいう)17を作成する。
最後に、この刷版17を用いて輪転機等を有するカラー印刷機により網点画像で形成されたカラー印刷物12を作成する(ステップS7:印刷工程)。
このカラー印刷物12上の網点画像には、網角度の異なる閾値マトリクス14を用いたことによって発生するモアレ、ローゼット等の像構造が現れる。
一般的なカラー印刷機によりカラー印刷物を作成するカラー印刷システムは以上のように構成される。
【0035】
次に、本発明の像構造予測処理方法を実施するカラー印刷プルーフ作成システム10について説明する。
図1に示すカラー印刷プルーフ作成システム(以下、単にプルーフシステムという)10では、まず、予め、例えば400dpiのCMYKの網点面積率データajから連続調プリンタでローゼットなどの像構造を予測するための共通色空間データ、例えば400dpiの3刺激値データXYZを得るための位置依存性を持つ6次元ルックアップテーブル(以下、単に6D−LUTという)を作成しておく必要がある(ステップS8:6D−LUT作成工程)。この後、カラー印刷プルーフの作成を開始するが、本プルーフシステム10は、カラー印刷システム11と、画像読取工程(ステップS1)および色変換工程(ステップS2)を共有する。
【0036】
次に、プルーフシステム10においては、色変換工程S2によって変換された網点面積率データaj(400dpi)にモアレなどの(第1の)像構造を予測する処理を施し、予測される像構造の強度を調整する(ステップS9:第1像構造予測処理工程(以下、モアレ強調工程ともいう))。次いで、このモアレ強調工程S9によってモアレ等の像構造が強調された網点面積率データa´j(例えば400dpi)を位置依存6D−LUTを用いた補間処理等によってローゼットなどの(第2の)像構造を予測する処理を施し、予測される像構造の強度が調整された共通色空間上の3刺激値データXYZ(400dpi)に変換する(ステップ10:第2像構造予測処理工程(以下、ローゼット強調工程または6D−LUT処理工程ともいう))。
【0037】
最後に、このローゼット強調工程S10を経てモアレおよびローゼット等の像構造が強調された3刺激値データXYZ(400dpi)が連続調プリンタ(デジタルカラープリンタ;DP)3に供給され、このDP3において、それらの3刺激値データXYZを図示しない色変換ルックアップテーブル等に基づいて出力デバイス(DP)3に依存する、例えば400dpiの3原色RGBデータ(デバイスデペンデントデータ)に変換し(ステップS11:色変換処理工程)、DP3の解像度である400dpiの色変換された3原色データに基づいてDP3によってカラー印刷プルーフCPbを出力する。
こうして、得られたカラー印刷プルーフCPbは、カラー印刷機によって作製されたカラー印刷物12とほぼ同様にモアレおよびローゼット等の像構造が忠実に再現され、かつカラー印刷物と色が一致するもので、カラー印刷物の正確なプルーフである。
【0038】
まず、本発明の特徴であるステップS8の6D−LUTの作成工程について説明する。
本発明法の特徴とするところは、本発明者らが特願平7−5257号明細書において提案した、処理に時間はかかるが、印刷の像構造の正確なシミュレーションが可能なカラー印刷プルーフの作成方法における像構造予測演算処理を代表的な色について適用し、その演算処理を行い、その結果を位置依存6D−LUTに保存しておき、実際のカラー印刷プルーフの作成に際しては、原画像から得られた網点画像(面積率)データに対して、上記演算処理を行う代わりに、位置依存6D−LUTを適用し、これを補間して用い、上記演算処理を上記原画像の網点画像データに行った結果と同様の結果を得ることにある。その結果、本発明法による実際の計算時間は、6D−LUTから補間する時間だけですむようになり、特願平7−5257号明細書に提案した像構造予測のためのデータ処理技術(以下、単に先行処理技術または先行データ処理技術という)に比し、大幅な時間短縮が図れることになる。
【0039】
従って、本発明においては、原画像からのカラー印刷プルーフの作成に先立って6D−LUTを作成しておく必要がある。図3は、本発明の特徴であるステップ8の6D−LUTの作成方法のフローの一実施例を示す図である。
まず、図3に示すように6D−LUT作成工程S8においては、先行データ処理技術を適用する代表色として、少なくとも3原色を含むn色(版)、例えば、ここではCMYKの4色(版)の各色(版)をN段、例えば、ここでは6段づつに分けて、全Nn 色、ここでは64 =1296色を決める(ステップS12:代表色決定工程)。ここで、6D−LUTを作用させる画像データは、網点面積率データaj(%)であるので、CMYKの4色の各々の各段の網点面積率データは、N段として、0%、100/(N−1)、2×100/(N−1)、・・・、(N−2)×100/(N−1)、100%、6段として、0%、20%、40%、60%、80%、100%である。以下、CMYK各色(版)の分段数は6段として説明する。
【0040】
ところで、本発明においては、この先行データ処理技術で行う網展開には有理数網を使用する。これは、有理数網を使うことにより、ローゼット等の像構造の繰り返しパターンを、モアレ等の像構造の場合と同様にmT ×nT 個の有理数網の長方形のブロックの画素の繰り返しにすることができるからである。ここで、mT ,nT は有理数網のサイズを、例えば400dpiに換算したものである。その結果、繰り返し網サイズ(画素サイズ)mT ×nT 個のデータを記録すれば全部の空間の網のローゼットの形を表現することが可能になるのである。こうして、6D−LUTのサイズを決めることができる。
従って、mT ×nT 個の長方形の大きさを持つ1296(Nn )個の各色単色画像に対して、このmT ×nT 周期を持つ網に相当する網展開を使うようにして先行データ処理技術を作用させる。なお、具体例としては、印刷線数175線、Y版網角度0度、C版網角度15度、M網版角度45度、K版網角度75度の印刷を400dpiの連続調プリンタでシミュレーションするのに、必要な繰り返し網サイズmT ×nT は43×43となる。
【0041】
その結果得られる6次元ルックアップテーブル(6D−LUT)は、1296個の各単色原画像の画素(ピクセル)の位置座標(x,y)(x=0〜mT −1、y=0〜nT −1)と、CMYK各色の段数(ステップ)を引数とするものであって、例えば、6DLUT[i][j][k][y][m][c]と表わすことができ、この各々にその色データ、例えば3刺激値データXYZを対応させたものである。
ここで、i=0〜42、j=0〜42、c=0〜5、m=0〜5、y=0〜5、k=0〜5であって、iは原画のx座標、jは原画のy座標、k、y、m、cは、各々KYMC版の段数を示し、段数が0段なら0%、1段なら20%、2段なら40%、3段なら60%、4段なら80%、5段なら100%に相当するものとする(なお、階調をN段に分けた場合のMN ステップ目は、一般にM×100/(N−1)(%)(ただし、MN は0〜N−1である)と表すことができる)。
【0042】
このような6DLUT[i][j][k][y][m][c]に対応する3刺激値データXYZは、1296個の単色画像のうちの1個の単色画像について、以下に説明する特願平7−5257号明細書に記載の先行データ処理技術を適用して、繰り返しサイズ43×43個の対応画素位置座標の3刺激値データXYZを求めればよい。
【0043】
ここで、この先行データ処理技術を説明するが、その理解の容易化のために、まず、アンチエリアジングフィルタ処理工程(ステップS17)について説明する。
このアンチエリアジングフィルタ処理工程は、DP3の解像度(第3の解像度または出力解像度ともいう)Re3(この実施の形態では、Re3=400dpi)でカラー印刷プルーフCPbを作成しようとするとき、このDP3の解像度Re3を原因とするエリアジング雑音(折り返し雑音)の発生を予め回避するために挿入した工程である。アンチエリアジングフィルタ処理を有効に行うためには、アンチエリアジングフィルタがかけられる原信号である画像データの解像度(第5の解像度)Re5がDP3の解像度Re3=400dpiより高い解像度になっていることが必要である。この実施の形態では、その解像度(中間解像度ともいう)Re5をRe5=1600dpiとする。
【0044】
アンチエリアジングフィルタのマトリクス(ここでは、要素数がn×nの正方マトリクスを考える)の構成について考える。
解像度1600dpi(=Re5)の画像データを解像度400dpi(=Re3)の画像データに変換する場合、400dpiの1ドット(1画素)が1600dpiの16ドット(4画素×4画素)に対応することからアンチエリアジングの効果を考えない場合のフィルタの最小限の要素数は4×4である。
そして、エリアジング雑音をできるだけ小さくするためには、アンチエリアジングフィルタの要素数は大きければ大きいほど望ましいが、演算速度、ハードウェア等との関係で限界がある。
【0045】
一方、色情報はノイゲバウア式によって再現できることからも類推されるように、直流成分を含む比較的低周波の成分を通過させる必要性から、直流成分の近傍ではできるだけ挿入損失が発生しないような周波数特性にする必要がある。したがって、マトリクスの中心の応答が0dBになることが理想である。
また、モアレ等の干渉縞成分{網周波数(スクリーン線数)成分の1/2以下の成分}はアンチエリアジングフィルタ処理を行ってもすべて残すようにしたい。
さらに、アンチエリアジングフィルタの減衰特性が急峻であると、このアンチエリアジングフィルタ処理を行うことによる新たな特異パターンが現れてしまうことも考慮しなければならない。
【0046】
図4は、このような観点を総合して作成した要素数が9×9のアンチエリアジングフィルタAFの構成を示している。なお、各要素をd(i,j)で表すとき、各要素d(i,j)の値(フィルタ係数ともいう)は全部加えて1.0にする必要性があることから、各要素d(i,j)の実際の値は各要素d(i,j)の総和{Σi=-4 4 Σj=-4 4 d(i,j)}で割っておく。このように構成したアンチエリアジングフィルタAFのフィルタ係数の配置は、図4から分かるように、その中央部分から外方に向かうにしたがってほぼ釣り鐘状的に単調減少的に減衰する周波数特性になっている。
【0047】
図5は、このアンチエリアジングフィルタAFの周波数特性を示している。図5において、横軸は解像度を示し、DP3の解像度Re3=400dpiを値1.0に規格化している。したがって、網周波数であるスクリーン線数(175線)は、値0.44(175/400)に規格化される。縦軸は応答を示し、図4中、中央の要素d(5,5)=121を値1.0に規格している。
図4例では、図5から分かるように、解像度1.0において、応答は約0.23であり、解像度0.44において、応答は約0.77である。
【0048】
なお、種々の例を検討した結果、解像度が網周波数(スクリーン線数に相当する)のときに応答が0.5(50%)以上で、解像度がカラーデジタルプリンタであるDP3の解像度1.0であるときに応答が0.3(30%)以下であれば、カラー印刷物12に現れるモアレ等の特異パターンをカラー印刷プルーフCPbで再現できることが分かり、かつエリアジング雑音を視認できない程度にできることが分かった。
以上の説明がアンチエリアジングフィルタAFのマトリクス{ここでは、要素数がn×n(9×9)の正方マトリクスとする}の構成の説明である。
【0049】
ステップS17のアンチエリアジングフィルタ処理工程後に得られる画像データは、解像度が400dpi(=Re3)である共通色空間上の画像データ(デバイス非依存の画像データ)、ここでは3刺激値データX,Y,Z(第2の3刺激値データX′、Y′、Z′という)になる。
アンチエリアジングフィルタAFによる処理がかけられる画像データ(3刺激値データX、Y、Z)の解像度は1600dpiに選択しているが、この画像データの1ドットは、2値データではなく、共通色空間上の画像データ、ここでは、3刺激値データ(第1の3刺激値データという)X、Y、Zである。
【0050】
この第1の3刺激値データX、Y、Zをノイゲバウア式を用いないで作成するため、ステップS12の代表色決定工程で得られた1296色中の1色の単色画像43×43画素の網点面積率データajと閾値マトリクス(これも、閾値テンプレートまたは網点テンプレートともいう)24を構成する各閾値とを比較器25で比較して、印刷のビットマップデータbj(=1600dpi)より高い解像度の2値データであるビットマップデータb′jに変換する(ステップS13)。
【0051】
この場合、閾値マトリクス(閾値テンプレート)24は、有理数網テンプレートを使用する。なお、閾値マトリクス24に係るスクリーン線数は印刷の場合と同じスクリーン線数であることがモアレ等を再現するために必須である。ここでは、スクリーン線数は175線とする。一方、解像度を上げるために、網点を作成するための閾値マトリクス24として要素数256×256=65536の閾値マトリクス24を用いる。なお、各要素中の閾値Tとしては、例えば、値0〜255をとるようにする。このようにして作成したCMYK4版分のビットマップデータb′jの解像度(第4の解像度)Re4はRe4=44800(256×175)dpiである。
【0052】
44800dpiのビットマップデータb′jを解像度Re5=1600dpiの第1の3刺激値データX、Y、Zに変換するためには、ビットマップデータb′jの28×28ドットを第1の3刺激値データX、Y、Zの1ドットに変換すればよい。この変換のために、データ処理部26を設けている(ステップS14)。
このステップS14を分かり易く説明するために、C版のビットマップデータb′jの28×28ドット分を図6(A)に示し、M版のビットマップデータb′jの28×28ドット分を図6(B)に示す。図6(A)、図6(B)中、図示していない要素の値は全て値「0」であると仮定する。また、残りのY版、K版のビットマップデータb′jの各要素もすべて値「0」であると仮定する。
【0053】
そこで、28×28ドットについて、CMYK4版分のビットマップデータb′j(ここでは、C版とM版の2版分のビットマップデータb′jでよいことはいうまでもない)を同時に参照して、色毎(版数が4版であるので24色の各色毎)の面積率ciを数え上げ部22で数え上げる処理を行う(ステップS15:数え上げ工程)。
【0054】
図6(A)、図6(B)例の画素(28×28ドット対応)において、色毎の面積率ciは、次のように算出される。
C色:ci=cC =3/784
(面積率cC はC版とM版とを重ねて透過的に見た場合、C色のみが存在している部分を表し、C色とM色の重複している部分はC+M=B色の面積率cC+M とする)
C+M色:cC+M =2/784
W色:cW =779/784
(C版とM版とを重ねて透過的に見た場合、C色とM色のいずれの色も存在しない部分)
残りの色(Y色、K色等の13色分)についての面積率ciはゼロ値である。このようにして1600dpiの第1の3刺激値データX、Y、Zを作成する。
【0055】
次に、従来の技術の項で詳しく説明したステップS3の処理(カラー印刷物12上に印刷された16色のべた色を測色計により測色する処理)により予め測色しておいた色毎の測色値データXi、Yi、Zi(iは、CMYKの4版の場合には、24 色=16色)に対してステップS15で数え上げた色毎の面積率ciを重み係数として加重平均部23により平均測色値データである第1の3刺激値データX、Y、Zを(8)式に示すように求める(ステップS16)。言い換えれば、測色値データXi、Yi、Ziを色毎の面積率ciで加重平均して第1の3刺激値データX、Y、Zを求める。
【0056】
Figure 0003904160
784(28×28)ドット毎の数え上げ処理(ステップS15)と加重平均処理(ステップS16)を44800dpiのビットマップデータb′jの全範囲で行うことにより、1600dpiの第1の3刺激値データX、Y、Zが得られる。
【0057】
次に、このようにして得られた1600dpiの第1の3刺激値データX、Y、Zに上述のアンチエリアジングフィルタAFを使用したアンチエリアジングフィルタ処理を行い、アンチエリアジングフィルタ処理後のDP3の解像度に等しい400dpiの第2の3刺激値データX′、Y′、Z′を作成する(ステップS17)。
図7は、このアンチエリアジングフィルタ処理の説明に供される線図である。図7(A)に示すように、1600dpiの第1の3刺激値データX、Y、Zの左上の9×9ドット分(中心画素要素e(5,5))に対して図4に示した要素がd(k,l)で表される9×9のアンチエリアジングフィルタAFを対応させ、対応する各要素を掛け算して、それらの総和を求めてアンチエリアジングフィルタ処理を行い、400dpiの第2の3刺激値データX′、Y′、Z′の要素e(1,1)を求める。すなわち、9×9ドット分の中心画素位置を(i´,j´)とし、第1の3刺激値データX、Y、Zの各要素をe(i´,j´,k,l)(X、Y、Zそれぞれについて、k,l=−4〜4)と表すとき、第1の3刺激値X、Y、Zのそれぞれに対してΣl=-4 4 Σl=-4 4 (d(k,l)×e(i´,j´,k,l)を求め、それぞれの値を解像度400dpiの第2の3刺激値データX′、Y′、Z′とする。なお、上述したようにアンチエリアジングフィルタAFの総和はΣl=-4 4 Σl=-4 4 d(k,l)=1(k,l=’4〜4)に規格化しているが、少数を含む掛け算は時間がかかるので、アンチエリアジングフィルタAFの各要素の値は図4に示した値をそのまま用いて、d′(k,l)とするとき、Σl=-4 4 Σl=-4 4 (d′(k,l)×e(k,l))/Σl=-4 4 Σl=-4 4 d′(k,l)(k´,l=−4〜4)としてアンチエリアジングフィルタ処理後の値を求めてもよい。
【0058】
この場合、アンチエリアジングフィルタ処理では、解像度1600dpiの第1の3刺激値データX、Y、Zを解像度400dpiの第2の3刺激値データX′、Y′、Z′に変換するのであるから、第1の3刺激値データX、Y、Zに対するアンチエリアジングフィルタ処理は、図7(B)に示すように、アンチエリアジングフィルタAFを第1の3刺激値データX、Y、Zの4ドット分を、例えば、右側または下側にずらして行えばよい。こうして、1600dpiの第1の3刺激値データX、Y、Zの解像度を低下させて400dpiの第2の3刺激値データX′、Y′、Z′を得ることができる。この時、400dpiの第2の刺激値データX´、Y´、Z´の各要素を、その位置座標を(i+1,j+1)(i,j=0〜42)としてe´(i+1,j+1)で表わし、これと対応し、9×9のアンチエリアジングフィルタAFで処理される9×9ドット分の1600dpiの第1の刺激値データX、Y、Zの要素を、その中心要素の位置座標を(i´,j´)とし、9×9ドット分の各位置を(k,l)(k,l=−4〜4)としてe(i´,j´,k,l)で表わし、9×9アンチエリアジングフィルタAFの各要素をd(k,l)(k,l=−4〜4)で表わすと、i´=4i+5,j´=4j+5となるので、下記式(9)が得られる。
Figure 0003904160
【0059】
上記式(9)に従って、400dpiの第2刺激値データX´、Y´、Z´の各要素e´(i+1,j+1)をi,j=0〜42までの繰り返し単位(サイズ)の43×43要素について求めることにより、1個の単色画像(例えば、K=20・k0%、Y=20・y0%、M=20・m0%、C=20・c0%)についてのルックアップテーブル、例えば6DLUT[i][j][k0][y0][m0][c0]を求めることができる。このようなルックアップテーブルを1296個の単色画像について求めることにより、6DLUT[i][j][k][y][m][c](i,j=0〜42、k,y,m,c=0〜5)を作成することができる。
【0060】
図3に示すように、こうして特願平7−5257号明細書記載の先行データ処理方式によって1296色についてmT ×nT 画素のサイズで計算して得られた低解像度(出力解像度、400dpi)の3刺激値データXYZを対応付けて蓄えておくことにより、6D−LUT27を作成することができるが、さらに、色の精度を上げたい場合やローゼット等の像構造のコントラストを調整したい場合には、6D−LUT27にさらに以下の2つの後加工処理を施しておくのが好ましい。
【0061】
図3に示すように6D−LUT27に対してまたは後述する後加工処理2を施した後に、色の精度を上げるために、後加工処理1として色合わせ工程(ステップS18)を行う。この色合わせ工程S18は、1296色の個々の色の43×43の領域での平均を目標の色にあわせる工程である。この工程S18は、各色を目標の色の色にあわせるために、1296色の43×43の領域の全画素について行う。この処理は各色(1296色)を1まとまりにして行い、1296回に分けて行う。この色合わせ工程S18は、以下の2つのステップからなる。
(1ステップ)各色の6D−LUTの適用結果をプルーフプリンタで出力する。
この色を測色計で計測し、計測結果をXout,Yout,Zoutとする。
【0062】
(2ステップ)各色を領域43×43の平均の色が目的の色にあうように次の式(10)によって演算を行う。43×43の領域のどこかの点の色をXi,Yi,Zi(i=1〜43×43)とし、処理結果をXi´,Yi´,Zi´(i=1〜43×43)、目標にしている色をXa,Ya,Zaとすると、次の式(10)で表わされる。
Xi´=(Xi/Xout)×Xa
Yi´=(Yi/Yout)×Ya
Zi´=(Zi/Zout)×Za …(10)
こうして得られた3刺激値データX´、Y´、Z´を6D−LUT27に蓄えられていた3刺激値データと入れ換えて、色合わせされた調整6D−LUT28を得ることができる。この色合わせされた調整6D−LUT28を用いることにより、モアレや像構造の再現の忠実性はもちろん色の再現性の精度も高いカラー印刷プルーフを作製することができる。
【0063】
図3に示すように、6D−LUT27あるいは後加工処理1を施した後に、ローゼットのコントラストを強調するために、後加工処理2として、ローゼット強調工程(ステップS19)を行う。ローゼット強調工程S19は、ローゼット等の像構造のコントラストを強調する工程である。この工程S19では、色合わせ工程S18と同様に1296色の43×43個の各画素に対して演算を行い、個々の処理は各色を単位に1296回に分けて行う。このローゼット強調工程S19は、以下の2つのステップからなる。
【0064】
(3ステップ)先ず、各色の43×43の領域の色の平均値を求める。ここで、個々の色をXi’,Yi’,Zi’(iは43×43の領域のどこかの点を示す)とすると、平均値Xave、Yave、Zaveは、下記式(11)で表される。なお、i=1〜43×43である。
Xave=(ΣXi’)/(43×43)
Yave=(ΣYi’)/(43×43)
Zave=(ΣZi’)/(43×43) …(11)
ここで、Σは、i’が1から43×43までの和を意味する。
【0065】
(4ステップ)次に個々の色に対し、平均値Xave、Yave、Zaveを各々中心としてそれぞれ個々の色Xi’,Yi’,Zi’と平均値Xave、Yave、Zaveとの距離を拡大する。ここで、処理結果をXi’’,Yi’’,Zi’’すると,これらは下記式(12)で表される。なお、i=1〜43×43である。
Xi’’=Xave×{(Xi’/Xave)^γ}
Yi’’=Yave×{(Yi’/Yave)^γ}
Zi’’=Zave×{(Zi’/Zave)^γ} …(12)
ここで、γはローゼットの強調度合である。また、記号^は、ベキ乗を示すものとする。すなわち、A^γはAのγ乗をあらわす。
【0066】
このローゼットの強調度合γは、その大きさに特に制限はないが、通常、0.8〜3.0で変化させ、その値が大きいほどローゼットは鮮明なものとなる。しかし、ローゼットの強調度合γを大きくすると、その適用結果は個々のXi’’,Yi’’,Zi’’をプルーフプリンタの色再現域の外の色に変換してしまうことが多くなる。そこで、目標色Xaがプルーフプリンタの再現域の外にある場合や再現域の境界に近い場合はローゼットの強調度合γを小さくするのがよい。ローゼットの強調度合γによるγ乗の適用結果がプリンタの色再現域の中か外かは、3刺激値データXYZをプルーフプリンタのデバイス依存RBGに変換することで調べることができる。
その結果、43×43個の画素の色のうちどれだけの色(割合)が、どれくらいの量(距離)だけ再現域から出るかを計算して、これらの割合や距離やこの2つを組み合わせた判断基準が一定量以下になるように、ローゼットの強調度合γを決めなおすことで、43×43個の点の平均色が目標色からのずれ量を小さくすることができる。
【0067】
これらの後工程処理において、色合わせ工程S18およびローゼット強調工程S19のいずれか一方のみを実施した調整6D−LUTによって、モアレ等の像構造が忠実に再現され、かつ、高精度に色が調整された、またはローゼットの強度が調整されたカラー印刷プルーフを得ることができるが、これらの両工程S18およびS19をこの順序で1回行えば、忠実なモアレに加え、強度調整されたローゼットとともに高い色精度を得ることができる。
また、上述の両工程S18およびS19をこの順序で複数回行うことにより、または、これらの両工程S18およびS19をこの順序で1回行った後、色合わせ工程S18のみを複数回繰り返すことにより、無限に印刷物に近い色再現を実現することができる。
【0068】
こうして得られた6DLUT[i][j][k][c][m][y]が、例えば、6DLUT[1][2][3][4][5][0]であったとすると、この項には、画像の座標が(1,2)であって、K版60%、Y版80%、M版100%、C版0%である色の400dpiの3刺激値データXYZ値が対応している。
また、有理数網の定義から、座標(x,y)=(47,91)、K,C,M,Y=(20%,20%,20%,20%) の色は、6DLUT[4][5][2][2][2][2]の項に記録してあるXYZ値と同じである。その理由は、この43×43サイズの有理数網を使うことにより、43画素毎に同じ色の画素が繰り返されるので、4画素目と47画素目のデータとは同じデータであるからである。一般に(x,y)=(i0,j0)の画素のデータは出力機の解像度で数えた有理数網のサイズをmT ×nT とすると(x,y)=(i0%mT ,j0%nT )画素のデータと同じである。なお、この場合の%は剰余演算(割ったときの余りを出す演算)を意味する。
このようにして、予め、代表的な色についての6D−LUTは、準備される。この後、実際のカラー印刷プルーフの作成に際しては、この6D−LUT27を参照し、補間して用いることにより、従来に比し大幅な時間短縮を図ることができる。
【0069】
ところで、この6D−LUTによる変換処理については後述するが、この6D−LUTによる処理は、処理(計算)時間を短縮できる反面、6D−LTUの適用結果は、個々の画素に対して演算を行っていた上述の先行データ処理方式に較べてモアレのコントラストが低下するという副作用があり、モアレ等の像構造が忠実に再現されない恐れがある。これは、この先行データ処理方式では非常に細かい解像度(1600dpi)で計算していたが、本発明方式では原画像の画素単位(解像度400dpi)でしか計算しなくなったために、原画像と絵柄の干渉(これがモアレの原因であるが)のうちの高周波成分が失われたことが原因である。
しかし計算時間を短縮するためには、計算の画素密度を高める(1600dpiとする)ことはできない。そこで、その補償手段としてモアレ等の像構造強調フィルタ処理を適用し、まず、原画像の中のモアレ成分だけを強調し、その後で6D−LUTを作用させるのが好ましい。こうすることにより、モアレ等の像構造もローゼット等の像構造のいずれも忠実に再現することができる。
【0070】
次に、ステップS9のモアレ等の像構造強調処理工程(以下、単にモアレ強調工程という)について説明する。図1に示すように、モアレ強調工程S9は、画像原稿から得られ、色変換処理工程S2おいて変換された各版(例えばCMYK)の各画素の網点面積率データajを、本発明の特徴とする6D−LUTに作用させる前に、印刷線数(スクリーン線数)と網角度と原画像の絵柄等との組み合わせに依存して印刷画像に表れるモアレ等の像構造が強調された網点面積率データaj’に変換するもので、変換しようとする画素(以下、計算対象画素ともいう)を含む近傍画素の画素値の重みを印刷の線数LPI、網角度θにより決定される格子の周期に依存して求め、この重みを印刷画像を出力する印刷機に応じた発生強度のモアレ等の像構造となるようにモアレの強度の強調率αにより調整し、調整された重みにより重み付け平均して変換するものである。
【0071】
この工程における近傍画素の重み付け平均処理は、図8に示すように、まず、位置依存の重みを印刷の線数LPIと網角度θにしたがって決定するステップ(ステップS21)、その位置依存重みをモアレ強度の強調率αにしたがって調整するステップ(ステップS23)、および調整された重みにしたがって近傍画素の値を重み付けで平均して各画素の値を求めるステップ(ステップS24)からなる3つのステップによる第1の処理によるものと、位置依存の重みを印刷の線数LPI、網角度θにしたがって決定するステップ(ステップS21)、その重みをさらに強調するステップ(ステップS22)、強調された重みをモアレ強度の強調率αにしたがって調整するステップ(ステップS23)、および調整された重みにしたがって近傍画素の値を重み付けで平均して各画素の値を求めるステップ(ステップS24)とからなる4つのステップによる第2の処理によるものとが基本的に考えられる。
【0072】
この場合、ステップS21における位置依存の重みの決定処理は、ある関数により発生する方法としてもよいが、重みの発生に時間がかかるので、ルックアップテーブルを参照する方法としてもよい。
また、ステップS23における位置依存の重みの調整処理は、決定された位置依存の重みを調整するもので、決定された位置依存の重みと変換しようとする画素位置では1、それ以外の位置では0である関数とをモアレ強度の強調率αを使って内分または外分する方法としているが、他の強調割合の調整方法を採用してもよい。
また、ステップS24における重み付け平均処理は、あるマスクサイズをもった畳み込み積分による加重マトリクス(以下、加重フィルタまたは重み付けフィルタともいう)を用いた処理(以下、フィルタ処理ともいう)、すなわち、積和処理で行うことにより、処理の高速化を図ることができる。なお、重み付け平均処理を加重マトリクスフィルタ処理で行う場合には、重み調整処理された加重マトリクスフィルタ処理とするのがよい。
【0073】
また、加重マトリクスを設計する場合には、フィルタ処理後の画素による画像(絵柄)のつながりを滑らかに(自然に)するために、図8にステップS25で示すように、近隣画素の位置重みが計算対象画素から遠ざかるにしたがい低減する減少フィルタ(以下、減衰フィルタともいう)処理、すなわちアンチエリアジング処理を行うようにしてもよい。
また、プルーフHP、SP上の画像の鮮鋭度(シャープネス、いわゆるシャープ感)が印刷物上の画像と同じ鮮鋭度となるようにするために、図8にステップS26で示すように、減少フィルタ処理後の加重フィルタにシャープネスフィルタ(以下、強調フィルタともいう)を作用させた加重マトリクスフィルタを重み付け平均処理用のマトリクスフィルタとして利用するようにしてもよい。通常、プリンタによりシート上に形成されるドットは、レーザ光等による記録ドットの形状がガウシャン等の形状になっていることから、記録ドットによる画像エッジがなまり(画像エッジがぼけ)、このようなステップS26の鮮鋭(シャープ)化処理が有用である。
【0074】
また、ステップS27におけるシャープネス強度の調整処理は、減少フィルタ処理後の加重フィルタにシャープネスフィルタの強調割合を調整するもので、シャープネスフィルタとフィルタ中心位置では1、それ以外の位置では0であるフィルタとをシャープネス強調の割合βを使って内分または外分する方法としているが、他の強調割合の調整方法を採用してもよい。
ところで、図8に示す例においては、ステップS23の重みの調整処理後にステップS24の重み付け平均処理を行って調整された重みによって重み付け平均された画素値を求めているけれども、本発明はこれに限定されるわけではなく、ステップS21またはS22において求められた位置依存の重みを用いて、先にステップS24の重み付け平均処理を行って重み付け平均された画素値を求め、この重み付け平均画素値と元の原画像の画素値とをモアレ強度の強調率αを使って内分または外分することにより、調整重みによる重み付け平均画素値を求めるようにして、結果的にステップS23の重みの調整の効果を得るようにしてもよい。
【0075】
次に、モアレ強調工程S9の説明においては、網点面積率データajおよびaj’(j=C,M,Y,K)を、それぞれ代表してDおよびD’で表すものとする。重み付け平均処理は、上述したように、出力解像度(プルーフ解像度)上の座標(i,j)の画素データ(画素値)をD(i,j)とし、近傍画素の重み付け平均処理後の座標(i,j)の画素データ(画素値)をD’(i,j)としたとき、ステップS24における畳み込み積分処理後(変換後)の画素値D’(i,j)は、次の(13)式で表すことができる。
Figure 0003904160
ここで、W(i,j,k,l,LPI,θ)は重み(重み関数ともいう)であり、その合計値が1.0になるように正規化されている。k,lは、計算対象画素D(i,j)の重み付け平均処理を行う(2m+1)×(2n+1)の矩形範囲の近傍画素の座標を示す(2m+1および2n+1は自然数で、計算対象画素座標位置(i,j)を中心とする近傍画像の幅および高さ(サイズ)を示す)。
【0076】
(13)式中、重み関数W(i,j,k,l,LPI,θ)は、いわゆる周波数干渉を起こさせるための関数であって、原画像を構成する画素のうち、ある周期的なピッチ(印刷の線数LPIに依存するピッチ)およびある傾き(網角度θに相当する傾き)を持つ格子上の特定の点に相当する位置にある画素値の重みを高める処理を行う関数である。印刷の場合、印刷の線数LPIおよび網角度θが決定されれば、各版のLPIおよびθは定数と考えることができるので、この重み関数W(i,j,k,l,LPI,θ)は、CMYK版のいずれについても重み関数W(i,j,k,l)(以下、単にWともいう)とすることができる。そこで、以下の説明においては、ステップS21またはステップS22で求められた位置依存重み関数WをCMYK版のいずれについても位置依存フィルタF(i,j,k,l)で表し、ステップS23で求められたモアレ強度が調整された重み関数WをCMYK版のいずれについてもモアレ強度調整フィルタF’(i,j,k,l)で表すものとする。上記式(13)は下記式(14)で表される。
Figure 0003904160
【0077】
ここで、強度が調整されたフィルタF’(i,j,k,l)は下記式(15)で表すことができる。
Figure 0003904160
ただし、E(k,l)は、中心の係数が1.0でそれ以外が0.0の係数マトリックス(Eは画素座標位置(i,j)に依存しない)である。
αは、モアレの強度の強調率である。なお、α=1ならば強調をする前と同じ状態、すなわちF(i,j,k,l)に等しく、α=0ならばモアレの強度は0になり、モアレシミュレーションを行わない場合(原画そのもの)に等しい。
i,jは、画像の画素の位置座標であって、矩形画像のサイズ(ピクセル数)をwidth × height とするとi=0〜height−1、j=0〜width −1である。
k,lは、畳み込み積分を行う際の補助変数である。
ところで、本発明においては、強度調整フィルタF’(i,j,k,l)による重み付け平均画素値D’(i,j)を以下のようにして求めてもよい。
ここで、位置依存フィルタF(i,j,k,l)による重み付け平均画素値をDa(i,j)とする時、画素値Da(i,j)は下記式(16)によって与えられるので、上記式(14)に上記式(15)を代入し、得られた式に下記式(16)を代入することにより、変換画素値D’(i,j)は下記式(17)によって与えられることになる。
Figure 0003904160
【0078】
次に、図8のステップS21の処理における重み付け用の重み(ウエイト)を計算する(決定する)方法の基本的な例として以下の2つの方法がある。
第1の方法は、印刷の網展開用のCMYK各版の閾値マトリクス(閾値テンプレートまたは有理数網テンプレートともいい、通称スーパーセルとも呼ばれる)を直接的に、換言すれば、ルックアップテーブルとして使用して重みを計算する方法である。第2の方法は、重みを計算するために、網格子座標系の各格子点(格子と格子の交点)、もしくは格子点の中点、または格子中の任意の所定の1点を中心に、各中心から外側に向かって重みが単調に減少するかまたは増加する関数を用いる方法である。
なお、重み付け用の重みとしては、いずれの方法で計算した重みを用いても同様なモアレ等の像構造予測(像構造シミュレーション)結果が期待できる。
【0079】
次に、図9のフローチャートを参照して、重みを計算する方法を説明するが、以下の説明においては、計算の簡便さと、計算時間の短さとを考慮して、印刷の網展開用の各版の閾値マトリクスTM′を直接的に使用して重みを計算する方法を用い、C版の加重マトリクスの作成例を代表例として具体的に説明する。なお、他の版の加重マトリクスも以下に説明するC版と全く同様の手順で作成することができる。
ここでは、画像出力装置として、出力解像度が400dpi、RGB各色の濃度階調が256階調の、いわゆる濃度階調方式の連続調カラープリンタを用い、また、原画像データの解像度は、図1に示すステップS2に色変換処理工程において網点面積率データに変換された時には、出力解像度と同じ400dpiになっているものとする。
【0080】
また、用いられるカラーデジタルプリンタ(DP)3から出力されるカラー印刷プルーフ(ハードプルーフ)上でシミュレーションしようとする印刷のモアレ、線切れ、直線のがたつき等の像構造予測に対する印刷線数LPI、網角度θは任意であるが、ここでは、印刷線数LPIがLPI=175線、CMYK各版の網角度θは、θ=75度、45度、0度、15度であるものとして説明する。
なお、印刷では0度〜180度で網角度を取り扱うが、これは、網の形状が90度回転に対して対称性を持たないからである。しかし、網点の配列だけに注目すれば、網空間は90度で直交した座標系であるから、印刷の像構造予測の場合には、網角度θが90度〜180度の網は90度回転した値を用いればよく、0度〜90度のみを使用すればよい。
【0081】
加重マトリクス(以下、加重フィルタともいう)のマスクサイズは、1つの格子(網)中に、出力解像度に対応する画素が少なくとも1つ入るように決めれば、像構造を表現することができると考えられるので、ここでは、出力解像度を印刷線数で割って切り上げた値を意味する下記の(18)式によって規定される3×3のマスクサイズを有する加重マトリクスを作成するものとする。
INT(出力解像度/印刷線数)+1=INT(400/175)+1=3…(18)
なお、(18)式において、INT(X)は、Xの整数部分のみを残す演算を示す。
【0082】
図9に示すように、3×3加重マトリクスの各要素の値を決定する場合、印刷に用いられる閾値マトリクスである有理数網(有理網ともいう)テンプレートを利用することができる(ステップS31)。
図10に有理数網テンプレートの一例として、解像度が2000dpiで有理数網テンプレートサイズMMsizeが215(要素数を215×215)の有理数網テンプレートTM0′を示す。この有理数網テンプレートTM0′上での座標系を(i′,j′)とすると、座標i′および座標j′は、0〜214の値を取り、閾値th0′は215×215の要素に割り当てられ、その値は、例えば8ビットデータであるとすると、0から255のいずれかの値をとる。
この2000dpiの有理数網テンプレートTM0′から、原画像データIに作用させるための400dpi用の3×3の加重マトリクスを作成する場合には、2000dpiの5×5ドット(要素)が400dpiの1ドットに対応することを考慮すれば、まず、各5×5の要素からなる部分有理数網テンプレートの中央の閾値を抽出した43×43個の閾値からなる閾値テンプレートを作成することが考えられる(ステップS32)。
【0083】
図11は、このようにして作成した43×43個の閾値th0(i,j)からなる閾値テンプレートTM0の例を示している。なお、図11における閾値テンプレートTM0のマスクサイズMsizeは43である。
この場合の3×3加重マトリクスをwgt0(i,j,k,l)とすれば、これは、次の(19)式で表すことができる(ステップS33)。
Figure 0003904160
ここで、k,lは、k,l=−1,0,1であり、Σk Σl は、kおよびlについての−1〜1の総和を意味する。
【0084】
実際上、3×3加重マトリクスwgt0は、網位置座標(i,j)に対応した数分、この例では、Msize×Msize=43×43個だけ用意する必要があり、Msize×Msize個の場合には、これに制限された網位置座標が、(i%Msize,j%Msize)となる。なお、i%Msizeは、余剰演算であり、iをMsizeで割った余剰を意味する(例えばi=1、44、87の場合には、i%Msizeは、全て同じ値でi%Msize=1となる。)。なお、原画像データ中、4辺に存在する画素は、加重マトリクスの要素が存在しない部分を使用しなければならないので、その要素を決める計算が繁雑になり、また、4辺部分には、通常、重要な絵柄が存在しないので、この実施の形態においては、重み付け平均処理を行わないで、原画像データをそのまま使用するようにしている。
【0085】
次に、3×3加重マトリクスの他の例を説明する。この他の例は、図8を参照して説明した重みの強調ステップS22を実施するためのものである。
重みを強調する場合には、図10に示した2000dpiの閾値テンプレートTM0′を構成する各閾値th0′をそれぞれ空間的に強調してから3×3加重マトリクスwgt1を作成してもよいが、ここではすでに作成している図11に示した400dpiの閾値テンプレートTM0から3×3加重マトリクスwgt1を次の(21)式に従って、まず3乗の正規化演算を行うことで、強調後の閾値th1を作成し(ステップS34)、次にこれを下記式(22)に従って正規化処理して求めることができる(ステップS35)。
Figure 0003904160
ここで、k,l=−1〜1を意味する。
なお、図12は、強調後の閾値th1から構成される400dpiの閾値テンプレートTM1を示す。
【0086】
ここで、出力画像の400dpiを構成する各画素と隣り合う画素との間のつながりの滑らかさ、および僅かに目立つ400dpi以上の周期に相当する周波数成分の除去を望む場合には、、中心から周囲に向かって重みが減少(減衰)する3×3ローパスフィルタ(中心を低減成分と考えた場合の表現)を強調後の3×3加重マトリクスwgt1に作用させた3×3加重マトリクスwgt2を作成すればよい。3×3ローパスフィルタ(減少フィルタという)は、ぼかしフィルタまたはアンチエリアジングフィルタであると考えることができ、ここでは、図13に示す3×3ガウシャンフィルタGauss1(k,l){k,l=−1〜1}を使用する。
ガウシャンフィルタ処理施した3×3加重マトリクスwgt2は、(23)式で表すことができる(ステップS36)。
Figure 0003904160
ここで、k,l=−1〜1、i,j=0〜Msize−1を意味する。
【0087】
画素間をさらに滑らかにつなげたい場合には、図10に示す2000dpiの閾値テンプレートTM0の各閾値を3乗して正規化した閾値テンプレート(図示せず)(ステップS41)に対して、図14に示す中央の値が最も大きく周囲にいくにしたがって値が徐々に減衰するガウシャン特性に近似した要素の配列となっている2000dpiの解像度に対応した15×15のガウシャンフィルタGauss2(m,n)を出力解像度400dpiになるように作用させ(いわゆる解像度変換である)、下記式(24)に従って400dpiの重みマトリクスwgt3をまず作成する(ステップS42)。
Figure 0003904160
ここで、m,nは−7〜7、(i,j)は、400dpi空間上の座標で、i,j=0〜Msize−1、(5×i+m,5×j+n)および(m,n)はそれぞれ2000dpi空間上の座標(i′,j′)で、i′,j′=0〜MMsize−1である。i,jの乗数は、解像度変換のための定数である。
【0088】
次に、この43×43個(Msize=43)のアンチエリアジング処理後の重みマトリクスwgt3(i,j)を3×3加重マトリクスの43×43個に変換するためには、15×15の要素からなる重みマトリクスwgt3(i,j)の1個が3×3要素の加重マトリクスwgt4(i,j,k,l)の1個の対応するように変換し、下記式(25)に従って座標(i,j)を中心座標とする43×43個の3×3加重マトリクスwgt4の各要素を求めればよい(ステップS43)。
wgt4(i,j,k,l)
=Σm=5k-2 5K+2Σn=5l-2 5l+2wgt3(i,j,m,n)…(25)
この和は、m=5k−2〜5k+2,n=5l−2〜5l+2の5×5要素の総和、すなわち、ここではk、l=−1〜1より、m=−7〜7、n=−7〜7の要素、すなわち、15×15の要素を5×5部分の9個分に単純に分割したときの各5×5部分の総和である。
この3×3加重マトリクスwgt4に正規化処理を行って、下記式(26)により画素間をさらに滑らかにつなげることのできる3×3加重マトリクスwgt5を作成することができる(ステップS44)。
Figure 0003904160
ここで、(k,l)は、400dpi空間上のフィルタの中心からのシフト量を意味する。
【0089】
ところで、印刷物のシャープ感に近似したシャープ感を得るためには、上述の3×3の加重マトリクスwgt4に対してGauss2の逆の特性を有する空間強調フィルタ(シャープネスマトリクスまたはシャープネスフィルタともいう)による処理、またはGauss2の逆の特性より強い特性を有する空間強調フィルタによる処理を行った加重マトリックスwgt7を作成すればよい。
図15(a)は、Gauss2の逆の特性を有する逆フィルタであるシャープネスフィルタShp=Shp1の構成例を示している。
図15(b)は、シャープネスフィルタShp1よりさらに強い特性を有するシャープネスフィルタShp=Shp2の構成例を示している。
図15(c)は、シャープネスフィルタShp2よりさらに強い特性を有するシャープネスフィルタShp=Shp3の構成例を示している。
なお、各フィルタShp1、Shp2、Shp3の横軸と縦軸とをそれぞれi,k,r,j,l,sで表しているのは、後述する式を使用する際の見通しの良さを得るためであり、いずれも400dpi上の座標系(i,j)と同一の座標系上のものである。また、各フィルタShp1、Shp2、Shp3毎の要素の総和は1となっている。
【0090】
まず、加重マトリクスwgt7を作成するには、まず、下記式(27)に従って、加重マトリクスwgt4に対してシャープネスフィルタShpを施した加重マトリクスwgt6を作成する(ステップS45)。
Figure 0003904160
ただし、wgt4(i+r,j+s,k−r,1−s)のうち、k−r,l−sが値−1〜1の範囲を超えるものについては、wgt4(i+r,j+s,k−r,l−s)=0とみなす。また、Shp(r,s)は、図15(a)、図15(b)、図15(c)のそれぞれに示したシャープネスフィルタのいずれかである。
次に、このwgt6を正規化することにより、下記式(28)に従って3×3加重マトリクスwgt7を作成することができる(ステップS46)。
Figure 0003904160
ここで、k,lは、k,l=−1,0,1である。
【0091】
ところで、シャープネスの強さを原画像や印刷条件(線数、網角度、印刷濃度)に加え、対象とする印刷機に応じて、プルーフのシャープネスの強度を調整する場合には、通常の3×3または5×5程度のシャープネスフィルタ処理を行う場合のシャープネスフィルタ強度、例えば、USM(アンシャープネスマスク)処理を行う場合のUSMの強度を調整すればよい。ここで、シャープネスフィルタShp1、Shp2、Shp3などの100%強度時のUSMをU(k,l)とする時、U’(k,l)を強度調整後のUSM(フィルタ)とし、βをシャープネス強調の割合とすると、シャープネス強度調整フィルタは、下記式(29)で求めることができる(ステップS47)。
U’(k,l)=β(−E(k,l)+U(k,l))+E(k,l)…(29)
ここで、(k,l)は、フィルタの座標を示し、U(k,l)およびU’(k,l)が3×3シャープネスフィルタであるとすると、k,l=−1〜1である。E(k,l)は上述したように中心が1.0、その余が0.0である係数マトリックスである。
【0092】
こうして得られた強度調整シャープネスフィルタU’(k,l)を位置依存フィルタF(i,j,k,l)やF’(i,j,k,l)、例えば、具体的にはwgt0、…wgt4、wgt5またはこれらの加重フィルタをモアレ強度調整した加重フィルタなどに組み込み、最終的にはシャープネス強度が調整されたシャープネスフィルタU’(k,l)とモアレ強度が調整された位置依存フィルタF’(i,j,k,l)などとを1つの重み平均処理用のフィルタに合成し、合成フィルタによって計算対象画素を変換するのが好ましい。
この合成フィルタの作成の一例を示す。ステップ47で得られた強度調整シャープネスフィルタU’(k,l)と先に求めた3×3加重マトリックスwgt4(i,j,k,l)とを上記式(27)と同様にして合成し、下記式(30)で示す3×3加重マトリックスwgt8(i,j,k,l)を作成する(ステップS48)。
Figure 0003904160
ただし、wgt4(i+r,j+s,k−r,1−s)のうち、k−r,l−sが値−1〜1の範囲を超えるものについては、wgt4(i+r,j+s,k−r,l−s)=0とみなす。
次に、このwgt8を正規化することにより、下記式(31)に示す3×3加重マトリクスwgt9を作成することができる(ステップS49)。
Figure 0003904160
ここで、k,lは、k,l=−1,0,1である。
【0093】
図9に示すように、以上のようにして得られた3×3加重マトリクスwgt0,wgt1,wgt2,wgt5,wgt7,wgt9のいずれかをモアレ強度調整されていない位置依存フィルタF(i,j,k,l)として、上記式(15)に従ってモアレ強度の強調率αによる調整を行うことにより、重み付け平均用の調整3×3加重マトリクスF’(i,j,k,l)を求め(ステップS50)、得られた3×3加重マトリクスF’(i,j,k,l)を(13)式の重み関数Wとすることで、すなわち上記式(15)に従って原画像データ(網点面積率データaj’)を計算することで、1回の演算でシャープネス強度を調整したシャープネス処理とモアレ強度を調整した像構造シミュレーションとを同時に行うことができる。
こうして、ステップS9のモアレ強調工程においては、この3×3加重マトリクスF’(i,j,k,l)を使用して、原画像データ(網点面積率データaj)を重み付け平均処理したモアレ強度調整画像データ(網点面積率データaj’)を求めることができる。
【0094】
ところで、本発明においては、シャープネスおよびモアレ強度の調整は以下のように行うのが好ましい。
モアレシミュレーションの強度の強調率αを60%〜180%(0.6〜1.8)とすることでプルーフ上のモアレの強度が大きく変化することを目視で確認した。通常の印刷物に対しては120%程度で見かけが近くなるため、60%〜180%にしておけば多くの印刷物に対応することが可能であることから、このような場合、モアレの強度の強調率αは、0.6〜1.8であるのが好ましい。
【0095】
一方、シャープネスの強調に関しては、連続調プリンタの印字ドットがガウシアン関数に似た空間分布を持つために連続調プリンタでプリントした画像は多少ぼやけることと、印刷が細かい点で構成されることに起因して視覚的にシャープに見えてしまうことは上述したとおりである。従って、これを修正するためには実際の印刷物に対してわざとシャープネスをかけないとプルーフと印刷物を見かけ上同じシャープネスにすることはできない。5×5のUSMマスクを使用し、400dpiの連続調プリンタ、ピクトログラフィー3000(富士写真フイルム社製)を使用し、175線印刷物をシミュレーションするプルーフを作成した場合には、シャープネスの強調割合(強度)βが0%〜80%で大きなシャープネスの変化を目視で観察でき、50%程度で印刷物に近いシャープネスを得ることができた。通常の印刷に対しても0%〜80%を使用することで多くの印刷物に対応するプルーフを作ることができることから、このような場合、シャープネスの強調割合βは、0.0〜0.8であるのが好ましい。
【0096】
こうしてステップS9のモアレ強調工程で得られたモアレ強度調整画像データ(網点面積率データaj’)は、次のステップS10の6D−LUT処理工程に送られ、ローゼット等の像構造の強調処理に供される。
ステップS10の6D−LUT処理工程(ローゼット強調工程)について説明する。図1に示すように、6D−LUT処理工程S10は、ステップS9のモアレ強調工程によってモアレ等の像構造が強調された網点面積率データa´j(j=CMYK)を、ステップS8の作成工程で予め作成されている6D−LUTを使って補間処理してモアレ等の第1の像構造を残したまま、ローゼット等の第2の像構造を再現し、強調することのできる共通色空間データである3刺激値データXYZに変換する第2像構造予測(シミュレーション)処理工程である。なお、aj’の添字jはCMYKを表わし、位置座標(i,j)とは異なるものであるので、以下の説明では、ja で表すものとする。
【0097】
なお、この6D−LUTの使用方法は、特に制限的ではなく、他の分野で、違うデバイスや媒体(例えば、CRTモニタとプリンタ間、デジタルスキャナデータとプリンタデータ間)間で見かけが同じ画像を作るためにLUTを使う場合と同じであり、体積補間や線形補間や面積補間や組み合わせ法などがあるが、本発明ではCMYKの4色(版)からなる4次元空間を補間するので、1次元空間を線形補間する場合、2次元空間を面積補間する場合、3次元空間を体積補間する場合の延長と考え、3次元空間での体積に当たる4次元量を4次元空間における4次元体積と定義し、4次元空間をこの4次元体積を使って補間する場合を代表例として説明する。
【0098】
座標(i1,j1)におけるKYMC値がそれぞれ(k,y,m,c)である例について説明する。ここで、k、y、m、cはそれぞれk0とk1,y0とy1,m0とm1,c0とc1の間にあって、k0、y0、m0、c0とk1、y1、m1、c1は全部、N段分けした場合の各段のどれかであって(6段の場合、0か20か40か60か100%のいずれかである)、k0、y0、m0、c0よりk1、y1、m1、c1は各々1つ上の段だとする(例えば、kについてのみ表わすと、k0=20%、k1=40%であり、すなわち、k0≦k≦k1である)。
そして6DLUT[i][j][k][y][m][c]に相当するXYZ値ををそれぞれ[i][j][k][y][m][c].X、6DLUT[i][j][k][y][m][c].Yおよび6DLUT[i][j][k][y][m][c].Zと表わすとすると、まず、原画像の位置座標(i1,j1)でのXYZ値は、有理数網の定義より、次の式(32)を満たす(i2,j2)でのXYZ値に等しい。
i2=i1%mT 、j2=j1%nT …(32)
ただし%は剰余演算であり、i2<mT 、j2<nT となり、mT ×nT は有理数網のサイズであるとする。従って、i2およびj2は6D−LUT内の位置座標となる。
【0099】
ここで、6D−LUTを補間して求めた結果を6DLUT(i、j、k、y、m、c).X〜Zとすると、下記式(33)によって計算することができる。
Figure 0003904160
Figure 0003904160
ここで、i2=i1%mT 、j2=j1%nT であり、YVxxxxは頂点(kw,yw,mw,cw) (これは、(kx,yx,mx,cx)と対角線上にある頂点である)と点(k,y,m,c)を含む4次元単位格子(3次元での立方体に相当するものとして定義される4次元立方体である)の4次元体積である。また、V=(k1−k0)(y1−y0)(m1−m0)(c1−c0)である。
なお、YVxxxxの各々のxは、0か1のどちらかをとり、kw,yw,mx,cwの各wも0か1のどちらかであって、xが0ならwは1、xが1ならwは0となるよう定める。
【0100】
こうして、原画像の位置座標が、(i1,j1)である画像データ(CMYKの網点面積率データaja ´)から6D−LUT27を用いて(参照して)、モアレなどの第1の像構造およびローゼットなどの第2の像構造が強調され、対象とする印刷機などに応じて調整された共通色空間であるCIEXYZ表色系の3刺激値データXYZを求めることができる。この3刺激値データXYZを原画像の全座標位置について求めることにより、全画像の3刺激値データXYZを得ることができる。こうして得られた全画像の3刺激値データXYZは、DP3に送られ、次のステップS11のデバイス依存の色変換処理工程に供される。
【0101】
次にDP3におけるステップS11の色変換処理工程およびカラー印刷プルーフの作成工程に付いて説明する。
ステップS11の色変換処理工程は、ステップS10の6D−LUT処理工程で得られ、モアレおよびローゼットなどの像構造が強調された共通色空間の3刺激値データXYZをデバイス固有色空間データである、DP3などのデバイスに依存した階調画像データに変換する工程である。なお、ステップS8の6D−LUT作成工程において、6D−LUTを作成した時点で、変換データは表現される色空間が定まっており、この場合には、CIEXYZ表色系の3刺激値で表現されている。そこで、この工程では、これに見合う色をプルーフプリンタで出力するために、出力デバイス(連続調カラープリンタやCRTなどのディスプレイ)に依存した値(例えば、デバイス依存のRGB等)に変換する必要がある。この変換処理においては、3刺激値データXYZからデバイス依存RGBデータへ変換するための色変換LUT(ルックアップテーブル)を用いて補間してDP3でカラー印刷プルーフを出力するためのRGB画像データを求める。
【0102】
こうして得られたRGB画像データを用いて、DP3はカラー印刷プルーフを出力する。このようにして作成されたハードコピー上の画像、すなわち、カラー印刷プルーフCPbは、カラー印刷物12と色が一致するのはもちろんのこと、網点画像に現れる特異な像構造をも忠実に再現している。すなわち、カラー印刷プルーフCPb上には、カラー印刷物12上に現れるのとほぼ等しいモアレ、ローゼット等の像構造(特異パターン)が忠実に再現される。
本発明に係る像構造予測処理方法およびこれを実施するカラー印刷作成システムは、基本的に以上のように構成される。
【0103】
なお、上述のステップS8の6D−LUT作成工程の例においては、測色値データXi、Yi、Ziを用いて平均測色値データである第1および第2の3刺激値データX、Y、Z、X′、Y′、Z′を作成しているが、これに代替して色度値データまたは濃度値データ等の他の共通色空間データ(デバイスインディペンデントデータ)を用いて平均測色値データを作成してもよい。要は、ステップS10のローゼット強調工程において、網点面積率データなどの画像データを6D−LUTを用いてローゼットなどの像構造が強調された画像データに変換する際に、これらの画像データを、デバイスに依存しない色空間(共通色空間)上で測定したデータを用いて共通色空間上の平均測色値データで作成するようにすればよい。また、閾値マトリクス14、24の配列としては、網点の配列がランダムな、いわゆるFMスクリーンを用いた場合でも、本発明を適用してカラー印刷プルーフを作成することができる。
【0104】
また、図3を参照して説明したように、ステップS13におけるビットマップデータb′jへの展開処理(網展開処理ともいう)と、これに続くステップS14のデータ処理においては、DP3の解像度Re3=400dpiの解像度画素の大きさの数分の1の大きさ,例えば、中間解像度(Re5=1600DPI)画素の第1の3刺激値データX、Y、Zを求めている。すなわち、まず、中間解像度の1画素をもっと小さい微小エリア[上述の解像度Re4=44800DPIの1ドット]で構成される28ドット×28ドット(図6(A)、図6(B)参照)に分け、その微小エリアの各々が16原色のどの色であるかを調べ、調べた16原色の点の数を中間解像度画素毎に集計し(上述のステップS15の数え上げ処理)、その点の数の重みで予め測定してある16原色の3刺激値データXi、Yi、Ziを重み付け平均化することで中間解像度の1画素の第1の3刺激値データX、Y、Zを求めている。この場合、16原色の色毎の面積率ci、すなわち、存在確率をPiとすると、下記式(34)により第1の3刺激値データX、Y、Zを求めることができる。
X=Σ(Pi×Xi)、(i=1〜16)、Y、Zも同様 …(34)
ところで、この微小エリアの各点が何色であるかは、ステップS13の比較処理として説明したように、閾値マトリクス24の閾値TとCMYKの網点面積率データajの値(網%:網点面積率)を比較することで簡単に求めることができるが、中間解像度画素の色の精度を確保するには、微小エリアの数を28×28ドット等、非常に多くしなければならないため計算に長時間を要している。
このため、本発明者が特願平8−179122号明細書に提案した、累積ヒストグラムを用いる簡便な手法を用いてもよい。
【0105】
この簡便な手法は、中間解像度画素毎に存在確率(網存在確率ともいう。)Piを、例えば、上述したノイゲバウア式のような確率的な近似法で求める。すなわち、次の(35)式により存在確率Pi(i=1〜16)を求める。
P1 =(1−Pc)(1−Pm)(1−Py)(1−Pk)
P2 = Pc ・(1−Pm)(1−Py)(1−Pk)
P3 =(1−Pc)・ Pm ・(1−Py)(1−Pk)
P4 = Pc ・ Pm ・(1−Py)(1−Pk)
P5 =(1−Pc)(1−Pm)・ Py ・(1−Pk)
P6 = PC ・(1−Pm)・ Py ・(1−Pk)
P7 =(1−Pc)・ Pm ・ Py ・(1−Pk)
P8 = Pc ・ Pm ・ Py ・(1−Pk)
P9 =(1−Pc)(1−Pm)(1−Py)・Pk
P10= Pc ・(1−Pm)(1−Py)・Pk
P11=(1−Pc)・ Pm・ (1−Py)・Pk
P12= Pc ・ Pm・ (1−Py)・Pk
P13=(1−Pc)(1−Pm)・ Py ・Pk
P14= Pc ・(1−Pm)・ Py ・Pk
P15=(1−Pc)・ Pm ・ Py ・Pk
P16= Pc ・ Pm ・ Py ・Pk …(35)
このとき用いるC、M、Y、K各色の存在確率Pc、Pm、Py、Pkは、地道な方法では、網点面積率データajと閾値マトリクス24の各閾値Tと比較して求めるのであるが、網点面積率データajの値C(M、YまたはK)は、中間解像度レベルでは同じ値であるが、閾値Tは微小エリアの位置によって変わる。そこで、ステップS13における比較工程を中間解像度毎にまとめて処理することで処理を高速化してもよい。そのためには、中間解像度の1画素分の微小エリアの数、すなわち、28ドット×28ドット(28閾値×28閾値)毎の閾値Tの累積ヒストグラムを作成すればよく、累積ヒストグラムの縦軸は累積度数であり、この累積度数は存在確率Piに対応する。
【0106】
また、印刷における本紙である印刷用紙に存在する紙の質感、例えば、第1に刷版で均一な画像が刷版からインキが転移された本紙上の印刷再生画像では、もやもやとランダムに変化する濃淡パターンとして感じる、いわゆる「むら感」、第2に再生画像のエッジ部分を乱すような細かで(「むら感」より比較的短周期)ランダムに変化する濃淡パターンとして感じる、いわゆる「ざらつき感」、第3に本紙の紙種類毎に特有の濃淡パターンとして感じる、いわゆる「テクスチャー感」などをも、カラー印刷プルーフに再現したい場合、あるいはさらにこのような像構造シミュレーションにおける色ずれなども補正したい場合には、本発明者の出願に係る特願平7−273297号明細書および同8−80283号明細書に記載の方法を本発明の像構造予測処理のステップ9のモアレ強調工程やステップ10のローゼット強調工程などの像構造シミュレーション処理工程、またはその前後に紙の質感の補正処理およびまたは色ずれの補正処理などを付加してもよいことは勿論である。
さらに、本発明において、好ましい処理として追加するモアレ強調工程S9のモアレ強調調整処理やシャープネス強調調整処理なども上述した実施例に限定されるわけではない。
【0107】
実際に、連続調カラープリンタとして、400dpiの写真方式のデジタルプリンタ、富士写真フイルム社製「ピクトログラフィ3000」を用い、印刷の線数が175線、CMYKの網角度がそれぞれ15度、45度、0度、75度である印刷物を本発明の像構造予測処理方法に従った図1に示すカラー印刷プルーフ作成システム10によってシミュレーションして、カラー印刷プルーフCPbを得た。ここでは、網を43×43の大きさの1個の網のパターンの繰り返しで表現し(ピクトログラフィー上で1辺約2.73mmの正方形)、モアレ強調度αを1.2、シャープネス強調割合βを0.5、ローゼット強調割合γを2.0にした(ただし、デジタルプリンタ「ピクトログラフィ3000」の色再現域の境界に近い色は、例外的にγは0.0に近い値とした)。
また、図16に示す従来のカラー印刷プルーフ作成システムを適用して、同様にデジタルプリンタ「ピクトログラフィ3000」でカラー印刷プルーフCPaを作成した。
【0108】
こうして得られたカラー印刷プルーフCPb上の画像と、実際にカラー印刷機を用いて作成した印刷紙上の画像と、従来のカラー印刷プルーフ作成システムを適用して作成されたカラー印刷プルーフCPaとを比較したところ、本発明法が適用されたカラー印刷プルーフCPb上の画像では、カラー印刷機を用いて作成したカラー印刷物12上の画像に現れるモアレ、ロゼット等の特異パターンを忠実に再現でき、その他、ざらつき感、ジャンプ感についても、従来のシステムのノイゲバウア式を用いてデジタルプリンタで作成したカラー印刷プルーフCpa上の画像に比較して、カラー印刷機で作成した印刷紙上の画像により近い画像を作成することができ、良好なシミュレーション結果を得ることができた。
なお、本発明法による演算をアップル社製のPowerMacintosh9500/132を使用して行った処、A4、1枚につき計算時間は10分であり、従来に比べ、数分の1から数十分の1に短縮でき、演算時間の大幅な短縮を実現することができた。
【0109】
本発明に係る像構造予測処理方法について、種々の実施例を挙げて説明したが本発明は、上述した実施例に限定されず、例えば、画像出力装置として連続調プリンタに限らず、ディスプレイモニタを使用する等、本発明の要旨を逸脱しない範囲で種々の改良や設計の変更が可能なことは勿論である。
【0110】
【発明の効果】
以上説明したように、本発明によれば、従来、例えば、400DPI程度の低解像度のカラープリンタ等では、2000DPI程度のカラー印刷物に現れる特異パターンを再現することができないとされていたが、画像出力装置用のデバイス非依存の印刷プルーフ用データを作成する際に、ノイゲバウア式を用いないで、印刷網の閾値マトリクスから高解像度のビットマップデータに展開して各色毎の面積率を求め、これを測色データの重み係数として低解像度の平均測色値データを計算することのできる位置依存の多次元、例えば2つの位置パラメータと3つまたは4つの色パラメータの5または6次元のルックアップアップテーブルを用いることにより、手軽で、安定した性能が出せる連続調プリンタなどの画像出力装置、すなわち低解像度のカラープリンタ等を使って、高価な網方式のプルーフと同様な印刷物の網点に起因する現象をシミュレーションすることが可能になり、再現することができる。その結果、本発明法で作成された印刷プルーフ用データをカラープリンタ等の画像出力装置に供給することにより、この画像出力装置の出力画像が担持されたカラー印刷プルーフ上で、カラー印刷物に特有のモアレおよびロゼット等の像構造を正確かつ忠実に、かつ短時間で再現することができる。
【0111】
また、本発明法によれば、像構造シミュレーションの演算時間の大幅な短縮を実現することができる。
また、本発明法によれば、色の再現精度を向上させることができ、より印刷物の色と近いプルーフを作ることができる。
また、本発明法によれば、モアレ等の劣化などの像構造的な副作用や色精度の低下を伴うことなく、像構造シミュレーションでのローゼットなどの像構造の強度を強めることができる。
また、本発明法によれば、像構造シミュレーションでのローゼットの強度を印刷対象毎に最適化するために、ローゼットなどの像構造の強さを調整することができる。
【0112】
さらに、本発明法によれば、モアレ、線切れ等の像構造も、好ましくは、シャープネス性(シャープ感)を損なうことなく、ハードプルーフまたはソフトプルーフ上で正確、簡易かつ短時間に予測することができる。
また、本発明によれば、像構造シミュレーション(プルーフ)上のモアレの強度とシャープネスの強度を調整することが可能であるので、ローゼット等の像構造と共に印刷機に合わせたシャープネスやモアレのシミュレーションが可能になり、より忠実度の高いプルーフを作成することが可能になる。
さらにまた、本発明法によれば、平均測色値データに、色補正と共に平均予測測色値データを中心に広げるような処理を施すようにルックアップテーブルを作成しているので、再現色が純色に近くなり、結果として、ローゼットパターン等の像構造をより一層忠実に再現することができる。
【図面の簡単な説明】
【図1】 本発明に係る像構造予測処理方法を実施するカラー印刷プルーフ作成システムの一実施例およびカラー印刷システムの基本的な流れを説明するフロー図である。
【図2】 図1に示すカラー印刷システムのビットマップデータ作成工程の説明に供される線図である。
【図3】 図1に示すカラー印刷プルーフ作成システムの6次元ルックアップテーブル作成工程の一実施例の基本的な流れを説明するフロー図である。
【図4】 図3に示す6次元ルックアップテーブル作成工程に用いられるアンチエリアジングフィルタの一例の構成を示す線図である。
【図5】 図4に示すアンチエリアジングフィルタの周波数応答の一例を示す線図である。
【図6】 図3に示す6次元ルックアップテーブル作成工程において、比較的高解像度のビットマップデータから平均測色値データを作成する際の説明に供される線図であって、(A)は28×28ドット分のC版のビットマップデータ一例を示す線図であり、(B)は28×28ドット分のM版のビットマップデータ一例を示す線図である。
【図7】 図3に示す6次元ルックアップテーブル作成工程において、平均測色値データに対してアンチエリアジングフィルタをかける際の説明に供される線図であって、(A)はその最初の処理工程に係る線図であり、(B)は次の処理工程に係る線図である。
【図8】 図1に示すカラー印刷プルーフ作成システムのモアレ強調工程の一実施例の基本的な流れを説明するフロー図である。
【図9】 図8に示すモアレ強調工程における種々の加重マトリクスの生成の説明に供給される工程の一例の基本的なフロー図である。
【図10】 図8に示すモアレ強調工程に用いられる2000dpiの有理数網テンプレート(閾値マトリクス)一例の一部を示す線図である。
【図11】 図8に示すモアレ強調工程に用いられる400dpiの加重マトリクスの一例を示す線図である。
【図12】 図8に示すモアレ強調工程に用いられる閾値強調後の400dpiの加重マトリクスの一例を示す線図である。
【図13】 図8に示すモアレ強調工程に用いられる3×3ガウシャンフィルタの一構成例を示す線図である。
【図14】 図8に示すモアレ強調工程に用いられる15×15ガウシャンフィルタの一構成例を示す線図である。
【図15】 (a)は図8に示すモアレ強調工程に用いられるガウシャンフィルタの逆の特性を有する逆フィルタであるシャープネスフィルタの一構成例を示す線図であり、(b)は(a)のシャープネスフィルタよりさらに強い特性を有するシャープネスフィルタの一構成例を示す線図であり、(c)は(b)のシャープネスフィルタよりさらに強い特性を有するシャープネスフィルタの一構成例を示す線図である。
【図16】 従来のカラー印刷プルーフ作成システムのフロー図である。
【符号の説明】
2 画像原稿
3 カラープリンタ
12 カラー印刷物
14、24 閾値マトリクス
27 6次元ルックアップテーブル(6D−LUT)
aj 網点面積率データ
bj ビットマップデータ
ci 面積率
CPb カラー印刷プルーフ[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a color for calibration by an image output device such as a color printer or a CRT display before actually producing a color print by a halftone image (also referred to as a halftone image) by a color printing machine equipped with a printing plate. The present invention relates to an image structure prediction processing method that can be applied to a system for creating a print proof (also referred to as a color proof proof) to express an image structure such as moire or rosette on a color print proof.
[0002]
[Prior art]
  Conventionally, before producing a color print consisting of halftone dots as a product by a color printer, a color printing proof for proofing a color or the like is obtained for each image by a density gradation method (also called a continuous gradation method).PixelCreated with a color printer that forms
  In order to create a color printing proof, a color printer is used because the color printer has a relatively simple configuration and is inexpensive, and, as is well known, in a color printer, a plate-making film related to a color printing machine is used. This is because there is no need to create a printing plate or a printing plate, and a hard copy with an image formed on a sheet can be easily created a plurality of times in a short time.
[0003]
FIG. 16 shows a flow of a method for creating a color print proof according to a conventional technique using a color printer.
First, an image on the image original 2 is two-dimensionally read by an image reading device such as a color scanner having a CCD linear image sensor or the like, and a floor for each color of R (red), G (green), and B (blue). Tone (continuous tone) image data Ia is created (step Sl: image reading step).
[0004]
Next, the RGB gradation image data Ia is converted into four halftone dot area ratios for each color of C (cyan), M (magenta), Y (yellow), and K (black) using a color conversion processing lookup table or the like. Data (also referred to as halftone data or original pixel halftone data). aj (j = 0, 1, 2, 3: Here, the numerical value 0 corresponds to the C color, the numerical value 1 corresponds to the M color, the numerical value 2 corresponds to the Y color, and the numerical value 3 corresponds to the K color. (Step S2). This conversion can be carried out in various ways depending on the relationship with a color printer described later, and is usually the know-how of each printing company corresponding to the color printer.
[0005]
The image created by this color printing machine is a halftone image. Therefore, when actually creating a color printed matter, the halftone dot area ratio data aj after color conversion processing is developed into bitmap data, Although a prepress film or the like is created on the basis of this, an automatic developing machine (automatic machine) or the like is required, and the steps after the prepress film making process are considerably complicated.
[0006]
Therefore, in order to easily create a color printing proof, a color printer (hereinafter also referred to as a color digital printer or DP) 3 is used for the reasons described above. DP3 forms an image on a donor film by digitally controlling the emission intensity and time of an LED (light emitting diode) or laser corresponding to the three primary colors for each pixel by a density gradation method, and this is received on an image receiving sheet. The image is formed on the sheet, and an image is formed on the sheet, which is considerably cheaper than a color printing machine that makes a printing plate and prints using it. In addition, the volume is small and the weight is light.
[0007]
Therefore, in order to use DP3, the CMYK 4th halftone dot area ratio data aj created in step S2 do not depend once on a so-called device (printing, CRT, photograph, LED, etc.) (device-independent). It is necessary to convert image data (also called common color space data) into, for example, tristimulus value data X, Y, and Z.
For this reason, the image data processing unit performs image data processing for converting the halftone dot area ratio data aj of CMYK into tristimulus value data X, Y, and Z (step S4). Conventionally, as this image data processing, processing using the Neugebauer equation is employed.
[0008]
In this case, colorimetric value data Xi, Yi, Zi for each color is previously measured by a colorimeter (i is 2 in the case of the 4th version of CMYK).FourCorresponding to color = 16 colors, i = 0-15. ) Is measured (step S3). In this measurement, first, each color of 16 colors is printed in advance on a printing paper (so-called main paper) for producing a color printed matter by a color printing machine (usually referred to as solid printing), thereby creating a so-called color patch. . Specifically, the 16 colors correspond to the presence or absence of each of the C color, M color, Y color, and K color.FourColor = 16 colors.
[0009]
That is, W (white) as the ground color of the printing paper when nothing is printed, each color of only C, M, and Y as primary colors, K (black), and other mixed colors such as C + M, C + Y, C + K, A total of 16 colors (also referred to as 16 basic colors) of M + Y, M + K, Y + K, C + M + Y, C + M + K, C + Y + K, M + Y + K, and C + M + Y + K. These reflected colors formed on the printing paper are measured with a colorimeter, for example, a spectrometer, to obtain colorimetric value data Xi, Yi, Zi.
[0010]
In the processing using the Neugebauer equation, as shown in the following equation (4), the area ratio data bi (i = 0 to 15) is multiplied as each coefficient of the colorimetric value data Xi, Yi, and Zi to obtain image data. Tristimulus value data X, Y, and Z after processing are created (step S4).
X = Σi = 0 15bi ・ Xi
Y = Σi = 0 15bi ・ Yi
Z = Σi = 0 15bi · Zi (4)
Here, the area ratio data bi of the 16 basic colors as coefficients is obtained from the dot area ratio data aj by the probability calculation shown in the following equation (5).
[0011]
b0 = (1-c) (1-m) (1-y) (1-k)
b1 = c. (1-m) (1-y) (1-k)
b2 = (1-c) .m. (1-y) (1-k)
b3 = c.m. (1-y) (1-k)
b4 = (1-c) (1-m) .y. (1-k)
b5 = c. (1-m) .y. (1-k)
b6 = (1-c) .m.y. (1-k)
b7 = c.m.y. (1-k)
b8 = (1-c) (1-m) (1-y) .k
b9 = c. (1-m) (1-y) .k
b10 = (1-c) · m · (1-y) · k
b11 = c · m · (1-y) · k
b12 = (1-c) (1-m) .y.k
b13 = c · (1−m) · y · k
b14 = (1-c) · m · y · k
b15 = c · m · y · k (5)
[0012]
In formula (5), the dot area ratio data aj (j = 0 to 3) are set as a0 = c, a1 = m, a2 = y, and a3 = k so that an intuitive understanding can be easily obtained. . In this case, c, m, y, and k are halftone dot area ratio data. In the formula (5), for example, b3 is the area ratio of the C + M color, which is the probability c that the C version exists, the probability m that the M version exists, and the probability that the Y version does not exist (1− It is obtained by multiplying y) and the probability (1-k) that the K version does not exist by probability calculation. Therefore, the Neugebauer equation shown in equation (5) can be interpreted as an equation based on probability theory.
[0013]
The tristimulus value data X, Y, Z after image data processing created based on the equation (4) is supplied to DP3, and DP3 uses the tristimulus value data X, Y, Z as a lookup table (LUT). Color printing, which is a hard copy in which an image is formed on a sheet after color conversion processing is performed on data for each of the three primary colors related to the laser or the like (image data dependent on a device and also called intrinsic color space data) Proof CPa is created (step S4).
[0014]
[Problems to be solved by the invention]
However, as described above, when the tristimulus value data X, Y, and Z for DP3 are created using the Neugebauer equation, the color of the image formed on the color print created by the color printer is changed. Since the colorimetric values measured by the colorimeter are used, the color of the color printed material can be faithfully reproduced in the image on the hard copy, but the image structure appearing on the color printed material, such as moire or rosette There is a problem that the unique pattern resulting from the interference fringes cannot be reproduced in the image on the hard copy.
[0015]
If these image structures appear on the color printed matter, it is based on a request to faithfully reproduce the image structures on the color printing proof CPa output from the DP3. The technical color printing proof CPa cannot be said to be an accurate (faithful) proof for color prints in this regard.
[0016]
Note that the singular pattern does not appear in the image on the hard copy of DP3 because the Neugebauer equation is based on probability theory as described above.
Therefore, if the present inventors create pixel data that constitutes input image data for a color printer without using this Neugebauer equation, the image structure such as moiré and rosette peculiar to the printed matter can be accurately displayed on the color printing proof. As a result of earnest study from the viewpoint of whether or not it can be reproduced faithfully, in Japanese Patent Application No. 7-5257, it is possible to faithfully reproduce the color of the print, and to add moire and rosettes related to halftone dots. We have proposed a technology that can reproduce image structures such as
[0017]
Although the technique disclosed herein enables a network-based image structure to be simulated using a continuous tone printer, there is a problem that processing takes time. The reason why the processing speed is slow in this technology is that the amount of calculation for each pixel is large. The reason for the large amount of calculation for each pixel is that the printing is performed in order to simulate halftone dots. This is because the same calculation is performed for each pixel.
[0018]
The object of the present invention is to solve the above-mentioned problems of the prior art, use a relatively inexpensive and relatively low resolution image output device such as a color printer, etc., while maintaining its advantages such as simplicity, materials and machine cheapness. As with high-end machines, the image structure such as moire and rosette caused by halftone dots appearing on high-resolution color prints can be predicted and reproduced more faithfully. That is, it is to provide an image structure prediction processing method capable of performing simulation processing at high speed.
[0019]
In addition to the above object, another object of the present invention is to provide an image structure prediction processing method capable of simultaneously achieving a faithful simulation of the color of a printed material at the time of halftone dot image structure simulation processing. There is.
Another object of the present invention is to increase the color simulation accuracy of the printed matter and / or increase the contrast strength in the simulation of the image structure such as moire or rosette in addition to the above-mentioned objects. An object of the present invention is to provide an image structure prediction processing method that can be adjusted according to the appearance of a printed material.
[0020]
[Means for Solving the Problems]
To achieve the above object, the present invention converts an original image into halftone dot area ratio data containing at least three primary colors, and uses these dot area ratio data to produce a color produced by a color printer. In order to output a color print proof of a printed matter by an image output device, when converting to gradation image data for predicting the image structure of the color printed matter,
The dot area ratio data of 0% to 100% of each plate is divided into N stages in advance, and all NnThe gradation image data for predicting the image structure is obtained for each monochrome image of color, and has a repetitive pixel size necessary for the image structure prediction, and a position parameter and n color parameters are used as arguments. Create a lookup table with
It is an object of the present invention to provide an image structure prediction processing method characterized by converting n-th halftone dot area ratio data of the original image into the gradation image data with reference to the lookup table.
[0021]
Here, the halftone dot area ratio data of each plate of the original image is determined by the number of printed lines and the halftone angle in order to emphasize the image structure before being converted into the gradation image data. It is preferable to perform weighted averaging with neighboring pixels with an adjustable weight depending on the period.
[0022]
In addition, the weight depending on the period of the lattice is arranged in each element of the weighting matrix having the same mask size as the neighboring pixels, and the weight arranged in each element of the weighting matrix is F (i, j, k, 1), E (k, l) is a coefficient matrix having the same size as the weighting matrix, the center coefficient is 1 and the others are 0, and the weight adjustment rate is α. The weight F ′ (i, j, k, l) arranged in each element of the matrix is preferably given by the following formula (1).
Figure 0003904160
Here, (i, j) indicates the position of the original image coordinate of the pixel to be converted, and (k, l) indicates the position of the weighted matrix coordinate having the same mask size as the neighboring pixel.
[0023]
The lookup table is created by
A threshold matrix having a resolution higher than the resolution of the color printed material is referred to for each n-dot halftone dot area ratio data of the monochrome image, and each n-plate halftone dot area ratio data is bitmapped. Convert to data,
By referring to the n-bit bitmap data at the same time,nCount the area ratio of each color for each fixed range of the bitmap data,
2 abovenThe first average colorimetric value data is calculated using the area ratio counted for each fixed range as a weighting factor for the colorimetric value data for each color,
The first average colorimetric value data is sequentially subjected to anti-aliasing filter processing in a range larger than the pixels of the image output device, and converted to second average colorimetric value data corresponding to the pixels of the image output device. And
It is preferable to obtain the second average colorimetric value data as the gradation image data.
[0024]
Further, the gradation image data constituting the lookup table is the first gradation image data,
For each single color image, after outputting a test proof of the single color image with the image output device based on the first gradation image data, measure the color of the test proof with a colorimeter,
Using the obtained colorimetric value data and the target value data of the average value of the first gradation image data over all pixels of the repetitive pixel size, the first gradation of all pixels of the repetitive pixel size The image data is color-corrected to obtain second gradation image data,
It is preferable that the second gradation image data is used to form the look-up table, and for the monochromatic image, the colorimetric value data is Xout and the target value for one of the color values of a common color space. Data is Xa, the first gradation image data is Xi, the second gradation image data is Xpi, and the repetitive pixel size is m.T× nTWhen a pixel is used, the color correction process is preferably represented by the following formula (2).
Xpi = (Xi / Xout) × Xa (i = 1 to mT× nT(2)
[0025]
Further, the gradation image data constituting the lookup table is third gradation image data,
For each monochrome image, the third gradation image data is averaged over all pixels of the repetitive pixel size to obtain an average value,
In order to adjust the intensity of the image structure, the distance between the third gradation image data of each pixel and the average value is adjusted around the average value, and the intensity adjustment process of the image structure is performed. Obtaining fourth gradation image data;
Preferably, the fourth gradation image data is used to form the lookup table, and for the single-color image, the average value is Xave and the third floor is related to one of the color values of the common color space. The tone image data is Xqi, the fourth gradation image data is Xri, and the repetitive pixel size is m.T× nTWhen the image structure enhancement ratio is γ, the image structure intensity adjustment processing is preferably expressed by the following equation (3).
Xave = (ΣiXqi) / (mT× nT)
Xri = Xave × (Xqi / Xave) ^ γ) (3)
Where i = 1 to mT× nTAnd ΣiXqi is the same as Xqi from 1 to mT× nT(Xqi / Xave) ^ γ represents (Xqi / Xave) to the γth power.
[0026]
The color correction process and the image structure intensity adjustment process are preferably performed at least once in this order. Preferably, the color correction process and the image structure intensity adjustment process are performed once in this order, and then only the color correction process is repeated at least once.
[0027]
DETAILED DESCRIPTION OF THE INVENTION
An image structure prediction processing method according to the present invention will be described below in detail based on a preferred embodiment shown in the accompanying drawings.
FIG. 1 is a flowchart of an example of a color printing proof creation system and an example of a general color printing system that implements the image structure prediction processing method of the present invention. In the drawings to be referred to below, the same reference numerals are assigned to the components corresponding to those in the conventional color printing proof creation method shown in FIG. 16, and the description thereof is omitted as appropriate.
[0028]
Prior to the description of the color printing proof creation system 10 that implements the image structure prediction processing method of the present invention, first, a color printing system 11 that generally creates a color print by a color printer will be described.
In FIG. 1, reference numeral 11 denotes a configuration of a general color printing system. In a general color printing system 11, an image on an image original 2 is read two-dimensionally by an image reading device such as a color scanner having a CCD linear image sensor or the like, and R (red), G (green), B ( The gradation image data Ia for each color of blue is created (step S1: image reading process). In this case, for example, about Re1 = 400 dpi (Dot Per Inch) is selected as the resolution (first resolution) Rel of an image sensor such as a CCD linear image sensor. Here, 1 dot (dot) means a pixel by a density gradation method corresponding to one pixel and having a gradation of 256 or the like.
[0029]
Next, each pixel data constituting the RGB gradation image data Ia is obtained for each color of C (cyan), M (magenta), Y (yellow), and K (black) using a color conversion lookup table or the like. The data is converted into halftone dot area ratio data (also referred to as halftone data or original pixel halftone data as described above) aj (step S2: color conversion step). Since this conversion can be performed in various ways depending on the relationship with a color printing machine described later, it is usually the know-how of each printing company corresponding to the color printing machine. If UCR (under-color removal) processing is not performed, RGB gradation image data Ia may be converted into halftone dot area ratio data aj of C, M, and Y. Also. For example, when the Y color does not depend on the color printed matter 12, it is needless to say that it may be converted into halftone dot area ratio data aj of C and M.
[0030]
Next, the resolution (second resolution) Re2 is about Re2 = 2000 dpi with respect to halftone dot area ratio data aj for CMYK 4 plates created in pixel units (here, Re2 = 1600 dpi for ease of understanding). Referring to four printing threshold matrices (also referred to as threshold templates or halftone templates) 14 having a predetermined halftone angle with respect to each of the CMYK4 plates, the thresholds and the meshes in each element of the threshold matrix 14 are referred to. The value of the point area ratio data aj is compared with a comparison unit (not shown) and converted into binary data having a value “0” or a value “1”, that is, bitmap data bj (step S5: comparison step). . In general, the screen angle has an angle difference of 45 ° or the like between the threshold matrix 14 for the Y plate and the threshold matrix 14 for the M plate. In practice, the screen angle is, for example, CMYK. In the 4th edition, there are angular differences of 75 °, 45 °, 0 °, 15 °, etc. with respect to the reference, respectively.
[0031]
FIG. 2 is a diagram schematically illustrating the threshold matrix 14 and the like in order to explain in detail the comparison process (bitmap development process) in step S5.
In FIG. 2, the two diagrams drawn on the left and right of the uppermost stage represent that one dot of the dot area ratio data aj of 400 dpi is changed to 16 dots of the bitmap data bj of 1600 dpi.
[0032]
One dot of the halftone dot area ratio data aj is, for example, the C plate, and the halftone dot area ratio data aj is represented by 256 gradations, and its value is aj = 77 (which corresponds to 30% in% display, When the comparison process is performed, it is usually expressed by a gradation value such as 77, and the threshold value matrix 14 for the C plate is referred to. In the threshold value matrix 14, for example, threshold values T as shown in FIG. 2 are spirally arranged in the elements of the matrix. Although not described in detail because it is not directly related to the present invention, the threshold matrix 14 is virtually set. For example, thresholds of 8-bit gradations of 0, 1, 2,. Extract a threshold corresponding to one halftone dot in which T is spirally arranged from the center or a so-called supercell (for example, one threshold corresponding to nine halftone dots). Reconstructed.
[0033]
In FIG. 2, the expansion into the bitmap data bj, that is, binary data conversion is performed as shown in the following equations (6) and (7) as is well known.
aj ≧ T → 1 (6)
aj <T → 0 (7)
In this way, the bitmap data bj for the one pixel of the C plate shown in the lowermost stage of FIG. 2 (pixels with halftone dot area ratio data aj of aj = 30%) is created. As described above, the threshold matrix 14 for M, Y, and K has a predetermined selectable halftone angle with respect to the threshold matrix 14 for C plate.
[0034]
Next, on the basis of the bitmap data bj created in this way, each process by a photosetting machine, an automatic developing machine, etc. is performed (step S6: plate making process), and plate making of four plates having a halftone dot image as a block composition A film 16 and a PS plate (also referred to as a printing plate) 17 are prepared.
Finally, using this printing plate 17, a color printed matter 12 formed with a halftone dot image is created by a color printing machine having a rotary press or the like (step S7: printing process).
In the halftone image on the color printed matter 12, image structures such as moire and rosette generated by using the threshold value matrix 14 having different halftone angles appear.
A color printing system for producing a color print by a general color printing machine is configured as described above.
[0035]
Next, a color printing proof creation system 10 that implements the image structure prediction processing method of the present invention will be described.
In a color printing proof creation system (hereinafter simply referred to as a proof system) 10 shown in FIG. 1, first, for example, an image structure such as a rosette is predicted by a continuous tone printer from a CMYK dot area ratio data aj of 400 dpi in advance. It is necessary to create a 6-dimensional lookup table (hereinafter simply referred to as 6D-LUT) having position dependency for obtaining common color space data, for example, 400 dpi tristimulus value data XYZ (step S8: 6D-). LUT creation process). Thereafter, creation of a color printing proof is started. The proof system 10 shares an image reading process (step S1) and a color conversion process (step S2) with the color printing system 11.
[0036]
Next, the proof system 10 performs a process of predicting a (first) image structure such as moire on the halftone dot area ratio data aj (400 dpi) converted by the color conversion step S2, and the predicted image structure The intensity is adjusted (step S9: first image structure prediction processing step (hereinafter also referred to as moire enhancement step)). Next, the dot area ratio data a′j (for example, 400 dpi) in which the image structure such as moire is emphasized in the moire enhancement step S9 is subjected to interpolation processing using a position-dependent 6D-LUT or the like (second). A process for predicting the image structure is performed and converted into tristimulus value data XYZ (400 dpi) on the common color space in which the intensity of the predicted image structure is adjusted (step 10: second image structure prediction processing step (hereinafter, referred to as “step 3”)). Also referred to as rosette enhancement step or 6D-LUT treatment step)).
[0037]
Finally, tristimulus value data XYZ (400 dpi) in which image structures such as moire and rosette are emphasized is supplied to the continuous tone printer (digital color printer; DP) 3 through the rosette emphasizing step S10. The tristimulus value data XYZ is converted into, for example, 400 dpi three primary color RGB data (device dependent data) depending on the output device (DP) 3 based on a color conversion lookup table (not shown) (step S11: color) Conversion processing step), a color printing proof CPb is output by DP3 based on the three-primary color data that has undergone 400 dpi color conversion, which is the resolution of DP3.
The color printing proof CPb thus obtained is a color printing material 12 that is produced by a color printing machine, and has a similar image structure such as moiré and rosette, and has the same color as that of the color printing material. It is an accurate proof of printed matter.
[0038]
First, the 6D-LUT creation process in step S8, which is a feature of the present invention, will be described.
The feature of the method of the present invention is that a color printing proof proposed by the present inventors in Japanese Patent Application No. 7-5257, which takes time, but can accurately simulate the image structure of printing. The image structure prediction calculation processing in the generation method is applied to typical colors, the calculation processing is performed, the result is stored in the position-dependent 6D-LUT, and the actual color printing proof is generated from the original image. Instead of performing the above arithmetic processing on the obtained halftone image (area ratio) data, a position-dependent 6D-LUT is applied and used by interpolating it, and the arithmetic processing is used as the halftone image of the original image. The result is to obtain a result similar to that performed on the data. As a result, the actual calculation time according to the method of the present invention is only the time for interpolation from the 6D-LUT, and the data processing technique for image structure prediction proposed in the specification of Japanese Patent Application No. 7-5257 (hereinafter, simply referred to as “the simple calculation method”). Compared to the preceding processing technique or the preceding data processing technique), the time can be greatly reduced.
[0039]
Therefore, in the present invention, it is necessary to create a 6D-LUT prior to creating a color print proof from an original image. FIG. 3 is a diagram showing an embodiment of a flow of a 6D-LUT creation method in step 8 which is a feature of the present invention.
First, as shown in FIG. 3, in the 6D-LUT creation step S8, as representative colors to which the preceding data processing technology is applied, n colors (plates) including at least three primary colors, for example, four colors (plates) of CMYK here. Each color (plate) is divided into N stages, for example, 6 stages in this case.nColor, here 6Four= 1296 colors are determined (step S12: representative color determination step). Here, since the image data on which the 6D-LUT operates is the dot area ratio data aj (%), the dot area ratio data of each stage of the four colors of CMYK is 0% as N stages. 100 / (N-1), 2x100 / (N-1), ..., (N-2) x100 / (N-1), 100%, 6 steps, 0%, 20%, 40 %, 60%, 80% and 100%. In the following description, the number of divisions for each color (plate) of CMYK is six.
[0040]
By the way, in the present invention, a rational number network is used for network expansion performed by the preceding data processing technique. This is because, by using a rational number network, a repetitive pattern of an image structure such as a rosette can be changed to m as in the case of an image structure such as a moire.T× nTThis is because the pixels of a rectangular block of rational number networks can be repeated. Where mT, NTIs the size of the rational number network converted to, for example, 400 dpi. As a result, repetitive mesh size (pixel size) mT× nTBy recording individual pieces of data, it is possible to express the form of a network rosette in the entire space. In this way, the size of the 6D-LUT can be determined.
Therefore, mT× nT1296 (Nn) For each single color imageT× nTA prior data processing technique is operated by using a network expansion corresponding to a network having a period. As a specific example, printing with a printing line number of 175, a Y screen angle of 0 degrees, a C screen angle of 15 degrees, an M screen angle of 45 degrees, and a K screen angle of 75 degrees is simulated by a 400 dpi continuous tone printer. Repeating mesh size m required to doT× nTBecomes 43 × 43.
[0041]
The resulting 6-dimensional look-up table (6D-LUT) has 1296 position coordinates (x, y) (x = 0 to m) of pixels (pixels) of each monochrome original image.T−1, y = 0 to nT-1) and the number of steps (steps) of each color of CMYK, which can be expressed as, for example, 6DLUT [i] [j] [k] [y] [m] [c] Is associated with the color data, for example, tristimulus value data XYZ.
Here, i = 0 to 42, j = 0 to 42, c = 0 to 5, m = 0 to 5, y = 0 to 5, k = 0 to 5, and i is the x coordinate of the original image, j Indicates the y-coordinate of the original image, k, y, m, and c indicate the number of stages of the KYMC plate, respectively. If the number of stages is 0, 0%, 1 stage is 20%, 2 stages are 40%, 3 stages are 60%, 4 It is assumed that the level is 80% and the level is 100% (M in the case where the gradation is divided into N levels).NThe step is generally M × 100 / (N−1) (%) (however, MNIs 0 to N−1).
[0042]
The tristimulus value data XYZ corresponding to such 6DLUT [i] [j] [k] [y] [m] [c] is described below with respect to one single-color image out of 1296 single-color images. Applying the prior data processing technique described in Japanese Patent Application No. 7-5257, the tristimulus value data XYZ of the corresponding pixel position coordinates having a repetition size of 43 × 43 may be obtained.
[0043]
Here, the preceding data processing technique will be described. First, the anti-aliasing filter processing step (step S17) will be described for easy understanding.
This anti-aliasing filter processing step is performed when DP3 resolution (also referred to as third resolution or output resolution) Re3 (in this embodiment, Re3 = 400 dpi) is used to create a color print proof CPb. This is a process inserted to avoid the occurrence of aliasing noise (folding noise) caused by the resolution Re3. In order to effectively perform the anti-aliasing filter processing, the resolution (fifth resolution) Re5 of the image data that is the original signal to which the anti-aliasing filter is applied is higher than the resolution Re3 = 400 dpi of DP3. is required. In this embodiment, the resolution (also referred to as intermediate resolution) Re5 is set to Re5 = 1600 dpi.
[0044]
Consider the configuration of an anti-aliasing filter matrix (here, a square matrix having n × n elements is considered).
When converting image data with a resolution of 1600 dpi (= Re5) into image data with a resolution of 400 dpi (= Re3), one dot (1 pixel) at 400 dpi corresponds to 16 dots (4 pixels × 4 pixels) at 1600 dpi. When the effect of aliasing is not considered, the minimum number of elements of the filter is 4 × 4.
In order to minimize aliasing noise as much as possible, the larger the number of elements of the anti-aliasing filter, the better. However, there is a limit in relation to the calculation speed, hardware, and the like.
[0045]
On the other hand, as can be inferred from the fact that color information can be reproduced by the Neugebauer formula, it is necessary to pass a relatively low-frequency component including a DC component, so frequency characteristics that cause as little insertion loss as possible in the vicinity of the DC component. It is necessary to. Therefore, it is ideal that the response at the center of the matrix is 0 dB.
Further, it is desired that all interference fringe components such as moire {components of half or less of the network frequency (screen line number) component} be left even if the anti-aliasing filter processing is performed.
Furthermore, it must be considered that if the attenuation characteristic of the anti-aliasing filter is steep, a new unique pattern appears due to the anti-aliasing filter processing.
[0046]
FIG. 4 shows the configuration of the anti-aliasing filter AF having 9 × 9 elements created by comprehensively combining such viewpoints. When each element is represented by d (i, j), it is necessary to add all the values of the elements d (i, j) (also referred to as filter coefficients) to 1.0. The actual value of (i, j) is the sum of each element d (i, j) {Σi = -4 FourΣj = -4 FourDivide by d (i, j)}. As can be seen from FIG. 4, the arrangement of the filter coefficients of the anti-aliasing filter AF configured in this way has a frequency characteristic that attenuates in a monotonically decreasing manner in a substantially bell-like manner from the center to the outside. Yes.
[0047]
FIG. 5 shows the frequency characteristics of the anti-aliasing filter AF. In FIG. 5, the horizontal axis indicates the resolution, and the resolution Re3 = 400 dpi of DP3 is normalized to a value of 1.0. Accordingly, the screen frequency (175 lines), which is the network frequency, is normalized to a value of 0.44 (175/400). The vertical axis represents the response, and the center element d (5,5) = 121 in FIG.
In the example of FIG. 4, as can be seen from FIG. 5, at a resolution of 1.0, the response is about 0.23, and at a resolution of 0.44, the response is about 0.77.
[0048]
As a result of examining various examples, when the resolution is a network frequency (corresponding to the number of screen lines), the response is 0.5 (50%) or more, and the resolution is 1.0 of the resolution of the color digital printer DP3. If the response is 0.3 (30%) or less, it can be seen that a peculiar pattern such as moire appearing in the color printed matter 12 can be reproduced by the color printing proof CPb, and the aliasing noise cannot be visually recognized. I understood.
The above is the description of the configuration of the anti-aliasing filter AF matrix {here, a square matrix having n × n (9 × 9) elements}.
[0049]
The image data obtained after the anti-aliasing filter processing step in step S17 is image data (device-independent image data) on a common color space with a resolution of 400 dpi (= Re3), here, tristimulus value data X, Y , Z (second tristimulus value data X ′, Y ′, Z ′).
The resolution of image data (tristimulus value data X, Y, Z) to be processed by the anti-aliasing filter AF is selected to be 1600 dpi, but one dot of this image data is not binary data but a common color. The image data in space, here, tristimulus value data (referred to as first tristimulus value data) X, Y, Z.
[0050]
In order to create the first tristimulus value data X, Y, and Z without using the Neugebauer formula, a network of 43 × 43 pixels of one color of 1296 colors obtained in the representative color determination step in step S12. The dot area ratio data aj and each threshold value constituting the threshold value matrix (also referred to as a threshold value template or halftone dot template) 24 are compared by the comparator 25, and the resolution is higher than the bitmap data bj (= 1600 dpi) for printing. Is converted into bitmap data b′j which is binary data (step S13).
[0051]
In this case, the threshold matrix (threshold template) 24 uses a rational network template. Note that the number of screen lines related to the threshold matrix 24 is the same as that for printing in order to reproduce moire and the like. Here, the number of screen lines is 175 lines. On the other hand, in order to increase the resolution, the threshold value matrix 24 having 256 elements × 256 = 65536 is used as the threshold value matrix 24 for creating halftone dots. In addition, as the threshold value T in each element, the value 0-255 is taken, for example. The resolution (fourth resolution) Re4 of the bitmap data b′j for the CMYK4 version created in this way is Re4 = 44800 (256 × 175) dpi.
[0052]
In order to convert the bitmap data b′j of 44800 dpi into the first tristimulus value data X, Y, Z of resolution Re5 = 1600 dpi, 28 × 28 dots of the bitmap data b′j are converted to the first tristimulus data. What is necessary is just to convert into one dot of value data X, Y, and Z. For this conversion, a data processing unit 26 is provided (step S14).
In order to explain step S14 in an easy-to-understand manner, the 28 × 28 dots for the C version bitmap data b′j are shown in FIG. 6A, and the 28 × 28 dots for the M version bitmap data b′j. Is shown in FIG. In FIG. 6 (A) and FIG. 6 (B), it is assumed that the values of elements not shown are all “0”. Further, it is assumed that the remaining elements of the Y version and K version bitmap data b′j are all the value “0”.
[0053]
  Therefore, for 28 × 28 dots, reference is made simultaneously to bitmap data b′j for CMYK 4th edition (in this case, bitmap data b′j for 2nd edition of C edition and M edition may be used). Then, the area ratio ci for each color (each color of 24 colors because the number of plates is 4) is counted up.22The process of counting up is performed (step S15: counting process).
[0054]
In the pixel in the example of FIGS. 6A and 6B (corresponding to 28 × 28 dots), the area ratio ci for each color is calculated as follows.
C color: ci = cC= 3/784
(Area ratio cCRepresents a portion where only the C color exists when the C plate and the M plate are viewed transparently, and the overlapping portion of the C color and the M color is the area ratio c of C + M = B colorC + MAnd)
C + M color: cC + M= 2/784
W color: cW= 779/784
(When the C and M plates are overlapped and seen transparently, the portion where neither the C color nor the M color exists)
The area ratio ci for the remaining colors (13 colors such as Y color and K color) is zero. In this way, first tristimulus value data X, Y, and Z of 1600 dpi are created.
[0055]
Next, for each color that has been measured in advance by the processing of step S3 described in detail in the section of the prior art (processing for measuring the 16 solid colors printed on the color printed matter 12 by the colorimeter). Colorimetric value data Xi, Yi, Zi (i is 2 in the case of the 4th version of CMYK)FourThe first tristimulus value data X, Y, and Z, which are average colorimetric value data, are obtained by the weighted average unit 23 using the area ratio ci for each color counted in step S15 as a weighting factor for (color = 16 colors) (8). ) (Step S16). In other words, the first tristimulus value data X, Y, and Z are obtained by weighted averaging the colorimetric value data Xi, Yi, and Zi with the area ratio ci for each color.
[0056]
Figure 0003904160
By performing count processing (step S15) and weighted average processing (step S16) for every 784 (28 × 28) dots over the entire range of the bitmap data b′j of 44800 dpi, the first tristimulus value data X of 1600 dpi , Y, Z are obtained.
[0057]
Next, the anti-aliasing filter processing using the anti-aliasing filter AF described above is performed on the first tristimulus value data X, Y, and Z of 1600 dpi thus obtained, and the anti-aliasing filter processing is performed. Second tristimulus value data X ′, Y ′, Z ′ of 400 dpi equal to the resolution of DP3 is created (step S17).
FIG. 7 is a diagram for explaining the anti-aliasing filter processing. As shown in FIG. 7A, FIG. 4 shows 9 × 9 dots (center pixel element e (5, 5)) in the upper left of the first tristimulus value data X, Y, Z of 1600 dpi. Corresponding elements of 9 × 9 anti-aliasing filter AF represented by d (k, l) and multiplying the corresponding elements to obtain a sum of them, and performing anti-aliasing filter processing, 400 dpi The element e (1, 1) of the second tristimulus value data X ′, Y ′, Z ′ is obtained. That is, the center pixel position for 9 × 9 dots is (i ′, j ′), and each element of the first tristimulus value data X, Y, Z is e (i ′, j ′, k, l) ( For each of X, Y and Z, Σ for each of the first tristimulus values X, Y and Z when expressed as k, l = −4 to 4)l = -4 FourΣl = -4 Four(D (k, l) × e (i ′, j ′, k, l) is obtained, and the respective values are set as second tristimulus value data X ′, Y ′, Z ′ having a resolution of 400 dpi. As described above, the sum of the anti-aliasing filter AF is Σl = -4 FourΣl = -4 FourAlthough d (k, l) = 1 (k, l = '4 to 4) is standardized, multiplication involving a small number takes time, and the values of each element of the anti-aliasing filter AF are shown in FIG. If d ′ (k, l) is used as it is, Σl = -4 FourΣl = -4 Four(D ′ (k, l) × e (k, l)) / Σl = -4 FourΣl = -4 FourThe value after anti-aliasing filter processing may be obtained as d ′ (k, l) (k ′, l = −4 to 4).
[0058]
In this case, in the anti-aliasing filter processing, the first tristimulus value data X, Y, Z having a resolution of 1600 dpi is converted into second tristimulus value data X ′, Y ′, Z ′ having a resolution of 400 dpi. As shown in FIG. 7B, the anti-aliasing filter processing for the first tristimulus value data X, Y, and Z is performed using the anti-aliasing filter AF of the first tristimulus value data X, Y, and Z. For example, four dots may be shifted to the right side or the lower side. Thus, the resolution of the first tristimulus value data X, Y, Z of 1600 dpi can be reduced to obtain the second tristimulus value data X ′, Y ′, Z ′ of 400 dpi. At this time, each element of 400 dpi second stimulus value data X ′, Y ′, and Z ′ is set to (i + 1, j + 1) (i, j = 0 to 42) as e ′ (i + 1, j + 1). Corresponding to this, the element of the first stimulus value data X, Y, Z of 1600 dpi for 9 × 9 dots processed by the 9 × 9 anti-aliasing filter AF is represented by the position coordinates of the central element. And (i ′, j ′), each position for 9 × 9 dots is represented by e (i ′, j ′, k, l) with (k, l) (k, l = −4 to 4), When each element of the 9 × 9 anti-aliasing filter AF is expressed by d (k, l) (k, l = −4 to 4), i ′ = 4i + 5, j ′ = 4j + 5, and therefore, the following formula (9) Is obtained.
Figure 0003904160
[0059]
In accordance with the above equation (9), each of the elements e ′ (i + 1, j + 1) of the second stimulus value data X ′, Y ′, Z ′ of 400 dpi is represented by 43 × of a repeating unit (size) from i, j = 0 to 42. By determining about 43 elements, a lookup table for one monochrome image (for example, K = 20 · k0%, Y = 20 · y0%, M = 20 · m0%, C = 20 · c0%), for example, 6DLUT [i] [j] [k0] [y0] [m0] [c0] can be obtained. By obtaining such a lookup table for 1296 monochrome images, 6DLUT [i] [j] [k] [y] [m] [c] (i, j = 0 to 42, k, y, m , C = 0 to 5).
[0060]
As shown in FIG. 3, 1296 colors can be obtained by the preceding data processing system described in Japanese Patent Application No. 7-5257.T× nTThe 6D-LUT 27 can be created by associating and storing the tristimulus value data XYZ of low resolution (output resolution, 400 dpi) obtained by calculating with the pixel size. When it is desired to increase the contrast or to adjust the contrast of the image structure such as a rosette, the 6D-LUT 27 is preferably subjected to the following two post-processings.
[0061]
As shown in FIG. 3, a color matching step (step S18) is performed as post-processing 1 in order to increase color accuracy after 6D-LUT 27 or after post-processing 2 described later. This color matching step S18 is a step of matching the average of the 1296 individual colors in the 43 × 43 region to the target color. This step S18 is performed for all pixels in a 43 × 43 region of 1296 colors in order to match each color with the target color. This process is performed for each color (1296 colors) as a group, and is performed in 1296 times. This color matching step S18 includes the following two steps.
(1 step) The application result of 6D-LUT for each color is output by a proof printer.
This color is measured with a colorimeter, and the measurement results are Xout, Yout, and Zout.
[0062]
(2 steps) Each color is calculated by the following equation (10) so that the average color of the region 43 × 43 matches the target color. The color of any point in the 43 × 43 region is Xi, Yi, Zi (i = 1 to 43 × 43), and the processing result is Xi ′, Yi ′, Zi ′ (i = 1 to 43 × 43), If the target colors are Xa, Ya and Za, they are expressed by the following equation (10).
Xi ′ = (Xi / Xout) × Xa
Yi ′ = (Yi / Yout) × Ya
Zi ′ = (Zi / Zout) × Za (10)
The tristimulus value data X ′, Y ′, and Z ′ thus obtained can be replaced with the tristimulus value data stored in the 6D-LUT 27 to obtain a color-matched adjustment 6D-LUT 28. By using this color-adjusted adjustment 6D-LUT 28, it is possible to produce a color printing proof with high color reproducibility accuracy as well as moiré and image structure reproduction fidelity.
[0063]
As shown in FIG. 3, after performing the 6D-LUT 27 or the post-processing process 1, a rosette emphasis process (step S <b> 19) is performed as the post-processing process 2 in order to emphasize the contrast of the rosette. The rosette enhancement step S19 is a step of enhancing the contrast of the image structure such as a rosette. In this step S19, similarly to the color matching step S18, calculation is performed on 43 × 43 pixels of 1296 colors, and each process is performed 1296 times for each color. The rosette emphasizing step S19 includes the following two steps.
[0064]
(3 steps) First, an average value of colors in a 43 × 43 area of each color is obtained. Here, assuming that the individual colors are Xi ′, Yi ′, and Zi ′ (i indicates some point in the 43 × 43 region), the average values Xave, Yave, and Zave are expressed by the following formula (11). Is done. Note that i = 1 to 43 × 43.
Xave = (ΣXi ′) / (43 × 43)
Yave = (ΣYi ′) / (43 × 43)
Zave = (ΣZi ′) / (43 × 43) (11)
Here, Σ means the sum of i ′ from 1 to 43 × 43.
[0065]
(4 Steps) Next, with respect to individual colors, the distances between the individual colors Xi ', Yi', Zi 'and the average values Xave, Yave, Zave are enlarged with the average values Xave, Yave, Zave as the centers. Here, when the processing results are Xi ″, Yi ″, and Zi ″, these are expressed by the following formula (12). Note that i = 1 to 43 × 43.
Xi ″ = Xave × {(Xi ′ / Xave) ^ γ}
Yi ″ = Yave × {(Yi ′ / Yave) ^ γ}
Zi ″ = Zave × {(Zi ′ / Zave) ^ γ} (12)
Here, γ is the degree of enhancement of the rosette. The symbol ^ represents a power. That is, A ^ γ represents A to the power of γ.
[0066]
The magnitude of the rosette enhancement degree γ is not particularly limited, but is usually changed from 0.8 to 3.0, and the rosette becomes clearer as the value increases. However, when the rosette enhancement degree γ is increased, the application result often converts individual Xi ″, Yi ″, Zi ″ to colors outside the color gamut of the proof printer. Therefore, when the target color Xa is outside the reproduction area of the proof printer or close to the boundary of the reproduction area, it is preferable to reduce the rosette enhancement degree γ. Whether the application result of the power of γ by the rosette enhancement degree γ is in or out of the color reproduction range of the printer can be examined by converting the tristimulus value data XYZ into a device-dependent RBG of the proof printer.
As a result, calculate how much (distance) out of the 43 x 43 pixel colors and how much (distance) will come out of the reproduction area, and combine these ratios and distances. By re-determining the rosette emphasis degree γ so that the criterion is less than a certain amount, the average color of 43 × 43 points can be reduced from the target color.
[0067]
In these post-processes, the adjustment 6D-LUT in which only one of the color matching step S18 and the rosette emphasizing step S19 is performed, the image structure such as moire is faithfully reproduced, and the color is adjusted with high accuracy. Or, a color printing proof with adjusted strength of the rosette can be obtained, but if both of these steps S18 and S19 are performed once in this order, in addition to faithful moire, a high color with a strength-adjusted rosette. Accuracy can be obtained.
Further, by performing both the above-described steps S18 and S19 a plurality of times in this order, or after performing both the steps S18 and S19 once in this order, only the color matching step S18 is repeated a plurality of times, Color reproduction that is almost infinite to the printed material can be realized.
[0068]
If the 6DLUT [i] [j] [k] [c] [m] [y] obtained in this way is, for example, 6DLUT [1] [2] [3] [4] [5] [0] In this section, the coordinates of the image are (1, 2), and the 400 dpi tristimulus value data XYZ value of the color of K plate 60%, Y plate 80%, M plate 100%, C plate 0% Corresponds.
Further, from the definition of the rational number network, the color of coordinates (x, y) = (47, 91), K, C, M, Y = (20%, 20%, 20%, 20%) is 6DLUT [4] [5] [2] [2] [2] [2] It is the same as the XYZ value recorded in the item. The reason is that, by using the 43 × 43 size rational number network, pixels of the same color are repeated for every 43 pixels, so the data of the fourth pixel and the 47th pixel are the same data. In general, the pixel data of (x, y) = (i0, j0) is the size of the rational number network counted by the resolution of the output machine.T× nTThen (x, y) = (i0% mT, J0% nT) Same as pixel data. In this case, “%” means a remainder calculation (a calculation for calculating a remainder when divided).
In this way, a 6D-LUT for representative colors is prepared in advance. Thereafter, when an actual color printing proof is created, the 6D-LUT 27 is referred to and interpolated, so that the time can be significantly reduced as compared with the conventional case.
[0069]
By the way, although the conversion process by the 6D-LUT will be described later, the process by the 6D-LUT can shorten the processing (calculation) time, but the application result of the 6D-LTU is calculated for each pixel. There is a side effect that the contrast of moiré is reduced as compared with the above-described prior data processing method, and there is a possibility that the image structure such as moiré is not faithfully reproduced. This is calculated with a very fine resolution (1600 dpi) in the preceding data processing method, but in the method according to the present invention, it is calculated only in the pixel unit (resolution 400 dpi) of the original image. This is because the high-frequency component is lost (although this is the cause of moire).
However, in order to shorten the calculation time, the pixel density of the calculation cannot be increased (1600 dpi). Therefore, it is preferable to apply an image structure enhancement filter process such as moire as the compensation means, first enhance only the moire component in the original image, and then operate the 6D-LUT. By doing so, both the image structure such as moire and the image structure such as rosette can be faithfully reproduced.
[0070]
Next, an image structure enhancement processing step (hereinafter simply referred to as a moire enhancement step) such as moire in step S9 will be described. As shown in FIG. 1, in the moire enhancement step S9, halftone dot area ratio data aj of each pixel (for example, CMYK) obtained from the image original and converted in the color conversion processing step S2 is used as the present invention. A network in which the image structure such as moire appearing in the printed image is emphasized depending on the combination of the number of printed lines (number of screen lines), the mesh angle, and the pattern of the original image before acting on the characteristic 6D-LUT. A grid which is converted into point area ratio data aj ′ and whose weights of pixel values of neighboring pixels including a pixel to be converted (hereinafter also referred to as a calculation target pixel) are determined by the number of printed lines LPI and the mesh angle θ The weight is adjusted by the emphasis rate α of the moire intensity so as to obtain an image structure such as moire of the generated intensity according to the printing machine that outputs the print image, and weighted by the adjusted weight. What to convert on average It is.
[0071]
As shown in FIG. 8, the weighted average processing of the neighboring pixels in this step is performed by first determining a position-dependent weight according to the number of printing lines LPI and the mesh angle θ (step S21). A step according to three steps comprising a step of adjusting according to the intensity enhancement rate α (step S23) and a step of calculating the value of each pixel by averaging the values of neighboring pixels according to the adjusted weight (step S24). In step S21, a position-dependent weight is determined according to the number of printed lines LPI and the mesh angle θ (step S21), the weight is further emphasized (step S22), and the emphasized weight is determined as the moire intensity. The step of adjusting according to the enhancement factor α (step S23), and the neighborhood according to the adjusted weight And by a second treatment with four steps consisting of a step (step S24) are averaged values of the unit weighting determining the value of each pixel is considered essentially.
[0072]
In this case, the position-dependent weight determination process in step S21 may be a method that is generated by a certain function, but it may be a method that refers to a lookup table because it takes time to generate the weight.
The position-dependent weight adjustment processing in step S23 is to adjust the determined position-dependent weight, and is 1 at the pixel position to be converted with the determined position-dependent weight, and 0 at other positions. The function is divided internally or externally using the moire intensity enhancement rate α, but other enhancement ratio adjustment methods may be employed.
The weighted average process in step S24 is a process using a weighting matrix (hereinafter also referred to as a weighting filter or a weighting filter) by convolution integration having a certain mask size, that is, a product-sum process. By performing the above, it is possible to increase the processing speed. When the weighted average process is performed by the weighted matrix filter process, the weighted matrix filter process after the weight adjustment process is preferably used.
[0073]
When designing a weighting matrix, in order to smoothly (naturally) connect images (pictures) by pixels after filtering, the position weights of neighboring pixels are set as shown in step S25 in FIG. A reduction filter (hereinafter also referred to as an attenuation filter) process that decreases as the distance from the calculation target pixel decreases, that is, an anti-aliasing process may be performed.
Further, in order to make the sharpness (sharpness, so-called sharpness) of the images on the proofs HP and SP the same as the image on the printed matter, as shown in step S26 in FIG. A weighting matrix filter in which a sharpness filter (hereinafter also referred to as an emphasis filter) is applied to this weighting filter may be used as a matrix filter for weighted averaging processing. Normally, dots formed on a sheet by a printer have a recording dot shape by a laser beam or the like that is Gaussian or the like, so that an image edge by the recording dot is blurred (image edge is blurred). The sharpening process in step S26 is useful.
[0074]
The sharpness intensity adjustment process in step S27 is to adjust the enhancement ratio of the sharpness filter to the weighted filter after the reduction filter process. The sharpness filter is a filter that is 1 at the filter center position and 0 at other positions. The sharpness enhancement ratio β is used as a method of dividing or dividing internally, but other methods of adjusting the enhancement ratio may be adopted.
In the example shown in FIG. 8, the weighted average process of step S24 is performed after the weight adjustment process of step S23 to obtain the weighted average pixel value by the adjusted weight. However, the present invention is not limited to this. Instead, using the position-dependent weight obtained in step S21 or S22, the weighted average processing of step S24 is performed first to obtain the weighted average pixel value, and this weighted average pixel value and the original The weighted average pixel value by the adjustment weight is obtained by dividing the pixel value of the original image internally or externally by using the moire intensity enhancement rate α, resulting in the effect of the weight adjustment in step S23. You may make it obtain.
[0075]
Next, in the description of the moire enhancement step S9, the halftone dot area ratio data aj and aj ′ (j = C, M, Y, K) are represented by D and D ′, respectively, as representatives. As described above, in the weighted average process, the pixel data (pixel value) of the coordinates (i, j) on the output resolution (proof resolution) is D (i, j), and the coordinates after the weighted average process of neighboring pixels ( When the pixel data (pixel value) of i, j) is D ′ (i, j), the pixel value D ′ (i, j) after the convolution integration processing (after conversion) in step S24 is the following (13 ) Expression.
Figure 0003904160
Here, W (i, j, k, l, LPI, θ) is a weight (also referred to as a weight function), and is normalized so that the total value becomes 1.0. k and l indicate the coordinates of neighboring pixels in the rectangular range of (2m + 1) × (2n + 1) for performing the weighted average processing of the calculation target pixel D (i, j) (2m + 1 and 2n + 1 are natural numbers, and the calculation target pixel coordinate position (Shows the width and height (size) of the neighborhood image centered at (i, j)).
[0076]
In the equation (13), the weight function W (i, j, k, l, LPI, θ) is a function for causing so-called frequency interference, and is a certain periodic among the pixels constituting the original image. This is a function for increasing the weight of a pixel value at a position corresponding to a specific point on a grid having a pitch (a pitch depending on the number of printed lines LPI) and a certain inclination (an inclination corresponding to the halftone angle θ). . In the case of printing, if the printing line number LPI and the halftone angle θ are determined, the LPI and θ of each plate can be considered as constants. Therefore, the weight function W (i, j, k, l, LPI, θ ) Can be a weighting function W (i, j, k, l) (hereinafter also simply referred to as W) for any of the CMYK versions. Therefore, in the following description, the position-dependent weight function W obtained in step S21 or step S22 is represented by the position-dependent filter F (i, j, k, l) for any of the CMYK versions, and is obtained in step S23. Further, the weight function W with the moire intensity adjusted is represented by a moire intensity adjustment filter F ′ (i, j, k, l) for any of the CMYK versions. The above formula (13) is represented by the following formula (14).
Figure 0003904160
[0077]
Here, the filter F ′ (i, j, k, l) whose intensity has been adjusted can be expressed by the following equation (15).
Figure 0003904160
However, E (k, l) is a coefficient matrix (E does not depend on the pixel coordinate position (i, j)) where the center coefficient is 1.0 and the others are 0.0.
α is a moire intensity enhancement rate. If α = 1, the same state as before enhancement, that is, F (i, j, k, l), is equal to F (i, j, k, l), and if α = 0, the moire intensity is 0, and no moire simulation is performed (original picture Itself).
i and j are the position coordinates of the pixels of the image. When the size (number of pixels) of the rectangular image is width × height, i = 0 to height−1 and j = 0 to width−1.
k and l are auxiliary variables for performing convolution integration.
In the present invention, the weighted average pixel value D ′ (i, j) by the intensity adjustment filter F ′ (i, j, k, l) may be obtained as follows.
Here, when the weighted average pixel value by the position-dependent filter F (i, j, k, l) is Da (i, j), the pixel value Da (i, j) is given by the following equation (16). By substituting the above equation (15) into the above equation (14) and substituting the following equation (16) into the obtained equation, the converted pixel value D ′ (i, j) is given by the following equation (17): Will be.
Figure 0003904160
[0078]
Next, there are the following two methods as a basic example of a method for calculating (determining) a weight for weighting in the process of step S21 in FIG.
The first method is to directly use a threshold matrix (also called a threshold template or a rational network template, also called a supercell) for each version of CMYK for network development of printing, in other words, as a lookup table. This is a method of calculating weights. In the second method, in order to calculate the weight, centering on each grid point (intersection of grid and grid) of the mesh grid coordinate system, or the midpoint of the grid point, or any given one point in the grid, This is a method using a function in which the weight decreases monotonously or increases from the center toward the outside.
Note that the same image structure prediction (image structure simulation) result such as moire can be expected regardless of which weight is used as the weight for weighting.
[0079]
Next, a method for calculating weights will be described with reference to the flowchart of FIG. 9. In the following description, considering the simplicity of calculation and the short calculation time, each network development for printing is described. An example of creating a weight matrix for the C version will be specifically described as a representative example using a method of calculating weights by directly using the threshold matrix TM ′ for the version. It should be noted that the weight matrices of other versions can be created in exactly the same procedure as the C version described below.
Here, a so-called density gradation type continuous tone color printer having an output resolution of 400 dpi and RGB gradations of 256 gradations is used as the image output apparatus, and the resolution of the original image data is shown in FIG. When converted into halftone dot area ratio data in the color conversion processing step shown in step S2, it is assumed that the output resolution is 400 dpi which is the same as the output resolution.
[0080]
In addition, the number of printed lines LPI for predicting the image structure such as moire, line breaks, and shakiness of lines to be simulated on the color printing proof (hard proof) output from the color digital printer (DP) 3 used. The screen angle θ is arbitrary, but here it is assumed that the print line number LPI is LPI = 175 lines, and the screen angle θ of each plate of CMYK is θ = 75 degrees, 45 degrees, 0 degrees, and 15 degrees. To do.
In printing, the mesh angle is handled at 0 to 180 degrees because the mesh shape does not have symmetry with respect to the 90-degree rotation. However, if attention is paid only to the arrangement of halftone dots, the halftone space is an orthogonal coordinate system of 90 degrees, and therefore, in the case of printing image structure prediction, a halftone angle θ of 90 degrees to 180 degrees is 90 degrees. A rotated value may be used, and only 0 to 90 degrees may be used.
[0081]
The mask size of the weighting matrix (hereinafter also referred to as weighting filter) is considered to be able to express the image structure if it is determined that at least one pixel corresponding to the output resolution is included in one grid (network). Therefore, it is assumed here that a weighted matrix having a 3 × 3 mask size defined by the following equation (18), which means a value obtained by dividing the output resolution by the number of printed lines, is created.
INT (output resolution / number of printed lines) + 1 = INT (400/175) + 1 = 3 (18)
In Expression (18), INT (X) indicates an operation that leaves only the integer part of X.
[0082]
As shown in FIG. 9, when determining the value of each element of the 3 × 3 weighted matrix, a rational number network (also referred to as rational network) template that is a threshold matrix used for printing can be used (step S31).
FIG. 10 shows a rational network template TM0 ′ having a resolution of 2000 dpi and a rational network template size MMsize of 215 (the number of elements is 215 × 215) as an example of a rational network template. If the coordinate system on the rational network template TM0 ′ is (i ′, j ′), the coordinates i ′ and j ′ take values from 0 to 214, and the threshold th0 ′ is assigned to an element of 215 × 215. Assuming that the value is, for example, 8-bit data, the value takes any value from 0 to 255.
When a 3 × 3 weighting matrix for 400 dpi to be applied to the original image data I is created from this 2000 dpi rational network template TM0 ′, 5 × 5 dots (elements) of 2000 dpi are converted into one dot of 400 dpi. Considering the correspondence, first, it is conceivable to create a threshold template composed of 43 × 43 threshold values obtained by extracting the central threshold value of the partial rational network template composed of 5 × 5 elements (step S32). .
[0083]
FIG. 11 shows an example of the threshold value template TM0 composed of 43 × 43 threshold values th0 (i, j) created in this way. Note that the mask size Msize of the threshold value template TM0 in FIG.
If the 3 × 3 weighting matrix in this case is wgt0 (i, j, k, l), this can be expressed by the following equation (19) (step S33).
Figure 0003904160
Here, k and l are k, l = -1, 0, 1 and ΣkΣlMeans the sum of −1 to 1 for k and l.
[0084]
Actually, it is necessary to prepare only 3 Msize × Msize = 43 × 43 3 × 3 weighted matrices wgt0 corresponding to the network position coordinates (i, j) in this example. In the case of Msize × Msize The network position coordinates limited to this are (i% Msize, j% Msize). Note that i% Msize is a surplus operation and means a surplus obtained by dividing i by Msize (for example, when i = 1, 44, and 87, i% Msize is the same value and i% Msize = 1). ) In the original image data, the pixels that exist on the four sides must use portions where the elements of the weighted matrix do not exist. Therefore, the calculation for determining the elements becomes complicated. Since there is no important picture, in this embodiment, the original image data is used as it is without performing the weighted averaging process.
[0085]
Next, another example of the 3 × 3 weight matrix will be described. Another example is for carrying out the weight emphasis step S22 described with reference to FIG.
In the case of emphasizing the weight, the 3 × 3 weight matrix wgt1 may be created after spatially emphasizing each threshold th0 ′ constituting the 2000 dpi threshold template TM0 ′ shown in FIG. Then, the 3 × 3 weighted matrix wgt1 from the 400 dpi threshold template TM0 shown in FIG. 11, which has already been created, is first subjected to the cube normalization operation according to the following equation (21) to obtain the emphasized threshold th1. It is prepared (step S34), and can be obtained by normalizing it according to the following equation (22) (step S35).
Figure 0003904160
Here, k, l = −1 to 1 is meant.
FIG. 12 shows a 400 dpi threshold value template TM1 composed of the emphasized threshold value th1.
[0086]
Here, when it is desired to remove the frequency component corresponding to a period of 400 dpi or more which is slightly conspicuous and smoothness of the connection between each pixel constituting 400 dpi of the output image and the adjacent pixel, A 3 × 3 weight matrix wgt2 is generated by applying a 3 × 3 low-pass filter whose weight decreases (attenuates) toward () to the emphasized 3 × 3 weight matrix wgt1 (expression when the center is considered as a reduced component). That's fine. The 3 × 3 low-pass filter (referred to as a reduction filter) can be considered as a blurring filter or an anti-aliasing filter, and here, a 3 × 3 Gaussian filter Gauss1 (k, l) {k, l shown in FIG. = −1 to 1} is used.
The 3 × 3 weighted matrix wgt2 subjected to the Gaussian filter processing can be expressed by equation (23) (step S36).
Figure 0003904160
Here, k, l = −1 to 1, i, j = 0 to Msize−1 are meant.
[0087]
In order to connect pixels more smoothly, a threshold template (not shown) (step S41) obtained by normalizing each threshold of the 2000 dpi threshold template TM0 shown in FIG. 10 to the third power is shown in FIG. A 15 × 15 Gaussian filter Gauss2 (m, n) corresponding to a resolution of 2000 dpi, which is an array of elements approximating a Gaussian characteristic in which the center value shown is the largest and the value gradually attenuates as it goes to the periphery, First, a 400 dpi weight matrix wgt3 is created in accordance with the following equation (24) by causing the output resolution to be 400 dpi (so-called resolution conversion) (step S42).
Figure 0003904160
Here, m and n are −7 to 7, and (i, j) are coordinates on the 400 dpi space, i, j = 0 to Msize−1, (5 × i + m, 5 × j + n) and (m, n ) Are coordinates (i ′, j ′) on the 2000 dpi space, i ′, j ′ = 0 to MMsize−1. The multipliers of i and j are constants for resolution conversion.
[0088]
Next, in order to convert the 43 × 43 (Msize = 43) anti-aliasing weight matrix wgt3 (i, j) into 43 × 43 3 × 3 weight matrix, 15 × 15 An element weight matrix wgt3 (i, j) is transformed so as to correspond to one of a 3 × 3 element weight matrix wgt4 (i, j, k, l), and coordinates according to the following equation (25) What is necessary is just to obtain | require each element of 43x43 3x3 weighting matrix wgt4 centering on (i, j) (step S43).
wgt4 (i, j, k, l)
= Σm = 5k-2 5K + 2Σn = 5l-2 5l + 2wgt3 (i, j, m, n) (25)
This sum is the sum of 5 × 5 elements of m = 5k−2 to 5k + 2 and n = 5l−2 to 5l + 2, i.e., k, l = −1 to 1, m = −7 to 7, n = The total of 5 × 5 parts when the elements of −7 to 7, that is, 15 × 15 elements are simply divided into nine 5 × 5 parts.
Normalization processing is performed on the 3 × 3 weight matrix wgt4, and a 3 × 3 weight matrix wgt5 that can connect pixels more smoothly by the following equation (26) can be created (step S44).
Figure 0003904160
Here, (k, l) means a shift amount from the center of the filter on the 400 dpi space.
[0089]
By the way, in order to obtain a sharp feeling that approximates the sharp feeling of the printed matter, processing by a space enhancement filter (also referred to as a sharpness matrix or a sharpness filter) having characteristics opposite to Gauss 2 with respect to the above-mentioned 3 × 3 weighted matrix wgt4. Alternatively, a weighted matrix wgt7 that has been processed by a spatial enhancement filter having characteristics stronger than the inverse characteristics of Gauss 2 may be created.
FIG. 15A shows a configuration example of a sharpness filter Shp = Shp1, which is an inverse filter having characteristics opposite to those of Gauss2.
FIG. 15B shows a configuration example of the sharpness filter Shp = Shp2 having stronger characteristics than the sharpness filter Shp1.
FIG. 15C shows a configuration example of the sharpness filter Shp = Shp3 having stronger characteristics than the sharpness filter Shp2.
Note that the horizontal axis and the vertical axis of each filter Shp1, Shp2, and Shp3 are represented by i, k, r, j, l, and s, respectively, in order to obtain good visibility when using the expressions described later. And both are on the same coordinate system as the coordinate system (i, j) on 400 dpi. The sum of the elements for each filter Shp1, Shp2, and Shp3 is 1.
[0090]
First, to create the weighting matrix wgt7, first, the weighting matrix wgt6 obtained by applying the sharpness filter Shp to the weighting matrix wgt4 is created according to the following equation (27) (step S45).
Figure 0003904160
However, for wgt4 (i + r, j + s, kr, 1-s), where kr, ls exceeds the range of values −1 to 1, wgt4 (i + r, j + s, kr, 1−s) = 0. Shp (r, s) is any one of the sharpness filters shown in FIGS. 15A, 15B, and 15C.
Next, by normalizing this wgt6, a 3 × 3 weighted matrix wgt7 can be created according to the following equation (28) (step S46).
Figure 0003904160
Here, k and l are k, l = −1, 0, 1.
[0091]
By the way, when the strength of sharpness is adjusted to the original image and printing conditions (number of lines, halftone angle, printing density) and the strength of proof sharpness is adjusted according to the target printing machine, the normal 3 × What is necessary is just to adjust the sharpness filter intensity | strength in the case of performing the sharpness filter process of about 3 or 5x5, for example, the intensity | strength of USM in the case of performing a USM (unsharpness mask) process. Here, when the USM at 100% intensity of the sharpness filters Shp1, Shp2, Shp3, etc. is U (k, l), U ′ (k, l) is the USM (filter) after intensity adjustment, and β is the sharpness. Assuming that the emphasis ratio is used, the sharpness intensity adjustment filter can be obtained by the following equation (29) (step S47).
U ′ (k, l) = β (−E (k, l) + U (k, l)) + E (k, l) (29)
Here, (k, l) indicates the coordinates of the filter. If U (k, l) and U ′ (k, l) are 3 × 3 sharpness filters, k, l = −1 to 1 is there. E (k, l) is a coefficient matrix whose center is 1.0 and the remainder is 0.0 as described above.
[0092]
The intensity-adjusted sharpness filter U ′ (k, l) thus obtained is converted into position-dependent filters F (i, j, k, l) and F ′ (i, j, k, l), for example, specifically wgt0, ... Wgt4, wgt5, or a weighted filter in which these weighted filters are adjusted to a moire intensity adjusted, and finally a sharpness filter U ′ (k, l) in which the sharpness intensity is adjusted and a position dependent filter F in which the moire intensity is adjusted It is preferable to combine '(i, j, k, l), etc. into one weighted average processing filter, and to convert the calculation target pixel by the synthesis filter.
An example of creating this synthesis filter is shown. The intensity-adjusted sharpness filter U ′ (k, l) obtained in step 47 and the previously obtained 3 × 3 weighted matrix wgt4 (i, j, k, l) are synthesized in the same manner as the above equation (27). Then, a 3 × 3 weighted matrix wgt8 (i, j, k, l) represented by the following equation (30) is created (step S48).
Figure 0003904160
However, for wgt4 (i + r, j + s, kr, 1-s), where kr, ls exceeds the range of values −1 to 1, wgt4 (i + r, j + s, kr, 1−s) = 0.
Next, by normalizing this wgt8, a 3 × 3 weighted matrix wgt9 shown in the following equation (31) can be created (step S49).
Figure 0003904160
Here, k and l are k, l = −1, 0, 1.
[0093]
As shown in FIG. 9, any one of the 3 × 3 weighted matrices wgt0, wgt1, wgt2, wgt5, wgt7, and wgt9 obtained as described above is applied to the position-dependent filter F (i, j, k, l) is adjusted by the moire intensity enhancement rate α according to the above equation (15) to obtain a weighted average adjustment 3 × 3 weighting matrix F ′ (i, j, k, l) (step S50) By using the obtained 3 × 3 weighted matrix F ′ (i, j, k, l) as the weighting function W of the equation (13), that is, according to the above equation (15), the original image data (halftone dot area) By calculating the rate data aj ′), it is possible to simultaneously perform the sharpness processing in which the sharpness intensity is adjusted by one calculation and the image structure simulation in which the moire intensity is adjusted.
Thus, in the moire emphasis process of step S9, the moire obtained by performing weighted average processing on the original image data (halftone area ratio data aj) using this 3 × 3 weighted matrix F ′ (i, j, k, l). The intensity adjusted image data (halftone dot area ratio data aj ′) can be obtained.
[0094]
By the way, in the present invention, the sharpness and moire intensity are preferably adjusted as follows.
It was visually confirmed that the moire simulation strength enhancement rate α was 60% to 180% (0.6 to 1.8), so that the strength of the moire on the proof changed greatly. Since the appearance is close to about 120% for a normal printed material, it is possible to deal with many printed materials by setting it to 60% to 180%. The rate α is preferably 0.6 to 1.8.
[0095]
On the other hand, with regard to sharpness enhancement, because the print dots of the continuous tone printer have a spatial distribution similar to the Gaussian function, the image printed by the continuous tone printer is somewhat blurred and the printing is composed of fine points. As described above, it looks visually sharp. Therefore, in order to correct this, it is impossible to make the proof and the printed material have the same sharpness unless the actual printed material is intentionally sharpened. When using a 5 × 5 USM mask, using a 400 dpi continuous tone printer, Pictography 3000 (Fuji Photo Film Co., Ltd.) and creating a proof that simulates a 175 line print, the sharpness enhancement ratio (intensity) ) A large sharpness change was visually observed when β was 0% to 80%, and a sharpness close to a printed matter could be obtained at about 50%. Since a proof corresponding to many printed materials can be created by using 0% to 80% for normal printing, the sharpness enhancement ratio β is 0.0 to 0.8 in such a case. Is preferred.
[0096]
The moire intensity adjusted image data (halftone dot area ratio data aj ′) thus obtained in the moire enhancement process in step S9 is sent to the 6D-LUT processing process in the next step S10 for image structure enhancement processing such as rosette. Provided.
The 6D-LUT processing step (rosette emphasis step) in step S10 will be described. As shown in FIG. 1, in the 6D-LUT processing step S10, halftone dot area ratio data a′j (j = CMYK) in which the image structure such as moire is emphasized by the moire enhancement step in step S9 is created in step S8. A common color space that can reproduce and enhance the second image structure such as a rosette while leaving the first image structure such as moire by performing interpolation using a 6D-LUT created in advance in the process. This is a second image structure prediction (simulation) processing step for converting the data into tristimulus value data XYZ. The subscript j of aj ′ represents CMYK and is different from the position coordinate (i, j).aIt shall be expressed as
[0097]
The method of using the 6D-LUT is not particularly limited. In other fields, images having the same appearance between different devices and media (for example, between a CRT monitor and a printer, and between digital scanner data and printer data) are used. There are volume interpolation, linear interpolation, area interpolation, combination method, and the like as in the case of using the LUT for making. However, in the present invention, since a four-dimensional space composed of four colors (plates) of CMYK is interpolated, one-dimensional When the space is linearly interpolated, the area is interpolated in the 2D space, the volume is interpolated in the 3D space, and the 4D volume corresponding to the volume in the 3D space is defined as the 4D volume in the 4D space. A case where a four-dimensional space is interpolated using this four-dimensional volume will be described as a representative example.
[0098]
  An example in which the KYMC values at the coordinates (i1, j1) are (k, y, m, c) will be described. Here, k, y, m, and c are respectively between k0 and k1, y0 and y1, m0, m1, c0, and c1, and k0, y0, m0, c0 and k1, y1, m1, and c1 are all N It is one of the stages when the stage is divided (in the case of 6 stages, it is either 0, 20, 40, 60 or 100%), and k1, y1, m1, c0 from k0, y0, m0, c0. Assume that each of c1 is one level higher (for example, k0 = 20% and k1 = 40% when k is expressed, that is, k0 ≦ k ≦ k1).
  Then, the XYZ values corresponding to 6DLUT [i] [j] [k] [y] [m] [c] are respectively set to [i] [j] [k] [y] [m] [c]. X, 6DLUT [i] [j] [k] [y] [m] [c]. Y and 6DLUT [i] [j] [k] [y] [m] [c]. If Z is expressed, first, the XYZ value at the position coordinates (i1, j1) of the original image is defined by the rational network.The following formula (32)It is equal to the XYZ value at (i2, j2) that satisfies
        i2 = i1% mT, J2 = j1% nT                ... (32)
Where% is a remainder operation, i2 <mT, J2 <nTAnd mT× nTIs the size of a rational number network. Therefore, i2 and j2 are position coordinates in the 6D-LUT.
[0099]
Here, the result obtained by interpolating the 6D-LUT is obtained as 6DLUT (i, j, k, y, m, c). Assuming X to Z, it can be calculated by the following equation (33).
Figure 0003904160
Figure 0003904160
Where i2 = i1% mT, J2 = j1% nTAnd YVxxxx contains a vertex (kw, yw, mw, cw) (which is a vertex that is diagonal to (kx, yx, mx, cx)) and a point (k, y, m, c) A four-dimensional volume of a four-dimensional unit cell (which is a four-dimensional cube defined as corresponding to a three-dimensional cube). V = (k1-k0) (y1-y0) (m1-m0) (c1-c0).
Each x in YVxxxx takes either 0 or 1, and each w in kw, yw, mx, and cw is either 0 or 1. If x is 0, w is 1 and x is 1. Then, w is determined to be 0.
[0100]
Thus, image data (CMYK halftone dot area ratio data aj) whose original image position coordinates are (i1, j1).a′) To 6D-LUT 27 (see), the first image structure such as moire and the second image structure such as rosette are emphasized, and the common color adjusted according to the target printing machine or the like It is possible to obtain tristimulus value data XYZ of the CIEXYZ color system which is a space. By obtaining the tristimulus value data XYZ for all coordinate positions of the original image, the tristimulus value data XYZ of all images can be obtained. The tristimulus value data XYZ of all the images obtained in this way is sent to DP3 and used for the device-dependent color conversion processing step in the next step S11.
[0101]
Next, the color conversion processing step and the color printing proof creation step in step S11 in DP3 will be described.
The color conversion processing step in step S11 is obtained by the 6D-LUT processing step in step S10, and tristimulus value data XYZ in a common color space in which image structures such as moire and rosette are emphasized is device-specific color space data. This is a step of converting to gradation image data depending on a device such as DP3. In the 6D-LUT creation process of step S8, when the 6D-LUT is created, the conversion data has a color space to be expressed. In this case, the conversion data is represented by the CIEXYZ color system tristimulus values. ing. Therefore, in this process, in order to output a color corresponding to the proof printer, it is necessary to convert it into a value (for example, device-dependent RGB) depending on the output device (display such as a continuous tone color printer or CRT). is there. In this conversion process, RGB image data for outputting a color print proof is obtained by DP3 by interpolation using a color conversion LUT (lookup table) for converting tristimulus value data XYZ to device-dependent RGB data. .
[0102]
Using the RGB image data thus obtained, DP3 outputs a color print proof. The image on the hard copy created in this way, that is, the color printing proof CPb, faithfully reproduces the unique image structure appearing in the halftone image as well as the color of the color print 12. ing. That is, on the color printing proof CPb, image structures (singular patterns) such as moire and rosette that are almost equal to those appearing on the color printed matter 12 are faithfully reproduced.
The image structure prediction processing method according to the present invention and the color print creation system that implements the method are basically configured as described above.
[0103]
In the example of the 6D-LUT creation process in step S8 described above, the first and second tristimulus value data X, Y, which are average colorimetric value data using the colorimetric value data Xi, Yi, Zi. Z, X ', Y', and Z 'are created, but instead of this, average measurement is performed using other common color space data (device independent data) such as chromaticity value data or density value data. Color value data may be created. In short, when converting image data such as halftone dot area ratio data into image data in which an image structure such as a rosette is emphasized using a 6D-LUT in the rosette emphasizing step of step S10, What is necessary is just to make it produce with the average colorimetric value data on a common color space using the data measured on the color space (common color space) which does not depend on a device. Further, as the arrangement of the threshold matrixes 14 and 24, even when a so-called FM screen in which the arrangement of halftone dots is random is used, a color printing proof can be created by applying the present invention.
[0104]
Further, as described with reference to FIG. 3, in the development process (also referred to as network development process) to the bitmap data b′j in step S13 and the subsequent data process in step S14, the resolution Re3 of DP3. The first tristimulus value data X, Y, and Z of a resolution pixel of = 400 dpi, for example, intermediate resolution (Re5 = 1600 DPI) pixels are obtained. That is, first, one pixel of the intermediate resolution is divided into 28 dots × 28 dots (see FIGS. 6A and 6B) configured by a smaller area [1 dot of the above-described resolution Re4 = 44800 DPI]. Then, it is determined which of the 16 primary colors each of the minute areas is, the number of the 16 primary color points examined is counted for each intermediate resolution pixel (the counting process in step S15 described above), and the weight of the number of the points The first tristimulus value data X, Y, Z of one pixel of intermediate resolution is obtained by weighted averaging the tristimulus value data Xi, Yi, Zi of the 16 primary colors measured in advance. In this case, if the area ratio ci for each of the 16 primary colors, that is, the existence probability is Pi, the first tristimulus value data X, Y, and Z can be obtained by the following equation (34).
The same applies to X = Σ (Pi × Xi), (i = 1 to 16), Y, Z (34)
By the way, as described in the comparison process in step S13, the color of each point in this minute area is the value of the threshold value T of the threshold value matrix 24 and the dot area ratio data aj of CMYK (halftone dot: halftone dot). (Area ratio) can be easily obtained by comparison, but in order to ensure the accuracy of the color of the intermediate resolution pixel, the number of minute areas must be very large, such as 28 × 28 dots. It takes a long time.
For this reason, a simple technique using a cumulative histogram proposed by the present inventor in Japanese Patent Application No. 8-179122 may be used.
[0105]
In this simple method, the existence probability (also referred to as network existence probability) Pi is obtained for each intermediate resolution pixel by, for example, a stochastic approximation method such as the above-described Neugebauer equation. That is, the existence probability Pi (i = 1 to 16) is obtained by the following equation (35).
P1 = (1-Pc) (1-Pm) (1-Py) (1-Pk)
P2 = Pc. (1-Pm) (1-Py) (1-Pk)
P3 = (1-Pc) .Pm. (1-Py) (1-Pk)
P4 = Pc.Pm. (1-Py) (1-Pk)
P5 = (1-Pc) (1-Pm) .Py. (1-Pk)
P6 = PC * (1-Pm) * Py * (1-Pk)
P7 = (1-Pc) .Pm.Py. (1-Pk)
P8 = Pc.Pm.Py. (1-Pk)
P9 = (1-Pc) (1-Pm) (1-Py) · Pk
P10 = Pc. (1-Pm) (1-Py) .Pk
P11 = (1-Pc) · Pm · (1-Py) · Pk
P12 = Pc · Pm · (1-Py) · Pk
P13 = (1-Pc) (1-Pm) · Py · Pk
P14 = Pc. (1-Pm) .Py.Pk
P15 = (1-Pc) · Pm · Py · Pk
P16 = Pc · Pm · Py · Pk (35)
The existence probabilities Pc, Pm, Py, and Pk of the colors C, M, Y, and K used at this time are obtained by comparing the halftone dot area ratio data aj and the threshold values T of the threshold value matrix 24 in a steady method. The value C (M, Y or K) of the dot area ratio data aj is the same value at the intermediate resolution level, but the threshold value T varies depending on the position of the minute area. Therefore, the processing may be speeded up by processing the comparison process in step S13 for each intermediate resolution. For this purpose, a cumulative histogram of threshold T for each number of minute areas of one pixel of intermediate resolution, that is, 28 dots × 28 dots (28 thresholds × 28 thresholds) may be created. It is a frequency, and this cumulative frequency corresponds to the existence probability Pi.
[0106]
In addition, the texture of the paper existing on the printing paper, which is the main paper in printing, for example, a print reproduction image on the main paper in which a uniform image is first transferred from the printing plate to the printing plate, changes randomly. The so-called “unevenness” that is felt as a shading pattern, and secondly, the so-called “roughness” that is felt as a shading pattern that changes at random (relatively shorter period than “unevenness”) that disturbs the edge portion of the reproduced image. Third, if you want to reproduce the so-called “texture feeling” that you feel as a unique shading pattern for each type of paper, or if you want to correct color misalignment in such an image structure simulation. The present invention is based on the method described in Japanese Patent Application Nos. 7-273297 and 8-80283, which are filed by the present inventor. Even if an image structure simulation processing step such as a moire emphasis step in step 9 or a rosette emphasis step in step 10 of the image structure prediction process is performed, or a paper texture correction process and / or a color misregistration correction process are added before and after the image structure prediction process. Of course it is good.
Furthermore, in the present invention, the moire emphasis adjustment process and the sharpness emphasis adjustment process in the moire emphasis step S9 added as a preferable process are not limited to the above-described embodiments.
[0107]
Actually, as a continuous tone color printer, a 400 dpi photographic digital printer, “Pictrography 3000” manufactured by Fuji Photo Film Co., Ltd. is used, the number of lines of printing is 175 lines, and the CMYK halftone angle is 15 degrees, 45 degrees, A printed matter at 0 ° and 75 ° was simulated by the color printing proof creation system 10 shown in FIG. 1 according to the image structure prediction processing method of the present invention, to obtain a color printing proof CPb. Here, the net is expressed by repeating one net pattern having a size of 43 × 43 (a square having a side of about 2.73 mm on the pictograph), the moire enhancement degree α is 1.2, and the sharpness enhancement ratio. β is set to 0.5 and rosette enhancement ratio γ is set to 2.0 (however, γ is exceptionally close to 0.0 for colors close to the boundary of the color gamut of the digital printer “Pictrography 3000”) ).
In addition, by applying the conventional color printing proof creation system shown in FIG. 16, a color printing proof CPa was similarly created by the digital printer “Picography 3000”.
[0108]
The image on the color printing proof CPb thus obtained is compared with the image on the printing paper actually created using a color printing machine, and the color printing proof CPa created by applying the conventional color printing proof creation system. As a result, in the image on the color printing proof CPb to which the method of the present invention is applied, it is possible to faithfully reproduce specific patterns such as moire and rosette that appear in the image on the color printed matter 12 created using the color printing machine, As for the feeling of roughness and the feeling of jump, an image closer to the image on the printing paper created by the color printing machine is created as compared with the image on the color printing proof Cpa created by the digital printer using the Neugebauer formula of the conventional system. And good simulation results were obtained.
When the calculation according to the method of the present invention was performed using a PowerMacintosh 9500/132 manufactured by Apple, the calculation time for each A4 sheet was 10 minutes. The calculation time can be greatly reduced.
[0109]
Although the image structure prediction processing method according to the present invention has been described with reference to various embodiments, the present invention is not limited to the above-described embodiments. For example, the image output device is not limited to a continuous tone printer, and a display monitor is used. It goes without saying that various improvements and design changes can be made without departing from the gist of the present invention.
[0110]
【The invention's effect】
As described above, according to the present invention, conventionally, for example, a low-resolution color printer of about 400 DPI cannot reproduce a peculiar pattern that appears in a color print of about 2000 DPI. When creating device-independent print proof data for the device, without using the Neugebauer equation, the area ratio for each color is obtained by developing from the threshold matrix of the printing network into high-resolution bitmap data. A position-dependent multi-dimensional, for example, a 5- or 6-dimensional lookup table of two position parameters and three or four color parameters, which can calculate low resolution average colorimetric value data as a weighting factor for the colorimetric data Can be used to output image output devices such as continuous tone printers that are easy and provide stable performance. Using every color printer, for, it is possible to simulate the phenomenon caused by the halftone proof and similar printed matter of expensive network system, it can be reproduced. As a result, by supplying the print proof data created by the method of the present invention to an image output device such as a color printer, the color print proof on which the output image of the image output device is carried is specific. Image structures such as moiré and rosette can be reproduced accurately and faithfully in a short time.
[0111]
Further, according to the method of the present invention, it is possible to realize a significant reduction in the calculation time of the image structure simulation.
Further, according to the method of the present invention, the color reproduction accuracy can be improved, and a proof closer to the color of the printed matter can be made.
Further, according to the method of the present invention, the strength of an image structure such as a rosette in an image structure simulation can be increased without accompanying image structure side effects such as deterioration of moire or the like and a decrease in color accuracy.
Further, according to the method of the present invention, the strength of the image structure such as the rosette can be adjusted in order to optimize the strength of the rosette in the image structure simulation for each printing target.
[0112]
Furthermore, according to the method of the present invention, an image structure such as moire and line breakage is preferably predicted accurately, simply and in a short time on a hard proof or soft proof without impairing sharpness (sharpness). Can do.
In addition, according to the present invention, it is possible to adjust the intensity of moire and the intensity of sharpness on an image structure simulation (proof). It becomes possible to create a proof with higher fidelity.
Furthermore, according to the method of the present invention, since the look-up table is created so that the average colorimetric value data is subjected to a process of spreading the average predicted colorimetric value data around the color correction, the reproduction color is As a result, the image structure such as a rosette pattern can be reproduced more faithfully.
[Brief description of the drawings]
FIG. 1 is a flowchart for explaining a basic flow of a color printing system and an embodiment of a color printing proof creation system for carrying out an image structure prediction processing method according to the present invention.
FIG. 2 is a diagram for explaining a bitmap data creation process of the color printing system shown in FIG. 1;
FIG. 3 is a flowchart for explaining the basic flow of one embodiment of a six-dimensional lookup table creation process of the color printing proof creation system shown in FIG. 1;
4 is a diagram showing a configuration of an example of an anti-aliasing filter used in the 6-dimensional lookup table creation process shown in FIG. 3; FIG.
5 is a diagram showing an example of a frequency response of the anti-aliasing filter shown in FIG.
6 is a diagram for explaining the creation of average colorimetric value data from relatively high resolution bitmap data in the 6-dimensional lookup table creation step shown in FIG. Is a diagram showing an example of C version bitmap data for 28 × 28 dots, and (B) is a diagram showing an example of M version bitmap data for 28 × 28 dots.
FIG. 7 is a diagram for explaining an anti-aliasing filter applied to average colorimetric value data in the 6-dimensional lookup table creation step shown in FIG. FIG. 6B is a diagram relating to the next processing step. FIG.
FIG. 8 is a flowchart for explaining the basic flow of an embodiment of the moire enhancement process of the color printing proof creation system shown in FIG. 1;
9 is a basic flow diagram of an example of a process supplied to the description of the generation of various weighting matrices in the moire enhancement process shown in FIG. 8. FIG.
10 is a diagram showing a part of an example of a 2000 dpi rational network template (threshold matrix) used in the moire enhancement step shown in FIG. 8; FIG.
11 is a diagram showing an example of a 400 dpi weighting matrix used in the moire enhancement step shown in FIG.
12 is a diagram showing an example of a 400 dpi weighted matrix after threshold emphasis used in the moire emphasis process shown in FIG. 8. FIG.
13 is a diagram showing a configuration example of a 3 × 3 Gaussian filter used in the moire enhancement step shown in FIG.
14 is a diagram showing a configuration example of a 15 × 15 Gaussian filter used in the moire enhancement step shown in FIG. 8. FIG.
15A is a diagram showing a configuration example of a sharpness filter that is an inverse filter having the reverse characteristics of the Gaussian filter used in the moire enhancement step shown in FIG. 8, and FIG. FIG. 4 is a diagram showing a configuration example of a sharpness filter having a stronger characteristic than the sharpness filter of FIG. 5C, and FIG. 5C is a diagram showing a configuration example of a sharpness filter having a stronger characteristic than the sharpness filter of FIG. is there.
FIG. 16 is a flowchart of a conventional color printing proof creation system.
[Explanation of symbols]
2 Image manuscript
3 Color printer
12 Color printed matter
14, 24 Threshold matrix
27 6-dimensional lookup table (6D-LUT)
aj Halftone dot area ratio data
bj Bitmap data
ci area ratio
CPb color printing proof

Claims (10)

原画像を少なくとも3原色を含むn版の網点面積率データに変換し、これらの網点面積率データを用い、カラー印刷機により作製されるカラー印刷物のカラー印刷プルーフを画像出力装置によって出力するために、前記カラー印刷物の像構造を予測するための階調画像データに変換するに際し、
予め、各版の0%〜100%の網点面積率データをN段に分け、全Nn 色の各単色画像に対して前記像構造を予測するための前記階調画像データを求めて、前記像構造予測に必要な繰り返し画素サイズを持ち、位置パラメータとn個の色パラメータとを引き数とするルックアップテーブルを作成しておき、
前記原画像のn版の網点面積率データを前記ルックアップテーブルを参照して前記階調画像データに変換することを特徴とする像構造予測処理方法。
The original image is converted into halftone dot area ratio data including at least three primary colors, and a color printing proof of a color print produced by a color printing machine is output by the image output apparatus using the dot area ratio data. Therefore, when converting to gradation image data for predicting the image structure of the color printed matter,
In advance, the halftone dot area ratio data of 0% to 100% of each plate is divided into N stages, and the gradation image data for predicting the image structure for each monochromatic image of all N n colors is obtained. A lookup table having a repetitive pixel size necessary for the image structure prediction and having a position parameter and n color parameters as arguments,
An image structure prediction processing method, comprising converting n-th halftone dot area ratio data of the original image into the gradation image data with reference to the lookup table.
前記原画像の各版の網点面積率データは、前記階調画像データに変換される前に、前記像構造を強調するために、印刷の線数および網角度により決定される格子の周期に依存した調整可能な重みにより近傍画素と重み付け平均されることを特徴とする請求項1に記載の像構造予測処理方法。The halftone dot area ratio data of each plate of the original image has a lattice period determined by the number of lines printed and the halftone angle to enhance the image structure before being converted to the gradation image data. The image structure prediction processing method according to claim 1, wherein the weighted average of neighboring pixels is performed with a dependent adjustable weight. 前記格子の周期に依存した重みを、前記近傍画素と同一マスクサイズの加重マトリクスの各要素に配列するとともに、この加重マトリクスの各要素に配列される重みをF(i,j,k,l)とし、E(k,l)を中心の係数が1、その他が0である、前記加重マトリクスと同サイズの係数マトリックスとし、前記重みの調整率をαとするとき、調整された前記加重マトリクスの各要素に配列される重みF’(i,j,k,l)は、下記式(1)で与えられることを特徴とする請求項1または2に記載の像構造予測処理方法。
Figure 0003904160
ここで(i,j)は前記変換しようとする画素の前記原画像座標の位置を示し、(k,l)は前記近傍画素と同一マスクサイズの加重マトリクス座標の位置を示す。
A weight depending on the period of the lattice is arranged in each element of the weighting matrix having the same mask size as the neighboring pixels, and a weight arranged in each element of the weighting matrix is F (i, j, k, l). Where E (k, l) is a coefficient matrix of the same size as the weighting matrix, the center coefficient is 1 and the others are 0, and the weight adjustment rate is α, 3. The image structure prediction processing method according to claim 1, wherein the weight F ′ (i, j, k, l) arranged in each element is given by the following formula (1).
Figure 0003904160
Here, (i, j) indicates the position of the original image coordinate of the pixel to be converted, and (k, l) indicates the position of the weighted matrix coordinate having the same mask size as the neighboring pixel.
前記ルックアップテーブルの作成は、
前記単色画像の各n版分の網点面積率データのそれぞれに対して前記カラー印刷物の解像度よりも高い解像度を有する閾値マトリクスを参照し、前記n版分の網点面積率データをそれぞれビットマップデータに変換し、
このn版分のビットマップデータを同時に参照して、各n版の有無についての2n 色の各色毎の面積率を前記ビットマップデータの一定範囲毎に数え上げ、
予め求めておいた前記2n 色の各色毎の測色値データに対してこの一定範囲毎に数え上げた面積率を重み係数として第1の平均測色値データを計算し、
この第1の平均測色値データに対して、前記画像出力装置の画素より大きい範囲で順次アンチエリアジングフィルタ処理を行い前記画像出力装置の画素に対応する第2の平均測色値データに変換し、
この第2の平均測色値データを前記階調画像データとすることによって得られることを特徴とする請求項1〜3のいずれかに記載の像構造予測処理方法。
The lookup table is created by
A threshold matrix having a resolution higher than the resolution of the color printed material is referred to for each n-dot halftone dot area ratio data of the monochrome image, and each n-plate halftone dot area ratio data is bitmapped. Convert to data,
By simultaneously referring to the n-bit bitmap data, the area ratio of each of the 2 n colors for the presence or absence of each n-version is counted for each predetermined range of the bitmap data.
The first average colorimetric value data is calculated by using, as a weighting factor, the area ratio counted for each predetermined range with respect to the colorimetric value data for each of the 2 n colors obtained in advance.
The first average colorimetric value data is sequentially subjected to anti-aliasing filter processing in a range larger than the pixels of the image output device, and converted to second average colorimetric value data corresponding to the pixels of the image output device. And
The image structure prediction processing method according to claim 1, wherein the second average colorimetric value data is obtained as the gradation image data.
前記ルックアップテーブルを構成する階調画像データを前記第1の階調画像データとし、
前記各単色画像について、この第1の階調画像データに基づいて前記画像出力装置で当該単色画像のテストプルーフを出力した後、このテストプルーフの色を測色計で計測し、
得られた測色値データと前記繰り返し画素サイズの全画素に亘る前記第1の階調画像データの平均値の目標値データとを用いて前記繰り返し画素サイズの全画素の前記第1の階調画像データを色補正処理して第2の階調画像データを得、
この第2の階調画像データを用いて前記ルックアップテーブルを構成することを特徴とする請求項1〜4のいずれかに記載の像構造予測処理方法。
The gradation image data constituting the lookup table is the first gradation image data,
For each single color image, after outputting a test proof of the single color image with the image output device based on the first gradation image data, measure the color of the test proof with a colorimeter,
Using the obtained colorimetric value data and the target value data of the average value of the first gradation image data over all pixels of the repetitive pixel size, the first gradation of all pixels of the repetitive pixel size The image data is color-corrected to obtain second gradation image data,
5. The image structure prediction processing method according to claim 1, wherein the lookup table is configured using the second gradation image data.
前記単色画像について、共通色空間の表色値の1つに関し、前記測色値データをXout、前記目標値データをXa、前記第1の階調画像データをXi、前記第2の階調画像データをXpiとし、前記繰り返し画素サイズをmT ×nT 画素とする時、前記色補正処理は、下記式(2)で表わされる請求項5に記載の像構造予測処理方法。
Xpi=(Xi/Xout)×Xa(i=1〜mT ×nT ) …(2)
For the single color image, for one of the color values in a common color space, the colorimetric value data is Xout, the target value data is Xa, the first gradation image data is Xi, and the second gradation image. The image structure prediction processing method according to claim 5, wherein when the data is Xpi and the repetitive pixel size is m T × n T pixels, the color correction processing is represented by the following formula (2).
Xpi = (Xi / Xout) × Xa (i = 1~m T × n T) ... (2)
前記ルックアップテーブルを構成する前記階調画像データを第3の階調画像データとし、
前記各単色画像について、この第3の階調画像データを前記繰り返し画素サイズの全画素に亘って平均してその平均値を求め、
前記像構造の強度を調整するために、この平均値を中心に各画素の前記第3の階調画像データと前記平均値との距離を調整して、前記像構造の強度調整処理を行い、第4の階調画像データを得、
この第4の階調画像データを用いて前記ルックアップテーブルを構成することを特徴とする請求項1〜6のいずれかに記載の像構造予測処理方法。
The gradation image data constituting the lookup table is set as third gradation image data,
For each monochrome image, the third gradation image data is averaged over all pixels of the repetitive pixel size to obtain an average value,
In order to adjust the intensity of the image structure, the distance between the third gradation image data of each pixel and the average value is adjusted around the average value, and the intensity adjustment process of the image structure is performed. Obtaining fourth gradation image data;
The image structure prediction processing method according to claim 1, wherein the lookup table is configured using the fourth gradation image data.
前記単色画像について、共通色空間の表色値の1つに関し、前記平均値を
Xave、前記第3の階調画像データをXqi、前記第4の階調画像データを
Xriとし、前記繰り返し画素サイズをmT ×nT 、像構造の強調割合をγとする時、前記像構造の強度調整処理は、下記式(3)で表わされる請求項7に記載の像構造予測処理方法。
Xave=(Σi Xqi)/(mT ×nT
Xri=Xave×(Xqi/Xave)^γ) …(3)
ここで、i=1〜mT ×nT であり、Σi Xqiは、Xqiをiが1からmT ×nT までの和を表し、(Xqi/Xave)^γは、(Xqi/Xave)のγ乗を表すものとする。
For the single color image, with respect to one of the color values of a common color space, the average value is Xave, the third gradation image data is Xqi, the fourth gradation image data is Xri, and the repetitive pixel size The image structure prediction processing method according to claim 7, wherein m T × n T , and the enhancement ratio of the image structure is γ, the intensity adjustment processing of the image structure is represented by the following formula (3).
Xave = (Σ i Xqi) / (m T × n T )
Xri = Xave × (Xqi / Xave) ^ γ) (3)
Here, a i = 1~m T × n T, Σ i Xqi represents the sum of the Xqi from i is 1 to m T × n T, the (Xqi / Xave) ^ γ, (Xqi / Xave ) To the power of γ.
前記色補正処理および前記像構造の強度調整処理は、この順序で少なくとも1回行われる請求項7または8に記載の像構造予測処理方法。The image structure prediction processing method according to claim 7, wherein the color correction process and the intensity adjustment process of the image structure are performed at least once in this order. 前記色補正処理および前記像構造の強度調整処理は、この順序で1回行われた後、前記色補正処理のみが少なくとも1回繰り返される請求項9に記載の像構造予測処理方法。The image structure prediction processing method according to claim 9, wherein after the color correction process and the intensity adjustment process of the image structure are performed once in this order, only the color correction process is repeated at least once.
JP02169197A 1997-02-04 1997-02-04 Image structure prediction processing method Expired - Fee Related JP3904160B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP02169197A JP3904160B2 (en) 1997-02-04 1997-02-04 Image structure prediction processing method
US09/018,337 US6522425B2 (en) 1997-02-04 1998-02-04 Method of predicting and processing image fine structures
US09/373,233 US6320676B1 (en) 1997-02-04 1999-08-12 Method of predicting and processing image fine structures

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP02169197A JP3904160B2 (en) 1997-02-04 1997-02-04 Image structure prediction processing method

Publications (2)

Publication Number Publication Date
JPH10222658A JPH10222658A (en) 1998-08-21
JP3904160B2 true JP3904160B2 (en) 2007-04-11

Family

ID=12062104

Family Applications (1)

Application Number Title Priority Date Filing Date
JP02169197A Expired - Fee Related JP3904160B2 (en) 1997-02-04 1997-02-04 Image structure prediction processing method

Country Status (1)

Country Link
JP (1) JP3904160B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002142108A (en) 2000-11-02 2002-05-17 Dainippon Screen Mfg Co Ltd Prediction of dot interference moire
US6786565B2 (en) 2001-09-24 2004-09-07 Creo Americas, Inc. Inkjet proofing with matched color and screen resolution

Also Published As

Publication number Publication date
JPH10222658A (en) 1998-08-21

Similar Documents

Publication Publication Date Title
US6320676B1 (en) Method of predicting and processing image fine structures
JP3721206B2 (en) Image reproduction device
US5296923A (en) Color image reproducing device and method
US6072588A (en) Method of generating proof data and method of generating proof
US5734801A (en) Method of and apparatus for producing color proof
JP3704384B2 (en) Printing proof creation method and apparatus
US7576893B2 (en) Correlated secondary TRC calibration method
JP4680480B2 (en) Method and apparatus for calibrating raster print data while maintaining raster information
JP4429439B2 (en) Color conversion method and conversion processor
JP3904160B2 (en) Image structure prediction processing method
US20060209322A1 (en) Image forming apparatus and method
JP2007151055A6 (en) Image processing apparatus, image processing method, and image processing program
JP3749102B2 (en) Image processing apparatus, image forming apparatus, and image processing method
JP3824674B2 (en) Printing proof creation method and apparatus
JP3619276B2 (en) How to create a color print proof
JP4139052B2 (en) Color processing method, color processing apparatus, and color processing program storage medium
JPH10198793A (en) Image processor
JP3775449B2 (en) Image processing device
JP3863616B2 (en) Image structure prediction processing method
JPH09270930A (en) Method for generating print proof
JPH11252388A (en) Color image processing method and its device
JP5079904B2 (en) Multilevel dither processing method, image processing apparatus, image forming apparatus, multi-function machine, multilevel dither processing program, and computer-readable recording medium
JP3874976B2 (en) Color signal converter
JPH10133362A (en) Data generating device for printing proof
JP4266002B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061212

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070105

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110119

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110119

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120119

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120119

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130119

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130119

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140119

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees