JP4196599B2 - Image evaluation apparatus, image evaluation method, program thereof, and recording medium recording the program - Google Patents

Image evaluation apparatus, image evaluation method, program thereof, and recording medium recording the program Download PDF

Info

Publication number
JP4196599B2
JP4196599B2 JP2002190571A JP2002190571A JP4196599B2 JP 4196599 B2 JP4196599 B2 JP 4196599B2 JP 2002190571 A JP2002190571 A JP 2002190571A JP 2002190571 A JP2002190571 A JP 2002190571A JP 4196599 B2 JP4196599 B2 JP 4196599B2
Authority
JP
Japan
Prior art keywords
gradation
image
image data
information
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002190571A
Other languages
Japanese (ja)
Other versions
JP2004038258A (en
Inventor
純 安部
敏彦 稲垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2002190571A priority Critical patent/JP4196599B2/en
Publication of JP2004038258A publication Critical patent/JP2004038258A/en
Application granted granted Critical
Publication of JP4196599B2 publication Critical patent/JP4196599B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、画像評価装置、画像評価方法、及びそのプログラム並びにそのプログラムを記録した記録媒体に関し、特に人間の主観的判断を考慮した客観的判断を行う画像評価装置、画像評価方法、及びそのプログラム並びにそのプログラムを記録した記録媒体に関する。
【0002】
【従来の技術】
従来、一般に、プリンタや複写機等の画像形成装置において、階調再現性は階調画像の出力及び解析を通じて評価されることが多い。ここで、階調画像とは、明度,彩度,色相といった色彩情報のうち少なくとも1つが連続的に変化しているパターン画像のことをいう。
【0003】
本来、このような階調画像を理想的なプリンタに出力させた場合、その出力結果の階調は、直線的又は曲線的な滑らかさを持って再現されるはずである。
【0004】
ところが、実際のプリンタでは、階調飛びや筋状のムラ等が発生するといったように、階調部分が乱れた状態の画像が出力される場合が存在する。この乱れは、自然画(通常の使用状態における出力画像)を出力する場合にも同様に発生するものであり、プリンタの性能を著しく低下させる要因となっている。
【0005】
このような理由から現在、階調画像の乱れを定量的に評価することが、画像形成装置の描画性能を評価する上で非常に重要な項目とされている。これは、CRT(Cathode Ray Tube)等の視覚表示装置においても同様である。
【0006】
従来、階調画像を解析・評価する手法としては、例えば人間による視比較評価が広く知られている。この手法は、いわゆる主観的評価と呼ばれるもので、階調画像の良否や損傷の度合い等を人間の視覚を通して主観的な判断によって評価するものである。しかしながら、このような主観的評価には、評価者により評価結果がばらついてしまったり、人為的な手間が必要になってしまうという問題があった。
【0007】
このような問題を解決するために近年では、画像形成装置等で出力された階調画像に対し、人間の主観的な判断に依存しない、いわゆる客観的評価を行うことが提案されている。その一例としては、例えば特開平11−25274号公報が開示するところの画像評価方法が存在する。これを以下、従来技術1という。
【0008】
従来技術1は、出力された画像の明度情報と濃度情報とのうち少なくとも一つの光学情報を用い、隣接する階調レベル間の光学情報の差を算出することで、人間の視覚評価に依らずに、出力装置の階調特性を客観的に評価する。
【0009】
但し、このように客観的評価を行う場合であっても、その評価結果は人間による主観的判断と対応の取れたものでなければならない。このような理由から従来技術1では、人間が認知できる限界値に基づいて画像の階調特性(階調飛び,階調つぶれ)の大きさを定量化する方法を採用している。
【0010】
また、同様に客観的評価を行う他の例としては、特開平11−39486号公報が開示するところの画像の画質評価方法が存在する。これを以下、従来技術2という。
【0011】
従来技術2は、濃度情報と明度情報と色度情報とのうち少なくとも1つの光学情報を用いて、隣接する階調レベル間の光学情報の差を算出し、人間の視覚評価に依らずに、出力装置の階調特性を客観的に評価する方法を採用している。
【0012】
またこの他、特開2001−128017号公報には、人間の視覚特性に応じて求められた識別閾に基づいて階調画像を分割し、その画像特徴量から階調評価値を算出する技術が開示されている。これを以下、従来技術3という。
【0013】
【発明が解決しようとする課題】
しかしながら、上述した従来技術1〜3による客観的評価では、階調画像を正しく評価することができないという問題が存在する。
【0014】
例えば、従来技術1に開示された画像評価方法では、明度情報あるいは濃度情報のうち少なくとも一つの光学情報を用いて評価を行っているが、一般的にカラー画像は、明度(濃度),彩度,及び色相といった色の三属性で表現されるものである。従って、その色の階調(色調も含む)の変化には、明度(濃度)の変化だけではなく彩度および色相の変化も重要な因子として関わってくる。
【0015】
そのため、明度情報と濃度情報とのいずれかしか用いず、色の三属性を構成する彩度や色相に関する情報を考慮しないのでは、特にカラー画像の色調変化には十分な対応を取ることができない。具体的には、例えば「青色」から「赤色」への変化が表現された階調画像について彩度および色相に関する情報が欠落していると、これを正しく評価することができない。
【0016】
また、上述したように階調画像の客観的評価は人間による主観的判断との対応が不可欠であるが、そのためカラー画像については、濃淡の階調特性のみならず色調特性をも加味して評価する必要がある。即ち、明度、彩度、及び色相の三属性は人間の視覚特性により適合しているため、カラー画像の場合に関しては、これら三属性を利用して始めて十分に主観的判断との対応が取れた階調評価が可能になるといえる。
【0017】
これに対し、従来技術2では色度情報を加味して隣接する階調レベル間の光学情報を評価している。しかしながら、従来技術2では、評価対象がパッチであるため、出力装置の階調特性を評価しており、被評価画像である階調画像を評価していないという問題が存在する。
【0018】
また、従来技術2では、面内ばらつきによる誤差をパッチの配置位置で低減しているが、この方法では実際の連続階調画像を出力する際の面内ばらつきや出力機の経時安定性の問題を解決することができない。更に、階調画像を出力する際のラスタライズなどのフロントエンド側処理等が含まれるとパッチと階調画像との対応が取れていな場合が存在するため、従来技術2では、実際の主観評価との対応がつかないという問題も存在する。
【0019】
また、従来技術3では、閾値を超える幅の分散値で比較しているため、この点において実際の評価値と異なるという問題が存在する。プリンタの場合を例に挙げると、プリンタは入力色に対して調子補正を実施するための固有の階調曲線を有している。即ち、例えば人間の目はハイライトから中間部の変化に敏感であるため、プリンタはハイライト部と中間部の色域圧縮を少なくするような調節を行うための階調曲線を有している。
【0020】
ところが、プリンタが自己で調子補正を行うよう構成すると、連続調画像が自然に見えても、その階調飛びの値(分散値ともいう)が大きいという場合が存在する。
【0021】
更に、色剤の面積率で階調を表現している場合には、評価対象の階調画像を測定すると、スクリーンの影響により変動が非常に大きくなり、簡単に閾値を超えてしまう場合がある。このような場合、幅の測定が不可能となってしまう。
【0022】
ここで、スクリーンが影響しないように、測定する際の読み取り範囲を大きくすることが考えられれるが、これを実現するためには読み取り範囲を非常に大きくする必要があり、現実的に階調画像の階調飛びを評価することが不可能となるという問題が存在する。
【0023】
本発明は、このような問題に鑑みてなされたものであり、評価すべき階調画像に対する客観的評価を正しく行うことができ、しかもその評価結果が人間の主観的判断と十分に対応している画像評価装置、画像評価方法、及びそのプログラム並びにそのプログラムを記録した記録媒体を提供することを目的とする。
【0024】
【課題を解決するための手段】
かかる目的を達成するために、請求項1の発明は、出力された階調画像を入力して画像データを出力する画像入力手段と、前記画像データから色彩情報における明度情報を生成する生成手段と、前記明度情報に対してフーリエ変換を施し、その結果に人間の視覚系の空間周波数特性を乗算し、得られた結果に逆フーリエ変換を施すことで視感階調を取得し、当該視感階調を局所平均することで理想階調を取得し、前記視感階調と前記理想階調の差分から階調飛び量を算出する算出手段と前記階調飛び量から下記(1)式の人間が知覚可能な明度の限界値を示す閾値を算出し、
閾値=300又は450/前記画像データの解像度*前記画像データの各ドットの明度情報の3乗根…(1)
下記(2)式及び(3)式により、人間の視覚に合致した各ドットの階調飛び量を算出し、
第1補正階調飛び量=(前記階調飛び量−前記閾値)*前記画像データの各ドットの明度情報の3乗根…(2)
第2補正階調飛び量=第1補正階調飛び量の0.9乗根…(3)
前記(3)式により得られた第2補正階調飛び量を全ドットに関して積算することで、前記階調画像の階調評価指数を算出する階調評価手段と、を有する。これにより、階調飛びが人間が知覚する許容値以上であった場合の階調飛びの評価の定量化も実現し、被評価画像の許容値以上の階調飛びを人間の知覚特性に合致した量に基づいて評価することが可能となる。これにより、評価対象の階調画像そのものを、従来よりも信頼性高く、より人間の感覚にマッチして評価することが可能となる。
【0025】
請求項2の発明は、出力された階調画像を入力して画像データを出力する画像入力ステップと、前記画像データから色彩情報における明度情報を生成する生成ステップと、前記明度情報に対してフーリエ変換を施し、その結果に人間の視覚系の空間周波数特性を乗算し、得られた結果に逆フーリエ変換を施すことで視感階調を取得し、当該視感階調を局所平均することで理想階調を取得し、前記視感階調と前記理想階調の差分から階調飛び量を算出する算出ステップと前記階調飛び量から下記(1)式の人間が知覚可能な明度の限界値を示す閾値を算出し、
閾値=300又は450/前記画像データの解像度*前記画像データの各ドットの明度情報の3乗根…(1)
下記(2)式及び(3)式により、人間の視覚に合致した各ドットの階調飛び量を算出し、
第1補正階調飛び量=(前記階調飛び量−前記閾値)*前記画像データの各ドットの明度情報の3乗根…(2)
第2補正階調飛び量=第1補正階調飛び量の0.9乗根…(3)
前記(3)式により得られた第2補正階調飛び量を全ドットに関して積算することで、前記階調画像の階調評価指数を算出する階調評価ステップと、を有する。
【0026】
請求項3の発明は、コンピュータを、出力された階調画像を入力して画像データを出力する画像入力手段、前記画像データから色彩情報における明度情報を生成する生成手段、 前記明度情報に対してフーリエ変換を施し、その結果に人間の視覚系の空間周波数特性を乗算し、得られた結果に逆フーリエ変換を施すことで視感階調を取得し、当該視感階調を局所平均することで理想階調を取得し、前記視感階調と前記理想階調の差分から階調飛び量を算出する算出手段、及び前記階調飛び量から下記(1)式の人間が知覚可能な明度の限界値を示す閾値を算出し、
閾値=300又は450/前記画像データの解像度*前記画像データの各ドットの明度情報の3乗根…(1)
下記(2)式及び(3)式により、人間の視覚に合致した各ドットの階調飛び量を算出し、
第1補正階調飛び量=(前記階調飛び量−前記閾値)*前記画像データの各ドットの明度情報の3乗根…(2)
第2補正階調飛び量=第1補正階調飛び量の0.9乗根…(3)
前記(3)式により得られた第2補正階調飛び量を全ドットに関して積算することで、前記階調画像の階調評価指数を算出する階調評価手段として機能させる
【0027】
請求項4の発明は、請求項3に記載のプログラムを記録したことを特徴とする。
【0049】
【発明の実施の形態】
本発明は、情報化社会において入力又は出力される情報、特にスキャナやデジタルカメラ等の画像入力装置によって入力された画像情報、ディスプレイ等の画像表示装置に出力された画像情報、カラーハードコピー党の画像出力装置等によって出力された画像情報を評価するための画像評価方法及びその方法を実現するための画像評価装置に関するものである。以下、本発明の好適な実施形態について図面を用いて詳細に説明する。
【0050】
〔第1の実施形態〕
以下、本発明の第1の実施形態による画像評価装置について、図面を用いて詳細に説明する。尚、本実施形態による画像評価装置は、プリンタや複写機等のような紙面上に画像を印刷する画像形成装置やCRT(Cathode−ray Tube)ディスプレイ等の画面上に画像を表示する視覚表示装置等の画像出力装置が出力した階調画像の解析を行い、その解析結果から階調画像に対する評価を行い、これを通じて画像出力装置の描画性能を評価するためのものである。
【0051】
図1は、本実施形態による画像評価装置の概略構成を示すブロック図である。図1を参照すると、画像評価装置は、画像入力手段1と色彩情報変換手段2と画像特徴量算出手段3と階調評価手段4とを有して構成される。
【0052】
図1における画像入力手段1は、評価対象となる階調画像を光学的に読み取ることで、上記のような画像出力装置が出力した所定の階調画像の画像データを取得する。尚、所定の階調画像は予め用意された画像データを画像出力装置で出力させたものである。ここで、画像出力装置から出力された所定の階調画像の一例を図2に示す。また、以下の説明において区別を図るために、画像出力装置に出力させる画像データを元画像データとし、画像入力手段1で取得された画像データを入力画像データとする。
【0053】
また、画像入力手段1により取得される画像データは、例えばR(red),G(green),B(blue)の各色成分信号を含んで構成されるが、本実施形態ではこれに限定されず、例えばC(Cyan),M(Magenta),Y(Yellow),K(黒)の各色成分信号を含んで構成されるものであってもよい。
【0054】
このような画像入力手段1には、例えば一次元走査型スキャナ等が適用される。但し、この他にも、XYZ表色系における等色関数x(λ),y(λ),z(λ)と同等の分光感度を有する画像読取装置を適用しても、マイクロデンシトメータやカラースキャナやモノクロスキャナやドラムスキャナや濃度計や測色計等のような一般的な画像読取装置を適用してもよい。
【0055】
更には、出力がRGB信号である汎用の画像読取装置を適用しても良く、CCD(Charge Couple Device)を有して構成される所謂デジタルカメラ等を適用してもよい。即ち、画像入力手段1における画像を読み取る構成は、二次元走査型測色計に限定されるものではない。
【0056】
更にまた、被評価対象である所定の階調画像が視覚表示装置によって画面上に出力される場合、画像入力手段1における画像を読み取る構成には例えば輝度計等の画像読取装置が適用される。
【0057】
このように画像入力手段1は、画像出力装置から出力された所定の階調画像を読み取ることで入力画像データを生成するものであれば如何様にも変形することが可能である。言い換えれば、所定の画像出力装置を介した階調画像の画像データを取得することができるかぎり、種々変形できるものである。尚、以下の説明では、取得した入力画像の明度成分を用いて階調画像の階調特性を求める場合について例を挙げるが、これに限定されず、濃度成分やその他の光学情報(入力画像データのプロファイル,色度成分,輝度成分等)を用いて階調特性を求めることも可能である。
【0058】
このような画像入力手段1で取得された入力画像データは、各ドットの2次元位置情報が保持される形で所定の画像メモリに格納された後、色彩情報変換手段2に入力される。
【0059】
色彩情報変換手段2は、上記のように入力された入力画像データから、階調画像を評価するための光学情報を生成する光学情報生成手段として機能するものである。本実施形態では、光学情報として色彩情報を適用し、色彩情報変換手段2が入力された入力画像データを色彩情報に変換することで光学情報である色彩情報を生成する場合を例に挙げる。尚、色彩情報とは、色の三属性を構成する明度情報(明度指数ともいう:L*)、色彩情報(色彩指数ともいう:a*)、及び色相情報(色相指数ともいう:b*)を含んで構成されるものである。また、本実施形態による色彩情報変換手段2は、例えば測定物理量をL*a*b*表色系の成分に変換することで明度成分を求めるとするが、この他にL*u*v*表色系等に変換することで明度成分を求めるように構成してもよい。更にまた、上述にもあるように、明度成分の代わりに濃度成分や色度成分や輝度成分や入力画像データのプロファイル等の他の光学情報を用いることも可能である。
【0060】
更に、色彩情報変換手段2は、得られた色彩情報における明度情報を図2におけるY方向で平均化することにより、1次元の明度情報を生成する。
【0061】
即ち、図2に示す所定の階調画像を例えば解像度800dpi,深度16bitのRGB信号として画像入力手段1で入力したとすると、色彩情報変換手段2は、これをドット毎に(ポジション毎の)明度情報に変換する。その後、色彩情報変換手段2は、得られた明度情報の2次元配列をY方向に平均化することで、X方向のみの明度情報の1次元配列を生成する。尚、明度情報への変換は、例えば重回帰式やマトリクス等を用いて計算することで行われる。
【0062】
但し、例えば図3に示すようなスクリーン構造を有する画像では、画像の量子化レベルが微細すぎると、色剤が存在しない部分と色剤が存在する部分との明度差が必要以上に大きくなる場合が存在する。従って、このようなスクリーン構造を有する階調画像をL*変換すると、図4(a)に示すように、入力画像データのプロファイル(プロファイルとは色の校正条件を記述した条件データを指す)に大きなノイズが重畳されてしまう場合が存在する。これは、画像を形成する各ドットのサンプリング(=読み取り)が離散的なものとなってしまうためである。尚、図4中、横軸のポジション(Position)は、X方向のドットの配列位置を示す。
【0063】
これを回避するために本実施形態では、画像特徴量算出手段3において、上記の離散的なサンプリングがなされた1次元配列の明度情報に対してフーリエ変換を施す。その後、画像特徴量算出手段3は、フーリエ変換により得られた情報に対し、人間の視覚系の空間周波数特性を掛け合わせ、得られた情報を更に逆フーリエ変換する。これにより、上記の離散的なサンプリングがなされた1次元配列の明度情報の階調を、図4(b)に示すような、人間の視覚系を通して観察された階調(以下、視感階調という)に変換することができる。
【0064】
次に、画像特徴量算出手段3は、人間の視覚系の空間周波数特性で補正することで得られた視感階調を所定の方法で平滑化する。この平滑化の方法としては、例えば部分平均又は局所平均を算出する方法や、ローパスフィルタを介する方法や、所定のマトリクスを掛ける方法や、人間の視覚系の空間周波数特性の高周波成分が低い特性を利用する方法等が挙げられる。本実施形態では、局所平均により平滑化する場合を例に挙げる。
【0065】
この局所平均により、図4(c)に示すような、滑らかな階調曲線が得られる。本実施形態では、図4(c)に示すような、局所平均により得られた階調を本来あるべき階調(理想階調という)とする。尚、局所平均の算出は、図5に示すように、例えばX方向を1mm範囲に区切り、それぞれの範囲内の明度情報の平均を求めることで行われる。
【0066】
次に、画像特徴量算出手段3は、視感階調(図4(b)参照)と理想階調(図4(c)参照)との差分、即ち階調飛びの量(以下、階調飛び量(L*)という)をX方向のポジション毎に算出する。これにより、階調画像の特徴量(=階調飛び量(L*))が算出される。このポジション毎の階調飛び量(L*)の値の一例を図4(d)に示す。
【0067】
また、このようにして得られた階調飛び量(L*)から人間が知覚できる明度差の限界値(以下、閾値という)を減算することで、画像評価手段4は、人間が認知できる階調飛びの知覚限界を考慮する、即ちより人間の主観的判断に適合した階調評価の結果を得ることが可能となる。式1に明度情報L*の閾値(以下、閾値(L*)とする)の一例を示す。尚、式1において、分母のsampling_Fは入力画像データの解像度[dpi]を示し、分子の300は経験則で得られた知覚限界に基づいて決定された係数を示す。
【数1】

Figure 0004196599
【0068】
これにより、本実施形態による閾値(L*)は、図4(d)に示すようになる。但し、式1に示す閾値(L*)は、White(白)からCyan(シアン)へ連続変化する階調画像に関する閾値である。即ち、他の色による階調画像に関しては異なる閾値の式となる。
【0069】
但し、画像評価手段4は、閾値(L*)以下又は未満、即ち閾値(L*)を減算することで0又はマイナスの値となる階調飛び量(L*)に関しては、処理の対象外とする又は減算の値を0に置換することで、評価対象から除外する。これは、上記の条件に当てはまる階調飛び量(L*)が人間に知覚されないので、階調評価の対象に含める必要がないためである。
【0070】
更に、このようにして閾値(L*)が減算された階調飛び量(L*)を2乗することで階調飛び量(L*)の分散を算出し、これに基づいて階調評価を行うように構成してもよい。
【0071】
また、本実施形態において、図4(d)に示すように、各ポジション毎の階調飛び量(L*)が閾値(L*)以上であれば人間により知覚可能であるとしているが、その知覚量は明度と明度差とに依存する。従って、画像評価手段4は、人間の視感と合致した階調評価を行うために、各ポジションの階調飛び量(L*)をそのポジションの明度情報L*で補正する。この補正を行うための式を、以下の式2に示す。尚、この補正により得られた値を第1補正階調飛び量(L*)とする。
【数2】
Figure 0004196599
【0072】
また、式2により得られた第1補正階調飛び量(L*)も人間の視感による知覚量と等歩度ではない。このため、画像評価手段4は、以下に例示するような式3により得られた値を補正する。尚、この補正により得られた値を第2補正階調飛び量(L*)とする。
【数3】
Figure 0004196599
【0073】
以上のように補正を行うことで、人間の視感に合致したポジション毎の階調飛びの発生量が算出される。尚、これらの補正は、上述のように算出された階調飛び量(L*)に対して行ってもよいし、或いは画像特徴量算出手段3で得られた視感階調に対して行ってもよい。
【0074】
また、階調評価手段4は、以上のようにして得られた値を以下に例示する式4に従って全てのポジションに関して積算する。尚、i=0〜Nは全てのポジションを意味する。また、積算により得られた値を階調性評価値(階調評価指数ともいう)とし、これに基づいて画像出力装置の階調特性を評価する。
【数4】
Figure 0004196599
【0075】
尚、階調評価手段4は、上記の式4により得られた階調性評価値に基づいて画像出力装置の階調特性を評価するが、階調飛び量(L*)の分散に基づいて処理を行った場合、式4で得られた階調性評価値の平方根を画像出力装置の階調特性を評価するための階調評価指数とする。
【0076】
また、以上のように構成された画像評価装置の動作を図6に示すフローチャートにまとめる。
【0077】
図6を参照すると、本実施形態による画像評価装置は、画像入力手段1により入力された入力画像データのRGB信号(11)をXYZ表色系(12)に変換する。その後、Y方向の平均化を算出することで、得られた入力画像データを1次元化(13)し、1次元化されたXYZ表色系の入力画像データをL*a*b*表色系(14)に変換する。尚、この過程を撮像・次元変換処理及び色空間変換処理という。
【0078】
また、本実施形態による画像評価装置は、L*a*b*表色系に変換した入力画像データを空間周波数変換(フーリエ変換:21)し、これに人間の視覚系の空間周波数特性を掛け合わせることで視覚補正処理(22)を行った後、実空間変換(逆フーリエ変換:23)を施す。尚、この過程を空間周波数領域での視覚補正処理という。
【0079】
次に、本実施形態による画像評価装置は、空間周波数補正後の入力画像データを所定間隔毎に平均化処理(31)することで理想階調の階調曲線を求め、この理想階調と視感階調との差分を算出(32)する。その後、この差分に基づいて閾値(L*)を算出する処理(33)を実行し、この閾値(L*)に基づいて分散(階調飛び量(L*))を算出(34)する。尚、この過程を平均化処理及び分散算出処理という。
【0080】
その後、本実施形態による画像評価装置は、求めた分散を人間の視感に基づいて重み補正(41)し、補正後の分散値を積分計算する(42)。これにより、画像出力装置の階調特性を評価する指数が算出される。また、積分計算により得られた値の平方根を算出(43)し、これを評価する指数としてもよい。
【0081】
以上のように構成及び動作することで、本実施形態では、画像出力装置から出力された階調画像における階調特性を、人間の知覚に合致して正しく評価することが可能となる。即ち、本実施形態によれば、評価対象となる階調画像から得られた光学情報を利用して階調飛びの評価を定量化することが可能となり、被評価対象そのものの階調飛びを人間の知覚特性に合致した量により評価することが可能となる。また、階調飛びが人間が知覚する許容値以上であった場合の階調飛びの評価の定量化も実現し、被評価画像の許容値以上の階調飛びを人間の知覚特性に合致した量に基づいて評価することが可能となる。これにより、評価対象の階調画像そのものを、従来よりも信頼性高く、より人間の感覚にマッチして評価することが可能となる。
【0082】
尚、本実施形態による画像評価は、上述のRGBに限定されず、例えばCMYKの色や色相の階調等、何れの場合でも正しくそれを評価することが可能である。
【0083】
また、本実施形態による画像評価装置における色彩情報変換手段2と画像特徴量算出手段3と階調評価手段4とは、一般的なパーソナルコンピュータやワークステーション等の情報処理装置を用い、上記各手段を機能させるためのプログラムにより実現されてもよい。図7に、これを実現する情報処理装置の一例を示す。
【0084】
この情報処理装置は、CPU(中央演算処理装置)101とRAM(Random Access Memory)102とROM(Read Only Memory)103と内部記録装置104と表示装置105とユーザインタフェース106とI/Oインタフェース107とが内部バス100を介して通信可能に接続されている。また、内部バス100にはI/Oインタフェース107及び外部バス110を介して外部記録装置112及び画像読取装置111が通信可能に接続されている。
【0085】
画像読取装置111は、上述の画像入力手段1に対応するもので、CPU101からの命令に従い所定の階調画像を読み取って入力画像データを生成し、これをCPU101に入力する。
【0086】
CPU101は上記のように中央演算処理装置(所謂コンピュータ)で構成されるもので、ROM103に記憶されたアルゴリズムにしたがって、内部記憶装置104又は外部記憶装置111に記憶されているプログラムを読み出し、これを実行する。これにより、色彩情報変換手段2,画像特徴量算出手段3,階調評価手段4が実現される。また、この際RAM102に所定の作業領域が確保される。また、RAM102は画像読取手段11から入力された入力画像データをバッファする画像メモリとしても機能する。
【0087】
内部記憶装置104及び外部記憶装置112は、例えばハードディスクやCD−ROMやDVD―ROM等(又はこれらの書込/書換可能なもの)で構成されるものであり、本実施形態による色彩情報変換手段2,画像特徴量算出手段3,階調評価手段4を実現するプログラムを記憶するものである。
【0088】
表示装置105は例えばディスプレイ等で構成されるものである。尚、この表示装置105と上述の所定の階調画像が表示される視覚表示装置とが同一のものであってもよい。ユーザインタフェース106はキーボードやマウス等を含んで構成されるものである。
【0089】
以上のように構成することで、本実施形態では、上記で説明した画像評価装置をプログラムで実現することが可能となる。更に、このプログラムをCD−ROMやDVD−ROMやこれらの書込/書換可能なもの等の持ち運びに適した記録媒体に記録することで、この記録媒体を介して広く頒布することが可能となる。
【0090】
〔第2の実施形態〕
また、第1の実施形態では、人間が知覚可能な光学情報量を階調飛び量(L*)の閾値(L*)としていたが、この閾値(L*)は実際に人間が知覚できるか否かの境界であって、その階調飛び量(L*)を製品として許容できるか否かの境界とは異なる。そこで、閾値(L*)を、人間の知覚限界でなく、許容限界に基づいて決定する場合の例を第2の実施形態として以下に例示する。
【0091】
本実施形態の場合、第1の実施形態における式1で示した閾値(L*)の式が以下の式5に置き換えられる。尚、この式5は、第1の実施形態と同様に、分母のsampling_Fは入力画像データの解像度[dpi]を示し、分子の450は経験則で得られた許容限界に基づいて決定された係数を示す。
【数5】
Figure 0004196599
【0092】
これにより、本実施形態による閾値(L*)は、図4(d)に示すようになる。但し、式1に示す閾値(L*)は、White(白)からCyan(シアン)へ連続変化する階調画像に関する閾値である。即ち、他の色による階調画像に関しては異なる閾値の式となる。
【0093】
よって、本実施形態による画像評価装置は、より実用的なレベルで画像出力装置の階調特性の評価を行うことができる。尚、他の構成は、第1の実施形態と同様であるため、ここでは説明を省略する。
【0094】
〔他の実施形態〕
以上、説明した実施形態は本発明の好適な一実施形態にすぎず、本発明はその趣旨を逸脱しない限り種々変形して実施可能である。
【0095】
【発明の効果】
以上説明したように、本発明によれば、評価すべき階調画像に対する客観的評価を正しく行うことができ、しかもその評価結果を人間の主観的判断と十分に対応させることが可能となる。
【0096】
また、光学特性のプロファイルに重畳された不要なノイズを除去し、正確に画像評価を行うことも可能となる。更に、人間の視覚特性により適合した客観的な画像の階調評価を行うことが可能となる。更にまた、前記光学情報又は前記人間の視覚系の空間周波数特性に基づいて周波数変換された光学情報を平滑化することにより得られる理想的な光学情報を基準として前記特徴量を算出することが可能となる。ここで、部分平均又は局所平均又はローパスフィルタ又はマトリクス又は人間の視覚系の空間周波数特性の高周波成分が低い特性のうち何れかを利用することで得られた理想的な光学情報の階調曲線を得ることもできる。
【0097】
また、理想的な光学情報を基準とする、実測された光学情報又はこれを人間の視覚系の空間周波数特性で変換することで得られた光学情報の分散値が特徴量として算出される。更に、人間が認知できない程度又は許容できる程度の階調飛びを除外し、より有効に階調評価を行うことが可能となる。更にまた、前記階調画像の全体的な階調評価を行うことが可能となる。
【0098】
また、以上のような効果をプログラムを用いて実現することも可能となる。更に、このプログラムを記録媒体に記録して提供することも可能となる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態による画像評価装置の概略構成を示すブロック図である。
【図2】本発明で使用する階調画像の一例を示す図である。
【図3】図2に示す階調画像が出力されるスクリーンの構造例を示す図である。
【図4】本発明の第1の実施形態における処理により生成されたポジション毎の明度情報のグラフであり、(a)は画像入力手段1により得られた明度情報であり、(b)は(a)を視覚の空間周波数補正することで得られグラフであり、(c)は(b)を平均化す処理することで得られたグラフであり、(d)は(c)と(d)との差分を示すグラフである。
【図5】本発明の第1の実施形態における平均化処理を説明するためのグラフである。
【図6】本発明の第1の実施形態における処理の流れを示すフローチャートである。
【図7】本発明の第1の実施形態による画像評価装置が実現される情報処理装置の構成例を示すブロック図である。
【符号の説明】
1 画像入力手段 2 色彩情報変換手段
3 画像特徴量算出手段 4 階調評価手段
11 RGB 12 RGB→XYZ
13 1次元化 14 XYZ→L*a*b*
21 空間周波数変換 22 視覚補正処理
23 実空間変換 31 平均化処理
32 差分算出 33 閾値処理
34 分散処理 41 重み補正
42 積分計算 43 平方根算出[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image evaluation apparatus, an image evaluation method, a program thereof, and a recording medium on which the program is recorded, and in particular, an image evaluation apparatus, an image evaluation method, and a program for performing objective determination in consideration of human subjective judgment The present invention also relates to a recording medium on which the program is recorded.
[0002]
[Prior art]
Conventionally, generally, in an image forming apparatus such as a printer or a copying machine, tone reproducibility is often evaluated through output and analysis of a tone image. Here, the gradation image refers to a pattern image in which at least one of color information such as brightness, saturation, and hue changes continuously.
[0003]
Originally, when such a gradation image is output to an ideal printer, the gradation of the output result should be reproduced with linear or curvilinear smoothness.
[0004]
However, in an actual printer, there is a case where an image in which the gradation portion is disturbed is output, such as gradation skip or streaky unevenness. This disturbance also occurs when a natural image (an output image in a normal use state) is output, and is a factor that significantly deteriorates the performance of the printer.
[0005]
For these reasons, quantitative evaluation of gradation image disturbance is now an extremely important item for evaluating the drawing performance of an image forming apparatus. The same applies to visual display devices such as CRT (Cathode Ray Tube).
[0006]
Conventionally, for example, human visual comparison evaluation is widely known as a method for analyzing and evaluating a gradation image. This method is called so-called subjective evaluation, and evaluates the quality of a gradation image, the degree of damage, and the like by subjective judgment through human vision. However, such a subjective evaluation has a problem that evaluation results vary from one evaluator to another, and human labor is required.
[0007]
In order to solve such problems, in recent years, it has been proposed to perform so-called objective evaluation that does not depend on human subjective judgment on a gradation image output by an image forming apparatus or the like. As an example, there is an image evaluation method disclosed in, for example, Japanese Patent Laid-Open No. 11-25274. This is hereinafter referred to as prior art 1.
[0008]
Prior art 1 uses at least one optical information of lightness information and density information of an output image and calculates a difference in optical information between adjacent gradation levels, so that it does not depend on human visual evaluation. In addition, the gradation characteristics of the output device are objectively evaluated.
[0009]
However, even when objective evaluation is performed in this way, the evaluation result must be compatible with subjective judgment by humans. For this reason, the conventional technique 1 employs a method for quantifying the magnitude of the gradation characteristics (gradation skipping and gradation collapse) of an image based on a limit value that can be recognized by humans.
[0010]
Similarly, as another example of objective evaluation, there is an image quality evaluation method disclosed in Japanese Patent Laid-Open No. 11-39486. This is hereinafter referred to as Prior Art 2.
[0011]
Prior art 2 uses at least one optical information of density information, lightness information, and chromaticity information to calculate a difference in optical information between adjacent gradation levels, and without depending on human visual evaluation, A method of objectively evaluating the gradation characteristics of the output device is adopted.
[0012]
In addition, Japanese Patent Laid-Open No. 2001-128017 discloses a technique for dividing a gradation image based on an identification threshold obtained according to human visual characteristics and calculating a gradation evaluation value from the image feature amount. It is disclosed. This is hereinafter referred to as Conventional Technology 3.
[0013]
[Problems to be solved by the invention]
However, the objective evaluation according to the above-described conventional techniques 1 to 3 has a problem that the gradation image cannot be correctly evaluated.
[0014]
For example, in the image evaluation method disclosed in the related art 1, evaluation is performed using at least one optical information of lightness information or density information. Generally, a color image has lightness (density) and saturation. , And the three attributes of color such as hue. Therefore, not only the change in lightness (density) but also the change in saturation and hue are important factors in the change in the gradation of the color (including the color tone).
[0015]
For this reason, only one of lightness information and density information is used, and information regarding the saturation and hue constituting the three attributes of color is not taken into account, so that it is not possible to take sufficient measures particularly for color tone changes in color images. . Specifically, for example, if information on saturation and hue is missing for a gradation image in which a change from “blue” to “red” is expressed, this cannot be correctly evaluated.
[0016]
In addition, as described above, objective evaluation of gradation images must be handled with human subjective judgment. Therefore, color images are evaluated by considering not only gradation characteristics but also color characteristics. There is a need to. In other words, the three attributes of lightness, saturation, and hue are more suitable for human visual characteristics. Therefore, in the case of a color image, the correspondence with subjective judgment can be fully obtained only by using these three attributes. It can be said that gradation evaluation becomes possible.
[0017]
On the other hand, the prior art 2 evaluates optical information between adjacent gradation levels in consideration of chromaticity information. However, in the prior art 2, since the evaluation target is a patch, there is a problem that the gradation characteristics of the output device are evaluated and the gradation image that is the image to be evaluated is not evaluated.
[0018]
In the prior art 2, the error due to the in-plane variation is reduced at the arrangement position of the patch. However, in this method, there is a problem of in-plane variation at the time of outputting an actual continuous tone image and stability with time of the output device. Can not be solved. Further, if front-end processing such as rasterization when outputting a gradation image is included, there is a case where the correspondence between the patch and the gradation image may not be achieved. There is also a problem that cannot be handled.
[0019]
Moreover, in the prior art 3, since the comparison is performed with the variance value having a width exceeding the threshold value, there is a problem that this is different from the actual evaluation value. Taking the case of a printer as an example, the printer has a unique gradation curve for performing tone correction on the input color. That is, for example, the human eye is sensitive to changes from highlight to middle, so the printer has a tone curve to make adjustments to reduce color gamut compression between the highlight and middle. .
[0020]
However, if the printer is configured to perform tone correction by itself, there may be a case where a tone skip value (also referred to as a dispersion value) is large even if a continuous tone image looks natural.
[0021]
Furthermore, when the gradation is expressed by the area ratio of the colorant, if the gradation image to be evaluated is measured, the fluctuation may become very large due to the influence of the screen, and the threshold value may be easily exceeded. . In such a case, the width cannot be measured.
[0022]
Here, it is conceivable to increase the reading range at the time of measurement so as not to affect the screen, but in order to realize this, it is necessary to make the reading range very large. There is a problem that it becomes impossible to evaluate the gradation skip.
[0023]
The present invention has been made in view of such a problem, and can objectively evaluate a gradation image to be evaluated correctly, and the evaluation result sufficiently corresponds to human subjective judgment. It is an object to provide an image evaluation apparatus, an image evaluation method, a program thereof, and a recording medium on which the program is recorded.
[0024]
[Means for Solving the Problems]
  To achieve this goal,Claim 1The invention includes an image input means for inputting the output gradation image and outputting image data, and the image dataGenerate brightness information in color informationGenerating means;The lightness information is subjected to Fourier transform, the result is multiplied by the spatial frequency characteristic of the human visual system, and the obtained result is subjected to inverse Fourier transform to obtain a visual gradation, Calculating means for obtaining an ideal gradation by locally averaging the tones and calculating a gradation skip amount from a difference between the visual gradation and the ideal gradation;,A threshold value indicating a brightness limit value perceivable by a human of the following formula (1) is calculated from the gradation skip amount,
Threshold = 300 or 450 / resolution of the image data * the third root of the brightness information of each dot of the image data (1)
Using the following formulas (2) and (3), the gradation jump amount of each dot that matches human vision is calculated,
First correction gradation skip amount = (the gradation skip amount−the threshold value) * the third root of the brightness information of each dot of the image data (2)
Second correction gradation jump amount = 0.9th root of first correction gradation jump amount (3)
A gradation evaluation index of the gradation image is calculated by integrating the second correction gradation jump amount obtained by the expression (3) with respect to all dots.Gradation evaluation means. ThisRealizes quantification of evaluation of gradation skip when the gradation skip is greater than the permissible value perceived by humans, and is based on the amount of gradation jump that exceeds the permissible value of the evaluated image according to human perceptual characteristics Can be evaluated. As a result, the gradation image itself to be evaluated can be evaluated with higher reliability and matching with the human sense.
[0025]
  According to a second aspect of the present invention, there is provided an image input step of inputting the output gradation image and outputting image data, a generation step of generating lightness information in color information from the image data, and a Fourier for the lightness information. The result is multiplied by the spatial frequency characteristic of the human visual system, and the obtained result is subjected to inverse Fourier transform to obtain the luminous gradation, and the luminous gradation is locally averaged. A calculation step of acquiring an ideal gradation and calculating a gradation skip amount from a difference between the visual gradation and the ideal gradation;,A threshold value indicating a brightness limit value perceivable by a human of the following formula (1) is calculated from the gradation skip amount,
Threshold = 300 or 450 / resolution of the image data * the third root of the brightness information of each dot of the image data (1)
Using the following formulas (2) and (3), the gradation jump amount of each dot that matches human vision is calculated,
First correction gradation skip amount = (the gradation skip amount−the threshold value) * the third root of the brightness information of each dot of the image data (2)
Second correction gradation jump amount = 0.9th root of first correction gradation jump amount (3)
A gradation evaluation step of calculating a gradation evaluation index of the gradation image by integrating the second correction gradation jump amount obtained by the expression (3) with respect to all dots.
[0026]
According to a third aspect of the present invention, there is provided an image input means for inputting an output gradation image and outputting image data, a generation means for generating lightness information in color information from the image data,  The lightness information is subjected to Fourier transform, the result is multiplied by the spatial frequency characteristic of the human visual system, and the obtained result is subjected to inverse Fourier transform to obtain a visual gradation, An average gradation is obtained by locally averaging the tones, a calculation means for calculating a gradation skip amount from the difference between the visual gradation and the ideal gradation, and the following equation (1) from the gradation skip amount: Calculating a threshold value that indicates the limit of lightness perceivable by humans,
Threshold = 300 or 450 / resolution of the image data * the third root of the brightness information of each dot of the image data (1)
Using the following formulas (2) and (3), the gradation jump amount of each dot that matches human vision is calculated,
First correction gradation skip amount = (the gradation skip amount−the threshold value) * the third root of the brightness information of each dot of the image data (2)
Second correction gradation jump amount = 0.9th root of first correction gradation jump amount (3)
By integrating the second corrected gradation jump amount obtained by the expression (3) with respect to all the dots, it functions as a gradation evaluation means for calculating a gradation evaluation index of the gradation image..
[0027]
  The invention according to claim 4 is characterized in that the program according to claim 3 is recorded.
[0049]
DETAILED DESCRIPTION OF THE INVENTION
The present invention relates to information input or output in an information society, particularly image information input by an image input device such as a scanner or a digital camera, image information output to an image display device such as a display, a color hard copy party The present invention relates to an image evaluation method for evaluating image information output by an image output device or the like and an image evaluation device for realizing the method. DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.
[0050]
[First Embodiment]
Hereinafter, an image evaluation apparatus according to a first embodiment of the present invention will be described in detail with reference to the drawings. Note that the image evaluation apparatus according to the present embodiment is a visual display apparatus that displays an image on a screen such as an image forming apparatus that prints an image on a paper surface such as a printer or a copier, or a CRT (Cathode-Ray Tube) display. The tone image output from the image output device is analyzed, and the tone image is evaluated from the analysis result, thereby evaluating the drawing performance of the image output device.
[0051]
FIG. 1 is a block diagram illustrating a schematic configuration of the image evaluation apparatus according to the present embodiment. Referring to FIG. 1, the image evaluation apparatus includes an image input unit 1, a color information conversion unit 2, an image feature amount calculation unit 3, and a gradation evaluation unit 4.
[0052]
The image input means 1 in FIG. 1 acquires image data of a predetermined gradation image output from the image output apparatus as described above by optically reading a gradation image to be evaluated. The predetermined gradation image is obtained by outputting image data prepared in advance by an image output device. Here, an example of a predetermined gradation image output from the image output apparatus is shown in FIG. For the sake of distinction in the following description, image data to be output to the image output device is assumed to be original image data, and image data acquired by the image input means 1 is assumed to be input image data.
[0053]
Further, the image data acquired by the image input unit 1 includes, for example, R (red), G (green), and B (blue) color component signals. However, the present embodiment is not limited thereto. For example, each color component signal of C (Cyan), M (Magenta), Y (Yellow), and K (black) may be included.
[0054]
For example, a one-dimensional scanning scanner or the like is applied to the image input unit 1. However, in addition to this, even if an image reading device having a spectral sensitivity equivalent to the color matching functions x (λ), y (λ), z (λ) in the XYZ color system is applied, a microdensitometer, A general image reading apparatus such as a color scanner, a monochrome scanner, a drum scanner, a densitometer, or a colorimeter may be applied.
[0055]
Furthermore, a general-purpose image reading device whose output is an RGB signal may be applied, or a so-called digital camera configured with a CCD (Charge Couple Device) may be applied. That is, the configuration for reading an image in the image input means 1 is not limited to the two-dimensional scanning colorimeter.
[0056]
Furthermore, when a predetermined gradation image to be evaluated is output on the screen by the visual display device, an image reading device such as a luminance meter is applied to the configuration for reading the image in the image input means 1.
[0057]
As described above, the image input unit 1 can be modified in any way as long as it can generate input image data by reading a predetermined gradation image output from the image output device. In other words, as long as the image data of the gradation image can be acquired via the predetermined image output device, various modifications can be made. In the following description, an example is given of the case where the tone characteristics of the tone image are obtained using the brightness component of the acquired input image. However, the present invention is not limited to this, and density components and other optical information (input image data) It is also possible to obtain gradation characteristics using a profile, a chromaticity component, a luminance component, etc.).
[0058]
The input image data acquired by the image input unit 1 is stored in a predetermined image memory in such a manner that the two-dimensional position information of each dot is held, and then input to the color information conversion unit 2.
[0059]
The color information conversion unit 2 functions as an optical information generation unit that generates optical information for evaluating the gradation image from the input image data input as described above. In this embodiment, color information is applied as optical information, and color information that is optical information is generated by converting input image data input by the color information conversion unit 2 into color information. Note that the color information is lightness information (also referred to as lightness index: L *), color information (also referred to as color index: a *), and hue information (also referred to as hue index: b *) constituting the three attributes of color. It is comprised including. In addition, the color information conversion unit 2 according to the present embodiment obtains a lightness component by converting a measured physical quantity into a component of an L * a * b * color system, for example, but in addition to this, L * u * v * You may comprise so that a brightness component may be calculated | required by converting into a color system etc. Furthermore, as described above, other optical information such as a density component, a chromaticity component, a luminance component, and a profile of input image data can be used instead of the lightness component.
[0060]
Further, the color information conversion means 2 generates one-dimensional lightness information by averaging the lightness information in the obtained color information in the Y direction in FIG.
[0061]
That is, if the predetermined gradation image shown in FIG. 2 is input by the image input means 1 as an RGB signal having a resolution of 800 dpi and a depth of 16 bits, for example, the color information conversion means 2 outputs the brightness for each dot (for each position). Convert to information. Thereafter, the color information conversion means 2 generates a one-dimensional array of lightness information only in the X direction by averaging the obtained two-dimensional array of lightness information in the Y direction. Note that the conversion to lightness information is performed by calculation using, for example, a multiple regression equation or a matrix.
[0062]
However, for example, in an image having a screen structure as shown in FIG. 3, if the quantization level of the image is too fine, the brightness difference between the portion where the colorant is not present and the portion where the colorant is present becomes larger than necessary. Exists. Therefore, when the gradation image having such a screen structure is L * converted, as shown in FIG. 4A, the profile of the input image data (the profile indicates the condition data describing the color calibration condition). There is a case where large noise is superimposed. This is because sampling (= reading) of each dot forming an image becomes discrete. In FIG. 4, the position on the horizontal axis (Position) indicates the arrangement position of dots in the X direction.
[0063]
In order to avoid this, in the present embodiment, the image feature quantity calculation means 3 performs Fourier transform on the lightness information of the one-dimensional array subjected to the discrete sampling. Thereafter, the image feature quantity calculation means 3 multiplies the information obtained by the Fourier transform by the spatial frequency characteristic of the human visual system, and further performs the inverse Fourier transform on the obtained information. As a result, the gradation of the brightness information of the one-dimensional array subjected to the discrete sampling described above is converted into a gradation observed through a human visual system as shown in FIG. Can be converted to
[0064]
Next, the image feature quantity calculation means 3 smoothes the visual gradation obtained by correcting with the spatial frequency characteristics of the human visual system by a predetermined method. As a smoothing method, for example, a method of calculating a partial average or a local average, a method through a low-pass filter, a method of applying a predetermined matrix, or a characteristic in which a high frequency component of the spatial frequency characteristic of the human visual system is low. The method to utilize etc. are mentioned. In the present embodiment, a case where smoothing is performed by local averaging will be described as an example.
[0065]
By this local average, a smooth gradation curve as shown in FIG. 4C is obtained. In the present embodiment, the gradation obtained by the local average as shown in FIG. 4C is assumed to be the original gradation (referred to as an ideal gradation). As shown in FIG. 5, the local average is calculated by, for example, dividing the X direction into 1 mm ranges and calculating the average of the brightness information within each range.
[0066]
Next, the image feature amount calculation means 3 calculates the difference between the visual gradation (see FIG. 4B) and the ideal gradation (see FIG. 4C), that is, the amount of gradation skip (hereinafter referred to as gradation). A jump amount (referred to as L *) is calculated for each position in the X direction. Thereby, the feature amount (= tone skip amount (L *)) of the gradation image is calculated. An example of the value of the gradation skip amount (L *) for each position is shown in FIG.
[0067]
In addition, by subtracting a brightness difference limit value (hereinafter referred to as a threshold value) that can be perceived by humans from the gradation jump amount (L *) obtained in this way, the image evaluation means 4 is capable of recognizing a floor that humans can recognize. It is possible to obtain a gradation evaluation result that considers the perceptual limit of jumping, that is, more suited to human subjective judgment. Formula 1 shows an example of a threshold value of lightness information L * (hereinafter referred to as a threshold value (L *)). In Equation 1, sampling_F in the denominator indicates the resolution [dpi] of the input image data, and 300 in the numerator indicates a coefficient determined based on the perceptual limit obtained by empirical rules.
[Expression 1]
Figure 0004196599
[0068]
Thereby, the threshold value (L *) according to the present embodiment is as shown in FIG. However, the threshold value (L *) shown in Equation 1 is a threshold value for a gradation image that continuously changes from White (white) to Cyan (cyan). That is, different threshold expressions are used for gradation images of other colors.
[0069]
However, the image evaluation unit 4 does not process the gradation jump amount (L *) which is equal to or less than the threshold value (L *), that is, 0 or a negative value by subtracting the threshold value (L *). Or by subtracting 0 from the value of subtraction. This is because the gradation skip amount (L *) that satisfies the above condition is not perceived by humans and therefore does not need to be included in the gradation evaluation target.
[0070]
Further, the variance of the gradation skip amount (L *) is calculated by squaring the gradation skip amount (L *) from which the threshold value (L *) has been subtracted in this way, and the gradation evaluation is performed based on this. You may comprise so that it may perform.
[0071]
Further, in the present embodiment, as shown in FIG. 4D, if the gradation skip amount (L *) for each position is equal to or greater than the threshold value (L *), it is perceivable by humans. The amount of perception depends on the brightness and the brightness difference. Accordingly, the image evaluation unit 4 corrects the gradation skip amount (L *) of each position with the lightness information L * of each position in order to perform gradation evaluation that matches human visual perception. An equation for performing this correction is shown in Equation 2 below. Note that the value obtained by this correction is the first correction gradation skip amount (L *).
[Expression 2]
Figure 0004196599
[0072]
In addition, the first correction gradation jump amount (L *) obtained by Expression 2 is not equal to the perceptual amount due to human visual perception. For this reason, the image evaluation means 4 corrects the value obtained by Equation 3 as exemplified below. Note that the value obtained by this correction is the second correction gradation skip amount (L *).
[Equation 3]
Figure 0004196599
[0073]
By performing the correction as described above, the generation amount of gradation skip for each position that matches the human visual sense is calculated. These corrections may be performed on the gradation skip amount (L *) calculated as described above, or may be performed on the visual gradation obtained by the image feature amount calculation unit 3. May be.
[0074]
Further, the gradation evaluation unit 4 integrates the values obtained as described above with respect to all the positions in accordance with Expression 4 exemplified below. Note that i = 0 to N means all positions. In addition, a value obtained by integration is used as a gradation evaluation value (also referred to as a gradation evaluation index), and the gradation characteristics of the image output apparatus are evaluated based on the evaluation value.
[Expression 4]
Figure 0004196599
[0075]
The tone evaluation means 4 evaluates the tone characteristics of the image output device based on the tone evaluation value obtained by the above equation 4, but based on the variance of the tone skip amount (L *). When processing is performed, the square root of the tone evaluation value obtained by Expression 4 is used as a tone evaluation index for evaluating the tone characteristics of the image output apparatus.
[0076]
The operation of the image evaluation apparatus configured as described above is summarized in the flowchart shown in FIG.
[0077]
Referring to FIG. 6, the image evaluation apparatus according to the present embodiment converts the RGB signal (11) of the input image data input by the image input means 1 into the XYZ color system (12). After that, by averaging the Y direction, the obtained input image data is made one-dimensional (13), and the one-dimensional input image data of the XYZ color system is converted into the L * a * b * color specification. Convert to system (14). This process is called imaging / dimension conversion processing and color space conversion processing.
[0078]
In addition, the image evaluation apparatus according to the present embodiment performs spatial frequency conversion (Fourier transform: 21) on input image data converted into the L * a * b * color system, and multiplies the input image data by the spatial frequency characteristics of the human visual system. After performing visual correction processing (22) by combining them, real space transformation (inverse Fourier transformation: 23) is performed. This process is called visual correction processing in the spatial frequency domain.
[0079]
Next, the image evaluation apparatus according to the present embodiment obtains a gradation curve of an ideal gradation by averaging (31) the input image data after the spatial frequency correction at a predetermined interval, and obtains the ideal gradation and the view. The difference from the sensitive gradation is calculated (32). Thereafter, a process (33) for calculating a threshold value (L *) based on the difference is executed, and a variance (gradation skip amount (L *)) is calculated (34) based on the threshold value (L *). This process is called an averaging process and a variance calculation process.
[0080]
Thereafter, the image evaluation apparatus according to the present embodiment performs weight correction (41) on the obtained variance based on human visual perception, and integrates and calculates the corrected variance value (42). As a result, an index for evaluating the gradation characteristics of the image output apparatus is calculated. Moreover, it is good also as an index | exponent which calculates the square root of the value obtained by integral calculation (43), and evaluates this.
[0081]
With the configuration and operation as described above, in the present embodiment, it is possible to correctly evaluate the gradation characteristics in the gradation image output from the image output apparatus in accordance with human perception. That is, according to this embodiment, it is possible to quantify the evaluation of gradation skip using optical information obtained from the gradation image to be evaluated, and the gradation skip of the evaluation target itself can be quantified. It is possible to evaluate by an amount that matches the perceptual characteristics of. In addition, it is possible to quantify the evaluation of gradation skip when the gradation skip is greater than or equal to the permissible value perceived by humans. It becomes possible to evaluate based on. As a result, the gradation image itself to be evaluated can be evaluated with higher reliability and matching with the human sense.
[0082]
Note that the image evaluation according to the present embodiment is not limited to the above-described RGB, and for example, it is possible to correctly evaluate the CMYK color or hue gradation in any case.
[0083]
In addition, the color information conversion unit 2, the image feature amount calculation unit 3, and the gradation evaluation unit 4 in the image evaluation apparatus according to the present embodiment use an information processing apparatus such as a general personal computer or a workstation. It may be realized by a program for functioning. FIG. 7 shows an example of an information processing apparatus that realizes this.
[0084]
This information processing apparatus includes a CPU (Central Processing Unit) 101, a RAM (Random Access Memory) 102, a ROM (Read Only Memory) 103, an internal recording device 104, a display device 105, a user interface 106, an I / O interface 107, Are communicably connected via the internal bus 100. An external recording device 112 and an image reading device 111 are communicably connected to the internal bus 100 via an I / O interface 107 and an external bus 110.
[0085]
The image reading device 111 corresponds to the above-described image input unit 1, reads a predetermined gradation image according to a command from the CPU 101, generates input image data, and inputs this to the CPU 101.
[0086]
The CPU 101 is composed of a central processing unit (so-called computer) as described above, and reads out a program stored in the internal storage device 104 or the external storage device 111 in accordance with an algorithm stored in the ROM 103, Execute. Thereby, the color information conversion means 2, the image feature amount calculation means 3, and the gradation evaluation means 4 are realized. At this time, a predetermined work area is secured in the RAM 102. The RAM 102 also functions as an image memory that buffers input image data input from the image reading unit 11.
[0087]
The internal storage device 104 and the external storage device 112 are composed of, for example, a hard disk, a CD-ROM, a DVD-ROM, or the like (or a rewritable / rewritable device thereof), and color information conversion means according to this embodiment. 2, a program for realizing the image feature quantity calculation means 3 and the gradation evaluation means 4 is stored.
[0088]
The display device 105 is composed of, for example, a display. Note that the display device 105 and the visual display device on which the above-described predetermined gradation image is displayed may be the same. The user interface 106 includes a keyboard and a mouse.
[0089]
With the configuration as described above, in the present embodiment, the image evaluation apparatus described above can be realized by a program. Further, by recording this program on a recording medium suitable for carrying such as a CD-ROM, DVD-ROM, or a writable / rewritable one, it becomes possible to distribute the program widely via this recording medium. .
[0090]
[Second Embodiment]
In the first embodiment, the amount of optical information that can be perceived by humans is set as the threshold (L *) of the gradation skip amount (L *). Is this threshold (L *) actually perceivable by humans? This is different from the boundary of whether or not the gradation skip amount (L *) is acceptable as a product. Therefore, an example in which the threshold value (L *) is determined based on an allowable limit instead of a human perceptual limit will be exemplified below as a second embodiment.
[0091]
In the case of the present embodiment, the threshold (L *) equation shown in Equation 1 in the first embodiment is replaced by the following Equation 5. As in the first embodiment, Equation 5 indicates that the denominator sampling_F indicates the resolution [dpi] of the input image data, and the numerator 450 is a coefficient determined based on the allowable limit obtained by empirical rules. Indicates.
[Equation 5]
Figure 0004196599
[0092]
Thereby, the threshold value (L *) according to the present embodiment is as shown in FIG. However, the threshold value (L *) shown in Equation 1 is a threshold value for a gradation image that continuously changes from White (white) to Cyan (cyan). That is, different threshold expressions are used for gradation images of other colors.
[0093]
Therefore, the image evaluation apparatus according to the present embodiment can evaluate the gradation characteristics of the image output apparatus at a more practical level. Since other configurations are the same as those of the first embodiment, description thereof is omitted here.
[0094]
[Other Embodiments]
The embodiment described above is merely a preferred embodiment of the present invention, and the present invention can be variously modified and implemented without departing from the gist thereof.
[0095]
【The invention's effect】
As described above, according to the present invention, it is possible to correctly perform an objective evaluation on a gradation image to be evaluated, and to sufficiently correspond the evaluation result to human subjective judgment.
[0096]
Also, unnecessary noise superimposed on the profile of optical characteristics can be removed, and image evaluation can be performed accurately. Furthermore, it is possible to perform gradation evaluation of an objective image that is more suitable for human visual characteristics. Furthermore, it is possible to calculate the feature amount based on ideal optical information obtained by smoothing the optical information or frequency-converted optical information based on the spatial frequency characteristics of the human visual system. It becomes. Here, a gradation curve of ideal optical information obtained by using any one of a partial average, a local average, a low-pass filter, a matrix, or a low frequency high frequency component of the human visual system is used. It can also be obtained.
[0097]
Further, the measured optical information based on the ideal optical information or the dispersion value of the optical information obtained by converting this with the spatial frequency characteristic of the human visual system is calculated as the feature amount. Furthermore, it is possible to perform gradation evaluation more effectively by excluding gradation skipping that cannot be perceived by humans or acceptable. Furthermore, it is possible to perform overall gradation evaluation of the gradation image.
[0098]
Further, the above effects can be realized using a program. Further, the program can be recorded on a recording medium and provided.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a schematic configuration of an image evaluation apparatus according to a first embodiment of the present invention.
FIG. 2 is a diagram showing an example of a gradation image used in the present invention.
3 is a diagram showing an example of the structure of a screen that outputs the gradation image shown in FIG.
FIG. 4 is a graph of brightness information for each position generated by the processing according to the first embodiment of the present invention, (a) is brightness information obtained by the image input means 1, and (b) is ( a) is a graph obtained by correcting visual spatial frequency, (c) is a graph obtained by averaging (b), and (d) is a graph obtained by (c), (d), and It is a graph which shows the difference of.
FIG. 5 is a graph for explaining an averaging process in the first embodiment of the present invention.
FIG. 6 is a flowchart showing the flow of processing in the first embodiment of the present invention.
FIG. 7 is a block diagram illustrating a configuration example of an information processing apparatus in which the image evaluation apparatus according to the first embodiment of the present invention is realized.
[Explanation of symbols]
1 Image input means 2 Color information conversion means
3 Image feature amount calculation means 4 Tone evaluation means
11 RGB 12 RGB → XYZ
13 One-dimensionalization 14 XYZ → L * a * b *
21 Spatial frequency conversion 22 Visual correction processing
23 Real space transformation 31 Averaging
32 Difference calculation 33 Threshold processing
34 Distributed processing 41 Weight correction
42 Integral calculation 43 Square root calculation

Claims (4)

出力された階調画像を入力して画像データを出力する画像入力手段と、
前記画像データから色彩情報における明度情報を生成する生成手段と、
前記明度情報に対してフーリエ変換を施し、その結果に人間の視覚系の空間周波数特性を乗算し、得られた結果に逆フーリエ変換を施すことで視感階調を取得し、当該視感階調を局所平均することで理想階調を取得し、前記視感階調と前記理想階調の差分から階調飛び量を算出する算出手段と
前記階調飛び量から下記(1)式の人間が知覚可能な明度の限界値を示す閾値を算出し、
閾値=300又は450/前記画像データの解像度*前記画像データの各ドットの明度情報の3乗根…(1)
下記(2)式及び(3)式により、人間の視覚に合致した各ドットの階調飛び量を算出し、
第1補正階調飛び量=(前記階調飛び量−前記閾値)*前記画像データの各ドットの明度情報の3乗根…(2)
第2補正階調飛び量=第1補正階調飛び量の0.9乗根…(3)
前記(3)式により得られた第2補正階調飛び量を全ドットに関して積算することで、前記階調画像の階調評価指数を算出する階調評価手段と、
を有することを特徴とする画像評価装置。
Image input means for inputting the output gradation image and outputting image data;
Generating means for generating brightness information in color information from the image data;
The lightness information is subjected to Fourier transform, the result is multiplied by the spatial frequency characteristic of the human visual system, and the obtained result is subjected to inverse Fourier transform to obtain a visual gradation, A calculation means for acquiring an ideal gradation by locally averaging the tones, and calculating a gradation jump amount from a difference between the visual gradation and the ideal gradation ;
A threshold value indicating a brightness limit value perceivable by a human of the following formula (1) is calculated from the gradation skip amount,
Threshold = 300 or 450 / resolution of the image data * the third root of the brightness information of each dot of the image data (1)
Using the following formulas (2) and (3), the gradation jump amount of each dot that matches human vision is calculated,
First correction gradation skip amount = (the gradation skip amount−the threshold value) * the third root of the brightness information of each dot of the image data (2)
Second correction gradation jump amount = 0.9th root of first correction gradation jump amount (3)
A gradation evaluation means for calculating a gradation evaluation index of the gradation image by integrating the second corrected gradation jump amount obtained by the expression (3) with respect to all dots ;
An image evaluation apparatus comprising:
出力された階調画像を入力して画像データを出力する画像入力ステップと、
前記画像データから色彩情報における明度情報を生成する生成ステップと、
前記明度情報に対してフーリエ変換を施し、その結果に人間の視覚系の空間周波数特性を乗算し、得られた結果に逆フーリエ変換を施すことで視感階調を取得し、当該視感階調を局所平均することで理想階調を取得し、前記視感階調と前記理想階調の差分から階調飛び量を算出する算出ステップと
前記階調飛び量から下記(1)式の人間が知覚可能な明度の限界値を示す閾値を算出し、
閾値=300又は450/前記画像データの解像度*前記画像データの各ドットの明度情報の3乗根…(1)
下記(2)式及び(3)式により、人間の視覚に合致した各ドットの階調飛び量を算出し、
第1補正階調飛び量=(前記階調飛び量−前記閾値)*前記画像データの各ドットの明度情報の3乗根…(2)
第2補正階調飛び量=第1補正階調飛び量の0.9乗根…(3)
前記(3)式により得られた第2補正階調飛び量を全ドットに関して積算することで、前記階調画像の階調評価指数を算出する階調評価ステップと、
を有することを特徴とする画像評価方法。
An image input step of inputting the output gradation image and outputting image data;
Generating step for generating brightness information in the color information from the image data;
The lightness information is subjected to Fourier transform, the result is multiplied by the spatial frequency characteristic of the human visual system, and the obtained result is subjected to inverse Fourier transform to obtain a visual gradation, A calculation step of obtaining an ideal gradation by locally averaging the tones and calculating a gradation jump amount from a difference between the visual gradation and the ideal gradation ;
A threshold value indicating a brightness limit value perceivable by a human of the following formula (1) is calculated from the gradation skip amount,
Threshold = 300 or 450 / resolution of the image data * the third root of the brightness information of each dot of the image data (1)
Using the following formulas (2) and (3), the gradation jump amount of each dot that matches human vision is calculated,
First correction gradation skip amount = (the gradation skip amount−the threshold value) * the third root of the brightness information of each dot of the image data (2)
Second correction gradation jump amount = 0.9th root of first correction gradation jump amount (3)
A gradation evaluation step of calculating a gradation evaluation index of the gradation image by integrating the second correction gradation jump amount obtained by the expression (3) with respect to all dots;
An image evaluation method characterized by comprising:
コンピュータを、
出力された階調画像を入力して画像データを出力する画像入力手段、
前記画像データから色彩情報における明度情報を生成する生成手段、
前記明度情報に対してフーリエ変換を施し、その結果に人間の視覚系の空間周波数特性を乗算し、得られた結果に逆フーリエ変換を施すことで視感階調を取得し、当該視感階調を局所平均することで理想階調を取得し、前記視感階調と前記理想階調の差分から階調飛び量を算出する算出手段、及び
前記階調飛び量から下記(1)式の人間が知覚可能な明度の限界値を示す閾値を算出し、
閾値=300又は450/前記画像データの解像度*前記画像データの各ドットの明度情報の3乗根…(1)
下記(2)式及び(3)式により、人間の視覚に合致した各ドットの階調飛び量を算出し、
第1補正階調飛び量=(前記階調飛び量−前記閾値)*前記画像データの各ドットの明 度情報の3乗根…(2)
第2補正階調飛び量=第1補正階調飛び量の0.9乗根…(3)
前記(3)式により得られた第2補正階調飛び量を全ドットに関して積算することで、前記階調画像の階調評価指数を算出する階調評価手段として機能させることを特徴とするプログラム
Computer
Image input means for inputting the output gradation image and outputting image data;
Generating means for generating brightness information in color information from the image data ;
The lightness information is subjected to Fourier transform, the result is multiplied by the spatial frequency characteristic of the human visual system, and the obtained result is subjected to inverse Fourier transform to obtain a visual gradation, A calculation means for acquiring an ideal gradation by locally averaging the tones, and calculating a gradation jump amount from a difference between the visual gradation and the ideal gradation; and
A threshold value indicating a brightness limit value perceivable by a human of the following formula (1) is calculated from the gradation skip amount,
Threshold = 300 or 450 / resolution of the image data * the third root of the brightness information of each dot of the image data (1)
Using the following formulas (2) and (3), the gradation jump amount of each dot that matches human vision is calculated,
First correction gradation jump amount = - cube root of (the gradation jump amount the threshold) * Lightness information of each dot of the image data (2)
Second correction gradation jump amount = 0.9th root of first correction gradation jump amount (3)
A program that functions as a gradation evaluation unit that calculates a gradation evaluation index of the gradation image by accumulating the second correction gradation jump amount obtained by the expression (3) with respect to all dots. .
請求項3に記載のプログラムを記録したことを特徴とする記録媒体。A recording medium on which the program according to claim 3 is recorded.
JP2002190571A 2002-06-28 2002-06-28 Image evaluation apparatus, image evaluation method, program thereof, and recording medium recording the program Expired - Fee Related JP4196599B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002190571A JP4196599B2 (en) 2002-06-28 2002-06-28 Image evaluation apparatus, image evaluation method, program thereof, and recording medium recording the program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002190571A JP4196599B2 (en) 2002-06-28 2002-06-28 Image evaluation apparatus, image evaluation method, program thereof, and recording medium recording the program

Publications (2)

Publication Number Publication Date
JP2004038258A JP2004038258A (en) 2004-02-05
JP4196599B2 true JP4196599B2 (en) 2008-12-17

Family

ID=31700459

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002190571A Expired - Fee Related JP4196599B2 (en) 2002-06-28 2002-06-28 Image evaluation apparatus, image evaluation method, program thereof, and recording medium recording the program

Country Status (1)

Country Link
JP (1) JP4196599B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4552634B2 (en) * 2004-12-07 2010-09-29 セイコーエプソン株式会社 Image processing apparatus for printing, image processing program for printing, and printing apparatus

Also Published As

Publication number Publication date
JP2004038258A (en) 2004-02-05

Similar Documents

Publication Publication Date Title
US7835032B2 (en) Color processing apparatus and method thereof
JP4561483B2 (en) Determining the ink amount combination that reproduces the specified color
US9020258B2 (en) Image processing apparatus and image processing system configured to convert color tone in image
JPH11317881A (en) Color image reproduction system, method for obtaining color space conversion and medium read by device realizing it
JP4235837B2 (en) Graininess prediction, profile creation and printing device
US7312891B2 (en) Image processing method and apparatus
JP4774757B2 (en) Image processing apparatus, image processing program, electronic camera, and image processing method
JP5341734B2 (en) Color processing apparatus and method, and image forming apparatus
JP2009200820A (en) Printing control device, printing system, and printing control program
JP4196599B2 (en) Image evaluation apparatus, image evaluation method, program thereof, and recording medium recording the program
US8368962B2 (en) Color look up table adjusting apparatus, recording medium on which a color look up table adjusting program is recorded and color look up table adjusting system
JP2008259169A (en) Prediction of printing result
US10194054B2 (en) Image processing apparatus, image processing method, and storage medium
JP2003016443A (en) Method, device, and chart image for image quality evaluation
US8478031B2 (en) Image processing using colored colorant amounts and colorless colorant amounts
JP5278257B2 (en) Color processing apparatus, image processing apparatus, and program
JP5957989B2 (en) Image confirmation apparatus, image forming system, and program
JP2005174133A (en) Image evaluation device, image evaluation method and program
JP6127585B2 (en) Image processing apparatus, image processing system, and image processing method
JP2021120653A (en) Chart, image processing apparatus, and image processing method
JP2005210225A (en) Image processor and image processing method
US8437541B2 (en) Color correction coefficient generating apparatus, color correction coefficient generation method, and computer readable medium storing program
JP2006074218A (en) Image evaluating device, image evaluating method and program
JP2008017293A (en) Image processor and image processing program
JP2007280273A (en) Image evaluation apparatus, image evaluation method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050512

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080603

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080909

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080922

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111010

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121010

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121010

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131010

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees