JP2004112547A - Image processing apparatus, method therefor and recording medium - Google Patents

Image processing apparatus, method therefor and recording medium Download PDF

Info

Publication number
JP2004112547A
JP2004112547A JP2002274146A JP2002274146A JP2004112547A JP 2004112547 A JP2004112547 A JP 2004112547A JP 2002274146 A JP2002274146 A JP 2002274146A JP 2002274146 A JP2002274146 A JP 2002274146A JP 2004112547 A JP2004112547 A JP 2004112547A
Authority
JP
Japan
Prior art keywords
image
image processing
information
processing apparatus
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002274146A
Other languages
Japanese (ja)
Inventor
Yuki Matsushima
松島 由紀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2002274146A priority Critical patent/JP2004112547A/en
Publication of JP2004112547A publication Critical patent/JP2004112547A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Color Image Communication Systems (AREA)
  • Color, Gradation (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus capable of obtaining information about an input image to perform black ink processing for satisfying the optimum granularity and the range of color reproduction of the image. <P>SOLUTION: The image processing apparatus has a predicting means for predicting the importance of the granularity of a target image and the range of color reproduction, and a changing means for changing a black ink generation amount by using a result of the predicting means. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、入力画像の情報を用いて入力画像データを出力機器の画像記録信号に変更する画像処理装置、方法および記録媒体に関する。特に、入力画像に関する情報を得て、その画像における最適な粒状性と色再現範囲とを満たす墨処理を行うことができる画像処理装置、方法および記録媒体に関する。
【0002】
【従来の技術】
従来のカラープリンタにおける色変換処理は、ディスプレイなどの表示機器に依存しているデバイスデペンドなカラー信号であるR、G、Bを濃度信号であるC、M、Yに変換した後に、プリンタに依存するK’を含む4色のデバイス信号であるC’、M’、Y’、K’へ変換するのが主流であった。
【0003】
ここで、K’信号は(Y,M,C)の重なりをK’に起きかえることで生成されるBGである(Black Generation)。一般的なK’の基本式は墨生成パラメータであるα、βおよび墨開始点であるTH1、TH2を用いて下記で表される。
K’ = α・min(C,M,Y)  min(C,M,Y)> TH1
= 0                 min(C,M,Y)≦ TH1 … (1)
また、K’を用いて(C’,M’,Y’) は下記で表される(UCR:Under Color Removal)。
C’ = C−βK’     min(C,M,Y)> TH2
= 0               min(C,M,Y)≦ TH2 … (2)
これらについては、M’、Y’についても同様である。
【0004】
つまり、任意の入力濃度信号(C,M,Y)に対し、出力デバイス信号(C’,M’,Y’,K’)における墨生成量K’を変えるために墨生成パラメータおよび墨開始点を変更する。ここで、墨生成パラメータおよび墨開始点は粒状性やグレーバランスなどの画質劣化要因を考慮して、プリンタ毎に最適化される。また、画像のオブジェクトに応じて墨生成パラメータを変更する技術が特許文献1のカラー画像記録装置において提案されている。
【0005】
墨処理方式に応じて黒文字の鮮鋭性とべた部の彩度および色の階調性はトレードオフの関係にあるが、この特許文献1では、文字・写真に応じて像域分離を行い墨処理方式を変更する事により、文字部の『鮮鋭性』と写真部の『階調性』を満たしている。
【0006】
また、最近ではデジタルスチルカメラ用画像ファイルフォーマット企画(通称:Exif)により、画像データに付随しているヘッダ情報を用いて、撮影時のカメラの制御情報(ゲインコントロールや露出状態など)や、画像情報(被写体の種類や撮影モード)などを利用し、プリンタドライバ上で画像補正を行うことができるようになってきている。
【0007】
特許文献2の画像処理方法、装置および記録媒体においては、人物や風景などの画像種に応じて補正方法や補正度合いを変更している。
【0008】
【特許文献1】
特開2001−24899号公報
【特許文献2】
特開2000−322045号公報
【0009】
ここで、実験によると、墨生成量を大きく、すなわち墨開始点TH1、TH2を小さくしてハイライト側から墨を入れ始めれば、粒状性は悪くなるが、とりわけシャドー部における色再現範囲(ガマット)は高彩度側に広がることが分かっている。逆に、墨生成量を小さく、すなわち墨開始点TH1、TH2を大きくしてシャドー側から墨を入れ始めれば、粒状性は良くなるが色再現範囲は小さくなる。
【0010】
この様子を図12、13、14を用いて説明する。これらの図はある色相面におけるガマットを示し、横軸に彩度、縦軸に明度をとる。図12は式(1)、(2)で作成される出力デバイス信号をプロットした時のガマットであり、図13は墨生成量を小さく、図14は墨生成量を大きくしている。また、図13、14において点線は図12のガマット最外郭を表している。墨生成量を異ならせることにより、とりわけシャドー部のガマット域が縮小、もしくは拡大しているのが分かる。また、墨生成量を大きくすれば、高明度域においてKのドットが入るため、当然粒状性は悪くなる。
【0011】
つまり、『鮮鋭性』と『彩度と色の階調性』のみではなく、『粒状性』と『色再現範囲』も墨処理方式に応じてトレードオフの関係にある。また、画像付随のヘッダ情報を用いて画像内容を理解すること、もしくはヘッダ情報を用いた補正結果を用いることで、その画像を出力する際に必要な粒状性と色再現範囲とを満たすような墨処理を行い、最適な出力画像を得ることが可能となる。
【0012】
【発明が解決しようとする課題】
本発明は、上記問題点に鑑みてなされたものであり、入力画像に関する情報を得て、その画像おける最適な粒状性と色再現範囲とを満たす墨処理を行うことが可能な画像処理装置、方法、および記録媒体を提供することを目的とする。
【0013】
【課題を解決するための手段】
上記目的を達成するために、請求項1記載の発明は、入力画像の情報を用いて入力画像データを出力機器の画像記録信号に変更する画像処理装置において、対象画像の粒状性、および色再現範囲に関する重要度を予測する予測手段と、前記予測手段の結果を用いて墨生成量を変更する変更手段、とを有することを特徴としている。
【0014】
請求項2記載の発明は、請求項1記載の発明において、前記予測手段において、粒状性重視とされた場合は墨生成量を低くすることを特徴としている。
【0015】
請求項3記載の発明は、請求項1記載の発明において、前記予測手段において、色再現範囲重視とされた場合は墨生成量を高くすることを特徴としている。
【0016】
請求項4記載の発明は、請求項1記載の発明において、前記入力画像の情報とは、前記画像入力機器における入力時の機器の設定状態であることを特徴としている。
【0017】
請求項5記載の発明は、請求項1記載の発明において、前記入力画像の情報とは、画像に行われた補正の種類および度合いであることを特徴としている。
【0018】
請求項6記載の発明は、請求項1から5いずれか1項に記載の発明において、前記入力画像の情報を画像のヒストグラムから解析することを特徴としている。
【0019】
請求項7記載の発明は、請求項1から5いずれか1項に記載の発明において、前記入力画像の情報を画像付随のヘッダ情報から解析することを特徴としている。
【0020】
請求項8記載の発明は、請求項1から6のいずれか1項に記載の発明において、前記予測手段は、前記入力画像の情報において、ノイズ減感設定、もしくはノイズ除去補正結果の少なくとも一方が得られる場合に粒状性重視とすることを特徴としている。
【0021】
請求項9記載の発明は、請求項1から6のいずれか1項に記載の発明において、前記予測手段は、前記入力画像の情報において、コントラストもしくは彩度の少なくとも一方を強調するような設定、および補正結果が得られる場合に色再現範囲重視とすることを特徴としている。
【0022】
請求項10記載の発明は、入力画像の情報を用いて入力画像データを出力機器の画像記録信号に変更する画像処理方法において、対象画像の粒状性、および色再現範囲に関する重要度を予測する予測工程と、前記予測工程の結果を用いて、墨生成量の異なる複数の色再現パラメータの中から色再現パラメータの選択を行う選択工程とを有することを特徴としている。
【0023】
請求項11記載の発明は、入力画像の情報を用いて入力画像データを出力機器の画像記録信号に変更する画像処理方法において、対象画像の粒状性、および色再現範囲に関する重要度を予測する予測手順と、前記予測工程の結果を用いて墨生成量を変更する変更工程とを有することを特徴としている。
【0024】
請求項12記載の発明は、請求項11記載の画像処理方法を実行するプログラムを格納し、コンピュータで読み取り可能なことを特徴としている。
【0025】
【発明の実施の形態】
以下、添付図面を参照して本発明の実施形態を詳細に説明する。図1は本発明の画像処理装置の実施形態の構成を示すブロック図である。図1に示すように、本発明の実施形態の画像処理装置は、コンピュータ101と、コンピュータに接続された画像表示装置(ディスプレイ)100と、画像出力装置102と、画像入力装置103と、画像入力装置103およびコンピュータ101から供給される情報から画像出力装置固有の(C,M,Y,K)信号を得るための色変換部104とを有し構成される。画像出力装置102は、画像データをプリントアウトするための出力装置であって、カラープリンタやカラーファクシミリ等の画像形成装置を用いることができる。また、画像入力装置103は、画像データを取り込むための入力装置であって、カラースキャナやデジタルカメラなどを用いることができる。
【0026】
次に、上記構成を有する画像処理装置の動作について説明する。まず、コンピュータ101は、画像入力装置103から入力された、もしくはコンピュータ101内部の画像データを、画像出力装置102を用いてプリントアウトするために画像データを色変換部104に出力する。この画像データは、通常ディスプレイで表示するためにR(赤)、G(緑)、B(青)の色成分からなる色信号である。また、コンピュータ101は、画像データに付随した情報があればそれを出力する。
【0027】
色変換部104では、コンピュータ101から送られてきたRGB信号もしくは情報を解析し、対象画像の粒状性および色再現範囲に関する重要度を予測し、入力(R、G、B)信号を出力装置固有の(C’,M’,Y’,K’)信号に変換しコンピュータ101へ送信する。コンピュータ101では、変換された色信号を画像出力装置102に送信することによりプリント出力が行われる。
【0028】
図1の構成では、色変換処理を、コンピュータ101、画像出力装置102とは別個の装置で行うものとして設けられているが、コンピュータ101内に実装されてもよいし、あるいは画像出力装置102内に実装されてもよい。また、上記の動作はソフトウエアで実現することも可能であり、例えば、コンピュータ101内のプログラムとして存在するプリンタドライバで機能を実現することもできる。
【0029】
次に、本発明の実施形態の特徴である色変換部104構成について説明する。図2は、図1の色変換部104の構成を示すブロック図であり、本発明の画像処理装置の第一実施形態を示している。図2に示すように、色変換部104は、入力部200、画質情報獲得部203、重要度予測部204、画像記録信号作成部205、および出力部206を有し構成されている。また、入力部200は、RGB信号から成る入力画像信号201と付随情報202とから構成される。
【0030】
次に、上記色変換部104の動作について説明する。まず、コンピュータ101から送信された入力画像信号(RGB)、および付随情報(Data1)は、画質情報獲得部203へ送信される。画質情報獲得部203では、コンピュータ101から送られてきたRGB信号もしくは付随情報(Data1)を解析し、必要なデータ(Data2)を重要度予測部204に送信する。重要度予測部204では、対象画像の粒状性および色再現範囲に関する重要度を決定し、その情報(Data3)を画像記録信号作成部205に送信する。画像記録信号作成部205では、Data3を用いて対象画像の適切な墨生成量を決定し、画質情報獲得部203から得られる(RGB)信号を出力装置固有の出力信号(C’,M’,Y’,K’)信号に変換し、出力する。
【0031】
次に、図2に示した色変換部104を構成する各部の詳細について説明する。入力部200のデータは、入力画像信号201、および付随情報202から構成される。ここで、入力画像信号201とは、RGBで構成される画像データである。付随情報202とは、ヘッダやタグなど、画像データに付随した信号、もしくは、オペレータによる入力信号である。また、後述するように付随情報が存在しない場合もある。
【0032】
画質情報獲得部203では、後の重要度予測部204において、対象画像の粒状性および色再現範囲に関する重要度を決定するために使用する情報の抽出を行う。画質情報獲得部203の説明を図3および4を用いて行う。
【0033】
まず、画質情報の種類を以下に示す。ここで必要な情報は、画像入力時における画像入力装置103の設定情報や、画像入力装置103、またはコンピュータ101で行われる補正に関する情報である。
【0034】
画像入力装置103がデジタルカメラの場合、画像入力装置103の設定情報とは、撮影時にカメラが動作した状況やユーザがカメラに対して行った設定内容を表す。前者として例えば、露出やシャッタスピード、およびゲインコントロール(ゲインの増感、減感)がある。後者として例えば、画像の内容を表す情報であり、風景や人物などの撮影シーンに関する情報、またはセピアや夜間撮影などの撮影モードに関する情報がある。
【0035】
補正情報とは、カメラ内部で自動もしくは手動(ユーザの設定)によって行われたコントラストや彩度強調、明るさ補正、およびノイズ除去などに関する情報であり、補正の種類や度合いを示す。また、画像入力装置103で得られる画像をコンピュータ101にとりこみ、アプリケーションソフトやプリンタドライバで補正を行う場合もあり、それらの補正結果も含まれる。
【0036】
次に、これら画質情報の取得方法例を以下に示す。例えばExifでは、画像データにタグを設けタグ内にこれら(露出やシャッタスピード、ゲインコントロール、撮影シーンおよび撮影モードなど)の情報を記述している。つまり、ヘッダもしくはタグ情報がある場合はそれを解析して上記の情報を得る。また、Exifはプライベートタグ領域を持っているため、コンピュータ内で行われた補正情報をプライベートタグに書き込むことによって、画質情報獲得部203で補正情報を獲得することができる。
【0037】
また、画像データを直に解析する方法もある。例えば、図3に示す対象画像の中央領域(図中の斜線部分)のに含まれる色を解析することによって、肌色が多く含まれていれば人物画像、緑や空の色が多ければ風景画像と判断することができる。また、例えば、特開2001−298660号公報で開示の従来技術をもちいて撮影シーンやモードを判定することができる。
【0038】
また、図4 に示すRGBもしくは輝度ヒストグラムの最大最小値の差よりダイナミックレンジDLを算出し、DL≧ 200ならば対象画像のコントラストが大きいなどと判定することができる。
【0039】
また、入力画像のRGB色信号を(明度、彩度)情報に変換し、図12で示されるシャドーのガマット最外郭付近の色であるか否かを判定し、対象画像にそれらの色の割合が多ければ彩度が大きいなどと判定することができる。
【0040】
補正情報の獲得手段として、上記以外にも画像データを直に解析する他の方法があるがこれにはこだわらない。
【0041】
重要度予測部204では画質情報獲得部203から得られる情報(Data2)を元に、粒状性と色再現範囲に関する重要度を予測する。重要度予測部204の説明を図15を用いて行う。
【0042】
まず、粒状性が重要になると思われる情報例をAグループとし、色再現範囲が重要になると思われる情報例をBグループとする。それぞれのグループの属性例を下記に挙げる。
【0043】
すなわち、Aグループの情報例としては、下記があげられる。
・ゲインコントロールが減感。
・露出時間、もしくはシャッタスピードが大きい。
・人物画像。
・セピアモード撮影ノイズ除去処理が行われている。
【0044】
また、Bグループの情報例としては、下記があげられる。
・風景画像。
・コントラスト強調処理が行われている。
・彩度強調処理が行われている。
・ダイナミックレンジが大きい。
・(明度、彩度)平面におけるシャドー部最外郭付近の色を多く含んでいる。
【0045】
つまり、A グループに属する情報とは、対象画像にノイズを感じにくくさせるためのノイズ減感設定やノイズ除去処理が行われていることを示すものであり、B グループに属する情報とは、対象画像のコントラストや彩度が大きいことを示すものである。
【0046】
次に、対象画像の粒状性および色再現範囲に関する重要度を予測する。本実施形態では、説明を簡略化するために評価値を5段階とした。図15に評価値を示す。
【0047】
対象画像の画質情報を各グループについてカウントし、そのカウント数に応じて評価値を決定する。
・全てAグループの場合               … 評価値5
・Aグループの数の方がBグループの数よりも多い場合 … 評価値4
・Aグループの数とBグループの数とが同じ場合    … 評価値3
・Bグループの数の方がAグループの数よりも多い場合 … 評価値2
・全てBグループの場合               … 評価値1
【0048】
すなわち、評価値が4または5の場合は、色再現範囲に関する重要度よりも粒状性のそれの方が高いと判断でき、評価値が1または2の場合は、粒状性よりも色再現範囲に関する重要度が高いと判断できる。また、評価値が3の場合は粒状性と色再現範囲の重要度は同等を判断できる。
【0049】
ここで、説明の簡略化のために5段階評価を用いたが、5段階以上に細かくても良い。また、重要度を予測する場合にAもしくはBの各項目に重みを乗じても良い。例えば彩度強調処理の度合いが大きいことが分かっている場合、彩度強調処理のカウント数を2としても良い。また、ABグループへのグループ分けは絵作りの指針などに左右される場合もあるため、上記の振り分け例にはこだわらない。
【0050】
画像記録信号作成部205では重要度予測部204から得られる評価値(Data3)を元に、墨生成を行い画像記録信号(C’,M’,Y’)を算出する。画像記録信号作成部205の説明を図5、6、7、11および15をもちいて行う。
【0051】
図11は、図2の画像記録信号作成部の動作を示すブロック図である。まず、(R,G,B)で構成される入力色信号501の、(C’,M’,Y’,K’)出力色信号への変換について述べる。入力色信号はCMMガマット圧縮502おいて、(C,M,Y)信号に変換される。通常この変換は3次元のルックアップテーブルを用いて行われる。次に後述の方法を用いてBG/UCR503が行われ、(C’,M’,Y’,K’) 出力色信号を得る。
【0052】
次に、(C’,M’,Y’)データから墨(K’)を作成する場合について説明する。本実施形態では、説明を簡略化するために引き続き図15の5段階評価値を用いる。
ここで、式(1) のα、式(2) のβを下記で定義する。
α = 255/(255−TH1) … (3)
β = n・255/(255−TH2)   (n≦1)… (4)
【0053】
次に、墨開始点であるTH1、TH2に対して図15で示されるΔ1、Δ2を足して新たな墨開始点を作成する。式(3)、(4)でα、βを算出し新たな墨生成パラメータとする。
【0054】
つまり、評価値が3の場合は現状の墨生成量を保ち、評価値が大きくなるほど(4、5の場合)粒状性を重視した墨生成を行うために墨生成量を低く設定する。つまり、墨開始点をシャドー側に移動させる(図12のガマットから図13のガマットへ縮小する)また、評価値が小さくなるほど(1、2の場合)色再現範囲を重視した墨生成を行うために墨生成量を高く設定する、つまり、墨開始点をハイライト側に移動させる(図12のガマットから図14のガマットへ拡大する)。
【0055】
各評価値に対するBG/UCRの様子を図5、6、7に示す。図5は評価値3、図6は評価値4、図7は評価値2に対するBG/UCRである。なお、図ではTH1=TH2=TH、およびΔ1=Δ2=Δとした。
【0056】
図5、6、7を比較すると、入力値min(C,M,Y)=INにたいし異なる墨生成量K3’、K4’、K2’(K4’<K3’<K2’)が生成されている。
【0057】
次に、式(1)、(2)、(3)、(4)によって画像出力装置固有の(C’,M’,Y’,K’)信号が得られた。ここで、Δ1、Δ2は任意の正の整数であり、画像出力装置の粒状性、および色再現範囲などの出力能力による。
【0058】
出力部206出力部では、画像出力装置固有の(C’,M’,Y’,K’)信号をコンピュータ101に送信する。
【0059】
次に、本発明の画像処理装置の第二実施形態を説明する。第二実施形態では、第一実施形態と比較し、高速化を考慮している。実施形態1では、式(1)、(2)、(3)、(4)を用いて入力画像ごとに(C’,M’,Y’,K’)データを作成していた。しかし、墨生成量K’が決まれば(C,M,Y)と(C’,M’,Y’,K’)との関係は1 対1 で求まっているので、予め墨生成量の異なる変換テーブルを複数用意しておくことにより処理の高速化を図ることができる。
【0060】
上記考えに基づいた第二実施形態の構成を図8に示す。第二実施形態におけるC’M’Y’K’データ変換部は、アドレス生成部301、C’M’Y’K’データ変換テーブル302から構成されている。すなわち、第二実施形態では、第一実施形態の色変換部104にC’M’Y’K’データ変換部を設けたものである。また、C’M’Y’K’データ変換部には、入力色信号300が入力され、C’M’Y’K’データ変換部からは、出力信号303が出力される。
【0061】
C’M’Y’K’データ変換テーブル302は、複数の変換テーブルの中から、第一実施形態例の重要度予測部204にて算出される評価値の結果より、選択された変換テーブルである。
【0062】
アドレス生成部301は、入力色信号(R,G,B)を入力として、選択されたC’M’Y’K’データ変換テーブル302をアクセスするためのアドレスを生成する。C’M’Y’K’データ変換テーブル302は、アドレス生成部301から出力されたアドレスを用いて出力C’M’Y’K’データを出力する。
【0063】
上記においてC’M’Y’K’データ変換テーブル302は、適当なステップ幅の(C,M,Y)値に対し、第一実施形態の画像記録信号作成部205を実行して、その結果をテーブルに置き換えたものである。
【0064】
次に、図面を参照し、本発明の第一実施形態の画像処理装置の動作について説明する。図9は、本発明の画像処理装置の第一実施形態の動作を示すフローチャートである。
【0065】
まず、任意の入力画像信号(R,G,B)および付随情報を入力する(ステップS400)。次に、画質情報を獲得する(ステップS401)。画質情報は先に画質情報獲得部203で説明したように決定する。次に、対象画像の重要度を予測する(ステップS402)。対象画像の重要度は、先に重要度予測部204で説明したように決定する。画像記録信号(C’,M’,Y’,K’)を作成する(ステップS403)。画像記録信号(C’,M’,Y’,K’)は、先に画像記録信号作成部205で説明したように作成する。作成された画像記録信号を出力する(ステップS404)。
【0066】
図10は、図1の本発明の実施形態の画像処理装置のシステム構成を示すブロック図である。図10に示すように、この画像処理システムは、例えばワークステーションやパーソナルコンピュータ等で実現され、全体を制御するCPU21と、CPU21の制御プログラム等が記憶されているROM22と、CPU21のワークエリアなどとして使用されるRAM23と、ハードディスク(DISK)24と、画像データを表示するためのディスプレイ100と、カラープリンタなどの画像出力装置102とを有し構成されている。
【0067】
ここで、CPU21、ROM22、RAM23、ハードディスク24は、図1 のコンピュータ101としての機能を有している。なお、この場合、図1の色変換部104の機能も、CPU21にもたせることができる。すなわち、本発明の画像処理装置としての機能をCPU21にもたせることができる。
【0068】
なお、CPU21におけるこのような画像処理装置としての機能は、例えばソフトウェアパッケージ、具体的には、CD−ROMなどの情報記録媒体、の形で提供することができ、このため、図10では、情報記録媒体30がセットさせるとき、これを駆動する媒体駆動装置31(プログラム読取装置)が設けられている。
【0069】
換言すれば、本発明の画像処理装置および画像処理方法は、ディスプレイ等を備えた汎用の計算機システムにCD−ROMなどの情報記録媒体に記録されたプログラムを読み込ませて、この汎用計算機システムのマイクロプロセッサに色変換部を実行させる装置構成においても実施することが可能である。この場合、本発明の色変換部を実行するためのプログラム、すなわち、ハードウェアシステムで用いられるプログラムは、媒体に記録された状態で提供される。プログラムなどが記録される情報記録媒体としては、CD−ROMに限られるものではなく、ROM、RAM、フレキシブルディスク、メモリカードなどが用いられても良い。媒体に記録されたプログラムは、ハードウェアシステムに組み込まれている記憶装置、例えばハードディスク24にインストールされることにより、このプログラムを実行して、色変換機能および色変換プロファイル生成機能を実現することができる。
【0070】
また、本発明の色変換部およびその動作である色変換方法を実現するためのプログラムは、媒体の形で提供されるのみならず、通信によって例えばサーバによって提供されるものであっても良い。
【0071】
本発明の実施形態について、上記のように詳細に説明したが、上記の実施形態は本発明の好適な実施の例であり、これに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々変形して実施することが可能である。
【0072】
【発明の効果】
以上、説明したように、本発明の、入力画像の情報を用いて入力画像データを出力機器の画像記録信号に変更する画像処理装置は、対象画像の粒状性、および色再現範囲に関する重要度を予測する予測手段と、予測手段の結果を用いて墨生成量を変更する変更手段をそなえているため、対象画像の画質に応じて墨処理を行うことができる。
【0073】
また、本発明の画像処理装置においては、予測手段において粒状性重視とされた場合は墨生成量を低くすることにしているため、粒状性重視の墨処理を行うことができる。
【0074】
また、本発明の画像処理装置においては、予測手段において色再現範囲重視とされた場合は墨生成量を高くすることとしているため、色再現範囲重視の墨処理を行うことができる。
【0075】
また、本発明の画像処理装置においては、入力画像の情報とは、画像入力機器における入力時の機器の設定状態であることとしているため、画像入力機器の設定状態を用いて対象画像の画質を予測することができる。
【0076】
また、本発明の画像処理装置においては、入力画像の情報とは、画像に行われた補正の種類および度合いであることとしているため、画像に行われた補正の種類、および度合いを用いて対象画像の画質を予測することができる。
【0077】
また、本発明の画像処理装置においては、入力画像の情報を画像のヒストグラムから解析することにしているため、ヒストグラムの解析結果を用いて対象画像の画質を予測することができる。
【0078】
また、本発明の画像処理装置においては、入力画像の情報を画像付随のヘッダ情報から解析することにしているため、画像付随のヘッダ情報を用いて対象画像の画質を予測することができる。
【0079】
また、本発明の画像処理装置において、予測手段は、入力画像の情報において、ノイズ減感設定、もしくはノイズ除去補正結果の少なくとも一方が得られる場合に粒状性重視とすることにしているため、対象画像の画質を予測することができる。
【0080】
また、本発明の画像処理装置において、予測手段は、入力画像の情報において、コントラストもしくは彩度の少なくとも一方を強調するような設定、および補正結果が得られる場合に色再現範囲重視とすることにしているため、対象画像の画質を予測することができる。
【0081】
また、本発明の画像処理装置は、対象画像の粒状性および色再現範囲に関する重要度を予測する予測手段と、墨生成量の異なる色再現パラメータを複数持っており、予測手段の結果を用いて色再現パラメータの選択を行う選択手段とを有しているため、対象画像の画質に応じて色再現パラメータを選択ことができる。
【0082】
また、本発明の、入力画像の情報を用いて入力画像データを出力機器の画像記録信号に変更する画像処理方法は、対象画像の粒状性、および色再現範囲に関する重要度を予測する予測工程と、予測工程の結果を用いて墨生成量を変更する変更工程、とを有しているため、対象画像の画質に応じて墨処理を行うことができる。
【0083】
また、本発明の画像処理方法では、画像処理方法を実行するプログラムを格納し、コンピュータで読み取り可能なことにしているため、対象画像の画質に応じて墨処理を行うことができる。
【図面の簡単な説明】
【図1】本発明の画像処理装置の実施形態の構成を示すブロック図である。
【図2】本発明の画像処理装置の第一実施形態である、図1の色変換部104の構成を示すブロック図である。
【図3】画像処理装置の画像入力装置に入力される対象画像を示す画像図である。
【図4】画像処理装置の画像入力装置に入力された対象画像のダイナミックレンジを示すグラフである。
【図5】図15における評価値3に対するBG/UCRを示すグラフである。
【図6】図15における評価値4に対するBG/UCRを示すグラフである。
【図7】図15における評価値2に対するBG/UCRを示すグラフである。
【図8】本発明の画像処理装置の第二実施形態である、C’M’Y’K’データ変換部を、図1の色変換部104に構成したブロック図である。
【図9】本発明の画像処理装置の第一実施形態の動作を示すフローチャートである。
【図10】本発明の実施形態の画像処理装置のシステム構成を示すブロック図である。
【図11】図2の画像記録信号作成部の動作を示すブロック図である。
【図12】式(1)、(2)で作成される出力デバイス信号をプロットした時の、横軸に彩度、縦軸に明度をとった場合、の色相面におけるガマットを示すグラフである。
【図13】墨生成量を小さくした時の、横軸に彩度、縦軸に明度をとった場合、の色相面におけるガマットを示すグラフである。
【図14】墨生成量を大きくした時の、横軸に彩度、縦軸に明度をとった場合、の色相面におけるガマットを示すグラフである。
【図15】重要度予測部における、入力画像情報を評価するテーブルである。
【符号の説明】
100 ディスプレイ
101 コンピュータ
102 画像出力装置
103 画像入力装置
104 色変換部
200 入力部
203 画質情報獲得部
204 重要情報予測部
205 画像記録信号作成部
206 出力部
301 アドレス生成部
302 C’M’Y’K’データ変換テーブル
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image processing apparatus, a method, and a recording medium that change input image data into an image recording signal of an output device using information of an input image. In particular, the present invention relates to an image processing apparatus, method, and recording medium that can obtain information on an input image and perform black processing that satisfies the optimum granularity and color reproduction range in the image.
[0002]
[Prior art]
A color conversion process in a conventional color printer is performed by converting R, G, and B, which are device-dependent color signals that depend on a display device such as a display, into C, M, and Y that are density signals. It has been the mainstream to convert into four-color device signals C ', M', Y ', and K' including the dependent K '.
[0003]
Here, the K ′ signal is a BG generated by changing the overlap of (Y, M, C) to K ′ (Black Generation). A general basic expression of K ′ is expressed as follows using α and β as black generation parameters and TH1 and TH2 as black start points.
K ′ = α · min (C, M, Y) min (C, M, Y)> TH1
= 0 min (C, M, Y) ≦ TH1 (1)
Also, using K ′, (C ′, M ′, Y ′) is represented by the following (UCR: Under Color Removal).
C ′ = C−βK ′ min (C, M, Y)> TH2
= 0 min (C, M, Y) ≦ TH2 (2)
The same applies to M ′ and Y ′.
[0004]
That is, for any input density signal (C, M, Y), the black generation parameter and the black start point are set to change the black generation amount K ′ in the output device signal (C ′, M ′, Y ′, K ′). To change. Here, the black generation parameter and the black start point are optimized for each printer in consideration of image quality deterioration factors such as graininess and gray balance. In addition, a technique for changing a black generation parameter according to an object of an image has been proposed in a color image recording apparatus of Patent Document 1.
[0005]
According to the black processing method, there is a trade-off relationship between the sharpness of a black character and the saturation of a solid part and the gradation of a color. However, in this patent document 1, image processing is performed by separating an image area according to characters and photographs. By changing the method, the "sharpness" of the character portion and the "gradation" of the photographic portion are satisfied.
[0006]
Recently, according to a digital still camera image file format project (commonly known as Exif), camera control information (gain control, exposure state, etc.) at the time of photographing, It is becoming possible to perform image correction on a printer driver using information (type of a subject or a shooting mode).
[0007]
In the image processing method, apparatus, and recording medium of Patent Document 2, the correction method and the degree of correction are changed according to the type of image such as a person or a landscape.
[0008]
[Patent Document 1]
JP 2001-24899 A
[Patent Document 2]
JP 2000-322045 A
[0009]
Here, according to an experiment, if the amount of black generation is increased, that is, if the black start points TH1 and TH2 are reduced and black is started to be applied from the highlight side, the granularity deteriorates, but the color reproduction range (gamut ) Is known to spread to the high saturation side. Conversely, if the amount of black generation is reduced, that is, if the black start points TH1 and TH2 are increased and black is started to be applied from the shadow side, the granularity is improved but the color reproduction range is reduced.
[0010]
This situation will be described with reference to FIGS. These figures show the gamut on a certain hue plane, with the horizontal axis representing saturation and the vertical axis representing lightness. 12 is a gamut when plotting the output device signals created by the equations (1) and (2). FIG. 13 shows a small black generation amount and FIG. 14 shows a large black generation amount. 13 and 14, the dotted lines represent the outermost gamut of FIG. By making the amount of black generation different, it can be seen that the gamut area in the shadow part is particularly reduced or expanded. In addition, if the amount of black generation is increased, K dots enter in the high brightness region, so that the graininess naturally deteriorates.
[0011]
That is, not only “sharpness” and “saturation and color gradation” but also “granularity” and “color reproduction range” have a trade-off relationship according to the black processing method. In addition, by understanding the image content using header information accompanying the image, or using a correction result using the header information, it is possible to satisfy the granularity and color reproduction range necessary for outputting the image. By performing black processing, it is possible to obtain an optimal output image.
[0012]
[Problems to be solved by the invention]
The present invention has been made in view of the above problems, an image processing apparatus capable of obtaining information about an input image and performing black processing that satisfies an optimal granularity and a color reproduction range in the image. It is an object to provide a method and a recording medium.
[0013]
[Means for Solving the Problems]
In order to achieve the above object, according to the present invention, there is provided an image processing apparatus for changing input image data into an image recording signal of an output device by using information of an input image, the granularity and color reproduction of a target image. The present invention is characterized in that it has a predicting means for predicting the importance related to the range, and a changing means for changing the black generation amount using the result of the predicting means.
[0014]
The invention according to claim 2 is characterized in that, in the invention according to claim 1, when the emphasis is placed on the granularity in the prediction means, the black generation amount is reduced.
[0015]
According to a third aspect of the present invention, in the first aspect of the present invention, when the color reproduction range is emphasized by the prediction means, the amount of black generation is increased.
[0016]
According to a fourth aspect of the present invention, in the first aspect of the present invention, the information of the input image is a setting state of the image input device at the time of input.
[0017]
According to a fifth aspect of the present invention, in the first aspect, the information of the input image is a type and a degree of correction performed on the image.
[0018]
According to a sixth aspect of the present invention, in the first aspect of the present invention, the information of the input image is analyzed from a histogram of the image.
[0019]
According to a seventh aspect of the present invention, in the first aspect of the present invention, the information of the input image is analyzed from header information accompanying the image.
[0020]
According to an eighth aspect of the present invention, in the invention of any one of the first to sixth aspects, the prediction means determines that at least one of a noise desensitization setting and a noise removal correction result in the information of the input image. It is characterized by emphasizing graininess when it can be obtained.
[0021]
According to a ninth aspect of the present invention, in the invention according to any one of the first to sixth aspects, the prediction means sets at least one of contrast and saturation in information of the input image, And when the correction result is obtained, the color reproduction range is emphasized.
[0022]
According to a tenth aspect of the present invention, there is provided an image processing method for changing input image data into an image recording signal of an output device using information of an input image, wherein the prediction for predicting the granularity of the target image and the importance of the color reproduction range are performed. And a selection step of selecting a color reproduction parameter from a plurality of color reproduction parameters having different amounts of black generation using the result of the prediction step.
[0023]
According to an eleventh aspect of the present invention, there is provided an image processing method for changing input image data into an image recording signal of an output device using information of an input image, wherein the prediction for predicting the granularity of the target image and the importance regarding the color reproduction range. And a change step of changing the black generation amount using the result of the prediction step.
[0024]
According to a twelfth aspect of the present invention, a program for executing the image processing method according to the eleventh aspect is stored and can be read by a computer.
[0025]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. FIG. 1 is a block diagram showing the configuration of an embodiment of the image processing apparatus of the present invention. As shown in FIG. 1, an image processing apparatus according to an embodiment of the present invention includes a computer 101, an image display device (display) 100 connected to the computer, an image output device 102, an image input device 103, and an image input device. A color conversion unit 104 for obtaining a (C, M, Y, K) signal unique to the image output apparatus from information supplied from the apparatus 103 and the computer 101. The image output device 102 is an output device for printing out image data, and an image forming device such as a color printer or a color facsimile can be used. The image input device 103 is an input device for capturing image data, and may be a color scanner, a digital camera, or the like.
[0026]
Next, the operation of the image processing apparatus having the above configuration will be described. First, the computer 101 outputs image data to the color conversion unit 104 in order to print out image data input from the image input device 103 or inside the computer 101 using the image output device 102. This image data is a color signal composed of R (red), G (green), and B (blue) color components for display on a normal display. The computer 101 outputs information accompanying the image data, if any.
[0027]
The color conversion unit 104 analyzes the RGB signals or information sent from the computer 101, predicts the importance of the granularity and color reproduction range of the target image, and outputs the input (R, G, B) signals specific to the output device. (C ′, M ′, Y ′, K ′) and transmits the signal to the computer 101. In the computer 101, printout is performed by transmitting the converted color signal to the image output device 102.
[0028]
In the configuration of FIG. 1, the color conversion process is provided by a device separate from the computer 101 and the image output device 102. However, the color conversion process may be implemented in the computer 101 or may be implemented in the image output device 102. May be implemented. Further, the above operation can be realized by software. For example, the function can be realized by a printer driver existing as a program in the computer 101.
[0029]
Next, the configuration of the color conversion unit 104, which is a feature of the embodiment of the present invention, will be described. FIG. 2 is a block diagram illustrating a configuration of the color conversion unit 104 in FIG. 1 and illustrates a first embodiment of the image processing apparatus of the present invention. As shown in FIG. 2, the color conversion unit 104 includes an input unit 200, an image quality information acquisition unit 203, an importance prediction unit 204, an image recording signal creation unit 205, and an output unit 206. The input unit 200 includes an input image signal 201 composed of RGB signals and accompanying information 202.
[0030]
Next, the operation of the color conversion unit 104 will be described. First, the input image signal (RGB) and the accompanying information (Data1) transmitted from the computer 101 are transmitted to the image quality information acquisition unit 203. The image quality information acquiring unit 203 analyzes the RGB signal or the accompanying information (Data1) sent from the computer 101, and transmits necessary data (Data2) to the importance predicting unit 204. The importance predicting unit 204 determines the importance regarding the granularity and the color reproduction range of the target image, and transmits the information (Data 3) to the image recording signal creating unit 205. The image recording signal creation unit 205 determines an appropriate black generation amount of the target image using Data3, and converts the (RGB) signals obtained from the image quality information acquisition unit 203 into output signals (C ′, M ′, Y ′, K ′) signal and output.
[0031]
Next, details of each unit constituting the color conversion unit 104 shown in FIG. 2 will be described. The data of the input unit 200 includes an input image signal 201 and accompanying information 202. Here, the input image signal 201 is image data composed of RGB. The accompanying information 202 is a signal attached to the image data, such as a header or a tag, or an input signal by an operator. In addition, there is a case where the accompanying information does not exist as described later.
[0032]
In the image quality information acquiring section 203, information used for determining the degree of importance relating to the granularity and the color reproduction range of the target image is extracted in the subsequent importance predicting section 204. The image quality information acquiring unit 203 will be described with reference to FIGS.
[0033]
First, the types of image quality information are shown below. The information required here is setting information of the image input device 103 at the time of image input and information relating to correction performed by the image input device 103 or the computer 101.
[0034]
When the image input device 103 is a digital camera, the setting information of the image input device 103 indicates a situation in which the camera has been operated at the time of shooting or a setting content performed by the user on the camera. The former includes, for example, exposure, shutter speed, and gain control (gain increase / decrease). The latter is, for example, information representing the contents of an image, such as information on a shooting scene such as a landscape or a person, or information on a shooting mode such as sepia or night shooting.
[0035]
The correction information is information on contrast and saturation enhancement, brightness correction, noise removal, and the like performed automatically or manually (set by the user) inside the camera, and indicates the type and degree of correction. In some cases, an image obtained by the image input device 103 is taken into the computer 101 and corrected by application software or a printer driver. The correction results are also included.
[0036]
Next, an example of a method of acquiring the image quality information will be described below. For example, in Exif, a tag is provided in image data, and information (such as exposure, shutter speed, gain control, shooting scene and shooting mode) is described in the tag. That is, if there is header or tag information, it is analyzed to obtain the above information. Also, since Exif has a private tag area, the image quality information acquisition unit 203 can acquire the correction information by writing the correction information performed in the computer into the private tag.
[0037]
There is also a method of directly analyzing image data. For example, by analyzing colors included in the central region (hatched portion in the figure) of the target image shown in FIG. 3, a person image is included if a large amount of skin color is included, and a landscape image is included if a large amount of green or sky is included. Can be determined. In addition, for example, a photographing scene and a mode can be determined using the conventional technique disclosed in JP-A-2001-298660.
[0038]
Further, the dynamic range DL is calculated from the difference between the maximum and minimum values of RGB or the luminance histogram shown in FIG. 4, and if DL ≧ 200, it can be determined that the contrast of the target image is large.
[0039]
Also, the RGB color signals of the input image are converted into (brightness, saturation) information, and it is determined whether or not the color is near the outermost gamut of the shadow shown in FIG. Is large, it can be determined that the saturation is large.
[0040]
As a means for acquiring correction information, there is another method for directly analyzing image data other than the above, but this is not limited.
[0041]
The importance predicting unit 204 predicts the importance of the granularity and the color reproduction range based on the information (Data2) obtained from the image quality information acquiring unit 203. The importance predicting unit 204 will be described with reference to FIG.
[0042]
First, an information example in which the graininess is considered important is group A, and an information example in which the color reproduction range is considered important is group B. Examples of attributes for each group are given below.
[0043]
That is, examples of information of the group A include the following.
-Gain control is desensitized.
-The exposure time or shutter speed is large.
・ Person image.
-Sepia mode shooting noise removal processing has been performed.
[0044]
Further, examples of information of group B include the following.
・ Landscape image.
-Contrast enhancement processing has been performed.
・ Saturation emphasis processing has been performed.
・ Large dynamic range.
-It contains many colors near the outermost part of the shadow in the (brightness, saturation) plane.
[0045]
That is, the information belonging to the group A indicates that noise desensitization setting or noise removal processing for making the target image less likely to have noise is performed, and the information belonging to the group B refers to the target image. This indicates that the contrast and saturation of the image are large.
[0046]
Next, the importance regarding the granularity and color reproduction range of the target image is predicted. In the present embodiment, the evaluation value is set to five levels in order to simplify the description. FIG. 15 shows the evaluation values.
[0047]
The image quality information of the target image is counted for each group, and the evaluation value is determined according to the count number.
・ In the case of all A groups ... Evaluation value 5
・ When the number of A groups is larger than the number of B groups… Evaluation value 4
・ When the number of A groups is the same as the number of B groups… Evaluation value 3
・ When the number of B groups is larger than the number of A groups… Evaluation value 2
・ In the case of all B groups ... Evaluation value 1
[0048]
In other words, when the evaluation value is 4 or 5, it can be determined that the granularity is higher than the importance regarding the color reproduction range, and when the evaluation value is 1 or 2, the granularity is more relevant than the granularity. It can be determined that the importance is high. When the evaluation value is 3, it is possible to determine that the granularity and the importance of the color reproduction range are equal.
[0049]
Here, a five-level evaluation is used for simplification of description, but may be finer than five levels. When predicting importance, each item of A or B may be multiplied by a weight. For example, when it is known that the degree of the saturation enhancement processing is large, the count of the saturation enhancement processing may be set to two. Further, the grouping into the AB group may be influenced by the guideline of the picture making or the like, and therefore, the above-mentioned example of the distribution is not limited.
[0050]
The image recording signal creation unit 205 generates black based on the evaluation value (Data3) obtained from the importance predicting unit 204 and calculates image recording signals (C ′, M ′, Y ′). The image recording signal creation unit 205 will be described with reference to FIGS. 5, 6, 7, 11 and 15.
[0051]
FIG. 11 is a block diagram showing the operation of the image recording signal creation section of FIG. First, the conversion of the input color signal 501 composed of (R, G, B) to an output color signal (C ′, M ′, Y ′, K ′) will be described. The input color signal is converted into a (C, M, Y) signal in the CMM gamut compression 502. Usually, this conversion is performed using a three-dimensional lookup table. Next, BG / UCR 503 is performed using a method described later to obtain (C ′, M ′, Y ′, K ′) output color signals.
[0052]
Next, a case where black ink (K ') is created from (C', M ', Y') data will be described. In the present embodiment, the five-level evaluation values in FIG. 15 are used to simplify the description.
Here, α in Expression (1) and β in Expression (2) are defined below.
α = 255 / (255-TH1) (3)
β = n · 255 / (255−TH2) (n ≦ 1) (4)
[0053]
Next, a new black start point is created by adding Δ1 and Δ2 shown in FIG. 15 to TH1 and TH2 as the black start points. Equations (3) and (4) are used to calculate α and β and use them as new black generation parameters.
[0054]
That is, when the evaluation value is 3, the current amount of black generation is maintained, and as the evaluation value increases (in the case of 4 and 5), the black generation amount is set lower to perform black generation with emphasis on granularity. In other words, the black starting point is moved to the shadow side (the gamut in FIG. 12 is reduced to the gamut in FIG. 13). The black generation amount is set higher, that is, the black start point is moved to the highlight side (from the gamut of FIG. 12 to the gamut of FIG. 14).
[0055]
BG / UCR for each evaluation value is shown in FIGS. 5 shows the evaluation value 3, FIG. 6 shows the evaluation value 4, and FIG. 7 shows the BG / UCR for the evaluation value 2. In the figure, TH1 = TH2 = TH and Δ1 = Δ2 = Δ.
[0056]
Comparing FIGS. 5, 6, and 7, different black generation amounts K3 ', K4', and K2 '(K4'<K3'<K2') are generated for the input value min (C, M, Y) = IN. ing.
[0057]
Next, the signals (C ′, M ′, Y ′, K ′) unique to the image output device were obtained by equations (1), (2), (3), and (4). Here, Δ1 and Δ2 are arbitrary positive integers and depend on the granularity of the image output device and the output capability such as the color reproduction range.
[0058]
The output unit 206 transmits a (C ′, M ′, Y ′, K ′) signal unique to the image output device to the computer 101.
[0059]
Next, a second embodiment of the image processing apparatus of the present invention will be described. In the second embodiment, higher speed is considered as compared with the first embodiment. In the first embodiment, (C ′, M ′, Y ′, K ′) data is created for each input image using the equations (1), (2), (3), and (4). However, if the amount of black generation K ′ is determined, the relationship between (C, M, Y) and (C ′, M ′, Y ′, K ′) is determined on a one-to-one basis, so that the amounts of black generation differ in advance. By preparing a plurality of conversion tables, the processing can be speeded up.
[0060]
FIG. 8 shows a configuration of the second embodiment based on the above idea. The C′M′Y′K ′ data conversion unit in the second embodiment includes an address generation unit 301 and a C′M′Y′K ′ data conversion table 302. That is, in the second embodiment, the C′M′Y′K ′ data conversion unit is provided in the color conversion unit 104 of the first embodiment. Further, the input color signal 300 is input to the C′M′Y′K ′ data conversion unit, and the output signal 303 is output from the C′M′Y′K ′ data conversion unit.
[0061]
The C′M′Y′K ′ data conversion table 302 is a conversion table selected from the results of the evaluation values calculated by the importance predicting unit 204 of the first embodiment from among a plurality of conversion tables. is there.
[0062]
The address generation unit 301 receives an input color signal (R, G, B) as an input and generates an address for accessing the selected C′M′Y′K ′ data conversion table 302. The C′M′Y′K ′ data conversion table 302 outputs C′M′Y′K ′ data using the address output from the address generation unit 301.
[0063]
In the above, the C′M′Y′K ′ data conversion table 302 executes the image recording signal generation unit 205 of the first embodiment for the (C, M, Y) value of the appropriate step width, and Is replaced with a table.
[0064]
Next, the operation of the image processing apparatus according to the first embodiment of the present invention will be described with reference to the drawings. FIG. 9 is a flowchart showing the operation of the first embodiment of the image processing apparatus of the present invention.
[0065]
First, an arbitrary input image signal (R, G, B) and accompanying information are input (step S400). Next, image quality information is obtained (step S401). The image quality information is determined as described above in the image quality information acquisition unit 203. Next, the importance of the target image is predicted (step S402). The importance of the target image is determined as described above in the importance predicting unit 204. An image recording signal (C ', M', Y ', K') is created (step S403). The image recording signals (C ′, M ′, Y ′, K ′) are created as described above in the image recording signal creation unit 205. The created image recording signal is output (step S404).
[0066]
FIG. 10 is a block diagram showing the system configuration of the image processing apparatus according to the embodiment of the present invention shown in FIG. As shown in FIG. 10, this image processing system is realized by, for example, a workstation or a personal computer, and has a CPU 21 for controlling the whole, a ROM 22 storing a control program of the CPU 21, and a work area of the CPU 21. The system includes a RAM 23 used, a hard disk (DISK) 24, a display 100 for displaying image data, and an image output device 102 such as a color printer.
[0067]
Here, the CPU 21, the ROM 22, the RAM 23, and the hard disk 24 have functions as the computer 101 in FIG. In this case, the function of the color conversion unit 104 in FIG. That is, the function as the image processing apparatus of the present invention can be provided to the CPU 21.
[0068]
The function of the image processing apparatus in the CPU 21 can be provided in the form of, for example, a software package, specifically, an information recording medium such as a CD-ROM. When the recording medium 30 is set, a medium driving device 31 (program reading device) for driving the recording medium 30 is provided.
[0069]
In other words, the image processing apparatus and the image processing method of the present invention allow a general-purpose computer system having a display or the like to read a program recorded on an information recording medium such as a CD-ROM, and The present invention can also be implemented in an apparatus configuration that causes a processor to execute a color conversion unit. In this case, a program for executing the color conversion unit of the present invention, that is, a program used in the hardware system is provided in a state recorded on a medium. The information recording medium on which the program or the like is recorded is not limited to a CD-ROM, but may be a ROM, a RAM, a flexible disk, a memory card, or the like. The program recorded on the medium is installed in a storage device incorporated in the hardware system, for example, the hard disk 24, so that the program can be executed to realize the color conversion function and the color conversion profile generation function. it can.
[0070]
Further, the program for realizing the color conversion unit and the color conversion method that is the operation of the present invention may be provided not only in the form of a medium but also by communication, for example, by a server.
[0071]
Although the embodiment of the present invention has been described in detail as described above, the above embodiment is an example of a preferred embodiment of the present invention, and the present invention is not limited to this, and does not depart from the gist of the present invention. Various modifications can be made in the embodiment.
[0072]
【The invention's effect】
As described above, the image processing apparatus of the present invention that changes the input image data to the image recording signal of the output device using the information of the input image has the importance of the granularity of the target image and the color reproduction range. Since a prediction unit for predicting and a changing unit for changing the black generation amount using the result of the prediction unit are provided, the black processing can be performed according to the image quality of the target image.
[0073]
Further, in the image processing apparatus of the present invention, when the predicting means places importance on the granularity, the amount of black generation is reduced, so that the black processing emphasizing the granularity can be performed.
[0074]
Further, in the image processing apparatus of the present invention, when the color reproduction range is emphasized by the predicting means, the black generation amount is increased, so that the black processing emphasizing the color reproduction range can be performed.
[0075]
Further, in the image processing apparatus of the present invention, since the information of the input image is the setting state of the device at the time of input in the image input device, the image quality of the target image is determined using the setting state of the image input device. Can be predicted.
[0076]
Further, in the image processing apparatus of the present invention, since the information of the input image is the type and degree of the correction performed on the image, the target is determined by using the type and degree of the correction performed on the image. The image quality of an image can be predicted.
[0077]
Further, in the image processing apparatus of the present invention, since the information of the input image is analyzed from the histogram of the image, the image quality of the target image can be predicted using the analysis result of the histogram.
[0078]
Further, in the image processing apparatus of the present invention, since the information of the input image is analyzed from the header information accompanying the image, the image quality of the target image can be predicted using the header information accompanying the image.
[0079]
Further, in the image processing apparatus of the present invention, the prediction means is configured to place emphasis on granularity when at least one of the noise desensitization setting or the noise removal correction result is obtained in the information of the input image. The image quality of an image can be predicted.
[0080]
Further, in the image processing apparatus according to the present invention, the prediction means sets a setting to emphasize at least one of the contrast and the saturation in the information of the input image, and emphasizes the color reproduction range when a correction result is obtained. Therefore, the image quality of the target image can be predicted.
[0081]
Further, the image processing apparatus of the present invention has a prediction unit for predicting the importance of the granularity and the color reproduction range of the target image, and a plurality of color reproduction parameters having different black generation amounts, and uses the result of the prediction unit. Since there is a selection means for selecting a color reproduction parameter, the color reproduction parameter can be selected according to the image quality of the target image.
[0082]
Further, according to the present invention, an image processing method of changing input image data to an image recording signal of an output device using information of an input image includes a prediction step of predicting the granularity of a target image, and importance regarding a color reproduction range. And a changing step of changing the amount of black generation using the result of the prediction step, so that black processing can be performed according to the image quality of the target image.
[0083]
In the image processing method of the present invention, a program for executing the image processing method is stored and can be read by a computer, so that black processing can be performed according to the image quality of the target image.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of an embodiment of an image processing apparatus according to the present invention.
FIG. 2 is a block diagram illustrating a configuration of a color conversion unit 104 in FIG. 1, which is a first embodiment of the image processing apparatus of the present invention.
FIG. 3 is an image diagram showing a target image input to an image input device of the image processing device.
FIG. 4 is a graph showing a dynamic range of a target image input to an image input device of the image processing device.
5 is a graph showing BG / UCR with respect to an evaluation value 3 in FIG.
6 is a graph showing BG / UCR with respect to an evaluation value 4 in FIG.
7 is a graph showing BG / UCR with respect to an evaluation value 2 in FIG.
FIG. 8 is a block diagram in which a C′M′Y′K ′ data conversion unit according to a second embodiment of the image processing apparatus of the present invention is configured in the color conversion unit 104 of FIG. 1;
FIG. 9 is a flowchart illustrating an operation of the first embodiment of the image processing apparatus of the present invention.
FIG. 10 is a block diagram illustrating a system configuration of the image processing apparatus according to the embodiment of the present invention.
FIG. 11 is a block diagram showing the operation of the image recording signal creation section of FIG. 2;
FIG. 12 is a graph showing the gamut on the hue plane when the horizontal axis represents saturation and the vertical axis represents lightness when plotting the output device signals created by Equations (1) and (2). .
FIG. 13 is a graph showing the gamut on the hue plane when the horizontal axis represents saturation and the vertical axis represents lightness when the amount of black generation is reduced.
FIG. 14 is a graph showing the gamut on the hue plane when the horizontal axis represents saturation and the vertical axis represents lightness when the amount of black generation is increased.
FIG. 15 is a table for evaluating input image information in an importance predicting unit.
[Explanation of symbols]
100 display
101 Computer
102 Image output device
103 Image input device
104 color conversion unit
200 input section
203 Image Information Acquisition Unit
204 Important Information Prediction Unit
205 Image recording signal generator
206 Output unit
301 Address generator
302 C'M'Y'K 'data conversion table

Claims (12)

入力画像の情報を用いて入力画像データを出力機器の画像記録信号に変更する画像処理装置であって、
対象画像の粒状性、および色再現範囲に関する重要度を予測する予測手段と、前記予測手段の結果を用いて墨生成量を変更する変更手段、とを有することを特徴とする画像処理装置。
An image processing apparatus that changes input image data to an image recording signal of an output device using information of an input image,
An image processing apparatus comprising: a prediction unit that predicts importance of a granularity and a color reproduction range of a target image; and a changing unit that changes a black generation amount using a result of the prediction unit.
前記予測手段において、粒状性重視とされた場合は墨生成量を低くすることを特徴とする請求項1記載の画像処理装置。2. The image processing apparatus according to claim 1, wherein the amount of black generation is reduced when emphasis is placed on granularity in the prediction unit. 前記予測手段において、色再現範囲重視とされた場合は墨生成量を高くすることを特徴とする請求項1記載の画像処理装置。2. The image processing apparatus according to claim 1, wherein when the color reproduction range is emphasized by the prediction unit, the black generation amount is increased. 前記入力画像の情報とは、前記画像入力機器における入力時の機器の設定状態であることを特徴とする請求項1記載の画像処理装置。The image processing apparatus according to claim 1, wherein the information on the input image is a setting state of the device at the time of input in the image input device. 前記入力画像の情報とは、画像に行われた補正の種類および度合いであることを特徴とする請求項1記載の画像処理装置。The image processing apparatus according to claim 1, wherein the information of the input image is a type and a degree of correction performed on the image. 前記入力画像の情報を画像のヒストグラムから解析することを特徴とする請求項1から5のいずれか1項に記載の画像処理装置。The image processing apparatus according to claim 1, wherein information of the input image is analyzed from a histogram of the image. 前記入力画像の情報を画像付随のヘッダ情報から解析することを特徴とする請求項1から5いずれか1項に記載の画像処理装置。The image processing apparatus according to claim 1, wherein information on the input image is analyzed from header information attached to the image. 前記予測手段は、前記入力画像の情報において、ノイズ減感設定、もしくはノイズ除去補正結果の少なくとも一方が得られる場合に粒状性重視とすることを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。7. The apparatus according to claim 1, wherein the prediction unit places emphasis on granularity when at least one of a noise desensitization setting and a noise removal correction result is obtained in the information of the input image. 8. An image processing apparatus according to claim 1. 前記予測手段は、前記入力画像の情報において、コントラストもしくは彩度の少なくとも一方を強調するような設定、および補正結果が得られる場合に色再現範囲重視とすることを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。7. The image processing apparatus according to claim 1, wherein the prediction unit emphasizes at least one of the contrast and the saturation in the information of the input image, and emphasizes the color reproduction range when a correction result is obtained. The image processing device according to any one of the preceding claims. 入力画像の情報を用いて入力画像データを出力機器の画像記録信号に変更する画像処理方法であって、
対象画像の粒状性、および色再現範囲に関する重要度を予測する予測工程と、前記予測工程の結果を用いて、墨生成量の異なる複数の色再現パラメータの中から色再現パラメータの選択を行う選択工程とを有することを特徴とする画像処理装置。
An image processing method for changing input image data to an image recording signal of an output device using information of an input image,
A prediction step of predicting the granularity of the target image and the importance of the color reproduction range, and a selection of selecting a color reproduction parameter from a plurality of color reproduction parameters having different black generation amounts using the result of the prediction step. And an image processing apparatus.
入力画像の情報を用いて入力画像データを出力機器の画像記録信号に変更する画像処理方法であって、
対象画像の粒状性、および色再現範囲に関する重要度を予測する予測手順と、前記予測工程の結果を用いて墨生成量を変更する変更工程とを有することを特徴とする画像処理方法。
An image processing method for changing input image data to an image recording signal of an output device using information of an input image,
An image processing method comprising: a prediction procedure of predicting importance of a target image regarding graininess and a color reproduction range; and a changing step of changing a black generation amount using a result of the prediction step.
請求項11記載の画像処理方法を実行するプログラムを格納し、コンピュータで読み取り可能なことを特徴とする記録媒体。A recording medium storing a program for executing the image processing method according to claim 11 and being readable by a computer.
JP2002274146A 2002-09-19 2002-09-19 Image processing apparatus, method therefor and recording medium Withdrawn JP2004112547A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002274146A JP2004112547A (en) 2002-09-19 2002-09-19 Image processing apparatus, method therefor and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002274146A JP2004112547A (en) 2002-09-19 2002-09-19 Image processing apparatus, method therefor and recording medium

Publications (1)

Publication Number Publication Date
JP2004112547A true JP2004112547A (en) 2004-04-08

Family

ID=32270706

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002274146A Withdrawn JP2004112547A (en) 2002-09-19 2002-09-19 Image processing apparatus, method therefor and recording medium

Country Status (1)

Country Link
JP (1) JP2004112547A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007049488A (en) * 2005-08-10 2007-02-22 Ricoh Co Ltd Image processing apparatus, image processing method, and program enforcing computer to perform the method
JP2008153834A (en) * 2006-12-15 2008-07-03 Konica Minolta Opto Inc Image processing apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007049488A (en) * 2005-08-10 2007-02-22 Ricoh Co Ltd Image processing apparatus, image processing method, and program enforcing computer to perform the method
JP4555192B2 (en) * 2005-08-10 2010-09-29 株式会社リコー Image processing apparatus, image processing method, and program causing computer to execute the method
JP2008153834A (en) * 2006-12-15 2008-07-03 Konica Minolta Opto Inc Image processing apparatus

Similar Documents

Publication Publication Date Title
US7945109B2 (en) Image processing based on object information
US6608926B1 (en) Image processing method, image processing apparatus and recording medium
JP4424216B2 (en) Image processing apparatus, image processing method, and image processing program
JP2005295508A (en) Conversion of color image into monochrome image
JP2004166147A (en) Self-adjustment of image quality according to brightness of object
JP4687673B2 (en) Monotone processing of color image
JPWO2004030373A1 (en) Output image adjustment of image data
JP2020004267A (en) Image processing apparatus, control method and program
JP7073191B2 (en) Image processing equipment, image processing methods and programs
US7027088B1 (en) Color to monotone conversion apparatus, color to monotone conversion method and a medium recording thereon a color to monotone conversion program
JP4379362B2 (en) Image processing apparatus and gradation reproduction method
JP4208396B2 (en) Image processing method, apparatus, and recording medium
JPWO2004008753A1 (en) Output image adjustment of image data
JP4001079B2 (en) Monotone processing of color image
JP2004088345A (en) Image forming method, image processor, print preparation device, and storage medium
JP4112413B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and computer-readable recording medium on which image processing program is recorded
JP4359730B2 (en) Monotone conversion apparatus, monotone conversion method, and medium recording monotone conversion program
JP4320225B2 (en) Image processing for image data
JP4533277B2 (en) Image processing apparatus, image processing method, and table creation method
JP2004112547A (en) Image processing apparatus, method therefor and recording medium
JP2004112494A (en) Image processor, image processing method and recording medium
JP5067489B2 (en) Output image adjustment of image data
JP2008227959A (en) Image processing device, image processing method and image processing system
JP4237555B2 (en) Image correction method and image correction apparatus
JP2005284423A (en) Image processor and image processing method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060110