JP3998321B2 - Image processing method and apparatus - Google Patents

Image processing method and apparatus Download PDF

Info

Publication number
JP3998321B2
JP3998321B2 JP09015598A JP9015598A JP3998321B2 JP 3998321 B2 JP3998321 B2 JP 3998321B2 JP 09015598 A JP09015598 A JP 09015598A JP 9015598 A JP9015598 A JP 9015598A JP 3998321 B2 JP3998321 B2 JP 3998321B2
Authority
JP
Japan
Prior art keywords
gain
signal
high frequency
frequency component
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP09015598A
Other languages
Japanese (ja)
Other versions
JPH11289468A (en
Inventor
文人 竹本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP09015598A priority Critical patent/JP3998321B2/en
Publication of JPH11289468A publication Critical patent/JPH11289468A/en
Application granted granted Critical
Publication of JP3998321B2 publication Critical patent/JP3998321B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Color Image Communication Systems (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は画像処理方法および装置、とくに詳細には、カラー画像を読み取ることにより得られたカラー画像信号に対して所定の画像処理を施す画像処理方法および装置に関するものである。
【0002】
【従来の技術】
写真フィルム等のカラー画像をCCD等のセンサにより光電的に読み取って色の三原色である赤(R)、緑(G)および青(B)毎の画像信号を得、この画像信号に対して種々の画像処理を施して、画像処理後の画像信号を記録材料に可視像として再生することが行われている。この方法において、RGB3色の画像信号を得る前にまずカラー画像を粗めの走査間隔で光電的に読み取ってカラー画像の概略を読み取るプレスキャンを行い、このプレスキャンにより得られたデータに基づいて画像処理を行う際の様々なパラメータを設定し、その後細かい走査間隔で読み取るファインスキャンを行って画像信号を得るように構成されたシステムが知られている。
【0003】
このようなシステムで行われる画像処理として、例えば、与えられた画像を表す画像信号に対して画像処理を施して画像の鮮鋭度を強調させる方法が種々提案されている。例えば、画像信号に対してボケマスク処理を施して画像の鮮鋭度を強調するようにした手法が知られている(画像解析ハンドブック、P.549、東京大学出版会、高木幹雄、下田陽久 監修)。
しかしながら、上記ボケマスク処理は鮮鋭度を強調することはできるものの、鮮鋭度の強調と同時にフィルムの粒状に起因するざらつきをも強調してしまうため、結果としてノイズが低減された良好な再生画像を得ることができない。
【0004】
このため、画像の平坦部で目立つ粒状などの画像のノイズを抑制して、画像の鮮鋭度を強調する、例えば画像のエッジ部やテクスチャ部等のみのシャープネスを強調する画像処理方法が種々提案されている。
例えば、米国特許第4812903号公報には、RGB3色の画像信号を輝度信号と色彩信号とに分解し、輝度信号の低周波数成分に対して非線形処理を施すとともに、高周波数成分を強調する処理を施し、処理後の輝度信号と色彩信号とを合成して、再生画像の粒状を抑制して鮮鋭度を強調するようにした処理方法が提案されている。
【0005】
また、特開昭63−26783号公報には、カラー画像を表す画像信号から輝度信号と他の色彩信号(色相、彩度等)とを抽出し、輝度信号に空間フィルタ処理を施すことにより空間的大局情報と空間的詳細情報を算出するとともに、空間的大局情報と空間的詳細情報に対して所定の強調処理を施し、処理後の大局情報と詳細情報とを合成して新たな輝度信号を求め、この新たな輝度信号と色彩信号とを合成して所定のカラー画像信号に変換するようにし、色調の変化等の少ない自然な鮮鋭度強調処理が施されかつ、粒状が抑制された処理画像を得ることができる画像処理方法が提案されている。
しかしながら、これらの公報に開示された画像処理方法においては、色の高周波数成分を強調しないため、ボケマスク処理と比較すればフィルム粒状のざらつき感は抑えることができるが、フィルム粒状に起因する輝度成分のざらつきは依然として残るという問題がある。
【0006】
さらに、特表平3−502975号公報には、ボケマスク処理を行う際の下記式(1)において、鮮鋭度強調係数Kを画像の特徴部分に応じて変化させることにより、より画像の鮮鋭度を強調させる方法が提案されている。
S´=Sorg +K´(Sorg −Sus) ……(1)
ここで、Sorg は原画像信号、Susはボケマスク信号である。
この方法は、画像のフィルム粒状に起因する雑音が多い平坦部、テクスチャおよびエッジ部分についての出現数に対してプロットした局所分散値を求め、係数Kをこの局所分散値の関数として設定する方法である。すなわち、通常の画像においては、平坦部の局所分散値は小さく、テクスチャおよびエッジ部分の局所分散値は順次大きいものとなるため、平坦部の画像信号の係数Kはその局所分散値に基づいて求め、テクスチャおよびエッジ部分の画像信号の係数Kはそれらの局所分散値に基づいて求めるようにする方法である。従って、平坦部については係数Kを小さくし、テクスチャおよびエッジ部分については係数Kを大きくして雑音を抑制し、鮮鋭度を強調した画像を得るようにしたものである。
【0007】
しかしながら、この方法においては、フィルム粒状を抑制して鮮鋭度を強調することができるものの、画像信号の振幅が小さいテクスチャやエッジ等は、局所分散を求めると平坦部の局所分散と分離しにくく、本来鮮鋭度よく観察されなければならないテクスチャやエッジが平坦部の雑音と同様に抑制されてしまうことがあるという問題がある。
【0008】
このため、本出願人の出願に係る特開平9−22460号公報には、カラー原画像信号を低周波数成分、中間周波数成分および高周波数成分に分解し、高周波数成分を強調し、中間周波数成分を抑制する強調抑制処理を行った後に、処理後の高周波数成分および中間周波数成分、ならびに低周波数成分を合成する、好ましくは、分解後、さらに中間周波数成分および高周波成分から輝度成分を抽出して、輝度成分のみに基づいて強調抑制処理および合成処理を行う画像処理方法および装置が開示されている。この粒状抑制シャープネス強調処理は、フィルム粒状に起因するざらつきを含む中間周波数成分を抑制し、エッジ、テクスチャ等を含む高周波数成分を強調するものであるので、ざらつきが抑制され、かつ鮮鋭度が強調された画質が良好な再生画像を得ることができるものである。
【0009】
【発明が解決しようとする課題】
しかしながら、画像のノイズには、フィルムの粒状に基づくノイズ成分を始めとして、様々な周波数成分を含んでおり、特開平9−22460号公報に開示された粒状抑制シャープネス強調処理においても、ノイズを十分に抑制しきれない場合もあるし、高周波数成分の強調と中間周波数成分の抑制とのバランスによっては、鮮鋭度を十分に強調しきれない場合もあるし、また、鮮鋭度を強調しすぎると、エッジ部の偽輪郭が生じたりするという問題があった。
【0010】
本発明の目的は、上記従来技術の問題点を解消し、カラー画像の鮮鋭度を強調するとともに、フィルム粒状に基づくノイズ成分を除去し、さらに平坦部分の粒状性を抑えたり、エッジ部の偽輪郭を防止したり、特定濃度領域の粒状性を抑えたり、画像のエッジを検出し、エッジのみの鮮鋭度を強調したりして、良好な画質の再生画像を得ることができる画像処理方法および装置を提供するにある。
【0011】
【課題を解決するための手段】
本発明者は、一般的なカラー画像を表す原画像信号においては、再生画像の鮮鋭度に影響を及ぼす成分は原画像信号の高周波数成分であり、再生画像にざらつきとなって現れるフィルム粒状は、主に中間周波数成分に多く含まれているものであるが、画像のノイズには様々な周波数成分が含まれているため、ノイズを十分に抑制しきれない場合があるため、エッジやテクスチャなどの鮮鋭度を落とさずに、フィルム粒状に基づくノイズ成分を十分に除去することができる粒状抑制シャープネス強調処理について鋭意研究を行った結果、高周波数成分の強調と中間周波数成分の抑制とをおこなう強調抑制処理を画像特性、例えば、コントラスト、コントラストのハイライトやシャドー、画像特定濃度や輝度、エッジに依存させて行うことにより、上記目的を達成することができることを知見し、本発明に至ったものである。
【0012】
すなわち、本発明は、所定のカラー画像を表す原画像信号に対して所定の画像処理を施す画像処理方法であって、前記原画像信号の輝度信号を算出し、前記原画像信号を低周波数成分、中間周波数成分、および高周波数成分に分解し、前記原画像信号の前記高周波数成分を強調するための高周波数ゲインを前記原画像信号の前記輝度信号に応じて設定するとともに、前記原画像信号の前記中間周波数成分を抑制するための中間周波数ゲインを、前記原画像信号の前記輝度信号に応じて設定し、前記高周波数成分を前記高周波数ゲインに応じて強調するとともに、前記中間周波数成分を前記中間周波数ゲインに応じて抑制する、画像特性依存強調抑制処理を行い、この処理後の高周波数成分および中間周波数成分、ならびに前記低周波数成分を合成して処理済画像信号を得ることを特徴とする画像処理方法であって、前記原画像信号の分解では、分解後の各周波数成分のうち少なくとも前記低周波成分をRGBデータとし、前記高周波数ゲインおよび前記中間周波数ゲインを設定するステップでは、前記画像処理を行う対象の各画素毎に、主走査方向に隣接する各画素間の前記輝度信号の差分と、副走査方向に隣接する各画素間の前記輝度信号の差分との和で表される検出エッジ指数を求め、各画素毎に、前記検出エッジ指数に応じた大きさの前記高周波数ゲインおよび前記中間周波数ゲインを設定するものであることを特徴とする画像処理方法を提供するものである。
【0013】
ここで、原画像信号の低周波数成分、中間周波数成分、高周波数成分とは、図3に示すように分布される周波数成分のことをいうものであり、中間周波数成分とは、処理後のデータを可視像として再生する際の出力のナイキスト周波数の1/3付近にピークを持って分布する周波数成分をいうものであり、低周波数成分とは、出力のナイキスト周波数が0となる周波数をピークとして分布する成分をいい、高周波数成分とは出力のナイキスト周波数をピークとして分布する成分をいうものであり、さらに、低・中間・高周波数成分の和が各周波数において1となっている成分をいうものである。
【0014】
なお、前記原画像信号の前記輝度信号は、前記中間・高周波数成分のRGBカラーデータを、YIQ規定変換した際のY成分を表す信号であることが好ましい。
【0015】
また、前記原画像信号を分解するに先がけて、前記原画像信号のRGBカラーデータに基づいて、前記原画像信号の前記高周波数成分を強調するための基本高周波数ゲイン、および、前記原画像信号の前記中間周波数成分を抑制するための基本中間周波数ゲインを設定するステップを有し、前記高周波数ゲインおよび前記中間周波数ゲインを設定するステップでは、前記基本高周波数ゲインおよび前記基本中間周波数ゲインを調整するための強度係数を、前記輝度信号に応じて設定し、前記基本高周波数ゲインに、前記輝度信号に応じた前記強度係数を乗じて前記高周波数ゲインを算出して設定するとともに、前記基本中間周波数ゲインに、前記輝度信号に応じた前記強度係数を乗じて前記中間周波数ゲインを算出して設定することが好ましい。
【0016】
また、前記高周波数ゲインおよび前記中間周波数ゲインを設定するステップでは、
前記輝度信号に応じて算出された検出エッジ指数に応じて、前記強度係数を定めるものであり、前記強度係数を、前記検出エッジ指数が所定値よりも大きい場合は1.0とし、前記検出エッジ指数が前記所定値よりも小さい場合は、前記検出エッジ指数の大きさに応じて0.0より1.0まで所定割合で単調増加するように設定することが好ましい。
【0017】
また、本発明は、所定のカラー画像を表す原画像信号に対して所定の画像処理を施す画像処理装置であって、前記原画像信号の輝度信号を算出する手段と、前記原画像信号を低周波数成分、中間周波数成分、および高周波数成分に分解する手段と、前記原画像信号の前記高周波数成分を強調するための高周波数ゲインを、前記原画像信号の前記輝度信号に応じて設定するとともに、前記原画像信号の前記中間周波数成分を抑制するための中間周波数ゲインを、前記原画像信号の前記輝度信号に応じて設定する手段と、前記高周波数成分を前記高周波数ゲインに応じて強調するとともに、前記中間周波数成分を前記中間周波数ゲインに応じて抑制する、画像特性依存強調抑制処理を行う手段と、この処理後の高周波数成分および中間周波数成分、ならびに前記低周波数成分を合成して処理済画像信号を得る手段と、を有することを特徴とする画像処理装置であって、前記分解する手段は、分解後の各周波数成分のうち少なくとも前記低周波成分をRGBデータとする分解を実施し、前記高周波数ゲインおよび前記中間周波数ゲインを設定する手段は、前記画像処理を行う対象の各画素毎に、主走査方向に隣接する各画素間の前記輝度信号の差分と、副走査方向に隣接する各画素間の前記輝度信号の差分との和で表される検出エッジ指数を求め、各画素毎に、前記検出エッジ指数に応じた大きさの前記高周波数ゲインおよび前記中間周波数ゲインを設定することを特徴とする画像処理装置を提供するものである。
【0018】
また、前記原画像信号の前記輝度信号は、前記中間・高周波数成分のRGBカラーデータを、YIQ規定変換した際のY成分を表す信号であることが好ましい。
【0019】
また、前記原画像信号を分解するに先がけて、前記原画像信号のRGBカラーデータに基づいて、前記原画像信号の前記高周波数成分を強調するための基本高周波数ゲイン、および、前記原画像信号の前記中間周波数成分を抑制するための基本中間周波数ゲインを設定する手段を有し、前記高周波数ゲインおよび前記中間周波数ゲインを設定する手段では、前記基本高周波数ゲインおよび前記基本中間周波数ゲインを調整するための強度係数を、前記輝度信号に応じて設定し、前記基本高周波数ゲインに、前記輝度信号に応じた前記強度係数を乗じて前記高周波数ゲインを算出して設定するとともに、前記基本中間周波数ゲインに、前記輝度信号に応じた前記強度係数を乗じて前記中間周波数ゲインを算出して設定することが好ましい。
【0020】
また、前記高周波数ゲインおよび前記中間周波数ゲインを設定する手段では、
前記輝度信号に応じて算出された検出エッジ指数に応じて、前記強度係数を定めるものであり、前記強度係数を、前記検出エッジ指数が所定値よりも大きい場合は1.0とし、前記検出エッジ指数が前記所定値よりも小さい場合は、前記検出エッジ指数の大きさに応じて0.0より1.0まで所定割合で単調増加するように設定することが好ましい。
【0021】
【発明の実施の形態】
本発明に係る画像処理方法および装置を添付の図面に示す好適実施形態を参照して以下に詳細に説明する。
【0022】
図1は、本発明に係る画像処理方法を実施する画像処理装置を適用したカラー写真から画像を読み取って記録材料に画像を再生するデジタルカラー画像再生システムの一実施形態のブロック図である。
同図に示すように、デジタルカラー画像再生システム(以下、単に再生システムという)10は、カラー写真フィルムから画像を読み取る読取手段12と、読取手段12により得られたカラー写真フィルム画像CIを表す画像信号に対して、本発明の画像処理方法に基づく画像処理を含む画像処理を施す画像処理手段14と、画像処理手段14により画像処理が施された画像信号を可視像Pとして記録材料Zに記録する再生手段16とを有する。
【0023】
読取手段12は、ネガフィルムあるいはリバーサルフィルム等のカラー画像CIからカラー原画像信号R,G,Bを光電的に読み取るためのCCDアレイ18を有し、このCCDアレイ18にカラー画像CIからの光を結像させるための結像レンズ20を有するものである。本実施形態においてCCDアレイ18は2760×1840画素からなり、赤(R)、緑(G)および(B)青の3色の色分解フィルタが装置されたフィルタタレット22を回転させながら、画像データのスキャンを行うことにより、フルカラー画像が面順次で得られるものとなっている。さらにCCDアレイ18はこのCCDアレイ18により検出されたカラー画像を表す画像信号をデジタル変換するA/D変換手段24と、CCDアレイ18の補正を行うCCD補正手段26と、CCD補正手段26により補正されたカラー画像を表す画像信号を対数変換するルックアップテーブルを内蔵した対数変換手段28とを有するものである。この読取手段12は、RGB3つの画像信号を得る前にまずカラー画像CIを粗めの走査間隔で光電的に読み取ってカラー画像CIの概略を読み取るプレスキャンを行ってプレスキャンデータSP を得、その後細かい走査間隔で読み取るファインスキャンを行ってファインスキャンデータSF を得るように構成されているものである。
【0024】
画像処理手段14は、プレスキャンデータSP に基づいてファインスキャンの際の階調処理等のパラメータを設定するオートセットアップ演算部(以下、演算部という)30と、この演算部30により設定されたパラメータに基づいて、ファインスキャンデータSF の色・階調処理を行う色・階調処理手段32と、プレスキャンデータSP を可視像として再生するCRT34および演算部30を接続するためのモニタ表示アンドユーザインターフェイス36と、本発明の特徴であるカラー画像信号に対して粒状抑制処理および鮮鋭度強調処理を行う粒状抑制シャープネス強調処理手段(以下、強調処理手段という)38とからなるものである。
さらに、再生手段16はカラー画像信号を可視再生像Pとして記録材料Zに記録するプリンタ40を有するものである。
【0025】
以下に、再生システム10の各手段およびその構成要素の作用について説明する。
まず、再生システム10においては、読取手段12によりネガフィルムあるいはリバーサルフィルム等のカラー画像CIから粗めの走査間隔によりカラー画像CIの概略を読み取るプレスキャンを行う。このプレスキャンにより得られた3色のプレスキャンデータSP は、A/D変換手段24によりデジタルデータに変換され、CCD補正手段26により補正がなされて対数変換手段28により対数増幅されて画像処理手段14の演算部30およびモニタ表示アンドユーザインターフェイス(以下インターフェイスとする)36に入力される。
【0026】
次に、画像処理手段14においては、インターフェイス36に入力されたプレスキャンデータSP はCRT34に可視像として表示され、CRT34上に可視像とは別に表示された鮮鋭度処理メニュー34Aをユーザが選択することによりこの選択した結果を表す信号S1 がインターフェイス36に入力され、さらにこの信号S1 は演算部30に入力される。演算部30においては、プレスキャンデータおよび信号S1 に基づいて、後に色・階調処理手段32により行われる色・階調処理のためのパラメータが設定される。また、このパラメータの一部は、後述する、本発明の画像処理方法を実施する強調処理手段38に入力される。
【0027】
ここで、パラメータ設定の詳細について説明する。まず、演算部30においては入力されたプレスキャンデータSP に基づいてカラー画像CIの温度域およびプリントサイズが求められる。また、ここではCRT34からインターフェイス36を経由して入力された信号S1 に基づいて強調処理手段38において行われる強調抑制処理において中間周波数成分に乗じられるゲインM0 および高周波数成分に乗じられるゲインH0 などが求められ、さらに必要に応じて、これらのゲインM0 およびH0 を調整する際に依存させる画像特性の種類や強度(画像特性依存強度テーブル(LUT))なども設定される。さらに、演算部30では、色・階調処理手段32において行われる色・階調処理のためのパラメータも求められ、強調処理手段38および色・階調処理手段32に入力される。
【0028】
次いで、読取手段12においては、カラー画像CIを細かい走査間隔で読み取るファインスキャンが行われ、3色のファインスキャンデータSF がカラー画像信号として得られる。ファインスキャンデータSF はA/D変換手段24によりデジタルデータに変換され、CCD補正手段26により補正がなされて対数変換手段28により対数増幅されて、色・階調処理手段32に入力される。色・階調処理手段32においてはファインスキャンデータSF に色・階調処理が施され、強調処理手段38に入力される。
【0029】
以下、この粒状抑制シャープネス強調処理手段38において行われる本発明の特徴とする強調抑制処理について説明する。
図2は、強調処理手段38で行われる強調抑制処理の詳細を説明するためのブロック図である。
同図に示すように、強調処理手段38は、本発明の画像処理装置を構成するもので、9×9の第1ロースフィルタ(以下、LPFという)42と、第1減算手段44と、輝度算出手段46と、5×5の第2LPF48と、第2減算手段50と、画像特性取得手段(以下、取得手段という)52と、画像特性依存ゲイン算出手段(以下、ゲイン算出手段という)54と、第1アンプ56と、第2アンプ58と、第1加算手段60と、第2加算手段62とを有する。
ここで、第1LPF42、第1減算手段44、輝度算出手段46、第2LPF48および第2減算手段50は、本発明の分解手段を構成する。また、ゲイン算出手段54、第1アンプ56および第2アンプ58は、本発明の強調抑制処理手段を構成し、第1加算手段60および第2加算手段62は、本発明の合成手段を構成する。
【0030】
図2に示す強調処理手段38において、入力されたファインスキャンデータ(以下、原信号という)SF (RGB)に対して以下に示す第1LPF42によりフィルタリング処理が施され、原信号SF (RGB)の低周波数成分RL ,GL ,BL が抽出される。
【0031】
【数1】

Figure 0003998321
【0032】
そして、第1減算手段44においては、原信号SF から低周波数成分(低周波信号)RL ,GL ,BL を減算して、中間・高周波数成分RMH,GMH,BMHを抽出する。このように抽出された後の低周波数成分RL ,GL ,BL はカラー画像中のエッジや細かいテクスチャやフィルムの粒状によるざらつきを含まないものである。一方、中間周波数成分RM ,GM ,BM にはフィルムの粒状によるざらつきを含み、高周波数成分RH ,GH ,BH はカラー画像中のエッジや細かいテクスチャを含むものである。
【0033】
ここで、原信号の低周波数成分、中間周波数成分および高周波数成分とは、図3に示すように分布される後述する中間・高周波数成分に乗じるゲインM,Hを1.0とした場合の周波数成分のことをいうものであり、中間周波数成分RM ,GM ,BM は、処理後のデータを可視像Pとして再生する際の出力のナイキスト周波数fS /2の1/3付近にピークを持って分布HM となる周波数成分をいうものであり、低周波数成分RL ,GL ,BL とは、0周波数にピークを持って分布HL となる成分をいい、高周波数成分RH ,GH ,BH とは出力のナイキスト周波数fS /2にピークを持って分布HH となる成分をいうものである。なお、本実施形態においてナイキスト周波数は、記録媒体Zへの記録が300dpiで行われる場合のナイキスト周波数をいうものである。ここで、図3においては、各周波数において周波数成分の和は1となっている。
【0034】
次いで、輝度算出手段46において、第1減算手段44によって分解された中間・高周波数成分RMH,GMH,BMHから輝度成分が抽出される。この輝度成分の抽出は原信号SF の中間・高周波数成分RMH,GMH,BMHをYIQ規定に変換した際の成分YMHがデータの輝度成分を表すものである。ここで、YIQ規定への変換は下記式(2)により行う。
【0035】
【数2】
Figure 0003998321
【0036】
ここで、YIQ規定に変換後の色成分である成分IMHおよび成分QMHはフィルム粒状に起因する色のざらつきを含むものであるため、成分IMHおよび成分QMHはここでは0とおいてフィルム粒状に起因する色のざらつきを抑制する。ここで、色成分である成分IMHおよび成分QMHは一般の被写体を写した画像の場合は殆ど成分を持たないことが経験的に分かっている。したがって、成分IMHおよび成分QMHはフィルム粒状に起因する色のざらつきとみなして0とおくことにより、ざらつきを抑制した良好な再生画像を得ることができる。
【0037】
次いで、成分YMHに対して以下に示すような5×5の第2LPF48によってフィルタリング処理を施して、成分YMHの中間周波数成分YM を得る。
【0038】
【数3】
Figure 0003998321
【0039】
さらに、第2減算手段50において、成分YMHから中間周波数成分YM を減算することにより成分YMHの高周波数成分YH を得る。
【0040】
一方、画像特性取得手段52では、前述した演算部30において求められたゲインM0 およびゲインH0 を調整する際に依存させる画像特性、例えば、コントラスト、コントラストのハイライト部およびシャドー部、特定画像濃度ならびにエッジなどが、原信号SF (RGB)に基づいて求められる。ここで、ゲインM0 およびゲインH0 を調整する際に依存させるのに用いる画像特性の種類は、1種であっても、2種以上であってもよい。また、ここで用いる画像特性の種類は、オペレータによってCRT34などに入力され、CRT34からインターフェイス36を経由して演算部30に入力され、演算部30から強調処理手段38の画像特性取得手段に入力されたものであってもよいし、演算部30において、CRT34からの入力信号に基づいて設定されるものであってもよいし、画像自体から自動的に設定されるものであってもよい。
取得手段52において行われる、画像特性に応じた信号処理については、具体的な個々の画像特性に応じて後述する。
【0041】
こうして、取得手段52において、画像特性が取得されると、画像特性依存ゲイン算出手段54では、前述した演算部30において求められたゲインM0 およびゲインH0 を取得された画像特性に依存させて調整するための画像特性依存強度Wを設定する。ここで設定する画像特性依存強度Wは、画像や画像特性に応じてゲイン算出手段54で設定するようにしてもよいが、ゲイン算出手段54に設けられたメモリ(図示せず)などに予め強度関数や画像特性依存強度テーブル(LUT)などに、好ましくは複数用意しておき、これらから画像や画像特性に応じて選択するようにしても良い。なお、予め強度関数や画像特性依存強度LUTなどは、演算部30に用意しておき、必要な強度関数や画像特性依存強度LUTなどを受け取るようにしてもよい。
【0042】
こうして、ゲイン算出手段54において画像特性に応じて設定された画像特性依存強度Wが、それぞれ、演算部30において求められたゲインM0 およびゲインH0 に下記式(3)に示すように乗じられて、中間周波数成分YM を画像特性に依存させて抑制するための画像特性依存ゲインMおよび高周波数成分YH を画像特性に依存させて強調するための画像特性依存ゲインHが算出される。
ゲインM=ゲインM0 ×W
ゲインH=ゲインH0 ×W ……(3)
ここで、演算部30において、元々、フィルム粒状に基づく輝度成分のざらつきが比較的多く含まれている中間周波数成分YM のゲインを比較的低く設定することにより、ざらつき感を抑え、画像の鮮鋭度が依存する輝度成分の高周波数成分YH のゲインHを比較的大きくすることにより、処理済画像の鮮鋭度を強調することができるように、ゲインM0 とゲインH0 とはゲインM0 <ゲインH0 となるように設定されている。従って、ゲイン算出手段54で算出される画像特性依存ゲインMとゲインHとはゲインM<ゲインHとなるように設定される。
【0043】
ところで、演算部30においては、例えば、カラー画像CIがアンダーネガの場合には、フィルム粒状に起因するざらつきが目立つうえに、階調特性を改善するために階調を立てた場合に粒状がかなり悪い画像となってしまうため、ゲインM0 がかなり低く設定される。このため、ゲイン算出手段54で画像特性に依存させてゲインMもかなり低く設定される。そしてこれにより、画像特性に依存させて、粒状を強く抑制することができる。また、プリントサイズに依存しても演算部30で最適なゲインM0 およびゲインH0 が設定される。さらに、前述したようにユーザがいくつかの鮮鋭度強調処理メニューから所望とするメニューを選択する場合には、このメニューに応じたゲインM0 およびゲインH0 をテーブルとして記憶しておき、メニュー選択に応じて最適なゲインM0 およびゲインH0 を選択できるようにしておくことが好ましい。これにより、画像ごとにあるいはユーザの好みに応じた処理を行うことができるようになる。
このように、演算部30においてプリントサイズやユーザの好みに応じて最適なゲインM0 およびゲインH0 が設定されているので、ゲイン算出手段54で画像特性に依存させて設定されるゲインMおよびHも最適なものとなるのはいうまでもない。
【0044】
ところで、画像特性依存強度Wは、中間周波数成分抑制のためのゲインMと高周波数成分強調のためのゲインHとで、同一の画像特性依存強度を用いているけれども、本発明はこれに限定されず、ゲインMとゲインHとでそれぞれ異なる画像特性依存強度を用いてもよい。
なお、上述した実施形態おいては、基本となるゲインM0およびゲインH0は、演算部30において算出または設定し、ゲイン算出手段54において、まず画像特性依存強度Wを算出し、上記式(3)によって画像特性依存ゲインMおよびゲインHを算出しているが、本発明はこれに限定されず、基本となるゲインM0およびゲインH0を、演算部30では求めず、ゲイン算出手段54で直接求めるようにしてもよいし、さらに、基本となるゲインM0およびゲインH0および画像特性依存強度Wを求めることなく、直接、画像特性依存ゲインMおよびゲインHを算出するように構成してもよい。
【0045】
次いで、下記式(4)に示すように、こうしてゲイン算出手段54によって算出された画像特性依存ゲインMおよびゲインHが、それぞれ第1および第2アンプ56および58において、第2LPF48によって得られた成分YMHの中間周波数成分YM および第2減算手段50によって得られた成分YMHの高周波数成分YH にそれぞれ乗じられて処理済成分YM ´,YH ´が得られる。
M ´=ゲインM×YM
H ´=ゲインH×YH ……(4)
続いて、第1加算手段60において、下記式(5)に示すように、それぞれ第1および第2アンプ56および58で得られた処理済成分YM ´およびYH ´が合成されて、成分YMH´が得られる。
MH´=YM ´+YH ´ ……(5)
(=ゲインM×YM +ゲインH×YH
【0046】
ここで、上述したように、ゲイン算出手段54においてゲインMとゲインHとはゲインM<ゲインHとなるように設定されている。すなわち、フィルム粒状に基づく輝度成分のざらつきは、中間周波数成分に比較的多く含まれているため、成分YM のゲインMを画像特性に依存させて比較的低く設定することにより、画像特性に依存させて適切にざらつき感を抑えることができるものである。また、画像の鮮鋭度(シャープネス)は、輝度成分の高周波数成分に依存するため、輝度成分の高周波数成分YH のゲインHを画像特性に依存させて比較的大きくすることにより、処理済画像の鮮鋭度を画像特性に依存させて適切に強調することができるものである。
【0047】
そして、第2加算手段62において、このようにして得られた成分YMH´を前述した原信号SF の低周波数成分RL ,GL ,BL と合成して処理済信号R´,G´,B´を得る。この際、前述した成分IMHおよび成分QMHの値は0とされているため、処理された輝度成分YMH´を逆変換してRGBのデータに対応させると、RGB3つのデータは全て成分YMH´と同一の値となる。したがって、処理された輝度成分YMH´を逆変換しなくても合成した結果は、逆変換した場合と同一となる。よって、処理を簡便なものとするために処理された輝度成分YMH´を逆変換しないで合成するようにしているのである。
その後、処理済信号R´,G´,B´は再生手段16に入力され、プリンタ40により記録材料Zに可視像Pとして再生される。
【0048】
このようにして再生された再生可視像Pは、フィルム粒状に起因するざらつきを含むデータの中間・高周波数成分の色成分が0とされており、さらに、中間・高周波数成分の輝度成分のうち中間周波数成分YM のゲインMが画像特性に依存して抑制され、高周波数成分YH のゲインHが画像特性に依存して強調されているため、どのような画像であっても適切に鮮鋭度が強調されるとともにフィルム粒状に起因するざらつきが十分に抑制された画像となる。
【0049】
次いで、本発明の画像処理方法を実施する本発明の画像処理装置の具体的な実施例について説明する。
図4〜7に示す粒状抑制シャープネス強調処理手段38の実施例は、それぞれ画像特性が、コントラスト、コントラストのハイライト部およびシャドー部、特定画像濃度ならびにエッジである場合の画像特性取得手段52および画像特性依存ゲイン算出手段54の具体例を示すもので、これらを除いて、図2に示す粒状抑制シャープネス強調処理手段38と同一であるので、同一の構成要素には同一の番号を付し、その説明は省略する。
【0050】
まず、本発明の具体的第1実施例による画像処理装置の強調処理手段について説明する。図4(a)は、本発明の具体的第1実施例による画像処理装置の強調処理手段38aにおいて行われるコントラスト依存強調抑制処理の詳細を説明するためのブロック図である。
図4(a)に示すように、本発明の第1実施例による画像処理装置14の強調処理手段38aは、画像特性としてコントラストを用いるもので、コントラストとして第1減算手段44によって算出された原信号SF と低周波数信号RL ,GL ,BL との差信号である中間・高周波数成分RMH,GMH,BMHを用い、この差信号RMH,GMH,BMHから輝度算出手段46によって算出された輝度成分(輝度信号)YMHに依存して強調抑制処理をおこなうものである。従って、図4(a)に示す強調処理手段38aにおいては、分解手段を構成する第1減算手段44および輝度算出手段46は、図2に示す強調処理手段38における画像特性取得手段52に相当するコントラスト(信号)取得手段52aをも構成し、コントラスト依存ゲイン算出手段54aは、図2に示す画像特性依存ゲイン算出手段54にとして機能するものである。
【0051】
すなわち、コントラスト信号取得手段52aは、原信号SFと低周波信号RL,GL,BL との差信号である中間・高周波数成分RMH,GMH,BMHを算出する第1減算手段44と、この差信号RMH,GMH,BMHから上記式(2)に従って輝度信号YMHを算出する輝度算出手段46とから構成される。
また、ゲイン算出手段54aは、画像特性取得手段52として機能する輝度算出手段46によって取得された差信号(中間・高周波数成分)RMH,GMH,BMHの輝度信号YMHに依存する強度関数Wを、例えば図4(b)に示すコントラスト依存テーブルのようにコントラストに依存させて、すなわち低コントラストで小さく、高コントラストで大きく設定することにより、この強度関数Wと基本となるゲインM0およびゲインH0とから上記式(3)によってゲインMおよびHを算出するものである。
なお、本実施例においては、コントラスト信号取得手段52aを第1減算手段44および輝度算出手段46によって構成し、ゲインMおよびHを、差信号(中間・高周波数成分)RMH,GMH,BMHの輝度信号YMHに依存して強度抑制処理を行っているが、本発明は、これに限定されず、コントラスト信号取得手段52aを第1減算手段44のみによって構成し、ゲインMおよびHを、差信号(中間・高周波数成分)RMH,GMH,BMH、例えばこれらの3色の平均値に依存して強度抑制処理を行ってもよい。
【0052】
このように、本実施例においては、例えば、図4(b)に示すようなコントラスト依存テーブルを用いるので、コントラストが高い場合、すなわち差信号の輝度信号YMHの絶対値が大きい場合には、強度関数Wの値を1,0として、中間周波数成分YM のゲインMを基本となるゲインM0 および高周波数成分YH のゲインHを基本となるゲインH0 とする。これに対し、コントラストが低い場合、すなわち差信号の輝度信号YMHの絶対値が小さい所定範囲の値の場合には、強度関数Wの値を1.0より小さくして、中間周波数成分YM のゲインMを基本となるゲインM0 より、高周波数成分YH のゲインHを基本となるゲインH0 より小さくする。
こうすることにより、本実施例においては、処理済成分YM ´,YH ´を低コントラスト部でさらに小さくして、最終的に得られる処理済信号R´,G´,B´から再生されるカラー画像の鮮鋭度を強調し、フィルムの粒状に基づくノイズ成分を除去するとともに、コントラストの低い平坦部分における粒状性をさらに抑制し、良好な画質の再生画像を得ることができる。
【0053】
次いで、本発明の具体的第2実施例による画像処理装置の強調処理手段について説明する。図5(a)は、本発明の具体的第2実施例による画像処理装置の強調処理手段38bにおいて行われるコントラスト依存方式によるハイライト部およびシャドー部依存強調抑制処理の詳細を説明するためのブロック図である。
図5(a)に示すように、本発明の第2実施例による画像処理装置14の強調処理手段38bは、画像特性としてコントラストを用い、コントラストのハイライト部およびシャドー部の各々を独立に操作するもので、コントラストとして第1減算手段44によって算出された原信号SF と低周波数信号RL ,GL ,BL との差信号である中間・高周波数成分RMH,GMH,BMHを用い、この差信号RMH,GMH,BMHの正負によってコントラストのハイライト部およびシャドー部を判定または検出し、この差信号RMH,GMH,BMHから輝度算出手段46によって算出された輝度成分(輝度信号)YMHの正負に依存して強調抑制処理をおこなうものである。
【0054】
従って、図5(a)に示す強調処理手段38bは、図4(a)に示す強調処理手段38aと、図2に示す強調処理手段38における画像特性依存ゲイン算出手段54に相当するハイライト/シャドー判定・ゲイン算出手段54bが、コントラスト信号取得手段52aによって取得されたコントラストに相当する差信号またはその輝度信号のみならずコントラストのハイライト部およびシャドー部、すなわち差信号の正負またはその輝度信号の正負を判定し、判定されたハイライト部およびシャドー部(差信号やその輝度信号の正負)に依存して、コントラスト依存ゲイン算出手段54aにおけるゲインMおよびゲインHの値を調整する点を除いて全く同一に機能する。
すなわち、図5(a)に示す強調処理手段38bにおいては、分解手段を構成する第1減算手段44および輝度算出手段46は、図4(a)に示す強調処理手段38aと同様に、図2に示す強調処理手段38における画像特性取得手段52に相当するコントラスト(信号)取得手段52aをも構成し、ハイライト/シャドー判定・ゲイン算出手段54bは、図2に示す画像特性依存ゲイン算出手段54として機能する。
【0055】
ここで、ハイライト/シャドー判定・ゲイン算出手段54bは、画像特性取得手段52として機能する輝度算出手段46によって取得された差信号(中間・高周波数成分)RMH,GMH,BMHの輝度信号YMHの正負を判定し、判定された輝度信号YMHの正負に依存する強度関数Wを、例えば図5(b)に示すコントラスト依存テーブルのようにコントラストならびにハイライト側およびシャドー側に依存させて、すなわち低コントラストで小さく、高コントラストのハイライト側で大きく、高コントラストのシャドー側でさらに大きく設定することにより、この強度関数Wと基本となるゲインM0 およびゲインH0 とから上記式(3)によってゲインMおよびHを算出するものである。
なお、本実施例においても、コントラスト信号取得手段52aを第1減算手段44および輝度算出手段46によって構成し、ゲインMおよびHを、差信号(中間・高周波数成分)RMH,GMH,BMHの輝度信号YMHの正負に依存して強度抑制処理を行っているが、本発明は、これに限定されず、コントラスト信号取得手段52aを第1減算手段44のみによって構成し、ゲインMおよびHを、差信号(中間・高周波数成分)RMH,GMH,BMHの正負、例えば、これらの3色の平均値の正負に依存して強度抑制処理を行ってもよい。
【0056】
このように、本実施例においては、例えば、図5(b)に示すようなコントラスト依存テーブルを用いるので、ハイライト側でコントラストが高い場合、すなわち差信号の輝度信号YMHが正でその絶対値が大きい場合には、強度関数Wの値を1,0として、中間周波数成分YM のゲインMを基本となるゲインM0 および高周波数成分YH のゲインHを基本となるゲインH0 とし、シャドー側でコントラストが高い場合、すなわち差信号の輝度信号YMHが負でその絶対値が大きい場合には、強度関数Wの値を1,0よりさらに大きくして、中間周波数成分YM のゲインMを基本となるゲインM0 より、高周波数成分YH のゲインHを基本となるゲインH0 よりさらに大きくする。これに対し、コントラストが低い場合、すなわち差信号の輝度信号YMHの絶対値が小さい所定範囲の値の場合には、強度関数Wの値を1.0より小さくして、中間周波数成分YM のゲインMを基本となるゲインM0 より、高周波数成分YH のゲインHを基本となるゲインH0 より小さくする。
こうすることにより、本実施例においては、処理済成分YM ´,YH ´を低コントラスト部でさらに小さくするとともに、高コントラスト部のシャドー側では、高コントラスト部のハイライト側よりもさらに大きくして、最終的に得られる処理済信号R´,G´,B´から再生されるカラー画像の鮮鋭度を強調し、フィルムの粒状に基づくノイズ成分を除去するとともに、エッジ部の偽輪郭を防止し、良好な画質の再生画像を得ることができる。
【0057】
続いて、本発明の具体的第3実施例による画像処理装置の強調処理手段について説明する。図6(a)は、本発明の具体的第3実施例による画像処理装置の強調処理手段38cにおいて行われる特定濃度依存強調抑制処理の詳細を説明するためのブロック図である。
図6(a)に示すように、本発明の第3実施例による画像処理装置14の強調処理手段38cは、画像特性として特定濃度を用いるもので、特定濃度として原信号SF の濃度信号(RGB信号)を用い、この原信号SF の濃度信号(RGB)から算出された輝度成分(輝度信号)YF に依存して強調抑制処理をおこなうものである。従って、図6(a)に示す強調処理手段38cにおいては、原信号輝度算出手段52cが図2に示す強調処理手段38における画像特性取得手段52として機能し、輝度信号依存ゲイン算出手段54cは、図2に示す画像特性依存ゲイン算出手段54にとして機能するものである。
【0058】
すなわち、原信号輝度算出手段52cは、原信号SF の濃度信号(RGB)から、前述したYIQ規定への変換式(2)に従って輝度信号YF を算出するものである。
また、ゲイン算出手段54cは、画像特性取得手段52として機能する原信号輝度算出手段52cによって算出された輝度信号YF に依存する強度関数Wを、例えば図6(b)に示す輝度信号依存テーブルのように輝度信号に依存させて、すなわち輝度信号が所定値以下では大きく、輝度信号が所定値より大きくなるにつれて所定割合で単調に減少するように、すなわち特定濃度領域(特定輝度領域)では徐々に小さくなるように設定することにより、この強度関数Wと基本となるゲインM0 およびゲインH0 とから上記式(3)によってゲインMおよびHを算出するものである。
【0059】
このように、本実施例においては、例えば、図6(b)に示すような輝度信号依存テーブルを用いるので、輝度信号が所定値以下の場合には、強度関数Wの値を1.0として、中間周波数成分YM のゲインMを基本となるゲインM0 および高周波数成分YH のゲインHを基本となるゲインH0 とする。これに対し、輝度信号が所定値より大きい場合には、輝度信号が大きくなるにつれて、強度関数Wの値を1.0より0.0まで所定割合で単調に減少するように設定して、中間周波数成分YM のゲインMを基本となるゲインM0 から、高周波数成分YH のゲインHを基本となるゲインH0 から0.0まで所定割合で単調に小さくする。
こうすることにより、本実施例においては、処理済成分YM ´,YH ´を輝度信号が所定値より大きい特定濃度(輝度)領域ではさらに徐々に小さくして、最終的に得られる処理済信号R´,G´,B´から再生されるカラー画像の鮮鋭度を強調し、フィルムの粒状に基づくノイズ成分を除去するとともに、特定濃度領域における粒状性をさらに抑制し、良好な画質の再生画像を得ることができる。
【0060】
なお、本実施例においては、原信号輝度算出手段52cによって原信号SF の濃度信号(RGB)から輝度信号YFHを算出し、この輝度信号YFHに依存して強度抑制処理を行っているが、本発明は、これに限定されず、原信号輝度算出手段52cを用いず、原信号SF の濃度信号(RGB)をそのまま用い、原信号SF の濃度信号(RGB)、例えばRGB濃度信号の平均値に依存して強度抑制処理を行ってもよい。この場合には、画像特性取得手段52としては、強調処理手段38cに入力された原信号SF をそのまま濃度信号(RGB)として用いて3色の平均値を求め、この3色の平均値を出力するものであればよい。
また、図示例においては、例えば、特定濃度領域として所定輝度値より大きい領域を設定し、図6(b)に示すような輝度依存テーブルを用いているが、本発明はこれに限定されず、特定濃度領域としてどのような濃度(輝度)領域を設定しても良いし、また、どのような輝度依存テーブルを用いてもよい。
【0061】
さらに、本発明の具体的第4実施例による画像処理装置の強調処理手段について説明する。図7(a)は、本発明の具体的第4実施例による画像処理装置の強調処理手段38dにおいて行われるエッジ依存強調抑制処理の詳細を説明するためのブロック図である。
図7(a)に示すように、本発明の第3実施例による画像処理装置14の強調処理手段38dは、画像特性としてエッジを用いるもので、エッジとして低周波数成分抽出の対象としたマスク内信号Rij,Gij,Bij(i:主走査方向の画素位置、j:副走査方向の画素位置)の輝度信号Yijの主副走査方向の差信号に依存して強調抑制処理をおこなうものである。従って、図7(a)に示す強調処理手段38dにおいては、マスク内信号を構成するマスクメモリ51およびエッジ検出手段53は、図2に示す強調処理手段38における画像特性取得手段52に相当するエッジ信号取得手段52dを構成し、エッジ依存ゲイン算出手段54dは、図2に示す画像特性依存ゲイン算出手段54にとして機能するものである。
【0062】
すなわち、エッジ信号取得手段52dは、原信号SF からマスク内信号Rij,Gij,Bijを抽出するマスクメモリ51と、マスク内信号Rij,Gij,Bijから輝度信号Yijを抽出する輝度信号抽出手段と、この輝度信号の主副走査方向の差信号を算出する差信号算出手段とを有するエッジ検出手段53とから構成される。ここで、エッジ検出手段53の輝度信号抽出手段は、まず、マスク内信号Rij,Gij,Bijの輝度信号Yijを前述したYIQ規定への変換式(2)によって算出する。次に、エッジ検出手段53の差信号算出手段は、輝度信号Yijの主副走査方向の差を検出エッジ(指数)Eとして、下記式(6)によって算出する。ここで、下記式(6)において、A,B,C,Dは、図7(b)に示すように、輝度信号Yijに関する左右上下の画素値の和である。
E=|A−B|+|C−D| ……(6)
【0063】
また、エッジ依存ゲイン算出手段54dは、エッジ信号取得手段52dのエッジ検出手段53によって検出されたエッジEに依存する強度関数Wを、例えば図7(c)に示すように検出エッジEに依存させて、すなわち検出エッジEが小さい平坦部では小さく、検出エッジEが大きいエッジ部では大きく設定することにより、この強度関数Wと基本となるゲインM0 およびゲインH0 とから上記式(3)によってゲインMおよびHを算出するものである。
なお、本実施例においては、エッジ信号取得手段52dをマスクメモリ51およびエッジ検出手段53によって構成し、マスクメモリ51によって原信号SF から抽出対象マスク内信号Rij,Gij,Bijを抽出し、このマスク内信号Rij,Gij,Bijからエッジ検出手段53によって前記式(2)に基づいて輝度信号Yijを求め、得られた輝度信号Yijに基づいて上記式(6)によってエッジEを検出し、ゲインMおよびHを、輝度信号Yijに基づく検出エッジEに依存して強度抑制処理を行っているが、本発明は、これに限定されず、エッジ検出手段53において前記式(2)による輝度信号Yijを算出することなく、低周波数成分抽出の対象としたマスク内信号Rij,Gij,Bijそのものの主副走査方向の差信号をエッジEとして上記式(6)によって検出し、ゲインMおよびHを、この差信号に基づく検出エッジEに依存して強度抑制処理を行ってもよい。この時、上記式(6)におけるA,B,C,Dは、図7(b)に示すように、マスク内信号Rij,Gij,Bijの平均値などに関する左右上下の画素値の和を用いればよい。
【0064】
このように、本実施例においては、例えば、図7(c)に示すようなエッジ依存テーブルを用いるので、エッジである場合、すなわち検出エッジEの値が大きい場合には、強度関数Wの値を1,0として、中間周波数成分YM のゲインMを基本となるゲインM0 および高周波数成分YH のゲインHを基本となるゲインH0 とする。これに対し、エッジでない平坦部の場合、すなわち検出エッジEの値が所定値以下(小さい所定範囲の値)の場合には、強度関数Wの値を1.0よりから0.0まで単調に減少させ、徐々に小さくして、中間周波数成分YM のゲインMを基本となるゲインM0 より、高周波数成分YH のゲインHを基本となるゲインH0 より小さくする。
こうすることにより、本実施例においては、処理済成分YM ´,YH ´を平坦部でさらに小さくして、最終的に得られる処理済信号R´,G´,B´から再生されるカラー画像の鮮鋭度を強調し、フィルムの粒状に基づくノイズ成分を除去するとともに、画像のエッジを検出し、エッジのみを強調し、鮮鋭度強調による平坦部におけるノイズをさらに抑制し、良好な画質の再生画像を得ることができる。
また、図示例においては、例えば、エッジとしてマスク内の左右上下の画素値の和により検出エッジEの値を設定し、図7(c)に示すようなエッジ依存テーブルを用いているが、本発明はこれに限定されず、エッジとしてどのような検出エッジEの値を設定しても良いし、また、どのようなエッジ依存テーブルを用いてもよい。
【0065】
以上、本発明の画像処理方法を実施する本発明の画像処理装置を構成する粒状抑制シャープネス強調処理手段について、画像特性が、それぞれコントラスト、コントラストのハイライト部およびシャドー部、特定画像濃度ならびにエッジである場合の具体的実施例について説明したが、本発明はこれに限定されず、その他の画像特性を用いてもよいことは勿論であり、画像特性に応じて画像特性取得手段および画像特性依存ゲイン算出手段を設定すればよい。
なお、上述した実施例においては、中間・高周波数成分RMH,GMH,BMHをYIQ規定に変換してゲイン処理を行うようにしているが、YIQ規定に変換する必要はなく、中間・高周波数成分RMH,GMH,BMHを中間周波数成分RM ,GM ,BM および高周波数成分RH ,GH ,BH に分解し、各成分をYIQ規定に変換することなくゲイン処理を施すようにしてもよいものである。但し、YIQ規定に変換後に、輝度成分にのみ基づいてゲイン処理を施した方が、フィルム粒状に起因するざらつきを大きく抑制することができる。
【0066】
以上、本発明の画像処理方法および装置について詳細に説明したが、本発明は上記実施例に限定はされず、本発明の要旨を逸脱しない範囲において、各種の改良および変更を行ってもよいのはもちろんである。
【0067】
【発明の効果】
以上詳細に説明したように、本発明による画像処理方法および装置は、画像信号を低・中間・高周波数成分に分解し、フィルム粒状に起因するざらつきを含む中間周波数成分を抑制し、エッジ、テクスチャ等を含む高周波数成分を強調する際に、中間周波数成分の抑制強度および高周波数成分の強調強度を画像特性、例えば、コントラスト、コントラストのハイライト部およびシャドー部、特定濃度、ならびにエッジに依存して調整するようにしたため、処理後の画像信号のカラー再生画像は、鮮鋭度が強調され、かつフィルム粒状に基づくノイズ成分を除去され、さらに平坦部分の粒状性が抑えられ、エッジ部の偽輪郭が防止され、特定濃度領域の粒状性が抑えられ、画像のエッジを検出し、エッジのみの鮮鋭度が強調された、良好な画質の再生画像を得ることができる。
【0068】
また、本発明によれば、中間・高周波数成分の輝度成分についてのみ処理を行うことにより、フィルム粒状に基づく輝度成分のざらつきを抑制することができるため、さらに画質の良好な再生画像を得ることができる。
また、本発明によれば、カラー画像信号の中間・高周波数成分のRGB3色をYIQ規定に変換した場合、色成分であるI成分およびQ成分は通常の被写体では殆ど成分を持たないものであるため、I成分およびQ成分はフィルム粒状に起因する色のざらつきとみなすことができる。したがって、画像信号から分解された高周波数成分および中間周波数成分の輝度成分であるY成分にのみ基づいて強調抑制処理および合成を行うことにより、さらに、フィルム粒状に起因する色のざらつきを抑制し、良好な再生画像を得ることができる。
【図面の簡単な説明】
【図1】 本発明に係る画像処理方法を実施する画像処理装置を適用したデジタルカラー画像再生システムの一実施形態のブロック図である。
【図2】 図1に示すデジタルカラー画像再生システムに適用される本発明の画像処理装置の一実施形態のブロック部である。
【図3】 カラー原画像信号の低・中間・高周波数成分の分布を表すグラフである。
【図4】 (a)は、図2に示す画像処理装置の具体的第1実施例のブロック図であり、(b)は、(a)に示す画像処理装置に用いられるコントラスト依存テーブルの一例のグラフである。
【図5】 (a)は、図2に示す画像処理装置の具体的第2実施例のブロック図であり、(b)は、(a)に示す画像処理装置に用いられるコントラストのハイライト/シャドー依存テーブルの一例のグラフである。
【図6】 (a)は、図2に示す画像処理装置の具体的第3実施例のブロック図であり、(b)は、(a)に示す画像処理装置に用いられる特定濃度依存テーブルの一例のグラフである。
【図7】 (a)は、図2に示す画像処理装置の具体的第4実施例のブロック図であり、(b)は、(a)に示す画像処理装置において実施されるエッジ検出の方法を説明する説明図であり、(c)は、(a)に示す画像処理装置に用いられるエッジ依存テーブルの一例のグラフである。
【符号の説明】
10 デジタルカラー画像プリントシステム
12 読取手段
14 画像処理装置
16 再生手段
18 CCDアレイ
20 集光レンズ
22 フィルタタレット
24 A/D変換手段
26 CCD補正手段
28 対数変換手段
30 オートセットアップ演算部
32 色・階調処理手段
34 CRT
36 モニタ表示アンドユーザインターフェイス
38 処理手段
40 プリンタ
42,48 ローバスフィルタ
44,50 減算手段
51 マスクメモリ
52 画像特性取得手段
52a コントラスト信号取得手段
52c 原信号輝度算出手段
52d エッジ信号取得手段
53 エッジ検出手段
54 画像特性依存ゲイン算出手段
54a コントラスト依存ゲイン算出手段
54b ハイライト/シャドー判定・ゲイン算出手段
54c 輝度信号依存ゲイン算出手段
54d エッジ依存ゲイン算出手段
56,58 アンプ
60,62 加算手段
CI カラー画像
P 可視(再生)像
Z 記録材料(媒体)[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing method and apparatus, and more particularly to an image processing method and apparatus for performing predetermined image processing on a color image signal obtained by reading a color image.
[0002]
[Prior art]
A color image such as a photographic film is photoelectrically read by a sensor such as a CCD to obtain image signals for each of the three primary colors red (R), green (G) and blue (B). Thus, the image signal after the image processing is reproduced as a visible image on the recording material. In this method, before obtaining the RGB three-color image signal, first, a color image is photoelectrically read at a rough scanning interval to perform a pre-scan to read the outline of the color image, and based on the data obtained by this pre-scan. 2. Description of the Related Art There is known a system configured to set various parameters when performing image processing and then perform fine scanning that is read at fine scanning intervals to obtain an image signal.
[0003]
As image processing performed in such a system, for example, various methods for enhancing image sharpness by performing image processing on an image signal representing a given image have been proposed. For example, a technique is known in which the image signal is subjected to a blur mask process to enhance the sharpness of the image (Image Analysis Handbook, P.549, The University of Tokyo Press, Mikio Takagi, supervised by Yoshihisa Shimoda).
However, although the above-described blur mask processing can enhance sharpness, it also emphasizes the roughness due to the graininess of the film at the same time as the enhancement of sharpness. As a result, a good reproduced image with reduced noise is obtained. I can't.
[0004]
  For this reason, various image processing methods for suppressing image noise such as graininess conspicuous in a flat portion of the image and enhancing the sharpness of the image, for example, enhancing the sharpness of only the edge portion or texture portion of the image have been proposed. ing.
  For example, U.S. Pat. No. 4,812,903 discloses a process for decomposing RGB three-color image signals into luminance signals and color signals, performing nonlinear processing on the low frequency components of the luminance signals, and emphasizing the high frequency components. The processed luminance signal and color signal are combined to suppress the granularity of the reproduced image and increase the sharpness.AdjustA processing method has been proposed.
[0005]
  Japanese Patent Application Laid-Open No. 63-26783 discloses that a luminance signal and other color signals (hue, saturation, etc.) are extracted from an image signal representing a color image, and a spatial filter process is performed on the luminance signal to obtain a spatial signal. The global information and the spatial detailed information are calculated, and the spatial general information and the spatial detailed information are subjected to predetermined emphasis processing, and the processed global information and the detailed information are combined to generate a new luminance signal. The processed image in which the new brightness signal and the color signal are synthesized and converted into a predetermined color image signal, natural sharpness enhancement processing with little change in color tone is performed, and grain is suppressed An image processing method capable of obtaining the above has been proposed.
  However, in the image processing methods disclosed in these publications, since the high frequency components of the color are not emphasized, the roughness of the film grain can be suppressed as compared with the blur mask process, but the luminance component caused by the film grain The roughness isstillThere is a problem of remaining as.
[0006]
Furthermore, Japanese Patent Laid-Open No. 3-502975 discloses that the sharpness enhancement coefficient K is changed in accordance with the characteristic part of the image in the following formula (1) when performing the blur mask process, thereby further improving the sharpness of the image. A method for emphasis has been proposed.
S '= Sorg+ K '(Sorg-Sus) (1)
Where SorgIs the original image signal, SusIs a blur mask signal.
In this method, a local dispersion value plotted against the number of appearances of flat portions, textures, and edge portions having a lot of noise caused by film grain of an image is obtained, and a coefficient K is set as a function of the local dispersion value. is there. That is, in a normal image, the local variance value of the flat portion is small, and the local variance values of the texture and the edge portion are sequentially large. Therefore, the coefficient K of the image signal of the flat portion is obtained based on the local variance value. In this method, the coefficient K of the image signal of the texture and the edge portion is obtained based on the local dispersion value. Therefore, the coefficient K is reduced for the flat portion, and the coefficient K is increased for the texture and the edge portion to suppress noise and obtain an image with enhanced sharpness.
[0007]
However, in this method, although it is possible to enhance the sharpness by suppressing the film granularity, textures and edges having a small amplitude of the image signal are difficult to separate from the local dispersion of the flat portion when the local dispersion is obtained, There is a problem in that textures and edges that must be observed with a high degree of sharpness may be suppressed in the same way as noise in flat portions.
[0008]
For this reason, Japanese Patent Application Laid-Open No. 9-22460 relating to the application of the present applicant discloses that a color original image signal is decomposed into a low frequency component, an intermediate frequency component and a high frequency component, and the high frequency component is emphasized. After the emphasis suppression processing is performed, the high frequency component and intermediate frequency component after processing and the low frequency component are synthesized. Preferably, after decomposition, the luminance component is further extracted from the intermediate frequency component and high frequency component. An image processing method and apparatus for performing enhancement suppression processing and synthesis processing based only on luminance components are disclosed. This grain suppression sharpness enhancement process suppresses intermediate frequency components including roughness due to film grain, and emphasizes high frequency components including edges, textures, etc., so that roughness is suppressed and sharpness is enhanced. A reproduced image with good image quality can be obtained.
[0009]
[Problems to be solved by the invention]
However, the image noise includes various frequency components including a noise component based on the grain of the film. Even in the grain-suppressed sharpness enhancement processing disclosed in Japanese Patent Laid-Open No. 9-22460, the noise is sufficient. Depending on the balance between emphasis of high frequency components and suppression of intermediate frequency components, the sharpness may not be fully enhanced, and if the sharpness is excessively emphasized. There is a problem that a false contour is generated at the edge.
[0010]
An object of the present invention is to solve the above-mentioned problems of the prior art, enhance the sharpness of a color image, remove a noise component based on film grain, further suppress graininess of a flat part, and counterfeit edges. An image processing method capable of obtaining a reproduced image with good image quality by preventing contours, suppressing graininess of a specific density region, detecting an edge of an image, and enhancing the sharpness of only the edge, and To provide the equipment.
[0011]
[Means for Solving the Problems]
In the original image signal representing a general color image, the present inventor is a high-frequency component of the original image signal that affects the sharpness of the reproduced image. This is mainly contained in the intermediate frequency component, but since the image noise contains various frequency components, the noise may not be sufficiently suppressed, such as edges and textures. As a result of earnest research on grain suppression sharpness enhancement processing that can sufficiently remove noise components based on film grain without reducing sharpness of image, enhancement that emphasizes high frequency components and suppression of intermediate frequency components By performing suppression processing depending on image characteristics, such as contrast, contrast highlights and shadows, specific image density, brightness, and edges And finding that it is possible to achieve the above object, and have reached the present invention.
[0012]
  That is, the present invention is an image processing method for performing predetermined image processing on an original image signal representing a predetermined color image, calculating a luminance signal of the original image signal, and converting the original image signal into a low frequency component A high frequency gain for separating the intermediate frequency component and the high frequency component and emphasizing the high frequency component of the original image signalOf the original image signalWhile setting according to the luminance signal, an intermediate frequency gain for suppressing the intermediate frequency component of the original image signal,Of the original image signalThis is set according to the luminance signal, and the high frequency component is emphasized according to the high frequency gain, and the intermediate frequency component is suppressed according to the intermediate frequency gain. An image processing method characterized in that a processed image signal is obtained by synthesizing the processed high frequency component and intermediate frequency component and the low frequency componentIn the decomposition of the original image signal, the image processing is performed in the step of setting the high frequency gain and the intermediate frequency gain by using at least the low frequency component of the decomposed frequency components as RGB data. For each target pixel, a detected edge index represented by the sum of the difference in luminance signal between pixels adjacent in the main scanning direction and the difference in luminance signal between pixels adjacent in the sub-scanning direction is The high frequency gain and the intermediate frequency gain having a magnitude corresponding to the detected edge index are set for each pixel.An image processing method characterized by the above is provided.
[0013]
Here, the low frequency component, intermediate frequency component, and high frequency component of the original image signal refer to frequency components distributed as shown in FIG. 3, and the intermediate frequency component is data after processing. Is a frequency component distributed with a peak in the vicinity of 1/3 of the output Nyquist frequency when the image is reproduced as a visible image, and the low frequency component is the frequency at which the output Nyquist frequency is zero. The high frequency component means a component distributed with the peak of the output Nyquist frequency, and further, a component in which the sum of the low, middle and high frequency components is 1 at each frequency. That's what it says.
[0014]
  The luminance signal of the original image signal is preferably a signal representing a Y component when the RGB color data of the intermediate / high frequency component is subjected to YIQ specified conversion.
[0015]
  Prior to decomposing the original image signal, a basic high frequency gain for enhancing the high frequency component of the original image signal based on RGB color data of the original image signal, and the original image signal A step of setting a basic intermediate frequency gain for suppressing the intermediate frequency component of the step, wherein the step of setting the high frequency gain and the intermediate frequency gain adjusts the basic high frequency gain and the basic intermediate frequency gain. An intensity coefficient to be set according to the luminance signal, the high frequency gain is calculated and set by multiplying the basic high frequency gain by the intensity coefficient according to the luminance signal, and the basic intermediate frequency It is preferable to calculate and set the intermediate frequency gain by multiplying the frequency gain by the intensity factor corresponding to the luminance signal. .
[0016]
  In the step of setting the high frequency gain and the intermediate frequency gain,
The intensity coefficient is determined according to a detected edge index calculated according to the luminance signal, and the intensity coefficient is set to 1.0 when the detected edge index is larger than a predetermined value. When the index is smaller than the predetermined value, it is preferable that the index is set to monotonously increase from 0.0 to 1.0 at a predetermined rate according to the magnitude of the detected edge index.
[0017]
  The present invention is also an image processing apparatus for performing predetermined image processing on an original image signal representing a predetermined color image, a means for calculating a luminance signal of the original image signal, and reducing the original image signal. Means for decomposing into a frequency component, an intermediate frequency component, and a high frequency component, and a high frequency gain for enhancing the high frequency component of the original image signal,Of the original image signalWhile setting according to the luminance signal, an intermediate frequency gain for suppressing the intermediate frequency component of the original image signal,Of the original image signalA means for setting according to the luminance signal, and an image characteristic dependent enhancement suppressing process for enhancing the high frequency component according to the high frequency gain and suppressing the intermediate frequency component according to the intermediate frequency gain. An image processing apparatus comprising: means; and a high-frequency component and an intermediate frequency component after processing, and a means for synthesizing the low-frequency component to obtain a processed image signal,The means for decomposing performs decomposition using at least the low frequency component among the respective frequency components after decomposition as RGB data, and the means for setting the high frequency gain and the intermediate frequency gain is a target for performing the image processing. For each of the pixels, a detected edge index represented by the sum of the difference in luminance signal between pixels adjacent in the main scanning direction and the difference in luminance signal between pixels adjacent in the sub-scanning direction is obtained. The high frequency gain and the intermediate frequency gain having a magnitude corresponding to the detected edge index are set for each pixel.An image processing apparatus characterized by the above is provided.
[0018]
  Also,The luminance signal of the original image signal is preferably a signal representing a Y component when the RGB color data of the intermediate / high frequency component is subjected to YIQ specified conversion.
[0019]
  Prior to decomposing the original image signal, a basic high frequency gain for enhancing the high frequency component of the original image signal based on RGB color data of the original image signal, and the original image signal And a means for setting a basic intermediate frequency gain for suppressing the intermediate frequency component, and the means for setting the high frequency gain and the intermediate frequency gain adjusts the basic high frequency gain and the basic intermediate frequency gain. An intensity coefficient to be set according to the luminance signal, the high frequency gain is calculated and set by multiplying the basic high frequency gain by the intensity coefficient according to the luminance signal, and the basic intermediate frequency It is preferable to calculate and set the intermediate frequency gain by multiplying the frequency gain by the intensity coefficient corresponding to the luminance signal.
[0020]
  Also,In the means for setting the high frequency gain and the intermediate frequency gain,
The intensity coefficient is determined according to a detected edge index calculated according to the luminance signal, and the intensity coefficient is set to 1.0 when the detected edge index is larger than a predetermined value. When the index is smaller than the predetermined value, it is preferable that the index is set to monotonously increase from 0.0 to 1.0 at a predetermined rate according to the magnitude of the detected edge index.
[0021]
DETAILED DESCRIPTION OF THE INVENTION
An image processing method and apparatus according to the present invention will be described in detail below with reference to preferred embodiments shown in the accompanying drawings.
[0022]
FIG. 1 is a block diagram of an embodiment of a digital color image reproduction system that reads an image from a color photograph to which an image processing apparatus that performs an image processing method according to the present invention is applied and reproduces the image on a recording material.
As shown in the figure, a digital color image reproduction system (hereinafter simply referred to as a reproduction system) 10 includes a reading unit 12 that reads an image from a color photographic film, and an image representing a color photographic film image CI obtained by the reading unit 12. The image processing means 14 for performing image processing including image processing based on the image processing method of the present invention on the signal, and the image signal subjected to image processing by the image processing means 14 as a visible image P on the recording material Z And reproducing means 16 for recording.
[0023]
The reading means 12 has a CCD array 18 for photoelectrically reading the color original image signals R, G, B from the color image CI such as a negative film or a reversal film, and the light from the color image CI is added to the CCD array 18. Has an imaging lens 20 for forming an image. In this embodiment, the CCD array 18 is composed of 2760 × 1840 pixels, and image data is rotated while rotating the filter turret 22 provided with the three color separation filters of red (R), green (G), and (B) blue. By performing this scanning, a full-color image can be obtained in a frame sequential manner. Further, the CCD array 18 is corrected by an A / D conversion means 24 for digitally converting an image signal representing a color image detected by the CCD array 18, a CCD correction means 26 for correcting the CCD array 18, and a CCD correction means 26. And a logarithmic conversion means 28 having a built-in look-up table for logarithmically converting the image signal representing the color image. Before obtaining the three RGB image signals, the reading unit 12 first performs a pre-scan to read the outline of the color image CI by photoelectrically reading the color image CI at a coarse scan interval, and then performing pre-scan data S.PFine scan data S is obtained by performing a fine scan that is read at fine scan intervals.FIt is configured to obtain.
[0024]
The image processing means 14 uses prescan data SPAn auto setup calculation unit (hereinafter referred to as a calculation unit) 30 for setting parameters such as gradation processing in fine scan based on the above, and fine scan data S based on the parameters set by this calculation unit 30FColor / gradation processing means 32 for performing color / gradation processing of the image and prescan data SPA monitor display and user interface 36 for connecting the CRT 34 that reproduces the image as a visible image and the calculation unit 30, and a granularity suppression sharpness that performs a granularity suppression process and a sharpness enhancement process on the color image signal that is a feature of the present invention. And an emphasis processing means (hereinafter referred to as emphasis processing means) 38.
Further, the reproducing means 16 has a printer 40 for recording a color image signal on a recording material Z as a visible reproduced image P.
[0025]
Below, the operation of each means and its components of the playback system 10 will be described.
First, in the reproduction system 10, a pre-scan is performed by the reading unit 12 for reading an outline of the color image CI from the color image CI such as a negative film or a reversal film at a coarse scan interval. Three color pre-scan data S obtained by this pre-scanPIs converted into digital data by the A / D conversion means 24, corrected by the CCD correction means 26, and logarithmically amplified by the logarithmic conversion means 28, and the arithmetic unit 30 of the image processing means 14 and a monitor display and user interface (hereinafter referred to as interface). )).
[0026]
Next, in the image processing unit 14, the pre-scan data S input to the interface 36.PIs displayed as a visible image on the CRT 34, and a signal S representing the selection result is selected by the user selecting a sharpness processing menu 34A displayed separately from the visible image on the CRT 34.1Is input to the interface 36 and the signal S1Is input to the arithmetic unit 30. In the arithmetic unit 30, the pre-scan data and the signal S1Based on the above, parameters for color / gradation processing performed later by the color / gradation processing means 32 are set. A part of the parameters is input to an emphasis processing means 38 that performs an image processing method of the present invention, which will be described later.
[0027]
Here, the details of parameter setting will be described. First, in the calculation unit 30, the input pre-scan data SPBased on the above, the temperature range and print size of the color image CI are obtained. Further, here, the signal S input from the CRT 34 via the interface 36.1The gain M multiplied by the intermediate frequency component in the enhancement suppression processing performed in the enhancement processing means 38 based on0And gain H multiplied by high frequency components0Etc., and if necessary, these gains M0And H0The type and intensity (image characteristic dependent intensity table (LUT)) of the image characteristics that are dependent upon the adjustment are also set. Further, in the calculation unit 30, parameters for color / gradation processing performed in the color / gradation processing unit 32 are also obtained and input to the enhancement processing unit 38 and the color / gradation processing unit 32.
[0028]
Next, the reading unit 12 performs a fine scan for reading the color image CI at a fine scan interval, and the fine scan data S for three colors.FIs obtained as a color image signal. Fine scan data SFIs converted into digital data by the A / D conversion means 24, corrected by the CCD correction means 26, logarithmically amplified by the logarithmic conversion means 28, and input to the color / gradation processing means 32. In the color / gradation processing means 32, fine scan data SFIs subjected to color / gradation processing and input to the emphasis processing means 38.
[0029]
  In the following, the emphasis suppression process, which is a feature of the present invention and is performed in the granularity suppression sharpness emphasis processing means 38, will be described.
  FIG. 2 is a block diagram for explaining details of the emphasis suppression processing performed by the emphasis processing means 38.
  As shown in the figure, the enhancement processing means 38 constitutes the image processing apparatus of the present invention, and is a 9 × 9 first row.PaSfilter (hereinafter referred to as LPF) 42, first subtraction means 44, luminance calculation means 46, 5 × 5 second LPF 48, second subtraction means 50, and image characteristic acquisition means (hereinafter referred to as acquisition means). 52, an image characteristic dependent gain calculating means (hereinafter referred to as gain calculating means) 54, a first amplifier 56, a second amplifier 58, a first adding means 60, and a second adding means 62.
  Here, the first LPF 42, the first subtracting means 44, the luminance calculating means 46, the second LPF 48 and the second subtracting means 50 constitute a disassembling means of the present invention. The gain calculating means 54, the first amplifier 56, and the second amplifier 58 constitute an emphasis suppression processing means of the present invention, and the first adding means 60 and the second adding means 62 constitute a synthesizing means of the present invention. .
[0030]
In the enhancement processing means 38 shown in FIG. 2, the input fine scan data (hereinafter referred to as the original signal) SF(RGB) is subjected to filtering processing by the first LPF 42 described below, and the original signal SFLow-frequency component R of (RGB)L, GL, BLIs extracted.
[0031]
[Expression 1]
Figure 0003998321
[0032]
In the first subtracting means 44, the original signal SFTo low frequency component (low frequency signal) RL, GL, BLIs subtracted from the intermediate and high frequency component RMH, GMH, BMHTo extract. Low frequency component R after being extracted in this wayL, GL, BLDoes not include roughness in the color image, fine texture, or graininess of the film. On the other hand, the intermediate frequency component RM, GM, BMIncludes roughness due to film grain, and high frequency component RH, GH, BHIncludes edges and fine textures in the color image.
[0033]
Here, the low frequency component, the intermediate frequency component, and the high frequency component of the original signal are obtained when gains M and H multiplied by intermediate and high frequency components (described later) distributed as shown in FIG. 3 are set to 1.0. This refers to the frequency component, and the intermediate frequency component RM, GM, BMIs the output Nyquist frequency f when the processed data is reproduced as a visible image P.SDistribution H with a peak near 1/3 of / 2MIs a low frequency component RL, GL, BLAnd distribution H with a peak at 0 frequencyLThe high frequency component RH, GH, BHIs the output Nyquist frequency fSDistribution H with a peak at / 2HThe component which becomes. In the present embodiment, the Nyquist frequency refers to the Nyquist frequency when recording on the recording medium Z is performed at 300 dpi. Here, in FIG. 3, the sum of the frequency components is 1 at each frequency.
[0034]
Next, in the luminance calculation means 46, the intermediate / high frequency component R decomposed by the first subtraction means 44.MH, GMH, BMHA luminance component is extracted from. The extraction of the luminance component is the original signal SFMiddle and high frequency component RMH, GMH, BMHY component converted to YIQ standardMHRepresents the luminance component of the data. Here, the conversion to the YIQ standard is performed by the following equation (2).
[0035]
[Expression 2]
Figure 0003998321
[0036]
Here, the component I which is the color component after conversion to the YIQ standardMHAnd ingredient QMHContains color roughness due to film grain, so component IMHAnd ingredient QMHIs set to 0 here to suppress color roughness caused by film grain. Here, the component I which is a color componentMHAnd ingredient QMHIt has been empirically found that an image of a general subject has almost no component. Therefore, component IMHAnd ingredient QMHIs regarded as a color roughness caused by film grain, and is set to 0, whereby a good reproduced image in which the roughness is suppressed can be obtained.
[0037]
Component YMHIs filtered by a 5 × 5 second LPF 48 as shown below to obtain a component YMHIntermediate frequency component YMGet.
[0038]
[Equation 3]
Figure 0003998321
[0039]
Further, in the second subtracting means 50, the component YMHTo intermediate frequency component YMBy subtracting component YMHHigh frequency component YHGet.
[0040]
On the other hand, in the image characteristic acquisition unit 52, the gain M obtained by the arithmetic unit 30 described above.0And gain H0Image characteristics that are dependent upon the adjustment of the image, such as contrast, contrast highlights and shadows, specific image density and edges, etc.FIt is calculated based on (RGB). Where gain M0And gain H0There may be one kind of image characteristic used to make it depend when adjusting the image quality, or two or more kinds. The type of image characteristic used here is input to the CRT 34 or the like by the operator, input to the calculation unit 30 via the interface 36 from the CRT 34, and input to the image characteristic acquisition unit of the enhancement processing unit 38 from the calculation unit 30. The calculation unit 30 may be set based on an input signal from the CRT 34 or may be automatically set from the image itself.
The signal processing corresponding to the image characteristics performed in the acquisition unit 52 will be described later according to specific individual image characteristics.
[0041]
Thus, when the image characteristic is acquired by the acquisition unit 52, the image characteristic dependent gain calculation unit 54 determines the gain M obtained by the calculation unit 30 described above.0And gain H0Is set to an image characteristic-dependent intensity W for adjustment depending on the acquired image characteristic. The image characteristic-dependent intensity W set here may be set by the gain calculation unit 54 in accordance with the image and the image characteristic, but the intensity is previously stored in a memory (not shown) provided in the gain calculation unit 54 or the like. A plurality of functions and image characteristic dependent intensity tables (LUTs) are preferably prepared and may be selected according to the image and image characteristics. It should be noted that an intensity function, an image characteristic dependent intensity LUT, and the like may be prepared in advance in the calculation unit 30, and a necessary intensity function, an image characteristic dependent intensity LUT, and the like may be received.
[0042]
In this way, the image characteristic dependent intensity W set in accordance with the image characteristic in the gain calculating unit 54 is the gain M obtained in the arithmetic unit 30, respectively.0And gain H0Is multiplied by the following equation (3) to obtain an intermediate frequency component YMImage characteristic-dependent gain M and high-frequency component YHAn image characteristic dependent gain H for emphasizing the image depending on the image characteristic is calculated.
Gain M = Gain M0× W
Gain H = Gain H0× W …… (3)
Here, in the calculation unit 30, the intermediate frequency component Y that originally contains a relatively large amount of roughness of the luminance component based on the film grain.MBy setting the gain of the image to be relatively low, the feeling of roughness is suppressed, and the high frequency component Y of the luminance component on which the sharpness of the image dependsHThe gain M is set so that the sharpness of the processed image can be enhanced by relatively increasing the gain H of the image.0And gain H0Is gain M0<Gain H0It is set to become. Therefore, the image characteristic dependent gain M and the gain H calculated by the gain calculating unit 54 are set so that the gain M <the gain H.
[0043]
By the way, in the arithmetic unit 30, for example, when the color image CI is an under negative, the roughness due to the film granularity is conspicuous, and the granularity is considerably large when the gradation is set to improve the gradation characteristics. Gain M because it results in a bad image0Is set fairly low. For this reason, the gain M is also set to be very low depending on the image characteristics by the gain calculating means 54. This makes it possible to strongly suppress graininess depending on the image characteristics. Even if it depends on the print size, the calculation unit 30 provides an optimum gain M.0And gain H0Is set. Furthermore, as described above, when the user selects a desired menu from several sharpness enhancement processing menus, the gain M corresponding to this menu is selected.0And gain H0Is stored as a table, and the optimum gain M is selected according to the menu selection.0And gain H0It is preferable to be able to select. This makes it possible to perform processing for each image or according to the user's preference.
Thus, the optimum gain M according to the print size and the user's preference in the arithmetic unit 30 is obtained.0And gain H0Therefore, it goes without saying that the gains M and H set depending on the image characteristics by the gain calculating means 54 are also optimum.
[0044]
  By the way, the image characteristic dependent intensity W uses the same image characteristic dependent intensity for the gain M for suppressing the intermediate frequency component and the gain H for enhancing the high frequency component, but the present invention is limited to this. Without gain M and gain H respectivelyDifferentImage characteristic dependent intensity may be used.
  In the above-described embodiment, the basic gain M0And gain H0Is calculated or set by the calculation unit 30, and the image characteristic dependent intensity W is first calculated by the gain calculating unit 54, and the image characteristic dependent gain M and the gain H are calculated by the above equation (3). Is not limited to this, but the basic gain M0And gain H0May be obtained directly by the gain calculation means 54 without being obtained by the calculation unit 30, or a basic gain M may be obtained.0And gain H0Alternatively, the image characteristic dependent gain M and the gain H may be directly calculated without obtaining the image characteristic dependent intensity W.
[0045]
Next, as shown in the following equation (4), the image characteristic-dependent gain M and the gain H calculated by the gain calculating unit 54 are components obtained by the second LPF 48 in the first and second amplifiers 56 and 58, respectively. YMHIntermediate frequency component YMAnd the component Y obtained by the second subtracting means 50MHHigh frequency component YHEach processed component YM', YH'Is obtained.
YM'= Gain M × YM
YH'= Gain H × YH                            (4)
Subsequently, in the first addition means 60, as shown in the following formula (5), processed components Y obtained by the first and second amplifiers 56 and 58, respectively.M'And YH'Is synthesized and component YMH'Is obtained.
YMH'= YM'+ YH′ …… (5)
(= Gain M × YM+ Gain H × YH)
[0046]
Here, as described above, in the gain calculation means 54, the gain M and the gain H are set so that the gain M <the gain H. That is, since the roughness of the luminance component based on the film grain is relatively large in the intermediate frequency component, the component YMBy setting the gain M to be relatively low depending on the image characteristics, it is possible to appropriately suppress the feeling of roughness depending on the image characteristics. Further, since the sharpness of the image depends on the high frequency component of the luminance component, the high frequency component Y of the luminance componentHThe gain H of the processed image is made relatively large depending on the image characteristics, whereby the sharpness of the processed image can be appropriately enhanced depending on the image characteristics.
[0047]
Then, in the second addition means 62, the component Y thus obtained is obtained.MH'Is the original signal S described aboveFLow frequency component RL, GL, BLTo obtain processed signals R ′, G ′, and B ′. At this time, the above-mentioned component IMHAnd ingredient QMHSince the value of is set to 0, the processed luminance component YMHWhen 'is inversely converted to correspond to RGB data, all three RGB data are component YMHIt becomes the same value as ′. Therefore, the processed luminance component YMHThe result of synthesis without reverse conversion of ′ is the same as the case of reverse conversion. Therefore, the luminance component Y processed in order to simplify the processingMHIt is made to synthesize | combine without reversely transforming '.
Thereafter, the processed signals R ′, G ′, and B ′ are input to the reproducing unit 16 and reproduced as a visible image P on the recording material Z by the printer 40.
[0048]
In the reproduced visible image P reproduced in this way, the color components of the intermediate and high frequency components of the data including roughness due to film grain are set to 0, and the luminance components of the intermediate and high frequency components are further reduced. Of which, intermediate frequency component YMGain M is suppressed depending on the image characteristics, and the high frequency component YHSince the gain H of the image is enhanced depending on the image characteristics, the sharpness is appropriately enhanced in any image, and the roughness due to film grain is sufficiently suppressed.
[0049]
Next, specific examples of the image processing apparatus of the present invention that implement the image processing method of the present invention will be described.
The embodiment of the granularity suppression sharpness enhancement processing means 38 shown in FIGS. 4 to 7 includes the image characteristic acquisition means 52 and the image when the image characteristics are contrast, contrast highlight and shadow, specific image density, and edge, respectively. A specific example of the characteristic-dependent gain calculating means 54 is shown. Except for these, it is the same as the granularity-suppressing sharpness enhancement processing means 38 shown in FIG. Description is omitted.
[0050]
First, the enhancement processing means of the image processing apparatus according to the first specific embodiment of the present invention will be described. FIG. 4A is a block diagram for explaining the details of the contrast-dependent enhancement suppressing process performed in the enhancement processing unit 38a of the image processing apparatus according to the first specific example of the present invention.
As shown in FIG. 4A, the enhancement processing means 38a of the image processing apparatus 14 according to the first embodiment of the present invention uses contrast as the image characteristic, and the original calculated by the first subtraction means 44 as contrast. Signal SFAnd low frequency signal RL, GL, BLIntermediate / high frequency component R which is the difference signal fromMH, GMH, BMHAnd the difference signal RMH, GMH, BMHThe luminance component (luminance signal) Y calculated by the luminance calculation means 46 fromMHThe emphasis suppression processing is performed depending on the above. Therefore, in the enhancement processing means 38a shown in FIG. 4A, the first subtraction means 44 and the luminance calculation means 46 constituting the decomposition means correspond to the image characteristic acquisition means 52 in the enhancement processing means 38 shown in FIG. Contrast (signal) acquisition means 52a is also configured, and the contrast dependent gain calculation means 54a functions as the image characteristic dependent gain calculation means 54 shown in FIG.
[0051]
  That is, the contrast signal acquisition unit 52aFAnd low frequency signal RL, GL, BLIntermediate / high frequency component R which is the difference signal fromMH, GMH, BMHFirst subtracting means 44 for calculatingThisDifference signal RMH, GMH, BMHTo luminance signal Y according to the above equation (2)MHAnd luminance calculation means 46 for calculating.
  Further, the gain calculating unit 54a is a difference signal (intermediate / high frequency component) R acquired by the luminance calculating unit 46 functioning as the image characteristic acquiring unit 52.MH, GMH, BMHLuminance signal YMHThe intensity function W depending on the intensity function W is set to be dependent on the contrast as shown in the contrast dependence table shown in FIG. Gain M0And gain H0From the above, the gains M and H are calculated by the above equation (3).
  In this embodiment, the contrast signal acquisition means 52a is constituted by the first subtraction means 44 and the luminance calculation means 46, and the gains M and H are set to the difference signal (intermediate / high frequency component) R.MH, GMH, BMHLuminance signal YMHHowever, the present invention is not limited to this, and the contrast signal acquisition unit 52a is configured only by the first subtraction unit 44, and the gains M and H are set to the difference signal (intermediate / intermediate). High frequency component) RMH, GMH, BMHFor example, the intensity suppression processing may be performed depending on the average value of these three colors.
[0052]
In this way, in this embodiment, for example, a contrast dependence table as shown in FIG. 4B is used. Therefore, when the contrast is high, that is, the luminance signal Y of the difference signal.MHIs large, the intensity function W is set to 1, 0 and the intermediate frequency component YMGain M based on0And high frequency component YHGain H based on0And On the other hand, when the contrast is low, that is, the luminance signal Y of the difference signalMHWhen the absolute value of is a value in a predetermined range, the value of the intensity function W is made smaller than 1.0 and the intermediate frequency component YMGain M based on0Higher frequency component YHGain H based on0Make it smaller.
By doing so, in this embodiment, the processed component YM', YH′ Is further reduced in the low contrast portion, the sharpness of the color image reproduced from the final processed signals R ′, G ′, and B ′ is emphasized, and noise components based on the grain of the film are removed. At the same time, it is possible to further suppress graininess in a flat portion having a low contrast, and obtain a reproduced image with good image quality.
[0053]
Next, the enhancement processing means of the image processing apparatus according to the second specific embodiment of the present invention will be described. FIG. 5A is a block diagram for explaining the details of the highlight part and shadow part dependence emphasis suppression processing by the contrast dependent method performed in the emphasis processing means 38b of the image processing apparatus according to the second specific example of the present invention. FIG.
As shown in FIG. 5 (a), the enhancement processing means 38b of the image processing apparatus 14 according to the second embodiment of the present invention uses contrast as an image characteristic, and operates each of the contrast highlight and shadow portions independently. The original signal S calculated by the first subtracting means 44 as contrast.FAnd low frequency signal RL, GL, BLIntermediate / high frequency component R which is the difference signal fromMH, GMH, BMHAnd the difference signal RMH, GMH, BMHThe contrast highlight portion and the shadow portion are determined or detected based on the sign of the difference signal R.MH, GMH, BMHThe luminance component (luminance signal) Y calculated by the luminance calculation means 46 fromMHEmphasis suppression processing is performed depending on the sign of.
[0054]
  Therefore, the emphasis processing unit 38b shown in FIG. 5A includes an emphasis processing unit 38a shown in FIG. 4A and a highlight / corresponding to the image characteristic dependent gain calculation unit 54 in the enhancement processing unit 38 shown in FIG. The shadow determination / gain calculation unit 54b not only calculates the difference signal corresponding to the contrast acquired by the contrast signal acquisition unit 52a or its luminance signal, but also the highlight portion and shadow portion of the contrast, that is, whether the difference signal is positive or negative or the luminance signal thereof. Except for determining positive / negative, and adjusting the values of the gain M and gain H in the contrast-dependent gain calculating means 54a depending on the determined highlight portion and shadow portion (the difference signal and the positive / negative of its luminance signal). Functions exactly the same.
  That is, in the enhancement processing means 38b shown in FIG. 5A, the first subtraction means 44 and the luminance calculation means 46 constituting the decomposition means are similar to the enhancement processing means 38a shown in FIG. A contrast (signal) acquisition means 52a corresponding to the image characteristic acquisition means 52 in the enhancement processing means 38 shown in FIG. 2 is also configured, and the highlight / shadow determination / gain calculation means 54b is an image characteristic dependent gain calculation means 5 shown in FIG.4 andAnd function.
[0055]
Here, the highlight / shadow determination / gain calculation means 54b is the difference signal (intermediate / high frequency component) R acquired by the luminance calculation means 46 functioning as the image characteristic acquisition means 52.MH, GMH, BMHLuminance signal YMHThe luminance signal Y determinedMHThe intensity function W depending on the positive / negative is dependent on the contrast and the highlight side and the shadow side as in the contrast dependence table shown in FIG. 5B, for example, the low contrast is small and the high contrast highlight side. The intensity function W and the basic gain M can be increased by setting a larger value on the shadow side where the contrast is large.0And gain H0From the above, the gains M and H are calculated by the above equation (3).
Also in this embodiment, the contrast signal acquisition means 52a is constituted by the first subtraction means 44 and the luminance calculation means 46, and the gains M and H are set to the difference signal (intermediate / high frequency component) R.MH, GMH, BMHLuminance signal YMHHowever, the present invention is not limited to this, and the contrast signal acquisition unit 52a is configured by only the first subtraction unit 44, and the gains M and H are set to the difference signal ( Intermediate / high frequency component) RMH, GMH, BMHDepending on the positive / negative of, for example, the positive / negative of the average value of these three colors, the intensity suppression process may be performed.
[0056]
In this way, in this embodiment, for example, a contrast dependence table as shown in FIG. 5B is used. Therefore, when the contrast is high on the highlight side, that is, the luminance signal Y of the difference signal.MHIs positive and its absolute value is large, the value of the intensity function W is set to 1, 0, and the intermediate frequency component YMGain M based on0And high frequency component YHGain H based on0When the contrast is high on the shadow side, that is, the luminance signal Y of the difference signalMHIs negative and its absolute value is large, the value of the intensity function W is made larger than 1, 0, and the intermediate frequency component YMGain M based on0Higher frequency component YHGain H based on0Make it even bigger. On the other hand, when the contrast is low, that is, the luminance signal Y of the difference signalMHWhen the absolute value of is a value in a predetermined range, the value of the intensity function W is made smaller than 1.0 and the intermediate frequency component YMGain M based on0Higher frequency component YHGain H based on0Make it smaller.
By doing so, in this embodiment, the processed component YM', YHFrom the processed signals R ′, G ′, and B ′ that are finally obtained, ′ is further reduced in the low-contrast portion and is further increased on the shadow side of the high-contrast portion than on the highlight side of the high-contrast portion. It enhances the sharpness of the color image to be reproduced, removes noise components based on film grain, prevents false contours at the edges, and obtains a reproduced image with good image quality.
[0057]
Subsequently, the enhancement processing means of the image processing apparatus according to the third specific example of the present invention will be described. FIG. 6A is a block diagram for explaining the details of the specific density dependent enhancement suppressing process performed in the enhancement processing unit 38c of the image processing apparatus according to the third specific example of the present invention.
As shown in FIG. 6A, the enhancement processing means 38c of the image processing apparatus 14 according to the third embodiment of the present invention uses a specific density as the image characteristic, and the original signal S as the specific density.FThis density signal (RGB signal) is used and this original signal SFLuminance component (luminance signal) Y calculated from the density signal (RGB) ofFThe emphasis suppression processing is performed depending on the above. Therefore, in the enhancement processing unit 38c shown in FIG. 6A, the original signal luminance calculation unit 52c functions as the image characteristic acquisition unit 52 in the enhancement processing unit 38 shown in FIG. 2, and the luminance signal dependent gain calculation unit 54c It functions as the image characteristic dependent gain calculating means 54 shown in FIG.
[0058]
That is, the original signal luminance calculating means 52c is connected to the original signal S.FThe luminance signal Y according to the conversion formula (2) from the density signal (RGB) of the above to the YIQ standard described aboveFIs calculated.
Further, the gain calculation unit 54 c is a luminance signal Y calculated by the original signal luminance calculation unit 52 c that functions as the image characteristic acquisition unit 52.FIs dependent on the luminance signal, for example, as in the luminance signal dependency table shown in FIG. 6B, that is, the luminance function is large when the luminance signal is equal to or smaller than a predetermined value, and is predetermined as the luminance signal becomes larger than the predetermined value. By setting the intensity function W so as to decrease monotonously, that is, gradually decreasing in a specific density region (specific luminance region), this intensity function W and a basic gain M0And gain H0From the above, the gains M and H are calculated by the above equation (3).
[0059]
In this way, in this embodiment, for example, a luminance signal dependency table as shown in FIG. 6B is used. Therefore, when the luminance signal is equal to or smaller than a predetermined value, the value of the intensity function W is set to 1.0. , Intermediate frequency component YMGain M based on0And high frequency component YHGain H based on0And On the other hand, when the luminance signal is larger than the predetermined value, the value of the intensity function W is set to monotonously decrease at a predetermined rate from 1.0 to 0.0 as the luminance signal increases. Frequency component YMGain M based on0To high frequency component YHGain H based on0To 0.0 in a monotonous manner at a predetermined rate.
By doing so, in this embodiment, the processed component YM', YH'Is further gradually reduced in a specific density (brightness) region where the luminance signal is larger than a predetermined value, and the sharpness of the color image reproduced from the final processed signals R', G ', B' is emphasized. In addition, the noise component based on the grain of the film can be removed, and the graininess in the specific density region can be further suppressed to obtain a reproduced image with good image quality.
[0060]
In the present embodiment, the original signal S is calculated by the original signal luminance calculating means 52c.FDensity signal (RGB) to luminance signal YFHTo calculate the luminance signal YFHHowever, the present invention is not limited to this, and the original signal S is not used, and the original signal S is not used.FOriginal density signal (RGB) is used as it is, and the original signal SFThe intensity suppression processing may be performed depending on the density signal (RGB), for example, the average value of the RGB density signals. In this case, as the image characteristic acquisition unit 52, the original signal S input to the enhancement processing unit 38c.FIs used as a density signal (RGB) as it is, an average value of three colors is obtained, and the average value of these three colors may be output.
In the illustrated example, for example, an area larger than a predetermined luminance value is set as the specific density area, and the luminance dependence table as shown in FIG. 6B is used. However, the present invention is not limited to this, Any density (luminance) area may be set as the specific density area, and any luminance dependence table may be used.
[0061]
Furthermore, the enhancement processing means of the image processing apparatus according to the fourth specific example of the present invention will be described. FIG. 7A is a block diagram for explaining the details of the edge-dependent enhancement suppressing process performed in the enhancement processing unit 38d of the image processing apparatus according to the fourth specific example of the present invention.
As shown in FIG. 7A, the emphasis processing unit 38d of the image processing apparatus 14 according to the third embodiment of the present invention uses an edge as an image characteristic, and the inside of a mask targeted for low frequency component extraction as an edge. Signal Rij, Gij, BijLuminance signal Y (i: pixel position in the main scanning direction, j: pixel position in the sub-scanning direction)ijThe emphasis suppression process is performed depending on the difference signal in the main / sub scanning direction. Therefore, in the enhancement processing means 38d shown in FIG. 7A, the mask memory 51 and the edge detection means 53 constituting the in-mask signal are edges corresponding to the image characteristic acquisition means 52 in the enhancement processing means 38 shown in FIG. The signal acquisition means 52d is configured, and the edge dependent gain calculation means 54d functions as the image characteristic dependent gain calculation means 54 shown in FIG.
[0062]
That is, the edge signal acquisition unit 52d receives the original signal S.FTo mask signal Rij, Gij, BijThe mask memory 51 for extracting the signal R and the in-mask signal Rij, Gij, BijTo luminance signal YijAnd an edge detection means 53 having difference signal calculation means for calculating a difference signal in the main / sub-scanning direction of the luminance signal. Here, the luminance signal extraction means of the edge detection means 53 first performs the in-mask signal R.ij, Gij, BijLuminance signal YijIs calculated by the conversion formula (2) to the YIQ standard described above. Next, the difference signal calculation means of the edge detection means 53 is the luminance signal YijAs the detected edge (index) E, the difference in the main / sub scanning direction is calculated by the following equation (6). Here, in the following equation (6), A, B, C, and D are luminance signals Y as shown in FIG.ijIs the sum of the left, right, top, and bottom pixel values.
E = | A−B | + | C−D | (6)
[0063]
Further, the edge dependent gain calculating means 54d makes the intensity function W depending on the edge E detected by the edge detecting means 53 of the edge signal acquiring means 52d dependent on the detected edge E as shown in FIG. 7C, for example. In other words, the intensity function W and the basic gain M are set to be small in the flat portion where the detection edge E is small and large in the edge portion where the detection edge E is large.0And gain H0From the above, the gains M and H are calculated by the above equation (3).
In this embodiment, the edge signal acquisition means 52d is constituted by the mask memory 51 and the edge detection means 53, and the original signal S is obtained by the mask memory 51.FExtraction target mask signal Rij, Gij, BijAnd the signal R in the mask Rij, Gij, BijFrom the luminance signal Y based on the above equation (2).ijAnd the obtained luminance signal YijBased on the above, the edge E is detected by the above equation (6), and the gains M and H are determined as the luminance signal Y.ijHowever, the present invention is not limited to this, and the edge detection means 53 uses the luminance signal Y according to the above equation (2).ijIn-mask signal R targeted for low-frequency component extraction without calculatingij, Gij, BijThe difference signal in the main / sub scanning direction itself may be detected as the edge E by the above equation (6), and the gains M and H may be subjected to intensity suppression processing depending on the detected edge E based on the difference signal. At this time, as shown in FIG. 7B, A, B, C, and D in the above equation (6)ij, Gij, BijThe sum of the left and right and upper and lower pixel values relating to the average value of the image may be used.
[0064]
In this way, in this embodiment, for example, an edge dependence table as shown in FIG. 7C is used. Therefore, in the case of an edge, that is, when the value of the detected edge E is large, the value of the intensity function W Is 1, 0, and the intermediate frequency component YMGain M based on0And high frequency component YHGain H based on0And On the other hand, in the case of a flat portion that is not an edge, that is, when the value of the detected edge E is equal to or smaller than a predetermined value (a small predetermined range value), the value of the intensity function W is monotonically from 1.0 to 0.0. Decrease and gradually reduce the intermediate frequency component YMGain M based on0Higher frequency component YHGain H based on0Make it smaller.
By doing so, in this embodiment, the processed component YM', YH′ Is further reduced on the flat part to enhance the sharpness of the color image reproduced from the final processed signals R ′, G ′, B ′, and to remove noise components based on the grain of the film. The edge of the image is detected, only the edge is emphasized, and the noise in the flat portion due to the sharpness enhancement is further suppressed, so that a reproduced image with good image quality can be obtained.
In the illustrated example, for example, the value of the detected edge E is set as the edge by the sum of the left, right, top and bottom pixel values in the mask, and an edge dependence table as shown in FIG. The invention is not limited to this, and any detected edge E value may be set as an edge, and any edge dependence table may be used.
[0065]
As described above, with respect to the granularity suppression sharpness enhancement processing means constituting the image processing apparatus of the present invention that implements the image processing method of the present invention, the image characteristics are contrast, contrast highlight portion and shadow portion, specific image density, and edge, respectively. Although a specific embodiment in a certain case has been described, the present invention is not limited to this, and other image characteristics may be used. Of course, an image characteristic acquisition unit and an image characteristic dependent gain may be used according to the image characteristics. What is necessary is just to set a calculation means.
In the above-described embodiment, the intermediate / high frequency component RMH, GMH, BMHIs converted to the YIQ standard and gain processing is performed, but it is not necessary to convert the YIQ standard to the intermediate / high frequency component RMH, GMH, BMHIs the intermediate frequency component RM, GM, BMAnd high frequency component RH, GH, BHIn other words, the gain processing may be performed without converting each component into the YIQ standard. However, when the gain processing is performed based only on the luminance component after the conversion to the YIQ standard, roughness due to film grain can be greatly suppressed.
[0066]
Although the image processing method and apparatus of the present invention have been described in detail above, the present invention is not limited to the above-described embodiments, and various improvements and modifications may be made without departing from the spirit of the present invention. Of course.
[0067]
【The invention's effect】
As described above in detail, the image processing method and apparatus according to the present invention decomposes an image signal into low, medium, and high frequency components, suppresses intermediate frequency components including roughness due to film grain, edge, texture When emphasizing high frequency components, such as, etc., the suppression strength of the intermediate frequency component and the enhancement strength of the high frequency component depend on the image characteristics such as contrast, contrast highlight and shadow, specific density, and edge. Therefore, the color reproduction image of the processed image signal is enhanced in sharpness, the noise component based on film grain is removed, the graininess of the flat part is further suppressed, and the false contour of the edge part is reduced. Good image quality with reduced image quality, reduced graininess in specific density areas, detected image edges, and enhanced edge sharpness It is possible to obtain a reproduced image.
[0068]
In addition, according to the present invention, it is possible to suppress the roughness of the luminance component based on the film granularity by performing processing only on the luminance component of the intermediate / high frequency component, and therefore, it is possible to obtain a reproduced image with better image quality. Can do.
Further, according to the present invention, when the RGB three colors of the middle and high frequency components of the color image signal are converted into YIQ standards, the I component and the Q component which are color components have almost no component in a normal subject. Therefore, the I component and the Q component can be regarded as color roughness due to film granularity. Therefore, by performing enhancement suppression processing and synthesis based only on the Y component that is the luminance component of the high frequency component and the intermediate frequency component decomposed from the image signal, further suppresses color roughness due to film grain, A good reproduction image can be obtained.
[Brief description of the drawings]
FIG. 1 is a block diagram of an embodiment of a digital color image reproduction system to which an image processing apparatus that performs an image processing method according to the present invention is applied.
FIG. 2 is a block diagram of an embodiment of an image processing apparatus of the present invention applied to the digital color image reproduction system shown in FIG.
FIG. 3 is a graph showing the distribution of low, medium and high frequency components of a color original image signal.
4A is a block diagram of a specific first embodiment of the image processing apparatus shown in FIG. 2, and FIG. 4B is an example of a contrast dependence table used in the image processing apparatus shown in FIG. It is a graph of.
5A is a block diagram of a specific second embodiment of the image processing apparatus shown in FIG. 2, and FIG. 5B is a highlight / contrast of contrast used in the image processing apparatus shown in FIG. It is a graph of an example of a shadow dependence table.
6A is a block diagram of a specific third embodiment of the image processing apparatus shown in FIG. 2, and FIG. 6B is a specific density dependence table used in the image processing apparatus shown in FIG. It is an example of a graph.
7A is a block diagram of a specific fourth embodiment of the image processing apparatus shown in FIG. 2, and FIG. 7B is an edge detection method performed in the image processing apparatus shown in FIG. (C) is a graph of an example of an edge dependence table used in the image processing apparatus shown in (a).
[Explanation of symbols]
10 Digital color image printing system
12 Reading means
14 Image processing device
16 Reproduction means
18 CCD array
20 Condensing lens
22 Filter turret
24 A / D conversion means
26 CCD correction means
28 Logarithmic conversion means
30 Auto setup calculation section
32 color / gradation processing means
34 CRT
36 Monitor display and user interface
38 Processing means
40 Printer
42,48 low bass filter
44, 50 Subtraction means
51 Mask memory
52 Image characteristic acquisition means
52a Contrast signal acquisition means
52c Original signal luminance calculation means
52d Edge signal acquisition means
53 Edge detection means
54 Image characteristic dependent gain calculation means
54a Contrast-dependent gain calculating means
54b Highlight / shadow determination / gain calculation means
54c Luminance signal dependent gain calculation means
54d Edge-dependent gain calculation means
56,58 amplifier
60, 62 addition means
CI color image
P Visible (reproduced) image
Z Recording material (medium)

Claims (8)

所定のカラー画像を表す原画像信号に対して所定の画像処理を施す画像処理方法であって、
前記原画像信号の輝度信号を算出し、
前記原画像信号を低周波数成分、中間周波数成分、および高周波数成分に分解し、
前記原画像信号の前記高周波数成分を強調するための高周波数ゲインを前記原画像信号の前記輝度信号に応じて設定するとともに、前記原画像信号の前記中間周波数成分を抑制するための中間周波数ゲインを、前記原画像信号の前記輝度信号に応じて設定し、
前記高周波数成分を前記高周波数ゲインに応じて強調するとともに、前記中間周波数成分を前記中間周波数ゲインに応じて抑制する、画像特性依存強調抑制処理を行い、
この処理後の高周波数成分および中間周波数成分、ならびに前記低周波数成分を合成して処理済画像信号を得ることを特徴とする画像処理方法であって、
前記原画像信号の分解では、分解後の各周波数成分のうち少なくとも前記低周波成分をRGBデータとし、
前記高周波数ゲインおよび前記中間周波数ゲインを設定するステップでは、
前記画像処理を行う対象の各画素毎に、主走査方向に隣接する各画素間の前記輝度信号の差分と、副走査方向に隣接する各画素間の前記輝度信号の差分との和で表される検出エッジ指数を求め、各画素毎に、前記検出エッジ指数に応じた大きさの前記高周波数ゲインおよび前記中間周波数ゲインを設定するものであることを特徴とする画像処理方法。
An image processing method for performing predetermined image processing on an original image signal representing a predetermined color image,
Calculating a luminance signal of the original image signal;
Decomposing the original image signal into a low frequency component, an intermediate frequency component, and a high frequency component;
An intermediate frequency gain for setting a high frequency gain for enhancing the high frequency component of the original image signal in accordance with the luminance signal of the original image signal and suppressing the intermediate frequency component of the original image signal Is set according to the luminance signal of the original image signal ,
While emphasizing the high frequency component according to the high frequency gain, suppressing the intermediate frequency component according to the intermediate frequency gain, performing an image characteristic dependence enhancement suppression process,
An image processing method characterized in that a processed image signal is obtained by synthesizing the high frequency component and the intermediate frequency component after the processing, and the low frequency component ,
In the decomposition of the original image signal, at least the low frequency component among the respective frequency components after the decomposition is RGB data,
In the step of setting the high frequency gain and the intermediate frequency gain,
For each pixel to be subjected to the image processing, it is represented by the sum of the difference in luminance signal between pixels adjacent in the main scanning direction and the difference in luminance signal between pixels adjacent in the sub-scanning direction. And detecting the detected edge index and setting the high frequency gain and the intermediate frequency gain having a magnitude corresponding to the detected edge index for each pixel .
前記原画像信号の前記輝度信号は、前記中間・高周波数成分のRGBカラーデータを、YIQ規定変換した際のY成分を表す信号であることを特徴とする請求項1記載の画像処理方法。2. The image processing method according to claim 1 , wherein the luminance signal of the original image signal is a signal representing a Y component when the RGB color data of the intermediate / high frequency component is subjected to YIQ specified conversion. 前記原画像信号を分解するに先がけて、前記原画像信号のRGBカラーデータに基づいて、前記原画像信号の前記高周波数成分を強調するための基本高周波数ゲイン、および、前記原画像信号の前記中間周波数成分を抑制するための基本中間周波数ゲインを設定するステップを有し、
前記高周波数ゲインおよび前記中間周波数ゲインを設定するステップでは、
前記基本高周波数ゲインおよび前記基本中間周波数ゲインを調整するための強度係数を、前記輝度信号に応じて設定し、
前記基本高周波数ゲインに、前記輝度信号に応じた前記強度係数を乗じて前記高周波数ゲインを算出して設定するとともに、前記基本中間周波数ゲインに、前記輝度信号に応じた前記強度係数を乗じて前記中間周波数ゲインを算出して設定することを特徴とする請求項1または2記載の画像処理方法。
Prior to decomposing the original image signal, based on RGB color data of the original image signal, a basic high frequency gain for enhancing the high frequency component of the original image signal, and the original image signal Setting a basic intermediate frequency gain to suppress the intermediate frequency component;
In the step of setting the high frequency gain and the intermediate frequency gain,
An intensity coefficient for adjusting the basic high frequency gain and the basic intermediate frequency gain is set according to the luminance signal,
The high frequency gain is calculated and set by multiplying the basic high frequency gain by the intensity coefficient according to the luminance signal, and the basic intermediate frequency gain is multiplied by the intensity coefficient according to the luminance signal. 3. The image processing method according to claim 1, wherein the intermediate frequency gain is calculated and set.
前記高周波数ゲインおよび前記中間周波数ゲインを設定するステップでは、
前記輝度信号に応じて算出された検出エッジ指数に応じて、前記強度係数を定めるものであり、前記強度係数を、前記検出エッジ指数が所定値よりも大きい場合は1.0とし、前記検出エッジ指数が前記所定値よりも小さい場合は、前記検出エッジ指数の大きさに応じて0.0より1.0まで所定割合で単調増加するように設定することを特徴とする請求項1〜3のいずれかに記載の画像処理方法。
In the step of setting the high frequency gain and the intermediate frequency gain,
The intensity coefficient is determined according to a detected edge index calculated according to the luminance signal, and the intensity coefficient is set to 1.0 when the detected edge index is larger than a predetermined value , and the detected edge 4. The method according to claim 1 , wherein when the index is smaller than the predetermined value, the index is set to monotonically increase from 0.0 to 1.0 at a predetermined rate according to the magnitude of the detected edge index . The image processing method according to any one of the above.
所定のカラー画像を表す原画像信号に対して所定の画像処理を施す画像処理装置であって、
前記原画像信号の輝度信号を算出する手段と、
前記原画像信号を低周波数成分、中間周波数成分、および高周波数成分に分解する手段と、
前記原画像信号の前記高周波数成分を強調するための高周波数ゲインを、前記原画像信 号の前記輝度信号に応じて設定するとともに、前記原画像信号の前記中間周波数成分を抑制するための中間周波数ゲインを、前記原画像信号の前記輝度信号に応じて設定する手段と、
前記高周波数成分を前記高周波数ゲインに応じて強調するとともに、前記中間周波数成分を前記中間周波数ゲインに応じて抑制する、画像特性依存強調抑制処理を行う手段と、
この処理後の高周波数成分および中間周波数成分、ならびに前記低周波数成分を合成して処理済画像信号を得る手段と、を有することを特徴とする画像処理装置であって、
前記分解する手段は、分解後の各周波数成分のうち少なくとも前記低周波成分をRGBデータとし、
前記高周波数ゲインおよび前記中間周波数ゲインを設定する手段は、
前記画像処理を行う対象の各画素毎に、主走査方向に隣接する各画素間の前記輝度信号の差分と、副走査方向に隣接する各画素間の前記輝度信号の差分との和で表される検出エッジ指数を求め、各画素毎に、前記検出エッジ指数に応じた大きさの前記高周波数ゲインおよび前記中間周波数ゲインを設定することを特徴とする画像処理装置。
An image processing apparatus that performs predetermined image processing on an original image signal representing a predetermined color image,
Means for calculating a luminance signal of the original image signal;
Means for decomposing the original image signal into a low frequency component, an intermediate frequency component, and a high frequency component;
The high-frequency gain for emphasizing the high frequency components of the original image signal, and sets in response to said luminance signal of the original image signal, an intermediate for suppressing the intermediate frequency component of the original image signal Means for setting a frequency gain according to the luminance signal of the original image signal ;
Means for emphasizing the high frequency component according to the high frequency gain and suppressing the intermediate frequency component according to the intermediate frequency gain;
An image processing apparatus comprising: a high-frequency component and an intermediate frequency component after processing, and a means for synthesizing the low-frequency component to obtain a processed image signal,
The means for decomposing the RGB data at least the low frequency component of each frequency component after the decomposition,
The means for setting the high frequency gain and the intermediate frequency gain are:
For each pixel to be subjected to the image processing, it is represented by the sum of the difference in luminance signal between pixels adjacent in the main scanning direction and the difference in luminance signal between pixels adjacent in the sub-scanning direction. And detecting the detected edge index and setting the high frequency gain and the intermediate frequency gain having a magnitude corresponding to the detected edge index for each pixel .
前記原画像信号の前記輝度信号は、前記中間・高周波数成分のRGBカラーデータを、YIQ規定変換した際のY成分を表す信号であることを特徴とする請求項5記載の画像処理装置。6. The image processing apparatus according to claim 5 , wherein the luminance signal of the original image signal is a signal representing a Y component when the RGB color data of the intermediate / high frequency component is subjected to YIQ specified conversion. 前記原画像信号を分解するに先がけて、前記原画像信号のRGBカラーデータに基づいて、前記原画像信号の前記高周波数成分を強調するための基本高周波数ゲイン、および、前記原画像信号の前記中間周波数成分を抑制するための基本中間周波数ゲインを設定する手段を有し、
前記高周波数ゲインおよび前記中間周波数ゲインを設定する手段では、
前記基本高周波数ゲインおよび前記基本中間周波数ゲインを調整するための強度係数を、前記輝度信号に応じて設定し、
前記基本高周波数ゲインに、前記輝度信号に応じた前記強度係数を乗じて前記高周波数ゲインを算出して設定するとともに、前記基本中間周波数ゲインに、前記輝度信号に応じた前記強度係数を乗じて前記中間周波数ゲインを算出して設定することを特徴とする請求項5または6記載の画像処理装置。
Prior to decomposing the original image signal, based on RGB color data of the original image signal, a basic high frequency gain for enhancing the high frequency component of the original image signal, and the original image signal Means for setting a basic intermediate frequency gain for suppressing the intermediate frequency component;
In the means for setting the high frequency gain and the intermediate frequency gain,
An intensity coefficient for adjusting the basic high frequency gain and the basic intermediate frequency gain is set according to the luminance signal,
The high frequency gain is calculated and set by multiplying the basic high frequency gain by the intensity coefficient according to the luminance signal, and the basic intermediate frequency gain is multiplied by the intensity coefficient according to the luminance signal. The image processing apparatus according to claim 5, wherein the intermediate frequency gain is calculated and set.
前記高周波数ゲインおよび前記中間周波数ゲインを設定する手段では、
前記輝度信号に応じて算出された検出エッジ指数に応じて、前記強度係数を定めるものであり、前記強度係数を、前記検出エッジ指数が所定値よりも大きい場合は1.0とし、前記検出エッジ指数が前記所定値よりも小さい場合は、前記検出エッジ指数の大きさに応じて0.0より1.0まで所定割合で単調増加するように設定することを特徴とする請求項5〜6のいずれかに記載の画像処理装置。
In the means for setting the high frequency gain and the intermediate frequency gain,
The intensity coefficient is determined according to a detected edge index calculated according to the luminance signal, and the intensity coefficient is set to 1.0 when the detected edge index is larger than a predetermined value. if the exponent is less than the predetermined value, according to claim 5-6, characterized in that set to monotonously increases at a predetermined rate until 0.0 from 1.0 in accordance with the size of the detected edge index The image processing apparatus according to any one of the above.
JP09015598A 1998-04-02 1998-04-02 Image processing method and apparatus Expired - Lifetime JP3998321B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP09015598A JP3998321B2 (en) 1998-04-02 1998-04-02 Image processing method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP09015598A JP3998321B2 (en) 1998-04-02 1998-04-02 Image processing method and apparatus

Publications (2)

Publication Number Publication Date
JPH11289468A JPH11289468A (en) 1999-10-19
JP3998321B2 true JP3998321B2 (en) 2007-10-24

Family

ID=13990612

Family Applications (1)

Application Number Title Priority Date Filing Date
JP09015598A Expired - Lifetime JP3998321B2 (en) 1998-04-02 1998-04-02 Image processing method and apparatus

Country Status (1)

Country Link
JP (1) JP3998321B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4549723B2 (en) * 2004-04-19 2010-09-22 株式会社メガチップス Image signal enhancement device
JP2006215676A (en) * 2005-02-02 2006-08-17 Noritsu Koki Co Ltd Photographic image processing method and photographic image processor
JP5812263B2 (en) * 2011-07-08 2015-11-11 富士ゼロックス株式会社 Image processing apparatus and image processing program
KR102087681B1 (en) 2015-09-17 2020-03-11 삼성전자주식회사 Image processing device, method for processing image and computer-readable recording medium

Also Published As

Publication number Publication date
JPH11289468A (en) 1999-10-19

Similar Documents

Publication Publication Date Title
JPH0922460A (en) Image processing method and device therefor
JP4154847B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium storing image processing program
JP3584389B2 (en) Image processing method and image processing apparatus
JP3668014B2 (en) Image processing method and apparatus
US7738699B2 (en) Image processing apparatus
US7116838B2 (en) Enhancing the tonal and spatial characteristics of digital images using selective spatial filters
EP1638312B1 (en) Apparatus, program, and method for image tone transformation, and Electronic Camera
US7308152B2 (en) Image processing method, apparatus, and program
US7755670B2 (en) Tone-conversion device for image, program, electronic camera, and tone-conversion method
US7043090B2 (en) Enhancing the tonal characteristics of digital images using expansive and compressive tone scale functions
JP2007094742A (en) Image signal processor and image signal processing program
JP2001298619A (en) Method and device for image processing
JP2010092461A (en) Image processing apparatus and method of processing image
JP2006352431A (en) Imaging apparatus
JP3184309B2 (en) Gradation correction circuit and imaging device
JP3500302B2 (en) Image processing method and apparatus
JP4212741B2 (en) Image processing device
JP2003076985A (en) Image processing method and device
JPH11266358A (en) Image processing method
JP3998321B2 (en) Image processing method and apparatus
JP3408770B2 (en) Image processing device
JPH11339035A (en) Method for deciding image processing parameter and device therefor
JPH10282582A (en) Image processing method and device therefor
JP4120928B2 (en) Image processing apparatus, image processing method, and program thereof
JPH08223425A (en) Image processing method and its device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040528

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060728

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061215

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070507

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070626

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070731

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070807

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100817

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110817

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110817

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120817

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120817

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130817

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term