JP3576812B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP3576812B2
JP3576812B2 JP16318298A JP16318298A JP3576812B2 JP 3576812 B2 JP3576812 B2 JP 3576812B2 JP 16318298 A JP16318298 A JP 16318298A JP 16318298 A JP16318298 A JP 16318298A JP 3576812 B2 JP3576812 B2 JP 3576812B2
Authority
JP
Japan
Prior art keywords
image data
granularity
image
image processing
correction amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP16318298A
Other languages
Japanese (ja)
Other versions
JPH11355578A (en
Inventor
正志 乗松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP16318298A priority Critical patent/JP3576812B2/en
Priority to US09/294,996 priority patent/US6415053B1/en
Publication of JPH11355578A publication Critical patent/JPH11355578A/en
Priority to US10/141,930 priority patent/US6697537B2/en
Application granted granted Critical
Publication of JP3576812B2 publication Critical patent/JP3576812B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Facsimiles In General (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像処理装置に関し、特に、フィルムに記録された画像を光電的に読み取ることにより得られた画像データに所定の画像処理を施し、出力用の画像データを得る画像処理装置に関する。
【0002】
【従来の技術】
近年では、写真フィルムに記録されたコマ画像をCCD等の読取センサによって光電的に読み取り、該読み取りによって得られたデジタル画像データに対し拡大縮小や各種補正等の画像処理を実行し、画像処理済のデジタル画像データに基づき変調したレーザ光により記録材料へ画像を形成する技術が知られている。
【0003】
このようにCCD等の読取センサによりコマ画像をデジタル的に読み取る技術では、精度の良い画像読み取りを実現するために、コマ画像を予備的に読み取り(いわゆるプレスキャン)、コマ画像の濃度等に応じた読取条件(例えば、コマ画像に照射する光量やCCDの電荷蓄積時間等)を決定し、決定した読取条件でコマ画像を再度読み取っていた(いわゆるファインスキャン)。
【0004】
プレスキャン時には、読み取った画像に基づいて、色階調や、ハイパートーン、ハイパーシャープネス、粒状度などの各種補正処理に対応する補正値がそれぞれ検出され、得られた各補正値に基づいてファインスキャンで読み取った画像に補正処理がなされている。
【0005】
上記補正処理対象のうちの1つである粒状度は、フィルムが持つ画像のザラツキ感や粗さなどの度合いをいい、粒状度が高いほど画像がきめ細かくなる。この粒状度は、所定の基準フィルムに対しての度合いを示す場合と、同一のフィルムにおいて、1画像中での相対的な度合いを示す場合がある。
【0006】
粒状度は、画像の品質を決定づける重要な要素の一つであり、粒状度の補正は、例えば、特開昭63−272173号公報に開示されたように、ネガポジ反転処理実行前に、カラーネガフィルムの各コマ画像毎に露出状態を判定し、この判定により得られる各コマ画像毎の露出状態に基づいて各コマ画面に対応する粒状度を可変補正する方法で行われている。
【0007】
【発明が解決しようとする課題】
しかしながら、上記の粒状度の補正方法では、1コマ内に写し込まれた画像の露光状態がアンダーかオーバーかに合わせて検出した補正値を画像全体に施すため、1コマ内に部分的に過補正された領域が生じてしまったり、逆に補正不足の領域が生じるという難点がある。
【0008】
そこで、本発明は、1コマ内に写し込まれた画像において粒状度の違いに応じてきめ細かい補正を行える画像処理装置及び画像処理方法を提供することを目的とする。
【0009】
【課題を解決するための手段】
上記第1の目的を達成するために、請求項1の発明の画像処理装置は、フィルムに記録された画像を光電的に読み取ることにより得られた画像データに所定の画像処理を施し、出力用の画像データを得る画像処理装置であって、前記画像データを分割して形成した複数の所定領域の各濃度に基づいて、各所定領域毎の粒状度の補正量を算出する粒状度補正量算出手段と、該粒状度補正量算出手段で算出された各所定領域毎の補正量に基づいて、前記画像データの粒状度を補正すると共に、前記補正量を前記画像データに対するシャープネス強調処理に反映させる粒状度補正手段と、を有する。
【0010】
請求項1に記載の発明によれば、1コマに写し込まれた画像(以後、1コマ分の画像と称す。)全体の露光状態に基づいて粒状度の補正量を算出するのではなく、1コマ分の画像の画像データを各所定領域毎に分割し、この各所定領域毎に粒状度補正量算出手段が粒状度の補正量を算出し、得られた補正量に基づいて粒状度補正手段が前記補正量を前記画像データに対するシャープネス強調処理に反映させ、画像データの粒状度の補正を行う。すなわち、1コマ画像内における部分的な画像の濃度(複数の濃度)が考慮されて粒状度の補正を行うことができるので、きめ細かな粒状度補正が実現できる。
また、粒状度とトレードオフの関係にあるシャープネス強調度合いを調整するシャープネス強調処理に、粒状度の補正量を反映させるので、過度の粒状度補正を抑制できる。
例えば、カラー画像中のエッジや細かいテクスチャを含む高周波数成分のゲインを比較的大きくしてシャープネス強調をすると共に、画像データにおけるフィルム粒状によるザラツキを含む中間周波数成分のゲインを比較的小さくして粒状度を補正することにより、画像の鮮鋭度を強調しつつ、ザラツキ感を抑制できる。
【0011】
なお、請求項1では、1コマ分の画像の画像データを各所定領域毎に分割する方法については特に限定せず、例えば、碁盤の目状に均等に分割したり、中央を中心にハニカム状、放射状、同心円状、またはこれらを組み合わせて分割したり、主要被写体が配置される可能性の最も高い中央部分とその他の部分に分割するなど、適宜最適な分割方法を選択できる。
【0014】
また、請求項2の発明は、請求項1に記載の画像処理装置において、前記粒状度補正手段は、各所定領域毎に対応する補正量に基づいて、各所定領域毎に画像データを補正する。
【0015】
すなわち、請求項2の発明では、1コマ分の画像を分割して得られる各所定領域毎に算出された補正量に基づいて、対応する各所定領域の粒状度補正を行うため、1コマ内で異なる度合いの粒状度補正を実現でき、1コマ分の画像に合わせてきめ細かく粒状度補正を行うことが可能である。
【0016】
また、請求項3の発明は、請求項1に記載の画像処理装置において、前記粒状度補正手段は、予め定めた位置の所定領域から算出された補正量に基づいて、前記予め定めた位置の所定領域の画像データのみを補正する。
【0017】
すなわち、請求項3の発明では、1コマ分の画像を分割して得られる各所定領域のうち、予め定めた1つの所定領域又は複数の所定領域における粒状度の補正量を求め、予め定めた1つの所定領域又は複数の所定領域の画像データのみを補正するため、1コマ分の画像内で部分的に粒状度の補正を行える。
【0018】
なお、複数の所定領域を選択した場合、各々の所定領域ごとに粒状度の補正量を求めて各々対応する画像データを補正するようにしたり、各々の所定領域ごとに粒状度の補正量を求め、その中で最も適正な補正量に合わせて複数の所定領域全体の画像データを補正するようにしたり、複数の所定領域全体の粒状度の補正量を求めて複数の所定領域全体の画像データを補正することができる。
【0019】
従って、例えば、従来のように、露光状態に基づいて1コマ分の画像全域に粒状度補正を施した後、過補正状態又は補正不足状態となった所定領域のみを選択してさらに粒状度補正を施すことが可能であり、さらにきめの細かい粒状度補正処理が実現できる。
【0020】
もちろん、粒状度補正を施す前の1コマ分の画像の特定の位置の所定領域のみを選択してその部分だけに粒状度補正を施すことも可能であり、補正の対象となる画像データの質に合わせて粒状度補正の方法を変えることが可能である。
【0021】
請求項4の発明は、請求項1に記載の画像処理装置において、前記所定領域は、1画素で構成された領域であることを特徴とする。すなわち、前記所定領域を1画素で構成されるものとすることにより、最も細かに粒状度の補正を行える。
【0022】
さらに、請求項5の発明は、請求項1に記載の画像処理装置において、前記画像データから主要被写体の占有領域を抽出する主要被写体抽出手段を更に備え、前記所定領域は、前記主要被写体抽出手段により抽出された前記占有領域又は前記占有領域以外の領域であることを特徴とする。
【0023】
これにより、個々のコマに写し込まれた画像に合わせて、画像内の主要な部分の補正量を適切に得られるので、画像に合わせてきめ細かく粒状度の補正を行える。
【0024】
また、請求項6の発明は、請求項1に記載の画像処理装置において、前記所定領域が前記画像データの濃度累積ヒストグラムから得られた特定濃度の画素の集合であることを特徴とする。
【0025】
すなわち、粒状度は画像データ内の濃度の高い領域の方が低い領域と比べて良好であることから、画像データの濃度累積ヒストグラムにより得られる画像内の主要な部分の濃度に合わせて粒状度の補正量を変えることにより、1コマ分の画像データ内の濃度差により局部的に粒状度が悪くなることを防げる。
【0026】
請求項7の発明は、請求項1から請求項6のいずれか1項に記載の画像処理装置において、前記濃度は、適用されたフィルムベース濃度からの相対濃度差であることを特徴とする。これにより、異なるフィルムベースを使用したフィルムであっても常に適正な粒状度の補正量を算出できる。
【0027】
また、基準となる粒状度の補正条件は、例えば、ネガフィルムまたはリバーサルフィルムの違いや、フィルム感度の違い、フィルムの品種の違いによって異なる。そのため、請求項8の発明では、請求項1から請求項7のいずれか1項に記載の画像処理装置において、フィルム種を判別するフィルム種判別手段を更に備え、粒状度補正量算出手段は、前記フィルム種判別手段からのフィルム種に合わせて補正量算出のための基準値を調整することを特徴とする。
【0028】
これにより、基準となる粒状度の補正条件を補正処理対象のフィルム種に合わせて調整できるので、より一層きめ細かく粒状度の補正を行うことが可能である。
一方、上記目的を達成するために、請求項9の発明の画像処理方法は、フィルムに記録された画像を光電的に読み取ることにより得られた画像データに所定の画像処理を施し、出力用の画像データを得る画像処理方法であって、前記画像データを分割して形成した複数の所定領域の各濃度に基づいて、各所定領域毎の粒状度の補正量を算出し、該算出された各所定領域毎の補正量に基づいて、前記画像データの粒状度を補正すると共に、前記補正量を前記画像データに対するシャープネス強調処理に反映させるものである。
請求項9に記載の発明によれば、請求項1に記載の発明と同様に作用するので、請求項1に係る発明と同様に、1コマ内に写し込まれた画像において粒状度の違いに応じてきめ細かい補正を行うことができる。
【0029】
【発明の実施形態】
図1及び図2には、本実施形態に係るディジタルラボシステム10の概略構成が示されている。
【0030】
図1に示すように、このディジタルラボシステム10は、ラインCCDスキャナ14、画像処理部16、レーザプリンタ部18、及びプロセッサ部20を含んで構成されており、ラインCCDスキャナ14と画像処理部16は、図2に示す入力部26として一体化されており、レーザプリンタ部18及びプロセッサ部20は、図2に示す出力部28として一体化されている。
【0031】
ラインCCDスキャナ14は、ネガフィルムやリバーサルフィルム等の写真フィルムに記録されているコマ画像を読み取るためのものであり、例えば135サイズの写真フィルム、110サイズの写真フィルム、及び透明な磁気層が形成された写真フィルム(240サイズの写真フィルム:所謂APSフィルム)、120サイズ及び220サイズ(ブローニサイズ)の写真フィルムのコマ画像を読取対象とすることができる。ラインCCDスキャナ14は、上記の読取対象のコマ画像をラインCCD30で読み取り、A/D変換部32においてA/D変換した後、画像データを画像処理部16へ出力する。
【0032】
なお、本実施の形態では、240サイズの写真フィルム(APSフィルム)68を適用した場合のディジタルラボシステム10として説明する。
【0033】
画像処理部16は、ラインCCDスキャナ14から出力された画像データ(スキャン画像データ)が入力されると共に、デジタルカメラ34等での撮影によって得られた画像データ、原稿(例えば反射原稿等)をスキャナ36(フラットベット型)で読み取ることで得られた画像データ、他のコンピュータで生成され、フロッピディスクドライブ38、MOドライブ又はCDドライブ40に記録された画像データ、及びモデム42を介して受信する通信画像データ等(以下、これらをファイル画像データと総称する)を外部から入力することも可能なように構成されている。
【0034】
画像処理部16は、入力された画像データを画像メモリ44に記憶し、色階調処理部46、ハイパートーン処理部48、ハイパーシャープネス処理部50等の各種の補正等の画像処理を行って、記録用画像データとしてレーザプリンタ部18へ出力する。また、画像処理部16は、画像処理を行った画像データを画像ファイルとして外部へ出力する(例えばFD、MO、CD等の記憶媒体に出力したり、通信回線を介して他の情報処理機器へ送信する等)ことも可能とされている。
【0035】
レーザプリンタ部18はR、G、Bのレーザ光源52を備えており、レーザドライバ54を制御して、画像処理部16から入力された記録用画像データ(一旦、画像メモリ56に記憶される)に応じて変調したレーザ光を印画紙に照射して、走査露光(本実施の形態では、主としてポリゴンミラー58、fθレンズ60を用いた光学系)によって印画紙62に画像を記録する。また、プロセッサ部20は、レーザプリンタ部18で走査露光によって画像が記録された印画紙62に対し、発色現像、漂白定着、水洗、乾燥の各処理を施す。これにより、印画紙上に画像が形成される。
【0036】
(ラインCCDスキャナの構成)
次にラインCCDスキャナ14の構成について説明する。図1にはラインCCDスキャナ14の光学系の概略構成が示されている。この光学系は、写真フィルム68に光を照射する光源66を備えており、光源66の光射出側には、写真フィルム68に照射する光を拡散光とする光拡散板72が配置されている。
【0037】
写真フィルム68は、光拡散板72が配設された側に配置されたフィルムキャリア74によって、コマ画像の画面が光軸と垂直になるように搬送される。
【0038】
写真フィルム68を挟んで光源66と反対側には、光軸に沿って、コマ画像を透過した光を結像させるレンズユニット76、ラインCCD30が順に配置されている。なお、レンズユニット76として単一のレンズのみを示しているが、レンズユニット76は、実際には複数枚のレンズから構成されたズームレンズである。なお、レンズユニット76として、セルフォックレンズを用いてもよい。この場合、セルフォックレンズの両端面をそれぞれ、可能な限り写真フィルム68及びラインCCD30に接近させることが好ましい。
【0039】
ラインCCD30は、複数のCCDセル搬送される写真フィルム68の幅方向に沿って一列に配置され、かつ電子シャッタ機構が設けられたセンシング部が、間隔を空けて互いに平行に3ライン設けられており、各センシング部の光入射側にR、G、Bの色分解フィルタの何れかが各々取付けられて構成されている(所謂3ラインカラーCCD)。ラインCCD30は、各センシング部の受光面がレンズユニット76の結像点位置に一致するように配置されている。
【0040】
また、図示は省略するが、ラインCCD30とレンズユニット76との間にはシャッタが設けられている。
【0041】
(画像処理部16の制御系の構成)
図3には、図1に示す画像処理部16の主要構成である画像メモリ44、色階調処理46、ハイパートーン処理48、ハイパーシャープネス処理50の各処理を実行するための詳細な制御ブロック図が示されている。
【0042】
ラインCCDスキャナ14から出力されたRGBの各デジタル信号は、データ処理部200において、暗時補正、欠陥画素補正、シェーディング補正等の所定のデータ処理が施された後、log変換器202によってデジタル画像データ(濃度データ)に変換され、プレスキャンデータはプレスキャンメモリ204に記憶され、メインスキャンデータはメインスキャンメモリ206に記憶される。
【0043】
プレスキャンメモリ204に記憶されたプレスキャンデータは、画像データ処理部208と画像データ変換部210とで構成されたプレスキャン処理部212に送出される。一方、メインスキャンメモリ206に記憶されたメインスキャンデータは、画像データ処理部214と画像データ変換部216とで構成されたメインスキャン処理部218へ送出される。
【0044】
これらのプレスキャン処理部212及びメインスキャン処理部218では、画像を撮影したときのレンズ特性及びストロボを使用して撮影したときのストロボ配光特性に基づく補正等を実行する。
【0045】
また、画像データ処理部208、214には、各種フィルムの特性を記憶するフィルム特性記憶部232と、フィルムを撮影したカメラを判別する情報を取得して対応する撮影カメラに応じたレンズ特性を出力するレンズ特性データ供給部234とが接続されている。
【0046】
フィルムの特性とは、階調特性(γ特性)であり、一般には、露光量に応じて濃度が三次元的に変化する曲線で表される。なお、この点は周知の技術であるため、詳細な説明は省略する。
【0047】
また、フィルム種の特定は、本実施の形態であれば、APSフィルムの磁気記録層にフィルム種を示す情報を記録しており、ラインCCDスキャナ14のキャリア74での搬送時に、磁気ヘッドによって読み取ることが可能である。また、135サイズフィルムの場合には、その形状(幅方向両端に比較的短いピッチでパーフォレーションが設けられている)等で判断してもよいし、オペレータがキー入力するようにしてもよい。フィルム種を特定することにより、画像のフィルムベース濃度からの相対的な濃度を正確に算出できる。
【0048】
画像データ処理部208、214では、フィルム特性記憶部232とレンズ特性データ供給部234とから得られるフィルム種及びカメラ種に合わせて基準値の補正を行い、LUTやマトリクス(MTX)演算等を用いる周知の方法により、カラーバランス調整、コントラスト調整(色階調処理)、明るさ補正、彩度補正(ハイパートーン処理)等のためのパラメータを求める。
【0049】
さらに、画像データ処理部208、214は、1コマ分の画像データを分割して形成した複数の単位領域(所定領域)100の各濃度に基づいて、各単位領域100毎の粒状度補正量を算出するとともにシャープネス度合いを求め、算出した粒状度の補正量に合わせて粒状度の補正とシャープネス度合いの補正を行う粒状度補正・シャープネス補正部220(粒状度補正量算出手段、粒状度補正手段)を含み、この粒状度補正・シャープネス補正部220において、後述する処理により粒状度の補正処理を施すための補正量を算出する。
【0050】
プレスキャン側の画像データ変換部210は、画像データ処理部208によって単位領域100毎に得られた複数の画像データを3D−LUTに基づいてモニタ16Mへ表示するためのディスプレイ用画像データに変換している。一方、メインスキャン側の画像データ変換部216は、画像データ処理部214によって処理された画像データを、3D−LUTに基づいてレーザプリンタ部18でのプリント用画像データに変換している。なお、上記ディスプレイ用の画像データと、プリント用画像データとは、表色系が異なるが、以下のような様々な補正によって一致を図っている。
【0051】
すなわち、プレスキャン処理部212及びメインスキャン処理部218には、条件設定部224が接続されている。条件設定部224は、セットアップ部226、キー補正部228、パラメータ統合部230とで構成されている。
【0052】
セットアップ部226は、プレスキャンデータを用いて、メインスキャンの読取条件を設定し、ラインCCDスキャナ14に供給し、また、プレスキャン処理部212及びメイスキャン処理部218の画像処理条件を演算し、パラメータ統合部230に供給している。
【0053】
キー補正部228は、キーボード16Kに設定された濃度、色、コントラスト、シャープネス、彩度、粒状度等を調整するキーやマウスで入力された各種の指示等に応じて、画像処理条件の調整量を演算し、パラメータ統合部230へ供給している。
【0054】
パラメータ統合部230では、上記セットアップ部226及びキー補正部228から受け取った画像処理条件をプレスキャン側及びメインスキャン側の画像データ処理部208,214へ送り、画像処理条件を補正あるいは再設定する。
【0055】
ここで、粒状度補正・シャープネス補正部220において行われる処理を説明する。粒状度補正・シャープネス補正部220は、プレスキャンデータを例えば図4に示すように、1コマ分の画像データを9×5の単位領域100毎に分割して、各単位領域100毎に濃度を算出し、算出された濃度に基づいて粒状度の補正量を決定する。
【0056】
図5は、色(輝度)と濃度との相関関係を示す線図であるが、図5に示すように、色(輝度)と濃度とは比例関係になく二次曲線的な関係にある。また、濃度が低くなればなるほど粒状度は悪くなってザラツキの目立つ画像となる。これらのことから、色(輝度)と粒状度の補正量とは、図6に示すような曲線の関係にあり、色(輝度)が低くなればなるほど粒状度の補正量が大きくなる。
【0057】
本実施形態の粒状度補正・シャープネス補正部220では、単位領域100毎に平均濃度を算出し、得られた平均濃度から図5に示した線図に基づいて輝度を求め、さらに、図6に示した線図に基づいて各単位領域100毎に粒状度の補正量を算出する。
【0058】
なお、ここでは、1コマ分の画像データを9×5の単位領域100毎に分割したが、分割の方法は9×5に限らず、6×6や10×10や画素毎など目的に合わせて適宜選択できる。
【0059】
例えば、図7に示すように左側領域102と中央領域104と右側領域106に3分割したり、図示はしないが上側領域と中央領域と下側領域とに3分割したり、図8に示すように中心領域110とその他の領域108とに分割したり、図9に示すように、主要被写体抽出手段により画像データから主要被写体120のみを抽出して所要被写体120とその他の領域108とに分割したり、さらには、図10に示すように、1コマ分の画像データを例えば、9×5に分割し、主要被写体が映り込んだ6領域(縦番号−横番号;4−7、4−8、5−7、5−8、6−7、6−8)とその他の領域とに分割するなどの方法を採用できる。もちろん、主要被写体が異なる領域に複数ある場合も上記と同様に予め分割した単位領域毎、または抽出した領域毎に分割する方法を採用できる。
【0060】
また、本実施形態では、1コマ分の画像データを主要被写体120の位置に関係なく9×5の単位領域100毎に分割し、それぞれの単位領域100毎に適切な補正量を算出して1コマ分の画像データ全体の粒状度の補正を行う構成であるが、主要被写体120の映り込んだ領域の粒状度の補正を精度良く行い、その他の領域は粒状度の補正を粗く行うようにしたり、主要被写体120の映り込んだ領域のみの粒状度の補正を行うようにするなどと、補正処理を施す領域を限定して選択的に粒状度の補正を行う構成とすることもできる。もちろん、主要被写体120の映り込んだ領域の粒状度補正値に合わせて1コマ分の画像データ全体を補正するように構成することもできる。
【0061】
また、粒状度の補正量は被写体の濃度に左右されることから、1コマ分の画像データから図11に示すような縦軸が画素数横軸が濃度値である濃度累積ヒストグラムを求め、この濃度累積ヒストグラムから予め設定した濃度範囲にある画素又は領域を選択して粒状度補正を行ったり、同じ濃度の画素又は領域毎に対応する補正値を適用して1コマ分の画像データ全体または一部領域(主要被写体が映り込んだ領域や、主要被写体以外の領域や、ユーザが選択した領域など)の粒状度補正を行う構成とすることもできる。
【0062】
また、粒状度はシャープネス強調度合いとトレードオフの関係にあり、粒状度補正・シャープネス補正部220は、上述の方法で得られた補正量を基にして以下述べるシャープネス強調処理と共に粒状度の補正を行う。
【0063】
まず、図12に示すように、ファインスキャンデータS(RGB)に対して以下に示す5×5のローパスフィルタを二段カスケード接続した9×9ローパスフィルタ21によりフィルタリング処理を施し、ファインスキャンデータの低周波数成分R、G、Bを抽出する。
【0064】
【数1】

Figure 0003576812
そして、ファインスキャンデータSから低周波数成分R、G、Bを減算して中間高周波数成分RMH、GMH、BMHを抽出する。前記抽出された後の低周波数成分R、G、Bは、カラー画像中のエッジや細かいテクスチャやフィルムの粒状によるザラツキを含まないものである。一方、中間周波数成分R、G、Bはフィルム粒状によるザラツキを含むものであり、高周波数成分R、G、Bは、カラー画像中のエッジや細かいテクスチャーを含むものである。
【0065】
ここで、ファインスキャンデータの低周波数成分R、G、B、中間周波数成分R、G、B及び高周波数成分R、G、Bとは図13に示すように分布される中間・高周波数成分に乗じるゲインM、Hを1.0とした場合の周波数成分のことをいう。また、中間周波数成分R、G、Bは、処理後のデータを可視像として再生する際の出力のナイキスト周波数fs/2の1/3付近にピークを持って分布Hとなる周波数成分をいう。さらに低周波数成分R、G、Bとは、0周波数にピークを持って分布Hとなる成分をいい、高周波数成分R、G、Bとは、出力のナイキスト周波数fs/2にピークを持って分布Hとなる成分をいう。
【0066】
なお、本実施の形態において、ナイキスト周波数は、感光材料への記録が300dpiで行われる場合のナイキスト周波数をいうものである。ここで図6においては、各周波数において周波数成分の和は1となっている。
【0067】
ついで分解された中間・高周波数成分RMH、GMH、BMHから輝度成分が抽出される。この輝度成分の抽出はファインスキャンデータの中間・高周波数成分RMH、GMH、BMHをYIQ基底に変換した際の成分YMHがデータの輝度成分を表すものである。ここでYIQ基底への変換は下記の式により行う。
【0068】
【数2】
Figure 0003576812
YIQ基底に変換後の色成分である成分IMH及び成分QMHはフィルム粒状に起因する色のザラツキを含むものであるため、成分IMH及び成分QMHはここでは0とおいてフィルム粒状に起因する色のザラツキを抑制する。
【0069】
ここで、色成分である成分IMH及び成分QMHは一般の被写体を写した画像の場合は殆ど成分を持たないことが経験的にわかっている。したがって、成分IMH及び成分QMHは、フィルム粒状に起因する色のザラツキとみなして0とおくことにより、ザラツキを抑制した良好な再生画像を得ることができる。
【0070】
ついで、成分YMHに対してゲイン処理部において上述した5×5のローパスフィルタによりフィルタリング処理を施して、成分YMHの中間周波数成分Yを得る。さらに、成分YMHから中間周波数成分Yを減算することにより成分YMHの高間周波数成分Yを得る。
【0071】
次いで、前述した粒状度補正・シャープネス補正部220において求められたゲインM及び、ゲインHが以下の式に示すように、それぞれ成分Y、Yに乗じられて処理済成分Y’ 、Y’ が得られ、処理済成分Y’ 、Y’ が合成されて成分YMH’ が得られる。
【0072】
MH’ =ゲインM×Y+ゲインH×Y…式(3)
(Y’ =ゲインM×Y、Y’ =ゲインH×Y
ここで、ゲインMと、ゲインHとは粒状度補正・シャープネス補正部220においてゲインM<ゲインHとなるように設定される。すなわち、フィルム粒状に基づく輝度成分のザラツキは、中間周波数成分に比較的多く含まれているため、成分YのゲインMを比較的低く設定することより、ザラツキ感を抑えることができる。また、画像のシャープネス度合いは輝度成分の高周波数成分に依存するため、輝度成分の高周波数成分YのゲインHを比較的大きくすることにより、処理済画像の鮮鋭度を強調することができる。
【0073】
例えば、カラー画像がアンダーネガの場合、フィルム粒状に起因するザラツキが目立つ上に階調特性を改善するために階調を立ると、粒状がかなり悪い画像となるため、単位領域毎に算出されるゲインMをかなり低く設定することにより、粒状を強く抑制できる。
【0074】
すなわち、粒状度補正・シャープネス補正部220においては、上述した方法により分割した領域毎に最も適したゲインMを補正量として算出し、このゲインMに基づいて粒状度を抑制している。このゲインMは、分割した画像データの面積に応じて設定したり、ユーザの好みに応じたゲインG及びゲインHをテーブルとして記憶しておき、ユーザの選択に応じたゲインG及びゲインHを単位領域100毎に適宜選択するように構成することもできる。
【0075】
そして、このようにして得られた成分YMH’ を前述したファインスキャンデータSの低周波数成分R、G、Bと合成して処理済信号R’、G’、B’を得る。この際、前述した成分IMH’を逆変換してRGBのデータに対応させると、RGB3つのデータは全て成分YMH’と同一の値となるので、処理された輝度成分MH’を逆変換しないで合成することより処理を簡便なものとできる。
【0076】
その後、以上の処理を単位領域100毎に行って、単位領域100毎に得られた複数の処理済信号R’、G’、B’をそれぞれ画像データ変換部210に出力する。
【0077】
【発明の効果】
以上説明したように、本発明によれば、1コマの画像データの粒状度補正を部分的な画像データに基づいて行うため、1コマ内に写し込まれた画像において粒状度の違いに応じてきめ細かい補正が可能な画像処理装置が得られる、という効果を達成する。
【図面の簡単な説明】
【図1】本発明の実施の形態にかかるデジタルラボシステムの概略構成図である。
【図2】デジタルラボシステムの概観図である。
【図3】画像処理部の制御ブロック図である。
【図4】1コマ分の画像データを9×5の単位領域100毎に分割した状態を示す説明図である。
【図5】濃度と色(輝度)の相関関係を示す線図である。
【図6】色(輝度)と粒状度の補正量との相関関係を示す線図である。
【図7】1コマ分の画像データを左側領域102と中央領域104と右側領域106に3分割した状態を示す説明図である。
【図8】1コマ分の画像データを中心領域110とその他の領域108とに分割した状態を示す説明図である。
【図9】1コマ分の画像データを主要被写体抽出手段により画像データから主要被写体120のみを抽出して所要被写体120とその他の領域108とに分割した状態を示す説明図である。
【図10】1コマ分の画像データを9×5に分割し、主要被写体が映り込んだ6領域とその他の領域とに分割した状態を示す説明図である。
【図11】1コマ分の画像データから算出した濃度累積ヒストグラムの一例を示す線図である。
【図12】本実施形態に係る粒状抑制、シャープネス強調処理の一例を示すブロック図である。
【図13】低周波数成分、中間周波数成分、高周波数成分の分布を示す特性図である。
【符号の説明】
10 ディジタルラボシステム
14 ラインCCDスキャナ
16 画像処理部
66 光源部
68 写真フィルム
200 データ処理部
202 log 変換器
204 プレスキャンメモリ
206 メインスキャンメモリ
208 画像データ処理部
212 プレスキャン処理部
214 画像データ処理部
218 メインスキャン処理部
220 粒状度補正・シャープネス補正部
224 条件設定部
234 レンズ特性データ供給部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus that performs predetermined image processing on image data obtained by photoelectrically reading an image recorded on a film to obtain image data for output.
[0002]
[Prior art]
In recent years, a frame image recorded on a photographic film is photoelectrically read by a reading sensor such as a CCD, and image processing such as enlargement / reduction and various corrections is performed on digital image data obtained by the reading, and the image processing is completed. A technique for forming an image on a recording material using a laser beam modulated based on digital image data is known.
[0003]
As described above, in the technology of digitally reading a frame image using a reading sensor such as a CCD, in order to realize accurate image reading, the frame image is preliminarily read (so-called pre-scan), and the density of the frame image is adjusted according to the density. Reading conditions (for example, the amount of light applied to the frame image and the charge storage time of the CCD) are determined, and the frame image is read again under the determined reading conditions (so-called fine scan).
[0004]
At the time of prescan, correction values corresponding to various correction processes such as color gradation, hypertone, hypersharpness, and granularity are detected based on the read image, and fine scan is performed based on the obtained correction values. Has been subjected to correction processing.
[0005]
The granularity, which is one of the correction processing targets, refers to the degree of roughness or roughness of the image of the film, and the higher the granularity, the finer the image. The granularity may indicate a degree relative to a predetermined reference film, or may indicate a relative degree in one image in the same film.
[0006]
Granularity is one of the important factors that determine the quality of an image, and correction of the granularity is performed, for example, as disclosed in JP-A-63-272173, before color negative film reversal processing is performed. The exposure state is determined for each frame image, and the granularity corresponding to each frame screen is variably corrected based on the exposure state for each frame image obtained by this determination.
[0007]
[Problems to be solved by the invention]
However, in the above-described granularity correction method, since the correction value detected according to whether the exposure state of the image projected in one frame is under or over is applied to the entire image, the correction value is partially excessive in one frame. There is a drawback in that a corrected area is generated, and conversely, an undercorrected area is generated.
[0008]
Therefore, an object of the present invention is to provide an image processing apparatus and an image processing method capable of performing fine correction in accordance with a difference in granularity in an image printed in one frame.
[0009]
[Means for Solving the Problems]
In order to achieve the first object, an image processing apparatus according to the first aspect of the present invention performs predetermined image processing on image data obtained by photoelectrically reading an image recorded on a film, and outputs the image data for output. A granularity correction amount calculation unit that calculates a granularity correction amount for each predetermined region based on respective densities of a plurality of predetermined regions formed by dividing the image data. Means for correcting the granularity of the image data based on the correction amount for each predetermined area calculated by the granularity correction amount calculating means, and reflecting the correction amount in a sharpness enhancement process for the image data. Granularity correction means.
[0010]
According to the first aspect of the invention, instead of calculating the granularity correction amount based on the exposure state of the entire image (hereinafter, referred to as an image of one frame) imprinted on one frame, The image data of the image for one frame is divided into each predetermined area, and the granularity correction amount calculating means calculates the correction amount of the granularity for each predetermined area, and the granularity correction is performed based on the obtained correction amount. The means reflects the correction amount in the sharpness enhancement processing for the image data, and corrects the granularity of the image data. That is, since the granularity can be corrected in consideration of the partial image density (a plurality of densities) in one frame image, fine granularity correction can be realized.
Further, since the correction amount of the granularity is reflected in the sharpness enhancement processing for adjusting the sharpness enhancement degree having a trade-off relationship with the granularity, excessive granularity correction can be suppressed.
For example, the gain of high-frequency components including edges and fine textures in a color image is made relatively large to emphasize sharpness, and the gain of intermediate frequency components including graininess due to film grain in image data is made relatively small to achieve graininess. By correcting the degree, the roughness can be suppressed while enhancing the sharpness of the image.
[0011]
In the first aspect, the method of dividing the image data of one frame of image into each predetermined area is not particularly limited. For example, the method may be such that the image data is divided evenly in a grid pattern or in a honeycomb shape centered on the center. The optimal division method can be selected as appropriate, such as dividing the image into a radial portion, a concentric shape, or a combination thereof, or dividing the image into a central portion where the main subject is most likely to be arranged and other portions.
[0014]
According to a second aspect of the present invention, in the image processing apparatus according to the first aspect, the granularity correction unit corrects the image data for each predetermined area based on a correction amount corresponding to each predetermined area. .
[0015]
That is, according to the second aspect of the present invention, the granularity correction of each corresponding predetermined area is performed based on the correction amount calculated for each predetermined area obtained by dividing one frame of image. Thus, different degrees of granularity correction can be realized, and the granularity correction can be performed finely in accordance with an image for one frame.
[0016]
According to a third aspect of the present invention, in the image processing apparatus according to the first aspect, the granularity correction unit determines the position of the predetermined position based on a correction amount calculated from a predetermined area of the predetermined position. Only the image data in the predetermined area is corrected.
[0017]
That is, in the third aspect of the present invention, the correction amount of the granularity in one predetermined area or a plurality of predetermined areas is obtained from each of the predetermined areas obtained by dividing one frame of the image, and the predetermined amount is determined. Since only the image data of one predetermined area or a plurality of predetermined areas is corrected, the granularity can be partially corrected in an image for one frame.
[0018]
When a plurality of predetermined regions are selected, a correction amount of granularity is obtained for each predetermined region to correct the corresponding image data, or a correction amount of granularity is obtained for each predetermined region. It is preferable to correct the image data of the entire plurality of predetermined regions in accordance with the most appropriate correction amount among them, or to obtain the correction amount of the granularity of the entire plurality of predetermined regions to obtain the image data of the entire plurality of predetermined regions. Can be corrected.
[0019]
Therefore, for example, after performing the granularity correction on the entire image of one frame based on the exposure state as in the related art, only the predetermined area in the overcorrected state or the undercorrected state is selected to further perform the granularity correction. Can be performed, and a finer granularity correction process can be realized.
[0020]
Of course, it is also possible to select only a predetermined area at a specific position of one frame of the image before performing the granularity correction, and to perform the granularity correction only on the selected area, and the quality of the image data to be corrected It is possible to change the granularity correction method according to the conditions.
[0021]
According to a fourth aspect of the present invention, in the image processing apparatus according to the first aspect, the predetermined area is an area composed of one pixel. That is, the granularity can be corrected most finely by forming the predetermined area with one pixel.
[0022]
Further, according to a fifth aspect of the present invention, in the image processing apparatus according to the first aspect, the image processing apparatus further includes a main subject extracting unit that extracts an occupied area of the main subject from the image data, and the predetermined area is the main subject extracting unit. Or the area other than the occupied area extracted by the above.
[0023]
Accordingly, the correction amount of the main part in the image can be appropriately obtained in accordance with the image printed on each frame, so that the granularity can be finely corrected in accordance with the image.
[0024]
According to a sixth aspect of the present invention, in the image processing apparatus according to the first aspect, the predetermined area is a set of pixels of a specific density obtained from a density cumulative histogram of the image data.
[0025]
That is, since the granularity is better in the high density area in the image data than in the low density area, the granularity is adjusted according to the density of the main part in the image obtained from the density cumulative histogram of the image data. By changing the correction amount, it is possible to prevent the granularity from being locally deteriorated due to the density difference in the image data for one frame.
[0026]
According to a seventh aspect of the present invention, in the image processing apparatus according to any one of the first to sixth aspects, the density is a relative density difference from an applied film base density. Thereby, even if the film uses a different film base, an appropriate correction amount of the granularity can always be calculated.
[0027]
The reference granularity correction condition differs depending on, for example, a difference between a negative film or a reversal film, a difference between film sensitivities, and a difference between film types. Therefore, in the invention according to claim 8 , in the image processing apparatus according to any one of claims 1 to 7 , the image processing apparatus further includes a film type determination unit that determines a film type, and the granularity correction amount calculation unit includes: A reference value for calculating a correction amount is adjusted in accordance with the film type from the film type determination means.
[0028]
Accordingly, the reference granularity correction condition can be adjusted in accordance with the type of the film to be corrected, so that the granularity can be more finely corrected.
On the other hand, in order to achieve the above object, the image processing method according to the ninth aspect of the present invention performs predetermined image processing on image data obtained by photoelectrically reading an image recorded on a film, and outputs the image data for output. An image processing method for obtaining image data, wherein a correction amount of granularity for each predetermined region is calculated based on each density of a plurality of predetermined regions formed by dividing the image data. Based on the correction amount for each predetermined area, the granularity of the image data is corrected, and the correction amount is reflected in sharpness enhancement processing on the image data.
According to the ninth aspect of the present invention, since it operates in the same manner as the first aspect of the present invention, similar to the first aspect of the present invention, the difference in granularity between images captured in one frame is reduced. Detailed correction can be performed accordingly.
[0029]
DETAILED DESCRIPTION OF THE INVENTION
1 and 2 show a schematic configuration of a digital laboratory system 10 according to the present embodiment.
[0030]
As shown in FIG. 1, the digital lab system 10 includes a line CCD scanner 14, an image processing unit 16, a laser printer unit 18, and a processor unit 20. Are integrated as an input unit 26 shown in FIG. 2, and the laser printer unit 18 and the processor unit 20 are integrated as an output unit 28 shown in FIG.
[0031]
The line CCD scanner 14 is for reading a frame image recorded on a photographic film such as a negative film or a reversal film, and includes, for example, a 135-size photographic film, a 110-size photographic film, and a transparent magnetic layer. It is possible to read a frame image of a photographic film (240-size photographic film: so-called APS film) or a photographic film of 120-size or 220-size (Brownie size). The line CCD scanner 14 reads the above-mentioned frame image to be read by the line CCD 30, performs A / D conversion in the A / D conversion unit 32, and outputs image data to the image processing unit 16.
[0032]
In the present embodiment, a digital lab system 10 in which a 240-size photographic film (APS film) 68 is used will be described.
[0033]
The image processing unit 16 receives image data (scanned image data) output from the line CCD scanner 14 and scans image data obtained by photographing with the digital camera 34 or the like and a document (for example, a reflection document). 36 (flatbed type), image data generated by another computer and recorded in a floppy disk drive 38, MO drive or CD drive 40, and communication received via a modem 42 Image data and the like (hereinafter, these are collectively referred to as file image data) can be input from the outside.
[0034]
The image processing unit 16 stores the input image data in the image memory 44, and performs image processing such as various corrections of a color gradation processing unit 46, a hypertone processing unit 48, a hyper sharpness processing unit 50, and the like. The image data is output to the laser printer unit 18 as image data for recording. Further, the image processing unit 16 outputs the image data on which the image processing has been performed to an external device as an image file (for example, outputs the image data to a storage medium such as an FD, an MO, a CD, or to another information processing device via a communication line). Transmission, etc.).
[0035]
The laser printer section 18 includes R, G, and B laser light sources 52, and controls a laser driver 54 to record image data input from the image processing section 16 (temporarily stored in the image memory 56). The printing paper 62 is irradiated with laser light modulated in accordance with the above, and an image is recorded on the printing paper 62 by scanning exposure (in the present embodiment, mainly an optical system using the polygon mirror 58 and the fθ lens 60). Further, the processor unit 20 performs each process of color development, bleach-fixing, washing, and drying on the photographic paper 62 on which the image is recorded by the scanning exposure by the laser printer unit 18. Thus, an image is formed on the printing paper.
[0036]
(Configuration of line CCD scanner)
Next, the configuration of the line CCD scanner 14 will be described. FIG. 1 shows a schematic configuration of an optical system of the line CCD scanner 14. This optical system includes a light source 66 for irradiating the photographic film 68 with light, and a light diffusing plate 72 for diffusing the light to irradiate the photographic film 68 is disposed on the light exit side of the light source 66. .
[0037]
The photographic film 68 is conveyed by a film carrier 74 disposed on the side where the light diffusion plate 72 is disposed so that the screen of the frame image is perpendicular to the optical axis.
[0038]
On the opposite side of the photographic film 68 from the light source 66, a lens unit 76 for imaging light transmitted through the frame image and the line CCD 30 are sequentially arranged along the optical axis. Although only a single lens is shown as the lens unit 76, the lens unit 76 is actually a zoom lens composed of a plurality of lenses. Note that a selfoc lens may be used as the lens unit 76. In this case, it is preferable that both end surfaces of the SELFOC lens be as close to the photographic film 68 and the line CCD 30 as possible.
[0039]
The line CCDs 30 are arranged in a line along the width direction of the photographic film 68 conveyed by a plurality of CCD cells, and three sensing units provided with an electronic shutter mechanism are provided in parallel with each other at intervals. Each of the R, G, and B color separation filters is attached to the light incident side of each sensing unit (a so-called three-line color CCD). The line CCD 30 is arranged so that the light receiving surface of each sensing unit coincides with the imaging point position of the lens unit 76.
[0040]
Although not shown, a shutter is provided between the line CCD 30 and the lens unit 76.
[0041]
(Configuration of control system of image processing unit 16)
FIG. 3 is a detailed control block diagram for executing each processing of the image memory 44, the color gradation processing 46, the hypertone processing 48, and the hypersharpness processing 50, which are the main components of the image processing unit 16 shown in FIG. It is shown.
[0042]
Each of the RGB digital signals output from the line CCD scanner 14 is subjected to predetermined data processing such as darkness correction, defective pixel correction, and shading correction in a data processing unit 200, and then converted to a digital image by a log converter 202. The data is converted into data (density data), the pre-scan data is stored in the pre-scan memory 204, and the main scan data is stored in the main scan memory 206.
[0043]
The pre-scan data stored in the pre-scan memory 204 is sent to a pre-scan processing unit 212 including an image data processing unit 208 and an image data conversion unit 210. On the other hand, the main scan data stored in the main scan memory 206 is sent to a main scan processing unit 218 including an image data processing unit 214 and an image data conversion unit 216.
[0044]
The pre-scan processing unit 212 and the main scan processing unit 218 execute correction based on the lens characteristics at the time of shooting an image and the strobe light distribution characteristics at the time of shooting using a strobe.
[0045]
Further, the image data processing units 208 and 214 acquire film characteristic storage unit 232 for storing characteristics of various films, acquire information for identifying a camera that has photographed the film, and output lens characteristics according to the corresponding photographing camera. Connected to a lens characteristic data supply unit 234.
[0046]
The characteristic of the film is a gradation characteristic (γ characteristic), which is generally represented by a curve whose density changes three-dimensionally in accordance with the amount of exposure. Since this point is a well-known technique, detailed description will be omitted.
[0047]
In the present embodiment, the film type is specified by recording information indicating the film type on the magnetic recording layer of the APS film, and is read by a magnetic head when the line CCD scanner 14 is transported by the carrier 74. It is possible. In the case of a 135-size film, the determination may be made based on the shape (perforations are provided at relatively short pitches at both ends in the width direction) or the like, or an operator may make a key input. By specifying the film type, the relative density of the image from the film base density can be accurately calculated.
[0048]
The image data processing units 208 and 214 correct the reference value according to the film type and the camera type obtained from the film characteristic storage unit 232 and the lens characteristic data supply unit 234, and use an LUT, a matrix (MTX) operation, or the like. By a known method, parameters for color balance adjustment, contrast adjustment (color gradation processing), brightness correction, saturation correction (hypertone processing), and the like are obtained.
[0049]
Further, the image data processing units 208 and 214 calculate the granularity correction amount for each unit area 100 based on the respective densities of a plurality of unit areas (predetermined areas) 100 formed by dividing one frame of image data. A granularity correction / sharpness correction unit 220 that calculates and determines the degree of sharpness and corrects the degree of granularity and the degree of sharpness according to the calculated correction amount of granularity (granularity correction amount calculating means, granularity correcting means) The granularity correction / sharpness correction unit 220 calculates a correction amount for performing a granularity correction process by a process described later.
[0050]
The prescan-side image data conversion unit 210 converts the plurality of image data obtained for each unit area 100 by the image data processing unit 208 into display image data to be displayed on the monitor 16M based on the 3D-LUT. ing. On the other hand, the image data conversion unit 216 on the main scan side converts the image data processed by the image data processing unit 214 into image data for printing in the laser printer unit 18 based on the 3D-LUT. Although the display image data and the print image data have different color systems, they are matched by various corrections as described below.
[0051]
That is, the condition setting unit 224 is connected to the pre-scan processing unit 212 and the main scan processing unit 218. The condition setting unit 224 includes a setup unit 226, a key correction unit 228, and a parameter integration unit 230.
[0052]
The setup unit 226 sets the main scan reading conditions using the pre-scan data, supplies the main scan reading conditions to the line CCD scanner 14, and calculates the image processing conditions of the pre-scan processing unit 212 and the main scan processing unit 218. The parameter is supplied to the parameter integration unit 230.
[0053]
The key correction unit 228 adjusts image processing conditions in accordance with keys set on the keyboard 16K for adjusting density, color, contrast, sharpness, saturation, granularity, and the like, and various instructions input with a mouse. Is calculated and supplied to the parameter integration unit 230.
[0054]
The parameter integration unit 230 sends the image processing conditions received from the setup unit 226 and the key correction unit 228 to the image data processing units 208 and 214 on the prescan side and the main scan side, and corrects or resets the image processing conditions.
[0055]
Here, processing performed in the granularity correction / sharpness correction unit 220 will be described. The granularity correction / sharpness correction unit 220 divides the prescan data into one frame of image data for each 9 × 5 unit area 100 as shown in FIG. Then, the correction amount of the granularity is determined based on the calculated density.
[0056]
FIG. 5 is a diagram showing the correlation between the color (luminance) and the density. As shown in FIG. 5, the color (luminance) and the density are not in a proportional relationship but in a quadratic curve relationship. Also, the lower the density, the worse the granularity becomes, and the image becomes more conspicuous. From these facts, the color (luminance) and the correction amount of the granularity have a curve relationship as shown in FIG. 6, and the correction amount of the granularity increases as the color (luminance) decreases.
[0057]
The granularity correction / sharpness correction unit 220 of the present embodiment calculates the average density for each unit area 100, obtains the luminance from the obtained average density based on the diagram shown in FIG. The correction amount of the granularity is calculated for each unit area 100 based on the illustrated diagram.
[0058]
Here, one frame of image data is divided into 9 × 5 unit areas 100, but the division method is not limited to 9 × 5, but may be 6 × 6, 10 × 10, pixel by pixel, or the like. Can be selected as appropriate.
[0059]
For example, as shown in FIG. 7, a left area 102, a center area 104, and a right area 106 are divided into three parts, although not shown, an upper area, a central area, and a lower area are divided into three parts, as shown in FIG. In FIG. 9, the main subject extracting means extracts only the main subject 120 from the image data and divides it into the required subject 120 and the other region 108, as shown in FIG. Further, as shown in FIG. 10, one frame of image data is divided into, for example, 9 × 5, and six areas (vertical number-horizontal number; 4-7, 4-8) in which the main subject is reflected , 5-7, 5-8, 6-7, 6-8) and other areas. Of course, in the case where there are a plurality of main subjects in different areas, a method of dividing each of the previously divided unit areas or each of the extracted areas can be adopted as described above.
[0060]
In this embodiment, one frame of image data is divided into 9 × 5 unit areas 100 irrespective of the position of the main subject 120, and an appropriate correction amount is calculated for each unit area 100. In this configuration, the granularity of the entire frame of image data is corrected. However, the granularity of the area where the main subject 120 is reflected is accurately corrected, and the granularity of the other areas is roughly corrected. For example, when the correction of the granularity is performed only in the area where the main subject 120 is reflected, the area to be subjected to the correction processing can be limited to selectively correct the granularity. Of course, the entire image data for one frame may be corrected in accordance with the granularity correction value of the area where the main subject 120 is reflected.
[0061]
Further, since the correction amount of the granularity depends on the density of the subject, a density cumulative histogram in which the vertical axis is the number of pixels and the horizontal axis is the density value as shown in FIG. A pixel or area in a preset density range is selected from the density cumulative histogram to perform the granularity correction, or a correction value corresponding to each pixel or area having the same density is applied to the entire image data for one frame or one pixel. It is also possible to adopt a configuration in which granularity correction is performed on a partial area (an area where the main subject is reflected, an area other than the main subject, an area selected by the user, and the like).
[0062]
The granularity has a trade-off relationship with the sharpness enhancement degree, and the granularity correction / sharpness correction unit 220 performs the correction of the granularity together with the sharpness enhancement processing described below based on the correction amount obtained by the above-described method. Do.
[0063]
First, as shown in FIG. 12, subjected to a filtering process by fine scanning data S F 9 × a low-pass filter of 5 × 5 shown below for (RGB) and two-stage cascaded 9 low-pass filter 21, the fine scanned data Of the low frequency components R L , G L , and B L.
[0064]
(Equation 1)
Figure 0003576812
Then, it extracts the low frequency components R L from fine scanning data S F, G L, intermediate and high frequency components R MH subtracts the B L, G MH, and B MH. The low frequency components R L , G L , and B L after the extraction do not include roughness due to edges in the color image, fine textures, or film grain. On the other hand, the intermediate frequency components R M , G M , and B M include roughness due to film grain, and the high frequency components R H , G H , and B H include edges and fine textures in a color image.
[0065]
Here, the low frequency components R L of the fine scanning data, G L, B L, middle frequency components R M, G M, B M and high frequency components R H, G H, and B H as shown in FIG. 13 The frequency components when the gains M and H by which the distributed middle / high frequency components are multiplied are set to 1.0. The intermediate frequency components R M , G M , and B M have a distribution H M with a peak near 付 近 of the Nyquist frequency fs / 2 of the output when the processed data is reproduced as a visible image. Refers to frequency components. Further, the low frequency components R L , G L , and B L are components having a peak at 0 frequency and having a distribution H L, and the high frequency components R H , G H , and B H are the Nyquist frequency fs of the output. / 2 with a peak refers to a component as a distribution H H.
[0066]
In the present embodiment, the Nyquist frequency refers to the Nyquist frequency when recording on a photosensitive material is performed at 300 dpi. Here, in FIG. 6, the sum of the frequency components is 1 at each frequency.
[0067]
Next, a luminance component is extracted from the decomposed intermediate / high frequency components R MH , G MH , and B MH . In the extraction of the luminance component, the component Y MH when the intermediate / high frequency components R MH , G MH , and B MH of the fine scan data are converted into the YIQ base represents the luminance component of the data. Here, conversion to the YIQ basis is performed by the following equation.
[0068]
(Equation 2)
Figure 0003576812
Since the component I MH and the component Q MH, which are the color components converted into the YIQ basis, include the roughness of the color caused by the film grain, the component I MH and the component Q MH are set to 0 here, and the color caused by the film grain is set to 0. Suppresses roughness.
[0069]
Here, it is empirically known that the component I MH and the component Q MH, which are color components, have almost no components in the case of an image of a general subject. Therefore, by setting the component I MH and the component Q MH to 0, assuming that the color is rough due to the granularity of the film, a good reproduced image in which the roughness is suppressed can be obtained.
[0070]
Then, the component Y MH is subjected to filtering processing in the gain processing unit using the above-described 5 × 5 low-pass filter, thereby obtaining an intermediate frequency component Y M of the component Y MH . Moreover, obtaining a Koma frequency components Y H of the components Y MH by subtracting the intermediate frequency components Y M of component Y MH.
[0071]
Next, the gains M and H obtained by the above-described granularity correction / sharpness correction unit 220 are multiplied by the components Y M and Y H , respectively, as shown in the following equation, and the processed components Y M ′ and Y H 'is obtained, processed components Y M', Y H 'are combined components Y MH' are obtained.
[0072]
Y MH ′ = gain M × Y M + gain H × Y H (3)
(Y M ′ = gain M × Y M , Y H ′ = gain H × Y H )
Here, the gain M and the gain H are set in the granularity correction / sharpness correction unit 220 so that the gain M <the gain H. That is, roughness of the luminance component based on the film graininess, because it contains a relatively large amount to an intermediate frequency component, from the setting the gain M of the components Y M relatively low, it is possible to suppress the graininess. Further, sharpness degree of an image is dependent on the high-frequency component of the luminance component, by relatively increasing the gain H of the high frequency components Y H of the luminance component, it is possible to emphasize the sharpness of the processed image.
[0073]
For example, when the color image is under negative, the roughness caused by the film graininess is conspicuous, and if the tone is raised to improve the tone characteristics, the image becomes considerably poor in graininess. By setting the gain M to be very low, the granularity can be strongly suppressed.
[0074]
That is, the granularity correction / sharpness correction unit 220 calculates the most appropriate gain M as a correction amount for each of the divided regions by the above-described method, and suppresses the granularity based on the gain M. The gain M is set according to the area of the divided image data, or the gain G and the gain H according to the user's preference are stored as a table, and the gain G and the gain H according to the user's selection are stored in a unit. It is also possible to adopt a configuration in which selection is appropriately made for each region 100.
[0075]
Then, thus component obtained by Y MH 'low frequency components R L of the fine scanning data S F described above, G L, B L and synthesizing the processed signals R', obtain G ', B' . At this time, if the above-described component I MH ′ is inversely transformed to correspond to RGB data, all three RGB data have the same value as the component Y MH ′, so that the processed luminance component MH ′ is not inversely transformed. The processing can be simplified by synthesizing with.
[0076]
After that, the above processing is performed for each unit area 100, and a plurality of processed signals R ′, G ′, and B ′ obtained for each unit area 100 are output to the image data conversion unit 210.
[0077]
【The invention's effect】
As described above, according to the present invention, since the granularity correction of one frame of image data is performed based on the partial image data, the granularity correction is performed according to the difference in granularity in the image imprinted in one frame. This achieves an effect that an image processing apparatus capable of performing fine correction can be obtained.
[Brief description of the drawings]
FIG. 1 is a schematic configuration diagram of a digital laboratory system according to an embodiment of the present invention.
FIG. 2 is a schematic view of a digital laboratory system.
FIG. 3 is a control block diagram of an image processing unit.
FIG. 4 is an explanatory diagram showing a state in which image data for one frame is divided into 9 × 5 unit areas 100;
FIG. 5 is a diagram showing a correlation between density and color (luminance).
FIG. 6 is a diagram showing a correlation between a color (luminance) and a granularity correction amount.
FIG. 7 is an explanatory diagram showing a state in which image data for one frame is divided into a left area 102, a central area 104, and a right area 106;
FIG. 8 is an explanatory diagram showing a state in which image data for one frame is divided into a central area 110 and another area 108.
9 is an explanatory diagram showing a state in which only main subject 120 is extracted from image data of one frame from image data by main subject extracting means and divided into required subject 120 and other area 108. FIG.
FIG. 10 is an explanatory diagram showing a state in which image data for one frame is divided into 9 × 5, and divided into six regions in which a main subject is reflected and other regions.
FIG. 11 is a diagram illustrating an example of a density cumulative histogram calculated from image data of one frame.
FIG. 12 is a block diagram illustrating an example of graininess suppression and sharpness enhancement processing according to the embodiment.
FIG. 13 is a characteristic diagram showing distributions of a low frequency component, an intermediate frequency component, and a high frequency component.
[Explanation of symbols]
Reference Signs List 10 digital laboratory system 14 line CCD scanner 16 image processing unit 66 light source unit 68 photographic film 200 data processing unit 202 log converter 204 prescan memory 206 main scan memory 208 image data processing unit 212 prescan processing unit 214 image data processing unit 218 Main scan processing unit 220 Granularity correction / sharpness correction unit 224 Condition setting unit 234 Lens characteristic data supply unit

Claims (9)

フィルムに記録された画像を光電的に読み取ることにより得られた画像データに所定の画像処理を施し、出力用の画像データを得る画像処理装置であって、
前記画像データを分割して形成した複数の所定領域の各濃度に基づいて、各所定領域毎の粒状度の補正量を算出する粒状度補正量算出手段と、
該粒状度補正量算出手段で算出された各所定領域毎の補正量に基づいて、前記画像データの粒状度を補正すると共に、前記補正量を前記画像データに対するシャープネス強調処理に反映させる粒状度補正手段と、
を有する画像処理装置。
An image processing apparatus that performs predetermined image processing on image data obtained by photoelectrically reading an image recorded on a film and obtains image data for output,
A granularity correction amount calculating unit configured to calculate a correction amount of granularity for each of the predetermined regions based on each density of a plurality of predetermined regions formed by dividing the image data;
A granularity correction for correcting the granularity of the image data based on the correction amount for each predetermined area calculated by the granularity correction amount calculating means, and reflecting the correction amount in a sharpness enhancement process for the image data. Means,
An image processing apparatus having:
前記粒状度補正手段は、各所定領域毎に対応する補正量に基づいて、各所定領域毎に画像データを補正する請求項1に記載の画像処理装置。The image processing apparatus according to claim 1, wherein the granularity correction unit corrects the image data for each predetermined area based on a correction amount corresponding to each predetermined area . 前記粒状度補正手段は、予め定めた位置の所定領域から算出された補正量に基づいて、前記予め定めた位置の所定領域の画像データのみを補正する請求項1に記載の画像処理装置。The image processing apparatus according to claim 1, wherein the granularity correction unit corrects only image data of the predetermined area at the predetermined position based on a correction amount calculated from the predetermined area at the predetermined position . 前記所定領域は、1画素で構成された領域であることを特徴とする請求項1に記載の画像処理装置。The image processing apparatus according to claim 1, wherein the predetermined area is an area configured by one pixel . 前記画像データから主要被写体の占有領域を抽出する主要被写体抽出手段を更に備え、
前記所定領域として、前記主要被写体抽出手段により抽出された前記占有領域又は前記占有領域以外の領域を選択することを特徴とする請求項1に記載の画像処理装置。
Main subject extracting means for extracting an occupied area of the main subject from the image data,
2. The image processing apparatus according to claim 1, wherein the occupied area extracted by the main subject extracting unit or an area other than the occupied area is selected as the predetermined area .
前記所定領域が前記画像データの濃度累積ヒストグラムから得られた特定濃度の画素の集合であることを特徴とする請求項1に記載の画像処理装置。 2. The image processing apparatus according to claim 1, wherein the predetermined area is a set of pixels having a specific density obtained from a density cumulative histogram of the image data . 前記濃度は、適用されたフィルムベース濃度からの相対濃度差であることを特徴とする請求項1から請求項6のいずれか1項に記載の画像処理装置。The image processing apparatus according to any one of claims 1 to 6, wherein the density is a relative density difference from an applied film base density . フィルム種を判別するフィルム種判別手段を更に備え、
粒状度補正量算出手段は、前記フィルム種判別手段からのフィルム種に合わせて補正量算出のための基準値を調整することを特徴とする請求項1から請求項7のいずれか1項に記載の画像処理装置。
Further provided is a film type determining means for determining a film type,
8. The apparatus according to claim 1, wherein the granularity correction amount calculation unit adjusts a reference value for calculating the correction amount according to a film type from the film type determination unit. 9. Image processing device.
フィルムに記録された画像を光電的に読み取ることにより得られた画像データに所定の画像処理を施し、出力用の画像データを得る画像処理方法であって、  An image processing method of performing predetermined image processing on image data obtained by photoelectrically reading an image recorded on a film to obtain image data for output,
前記画像データを分割して形成した複数の所定領域の各濃度に基づいて、各所定領域毎の粒状度の補正量を算出し、  Based on the respective densities of a plurality of predetermined regions formed by dividing the image data, a correction amount of granularity for each predetermined region is calculated,
該算出された各所定領域毎の補正量に基づいて、前記画像データの粒状度を補正すると共に、前記補正量を前記画像データに対するシャープネス強調処理に反映させる  Based on the calculated correction amount for each predetermined area, the granularity of the image data is corrected, and the correction amount is reflected in sharpness enhancement processing on the image data.
画像処理方法。  Image processing method.
JP16318298A 1998-04-20 1998-06-11 Image processing apparatus and image processing method Expired - Fee Related JP3576812B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP16318298A JP3576812B2 (en) 1998-06-11 1998-06-11 Image processing apparatus and image processing method
US09/294,996 US6415053B1 (en) 1998-04-20 1999-04-20 Image processing method and apparatus
US10/141,930 US6697537B2 (en) 1998-04-20 2002-05-10 Image processing method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP16318298A JP3576812B2 (en) 1998-06-11 1998-06-11 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JPH11355578A JPH11355578A (en) 1999-12-24
JP3576812B2 true JP3576812B2 (en) 2004-10-13

Family

ID=15768816

Family Applications (1)

Application Number Title Priority Date Filing Date
JP16318298A Expired - Fee Related JP3576812B2 (en) 1998-04-20 1998-06-11 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP3576812B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003208610A (en) * 2002-01-16 2003-07-25 Noritsu Koki Co Ltd Image processing device, method therefor, image processing program, and recording medium with image processing program recorded thereon
WO2006025486A1 (en) 2004-09-01 2006-03-09 Nec Corporation Image correction system and image correction method
JP5263010B2 (en) * 2009-06-02 2013-08-14 富士ゼロックス株式会社 Image processing apparatus and program

Also Published As

Publication number Publication date
JPH11355578A (en) 1999-12-24

Similar Documents

Publication Publication Date Title
US6697537B2 (en) Image processing method and apparatus
JP4081219B2 (en) Image processing method and image processing apparatus
JP3639117B2 (en) Image processing device
JPH11341279A (en) Picture processing method
JP3998369B2 (en) Image processing method and image processing apparatus
JP3451202B2 (en) Image processing method
US6339466B1 (en) Image processing apparatus
JP3408770B2 (en) Image processing device
JP3576809B2 (en) Image processing device
US6560374B1 (en) Image processing apparatus
JP2000069277A (en) Image processing unit
JP3576812B2 (en) Image processing apparatus and image processing method
JP3549413B2 (en) Image processing method and image processing apparatus
JPH11261832A (en) Image processing method and image processor
JP3862198B2 (en) ID photo photographing apparatus, image processing apparatus and ID photo creating system
JP3929210B2 (en) Image processing method and apparatus
JPH11331543A (en) Image processing method and device therefor
JP2002300405A (en) Method for compressing image
JP4063971B2 (en) Image processing method and apparatus
JP3625370B2 (en) Image processing method and image processing apparatus
JP3825177B2 (en) Image processing method
JPH11355514A (en) Picture processor
JPH11355511A (en) Picture processor
JP2002300390A (en) Image reproducing method and image reproducing device
JP2000011140A (en) Image processor

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040706

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040708

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080716

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees