JP3954144B2 - Image processing method and apparatus - Google Patents

Image processing method and apparatus Download PDF

Info

Publication number
JP3954144B2
JP3954144B2 JP02687697A JP2687697A JP3954144B2 JP 3954144 B2 JP3954144 B2 JP 3954144B2 JP 02687697 A JP02687697 A JP 02687697A JP 2687697 A JP2687697 A JP 2687697A JP 3954144 B2 JP3954144 B2 JP 3954144B2
Authority
JP
Japan
Prior art keywords
image
density
color
image data
film
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP02687697A
Other languages
Japanese (ja)
Other versions
JPH10224650A (en
Inventor
隆章 寺下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP02687697A priority Critical patent/JP3954144B2/en
Publication of JPH10224650A publication Critical patent/JPH10224650A/en
Application granted granted Critical
Publication of JP3954144B2 publication Critical patent/JP3954144B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は画像処理方法及び装置に係り、特に、画像データが表す原画像が少なくともグレイバランスのとれた色バランスの画像となるように、修正条件に従って画像データを修正する画像処理方法及び装置に関する。
【0002】
【従来の技術】
従来より、写真フィルム等に記録されている原画像を記録材料に複写記録するにあたり、撮像等によって得られた原画像を表す画像データに対し、記録材料に画像を記録するために階調変換等の変換処理を行い、該変換によって得られた記録用データを用いて画素単位で記録材料に画像を記録することが行われている(所謂デジタル複写方式)。このデジタル複写方式において、記録画像の画質は、画像データをどのように変換したかによって大きく左右されるので、以下で説明するように、従来より種々の画像データ変換方法が提案されている。
【0003】
特開平2-157758号公報には、階調変換を行うための変換曲線を設定する際の基準値であるハイライト濃度及びシャドー濃度を自動的に設定する技術として、原画像の各画素毎に色成分別の濃度値の平均値を求め、各画素毎の平均濃度値と画素数との関係を示す平均濃度値度数ヒストグラムを求め、平均濃度値度数ヒストグラムから累積平均濃度値度数ヒストグラムを求め、累積平均濃度値度数ヒストグラムにおいて所定の累積濃度出現率に対応する平均濃度値を見い出し、見い出した平均濃度値と平均濃度値度数ヒストグラムにおける発生限界濃度値とによって決定される濃度区間内において、色成分別の区間内平均濃度値を求め、該色成分別の区間内平均濃度に基づいて基準濃度点(ハイライト濃度、シャドー濃度)を設定することが開示されている。
【0004】
また、特開平 5-91323号公報には、上記技術において、原画像中の局部的に明るい(例えば鏡面反射)部分や局部的に暗い部分の影響を軽減して基準濃度点を求めるようにした基準濃度点の設定方法が記載されている。
【0005】
また、特開平6-242521号公報には、ネガ画像を多数個の領域に分割し各成分色毎に分解して測光し、各成分色毎に最大基準値及び最小基準値(濃度値)を定め、各成分色毎の最大基準値が記録画像上で白に再現され、最小基準値が記録画像上で黒に再現されるように階調変換を行う技術が開示されている。
【0006】
更に、特開平4-285933号公報には、原画中の主要画像部、ハイライト部、シャドー部を検出し、主要画像部とハイライト部及びシャドー部との濃度差を算出し、該濃度差を所定値と比較して階調補正量を演算し、該階調補正量を用いて階調変換を行うハードコピー装置が記載されている。
【0007】
また、特開昭60-37878号公報には、複数の標準トーンカーブを記憶しておき、該複数の標準トーンカーブを、原稿のハイライト点及びシャドー点を通るように各々修正し、所望の出力信号に対する偏差が最も小さいトーンカーブを階調変換テーブルとして用いる方式が開示されている。
【0008】
また、特開昭 62-111569号公報には、ハイライト点、シャドー点等の特色点の座標をディジタイザで指定させ、座標が指定された特色点の画素及びその近傍の画素のデータに基づいてノイズの影響を排除した特色点の代表濃度を求め、特色点の代表濃度から階調変換等の画像処理条件を自動設定する技術が開示されている。
【0009】
このように、画像毎に最大基準濃度、最小基準濃度、ハイライト濃度、シャドー濃度等の基準濃度を各種の手法により設定し、設定した基準濃度から変換条件を設定したり、設定した基準濃度に基づいて標準的な変換条件を修正して用いることは従来より知られている。また、機差やカラー原稿の発色特性を補正する技術も従来より提案されている(特開平6-237373号公報、特開平5-344326号公報等参照) 。
【0010】
【発明が解決しようとする課題】
しかしながら、上述した画像データ変換方法では、原画像中の最大濃度又は最小濃度の画素又は画素群が、原画像中の非中性色の被写体に相当する画像部(例えば人物の顔等に相当する主要画像部)に対応していた場合に、記録画像の色バランスが特定の色に偏倚する所謂カラーフェリアが生じたり、記録画像上での主要画像部の濃度が極端に高く又は低くなる所謂濃度フェリアが生ずることがある、という問題があった。
【0011】
例えば原画像が、近接、又は比較的近距離に存在している人物をストロボを発光させて写真フィルムに撮影記録したフィルム画像であった場合、ストロボ光によって照明された人物の顔等がフィルム画像中のハイライト部になり、該フィルム画像がネガ画像であるとすると、フィルム画像中の人物の顔に相当する部分がフィルム画像中の最大濃度となることが多い。このような画像に対し、従来の画像データ変換方法では、人物の顔に相当する部分の画素が基準点として採用され、記録画像上での基準点の色味が中性色となるように変換条件が設定されるので、設定された変換条件に従って原画像情報を変換して画像を記録したとすると、記録画像の色バランスが特定の色(この場合は人物の顔の色(肌色)の補色の色)に偏倚する。
【0012】
また、上記のような画像では、フィルム画像中の人物の顔に相当する部分の濃度域が、フィルム画像全体の濃度域に対して高濃度側又は低濃度側に大きく偏倚しているので、従来の画像データ変換方法では、記録画像上での主要画像部の濃度が極端に高く又は低くなり、記録画像上で主要画像部を適正な濃度で再現することができなかった。
【0013】
本発明は上記事実を考慮して成されたもので、原画像中に存在する非中性色の被写体に相当する画像部が及ぼす影響を解消又は低減し、画像データが表す画像が適正な色バランスの画像となるように画像データを修正できる画像処理方法を得ることが目的である。
【0014】
また、本発明は、原画像中の主要画像部の階調値が極端に高い又は低い場合にも、主要画像部が適正に再現されるように画像データを修正できる画像処理方法及び装置を得ることが目的である。
【0015】
【課題を解決するための手段】
【0025】
請求項1記載の発明に係る画像処理方法は、原画像を表す画像データに対し、前記画像データが表す画像が少なくともグレイバランスのとれた色バランスの画像となるように、前記画像データを修正条件に従って修正する画像処理方法であって、複数の原画像のデータに基づいて、原画像中の中性色の被写体に相当する画素のR、G、Bの階調バランスを表す無彩色条件を定め、前記無彩色条件に基づき、前記原画像中の非中性色の被写体に相当する画素を判定し、前記原画像中の中性色の被写体に相当する画像部のみから、前記修正条件を決定するための画像特徴量を抽出し、抽出した画像特徴量を用いて前記修正条件を決定し、前記決定した修正条件に従って前記画像データを修正することを特徴としている。
【0026】
請求項1の発明では、複数の原画像のデータに基づいて、原画像中の中性色の被写体に相当する画素のR、G、Bの階調バランスを表す無彩色条件を定め、この無彩色条件に基づいて原画像中の非中性色の被写体に相当する画素を判定し、原画像中の中性色の被写体に相当する画像部のみから、修正条件を決定するための画像特徴量を抽出し、抽出した画像特徴量を用いて修正条件を決定するので、原画像中の非中性色の被写体に相当する画素の画像特徴量が修正条件に悪影響を及ぼす可能性が低減され、画像データが表す画像が適正な(グレイバランスのとれた)色バランスの画像となるように画像データを修正できる修正条件の得率が向上する。そして請求項1の発明では、決定した修正条件に従って画像データを修正するので、原画像中に存在する非中性色の被写体に相当する画像部が及ぼす影響を低減し、画像データが表す画像が適正な色バランスの画像となるように画像データを修正することができ、カラーフェリアの発生を防止することができる。
【0027】
請求項2記載の発明に係る画像処理方法は、原画像を表す画像データに対し、前記画像データが表す画像が少なくともグレイバランスのとれた色バランスの画像となるように、前記画像データを修正条件に従って修正する画像処理方法であって、前記修正条件の決定に用いる画像特徴量の抽出対象である、高濃度側階調値域に対応する前記原画像中の基準部分及び低濃度側階調値域に対応する前記原画像中の基準部分の少なくとも一方を検出し、前記検出した基準部分が前記原画像中の主要画像部に対応しているか否かを判定し、前記検出した基準部分から第1の画像特徴量を抽出すると共に、前記原画像と異なる複数の原画像から第2の画像特徴量を求め、前記検出した基準部分が前記主要画像部に対応していると判定した場合に、前記検出した基準部分が前記主要画像部に対応していないと判定した場合よりも、前記第1の画像特徴量が前記修正条件の決定に関与する度合いが低下するように、前記第1の画像特徴量及び前記第2の画像特徴量の重みを決定して重み付き平均値を演算し、演算した前記重み付き平均値に基づいて前記修正条件を決定し、前記決定した修正条件に従って前記画像データを修正することを特徴としている。
【0028】
請求項記載の発明では、画像データが表す画像が少なくともグレイバランスのとれた色バランスの画像となるように画像データを修正する修正条件を決定するにあたり、修正条件の決定に用いる画像特徴量の抽出対象である、高濃度側階調値域に対応する原画像中の基準部分及び低濃度側階調値域に対応する原画像中の基準部分の少なくとも一方を検出する。なお、本発明における階調値は、濃度値、透過度、明度、輝度、網点面積率等の画像の濃淡を表す値である。また、修正条件の決定に用いる基準部分の画像特徴量としては、例えば基準部分の色味に関連する画像特徴量、より詳しくは基準部分における各成分色毎の濃度、各成分色の色差、色比等が挙げられる。
【0029】
ところで、原画像中の主要画像部の階調値が極端に高い又は極端に低い等の場合には、前記基準部分として原画像中の主要画像部が検出されることがある。原画像中の主要画像部の色味は非中性色であることが殆どである(特に主要画像部が人物の顔に相当する画像部の場合)ことが経験的に知られているので、基準部分として原画像中の主要画像部が検出された場合には、原画像中の主要画像部の画像特徴量に基づいて修正条件を決定したとすると修正条件が主要画像部の色味の影響を受け、画像データが表す画像がグレイバランスがとれた色バランスの画像となるように画像データを修正できる修正条件が得られる確率は低い。
【0030】
これに対し請求項2の発明では、検出した基準部分が原画像中の主要画像部に対応しているか否かを判定し、検出した基準部分から第1の画像特徴量を抽出すると共に、前記原画像と異なる複数の原画像から第2の画像特徴量を求め、検出した基準部分が主要画像部に対応していると判定した場合に、検出した基準部分が主要画像部に対応していないと判定した場合よりも、第1の画像特徴量が修正条件の決定に関与する度合いが低下するように、第1の画像特徴量及び第2の画像特徴量の重みを決定して重み付き平均値を演算し、演算した重み付き平均値に基づいて修正条件を決定する。なお、前記修正条件の決定に関与する度合いを低下させることには、前記関与する度合いを0にする(すなわち修正条件の決定に用いない)ことも含む。
【0032】
これにより、色味が非中性色である可能性の高い主要画像部の画像特徴量が修正条件に悪影響を及ぼす可能性が低減されるので、画像データが表す画像がグレイバランスのとれた画像となり、主要画像部が適正な色味で再現されるように画像データを修正できる修正条件の得率が向上する。そして請求項の発明では、決定した修正条件に従って画像データを修正するので、原画像中の主要画像部の階調値が極端に高い又は低い場合にも(すなわち検出した基準部分の色味が非中性色の場合にも)、画像データが表す画像がグレイバランスのとれた画像となり、主要画像部が適正な色味で再現されるように画像データを修正することができ、カラーフェリアの発生を防止することができる。
【0033】
請求項記載の発明は、請求項の発明において、前記原画像中の主要画像部の階調値を算出し、算出した主要画像部の階調値が所定の階調値に修正されるように前記修正条件を決定することを特徴としている。
【0034】
請求項記載の発明では、原画像中の主要画像部の階調値を算出し、算出した主要画像部の階調値が所定の階調値に修正されるように修正条件を決定するので、原画像中の主要画像部の階調値が極端に高い又は低い場合であっても、画像データが表す画像中の主要画像部が適正な階調値で再現されるように画像データを修正できる修正条件を得ることができ、濃度フェリアの発生を防止することができる。
【0035】
請求項4記載の発明に係る画像処理装置は、原画像を表す画像データに対し、前記画像データが表す原画像が少なくともグレイバランスのとれた色バランスの画像となるように、前記画像データを修正条件に従って修正する画像処理装置であって、前記修正条件の決定に用いる画像特徴量の抽出対象である、高濃度側階調値域に対応する前記原画像中の基準部分及び低濃度側階調値域に対応する前記原画像中の基準部分の少なくとも一方を検出する検出手段と、前記検出手段によって検出された基準部分が前記原画像中の主要画像部に対応しているか否かを判定する判定手段と、前記検出された基準部分から第1の画像特徴量を抽出すると共に、前記原画像と異なる複数の原画像から第2の画像特徴量を求め、前記検出された基準部分が前記主要画像部に対応していると前記判定手段によって判定された場合に、前記検出された基準部分が前記主要画像部に対応していないと前記判定手段によって判定された場合よりも、前記第1の画像特徴量が前記修正条件の決定に関与する度合いが低下するように、前記第1の画像特徴量及び前記第2の画像特徴量の重みを決定して重み付き平均値を演算し、演算した前記重み付き平均値に基づいて前記修正条件を決定する決定手段と、前記決定手段によって決定された修正条件に従って前記画像データを修正する修正手段と、を備えたことを特徴としている。
【0036】
請求項記載の発明では、修正条件の決定に用いる画像特徴量の抽出対象である、高濃度側階調値域に対応する原画像中の基準部分及び低濃度側階調値域に対応する原画像中の基準部分の少なくとも一方が検出手段によって検出され、検出された基準部分が原画像中の主要画像部に対応しているか否かが判定手段によって判定され、決定手段では、検出された基準部分から第1の画像特徴量を抽出すると共に、前記原画像と異なる複数の原画像から第2の画像特徴量を求め、検出された基準部分が主要画像部に対応していると判定された場合に、検出された基準部分が主要画像部に対応していないと判定された場合よりも、第1の画像特徴量が修正条件の決定に関与する度合いが低下するように、第1の画像特徴量及び第2の画像特徴量の重みを決定して重み付き平均値を演算し、演算した重み付き平均値に基づいて修正条件を決定するので、請求項2の発明と同様に、原画像中の主要画像部の階調値が極端に高い又は低い場合にも、主要画像部が適正に再現されるように画像データを修正することができ、カラーフェリアの発生を防止することができる。
【0037】
【発明の実施の形態】
以下、図面を参照して本発明の実施形態の一例を詳細に説明する。
【0038】
〔第1実施形態〕
図1には本実施形態に係る写真処理システム10が示されている。写真処理システム10には、図示しないカメラによって画像が撮影記録されたネガフィルム12が多数本持ち込まれる。持ち込まれた多数本のネガフィルム12は、スプライシングテープ等によって繋ぎ合わされ、図示しないフィルムプロセッサで現像等の処理が行われた後にフィルム画像読取装置16へセットされる。
【0039】
フィルム画像読取装置16の内部には、フィルム搬送路に沿ってプレスキャン部36、ファインスキャン部38が順次配置されている。各スキャン部36、38ではネガフィルム12に記録されているフィルム画像の走査読み取りを各々行う。図2に示すように、プレスキャン部36よりもフィルム搬送路の上流側にはバーコードリーダ40が設けられている。バーコードリーダ40は、発光素子40Aと受光素子40Bとの対がフィルム搬送路を挟んで対向配置されて構成されている。受光素子40Bは制御回路42に接続されている。制御回路42は、受光素子40Bから出力される信号のレベルの変化に基づいて、ネガフィルム12に光学的に記録されている、フィルム種等を表すバーコードを読み取り、ネガフィルム12のフィルム種等を判断する。
【0040】
バーコードリーダ40とプレスキャン部36との間には、ネガフィルム12を挟持搬送する一対のローラ44、読取ヘッド46、画面検出センサ50が順次配置されている。読取ヘッド46及び画面検出センサ50は各々制御回路42に接続されている。フィルム画像読取装置16にセットされるネガフィルム12の中には、裏面に透明な磁性材料が塗布されて磁気層が形成され、この磁気層にコマ番号、フィルム種、撮影時の撮影条件等を表す情報が磁気記録されていることがある。読取ヘッド46は前記磁気層に磁気記録された情報を読取可能な位置に配置されており、前記情報を読み取って制御回路42へ出力する。
【0041】
また、画面検出センサ50は前述のバーコードリーダ40と同様に発光素子と受光素子の対で構成されている。制御回路42は画面検出センサ50の受光素子から出力される信号のレベルの変化に基づいて、ネガフィルム12上におけるフィルム画像の位置(及びサイズ)を判断する。
【0042】
一方、プレスキャン部36は、プレスキャン部36を通過するネガフィルム12へ向けて光を射出するように配置されたランプ52を備えている。ランプ52はドライバ54を介して制御回路42に接続されており、射出する光の光量が予め定められた所定値となるようにドライバ54から供給される電圧の大きさが制御回路42によって制御される。ランプ52の光射出側にはC(シアン)、M(マゼンダ)、Y(イエロー)の3枚の調光フィルタから成る調光フィルタ群56、光拡散ボックス58が順に配置されており、さらにフィルム搬送路を挟んで結像レンズ60、CCDラインセンサ62が順に配置されている。
【0043】
調光フィルタ群56の各調光フィルタは、CCDラインセンサ62におけるR、G、Bの3色の感度のばらつきを補正するために、光路中への挿入量が予め調整されている。調光フィルタ群56、光拡散ボックス58、ネガフィルム12及び結像レンズ60を順次透過した光はCCDラインセンサ62の受光面に照射される。CCDラインセンサ62は、Rの光の光量を検出するセンサ、Gの光の光量を検出するセンサ及びBの光の光量を検出するセンサが隣接配置されて成る多数のセンサユニットが、ネガフィルム12の幅方向に沿って所定間隔隔てて配列されて構成されている。
【0044】
従って、CCDラインセンサ62は画像を、前記センサユニットの間隔を1辺の大きさとする多数個の画素に分割し、各画素毎に透過光量を検出する。前記結像レンズ60は、ネガフィルム12を透過した光のうち、ランプ52から射出された光の光軸と交差しかつネガフィルム12の幅方向に沿った1画素列(以下、この画素列に対応する位置を読取位置という)を透過した光を、CCDラインセンサ62の受光面に結像させる。
【0045】
CCDラインセンサ62の出力側には、増幅器64、LOG変換器66、A/D変換器68が順に接続されている。CCDラインセンサ62から出力された信号は、増幅器64で増幅され、LOG変換器66で対数変換され、A/D変換器68によってデジタルの画像データ(フィルム画像の各画素のR、G、B毎の濃度値を表すデータ)に変換される。A/D変換器68は制御回路42に接続されており、A/D変換器68から出力された画像データはプレスキャン画像データとして制御回路42に入力される。なお、プレスキャン画像データは本発明の原画像情報に対応しており、プレスキャン部36は本発明の入力手段に対応している。
【0046】
制御回路42は、図示は省略するがCPU、ROM、RAM、入出力ポートを備え、これらがバスを介して互いに接続されて構成されている。また制御回路42は、入力されたプレスキャン画像データ等を記憶するための不揮発性の記憶部70と、ファインスキャン画像データ(後述)を記録用画像データに変換するためのルックアップテーブル(LUT)71を備えている。更に、制御回路42にはCRTディスプレイ72が接続されており、入力されたプレスキャン画像データを用いて処理を行って、ポジ画像をディスプレイ72に表示することも可能とされている。
【0047】
また、プレスキャン部36とファインスキャン部38との間には、搬送ローラ対74と従動ローラ76とから成るローラ群と、従動ローラ78A、78B、78Cから成るローラ群と、が所定間隔隔てて配置されている。この2つのローラ群の間ではネガフィルム12のループが形成される。このループにより、プレスキャン部36におけるネガフィルム12の搬送速度と、ファインスキャン部38におけるネガフィルム12の搬送速度と、の差が吸収される。搬送ローラ対74にはパルスモータ80が連結されている。パルスモータ80はドライバ82を介して制御回路42に接続されている。制御回路42はドライバ82を介してパルスモータ80を駆動することにより、ネガフィルム12を搬送させる。
【0048】
一方、ファインスキャン部38はプレスキャン部36とほぼ同一の構成とされている。すなわち、ファインスキャン部38はネガフィルム12へ向けて光を射出するランプ84を備えている。ランプ84はドライバ86を介して制御回路42に接続されており、射出する光が所定の光量となるようにドライバ86からの供給電圧の大きさが制御回路42によって制御される。ランプ84の光射出側には3枚の調光フィルタから成る調光フィルタ群88、光拡散ボックス90が順次配置されており、さらにフィルム搬送路を挟んで結像レンズ92、CCDラインセンサ94が順次配置されている。
【0049】
調光フィルタ群88の各調光フィルタも、CCDラインセンサ94におけるR、G、Bの3色の感度のばらつきを補正するために、光路への挿入量が予め調整されている。結像レンズ92は、調光フィルタ群88、光拡散ボックス90、ネガフィルム12を透過した光のうち、読取位置に位置している画素列を透過した光をCCDラインセンサ94の受光面に結像させる。CCDラインセンサ94もCCDラインセンサ62と同様の構成とされているが、センサユニットの間隔がCCDラインセンサ62よりも小さくされている。従って、CCDラインセンサ94はCCDラインセンサ62と比較して、画像をさらに細かくさらに多数個の画素に分割し、各画素毎に透過光量を検出する。
【0050】
CCDラインセンサ94の出力側には、増幅器96、LOG変換器98、A/D変換器100が順に接続されている。CCDラインセンサ94から出力された信号は、増幅器96で増幅され、LOG変換器98で対数変換された後に、A/D変換器100によってデジタルの画像データに変換される。A/D変換器100は制御回路42に接続されており、変換された画像データはファインスキャン画像データとして制御回路42に入力される。なお、ファインスキャン画像データは本発明の原画像情報に対応しており、ファインスキャン部38も本発明の入力手段に対応している。
【0051】
制御回路42は、詳細は後述するが、プレスキャン部36から入力されたプレスキャン画像データに基づいてLUT71に設定する変換データを求め、変換データを設定したLUT71により、ファインスキャン部38から入力されたファインスキャン画像データを印画紙等の記録材料に画像を記録するための記録用画像データに変換する。制御回路42はプリンタプロセッサ18のプリントヘッド120(詳細は後述)と接続されており、前記変換により得られた記録用画像データを記録信号に変換してプリントヘッド120へ転送する。
【0052】
また、ファインスキャン部38の下流側には搬送ローラ対102が配置されている。搬送ローラ対102にもパルスモータ104が連結されている。パルスモータ104はドライバ106を介して制御回路42に接続されている。制御回路42はドライバ106を介してパルスモータ104を駆動することにより、ネガフィルム12を搬送させる。
【0053】
一方、図1に示すように、プリンタプロセッサ18には層状に巻き取られた印画紙等の記録材料112を収納するマガジン114がセットされている。記録材料112はマガジン114から引き出され、カッタ部116を介してプリンタ部110へ送り込まれる。プリンタ部110にはプリントヘッド120が設けられており、このプリントヘッド120はフィルム画像読取装置16の制御回路42に接続されている。プリントヘッド120は、制御回路42から記録信号が転送されると、該記録信号に基づいて記録材料112への画像の露光を行う。
【0054】
このプリントヘッド120としては、例えばR、G、Bの各成分色毎のレーザ光を前記記録信号に応じて変調すると共に、記録材料112の搬送方向と直交する方向に沿って走査させて記録材料112に照射することにより、記録材料112上に画像を露光記録する構成のプリントヘッドを用いることができる。また、これに代えて、CRTや液晶パネル等の表示手段を備え、記録信号が表す画像を表示手段に表示させ、表示手段に表示された画像を記録材料112上に露光記録する構成(例えば表示手段としてCRTを用いた場合には、CRTから射出された光を直接又は空間光変調素子を介して記録材料112に照射することにより実現でき、表示手段として液晶パネルを用いた場合には、液晶パネルを透過した光を記録材料112に照射することにより実現できる)のプリントヘッドを用いてもよい。
【0055】
プリンタ部110を通過した記録材料112は、リザーバ部150へ送り込まれる。リザーバ部150は所定間隔隔てて一対のローラ152が設けられており、記録材料112はこの一対のローラ152間でループが形成される。このループによって、プリンタ部110と下流側のプロセッサ部154との搬送速度差が吸収される。プロセッサ部154には、発色現像槽156、漂白定着槽158、水洗槽160、162、164が順に配置されている。これら各処理槽内には各々所定の処理液が貯留されている。記録材料112は各処理槽内へ順に送り込まれ、各処理液に浸漬されて処理される。
【0056】
プロセッサ部154の下流側には乾燥部166が設けられている。乾燥部166は図示しないファンとヒータとによって生成した熱風を記録材料112に供給する。これにより、記録材料112の表面に付着した水分が乾燥される。乾燥部166を通過した記録材料112は、カッタ部168でプリント毎に切断された後にプリンタプロセッサ18の外部へ排出される。
【0057】
次に本第1実施形態の作用を説明する。図3は、本実施形態に係る制御回路42の作用を、機能毎にブロックに分けて示したものである。なお、図3ではプレスキャン部36から入力されるプレスキャン画像データを実線の矢印で、ファインスキャン部38から入力されるファインスキャン画像データを破線の矢印で各々示している。
【0058】
図3に示すように、制御回路42は、画像データ入力手段200、主要画像部抽出手段202、第1の変換条件設定手段204、変換条件記憶手段206、第2の変換条件設定手段208、変換条件決定手段210、画像信号変換手段212を備えている。各手段で実行される処理の詳細については、後にフローチャートを用いて詳述するが、画像データ入力手段200はプレスキャン部36及びファインスキャン部38に対応しており、プレスキャン画像データ及びファインスキャン画像データを各々入力する。
【0059】
主要画像部抽出手段202では、画像データ入力手段200から入力されたプレスキャン画像データに基づいて、ネガ画像中の主要画像部を抽出し、主要画像部の濃度を演算する。第1の変換条件設定手段204ではプレスキャン画像データに基づいて、該画像データが表すフィルム画像の色バランスを適正な色バランスに修正するための変換条件(第1の変換条件)を設定する。変換条件記憶手段206は記憶部70の記憶領域の一部を含んで構成されており、フィルム画像に関する情報を多数のフィルム画像について記憶している。第2の変換条件設定手段208は、変換条件記憶手段206に記憶されている多数のフィルム画像の情報に基づいて、多数のフィルム画像の第1の変換条件の平均に相当する変換特性を有する第2の変換条件を設定する。
【0060】
変換条件決定手段210では、主要画像部抽出手段202による主要画像部の抽出結果等に基づいて、色バランスの修正を行うフィルム画像に対して第1の変換条件設定手段204が設定した第1の変換条件と、第2の変換条件設定手段208が設定した第2の変換条件と、の各々に対する重みを定め、双方の変換条件の重み付き平均に相当する色バランス変換条件(具体的にはLUT71に設定する変換データ)を決定するか、或いは第2の変換条件のみから色バランス変換条件を決定する。
【0061】
画像信号変換手段212もLUT71を含んで構成されており、変換条件決定手段210によって決定された変換データをLUT71に設定し、該LUT71により、画像データ入力手段200から入力されたファインスキャン画像データに対する色バランスの変換(修正)を行う。
【0062】
次に図4のフローチャートを参照し、制御回路42で実行される色バランス変換条件の設定・変換処理について説明する。ステップ250では、プレスキャン部36からプレスキャン画像データが入力されたか否か判定する。判定が否定された場合にはステップ290へ移行し、ファインスキャン部38からファインスキャン画像データが入力されたか否か判定する。
【0063】
図2に示した構成からも明らかなように、フィルム画像読取装置16では各フィルム画像に対し、プレスキャン部36、ファインスキャン部38の順で、両スキャン部36、38において各々フィルム画像の読み取りを行うと共に、プレスキャン部36におけるフィルム画像の読み取りと、ファインスキャン部38におけるフィルム画像の読み取りとは非同期で行われる。このため、ステップ290の判定も否定された場合にはステップ250へ戻り、プレスキャン画像データ又はファインスキャン画像データが入力される迄、ステップ250、290を繰り返す。
【0064】
プレスキャン部36でフィルム画像の読み取りが行われてプレスキャン画像データが入力されると、ステップ250の判定が肯定されてステップ252へ移行し、入力されたプレスキャン画像データを取り込んで記憶部70に記憶する。次のステップ254以降では、ネガフィルムの発色濃度特性等に応じて画像データの各成分色毎の階調バランス(色バランス)の修正を行うための色バランス変換条件を求める。すなわち、本実施形態では多数のフィルム画像のデータ(プレスキャン画像データ)が、各々フィルム種と対応されて記憶部70に記憶されている。なお、このプレスキャン画像データは、後述するように第2の変換条件の設定に用いられるので、記憶部70は変換条件記憶手段206に対応している。
【0065】
ステップ254では、バーコードリーダ40がネガフィルム(フィルム画像が記録されているネガフィルム)に記録されているバーコードを読み取ることによって検出された前記ネガフィルムのフィルム種を取込み、記憶部70に予め記憶されている多数のフィルム画像のデータのうち、前記取り込んだフィルム種と同一のフィルム種のネガフィルムに記録されていたフィルム画像のデータを取り込む。
【0066】
次のステップ256では、取り込んだ多数のフィルム画像のデータに基づき、多数のフィルム画像の平均的な3色の階調バランスを表す平均階調バランス曲線を決定する。この平均階調バランス曲線は、例えばG濃度又は3色平均濃度を基準濃度として定めることができる。例えば基準濃度としてG濃度を用いた場合には、多数のフィルム画像の各画素を各画素のG濃度の高低に基づいてクラス分けし、各クラス毎にR濃度の平均値及びB濃度の平均値を演算する。そして、G濃度とR濃度の平均値との関係、及びG濃度とB濃度の平均値との関係を最小二乗法等により直線又は曲線で近似することにより、平均階調バランス曲線(又は直線)を得ることができる。図5には、基準濃度としてG濃度を用いた場合のG濃度とR濃度との関係を表す平均階調バランス曲線の一例を示す。
【0067】
ステップ256では、同一フィルム種のネガフィルムに記録されていた多数のフィルム画像のデータを用いて平均階調バランス曲線を定めているので、この平均階調バランス曲線は、前記フィルム種のフィルム画像に記録されている大多数の標準的なフィルム画像におけるグレイ部分の3色のバランスを表している。なお、ステップ254、256で平均階調バランス曲線を決定することに代えて、平均階調バランス曲線をフィルム種毎に予め定めて記憶しておき、対応する平均階調バランス曲線を取り込んで用いるようにしてもよい。
【0068】
次のステップ258では、先のステップ252で取り込んだプレスキャン画像データに基づいて、該プレスキャン画像データに対応するフィルム画像に対し、各成分色毎に最大基準濃度dxi 、最小基準濃度dni (但しi はR、G、Bの何れかを表す、以下では「個別最大基準濃度dxi 」、「個別最小基準濃度dni 」と称する)を演算する。この個別最大基準濃度dxi 、個別最小基準濃度dni としては、例えば三色平均濃度が最大又は最小の画素の各成分色毎の濃度値を用いることができる。
【0069】
個別基準濃度dxi 、dni は、色バランス修正対象のフィルム画像に対して個別の色バランス変換条件を設定する際に用いられる基準濃度であり、各成分色毎の個別最大基準濃度dxi が各々第1の所定濃度に変換され、各成分色毎の個別最小基準濃度dni が各々第2の所定濃度に変換されるように色バランス変換条件を定めたとすると、ネガフィルムのフィルム種毎のフィルム特性のばらつきを補正できると共に、色バランス修正対象のフィルム画像に照明光の種類の相違等に起因する全体的な色バランスの偏倚があれば、これを補正できる変換特性を有する色バランス変換条件が得られる。従って、個別最大基準濃度dxi 及び個別最小基準濃度dni は第1の変換条件に対応しており、個別基準濃度dxi 、dni を設定するステップ258は、第1の変換条件設定手段204に対応している。
【0070】
また、ステップ258で各成分色毎の濃度を個別基準濃度dxi 、dni として採用したフィルム画像中の特定画素は、請求項に記載の基準部分に対応しており、個別基準濃度dxi 、dni は基準部分から抽出した画像特徴量に対応している。
【0071】
ステップ260では、上記で設定した個別最大基準濃度dxi 及び個別最小基準濃度dni に基づき、前述の平均階調バランス曲線より平均最大基準濃度DXi 及び平均最小基準濃度DNi を決定する。具体的には、例えば平均階調バランス曲線がG濃度を基準濃度として定められている場合には、個別最大基準G濃度dxGを平均最大基準G濃度DXGとすると共に個別最小基準G濃度dnGを平均最小基準G濃度DNGとし、この平均基準G濃度DXG、DNGに基づいて平均階調バランス曲線からR及びBについての平均基準濃度DXi 、DNi を決定する(図6には、平均基準G濃度DXG、DNGから平均基準R濃度DXR、DNRを求めている例を示す)。
【0072】
平均基準濃度DXi 、DNi は、同一フィルム種のネガフィルムに記録された多数のフィルム画像のデータから定めた平均階調バランス曲線を用いて求めているので、各成分色毎の平均最大基準濃度DXi が各々第1の所定濃度に変換され、各成分色毎の平均最小基準濃度DNi が各々第2の所定濃度に変換されるように色バランス変換条件を定めたとすると、ネガフィルムのフィルム種毎のフィルム特性のばらつきを補正できると共に、濃度値が個別基準濃度dxi 又はdni として採用されるフィルム画像中の特定画素の色味が非中性色であったとしても、該フィルム画像中の中性色(グレイ)の被写体に相当する部分を記録画像上でグレイとして再現できる(グレイバランスのとれた色バランスの記録画像が得られる)変換特性を有する色バランス変換条件が得られる。従って、平均最大基準濃度DXi 及び平均最小基準濃度DNi は第2の変換条件に対応しており、平均基準濃度DXi 、DNi を決定するステップ260は、ステップ254、256と共に第2の変換条件設定手段208に対応している。
【0073】
次のステップ262では、先のステップ252で取り込んだプレスキャン画像データに基づいて、フィルム画像中の主要画像部を抽出し、主要画像部濃度DNFを演算により推定する。このステップ262は主要画像部抽出手段202に対応している。なお主要画像部濃度としては、R、G、Bの各成分色のうちの何れか1色、又は各成分色の重み付き平均値等を用いることができる。
【0074】
主要画像部の抽出及び主要画像部濃度DNFの推定は、例えば入力されたプレスキャン画像データに基づいてディスプレイ72等にフィルム画像を表示し(ポジ画像に変換して表示することが好ましい)、ライトペン等によりフィルム画像中の主要画像部をオペレータに指定させることによりフィルム画像中の主要画像部の位置を特定し、位置を特定した領域の平均濃度等を主要画像部濃度DNFとすることができる。
【0075】
また、主要画像部の抽出及び主要画像部濃度DNFの推定は、上記のようにオペレータの手を煩わすことなく自動的に推定することも可能である。すなわち、主要画像部としてのフィルム画像中の人物の顔に相当する領域(顔領域)を抽出し、抽出した顔領域の濃度(例えば平均濃度等)を主要画像部濃度とする。顔領域の抽出方法としては、例えば特開昭 52-156624号公報、特開昭 52-156625号公報、特開昭53-12330号公報、特開昭 53-145620号公報、特開昭 53-145621号公報、特開昭 53-145622号公報等に記載されているように、フィルム画像の測光によって得られた測光データに基づき、各画素が色座標上で肌色の範囲内に含まれているか否か判定し、肌色の範囲内と判断した画素のクラスタ(群)が存在している領域を顔領域として抽出することができる。
【0076】
また、本願出願人が特開平4-346333号公報、特開平5-100328号公報、特開平5-165120号公報等で提案しているように、画像データに基づいて色相値(及び彩度値)についてのヒストグラムを求め、求めたヒストグラムを山毎に分割し、各測定点が分割した山の何れに属するかを判断して各測定点を分割した山に対応する群に分け、各群毎に画像を複数の領域に分割し(所謂クラスタリング)、該複数の領域のうち人物の顔に相当する領域を推定し、推定した領域を顔領域として抽出する抽出方式を適用するようにしてもよい。
【0077】
また、本願出願人が既に特開平8-122944号、特開平8-184925号で提案しているように、画像データに基づいて、画像中に存在する人物の各部に特有の形状パターン(例えば頭部の輪郭、顔の輪郭、顔の内部構造、胴体の輪郭等を表す形状パターン)の何れか1つを探索し、検出した形状パターンの大きさ、向き、検出した形状パターンが表す人物の所定部分と人物の顔との位置関係に応じて、人物の顔に相当すると推定される領域を設定すると共に、検出した形状パターンと異なる他の形状パターンを探索し、先に設定した領域の、人物の顔としての整合性を求め、顔領域を抽出する抽出方式を適用することも可能である。
【0078】
更に、フィルム画像中の背景に相当すると推定される領域(背景領域)を判断し、背景領域以外の領域を主要画像部に相当する領域として抽出するようにしてもよい。具体的には、画像データに基づいて各画素の色が、色座標上で明らかに背景に属する特定の色(例えば空や海の青、芝生や木の緑等)の範囲内に含まれているか否か判定し、前記特定の色範囲内と判断した画素のクラスタ(群)が存在している領域を背景領域と判断して除去し、残った領域を非背景領域(主要画像部)として抽出することができる。同様に、明らかに背景に属する特定濃度の範囲内に含まれるか否かを判定して背景領域を求め、残った領域を主要画像部として抽出するようにしてもよい。
【0079】
また、本願出願人が特開平8-122944号、特願平6-266598号で提案しているように、前記と同様にして画像を複数の領域に分割した後に、各領域毎に背景に相当する領域としての特徴量(輪郭に含まれる直線部分の比率、線対称度、凹凸数、画像外縁との接触率、領域内の濃度コントラスト、領域内の濃度の変化パターンの有無等)を求め、求めた特徴量に基づいて各領域が背景領域か否か判定し背景部と判断した領域を除去し、残った領域を非背景領域(主要画像部)として抽出するようにしてもよい。
【0080】
また、上記のようにフィルム画像中に存在する主要画像部の位置を特定することなく、ネガフィルム12の磁気層から読取ヘッド46によって読み取った撮影条件を表す情報(例えば撮影時のストロボ発光の有無や撮影時に測定された被写体との距離)等に基づいて、フィルム画像中の主要画像部濃度を推定することも可能である。例えばフィルム画像が、ストロボを発光させて撮影された画像であり、かつ被写体との距離が近距離〜中距離程度の場合、主要画像部は高濃度〜中濃度の階調値範囲に存在(但しフィルム画像がネガ画像の場合)していると推定できる。また、撮影時に測定された被写体輝度等の撮影条件も考慮して主要画像部濃度を推定することも可能である。
【0081】
更に、フィルム画像中に、顔領域等のように明らかに主要画像部と判断できる画像部が存在していない場合には、例えばフィルム画像を、ハイライト画像部を重視すべき画像、シャドー画像部を重視すべき画像、中間階調値画像部を重視すべき画像等に分類し、主要画像部濃度として各分類毎に予め定められた濃度値を用いたり、フィルム画像中の予め定められた領域の濃度値を主要画像部濃度とすることができる。
【0082】
また、フィルム画像を面露光により記録材料に記録する場合の露光量は、フィルム画像の各種の画像特徴量に基づいて決定されることが一般的であるが、この露光量決定方法によって主要画像部を適正に再現できる露光量が得られるのであれば、前記露光量決定方法によりフィルム画像を面露光する際の露光量を演算し、得られた露光量に対応する濃度値を逆算して主要画像部濃度を求めることも可能である。
【0083】
上記のようにして主要画像部の抽出、主要画像部濃度DNFの推定を行うとステップ264へ移行し、先のステップ258で各成分色毎の濃度値を個別基準濃度dxi 、dni として採用したフィルム画像中の特定画素は、ステップ262で抽出した主要画像部に対応する画素か否か判定する。判定が肯定された場合にはステップ266へ移行し、先のステップ262における主要画像部の抽出精度(主要画像部として抽出した領域の確度)が高いか否か判定する。このステップ264、266は請求項に記載の判定手段に対応している。
【0084】
このステップ264又はステップ266の判定が否定された場合は、先のステップ258で濃度値を個別基準濃度dxi 、dni として採用したフィルム画像中の特定画素が、主要画像部に対応していない画素か、又は主要画像部に対応していると断定できない画素である場合である。このため、ステップ264又はステップ266の判定が否定された場合にはステップ270へ移行し、個別基準濃度dxi 、dni に対する重み係数w1 (第1の変換条件に対する重みに相当)及び平均基準濃度DXi 、DNi に対する重み係数w2 (第2の変換条件に対する重みに相当)を決定する。重み係数w1 、w2 は、一例として以下のようにして決定することができる。
【0085】
例えば、先のステップ264の判定が否定されてステップ270に移行した場合には、濃度値を個別基準濃度dxi 、dni として採用したフィルム画像中の特定画素が主要画像部に対応していない画素である可能性が高いので、個別基準濃度dxi 、dni に対する重みを比較的大きくする(例えばw1 =w2 =0.5 や、w1 >0.5 でw2 <0.5 等)。
【0086】
一方、ステップ264の判定は肯定されたものの、ステップ266の判定が否定されてステップ270に移行した場合には、濃度値を個別基準濃度dxi 、dni として採用したフィルム画像中の特定画素が主要画像部に対応する画素である可能性も若干残っている。主要画像部の色味は非中性色であることが殆どであるので、個別基準濃度dxi 、dni がフィルム画像中の非中性色の部分の色バランスを表している可能性がある。このため、ステップ264の判定が否定された場合よりも個別基準濃度dxi 、dni に対する重みを比較的小さくする(例えばw1 <0.5 でw2 >0.5 等)。
【0087】
上述した各基準濃度に対する重みの決定は、請求項2に記載の「基準部分が主要画像部に対応していると判定した場合に、基準部分が主要画像部に対応していないと判定した場合よりも、第1の画像特徴量(本実施形態では個別基準濃度dxi 、dni )が修正条件の決定に関与する度合いを低下させ」ることに相当している。
【0088】
また、上記以外の他の条件に応じて各基準濃度に対する重みを更に調整するようにしてもよい。例えば個別基準濃度dxi 、dni と平均基準濃度DXi 、DNi とが近似している場合(すなわち第1の変換条件と第2の変換条件とが近似している場合)には、色バランス修正対象のフィルム画像は、照明光の相違等に起因する全体的な色バランスの偏倚のない画像である可能性が高いので、平均基準濃度DXi 、DNi に対する重みが大きくなるように調整してもよい。
【0089】
また、標準的な照明光(例えば昼光)で照明されたシーンを表すフィルム画像に対し、照明光の種類の相違によりフィルム画像の3色のバランスがどのように変化するかは従来より知られている。このため、例えば平均基準濃度DXi 、DNi が表す3色のバランスを基準(すなわちグレイ)としたときの個別基準濃度dxi 、dni が表す3色のバランスの差異が、照明光の種類の相違とみなせる差異か否かを判断し、照明光の種類が異なっていると判断した場合には、個別基準濃度dxi 、dni に対する重みが大きくなるように調整してもよい。
【0090】
ステップ272では上記で決定された重み係数w1 、w2 を用い、次の(1)式及び(2)式に従って個別最大基準濃度dxi と平均最大基準濃度DXi との重み付き平均濃度DDXi 、個別最小基準濃度dni と平均最小基準濃度DNi との重み付き平均濃度DDNi を各々演算する。
【0091】
DDXi =w1 ・dxi +w2 ・DXi …(1)
DDNi =w1 ・dni +w2 ・DNi …(2)
そして、次のステップ274では重み付き平均濃度DDXi 、DDNi を基準濃度として、ファインスキャン画像データに対して色バランスの修正を行うための色バランス変換条件を決定する。具体的には、予め定められている高濃度側記録濃度Dsi 及び低濃度側記録濃度Dhi を取込み、記録用画像データに対してネガ−ポジ変換も同時に行うため、重み付き平均濃度DDXi が低濃度側記録濃度Dhi に変換され、重み付き平均濃度DDNi が高濃度側記録濃度Dsi に変換されるように、各成分色毎に色バランス変換条件を決定(詳しくはルックアップテーブル71に設定する色バランス変換データの生成)する。
【0092】
なお、図6にはR濃度に対する色バランス変換条件の一例(すなわち、重み付き平均R濃度DDXRを低濃度側R記録濃度DhRに変換し、重み付き平均R濃度DDNRを高濃度側R記録濃度DsRに変換する変換特性の色バランス変換条件)を示す。このステップ276は、先のステップ274と共に請求項に記載の決定手段(変換条件決定手段210)に対応している。なお、フィルム画像がポジ画像である等のようにネガ−ポジ変換を行う必要がない場合には、重み付き平均濃度DDXi が高濃度側記録濃度Dsi に変換され、重み付き平均濃度DDNi が低濃度側記録濃度Dhi に変換されるように色バランス変換条件を定めればよい。
【0093】
上記の色バランス変換条件は、個別基準濃度dxi 、dni と平均基準濃度DXi 、DNi との重み付き平均に相当する変換条件であり、濃度値を個別基準濃度dxi 、dni として採用したフィルム画像中の特定画素が主要画像部に対応する画素である可能性がある場合には、個別基準濃度dxi 、dni に対する重みを小さくしているので、ネガフィルムのフィルム種、濃度値を個別基準濃度dxi 、dni として採用したフィルム画像中の特定画素の色味が非中性色か否か等に拘らず、フィルム画像中の各画像部が記録画像上で適正な色味で再現されるようにファインスキャン画像データの色バランスを修正できる色バランス変換条件が得られる。
【0094】
一方、先のステップ264及びステップ266の判定が各々肯定された場合には、色バランス修正対象のフィルム画像は、例えばストロボを発光させて撮影した等により主要画像部濃度DNFが極端に高い又は低い画像であり、濃度値を個別基準濃度dxi 、dni として採用したフィルム画像中の特定画素が主要画像部に対応する画素である可能性が非常に高い。主要画像部の色味は非中性色であることが殆どであるので、個別基準濃度dxi 、dni 用いて色バランス変換条件を決定し、決定した色バランス変換条件に従って色バランスの修正を行ったとすると、変換後の画像データが表す画像はグレイバランスのとれた色バランスとはならない確率が高い。
【0095】
このため、ステップ264及びステップ266の判定が各々肯定された場合にはステップ268に移行し、個別基準濃度dxi 、dni を用いることなく、平均基準濃度DXi 、DNi を基準濃度として色バランス変換条件を決定する。具体的には、平均最大基準濃度DXi が低濃度側記録濃度Dhi に変換され、平均最小基準濃度DNi が高濃度側記録濃度Dsi に変換されるように、各成分色毎に色バランス変換条件を決定(詳しくはルックアップテーブル71に設定する色バランス変換データの生成)する。
【0096】
上記の色バランス変換条件は、第2の変換条件に相当する平均基準濃度DXi 、DNi のみを用いて求めているので、ネガフィルムのフィルム種、濃度値を個別基準濃度dxi 、dni として採用したフィルム画像中の特定画素の色味が非中性色か否か等に拘らず、フィルム画像中の各画像部が記録画像上で適正な色味で再現されるようにファインスキャン画像データの色バランスを修正できる色バランス変換条件が得られる。
【0097】
このステップ268における色バランス変換条件の決定についても、請求項2に記載の「基準部分が主要画像部に対応していると判定した場合に、基準部分が主要画像部に対応していないと判定した場合よりも、第1の画像特徴量が修正条件の決定に関与する度合いを低下させ」ることに相当している。なお、ステップ264及びステップ266の判定が各々肯定された場合に、ステップ268の処理に代えて、ステップ270で個別基準濃度dxi 、dni に対する重み係数w1 をw1 =0として、ステップ272以降の処理を行うようにしてもよい。
【0098】
次のステップ276では、上記で決定した色バランス変換条件を、フィルム画像のコマ番号と対応させて記憶部70に記憶し、ステップ250に一旦戻る。なお、上述したステップ252〜276の処理は、ファインスキャン画像データよりも解像度が低くデータ量の少ないプレスキャン画像データを対象として行われるので、ファインスキャン画像データを対象として処理を行う場合と比較して、より短時間で処理を完了させることができる。
【0099】
一方、ファインスキャン部38でフィルム画像の読み取りが行われてファインスキャン画像データが入力されると、ステップ290の判定が肯定されてステップ292へ移行し、入力されたファインスキャン画像データを取り込んで記憶部70に一旦記憶し、次のステップ294では、先に取り込んだファインスキャン画像データが表すフィルム画像に対応する色バランス変換条件(ルックアップテーブル71に設定すべき色バランス変換データ)を、前記フィルム画像のコマ番号をキーにして検索して取り込み、取り込んだ色バランス変換データをルックアップテーブル71に設定する。
【0100】
ステップ296ではファインスキャン画像データを各成分色のデータ毎にルックアップテーブル71に入力する。これにより、ファインスキャン画像データは、ステップ294で取り込んだ色バランス変換条件に従って、フィルム画像が記録されているネガフィルムのフィルム特性や、濃度値を個別基準濃度dxi 、dni として採用したフィルム画像中の特定画素の色味が非中性色か否か等に拘らず、記録用画像がグレイバランスのとれた画像となるように色バランスが修正されて、ルックアップテーブル71から記録信号として出力される。
【0101】
次のステップ298では記録信号をプリントヘッド120に出力してステップ250に戻る。これにより、プリンタプロセッサ18ではプリントヘッド120により、フィルム画像がポジ画像として記録材料に記録される。上記処理が繰り返されることにより、ネガフィルム12に記録された各フィルム画像から、グレイバランスがとれ、各フィルム画像中の主要画像部を含む各画像部が適正な色味で再現された記録画像を各々得ることができ、記録画像にカラーフェリアが発生することを防止することができる。
【0102】
〔第2実施形態〕
次に本発明の第2実施形態について説明する。なお、本第2実施形態は第1実施形態と同一の構成であるので、各部分に同一の符号を付して構成の説明を省略し、以下、本第2実施形態の作用を説明する。
【0103】
本第2実施形態に係る制御回路42の作用を機能毎にブロックに分けて示したとすると、第1実施形態で説明した図3と同じになるが、本第2実施形態では変換条件決定手段210において、主要画像部濃度DNFが色バランス変換条件の設定に用いる基準濃度(重み付き平均濃度DDXi 、DDNi 又は平均基準濃度DXi 、DNi )と等しいか否か判定し、主要画像部濃度DNFが基準濃度と等しいと判定した場合には、色バランス変換条件の修正を行う。
【0104】
次に図7のフローチャートを参照し、本第2実施形態に係る制御回路42で実行される色バランス変換条件の設定・変換処理について、第1実施形態で説明した処理と異なる部分についてのみ説明する。
【0105】
本第2実施形態では、ステップ264又はステップ266の判定が否定された場合(濃度値を個別基準濃度dxi 、dni として採用したフィルム画像中の特定画素が、主要画像部に対応していない画素か、又は主要画像部に対応していると断定できない画素であった場合)に、ステップ270で個別基準濃度dxi 、dni 及び平均基準濃度DXi 、DNi に対する重みを決定し、決定した重みに基づいてステップ272で重み付き平均濃度DDXi 、DDNi を演算し、重み付き平均濃度DDXi 、DDNi を基準濃度としてステップ274で色バランス変換条件を決定した後にステップ284へ移行し、主要画像部濃度DNFが、重み付き平均濃度DDXi の三色平均値DDX又は重み付き平均濃度DDNi の三色平均値DDNに等しいか(又は略等しいか)否か判定する。
【0106】
主要画像部濃度DNFが濃度DDX又は濃度DDNに等しい(又は略等しい)場合、先のステップ274で決定された色バランス変換条件を用いてファインスキャン画像データの変換を行ったとすると、主要画像部濃度DNFが低濃度側記録濃度Dhi 又は高濃度側記録濃度Dsi に変換され(又は前記何れかの記録濃度に近い値に変換され)、記録画像上での主要画像部の濃度が極端に高い又は極端に低くなる、所謂濃度ファリアが発生すると判断できる。このため、ステップ284の判定が肯定された場合にはステップ286に移行し、主要画像部濃度DNFが適正な濃度値に変換されるように色バランス変換条件を修正する。
【0107】
LUT71に設定する色バランス変換データは、変換前の濃度値と変換後の濃度値との対応を定めたデータであるが、上記の色バランス変換条件の修正は、例えば色バランス変換データに対し、該色バランス変換データにおける変換後の濃度値を修正することにより実現できる。例えば主要画像部濃度DNFが濃度DDXに一致していた場合、図8(A)に示すように重み付き平均濃度DDXi が主要画像部記録濃度Df(主要画像部記録濃度Df>低濃度側記録濃度Dhi)に変換され、変換前の濃度値に対して変換後の濃度値が全体的に高濃度側にシフトする(図8(A)の矢印参照)ように、色バランス変換データにおける変換後の濃度値を修正する。
【0108】
また色バランス変換条件の修正は、色バランス変換データにおける変換前の濃度値を修正することによっても実現できる。例えば濃度DDXが主要画像部濃度DNFに一致していた場合、図8(B)に示すように、重み付き平均濃度DDXi が主要画像部記録濃度Dfに変換され、変換後の濃度値に対して変換前の濃度値が高濃度側に濃度補正量ΔDだけ全体的にシフトする(図8(B)の矢印参照)ように、色バランス変換データにおける変換前の濃度値を修正する。これにより、低濃度側記録濃度Dhi に変換される濃度値はDDXi'(但し、DDXi'=DDXi +ΔD)となる。なお、図8(A)、図8(B)のシフト量は各成分色とも同じでなければならない。
【0109】
第1実施形態でも説明したように、本実施形態では、ファインスキャン画像データを色バランス変換条件に従って変換することにより得られる記録信号に基づいて記録材料112への画像の露光を行うので、記録画像上での主要画像部濃度を変更する(図8の例では、記録画像上での主要画像部濃度を低濃度側記録濃度Dhiから主要画像部記録濃度Dfに変更している)ことは、記録材料112への露光量の変更によって実現できる。露光量の変化と、この露光量の変化に相当するネガ濃度の変化との関係は予め判っている(例えば露光量で20%の変化に相当するネガ濃度の変化は0.07である)ので、濃度補正量ΔDは記録画像上での主要画像部濃度を主要画像部記録濃度Dfに変更するための露光量の変化量から求めることができる。
【0110】
なお、上記では主要画像部濃度DNFが濃度DDXに等しい(又は略等しい)場合を例に説明したが、主要画像部濃度DNFが濃度DDNに等しい(又は略等しい)場合についても、上記と同様にして色バランス変換条件を修正できることは言うまでもない。
【0111】
ステップ286で上記のようにして色バランス変換条件を修正すると、ステップ276へ移行する。また、ステップ284の判定が否定された場合には記録画像上で濃度フェリアは発生しないので、何ら処理を行うことなくステップ276へ移行する。
【0112】
一方、ステップ264及びステップ266の判定が肯定された場合(濃度値を個別基準濃度dxi 、dni として採用したフィルム画像中の特定画素が、主要画像部に対応している画素であった場合)には、ステップ268で平均基準濃度DXi 、DNi を基準濃度として色バランス変換条件を決定した後にステップ280へ移行する。ステップ280では主要画像部濃度DNFが、平均最大基準濃度DXi の三色平均値DX又は平均最小基準濃度DNi の三色平均値DNに等しいか(又は略等しいか)否か判定する。
【0113】
ステップ280の判定が肯定された場合には、記録画像上で濃度フェリアが発生する可能性があるので、ステップ282で先のステップ286と同様にして色バランス変換条件を修正した後にステップ276へ移行する。また、ステップ280の判定が否定された場合には、何ら処理を行うことなくステップ276へ移行する。上述したステップ262、286、282は請求項の発明に対応している。
【0114】
上記により、フィルム画像中の主要画像部濃度DNFが極端に高い又は極端に低い場合にも、記録画像上で主要画像部の濃度が極端に高く又は低くなる、所謂濃度フェリアが発生することを防止することができる。
【0115】
なお、上記では濃度値を個別基準濃度dxi 、dni として採用したフィルム画像中の特定画素が主要画像部に対応する画素であると判定した場合に、個別基準濃度dxi 、dni が色バランス変換条件の決定に関与する度合いを低下させるようにしていたが、これに限定されるものではなく、例えば濃度値を高濃度側の個別基準濃度dxi として採用した画素が主要画像部に対応する画素であった場合に、低濃度側の個別基準濃度及び中濃度域の個別基準濃度を演算して低濃度域〜中濃度域の色バランス変換条件を求め、この色バランス変換条件を外挿等により高濃度側に拡張して、低濃度側から高濃度側に至る色バランス変換条件を決定するようにしてもよい。
【0116】
また、上記では個別基準濃度dxi 、dni を演算した後に、濃度値を個別基準濃度dxi 、dni として採用したフィルム画像中の特定画素が主要画像部に対応する画素か否かを判定するようにしていたが、これに限定されるものではなく、フィルム画像中の主要画像部を先に抽出しておき、フィルム画像から主要画像部領域を除いた領域から個別基準濃度dxi 、dni を求めるようにしてもよい
【0117】
また、上記では非中性色の被写体に相当する画像部として主要画像部を用いていたが、これに限定されるものではなく、例えば複数のフィルム画像のデータに基づいて、フィルム画像中の中性色又は中性色に近似した色味の被写体に相当する画素のR、G、Bの階調バランスを表す無彩色条件を定め、この無彩色条件に合致しない画素、或いは無彩色条件に合致する画素を除いた画素を非中性色の被写体に相当する画素と判定し、非中性色の被写体に相当する画素を除外するか、又は前記画素の画像特徴量が色バランス変換条件の決定に関与する度合いが小さくなるように色バランス変換条件を決定するようにしてもよい。この態様請求項1の明に対応している。無彩色条件は、例として以下のようにして決定することができる。
【0118】
すなわち、複数のフィルム画像(同一の写真フィルムに記録されている画像群であっても、同一のフィルム種の写真フィルムに記録されている画像群であっても、画像内容や撮影条件が類似している画像群であってもよい)の各々に対し、高濃度側及び低濃度側における無彩色の条件を表す高濃度側R、G、B基準濃度及び低濃度側R、G、B基準濃度を各々設定して平均値(高濃度側平均R、G、B基準濃度及び低濃度側平均R、G、B基準濃度)を演算し、例として図9に示すように、色座標(図9ではR濃度−G濃度を横軸、G濃度−B濃度を縦軸にとった色座標を例として示す)上に高濃度側平均R、G、B基準濃度及び低濃度側平均R、G、B基準濃度を各々プロットし、例えば両者を直線(無彩色線と称する)で結び、例えば無彩色線を中心とする一定の範囲(例えば図9に破線で囲んで示す範囲)を無彩色条件とすることができる。そして、色バランス修正対象のフィルム画像のデータの中から、R、G、B濃度が前記一定の範囲内に入る画素を中性色又は中性色に近似した色味の被写体に相当する画素とすることができる。
【0119】
更に、上記では同一フィルム種のネガフィルムに記録された多数のフィルム画像のデータを用いて、フィルム種毎に平均基準濃度DXi 、DNi (第2の変換条件)を求めていたが、これに限定されるものではなく、同一のネガフィルムに記録された複数のフィルム画像のデータを用いて1本のフィルム毎に第2の変換条件を求めるようにしてもよいし、所定の画像特徴量が近似している複数のフィルム画像のデータを用いて第2の変換条件を求めるようにしてもよい。また、ネガフィルムの磁気層に磁気記録されている情報等に基づき、撮影条件(例えば照明光の種類、撮影場所、撮影時間帯等)が類似しているフィルム画像のデータを用いて第2の変換条件を求めるようにしてもよい。
【0120】
また、上記ではプレスキャン画像データを多数のフィルム画像について記憶しておき、多数のフィルム画像のプレスキャン画像データに基づいて平均階調バランス曲線を定めていたが、これに限定されるものではなく、プレスキャン画像データから所定の基準に従って選択した画素(例えば色味がグレイに近い画素)のデータのみを記憶しておき、該データを取り込んで平均階調バランス曲線を求めるようにしてもよいし、各フィルム画像に対して設定した個別最大基準濃度dxi 及び個別最小基準濃度dni のみを記憶しておき、各個別基準濃度の平均値に基づいて平均階調バランス曲線を定めてもよい。
【0121】
また、上記では多数のフィルム画像のデータが記憶部70に予め記憶されている場合を例に説明したが、これに限定されるものではなく、色バランス変換条件の決定と並行してフィルム画像のデータを記憶部70に記憶・蓄積するようにしてもよい。また、一定量の情報が蓄積された段階で、新たな情報の記憶を停止するか、新たな情報を記憶する代わりに古い情報を消去するようにしてもよい。また記憶部70に記憶した時期等に応じて各情報の重みを変化させて(例えば新しく記憶した情報の重みを大きくして)、平均基準濃度DXi 、DNi (第2の変換条件)を演算するようにしてもよい。
【0122】
更に、上記の個別基準濃度dxi 、dni 、平均基準濃度DXi 、DNi に代えて、変換前の濃度と変換後の濃度との関係を表す変換条件を各々定めるようにしてもよい。この変換条件は変換特性が線形であっても非線形であってもよく、変換特性を変換テーブルの形態で表したものであってもよいし、数式の形態で表したものであってもよい。また、上記では個別基準濃度dxi 、dni に対する重み係数及び平均基準濃度DXi 、DNi に対する重み係数をフィルム画像単位で定めていたが、これに限定されるものではなく、例えば上述したように変換特性を変換テーブルの形態で表した変換条件を用いる場合には、変換テーブルのテーブル値単位で重み係数を定めるようにしてもよい。これは、変換条件の変換特性が非線形の場合に特に有効である。
【0123】
また、上記では入力されたファインスキャン画像データに対して、色バランス変換条件に応じた色バランスの修正を行うようにしていたが、入力されたファインスキャン画像データに対して所定の階調変換処理を行い(ファインスキャン画像データを、フィルム画像の濃淡を表す濃度データとフィルム画像の色を表す色データとに分離し、濃度データに対して階調変換処理を行ってもよい)、階調変換後の画像データに対して色バランス変換条件に応じた色バランスの修正を行うようにしてもよい。
【0124】
また、上記では2つのスキャン部(プレスキャン部36及びファインスキャン部38)を設けていたが、これに限定されるものではなく、例えば上記実施形態におけるファインスキャン部に相当する単一のスキャン部を設け、該スキャン部から入力された画像データに対し、画素を結合させて画素数を少なくする画素密度変換や一定間隔で画素を抽出する方法等の画像処理を行い、画素数を少なくした画像データを、上記実施形態で説明したプレスキャン画像データとして同様に用いてもよい。
【0125】
また、上記ではフィルム画像としてネガフィルム12に記録されているネガ画像を例に説明したが、これに限定されるものではなく、例えばリバーサルフィルム等の他の写真フィルムに記録されているポジ画像等の他のフィルム画像を用いることも可能である。また記録媒体についても、印画紙等の感光材料以外に、普通紙、感熱材料、OHPシート等の記録材料を適用可能である。
【0126】
更に、本発明はR、G、Bの3色により画像を記録する色再現系に適用することに限定されるものではなく、例えばR、G、B、K(黒)の4色により画像を記録する色再現系に適用することも可能である。
【0127】
また、上記では原画像の濃淡を表す物理量として濃度値(光学濃度)を例に説明したが、これに限定されるものではなく、輝度値、色彩学上の明度に相当する変換値、原画像に対する測光値、網点面積率、濃度値を指数変換した値等の各種の物理量を適用できる。
【0128】
また、上記では色バランス変換条件に対応する色バランス変換データをルックアップテーブルに設定し、該ルックアップテーブルを用いて色バランスの修正を行うようにしていたが、これに代えて、関数式等で表された変換条件に従って色バランスの変換を行うと共に、関数式等を直接変更することにより所望の変換特性の色バランス変換条件を得るようにしてもよい。
【0129】
【発明の効果】
【0131】
請求項1記載の発明は、原画像中の中性色の被写体に相当する画素のR、G、Bの階調バランスを表す無彩色条件を定め、定めた無彩色条件に基づいて原画像中の非中性色の被写体に相当する画素を判定し、原画像中の中性色の被写体に相当する画像部のみから、修正条件を決定するための画像特徴量を抽出し、抽出した画像特徴量を用いて修正条件を決定するので、原画像中に存在する非中性色の被写体に相当する画像部が及ぼす影響を低減し、画像データが表す画像が適正な色バランスの画像となるように画像データを修正することができる、という優れた効果を有する。
【0132】
請求項2及び請求項4記載の発明は、修正条件の決定に用いる画像特徴量の抽出対象である、高濃度側階調値域に対応する原画像中の基準部分及び低濃度側階調値域に対応する原画像中の基準部分の少なくとも一方を検出し、検出した基準部分が原画像中の主要画像部に対応しているか否か判定し、検出された基準部分から第1の画像特徴量を抽出すると共に、前記原画像と異なる複数の原画像から第2の画像特徴量を求め、検出した基準部分が主要画像部に対応していると判定した場合に、検出した基準部分が主要画像部に対応していないと判定した場合よりも、第1の画像特徴量が修正条件の決定に関与する度合いが低下するように、第1の画像特徴量及び第2の画像特徴量の重みを決定して重み付き平均値を演算し、演算した重み付き平均値に基づいて修正条件を決定するので、原画像中の主要画像部の階調値が極端に高い又は低い場合にも、主要画像部が適正な色味で再現されるように画像データを修正することができる、という優れた効果を有する。
【0133】
請求項記載の発明は、原画像中の主要画像部の階調値を算出し、算出した主要画像部の階調値が所定の階調値に修正されるように修正条件を決定するので、上記効果に加え、原画像中の主要画像部の階調値が極端に高い又は低い場合にも、主要画像部が適正な階調値で再現されるように画像データを修正することができる、という効果を有する。
【図面の簡単な説明】
【図1】 本実施形態に係る写真処理システムの概略構成図である。
【図2】 フィルム画像読取装置の概略構成図である。
【図3】 本実施形態に係る制御回路の機能ブロック図である。
【図4】 第1実施形態に係る制御回路で実行される色バランス変換条件の設定・変換処理を示すフローチャートである。
【図5】 平均階調バランス曲線の一例を示す線図である。
【図6】 色バランス変換条件の一例を示す線図である。
【図7】 第2実施形態に係る制御回路で実行される色バランス変換条件の設定・変換処理を示すフローチャートである。
【図8】 (A)及び(B)は、主要画像部濃度が極端に高い又は低い場合の色バランス変換条件に対する修正の一例を説明するための線図である。
【図9】 無彩色条件を決定するための画素の選択に用いる色座標上の範囲を示す線図である。
【符号の説明】
10 写真処理システム
12 ネガフィルム
36 プレスキャン部
38 ファインスキャン部
42 制御回路
71 LUT
112 記録材料
120 プリントヘッド
[0001]
BACKGROUND OF THE INVENTION
  The present invention relates to an image processing method and apparatus, and more particularly to an image processing method and apparatus for correcting image data in accordance with correction conditions so that an original image represented by the image data is an image having a color balance with at least gray balance.
[0002]
[Prior art]
  Conventionally, when copying and recording an original image recorded on photographic film or the like on a recording material, gradation conversion or the like is performed to record an image on the recording material with respect to image data representing the original image obtained by imaging or the like. In other words, an image is recorded on a recording material in units of pixels using recording data obtained by the conversion (so-called digital copying method). In this digital copying method, the image quality of a recorded image greatly depends on how the image data is converted, and various image data conversion methods have been proposed in the past as described below.
[0003]
  Japanese Patent Laid-Open No. 2-157758 discloses a technique for automatically setting a highlight density and a shadow density, which are reference values when setting a conversion curve for gradation conversion, for each pixel of an original image. Obtain an average value of density values for each color component, obtain an average density value frequency histogram indicating the relationship between the average density value for each pixel and the number of pixels, obtain a cumulative average density value frequency histogram from the average density value frequency histogram, In the cumulative average density frequency histogram, find an average density value corresponding to a predetermined cumulative density appearance rate, and within the density interval determined by the found average density value and the occurrence limit density value in the average density value frequency histogram, color components It is disclosed that an average density value in another section is obtained and a reference density point (highlight density, shadow density) is set based on the average density in the section for each color component. To have.
[0004]
  Japanese Patent Laid-Open No. 5-91323 discloses that the reference density point is obtained by reducing the influence of a locally bright (for example, specular reflection) portion or a locally dark portion in the original image in the above technique. A reference density point setting method is described.
[0005]
  JP-A-62-242521 discloses that a negative image is divided into a large number of regions, and is measured for each component color, and the maximum reference value and the minimum reference value (density value) are determined for each component color. A technique is disclosed in which gradation conversion is performed so that the maximum reference value for each component color is reproduced in white on the recorded image and the minimum reference value is reproduced in black on the recorded image.
[0006]
  Furthermore, Japanese Patent Laid-Open No. 4-285933 discloses a main image portion, a highlight portion, and a shadow portion in an original image, and calculates a density difference between the main image portion, the highlight portion and the shadow portion, and the density difference. Describes a hard copy device that calculates a tone correction amount by comparing the value with a predetermined value and performs tone conversion using the tone correction amount.
[0007]
  JP-A-60-37878 also stores a plurality of standard tone curves, and corrects the plurality of standard tone curves so as to pass through the highlight point and shadow point of the document, respectively. A method is disclosed in which a tone curve having the smallest deviation from an output signal is used as a gradation conversion table.
[0008]
  Japanese Patent Application Laid-Open No. 62-111569 discloses that the coordinates of a spot color point such as a highlight point and a shadow point are designated by a digitizer, and based on the data of the pixel of the spot color point where the coordinate is designated and its neighboring pixels. There is disclosed a technique for obtaining a representative density of a spot color point excluding the influence of noise and automatically setting image processing conditions such as gradation conversion from the representative density of the spot color point.
[0009]
  In this way, the standard density such as the maximum standard density, minimum standard density, highlight density, and shadow density is set for each image by various methods, and the conversion conditions are set from the set standard density, or the set standard density is set. It has been conventionally known that standard conversion conditions are modified and used on the basis thereof. In addition, techniques for correcting machine differences and coloring characteristics of color originals have been proposed (see JP-A-6-237373, JP-A-5-344326, etc.).
[0010]
[Problems to be solved by the invention]
  However, in the image data conversion method described above, the pixel or pixel group having the maximum density or the minimum density in the original image corresponds to an image portion (for example, a human face or the like) corresponding to a non-neutral color subject in the original image. So-called color feria in which the color balance of the recorded image is biased to a specific color occurs, or the density of the main image portion on the recorded image is extremely high or low. There was a problem that a feria might occur.
[0011]
  For example, if the original image is a film image of a person who is close or relatively close to the subject, shooting and recorded on a photographic film with a strobe light, the person's face illuminated by the strobe light is the film image. If the film image is a highlight portion and the film image is a negative image, the portion corresponding to the human face in the film image often has the maximum density in the film image. For such an image, in the conventional image data conversion method, a pixel corresponding to a person's face is adopted as a reference point, and conversion is performed so that the color of the reference point on the recorded image becomes a neutral color. Since the conditions are set, if the original image information is converted according to the set conversion conditions and the image is recorded, the color balance of the recorded image is a specific color (in this case, the complementary color of the human face color (skin color)) Color).
[0012]
  Further, in the image as described above, the density range of the portion corresponding to the human face in the film image is greatly deviated to the high density side or the low density side with respect to the density range of the entire film image. In this image data conversion method, the density of the main image portion on the recorded image becomes extremely high or low, and the main image portion cannot be reproduced at an appropriate density on the recorded image.
[0013]
  The present invention has been made in consideration of the above facts, and eliminates or reduces the influence of the image portion corresponding to the non-neutral color subject existing in the original image, and the image represented by the image data has an appropriate color. It is an object to obtain an image processing method capable of correcting image data so that a balanced image is obtained.
[0014]
  The present invention also provides an image processing method and apparatus capable of correcting image data so that the main image portion is properly reproduced even when the gradation value of the main image portion in the original image is extremely high or low. Is the purpose.
[0015]
[Means for Solving the Problems]
[0025]
  The image processing method according to the first aspect of the present invention is directed to correcting the image data so that the image represented by the image data is an image having a color balance with at least gray balance with respect to the image data representing the original image. An achromatic condition representing the R, G, and B tone balance of pixels corresponding to a neutral subject in the original image based on a plurality of original image data. Based on the achromatic condition, a pixel corresponding to a non-neutral subject in the original image is determined, and the correction condition is determined only from an image portion corresponding to a neutral subject in the original image. And extracting the image feature quantity for use in determining the correction condition using the extracted image feature quantity.FixedThe image data is corrected in accordance with the determined correction condition.
[0026]
  According to the first aspect of the present invention, based on the data of a plurality of original images, an achromatic condition that represents the gradation balance of R, G, and B of pixels corresponding to a neutral subject in the original image is defined. Image feature amount for determining a pixel corresponding to a non-neutral color subject in the original image based on the coloring condition and determining a correction condition only from an image portion corresponding to the neutral color subject in the original image And determine the correction condition using the extracted image featureRuTherefore, the possibility that the image feature quantity of the pixel corresponding to the non-neutral color subject in the original image adversely affects the correction condition is reduced, and the image represented by the image data has an appropriate (gray balanced) color balance. This improves the yield of correction conditions that can correct image data so as to obtain an image. In the first aspect of the invention, the image data is corrected in accordance with the determined correction condition. Therefore, the influence of the image portion corresponding to the non-neutral color subject existing in the original image is reduced, and the image represented by the image data is reduced. Image data can be corrected so as to obtain an image with an appropriate color balance, and the occurrence of color failure can be prevented.
[0027]
  According to a second aspect of the present invention, there is provided an image processing method for correcting the image data so that the image represented by the image data is an image having a color balance with at least gray balance with respect to the image data representing the original image. The image processing method is modified according to the reference portion and the low density side gradation value area in the original image corresponding to the high density side gradation value area, which is an extraction target of the image feature amount used for determining the modification condition. Detecting at least one of the corresponding reference portions in the original image, and determining whether the detected reference portion corresponds to a main image portion in the original image;Extracting a first image feature amount from the detected reference portion and obtaining a second image feature amount from a plurality of original images different from the original image;When it is determined that the detected reference portion corresponds to the main image portion, than when it is determined that the detected reference portion does not correspond to the main image portion, theFirstThe degree of involvement of the image feature amount in determining the correction condition is reduced.FirstImage features and saidSecondA weighted average value is calculated by determining a weight of an image feature amount, the correction condition is determined based on the calculated weighted average value, and the image data is corrected according to the determined correction condition. Yes.
[0028]
  Claim2In the described invention, when determining the correction condition for correcting the image data so that the image represented by the image data is at least a gray-balanced color balance image, the image feature amount extraction target used for determining the correction condition is used. At least one of a reference portion in the original image corresponding to the high density side gradation value range and a reference portion in the original image corresponding to the low density side gradation value range is detected. Note that the gradation value in the present invention is a value representing the density of an image such as a density value, transparency, brightness, luminance, halftone dot area ratio, and the like. Further, as the image feature amount of the reference portion used for determining the correction condition, for example, the image feature amount related to the color of the reference portion, more specifically, the density of each component color in the reference portion, the color difference of each component color, the color Ratio and the like.
[0029]
  By the way, when the gradation value of the main image portion in the original image is extremely high or extremely low, the main image portion in the original image may be detected as the reference portion. Since it is empirically known that the color tone of the main image portion in the original image is mostly non-neutral color (especially when the main image portion is an image portion corresponding to a human face) When the main image portion in the original image is detected as the reference portion, if the correction condition is determined based on the image feature amount of the main image portion in the original image, the correction condition affects the color of the main image portion. Accordingly, there is a low probability that a correction condition for correcting the image data is obtained so that the image represented by the image data becomes an image having a color balance with gray balance.
[0030]
  On the other hand, in the invention of claim 2, it is determined whether or not the detected reference portion corresponds to the main image portion in the original image,Extracting a first image feature amount from the detected reference portion and obtaining a second image feature amount from a plurality of original images different from the original image;When it is determined that the detected reference portion corresponds to the main image portion, the first image feature amount determines the correction condition more than when it is determined that the detected reference portion does not correspond to the main image portion. So that you are less involved inFirstImage features andSecondThe weight of the image feature amount is determined, the weighted average value is calculated, and the correction condition is determined based on the calculated weighted average value. Note that reducing the degree of participation in determining the correction condition includes setting the degree of participation to 0 (that is, not using the correction condition for determination).
[0032]
  This reduces the possibility that the image feature quantity of the main image portion, which is likely to be a non-neutral color, will adversely affect the correction conditions, so the image represented by the image data is a gray-balanced image Thus, the yield of the correction condition that can correct the image data so that the main image portion is reproduced with an appropriate color is improved. And claims2In this invention, the image data is corrected in accordance with the determined correction condition. Therefore, even when the gradation value of the main image portion in the original image is extremely high or low (that is, the detected reference portion has a non-neutral color). In this case, the image represented by the image data becomes a gray-balanced image, and the image data can be corrected so that the main image portion is reproduced with an appropriate color, thereby preventing the occurrence of color feria. be able to.
[0033]
  Claim3The described invention is claimed.2According to the invention, a gradation value of a main image portion in the original image is calculated, and the correction condition is determined so that the calculated gradation value of the main image portion is corrected to a predetermined gradation value. It is said.
[0034]
  Claim3In the described invention, the gradation value of the main image portion in the original image is calculated, and the correction condition is determined so that the calculated gradation value of the main image portion is corrected to a predetermined gradation value. Correction conditions that can correct the image data so that the main image portion in the image represented by the image data is reproduced with an appropriate gradation value even if the tone value of the main image portion is extremely high or low And generation of concentration feria can be prevented.
[0035]
  The image processing apparatus according to claim 4 modifies the image data so that the original image represented by the image data is an image having a color balance with at least gray balance with respect to the image data representing the original image. An image processing apparatus for correcting according to conditions, wherein the reference portion and the low density side tone value range in the original image corresponding to the high density side tone value range, which is an extraction target of the image feature amount used for determining the correction condition Detecting means for detecting at least one of the reference parts in the original image corresponding to, and determining means for determining whether the reference part detected by the detecting means corresponds to a main image part in the original image When,Extracting a first image feature amount from the detected reference portion and obtaining a second image feature amount from a plurality of original images different from the original image;When the determination unit determines that the detected reference portion corresponds to the main image portion, the determination unit determines that the detected reference portion does not correspond to the main image portion. Than ifFirstThe degree of involvement of the image feature amount in determining the correction condition is reduced.FirstImage features and saidSecondDetermining weights of image features to calculate a weighted average value; determining means for determining the correction condition based on the calculated weighted average value; and the image data according to the correction condition determined by the determination means And a correcting means for correcting.
[0036]
  Claim4In the described invention, the reference portion in the original image corresponding to the high density side gradation value range and the reference in the original image corresponding to the low density side gradation value range, which are the extraction targets of the image feature amount used for determining the correction condition At least one of the parts is detected by the detection means, and it is determined by the determination means whether the detected reference part corresponds to the main image portion in the original image.Extracting a first image feature amount from the detected reference portion and obtaining a second image feature amount from a plurality of original images different from the original image;When it is determined that the detected reference part corresponds to the main image part, than when it is determined that the detected reference part does not correspond to the main image part,FirstTo reduce the degree that image features are involved in determining correction conditions,FirstImage features andSecondSince the weight of the image feature amount is determined, the weighted average value is calculated, and the correction condition is determined based on the calculated weighted average value, the same as in the invention of claim 2, the main image portion of the original image Even when the gradation value is extremely high or low, the image data can be corrected so that the main image portion is properly reproduced, and the occurrence of color failure can be prevented.
[0037]
DETAILED DESCRIPTION OF THE INVENTION
  Hereinafter, an example of an embodiment of the present invention will be described in detail with reference to the drawings.
[0038]
  [First Embodiment]
  FIG. 1 shows a photographic processing system 10 according to the present embodiment. A large number of negative films 12 on which images are recorded by a camera (not shown) are brought into the photo processing system 10. The many negative films 12 brought in are joined together by a splicing tape or the like, processed by a film processor (not shown), and set in the film image reading device 16.
[0039]
  Inside the film image reading device 16, a pre-scan unit 36 and a fine scan unit 38 are sequentially arranged along the film conveyance path. The scanning units 36 and 38 respectively scan and read the film image recorded on the negative film 12. As shown in FIG. 2, a barcode reader 40 is provided on the upstream side of the film transport path from the pre-scan unit 36. The bar code reader 40 is configured such that a pair of a light emitting element 40A and a light receiving element 40B are arranged to face each other with a film conveyance path interposed therebetween. The light receiving element 40B is connected to the control circuit 42. The control circuit 42 reads a barcode indicating the film type or the like optically recorded on the negative film 12 based on the change in the level of the signal output from the light receiving element 40B, and the film type of the negative film 12 or the like. Judging.
[0040]
  Between the barcode reader 40 and the pre-scan unit 36, a pair of rollers 44 that sandwich and convey the negative film 12, a reading head 46, and a screen detection sensor 50 are sequentially arranged. The read head 46 and the screen detection sensor 50 are each connected to the control circuit 42. In the negative film 12 set in the film image reading device 16, a transparent magnetic material is applied on the back surface to form a magnetic layer. The magnetic layer has a frame number, film type, shooting conditions at the time of shooting, and the like. Information to be expressed may be magnetically recorded. The read head 46 is disposed at a position where the information magnetically recorded on the magnetic layer can be read, and reads the information and outputs it to the control circuit 42.
[0041]
  The screen detection sensor 50 is composed of a pair of a light-emitting element and a light-receiving element as in the barcode reader 40 described above. The control circuit 42 determines the position (and size) of the film image on the negative film 12 based on the change in the level of the signal output from the light receiving element of the screen detection sensor 50.
[0042]
  On the other hand, the pre-scan unit 36 includes a lamp 52 arranged to emit light toward the negative film 12 that passes through the pre-scan unit 36. The lamp 52 is connected to the control circuit 42 via the driver 54, and the magnitude of the voltage supplied from the driver 54 is controlled by the control circuit 42 so that the amount of emitted light becomes a predetermined value. The On the light emission side of the lamp 52, a dimming filter group 56 composed of three dimming filters of C (cyan), M (magenta), and Y (yellow), and a light diffusion box 58 are arranged in this order. An imaging lens 60 and a CCD line sensor 62 are arranged in this order with the conveyance path interposed therebetween.
[0043]
  Each dimming filter of the dimming filter group 56 has an insertion amount in the optical path adjusted in advance in order to correct variations in sensitivity of the three colors R, G, and B in the CCD line sensor 62. Light that sequentially passes through the light control filter group 56, the light diffusion box 58, the negative film 12, and the imaging lens 60 is irradiated on the light receiving surface of the CCD line sensor 62. The CCD line sensor 62 includes a plurality of sensor units in which a sensor for detecting the light amount of R light, a sensor for detecting the light amount of G light, and a sensor for detecting the light amount of B light are arranged adjacent to each other. Are arranged at predetermined intervals along the width direction.
[0044]
  Therefore, the CCD line sensor 62 divides the image into a large number of pixels with the interval between the sensor units as one side, and detects the amount of transmitted light for each pixel. The imaging lens 60 is one pixel row (hereinafter referred to as this pixel row) that intersects the optical axis of the light emitted from the lamp 52 and passes along the width direction of the negative film 12 out of the light transmitted through the negative film 12. The light passing through the corresponding position (referred to as the reading position) is imaged on the light receiving surface of the CCD line sensor 62.
[0045]
  On the output side of the CCD line sensor 62, an amplifier 64, a LOG converter 66, and an A / D converter 68 are sequentially connected. The signal output from the CCD line sensor 62 is amplified by an amplifier 64, logarithmically converted by a LOG converter 66, and converted into digital image data (for each R, G, B of each pixel of a film image) by an A / D converter 68. Data representing the density value of the image). The A / D converter 68 is connected to the control circuit 42, and the image data output from the A / D converter 68 is input to the control circuit 42 as pre-scan image data. The prescan image data corresponds to the original image information of the present invention, and the prescan unit 36 corresponds to the input means of the present invention.
[0046]
  Although not shown, the control circuit 42 includes a CPU, a ROM, a RAM, and an input / output port, which are connected to each other via a bus. The control circuit 42 also includes a nonvolatile storage unit 70 for storing input prescan image data and the like, and a look-up table (LUT) for converting fine scan image data (described later) into recording image data. 71 is provided. Further, a CRT display 72 is connected to the control circuit 42, and it is possible to perform processing using the input pre-scan image data and display a positive image on the display 72.
[0047]
  Further, between the pre-scan unit 36 and the fine scan unit 38, a roller group composed of the conveying roller pair 74 and the driven roller 76 and a roller group composed of the driven rollers 78A, 78B, 78C are spaced apart from each other by a predetermined distance. Has been placed. A loop of the negative film 12 is formed between the two roller groups. By this loop, the difference between the transport speed of the negative film 12 in the pre-scan unit 36 and the transport speed of the negative film 12 in the fine scan unit 38 is absorbed. A pulse motor 80 is connected to the transport roller pair 74. The pulse motor 80 is connected to the control circuit 42 via a driver 82. The control circuit 42 conveys the negative film 12 by driving the pulse motor 80 via the driver 82.
[0048]
  On the other hand, the fine scan unit 38 has substantially the same configuration as the pre-scan unit 36. That is, the fine scan unit 38 includes a lamp 84 that emits light toward the negative film 12. The lamp 84 is connected to the control circuit 42 via the driver 86, and the magnitude of the supply voltage from the driver 86 is controlled by the control circuit 42 so that the emitted light becomes a predetermined light amount. A dimming filter group 88 including three dimming filters and a light diffusing box 90 are sequentially arranged on the light emission side of the lamp 84, and an image forming lens 92 and a CCD line sensor 94 are sandwiched across the film conveyance path. They are arranged sequentially.
[0049]
  In each of the dimming filters of the dimming filter group 88, in order to correct variations in sensitivity of the three colors R, G, and B in the CCD line sensor 94, the amount of insertion into the optical path is adjusted in advance. The imaging lens 92 couples light that has passed through the pixel row located at the reading position, among the light that has passed through the light control filter group 88, the light diffusion box 90, and the negative film 12, to the light receiving surface of the CCD line sensor 94. Let me image. The CCD line sensor 94 has the same configuration as the CCD line sensor 62, but the interval between the sensor units is smaller than that of the CCD line sensor 62. Accordingly, the CCD line sensor 94 divides the image into a larger number of pixels in comparison with the CCD line sensor 62 and detects the amount of transmitted light for each pixel.
[0050]
  On the output side of the CCD line sensor 94, an amplifier 96, a LOG converter 98, and an A / D converter 100 are connected in order. The signal output from the CCD line sensor 94 is amplified by the amplifier 96, logarithmically converted by the LOG converter 98, and then converted into digital image data by the A / D converter 100. The A / D converter 100 is connected to the control circuit 42, and the converted image data is input to the control circuit 42 as fine scan image data. The fine scan image data corresponds to the original image information of the present invention, and the fine scan unit 38 also corresponds to the input means of the present invention.
[0051]
  Although details will be described later, the control circuit 42 obtains conversion data to be set in the LUT 71 based on the prescan image data input from the prescan unit 36, and is input from the fine scan unit 38 by the LUT 71 in which the conversion data is set. The fine scan image data is converted into image data for recording for recording an image on a recording material such as photographic paper. The control circuit 42 is connected to a print head 120 (details will be described later) of the printer processor 18, converts the recording image data obtained by the conversion into a recording signal and transfers it to the print head 120.
[0052]
  Further, a conveyance roller pair 102 is disposed on the downstream side of the fine scan unit 38. A pulse motor 104 is also connected to the conveying roller pair 102. The pulse motor 104 is connected to the control circuit 42 via the driver 106. The control circuit 42 drives the pulse motor 104 via the driver 106 to convey the negative film 12.
[0053]
  On the other hand, as shown in FIG. 1, a magazine 114 is set in the printer processor 18 for storing recording materials 112 such as photographic paper wound in layers. The recording material 112 is pulled out from the magazine 114 and sent to the printer unit 110 via the cutter unit 116. The printer unit 110 is provided with a print head 120, and the print head 120 is connected to the control circuit 42 of the film image reading device 16. When the recording signal is transferred from the control circuit 42, the print head 120 exposes an image to the recording material 112 based on the recording signal.
[0054]
  As the print head 120, for example, a laser beam for each component color of R, G, and B is modulated in accordance with the recording signal, and scanned along a direction orthogonal to the conveyance direction of the recording material 112. By irradiating 112, a print head configured to expose and record an image on the recording material 112 can be used. Alternatively, a display unit such as a CRT or a liquid crystal panel is provided, and an image represented by the recording signal is displayed on the display unit, and the image displayed on the display unit is exposed and recorded on the recording material 112 (for example, display) When a CRT is used as the means, it can be realized by irradiating the recording material 112 with light emitted from the CRT directly or via a spatial light modulation element. When a liquid crystal panel is used as the display means, a liquid crystal panel is used. A print head (which can be realized by irradiating the recording material 112 with light transmitted through the panel) may be used.
[0055]
  The recording material 112 that has passed through the printer unit 110 is fed into the reservoir unit 150. The reservoir unit 150 is provided with a pair of rollers 152 at a predetermined interval, and the recording material 112 forms a loop between the pair of rollers 152. This loop absorbs the difference in transport speed between the printer unit 110 and the downstream processor unit 154. In the processor unit 154, a color developing tank 156, a bleach-fixing tank 158, and washing tanks 160, 162, and 164 are sequentially arranged. Each of these processing tanks stores a predetermined processing liquid. The recording material 112 is sequentially fed into each processing tank and is processed by being immersed in each processing solution.
[0056]
  A drying unit 166 is provided on the downstream side of the processor unit 154. The drying unit 166 supplies hot air generated by a fan and a heater (not shown) to the recording material 112. Thereby, moisture adhering to the surface of the recording material 112 is dried. The recording material 112 that has passed through the drying unit 166 is cut for each print by the cutter unit 168 and then discharged to the outside of the printer processor 18.
[0057]
  Next, the operation of the first embodiment will be described. FIG. 3 shows the operation of the control circuit 42 according to the present embodiment divided into blocks for each function. In FIG. 3, the pre-scan image data input from the pre-scan unit 36 is indicated by a solid arrow, and the fine scan image data input from the fine scan unit 38 is indicated by a dashed arrow.
[0058]
  As shown in FIG. 3, the control circuit 42 includes an image data input means 200, a main image portion extraction means 202, a first conversion condition setting means 204, a conversion condition storage means 206, a second conversion condition setting means 208, a conversion Condition determining means 210 and image signal converting means 212 are provided. Details of processing executed by each unit will be described later with reference to flowcharts. The image data input unit 200 corresponds to the pre-scan unit 36 and the fine scan unit 38, and the pre-scan image data and the fine scan are supported. Input each image data.
[0059]
  The main image portion extraction unit 202 extracts the main image portion in the negative image based on the pre-scan image data input from the image data input unit 200, and calculates the density of the main image portion. The first conversion condition setting unit 204 sets a conversion condition (first conversion condition) for correcting the color balance of the film image represented by the image data to an appropriate color balance based on the prescan image data. The conversion condition storage unit 206 is configured to include a part of the storage area of the storage unit 70, and stores information on film images for a number of film images. The second conversion condition setting means 208 has a conversion characteristic corresponding to the average of the first conversion conditions of a large number of film images based on the information of the large number of film images stored in the conversion condition storage means 206. 2 conversion conditions are set.
[0060]
  In the conversion condition determination unit 210, the first conversion condition setting unit 204 sets the first image set for the film image whose color balance is to be corrected based on the extraction result of the main image portion by the main image portion extraction unit 202. A weight for each of the conversion condition and the second conversion condition set by the second conversion condition setting unit 208 is determined, and a color balance conversion condition (specifically, LUT 71) corresponding to a weighted average of both conversion conditions. Or the color balance conversion condition is determined only from the second conversion condition.
[0061]
  The image signal conversion unit 212 is also configured to include the LUT 71. The conversion data determined by the conversion condition determination unit 210 is set in the LUT 71, and the LUT 71 sets the fine scan image data input from the image data input unit 200. Perform color balance conversion (correction).
[0062]
  Next, color balance conversion condition setting / conversion processing executed by the control circuit 42 will be described with reference to the flowchart of FIG. In step 250, it is determined whether or not prescan image data is input from the prescan unit 36. If the determination is negative, the process proceeds to step 290 to determine whether fine scan image data is input from the fine scan unit 38.
[0063]
  As is apparent from the configuration shown in FIG. 2, the film image reading device 16 reads the film image for each film image in the order of the pre-scan unit 36 and the fine scan unit 38, and in both the scan units 36 and 38, respectively. In addition, the reading of the film image in the prescan unit 36 and the reading of the film image in the fine scan unit 38 are performed asynchronously. Therefore, if the determination in step 290 is also negative, the process returns to step 250, and steps 250 and 290 are repeated until prescan image data or fine scan image data is input.
[0064]
  When the film image is read by the pre-scan unit 36 and the pre-scan image data is input, the determination in step 250 is affirmed and the process proceeds to step 252 where the input pre-scan image data is captured and the storage unit 70 is captured. To remember. In the next step 254 and subsequent steps, a color balance conversion condition for correcting the tone balance (color balance) for each component color of the image data is obtained in accordance with the color density characteristics of the negative film. That is, in this embodiment, a large number of film image data (pre-scan image data) is stored in the storage unit 70 in association with each film type. Since the pre-scan image data is used for setting the second conversion condition as will be described later, the storage unit 70 corresponds to the conversion condition storage unit 206.
[0065]
  In step 254, the bar code reader 40 captures the film type of the negative film detected by reading the bar code recorded on the negative film (the negative film on which the film image is recorded), and stores it in the storage unit 70 in advance. Of the stored film image data, film image data recorded on a negative film of the same film type as the captured film type is captured.
[0066]
  In the next step 256, an average gradation balance curve representing the average three-color gradation balance of a large number of film images is determined based on the data of the captured large number of film images. This average gradation balance curve can be determined using, for example, G density or three-color average density as a reference density. For example, when the G density is used as the reference density, each pixel of many film images is classified based on the G density level of each pixel, and the average value of the R density and the average value of the B density for each class. Is calculated. An average gradation balance curve (or a straight line) is obtained by approximating the relationship between the average value of the G density and the R density and the relationship between the average value of the G density and the B density with a straight line or a curve by the least square method or the like. Can be obtained. FIG. 5 shows an example of an average gradation balance curve representing the relationship between the G density and the R density when the G density is used as the reference density.
[0067]
  In step 256, since an average gradation balance curve is determined using data of a large number of film images recorded on a negative film of the same film type, the average gradation balance curve is added to the film image of the film type. It represents the balance of the three colors of the gray portion in the majority of recorded standard film images. Instead of determining the average gradation balance curve in steps 254 and 256, an average gradation balance curve is determined and stored in advance for each film type, and the corresponding average gradation balance curve is taken in and used. It may be.
[0068]
  In the next step 258, the maximum reference density dxi and the minimum reference density dni (however, for each component color, based on the prescan image data captured in the previous step 252, for the film image corresponding to the prescan image data. i represents one of R, G, and B, and is hereinafter referred to as “individual maximum reference concentration dxi” and “individual minimum reference concentration dni”). As the individual maximum reference density dxi and the individual minimum reference density dni, for example, a density value for each component color of a pixel having the maximum or minimum three-color average density can be used.
[0069]
  The individual reference densities dxi and dni are reference densities used when setting individual color balance conversion conditions for the film image whose color balance is to be corrected, and the individual maximum reference densities dxi for each component color are the first. If the color balance conversion condition is determined so that the individual minimum reference density dni for each component color is converted to the second predetermined density, the variation in film characteristics for each negative film type If there is an overall color balance deviation caused by the difference in the type of illumination light in the film image to be corrected for color balance, a color balance conversion condition having conversion characteristics that can correct this is obtained. Accordingly, the individual maximum reference density dxi and the individual minimum reference density dni correspond to the first conversion condition, and the step 258 for setting the individual reference densities dxi and dni corresponds to the first conversion condition setting means 204. Yes.
[0070]
  Further, the specific pixel in the film image in which the density for each component color is adopted as the individual reference density dxi, dni in step 258 is defined in claim2The individual reference densities dxi and dni correspond to the image feature values extracted from the reference part.
[0071]
  In step 260, the average maximum reference density DXi and the average minimum reference density DNi are determined from the above-described average gradation balance curve based on the individual maximum reference density dxi and the individual minimum reference density dni set as described above. Specifically, for example, when the average gradation balance curve is determined with the G density as the reference density, the individual maximum reference G density dxGThe average maximum reference G concentration DXGAnd the individual minimum reference G density dnGMean minimum reference G concentration DNGAnd this average reference G concentration DXG, DNGBased on the average gradation balance curve, average reference densities DXi and DNi for R and B are determined (FIG. 6 shows average reference G density DX).G, DNGTo average reference R concentration DXR, DNRExample)
[0072]
  Since the average reference densities DXi and DNi are obtained by using an average gradation balance curve determined from a plurality of film image data recorded on the negative film of the same film type, the average maximum reference density DXi for each component color is obtained. Are converted to the first predetermined density, and the color balance conversion condition is determined so that the average minimum reference density DNi for each component color is converted to the second predetermined density, for each film type of the negative film. Even if the variation in film characteristics can be corrected and the color of a specific pixel in the film image in which the density value is adopted as the individual reference density dxi or dni is a non-neutral color, the neutral color in the film image (Gray) The color corresponding to the subject can be reproduced as gray on the recorded image (a color balanced recorded image can be obtained). Lance conversion conditions can be obtained. Accordingly, the average maximum reference density DXi and the average minimum reference density DNi correspond to the second conversion condition, and the step 260 for determining the average reference density DXi, DNi together with the steps 254, 256 is the second conversion condition setting means. 208 is supported.
[0073]
  In the next step 262, the main image portion in the film image is extracted based on the prescan image data captured in the previous step 252, and the main image portion density DNF is estimated by calculation. This step 262 corresponds to the main image portion extraction means 202. As the main image portion density, any one of R, G, and B component colors, a weighted average value of each component color, or the like can be used.
[0074]
  The extraction of the main image portion and the estimation of the main image portion density DNF are performed by, for example, displaying a film image on the display 72 or the like based on the input prescan image data (converted into a positive image and displaying it). The position of the main image portion in the film image can be specified by causing the operator to specify the main image portion in the film image with a pen or the like, and the average density or the like of the region in which the position is specified can be set as the main image portion density DNF. .
[0075]
  Further, the extraction of the main image portion and the estimation of the main image portion density DNF can be automatically estimated without bothering the operator as described above. That is, an area (face area) corresponding to a person's face in the film image as the main image part is extracted, and the density of the extracted face area (for example, average density) is set as the main image part density. Examples of face area extraction methods include Japanese Patent Laid-Open No. 52-156624, Japanese Patent Laid-Open No. 52-156625, Japanese Patent Laid-Open No. 53-12330, Japanese Patent Laid-Open No. 53-145620, Japanese Patent Laid-Open No. 53- As described in Japanese Patent No. 145621, Japanese Patent Laid-Open No. 53-145622, etc., whether each pixel is included in the skin color range on the color coordinate based on the photometric data obtained by photometry of the film image A region in which a cluster (group) of pixels determined to be within the skin color range exists can be extracted as a face region.
[0076]
  Further, as proposed by the present applicant in Japanese Patent Laid-Open No. 4-346333, Japanese Patent Laid-Open No. 5-100328, Japanese Patent Laid-Open No. 5-165120, etc., the hue value (and saturation value) based on the image data is proposed. ), The obtained histogram is divided for each mountain, it is determined which of the divided peaks each measurement point belongs to, and each measurement point is divided into groups corresponding to the divided peaks. Alternatively, an image may be divided into a plurality of areas (so-called clustering), an area corresponding to a human face among the plurality of areas may be estimated, and an extraction method for extracting the estimated area as a face area may be applied. .
[0077]
  Further, as already proposed in Japanese Patent Application Laid-Open No. 8-122944 and Japanese Patent Application Laid-Open No. 8-184925, the applicant of the present invention has a shape pattern (for example, a head) unique to each part of the person existing in the image based on the image data. A shape pattern representing a contour of a part, a contour of a face, an internal structure of a face, a contour of a torso, etc.), and a predetermined shape of a person represented by the size and orientation of the detected shape pattern. In accordance with the positional relationship between the part and the person's face, an area that is estimated to be equivalent to the person's face is set, and another shape pattern that is different from the detected shape pattern is searched, and the person in the previously set area It is also possible to apply an extraction method that obtains the consistency as a face and extracts a face region.
[0078]
Further, an area (background area) estimated to correspond to the background in the film image may be determined, and an area other than the background area may be extracted as an area corresponding to the main image portion. Specifically, the color of each pixel based on the image data is included in a range of specific colors clearly belonging to the background on the color coordinates (for example, sky, sea blue, lawn, tree green, etc.) The area where the cluster (group) of pixels determined to be within the specific color range exists is determined as a background area, and the remaining area is removed as a non-background area (main image portion). Can be extracted. Similarly, a background area may be obtained by determining whether or not it is clearly included within a specific density range belonging to the background, and the remaining area may be extracted as a main image portion.
[0079]
  In addition, as proposed by the present applicant in Japanese Patent Application Laid-Open No. 8-122944 and Japanese Patent Application No. 6-26598, after the image is divided into a plurality of areas in the same manner as described above, each area corresponds to the background. To obtain the feature amount (ratio of the linear part included in the outline, the degree of line symmetry, the number of irregularities, the contact rate with the outer edge of the image, the density contrast in the area, the presence or absence of a density change pattern in the area, etc.) It may be determined whether each region is a background region based on the obtained feature amount, the region determined to be a background portion is removed, and the remaining region is extracted as a non-background region (main image portion).
[0080]
  In addition, as described above, information indicating the shooting conditions read by the read head 46 from the magnetic layer of the negative film 12 without specifying the position of the main image portion present in the film image (for example, whether or not strobe light is emitted during shooting). It is also possible to estimate the density of the main image portion in the film image based on the distance to the subject measured at the time of shooting or the like. For example, if the film image is an image taken with a strobe and the distance to the subject is near to medium distance, the main image area exists in the gradation range of high to medium density (however, It can be estimated that the film image is a negative image). It is also possible to estimate the main image portion density in consideration of shooting conditions such as subject brightness measured at the time of shooting.
[0081]
  Furthermore, when there is no image portion that can be clearly determined as the main image portion, such as a face area, in the film image, for example, the film image, the image that should emphasize the highlight image portion, the shadow image portion, etc. Is classified into an image that should be emphasized, an image that should be emphasized as an intermediate gradation value image portion, etc., and a predetermined density value for each classification is used as a main image portion density, or a predetermined area in a film image Can be used as the main image portion density.
[0082]
  In addition, the exposure amount when a film image is recorded on a recording material by surface exposure is generally determined based on various image feature amounts of the film image. If the exposure amount capable of appropriately reproducing the exposure amount is obtained, the exposure amount when the film image is surface-exposed by the exposure amount determination method is calculated, and the density value corresponding to the obtained exposure amount is calculated back to calculate the main image. It is also possible to determine the partial concentration.
[0083]
  When the extraction of the main image portion and the estimation of the main image portion density DNF are performed as described above, the process proceeds to step 264, where the density value for each component color is adopted as the individual reference densities dxi and dni in the previous step 258. It is determined whether the specific pixel in the image is a pixel corresponding to the main image portion extracted in step 262. If the determination is affirmative, the routine proceeds to step 266, where it is determined whether or not the extraction accuracy of the main image portion (the accuracy of the region extracted as the main image portion) in the previous step 262 is high. These steps 264, 266 are claimed.4This corresponds to the determination means described in.
[0084]
  If the determination in step 264 or step 266 is negative, whether the specific pixel in the film image in which the density value is adopted as the individual reference density dxi, dni in the previous step 258 is a pixel that does not correspond to the main image portion. Or a pixel that cannot be determined as corresponding to the main image portion. Therefore, if the determination in step 264 or step 266 is negative, the process proceeds to step 270, where the weight coefficient w1 (corresponding to the weight for the first conversion condition) for the individual reference densities dxi and dni and the average reference density DXi, A weight coefficient w2 (corresponding to the weight for the second conversion condition) for DNi is determined. As an example, the weighting factors w1 and w2 can be determined as follows.
[0085]
  For example, if the determination in the previous step 264 is negative and the process proceeds to step 270, the specific pixel in the film image in which the density value is adopted as the individual reference density dxi, dni is a pixel that does not correspond to the main image portion. Since there is a high possibility, the weights for the individual reference concentrations dxi and dni are made relatively large (for example, w1 = w2 = 0.5, w1> 0.5 and w2 <0.5, etc.).
[0086]
  On the other hand, if the determination in step 264 is affirmed, but the determination in step 266 is negative and the process proceeds to step 270, the specific pixel in the film image in which the density values are adopted as the individual reference densities dxi and dni is the main image. There is still a possibility that the pixel corresponds to the portion. Since the color tone of the main image portion is mostly a non-neutral color, the individual reference densities dxi and dni may represent the color balance of the non-neutral color portion in the film image. For this reason, the weights for the individual reference densities dxi and dni are relatively smaller than when the determination in step 264 is negative (for example, w1 <0.5 and w2> 0.5).
[0087]
  The determination of the weight with respect to each reference density described above is described in “When it is determined that the reference portion does not correspond to the main image portion when it is determined that the reference portion corresponds to the main image portion” than,FirstThis corresponds to reducing the degree to which the image feature amount (in this embodiment, the individual reference density dxi, dni) is involved in determining the correction condition.
[0088]
  Further, the weight for each reference density may be further adjusted according to conditions other than those described above. For example, when the individual reference densities dxi and dni and the average reference densities DXi and DNi are approximate (that is, when the first conversion condition and the second conversion condition are approximate), the color balance correction target Since the film image is highly likely to be an image having no deviation in overall color balance due to a difference in illumination light or the like, the film image may be adjusted so as to increase the weight for the average reference densities DXi and DNi.
[0089]
  Further, it has been conventionally known how the balance of three colors of a film image changes due to a difference in the type of illumination light with respect to a film image representing a scene illuminated with standard illumination light (for example, daylight). ing. Therefore, for example, the difference in the balance of the three colors represented by the individual reference densities dxi and dni when the balance of the three colors represented by the average reference densities DXi and DNi is used as a reference (that is, gray) can be regarded as a difference in the type of illumination light. If it is determined whether or not there is a difference, and it is determined that the types of illumination light are different, adjustment may be made so that the weights for the individual reference densities dxi and dni are increased.
[0090]
  In step 272, the weight coefficients w1 and w2 determined above are used, and the weighted average density DDXi of the individual maximum reference density dxi and the average maximum reference density DXi and the individual minimum reference according to the following equations (1) and (2). A weighted average density DDNi between the density dni and the average minimum reference density DNi is calculated.
[0091]
  DDXi = w1 · dxi + w2 · DXi (1)
  DDNi = w1 .dni + w2 .DNi (2)
  In the next step 274, the color balance conversion conditions for correcting the color balance for the fine scan image data are determined using the weighted average densities DDXi and DDNi as the reference densities. Specifically, since the predetermined high density side recording density Dsi and low density side recording density Dhi are taken and negative / positive conversion is simultaneously performed on the recording image data, the weighted average density DDXi is low. The color balance conversion condition is determined for each component color so that it is converted to the side recording density Dhi and the weighted average density DDNi is converted to the high density side recording density Dsi (specifically, the color balance set in the lookup table 71). Generate conversion data).
[0092]
  FIG. 6 shows an example of color balance conversion conditions for R density (that is, weighted average R density DDX).RLow density side R recording density DhRWeighted average R density DDNRThe high density side R recording density DsR(Color balance conversion condition of conversion characteristics to be converted). This step 276 is claimed together with the previous step 274.4Corresponds to the determining means described in (Conversion condition determining means 210). When there is no need to perform negative-positive conversion, such as when the film image is a positive image, the weighted average density DDXi is converted to the high density side recording density Dsi, and the weighted average density DDNi is low density. The color balance conversion condition may be determined so that it is converted to the side recording density Dhi.
[0093]
  The color balance conversion condition is a conversion condition corresponding to a weighted average of the individual reference densities dxi and dni and the average reference densities DXi and DNi. In the film image in which the density values are adopted as the individual reference densities dxi and dni. When there is a possibility that the specific pixel is a pixel corresponding to the main image portion, the weight for the individual reference densities dxi and dni is reduced, so that the film type and density value of the negative film are changed to the individual reference densities dxi and dni. Regardless of whether or not the color of a specific pixel in the film image adopted is a non-neutral color, etc., a fine scan image so that each image portion in the film image is reproduced with an appropriate color on the recorded image Color balance conversion conditions that can correct the color balance of the data are obtained.
[0094]
  On the other hand, if the determinations in the previous step 264 and step 266 are affirmed, the film image to be corrected for color balance has an extremely high or low main image density DNF due to, for example, shooting with a strobe light. It is very likely that a specific pixel in a film image that is an image and uses density values as individual reference densities dxi and dni is a pixel corresponding to the main image portion. Since the main image portion is mostly non-neutral, the individual reference densities dxi, dni TheIf the color balance conversion condition is determined by using and the color balance is corrected according to the determined color balance conversion condition, there is a high probability that the image represented by the converted image data will not have a gray balanced color balance.
[0095]
  Therefore, if the determinations in steps 264 and 266 are affirmed, the process proceeds to step 268, and the color balance conversion condition is set with the average reference densities DXi and DNi as the reference densities without using the individual reference densities dxi and dni. decide. Specifically, the color balance conversion condition is set for each component color so that the average maximum reference density DXi is converted to the low density side recording density Dhi and the average minimum reference density DNi is converted to the high density side recording density Dsi. Determination (specifically, generation of color balance conversion data set in the lookup table 71).
[0096]
  Since the above color balance conversion conditions are obtained using only the average reference densities DXi and DNi corresponding to the second conversion conditions, the film type and density value of the negative film are adopted as the individual reference densities dxi and dni. Regardless of whether or not the color of a specific pixel in the image is non-neutral, etc., the color balance of the fine scan image data so that each image part in the film image is reproduced with an appropriate color on the recorded image A color balance conversion condition that can correct the above is obtained.
[0097]
  Regarding the determination of the color balance conversion condition in step 268 as well, “when it is determined that the reference portion corresponds to the main image portion, it is determined that the reference portion does not correspond to the main image portion”. Than ifFirstThis corresponds to “reducing the degree that the image feature amount is involved in determining the correction condition”. If the determinations in steps 264 and 266 are affirmed, instead of the processing in step 268, the weighting factor w1 for the individual reference densities dxi and dni is set to w1 = 0 in step 270, and the processing from step 272 is performed. You may make it perform.
[0098]
  In the next step 276, the color balance conversion condition determined above is stored in the storage unit 70 in association with the frame number of the film image, and the process once returns to step 250. Note that the processing in steps 252 to 276 described above is performed on pre-scan image data having a resolution lower than that of fine scan image data and a small amount of data, and therefore, compared with the case where processing is performed on fine scan image data. Thus, the processing can be completed in a shorter time.
[0099]
  On the other hand, when the film image is read by the fine scan unit 38 and fine scan image data is input, the determination in step 290 is affirmed and the process proceeds to step 292 to capture and store the input fine scan image data. In step 294, the color balance conversion condition (color balance conversion data to be set in the lookup table 71) corresponding to the film image represented by the fine scan image data previously captured is stored in the film 70. The image frame number is used as a key for searching and fetching, and the fetched color balance conversion data is set in the lookup table 71.
[0100]
  In step 296, fine scan image data is input to the lookup table 71 for each component color data. As a result, the fine scan image data is obtained in accordance with the color balance conversion conditions captured in step 294 in the film image in which the film characteristics of the negative film on which the film image is recorded and the density values are adopted as the individual reference densities dxi and dni. Regardless of whether or not the color of a specific pixel is a non-neutral color, the color balance is corrected so that the image for recording becomes a gray balanced image, and is output from the lookup table 71 as a recording signal. .
[0101]
  In the next step 298, the recording signal is output to the print head 120 and the process returns to step 250. As a result, in the printer processor 18, the film image is recorded on the recording material as a positive image by the print head 120. By repeating the above processing, a gray balance is obtained from each film image recorded on the negative film 12, and a recorded image in which each image portion including the main image portion in each film image is reproduced with an appropriate color is obtained. Each can be obtained, and the occurrence of color feria in the recorded image can be prevented.
[0102]
  [Second Embodiment]
  Next, a second embodiment of the present invention will be described. Since the second embodiment has the same configuration as that of the first embodiment, the same reference numerals are given to the respective parts, description of the configuration is omitted, and the operation of the second embodiment will be described below.
[0103]
  If the operation of the control circuit 42 according to the second embodiment is shown divided into blocks for each function, it is the same as FIG. 3 described in the first embodiment, but in the second embodiment, the conversion condition determining means 210 is used. The main image portion density DNF is equal to the reference density (weighted average density DDXi, DDNi or average reference density DXi, DNi) used for setting the color balance conversion condition. If it is determined that the color balance conversion condition is equal, the color balance conversion condition is corrected.
[0104]
  Next, the color balance conversion condition setting / conversion process executed by the control circuit 42 according to the second embodiment will be described with reference to the flowchart of FIG. 7 only for the parts different from the processes described in the first embodiment. .
[0105]
  In the second embodiment, if the determination in step 264 or step 266 is negative (whether the specific pixel in the film image in which the density value is used as the individual reference density dxi, dni is a pixel that does not correspond to the main image portion) If the pixel cannot be determined to correspond to the main image portion), the weights for the individual reference densities dxi and dni and the average reference densities DXi and DNi are determined in step 270, and the steps are performed based on the determined weights. In 272, the weighted average densities DDXi and DDNi are calculated, the color balance conversion conditions are determined in step 274 using the weighted average densities DDXi and DDNi as the reference densities, and then the process proceeds to step 284. The main image area density DNF is weighted. It is equal to the three-color average value DDX of the average density DDXi or the three-color average value DDN of the weighted average density DDNi (or Approximately equal to) not determined whether.
[0106]
  If the main image area density DNF is equal to (or substantially equal to) the density DDX or the density DDN, and if the fine scan image data is converted using the color balance conversion condition determined in the previous step 274, the main image area density The DNF is converted into the low density recording density Dhi or the high density recording density Dsi (or converted to a value close to any one of the recording densities), and the density of the main image portion on the recorded image is extremely high or extremely It can be determined that a so-called concentration faria is generated. Therefore, if the determination in step 284 is affirmed, the process proceeds to step 286, and the color balance conversion condition is corrected so that the main image portion density DNF is converted into an appropriate density value.
[0107]
  The color balance conversion data set in the LUT 71 is data that defines the correspondence between the density value before conversion and the density value after conversion. For example, the correction of the color balance conversion condition described above is performed on the color balance conversion data. This can be realized by correcting the converted density value in the color balance conversion data. For example, when the main image portion density DNF coincides with the density DDX, as shown in FIG. 8A, the weighted average density DDXi becomes the main image portion recording density Df (main image portion recording density Df> low density side recording density. Dhi), and the converted density value is shifted to the higher density side as a whole with respect to the density value before conversion (see the arrow in FIG. 8A). Correct the density value.
[0108]
  The correction of the color balance conversion condition can also be realized by correcting the density value before conversion in the color balance conversion data. For example, when the density DDX matches the main image area density DNF, as shown in FIG. 8B, the weighted average density DDXi is converted into the main image area recording density Df, and the converted density value The density value before conversion in the color balance conversion data is corrected so that the density value before conversion is shifted to the high density side by the density correction amount ΔD as a whole (see the arrow in FIG. 8B). As a result, the density value converted to the low density recording density Dhi becomes DDXi ′ (where DDXi ′ = DDXi + ΔD). Note that the shift amounts in FIGS. 8A and 8B must be the same for each component color.
[0109]
  As described in the first embodiment, in this embodiment, the image is exposed on the recording material 112 based on the recording signal obtained by converting the fine scan image data according to the color balance conversion condition. Changing the upper main image portion density (in the example of FIG. 8, changing the main image portion density on the recorded image from the lower density side recording density Dhi to the main image portion recording density Df) This can be realized by changing the exposure amount of the material 112. The relationship between the change in exposure and the change in negative density corresponding to this change in exposure is known in advance (for example, the change in negative density corresponding to a change of 20% in exposure is 0.07). The correction amount ΔD can be obtained from the change amount of the exposure amount for changing the main image portion density on the recorded image to the main image portion recording density Df.
[0110]
  In the above description, the case where the main image portion density DNF is equal to (or substantially equal to) the density DDX has been described as an example. However, the case where the main image area density DNF is equal to (or substantially equal to) the density DDN is described in the same manner as described above. Needless to say, the color balance conversion condition can be corrected.
[0111]
  When the color balance conversion condition is corrected as described above in step 286, the process proceeds to step 276. If the determination in step 284 is negative, no density failure occurs on the recorded image, and the process proceeds to step 276 without performing any processing.
[0112]
  On the other hand, when the determinations in step 264 and step 266 are affirmed (when the specific pixel in the film image adopting the density value as the individual reference density dxi, dni is a pixel corresponding to the main image portion). In step 268, the color balance conversion condition is determined using the average reference densities DXi and DNi as reference densities, and then the process proceeds to step 280. In step 280, it is determined whether or not the main image portion density DNF is equal to (or substantially equal to) the three-color average value DX of the average maximum reference density DXi or the three-color average value DN of the average minimum reference density DNi.
[0113]
  If the determination in step 280 is affirmative, density failure may occur on the recorded image. Therefore, in step 282, the color balance conversion condition is corrected in the same manner as in step 286, and then the process proceeds to step 276. To do. If the determination in step 280 is negative, the process proceeds to step 276 without performing any processing. The above-mentioned steps 262, 286, 282 are claimed.3This corresponds to the invention.
[0114]
  As described above, even when the main image portion density DNF in the film image is extremely high or extremely low, the so-called density failure that the density of the main image portion is extremely high or low on the recorded image is prevented. can do.
[0115]
  In the above description, when it is determined that the specific pixel in the film image using the density values as the individual reference densities dxi and dni is a pixel corresponding to the main image portion, the individual reference densities dxi and dni are the color balance conversion condition. However, the present invention is not limited to this. For example, a pixel in which a density value is used as the individual reference density dxi on the high density side is a pixel corresponding to the main image portion. In this case, the individual reference density of the low density side and the individual standard density of the middle density area are calculated to obtain the color balance conversion condition of the low density area to the middle density area, and this color balance conversion condition is extrapolated to the high density side The color balance conversion condition from the low density side to the high density side may be determined.
[0116]
  In the above description, after calculating the individual reference densities dxi and dni, it is determined whether or not a specific pixel in the film image in which the density value is used as the individual reference density dxi or dni is a pixel corresponding to the main image portion. However, the present invention is not limited to this, and the main image portion in the film image is extracted first, and the individual reference densities dxi and dni are obtained from the region obtained by removing the main image portion region from the film image. Good.
[0117]
  In the above description, the main image portion is used as the image portion corresponding to the non-neutral color subject. However, the present invention is not limited to this. For example, based on the data of a plurality of film images, Achromatic conditions that express the gradation balance of R, G, and B of pixels corresponding to subjects with colors similar to sex colors or neutral colors are defined, and pixels that do not meet these achromatic conditions or meet achromatic conditions The pixels excluding the corresponding pixels are determined as the pixels corresponding to the non-neutral color subject, and the pixels corresponding to the non-neutral color subject are excluded, or the image feature amount of the pixel determines the color balance conversion condition. The color balance conversion condition may be determined so that the degree of participation in the color becomes small. This aspectIsClaim1'sDepartureClearlyIt corresponds. The achromatic condition can be determined as follows as an example.
[0118]
  That is, a plurality of film images (whether images group recorded on the same photographic film or image groups recorded on photographic film of the same film type have similar image contents and shooting conditions. The high density side R, G, B reference density and the low density side R, G, B reference density representing the achromatic condition on the high density side and the low density side. Are respectively calculated and average values (high density side average R, G, B reference density and low density side average R, G, B reference density) are calculated. As an example, as shown in FIG. In this example, color coordinates with the R density-G density on the horizontal axis and the G density-B density on the vertical axis are shown as an example) on the high density side average R, G, B reference density and low density side average R, G, Each of the B reference densities is plotted, for example, and both are connected by a straight line (referred to as an achromatic line). Certain range around the color line (eg range enclosed by a broken line in FIG. 9) can be achromatic condition. Then, out of the data of the film image whose color balance is to be corrected, a pixel whose R, G, B density falls within the certain range is a pixel corresponding to a neutral color or a subject having a color similar to a neutral color. can do.
[0119]
  Further, in the above description, the average reference densities DXi and DNi (second conversion conditions) are obtained for each film type using data of a large number of film images recorded on the negative film of the same film type. However, the present invention is not limited to this. The second conversion condition may be obtained for each film by using data of a plurality of film images recorded on the same negative film, or a predetermined image feature amount is approximated. The second conversion condition may be obtained using data of a plurality of film images. Further, based on the information recorded on the magnetic layer of the negative film, etc., the second film image data using similar filming conditions (for example, type of illumination light, shooting location, shooting time zone, etc.) is used. You may make it obtain | require conversion conditions.
[0120]
  In the above description, the pre-scan image data is stored for a large number of film images, and the average gradation balance curve is determined based on the pre-scan image data of a large number of film images. However, the present invention is not limited to this. Alternatively, only data of pixels selected from the pre-scan image data according to a predetermined standard (for example, pixels whose color is close to gray) may be stored, and the average gradation balance curve may be obtained by taking in the data. Alternatively, only the individual maximum reference density dxi and the individual minimum reference density dni set for each film image may be stored, and the average gradation balance curve may be determined based on the average value of each individual reference density.
[0121]
  In the above description, the case where a lot of film image data is stored in advance in the storage unit 70 has been described as an example. However, the present invention is not limited to this, and in parallel with the determination of the color balance conversion condition, Data may be stored / accumulated in the storage unit 70. Further, when a certain amount of information is accumulated, storage of new information may be stopped, or old information may be deleted instead of storing new information. Further, the average reference concentrations DXi and DNi (second conversion conditions) are calculated by changing the weight of each information according to the time stored in the storage unit 70 (for example, increasing the weight of the newly stored information). You may do it.
[0122]
  Furthermore, instead of the individual reference densities dxi and dni and the average reference densities DXi and DNi, conversion conditions representing the relationship between the density before conversion and the density after conversion may be determined. This conversion condition may be linear or non-linear in the conversion characteristic, and the conversion characteristic may be expressed in the form of a conversion table, or may be expressed in the form of an equation. In the above description, the weighting coefficient for the individual reference densities dxi and dni and the weighting coefficient for the average reference densities DXi and DNi are determined in units of film images. However, the present invention is not limited to this. When the conversion condition expressed in the form of the conversion table is used, the weighting coefficient may be determined in units of table values of the conversion table. This is particularly effective when the conversion characteristic of the conversion condition is non-linear.
[0123]
  In the above description, the color balance is corrected according to the color balance conversion condition for the input fine scan image data. However, a predetermined gradation conversion process is performed for the input fine scan image data. (The fine scan image data may be separated into density data representing the density of the film image and color data representing the color of the film image, and gradation conversion processing may be performed on the density data). You may make it correct the color balance according to color balance conversion conditions with respect to subsequent image data.
[0124]
  In the above description, the two scan units (the pre-scan unit 36 and the fine scan unit 38) are provided. However, the present invention is not limited to this. For example, a single scan unit corresponding to the fine scan unit in the above embodiment is provided. An image in which the number of pixels is reduced by performing image processing such as pixel density conversion that combines pixels to reduce the number of pixels and extraction of pixels at regular intervals to the image data input from the scan unit The data may be similarly used as the prescan image data described in the above embodiment.
[0125]
  In the above description, the negative image recorded on the negative film 12 is described as an example of the film image. However, the present invention is not limited to this. For example, a positive image recorded on another photographic film such as a reversal film. It is also possible to use other film images. In addition to photosensitive materials such as photographic paper, recording materials such as plain paper, heat-sensitive materials, and OHP sheets can also be applied to the recording medium.
[0126]
  Further, the present invention is not limited to being applied to a color reproduction system that records an image with three colors of R, G, and B. For example, an image is displayed with four colors of R, G, B, and K (black). It can also be applied to a color reproduction system for recording.
[0127]
  In the above description, the density value (optical density) is described as an example of the physical quantity representing the density of the original image. However, the present invention is not limited to this, but the brightness value, the conversion value corresponding to the chromatic lightness, and the original image Various physical quantities such as a photometric value, a halftone dot area ratio, and a value obtained by exponential conversion of the density value can be applied.
[0128]
  In the above, the color balance conversion data corresponding to the color balance conversion condition is set in the look-up table, and the color balance is corrected using the look-up table. In addition, the color balance conversion may be performed according to the conversion condition represented by the above, and the color balance conversion condition having desired conversion characteristics may be obtained by directly changing the function formula or the like.
[0129]
【The invention's effect】
[0131]
  According to the first aspect of the present invention, an achromatic color condition representing a gradation balance of R, G, and B of a pixel corresponding to a neutral color object in the original image is defined, and the original image is based on the determined achromatic color condition. The pixel corresponding to the non-neutral color subject is determined, the image feature amount for determining the correction condition is extracted only from the image portion corresponding to the neutral color subject in the original image, and the extracted image feature Use the quantity to determine the correction conditionRuThus, the influence of the image portion corresponding to the non-neutral color subject existing in the original image can be reduced, and the image data can be corrected so that the image represented by the image data has an appropriate color balance. , Has an excellent effect.
[0132]
  According to the second and fourth aspects of the present invention, in the reference portion and the low density side gradation value range in the original image corresponding to the high density side gradation value range, which are the extraction targets of the image feature amount used for determining the correction condition. Detecting at least one of the corresponding reference parts in the original image and determining whether the detected reference part corresponds to the main image part in the original image;Extracting a first image feature amount from the detected reference portion and obtaining a second image feature amount from a plurality of original images different from the original image;When it is determined that the detected reference part corresponds to the main image part, than when it is determined that the detected reference part does not correspond to the main image part,FirstTo reduce the degree that image features are involved in determining correction conditions,FirstImage features andSecondThe weight value of the image feature amount is determined, the weighted average value is calculated, and the correction condition is determined based on the calculated weighted average value, so that the gradation value of the main image portion in the original image is extremely high or low Even in this case, there is an excellent effect that the image data can be corrected so that the main image portion is reproduced with an appropriate color.
[0133]
  Claim3The described invention calculates the gradation value of the main image portion in the original image, and determines the correction condition so that the calculated gradation value of the main image portion is corrected to a predetermined gradation value. In addition, even when the gradation value of the main image portion in the original image is extremely high or low, the image data can be corrected so that the main image portion is reproduced with an appropriate gradation value. Have
[Brief description of the drawings]
FIG. 1 is a schematic configuration diagram of a photographic processing system according to an embodiment.
FIG. 2 is a schematic configuration diagram of a film image reading apparatus.
FIG. 3 is a functional block diagram of a control circuit according to the present embodiment.
FIG. 4 is a flowchart showing color balance conversion condition setting / conversion processing executed by the control circuit according to the first embodiment;
FIG. 5 is a diagram showing an example of an average gradation balance curve.
FIG. 6 is a diagram illustrating an example of color balance conversion conditions.
FIG. 7 is a flowchart showing color balance conversion condition setting / conversion processing executed by the control circuit according to the second embodiment.
FIGS. 8A and 8B are diagrams for explaining an example of correction to a color balance conversion condition when the density of a main image portion is extremely high or low.
FIG. 9 is a diagram showing a range on color coordinates used for selecting a pixel for determining an achromatic color condition;
[Explanation of symbols]
        10 Photo processing system
        12 Negative film
        36 Pre-scan section
        38 Fine scan section
        42 Control circuit
        71 LUT
      112 Recording material
      120 print head

Claims (4)

原画像を表す画像データに対し、前記画像データが表す画像が少なくともグレイバランスのとれた色バランスの画像となるように、前記画像データを修正条件に従って修正する画像処理方法であって、
複数の原画像のデータに基づいて、原画像中の中性色の被写体に相当する画素のR、G、Bの階調バランスを表す無彩色条件を定め、
前記無彩色条件に基づき、前記原画像中の非中性色の被写体に相当する画素を判定し、
前記原画像中の中性色の被写体に相当する画像部のみから、前記修正条件を決定するための画像特徴量を抽出し、抽出した画像特徴量を用いて前記修正条件を決定し
前記決定した修正条件に従って前記画像データを修正する
ことを特徴とする画像処理方法。
An image processing method for correcting the image data according to a correction condition so that an image represented by the image data is an image having a color balance with at least gray balance with respect to image data representing an original image,
Based on the data of a plurality of original images, an achromatic color condition representing a gradation balance of R, G, B of pixels corresponding to a neutral subject in the original image is determined,
Based on the achromatic condition, determine a pixel corresponding to a non-neutral subject in the original image;
The only image portion corresponding to a subject of a neutral color in the original image, extracts an image feature amount for determining the adjustment conditions, and determine the modified conditions using the extracted image feature amount,
An image processing method comprising correcting the image data according to the determined correction condition.
原画像を表す画像データに対し、前記画像データが表す画像が少なくともグレイバランスのとれた色バランスの画像となるように、前記画像データを修正条件に従って修正する画像処理方法であって、
前記修正条件の決定に用いる画像特徴量の抽出対象である、高濃度側階調値域に対応する前記原画像中の基準部分及び低濃度側階調値域に対応する前記原画像中の基準部分の少なくとも一方を検出し、
前記検出した基準部分が前記原画像中の主要画像部に対応しているか否かを判定し、
前記検出した基準部分から第1の画像特徴量を抽出すると共に、前記原画像と異なる複数の原画像から第2の画像特徴量を求め、前記検出した基準部分が前記主要画像部に対応していると判定した場合に、前記検出した基準部分が前記主要画像部に対応していないと判定した場合よりも、前記第1の画像特徴量が前記修正条件の決定に関与する度合いが低下するように、前記第1の画像特徴量及び前記第2の画像特徴量の重みを決定して重み付き平均値を演算し、演算した前記重み付き平均値に基づいて前記修正条件を決定し、
前記決定した修正条件に従って前記画像データを修正する
ことを特徴とする画像処理方法。
An image processing method for correcting the image data according to a correction condition so that an image represented by the image data is an image having a color balance with at least gray balance with respect to image data representing an original image,
The reference part in the original image corresponding to the high density side tone value range and the reference part in the original image corresponding to the low density side tone value range, which are the extraction targets of the image feature amount used for determining the correction condition Detect at least one,
Determining whether the detected reference portion corresponds to a main image portion in the original image;
A first image feature amount is extracted from the detected reference portion , a second image feature amount is obtained from a plurality of original images different from the original image, and the detected reference portion corresponds to the main image portion. If it is determined that the detected reference portion does not correspond to the main image portion, the degree to which the first image feature amount is involved in the determination of the correction condition is reduced compared to the case where it is determined that the detected reference portion does not correspond to the main image portion. And calculating a weighted average value by determining weights of the first image feature amount and the second image feature amount, determining the correction condition based on the calculated weighted average value,
An image processing method comprising correcting the image data according to the determined correction condition.
前記原画像中の主要画像部の階調値を算出し、算出した主要画像部の階調値が所定の階調値に修正されるように前記修正条件を決定することを特徴とする請求項2記載の画像処理方法。  The gradation value of the main image portion in the original image is calculated, and the correction condition is determined so that the calculated gradation value of the main image portion is corrected to a predetermined gradation value. 3. The image processing method according to 2. 原画像を表す画像データに対し、前記画像データが表す原画像が少なくともグレイバランスのとれた色バランスの画像となるように、前記画像データを修正条件に従って修正する画像処理装置であって、
前記修正条件の決定に用いる画像特徴量の抽出対象である、高濃度側階調値域に対応する前記原画像中の基準部分及び低濃度側階調値域に対応する前記原画像中の基準部分の少なくとも一方を検出する検出手段と、
前記検出手段によって検出された基準部分が前記原画像中の主要画像部に対応しているか否かを判定する判定手段と、
前記検出された基準部分から第1の画像特徴量を抽出すると共に、前記原画像と異なる複数の原画像から第2の画像特徴量を求め、前記検出された基準部分が前記主要画像部に対応していると前記判定手段によって判定された場合に、前記検出された基準部分が前記主要画像部に対応していないと前記判定手段によって判定された場合よりも、前記第1の画像特徴量が前記修正条件の決定に関与する度合いが低下するように、前記第1の画像特徴量及び前記第2の画像特徴量の重みを決定して重み付き平均値を演算し、演算した前記重み付き平均値に基づいて前記修正条件を決定する決定手段と、
前記決定手段によって決定された修正条件に従って前記画像データを修正する修正手段と、
を備えたことを特徴とする画像処理装置。
An image processing apparatus that corrects the image data according to correction conditions so that the original image represented by the image data is an image having a color balance with at least gray balance with respect to the image data representing the original image,
The reference part in the original image corresponding to the high density side tone value range and the reference part in the original image corresponding to the low density side tone value range, which are the extraction targets of the image feature amount used for determining the correction condition Detection means for detecting at least one;
Determination means for determining whether or not a reference portion detected by the detection means corresponds to a main image portion in the original image;
A first image feature amount is extracted from the detected reference portion , a second image feature amount is obtained from a plurality of original images different from the original image, and the detected reference portion corresponds to the main image portion. If the determination means determines that the detected reference portion does not correspond to the main image portion, the first image feature amount is larger than that determined by the determination means. The weighted average is calculated by determining the weighted average value by determining the weight of the first image feature quantity and the second image feature quantity so that the degree of participation in the determination of the correction condition is reduced. Determining means for determining the correction condition based on a value;
Correction means for correcting the image data according to the correction condition determined by the determination means;
An image processing apparatus comprising:
JP02687697A 1997-02-10 1997-02-10 Image processing method and apparatus Expired - Lifetime JP3954144B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP02687697A JP3954144B2 (en) 1997-02-10 1997-02-10 Image processing method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP02687697A JP3954144B2 (en) 1997-02-10 1997-02-10 Image processing method and apparatus

Publications (2)

Publication Number Publication Date
JPH10224650A JPH10224650A (en) 1998-08-21
JP3954144B2 true JP3954144B2 (en) 2007-08-08

Family

ID=12205506

Family Applications (1)

Application Number Title Priority Date Filing Date
JP02687697A Expired - Lifetime JP3954144B2 (en) 1997-02-10 1997-02-10 Image processing method and apparatus

Country Status (1)

Country Link
JP (1) JP3954144B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4697987B2 (en) * 2009-01-22 2011-06-08 キヤノン株式会社 Image processing apparatus and method
JP4865916B2 (en) * 2011-02-04 2012-02-01 キヤノン株式会社 Image processing apparatus and method

Also Published As

Publication number Publication date
JPH10224650A (en) 1998-08-21

Similar Documents

Publication Publication Date Title
JPH09197577A (en) Digital sensitivity correction processing
JPH09171220A (en) Exposure deciding method
JP4655210B2 (en) Density correction curve generation method and density correction curve generation module
US20010046070A1 (en) Image reading apparatus, image recording medium and image forming apparatus
US7119923B1 (en) Apparatus and method for image processing
JP3954144B2 (en) Image processing method and apparatus
JP3645384B2 (en) Copying apparatus and copying condition determining method
JP4143279B2 (en) Image defect detection method and image reading apparatus
JP2000209396A (en) Picture reading method and picture reader
US7292379B2 (en) Image reader and image reading method
JP3904635B2 (en) Imaging device
JP3086352B2 (en) Gray balance correction method
JPH1079854A (en) Image information conversion method, its condition setting method and image recording device
JPH10191055A (en) Image information conversion method and image recorder
JP3494924B2 (en) Density characteristic correction method and color correction method
JP3319623B2 (en) Gray balance correction method
JPH08179446A (en) Formation of photographic print
JPH10271316A (en) Converting method for image information and image recorder
JPH10271346A (en) Method and device for converting image information
JPH1079857A (en) Conversion method for image information and image recording device
JP2749801B2 (en) How to set color image analysis conditions
JP3749307B2 (en) Copy apparatus and copy control method
JPH06178113A (en) Image data preservation and conversion device and device for calculating image representative value
JPH10224649A (en) Method and device for converting image data
JP3530640B2 (en) Digital image recording method and apparatus, and digital image processing apparatus

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070112

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20070112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070424

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070426

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110511

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110511

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120511

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130511

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140511

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term